Último momento

Especialistas rechazan la aplicación de tecnología para reconocimiento facial

Alertan sobre la violación de derechos básicos. También sobre errores que derivan en detenciones arbitrarias.

Este martes, en un acto que contó con la presencia de las más altas autoridades provinciales, la Policía de Córdoba presentó un móvil equipado con cámaras de video y software para el reconocimiento biométrico. De manera paralela, puso oficialmente en funcionamiento cinco puestos fijos, “con cuatro cámaras cada uno, con esta tecnología que permite la identificación de personas con pedido de captura o paradero por parte de la Justicia”. (Ver: La policía de Córdoba ya utiliza un camión “busca prófugos”)

“Este sistema utiliza la Inteligencia Artificial, lo que permite obtener altísimos índices de aciertos en el reconocimiento de personas. Utiliza cámaras de alta resolución, que a través de un software logra identificar los rostros de las personas registradas y compara estas imágenes con una base de datos proporcionada por la Justicia, con personas con pedido de captura o requerimiento de paradero”, destacó el Gobierno a través de su sitio de prensa.

Se trata de otro paso en la ampliación de sistemas vigilancia, basados en Inteligencia Artificial, en la provincia. En los últimos años, de manera paulatina, los gobiernos de Unión por Córdoba han instalado cámaras en distintos puntos de la ciudad. Incluso en patrulleros. Las imágenes recogidas son analizadas en centros de monitoreo.

Procedimientos similares han sido aplicados en distintas ciudades del mundo. Aunque algunas los mantienen, decenas de gobiernos han dado marcha atrás con su implementación, atendiendo las peticiones de especialistas y defensores de derechos tan básicos como la privacidad y la intimidad.

Córdoba no es la excepción. Desde hace años distintos expertos advierten sobre los riesgos que implica avanzar sobre una vigilancia masiva, según la cual la presunción de sospecha se extiende sobre cada ciudadano.

También advierten sobre la recurrencia de los denominados falsos positivos: aquellos casos en que, por confusión o mal procedimiento, una persona inocente es privada de su libertad.

Además, siembran dudas sobre el manejo de los datos biométricos, un valor fundamental para el Derecho.

Lesiones

“Hay varios argumentos esenciales para rechazar la incorporación de cámaras de reconocimiento facial. El primero es práctico: tiene muchos errores. El segundo es que genera más lesiones a los derechos humanos que cosas positivas”, señala Javier Pallero, responsable para Sudamérica de Acces Now, organización internacional sin fines de lucro, dedicada a los derechos humanos, la política pública, y el activismo por la defensa del Internet abierto y libre.

“Es cuestión de equilibrios. Está prohibido en muchos países por el desbalance entre utilidad y lesión de derechos. Para agarrar prófugos, no necesariamente por delitos graves, sometiste a millones de personas a una medida que viola su privacidad. El Estado viola derechos cada vez que usa la tecnología, cada vez que pasás ante una cámara. Cuando el Estado usa esta herramienta indiscriminadamente, ejerce su poder de policía sobre tu intimidad”, prosigue

“Captura tu cara y la compara en una base de datos. ¿Qué hace después con esa información? No se sabe. El sólo hecho que el Estado capture tu cara es como si agarraran tu mano y de prepo la pasaran por un lector de huellas. O que te pusieran en una rueda de reconocimiento de personas. Eso pasa cada vez que pasás delante de una cámara. Hay un atentado a la privacidad”, amplía a cba24n.

Por otra parte, advierte que cualquier sistema de análisis y tratamiento de la información recogida puede ser objeto de ataques informáticos.

“Toda herramienta digital es hackeable. Por más que digan que sólo atañe a prófugos, por su propio funcionamiento la herramienta captura información biométrica, genera un archivo de todo el mundo que luego compara con la base de datos. Toda esa información se puede hackear, se puede filtrar. Si cae en malas manos, el daño sería enorme. Ni hablar si el gobierno es tu enemigo…”, indica Pallero.

Irreflexivo

“Está bien que incorporen tecnología, pero lo hacen de modo irreflexivo. Los datos biométricos que recoge el Estado no son rigurosamente cuidados. La ley es laxa: no sabemos si estado nacional y provinciales comparten los datos biométricos. Las imágenes no se captan con consentimiento informado. A su vez no se sabe el modo en que son procesados por el software, porque no sabemos cómo funciona” apunta el abogado Andrés Piazza.

“Los software de reconocimiento facial pueden ser legales, eventualmente, en el espacio privado de una empresa. Pero allí se usan para fines específicos. Acá los delincuentes pueden tomar medidas para prevenirse. Los ciudadanos comunes no, por lo que tendrán una limitación en su comportamiento”, añade.

En ese marco, señala la necesidad de contar con instituciones y regulación específica sobre el manejo de los datos biométricos, tal como ocurre en distintos países del mundo. Especialmente atendiendo a los abusos que pudieran cometerse.

“Los software tienen tasas altísimas de falsos positivos. La Inteligencia Artificial no puede predecir el futuro, sino mirar al pasado. Saca 10 caras y dice que una cara posible es así, con tales rasgos, lo que motiva muchos falsos positivos”, justifica.

“Antes de la instalación de cámaras en espacios públicos ¿cuál era la tasa de delitos? ¿Cuál es el retorno de inversión? Acá se cercenan derechos y no hay compensación: perdés libertad, perdés plata y no ganás nada”, sentencia el titular de la ONG cordobesa Desarrollo Digital.

Invertir la carga

“Con estos sistemas se invierte la carga de la prueba. Al recolectar datos de toda la población se asume que todos los que están caminando por ahí pueden ser criminales. Es como si todos estuviésemos siendo sujetos de reconocimiento todo el tiempo”, profundiza el abogado y activista Gaspar Pisanú.

“En otros lugares donde se implementó, el mayor problema tiene que ver con la falta de actualización de las bases de datos. En Buenos Aires dicen que las brinda el Renaper. En Córdoba, Massei dijo que la base proviene de la Justicia. Pero la recolección de datos biométricos, que son muy sensibles, amerita protección especial. No se puede admitir livianamente el cruce entre organismos del Estado recolectaron la información para finalidades distintas”, explica.

Mudanza

“Esta iniciativa tiene antecedentes de fracaso. En distintos lugares disminuyó el delito, pero aumentó en lugares aledaños. O sea, disuade sólo en la zona donde están las cámaras, porque los delincuentes se van a otro lugar. O sea, no disminuye el delito en general”, reflexiona José Arce, especialista en ciberdelitos.

De inmediato, advierte sobre la necesidad de brindar nuevas garantías a la ciudadanía ante la creciente utilización de dispositivos de vigilancia.

“Es una cuestión de proporcionalidad. Nadie dice que el Estado no use tecnología. Pero a uso de herramientas con mayor potencial para violar derechos deberían ser mayores las garantías que se deben dar al ciudadano. Si usás una herramienta que tiene un potencial de lesividad nunca antes visto, que se pueden meter con tu privacidad y hacer lo que quieran, no puede no haber una contraparte de garantías. Deben garantizar una respuesta”, enfatiza.

Comentar

Su dirección de correo electrónico no será publicada.Los campos necesarios están marcados *

*