脷ltimo momento

Especialistas rechazan la aplicaci贸n de tecnolog铆a para reconocimiento facial

Alertan sobre la violaci贸n de derechos b谩sicos. Tambi茅n sobre errores que derivan en detenciones arbitrarias.

Este martes, en un acto que cont贸 con la presencia de las m谩s altas autoridades provinciales, la Polic铆a de C贸rdoba present贸 un m贸vil equipado con c谩maras de video y software para el reconocimiento biom茅trico. De manera paralela, puso oficialmente en funcionamiento cinco puestos fijos, 鈥渃on cuatro c谩maras cada uno, con esta tecnolog铆a que permite la identificaci贸n de personas con pedido de captura o paradero por parte de la Justicia”. (Ver: La polic铆a de C贸rdoba ya utiliza un cami贸n 鈥渂usca pr贸fugos鈥)

鈥淓ste sistema utiliza la Inteligencia Artificial, lo que permite obtener alt铆simos 铆ndices de aciertos en el reconocimiento de personas. Utiliza c谩maras de alta resoluci贸n, que a trav茅s de un software logra identificar los rostros de las personas registradas y compara estas im谩genes con una base de datos proporcionada por la Justicia, con personas con pedido de captura o requerimiento de paradero”, destac贸 el Gobierno a trav茅s de su sitio de prensa.

Se trata de otro paso en la ampliaci贸n de sistemas vigilancia, basados en Inteligencia Artificial, en la provincia. En los 煤ltimos a帽os, de manera paulatina, los gobiernos de Uni贸n por C贸rdoba han instalado c谩maras en distintos puntos de la ciudad. Incluso en patrulleros. Las im谩genes recogidas son analizadas en centros de monitoreo.

Procedimientos similares han sido aplicados en distintas ciudades del mundo. Aunque algunas los mantienen, decenas de gobiernos han dado marcha atr谩s con su implementaci贸n, atendiendo las peticiones de especialistas y defensores de derechos tan b谩sicos como la privacidad y la intimidad.

C贸rdoba no es la excepci贸n. Desde hace a帽os distintos expertos advierten sobre los riesgos que implica avanzar sobre una vigilancia masiva, seg煤n la cual la presunci贸n de sospecha se extiende sobre cada ciudadano.

Tambi茅n advierten sobre la recurrencia de los denominados falsos positivos: aquellos casos en que, por confusi贸n o mal procedimiento, una persona inocente es privada de su libertad.

Adem谩s, siembran dudas sobre el manejo de los datos biom茅tricos, un valor fundamental para el Derecho.

Lesiones

鈥淗ay varios argumentos esenciales para rechazar la incorporaci贸n de c谩maras de reconocimiento facial. El primero es pr谩ctico: tiene muchos errores. El segundo es que genera m谩s lesiones a los derechos humanos que cosas positivas”, se帽ala Javier Pallero, responsable para Sudam茅rica de Acces Now, organizaci贸n internacional sin fines de lucro, dedicada a los derechos humanos, la pol铆tica p煤blica, y el activismo por la defensa del Internet abierto y libre.

鈥淓s cuesti贸n de equilibrios. Est谩 prohibido en muchos pa铆ses por el desbalance entre utilidad y lesi贸n de derechos. Para agarrar pr贸fugos, no necesariamente por delitos graves, sometiste a millones de personas a una medida que viola su privacidad. El Estado viola derechos cada vez que usa la tecnolog铆a, cada vez que pas谩s ante una c谩mara. Cuando el Estado usa esta herramienta indiscriminadamente, ejerce su poder de polic铆a sobre tu intimidad”, prosigue

鈥淐aptura tu cara y la compara en una base de datos. 驴Qu茅 hace despu茅s con esa informaci贸n? No se sabe. El s贸lo hecho que el Estado capture tu cara es como si agarraran tu mano y de prepo la pasaran por un lector de huellas. O que te pusieran en una rueda de reconocimiento de personas. Eso pasa cada vez que pas谩s delante de una c谩mara. Hay un atentado a la privacidad”, ampl铆a a cba24n.

Por otra parte, advierte que cualquier sistema de an谩lisis y tratamiento de la informaci贸n recogida puede ser objeto de ataques inform谩ticos.

鈥淭oda herramienta digital es hackeable. Por m谩s que digan que s贸lo ata帽e a pr贸fugos, por su propio funcionamiento la herramienta captura informaci贸n biom茅trica, genera un archivo de todo el mundo que luego compara con la base de datos. Toda esa informaci贸n se puede hackear, se puede filtrar. Si cae en malas manos, el da帽o ser铆a enorme. Ni hablar si el gobierno es tu enemigo鈥”, indica Pallero.

Irreflexivo

鈥淓st谩 bien que incorporen tecnolog铆a, pero lo hacen de modo irreflexivo. Los datos biom茅tricos que recoge el Estado no son rigurosamente cuidados. La ley es laxa: no sabemos si estado nacional y provinciales comparten los datos biom茅tricos. Las im谩genes no se captan con consentimiento informado. A su vez no se sabe el modo en que son procesados por el software, porque no sabemos c贸mo funciona” apunta el abogado Andr茅s Piazza.

鈥淟os software de reconocimiento facial pueden ser legales, eventualmente, en el espacio privado de una empresa. Pero all铆 se usan para fines espec铆ficos. Ac谩 los delincuentes pueden tomar medidas para prevenirse. Los ciudadanos comunes no, por lo que tendr谩n una limitaci贸n en su comportamiento”, a帽ade.

En ese marco, se帽ala la necesidad de contar con instituciones y regulaci贸n espec铆fica sobre el manejo de los datos biom茅tricos, tal como ocurre en distintos pa铆ses del mundo. Especialmente atendiendo a los abusos que pudieran cometerse.

鈥淟os software tienen tasas alt铆simas de falsos positivos. La Inteligencia Artificial no puede predecir el futuro, sino mirar al pasado. Saca 10 caras y dice que una cara posible es as铆, con tales rasgos, lo que motiva muchos falsos positivos”, justifica.

鈥淎ntes de la instalaci贸n de c谩maras en espacios p煤blicos 驴cu谩l era la tasa de delitos? 驴Cu谩l es el retorno de inversi贸n? Ac谩 se cercenan derechos y no hay compensaci贸n: perd茅s libertad, perd茅s plata y no gan谩s nada”, sentencia el titular de la ONG cordobesa Desarrollo Digital.

Invertir la carga

鈥淐on estos sistemas se invierte la carga de la prueba. Al recolectar datos de toda la poblaci贸n se asume que todos los que est谩n caminando por ah铆 pueden ser criminales. Es como si todos estuvi茅semos siendo sujetos de reconocimiento todo el tiempo”, profundiza el abogado y activista Gaspar Pisan煤.

鈥淓n otros lugares donde se implement贸, el mayor problema tiene que ver con la falta de actualizaci贸n de las bases de datos. En Buenos Aires dicen que las brinda el Renaper. En C贸rdoba, Massei dijo que la base proviene de la Justicia. Pero la recolecci贸n de datos biom茅tricos, que son muy sensibles, amerita protecci贸n especial. No se puede admitir livianamente el cruce entre organismos del Estado recolectaron la informaci贸n para finalidades distintas”, explica.

Mudanza

鈥淓sta iniciativa tiene antecedentes de fracaso. En distintos lugares disminuy贸 el delito, pero aument贸 en lugares aleda帽os. O sea, disuade s贸lo en la zona donde est谩n las c谩maras, porque los delincuentes se van a otro lugar. O sea, no disminuye el delito en general”, reflexiona Jos茅 Arce, especialista en ciberdelitos.

De inmediato, advierte sobre la necesidad de brindar nuevas garant铆as a la ciudadan铆a ante la creciente utilizaci贸n de dispositivos de vigilancia.

鈥淓s una cuesti贸n de proporcionalidad. Nadie dice que el Estado no use tecnolog铆a. Pero a uso de herramientas con mayor potencial para violar derechos deber铆an ser mayores las garant铆as que se deben dar al ciudadano. Si us谩s una herramienta que tiene un potencial de lesividad nunca antes visto, que se pueden meter con tu privacidad y hacer lo que quieran, no puede no haber una contraparte de garant铆as. Deben garantizar una respuesta”, enfatiza.

Comentar

Su direcci贸n de correo electr贸nico no ser谩 publicada.Los campos necesarios est谩n marcados *

*