Buscar


Filtros actuales:


Comenzar nueva busqueda
Añadir filtros:

Usa los filtros para afinar la busqueda.


Resultados 1-1 de 1.
  • Anterior
  • 1
  • Siguiente
Resultados por ítem:
FechaTítuloResumen
28-abr-2023Observatorio de Derecho Informático Argentino (O.D.I.A.) (Causa N° 182908/2020)El Gobierno de la Ciudad de Buenos Aires implementó el Sistema de Reconocimiento Facial de Prófugos (SRFP) en la jurisdicción de Ciudad Autónoma de Buenos Aires. El SRFP buscaba determinar si los rostros que se obtenían mediante el uso de cámaras de videovigilancia se encontraban y si correspondían o no con los rostros almacenados en la base de datos del sistema de Consulta Nacional de Rebeldía y Capturas (CoNaRC). En razón de ello, el Observatorio de Derecho Informático Argentino (O.D.I.A.) promovió una acción de amparo con el objetivo de que se declaren inconstitucionales la Resolución N° 398/MJYSGC/19 y la Ley N° 6339, en cuanto implementaron el SRFP, y también esta última en tanto modificó los artículos 478, 480, 484, 490 de la Ley N° 5688 e incorporó los artículos 480 bis y 490 bis. Ello, por considerar que afectaba, entre otros, el derecho a la libre circulación de las personas, el derecho de reunión, a la intimidad, a la no discriminación, a la igualdad y la protección de datos. El juzgado de primera instancia en lo Contencioso Administrativo y Tributario N° 4 dictó sentencia contra el GCBA y suspendió el uso del SRFP. En la sentencia el juzgado de grado mencionó que aquello no significaba una merma de los restantes sistemas de videovigilancia (monitoreo urbano), preventivo y forense; ni mucho menos un menoscabo en el servicio de seguridad pública, dado que el SRFP se encontraba inactivo por decisión del GCBA. Además, sostuvo que el problema no se centró en el SRFP en sí mismo, sino en las consecuencias que acarreaba su prematura implementación y su utilización en condiciones precarias de respeto por los derechos y garantías de las personas. Por ello, explicó que para que volviera a ser implementado, debían funcionar los mecanismos de control, constituirse un registro de datos relativo al sistema de videovigilancia, realizarse el estudio previo de impacto sobre los datos personales (Evaluación del Impacto en la Privacidad —EIP—) y convocarse a la ciudadanía a debatir sobre dicho mecanismo. Contra esa decisión, O.D.I.A. junto al CELS y dos personas que se presentaron como actores, interpusieron un recurso de apelación. La parte actora criticó el fallo de primera instancia por mantener la vigencia del SRFP supeditada al funcionamiento de los órganos de control (Comisión Especial de Seguimiento de los Sistemas de Video Vigilancia y Defensoría del Pueblo local) pues según el peritaje técnico el sistema era deficiente y no resultaba suficiente la existencia de mayores controles y reaseguros para evitar la vulneración de los derechos de las personas. Además, destacó que eran las características del sistema lo que lo tornaba inseguro, más allá de los contralores que pudieran desarrollar los organismos competentes, por lo que no existía ningún mecanismo de vigilancia que hiciera compatible esta herramienta con los derechos personales afectados. Asimismo, cuestionó la falta de participación y debate ciudadano antes de la sanción de las normas que regulan el SRFP. Por otro lado, afirmó que el SRFP violaba los derechos personales a la intimidad, privacidad y de protección de datos personales porque las cámaras captaban la totalidad de los rostros que pasaban por delante de ella y porque dotaba al Estado de información precisa respecto de los lugares públicos dentro de la Ciudad Autónoma de Buenos Aires donde se encontraban las personas. En esa línea, criticó que en la sentencia de primera instancia no se había analizado concretamente la afectación que el SRFP provocaba sobre tales derechos y que el SRFP realizaba un tratamiento de datos personales sensibles que requería el consentimiento del titular de la imagen. Por su parte, el CELS, entre otras cosas, sostuvo que el software que utilizaba el SRFP era discriminatorio y, por ende, atentaba contra el derecho a la igualdad toda vez que la precisión de los sistemas de reconocimiento facial variaba en función del color, la raza, el género de las personas, incrementando las posibilidades de errores y de falsos positivos, generando impactos desproporcionados sobre grupos en situación de vulnerabilidad, entre las cuales se encontraban las mujeres.