Buscar por Voces SISTEMA DE RECONOCIMIENTO FACIAL

Ir a una fecha de inicio:
Mostrando resultados 1 a 10 de 10
FechaTítuloResumen
8-ago-2019Patel v. FacebookEn 2010, Facebook presentó la herramienta “sugerencia de etiquetas” que utilizaba un sistema de reconocimiento facial para identificar personas en las fotografías que los usuarios cargaban a Facebook libremente. En 2015, un grupo de usuarios presentó una demanda colectiva en virtud de la Ley de Privacidad de la Información Biométrica de Illinois (“BIPA”, siglas en inglés) ante el Tribunal de Distrito para el Norte de California, con el objetivo de impugnar la recopilación de información facial biométrica sin consentimiento previo que utilizaba la red social “Facebook”. Los usuarios afectados alegaron que el sistema de sugerencias funcionaba mediante un proceso de reconocimiento facial de cuatro pasos. Primero, el sistema detectaba los rostros de las imágenes que se cargaban. Luego, la herramienta estandarizaba o “alineaba” los rostros según un conjunto de parámetros (distancia entre los ojos, la nariz y las orejas). En el tercer paso, el sistema calcula una “firma facial”, que es una cadena de números que representa ese rostro en particular. Luego, el sistema busca una coincidencia en una base de datos de “plantillas faciales” almacenadas en la red social. Las plantillas faciales almacenadas se calculaban en función de otras fotografías en las que se había etiquetado a un usuario. De esa manera se producía una coincidencia cuando la firma facial caía dentro de un umbral de similitud con una de las plantillas faciales almacenadas. Esto le permitía a “Facebook” sugerir etiquetar al usuario al que le pertenece la plantilla facial. El Tribunal de Distrito de los Estados Unidos para el Norte de California hizo lugar a la demanda colectiva presentada por el grupo de usuarios. La defensa de “Facebook” apeló la medida ante el Tribunal de Apelaciones del Noveno Circuito con sede en California. Alegó que los demandantes no habían acreditado ningún perjuicio concreto, y que solo almacenaba plantillas faciales y no firmas faciales.
17-sep-2020Observación General Nº 37 (2020), relativa al derecho de reunión pacífica (artículo 21)El Comité de Derechos Humanos emitió una observación general donde delineó el contenido y los alcances de las obligaciones estatales bajo el artículo 21 del Pacto Internacional de Derechos Civiles y Políticos que reconoce el derecho a la reunión pacífica.
7-may-2021IDEC v. Concesionaria de la Línea 4 del Metro de San Pablo (ViaQuatro)En 2018, la empresa “Via Quatro”, operador de la concesionaria responsable de la Línea 4 del Metro de San Pablo, instaló puertas interactivas en algunas estaciones con el objetivo de proyectar anuncios personalizados a los pasajeros, así como también para recabar información que pudiera servir en la medición de información demográfica y analizar la reacción emocional de los usuarios del servicio por intermedio de cámaras equipadas con tecnología de reconocimiento facial. Ante esta situación, el Instituto Brasilero de Defensa del Consumidor (IDEC) —organismo de protección de los derechos del consumidor— junto a la oficina de los defensores públicos del Estado de San Pablo, presentaron una acción colectiva ante un juzgado civil del mismo lugar con la pretensión de que, como medida cautelar, la empresa concesionaria deje de recopilar datos de los puertos interactivos digitales y que confirme la desconexión de las cámaras ya instaladas, bajo pena de multa diaria de $50.000 reales. Además, solicitó que se condene a la empresa concesionaria a no utilizar datos biométricos o cualquier otro tipo de identificación de consumidores y usuarios del transporte público; a pagar una indemnización por la utilización indebida de la imagen de los consumidores, y por daños colectivo en un valor no inferior a los 100 millones de reales brasileños.
11-ago-2021Observatorio de Derecho Informático Argentino (O.D.I.A.) (Causa N° 182908/2020)El Gobierno de la Ciudad de Buenos Aires implementó el Sistema de Reconocimiento Facial de Prófugos (SRFP) en la jurisdicción de Ciudad Autónoma de Buenos Aires. El SRFP buscaba determinar si los rostros que se obtenían mediante el uso de cámaras de videovigilancia se encontraban y si correspondían o no con los rostros almacenados en la base de datos del sistema de Consulta Nacional de Rebeldía y Capturas (CoNaRC). El Observatorio de Derecho Informático Argentino (O.D.I.A) promovió una acción de amparo con el objetivo de cuestionar la constitucionalidad de la Ley N° 6339 y de la resolución N° 398/MJSGC/19, mediante los cuales se había implementado el SRFP. Para ello, sostuvo que el Gobierno de la Ciudad de Buenos Aires había contratado el uso e implementación del sistema de reconocimiento facial de forma directa con una empresa privada sin un debate previo que permita sostener su pertinencia y seguridad. Además, señaló que los efectos de la vigencia de esa normativa lesionaban de forma manifiesta los derechos de toda la sociedad. También precisó que las bases de datos de las caras que luego serán comparadas tienen predominancia de hombres blancos cisgénero, por lo que los sistemas de reconocimiento facial aprenden mejor cómo diferenciar a dos personas con estas características que al resto de la población y por ello la mayoría de esos programas suelen presentar sesgos en cuanto discriminan por raza, color y etnia. El juzgado N° 11 de primera instancia en lo Contencioso, Administrativo y Tributario rechazó in limine la acción de amparo interpuesta. Para decidir así, indicó que la actora pretendía un pronunciamiento judicial en abstracto acerca de la adecuación legal y constitucional la Ley N° 6339 y de la resolución N° 398/MJSGC/19 y que no se había cuestionado ningún acto u omisión sustentados en esas normas. Destacó que no se había planteado un caso concreto particular en el que se hayan visto afectados los derechos invocados ni tampoco era posible visualizar la amenaza a esos derechos en abstracto sin caer en el campo de lo hipotético. En esa línea, mencionó que O.D.I.A. no alegó ni intentó probar la existencia de un daño particular y que únicamente buscaba sanear la supuesta inconformidad de la normativa impugnada. Además, explicó que no se trataba de una acción que buscara la protección o tutela de derecho difusos, sino que involucraba la tutela de derechos subjetivos individuales, cuya protección era exclusiva de sus titulares mediante acciones individuales, o colectivas promovidas por el colectivo de personas afectadas o por asociaciones que las representaran. Concluyó que lo que pretendía la actora podía ser canalizado, al menos en el ámbito de la Ciudad de Bueno Aires, a través de una acción declarativa de inconstitucionalidad ante el Tribunal Superior de Justicia de la Ciudad de Buenos Aires. Contra esa decisión O.D.I.A. interpuso un recurso de apelación.
7-sep-2022Observatorio de Derecho Informático Argentino (O.D.I.A.) (Causa N° 182908/2020)El Gobierno de la Ciudad de Buenos Aires implementó el Sistema de Reconocimiento Facial de Prófugos (SRFP) en la jurisdicción de Ciudad Autónoma de Buenos Aires. El SRFP buscaba determinar si los rostros que se obtenían mediante el uso de cámaras de videovigilancia se encontraban y si correspondían o no con los rostros almacenados en la base de datos del sistema de Consulta Nacional de Rebeldía y Capturas (CoNaRC). El Observatorio de Derecho Informático Argentino (O.D.I.A.) promovió una acción de amparo con el objetivo de que se declaren inconstitucionales la Resolución N° 398/MJYSGC/19 y la Ley N° 6339, en cuanto implementaron el SRFP, y también esta última en tanto modificó los artículos 478, 480, 484, 490 de la Ley N° 5688 e incorporó los artículos 480 bis y 490 bis. Ello, por considerar que afectaba, entre otros, el derecho a la libre circulación de las personas, el derecho de reunión, a la intimidad, a la no discriminación, a la igualdad y la protección de datos. O.D.I.A. explicó que los sistemas de reconocimiento facial funcionan mediante la comparación de características biométricas de dos rostros y que para poder llevar a cabo esa tarea deben aprender cuándo se trata de la misma persona y cuándo no. Eso lo logran a partir de una base de datos de distintas caras y mediante una carga de información constante que se logra analizando la totalidad de rostros que pasen por la cámara. En su presentación, destacó que, en otros lugares del mundo, previo a la aplicación de este tipo de sistemas, se habían llevado a cabo profundos debates por parte de la ciudadanía y las autoridades gubernamentales acerca de la posible afectación de datos personales y de si la implementación de cámaras de video vigilancia con sistemas de reconocimiento facial contribuía a mejorar la seguridad pública. Además, puso de resalto que en los lugares en los que se implementó el sistema se había establecido su justificación, legitimidad, necesidad y proporcionalidad mediante una Evaluación del Impacto en la Protección de Datos (EIPD) y que el Gobierno de la Ciudad de Buenos Aires no la había realizado, por lo que no era posible determinar el impacto y la posible afectación a los datos personales y otros derechos humanos básicos de los ciudadanos de la CABA. También sostuvo que el SRFP arrojaba casos de “falsos positivos” que generaban la detención errónea de personas que no tenían pedidos de captura, lo que daba como resultado que el sistema tenía un 50% de eficacia. Esa tasa de efectividad implicaba un prejuzgamiento de los habitantes de la Ciudad y una práctica discriminatoria contra las mujeres y minorías raciales. Además, destacaron que la base de datos de la CoNaRC, a partir de la cual el sistema buscaba personas, tenía errores. A este reclamo se adhirieron como actores dos personas y el Centro de Estudios Legales y Sociales (CELS) y se sumaron en condición de amicus curiae la Asociación Civil por la Igualdad y la Justicia (ACIJ), la Asociación Trabajadores del Estado (ATE), la Coordinadora contra la Represión Policial e Institucional (CORREPI), la Organización No Gubernamental “Derechos Digitales”, la Organización Internacional de Derechos Humanos “Access Now”, y la Fundación Vía Libre.
28-abr-2023Observatorio de Derecho Informático Argentino (O.D.I.A.) (Causa N° 182908/2020)El Gobierno de la Ciudad de Buenos Aires implementó el Sistema de Reconocimiento Facial de Prófugos (SRFP) en la jurisdicción de Ciudad Autónoma de Buenos Aires. El SRFP buscaba determinar si los rostros que se obtenían mediante el uso de cámaras de videovigilancia se encontraban y si correspondían o no con los rostros almacenados en la base de datos del sistema de Consulta Nacional de Rebeldía y Capturas (CoNaRC). En razón de ello, el Observatorio de Derecho Informático Argentino (O.D.I.A.) promovió una acción de amparo con el objetivo de que se declaren inconstitucionales la Resolución N° 398/MJYSGC/19 y la Ley N° 6339, en cuanto implementaron el SRFP, y también esta última en tanto modificó los artículos 478, 480, 484, 490 de la Ley N° 5688 e incorporó los artículos 480 bis y 490 bis. Ello, por considerar que afectaba, entre otros, el derecho a la libre circulación de las personas, el derecho de reunión, a la intimidad, a la no discriminación, a la igualdad y la protección de datos. El juzgado de primera instancia en lo Contencioso Administrativo y Tributario N° 4 dictó sentencia contra el GCBA y suspendió el uso del SRFP. En la sentencia el juzgado de grado mencionó que aquello no significaba una merma de los restantes sistemas de videovigilancia (monitoreo urbano), preventivo y forense; ni mucho menos un menoscabo en el servicio de seguridad pública, dado que el SRFP se encontraba inactivo por decisión del GCBA. Además, sostuvo que el problema no se centró en el SRFP en sí mismo, sino en las consecuencias que acarreaba su prematura implementación y su utilización en condiciones precarias de respeto por los derechos y garantías de las personas. Por ello, explicó que para que volviera a ser implementado, debían funcionar los mecanismos de control, constituirse un registro de datos relativo al sistema de videovigilancia, realizarse el estudio previo de impacto sobre los datos personales (Evaluación del Impacto en la Privacidad —EIP—) y convocarse a la ciudadanía a debatir sobre dicho mecanismo. Contra esa decisión, O.D.I.A. junto al CELS y dos personas que se presentaron como actores, interpusieron un recurso de apelación. La parte actora criticó el fallo de primera instancia por mantener la vigencia del SRFP supeditada al funcionamiento de los órganos de control (Comisión Especial de Seguimiento de los Sistemas de Video Vigilancia y Defensoría del Pueblo local) pues según el peritaje técnico el sistema era deficiente y no resultaba suficiente la existencia de mayores controles y reaseguros para evitar la vulneración de los derechos de las personas. Además, destacó que eran las características del sistema lo que lo tornaba inseguro, más allá de los contralores que pudieran desarrollar los organismos competentes, por lo que no existía ningún mecanismo de vigilancia que hiciera compatible esta herramienta con los derechos personales afectados. Asimismo, cuestionó la falta de participación y debate ciudadano antes de la sanción de las normas que regulan el SRFP. Por otro lado, afirmó que el SRFP violaba los derechos personales a la intimidad, privacidad y de protección de datos personales porque las cámaras captaban la totalidad de los rostros que pasaban por delante de ella y porque dotaba al Estado de información precisa respecto de los lugares públicos dentro de la Ciudad Autónoma de Buenos Aires donde se encontraban las personas. En esa línea, criticó que en la sentencia de primera instancia no se había analizado concretamente la afectación que el SRFP provocaba sobre tales derechos y que el SRFP realizaba un tratamiento de datos personales sensibles que requería el consentimiento del titular de la imagen. Por su parte, el CELS, entre otras cosas, sostuvo que el software que utilizaba el SRFP era discriminatorio y, por ende, atentaba contra el derecho a la igualdad toda vez que la precisión de los sistemas de reconocimiento facial variaba en función del color, la raza, el género de las personas, incrementando las posibilidades de errores y de falsos positivos, generando impactos desproporcionados sobre grupos en situación de vulnerabilidad, entre las cuales se encontraban las mujeres.
4-jul-2023Glukhin v. RusiaUn hombre realizó una manifestación pacífica en un subterráneo de Moscú, donde sostuvo una figura de cartón de un reconocido activista y opositor político. El Código de Infracciones Administrativas (el CAO) de Rusia, requiere que las personas notifiquen a las autoridades antes de realizar manifestaciones públicas con determinados objetos. Diferentes Imágenes y videos de la demostración circularon a través del sistema de mensajería Telegram. La unidad antiextremismo de la policía rusa utilizó esas imágenes para identificar al hombre. De esta manera, días más tarde, a través de las cámaras de seguridad del subterráneo de Moscú, la policía rusa localizó y detuvo al manifestante. El hombre fue procesado por la falta administrativa. En el marco del proceso, la policía utilizó capturas de las imágenes que habían circulado en redes sociales y las grabaciones de las cámaras de seguridad del subterráneo ruso. El hombre alegó que la utilización de las tecnologías de identificación por parte de la policía era ilegal y, además, que su manifestación pacífica estaba protegida bajo la libertad de expresión. El Tribunal del distrito Meshchanskiy de Moscú consideró que el hombre había incumplido la reglamentación aplicable y lo condenó al pago de una multa. La persona condenada apeló la decisión. Para ello, consideró que el procedimiento realizado por la unidad antiextremismo había sido ilegal, toda vez que la Ley de actividades de búsqueda operativa (la OSAA) no autorizaba el uso de tecnologías de reconocimiento facial para investigar infracciones administrativas. Sin embargo, su reclamo no tuvo éxito.
14-dic-2023La judicialización de los Sistemas de Reconocimiento FacialEl boletín recopila jurisprudencia nacional e internacional y diferentes documentos de interés sobre el uso e implementación de los Sistemas de Reconocimiento Facial. La jurisprudencia analizada pone en relieve que la implementación y utilización de estos sistemas en condiciones precarias y sin el control suficiente entran en tensión con los derechos y garantías de los ciudadanos. Por otro lado, los documentos de interés tienen por objetivo contribuir a la comprensión de estas nuevas tecnologías.
21-dic-2023Sistema de Reconocimiento Facial de Prófugos: dos puntos ciegos desde la óptica del Derecho AdministrativoEste trabajo tiene por objeto analizar el fallo “Observatorio de Derecho Informático Argentino O.D.I.A. y otros contra GCBA sobre amparo – otros” a partir de tres aspectos relevantes: a) la afectación a los derechos humanos; b) los puntos ciegos de la sentencia; y c) la contratación del software utilizado para implementar el Sistema de Reconocimiento Facial de Prófugos.
22-dic-2023Gran hermano 4.0: una aproximación a la utilización de Sistemas de Reconocimiento Facial automatizado en consumidores y usuariosEl reconocimiento facial automatizado y los sistemas de identificación biométrica presentan un complejo entramado de beneficios y desafíos. Este trabajo tiene como objetivo profundizar en estas cuestiones, con el objetivo de entender las capacidades y limitaciones de este tipo de tecnología, y establecer una aproximación a las consecuencias legales de su utilización en consumidores y usuarios.