Buscar por Voces PROTECCIÓN DE DATOS PERSONALES

Ir a una fecha de inicio:
Mostrando resultados 1 a 10 de 10
FechaTítuloResumen
28-oct-2015JSCH Y MGS v. MéxicoJSCH y MGS se desempeñaban en el ejército mexicano. En los años 1998 y 2001 fueron diagnosticados portadores del VIH. En consecuencia, las autoridades del Hospital Central Militar emitieron certificados médicos que indicaban que, por padecer dicha enfermedad, no eran útiles para el servicio activo. Ello, de acuerdo a lo establecido en la ley del Instituto de Seguridad Social para las Fuerzas Armadas Mexicanas que preveía como causal de incapacidad padecer una enfermedad que no fuera susceptible de tratamiento médico. Ambos fueron dados de baja del ejército. Dicha decisión fue comunicada a numerosas autoridades militares, muchas de las cuales no estaban relacionadas con el ámbito médico. La resolución fue cuestionada, sin éxito, en el ámbito administrativo. En consecuencia, se interpusieron recursos de amparo que fueron rechazados por no haber sido presentados en término.
8-ago-2019Patel v. FacebookEn 2010, Facebook presentó la herramienta “sugerencia de etiquetas” que utilizaba un sistema de reconocimiento facial para identificar personas en las fotografías que los usuarios cargaban a Facebook libremente. En 2015, un grupo de usuarios presentó una demanda colectiva en virtud de la Ley de Privacidad de la Información Biométrica de Illinois (“BIPA”, siglas en inglés) ante el Tribunal de Distrito para el Norte de California, con el objetivo de impugnar la recopilación de información facial biométrica sin consentimiento previo que utilizaba la red social “Facebook”. Los usuarios afectados alegaron que el sistema de sugerencias funcionaba mediante un proceso de reconocimiento facial de cuatro pasos. Primero, el sistema detectaba los rostros de las imágenes que se cargaban. Luego, la herramienta estandarizaba o “alineaba” los rostros según un conjunto de parámetros (distancia entre los ojos, la nariz y las orejas). En el tercer paso, el sistema calcula una “firma facial”, que es una cadena de números que representa ese rostro en particular. Luego, el sistema busca una coincidencia en una base de datos de “plantillas faciales” almacenadas en la red social. Las plantillas faciales almacenadas se calculaban en función de otras fotografías en las que se había etiquetado a un usuario. De esa manera se producía una coincidencia cuando la firma facial caía dentro de un umbral de similitud con una de las plantillas faciales almacenadas. Esto le permitía a “Facebook” sugerir etiquetar al usuario al que le pertenece la plantilla facial. El Tribunal de Distrito de los Estados Unidos para el Norte de California hizo lugar a la demanda colectiva presentada por el grupo de usuarios. La defensa de “Facebook” apeló la medida ante el Tribunal de Apelaciones del Noveno Circuito con sede en California. Alegó que los demandantes no habían acreditado ningún perjuicio concreto, y que solo almacenaba plantillas faciales y no firmas faciales.
7-may-2021IDEC v. Concesionaria de la Línea 4 del Metro de San Pablo (ViaQuatro)En 2018, la empresa “Via Quatro”, operador de la concesionaria responsable de la Línea 4 del Metro de San Pablo, instaló puertas interactivas en algunas estaciones con el objetivo de proyectar anuncios personalizados a los pasajeros, así como también para recabar información que pudiera servir en la medición de información demográfica y analizar la reacción emocional de los usuarios del servicio por intermedio de cámaras equipadas con tecnología de reconocimiento facial. Ante esta situación, el Instituto Brasilero de Defensa del Consumidor (IDEC) —organismo de protección de los derechos del consumidor— junto a la oficina de los defensores públicos del Estado de San Pablo, presentaron una acción colectiva ante un juzgado civil del mismo lugar con la pretensión de que, como medida cautelar, la empresa concesionaria deje de recopilar datos de los puertos interactivos digitales y que confirme la desconexión de las cámaras ya instaladas, bajo pena de multa diaria de $50.000 reales. Además, solicitó que se condene a la empresa concesionaria a no utilizar datos biométricos o cualquier otro tipo de identificación de consumidores y usuarios del transporte público; a pagar una indemnización por la utilización indebida de la imagen de los consumidores, y por daños colectivo en un valor no inferior a los 100 millones de reales brasileños.
28-abr-2023Observatorio de Derecho Informático Argentino (O.D.I.A.) (Causa N° 182908/2020)El Gobierno de la Ciudad de Buenos Aires implementó el Sistema de Reconocimiento Facial de Prófugos (SRFP) en la jurisdicción de Ciudad Autónoma de Buenos Aires. El SRFP buscaba determinar si los rostros que se obtenían mediante el uso de cámaras de videovigilancia se encontraban y si correspondían o no con los rostros almacenados en la base de datos del sistema de Consulta Nacional de Rebeldía y Capturas (CoNaRC). En razón de ello, el Observatorio de Derecho Informático Argentino (O.D.I.A.) promovió una acción de amparo con el objetivo de que se declaren inconstitucionales la Resolución N° 398/MJYSGC/19 y la Ley N° 6339, en cuanto implementaron el SRFP, y también esta última en tanto modificó los artículos 478, 480, 484, 490 de la Ley N° 5688 e incorporó los artículos 480 bis y 490 bis. Ello, por considerar que afectaba, entre otros, el derecho a la libre circulación de las personas, el derecho de reunión, a la intimidad, a la no discriminación, a la igualdad y la protección de datos. El juzgado de primera instancia en lo Contencioso Administrativo y Tributario N° 4 dictó sentencia contra el GCBA y suspendió el uso del SRFP. En la sentencia el juzgado de grado mencionó que aquello no significaba una merma de los restantes sistemas de videovigilancia (monitoreo urbano), preventivo y forense; ni mucho menos un menoscabo en el servicio de seguridad pública, dado que el SRFP se encontraba inactivo por decisión del GCBA. Además, sostuvo que el problema no se centró en el SRFP en sí mismo, sino en las consecuencias que acarreaba su prematura implementación y su utilización en condiciones precarias de respeto por los derechos y garantías de las personas. Por ello, explicó que para que volviera a ser implementado, debían funcionar los mecanismos de control, constituirse un registro de datos relativo al sistema de videovigilancia, realizarse el estudio previo de impacto sobre los datos personales (Evaluación del Impacto en la Privacidad —EIP—) y convocarse a la ciudadanía a debatir sobre dicho mecanismo. Contra esa decisión, O.D.I.A. junto al CELS y dos personas que se presentaron como actores, interpusieron un recurso de apelación. La parte actora criticó el fallo de primera instancia por mantener la vigencia del SRFP supeditada al funcionamiento de los órganos de control (Comisión Especial de Seguimiento de los Sistemas de Video Vigilancia y Defensoría del Pueblo local) pues según el peritaje técnico el sistema era deficiente y no resultaba suficiente la existencia de mayores controles y reaseguros para evitar la vulneración de los derechos de las personas. Además, destacó que eran las características del sistema lo que lo tornaba inseguro, más allá de los contralores que pudieran desarrollar los organismos competentes, por lo que no existía ningún mecanismo de vigilancia que hiciera compatible esta herramienta con los derechos personales afectados. Asimismo, cuestionó la falta de participación y debate ciudadano antes de la sanción de las normas que regulan el SRFP. Por otro lado, afirmó que el SRFP violaba los derechos personales a la intimidad, privacidad y de protección de datos personales porque las cámaras captaban la totalidad de los rostros que pasaban por delante de ella y porque dotaba al Estado de información precisa respecto de los lugares públicos dentro de la Ciudad Autónoma de Buenos Aires donde se encontraban las personas. En esa línea, criticó que en la sentencia de primera instancia no se había analizado concretamente la afectación que el SRFP provocaba sobre tales derechos y que el SRFP realizaba un tratamiento de datos personales sensibles que requería el consentimiento del titular de la imagen. Por su parte, el CELS, entre otras cosas, sostuvo que el software que utilizaba el SRFP era discriminatorio y, por ende, atentaba contra el derecho a la igualdad toda vez que la precisión de los sistemas de reconocimiento facial variaba en función del color, la raza, el género de las personas, incrementando las posibilidades de errores y de falsos positivos, generando impactos desproporcionados sobre grupos en situación de vulnerabilidad, entre las cuales se encontraban las mujeres.
7-jun-2023Estado de Nueva Jersey v. Artega (Causa N° A-3078)En noviembre de 2019 ocurrió un robo a un local en la ciudad de Nueva York. Una de las empleadas del establecimiento manifestó haber identificado al presunto autor del hecho. La gerente de la tienda –quien no se encontraba presente en el lugar al momento de lo ocurrido–, también creyó reconocer al autor luego de revisar las cámaras de seguridad. Esa información fue utilizada por los detectives policiales que intervinieron en la averiguación del robo, quienes recuperaron las grabaciones de las cámaras de vigilancia del lugar y las de una propiedad cercana. Esas grabaciones mostraban a una persona transitando cerca del lugar el día del robo. Los agentes usaron esas filmaciones para generar una imagen fija de poca calidad que fue enviada al Centro de Inteligencia de Operaciones Regionales de Nueva Jersey (NJROIC, por su sigla en inglés) para su análisis a través del uso de tecnología de reconocimiento facial. Personal de la NJROIC informó que no existían coincidencias entre la imagen generada por los detectives y su base de datos, y que, si bien no descartaban la posibilidad de volver a realizar un posterior cotejo, requerían una imagen de mejor calidad. En su lugar, los detectives enviaron todas las imágenes de vigilancia obtenidas al Centro de Delincuencia en Tiempo Real del Departamento de Policía de Nueva York (NYPDRTCC, por su sigla en inglés). Una imagen fija seleccionada por los investigadores fue comparada con la base de datos del centro y ofreció a Francisco Arteaga como “posible coincidencia”. Eso les permitió a los investigadores generar dos matrices fotográficas compuestas por fotos de otras personas y la ofrecida como posible coincidencia. Ambas matrices fueron mostradas por separado, tanto a la empleada como a la dueña del lugar, quienes identificaron a Arteaga como el autor del delito. Su defensa solicitó, entre otras cuestiones, que la fiscalía informe (se realice el llamado “discovery”) el proveedor y el código fuente del sistema de reconocimiento facial, el margen de error, la foto que se utilizó para identificar al acusado y otra información que pretendía utilizar para discutir la validez de su reconocimiento. Para fundar ese pedido, la defensa acompañó la declaración de un experto en tecnología de reconocimiento facial en la que se explicaba los principales problemas de fiabilidad de ese tipo de tecnología y porqué la defensa necesitaba que la fiscalía le revele esa información. El tribunal rechazó el pedido. Para decidir de esa manera, entre otras cuestiones, explicó que la fiscalía no tenía la obligación de producir la información solicitada por la defensa, porque el sistema de reconocimiento facial no estaba bajo su cuidado, custodia o control. Ante esa decisión, la defensa interpuso un recurso de apelación.
4-jul-2023Glukhin v. RusiaUn hombre realizó una manifestación pacífica en un subterráneo de Moscú, donde sostuvo una figura de cartón de un reconocido activista y opositor político. El Código de Infracciones Administrativas (el CAO) de Rusia, requiere que las personas notifiquen a las autoridades antes de realizar manifestaciones públicas con determinados objetos. Diferentes Imágenes y videos de la demostración circularon a través del sistema de mensajería Telegram. La unidad antiextremismo de la policía rusa utilizó esas imágenes para identificar al hombre. De esta manera, días más tarde, a través de las cámaras de seguridad del subterráneo de Moscú, la policía rusa localizó y detuvo al manifestante. El hombre fue procesado por la falta administrativa. En el marco del proceso, la policía utilizó capturas de las imágenes que habían circulado en redes sociales y las grabaciones de las cámaras de seguridad del subterráneo ruso. El hombre alegó que la utilización de las tecnologías de identificación por parte de la policía era ilegal y, además, que su manifestación pacífica estaba protegida bajo la libertad de expresión. El Tribunal del distrito Meshchanskiy de Moscú consideró que el hombre había incumplido la reglamentación aplicable y lo condenó al pago de una multa. La persona condenada apeló la decisión. Para ello, consideró que el procedimiento realizado por la unidad antiextremismo había sido ilegal, toda vez que la Ley de actividades de búsqueda operativa (la OSAA) no autorizaba el uso de tecnologías de reconocimiento facial para investigar infracciones administrativas. Sin embargo, su reclamo no tuvo éxito.
14-dic-2023La judicialización de los Sistemas de Reconocimiento FacialEl boletín recopila jurisprudencia nacional e internacional y diferentes documentos de interés sobre el uso e implementación de los Sistemas de Reconocimiento Facial. La jurisprudencia analizada pone en relieve que la implementación y utilización de estos sistemas en condiciones precarias y sin el control suficiente entran en tensión con los derechos y garantías de los ciudadanos. Por otro lado, los documentos de interés tienen por objetivo contribuir a la comprensión de estas nuevas tecnologías.
21-dic-2023Sistema de Reconocimiento Facial de Prófugos: dos puntos ciegos desde la óptica del Derecho AdministrativoEste trabajo tiene por objeto analizar el fallo “Observatorio de Derecho Informático Argentino O.D.I.A. y otros contra GCBA sobre amparo – otros” a partir de tres aspectos relevantes: a) la afectación a los derechos humanos; b) los puntos ciegos de la sentencia; y c) la contratación del software utilizado para implementar el Sistema de Reconocimiento Facial de Prófugos.
22-dic-2023Gran hermano 4.0: una aproximación a la utilización de Sistemas de Reconocimiento Facial automatizado en consumidores y usuariosEl reconocimiento facial automatizado y los sistemas de identificación biométrica presentan un complejo entramado de beneficios y desafíos. Este trabajo tiene como objetivo profundizar en estas cuestiones, con el objetivo de entender las capacidades y limitaciones de este tipo de tecnología, y establecer una aproximación a las consecuencias legales de su utilización en consumidores y usuarios.
23-ene-2024OG y otras v. GreciaEn Grecia, la prostitución es legal y la legislación interna exige a las trabajadoras sexuales que se registren y se sometan a exámenes médicos periódicos. En el marco de una operación policial, varias mujeres fueron detenidas por ejercer la prostitución de manera irregular. Al momento de la detención, les realizaron un análisis de sangre para detectar infecciones de transmisión sexual sin su consentimiento. Los análisis arrojaron que algunas vivían con VIH. Luego, estas mujeres fueron procesadas por el delito de lesiones graves en grado de tentativa por haber expuesto a sus clientes a la transmisión de HIV. El fiscal interviniente ordenó que se publicaran los nombres y fotografías de las imputadas junto con la información de que vivían con HIV, con el objetivo de alertar a sus clientes de la existencia de un posible riesgo para su salud. La ley establecía que esta medida podía ser adoptada inaudita parte. Los datos se publicaron en el sitio web de la policía y tuvieron una importante cobertura en los medios de comunicación. Las mujeres presentaron recursos judiciales para proteger sus datos personales, sin éxito. Además, denunciaron la toma de muestras de sangre sin consentimiento, pero las investigaciones fueron archivadas.