Buscar por Voces CÁMARA DE SEGURIDAD
Mostrando resultados 1 a 7 de 7
Fecha | Título | Resumen |
---|---|---|
4-ago-2022 | El derecho a la privacidad en la era digital | El Alto Comisionado de las Naciones Unidas para los Derechos Humanos elaboró un informe temático sobre el impacto de las tecnologías de vigilancia electrónica en la protección de la privacidad. El documento analizaba los riesgos que conllevaban las medidas de hackeo y vigilancia sistemática empleadas por los Estados en el disfrute de los derechos fundamentales. Luego, presentaba lineamientos para garantizar que las medidas de seguridad fueran respetuosas del derecho a la vida privada y familiar. |
7-sep-2022 | Observatorio de Derecho Informático Argentino (O.D.I.A.) (Causa N° 182908/2020) | El Gobierno de la Ciudad de Buenos Aires implementó el Sistema de Reconocimiento Facial de Prófugos (SRFP) en la jurisdicción de Ciudad Autónoma de Buenos Aires. El SRFP buscaba determinar si los rostros que se obtenían mediante el uso de cámaras de videovigilancia se encontraban y si correspondían o no con los rostros almacenados en la base de datos del sistema de Consulta Nacional de Rebeldía y Capturas (CoNaRC). El Observatorio de Derecho Informático Argentino (O.D.I.A.) promovió una acción de amparo con el objetivo de que se declaren inconstitucionales la Resolución N° 398/MJYSGC/19 y la Ley N° 6339, en cuanto implementaron el SRFP, y también esta última en tanto modificó los artículos 478, 480, 484, 490 de la Ley N° 5688 e incorporó los artículos 480 bis y 490 bis. Ello, por considerar que afectaba, entre otros, el derecho a la libre circulación de las personas, el derecho de reunión, a la intimidad, a la no discriminación, a la igualdad y la protección de datos. O.D.I.A. explicó que los sistemas de reconocimiento facial funcionan mediante la comparación de características biométricas de dos rostros y que para poder llevar a cabo esa tarea deben aprender cuándo se trata de la misma persona y cuándo no. Eso lo logran a partir de una base de datos de distintas caras y mediante una carga de información constante que se logra analizando la totalidad de rostros que pasen por la cámara. En su presentación, destacó que, en otros lugares del mundo, previo a la aplicación de este tipo de sistemas, se habían llevado a cabo profundos debates por parte de la ciudadanía y las autoridades gubernamentales acerca de la posible afectación de datos personales y de si la implementación de cámaras de video vigilancia con sistemas de reconocimiento facial contribuía a mejorar la seguridad pública. Además, puso de resalto que en los lugares en los que se implementó el sistema se había establecido su justificación, legitimidad, necesidad y proporcionalidad mediante una Evaluación del Impacto en la Protección de Datos (EIPD) y que el Gobierno de la Ciudad de Buenos Aires no la había realizado, por lo que no era posible determinar el impacto y la posible afectación a los datos personales y otros derechos humanos básicos de los ciudadanos de la CABA. También sostuvo que el SRFP arrojaba casos de “falsos positivos” que generaban la detención errónea de personas que no tenían pedidos de captura, lo que daba como resultado que el sistema tenía un 50% de eficacia. Esa tasa de efectividad implicaba un prejuzgamiento de los habitantes de la Ciudad y una práctica discriminatoria contra las mujeres y minorías raciales. Además, destacaron que la base de datos de la CoNaRC, a partir de la cual el sistema buscaba personas, tenía errores. A este reclamo se adhirieron como actores dos personas y el Centro de Estudios Legales y Sociales (CELS) y se sumaron en condición de amicus curiae la Asociación Civil por la Igualdad y la Justicia (ACIJ), la Asociación Trabajadores del Estado (ATE), la Coordinadora contra la Represión Policial e Institucional (CORREPI), la Organización No Gubernamental “Derechos Digitales”, la Organización Internacional de Derechos Humanos “Access Now”, y la Fundación Vía Libre. |
7-jun-2023 | Estado de Nueva Jersey v. Artega (Causa N° A-3078) | En noviembre de 2019 ocurrió un robo a un local en la ciudad de Nueva York. Una de las empleadas del establecimiento manifestó haber identificado al presunto autor del hecho. La gerente de la tienda –quien no se encontraba presente en el lugar al momento de lo ocurrido–, también creyó reconocer al autor luego de revisar las cámaras de seguridad. Esa información fue utilizada por los detectives policiales que intervinieron en la averiguación del robo, quienes recuperaron las grabaciones de las cámaras de vigilancia del lugar y las de una propiedad cercana. Esas grabaciones mostraban a una persona transitando cerca del lugar el día del robo. Los agentes usaron esas filmaciones para generar una imagen fija de poca calidad que fue enviada al Centro de Inteligencia de Operaciones Regionales de Nueva Jersey (NJROIC, por su sigla en inglés) para su análisis a través del uso de tecnología de reconocimiento facial. Personal de la NJROIC informó que no existían coincidencias entre la imagen generada por los detectives y su base de datos, y que, si bien no descartaban la posibilidad de volver a realizar un posterior cotejo, requerían una imagen de mejor calidad. En su lugar, los detectives enviaron todas las imágenes de vigilancia obtenidas al Centro de Delincuencia en Tiempo Real del Departamento de Policía de Nueva York (NYPDRTCC, por su sigla en inglés). Una imagen fija seleccionada por los investigadores fue comparada con la base de datos del centro y ofreció a Francisco Arteaga como “posible coincidencia”. Eso les permitió a los investigadores generar dos matrices fotográficas compuestas por fotos de otras personas y la ofrecida como posible coincidencia. Ambas matrices fueron mostradas por separado, tanto a la empleada como a la dueña del lugar, quienes identificaron a Arteaga como el autor del delito. Su defensa solicitó, entre otras cuestiones, que la fiscalía informe (se realice el llamado “discovery”) el proveedor y el código fuente del sistema de reconocimiento facial, el margen de error, la foto que se utilizó para identificar al acusado y otra información que pretendía utilizar para discutir la validez de su reconocimiento. Para fundar ese pedido, la defensa acompañó la declaración de un experto en tecnología de reconocimiento facial en la que se explicaba los principales problemas de fiabilidad de ese tipo de tecnología y porqué la defensa necesitaba que la fiscalía le revele esa información. El tribunal rechazó el pedido. Para decidir de esa manera, entre otras cuestiones, explicó que la fiscalía no tenía la obligación de producir la información solicitada por la defensa, porque el sistema de reconocimiento facial no estaba bajo su cuidado, custodia o control. Ante esa decisión, la defensa interpuso un recurso de apelación. |
4-jul-2023 | Glukhin v. Rusia | Un hombre realizó una manifestación pacífica en un subterráneo de Moscú, donde sostuvo una figura de cartón de un reconocido activista y opositor político. El Código de Infracciones Administrativas (el CAO) de Rusia, requiere que las personas notifiquen a las autoridades antes de realizar manifestaciones públicas con determinados objetos. Diferentes Imágenes y videos de la demostración circularon a través del sistema de mensajería Telegram. La unidad antiextremismo de la policía rusa utilizó esas imágenes para identificar al hombre. De esta manera, días más tarde, a través de las cámaras de seguridad del subterráneo de Moscú, la policía rusa localizó y detuvo al manifestante. El hombre fue procesado por la falta administrativa. En el marco del proceso, la policía utilizó capturas de las imágenes que habían circulado en redes sociales y las grabaciones de las cámaras de seguridad del subterráneo ruso. El hombre alegó que la utilización de las tecnologías de identificación por parte de la policía era ilegal y, además, que su manifestación pacífica estaba protegida bajo la libertad de expresión. El Tribunal del distrito Meshchanskiy de Moscú consideró que el hombre había incumplido la reglamentación aplicable y lo condenó al pago de una multa. La persona condenada apeló la decisión. Para ello, consideró que el procedimiento realizado por la unidad antiextremismo había sido ilegal, toda vez que la Ley de actividades de búsqueda operativa (la OSAA) no autorizaba el uso de tecnologías de reconocimiento facial para investigar infracciones administrativas. Sin embargo, su reclamo no tuvo éxito. |
14-dic-2023 | La judicialización de los Sistemas de Reconocimiento Facial | El boletín recopila jurisprudencia nacional e internacional y diferentes documentos de interés sobre el uso e implementación de los Sistemas de Reconocimiento Facial. La jurisprudencia analizada pone en relieve que la implementación y utilización de estos sistemas en condiciones precarias y sin el control suficiente entran en tensión con los derechos y garantías de los ciudadanos. Por otro lado, los documentos de interés tienen por objetivo contribuir a la comprensión de estas nuevas tecnologías. |
4-jul-2024 | Famulare (Causa N° 78327) | A raíz de un robo ocurrido en una vivienda y de la muerte del propietario del bien, cuatro personas fueron detenidas y otras dos se fugaron. En la investigación, la fiscalía refirió a la existencia de una asociación ilícita entre los imputados, pero optó por no acusar formalmente por este delito. En cambio, calificó los sucesos como homicidio doblemente agravado en concurso real con robo doblemente agravado. La causa fue elevada respecto a los cuatro detenidos, quienes luego resultaron condenados por estos hechos. En paralelo, se extrajeron copias de las actuaciones en relación con los prófugos. A partir de testimonios extraídos en el marco de la búsqueda de los prófugos, se inició un segundo proceso contra todas las personas involucradas en la “causa madre” y se les imputó el delito de asociación ilícita. La fiscalía argumentó que el delito de asociación ilícita protegía bienes jurídicos diferentes al delito de robo y tenía diferentes momentos de consumación. En esta segunda causa, el tribunal oral condenó a tres de los que ya habían sido condenados en la ‘causa madre’ a la pena de tres años y seis meses de prisión por el delito de asociación ilícita. Además condenó a uno de los prófugos por el delito de homicidio en ocasión de robo por haber sido identificado en las cámaras de seguridad junto al grupo el día en que ocurrieron los hechos. Contra esa decisión, la defensa interpuso un recurso de casación. Entre otras cuestiones, destacó la afectación del principio non bis in idem, pues la primera causa ya contenía todos los hechos juzgados en la “causa madre” con independencia de las calificaciones legales y la insuficiencia de las pruebas para justificar la condena. |
16-dic-2024 | Jóvenes adultos del Complejo Penitenciario Federal Marcos Paz (Causa N° 16397) | En el Complejo Penitenciario Federal de Jóvenes Adultos de Marcos Paz se registraban situaciones de violencia entre las personas detenidas, con episodios de golpes y quemaduras, conocidas como "bienvenidas". Además, se producían extorsiones a familiares de las personas privadas de la libertad. Durante entrevistas realizadas por el Programa contra la Violencia Institucional de la Defensoría General de la Nación Argentina, algunas personas describieron estos hechos y manifestaron su voluntad de denunciarlos. Por ese motivo, el Programa interpuso una acción de habeas corpus denunciando un agravamiento en las condiciones de detención. En esa oportunidad, solicitaron, entre otras cuestiones, que se informara si existían cámaras de seguridad en todos los pabellones de la Unidad Residencial, si se encontraban en funcionamiento, de qué modo se monitoreaban los espacios comunes de los pabellones y quién era el personal responsable. Asimismo, se pidió que se indicara qué medidas de protección estaban disponibles cuando un joven denunciaba situaciones de violencia y que se llevara a cabo una inspección judicial en el complejo, con el objetivo de visualizar las capacidades y dificultades preventivas presentes en las instalaciones penitenciarias. Una vez admitida la acción de habeas corpus, se llevó a cabo la inspección general de las instalaciones del Complejo. Entonces, se constató la insuficiencia de personal penitenciario en relación con la cantidad de personas alojadas y la falta de implementación de técnicas y mecanismos de prevención para evitar las situaciones de violencia. También se detectaron deficiencias en el sistema de cámaras de seguridad y la ausencia de dispositivos en algunos espacios comunes. Por último, se observó una rotación constante de las autoridades a cargo del penal y la ausencia de criterios de dirección y políticas estables a lo largo del tiempo. De forma posterior, se realizó la audiencia prevista por el artículo 14 de la ley Nº 23.098, en la que la defensa enfatizó en la constatación que se hizo sobre el agravamiento de las condiciones de detención. Por su parte, las autoridades penitenciarias en su alegato coincidieron en establecer una mesa de enlace que tuviera por objeto ampliar los protocolos de seguridad correspondientes. |