Buscar por Voces CÁMARA DE SEGURIDAD
Mostrando resultados 1 a 5 de 5
Fecha | Título | Resumen |
---|---|---|
4-ago-2022 | El derecho a la privacidad en la era digital | El Alto Comisionado de las Naciones Unidas para los Derechos Humanos elaboró un informe temático sobre el impacto de las tecnologías de vigilancia electrónica en la protección de la privacidad. El documento analizaba los riesgos que conllevaban las medidas de hackeo y vigilancia sistemática empleadas por los Estados en el disfrute de los derechos fundamentales. Luego, presentaba lineamientos para garantizar que las medidas de seguridad fueran respetuosas del derecho a la vida privada y familiar. |
7-sep-2022 | Observatorio de Derecho Informático Argentino (O.D.I.A.) (Causa N° 182908/2020) | El Gobierno de la Ciudad de Buenos Aires implementó el Sistema de Reconocimiento Facial de Prófugos (SRFP) en la jurisdicción de Ciudad Autónoma de Buenos Aires. El SRFP buscaba determinar si los rostros que se obtenían mediante el uso de cámaras de videovigilancia se encontraban y si correspondían o no con los rostros almacenados en la base de datos del sistema de Consulta Nacional de Rebeldía y Capturas (CoNaRC). El Observatorio de Derecho Informático Argentino (O.D.I.A.) promovió una acción de amparo con el objetivo de que se declaren inconstitucionales la Resolución N° 398/MJYSGC/19 y la Ley N° 6339, en cuanto implementaron el SRFP, y también esta última en tanto modificó los artículos 478, 480, 484, 490 de la Ley N° 5688 e incorporó los artículos 480 bis y 490 bis. Ello, por considerar que afectaba, entre otros, el derecho a la libre circulación de las personas, el derecho de reunión, a la intimidad, a la no discriminación, a la igualdad y la protección de datos. O.D.I.A. explicó que los sistemas de reconocimiento facial funcionan mediante la comparación de características biométricas de dos rostros y que para poder llevar a cabo esa tarea deben aprender cuándo se trata de la misma persona y cuándo no. Eso lo logran a partir de una base de datos de distintas caras y mediante una carga de información constante que se logra analizando la totalidad de rostros que pasen por la cámara. En su presentación, destacó que, en otros lugares del mundo, previo a la aplicación de este tipo de sistemas, se habían llevado a cabo profundos debates por parte de la ciudadanía y las autoridades gubernamentales acerca de la posible afectación de datos personales y de si la implementación de cámaras de video vigilancia con sistemas de reconocimiento facial contribuía a mejorar la seguridad pública. Además, puso de resalto que en los lugares en los que se implementó el sistema se había establecido su justificación, legitimidad, necesidad y proporcionalidad mediante una Evaluación del Impacto en la Protección de Datos (EIPD) y que el Gobierno de la Ciudad de Buenos Aires no la había realizado, por lo que no era posible determinar el impacto y la posible afectación a los datos personales y otros derechos humanos básicos de los ciudadanos de la CABA. También sostuvo que el SRFP arrojaba casos de “falsos positivos” que generaban la detención errónea de personas que no tenían pedidos de captura, lo que daba como resultado que el sistema tenía un 50% de eficacia. Esa tasa de efectividad implicaba un prejuzgamiento de los habitantes de la Ciudad y una práctica discriminatoria contra las mujeres y minorías raciales. Además, destacaron que la base de datos de la CoNaRC, a partir de la cual el sistema buscaba personas, tenía errores. A este reclamo se adhirieron como actores dos personas y el Centro de Estudios Legales y Sociales (CELS) y se sumaron en condición de amicus curiae la Asociación Civil por la Igualdad y la Justicia (ACIJ), la Asociación Trabajadores del Estado (ATE), la Coordinadora contra la Represión Policial e Institucional (CORREPI), la Organización No Gubernamental “Derechos Digitales”, la Organización Internacional de Derechos Humanos “Access Now”, y la Fundación Vía Libre. |
7-jun-2023 | Estado de Nueva Jersey v. Artega (Causa N° A-3078) | En noviembre de 2019 ocurrió un robo a un local en la ciudad de Nueva York. Una de las empleadas del establecimiento manifestó haber identificado al presunto autor del hecho. La gerente de la tienda –quien no se encontraba presente en el lugar al momento de lo ocurrido–, también creyó reconocer al autor luego de revisar las cámaras de seguridad. Esa información fue utilizada por los detectives policiales que intervinieron en la averiguación del robo, quienes recuperaron las grabaciones de las cámaras de vigilancia del lugar y las de una propiedad cercana. Esas grabaciones mostraban a una persona transitando cerca del lugar el día del robo. Los agentes usaron esas filmaciones para generar una imagen fija de poca calidad que fue enviada al Centro de Inteligencia de Operaciones Regionales de Nueva Jersey (NJROIC, por su sigla en inglés) para su análisis a través del uso de tecnología de reconocimiento facial. Personal de la NJROIC informó que no existían coincidencias entre la imagen generada por los detectives y su base de datos, y que, si bien no descartaban la posibilidad de volver a realizar un posterior cotejo, requerían una imagen de mejor calidad. En su lugar, los detectives enviaron todas las imágenes de vigilancia obtenidas al Centro de Delincuencia en Tiempo Real del Departamento de Policía de Nueva York (NYPDRTCC, por su sigla en inglés). Una imagen fija seleccionada por los investigadores fue comparada con la base de datos del centro y ofreció a Francisco Arteaga como “posible coincidencia”. Eso les permitió a los investigadores generar dos matrices fotográficas compuestas por fotos de otras personas y la ofrecida como posible coincidencia. Ambas matrices fueron mostradas por separado, tanto a la empleada como a la dueña del lugar, quienes identificaron a Arteaga como el autor del delito. Su defensa solicitó, entre otras cuestiones, que la fiscalía informe (se realice el llamado “discovery”) el proveedor y el código fuente del sistema de reconocimiento facial, el margen de error, la foto que se utilizó para identificar al acusado y otra información que pretendía utilizar para discutir la validez de su reconocimiento. Para fundar ese pedido, la defensa acompañó la declaración de un experto en tecnología de reconocimiento facial en la que se explicaba los principales problemas de fiabilidad de ese tipo de tecnología y porqué la defensa necesitaba que la fiscalía le revele esa información. El tribunal rechazó el pedido. Para decidir de esa manera, entre otras cuestiones, explicó que la fiscalía no tenía la obligación de producir la información solicitada por la defensa, porque el sistema de reconocimiento facial no estaba bajo su cuidado, custodia o control. Ante esa decisión, la defensa interpuso un recurso de apelación. |
4-jul-2023 | Glukhin v. Rusia | Un hombre realizó una manifestación pacífica en un subterráneo de Moscú, donde sostuvo una figura de cartón de un reconocido activista y opositor político. El Código de Infracciones Administrativas (el CAO) de Rusia, requiere que las personas notifiquen a las autoridades antes de realizar manifestaciones públicas con determinados objetos. Diferentes Imágenes y videos de la demostración circularon a través del sistema de mensajería Telegram. La unidad antiextremismo de la policía rusa utilizó esas imágenes para identificar al hombre. De esta manera, días más tarde, a través de las cámaras de seguridad del subterráneo de Moscú, la policía rusa localizó y detuvo al manifestante. El hombre fue procesado por la falta administrativa. En el marco del proceso, la policía utilizó capturas de las imágenes que habían circulado en redes sociales y las grabaciones de las cámaras de seguridad del subterráneo ruso. El hombre alegó que la utilización de las tecnologías de identificación por parte de la policía era ilegal y, además, que su manifestación pacífica estaba protegida bajo la libertad de expresión. El Tribunal del distrito Meshchanskiy de Moscú consideró que el hombre había incumplido la reglamentación aplicable y lo condenó al pago de una multa. La persona condenada apeló la decisión. Para ello, consideró que el procedimiento realizado por la unidad antiextremismo había sido ilegal, toda vez que la Ley de actividades de búsqueda operativa (la OSAA) no autorizaba el uso de tecnologías de reconocimiento facial para investigar infracciones administrativas. Sin embargo, su reclamo no tuvo éxito. |
14-dic-2023 | La judicialización de los Sistemas de Reconocimiento Facial | El boletín recopila jurisprudencia nacional e internacional y diferentes documentos de interés sobre el uso e implementación de los Sistemas de Reconocimiento Facial. La jurisprudencia analizada pone en relieve que la implementación y utilización de estos sistemas en condiciones precarias y sin el control suficiente entran en tensión con los derechos y garantías de los ciudadanos. Por otro lado, los documentos de interés tienen por objetivo contribuir a la comprensión de estas nuevas tecnologías. |