Buscar por Voces AUDITORÍA

Ir a una fecha de inicio:
Mostrando resultados 1 a 6 de 6
FechaTítuloResumen
sep-2016Responsabilidad por el uso de internet en el ambito laboralJurisprudencia internacional y nacional sobre responsabilidad por el uso de internet en el ambito laboral.
25-jun-2021Big Brother y otros v. El Reino UnidoEn junio de 2013, un ex consultor nacional de inteligencia informático de los Estados Unidos reveló la existencia de programas de vigilancia electrónica operados por los servicios de inteligencia de Estados Unidos y el Reino Unido. Como consecuencia, entre junio y diciembre de 2013, varios grupos de demandantes, incluyendo organizaciones no gubernamentales y periodistas, presentaron quejas ante el Tribunal de Poderes de Investigación (IPT) del Reino Unido. Los demandantes alegaron que el régimen de interceptación masiva del Reino Unido, conocido como el régimen de la sección 8(4) (TEMPORA), el intercambio de inteligencia con servicios extranjeros (PRISM y Upstream) y la adquisición de datos de comunicaciones de proveedores de servicios (CSPs) afectaban el derecho al respeto a la vida privada y familiar y la libertad de expresión, respectivamente. Posteriormente, en diciembre de 2014, el IPT resolvió que el régimen de interceptación masiva era en general compatible con el Convención Europea de Derechos Humanos. Sin embargo, en febrero de 2015, el IPT declaró que el régimen de interceptación masiva había sido ilegal antes de las revelaciones hechas durante el proceso judicial. Frente a estas decisiones y luego de agotar los recursos internos, los demandantes hicieron las presentaciones ante el Tribunal Europeo de Derechos Humanos (TEDH) entre septiembre de 2013 y mayo de 2015. En sus peticiones, argumentaron que el régimen de la sección 8(4) carecía de una base legal adecuada y no proporcionaba salvaguardias suficientes contra el abuso. Asimismo, sostuvieron que la interceptación masiva constituía una interferencia desproporcionada con su derecho al respeto de su vida privada y familiar. Además, que la falta de supervisión independiente en la selección de los "selectores fuertes" y la ausencia de salvaguardias adecuadas para los datos de comunicaciones relacionados violaban sus derechos. Finalmente, cuestionaron el régimen de intercambio de inteligencia con servicios extranjeros, argumentando que carecía de salvaguardias suficientes y podría utilizarse para eludir las protecciones domésticas. Por su parte, el Gobierno del Reino Unido defendió la legalidad y proporcionalidad del régimen de interceptación masiva. Argumentó que la interceptación masiva era una capacidad vital para identificar nuevas amenazas y que el régimen contenía salvaguardias adecuadas. Finalmente, el Gobierno sostuvo que los Estados deberían tener un amplio margen de apreciación en asuntos de seguridad nacional y que el régimen cumplía con los requisitos del Convenio. En septiembre de 2018, la Sala del TEDH resolvió que el Gobierno del Reino Unido era responsable por la violación de los artículos 8 y 10 en relación con el régimen de interceptación masiva y el régimen de adquisición de datos de comunicaciones. Sin embargo, no encontró violación respecto al régimen de intercambio de inteligencia. Posteriormente, en febrero de 2019, el caso fue remitido a la Gran Sala del TEDH a petición de los demandantes. La Gran Sala celebró una audiencia pública el 10 de julio de 2019, en la que se presentaron argumentos adicionales.
7-sep-2022Observatorio de Derecho Informático Argentino (O.D.I.A.) (Causa N° 182908/2020)El Gobierno de la Ciudad de Buenos Aires implementó el Sistema de Reconocimiento Facial de Prófugos (SRFP) en la jurisdicción de Ciudad Autónoma de Buenos Aires. El SRFP buscaba determinar si los rostros que se obtenían mediante el uso de cámaras de videovigilancia se encontraban y si correspondían o no con los rostros almacenados en la base de datos del sistema de Consulta Nacional de Rebeldía y Capturas (CoNaRC). El Observatorio de Derecho Informático Argentino (O.D.I.A.) promovió una acción de amparo con el objetivo de que se declaren inconstitucionales la Resolución N° 398/MJYSGC/19 y la Ley N° 6339, en cuanto implementaron el SRFP, y también esta última en tanto modificó los artículos 478, 480, 484, 490 de la Ley N° 5688 e incorporó los artículos 480 bis y 490 bis. Ello, por considerar que afectaba, entre otros, el derecho a la libre circulación de las personas, el derecho de reunión, a la intimidad, a la no discriminación, a la igualdad y la protección de datos. O.D.I.A. explicó que los sistemas de reconocimiento facial funcionan mediante la comparación de características biométricas de dos rostros y que para poder llevar a cabo esa tarea deben aprender cuándo se trata de la misma persona y cuándo no. Eso lo logran a partir de una base de datos de distintas caras y mediante una carga de información constante que se logra analizando la totalidad de rostros que pasen por la cámara. En su presentación, destacó que, en otros lugares del mundo, previo a la aplicación de este tipo de sistemas, se habían llevado a cabo profundos debates por parte de la ciudadanía y las autoridades gubernamentales acerca de la posible afectación de datos personales y de si la implementación de cámaras de video vigilancia con sistemas de reconocimiento facial contribuía a mejorar la seguridad pública. Además, puso de resalto que en los lugares en los que se implementó el sistema se había establecido su justificación, legitimidad, necesidad y proporcionalidad mediante una Evaluación del Impacto en la Protección de Datos (EIPD) y que el Gobierno de la Ciudad de Buenos Aires no la había realizado, por lo que no era posible determinar el impacto y la posible afectación a los datos personales y otros derechos humanos básicos de los ciudadanos de la CABA. También sostuvo que el SRFP arrojaba casos de “falsos positivos” que generaban la detención errónea de personas que no tenían pedidos de captura, lo que daba como resultado que el sistema tenía un 50% de eficacia. Esa tasa de efectividad implicaba un prejuzgamiento de los habitantes de la Ciudad y una práctica discriminatoria contra las mujeres y minorías raciales. Además, destacaron que la base de datos de la CoNaRC, a partir de la cual el sistema buscaba personas, tenía errores. A este reclamo se adhirieron como actores dos personas y el Centro de Estudios Legales y Sociales (CELS) y se sumaron en condición de amicus curiae la Asociación Civil por la Igualdad y la Justicia (ACIJ), la Asociación Trabajadores del Estado (ATE), la Coordinadora contra la Represión Policial e Institucional (CORREPI), la Organización No Gubernamental “Derechos Digitales”, la Organización Internacional de Derechos Humanos “Access Now”, y la Fundación Vía Libre.
28-abr-2023Observatorio de Derecho Informático Argentino (O.D.I.A.) (Causa N° 182908/2020)El Gobierno de la Ciudad de Buenos Aires implementó el Sistema de Reconocimiento Facial de Prófugos (SRFP) en la jurisdicción de Ciudad Autónoma de Buenos Aires. El SRFP buscaba determinar si los rostros que se obtenían mediante el uso de cámaras de videovigilancia se encontraban y si correspondían o no con los rostros almacenados en la base de datos del sistema de Consulta Nacional de Rebeldía y Capturas (CoNaRC). En razón de ello, el Observatorio de Derecho Informático Argentino (O.D.I.A.) promovió una acción de amparo con el objetivo de que se declaren inconstitucionales la Resolución N° 398/MJYSGC/19 y la Ley N° 6339, en cuanto implementaron el SRFP, y también esta última en tanto modificó los artículos 478, 480, 484, 490 de la Ley N° 5688 e incorporó los artículos 480 bis y 490 bis. Ello, por considerar que afectaba, entre otros, el derecho a la libre circulación de las personas, el derecho de reunión, a la intimidad, a la no discriminación, a la igualdad y la protección de datos. El juzgado de primera instancia en lo Contencioso Administrativo y Tributario N° 4 dictó sentencia contra el GCBA y suspendió el uso del SRFP. En la sentencia el juzgado de grado mencionó que aquello no significaba una merma de los restantes sistemas de videovigilancia (monitoreo urbano), preventivo y forense; ni mucho menos un menoscabo en el servicio de seguridad pública, dado que el SRFP se encontraba inactivo por decisión del GCBA. Además, sostuvo que el problema no se centró en el SRFP en sí mismo, sino en las consecuencias que acarreaba su prematura implementación y su utilización en condiciones precarias de respeto por los derechos y garantías de las personas. Por ello, explicó que para que volviera a ser implementado, debían funcionar los mecanismos de control, constituirse un registro de datos relativo al sistema de videovigilancia, realizarse el estudio previo de impacto sobre los datos personales (Evaluación del Impacto en la Privacidad —EIP—) y convocarse a la ciudadanía a debatir sobre dicho mecanismo. Contra esa decisión, O.D.I.A. junto al CELS y dos personas que se presentaron como actores, interpusieron un recurso de apelación. La parte actora criticó el fallo de primera instancia por mantener la vigencia del SRFP supeditada al funcionamiento de los órganos de control (Comisión Especial de Seguimiento de los Sistemas de Video Vigilancia y Defensoría del Pueblo local) pues según el peritaje técnico el sistema era deficiente y no resultaba suficiente la existencia de mayores controles y reaseguros para evitar la vulneración de los derechos de las personas. Además, destacó que eran las características del sistema lo que lo tornaba inseguro, más allá de los contralores que pudieran desarrollar los organismos competentes, por lo que no existía ningún mecanismo de vigilancia que hiciera compatible esta herramienta con los derechos personales afectados. Asimismo, cuestionó la falta de participación y debate ciudadano antes de la sanción de las normas que regulan el SRFP. Por otro lado, afirmó que el SRFP violaba los derechos personales a la intimidad, privacidad y de protección de datos personales porque las cámaras captaban la totalidad de los rostros que pasaban por delante de ella y porque dotaba al Estado de información precisa respecto de los lugares públicos dentro de la Ciudad Autónoma de Buenos Aires donde se encontraban las personas. En esa línea, criticó que en la sentencia de primera instancia no se había analizado concretamente la afectación que el SRFP provocaba sobre tales derechos y que el SRFP realizaba un tratamiento de datos personales sensibles que requería el consentimiento del titular de la imagen. Por su parte, el CELS, entre otras cosas, sostuvo que el software que utilizaba el SRFP era discriminatorio y, por ende, atentaba contra el derecho a la igualdad toda vez que la precisión de los sistemas de reconocimiento facial variaba en función del color, la raza, el género de las personas, incrementando las posibilidades de errores y de falsos positivos, generando impactos desproporcionados sobre grupos en situación de vulnerabilidad, entre las cuales se encontraban las mujeres.
14-dic-2023La judicialización de los Sistemas de Reconocimiento FacialEl boletín recopila jurisprudencia nacional e internacional y diferentes documentos de interés sobre el uso e implementación de los Sistemas de Reconocimiento Facial. La jurisprudencia analizada pone en relieve que la implementación y utilización de estos sistemas en condiciones precarias y sin el control suficiente entran en tensión con los derechos y garantías de los ciudadanos. Por otro lado, los documentos de interés tienen por objetivo contribuir a la comprensión de estas nuevas tecnologías.
30-sep-2024Evidencia digital y Derechos Humanos: Desafíos jurídicos en la era tecnológicaEl boletín recopila jurisprudencia nacional e internacional sobre la evidencia digital y su impacto en los derechos humanos. Las sentencias analizadas, emitidas entre 1999 y 2023, destacan las tensiones generadas por el uso de esta evidencia en un marco legal que, en muchos casos, no la prevé expresamente. La diversidad de fuentes permite un enfoque comparado de cómo diferentes jurisdicciones enfrentan estos desafíos. Asimismo, se abordan áreas temáticas como el desbloqueo compulsivo de dispositivos electrónicos, la geolocalización y la protección de datos personales, entre otros.