Por favor, use este identificador para citar o enlazar este ítem: https://repositorio.mpd.gov.ar/jspui/handle/123456789/5336
Título : Formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia
Autos: 
Fecha: 3-jun-2024
Resumen : La Relatoría Especial sobre las formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia elaboró un informe sobre las formas en que la inteligencia artificial puede perpetuar la discriminación racial. Allí, alertó sobre la creencia predominante errónea acerca de la supuesta neutralidad y objetividad de la tecnología, y señaló distintos ámbitos en los que la aplicación de la inteligencia artificial puede tener impactos discriminatorios.
Decisión: La Relatoría Especial sobre las formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia denunció que la inteligencia artificial puede producir resultados discriminatorios, sea por la existencia de un sesgo en los datos, en el diseño de algoritmos, en su aplicación o por la falta de un control posterior. Así, ofreció distintos ejemplos sobre cómo la inteligencia artificial impacta de manera diferencial en el acceso a derechos fundamentales de las personas racializadas, como en materia de salud o educación. Además, advirtió sobre la utilización de la inteligencia artificial con fines preventivos por parte de las fuerzas de seguridad, la cual afecta de manera desproporcionada a grupos racialmente marginados. En base a ello, instó a los Estados a ser diligentes en el diseño y la aplicación de tecnologías de inteligencia artificial en pos de garantizar resultados no discriminatorios.
Argumentos: 1. Inteligencia artificial. Discriminación racial. Actos discriminatorios. Igualdad. No discriminación. “El auge de los sistemas de inteligencia artificial y los algoritmos de aprendizaje automático ha llevado a la digitalización de datos a escala masiva. Los algoritmos utilizan esos datos para tomar decisiones y emprender acciones en diversos sectores. Sin embargo, los conjuntos de datos con los que se entrenan los algoritmos suelen ser incompletos o infrarrepresentan a determinados grupos de personas. Si determinados grupos están sobrerrepresentados o infrarrepresentados en los conjuntos de entrenamiento, incluidos los grupos raciales y étnicos, puede producirse un sesgo algorítmico. Del mismo modo, si los conjuntos de entrenamiento incluyen datos ya sesgados, pueden producir resultados sesgados [...]. Por ejemplo, en un estudio centrado en las bases de datos de imágenes de las fuerzas del orden en los Estados Unidos se demostró que las personas afrodescendientes tenían más probabilidades de ser señaladas erróneamente en las redes de reconocimiento facial utilizadas por los agentes del orden. Esto se debía a errores en la identificación facial de ese grupo y a la sobrerrepresentación de afrodescendientes en las bases de datos de fotografías policiales, que refleja pautas históricas de racismo sistémico” (párrs. 13 y 14). “Los sesgos históricos pueden afectar a los propios datos. Un elemento central del aprendizaje automático es hacer predicciones sobre el futuro a partir de datos del pasado. Sin embargo, si los datos del pasado están sesgados en contra de ciertos grupos, en particular por criterios raciales y étnicos, los modelos informáticos pueden reproducir y amplificar esos sesgos. El uso de datos sesgados o erróneos para tomar decisiones en la vida real puede perjudicar aún más a los grupos raciales y étnicos marginados, porque el uso de esos datos en el contexto de la inteligencia artificial crea más datos, que luego se utilizan para sustentar decisiones futuras. Estos sistemas que se refuerzan a sí mismos pueden reproducir y profundizar las disparidades existentes” (párr. 15). “Una segunda forma común de sesgo en las herramientas de inteligencia artificial surge de la forma en que se diseñan los algoritmos. Si el sesgo está implícito en las decisiones de diseño, un algoritmo puede contribuir a obtener resultados sesgados, aunque los datos introducidos en el algoritmo sean perfectamente representativos. Las decisiones sobre los parámetros y el funcionamiento de un algoritmo pueden introducir sesgos. Los diseñadores de algoritmos toman decisiones sobre qué variables utilizará un algoritmo, cómo definir categorías o umbrales para clasificar la información y qué datos se utilizarán para construir el algoritmo. Entre las decisiones que toman los diseñadores está cómo medir características específicas y definir el éxito algorítmico. A veces, los antecedentes o las perspectivas de los diseñadores de algoritmos pueden hacer que incorporen sesgos inconscientes, incluidos sesgos raciales, en sus diseños de algoritmos. Al parecer, esta falta de diversidad en los sectores de la tecnología digital se ve agravada por la ausencia de procesos de consulta inclusivos en el desarrollo de los sistemas de inteligencia artificial, lo que contribuye a los problemas de diseño algorítmico” (párr. 17). “Las obligaciones de lograr la igualdad racial y garantizar la no discriminación se extienden a todos los ámbitos de la política y la influencia de los gobiernos, incluido el diseño y la aplicación de tecnologías de inteligencia artificial. El hecho de que la discriminación racial resultante de la inteligencia artificial sea intencionada o no es irrelevante en relación con el deber de actuar de los Estados partes, dado el alcance de la prohibición de la discriminación racial en virtud de la Convención Internacional sobre la Eliminación de Todas las Formas de Discriminación Racial y otros tratados de derechos humanos. Los deberes de los Estados partes en la Convención de procurar el logro de una comunidad nacional e internacional libre de todas las formas de discriminación racial también son pertinentes para la forma en que los Estados previenen y abordan las desigualdades dentro de los países y entre ellos en relación con la distribución de los beneficios de las tecnologías de inteligencia artificial” (párr. 61).
2. Inteligencia artificial. Discriminación racial. Fuerzas de seguridad. Vigilancia electrónica. Identificación de personas. Prevención. Reincidencia. “Las fuerzas del orden utilizan herramientas de identificación automatizadas para relacionar lo que observan en un entorno concreto con una posible ‘coincidencia’ en una base de datos […]. La falta de diversidad racial, de género y cultural en los conjuntos de entrenamiento de las herramientas de inteligencia artificial conduce a uno de los clásicos problemas de datos descritos anteriormente. El algoritmo tiene más probabilidades de ofrecer coincidencias erróneas respecto a los grupos infrarrepresentados en los datos de entrenamiento, incluidos los que sufren formas interseccionales de discriminación. Se ha informado de que la identificación errónea de rostros a través de estas tecnologías ha provocado un aumento del número de detenciones de afrodescendientes” (párrs. 26 y 27). “Otra forma de tecnología de inteligencia artificial utilizada habitualmente por las fuerzas de seguridad es la vigilancia policial predictiva. Las herramientas de predicción policial evalúan quién podría cometer delitos en el futuro y dónde podrían producirse, basándose en datos personales y de localización. La vigilancia policial predictiva puede exacerbar el exceso histórico de vigilancia de comunidades según criterios raciales y étnicos. Dado que los funcionarios encargados de hacer cumplir la ley han centrado históricamente su atención en esos barrios, los miembros de las comunidades presentes en ellos están sobrerrepresentados en los registros policiales [...]. Cuando los agentes de los barrios con exceso de vigilancia registran nuevos delitos, se crea un bucle de retroalimentación, por el que el algoritmo genera predicciones cada vez más sesgadas centradas en esos barrios. En resumen, los prejuicios del pasado conducen a prejuicios en el futuro” (párrs. 30 a 32). “Las herramientas de predicción de la reincidencia presentan múltiples problemas de inteligencia artificial que contribuyen a la discriminación racial. Algunos investigadores han sugerido que los predictores de reincidencia no son precisos y que sus errores tienen un impacto desproporcionado en los grupos racialmente marginados. Por ejemplo, un estudio realizado en los Estados Unidos reveló que las puntuaciones de riesgo eran muy poco fiables para pronosticar delitos violentos. Se clasificaba erróneamente a los afrodescendientes como futuros delincuentes con casi el doble de frecuencia que a los blancos” (párrs. 35 y 36).
Tribunal : Relatoría Especial sobre las formas contemporáneas de racismo, discriminación social, xenofobia y formas conexas de intolerancia
Voces: ACTOS DISCRIMINATORIOS
DISCRIMINACIÓN RACIAL
FUERZAS DE SEGURIDAD
IDENTIFICACION DE PERSONAS
IGUALDAD
INTELIGENCIA ARTIFICIAL
NO DISCRIMINACIÓN
PREVENCIÓN
REINCIDENCIA
VIGILANCIA ELECTRÓNICA
Jurisprudencia relacionada: https://repositorio.mpd.gov.ar/jspui/handle/123456789/4307
Aparece en las colecciones: Jurisprudencia internacional

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
Formas contemporáneas de racismo, discriminación racial, xenofobia y formas conexas de intolerancia.pdfDocumento completo505.52 kBAdobe PDFVisualizar/Abrir