Por favor, use este identificador para citar o enlazar este ítem:
https://repositorio.mpd.gov.ar/jspui/handle/123456789/4307
Título : | Recomendación General Nº 36 |
Fecha: | 24-nov-2020 |
Resumen : | El Comité de las Naciones Unidas para la Eliminación de la Discriminación Racial emitió la Recomendación General Nº 36 sobre la prevención y la lucha contra la elaboración de perfiles raciales por parte de los funcionarios encargados del cumplimiento de la ley. El documento puso de relieve que cuestiones como la seguridad nacional, el control de fronteras y el acceso a los servicios sociales, el uso cada vez mayor de las nuevas tecnologías, los macrodatos, el reconocimiento facial, y la inteligencia artificial tienen el potencial de profundizar el racismo, la discriminación racial, la xenofobia y otras formas de exclusión y violación de derechos humanos. Además, señaló que si bien en los procesos de toma de decisiones la inteligencia artificial podía contribuir a una mayor eficacia en determinadas áreas, existía un riesgo de sesgo algorítmico cuando se utilizaba en torno a la aplicación de la ley. En ese sentido, indicó que la elaboración de perfiles algorítmicos generaba serias preocupaciones y sus consecuencias podían ser muy graves. |
Decisión: | El Comité presentó las siguientes recomendaciones para que las fuerzas de seguridad de los 182 países adheridos a la Convención sobre la Eliminación de Todas las Formas de Discriminación Racial puedan combatir los prejuicios raciales en el desempeño de su labor. |
Argumentos: | 1. No discriminación. Fuerzas de seguridad. Inteligencia artificial. Reconocimiento facial. Migrantes. Personas con discapacidad. Minorías culturales, étnicas o lingüísticas. Detención de personas. Principio de legalidad. Debido proceso. Vulnerabilidad. Revictimización. Uso de la fuerza. Libertad de expresión. Derecho a la privacidad. Medidas de acción positiva. Zonas de frontera. Definición y comprensión del perfil racial “No hay ninguna definición universal de discriminación por perfil racial en el derecho internacional de los derechos humanos. No obstante, al ser un fenómeno persistente en todas las regiones del mundo, diferentes organismos e instituciones internacionales y regionales de derechos humanos han adoptado definiciones de perfiles raciales que tienen los siguientes elementos comunes: a) son cometidos por las autoridades encargadas del cumplimiento de la ley; b) no están motivados por criterios objetivos o de razonabilidad; c) se basan en motivos de raza, color, ascendencia, origen nacional o étnico o motivos de intersección basados en la religión, sexo o género, orientación sexual e identidad de género, discapacidad y edad, situación migratoria, trabajo u otra situación; d) se utilizan en contextos específicos como control migratorio, actividad delictiva, antiterrorismo u otra actividad que presuntamente viole o puede derivar en violación de la ley” (cfr. párr. 13). “El perfil racial se comete a través de actos o comportamientos tales como las detenciones arbitrarias, registros, controles de identidad, investigaciones y arrestos” (cfr. párr. 14). “A los efectos de esta Recomendación General, la discriminación por perfil racial se entiende tal y como se menciona en el párrafo 72 del Programa de Acción de Durban; es decir, ‘la práctica de los agentes de policía y otros funcionarios encargados del cumplimiento de la ley de basarse, en uno u otro grado, en la raza, el color, la ascendencia o el origen nacional o étnico como motivo para someter a las personas a actividades de investigación o para determinar si una persona realiza actividades delictivas’. Por ende, a menudo la discriminación racial se cruza con otros motivos como la religión, el sexo y el género, la orientación sexual y la identidad de género, la discapacidad y la edad, la situación migratoria, el trabajo u otra situación” (cfr. párr. 18). “La elaboración de perfiles raciales por parte de los funcionarios encargados del cumplimiento de la ley también puede incluir, inter alia, redadas, controles fronterizos personalizados, registros domiciliarios, selección de objetivos para vigilancia, operaciones para mantener o restablecer la ley y el orden o decisiones migratorias. Estas acciones pueden darse de diferentes formas en el contexto de operaciones de vigilancia urbana y de lucha contra el terrorismo” (cfr. párr. 19). “La elaboración de perfiles raciales está vinculada a estereotipos y prejuicios que pueden ser conscientes o inconscientes, individuales, institucionales y estructurales. Los estereotipos se configuran como violación del derecho internacional de los derechos humanos cuando se ponen en práctica supuestos estereotipados para quebrantar el disfrute de los derechos fundamentales” (cfr. párr. 20). Principios y obligaciones generales de la Convención sobre la Eliminación de Todas las Formas de Discriminación Racial “La práctica en torno al uso de perfiles raciales por parte de las fuerzas de seguridad viola los principios fundamentales de los derechos humanos, que se fundamentan en: a) la no discriminación por motivos de raza, color, ascendencia u origen nacional o étnico, incluidos otros motivos que se cruzan; b) igualdad ante la ley. También puede violar el debido proceso y el derecho a un juicio justo con las debidas garantías” (cfr. párr. 21). “En virtud del artículo 6 de la Convención, los Estados Partes se encuentran obligados a garantizar una protección efectiva contra todo acto de discriminación racial. En consecuencia, los Estados Partes deben adoptar medidas preventivas con el fin de garantizar que las autoridades e instituciones públicas no se involucren en comportamientos de discriminación racial. Además, el artículo 6 exige que los Estados Partes garanticen recursos efectivos contra cualquier acto de discriminación racial. Los Estados Partes están obligados a garantizar que su ordenamiento jurídico interno contenga mecanismos adecuados y efectivos para corroborar que se ha producido un perfil racial y finalizar dicha práctica. Además, los Estados Partes deben garantizar el derecho a solicitar una reparación o satisfacción equitativa y adecuada por los daños sufridos como consecuencia de la discriminación […]. Deben asegurarse que este derecho se pueda hacer cumplir de manera efectiva. En vista de que en la práctica la elaboración de perfiles raciales afecta comúnmente a miembros de un grupo o colectivos en particular, se anima a los Estados Partes para que consideren la posibilidad de establecer mecanismos para la aplicación colectiva de los derechos en el contexto de la discriminación en base al perfil racial” (cfr. párr. 24). Consecuencias derivadas de la discriminación racial “La discriminación en base al perfil racial y la incitación al odio están íntimamente relacionadas y, por ello, a menudo el Comité ha abordado estas dos formas de discriminación de forma simultanea. La difusión de ideas basadas en el odio racial o étnico, el manejo constante del discurso de odio en los medios de comunicación y el uso de un discurso político racista por parte de los funcionarios públicos contribuyen a exacerbar la discriminación y los estereotipos por parte de las fuerzas de seguridad. Los grupos étnicos víctimas del discurso de odio se convertirán también en objetivo de la discriminación por perfil racial. Por otro lado, el uso de perfiles raciales por parte de las fuerzas de seguridad muestra a los grupos racialmente discriminados como más propensos a cometer delitos, lo que influirá en el discurso público y contribuirá al aumento de la difusión del odio racista” (cfr. párr. 27). “La discriminación racial por parte de los funcionarios encargados del cumplimiento de la ley tiene consecuencias de gran magnitud en todos los niveles de la administración del sistema de justicia, particularmente en el fuero penal. La elaboración de perfiles raciales puede tender a: a) la criminalización excesiva sobre determinadas categorías de personas amparadas por la Convención; b) la consolidación de asociaciones erróneas estereotipadas entre delincuencia y etnia junto con el desarrollo de prácticas abusivas; c) tasas de privaciones de libertad desproporcionadas […]; d) mayor vulnerabilidad […] al uso de la fuerza o abuso de autoridad por parte de las fuerzas de seguridad; e) la disparidad de los actos de discriminación racial y aquellos delitos motivados por prejuicios y f) un punitivismo más severo por parte de los tribunales contra esas comunidades, entre otros” (cfr. párr. 30). Perfiles algorítmicos, prejuicios y discriminación racial “Con mayor frecuencia, los avances en torno al desarrollo tecnológico han llevado a que las acciones de los funcionarios encargados del cumplimiento de la ley están determinadas o informadas por perfiles algorítmicos. [Estos perfiles] pueden incluir macrodatos, automatización en la toma de decisiones y herramientas o métodos de inteligencia artificial. Si bien estos desarrollos tienen el potencial de aumentar la precisión, la eficacia y la eficiencia de las decisiones y acciones de las fuerzas de seguridad, existe un riesgo importante de que también puedan reproducir y consolidar sesgos y agravar o dar lugar a prácticas discriminatorias. Como consecuencia de la opacidad sobre los análisis de algoritmos y toma de decisiones, particularmente cuando se emplean métodos de inteligencia artificial, los resultados discriminatorios en la elaboración de perfiles a menudo pueden ser menos obvios y más difíciles de detectar que los basados en decisiones humanas y, por tanto, más difíciles de cuestionar. Además de la opacidad, los defensores de los derechos humanos no se encuentran tecnológicamente equipados para identificar estas prácticas de sesgo discriminatorio” (cfr. párr. 31). “Para el sesgo existen varios puntos de partida que podrían integrarse en los sistemas de creación de perfiles algorítmicos. Estos van desde la manera en que se diseñan estos sistemas, las decisiones sobre el origen y el alcance de los conjuntos de datos […], los sesgos sociales y culturales que los desarrolladores pueden incorporar, los modelos de inteligencia artificial en sí mismos y la forma en que los resultados se implementan en la práctica. En particular, cuando los siguientes factores se relacionan con los datos en cuestión, pueden contribuir a ciertos resultados negativos: a) que los datos utilizados incluyan información sobre características protegidas; b) que incorporen la denominada ‘información de representación’. Por ejemplo, los códigos postales indican a menudo y, de forma indirecta, la raza u origen étnico en los casos de zonas segregadas en las ciudades; c) los datos utilizados estén sesgados en contra de un grupo, o que d) los datos utilizados sean de mala calidad, como consecuencia de que estén mal seleccionados, incompletos, sean erróneos o estén desactualizados” (cfr. párr. 32). “Surgen riesgos cuando se utiliza la elaboración de perfiles algorítmicos para determinar la probabilidad de la actividad delictiva en determinadas localidades, por determinados grupos o incluso por personas. La vigilancia predictiva, que presagia la posibilidad de eventos futuros en base a datos históricos, puede fácilmente producir resultados discriminatorios. Particularmente cuando los conjuntos de datos utilizados adolecen de uno o más de los defectos descritos con anterioridad. Por ejemplo, el historial de arrestos en un vecindario puede reflejar prácticas policiales con prejuicios raciales. Si se incorporan a un modelo policial predictivo, estos datos corren el riesgo de encauzar las predicciones futuras en la misma dirección sesgada, lo que lleva a una vigilancia excesiva del mismo vecindario, lo que a su vez puede provocar más arrestos en la misma área, creando un circuito que se retroalimenta de forma peligrosa” (cfr. párr. 33). “Se ha informado sobre la existencia de mecanismos parecidos en los sistemas judiciales. Al aplicar una pena, es común decidir si alguien debe ser enviado a prisión, liberado mediante el pago de una fianza o recibir otra sanción. Por ello, los Estados recurren al uso de perfiles algorítmicos con el fin de predecir las posibilidades de que un individuo pueda cometer uno o más delitos con posterioridad. Las autoridades, con el fin de evaluar el grado de ‘peligro’ que representa la persona, recaban información sobre sus antecedentes penales, sus familiares y amigos, sus condiciones sociales, incluido su historial laboral y académico, todo a partir de una puntuación proporcional elaborada por el algoritmo y que permanece en secreto generalmente” (cfr. párr. 34). “El incremento del uso de tecnologías de reconocimiento y vigilancia facial para rastrear y controlar datos demográficos específicos genera preocupaciones en relación con muchos derechos humanos, incluido el derecho a la privacidad, la libertad de reunión pacífica y asociación, la libertad de expresión y libertad de circulación. Están diseñados para identificar de forma automática a las personas en función de su geometría facial, lo que puede generar patrones de personas en función de motivos discriminatorios como la raza, color, origen nacional o étnico o género. Las cámaras equipadas con tecnología de reconocimiento facial en tiempo real se usan ampliamente con el objetivo de marcar y rastrear a las personas, permitiéndole a los gobiernos y a otros mantener registros de los movimientos de un gran número de individuos, basándose posiblemente en características protegidas. Además, se ha demostrado que la precisión de la tecnología de reconocimiento facial puede diferir según el color, la etnia o el género de las personas clasificadas y que puede derivar en una discriminación” (cfr. párr. 35). “En algunos casos, se emplean algoritmos en las pruebas de ADN para determinar la etnia o nacionalidad de las personas. Los resultados de esta prueba de ADN pueden llevar a la elaboración de perfiles. El Comité observa, en consonancia con la comunidad científica, que no existen vínculos directos entre la composición del ADN de una persona y su origen étnico o nacionalidad. Por lo tanto, el Comité condena el uso de perfiles de ADN por parte de los Estados y las fuerzas y cuerpos de seguridad, especialmente en las zonas fronterizas. Además, las autoridades encargadas del cumplimiento de la ley han utilizado los resultados de la elaboración de perfiles de ADN para hacer afirmaciones falsas de que ciertas minorías étnicas son más propensas a la violencia y, por tanto, han sido objeto de prácticas policiales discriminatorias” (cfr. párr. 36). Recomendaciones del Comité: a) Medidas legislativas y normativas “Los Estados deben desarrollar e implementar leyes y políticas de manera efectiva que definan y prohíban la discriminación en base al perfil racial por parte de los funcionarios encargados del cumplimiento de la ley. [A]segurarse que los organismos encargados del cumplimiento de la ley desarrollen directrices detalladas para las prácticas de detención y registro […], a fin de prevenir la discriminación en base al perfil racial” (cfr. párr. 38-39). “De conformidad con el artículo 6 de la Convención, los Estados deben garantizar a todas las personas que se encuentren en su jurisdicción la protección jurídica y recursos efectivos contra todo acto de discriminación racial que viole sus derechos humanos y libertades fundamentales contrarios a la Convención, así como el derecho de perseguir una reparación o satisfacción equitativa y adecuada por los daños sufridos como consecuencia de dicha discriminación” (cfr. párr. 40). “Se insta a los Estados a que adopten enfoques centrados en las víctimas y coordinen eficazmente los servicios de apoyo a través de la promoción de modelos de cooperación entre las autoridades, las comunidades y las organizaciones de la sociedad civil, incluidas las que representan a los grupos que experimentan formas cruzadas de discriminación. El Comité destaca la interconexión entre el artículo 5 a) y el artículo 6 de la Convención y observa que las autoridades judiciales y otros órganos que imparten justicia deben involucrarse y ser consultados en estos procesos para prevenir la perpetuación del efecto de discriminación racial en los procesos penales” (cfr. párr. 41). b) Educación y formación en derechos humanos “Los Estados deben desarrollar programas de capacitación obligatorios y especializados para los organismos encargados del cumplimiento de la ley con el fin de sensibilizar a sus funcionarios sobre el impacto de los prejuicios en su trabajo y puedan demostrar cómo garantizar una conducta carente de sesgo discriminatorio. [L]as capacitaciones deberán evaluarse y actualizarse periódicamente para garantizar que tengan los impactos deseados” (cfr. párr. 42). “La educación y la formación en materia de derechos humanos son fundamentales para garantizar que las fuerzas de seguridad no discriminen. Las instituciones nacionales de derechos humanos, en cooperación con las organizaciones de la sociedad civil, pueden desempeñar un papel fundamental en su formación y en la auditoría de nuevas herramientas tecnológicas que puedan llevar a la discriminación, así como la identificación de otros riesgos en la práctica” (cfr. párr. 45). c) Policía comunitaria “Los Estados deben adoptar medidas para garantizar que la información pública de la policía y otros organismos encargados del cumplimiento de la ley esté basada en estadísticas confiables y objetivas y no perpetúe estereotipos y prejuicios contra los grupos étnicos que son víctimas de discriminación” (cfr. párr. 49). d) Datos desglosados “Los Estados deberían recopilar y supervisar periódicamente datos desglosados, de forma cuantitativa y cualitativa, referentes a la manera en la que se aplica la ley pertinente, como controles de identidad, detenciones de tráfico o registros fronterizos, que incluyan información sobre los motivos discriminatorios, incluidas sus formas de intersección, así como el motivo de la acción policial y su resultado. Las estadísticas anónimas generadas por tales prácticas deben ponerse a disposición de la sociedad y discutirse con las comunidades locales. Estos datos deben recopilarse de acuerdo con las normas y principios de derechos humanos, como las normas de protección de datos y sus garantías de privacidad. Esta información no debe utilizarse indebidamente” (cfr. párr. 50). “Los Estados también deben protegerse contra el procesamiento automatizado de datos personales, consistente en el uso de datos personales para evaluar determinados aspectos personales relacionados con una persona física. Particularmente, para analizar o predecir aspectos relacionados con el desempeño de esa persona física en su lugar de trabajo, sobre su situación económica, salud, preferencias personales, intereses, confiabilidad, comportamiento, ubicación o circulación” (cfr. párr. 51). e) Responsabilidad “Los Estados deben generar un mecanismo de denuncia independiente de las fuerzas de seguridad y otras agencias adyacentes para recibir las quejas relacionadas con la discriminación racial y la xenofobia, así como de perfiles raciales y étnicos de ciudadanos. Este organismo tendrá la facultad de investigar con celeridad y eficacia los supuestos casos y trabajará en conjunto con la sociedad civil y los órganos de vigilancia de los derechos humanos. También informará públicamente sobre sus conclusiones, de acuerdo con las normativas de protección de datos y los derechos fundamentales. Este organismo debe tener en cuenta las necesidades especiales de las personas con discapacidad en el caso de discriminación interseccional” (cfr. párr. 52). “Los incidentes de discriminación por perfil racial cometidos por los organismos encargados del cumplimiento de la ley deben investigarse eficazmente conforme a las normas internacionales de derechos humanos, los responsables deben ser procesados y, si son condenados, deben ser sancionados con las penas apropiadas debiéndose otorgar una indemnización a las víctimas” (cfr. párr. 54). “Los Estados deben garantizar que los altos funcionarios responsables de los organismos encargados del cumplimiento de la ley promuevan políticas y prácticas no discriminatorias dentro de sus organismos y supervisen rigurosamente la conducta de su personal, haciéndolo responsable de las faltas de conducta por parte del mecanismo de supervisión interno e independiente” (cfr. párr. 55). “Los mecanismos internacionales y regionales de derechos humanos, las instituciones nacionales de derechos humanos y órganos de igualdad, las organizaciones civiles y los miembros de la sociedad deberían tener la posibilidad de denunciar las prácticas discriminatorias de los organismos encargados del cumplimiento de la ley. Los miembros de la sociedad deberían poder presentar denuncias a través de mecanismos independientes” (cfr. párr. 57). f) Inteligencia artificial “Los Estados deben asegurar el total cumplimiento de las normas internacionales en materia de derechos humanos relacionadas con los sistemas de elaboración de perfiles algorítmicos utilizados con fines de aplicación de la ley. Así pues, antes de proveerse o desplegar dichos sistemas, los Estados deberían adoptar las medidas legislativas, administrativas y de otra índole que sean acordes para determinar su propósito y regular con la mayor precisión posible los parámetros y salvaguardias que eviten violaciones de derechos humanos. En particular, estas medidas deben tener como objetivo evitar que el despliegue de estos sistemas de elaboración de perfiles algorítmicos socave el derecho a no ser discriminado, el derecho a la igualdad ante la ley, el derecho a la libertad y seguridad personal, el derecho a la presunción de inocencia, los derechos a la vida, la libertad y la seguridad, el derecho a la intimidad, la libertad de circulación, libertad de reunión pacífica y asociación, protección ante un arresto arbitrario y otras intervenciones y el derecho a un recurso efectivo” (cfr. párr. 58). “Antes de emplear la tecnología de reconocimiento facial, los Estados deben evaluar cuidadosamente su impacto en los derechos humanos […]. [L]os Estados deberían considerar un período piloto bajo la supervisión de un organismo independiente que integre a personas que representen la composición diversa de la población, y pueda mitigar cualquier caso de identificación errónea y elaboración de perfiles según el color de piel” (cfr. párr. 59). “[L]os sistemas de elaboración de perfiles algorítmicos implementados con fines policiales deben diseñarse para ser transparentes y permitir que los investigadores y la sociedad civil puedan acceder a su cifrado para su escrutinio. Debería haber una evaluación y un seguimiento continuos del impacto de esos sistemas en los derechos humanos a lo largo de todo su ciclo de vida, y los Estados deberían tomar las medidas de mitigación adecuadas si se identifican riesgos o daños a los derechos humanos […]. [D]ebería incluir evaluaciones de impacto comunitario. Los grupos potencialmente o realmente afectados, junto con los expertos de mayor relevancia, deben ser incluidos en los procesos de evaluación y mitigación” (cfr. párr. 60). “Los Estados deberían tomar todas las medidas apropiadas para asegurar la transparencia en el uso de sistemas de perfiles algorítmicos. Esto incluye la pública divulgación de su uso junto con explicaciones suficientes sobre la forma en que funcionan, qué conjuntos de datos se están utilizando y qué medidas existen para prevenir o mitigar los daños a los derechos humanos” (cfr. párr. 61). “Los Estados deben implementar medidas para garantizar que los órganos de supervisión independientes tengan el mandato de auditar el uso de herramientas de inteligencia artificial por parte del sector público y evaluarlas en función de los criterios desarrollados conforme a la Convención; para garantizar que no están consolidando las desigualdades ni generando resultados discriminatorios. Los Estados también deben asegurarse de que el funcionamiento de dicho sistema sea monitoreado y evaluado regularmente, a fin de identificar las deficiencias y tomar las medidas correctivas necesarias. Cuando el resultado de la evaluación indica un alto riesgo de discriminación u otras violaciones de derechos humanos, los Estados deben tomar medidas para evitar el uso de dicha tecnología” (cfr. párr. 62). “Los Estados deben asegurarse de que todos los casos de sesgo algorítmico sean debidamente investigados y sancionados” (cfr. párr. 65). “[L]as empresas que desarrollan, venden u operan sistemas de elaboración de perfiles algorítmicos con fines de aplicación de la ley tienen la responsabilidad de involucrar a personas de diversas disciplinas como la sociología, las ciencias políticas, la informática y el derecho para definir los riesgos y garantizar el respeto de los derechos humanos. Como parte del cumplimiento de esta responsabilidad, los Estados deben alentar a las empresas a llevar a cabo procesos de debida diligencia en materia de derechos humanos…” (cfr. párr. 66). “En el proceso de identificar, evaluar, prevenir y mitigar los impactos adversos sobre los derechos humanos, las empresas deben prestar especial atención a los factores relacionados con los datos descritos en el párrafo anterior. La selección de datos de capacitación y el diseño de sus modelos deben realizarse de manera que se eviten resultados discriminatorios y otros impactos adversos sobre los derechos humanos. Además, las empresas deben buscar la diversidad, la equidad y otros medios de inclusión en la fuerza laboral mediante el desarrollo de sistemas de perfiles algorítmicos. Las empresas también deben estar abiertas a auditorías de terceros independientes de sus sistemas de elaboración de perfiles algorítmicos. Cuando se haya evaluado que el riesgo de discriminación u otras violaciones de los derechos humanos es demasiado alto o imposible de mitigar, incluso debido a la naturaleza del uso previsto o previsible por parte de un Estado, los agentes del sector privado no deben vender ni implementar un sistema de elaboración de perfiles algorítmicos” (cfr. párr. 67). |
Tribunal : | Comité para la Eliminación de la Discriminación Racial - CERD |
Voces: | DEBIDO PROCESO DERECHO A LA PRIVACIDAD DETENCIÓN DE PERSONAS DISCRIMINACIÓN RACIAL FUERZAS DE SEGURIDAD INTELIGENCIA ARTIFICIAL INTELIGENCIA ARTIFICIAL LIBERTAD DE EXPRESIÓN MEDIDAS DE ACCIÓN POSITIVA MIGRANTES MINORÍAS CULTURALES, ÉTNICAS Y LINGÜÍSTICAS NO DISCRIMINACIÓN PERSONAS CON DISCAPACIDAD PERSPECTIVA DE INTERSECCIONALIDAD PRINCIPIO DE LEGALIDAD RECONOCIMIENTO FACIAL REVICTIMIZACIÓN USO DE LA FUERZA VULNERABILIDAD ZONAS DE FRONTERA |
Jurisprudencia relacionada: | https://repositorio.mpd.gov.ar/jspui/handle/123456789/4306 https://repositorio.mpd.gov.ar/jspui/handle/123456789/4305 https://repositorio.mpd.gov.ar/jspui/handle/123456789/4304 https://repositorio.mpd.gov.ar/jspui/handle/123456789/4303 https://repositorio.mpd.gov.ar/jspui/handle/123456789/5336 |
Aparece en las colecciones: | Jurisprudencia internacional |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
Recomendación General Nº 36.pdf | Documento completo | 579.42 kB | Adobe PDF | Visualizar/Abrir |