Primera Charla de Café: “Protección de Datos en Inteligencia Artificial”
República Oriental del Uruguay
El 20 de abril se realizó la primera edición del año del ciclo Charlas de Café.
El panel estuvo integrado por Eduardo Bertoni, representante y coordinador de la Oficina Regional para América del Sur del Instituto Interamericano de Derechos Humanos; MaximilianoManeiro, gerente de la División Tecnologías Emergentes de Agesic; Felipe Rotondo, miembro del Consejo Ejecutivo de la URCDP; y fue moderado por Gonzalo Sosa, coordinador de la URCDP.
En su exposición, Eduardo Bertoni destacó cuatro documentos relacionados con la Inteligencia Artificial (IA) elaborados por diferentes organizaciones con el objetivo de guiar y realizar recomendaciones en el uso de esta tecnología.
El primero fue realizado por elConsejo de Derechos Humanos de Naciones Unidas, denominado“Impacto, oportunidades y retos que pueden tener las tecnologías digitales nuevas y emergentes con relación a la promoción y protección de derechos humanos”.
El segundo fue creado por el Banco Interamericano de Desarrollo (BID) y se titula“Uso responsable de la inteligencia artificial para políticas públicas”. El objetivo de este documento es ayudar a los responsables de formular proyectos con IA durante su conceptualización y diseño, así como a liderar posteriormente su ejecución y monitoreo.
El tercero pertenece a laRed Iberoamericana de Protección de Datos Personalesy engloba recomendaciones generales y una guía interpretativa.El cuarto documento al que hizo referencia Bertoni proviene delCentro Académico para la IA y la Política Digitaly se trata de un ranking de IA y valores democráticos.
Por su parte, Maximiliano Maneiro presentó laEstrategia de Inteligencia Artificialpara el Gobierno Digitalque elaboró Agesic, desarrollada con el propósito de promover y fortalecer su uso responsable en la Administración Pública.
Maneiro hizo especial hincapié en la incorporación del principio de la privacidad por diseño de la Estrategia que prevé que las soluciones de IA contemplen desde su diseño la privacidad de las personas.
También se refirió a laGuía para la evaluación del Estudio de Impacto Algorítmicoque es una herramienta que permite analizar y evaluar los tipos de sistemas que usan aprendizaje automático en las organizaciones.
Por último, Gonzalo Sosa complementó la presentación de la Estrategia de Inteligencia Artificial para el Gobierno Digital e indicó que además del principio de privacidad por defecto, se incluyó el respeto a los derechos humanos y al cumplimiento de los principios de la protección de datos. Además, repasó la normativa nacional de protección de datos aplicable a la IA haciendo especial énfasis en la responsabilidad proactiva y en la necesidad de la realización de evaluaciones de impacto.
Enlaces de interés:
- Acceder al documento“Impacto, oportunidades y retos que pueden tener las tecnologías digitales nuevas y emergentes con relación a la promoción y protección de derechos humanos”
- Accder al documento “Uso responsable de la inteligencia artificial para políticas públicas”
- Acceder a la Estrategia de Inteligencia Artificialpara el Gobierno Digital
- Acceder a la Guía para la evaluación del Estudio de Impacto Algorítmico
- Acceder a más información sobre Inteligencia Artificial