La semana pasada, durante la Cumbre del Futuro celebrada en Nueva York, fue aprobado el Pacto Digital Global, un marco general para la gobernanza de la tecnología y la Inteligencia Artificial en el mundo. Entre otras, este nuevo pacto llama a gobiernos y al sector privado a contribuir a un fondo para el desarrollo de la IA, fija el compromiso de crear un panel internacional científico y establece un diálogo global en el seno de las Naciones Unidas.
En opinión de Vanina Martínez, integrante del Órgano Asesor sobre IA de la ONU, con la adopción de este pacto, América Latina tendría la oportunidad de comunicar al mundo sus perspectivas sobre el tema y mejorar el papel que hasta ahora ha desempeñado. “En la mayoría de los marcos de gobernanza internacional, América Latina hace parte de la discusión, pero no está en la discusión. La región tiene que imponer sus deseos y realidades”, aseguró Martínez en el foro democracIA celebrado en Buenos Aires el pasado 24 de septiembre.
El evento, organizado por Luminate, Civic Compass y el International Fund for Public Interest Media, reunió a expertos de la región y del mundo para analizar los desafíos que la IA presenta para la democracia, profundizar en sus aspectos técnicos y conectar conversaciones entre el norte y sur global.
La urgencia por atender los desafíos de la IA ha puesto a los legisladores del mundo a tramitar y discutir proyectos para regular estas tecnologías. Al igual que en otros casos, las normas de la Unión Europea han sido el modelo para diseñar leyes y otros mecanismos que prevengan posibles impactos negativos de las IA.
En particular, el enfoque de riesgos de la Ley de Inteligencia Artificial de la Unión Europea ha trazado el camino para otras iniciativas en el mundo. Sin embargo, muchas voces han alertado sobre las fallas de este sistema, según el cual entre mayor sean los riesgos de una IA para afectar los derechos humanos, mayores obligaciones habrá para los desarrolladores.
“Cuando se diseñan políticas públicas a partir de enfoques basados en riesgos, se negocian las garantías a los derechos humanos a partir de la premisa de que estas deben equilibrarse con otros valores como los de la innovación”, se lee en un informe de Access Now publicado en febrero de este año.
Además, este enfoque plantea la paradoja de que las compañías deben autoevaluar qué tan expuestas están a estos riesgos. “Básicamente están calificando su propia tarea”, expresó Maroussia Lévesque, investigadora afiliada al Berkman Klein Center de la Universidad de Harvard, en el foro.
Más allá de las fallas de proyectos que empiezan a implementarse en otras partes del mundo, existe el riesgo de que en las discusiones para adaptarlos se pierda la perspectiva local. Para Juan Carlos Lara, codirector ejecutivo de Derechos Digitales, importar modelos implica eludir el debate democrático necesario para que nuestras sociedades encuentren las soluciones que requieren para sus problemas específicos, que naturalmente no son los mismos que los de Europa o Estados Unidos.
Según Claudia López, investigadora del Centro Nacional de Inteligencia Artificial de Chile –CENIA–, en un mercado dominado por compañías del norte global, hay pocos incentivos para fomentar el desarrollo IA y evaluar sus posibles impactos en otras regiones. Con este panorama, es indispensable entonces que sean las organizaciones, gobiernos e instituciones académicas de América Latina quienes se ocupen de esta tarea.
Esto implica pensar con mayor detenimiento las relaciones entre nuestras sociedades y la industria. En cierta medida, el negocio reproduce las dinámicas de la extracción de recursos: en la región se ubican centros de datos de compañías extranjeras que contratan mano de obra a bajo costo y procesan datos producidos por personas de la región, sin que necesariamente esos beneficios se extiendan a las comunidades, como señaló Paola Ricaurte, investigadora del Departamento de Medios y Cultura digital del TEC de Monterrey. “Exportamos pera e importamos pera enlatada”, dijo Luciana Benotti, investigadora de la Universidad de Córdoba, sobre estos modelos extractivos.
Ante la falta de desarrollo de tecnologías propias, los gobiernos de la región se convierten en clientes preferentes de estas compañías. “Esa asimetría termina teniendo un impacto en la visión de las políticas públicas”, agregó Ricaurte.
Otra de las principales preocupaciones alrededor de la IA está en la posibilidad de reproducir sesgos, asunto que ha sido incluido en algunos proyectos de regulación. Benotti señaló la posibilidad de corregir sesgos de las bases de datos que alimentan los modelos de lenguaje para que no reflejen exclusivamente los valores dominantes. Para esto hacen falta mecanismos que permitan acceder a esos datos y entrenarlos con otros que representen la diversidad cultural y lingüística, así como personal calificado de la región, que ante la situación actual, se está fugando.
La avalancha de elecciones de este año trajo consigo los primeros asomos de la IA como arma de campaña política y desinformación en América Latina. Para Franco Picatto, director ejecutivo de Chequeado, las últimas elecciones en Argentina permitieron ver la punta del iceberg del potencial daño que pueden causar estas tecnologías.
A pesar de los pronósticos, la evidencia no muestra todavía un uso masivo de técnicas avanzadas de IA para la desinformación electoral, pero sí un uso frecuente de cheapfakes, montajes más artesanales y menos realistas. En todo caso, hay alertas sobre ataques a través de contenidos sexuales sintéticos, una práctica que expone especialmente a las mujeres, como indicó Patricia Villa-Berger, investigadora asociada del Instituto Tecnológico de Estudios Superiores de Monterrey.
Más que enfoques regulatorios, expertos y expertas coinciden en la necesidad de amplificar esfuerzos para mejorar la alfabetización digital en la región y educar a las personas a detectar desinformación y no contribuir a amplificarla.