A finales de marzo, un grupo de investigadores, filósofos y miembros de la industria de la tecnología firmaron una carta abierta en la que llamaban a las compañías de Inteligencia Artificial (IA o AI) a frenar el desarrollo de sus modelos y productos mientras se tomaban medidas de seguridad y se establecían pautas para evitar los riesgos asociados a una tecnología que podría “cambiar la historia de la vida en la Tierra”. Aunque desde entonces nada ha detenido el vertiginoso lanzamiento de nuevas herramientas, la preocupación generalizada ha empezado a movilizar a reguladores y autoridades, que avanzan a una velocidad mucho menor a la del fenómeno que pretenden atajar.
Es el caso del Congreso de Estados Unidos, que el 16 de mayo indagó a Sam Altman, el CEO de OpenAI —detrás de la cual se encuentran ChatGPT y Dall-E—, o de la Unión Europea, que vuelve a ponerse en la vanguardia de la regulación tecnológica con un proyecto que tiene por objeto imponer responsabilidades a los desarrolladores de IA. Además, un proyecto del mismo corte empieza a cocinarse en Brasil, donde la iniciativa nace en un clima regulatorio tormentoso, como lo comentamos en la edición pasada de Botando Corriente.
“Creo que si esta tecnología sale mal, puede salir muy mal. Y quiero ser enfático en esto”. En estos tiempos, la frase podría ponerse en boca de cualquier experto preocupado por los avances y riesgos de la inteligencia artificial. Lo sorprendente no es solo que quien la pronunciara fuera Sam Altman, una de las caras más visibles del auge de la IA, sino que además lo hiciera frente al Congreso de los Estados Unidos.
La audiencia se llevó a cabo con una inusual amabilidad, a diferencia de lo que suele ocurrir en esta clase de diligencias, donde los congresistas interrogan a las cabezas de Silicon Valley con hostilidad, pero sin consecuencia alguna. Para algunos analistas, Altman dio una cátedra de relaciones públicas en la que mostró su habilidad para evitar que la conversación llegara a lugares incómodos —como la discusión sobre el uso de material protegido por copyright por parte de sus sistemas— y se concentró en decirles a los congresistas todo lo que querían escuchar.
Altman compartió todas las preocupaciones de los legisladores sobre la IA y los exhortó a regular su propio negocio. Sugirió que se tomaran medidas para mitigar los empleos que podrían perderse y se sumó a la propuesta del profesor Gary Marcus —un crítico de la IA presente en la audiencia— de crear una agencia que licencie el desarrollo de modelos a gran escala y que establezca pruebas de seguridad previas al lanzamiento de nuevos modelos.
El discurso de Altman fue tan exitoso que incluso en un punto el senador John Kennedy le preguntó si él podría administrar dicha agencia en caso de que el Congreso la aprobara. Cuando Altman respondió que estaba feliz con su actual cargo, el senador le pidió que recomendara a algunas personas para incorporar el organismo.
Durante la audiencia también se barajaron opciones como la creación de etiquetas, a la manera de las tablas nutricionales, que visibilizaran las características de cada producto y fomentaran la competencia basada en la transparencia y la seguridad.
Más allá de las fotos y los titulares, Estados Unidos tiene una larga tradición de fracasar en su intención de regular nuevas tecnologías. A pesar de que tanto demócratas como republicanos parecen coincidir en la necesidad de imponer límites a las compañías de redes sociales, ninguno de los más de 25 proyectos que se han presentado en los últimos años para eliminar o modificar el régimen de responsabilidad de estos actores ha logrado aprobarse.
Para la periodista Parmy Olson, la actitud de Altman en la audiencia puede responder a esa dinámica del Congreso: la historia de los últimos años le ha dado libertad a Altman para endulzar el oído de los parlamentarios y sugerir propuestas que podrían afectar su negocio justamente porque lo más probable es que, al menos en el corto plazo, no lleguen a convertirse en ley.
Desde 2021, la Unión Europea ha venido trabajando en un texto para obligar a los desarrolladores de IA a revelar el uso de contenido protegido por copyright, implementar obligaciones de transparencia y mecanismos de auditoría de algoritmos que puedan afectar los derechos humanos. Ahora el proyecto deberá ser discutido por miembros del Parlamento, el Consejo Europeo y la Comisión Europea, en una fase conocida como los diálogos tripartitos.
El proyecto está estructurado de manera que las herramientas son clasificadas según su nivel de riesgo: desde mínimo hasta inaceptable. Estas últimas están prohibidas e incluyen sistemas de clasificación social para personas o servicios que impulsen a los usuarios a cometer actividades peligrosas.
A mayor nivel de riesgo, más estrictas serán las obligaciones que deberán cumplir las compañías. El proyecto tiene en cuenta modalidades como la vigilancia biométrica, la desinformación o el lenguaje discriminatorio, y establece deberes de gobernanza de datos, privacidad y supervisión humana para los modelos de IA.
Un punto clave de la ley es el que prohíbe las “técnicas subliminales” para manipular el comportamiento de los usuarios de forma que pueda causarle un daño físico o psicológico. Aunque se entiende que la norma pretenda evitar algunos tipos de influencia negativa, al tratarse de técnicas subliminales, es decir, que operan sobre los usuarios sin que estos se den cuenta, la norma aplicaría en una zona ambigua y de difícil control: la conciencia misma de quienes interactúan con estos sistemas. Esto sin olvidar que, antes de que se hablara de IA, los algoritmos de selección y recomendación de las redes sociales ya venían ejerciendo una poderosa influencia sobre los hábitos de consumo de contenido de los usuarios.
Para Risto Uuk, investigador del Future of Life Institute, el proyecto se concentra mucho en los daños particulares que puede causar una técnica de manipulación, mientras que deja de lado los que podrían afectar a una sociedad en su conjunto. Es el caso de fenómenos como la alteración del curso de una elección o el reforzamiento de la desigualdad, asuntos que tienen más una dimensión social que individual y que no están contemplados en las disposiciones sobre manipulación.
Otro punto relevante corresponde al uso de material protegido con copyright por parte de modelos como ChatGPT o Dall-E, que debe ser revelado por las compañías y que podría exponerlas a riesgos legales.
Aunque desde hace meses este factor ha motivado demandas contra los desarrolladores —las mismas de las que Altman evitó hablar en su audiencia ante el Congreso—, las posibles infracciones al derecho de autor por este medio no son tan sencillas de probar. Para Sergey Lagodinsky, diputado del Parlamento Europeo involucrado en el proyecto, podría hacerse una analogía con la escritura de novelas:
“Es como leer cientos de novelas antes de escribir la tuya. Una cosa es copiar algo y publicarlo. Pero si no estás plagiando directamente el material de alguien más, no importa con qué te entrenaste”.
De cualquier forma, el fenómeno seguramente alimentará discusiones sobre el uso justo, la influencia y la reinterpretación de obras por parte de la IA.
Al igual que en otros casos, como en el de la Ley de Servicios Digitales, es posible que esta primera iniciativa occidental para regular la IA provoque lo que se conoce como el “efecto Bruselas”, es decir, un impacto más allá de las fronteras de la Unión Europea. Se espera que la norma sea aprobada a finales de 2023.
Como ocurrió con el Marco Civil de Internet o el actual “proyecto de ley de las fake news”, Brasil se presenta como un laboratorio regional para la regulación de nuevas tecnologías. Recientemente, Rodrigo Pacheco, presidente del Senado de ese país, presentó ante la corporación una iniciativa dirigida a proteger el ejercicio de derechos humanos frente a las posibles amenazas derivadas de la IA.
El proyecto es el resultado de un proceso de dos años que contó con audiencias públicas, un seminario con expertos internacionales y una comisión de juristas. En buena medida coincide con el proyecto en curso en la Unión Europea, pues prohíbe el uso de técnicas subliminales para controlar el comportamiento de las personas respecto a su salud y seguridad, o el uso de herramientas por parte del gobierno para evaluar a los ciudadanos de acuerdo a su comportamiento o atributos para acceder a políticas públicas.
El texto integra otras tres iniciativas que desde 2019 se han discutido en el país. La coalición Direitos Na Rede, que reúne a cincuenta organizaciones en defensa de los derechos digitales en Brasil, ha defendido la discusión de la ley en el Senado, haciendo énfasis en la necesidad de que el diálogo involucre a distintas partes interesadas y de que el proyecto no se reduzca a un mero trasplante de normas extranjeras sin tener en cuenta el contexto local.
El proyecto llega al Congreso en un momento en el que el debate sobre la regulación de tecnologías ha terminado en un fuego cruzado entre los intereses de las plataformas, las presiones de la oposición y las propuestas del gobierno para imponer límites a las redes sociales.