En enero pasado, presentamos nuestras predicciones para 2023. Por ese entonces, ChatGPT tenía poco más de un mes de vida pública y provocaba asombro, X era solo una letra y Threads no estaba en el radar de nadie. Con ese panorama lanzamos nuestro propio ejercicio de futurología. Un añodespués, acá está el balance de nuestros aciertos y desatinos.
La predicción era, por lo menos, conservadora. Pocas semanas después de la compra de Twitter, el nivel de improvisación de Musk al frente de la compañía –que ya entonces había disminuido dramáticamente su nómina y había tenido caídas globales– permitían decir sin mucho margen de equivocación que la plataforma estaría en el ojo de la opinión pública y que la prensa fiscalizaría sus errores.
Tardaríamos mucho en hacer un recuento de los cambios en Twitter –hoy X– que le han acarreado problemas en el último año. Sin embargo, un solo episodio condensa muchos de ellos: la guerra entre Israel y Hamás. La explosión de contenido problemático en línea, amenazas y noticias falsas a raíz de las conversaciones sobre la situación en Medio Oriente han hecho visibles las fallas de la compañía para manejar eventos críticos.
Por una parte, los cambios en el sistema de verificación, que ahora depende de una suscripción al servicio de X Premium, han dado mayor alcance y una aparente legitimidad a difusores de desinformación en la plataforma. Por la otra, cambios a las políticas de contenido, la disminución de los equipos de seguridad y confianza de la compañía, y la visión misma del nuevo dueño han deteriorado la calidad de la discusión en X.
Musk ha decidido responder a los distintos estudios que así lo señalan con amenazas legales. Sin embargo, a la luz de la Ley de Servicios Digitales de la Unión Europea, que entró en vigencia en agosto de este año, la inacción de X frente a contenidos problemáticos podría acarrear duras sanciones para la compañía.
Así lo sugiere el anuncio de la apertura de una investigación formal de la Comisión Europea por aparentes incumplimientos de X a su regulación relacionados con moderación de contenidos, evaluación de riesgos y transparencia, entre otros. Además, la compañía cierra el año además con un frente adicional abierto: un boicot de anunciantes –su mayor fuente de ingresos–, quienes frenaron el gasto de pauta en la plataforma tras el apoyo de Musk a una publicación antisemita.
Las decisiones de Musk durante las primeras semanas en Twitter provocaron una primera ola de migración hacia plataformas alternativas. Mastodon había sido el puerto de llegada de muchos usuarios que huyeron tempranamente, pero el interés se fue perdiendo. A partir de información del New York Times, auspiciamos que Meta entraría a la competencia, bien con nuevas funciones de Instagram o con “una nueva red social basada en texto”.
La línea de sucesión de Twitter incluía a Mastodon, Bluesky y otras redes descentralizadas y alternativas. Sin embargo, hoy es Meta quien va ganando la competencia, al menos en términos de crecimiento. A solo cinco días de su lanzamiento, la plataforma alcanzó cien millones de usuarios registrados, quienes aterrizaron directamente desde Instagram.
A pesar de esto, la plataforma no tiene todavía el carácter noticioso y de debate que durante tantos años ha caracterizado a X. Eventos relevantes de este año, como las elecciones presidenciales celebradas en América Latina o el conflicto en Medio Oriente, no despertaron en Threads la idea de esfera pública digital que se esperaría para un reemplazo de X.
Es posible que en Estados Unidos la plataforma pueda empezar a abarcar este tipo de discusiones. Sin embargo, un panorama así parece todavía lejano para América Latina, donde algunos gobiernos tienen a X como su principal canal de difusión y donde la agenda política se mueve en cierta medida por esta plataforma.
Con la atención que había suscitado el lanzamiento de ChatGPT a finales de 2022, aseguramos que el nuevo año vendría acompañado de exigencias de transparencia y de moderación de contenidos para las compañías de IA.
Efectivamente, el auge de la IA llegó con los primeros llamados a una regulación. A finales de marzo, una carta pública firmada por cientos de académicos, filósofos y altos directivos de Silicon Valley –incluyendo a Elon Musk– pidió hacer un alto en el camino y suspender durante seis meses el entrenamiento de nuevos modelos para evaluar el impacto de estas tecnologías y trabajar de la mano de las autoridades para llegar a acuerdos sobre un marco de regulación apropiado.
La carta, como se ha visto, no tuvo mayor efecto, pero los pedidos de nuevas reglas continuaron e incluso fueron enunciados por las caras más visibles de la industria. En mayo, durante una audiencia frente al Congreso de Estados Unidos, Sam Altman, el CEO de OpenAI, alertó a los congresistas sobre los riesgos de la IA y les pidió que regularan su sector.
Sin embargo, las medidas no llegaron por parte del Congreso, sino directamente del gobierno. A finales de octubre, Joe Biden expidió una orden ejecutiva para que las compañías de IA entreguen información sobre sus vulnerabilidades, el uso de datos para entrenar sus modelos y para desarrollar estándares de seguridad previos al lanzamiento de nuevos productos, entre otras.
Por su parte, el Consejo de Europa y el Parlamento Europeo llegaron a un acuerdo preliminar sobre la Ley de Inteligencia Artificial que se viene discutiendo desde 2021. A falta de algunos pasos posteriores, el texto está a poco de convertirse, en palabras del Consejo, en una “regulación insignia con el potencial de fomentar el desarrollo y adoptar medidas para una IA segura y confiable”.
Aunque todavía no ha entrado en vigencia, sus bases han inspirado iniciativas de regulación que ya se han empezado a discutir en países como Brasil y Chile. De cualquier forma, al igual que ha ocurrido con proyectos para regular la actividad de las compañías de redes sociales, todavía en discusión, las leyes para la IA pueden tardar en hacerse realidad.
A finales de 2023 la Corte Constitucional de Colombia celebró una audiencia técnica para escuchar las opiniones de miembros de la sociedad civil, juristas y académicos sobre el caso de la actriz Esperanza Gómez, que demandó a Meta por suspender su cuenta de Instagram injustamente. El caso prometía un análisis profundo del trabajo de los influenciadores y de las facultades de las compañías para remover contenidos, eliminar cuentas y ofrecer canales de apelación.
El año pasó de largo sin una decisión de fondo. Luego de que Meta Platforms Inc. hubiera presentado un recurso por no haber sido vinculada desde el inicio del proceso, la Corte declaró la nulidad de todo lo actuado hasta entonces, salvo de las pruebas recaudadas. El expediente regresó a su tribunal de origen en Cali para empezar de nuevo. El giro judicial retrasó el proceso, que ya está de vuelta en manos de la Corte.