A nadie se le niega una reclamación por copyright. Por más que los creadores de contenido actúen con precaución para evitar problemas de derechos de autor, por más que se curen en salud y utilicen solo unos pocos segundos de una canción o de una película, ninguno está a salvo. Por más que todo parezca estar en regla, en muchas ocasiones los sistemas de las plataformas aplican sanciones de manera desproporcionada.
Así le ocurrió al Cine Club de la Universidad Central de Bogotá, que obligado por el confinamiento en 2020 tuvo que empezar a transmitir sus ciclos por Facebook. Aunque tuvieron la prevención de solo proyectar películas de dominio público para evitar problemas de este tipo, en dos ocasiones la plataforma suspendió las transmisiones por supuestas infracciones al derecho de autor.
La forma en la que está estructurado el sistema y las consecuencias de estas sanciones son problemas serios para los creadores de contenido, especialmente los más pequeños, como lo explica el informe ‘Protección automática de derechos de autor: una herramienta de desigualdad’, publicado a finales de junio por la Fundación Karisma.
Las herramientas de detección automática de derechos de autor aparecieron en 2007, cuando Google presentó Content ID, un sistema que permite detectar masivamente el contenido protegido por copyright y que ofrece herramientas a los titulares de los derechos para actuar contra los infractores, pudiendo dar de baja el contenido, quedarse con su monetización o dejarlo en línea. De la idea de Content ID se han desprendido los sistemas análogos que han adoptado las grandes plataformas como Meta, Twitter o Twitch.
El mecanismo ha sido criticado durante estos años por inclinar la balanza hacia los supuestos titulares de los derechos o sus representantes –grandes disqueras o asociaciones que representan los intereses de una industria–, quienes pueden decidir sobre el contenido de los creadores sin verificar que en efecto estén infringiendo los derechos de autor.
Del otro lado están los usuarios, que automáticamente quedan a voluntad de los titulares, y por tanto expuestos a sanciones por copyright. Las medidas corren incluso cuando los creadores actúan amparados por el uso justo, una doctrina que permite utilizar material protegido sin necesidad de pedirle autorización al titular de los derechos.
Este desbalance además abre las puertas a sanciones incluso cuando no se ha usado material protegido. El informe de la Fundación Karisma, elaborado por el periodista e investigador José Luis Peñarredonda, recoge el caso de Cuestión Pública, un medio independiente que durante el Paro Nacional de 2019 en Colombia fue sancionado sin haber usado ningún material ajeno.
Todo ocurrió durante una entrevista a la congresista Ángela María Robledo a través de Facebook Live. De un momento a otro, la transmisión fue interrumpida, supuestamente por incumplir las normas de derechos de autor. Al parecer, Robledo estaba usando la misma ropa y un encuadre similar para una entrevista anterior que había concedido a la emisora Blu Radio, por lo que los sistemas de Facebook lo identificaron como una infracción al copyright.
Además de estos errores en los sistemas de moderación, los usuarios afectados se encuentran con obstáculos al intentar apelar esa decisión. En ocasiones, nunca reciben una respuesta. En otras, solo logran avanzar y solucionar el problema si se contactan directamente con la plataforma, una opción a la que no todos pueden acceder.
Pero apelar y revertir una sanción no equivale a que las cosas queden completamente corregidas. Varios usuarios entrevistados para la elaboración del informe aseguraron que luego de la reclamación los algoritmos disminuyeron su visibilidad, lo que afecta la relación con su audiencia y en últimas su viabilidad económica.
El caso del contenido periodístico es aun más problemático. Si una publicación es eliminada por derechos de autor, el tiempo que tarde la apelación y la decisión final es suficiente para que la noticia pierda su relevancia, sobre todo cuando otros medios han podido difundir la noticia sin esta clase de obstáculos.
En su estado actual, las herramientas automáticas de detección –concluye el informe– disuaden a los creadores de contenido y los limita creativamente. Al conocer las consecuencias que puede tener el uso de un material protegido –o incluso uno de dominio público–, los usuarios prefieren no exponerse a una sanción y a sus consecuencias.
*El informe completo puede ser consultado aquí.
*En Circuito registramos casos injustos de moderación. Los casos pueden ser compartidos en este enlace.