TyN (España), Enrique Dans, 23.01.2023

El juicio del caso Gonzalez v. Google LLC en el Tribunal Supremo de los Estados Unidos se está convirtiendo en una fortísima prueba de fuego para las compañías tecnológicas y su responsabilidad sobre las plataformas que operan. Docenas de compañías han enviado informes de parte al tribunal solicitando que las provisiones de la Sección 230, que protege a las plataformas en la red frente a responsabilidades derivadas de lo que publican, se mantengan, y alertando de la imposibilidad de mantener sus funcionalidades si no es así.

El caso Gonzalez v. Google enfrenta a los familiares de una norteamericana muerta en un atentado terrorista en París en noviembre de 2015 con YouTube, compañía a la que acusan de participar activamente en la radicalización de los autores del atentado mediante su algoritmo de recomendación. El Tribunal Supremo revisa el caso junto con otro similar, Twitter Inc. v. Taamneh, en el que la familia del ciudadano jordano Nawras Alassaf, que murió en 2017 durante un ataque de ISIS en Estambul acusa a Twitter, Google y Facebook de no controlar el contenido terrorista en sus plataformas.

La cuestión de la responsabilidad de las plataformas sobre los contenidos que albergan o que recomiendan a través de sus algoritmos está convirtiéndose en extremadamente importante: por un lado, parece recomendable eximir hasta cierto punto a las plataformas de responsabilidades sobre los contenidos que publican algunos de sus usuarios siempre que desarrollen mecanismos para la retirada de aquello que sea considerado nocivo o peligroso mediante sistemas de marcado social, o de supervisión activa mediante moderación de contenidos.

Por otro, plantear que una plataforma mantenga su inmunidad cuando, de manera completamente intencionada y proactiva utiliza sus algoritmos para recomendar contenidos claramente nocivos, como la apología del terrorismo o la radicalización, y generar peligrosas cámaras de eco con ellos con el fin único de mantener a ese usuario más tiempo en la plataforma, puede parecer un caso algo más complicado, porque la plataforma está optando por mantener una conducta socialmente peligrosa y reprobable, la de alimentar conscientemente la radicalización de una persona, con el fin de enriquecerse.

Si las plataformas fueran consideradas responsables por ese tipo de efectos, estaríamos sin duda hablando de un cataclismo sin precedentes en la red, que abriría la posibilidad de muchísimas reclamaciones y de indemnizaciones millonarias, y forzaría a importantísimos cambios en la forma en que desarrollan su actividad.

Mientras, en el estado de Washington, las escuelas públicas del distrito de Seattle han denunciado a TikTok, Instagram, Facebook, YouTube y Snap por explotar las mentes vulnerables de los niños para generar beneficios, utilizando tácticas psicológicas que han dado lugar a una epidemia de problemas de salud mental en las escuelas de todo el país, y reclaman a las compañías que contribuyan a pagar los tratamientos necesarios para tratar de paliar esos efectos. Según el consorcio de escuelas públicas, estas compañías son responsables de enganchar a decenas de millones de estudiantes en círculos de retroalimentación positiva de uso y abuso excesivos, y reclama las máximas sanciones estatutarias y civiles permitidas por la ley esgrimiendo un argumento: que estas plataformas son perjudiciales para la salud, lo que significa que las empresas de redes sociales han violado la ley de alteración del orden público del estado.

En el Reino Unido, la idea va un poco más allá, y además de reclamar la responsabilidad de las plataformas por contenidos que puedan resultar dañinos para los niños o que muestren la inmigración ilegal en un tono positivo, reclaman directamente penas de cárcel para los directivos de las compañías que se hayan confabulado o hayan consentido para ignorar los avisos de retirada de tales contenidos.

Las cosas, decididamente, no pintan bien para unas compañías que, durante demasiado tiempo, han ignorado para su propio beneficio los efectos potenciales de los contenidos que publicaban y que recomendaban a sus usuarios. Sin duda, una cuestión en la que los tonos blancos o negros son poco recomendables, en favor de amplias gamas de gris: pretender que las plataformas sean las únicas responsables de los problemas, cuando el sistema educativo o incluso los padres han ignorado esos posibles efectos, han llevado a cabo una completa dejación o abandono de sus responsabilidades en ese sentido, y han preferido mirar para otro lado o incluso utilizar el smartphone como «apaganiños», parece un tanto frívolo.

Pero alimentar el timeline de un potencial pedófilo con vídeos de niñas bailando coreografías subidas de tono, recomendar vídeos terroristas a una persona en proceso de radicalización, o construir una burbuja de supuesta aprobación social en torno a alguien para que pase más tiempo con los ojos pegados a tu plataforma son cuestiones que esas plataformas han llevado a cabo de manera consciente, y por las que deberían afrontar algún tipo de responsabilidad.

Estos casos se inscriben en un cambio de los vientos regulatorios que, cada vez más, reclaman en todo el mundo más control para las big tech y sus plataformas. ¿Deben tener las plataformas algún tipo de responsabilidad sobre los efectos que genera la gestión que hacen de sus contenidos? Probablemente sí. ¿Deben tener toda la responsabilidad sobre ello? En absoluto. A la hora de repartir responsabilidades, me temo que hay algunos culpables más en todo esto. Y esta es una verdad incómoda que pocos van a querer oír (las escuelas y los padres cometieron un gravísimo error al negarse, en muchos casos a educar sobre eso), y que no va a ser tan fácil de juzgar…