i. Introducción
El año pasado comentamos dos casos relevantes de la Suprema Corte de los EE.UU. sobre la responsabilidad de las plataformas de Internet.[1]
Señalamos entonces que, pese a la evolución tecnológica y creciente sofisticación de los algoritmos, se mantiene el esquema de inmunidad establecido allá por 1996, a través de la sección 230 de la Ley de Decencia en las Comunicaciones[2], en relación al contenido generado por terceros que las plataformas[3] enlazan, distribuyen o exhiben.
Repasamos asimismo la situación en Argentina, en especial a partir del precedente Rodríguez María Belén (Fallos, 337:1174) -el cuál próximamente cumplirá una década- y otros posteriores, tanto de la propia Corte como de los Tribunales Nacionales y Federales.[4]
En julio de este año la Suprema Corte de los EE.UU. volvió a expedirse, no en relación directa con la responsabilidad de las plataformas por posibles daños derivados del contenido, sino respecto a la moderación de esos contenidos.
ii. La decisión de la Suprema Corte de los EE.UU.
El 1 de julio de 2024, la Suprema Corte de los EE.UU. resolvió los casos “MOODY, ATTORNEY GENERAL OF FLORIDA, ET AL. v. NETCHOICE, LLC, DBA NETCHOICE, ET AL.” y “NETCHOICE, LLC, DBA NETCHOICE, ET AL., PETITIONERS 22–555 v. KEN PAXTON, ATTORNEY GENERAL OF TEXAS”.
Los hechos del caso se pueden resumir del siguiente modo: en el año 2021 los estados de Florida y Texas promulgaron sendas leyes con la intención de regular a las grandes empresas de redes sociales y otras plataformas de Internet.
Si bien no eran idénticas, en general las normas reducían la capacidad de las plataformas de moderar contenido, lo que típicamente ocurre mediante mecanismos que permiten filtrar, priorizar o etiquetar mensajes, videos y otros contenidos que publican los usuarios. También se exigía a las plataformas una explicación en caso de modificación o eliminación de contenido.
NetChoice LLC y Computer & Communications Industry, asociaciones cuyos miembros incluyen a Facebook y YouTube, impugnaron en forma íntegra[5] a estas dos leyes, por ser contrarias a la Primera Enmienda de la constitución norteamericana, que consagra y protege la libertad de expresión. Los Tribunales de distrito concedieron inicialmente medidas cautelares suspendiendo la aplicación de las normas, pero en segunda instancia se dictaron sentencias contradictorias.
Entre los argumentos en contra de las leyes, se sostuvo que la obligación de explicar millones de decisiones de moderación por día era excesivamente gravosa e impracticable, y llevaría a las plataformas a auto restringir su actividad para no caer en incumplimiento.
A favor de la validez, se argumentó que las actividades de moderación de contenido no constituyen en sí mismas un “discurso” que merezca protección. Pero aún si lo fueran, el Estado podría regularlas para promover “la diversidad de ideas”.
La Suprema Corte anuló las decisiones inferiores y ordenó dictar nuevas sentencias, porque -a su entender- ninguna de las cortes federales llevó a cabo un análisis suficiente de los desafíos que estas normas presentan contra la Primera Enmienda. En particular, hizo ver que las leyes no sólo alcanzaban a servicios como el “News Feed” de Facebook o la página de inicio de YouTube, sino una gama mucho mayor de actividades, como la mensajería instantánea.
Es decir, formalmente el trámite de los casos no culminó. Sin perjuicio de ello, la Corte agregó “obiter dicta” jugosas consideraciones de fondo que permiten anticipar su opinión en una eventual decisión futura.
Con cita de su propia jurisprudencia, la Corte recordó que exigir que se proporcione un foro para las opiniones de otra persona, puede alterar o perturbar la propia actividad expresiva de un medio, y colisionar con la Primera Enmienda.[6]
Tras ello, reafirmó que la Primera Enmienda protege a cualquier entidad cuya actividad consista en compilar y “curar” el discurso de otros en un producto expresivo propio, en tanto sea obligada a incluir mensajes que preferiría excluir. Ello no cambia -señala la Corte- porque el compilador incluye la mayoría de los artículos y excluye sólo unos pocos.
En forma contundente, señaló también que “el gobierno no puede salirse con la suya simplemente afirmando su interés en equilibrar mejor el mercado de ideas”, y que, a lo largo de muchos casos, la Corte siempre ha prohibido que se obligue a un medio de prensa privado a presentar puntos de vista que desea desdeñar, sólo para reajustar o “balancear” el panorama expresivo.
“[C]ualquiera que sean los desafíos de aplicar la Constitución a la tecnología en constante avance”, los principios básicos de la Primera Enmienda “no varían”.[7]
Abordando ya el caso concreto bajo análisis, estimó que la sección de noticias de Facebook y la página de inicio de YouTube presentan a los usuarios un flujo personalizado y en constante actualización de las publicaciones de otros usuarios.
La clave del esquema es la priorización del contenido, lograda a través de algoritmos. La selección y clasificación suele basarse en los intereses expresados por el usuario y en sus actividades pasadas, pero también puede basarse en otros factores, incluidas las preferencias de la plataforma.
Todas las plataformas hacen públicos estándares y pautas que detallan los tipos de mensajes y vídeos que no son favorecidos. Las plataformas, a su vez, diseñan e implementan algoritmos para aplicar esos estándares, por ejemplo, para preferir contenido considerado especialmente digno de confianza, o suprimir contenidos considerados engañosos.
Más allá de clasificar el contenido, las plataformas pueden agregar etiquetas para dar contexto adicional de los usuarios. Y también eliminan por completo las publicaciones que contienen temas o mensajes prohibidos, como pornografía, discurso de odio y desinformación sobre determinados temas.
Las leyes objetadas buscaban limitar su poder para hacerlo, pues directamente prohíbian “censurar” una “expresión de usuario” según el “punto de vista” que contiene.
Por lo tanto, de aplicar estas leyes, las plataformas no podrían hacer ninguna de las cosas que normalmente hacen con las publicaciones que desaprueban (degradarlas, etiquetarlas o eliminarlas) si esta acción se basa en el punto de vista de la publicación. Esa limitación alteraría profundamente el comportamiento de las plataformas, y ese tipo de regulación interfiere con el discurso protegido por la Primera Enmienda.
Como los editores, los operadores de cable o los organizadores de un desfile considerados en los casos citados, las principales plataformas de redes sociales seleccionan sus feeds combinando “varias voces” para crear una oferta expresiva distintiva. Sus elecciones sobre qué mensajes son apropiados le dan al feed una cualidad expresiva particular y “constituyen el ejercicio” del derecho al “control editorial” constitucionalmente protegido.
Por último, la Corte concluyó que las leyes cuestionadas no superaban un mínimo test de razonabilidad bajo la Primera Enmienda. Según el Tribunal, una ley debe promover un “interés gubernamental sustancial” que sea “no relacionado a la supresión de la libre expresión”.
Si bien muchos posibles intereses relacionados con las redes sociales podrían cumplir con esa prueba, el interés declarado de estas leyes es corregir la combinación de puntos de vista que presentan las principales plataformas. Pero un Estado no puede interferir con el discurso de los actores privados para promover su propia visión del equilibrio ideológico. Entonces, el interés se relaciona con la supresión de la libre expresión, y no es válido, y mucho menos sustancial.
Los Estados (y sus ciudadanos) tienen -reconoce la Corte- razón al querer un ámbito expresivo en el que el público pueda acceder a una amplia gama de puntos de vista. Pero la forma en que la Primera Enmienda logra ese objetivo es impidiendo al gobierno “inclinar el debate público en una dirección preferida”, y no autorizando a que se impida a los actores privados que hablen como quieran y prefieran algunas opiniones sobre otros. Un Estado no puede prohibir un discurso para equilibrar el mercado de ideas.
iii. A modo de conclusión y pensando a futuro
La decisión comentada es de suma trascendencia y les concede “rienda suelta”[8] a las plataformas para moderar el contenido como deseen, otorgando a esa actividad de moderación la misma protección constitucional que históricamente se le brindó al contenido en sí y a sus emisores, en particular la prensa.
En contraposición, en Europa entró en vigencia la Digital Services Act[9], que reemplazó a la anterior Directiva de Comercio Electrónico, y que incluye mayores exigencias hacia las grandes plataformas. Aunque también podemos ver que -en el fondo- se mantiene el esquema protectorio de responsabilidad por el contenido de los usuarios.
En definitiva y como señalamos al comienzo, de la mano de los avances tecnológicos, el debate en torno a la responsabilidad de los intermediarios-plataformas de Internet continúa.
Posiblemente, la irrupción masiva de contenido generado por herramientas de inteligencia artificial planteará nuevos desafíos que deberán ser atendidos por los Tribunales.
Citas
[1] La Corte Suprema de Justicia de los EE.UU. ratifica estándares de libertad de expresión en Internet (https://abogados.com.ar/la-corte-suprema-de-justicia-de-los-eeuu-ratifica-estandares-de-libertad-de-expresion-en-internet/32705).
[2] https://www.govinfo.gov/content/pkg/USCODE-2021-title47/pdf/USCODE-2021-title47-chap5-subchapII-partI-sec230.pdf
[3] El término “intermediarios” de Internet se utiliza cada vez menos y en su reemplazo se comenzó a usar la denominación “plataformas”, particularmente en referencia a las mayores compañías del sector.
[4] Sobre motores de búsqueda: CSJN: Da Cunha Virginia (30-12-2014, R. 46-D 544/2010 y 561/2010); Lorenzo Bárbara (30-12-2014, R. 49-L 609/2013); Gimbutas Carolina Valeria (Fallos: 340:1246 -2017-); Paquez, José c/ Google Inc. (Fallos: 342:2187 -2019-); Mazza, Valeria Raquel (Fallos: 344:1481); Pizarro, María Belén (24-06-2021); Denegri, Natalia Ruth (Fallos, 345:482). Sobre YouTube: Cámara Nacional Civil, Sala G, 25-02-15, R., M. C. c/ S. T. Producciones y otros s/ medidas precautorias; sobre Blogger: CNCivComFed, Sala I, 18-04-17, A., L. M. c/ Google Inc. s/ Daños y Perjuicios; sobre plataformas de comercio electrónico: Cámara Nacional Civil, Sala D, 22-03-18, Kosten, Esteban c/ Mercadolibre; Cámara Nacional Comercial, Sala C, 1-10-19, Ferraro, Antonio Fabián c/ Car Group S.A. y Mercadolibre S.R.L.; Cámara Nacional Civil, Sala A, 3-03-23, M. V., D. N. y otros c/ Mercadolibre SRL s/ medidas precautorias.
[5] En los EE.UU. se puede impugnar una norma en su totalidad mediante un “facial challenge”, por ser contraria a la constitución “en cualquier circunstancia”, o “as-applied” (en su aplicación) como ocurre en nuestro país.
[6] En “Miami Herald Publishing Co. v. Tornillo”, 418 U. S. 241, la Corte sostuvo que una ley de Florida que exigía que un periódico otorgue a un candidato político el derecho a responder a las críticas interfería con la labor del medio y su libre juicio editorial. En “Pacific Gas & Elec. Co. v. Public Util. Comm’n of Cal.”, 475 U. S. 1, la Corte anuló una disposición de California que obligaba a una empresa de servicios públicos privada a incluir material de cierto grupo de defensa del consumidor en su boletín periódico dirigido a los consumidores. El Tribunal sostuvo que el interés en “ofrecer al público una una mayor variedad de puntos de vista” no podría justificar obligar a la empresa de servicios públicos “a expresar un discurso con el que no estaba de acuerdo” y así “alterar su propio mensaje”. En “Turner Broadcasting System, Inc. v. FCC”, 512 U. S. 622, la Corte anuló disposiciones que exigían a los operadores de cable asignar ciertos canales a estaciones de radiodifusión locales, al considerar que estas reglas interferían “la discreción editorial de los operadores sobre qué estaciones o programas incluir en [su] repertorio”. Y en “Hurley v. Irish-American Gay, Lesbian and Bisexual Group of Boston, Inc.”, 515 U. S. 557, sostuvo que la Primera Enmienda impedía al estado de Massachusetts obligar a los organizadores de un desfile a admitir como participante a un grupo de gays y lesbianas que buscaba transmitir un mensaje de “orgullo”. Concluyó que ordenar la entrada del grupo “alteraría el contenido expresivo del[ ] desfile”, y que la decisión de excluir el mensaje del grupo era responsabilidad exclusiva de los organizadores.
[7] Brown vs. Entertainment Merchants Assn., 564 U. S. 786, 790.
[8] https://medium.com/@javierpallero/corte-suprema-estadounidense-las-plataformas-digitales-pueden-moderar-contenido-como-quieran-al-ec4343004a45
[9] https://digital-strategy.ec.europa.eu/es/policies/dsa-impact-platforms
Opinión
GRB Legal
opinión
ver todosBergstein Abogados
Alfaro Abogados
González Rossi Abogados