Plataformas digitales en la mira: regulación y responsabilidad por algoritmos adictivos
Por Mario Covarrubias Jurado
Estudio Garrido Abogados

Actualmente la discusión jurídica sobre las plataformas digitales se plantea no ya con respecto al contenido sino al formato. No en lo que se publica, sino en el modo en que un algoritmo decide mostrárnoslo. Sistemas diseñados para capturar nuestra atención, prolongar nuestra permanencia y reducir nuestra capacidad de salida comienzan a ser cuestionados en tribunales y regulaciones. El debate que se abre no es sobre censura: es sobre arquitectura digital y autonomía.

 

Hace poco más de dos meses analizábamos en este mismo medio el impacto que determinadas arquitecturas digitales podían generar sobre la psiquis de los menores y sobre la autonomía de los usuarios en general¹. Allí se desarrolló —con apoyo en estudios pediátricos y psicológicos— que herramientas como el scroll infinito, la reproducción automática, los sistemas de recomendación personalizados y las notificaciones inteligentes no operan como mecanismos neutrales, sino como estructuras de optimización orientadas a maximizar permanencia, interacción y tiempo de pantalla².

 

Desde entonces, el debate dejó de ser exclusivamente académico o regulatorio. Comenzó a judicializarse con una intensidad que no puede ser ignorada.

 

I. Estados Unidos: la categoría del design defect aplicada al algoritmo adictivo

 

En Estados Unidos —particularmente en el Estado de California— las grandes plataformas tecnológicas enfrentan una doble contienda en la justicia federal y en la justicia estatal por la utilización de algoritmos presuntamente adictivos. En estos procesos se está discutiendo su responsabilidad civil por fuera de la clásica inmunidad prevista en la Sección 230 del Communications Decency Act³.

 

El escenario judicial estadounidense ha dejado de ser un campo de batalla exclusivo sobre la libertad de expresión para transformarse en un laboratorio de responsabilidad civil donde el algoritmo es el principal acusado.

 

1. El proceso estatal: el caso “K.G.M. v. Meta Platforms, Inc.”

 

En el fuero estatal de California, el caso K.G.M. v. Meta Platforms, Inc., et al., integrado dentro de la coordinación judicial conocida como Social Media Cases (JCCP N° 5255)⁴, constituye uno de los procesos más avanzados.

 

Superadas las mociones de desestimación, el litigio se encamina a convertirse en uno de los primeros casos “bellwether” —casos testigo— que podrían llegar a juicio oral ante jurado. La cuestión central no es la publicación de contenidos ilícitos, sino si la arquitectura de Instagram y Facebook, con sus sistemas de refuerzo intermitente y recomendación personalizada, puede calificar como un producto defectuoso bajo el derecho común de responsabilidad por productos (products liability).

 

El encuadre jurídico desplaza el eje desde la actividad editorial hacia el diseño del producto digital. La discusión se estructura en torno a los estándares clásicos del design defect, particularmente el consumer expectation test y el risk-utility test, aplicados por primera vez con esta intensidad a sistemas algorítmicos de recomendación.

 

El éxito del caso dependerá de que pueda probarse que el sistema no operaba de manera accidental, sino que fue diseñado deliberadamente para prolongar la permanencia del usuario mediante mecanismos que sus propios desarrolladores sabían —o debían saber— que podían resultar dañinos.

 

2. El proceso federal: la MDL 3047

 

En paralelo, en el fuero federal, el Judicial Panel on Multidistrict Litigation consolidó cientos de demandas en el proceso denominado In re Social Media Adolescent Addiction/Personal Injury Products Liability Litigation, MDL N° 3047, tramitado ante el Tribunal de Distrito del Norte de California⁵.

 

Se trata de una multidistrict litigation (MDL), mecanismo procesal que no constituye una class action, sino una centralización de acciones individuales con hechos comunes para unificar el discovery y las decisiones preliminares. A comienzos de 2026 el proceso superaba las 2.400 demandas individuales promovidas por menores, familias y distritos escolares⁶.

 

Bajo la dirección de la jueza Yvonne Gonzalez Rogers, el tribunal ha rechazado en etapas preliminares la aplicación automática de la inmunidad prevista en la Sección 230 porque lo cuestionado no es el contenido generado por terceros, sino el diseño del sistema de recomendación adictivo⁷. La distinción comienza a delinearse con mayor claridad: la inmunidad puede proteger el mensaje, pero no necesariamente el diseño del mensajero cuando éste es alegado como intrínsecamente riesgoso.

 

El discovery ha incluido producción masiva de documentos internos y declaraciones testimoniales de ejecutivos e ingenieros, exponiendo análisis corporativos sobre engagement, retención y comportamiento adolescente⁸.

 

3. Acuerdos y reconfiguración del escenario

 

En procesos paralelos iniciados por distintos Estados norteamericanos, TikTok y Snap Inc. han alcanzado acuerdos extrajudiciales vinculados con alegaciones sobre diseño y protección de menores⁹. Estos acuerdos, aunque no constituyen precedentes jurisdiccionales, revelan el riesgo sistémico que implica someter la arquitectura algorítmica a un veredicto de responsabilidad por producto ante jurado.

 

Meta y Google continúan litigando.

 

El dato jurídicamente relevante es otro: por primera vez, el algoritmo ingresa al expediente no como herramienta editorial, sino como característica estructural del producto digital.

 

II. Europa: del contenido a la estructura

 

En la Unión Europea, el Reglamento (UE) 2022/2065 —conocido como Digital Services Act— impuso obligaciones específicas de evaluación y mitigación de riesgos sistémicos para plataformas de muy gran tamaño, incluyendo impactos en menores y exigencias de transparencia en los sistemas de recomendación¹⁰.

 

España ha anunciado medidas regulatorias adicionales orientadas a reforzar la protección de menores frente a plataformas digitales¹¹, mientras que Francia sancionó la Ley N° 2023-566 sobre mayoría digital y control parental¹².

 

El eje regulatorio europeo ya no se limita a la remoción de contenidos ilícitos, sino que se orienta a la gobernanza del diseño sistémico.

 

III. Las “redes sociales” que ya no son sociales

 

Diversos estudios académicos sobre economía de la atención sostienen que las plataformas han mutado desde estructuras de interacción entre pares hacia sistemas de curaduría algorítmica orientados a maximizar retención¹³. La mayoría de los contenidos consumidos por los usuarios no proviene de contactos directos, sino de recomendaciones automatizadas.

 

El desplazamiento altera la naturaleza del servicio y, con ello, el encuadre jurídico del debate. Si el modelo deja de ser predominantemente social y se convierte en arquitectura de captura conductual, la discusión sobre responsabilidad no puede agotarse en la libertad de expresión.

 

IV. Argentina: coherencia doctrinaria y precisión conceptual

 

En nuestro país, el precedente rector continúa siendo “Rodríguez, María Belén c/ Google Inc”.¹⁴, que consolidó un estándar de responsabilidad subjetiva para buscadores y rechazó deberes generales de monitoreo.

 

Ese criterio fue confirmado por varios precedentes de la CSJN reafirmándose la centralidad de la libertad de expresión en el entorno digital¹⁵.

 

La defensa de intermediarios tecnológicos frente a intentos de censura preventiva ha sido una convicción jurídica sostenida en el tiempo¹⁶. Precisamente por ello resulta imprescindible no confundir planos: una cosa es la responsabilidad por contenidos de terceros; otra, distinta, es el análisis del diseño estructural de un producto digital cuando éste es alegado como generador de riesgos previsibles.

 

La figura de la prevención del daño, que en el ámbito de la circulación de contenidos puede derivar en efectos inhibitorios sobre la libertad de expresión, requiere extrema prudencia. Pero cuando el debate se desplaza hacia el diseño sistémico y la seguridad del producto, el análisis jurídico cambia de naturaleza.

 

No estamos discutiendo la remoción de contenidos. Estamos examinando la arquitectura que decide qué vemos, en qué orden y durante cuánto tiempo.

 

V. Libertad de expresión y libertad del usuario

 

La libertad de expresión protege el contenido. Pero cuando el problema jurídico se sitúa en la estructura que organiza la experiencia digital, la pregunta es distinta: si un sistema optimizado para explotar sesgos cognitivos condiciona la autonomía del usuario, ¿seguimos ante el mismo conflicto normativo?

 

En adultos, el eje puede vincularse con consentimiento informado y autodeterminación. En menores, el análisis se refuerza a la luz de la Convención sobre los Derechos del Niño y la Ley 26.061¹⁷.

 

Lo que hoy se discute en tribunales extranjeros no es censurar ideas, sino determinar si ciertos diseños pueden generar riesgos previsibles que el derecho tradicionalmente ha considerado jurídicamente relevantes.

 

VI. El debate que viene

 

Durante más de dos décadas, el derecho digital discutió si las plataformas debían responder por lo que otros publicaban. Ese debate fue central —y en nuestro país tuvo una respuesta clara en el caso Rodríguez—.

 

El próximo capítulo es más complejo.

 

No se trata de decidir qué contenidos deben permanecer en línea, sino de examinar cómo fue diseñado el entorno digital para maximizar permanencia, reducir fricciones de salida y modular conductas a escala masiva.

 

Cuando el algoritmo deja de ser invisible y se convierte en objeto de prueba; cuando el código fuente comienza a leerse en expedientes judiciales; cuando la arquitectura digital es evaluada bajo categorías clásicas de responsabilidad por producto, la autorregulación deja de ser un argumento suficiente.

 

La pregunta ya no es quién habla en Internet. La pregunta es quién diseñó el entorno para que no podamos dejar de mirar.

 

Y esa discusión —que recién comienza— definirá el alcance de la responsabilidad civil en la era de la economía de la atención.

 

Notas

 

  • Covarrubias Jurado, M., “Scroll infinito, inteligencia artificial y la afectación de la psiquis de los menores: la reciente reacción europea frente a una amenaza que ya es real”, abogados.com.ar, 12.12.2025.
  • “From social media to artificial intelligence: improving research on digital harms in youth”, by Karen L Mansfield, PhDa, Sakshi Ghai, PhDa,b, Thomas Hakman, MSca, Nick Ballou, PhDa, Matti Vuorre, PhDa,c, Prof Andrew K Przybylski, PhD, March 2025.
  • La sección 230 de la ley de Decencia de las Comunicaciones de 1996 de EEUU proporciona inmunidad a los servicios informáticos en línea con respecto al contenido de terceros generado por sus usuarios.
  • Judicial Council Coordination Proceeding N° 5255, Social Media Cases, Superior Court of California, County of Los Angeles.
  • In re Social Media Adolescent Addiction/Personal Injury Products Liability Litigation, MDL N° 22-3047, U.S. District Court, N.D. Cal.
  • A finales de 2025 y principios de 2026, el número de casos en el MDL 3047 experimentó un salto significativo. Mientras que en octubre de 2025 se contabilizaban cerca de 2.053 demandas, para febrero de 2026 la cifra oficial superó las 2.300 y se estima que sobrepasa las 2.400 considerando las nuevas transferencias "condicionales" de casos presentados recientemente en otros distritos federales (conf. JPML Transfer Order and subsequent docket reports, 2024–2026).
  • La juez mantuvo la inmunidad sólo para características que sí se consideran funciones editoriales, como la priorización de contenido, la visualización de contenido efímero o las herramientas de moderación, ya que estas dependen directamente de la gestión de información de terceros (conf. Orders on Motions to Dismiss, MDL 3047, N.D. Cal., 2024–2025).
  • Congressional Hearings on social media and Youth Safety, U.S. Senate Judiciary Committee, 2023–2024; disclosures related to the “Facebook Files”.
  • State Attorneys General settlements with TikTok and Snap Inc. concerning youth protection claims, 2024–2025.
  • Reglamento (UE) 2022/2065 del Parlamento Europeo y del Consejo, 19/10/2022 (Digital Services Act).
  • Comunicados del Ministerio de Derechos Sociales y Agenda 2030, Gobierno de España, 2026.
  • El 7 de julio de 2023, el Presidente de Francia firmó el Proyecto de Ley para establecer una mayoría digital y combatir el odio en línea, convirtiéndose en la Ley Nº 2023-566.
  • Zuboff, S., The Age of Surveillance Capitalism, PublicAffairs, 2019; Wu, T., The Attention Merchants, Knopf, 2016.
  • CSJN, “Rodríguez, María Belén c/ Google Inc.”, Fallos 337:1174 (28/10/2014).
  • CSJN, “Da Cunha” (30-12-2014, R. 46-D 544/2010 y 561/2010), “Lorenzo” (30-12-2014, R. 49-L 609/2013), “Gimbutas” (Fallos, 340:1246 -2017-) y “Mazza” (Fallos: 344:1481-2021-).
  • Covarrubias Jurado, M., "La responsabilidad civil de los buscadores de Internet por contenidos de terceros en el derecho argentino", Colección Compendio Jurídico (Temas de Derecho Civil, Persona y Patrimonio). Editorial ERREPAR. Erreius On line (Cita digital: IUSDC285344A), 24.10.2017.
  • Convención sobre los Derechos del Niño (aprobada por Ley 23.849); Ley 26.061 de Protección Integral de los Derechos de Niñas, Niños y Adolescentes.
  •  

    Estudio Garrido Abogados
    Ver Perfil

    Opinión

    Argentina y Estados Unidos: el acuerdo que reabre el debate sobre el sistema de propiedad intelectual
    Por Victoria Rodes
    Ojam IP
    detrás del traje
    Andrés García Vautrin
    De GARCíA VAUTRIN CONDOMí ALCORTA & ASOC.
    Nos apoyan