Hace poco comentamos en este espacio los pormenores de varios juicios contra las principales empresas tecnológicas. En los últimos días se hicieron públicos dos fallos, en California y en Nuevo México, que pueden marcar un antes y un después para las grandes plataformas digitales.
Tanto Meta (Instagram y Facebook) como Google (YouTube) fueron condenadas por un jurado del Tribunal Superior de Los Ángeles a pagar 3 millones de dólares a K.G.M. (su identidad está reservada), una joven de 20 años que desarrolló una adicción temprana a las redes durante su infancia. Según la demanda, esto afectó su autoestima, deterioró sus vínculos sociales y contribuyó a problemas de salud mental como depresión y ansiedad.
La mayor carga recae sobre Meta, que deberá pagar el 70 % de la indemnización. El jurado encontró en ambas empresas una conducta negligente en el diseño y funcionamiento de sus productos, al considerar que fomentan la adicción en menores y afectan la salud mental de los usuarios.
Casi simultáneamente, un jurado del estado de Nuevo México condenó a Meta a pagar 375 millones de dólares por no proteger adecuadamente a menores y por ocultar los riesgos de explotación infantil en sus plataformas. La acusación sostiene que la empresa engañó a los usuarios sobre los parámetros de seguridad y que, a partir de esas fallas, se facilitaron casos de abuso, explotación y tráfico infantil.
Para los analistas, los montos que fijaron las sentencias no resultan significativos si se los mide en función de la facturación anual de la compañía. El verdadero impacto está en el precedente que se establece: abre la puerta a reclamos judiciales basados en los mismos argumentos y fija una base para futuras compensaciones millonarias.
Asimismo, deja latente la posibilidad de intervención de los Estados en el rediseño de las plataformas o la implementación de marcos regulatorios más estrictos orientados a proteger la seguridad y la salud pública.
Esto podría transformar de manera radical un modelo de negocio basado en captar y retener la atención de los usuarios para monetizarla mediante publicidad insertada entre contenidos. Algunos especialistas señalan que las primeras funcionalidades en revisión serían el scroll infinito, el algoritmo de recomendación, las notificaciones compulsivas y los filtros de estética.
Esta sentencia marca un hito: es la primera vez que un tribunal responsabiliza directamente a una “Big Tech” por el diseño adictivo de sus algoritmos y por fallas graves en la seguridad.
Hasta ahora, las empresas se defendían apoyándose en la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996, que establece que las plataformas no son responsables legales por el contenido publicado por terceros. Esto las diferenciaba de los medios tradicionales y les permitía moderar contenido sin asumir responsabilidad por sus consecuencias.
Otro argumento habitual es la Primera Enmienda de la Constitución de los Estados Unidos, que protege la libertad de expresión y limita la intervención del Estado sobre los contenidos.
Sin embargo, el nuevo escenario legal desplaza el foco. Ya no se trata solo de qué contenido circula, sino de cómo están diseñadas las plataformas para priorizar determinados contenidos, en función de a quién se los muestran y con qué incentivos se captura su atención.
Al centrarse en el carácter adictivo del producto, pierden peso los argumentos vinculados a la libertad de expresión.
En este giro aparece una figura clave: Arturo Bejar, exdirector de ingeniería de Meta y denunciante en el caso. Su testimonio resultó determinante, ya que aseguró haber advertido reiteradamente a la empresa sobre fallas de seguridad que permitían a depredadores sexuales contactar a menores, aprovechando la lógica de los algoritmos que analizan comportamientos para personalizar contenidos.
Bejar también relató una experiencia personal: su propia hija, a los 14 años, recibió mensajes sexuales inapropiados a través de Instagram. Según explicó, los mismos sistemas que hacen eficaces a las plataformas para la publicidad pueden ser utilizados con fines dañinos.
Nos enfrentamos así a un nuevo escenario en el que las redes sociales deberán cambiar, ya sea por decisión propia o por la presión de marcos regulatorios más estrictos.
A comienzos del siglo XX, la industria alimentaria en Estados Unidos utilizaba indiscriminadamente productos químicos dañinos para conservar o disimular el mal estado de los alimentos. Se combinaban desconocimiento y avaricia.
Cuando la evidencia científica confirmó los riesgos, aparecieron leyes federales que regularon su uso y comercialización.
El escenario que actualmente enfrentan las tecnológicas parece repetir la misma historia, aunque con una diferencia clave: hoy no alcanza con leyes nacionales, ya que el alcance del ecosistema digital no reconoce fronteras.
Sea voluntario o forzado, el cambio es inevitable. Lo que empieza a quedar claro es que durante años el negocio funcionó mejor cuanto más tiempo pasábamos frente a la pantalla, incluso cuando eso implicaba consecuencias negativas. Ahora que esas consecuencias llegan a los tribunales, la discusión deja de ser tecnológica para volverse política, económica y, sobre todo, humana.
Lo preocupante es que el costo para llegar a este nuevo escenario se pagó, una vez más, con el sufrimiento de los usuarios, especialmente de las generaciones más jóvenes.
Por Francisco Monzón (@flmonzon) para @eldiariosur. Leelo acá.

No hay comentarios:
Publicar un comentario