Redes sociales, libertad de expresión y el flagelo de la desinformación

HLa historia está llena de ideas que en algún momento fueron consideradas heréticas o desviadas. Las luchas por la libertad religiosa, los derechos de las mujeres, la libertad reproductiva, los derechos civiles, los derechos LGBTQIA + y muchas otras formas de progreso se vieron frustradas por las restricciones a la expresión de lo que antes se consideraba ideas peligrosas. Durante décadas, las leyes impidieron la difusión de información sobre el control de la natalidad; En 1929, la pionera de la libertad reproductiva Margaret Sanger fue arrestada después de dar un discurso en defensa de los derechos de la mujer. No fue hasta 1977 que la Corte Suprema extendió la protección legal total a las ideas que Sanger estaba avanzando, dictaminando que la Primera Enmienda prohibía la prohibición de la publicidad de anticonceptivos. La protección de la libertad de expresión ha sido esencial para garantizar que los defensores de ideas que alguna vez fueron revolucionarias pudieran defender sus argumentos.

Cuando mencionas la "libertad de expresión" a los estadounidenses, es muy probable que, en su respuesta, utilicen las palabras "Primera Enmienda". Es casi un reflejo. Sin embargo, muchos conflictos de libertad de expresión quedan fuera del ámbito del derecho constitucional. Cuando consideramos por qué valoramos la libertad de expresión —sus funciones de búsqueda de la verdad, democráticas y creativas— también queda claro que la libertad de expresión, interpretada de manera restringida, no es suficiente para garantizar estos beneficios. Si el acoso disuade a las personas de participar en el debate público; si la desinformación ahoga la verdad; y si los pensadores descartan la posibilidad de llegar a audiencias con diferentes puntos de vista, la libertad de expresión cede su valor. La libertad de expresión incluye el derecho a persuadir, a impulsar, a buscar la verdad junto a otros, a alcanzar nuevos entendimientos y a moldear comunidades y sociedades. Pero estos beneficios solo pueden disfrutarse en un clima que proteja el discurso abierto.

Uno de los debates sobre la libertad de expresión más lanzados de la era digital se centra en el grado en que las plataformas en línea deben eliminar u ocultar el discurso ofensivo o dañino y excluir a sus proveedores persistentes de las plataformas. Con Google, Facebook y Twitter dominando vastas franjas del discurso público, estas arenas se han convertido en vehículos principales para mensajes, fotos y videos que intimidan, acosan, difunden información inexacta, avivan el odio, ensalzan la violencia y abogan por la criminalidad. El alcance global y la potencia viral que hacen que Internet sea tan atractivo como herramienta de comunicación han convertido el discurso en un arma de formas que antes eran inimaginables. Los avances tecnológicos, incluido el surgimiento de los llamados videos deep-fake que tienen como objetivo difamar y engañar y que son casi imposibles de desacreditar definitivamente, tienen el potencial de frustrar aún más la confianza en nuestro discurso Averiguar cómo lograr un equilibrio que sustente lo Lo mejor de una Internet libre y abierta al tiempo que mitiga sus daños manifiestos ha acosado a ejecutivos, reguladores, académicos y liberales civiles de Silicon Valley por igual.

La desinformación pandémica causa muertes evitables. El ciberacoso contribuye al aumento del suicidio de adolescentes. La glorificación de la violencia influye en los perpetradores de agresiones y asesinatos. La charlatanería peligrosa, incluida la pseudociencia contra las vacunas, ha alimentado las crisis de salud pública. La desinformación selectiva ha sesgado los resultados electorales, sacando la alfombra de la democracia. Estos efectos secundarios digitales dañinos ahora se reconocen no solo como errores en el sistema, sino como características arraigadas del mismo. Existe una creciente evidencia de que las plataformas en línea pueden favorecer estructuralmente algunas de las formas de contenido más nefastas. Sus algoritmos están diseñados para seleccionar el contenido que los usuarios encuentran más atractivo, y resulta que los usuarios gravitan hacia mensajes más intensos y extremos.1

La evidencia en cascada de que los medios digitales han intensificado los daños del habla ha fortalecido los llamamientos para que las empresas de redes sociales moderen de forma más agresiva el contenido en sus plataformas. Pero existen claros riesgos para empoderar a las empresas privadas con fines de lucro para que ejerzan un control ilimitado sobre la enorme proporción de nuestro discurso público bajo su ámbito. Muchos de los temores que asociamos con los controles gubernamentales sobre el discurso —que la disidencia será suprimida, que el intercambio abierto de ideas se marchitará o sesgará y que se abusará de los poderes sobre el discurso para beneficiar a quienes los ejercen— son tan aplicables a los conglomerados como son para un gobierno nacional. Si bien una empresa de tecnología no tiene el poder de arrestarlo y procesarlo, su capacidad para eliminar sus publicaciones y cerrar sus cuentas es una forma potente de control social.

Uno de los mayores obstáculos para domar el impacto negativo de las grandes tecnologías en nuestro discurso es que gran parte de su toma de decisiones ocurre en secreto. Quizás la faceta más elusiva y de mayor alcance de la moderación de contenido ocurre pasivamente a través de la amplificación algorítmica del contenido que provoca la mayor actividad del usuario. Muchos analistas han argumentado que el contenido supremacista blanco, misógino y políticamente polarizador ha surgido en la era digital debido a la forma en que los algoritmos están calibrados para servirnos el contenido que es más probable que veamos y compartamos. Las plataformas en sí mismas no promueven activamente contenido específico, sino que permiten que los algoritmos funcionen a su voluntad, priorizando el contenido solo por clic y valor compartido.

Las plataformas también están perfeccionando algoritmos e inteligencia artificial para poder filtrar contenido inadmisible sin intervención humana. Pero no siempre se puede confiar en que las máquinas hagan distinciones matizadas y consecuentes. En un caso, YouTube eliminó un canal de video vinculado a la Universidad Estatal de California, el Centro de San Bernardino para el Estudio del Odio y el Extremismo, un canal que educaba a los usuarios sobre el fanatismo, no lo promovía.2

Cada vez más, en lugar de eliminar por completo el contenido que elude las reglas de la plataforma, las empresas degradar publicaciones problemáticas, limitando la frecuencia con la que se ven pero sin eliminarlas por completo. Aunque quizás sea preferible a la eliminación total, este sistema crea un reino sombrío de cuasicensura que es casi invisible para los usuarios. Los sitios web pueden observar reducciones marcadas en el tráfico debido a los ajustes de Google, Facebook u otros sitios de referencia, pero por lo general no pueden averiguar por qué se degradó su contenido ni qué pueden hacer al respecto. La mayoría de los usuarios ordinarios no tienen forma de saber si un tweet o una publicación no logró atraer la atención porque simplemente no era emocionante o porque, sin que usted lo supiera, fue degradado y nunca vio la luz del día.

Responsabilidad significativa

Si bien las plataformas suprimen tipos particulares de contenido (aunque de manera imperfecta), no está claro que hayan hecho lo suficiente para abordar la propensión algorítmica a priorizar el contenido que golpea los nervios sociales sensibles. Este aspecto más espinoso e importante de la moderación de contenido debe abrirse a un mayor escrutinio y debate sobre los valores que informan cómo los algoritmos priorizan. Las plataformas deben permitir a los investigadores probar cómo se mueve y aumenta el contenido entre las poblaciones, cómo se correlaciona con las acciones fuera de línea y qué tan bien funcionan las contramedidas, incluida la degradación, la verificación de datos y los ajustes algorítmicos, para contrarrestarlo.

La transparencia obligatoria es un área donde la regulación gubernamental del contenido en línea puede ser un paso positivo y no implicaría intrusiones en el contenido en violación de la Primera Enmienda. La práctica anterior sugiere que la única forma de lograr que las empresas proporcionen una transparencia significativa puede ser exigirla por ley.

Para garantizar mejor que una Internet en evolución siga respetando la libertad de expresión, las empresas de Internet y las organizaciones de la sociedad civil deberían unirse para garantizar que, a medida que las empresas asuman la responsabilidad de limpiar sus plataformas, los derechos expresivos permanezcan intactos. Con un sistema confiable, universalmente accesible y públicamente responsable para garantizar que las eliminaciones de contenido erróneo puedan revertirse rápidamente, la perspectiva de que las empresas se vuelvan más agresivas con las eliminaciones sería menos preocupante. Tendríamos un mecanismo a prueba de fallos para abordar los inevitables falsos positivos con la suficiente rapidez para que el deterioro de la libertad de expresión resultante de la moderación del contenido se minimice (aunque, es cierto, no se elimine).

Si bien el enfoque inicial del servicio estaría relacionado con reclamos de contenido eliminado o suprimido injustamente, eventualmente también podría abordar reclamos de personas que creen que cierto contenido (por ejemplo, fotos de desnudos o un mensaje difamatorio) debe eliminarse por violar los términos de las empresas. de servicio o ley local. Podría aumentar los actuales sistemas de "señalización" al ofrecer asistencia experta para realizar reclamaciones más complejas y al garantizar que se puedan rastrear dichas reclamaciones. Pero el principal propósito inicial de tal servicio sería mitigar el riesgo de que las estrategias de moderación de contenido más asertivas —exigidas para restringir el discurso dañino en categorías particulares— eviten invadir el contenido legítimo. Al empoderar a los usuarios con la asistencia de expertos para impugnar las determinaciones impugnables, dicho servicio equilibraría las consideraciones de mitigar el daño con la importancia de preservar la libertad de expresión. Al operar de forma independiente y transparente, el servicio también proporcionaría un control sobre el poder y la discreción ilimitados de las empresas. En última instancia, si las empresas quieren equilibrar la mitigación de los peores daños del contenido en línea y el deterioro indebido de la libertad de expresión, será porque los usuarios, los ciudadanos y los grupos de la sociedad civil las empujaron a hacerlo.

TEl caso a favor de la libertad de expresión implica pasos afirmativos para asegurar que todas las personas y grupos tengan los medios y la oportunidad de ser escuchados. Si la libertad de expresión es importante, debemos preguntarnos no solo si el gobierno la está respetando, sino también si las personas se sienten capaces de ejercerla en la vida diaria. Para dar rienda suelta a los beneficios individuales y colectivos de la libertad de expresión, se requiere la creación de un entorno propicio para una amplia gama de discursos y un discurso público abierto a todos.


Suzanne Nossel es la directora ejecutiva de PEN America, la organización líder en derechos humanos y libertad de expresión. Anteriormente, se desempeñó como directora de operaciones de Human Rights Watch y directora ejecutiva de Amnistía Internacional EE. UU. también ocupó puestos de alto nivel en las administraciones de Obama y Clinton. Este artículo es un extracto de Atrévete a hablar defendiendo la libertad de expresión para todos. Copyright © 2020 por Suzanne Nossel. Usado con permiso de Dey Street Books. Todos los derechos reservados.

 1. C. Lane, "Defectos en el algoritmo: cómo las redes sociales alimentan el extremismo político", Psychology Today, Febrero 9, 2018.
 2. S. Hussain y S. Masunaga, "La purga de videos de supremacistas blancos en YouTube también afecta a los canales contra el racismo" San Francisco Chronicle, Junio ​​7, 2019.
 3. JM Balkin, "La libertad de expresión es un triángulo", Revisión de la ley de Columbia 118, no. 7 (2018): 2011-56.
 4. B. Amerige, "Facebook tiene derecho a bloquear el 'discurso de odio', pero aquí está el motivo por el que no debería" Quillette, Febrero 7, 2019.
 5. S. Van Zuylen-Wood, "'Men Are Scum': Inside Facebook's War on Hate Speech", Feria de las vanidades, Febrero 26, 2019.

[Ilustraciones de Lucy Naland, fotografías: Getty Images]

cuidado de la salud aft, otoño 2020