El año que cambió Internet


En 2020, la necesidad de contener información errónea sobre COVID-19 llevó a Facebook y Twitter a un papel que nunca quisieron: árbitros de la verdad.

Durante años, las plataformas de redes sociales se habían mantenido firmes: el hecho de que una publicación fuera falsa no significaba que fuera su lugar para hacer algo al respecto. Pero 2020 cambió de opinión.

A fines de mayo, Twitter etiquetó por primera vez un tweet del presidente de los Estados Unidos como potencialmente engañoso. Después de que Donald Trump insistió falsamente en que la votación por correo alteraría las elecciones de noviembre, la plataforma agregó un mensaje que decía a los usuarios que “conocieran los hechos”. En un día, Mark Zuckerberg, fundador y CEO de Facebook, apareció en Fox News para tranquilizar a los espectadores de que Facebook tenía “una política diferente” y creía firmemente que las empresas de tecnología no deberían ser árbitros de la verdad de lo que la gente dice en línea.

Pero en noviembre, entre el momento en que cerraron las urnas y se convocó la carrera para Biden, gran parte de la página de Facebook de Trump, así como más de un tercio de la cuenta de Twitter de Trump, estaba plagada de etiquetas de advertencia y verificaciones de hechos, una sorprendente manifestación visual de la forma en que 2020 ha transformado Internet. Hace siete meses, esa primera etiqueta en un tweet de Trump fue un hito. Ahora no tiene nada de especial.

Entre las muchas facetas de la vida transformadas por la pandemia de coronavirus estaba Internet en sí. Frente a una crisis de salud pública sin precedentes en la era de las redes sociales, las plataformas fueron inusualmente audaces al eliminar la información errónea de COVID-19. En lugar de su renuencia habitual a eliminar una publicación solo porque era falsa, estaban promocionando en voz alta sus acciones agresivas y radicales.

Fueron recompensados ​​por ello: durante aproximadamente una semana en marzo, algunos de los críticos habituales de las empresas vitorearon su nuevo sentido de responsabilidad. Algunos sugirieron que el “techlash” contra los poderosos gigantes de Internet había terminado.

Ese entusiasmo no duró, pero las plataformas convencionales aprendieron la lección y aceptaron que deberían intervenir agresivamente en cada vez más casos cuando los usuarios publican contenido que podría causar daño social. Durante los incendios forestales en el oeste estadounidense en septiembre, Facebook y Twitter eliminaron afirmaciones falsas sobre su causa, a pesar de que las plataformas no habían hecho lo mismo cuando gran parte de Australia se vio envuelta en llamas a principios de año.

Twitter, Facebook y YouTube tomaron medidas enérgicas contra QAnon, una teoría de la conspiración en expansión, incoherente y en constante evolución, a pesar de que sus fronteras son difíciles de delinear. Estas acciones tuvieron un efecto dominó, ya que las plataformas de podcasts, las empresas de fitness a pedido y otros sitios web prohibieron las publicaciones de QAnon. La moderación de contenido llega eventualmente a todas las plataformas de contenido, y las plataformas están comenzando a darse cuenta de esto más rápido que nunca.

Como para dejar en claro cuán lejos habían llegado las cosas desde 2016, Facebook y Twitter tomaron medidas inusualmente rápidas para limitar la difusión de un artículo del New York Post sobre Hunter Biden pocas semanas antes de las elecciones. Al intervenir para limitar la difusión de la historia incluso antes de que hubiera sido evaluada por un verificador de hechos de terceros, estos guardianes superaron el juicio editorial de un importante medio de comunicación con el suyo.

Atrás quedó el optimismo ingenuo de los primeros días de las plataformas de redes sociales, cuando, de acuerdo con una comprensión excesivamente simplificada y posiblemente egoísta de la tradición de la Primera Enmienda, los ejecutivos insistían rutinariamente en que más discurso era siempre la respuesta a un discurso problemático. Nuestros señores tecnológicos han estado haciendo un examen de conciencia.

Como dijo el CEO de Reddit, Steve Huffman, cuando realizó una gira de relaciones públicas sobre una revisión de las políticas de su plataforma en junio, “tengo que admitir que he luchado para equilibrar mis valores como estadounidense y la libertad de expresión y la libertad de expresión, con mi valores y los valores de la empresa en torno a la decencia humana común “.

Nada simboliza este cambio tan claramente como la decisión de Facebook en octubre (y la de Twitter poco después) de comenzar a prohibir la negación del Holocausto. Casi exactamente un año antes, Zuckerberg se había atado con orgullo a la Primera Enmienda en una “defensa de la libertad de expresión” ampliamente publicitada en la Universidad de Georgetown.

La fuerte protección del nazismo incluso literal es el emblema más famoso del excepcionalismo de la libertad de expresión de Estados Unidos. Pero un año y una pandemia después, el pensamiento de Zuckerberg y, con él, la política de una de las plataformas de discursos más grandes del mundo, habían “evolucionado”.

La evolución continúa. Facebook anunció a principios de este mes que se unirá a plataformas como YouTube y TikTok para eliminar, no solo etiquetar o rebajar, las afirmaciones falsas sobre las vacunas COVID-19. Esto puede parecer un movimiento obvio; el virus ha matado a más de 315.000 personas solo en los EE. UU., y la desinformación generalizada sobre las vacunas podría ser una de las formas más dañinas de discurso en línea.

Pero hasta ahora, Facebook, receloso de cualquier retroceso político, se había negado previamente a eliminar el contenido anti-vacunación. Sin embargo, la pandemia también demostró que la neutralidad completa es imposible. Aunque no está claro que eliminar el contenido directamente sea la mejor manera de corregir las percepciones erróneas, Facebook y otras plataformas simplemente quieren señalar que, al menos en la crisis actual, no quieren que se les vea como una fuente de información que podría matarlos. .

A medida que las plataformas se sienten más cómodas con su poder, reconocen que tienen opciones más allá de eliminar publicaciones o dejarlas. Además de las etiquetas de advertencia, Facebook implementó otras medidas de “romper cristales” para detener la información errónea a medida que se acercaban las elecciones. Modificó su algoritmo para impulsar las fuentes autorizadas en el servicio de noticias y desactivó las recomendaciones para unirse a grupos basados ​​en cuestiones políticas o sociales.

Facebook está revirtiendo algunos de estos pasos ahora, pero no puede hacer que la gente olvide que esta caja de herramientas existe en el futuro. Twitter mantiene, e incluso amplía, una serie de cambios relacionados con las elecciones destinados a fomentar un intercambio más reflexivo. Incluso antes de la pandemia, YouTube había comenzado a ajustar su algoritmo de recomendación para reducir la propagación de contenido dudoso y perjudicial, y está introduciendo avisos emergentes para alentar a los usuarios a pensar antes de publicar comentarios que podrían ser ofensivos.

Desde hace mucho tiempo, las plataformas con sede en EE. UU. Han tenido más probabilidades de descuidar los subproductos de su presencia en los mercados globales. Pero esa tendencia también comenzó a revertirse en 2020. Twitter eliminó los tweets del presidente brasileño Jair Bolsonaro y del presidente venezolano Nicolás Maduro por violar sus políticas COVID-19.

Facebook implementó un conjunto de políticas específicas para las elecciones en Myanmar para su elección, incluido el etiquetado de reclamos controvertidos de fraude electoral. (Resulta que expresar frustración en mayúsculas por ser etiquetado es una reacción que atraviesa culturas). A principios de diciembre, Twitter puso una etiqueta de advertencia por primera vez en un tweet de un destacado político indio a quien BuzzFeed describió como “notorio por publicar desinformación.” La barra es lo suficientemente baja como para que pasos como estos puedan considerarse un progreso.

Las plataformas no merecen elogios por advertir tardíamente los incendios de los contenedores de basura que ayudaron a crear y por ponerles etiquetas discretas. Las empresas de redes sociales todavía dedican muy poca atención y recursos a los mercados fuera de los Estados Unidos y a otros idiomas además del inglés. Las etiquetas de advertencia por desinformación pueden hacer que algunos comentaristas se sientan un poco mejor, pero aún se desconoce si las etiquetas realmente hacen mucho para contener la difusión de información falsa. Los informes de noticias sugieren que los miembros de Facebook sabían que podían y deberían hacer más sobre la desinformación, pero los altos mandos vetaron sus ideas. YouTube apenas actuó para detener la avalancha de información errónea sobre los resultados de las elecciones en su plataforma.

La opacidad fundamental de estos complejos sistemas permanece. Cuando las plataformas de Internet anuncian nuevas políticas, siempre ha sido difícil evaluar si pueden hacerlas cumplir de manera consistente. En esencia, las empresas están calificando su propio trabajo. Pero con demasiada frecuencia, lo que se puede extraer del exterior sugiere que están fallando.

Las plataformas han aumentado la cantidad de personas que trabajan en la moderación de contenido en los últimos años, pero estos contratistas con exceso de trabajo fueron superados en armas incluso antes de que muchos fueran enviados a casa al comienzo de la pandemia y no pudieran trabajar a plena capacidad. Las plataformas también utilizan inteligencia artificial para captar contenido que infringe sus reglas, y los informes de transparencia que publican cuentan con una “tasa de detección proactiva” cada vez más alta, pero estas herramientas son frágiles y se equivocan a menudo.

Y si 2020 finalmente dejó en claro a las plataformas la necesidad de una mayor moderación del contenido, también expuso los límites inevitables de la moderación del contenido. A medida que algunas plataformas tomaron medidas enérgicas contra el contenido dañino, otras vieron esto como una oportunidad y se promocionaron como refugios de “libertad de expresión” para los usuarios agraviados. Efectivamente, el contenido eliminado por algunas plataformas comenzó a desbordarse y extenderse a estas otras.

Bajar, etiquetar o eliminar contenido en una plataforma de Internet no aborda las circunstancias sociales o políticas que causaron que se publicara en primer lugar. E incluso la plataforma más poderosa nunca podrá compensar por completo las fallas de otras instituciones de gobierno ni podrá evitar que el líder del mundo libre construya una realidad alternativa cuando todo un ecosistema de medios esté listo y dispuesto a habilitarlo. Como escribió Renée DiResta en The Atlantic el mes pasado, “reducir la oferta de información errónea no elimina la demanda”.

Aun así, los eventos de este año demostraron que nada es innato, inevitable o inmutable en las plataformas como existen actualmente. Las posibilidades de lo que podrían llegar a ser —y el papel que desempeñarán en la sociedad— están más limitadas por la imaginación que por cualquier restricción tecnológica fija, y las empresas parecen más dispuestas a experimentar que nunca.

.



Source link