La ‘corte suprema’ de Facebook dice que la compañía se equivocó al eliminar


Una publicación que citaba a Goebbels y otra que criticaba a los musulmanes fueron restituidas después de la intervención de la Junta de Supervisión.

Un grupo independiente encargado de evaluar cómo Facebook maneja contenido en línea el jueves revirtió la decisión del gigante de las redes sociales de eliminar contenido en cuatro de los cinco casos de prueba que había revisado.

Los casos versaron sobre incitación al odio, COVID-19-19 desinformación y otro contenido, incluida una publicación que cita al propagandista nazi Joseph Goebbels, que puede haber roto las reglas digitales del gigante tecnológico.

FacebookLa llamada Junta de Supervisión, una colección de expertos legales y de derechos humanos cuyas decisiones son vinculantes sobre cómo la empresa trata el contenido en línea potencialmente divisivo en su plataforma global, emitió sus fallos mientras continúan las tensiones sobre el papel que desempeñan las empresas de redes sociales en el fomento de los disturbios en línea. La Junta de Supervisión también está revisando FacebookLa decisión de encerrar al ex presidente de EE. UU. Donald TrumpEl relato a raíz de los disturbios del Capitolio a principios de este mes. En ese caso, se hará un anuncio en abril.

“Pensamos, después de una cuidadosa consideración, que en primer lugar hubo casos difíciles, pero no creemos [Facebook] lo hizo bien “, dijo a POLITICO Helle Thorning Schmidt, ex primera ministra danesa y copresidenta de la Junta de Supervisión. Facebook que necesitan saber mejor a los usuarios por qué se elimina su contenido “.

Entre las publicaciones Facebook eliminado fue uno que muestra los senos de las mujeres. Otra publicación fue eliminada por incitar al discurso de odio contra los musulmanes.

Juntos, los cinco casos anunciados el jueves se encuentran en el centro de las difíciles decisiones que Facebook y la Junta de Supervisión debe hacer para determinar qué constituye la libertad de expresión legítima y qué cae en la categoría de discurso de odio, información errónea u otro contenido dañino que rompa las políticas de contenido de la empresa.

En su primera ronda de decisiones que se hicieron públicas el jueves, la Junta de Supervisión pasó casi dos meses revisando una serie de Facebook publicaciones que la empresa había eliminado inicialmente por violar sus reglas de contenido.

El grupo tiene el poder de determinar si tales eliminaciones estaban justificadas o restringían injustamente la libertad de expresión de las personas, pero los expertos no pueden revisar Facebook publicaciones que permanecen en línea.

Eso cambiará en los próximos meses, agregó Thorning Schmidt, y el grupo tendrá el poder de adjudicar publicaciones que Facebook no ha eliminado.

La Junta se administra por separado de la empresa, pero su presupuesto de 130 millones de dólares lo proporciona el gigante tecnológico. Los usuarios en línea o la empresa pueden solicitar al organismo que revise los casos, y se han enviado más de 150.000 referencias desde octubre. El viernes, el grupo anunciará su próxima ronda de casos y también permitirá que las personas envíen comentarios públicos sobre su investigación en curso sobre la reinstalación de Trump. Facebook cuenta.

Goebbels, COVID-19 drogas

En un fallo, la Junta dijo que una publicación de un usuario en Myanmar que parecía criticar a los musulmanes, que Facebook había eliminado porque decía que el contenido había violado los estándares de incitación al odio de la empresa, debería restablecerse porque, si bien los comentarios podrían verse como ofensivos, no cumplieron Facebookpropios estándares de lo que constituye el discurso de odio.

En otro, el grupo dijo que un borrado Facebook publicación de Francia que criticaba el hecho de que los funcionarios locales no usaran hidroxicloroquina, un medicamento contra la malaria, para tratar COVID-19-19, una afirmación desacreditada que sigue siendo muy popular en todo el país, también debe devolverse a las plataformas de redes sociales porque no representa un daño inminente para la vida de las personas.

Una tercera decisión ordenada Facebook para restablecer una publicación de Instagram de Brasil que incluía pezones de mujeres como parte de una campaña de concientización sobre el cáncer de mama, que el sistema automatizado de moderación de contenido de la compañía había eliminado inicialmente por infringir la política de desnudez de la aplicación para compartir fotos. Facebook finalmente volvió a publicar la imagen en Instagram, pero los expertos externos criticaron a la empresa por no tener suficiente supervisión humana de tales decisiones automatizadas.

Y en el caso de Goebbels, la junta determinó que la publicación no había promovido la propaganda nazi, pero de hecho había criticado el gobierno nazi y, por lo tanto, no había violado. Facebookreglas de contenido.

“Todos pueden ver que estos no son casos fáciles y ha sido difícil llegar a una decisión final”, dijo Thorning Schmidt, y agregó que no todas las sentencias fueron respaldadas universalmente por los miembros del grupo. Dijo que sus deliberaciones recientes habían demostrado que la empresa dependía en gran medida de la automatización para eliminar contenido potencialmente dañino.

“Nos parece que muchas de estas decisiones fueron tomadas por un algoritmo”, dijo. “Nuestro consejo para Facebook es que cuando tienen estas decisiones difíciles, deben tener supervisión humana “.

Facebook confirmó que ya había restablecido las cuatro piezas de contenido, pero advirtió que continuaría tomando una línea dura contra las publicaciones que promueven falsedades en torno a COVID-19-19.

“Nuestro enfoque actual para eliminar la información errónea se basa en amplias consultas con científicos destacados, incluidos los de los CDC y la OMS”, Monika Bickert, Facebookdijo el vicepresidente de política de contenido en referencia a las organizaciones de salud estadounidenses e internacionales. “Durante una pandemia mundial, este enfoque no cambiará”.

Las resoluciones también pueden aplicarse de manera más amplia a contenido similar en su plataforma global.

El único caso en el que la Junta de Supervisión estuvo de acuerdo con FacebookLa decisión de eliminar una publicación relacionada con un ataque en ruso contra azerbaiyanos que, según los expertos, había violado los estándares de incitación al odio de la empresa.

A pesar de la voluntad del grupo externo de revertir cómo Facebook maneja posibles publicaciones dudosas en su plataforma, no todos han recibido con agrado el aumento de la supervisión.

Damian Collins, un legislador británico y cofundador de The Real Oversight Board, un grupo de campaña crítico de su homónimo, dijo que la incapacidad del organismo para revisar FacebookLas políticas de moderación de contenido más amplias y el hecho de no dictaminar sobre publicaciones potencialmente dañinas que permanecían en la plataforma, hicieron que su trabajo fuera prácticamente inútil.

“Este tipo de decisiones no deben dejarse Facebook,” él dijo. “La decisión de eliminar o no contenido debe estar en manos de un gobierno o de figuras elegidas políticamente”.

.



Source link