Una de cada 10.000 publicaciones de Instagram y Facebook es un discurso de odio: así luchan para erradicarlo

Pexels Sora Shimazaki 5673506 1
Sin comentarios Facebook Twitter Flipboard E-mail

Una de cada 10.000 publicaciones en Facebook e Instagram es un discurso de odio. Así lo asegura la compañía de Mark Zuckerberg en su último informe sobre el cumplimiento de las normas comunitarias dentro de la plataforma, en el que se garantiza su lucha y compromiso por erradicar este tipo de conductas. En concreto, han puesto el foco en el contenido más sensible, que incluye áreas como el suicidio, las autolesiones y la desnudez infantil.

De esta forma, Facebook (que absorbió Instagram en 2012) incluye, por primera vez en su historia, la prevalencia de este tipo de discursos intolerables a nivel mundial. Unos datos a los que al fin tenemos acceso, después de que su fundador se viese obligado a compartir las cifras exactas sobre cuál es la cantidad de contenido que incita al odio que ven los usuarios en ambas redes sociales.

Odio

Según estas nuevas medidas, la compañía es capaz de detectar alrededor del 95% del contenido; publicaciones que son encontradas y eliminadas automáticamente de forma proactiva y sin necesidad de que los usuarios los denuncien. ¿Cómo? Gracias a las mejoras en la Inteligencia Artificial y la expansión de sus tecnologías de detección a más idiomas. Un gran paso si tenemos en cuenta que en 2017 esta cifra tan sólo llegaba al 23%.

"Gracias a nuestras inversiones en IA, hemos podido eliminar más discursos de incitación al odio y encontrar más de forma proactiva antes de que los usuarios nos lo denuncien. Estamos avanzando en la detección de contenido dañino", señalan en el citado documento.

¿Qué considera Facebook un 'discurso de odio'?

Pexels Freestocksorg 744464

Facebook considera discurso de odio a todo comentario que ataque o criminalice a las personas en función de características como la raza, origen étnico, nacionalidad, religión, identidad de género, orientación sexual, discapacidad o enfermedad.

Cómo trabaja Facebook para erradicarlo

Pexels Cottonbro 5081926

Hace un par de años Instagram empezó a tomar cartas en el asunto con temas tan vulnerables como los trastornos físicos (anorexia o la bulimia) o el abuso. En concreto, sobre esta red social se tomaron medidas sobre un millón de piezas de contenido de desnudez infantil y explotación sexual, 2,6 millones de contenidos de intimidación y acoso; y 1,3 millones de suicidios y autolesiones.

En Facebook las cifras se multiplican exponencialmente; multiplicándose por tres en los contenidos de intimidación y acoso y con 12,4 millones de piezas de contenido de desnudez infantil y explotación sexual (frente al millón de Instagram).

Ante tales amenazas, el gigante tecnológico se ha visto obligado a publicar sus propias normas comunitarias, que sirven como guía de lo que está permitido y lo que no, con el fin de frenar este comportamiento criminal. Éstas son las más relevantes:

1. Eliminan el lenguaje que incita a cometer actos graves de violencia o los hace posibles

Pexels Andrea Piacquadio 3767407

Desde Facebook se esfuerzan por evitar que se produzcan daños en la vida real que puedan estar relacionados con el contenido que se muestra en Facebook. Por ello, eliminan el lenguaje que incita a cometer actos graves de violencia o los hace posibles y pueden llegar a inhabilitar cuentas y colaborar con las autoridades policiales.

Tampoco permiten la presencia de ninguna organización o persona que cometa actos violentos o cuyo objetivo sea la actividad terrorista.

2. Prohíben contenido que promueva el suicidio y las autolesiones

Pexels Yan 4458425

Desde Facebook definen autolesión como un daño intencional y directo al propio cuerpo, incluida la automutilación y los trastornos alimenticios. Teniendo esto en cuenta, no permiten que las personas celebren o promuevan el suicidio y las autolesiones de forma deliberada o no intencional, pero sí que se debata sobre estos temas.

Además, eliminan contenido que identifique o se dirija de forma negativa a víctimas o supervivientes de suicidio o autolesiones con seriedad, humor o retórica, así como contenido en el que se muestren imágenes de esta naturaleza.

3. Eliminan fotos de menores desnudos (incluso subidas por padres con buenas intenciones)

Pexels Picjumbocom 225232

No se permite contenido que explote sexualmente a menores o que los ponga en peligro, tampoco que los padres compartan imágenes de hijos desnudos con buenas intenciones; evitando así que alguien las use de forma indebida.

4. Censuran contenido en el que se muestren actos sexuales con personas contra su voluntad

Pexels Thought Catalog 2228555

Eliminan contenido en el que se muestren o fomenten la violencia, las agresiones o la explotación de tipo sexual, o que constituya una amenaza de esta naturaleza. También censuran contenido en el que se muestren, defiendan u organicen actos sexuales con personas contra su voluntad a fin de evitar facilitar actos sexuales no consentidos. Más información aquí.

5. Eliminan contenido destinado a humillar o avergonzar (que fomente el bullying o el acoso)

Acoso

El bullying y el acoso ocurren en muchos lugares y adoptan diversas formas, como amenazas, divulgación de datos de carácter personal, envío de mensajes amenazantes y contactos no deseados maliciosos. Para luchar contra ello, eliminan el contenido destinado a humillarlos o avergonzarlos, como declaraciones sobre su actividad sexual. Más información aquí.

6. Eliminan contenido que fomente y organice la explotación

Desde Facebook definen la trata de personas como aquellas actividades en las que se priva a otros de su libertad con ánimo de lucro. Por eso, eliminan el contenido que fomente y organice la explotación, incluida la trata de personas.

España también se queja

Soc

Desde la red social aseguran que se tomaron medidas sobre 28,6 millones de contenidos por incitar al odio entre julio y septiembre. En concreto, España envió más de 1.300 solicitudes gubernamentales durante tres estos meses para acceder a datos de usuarios que cometen este tipo de actitudes de odio. De las presentadas por nuestro país, la plataforma ha autorizado el 63%.

Es el 0,1%, pero la cifra ha de ser cero

Dl U441936 005

Facebook asegura que durante el último año ha eliminado 1,5 millones de contenidos por actividades de odio y 12 millones por discursos similares. Además, ha cerrado un millón de grupos por este motivo.

En el tercer trimestre de 2020, la prevalencia del discurso de odio ha sido del 0,10% al 0,11% o de 10 a 11 visualizaciones de discurso de odio por cada 10.000 visualizaciones de contenido... Una cifra que mejora día a día, pero que ha de ser cero.

Fotos | Pexels, GTRES, Facebook, The Social Dilemma, Instagram @tamara_falco


Comentarios cerrados
Inicio