YouTube anuncia nuevas medidas para evitar acoso y ataques personales en su plataforma

Colocar la cara de una persona en un videojuego violento será uno de los contenidos que Youtube dejará de aceptar.

YouTube amplió sus políticas contra el acoso el 11 de diciembre de 2019 para incluir la prohibición de amenazas "implícitas" junto con insultos basados en raza, identidad de género u orientación sexual. (Foto Prensa Libre: AFP)
YouTube amplió sus políticas contra el acoso el 11 de diciembre de 2019 para incluir la prohibición de amenazas "implícitas" junto con insultos basados en raza, identidad de género u orientación sexual. (Foto Prensa Libre: AFP)

YouTube anunció este 11 de diciembre que no tolerará más insultos, amenazas ni el acoso en general en su plataforma de videos, iniciando una nueva etapa de un proceso de limpieza de su servicio.

“No permitiremos más contenido que insulta maliciosamente a alguien por atributos protegidos como su raza, expresión de género u orientación sexual”, dijo Matt Halprin, director de Confianza y Seguridad Global de YouTube, en un comunicado publicado en el blog oficial de la compañía.

Esta nueva reglamentación aplica para usuarios privados, creadores de contenidos en YouTube, en videos y comentarios.

Según la plataforma, solo en el tercer trimestre de 2019 retiró 16 millones de comentarios evaluados como acoso. Se espera que con la puesta en vigencia de las nuevas normas, esa cifra sea aún mayor.

Manipular un arma mientras se habla de alguien o incluso colocar la cara de una persona en un videojuego violento dejarán de ser contenidos aceptables, por ejemplo.

YouTube prevé una serie de medidas punitivas para quienes violen este código de conducta en forma reiterada, lo que incluye por ejemplo desactivar la generación de ingresos de los ofensores o directamente suprimir sus videos.

Algunos “youtubers” cuentan con millones de seguidores… y millones de dólares en sus cuentas que dejarán de recibir si incumplen la nueva normativa de Youtube. (GETTY IMAGES)

Google ha invertido desde 2017 grandes sumas en sistemas automatizados con inteligencia artificial y también recursos humanos para reforzar sus procesos de detección y retirada de videos problemáticos.

El énfasis hasta ahora se había puesto sobre todo en mensajes de odio, imágenes de terrorismo y comentarios pedófilos, entre otros.

Ese procedimiento ha hecho que se retiren amenazas e insultos, pero YouTube ha decidido endurecer sus reglas.

“Desde ahora, nuestras políticas irán un paso más allá y no solo prohibirán amenazas explícitas, pero también amenazas veladas o implícitas”, dijo Halprin.

“Esto incluye contenido que simula violencia hacia un individuo o lenguaje que sugiera la ocurrencia de violencia física”, detalló.