Tecnología

¿Por qué retiró Facebook el video de Alain Cocq?

La red social explica las razones por las que eliminó el video de Cocq e indica que actúa apegada a su batería de normas, que buscan evitar que alguien más adopte un comportamiento similar.

Facebook toma medidas respecto a los contenidos publicados en la red social. Foto Prensa LIbre: AFP

Facebook toma medidas respecto a los contenidos publicados en la red social. Foto Prensa LIbre: AFP

En Facebook, los contenidos vinculados con el suicidio asistido, el final de la vida o la automutilación están sometidos a una serie de normas para conciliar seguridad de los usuarios y libertad de expresión, como refleja el caso del francés Alain Cocq.

Este hombre de 57 años, aquejado de una enfermedad incurable, y que reclama un final de vida “digno”, anunció en la noche del viernes al sábado que cesaba cualquier tratamiento y se dejaba morir en directo en Facebook.

Pero la plataforma anunció el sábado que bloqueaba la difusión del video de Cocq.

“Aunque respetamos su decisión de buscar atraer la atención sobre este complejo asunto, en base a los consejos de expertos hemos tomado medidas para impedir la difusión en directo en la cuenta de Alain, pues nuestras normas no permiten mostrar intentos de suicidio”, declaró a la AFP un portavoz de Facebook

El equilibrio es delicado para la red social que cuenta con 1.800 millones de usuarios, y es a veces acusada de no poner los medios suficientes para evitar la difusión de contenidos violentos o chocantes.

Estas normas se han reforzado con el tiempo, tras una serie de casos que generaron escándalo, como el fallecimiento en 2017 en Reino Unido de Molly Russell, una adolescente de 14 años que se suicidó tras haber visionado contenidos relativos a la automutilación y al suicidio en Instagram, filial de Facebook.

Facebook cuenta con reglas muy precisas: si bien no prevén disposiciones específicas sobre el final de la vida, son en cambio muy estrictos en cuanto a los contenidos que pueden parecerse a una promoción del suicidio o de la automutilación.

“Con el objetivo de promover el entorno de seguridad en Facebook, suprimimos cualquier contenido que aliente el suicidio o la automutilación, incluidas algunas imágenes explícitas (…) que según los expertos podrían incitar a ciertas personas a adoptar un comportamiento similar”, advierte la red en sus normas.

No obstante, estas mismas regulaciones autorizan “las fotos o los videos que muestran en un contexto noticioso a una persona que ha cometido suicidio” así como “fotos o videos sobre una persona que ha sido objeto de eutanasia o suicidio asistido en un contexto médico”.

En estos casos se limita el acceso a los mayores de 18 años, y se incluye un mensaje de advertencia.

La red puede flexibilizar sus propias normas si considera que contenidos no autorizados son de interés público.

Además, la red deja a veces en línea contenidos controvertidos el tiempo necesario para prestar asistencia a quienes los publican, si ello permite salvar vidas.

“Se nos ha informado por parte de expertos que no deberíamos suprimir videos de automutilización en directo mientras los familiares o afines a la víctima puedan aún intervenir”, indica Facebook, a modo de ejemplo.

 

ESCRITO POR:

ARCHIVADO EN: