Batería de normas de Facebook sobre los contenidos relacionados con el final de la vida

En Facebook, los contenidos vinculados con el suicidio asistido, el final de la vida o la automutilación están sometidos a una serie de normas para conciliar seguridad de los usuarios y libertad de expresión, como refleja el caso del francés Alain Cocq.

05 septiembre 2020 |

Alain Cocq, de 57 años, aquejado de una enfermedad incurable, y que reclama un final digno, anunció en la noche del viernes al sábado que cesaba cualquier tratamiento y se dejaba morir en directo en Facebook.

Pero la plataforma anunció el sábado que bloqueaba la difusión del video de Cocq.

Un portavoz de Facebook declaró:

"Aunque respetamos su decisión de buscar atraer la atención sobre este complejo asunto, en base a los consejos de expertos hemos tomado medidas para impedir la difusión en directo en la cuenta de Alain, pues nuestras normas no permiten mostrar intentos de suicidio".


El equilibrio es delicado para la red social que cuenta con 1.800 millones de usuarios, y es a veces acusada de no poner los medios suficientes para evitar la difusión de contenidos violentos o chocantes.

Estas normas se han reforzado con el tiempo, tras una serie de casos que generaron escándalo, como el fallecimiento en 2017 en Reino Unido de Molly Russell, una adolescente de 14 años que se suicidó tras haber visionado contenidos relativos a la automutilación y al suicidio en Instagram, filial de Facebook.

La Red Social advierte advierte en sus normas: (www.facebook.com/communitystandards)

"Con el objetivo de promover el entorno de seguridad en Facebook, suprimimos cualquier contenido que aliente el suicidio o la automutilación, incluidas algunas imágenes explícitas (...) que según los expertos podrían incitar a ciertas personas a adoptar un comportamiento similar".


No obstante, estas mismas regulaciones autorizan fotos o videos que muestran en un contexto noticioso a una persona que ha cometido suicidio; así como fotos o videos sobre una persona que ha sido objeto de eutanasia o suicidio asistido en un contexto médico.

En estos casos se limita el acceso a los mayores de 18 años, y se incluye un mensaje de advertencia.

La red social puede flexibilizar sus propias normas si considera que contenidos no autorizados son de interés público.

Facebook indica, a modo de ejemplo:

"Se nos ha informado por parte de expertos que no deberíamos suprimir videos de automutilización en directo mientras los familiares o afines a la víctima puedan aún intervenir".

TE INTERESA