En Malasia la policía investiga un caso de suicidio relacionado con Instagram. Una adolescente se quitó la vida luego de publicar una encuesta en la red social, perteneciente a Facebook, sobre si debería o no suicidarse. El resultado fue favorable a su muerte.

Las autoridades locales están interrogando a los participantes de la encuesta que votaron a favor del suicidio, pues los abogados de la familia sugirieron que podían ser culpables de la muerte. De ser culpables podrían enfrentar una sentencia de hasta 20 años de prisión.

Ramkarpal Singh, un abogado y miembro del parlamento de Malasia, solicitó que las autoridades investiguen las circunstancias que llevaron a la muerte de la adolescente.

“¿La niña todavía estaría viva hoy si la mayoría de los cibernautas en su cuenta de Instagram la desanimaran de quitarse la vida?, ¿habría escuchado el consejo de los internautas para buscar ayuda profesional si lo hubieran hecho?”, declaró en un comunicado.

Ching Yee Wong, jefe de comunicaciones de Instagram APAC, proporcionó la siguiente declaración a Business Insider en respuesta a la muerte del joven de 16 años:

El ministro de juventud y deportes de Malasia, Syed Saddiq Syed Abdul Rahman, dijo que esta tragedia pone en la mesa de discusión los problemas de salud mental que hay en su país. “Estoy realmente preocupado por el estado de salud mental de nuestros jóvenes”, dijo. “Es un asunto nacional que debe tomarse en serio”.

Por su parte Ching Yee Wong, Jefe de Comunicaciones de Instagram APAC, dijo: “Nuestros pensamientos y oraciones están con la familia de esta joven”.

“Nuestros pensamientos y oraciones están con la familia de esta joven. Tenemos la profunda responsabilidad de asegurarnos de que las personas que usan Instagram se sientan seguras y apoyadas. Como parte de nuestros esfuerzos, instamos a todos a usar nuestras herramientas de informes y a comunicarse con los servicios de emergencia si ver cualquier comportamiento que ponga en riesgo la seguridad de las personas”.

En febrero, Instagram anunció que lanzará “pantallas de sensibilidad” para bloquear imágenes de autolesiones. La decisión se produjo tras la muerte de la adolescente británica Molly Russell, cuyos padres creen haber visto imágenes de suicidio y autolesión en la aplicación antes de que se suicidara en 2017, a los 14 años.