RED43
13 de Enero de 2019
|

Aprendé cómo utiliza Facebook tus datos de salud mental

La plataforma clasifica tus publicaciones por riesgo, con un puntaje de 0 a 1.

Escuchar esta nota

En marzo de 2017, Facebook lanzó un proyecto ambicioso para evitar el suicidio mediante la inteligencia artificial. Después de una larga lista de suicidios emitidos en vivo en la plataforma, la compañía realizó un gran esfuerzo para crear un algoritmo que detecte señales de personas que podrían lastimarse.
Pero, más de un año después, luego de una ola de escándalos de privacidad que cuestionaron el uso de datos de Facebook, la idea de que la plataforma cree y almacene datos del estado mental de las personas sin el consentimiento del usuario tiene a varios expertos preocupados sobre la capacidad de Facebook para hacer suposiciones sobre los detalles más íntimos de nuestras mentes.

 

Facebook crea nueva información de salud sobre los usuarios, pero no tiene los mismos estándares de privacidad que los proveedores de salud

 

El algoritmo alcanza casi todas las publicaciones de Facebook y da un puntaje a cada pieza de contenido en una escala de 0 a 1. El proceso de creación de datos ya genera preocupaciones a Natasha Duarte, una analista de políticas en el Centro de democracia y tecnología: “Cualquiera que recolecte este tipo de información o haga este tipo de deducciones sobre las personas debería tratarla como información de salud sensible”.
Las leyes de protección de datos que rigen la información de salud en Estados Unidos aún no se aplican a los datos creados por el algoritmo de prevención de suicidios de Facebook, según Duarte. En Estados Unidos, la información de salud de las personas está protegida por la HIPAA, la Ley de responsabilidad y portabilidad de seguros de salud, que obliga a los proveedores a tener protecciones de privacidad específicas, como cifrar la información y limitar su divulgación. Pero estas reglas solo son para organizaciones que proporcionan servicios de salud, como hospitales y compañías de seguros.
Las compañías como Facebook, que hacen suposiciones acerca del estado de salud de una persona, no están sujetas a los mismos requisitos de privacidad. La empresa no ha sido transparente sobre los protocolos relacionados con los datos sobre suicidio que genera. Un representante de Facebook expresó que los puntajes de riesgo de suicidio demasiado bajos para ameritar una revisión se almacenan durante 30 días antes de borrarse, pero no respondió durante cuánto tiempo o de qué manera se almacenan los datos sobre puntajes altos. Tampoco respondió por qué se conservan los datos de puntajes bajos.

 

La próxima filtración de datos de Facebook, ¿podría incluir los datos de tu salud mental?

 

Los riesgos de almacenar información tan sensible sin la protección y previsión adecuada son muy altos, según expertos en privacidad. El riesgo más claro es la posible filtración de la información. “No es una cuestión de si los hackearán: es una cuestión de cuándo los hackearán” dijo Matthew Erickson, del grupo de privacidad del consumidor de la Alianza Digital para la Privacidad.
En septiembre, Facebook reveló que una filtración de datos a gran escala había dejado expuestos los perfiles de alrededor de 30 millones de personas. Quedaron expuestas fotos y
publicaciones de 400 000 de ellas. Facebook no comentó si se filtraron los datos del algoritmo para la prevención de suicidios. Luego de la filtración pública de los datos del sitio web Ashley Madison, se vio claramente que el riesgo de guardar información tan sensible es muy alto.

 

Quién puede ver la información sobre tu salud mental en Facebook

 

Una vez que una publicación se marca como alto riesgo, se envía al equipo de moderadores de contenido de Facebook. La compañía no dio información específica sobre el entrenamiento que reciben los moderadores sobre el suicidio, pero insiste en que están entrenados para reconocer las publicaciones de riesgo. En una nota del Wall Street Journal sobre los miles de moderadores de contenido de Facebook en 2017, se los describió como “empleados por contrato que reciben una alta demanda y muy poco entrenamiento sobre cómo lidiar con contenidos perturbadores”. Facebook dice que el equipo de moderación recibe un entrenamiento desarrollado por expertos sobre el “contenido posiblemente relacionado con suicidio, mutilación y desórdenes alimenticios e identificación de amenazas de suicidio inminentes o creíbles”.
Facebook dijo que, durante esta fase inicial, no hay nombres en las publicaciones, pero Duarte dijo que puede ser difícil separar el contenido de la persona: “Hay mucho contexto en un mensaje en redes sociales que identifica a la gente, incluso si su nombre no está en la publicación”. Si un revisor inicial marca una publicación como contenido de riesgo inminente, se pasa a un equipo con otro tipo de experiencia, empleados especializados con antecedentes en ese tipo de situaciones: desde trabajos con leyes o con la policía hasta líneas de llamadas contra suicidios. Estos empleados tienen más acceso a la información de las personas.
Reidenberg dijo: “He alentado a Facebook para que mire los perfiles, para ver varios elementos alrededor de una publicación y ponerla en contexto”. El experto insiste en que analizar más contenido es una de las pocas maneras para determinar si realmente hay riesgo. Una vez revisada una publicación, pueden suceder dos cosas: los revisores pueden enviar información y recursos al usuario o comunicarse con los servicios de emergencia.
“En el último año, ayudamos a los servicios de emergencia a alcanzar alrededor de 3500 personas que necesitaban ayuda”, escribió Mark Zuckerberg en una publicación sobre la iniciativa. Duarte dice que el envío de la información del usuario a la policía es lo más peligroso del programa. “El mayor riesgo, en mi mente, es un falso positivo que lleve a un contacto innecesario con la policía”.
Facebook demostró varias intervenciones exitosas con su método, pero, en un informe reciente del New York Times, en un incidente se envió una intervención a alguien que declaró que no era suicida, y la policía lo llevó al hospital para una evaluación de salud mental de todas maneras. En otro caso, la policía liberó información personal sobre una persona marcada como riesgo de suicidio al New York Times.

 

El algoritmo está prohibido en la Unión Europea

 

Facebook utiliza el algoritmo para revisar publicaciones en inglés, español, portugués y árabe, pero no funciona en la Unión Europea. El intento de implementarlo se bloqueó por las protecciones de privacidad especiales del área de la Reglamentación de Protección de Datos General (GDPR), que requiere que los usuarios den su consentimiento específico a los sitios web para recopilar información sensible, por ejemplo, la información sobre salud mental.
En Estados Unidos, Facebook considera el programa un asunto de responsabilidad. Reidenberg describe el sacrificio de la privacidad como uno similar al que enfrentan los profesionales médicos cada día. “Los profesionales médicos toman una decisión si alguien está en riesgo e inician el rescate. Las compañías tecnológicas no son tan distintas, deben determinar si involucrar o no a la policía para rescatar a alguien”.
Pero Duarte dijo que hay una diferencia crítica: “Es una de las grandes brechas que tenemos en la protección de privacidad en Estados Unidos; sector por sector, hay mucha información de salud de compañías que no están cubiertas por la HIPAA. Y también está el problema de información que parece información de salud, pero que se usa para realizar determinaciones que no se tratan con la sensibilidad correspondiente”.
Los expertos en privacidad están de acuerdo respecto a que una versión mejorada debería permitir que los usuarios decidan si están de acuerdo con el uso del programa o, al menos, puedan salir de él, pero ninguna de esas opciones está disponible actualmente. Emily Cain, una representante de comunicaciones de Facebook, dijo que “Si uno usa Facebook, está de acuerdo automáticamente con que la plataforma analice sus publicaciones, comentarios y videos para ver si hay un posible riesgo de suicidio”.

 

Los expertos están de acuerdo con que el algoritmo tiene potencial

 

La mayoría de los expertos en privacidad y salud pública están de acuerdo con que el algoritmo puede ser bueno. De acuerdo con la OMS, alrededor de 800 000 personas se suicidan cada año, y la mayoría son adolescentes o miembros de grupos vulnerables, como los grupos LGBTQ y las personas de tribus aborígenes.
Facebook dijo que, según sus cálculos, el riesgo de invasión de la privacidad vale la pena. “Cuando se trata de esfuerzos de prevención de suicidio, luchamos para balancear la privacidad y la seguridad. Aunque nuestros esfuerzos no son perfectos, decidimos ayudar a las personas que lo necesitan lo más pronto posible. Entendemos que es un tema sensible y tenemos muchas protecciones de privacidad”.
Kyle McGregor, el director del departamento de Ética de Salud Mental Pediátrica de la Escuela de Medicina de Nueva York, estuvo de acuerdo con el cálculo: “El suicidio adolescente, en especial, es un tema que se puede solucionar y, como adultos, tenemos la responsabilidad de asegurarnos de que los jóvenes puedan pasar este período de desarrollo y tener vidas felices y saludables. Si tenemos la posibilidad de prevenir uno o dos suicidios más, vale la pena”.

 

¿QUÉ TE PARECIÓ LA NOTA?
Ocurrió un error