Algoritmo do Facebook que monitora suicídios evidencia divergências entre empresas de tecnologia e especialistas em saúde

Algoritmo do Facebook que monitora suicídios evidencia divergências entre empresas de tecnologia e especialistas em saúde

A ferramenta identifica postagens com potencial suicida e esteve envolvida no envio de equipes de emergência mais de 3500 vezes
  Por Giovanna Beltrão
Stock Photos Por sitthiphong / Shutterstock

Ao longo de sua história, o Facebook teve que encarar o problema do suicídio de frente algumas vezes. A questão se tornou pessoal quando uma série de pessoas usou a ferramenta de streaming Facebook Live para transmitir, em tempo real, o momento em que tiraram suas próprias vidas. Diante disso, desde 2017, a empresa vem utilizando um “algoritmo de monitoramento de suicídios”, que já esteve envolvido no envio de mais de 3500 equipes de emergência a endereços de pessoas que fizeram postagens sensíveis sobre o assunto.

A ferramenta utiliza tecnologia de reconhecimento de padrões para identificar conteúdo que aparenta expressar intenções suicidas, além de escanear comentários do tipo “você está bem?”. Tais postagens são, então, enviadas a um moderador de conteúdo e, posteriormente, a um profissional treinado que é encarregado de notificar as equipes de emergência.

No entanto, para o psiquiatra e consultor de tecnologia de Harvard, John Torous, o algoritmo pode causar mais dor do que alívio. “Nós, como público, estamos participando desse grande experimento, mas não sabemos se é útil ou não. […] É uma coisa para um acadêmico ou uma empresa dizer que isso vai ou não funcionar. Mas você não está vendo nenhuma evidência de trabalho de campo ou revisão crítica de outros cientistas. […] É preocupante”, disse ao Business Insider.

Sigilo

Torous se refere ao fato de que o Facebook nunca publicou nenhum dado referente a como a ferramenta funciona. Para a empresa, o algoritmo não é um produto de saúde ou uma iniciativa de pesquisa, mas algo semelhante a pedir ajuda ao ver alguém com problemas em um espaço público. “Estamos no negócio de conectar pessoas com comunidades de apoio. Não somos provedores de saúde mental”, afirmou Antigone Davis, que é chefe global de segurança do Facebook, ao BI.

Mas, para o pesquisador, sem informações públicas a respeito da ferramenta, há informações importantes que são impossíveis de serem respondidas: o algoritmo pode focar nos usuários errados, desencorajar discussões francas sobre saúde mental na plataforma ou, até mesmo, escalar e criar uma crise onde não existe uma. “Sabemos que o Facebook construiu [a ferramenta] e está usando, mas não sabemos se ela é precisa, se está sinalizando as pessoas certas ou erradas, ou se está sinalizando as coisas cedo demais ou muito tarde”, concluiu.

Assine o Aparelho Elétrico

Nosso objetivo é ajudar você a se relacionar melhor com o trabalho, a realizar seus projetos, e a fechar grandes negócios na área criativa.

O acesso vale por um ano.
   Via PayPal

Compartilhe ❤

Se você acha que esse conteúdo é útil, compartilhe ele nas suas redes sociais e ajude o Aparelho Elétrico a continuar publicando conteúdo relevante e gratuito.

Junte-se a mais de 3000 pessoas. Assine a Segue o Fio.

O melhor conteúdo sobre Trabalho e Negócios na Economia Criativa, toda sexta às 7h no seu e-mail.

Você ainda recebe a nossa planilha financeira como um presentão de boas vindas.
 Publicado em 08/05/2019 Atualizado em 09/05/2019
Giovanna Beltrão Jornalista. Mestra em Jornalismo. Especialista em Processos e Produtos Criativos. Trabalha com Comunicação desde 2007. Se interessa por cultura, tecnologia, viagens e gastronomia. Acha estranho escrever sobre si mesma na 3ª pessoa.
Participe da Conversa