O Facebook ensaia a manipulação de mentes
Sem
consentimento dos usuários, rede testa meios de torná-los “felizes” ou
“coléricos” e desencadeia onda de temor sobre controle social e político
Ele já sabe
se você está solteiro ou em um relacionamento; a primeira escola onde estudou;
se ama ou odeia Justin Bieber. Mas agora o Facebook, a maior rede social do
mundo, está enfrentando uma tempestade de protestos ao se revelar que descobriu
como fazer usuários se sentirem mais tristes ou felizes, com apenas alguns
toques no teclado.
O Facebook
acaba de publicar detalhes de um amplo expermiento, no qual manipulou
informações postadas nas páginas de 689 mil usuários, e descobriu que poderia
fazê-los sentir-se mais positivos ou negativos, por meio de um processo de
“contágio emocional”.
Em um
estudo [leia o
relatório] com acadêmicos da Universidade de
Cornell e da Universidade
da Califórnia, o Facebook filtrou o feed de notícias de usuários — a
corrente de comentários, vídeos, imagens e links postados por outras pessoas em
sua rede social. Um teste reduziu a exposição de usuários ao “conteúdo
emocional positivo” de seus amigos. Em consequência, os usuários submetidos a
este conteúdo manipulado também postavam menos posts positivos. Outro teste
reduziu a exposição a “conteúdo emocional negativo”: os usuários reagiram de
maneira oposta à do primeiro grupo.
O estudo
concluiu: “Emoções expressas por amigos, via redes sociais, influenciam nossos
próprios humores, constituindo, segundo sabemos, a primeira evidência
experimental de contágio emocional em escala maciça, via redes sociais.”
Advogados, ativistas que debatem
o futuro da internet e políticos afirmaram, neste final de semana, que o
experimento de massa sobre manipulação emocional era “escandaloso”,
“assustador” e “incômodo”.
Na noite de
domingo, um membro experiente do Parlamento Britânico pediu uma investigação
parlamentar sobre como o Facebook e outras redes sociais manipularam respostas
emocionais e psicológicas de seus usuários, ao editar informações oferecidas a
eles.
Jim Sheridan,
um membro do comitê de mídia da Câmara dos Comuns britânica, disse que o
experimento era intrusivo. “Trata-se de algo extraordinariamente poderoso, e se
ainda não há uma legislação para isso, deveria haver, para proteger as
pessoas”, disse. “Estão manipulando informações da vida pessoal de seres
humanos, e me preocupa a capacidade do Facebook e de outros para manipular os
pensamentos relacionados a política ou outras áreas. Se as pessoas estão sendo
controladas dessa maneira, segundo o que pensam, é necessário que haja uma
proteção, e elas precisam ao menos ter consciência disso.”
Uma
porta-voz do Facebook disse que a pesquisa, publicada
este mês na revista de Procedimentos da Academia Nacional de Ciências dos EUA,
foi realizada para “melhorar nossos serviços e tornar o conteúdo que os
usuários veem no Facebook o mais relevante e envolvente possível”.
Ela
acrescentou: “Uma grande razão da pesquisa é entender como as pessoas respondem
a tipos diferentes de conteúdo, seja em um tom positivo ou negativo, notícias
de amigos, ou informações sobre as páginas que seguem.”
Mas alguns
outros comentaristas expressaram receio de que o processo poderia ser usado
para propósitos políticos em disputas eleitorais ou para encorajar internautas
a se manterem focados no site, alimentando-os com pensamentos felizes, e
permitindo bombar as receitas de publicidade do próprio Facebook.
Em uma série de posts no
Twitter, Clay Johnson, o co-fundador da Blue State Digital, a empresa que
construiu e gerenciou a campanha online de Barack Obama à presidência em 2008, disse: “O
experimento do Facebook de ‘trasmissão de raiva’ é aterrorizante.”
Ele
pergunta: “A CIA poderia iniciar uma revolução no Sudão pressionando o Facebook
a promover descontentamento? Isso seria legal? Mark Zuckerberg poderia virar o
resultado de uma eleição ao promover posts do Upworthy
[um site que agrega conteúdo viral] duas semanas antes de os cidadãos irem às
urnas? Isso seria legal?”
Alega-se
também que o Facebook possa ter quebrado normas éticas e legais, ao não
informar seus usuários que estavam sendo manipulados no experimento, realizado
em 2012.
A rede
afirmou que alterar o feed de notícias foi “consistente com a política de uso
de dados do Facebook, com a qual usuários devem concordar antes de criar uma
conta no Facebook, constituindo consentimento informado para esta pesquisa”.
Mas Susan
Fiske, acadêmica de Princeton que editou o estudo, disse estar preocupada. “As
pessoas devem ser avisadas quando vão participar de estudos e concordar com
isso, além de terem a opção de discordar sem serem penalizadas.”
James
Grimmelmann, professor de Direito da Maryland University, disse que o Facebook
não obteve “consentimento informado”, segundo os padros definidos pela política
federal dos EUA para a proteção da subjetividade das pessoas. A lei demanda
explicação sobre os propósitos da pesquisa e a duração estimada de participação
do indivíduo, uma descrição de quaisquer riscos razoavelmente previsíveis e uma
confirmação de que o envolvimento é voluntário. “Este estudo é um escândalo porque
trouxe as práticas problemáticas do Facebook a um reino — a academia — onde
ainda temos como padrão tratar pessoas com dignidade e servir ao bem comum”,
disse em seu
blog.
Não é
novidade para as empresas de internet usar algorítimos que selecionam o
conteúdo que mostram aos seus usuários. Jacob Silverman, autor do livro Terms
of Service: Social Media, Surveillance, and the Price of Constant Connection
(em tradução livre, “Termos de serviço: mídias sociais, vigilância e o preço da
conexão constante”), disse
à revista Wired, no domingo, que a internet já é “uma coleção ampla de estudos
de pesquisa de mercado; nós somos os objetos”.
“O que é
perturbador sobre como o Facebook agiu sobre isso, entretanto, é que eles
essencialmente manipularam os sentimentos de centenas de milhares de usuários
sem pedir permissão”, disse. “As coisas com as quais o Facebook mais se importa
são as seguintes: envolvimento e publicidade. Se o Facebook, digamos, decide
que filtrar nossos posts negativos ajuda-o a manter as pessoas felizes e
clicando, há pouco motivo para pensar que eles não irão fazê-lo. Enquanto a
plataforma se mantiver na condição de um filtrador tão decisivo — e conservar
seus algorítimos completamente opacos — nós devemos ficar cautelosos com o
poder e confiança que delegamos a ele.”
Robert
Blackie, diretor digital da agência de marketing Ogilvy One, disse que a
maneira que as empresas de internet filtram informações que mostram a seus
usuários é fundamental para seus modelos de negócio, o que as faz relutantes
para abri-los.
“Para
garantir aceitação continuada de público, estas empresas terão que rediscutir
tal questão de maneira mais aberta no futuro”, ele disse. “Será preciso
introduzir ou críticos independentes, capazes de analisar o que elas fazem, ou
regulação governamental. Se o Facebook e similares não compreenderem isso, as
pessoas ficarão relutantes ao utilizar seus serviços, o que é potencialmente um
grande problema de negócios.”
The
Guardian | Tradução: Gabriela Leite
Fonte: http://outraspalavras.net/
Nenhum comentário:
Postar um comentário