TECNOLOGIA

Programa de vigilância quer estudar perfis do Facebook para prever quem vai cometer crimes

A startup norte-americana Voyager Labs desenvolveu um programa à lá Minority Report que promete avaliar, descobrir e, sobretudo, prever quais tipos de perfis no Facebook são mais suscetíveis a cometerem crimes.

A empresa é mais uma de uma tendência de movimentos empresariais recentes nos Estados Unidos que querem usar redes sociais como mapeamento criminológico, ajudando a polícia ao reconstruir a vida digital do indivíduo com base em todos os campos do perfil na rede de Zuckerberg. Segundo a Voyager Labs, seus algoritmos seriam capazes de “decifrar comportamento criminoso” com precisão, determinando se um indivíduo infringiu a lei, irá infringir ou, ainda, se segue ideologias que o levariam a fazê-lo.

Se você desconfia que algo nessa proposta poderia estar errado, tal como no filme de Steven Spielberg, bem, achou certíssimo: documentos de operação da empresa, obtidos pelo Brennan Center for Justice, revelam que os métodos da Voyager Labs fazem asserções anti-éticas e preconceituosas.

O sistema avalia, por exemplo, sobrenomes árabes no Instagram ou contas que mencionem orgulho árabe com maior predisposição a “extremismos”. Outras táticas de obtenção de informações sensíveis envolviam manipulação de vítimas através da imersão de perfis falsos em grupos privados.

Ferramentas apresentam pouco sucesso em prever crimes

Não é a primeira vez que um software tenta utilizar dados, como as informações do Facebook, para prever as chances de ocorrência de crimes. Programas como o PredPol, MediaSonar e Dataminr foram adotados anteriormente pelo Departamento de Polícia de Los Angeles para efetuar funções similares, numa tentativa de prevenção criminológica.

No entanto, uma análise do The Guardian aponta que estes programas não apresentam aumentos na prevenção das ocorrências — o que, somado à pressão pública, resultou na desistência dos programas.

Com o Voyager Labs, o sistema funcionava com “culpa por associação”: o algoritmo avaliava posts, comentários, conexões e até emojis para cruzamento de referências com informações não públicas. Esta “topografia pessoal” avalia as pessoas que mais interagem com a pessoa e as publicações para estabelecer outros possíveis perpetradores, criando um sistema de “culpa por associação”.

Meredith Broussard, professora da Universidade de New York, afirmou em entrevista ao The Guardian que o sistema funciona de maneira muito similar a anúncios de publicidade digital — que já enquadram os grupos por “afinidades”. Porém, usando um sistema pouco sofisticado para a previsão de algo grave.

“Então, ao invés de agrupar pessoas em baldes, como ‘donos de animais’, o que a Voyager parece estar fazendo é colocar pessoas em ‘baldes’ de possíveis criminosos”, ela conclui.




COMENTÁRIOS







VEJA TAMBÉM



TECNOLOGIA  |   01/12/2021 06h26





TECNOLOGIA  |   25/11/2021 10h49


TECNOLOGIA  |   25/11/2021 10h23