Algoritmo do Instagram impulsionou ‘vasta rede pedófila’, afirma relatório alarmante

Os algoritmos de recomendação do Instagram vinculavam e até promoviam uma “vasta rede pedófila” que anunciava a venda de “material sexual infantil” ilícito na plataforma, de acordo com as descobertas de um relatório alarmante na quarta-feira.

O Instagram permitia que os usuários pesquisassem por hashtags relacionadas ao abuso sexual infantil, incluindo termos gráficos como #pedowhore, #preteensex, #pedobait e #mnsfw – este último um acrônimo que significa “menores não são seguros para o trabalho”, pesquisadores da Universidade de Stanford e do Universidade de Massachusetts Amherst disse ao Wall Street Journal .

As hashtags direcionavam os usuários para contas que supostamente ofereciam a venda de materiais pedófilos por meio de “menus” de conteúdo, incluindo vídeos de crianças se machucando ou cometendo atos de bestialidade, disseram os pesquisadores.

Algumas contas permitiram que os compradores “comissionassem atos específicos” ou organizassem “encontros”, disse o Journal.

Quando procurado pelo The Post para comentar, um porta-voz da empresa-mãe do Instagram, Meta, disse que desde então restringiu o uso de “milhares de termos de pesquisa adicionais e hashtags no Instagram”.

O porta-voz acrescentou que a Meta está “explorando continuamente maneiras de se defender ativamente contra esse comportamento” e “estabeleceu uma força-tarefa interna para investigar essas reivindicações e resolvê-las imediatamente”.

“A exploração infantil é um crime horrível”, disse um porta-voz da Meta em um comunicado. “Trabalhamos agressivamente para combatê-lo dentro e fora de nossas plataformas e para apoiar a aplicação da lei em seus esforços para prender e processar os criminosos por trás disso”.

A Meta destacou seus extensos esforços de fiscalização relacionados à exploração infantil.

A empresa disse que desativou mais de 490.000 contas que violaram suas políticas de segurança infantil em janeiro e bloqueou mais de 29.000 dispositivos por violações de políticas entre 27 de maio e 2 de junho.

A Meta também derrubou 27 redes que espalhavam conteúdo abusivo em suas plataformas de 2020 a 2022.

O Journal observou que pesquisadores de Stanford e UMass Amherst descobriram “comunidades em larga escala que promovem abuso sexual criminoso” no Instagram.

Quando os pesquisadores criaram contas de teste para observar a rede, eles começaram a receber recomendações “sugeridas para você” para outras contas que supostamente promoviam a pedofilia ou vinculavam a sites externos.

“O fato de uma equipe de três acadêmicos com acesso limitado poder encontrar uma rede tão grande deveria disparar os alarmes na Meta”, disse Alex Stamos, chefe do Stanford Internet Observatory e ex-diretor de segurança da Meta, ao Journal.

Stamos pediu que a Meta “reinvestisse em investigadores humanos”.

A Meta disse que já contrata especialistas da aplicação da lei e colabora com especialistas em segurança infantil para garantir que seus métodos de combate à exploração infantil estejam atualizados.

Em outro desenvolvimento bizarro, o Journal observou que o algoritmo do Instagram já havia enviado aos usuários uma notificação pop-up avisando que certas pesquisas na plataforma produziriam resultados que “podem conter imagens de abuso sexual infantil”.

A tela supostamente direcionava os usuários a “obter recursos” sobre o tópico ou “ver os resultados de qualquer maneira”.

O relatório disse que o Meta desativou a opção que permite aos usuários visualizar os resultados de qualquer maneira, mas se recusou a revelar por que foi oferecido em primeiro lugar.

As conclusões do Journal foram divulgadas no momento em que a Meta e outras plataformas de mídia social enfrentam um escrutínio contínuo sobre seus esforços para policiar e impedir a disseminação de conteúdo abusivo em suas plataformas.

Em abril, um grupo de agências de aplicação da lei que incluía o FBI e a Interpol alertou que os planos da Meta de expandir a criptografia de ponta a ponta em suas plataformas poderiam efetivamente “vender” a empresa de detectar conteúdo nocivo relacionado ao abuso sexual infantil.

Fonte: Ny Post