Na Meta, IA será encarregada da avaliação de conteúdo de risco

De acordo com a NPR, documentos vazados da big tech indica que até 90% das avaliações serão automatizadas, substituindo necessidade de checagem por colaboradores

A Meta usará a inteligência artificial (IA) para realizar avaliações de risco no Instagram e Facebook.
As informações estão contidas em documentos obtidos pela publicação norte-americana National Public Radio (NPR). Os documentos indicam que a big tech pretende automatizar, por meio da tecnologia, até 90% das avaliações, incluindo a própria segurança de IA, presença de adolescentes nas redes e uma categoria específica que trata de conteúdo violento e disseminação de conteúdo falso.
A diretriz será determinante para acelerar atualizações em algoritmos, implantação de novos recursos e segurança, bem como regras de compartilhamento de conteúdo, uma vez que dispensará quase que por completo a necessidade de checagem por humanos.
Ainda que a automatização seja mais rápida e até menos custosa, pode ter impactos dada a avaliações menos rigorosas e sem oposição, conforme indicou um ex-funcionário da Meta ao portal NPR em anonimato.
Na prática, colaboradores preenchem um formulário sore produto, e a IA fica encarregada da análise de risco e liberação do serviço de forma instantânea. Então, cabe à equipe de produto a checagem sobre o cumprimento dos requisitos apontados pela tecnologia. Apesar disso, a conferência por humanos não deverá ser padrãocomo acontecia antes segundo os procedimentos da big tech.
A reportagem de Meio & Mensagem entrou em contato com a Meta no Brasil e obteve a seguinte resposta: “Nós investimos mais de US$ 8 bilhões em nosso programa de privacidade, integrando a avaliação e a mitigação de riscos no desenvolvimento de produtos. Conforme os riscos evoluem e nosso programa se desenvolve, aprimoramos nossos processos para melhor identificar os riscos, simplificar a tomada de decisões e melhorar a experiência das pessoas. Nós usamos tecnologia para tornar as decisões de baixo risco mais consistentes e previsíveis e contamos com a expertise humana para avaliações criteriosas e supervisão de questões novas ou complexas. Nos comprometemos a entregar produtos inovadores enquanto cumprimos nossas obrigações regulatórias”.
Em janeiro, a Meta já havia anunciado o fim da checagem de fatos, que realizava desde 2016 por meio de um programa de verificação. O mecanismo foi substituído pelas notas de comunidade, que já eram utilizadas em outras redes, como o X.
Além disso, nos últimos anos, a companhia de Mark Zuckerberg vem implementando recursos para buscar garantir a segurança de crianças e adolescentes em suas plataformas. Na última semana, a operação brasileira da gigante da tecnologia chegou a indicar a responsabilidade de lojas de apps sobre verificação de idade, com base em uma pesquisa realizada junto à Ipsos com pais de menores de 18 anos.
Fonte: Meio&Mensagem