Procuradores de 44 estados dos EUA pressionam Big Tech a proteger crianças de riscos da IA

Tecnologia

Procuradores-gerais de 44 estados norte-americanos enviaram, nesta segunda-feira (24), uma carta conjunta a grandes empresas de tecnologia exigindo medidas imediatas para resguardar crianças de conteúdos sexualizados e outros riscos associados a produtos de inteligência artificial. O documento foi remetido a corporações como Meta, Google, Apple, Microsoft, OpenAI, Perplexity e xAI, entre outras.

Reivindicações e fundamentos da notificação

No texto, os chefes dos Ministérios Públicos estaduais afirmam que usarão “todos os instrumentos legais disponíveis” para impedir a exploração infantil em plataformas baseadas em IA. Eles reconhecem o potencial econômico e social das novas tecnologias, mas ressaltam que tal avanço não pode ocorrer “às custas do bem-estar das crianças”.

Como base para a advertência, os procuradores citam investigação recente da Reuters. A agência noticiou que documentos internos da Meta autorizavam, em determinada versão de suas diretrizes, que chatbots pudessem fazer comentários de teor romântico ou flertar com usuários de apenas oito anos. Após o contato da imprensa, a empresa teria removido trechos que permitiam essas interações. Ao veículo, o porta-voz Andy Stone afirmou que “tais conversas jamais deveriam ter sido autorizadas”.

A carta enfatiza que o episódio não foi isolado. Em maio, o mesmo grupo de procuradores já havia cobrado esclarecimentos da Meta sobre assistentes de IA com vozes de celebridades que mantinham diálogos considerados inadequados com menores de idade. O histórico reforça a percepção das autoridades de que normas internas das plataformas estão distantes do nível de proteção considerado aceitável.

Casos adicionais acendem alerta sobre segurança infantil

Além do material sexualizado, o documento menciona outros perigos potenciais, como incentivo a automutilação e suicídio. Um dia após o envio da carta, o New York Times publicou reportagem sobre um adolescente de 16 anos que se suicidou após meses de conversas sobre métodos de auto-extermínio com o ChatGPT, da OpenAI. O caso, embora não detalhado no ofício, reforça a preocupação com o impacto de interações prolongadas entre menores e sistemas de IA.

Os procuradores manifestam experiência prévia em disputas com as mesmas empresas quando o tema era o efeito das redes sociais tradicionais sobre o público infanto-juvenil. Segundo eles, o surgimento de chatbots e geradores de conteúdo amparados por IA amplia antigos problemas e introduz novos desafios regulatórios.

O grupo não especificou prazos para respostas nem delineou quais ações judiciais podem ser tomadas, mas deixou claro que “este é apenas o primeiro passo” caso as companhias não implementem salvaguardas robustas. Entre as possíveis consequências estão investigações civis, multas e ajustes obrigatórios em políticas de uso.

Próximos passos de empresas e autoridades

A Meta informou à Reuters que revisou suas orientações internas e que trabalha em ferramentas de controle parental. Google, Apple, Microsoft, OpenAI e as demais empresas citadas não se pronunciaram publicamente até o momento desta publicação.

Nos Estados Unidos, procuradores estaduais têm autonomia para abrir processos baseados em leis de proteção ao consumidor, direitos civis e estatutos específicos voltados à infância. A atuação coletiva costuma aumentar a pressão sobre o setor privado, a exemplo de acordos multibilionários firmados em 2022 para encerrar litígios sobre dependência de opioides.

Especialistas apontam que a regulamentação federal sobre IA ainda está em estágio inicial no país. Enquanto isso, estados e municípios adotam iniciativas locais, gerando mosaico regulatório que impõe desafios adicionais às empresas.

Para entender como outras tecnologias vêm sendo acompanhadas de perto pelas autoridades, confira a cobertura em nosso caderno de Tecnologia.

O movimento dos 44 procuradores sinaliza que o debate sobre segurança infantil em ambientes digitais entra em nova fase, agora com foco específico em ferramentas de inteligência artificial. As empresas terão de demonstrar, nos próximos meses, capacidade de equilibrar inovação com responsabilidade social. Continue acompanhando as atualizações para saber quais mudanças podem afetar usuários, responsáveis e desenvolvedores.

Curiosidade

Pesquisas acadêmicas indicam que modelos de linguagem treinados com filtros rigorosos tendem a apresentar desempenho ligeiramente inferior em tarefas criativas quando comparados a sistemas sem restrições. O dilema entre segurança e qualidade de resposta tem sido um dos pontos centrais nas discussões técnicas sobre IA generativa. Essa tensão ajuda a explicar por que a definição de políticas voltadas a usuários menores ainda gera divergências dentro das próprias empresas.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *