CEO da OpenAI admite avanço de bots e reacende teoria da “internet morta”

Tecnologia

O diretor-executivo da OpenAI, Sam Altman, reconheceu publicamente a possibilidade de que a chamada “teoria da internet morta” não seja mera especulação. Em publicação recente na rede social X, o empresário afirmou que “parece haver realmente muitas contas operadas por modelos de linguagem” na plataforma, referindo-se aos sistemas que alimentam serviços como o ChatGPT.

O que diz a teoria e por que voltou ao debate

Formulada há alguns anos, a tese sustenta que a internet teria “morrido” por volta de 2016, passando a ser dominada por bots, conteúdos sintéticos e perfis automatizados. Embora rotulada como conspiratória, a ideia ganhou fôlego à medida que relatórios de empresas de cibersegurança apontam que uma parcela expressiva do tráfego digital já não é gerada por humanos. Segundo especialistas em análise de redes, ferramentas de inteligência artificial generativa facilitaram a produção massiva de textos, imagens e vídeos em poucos segundos, potencializando o cenário descrito pela teoria.

A declaração de Altman foi suficiente para reacender a discussão. Usuários lembraram que o próprio crescimento do ChatGPT, lançado em 2022, contribuiu para o aumento de conteúdos automatizados. Críticos também destacaram que a OpenAI, ao popularizar LLMs (Large Language Models), se tornou peça-chave na expansão dos bots que agora preocupam o executivo.

Repercussões imediatas e questionamentos sobre identidade

Minutos após o post de Altman, perfis no X acusaram o CEO de contradição. Para muitos, a empresa que encabeça a revolução da IA generativa não pode se eximir de responsabilidade pelo volume de contas automáticas. A situação reacendeu debates sobre a necessidade de mecanismos robustos de validação de identidade, sobretudo em redes sociais com elevado alcance.

Nesse contexto, observadores recordaram que Altman é cofundador da Worldcoin, iniciativa que utiliza o dispositivo Orb para escanear íris e criar um World ID. O projeto, apresentado como solução para diferenciar humanos de robôs, foi suspenso no Brasil em janeiro pela Autoridade Nacional de Proteção de Dados (ANPD). O órgão entendeu que o pagamento em criptomoedas aos participantes poderia ferir o princípio de consentimento livre, principalmente entre cidadãos vulneráveis.

Antes da decisão da ANPD, cerca de 400 mil brasileiros tiveram a íris capturada em São Paulo. Em troca, recebiam até R$ 750, valor depositado em moeda digital. Especialistas em privacidade criticam a prática, alegando que a coleta biométrica oferece riscos de uso indevido e de exposição de informações sensíveis.

Impactos para plataformas digitais e anunciantes

O reconhecimento de Altman de que “há muitas contas administradas por LLMs” acende alerta entre redes sociais, anunciantes e agências de notícias. Plataformas que dependem de tráfego orgânico podem ter métricas distorcidas pela presença de perfis artificiais, afetando campanhas de marketing e a credibilidade de indicadores de engajamento. Segundo dados oficiais do setor, fraudes em anúncios digitais geraram perdas superiores a US$ 35 bilhões em 2023.

Para empresas de segurança, a fala do CEO da OpenAI reforça a urgência de se adotar tecnologias de detecção de conteúdo sintético. Ferramentas que rastreiam padrões linguísticos atípicos e endereços IP suspeitos estão entre as soluções já em teste. No curto prazo, especialistas defendem a combinação de autenticação forte de usuários, transparência nos algoritmos de recomendação e regulamentação que incentive boas práticas.

A longo prazo, analistas do mercado de IA acreditam que a proliferação de bots sofisticados tende a acelerar pesquisas em autenticação biométrica, como assinatura facial, digital ou ocular. Entretanto, tais métodos exigem equilíbrio entre segurança, privacidade e inclusão, desafio que governos e empresas ainda não conseguiram resolver de forma satisfatória.

O que muda para o usuário comum

Para o público, a admissão de Altman serve como alerta sobre a veracidade de conteúdos consumidos diariamente. Mensagens compartilhadas em redes sociais, fóruns ou aplicativos de conversa podem ser geradas por algoritmos, dificultando a distinção entre informações confiáveis e manipulações. De acordo com estudos acadêmicos, a exposição contínua a postagens falsas ou automatizadas influi na formação de opinião pública e pode comprometer processos eleitorais.

No cotidiano, os especialistas recomendam práticas de verificação de fontes, análise crítica de URLs e uso de ferramentas de checagem de fatos. Além disso, orientam revisar periodicamente configurações de privacidade e limitar autorizações a aplicativos de terceiros, medida que reduz a coleta de dados usada para treinar novos modelos de IA.

Segundo consultores de cibersegurança, o principal impacto para o usuário será a necessidade de elevar o nível de literacia digital. Isso inclui entender como funcionam os modelos de linguagem, reconhecer padrões de repetição de texto e identificar links encurtados suspeitos. Com a evolução da IA, distinguir um perfil real de um bot exigirá mais atenção e talvez serviços pagos de verificação de identidade.

Curiosidade

Você sabia que o termo “bot” foi registrado pela primeira vez em 1989 para descrever agentes automatizados em redes de IRC? Hoje, sistemas equivalentes podem gerar milhões de posts em segundos, evidenciando a velocidade com que a automação evoluiu desde então e ilustrando o contexto que motivou Sam Altman a reconhecer a dimensão do problema.

Para mais informações e atualizações sobre tecnologia e ciência, consulte também:

Quer se aprofundar em outros temas de inovação? Confira a cobertura completa em nossa seção de tecnologia em https://remansonoticias.com.br/category/tecnologia/ e acompanhe como a inteligência artificial continua a transformar o cenário digital.

Quando você efetua suas compras por meio dos links disponíveis aqui no RN Tecnologia, podemos receber uma comissão de afiliado, sem que isso acarrete nenhum custo adicional para você!

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *