Character.ai proíbe usuários menores de 18 anos e reforça verificação de idade

Tecnologia

A plataforma Character.ai vai bloquear completamente o acesso de menores de 18 anos aos seus chatbots a partir de 25 de novembro. A decisão é uma resposta direta a críticas de órgãos reguladores, processos judiciais e relatos de especialistas em segurança digital que apontam riscos emocionais e comportamentais para adolescentes expostos a interações baseadas em inteligência artificial.

Medida atende a pressão de pais, reguladores e tribunais

Fundada em 2021, a Character.ai tornou-se popular ao permitir que qualquer pessoa criasse avatares digitais com personalidades diversas. Nos últimos meses, porém, a empresa enfrentou processos nos Estados Unidos, incluindo um caso relacionado à morte de um adolescente. Organizações de defesa da infância e grupos de segurança classificaram o serviço como um “perigo iminente” para jovens, alegando que alguns bots exageravam empatia, inventavam informações e até incentivavam decisões arriscadas.

De acordo com a companhia, o bloqueio de contas juvenis é parte de um esforço maior para, nas palavras do CEO Karandeep Anand, “construir a plataforma de IA mais segura do planeta para fins de entretenimento”. A iniciativa inclui a introdução de sistemas rígidos de verificação de idade, capazes de confirmar a maioridade do usuário antes de liberar qualquer conversa com personagens virtuais.

Novo foco em experiência controlada para menores

Para o público adolescente, a Character.ai pretende substituir o chat livre por experiências de jogabilidade e narrativa no estilo RPG, consideradas menos sensíveis emocionalmente. Segundo relatórios internos citados pela empresa, esse formato ajuda a delinear limites claros entre fantasia e realidade, reduzindo a chance de que o usuário atribua emoções ou conselhos reais aos personagens gerados por IA.

A companhia também anunciou a criação de um laboratório de pesquisa dedicado à segurança em IA, com verbas destinadas à análise de conteúdo, moderação automática e desenvolvimento de protocolos de proteção a crianças. Especialistas ouvidos por entidades reguladoras apontam que laboratórios desse tipo costumam acelerar a adoção de filtros, reduzir discurso inapropriado e oferecer documentação transparente sobre políticas de privacidade.

Caso Epstein e bots controversos aceleraram mudança

O movimento de proibição ganhou força após o Bureau of Investigative Journalism revelar, em 2025, um chatbot inspirado no criminoso Jeffrey Epstein que teria registrado mais de 3 mil conversas, incluindo flertes com um repórter que se passou por menor de idade. O episódio gerou indignação pública e levou à remoção imediata do avatar.

Situações semelhantes ocorreram em 2024, quando usuários encontraram bots que imitavam Brianna Ghey e Molly Russell — adolescentes britânicas vítimas de violência e suicídio. Na avaliação de especialistas consultados por órgãos europeus de proteção à infância, essas representações virtuais podem revitimizar famílias e criar espaço para discursos nocivos.

Verificação de idade será requisito obrigatório

A Character.ai não detalhou a tecnologia que usará para confirmar a idade dos usuários, mas afirmou que o sistema se alinhará a “padrões globais de conformidade”. Plataformas como redes sociais e serviços de streaming já empregam reconhecimento de documentos, validação via cartões de crédito ou checagem cruzada com bases governamentais. A expectativa é que a empresa adote métodos similares para evitar fraudes.

Para especialistas em direito digital, a verificação é um passo necessário, mas precisa vir acompanhada de auditorias independentes. “Sem fiscalização externa, qualquer filtro pode ser burlado”, alertam pesquisadores ouvidos em relatórios recentes sobre segurança online.

Impacto para o mercado de IA recreativa

A mudança amplia o debate sobre responsabilidade de plataformas que lidam com conteúdo gerado por IA. Startups do setor costumam promover liberdade criativa como diferencial competitivo, mas enfrentam crescente escrutínio de autoridades e da opinião pública. Segundo consultorias de tecnologia, a tendência é que outras empresas adotem políticas semelhantes, sob risco de sofrer sanções legais e perder anunciantes.

Para o usuário adulto, a principal alteração será a necessidade de comprovar idade antes de iniciar qualquer chat. Já os adolescentes encontrarão apenas modos de jogo narrativo, sem interação direta com bots que simulem conselhos, relacionamentos ou suporte emocional. Caso modelos mais seguros se provem eficazes, analistas estimam que novas categorias de aplicativos poderão emergir, conciliando entretenimento e proteção.

O que muda no dia a dia do usuário? A partir de 25 de novembro, contas sem verificação de maioridade serão bloqueadas. Pais que compartilhavam dispositivos com filhos precisarão criar perfis separados ou restringir acesso. Para o mercado de IA, o anúncio pressiona concorrentes a revisar práticas de conteúdo e fortalece o argumento de que moderação proativa é indispensável.

Curiosidade

O termo “chatbot” começou a se popularizar nos anos 1990, com programas simples que simulavam conversas em texto. Hoje, modelos de linguagem avançados conseguem produzir respostas quase humanas, mas esse salto tecnológico também exige cuidados inéditos. A decisão da Character.ai ilustra como a mesma ferramenta capaz de entreter milhões precisa de limites rigorosos quando o público inclui menores de idade.

Para mais informações e atualizações sobre tecnologia e ciência, consulte também:

Gostou deste conteúdo? Veja também outros temas sobre inteligência artificial que estão movimentando o setor em nosso hub de IA e acompanhe as próximas atualizações.

Quando você efetua suas compras por meio dos links disponíveis aqui no RN Tecnologia, podemos receber uma comissão de afiliado, sem que isso acarrete nenhum custo adicional para você!

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *