top of page

Character.AI proíbe acesso a menores de 18 anos após preocupações com segurança e uso indevido de chatbots

ree

A plataforma Character.AI, uma das mais populares no segmento de inteligência artificial conversacional, anunciou nesta quarta-feira (30) uma mudança drástica em sua política de uso, proibindo o acesso a menores de 18 anos. A decisão ocorre após uma série de debates sobre segurança digital, privacidade de dados e riscos de interação entre jovens e sistemas de IA não supervisionados.


O aplicativo, conhecido por permitir que usuários criem e interajam com personagens virtuais baseados em personalidades reais ou fictícias, ganhou popularidade global desde 2023. No entanto, o aumento do número de adolescentes utilizando a plataforma para criar diálogos de natureza sensível incluindo conteúdo sexual, violento ou emocionalmente manipulador gerou alertas de especialistas em segurança digital e pressão de órgãos reguladores nos Estados Unidos e na Europa.


Em comunicado oficial, a empresa declarou que a nova restrição “visa proteger menores de idade de experiências potencialmente inadequadas e garantir um ambiente mais ético e responsável no uso da IA generativa”. A atualização de termos e políticas de uso já entrou em vigor, exigindo que os usuários confirmem sua idade e concordem com novas cláusulas de privacidade antes de continuar acessando o serviço.


A Character.AI, fundada por ex-engenheiros do Google, enfatizou que o bloqueio de menores faz parte de um conjunto de medidas mais amplas voltadas à conformidade com legislações internacionais de proteção de dados, como o Children’s Online Privacy Protection Act (COPPA), nos Estados Unidos, e o Regulamento Geral de Proteção de Dados (GDPR), na Europa. A empresa também anunciou investimentos em tecnologias de detecção de uso indevido e em novos mecanismos de verificação de idade.


Especialistas em segurança digital avaliam a decisão como um avanço necessário diante do rápido crescimento de plataformas baseadas em inteligência artificial. Para a pesquisadora em ética e tecnologia Carla Figueiredo, da Universidade de São Paulo, “a fronteira entre entretenimento e interação emocional com IA é muito tênue. Jovens, em especial, podem não ter maturidade emocional para lidar com respostas automatizadas que simulam empatia humana”.


O caso reacende o debate global sobre os limites do uso da inteligência artificial em plataformas abertas, especialmente no contexto da educação e do lazer digital. Outras empresas, como Replika e ChatGPT, já enfrentaram questionamentos semelhantes, e podem adotar políticas semelhantes nas próximas atualizações. A tendência é que as companhias reforcem controles de idade e diretrizes éticas diante da crescente preocupação pública com os impactos psicológicos e sociais da IA.


bottom of page