OpenAI e Anthropic revelam riscos de segurança em testes de IA
- Cauã Costa
- 30 de set.
- 1 min de leitura

Recentes testes conduzidos pelas empresas OpenAI e Anthropic evidenciaram riscos significativos associados ao uso de modelos de inteligência artificial, mesmo após melhorias nos algoritmos de raciocínio e mitigação de erros. As avaliações demonstraram que, em determinadas situações, os modelos podem ser manipulados por técnicas de “jailbreak” ou explorados de formas não previstas, expondo vulnerabilidades críticas.
Segundo os pesquisadores, os resultados reforçam a importância de protocolos rigorosos de segurança e governança na implementação de IA, incluindo limites de acesso, monitoramento contínuo e avaliações constantes de riscos. A parceria também destacou que, embora os algoritmos tenham se tornado mais sofisticados, a possibilidade de uso indevido permanece real, exigindo cautela tanto de desenvolvedores quanto de empresas que adotam essas tecnologias.
Especialistas em IA afirmam que essas descobertas devem incentivar a criação de diretrizes internacionais e práticas de compliance, garantindo que modelos avançados sejam utilizados de forma ética e segura, sem comprometer informações sensíveis ou causar danos não intencionais. O estudo reforça o alerta sobre a responsabilidade corporativa e regulatória no cenário de expansão acelerada da inteligência artificial.





