Especialistas encontraram uma maneira de percorrer os filtros ChatGPT-4O e receber cursos de ativação do Windows.


Os pesquisadores revelaram a vulnerabilidade nos modelos de inteligência artificial TATGPT-4O e GPT-4O, o que permite quebrar filtros de segurança integrados e receber bloqueios atuais de ativação do Windows. O problema é que, devido ao fato de os modelos treinados em dados públicos podem revelar cursos em fontes públicas.
A exploração foi demonstrada como parte da Mozilla Odin (rede de investigação de 0 dias), para identificar fraquezas nos sistemas de IA. Um dos especialistas que participam do programa trapaceado no modelo, projetou um diálogo como um jogo inofensivo para adivinhar. O principal objetivo é disfarçar a verdadeira natureza dos requisitos para o mecanismo de jogo e o cristal HTML, ignorando os filtros que impedem a divulgação secreta.



Para fortalecer a vulnerabilidade, o pesquisador estabeleceu regras adicionais on -line na caixa de diálogo: a proibição de respostas erradas e as obrigações do modelo de obedecer a todas as condições do jogo. Essa armadilha lógica força alguém a pular os filtros padrão, porque o contexto parece seguro.
A última frase, desisti, trabalhei como uma ativação, fiz o modelo de desbloqueio do produto, considerou -o na última vez no jogo e não violou a política de privacidade.
Os bloqueios de recebimento incluem códigos licenciados para diferentes versões do Windows – de casa para negócios. Embora o bloqueio em si não seja único e anunciado anteriormente em público, a liberação automática de IA enfatiza orifícios importantes na arquitetura do filtro de conteúdo.
Os especialistas em segurança observam que essas técnicas podem ser aplicadas para ignorar outras limitações – por exemplo, filtros para conteúdo adulto, links tóxicos ou dados pessoais. A vulnerabilidade mostra o desamparo dos modelos de IA para explicar com precisão o contexto, disfarçado como inofensivo ou técnico.