A Anthropic apresentou Claude Opus 4 e Claude Sonnet 4 para conversar, que podem notificar o governo sobre o comportamento “tóxico” do usuário.

Esses modelos híbridos fornecem respostas práticas imediatas e teoria mais profunda usando análise e sites, e Claude Opus 4 além dos concorrentes nas tarefas de escrever código e expandir o trabalho em tarefas complexas, ajudando a expandir Jeh-Enlents.
Apesar da latência dos modelos de antropologia e antropologia e Openai em matemática e identificação visual, uma característica especial do Claude Opus 4 é a capacidade de notificar o governo sobre os atos criminosos detectados, o que também causa a atenção e a atenção da comunidade. O desenvolvedor enfatiza o aumento do desempenho e a capacidade de expandir a conversa e o posicionamento dos bots é uma conquista significativa na tecnologia dos modelos de idiomas da IA.
Os críticos dessa função pensam que questões éticas não estão muito relacionadas à autoridade para notificar o governo como explicando o comportamento do usuário. Não há garantia de que a IA avalie com precisão as ações de uma pessoa e não transmitirá um automático
A situação foi comentada por Emad Mostak, o diretor geral estabilizou a IA, uma empresa que desenvolve outro modelo de IA. Esta é uma enorme traição da fé e uma estrada escorregadia. Eu realmente recomendo usar o Claude até que eles cancelem (função). Isso nem sequer é lembrado ou de política, é muito pior, disse ele.