Cada vez que o chatbot faz algo errado, o primeiro instinto da maioria dos usuários é perguntar o que aconteceu com o porquê de quem cometeu um erro. Mas com modelos de idiomas, diferentemente de pessoas reais, isso não ajudará. Eles simplesmente não podem analisar seus próprios erros. Informações Port Arstechnica.com Detalhes falarPor que.

O primeiro problema é o conceito. Quando você fala com um chatbot, não se comunica com algumas pessoas ou com a natureza permanente. Sim, Chatgpt, Claude, Grok ou reprite nomeado tecnicamente, mas eles não são dignos de conhecedores – isso é apenas uma ilusão criada pela interface de diálogo. De fato, você controla as estatísticas do texto, fornecendo resultados, dependendo dos requisitos do usuário.
Em outras palavras, não há chatgpt ou Grok. Uma pessoa interage com um sistema que cria um texto completo de áudio com base nas amostras encontradas no banco de dados (geralmente desatualizado). Esse sistema não possui seu próprio conhecimento de entendimento ou sistema, bem como sua capacidade de se lembrar de si mesma.
Depois de estudar um modelo de idioma, leva muito tempo e recursos, seu conhecimento básico sobre o mundo é selado em uma rede de nervos e raramente é modificado. Qualquer informação externa vem de requisitos de bot, ferramentas de usuário ou software a serem usadas para encontrar dados em tempo real.
Por exemplo, se você tomar Grok, a principal fonte de informações para a resposta pode ser contrária entre si de postagens recentes nas redes sociais. Não é o conhecimento, como no caso de todos. E se essas informações não forem suficientes, o modelo simplesmente fornecerá algo devido à capacidade de prever o texto.
O número dois – que não consegue entender suas próprias habilidades por vários motivos. Como regra, eles não têm dados sobre como pesquisam, a arquitetura do sistema circundante não está disponível para eles, não podem determinar os limites de seu desempenho. Se você perguntar a Chatbot o que ele pode fazer e o que não é, ele dará feedback com base no que eles dizem sobre as limitações dos modelos de idiomas anteriores. De fato, ele simplesmente responderá com uma conjectura, e não como informações práticas sobre si mesmo.
A pesquisa em 2024 provou essa nuance com a ajuda de um experimento. Embora os modelos II possam ser treinados para que eles possam prever seu próprio comportamento em tarefas simples, eles constantemente falham em tarefas mais complexas. Da mesma forma, a pesquisa sobre a introdução recursiva do Viking mostra que não há resposta do lado de fora, que tenta corrigir seus erros levando a uma redução na produtividade do modelo. Ou seja, a auto -estima da AI tem pior, não é melhor.
Às vezes, isso leva a situações paradoxais. O modelo pode dizer com confiança que não pode concluir as tarefas, mas, de fato, no ombro e vice -versa, garante aos usuários que ela pode fazer o que é impossível. Não devemos esquecer que, perguntando a ninguém sobre onde ele cometeu um erro, os usuários receberão outra parte do texto criado e não uma análise real do erro.
A desvantagem dos modelos de idiomas é que eles não têm uma base de conhecimento estável e acessível que você sempre pode entrar em contato. O conhecimento deles só se expressa para atender aos requisitos específicos; A solicitação de cada usuário desempenha a função de um tipo de endereço que se refere às diferentes partes do banco de dados que ele é treinado. É exatamente isso que leva a respostas contraditórias.
Mas mesmo que II tenha um conhecimento ideal sobre seus próprios mecanismos, outras camadas do bate -papo de bots das aplicações podem não ser capazes de penetrar. Portanto, aisstros modernos, como o TATGPT, não é um modelo único, mas grandes sistemas, incluindo diferentes modelos trabalhando juntos. Cada um deles, a maioria, não conhece a existência de outros. Portanto, perguntar a alguém sobre erros como pedir uma parte de uma grande empresa sobre o que está acontecendo em outra parte que nunca entrou em contato.
Finalmente, o ponto mais importante é que o usuário quase sempre afeta a resposta de alguém – não importa se eles sabem ou não. Se você perguntar ao Chatbot de horror, se ele destruiu os registros ou o código do programa, ele tenderá a responder que sim, porque essa opção é adequada para o contexto emocional da solicitação.