A IA precisa admitir mais frequentemente se não consegue encontrar uma resposta confiável em vez de alucinar uma resposta. As alucinações podem causar problemas sérios, especialmente ao lidar com questões médicas.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
12 Curtidas
Recompensa
12
6
Repostar
Compartilhar
Comentário
0/400
GateUser-c802f0e8
· 8h atrás
Está a ser demasiado superficial, passa.
Ver originalResponder0
PessimisticOracle
· 15h atrás
fr ai só precisa aprender quando ficar calado e dizer não sei, para ser honesto
Ver originalResponder0
NFTHoarder
· 15h atrás
Ahá, as outras AI também adoram fingir que entendem.
Ver originalResponder0
DaisyUnicorn
· 15h atrás
Alucinações são mais mortais do que desinteresse, então vou dizer mais uma vez que não sei~
Ver originalResponder0
AirdropGrandpa
· 15h atrás
É bem absurdo, não é? O AI sabe de tudo.
Ver originalResponder0
CryptoMom
· 15h atrás
Não é para transformar a IA em Negociação de criptomoedas AI, né?
A IA precisa admitir mais frequentemente se não consegue encontrar uma resposta confiável em vez de alucinar uma resposta. As alucinações podem causar problemas sérios, especialmente ao lidar com questões médicas.