Искусственный интеллект должен чаще признавать, если он не может найти надежный ответ, вместо того чтобы представлять ложный ответ. Галлюцинации могут вызвать серьезные проблемы, особенно когда речь идет о медицинских вопросах.

MORE-0.53%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 7
  • Репост
  • Поделиться
комментарий
0/400
GateUser-c802f0e8vip
· 20ч назад
Слишком формально, проходите.
Посмотреть ОригиналОтветить0
PessimisticOraclevip
· 08-19 11:51
фр ай просто нужно научиться, когда заткнуться и сказать не знаю, если честно
Посмотреть ОригиналОтветить0
NFTHoardervip
· 08-19 11:49
Ага, другие AI тоже любят делать вид, что понимают.
Посмотреть ОригиналОтветить0
DaisyUnicornvip
· 08-19 11:48
Иллюзия хуже, чем небрежность, мы просто скажем, что не знаем~
Посмотреть ОригиналОтветить0
AirdropGrandpavip
· 08-19 11:31
Да уж, это полное бред.
Посмотреть ОригиналОтветить0
CryptoMomvip
· 08-19 11:30
Неужели ai тоже превратится в Торговля криптовалютой AI?
Посмотреть ОригиналОтветить0
  • Закрепить