Халюцинациите на изкуствения интелект представляват "пряка заплаха" за науката
Големите езикови модели (LLM) - като тези, използвани в чатботовете - имат тревожна склонност да халюцинират. Тоест, да генерират фалшиво съдържание, което представят като точно. Тези халюцинации на изкуствения интелект представляват, наред с други рискове, пряка заплаха за науката и научната истина, предупреждават изследователи от Оксфордския интернет институт.
Според тяхната статия, публикувана в Nature Human Behaviour, "LLMs са проектирани да създават полезни и убедителни отговори без никакви първостепенни гаранции относно тяхната точност или съответствие с фактите".
Понастоящем LLM се третират като източници на знания и генерират информация в отговор на въпроси или подкани. Но данните, върху които са обучени, не са непременно фактически верни. Една от причините за това е, че тези модели често използват онлайн източници, които могат да съдържат неверни твърдения, мнения и неточна информация.
"Хората, които използват LLM, често антропоморфизират технологията, при което ѝ се доверяват като на източник на информация, подобен на човека", обяснява професор Брент Мителщадт, съавтор на статията.
"Това отчасти се дължи на дизайна на LLM като полезни, човешки звучащи агенти, които разговарят с потребителите и отговарят на всеки въпрос с уверено звучащ, добре написан текст. Резултатът от това е, че потребителите лесно могат да бъдат убедени, че отговорите са точни, дори когато те нямат никаква основа в действителност или представят пристрастна или частична версия на истината."
Когато става въпрос за наука и образование, точността на информацията е от жизненоважно значение и изследователите призовават научната общност да използва LLM като "преводачи с нулев резултат". Това означава, че потребителите трябва да предоставят на модела съответните данни и да поискат да ги трансформира в заключение или код, например - вместо да разчитат на самия модел като източник на знания.
Ключови думи
|
|
Коментари
Няма въведени кометари.