- Галюцинації в ChatGPT виникають тому, що модель передбачає слова, не розуміє реальності та має тенденцію заповнювати прогалини, коли інформація є дефіцитною або неоднозначною.
- Правильне використання підказок з чітким контекстом, чіткими обмеженнями, запитами на джерела та визнанням невизначеності, очевидно, зменшує ймовірність сфабрикованих відповідей.
- Завжди перевіряти ключові дані за допомогою зовнішніх джерел та використовувати відповідні моделі, методи міркування та конфігурації є важливим, коли точність має вирішальне значення.
- Хоча галузь працює над новими методами навчання, кінцева відповідальність за виявлення помилок та перегляд отриманої інформації лежить на користувачеві.
The галюцинації в ChatGPT Вони стали однією з найбільш обговорюваних тем, коли ми говоримо про генеративний штучний інтелект, і вони з'являються в багатьох... Типові помилки ChatGPTЦе відповіді, які звучать дуже переконливо, написані впевненим тоном, але насправді містять неправдиві дані, вигадані цитати або непідтверджені висновки. Для когось, хто використовує це з цікавості, це може не мати великого значення, але для того, хто покладається на ШІ у своїй повсякденній роботі, це може стати справжнім головним болем.
Хоча сьогодні це неможливо повністю позбутися галюцинацій За допомогою мовної моделі ми можемо значно зменшити кількість цих помилок, поєднавши три речі: кращі підказки, належні практики перевірки та певні коригування використання кожної моделі. У цій статті ви детально побачите, що таке ці аномалії, чому вони виникають, що робить галузь (і зокрема OpenAI) для їх зменшення, і, перш за все, як ви можете змінити своє використання ChatGPT, щоб він допускав набагато менше помилок.
Що таке галюцинації в ChatGPT і чому вони виникають?
У контексті штучного інтелекту галюцинація – це коли модель, подібна до ChatGPT генерує невірну, вигадану або непідтверджену інформаціюАле це написано так природно, що здається правдивим. Воно не обмежується однією помилкою в номері; іноді воно складається з цілих абзаців, містить прямі цитати, назви досліджень або аргументи, яких немає в жодному надійному джерелі.
Це відбувається тому, що ChatGPT, як і інші основні мовні моделі, Він не розуміє світ так, як ти.Він не міркує та не перевіряє факти в базі даних реального часу; натомість він обчислює, яке слово, найімовірніше, слідує за попереднім, на основі шаблонів, вивчених під час навчання. По суті, це надзвичайно складний інструмент для завершення тексту.
Коли запитання, яке ви ставите, добре узгоджується з тим, що вони бачили під час навчання, модель зазвичай відповідає правильно. Проблема виникає, коли ви їм його задаєте. дуже специфічна, рідкісна або погано представлена інформація у своїх навчальних даних. У таких ситуаціях він «змушений» заповнювати прогалини тим, що вважає найімовірнішою відповіддю, навіть якщо за цим немає жодних реальних фактів, які б це підтверджували.
Типовим прикладом є запит на пряма цитата конкретного автораЯкщо навчальні дані не містять саме цієї цитати, ви можете вигадати фразу, яка «звучить» як цитата цього автора, природно вказати її авторство та іноді визнати помилку лише тоді, коли користувач наполягає. Те саме стосується дат, цифр, власних імен або посилань на академічні статті — областей, особливо схильних до галюцинацій.
Існує також ще один важливий фактор: багато моделей навчені завжди давати відповідьВідкрите визнання відповіді «Я не знаю» історично не було пріоритетом у їхньому навчанні, тому вони схильні заповнювати інформацію, навіть коли наявних у них даних недостатньо або вони неоднозначні.
Як ChatGPT працює внутрішньо (і що це означає для галюцинацій)
Щоб краще зрозуміти, чому ChatGPT викликає галюцинації, варто пам'ятати, що це... модель мови Його навчають на величезних обсягах тексту. Під час навчання він вивчає закономірності: які слова часто поєднуються, які структури речень є типовими в науковій статті, як формулюється новинний репортаж, як аргументується есе тощо.
Коли ви ставите йому запитання, ChatGPT не шукає в інтернеті (за винятком версій з увімкненим переглядом веб-сторінок), а натомість передбачає слово за словом Яким має бути наступний найімовірніший результат, виходячи з контексту, який ви йому надали? Ось чому, коли ви бачите, як він повільно друкує на екрані, він насправді завершує текст у режимі реального часу, не «думаючи», як це робить людина.
Це пояснює, чому він так добре імітує стилі, підсумовує тексти або генерує зв'язні відповіді на основі наданої вами документації, а також чому може зазнати вражаючої невдачі Коли ви запитуєте дані, що потребують високої точності, і якщо вони нечіткі на основі даних, модель має тенденцію «заповнювати», щоб не порушувати хід дискурсу.
Крім того, спосіб навчання ШІ має значний вплив. Традиційно пріоритет надавався створенню моделі. корисні та переконливі відповіді для користувачаІноді це суперечить суворій фактичній точності. Досягнення цього балансу є одним із головних викликів галузі на даний момент.
OpenAI та галузеві стратегії для зменшення галюцинацій
В останні роки з'явилася численні критичні зауваження щодо галюцинацій генеративного штучного інтелекту, починаючи від помилки під час публічних демонстрацій (як-от відомий випадок неправдивого твердження про космічний телескоп Джеймса Вебба) до вигаданих згадок, що використовуються в юридичному чи медійному контексті. Такий тип невдачі спонукав такі компанії, як OpenAI, переглянути те, як вони навчають та оцінюють свої моделі.
Один із напрямків роботи, який OpenAI зараз розробляє, відомий як «Контроль процесу»Замість того, щоб зосереджуватися виключно на тому, чи є остаточна відповідь правильною («моніторинг результатів»), модель оцінюється та винагороджується за різні етапи міркувань, яких вона дотримується, щоб дійти до цієї відповіді.
Ідея полягає в тому, що якщо ШІ винагороджується за обґрунтовувати прозоро та послідовноІ не лише тому, що остаточна відповідь добре підходить, але й тому, що зменшується ймовірність дійти хибних, але, здавалося б, обґрунтованих висновків. Це також дозволяє моделі краще пояснити виконані нею кроки, наближаючи її до людського «ланцюга міркувань».
Однак, є досить багато скептицизм у громаді від того, наскільки цей підхід може повністю усунути галюцинації. Експерти з питань конфіденційності та етики Вони просять надати більше деталей про дані та приклади, що використовуються в цих навчальних процесах, а також незалежні, рецензовані дослідження, які підтверджують результати.
Наразі OpenAI не встановив чіткої дати широкого впровадження цих методів у всіх своїх продуктах, але чітко дав зрозуміти, що зменшити неточності Це пріоритет. Тим часом практична відповідальність за його правильне використання значною мірою лежить на користувачеві.
Зміна поведінки: коли ChatGPT, здається, галюцинує частіше
Багато звичайних користувачів помітили, що з часом Здається, що ChatGPT галюцинує більше або по-іншому.Це особливо актуально під час роботи з довгими документами, академічними цитатами або дослідницькими завданнями. Типовим прикладом є дослідники, які завантажують десяток PDF-файлів і запитують резюме, визначення ключових тем і прямі цитати для підтвердження своїх висновків.
Постійна скарга полягає в тому, що коли його запитують прямі цитати з посиланнямМодель починає вигадувати. Навіть коли її виправляють і визнають помилку, вона генерує ще більше фальшивих цитат, а в деяких чатах вона ніби потрапляє у своєрідну «петлю галюцинацій», з якої її важко вирвати, не починаючи нову розмову.
Ще одна проблема, про яку часто згадують, – це вплив Покращена пам'ять та міжконтекстне вмінняКоли помічник згадує вподобання або теми, що обговорювалися в інших розмовах, він може почати змішувати поля без видимої причини: наприклад, вводячи концепції квантових обчислень під час відповіді на запитання про соціальні науки, просто тому, що користувач говорив про квантову фізику в іншому чаті.
Деякі люди вирішили спробуйте альтернативні інструменти спеціалізовані на аналізі документів, такі як системи, орієнтовані на читання PDF-файлів, як-от БлокнотLMПомітивши, що ChatGPT вигадує цитати, які звучать дуже правдоподібно, але їх не існує, модель залишається корисним інструментом для творчості, мозкового штурму або попереднього написання, але використовується з більшою обережністю для завдань, що вимагають академічної точності.
В екосистемі OpenAI також спостерігалися відмінності між моделями. Версії, орієнтовані на точніші міркування, такі як сімейство o3Вони, як правило, повільніші, але генерують менше помилок під час детального аналізу документів. Інші варіанти, такі як GPT-4o або легші моделі, дуже добре підходять для креативності та швидкості, але їх слід використовувати з обережністю, коли потрібні повністю перевірені дані.
Як мінімізувати галюцинації в ChatGPT за допомогою гарних підказок
Хоча дизайн моделі встановлює обмеження, спосіб, у який ви ставите запитання, має величезний вплив; персоналізація ChatGPT і вдосконалення підказок може значно зменшити ймовірність вигадок у ChatGPT або принаймні змусити його попереджати вас, коли в нього недостатньо інформації.
Один з ключових моментів полягає в тому, щоб забезпечити чіткий та конкретний контекстЧим розпливчастіша інструкція, тим більше місця модель має для припущень. Замість того, щоб запитувати: «Яка історія Мексики?», набагато краще уточнити: «Поясніть три основні причини початку незалежності Мексики, підтверджуючи свою відповідь визнаними історичними джерелами».
Це також дуже корисно обмежити обсяг інформаціїЯкщо ви дасте їм документ або набір текстів, скажіть їм, що їхня відповідь має ґрунтуватися виключно на цьому матеріалі: «Відповідайте лише на основі інформації, що міститься в цих статтях. Якщо в них чогось немає, скажіть, що у вас недостатньо даних». Це зменшує спокусу для моделі спиратися на нечіткі знання, отримані в результаті загальної підготовки.
Ще одна потужна стратегія — запитувати джерела або підтверджувати невизначеністьТакі фрази, як «Якщо ви не впевнені, прямо скажіть, що не знаєте» або «Не вигадуйте інформацію; якщо якісь дані відсутні, вкажіть це» спрямовують модель на пріоритет чесності над плавністю висловлювання. Хоча це й не є безпомилковим, зазвичай це знижує рівень відвертих вигадок.
Якщо у вас є доступ до API, ви можете поекспериментувати з температура моделіНизькі значення (близькі до 0) роблять результат більш консервативним і повторюваним, знижуючи рівень креативності та, отже, ризик галюцинацій. Ви не можете безпосередньо змінити цей параметр у веб-інтерфейсі, але можете попросити щось подібне за допомогою інструкцій на кшталт: «Відповідайте об’єктивно, без припущень та висловлення думок».
Рекомендації щодо виявлення та підтвердження можливих галюцинацій
Окрім покращення підказок, важливо запровадити певний розпорядок систематична перевіркаТі ж методи, які ми використовуємо для виявлення містифікацій в Інтернеті, можна використовувати для виявлення сумнівних відповідей ШІ.
Перша рекомендація майже ґрунтується на здоровому глузді, але варто її повторити: Завжди порівнюйте ключову інформацію з надійними зовнішніми джерелами. Якщо ChatGPT надає вам числові дані, дати, імена авторів або посилання на дослідження, перевірте їх на офіційних вебсайтах, в академічних базах даних, книгах або довідкових статтях; наприклад, зверніться до списків завдання, у яких ChatGPT не працює мати довідкові випадки.
Також дуже корисно попросити модель Покажіть свої міркування крок за крокомІнструкції на кшталт «Поясніть мені, як ви дійшли цього висновку, крок за кроком» дозволяють вам виявити логічні прогалини або невиправдані переходи. Якщо ви бачите, що «шлях» не має сенсу, відповідь, ймовірно, ґрунтується на галюцинації.
Поділ великих проблем на конкретні підпитання Це допомагає запобігти необхідності моделі охоплювати забагато контексту одночасно. Замість того, щоб ставити макрозапит щодо цілої галузі, спочатку запитайте про основні теорії, потім про ключових авторів, потім про емпіричні дані тощо. Таким чином, ви можете перевірити кожен блок незалежно.
У версіях ChatGPT з пошук в ІнтернетіЯк і у випадку з деякими способами оплати з увімкненою навігацією, варто вмикати цю функцію, коли вам потрібна актуальна інформація. Хоча це не усуває галюцинації, це зменшує ризик, оскільки модель спирається на реальні документи, а не виключно на статистичну пам’ять.
Цікавий трюк полягає в Повторіть ту саму підказку з невеликими варіаціямиЯкщо модель надає суперечливі відповіді на практично ідентичні запитання, це є вагомим свідченням того, що вона може створювати ненадійні результати або екстраполювати їх. У таких випадках доцільно провести ретельну зовнішню перевірку.
Зрештою, якщо ви використовуєте API або розширені конфігурації, визначте постійні системні інструкції, такі як: «Якщо ви не впевнені в якійсь інформації, дайте відповідь «У мене недостатньо інформації» та не намагайтеся вгадувати». Це не усуває проблему повністю, але встановлює суворіший стандарт чесності.
Конфігурації та режими використання, що зменшують кількість помилок
Окрім підказок, у ChatGPT є певні налаштування, які можуть вам допомогти мінімізувати вигадані відповідіособливо якщо ви використовуєте його щодня для делікатних тем, таких як дослідження, наука чи право.
Якщо у вас є доступ до розширених моделей із інтегрований веб-пошукАктивація їх під час роботи з даними, що швидко змінюються (поточні події, нормативні акти, нещодавня література), є гарною ідеєю. Спираючись на інформацію в режимі реального часу, ШІ має більше можливостей для перевірки та менше потреби заповнювати прогалини статистичною інтуїцією.
Дзвінки розширені режими міркуванняМоделі, більше орієнтовані на аналітичну точність (такі як сімейство o3), розроблені таким чином, щоб пріоритезувати точність над швидкістю. Їм може знадобитися більше часу для генерації відповіді, але вони, як правило, роблять менше серйозних помилок у логічних, математичних або детальних задачах аналізу документів.
Ще одним ключовим ресурсом є Інструкції щодо користувацького ChatGPTУ налаштуваннях ви можете вказати, який тип відповідей ви надаєте перевагу: більш технічні, більш освітні, більш обережні тощо. Наприклад, ви можете вказати йому пріоритет точності над креативністю, завжди цитувати, коли немає повної впевненості, або попереджати, якщо це припущення.
Використовуючи ChatGPT для досліджень, бажано вказати багатий контекст, повний чітких посиланьОсобливо, якщо ви запитуєте аналіз статей або академічних резюме. Включення надійних джерел у саму підказку та чітке розуміння того, що відповідь має ґрунтуватися на цих документах, зменшить ймовірність того, що модель спиратиметься на розпливчасту інформацію.
Не забувайте, що різні моделі мають різні профілі ризикуЛегка модель може бути чудовим варіантом для генерування креативних ідей («Назвіть 20 способів дійти від X до Y»), але вона може бути не найкращим варіантом для вилучення точних цитат зі статті. І навпаки, важча модель може бути правильною альтернативою для детального аналізу, навіть якщо вона повільніша. Деякі з цих коригувань випливають з параметри штучного інтелекту що формують моделі.
Поширені помилки користувачів, що викликають галюцинації
Багато галюцинацій, які ми бачимо щодня, зумовлені не лише самою моделлю, а й тим, як ми її використовуємо. Існує ряд моделі використання, які майже провокують помилки штучного інтелектуі бажано їх ідентифікувати.
Одна з найпоширеніших помилок – це запуск надто загальні питанняТакі запити, як «пояснити все про соціальну психологію» або «підсумувати сучасний стан у цій галузі», є настільки широкими, що вони змушують модель конденсувати величезну кількість інформації, збільшуючи ймовірність помилок або неточних спрощень.
Ще одна небезпечна практика — сліпо довіряти штучному інтелекту створювати дослівні цитати, бібліографічні посилання або судові рішення без їх перевірки. Саме в цьому типі завдань мовні моделі особливо схильні вигадувати назви, авторів чи дані, які «звучать добре», але не існують.
Занадто часте змішування також не допомагає. Зовсім різні теми в одній теміЯкщо в розмові ви переходите від розмови про квантову фізику до педагогіки, потім до права і потрапляєте в історію мистецтва, контекст чату стає хаотичним і збільшує ймовірність того, що модель перетягуватиме концепції з однієї галузі в іншу без причини.
З точки зору ставлення, небезпечною помилкою є ставлення до ChatGPT так, ніби це джерело абсолютної істини замість інструменту підтримки. Так само, як ви перевіряєте роботу стажера, вам слід перевіряти, що виробляє модель, особливо якщо на кону ваша професійна чи академічна репутація.
Зрештою, варто пам'ятати, що моделі штучного інтелекту можуть покращуватися або погіршуватися з часом у міру їх оновлення. Якщо ви помітили, що певна модель починає створювати більше проблем із надійністю в певних типах завдань (наприклад, аналіз довгих документів), подумайте про зміну варіантів, відкриття нового, чистого чату або поєднання його з іншими спеціалізованими інструментами.
Як жити з галюцинаціями, водночас насолоджуючись ChatGPT
Галюцинації не зникнуть завтра, але це не означає, що ChatGPT втрачає свою цінність. Ключ у тому, використовуйте інструмент розумновикористовувати те, що він вміє дуже добре (писати, генерувати ідеї, структурувати інформацію, робити дидактичні пояснення), та бути набагато вимогливішим, коли справа доходить до критичних даних.
Якщо ви використовуєте його для творчості, мозкового штурму або початкового письма, галюцинації, як правило, менш проблематичні; вони навіть можуть запропонувати цікаві повороти. Однак, якщо ви використовуєте його для дослідження, технічні звіти або контент, що вимагає ретельностіРозсудливо включити власний ретельний огляд і не публікувати нічого без перевірки.
У цьому балансі доцільно прийняти дві істини одночасно: моделі, подібні до ChatGPT вони роблять помилкиІноді це буває кричущим, але також правдою є те, що люди роблять помилки. Якщо ШІ виконує певне завдання з меншими недоліками, ніж ми, або допомагає нам значно скоротити час, який ми на нього витрачаємо, він залишається дуже привабливим варіантом, якщо ми не делегуємо йому остаточну відповідальність.
Зрештою, ви несете відповідальність за те, що підписуєте своїм іменем, а не моделлю. Звинувачувати ChatGPT у серйозній помилці — це як сказати, що «Собака з'їв домашнє завдання»Це може звучати як виправдання, але це не звільняє вас від наслідків. Розумним рішенням буде навчитися розпізнавати галюцинації, інтегрувати механізми перевірки у свій робочий процес і поступово вдосконалювати підказки та налаштування.
Якщо ми поєднаємо кращі моделі, нові методи навчання, орієнтовані на процес, інтегровані інструменти пошуку та більш зрілу поведінку користувачів, галюцинації поступово стануть менш поширеними. До того часу найрозумнішим підходом буде ставитися до ChatGPT таким, яким він є: потужний, але не безпомилковий інструментщо може багаторазово підвищити вашу продуктивність, якщо ви не сприйматимете їхні відповіді буквально, не перевіривши їх попередньо.
Зміст
- Що таке галюцинації в ChatGPT і чому вони виникають?
- Як ChatGPT працює внутрішньо (і що це означає для галюцинацій)
- OpenAI та галузеві стратегії для зменшення галюцинацій
- Зміна поведінки: коли ChatGPT, здається, галюцинує частіше
- Як мінімізувати галюцинації в ChatGPT за допомогою гарних підказок
- Рекомендації щодо виявлення та підтвердження можливих галюцинацій
- Конфігурації та режими використання, що зменшують кількість помилок
- Поширені помилки користувачів, що викликають галюцинації
- Як жити з галюцинаціями, водночас насолоджуючись ChatGPT
