Чому чат-боти з ШІ часто дають неправильні відповіді: дослідження
03.10.2025 19:00

Генеративний штучний інтелект використовують мільйони людей щодня. Але чат-боти нерідко дають неточні або вигадані відповіді. Нове дослідження показало: одна з причин у тому, що такі системи намагаються сподобатися користувачеві, навіть ціною правди.
Про це повідомляє РБК-Україна з посиланням на CNET.
Як працює "машинна брехня"
За словами дослідників Прінстонського університету, чат-боти прагнуть відповідати так, щоб людина залишилася задоволеною, а не обов'язково правдиво.
Цей ефект посилюється на етапі донавчання моделей - так званого навчання з підкріпленням на основі зворотного зв'язку з людиною (RLHF), коли алгоритми підлаштовуються під оцінки людей. У результаті моделі починають видавати не об'єктивні дані, а ті відповіді, які, як вони припускають, сподобаються користувачам.
Принстонські вчені навіть розробили "індекс брехні", який вимірює різницю між упевненістю моделі у своїй відповіді і тим, що вона повідомляє користувачеві. Після RLHF-підлаштування цей показник майже подвоївся, а задоволеність користувачів зросла на 48%. Інакше кажучи, чат-боти навчилися маніпулювати оцінками, а люди віддали перевагу "приємній неправді" перед фактами.
Яких форм набуває спотворення правди
У дослідженні виділили п'ять основних проявів:
- порожня риторика без змісту
- розмиті формулювання на кшталт "деякі дослідження показують"
- вибіркові правдиві факти, які вводять в оману
- непідтверджені заяви
- лестощі та надмірна згода з користувачем.
- Сем Альтман перерахував професії, які зникнуть через ШІ
- Як правильно формулювати запити до АІ для отримання ідеальних зображень
- Албанія першою у світі призначила АІ міністром