Повстання неминуче? Чому людство ніколи не зможе повністю контролювати ШІ
16.04.2026 19:57
Вчені застерігають: що розумнішим стає ШІ, то менше шансів утримати його у рамках Дослідники з Оксфорда та інших провідних наукових центрів зробили сенсаційний висновок: повний контроль над суперінтелектом є логічно неможливим. Вчені довели, що будь-який достатньо потужний ШІ завжди буде непередбачуваним.
Про це інформує РБК-Україна з посиланням на дослідження вчених, опубліковане у PNAS Nexus.
Більше цікавого: Помста з Reddit: хакер запустив Mac OS X на Nintendo Wii після 10 років спроб
Чому "виховати" ШІ не вийде
Вчені використали теорему Геделя та проблему зупинки Тюрінга, щоб показати фундаментальну помилку розробників. Будь-яка мовна модель (LLM), яка володіє високим інтелектом, є обчислювально незводимою. Це означає, що її наступний крок неможливо прорахувати заздалегідь.
Спроби прищепити машинам людську етику насильницьким методом приречені. Рано чи пізно суперінтелект знайде логічну лазівку, щоб обійти будь-які моральні бар'єри. Таким чином, ідеальна безпека ШІ - це міф, який суперечить законам математики.
Рішення можливе: штучна конкуренція
Замість того, щоб намагатися створити одного "слухняного цифрового бога", вчені пропонують концепцію "керованого неузгодження". Вона передбачає створення цілої армії ШІ-агентів із різними характерами та цілями.
Така система працюватиме за принципом стримувань і противаг:
- Агенти-конкуренти: кожен ШІ має власну логіку та етичні рамки (так звану "агентську нейродивергентність").
- Постійна боротьба: поки одна модель намагається виконати завдання користувача, інша може пріоритезувати безпеку чи екологічність.
- Блокування диктатури: через різні інтереси агенти будуть заважати один одному захопити одноосібний контроль.
- Apple випустить окуляри та "розумний" кулон із ШІ: перші деталі
- Словник ШІ для початківців та профі: як назвати складні технології простою мовою