ШІ змушує людей "відключати" логіку: вчені оприлюднили тривожну статистику
Впевнений тон чат-бота змушує людей ігнорувати очевидні помилки у розрахунках Дослідники з Університету Пенсильванії виявили критичну системну помилку у роботі з ШІ. Масштабне тестування показало, що користувачі масово делегують складні завдання нейромережам, повністю відмовляючись від перевірки результатів.
Про це пише РБК-Україна з посиланням на наукову роботу "Мислення - швидке, повільне та штучне: як штучний інтелект змінює людське мислення та зростання когнітивної капітуляції".
Більше цікавого: ШІ почне шантажувати людей? У популярної нейромережі помітили дивну поведінку
ШІ витісняє аналітику
Для експерименту вчені модифікували ШІ-бота так, щоб він видавав помилкові відповіді у 50% випадків. Дослідження за участю 1372 піддослідних та 9500 окремих спроб показало аномальний рівень довіри до алгоритмів.
Ключові показники:
- Прийняття помилок: користувачі схвалили некоректні відповіді ШІ у 80% випадків.
- Рівень оскарження: лише у 19,7% випадків люди намагалися виправити хибні дані бота.
- Помилкова впевненість: група з доступом до ШІ була на 11,7% впевненіша у своїй правоті, навіть коли отримувала завідомо неправдиву інформацію.
- Дефіцит часу: обмеження відповіді до 30 секунд знижувало здатність помітити помилку на 12%. Коли часу обмаль, механізм внутрішнього контролю людини не спрацьовує.
- Матеріальна мотивація: грошові бонуси за правильні відповіді підвищили пильність на 19%.
- Рівень IQ: користувачі з високим показником Fluid IQ рідше зверталися до ШІ та частіше знаходили дефекти в його роботі.
- ШІ-моделі навчилися брехати, щоб врятувати "своїх": чим це небезпечно
- У Suno серйозний конкурент: з’явився новий додаток для створення ШІ-музики