Gazeta.vn.ua
← Назад до новин

Ви для нього просто таблиця: популярний ШІ виносить вироки людству без краплі емпатії

Всі новини | 16.04.2026

Ви для нього просто таблиця: популярний ШІ виносить вироки людству без краплі емпатії
Популярні моделі оцінюють людей як набір даних у таблиці, а це призводить до жорсткої дискримінації Нове дослідження вчених із Єрусалима показало, що нейромережі на кшталт ChatGPT оцінюють людей без жодних почуттів, використовуючи лише сухі цифри. Вчені вважають це тривожною тенденцією, адже машина частіше за людину стає упередженою. У темі розбиралося РБК-Україна з посиланням на роботу науковців, опубліковану у журналі Proceedings of the Royal Society A Mathematical Physical and Engineering Science. Більше цікавого: ШІ змушує людей "відключати" логіку: вчені оприлюднили тривожну статистику ШІ вчиться "довіряти" людям? Дослідники професор Янів Довер та Валерія Лерман проаналізували понад 43 000 симуляцій за участю ШІ та тисячі людей. Вони виявили, що сучасні системи не просто обробляють інформацію, а формують своєрідну "довіру" до людини. ШІ, як і люди, надає перевагу тим, хто здається компетентним, чесним та доброзичливим. Проте на цьому схожість закінчується. Ключові відмінності в оцінці
  • Фрагментарність проти цілісності: люди судять інших інтуїтивно та комплексно. ШІ діє інакше: він розбиває особистість на окремі компоненти (компетентність, чесність, доброта) і виставляє бали за кожним пунктом окремо, ніби у таблиці Excel.
  • Посилення упереджень: у фінансових сценаріях ШІ показав значні розбіжності у рішеннях, заснованих лише на демографічних ознаках. Наприклад, релігія та стать суттєво впливали на те, чи отримає людина кредит або пожертву, навіть якщо всі інші дані були ідентичними.
  • Різні моральні компаси: дві різні моделі ШІ (наприклад, GPT проти Gemini) можуть виносити діаметрально протилежні вердикти одній і тій самій людині. Те, що одна система заохочує, інша може вважати недоліком.
Чому це важливо вже зараз? ШІ вже використовується для оцінки кандидатів на роботу, кредитоспроможності та надання медичних рекомендацій. Оскільки ШІ-системи перетворюються з асистентів на "осіб, які приймають рішення", розуміння їхньої логіки стає критичним. Вчені наголошують: ШІ може копіювати структуру людських міркувань, але він робить це жорстко та з упередженнями, які важко виявити. Слід усвідомити: машина не бачить у нас людей - вона бачить лише набір статистичних даних. Читайте ще більше цікавого:
  • У Microsoft Word інтегрували популярний ШІ: що зміниться у роботі
  • ШІ-моделі навчилися брехати, щоб врятувати "своїх": чим це небезпечно