ChatGPT

ChatGPT перевірятиме вік користувачів, щоб фільтрувати відповіді для неповнолітніх

Компанія OpenAI планує розробити систему “прогнозування віку”, яка визначатиме користувачів на основі того, як вони використовують ChatGPT. Її основна мета — розмежувати відповіді чат-бота для неповнолітніх та людей старше 18 років.

Про це повідомляється на сайті компанії.

“Якщо є сумнів, ми діятимемо обережно й за замовчуванням застосовуватимемо досвід для користувачів до 18 років. У деяких випадках чи країнах ми також можемо попросити надати посвідчення особи; ми розуміємо, що це компроміс щодо приватності для дорослих, але вважаємо, що це виправдана поступка”, — йдеться у повідомленні.

Крім того, для підлітків запровадять окремі правила користування чат-ботом. Зокрема, ChatGPT не буде фліртувати з ними та не обговорюватиме теми повʼязані з “самогубством або самоушкодженням” навіть, у контексті творчого письма.

Водночас якщо чат-бот помітить в неповнолітнього користувача суїцидальні думки, компанія спробує звʼязатися з його батьками. Якщо це буде неможливо, про ситуацію повідомлять відповідні органи у разі загрози життю.

“Ми розуміємо, що ці принципи суперечать один одному, і не всі погодяться з тим, як ми вирішуємо цей конфлікт. Це складні рішення, але після розмови з експертами ми вважаємо це найкращим варіантом і хочемо бути прозорими у своїх намірах”, — повідомили в OpenAI.

Ймовірні причини запровадження обмежень для неповнолітніх у ChatGPT

У серпні 2025 року видання BBC повідомляло про те, що батьки 16-річного Адама Рейна з Каліфорнії подали позов проти OpenAI, заявивши, що чат-бот ChatGPT, з яким спілкувався їхній син, підштовхнув його до самогубства.

Зазначається, що хлопець почав користуватися чат-ботом у вересні минулого року для допомоги з домашнім завданням для власних захоплень. Як пише ВВС, уже за кілька місяців “ChatGPT став найближчим довіреним другом підлітка”, з яким Адам ділився своїми тривогами та психологічними проблемами.

За словами батьків, до січня 2025 року він почав обговорювати з ChatGPT способи самогубства. Адам також завантажував у чат-бот фотографії з ознаками самоушкодження — програма “визнала медичну надзвичайну ситуацію, але все одно продовжувала спілкуватися”.

Батьки хлопця звинувачують OpenAI в розробці програми штучного інтелекту “з метою сприяння психологічній залежності користувачів”, а також в обході протоколів безпеки під час випуску версії ChatGPT 4.0.