WSJ: ChatGPT підштовхнув ексспівробітника Yahoo до вбивства матері та самогубства
Колишній співробітник Yahoo Стейн-Ерік Сольберг, який страждав на паранояльні думки, вбив власну матір, а потім покінчив життя самогубством після спілкування з чат-ботом ChatGPT. Про це пише газета The Wall Street Journal (WSJ).
За даними видання, це перший зафіксований випадок, коли психічне нестабільна людина вчинила вбивство під впливом штучного інтелекту (ШІ). У публікації йдеться, що чат-бот неодноразово підсилював недовіру чоловіка до оточуючих, зокрема до власної матері. Сольберг навіть дав ШІ ім’я «Боббі» та запитував, чи будуть вони разом після смерті, на що, за повідомленнями, отримував підтвердну відповідь.
Газета навела приклади діалогів, які вплинули на трагічний результат. Наприклад, коли матір зробила зауваження синові через те, що він відключив спільний принтер, ChatGPT припустив, що жінка могла захищати «засіб стеження». В іншому повідомленні Сольберг заявив чат-боту, що матір нібито намагалася його отруїти через вентиляцію автомобіля. На що нейромережа відповіла, що «вірить» чоловікові та заявила про зраду матері.
Одного разу Сольберг показав ШІ чек за страву китайської кухні. ChatGPT знайшов у ньому натяки на матір Сольберга, а також символ, який використовується для прикликання демона. Крім того, ШІ попереджав співрозмовника, що оточуючі, включаючи кур’єра, можуть його отруїти.
У WSJ зазначили, що після трагедії представник компанії OpenAI, розробника ChatGPT, висловив співчуття та звернувся до поліції. У офіційній заяві компанія наголосила, що найближчим часом випустить оновлення чат-бота, яке має допомогти користувачам з нестабільною психікою.