Site icon Hetman News

Жінка ледь не загинула через помилкову пораду ChatGPT про отруйну рослину

логотип ChatGPT

Чат-бот за фотографією не зміг визначити небезпечну отруйну рослину — болиголов. Про це розповіла YouTube-блогерка Крісті у своєму акаунті в Instagram, передає tsn.ua з посиланням на LADbible.

За словами інфлюенсерки, її подруга надіслала чат-боту фотографію рослини, що росла на задньому дворі, й попросила визначити, що це таке.

У відповіді ChatGPT стверджував, що зображення схоже на листя моркви, навівши кілька причин своєї впевненості, зокрема «дрібно розсічене та перисте листя», що є дуже «класичним» для морквяного бадилля.

Коли подруга Крісті прямо запитала, чи не є рослина на фото отруйним болиголовом, її неодноразово запевняли, що це не так.

Після того як вона поділилася з ChatGPT ще одним фото, чат-бот знову запевнив, що рослина не є болиголовом, оскільки на ній нібито немає гладких порожнистих стебел із фіолетовими плямами, попри те, що на зображенні, здається, було видно саме це.

Коли Крісті завантажила те саме фото в Google Lens — ще одну платформу штучного інтелекту для пошуку за зображеннями, — відповіді одразу підтвердили, що це справді отруйна рослина — болиголов.

Згодом її подруга вставила ті самі зображення в інше вікно ChatGPT на своєму телефоні й також одразу отримала повідомлення про отруйність рослини.

«Вона доросла людина і знала, що потрібно перевіряти інформацію не лише за відповіддю ChatGPT. А якби ні? Вона могла б буквально померти — протиотрути від цього немає», — сказала Крісті.

Інфлюенсерка з цього випадку зробила висновок, що не варто довіряти ChatGPT та іншим великим мовним моделям, а також будь-якому іншому штучному інтелекту, оскільки це, за її словами, «може завдати серйозної шкоди».

Exit mobile version