Site icon Hetman News

ChatGPT небезпечний: чат-боту не можна розповідати п’ять речей

ChatGPT

Навіть якщо здається, що бот відповідає «як друг», інформація, яку ви вводите, може бути використана інакше, ніж ви очікуєте. Чат-боти зі штучним інтелектом (ШІ), як-от ChatGPT, стали невід’ємною частиною повсякденного життя: люди використовують їх для пошуку відповідей, створення текстів, допомоги з ідеями та навіть для аналізу даних, пише unian.net.

Однак що активніше ми взаємодіємо з ШІ, то важливіше пам’ятати — це не безпечне сховище для ваших особистих або конфіденційних даних, зазначає SlashGear.

ChatGPT щодня відповідає приблизно на 2,5 мільярда запитів, і навіть за наявності вбудованих механізмів захисту залишаються реальні ризики витоків та неконтрольованого використання введених вами даних. Технологія постійно розвивається, але обережність усе ще необхідна.

Ось п’ять речей, які ніколи не варто розповідати ChatGPT або будь-якому іншому публічному «розумному» чат-боту.

Персональна інформація

Багато користувачів несвідомо вводять своє повне ім’я, адреси, номери документів і контактні дані, наприклад для складання резюме. Це може мати серйозні наслідки у разі «витоку» або доступу зловмисників до баз даних.

Навіть якщо здається, що бот відповідає «як друг», така інформація може оброблятися системою та використовуватися інакше, ніж ви очікуєте.

Фінансові деталі

ChatGPT можна попросити допомогти скласти щомісячний бюджет чи навіть пенсійну стратегію, але конкретні дані про рахунки, кредитні картки, інвестиції або податки не слід вводити в ШІ-чати.

Експерти зазначають, що після надання таких даних неможливо дізнатися їхню подальшу долю. Введення фінансової інформації може створити серйозні ризики — від шахрайства та витоків персональних даних до фішингових атак і зараження пристроїв програмами-вимагачами.

Медичні дані

За даними нещодавнього опитування, приблизно кожен шостий дорослий звертається до ChatGPT щонайменше раз на місяць за поясненням симптомів або рекомендаціями щодо лікування. Серед молоді цей показник зростає до кожного четвертого.

Експерти закликають робити це з максимальною обережністю, усвідомлюючи, що це не лікар і він не замінює консультацію спеціаліста. Як і з фінансовою інформацією, після передачі таких даних неможливо відстежити їхню подальшу долю.

Матеріали, пов’язані з роботою

Документи, звіти й стратегії компанії — усе, що стосується роботодавця, клієнтів або поточних проєктів і не призначене для публічного розголошення.

ШІ може здаватися зручним інструментом для редагування текстів чи стислого переказу документів, але це також створює зайві ризики.

Будь-які незаконні запити

Цього варто уникати не лише з міркувань безпеки, а й з юридичних причин. Питання про те, як вчиняти злочини, займатися шахрайством чи маніпуляціями, можуть призвести до блокування сервісів і навіть до відповідальності, адже платформи зобов’язані дотримуватися законів і можуть розкривати дані на запит правоохоронних органів.

Глава OpenAI Сем Альтман також попереджає, що листування з ChatGPT не захищене законом так само, як спілкування з реальним фахівцем, і в разі судового розгляду розробники можуть бути зобов’язані надати переписку користувача за рішенням суду.

Тому завжди будьте обережні з тим, що ви розповідаєте ШІ, особливо якщо це стосується вашого особистого чи професійного життя.

Exit mobile version