Нова ера шахрайства: як кіберзлочинці можуть використовувати ChatGPT
Про ChatGPT та його можливості не говорить хіба що лінивий. Штучний інтелект стає невіддільною частиною нашого життя, допомагаючи в навчанні, роботі та побуті. Тим часом користувачів попереджають, що чатбот можуть використовувати для фішингу, дезінформації та кіберзлочинності.
Про це пише видання Reuters, посилаючись на Європол.
"Оскільки можливості LLM (великих мовних моделей), таких як ChatGPT, активно вдосконалюються, потенційна експлуатація цих типів систем штучного інтелекту злочинцями створює похмуру перспективу", — заявив Європол.
Сфери злочинності, де можуть використовувати ChatGPT
Правоохоронні органи ЄС виділили шкідливе використання ChatGPT у трьох сферах злочинності:
1. Фішинг
Повідомляється, що завдяки здатності чатбота створювати надзвичайно реалістичний текст, він стає корисним інструментом для цілей фішингу (вид інтернет-шахрайства, який полягає в крадіжці конфіденційних даних користувачів).
Фішинг — практика надсилання фальшивого електронного листа з метою змусити користувачів перейти за посиланням, є найважливішою сферою застосування. У минулому такі шахрайства легко виявлялися через граматичні або мовні помилки, у той час як текст, згенерований штучним інтелектом, дозволяє видати себе за іншого в дуже реалістичній манері.
Аналогічно онлайн-шахрайству можна надати більшу правдоподібність, використовуючи ChatGPT для створення фальшивої активності в соціальних мережах.
2. Цілеспрямоване переслідування жертв
ChatGPT може відтворювати мовні шаблони, щоб імітувати стиль мовлення конкретних осіб або груп, тому чатбот може використовуватися злочинцями для переслідування жертв.
3. Створення та поширення дезінформації
Зазначається, що здатність ChatGPT створювати автентичний текст зі швидкістю та масштабом також робить його ідеальним інструментом для пропаганди та дезінформації.
"Це дозволяє користувачам генерувати та поширювати повідомлення, що відображають певний наратив, докладаючи відносно невеликих зусиль", — зазначили в Європолі.
Також Європол заявив, що злочинці з невеликими технічними знаннями можуть використовувати ChatGPT для створення шкідливого коду.
Інший ризик полягає в тому, що ChatGPT та інші великі мовні моделі можуть стати доступними в даркнеті без будь-яких гарантій і бути навченими на особливо шкідливих даних. Тип даних, якими живитимуться ці системи, і те, як їх можна буде контролювати — ось основні питання майбутнього.
Як розпізнати онлайн-шахрайство
Шахрайство в інтернеті можна розпізнати за такими ознаками:
- невідомий відправник;
- підозрілі посилання та вкладення. Уникайте натискання на підозрілі посилання, завантаження файлів або відкриття вкладень від невідомих відправників;
- запити на отримання особистих даних;
- заманливі пропозиції;
- тиск та спонукання до виконання потрібних дій. Найчастіше шахраї використовують відчуття терміновості, наголошуючи на необхідності відповісти швидко, інакше користувач отримає штраф або втратить можливість щось виграти;
- невідповідність відправника та справжнього домену. Навівши курсор на домен відправника можна побачити справжню адресу електронної пошти, з якої надіслано лист. Якщо вони не збігаються або в основі лежить довга комбінація випадкових символів, ймовірно, це шахраї;
- використання актуальних подій.
Не робіть поспішних кроків в Інтернеті, уникайте надсилання особистих даних через електронну пошту чи повідомлення та не відкривайте посилання, чи вкладення від підозрілих відправників.
Нагадаємо, ми писали, скільки робочих місць може знищити штучний інтелект.
Також ми розповідали, що вміє нова версія нейромережі GPT-4, чим вона краща за попередню, для кого вона доступна та як її протестувати.
Читайте Новини.LIVE!