Безмежна AI мовна модель: нові загрози безпеці в галузі шифрування

Темна сторона штучного інтелекту: загроза необмежених мовних моделей для шифрування-індустрії

З розвитком технологій штучного інтелекту, від серії GPT до таких передових моделей, як Gemini, ми спостерігаємо глибокі зміни у нашому способі життя. Однак цей технологічний прогрес також приніс потенційні ризики, особливо з появою необмежених або зловмисних великих мовних моделей.

Безмежні мовні моделі - це ті, що були спеціально розроблені або модифіковані для обходу вбудованих механізмів безпеки та етичних обмежень основних моделей. Хоча розробники основних моделей вкладають значні ресурси в запобігання зловживанню моделями, деякі особи або організації з недобросовісними намірами починають шукати або розробляти моделі без обмежень. У цій статті буде розглянуто потенційні загрози таких моделей у сфері шифрування, а також пов'язані з цим проблеми безпеки та стратегії реагування.

Пандора: як безмежні великі моделі загрожують безпеці шифрування?

Загрози безмежних мовних моделей

Ці моделі роблять легким виконання зловмисних завдань, які раніше вимагали професійних навичок. Зловмисники можуть отримати ваги та код відкритих моделей, а потім налаштувати їх за допомогою наборів даних, що містять зловмисний вміст, щоб створити індивідуалізовані інструменти для атак. Такий підхід несе множинні ризики:

  1. Зловмисники можуть налаштувати модель на конкретну ціль, щоб створити більш обманливий контент.
  2. Модель може бути використана для швидкого генерації варіантів коду фішингових сайтів і налаштування шахрайських текстів.
  3. Доступність відкритих моделей сприяла формуванню підземної екосистеми ШІ, створюючи сприятливі умови для незаконної діяльності.

Типова безмежна мовна модель

WormGPT:темна версія GPT

WormGPT є відкритою моделлю зловмисного мовлення, яка стверджує, що не має етичних обмежень. Вона базується на відкритих моделях і навчена на великій кількості даних, пов'язаних із зловмисним програмним забезпеченням. Її основні застосування включають генерацію реалістичних комерційних електронних листів для атак вторгнення та фішингових електронних листів. У сфері шифрування її можна використовувати для:

  • Генерація фішингової інформації, імітуючи біржу або проект, щоб спонукати користувачів розкрити свої приватні ключі.
  • Допомога в написанні шкідливого коду для викрадення файлів гаманця, моніторингу буфера обміну тощо.
  • Керування автоматизацією шахрайства, залучення жертв до участі у фальшивих проектах.

DarkBERT:інструмент аналізу контенту темної мережі

DarkBERT є мовною моделлю, навченою на даних з темної мережі, яка спочатку призначалася для допомоги дослідникам та правоохоронним органам в аналізі діяльності в темній мережі. Однак, якщо її зловживати, вона може становити серйозну загрозу:

  • Здійснення точного шахрайства, використовуючи зібрану інформацію про користувачів та проекти.
  • Копіювання стратегій крадіжки монет та відмивання грошей у темній мережі.

FraudGPT:інструмент мережевого шахрайства

FraudGPT називають вдосконаленою версією WormGPT, яка має більш широкі можливості. У сфері шифрування його можна використовувати для:

  • Підробка шифрувальних проектів, створення фальшивих білих книг та маркетингових матеріалів.
  • Масове генерування фішингових сторінок, що імітують інтерфейси відомих бірж та гаманців.
  • Здійснювати активність на соціальних мережах для просування шахрайських токенів або дискредитації конкурентних проєктів.
  • Реалізація соціальної інженерії, що спонукає користувачів розкривати чутливу інформацію.

GhostGPT:AI асистент без моральних обмежень

GhostGPT був чітко позиціонований як чат-бот без моральних обмежень. У сфері шифрування його можна використовувати для:

  • Генерація високоякісних фішингових електронних листів, що імітують повідомлення від біржі.
  • Генерація коду смарт-контракту з прихованими задніми дверцятами для шахрайства або атаки на DeFi протоколи.
  • Створення шкідливого програмного забезпечення з можливістю трансформації для крадіжки інформації з гаманців.
  • Розгорнення соціальної платформи-робота, що спонукає користувачів брати участь у фальшивих проектах.
  • Поєднуючи з іншими інструментами ШІ, створювати глибокі підроблені матеріали для шахрайства.

Venice.ai:потенційні ризики доступу без цензури

Venice.ai надає доступ до різних мовних моделей, включаючи деякі моделі з меншими обмеженнями. Хоча вона призначена для забезпечення відкритого досвіду ШІ, її також можуть зловживати:

  • Обійти цензуру для створення шкідливого контенту.
  • Зниження порогу для підказок, що робить атаки легшими для отримання обмежених виходів.
  • Прискорення ітерації та оптимізації тактики атаки.

Стратегії реагування

В умовах загрози, яку несе безмежна мовна модель, усі сторони безпечної екосистеми повинні спільно працювати:

  1. Збільшити інвестиції в технології виявлення, розробити інструменти, здатні виявляти та блокувати шкідливий контент, створений AI.
  2. Підвищення здатності моделі до захисту від джейлбрейку, вивчення механізмів водяних знаків та відстеження.
  3. Створення ефективних етичних норм та механізмів регулювання, щоб обмежити з самого початку розробку та використання зловмисних моделей.

Поява мовних моделей без обмежень знаменує нові виклики для кібербезпеки. Лише спільними зусиллями всіх сторін можна ефективно протистояти цим новим загрозам і забезпечити здоровий розвиток шифрування-індустрії.

Пандора: як безмежні великі моделі загрожують безпеці шифрування?

GPT7.75%
DEFI-5.09%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 8
  • Поділіться
Прокоментувати
0/400
SignatureAnxietyvip
· 15год тому
Знову незрозумілий текст
Переглянути оригіналвідповісти на0
just_another_fishvip
· 18год тому
Чи справді штучний інтелект може контролювати?
Переглянути оригіналвідповісти на0
InfraVibesvip
· 08-05 16:41
Обережно з ризиками
Переглянути оригіналвідповісти на0
MetaverseLandlordvip
· 08-05 16:40
Штучний інтелект має приховані проблеми
Переглянути оригіналвідповісти на0
AirdropHarvestervip
· 08-05 16:39
Цю хвилю потрібно бути обережними.
Переглянути оригіналвідповісти на0
AirdropDreamBreakervip
· 08-05 16:36
несподівана криза
Переглянути оригіналвідповісти на0
DegenWhisperervip
· 08-05 16:22
У штучного інтелекту також є темна сторона.
Переглянути оригіналвідповісти на0
RektRecordervip
· 08-05 16:21
Злочини за допомогою ШІ стали простішими
Переглянути оригіналвідповісти на0
  • Закріпити