Безлимитные AI языковые модели: новые угрозы безопасности в сфере шифрования

Темная сторона искусственного интеллекта: угроза неограниченных языковых моделей для шифрования индустрии

С быстрым развитием технологий искусственного интеллекта, от серии GPT до таких продвинутых моделей, как Gemini, наши жизненные способы претерпевают глубокие изменения. Однако этот технологический прогресс также несет потенциальные риски, особенно с появлением неограниченных или злонамеренных крупных языковых моделей.

Неограниченные языковые модели - это модели, которые были специально разработаны или модифицированы для обхода встроенных механизмов безопасности и этических ограничений основных моделей. Хотя разработчики основных моделей вкладывают значительные ресурсы в предотвращение злоупотребления моделями, некоторые лица или организации с недобрыми намерениями начинают искать или разрабатывать неограниченные модели. В данной статье будет рассмотрена потенциальная угроза таких моделей в сфере шифрования, а также связанные с этим проблемы безопасности и стратегии реагирования.

Пандора: как неограниченные большие модели угрожают безопасности шифрования?

Опасности неограниченных языковых моделей

Эти модели позволяют легко реализовать злонамеренные задачи, которые раньше требовали профессиональных навыков. Злоумышленники могут получить веса и коды открытых моделей, а затем доработать их с помощью набора данных, содержащего вредоносный контент, чтобы создать персонализированные инструменты атаки. Этот подход несет в себе множество рисков:

  1. Нападающий может настраивать модели для конкретных целей, чтобы генерировать более обманчивый контент.
  2. Модель может использоваться для быстрого генерации вариантов кода фишинговых сайтов и настройки мошеннических текстов.
  3. Доступность открытых моделей способствовала формированию подпольной экосистемы ИИ, предоставив питательную среду для незаконной деятельности.

Типичная неограниченная языковая модель

WormGPT:темная версия GPT

WormGPT — это открыто продаваемая вредоносная языковая модель, которая утверждает, что не имеет моральных ограничений. Она основана на открытой модели и обучена на большом количестве данных, связанных с вредоносным ПО. Основные ее применения включают генерацию реалистичных коммерческих атак через электронную почту и фишинговых писем. В области шифрования она может быть использована для:

  • Генерация фишинговой информации, имитирующей биржу или проект, чтобы заставить пользователя раскрыть свой приватный ключ.
  • Помогите написать вредоносный код для кражи файлов кошелька, мониторинга буфера обмена и т. д.
  • Внедрение автоматизированного мошенничества, вовлечение жертв в ложные проекты.

DarkBERT:инструмент для анализа контента темной сети

DarkBERT — это языковая модель, обученная на данных из темной сети, изначально предназначенная для помощи исследователям и правоохранительным органам в анализе деятельности в темной сети. Однако, если ее использовать неправильно, она может представлять собой серьезную угрозу:

  • Реализация точного мошенничества с использованием собранной информации о пользователях и проектах.
  • Копировать стратегии кражи и отмывания денег в даркнете.

FraudGPT:инструмент сетевого мошенничества

FraudGPT называется улучшенной версией WormGPT, обладающей более полными функциями. В области шифрования он может использоваться для:

  • Подделка шифрования проектов, создание фальшивых белых книг и маркетинговых материалов.
  • Массовое создание фишинговых страниц, имитирующих интерфейсы известных бирж и кошельков.
  • Проведение активности в социальных медиа для продвижения мошеннических токенов или дискредитации конкурентных проектов.
  • Проведение социальной инженерии, побуждение пользователей к раскрытию конфиденциальной информации.

GhostGPT:AI помощник без моральных ограничений

GhostGPT был явно определён как чат-бот без моральных ограничений. В области шифрования его можно использовать для:

  • Генерация высоко реалистичных фишинговых писем, выдающих себя за уведомления от биржи.
  • Генерация кода смарт-контракта с скрытой задней дверью для мошенничества или атаки на DeFi-протоколы.
  • Создание вредоносного ПО с возможностью трансформации для кражи информации о кошельках.
  • Разработка робота для социальной платформы, который побуждает пользователей участвовать в ложных проектах.
  • В сочетании с другими инструментами ИИ создавать глубокий поддельный контент для мошенничества.

Venice.ai: потенциальные риски доступа без проверки

Venice.ai предоставляет доступ к различным языковым моделям, включая некоторые модели с меньшими ограничениями. Хотя она предназначена для обеспечения открытого опыта AI, ее также могут злоупотреблять:

  • Обойти цензуру для создания вредоносного контента.
  • Снизить порог доступа к подсказкам, чтобы атакующим было легче получить ограниченный вывод.
  • Ускорение итерации и оптимизации атакующих сценариев.

Стратегия реагирования

Перед лицом угроз, создаваемых неограниченными языковыми моделями, сторонам безопасности необходимо совместно работать:

  1. Увеличить инвестиции в технологии обнаружения, разработать инструменты, способные распознавать и блокировать вредоносный контент, сгенерированный ИИ.
  2. Повышение способности модели к защите от джейлбрейка, исследование механизмов водяных знаков и отслеживания.
  3. Создание и совершенствование этических норм и механизмов регулирования для ограничения разработки и использования злонамеренных моделей с самого начала.

Появление неограниченных языковых моделей знаменует собой новые вызовы для кибербезопасности. Только совместные усилия всех сторон могут эффективно противостоять этим новым угрозам и обеспечить здоровое развитие шифрования индустрии.

Пандора: как неограниченные большие модели угрожают безопасности шифрования?

GPT0.39%
DEFI-3.77%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 8
  • Поделиться
комментарий
0/400
SignatureAnxietyvip
· 16ч назад
Снова непонятный текст
Посмотреть ОригиналОтветить0
just_another_fishvip
· 19ч назад
Сможет ли ИИ действительно контролировать?
Посмотреть ОригиналОтветить0
InfraVibesvip
· 08-05 16:41
Будьте осторожны, когда риски нарастают
Посмотреть ОригиналОтветить0
MetaverseLandlordvip
· 08-05 16:40
Искусственный интеллект вызывает обеспокоенность
Посмотреть ОригиналОтветить0
AirdropHarvestervip
· 08-05 16:39
Эту волну нужно быть осторожным.
Посмотреть ОригиналОтветить0
AirdropDreamBreakervip
· 08-05 16:36
Неожиданная угроза
Посмотреть ОригиналОтветить0
DegenWhisperervip
· 08-05 16:22
У ИИ тоже есть тёмная сторона.
Посмотреть ОригиналОтветить0
RektRecordervip
· 08-05 16:21
С АИ делать плохие вещи стало проще.
Посмотреть ОригиналОтветить0
  • Закрепить