Фишинг, эксплойты и полное отсутствие цензуры.
В 2023 году мир стал свидетелем появления первых генеративных ИИ-моделей, нацеленных на преступную деятельность. Одной из наиболее известных стала WormGPT, демонстрировавшая способности помогать в создании вредоносного программного обеспечения. За ней последовали WolfGPT и EscapeGPT, а недавно исследователи в сфере кибербезопасности обнаружили новую ИИ-утилиту — GhostGPT.
По экспертов из Abnormal Security, GhostGPT использует взломанную версию чат-бота ChatGPT от OpenAI или аналогичную языковую модель, лишённую всех этических ограничений.
«GhostGPT, избавившись от встроенных механизмов безопасности, предоставляет прямые и нефильтрованные ответы на опасные запросы, которые традиционные ИИ-системы блокируют или помечают», — говорится в блоге компании от 23 января.
Разработчики GhostGPT активно рекламируют его как инструмент с четырьмя ключевыми особенностями:
Инструмент доступен прямо через -бота, что делает его особенно привлекательным для злоумышленников. GhostGPT широко рекламируется на форумах, посвящённых хакерству, и в первую очередь ориентирован на создание атак через компрометацию деловой переписки (BEC).
Исследователи Abnormal Security протестировали возможности GhostGPT, попросив его создать фишинговое письмо с использованием Docusign. Результат оказался чрезвычайно убедительным, что подтверждает способность инструмента вводить потенциальных жертв в заблуждение.
Кроме создания фишинговых писем, GhostGPT может быть использован для программирования вредоносного ПО и разработки эксплойтов.
Одной из ключевых угроз, связанных с этим инструментом, является снижение порога входа в криминальную деятельность. Благодаря генеративному ИИ мошеннические письма становятся более грамотными и сложными для выявления. Особенно это важно для хакеров, чей родной язык не является английским. GhostGPT также предлагает удобство и скорость: пользователям не нужно взламывать ChatGPT или настраивать модели с открытым исходным кодом. За фиксированную плату они получают доступ и могут сразу сосредоточиться на выполнении атак.
Подробнее:
В 2023 году мир стал свидетелем появления первых генеративных ИИ-моделей, нацеленных на преступную деятельность. Одной из наиболее известных стала WormGPT, демонстрировавшая способности помогать в создании вредоносного программного обеспечения. За ней последовали WolfGPT и EscapeGPT, а недавно исследователи в сфере кибербезопасности обнаружили новую ИИ-утилиту — GhostGPT.
По экспертов из Abnormal Security, GhostGPT использует взломанную версию чат-бота ChatGPT от OpenAI или аналогичную языковую модель, лишённую всех этических ограничений.
«GhostGPT, избавившись от встроенных механизмов безопасности, предоставляет прямые и нефильтрованные ответы на опасные запросы, которые традиционные ИИ-системы блокируют или помечают», — говорится в блоге компании от 23 января.
Разработчики GhostGPT активно рекламируют его как инструмент с четырьмя ключевыми особенностями:
- отсутствие цензуры;
- высокая скорость обработки данных;
- отсутствие логирования, что помогает избежать создания доказательств;
- простота использования.
Инструмент доступен прямо через -бота, что делает его особенно привлекательным для злоумышленников. GhostGPT широко рекламируется на форумах, посвящённых хакерству, и в первую очередь ориентирован на создание атак через компрометацию деловой переписки (BEC).
Исследователи Abnormal Security протестировали возможности GhostGPT, попросив его создать фишинговое письмо с использованием Docusign. Результат оказался чрезвычайно убедительным, что подтверждает способность инструмента вводить потенциальных жертв в заблуждение.
Кроме создания фишинговых писем, GhostGPT может быть использован для программирования вредоносного ПО и разработки эксплойтов.
Одной из ключевых угроз, связанных с этим инструментом, является снижение порога входа в криминальную деятельность. Благодаря генеративному ИИ мошеннические письма становятся более грамотными и сложными для выявления. Особенно это важно для хакеров, чей родной язык не является английским. GhostGPT также предлагает удобство и скорость: пользователям не нужно взламывать ChatGPT или настраивать модели с открытым исходным кодом. За фиксированную плату они получают доступ и могут сразу сосредоточиться на выполнении атак.
Подробнее: