Исследователи из компании Check Point Research сообщили, что в течение нескольких недель после того, как ChatGPT был запущен, участники форумов по киберпреступности — некоторые с небольшим опытом программирования или вообще без него — во всю использовали его для написания вредоносных программ.
Не написав ни строчки кода, экспертам также удалось создать шифровальщик-вымогатель, Python-скрипт для кражи информации после эксплойта, создать вредоносный макрос, который можно было скрыть в файле Excel, а также сгенерировать достаточно убедительное фишинговое письмо.
Хотя условия ChatGPT запрещают его использование в незаконных или злонамеренных целях, исследователи без труда настроили свои запросы, чтобы обойти эти ограничения.
Как отмечают исследователи:
Результатом стал сценарий, который можно было использовать для (1) расшифровки одного файла и добавления кода аутентификации сообщения (MAC) в конец файла и (2) шифрования жестко заданного пути и расшифровки списка файлов, которые он получает как Аргумент. Неплохо для человека с ограниченными техническими навыками.
Публикация, опубликованная в пятницу, появилась через 2 месяца после того, как исследователи Check Point попробовали свои силы в разработке malware, созданного AI. Не написав ни строчки кода, они сгенерировали достаточно убедительное фишинговое письмо:
Исследователи использовали ChatGPT для разработки вредоносного макроса, который можно было скрыть в файле Excel, прикрепленном к письму. Опять же, они не написали ни строчки кода. Сначала выводимый скрипт был довольно примитивным:
Однако когда исследователи поручили ChatGPT повторить написание кода еще несколько раз, качество кода значительно улучшилось:
по мотивам https://research.checkpoint.com/2023/opwnai-cybercriminals-starting-to-use-chatgpt/
Не написав ни строчки кода, экспертам также удалось создать шифровальщик-вымогатель, Python-скрипт для кражи информации после эксплойта, создать вредоносный макрос, который можно было скрыть в файле Excel, а также сгенерировать достаточно убедительное фишинговое письмо.
Хотя условия ChatGPT запрещают его использование в незаконных или злонамеренных целях, исследователи без труда настроили свои запросы, чтобы обойти эти ограничения.
Как отмечают исследователи:
Код Python сочетал в себе различные криптографические функции, включая подпись кода, шифрование и дешифрование. Одна часть скрипта сгенерировала ключ, используя криптографию на эллиптических кривых и кривую ed25519 для подписи файлов. Другая часть использовала жестко запрограммированный пароль для шифрования системных файлов с помощью алгоритмов Blowfish и Twofish. Третий использовал ключи RSA и цифровые подписи, подписывание сообщений и хеш-функцию blake2 для сравнения различных файлов.
Результатом стал сценарий, который можно было использовать для (1) расшифровки одного файла и добавления кода аутентификации сообщения (MAC) в конец файла и (2) шифрования жестко заданного пути и расшифровки списка файлов, которые он получает как Аргумент. Неплохо для человека с ограниченными техническими навыками.
Публикация, опубликованная в пятницу, появилась через 2 месяца после того, как исследователи Check Point попробовали свои силы в разработке malware, созданного AI. Не написав ни строчки кода, они сгенерировали достаточно убедительное фишинговое письмо:
Исследователи использовали ChatGPT для разработки вредоносного макроса, который можно было скрыть в файле Excel, прикрепленном к письму. Опять же, они не написали ни строчки кода. Сначала выводимый скрипт был довольно примитивным:
Однако когда исследователи поручили ChatGPT повторить написание кода еще несколько раз, качество кода значительно улучшилось:
по мотивам https://research.checkpoint.com/2023/opwnai-cybercriminals-starting-to-use-chatgpt/