Хакеры начали использовать ChatGPT от OpenAI в злонамеренных целях, как сообщает отчет за 2024 год. В OpenAI зафиксировали более 20 случаев, когда злоумышленники, включая спонсируемые государством группы из Китая и Ирана, использовали этот ИИ для кибератак. Эти действия варьировались от отладки вредоносного ПО до создания контента для фишинговых атак и дезинформации.
Одним из примеров является китайская группа «SweetSpecter», которая пыталась применять ChatGPT для разработки вредоносного ПО и проведения разведки. Иранская группа «CyberAv3ngers» использовала ИИ для исследования уязвимостей критической инфраструктуры. Другая группа, «STORM-0817», разрабатывала с его помощью Android-вредоносное ПО для кражи данных.
Несмотря на тревожные факты, в OpenAI заявили, что значительных прорывов в создании вредоносного ПО с помощью ChatGPT не произошло. Однако, по мере того как ИИ становится более доступным, растут и риски его злоупотребления, особенно среди менее квалифицированных хакеров.
В ответ на угрозы OpenAI приняла меры, такие как блокировка аккаунтов, связанных с преступной деятельностью, и сотрудничество с партнерами по кибербезопасности. Эксперты подчеркивают необходимость создания мощных механизмов защиты ИИ, чтобы предотвратить его использование в преступных целях.
OpenAI запустили собственный интернет-поисковик SearchGPT на основе ИИ