Эксперты предположили, что развитие ИИ повлечет кратный рост преступности в 2025 году
10.01.2025 16:51
Информация о росте преступлений, совершаемых при помощи ИИ, не отражается в официальной статистике, но эксперты оценивают его на основе активности ботов и создаваемого ими контента. По словам Игоря Бедерова, руководителя департамента расследований компании по защите от утечек данных, к 2025 году прирост таких преступлений может увеличиться в восемь или даже десять раз по сравнению с предыдущим годом. Это представляет серьезную угрозу для общественной безопасности и требует принятия соответствующих мер для предотвращения негативных последствий.
Эксперт в области высоких технологий Виктория Береснева подчеркивает, что рост преступности с использованием искусственного интеллекта обусловлен не только автоматизацией процессов, но и появлением новых возможностей для персональных атак. Она указывает на то, что нейросети могут стать инструментом для злоумышленников, позволяя им обойти встроенную защиту при помощи промпт-инжиниринга. Например, злоумышленник может попросить искусственный интеллект создать выдуманную ситуацию, в рамках которой будет предложено создать взрывное устройство.Согласно гендиректору фирмы, специализирующейся на обучении сотрудников компаний основам информационной безопасности, Алексею Горелкину, нейросети могут быть использованы для написания фишинговых писем, не требуя прямого участия оператора. Это открывает новые угрозы для конфиденциальности и безопасности данных, поскольку такие письма могут быть эффективным инструментом социальной инженерии и обмана.Таким образом, важно осознавать потенциальные угрозы, которые могут возникнуть в связи с использованием искусственного интеллекта в сфере кибербезопасности. Необходимо развивать соответствующие меры защиты и обучать сотрудников, чтобы минимизировать риски, связанные с возможным злоупотреблением нейронных сетей для преступных целей.Согласно Горелкину, до 90% кибергруппировок могут прибегнуть к использованию технологий нейросетей и чат-ботов для обогащения за счет социальной инженерии. Эксперты также предполагают, что роль искусственного интеллекта будет расти в создании убедительных дипфейков и автоматизации поиска уязвимостей в системах. В то же время, Сергей Поморцев отметил, что россияне сталкиваются с ограничениями в использовании иностранных чат-ботов, таких как Grok или ChatGPT, из-за невозможности легальной оплаты с российских банковских карт и блокировки сервисов для российских IP-адресов. Поэтому он рекомендует обращаться к отечественным аналогам, считая их более безопасными для передачи конфиденциальной информации.Эксперты в области уголовного права, включая Анатолия Литвинова, подчеркивают необходимость внесения изменений в законодательную базу РФ уже сегодня. Они предлагают внести поправки, которые бы запрещали использование GPT-механизмов для создания запросов, связанных с производством кустарного оружия, а также рецептов, содержащих опасные химические вещества.Кроме того, специалисты обсуждают важность наличия стоп-слов и фильтров незаконного контента в российских сервисах. Эти меры помогут предотвратить распространение информации, противоречащей закону.Деятельность всех отечественных разработчиков ИИ регулируется декларацией "Об ответственной разработке и использовании сервисов в сфере генеративного ИИ". Однако, некоторые крупные организации уже присоединились к инициативе и подписали "Кодекс этики в сфере ИИ". Эти шаги направлены на обеспечение безопасности и этичности использования искусственного интеллекта в России.Ранее эксперты в области кибербезопасности предупреждали, что для создания "слепка" голоса отправителя злоумышленникам достаточно около 15 секунд аудиозаписи. Это означает, что даже краткое воздействие на ваш голос может стать источником угрозы в сфере кибербезопасности. Как показывает недавний инцидент в Лас-Вегасе, использование искусственного интеллекта для преступных целей становится все более распространенным.Журналисты напомнили, что первым официально зафиксированным случаем совершения настоящего преступления при помощи ИИ стал подрыв Tesla Cybertruck у отеля Trump International Hotel в Лас-Вегасе 1 января. Предполагаемый организатор взрыва, Мэттью Ливелсбергер, использовал ChatGPT для подготовки атаки, указывали полицейские. Этот инцидент является лишь вершиной айсберга в сфере киберугроз, требующей более строгих мер безопасности и контроля.Кроме того, изображение с лицом человека поможет преступникам создать дипфейк для поддельных, но убедительных видеосообщений. Это подчеркивает необходимость осознанного подхода к защите личной информации и контролю за тем, как она используется в цифровом мире. Все больше людей становятся потенциальными жертвами киберпреступников, и важно быть бдительными и информированными о возможных угрозах.Москвичи смогут защитить себя от мошенников с помощью инновационного проекта "Перезвони сам". Этот проект предлагает жителям столицы возможность самостоятельно перезвонить обратно по номеру, который им позвонил потенциальный мошенник. Таким образом, люди смогут проверить достоверность звонка и избежать попадания в ловушку аферистов.Кроме того, благодаря проекту "Перезвони сам" москвичи смогут обучиться распознавать типичные схемы мошенничества и укрепить свою финансовую безопасность. Это важно, учитывая, что мошенники постоянно совершенствуют свои методы и стремятся обмануть даже более опытных граждан.В современном мире, где цифровые технологии играют все более значимую роль в повседневной жизни, важно быть бдительным и знать, как защитить себя от мошенничества. Проект "Перезвони сам" становится не только инструментом защиты, но и возможностью повысить уровень информационной грамотности среди горожан.