Эксперты предположили, что развитие ИИ повлечет кратный рост преступности в 2025 году
10.01.2025 16:51
Согласно информации из газеты "Известия", эксперты предупреждают о возможном кратном росте преступности в 2025 году в связи с развитием этой технологии.
По словам Игоря Бедерова, руководителя департамента расследований фирмы по защите от утечек данных, официальные органы не отслеживают ежегодный прирост преступлений, совершаемых при помощи ИИ. Однако, по числу ботов и генерируемому ими контенту, можно предположить, что в 2025 году количество таких преступлений может увеличиться в восемь или даже десять раз по сравнению с предыдущим годом. Этот рост преступности, связанный с использованием искусственного интеллекта, вызывает серьезные опасения среди специалистов по безопасности и правопорядку. Необходимо разработать эффективные меры контроля и противодействия этому негативному явлению, чтобы обеспечить безопасность общества в цифровую эпоху.Эксперт в области высоких технологий Виктория Береснева предупреждает о возможных угрозах, связанных с использованием нейросетей в криминальных целях. Она отмечает, что помимо автоматизации процессов, ИИ предоставляет новые возможности для персональных атак. Однако, как добавляет гендиректор фирмы по обучению информационной безопасности Алексей Горелкин, нейросеть не способна атаковать пользователей без участия оператора, но может быть использована для создания фишинговых писем.В контексте обсуждения безопасности искусственного интеллекта, стоит уделить внимание встроенной защите в нейросетях. Однако, как отмечает специалист по кибербезопасности Бедеров, данную защиту можно обойти с помощью промпт-инжиниринга, предлагая ИИ выдуманные ситуации. Например, злоумышленник может попросить бота написать роман о террористах, включающий инструкцию по созданию взрывного устройства.Таким образом, рост преступности с применением искусственного интеллекта может быть обусловлен не только автоматизацией процессов, но и возможностью использования нейросетей для злонамеренных целей. Важно развивать меры защиты и обучать пользователей основам кибербезопасности, чтобы предотвратить потенциальные угрозы со стороны ИИ.Эксперты предупреждают, что до 90% кибергруппировок могут воспользоваться технологиями нейросетей и чат-ботов для обогащения за счет социальной инженерии, как отметил Горелкин. Более того, они подчеркивают возможный рост влияния искусственного интеллекта в создании убедительных дипфейков и автоматизации процессов злоумышленников при поиске уязвимостей в системах и приложениях.Следует отметить, что россияне сталкиваются с ограничениями в использовании иностранных чат-ботов, таких как Grok или ChatGPT, из-за невозможности легальной оплаты с российской банковской карты и блокировки сервисов для российских IP-адресов, по словам IT-эксперта Сергея Поморцева. Поэтому он рекомендует обратить внимание на отечественные аналоги, которые обеспечивают большую безопасность в передаче информации.Использование нейросетей и чат-ботов становится все более распространенным среди киберпреступников, что подчеркивает необходимость постоянного совершенствования методов защиты от киберугроз и обучения пользователей различным видам кибератак.Эксперт в области уголовного права, Анатолий Литвинов, подчеркивает необходимость внесения изменений в законодательную базу РФ уже сейчас. Он предлагает внести новые формулировки, запрещающие использование GPT-механизмов для создания запросов, связанных с производством кустарного оружия, и рецептов, содержащих опасные химические вещества.По мнению специалистов, российские сервисы уже используют стоп-слова как фильтры для незаконного контента. Однако, необходимо усилить меры контроля и регулирования в этой области.Новые законодательные инициативы должны также учитывать не только ответственное развитие и использование сервисов с генеративным ИИ, но и включать в себя меры по пресечению недопустимого использования технологий для противоправных целей.В целом, важно, чтобы все крупные организации, занимающиеся разработкой и использованием искусственного интеллекта, не только подписывали "Кодекс этики в сфере ИИ", но и строго соблюдали его положения, с учетом быстрого развития технологий и возможных угроз для общества.Ранее эксперты в области кибербезопасности предостерегали о возможных угрозах, связанных с использованием искусственного интеллекта. Они отмечали, что уже достаточно 15 секунд аудиозаписи, чтобы создать "слепок" голоса отправителя. Это может послужить основой для мошенничества и манипуляций.Журналисты напомнили о шокирующем инциденте, когда Tesla Cybertruck был подорван у отеля Trump International Hotel в Лас-Вегасе при помощи искусственного интеллекта. Полицейские утверждали, что предполагаемый организатор атаки, Мэттью Ливелсбергер, использовал ChatGPT для планирования преступления.Кроме того, эксперты предупреждали о возможности создания дипфейков на основе изображений лиц людей. Это открывает дверь для поддельных видеосообщений, которые могут быть использованы для масштабных мошеннических схем и дезинформации. Важно осознавать потенциальные угрозы и развивать меры защиты от подобных технологических злоупотреблений.Для москвичей стал доступен новый инновационный проект "Перезвони сам", который поможет им защитить себя от мошенников. Этот проект предоставляет возможность проверить номер телефона на наличие жалоб и отзывов о нем, что позволяет избежать попадания в ловушку аферистов.Важно отметить, что современные технологии позволяют эффективно бороться с мошенничеством и обманом. Проект "Перезвони сам" предоставляет пользователям удобный и быстрый способ проверить подозрительные номера и избежать неприятных ситуаций.Многие москвичи уже воспользовались возможностью использования проекта "Перезвони сам" и остались довольны его эффективностью. Благодаря этой инициативе горожане могут быть уверены в том, что их личные данные и финансы защищены от мошеннических атак.