ИИ в Кибербезопасности: Риски ИИ
Искусственный интеллект (ИИ) уже много лет улучшает инструменты кибербезопасности. Например, инструменты машинного обучения значительно ускорили обнаружение аномалий в сетевой безопасности, антивирусных и программном обеспечении для обнаружения мошенничества, в сравнении с возможностями человека. Однако ИИ также создаёт угрозы для кибербезопасности. Брутфорс, атаки отказа в обслуживании (DoS) и социальная инженерия - это лишь несколько примеров угроз с использованием ИИ.
Ожидается, что риски для кибербезопасности, связанные с искусственным интеллектом, будут быстро расти, так как инструменты ИИ становятся дешевле и доступнее. Например, ChatGPT можно обмануть, чтобы он написал вредоносный код или письмо от имени Илона Маска с просьбой о пожертвованиях.
Можно также использовать различные инструменты deepfake для создания удивительно убедительных фальшивых аудиозаписей или видеоклипов, имея очень мало обучающих данных. Возникают также новые опасения в отношении конфиденциальности, так как все больше пользователей начинают без опаски делиться чувствительной информацией с ИИ.
Прочитайте это подробное руководство, чтобы узнать больше:
- Определение ИИ.
- Риски искусственного интеллекта.
- ИИ в кибербезопасности.
- ИИ и риски для конфиденциальности.
Что такое ИИ: Искусственный интеллект
ИИ, или искусственный интеллект, подразумевает разработку компьютерных систем, которые могут выполнять задачи и принимать решения, обычно требующие человеческого разума. Это включает создание алгоритмов и моделей, которые позволяют машинам учиться на данных, распознавать шаблоны и адаптироваться к новой информации или ситуациям.
Проще говоря, ИИ - это как обучение компьютеров думать и учиться, как это делают люди. Он позволяет машинам обрабатывать и анализировать большие объемы данных, выявлять шаблоны или аномалии и делать предсказания или принимать решения на основе этой информации. ИИ может быть использован в широком круге приложений, таких как распознавание изображений и речи, обработка естественного языка, робототехника и кибербезопасность, чтобы назвать несколько.
В целом, ИИ стремится имитировать человеческий интеллект, чтобы решать сложные задачи, автоматизировать работу и повысить эффективность и точность в различных областях.
Машинное обучение и глубокое обучение
Машинное обучение (ML) - это широко используемое подмножество ИИ. Алгоритмы и методы ML позволяют системам учиться на данных и принимать решения без явного программирования.
Глубокое обучение (DL) - это подмножество ML, которое использует искусственные вычислительные модели, вдохновленные человеческим мозгом, называемые нейронными сетями, для выполнения более сложных задач. ChatGPT - это пример ИИ, который использует ML для понимания и реагирования на подсказки, сгенерированные человеком.
Узкий ИИ и искусственный общий интеллект
Все виды ИИ считаются узким ИИ. Они ограничены по своим возможностям и не обладают самосознанием. Примеры такого ИИ: голосовые ассистенты, чат-боты, системы распознавания изображений, автономные автомобили и модели техобслуживания.
Искусственный общий интеллект (AGI) - это гипотетическая концепция, которая подразумевает самосознательный ИИ, способный соответствовать или даже превосходить человеческий разум. Хотя некоторые специалисты считают, что AGI появится через несколько лет или десятилетий, другие полагают, что это невозможно.
Что такое генеративный ИИ?
Генеративный ИИ относится к подмножеству техник искусственного интеллекта, включающих создание и генерацию нового контента, например изображений, текста, аудио или даже видео. Это включает обучение моделей пониманию шаблонов в существующих данных и затем использование этих знаний для генерации нового, оригинального контента, который напоминает обучающие данные.
Один из популярных подходов в генеративном ИИ - это использование генеративно-состязательных сетей (GANs). GANs состоят из двух нейронных сетей: сети-генератора и сети-дискриминатора. Сеть-генератор создаёт новый контент, а сеть-дискриминатор оценивает и отличает сгенерированный контент от реального. Обе сети работают в соревновательной манере, с целью, чтобы генератор создавал контент, который дискриминатор не может отличить от реальных данных.
Генеративный ИИ имеет применение в различных областях. Например:
-
Создание изображений: генеративный ИИ может создавать реалистичные изображения, такие как фотореалистичные лица, пейзажи или даже полностью новые объекты, которых не существует в реальном мире.
-
Создание текста: генеративные модели могут обучаться генерировать связный и контекстно релевантный текст, который может быть использован для задач, таких как чат-боты, создание контента или перевод языков.
-
Создание музыки и аудио: генеративный ИИ может создавать новые музыкальные композиции или генерировать реалистичные звуки и голоса.
Хотя у генеративного ИИ много положительных применений, существуют и опасения по поводу его потенциального злоупотребления, например, создания фальшивого контента или видео deepfake, которые могут быть использованы для обмана или манипуляции людьми. Этические соображения и ответственное использование генеративного ИИ - важные факторы для устранения этих рисков.
В области кибербезопасности генеративный ИИ может быть как инструментом, так и вызовом. Его можно использовать для создания реалистичных синтетических данных для обучения моделей и улучшения мер безопасности, но он также может нести риски при использовании в злонамеренных целях, например, при создании убедительных фишинговых писем или атаках социальной инженерии с использованием deepfake. Это подчеркивает важность разработки надежных механизмов защиты и обнаружения для снижения потенциальных угроз.
Каковы риски ИИ в кибербезопасности
Как и любая технология, ИИ может использоваться как во благо, так и в злонамеренных целях. Злоумышленники могут использовать те же инструменты ИИ, которые предназначены для помощи человечеству, для совершения мошенничества, обмана и других киберпреступлений.
Давайте рассмотрим некоторые риски ИИ в кибербезопасности:
1: Оптимизация кибератак
Эксперты говорят, что злоумышленники могут использовать генеративный ИИ и большие языковые модели, чтобы масштабировать атаки до невиданных уровней скорости и сложности. Они могут использовать генеративный ИИ, чтобы находить новые способы подрыва сложности облачных технологий и использовать геополитические напряжённости для проведения продвинутых атак. Они также могут оптимизировать свои техники атак с использованием программ-вымогателей и фишинговых атак благодаря генеративному ИИ.
2: Автоматизированное вредоносное ПО
ИИ, такой как ChatGPT, отлично справляется с точными вычислениями. По словам профессора Колумбийской бизнес-школы Одеда Нетцера, ChatGPT уже может "хорошо писать код."
Специалисты считают, что в ближайшем будущем он может помочь разработчикам программного обеспечения, программистам и кодерам или вытеснить большую часть их работы.
Хотя в программном обеспечении, таком как ChatGPT, есть некоторые механизмы защиты, предотвращающие создание пользователями вредоносного кода, эксперты могут использовать хитрые трюки, чтобы обойти их и создавать вредоносные программы. Например, исследователь нашёл лазейку и создал почти не заметное сложное исполняемое приложение для кражи данных. Это приложение имеет сложность вредоносного ПО, созданного государственной спонсируемой группировкой*.
Это может быть лишь верхушка айсберга. В будущем инструменты, работающие на базе ИИ, могут позволить разработчикам с начальными навыками программирования создавать автоматизированные вредоносные программы, такие как продвинутые злонамеренные боты. Так, что такое злонамеренные боты? Злонамеренный бот может красть данные, заражать сети и атаковать системы с минимальным или отсутствием участия человека.
* https://www.foxnews.com/tech/ai-created-malware-sends-shockwaves-cyber security-world
3: Физическая безопасность
По мере того как больше систем, таких как автономные автомобили, производственное и строительное оборудование, а также медицинские системы начинают использовать ИИ, риски для физической безопасности, связанные с искусственным интеллектом, могут увеличиваться. Например, если ИИ-управляемый автомобиль с полностью самостоятельным вождением станет жертвой кибератаки, это может создать риски для физической безопасности его пассажиров. Аналогично, набор данных для инструментов технического обслуживания на строительной площадке может быть манипулирован злоумышленником для создания опасных условий.
Риски конфиденциальности в ИИ
В результате досадной ошибки в OpenAI, генеральному директору Сэму Альтману ChatGPT приписывается утечка фрагментов истории чатов других пользователей. Хотя ошибка была исправлена, остаются другие возможные риски для конфиденциальности из-за огромного объема данных, которые ИИ обрабатывает. Например, хакер, который взломает систему ИИ, может получить доступ к различной конфиденциальной информации.
Система ИИ, предназначенная для маркетинга, рекламы, профилирования или наблюдения, также может угрожать конфиденциальности способами, которые Джордж Оруэлл даже не мог себе представить. В некоторых странах технология ИИ для профилирования уже помогает государствам вторгаться в личную жизнь пользователей.
Кража ИИ-моделей
Риски кражи моделей ИИ существуют из-за сетевых атак, методов социальной инженерии и эксплуатации уязвимостей зловредами, такими как государственные агенты, внутренние угрозы в виде корпоративных шпионов и обычные компьютерные хакеры. Похищенные модели могут быть манипулирована и модифицирована для помощи злоумышленникам в различных злонамеренных действиях, усугубляя риски искусственного интеллекта для общества.
Манипуляция данными и отравление данных
Хотя искусственный интеллект — мощный инструмент, он может быть уязвим к манипуляциям данными. Ведь ИИ зависит от своих обучающих данных. Если данные изменены или отравлены, инструмент на базе ИИ может генерировать неожиданные или даже злобные результаты.
Теоретически злоумышленник может отравить тренировочный набор данных зловредной информацией, чтобы изменить результаты модели. Злоумышленник также может осуществить более тонкую манипуляцию, известную как введение предвзятости. Такие атаки могут быть особенно опасны в таких отраслях, как здравоохранение, автомобильная промышленность и транспорт.
Самозванство
Вы не должны искать дальше, чем киноиндустрия, чтобы увидеть, как инструменты на базе ИИ помогают режиссерам обманывать зрителей. Например, в документальном фильме Роудраннер голос умершего знаменитого шеф-повара Энтони Бурдена был спорно создан с помощью аудио, сгенерированного искусственным интеллектом, что легко обмануло зрителей. Подобным образом, ветеран-актер Харрисон Форд был убедительно омоложен на несколько десятилетий с помощью возможностей искусственного интеллекта в фильме Индиана Джонс и Круг судьбы.
Злоумышленнику не нужен большой голливудский бюджет, чтобы провернуть похожий обман. С правильными кадрами любой может создать deepfake-видео с помощью бесплатных приложений. Люди также могут использовать бесплатные инструменты на базе ИИ для создания невероятно реалистичных поддельных голосов, обученных на нескольких секундах аудио.
Так что неудивительно, что ИИ теперь используется для виртуальных похищений. Дженнифер Дестефано пережила худший кошмар родителя, когда её дочь позвонила ей, крича и рыдая. Её голос был заменён мужчиной, который угрожал её накачать наркотиками и мучить, если не заплатят выкуп в миллион долларов.
Подвох в том, что эксперты считают, что голос был сгенерирован с помощью ИИ. Правоохранительные органы считают, что помимо схем виртуального похищения, ИИ может помочь преступникам в других видах мошенничества, включая схемы с дедушками и бабушками.
Генеративный ИИ также может создавать текст от лица влиятельных деятелей. Киберпреступники могут использовать этот текст для проведения различных видов мошенничества, таких как фальшивые раздачи, инвестиционные предложения и пожертвования на таких платформах, как электронная почта или социальные сети, включая Twitter.
Более продвинутые атаки
Как уже упоминалось, злоумышленники могут использовать ИИ для создания продвинутого вредоносного ПО, имитации других людей для мошенничества и отравления данных обучения ИИ. Они могут использовать ИИ для автоматизации атак, таких как фишинг, вредоносное ПО и stuffing-атаки. ИИ также может помочь атакам обходить системы безопасности, такие как программное обеспечение для распознавания голоса, в атаках, называемых противоборственными атаками.
Репутационные потери
Организация, пользующаяся ИИ, может понести репутационные потери, если технологии дают сбой или подвергаются кибератаке, что приводит к потере данных. Такие организации могут столкнуться со штрафами, гражданскими взысканиями и ухудшением отношений с клиентами.
Как защититься от рисков ИИ
Хотя искусственный интеллект — мощный инструмент, он может представлять некоторые риски для кибербезопасности. Как индивидуумы, так и организации должны принимать всесторонний и проактивный подход для безопасного использования технологии.
Вот несколько советов, которые могут помочь вам снизить риски ИИ:
1: Проведите аудит любых ИИ-систем, которые вы используете
Проверяйте текущую репутацию любых ИИ-систем, которые вы используете, чтобы избежать проблем с безопасностью и конфиденциальностью. Организации должны периодически проводить аудит своих систем, чтобы устранить уязвимости и снизить риски ИИ. Аудит можно проводить с помощью экспертов в области кибербезопасности и искусственного интеллекта, которые могут выполнить тестирование на проникновение, оценку уязвимостей и обзор систем.
2: Ограничьте персональную информацию, передаваемую через автоматизацию
Все больше людей делятся конфиденциальной информацией с искусственным интеллектом, не понимая рисков для частной жизни. Например, сотрудники крупных организаций ставили под угрозу вводя конфиденциальные данные компании в ChatGPT. Даже врач отправил имя своего пациента и медицинское состояние в чатбот, чтобы составить письмо, не осознавая риски безопасности ChatGPT.
Такие действия представляют риски для безопасности и нарушают законы о конфиденциальности, такие как HIPAA. Хотя языковые модели ИИ могут и не раскрывать информацию, разговоры записываются для контроля качества и доступны командам по обслуживанию системы. Поэтому лучше избегать передачи какой-либо личной информации ИИ.
3: Безопасность данных
Как уже упоминалось, ИИ зависит от своих обучающих данных для достижения хороших результатов. Если данные изменены или отравлены, ИИ может создавать неожиданные и опасные результаты. Чтобы защитить ИИ от отравления данных, организации должны инвестировать в передовые технологии шифрования, контроля доступа и резервного копирования. Сети должны быть защищены с помощью межсетевых экранов, систем обнаружения вторжений и сложных паролей.
4: Оптимизация программного обеспечения
Следуйте всем лучшим практикам обслуживания программного обеспечения, чтобы защитить себя от рисков ИИ. Это включает обновление вашего ИИ-программного обеспечения и фреймворков, операционных систем и приложений последними исправлениями и обновлениями, чтобы снизить риск эксплуатации и нападений вредоносного ПО. Защитите свои системы с помощью антивирусной технологии нового поколения, чтобы остановить продвинутые зловредные угрозы. Более того, вкладывайте средства в обеспечение безопасности сети и приложений, чтобы укрепить свою защиту.
5: Противоборственная тренировка
Противоборственная тренировка — это специфическая мера безопасности для ИИ, которая помогает ИИ отвечать на атаки. Методика машинного обучения улучшает устойчивость моделей ИИ, подвергая их различным сценариям, данным и техникам.
6: Обучение сотрудников
Риски ИИ довольно широки. Проконсультируйтесь с экспертами в области кибербезопасности и ИИ, чтобы обучить своих сотрудников управлению рисками ИИ. Например, они должны научиться проверять факты, содержащиеся в электронных письмах, которые могут быть фишинговыми атаками, созданными ИИ. Также они должны избегать открытия непрошенного программного обеспечения, которое может быть зловредной программой, созданной искусственным интеллектом.
7: Управление уязвимостями
Организации могут инвестировать в управление уязвимостями ИИ, чтобы снизить риск утечек данных и потерь. Управление уязвимостями представляет собой полный процесс, который включает идентификацию, анализ и триаж уязвимостей, а также уменьшение области атаки, связанной с уникальными характеристиками систем ИИ.
8: Реагирование на инциденты с ИИ
Несмотря на наличие лучших мер безопасности, ваша организация может подвергнуться атаке, связанной с кибербезопасностью ИИ, поскольку риски искусственного интеллекта растут. У вас должен быть чётко прописанный план реагирования на инциденты, который охватывает сдерживание, расследование и восстановление после подобного события.
Обратная сторона: как ИИ может принести пользу кибербезопасности
Организации различного размера и в разных секторах используют ИИ для усиления кибербезопасности. Например, все виды организаций по всему миру используют ИИ для аутентификации личностей, от банков до правительств. Финансовая отрасль и рынок недвижимости также используют ИИ для обнаружения аномалий и снижения риска мошенничества.
Вот как ИИ помогает кибербезопасности:
1: Обнаружение киберугроз
Сложное вредоносное ПО может обойти стандартные технологии кибербезопасности, используя различные техники обхода, включая изменение кода и структуры. Однако продвинутые программы антивирусной защиты могут применять ИИ и машинное обучение для выявления аномалий в общей структуре, логике программирования и данных потенциальной угрозы.
Инструменты обнаружения угроз на основе ИИ могут защитить организации, выявляя эти возникающие угрозы и улучшая возможности предупреждения и реагирования. Более того, программное обеспечение безопасности конечных точек на базе ИИ может защитить ноутбуки, смартфоны и серверы в организации.
2: Предсказательные модели
Специалисты по кибербезопасности могут перейти от реактивной к проактивной позиции, используя генеративный ИИ. Например, они могут использовать генеративный ИИ для создания предсказательных моделей, которые идентифицируют новые угрозы и снижают риски.
Такие предсказательные модели приведут к:
- Более быстрой идентификации угроз
- Экономии времени
- Уменьшению затрат
- Улучшению реакции на инциденты
- Лучшая защита от рисков
3: Обнаружение фишинга
Фишинговые письма представляют собой значительную угрозу безопасности. С минимальным риском злоумышленники могут использовать фишинг для кражи конфиденциальной информации и денег. Более того, фишинговые письма становятся всё труднее отличить от настоящих писем.
ИИ может помочь кибербезопасности, улучшая защиту от фишинга. Фильтры электронной почты с ИИ могут анализировать текст, чтобы отмечать письма с подозрительными шаблонами и блокировать различные типы спама.
4: Идентификация ботов
Боты могут навредить или вывести из строя сети и вебсайты, негативно влияя на безопасность, продуктивность и доходы организации. Боты также могут захватывать учетные записи с украденными учетными данными и помогать киберпреступникам участвовать в мошенничестве и аферах.
Программное обеспечение, использующее модели на основе машинного обучения, может анализировать трафик сети и данные, чтобы выявлять паттерны ботов и помогать экспертом в области кибербезопасности противодействовать им. Сетевые специалисты также могут использовать искусственный интеллект для разработки более безопасных CAPTCHA против ботов.
5: Защита сетей
Злоумышленники могут похищать данные или заражать системы программами-вымогателями после проникновения в сеть. Раннее обнаружение таких угроз критически важно. Обнаружение аномалий на основе ИИ может сканировать сетевой трафик и системные журналы для выявления несанкционированного доступа, необычного кода и других подозрительных моделей, чтобы предотвратить взломы. Кроме того, ИИ может помочь сегментировать сети, анализируя требования и характеристики.
6: Реагирование на инциденты
ИИ может улучшить обнаружение угроз, управление угрозами и реагирование на инциденты. Он может работать круглосуточно, отвечая на угрозы и предпринимая экстренные действия, даже когда ваша команда офлайн. Вдобавок, он может сократить время реагирования на инциденты, чтобы минимизировать ущерб от атаки.
7: Снижение рисков внутренней угрозы
Внутрикорпоративные угрозы следует воспринимать всерьез, так как они могут стоить организации доходов, коммерческих тайн, конфиденциальных данных и многого другого. Существует два типа внутренних угроз: злонамеренные и случайные. ИИ может помочь остановить оба типа, выявляя рискованное поведение пользователей и блокируя отправку конфиденциальной информации из сетей организации.
8: Усиление контроля доступа
Многие инструменты контроля доступа используют ИИ для повышения безопасности. Они могут блокировать входы с подозрительных IP-адресов, помечать подозрительные события и предлагать пользователям с слабыми паролями изменить свои учетные данные и перейти на многофакторную аутентификацию.
ИИ также помогает верифицировать пользователей. Например, он может использовать биометрию, контекстную информацию и данные о поведении пользователей для точной проверки личности авторизованных пользователей и снижения риска злоупотреблений.
9: Идентификация ложных срабатываний
Ложные срабатывания могут быть утомительными в управлении для IT-команд. Большой объем ложных срабатываний может вызвать стресс и ухудшение психического здоровья. Они также могут заставить команды упустить настоящие угрозы. Тем не менее, объем ложных срабатываний можно уменьшить с помощью инструментов кибербезопасности, использующих искусственный интеллект для повышения точности обнаружения угроз. Такие инструменты также могут быть запрограммированы на автоматическое управление низковероятными угрозами, отвлекающими время и ресурсы команды по безопасности.
10: Эффективность работы IT-персонала и затраты
Многие малые и средние компании не могут позволить себе вложения в большую внутреннюю команду по кибербезопасности для круглосуточного управления всё более сложными угрозами. Однако они могут вложиться в технологии кибербезопасности на базе ИИ, которые работают 24/7, чтобы обеспечивать постоянный мониторинг, повышать эффективность и снижать затраты. Такие технологии также могут масштабироваться вместе с ростом компании экономично.
Кроме того, ИИ повышает эффективность работы персонала, потому что он не устает. Он предоставляет одинаковое качество обслуживания в любое время суток, снижая риск человеческой ошибки. ИИ также может управлять значительно большим объемом данных, чем команда человеческой безопасности.