'
Карачурин А.М.
КОМПЬЮТЕРНОЕ ЗРЕНИЕ КАК СРЕДСТВО ЗАЩИТЫ ОТ ИНСАЙДЕРСКИХ АТАК *
Аннотация:
объектом исследования является информационная система защиты конфиденциальной информации от инсайдерских атак. Проанализированы данные об утечках информации. Составлен датасет из трех классов. На базе датасета обучена нейронная сеть для распознавания фотоаппаратуры. Реализован функционал реагирования на инциденты
Ключевые слова:
система компьютерного зрения, информационная система защиты конфиденциальной информации, несанкционированный доступ, построение датасета, обучение нейронной сети, YOLOv8
DOI 10.24412/2712-8849-2023-764-209-222
УДК 004.8
Карачурин А.М.
магистр,
Уфимский университет науки и технологий
(г. Уфа, Россия)
КОМПЬЮТЕРНОЕ ЗРЕНИЕ КАК СРЕДСТВО
ЗАЩИТЫ ОТ ИНСАЙДЕРСКИХ АТАК
Аннотация: объектом исследования является информационная система защиты конфиденциальной информации от инсайдерских атак. Проанализированы данные об утечках информации. Составлен датасет из трех классов. На базе датасета обучена нейронная сеть для распознавания фотоаппаратуры. Реализован функционал реагирования на инциденты.
Ключевые слова: система компьютерного зрения, информационная система защиты конфиденциальной информации, несанкционированный доступ, построение датасета, обучение нейронной сети, YOLOv8.
В эпоху неослабевающего технологического прогресса, компьютерное зрение вступает на сцену как значимый актив в области кибербезопасности. С учетом непрекращающегося роста объемов цифровых данных, сгенерированных как людьми, так и машинами, инсайдерские атаки становятся все более существенной угрозой для индивидов, компаний и государственных учреждений. Поиск эффективных средств противодействия инсайдерским угрозам не прекращается, и в данной работе представляется новый подход к их преодолению - использование технологий компьютерного зрения.
Компьютерное зрение — это научная дисциплина, которая изучает возможности создания искусственных систем, способных "видеть" и анализировать визуальную информацию так же, как это делают люди. Благодаря продвинутым алгоритмам и машинному обучению, эта область достигла значительных успехов и начинает находить применение во многих секторах. От исследований в области автономных транспортных средств до медицинских диагностических инструментов - компьютерное зрение открывает новые возможности. Однако, его потенциал в области кибербезопасности еще далеко не исчерпан.
В данной статье исследуется применение технологий компьютерного зрения в контексте защиты от инсайдерских атак. Цель этой работы - исследовать и оценить, как компьютерное зрение может помочь распознавать и предотвращать подозрительную или аномальную активность, связанную с потенциальными инсайдерскими угрозами.
Если обратится к исследованию утечек информации от InfoWatch, выясняется следующее.
В первой половине 2022 года Россия столкнулась с тревожной ситуацией в области защиты данных, поскольку было установлено, что почти 188 миллионов записей попали в нежелательные руки. Эти цифры свидетельствуют о серьезном нарушении конфиденциальности и безопасности информации. Особенно тревожным является факт, что внутренние нарушения составляют 75 процентов от общего числа случаев.
Утечки данных представляют значительную угрозу для частной жизни и финансовой безопасности граждан, а также для бизнесов и организаций, которые могут быть подвержены мошенничеству и хищению личной информации. Нарушения внутреннего характера только усиливают эту тревогу, поскольку они указывают на возможные проблемы внутри организаций и их систем защиты.
Количество утекших записей, млн Доля нарушений внутреннего характера
Рисунок 1. Исследование утечек информации в 1 половине 2022 года.
Для защиты информации от утечек предлагается внедрить систему защиты информации от инсайдерских атак. При этом предполагается, что внедрение будет происходить уже на существующую систему защиты информации, включающую в себя такие стандартные меры, как СЗИ от НСД, СКУД и DLP-систему.
Перед построением системы необходимо осуществить выбор архитектуры компьютерного зрения. Для выбора архитектуры было решено обратится к системному подходу принятия решений, а именно к методу анализа иерархий (МАИ).
Основные критерии:
Основные альтернативы:
Бальная шкала:
Составим матрицу попарных сравнений критериев (Таблица 1):
Таблица 1. Матрица попарных сравнений критериев
Производительность |
Сложность обучения |
FPS моделей |
Точность распознавания |
Интегративные возможности |
Возможность работы с видеопотоком |
Возможность распознавания мелких объектов |
Yi |
Yiн |
|
Производительность |
1 |
7 |
5 |
1 |
3 |
1 |
3 |
2,274582 |
0,237131695 |
Сложность обучения |
1/7 |
1 |
1/2 |
1/8 |
1/5 |
1/8 |
1/5 |
0,239076 |
0,024924365 |
FPS моделей |
1/5 |
2 |
1 |
1/5 |
1/3 |
1/6 |
1/4 |
0,378412 |
0,039450585 |
Точность распознавания |
1 |
8 |
5 |
1 |
4 |
1 |
3 |
2,415653 |
0,251838753 |
Интегративные возможности |
1/3 |
5 |
3 |
1/4 |
1 |
1/4 |
1 |
0,846907 |
0,0882925 |
Возможность работы с видеопотоком |
1 |
8 |
6 |
1 |
4 |
1 |
3 |
2,479397 |
0,258484298 |
Возможность распознавания мелких объектов |
1/3 |
5 |
4 |
1/3 |
1 |
1/3 |
1 |
0,958034 |
0,099877805 |
Сумма |
4,00952381 |
36 |
24,5 |
3,908333333 |
13,53333333 |
3,875 |
11,45 |
9,59206 |
1 |
Согласно нормализованному вектору приоритетов, больший приоритет отдается таким критериям, как «Производительность», «Точность распознавания» и «Возможность работы с видеопотоком»
Составим матрицы попарных сравнений для альтернатив по критериям (Таблица 2-8):
Таблица 2. Матрица попарных сравнений альтернатив по критерию «Производительность»
Производительность |
R‑CNN |
Fast R‑CNN |
Faster R‑CNN |
YOLO |
Yi |
Yiн |
R‑CNN |
1 |
1/3 |
1/5 |
1/9 |
0,293371 |
0,04747 |
Fast R‑CNN |
3 |
1 |
1/4 |
1/7 |
0,572125 |
0,092575 |
Faster R‑CNN |
5 |
4 |
1 |
1/3 |
1,606857 |
0,260003 |
YOLO |
9 |
7 |
3 |
1 |
3,707793 |
0,599952 |
Сумма |
18 |
12,33333333 |
4,45 |
1,587301587 |
6,180145 |
1 |
Таблица 3. Матрица попарных сравнений альтернатив по критерию «Сложность обучения»
Сложность обучения |
R‑CNN |
Fast R‑CNN |
Faster R‑CNN |
YOLO |
Yi |
Yiн |
R‑CNN |
1 |
1/3 |
1/5 |
1/9 |
0,293371 |
0,04747 |
Fast R‑CNN |
3 |
1 |
1/4 |
1/7 |
0,572125 |
0,092575 |
Faster R‑CNN |
5 |
4 |
1 |
1/3 |
1,606857 |
0,260003 |
YOLO |
9 |
7 |
3 |
1 |
3,707793 |
0,599952 |
Сумма |
18 |
12,33333333 |
4,45 |
1,587301587 |
6,180145 |
1 |
Таблица 4. Матрица попарных сравнений альтернатив по критерию «FPS моделей»
FPS моделей |
R‑CNN |
Fast R‑CNN |
Faster R‑CNN |
YOLO |
Yi |
Yiн |
R‑CNN |
1 |
1/8 |
1/8 |
1/9 |
0,204124 |
0,035439 |
Fast R‑CNN |
8 |
1 |
1 |
1/3 |
1,277886 |
0,221859 |
Faster R‑CNN |
8 |
1 |
1 |
1/3 |
1,277886 |
0,221859 |
YOLO |
9 |
3 |
3 |
1 |
3 |
0,520843 |
Сумма |
26 |
5,125 |
5,125 |
1,777777778 |
5,759897 |
1 |
Таблица 5. Матрица попарных сравнений альтернатив по критерию «Точность распознавания»
Точность распознавания |
R‑CNN |
Fast R‑CNN |
Faster R‑CNN |
YOLO |
Yi |
Yiн |
R‑CNN |
1 |
1/5 |
1/5 |
1/6 |
0,285744 |
0,054231 |
Fast R‑CNN |
5 |
1 |
1 |
1/3 |
1,136219 |
0,215643 |
Faster R‑CNN |
5 |
1 |
1 |
1/3 |
1,136219 |
0,215643 |
YOLO |
6 |
3 |
3 |
1 |
2,710806 |
0,514483 |
Сумма |
17 |
5,2 |
5,2 |
1,833333333 |
5,268989 |
1 |
Таблица 6. Матрица попарных сравнений альтернатив по критерию «Интегративные возможности»
Интегративные возможности |
R‑CNN |
Fast R‑CNN |
Faster R‑CNN |
YOLO |
Yi |
Yiн |
R‑CNN |
1 |
1/3 |
1/3 |
1/7 |
0,354948 |
0,064898 |
Fast R‑CNN |
3 |
1 |
1 |
1/4 |
0,930605 |
0,17015 |
Faster R‑CNN |
3 |
1 |
1 |
1/4 |
0,930605 |
0,17015 |
YOLO |
7 |
4 |
4 |
1 |
3,253153 |
0,594801 |
Сумма |
14 |
6,333333333 |
6,333333333 |
1,642857143 |
5,469311 |
1 |
Таблица 7. Матрица попарных сравнений альтернатив по критерию «Возможность работы с видеопотоком»
Возможность работы с видеопотоком |
R‑CNN |
Fast R‑CNN |
Faster R‑CNN |
YOLO |
Yi |
Yiн |
R‑CNN |
1 |
1/9 |
1/9 |
1/9 |
0,19245 |
0,035714 |
Fast R‑CNN |
9 |
1 |
1 |
1 |
1,732051 |
0,321429 |
Faster R‑CNN |
9 |
1 |
1 |
1 |
1,732051 |
0,321429 |
YOLO |
9 |
1 |
1 |
1 |
1,732051 |
0,321429 |
Сумма |
28 |
3,111111111 |
3,111111111 |
3,111111111 |
5,388603 |
1 |
Таблица 8. Матрица попарных сравнений альтернатив по критерию «Возможность распознавания мелких объектов»
Возможность распознавания мелких объектов |
R‑CNN |
Fast R‑CNN |
Faster R‑CNN |
YOLO |
Yi |
Yiн |
R‑CNN |
1 |
1/3 |
1/3 |
3 |
0,759836 |
0,150892 |
Fast R‑CNN |
3 |
1 |
1 |
5 |
1,96799 |
0,390813 |
Faster R‑CNN |
3 |
1 |
1 |
5 |
1,96799 |
0,390813 |
YOLO |
1/3 |
1/5 |
1/5 |
1 |
0,339809 |
0,067481 |
Сумма |
7,333333333 |
2,533333333 |
2,533333333 |
14 |
5,035624 |
1 |
Приступаем к вычислению глобальных приоритетов и выбору одной из альтернатив (Таблица 9):
Таблица 9. Вычисление глобальных приоритетов
Производительность |
Сложность обучения |
FPS моделей |
Точность распознавания |
Интегративные возможности |
Возможность работы с видеопотоком |
Возможность распознавания мелких объектов |
Глобальный приоритет |
|
0,237 |
0,025 |
0,039 |
0,252 |
0,088 |
0,258 |
0,1 |
||
R‑CNN |
0,047 |
0,047 |
0,035 |
0,054 |
0,064 |
0,036 |
0,15 |
0,057207 |
Fast R‑CNN |
0,093 |
0,093 |
0,222 |
0,22 |
0,17 |
0,32 |
0,39 |
0,224984 |
Faster R‑CNN |
0,26 |
0,26 |
0,222 |
0,22 |
0,17 |
0,32 |
0,39 |
0,268738 |
YOLO |
0,6 |
0,6 |
0,52 |
0,51 |
0,594 |
0,32 |
0,067 |
0,447532 |
Как показали подсчеты, наиболее удачной для поставленных целей архитектурой является YOLO.
Приступим к созданию датасета. При составлении датасета было сделано три типа выборок:
Обучающая выборка (Training set): это основная выборка, используемая для тренировки нейронной сети.
Валидационная выборка (Validation set): это выборка, которая используется для настройки параметров модели и выбора лучших моделей в процессе обучения. Она используется для оценки производительности модели на новых данных и для выбора гиперпараметров, таких как скорость обучения или количество скрытых слоев.
Тестовая выборка (Test set): это выборка, которая используется для окончательной оценки производительности модели после ее обучения. Тестовая выборка также отделяется от обучающей выборки и содержит данные, которые модель не видела ни во время обучения, ни во время валидации.
В качестве инструмента для создания выборок конкретно к архитектуре YOLO была выбрана онлайн-платформа Roboflow.
Ключевым инструментом при создании датасета для архитектуры YOLO являются ограничивающие рамки. Ограничивающие рамки используются для точного локализации объектов на изображении и дальнейшего классифицирования. Они помогают алгоритму определить, где находятся объекты и какого они размера, что позволяет системе эффективно обрабатывать и распознавать объекты в реальном времени.
Рисунок 2. Расстановка ограничивающих рамок
для классов «смартфон», «ноутбук» и «камера».
После расстановки рамок и генерации датасета, он будет иметь следующий вид:
Рисунок 3. Общий вид папки с датасетом.
Файл data.yaml - это конфигурационный файл, который используется для описания датасета в формате YAML (YAML Ain't Markup Language). Он содержит информацию о структуре и свойствах датасета, таких как пути к изображениям, аннотации, классы объектов и другие метаданные. Файл data.yaml является важным компонентом датасета и используется в различных инструментах и библиотеках компьютерного зрения.
После генерации датасета, можно приступать к обучению нейронной сети.
Для обучения использовалась не только вычислительная мощность центрального процессора, но и видеокарты (Nvidia CUDA).
Рисунок 4 – Код для обучения нейронной сети.
Несмотря на то, что полученная таким образом нейросеть распознает необходимые объекты, этого недостаточно. В случае внедрения такой системы на реальное предприятие специалисту по информационной безопасности придется постоянно мониторить камеры и происходящее на экране потенциального внутреннего злоумышленника. Система лишь отображает использование фотоаппаратуры, но никак не реагирует на него. Для того, чтобы это исправить была реализована возможность вести видеозапись экрана (Листинг 1). Теперь, если сотрудник достает фотоаппаратуру, это фиксируется нейросетью, и ведется видеозапись происходящего на его экране. В ходе фиксаций получается видеофайл, который можно просмотреть в ускоренном режиме и понять, пытался ли сотрудник произвести инсайдерскую атаку или нет.
Листинг А.1 Система распознавания фотоаппаратуры.
from ultralytics import YOLO
import cv2
import pyautogui
import numpy as np
# Создаем экземпляр модели YOLO
model = YOLO("runs/detect/yolov8test2/weights/best.pt")
# Устанавливаем параметры записи видео
output_filename = 'output_video.avi'
fps = 30
screen_size = (1920, 1080) # Разрешение экрана
# Искомый класс
target_classes = ['Mobile-phone', 'Laptop', 'Camera']
camera = cv2.VideoCapture(0)
# Создаем VideoWriter для записи видео
fourcc = cv2.VideoWriter_fourcc(*'XVID')
video_writer = None
is_target = False
while True:
is_target = False
# Чтение кадра с камеры
ret, streamFrame = camera.read()
# Захватываем текущий кадр с экрана
screenFrame = pyautogui.screenshot()
screenFrame = np.array(screenFrame)
screenFrame = cv2.cvtColor(screenFrame, cv2.COLOR_RGB2BGR)
# Выполняем распознавание объектов
results = model.predict(streamFrame, show=True, stream=True)
res = list(results)[0] # Получаем результат из генератора
names = res.names
classes = []
for key in res.boxes.cls:
classes.append(names[int(key)])
# Проверяем, содержит ли результат искомый класс
for target_class in target_classes:
if target_class in classes:
if video_writer is None:
# Создаем VideoWriter при обнаружении искомого класса
video_writer = cv2.VideoWriter(output_filename, fourcc, fps, screen_size)
print('Начата видеозапись')
is_target = True
# Записываем кадр в видео
if is_target:
video_writer.write(screenFrame)
if cv2.waitKey(1) == ord('q'):
video_writer.release()
break
Таким образом была разработана и представлена система защиты информации от инсайдерских атак с использованием компьютерного зрения. На основе полученных знаний и анализа существующих архитектур, была разработана система защиты, основанная на компьютерном зрении. Система включает в себя следующие компоненты:
СПИСОК ЛИТЕРАТУРЫ:
Номер журнала Вестник науки №7 (64) том 4
Ссылка для цитирования:
Карачурин А.М. КОМПЬЮТЕРНОЕ ЗРЕНИЕ КАК СРЕДСТВО ЗАЩИТЫ ОТ ИНСАЙДЕРСКИХ АТАК // Вестник науки №7 (64) том 4. С. 209 - 222. 2023 г. ISSN 2712-8849 // Электронный ресурс: https://www.вестник-науки.рф/article/9590 (дата обращения: 19.05.2024 г.)
Вестник науки СМИ ЭЛ № ФС 77 - 84401 © 2023. 16+
*