'
Научный журнал «Вестник науки»

Режим работы с 09:00 по 23:00

zhurnal@vestnik-nauki.com

Информационное письмо

  1. Главная
  2. Архив
  3. Вестник науки №1 (70) том 3
  4. Научная статья № 39

Просмотры  61 просмотров

Исакова А.Г., Осин А.В.

  


ПРИМЕНЕНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РАССЛЕДОВАНИИ ПРЕСТУПЛЕНИЙ C ИСПОЛЬЗОВАНИЕМ ТЕХНОЛОГИИ «ДИПФЕЙК» *

  


Аннотация:
статья посвящена использованию искусственного интеллекта, цифровых информационно-поисковых программ и баз данных в расследовании мошенничества с применением технологии «дипфейк» Предложено применение искусственного интеллекта при определении подлинности видео, аудио или другого цифрового контента, применяемых в качестве средства совершения мошенничества.   

Ключевые слова:
искусственный интеллект, ИТ в криминалистике, дипфейк, мошенничество   


В работе описывается обобщенный подход к использованию искусственного интеллекта в рамках расследования мошеннических действий.Технологии искусственного интеллекта все активнее проникают в нашу жизнь людей, улучшая качество и комфорт жизни обычных людей. Появляются новые возможности, которые порождают новые виды использования искусственного интеллекта в том числе с корыстными целями в преступной деятельности.Технология deepfake (дипфейк) открыла новые возможности для творчества и самовыражения человека. Так, например, музей Сальвадора Дали во Флориде использовал подобную технологию, чтобы "вернуть художника к жизни". Это позволило посетителям пообщаться с Дали, послушать его истории и даже сфотографироваться. Экспертам удалось достаточно точно воссоздать голос, интонацию и манеру речи художника.Искусственный интеллект: это моделируемая (искусственно-воспроизводимая) интеллектуальная деятельность мышления человека (далее ИИ). Появились новые возможности, которые позволяют любому человеку без специальных навыков и знаний создавать очень реалистичный медиаконтент- видео и аудиозаписи с использованием методов на основе искусственного интеллекта, в том числе с применением технологии deepfake («дипфейк»). Deepfake («дипфейк») – это технология, которая использует искусственный интеллект для создания видео, аудио или другого цифрового контента, который кажется аутентичным, но на самом деле является фальшивым. При помощи этой технологии можно очень реалистично заменить на фотографии или видео лицо одного человека на другое и/или синтезировать речь человека (имитация голоса), имея в распоряжении лишь короткую запись образца его голоса.Глубокая нейронная сеть анализирует и синтезирует данные, чтобы создать реалистичные видео и аудиозаписи, часто с лицами или голосами людей, которые на самом деле не участвовали в создании контента. Эта технология может быть использована для создания фальшивых новостей, а также для манипуляции общественным мнением.Несмотря на потенциальную пользу, которую может принести технология deepfake (дипфейк), одновременно с этим она также дает новые возможности для манипулирования общественным мнением и сознанием, для дискредитации людей с целью преследования или мести, для обмана или введения в заблуждение людей при совершении мошенничества.Появление технологии «дипфейков» вызывает серьезные опасения по поводу того, какие может иметь последствия использование данной технологии в различных сферах, включая частную жизнь людей политику, развлечения и национальную безопасность. С использованием технологии «дипфейк» изображения и видео могут быть легко изменены без искажений, что выглядит в реальности очень правдоподобно и может воспринимается зрителем буквально, не подвергая критическому анализу получаемую информацию, в следствие чего он может стать жертвой мошенничества. Возможность создания поддельного медиаконтента, имитирующего реалистичные фото и видео с участием известных личностей, может пагубно повлиять на их имидж и репутацию, поскольку в большинстве случаев «дипфейки» ограничены лишь человеческим воображением, и некоторыми недостатками алгоритмов, и вычислительными мощностями.Существует острая потребность в создании автоматизированных инструментов, которые будут способны обнаруживать подобного рода сгенерированный медиаконтент и тем самым смогут помочь предотвратить распространение ложной информации и возможные негативные последствия. Широкий спектр программ, в том числе с применением алгоритмов искусственного интеллекта, обеспечивают возможности для изменения информации содержащейся в исходном медиаконтенте, что привело к увеличению количества подделок. Достоверность и целостность визуальных или аудиальных данных медиаконтента, обработанного с помощью технологии “дипфейк” сложно определить органами чувств человека, не используя вспомогательные технические программно-аппаратные средства, в том числе искусственный интеллект, которые, в свою очередь, способны выявить значительные погрешности в подлинном изображении и обнаружить различные типы манипуляций. Медиаконтент обработанный с помощью технологии “дипфейк”, можно исследовать используя вспомогательные технические программно-аппаратные средства, в том числе искусственный интеллект, которые, способны обнаружить значительные погрешности в подлинном изображении и выявить технические изменения и иные типы произведенных манипуляций целостности медиаконтента (например артефакты сжатия, неестественные движения или аномалии в данных, несоответствия метаданных файла - даты, географического положения и иных цифровых следов).Определить наличие погрешностей и внесенных изменений, в медиа контент с помощью ИИ возможно несколькими способами аутентификации – - алгоритмы и программные решения, которые могут искать признаки deepfake, такие как артефакты сжатия, неестественные движения или аномалии в данных.- оценка метаданных файла (даты, географического положения, цифровых следов, и так далее) может помочь в определении подлинности контента.Изучение видео или фотоматериалов подразумевает определение происхождения подобного контента, отсутствие монтажа, искажающего содержание продукта.Возможность связать изображения или видео с камерой устройства позволяет найти преступника, который распространил или создал определенный мультимедийный контент.Работы по идентификации устройств с помощью мультимедийного контента опираются на различные способы: изучение самого электронного файла и поиска информации в заголовках, использование шума неравномерности фотоотклика для целей идентификации камеры в силу различной чувствительности пикселей матриц различных камер к свету.Методы используемые для анализа аудиозаписи, видео и изображений направлены на проверку идентичности или подлинности данных медиафайлов, идентификации устройства на которых они были созданы, анализ мультмедийных сигналов.Например, для аудиозаписей методы аутентификации могут включать анализ уникальных акустических характеристик голоса, таких как частоты, интонации и тембр, а также проверку цифровых подписей или шумовых шаблонов для создания уникальных идентификаторов аудиофайлов. Для видео и изображений аутентификация может включать анализ цифровых подписей, водяных знаков, проверку метаданных и анализ цифровых характеристик изображений для обнаружения поддельных или измененных файлов. Идентификация происходит двумя основными способами — активной и пассивной аутентификацией изображения.Для наглядности на рисунках 1.1 и 1.2 показаны примеры обобщённых алгоритмов обоих методов./Рисунок 1.1. Активный подход на примере водяного знака./Рисунок 1.2. Пассивный подход.Активная аутентификация состоит в проверке наличия кода (предварительно встроенной в медиаконтент информации). Исходное изображение защищено во время записи с использованием специального оборудования кодом аутентификации в виде цифрового водяного знака или цифровой подписи, или отправляется вместе с изображением для доступа к его целостности на принимающей стороне. Наличие кода, который прошёл необходимую проверку, подтверждает подлинность изображения.Пассивная аутентификация состоит в проверке наличия основных свойств предоставленного изображения на наличие вмешательств, которые если производились, то не могли не оставить следов: -зависящих от типа подделки в виде: копирования-перемещения или сращивания изображений,- независящих от подделки в виде: обнаружения ретуши (следов артефактов, оставленных при подделке) или условий освещённости (при объединении фотографий сложно подобрать условия освещения).Данные методы аутентификации могут быть использованы в том числе при проведении криминалистических экспертиз по определению подлинности медиаконтента в рамках расследования мошенничества.На сегодняшний день криминалистика совершенствуется и развивается, становиться актуальной разработка технико-криминалистических средств в сфере цифровых технологий и источников информации.Все чаще на практике криминалистами в качестве доказательств по уголовным делам исследуются и собираются электронные следы, осматриваются материалы теле-, видео- и иных систем наблюдения, что обуславливает создание на этой основе новых методик при расследовании преступлений.Исходя из вышесказанного, можно сделать следующие выводы: при расследовании мошенничества, где медиафайлы («дипфейки») используются как средство (предмет) совершения преступления, предлагается использовать методы, описанные в статье, для выявления внесённых технических изменений в исходную запись. Наряду с прямой проверкой аутентичности медиаконтента (Активный метод), при расследовании могут использоваться пассивные методы аутентификации с применением искусственного интеллекта. Практика применения такого подхода может позволить усовершенствовать методики определения подлинности медиафайлов и использоваться в криминалистических экспертизах.   


Полная версия статьи PDF

Номер журнала Вестник науки №1 (70) том 3

  


Ссылка для цитирования:

Исакова А.Г., Осин А.В. ПРИМЕНЕНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В РАССЛЕДОВАНИИ ПРЕСТУПЛЕНИЙ C ИСПОЛЬЗОВАНИЕМ ТЕХНОЛОГИИ «ДИПФЕЙК» // Вестник науки №1 (70) том 3. С. 235 - 242. 2024 г. ISSN 2712-8849 // Электронный ресурс: https://www.вестник-науки.рф/article/12458 (дата обращения: 18.05.2024 г.)


Альтернативная ссылка латинскими символами: vestnik-nauki.com/article/12458



Нашли грубую ошибку (плагиат, фальсифицированные данные или иные нарушения научно-издательской этики) ?
- напишите письмо в редакцию журнала: zhurnal@vestnik-nauki.com


Вестник науки СМИ ЭЛ № ФС 77 - 84401 © 2024.    16+




* В выпусках журнала могут упоминаться организации (Meta, Facebook, Instagram) в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25 июля 2002 года № 114-ФЗ 'О противодействии экстремистской деятельности' (далее - Федеральный закон 'О противодействии экстремистской деятельности'), или об организации, включенной в опубликованный единый федеральный список организаций, в том числе иностранных и международных организаций, признанных в соответствии с законодательством Российской Федерации террористическими, без указания на то, что соответствующее общественное объединение или иная организация ликвидированы или их деятельность запрещена.