'
Научный журнал «Вестник науки»

Режим работы с 09:00 по 23:00

zhurnal@vestnik-nauki.com

Информационное письмо

  1. Главная
  2. Архив
  3. Вестник науки №6 (63) том 5
  4. Научная статья № 29

Просмотры  48 просмотров

Кудряшова П.А., Вешкельский А.С.

  


ПРАВОВОЕ РЕГУЛИРОВАНИЕ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА *

  


Аннотация:
статья посвящена вопросу правового регулирования использования искусственного интеллекта в Российской Федерации. Искусственный интеллект может представлять угрозу информационной безопасности, которая играет важную роль в обеспечении стратегических национальных приоритетов. В данной статье уделяется внимание необходимости регулирования использования данной информационной технологии в различных отраслях человеческой деятельности, в связи с отсутствием соответствующей нормативной правовой базы и возможным впоследствии ростом преступлений, совершенных пользователями, применяющими эти технологии. В результате исследования были выявлены актуальные проблемы и предложены возможные пути её решения   

Ключевые слова:
искусственный интеллект, правовое регулирование, информационная безопасность, юридическая ответственность, доктрина информационной безопасности   


УДК 34.096

Кудряшова П.А.

студент ВШ ЮиСТЭ,

Санкт-Петербургский политехнический университет Петра Великого

(г. Санкт-Петербург, Россия)

 

Научный руководитель:

Вешкельский А.С.

доцент ВШ ЮиСТЭ, к.ю.н., доцент,

Санкт-Петербургский политехнический университет Петра Великого

(г. Санкт-Петербург, Россия)

 

ПРАВОВОЕ РЕГУЛИРОВАНИЕ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

 

Аннотация: статья посвящена вопросу правового регулирования использования искусственного интеллекта в Российской Федерации. Искусственный интеллект может представлять угрозу информационной безопасности, которая играет важную роль в обеспечении стратегических национальных приоритетов. В данной статье уделяется внимание необходимости регулирования использования данной информационной технологии в различных отраслях человеческой деятельности, в связи с отсутствием соответствующей нормативной правовой базы и возможным впоследствии ростом преступлений, совершенных пользователями, применяющими эти технологии. В результате исследования были выявлены актуальные проблемы и предложены возможные пути её решения.

 

Ключевые слова: искусственный интеллект, правовое регулирование, информационная безопасность, юридическая ответственность, доктрина информационной безопасности.

 

В рамках рассматриваемой темы полагаем целесообразным начать с понятия информационной безопасности Российской Федерации. Так, под информационной безопасностью Российской Федерации понимается состояние неприкосновенности индивида и государства в целом от различных видов информационных угроз, при котором реализуются конституционные права и свободы человека и гражданина [3].

Информационная безопасность включает в себя стратегию развития в области применения информационных и коммуникационных технологий. Приоритетные направления утверждены Указом Президента Российской Федерации №203 «О Стратегии развития информационного общества в Российской Федерации на 2017–2030 годы» и включают в себя развитие такой информационной технологии как искусственный интеллект.

Министерство цифрового развития, связи и массовых коммуникаций Российской Федерации также выделяет искусственный интеллект в Национальной программе «Цифровая экономика Российской Федерации» и определяет его как технологию, применяемую в различных сферах общественной жизни, что позволяет говорить об актуальности рассматриваемой темы и необходимости создания общего правового механизма регулирования с учётом особенностей различных отраслей.

В действующем законодательстве Российской Федерации отсутствует общий понятийный аппарат, применяемый к искусственному интеллекту. Однако, в соответствии с экспериментальным Федеральным законом от 24.04.2020 N 123-ФЗ, под искусственным интеллектом понимается комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека» [2].

В то же время в Федеральном законе «Об информации, информационных технологиях и о защите информации» отсутствует такое понятие, как искусственный интеллект. Поскольку данный вопрос в полной мере не урегулирован, возникает возможность использования в неограниченных масштабах.

Понятие искусственного интеллекта, применяемое в экспериментальном режиме, не содержит конкретных юридических признаков, так как было выведено прежде всего из технического восприятия, что на наш взгляд является проблемой.

Отсутствие нормативного определения способствует возникновению ряда проблем, так как широкое толкование искусственного интеллекта порождает неограниченное и необдуманное использование и правоприменение данной технологии в разных отраслях.

Исходя из вышесказанного, закрепление нормативного определения в Федеральном законе «Об информации, информационных технологиях и о защите информации» является необходимым, как и определение принципов использования искусственного интеллекта.

На данном этапе правового регулирования остаётся неурегулированным вопрос о привлечении лиц, применяющих искусственных интеллект в целях, противоречащих нормативным правовым актам Российской Федерации, к юридической ответственности.

Данный аспект является дискуссионными, что обусловлено неопределенным правовым статусом пользователей искусственного интеллекта. Ряд учёных полагает, что данную технологию стоит наделить особой правосубъектностью, что позволит привлекать искусственный интеллект к видам юридической ответственности за самостоятельные противоправные деяния.

Так, Европейский парламент принял резолюцию с рекомендациями Комиссии по гражданско-правовым нормам по робототехнике, в соответствии с которой искусственный интеллект обладает автономностью своих действий и способностью к адаптации к окружающей среде, что является предпосылкой к привлечению юридической ответственности, возникающей в результате вредных действий робота [1]. На наш взгляд, такая позиция как минимум вызывает удивление.

 Однако, на наш взгляд, привлекать к юридической ответственности стоит лиц, которые используют данную технологию в незаконных целях. Данная позиция детерминируется рядом объективных причин.

Во-первых, юридическая ответственность выражается в наступлении негативных последствий для правонарушителя в форме ограничений личных и имущественных прав. Возникает вопрос, какими личными правами обладает искусственный интеллект, который является комплексом технологий, тем самым, не являясь субъектом права.

Во-вторых, если рассматривать правовой аспект ответственности лиц, использующих данные технологии, то стоит разграничивать ответственность «разработчика», «владельца» и «пользователя». Владением является прежде всего фактическое обладание вещью, в то время как использование подразумевает под собой извлечение полезных свойств.

В частности, не каждый владелец искусственного интеллекта является его пользователем, тем самым не является возможным осуществления контроля за действиями, выполняемыми искусственным интеллектом. Соответственно, нести юридическую ответственность в рассматриваемой ситуации должен пользователь.

Вопрос привлечения к юридической ответственности разработчика искусственного интеллекта является также неоднозначным.

С одной стороны, разработчик конструирует основные алгоритмы программы. В мировой судебной практике есть преценденты привлечения таких лиц к ответственности за вред, причиненный технологиями. Например, в США в 2013 году было рассмотрено дело Bookout v. Toyota, в ходе которого разработчиком Toyota был возмещен ущерб.

С другой стороны, данные технологии являются совокупностью процессов, которые контролировать крайне сложно. Разработчик зачастую не способен предвидеть негативные последствия применения программного продукта.

На наш взгляд, законодателю следует учитывать данную тонкость, и привлекать разработчика к ответственности только в случае создания искусственного интеллекта в целях совершения правонарушений.

Рассматривая вопрос правового регулирования искусственного интеллекта, важно также отметить возможную угрозу безопасности в информационном пространстве. Вышеупомянутый Федеральный закон не содержит соответствующую нормативную правовую базу, которая способна поддерживать стабильность информационных правоотношений.

Важным аспектом является обеспечение защиты информации от неправомерного доступа, уничтожения, модифицирования, блокирования, копирования, предоставления, распространения, а также от иных неправомерных действий в отношении такой информации [3]. Однако, в связи с использованием искусственного интеллекта, данная задача усложняется. Можно привести высказывание известного писателя-фантаста Айзека Азимова: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред». Данный закон робототехники также можно применить относительно искусственного интеллекта.

Так, ряд киберпреступлений может совершаться искусственным интеллектом, в том числе и мошенничество, связанное с операциями по банковским картам или конфиденциальной цифровой информацией. В частности, когда искусственный интеллект начинает действовать не по изначально заложенному алгоритму, а по неким своим «правилам», которые непредсказуемы. В результате чего искусственный интеллект самопроизвольно совершает противоправные деяния, направленные на незаконный доступ к информации.

Следовательно, является необходимым не только закрепление понятия «искусственного интеллекта» и основополагающих положений в данном Федеральном законе, но и принятие мер, направленных на усиленную защиту персональных данных граждан.

Анализируя вышесказанное, следует отметить, что процесс цифровизации не должен ущемлять права граждан. На наш взгляд, искусственный интеллект является прогрессивным направлением, которое требует своевременного правового регулирования с учетом особенностей различных областей деятельности человека, в которые активно внедряются данные технологии.

Следует выделить наиболее важные направления правового регулирования искусственного интеллекта в Российской Федерации:

1) закрепление нормативного определения «искусственного интеллекта» в соответствующей нормативной правовой базе;

2) определение правового статуса данной технологии и масштаба её использования;

3) закрепление юридической ответственности разработчика, владельца и пользователя искусственного интеллекта;

4) обеспечение информационной безопасности при использовании искусственного интеллекта в той или иной сфере общества.

 

СПИСОК ЛИТЕРАТУРЫ:

 

  1. Резолюция Европейского парламента от 16 февраля 2017 г. с рекомендациями Комиссии по гражданско-правовым нормам по робототехнике (2015/2103 (INL)) // [Электронный ресурс]. URL: https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_EN.html?redirect (дата обращения: 03.05.2023).
  2. Федеральный закон "О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных" от 24.04.2020 № 123-ФЗ // [Электронный ресурс]. URL: www.consultant.ru (дата обращения: 03.05.2023).
  3. Федеральный закон «Об информации, информационных технологиях и о защите информации» от 27.07.2006 № 149-ФЗ (в ред. от 31.12.2014) // «Российская газета», № 12, 27.07.2006 г. [Электронный ресурс]. URL: www.consultant.ru (дата обращения: 03.05.2023). 
  


Полная версия статьи PDF

Номер журнала Вестник науки №6 (63) том 5

  


Ссылка для цитирования:

Кудряшова П.А., Вешкельский А.С. ПРАВОВОЕ РЕГУЛИРОВАНИЕ ИСПОЛЬЗОВАНИЯ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА // Вестник науки №6 (63) том 5. С. 181 - 187. 2023 г. ISSN 2712-8849 // Электронный ресурс: https://www.вестник-науки.рф/article/9354 (дата обращения: 17.05.2024 г.)


Альтернативная ссылка латинскими символами: vestnik-nauki.com/article/9354



Нашли грубую ошибку (плагиат, фальсифицированные данные или иные нарушения научно-издательской этики) ?
- напишите письмо в редакцию журнала: zhurnal@vestnik-nauki.com


Вестник науки СМИ ЭЛ № ФС 77 - 84401 © 2023.    16+




* В выпусках журнала могут упоминаться организации (Meta, Facebook, Instagram) в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25 июля 2002 года № 114-ФЗ 'О противодействии экстремистской деятельности' (далее - Федеральный закон 'О противодействии экстремистской деятельности'), или об организации, включенной в опубликованный единый федеральный список организаций, в том числе иностранных и международных организаций, признанных в соответствии с законодательством Российской Федерации террористическими, без указания на то, что соответствующее общественное объединение или иная организация ликвидированы или их деятельность запрещена.