'
Научный журнал «Вестник науки»

Режим работы с 09:00 по 23:00

zhurnal@vestnik-nauki.com

Информационное письмо

  1. Главная
  2. Архив
  3. Вестник науки №12 (69) том 2
  4. Научная статья № 47

Просмотры  37 просмотров

Вашеняк Н.Е.

  


СЛОЖНЫЕ ПРАВОВЫЕ АСПЕКТЫ, СВЯЗАННЫЕ С ИСПОЛЬЗОВАНИЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА *

  


Аннотация:
статья представляет собой глубокий анализ сложных правовых аспектов, связанных с развитием и использованием искусственного интеллекта. Особое внимание уделяется вопросам ответственности за причинение вреда нейросетью, а также за преступления, совершенные при использовании искусственного интеллекта, в том числе с помощью технологии deep-fake. Автор также исследует проблемы, связанные с авторством в контексте произведений, созданных при участии нейросетей, представляя интересные примеры из мировой практики. Статья также раскрывает вопросы добросовестного и недобросовестного обучения нейросетей на авторском контенте, выявляя потенциальные нарушения и правовые проблемы, связанные с этим. Автор предлагает концептуальные подходы и решения по созданию справедливой и оптимальной системы обучения искусственного интеллекта, учитывающие интересы всех сторон правоотношений, включая владельцев данных, разработчиков нейросетей и их пользователей.   

Ключевые слова:
искусственный интеллект, обучение нейросетей, интеллектуальная собственность, правовое регулирование   


В современном обществе, правовое регулирование нейросетей и продуктов, создаваемых ими, стало несомненным трендом и вызовом 2023 года. В этом контексте возникает не только неотложная необходимость в разработке соответствующих нормативных актов, но и решение сложных этических вопросов и цивилизационных рисков, создаваемых быстрым развитием искусственного интеллекта.Первым важным аспектом является вопрос о том, кто несет ответственность за преступления, совершенные с использованием искусственного интеллекта. В начале сентября в интернете появилось видео, созданное с использованием технологии deep-fake, на котором якобы Олег Тиньков обещал 50% бонус к вложенным средствам в «Тинькофф Инвестиции». Ссылка, прикрепленная к видео, направляла пользователя на веб-страницу с логотипами банка и инвестиционного сервиса. Посетителям предлагалось ответить на несколько общих вопросов и указать свои имя, телефон и адрес электронной почты. Хотя качество созданного видео оставляло желать лучшего, с рассинхронизированными движениями губ и несхожим голосом, оно все равно смогло ввести в заблуждение пользователей, листающих ленту в социальных сетях с мобильных устройств, и впоследствии привести к утрате их личных данных и финансовых средств. При этом нет единого мнения, несет ли ответственность за такие ситуации правообладатель нейросети, с помощью которой было создано видео. Разграничение ответственности за создание и использование таких технологий является важным вопросом на пересечении правовой и этической сфер.Вторым вопросом становится определение ответственности за риски, связанные с использованием искусственного интеллекта. Примером может служить авария с участием автомобиля, работающего в режиме автоуправления искусственным интеллектом. В данном случае возникает вопрос о том, должна ли компания нести ответственность за аварии, или же владелец автомобиля должен нести основную ответственность за последствия использования подобных технологий.Третий аспект касается коммерческой составляющей в сфере искусственного интеллекта. Произведения, созданные с использованием нейросетей, продаются на аукционах за значительные суммы, порой сотни тысяч долларов. Вопрос о правах и доходах, связанных с этими произведениями, поднимает сложные вопросы об авторстве и распределении выручки между пользователями и создателями искусственного интеллекта.В мировой практике широкую известность приобрел случай, когда французская арт-группа Obvious использовала нейросеть, созданную Робби Барратом, программистом из Стэнфордского университета при создании картины «Портрет Эдмона Белами». Пользовательское соглашение этой нейросети предусматривало свободное использование сгенерированного в ней контента. После того, как «Портрет Эдмона Белами» был продан на торгах почти за полмиллиона долларов, Баррат выразил свое несогласие с продажей. Он заявил, что для него не столь важны финансовые аспекты, сколько признание авторства в создании произведения. После сложившейся ситуации Баррат решил изменить пользовательское соглашение, указав в нем следующее: «Используя результаты работы этих моделей, указывайте мое имя. Не продавайте результаты работы моделей, измененных или не измененных». Но это, естественно, было уже после того, как Obvious позаимствовали его модель.[2]Также активно обсуждается вопрос о добросовестном и недобросовестном обучении нейросетей. Недобросовестным можно считать обучение, когда, например, нейросети дают прочитать 10 романов известного автора, а далее просят нейросеть создать еще один роман этого автора. При этом интерес к искусственному интеллекту в целом и к конкретному автору в частности оказывает только положительное влияние при продаже таких произведений. Людям интересно, как нейросеть дописывает новые тома и части любимых художественных произведений. Например, несколько лет назад нейросеть дописала десятую симфонию Бетховена. Композитор не успел закончить свое произведение и оставил лишь черновики. Многие пробовали воссоздать замысел Бетховена, но с работой справилась только нейросеть. Премьера симфонии состоялась в октябре 2021 года и была прекрасно принята слушателями [3]. Однако одно дело, когда нейросеть анализирует и обучается на работах давно умерших творцов, чьи произведения относятся к общественному достоянию, и совершенно иначе обстоят дела с авторами-современниками. Все чаще в прессе стали появляться новости о том, что писатели, дизайнеры, дикторы, подают иски против правообладателей нейросетей. Они считают, что нейросети воруют их работы, включая копирование стиля конкретных авторов, лишают заработка, карьерных перспектив — и вообще грозят гибелью целым сферам занятости, весьма многочисленным и востребованным [4].Предлагается разделить и задать границы добросовестного и недобросовестного обучения нейросетей. Наиболее приемлемым выглядит перспектива создания системы лицензирования данных, на которых обучается нейросеть и позволяющая выплачивать какие-то средства владельцам этих данных. В 2000-х было распространено пиратское использование музыкальных произведений, были ресурсы, позволяющие незаконно бесплатно слушать музыку, защищенную авторскими правами. Это продолжалось до того, пока не появились такие сервисы как Spotify и iTunes, позволяющие пользователям за небольшую плату, удобно и законно слушать музыку, а музыкантам зарабатывать на своем творчестве. На мой взгляд, в случае с искусственным интеллектом следует придерживаться этого же подхода, это позволит переместить обучение нейросетей на авторском контенте в легальную плоскость, что будет выгодно всем сторонам правоотношений.Если мы не установим четкие рамки для добросовестного обучения и не предоставим авторам какой-то инструмент, наподобие "роялти", за использование их работ в процессе обучения искусственного интеллекта, с большой вероятностью они будут стремиться к запрету использования своих творений в подобных целях. Отсутствие реакции со стороны разработчиков на эти требования может вызвать волну незаконного использования защищенных произведений, последующие судебные иски и, в конечном итоге, привести к возвращению к исходному состоянию. Решение заключается в предоставлении легальных механизмов для получения вознаграждения за добросовестное использование и установлении разумных ограничений для недобросовестного обращения с интеллектуальной собственностью.Четвертым аспектом является мнение ряда исследователей, согласно которому искусственный интеллект ограничивает творческий потенциал человека и может повлиять на наши когнитивные способности. Обсуждение вопроса о том, насколько искусственный интеллект может заменить или ограничить уникальные творческие способности человека, становится актуальным в рамках широкого обсуждения будущего соотношения между человеком и технологией. Нейросети могут выполнять рутинные задачи и обработку данных, освобождая время человека для более творческих и глубоких аспектов работы. Это позволяет сосредоточиться на более креативных аспектах, расширяя творческий потенциал. Кроме того, нейросети могут обрабатывать информацию гораздо быстрее, чем человек. Это позволяет существенно сократить время, необходимое для реализации творческих проектов и исследований. Одновременно с этим, есть мнение, что если люди станут слишком зависимы от нейросетей в процессе поиска вдохновения, то потенциально могут утратить навыки, стимулирующие самостоятельную творческую деятельность, например, интуицию и воображение.Хотя искусственный интеллект способен дополнить творческие способности человека и вдохновить на новые идей, до сих пор остается спорным вопрос, сможет ли нейросеть развить собственный творческий потенциал и генерировать действительно новые, уникальные произведения.Весной 2023 года Илон Маск, Стив Возняк и свыше тысячи экспертов высказали призыв приостановить на полгода процесс обучения более мощных систем искусственного интеллекта, превосходящих GPT-4, с целью более глубокого понимания методов их контроля. В открытом письме они предупреждают о возможных последствиях «гонки» в создании «мощных цифровых умов», подчеркивая угрозу, что эти технологии могут поставить под угрозу человеческий труд и создать необходимость в более тщательном регулировании [1].Тем не менее, прогресс невозможно остановить, поэтому искусственный интеллект продолжает становиться все более «умным» и поражать нас своими возможностями. Все больше компаний внедряют искусственный интеллект в свои бизнес-процессы, все больше специалистов применяют нейросети в своей ежедневной работе, все больше творчества генерируется с использованием искусственного интеллекта. Вместо того, чтобы пытаться затормозить инновации, мировому сообществу предстоит определиться с общей концепцией регулирования искусственного интеллекта и обеспечить безопасную, понятную среду для его.   


Полная версия статьи PDF

Номер журнала Вестник науки №12 (69) том 2

  


Ссылка для цитирования:

Вашеняк Н.Е. СЛОЖНЫЕ ПРАВОВЫЕ АСПЕКТЫ, СВЯЗАННЫЕ С ИСПОЛЬЗОВАНИЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА // Вестник науки №12 (69) том 2. С. 371 - 377. 2023 г. ISSN 2712-8849 // Электронный ресурс: https://www.вестник-науки.рф/article/11400 (дата обращения: 19.05.2024 г.)


Альтернативная ссылка латинскими символами: vestnik-nauki.com/article/11400



Нашли грубую ошибку (плагиат, фальсифицированные данные или иные нарушения научно-издательской этики) ?
- напишите письмо в редакцию журнала: zhurnal@vestnik-nauki.com


Вестник науки СМИ ЭЛ № ФС 77 - 84401 © 2023.    16+




* В выпусках журнала могут упоминаться организации (Meta, Facebook, Instagram) в отношении которых судом принято вступившее в законную силу решение о ликвидации или запрете деятельности по основаниям, предусмотренным Федеральным законом от 25 июля 2002 года № 114-ФЗ 'О противодействии экстремистской деятельности' (далее - Федеральный закон 'О противодействии экстремистской деятельности'), или об организации, включенной в опубликованный единый федеральный список организаций, в том числе иностранных и международных организаций, признанных в соответствии с законодательством Российской Федерации террористическими, без указания на то, что соответствующее общественное объединение или иная организация ликвидированы или их деятельность запрещена.