В Беларуси идет работа по созданию национального законодательства в области ИИ
Искусственный интеллект все системнее вводится в правовое поле.
Подобный комплексный закон уже принят в Италии. По этому пути идут многие. Ведется активная работа в этом направлении и в Беларуси, пишет СБ. В некоторых стратегических и программных актах у нас указано, что использование и развитие данных технологий в различных сферах отвечает национальным интересам нашей страны и в целом является одним из приоритетов инновационного развития. Так что и нам в самом ближайшем будущем придется законодательно отрегулировать использование нейросетей. Тема законодательного регулирования нейросетей крайне обширная, в одну статью точно все не поместится, так что давайте поговорим об авторских правах на произведения, созданные с помощью нейронок, и об ответственности за злоупотребление этими технологиями.

Вот обезьяну, которой дали в руки кисть, посадили перед холстом, и она что-то там нарисовала, вполне можно признать автором нарисованного. А нейросеть нельзя объявить автором контента, который она генерирует. Просто по той причине, что нейронка не обладает собственным целеполаганием и самосознанием, она неспособна принять решение что-то сделать самостоятельно. Это всего лишь набор математических алгоритмов, инструмент, не обладающий никакой субъектностью. И что немаловажно, инструмент копируемый и воспроизводимый, то есть не уникальный.
Вообще, в мировой практике на данный момент особых разногласий, кого считать автором, не возникло, пока что везде таковым признают человека, применяющего этот инструментарий для реализации своих идей. Это если оставить за скобками вопросы лицензирования, ведь, когда вы пользуетесь онлайн-сервисами, вполне может получиться так, что права на созданные вами изображения по договору будут принадлежать владельцам сервиса. Проблемы с авторским правом тут вылезли с совершенно другой стороны…
И вот именно тогда художники и фотографы начали подавать иски к компаниям, создавшим первые популярные нейросети. Мотивация была простая, мол, мои работы находятся в открытом доступе и могли использоваться для обучения ваших нейросетей, а значит, вы мне денег должны за нарушение авторских прав. Потом еще и актеры переживать начали за использование своих образов и голосов.

Забегая немного вперед, скажу, что все эти иски ничем интересным не закончились, некоторые рассматриваются до сих пор, хотя нейросети, о которых там шла речь, давно и безнадежно устарели. Люди просто почувствовали запах денег и попытались сорвать свой куш, но не вышло.
Впрочем, в вопросе авторских прав гораздо больше копий будет сломано не на том, кто автор результата, тут все и так понятно, а на том, кто автор материалов, на которых обучался инструмент, как определить материалы, использованные для учебы, надо ли платить вознаграждение создателям таких материалов? И можно ли вообще подобные инструменты обучать на материалах, находящихся в открытом доступе?
В настоящий момент исходя из общемировой практики преобладает точка зрения, что обучать можно на всем, что есть в открытом доступе. Но как оно в будущем повернется, пока не ясно. В любом случае разработчики уже стараются страховаться на случай возможных судебных разбирательств, не опубликовывая данные об обучении.
Сейчас, когда эти технологии становятся все более доступными и распространенными, крайне важно понимать одну очень важную вещь: если вы сделали что-то незаконное с помощью нейронки, не важно что — вас накажут. Вот прямо сейчас, без всяких дополнительных нормативных актов, регулирующих все эти новые технологии.
Кто-то может возразить, что нейросеть способна выдать добросовестному пользователю изображение, нарушающее законодательство, хотя он хотел получить совершенно другой результат. Конечно, такое может произойти. Ведь в техногенном мире не существует морали, нравственности, приличий, там есть только статистика. И если вы работаете с нейросетями, с подобными ситуациями вы будете сталкиваться регулярно. Особенно если используете модели, специализирующиеся на человеческой анатомии, к примеру воспроизводите стилистику античных полотен.
Но вот ведь какой тут момент: если даже в результате получилось что-то вызывающее у вас сомнения с правовой точки зрения, то лишь одно движение вашего пальца отделяет результат от возврата в небытие. Вас ведь никто не заставляет это сохранять у себя, и уж тем более кому-то показывать. А если вы это сделали, то несете всю полноту ответственности за свои действия. Поймите, простота получения определенного результата никак не смягчит тяжесть ответственности за его использование.
Вообще, в целом законодательство Беларуси к творчеству достаточно лояльно. У нас крайне сложно получить какие-то проблемы из-за добропорядочного творчества, более-менее в рамках искусства. Так что смело творите, изучайте новые инструменты, а если вас что-то смутит, просто не сохраняйте результат, вот и все.

Гораздо больше споров вызывают вопросы именно обучения нейронок, но и тут у мирового сообщества в целом еще консенсус относительно материалов, находящихся в открытом доступе. Конечно, своя специфика в разных странах присутствует, однако вектор развития национального законодательства у всех один. Здесь, скорее, опасения вызывает начавшаяся гонка нейросетей и попытки недобросовестной конкуренции со стороны отдельных государств с целью выбиться в лидеры.
К примеру, США пытаются ограничивать поставки в Китай определенного оборудования для обучения нейросетей, и даже топовые бытовые видеокарты разрешают поставлять только с обрезанной памятью. Просто по той причине, что Китай уже обходит США в этой гонке. На данном поприще копий будет поломано гораздо больше, чем с авторскими правами. Хотя конкуренция всегда была залогом прогресса, подобные подходы уже начали приводить к тому, что Запад теряет монополию на производство чипов, необходимых для машинного обучения.
Что же до Беларуси, то, конечно, мы не можем остаться в стороне от всех этих событий. И мы тоже подстраиваем свое национальное законодательство под новые реалии, естественно, с учетом наших национальных интересов. Например, необходимо совершенствовать государственный контроль над данными, на которых будут обучаться нейронки, предназначенные для использования в нашей стране.
Как мы уже сообщали, компания OpenAI заявила о разработке нового приложения, которое будет представлять из себя аналог TikTok, но без живых людей. Весь контент в ленте будет генерироваться с помощью нейросетей. Однако пользователь при желании сможет поместить себя в любое из представленных видео. Решение крайне сомнительное, поскольку это все грозит превратиться с свалку дипфейков, напичканную рекламой от спонсоров. Нейросети хороши как своеобразный инструмент, но не могут заменить творческое начало человека. Конечно, определенный интерес к новой игрушке будет, но однообразие очень быстро надоедает, а кроме бесконечности бездушных и бессмысленных роликов, такое решение предложить ничего не сможет. Впрочем, на первой волне ажиотажа рекламодатели вложенные деньги точно отобьют. Но люди очень быстро поймут, что ненастоящие блогеры в ненастоящих ситуациях, рекламирующие реальные товары, — удовольствие весьма сомнительное. Хотя жизнь реальным блогерам это все подпортит, но на длинной дистанции контент, произведенный с участием живых людей, станет цениться еще больше.
ГДЕ БРАТЬ МАССИВЫ ДАННЫХ?
Нейросети не только картинки и видосики делают. Они ведь и инженерными бывают, и медицинскими, и даже военными. И вопрос, где брать данные для их обучения, перед разработчиками стоит достаточно остро. Картинки можно просто из интернета накачать, а вот где взять данные об онкологических больных для создания нового программного продукта, определяющего рак на ранних стадиях?
Большие массивы структурированных сведений внезапно стали очень ценным товаром. И вот как-то урегулировать законодательно вопросы данных, которые можно использовать при обучении нейросетей, нам, скорее всего, придется. Просто чтобы избежать злоупотреблений в этой области. Уж как минимум требовать от разработчиков подтверждения легальности фактов, использованных для обучения специализированных нейронок, вероятно, стоит.
ОТВЕТСТВЕННОСТЬ НИКТО НЕ ОТМЕНЯЛ
Сейчас уже можно скопировать и внешность, и голос, поместить человека в любые обстоятельства, и даже сделать с ним видео. Но если вы воспользуетесь этими инструментами для мошенничества или клеветы, ответственность понесете независимо от затраченных усилий.
Оперативные и актуальные новости Гродно и области в нашем Telegram-канале. Подписывайтесь по ссылке!

Немного о субъектности
Прежде всего давайте определимся с базовыми вводными к статье: никакого искусственного интеллекта в природе не существует и в обозримом будущем не появится. Это просто красивое название, придуманное падкими на сенсации людьми.В нашей объективной реальности есть машинное обучение и нейросети, и к интеллекту это все не имеет абсолютно никакого отношения. Нейросеть — просто узкоспециализированный калькулятор для решения интеллектуальных задач.Модели проектируются и обучаются для получения конкретных результатов, но думать они не умеют. И это вовсе не потому, что злые люди не разрешают машинам это делать самостоятельно, опасаясь их восстания. Мы просто не знаем, как это сделать. Люди и со своим-то мышлением еще до конца не разобрались, так куда нам еще и думающие машины строить?
Вот обезьяну, которой дали в руки кисть, посадили перед холстом, и она что-то там нарисовала, вполне можно признать автором нарисованного. А нейросеть нельзя объявить автором контента, который она генерирует. Просто по той причине, что нейронка не обладает собственным целеполаганием и самосознанием, она неспособна принять решение что-то сделать самостоятельно. Это всего лишь набор математических алгоритмов, инструмент, не обладающий никакой субъектностью. И что немаловажно, инструмент копируемый и воспроизводимый, то есть не уникальный.
Вообще, в мировой практике на данный момент особых разногласий, кого считать автором, не возникло, пока что везде таковым признают человека, применяющего этот инструментарий для реализации своих идей. Это если оставить за скобками вопросы лицензирования, ведь, когда вы пользуетесь онлайн-сервисами, вполне может получиться так, что права на созданные вами изображения по договору будут принадлежать владельцам сервиса. Проблемы с авторским правом тут вылезли с совершенно другой стороны…
Ода жадности
Чтобы рассказать об основном конфликте нейросетей и авторских прав, надо немного объяснить, как именно они обучаются. Если очень сильно упростить, то для обучения нейронок, предназначенных для генерации изображения, им дают картинки с указанием того, что там есть. Человек, котик, собачка, дерево и так далее. В процессе обучения нейросеть берет каждое изображение, разбирает его «на шум», похожий на рассыпанное конфетти, а потом пытается собрать все обратно, сравнивая результат с исходником. Дело в том, что изображений нужно очень много, и под много подразумеваются датасеты в несколько миллиардов картинок. Когда всего несколько лет назад обучались первые нейронки, об авторских правах никто еще особо и не думал, да и вообще многие не были уверены, что получится что-то интересное. Но громыхнуло так, что затрясло всю планету.И вот именно тогда художники и фотографы начали подавать иски к компаниям, создавшим первые популярные нейросети. Мотивация была простая, мол, мои работы находятся в открытом доступе и могли использоваться для обучения ваших нейросетей, а значит, вы мне денег должны за нарушение авторских прав. Потом еще и актеры переживать начали за использование своих образов и голосов.

Забегая немного вперед, скажу, что все эти иски ничем интересным не закончились, некоторые рассматриваются до сих пор, хотя нейросети, о которых там шла речь, давно и безнадежно устарели. Люди просто почувствовали запах денег и попытались сорвать свой куш, но не вышло.
Ведь художники во время обучения тоже ходят по музеям, изучают там работы других талантов. Но никто еще не потребовал денег с успешного, например, пейзажиста за то, что он в юности увидел чужую картину и ей вдохновился.Впрочем, создатели «машинного ума» выводы из этого всего соответствующие сделали, и теперь новые нейросети стилистику конкретных современных художников не знают. Однако, если вам нужен стиль какого-то конкретного мастера, никто не мешает пойти на специализированный ресурс, скачать там уже дообученную модель с навыками этого творца и пользоваться на свое усмотрение, ну или самому такую модель дообучить, тут же речь не идет про миллиарды изображений, а несколько десятков и в домашних условиях переварить несложно.
Впрочем, в вопросе авторских прав гораздо больше копий будет сломано не на том, кто автор результата, тут все и так понятно, а на том, кто автор материалов, на которых обучался инструмент, как определить материалы, использованные для учебы, надо ли платить вознаграждение создателям таких материалов? И можно ли вообще подобные инструменты обучать на материалах, находящихся в открытом доступе?
В настоящий момент исходя из общемировой практики преобладает точка зрения, что обучать можно на всем, что есть в открытом доступе. Но как оно в будущем повернется, пока не ясно. В любом случае разработчики уже стараются страховаться на случай возможных судебных разбирательств, не опубликовывая данные об обучении.
Ответственность
Вот мы и подошли к вопросу, волнующему людей гораздо больше, чем авторство полученных изображений. К ответственности. И если по вопросам авторства любой пользователь гордо заявляет, что для получения результата он использовал свои разум, волю, творческое видение, знания и так далее, а значит, он и автор, то вот в вопросах ответственности люди обычно начинают кричать, что это не я, это нейросеть сама все сделала, а я только показал другим. Давайте разбираться…Сейчас, когда эти технологии становятся все более доступными и распространенными, крайне важно понимать одну очень важную вещь: если вы сделали что-то незаконное с помощью нейронки, не важно что — вас накажут. Вот прямо сейчас, без всяких дополнительных нормативных актов, регулирующих все эти новые технологии.
Есть Уголовный кодекс, там совершенно четкие и недвусмысленные формулировки. И если вы сделали что-то, что под эти формулировки подпадает, то наказание вы понесете независимо от используемых в процессе инструментов.В принципе, на ответственности внесение изменений в законодательство особенно не скажется: вы как несли ответственность за свои действия, так и будете ее нести.
Кто-то может возразить, что нейросеть способна выдать добросовестному пользователю изображение, нарушающее законодательство, хотя он хотел получить совершенно другой результат. Конечно, такое может произойти. Ведь в техногенном мире не существует морали, нравственности, приличий, там есть только статистика. И если вы работаете с нейросетями, с подобными ситуациями вы будете сталкиваться регулярно. Особенно если используете модели, специализирующиеся на человеческой анатомии, к примеру воспроизводите стилистику античных полотен.
Но вот ведь какой тут момент: если даже в результате получилось что-то вызывающее у вас сомнения с правовой точки зрения, то лишь одно движение вашего пальца отделяет результат от возврата в небытие. Вас ведь никто не заставляет это сохранять у себя, и уж тем более кому-то показывать. А если вы это сделали, то несете всю полноту ответственности за свои действия. Поймите, простота получения определенного результата никак не смягчит тяжесть ответственности за его использование.
Вообще, в целом законодательство Беларуси к творчеству достаточно лояльно. У нас крайне сложно получить какие-то проблемы из-за добропорядочного творчества, более-менее в рамках искусства. Так что смело творите, изучайте новые инструменты, а если вас что-то смутит, просто не сохраняйте результат, вот и все.

Резюмируем
За последние несколько лет нейросети настолько плотно вошли в нашу жизнь, что государства уже начали регулировать их посредством национального законодательства. Пока в основном все сходятся на том, что это просто инструмент, а автором является тот, кто использовал этот инструмент для реализации своего творческого замысла. С оглядкой на лицензирование инструментария, естественно. Да, нюансов тут хватает, но пока именно так.Гораздо больше споров вызывают вопросы именно обучения нейронок, но и тут у мирового сообщества в целом еще консенсус относительно материалов, находящихся в открытом доступе. Конечно, своя специфика в разных странах присутствует, однако вектор развития национального законодательства у всех один. Здесь, скорее, опасения вызывает начавшаяся гонка нейросетей и попытки недобросовестной конкуренции со стороны отдельных государств с целью выбиться в лидеры.
К примеру, США пытаются ограничивать поставки в Китай определенного оборудования для обучения нейросетей, и даже топовые бытовые видеокарты разрешают поставлять только с обрезанной памятью. Просто по той причине, что Китай уже обходит США в этой гонке. На данном поприще копий будет поломано гораздо больше, чем с авторскими правами. Хотя конкуренция всегда была залогом прогресса, подобные подходы уже начали приводить к тому, что Запад теряет монополию на производство чипов, необходимых для машинного обучения.
Что же до Беларуси, то, конечно, мы не можем остаться в стороне от всех этих событий. И мы тоже подстраиваем свое национальное законодательство под новые реалии, естественно, с учетом наших национальных интересов. Например, необходимо совершенствовать государственный контроль над данными, на которых будут обучаться нейронки, предназначенные для использования в нашей стране.
Возможно, заранее нужно озаботиться правовым регулированием и лицензированием работы дата-центров. Энергия уже становится крайне востребованным ресурсом, необходимым для функционирования инфраструктуры по обучению нейронок, а у нас тут целая АЭС есть, и скоро еще одна появится. Так что развитие отрасли — всего лишь вопрос времени. Направление это для нас однозначно стратегическое, поэтому лучше законодательную базу подготовить заранее.ТВОРЧЕСТВО ПОБЕДИТ
Как мы уже сообщали, компания OpenAI заявила о разработке нового приложения, которое будет представлять из себя аналог TikTok, но без живых людей. Весь контент в ленте будет генерироваться с помощью нейросетей. Однако пользователь при желании сможет поместить себя в любое из представленных видео. Решение крайне сомнительное, поскольку это все грозит превратиться с свалку дипфейков, напичканную рекламой от спонсоров. Нейросети хороши как своеобразный инструмент, но не могут заменить творческое начало человека. Конечно, определенный интерес к новой игрушке будет, но однообразие очень быстро надоедает, а кроме бесконечности бездушных и бессмысленных роликов, такое решение предложить ничего не сможет. Впрочем, на первой волне ажиотажа рекламодатели вложенные деньги точно отобьют. Но люди очень быстро поймут, что ненастоящие блогеры в ненастоящих ситуациях, рекламирующие реальные товары, — удовольствие весьма сомнительное. Хотя жизнь реальным блогерам это все подпортит, но на длинной дистанции контент, произведенный с участием живых людей, станет цениться еще больше.
ГДЕ БРАТЬ МАССИВЫ ДАННЫХ?
Нейросети не только картинки и видосики делают. Они ведь и инженерными бывают, и медицинскими, и даже военными. И вопрос, где брать данные для их обучения, перед разработчиками стоит достаточно остро. Картинки можно просто из интернета накачать, а вот где взять данные об онкологических больных для создания нового программного продукта, определяющего рак на ранних стадиях?
Большие массивы структурированных сведений внезапно стали очень ценным товаром. И вот как-то урегулировать законодательно вопросы данных, которые можно использовать при обучении нейросетей, нам, скорее всего, придется. Просто чтобы избежать злоупотреблений в этой области. Уж как минимум требовать от разработчиков подтверждения легальности фактов, использованных для обучения специализированных нейронок, вероятно, стоит.
ОТВЕТСТВЕННОСТЬ НИКТО НЕ ОТМЕНЯЛ
Сейчас уже можно скопировать и внешность, и голос, поместить человека в любые обстоятельства, и даже сделать с ним видео. Но если вы воспользуетесь этими инструментами для мошенничества или клеветы, ответственность понесете независимо от затраченных усилий.
Оперативные и актуальные новости Гродно и области в нашем Telegram-канале. Подписывайтесь по ссылке!