Минцифры, отраслевые ассоциации и компании в области
искусственного интеллекта прорабатывают законопроект, который может обязать разработчиков отечественных моделей ИИ раскрывать сведения о наборах данных, на которых обучалась или тестировалась их нейросеть, сообщили «Ведомостям» два участника обсуждения из различных компаний.
Одна из рабочих версий законопроекта предусматривает, что разработчик модели должен будет указать наименование набора данных, дату его создания, назначение использования, формат, объем и происхождение, уточнил один из них. Где будет агрегироваться вся эта информация, пока не определено. Речь может идти о создании реестра отечественного ИИ или реестра отечественных наборов данных.
Инициатива была предметом обсуждений при подготовке законопроекта об ИИ, но в текущую версию документа она не вошла, отметил собеседник издания. Представитель Минцифры подтвердил, что документ не содержит положений о раскрытии данных, на которых обучаются модели ИИ.
Представитель Альянса в сфере ИИ, в который входят в том числе «Сбер», «Яндекс», VK, Т-Банк и МТС, заявил по этому поводу, что полное и точное описание массива данных в реестровом формате потребует ресурсов, несоразмерных результату, или же сведется к формальному перечислению без аналитической ценности.
Ранее, в декабре 2023 года, американская The New York Times подала в суд на OpenAI и Microsoft за нарушение авторских прав, обвинив их в использовании миллионов ее статей для обучения чат-ботов, которые теперь конкурируют с газетой и новостными агентствами как источники достоверной информации. Денежного требования иск не содержал. Но в нем подчеркивалось, что ответчики должны понести наказание за «миллиарды долларов законного и реального ущерба», связанного с «незаконным копированием и использованием уникально ценных произведений NYT».
Позднее аналогичные иски подали ряд других изданий и журналистов.
В случае, если инициатива по раскрытию массивов данных будет принята и вскроются случаи незаконного использования материалов без авторского права на него, такие судебные прецеденты могут появиться и в России, предупредил руководитель проектов компании «Интеллектуальная аналитика» Тимофей Воронин.
-----------------------
Власти непрерывно думают - как затормозить развитие нейросетей в России. Конечно же никто ни каких реальных данных накопленных для обучения своих ИИ предоставлять не будет, поскольку это предоставление будет таким дорогим что разработка ИИ в России станет убыточной, как и остальной бизнес.
Значит, если внедрят этот очередной вредительский и глупый закон, то все разработки по системам обучения ИИ будут перенесены за рубеж. Россия снова в очередной раз лишится и специалистов и возможности пополнять доходную базу бюджета
Вторая проблема - авторское право, якобы страдающее от того, что ИИ читают, как и люди, публичные статьи в СМИ. Однако людям можно использовать полученную в СМИ информацию для извлечения прибыли, например, для выработки решений на работе, а ИИ - пытаются запретить, считая, что разработчики должны платить авторам.
Авторы уже получили свои деньги, когда продали мне газету. Далее, я могу делать с этой газетой - что угодно, например, узнав из газеты - где выгоднее всего вклады, выбирать банк и получать прибыль или найти выгодную работу или нанять сотрудника. При этом я не должен за это оплачивать авторам газетной рубрики о вкладах и предложениях работы или найма сотрудников.
С чего вдруг за сбор информации из газет и сохранения ее в базе данных, я должен снова платить газетам???
Думаю, нужен закон, регулирующий авторские права СМИ на публичную информацию, которую они распространяют на своих ресурсах. Авторское право не может быть бесконечным и государство должно четко определить границы публичной оферты СМИ. Потребителя информации, публикуемой в СМИ, надо освободить от притязаний СМИ не касающихся присвоения чужих авторских прав.