ИсследованияНизкий

Искусственный интеллект и присвоение знаний: Корпоративная власть против демократического доступа

5 мин чтенияИсточник: Schneier on Security

Как ИИ-компании используют массовое присвоение данных, подрывая принципы открытого доступа и демократии. Правовые, этические и технические вызовы в эпоху больших языковых моделей.

Присвоение знаний ИИ: Новый фронт борьбы за открытый доступ

Спустя более десяти лет после смерти активиста Аарона Шварца Соединенные Штаты сталкиваются с вопиющим противоречием в подходе к массовому присвоению знаний — противоречием, которое противопоставляет корпоративную власть демократическим ценностям. Шварц, покончивший с собой в 2013 году после преследования со стороны федеральных прокуроров за скачивание научных статей из JSTOR, считал, что исследования, финансируемые за счет налогоплательщиков, должны быть общедоступными. Сегодня ИИ-компании осуществляют гораздо более масштабную форму извлечения информации, поднимая острые вопросы об авторских правах, контроле и будущем знаний как таковых.

Прецедент Шварца и двойные стандарты ИИ

Преследование Шварца началось после того, как он скачал тысячи научных статей из JSTOR — цифровой библиотеки академических исследований. В то время большая часть этих работ финансировалась налогоплательщиками, проводилась в государственных учреждениях и была предназначена для расширения общественного понимания, однако оставалась за платными барьерами. Действия Шварца бросали вызов системе, которую он считал намеренно ограничительной, и правительство США ответило на это уголовными обвинениями и угрозой десятилетий тюремного заключения.

Перенесемся в 2025 год — ситуация кардинально изменилась. ИИ-компании, такие как Anthropic, сканируют огромные массивы защищенных авторским правом материалов — книг, журналистских статей, научных работ, произведений искусства и личных текстов — зачастую без согласия, компенсации или прозрачности. Эти данные используются для обучения больших языковых моделей (LLM), которые затем монетизируются и продаются обратно обществу. Однако, в отличие от Шварца, ИИ-компании не сталкиваются с уголовным преследованием. Вместо этого они заключают мировые соглашения (например, соглашение Anthropic на $1,5 млрд с издателями) и представляют нарушение авторских прав как неизбежную плату за "инновации".

Разница в правоприменении очевидна. Шварц был признан преступником за попытку освободить знания, а ИИ-компании рассматриваются как незаменимые двигатели экономики, даже несмотря на то, что они извлекают прибыль из того же принципа — массового присвоения информации.

Технические и правовые последствия данных для обучения ИИ

Зависимость ИИ от сканированных данных создает несколько критических вызовов для специалистов по безопасности и юристов:

  • Масштаб присвоения: LLM, разработанные такими компаниями, как Anthropic, OpenAI и Google, обучаются на наборах данных, содержащих миллиарды документов, включая защищенные авторским правом работы. В отличие от традиционных споров об авторских правах, которые затрагивают отдельные случаи нарушений, обучение ИИ предполагает систематическое крупномасштабное воспроизведение защищенных материалов.

  • Отсутствие прозрачности: Большинство ИИ-компаний не раскрывают полный объем своих обучающих наборов данных, что затрудняет оценку соответствия авторскому праву или этическим нормам. Эта непрозрачность распространяется и на сами модели, которые функционируют как "черные ящики", не подлежащие аудиту на предмет предвзятости, точности или происхождения данных.

  • Мировые соглашения как бизнес-модель: Мировое соглашение Anthropic на $1,5 млрд (примерно $3000 за книгу при оценке в 500 000 произведений) указывает на то, что затраты на нарушение авторских прав закладываются в бизнес-модели ИИ-компаний. По оценкам юристов, компания избежала более $1 трлн потенциальных обязательств, что демонстрирует, как мировые соглашения могут служить фактической лицензией на массовое присвоение.

  • Судебная и политическая неопределенность: Суды и политики пока не выработали четких стандартов для данных, используемых при обучении ИИ. Некоторые судьи признали обучение на защищенных материалах добросовестным использованием, в то время как другие выразили скепсис. Политики же балансируют между экономическим потенциалом ИИ и необходимостью защиты прав создателей, зачастую проявляя осторожность, чтобы не задушить инновации.

Последствия: Кто контролирует инфраструктуру знаний?

Ставки выходят далеко за рамки авторского права. Поскольку ИИ-системы все чаще опосредуют доступ к информации — через поиск, синтез и объяснение — они также определяют, какие знания приоритизируются, кто считается авторитетом и какие вопросы вообще могут быть заданы. Эта консолидация контроля имеет глубокие последствия:

  • Корпоративный захват общественного знания: ИИ-модели, обученные на исследованиях, финансируемых за счет налогоплательщиков (например, исследованиях NIH, государственных отчетах), часто являются проприетарными, что означает, что обществу приходится платить снова за доступ к выводам, полученным на основе их же налогов. Это напоминает проблему платных барьеров, против которой боролся Шварц, но в гораздо большем масштабе.

  • Размывание демократических норм: Если доступ к информации регулируется корпоративными приоритетами, а не демократическими ценностями, страдает общественный дискурс. Например, ИИ-модель может отдавать предпочтение ответам, которые соответствуют финансовым интересам ее материнской компании, а не тем, которые наиболее точны или справедливы.

  • Подотчетность и доверие: В отличие от традиционных СМИ или академических публикаций, ИИ-системы лишены механизмов общественного контроля. Пользователи не могут проверить источники ИИ-генерации, выявить предвзятость или оспорить результаты. Это подрывает доверие к институтам, использующим ИИ для принятия решений — от здравоохранения до правоохранительных органов.

Рекомендации: Баланс инноваций и справедливости

Для специалистов по кибербезопасности, политиков и технологов путь вперед требует решения как технических, так и этических аспектов присвоения знаний ИИ:

  1. Прозрачность и аудит: ИИ-компании должны раскрывать свои обучающие наборы данных и допускать независимые аудиты моделей. Это позволит исследователям оценивать соответствие авторскому праву, выявлять предвзятость и проверять происхождение данных.

  2. Четкие правовые рамки: Политики должны установить однозначные стандарты для данных, используемых при обучении ИИ, включая рекомендации по добросовестному использованию, компенсации создателям и штрафам за несоблюдение. Нынешняя мозаика судебных исков и мировых соглашений неустойчива и выгодна только хорошо капитализированным корпорациям.

  3. Публичные альтернативы: Правительства и научные учреждения должны инвестировать в открытые ИИ-модели, обученные на этически собранных данных. Эти альтернативы могли бы стать противовесом корпоративно-контролируемым системам, гарантируя, что исследования, финансируемые за счет налогоплательщиков, остаются общедоступными.

  4. Этическое получение данных: ИИ-компании должны внедрять модели с предварительным согласием для обучающих данных, справедливо вознаграждая создателей и обеспечивая прозрачность использования их работ. Это соответствовало бы демократическим ценностям и снизило бы риск судебных разбирательств.

  5. Общественная адвокация: Специалисты по кибербезопасности и технологи должны участвовать в общественном дискурсе об этических последствиях ИИ. Борьба Шварца была не только за доступ — она касалась того, кто решает, как управляется знание. Этот вопрос остается актуальным как никогда.

Испытание демократических принципов

Подход к знаниям — кто может к ним обращаться, кто может на них зарабатывать и кого наказывают за их распространение — стал лакмусовой бумажкой демократических ценностей. Дело Шварца выявило противоречия в системе, которая криминализирует отдельных лиц за попытки обойти платные барьеры, одновременно позволяя корпорациям присваивать знания в массовом порядке. Сегодня массовое извлечение данных ИИ поднимает тот же фундаментальный вопрос: будут ли знания управляться открытостью и общественным интересом или корпоративной властью?

Ответ определит не только будущее ИИ, но и будущее самой демократии.

Поделиться

TwitterLinkedIn