Искусственный интеллект (ИИ) с открытым исходным кодом может помочь в борьбе с концентрацией капитала и власти, которая в настоящее время определяет его развитие, в то время как зарождающиеся практики обеспечения гарантий нуждаются в регулировании, чтобы определить, что такое «хорошо».
Выступая на девятом ежегодном саммите по цифровой этике торговой ассоциации TechUK, участники дискуссии обсудили различные динамики развития технологий искусственного интеллекта, в том числе недостаточное использование подходов с открытым исходным кодом, необходимость страхование ИИ быть непрерывным и итеративным, а также степень, в которой регулирование необходимо для информирования текущих практики обеспечения гарантий.
Во время двух предыдущих саммитов, состоявшихся в декабре 2023 год и 2024 год – делегаты подчеркнули необходимость воплощения благих этических принципов ИИ в конкретные практические меры и подчеркнули необходимость любого регулирования, признающего социотехническую природу ИИ, который потенциально может привести к еще большему неравенству и концентрации власти.
А основная тема этих предыдущих обсуждений был тот, кто диктует и контролирует, как разрабатываются и внедряются технологии, и кто может вести дискуссии о том, что считается «этическим».
В то время как дискуссии на саммите 2025 года затрагивали многие из тех же вопросов, разговоры в этом году были сосредоточены на развивающейся экосистеме обеспечения безопасности ИИ в Великобритании и на степени, в которой дальнейшее развитие ИИ может быть демократизировано за счет более открытых подходов.
Модели и экосистемы с открытым исходным кодом
В разговоре о преимущества и недостатки моделей искусственного интеллекта с открытым и закрытым исходным кодомвыступавшие отметили, что большинство моделей не подпадают ни под одну из двух бинарных моделей, а вместо этого существуют в спектре, где аспекты любой данной модели либо открыты, либо закрыты.
Однако они также ясно дали понять, что разрабатываемых моделей и подходов с действительно открытым исходным кодом чрезвычайно мало.
Мэтью Сквайр, технический директор и основатель Fuzzy Labs, например, отметил, что «многие из этих якобы моделей с открытым исходным кодом, на самом деле они предлагают как открытые веса моделей», которые, по сути, являются параметрами, которые модель использует для преобразования входных данных в выходные данные.
Отметив, что подавляющее большинство разработчиков моделей в настоящее время не раскрывают другие ключевые аспекты модели, включая базовые данные, параметры обучения или код, он пришел к выводу, что большинство моделей явно попадают в закрытый конец спектра. «[Model weights represent] конечный результат обучения этой модели, но в нее входит гораздо больше», — сказал Сквайр.
По мнению Линды Гриффин, вице-президента по глобальной политике Mozilla, хотя модели ИИ не существуют в бинарной системе «открытые» и «закрытые», существуют экосистемы, в которых они разрабатываются.
Подчеркнув, что Интернет был построен на программном обеспечении с открытым исходным кодом до того, как крупные корпорации, такие как Microsoft, включили его в свою собственную инфраструктуру, она сказала, что аналогичная динамика наблюдается сегодня с ИИ, где несколько компаний – в основном те, которые контролируют доступ к сети через владение браузерами и которые, следовательно, имеют доступ к горам клиентских данных – включили стек ИИ.
«О чем правительству Великобритании действительно нужно подумать прямо сейчас, так это о том, какова наша долгосрочная стратегия закупок, финансирования, поддержки и стимулирования более открытого доступа, чтобы британские компании, стартапы и граждане могли создавать и выбирать, что делать», — сказал Гриффин. “Вы хотите, чтобы британские компании создавали ИИ или арендовали его? Прямо сейчас они арендуют его, и это долгосрочная проблема”.
«Недооцененная возможность»
Якоб Мокандер, директор по научно-технической политике Института Тони Блэра, добавил, что открытый исходный код — это «недооцененная возможность», которая может помочь правительствам и организациям получить реальную выгоду от технологии.
отмечая, что открытость и экосистемы с открытым исходным кодом имеют много преимуществ По сравнению с закрытыми системами для стимулирования роста и инноваций он подчеркнул, что нынешнее отсутствие открытых подходов также несет в себе значительные риски.
«Отсутствие открытого исходного кода, возможно, представляет собой еще больший риск, потому что тогда возникает концентрация большой власти либо в руках государственных деятелей, либо в руках одной или двух крупных технологических компаний», — сказал Мокандер. «Независимо от того, смотрите ли вы на это с точки зрения, в первую очередь, роста или информации, или с точки зрения риска, вы хотели бы увидеть сильную открытую экосистему».
Что касается взаимосвязи между открытым исходным кодом и гарантиями ИИ, Роули Адамс, ведущий инженер EthicAI, сказал, что это позволяет более тщательно проверять заявления разработчиков по сравнению с закрытыми подходами. «С точки зрения обеспечения достоверности очевидно, что проверяемость имеет решающее значение, что невозможно для закрытых моделей, поскольку [developers at their] Слово в каждом отдельном пункте, почти основанное на вере, — сказал он. — Преимущество моделей с открытым исходным кодом состоит в том, что вы действительно можете исследовать, экспериментировать и оценивать методично и тщательно».
На вопрос Computer Weekly, нужно ли правительствам рассматривать новое антимонопольное законодательство, чтобы разрушить стек искусственного интеллекта – учитывая огромную концентрацию власти и капитала, возникающую из-за того, что несколько компаний контролируют доступ к базовой инфраструктуре – выступающие ответили, что существует острая необходимость понять, как структурированы рынки в этой сфере.
Гриффин, например, сказал, что необходимо «долгосрочное сценарное планирование со стороны правительства», которое учитывает возможность рыночного вмешательства в случае необходимости.
Мокандер добавил, что растущие возможности ИИ должны идти «рука об руку с новым мышлением в области антимонопольного законодательства и диверсификации рынка», и что важно «не полагаться на [on companies] это может быть использовано в качестве рычага против правительства и демократических интересов. «Это не обязательно означает, что они должны предотвращать частную собственность, но это условия, в которых вы управляете этой инфраструктурой», — сказал он.
Необходима постоянная гарантия
Выступая на отдельной дискуссии о состоянии обеспечения безопасности ИИ в Великобритании, Микаэла Кутси, руководитель отдела этики и обеспечения качества ИИ в Advai, отметила, что из-за динамического характера систем ИИ обеспечение качества не является одноразовым процессом, а вместо этого требует постоянного мониторинга и оценки.
«Поскольку ИИ — это социально-техническое предприятие, нам нужны многогранные навыки и талант», — сказала она. «Нам нужны специалисты по данным, МЛ. [machine learning] инженеры, разработчики. Нам нужны красные команды, которые специально ищут уязвимости в системе. Нам нужны специалисты по правовой политике, искусственному интеллекту и управлению. Есть целый ряд ролей».
Однако Коэтси и другие участники дискуссии ясно дали понять, что в нынешнем виде все еще существует необходимость правильно определить показатели качества и стандартизировать методы тестирования систем.что может оказаться затруднительным, учитывая весьма контекстуальный характер развертывания ИИ.
Стейси Хоффманн, руководитель отдела стратегического роста и отдела обработки данных и искусственного интеллекта Национальной физической лаборатории, например, отметила, что, хотя на рынке существует множество инструментов оценки тестирования, которые разрабатываются собственными силами (что в конечном итоге может помочь укрепить уверенность в надежности и устойчивости конкретной системы), «не существует той всеобъемлющей структуры, которая бы говорила: «Вот как выглядит хорошее тестирование».
Подчеркнув, что практика обеспечения уверенности все же может дать представление о том, действует ли система так, как ожидается, или о степени ее предвзятости в конкретной ситуации, она добавила, что не существует единого подхода, подходящего всем. «Опять же, это очень зависит от контекста, поэтому у нас никогда не будет одного теста, который мог бы протестировать систему на все случаи жизни — вам нужно будет ввести различные элементы тестирования в зависимости от контекста и специфики», — сказал Хоффманн.
По мнению Коэтси, один из способов добиться большей степени доверия к технологии вместо формальных правил, положений или стандартов — это запустить ограниченные пилотные тесты, в которых модели собирают данные о клиентах, чтобы организации могли лучше контролировать, как они будут действовать на практике, прежде чем принимать решения о покупке.
«Я думаю, что сейчас люди довольно хорошо осведомлены о рисках, связанных с этими системами… но мы все еще видим, как люди покупают ИИ вне презентаций», — сказала она, добавив, что существует также необходимость в более тесном сотрудничестве на протяжении всего процесса. зарождающаяся экосистема обеспечения безопасности искусственного интеллекта в Великобритании.
«Нам нужно продолжать работать над показателями… это будет [also] Было бы здорово понять и больше сотрудничать, чтобы понять, какие средства контроля и смягчения последствий на самом деле работают на практике, и поделиться этим, чтобы вы могли начать иметь более надежные системы в разных секторах».
Лошадь или телега: гарантия против регулирования
Говоря о том, как развивалась дискуссия по цифровой этике за последний год, Лиам Бут – бывший руководитель аппарата Даунинг-стрит, который в настоящее время работает в сфере политики, коммуникаций и стратегии в антропный – отметил, что, хотя такие глобальные фирмы, как его, предпочли бы подход «наибольшего общего знаменателя» к регулированию ИИ – при котором глобальные фирмы придерживаются самых строгих нормативных стандартов, которые только возможны, чтобы обеспечить соблюдение различных правил в разных юрисдикциях – самой Великобритании не следует «торопиться с регулированием», пока не будет полного понимания возможностей технологии или того, как она была разработана.
«Благодаря таким вещам, как очень зрелый подход к «песочницам», очень открытый подход к инновациям и нормативным изменениям, Великобритания может стать лучшим местом в мире для экспериментов, развертывания и тестирования», — сказал он, добавив, что, хотя внимание правительства Великобритании к созданию экосистемы обеспечения безопасности для ИИ является позитивным, страна не станет мировым лидером в этой технологии, если не будет наращивать распространение и внедрение.
«У вас не будет ведущего в мире рынка гарантий, ни с точки зрения нормативных требований, ни со стороны коммерческих продуктов, если не будет людей, использующих технологию и желающих приобрести продукт страхования», — сказал Бут.
Тем не менее, он отметил, что создание экосистемы гарантий может быть полезным для повышения доверия к технологии, поскольку это даст как государственному, так и частному секторам больше уверенности в ее использовании.
«В мире, в котором вы не являетесь столицей центров обработки данных или у вас не обязательно есть поставщик передовых моделей, расположенный в вашей стране, вам необходимо постоянно внедрять инновации и думать о том, какова ваша значимость в этом [global] стол и продолжайте воссоздавать себя каждые несколько лет», — сказал Бут.
Делаем шаг назад
Однако, по мнению Гайи Маркус, директора Института Ады Лавлейс, хотя и позитивно говорить о гарантиях более подробно, «нам нужно сделать огромный шаг назад» и сначала регулировать технологию как необходимое условие для построения доверия к ней.
Выделение Аудит регулирования ИИ в Великобритании, проведенный Ada в июле 2023 г. – которая обнаружила, что «большие части» экономики либо нерегулируются, либо регулируются лишь частично, когда дело доходит до использования ИИ – она утверждает, что не существует реальных отраслевых правил относительно того, как ИИ как технология общего назначения должен использоваться в таких контекстах, как образование, полицейская деятельность или занятость.
Маркус добавил, что контрольные показатели качества для принятия решения о том, «как выглядит хорошее» в различных контекстах развертывания, могут быть определены только посредством надлежащего регулирования.
«Вам необходимо иметь базовое представление о том, как выглядит добро… если у вас есть экосистема гарантий, в которой люди решают, от чего они дают гарантии, вы сравниваете яблоки, апельсины и пары», — сказала она.
Маркус добавил, что из-за неослабевающей шумихи и «змеиного масла» вокруг технологии искусственного интеллекта «нам необходимо задать очень простые вопросы» об эффективности технологии и чьих интересах она в конечном итоге служит.
«Мы сталкиваемся с этой действительно базовой вещью, а именно с измерением и оценкой, а также с тем, чтобы технологии, основанные на данных и искусственном интеллекте, соответствовали тем же стандартам, что и любая другая технология», — сказала она.






