Digital Ethics Summit 2025: Open sourcing and assuring AI

Искусственный интеллект (ИИ) с открытым исходным кодом может помочь в борьбе с концентрацией капитала и власти, которая в настоящее время определяет его развитие, в то время как зарождающиеся практики обеспечения гарантий нуждаются в регулировании, чтобы определить, что такое «хорошо».

Выступая на девятом ежегодном саммите по цифровой этике торговой ассоциации TechUK, участники дискуссии обсудили различные динамики развития технологий искусственного интеллекта, в том числе недостаточное использование подходов с открытым исходным кодом, необходимость страхование ИИ быть непрерывным и итеративным, а также степень, в которой регулирование необходимо для информирования текущих практики обеспечения гарантий.

Во время двух предыдущих саммитов, состоявшихся в декабре 2023 год и 2024 год – делегаты подчеркнули необходимость воплощения благих этических принципов ИИ в конкретные практические меры и подчеркнули необходимость любого регулирования, признающего социотехническую природу ИИ, который потенциально может привести к еще большему неравенству и концентрации власти.

А основная тема этих предыдущих обсуждений был тот, кто диктует и контролирует, как разрабатываются и внедряются технологии, и кто может вести дискуссии о том, что считается «этическим».

В то время как дискуссии на саммите 2025 года затрагивали многие из тех же вопросов, разговоры в этом году были сосредоточены на развивающейся экосистеме обеспечения безопасности ИИ в Великобритании и на степени, в которой дальнейшее развитие ИИ может быть демократизировано за счет более открытых подходов.

Модели и экосистемы с открытым исходным кодом

В разговоре о преимущества и недостатки моделей искусственного интеллекта с открытым и закрытым исходным кодомвыступавшие отметили, что большинство моделей не подпадают ни под одну из двух бинарных моделей, а вместо этого существуют в спектре, где аспекты любой данной модели либо открыты, либо закрыты.

Однако они также ясно дали понять, что разрабатываемых моделей и подходов с действительно открытым исходным кодом чрезвычайно мало.

Мэтью Сквайр, технический директор и основатель Fuzzy Labs, например, отметил, что «многие из этих якобы моделей с открытым исходным кодом, на самом деле они предлагают как открытые веса моделей», которые, по сути, являются параметрами, которые модель использует для преобразования входных данных в выходные данные.

Отметив, что подавляющее большинство разработчиков моделей в настоящее время не раскрывают другие ключевые аспекты модели, включая базовые данные, параметры обучения или код, он пришел к выводу, что большинство моделей явно попадают в закрытый конец спектра. «[Model weights represent] конечный результат обучения этой модели, но в нее входит гораздо больше», — сказал Сквайр.

По мнению Линды Гриффин, вице-президента по глобальной политике Mozilla, хотя модели ИИ не существуют в бинарной системе «открытые» и «закрытые», существуют экосистемы, в которых они разрабатываются.

Подчеркнув, что Интернет был построен на программном обеспечении с открытым исходным кодом до того, как крупные корпорации, такие как Microsoft, включили его в свою собственную инфраструктуру, она сказала, что аналогичная динамика наблюдается сегодня с ИИ, где несколько компаний – в основном те, которые контролируют доступ к сети через владение браузерами и которые, следовательно, имеют доступ к горам клиентских данных – включили стек ИИ.

«О чем правительству Великобритании действительно нужно подумать прямо сейчас, так это о том, какова наша долгосрочная стратегия закупок, финансирования, поддержки и стимулирования более открытого доступа, чтобы британские компании, стартапы и граждане могли создавать и выбирать, что делать», — сказал Гриффин. “Вы хотите, чтобы британские компании создавали ИИ или арендовали его? Прямо сейчас они арендуют его, и это долгосрочная проблема”.

«Недооцененная возможность»

Якоб Мокандер, директор по научно-технической политике Института Тони Блэра, добавил, что открытый исходный код — это «недооцененная возможность», которая может помочь правительствам и организациям получить реальную выгоду от технологии.

отмечая, что открытость и экосистемы с открытым исходным кодом имеют много преимуществ По сравнению с закрытыми системами для стимулирования роста и инноваций он подчеркнул, что нынешнее отсутствие открытых подходов также несет в себе значительные риски.

«Отсутствие открытого исходного кода, возможно, представляет собой еще больший риск, потому что тогда возникает концентрация большой власти либо в руках государственных деятелей, либо в руках одной или двух крупных технологических компаний», — сказал Мокандер. «Независимо от того, смотрите ли вы на это с точки зрения, в первую очередь, роста или информации, или с точки зрения риска, вы хотели бы увидеть сильную открытую экосистему».

Что касается взаимосвязи между открытым исходным кодом и гарантиями ИИ, Роули Адамс, ведущий инженер EthicAI, сказал, что это позволяет более тщательно проверять заявления разработчиков по сравнению с закрытыми подходами. «С точки зрения обеспечения достоверности очевидно, что проверяемость имеет решающее значение, что невозможно для закрытых моделей, поскольку [developers at their] Слово в каждом отдельном пункте, почти основанное на вере, — сказал он. — Преимущество моделей с открытым исходным кодом состоит в том, что вы действительно можете исследовать, экспериментировать и оценивать методично и тщательно».

На вопрос Computer Weekly, нужно ли правительствам рассматривать новое антимонопольное законодательство, чтобы разрушить стек искусственного интеллекта – учитывая огромную концентрацию власти и капитала, возникающую из-за того, что несколько компаний контролируют доступ к базовой инфраструктуре – выступающие ответили, что существует острая необходимость понять, как структурированы рынки в этой сфере.

Гриффин, например, сказал, что необходимо «долгосрочное сценарное планирование со стороны правительства», которое учитывает возможность рыночного вмешательства в случае необходимости.

Мокандер добавил, что растущие возможности ИИ должны идти «рука об руку с новым мышлением в области антимонопольного законодательства и диверсификации рынка», и что важно «не полагаться на [on companies] это может быть использовано в качестве рычага против правительства и демократических интересов. «Это не обязательно означает, что они должны предотвращать частную собственность, но это условия, в которых вы управляете этой инфраструктурой», — сказал он.

Необходима постоянная гарантия

Выступая на отдельной дискуссии о состоянии обеспечения безопасности ИИ в Великобритании, Микаэла Кутси, руководитель отдела этики и обеспечения качества ИИ в Advai, отметила, что из-за динамического характера систем ИИ обеспечение качества не является одноразовым процессом, а вместо этого требует постоянного мониторинга и оценки.

«Поскольку ИИ — это социально-техническое предприятие, нам нужны многогранные навыки и талант», — сказала она. «Нам нужны специалисты по данным, МЛ. [machine learning] инженеры, разработчики. Нам нужны красные команды, которые специально ищут уязвимости в системе. Нам нужны специалисты по правовой политике, искусственному интеллекту и управлению. Есть целый ряд ролей».

Однако Коэтси и другие участники дискуссии ясно дали понять, что в нынешнем виде все еще существует необходимость правильно определить показатели качества и стандартизировать методы тестирования систем.что может оказаться затруднительным, учитывая весьма контекстуальный характер развертывания ИИ.

Стейси Хоффманн, руководитель отдела стратегического роста и отдела обработки данных и искусственного интеллекта Национальной физической лаборатории, например, отметила, что, хотя на рынке существует множество инструментов оценки тестирования, которые разрабатываются собственными силами (что в конечном итоге может помочь укрепить уверенность в надежности и устойчивости конкретной системы), «не существует той всеобъемлющей структуры, которая бы говорила: «Вот как выглядит хорошее тестирование».

Подчеркнув, что практика обеспечения уверенности все же может дать представление о том, действует ли система так, как ожидается, или о степени ее предвзятости в конкретной ситуации, она добавила, что не существует единого подхода, подходящего всем. «Опять же, это очень зависит от контекста, поэтому у нас никогда не будет одного теста, который мог бы протестировать систему на все случаи жизни — вам нужно будет ввести различные элементы тестирования в зависимости от контекста и специфики», — сказал Хоффманн.

По мнению Коэтси, один из способов добиться большей степени доверия к технологии вместо формальных правил, положений или стандартов — это запустить ограниченные пилотные тесты, в которых модели собирают данные о клиентах, чтобы организации могли лучше контролировать, как они будут действовать на практике, прежде чем принимать решения о покупке.

«Я думаю, что сейчас люди довольно хорошо осведомлены о рисках, связанных с этими системами… но мы все еще видим, как люди покупают ИИ вне презентаций», — сказала она, добавив, что существует также необходимость в более тесном сотрудничестве на протяжении всего процесса. зарождающаяся экосистема обеспечения безопасности искусственного интеллекта в Великобритании.

«Нам нужно продолжать работать над показателями… это будет [also] Было бы здорово понять и больше сотрудничать, чтобы понять, какие средства контроля и смягчения последствий на самом деле работают на практике, и поделиться этим, чтобы вы могли начать иметь более надежные системы в разных секторах».

Лошадь или телега: гарантия против регулирования

Говоря о том, как развивалась дискуссия по цифровой этике за последний год, Лиам Бут – бывший руководитель аппарата Даунинг-стрит, который в настоящее время работает в сфере политики, коммуникаций и стратегии в антропный – отметил, что, хотя такие глобальные фирмы, как его, предпочли бы подход «наибольшего общего знаменателя» к регулированию ИИ – при котором глобальные фирмы придерживаются самых строгих нормативных стандартов, которые только возможны, чтобы обеспечить соблюдение различных правил в разных юрисдикциях – самой Великобритании не следует «торопиться с регулированием», пока не будет полного понимания возможностей технологии или того, как она была разработана.

«Благодаря таким вещам, как очень зрелый подход к «песочницам», очень открытый подход к инновациям и нормативным изменениям, Великобритания может стать лучшим местом в мире для экспериментов, развертывания и тестирования», — сказал он, добавив, что, хотя внимание правительства Великобритании к созданию экосистемы обеспечения безопасности для ИИ является позитивным, страна не станет мировым лидером в этой технологии, если не будет наращивать распространение и внедрение.

«У вас не будет ведущего в мире рынка гарантий, ни с точки зрения нормативных требований, ни со стороны коммерческих продуктов, если не будет людей, использующих технологию и желающих приобрести продукт страхования», — сказал Бут.

Тем не менее, он отметил, что создание экосистемы гарантий может быть полезным для повышения доверия к технологии, поскольку это даст как государственному, так и частному секторам больше уверенности в ее использовании.

«В мире, в котором вы не являетесь столицей центров обработки данных или у вас не обязательно есть поставщик передовых моделей, расположенный в вашей стране, вам необходимо постоянно внедрять инновации и думать о том, какова ваша значимость в этом [global] стол и продолжайте воссоздавать себя каждые несколько лет», — сказал Бут.

Делаем шаг назад

Однако, по мнению Гайи Маркус, директора Института Ады Лавлейс, хотя и позитивно говорить о гарантиях более подробно, «нам нужно сделать огромный шаг назад» и сначала регулировать технологию как необходимое условие для построения доверия к ней.

Выделение Аудит регулирования ИИ в Великобритании, проведенный Ada в июле 2023 г. – которая обнаружила, что «большие части» экономики либо нерегулируются, либо регулируются лишь частично, когда дело доходит до использования ИИ – она утверждает, что не существует реальных отраслевых правил относительно того, как ИИ как технология общего назначения должен использоваться в таких контекстах, как образование, полицейская деятельность или занятость.

Маркус добавил, что контрольные показатели качества для принятия решения о том, «как выглядит хорошее» в различных контекстах развертывания, могут быть определены только посредством надлежащего регулирования.

«Вам необходимо иметь базовое представление о том, как выглядит добро… если у вас есть экосистема гарантий, в которой люди решают, от чего они дают гарантии, вы сравниваете яблоки, апельсины и пары», — сказала она.

Маркус добавил, что из-за неослабевающей шумихи и «змеиного масла» вокруг технологии искусственного интеллекта «нам необходимо задать очень простые вопросы» об эффективности технологии и чьих интересах она в конечном итоге служит.

«Мы сталкиваемся с этой действительно базовой вещью, а именно с измерением и оценкой, а также с тем, чтобы технологии, основанные на данных и искусственном интеллекте, соответствовали тем же стандартам, что и любая другая технология», — сказала она.

Leave a Comment