Крупнейшим мировым компаниям нельзя дать волю в их конкуренции за капитализацию искусственного интеллекта.
Как лучше всего развивать искусственный интеллект? Этот вопрос, долгое время теоретический, быстро становится практической проблемой, которая вскоре потребует принятия важных стратегических решений. Мы видим, как перед нашими глазами разыгрываются два совершенно разных подхода.
Одним из них является гонка среди глобальных технологических гигантов, которая началась с недавнего запуска финансируемого Microsoft ChatGPT, уже спровоцировав обещания аналогичных систем от Google и китайской компании Baidu. В этих случаях рынок (или, скорее, мотив прибыли) является механизмом, побуждающим компании принимать решения, которые они, вероятно, должны — и, возможно, предпочли бы — отложить.
Другим является процесс Европейского союза по регулированию искусственного интеллекта, особенно через всеобъемлющий законодательный пакет Закона об ИИ и связанные с ним стандарты. Это позволит классифицировать системы по четырем уровням риска: неприемлемый, высокий, ограниченный и минимальный/нулевой. Здесь modus operandi является демократическим и политическим, выраженным в законодательстве и других формах регулирования.
До сих пор рынок был доминирующим, хотя часто поддерживался государственными кредитами и государственными инвестициями в исследования и предпринимательство. Отчасти это связано с быстрыми темпами технологических изменений, которые затрудняют демократическим институтам и национальным государствам идти в ногу со временем. Как юридически, так и технически, регулирование ИИ оказалось чрезвычайно сложным.
Международные усилия
ChatGPT иллюстрирует некоторые трудности и риски. Система доступна во всем мире и, вероятно, быстро распространится, когда Microsoft включит ее в свои многочисленные продукты и позволит другим компаниям делать то же самое. Аналогичные эффекты диффузии, вероятно, последуют из систем искусственного интеллекта Google и Baidu.
Неясно, как эффективно регулировать эту по своей сути глобальную и аморфную технологию, и влияние отдельных стран вполне может быть очень ограниченным. По этой причине предпринимаются международные усилия. Организация Объединенных Наций по вопросам образования, науки и культуры запустила первое глобальное соглашение по этике ИИ в 2021 году, и в настоящее время во всем мире — даже в Соединенных Штатах — существуют процессы регулирования ИИ различными способами.
Инициатива ЕС по созданию законодательства и стандартов для обеспечения этичного и устойчивого ИИ стала катализатором. Влияние союза не следует недооценивать: рынок в 500 миллионов человек с глобально высокими доходами не является незначительным. Есть надежда, что быстро развивающееся регулирование ЕС может оказать нормализующее влияние на мировой рынок, хотя это весьма неопределенная перспектива.
Одно из препятствий связано с участием Baidu в гонке: авторитарные правительства намерены использовать технологию ИИ для слежки и репрессий, и не очень вероятно, что такие государства будут добровольно соблюдать правила ЕС. В случае с Китаем в этом даже нет необходимости, так как внутренний рынок достаточно велик, чтобы технология ИИ развивалась быстро и по совершенно другим правилам и нормам, чем в США или Европе.
Взрывное распространение
В течение двух месяцев после запуска ChatGPT набрал 100 миллионов пользователей. Рыночные силы могут привести к взрывному распространению технологий ИИ, которые не до конца понятны компаниям, которые их разрабатывают, и которые они неохотно объясняют посторонним. Нескольким пользователям удалось «обмануть» ChatGPT, чтобы дать ответы, на которые он не должен быть способен: предоставить рецепты наркотиков или взрывчатых веществ и выразить расистские взгляды.
Why does ChatGPT display this unexpected and contradictory behaviour? No one really knows and the company behind the technology, OpenAI, is hardly open when it comes to information. So I asked ChatGPT. Cryptically, it replied: ‘[A]s an AI model trained by OpenAI, I am constantly under development and improvement.’
Даже создателям системы кажется очень сложным регулировать ее использование и функциональность. Еще большая осторожность должна направлять использование и распространение более сложных систем с еще более серьезными последствиями, которые мы не можем предсказать и предотвратить. Риски, связанные с тем, чтобы позволить рынку распространять технологии ИИ, одновременно разжигая гонку вооружений между конкурентами, должны быть очевидны.
Потенциальный вред
Многие ученые указывают на социальные опасности быстрого и неконтролируемого развития ИИ. Дарон Аджемоглу, профессор экономики в Массачусетском технологическом институте, предупредил, что быстрые технологические изменения должны сочетаться с реформами социального обеспечения и рынка труда, чтобы предотвратить растущее неравенство, эрозию демократии и усиление поляризации. Аналогичный подход был предложен гарвардским экономистом Дэни Родриком: «Государственная политика может помочь направить технологии автоматизации и искусственного интеллекта по более благоприятному для труда пути, который дополняет навыки работников, а не заменяет их».
Шведский математик Олле Хаггстрём, эксперт по экзистенциальным рискам ИИ, давно предупреждал о потенциальном вреде, начиная от наблюдения и безработицы до автономных систем оружия и будущего, в котором машины просто захватят мир. Он был обеспокоен запуском ChatGPT. Он рассматривает это как показатель того, насколько сложной будет так называемая проблема выравнивания ИИ — проектирование в систему ИИ всех ограждений от схода с пути — для более способных и, следовательно, более опасных систем.
Есть основания для остановки или строгого ограничения определенных типов систем, пока мы не поймем их лучше. Это потребует широких дебатов, образования и коммуникации, основанных на демократических принципах. В противном случае, вероятно, будет отпор со стороны общественности, лишенной этих технологий (особенно если люди в других странах смогут их использовать). Это уже произошло с Общим регламентом по защите данных: хотя у него очень много положительных аспектов, GDPR широко не любят и высмеивают, ЕС удалось изобразить себя бюрократическим колоссом, намеренным затруднить обычным людям использование Интернета.
Больше и лучше
Некоторые виды Регулирование ИИ как препятствие для инноваций и предупреждает, что европейский подход может свести ЕС к захолустью ИИ. Между тем, США и Китай прыгнут вперед, будучи менее озабоченными законодательством, отраслевыми стандартами и этическими принципами.
Конечно, регулирование не является совершенным, и государства не всегда доброжелательны и мудры. Очевидно, что нам нужно сочетание рынка и регулирования. Но, учитывая потенциальные риски и быстрые темпы технологического развития и распространения, у нас было слишком много первого и слишком мало второго.
Рынки недостаточно противодействуют «негативным внешним эффектам» (нежелательным побочным эффектам). Они не распределяют экономическую ценность, создаваемую технологией, устойчиво равным образом. Они не учитывают социальные или политические соображения. И они редко вносят свой вклад в технологические решения, которые приносят пользу обществу в целом.
Большинство из нас хотят большего и лучшего ИИ. Но для этого нам нужно больше и лучшее регулирование.
Автор: Герман Бендер – является главным аналитиком стокгольмского аналитического центра Arena Idé и кандидатом наук в Стокгольмской школе экономики. В настоящее время он является приглашенным научным сотрудником в Центре труда и справедливой экономики Гарвардской школы права.
Источник: Social Europe, ЕС