Кто контролирует генеративный искусственный интеллект?

Появление новых мощных инструментов, таких как ChatGPT, представляет собой крупный прорыв в области искусственного интеллекта, подчеркивая необходимость вмешательства регулирующих органов. Чтобы защитить общественные интересы, политики должны предотвратить господство на этом зарождающемся рынке горстки гигантских частных компаний.

КЕМБРИДЖ. Новый чатбот ChatGPT, работающий на основе искусственного интеллекта (ИИ) и разработанный научной лабораторией в Сан-Франциско OpenAI, внезапно покорил весь мир. Его уже назвали вехой в эволюции так называемых «больших языковых моделей» (сокращенно LLM). Впрочем, этот генеративный ИИ, ставший самым знаменитым в мире, заставляет задаться важными вопросами: кто контролирует этот зарождающийся рынок, и будут ли новые мощные технологии служить интересам общества.

Выпуск компанией OpenAI бота ChatGPT в ноябре прошлого года быстро превратился в мировую сенсацию. Программа привлекла внимание миллионов пользователей и, как утверждается, убила как класс учебные работы, которые пишут студенты. Бот способен отвечать на заданные вопросы на разговорном английском (а также на некоторых других языках) и выполнять некоторые другие задачи, например, писать компьютерные коды.

Ответы, которые выдает ChatGPT, очень складные и убедительные. Но несмотря на эту легкость владения языком, бот иногда ошибается или генерирует сфальсифицированные факты. Этот феномен исследователи ИИ называют «галлюцинацией». Опасения по поводу сфабрикованных ссылок недавно заставили целый ряд научных журналов запретить или строго ограничить использование ChatGPT и аналогичных инструментов в академических статьях. Но хотя чатботу трудно проверять факты, он, судя по всему, реже ошибается в программировании и способен с легкостью писать эффективные и элегантные коды.

При всех недостатках ChatGPT, конечно, представляет собой важнейший технологический прорыв

При всех недостатках ChatGPT, конечно, представляет собой важнейший технологический прорыв. Именно поэтому компания Microsoft недавно объявила о «многолетних инвестициях размером в миллиарды долларов» в проект OpenAI (сообщается, что они могут достичь $10 млрд), помимо суммы в $1 млрд, которую она уже обязалась туда вложить. Изначально проект OpenAI был некоммерческим, но сейчас это уже коммерческая корпорация стоимостью $29 млрд. Хотя она пообещала установить потолок для своих прибылей, мягкая структура этого потолка ограничивает доходность инвесторов уровнем 10000 процентов.

ChatGPT работает на основе GPT-3 – мощной модели LLM, натренированной на огромном количестве текстов для генерации ответов, которые бы звучали естественно и по-человечески. Сегодня это самый знаменитый в мире генеративный ИИ, но другие крупные технологические компании, в том числе Google и Meta, разрабатывают собственные версии чатботов. Пока еще не ясно, как именно будет происходить их монетизация, но сообщается, что уже скоро выйдет платная версия ChatGPT, а OpenAI прогнозирует к 2024 году выручку на уровне $1 млрд.

Нет сомнений, что злоумышленники могут использовать эти инструменты для различных незаконных схем, например, для мошенничества в интернете или написания вредоносного программного обеспечения. Однако перспективные виды применения этой технологии (от компьютерного кодирования до открытия структуры белков) дают повод для оптимизма. Например, по оценкам McKinsey, 50-60% компаний уже используют в своей деятельности инструменты на основе ИИ, подобные чатботам. Расширяя применение моделей LLM, компании могли бы повысить эффективность и производительность.

Для тренировки и технической поддержки генеративных ИИ-инструментов требуются огромные компьютерные мощности, крайне дорогостоящие и при этом быстро возрастающие. Это создает значительный барьер для выхода на рынок новичков и может привести к концентрации рынка. Такая потенциальная монополизация (наряду с угрозой злоупотреблений) означает, что властям нужно срочно задуматься о возможных последствиях данного технологического прорыва.

Потенциальная монополизация (наряду с угрозой злоупотреблений) означает, что властям нужно срочно задуматься о возможных последствиях данного технологического прорыва

К счастью, антимонопольные органы в США и других странах, похоже, понимают эти риски. В конце прошлого года британский регулятор в сфере связи и коммуникаций (Ofcom) начал расследование рынка облачных вычислений, на который опираются все крупные модели искусственного интеллекта, а Федеральная торговая комиссия США сейчас ведет расследование в отношении Сервиса облачных вычислений Amazon (сокращенно AWS), который, наряду с Google и Microsoft Azure, доминирует на рынке. Начатые расследования могут привести к серьезным последствиям для сервисов, работающих на основе ИИ и опирающихся на огромные экономические масштабы своей деятельности.

Впрочем, не очень понятно, что именно должны сделать власти, и должны ли они вообще что-то делать. С одной стороны, если регуляторы ничего не сделают, тогда рынок генеративного ИИ может оказаться под контролем одной-двух компаний, как уже случилось раньше со всеми остальными цифровыми рынками. С другой стороны, появление моделей LLM с открытым кодом (таких как, например, инструмент создания картинок на основе текста Stable Diffusion) может гарантировать сохранение конкуренции на рынке без дополнительного вмешательства властей.

Чтобы общественные интересы были представлены на переднем фронте технологий, миру нужна общественная альтернатива коммерческим моделям LLM

Даже если коммерческие модели станут доминирующими, конкуренты с открытым кодом могут откусить у них долю рынка. Так произошло, например, с браузером Firefox компании Mozilla, который подвинул браузер Chrome компании Google, и с операционной системой Android, которая потеснила операционную систему iOS компании Apple. Впрочем, гиганты облачных вычислений, подобные AWS и Microsoft Azure, могут использовать генеративные ИИ-продукты для увеличения своей рыночной силы.

На недавнем Всемирном экономическом форуме в Давосе отмечалось, что генеративный искусственный интеллект является слишком мощной и потенциально преобразующей технологией, чтобы оставить ее судьбу в руках нескольких господствующих компаний. Но хотя имеется явный спрос на вмешательство регуляторов, быстрые темпы технологического прогресса оставляют власти в невыгодном положении отстающих.

Для того чтобы общественные интересы были представлены на переднем фронте технологий, миру нужна общественная альтернатива коммерческим моделям LLM. Правительства демократических стран могли бы сформировать многосторонний орган для разработки средств, помогающих предотвратить фальсификации, троллинг и другую вредоносную онлайн-деятельность – нечто, подобное Европейскому центру ядерных исследований (ЦЕРН), но для генеративного ИИ. Альтернативой могло бы стать создание финансируемого из бюджета конкурента, но с иной бизнес-моделью и со стимулами для развития конкуренции между этими двумя моделями. Какой бы вариант ни выбрали власти стран мира, среди них не может быть одного – сидеть сложа руки. Совершенно ясно, что оставлять на усмотрение рынка решение, как именно будут применяться эти мощные технологии (и кто их будет применять), очень рискованно.

Автор: Дайана Койл (Diane Coyle) – экономист, профессор государственной политики Кембриджского университета, автор книги Cogs and Monsters: What Economics Is, and What It Should Be (2021).

Источник: Project Syndicate, США

МК

Поделиться:

Пов’язані записи

Почніть набирати текст зверху та натисніть "Enter" для пошуку. Натисніть ESC для відміни.

Повернутись вверх