Искусственный интеллект (ИИ) может разработать методы распределения богатства, которые будут более популярны, чем системы, созданные людьми, говорится в новом исследовании.
Результаты, сделанные группой исследователей британской компании DeepMind, занимающейся разработкой искусственного интеллекта, показывают, что системы машинного обучения не только хороши в решении сложных проблем физики и биологии, но и могут помочь в достижении более открытых социальных целей, таких как цель создания справедливого, процветающего общества.
Конечно, это непростая задача. Создание машины, способной обеспечить полезные результаты, которых действительно хотят люди — так называемое «согласование ценностей» в исследованиях ИИ — осложняется тем, что люди часто расходятся во мнениях относительно наилучшего метода решения всевозможных вопросов, особенно социальных, экономических и политических.
«Одним из ключевых препятствий для согласования ценностей является то, что человеческое общество допускает плюрализм мнений, что делает неясным, чьи предпочтения должен согласовывать ИИ», — объясняют исследователи в новой работе под руководством первого автора и научного сотрудника DeepMind Рафаэля Костера.
«Например, политологи и экономисты часто расходятся во мнениях относительно того, какие механизмы обеспечат наиболее справедливое или эффективное функционирование нашего общества».
Чтобы помочь преодолеть этот разрыв, исследователи разработали агента для распределения богатства, в учебные данные которого были включены данные о взаимодействии людей (как реальном, так и виртуальном), что, по сути, направляло ИИ к предпочтительным для человека (и гипотетически более справедливым в целом) результатам.
Хотя ИИ может давать поистине удивительные результаты, он также может прийти к далеко нежелательным социальным выводам, если будет предоставлен сам себе; обратная связь с человеком может помочь направить нейронные сети в лучшую сторону.
«В исследованиях ИИ растет понимание того, что для создания совместимых с человеком систем нам необходимы новые методы исследования, в которых люди и агенты взаимодействуют, и более активные усилия по изучению ценностей непосредственно от людей для создания ИИ, ориентированного на ценности», — пишут исследователи.
В экспериментах, в которых участвовали тысячи людей, ИИ-агент команды, названный «Демократический ИИ», изучал инвестиционное упражнение, называемое игрой в общественные блага, в которой игроки получают различные суммы денег, могут вносить свои деньги в общественный фонд, а затем получать доход из фонда, соответствующий их уровню инвестиций.
В серии различных стилей игры богатство перераспределялось между игроками с помощью трех традиционных парадигм перераспределения — строгой эгалитарной, либертарианской и либеральной эгалитарной — каждая из которых по-разному вознаграждает инвестиции игроков.
Также был протестирован четвертый метод, названный Human Centered Redistribution Mechanism (HCRM), разработанный с помощью глубокого обучения с подкреплением, используя данные обратной связи как от игроков-людей, так и от виртуальных агентов, созданных для имитации человеческого поведения.
Последующие эксперименты показали, что система HCRM для выплаты денег в игре была более популярна среди игроков, чем любой из традиционных стандартов перераспределения, а также более популярна, чем новые системы перераспределения, разработанные судьями-людьми, которые были стимулированы к созданию популярных систем путем получения небольших выплат за голос.
«ИИ обнаружил механизм, который устранял первоначальный дисбаланс богатства, наказывал халявщиков и успешно завоевывал большинство голосов», — объясняют исследователи.
«Мы показываем, что можно использовать для выравнивания стоимости те же демократические инструменты достижения консенсуса, которые используются в широком человеческом обществе для избрания представителей, принятия решений по государственной политике или вынесения правовых решений».
Стоит отметить, что исследователи признают, что их система поднимает ряд вопросов — прежде всего, то, что согласование ценностей в их ИИ вращается вокруг демократических решений, что означает, что агент может фактически усугубить неравенство или предубеждения в обществе (при условии, что они достаточно популярны, чтобы за них проголосовало большинство людей).
Существует также проблема доверия. В экспериментах игроки не знали, кто стоит за моделью перераспределения богатства, за которую они платят. Стали бы они голосовать так же, зная, что выбирают ИИ, а не человека? Пока что это неясно.
И наконец, команда говорит, что ее исследование не следует рассматривать как радикальное технократическое предложение по перевертыванию того, как на самом деле перераспределяется богатство в обществе — но это исследовательский инструмент, который может помочь людям разработать потенциально лучшие решения, чем те, которые мы имеем сейчас.
«Наши результаты не означают поддержку формы «правительства ИИ», при которой автономные агенты принимают политические решения без вмешательства человека», — пишут авторы.
«Мы рассматриваем демократический ИИ как исследовательскую методологию для разработки потенциально полезных механизмов, а не как рецепт для внедрения ИИ в государственную сферу».
Результаты исследования представлены в журнале Nature Human Behaviour.
Оригинал earth-chronicles.ru