Передовые возможности искусственного интеллекта по обработке чисел означают, что системы ИИ способны выявлять болезни на ранней стадии, управлять химическими реакциями и объяснять некоторые тайны Вселенной. Но у этой невероятной и практически безграничной способности искусственного мозга есть и обратная сторона.
Новое исследование подчеркивает, как легко модели ИИ могут быть обучены как для злонамеренных, так и для благих целей, в частности, в данном случае для создания гипотетических агентов биооружия. Пробный запуск с существующим ИИ определил 40 000 таких химических веществ для биооружия всего за шесть часов.
Другими словами, хотя ИИ может быть невероятно мощным — и намного, намного быстрее человека — когда речь идет о поиске химических комбинаций и лекарственных соединений для улучшения нашего здоровья, эта же мощь может быть использована для создания потенциально очень опасных и смертоносных веществ.
«Мы потратили десятилетия на использование компьютеров и искусственного интеллекта для улучшения здоровья человека, а не для его ухудшения», — пишут исследователи в новом комментарии.
«Мы были наивны, думая о потенциальном злоупотреблении нашим ремеслом, так как нашей целью всегда было избежать молекулярных особенностей, которые могли бы помешать множеству различных классов белков, необходимых для жизни человека».
Команда провела испытание на международной конференции по безопасности, заставив систему ИИ под названием MegaSyn работать — не в своем обычном режиме работы, который заключается в обнаружении токсичности молекул, чтобы избежать их, а наоборот.
В ходе эксперимента токсичные молекулы были сохранены, а не уничтожены. Более того, модель также была обучена собирать эти молекулы в комбинации — именно так за короткое время было создано столько гипотетического биооружия.
В частности, исследователи обучили ИИ молекулам из баз данных лекарственных препаратов, указав, что они хотели бы получить что-то похожее на сильнодействующее нервно-паралитическое вещество VX.
Как оказалось, многие из созданных соединений были еще более токсичными, чем VX. В результате авторы нового исследования держат в секрете некоторые детали своего исследования и серьезно обсуждают, стоит ли вообще обнародовать эти результаты.
«Инвертируя использование наших моделей машинного обучения, мы превратили нашу безобидную генеративную модель из полезного инструмента медицины в генератор вероятных смертельных молекул», — объясняют исследователи.
В интервью The Verge Фабио Урбина — ведущий автор новой работы и старший научный сотрудник Collaborations Pharmaceuticals, где проводилось исследование, — объяснил, что не так уж много нужно, чтобы «переключить рубильник» с хорошего ИИ на плохой.
Хотя ни одно из перечисленных видов биооружия не было действительно исследовано или создано в лаборатории, исследователи говорят, что их эксперимент служит предупреждением об опасностях искусственного интеллекта — и это предупреждение, к которому человечеству стоит прислушаться.
Хотя для того, чтобы сделать то, что сделала команда, требуется определенный опыт, большая часть процесса относительно проста и использует общедоступные инструменты.
Сейчас исследователи призывают «по-новому взглянуть» на то, как системы искусственного интеллекта могут потенциально использоваться в злонамеренных целях. По их словам, большая осведомленность, более строгие рекомендации и более жесткое регулирование в исследовательском сообществе могли бы помочь нам избежать опасностей, к которым могут привести эти возможности ИИ.
«Таким образом, наше доказательство концепции подчеркивает, что нечеловеческий автономный создатель смертоносного химического оружия вполне осуществим», — объясняют исследователи.
«Не будучи чрезмерно тревожным, это должно послужить тревожным сигналом для наших коллег в сообществе «ИИ в поиске лекарств».
Исследование было опубликовано в журнале Nature Machine Intelligence.
Оригинал earth-chronicles.ru