Сверхинтеллектуальный ИИ: почему мы не сможем его контролировать

Идея, что искусственный интеллект может стать угрозой для человечества, обсуждается уже десятилетиями. Недавние разработки в этой области, такие как ChatGPT, только усилили опасения. Но насколько реальна эта угроза и сможем ли мы контролировать сверхинтеллектуальный ИИ?

Ученые провели расчеты и пришли к выводу, что почти наверняка мы не сможем контролировать высокоуровневый компьютерный сверхразум. Проблема заключается в том, что для управления таким ИИ потребуется создание симуляции, которую мы можем проанализировать. Но если мы не в состоянии понять эту симуляцию, то создать ее невозможно.

Такие правила, как «не причинять вреда людям», не могут быть установлены, если мы не понимаем, какие сценарии может предложить ИИ. Как только компьютерная система работает на уровне выше возможностей наших программистов, мы больше не можем устанавливать ограничения.

Эта проблема связана с проблемой остановки, сформулированной Аланом Тьюрингом в 1936 году. Проблема заключается в том, чтобы узнать, придет ли компьютерная программа к выводу и ответу или просто зациклится, пытаясь найти его. Хотя мы можем знать это для некоторых конкретных программ, логически невозможно найти способ, который позволил бы нам узнать это для каждой потенциальной программы, которая когда-либо могла быть написана.

Это возвращает нас к ИИ, который в сверхразумном состоянии мог бы одновременно удерживать в своей памяти все возможные компьютерные программы. Любая программа, написанная для того, чтобы остановить ИИ, причиняющий вред людям и разрушающий мир, может прийти к выводу (и остановиться) или нет — мы математически не можем быть абсолютно уверены в любом случае, а это означает, что ее невозможно сдержать.

Исследователи говорят, что альтернатива обучению ИИ некоторым этическим нормам и указанию ему не разрушать мир заключается в ограничении возможностей сверхразума. Например, он может быть отрезан от частей Интернета или определенных сетей. Однако исследование 2021 года отвергает эту идею, предполагая, что это ограничит возможности искусственного интеллекта.

Если мы собираемся продвигаться вперед с искусственным интеллектом, мы можем даже не знать, когда появится сверхразум, неподвластный нашему контролю. Это означает, что нам нужно начать задавать серьезные вопросы о том, в каком направлении мы движемся.

Оригинал earth-chronicles.ru

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *