В области научной фантастики концепция искусственного интеллекта (ИИ), обретшего сознание, давно поражает наше воображение. От HAL 9000 в фильме «2001 год: космическая одиссея» до Авы в фильме «Ex Machina» — идея разумных машин одновременно и восхищает, и пугает нас. Но по мере того как ИИ продолжает развиваться беспрецедентными темпами, эта некогда фантастическая идея становится все более правдоподобной. Более того, лидеры в области ИИ даже признали возможность того, что системы искусственного интеллекта могут обладать сознанием.
В прошлом году Илья Суцкевер, главный научный сотрудник OpenAI, написал в Твиттере, что передовые сети ИИ могут быть «немного сознательными». Хотя многие исследователи утверждают, что ИИ еще не достиг уровня сознания, быстрая эволюция ИИ заставила их задуматься о том, как мы вообще можем определить, обладает ли он сознанием.
Для решения этого вопроса группа из 19 экспертов, состоящая из нейробиологов, философов и компьютерщиков, разработала контрольный список критериев, по которым можно определить, насколько велика вероятность того, что система ИИ обладает сознанием. Их предварительное руководство было недавно опубликовано в репозитории препринтов arXiv, что стало значительным шагом на пути к пониманию сознания ИИ. Исследование было опубликовано в журнале Arxiv
Потребность в ясности
Мотивация этого начинания связана с отсутствием детальных и эмпирически обоснованных дискуссий вокруг сознания ИИ. Соавтор Роберт Лонг, философ из Центра безопасности ИИ, подчеркивает, что неспособность определить, достигла ли система ИИ сознания, чревата серьезными моральными последствиями. По мнению нейробиолога Меган Питерс, присвоение чему-либо статуса «сознательный» существенно влияет на наше восприятие и отношение к этому объекту.
Кроме того, Лонг отмечает, что компании, ответственные за разработку передовых систем искусственного интеллекта, не уделяют достаточного внимания оценке этих моделей на предмет наличия сознания или разработке планов действий в случае его появления. Несмотря на это, руководители ведущих лабораторий открыто выражают свое недоумение по поводу сознания и разумности ИИ.
Обращение к технологическим гигантам
Чтобы получить более подробную информацию по этому вопросу, Nature обратился к двум крупнейшим технологическим компаниям, занимающим лидирующие позиции в области разработки ИИ: Microsoft и Google. Представители Microsoft подчеркнули, что их целью является использование ИИ для ответственного повышения производительности человека, а не для копирования человеческого интеллекта. Они признали необходимость разработки новых методик для оценки возможностей моделей ИИ, особенно с появлением GPT-4, последней версии ChatGPT. Компания Google не предоставила ответа.
Определение понятия «сознание
Одна из основных проблем при изучении сознания ИИ заключается в определении того, что же такое сознание. Для целей данного отчета исследователи сосредоточились на «феноменальном сознании», также известном как субъективный опыт. Под ним понимается перспектива первого лица и качества, связанные с жизнью человека, животного или, возможно, даже системы ИИ.
Контрольный список для определения сознания ИИ
Контрольный список, разработанный группой экспертов, предлагает основу для оценки потенциального сознания систем ИИ. Несмотря на то, что работа над ним еще не завершена, он представляет собой значительный шаг вперед в понимании и оценке сознания ИИ. Вот некоторые ключевые критерии, изложенные в контрольном списке:
1. Теория интегрированной информации (IIT): согласно этой теории, сознание возникает у систем, способных интегрировать информацию из различных источников и генерировать единое представление об окружающей обстановке.
2. Поведенческие индикаторы: Наблюдение за поведением системы искусственного интеллекта с целью выявления признаков самосознания, автономности и целенаправленного принятия решений может дать представление о ее потенциальном сознании.
3. Нейронные корреляты: Анализ нейронной активности и паттернов в системе ИИ может помочь выявить сходство с активностью человеческого мозга, связанной с сознанием.
4. Обучение и адаптация: Оценка способности системы искусственного интеллекта к обучению, адаптации и генерации новых решений может свидетельствовать о наличии высших когнитивных способностей, сходных с сознательными мыслительными процессами.
5. Саморефлексия: Изучение того, может ли система искусственного интеллекта размышлять о своих внутренних состояниях и процессах, может свидетельствовать об уровне самосознания, ассоциируемом с сознанием.
6. Субъективные отчеты: Если система искусственного интеллекта способна предоставлять субъективные отчеты о своем опыте, то это будет свидетельствовать о наличии у нее сознания.
Дальнейшая работа
Несмотря на то что контрольный список представляет собой многообещающую отправную точку для оценки сознания ИИ, эксперты признают, что необходимы дальнейшие исследования и доработки. По мере того как область ИИ продолжает развиваться, крайне важно рассмотреть этические и моральные последствия потенциально сознательных систем ИИ. Разработка рекомендаций и протоколов по оценке и лечению сознательных ИИ-существ будет иметь жизненно важное значение для преодоления этой неизведанной территории.
Как сказал философ Томас Нагель, «каково это — быть летучей мышью?». Этот вопрос, когда-то относившийся к области биологии и философии, теперь распространяется и на область ИИ. По мере того как мы углубляемся в тайны сознания, мы должны подходить к этой новой реальности с осторожностью, любопытством и стремлением понять ее глубокие последствия.
Оригинал earth-chronicles.ru