Технологические гиганты призывают приостановить эксперименты с ИИ, опасаясь «серьезных рисков для общества»

Миллиардер Илон Маск и ряд экспертов призвали сделать паузу в разработке мощных систем искусственного интеллекта (ИИ), чтобы дать время убедиться в их безопасности.

Открытое письмо, подписанное более чем 1 000 человек, включая Маска и соучредителя Apple Стива Возняка, было вызвано выпуском GPT-4 от компании OpenAI, поддерживаемой Microsoft.

Компания утверждает, что ее последняя модель намного мощнее предыдущей версии, которая использовалась для работы ChatGPT — бота, способного генерировать тексты по самым коротким подсказкам.

«Системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять глубокую опасность для общества и человечества», — говорится в открытом письме под названием «Приостановить проведение масштабных экспериментов с ИИ».

«Мощные системы ИИ должны разрабатываться только после того, как мы будем уверены, что их эффект будет положительным, а риски — управляемыми», — говорится в письме.

Маск был первоначальным инвестором OpenAI, провел несколько лет в совете директоров этой организации, а его автомобильная компания Tesla разрабатывает системы искусственного интеллекта для обеспечения работы своей технологии самостоятельного вождения, среди прочих приложений.

Письмо, опубликованное финансируемым Маском Институтом Future of Life, было подписано известными критиками, а также конкурентами OpenAI, такими как глава Stability AI Эмад Мостак.

Канадский пионер ИИ Йошуа Бенгио, также подписавший письмо, на виртуальной пресс-конференции в Монреале предупредил, что «общество не готово» к этому мощному инструменту и его возможному неправильному использованию.

«Давайте притормозим. Давайте убедимся, что мы разработали более надежные ограждения», — сказал он, призвав к тщательному международному обсуждению ИИ и его последствий, «как мы это сделали в отношении ядерной энергии и ядерного оружия».

В письме приводится цитата из блога основателя OpenAI Сэма Альтмана, который предположил, что «в какой-то момент может быть важно получить независимую экспертизу, прежде чем приступать к обучению перспективных систем».

«Мы согласны. Этот момент настал», — пишут авторы открытого письма.

«Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4».

Они призвали правительства вмешаться и наложить мораторий, если компании не смогут договориться.

Эти шесть месяцев должны быть использованы для разработки протоколов безопасности, систем управления ИИ и переориентации исследований на обеспечение большей безопасности, точности, «надежности и лояльности» систем ИИ.

В письме не было подробного описания опасностей, выявленных GPT-4.

Но исследователи, включая Гэри Маркуса из Нью-Йоркского университета, подписавшего письмо, уже давно утверждают, что чат-боты — отличные лжецы и могут стать суперраспространителями дезинформации.

Однако писатель Кори Доктороу сравнил индустрию ИИ со схемой «накачки и сброса», утверждая, что как потенциал, так и угроза систем ИИ были сильно преувеличены.

Оригинал earth-chronicles.ru

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *