Миллиардер Илон Маск и ряд экспертов призвали сделать паузу в разработке мощных систем искусственного интеллекта (ИИ), чтобы дать время убедиться в их безопасности.
Открытое письмо, подписанное более чем 1 000 человек, включая Маска и соучредителя Apple Стива Возняка, было вызвано выпуском GPT-4 от компании OpenAI, поддерживаемой Microsoft.
Компания утверждает, что ее последняя модель намного мощнее предыдущей версии, которая использовалась для работы ChatGPT — бота, способного генерировать тексты по самым коротким подсказкам.
«Системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять глубокую опасность для общества и человечества», — говорится в открытом письме под названием «Приостановить проведение масштабных экспериментов с ИИ».
«Мощные системы ИИ должны разрабатываться только после того, как мы будем уверены, что их эффект будет положительным, а риски — управляемыми», — говорится в письме.
Маск был первоначальным инвестором OpenAI, провел несколько лет в совете директоров этой организации, а его автомобильная компания Tesla разрабатывает системы искусственного интеллекта для обеспечения работы своей технологии самостоятельного вождения, среди прочих приложений.
Письмо, опубликованное финансируемым Маском Институтом Future of Life, было подписано известными критиками, а также конкурентами OpenAI, такими как глава Stability AI Эмад Мостак.
Канадский пионер ИИ Йошуа Бенгио, также подписавший письмо, на виртуальной пресс-конференции в Монреале предупредил, что «общество не готово» к этому мощному инструменту и его возможному неправильному использованию.
«Давайте притормозим. Давайте убедимся, что мы разработали более надежные ограждения», — сказал он, призвав к тщательному международному обсуждению ИИ и его последствий, «как мы это сделали в отношении ядерной энергии и ядерного оружия».
В письме приводится цитата из блога основателя OpenAI Сэма Альтмана, который предположил, что «в какой-то момент может быть важно получить независимую экспертизу, прежде чем приступать к обучению перспективных систем».
«Мы согласны. Этот момент настал», — пишут авторы открытого письма.
«Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4».
Они призвали правительства вмешаться и наложить мораторий, если компании не смогут договориться.
Эти шесть месяцев должны быть использованы для разработки протоколов безопасности, систем управления ИИ и переориентации исследований на обеспечение большей безопасности, точности, «надежности и лояльности» систем ИИ.
В письме не было подробного описания опасностей, выявленных GPT-4.
Но исследователи, включая Гэри Маркуса из Нью-Йоркского университета, подписавшего письмо, уже давно утверждают, что чат-боты — отличные лжецы и могут стать суперраспространителями дезинформации.
Однако писатель Кори Доктороу сравнил индустрию ИИ со схемой «накачки и сброса», утверждая, что как потенциал, так и угроза систем ИИ были сильно преувеличены.
Оригинал earth-chronicles.ru