Конец света по Маску: названы три угрозы для человечества

Spread the love

Глава SpaceX и Tesla Илон Маск в интервью главе медиагруппы Axel Springer Матиасу Дёпфнеру рассказал о том, чего больше всего боится — миллиардер перечислил три угрозы, которые могут уничтожить человечество. Российский футуролог специально для «Газеты.Ru» оценил эти угрозы и высказал свои собственные опасения по поводу будущего нашей цивилизации.

Опасения Маска

«Я провел много времени, говоря о снижении рождаемости. Возможно, это самая большая угроза будущему человеческой цивилизации», — уверен бизнесмен Илон Маск. Об этом он заявил в недавнем интервью гендиректору Axel Springer Матиасу Дёпфнеру.

Маск регулярно рассуждает о том, что разговоры о перенаселенности Земли ничем не обоснованы, и на самом деле людям стоит думать о рождении детей для сохранения цивилизации.

«Это беспокоит меня уже много лет, потому что я просто не вижу никаких изменений к лучшему. С каждым годом все хуже. И я свожу с ума своих друзей этими переживаниями», — добавил миллиардер.

Кроме того, Маск опасается, что в ближайшем будущем искусственный интеллект выйдет из-под контроля.

«У меня есть опасения, что искусственный интеллект будет развиваться не плану», — предупредил предприниматель.

Глава SpaceX гораздо пессимистичнее относится к ИИ по сравнению с другими технобизнесменами. Из-за опасений в невозможности человечества контролировать мощь искусственного интеллекта Маск создал OpenAI — компанию, которая проводит собственные открытые разработки, чтобы ИИ не застал человечество врасплох.

Предприниматель рассматривает стартап Neuralink и его разработки также в контексте победы над ИИ — путем установки чипа в головной мозг. Для начала чип заменит смартфон, а потом и вовсе позволит человеку соединиться с искусственным интеллектом.

По замыслу Маска, человечеству необходимо реализовать как минимум эти две технологии, чтобы мирно сосуществовать с ИИ.

Третьим страхом миллиардер назвал религиозный экстремизм. По словам Маска, приверженность крайне радикальным и фундаменталистским взглядам на толкование вероучения угрожает развитию науки.

Бизнесмен отметил, что увеличение числа сторонников таких религиозных течений может привести к проблемам как для самих стран, так и для их научного прогресса.

«Я думаю, что религиозный экстремизм — это еще одна экзистенциальная угроза для человечества», — заверил он.

Маск прямо не указал, о каких странах и религиозных течениях идет речь. В прошлом предприниматель, наоборот, говорил о том, что ему близки христианские ценности.

«Я согласен с принципами, которые отстаивал Иисус. В учениях Иисуса есть великая мудрость, и я согласен с этими учениями», — говорил он в интервью сатирическому сайту The Babylon Bee.

В чем-то прав

Координатор российской Ассоциации футурологов Константин Фрумкин в беседе с «Газетой.Ru» согласился, что страх снижения рождаемости — самая безусловная угроза, стоящая перед человечеством в обозримом будущем.

«Это само по себе еще не проблема, ведь нужно, чтобы человечеству хватило ресурсов для всех. Но возникает вопрос о том, какая часть человечества будет трудоспособна, а какая — жить на иждивении остальных», — отметил он.

По мнению специалиста, пока невозможно определить, как из-за старения людей будет меняться продление трудоспособного возраста и будет ли расти производительность труда.

«А ведь все это имеет значение для того, будет ли человечество становиться беднее или богаче. Решаться это должно развитием технологий и биотехнологий», — добавил Фрумкин.

Футуролог заметил, что мощный искусственный интеллект в настоящее время сложнее считать реальной угрозой. «Пока проблема существует только в научной фантастике. Все текущие системы ИИ — довольно простые штуки, работающие исключительно в рамках, заданных людьми», — сообщил эксперт.

По его словам, это абстрактная угроза, которая может стать реальной. «Но еще нет никаких реальных кейсов и понимания того, кто именно может создать разработку, которая приведет к такому развитию событий», — констатировал спикер.

Фрумкин также заявил, что считает религиозный экстремизм угрозой настоящего. «Его масштабы и опасность и сейчас хорошо видна — в том числе на примере текущей политической ситуации в Иране и Афганистане», — заметил он.

По словам футуролога, пока религиозный экстремизм практически полностью ограничен исламскими странами. «Религиозный экстремизм есть в Индии, но незначительно, не представляет опасности для политической системы страны», — добавил специалист.

Также Фрумкин назвал еще две опасности, которые, по его мнению, угрожают человечеству. Футуролог считает, что куда важнее в ближайшем будущем решить климатическую проблему и исчерпание энергоресурсов, чем выходящий из-под контроля ИИ или религиозный экстремизм.

Он отметил, что сложнее всего будет с поиском тех ресурсов, которые нельзя заменить на возобновляемые источники энергии. Специалист заключил, что для решения этой проблемы ведутся разработки с целью добычи полезных ископаемых на астероидах.

Илон Маск поделился с подписчиками в Twitter, через сколько лет, по его мнению, на Марсе появится город.

Помимо прочего глава SpaceX признался, что компания намерена увеличить производство ракетных двигателей Raptor, необходимых для корабля многоразового использования. Напомним, что последние как раз предназначены для транспортировки людей на Марс.

Один из пользователей решил уточнить у Маска, в какому количеству произведенных двигателей Raptor стремится компания, получив в ответ “От 800 до 1000”.

“Примерно столько нужно, чтобы за 10 лет создать флот, необходимый для постройки самодостаточного города на Марсе. Самому городу, вероятно, понадобится около 20 лет, поэтому мы надеемся, что он будет построен примерно к 2050 году”, — поделился глава SpaceX.

Своими мыслями он поделился в подкасте Лекса Фридмана — американского учёного русского происхождения Алексея Федотова. По словам Маска, в нынешних условиях для отправки колонистов на Марс необходим $1 трлн. Это объясняется тем, что людям необходима не только ракета, но и медицинское оборудование, средства коммуникации и другое.

Также Маск отметил, что хочет построить на Марсе самоокупаемые города с подземными гидропонными фермами, в которых будут созданы необходимые условия для бесперебойного выращивания сельскохозяйственных культур и обеспечения пищей колонистов. Работать фермы будут на солнечной энергии.

«Мы не можем колонизировать Марс, потому что пока это слишком дорого. На текущий момент отправка людей на Марс сегодня будет стоить $1 трлн. Дело в том, что одной ракеты недостаточно, людям необходимо медицинское оборудование, средства коммуникации», — отметил Маск.

Восстание армады роботов, вышедших из-под контроля, суперкомпьютер, который решил взять на себя ответственность за человечество, — типичный сюжет множества фантастических фильмов. Такого развития событий, но уже в реальном будущем, пытаются избежать страны по всему миру. Для этого власти и технологические компании принимают кодексы и законопроекты, которые подстилают соломку в сфере искусственного интеллекта. Эти документы регулируют этику ИИ, пытаются нивелировать вред, который умные машины потенциально могут нанести человечеству.

«Секрет фирмы» поговорил с разработчиками ИИ и специалистами по кибербезопасности о том, может ли в будущем появиться «Матрица» — реальность, которой будут управлять вышедшие из-под контроля роботы — и какие угрозы несут современные разработки в области искусственного интеллекта.

Законы робототехники XXI века

Страны по всему миру принимают законы и кодексы, регулирующие сферу ИИ. В России подобный документ подписали) в конце октября 2021 года. Его разработали крупнейшие технологические компании («Яндекс», VK, «Ростелеком» и др.) вместе с правительством.

В документе говорится, что человек, его права и свободы при развитии ИИ должны оставаться самой большой ценностью. Технологии не могут использоваться для причинения вреда людям, имуществу или окружающей среде. Ответственность за возможный ущерб несёт разработчик, а не машина. Представители бизнес-сообщества, науки и госорганов будут разрабатывать методические рекомендации и выбирать лучшие и худшие практики решения возникающих этических вопросов в жизненном цикле искусственного интеллекта.

Как рассказал «Секрету фирмы» гендиректор некоммерческой организации «ПравоРоботов» Никита Куликов, российская вариация этического кодекса явно имеет заимствования из европейского законодательства. На уровне Евросоюза такой документ приняли в 2019 году. Европейская комиссия разработала семь требований к роботам. Прежде всего европейцев беспокоила возможность контроля роботов со стороны человека.

Также в ЕС призвали аккуратнее относиться к конфиденциальности данных. Не забыли даже про экологическую ответственность роботов — зелёная тема в Европе сейчас в тренде.

По словам Куликова, этический кодекс ЕС сегодня считается самым продвинутым правовым актом в этой области. «У европейцев здесь есть некоторое первенство, разработчики всех аналогичных документов из других стран оглядывались именно на кодекс ЕС», — объяснил эксперт.

Другие части света тоже не отстают. Минобороны США в 2020 году пошло по пятам европейцев, разработав и одобрив похожие этические нормы. С одним небольшим нюансом: они касались использования роботов на войне. В них входят пять принципов.

  • Ответственность разработчика за создание и применения такого оружия.
  • Беспристрастность — разработчики будут стараться снизить «неумышленную предвзятость роботов». Имеется в виду, что машины не должны принимать решения за пределами своей зоны ответственности.
  • Управляемость — финальное решение всегда должны принимать люди, а не роботы.
  • Надёжность — решения в области ИИ будут постоянно испытываться, они должны быть полностью безопасными для человека.
  • Подчиняемость — роботы должны не выходить из-под контроля людей.

Кодекс этических принципов для роботов в 2021 году представил и Китай. В нём особое внимание уделяется контролю человека над робототехникой. В документе говорится, что роботы должны повышать благосостояние людей, их нельзя использовать в криминале. Кроме того, подчеркивается, что роботы не должны вмешиваться в частную жизнь.

Матрица из будущего

Все принятые этические кодексы исходят из того, что ИИ способен нести угрозы человеку. Именно для их предотвращения эти документы и разрабатывались.

Философы и футурологи на протяжении не одного десятка лет ставили эту проблему в центре своих хитросплетённых теорий. Угрозы от роботов рисовались с каждым десятилетием всё более и более фантастическими. Роботов часто изображали враждебными захватчиками, способными поработить мир.

Сегодня такие сценарии уже не кажутся совсем нереальными. Поэтому учёные и разработчики сфокусировались на проработке конкретных сценариев возможных угроз от искусственного интеллекта и на том, как их можно избежать. Например, не повысят ли беспилотные автомобили в будущем число аварий? Или не превратятся ли дипфейки в оружие массового поражения в руках мошенников?

Гендиректор IT-компании «Наносемантика» Станислав Ашманов выделяет три угрозы, связанные с развитием искусственного интеллекта.

«Первая — это нарушение приватности, вызванное автоматическим анализом большого объёма данных — транзакций, переписки, распознавания лиц по видео и т. д. Вторая угроза — замещение роботами людей на рабочих местах. В первую очередь, это касается представителей массовых профессий — кассиров, сотрудников колл-центров, водителей. Этот процесс уже начался. И наконец, третья угроза, которая беспокоит людей, — появление разумных машин, способных поработить человечество. Такие машины получат контроль над системами вооружения, что приведёт к уничтожению человечества как вида. Мне кажется это больше фантазией, хотя сегодня мы уже видим, как искусственный интеллект управляет некоторыми видами оружия — например, беспилотниками, уничтожающими цели на земле», — рассказал эксперт «Секрету фирмы».

По его словам, также негативные сценарии могут быть связаны с развитием нейросетей.

Иногда нейросети уже сегодня выходят из-под контроля. Так, голосовой помощник Олег из Тинькофф-банка в 2019 году предложил клиентке отрезать пальцы. Женщина написала чат-боту, что система входа по отпечатку пальца в приложение не работает, — и получила такой неожиданный ответ.

«Также нейросети могут ошибаться при принятии решения о выдаче кредитов. Например, на заявку о получении кредита в одном из банков за 60 секунд можно получить необоснованный автоматический отказ, с объяснением: “Искусственный интеллект принял такое решение на основе больших данных”», — отметил Ашманов.

Кроме того, эксперт обратил внимание и на угрозы от дипфейков.

«Голос человека и изображение и раньше можно было синтезировать, но это было дорого и долго, делалось под заказ на голливудских студиях. Сейчас же эта технология стала массовой, дешёвой, доступной. Это опасно, так как мошенники могут начать использовать её, создавая фейковые ролики с участием человека. Они могут оказывать давление на жертву, пытаться с помощью них обойти защиту банков, обманывать людей с помощью социальной инженерии», — заключил эксперт.

Большую угрозу несёт и возможность взлома робота, считает эксперт по информационной безопасности компании Cisco Systems Алексей Лукацкий.

«Против систем искусственного интеллекта хакеры используют не такие методы атак, как против серверов компаний. Последние можно просто положить. Серверы, связанные с ИИ, тоже можно, но с ними часто делают и более нестандартные вещи. Например, совершают атаки на модели обучения. Это приводит к тому, что искусственный интеллект начинает принимать неверные решения на тех же самых исходных данных, что и раньше. Можно, наоборот, подменять данные или подмешивать в них фальшивые — искусственный интеллект будет тогда делать некорректные выводы», — объяснил эксперт.

Он добавил, что также хакеры способны совершать атаку на саму инфраструктуру, обеспечивающую работу ИИ. Это можно делать, например, с помощью шифровальщиков. Ещё одна мишень для хакеров — автопилоты, например, беспилотных машин. Если для них перекрывать какие-то элементы знаков, то они будут принимать неверные решения.

В будущем проблема хакерских атак на искусственный интеллект войдёт в тройку-пятёрку самых серьёзных проблем компьютерного мира, утверждает Лукацкий.

«Однако сегодня она так остро не стоит. Хакерских группировок, специализирующихся на взломе искусственного интеллекта, пока нет. Правда, группировки, использующие ИИ в своей работе, уже появились. Они применяют его для рассылок фишинговых сообщений или создания фальшивых сайтов и дипфейков», — заключил эксперт.

Никита Куликов добавил, что прежде чем бояться выхода роботов из-под контроля, надо понимать, из-под какого конкретно контроля они выйдут.

«Если робота используют в медицине, обучают его на результатах анализов, снимках, где есть болезнь, он может точно научиться определять больных. Когда робот почти перестанет совершать ошибки, то контроль человека за ним может и не понадобиться. И вот именно тогда и возникнет действительно сильный риск того, что ошибка будет допущена, а исправить её будет уже некому», — отметил эксперт.

Второй случай — робот будет использоваться как третье мнение. Люди будут с ним только советоваться, он станет дополнением. Тогда рисков для человечества нет, робот просто станет помощником, заключил Куликов.

Разрушительные дипфейки, управляемые бандитами роботы или сверхумные электронные ассистенты врачей и чат-боты с математическими суперспособностями — каким будет искусственный интеллект в будущем, не знает никто. Однако уже сегодня ясно, что контролировать данные технологии стоит. А вот робоэтика станет нужна, когда технологии будут уж сформированы, а угрозы станут частью реальности.

Пока же все попытки регулировать эту сферу напоминают обряд — попытку человечества произнести магические слова, с надеждой, что они будут где-то услышаны.

Численность населения нашей планеты достигла 7,8 млрд человек, сообщил на днях немецкий фонд «Население Земли» (DSW). Однако, по данным фонда, за последние 30 лет рост мирового народонаселения снизился примерно на треть. Увеличивается численность только в африканских странах к югу от Сахары.

Численность населения во многих странах сократилась. Об этом свидетельствует новый отчет, опубликованный DSW. Причина сокращения — резкое падение рождаемости: среднее число детей у одной женщины неуклонно снижается. Если этот показатель падает ниже 2,1, население начинает сокращаться. По заявлению фонда, в 1990 году этот показатель снизился с 3,2 ребенка на каждую женщину, сегодня в среднем по миру — 2,3 ребенка.

Единственным регионом мира, где население не только не сокращается, но имеет самый высокий в мире уровень рождаемости, является Африка к югу от Сахары. По данным DSW, в этом регионе на каждую женщину приходится 4,7 ребенка, в то время как в странах с высоким уровнем дохода — в среднем 1,8.

По словам экспертов, проблема заключается в том, что в этих странах отсутствуют современные противозачаточные средства и наблюдается большое количество нежелательных беременностей в подростковом возрасте.

«Из-за ранней беременности тысячи девочек ежегодно попадают в спираль бедности», — сказал Ян Кройцберг, руководитель DSW.

В африканских странах к югу от Сахары 16% родов приходятся на девочек-подростков. По словам Кройцберга, доступа к противозачаточным средствам лишена каждая вторая женщина — около половины всех женщин, кто хотел бы избежать нежелательной беременности.

Инфекционные заболевания, климатические проблемы, политизация природных ресурсов и усиление цифрового неравенства стали угрозами для человечества на ближайшие 10 лет. Об этом сообщили авторы доклада о восприятии населением рисков «Глобальные риски — 2022», подготовленного швейцарским Всемирным экономическим форумом (ВЭФ). Также участники опроса среди угроз называли нарастающее недовольство молодёжи и экономическое неравенство.

Касательно ближайшего будущего большинство опрошенных пугает угроза распространения инфекционных заболеваний, в том числе COVID-19, недостаток денег и усиление цифрового неравенства.

«Прогрессу в области цифровой инклюзивности угрожает растущая цифровая зависимость, быстро ускоряющаяся автоматизация, подавление и манипулирование информацией», — говорится в исследовании.

В ближайшие 3–5 лет человечеству угрожают, по мнению респондентов, экономические риски, нестабильность цен, долговые кризисы и политизация природных ресурсов. Среди рисков на ближайшие годы респонденты также назвали возможные конфликты между государствами и риск «разочарования молодёжи».

Молодое поколение прошло через последствия финансового кризиса, подвергается социальному неравенству и сталкивается с серьёзными проблемами в области образования, экономических перспектив и психического здоровья, говорится в докладе.

Однако относительно ближайших 10 лет опрошенных больше всего беспокоят изменения климата, в том числе:

  • потеря биоразнообразия;
  • кризисы природных ресурсов;
  • неудачи в борьбе с изменением климата;
  • экстремальные погодные условия.

Респонденты также указали на «долговые кризисы», «геоэкономические противоречия», распространение оружия массового поражения, крах государственности и крах международных отношений в качестве наиболее серьёзных рисков в течение следующих 10 лет.

Все вышеперечисленные проблемы могут подорвать социальную сплочённость и провоцировать геополитические риски, отметили авторы доклада.

Отмечается также, что среди опрошенных только 16% позитивно и оптимистично оценивают перспективы развития стран и только 11% считают, что восстановление мировой экономики ускорится. Большинство респондентов вместо этого ожидают, что следующие 3 года будут характеризоваться резкими изменениями в мире, которые разделят общество на победителей и проигравших. 

Оригинал earth-chronicles.ru


Spread the love

Добавить комментарий