Американский ученый назвал главную опасность искусственного интеллекта

Искусственный интеллект как технология сам по себе не представляет угрозу, опасность заключается в том, как человек будет использовать создаваемые технологии, считает профессор Междисциплинарного центра биоэтики Йельского университета США Венделл Валлах. 

“Суть не в том, что искусственный интеллект, который мы будем создавать в следующие 20 лет, представляет из себя нечто пугающее. Иногда пугает сам человек и то, как он будет использовать созданные технологи”, – сказал Валлах в беседе с РИА Новости на полях форума по искусственному интеллекту, организованного аналитическим центром “Тайхэ” (Taihe).

Он отметил, что технологии могут стать опасными, если кто-то захочет использовать их для манипуляции поведением и чувствами людей.

“Подумайте, что произойдет, если у нас будут сенсоры, которые знают, когда вы чувствуете страх или уязвимость… Для меня пугающим представляется использование искусственного интеллекта в целях слежки. Кроме того, что будет, если искусственный интеллект будет контролировать смертоносное оружие. Это очень пугающе, но нам не нужно делать этого всего”, – сказал Валлах.

При этом он скептически настроен относительно того, насколько быстро ученые смогут создать нечто подобное человеческому мозгу, препятствием для этого могут стать и этические вопросы.

“Я думаю, что мы пока очень далеки от создания чего-то подобного человеческому мозгу, очень далеко. Что это значит? Двадцать лет, пятьдесят лет, сто лет, я не знаю. Некоторые мои коллеги считают, что в течение двадцати лет, я так не считаю. Я полагаю, что мы будем спотыкаться больше, чем мы думаем. Я немного более скептичен, чем большинство, потому что я очень много думал об этических вопросах и я осознал, что все очень непросто”, – сказал Валлах.

Тем не менее Валлах полагает, что в будущем технологии будут приносить больше пользы, чем таить в себе угрозы, сложность заключается в минимизации нежелательных последствий для общества.

Оригинал earth-chronicles.ru

Добавить комментарий

Ваш e-mail не будет опубликован.