После того, как автономный автомобиль сбил насмерть пешехода в Аризоне в прошлом году, семья женщины судится с городом за халатность. Между тем, когнитивные и компьютерные ученые обсуждают, должны ли самоходные транспортные средства нести ответственность за свои собственные действия и нарушения.
Соавтор исследования Йоханан Бигман является экспертом в области социальной и моральной психологии в Университете Северной Каролины в Чапел-Хилле .
” Мы на грани технологической и социальной революции, в которой автономные машины заменят людей на рабочем месте, на дорогах и в наших домах«, — сказал Бигман.
«Когда эти роботы неизбежно делают что-то, чтобы навредить людям, как люди будут реагировать? Мы должны это выяснить сейчас, пока еще формируются нормативные акты и законы”.
Исследователи полагают, что предполагаемая компетентность некоторых машин, включая способность действовать независимо от человека, может сделать людей более склонными к тому, чтобы делать их морально ответственными за свои собственные действия.
Помимо автономии, само появление робота влияет на моральное суждение. Например, человекообразный робот, скорее всего, будет восприниматься как обладающий человеческим умом. Реалистичные роботы, как ожидается, также имеют понимание своего окружения, и, как полагают, имеют свободу действовать с намерением.
Эти вопросы имеют важные последствия для людей и компаний, которые разрабатывают и эксплуатируют автономные машины. Авторы исследования утверждают, что могут быть случаи, когда роботы выступают в качестве козла отпущения для тех, кто отвечает за их Программирование.
Автономные технологии продолжают развиваться, и вопрос о том, должны ли права роботов быть юридически защищены, уже решен. Эксперты отметили, что американское общество по предотвращению жестокости к роботам и доклад Европейского союза 2017 года заложили основу для расширения некоторых моральных стандартов по отношению к машинам.
«Мы предполагаем, что сейчас – в то время как роботы и наши намерения в отношении них все еще находятся в движении-лучшее время для систематического изучения вопросов морали роботов”, — писали авторы исследования.
«Понимая, как человеческие умы понимают мораль, и как мы воспринимаем разум машин, мы можем помочь обществу более четко думать о предстоящем подъеме роботов и помочь роботизированным разработчикам понять, как их творения должны восприниматься сообществом людей”.
Исследование опубликовано в журнале «Trends in Cognitive Sciences».
ПС:
Кто бы мог подумать, что мы доживем до того времени, когда подобные серьезные вопросы связанные с робототехникой будут не предметом сюжетов фантастических романов и книг, а нашим настоящим.
Технологии шагнули так далеко, что вопрос о том, должен ли робот (ИИ) отвечать за совершенные вольно или невольно (а может быть и умышленное преступление) уже не кажется философским.
Но, кто должен понести наказание сам робот или его создатели? Казалось бы ответ очевидец, кто его создал, тот и должен нести ответственность, но если робот не просто робот, а машина наделенная искусственным интеллектом и которая сама принимает решения, что в таком случае делать?
И как в таком случае наказывать ИИ? Просто стереть программу? А если она к тому времени дублирует себя во множестве своих цифровых копий? Похоже на то, что сюжет фантастического фильма «Матрица», так же скоро вполне может стать реальностью…
Оригинал earth-chronicles.ru