?

Log in

No account? Create an account

Previous Entry | Next Entry

Хороший робот

robo-devil
Статья начиналась словами: можем ли мы научить робота быть хорошим? Меня сразу потянуло на философские рассуждения: как мы можем робота научить быть хорошим, если сами толком не знаем что это значит… Но, активировав научную, а не философскую часть мозга, я продолжила чтение статьи про весьма любопытный эксперимент.


Ученые предложили роботу простой этический выбор. Сначала его обучили не давать человеку падать в яму при ходьбе (такое своеобразное упрощение 1ого правила Айзека Азимов – предотвращать причинение вреда человеку :-) ). С этой задачей он справлялся на ура. Далее эксперимент усложнили: теперь уже было два человека, которые могли попасть в яму
одновременно, следовательно, роботу нужно было принять этическое решение и выбрать, кого спасать. Несколько раз он спасал одного, пару раз даже удалось спасти обоих, но в 14 случаях из 33, робот тратил время на выбор и в итоге не мог спасти ни одного… Стоит оговориться, что в качестве людей использовались манекены, так что ни о каких серьезных последствиях речь не шла.

И как всегда попытка сделать лучше, привела к худшему результату J. По-моему, очень человеческое поведение. Я себя неоднократно ловила на мысли, что трачу много драгоценного времени при попытке выбрать, и чем больше стресс, тем сложнее выбрать, даже такие важные вещи как «кому помочь»? Может быть, в этот момент стоит забыть об интеллекте и подчиниться инстинктам… Право, я не даже не знаю.

Ученые назвали свое творение «этическим зомби»: у робота нет выбора, он действует по программе. К сожалению, он не знает какие этические проблемы лежат за его программой, поэтому, когда программа сбивается, он не знает что делать. Теоретически, по мнение ученых, он должен был спасти хотя бы одного. Вот в этом пункте, я посмею не согласится с учеными: сколько раз я наблюдала, что люди, не имея способности спасти всех, полностью бросают благородное начинание.

Ведь не зря есть притча о мальчике и морских звездах:

«После шторма человек шел по берегу моря, где было много выброшенных морских звезд и увидел мальчика, который поднимал их и возвращал в море. Человек удивился и сказал мальчику: «Посмотри, сколько их на берегу, ты не сможешь их спасти, твой труд бесполезен». На что мальчик, подняв очередную звезду ответил: «Я не могу изменить этот мир, но я могу изменить мир вот этой конкретной морской звезды» - и опустил ее в воду». Так кто после этого «этические зомби», может быть не только роботы, но и мы…?

Comments

( 4 comments — Leave a comment )
knight_agilulf
Sep. 16th, 2014 06:34 pm (UTC)
Сложная проблема. В принципе, не имея возможности спасти обоих, робот - если бы это позволяли его технические возможности - мог бы попытаться рассчитать вероятность спасения каждого (либо, как более мрачный вариант, сделать выбор на основе "усреднённой полезности" или ожидаемой продолжительности жизни). В любом случае, мы вряд ли одобрили бы выбор, сделанный на основе холодного расчёта.
Почему-то людям обычно более человеческим кажется не принять жестокое решение, а, стоя в нерешительности, полностью упустить шансы на спасение.
sunely_tales
Sep. 17th, 2014 06:14 am (UTC)
Вспомнилось, что именно такая дилема лежала в основе личной трагедии главного героя Уилла Смита в фильме iRobot - после аварии робот спас его, а не девочку, потому что у неё было меньше шансов на выживание.

Может быть ответ на подобные вопросы находится в понимании того, что именно лежит в основе этического выбора. В разные времена и в разных культурах этот выбор будет различаться. Хотя стоять и ничего не делать - это выбор большинства вне зависимости от чего либо.

Мне кажется, что интереснее другое - робот запрограммирован не только защищать людей, но делать это единственным образом, т.е. он дважды ограничен. Человек мог бы прийти к неожиданному решению, которое могло бы спасти обоих... или объяснить, почему этого делать не надо :)
knight_agilulf
Sep. 18th, 2014 06:16 pm (UTC)
Совсем забыл про этот эпизод из фильма... а ведь смотрел его)!
sunely_tales
Sep. 19th, 2014 06:24 am (UTC)
Меня всегда удивляло, почему главный герой сделал такой сильный ментальный перенос с той ситуации на всех остальных роботов?
( 4 comments — Leave a comment )

Profile

sunely_tales
sunely_tales

Latest Month

April 2016
S M T W T F S
     12
3456789
10111213141516
17181920212223
24252627282930

Tags

Powered by LiveJournal.com
Designed by yoksel