Re: [問題] 機器人三大定律
※ 引述《AlanCloud (2011)》之銘言:
: ※ 引述《logs (龍劍飛)》之銘言:
: : 請問有誰知道,什麼是機器人三大定律?
: : 還有,這樣定義的好處是?以及為何要這樣定義?
: : 我已經在網路上查到了: http://ai.yichi.org/archives/000014.php
: : 1) 機器人不能傷害人類,或是眼見人類受到傷害而不予行動
: : 2) 機器人應該遵從人類的指令,除非指令與第一條定律相衝突
: : 3) 只要不違反第一和第二定律,機器人必須保護自身的存在
: : from: Isaac Asimov 的《I, Robot》
: : 這個問題,精華區好像沒有. 要不要來討論一下?
: : 似乎很有意思 (當然,這個大問題,早已被很多學者討論過)
: : 基本上,居於這樣的設計理念
: 我們上課的時候說過,
: Asimov創造這三個機器人定律是因為寫小說用的,
: 因為Asimov覺得當時利用機器人的題材大多是悲情的機器人或是暴亂的機器人,
: 所以他想出了這個機器人三大定律,
: 但是弔詭的是,
: 這三個定律看似合理但是卻又很奇怪,
: 假設今天有一個機器人看到甲想要殺掉乙,
: 他該怎麼辦?
: 攻擊甲?
: 可是定律一說了他不能傷害人類,
: 可是他又不能坐視人類受到傷害,
: 因此Asimov就利用這有趣的三大定律寫出了很多膾炙人口的科幻小說。
的確就是這樣,在艾西莫夫所寫的小說中,
早期的機器人是很容易因為某些原因"當機"(或稱心智凝結)的,
也就是當碰到了無論哪個選擇都會無可避免地傷害到人類的時候,
代表兩個選擇的正電子電位分不出高低,做不出決定,
這個機器就會卡在那裡無法進行下一步動作。
也就是等於這個機器人已經死了.....
不過在後期的機器人程式中,程式設計者開始對這樣的問題作文章,
使正電子腦可以儘量地分辨不同傷害情形的差別,
甚至在程式真的無法分辨的時候以亂數決定行動,避免機器人心智凝結.....
另外,三大定律的優先性雖然是1>2>3,但是事實上小說中說第二與第三定律間的
優先性其實很模糊,這也使得早期的機器人學家花了很多工夫.....
--
大地に平和を 空に希望を
そして 人心に寬容を
--
※ 發信站: 批踢踢實業坊(ptt.csie.ntu.edu.tw)
◆ From: 218.166.108.110
討論串 (同標題文章)
TheMatrix 近期熱門文章
PTT影音娛樂區 即時熱門文章