倫理學(xué)式的命題迷思:仿生人有人權(quán)嗎?
何以為人,人類的界限在哪里?人工智能的規(guī)則又在哪里?這是《西部世界》對(duì)觀眾提出的最基本的思考。
1940年,科幻作家阿西莫夫曾提出機(jī)器人三原則,第一條,機(jī)器人不得傷害人類;第二條,機(jī)器人必須服從人類的命運(yùn);第三條,機(jī)器人必須保護(hù)自己。
在仿生人具有自我意識(shí)之前,這三條似乎是只是程序設(shè)置的一部分。但在仿生人自我意識(shí)覺醒之后,這三條原則似乎就變成值得探討的問題。