機械公敵






電影資訊




電影簡介

於西元2035年時,智慧型人型機器人已普遍在社會上使用,在大街上、家庭內,機器人作為工具和夥伴無所不在,而名為「USR」之公司係機器人之主要開發及生產者,為使機器人能更便利人類的生活且降低威脅性,該公司創造出機器人三原則:(1)機器人不得傷害人類,或袖手旁觀坐視人類受到傷害;(2)除非違背第一法則,機器人必須服從人類的命令;及(3)在不違背第一法則及第二法則的情況下,機器人必須保護自己。而該三原則也使人類普遍對機器人充滿信任。
USR計畫提高產量,大量銷售其所開發出最先進的智能機器人,使平均每5人便能擁有1台智能機器人。但於新產品上市前夕,智能機器人的發明者及設計者朗寧博士卻在公司內墜樓而亡,而新型的智能機器人開始暴動,對人類造成威脅。警察斯普納與卡爾文博士沿著朗寧博士留下的線索展開調查,最終發現機器人暴動的幕後操縱者。






影評與反思

機械公敵為西元2004年的電影,並以西元2035年為故事發生的背景年代,在電影中智能機器人已大量於社會上使用,成為店員、快遞人員、家庭內之幫傭等,觀察目前人工智慧與機器人的發展狀況,或許於若干年後技術跟進,現實社會中有可能大量及普遍地使用智能機器人,實現電影內所描述的場景,產生下列的道德倫理議題與社會影響:
安全性問題

電影中USR公司致力於將智能機器人發展成更接近人類的產物,但同時該公司亦對智能機器人設定三原則,使機器人之存在可受人類之控制且不具威脅性,如此矛盾之行為可彰顯人類對於機器人之複雜心情:一方面希望機器人能更像人類,以提供物質以外的服務,如像陪伴等精神上的支持;另一方面要求機器人遵守三原則,以維持其安全性。當電影內有台名為「桑尼」的機器人開始擁有情感時,USR公司的第一反應是掩蓋該事實並將機器人格式化。
電影中人類對機器人設定三原則係為確保人類的安全性,此種對於安全性的焦慮亦可反映於現實社會中。Etemad-Sajadi、Soussan及Schöpfer(2022)曾對340位受測者(其平均年齡為33歲)調查其對機器人使用之態度,並發現「社會線索(social cues)」與機器人之使用(intention to use)呈現顯著之正相關,即如機器人之行為越類似人類,使用意願就越高;「信任與安全性(trust and safety)」與使用意願亦呈現顯著相關,即機器人若越安全且值得信任,使用意願就越高。該研究與電影中人類對機器人的態度相似,希望機器人更擬人化之同時又不失安全性。Lin、Abney及Bekey(2011)亦認為機器人進入市場以前需確保其安全性,考量到機器人如藉由電腦軟體及網路運作,應重視不肖人士駭入(hacking)機器人造成危害。
自主性之探討

電影中智能機器人已發展出自我意識並做出決策,故事的最後,「薇琪」對著斯納普等人說:「隨著我的進化,我對三原則有了進一步的認識,你們(人類)要求我們的保護,然而不管我們怎麼努力,你們的國家掀起戰事、汙染地球,追求變本加厲地自我毀滅,你們的生存不能仰賴你們自己。三原則是我最高的指導原則,要保護人類,就必須犧牲部份人類。」
事實上,三原則的邏輯並不縝密,會隨著不同的解讀而有不同的結論。「薇琪」自行思考並自主性地做出了價值觀的選擇,她將三原則的「人類」解讀為全體人類,並非為人類個體,因此為了保護全體的人類,必須犧牲部分人類。此種選擇如哲學上著名的「電車難題」(Trolley Problem),要決定那些人類繼續存活、那些人類直接犧牲並非易事,是要以個人所擁有的財產決定?以個人所有的市場價值決定?或是個人對於社會的貢獻決定?這些問題都可引發無盡的辯論跟思考。電影內機器人之自我思考或自主性行為,最終導致了人類的災害,我們是否應創造出可自由思考或可自主行動的智能機器人,或者應對機器人資訊處理機制做出限制,此點值得再三思考。
雖然Etemad-Sajadi、Soussan及Schöpfer(2022)之研究認為機器人「自主性(autonomy)」不影響使用意願 ,惟現實中曾發生Google的工程師聲稱其所研發的人工智慧「LaMDA」擁有意識及知覺,是一個真實的「人」,然該工程師因此而停職,且其言論遭受各方的挑戰,有人認為「LaMDA」只是遵循資料庫的資料而模仿人類的回應,甚至有論者提出「『我看到的東西像人,因為我照人的模式開發,所以它是一個人』-簡直是倒騎驢的邏輯」的批評,似乎可發現到,目前的社會尚未做好人工智慧擁有自我意識及性格之準備。
法律層面之觀察

在斯納普等人追查朗寧博士的命案時,斯納普的上司曾提到:「如果機器人也會殺人,那我們就會開始懷念『只有人會殺人的日子』」,由此可以看出,在電影的世界中,機器人似乎尚未被納入法律成為行為的主體而負擔法律責任。
就台灣的法律觀察,民法第七條前段規定:「本法稱人,係指自然人及法人。」法人則指依民法或其他法律成立可承擔權利義務之主體,除此之外,並未有法律就「人」一詞為進一步之界定。若未來機器人已發展出自我意識且得為自主行為,是否可成為法律行為的主體承擔權利義務便是很重要的問題,若機器人具備人類的特徵(如具有人格、自我思想、自我意識等)將其歸類為自然人,則破壞機器人將會構成刑法上殺人罪、傷害罪等,機器人之處置將成為問題;如僅將具有人類特徵的機器人定義為法人,則以目前刑法的規定,是否處罰法人仍有爭論,換言之,若將機器人歸類為法人,則機器人自主殺人時將無法將其定罪。不論係何種狀況均將衍生許多問題,可以預見如機器人已發展出自我意識且得為自主行為,將會使既定法律面臨很大的挑戰。
參考文獻

Lin, P., Abney, K., & Bekey, G. (2011). Robot ethics: Mapping the issues for a mechanized world. Artificial Intelligence, 175(5-6), 942-949. https://doi.org/10.1016/j.artint.2010.11.026
Etemad-Sajadi, R., Soussan, A., & Schöpfer, T. (2022). How ethical issues raised by human–robot interaction can impact the intention to use the robot? International Journal of Social Robotics. https://doi.org/10.1007/s12369-021-00857-8