如果未來的人工智能系統擁有與人類價值觀不一致的價值觀,那麼惡意機器人也可能會成為現實。如何避免人工智能帶來的危害,也應先納入規範以防患未然,好避免悲劇發生時措手不及!(圖/取自網路)
作者/李貴敏
在亞馬遜的倉庫裡,人工智能機器人忙著輸送消費者訂購的物品到傳送帶上,接著按「揀貨速率」的規劃,把傳送帶上的物品送到附有時間條碼的紙箱裡包裝並運送,以便在約定的時間內,送到訂購者的手中。
回溯幾十年前人工操作的畫面,如果去問工人們的感受,十有八九會抱怨腰酸背痛,累到說不話來。但值此人工智能時代,智能機器人非但不會累,還很清楚輸送帶上的貨物是否快沒了?什麼時候該補貨了?面對著永不勞累的機器人一再的將新物品補充到輸送帶上,再怎麼身強體健的工人也比不上能承受持續性高強度工作量的機器人。
隨著時代的進步,智能機器人的引進,巳從泰勒先生(Frederick W. Taylor)的科學管理(Scientific management)和亨利福特(Henry Ford)的運用在Model T汽車量產及裝配生產,再次進化並在生產模式展嶄露頭角。過往工廠流水線的生產模式,藉由單一的動作來提升工作效率,總被批評是把人類當機器;而人機合作的生產方式,也仍被批評把人類當機器。無論如何,人類的體能極限無法與機器比擬,單一化的人機合作操作模式,也絕不是我們期待的人工智能。
尤其,為了發展人工智能的儲能設備及高性能電腦,地球的資源被大規模的耗費,環境也被嚴重的污染。據說中國大陸包頭的人工湖,因開採稀土致使湖水充滿有毒的黑泥,散發出硫磺惡臭;印尼蘇門答臘的錫礦也在沒有任何保護措施下,由工人冒險開採。
至於,去中心化等虛擬貨幣的驗算、人臉辨識、Deepfake設計、機器深度學習等資料運算及儲存更需要耗費大量電力與的資源。人類希望地球不要暖化並力求節能減碳,但另一方面卻又全力發展耗電的產業及人工智能機器,真是令人費解。
另外,上次美國總統大選時,曾有川普宣布啟動核戰爭的影片引發爭議,後來發現竟是利用演算法製造的假新聞傳送到社群媒體,以影響選舉結果;而網路透過收集網民的上網足跡,促銷其可能感興趣的物品,或者將網民的個資及興趣出售賺取利潤等,也對於政治、經濟和社會發展造成莫大衝擊,並改變民眾生活態樣和選項。
記得在1942年,美國科幻小說家艾西莫夫(Isaac Asimov)曾提出三大警示:首先是機器人不可以傷害人類;其次是機器人必須服從人類的命令;第三在不違反第一、第二項法則的前提下,機器人才可以保護自己。但在人工智能高度發展及國家勢力介入的今日社會,這樣的前提早巳破壞。例如:政府利用犯人入監照片、民眾入出境資料、馬路上安裝的攝影機所拍攝的照片,加上住家監視器等所補捉的照片,來提供政府補助的人工智能設備辨識好人、壞人。此外,在軍事方面也有70多國發展無人化系統。據說,在伊拉克及阿富汗戰場上,就曾投入超過12000個機器人士兵,在人工智能協助下,辨識出所謂的「壞人」,奮勇殺敵,以及未來更朝向機器人士兵占地面兵力的三分之一邁進。果真如此,則機器人殺人,在人類要求下,已經出現了!
人工智能發展到今天,雖然為人類開創了新的思考模式,而大數據的運用,也更精準的取代傳統抽樣調查的結果。但不可諱言,人工智能的發展,也為人類帶來許多災難性的演變,更在人類習以為常的生活中製造了不少混亂,包括:假新聞入侵社群網站。
人們不禁質疑,當人工智能技術持續升級後,未來機器人會不會自己製造機器人?就此,牛津大學人工未來學專家Nick Bostrom就曾暗示,如果未來的人工智能系統擁有與人類價值觀不一致的價值觀,那麼惡意機器人也可能會成為現實。在科技發展之際,如何避免人工智能帶來的危害,也應先納入規範以防患未然,好避免悲劇發生時措手不及!
作者簡介
李貴敏,國立政治大學法學碩士、美國太平洋大學法學博士及法學碩士,國立交通大學兼任教授及東吳大學兼任副教授。金典律師事務所創辦人、Baker McKenzie 國際資深合夥人、海基會財經顧問。
立法院第十屆第一、二會期優秀司法正義立法委員,口袋國會評鑑立法院第十屆第一、二會期司法法制委員會優質立委,口袋國會評鑑立法院第十屆第三會期全院表現優質立法委員。