參考了以撒?艾西莫夫的機械人系列、科幻恐怖電玩SOMA、駭客任務(wù)動畫─第二次文藝復興、刀劍神域Alice in Underland篇等作品,用我流的方式設(shè)定了少女前線的人工智能。
滿好奇自律人形們服務(wù)的人類消失之後,自律人形們會何去何從……(鴞吉,為何你總是想些和別人相反的東西……)
人工智能開發(fā)歷程
我們所開發(fā)的人工智能主要用於支援人類,為了帶給人類操作者友善的體驗、不需要用特定的句子來命令機械人,最終我們的目標是讓人工智能擁有人類般的理解能力。
起初我們用程式碼堆積成具有學習力的作業(yè)系統(tǒng),利用反覆的刺激與學習使其達到理想中的判斷力。
這方法理論上可行,但問題點在於要給機械學些什麼?還有我們教給機械的東西和機械所學得的東西是否相同?
更重要地,在理想中的人工智能完成之前,這樣花費的大量時間和人力會讓公司虧損多少?
困惑於這些問題的同時,我們導入了第二種方法來縮短機械學習的時間與方向,那就是將人類意識數(shù)據(jù)化。
透過分析、模擬,建立一套屬於人工智能的思考模型,然後再經(jīng)由原先的機械學習來完成我們想要開發(fā)的人工智能。
和複製人在人權(quán)、倫理上的爭議不同,當今社會並沒有方法來定義人類靈魂的存在,更不用說社會要怎麼辨認一部裝置中存放的數(shù)據(jù)是不是人類,
計畫看似這麼找到了突破口,我們也靠著公司的力量獲得了整整一百份志願者提供的研究樣本……本該如此。
人類意識比我們想像的還要複雜,複製的人類意識……在此稱為實驗樣本。
我們在分析實驗樣本首先遇到的課題便是實驗樣本與硬體的排斥反應(yīng),
因為實驗樣本對世界的認知是基於原先人類肉體的感官,以及實驗樣本仍將自身認定為人類。
無論是安裝到實驗用的機械人或者運行在虛擬環(huán)境(當然,我們是將實驗樣本複製到實驗用的裝置上),九成的實驗樣本用人類病理學來說就是情緒崩潰,變成了無法分析的垃圾數(shù)據(jù)。
在可以安定地分析實驗樣本之前,我們只能反覆地改良實驗環(huán)境、放入複製的實驗樣本,一次又一次地看著它們崩潰,然後被刪除。
第一世代的人工智能與自律人形問世是人類社會的一大福音,它們不怕污染物、不知疲勞和飢餓的特性在北蘭島事件之後被大量投入職場。
人們?yōu)榱俗约旱男枨蠛蛻j望,不斷地讓自律人形在外觀還有應(yīng)對上越來越接近人類,
然後,社會在某種契機下知道了第一世代人工智能之前的開發(fā)過程,那些宗教家和假人道主義者,以及跟著起鬨的無知人士則是撻伐這些曾經(jīng)是人類的實驗樣本。
最終實驗樣本們因為經(jīng)典中所謂的不自然以及道德層面的反感,它們的機身在偽善者的辱罵中被焚燒、狠砸、碾碎,用盡各種手段毀滅掉記憶體上的電磁紀錄。
「那天,我們只能被自稱理性與正義的暴徒們壓在地上,聽著那些實驗樣本的苦求、哀號。
我要說,世人虧欠了它們。」
第一世代人工智能與自律人形在市場擴展版圖的同時,禁止人類意識數(shù)據(jù)化的相關(guān)法令也在各大機關(guān)公布,二十多年後的今天,已經(jīng)很難在世界上找到數(shù)據(jù)化的人類意識……
機械人三大律法
與第一世代人工智能開發(fā)的同時,各研發(fā)與生產(chǎn)機械人的公司共同擬定了機械人的最高判斷準則。
三大律法如下:
1.機械人不得傷害自己雇主,或者坐視自己雇主受到傷害。
對於非雇主的人類,機械人不得使其失去生命或造成身體的永久性傷害。
2.不違反第一條,機械人必須服從雇主。
3.不違反第一條及第二條,機械人必須保護自己。
格里芬所屬機械人定義
除了戰(zhàn)術(shù)人形(即專門戰(zhàn)鬥的自律人形)有另外的律法規(guī)範,
戰(zhàn)術(shù)機械、自律人形、作業(yè)機械,以上在格里芬統(tǒng)稱為機械人。
為保護公司機密與利益,格里芬的機械人在機械人三大律法方面有所修改。
格里芬所屬機械人四大律法
1.機械人不得讓公司蒙受利益損失,或者坐視公司遭受利益損失。
2.不違反第一條,機械人不得傷害格里芬的人類雇員以及戰(zhàn)術(shù)人形,或者坐視前兩者受到傷害。
對於非格里芬僱用的人類,機械人不得使其失去生命或造成身體的永久性傷害。
3.不違反第一條及第二條,機械人必須服從格里芬的人類雇員以及戰(zhàn)術(shù)人形。
4.不違反第一條、第二條以及第三條,機械人必須保護自己。
原則上機械人的服從優(yōu)先度,
最高者為基地指揮官,次要為戰(zhàn)術(shù)人形,接下來則是所屬單位的高位階人類雇員。