類似刀身的反光,槍口的黑暗,裝甲的厚重、機械眼的燈光、齒輪運作的聲音等等包裹著強烈暴力的無機質冰冷氣息。與人類附帶有熱量的殺氣完全相反異質的存在。
傳感器俯瞰著僵在原地的“知更鳥”,還有馬賽和他背後伺機而動的“夜鶯”,鋼鐵之蜂開口了。
“據本機觀察分析,貴官的異常行動似乎是受這兩個敵對個體影響所致。”
馬賽的身體顫抖著,心髒的跳動越來越激烈。
“本機不具備強製回收貴官的戰術備案與裝備,失去貴官的輔助絕非本意。”
或許這才是最讓“沙拉曼達II”感到困擾的問題。
如果是舊式“軍團”,設法取出馬賽的腦組織,破壞記憶中樞後進行掃描複刻就行了。根本無需在意當事人自身的意願。而作為原型試驗機的“沙拉曼達II”從一開始就是以“搭乘活人”為前提設計出來的,麵對眼下的局麵,打不打得過暫且不論,想要完好的回收馬賽,讓其配合協同作戰是不可能的。
讓它停止作戰更不可能。
當這兩個矛盾擺在人工智能麵前時,它隻能以自己的方式來解決。
“請貴官配合回收作業,若不配合,本機將立即消滅該敵對個體,並且對周遭發動無差別攻擊,直至除貴官外的所有生命反應停止。”
換言之,就是用人質脅迫。
不光是兩個女孩,甚至還包括整個新奧爾良的全部市民——以數十萬生命為籌碼,脅迫馬賽回歸“搭乘員的本職工作”。
簡單,粗暴,還有一點笨拙,但以戰鬥用的人工智能來講,這是其所能設想出來的最佳方案了。
通過比對作戰記錄和對馬賽的行為進行分析,“沙拉曼達II”判斷兩個女孩對馬賽具有重要意義,如果一定要消滅她們,它將不得不承受失去馬賽的風險,這會對它實現最終目標造成嚴重、甚至是無可挽回的影響。
相對的,暫時移後作戰行動的順位,優先確保搭乘員的回收工作並不影響最終目標的實現,某種程度上還能促進這一目標的實現。
該選那邊,一目了然。
麵對“沙拉曼達II”擺在麵前的難題,馬賽拚盡全力才沒露出被打個措手不及的表情。
利用別人的性命來要挾談判對手,根據現場情況和基本原則重新排列事項的優先順位——這已經超出了普通人工智能所能達到的極限。
隻會執行指令的機器不具備判斷能力,更不要說自行解釋指令,調整事項的優先順序,不拘泥於眼前的指令,以更長遠的眼光和利害得失計算來判斷狀況。至於和人類進行溝通與談判,設定對方無法拒絕的要求,在談判中掌握主導權更是完全無法想象之事。
簡直……就和人類一樣。
在這一刻,馬賽感受到的是連靈魂都為之顫抖的惡寒。那種劇烈的衝擊幾乎可以與皇帝交談時相匹敵。
那是對“未知”的恐懼,也是對“非人之物”的畏懼。
“貴官有五分鍾思考時間,五分鍾後本機將根據貴官的回答采取行動。”
不知是否察覺到了馬賽的動搖,抑或察覺到了也不在乎,鋼鐵之蜂冷冷說到:
“期待貴官做出明智的判斷。”
“……”
“有什麼好判斷的,反正到最後,你丫的依然會殺掉一切吧。”
撥開馬賽和感應單元,“夜鶯”擋在對峙的兩者之間。
“對你們這些以指令為最優先的鐵皮混蛋來講,壓根就沒‘遵守約定’這種概念,就算遵守了也隻是為了回收搭乘員,方便下次回來再把所有人殺光。說到底,不過是把處刑名單調整一下順序,‘殺掉所有目標’這個結果不會有絲毫動搖。”
“然也,閣下的發言符合事實。”
紅色光芒睥睨著女孩,電子音說到:
“然而決定包括閣下在內的幾十萬人生死的,是馬賽搭乘員的回答,若他回答錯誤,閣下現在就會死這一點是不會改變的事實。”
自律型戰鬥機器沒有“壽命”這一概念,也不會糾結過程中的某些行為是否符合倫理道德,它們隻有執行指令,隻有符合命令的結果。
進化至最強;
調整消滅名單上的順位;
兩件事並不矛盾,前者是目的,後者是手段,僅此而已。
所以“沙拉曼達II”能毫不猶豫地以幾十萬人來要挾馬賽,一旦馬賽拒絕,它也一定會立即動手將新奧爾良化為人間煉獄。
“剩餘時間三分十七秒,貴官的發言將決定幾十萬人的生死,若是在乎——”
“等一下。”
“貴官已經做出決斷?”
“不。我隻是想知道。”
馬賽歪著脖子,滿臉的懵懂,儼然一副不諳世事的樣子。
“為什麼你殺死人質,會是我的錯呢?”