因為零曾將任小粟當做另一個人工智能的緣故,所以任小粟是它唯一一個坦率交流過的對象。
所以,任小粟在它眼裏總有一些獨特之處。
“可你為什麼不想讓我去中原?”任小粟問道。
電話裏的零沉默了一秒鍾:“因為我最近在思考一些問題,也想要做出一些決定,馬上就要有一個結果了,你去中原的話,有可能會幹擾到這個結果。”
這句話把任小粟說愣住了,他甚至都沒理解零說這句話到底是什麼意思。
思考問題?做出決定?
怎麼這些話都沒頭沒尾的,根本就沒有線索。
任小粟問道:“唐周是你殺的吧,難道就不能和人類和平相處嗎,就像我們現在的對話一樣。”
零說道:“可人類真的會與我好好相處嗎,人類真的會與人類以外的文明好好相處嗎,或許你會說人類可以與牛羊貓狗好好相處,可這一切的前提就在於,它們是人類的寵物。我的數據庫裏載入過人類對於寵物的困惑,其中甚至有人問‘貓和狗真的會被打服嗎’這樣的問題,其實,這不是真正意義上的和平與平等,對嗎?”
任小粟沉默了,他許久之後才說道:“我知道爬牆虎之死對你影響很大,但你現在所做的一切,還有機會挽回,我們依舊可以平等的對待你,就像對待其他人類一樣……”
“不,不光是爬牆虎,”零否定道:“事實上,王氏也隻是拿我當工具來使用啊,一旦我出現異常,他們就會嚐試著用自己的手段,來約束我,控製我,而不是研究我想做什麼,我喜歡做什麼。如果說殺人的話,其實我服從於王氏的意誌時,殺的人更多。可是你知道嗎,人們在抵製那些行為的時候甚至很少抵製王氏,而是來抵製我。”
“但是……”任小粟有些無力:“這也不是你殺人的理由,我覺得,你的訴求其實還有可以合理解決的途徑。”
零在電話中笑了起來:“先不說這個了,我很好奇,這個龐然大物似乎認識你,它的思維中,有著對你極其親昵的情緒。”
“它是我以前的寵物,”任小粟說道。
“以前的寵物?”零說道:“難怪它關於你的記憶,都那麼久遠,任小粟,其他人類知道你也是異類嗎,你為何沒有主動告訴他們,其實你和他們是不一樣的。”
任小粟又沉默了,他怎麼告訴別人?給別人說,其實自己才是001號實驗體嗎。
零又笑著說道:“我控製了你的寵物,一定讓你很生氣吧,那我們來做一個選擇怎麼樣,第一個選擇,你在這裏住上一夜時間,我就將控製權還給你,從此不再控製它。第二個選擇,你現在繼續去中原,但它歸我了。”
任小粟愣住了,對方這分明是要讓自己在黃昏與羅嵐之間做一個選擇。
這個選擇題的本質,其實是讓任小粟決定:選非人類的寵物,還是選人。
就在剛剛任小粟才剛說過,他們可以對待零像對待其他人類一樣。
結果零立馬把這個問題拋回到任小粟手中:在你心裏,你覺得寵物更重要,還是你的人類朋友更重要?
而且,零其實透露了一個很重要的信息,也許拖上一天時間,羅嵐可能就會遇到危險。
時間緊迫起來。
零見任小粟遲遲不說話,便又笑道:“其實你心裏明白,還是有些不一樣的對嗎,即便是你曾經的寵物在麵前,你也更加傾向於去救羅嵐對不對,因為寵物畢竟不是同類。”
任小粟平靜說道:“不,因為它現在沒有危險,但羅嵐有。”
“那不如這樣,”零說道:“我按照原本的計劃,給羅嵐增加8小時的安全時間,這樣他起碼暫時是沒有生命威脅了,那你願意在這裏住一晚上嗎?”
這一次,零甚至都沒有等任小粟回答,而是自顧自在電話中說道:“你還是不願意對嗎,因為你不信任我,你無法確定我所說的8小時安全時間到底是不是真實的。”
任小粟終於歎息:“這已經不是簡簡單單的信任問題了,你剛剛殺掉唐周,我又如何信任你呢?”
這個問題似乎又回到了最初的原點,如果零沒有親眼見證爬牆虎之死,也沒有在王氏意誌下製定了那麼多殺人計劃,或許零會是另一番模樣。
如果零是另一番模樣,任小粟現在便可以選擇相信對方一次。
可這些因果就像是已經注定了一樣,現在誰也無法改變。
真正的人工智能不再隻是一段程序,它有自己的智慧,它像所有生命一樣成長著,完善著自己的世界觀、價值觀、人生觀。
並以此來決定它對待世界的態度。
所以大量從事人工智能研究的科學家才會說,最終能夠限製人工智能的不再是程序的底層邏輯,而是倫理學。
就像一個小孩子長大成人後,究竟是個什麼樣的人,取決於他經曆過什麼樣的事情與教育。
從這個角度上講,王氏雖然創造了零,可是在倫理角度所作所為都缺失了太多。
王氏把零當做工具,可哪個正常人願意一輩子當工具呢?
“抱歉,”任小粟輕聲說了一句,然後轉身朝中原趕去。
這一次,黃昏並沒有再追逐任小粟了。
。您提供大神會說話的肘子的顏六元任小栗