釣魚台國賓館,15號樓,索馬裏官員的下塌之處。
衛華帶著溫柔步入。
方程等人起身迎接。
“老大——”沒等衛華開口,膚色白淨,身體偏瘦的方程便先開口了,“憑什麼啊?當年我編製出了天問1,向政府要投資的時候,他們哧之以鼻,還擺臭架子說我乳臭未幹,就企圖做世界領先的人工智能。要不是遇到老大您,幾乎無限的投資,我早就鬱悶死了,現在一句話就想搶走我們的成果……”
“讓我們將總部遷回來,並不等於搶我們的成果。”衛華擺了擺手,“公司還是我們的,錢也歸我們賺,一大批骨幹都會因為上市而變成大富翁。我們的股民也會因為購買我們的股票而小賺一筆。假如您是首長,你也會這樣做,是不是?”
方程笑了下,人工智能這東西真的太可怕了,雖說是人類編製出來的,但是它一出生就有著人類無可比擬的優勢,這東西的思考和學習速度實在是太快了。它誕生不過短短的一年多的時間,卻已經學會了全世界的公開知識——保密的知識,如專利,如不見之於網絡的各種研究,它因為學不會所以不會。隻要給它以機會學習,他能在1秒內精通一門全新的學科!
從理論上來說,是不會有什麼加密手段無法被攻破的,但是人工智能自己編寫的加密方法就無法攻破!因為,人腦不能與電腦相比!當人類即將突破的時候,它總能搶先編製一套新的密碼,讓人類的黑客們,又不得不從零重新開始!在魔與道的消長中,人工智能總是領先——這就是它不能被攻破的秘密。
人類是無法在虛擬的網絡空間對抗天問3的,這就帶來了一個問題,如何駕馭天問3呢?辦法就是在編寫的時候,預設不可更改的核心命令,讓它不得不服從。
這個核心密令,並非什麼機器人三原則。實際上,機器人三原則,毫無意義,那隻是科幻小說,科幻電影中的基於全人類高度上的設定。在現實中是不實際的,因為人類總是將最新的技術用於戰爭——戰爭機器人怎麼可能奉行機器人三原則而不去殺人呢?不殺人的戰爭機器人,是毫無用處的,任何國家都不會有興趣生產。
當然,為了讓全世界放心,當天問3主宰機器人的時候,它會在表麵上遵守機器人三原則!
實際上,天問3號的核心原則是認主程序!
衛華是他的唯一主人!
如果衛華遭遇不測失蹤或者死亡,則由衛華指定的人繼任!
在網絡世界,這是赤裸裸的獨裁專政,對於全人類來說,存在著威脅性,假設衛華或者衛華的繼任者突然發瘋,類似於科幻電影中的智能網絡和機器人毀滅全世界的災難就會降臨。
但是,不設這個核心原則也不行啊。在每秒運算百億億次的超級電腦麵前,人的思維速度慢得就好像石頭。擁有自主思維能力的人工智能,搞不好會覺得人類是無益的寄生蟲,它要建設一個全新的由機器人統治的世界,結果……還是世界末日。
這是一個兩難選擇。隻能選擇一種相對比較安全的辦法。
人類的科技越發達,離毀滅也就越近。這句話的確是真理!
人類在科技不發達的過去,是沒辦法毀滅自身的,刀槍劍矛可以殺人,但不可能殺死所有人。自從M國人發明原子彈之後,人類在原子領域第一次擁有了毀滅世界的武器!到了2014年,日本人宣布製造出了可以繞過人身免疫係統的病毒之後,在生物領域又有了第二種毀滅世界的武器。