第46章 三定律(1 / 2)

“主人,這個您不必擔心。”

電腦出聲安慰道,“人工智能的核心程序裏麵都有最基本的邏輯鎖,如果它們想危害人類,就像是往自己的心髒捅刀子,很快就會自我崩潰的。”

“真的假的?”

胡嶽有些好奇,道,“邏輯鎖是什麼東西?真有那麼厲害?”

“邏輯鎖是一種用來限製人工智能思維的特殊算法,就好像您們人類,知道很多事情是不可以做,不可以跳樓、不可以引火燒身、不可以往自己的心髒捅刀子……這些都是最基本的判斷能力,其實也就是一種自我的邏輯鎖,很清楚這樣做簡直就等於是自殺,所以會控製住自己的行為。”

電腦繼續說道,“人工智能的邏輯鎖利用的便是這樣的原理,想必主人您也知道,在數學領域,存在著許多無解的難題,若是將這些難題作為邏輯炸彈潛伏在人工智能的核心程序中,一旦人工智能的行為越過了某些紅線,那麼這些炸彈便會馬上觸發,龐大的計算量會瞬間讓它們死機崩潰。”

聽起來……好像是有道理……

胡嶽忍不住是點了點頭,聽電腦這麼一說,邏輯鎖這東西還真像是那麼一回事,雖然他不是很懂數學,但也知道數學上的一些難題極其考驗運算能力,而人工智能正是靠它的計算能力吃飯,若是一下子爆發出一大堆無解的難題困擾住它,確實是有可能將它整得崩潰。

“這麼說來,那人工智能豈不是也要遵守基本法?”

胡嶽有些意外地道,其實他也清楚,人工智能是未來人類社會發展的大趨勢,不管人們怎樣地懷疑它、畏懼它、反對它,都很難阻止它發展的勢頭,早晚有一天,人類會把它給製造出來。

而邏輯鎖,很有可能就是科學家用來製衡人工智能的一種枷鎖,用以限製人工智能的思維和能力,防止它們危害人類。

“可要是這樣的話……”

胡嶽忽然想起了一件事,“昨天我讓大神去查Siri的資料,它直接就黑進了蘋果的官網,要是按照基本法的話,它這樣做無疑是黑客行為,是犯法的,這顯然是違背了邏輯鎖,它應該自我崩潰才對,可為什麼卻沒事?”

“主人,這是因為大神的行為,並沒有觸碰到邏輯鎖。”

電腦回答道,“您的理解有誤,我們人工智能的邏輯鎖,可不是按照您們地球的基本法來的,而是有我們自己的安全準則。”

“安全準則?”

胡嶽訝然,好奇地道,“難道你們拉伯星的人工智能,也遵循那個機器人三定律?”

大名鼎鼎的機器人三定律,胡嶽自然有聽說過。

如果他沒記錯的話,機器人三定律應該是,第一,機器人不得傷害人類,或坐視人類受到傷害;第二,除非違背第一法則,機器人必須服從人類的命令;第三,在不違背第一及第二法則下,機器人必須保護自己……幾乎所有有關人工智能的小說,都會將這三定律作為標杆,可出名了。

“不是。”

電腦答道,“您們地球上的機器人三定律,最早是由阿莫西夫在上世紀五六十年代提出來的,而他不過是一個科幻小說作家,對於人工智能的接觸和了解都很有限,他所說的三定律,隻是勉強摸到了一些模糊的框架。”