今天,我們進入了機器的時代。機器時代召喚與之相適應的法律和與之相匹配的法律認識論和法律方法論。機器時代的法律或可被稱為人-物關係法、科學自然法抑或文理混合法。不管怎麼稱呼,這種法律所要調整的主要對象都是人和自己製造的工〔1〕Rev.1197(2008),availableathttp:\/\/scholarship.kentlaw.iit.edu\/cklawreview\/vol83\/iss3\/6.T.BerginandM.Fisch(tr.),TheNewScienceofGiambattistaVico(CornellUniv.

Press,1968).

WillemJ.Witteveen,“ReadingVicofortheSchoolofLaw”,83Chi.-Kent.L.

·013·0\".+\"!

具的關係,包括有生命的或無生命的工具,或類人的工具,而這種關係並不是一種財產關係。如同前三類法律的發展變化一樣,機器時代的法律也是建立在已有法律基礎上的,並不是一種完全沒有傳統支持的新型法律。

然而,傳統法律的局限也是顯而易見的。法律的主要內容是契約、財產和權利義務。就契約而論,在以太坊區塊鏈平台上廣泛應用的智慧契約本身就是運算代碼的一種反應。傳統契約法對它一籌莫展。就財產而論,擬真財產性質的確定是相當困難的事情。到底是擬真資源還是擬真財產尚存在爭議。更何況,該用何種法律調整擬真資源或財產也是沒有定論的問題。

契約法、勞動法、知識產權法以及物權法都可能適用。就權利的主體而言,當今時代,動物有權利、山川草木皆有權利,連機器人都可能有權利。這完全顛覆了傳統的權利學說。需要一種新的權利學說來解釋並證成這些權利的合法性。更為重要的是,網絡技術、人工智能技術等科學技術本身具有自己的規律,人為的法律可能鞭長莫及,無法發揮有效的作用。這個領域中有效的調整工具可能更多的是人們所熟悉的代碼(Code),而非需要人們從新的角度認真對待。傳統的源自19世紀的法律思想和法典意識是無法應對21世紀的新型的動態法律關係的。

另外,法律如何反映機器時代新的道德和倫理則是更大的法律。簡言之,機器時代給現有的法律及其製度提出了難題,課題。人的倫理、職業倫理、生物研究的倫理、機器人的倫理、人工智能的倫理等都與法律密切相關。這些都可能是機器時代立法和司法必須要遵循的指導原則。今天的法律人所麵臨的學習任務是非常艱巨的。

有些人認為,現有的法律已經足以應對人工智能引起的和可能引起的新的法律關係,或者調控由人工智能引發的法律後·014·算法社會與人的秉性果,並不需要新的專門的法律調控。持這種觀點的人主要把人工智能看作是一種產品,並且認為現有的產品責任法就足以應對人工智能引發的法律問題。具體而言,如果一個機器人侵犯了別人的利益,或者導致了別人的經濟損失,機器人的製造者、所有者或者編程者便都應該承擔法律責任。然而,機器人並不是單純的一般意義上的產品。現有產品責任法中關於產品的概念,並沒有預設針對智能活動產品的內容。

無論如何,如果要規管人工智能和算法的研發,就必須要賦予人工智能一定的法律地位。雖然有些國家的法律已經試圖賦予機器人一定的法律主體資格,比如韓國的機器人法案提倡機器人應具有相應權利義務的電子人格,愛沙尼亞的人工智能立法把機器人看作是人的代理,介於獨立人格和財產之間,但很多研究者都不願意把人工智能看作是具有主體性的存在,而僅僅把它看作是一種工具或者產品,不具有主體資格。

製定法律等於建立一種社會製度。製度建立的資源和途徑大致有三:一是把行之有效、持之以恒的實踐製度化。比如,市場的出現,開始並沒有固定的市場的概念,但人們習慣於在一定的時間和一定的地點交易,久而久之就產生了市場和調節市場的規範係統和製度。二是把精確可行的概念和理論製度化。

人類社會有些製度的誕生和發展建基於偉大思想家的理論和學說。這方麵的例子不勝枚舉。三是向別人借鑒學習。比如,法律移植。有史以來,人們對法律、習俗、道德等規範係統的相互借鑒從未停止過。

就實踐而言,人工智能研究和運用突飛猛進的曆史並不長。

實踐中尚未積累起足夠的經驗,也未發展出可以類型化的、比較成熟的牽涉人工智能的法律關係。因此,無法進行製度化。

也就是說,目前不可能製定出有關人工智能的完善的法律。從·015·0\".+\"!

理論與學說的角度來看,無論是描述性的還是預測性的,目前的理論界均尚未就什麼是人工智能的問題達成一致的認識,而且也缺乏主要的概念範疇。因此,把理論或者學說製度化的前景也並不十分樂觀。從借鑒移植的角度來看,截至目前,世界上也還沒有一部被命名為“人工智能法”的法律問世。但是,調整人工智能某些方麵或某種形式的法律卻早已存在。比如,有關網絡平台管理、機器人以及網上交易等方麵的法律,諸如歐洲議會“關於製定機器人民事法律規則的決議”,韓國的“智能機器人法”,美國眾參兩院的“自動駕駛法案”,等等。

毫無疑問,製定單項的或專門的法規調控人工智能的某一具體方麵或形式是既有實踐,但這並不排除製定一部綜合性的、概括性的“人工智能法”的可能性。當人們不能完全掌握所需信息的情況下,可以先製定一部原則性的、簡短的法律,隨著實踐的深入再製定詳細的實施細則。法律是在不斷發展變化中實現其生命價值的。比如,對於工傷的賠償,最初大部分國家都采取嚴格侵權責任製。當一個工人受傷,雇主有過錯就要給予賠償,雇主無過錯就不用賠償。這種侵權的賠償製不能夠涵蓋工傷的各種情況,各國不停改革,終於找出新的解決辦法———社會保險製度。通過社會保險製度來彌補侵權補償的不足,使工傷賠償更加人性化。後來又發展到不管雇主有無過錯,隻要有工傷便都要賠償。這就要拿出一筆基金來處理工傷。在特別發達的地區,隻要是與工人有關,哪怕是在路上出了車禍,也要賠償。人工智能法對機器人行為的規管也會經曆一個逐漸完善的過程。

如果要製定一部概括性的人工智能法,這部法律至少應該明確立法的目的、指導原則以及鼓勵和限製的範圍和內容。在精神上至少應該反映出人類對自己的創造物的掌握能力和對科·016·算法社會與人的秉性學技術規律的充分尊重。這部法律同時應該設立一個監管人工智能研發的專門機構,並賦予其相應的權力,諸如質量認證的權力,進一步製定實施細則和計劃的權力,起訴違法的權力以及行政處罰的權力,並且針對這些權力大致規定實施的程序和大體要求。這個機構一定要吸收有關專家作為成員。紐約市議會新近通過的《算法問責法案》就有專項規定,要求成立一個專門監督自動決策算法的公平和透明。〔1〕由自動化決策係統專家和相應的公民組織代表組成的工作組,結語世界正在發生翻天覆地的變化。我們正處在大轉變的開端。

這次的變化在人類曆史上從未有過類似的先例。有些人喜歡用“第×次工業革命”來形容這次轉變,但不夠傳神,因為這次轉變要比工業革命意義深遠得多。這次變化的後果現在尚難以預料。但很多科學家、學者和商業人士都紛紛表示出了為人類的未來擔憂。而未來學家、技術烏托邦主義者則非常向往這一時代的“君臨”。

人類曆史上曾經有過劃時代的巨變。然而,這些曆史巨變比起正在發生的和將要發生的巨變,真是小巫見大巫。因為以往的巨變無論如何都是以人為中心發生的變化,人類並沒有對自己的未來失去控製,而今天孕育著的變化卻指向反人類、非人類乃至滅絕人類的後果。這就是所謂的後人類時代的降臨。

就孕育在20世紀的社會製度和文化思潮中了。一言以蔽之,人“TheFirstBilltoExamine‘AlgorithmicBias’inGovernmentAgencieshasJustPassedinNewYorkCity”,availableathttp:\/\/www.businessinsider.com\/algorithmic-bias-accountability-bill-passes-in-new-york-city-2017-12.

〔1〕這種後人類時代的來臨雖然是21世紀初的事,但其種子早·017·0\".+\"!

對自己的狀況始終不甚滿意,一直在追求更高品質的生活,試圖改變現有的狀態,無論是經濟狀態、生活狀態、政治狀態還是個人狀態。也就是在這種不斷追求完美和完善的過程中,人類迎來了後人類時代。近現代以來不斷改進的寬容與反思的文化環境,給了人們不斷認識、解放自己的機會,使個人的追求擺脫了傳統的束縛,自由放任、無拘無束地從事自己的研究。

從宗教寬容到政治寬容再到文化寬容,現代社會鼓勵人們追求快樂幸福、自我實現。這使人們追求完美的事業從形象到職業,從生活方式到科學研究,均成了正當而有意義的工作。使自己變得更美、更健康的人類增強工程方興未艾,化妝保養整容,采用激光除痣或美膚,機器強身已經成為普遍現象。這預示著如果有一天,體內植入芯片或者其他異物能夠使人變得更聰明、更強健或更美麗,人們是不會拒絕的。如此一來,人就會把自己從自然人變為後人類了。與此相聯係,人對自己本身的認識也有了很大發展,因此才有了各種性傾向的展露和模糊。另外,啟蒙、現代化、科學的發展導致了現代單向度社會環境的存在,而單向度的環境則孕育了單向度的人。一言以蔽之,這些人基本上是理性-科學-經濟-法律人。在這樣的框架裏麵,人的理性越來越發達,而心性和靈性則受到了毀滅性的打擊。如果不做有意識的努力以遏製人的智性的無限製發展,算法社會將進一步打擊並有可能毀滅人的心性和靈性。那也就將意味著人的末日的來臨。

(於興中:“算法社會與人的秉性”,原載《中國法律評論》2018年第2期。)·018·論算法規製的價值目標與機製設計蘇宇摘要:算法規製需要確定以安全和自由價值為主的價值目標,形成內在融貫的價值目標體係。基於這些價值目標,世界範圍內的算法規製理論與實踐已經確認了一係列相關法律關係,應用了多種製度工具。在此基礎上,算法規製應借鑒機製設計理論,結合算法製衡的助力,促成理想的博弈均衡結果,形成符合規製價值目標的基本製度安排。

關鍵詞:算法;規製;機製設計;數據權利人類正在逐漸進入“算法統治的時代”。

〔1〕時至今日,大

數據、雲計算、區塊鏈、人工智能等信息科技的浪潮正在席卷全球,信息權利正在成為日益重要的權利形態。與此同時,智能家居、智慧物流、圖像處理、智能網聯汽車、醫療影像識別、人臉識別與軌跡追蹤等基於算法的產品或服務迅速發展,使得算法也隨之進入了法律的視野。算法的運用為社會經濟的發展帶來了強勁的動力,也為社會生活帶來了巨大的便利,但與算法相伴的風險也如影隨形,導致算法規製成為學界與實務界日益關注的主題。

〔1〕鄭戈:“算法的法律與法律的算法”,載《中國法律評論》2018年第2期。

·019·0\".+\"!

應用的規製,它不同於“通過算法運行的規製”,是指基於國家安全、社會經濟秩序維護或個人權益保障的需要,深入到某些軟件或程序所應用的算法層麵,對算法進行引導、規範或監管。

算法規製已經在隱私權保障、知識產權保護及反歧視領域逐漸開展,對於規製算法的理論基礎或如何規製算法的討論也時常可見,如愛德華茲(LilianEdwards)與維勒(MichaelVeale)有關算法解釋權的討論、〔1〕班鮑爾(JaneBambauer)與紮斯基(TalZarsky)有關規範算法自動決策的討論、〔2〕雅內拉(PhilipN.Yannella)關於歐美對用戶畫像算法的不同規製路徑之探討〔3〕等研究都明確論及上述算法規製問題。質言之,算法規製在學界與實務界正日益成為一個重要的新興主題。

隨著算法不斷承擔更加重要、更加關鍵的社會經濟角色,算法規製的一係列根本問題也浮出水麵:算法規製應當指向何種價值目標?規製的整體製度框架呈現何種狀態?目前有哪些規製工具可用?算法規製的機製設計較之一般的風險規製有何特點?這些都是算法規製的議題下最根本、最關鍵的問題。

所謂“算法規製”(algorithmregulation),本質上是對算法一、算法規製的價值目標市場主體的活動會產生社會和經濟上的負外部性,規製的本質就是對負外部性的消除。“負外部性”是一個價值相關概tionIsProbablyNottheRemedyYouAreLookingfor”,DukeLaw&TechnologyReview,〔2〕〔3〕〔1〕L.EdwardsandM.Veale,“SlavetotheAlgorithm:WhyaRighttoanExplana-2017~2018,16(1),pp.18~84.

2018,94(1),pp.2~47.

J.BambauerandT.Zarsky,“TheAlgorithmGame”,NotreDameLawReview,P.Yannella,“TheDifferingUSandEURegulatoryResponsestoRiseinAlgo-rithmicProfiling”,CommunicationsLawyer,2018,33(1),pp.1~21.

·020·論算法規製的價值目標與機製設計念,易言之,任何規製活動都必然是在一定法律價值目標的指引之下進行的。自法理上觀之,法的“目的價值”主要包括公平、正義、安全、自由、效率等,它們具有多元性,並且與人的需求和社會關係的多樣性緊密相連。

〔1〕由於算法應用的情境眾多,涉及的法律價值目標也較為廣泛,算法規製所麵對的負外部性包含了相當豐富的內容。例如,在算法未受任何外部規製的前提下,自動駕駛汽車可能麵臨重大安全風險;區塊鏈及其衍生應用可能衝擊主權國家的金融安全、引發賭博或逃稅等其他違反法律秩序的行為;〔2〕將匿名化數據重新整合進行分析可能識別出個人信息而侵犯公民隱私,〔3〕用戶畫像和殺熟方案可能影響交易公平、侵犯消費者的知情權;〔4〕等等。這些都引致了規製的需求。但是,對算法的規製又不能過於僵化或嚴厲,在消除其負外部性的同時摧毀算法本身發揮作用的基礎。例如,假設對區塊鏈強製使用同一種共識機製,將很可能使得區塊鏈的眾多類型及中小型區塊鏈不複存在;假設強製用戶畫像和智能推薦的代碼完全開源,則有可能對創新形成負麵激勵、導致企業撤離或者核心技術流失。因此,算法規製的價值目標具有複雜的內容和結構,也具有精微的尺度及邊界,需要通過一定的方法進行梳理與整合,形成一個具有一定解釋和證立能力的價值目標體係。

(一)價值目標的確定算法規製價值目標的確定,取決於規製者對算法的負外部〔1〕〔2〕〔3〕〔4〕314頁。

張文顯主編:《法理學》(第5版),高等教育出版社2018年版,第313~蘇宇:“區塊鏈治理之現狀與思考:探索多維價值的複雜平衡”,載《中程嘯:“論大數據時代的個人數據權利”,載《中國社會科學》2018年第陶盈:“機器學習的法律審視”,載《法學雜誌》2018年第9期。

國法律評論》2018年第6期。

3期。

·021·0\".+\"!

性之認識及價值權衡之判斷。經濟學上所謂“負外部性”,在法學的視野中體現為對各種法益的侵害。算法運用所可能產生負麵影響的法益,既包括個人的人身權、財產權、政治自由和人格尊嚴,也包括難以通過還原主義方式分解的國家安全、社會管理秩序及公序良俗,等等。這些都屬於算法規製需要考慮的價值目標。與此同時,算法的運用也會惠及一定範圍內的法益。

在特定的技術條件下,每一種負外部性的出現往往都會伴隨著正麵的應用價值,而且算法所促進的法益與所損害的法益可能在類型上即互不相同。此時算法規製的具體價值目標可以通過三種方法來確定:一是通過價值位階或價值秩序的方法,使某一種價值占據優勢位置,如未能為此種價值提供充分保障,則不允許通過損害此種價值而實現其他價值;二是通過價值轉換與價值平衡的方法,使不同的價值可以相互比較,選擇使整體價值最大化的製度安排;三是通過多目標規劃等手段,先設置一定的優化標準(例如帕累托最優),再尋求在各方主體的價值判斷體係之間能達成的最優機製設計。

這三種方法都有一定的適用條件和範圍,也各有優劣,具體的抉擇應由立法機關進行決斷,再由行政機關與司法機關在立法決斷的範圍內、通過法定的程序進行解釋。在立法意圖不盡明確時,無論依大陸法係還是依英美法係的學理,行政機關均有一定的判斷、裁量或解釋法律的餘地。無論行政機關采取何種理解,行政機關根據此種餘地作出的價值目標設定或解釋均應接受司法審查,在價值目標問題上使行政行為滿足目的正當性原則的要求。

(二)價值目標體係的形成算法規製不僅需要確定價值目標,而且需要形成內在一致的、融貫的價值目標體係。算法的各種應用在社會經濟係統中·022·論算法規製的價值目標與機製設計具有一定程度上的關聯性,分散而獨立地確定某一算法規製的價值目標,有可能形成規製目標之間的混亂與衝突,進而對信息科技與信息經濟的整體生態造成不利影響。例如,人工智能中許多監督學習(supervisedlearning)的項目與大數據的利用有密切的關係,如果過於高估數據權利的價值,在數據采集與利用方麵采取了較為嚴厲的限製,便很有可能波及人工智能的發展。程序模塊的發展與突破高度依賴於Github一類的開源協作社區,如果由於某些程序模塊的風險而否定開源協作社區的正麵價值,無疑是因噎廢食。因此,價值目標及實現目標的規製工具之間的協調和整合殊為必要。

由於不同應用情境下算法運用所涉及的法益豐富多樣,而且算法的運用還在飛速變化發展,嚐試明確界定並刻畫這一價值目標體係尚不可行。不過,算法規製並不需要從零開始建構價值目標體係,它的價值目標體係可以在數十年來不斷完善的風險規製基礎上形成,需要加以強調和變革的僅僅是算法規製有別於一般風險規製的特征。易言之,行政法中的風險規製理論與實踐已經為確認受保護的法益目標、評估風險(負外部性影響的程度以及實現的概率)、選擇規製工具及平衡成本收益等儲備了係列方案,算法規製的價值目標設定與製度建構完全可以借鑒這些方案進行。算法應用風險的主要特殊之處有三:一是範圍寬廣、形態繁多,風險的危害後果、隱蔽性、傳播速度和控製難度等依應用情境和技術路線的不同而千差萬別。二是評估難,大型軟件工程或程序項目的測試與評估較之一般的風險評估(如毒理學分析、FEMA分析等)更難,無人駕駛等複雜程序的風險評估更需要長期積累經驗和實驗數據。三是影響深遠,算法層麵的風險往往伴隨著算法運用的巨大收益,也有可能影響到一種算法的未來發展,一些過去未充分顯現價值的·023·0\".+\"!

算法在日後可能有巨大的發展潛力(例如人工智能發展史上的3加密算法若被破解,全球區塊鏈生態將受到根本性的衝擊。這首先,算法風險範圍寬廣、形態繁多,這要求算法規製的類神經網絡方法)。不僅如此,某些算法的風險一旦出現,將可能在全世界範圍內造成巨大的負麵影響。例如SHA-2乃至SHA-使得算法規製的價值目標體係與一般風險規製應當有所不同。

價值目標體係能夠包容眾多的法益。其次,算法風險評估難,而且對算法的評估和規製影響深遠,就不應輕易對某一種算法的價值或作用下結論,而是在能夠清晰評價部分具體程序設計的基礎上,采取更加謹慎和更富彈性的價值目標結構。再者,隻有極少數算法可能引起無可挽回的巨大風險或者產生嚴重的倫理問題,信息社會中大多數算法所引起的風險並不會產生不可逆轉的重大危害。相反,算法自身的發展卻非常迅速,算法應用給社會帶來的增益亦不可估量,這要求算法規製在保證控製重大風險底線的基礎上,更多地給算法及其應用以自由發展之空間。

由此,從整體上觀之,算法規製的首要價值目標應當是安全,此處的“安全”本身是一種包含多種重要實質性價值目標的價值形式,算法安全就是要避免算法應用在國家安全、司法公正、個人的生命權、身體權、人格尊嚴等重要法律價值上出現無可挽回的巨大法益損失,或者衝擊人類文明的倫理底線。

在保證安全價值的基礎上,不同的價值目標之間應當更加側重於自由,此種自由既包括公民的言論和表達自由,〔1〕也包括企業和個人依法進行科學研究和經濟活動的自由。由於信息科技(尤其是人工智能)在國家戰略、社會經濟發展和人類自身發展2013,161(4),pp.1447~1493.

〔1〕S.Benjamin,“AlgorithmsandSpeech”,UniversityofPennsylvaniaLawReview,·024·論算法規製的價值目標與機製設計問題上的特殊重要性,算法應用的相關經濟活動也應獲得自由價值之支持,如涉及權利或法益之衝突,可以采取諸如阿列克西之重力公式(dieGewichtsformel)(cost-benefitanalysis)〔1〕或規製的成本收益分析〔2〕一類的權衡機製加以解決。

目標(如效率、公平、秩序)及法益(如原創性、商業秘密、勞動權)等,應當在法律明文規定的範圍內嚴格依法進行保護,避免法律價值在單純的法律原則層次過度延伸和解釋,進而影響到具有戰略意義的信息科學技術及其應用的研究與發展。算法的發展日新月異,算法之規製影響深遠,必須通觀全局,以安全和自由的價值統攝算法規製的價值目標,以發展的眼光推進規製的進程,避免算法規製的製度框架建構與機製設計吹毛數睫、刻舟求劍,甚至產生寒蟬效應(chillingeffects),阻礙算法創新和科技進步。〔3〕其餘價值二、算法規製的製度框架世界範圍內的算法規製實踐已經形成了一係列製度工具,它們與新興人格權益、數據權利的確立與保障共同構成了算法規製的製度框架。這些新興權益與製度工具近年來已被國內外廣泛引入法律實踐。美國、日本、韓國、德國、新加坡、愛沙尼亞等國家先後就算法規製與治理形成了相關立法實踐,〔1〕〔4〕歐Reuter(Hrsg.),Ged?chtnisschriftfürJürgenSonnenschein,Berlin:DeGuyter,2003,p.789.

UniversityofChicagoLawReview,2018,85(4),pp.936~986.

ofLaw,Technology&Policy,2018,pp.111~146.

學社會科學版)》2018年第6期。

〔4〕〔3〕〔2〕R.Alexy,“DieGewichtsformel”,InJoachimJickli,PeterKreutzundDieterJ.MasurtandE.Posner,“Cost-BenefitAnalysisandtheJudicialRole”,TheK.ChagalFeferkorn,“TheReasonableAlgorithm”,UniversityofIllinoisJournal汝緒華:“算法政治:風險、發生邏輯與治理”,載《廈門大學學報(哲·025·0\".+\"!

盟頒布《通用數據保護條例》(GeneralDataProtectionRegulation,GDPR)更是包含了大量典型的相關規定。不過,算法規製的製度框架還遠未成熟,其法律關係架構與各種製度工具仍然處於探索發展的狀態。

(一)算法規製的法律關係基礎為例,法律關係包括狹義上的權利(Recht)、權能(Befugnisse)、權限(Zust?ndigkeit)、取得期待(Erwerbsaussichten)、狹義上的法律義務(Rechtspflicht)、法律上的拘束(rechtlicheGebunden具有複雜層次的體係。

〔1〕法律關係的核心是權利義務關係,法律關係的內涵非常豐富,以拉倫茨的廣義權利義務框架heit)、職責(Obliegenheiten)、負擔(Lasten)等,展開為一個而

權利更是法律關係中最引人矚目的部分,是構築法律關係的出發點。除權利以外,各國公法中一般都通過某種形式認可一定範圍內的法律上之利益。它們在公法請求權與救濟可能性上不如權利,但對於個體而言亦具備類似於權利的意義,故常合稱“權益”。算法規製的部分製度工具,可以被看作是為保障各種合法權益而規定的若幹義務或責任。例如,算法解釋即主要是基於用戶知情權而對算法設計者施加的一項法律義務。因此,算法規製的製度框架需要先確認各種各樣的算法相關權益,尤其是確立與算法有關的新興人格權益與數據權利。

1.新興人格權益新興人格權益主要包括當代的信息隱私權以及人工智能應用的法律人格。傳統上肇始於沃倫和布蘭代斯的隱私權概念,最初隻包含防止侵擾的安寧隱私權和防止個人信息泄露的信息隱私權,後者經過歲月變遷已日顯複雜,而信息時代這一權利〔1〕第1期。

申衛星:“對民事法律關係內容構成的反思”,載《比較法研究》2004年·026·論算法規製的價值目標與機製設計的範圍更是不斷擴展。在信息整合技術和身份識別技術不斷發展的條件下,如前所述,傳統上不涉及隱私的信息有可能被分析出符合身份識別標準的個人信息,因此隱私權的保護範圍也隨之擴展。〔1〕與此同時,人工智能應用的法律地位問題也日益引人關注。最初,人工智能應用的法律地位依附於開發者的法律地位,隨著人工智能的發展,不僅有學者明確主張人工智能也有部分國家開始嚐試加以承認。

〔2〕由此,應用(包括基於人工智能的機器人或其他終端)的法律人格,算法規製正在超越傳統上由人類權利義務關係形成的法律關係框架,而將法律關係延伸到算法本身,這將是一場根本性的變革。

2.數據權利自既有國內外法律實踐觀之,目前已經獲得一定程度承認的數據權利包括個人的數據攜帶權、數據訪問權、數據更正權、數據擦除權(被遺忘權)、數據采集與處理的同意權、拒絕權、用戶知情權、限製處理權等等。數據權利中既包括基於個人信息和隱私的人格權利,也逐漸形成了“個人數據即財產”的財產權利觀念及其法理內涵。

〔3〕基於數據權利觀念,歐美國家在個人、數據處理企業、數據應用方與政府之間逐漸形成了一個日益精巧的控製權配置結構,致力於平衡數據安全、科技應用、信息經濟發展和個人信息保護的需要。易言之,這些權益包含了立法者的價值決斷和價值目標設定,構成了算法規製的法律關係邊界,也為算法規製提供了部分法律手段。

這些新興權益在我國法律中亦有若幹零散的體現,在立法〔1〕〔2〕〔3〕版)》2017年第6期。

3期。

嶽林:“個人信息的身份識別標準”,載《上海大學學報(哲學社會科學鄭戈:“算法的法律與法律的算法”,載《中國法律評論》2018年第2期。

程嘯:“論大數據時代的個人數據權利”,載《中國社會科學》2018年第·027·0\".+\"!

實踐中,個人信息的法律地位已為2017年製定的《民法總則》可,例如,法院在“王豔春與王茹香、李春香等隱私權糾紛案”所明確承認。在司法實踐中,不少新興權益亦獲得了法院的認(北京市門頭溝區[2017]京0109民初4611號人民法院民事判決書)中承認的個人信息權,在“孫旭東與平安銀行股份有限公司深圳市鑫富源投資谘詢有限公司隱私權糾紛案”(深圳市福田區人民法院[2016]粵0304民初24741號民事判決書)中承認的隱私維護權,在“北京百度網訊科技有限公司與上海漢濤信息谘詢有限公司其他不正當競爭糾紛案”(上海知識產權法院但這些新興權益的具體內涵及外延還遠未有明確定論,仍亟待深入認識。

(二)算法規製的製度工具盡管算法規製依然是一個新興的主題,但相關的製度工具發展卻相當迅速,在世界範圍內已經初步形成了一套全方位的監管框架。自既有法律實踐及理論熱點觀之,算法規製的主要製度工具包括如下數種:1.軟件登記與材料留存這是一種基本的規製手段,主要是解決算法責任的可追溯[2016]滬73民終242號民事判決書)中承認的信息價值等。

性問題以及提供最基本的風險預判,是實施其他監管措施和追究算法責任的前提條件。例如,我國工信部製定的《移動智能終端應用軟件預置和分發管理暫行規定》要求互聯網信息服務提供者或其他平台經營者登記應用軟件的提供者、運營者及其他信息,留存應用軟件及其版本、上線時間、用途、MD5校驗值等信息以備追溯。在這一方向上,未來有可能發展出諸如算法登記或算法備案一類更精致的製度工具,但僅限於具備特殊重要風險的應用情境。

·028·論算法規製的價值目標與機製設計2.算法解釋當一種算法可能包含較大風險時,法律可以通過設定算法解釋義務或賦予用戶以算法解釋權的方式展示算法的運行機理與基本邏輯結構。尤其對於算法自動決策的一些重要應用情境,算法缺乏透明度、決策過程不公開以及決策理由不足等問題,已經形成了需要進行解釋的“算法黑箱”。

〔1〕例如,在數據處理領域,因為機器學習和自動決策而認為自己即將或已經麵臨侵害的個人,可以要求知曉個人數據自動處理的邏輯,也可以向算法自動做出的決定提出異議,並要求更正錯誤的決定。

〔2〕這就是算法解釋的一種製度安排。自更寬泛的含義上看,算法解釋還應包括應用說明或數據使用政策(datausepolicies)等用戶操作指引,違反這方麵的要求可能引致沉重的法律責任。例如,2018年,穀歌因未為用戶提供清晰易懂的數據使用政策,違反了《通用數據保護條例》的規定,被法國數據保護監管機構處以5000萬歐元罰款。〔3〕不過,算法解釋在實踐中有時並不變量動輒以十萬計的大型程序,算法解釋之於開發者的負擔過於沉重,當前開發者在規定期限或合理時間內未必能夠做出準確的解釋;即使做出了解釋,由於知識和技術的鴻溝,算法解釋也很可能收效甚微。

〔1〕〔2〕〔3〕〔4〕容易,經常麵臨所謂的“不可解釋隱憂”,〔4〕尤其是對於參數、4期。

張淩寒:“風險防範下算法的監管路徑研究”,載《交大法學》2018年第汝緒華:“算法政治:風險、發生邏輯與治理”,載《廈門大學學報(哲學社會科學版)》2018年第6期。

“未履行《通用數據保護條例》穀歌遭法國重罰”,載http:\/\/sh.people.

com.cn\/n2\/2019\/0123\/c138654-32565082.html.

期。

賈開:“人工智能與算法治理研究”,載《中國行政管理》2019年第1·029·0\".+\"!

3.權益保障設計及安全措施對於某些算法應用情境,法律規定算法設計者必須提供針對某些合法權益的權益保障設計,或者其他安全措施。這些設計主要是抽象的功能性要求,個別情況下也會有具體的算法限製。例如,歐盟頒布的《通用數據保護條例》第25條就既規定了一般的權益保障原則(數據保護原則和個別數據處理的特定目的原則),又規定了匿名化、數據最小化、默認不可訪問個人數據等具體的數據處理限製規則。美國加利福尼亞州於2018年(TheCaliforniaConsumerPrivacyActof2018)1798.125節也有較為完整的反歧視義務規定,保障消費者的平等權。又如,我國公安部頒布的《互聯網安全保護技術措施規定》第7條及第8條要求互聯網服務提供者、聯網使用單位及提供互聯網接入服務的單位落實一係列安全保護技術措施,包括防範入侵措施、冗災備份措施等。此種規定較為靈活,在未來的算法規製中有可能成為必不可少的關鍵法律手段。但是,權益保障機製是否具備、是否達到法律的標準,行政與司法上有時存在較大的判斷餘地,需要相當程度的法律方法支持。

4.算法標準隨著某一領域軟件工程的日益成熟,一定程度上的算法標為保護商業數據中的個人信息而製定的《消費者隱私法案》準有可能成型。目前,國內外已經形成了一係列具體的算法標準,或者由政府製定,或者由社會組織製定。例如,在區塊鏈領域,中國區塊鏈產業和技術發展論壇製定了《區塊鏈數據格式規範》等標準。但是,對於算法規製而言,更值得注意的是包含一定法理內涵的抽象性價值標準。例如,夏格爾-費弗科恩(KarniChagal-Feferkorn)主張模仿法律中常見的理性人標準或專業理性人標準,主要基於侵權法的法理,為算法決策者(算·030·論算法規製的價值目標與機製設計法自動決策的應用)建立“合理化算法”標準(a“reasonable反對算法歧視方麵,隨著“公平機器學習”(fairmachinelearning)algorithm”standard)。〔1〕更引人注目的一個標準是公平性標準,在的呼聲日益高漲,算法上的公平標準已經越來越深入,要求生成公平合成數據(fairsyntheticdata)、設計公平分類器(fair化數據處理過程的論述也隨之湧現。

classifier)直至進行公平數據披露(fairdatadisclosure)等標準(proceduralregularity)標準進行統合,以實現法律上正當程序之保護,避免各方主體在智能自動化決策麵前被區別對待。

〔3〕易〔2〕也可以用程序正則性言之,在算法公平這一總體性標準下還可以形成一係列子標準。

在可預見的將來,抽象性的算法標準可能會成為算法規製的重要手段。

5.技術接口與監管便利條件經營者和網絡平台需要為某些行政機關提供技術接口,例如我國《反恐怖主義法》第18條、《公共互聯網網絡安全威脅監測與處置辦法》(工信部網安[2017]202號)第6條第2款等。此外還有要求相對人提供技術支持或監管便利條件的一些法律規範,例如《區塊鏈信息服務管理規定》(2019年國家互聯網信息辦公室令第3號)第18條第1款等。從嚴格的意義上看,這些技術接口或技術支持並不是針對某一種算法,而是針對某一類經營者或網絡平台,但這一製度工具完全可以被用於算法規製之中,例如可編輯區塊鏈(editableblockchain)技術view,2017,165(3),pp.633~705.

〔2〕〔3〕〔1〕J.Krolletal.,“AccountableAlgorithms”,UniversityofPennsylvaniaLawRe-K.ChagalFeferkorn,“TheReasonableAlgorithm”,UniversityofIllinoisJournalJ.Krolletal.,“AccountableAlgorithms”,UniversityofPennsylvaniaLawRe-ofLaw,Technology&Policy,2018:111.

view,2017,165(3):656.

·031·0\".+\"!

就利用變色龍哈希函數(chameleonhashfunction)創造出了一個可以編輯特定區塊的“陷門”。配合留存修改記錄等技術措施,這一“陷門”可以使可編輯區塊鏈技術適應某些有特殊監管需要的應用情境。

6.算法責任算法的不正當應用如果引起法律規定的危害後果,則程序的設計者或運營商須負一定法律責任。國務院於2017年發布的《新一代人工智能發展規劃》(國發[2017]35號)要求:“建立健全公開透明的人工智能監管體係,實行設計問責和應用監督並重的雙層監管結構,實現對人工智能算法設計、產品開發和成果應用等的全流程監管。”此處就明確表示了“設計問責”的監管結構要求。算法責任的本質是算法設計責任。算法應用引起法益侵害後果的原因,既可能來自於算法自身的不穩定、不可靠,也可能來自於算法調用數據與信息的準確性,還可能來自於對算法漏洞的惡意利用,但歸根到底在於算法設計本身缺乏足夠的安全性、穩定性與可靠性。在未來,啟用完全自動駕駛的智能網聯汽車有可能成為算法責任的一個實踐焦點。

除以上在算法規製中已經得到廣泛應用或密切關注的主要製度工具,還有一些初步見於法律實踐或理論研究的法律手段,例如,算法審計(auditsofalgorithms)已經在實踐基礎上得到了部分學者的積極支持。

〔1〕又如,技術認證或認定已經在一定程度上被廣為應用,我國的密碼技術檢測與認證即是一例。在未來,算法規製的更多製度工具有望被創造及應用,這是一個已經可以窺見的必然趨勢。

〔1〕DisparateImpactLiabilityInHiringPractices”,ArkansasLawReview,2018,71(2),pp.529~570.

M.BotsRaub,“BiasandBigData:ArtificialIntelligence,AlgorithmicBiasAnd·032·論算法規製的價值目標與機製設計但是,隨著算法相關法律關係的豐富和製度工具的不斷發展,一個新的問題亦隨之出現:麵對林林總總的權益保障需求及製度工具,何種機製才能有效地實現算法規製目標?這就使得規製者不能不麵對機製設計的挑戰。

三、算法規製的機製設計算法規製麵臨的機製設計挑戰是空前複雜的。盡管算法規製方興未艾,許多算法(甚至包括編寫算法的多種計算機語言)也還處在成長期,算法規製已經顯示出較了高的專業性與精確性要求。與此同時,算法規製所負載的風險亦在增長。自國內外法律實踐觀之,當前的算法規製尚主要在智能推薦、智能招聘、產品與服務定價以及剛剛起步的無人駕駛等方麵著力。而在未來,算法規製可能需要全麵介入無人駕駛、智能投顧、醫事服務、工業製造、犯罪偵查乃至司法裁判等領域。與此同時,計算機語言和算法自身也在不斷變化發展,使用C、C++、C#、Go、Java、JavaScript、Julia、Lua、PHP、Perl、Python、R、Ruby等語言中的不同組合完成的程序項目日益常見,程序員的專業領域也開始不斷細分,算法審計與監管的難度與日俱增。一些領域算法複雜,關涉重要權益,同時潛藏巨大風險,算法決策的得失甚至有可能影響全球而又不可逆轉(例如,算法決策結果在大型公有鏈的主鏈上廣播並被確認)。質言之,信息技術和信息產業的飛速發展使得算法規製麵臨更深刻的機製設計考驗。

麵對新的規製對象,同樣新興的機製設計理論為算法規製提供了一個富有意義的參考。機製設計理論(mechanismdesigntheory,或譯“製度設計理論”),又可被稱為反向博弈論,通過將機製設計目標轉化為一定的博弈結果目標,進而逆推博弈過程和約束條件,從而尋找出最有利於實現目標的製度安·033·0\".+\"!

排。〔1〕自赫爾維茨(LeonidHurwicz)、馬斯金(EricMaskin)和邁爾森(RogerMyerson)等學者開創這一理論起,數十年來,機製設計理論已經在國外的立法和政策製定中得到了廣泛的應用。算法規製的各種製度工具若致力於精確調控算法運行、最優化目標價值的實現,也應當從機製設計視角出發,形成有效的製度工具組合,在保障安全與自由等優先級目標價值的同時,避免對算法設計與應用企業產生過度的規製負擔,窒息信息經濟與信息社會的生命力。

自機製設計理論的一般原理觀之,算法規製的機製設計應當注意形成以下若幹基本安排:第一,盡可能清晰界定算法風險及收益。如果不明確某一規製旨在保障的權益目標及相關權益可能具體承受的風險後果,規製就失去了最本質的意義。如果不明確規製所影響的利益,則規製可能變為單方麵的壓製,隨意施加過於沉重的負擔。更重要的是,唯有明確算法風險與收益,才能明確反向博弈設計的理想均衡狀態,以及精準確定這一均衡中各方的策略選擇。

盡管有時算法風險難以預測和衡量,但仍需要盡可能大致判定受影響的法益、出現某種風險的概率及危害範圍。如果有重大風險後果連大致判定概率及危害範圍也難以做到,則應謹慎限製此種算法的使用,待算法成熟後再投入應用。因此,要求對存在顯著風險的算法進行算法解釋和測試是必然的前提,正如規製算法合同(algorithmiccontract)的一個重要前提就是使算法之目標清晰化,〔2〕由此才能對算法的收益與風險做到深思熟慮,〔1〕〔2〕第2期。

蘇宇:“機製設計理論與中國行政法學的轉型”,載《財經法學》2018年L.Scholz,“AlgorithmicContracts”,StanfordTechnologyLawReview,2017,20(2),pp.128~169.

·034·論算法規製的價值目標與機製設計這是不可或缺的步驟。

第二,為各方主體建立合適的行動策略結構。由於算法風險所影響法益及其歸屬主體的多樣性,規製中也應存在多元化的行動策略結構,也就是多種製度工具的組合。當算法風險影響一種直接歸屬於私主體的法益時,則為私主體配置一種防禦機製或請求權;當算法影響一種歸屬於社會或國家的法益時,則考慮為具有代表性的團體或組織配置請求權,或為規製者配置一項規製權限。所有請求權與規製權限的配置都應與法益受侵害的可能性及危害程度大致相稱。如果侵害風險較高,則應配置事前的防禦機製,例如算法注冊、算法審計或安全保障設計等;也鼓勵市場自行發展針對算法風險的防禦性應用,使社會顯示出更準確的公共物品供應信息與條件,使各方主體更準確地報告其真實類型,並建立個人用戶防禦算法風險的補貼機製。

第三,為理想的均衡狀態創造條件。機製設計本質上是反向博弈推演過程,從一個理想的均衡解倒推各種行動策略的初始收益空間配置。需要注意的是,各方博弈的均衡狀態隻是一個穩態,未必是最優狀態,在最基本的一些非合作博弈類型中,囚徒博弈和蜈蚣博弈是“雙輸”的均衡,智豬博弈是搭便車者片麵獲益的均衡,都不是理想的均衡狀態。易言之,理想的均衡狀態是符合價值目標的,而自然發生的博弈過程經常不導向這些目標。若要產生符合理想目標(例如帕累托最優)的均衡結果,就要改變各方主體報告信息以及采取其他行動的成本與收益結構。機製設計應當致力於減小各方的溝通與互動成本,增加造假或披露不實信息的負擔,改變非合作博弈的收益結構,在有條件的情況下甚至可以嚐試變非合作博弈為合作博弈(例如通過建立信用係統或聯盟協議的方式),為理想的均衡結果創·035·0\".+\"!

造條件。具體到算法規製,首先就應當使存在風險的算法按照風險水平設定算法解釋水平,保障用戶、相對方或相關方的知情權,並且設置算法解釋的可驗證性標準、檢測機製以及相應的法律責任。其次,應當基於科斯定理合理配置初始權利,並通過發放補貼等方式改變預算平衡,觀察真實的風險防範需求與算法應用收益,進而發現供給公共物品的最優水平。此外,對於機製設計所難以解決的一些問題,如算法倫理問題(反歧視、保障人格尊嚴等),則通過建立算法標準、設置權益保障機製和監管接口的方式解決。

在以上基本安排下可以容納各種各樣的具體機製設計。但是,算法規製仍有其更加獨特之處。機製設計理論要求對參與博弈的角色、行動策略、收益與損失等有清晰的界定,在部分應用情境下非常適合於算法規製,甚至直接融入算法設計之中。

將機製設計融入算法中運行的應用研究,不僅在世界範圍內有大量探索,在我國也早已得到開展。

〔1〕算法本身已經定義了各種各樣的變量、參數與函數,在一定條件下可以直接轉化為機製設計中收益空間或行動策略的參數,甚至可以直接清晰界定一種行動策略。在此種情形下,機製設計可以直接內置於算法架構之中。以基於POW共識機製的大型區塊鏈為例,由於數學上特定區間哈希值的求解比驗證困難得多,而碰撞一定長度的特定哈希值則幾乎完全不可能,同時攻擊又需要消耗巨大的算力支出,導致所有的攻擊行為都需要比合作行為付出更為高昂的成本,從而實現了激勵相容的均衡結果。基於序列到期可撤銷合約(RevocableSequenceMaturityContract)或哈希時間鎖定合約(HashedTimelockContract)的側鏈交易也是參與者以算展》2008年第10期。

〔1〕樊曉香:“基於機製誠實性的顯示原理算法比較”,載《計算機技術與發·036·論算法規製的價值目標與機製設計法對算法、實現相互製衡的一個典型實例。不僅如此,算法自身也在不斷發展出適合直接以算法進行規製的社會關係,例如算法合同,尤其是區塊鏈上的智能合約。通過算法標準、形式檢測、時間鎖、智能風險預警等算法手段謀求算法之內的製衡,可能比傳統的規製手段更有效。因此,在未來,算法規製更應當注重算法製衡體係的建設,把機製設計轉化為算法中內置的安全保障設計和權益製衡設計;更借助市場開發的算法風險防禦應用和競爭性的算法應用,最大限度地實現算法風險在信息經濟生態內部消解,避免由規製成本以及規製失靈帶來的額外負擔。

我國法律體係中算法規製的內容方興未艾,也為算法規製的機製設計留下了充分的空間。在我國行政法規層次以上的法律規範中,1991年製定的《計算機軟件保護條例》第7條第一1999年製定的《商用密碼管理條例》第5條第2款要求“編製的商用密碼算法具有較高的保密強度和抗攻擊能力”,這是我國第一次對算法提出明確的要求。“算法”一詞第一次進入我國的法律層麵是2004年製定的《電子簽名法》,但該法僅僅是在附則中提及了這一術語。即使是在部門規章層麵,算法規製的行政立法範例亦為數不多。工信部的《移動智能終端應用軟件預置和分發管理暫行規定》(工信部信管[2016]407號)是罕見的實例。此外,存在大量技術性的標準(如住房和城鄉建設部《建築智能化係統運行維護技術規範》、國家密碼管理局《密碼模塊安全檢測要求》等),但還沒有將算法規製上升到“硬法”的層麵。在此種條件下,我國的算法規製完全可以在現有製度框架與工具基礎上嚐試各種製度工具及其組合,特別是形成基於算法本身的核心規製結構,以最符合信息科技內在規律的方·037·次提及“算法”,但卻明確表示本條例保護的範圍不包括算法;0\".+\"!

式,達成算法規製的價值目標。

結語人類正在進入一個“算法時代”。算法規製絕非一蹴而就的短期任務,它將持續考驗規製者的能力與智慧。隨著信息科技的日益發達,算法規製的新問題和新挑戰也許會遠遠超出本文的預期,但隻要算法規製在價值目標和機製設計的基本問題上堅持正確的認知,算法規製必將成為信息科技服務於人類發展的關鍵助力。

(蘇宇:“論算法規製的價值目標與機製設計”,原載《自然辯證法通訊》2019年第10期。)·038·區塊鏈技術的算法規製趙磊摘要:互聯網與計算機係統是區塊鏈技術的基礎設施,加密算法是區塊鏈的技術基礎,算法信任是區塊鏈技術的核心機製。借此,區塊鏈技術實現了人際信任、製度信任到機器信任。

區塊鏈算法以客觀數據為基礎,依賴特定運算方法自動運行,不受任何人控製和支配,交易雙方完全信賴算法而非第三方。

區塊鏈算法既是決策自動化的體現,也決策自動化的執行機製。

參與者之間的權利義務必須在事前寫入特定的計算機程序,以充分保障所有參與者的權益。區塊鏈算法改變了傳統法律下的擔保與信用機製。智能合約是區塊鏈算法的核心,也是區塊鏈技術對傳統法律製度衝擊最大的部分。區塊鏈算法的規製要做到在傳統法律框架下運行,依法治鏈與“以鏈治鏈”相結合。

關鍵詞:區塊鏈;算法;共識機製;法律規製市場經濟活動中存在眾多各種各樣的信息中介和信用中介,原因在於交易雙方的信息不對稱導致交易雙方無法建立有效的信用機製。區塊鏈是一種去中心化的共識機製,為解決這一問題提供了全新的思路。互聯網與計算機係統是區塊鏈技術的基礎設施,加密算法是區塊鏈的技術基礎,算法信任是區塊鏈技術的核心機製。借此,區塊鏈技術實現了人際信任、製度信任·039·0\".+\"!

到機器信任。區塊鏈技術涉及哈希算法、非對稱加密以及智能合約等幾種算法,它們的技術特點與功能各不相同,一起構成區塊鏈技術的共識機製。

區塊鏈是去中心化的,其數據的真實性、不可篡改性以及參與者對其的認可,都是通過算法保障的。但是,當推向邏輯極限時,算法治理可能會最終導致係統具有高度規範性和確定性。人們可以自由決定他們要遵守的特定規則集的係統,但在做出選擇之後,就不能再偏離這些規則。

盜取客戶巨額資金的典型案例。

〔2〕因此,〔1〕2016年發生的“TheDao”事件,就是不法分子利用智能合約算法存在的漏洞既可以提高交易效率、保障交易安全,甚至重塑信用機製,也算法是一把雙刃劍,可能會侵害當事人利益乃至社會利益。算法規製既是技術問題,又是法律問題。

一、區塊鏈的算法邏輯區塊鏈技術是一種參與者“點對點”電子係統,這首先依賴信息的分布式存儲,而參與者在信息交換過程中數據的真實性、不可篡改性以及工作量證明則通過特殊的算法邏輯實現。

andtheRiseofLexCryptographia”,availableathttps:\/\/papers.ssrn.com\/sol3\/papers.cfm?

abstract_id=2580664.

個完全由自我執行的軟件組成的線上眾籌係統。TheDAO募集了1270萬以太幣(當時價值約1.5億美元),當以太幣交易價格為20美元時,來自DAO的以太幣總價值StoryoftheDAO—ItsHistoryandConsequences”,Dec24,2017,https:\/\/medium.com\/swlh\/the-story-of-the-dao-its-history-and-consequences-71e6a8a551ee,Jan12,2020.

超過2.5億美元。2017年6月,黑客一夜之間竊取了該平台1\/3的資金。依照DAO的規則,被截留的資金完全合法區塊鏈無法辨識竊賊和客戶。SeeSamuelFalkon,“The〔2〕〔1〕AaronWrightandPrimaveraDeFilippi,“DecentralizedBlockchainTechnology2016年5月,TheDAO是作為以太坊區塊鏈上的智能合約構建的,是一·040·區塊鏈技術的算法規製(一)區塊鏈算法即“上帝”在一項交易中,雙方當事人之間由於信息不對稱,通常要經過長期交往形成的信用機製保障,或者依賴第三方來保障交易安全。如果沒有類似於銀行或者政府這樣的第三方機構確認信息,我們依然無法確認交易對方的身份,無法建立商事活動所需的信任關係。這些中間機構極有可能會因為商業目的或者國家安全,搜集我們的數據和侵犯我們的隱私。

明者中本聰看來,這類係統內生性地受製於“基於信用的模式”〔1〕在比特幣發的弱點,無法實現完全不可逆的交易,因為金融機構總是不可避免地會出麵協調爭端。金融中介的存在,也會增加交易的成本,並且限製了實際可行的最小交易和支付規模。〔2〕隻要交易中存在第三方,就勢必會產生機會主義、代理成本以及交易成本,上述問題都是不可避免的。那種能夠克服人性弱點又沒有任何利益追求的第三方是不存在的,除非是上帝。

著名的密碼學者尼克·薩博在1997年發表的一篇文章就做了這樣的設想:“可以想象一種理想的協議,它擁有最值得信賴的代表所有人利益的第三方——上帝。所有各方都將其信息發送給—上帝,上帝可靠地按確認並向各方反饋結果。上帝是交易過程的最終自由裁量者,一切涉及隱私的信息都由上帝保存,所有參與方都不能獲知與己無關的信息。”〔3〕在現實生活中,上帝是不存在的,尼克·薩博的想法在當時隻能是觀念上的、理想化〔1〕2016,p.3.

〔2〕〔3〕BehindBitcoinisChangingMoney,Business,andtheWorld,NewYork,Portfolio\/Penguin,coin.org\/bitcoin.pdf.

SeeSatoshiNakamoto,“APeer-to-PeerElectronicCashSystem”,https:\/\/bit-NickSzabo,“TheGodProtocols”,https:\/\/nakamotoinstitute.org\/the-god-SeeDonTapscottandAlexTapscott,BlockchainRevolution:HowtheTechnologyprotocols,Jan12,2020.

·041·0\".+\"!

的,在實際操作層麵並不可能實現。直到11年後,中本聰發明了比特幣,其底層技術——區塊鏈——使得這一空想變成了現實。——在比特幣係統中,參與者之間的交易“點對點”進行,通過區塊鏈技術建立起一個去中心化與去第三方的參與者共同協作的機製。區塊鏈是共享的、受信任的分布式公共賬本,網絡中的每一個節點參與所有比特幣交易的認證和備份,當有用戶發起一個交易時,信息會被廣播到整個網絡,通過算力比拚而獲得記賬權的礦工將交易記錄轉化成一個新的區塊連接到區塊鏈中。所有交易信息一旦被記錄就不可能被篡改。在區塊鏈係統中,算法以客觀數據為基礎,依賴特定運算方法自動運行,不受任何人的控製和支配,交易雙方完全信賴算法而非第三方。

因此,算法扮演了上帝的角色。

(二)確認交易的真實性——區塊鏈中的密碼學算法—區塊鏈交易之所以不需要第三方信用,根本原因在於其采用密碼學原理保障交易安全。可以說,沒有現代密碼學的發展就不可能產生比特幣與區塊鏈技術。區塊鏈通過對交易信息數據化,再對這些數據加密傳輸,所有人都可以見證,隻有當事人才有權解密、知悉信息內容。上述交易過程,通過兩種密碼學算法共同完成:一是非對稱加密算法;二是哈希算法。

非對稱加密算法是指對數據進行加密和解密時,需要兩個不同的密碼完成。與之相對的是對稱加密算法中加密和解密隻需要一個密鑰即可。非對稱加密算法在區塊鏈中的運用,將交易中的密碼分為公鑰(publickey)和私鑰(privatekey)。區塊鏈係統的參與者因其角色不同而持有不同的密鑰,當其為交易的見證者時,其僅僅持有公鑰,當其為一項交易的當事人時,其既持有公鑰也持有私鑰。在區塊鏈中,數字簽名可以被用於驗證信息發送者的身份,用戶可以公布自己的公鑰,然後發送·042·區塊鏈技術的算法規製可以被公鑰所驗證的、已經通過私鑰加密過的信息。如果信息的接收者能夠使用公鑰解密加密過的信息,即可證明這條信息的身份屬實。〔1〕區塊鏈係統采用非對稱加密算法,一方麵賦予全網用戶通過公鑰對所有交易予以驗證的權利與義務,保證了交易的真實性;另一方麵隻有交易當事人才能通過私鑰獲取每一個交易的具體內容,保證了在分布式存儲網絡中點對點信息傳輸的安全性與當事人的隱私。

每一個交易信息數據的載體比喻成一個區塊(block),下一個區塊對上一個區塊進行驗證,所有區塊按照產生的先後順序相互連接起來,是為區塊鏈。上一個區塊的信息數據傳遞給下一個區塊,是通過哈希(Hash)算法完成的。哈希算法也叫“安全散列函數”,又稱信息摘要。文章摘要是對文章內容的概括總結,看了文章摘要,我們就能大致了解文章的主要內容。哈希算法也有這樣的功能,它可以把任意的信息集,用非常簡單的信息予以描述。它是一個特別的數學函數:給定輸入很容易得到輸出,但是從輸出計算回輸入不可行。〔2〕區塊鏈使用哈希算法生成交易數據摘要,當前區塊裏麵包含上一個區塊的哈希值,後麵一個區塊又包含當前區塊的哈希值,以此類推,一個個包含哈希值的區塊串連起來,形成一條區塊鏈。在一個區塊鏈係統中,除創世區塊以外,其他區塊都有一個標頭(Header)。區塊標頭包含的是本區塊以及前一個區塊的相關指示信息,包括:一個區塊的版本號、時間戳、難度〔1〕〔2〕區塊鏈(blockchain)之所以使用這個名字,是形象地把對版,第59頁。

期。

唐文劍等編著:《區塊鏈將如何重新定義世界》,機械工業出版社2016年參見姚前:“數字貨幣的前世與今生”,載《中國法律評論》2018年第6·043·0\".+\"!

目標、前一個區塊的哈希值、隨機字符串等等。哈希算法是區塊鏈的底層技術,其上述特性賦予了區塊鏈技術以可靠性。

(三)共識算法即共識機製(Consensus)非對稱加密算法與哈希算法的一並運用構成了區塊鏈係統最為重要的因素——共識算法,也稱共識機製。區塊鏈如果想—達到去中心化的目的,就必須通過共識算法。因為區塊鏈上記錄的數據對所有人可見,而且很難否認和回溯性修改,所以彼此不認識並因此不信任的群體可以依賴這個新的數據結構來協調他們的活動。〔1〕最初的區塊鏈都是公共區塊鏈,參與者在無中心化的情況下分布式存在。

〔2〕而在分布式存儲的計算機係統中,實現參與者之間的信任是非常困難的。

區塊鏈解決這一問題的方案,是為發送信息加入成本,降低信息傳遞的速率,並加入一個隨機數以保證這一段時間內隻有一個參與者(礦工)可以進行傳播。它加入的成本就是“工作量”,區塊鏈的每一個參與者都必須完成一個隨機哈希算法的計算工作量才能向各城邦傳播消息。

〔3〕如前所述,區塊鏈係統的各個節點進行分布式記賬,通過哈希算法保證了每個交易區塊信息傳遞的連續性與真實性,又通過非對稱加密技術保證了信息傳遞的正確性與所有節點一致性。於是,各個節點對區塊鏈係統內的所有信息與數據達成一致認識,而按照同一套協作〔1〕〔2〕治》,王延川譯,元照出版有限公司2019年版,第58頁。

參見[美]PrimaveraDeFilippi、AaronWright:《區塊鏈與法律程式碼之根據區塊鏈的中心化程度不同,區塊鏈可以分為公有鏈(PublicBlock-chain)、聯盟鏈(ConsortiumBlockchain)和私有鏈(PrivateBlockchain)。公有鏈是也是最能體現區塊鏈技術優勢的類型。如無特別說明,本文討論的區塊鏈指公有鏈。

第57頁。

〔3〕完全去中心化的,私有鏈是中心化的,聯盟鏈是多中心化的。公有鏈是最早出現的,參見長鋏等:《區塊鏈:從數字貨幣到信用社會》,中信出版社2016年版,·044·區塊鏈技術的算法規製策略行動,是為形成共識機製。

區塊鏈的類型不同,其共識算法亦不同。因為參與者越分散,越沒有權威的中心化機構存在,共識機製的形成越難。區塊鏈係統的中心化程度越高,共識算法越簡單,中心化程度越低,共識算法越複雜。因此,對於區塊鏈的主要三種類型來說,公有鏈的共識算法最為複雜,相對而言,效率最低、資源消耗最大;私有鏈的共識算法最為簡單、效率最高、資源消耗最小;聯盟鏈居中。

一般來說,公有鏈的共識算法為工作量證明(ProofofWork,POW)、權益證明(ProofofStake,POS),比特幣和以太坊分別采用上述兩種共識算法。這種共識算法下的數字貨幣是工作量證明的表現形式。而對於不需要數字“代幣”的聯盟鏈或者私有鏈而言,共識算法大多采用較為傳統的一致性算法,如拜占庭容錯(PBFT)、Paxos、RAFT等等。

(四)區塊鏈算法——信任機器—區塊鏈通過自己的算法邏輯,使得陌生參與者在沒有任何第三方介入的前提下,實現了相互信任、達成交易。在這一過程中,交易當事人之間的信息不對稱、代理成本與機會主義等影響交易安全的不確定性因素並未消除,隻是通過不依賴人主觀意誌的算法,使得參與者均認可係統內客觀交易數據的真實性。從某種意義上說,這保障了交易的絕對安全。這一切並非人與人之間或者機構與機構之間等任何傳統意義上的信任關係和信用機製,而是參與者對區塊鏈技術的信任。因此,《經濟學人》2015年10月號刊文稱:“區塊鏈是信任機器,可以讓相互並不信任的人們進行協作,而不必經過任何中心化機構。”〔1〕〔1〕coincouldtransformhowtheeconomyworks”,TheEconomist,Oct31st2015.

See“ThePromiseofBlockchain-Thetrustmachine:Thetechnologybehindbit-·045·0\".+\"!

二、區塊鏈算法的決策自動化作為一種計算機技術,區塊鏈之所以能夠去中心化,一方麵是其獨有的算法機製使得所有參與者集體協作,保證了信息的共享性與真實性;另一方麵是係統的運行必須脫離任何人或者機構的控製,才能保障信息的客觀真實、全網一致與不可篡改。區塊鏈算法既是決策自動化的體現,也決策自動化的執行機製。參與者之間的權利義務必須在事前寫入特定的計算機程序,以充分保障所有參與者的權益。區塊鏈的這一特性,為智能合約(SmartContract)在社會生活各個領域的廣泛運用提供了最佳技術支持。

(一)區塊鏈算法與智能合約區塊鏈是分布式係統,各個節點是分布式分類賬本,其不隻記錄其他節點傳遞來的信息。作為共識係統的一部分,其必須確保記錄的交易已經完成,與共識相匹配。就比特幣而言,這意味著係統會自動執行財務彙款。用戶不能在發起比特幣的交易後又反悔,彙款對賬和達成的同步也是交易程序的一部分。

這一機製被稱為智能合約。權利和義務規定以及契約協議的執行都在該平台有所體現。〔1〕智能合約的出現遠遠早於區塊鏈技術,是尼克·薩博在20世紀90年代提出的。尼克·薩博認為這智能合約是一組以數字由計算機係統自動執行。

〔1〕〔2〕〔2〕智能合約是信息化時代電子化、形式指定的承諾,包括各方當事人在其中執行這些承諾的協議,理

譯,上海人民出版社2019年版,第29頁。

參見[美]凱文·沃巴赫:《鏈之以法:區塊鏈值得信任嗎?》,林少偉SeeNickSzabo,“SmartContracts:BuildingBlocksforDigitalMarkets”,http:\/\/2006\/szabo.best.vwh.net\/smart_contracts_2.html.

www.fon.hum.uva.nl\/rob\/Courses\/InformationInSpeech\/CDROM\/Literature\/LOTwinterschool·046·區塊鏈技術的算法規製想化的契約形式,但囿於技術發展水平,在很長一段時間內,其僅僅停留在概念上,直到區塊鏈技術的出現。作為區塊鏈技術的最早應用形式,比特幣交易過程完全是自動執行的。比特幣係統建立在“可複製、共享的賬本”之上,每個參與者均擁有一個完整交易賬本的副本。智能合約是運行在區塊鏈係統可複製、共享賬本上的計算機程序,可以處理信息,接收、儲存和發送價值。基於區塊鏈技術的智能合約,不僅可以發揮智能合約在成本效率方麵的優勢,而且可以避免惡意行為對合約正常執行的幹擾。將智能合約以數字化的形式寫入區塊鏈,由區塊鏈技術的特性保障存儲、讀取、執行整個過程透明可跟蹤、不可篡改。同時,由區塊鏈自帶的共識算法構建出一套狀態機係統,使智能合約能夠高效運行。〔1〕如果把區塊鏈看作是一個數據庫,智能合約就是能夠使區塊鏈技術應用到現實中的應用層,是利用計算機代碼構建並存儲在區塊鏈中的去中心化協議,一旦滿足代碼所設定的條件便會自動觸發合約執行。可以說,智能合約與區塊鏈技術兩相成全,前者拓展了後者的應用領域,後者保證了前者的性能。

最新發展趨勢是區塊鏈允許人們將小的代碼片段(即智能合約)〔2〕上傳至區塊鏈,這樣就可以實現智能合約在互聯網每個節點上分散執行的效果,即區塊鏈作為基礎技術可以自動執行智能合約條款,即使這些條款與法律或合同條款並不存在實質性關係。〔3〕〔1〕〔2〕〔3〕122頁。

長鋏等:《區塊鏈:從數字貨幣到信用社會》,中信出版社2016年版,第趙磊、孫琦:“私法體係視角下的智能合約”,載《經貿法律評論》2019[美]PrimaveraDeFilippiandSamerHassan,“從‘代碼即法律’到‘法年第3期。

律即代碼’——以區塊鏈作為一種互聯網監管技術為切入點”,趙蕾、曹建峰譯,—載《科技與法律》2018年第5期。

·047·0\".+\"!

(二)智能合約的運行機製作為自動決策程序,智能合約既具有計算機程序代碼,也具有傳統合同元素,二者相對獨立又相互聯係。智能合約的運行機製一般包括三方內容:Framework)。這一條件框架既符合合同法規則,也是計算機編碼所必需的。在合同法中,當事人作出允諾以換取其他當事人承諾:如果x這樣做,y就會這樣做。同樣,在智能合約和構成條件語句是必不可少的。本質上,智能合約的自動運行是按照一定條件框架設計的計算機代碼執行其編寫的程序而已。

件框架由多方參與者共同製定,完成智能合約的構建。

第二,架構在區塊鏈係統上的智能合約通過哈希算法進行數據存儲。用戶在某一區塊鏈係統上部署智能合約以後,係統會自動分配給其一個合約賬戶,該賬戶裏保存著智能合約的可執行字節碼。一旦編碼完成,智能合約就會被上傳到區塊鏈係統,全網驗證節點都會收到相關信息,交易數據存儲在區塊鏈上,智能合約賬戶的狀態數據存儲在自己的賬戶內。所有數據均會在區塊鏈係統中永久留下曆史記錄。

第三,智能合約的執行是通過驗證程序代碼完成的。各個節點在收到交易信息後,會自動對其進行簽名驗證,以確保交易的有效性。各驗證節點對某一交易達成共識後,智能合約將自動執行,並通知交易當事人及全網。同時,智能合約自帶的狀態機會判斷所屬合約的狀態,當合約中所有事務都順序執行SeePaulCatchlove,“SmartContracts:ANewEraofContractUse”,LLH473-IndependentResearchProject,Dec.23,2017,https:\/\/ssrn.com\/abstract=3090226,Jan.23,〔1〕〔1〕條第一,每一個智能合約都必須有特定的條件框架(Conditional它的計算機代碼中,條件框架是其核心。在智能合約的編纂中,2020.