沈偉偉:算法透明原則的迷思

 

引 言

近半個世紀以來,算法正以前所未有的深度和廣度,影響和改變著人類活動。依托這一技術革命情境,并伴隨著網絡空間和現實空間的加速融合,算法應用越來越廣泛??梢哉f,在當代社會,算法幾乎無處不在、無所不能,算法應用在發展。與此同時,大數據和人工智能的興起,使算法得以通過基于自我訓練、自我學習過程,實現自我生產和自我更新,算法本身也在發展。

然而,算法是一把雙刃劍。算法可以調節室內溫度,但是也可以把房間變成冰窖火爐;算法可以自動開門,也可以把人們鎖閉在屋內;算法可以自動駕駛,但也可以引發事故;算法可以治病救人,但也可以誤診殺人;算法可以幫助我們更高效地分配資源,但也可以在分配中歧視特定群體……隨著算法共謀、算法失靈、算法歧視等問題的出現,“如何規制算法?”這一命題在近兩三年來,以一種近乎猝不及防的方式被推向前臺,也一躍而進入主流法學界的視野。

就像面對魔法一樣,人們在直覺上對算法引發問題的第一反應,是搞清楚它到底是什么。于是,在規制算法的紛紜眾說中,最廣為熟知、且被普遍認可的,便是算法透明原則。盡管各研究領域的學者對于算法透明原則的內涵認識不一,但大體上,算法透明原則被歸為一種對于算法的事前規制模式,它要求算法的設計主體或者使用主體公開和披露包括源代碼在內的算法要素。讓人頗感意外的是,雖然學界呼吁算法透明原則的聲音不絕于耳,但卻鮮有中文文獻對其作理論性辨析,也沒有對其在實踐中的應用作歸納反思,更不用說其在整個算法規制圖景中如何進行合理定位。在相關研究尚未展開的背景下,有些學者卻已然將算法透明原則作為算法規制的首要原則,甚至樂觀地認為,一旦透明,算法就可知,一旦可知,算法問題就可解。本文可能就是想在對算法透明原則作出理論和實踐辨析后,為這股樂觀情緒潑上一瓢冷水。

在筆者看來,目前有關算法規制的討論,夸大了算法透明原則的作用。本文旨在揭示,算法透明僅在有限的情境下適用,在多數情境下,算法透明原則既不可行,也無必要。依托對算法透明原則的批判,本文嘗試回應一個理論問題:如何規制算法?本文結合學理上事前規制與事后規制、本質主義與實用主義這兩對比照,對算法規制理論重構展開初步思考,并借此闡明以算法問責為代表的事后規制手段,可能才是更加得當的規制策略。而算法透明本身,只能在特定情況下,起到一定輔助效果。

一、算法透明原則

無論是在政治學、經濟學還是法學領域,透明原則已成為現代政府規制的一條基本準則。早在19世紀中葉,杰羅米·邊沁(Jeremy Bentham)和約翰·斯圖爾特·密爾(John Stuart Mill)等思想家,就有針對性地討論過透明原則。這樣的討論,逐漸成為西方自由主義視野的一部分。直至近現代,諸如德里?!す撕图s翰·羅爾斯等自由主義理論家,無一例外地都受到這些討論的影響。在這些西方思想家看來,透明原則的民主政治,有著兩大根本助益:其一,它可以增強公權力機關的可問責性;其二,它可以保護公民的知情權,保護公民免遭專權獨斷。

具體到法學領域,透明原則也一直貫穿于現代法律制度之中。套用美國大法官路易斯·布蘭代斯(Louis Brandeis)的一句流傳甚廣的名言——“陽光是最好的消毒劑”。在美國法中,透明原則不但是公法中形式正當程序(Procedural Due Process)的一個核心原則,而且也在某種程度上,通過相關法律制度的構建,塑造了代議制民主制度。與之類似,在我國,透明原則也成為公法領域的一項原則要求,并且在制度上有著多重體現,比如規制依據公開、行政信息公開、聽證制度以及行政決定公開等。

當然,討論透明原則在規制理論或者政府信息公開中的正當性,已經超出了本文的范圍。本文聚焦于透明原則在互聯網時代的一個具體延伸——算法透明原則。之所以說是延伸,而非屬于相應類目,是因為算法本身并不是由公權力機關所獨享,更多地,也會被私營機構所使用。具體而言,民主政治語境下的透明原則,也僅僅是在公權力機關,或者部分帶有“公共性”的私營機構使用算法時,才涉及到傳統公法的透明與信息公開問題。而本文所指的算法透明原則,既適用于政府的算法規制,也適用于私營機構的算法規制;也正是在這個意義上,它有著更豐富的內涵。

雖說有關算法透明的討論早已有之,但必須承認的是,21世紀初的兩次美國總統大選,大大推進了人們對算法透明的關注,可以稱得上是“神助攻”。2000年大選,首次采用電子投票器。最終,在沸沸揚揚的布什訴戈爾案(Bush v. Gore)中,投票設備(包括老式打孔機、光學掃描機和電子投票機)的透明性和公正性,成為了全社會關注的焦點。作為回應,2002年美國國會通過了《協助美國投票法案》(The Help America Vote Act of 2002),著力推廣電子投票機,并配套相應管理措施。之后,大量科技公司看到電子投票器的商機,紛紛涌入這一領域。然而,各類新開發的電子投票器的大規模應用,不但未消舊愁,反而又添新憂:選民們怎么知道這些電子投票機在何時將數據上報到計票中心?而計票中心是不是準確無誤地記錄下每一個人投出的選票?誰又能確保選票數據統計沒有造假或者選票數據庫不被黑客攻破?算法透明,被認為是投票監管的一劑良藥,因而受到廣泛討論。

其后,算法應用在廣度和深度上的增加,也有力推動了對算法透明的持續討論,乃至使其逐漸成為該領域內的一項原則性提議。當然,不同學者們對算法透明原則存在不小的認識差別。這個現象在交叉學科研究中也十分常見。這種差別,用“言人人殊”來形容,略嫌夸大,但換個說法,用口徑不一來形容,應該是恰如其分的。不過,對于該原則的認識,還是存在最大公約數——即針對算法的事前規制原則,要求算法的設計方或者使用方,披露包括源代碼、輸入數據、輸出結果在內的各項要素。弗蘭克·帕斯奎爾(Frank Pasquale)對于算法透明的理解,更為復雜而深入,他在不同的著述中,曾把算法透明理解為綜合源代碼公開、算法分析、算法審計等手段合理促成的算法透明,他的這種理解,當然給他的理論帶來更強的解釋力,但是也在一定程度上模糊了算法透明與其他規制手段的邊界,從而可能會給理論和實務都帶來很大麻煩?;谝陨峡紤],本文取狹義上的算法透明概念。

算法透明原則最終的落腳點,是對于算法自動化決策的規制。而算法所主導的自動化決策可以概括為:基于輸入數據,通過算法運算,實現結果輸出。從這個意義上看,如果對算法沒有一個明確的認知,也就無從判斷算法自動化決策是否公正。表面上來看,算法透明,就是打開黑箱而將“陽光”灑落整個自動化決策過程的理想手段。

與傳統的透明原則能帶來的優勢類似,算法透明同樣在可問責性和知情權兩個維度發揮作用。其一,算法透明可以讓算法操控者變得更具可問責性,一旦出現精確性和公平性的偏差,可以依據所披露的算法來主張算法操控者的責任。更甚之,較之人為治理的透明原則,算法透明原則還隱含著一個算法治理本身的優勢,亦即,人類決策者的內在偏見和私念很難被發現和根除,但假如我們窺探算法的“大腦”,即整個決策和執行過程,就可以變得更透明、更容易被監督。其二,算法透明也賦予算法規制對象一定程度上的知情權,而這種知情權有利于第三方(尤其是專業人士)實施監督,也有利于算法規制對象依據所披露的算法,在事后對算法決策提出公平性和合理性的質疑。

正因為算法透明有著這些好處,許多論者對算法透明原則趨之若鶩。更有樂觀的論者認為,只要算法透明,甚至只需源代碼公開,就可以解決很多現實中的算法問題??梢哉f,在當前國內,算法透明原則儼然成為了算法治理實踐和學術討論首當其沖的基本原則。

二、算法透明原則可行嗎?

算法透明原則本身,是不是一個不容置疑的金科玉律呢?算法透明原則真的那么有用嗎?在算法運用越來越廣泛、而由此引發的問題越發復雜的情境下,是不是可以說,算法越透明越好呢?答案并不是那么簡單。

如果單單從美國大選投票算法中的例子出發,我們會很自然地把算法透明原則與自由主義傳統下的政治學、經濟學和法學中的透明原則密切聯系起來。然而,這很可能是以偏概全。一方面,算法透明原則——如果得以踐行——無論在外延上,還是在內涵上,都與傳統的透明原則有所不同。另一方面,雖然本文第一部分闡述了算法透明原則與傳統自由主義下的知情權和可問責性之間存在交叉,但不能否認,比起傳統自由主義的透明原則,算法透明原則蘊含著更大的內在張力和具體限制。

接下來,本文將分別探討算法透明原則的兩個根本問題:算法透明原則是否可行以及算法透明原則是否必要。本部分通過具體規制情境,考察算法透明原則的可行性問題。事實上,算法透明原則作為一項帶有普遍強制性的法律原則,它有可能會與國家安全、社會秩序和私主體權利等法益相沖突,不具有作為與基本法律原則所匹配的普遍可行性。

(一)算法透明vs.國家安全

無論古今中外,公開和保密,一直是國家治理中至關重要的理念。具體到算法治理領域。哪些算法可以公開,向誰公開,公開到何種程度,都需要放在國家安全這一棱鏡中,著重考察。而對于以國家安全為由的保密義務,許多國家在政策和法律層面都給予了高位階保護。比如,我國的《國家安全法》《網絡安全法》《保密法》以及美國的《國家安全法案》《愛國者法案》等。這些法律在很大程度上,都給相關的算法透明設置了障礙。換言之,當算法透明與國家安全相沖突時,算法透明的可行性必將遭受挑戰。

舉例而言,為了方便機場安檢效率,全球大部分國際機場都采取了抽樣安檢策略,即在常規安檢之外,抽取特定人群進行更嚴格繁瑣的檢查。如此一來,既可以保證機場安檢的速度,又能給恐怖分子帶來一定威懾力。抽樣的程序,則由算法來執行。假設為了防止對特定群體的歧視性抽樣,根據算法透明原則,公眾要求公開抽樣算法,那么,機場應不應當讓算法透明呢?可以想見,一旦算法透明,恐怖分子有可能根據公開的算法進行博弈,謀劃規避手段來避免被嚴格檢查,或者根據算法所提供的隨機性邏輯來合理定制所需樣本試錯數量。再比如,假設某次導彈試射演練后,制導系統的算法失靈,致使導彈偏離既定彈道,炸毀民用設施,并造成傷亡。那么,公眾是不是可以就此要求算法透明,要求軍方公開制導系統的算法呢?后文將提出更合理的解決方案,但就本節所討論的主題而言,即便公眾的訴求完全公平合理,但本案例中算法透明的可行性,也將在很大程度上受到限制。

在上述兩個案例中,很顯然,如果堅持貫徹算法透明原則,將有可能導致產生國家安全隱患(飛機航路安全與軍事設施安全等)。換言之,對于算法透明原則而言,當其與國家安全相沖突時,不可避免地會受到國家安全的限制。比如美國911事件過后,以小布什總統為首的保守派政治家,強烈抵制政府在國家安全領域的透明化,聲稱贏下“反恐戰爭”的唯一手段,就是讓美國變得和它的影子對手一樣神秘。于是,以《愛國者法案》為代表、以國家安全為由對抗信息披露的法律政策,也就應運而生。同樣,我國在《憲法》第53條、《國家安全法》第4、19、28、29條與《網絡安全法》第77條,以及其他法律法規中,都對涉及國家安全、國家秘密的信息披露,進行嚴格限制。這些都是算法透明原則在不同的適用領域所需面對的重重關卡。

綜上所述,由于通常國家安全往往比算法透明背后的考量有著更高位階的權重,因此,一旦出現這一組對立,國家安全將對算法透明實施“降維打擊”,這樣一來,算法透明原則的可行性就很難得到保證。這便構成了算法透明可行性的第一道也是最難逾越的一道障礙。

(二)算法透明vs. 社會秩序

算法透明也可能與社會秩序背道而馳。我們以當前應用廣泛的智能語言測試系統為例。智能語言測試系統的應用,為的是測試的便捷和標準化。語言測試系統的判分算法信息,具有很強的保密性,不能被隨意披露。不難想見,一旦這類信息被披露,就很可能讓不法分子鉆算法的空子,與語言測試系統博弈,也讓整個測試無法達到其應有的考察目的。類似的情況也會發生在抽獎活動中,如果抽獎環節所使用的算法一開始就被披露,那么,投機分子就可能采取各種手段——比如破解算法直接干預抽獎環節、選擇算法抽獎所青睞的時機和頻次進入抽簽環節——博弈,以及操縱抽獎結果等。

當然,網絡空間中最經典的例子,當屬搜索引擎優化(Search Engine Optimization)。起初,搜索引擎服務提供商,曾樂于踐行算法透明,將其搜索引擎算法公之于眾。比如,谷歌早期的Page Rank排名算法的排序標準就曾公之于眾。然而,出乎谷歌意料的是,某些惡意網站(尤其是內容農場、商業廣告網站、釣魚網站、惡意代碼網站等)利用這些被披露的排序算法,玩起了“貓捉老鼠”的游戲——采取搜索引擎優化來與谷歌排序算法展開博弈,讓一些本不應被優先排序的網站,擠進了搜索結果的靠前位置。如此一來,人們也就更難通過谷歌得到理想的搜索結果。換句話說,谷歌Page Rank排名算法越透明,其搜索結果排名就越容易被博弈和操控,最后影響到公眾對于搜索引擎的體驗。也正因如此,谷歌以及其他搜索引擎,逐漸收緊算法披露,到最后,谷歌幾乎明確拒絕算法透明,甚至將已公開的算法作出秘密調整。就這樣,谷歌搜索引擎算法徹底變成黑箱,而這個黑箱,反倒成了公眾獲得理想搜索結果的保障。

上述案例僅僅涉及算法程序披露,而對于輸入數據(作為算法的一部分)披露的案例更是不勝枚舉。屢屢出現的計算機考試漏題案件,就屬于這類輸入數據披露對于社會秩序的影響。篇幅有限,不一一贅述。由此可見,算法透明在實踐中可能會與社會秩序發生沖突,這便是算法透明可行性的第二道障礙。

(三)算法透明vs. 私主體權利

算法透明原則,將不可避免地帶來信息披露,而在遍布私主體信息的當代社會,信息披露將很可能與私主體權利(尤其是個人隱私、商業秘密和知識產權)相沖突。比如,在金融信貸、個人征信和醫療診治等領域,算法已經得到普遍應用,這些領域中的法定保密義務和約定保密義務,會給算法透明原則的實現造成很大阻礙。這是因為在被披露的算法中,往往既涉及到敏感的個人隱私,也涉及到關鍵的商業秘密和知識產權。這些敏感信息或機密信息,可能作為算法程序的一部分,或者可能作為輸入數據、輸出結果,甚至可能兼而有之。

上述此類信息披露,勢必與隱私保護、商業秘密保護、知識產權保護等法律法規或合同約定相沖突,并受到后者的限制。這一現象在金融信貸領域最為典型,且不說用戶個人隱私屢屢成為金融機構拒絕透明的擋箭牌,金融機構還常常利用專利權、版權、商業秘密甚至商標權等私權,來對抗算法透明。當然,就如下文將要討論的States vs. Loomis案那樣,開發算法的公司所最常使用的抗辯,依然是將算法作為商業秘密來尋求法律保護。類似的情況,不勝枚舉。

本文可以繼續堆砌案例,但上述案例足以表明,算法透明原則并不是一個普適原則。當然,反過來說,這并不表明算法透明原則在任何情境下都不可行;這也不表明,一旦出現與上述三種考量因素的沖突,算法透明原則就必然走投無路。即便與三種制約因素存在沖突,但只要沖突是在合理范圍之內,其可行性也依然存在。比如,前文提到的投票機案例,如若將投票機的算法公之于眾,無論是從國家安全、社會秩序、私主體權利等哪個角度來看,他們對可行性的阻礙均很難成立。唯一可能存在的隱患是,假如投票機的算法公開,會增加不法分子侵入系統篡改投票結果的風險,但是這樣的風險,可以在技術上和監管上加以限制。

綜上所述,本部分從國家安全、社會秩序和私主體權利等三個方面,質疑算法透明原則的可行性。換言之,算法透明原則至少會受到上述三方面考量的限制,并非放之四海而皆準。

三、算法透明原則必要嗎?

本文第二部分論證了算法透明并不是一個普適原則,在一些情況下并不可行。接下來要回應的問題是:即便是在算法透明可行的情形下,算法透明原則是否具有必要性?顯然,比起可行性問題,更麻煩的問題是,當人們好不容易克服可行性障礙而最終實現算法透明時,卻發現算法透明仍然無力兌現其規制承諾。對于算法透明必要性這一問題,本部分將從兩個方面分別展開論述。

正如本文第一部分所提到的,算法透明就是打開黑箱、灑下“陽光”。那么,我們首先要回答:算法透明是不是就等于算法可知?如果這一前提條件不能成立,或者不能完全成立,如果黑箱套黑箱,或者“陽光”灑落在一塊謎團上,那么,算法透明原則所能帶來的諸多益處,也就仍然無法兌現。

(一)算法透明≠算法可知

在一些學者看來,算法透明就足以幫助我們了解算法的所有奧秘。如果說在早前技術尚未精進的時代有這種說法,倒可稱得上是值得商榷,但在現如今還秉持這一觀點,則就讓人費解。在筆者看來,算法透明不等于算法可知。在它們之間,至少存在如下四道障礙:披露對象的技術能力、算法的復雜化、機器學習和干擾性披露。

披露對象的技術能力這一問題,是比較好理解的。當披露對象是非計算機專業人士時(比如與公共政策和法律裁判關系密切的法官、陪審員、執法官員和普通公眾),算法本身是難以辨識的。他們的技術能力有所欠缺,因此,即便向他們披露源代碼和相關技術細節,可對他們而言,代碼即亂碼、算法像魔法,可能還是無法搞清自動化決策究竟是怎么做出的。外行只能看熱鬧,內行才能看門道。不可否認,外行可以借助內行來幫忙(比如專家證言),但這其中,可能會有成本和偏差。

如果說上述第一個障礙是阻擋外行的門檻,那么,后面三個障礙,就把外行內行統統拒之門外。先說算法的復雜化。事實上,即便是簡單的算法,也存在不可知的情況,比如計算機領域著名的萊斯定理(Rice’s Theorem),就證明了某類算法的不可知屬性。隨著技術的不斷演進、算法分工的不斷精細以及社會生活對于算法需求的不斷提升,大量算法變得愈發復雜。此處之所以著重強調復雜性,是因為復雜算法的不可知情況更具代表性——它既包含了單一算法本身的原因,也包含了更普遍的、多組算法模塊交互的原因。而算法的復雜化,會給算法的解釋工作帶來很大難度。當然,這在計算機科學發展史上并不新鮮。計算機工程師應對這一問題的通行做法是:將算法系統模塊化。對于模塊化后的算法,計算機工程師再分別解釋各部分子算法,各個擊破,最后通過重新組合,解釋整個算法系統。雖然通過模塊化的分工,可以解決一部分復雜算法的解釋問題,但即便如此,就連計算機工程師也承認,算法復雜化模塊化,會令各個部分算法之間的相互反應變得不可預測。與此同時,如果要保證模塊化處理運行順暢,就需要在算法系統設計之時,進行整體規劃;否則,復雜算法的模塊化解釋,也很可能達不到預期效果。在很多情況下,復雜算法應用和交互(比如API和云計算)無法確保我們從多個模塊解釋的組合中,或者與其他算法的交互中,對算法進行準確解釋。簡言之,算法的復雜化加大了我們理解算法的困難;而模塊化這一解決進路,如果不是在算法系統設計之初就事先規劃,也不能很好地解決復雜算法的解釋問題。

相比算法的復雜性,機器學習對于算法可知的挑戰,吸引了更多關注。傳統算法要求計算機工程師事先指定一個表示結果變量的運算模式,作為以特定方式選定解釋變量的參數,以此來決定輸出結果。與傳統算法不同,機器學習,作為一種更智能、更動態的算法,其運算不受固定參數所控制,也正因此,機器學習并不要求工程師事先指定運算模式。當然,“不要求”不等于“不能夠”,機器學習的門類中,也存在計算機工程師事先指定運算模式和控制學習材料的監督學習,與之對應的是運算更為自由而不可控的無監督學習和強化學習。對于這三種機器學習算法的通行分類,筆者無意展開技術分析。唯一與本部分論證有關的是,相對于后兩者而言,計算機工程師對于監督學習的把控度更高。對于后兩者,只要機器學習算法正在動態運行,我們就無法控制他們如何組合和比較數據,自然也無法順利地解釋機器學習算法本身。

而與算法可知直接相關的是,對于機器學習算法,其運算的函數關系不一定是固定清晰的數據集合。我們既無法保證機器學習過程代表任何一組真實關系,也無法通過此刻的因果關系,來推導未來的因果關系,因為算法本身不斷學習、不斷變化,在算法披露的那一刻過后,披露的算法就已經過時。古希臘哲學家赫拉克利特那句名言“人不能兩次踏進同一條河流”,在機器學習中找到了最好的印證。最典型的例子,便是智能廣告推送算法,上一秒出現的推送結果,算法會根據你是否在頁面停留或點擊推送,進而計算出下一秒的推送結果。再比如,大部分垃圾郵件過濾算法,都使用郵件地址和IP地址的黑名單,應用最為廣泛的,便是Spamhaus,其郵件地址和IP地址也是根據用戶舉報和自身機器學習實時更新,換句話說,其這一刻不在黑名單上的郵件地址和IP地址,很可能在下一刻就會上黑名單。

由于機器學習的決策規則本身,是從被分析的特定數據中不斷生成的,因此,除了極少數被嚴格控制的監督學習以外,我們根本不能考察靜態的源代碼或原始數據,無法用這樣一種刻舟求劍的進路,來推斷機器學習算法的運算結果。也就是說,對于絕大部分機器學習的輸出結果,無論輸入和輸出的因果關系在表面上看起來多么直觀,這種因果關系都很可能根本無法被解釋,其動態的變化也更難以把握。更重要的是,對于機器學習(尤其結合了強人工智能和神經網絡等技術的機器學習)而言,輸入數據的變化和累加,使得算法推算結果背后的深層原因,變得難以把握,在這個意義上,它本身就是一個無法實現透明的“黑箱”。而且,機器學習所推導的“因果關系”,在很大程度上取決于輸入數據,這類因果關系只能是統計意義上的因果關系,它與規范意義上的因果關系,存在一道難以跨越的鴻溝。例如,谷歌研發的強化學習算法——AlphaGo。設計AlphaGo的計算機工程師,都是棋力一般的業余愛好者,無法與柯潔、李世石這樣的頂尖高手較量。但恰恰是這些工程師設計了AlphaGo,把頂尖高手一一擊敗??梢韵胍?,這些工程師本人是沒有辦法一一解釋AlphaGo的每一步棋招——如果工程師真的能理解每步棋的奧妙,那么他們自己可能就是世界冠軍了。換言之,AlphaGo通過機器學習習得的競技能力,工程師根本無法企及,他們的每一步棋,也自然超出了工程師的理解范疇。

最后一個阻礙算法透明向算法可知轉化的障礙,是干擾性披露。與前三個與透明直接沖突的原則不同,干擾性披露本身,也可以被看成是算法透明的一種方式。它通過披露大量冗余干擾性數據,混雜在關鍵數據中,以此妨礙解釋關鍵數據內容。也正是在這個意義上,干擾性披露是算法透明的一個典型悖論,亦即,公開的越多,可能對算法關鍵內容的理解就越困難。

其實,在《黑箱社會》一書中,帕斯奎爾就論述過這個現象,他稱之為“混淆”(Obfuscation),其內涵與干擾性披露是一致的,就是指刻意增加冗余信息,以此來隱藏算法秘密,帶來混淆。值得一提的是,帕斯奎爾的《黑箱社會》里,更多是指出黑箱社會或者說算法不透明帶來的問題,而關于解決之道,他也并非一味奉行算法透明。哪怕極力主張算法透明的帕斯奎爾,也承認干擾性披露本身,也是算法黑箱的始作俑者之一。因為公開的算法內容越多、信息量越大,算法分析的工作量和難度也會隨之增加,在這個意義上,我們也與算法可知越來越遠。這就好像有些公司為了妨礙會計審查,有意披露大量的冗余材料,讓調查人員不得不在幾萬份材料里大海撈針。而干擾性披露的存在,不但妨礙了算法可知,而且從另一個角度也強化了本文對于算法透明必要性的質疑。

綜上,算法透明不等于算法可知,甚至有可能會妨礙算法可知。算法透明并不是終極目的,它只能是通向算法可知的一個階梯。并且,這一階梯也并非必由之路,這一點,將會在本文第四部分進行論述。因此,對于某些算法,即便算法透明,如果未能達到算法可知,也是于事無補,甚至適得其反。事實上,這是算法透明原則與傳統公法上的透明原則所存在關鍵區別。傳統公法上的透明原則,無論是立法上的透明,還是執法與司法上的透明,盡管不能百分百排除明修棧道、暗度陳倉的可能,但大體上,社會公眾都能對所披露的信息(文本、音視頻內容)有著較為明晰的認識。而算法透明原則卻不盡然。一旦透明之后亦不可知,其透明性所能帶來的規制效果也就無從談起;更甚之,像干擾性披露那樣誤導披露對象,反而會減損而非增強規制效果。

(二)算法透明不能有效防范算法規制難題

對于算法必要性的第二個質疑,涉及到算法規制的實踐。此處所要討論的問題是:即便算法透明原則可行,那么,其是不是就像一些學者認為的那么必需,那么靈驗,能防范算法歧視、算法失靈以及算法共謀等各類算法規制難題?本文認為,究其本質,算法透明原則僅僅是一種事前規制方式,我們不能夸大其在規制中的效用。

首先,算法即使透明、可知,也不意味著算法問題必然能被發現。單就算法漏洞而言,就包括了輸入漏洞、讀取漏洞、加載漏洞、執行漏洞、變量覆蓋漏洞、邏輯處理漏洞和認證漏洞等。這些漏洞中的一部分,的確可通過算法透明來防患于未然,但另外的部分,卻需要在算法執行過程中,才能被發掘并加以解決。比如,著名的Heartbleed安全漏洞,從程序開發到安全漏洞被發現,用時整整兩年,而該算法是開放源代碼,完全符合算法透明原則——算法透明原則并不能幫助工程師在兩年間發現這一漏洞。

其次,即便算法透明,計算機工程師也不能確切預測算法與外部運行環境的交互。對于一些算法而言,它們的運行,需要依賴于外部環境,比如外部軟件和外部客觀條件等。例如,對于航空智能控制程序,需要根據特定時間的風向、風速、天氣狀況、飛機飛行角度等諸多外部客觀條件,來決定具體輸出的結果。而最近波音飛機由于算法失靈接連發生兩起墜機事故,恰恰證明,即便算法透明,我們也無法有效避免算法失靈。而有賴于云計算、API等技術,目前算法與外部環境的交互已變得越來越頻繁,這種交互帶來的情境變化,讓算法透明更加無力承擔化解算法問題的重任。

最后一點,也和算法透明的事前規制性質有關。即便算法透明,在執行算法的過程中,仍然無法保證排除第三方干預,從而影響最終結果。就像克魯爾(Joshua A.Kroll)等人所指出的那樣:“不管算法有多透明,人們仍然會懷疑,在他們自己的個案中,公開的算法規則是否真的被用來做出決策。尤其是當這個過程中涉及到隨機因素時,一個被安檢抽查或被搜身的人可能會想:我難道是真的是被公平的規則選中了嗎?還是決策者一時興起,挑中了我?”比如,在State v. Loomis一案中,一位名為盧米斯(Eric Loomis)的犯罪嫌疑人,被COMPAS(Correctional Offender Management Profiling for Alternative Sanctions)算法裁判為“累犯風險較高”。COMPAS通過算法計算出罪犯在前次犯罪后兩年內的“累犯風險”,而算法所依據的是罪犯的各項生理特征和社會背景。COMPAS通過算法,可以給每一位罪犯計算出他的“累犯風險指數”。誠如盧米斯的訴狀所主張的,不管COMPAS算法有多透明,他仍質疑,在自己的案例中,公開的算法規則是否真的被用來作出決定。再比如電子酒精測試儀的算法。算法的披露,并不能保證測試結果的公正。在執行過程中,探頭可能老化失靈、執法人員可能因操作失誤、受賄、種族性別歧視而有意控制探測部位等等,規制程序的諸多環節,都可能使透明算法規則導出不公正的裁判。換句話說,如果我們在算法公開和被披露之后,在執行算法的環節,受到算法之外的第三方因素介入,就像電子游戲的“外掛”或者黑客入侵程序一樣,仍然可能導致算法得出不公正結果。而這些算法規制的問題,是所有事前規制手段的一個盲區。

在此,筆者并不是想證明,除了算法透明原則之外,其他的規制手段在應對執行環節的問題時,就能無往不利。本文只想指出,算法透明原則作為一項事前規制,有著它自身的局限,它并不能提供解決算法問題的萬靈藥方。而算法不透明也可能有其自身的價值(比如隱私保護、國家安全等),一味強調透明,非但不能保證解決現有問題,還可能帶來新的算法規制問題。

四、算法透明的合理定位和算法規制的重構

從算法透明的可行性和必要性兩個維度而言,該原則在算法治理中存在缺陷和不足。盡管如此,我們不能否認,算法透明原則仍然在某些情境下,有其適用的可行性和必要性。于是,本部分結合其他相關規制模式,探討算法透明原則在算法規制中的地位問題,并進一步重構目前的算法規制理論。

(一)計算機科學角度的算法透明

首先,我們來考察一下計算機科學角度的算法透明。美國計算機協會(Association for Computing Machinery)作為算法治理的業界權威,在2017年,公布了算法治理七項原則(見下表)。

從上述列表中,我們可以得到四個有關算法透明的教益。

第一,知情原則對應的是算法透明中算法規制對象的知情權這一面向。但是,計算機工程師對于算法透明中的“知情”有更務實的把握———直接公開源代碼不等于知情;而且,我們還需關注更深層次的“知情”,亦即“算法設計、執行、使用過程中可能存在的偏見和可能造成的潛在危害”。

第二,計算機工程師對于算法透明的功用,有著更為清醒的認識,他們認為即便是公開和披露算法,也無法確切把握最終運算結果。于是,他們使用了“可能存在的偏見”(第1項和第5項)和“可能造成的潛在危害”(第1項)這樣的模糊字眼,其所隱含的信息是,我們對算法的認知,只能力圖接近,但很難確切把握。這與部分法律人對算法透明脫離實際的期許,形成鮮明對比。

第三,計算機工程師明確意識到,算法披露本身,也受到其他條件的制約,比如第5條提到的隱私保護、商業秘密和惡性博弈。而這些制約,正如本文第二部分論述的那樣,與算法透明的可行性有著持久的張力。盡管限制披露對象(只對適格的、獲得授權的個人進行選擇性披露),可以緩和這種張力,但這也無法根本解決所有沖突。

第四,對于前文討論的算法規制的兩大類別,計算機工程師所關注的,是事后規制,而非事前規制。除了第1項的部分內容和第5項之外,其余手段大體上均為可以納入事后規制范疇。

從上述分析我們可以看出,計算機工程師——作為對算法技術比較熟悉的專家——對算法透明的局限,有著清醒的認識。一般而言,工程師更關心技術的細節,而法律人更關心技術所帶來的權利、義務和責任。照此邏輯,比起法律人,工程師應該更關注算法透明所能帶來的對于技術細節的理解及其對算法規制的意義。然而,在計算機工程師眼里,算法透明卻并不處于算法規制的核心地位,這很能說明問題——要么就是算法透明,由于客觀原因而難以實現,或者即便能夠實現,也無法確保他們對于技術細節的理解;要么就是算法透明本身不足以讓我們能夠解決相應的算法規制問題?;蛟S正是因此,以美國計算機協會為代表的業界,并未對算法透明報以奢望,而是傾向于事后規制(如救濟、審計、解釋、驗證、測試、問責等)為主的規制策略。

(二)算法透明原則的合理定位

算法透明原則僅僅是一種事前規制方式,盡管在某些情形下有可能實現“防患于未然”的作用,但是,我們并不能夸大其在規制中的效用。算法透明并不是終極目的,它只能是通向算法可知的一個階梯。而算法可知,最終也要服務于其他規制手段。這一點與上述計算機工程師對算法透明的定位相吻合,也可以呼應透明原則的傳統政治學定位。

更重要的是,算法透明所能帶來的規制效用,在很大程度上,可以被以算法問責為代表的事后規制手段所涵蓋。算法規制最成熟的實例之一,便是美國對于

P2P算法在音視頻內容分享領域的規制。P2P算法本身只是一種更為高效的文件傳輸技術,但在它問世之后迅速被用來傳播音視頻文件,其中大部分都是盜版內容。為了治理這類算法濫用,音樂電影產業和互聯網公司的合力推動了版權立法和司法,而這種規制,更多地是以事后算法問責的形式出現。對于版權領域的算法問責機制,美國法傳統有著多個層級的民事或刑事責任可以被運用,比如法人責任(Enterprise Liability)、替代侵權責任(Vicarious Liability)、幫助侵權責任(Contributory Liability)和產品責任(Product Liability)等。這一系列算法問責機制,對于算法的設計、執行和使用各個環節,都具有規制力。而算法本身,或者說算法透明所指向的算法可知,對于厘清侵權事實或許有一定幫助,但卻不是問責機制的重點。哪怕曾被P2P技術案件中所關注的“中心服務器模式”和“去中心服務器模式”的區分——可以通過算法透明來厘清——也可以在隨后的判例中被消解,法官后來只看重的是算法在后果上,是否構成法律意義上的“幫助侵權”,而不是技術層面的“中心服務器模式”和“去中心服務器模式”的區分本身。

正如前文分析所示,無論是從技術現實角度,還是從法理邏輯角度,算法透明都難以承擔算法規制基本原則這一定位;充其量它也只能扮演一個輔助角色。打個比方,算法透明原則在算法規制中的地位,就類似于《福爾摩斯》中的華生醫生——他對于簡單的案件事實調查和分析可能對福爾摩斯辦案有幫助,但不是每個案子都派得上用場。弄清了算法透明作為華生醫生這一定位,下文將給出線索,幫助我們尋找算法規制領域真正的“福爾摩斯”。

(三)算法規制的重構

正如前文所述,傳統政治經濟學對于透明原則的考量,出發點都和限制公權力密不可分。一方面,透明原則可以加強對于政府的可問責性;另一方面,透明原則也可以賦予公民更大的知情權。然而,傳統透明原則與本文所討論的算法透明原則,在內在邏輯和實際應用方面,都有所不同。盡管政府也開始逐步使用算法施政,但目前大部分算法(包括大部分政府所使用的算法)都是由公司所開發,且這些算法的行為后果也不僅僅限于公民(也可能包括政府本身),因此,對于透明原則所能帶來的強化政府可問責性和公民知情權兩方面理據,并不能——至少不能完全——適用于算法透明原則。更重要的是,正如前文所述,比之傳統政治經濟學上的透明原則,算法透明原則在可行性和必要性上,有著很大瑕疵。換句話說,在實際應用層面上,算法透明原則也難以兌現我們對傳統透明原則所期待的規制效果。

當然,本文前面的內容,集中討論了算法透明原則在算法治理中的應用及其限制??墒?,到目前為止,本文還沒有具體展開“如何規制算法”這一核心問題?;谖覀儗λ惴ㄍ该鞯暮侠矶ㄎ?,接下來,本文將拋磚引玉,提出算法規制重構方面的一些思考。由于算法透明在規制效力上的不足和限制,它僅僅能在一些情境下作為輔助規制手段。在應用特定的技術措施來矯正算法問題之后的事后規制,尤其是算法問責,應該是法律人所更應關注的重點。

通常而言,事前規制注重于損害發生之前的防范,而事后規制則注重損害發生之后的解決。就像P2P算法規制所揭示的那樣,對于這兩種不同規制進路的強調,有著強烈的現實意義。并且,如果我們從成本收益分析的維度切入這一現實意義,就可以看得更加清晰。事前規制往往在損害防范成本低于損害發生成本時,被優先采用。在算法規制這一領域,如前所述,算法透明作為事前規制模式的一種,其防范損害發生的成本太高(尤其在面對機器學習和人工智能之時),而同時收效也沒有保證。必須承認,技術發展是一個動態、多維度的過程。如果未來可以回到我們在算法原初之時對它的把握和認知,那么算法透明的成本是可以降低的。但目前我們看到的趨勢,正好與之相悖。2019年圖靈獎就頒給了研究人工智能和深度學習的幾位科學家,而他們的研究成果,恰恰是增加算法透明的成本。即便損害發生的成本很高(比如飛機失事),也不能保證算法透明這一事前規制模式,是經濟學上的更優選項。而事后規制在成本方面的好處主要有兩點:其一,事后規制把一些很難獲知且不一定有用的技術細節,利用事后規范或者追責的方式抹平——我們把注意力集中到通過責任分配等手段來解決,而從成本收益角度跳出了泥潭;其二,比之事前規制,事后規制在信息成本方面有著天然優勢——行為和后果往往在事后更容易得到明確,這點對于復雜算法所引發的后果尤其顯著。本文限于篇幅,無力對算法規制作出細化的成本收益分析,但總體而言,筆者認為,事前規制在多數情況下,并非算法規制的更優選項,而作為事前規制手段的算法透明,更由于其在可行性和必要性上的不足,比之其他事后規制手段,其成本收益更顯劣勢。

除了成本收益考量之外,這兩種進路的對比,也在某種程度上,折射出更深層次的兩個算法規制理論面向:本質主義(Essentialism)和實用主義(Pragmatism)。這不禁讓人想起幾年前,雷恩·卡洛(Ryan Calo)和杰克· 巴爾金(Jack Balkin)關于機器人規制的辯論。

對于機器人的規制,卡洛秉持本質主義進路,關注其機器人的技術特性,認為我們一定要先搞清楚機器人的技術特性,然后再根據這些技術特性,來實施對技術的規制。

巴爾金對卡洛本質主義的批判,非常有力也富有啟發。他指出,包括卡洛本人在內的幾乎所有當代美國法律人,都受到霍姆斯大法官的法律現實主義的影響。而按照法律現實主義者對于法律與技術的理解,技術特點其實并不那么重要,真正重要的是技術的應用方式以及這些應用所帶來的、以權力配置為代表的社會關系變化。這是由于技術的背后,還存在著人們怎么使用、博弈甚至規避技術這些具體實踐。而就像喬納森·茲特芮恩(Jonathan Zittrain)提到的創生性(Generative)技術那樣,人們在使用技術的時候,往往會背離開發人員的初衷,也可以有很多變化,并在使用過程中不斷地改進技術。法律人應該關注這些技術變動背后的社會關系變動,而不是變化的技術本身。這顯然是非?;裟匪挂卜浅嵱弥髁x的觀點。

讓我們回到P2P技術的例子。究其本質,P2P技術就是一個共享文件的軟件,但迅速被用來傳播盜版音視頻文件,并且依據這一特定需求,而開發出很多新的附帶播放、緩存、去中心化等功能的盜版音視頻共享“神器”。如果我們接受巴爾金的觀點,把重點放在考察技術背后的社會關系,我們就能夠跳出本質主義所設置的迷宮,更直接地回應具體的規制問題。不再過多糾結于技術本質,也可以幫助我們更好地考察與具體權利義務關系有著更直接關聯的規制要素。比如對于P2P技術所引發的盜版問題的規制,與其糾結于技術本質,不如更多關注人們使用或規避P2P技術時,所引發的權利義務關系的變化?,F如今P2P技術下載的盜版音視頻作品得到遏制,除了法律規制以外,還要依賴于更便捷的流媒體(附帶會員和廣告營銷)商業模式——既然獲得正版的成本沒有那么高,人們也就沒必要承擔P2P盜版的法律風險和麻煩。而這些都與P2P技術算法的具體細節,并沒有直接關聯。

重溫卡洛與巴爾金的論辯,有助于我們理解以算法透明為代表的事前規制與以算法問責為代表的事后規制的區別,對算法規制理論的構建,有著重要意義。前者關注技術本質,后者關注技術所引發的后果,兩種規制思路的分野,在某種程度上,恰恰折射出關于技術本質的算法透明和以算法問責為代表的、關注法律后果的規制模式的比照。算法透明,就是要規制者搞明白,目標算法究其本質是什么,根據算法的特性來施以規制。而以算法問責為代表的事后規制模式,就是要規制者去考察算法在實際運作中的具體結果及其背后的社會關系變化,針對它們來施以規制。這種學術討論上的比附,也有助于我們反思當前算法透明原則在理論上的悖謬,以避免陷入“透明”“公開”“開放”等一些大詞的迷思而忘卻法律人面對的具體規制問題以及其中可能存在的理論意義。換言之,法律人面對算法規制問題時,應當著重考量算法所引發的、以權力配置為代表的社會關系的變化(比如算法何以引發歧視性后果),而不是把關注點放在算法的技術本質(比如源代碼是如何編寫的)。

本文的論證進一步表明,帶有強烈本質主義色彩的算法透明,在可行性和必要性上都存在瑕疵,只能作為算法規制的輔助手段存在。換句話說,算法本質應不應該被探究、能不能被探究清楚以及探究清楚之后能否保證有效規制,在本文看來,統統存疑。反之,實用主義導向的事后規制手段,較之算法透明有著更多優勢,應該作為算法治理中的主要手段,而且也應當是法律人可能的理論貢獻所在。后者,才是法學界應對算法問題的福爾摩斯。

當然,有些人可能質疑,我們一開始就把解決問題的重點放到了算法應用效果上,那么算法本質與算法應用之間轉化的相關規制問題,可能就會在結構上被忽略了。這并非筆者本意。事實上,事后規制并不排斥在顯現應用特定的技術措施來矯正算法問題,而且很多改造算法本質的技術措施,恰恰是由于事后規制倒逼而產生的。比如美國通過《兒童在線隱私保護法》(COPPA)及后續一系列判例形成對算法的事后問責之后,兒童保護網絡內容軟件也在不斷改進迭代。

最后,我們再把這一規制進路,具象化地放到部分前例中。對于機場安檢歧視,不應當算法透明,而更適合事后問責;導彈試射事故,不應當算法透明,而更適合事后問責;自動飛行事故,沒必要算法透明,而更適合事后問責;酒精檢測失靈,沒必要算法透明,而更適合事后審計……而如何把后面這些具體的事后規制制度的設計得更好,恰恰是法律人理應關注的問題。篇幅有限,筆者在本文中無意也無法提供完整的算法規制圖景,但就目前文章所論,至少揭示了算法透明的局限性,以及事后規制在實踐中和學理上的優越性,為后續的討論提供了基礎。

結 語

為了應對當下算法在社會生活的應用中帶來的一系列問題,法學界對于算法規制,有著迫切的需求。而學界對于算法透明原則的推崇,也是在某種程度上構成了算法規制問題及其制度回應的重要組成部分。然而,正如本文所揭示的,目前法律人所極力推崇的算法透明原則,作為事前規制的一種方式,其在可行性和必要性上,都存在瑕疵。本文無意完全否定算法透明在算法規制中的作用,但我們更應當充分認識算法透明的不足和適用的局限。而更為合理的規制手段,應當是實用主義導向的、以算法問責為代表的事后規制手段。

本文旨在進一步揭示批判算法透明原則的理論意涵。不可否認,在切入法律與技術這一交叉領域時,法律人當然有必要對技術有所了解,才能言之有物。然而,法律人對于技術本質的過分強調,可能會帶來研究的困境和危險,體現在兩個方面:其一是盲目夸大,由于自身技術專業能力不足,從而“神圣化”或“妖魔化”技術本質;其二是削足適履,過分糾結于技術本質,導致無法充分考察法律及其他規制要素對技術所引發的社會關系可能的回應。畢竟法律更應關注的,是算法失靈、算法歧視以及算法共謀等問題所帶來的權利、義務和責任的關系,而不是這些技術問題本身,而后者是計算機工程師所關注的。

法律人一味強調算法透明,哪怕披上了一件漂亮的“科學”外衣,其在法律和制度層面上的意義,依舊是模糊的,甚至我們可以斷言,單純地探究算法透明,將限制法學界在算法規制領域的貢獻。在筆者看來,那些一味強調算法透明的法律人,一方面,很可能是對算法技術本身一知半解,對算法可知以及算法透明的應用范圍和規制效用,抱有不切實際的期待;另一方面,恐怕對網絡法也缺乏深入理解,把本來可供法律人思考和探究的算法規制問題,推給了算法本身以及算法開發人員,用“透明”“公開”“開放”這樣的大詞來構造自己的理論。說到底,算法所引發的法律問題,無論在私法還是公法領域,都要求法律人在侵權法中的第三方責任理論、注意義務理論、因果關系理論、行政法中的正當程序理論、問責理論和法經濟學中的成本收益分析等法學理論框架下,甚至在更廣闊的社會科學理論框架下,來討論類型化的應對,并借此嘗試提出新的理論洞見。

一個多世紀前,工業事故危機引發了美國法律制度的大變革,包括霍姆斯在內的諸多美國法學家參與了這一進程,向美國的法律體系引入和構建了侵權法、事故法和保險法體系,當時的許多理念和制度直至現在依然屹立不倒?,F如今的算法規制危機,在某種程度上,也是向法律人開啟的一個契機——這同樣是法律人面對一個相對開放的領域,一個充滿可能性的歷史時刻。而正像本文所揭示的,實用主義進路,更可能幫助法律人跳出算法透明原則的迷思,更可能找到可以傳世的理念和制度。

 

*本文原載《環球法律評論》2019年第6期,注釋略。

發表評論