首頁 > 期刊 > 人文社會科學 > 社會科學I > 行政學及國家行政管理 > 地方立法研究 > 可問責的算法 【正文】
摘要:許多傳統(tǒng)上由人做出的重要決策,現(xiàn)在都是由計算機做出的。算法統(tǒng)計選票、批準貸款和信用卡申請、指定公民或社區(qū)進行警務(wù)審查、選擇納稅人進行稅務(wù)審計、批準或拒絕移民簽證等。然而,監(jiān)管此類決策流程的問責機制和法律標準,尚未跟上技術(shù)的步伐。目前,可供決策者、立法者和法院使用的工具,是為監(jiān)督人類決策而設(shè)計的,當把它們應(yīng)用于監(jiān)督計算機決策時,通常會失靈。例如,如何判斷一個軟件的意圖?由于自動化決策系統(tǒng)可能會輸出不正確、不合理或不公平的結(jié)果,因此,我們需要采取其他手段,以使此類算法具有可問責性和可操控性。本文提出了一套新的技術(shù)措施,它能夠以法律公平為準繩,來驗證自動化決策。法學界的主流文獻認為,算法透明可以解決這些問題。本文對這一主流觀點提出挑戰(zhàn)。通常而言,源代碼的公開,既不必要(由于計算機科學中的替代技術(shù)),也不足以證明決策流程的公平性(由于分析代碼時所存在的問題)。此外,算法透明也可能是不可取的,例如,它可能會披露個人信息,也可能會幫助不法分子或恐怖分子與稅務(wù)審計或安全檢查的系統(tǒng)進行周旋。真正的核心問題是:如何使自動化決策更具可問責性,以確保公民個體和整個社會的利益?本文認為,技術(shù)正在創(chuàng)造新的機會——以比算法完全透明更巧妙、更靈活的方式,來設(shè)計自動化決策的算法,使其更好地順應(yīng)法律和政策的目標。這樣做不僅可以改善當前對自動化決策的治理,而且在某些情況下,還可以改善普通決策的治理。人類決策者的內(nèi)在(或外在)偏見,很難被發(fā)現(xiàn)和根除,但我們卻可以窺視算法的“大腦”:計算過程和目的規(guī)范可以在事前聲明,并在事后驗證。本文介紹的技術(shù)可以得到廣泛應(yīng)用。它們可以用來設(shè)計私營機構(gòu)和公共部門的決策流程,并可根據(jù)決策者、監(jiān)管者或公眾的
注:因版權(quán)方要求,不能公開全文,如需全文,請咨詢雜志社