點擊右上角微信好友
朋友圈
請使用瀏覽器分享功能進行分享
作者:馬長山(華東政法大學數字研究院院長)
法治是人類社會的偉大發明,它以尊重和維護人的價值與權利、實現公平正義為核心目標,因此,具有深厚的人文底蘊和倫理精神。對于新興的數字司法而言,它能夠憑借平臺、數據和算法,來實現司法規則的技術性表達、司法程序的數字化運行、司法正義的可視化呈現和司法效果的智慧化融合。這一方面可以彌合法律真實和客觀真實的“鴻溝”,另一方面也可以減輕司法人員的工作負擔,減少自由裁量權的不當行使,從而更好地促進“陽光司法”和實現公平正義。
然而,任何事情都有兩面性,數字技術應用也并非中立的。事實表明,一些數字技術應用并不能完全達到預期的理想目標,有時候還可能出現一些問題、局限和風險。一是計算不能。數字技術的核心是建模算法,它有一致性、高效率、全要素的優點,但也會有靈活性不足、機械性計算的缺點,難以計算和處理一些復雜疑難問題,比如人、財、物和情感復雜交織的家事糾紛就很難進行數據化計算。二是計算錯誤。算法都是有容錯率的,而隨著大模型時代的到來,深度學習中的算法偏見和“幻覺”問題日漸凸顯,因此這就難免會出現某些計算錯誤。從目前一些數字司法的創新實踐來看,法官電子閱卷工作量減輕80%,案件事實查明準確度大于95%,文書主文完成度超過80%,案件整體辦理時間減少三分之二,這固然是很不錯的司法成效,但整體上1%的差錯一旦落到個案上,對個案當事人而言可能就是100%的不公正。因此,算法錯誤的問題依然不可小覷。三是算法依賴。各個領域的人工智能輔助是數字時代的必然發展趨勢,人們也越來越需要人機交互的方式來處理各種事務,實現辦公自動化、智能化。特別是大模型的自動生成能力會超過一般人的水平,其實質是對簡單腦力勞動的通用性替代。基于此,日漸成熟的司法大模型就可能會成為日常案件辦理中的一種習慣性“依靠”,而一旦司法人員過度依賴這個機器助手,就難免會降低他們的審慎思考和邏輯推理能力,也容易忽略個案特性和案件細節。同時,機器的“內容生成”內含著一定的“價值觀”,它會耳濡目染地影響司法人員的認知、判斷和行為,這就難免導致機器“教導”人類的風險發生,從而影響司法人員的獨立性和自主性。
事實上,人類決策是有意識的內容生成,在規則理解、價值判斷和司法經驗上反映著人類理性和法治人文精神,而機器則是依概率猜測的內容生成,這種算法決策很難作出倫理道德、善良風俗和經驗理性等方面的考量,因而,不具有法治人文精神,更適合于形式化、一致性的計算、推理和判斷。而且,數據樣本和質量、數據合規性、算法可靠性、算法可解釋性、算法透明性、算法參與性、算法公正性、算法的可監督性等,都會面臨著公眾的司法信任考驗。由上可見,雖然數字司法代表著時代趨勢,但它也具有一定的限度和邊界,不當使用將會影響司法人員的主體地位和自主裁判能力,也會使案件當事人在過度的機器決策面前缺少必要的人性化體驗和人文關懷,這自然需要在數字技術與法治人文之間形成一種恰當的平衡。為此,最高人民法院《關于規范和加強人工智能司法應用的意見》就明確指出,“各類用戶有權選擇是否利用司法人工智能提供的輔助,有權隨時退出與人工智能產品和服務的交互”。這意味著,數字時代的司法人員“更應格物致知,加強自身知識和思想的訓練,在自主判斷與人工智能輔助之間獲得最佳平衡”,為數字司法可持續發展奠定人文主義法治基礎。