點擊右上角微信好友
朋友圈
請使用瀏覽器分享功能進行分享
作者:劉科(河南師范大學科技與社會研究所教授);賈豫政(河南師范大學科技與社會研究所助理研究員)
近期,人們對DeepSeek(深度求索)的熱議揭示了人機關系的復雜性,也凸顯了在AI領域嵌入科技倫理的必要性。科技倫理是開展科技活動需要遵循的價值理念和行為規范,是促進科技事業健康發展的重要保障。我們要從科技倫理的視野來辯證地思考人機關系、人機宿命,有效防范化解人工智能帶來的風險。
DeepSeek的內在潛質
DeepSeek是由我國一家科技創新公司獨立構建的AI系統,具有強大的模型推理能力。它革新了當前AI領域的開發路徑,采取了軟硬件一體的優化和創新,可多層面實現加速計算、提高硬件利用效率,有效節省了計算資源。它擴大了AI的普及面,進一步提高了民眾的使用率。它可直接面向用戶或開發者提供智能對話、文本生成、語義理解、計算推理、代碼生成補全等應用場景,支持聯網搜索與深度思考兩種模式。它幫助用戶將AI技術融入日常工作,提升工作效率,培養用戶的整合力和判斷力,具有明顯的“機智過人”潛質。
DeepSeek的誤用和濫用
AI的快速發展與強大功能提升了人類認識世界和改造世界的能力,也助長了人們的“機巧之心”,出現了技術被誤用和濫用的情況,涉及隱私侵犯、算法歧視、科研不端、虛假信息傳播等問題。根據DeepSeek當前具有的功能,科研不端問題將是其引發的重要倫理挑戰之一。
一是滋生學術造假。DeepSeek能夠實時從網絡數據庫篩選并整合可供參考的資料。然而,這一手段的應用潛藏著一定的學術風險。首先,網絡數據庫的文獻質量參差不齊,難以完全保證其準確性。但DeepSeek仍會基于算法持續輸出其認定的“客觀材料”,自動生成一篇論文。即使缺乏學術訓練和理論知識的人也能借助它撰寫“學術論文”。在DeepSeek生成論文的過程中,操作者僅需提供主題與目的,其余環節由系統自主完成。這不僅剝奪了研究者的自主性和批判性,還會危及科學研究的底層邏輯,即通過人類持續的智力勞動去推動知識創新。其次,DeepSeek在處理文獻時可能存在斷章取義或片面解讀的情況。若生成的文本被廣泛傳播,將為后續學術研究埋下隱患。最后,部分研究者可能會過度依賴AI手段,甚至將其用于對已有研究的復制加工或篡改研究數據,而非真正意義的學術創新。這不僅會弱化學術研究的原創性,還會進一步加劇學術不端行為,嚴重影響學術誠信。
二是引發學術不公。在AI環境下,如何評定論文作者的真實水平成為亟待解決的難題。如果科研人員利用DeepSeek生成論文,提供的是AI產物,就增加了科研成果創新審查的難度。這種現象將破壞公平的學術生態,有可能會使那些埋頭苦干、孜孜以求的科研人員受到不公正對待,影響學術界的良性競爭。由DeepSeek生成的“論文”往往缺乏真正的創新性,其科學價值令人生疑。假如出現一批過度依賴AI進行賦能的人員,則“機寫論文”會大量涌現。如果不對DeepSeek等AI技術的使用進行嚴格規范,“AI賦能式科研”不僅會侵蝕學術研究的核心價值,破壞學術生態,也會對科技倫理造成深遠的負面影響。
三是署名權的困惑。署名權是學術共同體出于學術成果保護而形成的共識,往往會根據研究人員的貢獻度進行劃分。DeepSeek等AI的本質是工具而非科研主體,其生成的論文面臨著劃分困境。我國《著作權法》明確規定,著作權人需為“自然人、法人或者非法人組織”,且需對作品的獨創性負責。AI既無法主張權利,也不能承擔剽竊、數據侵權等責任,導致其生成文本的權責歸屬陷入真空。目前,學術界大致有兩種主張:一是主張將署名權歸屬人工智能開發公司,因為生成論文的算法邏輯與訓練數據均由大語言模型所控制;二是主張堅持傳統署名規則,強調人的主體地位,必須對成果的學術價值與倫理合規性負責。因此,由AI生成的內容缺乏追責對象,應視為“無主作品”或標注為某種技術產物。
DeepSeek的規約之路
習近平總書記指出,“科技是發展的利器,也可能成為風險的源頭。要前瞻研判科技發展帶來的規則沖突、社會風險、倫理挑戰,完善相關法律法規、倫理審查規則及監管框架”,“不斷提升人工智能技術的安全性、可靠性、可控性、公平性”,進而“堅持以人為本、智能向善”。為規避AI可能引發的學術風險,建議采取以下措施。
強化政府監管責任。我國已經開始注重對AI科技倫理風險的治理,可依據《關于加強科技倫理治理的意見》,明確科技倫理原則、健全科技倫理治理體制、加強科技倫理治理制度保障、強化科技倫理審查和監管、深入開展科技倫理教育和宣傳等。針對AI應用的潛在風險,政府有責任維護其良性發展秩序,制定AI發展規劃和風險應對措施。要將AI的算法規則、應用范圍、社會風險等納入法治監管體系,及時出臺監管規則和實施細則。在鼓勵和支持AI技術發展的同時,超前研判并防范AI應用的風險。
強化科技倫理審查。雖然各類生成式AI模型具有強大的功能和運作體系,但其存在的根本意義是要為社會發展和人類需求服務,它們只是賦能人類的工具和手段。為此,我們要始終堅持以人為本,負責任地使用AI成果。目前,對AI的倫理治理要遵循安全性、公益性、公平性、問責性等基本原則。面對人機邊界日益模糊的現狀,應力爭實現“人機協同”與“以人為尊”的價值范式。針對AI發展背景下的科研成果認定、人才評價、學術論文撰寫與發表等問題,建議強化科技倫理審查制度,讓“人工”與“智能”并行不悖地發展。既能發揮AI技術的數據挖掘與處理優勢,又能充分發揮人的理性思維優勢。
強化人的主體地位。盡管AI會越來越強大,在一時一地超越一些人,但不會在更大的空間更長的時間超越所有人。AI本身畢竟是現代人類社會科技文明的產物,是人腦的產物。人終歸有人的用處,我們要堅信人的主體地位,堅信“機不如人”的人類社會發展趨勢。如果人類社會要創造更加輝煌的科技文明乃至任何其他文明,仍需要有一批兼具責任、智慧、勇氣和耐心的學人去竭盡智力而為之。正如俄國學者赫爾岑所指出的:“科學不是可以不勞而獲的——誠然,在科學上除了汗流滿面是沒有其他獲致的方法的,熱情也罷,幻想也罷,以整個身心去渴求也罷,都不能代替勞動。”進一步說,幸福都是人奮斗出來的,而不是AI直接帶來的。
總之,為加快推進我國高水平科技自立自強,要堅持促進創新與防范風險相統一、制度規范與自我約束相結合,培養自覺的科技倫理意識,落實倫理先行原則,強化科技倫理治理。我們要積極應對包括DeepSeek在內的AI科技風險的挑戰,充分發揮AI的助手優勢,防范和化解其可能的學術風險,塑造人類社會更加美好的智能生活圖景。