??
7月6日,2023世界人工智能大會在上海世博中心拉開帷幕。這是專家在一幅關于上海景象的智能生成畫作前討論。新華社記者 黃曉勇 攝
??近日,由中國法學會網絡與信息法學研究會主辦,西南政法大學合辦,西南政法大學人工智能法學院、西南政法大學智能司法研究院、西南大數據法
律研究中心共同承辦的“人工智能法治論壇”舉行。會議深入探討了人工智能發(fā)展與安全過程中的重大理論與實踐問題。
??來自全國人大法工委、最高人民法院等部門,中央黨校(國家行政學院)、中國社科院法學所、清華大學、中國人民大學、浙江大學等科研院校,以及
實務部門的一百余名專家、學者參加了此次會議。
??首都師范大學政法學院副教授崔俊杰:科技倫理審查要考慮具體科學場景
??程序規(guī)制不是封閉的構成性規(guī)制,而是開放的功能性規(guī)制,可以實現將表層的行為-責任分配與深層的集體道德決策過程深度互嵌。真實的科技倫理審查
具有兩階審查的特點,與經典正當法律程序存在明顯區(qū)別,為此不能簡單套用法律程序中的一般制度,而需要考慮具體科學場景中倫理反思所需必要程序要
求。科技倫理審查的正當法律程序設計中要有維系倫理審查組織的結構均衡程序、反思均衡程序、保障對話環(huán)境與塑造情景正義的程序。
??南京大學中德法學研究所副研究員金健:人工智能對行政模式的沖擊需要思考
??人工智能技術的開發(fā)與應用引發(fā)了一系列問題,對傳統(tǒng)行政模式產生了沖擊。面對這些新問題,通過分析算法行政中的全自動化情形的自主性特征,可
發(fā)現,組織責任、引入經濟上的無過錯責任與嚴格責任、把算法作為行政助手和像歐盟一樣把算法升為主體上的電子人等方案,無法解決現有問題,須轉向
立法論的視角。
??西南政法大學人工智能法學院博士生張翔:人工智能法律治理應貫穿目的與行為
??應急式、分散式、場景式立法未能找準人工智能領域法律問題的癥結,難以從整體上提供系統(tǒng)化、前瞻性的人工智能法律治理方案。應當以貫穿目的與
行為的系統(tǒng)論為支撐,重構人工智能法律定義。人工智能領域立法應當以平衡安全與創(chuàng)新、平衡公平與效率為基本原則,以貫穿人工智能全生命周期的主體
要素和行為要素為基本線索。而法律制度之間的內在脈絡不僅受制于立法價值和法律原則,也受制于人工智能各要素之間相互聯結、互為制約的系統(tǒng)論本質特征。
??江西理工大學法學院副教授張志堅:人工智能自主交易的合法有效需研究
??人工智能自主交易行為區(qū)別于電子合同,也區(qū)別于智能合約。人工智能在特定領域內實施自主交易行為,仍是人類意志的延伸,具有相應的民事行為能
力,具備行為合法有效的可能性,而超越特定領域的行為效力待定。在人工智能自主交易行為的法律責任上,存在預期違約責任與違約責任兩種類型,原則
上以擁有獨立財產的人工智能自身為責任主體。同時,基于人工智能的特殊性,除了財產賠償方式外,還可以對其設置修正程序、刪除數據、強制銷毀等專
屬的責任承擔方式。
??《網絡信息法學研究》特約編輯狄行思:確認合資格金融人工智能受信人地位
??關于AI能否作為獨立的信義義務人,與其智能化程度密切相關,也事關開發(fā)者、使用者在背后承擔的角色。人工智能技術除了技術屬性,還必須具有一
定的社會屬性。應確認合資格金融人工智能受信人地位,并以信義治理路徑對其進行規(guī)制。
??上海財經大學法學院副教授沈小軍:自動駕駛產品責任險不能替代交強險
??現有自動駕駛汽車產品責任保險研究主要集中在侵權責任和交強險上,對產品責任保險的研究存在明顯不足。要引入一個強制性的產品責任保險,在未
來完全自動駕駛時代強制性的產品責任保險是非常有必要的。在產品責任強制保險跟交強險的關系方面,因為構成要件和免除事由方面的限制,產品責任強
制保險仍然不能替代交強險。
??螞蟻集團高級政策研究高級專家毛智琪:參考各國經驗提升合規(guī)管理有效性
??隨著人工智能在國家競爭力、國家安全等方面的作用凸顯,各國都在加緊相關規(guī)劃部署和政策制定,人工智能已經成為國際競爭新的焦點所在。但由于
人工智能目前仍在發(fā)展中,存在著隱私和數據安全、內容安全、競爭公平、知識產權保護等風險,技術和應用的安全性與真實性等問題尚待解決。大模型對
算力的巨大消耗也對低碳轉型目標的實現帶來新的挑戰(zhàn),這些新的問題成為各國政府關注的新課題。參考目前各國監(jiān)管趨勢和行業(yè)實踐,可以考慮從建立全
生命周期的合規(guī)管理與監(jiān)測機制、引入合規(guī)科技等技術手段強化風險識別能力和管控能力,進一步提升合規(guī)管理的有效性,更好地應對技術發(fā)展帶來的挑戰(zhàn),
推動人工智能技術的安全創(chuàng)新和產業(yè)變革,賦能中國經濟高質量發(fā)展。
??西南大數據法律研究中心執(zhí)行副主任譚玲:多方面探尋人工智能著作權侵權防范
??當前生成式人工智能的著作權侵權風險主要存在于數據獲取、人機互動過程、大模型訓練以及內容生成四個領域,需要從許可使用、合理使用、法定許可
等著作權制度探尋不同階段、不同類型生成式人工智能著作權侵權風險防范路徑。商用情況下數據獲取端對在先作品的利用可以集體許可為基礎,其他授權模
式為補充。非商用情況下適用合理使用制度,同時進行概括性作品使用申明。人機互動過程中,通過用戶協議闡明未經授權上傳在先作品的后果。對于內容生
成端,風格和思想的相似一般而言不涉及具體侵權問題,但仍需完善AI“洗稿”的侵權行為認定標準。
??東南大學法學院副研究員徐珉川:數據有效流動歸根結底是信用生產
??關于生成式人工智能的公共數據可信供給問題。“數字政府”背景下的公共數據開放,其核心是一種可信價值。建立可信的治理方式,建立一套公共數據
開發(fā)的可信秩序激勵。面向生成式智能創(chuàng)新,需要可信的公共數據供給。數據供給核心為信用問題,如何讓數據有效流動、開放,歸根結底為一種信用生產、
適用等方面的再生產。
??全國人大常委會法工委行政法室處長母光棟:人工智能治理可綜合運用部門法原則
??研究生成式人工智能的發(fā)展和治理問題,可以綜合運用各個部門法確定的原則和具體制度。比如,生成式人工智能技術中的重要環(huán)節(jié)之一是公共數據治理,
采集、生成數據需要遵循合法和必要原則,開發(fā)、運用數據需要遵循開放和共享原則,在整個公共數據治理過程中,還要遵循有關法律法規(guī)確定的安全和風險
防范等原則。從不同部門法視角研究生成式人工智能問題,有利于推動這一新興產業(yè)的健康發(fā)展。(金燦)