內容摘要:
關鍵詞:
作者簡介:
中國社會科學報綜合外媒報道 近年來,國際社會在人工智能立法方面取得了較為明顯的進步。如何進一步完善人工智能治理,成為國際學界普遍關心的問題。
據美國麻省理工學院官網6月28日報道,該校計算學院主辦的人工智能政策論壇于今年早些時候在線舉行了第二屆研討會,來自高校、政府和商業機構的代表圍繞以下四個議題展開探討:人工智能法律設計;對人工智能系統的大規模審計和監測;臨床醫學人工智能的數據分享和隱私問題;使自動駕駛汽車切實造福于人。
美國哈佛大學國際法教授喬納森·齊特林(Jonathan Zittrain)談到,從以往的經歷來看,政府在新技術發展初期就積極發揮作用是一件好事——互聯網擴張時期的自我監管模式有其局限性,因為企業、行業、公眾的利益不完全一致。當前的挑戰是,對新興技術的監管似乎可以分為兩個階段:在第一個階段,作任何判斷都為時過早;到了第二個階段,采取任何措施都為時過晚。就人工智能而言,許多人認為我們尚處于第一階段,但考慮到兩個階段之間沒有中間地帶,有必要采取一定的監管措施。
在關于人工智能法律設計的討論中,信任問題被反復提及??夏醽唭攘_畢大學教授、肯尼亞信息與通信部前副部長比特安格·納德莫(Bitange Ndemo)說,“如果一個人一直和我講真話,我會認為他/她是誠實的。類似地,如果人工智能一直提供真實信息,我會認為它是可信任的”。歐洲議會副議長伊娃·凱利(Eva Kaili)表示,“在歐洲,人們使用藥品時很放心,因為他們知道藥品是經過檢測、受到監管的。人工智能也應達到同等的可信任程度。建立對人工智能的信任不僅能促使人們以安全的方式更多地應用人工智能,隨之產生的更多數據也有利于人工智能自身的發展”。
隨著人工智能被應用于越來越多的領域,人們需要應對新興技術帶來的社會和倫理挑戰,包括隱私、公平公正、透明性、可問責性等方面的問題。例如,在醫療領域,新技術展現出提高治療質量和效率的巨大潛力,但技術專家、政策專家和醫學專家還需探索如何減少高質量數據的訪問壁壘,使醫學研究成果更具創新性和包容性、更加安全可靠,同時尊重患者隱私。與會者呼吁,提升科研用途數據的可及性,其途徑包括更新監管制度以促進數據分享、為私營醫療機構提供更多用于數據監管的資金、減少研發人員獲取聯邦醫療數據的障礙等。與會者還建議,學界必須仔細審視數據分享的倫理原則。麻省理工學院電氣工程與計算機科學助理教授馬爾齊耶·加塞米(Marzyeh Ghassemi)表示,“人們已經提出了許多原則,但同時滿足所有要求是不現實的,我們必須深思熟慮、審慎權衡”。
麻省理工學院計算機科學教授亞歷山德·馬德里(Aleksander Madry)強調,不同實踐主體之間的交流與合作,對人工智能政策的制定發揮著重要作用,“人工智能政策論壇的使命就是將科研人員、業內人士、政策制定者及其他利益相關方匯聚在一起,彼此展開真正的對話、了解對方的關切、共同思考解決方案”。
?。ㄍ跤迫?編譯)