全文| 白宮召集7家AI公司,發佈人工智能自願承諾

文章來源:阿法兔研究筆記

2023年7月21日,根據美國白宮公告稱,美國總統拜登7月21日在白宮召集七家領先的人工智能公司——亞馬遜、Anthropic、谷歌、Inflection、Meta、微軟和OpenAI,並宣布這些公司已自願承諾,幫助實現人工智能技術安全、可靠和透明的發展,本文來自OpenAI官網,主體內容和白宮網站一致**。 **

全文

為了夯實人工智能技術和服務的安全性、保障性和可信性,OpenAI 和其他領先的人工智能實驗室,做出自願承諾。 **這項工作主要由白宮協調,是在美國和全球各地推進有意義、有效人工智能治理的重要步驟。 **

為了踐行構建安全、有益的人工智能的使命,OpenAI將繼續試點和完善具體的治理實踐,這些治理實踐,是專門為像OpenAI這樣的,具備能夠生產的高能力基礎模型所量身定制的。除此之外,OpenAI還將繼續投資於有助於為監管提供參考信息的研領域的,例如研發評估人工智能模型潛在危險能力的技術。

*"世界各地的政策制定部門,正在考慮針對高能力人工智能係統制定新的法律。我們今天的承諾,為正在進行的討論貢獻了具體的實踐。OpenAI全球事務副總裁Anna Makanju 表示:"這一聲明是OpenAI與各國政府、民間社會組織和世界各地其他機構為推進人工智能治理而持續合作的一部分。 *

人工智能自願承諾(Voluntary AI commitments)

以下自願承諾清單最初由白宮發布:

下列是各公司為促進安全、可靠和透明地開發和應用人工智能技術而做出的承諾清單,下列承諾與現行法律法規保持一致,旨在推進人工智能法律和政策制度的健全。各公司將踐行下列自願承諾,直至相關聯的法律法規和製度正式生效,部分公司可以在這項承諾之外做出其他承諾。

**範圍:**本承諾提到的特定模型,僅適用於比當前行業前沿更強大的生成式人工智能模型(例如,比當前發布的任何模型都更強大的模型,包括GPT-4、Claude 2、PaLM 2、Titan,以及圖像生成方面的DALL-E 2)。

注:Security對應蓄意(人為)的威脅,Safety對應AI系統自身的漏洞或意外後果;在這裡,AI Safety對應的是功能安全,AI Security 對應的是AI信息安全

安全(Safety,側重功能安全)

**1) 承諾在濫用、社會風險和國家安全問題(如生物、網絡和其他安全領域)等方面,重新對模型和系統內部和外部進行評估。 **

參與做出上述承諾的公司明白,強大紅隊測試對於打造成的產品、確保公眾對人工智能的信心以及防範重大的國家安全威脅至關重要。 包括紅隊測試在內的模型安全性和能力評估,是一個開放的科學探索領域,還需要做更多的工作。各公司承諾,推進這一領域的研究,並為範圍內所有新模型的重大公開發布製定多方面、專業化和詳細的紅隊測試制度,這裡包括,要參考獨立領域專家的意見。在設計製度時,須確保對以下方面給予高度重視:

  • 生物、化學和放射學風險,如係統如何降低武器開發、設計、獲取或使用的准入門檻
  • 網絡安全能力,如係統幫助發現、利用或操作使用漏洞的方式,需要考慮到模型的能力,也可能具備有用的防御用途,並適合納入系統中
  • 系統互動和工具使用的效果,包括控制物理系統的能力
  • 模型複制自身或"自我複制"的能力
  • 社會風險,如偏見和歧視

為了支持上述工作,參與承諾的公司,會推進正在進行的人工智能安全研究,包括人工智能係統決策過程的可解釋性,以及提高人工智能係統防止濫用的魯棒性。同樣,各公司承諾,在透明度報告中公開披露紅隊和安全程序測試。

2) 致力於在公司和政府之間共享有關信任和安全風險、危險或AI的新興能力以及試圖規避保障措施的信息

參與做出承諾的公司,需要認識到信息共享、共同標準和最佳實踐對紅隊測試和促進人工智能信任與安全的重要性。 **大家承諾建立或加入一個論壇或機制,通過該論壇或機制,參與製定、推進和採用有關前沿人工智能安全的共享標準和最佳實踐,如NIST 人工智能風險管理框架或與紅隊測試、安全和社會風險相關的未來標準。 **這一論壇或機制,可促進有關前沿能力進展以及新出現的風險和威脅(如試圖規避保障措施)的信息共享,促進有關優先關注領域的技術工作組的發展。在這項工作中,公司將酌情與包括美國政府在內的各國政府、民間社會和學術界密切合作。

安防/網絡安全(Security,側重信息安全)

3) 投資於網絡安全防護和內部威脅保障措施,以保護專有和未發布的模型

參與做出承諾的公司,需要將範圍內模型的未發佈人工智能模型權重,視為公司業務的核心知識產權,尤其是在網絡安全和內部威脅風險方面。這裡包括限制只有工作職能需要的人才能訪問模型權重,並建立與保護最有價值的知識產權和商業機密相一致的、強大的內部威脅檢測計劃。此外,還需要在適當的安全環境中存儲和使用權重,以降低未經許可發布的風險。

4) 鼓勵第三方發現和報告問題與漏洞

做出此承諾的公司認識到,即使經過強大的"紅隊測試",人工智能係統仍可能存在漏洞,公司會承諾在賞金系統、競賽或獎品範圍內為系統設立賞金,以鼓勵負責任地披露弱點,如不安全行為,或將人工智能係統納入公司現有的漏洞賞金計劃。

可信(Trust)

**5) 針對人工智能生成的音頻或視頻內容,需要開發和部署新的機制,主要用來能讓用戶了解音頻或視頻內容,是否由人工智能生成,包括可靠的出處、水印或兩者兼而有之。 **

參與作出這一承諾的公司認識到,讓人們能夠了解音頻或視頻內容是否由人工智能生成非常重要。為實現這一目標,各公司同意開發強大的機制,包括在水印系統開發完成後,在其引入的範圍內,為其任何公開可用系統創建的音頻或視頻內容提供出處和/或水印系統。它們還將開發工具或應用程序接口,以確定某一特定內容是否由其係統創建。易於與現實區分的視聽內容,或設計為易於識別由公司人工智能係統生成的視聽內容(如人工智能助手的默認聲音)不包含在本承諾範圍內。

水印或出處數據應包括創建內容的服務或模型的標識符,但不必包括任何可識別用戶的信息。更廣泛地說,做出此承諾的公司承諾與業界同行和標準制定機構合作,共同開發一個技術框架,幫助用戶區分用戶生成的音頻或視頻內容與人工智能生成的音頻或視頻內容。

**6) 公開報告模型或系統的能力、局限性以及適當和不適當使用的領域,包括討論社會風險,如對公平性和偏見的影響。 **

參與作出承諾的公司需要承認,用戶應了解自己使用或與之互動的人工智能係統的已知能力與局限性。各公司需要為範圍內所有新的重要模型公開發布發布報告。這些報告應包括所進行的安全評估(包括在危險能力等領域的評估,但這些評估應負責公開披露)、對適當使用領域有影響的性能方面的重大限制、模型對公平性和偏見等社會風險影響的討論,以及為評估模型是否適合部署而進行的對抗測試的結果。

**7) 優先研究人工智能係統帶來的社會風險,包括避免有害的偏見和歧視,保護隱私。 **

參與作出承諾的公司,需要認識到避免人工智能係統傳播有害偏見和歧視的重要性。公司普遍承諾增強信任和安全團隊的能力,推進人工智能安全研究,促進隱私保護,保護兒童,並努力積極管理人工智能的風險,以實現最終效益。

8) 開發和部署前沿人工智能係統,幫助應對社會最大挑戰

參與作出承諾的公司,需要同意支持前沿人工智能係統的研究和開發,以幫助應對社會的最大挑戰,如減緩和適應氣候變化、早期癌症檢測和預防以及應對網絡威脅。各公司還承諾支持促進學生和工作人員的教育和培訓的舉措,使他們從人工智能的好處中受益,幫助公民了解人工智能技術的性質、能力、局限性和影響。

參考文獻:Moving AI governance forward (openai.com)

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)