這一歷史性文本確定了共同的價值觀和原則,用以指導建設必需的法律框架來確保人工智能的健康發展。2018年,教科文組織總幹事阿祖萊發起了一個雄心勃勃的項目:為世界打造一個運用人工智能的倫理框架。3年後,來自世界各地的數百名專家經過密切磋商,發佈了《人工智能倫理問題建議書》(簡稱《建議書》)。
《建議書》旨在實現人工智能給社會帶來的積極效果,同時預防潛在風險。它包含以行動為導向的政策相關章節,涉及數據管理、教育、文化、勞工、醫療保健、經濟等多個領域,將應對與透明度、問責制和隱私相關的問題,從而確保數字轉型能夠促進人權,並推動實現可持續發展目標。
《建議書》呼籲,在科技公司和政府已採取的措施之外,還需要採取更多行動,通過確保透明度、行動力和對個人數據的控制來保證個體得到更多保護。它指出個體應該有權訪問甚至刪除其個人數據記錄。它還包括改善數據保護和個體對自身數據的瞭解和控制權的行動,並將提高世界各地的監管機構的執行能力。
《建議書》明確禁止使用人工智能系統進行社會評分和大規模監控。《建議書》指出,此類技術極具侵入性,它們侵犯人權和基本自由,且被廣泛使用。《建議書》強調,成員國在制定監管框架時應考慮最終的責任和問責必須始終由人類承擔,人工智能技術本身不應獲得法律人格。《建議書》還為協助自身的落實提供了工具基礎。倫理影響評估意在幫助開發和部署人工智能系統的國家和公司評估這些系統對個人、社會及環境的影響。準備程度評估方法幫助成員國評估本國在法律和技術基礎設施方面的情況。
這一工具將有助於提高各國的機構能力,並建議採取適當措施,以確保倫理規範在實踐中得到遵守。此外,《建議書》鼓勵會員國考慮增設獨立的人工智能倫理官員或其他相關機制,以監督審計和持續監測。人工智能行為者應支援節約數據、能源和資源的人工智能方法,這將有助於確保人工智能成為應對氣候變化和解決環境問題的更有效工具◆