工信部等十部門聯合發布《人工智能科技倫理審查與服務辦法(試行)》,從公平公正、透明可解釋、隐私保護三方面提出具體規範要求。
觀點網訊:4月3日,工業和信息化部等十部門發布關于印發《人工智能科技倫理審查與服務辦法(試行)》的通知,明确開展人工智能科技活動應将科技倫理要求貫穿全過程。
根據公開資料整理,該辦法提出的人工智能科技倫理原則包括增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明、保護隐私安全、确保可控可信。
據介紹,辦法在公平公正方面要求,訓練數據的選擇標準,算法、模型、繫統的設計應合理,應采取措施防止偏見歧視、算法壓榨,保障資源分配、機會獲取、決策過程的客觀性與包容性。在透明可解釋方面,應合理披露算法、模型、繫統的用途、運行邏輯、交互方式說明、潛在風險等信息,采用有效技術手段提升算法、模型和繫統的可解釋性。在隐私保護方面,數據的收集、存儲、加工、使用等處理活動以及研究開發數據新技術等,應采取充分措施确保隐私數據得到有效保護。
免責聲明:本文内容與數據由觀點根據公開信息整理,不構成投資建議,使用前請核實。
審校:
