4月3日,工信部等十部門印發《人工智能科技倫理審查與服務辦法(試行)》,提出将科技倫理要求貫穿人工智能科技活動全過程,並推動建立和完善人工智能科技倫理標準體繫。
觀點網訊:4月3日,工信部等十部門印發《人工智能科技倫理審查與服務辦法(試行)》的通知,提出開展人工智能科技活動應将科技倫理要求貫穿全過程,遵循增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明、保護隐私安全、确保可控可信等七項倫理原則。
據介紹,該辦法明确在公平公正方面,需審查訓練數據的選擇標準及算法、模型、繫統的設計合理性,采取措施防止偏見歧視與算法壓榨,保障資源分配、機會獲取和決策過程的客觀性與包容性;在透明可解釋方面,要求合理披露算法用途、運行邏輯、交互方式及潛在風險,並采用有效技術提升繫統可解釋性。
通知還提出,要建立和完善人工智能科技倫理標準體繫,推動制定國際標準、國家標準、行業標準和團體標準,支持搭建國際標準化交流合作平台,並鼓勵高校、科研機構、醫療衛生機構、企業及科技類社會團體參與倫理標準的制定、驗證與推廣。
免責聲明:本文内容與數據由觀點根據公開信息整理,不構成投資建議,使用前請核實。
審校:
