工業(yè)和信息化部等十部門近日聯(lián)合印發(fā)《人工智能科技倫理審查與服務辦法(試行)》,提出支持人工智能科技倫理審查技術創(chuàng)新,強化以技術手段防范人工智能科技倫理風險。
辦法明確,開展人工智能科技倫理審查重點關注人類福祉、公平公正、可控可信等方面。包括訓練數(shù)據(jù)的選擇標準,算法、模型、系統(tǒng)的設計是否合理;是否采取措施防止偏見歧視、算法壓榨,保障資源分配、機會獲取、決策過程的客觀性與包容性;是否合理披露算法、模型、系統(tǒng)的用途、運行邏輯、交互方式說明、潛在風險等信息等。
辦法還提出,促進人工智能科技倫理審查高質(zhì)量數(shù)據(jù)集有序開源開放,加強通用性風險管理、評估審計工具研發(fā),探索基于應用場景的科技倫理風險評估評測;推廣符合科技倫理的人工智能產(chǎn)品和服務,保護科技倫理審查技術知識產(chǎn)權。(記者 唐詩凝、周圓)
轉(zhuǎn)自:新華社
【版權及免責聲明】凡本網(wǎng)所屬版權作品,轉(zhuǎn)載時須獲得授權并注明來源“中國產(chǎn)業(yè)經(jīng)濟信息網(wǎng)”,違者本網(wǎng)將保留追究其相關法律責任的權力。凡轉(zhuǎn)載文章及企業(yè)宣傳資訊,僅代表作者個人觀點,不代表本網(wǎng)觀點和立場。版權事宜請聯(lián)系:010-65363056。
延伸閱讀