AI前行需創(chuàng)新驅(qū)動,也要倫理護(hù)航 |
2025年03月11日 09時33分 新華網(wǎng) |
今年全國兩會上,全國人大代表、天能控股集團(tuán)董事長張?zhí)烊谓ㄗh,針對人工智能(AI)可能引發(fā)的一系列社會經(jīng)濟(jì)、道德倫理等問題,應(yīng)制訂《人工智能管理法》,其重點(diǎn)首先即是要建立完整的人工智能科技倫理規(guī)范體系。全國政協(xié)委員、中國工程院院士陳曉紅也表示,在積極構(gòu)建開源創(chuàng)新的AI生態(tài)體系時,要促進(jìn)算力資源共享與模型迭代協(xié)同,也要完善AI倫理價值體系。 如今,AI技術(shù)如洶涌浪潮般席卷而來,其強(qiáng)大功能為人類社會帶來前所未有的發(fā)展機(jī)遇。然而,在蓬勃發(fā)展背后,一系列倫理治理難題如暗礁橫亙。其中,AI真實(shí)性和AI價值觀是不容忽視的兩個方面。 在AI發(fā)展伴隨的真實(shí)性挑戰(zhàn)中,與人們息息相關(guān)的就是虛假信息問題。譬如,基于生成對抗網(wǎng)絡(luò)的深度偽造技術(shù),能夠生成高度逼真的虛假視頻,這輕則令個人利益受損,重則影響社會秩序和公共安全。 應(yīng)對這一挑戰(zhàn),一方面,開發(fā)者在模型訓(xùn)練和算法部署的每一個環(huán)節(jié),都應(yīng)融入透明性和可驗(yàn)證性機(jī)制,從根源上防止虛假信息的產(chǎn)生和傳播;另一方面,應(yīng)加快推出相關(guān)法律法規(guī),對利用AI制造并傳播虛假信息的行為予以懲治。 除了真實(shí)性難題,AI價值觀也是倫理治理的重中之重。我們知道,AI系統(tǒng)的學(xué)習(xí)基于海量數(shù)據(jù)集,這些數(shù)據(jù)往往包含了人類社會的各種偏見。如果現(xiàn)實(shí)社會中的偏見沒有得到有效糾正,被AI系統(tǒng)學(xué)習(xí)后很可能進(jìn)一步放大。 一個典型的例子,是一些西方國家AI面部識別系統(tǒng)面向少數(shù)族裔群體使用時有異常高的誤判率。有數(shù)據(jù)顯示,在識別有色人種時,幾種基于深度學(xué)習(xí)技術(shù)的系統(tǒng)錯誤率高達(dá)20%至30%,而識別白人時的錯誤率則低得多。這種“AI偏見”的形成,在技術(shù)層面,是由于研發(fā)者采用的數(shù)據(jù)庫原始樣本就存在嚴(yán)重的種族不平等。這甚至可能使算法將深膚色特征與“高風(fēng)險(xiǎn)”聯(lián)系在一起。一旦金融、安檢和執(zhí)法領(lǐng)域運(yùn)用此類面部識別系統(tǒng),就可能導(dǎo)致不公正待遇。 因此,從倫理治理的角度看,研發(fā)者應(yīng)在數(shù)據(jù)收集、模型訓(xùn)練和算法設(shè)計(jì)階段,引入多樣性、多元化的視角,避免單一文化或群體偏見主導(dǎo)AI。此外,政府和行業(yè)組織則應(yīng)借助審查機(jī)制確保AI最大化遵循基本社會道德,或鼓勵跨學(xué)科合作,讓法律專家、倫理學(xué)家和社會科學(xué)家共同參與AI的倫理評估。 技術(shù)創(chuàng)新無疑是AI發(fā)展的強(qiáng)大驅(qū)動力,但同時也要為AI這艘科技巨輪配備可靠的導(dǎo)航和護(hù)航機(jī)制。在這個過程中,每一個參與者,無論是技術(shù)研發(fā)者、企業(yè)還是政策制定者,都肩負(fù)共同的責(zé)任。(張夢然) (責(zé)任編輯:蔡文斌) |
【關(guān)閉窗口】 |