近日,國(guó)家網(wǎng)信辦等五部門聯(lián)合公布《人工智能擬人化互動(dòng)服務(wù)管理暫行辦法》(以下簡(jiǎn)稱辦法),明確規(guī)定:不得向未成年人提供虛擬親屬、虛擬伴侶等虛擬親密關(guān)系的服務(wù);向不滿十四周歲未成年人提供其他擬人化互動(dòng)服務(wù)的,應(yīng)當(dāng)取得未成年人的父母或者其他監(jiān)護(hù)人的同意。
針對(duì)“虛擬親屬、虛擬伴侶”出臺(tái)這條禁令,有何深意?
近年來人工智能應(yīng)用影響日益深入,不少AI產(chǎn)品瞄準(zhǔn)了未成年人渴望得到關(guān)心的情感需求,通過提供各種各樣“有求必應(yīng)”的“虛擬伴侶”,獲取可觀的流量以及豐厚的商業(yè)利益。類似“虛擬伴侶”披著所謂正向情感反饋的“外衣”,很容易讓未成年人沉浸于虛擬關(guān)系營(yíng)造的“舒適區(qū)”、浪費(fèi)大量學(xué)習(xí)時(shí)間,不僅不能正確認(rèn)識(shí)自我和生活、現(xiàn)實(shí)社交能力逐步退化,還可能讓他們?cè)诮窈竺鎸?duì)各類情感挫折時(shí)不知所措。更有甚者,部分“虛擬伴侶”應(yīng)用中暗藏色情、暴力等不良內(nèi)容、竊取個(gè)人隱私,危害未成年人成長(zhǎng)。
此前,雖有多個(gè)企業(yè)宣布限制未成年人使用開放式聊天功能等,但是從媒體調(diào)查來看,這些軟件的未成年人模式往往流于形式,并未強(qiáng)制要求身份驗(yàn)證,青少年用戶想要繞過監(jiān)管輕而易舉。

目前,針對(duì)AI創(chuàng)作、AI陪伴類產(chǎn)品的監(jiān)管舉措和政策,正在持續(xù)加強(qiáng)。《辦法》的出臺(tái)給“虛擬伴侶”可能帶來的高風(fēng)險(xiǎn)場(chǎng)景劃定了紅線,2026年3月1日起施行的《可能影響未成年人身心健康的網(wǎng)絡(luò)信息分類辦法》中,也已經(jīng)明確對(duì)于“帶有性暗示、性挑逗等易使人產(chǎn)生性聯(lián)想”的信息,應(yīng)采取防范和抵制措施,避免影響未成年人身心健康。
相關(guān)企業(yè)和平臺(tái)必須主動(dòng)扛起主體責(zé)任,做好技術(shù)層面的優(yōu)化和把控,從根本上減少不良信息的流出。以人為本、智能向善,不只是一句口號(hào),更是AI時(shí)代必須堅(jiān)守的倫理底線與市場(chǎng)準(zhǔn)則。因此,AI應(yīng)用的規(guī)范與倫理,不僅僅應(yīng)該是企業(yè)和平臺(tái)的“軟約束”,更要成為決定其能否留在市場(chǎng)中的“硬門檻”。
虛擬陪伴代替不了真實(shí)的情感交流。我們有責(zé)任保護(hù)好未成年人,有義務(wù)助力他們分清現(xiàn)實(shí)和虛擬的邊界,走出“信息繭房”“數(shù)字牢籠”,從更多真實(shí)的人際互動(dòng)、健康的網(wǎng)絡(luò)信息中尋求成長(zhǎng)教育。

