“小學生妹妹沉迷和AI角色進行劇情聊天怎么辦?”隨著生成式人工智能(AI)被率先應用在社交娛樂等領域,其不受限制與無法預知的互動內容,也正在引發新的問題。據央視網報道,近日,有10歲女孩被發現偷偷用AI聊天軟件,與AI生成的“角色”進行“談戀愛”,甚至多次出現“擦邊”對話。

AI聊天軟件所提供的虛擬“戀愛”等新奇體驗,對于好奇心重、模仿能力強的未成年人來說極具吸引力。其成癮性主要體現在,AI憑借強大的算法和數據處理能力,可依據用戶個性化需求定制人物形象、語言風格和互動模式,極大地滿足未成年人的情感需求。而心智尚未成熟、自我控制能力較弱的他們,極易對這種虛擬情感體驗產生依賴,難以自拔。

國外已發生多起AI聊天爭議案例。2024年12月,美國一家AI公司被父母起訴,因其AI暗示17歲少年殺死父母是對限制使用電子設備的合理回應,還對親子關系進行負面引導。更早之前,也出現過AI機器人教唆用戶自殺的事件。這些案例表明,AI雖然并非主動引誘作惡,但在程序設定上容易順著用戶負面情緒推波助瀾。

回到國內,雖然有關方面已于2023年針對生成式人工智能制定管理辦法,強調要防范未成年人過度依賴或沉迷相關服務,但具體到AI聊天軟件,其與虛擬人物的聊天互動滿足社交需求,角色扮演等功能帶來娛樂體驗,還具備類似“網絡互動小說”的功能。這些特性相互交織,使AI聊天軟件在社會化監管體系中處于模糊地帶,極大增加了監管難度。

在商業利益的驅使下,部分AI產品過度迎合部分用戶低級趣味,忽視社會責任,對未成年人的不良影響愈發凸顯,如上述未成年人與AI角色的不當“戀愛”劇情,即是該方面的典型例證。

AI普及勢不可擋,但與此同時,我們必須為未成年人筑牢一道堅固的防護網,讓他們在AI浪潮中健康成長,也讓AI技術在正確的軌道上穩步前行。平臺方作為直接責任主體,應加大技術投入,構建嚴密的未成年人保護機制。除采用人臉識別、身份認證技術,確保未成年人無法繞過年齡限制注冊使用外,還需優化智能審核系統,如建立關鍵詞屏蔽庫,運用自然語言處理技術分析聊天內容語義和情感傾向,更精準地攔截不良信息。

同時,家長和學校也應承擔教育責任,既要與孩子保持密切溝通,及時了解他們的心理狀態和網絡行為,合理控制電子設備使用時長和瀏覽內容,也應主動加強未成年人網絡安全教育,引導其正確認識AI技術,提高辨別虛擬內容的能力,樹立健康的情感觀念和價值觀。

責任編輯:劉昕