撕下AI“畫皮”讓人工智能向好向善
| 2025-11-17 18:08:45??來源:東南網 責任編輯:孫勁貞 我來說兩句 |
一條AI仿冒視頻中,侃侃而談的專家,商家稱是北京協和醫院臨床營養科主任于康教授,他是我國營養與健康領域的權威專家。記者在小紅書、微信視頻號上,刷到了不少,以于康教授形象出鏡的科普視頻,介紹和推銷減肥食譜。記者隨后聯系北京協和醫院調查核實。于康教授明確表示,他本人從未參與錄制此類視頻。(11月17日 《現代快報》) 如今,人工智能技術已經深入到公眾生活的方方面面,正在重塑社會生活的方式。理性而言,人工智能技術是一種工具,沒有善與惡的區分。正因如此,怎樣讓技術向好向善,引導人工智能技術應用符合人類生活的價值觀,去輔助人們去創新和創造,目前已經成為全社會所關注的重要議題。 技術始終是中立的,但其應用卻裹挾著倫理選擇。毋庸置疑,AI生成合成技術的初衷,是為內容創作、知識傳播提供便捷,讓醫療科普更生動、健康知識更易普及。然而在利益驅動下,這項技術被異化為“造假工具”:僅需幾張照片、幾句文案,30秒就能偽造出“專家背書”的視頻,甚至可抹去AI生成標識,讓虛假內容以假亂真。這種“技術濫用”的本質,是對社會基本倫理的踐踏,盜用他人形象侵犯肖像權與名譽權,傳播虛假健康信息誤導消費者,破壞的是公眾對權威的信任,消解的是整個社會的信任基礎。 《聊齋志異》中的“畫皮”在現實世界上演,“魔幻現實主義”的具象衍生的社會性恐慌顯而易見。當AI仿冒內容充斥社交平臺,營養學界長期的科普努力付諸東流,錯誤健康認知卷土重來,最終損害的是千千萬萬受眾的切身利益,這與技術服務社會的倫理初衷背道而馳。 技術倫理的失守,往往伴隨著監管與自律的雙重滯后。從倫理自律層面看,部分技術開發者只追求“功能強大”,卻忽視了技術應用的風險預警……免費換臉App、AI文生視頻工具無差別開放,未設置“禁止偽造他人形象”的技術屏障,也未履行“風險提示”的社會責任,變相為侵權行為提供了便利。制度層面,技術迭代速度遠超規則更新,盡管《人工智能生成合成內容標識辦法》已明確AI內容需加標識,但“顯性標識易被規避、隱性標識難追溯”的現實,仍讓倫理失范者有機可乘;而技術鑒定難、證據固定難、溯源追責難的困境,進一步導致倫理底線的失守。 破解AI仿冒營銷的倫理困局,需要“技術向善”與“制度護航”雙管齊下。在技術層面,開發者應將倫理考量嵌入技術設計全流程,設置“偽造他人形象需授權”的強制校驗機制,對涉及醫療、健康領域的AI內容增加“風險審核”環節,從源頭遏制技術濫用。同時,需強化《人工智能生成合成內容標識辦法》的執行力度,對未加標識、仿冒他人形象的行為提高處罰標準,讓倫理失范者付出沉重代價;社交平臺更要承擔起“守門人”責任,通過AI識別技術篩查虛假內容,對違規賬號從嚴處置,不讓平臺成為倫理失范的“盛宴”。 AI技術的價值,永遠取決于使用它的人。唯有將“尊重個體權益、維護公共利益”的倫理準則,內化為技術開發的自覺、監管執法的標尺、平臺運營的底線,才能讓AI技術真正成為服務社會的“善器”,而非侵蝕信任的“利器”,讓數字空間回歸健康、有序的倫理軌道。(樊樹林) |
相關閱讀:
![]() |
打印 | 收藏 | 發給好友 【字號 大 中 小】 |










