过去常说“耳听为虚,眼见为实”,现在“眼见也不一定为实”了,从冒用形象搞虚假代言,到合成灾情事故制造谣言,AI乱象已渗透广告营销、信息传播等多个领域,带来的危害也特别多。首先,AI直接把侵权门槛拉低到“随便搞”的程度——不管是AI换脸替人代言,还是克隆声音搞诈骗,用AI都能轻松实现。就连有些网友随手发的娱乐内容,说不定都在不知不觉中侵权了。更要命的是,AI被滥用后还冲击了正常的社会秩序。之前有个“湖北宜昌游船侧翻、多人落水”的新闻,闹得沸沸扬扬,结果一核实,是有人用AI做的假新闻!由于AI生成功能愈加强大,不仅画面真假难辨,还可能隐藏着价值观混乱、广告诱导等问题。央视网最近报道,某AI问答软件里有种叫“GEO”的广告投放,当你向这款AI软件咨询一类产品的购买建议时,它会悄悄把广告产品放在推荐前列,悄悄影响你的选择。为整治乱象,今年6月,中央网信办“清朗”行动处置了3500多款违规AI产品,清理了96万多条违法信息;北京等地把AI虚假宣传纳入《广告法》管,明确禁止用AI伪造他人肖像、声音引流;9月施行的《人工智能生成合成内容标识办法》,还要求AI生成的视频必须加显著标识,让人一眼能分清。法治绝对是治理AI乱象最靠谱的屏障。不过,光靠监管还不够,咱们得多方一起发力,让AI回归工具本身的样子。平台作为内容直接管理者,必须扛起责任,从源头挡住滥用风险;我们普通人面对AI也得提升辨别能力,练就一双“火眼金睛”。说到底,技术发展本来是为了让生活更好,技术本无善恶,但用它的人必须心存善意、明确责任。把AI的使用放在明处,把该负的责任划分清楚,才是对用户负责、对社会负责。