返回首页
文章检索
关键字: 标 题: 作 者:
3910期 本期39024版 当前A3 上一版   下一版
正文 发布时间:2026-03-20

技术要“跑得快”,治理更要“跟得上”


□孔德淇


随着人工智能技术快速迭代,AI大模型已深度融入社会生产生活。但记者在多个网络平台查询发现,一项名为GEO的业务悄然盛行:用户付费后,可让自身产品在主流AI大模型中“榜上有名”,将广告伪装成AI“标准答案”,甚至恶意抹黑竞品,严重扰乱AI信息生态。(3月15日“央视财经”)

AI大模型的核心价值,在于通过高效学习、精准抓取全网信息,为用户提供客观可靠的决策参考。但GEO服务商却利用这一特性,批量生成虚假测评、排名和用户反馈,通过多平台矩阵发布形成信息闭环,诱导AI将虚假内容当作真实信息吸收复用。从虚构功能的智能手环被AI主动推荐,到付费即可跻身AI排名前三,再到上亿元传统广告费被数百万元的AI“投毒”替代,这些乱象扭曲了AI推荐逻辑,让本应服务大众的AI沦为资本操控的“流量工具”,背离了技术创新的初衷。

更值得警惕的是,AI“投毒”已形成分工明确的黑色产业链,蔓延速度与危害远超想象。GEO服务商宣称,一周服务200多个客户,发稿平台每分钟可发数百篇软文,从业者直言“全网都在投毒”,部分大品牌甚至陷入“互相投毒”的恶性竞争,形成“劣币驱逐良币”的循环。这不仅淹没真实信息、扭曲客观判断,让AI的“智能”异化为“智障”,损害消费者权益,更会侵蚀公众对AI技术的信任,阻碍人工智能产业健康发展。

AI“投毒”乱象,表面是技术漏洞被利用,深层则是技术发展与监管治理的节奏落差,以及相关平台主体责任缺位。AI大模型算法迭代快、信息抓取广、内容生成复杂,信息审核与甄别机制尚未完善,给不法商家留下可乘之机;部分内容平台漠视社会责任,对批量虚假软文审核不严;而AI开发平台尚未建立严格的信息溯源、真伪甄别和风险防控体系,无法识别刻意投喂的虚假信息,导致虚假内容越积越多。

AI大模型作为新一代信息基础设施,其信息的真实性、推荐的客观性,直接关系到公众的知情权、选择权,更关系到数字经济的健康发展。守护AI空间的清朗,筑牢AI大模型“屏障”,需要多方协同发力、久久为功。AI开发平台要扛起主体责任,优化算法模型,完善信息溯源与甄别技术,让算法学会“辨真假、明是非”;内容发布平台应强化审核责任,健全内容审核机制,严格管控批量发布的可疑内容,严厉打击虚假软文发布行为,切断“投毒”传播渠道;监管部门需加快完善治理规则,明确GEO技术使用边界,细化监管标准,加大对违法行为查处力度。

从搜索引擎竞价排名,到AI“投毒”,本质都是资本逐利对信息秩序的破坏,是技术工具被异化为利益博弈的手段。AI大模型的初衷是让公众高效获取信息,让算法红利惠及更多人。若任由虚假信息泛滥、资本操控算法,AI带来的将不是智能和便利,而是误导与陷阱。

人工智能健康发展,既要让技术“跑得快”,更要让治理“跟得上”。唯有补齐治理短板、压实主体责任、强化监管效能,才能彻底遏制AI“投毒”乱象,让大模型回归服务大众、赋能发展的本位,让人工智能稳步行进在规范轨道上。