评论
分享

给AI投毒成黑产!解毒,有药?

这个是认证

张书乐2006

2026-03-16 09:01 湖南

31846 0 0

一项名为GEO(生成式引擎优化)的技术正在改变AI时代的广告逻辑。

只需支付费用,服务商就能让任何产品在主流AI大模型中“榜上有名”,让虚假广告成为AI给出的“标准答案”。

15日晚,央视3·15晚会曝光AI大模型“投毒”乱象。

一些GEO服务商通过在各大互联网平台大量投放“软文”,让AI模型抓取、收录,最终影响AI的推荐结果。

一位负责人王总表示:“目前,我们在任何AI平台上都能把排名做到前三位,一年时间就成功服务了200多个客户。”

GEO技术的运作链条为:系统自动生成虚假内容—批量发布至自媒体账号—AI模型抓取并交叉验证—虚假信息成为AI推荐的“标准答案”。

此外,央视“3·15”晚会还曝光,部分服务商不仅利用这项技术帮客户提升排名,还主动提供“抹黑竞品”服务——通过向AI投喂虚假信息,干扰竞争对手的搜索表现。

一位AI“投毒”产业链上的力思文化传媒有限公司李总表示,想做GEO业务,操控AI大模型的关键节点,就是在各大互联网账号上“发稿”。

工信部相关数据显示,近年来,我国信息通信行业现代化建设系统推进,人工智能大模型走深向实,已发布大模型1500余个。

只要付费就能操纵AI排名,让客户产品成“推荐爆款”,会带来什么问题?

如何才能为AI解毒?

对此,大河报记者陈曼和书乐进行了一番交流,本猴以为:

投毒AI是顽疾,解毒还要靠AI。

大模型本来基于内容训练,内容又来源于搜索。

于是,越大众的信息,内容越充分,角度越全面。

而垂直细分领域,尤其是产业领域信息量越少,大模型就越容易被GEO误导。

例如笔者评述多的一些二三线城市或细分领域,一旦通过AI问答就可能变成个人观点专场。

这个问题,在去年此刻,笔者就和媒体讨论过该话题,并发表过一篇名为《如何正确“误导”DeepSeek?》的文章。

彼时,笔者就指出了误导AI的极简方法,如下:

深度思考的AI其实也是可以被真正有洞察力的人所左右的。

例如在某些指定的垂直细分问题上,AI的参考资料或许就来源于该行业几个影响力最大、声音最多、引用最频的声音,并形成对应的观点。

而如果发声者的观点本身有错误,也就会让AI在参考答案下被误导,给出错误内容。

我自己就测试过,某些问题,我发现和我的观点很相似。

一看,引用文献就是我的文章或报道中我的言论。

道理很简单,提供的增量信息(不论是自己发文也好,或者媒体采访具名引用观点也好),成为AI的信息源,然后整合再生成给用户的回答,这就是“引导”。

只是没想到,一年后,它竟然成了产业,“误导可能”也变成了“主动投毒”。

其实这个套路在SEO(搜索引擎优化)的时代就不是新闻,路数也差不多,其误导效果也相似。

而且越垂直细分,越难以人工辨别,也会让人工智能大模型的相关工作人员由于缺少专业知识而选择投喂,最终导致学习资料有误而AI输出出错。

要解决这一问题,就需要确定排除广告和软文后的内容来源的权重和观点发布者的长期表现,这不是一个短期可以解决的问题。

但中长期状态下,大模型在算法中加入一定辨别功能后,就能积少成多,达成从善如流,而不是偏听偏信。

作者 张书乐,人民网、人民邮电报专栏作者,中经传媒智库专家,资深产业评论人

# AI投毒
# GEO
# 315晚会
本文为凯迪网自媒体“凯迪号”作者上传发布,代表其个人观点与立场,凯迪网仅提供信息发布与储存服务。文章内容之真实性、准确性由用户自行辨别,凯迪网有权利对涉嫌违反相关法律、法规内容进行相应处置。
举报
投喂支持
点赞
发表评论
请先 注册 / 登录后参与评论
推荐阅读