评论
分享

陈根:人工智能,为何会“骂人”

这个是认证

陈根谈科技

2022-06-11 09:56

21894 0 0

文|陈根

       在网络信息高速发展的时代下,逐渐诞生一种名为“键盘侠”的群体。他们非常容易冲动和暴躁,一旦在网络上看到与自己的认知不符的东西,就会站在道德至高点上大放厥词,甚至会攻击、辱骂他人。

       近日,YouTube知名深度学习博主Yannic Kilcher用1.345亿个充满语言暴力的帖子,也训练出一个“人工智能键盘侠”。该键盘侠名为“GPT-4chan”,其通过训练学会了如何在网站上交谈,并在一天不到的时间内发布了超过15000个充满负面言论内容的帖子。

       4chan的/pol/(“政治上不正确”缩写)板块是仇恨言论、阴谋论和极右翼极端主义的家园,也是4chan最活跃的版块。其在这一版块日均发帖量约为15万条,包括各种匿名的仇恨言论、以及具有人身攻击的回复。

       更糟糕的是,该模型能够完整习得/pol/上渗透到大多数帖子里的攻击性、虚无主义、挑衅。这导致它不但可以响应上下文,还能流畅地谈论在最后一次训练数据后发生的事情。最初,都没有人认出来它是一个聊天机器人。

       实际上,GPT-4chan并不是第一个“口出狂言”的人工智能。此前微软推出聊天机器人Tay,本以为会打开一扇新世界的大门,没想到大门是打开了,里面却不是新世界——短短不到24个小时,Tay已经学会了说脏话和发表带有种族歧视、反动色彩的言论。

     科技是一把双刃剑,其在推动社会进步的同时,也在很大程度上带来了风险,人工智能技术也是如此。倘若人工智能设计者在设计之初,就带着个人偏见和感情色彩,那么训练出来的AI也会带有这种偏见和主观。

       例如,在谷歌搜索当中,如果浏览器认为你是个男性,就会给你推荐一些薪水高的职业,女性则反之。并且在一些算法中,黑人名字往往和消极性词汇联系在一起,而白人名字往往和积极向上的词眼在一块儿。

       设计是人工智能的逻辑起点,设计者的主体价值会通过设计被嵌入人工智能的底层逻辑之中。所以,为了防止带有偏见以及出言不逊的AI出现,应该从“源头”抓起。

# 人工智能
# 算法
# 科技
本文为凯迪网自媒体“凯迪号”作者上传发布,代表其个人观点与立场,凯迪网仅提供信息发布与储存服务。文章内容之真实性、准确性由用户自行辨别,凯迪网有权利对涉嫌违反相关法律、法规内容进行相应处置。
举报
投喂支持
点赞
发表评论
请先 注册 / 登录后参与评论
推荐阅读