文 |无言
现在刷社交软件,谁没听过“信息茧房”这词儿?总有人说算法把我们困在小圈子里,看得越多越狭隘。
但我刷了这么多年手机,发现事儿可能没这么简单。
本来以为多看看不同观点就能打破茧房,后来发现完全不是这么回事。
对立观点为啥越看越极端
杜克大学有位社会学家做过个实验,挺有意思的。
他让用户在『社交媒体』上接触和自己相反的政治观点,本以为大家会反思自己,结果反倒让立场更极端了。
这结果真挺颠覆认知的,搞不清为啥明明看到了不同声音,反而更钻牛角尖了。
这位学者还提出个“『社交媒体』棱镜”的说法,我觉得挺形象的。
『社交媒体』不是镜子,不会如实反映世界,反而会扭曲我们的认知。
网上总有些喜欢发泄情绪的人,他们不是想聊共识,就是想制造混乱。
这种人现实里也有,就像小说里写的那样,觉得自己被轻视,就故意闹一场找存在感。
这类闹剧在网上总能得到更多关注。
理性讨论没人看,情绪发泄却能刷屏,这大概就是人性的特点吧。
『斯坦福大学』做过研究,网络极端言论传播速度比理性讨论快不少,毕竟情绪这东西,比道理更容易传染。
信息茧房是过度焦虑吗
“信息茧房”这概念是哈佛大学一位教授提出来的,意思是算法总推我们感兴趣的内容,慢慢就把自己困住了。
后来又衍生出“同温层”“过滤气泡”这些说法,听得人心里发慌,生怕自己变成井底之蛙。
但仔细想想,选择性看自己感兴趣的信息,好像不是算法出现后才有的事儿。
以前没『互联网』的时候,大家也喜欢和想法一致的人聊天,避开三观不合的人。
有学者就说,“同温层效应”确实存在,但大家的顾虑有点夸大了。
皮尤研究中心做过调查,不少用户其实会主动搜不同信息,真正觉得被算法限制的人没那么多。
我自己也有体会,有时候刷到不感兴趣的内容,虽然会划走,但偶尔也会点进去看看。
如此看来,所谓的“信息茧房”,可能更多是自己的选择,而非算法的强制。
算法干预为啥没用
阿姆斯特丹大学的两位学者做了个模拟实验,用『大语言模型』生成500个虚拟用户,还原社交网络场景。
这些虚拟用户有年龄、政治倾向等真实特征,实验跑了一万个周期。
结果挺让人沮丧的,不管用哪种模型,『社交平台』都出现了回音室、极端声音放大等问题。
他们还测试了六种干预策略,比如按时间推送、平衡党派内容等,效果都不好。
按时间推送本以为能减少不平等,反而让极端内容传得更快,平衡党派内容虽然增加了观点多样性,却加剧了关注度不均。
《自然》杂志之前也发表过研究,分析了Reddit平台14年间的51亿条评论。
发现2016年美国大选期间,平台极化突然变严重,主要是新用户带来的,老用户立场没怎么变。
这说明极化可能和外部事件有关,不是平台算法能决定的。
上世纪60年代就有学者批判过政治偏执的传统,觉得这是一种心理情结。
不管是用纸媒、电视还是『社交媒体』交流,这种对立好像一直存在。
毫无疑问,社会本身的分裂,可能才是网络对立的根源。
算法只是把现实中的矛盾放大了,却背了所有锅。
其实说到底,信息茧房的担忧有点被过度渲染了。
打破茧房解决不了极化问题,算法也不是罪魁祸首。
我们总想着靠技术干预解决所有问题,却忘了人性的局限和社会的现实。
与其怪罪算法,不如学着理性看待不同观点,接受世界的多元。
毕竟,理解世界的复杂性,才是我们打破认知局限的第一步。




