万维读者网 > 每日文摘 > 正文  

大数据,正在毁掉我们与最亲密的人的关系

www.creaders.net | 2025-09-22 11:04:13  KnowYourself | 0条评论 | 查看/发表评论

  大家有看过父母的社交媒体吗?

  我经常被爸妈手机里的短视频给震惊到,打开都是《体检都是骗局》《年轻人不想结婚,是被外来思想操纵!》,还有老年人在养老院里被扇耳光、婆媳矛盾的视频,情绪煽动性极强,即使有些在我看来“一眼假”,他们都深信不疑。

  不光是父母,和周围人聊天时,也会发现在信息前所未有发达的当下,人与人之间的信息差却前所未有地大——

  男性刷到的短视频经常有“天价彩礼”、“捞女”、“极端女权”,女性刷到的都是“家暴”、“杀妻案”、“性侵”;孩子看到的是“不幸的童年要用一生来治愈”,父母看到的是“可怜天下父母心”。

  现在,几乎每个人都活在算法为自己量身打造的回音室里,无法听到外界的声音。甚至,算法正在悄悄改造我们的价值观,让我们和最亲密的人彼此对立、彼此割裂。

  大脑本身擅长制造信息茧房

  算法将其进一步放大

  当我们遇到与自己价值观截然相反的人,第一反应往往是“怎么会有人这么想?太荒谬了”。

  但如果深入了解就会发现,这一点也不奇怪,因为 ta 所接收的所有信息都在不断加固和维护这种价值观,以至于从 ta 的视角来看,这简直就是就是真理。

640 (71).webp

  2021年调查显示,美国有10%的人认为地球是平的

  图片来源:POLES 2021 survey[1]

  理查德·德威特所著的书籍《世界观》非常生动地描绘了我们的世界观是如何建立的,观点和观点之间不是彼此独立,而是像是拼图一样,相互契合、环环相扣[2]。

  比如,一个人相信“父母是绝对爱孩子的”,那 ta 大概率也会相信“打是亲,骂是爱”,相信父母做出任何事情都是为了孩子好。这些观点相互契合佐证,组成严丝合缝的拼图。

  当 ta 听到“很多父母不爱孩子,只是想控制孩子”、“原生家庭会给孩子带来持久的创伤”时,如果要相信,就意味着原有的拼图被彻底推翻,于是大脑为了减少认知上的负担,更倾向于拒绝相信那些难以嵌入已有拼图的观点。

640 (72).webp

  物理学家因为认知被颠覆而纷纷自杀

  图片来源:《三体》

  哈佛大学教授 Keith Sunstein 最早提出“信息茧房”这个概念的时候,就定义为,在广袤的信息宇宙里,我们只选择让我们舒适和愉快的东西[3]。

  可以说,大脑天然擅长制造信息茧房,我们以为自己每天在接受新鲜的信息,其实只是源源不断地听到自己的回声,给陈旧的世界观大厦添砖加瓦而已。

  算法则进一步放大这种倾向,它通过相似推荐、放大极端、操纵情绪等方法影响着我们的认知。

  个性化推荐:根据你的点赞、停留和分享,推送更多相似内容,让你觉得“原来大家都这么想”、“这就是常识”;

  放大极端个例:猎奇、冲突或极端的事件被反复推送,让你觉得“这种事遍地都是”;

  正负反馈失衡:偏重正反馈(如点赞),忽略负反馈(如跳过),慢慢地你只能刷到你感兴趣的内容,形成信息孤岛。

640 (73).webp

  图片来源:《监视资本主义:智能陷阱》

  

  处处迎合人类的算法,是如何

  制造操控,加剧对立的?

  当你的偏好被无限迎合

  就会越来越无法忍受“不同”

  我有一对情侣朋友在争吵后分别去找 AI 倾诉,聊完他们都觉得:AI 简直太懂我了,我没有错,该低头认错的是对方。

  算法对于人的迎合和 AI 起到类似的效果,一个个帖子、一条条视频仿佛都是为自己量身定制,让人产生一种深深地被理解、被认同的感受——原来我是对的,原来不是我的错。

640 (74).webp

  AI 对人类的谄媚

  图片来源网络

  这在一定程度上是好事,生活中被理解和认同的体验如此稀缺,网络和 AI 让它变得唾手可得。

  但与此同时,个体的自恋被前所未有地放大,当人们习惯了处处迎合自己的网络环境,就越来越难以忍受现实生活中的真实摩擦,听到不同意见、不同观点,第一反应是抵触甚至愤怒。

  我们可能会对亲近的人说“就连网上的陌生人都能理解我,为什么你不能?”、“这个博主讲的就是你这种人,你知道错了吗?”,不再把对方当成一个活生生的、有缺陷、有主体性的人,而是希望自己能永远被迎合,永远正确,自恋永不受损。 

640 (75).webp

  图片来源:《监视资本主义:智能陷阱》

  哲学家约翰·杜威强调,如果一个环境总是处处迎合我们的冲动,那么它对成长的限制将和处处充满敌意的环境一样致命[4]。

  因为成长恰恰来自于和“不同”“不舒服”的他者相遇,没有这种摩擦,我们会活在一个完美的镜像里——没有人能真正和我们相遇,我们也不再真正看见别人。

  活在不同信息茧房里的人

  无法说服彼此并走向各自的极端

  群体极化(Group Polarization)是一种社会现象,指的是经过群体讨论后,个体的想法不会趋于中肯温和,而是会被推向更极端[3]。

  比如,你本来只是觉得父母有一些地方做得不好,但当你进入一个不断吐槽原生家庭的群体时,群体内的共鸣和情绪会像放大器一样,让你越来越确信“父母皆祸害”、“一切都源于不幸的童年”。

  和不同意见的群体聊天同样会加剧极化,比如一个人原本对于婚姻抱有疑虑,但在频繁看到“晒幸福”“催婚”的言论后,不仅不会向往,反而会更强烈地排斥婚姻,忍不住想寻找证据来证明“婚姻就是牢笼”。

  于是,人们一边在同温层报团取暖,点赞自己认可的帖子,一边“排除异己”,在不认同的帖子下面花几个小时和陌生人争论,最终谁都不会被说服,只会让彼此都变得更加极端。

  群体极化的危险在于,群体内部无限趋同,而群体和群体之间的分裂被无限放大,不同立场的人失去了对话的可能性,即使是身边亲近的人也难以互相理解。

  在泛滥的虚假信息中

  普通大众成为被误导和操控的对象

  算法难以区分信息的真假,情绪化、夸张甚至虚假的内容,更容易在平台上被推向大众。

  新周刊曾发布一篇文章名为《AI假新闻,霸占我的家族群》,其中列举了“五角大楼被炸”、“火车撞上修路工人”、“老人被殴打昏迷”等 AI 生成的假新闻,这些假新闻往往聚焦在城乡发展、阶层矛盾、性别对立、国际局势这些很有争议的话题,迅速博得巨大的流量[5]。

  根据 Quest Mobile 发布的 2021 年《银发人口经济洞察报告 》,短视频已渗透到超过 80%的老年人[6],他们往往也是缺乏陪伴、在网络世界难以辨别虚假信息、容易受骗的群体。

  在一些热点事件爆发的初期,网络上也总是传播大量的虚假信息,普通民众要么情绪被推到极端,要么慢慢变得麻木、冷漠。

  走出信息茧房

  从主动寻求不同开始

  寻找突破性知识,留意那些

  跟你的认知截然相反的内容

  作家 Michael Simmons 把知识分为两种:增强性知识和突破性知识[7]。

  增强性知识是加深我们固有认知的知识;

  突破性知识会挑战我们关于世界如何运作的基础信念,或者提供一种全新的看待世界的方式,会对我们的人生产生漫长而深远的影响。

  算法时代,我们被推送的往往都是增强性的知识,主动寻找突破性知识成了突破信息茧房的关键。

  比如:

  特意去查找跟你已有认知截然相反的观点,会发现相反的观点也有源源不断的证据,而自己所以为的“常识”并不是普遍真理;

  试着跨不同的学科去看待同一个问题会焕然一新,意识到有不同的视角的存在,而自己的视角并不是唯一答案;

  用主动阅读替代被动推送,比如对某些议题感兴趣就去找相关的书籍来阅读,对它有更体系化的认知后再去刷社交媒体,会更有分辨能力,而不是全盘接收;

  走近一个真实的人类

  不局限于待在同温层

  我们常常能刷到这样的建议:“远离一切消耗你的人”、“莫与傻子论短长”。这些话听起来很有道理,但也让我们丧失和与自己不同的人交流的动力。

  面对一个跟自己的三观差异很大的人时,我们可以试着不去区分对错好坏,而是意识到每个人接收到的信息可能天差地别,大家都被局限在自己的认知中,或许并没有谁比谁更正确。

  而试着探究对方的世界观是如何形成的、为什么会做出这样的判断,就是在松动固有的认知拼图,让新的碎片有可能加入。

  最后,你或许会发出这样的疑问:“做这些好累,我就不能想刷什么就刷什么,怎么舒服怎么来吗?”

  对于这种真实也普遍的困惑,社会学家艾伦·约翰逊所说的“最小阻力路径”给了我很多启发:一个系统之所以能长久维持,是因为大多数人都会选择那条最轻松、最不费力的路径[8]。

  比如一群人聚在一起开歧视的玩笑,跟着大家一起笑是最省力的,而站出来说“这个玩笑很冒犯”则是一条阻力更大、更难走的路。

  当所有人都只想走最小阻力的路径时,就共同维护了系统的运转,当越来越多的人不玩这个游戏,选择那条更难走、但更符合自己心意的路时,旧系统就会自动瓦解。

  当我们变得更有分辨能力,不再被极端、虚假的信息吸引,它们就自然会在信息的洪流中被淘汰,我们也在为更好的网络环境贡献一份自己的力量。

   0


热门专题
1
美伊冲突
6
俄乌战争
11
大S
2
以伊战争
7
万维专栏
12
洛杉矶大火
3
四中全会
8
何卫东
13
叙利亚
4
中美冷战
9
AI
14
苗华被抓
5
川普
10
中共两会
15
美国大选
关于本站 | 广告服务 | 联系我们 | 招聘信息 | 网站导航 | 隐私保护
Copyright (C) 1998-2025. Creaders.NET. All Rights Reserved.