周瀚毅孙婉婷:为什么你看到的视频越来越极端?

有时候,当你看到的视频太完美、太震撼或太符合你原本的想法时,不妨问问自己:“这是我的选择,还是演算法的选择?”不要让演算法替我们决定看什么、想什么。我们可以信任科技,但更要懂得查证。

今年2月至3月,亚洲六个国家展开为期五周的联合行动,包括新加坡警方在内的执法机构,逮捕了400多名涉嫌网络儿童性剥削的罪犯。在更远的地方,英格兰和威尔士每月约有850名男性因网络虐童罪被捕。这些罪犯来自各行各业,包括教师、警察、公务员等。他们最初接触的往往是一些可以轻易在线观看的普通成人内容,但后来却一步步陷入网络中的黑暗角落,接触到更极端的素材。

其中一些犯罪者寻求极端的内容,另一些则被引向他们自己本不会涉足的网络空间。虽然网上的儿童性剥削和性虐待的内容,对我们许多人来说是令人发指、不能触碰的,但你是否发现,自己在YouTube或抖音上看到的视频内容,越来越夸张,甚至带有偏见?

例如,你可能一开始只是看看健康小贴士、退休理财建议,或新闻摘要。没想到过了几天,推荐内容却变成各种“神奇疗法”“经济崩溃预警”,甚至阴谋论。

这并非偶然,而是一种名为“演算法漂移”(algorithmic drift)的现象——视频平台为了让你多看几段影片,延长用户的停留时间,会悄然引导你接触不同类型的内容,从原本中立实用的信息,逐渐转向更加情绪化、更加极端的方向。这种变化往往不容易察觉,却会在无形中扭曲我们的判断与思维方式。我们该如何保护自己,抵御演算法漂移,夺回网上接收到的信息的主动权?

YouTube、抖音、脸书等这类平台,都通过人工智能系统,根据用户兴趣推荐内容。这些系统分析用户的点击、观看时长与互动数据,然后进一步推送相似的视频。听起来很方便,但这些推荐机制的真正目标,并不是提供最真实或最全面的信息,而是尽可能延长你在平台上的停留时间。越是情绪强烈、标题夸张的视频,越容易吸引注意,因此系统自然会不断强化推送这类内容。

久而久之,原本多元理性的内容生态,就可能逐渐被单一、重复甚至误导性的信息取代。这种逐步变化的过程,就是所谓的“演算法漂移”。

我们都可能陷入其中

以下这些情境,许多新加坡人可能都感同身受:

你今年60多岁,对最近暴发的流感感到担忧。你首先观看了一段关于增强免疫力以改善睡眠的草药疗法视频。几天后,你的推荐页面上出现的几乎全是质疑西医、鼓吹传统疗法的视频。你并没有刻意去寻找这些内容,而是算法根据你的浏览习惯,逐步引导你走向更极端的方向。

你是一名职业人士,正开始考虑退休后的养老问题,接着推荐的是有关全球贸易冲突如何影响个人储蓄的内容。再过几天,你看到的视频不断强调只有投资黄金、加密货币或海外资产才能保值。本来是理性实用的理财内容,慢慢演变成充满焦虑情绪的恐慌性投资建议,而这些理财专家是否具有专业知识,往往难以核实。

你是幼儿的家长,正在搜索如何管理儿童屏幕时间的视频,随后却接连看到“蓝光对大脑有害”“电子设备会长期损伤神经系统”等说法的内容。几天之内,你的视频页面充斥各类宣称“电磁波危害被掩盖”“须要购买能量护盾”等内容。原本合理的关切,逐渐被演算法引导至虚假甚至牟利的伪科学信息链。

在最近的大选中,你是首投族,想从一个片段开始了解如何查阅选民名册,或了解所在选区的候选人。随后,系统推荐了针对本地政策的评论视频,例如对房价或公积金制度的批评。接下来,你看到的内容变得越来越情绪化,频繁出现“选谁都没用”“制度不会改变”这样的言论。有些视频甚至来自国外,对新加坡实际情况缺乏了解,但演算法依然会持续推荐这类内容。你从一开始的理性关注时事,慢慢被带入一种对政治的无力感。

信息茧房、回声室与“深伪”陷阱

对许多年长者来说,这些平台已成为日常生活的一部分,不仅是获取资讯的渠道,也是娱乐和社交的工具。但如果我们对背后的推荐机制缺乏了解,就很容易在不知不觉中受到影响。

这些演算法的本意不是误导,而是最大化“用户黏性”,加长用户在平台上的逗留时间。但长期反复接触同类内容,可能会逐步改变我们对现实的理解,甚至影响行为。这种现象也被称为“回声室效应”,即人们只接收到与自身观点一致的信息,逐渐排斥异见。

更令人担忧的是,一些看似真实的视频,其实可能是由人工智能合成的深度伪造(deepfake)视频。这些伪造内容在图像、声音上难以分辨真假,容易误导公众,甚至被用来操纵舆论或攻击特定群体。面对这类技术带来的新型风险,我们更须要具备基本的辨识能力。

我们能做什么?从主动查证开始

我们并非束手无策。用户可以主动采取一些行动:不要完全依赖推荐系统,而是尝试主动搜索来自不同信息来源的内容;当你发现自己的视频内容越来越单一或情绪化时,不妨按下暂停键,反思是否陷入了演算法所制造的信息茧房;多与亲友分享观看心得,倾听不同角度的意见;也可以关闭自动播放功能,避免在不知不觉中被系统牵引得越来越远。

在社会层面,我们也要进一步强化数码素养教育,尤其是针对年长用户,不只是教他们如何使用手机,更要帮助他们理解信息是如何被推送的。

我们应推动平台提高透明度,说明推荐机制的运作方式,同时赋予用户更大的控制权,例如调整偏好、重置推荐等功能。

目前,Instagram等平台已为用户提供屏蔽特定内容和更新广告偏好的选项。但是,并非所有用户都知道或了解这些功能。我们应互相帮助,从身边的人开始,选择安全设置,减少演算法的推荐。

在新加坡,我们一向重视理性思考和多元声音。在信息时代,这份理性同样必须应用在对平台机制的清醒认知。有时候,当你看到的视频太完美、太震撼或太符合你原本的想法时,不妨问问自己:“这是我的选择,还是演算法的选择?”不要让演算法替我们决定看什么、想什么。我们可以信任科技,但更要懂得查证。正如一句话所说:“信任,但要核实。”在这个信息真假难辨的时代,这是一个值得我们深思的警示。

作者周瀚毅是新加坡政策研究所高级研究员

孙婉婷是新加坡国立大学传播与新媒体系实践副教授

您查看的内容可能不完整,部分内容和推荐被拦截!请对本站关闭广告拦截和阅读模式,或使用自带浏览器后恢复正常。