社媒的“秘密语言” 用户为何要说“隐语”?

立即订阅亚视新闻 YouTube,即时掌握时事发展。

您可能已经注意到,在社交媒体上,人们会避开某些词语。他们会用“unalived”(非活)代替“killed”(杀害),用“pew pews”代替“guns”(枪支),用“seggs”来指代成人间的“sex”(性)。

英国广播公司(BBC)报道,这种现象常被称为“算法语言”(Algospeak),是一种围绕“算法会屏蔽或降低使用某些‘禁忌’词汇内容”,而构建的加密语言。用户认为,科技公司此举或是为了推行政治议程,或是为了向广告商“净化”信息流。

但科技行业否认了这一说法。YouTube发言人Boot Bullwinkle(布特·布尔温克尔)明确表示:“YouTube没有禁止或限制使用的词汇清单。”Meta和TikTok也持有相同立场:指此说法纯属臆测。

然而,事实更为复杂。

🔍 真相的复杂性:算法的黑箱操作与自审风气

虽然科技巨头声称不存在针对单个词汇的黑名单,但专家指出,他们确实会微妙地干预某些材料的传播。历史上不乏社交媒体公司暗中操纵内容沉浮的例子,有时与其宣称的透明和中立相悖。

问题在于,用户永远不知道一条帖子失败的原因:是触怒了算法,还是内容本身不够好?这种模糊性催生了广泛的自我审查(self-censorship)机制。其结果是,人们被迫使用滑稽的语言谈论严肃话题。在极端情况下,一些渴望获得流量的用户甚至会完全避开某些话题。

你可能也喜欢

在社交媒体日益成为公众主要信息来源的今天,这可能意味着某些观点永远无法被大众听到。

内容创作者Alex Pearlman(亚历克斯·珀尔曼)拥有数百万粉丝,他指出算法审查在他的工作中持续存在。例如,为了防止TikTok降低其视频排名,他很少提及竞争对手“YouTube”这个词。

有时,审查的例子更令人不安。Pearlman曾发布多段关于已故金融家和性犯罪者Jeffrey Epstein(杰弗里·爱泼斯坦)的视频。但在某段时间,他发现TikTok上的多个相关视频突然被下架,而同一视频在Instagram和YouTube上则安然无恙。由于申诉被拒,且账号收到“警告”,Pearlman开始使用隐语来指代Epstein:“岛屿男”(the Island Man),因为Epstein拥有臭名昭著的私人岛屿。

🚨 平台干预与公众的“算法想象”

尽管TikTok方面否认有针对性的屏蔽,但媒体调查显示,社媒平台确实曾进行干预。

  • TikTok:2019年泄露的文件显示,TikTok曾指示版主压制被认为“丑陋”、贫穷、残疾或LGBTQ+用户的内容,因为它“不够精致吸引人”。2023年,TikTok承认有一个秘密的“加热按钮”(heating button),用于人为推高选定视频的流量。
  • Meta:英国广播公司(BBC)和人权观察(Human Rights Watch)的调查发现,在2023年10月7日哈马斯袭击事件后,Facebook和Instagram系统性地限制了巴勒斯坦用户及支持巴勒斯坦人权的内容。

这种不透明性滋生了“算法想象”(algorithmic imaginary)现象:人们根据对算法运作方式的信念来改变自己的行为。

2025年8月,当美国爆发针对移民和海关执法局(ICE)突袭的群众示威时,许多网民认为科技公司正在隐藏新闻。于是,“音乐节”(music festival)一词应运而生,成为一种自发爆发并传播的算法语言,旨在以隐晦的语言欺骗算法。讽刺的是,语言学家Adam Aleksic(亚当·阿列克西奇)指出,使用“音乐节”实际上是因为人们不确定算法会审查什么,从而进行的过度矫正。

💰 利润驱动:算法规则的核心目的

UCLA的教授Sarah T Roberts(萨拉·T·罗伯茨)认为,要理解实际情况,关键在于弄清社交媒体公司的目标。这与政治关系不大,更多的是关于金钱

社交媒体公司通过广告盈利。他们的最终目标是创造一个吸引大量用户、内容令广告商感到舒适,并能避免政府监管的应用。算法的每一次变化和内容审核的每一个决定,都归结于利润动机(profit motive)。

Roberts质疑:“如果人们对我们公民生活的某些方面感到不满,最好的表达方式是投入到那些正从不满和挫折中获利(profiting off that dissatisfaction and frustration)的平台中吗?”她认为社会需要开始思考,这是否是我们参与公共讨论的最佳方式。

相关新闻:

你可能也喜欢

Back to top button Vote Mrs Popularity 2026