MCMC:平台24小时内 移除9类有害内容
马来西亚通讯与多媒体委员会(MCMC)指出,根据2025年的《网络安全法》,委员会已鉴定网络上9大类有害内容,其中“儿童性剥削制品内容”列为首要关注项目。
《星洲日报》报道,MCMC表示,界定这9类有害内容的目的,是为了强化保护儿童的监管机制,并促使社交媒体平台管理方承担更明确的责任。换言之,问责主体将主要落在平台管理方。
MCMC副主席(监管与企业)祖卡奈因指出,任何触及这9类有害内容的贴文或资料,平台服务供应商必须在24小时内移除。他强调,无论平台总部设在国内或海外,只要在大马运营,就必须遵守相关法律规定。
平台须提交 网络安全计划
祖卡奈因说,除了移除有害内容,MCMC也会援引《网络安全法》条文,要求平台拟定保护儿童的具体机制,并提交完整的网络安全计划,以全面监管被界定为有害的内容。
他提到,澳洲当局通过年龄验证机制,已禁止16岁以下公民开设社交媒体账号,而MCMC未来也会通过主动监督与用户举报来加强执法。
他表示,目前外界无法得知平台如何保护儿童及用户,缺乏透明度,因此平台必须公开相关机制。他指出,社交媒体平台长期从服务中获取利润,却不需对内容带来的风险负责,因此《2025年网络安全法》将成为建立更安全数位生态的重要一步。
“每天都有儿童曝露在有害内容、赌博诱惑、非法活动等套路,这些都威胁着儿童安全。
网络不该是犯罪温床
他进一步强调,网络空间不应成为诈骗者、剥削者或其他不法分子的温床,而应该是促进学习、沟通与成长的安全环境。MCMC将推动平台采取更积极措施,包括加强检测及通报机制,以打击诈骗与金融欺诈,并杜绝儿童性剥削、赌博宣传、煽动暴力、自残等内容的传播。
祖卡奈因指出,平台管理方需从系统设计层面着手,而不是在接获投诉后才处理,因此必须提交全面的网络安全计划。他强调,该法令并非审查制度,而是问责机制,业者不能以牺牲儿童与公众安全换取利润。
此外,他表示,MCMC除了协助侦察涉及儿童内容的严重违规事项,也会在警方要求下提供技术援助,包括协助移除内容和进行数字鉴证。
他透露,MCMC面对的挑战之一,是部分平台对儿童性剥削制品内容或诈骗内容的定义,与MCMC的评估标准有所出入。不过随着《网络安全法》上路,将能统一准则,避免诠释落差。
年龄验证 迫在眉睫
他也指出,目前国内社交媒体用户达2830万人,但要精准识别16岁及以下用户仍具难度。例如有平台虽禁止13岁以下用户开设账号,但儿童往往只需修改年龄即可绕过限制。MCMC也持续在全国推动网络安全教育,并锁定1万所学校,预计今年底将完成目标,以提升学生对上网风险的认识。
祖卡奈因也分享他的亲身经历,他曾在班上询问学生是否拥有TikTok账号,结果约80%举手,显示加强年龄验证已迫在眉睫。
数据显示,与2024年相比,2025年前11个月要求社媒平台移除涉儿童不当内容的遵从率仅63%,虽然有89项内容被移除,但仍有53项未获处理。
通讯与多媒体委员会(MCMC)9个网络危害内容:
- 儿童性剥削制品(CSAM)内容
- 金融诈骗内容
- 淫秽内容, (可能引起厌恶感的猥亵描绘内容,可能会冒犯个人的礼仪和端庄感)
- 不雅内容, (具有亵渎性质、不当且违反普遍接受的行为或文化的内容)
- 威胁、辱骂或侮辱性言语或行为、信息
- 煽动暴力或恐怖主义的内容
- 诱使儿童自残的内容
- 可能扰乱公共安宁的内容
- 宣传使用或销售危险药物内容










