第二时间|深陷“信息茧房”,该如何破茧?
资讯
资讯 > 正能量 > 正文

第二时间|深陷“信息茧房”,该如何破茧?

360截图20241213163525275

“我们在聊什么,就会刷到与它有关的网页、视频推荐、购买链接。”“社交平台上,哪个号我们看得久了,之后就频繁推送哪个号的内容。”……大数据时代,每个人都在“裸泳”,也在被算法“投喂”,这种“越刷越精准”的体验,让不少人陷入了“信息茧房”。

近日,中央网信办等部门联合印发通知,部署开展“清朗·网络平台算法典型问题治理”专项行动,深入整治“信息茧房”、诱导沉迷等问题,以进一步深化互联网信息服务算法综合治理。这一专项行动引发了人们对算法及其影响的深入反思。如何把算法用好?如何逃离“信息茧房”,拥抱多元信息新世界?如何引导算法向上向善?多位政协委员和专家在接受记者采访时进行了深入解读。

“信息茧房”

可导致认知偏见和刻板印象

“‘信息茧房’指人们关注的信息领域会习惯性地被自己的兴趣所引导,从而将自己的生活桎梏于像蚕茧一般的‘茧房’中的现象。”全国政协委员、金杜律师事务所高级合伙人张毅介绍,目前,这一现象主要由社交媒体、搜索引擎及其他在线平台的算法推荐所推动,从而使用户在信息选择上变得越来越局限。

“从隐私和数据保护风险角度来讲,在‘信息茧房’形成过程中,平台可能需要收集大量的用户数据,如果数据收集、管理不当,用户的个人隐私可能面临泄露风险。”张毅表示。

那么,被桎梏在“信息茧房”内,于个人而言有何影响?

在张毅看来,首先是知识局限,影响社会创新。“‘信息茧房’使个体囿于特定的信息领域,这妨碍了不同领域知识的碰撞与融合。因用户缺乏多样性的信息环境,也就难以产生创新的灵感。”

“其次是认知偏差,影响社会和谐。”张毅表示,在“信息茧房”中,用户主要接触与自己兴趣爱好相符的信息,也更倾向于与相似观点的人群互动。长此以往,可能导致不同群体间的认知偏见和刻板印象加深,陷入“我们对你们”的思维模式。比如,在一些社会热点事件中,人们往往只看到符合自己立场的信息,“偏见”可能会影响个人判断,也可能在更大范围内影响社会舆论。

第十三届全国政协委员、第五空间信息技术研究院院长谈剑锋表示,从社会角度来说,“茧房”之间壁垒森严,使得社会的“公共性”逐渐消弭,增加人与人之间的社会交往成本,甚至割裂社会共识。

中国电信研究院战略发展研究所高级顾问、高级经济师漆晨曦也表示,“信息茧房”的弊端不仅局限于经济和消费层面,更深刻地体现在社会文化、认知与治理的各个维度。数字化社会的高速发展,依赖各个节点之间信息的无缝共享,需要构建基于信任的知识型网络,因此,只有打破信息壁垒,让用户在更广阔的信息海洋中遨游,才能促进思想的碰撞与社会的进步。

算法一定会制造“信息茧房”吗?

无论是“信息茧房”诱人沉迷、割裂共识的问题,还是大数据对劳动者、对客户“杀熟”的问题,核心都在于平台算法的具体运用。

“算法并不意味着信息操纵。”谈剑锋解释道,算法作为计算技术的关键组成,本质上是输入输出的转换规则,简单看是运算步骤,大处看是解决问题的策略机制。

谈剑锋坦言,算法属于技术范畴,也会受制于人类的认知水平,会有局限性甚至缺陷,而且算法自身也在不断发展优化中。“如果我们能合理利用算法,不仅能够享受到个性化的信息体验,还能打破‘信息茧房’,实现更加全面和均衡的信息消费。”

如何把算法用好?张毅建议,一是政府应从保护个人隐私和数据安全的角度,进一步完善《互联网信息服务算法推荐管理规定》等法律法规,如要求提供给用户及时关闭与自己其他信息相关联的功能。通过提供切断渠道,可避免大量个人信息被滥用。二是随着“算法备案”逐渐落实,应逐渐引入社会方面对算法的监督和问责,并培养公众的算法素养,提高人们对算法影响的认知与批判性思维能力。三是平台企业应定期开展算法的科普工作,增强算法透明度。此外,也要加强运用算法对谣言与网暴的识别与打击力度。

“总之,网络平台的算法要重点从三点进行规范,一是公平性,确保算法公正,避免助长偏见和歧视;二是隐私保护,严格遵循个人信息保护法、数据安全法等,确保用户隐私不被侵犯;三是内容多样性,鼓励多元化的信息展示,防止单一信源主导。”张毅表示。

“对网络平台的算法进行规范,本质上是对算法应用的规制,但并非简单意义上的对‘算法运行状态’进行规制,而是基于保障国家安全、维护社会经济秩序及保护社会个体权益的需要,深入到应用平台或智能程序所应用的算法层面,对算法进行引导、规范或监管。”谈剑锋进一步表示。

画好四条线 助力打破“信息茧房”

与受困“茧房”相对应的,就是“破茧”。

谈剑锋表示,由于“信息茧房”隐蔽性强、形态繁多、范围宽广,尤其是涉及到社会各方较多,就要求“破茧”这类算法规制的价值目标体系应当包容众多的法益。

“首先,从个体角度来说,网民应提高自我防范能力,改变思维定式,不要被别人带着跑。其次,从产业以及监管角度来说,要画好四条线,厂商要有‘底线’,有所为而有所不为;应用要有‘界线’,场景设计要有规矩;监管要有‘高压线’,对安全威胁要积极作为;治理要有‘平行线’,照顾广泛的社会群体。”谈剑锋建议。

对此,张毅持相同观点。他进一步建议,在行业层面,企业要加强自律,提高算法透明度,严格对标此次专项行动自纠自查;引入多样化推荐机制,比如通过设置算法参数,鼓励用户探索与其兴趣完全不一致的内容;建立内部审核机制,定期检查算法的公平性与透明度,打破“信息茧房”,维护用户权益。在政府层面,应制定和完善相关法律法规,规范算法使用;同时,鼓励公众参与对算法伦理的讨论,推动算法向优,治理向善。此外,也要加强对信息传播的监管,打击虚假信息和不良信息的传播,避免因“信息茧房”导致的群体性认知偏差的不良影响扩大。

“企业自我主动管理行为是走出‘茧房’更有效的方式。平台企业要重视用户反馈,可以通过收集用户对算法推荐内容的看法和建议,及时调整算法,并确保算法与用户需要保持一致。也可以将企业内部系统中的‘提供兴趣标签查看功能,向用户展示用于内容推送的个人兴趣标签’等向用户开放且让用户自己管理,对现有的推荐系统可能会带来较大影响。”张毅补充说。

“平台在内容推送时,还应考虑适龄性和多样性,针对未成年人和老年人推送教育型、文化型、娱乐性内容,避免内容单一化和一味追求商业利益,让特殊人群也能尽享数字红利。”漆晨曦举例称,比如针对老年人,平台可以开发适合的内容分区和友好界面,降低使用门槛,避免沉迷问题。

如何引导算法向上向善?

此次“清朗·网络平台算法典型问题治理”专项行动,不仅向滥用算法而导致“信息茧房”、隐私泄露、骑手困在系统里等算法之乱开刀,而且对算法向上向善提出期冀。

如何引导算法向上向善,促进网络平台更好发展,更好地实现主流价值引导?

“算法技术具有专业性强、更新速度快等特点,这决定了算法治理是一项长期工作,需要汇集各界合力。”为此,张毅建议建立政府、企业、学术界的协作机制,比如,三方可联合发布重点平台企业的算法白皮书,说明算法的设计、数据来源和推荐逻辑,让用户了解算法如何影响他们的内容推荐,也可共同制定算法设计和应用的行业标准和伦理规范,确保算法设计应用符合社会公正和公共利益。

“此外,相关部门也可设立激励机制,对于积极推动算法向善、促进社会正能量传播的平台给予政策支持和激励,促进良性竞争。”张毅进一步建议。

“从平台治理角度来看,通过监督实现主流价值引导更有效。”谈剑锋建议,一是把行之有效、持之以恒的实践制度化,让算法治理形成规范系统和制度;二是把精确可行的概念和理论制度化。

同时,谈剑锋表示,在保证控制重大风险底线的基础上,还要给算法及其应用的自由发展空间,让一些问题在实践中进行调适和优化。

“数字化服务的目标应是以人为本,服务社会。‘信息茧房’并非不可破解,各方参与,形成合力,将共同推动技术与人性的和谐共舞,塑造一个多元且包容的数字新世界。”漆晨曦表示。(制图:赵庆庆)

亲爱的凤凰网用户:

您当前使用的浏览器版本过低,导致网站不能正常访问,建议升级浏览器

第三方浏览器推荐:

谷歌(Chrome)浏览器 下载

360安全浏览器 下载