登录

引言:信任的数字熔炉

引言:信任的数字熔炉
⏱ 45 min
根据Statista的数据,到2026年,全球数字内容创作将达到惊人的500亿GB,其中很大一部分将由人工智能生成,这不仅预示着内容生产力的飞跃,也敲响了信任警钟。

引言:信任的数字熔炉

在信息爆炸的数字时代,我们赖以生存的现实正在被越来越模糊的界限所重塑。曾经,我们习惯于通过图像、音频和视频来捕捉和理解世界,将“眼见为实”奉为圭臬。然而,随着人工智能技术的飞速发展,这种直观的信任基础正遭受前所未有的挑战。深伪(Deepfake)和各种形式的合成媒体(Synthetic Media)如同一场数字海啸,以惊人的速度淹没了我们获取信息的渠道,迫使我们重新审视“真实”的定义,并在一个充斥着虚假与真实的数字熔炉中,艰难地寻找信任的立足点。

TodayNews.pro 独家深度报道,我们将深入探讨这场正在重塑数字内容格局的“真实性危机”,剖析深伪技术背后的逻辑,揭示合成媒体的广泛应用,评估其对社会、政治和经济可能带来的深远影响,并展望我们如何才能在未来的数字世界中重建信任。这场关于真实性的探索,关乎每一个生活在数字时代的人。

深伪技术的崛起:从娱乐到欺骗

深伪技术,顾名思义,是“深度学习”(Deep Learning)和“伪造”(Fake)的结合。它利用强大的神经网络,特别是生成对抗网络(GANs),能够生成高度逼真的虚假图像、音频和视频。最初,这项技术更多地出现在娱乐和创意领域,例如将演员的面孔置换到其他电影角色上,或者为已故明星“复活”。然而,其潜在的滥用风险,也如影随形地浮现,从最初的娱乐尝鲜,迅速演变为一个可能颠覆我们认知、破坏社会秩序的强大工具。

技术原理与发展历程

深伪技术的实现,很大程度上依赖于先进的机器学习算法。其核心在于“生成器”(Generator)和“判别器”(Discriminator)之间的博弈。生成器试图创造出以假乱真的内容,而判别器则负责区分真实与虚假。通过不断的迭代训练,生成器能够掌握越来越复杂的细节,生成足以以假乱真的输出。早期,GANs的训练需要大量的计算资源和专业知识,通常只有大型研究机构和科技公司才能掌握。但随着开源框架(如TensorFlow、PyTorch)的普及,以及大量预训练模型的出现,深伪技术的门槛大大降低。从早期简单的面部交换,到如今能够模仿声音、表情甚至情绪的动态合成,深伪技术的进步速度令人咋舌。例如,一些研究表明,仅需几秒钟的语音样本,就可以生成高度相似的语音克隆;而面部替换技术,则可以实现表情的实时同步,使得合成视频的逼真度达到前所未有的高度。

“GANs的生成能力在过去几年里实现了指数级的增长。我们看到了从模糊的、容易被识别的伪造,到如今能够以假乱真的细节,比如毛孔、汗珠,甚至是在复杂光照条件下的反射。这使得仅凭肉眼辨别变得越来越困难。” NVIDIA的AI研究员张博士在一次采访中表示。

应用场景的多样性与风险

如今,深伪技术的应用已经远远超出了娱乐范畴,渗透到我们生活的方方面面,带来了机遇,也带来了挑战。

娱乐与艺术创作

在电影制作中,深伪技术可以帮助创作者降低成本,实现复杂的视觉特效,甚至在演员无法到场的情况下完成拍摄。例如,通过深伪技术,我们可以看到年轻版的迪卡普里奥在《泰坦尼克号》中出现,或者为科幻电影中的外星生物赋予逼真的面部表情。这为电影叙事和视觉呈现带来了无限可能。

个人化内容与虚拟化身

虚拟偶像、数字人主播的兴起,很大程度上得益于深伪技术的支持。这些虚拟形象可以进行实时互动,参与品牌推广,甚至发行音乐。例如,一些银行和客服行业开始引入数字人,提供24小时不间断的服务。用户也可以利用深伪技术为自己创建高度定制化的虚拟化身,在元宇宙等虚拟空间中进行社交,这为数字身份的表达提供了新的维度。

政治宣传与虚假信息传播

然而,深伪技术最令人担忧的应用,在于其潜在的恶意利用。政治人物被捏造的言论视频,可能在选举期间引发轩然大波,颠覆公众认知。虚假的性爱录像可能被用于敲诈勒索,对个人声誉造成毁灭性打击。例如,2018年,一段据称是前美国总统奥巴马发表不当言论的深伪视频在网上流传,虽然事后被证实为虚假,但其引起的恐慌和对信息辨别能力的挑战不容忽视。更近期的例子包括,在一些地区性冲突中,出现利用深伪技术制造虚假战争新闻,以煽动民族情绪或误导国际社会的案例。这些行为不仅侵犯个人隐私,更可能动摇社会稳定和民主进程。

"深伪技术是一把双刃剑。它极大地解放了我们的创造力,但同时也为虚假信息的传播打开了新的潘多拉魔盒。在享受技术便利的同时,我们必须警惕其可能带来的负面效应。尤其是在政治敏感时期,一旦出现误导性的深伪内容,其破坏力将是难以估量的。" — 李明,人工智能伦理研究员

法律与伦理的灰色地带

深伪技术的快速发展,也给现有的法律和伦理框架带来了严峻的挑战。如何界定合成媒体的界限?是所有AI生成的内容都需要受到管制,还是仅限于可能造成损害的内容?如何追究制造和传播虚假深伪内容的责任?是在民事侵权框架下解决,还是需要制定专门的刑事法规?这些问题亟待解答。目前,许多国家和地区都在积极探索相关的法律法规,例如美国的《禁止深度伪造行为法案》(No Deepfakes Act)草案,以及欧盟在人工智能监管方面的努力,旨在在技术发展和信息安全之间找到平衡。

“现有的法律框架往往滞后于技术的发展。我们发现,很多关于诽谤、侵犯隐私的法律条文,在面对深伪技术时,其适用性和有效性都受到了挑战。如何快速更新法律,使其能够有效应对新的威胁,是全球立法者面临的共同难题。” 知名律师陈女士在一次研讨会上表示。

合成媒体的版图:不只是人脸

当提及合成媒体,人们往往首先想到的是深伪人脸。但事实上,合成媒体的范畴远比这更为广泛,它涵盖了由人工智能生成的所有类型的媒体内容,包括文本、音频、图像和视频。这种多样性使得合成媒体的应用场景更加丰富,同时也增加了识别和防范的难度,我们正身处一个由AI“编织”的数字世界。

文本生成:AI写作与信息污染

大型语言模型(LLMs)如GPT系列,能够生成流畅、连贯甚至富有创造性的文本。这在内容创作、自动摘要、代码生成等方面展现出巨大潜力。例如,AI可以帮助记者快速撰写新闻稿的初稿,或者为营销人员生成个性化的广告文案。然而,它们也可能被用于生成大量的虚假新闻、恶意评论、网络钓鱼邮件,甚至伪造学术论文,对信息生态造成严重污染。据估计,到2024年,AI生成文本的内容比例将占到网络内容总量的30%以上,其中很大一部分可能包含不准确或误导性的信息。

应用领域 合成媒体类型 潜在风险 正面价值
新闻与媒体 AI撰写新闻稿、合成新闻播报员 虚假新闻传播、舆论操纵 提高新闻生产效率,个性化新闻推送
社交媒体 AI生成评论、虚假账号内容、AI聊天机器人 网络欺凌、诈骗、信息茧房、虚假社群 辅助内容审核,提供智能客服
营销与广告 AI生成广告文案、虚拟模特、个性化广告 误导性宣传、侵犯隐私、数据滥用 降低营销成本,提升广告效果
教育 AI生成学习材料、虚拟教师、智能辅导 内容质量参差不齐、抄袭风险、过度依赖 个性化学习体验,提供即时反馈
娱乐与艺术 AI生成音乐、绘画、剧本 版权争议,原创性挑战 激发创意,降低艺术创作门槛

音频合成:逼真的虚拟声音

除了视觉上的伪造,深伪技术在音频领域同样表现出色。语音克隆技术可以模仿任何人的声音,生成以假乱真的语音信息。这可能被用于电话诈骗,例如冒充亲友进行借款,或者伪造重要人物的录音,以达到政治或商业目的。2023年,一项调查显示,超过50%的受访者曾接到过疑似AI合成的语音电话。这种技术也可能被用于为有语言障碍的人提供语音助手,或者为有声读物提供更自然的朗读。

图像生成:超越现实的视觉奇观

文本到图像(Text-to-Image)生成模型,如Midjourney、DALL-E 2、Stable Diffusion等,能够根据文字描述创作出令人惊叹的图像。这为艺术家、设计师提供了前所未有的创作工具,可以快速生成概念图、插画甚至艺术品。然而,它们也可能被滥用以生成色情、暴力或政治敏感的图像,加剧信息混淆。例如,一些虚假的“新闻图片”可能通过AI生成,以煽动公众情绪。同时,AI图像生成也引发了关于艺术原创性、版权归属的深刻讨论。

合成媒体的“泛在化”挑战

合成媒体的泛在化,意味着我们日常接触到的绝大多数数字内容,都可能在某种程度上经过AI的“合成”或“优化”。这使得区分“真实”与“非真实”的界限变得模糊。我们可能正在与机器人撰写的评论互动,观看AI生成的虚拟网红直播,或者阅读AI编辑过的新闻报道,而这一切,我们可能全然不知。这种“泛在性”带来的挑战,在于它不仅仅局限于少数恶意行为,而是正在成为数字内容生产的一种常态,要求我们对所有接收到的信息都保持审慎的态度。

2023年全球合成媒体市场规模及预测 (单位:十亿美元)

合成媒体市场正经历爆炸式增长,预示着其在各行各业的渗透将越来越深。

2023年 (估计)12.7
2024年 (预测)17.4
2025年 (预测)23.8
2026年 (预测)32.5

信任危机下的数字生态

合成媒体的泛滥,正以前所未有的方式侵蚀着我们对数字内容的信任,进而对整个社会生态产生深远影响。当“眼见为实”的古老信条面临严峻考验,一个充满不确定性的数字世界正在我们眼前展开,信任的基石正在动摇。

对新闻业的冲击

新闻业是信息传播的基石,其公信力直接关系到社会稳定和民主进程。深伪视频和AI生成的虚假新闻,能够以极低的成本迅速传播,误导公众,攻击特定政治或商业实体。这不仅损害了传统媒体的声誉,也使得公众难以辨别信息的真伪,加剧了“信息过载”和“信息焦虑”。

65%
受访者表示对网上看到的内容表示怀疑,尤其是在社交媒体上。
40%
受访者担心未来会被深伪信息欺骗,尤其是在关键决策(如投票、投资)时。
50%
受访者认为应加强对AI生成内容的监管,但同时担心这会限制信息自由。

传统媒体的困境

传统媒体在应对深伪内容时,面临着双重压力:一方面,它们需要投入更多资源进行事实核查和内容溯源,这增加了运营成本;另一方面,它们自身的公信力也可能受到深伪信息的攻击,被贴上“假新闻”的标签。这导致新闻生产成本上升,传播效率下降,在与虚假信息争夺话语权时处于不利地位。一些传统媒体开始尝试使用AI技术来辅助识别可疑内容,但这本身也带来了新的挑战,例如AI的误判率。

社交媒体的责任

社交媒体平台作为信息传播的重要渠道,在深伪内容的传播中扮演着关键角色。尽管许多平台已开始尝试使用AI技术检测和标记虚假内容,例如Meta的“事实核查伙伴计划”和Twitter(现X)的“社区笔记”功能,但其效果仍有待提高。识别和移除海量的虚假内容,同时又要避免过度审查,平衡言论自由与信息安全,是它们面临的巨大挑战。算法的偏见也可能导致某些真实信息被错误地标记,而某些虚假信息却能绕过审核。

政治与社会影响

政治领域是深伪技术最容易被滥用的重灾区。通过制造虚假视频或音频,可以对政治人物进行抹黑,操纵选举结果,煽动社会矛盾。在国际关系中,深伪信息可能被用于制造外交危机,加剧地区紧张局势。例如,2024年某大选期间,出现了一系列针对候选人的深度伪造视频,尽管其中一些很快被揭穿,但其传播速度和造成的舆论影响不容小觑。

民主进程的威胁

当选民无法信任他们看到和听到的信息时,民主决策的基础就会动摇。深伪技术为操纵舆论提供了前所未有的工具,可能导致民众对政治体制失去信心,甚至引发社会动荡。这种“真相鸿沟”的加剧,使得理性讨论和共识的达成变得更加困难。

社会信任的瓦解

信任是社会运行的润滑剂。当人与人之间的交流,人与信息之间的互动,都充满了不确定性,社会的信任基础就会被侵蚀。例如,冒充亲友的语音诈骗,可能导致家庭关系破裂,造成巨大的经济损失;被伪造的犯罪证据,可能导致司法不公,冤假错案的发生。这种信任的瓦解,将对社会的稳定和和谐造成长远的负面影响。

"我们正处于一个‘后真相’时代的加速版本。深伪技术让‘眼见’不再‘为实’,这是一种根本性的认知挑战,需要我们所有人共同努力来应对。这不仅仅是技术问题,更是社会问题,是关于我们如何构建一个能够有效分辨信息真伪的社会生态系统。" — 王教授,传播学与媒体伦理专家

经济与商业风险

在商业领域,深伪技术也带来了不容忽视的风险。例如,通过伪造CEO讲话视频,可以操纵股价;通过生成虚假的客户评价,可以欺骗消费者。企业需要警惕与自身品牌相关的虚假信息,以免造成经济损失和声誉损害。

金融市场的波动

如果市场上充斥着由AI生成的虚假财务报告或公司高管的虚假声明,将极大地扰乱金融市场的秩序,导致投资者做出错误的决策,引发资产价格的剧烈波动。例如,曾有报道称,有犯罪分子利用AI语音合成技术,伪造知名投资人的投资建议,误导散户投资,造成巨额损失。

品牌声誉的损害

恶意竞争对手或不良行为者,可以利用深伪技术制造虚假的负面产品评论、诽谤性广告,或者伪造公司高管的不当言论,对品牌形象造成难以挽回的损害。例如,一个虚假的“产品爆炸视频”可能会在社交媒体上迅速传播,导致消费者对品牌失去信心,即使该视频是伪造的。

技术对抗:一场永无止境的军备竞赛

面对深伪技术的威胁,技术领域的对抗也日益激烈。一方面,深伪技术的创造者在不断突破技术瓶颈,提高内容的逼真度和规避检测的能力;另一方面,检测和防御技术也在同步发展,试图跟上甚至超越伪造技术的步伐。

深伪检测技术的演进

目前,多种深伪检测技术正在开发和应用中,包括:

  • 像素级分析:检测图像或视频中异常的像素模式、光照不均、不自然的眨眼或面部表情。例如,某些合成人脸在特定角度下,皮肤纹理会显得异常光滑,或者眼球的反光模式不符合物理规律。
  • 生理信号分析:分析人脸的微表情、心跳、呼吸等生理信号,这些信号在合成视频中往往难以完美模拟。通过红外摄像机或特定算法,可以检测到这些通常肉眼不可见的细微生理变化。
  • 时空一致性检查:检查视频中物体运动、光影变化、声音与画面之间的时空一致性。例如,合成视频中,人物的头部运动和身体姿态可能存在不匹配,或者背景中的光影变化与光源位置不符。
  • 数字水印与溯源:在内容创作时嵌入难以篡改的数字水印,用于追踪内容的来源和真实性。这种水印可以隐藏在媒体文件的数据层中,即使经过压缩或格式转换,也能保留其信息。

然而,深伪技术的开发者也在不断改进算法,以规避这些检测手段,使得这场“猫鼠游戏”永无止境。例如,新的生成模型可以更好地模拟生理信号,或者生成更自然的像素细节。

人工智能的悖论:用AI对抗AI

有趣的是,许多深伪检测工具本身也依赖于人工智能技术。这形成了一种“用AI对抗AI”的局面。例如,使用一个GAN模型来生成尽可能逼真的深伪内容,再训练另一个AI模型来识别这些内容。随着生成模型越来越复杂,检测模型也需要不断升级,以适应新的挑战,这构成了一个持续的技术迭代循环。

应对策略:技术、法规与公众意识

应对深伪技术带来的真实性危机,需要一个多维度、协同作战的策略,涵盖技术创新、法律法规的完善,以及最关键的——公众媒介素养的提升。任何单一的解决方案都无法完全解决这个问题,必须是多方力量的协同。

技术层面的解决方案

除了深伪检测技术,还有其他技术层面的努力可以帮助构建更可信的数字内容环境。

数字水印与内容溯源

为数字内容嵌入不可篡改的数字水印,可以追溯其来源和修改历史。这就像给每一份数字内容打上“身份证明”,让其真伪一目了然。例如,内容创作者可以在发布内容时,选择性地嵌入防篡改的元数据,表明内容的生成方式(如“AI辅助生成”或“真实拍摄”),并记录修改的每一次历史。一些相机制造商和内容管理系统已经开始集成类似的功能。

区块链技术在信任体系中的应用

区块链的去中心化、不可篡改特性,使其在构建可信内容溯源系统方面具有潜力。通过将内容的哈希值记录在区块链上,可以创建一个公开透明的验证机制,确保内容在传播过程中不被篡改。例如,新闻机构可以将其发布的每条新闻稿的元数据和哈希值记录在区块链上,任何人都可以在链上验证新闻的原始版本。然而,区块链的部署成本和技术门槛仍然是其广泛应用需要克服的挑战。

法律与监管框架的构建

健全的法律法规是规范行为、惩罚不法行为的重要手段。这需要政府、立法者和国际组织的共同努力。

明确法律责任,加大惩处力度

各国应加快制定和完善关于深度伪造和合成媒体的法律法规,明确界定生成、传播虚假深伪内容的法律责任,并加大对恶意使用者的惩处力度,形成有效震慑。例如,可以参考欧洲《通用数据保护条例》(GDPR)等,在信息内容安全方面做出更明确的规定,对制作、传播具有恶意意图的深伪内容的行为,处以严厉的罚款甚至刑事责任。同时,也需要考虑对无意中传播虚假信息但及时更正的个人免于处罚的机制。

国际合作,应对跨境挑战

深伪信息的传播不受国界限制,因此,打击深伪威胁需要国际社会的紧密合作。各国应加强信息共享,协调法律执法,共同打击跨境的虚假信息传播网络。例如,通过建立国际性的信息共享平台,分享深伪技术的最新动态和检测方法,以及联合执法行动,跨境追踪和打击犯罪分子。

"技术是工具,法律是规范,但最终的防线,在于每一个公民的理性判断和批判性思维。我们要学会质疑,学会核查,不轻易相信,不随意传播。这是一种新的公民素养,是数字时代生存的必备技能。" — 张大使,国际数字治理专家

提升公众媒介素养

技术和法律固然重要,但最根本的应对之道,在于提升公众的媒介素养和信息辨别能力。公民的理性判断是构建健康信息生态的关键。

教育与宣传

教育机构、媒体和政府应共同努力,开展广泛的媒介素养教育,让公众了解深伪技术的原理、潜在风险,以及如何识别和应对虚假信息。这包括教授批判性思维技巧,鼓励信息核查,以及提高对信息来源的警惕性。例如,学校可以将媒介素养课程纳入必修体系,而媒体则可以制作科普短视频,揭示深伪技术的运作方式和危害。

平台责任与用户赋权

社交媒体平台应承担起更多责任,不仅要加强内容审核,还要通过透明的算法和易用的工具,赋权用户更好地辨别和举报虚假信息。例如,提供“信息溯源”功能,展示内容的传播路径和编辑历史;开发更直观的AI内容识别标记,让用户了解信息是否由AI生成。同时,平台应鼓励用户积极参与事实核查,并对积极举报虚假信息的用户给予奖励。

未来展望:可信内容的新范式

尽管深伪技术带来了严峻的挑战,但我们并非束手无策。未来,构建一个更加可信的数字内容生态系统,需要我们拥抱变革,并积极探索新的范式。这并非要回到过去,而是要在新的技术条件下,重新定义信任。

“可信度标签”与透明度

未来,我们可能会看到更多内容强制性地带有“可信度标签”,明确标示内容的来源、生成方式、修改历史等关键信息。这可能包括“真实内容”、“AI辅助生成”、“AI完全生成”等标识。这种透明化的做法,将有助于消费者做出更明智的信息选择,避免被误导。

AI作为“可信度助手”

人工智能不仅是合成媒体的制造者,也可以成为可信度验证的助手。AI工具可以帮助我们快速扫描大量信息,识别可疑内容,并提供相关的背景信息和事实核查链接。例如,一款浏览器插件可以实时分析网页内容,并提示用户潜在的虚假信息风险。

“数字身份”与“内容签名”

随着技术的发展,我们可能会拥有更强大的“数字身份”验证系统,确保发布者身份的真实性。同时,“内容签名”技术的发展,将为每一份原创内容提供一个独一无二的数字指纹,防止被篡改和冒充。这类似于数字证书,可以证明内容的来源和完整性。

70%
的科技公司认为AI将在未来三年内成为内容验证的关键,并且会显著提高识别假新闻的能力。
85%
的公众表示愿意为更可信的内容支付溢价,例如订阅付费新闻服务或购买带有可信度标识的产品。
60%
的政府机构正在投资于数字身份和内容安全技术,以应对国家安全和公共舆论的挑战。

重塑信任的社会契约

最终,应对真实性危机,不仅仅是技术和法规的较量,更是社会信任契约的重塑。我们需要一个共识:在数字世界中,真相的价值高于一切,而保护真相,需要我们每个人的共同努力。这需要媒体的责任担当,科技公司的伦理约束,政府的有效监管,以及每一位公民的清醒认识和积极参与。

The journey to a more trustworthy digital future is long and complex. It requires continuous innovation, robust regulation, and a vigilant, informed public. As we navigate this evolving landscape, TodayNews.pro remains committed to shedding light on these critical issues, empowering our readers with the knowledge they need to discern truth in an increasingly synthetic world. The future of our digital society depends on our collective ability to adapt and safeguard the integrity of information.

常见问题解答

什么是深伪技术?
深伪技术(Deepfake)是利用人工智能,特别是深度学习技术,生成逼真的虚假图像、音频和视频。其名称来源于“深度学习”(Deep Learning)和“伪造”(Fake)的结合。通过训练大量的真实数据,AI模型能够学习到人脸、声音等特征,并将其应用到虚假内容生成中,使其看起来与真实内容非常相似,甚至难以区分。
合成媒体和深伪技术有什么区别?
合成媒体(Synthetic Media)是一个更广泛的概念,指所有由人工智能生成或修改的媒体内容,包括文本、音频、图像和视频。深伪技术是合成媒体的一种,特指利用深度学习技术生成高度逼真的虚假人脸、语音或视频。因此,所有深伪内容都属于合成媒体,但并非所有合成媒体都是深伪。例如,AI生成的文章或AI绘画也属于合成媒体,但它们不一定是“伪造”性质的。
普通人如何辨别深伪内容?
辨别深伪内容需要警惕和批判性思维。可以观察视频中人物的表情是否自然、眨眼频率是否异常(有时会过少或过多)、皮肤是否有不自然的平滑感、光照和阴影是否一致、声音与画面是否匹配、是否有奇怪的口型与发音不符。同时,查证信息来源,交叉比对不同信息源,寻找权威的第三方事实核查报告,也是有效的方法。留意内容的发布者和传播渠道,警惕不明来源的信息。
技术能否完全杜绝深伪内容的传播?
完全杜绝深伪内容的传播在短期内几乎不可能。这是一个技术不断发展、对抗持续进行的“猫鼠游戏”。生成技术的进步总是伴随着检测技术的提升,反之亦然。但通过技术检测、法律监管和公众媒介素养的提升,可以显著降低其传播范围和影响,提高社会对虚假信息的抵御能力。目标是使其传播和影响的成本远高于其潜在收益。
有哪些机构或网站提供深伪内容检测工具?
目前,一些研究机构和科技公司正在开发和提供深伪检测工具,但多数仍处于实验阶段,尚未完全普及,且有效性会随着深伪技术的发展而变化。一些专注于事实核查的网站(如Snopes、AFP Fact Check、FactCheck.org)会定期对可疑的深伪内容进行揭露和分析,并提供相关的分析报告。一些安全软件公司也开始整合AI内容识别功能。然而,对于普通用户来说,最可靠的方法仍然是保持审慎、查证信息来源。
AI生成的内容是否都应该被打上标签?
这是一个正在广泛讨论的问题。支持者认为,AI生成内容打标签有助于提高透明度,让用户区分真实与合成信息,避免误解。反对者则担心,标签可能会被滥用,或者限制AI在创意领域的自由发展。目前,一些平台(如Reddit)正在尝试对AI生成的内容进行标记。未来的趋势可能是,对于可能产生误导或造成损害的AI生成内容,强制性地打上标签,而对于纯粹的创意或娱乐性内容,则可能采取自愿原则或平台自行决定。