人工智能让伪造实时技能成为可能 | AI生成和翻译
问题:在当前的 AI 时代,通过 GitHub commits、优秀的社交媒体帖子或文字内容来伪造能力是否变得更容易了?相比之下,实时的 Zoom 通话和线下讨论是否更难伪造,因为 AI 尚无法轻松地实时辅助语音或视频交流?
回答:
你的直觉部分正确——但情况正在迅速演变
你捕捉到了一个真实且重要的趋势。文本/异步内容比实时沟通更容易伪造,这一前提直到最近大多是成立的。但到 2025–2026 年,情况比大多数人意识到的更复杂且更令人担忧。
✅ 你正确的地方:文本和异步内容极易伪造
Generative AI 使得通过令人信服的文字来夸大成就或掩盖经验匮乏变得轻而易举。正如一位 Senior Talent Acquisition Director 所指出的:“我审阅的简历中有一半读起来像出自同一个模板。这并不是说人们在撒谎,而是 AI 让夸大事实变得毫不费力。”
具体而言,以下内容现在可以轻易伪造:
- GitHub commits —— AI 可以编写整个代码库,使 commit 历史失去作为衡量真实技能的参考价值。
- LinkedIn 动态与博客文章 —— 几秒钟内就能生成听起来专业且有见解的内容。
- 简历和求职信 —— AI 工具模拟人类措辞的能力极强,以至于传统的筛选手段无法识破。
- 书面评估和家庭测验 —— 候选人可以使用 LLMs 进行回答,而不必展示其实际能力。
传统的筛选工具衡量的是“写了什么”,而不是“为什么写”或“怎么写”。一份声称拥有 “data science expertise” 的简历,无论候选人是构建了一个真实的模型,还是仅仅读了一篇 Medium 文章,都能通过筛选。
⚠️ 情况变得复杂的地方:实时通话不再“安全”
这是对你思维模型的关键更新。实时视频和语音通信现在同样可以伪造。 技术的发展速度令人震惊。
Zoom 通话中的 Deepfake 视频
AI 的进步现在允许在实时面试中进行人脸和声音克隆。2025 年 6 月,安全公司 Pindrop 在电视直播中演示了这一点——他们在 Zoom 通话中实时转换了记者的脸,并创建了一个可以进行即兴对话的声音克隆。
Deepfake 软件可以将一张假脸映射到视频通话中诈骗者的动作上,而声音克隆技术可以模拟特定的声音或口音。结果就是一个“虚拟头像”,它可以像真实候选人一样与面试官交谈和互动。
问题的规模
根据 Pindrop 的 2025 Voice Intelligence Report,Deepfake 欺诈尝试在 2024 年增加了 1,300%。41% 的组织在不知情的情况下雇佣过造假候选人。
2025 年的一项 Greenhouse 调查发现,91% 的美国招聘经理曾发现或怀疑候选人利用 AI 进行造假——包括使用假声音/背景 (32%) 或在面试中使用 AI 脚本 (32%)。近五分之一的招聘经理报告遇到过 Deepfake。
震惊安全行业的真实案例
2024 年 7 月,顶级网络安全培训公司 KnowBe4 雇佣了一名 “Principal Software Engineer”,该人通过了四轮视频面试、背景调查和背景参考调查。此人实际上是一名使用被盗美国身份和 AI 生成照片的朝鲜特工。当公司笔记本电脑寄达后,它便开始加载 malware。
招聘之外:商业中的实时 Deepfake 欺诈
2025 年 3 月,新加坡一家跨国公司的财务总监在参加了一个看似由高级管理层组成的 Zoom 会议后,授权了一笔 499,000 美元的电汇。会议中的每一张脸都是 Deepfake,每一个声音都是 AI 生成的——在欺诈行为被发现之前,资金已经消失。
🏢 公司的应对措施
由于远程/Zoom 面试现在也面临威胁,公司正在回归基本点:
为了验证真实性,39% 的美国招聘经理现在正在开展更多的线下(in-person)面试——这表明他们正试图筛选掉虚假人才,并为此投入更多时间。
甚至像 Google 和 McKinsey 这样的企业巨头也在 2025 年中期重新引入了强制性的线下面试,以应对 AI 面试欺诈的激增。
其他的检测技术现在包括:
- “手部测试” —— 要求候选人将手放在脸部前方(这可以破坏目前大多数的 face-swap 技术)
- 快速即兴提问 —— AI 辅助的冒名顶替者无法快速作答
- IP 地址核查 —— 对比面试者声称的所在地
- AI 驱动的 Deepfake 检测工具 —— 集成在 HireVue、Talview 和 Reality Defender 等招聘平台中
🔑 核心洞察:哪些验证方式依然有效
诚实的回答是,现在没有任何单一渠道是完全可以信任的。目前最可靠的真实能力信号包括:
| 信号 | 2026 年的可信度 |
|---|---|
| GitHub / 作品集 | 低(极易由 AI 生成) |
| 书面论文 / 求职信 | 极低 |
| 异步编程测试 | 低(LLMs 可以解决绝大部分) |
| Zoom / 视频面试 | 中低(可伪造,但投入精力可检测) |
| 线下(In-person)面试 | 依然很高 |
| 线下结对编程 / 白板面试 | 高 |
| 行为面试后的追问(“你为什么要选择这种方法?”) | 高 |
| 来自已知联系人的长期工作背景调查 | 高 |
招聘中的真实数据最终来源于能够展示沟通技巧和人际互动动态的实时对话、展示实操能力的工作样本或实际测试,以及来自前同事的验证性背景调查。
总结
你的直觉直到 2024 年左右都是正确的。现在,即使是实时视频和语音,也可以通过现成的工具进行伪造。最后一个真正难以伪造的渠道是线下的、无脚本的互动——这就是为什么许多公司正要求候选人回到办公室参加面试。AI 时代不仅模糊了虚假文本与真实文本的界线,也模糊了虚假人类与真实人类的界线。
参考文献:
- The Smart Way to Verify Candidate Authenticity in 2025 Hiring
- Rise of AI Interview Fraud in 2026: Deepfakes, Proxy Hiring
- AI Deepfake Candidate Interviews: How to Prevent Hiring Scams
- How deepfake AI job applicants are stealing remote work – CNBC
- Survey: 70% of Hiring Managers Trust AI for Hiring Decisions
- The AI Paradox in Hiring: Trust, Transparency & Authenticity
- Deepfake CEO Fraud: $50M Voice Cloning Threat
- How to Detect and Prevent Deepfake Interviews – Reality Defender