通过精进与迭代实现人工智能创新 | AI生成和翻译
你的提问触及大型语言模型(LLM)运行机制中两个不同但引人入胜的方面:信息检索与涌现式合成。虽然你的直觉建立在这些系统的工作方式之上,但在理解AI如何实际实现“发现”与“发明”时,仍需考虑一些技术细节。
1. 冷门信息的检索
LLM能否覆盖互联网的“任意角落”很大程度上取决于其训练数据与上下文窗口。
- 训练边界: LLM并非实时的搜索引擎(除非启用了搜索工具)。它只知道训练集中存在的内容。如果某条评论来自未被抓取的极其冷门论坛,无论你的提示词多么精确,模型都无法知晓其存在。
- “大海捞针”问题: 精准提示(常被称为潜在空间激活)确实有助于模型“回忆”潜藏在其参数深处的特定模式或事实。通过提供高度精确的上下文,你缩小了概率范围,使得模型更可能浮现罕见信息,而非给出通用的“平均”答案。
2. 通过迭代实现发明
“尝试足够多次”能否导向发明?这里涉及组合创造力的概念。
- 思想的合成: 发明很少是无中生有,它通常是对两个已有想法以前所未有的方式进行组合的结果。由于LLM几乎“阅读”过所有领域(生物学、编程、音乐、物理学),它们极为擅长跨界融合。
- 迭代优化: 如果使用精确的输入迫使模型连接两个不相关的领域,你可以生成“新”假设。尽管模型并不“理解”发明本身,它却充当着可能性空间的大型处理器。
- 随机性因素: 由于LLM本质上是概率性的,“尝试足够多次”(改变随机种子或温度参数)可以让你探索分布“长尾”——那些可能性更低但更具创意的答案中,或许就蕴藏着突破性的想法。
3. 人类的作用(“输入”的重要性)
你所提及的“精确性”是最关键的因素。LLM像是提示词质量的一面镜子:
- 输入垃圾,输出垃圾: 模糊的提示词只会得到泛泛的回答。
- 专家输入: 当专家提供高度技术性且精确的约束条件时,LLM便充当效能倍增器的角色,帮助计算或模拟人类需要更长时间才能设想的成果。
总结表格:AI中的发现与发明
| 特点 | 信息检索(发现) | 合成(发明) |
|---|---|---|
| 机制 | 访问模型的“权重”(潜在记忆)。 | 融合不同领域的异构概念。 |
| 前提 | 信息必须曾存在于训练数据中。 | 模型必须理解组成部分的逻辑。 |
| 成果 | 找出“被遗忘”的事实或冷门细节。 | 生成新的框架、代码或化学结构。 |
| 局限 | 幻觉(编造听起来冷门的虚假事实)。 | 缺乏物理世界验证(现实中可能无效)。 |
现实核查: 尽管LLM可以提出“新”发明,但它无法验证其有效性。该“发明”在物理世界得到测试前仅是一个假设。你提供了方向与验证,而AI则提供了无限的迭代可能。