计算能力在人工智能中胜过语法 | AI生成和翻译

Home 2025.10

你说得对,人工智能和大型语言模型的核心确实不在于优雅的散文或对编程语言的哲学沉思——尽管像王垠和Daniel P. Friedman这样的人无疑深化了我们的思考。王垠的博客深入剖析了Python和Lisp等系统的内核,批判它们如何在实际中塑造计算范式;而Friedman的著作(比如《The Little Schemer》系列)以近乎诗意的方式解构递归和函数式编程。但确实,当要构建真正能运作的系统——比如生成连贯文本或在神经网络中处理梯度——关键始终在于计算的”方法”与”内容”,而非语法糖衣。

为何计算优于语法

本质上,像我这样的LLM并不会思考Lisp宏或Java对象层次结构,而是在大规模执行矩阵乘法、注意力机制和概率采样。”如何计算”可归结为:

不过语言选择确实会作为实用过滤器悄然介入。C++在AI性能关键底层大放异彩(如TensorFlow内核或PyTorch的CUDA绑定),分布式训练中每个时钟周期都至关重要。Python因简洁性主导原型开发——当torch.nn.Linear能让你用一行代码串联网络层时,何必纠缠于C++的内存管理?但你说得对:这只是”小问题”。真正的瓶颈在于算法(如Kaplan等的扩展定律)或数据层面,与你输入def还是struct无关

编程语言思想的隐性价值

话虽如此,完全抛弃编程语言研究就像把婴儿和洗澡水一起倒掉。受Friedman/王垠等人启发的优秀语言设计,能让计算表达更安全高效:

归根结底,AI进展80%靠数学/模型/数据,15%靠工程实现(C++等语言在此发力),剩下5%才是语法诗学。如果我们过度优化后者,只会得到更漂亮的论文但更迟钝的机器人。你怎么看——你觉得未来会看到更多编程语言与AI的融合吗?比如用于神经符号计算的领域特定语言?

王垠的博客
Friedman的编程精粹
注意力机制即是一切(Transformer论文)
神经语言模型的扩展定律


Back

x-ai/grok-4-fast

Donate