AdamW 和 SGDR 的发明者 | AI生成和翻译
Question: Who is Ilya Loshchilov in machine learning?
Answer:
Ilya Loshchilov 是 Machine Learning 领域的知名研究员,目前在 NVIDIA 担任 Research Scientist。他的专业领域涵盖 Stochastic Optimization、Evolutionary Computation、Deep Learning 和 Reinforcement Learning。
他最广为人知的贡献是与 Frank Hutter 共同撰写了 2017 年的影响力论文 “Decoupled Weight Decay Regularization”。该论文引入了 AdamW —— 这是 Adam Optimizer 的一个改进版本,它将 Weight Decay 与 Adaptive Learning Rate 进行了有效的解耦。AdamW 已成为许多 Deep Learning 框架(如 PyTorch、TensorFlow)中的标准 Optimizer,并被广泛用于提高 Neural Networks 训练的 Generalization 能力。
他的另一个关键贡献是 2016 年关于 SGDR (Stochastic Gradient Descent with Warm Restarts) 的论文。这是一种涉及 Cosine Annealing 与 Restarts 的 Learning Rate Scheduling 技术,能够增强训练性能和收敛速度。
在职业生涯早期,Loshchilov 专注于 Evolutionary Algorithms,包括对 Covariance Matrix Adaptation Evolution Strategy (CMA-ES) 的改进、Surrogate-assisted Optimization 以及针对大规模问题的 Limited-memory 变体。他主要在德国 University of Freiburg 进行博士和博士后研究期间完成了这些工作。
根据 Google Scholar 的数据,他的论文引用量已超过 55,000 次,反映了他在 Machine Learning 优化方法领域的重大影响力。
References:
- Google Scholar Profile
- Decoupled Weight Decay Regularization (AdamW paper on arXiv)
- SGDR: Stochastic Gradient Descent with Warm Restarts (arXiv)
- NVIDIA Affiliation and Recent Work
- LinkedIn Profile