★★★★★ · 主题归档 · 2026-04-30
对罗福莉长访谈的技术观点提炼:AI 正从 Chat/Pre-train 主导转向 Agent/Post-train 主导,胜负焦点变为模型、Agent 框架、长上下文、RL Infra 与群体智能的协同演化。
★★★★★ · 主题归档 · 2026-04-30
数学与代码能力确实存在迁移,但不是简单对称迁移:代码更像形式化执行与工具使用的底座,常常更强地反哺数学;数学数据更强地提升抽象推理与可验证训练信号,对代码的提升依赖任务形态与训练阶段。
★★★★★ · 主题归档 · 2026-04-30
调研“按人类学习顺序组织预训练数据”的现有研究支撑:从 Bengio 的 Curriculum Learning、自步学习、NMT 中的 competence-based curriculum,到 BabyLM、TinyStories、Textbooks Are All You Need、DoReMi、ODM、Irreducible Curriculum 与最新 LLM 预训练课程实验,分析该想法的证据、边界与可研究机会。
★★★★★ · 实验分析 · 2026-04-29
结合 Liangguang 实际使用的 Megatron 源码,拆解 reported TFLOP/s/GPU 的估算口径,并解释 small SWA、GQA、FP8、Context Parallel 和 fused kernel 分别如何影响 FLOPs 分子与 step time 分母。
★★★★★ · 论文精读 · 2026-04-29
解读 Incompressible Knowledge Probes 如何用长尾事实知识估算黑盒大模型规模,并用 OpenRouter 价格数据检验“能否用模型价格得到类似结论”。