论文精读

论文精读

单篇论文精读,适合系统阅读。

论文精读

共 8 篇
2026-04-29

从事实知识反推模型规模:IKP 论文解读与“价格能否替代知识探针”的小实验

解读 Incompressible Knowledge Probes 如何用长尾事实知识估算黑盒大模型规模,并用 OpenRouter 价格数据检验“能否用模型价格得到类似结论”。
LLM模型规模知识容量API价格论文解读
2026-04-23

"论文解读:Stacking Your Transformers——重新审视用模型增长加速 LLM 预训练"

"这篇论文系统比较了多种模型增长方法,发现最简单的 depthwise stacking(Gstack)反而最有效,并进一步给出了 growth timing 与 growth factor 的经验法则。"
["LLM""pretraining""scaling law""model growth""stacking""论文解读"]
2026-04-22

When Can LLMs Learn to Reason with Weak Supervision? 论文详解

这篇论文系统回答了一个关键问题:LLM 在什么条件下能靠弱监督 RL 真正学会推理,什么时候又只是在记忆和投机。
papersreasoningrlweak-supervisionrlvr
2026-04-20

HY-World 2.0 详细解读

HY-World 2.0 不只是又一个 3D 生成模型,而是在尝试统一重建、生成、扩展与模拟四类能力,走向可交互的 3D 世界底座。
3Dworld-modelvideo-generationembodied-ai
2026-04-20

OpenMythos 与 Mythos 中央假设深度调研

OpenMythos 不是 Anthropic Mythos 的内幕揭秘,而是一套把 Recurrent-Depth Transformer、latent reasoning、ACT、稳定递归和 MoE 拼装起来的高强度理论重建框架。
agentreasoningworld-modelrecurrent-depthlatent-reasoningtransformer
papers

arXiv 2603.19235 解读

**标题**:Generation Models Know Space: Unleashing Implicit 3D Priors for Scene Understanding
3Dworld-modelagentrlvideoreasoning
papers

CALM 论文总结

这篇论文介绍的是 **CALM(Continuous Autoregressive Language Models)**。它的核心主张是:
papers

Vega 3D 详解

Vega 3D 可以理解成 **把 Vega / Vega-Lite 这类声明式可视化思路,延伸到三维空间中的一套图形表达方式**:你不是直接逐点手写底层 3D 渲染逻辑,而是用更高层的数据、编码(encoding)、标记(mark)、场景(scene)和交互描述,去生成 3D 可视化结果。
3Dworld-model