LLM Intro
SowingG

从自学说起

此时是作者大三开学的第一周。

在过去的两年大学生涯中,我通过自学学习了很多知识。从课内的数分、线代、模电和数电,到课外的深度学习、强化学习,一个比较常见的问题逐渐出现在主包的学习中,那就是遗忘。

在大学的学习历程中,我们学习到的知识往往得不到高中那样做题式的巩固,而较早学习的知识如果长时间得不到使用,下一次见面可能就不是ex-xxfriend,而是complete stranger。

落笔至此,已经是我第三次学习Transformer。因为作者在大学的研究方向是Federated Learning,而在我们领域内大部分都是基于一些小模型和小型CV数据集(MNIST, FMNIST, CIFAR-10)来做benchmark,所以对于大模型相关的知识用的很少,总是学了又忘。在FL做出一些成果之后,主包准备转向LLM来做一些新的research。借此机会,我也想记录下本人的学习历程和基于一些网络课程的常见Q&A,希望自己能够坚持下去✍️

本系列名为LLM-Intro,代表着成为LLM researcher的必经之路。

参考资料:Happy-LLM

目前计划内容如下(更新截止2025/9/7)

[ ] I: 从零开始搭建一个Transformer (Writing)

[ ] II: LLM的预训练 (Coming soon)

 Comments
Comment plugin failed to load
Loading comment plugin
Powered by Hexo & Theme Keep
This site is deployed on
Total words 3.2k Unique Visitor Page View