这是一本关于大语言模型上下文工程的书,中文名我叫 《大模型上下文工程实践指南》,但是其实我更喜欢它的英文名,也就是我最初的名字 《Context Engineering 101》,也就是上下文工程 101,在英文中,101 通常是大学基础课程的编号,用来表示一个领域的入门级知识,也是我对于这本书最初的定位。为什么会有这本书呢?这两年我依然沿袭我一贯的风格,自我学习,我从一个对深度网络,对 AI 基本不了解的门外汉,慢慢变成了一个小行家,我也于今年进入到字节跳动从事 AI 应用层的研发工作,更多背后的故事可以看我之前写的文章。现在以大语言模型(Large Language Model)为主的 AI,很年轻,并且发展速度非常快,2 年前和现在的模型能力差别巨大,并且应用层也不断涌现各种技术和应用。在这个过程中,我也经历了从碎片化知识的学习一路过来,随着实践和反复的学习和研究,也慢慢有了自己的一个知识体系,因此我在想我是否可以在写文章之上,以更加体系化的角度去输出一本书呢?我的性格属于说干就干的人,于是我开始了这本书的写作。第一次写书,对于我是一个全新的体验,我也体会到了跟写文章完全不一样的体会,单单章节和大纲我就反复调整了很多次,内容更是调整了无数次,力求让读者能够以更加轻松的方式全面学习这两年来 AI 相关的技术栈发展。这本书的受众主要有:
AI 从业者:可以体系化的学习,尤其适用于初学入门者快速了解全貌
极客:不一定是技术出身,但是对于前沿技术非常关注
学生、高校老师或研究人员:产学研的融合
为什么选择 上下文工程(Context Engineering) 这一个方向呢?因为我觉得目前 AI 应用都是围绕在大语言模型开展的,一切的工作都是在满足给大语言模型递送合适的上下文这个基本原理展开的,不管是最常见的聊天机器人 Chatbot,还是 RAG,或者是 Agent,都是一个道理,只不过应用的技术不同。因此我觉得非常有必要写这么一本书,从最简单的提示词开始,到 AI Agent,以上下文工程为基础,我们可以全面掌握 AI 应用层涉及的技术。我的写作风格和我的学习方式有点类似,我会先大量做增量,凡事有引用外部的专有名词、内容和图片的情况下,我都会尽可能贴上来源,力求保留出处,这样在读者感兴趣的情况之下,可以自我深入去查看原始出处的文献资料。再这之后我就会大量转化,将信息编制排版成有条理的顺序,并且转成自己的表达方式输出,也会补上一些我认为很有必要画的示意图、流程图和架构图。虽然画图需要耗费很多时间,但是我坚信这是和写作一样重要的事情,我一直坚信可视化是帮助学习和掌握一个新知识的关键且重要的载体。最后是关于出版,其实在这本书写了几张的时候,我有联系了 2 个出版社的编辑沟通出版事宜,因为最初我的期望是能将本书集结出版,但是作为门外汉的我还是小瞧了这里面的门道。每个出版社每年都有一定且有限的书号,因此他们需要有专家评审团去评审某本书是否值得出版,这其中会考虑受众情况、销量情况、作者是有一定的知名度等等,如果都不满足的情况下,要和作者确认是否走资助的方式出版,其实就是让作者自掏腰包支付 10 万这种水平的款项或者承担例如 1000 册书籍的采买,其实也是一种变相的销量担保。我不是相关行业的从业者,我也不太清楚背后的门道,只是在表述我看到的现象,这与我最初的想法相去甚远,因此我也就不再继续等待,而是采用更自由的方式——自出版。因此,在那此之后我就持续在自出版的方向上准备了,也就有了各位现在看到的这个版本。我想要学习 Remzi H Arpaci-Dusseauh 和 Andrea C Arpaci-Dusseau,他们在 Operating Systems: Three Easy Pieces 这本书上就采用了免费在线阅读,但是大家依然可以去购买纸质或电子版本,像我当时购买的电子版本是保持更新的 PDF 版本。因此我会坚持让这本书可以免费的让所有人阅读,但是也保留了未来会开放付费让大家可以购买持续更新的版本的可能性。关于赚钱这点我从不避讳,我觉得付费是你能得到一个很好的创作者的保证,使你可以持续得到一份有保障的信息来源,也是创作者能持续创作高质量内容的一个保障。这也是目前 substack 在国际上持续热门的原因,这也是很多专栏作家出来自己做自己的专栏的原因。下面是我让 GPT-5 帮忙将我的猫转化风格后,再让一位设计师帮我做的封面,风格致敬了 O’Reilly 的经典动物封面,这次的主角就由我家最靓的仔来担任 🐾