- 大模型应用开发极简入门:基于GPT-4和ChatGPT(第2版)
- (比)奥利维耶·卡埃朗 (法)玛丽-艾丽斯·布莱特
- 778字
- 2025-05-07 12:20:51
第1版推荐序
OpenAI发布 ChatGPT 的那个夜晚,我极其兴奋地与“她”聊到了凌晨三四点,一个朴素的聊天框满足了过去十多年我对AI生产力的幻想!以 GPT-4 为代表的大模型(LLM)的迅速发展,对于所有开发者乃至知识工作者而言都是一个崭新的起点,是“以一敌十”的生产力神器,也拉开了涌现AI原生应用舞台的序幕。
LLM 技术和基于LLM的应用(以下简称LLM应用)正在以天为单位快速发展。过去这段时间,我和团队接触了数千名对开发LLM应用抱有热情的开发者,与大家一同解锁LLM技术栈的潜力,其中不乏创业者快速收获用户、获得融资并在几个月内获得了声望(Dify 或许也是幸运儿之一);也有开发者在使用LLM改进现有应用及团队工作流。我们可以看到的数据是:一方面,LangChain 仅在中国的开发者用户占比就高达全部用户的 40% 以上;但另一方面,我们感受到LLM应用开发者占据中国全部开发者的比重还很低,LLM 应用开发在中国还处于早期。
作为经历过 Web 1.0 时代和 Web 2.0 时代的技术人,我深知“早期”二字意味着稀缺的机遇。
社区开发者讨论得最多的两个问题是:
●AI原生应用究竟应该是什么样的?
●LLM应用技术栈应该怎么玩?
图灵公司引进出版了 O'Reilly 的《大模型应用开发极简入门:基于 GPT-4 和 ChatGPT》,你大概一个下午就可以读完这本书,对上述两个问题建立总体认识,并动手完成自己的第一个基于 GPT-4 的应用。如此短小精悍的书甚至还包含LLM原理的介绍和提示工程的技巧。我甚至认为今后的技术书都应该“这样”,因为你可以结合与 ChatGPT 互动问答的方式更高效地学习。
不知你是否有过组装计算机的经历,如今LLM应用技术栈中的模型(例如 GPT-4)就相当于计算机中的 CPU,开发框架(例如 LangChain 或 Dify)则相当于主板,而向量存储、插件就好比主板上的各种 I/O 组件。正如组装计算机一样,开发者在构建LLM应用时也需理解、精心挑选和配置每个组件。
要掌握这个全新的技术栈,最佳的方式便是结合问题,跟着好奇心动手试试。我敢和你说这绝对是一段有趣、有启发、有收获的冒险旅程!