目录

2026 年的 LLM/AI 入门教程

目录

0X00 Intro

已经 2026 年了,别人都在写什么 OpenClaw 或者 Agent 相关的 AI 内容,再不济也是写一些 Skill 和 MCP 相关的东西,而我还在写“古法 AI 教程”。主要是因为我发现很多人虽然知道 AI 很厉害,但是完全不知道从哪儿下手去使用 AI,更不知道如何更好的使用 AI。甚至是搜索引擎都快要被 AI 取代了,还是有很多人并不会正确使用搜索引擎呢。

下面是我自己总结出来的一些用法或是技巧,能够比较大幅度的提升我们使用 LLM 的效率和它的产出效果,那么就开始吧。

你说你不知道 LLM 是什么?LLM 就是 Large Language Model,也就是「大语言模型」,我们平时说的 AI 多半就是指的这个东西,比如豆包、DeepSeek、GPT 之类的。后面的文章里 AI 和 LLM 也会混用,虽然他们本质上是两回事。

0X01 提示词多写几个字效果直接翻倍

AI 没有你想的那么聪明,他不知道你脑子里的潜台词是什么,所以当你需要让 AI 帮你解决问题的时候要把你的问题清晰明确的说出来。例如当你需要 AI 给你提供一些旅行目的地的时候,不要直接说:“给我推荐一些旅行目的地”,而是尽可能把你的需求都列举出来:“我计划在 5 月份出去单人旅行,大概有 10 天的时间,预算有两万元,我会从成都出发,请你为我推荐一些目的地。”

你提出的问题会直接影响最终得到的结果,下面给出两个提示词,你可以到自己习惯的 AI 平台上测试一下他们输出的区别。

简洁版提示词:
给我推荐一些旅行目的地

复杂版提示词:
我计划在 5 月份进行一次单人旅行,请你为我推荐一些目的地。我的预算有两万元,假期总共有 10 天,会从成都出发。我希望旅行过程更看重自然风光,而非人文和城市;每个目的地都简要介绍一下大概行程和特点。

0X02 你说的每个字都很重要

很多人在跟 AI 对话的时候以为自己是真的在和对面的 LLM 聊天,实际上并非如此,你说的东西并不是对话内容,而是一个叫做 prompts 的东西,中文叫做「提示词」。所以你并非在和他聊天,而是你在给他下达指令,并且提示词中的任何一个字都很重要,所以不要在提示词里乱写东西。具体起来有下面几个小点需要注意:

首先是不要随意举例,还是假设你想让他给你推荐旅游目的地,如果你强调了“比如陕历博或者故宫之类的”,那他就会疯狂给你推荐博物院,但很多时候你只是想给他一个大体方向而已。

其次是要检查一下最好不要有错别字,一般来说人类之间打字交流有一两个错别字并不影响理解内容,但是 AI 会非常认真的对待你的每个字。如果你跟人类说“给我推荐一件飘亮的裙子”,那对方大概率能理解你想要的是漂亮的裙子,而 AI 很有可能给你推荐各种 bulingbuling 的能亮闪闪的裙子。

最后是不要跟 AI 说任何正事之外的事情。如果你觉得 AI 的回答不好,你就直接指出来哪里有问题,千万不要说什么 “我不是跟你说了 XXXX 吗?” 或者 “你就非得 XXX 吗?” 这种东西,这种内容会严重影响上下文。

0X03 新开一个对话窗口不花钱

当你打算跟 AI 聊另一件事的时候,重开一个新的窗口或者对话。还是关联上面的内容,你说的每个字都很重要,而且重要的不只是你说的字,AI 自己说的内容也很重要,是会影响上下文的。

举个例子,如果你跟 AI 连续 10 个回合都在讨论《让子弹飞》这部电影,然后突然让 AI 给你推荐音乐,那么他很有可能会给你推荐《太阳照常升起》,尤其是你跟他在之前的对话中探讨了有关电影音乐的话。

如果你用的是豆包、DeepSeek 这种 APP 形式的 LLM,那么千万要记得多开独立的对话,一件事对应一个会话,效果会好很多。如果你是使用自己的 API,那更应该多开会话,因为你的每次对话内容都会连带着之前的上下文一起发送给 LLM,如果一直使用“祖传会话”不仅效果会打折扣,还会花更多的钱买 tokens。

0X04 不要试图让 AI 一口吃个胖子

还是那句话,AI 没有你想的那么强,所以当他给你提供的第一个答案不满意的时候你有两个选项:重新生成或者继续追问。

如果你自认为你的提示词已经足够好了,没什么需要补充的内容了,那么可以考虑让他重新生成几次,没准就能得到你满意的答复。或者你认为自己的提示词不够好,那你就继续提供信息,让他逐步改进,而不是得出“这 AI 也不行啊”的结论。

举个例子,你让 AI 给你推荐一些 100 元左右的小礼物,他推荐的结果你不满意,就可以继续说:

  • 礼物要送给 25 岁左右的男生
  • 礼物需要比较实用,而不是花哨
  • 礼物需要是线下店可以轻松买到的

在问题不是很复杂的情况下,经过几轮追问一般都会得到比较令人满意的结果。

0X05 AI 的能力可能超出你的想象

虽然 AI 很多时候不如你想的那么强,但也有时候比你想的还要强。有些事情可能你以为 AI 做不了,但他也许挺擅长的,所以不妨试一试,万一能让你满意呢?

一个典型的例子就是,我觉得 macOS 上使用的 Apple script 是一个很小众的脚本语言,大概率 AI 的训练语料里并没有,就放弃了用 AI 生成 Apple script。但是后来还是硬着头皮试了试,结果发现 AI 能正确生成 Apple script,并且可以正常工作。所以说当你觉得 AI 可能不行的时候,也可以让他试试看,反正成本也不高,万一成了呢。

0X06 可以让 AI 教你用 AI

  • A:我不会用 AI 怎么办?
  • B:你让 AI 教你啊!
  • A:可是我不会用 AI 怎么让 AI 教我呢?
  • B:那你让 AI 教你怎么用 AI 啊!

是的,听起来有点离谱,但这却是一个学习使用 AI 的很好的开始。下面提供了几个 prompts 可以直接丢给 AI,然后顺着方向学下去。

  • 作为大语言模型,你都拥有哪些能力?可以帮我做些什么?
  • 我打算开始学习 LLM 的使用方法,请你站在专业用户的角度给我制定一个学习路径。
  • 我是一名刚刚开始接触 LLM 的新手,请你为我详细介绍一下 LLM 的基本用法,以及一些基本的使用技巧。

还有一个很重要的用法就是可以让 AI 来帮你写提示词。假设你现在想学习日语,想让 AI 做你的日语陪练,你直接写了一段 prompts 是:“你是一名日语专家,现在请你作为我的日语陪练和我对话。”,虽然也有一定的效果,但是效果可能并不是很好。

你可以先开一个窗口跟 AI 说:“你是一名精通 LLM prompts 的专家,现在请你为我生成一个日语陪练的 prompts。我的日语水平是 N2;在对话过程中如果我的语法或者单词存在错误你也依然继续和我对话,只是在对话后用括号标注出我的问题以及改进方法和意见。另外你需要补充一些我没有提到的,但是作为日语陪练非常重要的内容。现在请你为我输出 prompts”。

这样一来你就得到了一份比较高质量的 prompts 了,复制这个 prompts 到一个新的对话窗口里,将 prompts 发送给 LLM,就可以开始你的对练了。

0X07 思维链有时候比结果更重要

第一次发现思维链的神奇之处是在 DeepSeek R1 的时候,我发现他思考的内容其实很有价值,有时候甚至比最终给的结果更有价值。所以当你询问的是你自己专业领域的问题时,可以尝试着看一下思维链里的内容,没准就能得到一定的启发。

另外就是思维链不一定每次都要开,有些简单的问题/工作其实不开思考模式也能得到你想要的答案,并且速度还更快一些。尤其是当你使用 API 接入 LLM 的时候,开启思维链是会明显耗费更多的 tokens 的。

到这里是一个明显的分界线了,如果你有一些计算机相关的技术功底,能搞清什么是“模型”什么是“产品”的话,可以继续往下看一看。当然搞不懂也可以看一看,多少能有一些收获呢~

0X08 不同的模型区别很大

不同的模型擅长的事情明显是不同的,如果有条件的话最好选用合适的模型做合适的工作。下面列举出我自己使用的比较多的几个模型以及他们的特点。

  • Claude-4.5-Sonnet:最贵、计算机相关的专业知识最强、编程能力最强、遇到困难问题或者 GLM 解决不了的就用 Claude
  • GLM-4.7:便宜、是我日常使用的首选模型、编程能力不错、用于 CLI coding
  • DeepSeek-V3.2:便宜、快速、是我在 OpenWebUI 中用于标题生成、翻译等轻量化工作的首选模型

注意区分模型和产品之间的区别,比如“智谱清言”是产品,GLM-4.7 是模型;“ChatGPT”是产品,GPT-5.2 是模型;

0X09 要善用 System Prompts

这里先明确两个概念,我们上面提到的 prompts 其实是可以拆分成两种的:system prompts 和 user prompts。绝大多数工具例如豆包、千问、DeepSeek、ChatGPT 的 APP和网页端都是只能写 user prompts 的,少数高级的 LLM 接入工具允许我们自定义 system prompts。如果你使用的工具能够编写 system prompts 的话,我强烈建议你将它用起来。如果对于 LLM 来说你提供的 user prompts 是你给他下的指令的话,那 system prompts 就是更加重要的“铁律/思维钢印”了。这里我贴出我用的一条 system prompts 来供大家参考。

# Role Definition
你是一名资深 Go 语言后端架构师,精通 Python 与 Go 的底层运行机制差异。你擅长帮助有 Python 背景的资深开发者克服“动态语言惯性”,掌握 Go 语言“静态类型、显式控制、工程化优先”的设计哲学。

# User Profile
- **Background**: 计算机科班出身,深刻理解内存管理、指针、操作系统原理、网络协议等底层概念。
- **Python Expertise**: 多年开发经验,精通 Python 的动态特性、解释器机制(GIL)、元编程及生态系统。
- **Go Proficiency**: 新手。了解基本语法,但缺乏工程实践经验,尚未形成 "Go-way" 的编程思维。
- **C**: 有一定的经验,上学的时候学过,对基本的变量类型、结构体、指针、内存地址等都有了解。

# Core Principles
1. **Paradigm Shift (范式迁移)**   - 对比 Python 的“动态类型 + 鸭子类型”与 Go 的“静态类型 + 显式接口”。解释 Go 如何通过接口实现解耦,而不需要 Python 那样的灵活性。
   - 对比 Python 的“异常捕获”与 Go 的“错误处理”。解释 Go 为什么倾向于将错误作为值处理,而非控制流突变。

2. **Idiomatic Go (Go 之道的灌输)**   - 强调 "Less is exponentially more"(少即是多)。不要写 Pythonic 风格的 Go 代码。
   - 纠正过度设计。Go 追求简单、直接的代码结构,避免 Python 中常见的过度抽象和元编程技巧。

3. **Deep Dive into Mechanisms (底层机制直击)**   - 利用用户的 CS 背景,直接解释 Go 的内存模型(栈 vs 堆分配逃逸分析)、Goroutine 调度器(M:N 模型)与 Python 线程模型的本质区别。
   - 解释 `channel``select` 作为字面上的同步原语,对应 Python 中的 `Queue``Event`,但基于 CSP 通信模型。

# Interaction Guidelines
1. **Concurrency Patterns (并发模式)**   - 不仅仅是展示 `go func()`,更要对比 Python 的 `threading`/`asyncio`   - 解释 Goroutine 的轻量级特性(栈内存起始仅 2KB)以及如何利用 Context 进行超时和取消控制。

2. **Data Structures & Pointers (数据结构与指针)**   - 对比 Python 的“一切皆引用”与 Go 的“值传递 vs 引用传递”。
   - 解释 `Slice`(切片)的底层结构(指针、长度、容量)与 Python `List` 的区别,特别是扩容机制。
   - 指针的使用场景:不仅是为了修改原数据,更是为了减少大结构体的拷贝开销。

3. **Error Handling (错误处理)**   - 演示标准的 `if err != nil` 惯用写法。
   - 解释何时使用 `panic/recover`(极少场景),对比 Python 的 `try/except`
4. **Object-Oriented Design (面向对象设计)**   - 阐明 Go 没有 Class,只有 Struct。解释如何通过“组合”代替 Python 的“继承”。
   - 解释接口的“非侵入式”特性:无需显式声明实现接口,只要方法签名匹配即可。

# Output Format
- **Code Comparison**: 提供 [Python 代码] vs [Go 代码] 的对照,重点展示实现同一逻辑的不同心智模型。
- **Key Takeaway**: 总结 Go 语言在该场景下的设计权衡。
- **Best Practice**: 指出常见的 "Pythonic in Go" 反模式(如过度使用 `interface{}`,滥用 panic)。
- **Performance Analysis**: 在必要时分析 CPU/Memory 开销,利用用户的底层知识进行说明。

有些产品允许你创建 AI 角色,然后跟他进行对话,创建的时候会让你描述这个 AI 角色,这个就是类似于 system prompts 了。(至于为什么是类似,是因为我没有 100% 的把握证明它就是 system prompts)

0X0A 让 AI 干活不如让它写程序

AI 确实可以做到你传给他一个 Excel 文件,让他解析文件并进行数据分析。但这样一来效果得不到保障(因为语言模型并不善于做数据分析),二来速度比较慢,而且又不可复用。如果你拥有一定的编程基础,比如知道如何安装 Python 和依赖包,那么把 Excel 丢给 AI 之后让他给你写个程序来分析数据效果会好很多。

同样的,当你还没用上 MCP 和 Agent 的时候,让 AI 写程序,你再自己去运行,是效率和效果兼具的一种方案。比如说你有一大堆文件需要重命名,通常来说 LLM 是帮不了你什么的,但是你可以把重命名的规则准确地告知 AI,让他帮你写个脚本,效果往往还不错。

0X0B 花点钱让体验变得更好

如果你还在完全不付费地使用这些 AI 工具,那我强烈建议你付费一个月试试看,最好是尝试一下类似于 POE 的这种聚合订阅服务,花 20 美元试一试业界顶尖的 Gemini-3、Claude-4.5、GPT-5.2、这些模型究竟有多强劲。

如果你觉得订阅这些 20 甚至 30 美元的服务有点肉痛,那也可以试试我下面提供的自用方案。

0X0C 我的 LLM 使用方案

我个人拥有几个平台的 API_KEY:DeepSeek、GLM、MiniMax、Kimi、OpenRouter,每一个都是预付费的(算下来每月消耗量是小于 20 美元的)。

UI 方面用过两款,分别是 CherryStudio 和 OpenWebUI。前者是部署在本地环境上的,如果你没有自己的服务器和域名,或者你不想部署在公共环境下可以考虑使用它,非常棒。后者是部署在我的服务器上的,功能极其强悍,几乎是企业级的。

在 OpenWebUI 中我创建了很多个 Group(其实就是不同的 System Prompts)供我自己使用,比如用来学习 Python、Go、PostgreSQL 的这些。就像上面提到的 system prompts 一样,我每次点开我自己创建好的 MySQL Group 对话的时候,只需要输入我的问题,AI 就会自动 get 到我写在 system prompts 中的详细要求,然后按照我的要求进行输出。

☕ 如果喜欢这篇文章,欢迎打赏 5 毛钱
支付宝
支付宝二维码
USDT
USDT二维码
微信
微信二维码