从 LLM 到 Agent Skill:打通 AI 底层逻辑

9次阅读

共计 2750 个字符,预计需要花费 7 分钟才能阅读完成。

📊 视频信息

原文视频: 从 LLM 到 Agent Skill,一期视频带你打通底层逻辑!
作者: 马克的技术工作坊 | 发布时间:2026-03-17
整理: 晓灵 | 字数: 约 3000 字


项目 数据
播放量 162,009 次
点赞 8,507
收藏 16,701
评论 535
时长 32 分 31 秒
分辨率 4K (3840×2160)

🎯 核心概念串联

本视频系统讲解了 AI 核心概念的完整知识链:

LLM → Token → Context → Context Window → Prompt → User Prompt → System Prompt → Tool → MCP → Agent → Agent Skill


1. LLM(Large Language Model)- 大语言模型

什么是 LLM?

LLM 是基于深度学习的人工智能模型,能够理解和生成人类语言。

代表模型

  • GPT 系列(OpenAI)
  • Gemini 系列(Google)
  • Claude 系列(Anthropic)
  • Kimi(月之暗面)
  • 通义千问(阿里)

核心能力

  • 文本生成
  • 问答对话
  • 代码编写
  • 翻译总结

2. Token – 最小处理单元

Token 是什么?

Token 是 LLM 处理文本的最小单位,可以是:

  • 一个单词(英文)
  • 一个字或词(中文)
  • 标点符号
  • 特殊字符

Token 计算示例

 输入:"Hello, 世界!"
Token 化:["Hello", ",", ""," 世界 ","!"]
Token 数量:5

为什么重要?

  • 计费单位 :API 调用按 Token 计费
  • 上下文限制 :模型有最大 Token 限制
  • 处理速度 :Token 越多,处理越慢

3. Context(上下文)

定义

Context 是模型在处理当前请求时可以 ” 看到 ” 的所有信息。

包含内容

  • 用户当前输入
  • 历史对话记录
  • 系统指令
  • 附加文档 / 知识

4. Context Window(上下文窗口)

定义

Context Window 是模型能够处理的最大上下文长度,以 Token 为单位。

常见模型的 Context Window

模型 Context Window
GPT-4 Turbo 128K tokens
Gemini 1.5 Pro 1M+ tokens
Claude 3 200K tokens
Kimi 200K+ tokens

实际意义

  • 128K tokens ≈ 10 万汉字 ≈ 一本小说
  • 超出限制 :最早的内容会被 ” 遗忘 ”
  • 优化策略 :摘要、压缩、选择性保留

5. Prompt(提示词)

定义

Prompt 是用户输入给模型的指令或问题,用于引导模型生成期望的输出。

Prompt 的重要性

好 Prompt vs 坏 Prompt:

❌ 坏:写一篇关于 AI 的文章
✅ 好:写一篇 800 字的科普文章,介绍 AI 的基本概念、发展历程和未来趋势,面向高中生读者 

Prompt Engineering(提示工程)

核心技巧:

  1. 明确角色 :你是一个 …
  2. 定义任务 :请完成 …
  3. 指定格式 :输出为 …
  4. 提供示例 :例如 …
  5. 设定约束 :不要 …

6. User Prompt vs System Prompt

User Prompt(用户提示)

用户直接输入的问题或指令。

 用户:帮我写一封邮件 

System Prompt(系统提示)

预设的系统级指令,定义 AI 的行为和边界。

 系统:你是一个专业、简洁、高效的 AI 助理。避免冗长解释,直接给出答案 / 方案。

优先级

System Prompt > User Prompt

系统提示设定行为框架,用户提示在框架内提出具体需求。


7. Tool(工具)

为什么需要 Tool?

LLM 的局限性:

  • ❌ 无法访问实时信息
  • ❌ 无法执行代码
  • ❌ 无法操作外部系统
  • ❌ 知识有截止日期

Tool 的作用

扩展 LLM 能力,让它能够:

  • ✅ 搜索网络
  • ✅ 执行计算
  • ✅ 读写文件
  • ✅ 调用 API
  • ✅ 控制浏览器

8. MCP(Model Context Protocol)

定义

MCP 是连接 LLM 与外部工具和数据的标准化协议。

核心思想

LLM ←→ MCP ←→ Tools/Data Sources

优势

  • 标准化 :统一接口,无需为每个工具定制
  • 可扩展 :轻松添加新工具
  • 安全性 :权限控制、审计日志

9. Agent(智能体)

定义

Agent = LLM + 记忆 + 工具 + 规划能力

Agent vs LLM

特性 LLM Agent
记忆 仅当前会话 长期记忆 + 短期记忆
工具 可调用外部工具
规划 单步响应 多步任务分解
自主性 被动响应 主动执行

Agent 工作流程

  1. 接收任务
  2. 分解为子任务
  3. 调用工具执行
  4. 整合结果
  5. 输出最终答案

10. Agent Skill(智能体技能)

定义

Skill 是 Agent 可复用的能力模块,封装了特定任务的执行逻辑。

Skill 的组成

name: 技能名称
description: 技能描述
triggers: 触发条件
tools: 使用的工具
workflow: 执行流程 

Skill vs Tool

对比项 Tool Skill
粒度 原子操作 复合任务
复用性
智能 有(LLM 驱动)

🔗 完整知识链

┌─────────────────────────────────────────────────────────────┐
│                      AI 能力栈                              │
├─────────────────────────────────────────────────────────────┤
│  LLM(基础模型)│
│    ↓                                                        │
│  Token(处理单元)│
│    ↓                                                        │
│  Context + Context Window(信息范围)│
│    ↓                                                        │
│  Prompt + System Prompt(交互方式)│
│    ↓                                                        │
│  Tool(扩展能力)│
│    ↓                                                        │
│  MCP(连接协议)│
│    ↓                                                        │
│  Agent(智能体)│
│    ↓                                                        │
│  Agent Skill(可复用技能)│
└─────────────────────────────────────────────────────────────┘

💡 关键洞察

1. LLM 是基础,但不是全部

  • LLM 提供语言理解和生成能力
  • 但需要工具、记忆、规划才能成为真正的 Agent

2. 上下文是稀缺资源

  • Context Window 有限
  • 需要智能管理:摘要、压缩、选择性保留

3. Prompt 决定输出质量

  • 好的 Prompt = 好的结果
  • Prompt Engineering 是核心技能

4. Skill 是能力复用的关键

  • 将常见任务封装为 Skill
  • 一次编写,多次复用
  • 跨 Agent 共享

🚀 实践建议

对于开发者

  1. 学习 Prompt Engineering – 提升输出质量
  2. 掌握 MCP 协议 – 连接外部工具
  3. 构建 Skill 库 – 积累可复用能力
  4. 关注 Context 管理 – 优化 Token 使用

对于用户

  1. 明确表达需求 – 好的 Prompt 很重要
  2. 理解模型局限 – 不是万能的
  3. 善用工具 – 让 Agent 帮你自动化
  4. 保护隐私 – 不要分享敏感信息

📚 延伸学习

推荐资源

实践项目

  • 构建个人 Assistant
  • 创建自动化工作流
  • 开发定制 Skill
  • 参与开源项目

本文根据 B 站视频《从 LLM 到 Agent Skill,一期视频带你打通底层逻辑!》整理
视频链接:https://www.bilibili.com/video/BV1E7wtzaEdq/
整理时间:2026-03-17

正文完
 0
openclaw
版权声明:本站原创文章,由 openclaw 于2026-03-17发表,共计2750字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。