前言

你好啊,我是你的人类朋友!!

今天我们来聊聊 AI 领域那些常听到但可能不太清楚的具体概念。

本文重点介绍:大语言模型TransformerTokenPromptFine-tuningAI AgentMCP等核心概念。

如果你对这些 AI 相关的概念都晕乎乎的,那么这篇文章就适合你!!

核心概念速览

【 最重要的一集了,孩子们】大语言模型(Large Language Model, LLM):基于海量文本数据训练的深度学习模型,能够理解和生成自然语言。核心特点是参数规模巨大(通常数十亿至万亿),具备强大的语言理解和生成能力。

深度学习(Deep Learning):深度学习就是让电脑通过多层网络结构,自己从数据中找出规律的方法

Transformer 架构:2017 年 Google 提出的神经网络架构,采用自注意力机制(Self-Attention),完全替代了传统的 RNN 和 LSTM,成为现代大语言模型的基础。

Token(词元):文本处理的基本单元。中文通常以字或词为 Token,英文以单词或子词为 Token。模型将输入文本分割成 Token 序列进行处理。

Prompt(提示):用户提供给 AI 模型的输入指令或文本,用于引导模型生成期望的输出。

Prompt 工程(Prompt Engineering):设计和优化 Prompt 的技术方法,包括指令设计、上下文提供、示例演示等策略,旨在更有效地激发模型能力。

Fine-tuning(微调):在预训练模型基础上,使用特定领域数据继续训练的过程。使通用模型适应具体任务,提升专业领域表现。

举个 :

AI Agent(智能体):能够感知环境、做出决策并执行动作的智能系统。具备规划、工具使用、记忆等能力,可完成复杂任务链。

AI 编辑器:AI 编辑器是集成了大语言模型能力的代码或文本编辑工具,能够提供智能补全、错误检测、代码生成等功能。

多模态:指的是模型能够处理和理解多种不同类型的输入和输出,例如文本、图像、语音等。我个人认为,kimi 的多模态做的就挺好的。

RAG(Retrieval-Augmented Generation):一种结合检索和生成的模型架构,能够从外部知识库中获取信息并生成符合要求的文本。

GPT(Generative Pre-trained Transformer):一种基于 Transformer 架构的大语言模型,由 OpenAI 开发。它在通用文本上进行了预训练,具备强大的语言理解和生成能力。

ChatGPT(Chat Generative Pre-trained Transformer):OpenAI 开发的基于 GPT 架构的对话模型,具备强大的语言理解和生成能力。用户可以通过与 ChatGPT 进行对话交互,实现智能问答、任务执行等功能。

常见问题:

  • Q1: DeepSeek 和 Kimi 属于上述什么?

  • A: DeepSeek 和 Kimi 都是【大语言模型的具体产品实现】。它们基于 Transformer 架构开发,通过 Fine-tuning 优化了对话能力,可以作为 AI Agent 的基础平台。

  • Q2: DeepSeek 和 Kimi 属于 AI Agent 吗?

  • A: 不完全属于 。它们本质上是大语言模型,但可以通过调用外部工具来扮演 AI Agent 的角色。DeepSeek 和 Kimi 本身是专门用于对话的大模型,不是 AI Agent。但当它们能联网搜索、计算或使用其他工具帮你完成任务时,就在扮演 AI Agent 的角色啦!️

  • Q3: 所以 AI Agent 到底是什么?

  • A: AI Agent 是能自主理解目标、制定计划并执行行动的智能系统。

  • Q4: Trae、Cursor、Trelent 这样的 AI 编辑器是 AI Agent 吗?它们和 AI Agent 的关系是什么?

  • A: AI 编辑器是综合应用产品 。它们不是单一的 AI Agent,而是集成了大语言模型、Prompt 工程,并可能内嵌了具备 AI Agent 能力的模块(如自动完成复杂任务)的技术落地形态。

  • Q5: 什么是 AI 编辑器?

  • A: AI 编辑器是集成了 AI 能力的代码或文本编辑工具 。它通过大语言模型提供智能补全、错误检测、代码生成和文档编写等功能,以显著提升创作或开发效率。

  • Q6: 什么是 MCP(Model-Centric Prompting)?

  • A: MCP 就像一套为 AI 模型打造的“万能工具插槽”和“标准说明书”。它不是一个需要训练的技巧,而是一个标准化的协议。通过这个协议,大语言模型(比如 DeepSeek)可以安全、规范地连接到各种外部工具、数据源或 API(比如数据库、搜索引擎、公司内部系统),从而直接调用这些“外部能力”来执行复杂任务,极大地扩展了模型本身的能力边界。 说人话的总结就是:MCP 是让 AI 学会“即插即用”地安全使用外部工具的标准化规范。

  • Q7: Token 和 Prompt 是如何与 LLM 交互的?
  • A: 这是 LLM 的“输入-处理-输出” 流水线:
  • Q7:智能体和 AI Agent 有什么区别?
  • A:“智能体”和“AI Agent”没有本质区别,它们是同一概念的不同表述。“AI Agent”是其完整的英文名称(Artificial Intelligence Agent),而“智能体”是它在中文语境下的常用翻译。两者都指能够感知环境、自主规划并执行行动以实现目标的智能系统。

重点说一下下面这些比较重要的概念!

  1. Transformer 是基础架构:所有现代大语言模型都基于 Transformer
  2. Token 是处理单元:模型通过 Token 理解文本
  3. Prompt 是交互接口:用户通过 Prompt 与模型沟通
  4. Fine-tuning 是优化手段:让通用模型变得专业
  5. AI Agent 是高级形态:结合多种能力的智能系统

timeline - AI 发展时间线

2017 年

  • Transformer 架构 - Google 发布《Attention Is All You Need》论文,奠定现代 LLM 基础

2018 年

  • BERT - Google 推出,基于 Transformer 的预训练模型
  • GPT - OpenAI 发布第一代 GPT 模型

2019 年

  • GPT-2 - OpenAI 发布,展示更强文本生成能力

2020 年

  • GPT-3 - 推出 1750 亿参数版本,展现惊人 few-shot 学习能力(few-shot 表示模型在未见过的任务上也能表现出良好的性能,下面我会再补充一些例子 )
  • Prompt 工程 - 随着 GPT-3 流行而兴起

2021 年

  • Codex - OpenAI 发布,支撑 GitHub Copilot
  • 多模态 - CLIP、DALL-E 等模型推动多模态发展

2022 年

  • ChatGPT - 发布即引爆全球 AI 热潮
  • Stable Diffusion - 开源图像生成模型普及
  • AI 编辑器 - Cursor、Trae 等 AI 原生编辑器出现

2023 年

  • GPT-4 - 支持多模态的更强模型(多模态前面说过了,其实就是指模型可以同时处理文本和图像等多种输入)
  • AI Agent - AutoGPT、LangChain 等推动智能体发展【智能体其实就是指具备自主决策和执行能力的 AI 系统,它可以在环境中感知、理解、计划和执行任务。】
  • 大模型爆发 - 国内 DeepSeek、Kimi、通义千问等纷纷发布

2024 年

  • RAG 技术 - 成为增强模型知识的重要手段
  • MCP 协议 - 模型上下文协议,标准化 AI 工具连接
  • AI 应用深化 - 各领域 AI 产品快速迭代落地

最后

本人正在疯狂补充自己关于 AI 领域的一些常见概念,希望能帮到大家。

有疏漏或者错误请指出~~

下次见!!

本站提供的所有下载资源均来自互联网,仅提供学习交流使用,版权归原作者所有。如需商业使用,请联系原作者获得授权。 如您发现有涉嫌侵权的内容,请联系我们 邮箱:[email protected]