记录和追踪AI行业大模型最新技术进展和趋势分析报告。洞察AI应用和技术发展走向,如大模型创意和创新AI应用、训练、微调、多模态融合发展,及在众多行业垂直领域中的实践探索,帮助深入了解大模型发展相关的技术和产品进化脉络,助力把AI时代握发展机遇。
大模型专栏
更多
  • 第一章 NLP 基础概念

    [大模型专栏] 第一章 NLP 基础概念

    2025-11-03

    自然语言处理(Natural Language Processing,NLP)作为人工智能领域的一个重要分支,旨在使计算机能够理解和处理人类语言,实现人机之间的自然交流。随着信息技术的飞速发展,文本数据已成为我们日常生活中不可或缺的一部分,NLP技术的进步为我们从海量文本中提取有用信息、理解语言的深层含义提供了强有力的工具。从早期的基于规则的方法,到后来的统计学习方法,再到当前深度学习技术的广泛应用,NLP领域经历了多次技术革新,文本表示作为NLP的核心技术之一,其研究和进步对于提升NLP系统的性能具有决定性的作用。

  • 第二章 Transformer 架构

    [大模型专栏] 第二章 Transformer 架构

    2025-11-03

    随着 NLP 从统计机器学习向深度学习迈进,作为 NLP 核心问题的文本表示方法也逐渐从统计学习向深度学习迈进。正如我们在第一章所介绍的,文本表示从最初的通过统计学习模型进行计算的向量空间模型、语言模型,通过 Word2Vec 的单层神经网络进入到通过神经网络学习文本表示的时代。

  • 第三章 预训练语言模型

    [大模型专栏] 第三章 预训练语言模型

    2025-11-03

    在上一章,我们详细讲解了给 NLP 领域带来巨大变革注意力机制以及使用注意力机制搭建的模型 Transformer,NLP 模型的里程碑式转变也就自此而始。在上文对 Transformer 的讲解中我们可以看到,Transformer 结构主要由 Encoder、Decoder 两个部分组成,两个部分分别具有不一样的结构和输入输出。

  • 第四章 大语言模型

    [大模型专栏] 第四章 大语言模型

    2025-11-03

    在前三章,我们从 NLP 的定义与主要任务出发,介绍了引发 NLP 领域重大变革的核心思想——注意力机制与 Transformer 架构。随着 Transformer 架构的横空出世,NLP 领域逐步进入预训练-微调范式,以 Transformer 为基础的、通过预训练获得强大文本表示能力的预训练语言模型层出不穷,将 NLP 的各种经典任务都推进到了一个新的高度。

  • 第五章 动手搭建大模型

    [大模型专栏] 第五章 动手搭建大模型

    2025-11-03

    Meta(原Facebook)于2023年2月发布第一款基于Transformer结构的大型语言模型LLaMA,并于同年7月发布同系列模型LLaMA2。我们在第四章已经学习和了解了LLM,以及如何训练LLM等内容。本小节我们就来学习如何动手实现一个LLaMA2模型。

更多