BING
足下何人,來此作甚
原创

从统计学习到通用智能精选

共 17,975 字,需阅读 45 分钟2026/01/19 上午122 次阅读

我第一次真正接触「人工智能」这个概念,是在 2016 年左右,在吴军的《智能时代》中,我得以窥见那些影响人类的前沿技术,都是如何在远在硅谷的实验室中被创造出来的。

那时候,我在 Coursera 学习吴恩达(Andrew Ng)的机器学习课程,古法手写了勉强能用的 NaiveBayes 分类器,甚至还让它 在浏览器跑了起来 。那时的技术核心大多围绕着传统统计学习。比如:

  • 朴素贝叶斯:通过统计过往邮件的用词规律,来「计算」一封新邮件更像是垃圾邮件,还是正常邮件。
  • SVM(支持向量机):在数据中寻找一条最优的「分界线」,试图以最大的间隙把不同类型的内容分隔开。

转眼多年过去,当下的数据规模、计算能力和模型参数量,都已经跨过了某个关键的「临界点」。这种巨大的量变最终引发了质变,一种近乎于 意识涌现 的智能现象开始频繁出现。

这种飞跃背后的核心动力是:深度学习(Deep Learning)。如果把深度学习看作一个坚实的地基,那么当下席卷全球的大模型(LLM),就是在这个地基之上盖起的、直插云霄的摩天大楼。

#大语言模型(LLM)

大模型的全名是 Large Language Model ,相比于规模跃迁之前的模型,突出的就是一个「大」字:它既大在万亿级别的参数量,也大在动辄数百 GB 甚至 TB 级别的模型规模。

通俗地说:大语言模型 = 深度学习技术 + 海量参数 + 惊人算力 + 近乎全人类文明的文本数据 × 训练后的产物(推理能力)。

LLM
LLM
用户
用户
 Prompt 
 Prompt 
 输出结果 
 输出结果 
Text is not SVG - cannot display

相比早期只能做标签化预测的分类器,大语言模型之所以显得「更聪明」,关键在于它学会了两件以前模型不擅长的事:

一、它开始真正理解一句话里的「顺序和关系」。

不再只是把词当成零散的符号,而是知道哪些词在前、哪些在后,它们之间是因果、指代,还是转折关系。这种对长文本逻辑的掌控力,让它能读懂「话外之音」。

二、它学会了在一句话里「抓重点」。

当一句话中出现「它」、「这件事」、「那个东西」之类的模糊指代时,模型会自动判断这些词更可能指向谁,而不是平均对待每一个词。这让它在理解长句、复杂语义时,看起来更像人在思考。

在这些核心能力的加持下,大模型开始向不同感官演化:

  • 大语言模型 :最成熟的分支,擅长文字创作、逻辑推理和对话。
  • 视觉大模型 :不仅能「看」到像素,更能识别出图像中的物体关系、场景氛围甚至复杂的动态行为。
  • 多模态大模型 :这是目前的「终极形态」,它能同时处理文字、图像和声音,像人类一样通过多种感官综合理解世界。

总之,大模型不再像以前那样只是「判断对错」的工具,而更像是:一个能理解上下文、组合信息、并给出连贯回应的智能系统。 这种体验,就如同我们在和 ChatGPT、Gemini 对话时那般自然。

署名 - 非商业性使用 4.0 国际 https://surmon.me/article/305
0 / 0 条看法
访客身份
在下有一拙见,不知...
期待你的捷足先登