2025 投资报告:走慢的路
不曲折、不取巧、不费神、不躁动的路
我第一次真正接触「人工智能」这个概念,是在 2016 年左右,在吴军的《智能时代》中,我得以窥见那些影响人类的前沿技术,都是如何在远在硅谷的实验室中被创造出来的。
那时候,我在 Coursera 学习吴恩达(Andrew Ng)的机器学习课程,古法手写了勉强能用的 NaiveBayes 分类器,甚至还让它 在浏览器跑了起来 。那时的技术核心大多围绕着传统统计学习。比如:
转眼多年过去,当下的数据规模、计算能力和模型参数量,都已经跨过了某个关键的「临界点」。这种巨大的量变最终引发了质变,一种近乎于 意识涌现 的智能现象开始频繁出现。
这种飞跃背后的核心动力是:深度学习(Deep Learning)。如果把深度学习看作一个坚实的地基,那么当下席卷全球的大模型(LLM),就是在这个地基之上盖起的、直插云霄的摩天大楼。
大模型的全名是 Large Language Model ,相比于规模跃迁之前的模型,突出的就是一个「大」字:它既大在万亿级别的参数量,也大在动辄数百 GB 甚至 TB 级别的模型规模。
通俗地说:大语言模型 = 深度学习技术 + 海量参数 + 惊人算力 + 近乎全人类文明的文本数据 × 训练后的产物(推理能力)。
相比早期只能做标签化预测的分类器,大语言模型之所以显得「更聪明」,关键在于它学会了两件以前模型不擅长的事:
一、它开始真正理解一句话里的「顺序和关系」。
不再只是把词当成零散的符号,而是知道哪些词在前、哪些在后,它们之间是因果、指代,还是转折关系。这种对长文本逻辑的掌控力,让它能读懂「话外之音」。
二、它学会了在一句话里「抓重点」。
当一句话中出现「它」、「这件事」、「那个东西」之类的模糊指代时,模型会自动判断这些词更可能指向谁,而不是平均对待每一个词。这让它在理解长句、复杂语义时,看起来更像人在思考。
在这些核心能力的加持下,大模型开始向不同感官演化:
总之,大模型不再像以前那样只是「判断对错」的工具,而更像是:一个能理解上下文、组合信息、并给出连贯回应的智能系统。 这种体验,就如同我们在和 ChatGPT、Gemini 对话时那般自然。