在顶尖名校之中,正在被抛弃的是基础概念吗?是机器学习课吗?一位NYU的教授产生担忧,引发哈佛同行强烈感情共鸣。当大模型在学术界占据统治地位,研究生一年级的课程,应该教授什么内容却成为棘手难题,这样的棘手难题出现了。
经典保卫战
NYU教授晒出的课程大纲,引发了广泛讨论,这份大纲坚持保留RBM(受限玻尔兹曼机)、能量模型等“老古董”,而不是一开始就讲Transformer和LLM,哈佛CS教授看到后发出感慨,觉得在如今的大纲中保留基础概念太难了,很高兴自己并非孤单,这场讨论直接指向了当前AI教育的核心矛盾,即在技术迭代飞速的当下,我们究竟该教学生什么?
被抛弃的基石
诸多大学的 ML 课程,正迅速摒弃经典内容,教授表明,这般做法极为危险,原因在于,全部让人赞叹的大模型成果,皆离不开数学、概率以及统计里的那些基础理念,他着重指出,课程理应先让学生掌握能用随机梯度下降解决、然而并非 LLM 的内容,随后再去研读早期经典论文,这种“回溯本源”的教学思路,于追求热点的当下显得极为不协调。
一份严谨的蓝图
在这场讨论里流传开来的课程大纲,实际上是极为全面的,首先它从监督学习以及神经网络的基础模块着手讲述,涵盖了归一化、卷积以及循环模块,接着深入到概率图模型、变分推断和VAE,最终才把强化学习与因果推断纳入其中,这样一种层层递进的体系用意在于让学生能够系统地理解现代大规模算法是怎样来及如何去的情况,也就是杜绝学生仅仅只会进行调包操作啊。
跨学科的共鸣
并非仅仅是AI领域,数学等基础学科也同样面临着把经典的或是前沿的进行取舍的情况,有网友指出,像那本1953年出版的《数学分析原理》的教材,直至如今在全美超过80%具有荣誉性质的本科课程当中都还在被使用,一位教授在生物材料方面分享了自身的做法:教材能够使用经典的旧书,不过能够借助近3至4年的前沿论文去对最新进展加以补充,这样一种“经典框架加上前沿内容”的模式,或许会是一条可行的道路。
国内名校的底气
国内处于顶尖水平院校的培养计划或方案,依旧是重视基础的。北大智班在其24年的培养规划当中,除掉机器学习之外,存在大量诸如算法设计与分析、多模态学习等这类硬核课程。清华叉院所拥有的培养方案更是做到了涵盖从数学物理开始,以数据结构为中间环节,往后延伸至深度学习的一整个完整体系。这些所提方案全都要求学生借助大量编程项目,把理论运用到实际场景里,从而为深入理解算法筑牢扎实基础。
教育失衡的缩影
可是,并非所有学校皆是这般扎实。某印度地方学院的一名学生抱怨,其课程充斥着华丽术语,然而却从不阐释原理。项目作业动不动就要求GAN、神经架构搜索、视觉Transformer等前沿技术,绝大多数学生唯有去GitHub复制粘贴。此种现象体现出教育体系的典型问题:若缺乏数学背景,那就只能停留在对流行术语的空洞理解层面上。
看完此番讨论,你不妨回溯一番自身的学习路径:你是自线性代数以及概率论启程啃起,还是径直上手了PyTorch 和 Transformer 呢?欢迎于评论区分享你的经历,点赞以使更多人瞅见这场聚焦 AI 教育本质的辩论。



















