2026年3月19日,一段播客节目在全球科技圈炸了锅。英伟达CEO黄仁勋参加硅谷知名播客All-In,被问到高中生该选什么专业时,他没有推荐计算机,而是明确表示——语言就是AI的终极编程语言,英语专业的学生有可能成为最成功的那批人。这话从一个芯片公司的老板嘴里说出来,分量不一般。
他的核心逻辑其实不复杂。过去六十年,人要指挥电脑,必须学C++、Python这些机器能懂的语言。但现在AI直接能听懂人话了。黄仁勋的意思不是开发者会消失,而是"语法不再是瓶颈",编程正在从"写代码"变成"讲清楚你要什么"。谁能把需求描述得更精准、更有层次感,谁就掌握了AI时代的生产力密码。
这个趋势不是他一个人在说。微软CEO纳德拉也公开表达过同样的观点,特斯拉AI高级总监Andrej Karpathy更是早就预判了这个方向。硅谷大佬们不约而同地把目光投向自然语言,这绝不是巧合,而是他们在一线看到了AI能力跃迁之后的真实图景。当执行层的脏活累活被机器承包,剩下的竞争就集中在了"想什么"和"怎么说"上。
最有说服力的案例,来自AI行业内部。Anthropic公司总裁Daniela Amodei,本科读的是加州大学圣克鲁兹分校的英语文学专业。她在接受采访时说,对于没有选择技术学位这件事,她"毫无遗憾"。如今Anthropic估值已经飙升到3800亿美元,成为AI安全领域的标杆。另一位联合创始人Jack Clark同样是文学背景。他在一次新近的访谈中说,他的英语文学学位让他学到了历史,学到了人类给自己讲述的关于未来的故事,这在AI时代极其有用。
Daniela Amodei的原话值得玩味:当AI变得非常聪明,能做那么多事情的时候,那些让我们之所以为人的东西反而会变得更加重要。她提到的是对自身的理解、对历史的理解、对人性深层驱动力的洞察。这些能力恰恰是千年文科教育一直在锤炼的东西——精准表达、审美判断、伦理思辨。
黄仁勋在播客里还举了一个特别生动的例子。2016年"AI教父"辛顿曾公开说,应该停止培训放射科医生了,因为AI很快就能比他们强。十年过去,AI在各种测试中的表现确实超越了放射科医生,但放射科医生的岗位数量却达到了历史最高水平,平均薪资高达52万美元。原因很简单:AI接管了读片的机械劳动,医生有了更多时间跟病人互动,接诊效率大幅提升,医院效益变好,于是需要更多医生。AI消灭的不是岗位,是低效率。
再看国内。今年全国两会期间,360创始人周鸿祎也公开提出"AI发展下,文科生将比理科生更吃香"的观点,引发广泛讨论。周鸿祎在两会上提出了"六力模型"——电力、算力、智力、人力、安全力、生产力协同推进。他的判断和黄仁勋高度一致:当AI把执行环节自动化之后,真正稀缺的是能定义目标、拆解问题、做出价值判断的人。这种能力,理工科单一训练很难培养出来。
从更深层次看,AI技术的发展速度远远超过了伦理、法律与社会治理的配套研究,大量治理难题和伦理困境正等着人文社科领域的人来深度介入。谁来决定AI生成的内容是否合规?谁来判断算法推荐是否存在歧视?谁来界定机器决策的责任归属?这些问题,不是写代码能解决的。2026年的两会上,从AI立法到智能体治理再到数据安全,几乎每一个议题都在呼唤懂规则、懂人性、懂社会的复合型人才。
对于正在选专业的学生和家长,我们的建议很具体:不要因为黄仁勋一句话就冲去报英语专业,但也不要再迷信"学计算机就等于铁饭碗"。找到孩子真正痴迷的领域,扎进去做到专精,同时把英语和AI工具的使用当成基本功来练,要以英语(或小语种)➕编程➕驾驭AI ➕技术四合一,在某个垂直领域深耕十年以上形成的积累,会成为个人难以被取代的壁垒。热门专业会轮转,但深度永远是护城河。
