反H1B的这群MAGA从论据到论点都不靠谱,难怪musk会发飙
伯克利CS满GPA毕业生找不到工作,主要原因还是21~22年各公司对线上业务增长需求误判导致疯狂扩招,两年招人超过之前十年,Meta4万变8万,Google也接近翻倍,非常惊人
之后发现业务需求没那么大,就算裁员15%也还有大量冗余,没那么多业务增长
另外的主要原因,除了经济周期+高息环境,还有印度和欧洲的薪资更低的技术中心崛起,以及CS毕业生十年增长了三倍造成供给端过剩
-----------------------------------------------------
和大半年前写这篇引文的时候相比,伯克利CS毕业生找工作难度目前并没有任何好转,几个就业曲线仍然躺在地板上连动都不带动一下
我的感受是现在应该又多加了两个不利因素:
1.买GPU军备竞赛capex花销并不是之前预期的是短期一次性而是会持续
各家对LLM的潜力评估比一年前更好,capex持续增长,对招人预算是很大的压力,花钱招人不如花钱买GPU,这个趋势在2024全年非常明显,比如Meta在去年底今年年初的时候巨量吃进H100,招人名额砍的狠,到后面才开始分部门分业务priority慢慢恢复
2.各个科技公司都在战略上招更多LLM/AI skillset的人,因为这是唯一确定的增长点,AI部门headcount数量和包裹都给的非常慷慨(AI offer比一般offer高20~40%),总招人预算增长不多的情况下,其他领域基本上会战略上收缩或者减缓扩张,凑headcount给AI部门,所以结构性部门调整的特征也很明显
今年互联网大厂新招的员工不多,据我的不完全统计10个里怕是6~7个跟LLM/AI项目组是相关的
半导体公司作为比互联网公司预算更紧张的领域,这个趋势今年非常明显,高通和AMD都是整体裁员3~4%,把有限的预算放进AI这样的确定性增长机会进行扩招
----------------------------------------------------
AI/LLM的辅助coding对程序员效率的提升会不会对当前大厂CS 就业有严重影响?
至少目前的情况下这不是主要因素
现在各个互联网大厂只要是跟genai相关的sde组都非常累,从上到下timeline压力非常大,肯定不会愿意开发速度减慢,如果有AI工具产生的效率提升,也不愿因此裁员
因为各个VP/SVP的压力都巨大,巴不得多要资源多要人减少项目上线的时间线risk,在这上面卡人卡资源风险太大
-----------------------------------
那么长期来看以后的CS就业会不会因为LLM效率提升而降低需求呢
大厂CS工作和startup/小项目在LLM的辅助提升效果上可能并不一样
大厂的业务项目复杂度和规模普遍来说要高几个数量级,稳定性鲁棒性严格,design review/CR流程严格,一口气提升巨大不现实。小型项目在快速试错,原型搭建上效率提升会非常显著,效率翻倍甚至翻数倍也是可能的
虽然大厂内部LLM工具链做的完整,但整体来说效率提升(和完全不用相比)并不高,太多的debug和coding都是业务逻辑相关
以我的感受,一般大厂高级程序员(L5/E5/SDE3为例)平均50%工作时间在coding上,coding部分能提升10~40%效率,一个熟练使用目前GPT/Claude工具链的大厂高级程序员来说,在现有熟练业务~15%整体效率提升是一个比较合理的估计(新业务新领域上手效率提升多一些)
至于某些公司宣称的啥“特定场景”提升55%效率,PR宣传而已,笑笑就好
LLM在closed domain上的效果要好得多,因为有明确的reward函数,这次的o3数学上惊艳在reward函数上也是有秘密的 但open ended question上,目前的这种reasoning模式效果要差很多
即便是software engineering这样看起来LLM已经进度巨大的部分,也有太多的open ended task,task在各个维度上直接和间接需求以及legacy都是什么,从各个其他team和上下level的resource,priority,dependencies,bottleneck都是什么,这些看似close loop的问题实际上是open ended的,每一个决策看似close loop,实际上在这个“看似封闭”的问题中往往暗含大量“开放式”不确定性,用close loop思维和open ended思维做出的结果差异是很明显的
人的介入,本质上就是把open ended questions简化成closed loop question,或者在出现open ended scenario的时候介入,把搜索空间收敛起来
agentic flow也就是在模拟把open ended question简化成closed domian的过程,随着算力的进步效果会慢慢变好,这个过程也会和人一起协同进化,但本质上是人把更高抽象层的开放问题简化分拆给AI
可预见的未来内,人+AI一定比AI要强,不管AI进化到何种程度
这一代的genAI/LLM效果有多好,完全取决于使用的人,因为需要依赖人把open ended task变成closed loop tasks,从这一点来说,和过去的自动化工具没有任何差别。LLM在可预见未来内对于大厂程序员的整体效率平均提升20~30%应该是没有什么问题的,LLM用的最熟练的程序员肯定远不止这个效率提升,但程序员们对genAI使用的平均水平还要再打折扣
所以说LLM在大厂规模化取代程序员,在可预见未来范围内不太现实,20% headcount扩张对于互联网公司长期平均来说就是两年的招聘扩张额度
这是开源节流中的节流部分影响(降本增效),但开源可能才是影响就业更重要的因素
CS就业的好坏更本质上还是取决于创造的疆域(价值),现在还处于llm实际应用没有深耕的初级阶段,等到了深耕阶段,需要海量相关开发人员scale up,在各个领域降低成本和创造价值,就像互联网革命里Google和Facebook在15年前还是小公司一样,需要的sde大量扩张都是业务开始scale up/深耕的阶段
疆域的拓展一般是指数型,也就是初期增量看起来很弱,像是存量表现,经过长时间累积增量才会显著
刻舟求剑的说,2000至2004年互联网企业都刚创立不久,不需要那么多sde(互联网的玩法摸索也花了二十年),所以sde也经历了寒冬,大家都在转行画电路板layout,sde的北美就业直到近十年之后的2013年才开始彻底爆发,会写bubble sort就有offer,到2022才戛然而止
点击图片查看原图