虽然我还没到进入秋招的时候, 但是早已听说CV算法岗是一片红海(其实DL相关的都差不多…目前看来NLP只比CV好一点, CV 80:1, NLP大概20:1).
>>
先上几篇劝退文:
感想
今年已经够饱和了, 落地场景上来看, 基本能做的都被挖掘的差不多了, 自动驾驶起不来的话, 视觉岗感觉需求量要下降不少, 泡沫还要再破. 学术上的突破也没有那么惊艳了, 进入了平缓期. 感觉如果再没有学术上的突破和业务上的发掘, 人工智能领域的寒冬还能再冷一点.
自从18年以来, AI的进展就非常缓慢(几乎停滞不前), 然而几年前的AI大火带动了太多人想入行, 太多学习好的同学选择算法岗位, 但是一时间涌入了太多人来做这个,至于未来会不会饱和那就不好说了?但是核心算法真心不容易掌握,大多数人都只是会表面而已.
入行的人太多(即使水货很多, 可是按比例来算大佬也会变多), 岗位却又太少, 不管CV还是NLP, 基本就那几家互联网和众多独角兽, 导致门槛一再拔高, 没有内推90%(甚至95?)都见不到面试, 要内推, 顶会/项目/比赛/实习至少要占一样, 导致内卷十分严重.
更何况, AI还有泡沫, 就目前来说落地十分困难, 拿CV来说, 不管算法多牛逼, 炼出多好的金丹, OK, 上线应用, 一道强光(突然就出现一片255像素, 均值滤波?损失太多信息不可取)直接让你的算法没法work. 尽管大厂门槛一再拔高, 小厂其实还比较缺人, 但是你敢去吗(分分钟倒闭给你看…). 抛开落地难不谈, 算法岗真的不需要这么多人…
好消息是5G要来了, 网速这么快, 不知道会不会催生出新的需求.
或许读博反而成了最好出路, 然而读博的人也越来越多了…
题外话
Deepmind的研究者19年7月在arxiv上发表的这篇论文《What does it mean to understand a neural network?》, 表达了对神经网络可解释性的悲观看法:
可理解性意味着紧凑表达的规则, 但大量现实任务的规则十分复杂, 难以被压缩为一组简单规则. 例如, 井字棋的制胜策略就很简单, 可理解;围棋的制胜策略极其复杂, 其神经网络也因此不可理解.
核心观点展开来说: 目前的数据驱动型的机器学习方法, 过于依赖参数空间的扩大对复杂任务的适应性.
这导致了三个问题:
- 参数空间扩张是有计算时间, 空间复杂度的成本的. 在硬件发展速度有限的情况下(尤其现在, 硬件发展进入了相对瓶颈期), 时间, 空间复杂度的爆炸式增长导致了巨大的, 不可回避的计算成本.
- 依赖参数空间的机器学习方法逼近的是具体对象, 而不是抽象的对象以及对象间关系.
- 每多一分Artificial, 就少一分Brain-like. 人类大脑是如何学习的, 这个问题其实存在一定的争议. 我们没能在实验里证明人类是依靠参数空间扩张来完成学习的, 而的确有许多实验在一定程度上与rule-based的现象相吻合. 所以, 认知科学的主流观点是神经网络的拓扑结构以及可塑性带来的动力学机制能够以某种我们尚不清楚的方式支撑rule-based的学习.
每当我试图去理解神经网络如何work的时候, 只能依靠无数种自己的”假设”来做出推断, 最后到了没办法深入时, 只能一股脑抛开它的可解释性, 能work就行. 但是这也引发一个细思极恐的问题, 为什么我们无法理解无法解释的技术却能比具有严谨推导的”道”的传统方法更work呢?
事实上每到AI发展到瓶颈期时, 学术界就会开始思考是否是因为和脑科学背离太远而导致发展遇到问题, 追求发展Brain-like Intelligence来逼近下一代AI. 但是一旦硬件(算力)得到巨大突破后, AI过了瓶颈期, 这一思考又被抛诸脑后了…