感谢IT之家网友 Sancu 的线索投递!
何恺明 MIT 求职演讲,真成 AI 圈大型追星现场了!
据量子位身处现场的听众朋友传回的消息,有同学提前 3 个小时已经蹲在门口排队了。
到演讲开始前半个小时,门口的队伍据说都打了好几个弯……
来浅浅感受一下现场的氛围:
此前何恺明回归学界的消息传出,咱们就聊过,这次 Job Talk代表何恺明至少已经通过了 MIT 的简历筛选,研究成果和能力得到了初步认可。
对于这次演讲,何恺明也是准备了超 129 页 PPT,回顾了他在 CV 领域所做的工作,涵盖 ResNet、Faster RCNN、Mask RCNN、MoCO 和 MAE。
在谈到未来工作方向时,何恺明还提到了 AI for Science。
除了关心大神的演讲本身,还有网友注意到了何恺明的最新变化:
何恺明重返学界
目前,尚不能确定何恺明最后是否会和 MIT 成功牵手。但此次演讲,是他寻求教职传闻的靴子落地。
还有网友发现,如果何恺明最终成功入职,那么他将成为 MIT 被引次数最高的人。
目前,MIT 全校被引用次数最高的,是化学与生物医学工程系的重量级教授 Robert Langer,次数为 38 万 +。
而何恺明被引用次数高达 40 万 +。
其中,何恺明最出圈的研究,非 ResNet 莫属,在 2021 年底突破 10 万大关,如今已经涨到 15 万。
ResNet 本身虽为计算机视觉领域研究,但其核心思想残差连接已经跨界成为现代深度学习模型的基本组件。
开启上一次 AI 热潮的 AlphaGo Zero 就是结合了 ResNet + 强化学习 + 蒙特卡洛搜索共同完成。而开启最新 AI 热潮的 ChatGPT,其中的“T”也就是 Transformer 网络中同样使用了残差连接。
在计算机视觉上,何恺明的主要贡献还包括 Faster R-CNN 及后续的 Mask R-CNN 等一系列研究,在很多年都是目标检测的主流方法。
他的近期主要研究兴趣是无监督学习,21 年底提出的 MAE,将语言模型的掩码预训练方法用在视觉模型上,为视觉大规模无监督预训练大模型开路。最近他还将掩码方法引入众多 AI 绘画应用的基础模型 CLIP,把训练速度提升了 3.7 倍。
不过也有知乎匿名用户从现场发来看法:整个 Talk 的质量并不好,何恺明没用一个好的故事把工作串联起来。
这是不是说明就连何恺明也不知道怎么讲好 CV 故事了。
那么,这一次你在现场吗?评论区观后感走起~
声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。
热门文章