看完这个视频我不禁沉默了,让我想起了18年的春节后,家里人让我去一个公司上班,那个公司跟视频里的有一个特别像,又是跳舞,又是演讲的,我回忆了一下,那个公司的员工基本上是打电话,问一大本电话薄上的各个“客户”,需不需要本公司的产品,当时我跟几个年龄差不多但都不认识的人一起进的公司,那年,我18岁,我甚至跑到厕所,跟家里人打了个电话,我说,这真的不是传销吗?他们说,你不要在那里乱说,虽说是上班,但你最重要的是在那里学习,如果公司让你打电话啊之类的,你也慢慢学,特别是要跟他们一起,学会“讲话”。我现在想想,真是细思极恐,我要真变成这样的人,真就没有未来了(转自我上次在这种“企业文化”视频下评论的内容)。
误会了误会了,被传为“Sora作者之一”的上交大校友谢赛宁,本人紧急辟谣。
他的声明发在其朋友圈,以及“交大校友荟”账号交大org上,主要说了几点:
Sora完全是OpenAI的工作,和谢赛宁本人一点关系没有。
但他后面将在纽约大学开展相关研究
要开发Sora这样的成果,人才第一, 数据第二,算力第三。
《黑镜》等科幻作品里的部分故事可能很快成为现实,需要准备好对应的监督体系。
传播不实信息的原文章也在大家帮忙举报后被平台下架了。
这番误会终于算是告一段落。
不过谢赛宁透露的信息中还有一些细节值得关注,相熟的Sora开发领队Bill Peebles说团队基本不睡觉高强度工作了近一年。
而Bill Peebles在2023年3月入职OpenAI,距今刚好不到一年。
也从侧面否定了之前传闻中的“Sora早就开发完成,只是一直没发”。
至于为什么会有这个离谱的误会,还要从谢赛宁与Peebles合作的一篇论文说起。
为什么会有这个误会?
Sora技术报告引用的一项研究成果DiT模型,正是谢赛宁与Peebles合著。
那时Peebles博士在读期间到Meta实习,谢赛宁也还没完全离开FAIR。
DiT首次将Transformer与扩散模型结合到了一起,相关论文被ICCV 2023录用为Oral论文。
虽然Sora模型具体架构细节没有公布,但谢赛宁此前从Sora技术报告中分析出出,很可能就是建立在DiT的基础之上。
除此之外,Sora还参考借鉴了许多其他学术界成果。
如把训练数据编码成Patch的方法,引用了谷歌DeepMind的Patch n’ Pack等。
博采众长,同时坚定在Scaling Law指引下力大砖飞,才造了令人惊叹的Sora成果。
大神确实也是大神
排除掉这个误会,谢赛宁确实也是AI研究领域的一位大神,目前在纽约大学任助理教授。
他本科毕业于上海交通大学ACM班,18年博士毕业于加州大学圣迭戈分校。
毕业后谢赛宁加入Facebook AI Research(FAIR),曾与何恺明合作提出ResNeXt。
目前他在谷歌学术总被引用数达到4万5,h-index也高达31。
就在Sora发布不久前,他还领导纽约大学团队对DiT模型来了个大升级,新模型称为SiT。
SiT与DiT拥有相同的骨干网络,但质量、速度灵活性都更好。
谢赛宁认为,跟进Sora相关研究是学术界可以为这个时代肩负的重责之一。
让我们一起期待他的新成果吧。
参考链接:[1]https://mp.weixin.qq.com/s/4ox9ITnd8TE2_Sior3eaEA
责任编辑:落木
相关阅读:自信AI |