第86章 视觉新范式(1 / 1)
集会的主持人面带笑容,宣布孟繁岐隆重登场。
孟繁岐沉迷分成的计算,正在畅想美好的未来,完全没有感觉到时间竟然过得如此之快。
连忙关掉谷歌的财报,漫步登台。
看着台下满满一教室的AI领域学者们,都翘首以盼,用十分期待的目光看着自己,孟繁岐发觉自己远没有想象的那么告急。
“大家好,这个报告的主题主要是应用于图像领域的深度残差进修。我知道大家可能主要是为它在图像识别领域取得的结果而来的。”
说到这里,孟繁岐顿了一秒,台下响起了会心的笑声。
“不过在这样的场合,我个人并不希望花费太多的时间在具体的细节上面,相关的论文和代码在最近一段时间会陆续地开源,对细节感兴趣的朋友可以自己来探索。”
与谷歌签下合同之后,孟繁岐手头的所有论文也就没有继承压在手里的必要了。
借着发布会和这次国际集会的热度,他准备直接全部公之于众。
当然,这部分内容现在需要先经由谷歌的首肯和内部审阅才可以发布出来,以免它们可能导致谷歌的利益有丧失。
不过由于这部分技艺内容大都是图像算法领域的,目前还没有涉及到谷歌的关键利益。
若是等几周后,孟繁岐将对谷歌推荐和广告算法的一系列策略做出来之后,想要公布这部分技艺,谷歌是万万不可能会答应的。
不涉及核心利益的情况下,谷歌在这些技艺方面一向还是非常大方的,在经由杰夫和辛顿的审阅之后,孟繁岐已经准备前后把之前攒下的部分工作公布出来。
在大会起头之前,以DreamNet为首的部分论文已经可以在arxiv上直接扫瞄到。
刚才其他部队在上面介绍自己做法的时候,其实也有许多人像孟繁岐看财报一样,在偷偷扫瞄DreamNet的论文。
“虽然赛事的主题是图像的识别分类,但如此多学者聚集在一起的机会的确不多,我希望同时把其他方面的一些内容一起在这里展示一下。”
视觉顶会有三个,辨别是本次孟繁岐参加的国际计算机视觉大会,ICCV。
还有欧洲计算机视觉集会,ECCV,一个偏欧洲一点的集会。
这两个都是两年一办,所以一年也只有两次这样国际顶级的集会机会。
唯一一个每年都举办的,是CVPR,国际计算机视觉和形式识别大会。
但它的举办地点基本上都在美国,签证方面经常会有一些问题。
本次的机会比较难得,当然要多宣传一下自己的工作。
“基于DreamNet的残差思想,不仅在图像的识别分类上取得了宏大的突破,我同时也衍生出了它的一些变体,比如生成式网络,检测网络,还有朋分网络。”
识别分类有竞赛结果,生成式网络的论文已经放出,而检测的网络随着白度的发布会,大家也已经了解它的威力。
至于朋分网络,则是这两天随着DreamNet的论文一起放出的U-Net工作。至此,可以说视觉类几大任务的基础范式已经被孟繁岐奠基。
以后不论是识别分类,朋分检测,还是迁移生成,都很难绕得开这些轻便又好用的办法了。
“可以看到,这种思想席卷视觉领域之后,使得目前主要的研讨方向都有了颠覆性的突破。”
孟繁岐将这几篇论文的主要试验结论摆在了幻灯片的第二页,就是要先以结果震撼众人。
“显然,这些算法在诸多领域都与第二名拉开了宏大的差距,而相当一部分的功劳应当属于残差思想对网络深度的革命。”
“在10年11年,我们仍在使用人工设计的SIFT,HOG还有SVM,12年,阿里克斯的八层AlexNet取得了宏大的突破。”
“而今年,残差思想引发的深度革命,使得训练150+层的神经网络成为可能。”
“深度神经网络是许多任务场景,尤其是视觉任务场景的基础引擎和骨干,这也是为什么它能够迅速影响几个主流的任务。”
“从结构上看,DreamNet并没有什么迥殊的,比起之前每一层都单独设计的网络,我其实有意希望它变得简单,重复。”
孟繁岐身后的幻灯片展示了一个极其细少的图案,这就是一百多层深的DreamNet结构图。
放大展示它的基本设计,众人发现,它的单层设计非常简洁朴素,只采用了最常规的算子操作。
少少的结构图滚动了起来,观众们都发现,原来每一层并没有任何区别,只是单纯在重复。
由于一百多层的滚动需要太久,在这个严肃的场合显得有些喜感,场内发出了一阵阵笑声。
“那么这里就引出了一个问题,那就是是否单纯地把网络做大作深,就总是可以取得更好的结果呢?”
孟繁岐的这个问题,直到2023年也没有一个理论上的答复,但很显然,宏大的模型还在继承地创造一个个事业。
不管是绘画,对话,还是图像操作,都还远没有到达极限。
“我非常希望自己能够清楚地从理论上告诉大家这个答案,但由于能力有限,我也只能给出自己的猜测,那就是Yes。”
“我相疑,只要更多更好的GPU,更多更好的数据,以及更大大模型和更好的优化办法,我们就可以继承地创造事业。”
“而之前的网络在深度上遇到的阻碍,我觉得并不是网络的能力问题,而是我们没有找到合适的办法来优化好它。”
让网络多重复几次,这是许多人都试过的事情,很显然,得到的结果是比原本要差的。
这在传统方法中,不是什么奇怪的景象,许多人都将这个景象表明为维度灾难或者过拟合,没有进行足够深度的探索。
“稍加思索,这显然是一个反直觉的景象,对于更深的网络,我们完全可以将小版本网络的所有参数复制出去,而多出来的部分只要什么事情都不做,这个模型就至多不会更差。”
“但事实上,却并非如此,我相疑许多人都视察到了这样的广泛景象,那就是更深的模型反而变差了不少。”