爱收集资源网

李林岳排槐:引爆科技界的黑马

网络整理 2023-09-29 09:08

李林岳排槐发自凹非寺

量子位出品|公众号QbitAI

深度学习的论文越来越多了~

多到哪些程度?Googlescholar的数据显示,2016年以来,人工智能领域新增的论文早已超过3.5万篇。arXiv上,AI相关的论文每天都不下百篇。

刚才结束不久的计算机视觉大会ICCV上,发表了621篇论文;2018年的ICLR,有1004篇论文正在匿名开放评审;NIPS2017共收到3240篇论文投稿。

研究成果极大丰富了,但离应用到产品中,还差一大步:把论文转化成代码。虽然,作者顺便提供源码的是少数。

如何办?

IBM美国研究院近来公布了一项新研究:DLPaper2Code,顾名思义,这个程序才能用深度学习技术,将论文转化成代码。

#f:b:0:6:1:7:9:4:1:2:b:a:4:5:6:3:f:4:b:f:e:5:6:3:c:b:0:2:1:c:1:f#

△论文转代码的过程

如此神奇?!该不是听到一篇假研究?

坦白讲,相关论文DLPaper2Code:Auto-generationofCodefromDeepLearningResearchPapers早已被AAAI2018接收为大会论文。

AAAI是人工智能顶会之一,今年就是第32届了,2月2-7日在澳洲路易斯安那州的奥尔良举行。百度、京东是会议的黄金赞助商。

#a:8:1:e:5:7:e:2:d:e:f:f:9:1:1:3:f:8:a:c:2:f:f:9:8:9:1:2:a:0:0:c#

深度学习论文手动转代码

这篇论文手指出,因为大部份深度学习论文就会用流程图来表示神经网路模型的设计模式,因而,在论文转换成代码的过程中,DLPaper2Code首先提取、理解论文中描述的深度学习设计流程图和表格,将它们转化成具象的估算图。

之后,它会把抽取的估算图转换成Keras和Caffe框架下的可执行源代码。

IBM的这项研究,总共生成了5000篇arXiv深度学习论文的Caffe和Keras代码,还创建了一个网站,供同行们众包编辑这种代码。不过,这个网站的地址还没有公布,目前只能看见截图:

#3:2:3:1:0:a:2:9:7:8:d:8:4:b:7:d:1:7:a:f:7:7:d:6:2:b:8:4:7:9:e:5#

在提取流程图的过程中,IBM的研究员们遇见了一些障碍:她们须要让程序提取论文中所有图表以后,再进行一次分类,找出包含深度学习模型设计的这些,去除这些和模型相关性不大的描述性图片和展示结果的表格。

然而,论文中介绍深度学习模型设计的图千奇百怪,表格的结构也各不相同。

如何让程序手动找出有用的图表呢?IBM研究员们人肉处理了论文中的3万张图,将深度学习模型设计图分成了5大类:

#6:e:8:9:1:7:7:9:2:1:0:9:9:9:a:0:0:e:0:1:6:e:4:2:1:3:f:5:6:d:9:7#

△5大类深度学习模型设计图

1.神经元分布图;

2.2DBox:将每位隐藏层表示为一个2D小方块;

3.Stacked2DBox:将神经网路每一层表示为堆叠的2D小方块,表示层的深度;

4.3DBox:将每位隐藏层表示为一个3D六面体结构;

5.表示整个流程的Pipelineplot。

而表格,主要包括竖排表示模型设计流程和纵列表示模型设计流程两类。

在此基础上,她们建立了一个细细度的分类器,来把图表分到前面提及的5类图2类表之中,之后就可以使用OCR等工具将图表中的内容提取下来。

#4:4:c:9:d:d:4:8:1:2:f:4:1:8:e:f:0:0:7:1:6:e:e:e:f:e:7:b:2:e:4:2#

△从图中提取内容的过程

图表内容提取下来以后,就可以按照这种信息建立估算图并生成源代码了。

#d:1:5:1:a:4:f:4:5:b:3:5:6:e:2:4:1:2:1:2:d:9:5:a:5:5:a:7:a:3:f:f#

△池化2D层对应的估算图、Caffe(Protobuf)和Keras(Python)代码

手动生成的代码到底怎样样呢?

为了对DLPaper2Code进行评估,IBM研究员们创建了一个包含21.6万份设计可视化图的模拟数据集,在这种数据集上的实验显示,里面讲的模型,在流程图内容提取上确切率可达93%。

AI手动化畅想曲

前面这个研究。来自IBM美国研究院。

共有五位署名作者:AkshaySethi、AnushSankaran、NaveenPanwar、ShreyaKhare、SenthilMani。其中第一作者AkshaySethi,今年就会专科结业。目前是IBM美国研究院的实习生。

嗯,实习生又开挂了。中外概莫能外~

但如此一篇甜美端庄的研究,真能在实践中应用么?

在reddit上,不少人还是对这篇论文有茶点生疑惑。比方有人认为这个论文很有意思,然而细细读出来,还是有些地方比较奇怪。但也有人认为其实标题有点玄乎,但这项研究觉得还是不错。其实也有人坦承:浪费时间。

更多的推论还有待时间考验,但归根结底,这种都是AI手动化方向的一种探求。让AI自己搞定AI,让软件自己编撰软件,始终都是研究人员追逐的目标。

比方去年5月,Google发布了AutoML。对,就是跟明天即将推出的TensorFlowLite同天发布的AutoML。

AutoML就是要让神经网路去设计神经网路。微软希望能借AutoML来推动深度学习开发者规模的扩张,让设计神经网路的人,从供不应求的PhD,弄成成千上万的普通工程师。

#5:7:b:3:0:f:b:f:6:7:2:7:d:e:e:8:3:e:e:8:1:0:2:d:5:1:4:c:3:7:6:f#

也是在去年,MIT学者开发出一套系统,才能手动给代码打补丁。

听上去,之后码农越来越好干了呢。虽然不是。

要晓得,谷歌和剑桥联合开发了一个系统:DeepCoder。就能否通过搜索一系列代码构建一个完整的程序,可达到编程大赛的水平。并且,这个系统能够通过自我训练才能显得更聪明。未来程序员的饭碗也不是很铁了。

还记得量子位今天发的那篇报导么?《》。

后端也别笑。有家公司正在开发和建立一套“pix2code”的深度学习系统。正这个系统才能依据输入的图形用户界面(GUI)截图直接输出对应的代码,因而省去后端自动编撰代码的过程。不信?。

#6:5:7:7:5:e:5:8:6:1:c:b:6:8:b:a:6:3:9:e:3:4:1:1:b:c:6:d:b:c:7:3#

嗯,一个新时代真的来了。

论文获取

#8:d:8:3:4:4:c:1:6:e:d:4:0:c:e:c:8:d:1:6:7:a:e:6:6:8:c:0:6:1:e:b#

想要下载这篇论文,可以在量子位陌陌公众号(ID:QbitAI)后台对话界面,回复:“p2c”三个字符即可。

—完—

活动报考

毕业设计会看代码吗
上一篇:2022最好用的送快递软件推荐 下一篇:没有了