网上药店
您现在的位置: 投资艺术 >> 投资艺术内容 >> 正文 >> 正文

YannLecun杨立昆自动化所清

来源:投资艺术 时间:2020/10/18

YannLecun(杨立昆)自动化所清华大学AI讲座实录及问答总结:中国科学院自动化研究所会谈、YannLecun(杨立昆)简介、清华大学小会谈、清华大学讲座、学生问答总结与签名等9k字概述。附今日新闻四则5k字,合16k字。文末打赏后“阅读原文”下载完整16k字36页86图PPT经典收藏版PDF+周六新闻PDF压缩文档。

目录

一、YannLecun(杨立昆)中国科学院自动化研究所会谈2

1.1某同学谈到深度学习目前还没有相关理论解释的问题3

1.2刘所长问了一个关于GAN的问题3

1.3某同学问到哪些领域深度学习并不work3

二、YannLecun(杨立昆)清华大学讲座前片刻小会谈3

2.1清华大学Facebook联合课程《创新与创业:硅谷洞察》介绍3

2.2与Facebook人工智能研究院院长YannLeCun教授(左五)等嘉宾合影留念4

2.3YannLeCun教授接受学生代表提问4

三、YannLecun(杨立昆)清华大学大礼堂“深度学习与人工智能的未来”讲座5

3.1演讲开始前先说自己的中文名字“杨立昆”7

3.2追溯年监督学习(SupervisedLearning)概念及内容7

3.3深度学习发展历史串讲7

3.4贝尔实验室工作期间发明LeNet——卷积神经网络历史回顾及介绍10

3.5关于年后神经网络的理论解释和继续使用的两个赌局11

3.6深度卷积神经网络对目标的识别12

3.7对抗网络(adversarialnetworks)学习方法及其发展14

3.8列举AI发展的障碍:如何让机器掌握常识?19

3.9关于人工智能AI未来的发展20

3.10无监督学习概述几年领域问题20

3.11用ERNN从文本中做推理23

3.12智能系统架构的思考24

3.13介绍何凯明大神最近的MaskR-CNN,在arXiv可下载26

四、YannLecun(杨立昆)和学生的问答与签名27

4.1QA提问环节27

Q1:您认为深度学习等AI能否被用于创造艺术?28

Q2:您怎样看待腾讯FineArt也击败人类围棋选手,东西方人工智能方向的竞争?28

Q3:有同学问到人工智能对日常生活的影响29

Q4:人工智能领域,有哪些您觉得将会有重大突破的方向?29

Q5:您眼中的人工智能发展后的终极世界是什么样?29

4.2向YannLeCun教授颁发授课嘉宾证书29

4.3YannLecun(杨立昆)为同学们签名留念30

五、深度学习会向GAN发展、文本语义也可以训练吗?31

参考文献31

Appx.附录(字)31

内附.年3月25日(星期六)农历丁酉年二月廿八新闻四则汇编(字)31

附i.早报,3月25日,星期六31

附ii.读报时间:年3月25日,一切美好从做最好开始!32

附iii.年3月25日(丁酉鸡年二月二十八)周六/早读分享:32

附iv.年3月25日(星期六)农历丁酉年二月廿八卯己日33

外附v.数据简化DataSimp社区译文志愿者招募启事33

人工智能领域专家YannLecun(杨立昆)——NYC纽约大学终身教授、卷积神经网络CNN发明人,Facebook人工智能实验室主任、Facebook人工智能研究院院长,到北京(空气重度污染)腾云驾雾、品尝京霾。上午,YannLecun一行在中国科学院自动化研究所智能化大厦,举行了40分钟的小型座谈会;下午,在清华大学举办了“深度学习与人工智能的未来”主题演讲。本文根据参会各位同学、新媒体发文汇编而成,内容全面且精简,免得大家到处搜集完整版资料。文末下载完整9k字40页60图PPT经典收藏版PDF+Lecun论文+周末新闻=压缩包。

图1专家介绍:YannLeCun,Facebook人工智能研究院院长

YannLeCun是Facebook人工智能研究院院长,纽约大学Sliver教授,同时还兼任于科学数据中心,数学科学交流学院,神经科学中心,以及电子工程计算机系。他于年从巴黎高等电子与电工技术工程师学校取得了电子工程学士学位,并于年从巴黎第六大学取得了计算机博士学位。在多伦多大学做了一段时间博士后之后,他与年加入了贝尔实验室,之后于年成为ATT实验室图像处理研究部的领头人。他于年加入纽约大学成为一名教授,之后还在普林斯顿的NEC研究院短暂的任职过。在年,他创建了纽约大学数据科学中心,并且担任主任。年底,他被任命为Facebook人工智能研究总监,并继续在纽约大学做兼职教授。从-年,他在巴黎法兰西工学院做客座教授。

LeCun目前的研究方向包括人工智能,机器学习,计算机视觉,机器人,以及计算机神经学。他最著名的是在深度学习和神经网络方面作出的杰出贡献,特别是他创立的卷积网络模型,被广泛地应用于计算机视觉和语音识别应用里,也因此他被称为卷积网络之父。他发表了超过篇关于这些方面以及手写识别,图像压缩,人工智能专用硬件的学术论文。

LeCun创建了InternationalConferenceonLearningRepresentations机器学习展示国际大会,并且与YoshuaBengio共同担任主席,同时兼任其他几个大会的组委会会员。他还与人一起担任着加拿大机器与大脑程序学习深度研究所的主席,同时担任IPAMandICERM的董事会委员。他曾经为很多大公司以及如ElementInc.和Museami这样的初创公司提供咨询。LeCun也是新泽西发明家名人堂的一员。他是年IEEE(电气与电子工程师协会)神经网络先驱奖获奖者,年IEEEPAMI杰出研究员奖获奖者,年Lovie终身成就奖获奖者,及其墨西哥IPN荣誉博士学位。

一、YannLecun(杨立昆)中国科学院自动化研究所会谈

中国科学院自动化研究所智能化大厦17层,紫东咖啡厅,主场座谈会主持人是副所长刘成林研究员,主要嘉宾包括YannLecun教授,Facebook副总裁企业发展副总裁博士和田渊栋博士。主要形式以嘉宾和听众互动为主。上一次AndrewNG来做报告,整个学术报告厅被挤爆,这一次Lecun来所里之前没做宣传,举行40人左右座谈会。

图2座谈会嘉宾:左起:田渊栋、刘成林、YannLecun、VaughanSmith

座谈会开始,刘所长进行了热情而简短的欢迎致辞,接下来就以问答互动形式开始了座谈。

1.1某同学谈到深度学习目前还没有相关理论解释的问题

Lecun观点是,并非所有研究都是先有理论后有实践,很多问题都是人们先发现了某种现象,后来才找到了合理的理论解释。在下午清华讲座QA环节Lecun举了几个具体例子,瓦特发明蒸汽机是在动力学理论之前,人们最早发明飞机的时候,也没有完善的空气动力学理论。深度学习就是理论在实践之后。

1.2刘所长问了一个关于GAN的问题

Lecun对GAN赞不绝口,并补充说明GAN不是他自己的idea,是IanGoodfellow在读博士期间提出来的,下午清华讲座中有关于GAN详细介绍,这里暂不展开。

1.3某同学问到哪些领域深度学习并不work

Lecun回答谈到了LogisticRegression这些较为经典的模型可以发挥威力的场景。(数据量较小的时候,深度学习效果没有传统经典模型那么好)。

1.4某同学问关于深度学习对抗样本:深度学习在计算机视觉、语音识别、自然语言处理都取得了突破性进展,但研究者也发现深度神经网络也是很容易被愚弄的,当对一张图片加上人为噪声之后,系统会将其错误分类,类似的现象在强化学习领域里也被观察到,智能体可能会被攻击者误导执行错误的动作,对抗样本和AI的安全密切相关,对此,您有何评论?

Lecun说到这是一个很好的问题,他在做手写字符识别的时候也注意到了这种现象,当时为了探索什么图像会让卷积网络完美预测一个数字4,然后将梯度反向传播的输入图像,所得到的结果和预想的是不一样的。他认为非监督学习是解决对抗样本问题的一个比较有效思路。

座谈会最后,刘所长请YannLecun教授给在座同学一句寄语。Lecun教授说我们现在正处于一个AI发展很好的时代,未来AI取得重要突破,在座同学可能扮演重要角色。教授的谆谆教诲真是给我等莫大学习动力呐。

二、YannLecun(杨立昆)清华大学讲座前片刻小会谈

3月22日下午,作为本次系列课程中唯一的一次公开课,由清华大学经济管理学院发起,清华x-lab与Facebook公司联合设计并推出《创新与创业:硅谷洞察》第三次课程在清华大学大礼堂正式开讲。在本期授课嘉宾——Facebook人工智能研究院院长YannLeCun教授的课程开始之前,清华大学交叉信息研究院院长姚期智院士、清华大学经济管理学院院长钱颖一教授、党委书记高建教授、经管学院创新创业与战略系副教授及“创新与创业:硅谷洞察”课程中方召集人李纪珍、与学生代表一起对其致以欢迎并做小范围交流。

2.1清华大学Facebook联合课程《创新与创业:硅谷洞察》介绍

本课程由清华大学经济管理学院发起,由清华x-lab与Facebook公司联合设计并推出。清华经管学院创新创业与战略系副教授李纪珍老师应邀担任本次课程的中方教授。他将与来自Facebook的多位高管和硅谷高科技公司创始人,以及多位来自相关领域的国内嘉宾和导师,围绕最热门的科技热点、创新创业的机遇与挑战等话题,为学生们带来硅谷高科技公司的最新洞察与实践心得,为学子们展现全球视野下科技改变生活、科技引领未来的生动场景。聆听讲座的同时,学生们还将组成创新团队,在实践中激发思想,点燃火花,在导师的指导下开发商业计划书。优秀团队将有机会在课程结束时做汇报展示,还将收获Facebook提供的额外惊喜!

2.2与Facebook人工智能研究院院长YannLeCun教授(左五)等嘉宾合影留念

图3清华大学经济管理学院院长钱颖一教授(左四)、交叉信息研究院院长姚期智院士(右三)、经济管理学院党委书记高建教授(右二)与Facebook人工智能研究院院长YannLeCun教授(左五)合影留念

2.3YannLeCun教授接受学生代表提问

李老师询问了LeCun教授对于清华大学的印象以及对于本课程的期望,他说,清华大学有很好的工科研究背景,希望有更多的优秀学子愿意投身人工智能领域的研究,同时希望《创新与创业:硅谷洞察》课程可以为大家带来更多的启发。LeCun教授也对同学们关于人工智能的前景、该领域的学习建议等问题进行了详细的回答,他认为本科生应当多学习数学、物理等自然科学,为人工智能研究打好基础。此外,他还表示,目前人工智能领域的许多技术革新都来源于基础科学领域的研究成果。技术永远在变革,唯有科学是永恒的。

三、YannLecun(杨立昆)清华大学大礼堂“深度学习与人工智能的未来”讲座

清华大学大礼堂,Facebook人工智能研究院院长YannLeCun就《深度学习与人工智能的未来》为题,为现场几百听众展开讲座。YannLeCun清华讲座消息半个月前就传遍了科技圈,一票难求。AI发烧友们激动了几周,终于朝圣一般一睹大神。讲座由清华大学交叉信息研究院院长、图灵奖获得者姚期智教授主持,Facebook企业发展部副总裁石峰博士(Dr.VaughanSmith)、Facebook人工智能研究院院长YannLeCun教授、清华大学经济管理学院院长钱颖一教授、交叉信息研究院院长姚期智院士、经济管理学院党委书记高建教授在座。

图5经管学院创新创业与战略系副教授及“创新与创业:硅谷洞察”课程中方召集人李纪珍主持公开课。

图6清华大学交叉信息研究院院长姚期智院士

经管学院创新创业与战略系副教授及“创新与创业:硅谷洞察”课程中方召集人李纪珍主持本次公开课。清华大学交叉信息研究院院长姚期智院士致辞,介绍本次主讲嘉宾YannLeCun教授并阐述本次课程主题。

图7YannLeCun在清华做了题为《深度学习与人工智能的未来》的演讲

Lecun现任FacebookAI研究院的院长,同时他也是美国纽约大学的终身教授。他的研究兴趣包括机器学习、计算机视觉、移动机器人以及计算神经学等。他因著名且影响深远的卷积神经网络(CNN)相关工作而被人称为CNN之父。

本次演讲为《创新与创业:硅谷洞察》第三讲(第一次公开课),既是课程又是讲座,整个讲座风格颇学院派:从追溯年神经科学监督学习谈起,介绍神经网络,讲述近几年计算机视觉(ComputerVision)、深度学习(DeepLearning)等方面最新进展。以及颇有未来潜力的技术方向--生成对抗学习(AdversarialLearning),娓娓道来且让人意犹未尽。

短暂的开场致辞后,本次题为“深度学习与人工智能的未来”的课程正式开讲。在本次讲座中,LeCun教授回顾了深度学习的发展历史,介绍了目前人工智能领域的前沿发展方向及面临的挑战。

3.1演讲开始前先说自己的中文名字“杨立昆”

讲座开始前说几年前在北大一些学院教学,学生问中文名字,这次首先出示PPT并说:这是我的中文名字“杨立昆”。(后排那个说叫杨音比的同学你出来!杨大咖想找你谈话。YannLeCun在华人AI圈一直被亲切称为“杨乐康”,不知道这个称呼是否传到他耳朵里。你们好好聊聊。)

3.2追溯年监督学习(SupervisedLearning)概念及内容

首先,LeCun教授深入浅出地介绍了监督学习的基本概念,这是目前应用最为广泛的人工智能技术之一。“通过向机器展示很多的例子及其正确答案,监督学习能够使算法的输出我们想要的结果尽量接近。就好像带一个孩子看一本图画书,给他看了很多汽车图片后,他就可以认识汽车了。”

图10监督学习介绍,中间的旋钮真是调参的形象化介绍

3.3深度学习发展历史串讲

接着,LeCun教授回顾了深度学习发展历史。早期机器学习与人工智能的研究都受到了神经科学的启发,研究者们通过构造一个一个类似神经元的“感知器(Perceptron)”,实现了对物体进行分类的功能。上世纪50年代晚期,人们建立了传统模式识别模型,并取得了很好的应用效果。

感知机介绍,那个时候的计算机真是老古董,之前的特征提取以手工为主(HandcraftedFeatureExtrator)

图12深度学习引入:所有的特征都是机器自己学习得到

图13深度学习的数学原理很简单,矩阵相乘、求和、激活函数

ImageNet数据出现之后,深度卷积网络用于物体识别取得重大突破。

图14深度神经网络可以学习到不同层级的抽象特征

最开始GAN的那段听的有问题吧,还是Lecun说的有问题?GAN最初的工作好像和Lecun没关系吧,导师是Bengio大牛好不好啊。我写的就是Lecun说GAN和他自己没关系,不是他自己的idea,仔细看看文章,IanGoodfell的导师是Bengio没错,你是误解成Ian是Lecun的学生了?

图15反向传播算法原理

3.4贝尔实验室工作期间发明LeNet——卷积神经网络历史回顾及介绍

LeCun教授重点讲解了他的成名作——卷积神经网络(CNN)。“神经网络有一个领域非常成功,叫卷积神经网络,我和同事们80年代在贝尔实验室推进了这个领域的发展。”接着,LeCun教授播放了一段他录制于年的珍贵视频,在一台PC上编写的光学字符识别系统——用卷积神经网络进行手写数字识别。

那年Lecun有点胖墩,在贝尔实验室工作期间发明了LeNet。不知那时候还在攻读博士的LeCun是否想到他的研究成果在随后的二十年给整个世界带来了巨大的影响和翻天覆地的变化。

图19Lecun贝尔实验室同事(研究是很开心的)

3.5关于年后神经网络的理论解释和继续使用的两个赌局

在当时的环境下,并不是所有的人都相信神经网络技术,更多的人倾向于一些有理论保障的机器学习方法,比如kernelmachine等。

LeCun给大家展示了他年3月14日所见证两位机器学习前辈Jackel和Vapnik(当时他们都在贝尔实验室,Jackel是Vapnik的上司)的两个有趣赌局:第一个赌局中,Jackel声称最迟到年我们就会有一个关于大的神经网络为什么有效的理论解释,当然随后的历史证明他输了;第二个赌局中,Vapnik声称最迟到年没有人将会继续使用年的这些神经网络结构(意思是大家都会转而使用支持向量机SVM,Vapnik是SVM的发明人之一),结果Vapnik也输了。大神间赌局,两次赌,赌一顿饭,赢了为饭局买单。虽然都输了,大神的赌局却见证了神经网络的兴起。搞学术还是严谨,打赌都有字据见证人,Lecun作为见证人可能是这顿饭唯一没有花钱的。

图22Jackel和Vapnik(SVM发明者)打两次赌,赌一顿饭

不仅在年大家依然在用,直到今天,在结合了大数据与强大计算能力后,这些古老的神经网络结构迸发出更加巨大的能量。这个深度学习学术史上有趣的八卦,我们如今听来却也不胜唏嘘。技术的发展往往是螺旋式且兼具跳跃性,实在难以预料。

3.6深度卷积神经网络对目标的识别

近年来,由于大型数据库、算法及GPU计算的发展,卷积神经网络取得了飞速的发展。LeCun教授展示了大型深度卷积网络在物体识别、人脸识别及自动驾驶等领域的应用及最新研究进展。

图23经典网络模型VGGGoogleNetResNet

深度学习应用于人脸识别,Lecun说他起先并不认为深度学习在人脸识别上会work。

图25ConvNet应用在驾驶上

深度学习在计算机视觉中的各种应用,图像识别、分割、目标检测。卷积神经网络为何能取得如此好的应用效果?LeCun教授认为,物理世界本身就是可以分解的,这些分解的部分能够以不同的方式进行组装,以合成更复杂的世界。一幅图像同样可以分解成各种基本的图形,之后通过进一步的结合,又可以形成更复杂的图案。而卷积神经网络就是在一步步发掘这种内在的组合规律。

3.7对抗网络(adversarialnetworks)学习方法及其发展

尽管未来是如此的难以预料,但科研的道路却是一步一个脚印的走出来的。Lecun接着给大家展示了一系列的技术干货,包括近几年在计算机视觉(ComputerVision)、深度学习(DeepLearning)等方面的最新进展以及颇有未来潜力的技术方向对抗学习(AdversarialLearning)。LeCun本身就是生成对抗学习的坚定支持者,也对于这方面的研究做出来重要贡献。

那么什么是对抗学习呢?

用IanGoodfellow的话来说:“生成对抗网络是一种生成模型(GenerativeModel),其背后基本思想是从训练库里获取很多训练样本,从而学习这些训练案例生成的概率分布。

而实现的方法,是让两个网络相互竞争,‘玩一个游戏’。其中一个叫做生成器网络(GeneratorNetwork),它不断捕捉训练库里真实图片的概率分布,将输入的随机噪声(RandomNoise)转变成新的样本(也就是假数据)。另一个叫做判别器网络(DiscriminatorNetwork),它可以同时观察真实和假造的数据,判断这个数据到底是不是真的。”

对抗网络(adversarialnetworks)也因此是一个训练机器预测能力新方法。一个对抗网络带有一个发生器(generator),从随机输入中生成某类数据(比如,图片)。还带有一个判别器(discriminator),它从发生器中获取输入,或者从一个真实数据组中获取输入,判别器必须区分来源不同的输入——判别真伪。两个神经网络能实现自身优化,从而生成更加真实的输入,以及世界观更为合理的网络。

实践中,对抗网络的这种特性可以转化为一些更好、更敏锐、质量更高的预测模型。

为了展现这一点,LeCun和他的团队用各种图片数据组训练了DCGAN,这些图片采集了ImageNet数据组中一组特定图像,比如所展示的卧室。

或者动漫人脸识别。

DCGAN也能够识别模式并将某些相似表征放在一起。比如,在脸部图像数据集中,生成器不理解什么是微笑的意义,但是,它能发现人类微笑图片的相似性,并将它们分为一组。

一旦我们可以训练一台机器去预测世界看起来什么样,那么,我们就能将机器学到的内容新的任务,比如视频预测。

用数据重叠区的低值做了一个能量函数,通过七个步骤来无监督学习。训练概述:最后是对抗训练,不确定性的预测,训练样本特征做。讲到这,现场很多同学和老师的眼神已经直了。那些没有实际编程实现过CNN等深度学习对目标识别的叶公好龙型师生,已经彻底懵逼了。会场参会人员水分很大啊,看表情十只七八都是感兴趣而已。这就如同那些从不打篮球、踢足球,却喜欢看个球赛的人一样。那些踢球的,身体再好,也和你无关啊。也如同那些没出过国,更不不知道国外那个清淡,却整天在看日剧韩剧港剧泡沫剧一样,浪费时间不说,还造成了人思想上的虚幻不实际。把体育、演戏这样的事情搞成明星挣大钱,只能说明国人没有选择。对学生、家长都是毒害。教育脱离了人性,从小没有兴趣只有书本。从小就被思想禁锢了,只能靠想象过日子。长大了,人已经疲于应付了,即使是领导,也是只能在思想意识层面做事搞管理。秦陇纪表示,看不懂啊,此处略去PPT十来张(文末打赏可下载都有的版本)。

最后是,5帧、9帧(5sec)的视频预测。这里说的预测是实体识别领域的目标物体预测。汽车在行进中,对目标做自动回归模型,预测不同的前方物体。

当机器掌握了这个常识后,就会更善于找到最佳办法去完成某件特定任务最终,这类知识会进一步加快应用研发,包括看先进的聊天机器人和虚拟助手。

3.8列举AI发展的障碍:如何让机器掌握常识?

机器没有常识这一点不容置疑,而常识确实进行“预测”必不可少的一项技能,为了让机器拥有这一能力,Facebook的研究人员正试着将这一技术带入下一个阶段——从纯数据处理逻辑迈向堪与人类媲美的某种形式的「常识」。

机器要掌握常识需要搞清楚世界(物理世界、电子世界)的运作方式并作出合理决定,那么,它们必须能够获取大量的背景知识、了解世界的运行规律,进而作出准确的预测和计划。

LeCun认为,人类需要和机器以一种非常自然的方式互动,因此,我们需要让机器懂得人类,也即掌握常识。要掌握这类常识,机器需要一个内在模型,告诉它世界的运行方式,这就要求机器具备预测能力。现在我们所欠缺的就是:无需人类加以训练,机器自己可以建构起这样一个内在模型。人类的学习过程,就是对现实世界进行观察和体验。或许在不久未来,会出现一部彻底(

转载请注明:http://www.bociwangnai.com/tzysnr/5030.html

  • 上一篇文章:
  • 下一篇文章: 没有了