- 相关推荐
通过对演讲稿语言的推究可以提高语言的表现力,增强语言的感染力。在日常生活和工作中,接触并使用演讲稿的人越来越多,演讲稿的注意事项有许多,你确定会写吗?下面是小编收集整理的人工智能的演讲稿,欢迎阅读,希望大家能够喜欢。
人工智能的演讲稿1
尊敬的xx老师,亲爱的同学们:
大家好!
我们不难发现,在这个人工智能已悄然来临的时代,比起去担心我们会不会被人工智能所“统治”,我们更应该担心的,是自己会不会被其“同化”
苹果公司总裁库克,对人工智能的降临会不会使人类像计算机一样思考而失去了价值观和同情心从而导致罔顾后果也表达了同样的担心。从库克的担忧中我们很容易就可以分析出,他认为人类于人工智能而言所拥有的绝对优势就是人类的价值观与同情心。用更通俗一点的话来说,就是人情味儿。而若从哲学的角度上说,人类所具有的判断事物价值从而决定自己行为与对人或事的关爱,这是人工智能所无法达到的。但可怕的是,如果有一天,这些东西从我们的生活中离开,那我们所面对的,不就是一个冰冰冷的世界了?
其实也不用那么悲观,这不是一道单选题,非要人类与人工智能之间拼个你死我活。在罗振宇的跨年演讲《时间的朋友》中,他提出的五只黑天鹅概念之一就是人工智能时代。他认为有一部分人对于人工智能太负面了。我们都说事物是具有矛盾性的,人工智能亦是如此。而更重要的是我们要抓住其中的主要矛盾方面,我们一定不能忘记人工智能给我们带来的“利”。前不久阿里巴巴在线下尝试开办了一个”自助超市“,体验过的人无不惊叹其高效、快捷。通过人脸识别扫描等操作就可以完成自助购物。在今后的生活中,这样的自助模式会越来越常见。比起生活更便捷,也许有很多人担心会不会有越来越多的岗位被人工智能所顶替,失业率会上升。其实我们完全可以把人工智能变成一种资本,让它为我们服务,而我们为它们创造价值。
前不久同样令人关注的还有阿尔法GO击败人类,记得在《开学第一课》上,节目组请到柯洁,他说被阿尔法GO击败这其实没什么,它的成功是人类创造程序后输入无数数据再进行统计计算所得到的。可我们不一样,我们是有思想的血肉之躯,我们的.世界并不是人工智能那样非黑即白、冷酷无情的,我们是带有主观情感的高级生物。我们与人工智能是有本质区别的,但同时,我们也都有自己存在的意义。
在人工智能不断发展的这个时代,我们对人工智能的前景充满希望。而在对于未来人工智能会带给我们什么还未可知的情况下,我们仍应保持积极的心态去面对,将两者放于一个平等的地位。此时我们能做的,就是坚持自己的价值观,保持着自己的这颗同情心,做事三思而后行,而不是像人工智能那样用冰冷的程序代码计算后再得到结果。
人工智能的演讲稿2
刚才大家对机器人开车有一点想法,好像总是感觉不靠谱。汽车——这个曾经被称之为改变了世界的机器,今天受到了人们的质疑,最大的问题是,汽车成了人类的第一杀手。我们做一个简单的调查,你的亲人、朋友、亲人朋友的朋友,在这个大朋友圈里,你有没有发现,其中会有一个人曾经受到过汽车事故的伤害?我看到有人点头了,人类开车,更多的情况下,不是汽车的动力学性能不好,而是人有更多的智能要释放,他要看路边的美女好看不好看,结果坏事了,这叫做注意力转移。情绪不稳定,不是我们注意一点就可以的,因为人是个认知主体,他一定要开小差的,他一定要睡眠的,他一定会疲劳的,所以车祸的百分之八十左右都是人为事故,不是车子不好,所以人们对这个人类杀手是耿耿于怀的。我们发明了汽车,为什么让它造成我们的不幸呢?
人们对汽车的最大意见应该是把驾驶者的.活,交给计算机、交给人工智能、交给科学技术。所以我们就千方百计地提高无人驾驶的可靠性、安全性。经过我们的初步估算,人开车的可靠性是十的负三次方,千分之一;而如果改成机器人开车,计算的结果是十的负五次方,比人开车的事故率会降低百分之一,所以安全问题就解决了。
大家都比较关注刚才看到的那些摄像头,这些摄像头大概跟手机的那个摄像头的价格差不多,一两百块钱就可以了。但是,要想看红绿灯,看高速行驶的障碍物,这个摄像头还是需要有一些特殊能力的,比如说高动态。大家知道摄像头的一个最大问题就是光照,夜间要开车,大雾天也要开车,所以摄像头的难度很大。我想告诉大家光有传感器还不够,这就是认知的作用,智能车本质上就是驾驶认知的形式化,需要一个脑子来认知。
重点是要讲一下驾驶脑。我们去年用一辆大客车和几辆小轿车,从郑州到开封实现了全程的无人驾驶。我们课题组利用这么多年的时间专门从事驾驶脑、驾驶认知的形式化,还是尝到了一些兴奋点,这件事情不是那么容易的。郑州到开封的实验成功之后,美国一个叫做“连线”的网站给我们做了个评论,它说:谷歌那个小车子叫smart car,固然性感,大车子也性感,我才知道智能公交车,还可以用“性感”这个词来形容。在智能驾驶当中,我们实际上走了很多的路程,20xx年,我们从北京到天津,在高速公路封闭的道路上做无人驾驶,大家可以看一看这段视频,是三四年前的事情了。
当时的媒体也很震惊,觉得我们从北京到天津无人驾驶很了不起,其实震惊的不应该是这件事,而是我们汽车的头顶上没有顶美国的64线激光雷达。我们用的比较简单的雷达就把它做到了,我觉得这一点还是值得骄傲的。很多开车的朋友都说开车是个乐趣,是人追求惊喜历险的乐趣,我们用上海汽车集团的一辆新概念车叫iGS,做了一个赛车考驾照的科目,叫做十八米绕桩,既要快又不能碰到锥形标。你看,又要快又不能碰到这个锥形标。智能驾驶是个不可改变的方向,我们人要坐在车里面干什么呢?优雅地享受移动生活呀,这多好呀。
人工智能六十年了,今天我们来看人工智能在我们这一代人身上到底发生了多大的变化。今年AlphaGo围棋跟九段围棋手李世石下了五盘,四比一赢了,震撼了全世界。不知道在座的有没有看看这个围棋现场,我想问一问,围棋是我们中国的传统文化,在座的会下围棋的举下手,还是少了一点。AlphaGo围棋能赢,反映了我们人工智能在奔跑的道路上已经有了一个新的里程碑。我想了一下,你到汽车装配厂,到很多生产线去看,都是工业机器人在干活,这是一个方面,所以我们国家提出了智能制造20xx。另外还有一个方面,就是农业。大家知道由于现在我们国家的城镇化,使得很多农村人到城里来了,尤其是青年人。中国的下一代农民的平均年龄你们想过没有,可能是多少岁?
我先告诉你们两个数字,日本的农民的平均年龄是65岁,美国的农民的平均年龄是60岁,中国的农民将来可能是50岁。年轻人都出来了,那靠什么呢?下一代的新农民就是无人拖拉机、无人收割机、农用无人机。所以我们可以憧憬一下,人工智能给我们的精准农业、智慧农业展示了很好的前景。尤其是服务机器人,我家里有个闹钟,六点钟就响,在一定程度上也可以叫作叫醒机器人,只不过比较简单。如果你家里有很多家务活,而一个人有十个机器人为你服务,我们不是可以更加有尊严、更加优雅、更加有智慧地生活吗?所以我的观点是:大家对人工智能还要多想一点,就像我们对科学要有一颗敬畏之心一样,对人工智能也要有一颗敬畏之心。我们一定可以与机器人共舞,而且在共舞的过程当中,我想人类还是领舞者。
人工智能的演讲稿3
我在的部门在百度叫做深度学习实验室,这是20xx年的时候在百度成立的专注于深度学习的实验室,应该是全世界在工业里面第一个专注于深度学习研究的实验室。我今天要和大家分享的首先是看一下最近几年来人工智能在图像语言方面的最新的进展,以及分享一下我对人工智能目前它缺少的东西,以及以后我们未来可以去继续工作的方向。
人工智能这个概念最近几年非常火,我们看到人工智能传统的一些研究方向,像计算机视觉,还有语音识别,这些方面在最近几年都有了过去几十年不可想象的巨大进展。尤其是上个月Googel的AlphaGo和李世石下的那盘棋以后,更是激起了大家对人工智能高度的热情。为什么人工智能在最近几年有快速的发展呢?一个最重要的原因就是我们通过了几十年的积累,我们现在已经有了非常可观的计算能力,同时在这个计算能力的基础上,可以在一个可接受的时间内处理大数据。我们最近几年因为深度学习的发展,给我们提供了一个非常灵活的,非常具有建模能力的学习系统,正是因为这两者的结合,它能够把我们大数据后面蕴藏各种丰富复杂的关系,能够把它提取出来。从而成为我们人工智能快速前进的巨大推动力。
因为看到深度学习的巨大潜力,百度也投入了非常多的力量来开发一个深度学习的训练和运算平台。这个平台叫做PADDLE。那它的目的就是为了把深度学习更好的应用到百度的各种产品里面去,让它更方便的,更好的提高我们的用户体验,提高智能度。我们这个深度学习的平台能支持各种丰富的数据类型,比如说像二维图像数据,或者是词的训练数据,尤其像工业界非常重要的上千亿的稀疏数据,也能非常有效的支持。
另外也提供了非常灵活的建模表达能力,能非常方便地根据他应用的需求,配置出不同的深度学习的模型。比如说一个循环网络,或者是处理图像的卷积网络,任何灵活的组合都可以在我们这个平台上面很方便的配置出来。
因为在百度我们有非常大量的运算资源,为了能够充分的应用我们的运算资源,我们这个平台也非常高效的进行多机的训练,这样也能很有效的处理我们的大量的数据。
因为有了这么一个非常高效,非常灵活的计算深度学习的平台。百度最近几年把深度学习运用到了产品的方方面面。比如说核心的搜索和广告这样的产品,还有可能不太想到的,像数据中心的智能控制,病毒的查杀,这种产品里面我们都成功的把深度学习应用到上面去,提高我们产品的体验。
随着深度学习的逐步在各种人工智能问题里面的更深入的使用,我们现在开始看到机器在一些很特定的感知问题上,它的能力已经在逐渐接近甚至超过了人类的水平。比如语音识别,我们百度的语音搜索,在比较短的文字,和上下文没有太大关系的语音识别这种任务,我们百度的语音识别系统做到明显比人好的程度,错误率不到6%,而人的任务上的错误率可以是接近了10%。因为实际上在没有上下文关系的情况下,这是非常难的任务。
还有另外一个例子就是人脸识别,也是随着深度学习的使用,人脸识别这个东西也是最近几年有了非常大的提升。人脸识别一个最核心的任务,就是给两幅图,你要判断是否来自同一个人,包括百度在内的很多公司还有研究团体,都取得了明显比人好的水平。能看到我们的机器错误率现在非常低,只有0.23%,而人的任务率是0.8%,现在已经不及机器了。
还有像其他一些图像识别的任务,在最近几年也都有了非常快速的进步。比如说细粒度图像识别,在一类物体里面我们还要区分它子类,比如说在狗里面要区分各种不同的狗。这样的任务实际上是比更普通的物体识别更难,因为要对物体细致的特征有区分。这样一个任务上在20xx年的时候,我们最好的系统错误率都还是50%,到了20xx年错误率就降到20%,可到今年最新的结果错误率就降到10%几。像这种细粒度的物体是别人是很困难的,人是很难认识200多种狗的。
下面我们谈一些语言方面用深度学习的进展。我们知道其实语言是人类智力的核心的体现。我们是用深度学习的思想来处理语义理解的任务。传统在语义理解的任务里面,基本上是要分好几步走的过程。首先要通过词法解析、语法解析,然后构造各种人为的特征,然后得出语义分析的结果。深度学习的理念就是端到端的,从最原始的数据开始的,这里就是一个词的序列开始的,我们不考虑任何的人为的特征构建,就直接用一个完整的模型,得出我们想要的结果。我们人对这个问题的理解,主要是体现在我们模型的结构当中。这样的思想,过去几年在图像识别、语音识别里面都给他们带来了巨大的提升。我们在语音理解这样的任务里面,也做到了比传统方法好的结果。
另外一个非常好的,端到端的深度学习,在自然语言处理里面非常成功的应用,就是机器翻译。端到端的机器翻译的做法,是20xx年的Google首次提出来了,因为是一个新方法,大家认为很有潜力的。但是刚提出来的时候还是比传统的方法有明显的差距。但仅仅过了一年以后,就能够达到了传统方法的质量。今年的结果已经比传统的方法好了。一旦我们用好了以后,就可以对它各种效果有非常快速的提升。
除了语言其实最近和语言相关的比较热点的研究方向,就是把语言理解还有图像识别,语言生成这些传统的人工智能比较隔离的研究方向,有机的组合起来,用一个完整的深度学习模型来处理。通过这样的一个整体的模型,我们机器就可以比较更自然的学到语言和它感知到的物理世界的联系。
像这样的统一的视觉语言统一的模型,我们有一些例子。第一个就是看图说话,给了图以后,说出一个非常自然的描述,“一辆火车沿着森林间的铁轨驶过”。也可以对图像的自然语言的提问,给出一个合适的答案。甚至也可以理解视频,看到一段视频以后也可以给对这个视频做出描述。这个工作我们在百度是属于比较早的开始,现在也有很多研究机构在做这样的视觉和语言统一的研究。
深度学习最近还有一个事,就是现在向更深的模式发展。在去年图像识别比赛上面,我们看到获奖最好的一个模型是微软开发的深度达到150多层的深度模型。另外我们在翻译上也发现,随着模型深度的不断加深,翻译效果也是变得越来越好。
深度学习最近还有另外一些研究的热点,就是所谓的推理、注意力、记忆,这方面是偏向于人类认知能力的,希望把这样的一些机制能放在深度学习能力模型里面来。特别是在这里面注意力这样的机制,在一些实际的应用里面也取得了非常好的效果,比如细粒度的图像识别,或者翻译的任务。像记忆的机制,现在还是比较初期的阶段。
深度学习给AI带来了快速的进展,但我们还有很多的路要走。人工智能这个概念是1955年的时候John McCarthy提出的,同时还有3位重量级的研究人物。他们说了要用10个月花两个月时间,对人工智能做一个非常巨大的进步,实际上我们现在看到他这个是远远低估了人工智能的难度。现在的人工智能还有很多的缺陷,人类智能一个最核心的点就是自我学习和创造的能力,我们看到现在有很多具体的智能的系统,比如说AlphaGo,它还缺乏一种自我学习和创造的能力。比如说来了一个新的棋给他学,还需要大量的'人参与工作,才可以改造。而人就不需要,人可以自己主动的学习各种新的任务。
最重要的一点就是说现在人工智能还缺少一种从少量标注数据学习的能力,一个例子比如说图像识别,ImageNet里每个物体种类有几百幅图,一个小孩要认识一种东西可能几幅图足够了。还有英法翻译的训练数据,人可能需要几万个小时能阅读完,但如果你是说英语的,掌握法语的话可能只需要几百小时。所以看到现在的深度学习缺乏少量标注学习的能力。
那么最核心的一点就是我们需要有对环境的一个非常好的表示,就是说我们需要通过非常大量的数据太能学习出来,非监督学习的机制,才能让我们有效的利用到大量的非标注的数据,进行非监督学习方式的一个最行之有效的方法,就是用它来预测未来。我们知道预测未来的能力是人智力的核心体现。比如说物理学是一个对简单系统的预测,人类的智力包括机器学习,是一个复杂系统的近似预测。如果我们通过这种预测未来的学习方式,就可以有效的掌握环境的规律,所以得到有效的表示。
我们现在的人工智能系统缺乏常识,刚才李院士也讲了很多的自动车,我们在座的很多人开车可能开几百公里就非常好了。但大家知道我们现在最好的Google的自动驾驶车,现在已经开了超过了200多万公里,但既使是这样,现在还是不能够去驾车。最核心的问题是缺乏一种像人这样的常识,就是说它遇到很多路况对人是非常简单的,人看到就知道怎么做。但机器缺乏常识性的理解,就只能通过人一条一条把每种路况导入系统里去。要想解决这样的问题,我觉得有效的方式就是放到真实的环境里面学习,像这样的概念最近在Facebook和微软也提出了这样的想法,他们提出创造一个虚拟的模拟环境,让人工智能体在这个环境中自己去探索,然后就可以在这样和环境的交互中,就能比较有效的建立它常识一样的东西。
还有另外一个主要的局限之处,就是通过数据来学习。我们现在所有的东西首先要考虑搜集数据。我们人来学习,比如说要区分这样两种不同的鸟,需要收集大量的数据,从数据里面自动总结出规律出来。实际上我们人会告诉他,可以看到这两个图的区别,人可以用非常精炼的语言告诉其他人。而现在的机器学习还非常缺少有效的能够利用人的知识的途径。
我认为如果要解决这样的问题,我们需要把语言作为机器学习系统一个基础的能力,否则的话我们就很难做到能够把人类大量的知识传递到机器里面去,然后同时来说我们需要这个机器能够理解语言,这样我们才能够表达人类的需求,能够帮助他的理解。旁边这就是一个电影里面的人在教机器人来学习读书。
我们要做真正像人这样的非常强大的人工智能,可能我们需要从最基础的东西开始做起。我们需要做的是像幼儿一样,让他自主在一个环境里面去学习感知,学习他的行动的一些基础的技能,同时把学习语言作为一个最核心的东西,包含在这样的一个系统里面。这些就是大概我的分享,我们还有非常多的困难,但是我觉得也给我们带来非常多的机会,我也希望有更多人和我们一起探索人工智能非常有意思的问题,去创造我们人工智能的未来,谢谢大家。
人工智能的演讲稿4
大家好,今天非常高兴、非常荣幸能参加这样一个盛会。今天我给带来的演讲是我的一点学习心得,题目叫做自学习的人工智能。首先大家都知道在60周年之际,我们首先应该记住的是这位人工智能的先驱,图灵。在他的问题的感召下,我们就有了今天这样的一个盛会和今天人工智能的飞速发展。他的问题,机器可以思维吗?可以从不同的维度来解释,那么首先人类对人工智能的一个探索也可以围绕对问题不同解释的探索。
第一个探索,应该说是在逻辑层面的探索。60年代人工智能的这些先驱就考虑用逻辑和搜索来研究人工智能,比如下棋、推理,比如说可以去做路径规划等等。那么他们有一个很强的假设,这个假设应该说从某种程度上来说是非常直观的。智能包括计算机可能赋予的智能,是来自于计算物理符号的排列组合,我们只要能很聪明的把这些物理符号排列组合的话,人类是可以从一系列的零和一的组合来得到。有了一些成就之后也发现这样的假设是有它的瓶颈的。在之后大家又有一部分人着力于研究能够有学习功能的人工智能,就有不同的学习算法,机器学习的计算法被研究出来。其中包括大家都熟悉的人工神经网络。
人工智能的几个里程碑我们现在也很熟悉,第一个大家公认的是里程碑是深蓝,这个比赛意味着几件事。一个是说在大规模的搜索的状态下,在可能的状态空间的搜索,实际上是一个在物理符号的空间的排列组合。也就是说在60年代人们的那些假设有一部分是正确的,我们确实可以从这种搜索和物理符号的排列组合获得很多的智能。
紧接着的阶段是,知识就是力量,这是随着互联网和大数据到来的一个热潮,从网上,从不同的媒体我们会获得很多数据,把这些数据经过沉淀变成知识,我们就可以赢得像这样一个电视大赛中的人机对战。
这个之后,刚刚芮勇博士也深入的回顾了一下最近的人工智能的突破,就是深度神经网络。深度神经网络的突破从计算上来说有几个好处,其中一个好处是说它把一个全局计算的需求变成一个本地计算的需求,在做到这样的一个同时呢,又不失掉很多的信息,这个是计算机里面无数成就的一个中心点。这样的一个成功就使得我们能够在不同的层次来观察同一个数据,同样就可以获得我们所谓的大局观。就像这个图,我们在不同的层次可以得到不同的特征。
这里我们要特别强调的是人工智能也在另外一个方面潜移默化的默默的在耕耘,这个就叫做强化学习。强化学习应该说是用来做人工智能规划的有力工具,但不是唯一的规矩。规划这个领域相对深度学习应该说更古老,研究的力度也很多。但在很长时间一段处于静默状态,这个原因是因为它在计算上有很大的瓶颈,不能有很大得数据量。一个例子就是强化学习在很长时间以来只能解决一些玩具型的问题,非常小的数据。但是最近的一个突破是Google的DeepMind,把深度学习和强化学习合在一起,这样的一个议题使得很多强化学习所需要突破的瓶颈,就是状态的个数能隐藏起来。这种隐藏就使得强化学习能够大规模的应付数据,就是说应付大数据。它突出的一点叫做端到端的学习,就是说我们在这里看到一个计算机的游戏,这个游戏的影像是输入端,输出端就是你要进行的下一个动作。这个动作是正确还是不正确,到最后会获得一个反馈,这个反馈不一定是现在得到,也许是后面几步得到的。这一点和我们刚刚讲的深度学习在图像上面的应用,就大不一样。就更加复杂,更加契合人的行为,所以强化学习也是下一个突破。
我们看到这种端到端的深度学习,应用在强化学习上,使得DeepMind到今天在很古老的单人的计算机游戏上已经把人类完全击倒,它做到这样是通过完全的自学习,自我修炼、自我改正,然后一个一个迭代。这个就是它迭代的一些结果,从左到右是一个时间轴,从下到上是它得到的效果。我们看到每一个游戏它的要求都是在不断成长的,就像我们一个学生在学习的过程当中学到的知识越来越多,这个完全是自我实现,一个自学习的过程。
包括现在的AlphaGo也应用了很多自学习的这种效果,使得我们现在终于认清原来人工智能从60年代到20xx年的物理符号的假设,也就是说以搜索为中心,以逻辑为中心的这种努力并没有白费,这种努力也是需要的。另外学习也是必不可少的,像我们熟知的'深度学习。所以AlphaGo对我们的启示,就是我们把两者结合起来,才是一个完整的智能机器。这个我们可以叫做人工智能的通用性,也就是说我们对于这两个技术的某种结合,比方说多一点搜索,少一点机器学习,或者反之我们够可以得到用来解释不同的人类的智能行为。这种通用型,端到端的学习,可以用这个例子来表达。就是这个鸡可以吃不同的食物,但是它下的蛋都是对人类有用的。
这里我要特别提到一点,我们并不是找到了最后的目标,这也是在不同的人工智能、强化学习,等等之类的实验当中我们发现一个特点。就是我们不能完全的依靠机器去全部自动化的自我学习,至少到现在我们还没有摸索出这样一个路径。这里是大学的例子,中文是永动机器学习,就是说这个机器不断的在网上爬一些网页,在每个网页里面都学到一些知识,把这些知识综合起来,变成几千万条知识,这些知识又会衍生新的知识。那么我们看到从下到上是随着时间,知识量的增长。那么它到了某一个程度实际上是不能再往上走了,因为知识会自我矛盾。这个时候就需要人进来进行一部分的调节,把一部分不正确的知识去掉,让它继续能成长。这个过程为什么会发生呢?是因为机器学习一个很严重的现象,就是自我偏差,这种偏差就可以体现在这种统计学的一个重要的概念,就是我们获得的数据也许是一个有偏数据,我们可能建了一个模型,对大部分的数据都有用,但其中有一些特例。我们如何来处理这些特例,如何来处理我们训练数据和应用数据之间的偏差,这个是我们下一步要研究的内容。
一个非常有希望的技术叫做迁移学习,比方说这个是在深度学习的模型上,在上面这一部分是一个领域已经训练好的模型。那么在一个新的领域,如果这两个领域之间有某种联系、某种相似性的话,我们就不一定在新的领域需要那么多的数据来学习,你只需要一小部分。我们之所以能做到这一点是我们可以把大部分的模型给迁移过来,我们人有这种能力,但是我们在做这种数据迁移的过程中,我们一定要牢记把这种有偏的数据偏差给消除掉。如果能做到这点我们就能做到不同形式的数据之间的知识迁移,比方说我们可以让一个计算机来读很多文字,这样的一个计算机去识别图像,应该比没有读这些文字,直接去学习图像来的要容易。这个就更像我们人类的学习。这种学习也离不开从下到上,从粗到细这样的一种特征的选择。
所以我们又得到另外一个概念,就是特征工程。深度学习给我们的一个有力的工具是能够自动的进行不同层次,进行大规模的新特征的抽取和特征的制造。那么这种特征在搜索引擎、广告系统上面,可以达到万亿级,也就是说这个已经完全不是人类所可以控制的级别了。那么智能在这样的级别上才可以产生。
但是现在人工智能仍然有一些困境,比方说如何能够让人工智能来深层的理解文字,有一个著名的类似于图灵测试的比赛,深层次理解文字,这个是在自然语言上问一些有歧异的问题,计算机如果要能正确的回答这个问题,那个模型不仅仅理解这些文字,而且要理解深层的背景文字,要理解周边的文字,有很多文化在里面,如何能达到这一点?也是我们需要解决的。
同时深度模型还可以把它反转,成为一种生成膜型。它不仅可以去对数据做一个决策,它还可以自己产生数据,可以产生新的数据。比方说这个是Google的一些研究员把一个深层模型里面的感知最深刻的那些图像给描述出来,结果是这样的,就非常有趣的生成膜型。
刚刚讲的不同数字格式之间,文字和图像之间,如果在深层实际上它们的区别已经消失了。那这样我们就可以对图像去问文字的问题,甚至对文字去问图像的问题。这样数据的形式也就不重要了。
如果我们达到了迁移学习的要点,我们想问下一步是不是可以把所有人类经历过的这些学习的任务给沿着时间轴串起来,能够让机器向人一样的,它的学习能力,它的智能在不断的增长,随着时间。那么它所需要学习的努力程度,样本数也是逐渐减少的。这个也是我们在努力的一个方向。
另外最近发表了一篇文章也说明了迁移学习的重要性。这个文章叫做bayesianprogram learning,这是从一个例子就能学会,我们知道深度学习是千万个例子的。实际上它用了我们过去没有涉及到的概念,就叫做结构,如果我们了解了一个问题的结构,那么这个结构的一个具体的形式只用一个例子就可以学会了。其他的部分,需要很多例子的那一部分可能是参数、统计,这一部分我们实际上可以通过迁移学习来学习。也就是说整个这个圆就圆满了,就是一个闭环了。
同时人工智能的应用也不仅仅是在图像方面,这里的一个例子是亚马逊的仓储机器人。亚马逊的仓储机器人是在一个很大的空间,这些机器人会把这些货架,每个货架上面都有不同的货品,把这些货架偷到工人的面前,让工人从货架上面拿所需的货品到箱子里面,然后快递给客户。为什么是这样呢?因为现在的机器人技术在选择,从货架上选择物体还远远不如人的熟练程度,但是它在路径规划,在机械的启动、抬起、放下已经超过人了。所以亚马逊的就很聪明的把机器的优点和人的优点结合在一起,变成一个新的商业模式。如果过去建一个仓储在支持这个城市亚马逊所有的物流的话,需要三个月时间,他用了这个把所有的传送带拆掉,变成机器人以后只用三天时间,这个收益是非常巨大的,也就是我们可以借鉴,可以拓展的一个经验。
下面要讲的,不仅在机器人,在图像识别,实际上在我们的生活当中,人工智能已经深入了。这里举的一个例子是我和我的一个学生戴文渊,建的一个公司,第四范式,这个公司可以让过去在金融领域只能由人来服务重要的客户,由人工智能来把这个能力拓展到几千万人,让每个人都享受到优质的金融服务。这是一个非常大的工程。它背后的技术就是机器学习,我们所熟知的深度学习、知识学习、强化学习。
最后我要说几点,我们看到这么多人工智能的努力,人工智能的有失败的时候,有成功的时候,我们到现在能总结出什么经验呢?我觉得现在的人工智能的成功离不开高质量的大数据,但是并不是未来的人工智能的成功一定需要大数据。那么我们下面要问是不是在未来有小数据也可以让人工智能成功,这就是今天我觉得在大学里面应该做的一个研究,在工业上大家还在开疆拓土,利用大数据的优势在发现新的应用利于。
第二个,就是要培养出更多的人工智能的人才。这些人才才可以来设计算法,这个也是我们今天在大学里面需要努力的一个方向。当然这些都离不开计算能力。
所以从这几点上来看人工智能的努力也不是像有些人说的,今天的人工智能的发展完全在工业,人工智能的发展也应该一部分依靠大学,一部分依靠工业。就像我们所说的大数据和人才的培养,小数据的研究。那么大数据的开疆拓土更多的应用,和更多的计算能力,确实来自于工业。所以这两种结合我觉得是我们今后发展的一个方向。
最后我要说一点,就是说我们应该说已经了解很多深度学习了,这个可以作为我们昨天的一个成就。那么今天我们在刚刚开始去获得强化学习的一个红利,那么这个可能还不是在很多的领域得到应用的,但是我要告诉大家的是,强化学习比大家想象的要更有用,比方说它不仅仅是在围棋或者是在计算机游戏上。在金融,在我们日常生活当中,甚至在教育上,机器人的规划都离不开强化学习。那么这些应该说都是富人的游戏,也就是说只有富人才能有这么多的大数据,有这么多的计算量去支持深度学习和强化学习这样的实际应用。那么我们明天要看到的应该是迁移学习,因为迁移学习能够让我们把大数据得到的模型迁移到小数据上面,使得千千万万的人都能够受益,也就是说人人都能享受人工智能带来的红利。我今天讲到这儿,谢谢大家。