长沙人工智能:LeCun、吴恩达等AI大咖解析2019人工智能
人工智能来了,人们对AI的持有截然不同的两种态度,拥护AI的人认为它就是拯救世界的超级英雄;而抗拒AI的人认为它不是英雄而是终结者。
VentureBeat联系到了吴恩达、ML和Fast Forward实验室创始人Hilary Mason,Facebook AI研究创始人Yann LeCun和埃森哲负责人工智能全球领导者Rumman Chowdhury博士,这4位人工智能领域的大牛,咨询了他们的看法。希望借由这些专业人士的专业眼光,为大众勾画出一个更加清晰的“人工智能”画像。
新智元对此文进行了编译,以下是文章内容:
Rumman Chowdhury博士是埃森哲应用智能部门的常务董事,负责该部门的全球人工智能计划,于2017年入选“BBC百名杰出女性”。
她认为,虽然目前人工智能涨势喜人,然而大众对AI的了解还远远不够。
新的一年,她希望看到更多的人,能够有更多的教育资源,帮助大家更好的理解AI,了解它的优势和存在的问题,更理智的分析问题做出决策。
她希望政府加强对技术的管控,但要保持好平衡。AI毫无疑问是一把利器,怎么用好这把利器是每个政府都需要深刻考虑的:
如何保证在加强管制同时又不扼杀创新性
如何保证监管措施不会导致大公司获益小公司遭殃
如何在多种可能性中引导其得出最理想的结果
她同时希望看到AI能够更好促进地缘政治的发展。她说AI已经不仅仅关乎于科技,而且关乎于社会和经济,关乎于价值观。
不要老是跟风去做,不要把眼光仅仅关注在算力、算法等,而是要奔着利用人工智能去改造世界,改变世界格局。
她还就人工智能对人类伦理方面的影响,提出了一些问题:
如何利用AI和物联网设备提升安全性的同时,不出现种族歧视?
如何进行社会分配,从而不会出现更严重的两极分化?
如何把握儿童教育的“度”,使得我们的后代既能很好的理解AI,又不会被其操控或同化?
如果利用AI自动化教育的同事,不至于使我们的后代丧失创新性?
最后,她认为2019年人们将会消费更多的AI产品,因为许多人已经习惯于使用Google Home和Amazon Echo及一系列智能设备。
“我觉得,我们都在等一个机器人管家的出现。”
吴恩达援引麦肯锡报告指出,2030年,AI将会为全球人类贡献13万亿GDP。
他说,AI已经不仅仅局限于科技公司。未来,像制造工厂、农业器械厂商、医疗行业,也会开发多很多AI解决方案以助力业务发展。
他还举了两个例子,试图说明目前人工智能技术遇到的问题,以及重大进展。
第一个例子是人工智能可以用较少的数据得出准确的结论,一些人在该领域称为“少量学习”。原来人工智能是大公司的专属,动辄10万小时、上亿的数据训练。如今,可以用1000张图片就能得出结果。
另一个例子是被称为“广义可见性”的计算机视觉技术的进步。该领域的许多先进公司和研究人员已经创建了比人类放射科医生更优秀的系统。
但是,如果你采用训练有素的模型并将其应用于从低端X光机拍摄的X射线或从不同的医院拍摄,其中图像有点模糊,也许X射线技术人员让患者略微向右转,所以角度有点偏离等等。
事实证明,在这种情况下,人类放射科医师今天的学习算法要好得多。
Yann LeCun是纽约大学的教授,Facebook首席人工智能科学家,Facebook AI研究院(FAIR)的创始人,Facebook该公司创建了PyTorch 1.0和Caffe2,以及许多AI系统,比如Facebook每天使用数十亿次的AI文本翻译工具和高级强化学习系统等。
LeCun认为,FAIR的研究和工具采取的开源政策有助于推动其他科技公司做同样的事情,他认为这种模式可以将AI领域作为一个整体向前推进。 LeCun是在上个月在NeurIPS会议和FAIR成立五周年之际接受采访时候做出上述回应的。FAIR是一个组织,主要关注利用机器学习解决技术、数学问题。
“当更多人就研究进行沟通时,整个领域的进展更快,这实际上是一个非常大的影响,”他说。 “今天的AI领域中能够取得如此快速的进步,很大程度上是因为有更多的人比以往更快、更有效率地进行更开放的研究。”
在研究伦理方面,LeCun也对越来愈多的研究人员考虑研究成果在伦理道德上影响,以及决策偏见带来的潜在危险方面取得的进展感到高兴。
“可以说,一些人们应该注意到的问题现在已经被重视起来了。而两三年前情况并非如此。”他说。
LeCun表示,他认为AI领域的道德和偏见问题还没到需要立即采取行动的程度,但他认为人们应该为此做好准备。
他说:“我认为目前这不是关乎生死存亡的问题,但总有一天会出现这样的问题的,我们需要了解这些问题,并在这些问题产生之前予以预防。”
与吴恩达一样,LeCun希望能够出现更加灵活、强大的AI系统,不需要原始输入数据或准确输出的精确条件。LeCun表示,研究人员已经可以通过深度学习很好地管理感知,但目前还缺乏对完整AI系统整体架构的理解。
他说,通过观察世界来实现教学的机器,需要靠自我监督学习或基于模型的强化学习。
“不同的人给它起了不同的名字,但基本上讲,人类婴儿和动物都是通过观察并找出大量相关背景信息来了解世界的,我们目前还不知道如何用机器做到这一点,这是一个巨大的挑战。 “而回报就是在人工智能和机器方面取得实际进展,让AI具备一些常识,聊起天来不会让人觉得尴尬,聊天话题可以更广泛等等。”
对于将在Facebook内部提供帮助的应用程序,LeCun表示在自我监督学习方面取得的重大进展将非常重要,同时AI返回准确的结果所需的数据量更少。
“在解决这个问题的过程中,我们希望找到减少任何特定任务所需的数据量的方法,如机器翻译或图像识别等,我们已经在这方面取得了进展;我们通过弱监督或自监督学习翻译和图像识别,对Facebook使用的服务产生了影响。因此,这不仅仅会是一项长期的目标,也会产生非常短期的后果。“他说。
在未来,LeCun希望看到在事件之间建立因果关系的AI取得进展。这不仅仅需要AI通过观察来学习,还需要AI具备实际的理解能力,比如,如果人们使用遮阳伞,就判断可能会下雨。
“这点非常重要,因为如果你想让一台机器通过观察学习世界的模型,它必须能够知道自己可以通过造成哪些影响来改变世界的状态,有哪些事是不能做的。”他说。
“如果你在一个房间里,桌子就在你面前,桌上有一个像水瓶一样的东西,你知道你可以去推水瓶,水瓶会移动,但你不能移动桌子,因为桌子很大、很重,而这些判断都与因果关系有关。“
在Cloudera于2017年收购Fast Forward Labs之后,Hilary Mason成为了Cloudera的机器学习的总经理。Fast Forward虽然被收购,但仍然保持运营,主要出具应用机器学习的报告,为客户提供关于未来六个月到两年的展望和建议。
AI在2018年的一项进步让梅森感到惊讶,这与多任务学习有关,它可以训练单个神经网络在推理时使用多种标签,比如识别图像中的多个目标。
Fast Forward Labs也一直在为客户提供关于AI系统的道德影响的建议。梅森认为,有必要为AI建立建立某种道德框架。
“自从创建Fast Forward以来,我们就一直在做这件事情,我们一直在撰写关于AI道德规范的报告,但是直到2018年,人们才真正开始接受并关注这个问题,我想2019年对这个问题的关注度会更高。”梅森说。
“我希望这个问题成为数据科学和人工智能的实践发展中默认的关注点,技术人员和商业领袖打造AI产品时,都会考虑道德和偏见问题,将其融入产品的开发过程,而今天,并不是每个人都会关注这些东西。“
随着更多的AI系统成为未来一年业务运营的一部分,Mason预计产品经理和产品负责人将开始在AI方面做出更多贡献。
梅森还认为,越来越多的企业对多个AI系统进行结构化的管理。
梅森表示,如果用开发人员面临的挑战类比,管理单个系统可以使用手动部署的自定义脚本完成,而cron作业可以一次管理几十个。但是,当管理数十个或数百个系统时,在具有安全性、风险管控要求的企业中,就需要专业稳定的工具了。
她说,越来越多的企业正在从追求对每个环节的完全掌控或精通,转变为系统化地追求机器学习和人工智能带来的机会。
由于Cloudera最近推出了自己的基于容器的机器学习平台,因此强调部署AI的容器对Mason来说很有意义。她相信这种趋势将在未来几年还将继续,因此公司可以选择在云中部署的内部部署AI。
最后,梅森认为,AI的业务将继续发展,AI将成为整个行业的共同追求,而不仅仅是个别公司的追求。
“我认为未来的AI专业实践将会不断发展,”她说。 “现在,如果你是一家公司的数据科学家或机器学习工程师,而你去另一家公司任职时,你的工作将会完全不同:你将面对不同的工具、不同的期望,不同的报告结构。未来,这些环节都会具备更高的一致性。”她说。