动态

当前位置/ 首页/ 动态/ 正文

科技前沿:人类能控制AI吗?

导读 在这个正是日新月异的时代,飞黄腾达的时代,人类的科技、生活已经在近几年快速的进入快车道,在这年头有台电脑、手机已不是稀奇的

在这个正是日新月异的时代,飞黄腾达的时代,人类的科技、生活已经在近几年快速的进入快车道,在这年头有台电脑、手机已不是稀奇的事,因为几乎每家每户都会有电脑,电脑仿佛将我们彼此链接在一起,下面分析一片关于电脑与手机各种新型科技产品的文章供大家阅读。

人性化的人工智能通信:物联网设备听起来更好

刚刚在纽约结束的奥莱利人工智能大会上,观众中有一种有趣的融合。除了通常的“独角兽”(即数据科学家)群体之外,还有一个规模足够大的管理层群体,足以填满高管会议的会场。随着人工智能充斥着媒体和大众娱乐,你必须生活在岩石下才能不熟悉人工智能的话题,即使这些定义和机器合成的逻辑一样模糊。高管们想知道这个新的董事会流行语是关于什么的。

《麻省理工斯隆管理评论》(MIT Sloan Management Review)执行主编戴维•克龙(David Kiron) 2017年对3000名高管进行了研究,结果显示,高管们肯定听说过人工智能,但他们的组织仍处于实施人工智能的早期阶段。只有23%的公司真正部署了人工智能,而5%以上的公司已经开始在他们的企业中嵌入人工智能。房间里有一些不同意见,认为调查可能抽样不足,因为高管可能与人工智能领域的开创者没有密切接触。但麦肯锡(McKinsey)去年进行的一项规模类似的3000份样本显示,只有20%的公司使用人工智能相关技术,其中约12%的案例被商业采用。

成功并不难找。富国银行(Wells Fargo)超越了聊天机器人,利用人工智能来改善欺诈检测,并为客户体验添加上下文。谷歌发现,建立一个跟踪G套件试用版使用情况的ML模型,可以使他们在最短两天内预测谁可能在45天的免费试用结束后成为付费用户。康卡斯特使用深度学习来提供更多的上下文服务,同时它还跟踪客户设备的工作状态。

但是,当我们在成功的故事和方法论的深究中跋涉时,我们想知道人类如何才能掌握这种新发现的力量。虽然分析已经扩展了我们获取洞见的能力,但人类仍然在如何解释数据上做出决定。有了人工智能,这一负担得以分担。我们注意到几点:首先是对数据的基本信念——数据越多,机器学习或深度学习模型就越好。事实上,数据爆炸是人工智能从冬天走向春天的因素之一。下一个被问责。

对于人工智能来说,数据并不是季节从冬天变到春天的唯一原因。云计算降低了进入门槛(您不需要购买自己的HPC网格);优化硬件(如gpu、TPUs);连通性;开源(你不必重新发明轮子来设计算法)当然也在发挥作用。我们看到人工智能被用来帮助从业者进行人工智能——见证了新一代的非专业友好服务,如亚马逊SageMaker,或Oneclick等工具。人工智能,你可能不总是需要数据科学家来做人工智能火箭科学的工作。

但令人困扰的问题是,在什么情况下,不断增长的数据量会给人工智能带来越来越少的回报?在存储方面,Hadoop社区已经开始处理我们在审查Hadoop 3时提到的擦除编码问题。正如互联网和电子邮件最初并没有考虑到安全性一样,在Yahoo、Facebook和其他公司基于已发布的谷歌研究开发HDFS时,信息需要生命周期的意识并不是考虑因素之一。

在大会上,我们没有发现任何演讲者提出“何时数据足够就足够了”的问题,但斯坦福大学(Stanford University)放射学副教授格雷格•扎哈查克(Greg Zaharchuk)的一场演讲暗示,成功的人工智能可能并不总是需要看似无穷无尽的数据洪流。在这种情况下,需要优化医疗成像的使用,特别是CT或MRI扫描,保险公司和患者都喜欢尽量减少,因为治疗是昂贵的和令人不愉快的。因此,你得到了流向大脑的模糊的CT图像,这是数据缺乏的症状。理想情况下,最好是让病人再做一次扫描,或者做一次更长时间的扫描,但这并不实际:对病人来说,这太不舒服了,保险公司也要花大价钱才能得到一张完美的照片。

扎哈切克的团队正在研究深度学习的潜力,以减少病人暴露在昂贵或有害的放射成像过程中。他们从一个相当小的数据集(约100名患者)着手,进行了将“参考图像”数据与来自MRI、CT和PET扫描的实际患者图像相结合的测试,发现使用一组深度学习方法在填补空白方面提供了希望。最重要的是,它不需要在全国范围内收集样本来获得可行的结果。

此外,2018年人工智能对企业的价值将达到1.2万亿美元

至于问责制,期望我们能够解释模型的功能及其背后的原理是否现实?我们回顾了SAS的创始人Jim Goodnight博士,他在几个月前的一次分析师会议上对ML和DL模型的责任表示了担忧。特别是在使用神经网络的情况下,多个模型可能会协同工作,建立指挥链可能会很有挑战性,比如确定负责批准或拒绝贷款申请的实际算法或数据集。这个问题正在得到更多的关注。如果你正在寻找Netflix推荐一部电影或亚马逊推荐相关产品背后的逻辑,那么其中的利害关系可能并不重要,但如果涉及到像计划脑外科手术这样的重大问题,那就另当别论了。

这是一个社区仍在努力解决的问题。

剑桥大学(University of Cambridge)机器学习项目教授佐宾·加赫拉马尼(Zoubin Ghahramani)认为,使用算法可能会涉及法律责任和隐私问题。Kathryn Hume,风险投资家,integration公司产品和战略副总裁。人工智能是一家为b2c企业应用人工智能与客户互动的初创公司,该公司认为,问责制的真正挑战在于解释向模型输入的信息和它们产生的输出。

“数据收集中的盲点可能会导致更大的问题,”她说,并补充说,关注结果(我们是否为正确的目标获得了正确的结果)可能更贴切。Unity Technologies人工智能和机器学习副总裁丹尼•兰格(Danny Lange)指出,即便是对于产品推荐等日常功能,解释模型也很困难。如何解释这些模型?“也许我们应该从人类心理学中借鉴一些想法,”他大胆地说。