【猎云网(微信号:ilieyun)】11月17日报道(编译:海倩)
IBM人工智能主管呼吁创立一个能够进入计算程序内部运作的窗口,以便人们加深对AI的了解。
“计算程序”可能是最流行的术语之一,但几乎没有人能够真正地理解这个词。它究竟有何作用呢?拥有数据科学博士学位的人本来就很少,普通人不了解情有可原,但更遗憾的是有些专家也摸不清现今的发展趋势。IBM的认知计算首席科学官Guruduth Banavar表示,即使从技术角度来看,也不确定人类是否能够理解AI计算程序的各个方面。
人工智能可以通过审查医院的医疗检测报告、银行的信用记录、某些人力资源系统中的工作申请文件,甚至是司法系统中的犯罪风险因素等来作出相关决定。然而,人们对计算机的决策过程并不是十分清楚,所以说,这是一种很可怕的情况。
Banavar表示:“就计算程序如何得出不同结论,以及受到结论影响的人是否有权利或有机会查明这一结论的产生过程,人们现已众说纷纭。” 9月20日,Banavar发表了一篇名为《学会信任人工智能系统》的论文,详细阐述了算法责任原则,进而确保基于良好数据的AI能够做出合理的决策。今年9月,IBM加入亚马逊、Facebook、谷歌DeepMind和微软的阵营,彼此成为人工智能合作伙伴。该组织将为人工智能社会性和技术责任的研究和协作提供资金支持。
AI的极速增长速度使人难以发现潜在问题。Banavar表示,人们正在尝试各种想法,其中部分人似乎已有所收获。但目前人们还不能完全解释清楚AI内部系统是如何运行及呈现结果的。
Banavar提供了一个简单的例子,即AI主体是如何进行深入学习的。它通过使用仿造大脑学习的神经网络和推理系统,提取并了解大量的信息。例如,为了识别并分类动脉闭塞的体征,医疗成像系统扫描了一百万次X光来采取数据。但是,一旦添加新的X光片,即使是这个神经网络的构建者,他也无法保证能预测出系统对它进行分类识别的详细步骤。Banavar表示:“神经网络的内部工作很复杂,如果只是简单地检查算法的内部状态,这毫无意义,我们需要深入了解。”
除此之外还有另一个挑战:机器学习是根据输入的信息来理解世界的。即机器遵守计算机运行的一个基本规则:输入无用数据就会输出无用数据。例如,当我们输入质量差或标记不正确的X光资料,这些资料对医学AI系统准确地发现心血管疾病起不到任何指导作用。
该技术短板也适用于那些对人做出主观判断的系统。在评估犯罪嫌疑犯重新犯罪的可能性时,如果机器所基于的信息有种族偏见观念,那么宣判结果就有可能带有种族主义色彩。下面分享一则真实案例:今年5月,ProPublica公布了一项关于在佛罗里达州布劳沃德县刑事判决时运用AI给出风险评分的报告。该报告数据并不是很精确,报告预计将近有60%的人会再次犯罪,而在将来可能重犯的罪犯里,黑人被误标的概率几乎是白人的两倍。
二次解释
对于如何探查AI计算程序的黑盒子,科技巨头们只有一个笼统的想法。Banavar表示,其中的一个建议就是建立一个并行系统,用来跟踪计算系统所做的各项决策并提供审计线索。根据IBM的说法,这可能应用于那些早就在健康服务、金融服务或法律领域等不太复杂领域内的决策软件系统。但是目前还没有就更复杂的深度学习神经网络大力开发这样的系统。所以该系统变成了快速前进途中的下一目标。
如果想在欧盟开发业务,AI公司就必须快速搞定这个问题。今年4月,欧盟区域内通过了一项新的数据保护指令,专家们表示,自此人们有权了解智能计算系统处理他们的信息并作出决定的根据与过程。该法律将于2018年生效。
研发出一套适用于大多数人的人工智能过程,无疑需要更多项的人工智能。Banavar说,人和机器之间需要进行对话,就像是两个人类在交流一样。每个问题和答案都能引发出另一个问题和答案,所以我们需要一个非常智能的语言接口。想象一下,如果用户向Siri或Alexa所提问的问题并不是关于天气或电影时间,而是你贷款被拒的缘由。那么,AI就必须有条不紊地用户的信用记录,向你解释每条款项的性质和影响。
虽然还未成功研发该技术,但IBM为此已与密歇根大学就计算机对话接口展开合作。Banavar表示他们的目的是使系统和用户之间能有更和谐、更长时间的交流,并且双方能够达到心意相通的效果。这种感觉可能更像是在与电影《Her》中的操作系统Samantha谈话那般,但机器只是一个很好的谈话者,它并没有人的意识。最后Banavar补充称,要想使机器达到人类之间那种真正自然的互动水平,人们还需要花费一段时间去探索。