人工智能已经深入影响了我们的工作和生活的方方面面。2016年,白宫意识到人工智能在前沿会议的重要性。无人驾驶汽车的概念已经变成现实:uber在pittsburgh的无人车、装备了完全自主硬件的tesla最新型号的无人车。google的deepmind平台alphago,击败了围棋的世界冠军,将预测提前十年就实现了。
马里兰大学计算机科学副院长marie desjardins认为:“增加机器学习的使用,以及基于知识的建模方法”是2017年的主要趋势。这出大戏,将如何上演呢?
为了预测人工智能在2017年的趋势,techrepublic邀请了几位专家:杜克大学计算机科学教授vince conitzer、sundown ai公司ceofabio cardenas、路易斯维尔大学网络安全实验室主任roman yampolskiy、新南威尔士大学人工智能教授toby walsh。
infoq将这几位专家对2017年人工智能的预测整理成文,以飨读者。
人工智能的影响力越来越大
conitzer认为,公众对人工智能带来的社会影响越来越感兴趣,尤其是那些影响比较大的事件。以前就确定了许多普遍话题:技术性失业(infoq注:因工业发展所造成的失业;因采用新技术而造成的失业)、自主武器(infoq注:指具有人工 智能无需人类干预就能袭击目标的武器,通俗的讲就是杀人机器人。)、基于偏差数据的机器学习系统、机器学习系统用于识别和压制异议、人工智能系统不断地产生的伦理问题——特定的新技术的发展成败,都将进一步推动和扩大这些技术话题的影响力。
conitzer注意到,对ai的兴趣已经蔓延到行业外的特定群体,比如,律师将努力解决法律如何处理自主车辆的问题;经济学家研究人工智能带来的技术性失业;社会学家研究更高效的基于ai的推荐系统和个人助理带来的影响。
sundown ai公司ceo fabio cardenas同意上述观点,他更进一步表示,人工智能会影响到组织内的特定角色,如会计、财务、供应链、人力资源或由其他专业人士工作的领域。这些增长的领域将会使ai向全球多个行业的多个部门推广。
离经叛道的人工智能
终结者情节,是科幻小说中有关ai的常见之作。但是,这情况会不会是真的呢?据cardenas说,离经叛道的人工智能,或许会在2017年成为现实。他想象,“出于某些恶意目的,一小撮计算机盗贼为了欺诈机构或个人,创造了人工智能。”他说,“这种流氓的ai将能入侵那些被认为是固若金汤的系统。”
cardenas注意到,通过ai进行舞弊的情况已经发生了。他表示:“如果ai的训练库被破坏,骇客就可以插进偏见或豁免,以颠覆ai的预测能力,使自己从中获益。”
cardenas说,可能的途径就是,通过“ai开发使其他ai更聪明。”ai能够通过检查训练数据中的盲点来自我完善,“或者,如果我们幸运的话,写出能够改善其他ai的代码,”他说,结果就是有助于优化ai系统。“但距离一个超级智能ai,依然有很长的路要走。路漫漫其修远兮,吾将上下而求索。”
roman表态,他也认为ai“失败”或许是2017年的趋势。
他说,在ai中,最有趣、最重要的趋势是,也是我正在密切跟踪的:ai失败的频率和严重程度将与ai的能力成正比,换言之,当我们获益时,出现“恶意”ai的可能性也变大了。
人工智能的伦理问题
我们要如何防止ai叛道离经?这也是许多ai研究人员所关注的问题。总体来说,专家们担忧ai的伦理问题。因为,ai会犯错误,这是显而易见的:从加强偏见,到种族歧视的辱骂。在极端情况下,不能预防灾难性的事故。
参见麻省理工学院的报道:“道德机器”对自主驾驶的众包决策,但被专家称之为误导。
计算机科学中的传统ai社区,将着手解决工作中越来越多的社会和伦理问题。conitzer称:“ai研究人员已经对这些主题产生了兴趣,但我们只是想在一开始的时候,搞清楚如何沿着这些路线做出具体的技术贡献。这就需要仰仗更多的计算机科学家来解决。
moshe vardi表示2017年的趋势应该是:与ai有关的伦理问题将继续引起关注,围绕劳动自动化、致命的自主武器、算法的公平性和透明度的影响。
walsh声称:“我们将会看到,一辆自主汽车撞死一名无辜行人,或骑单车的人,或其他乘客。这将突出这些问题的严重性,因为我们在开发和规范ai。”
walsh还认为,价值取向问题——也就是说,我们如何确保ai与人类有相同的价值观?“我们今天所做的就是,不再被视为超级智能的问题,而是一个算法和机器学习程序。”他说。
来源:infoq.com
以上是网络信息转载,信息真实性自行斟酌。