身为人工智能(ai)威胁论的主要支持者,马斯克(elon musk)一直都很担忧 ai 未来的发展可能会对人类造成危险,近日他在推特转推了一篇黑客对 ai 威胁的看法报导,试图佐证自己的理念。
gizmodo 的报导谈到,为了解 ai 走上“歧途”的可能情况,网络安全公司 zerofox 在 2016 年进行了一次实验,让人类和 ai 进行一场竞赛,看谁能诱导更多 twitter 用户点击恶意连结。
实验之前,研究人员先让 ai 理解这次的目标,在研究社交网络用户的行为模式之后,设计并抛出网络钓鱼(phishing)的诱饵,吸引用户点击连接上钩。
结果在实验的规定时间里,ai 总计向 800 多名用户发出诈骗推特,并吸引 275 名用户点击;相较之下,参加实验的 zerofox 员工只发出 129 次尝试,吸引了 49 名用户。
不论是抛出的鱼饵数或吸引到的用户数量,ai 都以压倒性的比数击败了人类。
这样的结果似乎在预料之中,但 zerofox 认为最重要的是,这个结果证明 ai 确实能被黑客用来进行恶意攻击,事实上,虽然无法证实,但他们很有可能已经这么做了。
今年 7 月举办的美国黑客年会(black hat),数百名网络安全专家一起讨论 ai 技术可能带来的隐忧,当与会者被问到“未来一年内,是否会有黑客开始利用 ai 进行网络犯罪”时,近 62% 的受访者给了肯定的答案。
运用 ai 进行网络犯罪
负责调查的 cylance 安全数据科学家 brian wallace 认为,黑客应该已把 ai 当做武器使用好一段时间了。
“这推论非常合理,因为‘规模’对黑客来说很重要,他们必须尽可能增加攻击次数、目标,同时减少自己的风险。对他们来说,ai 和机器学习就是能用到的最终完美武器。”
wallace 的想法并非少数,移动设备安全防护公司 zighra ceo deepak dutt 也认为,在不久的将来,运用复杂的 ai 系统进行网络攻击的可能性很高,甚至很有可能已被一些国家利用。
dutt 指出,ai 可透过挖取网络大数据,得到每个人出生日期、电话、位置等几乎所有身份信息,也可以监控电邮、发送的文字新=信息,甚至是量身打造个性化的“鱼饵”,来进行社交工程(social engineering)的黑客攻击。
这些言论与马斯克日前发布的担忧十分类似,当时马斯克在推特提到,他认为国与国之间的 ai 竞赛,很可能引爆第三次世界大战。
“战争可能不会由国家领导者,而是由人工智能所发动──只要它认为‘先发制人’是取得胜利最有效的方式。”
但就像 facebook 创办人马克·扎克伯格(mark zuckerberg)那样,也有安全数据科学家抱持不同想法。recorded future 的技术长 staffan truvé 就认为,黑客目前并没有使用 ai,而是运用更简单的自修改代码或自动化方案在正常工作。
truvé 表示,他并不认为对有犯罪意图的黑客来说,ai 已经成为必须存在的“标准配备”,因为传统的方法仍旧有效。“如果你可以从一个传统、熟悉的方法得到很好的结果,又为什么要花时间和金钱改变成另一种模式?”
ai 究竟是什么?
对于专家和业界意见分歧的看法,《未来的犯罪》作者 marc goodman 认为,这主要还是每个人对 ai 定义的差别所导致,随着技术持续发展,人们对 ai 的概念也在持续改变。
从最根本来说,ai 的 i 意味着代理者(无论是生物或机械)具备“解决复杂问题的能力”,但其实人们已经拥有许多具备这种功能的工具,只是因为持有的时间过长,我们已将其视为理所当然。
这就像是在几个世纪以前计算机刚出现的时候,这个比人类运算快上几百万倍的机器被认为是激进的技术进步,但现今已经很少人会注意到它的特别;又或像是 1997 年击败世界棋王的 ai 深蓝(deep blue),曾经被视为人类智力的顶点标准。
而在今天,机器学习(machine learning)、自然语言处理、神经网络(neural networks)等多方发展之下,人们也同样提升了对机器智慧的看法,像是语音助理 siri、自驾车或疾病诊断功能,都已视为寻常事物。
更别提那些未来派科幻作品对 ai 的描写,与如今现实中发展的应用相去甚远。如果人们忽视这些工具的力量,那么也可能会忽略打算开发 ai 潜能做事的人,像是黑客。
“‘ai’一词经常被人误解,谈到 ai,许多人联想到的都是魔鬼终结者,但那并非 ai 真正的意义。相反的,ai 是一个广泛的命题,包含各种形式的学习技术──而这些智慧恰好是人工的。”
转载:中国机器人网(原始来源:评论:0)
以上是网络信息转载,信息真实性自行斟酌。










