人工智能——即ai已经变得越来越聪明,甚至能够预测未来。比如警察可以用ai来提前预判出犯罪的时间或地点,医生可以用ai预测病人最有可能心脏病发作或是中风。甚至研究人员还试图为ai添加上更多的想象力,因为其能够规划出人类所预想不到的结果。
通常来说,在大众的生活中很多决策都需要事先进行一定的预判。不过随着ai的进步,其预测比人类更加优秀。然而,随着ai技术的进步,我们似乎仍然缺乏对ai的信心。最近就有研究表明,人们不喜欢依赖ai,更愿意去相信人类专家——即使某些专家是错误的。
你相信ai吗?
ibm的超级计算机项目watson给出的癌症治疗方案,大部分时候与医生的建议十分吻合。在印度进行的一项研究显示,在治疗肺癌时watson给出的治疗建议96%的情况下与医生的方案相吻合;治疗直肠癌和结肠癌时,与医生建议的吻合率也分别高达93%和81%。而且,watson在临床试验中筛选乳腺癌和肺癌患者的速度要比人类快78%。截至目前,超过14000名患者根据其计算已收到相关的治疗意见。
但是当医生与watson互动时,他们发现自己处于相当复杂的局面。一方面,watson给治疗提供了指导,但其实医生并没有看到有多大价值。因为watson做出的这些指导,医生也早就知道。另一方面,如果watson产生出反驳专家的意见建议,那么医生通常会得出结论——watson是不能胜任的。因为watson无法解释为什么它的治疗是可行的,它的机器学习算法是不被充分理解的,进而造成了更多的不信任和怀疑。最终,导致很多医生忽视了ai建议,并坚持自己的专长。
沃森所面对的问题是,医生根本不信任它。人类的信任往往是基于对可靠性经验的理解,有助于创造安全的心理感受。而ai是全新的事物,绝大多数人都对其不熟悉。因此,即使可以在技术上解释(而这并非也总是如此),ai的决策过程通常还是让大多数人无法理解。不了解的后果就是会导致焦虑,使人类觉得自己正在失去控制力。
社会上有一个新的ai分歧?
如果我们希望ai能够真正造福于民,就需要找到一种方式来让ai获得人们的信任。当然,要做到这一点,首先要清楚目前人们对ai到底有着怎样的态度。面对逐渐有望落地的ai,似乎在社会上也有了分歧。
有外国专家在向不同的人播放ai相关科幻片后,就向他们询问有关人工智能、自动化等问题。他们发现,乐观主义者更倾向于积极地拥抱ai。而怀疑者则变得更加极端,甚至变得更加谨慎,不欢迎ai的到来。
这表明,人们对ai的偏见是一个根深蒂固的个人倾向。由于参与报道ai的媒体越来越多,正反意见也在博弈之中,进而就会直接影响人们对ai的认知。一部分人会认为ai将让生活更美好,另一部分人则认为ai会让社会走向灭亡——这样的分歧将会越来越严重。
解决ai“信任危机”就要保持透明度
但不管怎么说,ai始终还是要向前发展的。而要解决ai的“信任危机”,就必须从多方面着手。目前,部分专家已经有了提高人们对ai信任度的方法。最基本的,就是要尽快习惯ai未来出现在我们的生活中——使用的越多,就会越信任ai。就像当年互联网出现之后,很多人也持怀疑态度。但随着互联网全面落地之后,人们就对其完全没有戒心了。
另一种解决方案则是打开机器学习算法的“黑盒子”,让其更加透明,展示出ai是如何工作的。这样一来,能够让帮助人们对其有更好地了解。虽然绝大多数人不需要了解ai系统复杂的内部运作,但如果展示出较为关键的运作信息,人们会对接受ai融入生活持更加开放的态度。
不是我们不愿意相信ai,只是对新生事物的一种本能“恐惧”罢了——就像原始部落的人还认为照相机能吸走“灵魂”一样。当ai逐步普及后,对它的质疑自然也就越来越少。
转载:中国机器人网(原始来源:评论:0)
以上是网络信息转载,信息真实性自行斟酌。










