人工智能失败的
7
种方式
7 Revealing Ways AI’s Fail
这篇文章是
IEEE SPECTRUM
关于人工智能
的特别报道《伟大的人工智能计算》的一部分。
作者 CHARLES Q.CHOI 是一名科学记者。
人工智能可以在一系列问题上比人类表现得
更快、更准确、更可靠、更公正,从检测癌症到
决定谁接受面试。但人工智能有时导致致命的失
败。人工智能的日益普及,意味着失败会影响数
百万人。
部分问题在于,驱动许多人工智能系统的神
经网络技术,可能会以某种方式崩溃。文章给出
了七个人工智能失败的例子,揭示了当前人工智
能的弱点。
(1) 脆性(BRITTLENESS)
人工智能的脆弱性有很多令人不安的例子。在
停车标志上,粘贴标签会使人工智能误读。改变图
像上的像素,会使人工智能把马误认为青蛙。医学
图像可以以肉眼无法察觉的方式进行修改,医学扫
描出现误诊为癌症。
(2) 偏见(BIAS)
人工智能越来越多地被用于支持重大决策,如
谁获得贷款、刑期长短以及谁首先获得医疗保健。
而人工智能所接受培训的数据中存在的偏见,可能
导致自动歧视,从而给社会带来巨大风险。例如,
2019
年,科学家发现美国国家部署的医疗算法存在
种族偏见,影响了数百万美国人。
(3) 灾难性遗忘(CATASTROPHIC
FORGETTING
)
灾难性遗忘是指:人工智能在学习新信息后会
突然完全忘记以前知道的信息,基本上用新知识覆
盖过去的知识。
人工智能研究人员正在寻求各种策略来防止灾
难性遗忘。一种简单的技术是为每个想要执行的新
任务创建一个专门的神经网络,比如区分猫、狗、
苹果和桔子。但正如牛津大学机器学习研究员萨
姆
·
凯斯勒指出的,
“
这显然是不可伸缩的,因为网
络的数量随着任务的数量线性增加
”
。
(4) 可解释性(EXPLAINABILITY)
长期以来,神经网络得出结论的方式,一直被
视为神秘的“黑匣子”,导致许多人试图设计出解
释神经网络内部运作的方法。然而,可解释性的研
究领域有些停滞后。
(
5
) 量化不确定性(
QUANTIFYING
UNCERTAINTY
)
工智能缺乏常识
——
基于人们通常认为理所当然的
广泛日常知识背景,得出可接受的、合乎逻辑的结
论的能力。
(7) 数学(MATH)
伯克利的亨德里克斯 (HENDRYCKS)说,尽
管传统计算机擅长处理数字,但人工智能“令人惊
讶地根本不擅长数学
”
。
亨德里克斯说,如今的神经网络可以学习解
决除了数学以外几乎所有类型的问题,
“
只要你给
它足够的数据和足够的资源”。他指出,科学中的
许多问题都需要大量的数学运算,因此人工智能
目前的这一弱点可能会限制其在科学研究中的应
用。目前尚不确定为什么人工智能目前不擅长数
学。然而,人工智能在数学上的糟糕表现,“仍然
是一个小众话题:这个问题没有太大的吸引力
”
亨德里克斯补充道。
2021 年 9 月 24 日星期五