摘下人工智能的“有色眼镜”
人工智能的偏差是什么?我们又能做些什么?
译者:郭曦 (Cassie Guo)
原作者(第一部分 和 第二部分) : 柯凯茜 (Cassie Kozyrkov)
Original English version: Part 1 and Part 2.
人们对于 人工智能(AI) 偏差 (Bias) 的误解不只是其定义本身 — — 偏差是个承载了过多含义的词,在不同的语境中,“偏差/偏误/偏见 (bias)” 的语义也不尽相同。
以下只是几种对偏差的定义解读.
- 统计学:偏差是指估计量的期望值与待估参数的真值之差。这个定义有些过于专业,我来解释一下。偏差是指系统性不准的结果。 比如射箭时你的弓没有摆正。高度偏差的意思不是你会把箭射的到处都是,而是可能让一个娴熟的弓箭手每次都错失靶向。这个词在这里是没有感情色彩的。
- 数据采集 (也隶属统计学): 在你笨拙地收集数据的过程中,你采集的样本不具有对总体的代表性。正式的说法是抽样偏差(Sampling Bias)。这种偏差表明你的统计结果是不可信的。
- 认知心理学: 系统性地偏离理性(的认知)。这个精辟的定义里每个词都有隐晦的特定领域的含义。用外行的话来说,你的大脑已经进化出了某些心理学家最初都觉得令人诧异的应对外界事物的方式。已收录的关于认知偏差的例子比比皆是。
- 神经网络算法: 实际上,(偏差)就是截距 (当然偏差听起来比高中数学的词汇更酷炫一点,是吗?)
- 社会科学和物理学:: 任何一些被过去的情况/无关的情况而过度影响的认知现象。这些例子包括文化偏见以及基础结构偏差(infrastructure bias)。
- 电子学: 用于在直流电信号中的恒定的直流电压或电流。
- 地理学: 西佛吉尼亚的一个地方 (我听说法国人也有一些偏见)。
- 神话: 那几个古代希腊人.
- 大多数AI专家眼中: 算法偏差出现在计算机系统里,反应了其创造者的隐性价值观。(难道不是任何人类创造的东西皆是对其隐性价值的一种体现吗?)
- 大多数人眼里:(偏差就是)我们的经历会扭曲我们对于信息的感知和应对,尤其是在不公平地对待他人,以及其他的一些负面的情况下。有些人用偏见(prejudice)这个词。
哦,天啊。这有这么多的含义,其中一些含义更有争议一些。
哪个意义是在机器学习(ML)/人工智能(AI)中提到的呢?
机器学习/人工智能作为一个新兴领域,有从各处借用术语的习俗(有时候似乎并不在意其原意),所以当人们提及人工智能的偏见时,他们可能指的是以上的任何一种意思。这好像你正准备对一篇华丽的承诺矫正AI偏差的论文进行感情宣泄…结果发现他们所说的偏差是指统计学意义上的。
而在目前最时髦说法里,偏差的含义是那种激起舆论的 — 是那种茹毛饮血的人类天性里的。更令人惋惜的是,我们在读(以及写!)这些话题的时候甚至带着各种的偏差(过去的经历扭曲了我们对于信息的感知和应对)
科技不是人类的解放
没有哪种技术是基于其创造者之上的。尽管我们有科幻般的美好愿景,没有哪种机器学习人工智能的系统是真正独立自主的……因为他们始于人类。
所有的科技都是其创造者的愿望的一种启示。
这不仅限于机器学习/人工智能;任何一种正处于被认为是独立体的危机之中的科技在你按下按钮之后都会有长远的影响。
无论其启示多深奥,科技始终来起源于人类的创造,这表明科技并不比人类更加地客观。这造成了算法偏差的定义是有问题的。
算法偏差指当计算机系统反映了其创造者的隐性价值,但是难道不是所有的科技都反应了其创造者的隐性价值观吗?……并且如果你认为人类是可以完全摆脱偏见,看一下这个清单……
数据和数学不等于客观性
如果你把人工智能当做人性弱点的拯救者,请格外小心。
数学可以隐藏人为因素并造成一种客观性的假象。
当然,数据和数学可以提升你在做决策的时所用的信息量,并且/或者救你于水深火热的愚蠢之中,但是如何利用这些信息还是取决于你自己。
根据维基百科:
客观性是一个哲学概念,是指不受个人的观点,情感,以及想象引起的主观性的影响,而真正独立存在的一个性质。
令人苦笑不得的是,一层架构于完全主观选择之上的数学和数据(我们应该应用人工智能来做什么?值得做吗?在什么情况之下?应该如何定义其成功?需要达到什么程度才能有用?诸如此类)隐蔽了一直存在的人为因素,并且造成了一种客观性的假象。
声称”人工智能完全凭自身学得了这个任务……“比叙述其真相听起来更浮夸。
听着,我知道科幻小说很卖座。声称“人工智能全凭自身习得了这个任务……” 比讲述真相:“人们用了一个很酷炫的工具来帮助他们写代码。他们用一些他们觉得合适的例子来渲染,从中找到一些模式,并把这些模式变成指令。然后检查他们是否喜欢那些指令为他们所做的。” 更为浮夸。
真相充满了人类主观性 — — 看一下留给那些运营(机器学习/人工智能)项目的人的选择有多么少。包裹上数学这层华丽的外衣并不会减轻其扁塌塌的内核。
当数学的应用是为了达到某种目的,这个目的仍然是由我们所处时代的情感所塑造的。
让问题更糟的是,AI的全部意义是让你用例子(数据!)而并未用指令向计算机解释你的愿望哪些例子?那是你作为老师所要挑选的。数据集如同你的学生所需要学习的课本。课本是由人类作者所写的,数据集也一样。
课本反应了其作者的偏差。像课本一样,数据集也有作者。他们是由人类发出的指令所收集的。
想象试图教一个人类学生,用一本有偏见的作者写的课本 — — 如果学生最后表现出某些类似的扭曲的看法,听起来很令人惊讶吗?这又是谁的错呢?
人工智能最神奇的是它是铁面无私的。如果人工智能有自己的人格和想法,它可能会抵抗那些给他提供歪理邪道的人。截然不同的是,机器学习/人工智能的算法仅仅是用来延续那些你提供给他们的模式的工具。如果给他们看不好的模式,他们也会邯郸学步。以上最后两点中的偏差的定义并非来自于机器学习/人工智能的算法,而是始于人类。
偏差并非来自人工智能算法,而是始于人类。
算法从不会自私自利。实际上,他们根本不思考(他们只是工具)所以要依靠我们人类来为他们来做思考的工作。
当我首次讲“偏差不来自于AI算法,而是来自于人类”的时候,有人写信告诉我我是错的,因为偏差来自于数据。当然,我们都是正确的……因为人类制造了数据。
其他的一些设计上的选择比如上线标准,数据量,以及其他的也是完全取决于人类决策者,这也是为什么你要花时间明智地选择运营项目的领导者并且很好地训练他们。
把AI想成是一种写代码的工具是最安全的。
请不要成为科幻式炒作的受害者。你既然已经知道计算机代码是人类写的,他们必然会反映其创作者的隐性价值观。把AI想成一个极好的写代码的工具 — — 因为这就是它本身 — — 所以基本的要领也是合理的。别忘了要小心谨慎地设计和测试所有的技术,特别是可以扩大规模的技术。
没有做蠢货的借口
机器只是工具。他们是其创作者的延伸,根据以上最后一点里血淋淋的定义 (“当我们过去的经历扭曲了我们对信息的感知以及应对方式”),(创作者)是有偏差(偏见)的。
我们所有人的认知都建立在过去的经历之上,并且所有人都是个人史的创作。在这种意义上,每个人都是有偏见的。
哲学的论证泯灭了毫无偏见的,绝对客观的技术的存在。这不给任何人做蠢货的借口。如果有什么不同,正因为你无法向机器推诿你的伦理责任,你应承担担的更多,而不是更少。
当然,我们的认知是与时俱进的。今日社会对于道德,正义,善良,公平,以及荣誉的看法也与往昔不尽相同,并且不断地改变。这不会让这些看法变的无关紧要,这只说明我们不能把这些任务转交给一堆电缆。他们是所有人类共同承担的责任。我们应该尽最大的努力保持美德,并且给予人们最好的尊重和关心。
正因为你不能向机器推诿伦理责任这一事实,你应承担的更多,而不是更少。
人工智能的公平性
一旦认识到你有责任决定如何使用你的工具,以及应用在哪里,要尽力让自己意识到你的选择是如何影响其他人类的。比如,应该实行哪种应用是一个会影响他人的抉择。请深思熟虑。
你有责任决定如何使用你的工具,以及应用在哪里。
另外一个抉择是用哪些数据来构建人工智能。你应该预料到在与训练数据集相似的例子上,它的表现会更好。如果你选择不采用出自像我这样的人的数据,在我以用户的形式出现时,你的系统会更容易出错。当这种情况出现时,你有义务为造成这种痛苦而负责。没错,这需要努力和想象力(以及大量的分析)。
至少,我希望你有检查你的用户群分布是否符合你的数据分布的基本常识。例如,如果你的所有训练数据是来自于一个国家的居民,但是你的目标用户群是全球,情况可能会一团糟。你的系统在对待那个国家的居民时会比其他人显得更一丝不苟。这公平吗?
如果你渴望将公平性的分析提升到一个新的水平,有一些专业的工具可以帮到你。其中我最喜欢的一个是What-If Tool.
公平性和认知度
在构建人工智能的过程中,人们要为很多抉择负责。其中一半的解决方案是竭力设计出对每个人都友好,公平,合理的系统。另一半是消除你在这个过程中对于选择后果的无知性。请仔细斟酌。(并且运用分析来帮助你思考的更仔细)。
如果你想努力做到公平,尽力消除自身对于决策后果的无知。
尽管我在这絮叨了很多,也许我能做的只是告诉你大部分以偏差和公平性为课题的研究都是要确保你的系统没有一个对某些用户群不成比例 (disproportional)的影响。 主要的重点是检查数据的分布以及类似的分析。写这么多我只是希望你能做的尽善尽美。自动化的分布检查只能做到如此。没有人比其创作者更了解某个系统,所以如果当你要架构一个系统时,请花时间思考。
想象你的行为将会如何影响到人们并且尽力给那些被影响的人们发声的机会,让他们指引你走出盲区。
您可以在这里阅读其他有趣的中文文章:bit.ly/ai_chinese