关于AI,您应该知道您可能从未想过的四个问题

 行业动态     |      2023-03-19 10:48

  Leifeng.com:在当今社会中讨论了人工智能,但是如果您考虑一下,您甚至可能不知道其基本的操作逻辑。

  人工智能和机器学习一件事吗?人工智能可以解决所有问题吗?如果没有,人工智能可以解决什么问题?如何区分这些问题?对于人工智能,真正困难的是什么?人工智能给社会带来什么挑战?

  几天前,著名的博客作者Yonatan Zunger是一位著名的媒介博客作者,发表了一篇有关人工智能的深刻文章。可以说,这是一门罕见,深刻且有趣的最佳流行科学。 lei feng.com将在不更改原始含义的情况下编译以下内容:

  在过去的几年中,我们一直在讨论人工智能(AI)将如何拯救或破坏世界:自动驾驶将有助于保护我们的生活;社交媒体泡沫将破坏民主;机器烤面包的机会使人类有能力烤面包以烤面包。丢失的。

  您可能非常清楚,其中一些是胡说八道,有些是真实的。但是,如果您不沉浸在这一领域,可能很难区分真相。尽管互联网上有很多启蒙教程,对于那些想学习人工智能编程的人来说,对于那些不想成为软件工程师或数据专家的人来说,他们缺乏对人工智能概念的理解。社会和道德上的挑战。

  如果整个社会真正想讨论人工智能,我们需要解决这个问题。因此,今天我们必须谈论人工智能的现实:它可以做什么,是不可能的,将来可以做什么,以及它带来的一些社会,文化和道德挑战。我不会承受所有可能的挑战;其中一些,例如泡沫和虚假信息,需要大量文章来解释。但是,我将为您提供足够的例子来解释我们面临的真正问题,您可以独立地问自己的问题。

  让我首先给您一个破坏者:大多数最困难的挑战不是来自技术。人工智能的最大挑战经常开始。它迫使我们在编程时非常清楚地表达我们的目标,而且几乎没有其他事情 - 有时我们不想告诉自己真相。

  1人工智能和机器学习

  在撰写本文时,我将或多或少地使用“人工智能”(AI)和“机器学习”(ML)一词。这两个术语几乎意味着几乎相同,原因是愚蠢的:由于历史,“人工智能”几乎被定义为“尚无法完成的事情”。多年来,人们认为国际象棋需要真正的人工智能,模拟对话需要真实的人工智能,或确定图像需要真正的人工智能。每次实现这些事情,人工智能的边界都会移动。 “人工智能”一词太可怕了。它与我们以及使人类太近的事物定义了自己的方式。因此,在某个时候,专业人士将使用“机器学习”一词来执行整个对话,然后被卡住。但是它从来没有真正陷入过(这个地方不知道如何将其翻转,否则将被删除。)如果我只是谈论“机器学习”,听起来特别机械 - 即使是专业人士,也总是谈论人工智能。

  因此,让我们首先谈论什么是机器学习或人工智能。从最严格的意义上讲,机器学习是“预测统计数据”领域的一部分,也就是说,建立一个可以获取过去发生的信息的系统,并使用它们来构建有关其相关环境的某个模型为此,它将其用于它。鉴定在其他情况下可能发生的事情。简而言之,这很简单,就像“当我向左转动车轮时,汽车也向左转”。在困难方面,它与试图了解一个人的一生和品味一样复杂。

  您可以使用此图片了解每个AI的功能:

  有一个传感器系统(传感器)可以感知世界 - 这些系统可以是从相机和激光雷达到文档的网络轨道。还有一些其他适合这种环境的系统,例如驾驶或根据类别显示广告。有时,这个系统是一台机器,有时是一个人,他必须基于一些复杂或太大的事情做出决定,而您不能一次想到太多 - 就像整个互联网的内容一样。

  要连接两者,您需要一个盒子来提取对世界的感知,并提出一些建议,告诉您如果您采取各种行动,可能会发生什么。中间的盒子称为“模型”,就像“这个世界的模型”。该框是人工智能的一部分。

  上图中还有一些其他单词。如果您听专业人士的意见,则在讨论AI时可能会听到他们的声音。 “功能”只是原始认知的一些升华,包括有用的模型设计师。在某些AI系统中,特征只是原始认知 - 例如,每个像素的颜色。如此大量的功能对AI有益,因为它对重要的内容没有任何重要意见,但是它使构建AI本身更加困难。仅在过去的十年中,它已经建立了一台足够大的计算机来建立足够大的计算机。为了解决这个问题,这是可能的。

  “预测”是另一端的结果:当您向模型显示某些功能时,通常会给您一些可能的结果,以及对每个结果的可能性的最佳理解。如果您想制定人工智能做出决定,请应用一些规则 - 例如,“选择最可能的成功人士”,或“选择最不可能的人来导致灾难性失败”。对于系统而言,权衡可能的成本和回报量也同样重要的是模型本身。

  现在,您可以想象一个非常简单的“模型”,它提供了特定的使用规则:例如,旧蒸汽机上的机械调节阀是一个简单的“模型”。它读取一端的压力。如果该压力超过设定点的推杆将打开阀。这是一个简单的规则:如果压力高于设定值,请打开阀门;否则,关闭阀门。

  该阀非常简单,因为它只需要参考一个输入并做出决定。如果它必须依靠数千甚至数百万的输入信息来确定一些更复杂的事情 - 例如如何控制汽车(取决于您的所有愿景,听力等),或者哪个网页可以为您提供最好的方式回答树袋和熊育种的问题(这取决于您是临时还是专业的脊椎动物有争议,并且该网站是由有激情的恋人建立的,或者只是想将其卖给您廉价的Tree Karma Active) - 您 - 您 - 会发现这不是简单的,您需要决定数百万甚至数千万的信息。

  关于AI模型的特殊之处在于我们是为此设计的。在任何人工智能模型中都有一系列规则,可以全面所有特征。每个功能都取决于数十万甚至数百万个单独的按钮,以说明如何在不同情况下权衡每个特征的重要性。例如,在称为“决策树”的人工智能模型中,该模型看起来像是关于是/否问题的巨型树。如果人工智能的工作与鲑鱼的金枪鱼分开,第一个问题可能是“图像的左半部分比右半部分更黑”,最后一个问题可能是“对前374个问题的答案,答案,这是橙色还是红色正方形的平均颜色?”“按钮”是提出问题的顺序,而“是”和“是”和“是否”之间的边界是什么。

  魔术是:无法找到正确的问题的正确组合,可以可靠地区分鲑鱼和金枪鱼。太多了。因此,一开始,AI以“训练模式”运行。 AI接一个地显示。每次调整旋钮以更好地猜测接下来会发生什么,每次错误后自我纠正。它看到的示例越多,示例越多,就越强大,从事故中找到了关键能力。训练后,旋钮的值将固定,并且模型可以连接到真实的执行器。

  与人类执行相同任务相比,ML模型的优势不是速度。 ML模型通常需要几毫秒才能做出决定,人们需要这么多时间。 (开车时一直是这种情况)。他们真正的优势是他们不会感到无聊或分心:ML模型可以在不同的数据作品中做出数百万或数十亿美元的决定。坏的。这意味着您可以将它们应用于人类不擅长的问题,例如对数十亿个网页或驾驶汽车进行一次搜索。

  人类驾驶汽车非常糟糕。 2015年,仅35,000人死于车祸。这些事故中的大多数是由分心或驾驶员错误引起的 - 人们通常会做得很好,但是它们在一定时间犯了错误。驾驶需要巨大的集中力和快速响应能力。您可能会认为可以做到这一点,但是很难维持几个小时的能力。事实证明,我们实际上不能做到这一点。 )

  当有人谈论在项目中使用AI时,他们的意思是将项目分解为上面绘制的图片,然后构建正确的模型。这个过程首先收集培训示例,这通常是最艰巨的任务。然后选择模型的基本形状(即“神经网络”,“决策树”等);然后,最重要的是弄清楚什么是不好的并调整它。

  例如,查看以下六张图片,找出前三个和最后三个图片之间的关键区别:

  如果您猜到“前三个有地毯”,那么您可以猜!当然,如果您猜测一只灰猫的前三张照片,后三张是白猫的照片,那么您也是对的。

  但是,如果您使用这些图像来训练灰猫探测器,那么当模型试图为训练图片评分时,您可能会获得出色的表现,但是在实际的工作中,实际学习是“灰猫与地毯上的猫相似。”

  当您的模型学习培训数据的特征时,但这并不是您真正关心的东西,这称为“过度拟合”。那些建立ML系统的人大部分时间都担心这个问题。

  2什么是人工智能擅长而不擅长任何东西

  现在,我们已经讨论了AI(或ML)是什么,然后让我们讨论它是有用还是无用。

  如果您想实现实现这些目标的目标和手段,则此问题不需要人工智能。例如,如果您的目标是“将车轮上的所有螺母拧紧到100英尺”,则您只需要拧紧并测量扭矩并在扭矩达到100时停止拧紧。这称为“扭矩扳手”。如果有人为您提供人工智能扭矩扳手,则必须问他们为什么需要这个。这些降低了AI的阈值,您需要的只是一种简单的机制。

  人工智能可以帮助解决的问题是,目标是明确的,但是实现目标的手段尚不清楚。在以下情况下最容易解决的方法:

  可能的外部刺激的数量有限,因此模型可以理解它们

  您必须控制的数量有限,因此您无需考虑太多选择范围

  刺激的数量或要做出的决定非常大,您不能直接编写规则并区分规则

  很容易将动作连接到可观察的结果,因此您可以轻松弄清楚什么有效和无效。

  这些事情实际上比看更加困难。例如,在您旁边拿起一个物体 - 例如,我去买一个空的苏打水箱。现在再做一次,看看您的手臂是如何工作的。

  我的手臂迅速沿着肘部旋转,从键盘水平移动到离罐子几英寸的垂直位置,然后迅速停止。然后它向前移动,与此同时,手掌的打开比罐子大一点,这比第一个动作慢得多,但是实际上它非常快,直到我看到我的拇指横过手指的其他手指,尽管事实,尽管事实我的其他手指被罐子覆盖了。然后我的手指关闭,直到我遇到阻力时立即停止。然后手臂开始抬起,这次他从肩膀上紧紧地保持紧密(保持肘部固定)并无限期地拧紧,直到手牢固地握住罐子而没有折叠罐子。

  实际上,尽管看起来很普通,但我们走了而没有朝着一件非常神奇的事物跌倒。当您下次穿过房间时,请注意确切的路径,每次弯曲或移动身体,或将脚放在前面的任何地方。在机器人技术中,“锻炼计划”的问题非常困难。

  这是非常困难的任务之一。我们的大脑付出了两倍的重点,是其他事情的两倍。这使我们比实际要容易得多。其他属于这种面部识别的任务(您可能不知道我们大脑的大脑视觉功能不用于一般视觉,而是专门用于识别面孔),理解单词,识别3D对象,也不不会遇到障碍。我们认为这些并不困难,因为它们对我们非常直观,但是它们之所以如此简单,是因为我们有特殊的器官组织,并且负责并擅长做这些。

  对于这一系列狭窄的任务,计算机做得不好。这不是因为它们比其他类似的任务差,而是因为人类擅长于此。高的。如果我们的大脑中没有很大的作品可以专注于知道面孔,那么我们会看到人们喜欢看 - 现在,计算机正是这种情况。

  相反,人际关系的方式使计算机变得足够聪明。例如,人脑的有线联系认为,或多或少的活跃事物实际上是生命。这意味着与人类的令人信服的对话无需理解整体语言。只要您或多或少地保持主题,人类就会自动纠正任何不清楚的事物。成功的关键。最著名的例子是伊丽莎(Eliza),1964年模仿了罗杰(Rogea)心理治疗师的“人工智能”。它将了解您的句子,让您更多地讲述各种事情。如果您感到困惑,我将回到安全问题,例如“告诉我您的母亲”。尽管这只是个玩笑,但人们说谈话后他们确实感觉好多了。

  要了解上述问题 - 当您很难连接直接的动作和后果时,您可以考虑学习玩视频游戏。行动的后果非常明显:当您应该转身时,您必须转弯。如果您撞墙,游戏将结束。但是,当您在游戏中表现更好时,您会开始意识到“不好,我错过了进步,我将在五分钟内完成”,并且很长一段时间后我可以预见后果。您必须花费大量时间来了解游戏机制,然后了解连接。 AI也有同样的问题。

  我们讨论了目标和手段的情况,以及目标清晰的情况,但手段尚不清楚。还有第三类。 AI完全无济于事:也就是说,即使目标本身也不是很好的理解。毕竟,如果您不能给AI一堆好坏解决方案,它可以从中学到什么?

  我们以后将讨论这些问题,因为属于此类别的问题通常是最棘手的道德问题。实际上,很多时候情况是,我们要么不知道“成功”的真正含义(您如何知道您在这种情况下是否成功?),或者更糟糕的是,我们知道本质的第一个计算机编程规则是他们不擅长欺骗自己:如果您想让他们做某事,则必须解释您想要的东西。

  在我们开始谈论道德之前,还有另一种分析AI质量的方法。

  最简单的是,在可预测的环境中有明确的目标。例如,摄像机监视装配线。它知道汽车很快就会出现,目标是识别车轮。

  相对困难的情况是在不可预测的环境中实现明确的目标。自动驾驶汽车是一个很好的例子:可以直接描述目标(从A点到B点和合理的速度),但环境可能包含许多事故。在过去的几年中,人工智能刚刚发展到可能影响这些问题的地步,因此我们研究自动驾驶或自动驾驶飞机。

  另一个问题是在可预测的环境中实现间接目标。在这种情况下,环境是可以预测的,但是行为和目标之间的关系非常远,就像玩游戏一样。这是我们在不久的将来取得巨大进展的另一个领域。人工智能可以完成以前难以想象的事情,例如Alpha参加GO游戏。

  赢得棋盘游戏本身并不是很有用,但是它已经开辟了在不可预测的环境中实现目标的道路,例如计划您的财务组合。这是一个困难的问题。我们没有取得重大进展,但我希望我们能在未来十年内做得很好。

  最后,情况最困难:目标尚不清楚。 AI根本无法解决这些问题;如果您不能告诉它您想做什么,就无法训练系统。写小说可能就是一个例子,因为没有明确的答案可以使一本书成为“好小说”。另一方面,可以定义一些具体的目标 - 例如:“写小说,如果您像恐怖电影一样出售它,您可以出售它。这对AI应用程序是好还是不好? 。

  3道德与现实世界

  现在,我们可以开始看到问题的真正含义:这些AI成功或失败的问题是什么?您经常有什么样的问题?

  我可以轻松地给出大量答案,但是我们没有涵盖该领域的所有有趣问题,甚至无法涵盖大多数问题。但是我给你六个例子。这些例子帮助我思考了很多。他们的主要帮助没有给我正确的答案,但他们帮助我提出了正确的问题。

  (1)。乘客和行人

  一辆自动驾驶的汽车正在穿过一座狭窄的桥,这是一个突然在它前面的孩子。停止为时已晚。这辆车可以做的是向前移动,撞到孩子,或者转身,然后将自己和乘客送往下面的跑步河。它应该做什么?

  在过去的几年中,此问题已公开讨论。讨论非常明智,并展示了我们真正需要提出的问题。

  首先,整个问题中存在一个很大的漏洞:实践中这个问题的可能性很小,因为自动驾驶汽车的重点是,他们一开始就不会参与这种情况。孩子们很少突然出现。在大多数情况下,发生这种情况时,要么是因为驾驶员的反应还不够快,无法与跳出障碍的孩子打交道。孩子为时已晚。这些是自动驾驶中不存在的问题:一次检查所有信号,几个小时内就不会感到无聊或分心。这种情况将变得非常罕见,这是挽救生命的生命之源。

  但是“几乎从不”与“绝对不是”不同,我们必须承认这有时会发生。汽车发生时该怎么办?您应该优先考虑乘客或行人的生活吗?

  这不是技术问题:这是一个政策问题。这与我们今天生活的世界大不相同。如果您问人们在这种情况下会做什么,他们将给出各种答案,并使用各种“根据当时的情况”来限制这个答案。事实是我们不想做出这个决定。当然,我们不想公开承认我们的决定是保护我们的孩子。当人们真正在这种情况下,他们的响应将出现在地图上。

  从文化上讲,我们有一个答案:目前,当您看到灾难和看到的事件时,我们意识到我们无法做出理性的决定。我们最终将使驾驶员对他们的决定负责,并认为这是不可避免的,无论他们做什么。 (尽管我们可能会让他们对先前的决定负责,例如超速驾驶或醉酒)。

  有了自我驾驶,我们没有这种选择。编程实际上有一个空间。现在,它要求我们在事故发生前回答:“当发生这种情况时,我该怎么办?我该怎么办?降低乘客的风险,以免对行人造成危险?”

  它将根据我们告诉的内容说明。计算机编程的任务要求我们对自己想要的决定保持残酷诚实。当这些决定影响整个社会时,例如在这种情况下,这意味着作为一个社会,我们将面临同样的困难选择。

  (2)礼貌

  机器学习模型有一个非常烦人的习惯:他们将学习数据以向他们展示一些东西,然后告诉您他们学到了什么。他们顽固地拒绝学习“我们想要的世界”或“我们喜欢宣布的世界”,除非我们向他们解释这是什么 - 即使我们想假装自己不这样做。

  在2016年中期,高中生卡比尔·阿里(Kabir Alli)试图在Google上寻找“三个白人青少年”和“三个黑人青少年”,结果比您想象的还要糟糕。

  “三个白人青少年”显示出迷人的运动少年。 “三个黑人青年”在新闻报道中显示了三名黑人青少年逮捕的新闻报道。 (现在,大多数搜索结果是有关此事件的新闻报道)

  这不是因为Google算法中的偏见:而是基础数据的偏见。这种特殊的偏见是“无形的美白”和媒体报道的偏见的结合:如果三个白人青少年因犯罪而被捕,不仅新闻媒体不太可能显示他们的照片,而且不太可能是“白人青少年, ”。实际上,几乎所有年轻的群体都被明确标记为“白色”,从摄影产品目录可以看出。但是,如果三个黑人青少年被捕,您可以找到上述新闻报告中出现的单词。

  许多人对这些结果感到震惊,因为他们似乎与我们的“忽略种族”社会的民族概念不一致。 (请记住,这是在2016年中期),但是基本数据非常清楚:当人们在媒体上说“三个黑人青少年”的图像高质量时,他们几乎总是将它们用作犯罪分子在谈论时谈论”三个白人少年”几乎都是广告摄影。

  实际上,这些偏见确实存在于我们的社会中,它们几乎反映在您看到的任何数据中。在美国,如果您的数据没有显示某个种族,那么您可能会做错事。如果您通过不允许比赛成为模型的输入功能而“忽略比赛”,则它将通过后门进入:例如,一个人的邮政编码和收入可以准确地预测他们的比赛。不认为它是种族因素的ML模型,预测与我们社会中与种族有关的事实所需的ML模型很快将被视为“最佳规则”。

  人工智能模型在我们面前举起镜子,他们不明白我们不想诚实。如果我们告诉他们如何提前撒谎,他们只能礼貌地制作。

  这种诚实将迫使您非常清楚。最近的一个例子是关于“删除文本”的技术论文。这是一个非常流行的ML模型,称为Word2Vec。它已经学到了英语单词的含义之间的各种关系 - 例如,“国王对男人,女王对女人”。作者发现该模型包含许多社会偏见的例子:例如,“计算机程序员就像女性的家庭主妇”。作者提出了一项在本文中消除性别偏见的技术。

  本文中,许多偶然的读者(包括许多写关于它的人的人)看不到没有办法自动化偏见。模型的整个程序非常合理:首先,他们分析了单词的两个单词向量模型,并找到与他/她的轴相反的单词组(性别轴)。接下来,对于他们而言,区分确定了哪些对应关系(例如,“男孩适合男人/女人对女人”),哪些对应关系代表社会偏见(例如男性/家庭对男人/家庭/最终,他们使用数学技术从整个模型中删除了偏见的单词群体,从而提供了改进的模型。

  这项工作非常好,但是重要的是要意识到确定哪些男人/女性化的关键步骤是人类的决定,而不是自动过程。它要求人们将他们认为是合理和不合理的相应关系字面化。此外,原始模型源自这些差异化。它来自对世界各地数百万文本的分析。原始单词矢量的相应关系准确地捕捉到了人们的偏见;清洁模型准确地反映了评估者认为应该删除的偏好。

  其中显示的危险是“自然主义的谬误”。当我们混淆“应该是什么”和“实际是什么”时,这种谬论就会发生。如果我们想使用模型来研究人们的观点和行为,那么原始模型是合适的。如果我们想使用该模型生成新的行为并将某些意图传达给他人,则修改模型是合适的。说修改的模型更准确地反映世界是错误的,这是不对的。因为这个世界在某种程度上应该是这样,那是不对的。毕竟,任何模型的人工智能或智力的目的都是做出决策的目的。决策和行动正是我们希望这个世界的样子。如果没有,我们根本不会做任何事情。

  (3)。大猩猩事件

  2015年7月,当我是一个负责Google社交工作的技术人员(包括照片)时,我收到了Google同事的紧急消息:我们的照片索引系统公开描述了一张黑人和他的朋友的照片,“大猩猩, “他有理由生气。 “

  保证后,我立即回应了该团队,并公开回应了这很糟糕。该团队采取行动禁止非法代表和其他几种潜在风险,直到他们解决潜在的问题为止。

  许多人怀疑这个问题与六年前HP的面部摄像头无法在黑色上工作的问题相同:“ Face”的训练数据完全由白人组成。我们开始如此怀疑,但是我们很快排除了这个原因:培训数据包括各种种族和肤色的人。

  真正的原因是三个微妙的问题的交集。

  第一个问题是面部识别很困难。对我们来说,不同的人的面孔看起来截然不同,因为我们大脑的很大一部分只专注于识别面部。我们已经花费了数百万年来改进此功能。但是,如果您注意比较两个不同面部的差异,请比较这种差异与两个不同的椅子之间的差异,您会发现面部的相似性要比您想的要大得多 - 。

  实际上,我们发现此错误不是孤立的:这个照片索引系统也很容易将白人的脸误认为是狗和密封。

  第二个问题是问题的真正核心:ML系统在自己的领域非常聪明,但是除非它教授它,否则它对更广阔的世界一无所知。当它试图考虑所有图片都可以识别的对象时,AI不仅标识了人类的面孔 - 没有人认为很长一段时间以来与猿人进行比较长时间歧视。这个背景使此错误非常严重,这只是一件有趣的事情,将孩子误认为是印章。

  这个问题没有一个简单的答案。在处理人类问题时,错误的成本通常与非常微妙的文化问题有关。这并不是说很难解释,但是很难事先考虑它们。

  这个问题不仅反映在人工智能中,而且还反映了人们在不同文化中做出价值判断的人。当骚扰和滥用互联网上的行为时,一个特别的挑战。这些问题几乎完全由人类解决,而不是由人工智能处理,因为即使人类用来判断​​这些事情的规则也非常困难。我花了一年半的时间为Google制定了这样的规则,认为这是我面临的最大知识挑战之一。

  即使团队提出规则,人类而不是AI执行他们,文化障碍也是一个巨大的问题。印度批评家不一定具有有关美国种族歧视的文化背景,美国的人们不一定具有印度文化背景。但是世界各地的文化数量很大:您如何以任何人都能理解的方式表达这些想法?

  从中学到的教训是,系统中最危险的风险通常不是来自内部问题,而是系统与更广泛的外部世界互动的意外方式。我们没有理想的管理方法。

  (4)不幸的是,人工智能会像您说的那样做到这一点

  人工智能的一个重要目的是帮助人们做出更好的决策:不要直接执行一项操作,而是告诉人们推荐哪个操作,以帮助他们做出一个很好的选择。尤其是当这些选择高风险时,这是最有价值的。但是,真正影响这一长期结果的因素对人们来说并不明显。实际上,如果没有明确且有用的信息,人类可能很容易采用无意识的偏见而不是真实的数据。这就是为什么许多法院开始使用自动化的“风险评估”作为量刑指导的一部分的原因。

  现代风险评估是ML模型,负责预测未来犯罪的可能性。如果您将整个地区法院历史的整个语料库训练该模型,则可以形成令人惊讶和清晰的展示,告诉您谁可能是危险的。本质

  如果您到目前为止一直在仔细阅读,则可能会找到一些实现此目标的方法。这些方法可能很糟糕且非常错误。正如2016年ProPublica透露的那样,这正是全国发生的事情。

  佛罗里达州Blaloral使用的系统Compas系统的设计师遵循最佳实践原则。他们确保他们的培训数据没有人喜欢一个小组,例如确保所有种族都具有相同的培训数据。他们将种族排除在模型的输入功能之外。只有一个问题:他们的模型无法预测他们对预测的看法。

  量刑风险评估模型应该提出的问题是:“这个人将来犯了严重犯罪的可能性是什么?生命的影响会导致他们永远被监禁?发行后的工作顺利?

  但是,每次犯罪时,我们都不会出现魔术的光线,当然,我们没有例子:一个人同时接受了两种不同的惩罚结果,以产生两种不同的后果。因此,通过模拟真实和困难的数据对Compas模型进行培训:根据我们认识的人的信息,该人被定罪的可能性是多少?还是使用两个人进行比较:“将来有两个人最有可能被定罪?”

  如果您对美国政治有所了解,您可以立即回答这个问题:“黑色!”黑人在路上比白人更容易被拦截,被捕,定罪并判处比白人更长的刑期。因此,在忽略其他绝对事实的情况下,是回顾历史数据的ML模型。如果黑人被告将来更有可能被定罪,那么这绝对是与历史结合的预测预测。

  但是,训练该模型的方法与实际使用不一致。经过培训,可以回答“谁更有可能被定罪”,并问“谁更有可能犯罪”。没有人注意到这两个完全不同的问题。

  这里显然有很多问题。一个是法院对AI模型过多对待。这是衡量判断力的直接因素,而跳过的判断比任何模型都可以提供的保证更自信。当然,另一个问题是暴露的基本和系统的种族主义:在同一犯罪下,黑人更有可能被捕和定罪。

  但是,这里有一个特定的问题:您要测量的数量与可以测量的数字之间通常存在差异。当两者之间存在差异时,您的ML模型可以很好地预测您测量的数量,而不是其实际代表的数量。在相信自己的模型之前,您需要非常仔细地了解这些相似之处和差异。

  (5)。人们是理性的动物

  关于机器学习的讨论中有一个新的热门话题:“解释权”。这意味着,如果使用ML做出任何重要决定,人们就有权理解这些决定是如何做出的。

  在直观的情况下,这似乎是显而易见的,有价值的想法 - 但是,当ML专业人士提到这一点时,他们的面孔立即改变了,他们想解释说这一要求实际上是不可能的。

  为什么是这样?

  首先,我们应该理解为什么很难做到这一点。其次,更重要的是,我们应该理解为什么我们期望它轻松地做到这一点,为什么这种期望是错误的。第三,我们可以看到我们可以为此做什么。

  早些时候,我将ML模型描述为数亿至数百万旋钮。这个隐喻对实际模型的复杂性不公平。例如,现代基于ML的语言翻译系统一次只能输入一个字母。这意味着,在阅读了大量字母后,表达了对文本的理解状态,以及每个连续的下一个字母如何影响其对其含义的解释。

  对于模型遇到的任何情况,唯一的“解释”是:“好吧,后面的数千个变量处于这种状态,然后我看到字母“ C”,应该更改用户来交谈关于狗。概率...

  您不仅可以理解这一点,而且ML研究人员也很难理解。 ML系统的调试是该领域最困难的问题之一,因为在任何时候检查变量的个体状态,然后向您解释该模型,就像测量一个人的神经潜力,然后告诉您他们有晚餐时间。

  但是,这是第二部分 - 我们始终觉得我们可以解释自己的决定,这是人们期望的解释。 “考虑到其FICO分数的中位数,我将这笔抵押贷款的利率设置为7.25%。”他们期望它会说:“如果FiCO的FICO得分高35分,那么得分将降至7.15%”,“我建议我们雇用此人,因为他们在我们的采访中清楚地解释了机器学习。”

  但是,每个具有认知或行为心理学的人都知道一个黑暗的秘密:所有这些解释都是胡说八道。我们会喜欢一个人吗?我们已经在聊天的前几秒钟开始决定,我们可能会受到一些看似休闲的东西的影响,例如在握手之前拿着热饮或冷饮。无意识的偏见在我们的思想中被渗透,即使我们没有意识到,也可以衡量它。认知偏差是当今心理学研究中最大的分支之一。

  事实证明,人们没有解释他们如何做出决定,而是要为自己的决定找到合理的解释。有时,这完全是无意识的。例如,我们将在决策过程中强调一些事实(“我喜欢这辆车的颜色”),并专注于这一点,并忽略它。更重要但看不见的因素(“我的继父有一个可转换,我讨厌我的继父”)。 (“第一位候选人听起来像我毕业时。女人非常好,但她看上去太与众不同了。她不适合与我合作。”)

  如果我们期望ML系统为他们的决定提供实际解释,那么我们将遇到很多麻烦,就像我们要求人们解释自己决定的实际基础一样:ML系统不会比人类更容易解释。

  当我们要求解释时,我们通常对这些明显的事实感兴趣(因为变化会改变结果)和变量(因为对它们的更改值得讨论)。例如,“您现在看到的是招聘通知;但是,如果您住在西方的十英里处,您会看到另一个”,这在某些情况下可能很有趣,但是“如果您是一个alas ,您会看到的是Mulaga的种子,这并不有趣。

  生成这种解释的数学技术正在积极发展,但是存在一些不容忽视的挑战。例如,这些技术中的大多数基于建立另一个“解释性” ML模型。该模型不准确。它仅适用于给定一些输入信息,然后变量很小。主要ML模型基于完全不同的原理。 (这是因为只能完全理解一些ML模型,例如决策树,并且在许多实际应用中最有用的模型,例如神经网络,根本无法理解。)这意味着两个解释模型输入“不,更改,这个变量!”这种反馈可能从根本上将其转变为主要模型的输入。此外,如果您给人们一个解释工具模型,他们还需要以相同的语言更改其权利 - 要求是合理但不可行的。

  人脑具有处理各种概念的极为普遍智力,因此可以解决这个问题。您可以说,在涉及种族历史时,应该谨慎对待图像识别,因为相同的系统(大脑)可以理解这两个概念。但是AI远非如此。

  (6)AI,在最终分析中,最终是工具

  人工智能无人机杀手 - 没有提出每个人都喜欢的例子,您无法探索AI道德。这些飞机在高空飞行,仅受到计算机的控制,以维持杀死敌方武装分子的使命,同时保持平民生活……除非他们认为任务需要一些“依恋损害”,就像官方的委婉语一样。

  人们害怕这样的设备。如果他们听听生活在永恒死亡之下的人的故事,他们将更加害怕 - 从晴朗的天空中出生的杀手。

  人工智能是本讨论的一部分,但并不像我们想象的那么重要。大型无人机和人们的驾驶飞机之间的区别在于,他们的飞行员可以远离数千英里,并远离损坏。自动驾驶员AI的改进意味着无人驾驶运营商可以迅速运行多个飞机。最后,大型无人机可以在99%的时间内自行开车,只有在需要做出重大决定时,他们才能打电话给人们。这将打开降低无人机权力成本的可能性 - 使从天堂轰炸人们的力量不同。

  在这个故事的另一个版本中,人类可能已被完全排除在确定是否发射武器的决定之外。现在我们可以问,谁将承担杀死由机器人完全决定的人的道德责任?

  这个问题比我们的想法更简单,更复杂。如果有人用石头击中了另一个人的头,我们将责怪这个人,而不是一块石头。如果他们扔长矛,即使长矛在一定时期的飞行时期“自身”,我们也永远不会责怪长矛。即使他们建立了一个复杂的死亡陷阱,印第安纳·琼斯(Indiana Jones)风格也将是人类。问题在于“工具”本身的范围变得模糊。

  简单的事情是,这个问题不是全新的。军事纪律的重点是建立战斗力,在战斗中不要太多。在陆军是欧洲体系后代的国家,中士和非委任官员的作用是实施该计划;委托人员的责任是确定要实施哪些计划。因此,从理论上讲,制定责任完全属于官员的肩膀。根据人事责任的杰出领域的定义,杰出人物的责任领域决定了谁最终对任何指示负责。

  实际上,这通常很模糊。这些原则是我们已经学到了数千年,而AI实际上并未添加新内容。实际上,即使具有出色的决定 - 制定能力和自主权,AI仍然需要这种讨论 - 在人类世界中,我们有足够的自主权来讨论这些问题,但这无非是最近几十年。

  也许这是人工智能伦理学的最后一个重要经历:我们过去面临的许多问题实际上是我们过去遇到的问题,现在通过一些技术变化来揭示它。在我们现有的世界中发现类似的问题通常很有价值,可以帮助我们了解如何处理看似新的问题。

  4我们要去哪里?

  我们应该讨论很多问题 - 对这个社会来说,其中许多问题非常紧迫。但是我希望以上示例和解释为您提供了一些环境,让您了解何时正确以及何时错误。以及许多AI道德风险来自哪里。

  其中大多数不是新问题。相反,这是解释我们对计算机的需求的官方过程,这是没有文化背景的最终案例,也没有推断我们的意义的能力 - 强制我们以违反日常习惯的方式表达。不管我们是否需要在批判惯例到来之前的几年内决定生死攸关的决定,而不是延迟事件时刻的当前高潮,还是很长时间以来的社会状况的实际情况,并以清晰的态度明确表达我们的思想。要保留哪些部分以及我们要更改哪些部分; AI将我们推开了“礼貌的捏造”的舒适区,进入一个我们必须非常清楚地讨论事物的世界。

  这些问题中的每一个都存在于AI之前。 AI只是让我们以一种新的方式谈论它们。这可能并不容易,但是对我们来说,诚实可能是新技术可以带我们的最宝贵的礼物。

  leifeng.com通过媒体编译

  报告/反馈