做好准备吧。在《复仇者联盟:奥创纪元》将于 5 月上映的关键几周内,编辑和作家们将发布大量关于人工智能 (AI) 现实威胁的评论文章。无论这部即将上映的电影能否打破票房纪录,它都将以奥创的形式提供另一种人工智能叛乱的景象。这个由詹姆斯·斯派德配音的维和软件的诞生是为了保护人类免受各种威胁,但它却决定把孩子和洗澡水一起倒掉,屠杀我们所有人。这是好莱坞最近一次,但肯定不是最后一次将人工智能超级智能的概念变成动作片素材。而对于媒体来说,它提供了另一个机会,可以用轻松的报道和深深的皱眉来报道人工智能中最大的问题,而这个问题恰好根本不是问题。 更有可能的是,伤害我们的人工智能将会非常非常愚蠢。我并不是说人工智能完全无害。如果说有什么危害的话,那就是自主算法不可避免地会对人类造成伤害。但是,正如认识到报废卫星变成致命太空垃圾的固有危险与大肆宣扬未来充满轨道激光和精神控制卫星之间是有区别的一样,我们应该以至少是最低限度的理智来评估与人工智能相关的风险。那些准备毁掉生命的人工智能与奥创等超级反派毫无共同之处,也不会是任何人认为的超级智能。更有可能的是,伤害我们的人工智能将非常非常愚蠢。 种族主义数字 人工智能安全概念背后有着明显的发展势头。今年 1 月,非营利性机构未来生命研究所发布了一封关于人工智能安全的公开信,许多与人工智能没有专业关系的人都签署了该信。但这并不是一场纯粹的业余活动。签名者包括计算机科学家、机器人专家和法律专家。其中一位是华盛顿大学法学教授 Ryan Calo,他专攻机器人技术。对于 Calo 来说,与人工智能相关的短期风险与智能无关,而是与自主性有关。“我担心可能会出现一些意想不到的突发现象,”Calo 说。“例如,也许会有很多很多人被拒绝贷款或信用卡,这是因为算法发现他们正在浏览一个以非裔美国人为主的社交网络。参与此事的人并不是故意种族主义,但这将成为一个巨大的丑闻。” Calo 的假设令人不安,原因有很多,但都与生存的厄运无关。首先,有些人可能会因意外而失去权利。在人工智能的背景下,自主性的定义是无需人工干预即可采取行动的能力。程序员不必代表程序连接阴险的点。人工智能可能会根据看似纯粹的定性分析得出令人遗憾的结论。这些结论不一定准确。数据经纪人和广告商厚颜无耻地、无孔不入地跟踪我们的在线活动,收集从我们访问的网站到个人用户似乎属于哪个税级的所有信息。只需要止赎和房主种族之间的一个相关性,人工智能就完全有可能做出错误的联系。虽然这不是人工智能最引人注目的例子,但目前使用的更先进的行为跟踪软件属于该技术相对较大的范畴(搜索引擎也在其中)。种族主义算法甚至不算特别前沿。 Calo 想象中的人工智能实际上不会有种族歧视。一台无法发表意见的机器不会产生真正的偏见。缺乏社交和情感智力会带来巨大的问题。“法律必须管理风险。它必须让我们觉得它是来补偿受害者的,”Calo 说。“但它通常的做法是寻找过错。如果缺少这些,你可能会有很多受害者,却没有肇事者。我担心法律无法胜任。” “虽然没有犯罪者,但可能会有很多受害者。”无可指责的战争罪行 对于受命夺取生命的人工智能机器人来说,自主责任问题可能会产生更重大的影响。在科幻小说中,武装机器人很少在战场上犯下暴行。如果他们要杀死“错误”的人,他们会试图杀死地球上的所有人,通常是在中央超级智能的命令下。在技术上更可行的是使用人工智能来处理通信质量下降的远程操作武器平台。 军事人员总是指出,当无人系统攻击目标时,总是有“人参与其中”。但是,如果无人机或地面机器人正在与指定目标交火,而其通信链路断开,该怎么办?它是否应该停下来,或撤退,有可能暴露在敌人的火力下(或更糟的是,被捕获)?还是应该像今年 6 月 DARPA 机器人挑战赛中的许多机器人一样,在失去联系时做出反应,继续执行任务,直到通信恢复? 这是一种武装机器人可能犯下战争罪的情况。自主机器可能会突然瞄准已确认目标附近的平民,或射杀试图投降的战斗人员。其他情况则没那么复杂——机器人可能只是发生故障,向拥挤的市场开火,使用符合人工智能标准的先进火控软件准确杀死无辜的旁观者。 这里的风险不是故障会演变成起义。威胁在于人工智能可能会实施孤立的谋杀行为,而没有人会受到惩罚。“为了让上级军官对其下属的战争罪行负责,上级必须对其下属进行有效控制——这是法律术语——有效控制,”卡洛说。“所以问题是,作为军事指挥官,你是否对战场上的自主资产有有效的控制权?如果没有,这是否意味着你不能对它们负责?” 如果有什么比战争罪更糟糕,那就是无法起诉的罪行。除非机器人专家和立法者为边缘案件做好准备,并预见到极其不智能的自主性可能陷入的道德和法律无人区,否则暴行将无可指责地发生。 股票崩盘、肢体压伤以及其他日常灾难 当然,大多数人工智能故障不会导致死亡。自主选股软件无疑会再次失灵,就像 2010 年“闪电崩盘”期间一样,当时道琼斯指数在几分钟内莫名其妙地下跌了 1,000 点。其他人工智能系统会误解传感器数据,并导致机器人撞倒工厂中的人类同事或养老院中的老年居民。金钱将被浪费,骨头将被打断。与大屏幕上关于机器超级智能的耸人听闻、孤注一掷的幻想相比,这些都是相对无聊的结果。但如果研究人员和机器人专家真的想促进人工智能安全,那么无聊的事情才是需要关注的,因为它是不可避免的。 事实上,人工智能的一个潜在缺陷来自于人们自以为比实际更聪明。选股算法可以自由支配,按照自己的意愿行事,至少可以行使与看似过时的人类同行一样多的专业自主权。但机器人天生就更具欺骗性。“人类是病态的拟人化者,所以我们赋予事物主动性,而且是比它们实际拥有的更高程度的主动性,”英国布里斯托尔机器人公司的机器人专家、FLI 公开信的另一位签署人艾伦·温菲尔德说。“这对机器人来说尤其如此。这只是人类对动画事物的反应。我们倾向于看着移动的东西,并认为它有意图。我们认为它的耳朵之间一定有什么东西,即使它没有耳朵或耳朵之间没有任何东西。” 随着机器人越来越融入我们的生活,这种高估其智力和一般能力的倾向可能会导致身体伤害。卡内基梅隆大学国家机器人工程中心主任托尼·斯坦茨说:“我们正朝着人与机器人并肩工作的方向前进。”斯坦茨设想在工厂中,机器人系统可以利用其力量将部件抬到位,而人类则利用其灵巧性拧紧螺栓。这种团队合作很有前景,但前提是每个参与者都知道机器能力的极限,并且不会做出愚蠢的假设。斯坦茨说:“对机器人来说,拥有与没有技能的人相同的能力是一个挑战,这些人活着时就具有基本的感知能力和运动技能。”了解机器人能做什么和不能做什么可能意味着高效的工作日和复合骨折之间的区别。人工智能研究人员和机器人专家也有责任创建既安全又明确其目的和能力的系统。 了解机器人能做什么和不能做什么可能意味着高效的工作日和复合骨折之间的区别。高估人工智能可能会导致一些具体问题,比如医院账单,或者像卡洛所说的“外包决策”的明显趋势一样模糊。马里兰州已经在使用算法来确定哪些假释犯应该受到更大程度的监督。该软件的创建者认为它还可以提出量刑建议。效率是一个值得称赞的目标,但如此重要的决定应该由软件来处理吗? 再次强调,不受约束的自主性所带来的威胁不一定会走向滑坡,也不一定会引发科幻式的全球危机。一个家庭可能会因为可避免的工伤而遭受重创,或者因为人工智能在股市上愚蠢的行为而失去毕生的积蓄。无论大小灾难的受害者都可能发现自己无法获得经济或法律上的救济,因为责任最终落在了一台真正愚蠢的机器的脚下。当大多数研究人员和专家谈论人工智能安全时,他们指的就是这些问题。“这是关于意想不到的后果,”温菲尔德说。“这与防止超级人工智能统治世界无关。我们谈论的是人工智能中相当愚蠢、不智能的部分,它们可能会产生重大后果。” |
>>: SXSW 2015:AeroMobil 称将于 2017 年将其飞行汽车推向市场
如果您正在为家人寻找有趣的最后一分钟礼物,这款折扣很大的 AncestryDNA 试剂盒的价格从通常...
自世界地球日成立以来的 50 年里,我们为地球取得了一些重大成就,因此也为我们的健康带来了益处。其中...
灰色、蓝色、大、更大:须鲸让“巨型动物”变得庞大。在 4 月 4 日发表在《科学进展》杂志上的一项新...
无笼鸡蛋正在席卷美国。美国一些最大的餐厅和零售店(包括沃尔玛、麦当劳和丹尼餐厅)已承诺在未来十年内转...
我们认为,狗的品种对其性格影响很大。纵观历史,我们为不同的犬种赋予了特定的特征和刻板印象,例如德国牧...
基因检测曾经是即使对于技术最先进的实验室来说也是困难且昂贵的,但现在它正迅速成为一种廉价且简单的消费...
战姬绝唱 Symphogear AXZ 综合评测与推荐概述《战姬绝唱 Symphogear AXZ》...
一组国际研究人员开发出一种改进方法,可能有助于解决 3D 打印的聚合物问题。对于快速原型设计工作,设...
美国和英国的独立研究团队正在开发类似于法医实验室用于追踪臭虫祖先的基因技术。这项工作可能有助于绘制这...
在云端运行 Gmail 确实有一些好处:您可以通过任何连接互联网的设备上浏览器标签访问电子邮件,无需...
加州大学洛杉矶分校的研究人员宣布了一项重大发现,该发现可以挽救无数遭受创伤性脑损伤的足球运动员和其他...
《星》的魅力与评价:原创动画的深邃世界《星》是1928年1月1日发行的原创动画作品,以其独特的世界观...
蚂蚁的牙齿是一种强大的工具。尽管蚂蚁牙齿的宽度还不到人类头发的宽度,但它们却能完成一些令人难以置信的...
在某些大都市地区,道路可占据多达三分之一的土地面积。在 COVID-19 隔离期间,这些大片城市空无...
Android Kikaider 动画■ 公共媒体电视动画系列■ 原创媒体漫画■ 播出时间2000...