当前位置首页 > 高中物理 > 综合与其它

霍金:对人工智能发展的担忧是毁灭人类的家园

更新时间:2024-01-22 文章作者:佚名 信息来源:网络整理 阅读次数:

一年一度的GMIC会议昨日在上海国家大会中心召开。在下午的领袖论坛上,世界知名化学学家斯蒂芬·威廉·霍金做了讲演并回答了一些关于人工智能的问题。p16物理好资源网(原物理ok网)

尽管霍金的讲演的题目为《让人工智能惠及人类及其赖以生存的佳苑》,并且霍金一再表示了其对人工智能发展的忧虑。p16物理好资源网(原物理ok网)

霍金称,我目前见证的最深刻的社会变化是人工智能的崛起。霍金觉得,人工智能的崛起要么成为人类历史上最好的事,要么成为最糟糕的事情。所以,霍金倡议人类研究人工智能一定要规避风险,并警告人类意志转变的人工智能可能会毁灭人类。p16物理好资源网(原物理ok网)

为了支持这一论据,霍金解释到,文明所形成的一切都是人类智能的产物,从国际围棋和象棋人机大战的结果来看,霍金觉得生物脑部可以达到的和计算机可以达到的,没有本质区别。因而,它遵守了“计算机在理论上可以模仿人类智能,之后赶超”这一原则。人工智能一旦脱离禁锢,以不断加速的状态重新设计自身。人类因为遭到漫长的生物进化的限制,难以与之竞争,将被替代。p16物理好资源网(原物理ok网)

霍金倡议,研究人员必须才能创造出可控的人工智能。在具体的问题上,霍金称自己短期的担心在无人驾驶方面,从民用无人机到自主驾驶车辆。譬如说,在紧急情况下,一辆无人驾驶车辆不得不在小风险的大事故和大几率的小事故之间进行选择。另一个担心在致命性智能自主装备。她们是否该被严禁?若果是,这么“自主”该怎么精确定义。倘若不是,任何使用不当和故障的过错应当怎样问责。还有另外一些疑虑,由人工智能渐渐可以剖析大量监控数据导致的隐私和忧虑著名物理学家霍金认为无人驾驶,以及怎样管理因人工智能代替工作岗位带来的经济影响。而常年担心主要是人工智能系统失控的潜在风险,随着不遵守人类意愿行事的超级智能的崛起,那种强悍的系统恐吓到人类。p16物理好资源网(原物理ok网)

“人工智能的成功有可能是人类文明史上最大的风波,然而人工智能也有可能是人类文明史的终结。”霍金总结道。p16物理好资源网(原物理ok网)

以下为霍金在上的讲演实录:p16物理好资源网(原物理ok网)

在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增的变化,是人工智能的崛起。简单来说,我觉得强悍的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。我不得不说,是好是坏我们仍不确定。但我们应当竭尽所能,确保其未来发展对我们和我们的环境有利。我们别无选择。我觉得人工智能的发展,本身是一种存在着问题的趋势,而这种问题必须在现今和将来得到解决。p16物理好资源网(原物理ok网)

人工智能的研究与开发正在迅速推动。其实我们所有人都应当暂停片刻,把我们的研究重复从提高人工智能能力转移到最大化人工智能的社会效益前面。基于这样的考虑,日本人工智能商会(AAAI)于2008至2009年,创立了人工智能常年未来总筹峰会,她们近日在目的导向的中性技术上投入了大量的关注。但我们的人工智能系统需要根据我们的意志工作。跨学科研究是一种可能的前进公路:从经济、法律、哲学延展至计算机安全、形式化方式,其实还有人工智能本身的各个分支。p16物理好资源网(原物理ok网)

文明所形成的一切都是人类智能的产物,我相信生物脑部可以达到的和计算机可以达到的,没有本质区别。因而,它遵守了“计算机在理论上可以模仿人类智能,之后赶超”这一原则。但我们并不确定,所以我们没法晓得我们将无限地得到人工智能的帮助,还是被践踏并被边沿化,或则很可能被它毁灭。的确,我们害怕聪明的机器将才能取代人类正在从事的工作,并迅速地剿灭数以百万计的工作岗位。p16物理好资源网(原物理ok网)

在人工智能从原始形态不断发展,并被证明十分有用的同时,我也在担心创造一个可以等同或赶超人类的事物所造成的结果:人工智能一旦脱离禁锢,以不断加速的状态重新设计自身。人类因为遭到漫长的生物进化的限制,难以与之竞争,将被替代。这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲突的意志。虽然我对人类一贯持有豁达的心态,但其他人觉得,人类可以在相当长的时间里控制技术的发展,这样我们才能看见人工智能可以解决世界上大部份问题的潜力。但我并不确定。p16物理好资源网(原物理ok网)

2015年1月份,我和科技企业家埃隆·马斯克,以及许多其他的人工智能专家签订了一份关于人工智能的公开信,目的是倡导就人工智能对社会所导致的影响做认真的督查。在这之前著名物理学家霍金认为无人驾驶,埃隆·马斯克就警告过人们:超人类人工智能可能带来不可估量的利益,而且假如布署不当,则可能给人类带来相反的疗效。我和他同在“生命未来研究所”的科学顾问委员会,这是一个为了减轻人类所面临的存在风险的组织,但是之前提到的公开信也是由这个组织起草的。这个公开信呼吁展开可以制止潜在问题的直接研究,同时也收获人工智能带给我们的潜在利益,同时旨在于让人工智能的研发人员更关注人工智能安全。据悉,对于决策者和普通大众来说,这封公开信内容详实,并非危言耸听。人人都晓得人工智能研究人员们在认真思考那些害怕和伦理问题,我们觉得这一点十分重要。例如,人工智能是有清除疾病和贫苦的潜力的,并且研究人员必须才能创造出可控的人工智能。那封只有四段文字,题目为《应优先研究强悍而有益的人工智能》的公开信,在其附送的十二页文件中对研究的优先顺序作了详尽的安排。p16物理好资源网(原物理ok网)

在过去的20年里,人工智能仍然专注于围绕建设智能代理所形成的问题,也就是在特定环境下可以感知并行动的各类系统。在这些情况下,智能是一个与统计学和经济学相关的理智概念。浅显地讲,这是一种作出好的决定、计划和结论的能力。基于这种工作,大量的整合和交叉蕴育被应用在人工智能、机器学习、统计学、控制论、神经科学、以及其它领域。共享理论框架的构建,结合数据的供应和处理能力,在各类细分的领域取得了明显的成功。诸如语音辨识、图像分类、自动驾驶、机器翻译、步态运动和问答系统。p16物理好资源网(原物理ok网)

随着这种领域的发展,从实验室研究到有经济价值的技术产生良性循环。哪怕很小的性能改进,就会带来巨大的经济效益,因而鼓励更常年、更伟大的投入和研究。目前人们广泛认同,人工智能的研究正在逐步发展,而它对社会的影响很可能扩大,潜在的益处是巨大的,既然文明所形成的一切,都是人类智能的产物;我们难以预测我们可能取得哪些成果,当这些智能是被人工智能工具放大过的。而且,正如我说过的,清除癌症和贫穷并不是完全不可能,因为人工智能的巨大潜力,研究怎样(从人工智能)受益并规避风险是极其重要的。p16物理好资源网(原物理ok网)

如今,关于人工智能的研究正在迅速发展。这一研究可以从短期和常年来讨论。一些短期的担心在无人驾驶方面,从民用无人机到自主驾驶车辆。例如说,在紧急情况下,一辆无人驾驶车辆不得不在小风险的大事故和大几率的小事故之间进行选择。另一个担心在致命性智能自主装备。她们是否该被严禁?假如是,这么“自主”该怎么精确定义。倘若不是,任何使用不当和故障的过错应当怎样问责。还有另外一些疑虑,由人工智能渐渐可以剖析大量监控数据导致的隐私和忧虑,以及怎样管理因人工智能代替工作岗位带来的经济影响。p16物理好资源网(原物理ok网)

常年担心主要是人工智能系统失控的潜在风险,随着不遵守人类意愿行事的超级智能的崛起,那种强悍的系统恐吓到人类。这样错位的结果是否有可能?若果是,这种情况是怎么出现的?我们应当投入哪些样的研究,便于更好的理解和解决危险的超级智能崛起的可能性,或智能爆发的出现?p16物理好资源网(原物理ok网)

当前控制人工智能技术的工具,比如强物理习,简单实用的功能,还不足以解决这个问题。为此,我们须要进一步研究来找到和确认一个可靠的解决办法来掌控这一问题。p16物理好资源网(原物理ok网)

最近的里程碑,例如说之前提到的自主驾驶车辆,以及人工智能博得象棋大赛,都是未来趋势的征兆。巨大的投入饱含到这项科技。我们目前所取得的成就,和未来几六年后可能取得的成就相比,必然相形见绌。并且我们远不能预测我们能取得哪些成就,当我们的脑子被人工智能放大之后。似乎在这些新技术革命的辅助下,我们可以解决一些工业化对自然界引起的损害。关乎到我们生活的各个方面都正式被改变。简而言之,人工智能的成功有可能是人类文明史上最大的风波。p16物理好资源网(原物理ok网)

然而人工智能也有可能是人类文明史的终结,除非我们学会怎么避开危险。我以前说过,人工智能的全方位发展可能招致人类的战败,例如最大化使用智能性自主装备。去年早些时侯,我和一些来自世界各国的科学家共同在联合议会议上支持其对于核装备的限令。我们正在急切的等待协商结果。目前,九个核大国可以控制大概一万四千个核装备,它们中的任何一个都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的害处是诱发核冬天,火和烟雾会引起全球的小冰河期。这一结果使全球粮食体系倒塌,末日般动乱,很可能引起大部份人死亡。我们作为科学家,对核装备承当着特殊的责任,由于正是科学家发明了它们,并发觉它们的影响比最初想像的愈发可怕。p16物理好资源网(原物理ok网)

现阶段,我对灾难的阐述可能惊吓到了在座的诸位。很抱歉。并且作为明天的与会者,重要的是,大家要看清自己在影响当前技术的未来研制中的位置。我相信我们团结在一起,来号召国际条约的支持或则签订呈交给各国政府的公开信,科技领袖和科学家负极尽所能防止不可控的人工智能的崛起。p16物理好资源网(原物理ok网)

一个新的机构,企图解决一些在人工智能研究快速发展中出现的尚无定论的问题。“利弗休姆智能未来中心”是一个跨学科研究所,旨在于研究智能的未来,这对我们文明和物种的未来至关重要。我们耗费大量时间学习历史,深入去看——大多数是关于荒谬的历史。所以人们转而研究智能的未来是令人欣慰的变化。其实我们对潜在危险有所意识,但我内心仍遵循豁达心态,我相信创造智能的潜在利润是巨大的。其实利用这项新技术革命的工具,我们将可以缩减工业化对自然界引起的伤害。p16物理好资源网(原物理ok网)

我们生活的每一个方面就会被改变。我在研究所的同学休·普林斯承认,“利弗休姆中心”能完善,部份是由于学院创立了“存在风险中心”。前者愈发广泛地考量了人类潜在问题,“利弗休姆中心”的重点研究范围则相对窄小。p16物理好资源网(原物理ok网)

人工智能的最新进展,包括亚洲国会倡议起草一系列法规,以管理机器人和人工智能的创新。令人倍感些许惋惜的是,这儿面涉及到了一种方式的电子人格,以确保最有能力和最先进的人工智能的权力和责任。亚洲国会发言人评论说,随着日常生活中越来越多的领域渐趋遭到机器人的影响,我们须要确保机器人无论如今还是将来,都为人类而服务。向意大利众议院议长递交的报告,明晰觉得世界正处于新的工业机器人革命的前沿。报告中剖析的是否给机器人提供作为电子人的权力,这等同于法人(的身分),其实有可能。报告指出,在任何时侯,研究和设计人员都应确保每一个机器人设计都包含有中止开关。在库布里克的影片《2001太空漫游》中,出故障的超级笔记本哈尔没有让科学家们步入太空舱,但那是悬疑。我们要面对的则是事实。奥斯本·克拉克跨国律师事务所的合伙人,洛纳·布拉泽尔在报告中说,我们不承认海豚和大猩猩有人格,所以也没有必要急于接受一个机器人人格。并且担心仍然存在。报告承认在几六年的时间内,人工智能可能会赶超人类智力范围,人工智能可能会赶超人类智力范围,从而挑战人机关系。报告最后号召组建意大利机器人和人工智能机构,以提供技术、伦理和监管方面的专业知识。倘若法国国会议长投票赞同立法,该报告将递交给欧共体委员会。它将在三个月的时间内决定要采取什么立法步骤。p16物理好资源网(原物理ok网)

我们还应当饰演一个角色,确保下一代不仅仅有机会还要有决心,在初期阶段充分参与科学研究,便于她们继续发挥潜力,帮助人类创造一个愈发美好的的世界。这就是我刚提到学习和教育的重要性时,所要抒发的意思。我们须要跳出“事情应当怎样”这样的理论阐述,而且采取行动,以确保她们有机会参与进来。我们站在一个美丽新世界的入口。这是一个令人激动的、同时饱含了不确定性的世界,而大家是先行者。我问候大家。p16物理好资源网(原物理ok网)

感谢!p16物理好资源网(原物理ok网)

以下为中国科技大咖、科学家、投资家和网友与霍金问答实录:p16物理好资源网(原物理ok网)

创新工场的CEO李开复(问):互联网大鳄拥有巨量的数据,而这种数据会给她们各类以用户隐私和利益换取暴利的机会。在巨大的利益诱惑下,她们是难以自律的。并且,这些行为也会造成小公司和创业者更难创新。您常提到怎样约束人工智能,但更难的是怎么约束人本身。您觉得我们应当怎样约束那些大鳄?p16物理好资源网(原物理ok网)

霍金:据我了解,许多公司仅将这种数据用于统计剖析,但任何涉及到私人信息的使用都应当被严禁。会有助于隐私保护的是,假如互联网上所有的信息,均通过基于量子技术加密,这样互联网公司在一定时间内便难以破解。但安全服务会反对这个做法。p16物理好资源网(原物理ok网)

第二个问题来自于猎豹联通CEO傅盛(问):灵魂会不会是量子的一种存在形态?或则是高维空间里的另一个表现?p16物理好资源网(原物理ok网)

霍金:我觉得最近人工智能的发展,例如笔记本在国际围棋和象棋的赛事中击败人脑,都显示出人脑和笔记本并没有本质差异。这点上我和我的朋友罗杰·彭罗斯恰好相反。会有人觉得笔记本有灵魂吗?对我而言,灵魂这个说法是一个基督教的概念,它和来生联系在一起。我觉得这是一个童话故事。p16物理好资源网(原物理ok网)

第三个问题来自于百度总裁张亚勤(问):人类观察和具象世界的方法不断变迁,从初期的观察和计算,到牛顿定理和爱因斯坦方程式,到明天数据驱动的估算和人工智能,下一个是哪些?p16物理好资源网(原物理ok网)

霍金:我们须要一个新的量子理论,将重力和其他自然界的其它力量整合在一起。许多人宣称这是弦理论,但我对此表示怀疑,目前惟一的猜想是,时空有十个维度。p16物理好资源网(原物理ok网)

第四个问题来自于哈佛学院化学学院士张首晟(问):假若让你告诉外星人我们人类取得的最高成就,写在一张邮戳的反面,您会写哪些?p16物理好资源网(原物理ok网)

霍金:告诉外星人关于美,或则任何可能代表最高艺术成就的艺术方式都是无益的,由于这是人类特有的。我会告诉她们哥德尔不完备定律和费马大定律。这才是外星人就能理解的事情。p16物理好资源网(原物理ok网)

文厨(问):我们希望倡导科学精神,贯串GMIC全球九站,清您推荐三本书,让科技届的同学们更好的理解科学及科学的未来。p16物理好资源网(原物理ok网)

霍金:她们应当去写书而不是读书。只有当一个人关于某件事能写出一本书,才代表他完全理解了这件事。p16物理好资源网(原物理ok网)

微博用户(问):您觉得一个人一生中最应该做的一件事和最不应该做的一件事是哪些?”p16物理好资源网(原物理ok网)

霍金:我们绝不应该舍弃,我们都应该尽可能多的去理解(这个世界)。p16物理好资源网(原物理ok网)

微博用户(问):人类在漫漫的历史长河中,重复着一次又一次的革命与运动。从石器、蒸汽、电气……您觉得下一次的革命会是由哪些驱动的?p16物理好资源网(原物理ok网)

霍金:(我觉得是)计算机科学的发展,包括人工智能和量子估算。科技已然成为我们生活中重要的一部份,但未来几六年里,它会渐渐渗透到社会的每一个方面,为我们提供智能地支持和建议,在医疗、工作、教育和科技等诸多领域。而且我们必需要确保是我们来掌控人工智能,而非它(掌控)我们。p16物理好资源网(原物理ok网)

最后一个问题来自于音乐人、投资者胡海泉(问):假如星际移民技术的成熟窗口期迟到,有没有完全解决不了的内发灾难造成人类灭绝?摒弃陨铁撞月球这样的外来灾难。p16物理好资源网(原物理ok网)

霍金:是的。人口短缺、疾病、战争、饥荒、气候变化和水资源短缺,人类有能力解决这种危机。但很可惜,这种危机还严重恐吓着我们在月球上的生存,这种危机都是可以解决的,但目前还没有。p16物理好资源网(原物理ok网)

发表评论

统计代码放这里