2023-01-08 12:03:24 发布人:hao333 阅读( 6287)
现在越来越多一些人工智能的机器人直接步入到我们的生活中,而在一定的未来,也有可能会在人脑中加入到智能的成分。下面是小编分享的人工智能是否真的会威胁人类,一起来看看吧。 人工智能是否真的会威胁人类 科学家警告人类警惕人工智
现在越来越多的人工智能机器人正直接步入我们的生活,在一定的未来,也有可能给人脑添加智能。以下是边肖分享的人工智能是否真的威胁到人类。让我们来看看。
人工智能真的会威胁到人类吗?
科学家警告人类反对人工智能。
“听着,我们的时间不多了!我们需要告诉Siri,不要想太多,听话就好。当然,偶尔来个小段子也无妨。重要的是,我们必须确保Siri的立场与我们一致。”这段话是霍金在Zeitgeist大会上说的。显然,我们现在需要确保这一点,然后我们就可以等待计算机的智能超越我们自己。然而,我们很难预测智能计算机将走向何方。
有人可能会质疑,机器人是人类生产的,它们的编程是人类写的。说白了就是“死东西”,那么“死东西”怎么会比活人聪明呢?
此前,霍金曾警告人工智能可能会终结人类。霍金说:“现在不是担心谁控制AI的时候,而是担心AI能否被完全控制。我们的未来取决于不断增长的技术力量和我们使用技术的智慧之间的竞赛。”
事实上,早在今年年初,霍金也发表了与特斯拉CEO埃隆马斯克(Elon Musk)的公开信,他认为应该控制人工智能的发展。在信中,这两个人警告科学家,他们应该警惕人工智能将会毁灭人类。
去年11月,马斯克还警告称,智能机器带来极端危险至少还需要5年时间。他认为人工智能就像“召唤恶魔”。马斯克在麻省理工学院演讲时,将人工智能描述为“人类存在的最大威胁”。他说:“我认为我们应该对人工智能保持高度警惕。如果要我猜人类生存的最大威胁,可能是人工智能。”
机器人的时代开始了。截至2007年底,全球已有410万台家用服务机器人进入人们的生活。中国也将家庭智能机器人作为十一五规划的支撑点。
目前机器人还在人类的控制范围内。不过,在不久的将来用意念控制另一个人也不是不可能。2013年8月28日,华盛顿大学首次实现了两个人类大脑之间的远程控制。一名实验者通过一种特殊的仪器“控制”另一名实验者的行动。
近日,百度表示在备受瞩目的人工智能基准测试中取得了全球最好的成绩。它成功的秘密武器是超级计算机Minwa。
最近也有消息称,未来的人工智能可能会帮助人类开发出半机器人,也就是半人半机器的生物。《时代》年2月的周刊,封面故事也为我们描绘了人类的未来——2045年,人类将通过与计算机结合实现“永生”,计算机智能将取代人脑,永远改变人类的命运。
人工智能不仅是机器人,还有“刷脸”支付、指纹识别、智能语音等生物识别技术。目前,这项技术正随着云存储技术逐渐渗透到我们的日常生活中。
人工智能的威胁是无稽之谈吗
科学家预测,在未来,人工智能将可能被添加到人脑中,以增强其性能,如更高的内存,更快的计算速度等。甚至有可能通过基因工程技术改变人类的DNA,从而改变人类的外貌和行为。人类可能拥有能够生长、繁殖、分化、移动、自我组装、自我测试、自我修复等的人造细胞。生物和科技将会融合。
美国作家雷蒙德科兹韦尔(Raymond Kozwell)曾提出这样的观点:2045年,人类将通过与计算机结合实现“永生”,计算机智能将取代人脑,永远改变人类的命运。届时,人类和计算机智能将无法区分,人类将不再是人类,而是“与机器融合成为另一个物种”——这听起来有点像科幻小说中的情节,但越来越多的人开始认真想象这种可能性。
人工智能研究人员还模拟了所谓的“AI盒子实验”:一个人充当AI,另一个人充当警卫。只是在同等智能水平下,AI已经有很大机会说服人类开门了。
现代人对科技的依赖已经越来越严重。未来的人工智能会不会像鸦片一样,给人带来短期的快感,带来更长期的毒害?显然,各方的数据和预测都表明这种可能性是存在的。如果真的有这种可能,怎么避免呢?正如霍金所说,只有确保机器人站在人类一边,即能够被人类控制,才能相信它们未来不会威胁到人类的生命和生存。
人工智能对人类构成威胁。
据国外媒体报道,经过几十年的发展,人工智能已经从科幻小说中的概念变成了当今科技发展的主流。苹果的语音控制系统Siri,亚马逊的智能助手Alexa,IBM的沃森超级计算机,谷歌大脑等等,能够理解世界并给出高效反馈的智能机器似乎指日可待。
强大的互联网接入和计算机算法,使机器在理解人类语音和视频信息方面取得巨大进步,逐步走向真正的人工智能。AI(人工智能),能实现自动响应的人工智能产品离我们还远吗?如何让他们不断更新和升级自己,但仍然保持在人类的控制范围内?
这个问题给人们带来了普遍的担忧和焦虑。“我认为人工智能的发展最终会导致人类的灭绝,”物理学家斯蒂芬霍金在接受BBC采访时表示。特斯拉创始人埃隆马斯克(Elon musk)将人工智能称为“人类最大的潜在威胁”。微软前总裁比尔盖茨也表达了类似的担忧。
有多大的担心是必要的?问题有多紧急?我们聚集了多位行业、科研、决策领域的专家,对人工智能的发展风险进行评估。本次话题讨论的参与者包括Skype创始人之一、人类未来发展潜在风险研究所智库成员;IBM沃森超级计算机研究所计算机认知研究专家贾塔林;帕多瓦大学计算机科学教授、哈佛大学拉德克里夫高等研究院研究所、聚集最多AI研究人员的国际人工智能研究协会主席Guruduth S. Banavar;弗朗西丝卡罗斯.
以下是经过编辑的专家谈话。
有什么危险?
记者:人工智能会对人类造成哪些威胁?
巴纳瓦尔:受科幻小说和电影的影响,人工智能带来的威胁主要是人类和机器的矛盾。这种观点其实是错误的。人工智能在某些领域可以比人类更好地解决问题,比如大数据筛选。然而,在一些人类擅长的领域,机器的表现却非常糟糕。如用常识推理,提出精彩问题,“跳出来”思考。人机结合不仅是我们研究计算机认知能力的基础,也是解决各领域复杂问题的革命性思路。
基于人工智能的系统已经在许多方面为我们的生活提供了便利:自动股票交易系统、自动飞行控制系统、工业装配线机器人、错误检测和搜索引擎.在过去的5-10年里,计算机算法和先进的计算机体系结构使我们开发了许多新的应用程序。
但是,应该认识到,计算机算法已经应用到了极致。为了取得更大的进步,我们需要引入更复杂的符号系统;这是一项艰巨的任务。今天的神经科学和认知科学研究,对人类智力的研究只是一笔带过。
我个人的看法是,能达到人类水平,能实现一般感知和推测的人工智能机器只是娱乐话题。
塔林:今天的人工智能无法对人类构成威胁。如果要讨论人工智能的长远影响,(也就是人工智能什么时候能比人类更好的完成战略、科学、人工智能的研究。)我们会涉及到控制超级智能的问题。
记者:什么是超级智能控制问题?
塔林:目前最先进的机器人也有一个“关机键”,可以让人类完全控制。但是“关机键”起作用的前提是在机器人的工作范围之外。比如,一台会下棋的电脑,仅限于和人玩游戏,它并没有意识到它的人类对手可以拔掉它,终止游戏。
而超智能机器,通过有意或无意的编程,可以完全理解周围的世界,预测到有人可以移动其“关机键”时的后果,因此人类很难再去控制它。
记者:这个问题有多严重?
塔林:目前,这只是一个理论上的推测。但要仔细认识到,超智能机器可能只受物理定律和人们为早期智能机器人设定的程序控制。
早期的程序是基于我们非常有限的物理知识而设计的。试想一下,如果面对一个智能机器人,我们的指令是“为人类创造更美好的未来”,我们最好相当确定它会有什么反应。
罗西:在很多具体领域,人工智能的表现已经超过了人类,包括一些涉及到准确判断的领域。目前人工智能还没有威胁到人类,但是人类已经受到了机器判断的影响,比如网上自动交易系统、健康检查系统、无人驾驶汽车以及即将普及的无人武器。
我们需要清楚地了解和分析人工智能在特定领域的潜在威胁,不仅要让它们发挥作用,还要确保它们能够安全、友好并按照人类的价值观运行。这不是一个简单的任务,因为即使是人类,大多数时候也无法按照自己的原则行事。
对日常生活的影响
记者:人工智能在特定领域会给人类带来什么样的威胁?
罗西:比如一个自动交易系统,一个机器给出的错误决定会给很多人带来经济损失。无人驾驶汽车的失误也会对人类生命构成威胁。
记者:应该如何看待这些风险?
巴纳瓦尔:任何风险都有两面性:做的风险和不做的风险。我们基于不完整的信息和不专业的专业人士做出了许多错误的决定,导致数千人死亡,数百万美元的损失,以及医疗等核心领域的发展缓慢。基于IBM沃森超级计算机在多个领域的应用经验,我相信人工智能可以有效降低特定领域的风险。
但我对综合人工智能领域持谨慎看法。我认为我们低估了这个问题的复杂性。我们有太多的未知。
记者:IBM采取什么措施来降低人工智能的技术风险?
巴纳瓦尔:IBM的计算机认知系统和其他现代计算机系统一样,是基于云计算结构、算法和大量数据的。为了防止违规,可以记录、跟踪和审查这些系统的运行情况。这些认知系统并不是自主运行的,因此它们的指令、数据和结构需要我们采取一定的保护措施,以防止人类的外部攻击。任何访问和更新系统的人都是可控的。
我们主要通过复杂加密和数字签名保护数据,通过漏洞扫描等技术手段保护操作码,通过隔离等手段保护计算机结构。
这些支持人工智能安全运行的政策是基于对风险的深入分析而设计的。这些政策需要由安全和交易委员会、销售和公共安全条款管理委员会(SEC)、食品药品监督管理局(FDA)和国家标准和技术研究所(NIST)进行审查,这些机构负责制定各自领域的安全标准。
记者:沃森超级计算机正在帮助医生解决医疗问题。是否可以对自己的失误造成的医疗伤害负责?
巴纳瓦尔:沃森超级计算机不会给出诊断意见。它通过处理大量的患者医疗数据,为医生提供多种治疗建议。医生会考虑沃森的建议,综合分析其他因素,做出最终的治疗判断。
罗西:医生也会时时刻刻犯错误,主要是因为他们不能完全掌握关于某种疾病的所有信息。像沃森电脑这样的系统可以帮助他们减少错误。
塔林:有一项研究比较了医生和医疗自动诊断系统。结论是大部分医生输给了电脑。
巴纳瓦尔:我认为沃森计算机提供更完整的医疗建议是非常有益的。我很想让它来诊断我。
对人类的影响
记者:有专家认为人工智能抢了人类的一些工作。你同意吗?
塔林:技术进步确实会让一些工作岗位消失。一位优步司机曾兴奋地向我介绍他是如何在平板电脑上输入目的地来获取行程的。我告诉他,再过几年,可能就是这些小的科技产品把我送到了目的地。司机高兴地说,这样他坐在驾驶座上会更轻松,也更享受。坐在后排,我一直摇头。在我看来,无人驾驶汽车对人类最大的影响不是便利,而是正在消失的工作岗位。
从长远来看,除了工作,我们还应该想象我们的社会可以围绕什么运转。
巴纳瓦尔:纵观历史,我们一直在通过制造工具来帮助我们完成我们不能完成的事情。每一代工具都会引导我们思考自然和我们的工作方式。生产力提高,工作被重新定义,新职业诞生,一些职业消失。认知系统拓展了人类的思维能力,具有更强的替代潜力。
问题的关键在于,应该建立一个机构,快速培养专业人员,让他们开发计算机认知系统,作为助手来辅助各自的工作。这些技能可以加强人类的专业性,为“专家”树立一个全新的标准。
记者:我们应该如何为人工智能社会做准备?
塔林:全面人工智能何时实现,甚至能否实现,都存在很大的不确定性。虽然作为物理学家,我觉得一切皆有可能!但是不确定性不是我们不考虑控制的借口。针对如何控制的问题,有针对性的研究才刚刚开始,可能需要几十年才能有结果。
罗西:我相信,我们完全可以将应用于特定领域的人工智能对人类的不利影响控制在最低限度。我们需要为机器设定人类的价值标准、工作原则和优先级,比如与人类一致的冲突解决能力。如果完成该领域的具体人工智能设计工作,就能为设计不危害人类的综合人工智能做准备。
巴纳瓦尔:在20世纪90年代初,当计算机进入医疗领域时,许多国家的社会活动家为保护病人的权利而奔走。十年后,医疗信息保密协议诞生了。同样,特定领域的人工智能也面临着一个严峻的问题。哪些权利不可侵犯,侵犯后要承担哪些责任?
罗西:现在销售普通汽车必须通过一系列安全测试。未来销售无人驾驶汽车也需要新的安全测试标准。需要仔细考察的不仅是汽车运行程序,还有基于人类伦理道德原则设计的紧急判断程序。
巴纳瓦尔:在无人驾驶汽车的世界里,司机、乘客和行人各自的权利是什么?消费者不能向投资顾问和智能助手提供所有信息吗?谁负责投资建议?是投资顾问、投资服务组织者、智能助理设计师还是数据主管?未来拥有智能机器的人类社会要面对和解决的问题还有很多。
相关阅读
RelatedReading猜你喜欢
Guessyoulike