<

米乐体育下载是一家专注于工业机器人维修的高科技企业,致力于国内外各种机器人的维修保养、配件销售的高科技企业,业务范围涵盖FANUC发那科、KUKA库卡、ABB、安川等品牌,在业界有着良好的声誉。

机器人维修
联系人:曾先生
维修热线:15913182080曾工

QQ号:95652457

邮箱:297427020@qq.com   

地址:广州市天河区中山大道中1218号朱村商贸大楼5层


微信二维码

您当前的位置:首页 > 新闻中心 > 常见问题

人机器人谁将主宰谁

时间: 2024-02-01 03:16:18 |   作者: 米乐体育下载

  全自动武器系统,可以在不受人类操纵的情况下对目标自行判断并发动攻击,也被称为“杀人机器人”;美国国家情报委员会预测2030年将出现仿生机械超人;机器人反人类控制是科幻电影偏爱的故事;很多人担忧机器人真的成为人类的终结者。机器人是否就是人类的末日?

  也许科幻电影太多地描绘了机器人反人类统治而控制了地球的未来,因此引发一些人的不安,担心幻境成真。国际人权组织“人权观察”就是这里面之一,2012年11月他们联合美国哈佛大学发表了一份报告,呼吁国际间禁止研发全自动武器系统。这种可以在不受人类操纵的情况下对目标自行发动攻击的武器,也被称作“杀人机器人”。

  报告声明:应设立国际性法规禁止研发、生产及使用全自动武器;并采取国家立法与政策制定来约束研发、生产及使用全自动武器。

  报告说,这样的军用机器人可能在20至30年内问世;这样的机器人将无法区分军人和平民;包括美国在内的许多国家都对以机器人代替士兵的设想感兴趣。

  巧合的是,就在这份报告发布3日后,美国国防部发布了一份关于“全自动武器系统”的指令,据英国《卫报》12月3日报道,指令指出,这种系统一旦激活,即可自行选择和处理目标而不需要任何人的操控。同时将建立有关政策,分配开发和使用自动或半自动武器系统的人的责任。

  事实上,这已经不是美军第一次讨论这种武器的可能性,早在2004年美国国防部就已经给研发者亮了绿灯。总的来说,美国国防部希望的是最彻底的实验,从研发到使用到操作者的培训,并确保适用法律的配套,而且确保有人类电脑终端能结束错误任务。当然他们也反复强调了建立有关政策防止任何也许会出现的错误而导致系统的失控。

  英国《卫报》的特约作者诺尔沙基在他的评论文章中称,这种反复强调的错误,包括以下几个方面,人为错误,人机交互失败,系统失灵,通信未升级,软件编码错误,敌人网络攻击或渗透供应链,干扰,电子欺骗,敌人的其他行为,或是战场上的意外情况。

  诺尔沙基是英国的AI和机器人专家,对这种“杀人机器人”出现的可能十分担忧。并且他在文章中称早在2007年他就已经在《卫报》发表文章警告国际社会这种机器人的危险性,但至今也没看到国际上有关于限制杀人机器人研制的立法讨论。

  “人权观察”的报告认为虽然目前这种全自动武器还没再次出现,而且世界强国包括美国也没有最后下决心发展这种武器。但是高科技的军事正在发展或者已发展出了能够推动这种全自动武器发展的基石,除了美国,德国、以色列、韩国、俄罗斯、英国、中国都已经具备了这种能力。

  一些专家觉得,这种武器可能在20、30年内就可完成,甚至是更快。而就在12月10日,美国国家情报委员会作出预测:2030年将出现仿生机械超人。

  全自动武器系统若要有一定的自行判断能力,就要以AI为基础。但随着人工智能的发展,出现杀人机器人的担忧会慢慢的多,甚至人们也会担心用于另外的地方的服务型机器人也可能因为某些错误的出现而导致安全问题。尤其是当人工智能越来越接近人类的智力,甚至拥有了类人的情感。

  在专业领域内,一些专家将机器人学和人工智能看做是两个独立的学科。美国计算机科学教材系列《人工智能》作者提姆琼斯(Tim Jones)认为,机器人学和AI是两个独立的领域,但却是相互补充的。机器人为AI提供了其他事物所不能提供的物理表现形式。

  他对《中国科学报》记者说:“虽能通过机器人模拟,了解AI应用在机器人上时可能会产生的问题,但是模拟容易掩盖一些要解决的问题。因为,模拟本身是人工控制环境的,而机器人本身和自然环境却是复杂和凌乱的。”

  因此,琼斯在他编写的教材中,将机器人学和人工智能分离为两个学科。“机器人学能为AI研究带来好处。虽然我们可以制造一个完全不结合人工智能的机器人,这种机器人系统只是按预定程序办事,但它的重要性绝不能与建立一个拥有智能的机器人系统相比。”

  当人工智能越来越高级,拥有人工情感、类人情感就成为一个必然的方向。琼斯也告诉《中国科学报》记者,没有情绪的机器就不能称之为拥有真正的人工智能,但不是所有的情绪对机器都是有利的。如果一个机器能够展现愤怒或嫉妒这样的情绪那就隐藏着危险。他说:“拥有情感能让机器感知用户的情感。能表达和能感知情绪都是有必要的,但是这也会导致新的问题。”

  北京科技大学物联网与电子工程系主任王志良告诉《中国科学报》记者,对于机器人或者是人工智能的研究一定要有一些制约,或者是准则来约束研发类似杀人机器人是非常必要的。因为全自动武器是很容易做到的。

  比如美国的无人机,在长时间飞行中,通过高精度的影像技术,可以将敌人的行为完全掌握。而武器的高精度打击,或者称为定点手术都已经是非常成熟的技术。

  科幻电影中经常出现机器人拥有的一定水平的智能后,开始不断学习人类的思维方式,学习人类的知识,甚至产生控制人类的“野心”,或是对既有法则的过度分析后以保护人类的名义而反人类。

  王志良说:“当机器拥有了一定的学习能力,我们必须在人文或是法律上有这样的制约,不能够将权力全部交给机器人,这绝对是有风险的。尤其是在机器人渐渐普遍进入家庭,如何保证安全非常重要。”

  早在1940年,科幻作家阿西莫夫就提出了著名的“机器人三原则”:1.机器人不应伤害人类;2.机器人应遵守人类的命令,与第一条违背的命令除外;3.机器人应能保护自己,与第一条相抵触者除外。

  这是给机器人赋予的伦理性纲领。学术界一直将这三原则作为机器人开发的准则。而王志良认为这个三原则已经越来越适用于机器人和人工智能的研究。

  很多科幻电影中,还是会在最后揭示出,机器毕竟是机器,它们获得的“思维”还是基于人类的程序设计。人最终会通过自身更高级智慧重新掌控机器。

  在业内,人类智能和机器智能通过两个词语区分,即“湿智能”与“干智能”。人类以及动物的大脑都是生物基础,有血液等等,因此被称为湿智能,而机器人的大脑都是由集成电路等固态的东西组成。王志良说:“物质构成的不同,决定了它们能够产生和表现出来的性能肯定是不一样的。”

  从海洋到大陆,从水生生物到陆地霸主,人类的大脑是经过几亿年的变迁与进化,才拥有了今天这样的智慧,而机器人的研究只不过几十年。

  英特尔(Intel)创始人之一戈登摩尔提出的摩尔定律指出当价格不变时,集成电路上可容纳的晶体管数目,约每隔18个月便会增加一倍,性能也将提升一倍。

  虽然现在硅电路(集成电路)的运算速度越来越快,存储量越来越大,但王志良告诉《中国科学报》记者,集成电路的这种发展已经经过了几十年,可能在十年后就会达到极限。即使做到极限,与人的大脑也是无法比拟的。“因此,机器人拥有能够战胜人类的智慧这种事是无须担忧的。”

  提姆琼斯也说:“我不认为机器人有任何可能成为人类的威胁,尤其目前在研究中还有很多未能解决的问题。实际上那个人类本身就是一部令人惊叹的机器。面对很多不能解决的问题,人类自身的归纳能力以及解决新问题的能力都超越了任何的机器。”

  琼斯表示,作为人类,我们今天能够从人工智能获得很多利益,更有助于人类自身的扩张。在AI研究的早期阶段,其目标就是发展能思考的机器,在某些领域还渴望让机器人能拥有这样的智能。

  但实际上,现阶段的人工智能研究已经趋于更实际的目标,都是有利于目前技术的发展和改善我们的生活。知识的分类和开发传播已经是在线即时的,这让我们能够不断地扩大学习范围。这让人类变得更加聪明,当然也有少数人认为网络降低了我们的智商而且从根本上改变了我们的思维方法。虽然这是在建立虚拟和实体智能时一定会伴随的危险,但也是我们一定要做的。



上一篇:日本千叶大学拟定“机器人”
下一篇:【48812】小鹏G3保养手册|XPeng G3 Maintenance Manual

备案号:粤ICP备19039425号    主要专业从事机器人系统维修,变频器维修,伺服驱动器维修,直流调速器维修,触摸屏维修, 欢迎来电咨询!

友情链接: 米乐体育下载 | 米乐体育下载ios | 米家app官方免费下载


首页
">
拨打电话

维修项目

联系我们