当前位置:首页 > 五星体育直播在线观看无插件
地点是在德克萨斯州的奥斯汀,特斯拉在这里有一家工厂。事件早在2021年就发生了,
过程是一名工程技术人员在车间里工作的时候,机器人突然压在了工作人员的身上。接下来,机器人的金属手臂弄伤了该人的手臂和后背。事后的调查是,此次伤害导致工作人员的左手出现了开放性伤口。
对工程师造成了严重的伤害的,是一台出了故障的机器人,现场还有另一台故障机器人。当时,这名工程师正在给两台机器人编写程序,而后便突然发生了伤害事件。
对于媒体近期的报道,马斯克昨天进行了公开回应。他认为媒体是在翻炒旧闻且小题大做,因为两年前的伤害事件就是车间里的一台机械臂,并且对当事人造成的伤害很轻微。
马斯克还认为,类似的机械手臂,在其他自动化的生产车间都有,而且相关的伤害事件也存在。媒体却突然把两年前的旧闻翻出来,而且还暗示是由旗下公司的人形机器人导致的,实在是很可耻。
不管媒体的报道有没有夸大,也不管马斯克的回应是否属实,外界近年来对于自动化车间导致的伤害事件确实很关注。因为在美国的一些企业和工厂,自动化的设备越来越多。
比如亚马逊,他们的仓库几年前就使用了大量的机器人。2018年的时候,该公司旗下的一个仓库,却发生了一起导致24人受伤的严重事故。原来,一台机器人在工作的时候意外戳漏了一罐驱熊喷雾进而导致了伤害。
根据媒体此前的调查,在类似的自动化作业区域内,2022年整个行业,平均每30人就会有一人受伤。而特斯拉的工厂,据称是每21人就会有一人受伤。
所以说,媒体虽然有翻炒旧闻的嫌疑,但类似的伤害事件不光在特斯拉,别的行业内也确实存在。
小胖就是近年来常常会出现在短视频中,会说话会借助轮子走路的机器人。不过还在被大规模推广之前,它曾经“造过反”。
那是2016年底,在深圳参加一个展览会的时候,叫小胖的机器人没有接到任何指令,突然“发飙”把展览现场的柜台砸了,过程中还伤到了一个无辜路人。
事后,媒体绘声绘色报道了小胖的“打砸”过程,还把路人受伤的照片公布了出来。一时间,机器人“造反伤人”的消息疯传。
后来调查的结果为,展览当天工作人员有一项操作失误,把机器人的前进按钮当成后退按钮按下,而后导致机器人撞向了玻璃柜台,并在这样的一个过程中误伤了路人。
彼时还有业内人士猜测,机器人小胖的自助导航功能应该也有问题,没办法识别出前方的障碍物,所以在碰到柜台后,会在驱动设备的作用下,反复向前撞击,而不会“聪明”的避开。
不管是误按了按钮,还是机器人自身的导航功能不良,总之这起伤人事件,跟新闻媒体报道中的“造反”还是有很大区别的。
毕竟,如果小胖算造反的话,国外一名导致工作人员死亡的机器人,就该给它判“死刑”了。
那起事件发生在德国大众汽车的一家工厂,在车间的流水线上,一名工作人员突然被机器人揪住身体,而后又将其挤压向一块金属板。
由于伤势严重,这名工作人员最终死亡。事后大众公司给出的调查的最终结果是,是该工作人员误操作,才导致机器人失控的。
无论是中国的小胖砸柜台,还是德国的机器人揪男人,问题的关键或许不在伤害本身,人们更多关注的是,这些伤害事件,究竟是不是机器人的本意?
对于机器人会不会产生了自我意识,公众其实是一种既兴奋又恐慌的状态。兴奋的是很多人愿意相信,现在的机器人技术已发展到了很高程度,所以一有机器人伤人的相关消息,有些人就会相当好奇。
而恐慌的地方也恰恰在于此,因为各种科幻作品的渲染,公众也担心产生了自我意识的机器人,会对人类大杀四方。
可实际的情况却是,不管是好奇还是恐慌,都属于人类的过度脑补,现在的机器人就是机器,它还远未达到能够产生自我意识的程度。
首先,媒体在报道类似事件的时候,都运用了拟人化的渲染手法,这种文字上的表述方式,自然能够引起大众的好奇心,但却也严重偏离了事实。
就比如小胖砸柜台这件事,媒体在报道的时候用的是“砸”,通常在描写人类行为的时候才会用这个词。
而实际的情况是,那台叫小胖的机器人,不过是在被按下后退按钮后,在发动机的驱动下往后退,遇到障碍物后又不会躲避,反映出来的结果就是机械的撞击。
其次,那些导致伤害性事件的工业机器人,在AI领域的专家看来,是由于操作不当导致程序错误,进而才引发的事故。
此前德国的那起事故,工作人员原本就是安装机械臂的技术人员,他在车间做了违反安全规定的动作。而机器人本身,只是被程序驱动,并没有一点自我意识。
同样,对于马斯克旗下公司机器人伤人事件,业内人士也猜测,最大的可能还是程序错误或者缺陷,导致机器人接受到了错误的指令。
也因此,这些伤害性事件,只能算是常规的工伤事故,就跟工人操控机床或者切割机伤到手臂一样,跟机器人产生自我意识,甚至是故意伤害人类,没有一点关系。
归根结底,人类目前研究的人工智能,还远远未达到拥有自我意识的程度。不过也有人会有不同的看法,假如人工智能真的产生了自我意识,人类该如何发现呢?
需要说明的是,人工智能会不会产生意识,以及机器人是否会伤害人,这是两个问题。
机器人伤不伤害人的问题,建立在它是不是具备了自我意识的基础上。而这里自我意识的载体,就能够理解为人类研发的人工智能。那么,如何去辨别人工智能是不是具备了意识呢?
还在几十年前,那个叫图灵的现代计算机之父,也曾设想过这一问题,并且提出了一个相对简单的测试方法。
他预测未来人工智能产生后,让不同的人和AI进行无障碍交流,假如超过30%的人感觉不到对方是机器的话,那么就可以判定为它是真正智能化的,能够像人类一样自主进行思考。
就目前的情况看,不管是风头正盛的ChatGPT,还是智能手机领域的各类助手,人类在和其聊天的时候,还是一下子就可以感觉到浓浓的“机器风”,根本不像人类的思维那样是发散性和自主性的。
当然这仅仅是一种观点,还有一种观点认为,依照现在人工智能的发展的新趋势,图灵当年提出的测试已经过时,人类应该建立一套全新的标准,来应对人工智能的存在和意识产生问题。
今年9月份,来自多国的19名各领域科学家,就人工智能会不会产生意识的问题,提出一套全新的测试标准。
科研人员利用6个人类的意识理论,最终确立了14项标准,这些标准都对应了现有研发的人工智能。
他们用新标准对ChatGPT进行了测试,最终得出的结论是它并没有人类的自我意识,其他公司研发的人工智能,同样没有通过测试。
人们都听说过机器人三定律,那是科幻作家阿西莫夫设置的三个标准。第一个标准就是机器人不能伤害人类,并且不可以坐视人类受到伤害。
三定律的底层逻辑,还是建立在机器人要拥有意识的基础上。而现在的人工智能,恰恰都还是没“脑子”的,在这种情况下,定律就谈不上遵守与否。
而且也有科研人员指出,所谓的三个定律,在现实世界中根本不能立足。至少在现有的编程中,无法去具体量化标准本身。
与此同时,也有科研人员认为,围绕人工智能的发展,应该确立新的伦理原则,过去的定律原本就不严谨,未来人工智能的发展,不能以此为基础。
回到机器人伤人的问题上,现在发生的各类事件,多数可被确认为误操作,或者是编程错误导致机器接受了错误的指令。
总之,这些都跟机器人已拥有自主意识还远远不相干。假如说机器人真的拥有自我意识了,按照三大定律,在人发生危险的时候,它应该施救才是。
反过来说,如果拥有意识的机器人攻击人类,说明三定律要么没有设置,要么就是定律根本限制不住它。但不管是哪种情况,这些都是未来才会有的事情。
至于现在的情况,要减少机器人带来的伤害,就需要在工作中设置更合理的安全准则规范。相比于去思考机器人有没有产生意识,这才是最迫切的。