人生倒计时
- 今日已经过去小时
- 这周已经过去天
- 本月已经过去天
- 今年已经过去个月
facebook两台机器人交流(facebook 机器人对话)
请大神帮我写一份关于现代机器人技术的心得 不知道怎么写 有例文更好
随着各式各样的机器人渐渐地出现在我们的生活中,无人水饺厂、全自动化的鸡蛋生产厂、高度机械化的汽车制作车间、无人服装厂迟伏等以机器人为主角的生产方式不断地冲击着我们的眼球及认知。毋庸置疑,人工智能时代正快速地来到我们的身边。
(使用浏览器扫码进入在线客服窗口)
复制联系方式
人工智能时代的主角是机器人,未来,当机器人成为我们日常生活中的普通一份子,我们将如何与它相处?回答这码迹携个问题之前,我们先来看几个关于机器人的小故事。
AI自创语言聊天的真相
前阵子,据外媒报道,“Facebook不得不拔掉其研究人员正在研究的人工智能系统的插头,因为事情失控了”。这究竟是怎么回事呢?
原来,两个智能机器州腊人谈判时采用了非人类可以懂的语言。天哪,机器人们在聊天,但是他们的创造者们不知道他们在说什么,于是便采取了强制关机的办法。
2. AI自创语言聊天的真相究竟是什么?
事实上,研究人员将这两个聊天机器人放到一起时,忘了给其神经网络设定“用英语沟通”的激励。为什么要做这个激励呢?目的是让神经网络知道用英语沟通会得分更好。但是,没有了这个激励,佐治亚理工学院的访问学者Dhruv Batra解释两个机器人的奇怪对话:“机器人会脱线发明一些它们之间才能理解的句法。”
神经网络其实是个程序,研究人员没有缜密地设计程序,便造成了两个机器人聊成了这样,简单来讲,研究人员虽然告诉了它们:“请用英文”,但忘了告诉它们:“请用英文语法”。
其实,Facebook并没有真正的“关掉”这个系统,而是重新给机器人设定了正确的激励,修正了它们的行为,让它们用标准的英文语法来进行交流。修正的原因是研究人员认为两个聊天机器人聊天根本没有意义,应该让机器人和人聊天。
3. 电影里对人工智能的想像
人工智能社会的出现必然给我们生活带来翻天覆地的变化,因此很多电影业以机器人为主角畅想未来机器人和人类将如何相处。
《人工智能》是斯皮尔伯格的经典电影作品,机器人小男孩大卫觉醒出“爱”的意识,渴望变成真正的孩子,回到妈妈莫妮卡的身边,然而这终究只是美梦一场。
《机械姬》获得了奥斯卡最佳视效奖,影片讲述人工智能开始真正反噬人类,甚至学会了“欺骗”、“同情”、“引诱”等人类的高级情感,更可怕的是,它完完全全地融入了人类社会。
《攻壳机动队》是押井守大师史诗级别的作品,它讲述了人工智能已经被嵌入了“赛博朋克”的灵魂,在科技发展和自我意识探讨方面已经上升到了哲学的层面。
《非凡》 这部电影里面的机器人更是进化到人类想象不到的程度,阴暗非凡,惊悚非凡。
其实机器人已经离我们很近了。撇去永无止境的研发和优化,服务机器人已开始进入规模化商用阶段, RT时代大门开启,是使用环境、市场需求与技术突破共同作用的产物。

使用Facebook的人工智能机器人对话是怎样的体验?
就我自己的个人感觉来说的话,用facebook的人工智能机器人对旦中话,是一种会让我觉得特别惊讶哪带的体验,因模缓山为我从来没有尝试过。
人工智能真的能统治人类吗
作者:刘明河
近期,警惕人工智能的文章和报道越来越多,甚至有人宣称“随着计算机运算能力增强,强人工智能将在我们的有生之年出现,给人类文明带来前所未有的冲击”,这些看似有理有据的观点深入人心,很多人甚至心生恐惧,担忧起了自己的未来。
人工智能真的会对人类产生如此大的威胁吗?
【困难重重】
对于人工智能这个过于庞大的概念,我们将它区分成弱人工智能(weak AI,或Narrow AI)和强人工智能(Strong AI或General AI)。
弱人工智能是处理特定问题的人工智能,AlphaGo就是一个专门下围棋的弱人工智能,iPhone里的Siri是一个专门语音识别的人工智能,Google的搜索框里也藏着一个专门提供搜索建议的人工智能——多亏了如今盛极一时的“人工神经网络”,我们已经愉快地发现,弱人工智能表现得非常出色,在某些时候真的比人类还要高效。
与之对应的,强人工智能模拟了完整的人类心智,我们通常会用能否通过“图灵测试”看作强人工智能的判断标准,但这样的人工智能直到今天仍未实现。另外,我们还进一步遐想了“超人工智能”这个概念,顾名思义,就是比人还睿智的人工智能,也就是科幻艺术和大众媒体中最担心的那种情形——但在人工智能的实践上,我们恐怕要说这更接近盲目乐观,追求的强人工智能的征途绝不像一些未来展望者那样,近在咫尺,迫在眉睫,数不清的艰难问题还等着我们攻克。
我们遭遇的第一个问题就是计算机的运算能力。
细胞虽小,却异常复杂,神经元尤其如此。在最微小的尺度上,一个神经元有成千上万个突触与其它细胞连接,释放或接受神经递质,识别数百种独立的活动,随后发出高速传导的神经兴奋,在整个大脑内激起复杂而不确定的反馈,有些突触还可以直接向脑脊液中释放递质和激素,在全身范围内引发更大尺度的反应——时至今日,人类发现细乎仿者胞已近400年,即便动用最强大的超级计算机,也只是静态地构建出了一个突触的微观结构,真要模拟它完整的活动还无能为力——而人脑大约有860亿个神经元。
当然,神经科学与计算机科学的交叉处也的确有了些令人瞩目的成果,比如为人称道的,我们标记了隐杆秀丽线虫(Caenorhabditis elegans)302个神经元的连接方式,大约在2014构建了一个“开放蠕虫”的项目大派,试图用计算机模拟出一个等效于实体的虚拟线虫——但这个项目才刚刚起步,尚未收获成果,而且这个研究对象也是出奇的简单:它雌雄同体,全身固定有959个细胞,每个细胞的行为都专一且固定,神经活动非常单调,我们因此得以详细地观察它,用现在的手段模拟它们。
但是如果因为这一点星光就以为破晓来临,以为秀丽线虫的神经节与人类的大脑只是神经元的数目有所差异,只要计算速度够快就能实现质的飞跃——那就未免太天真了。
我们还会遇到动力学参数的壁垒。
如我们提醒过的,以现在的技术,我们还不能模拟神经元的完整活动,让它们在虚拟世界里自主地运动起来。只是在这个项目中,我们既然已经知道了线虫神经的连接方式,就能人为地给这些连接赋予动力学的参数,让这些虚拟神经元活动起来,逼真地模拟一条线虫。就像做题虽然不会,但是拿着答案倒推,也能猜个八九不离十——所以我们称这种做法是自底向上。
然而在目前阶段,不但我们还是个相当差的学生,离开了答案就寸步难行;而且我们遇到的问题也是空前的难题,根本没有现成的答案。
线虫的神经与人类的大脑,就像口中呼气和超级台风,它们之间绝不只是数量的差异。当基本单元通过岁薯种种联系形成复杂的系统,就会在更大的尺度上展现出新的结构。我们很早就对小尺度上的流体运动有了清晰的认识,但这并不代表我们可以从中推导出台风的运动规律。
首先的,线虫的个体差异极小,不同个体的细胞排列方式完全一样,所以作为一种全身透明的实验动物,我们很早就弄清楚了它们神经连接的方式。但人脑完全不是这样,我们拥有数量巨大的神经元,个体差异很大,而且可塑性极强,这令每个人大脑内的神经元连接方式都不一样——换句话说,一个具体的神经元怎样连接不重要,重要的是数量巨大的神经元如何组织成一个复杂的机体。
然而1个神经元、10个神经元、100个神经元、1000个神经元……每增加一个数量级,神经元的活动都会涌现出新的运动规律,从最小层面上神经元处理兴奋的方式,到不同递质的通路的组合方式,到处理不同信息的细胞构成功能模块,到大脑中不同功能区域的协作方式,都是我们必须面对的难题,虽然这些动力学的研究也正在热火朝天的研究中,但这样的研究不可能达到“指数上升”的速度,我们重建人脑的进程也就不能达到指数上升的速度。
所以先不论计算机科学能否一马平川地进步下去,即便计算机运算速度真的能指数上升,也无法在可以预见迅速地模拟出一个人脑:在神经科学和脑科学臻于高度成熟之前,大脑永远是一个黑盒子,我们要想知道大脑在具体的智力活动中在不同层面各自发生了怎样的事情,还困难重重。而且更加现实的情况是,随着我们对人脑的认识逐渐扩大,我们会发现越来越多的新问题。
我们知道的越多,就越发现自己无知,然而糟糕的是,真正的难题还在前方虎视眈眈——我们需要新的计算机原理。
必须意识到,在能否实现“智力”这个巨大的问题上,计算机的运算速度并不是决定性的。以当今的动物界而论,非洲象、长肢领航鲸,它们的大脑都比人的更重,神经元的数量也更多,为何偏偏缺乏智力?在相同的解剖基础上尚且如此,原理完全不同的电路元件,又该如何?
电路元件以金属和半导体为元件,获得了接近光速的信号传递速度,这比起神经元的冲动的确快多了,但也单调多了。电路元件的任何一次反应都只能得到固定的结果,只能在和、或、且的基础上展开一阶逻辑演算,今天,以及未来可以预见的一切计算机程序,都是不同复杂程度的一阶逻辑演算。
“一阶逻辑”已经非常强大,给今天的人类带来了整个21世纪的信息时代,但它只能从几个初始数据开始,根据预存的指令步步推导,绝不越雷池一步。这给计算机带来了那种可贵的可靠性,但也令它失去了更可贵的抽象、推理、创造——我们必须能够定义谓词的二阶和高阶逻辑。
举个例子,面对“a+b”这样的命令,计算机只会按照加法的规则,把a和b加起来,但是对于具有二阶逻辑的人,我们还会思考加法的意义,询问“加法是怎样一种运算?”,接着,我们还会能在三阶逻辑中思考“运算”的意义,询问“怎样规定一类运算?”,进一步的,我们又会在四阶逻辑中思考“规定”的意义,询问“数学上什么样的行为称得上规定?”。
这样的追问可以无穷地回溯下去,理论上,人类的思维可以实现“无穷高阶逻辑”,我们已经在整个哲学史上持续不断地展现了这种能力。对于普通人,我们也可以尝试一个计算机无论如何做不到的思维游戏:随便思考一件事,然后思考“我正在思考这件事”,然后思考“我正在思考‘我正在思考这件事’”,然后思考‘我正在思考“我正在思考‘我正在思考这件事’”’……虽然很费脑子,但我们在理论上也可以无穷地递归下去。
是的,如今所有的计算机都是一阶逻辑,或许在某些实验室里还有二阶逻辑的尝试,但无论怎样,高阶逻辑问题不能规约成低阶逻辑——我们绝不能用加法本身说明什么是加法,这就好像在电视机上做电视机的广告。
也就是说,我们即便动用了空前的计算能力,以不可思议的工作量找到了大脑中的每一个参数,但只要计算机原理不变,就是在用低阶逻辑模拟高阶逻辑——这在数学上不可能,程序员们会发现某些关键的参数无法定义,那个辛苦模拟出来的大脑仍然是个弱人工智能。
这是一个尖锐的问题,即便在另外一些规划中的道路上,用进化算法也好,用其它方式建模也好,它都会横亘在我们的前途中。我们需要一种革命性的计算机,能够实现高阶逻辑的演算,但是在所有已知的事物中,就只有大脑能做到这件事,这就带来一种新的困境:要模拟大脑需要新的计算机,要研究新的计算机就要深入了解大脑。这当然不是无法解决的问题,就好像制造新的机器需要新的材料,合成新的材料需要新的机器,我们在科技进步史上已经邂逅了无数次,没有理由认为我们会败给这一次,但也要做好思想准备,因为这将是一条漫长的路。
这样或者那样的问题会接踵而至,人工智能作为这时代最复杂的应用科学,没有理由认为我们能以逸待劳地只凭计算机科学的进步就让一切问题迎刃而解,更何况退一万步,我们还有一个更加现实的问题要面对。
【伦理障碍】
对与任何革命性的新技术,伦理都是最现实的问题,我们此前目睹了避孕措施对伦理的冲击,就以为伦理在技术面前不堪一击,这就未免太低估了伦理的力量,像“知情权”这样毫无意义的概念被煽动家利用起来蛊惑人心,都可以在食品安全领域掀起巨大的波澜,那么从今天开始数十年乃至上百年对人工智能的担忧积累起来,无论合理还是不合理,都会形成强大的伦理氛围,阻遏强人工智能的研究。
先不论“人工智能灭绝人类”这样惊悚的事情,就以最现实的问题来说,公众一定会关心强人工智能是否具有情感,是不是有了心脏的铁皮人,然而这却是强人工智能的定义中不曾提及的问题。
与其它意识活动不同,人类丰富而细腻的感情是人类作为一种社会动物,协调群体关系时的进化产物,并非智力的必需品。一个强人工智能未必真的具备这些特质,但他一定可以理解这种行为:想象成一个人先天性地没有任何感情,但以细致的观察和精湛的模仿成为了一个无可挑剔的表演家,在舞台上无论是哭是笑,心中都绝无一丝涟漪,犹如用肢体和表情肌完成了最复杂的体操——这大约就是电影《机械姬》中的情形。
长期以来,感情被认为是自由意志最关键的特质,所以我们不得不想象在那样的未来,分辨强人工智能是真的拥有感情还是在逢场作戏,抑或这两种情况并没有区别,都将会成为人工智能领域最重大的课题,也是人类面对自己时最深刻的拷问——无论哪一种结局成真,都意味着一个旧伦理的世界不复存在:我们要不要承认它是一个人?进一步的,“他”是否适用实体法,可以拥有最基本的人权?我们还能不能把“他”囚禁在实验室里?
我们接着就会设想,强人工智能如何利用自己的感情获取人类的信任,争取平等的对待,争取公民权的运动。强人工智能的感情或许只是一层伪装,但人类心底那种与生俱来的同情和善良却是毫无争议的事实,在这样的未来图景之下,强人工智能的研究几乎必然招致严格的限制,就像我们如今对待克隆技术时的做法:我们在上个世纪就掌握了克隆哺乳动物的技巧,但是在可以预见的未来里,这个世界上都不会有克隆人降世。
或者更武断地说,无论技术是否成熟,我们都不会允许一个拥有完全心智的强人工智能轻易问世,我们可能会在全球最重要的实验室里有限额地研发几个被严重削弱的强人工智能,成为认知科学和计算机科学的珍惜样本,如果要想象强人工智能诞生在民用领域,就像《机械公敌》或者《西部世界》那样,就未免不切实际了。
最后,我们要再次反省一下预测未来这件事:一个平静的社会大概激不起人们什么兴趣,所以我们总是在变革的浪潮中“高瞻远瞩”,但是我们忘了,科学革命或许加快了人类探索和改变世界的速度,但人类的认知过程从来都不是一帆风顺。旁观者赞美收获时的成就,却很少理会耕耘时的艰辛,盲目乐观是他们永远无法摆脱的缺陷。
AI发展下去会如何?科学家称能造福人类,也可能毁灭世界?
谈到人工智能,每个人对它的看法都是褒贬不一,AI的出现也让人们看到一个全新的世界,而不仅仅只是限制在人们的幻想和电影中。人工智能带给现在社会太多的便利,可以说是进入了人们的生活中,改变了人们的生活方式,震惊科技发展迅速的同时又在感叹时代更迭所带来的变化。
尽管AI为人类带来的改变有目共睹,依然还是有很大部分人对人工智能保持着谨慎和怀疑的态度,这种情况还不在少数。而有人反对,就肯定有人支持,虽然很多新生事物一开始都不能被人接受,但仍然无法阻止接纳它的人去热爱,真正支持AI发展的人当中,还包含着许多行业大佬,其中就有曾是世界首富的脸书创始人——马克·扎克伯格。
而激烈反对AI大力发展的人中,也有着对于人类发展影响深远的巨头,其中就有著名企业家、慈善家埃隆·马斯克,还包括更被人们熟知的伟大的科学家史蒂芬·霍金。霍金对于AI的态度超乎人们想象,强烈抵制AI的发展,他认为现阶段人工智能的确为人类的发展做出很大贡献,但未来终有一天,人类会灭亡于自己创造的AI手中。
霍金的一席话也引起了人们的深思,他在科学领域的地位举足轻重,前瞻性的目光和为人类做出的贡献都是让人敬佩的原因,霍金的话也让人们对于发展AI的态度变得更加小心谨慎,而人们也把目光转移到AI上来,关注着它的发展方向。
扎克伯格旗下的Facebook曾开展了一个项目,这个项目过程很简单,就是让两个机器人犹如人类一样相互沟通,进行有效的谈判。Facebook的工程师拿了两本书,三个篮球,一顶帽子来让这两个机器人进行合理的分配,而每件物品对每个机器人都有不同的价值,要让它们选择对自己有用的,重要的东滑带西,然后说服对方和自己交换。刚开始的结果很让人满意,两个机器人不约信陆芦而同的都选择了对自己重要的东西,并且保持底线不会交换,对于不需要的物品都主动让给了对方,两人之间的交谈也如同人类一样。
可没过几天,工程师观看它们分配的结果时,发现这两个机器人犹如出现了bug,已从简单的聊天转变成了让人无法理解的话语,双方还交谈悉首的十分顺利,毫无障碍,工作人员细思极恐,当场拔下了机器人的电源,中断了项目实验。虽然后来Facebook的高层曾出面解释了这件事情,大意是因为工作人员设计的过程中出现错误,所以导致了这类事情发生,让大家不要惊慌。
机器的学习能力要远远高于人类,越被训练就越强大,思维能力也在显著增强,甚至可以说没有上限,机器又没有感情,无法衡量道德标准,一旦出现失控的情况,对于整个人类来说都是灾难般的存在。而话又说回来,可怕的其实不是人工智能,一直都是人类本身。

