AlphaGo 连胜李世石两局,向人们证明了机器的“智慧”。AlphaGo 是人工智能在应用上的体现,但是人工智能并不是只能用来下围棋。
The Next Web 发现了一篇 Google 的报告,介绍了 Google 是如何利用“卷积神经网络”(AlphaGo 也基于此)来让14台机械臂相互学习如何拿起小物件的。这个方法模拟了1-4岁的小孩子的学习方式:看大人是怎么拿东西的,然后模仿并学会自己拿东西。
让机械臂去拿一个东西并不难,只要设定好程序,机器就能做到。难的是,让机器看到东西在那里,然后自主找出最佳的拿到它的方法。在这个过程中,机器会需要不断的尝试,经历多次失败,在这些经验上改进自己取东西方法。
这个实验的意义在于,今后机器在遇到从没见过的物体或者物体出现在特殊位置的时候,机器不需要人类调整程序,自己会找到取到这个物体的方法。从另一个角度来说,这就是让机器更加智能,降低机器对人类的依赖。
实验过程非常乏味,就是让14个机械臂不停的抓取东西,重复80万次。因为有14只手臂,每次抓取都会略有不同,这14只手臂可以相互学习。
在80万次抓取之后,在没有人工调整程序的情况下,这些机械手展示出了惊人的适应能力:他们学会了调整抓取不同物体的手势,甚至学会了把物体调整到最合适的角度再进行抓取。
不难想象,机器人在神经网络的帮助下将会越来越精准地抓到它想要的物体。Google 的研究者们则认为:“如果未来可以把大规模的机器学习能力应用到机器人控制上,人类将有希望解决机器人和自动化领域存在的若干根本性难题”。鉴于神经网络已经为图像、语言和文本处理领域带来了巨大的改变,我们也有理由期待它有能力让人类在机器动作控制方面达到一个新高度。这一次,AlphaGo 和李世石的对局,有专人来替 AlphaGo 落子,下一次,AlphaGo 或许可以完全依靠自己的机械臂来爪子落子了。
题图来自 VentureBeat
0 条评论
请「登录」后评论