“入口”的转型:从搜索、浏览器到Siri、Google Now以及Google Glass

今天,很多人都在传:Google将会把Google Now 服务接入到桌面端的Chrome OS和Chrome浏览器中,甚至还有可能登陆iOS平台。对于这个消息,我倒不感到惊喜,一直以来,人们都没有认识到Google Now的威力,甚至连Siri的强大,都由于语言文化的差异,渐渐地淡忘了。

在当前的新闻大事中,不管是涉及百度、腾讯还是360,往往都会扯到“入口”这个话题上。但我觉得,之前我们讨论的入口已经过时了。现在这个时代,“入口”已经不再是浏览器、搜索、App抑或输入法,而是Siri、Google Now、Google Glass等。

Google-Now-navigation

在移动互联网发展的前几年里,人际交互非常简单,就是人通过键盘或屏幕输入自己想要的东西,所以桌面是入口、搜索是入口、浏览器是入口。但现在,语音技术、智能识别、增强现实技术的发展,人们不再需要去详细的输入数据了,而是通过一句话、一些动作甚至是一些想法,就可以完成信息的输入、搜索、获取等。

举个简单的例子,以前我要寻找附近有哪些好吃的餐馆,我会掏出手机,先在浏览器里输入地点、餐馆、好吃这些信息,然后搜索,并根据搜索结果进行筛选;或者我打开某个App,然后使用它查找附近餐馆的功能,再根据好评度和其他信息选择想去的地方。

但现在或者未来,如果我想找附近好吃的餐馆,只需对着手机说一句:“附近有没有什么好吃的?”然后手机就会给我推荐一些好吃的,甚至会告诉我怎么过去;如果你带着Google Glass,你甚至都不用说,只需看看周围,眼镜中就会通过增强现实告诉你这家店有什么好吃的、评分多少,另一家店有什么好吃的、要注意什么,远处那家店又有什么好吃的、怎么过去等等。

可能很多人并没有觉察到这种转变,但作为未来的一种趋势,入口的转移确确实实在悄悄地发生着。而这种更高级人机交互方式的转变,主要得益于下面几个原因:

新交互方式的形成:语音输入和智能识别技术;各种传感器的普及,比如GPS、3D陀螺仪、加速感应器、距离感应器等(还有比如前几天很火的Galaxy S4的眼球滚动翻页,甚至国外有家叫做uMoove的公司能让所有手机都有眼球和头部跟踪的功能);以及可穿戴式设备的普及,这类设备大多数是通过一些感应人身体的一些动作、活动,来判断人们正在做什么,比如Nike+可监测跑步、Jawbone Up可监测睡眠状态、MYO可监测肌肉状态和动作等。

另一方面,移动互联网基础设施的完善,也会新型入口的形成创造了一些基本条件:比如网速的发展,让很多数据更容易在设备和服务器之间传输;云计算和大数据的发展,让远程计算成为可能,你只需带一个小设备,所有数据都会同步到数据中心,并通过大量计算把一些结果反馈回来;还有就是硬件设备的智能化和敏感度也越来越高了,比如摄像头的精确度已经能通过拍摄人脸来识别肤质、监测心跳了,手机上加速感应器、3D陀螺仪以及麦克风的精度已经足够感应到睡眠中的一些轻微动作了。

而Siri、Google Now、Google Glass则代表着三种典型的入口形式:Siri 最简单,只是语音,但这也最好用。它就像你身边的一个仆人或者管家一样,满足你的一切需求。Google Now就复杂了些,它会利用各种传感器、你的搜索习惯、网页浏览习惯、你上下班的时间、你开车的速度等来给你提供一些更高级的服务。比如你经常开车,他便会告诉你要多运动;你昨晚没设闹钟今天没起来,它仍然会按照你正常的上班时间提前把你叫醒。至于Google Glass,这东西就太未来了,完全替代了你的手机或其他设备,并把前两者的功能全用上了,你可以做任何在智能手机上做的事,包括打游戏。

随着科技的发展,机器总会越来越智能,而人则会因为机器替代了他们的工作而变得越来越懒,变懒之后便更愿意去使用一些简单的东西。所以如果语音输入已经能满足人们90%的需求之后,恐怕就没人再使用搜索工具了(当然搜索本身还在),而这样的话,那些所谓的搜索、浏览器、输入法等,都没有意义,人们使用的,是ROM甚至是设备自带的服务。所以想想现在正在发生的“入口之战”,只不过是在用“过去的技术”来安慰自己罢了。

订阅更多文章