Google 现在能猜出一张图片的拍摄地,甚至可以精确到街道

如果从互联网上随便调出一张图片,你能说出这张图片是在哪个地方拍摄的吗?

我觉得,除非这张图中包含比较显眼的地标建筑之类的,不然的话大多数人可能都猜不对。所以,现在又到了证明机器比人更“聪明”的时候,因为 Google 的人工智能技术现在已经能不依靠照片中的地理位置信息来辨别图片的拍摄地点了。个人认为,这个可比让机器认出像猫猫狗狗这类外形基本固定的景物厉害多了。

试想一下,一张陌生的照片摆到你面前,除了地标建筑外,你还能依靠那些元素来判断这张图的拍摄地点?食物类型、车道走向、车牌颜色、建筑风格、衣着样式这些信息或许有帮助,不过,即便依照上面这些条件,人类顶多也只能猜出来个大概区域,但 Google 训练出的人工智能机器最多却能猜到街道级别的精确度

像其它人工智能技术一样,想让机器达到识别图片拍摄地点的能力首先需要有足够多的图片让它学习。Google 团队从网络上爬取了上亿张包含地理位置的图片让机器学习,在这个过程中,人工智能机器自然也就了解了这个星球的部分面貌。

planet

除了提供数据,为了提高精确度,Google 还把地球划分为一个包含 26,000 多个区域的网格。由于每个地方产生的照片有多有少,所以这些网格也大小各异。

在完成了这一系列的训练工作之后,我们当然要看看这个名为 PlaNet 的人工智能的精确度如何。

于是 PlaNet 的设计者们从 Flickr 上找了 230 万张图片来测试效果。结果发现,大约 8 万多张可以定位到街道级别的精度,23 万多张可以定位到城市级别的精度。

不难看出,PlaNet 现在的精度还不足与替代照片中的地理位置信息,但这件事的更大意义在于 Google 的图像识别技术已经不止是对猫、狗、夕阳、落日、大海这些形态比较固定的事物有效了,它的可扩展性其实要比我们日常所想的宽泛得多。

再过几天,Google 的另个人工智能产品 AlphaGo 将对战韩国围棋九段棋手李世石。虽然现在不少分析觉得 AlphaGo 的水平只在职业六段上下,可能赢不了李世石;但我觉得即便这一次 AlphaGo 没成功,人工智能也将在接下来的几年给我们的生活带来更大、更多的改变。

题图来自:Marketingland

订阅更多文章