Google I/O 2018全纪录:AI 很强 分不清现在还是未来
不但能识别问题,还能解决问题的相机
在去年的 Google I/O 大会上,Google Lens 以新功能的角色惊艳登场。
而在一年后的今天,Google Lens 不但能基于 AI 技术对文本、物体进行识别,而且也能够通过 AI 技术来解答用户「看见」的疑问。
在识别文本后对内容进行复制、粘贴是 Google Lens 的基础功能。但在结合 AI 技术后,用户在扫面特定环境的单词后,可直接查看该物品的图像。
比方说我现在在餐馆,在点菜前我想看看这家餐馆的「凯撒沙拉」出品是怎样的。这时候我只需要使用 Google Lens 对菜单上的「凯撒沙拉」进行扫描,系统即可帮我反馈菜品的图片内容。
「文本识别」对于现在的智能手机来讲可能已经算是个「小儿科」了,再怎么说也只是一个文本识别系统而已。不过,今年 Google Lens 加入了对物体的风格匹配和场景实时匹配的支持,功能上比之前的 Google Lens 进步了不少。
同样是基于 AI 技术,用户可以通过 Google Lens 对自己感兴趣的物体进行识别,并获得风格相似的产品;同时,Google Lens 也能通过实时的云 TPU 数据为用户提供所摄物体的实时检视,并提供检视的相关内容。
再举个例子,当 Google Lens 识别到某个歌手的画像时,系统会通过画中画形式将歌手的 MV 播放出来。
理论看上去比较枯燥,其实可以浓缩成一句话——
经过一年的技术沉淀,Google Lens 从帮用户「看问题」升级成了主动帮助用户「解答问题」了。
值得一提的是,本次更新 Google Lens 增加了对四家中国智能设备厂商的支持,其中包括有小米、华硕、一加和 TCL。
AI 不单只在手机上,甚至连车都能开了
无人驾驶是近年互联网热议的话题之一,在今年大会结束前,Google 向大家报告了与 Waymo 合作的无人驾驶技术现况。在经过累计 600 万英里的公路测试后,凤凰城会在不久后的将来成为 Google / Waymo 无人驾驶汽车的第一座试点城市。
AI 很强,但我们却仍有一丝遗憾
看完了这场将近两个小时的开发者盛会,我和熬夜的同事只觉时间过地太快。而我们没猜中开头,没猜中中间,也没猜到结尾。
没猜到这是 Google 最特别的一次开场。当 Google CEO 桑达拉·皮蔡说出「AI」这个词后,人们期待着 Google 将拿出震惊全场的新作品时,从皮查伊口中说出的却是「Responsibility」。
这个在很多人印象中理工男气质浓厚的科技公司,在那一刻要讲得却不是什么黑科技、不是什么新设备。而是作为一家科技公司的责任,一个面向社会的责任——「Deep responsibility to get this right」。
我们没有猜到 Google Assistant 能够像人类一样和人类通电话,昨天我还在和朋友开玩笑说 AI 界也就靠估值刷刷存在感了,今天就被 AI 打了脸。即便这个人工智能还有很长一段路要走,但 Google 又一次让我们知道了 AI 并不完全是个泡沫。
我们没猜到结尾,是因为有些草草收尾而意犹未尽,我们还没来得及吸收如此多的信息,就只能期待着下一年的 I/O。
这一次,面对依然能够令人兴奋的 Google I/O 大会,希望我们不用再有临渊羡鱼之感,见证了就好。