很多朋友对于googleglass属于什么增强现实设备和googleglass怎么用不太懂,今天就由小编来为大家分享,希望可以帮助到大家,下面一起来看看吧!
本文目录
Google Maps的AR导航功能何时上线?操作体验如何?
在报道中DavidPierce表示:“尽管它并非是导航的首选,但无疑是GoogleMaps迈向正确道路的坚实一步。”在报道中他详细介绍了该AR功能的工作原理,首先GoogleMaps会通过GPS来获取当前用户所在的位置,然后再使用街景(StreetView)数据来进一步锁定用户的确切位置。一旦用户的位置被锁定,那么在摄像头上就会显示方向和箭头。报道中写道:“就像是GoogleMaps已经将我的方向引入到现实世界,尽管没其他人可以看到它们。”
他继续说该应用程序似乎不允许您持续使用相机,促使您在一段时间后将其放下,并在您执行此操作时显示其常规地图界面。谷歌负责用户体验RachelInman向Pierce透露这样做的目的是为了满足某些情景而设计的,例如“我要乘坐地铁,我应该从哪个站口下去?”
Pierce在报道中表示谷歌一直在测试用户界面,如果发现摄像头的位置太偏向地面,就会向使用者发出提醒,从而确保能够安全使用这项功能。Pierce表示他所预览的这个版本在正式发布之前可能会进行修改,谷歌并没有说这个AR功能何时上线,只是表示即将会邀请部分导游进行测试,而且只有达到谷歌期望之后才会正式发布。
皮尔斯指出,这有几个要点。首先,该功能的一大优势在于它为人们提供了非常具体的位置定位数据,而且这项功能不大可能仅停留在手机层面,未来可能会重新部署在具备AR功能的智能眼镜设备上。Apple,Facebook,Google,North,Vuzix等公司都在开发或销售自己的AR眼镜,这意味着未来谷歌可能会重新回归GoogleGlass。
google glass未来的趋势是什么?
说起智能眼镜,大家多半会想起影视作品中那些外观酷炫、操作风骚的装备。什么拍照、导航、信息分析都是基本操作,透视、追踪、射个光波也不过是抬抬手或者眨眨眼的事。
比如系列电影《碟中谍》中的角色们佩戴的眼镜。
亦或是短片《怀旧者》中,掩盖戴上即可掩盖世界残酷的眼镜。
▲短片《怀旧者》中设定,父亲摘下眼镜会发现儿子其实是机器人
人们对于智能眼镜的要求,最低的起码也得是著名小学生《柯南》的那副定位眼镜。
这些影视作品中出现的眼镜,饱含着人们对智能眼镜未来的幻想:轻便、可视范围大、解放双手的动作或者语音操作等等。
随着科技的不断发展,智能眼镜也逐渐变成现实。早在前几年,就涌起过一阵智能眼镜的大潮。各家科技厂商纷纷推出智能眼镜,那个时候的科技展会,可能你看到最多的就是为自家厂商站台的智能眼镜。
其中消费级领域里面,最引人关注的应该就是谷歌的GoogleGlass和微软的MR眼镜HoloLens了。
前者虽然外观轻便小巧,但苦于最长也不到5小时的续航时间(如果录制视频甚至只有30分钟),巨大的发热量以及难以适配应用的操作平台,将人们拒之门外。高达1500美元的售价,并不能满足人们心中可以整天戴着眼镜,进行日常办公的美好幻想。试想一下你的头上戴着一个不停发出高温的环状物体,就跟戴上了紧箍咒的孙悟空一样心里发慌。
所以谷歌迫不得已在2015年忍痛宣布停产当前的GoogleGlass,而在同年的12月,微软发布了自家的MR平台HoloLens。它不受线缆限制,可以与周围真实环境中的全息影像互动。虽然开发平台日趋完善,交互体验也很良好,但是依然只有5小时的续航,再加上高达20000元人民币的售价和谷歌带给大家的前车之鉴,也让它跟GoogleGlass一样慢慢淡出普通消费者的视野。
随着谷歌和微软这两大科技巨头在消费级智能眼镜领域的接连失利,还有索尼传闻中的SmartEyeglass也悄无声息没了下文,人们仿佛不再对这个项目产生兴趣。
但是智能眼镜真的凉了吗?
并没有,不仅没凉,反而在某些专业领域大放异彩。
就在前天,陕西1频道就报道了西安交大一附院在HoloLens的帮助下,直接透视到患者的肿瘤位置,成功完成西北首例混合现实技术腹膜后肿瘤切除术。
▲截图自「陕西1频道」微博
而在此之前的2018年11月,西安儿童医院也利用微软HoloLens辅助完成了儿童颅内血管畸形切除手术。西安儿童医院神经外科主任史航宇表示:「在传统方法中,医生在看到二维(2D)片子之后,需要通过空间想象来叠加;AR技术本质是影像技术和影像检查的重新展现,并且支持软件加减、叠加,能让手术成功率、精确率进一步提高。」
▲截图自「Vista看天下」微博
更早的2018年8月,英国AlderHey儿童医院也宣布了希望在手术室中引入HoloLens的计划。
除了医学领域,汽车制造行业也对智能眼镜情有独钟。早在2016年,沃尔沃就开始引入HoloLens进行汽车设计。
紧随其后,法国雷诺卡车公司也利用HoloLens对组装发动机的操作进行可视化控制。
饱受诟病的GoogleGlass也在某些领域帮过不少忙。2014年谷歌就曾邀请网球天王费德勒使用GoogleGlass录制与教练的训练视频。
▲费天王和GoogleGlass
在2017年大火的纪录片《我在故宫修文物》中,也展示了陶瓷修复师窦一村利用GoogleGlass协助完成修复文物的便利之处。
▲截图自纪录片《我在故宫修文物》
除此之外,还有很多富有针对性的产品在专业性较强的领域发光发热。
例如著名物流企业DHL就引进了名为VuzixM100的智能眼镜,配合专业的visionpicking软件进行实时的物品识别、条码阅读、室内导航等无缝衔接操作,使得公认的拣货效率提高了25%。
而成立于2010年的智能眼镜企业Daqri则发力于工业级市场。旗下智能眼镜纷纷利用于石油钻井行业或大型制造业。值得一提的是,它是比谷歌更早搭载Android系统的智能眼镜企业。
这些产品在专业级市场的火爆,证明了智能眼镜在商用领域的潜力,也让智能眼镜行业燃起了希望。
谷歌随即在2017年发布了针对企业的GlassEnterpriseEdition,2018年底其二代产品也现身了GeekBench。
紧随其后,微软也传出了可能会携HoloLens二代参加MWC2019的消息。
▲邀请函上半部分微软故意做的十分模糊,而下面的文字却十分清晰
紧接着迷你版HoloLens的专利也遭到曝光。这份专利让人们看到了智能眼镜设备小型化的未来。
不过尽管消息频频,但智能眼镜距离普通消费者还是有很远的距离,各大厂家在专业级领域积累的经验,正在努力让智能眼镜变得体积更小、续航更长、功能更完美。或许有一天,我们真的会过上戴一副眼镜出门,就可以代替手机进行扫码支付、立体导航、查阅资料、说说话点点头来回微信的生活。
Google现在有多强大?
去年炫技味十足的GoogleI/O大会相信大家还记忆犹新,而在老时间(凌晨1点)、老地方(美国加州山景城的海岸线圆形剧场),老朋友谷歌又召开了今年度的GoogleI/O开发者大会。
在大会一开始,谷歌CEO劈柴哥(SundarPichai)就表示谷歌已经从一家为用户提供搜索结果的公司转变为了一家为帮助用户解决问题的公司。为此,今年的GoogeI/O的愿景便是「为每个人建设一个更加有用的谷歌」(BuildingamorehelpfulGoogleforeveryone)。
那么,谷歌具体是怎么做的呢?
AR让搜索更加有用
大会前半段的叙事都主要围绕如何让谷歌的服务及产品更加有用,比如说搜索。
跟昨天微软的Build2019开发者大会上用HoloLens2的AR/MR模拟演示的阿波罗登月(尽管演示失败)类似,谷歌也十分看重AR的应用,并在其谷歌搜索中加入了AR的玩法。比如当你搜索人体肌肉结构时,你可以利用相机将结构图虚拟地投影至你的书桌上;当你在网上买鞋时,你也可以将它与你现有的衣物摆放到一起,判断搭还是不搭。
在会上谷歌更是将一头大白鲨「搬上」舞台用以演示其生理结构,实际效果还是挺震撼的。而这无疑也预示着微软、谷歌、苹果这几大巨头间在AR应用上的竞争将更加激烈。
GoogleLens:拍一下,承包每个人的衣食住行
之前就已经能将相机「看到」的物体进行检测及分析的GoogleLens在这次GoogleI/O上也得到了升级:
以前GoogleLens已经能做到根据你拍到的衣服提供相关的品牌及价格等信息,根据拍到的狗狗就能马上识别出它的品种等功能,而现在GoogleLens还能让你在拍餐厅菜单时高亮显示出受欢迎的菜肴,选择该菜肴还能显示相关的照片及评论。而在就餐完毕结账时,你还可以将相机对准账单,GoogleLens便会跳出一个菜单,帮你计算小费并分摊账单(当然这个功能在国内似乎就不那么实用了)。
针对文本翻译,GoogleLens不仅能将镜头里的文本翻译成自己熟知的语言,更能朗读出来,以帮助那些无法阅读的人们,让技术惠及更多的人群。
除了自己打电话预约,GoogleAssistant现在还能做更多
在去年的GoogleI/O上,谷歌炫技般地发布了在GoogleAssistant下的Duplex拟人化AI语音助手。因为其只需要用户提供何时何地几个人就能代表用户自动打电话进行预约餐厅、理发等操作而大放异彩,因为就连接电话的人类也难以听出这是由AI打来的电话。
作为升级,今年的Duplex则将语音服务扩展至网络文本(Textsontheweb)上,具体而言就像是租车及预订电影票。比如如果你在日历中已经添加了几天后的行程,你只需要说「帮我在xx平台上租赁下次行程的车辆」,Duplex就能自动将账户中保存的个人信息填写进网页的租赁表格里,用户最后只需点击确认即可。
▲相较步骤繁多的租车流程,只要说一句话显然更加省事
至于整个GoogleAssistant语音助手,谷歌已经通过将整个收集分析语音的AI模型从100GB缩减到了0.5GB,这使得整个处理进程可以在设备本地完成,而不必将数据发送至服务器进行处理,让新版Assistant的处理速度快了10倍。或许这种无延迟、跨应用的体验将真正开启用语音操作手机的时代?
▲在打车界面直接说关闭闪光灯并打开自拍
AndroidQ:该有的都有了
针对今年安卓机上将出现的两大新技术——折叠屏和5G,AndroidQ都已经提前做好了适配工作以支持它们的到来。
除了前瞻性的技术,AndroidQ也加入了目前各个操作系统上均已添加或即将添加的「深色模式」,结合OLED屏特性延长电池续航并在夜晚保护视力。
而继去年发布的控制屏幕使用时长的DigitalWellbeing功能之后,今年的AndroidQ也增加了一项名为FocusMode的新功能,用以在一段特定的时间里屏蔽掉一些应用的干扰,使用户能更专注于手头的事情。
此外,谷歌还将在安卓系统的视频及语音内容中带来LiveCaption及LiveRelay功能。具体而言,LiveCaption就是当用户听力有障碍或需要在公共场合观看视频时,谷歌都会在视频(无论是网络视频还是视频聊天)下方通过机内算法添加字幕;而LiveRelay则是将电话或者语音通话进行实时转录,让听力障碍人士也能进行语音交流。
更便宜的Pixel3A和3AXL
回到「为每个人建设一个更加有用的谷歌」这个主题,除了上述这些更加细致强大以及覆盖更广人群的创新功能,承载这些功能的当然还是设备。如何让设备更加贴近更多的人,价格自然是最重要的影响因素之一,而为了降低设备的价格,谷歌给出了用AI+软件来弥补硬件的解决方案。
此次发布的Pixel3A和Pixel3AXL就是这样的设备。
先说价格,Pixel3A和Pixel3AXL分别399美元(约合2703元人民币)和479美元(约合3245元人民币)的价格让它们成为了谷歌推出的最便宜的「亲儿子」。而在配置上,它们分别配备了5.6及6英寸1080P分辨率OLED显示屏、高通骁龙670SoC以及4+64GB存储,阉割掉了防水及无线充电功能但保留了3.5mm耳机接口(保留该功能招来了现场的一阵欢呼)。
▲颜色命名可以说很谷歌了
当然,配置方面谷歌并没有在发布会上详谈,因为用户买Pixel很大一部分原因便是冲着那颗最强的单摄去的。会上,谷歌也好好地调侃了一番iPhoneX的夜景拍摄能力。
▲PhoneX双关也很谷歌了
不过这两款手机自然还是与中国大陆无缘,而同样无缘的还有谷歌发布的一款智能家居控制中枢NestHubMax,与先前发布的NestHub不同,NestHubMax配备了一颗摄像头,用以面部识别并在不同家庭成员使用时呈现个性化的结果,售价229美元(约合1551元人民币)。
Geek君有话说
总的来说,从当初单纯的一家搜索引擎到如今横跨软硬件、云服务、AI等等的一家大公司,能力越大责任越大的谷歌目标也是时候由单纯提供搜索结果转变为一家为帮助用户解决问题的公司了。而在今天的GoogleI/O上,谷歌也的确都在强调技术之外的社会责任,技术本不应该拿来炫耀,而是应该帮助更多人成就更好的自己。
好了,文章到这里就结束啦,如果本次分享的googleglass属于什么增强现实设备和googleglass怎么用问题对您有所帮助,还望关注下本站哦!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人,本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请与站长联系,一经查实,本站将立刻删除。