但Google Now并不成功。一方面是 Google Now 的体验仅仅停留在 Web 服务层面,无法打通系统级别信息,更不要说整合第三方应用层级的信息;
另一方面则是 Android 碎片化的产业现实以及中国安卓市场的政策限制,Android/安卓的 OEM 厂商更希望通过自己的方式来改造 Google Now,比如所谓的「负一屏」。
「负一屏」是指,屏幕解锁后向右滑动调出最左侧的屏幕,目前主流的华为、小米都具有了负一屏的功能。这个屏幕的呈现形式并非 App,而是 App 内的信息,比如应用建议、生活服务、视频推荐等等,下图是华为 Emui 5.0 的负一屏幕。

苹果也在打造自己的「负一屏」,只不过苹果称之为「通知中心」。自 iOS 8 开始,苹果允许第三方开发者的应用组件添加到通知中心,这意味着,用户在 iPhone 的屏幕顶部向下滑,可以方便地看到来自系统应用和第三方应用的重要信息。

不管是 Google 还是 Android/安卓厂商以及苹果,他们都在通过一个全新的屏幕来变革用户对于不同等级应用的使用体验,但这种方法更像是一种无可奈何的妥协。因为,这一个所谓的「负一屏幕」依然不过是一种应用信息的堆积,与首屏上堆积的应用没有本质的差异。
手机的未来是重新定义人机关系要从根本上解决这个难题,首先需要让智能手机具备更具延展性的「智能」。比如,如何理解用户对于某些应用的特殊访问需求,如何理解不同应用之间的关系,这构成了一种全新的人机关系思考:当智能手机越来越懂得用户需求时,人机关系会进入到一个怎样的阶段?
2017 年,苹果在 iOS 上提供了一个解决方案,通过 Siri 的搜索建议和查询建议,试图颠覆过往用户对于智能手机就是 App 的体验,其数据来自以下几个方面:
系统级别应用,如 Safari 浏览历史、电子邮件、信息、联系人;
已经下载安装的第三方应用信息;
你可以在 iOS 11 的设置里,找到 Siri 与搜索,向下拉就会看到支持 Siri 搜索和建议的第三方应用列表,你可以自由定制是否启用。

当用户下拉屏幕顶部,搜索框下面的 Siri 应用建议则是苹果通过机器学习模型推测出的结果,可能是最近使用过应用,或者使用频率高的应用,关于这个模型的具体计算方法还无从知晓。
类似地,华为也曾说过 Emui 具备这样的「学习」能力,其核心就是通过分析用户使用应用的习惯和应用点击频率来感知和学习用户习惯,从而形成用户的习惯模型,并在用户下一步操作之前优先调度手机资源。

不过,由于苹果在 Siri 的优化和创新并没有结合集成在 A11 仿生芯片里的神经网络功能,这也极大限制了 Siri 的能力,最终给用户的,则是一种可有可无的体验。
而在上周的 Google I/O 大会上,Google 也介绍了下一代 Android P 的诸多新特性,贯穿这一切的都是人工智能。
与其他公司专注将神经网络引擎用于图像处理的理念不同,Google 要用人工智能颠覆过往一切依赖操作 App 的智能手机体验。
比如 Action 功能,这是将机器学习用于对用户使用手机使用习惯的学习和分析,从而来自动推荐下一步操作。初看起来,这个功能似乎和苹果、华为的做法类似,但 Google 是将这项功能同时开放给应用开发者,这意味着,随着应用开发者越来越多接入这个模块,Android P 的用户体验与 iOS 和华为的 Emui 会完全不同。

如果说 Action 是机器学习的「主动」初级,那么 Slice 功能则是 Google 对于智能手机交互的另一个思考。过往用户与手机之间的联系需要一个个 App,Alice 则将这种联系简化为一个搜索框,当然这是 Google 的搜索框。
如下图所示,在手机的 Google 搜索框输入「Lyft」,可以直接显示相关信息,涵盖了时间、距离、费用预估等,当然你可以直接在这里叫车。














闽公网安备 35020302000061号