在今年 6 月的 WWDC 活动上,苹果发布了一项名为 Apple Clips(中文译名轻 App)的新功能,它可以通过提供一个小体积(<10MB)的精简 app 来实现某些特定功能,Keynote 上对它的介绍是轻、快,轻易被发现,需要用到某款 app 时才打开它。
这个理念和「用完即走」的微信小程序不谋而合,再加上扫码也是 Apple Clips 重要的入口,也难怪大家开玩笑说是苹果抄了微信小程序。
随着 iOS 14 的发布,已经有一些 app 开始适配 App Clips 功能,不过现阶段开发者也还在探索,宣发上还没有太多的动作,普通人的感知不强。
作为 iOS 独占的功能,Apple Clips 在受众上注定无法和跨平台的微信小程序相抗衡,它的核心还是提升 iOS 的使用体验,一种 App Store 的推广手段。
那么我们再多一些想象力,有没有什么设备比 iPhone 更加需要用轻量化的方式来使用 app 呢?它的电池很小要追求低功耗,缺少便捷的交互方式,但是可以配备摄像头……苹果可能正在研发中的 AR 眼镜再合适不过了。
AR 眼镜:绝佳的扫码工具
Apple Clips 属于原生 app 的一部分,是系统级的功能,因此它也拥有更多入口,包括 Apple Clip 码、NFC、二维码、Safari、iMessage、地图和 App Library(iOS 14 新功能)。其中有两个入口都和扫码相关。
而 AR 眼镜是一个绝佳的「扫码工具」,摄像头和视线保持一致,可以做到所见所得的效果(可能还要有一个确认的过程)。有了这个扫码动作,AR 眼镜可以快速打通线下和线上场景,方便进行下一步的操作。
除此之外,Apple Clips 还支持苹果苹账户登录和 Apple Pay 功能,这对于缺少输入设备的 AR 眼镜来说也是一个利好,只要配合生物识别就可以大大减少文本的输入工作。
我想象了这样一个场景,带着 AR 眼镜去星巴克买咖啡,通过一个 Apple Clip 码/二维码就可以完成点单、会员录入和支付的工作,甚至全程手机都不用掏出来。
给其他设备修的路
目前关于苹果要出 AR 眼镜的爆料已经很多了,不过大多还是集中在它的硬件部分,其实我最关心的是它将如何交互,毕竟大众面向的是一个陌生的硬件品类。随着对 Apple Clips 了解越多,我越觉得它会成为 AR 眼镜交互中重要的一环。
Apple Clips 拥有更小的体积,更轻快的使用方式,这些对于那些算力和体积有限的设备来说绝对是非常宝贵的特点。
Apple Clips 就像是苹果在 iOS 内给 AR 眼镜修的一条高速公路,它提供了一个更加快速的通道让 App Store 的优势可以在一些场景展示出来,尤其是在一些追求高效、目标明确的线下场景中,这有助于提高 AR 眼镜的可用性。综上,我认为 Apple Clips 野心并不是抢小程序的生意,它的更大价值在于未来为 AR 眼镜乃至其他便携计算设备提供服务。当然以上只是我的个人看法,在苹果下一代计算平台发布之前,所有一切都只是猜测,就让我们拭目以待吧。