苹果眼镜大概原理就是:
摄像头拍摄外部环境,叠加上相应的虚拟界面,显示到眼镜上的显示屏;
其他人从外面看到的佩戴者的眼睛是通过提前拍照学习来生成的"假眼";
通过旋钮和手势来交互;
通过骨传导来传递声音;
剩下的就是相当于一台电脑或者手机的功能了:图像处理,声音,通话,阅读等等。
要做好这些功能当然不容易,但是我看到这些功能的时候都能理解大概原理,没有那种"这怎么实现的?"的惊讶感,所以我认为算不上划时代。当然,苹果做出来了,对推动行业发展是有积极作用的。
再说回标题,个人认为未来(10年左右)普及的不会是现在苹果这种模式,而是:云计算+6G+远距离无线充电。
总之终极目标就是:眼镜只需要实现拍摄和显示功能就行了,最大限度精简功能从而压缩眼镜体积,计算部分可以通过无线来连接云计算或者手机或者放个主机都行。
苹果眼镜大概原理就是:
摄像头拍摄外部环境,叠加上相应的虚拟界面,显示到眼镜上的显示屏;
其他人从外面看到的佩戴者的眼睛是通过提前拍照学习来生成的"假眼";
通过旋钮和手势来交互;
通过骨传导来传递声音;
剩下的就是相当于一台电脑或者手机的功能了:图像处理,声音,通话,阅读等等。
要做好这些功能当然不容易,但是我看到这些功能的时候都能理解大概原理,没有那种"这怎么实现的?"的惊讶感,所以我认为算不上划时代。当然,苹果做出来了,对推动行业发展是有积极作用的。
再说回标题,个人认为未来(10年左右)普及的不会是现在苹果这种模式,而是:云计算+6G+远距离无线充电。
总之终极目标就是:眼镜只需要实现拍摄和显示功能就行了,最大限度精简功能从而压缩眼镜体积,计算部分可以通过无线来连接云计算或者手机或者放个主机都行。