全部回帖
引用内容由于违规已被删除
我来发表一点点不同的看法吧。本人刚好有幸参与了vision pro这个项目。众所周知,meta其实押宝VR,但是VR十分受限于空间以及装备,导致各大厂商不愿意围绕VR去建立生态。而苹果这个MR其实是相当厉害的,它做到了在虚拟和现实之间的自由切换,虽然现实画面是通过计算后呈现在显示屏上,但是延迟只有12ms,不会出现其他AR设备高延迟带来的不适感。
苹果的设想是vision pro最终迭代至像近视眼镜那般大小,那么iphone就可以完全被取代了,但这对光学,声学,制造工艺等要求相当之高,至少目前是不可能实现的,但未来的事谁知道呢。
我来发表一点点不同的看法吧。本人刚好有幸参与了vision pro这个项目。众所周知,meta其实押宝VR,但是VR十分受限于空间以及装备,导致各大厂商不愿意围绕VR去建立生态。而苹果这个MR其实是相当厉害的,它做到了在虚拟和现实之间的自由切换,虽然现实画面是通过计算后呈现在显示屏上,但是延迟只有12ms,不会出现其他AR设备高延迟带来的不适感。
苹果的设想是vision pro最终迭代至像近视眼镜那般大小,那么iphone就可以完全被取代了,但这对光学,声学,制造工艺等要求相当之高,至少目前是不可能实现的,但未来的事谁知道呢。
云计算已经普及了,6g根本不需要那速度,Wi-Fi6和5g就够用了,至于远距离无线充电 十年内不太可能 有生之年或许可以
云计算已经普及了,6g根本不需要那速度,Wi-Fi6和5g就够用了,至于远距离无线充电 十年内不太可能 有生之年或许可以
5G和WIFI6极限速度都是10Gbps 左右。不太能支撑两块4K屏的数据流。
官网给出的显示屏数据是 23,000,000 像素点,需要的数据量就是23000000*3*8=0.514Gbit,那么算上双眼再加上摄像头数据至少都要0.514*2=1.028Gbit ,也就是一帧数据就需要1Gbit数据量了,还不算其他摄像头的数据,5G和WIFI6的极限速度10Gbps 一秒也就显示10帧不到,就算弄多几路再加上压缩算法也是远远不够的。
5G和WIFI6极限速度都是10Gbps 左右。不太能支撑两块4K屏的数据流。
官网给出的显示屏数据是 23,000,000 像素点,需要的数据量就是23000000*3*8=0.514Gbit,那么算上双眼再加上摄像头数据至少都要0.514*2=1.028Gbit ,也就是一帧数据就需要1Gbit数据量了,还不算其他摄像头的数据,5G和WIFI6的极限速度10Gbps 一秒也就显示10帧不到,就算弄多几路再加上压缩算法也是远远不够的。
iPhone1刚出来的时候有多少人觉得它会是未来呢? 未来的事情留到未来再说。
iPhone1刚出来的时候有多少人觉得它会是未来呢? 未来的事情留到未来再说。
虽然我不知道未来十年普及的是什么,但如果你拿不出清北或同等级本硕博的毕业证的话,那我觉得未来十年普及的肯定不是云计算+6G+远距离无线充电。
虽然我不知道未来十年普及的是什么,但如果你拿不出清北或同等级本硕博的毕业证的话,那我觉得未来十年普及的肯定不是云计算+6G+远距离无线充电。
我出几个猜想:1.三十年里生物发电技术突破,电池植入人体后可以利用人体直接发电。2.随后可植入的视听交互设备开始流行。一次植入几乎可以用一生(只是接受发射中端,依托云存在,几乎不需要升级),这个过程可能持续50到100年。3.随后人脑信号和电子信号的互译设备开始出现,人脑可以接入互联网的时代开启
我出几个猜想:1.三十年里生物发电技术突破,电池植入人体后可以利用人体直接发电。2.随后可植入的视听交互设备开始流行。一次植入几乎可以用一生(只是接受发射中端,依托云存在,几乎不需要升级),这个过程可能持续50到100年。3.随后人脑信号和电子信号的互译设备开始出现,人脑可以接入互联网的时代开启
5G和WIFI6极限速度都是10Gbps 左右。不太能支撑两块4K屏的数据流。
官网给出的显示屏数据是 23,000,000 像素点,需要的数据量就是23000000*3*8=0.514Gbit,那么算上双眼再加上摄像头数据至少都要0.514*2=1.028Gbit ,也就是一帧数据就需要1Gbit数据量了,还不算其他摄像头的数据,5G和WIFI6的极限速度10Gbps 一秒也就显示10帧不到,就算弄多几路再加上压缩算法也是远远不够的。
5G和WIFI6极限速度都是10Gbps 左右。不太能支撑两块4K屏的数据流。
官网给出的显示屏数据是 23,000,000 像素点,需要的数据量就是23000000*3*8=0.514Gbit,那么算上双眼再加上摄像头数据至少都要0.514*2=1.028Gbit ,也就是一帧数据就需要1Gbit数据量了,还不算其他摄像头的数据,5G和WIFI6的极限速度10Gbps 一秒也就显示10帧不到,就算弄多几路再加上压缩算法也是远远不够的。
视频编码之后大小不是按你这样算的,要这么算几部2k日本小电影不就得把你电脑硬盘撑爆了
视频编码之后大小不是按你这样算的,要这么算几部2k日本小电影不就得把你电脑硬盘撑爆了
视频编码之后大小不是按你这样算的,要这么算几部2k日本小电影不就得把你电脑硬盘撑爆了
视频编码之后大小不是按你这样算的,要这么算几部2k日本小电影不就得把你电脑硬盘撑爆了
实现高压缩比的代价:
1、画质损失。显示效果打折扣。
2、耗时增加。延时增加。
3、硬件开销加大。需要增加编码/解码芯片,成本增加。
相信苹果之所以不把处理器放到外面就是因为数据传输的限制。
实现高压缩比的代价:
1、画质损失。显示效果打折扣。
2、耗时增加。延时增加。
3、硬件开销加大。需要增加编码/解码芯片,成本增加。
相信苹果之所以不把处理器放到外面就是因为数据传输的限制。
云计算+6g的问题是隐私和网络稳定性,对用户体验都是致命的
云计算+6g的问题是隐私和网络稳定性,对用户体验都是致命的
正如某人说的,中国人不太重视隐私。现在有很多联网摄像头不就是例子吗?这些摄像头同样可能存在隐私泄露风险。
当然,如果你真的很重视隐私,那也可以自己搭建个服务器。
至于网络稳定性,就看到时候技术发展了。
正如某人说的,中国人不太重视隐私。现在有很多联网摄像头不就是例子吗?这些摄像头同样可能存在隐私泄露风险。
当然,如果你真的很重视隐私,那也可以自己搭建个服务器。
至于网络稳定性,就看到时候技术发展了。
上海匡慧网络科技有限公司 沪B2-20211235 沪ICP备2021021198号-6 Copyright ©2021 KUANGHUI All Rights Reserved. 匡慧公司 版权所有