全部回帖
这位兄弟,不知道是语文还是历史问题,让你说这种话啊!1 到底是望远镜看到还是人看到星系呢?就好比你带着眼睛看书,到底是你的眼镜看书还是你在看书呢?难道你眼睛看书和你看书原理不同吗?2 看到银河系是在发明望远镜之前吗?中国历史老祖宗很早就观测到银河系,甚至各种星系远在发明望远镜之前。普及下知识: 望远镜,眼睛,还有人类眼睛晶体都是采用光线折射原理投射到视网膜,然后大脑做出破译。然后你看到整个世界,全是视觉算法。就算现代望远镜,射电望远镜也是视觉原理。有些是人类可见光,有些是人类不可见光(红外线紫外线),但是机器可以看见。机器捕捉,放大,然后通过机器翻译出光谱给人类来看。但是也是视觉原理,因为不同光谱更加广泛提供更多信息。激光雷达其实只啊其中极小视觉光谱,仅仅依靠一种光谱的错误率高。但是你可以接受更多光谱信息更全更精确。所以单一激光雷达错误率更高。另外,人类视觉看不远是因为人类没法放大极其远方来的光线信息,所以需要望远镜甚至电脑机器来放大破译。但是,原理是一模一样,没有区别。区别在于人类在极小像素点信息无法破译,但是特殊望远镜机器可以放大这些信息,破译也是靠人类和编程机器。
这位兄弟,不知道是语文还是历史问题,让你说这种话啊!
1 到底是望远镜看到还是人看到星系呢?就好比你带着眼睛看书,到底是你的眼镜看书还是你在看书呢?难道你眼睛看书和你看书原理不同吗?
2 看到银河系是在发明望远镜之前吗?中国历史老祖宗很早就观测到银河系,甚至各种星系远在发明望远镜之前。
普及下知识: 望远镜,眼睛,还有人类眼睛晶体都是采用光线折射原理投射到视网膜,然后大脑做出破译。然后你看到整个世界,全是视觉算法。
就算现代望远镜,射电望远镜也是视觉原理。有些是人类可见光,有些是人类不可见光(红外线紫外线),但是机器可以看见。机器捕捉,放大,然后通过机器翻译出光谱给人类来看。但是也是视觉原理,因为不同光谱更加广泛提供更多信息。
激光雷达其实只啊其中极小视觉光谱,仅仅依靠一种光谱的错误率高。但是你可以接受更多光谱信息更全更精确。所以单一激光雷达错误率更高。
另外,人类视觉看不远是因为人类没法放大极其远方来的光线信息,所以需要望远镜甚至电脑机器来放大破译。但是,原理是一模一样,没有区别。区别在于人类在极小像素点信息无法破译,但是特殊望远镜机器可以放大这些信息,破译也是靠人类和编程机器。
兄弟,谢谢你的耐心,必须点个赞。我说的再清楚一点吧,自然的选择并不是我们做技术路线选择的依据,因为它太缓慢,而且是受到了诸多的限制。可以把自然的演化理解为技术的匀速进步,而人类这两百年的发展确是大爆炸。这已经是两种模式了。
兄弟,谢谢你的耐心,必须点个赞。我说的再清楚一点吧,自然的选择并不是我们做技术路线选择的依据,因为它太缓慢,而且是受到了诸多的限制。可以把自然的演化理解为技术的匀速进步,而人类这两百年的发展确是大爆炸。这已经是两种模式了。
是你在聊,不想聊了,就闭上你的嘴好吗
不错,你直接说你不想回复就好了~
不错,你直接说你不想回复就好了~
不错,你直接说你不想回复就好了~
你倒是颇有自知之明
你倒是颇有自知之明
你倒是颇有自知之明
当然~你不就是不聊了改斗嘴了吗?
当然~你不就是不聊了改斗嘴了吗?
请问我说的哪里有问题,我做3d检测的,从伪激光雷达到lss这类的特征提升方法,都在强调深度图的构建和质量,这两年的bev加transformer才把显式深度估计转化为隐式,不再着重强调
请问我说的哪里有问题,我做3d检测的,从伪激光雷达到lss这类的特征提升方法,都在强调深度图的构建和质量,这两年的bev加transformer才把显式深度估计转化为隐式,不再着重强调
3d检测和自动驾驶就不是一个赛道~
3d检测尤其是质检要求精度,因为产品要满足工业产品需求。
自动驾驶不需要这么高的精度,前面那个不是你的马甲吧?我随口说了句ai质检他就怂了,还能这么巧都碰上?
3d检测和自动驾驶就不是一个赛道~
3d检测尤其是质检要求精度,因为产品要满足工业产品需求。
自动驾驶不需要这么高的精度,前面那个不是你的马甲吧?我随口说了句ai质检他就怂了,还能这么巧都碰上?
以目前自动驾驶的水平,平替人类尚且明显有距离,所以显然没必要去看星辰大海。而且如你所说,军事领域的结论是近距离用光电,雷达用在超视距。军事的近距离放到驾驶上已经是一个非常夸张的距离了
[图片]
以目前自动驾驶的水平,平替人类尚且明显有距离,所以显然没必要去看星辰大海。
而且如你所说,军事领域的结论是近距离用光电,雷达用在超视距。
军事的近距离放到驾驶上已经是一个非常夸张的距离了
关键军事上用的光电跟咱们车用的摄像头距离和精度也是差的离谱啊
关键军事上用的光电跟咱们车用的摄像头距离和精度也是差的离谱啊
你可以说下你认为哪篇论文里发表了那些观点,让我去拜读下~还是懂得都懂,您懒得讲了?
DA-BEV,里面有讲图像感知的缺陷以及改进。要详细了解就去看综述,3D Object Detection for Autonomous Driving: A Review and New Outlooks
DA-BEV,里面有讲图像感知的缺陷以及改进。要详细了解就去看综述,3D Object Detection for Autonomous Driving: A Review and New Outlooks
关键军事上用的光电跟咱们车用的摄像头距离和精度也是差的离谱啊
关键军事上用的光电跟咱们车用的摄像头距离和精度也是差的离谱啊
对啊,不过对于高精度的军事在近距离选择里光电方案,在远距离选择雷达。
换句话说,如果追求高精度,现成作业是光电,不用雷达
对啊,不过对于高精度的军事在近距离选择里光电方案,在远距离选择雷达。
换句话说,如果追求高精度,现成作业是光电,不用雷达
3d检测和自动驾驶就不是一个赛道~3d检测尤其是质检要求精度,因为产品要满足工业产品需求。自动驾驶不需要这么高的精度,前面那个不是你的马甲吧?我随口说了句ai质检他就怂了,还能这么巧都碰上?
[图片]
3d检测和自动驾驶就不是一个赛道~
3d检测尤其是质检要求精度,因为产品要满足工业产品需求。
自动驾驶不需要这么高的精度,前面那个不是你的马甲吧?我随口说了句ai质检他就怂了,还能这么巧都碰上?
有没有懂的朋友来回复一下他上面两句话
有没有懂的朋友来回复一下他上面两句话
DA-BEV,里面有讲图像感知的缺陷以及改进。要详细了解就去看综述,3D Object Detection for Autonomous Driving: A Review and New Outlooks
DA-BEV,里面有讲图像感知的缺陷以及改进。要详细了解就去看综述,3D Object Detection for Autonomous Driving: A Review and New Outlooks
你这个有什么意义?有缺陷不用你说啊,要不我教下怎么论证?
如果你打算论证视觉方案在自动驾驶领域没有未来,你要这样:
1、自动驾驶需要什么样的要求,或者存在哪些现实困难。
2、纯视觉路线的特点和缺点,这些特点和缺点与自动驾驶需求的匹配
。
3、如果视觉路线的缺点正好无法满足自动驾驶的要求,那么结论自动驾驶不能用纯视觉,这个才叫论证。
你告诉我视觉方案的缺点和解决方式有啥用?嗯?
你还不如给我一篇研究人类有啥缺点的论文证明人有啥毛病有价值~
你这个有什么意义?有缺陷不用你说啊,要不我教下怎么论证?
如果你打算论证视觉方案在自动驾驶领域没有未来,你要这样:
1、自动驾驶需要什么样的要求,或者存在哪些现实困难。
2、纯视觉路线的特点和缺点,这些特点和缺点与自动驾驶需求的匹配
。
3、如果视觉路线的缺点正好无法满足自动驾驶的要求,那么结论自动驾驶不能用纯视觉,这个才叫论证。
你告诉我视觉方案的缺点和解决方式有啥用?嗯?
你还不如给我一篇研究人类有啥缺点的论文证明人有啥毛病有价值~
你这个有什么意义?有缺陷不用你说啊,要不我教下怎么论证?如果你打算论证视觉方案在自动驾驶领域没有未来,你要这样:1、自动驾驶需要什么样的要求,或者存在哪些现实困难。2、纯视觉路线的特点和缺点,这些特点和缺点与自动驾驶需求的匹配。3、如果视觉路线的缺点正好无法满足自动驾驶的要求,那么结论自动驾驶不能用纯视觉,这个才叫论证。你告诉我视觉方案的缺点和解决方式有啥用?嗯?你还不如给我一篇研究人类有啥缺点的论文证明人有啥毛病有价值~
[图片]
你这个有什么意义?有缺陷不用你说啊,要不我教下怎么论证?
如果你打算论证视觉方案在自动驾驶领域没有未来,你要这样:
1、自动驾驶需要什么样的要求,或者存在哪些现实困难。
2、纯视觉路线的特点和缺点,这些特点和缺点与自动驾驶需求的匹配
。
3、如果视觉路线的缺点正好无法满足自动驾驶的要求,那么结论自动驾驶不能用纯视觉,这个才叫论证。
你告诉我视觉方案的缺点和解决方式有啥用?嗯?
你还不如给我一篇研究人类有啥缺点的论文证明人有啥毛病有价值~
我的观点一直是图像中获取深度信息是困难的,其他一些观点我不懂也不会多说什么,你觉得对就行
我的观点一直是图像中获取深度信息是困难的,其他一些观点我不懂也不会多说什么,你觉得对就行
吵什么吵,看未来5年世界的自动驾驶技术发展方向就会证明谁是正确的。
纯视觉方案的上限只能无线接近人驾,但永远无法超越人驾。
汽车发展路线:新能源汽车-智能汽车-飞行智能汽车-中/高空智能飞船
纯视觉的探测范围很小,局限很大,肯定是跟不上智能汽车的发展需求
而视觉+雷达融合方案(未来不止是激光/毫米波/超声波雷达)的上限很高,从汽车升级到太空飞船都可以使用。
吵什么吵,看未来5年世界的自动驾驶技术发展方向就会证明谁是正确的。
纯视觉方案的上限只能无线接近人驾,但永远无法超越人驾。
汽车发展路线:新能源汽车-智能汽车-飞行智能汽车-中/高空智能飞船
纯视觉的探测范围很小,局限很大,肯定是跟不上智能汽车的发展需求
而视觉+雷达融合方案(未来不止是激光/毫米波/超声波雷达)的上限很高,从汽车升级到太空飞船都可以使用。
【「最强」自动驾驶如何炼成?特斯拉FSD进化史:超深度解读-哔哩哔哩】 https://b23.tv/cu8HfZA
作为一个玩了图像处理快20年,有医学图像领域博士学位的模式识别领域老人,fsd v12全新的端到端技术路线真心刷新我的认知。我想业内真正懂行的人都知道这意味着什么。预计下半年国产品牌也逐步会推出基于transformer的端到端驾驶决策系统。
多模态输入依赖大量规则条件判断约束和adhoc设计,说实话,放在2024年已经有些过时了。毕竟人工标定是没法枚举所有场景情况的,自动驾驶本质上是一个np难的问题。
scaling-up(力大飞砖)定理已经开始颠覆各种传统技术认知——在训练样本够多、模型够大、算力够高(车机端推理层面)的情况下,多模态输入不一定就能比单模态好。
所以百度这边的观点其实没毛病,只是很多外行人还在传统认知桎梏中。
【「最强」自动驾驶如何炼成?特斯拉FSD进化史:超深度解读-哔哩哔哩】 https://b23.tv/cu8HfZA
作为一个玩了图像处理快20年,有医学图像领域博士学位的模式识别领域老人,fsd v12全新的端到端技术路线真心刷新我的认知。我想业内真正懂行的人都知道这意味着什么。预计下半年国产品牌也逐步会推出基于transformer的端到端驾驶决策系统。
多模态输入依赖大量规则条件判断约束和adhoc设计,说实话,放在2024年已经有些过时了。毕竟人工标定是没法枚举所有场景情况的,自动驾驶本质上是一个np难的问题。
scaling-up(力大飞砖)定理已经开始颠覆各种传统技术认知——在训练样本够多、模型够大、算力够高(车机端推理层面)的情况下,多模态输入不一定就能比单模态好。
所以百度这边的观点其实没毛病,只是很多外行人还在传统认知桎梏中。
【「最强」自动驾驶如何炼成?特斯拉FSD进化史:超深度解读-哔哩哔哩】 https://b23.tv/cu8HfZA作为一个玩了图像处理快20年,有医学图像领域博士学位的模式识别领域老人,fsd v12全新的端到端技术路线真心刷新我的认知。我想业内真正懂行的人都知道这意味着什么。预计下半年国产品牌也逐步会推出基于transformer的端到端驾驶决策系统。多模态输入依赖大量规则条件判断约束和adhoc设计,说实话,放在2024年已经有些过时了。毕竟人工标定是没法枚举所有场景情况的,自动驾驶本质上是一个np难的问题。scaling-up(力大飞砖)定理已经开始颠覆各种传统技术认知——在训练样本够多、模型够大、算力够高(车机端推理层面)的情况下,多模态输入不一定就能比单模态好。所以百度这边的观点其实没毛病,只是很多外行人还在传统认知桎梏中。
[图片]
【「最强」自动驾驶如何炼成?特斯拉FSD进化史:超深度解读-哔哩哔哩】 https://b23.tv/cu8HfZA
作为一个玩了图像处理快20年,有医学图像领域博士学位的模式识别领域老人,fsd v12全新的端到端技术路线真心刷新我的认知。我想业内真正懂行的人都知道这意味着什么。预计下半年国产品牌也逐步会推出基于transformer的端到端驾驶决策系统。
多模态输入依赖大量规则条件判断约束和adhoc设计,说实话,放在2024年已经有些过时了。毕竟人工标定是没法枚举所有场景情况的,自动驾驶本质上是一个np难的问题。
scaling-up(力大飞砖)定理已经开始颠覆各种传统技术认知——在训练样本够多、模型够大、算力够高(车机端推理层面)的情况下,多模态输入不一定就能比单模态好。
所以百度这边的观点其实没毛病,只是很多外行人还在传统认知桎梏中。
补充一下,所谓的纯视觉也不是当儿单目摄像头,像特斯拉就是八个摄像头同时工作(当然,成本还是很低)。堆料(激光雷达)不一定就是高科技,有时更多是一个妥协。
补充一下,所谓的纯视觉也不是当儿单目摄像头,像特斯拉就是八个摄像头同时工作(当然,成本还是很低)。堆料(激光雷达)不一定就是高科技,有时更多是一个妥协。
上海匡慧网络科技有限公司 沪B2-20211235 沪ICP备2021021198号-6 Copyright ©2021 KUANGHUI All Rights Reserved. 匡慧公司 版权所有