全部回帖
那是你菜
呵,你这个说话方式跟说鲁迅是文盲有什么区别?说别人菜首先得自己有更强的能力,目前全球也不过是特斯拉的视觉方案,国内华为等厂家的雷达方案,谁把雷达,视觉融合了?张嘴就来做不到就是菜,也就是质疑特斯拉,华为的工程师都笨呗,不如你懂要做就要做视觉加雷达的融合方案才是正确的。在我看来你的回复,就跟张嘴闭嘴说鲁迅是文盲的人,没什么区别,没任何一丁点的价值。
百度也是昧着良心瞎扯了,实际上当前在学术上纯视觉算法比多模式识别差了好几个点,目前雷视融合就是SOTA。至于未来纯视觉能不能超过,我觉得困难。
盲区是最容易解决的 广角镜头加多几个摄像头就轻松解决。人眼是没法长出第三只罢了
视觉永远看不到被阻挡了视线的物体,比如鬼探头之类,而雷达可以探测到。
对啊,这个确实是视觉方案真正的问题。但是大部分情况下够了,因为视觉方案下可以有更多的摄像头和角度,换句话说视觉方案的感知会大于人。
引用内容由于违规已被删除
来给我讲讲您在开车的时候是怎么用耳朵听力使用开普勒效应的~
兄弟,今天上海猪肉多少钱一斤?
我不知道啊,您和我讲讲咋样?
人耳当然听不出来,但雷达不就是干这个的吗?
[图片]
知道听不出来那这个例子成立么?
够了?大雨大雾天,视线不好的夜间我恨不得自己眼睛能发射激光
你的例子就很明确,人的大脑无敌,但是人会累、会走神,还会像你一样情绪焦躁。但是AI不会
你视觉得看到鬼探头了才能减速,不考虑汽车的加速度是吧?说减速就减速的?
你说得这个问题不管视觉还是雷达方案都会遇到,所以在这个问题下毫无意义
我意思是人类的眼睛容易被虎扑轻视,你感觉蝙蝠听觉很牛逼,但是人眼实际还要在他之上。拿单纯一个车做比方。你用激光雷达能看到一个车,一般大小,运动状态,激光雷达肯定可以判断,其他还能看到什么呢?但是人眼,它能看到大小,运动状态,颜色,车型,车牌,车上的东西,人,反光,柔性刚性等等各种信息。它其实是很高级信息量很大的。现阶段拟人我觉得就是牛的AI。有人的视觉加上脑子加上机械身躯已经是无敌了。
对于开车这件事,只需要感知周围物体的形态,速度和运动趋势。人是通过眼睛接收图像,直接判断周围物体的形态,间接判断周围物体的速度,以及趋势;激光雷达可以直接感知周围物体形态,速度,间接计算运动趋势,至于视觉的其他数据,对开车影响并不大,有些还会产生反作用。
人就是纯视觉,真能在软件上做到拟人化,纯视觉绝对是最靠谱的。虽然硬件方面比激光雷达便宜,但是软件开发上难很多。
怪不得百度起了个大早赶了个晚集,搞技术的人不该说这么绝对的话
人眼视角有限,这个简单,多几个角度的摄像头即可。其余主要是人会累会走神反应出了问题
黑夜,黄昏,太多纯视觉方案难处理的场景了。
人类是因为只有视觉吧,对于感知世界来说,那不是优越性,是局限性。
确实,人不是不想自己可以感知周围。而是不能。但凡可以,谁不想要这种能力。
那是,要是眼睛能具备夜视、接收全光谱、无线电波等一系列功能,那简直🐮翻了
因为没必要,如果纯视觉已经达到足够高的精度,说到底造车也是制造业 成本和结果导向之间是要平衡的,不是做科研水paper 非要那小数点后几位的提升
只有弱智才会相信纯视觉能搞定一切,明明就是节省成本,非要吹成算法牛逼。视觉总有看不到的情况,这是信息来源问题,不能靠算法解决,你算法再牛逼也不可能从一片黑暗中看出行人还是垃圾桶。这帮子马粪们早晚有一天会相信马斯克可以用算法取代战斗机上的雷达,用算法发现对方的隐形战斗机,相信用纯视觉可以取代声纳发现大洋深处的核潜艇
道理是没问题的,就和混动、增程是过度方案,最终都会转向纯电一样
只不过这个过程不知道需要多少时间而已