全部回帖
加了倒挡,国内的L2是不控制挡位的。毕竟后向没有双目摄像头,没有激光雷达。马斯克不怕,反正撞了都是粉丝自己选的。
一般,如果这个视频是华为的早上热搜了
你在说个毛啊,你不会以为AI不是代码吧,其实所有的智能驾驶都是系统判断决策,都是人工智能,差别只是算法逻辑的优劣及算力的大小。由于老美对我们高端芯片禁售,他们的整体算力跟单个芯片的算力都是远超我们,所以未来我们在AI领域包括智驾被拉开差距也是必然的。
就喜欢你这种一本正经胡说八道的选手
[图片]
就喜欢你们这种自以为很懂但也说不出来的。
你哪怕b站搜一搜端到端啥意思呢?
不如遥遥领先
Ai端到端深度学习才是未来,靠代码永远写不出完美的场景,随着代码不断增多,冲突引发各类bug。只能靠无数的数据才能喂出最像人的智驾,这点国内还差的远,不说训练模型的缺失,但硬件算力就差了成千上百倍,技术上还被制裁,基本算死局
有场景理解能力的智驾 真正的人工智能
所以纯视觉的上限会比雷达高的多的多的多
这个场景别管有车没车,目前除了特家没有一个车企能做到的,还有喷纯视觉的,对向鬼探头的来车,哪个雷达能探测到?
纯视觉,纯雷达都有各自的优缺点,目前最好能做到视觉和雷达结合,更安全。
所谓的代码更多是靠ifelse语句对所有场景的穷举。就是尽可能把开车时可能遇到的所有情况都事先给出一个处理方式,强调的是在预设条件下的处理能力。难点在于必须要尽可能覆盖所有可能出现的场景,也就是说一旦遇到没见过的场景他就不会了。而端到端是喂给机器无数的视频,让他自己理解什么场景应该怎么处理。强调的是随机应变的逻辑能力,好处就是碰到没见过的新场景他也会根据“经验”举一反三,更加合理的去应对。