现在的智驾路线,底层核心是深度学习这种数据驱动的非参数模型,复杂性高、参数量巨大,可解释性很差。所以,人们根本无法把握模型从数据中学到的是什么——是偶发性的样本相关(这对应于典型的过拟合)?还是总体相关?或者真正的因果关系?如果出了问题(bug),很难系统性地定位和修正。因为很难把问题的原因可惜地归结为某个或某几个参数上面。如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,但这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。虽然一些调节超参数的常用trick可以让模型的特定纸面参数变好,例如提升精度或者召回率,但注意这个“或者”一般是不可兼或,这种所谓的提升很大程度上只是春秋笔法用例而已——由于模型的可解释性很差,简单地调调超参根本没法实质性解决伪正率和伪负率之间的矛盾。 所以,你们现在看到的那些智驾bug,在十年之后大概率仍会存在,虽然存在的形式可能略有变化,呵呵。
现在的智驾路线,底层核心是深度学习这种数据驱动的非参数模型,复杂性高、参数量巨大,可解释性很差。所以,人们根本无法把握模型从数据中学到的是什么——是偶发性的样本相关(这对应于典型的过拟合)?还是总体相关?或者真正的因果关系?如果出了问题(bug),很难系统性地定位和修正。因为很难把问题的原因可惜地归结为某个或某几个参数上面。如果强行修改参数,则连锁影响不可控。即使通过引入额外的规则来给bug打补丁,但这种规则一旦多了,其内在的一致性很难保证,系统的维护将变成一个灾难。虽然一些调节超参数的常用trick可以让模型的特定纸面参数变好,例如提升精度或者召回率,但注意这个“或者”一般是不可兼或,这种所谓的提升很大程度上只是春秋笔法用例而已——由于模型的可解释性很差,简单地调调超参根本没法实质性解决伪正率和伪负率之间的矛盾。 所以,你们现在看到的那些智驾bug,在十年之后大概率仍会存在,虽然存在的形式可能略有变化,呵呵。