全部回帖
能不能招点人把系统好好搞搞
这是真正的行业大牛,喷不动
[图片]
xxn不是说性别歧视吗?怎么不找男的
95后妹子不到30岁靠知识年薪大几百万还不强?好家伙
北大多少博士爷达不到这标准?按她的发的paper标准还真算不上这领域的大牛
然后,我司赔了呀,明牌儿挖。
麻烦跟抖音极速版的同事说一下,多给我点金币
这人也不是 deepseek 的核心领导吧
人家就是 deepseek2 的核心领导
是不是大牛我不知道,我觉得她很了不起,比我身边大部分人都强得多,比我也厉害,大牛的水平我也分辨不出来,这种靠自己努力脱颖而出的人我都很佩服
能本地部署还是收费的?
可以本地部署,不过至少要700G的显存。个人还是去用它的api吧。
排行榜一大堆,有的qwen比deepseek强,有的deepseek比qwen强,你要信哪个?
deepseek v2.5时确实和千问各有千秋,deepseek更偏编程一点。不过现在deepseek是v3了,确实领先千问不少。但说不定哪天千问3出了,反超也不一定。
能和gdp比的压根没有啊
claude,某些方面能领先
这……
我弄了个80b的,撑爆了我的1080
1080太老了实在,大模型还是要4090或者3090
啥意思? 你是说性能么?
我看到底下有人说要至少700G的显存,这本地部署要求太高了
我觉得人工智能的数学都挺差的,这是之前用chatgpt的感觉,当然现在发展成啥样了还不知道
这和底层原理有关系,他们是根据文本上下文推理的,你让它针对这个问题写一个脚本,用那个脚本去算就很准了
豆包产品可以,模型性能一般。但是老实说,我个人觉得大模型现在就缺好的产品而不是一味的卷性能,在现有的能力下挖掘真正普适性的应用场景。ChatGPT这种对话式的应用还是有点局限
现在的大模型也不是不想做应用吧,问题在于目前还玩不转其他模态的东西呀
这应该是需要集群了…… 有点离谱 咱还是继续ollama 整点小模型用用
用他的api就行了,deepseek在外面能火除了不错的能力,还因为api调用便宜,价格只有gpt, claude的十几分之一。
是半精度的要700G显存,还是用API吧,我刚充了10块试了下能用500万token
差不多得了,刚出点名堂就安个大牛名头开始捧杀了。deepseek很强又不是她很强,有一说一就这姐营销的八篇顶刊里就两篇是一作。真说贡献可能还不如deepseek GitHub里contributor的多:小米一贯的营销手段,我还相信什么龙晶材料呢……
已经在工业界做出成果的人还需要论文来证明能力?
豆包我感觉还是蠢 让他写个数学作业识别个题目都识别不明白
chatgpt最火的时候,我用它做个二年纪的数学题,给我例了一堆东西,结果还是算错.