企业比国家有钱?谷歌一家公司的净利润,已经超过全世界大多数国家的财政收入。 136回复/ 5073277 浏览

全部回帖

收起
引用 @S1LveR4567 发表的:
只看此人

是是是,懂哥您好。

是是是,懂哥您好。

对不懂的东西有最起码的敬畏之心,你这是我不懂我还有理?

对不懂的东西有最起码的敬畏之心,你这是我不懂我还有理?

亮了(3)
回复
查看评论(2)
引用 @永远的纳什粉 发表的:
只看此人

因为谷歌没有到处宣传遥遥领先吧

[图片]

查看更多

因为谷歌没有到处宣传遥遥领先吧

那么

那么

亮了(2)
回复
引用 @ricardolz 发表的:
只看此人

对不懂的东西有最起码的敬畏之心,你这是我不懂我还有理?

对不懂的东西有最起码的敬畏之心,你这是我不懂我还有理?

那没有,我可戴不上这帽子。我对未知的还是很敬畏的,单纯对你不敬而已。

那没有,我可戴不上这帽子。我对未知的还是很敬畏的,单纯对你不敬而已。

亮了(0)
回复
查看评论(1)
引用 @新江湾吴彦祖 发表的:
只看此人

额。。。但终究谷歌只是提供了这些基础研究,而不是把 ChatGPT 做出来了。。。这就好像人家说文艺复兴是意大利先出现的,你却说没有印刷术造纸术这俩技术意大利没法文艺复兴,所以中国牛逼一样。。。

额。。。但终究谷歌只是提供了这些基础研究,而不是把 ChatGPT 做出来了。。。
这就好像人家说文艺复兴是意大利先出现的,你却说没有印刷术造纸术这俩技术意大利没法文艺复兴,所以中国牛逼一样。。。

Gemini难用的一批,还没copilot 好用

Gemini难用的一批,还没copilot 好用

亮了(0)
回复
引用 @ricardolz 发表的:
只看此人

对不懂的东西有最起码的敬畏之心,你这是我不懂我还有理?

对不懂的东西有最起码的敬畏之心,你这是我不懂我还有理?

字都看不明白还喜欢追着回。你去换个人上课吧,我没兴趣听你讲。不送。

字都看不明白还喜欢追着回。你去换个人上课吧,我没兴趣听你讲。不送。

亮了(0)
回复
查看评论(1)
引用 @新江湾吴彦祖 发表的:
只看此人

额。。。但终究谷歌只是提供了这些基础研究,而不是把 ChatGPT 做出来了。。。这就好像人家说文艺复兴是意大利先出现的,你却说没有印刷术造纸术这俩技术意大利没法文艺复兴,所以中国牛逼一样。。。

额。。。但终究谷歌只是提供了这些基础研究,而不是把 ChatGPT 做出来了。。。
这就好像人家说文艺复兴是意大利先出现的,你却说没有印刷术造纸术这俩技术意大利没法文艺复兴,所以中国牛逼一样。。。

chatgpt就是一个大的transformer产品,仅此而已。gg只是因为大公司的通病,不能花太多钱搞不确定的东西,没用大数据狂train而已。openai startup拿了投资就买卡train,证明了这条路行得通,gg不立马搞了自己的llm?这一波llm的起源就是gg的paper

chatgpt就是一个大的transformer产品,仅此而已。gg只是因为大公司的通病,不能花太多钱搞不确定的东西,没用大数据狂train而已。openai startup拿了投资就买卡train,证明了这条路行得通,gg不立马搞了自己的llm?这一波llm的起源就是gg的paper

亮了(4)
回复
引用 @虎扑Jr7777777777 发表的:
只看此人

谷歌提出了transformer不假,但目前生成式ai用的decoder only架构是openai提出并发展起来的,谷歌目前在生成世ai方面没什么建树,闭源的gpt、claude,开源的llama、千问等都吊打谷歌

谷歌提出了transformer不假,但目前生成式ai用的decoder only架构是openai提出并发展起来的,谷歌目前在生成世ai方面没什么建树,闭源的gpt、claude,开源的llama、千问等都吊打谷歌

搞笑呢 类似于从0到1 的transformer 和把decoder 单独拿出来根本不是一个量级的研究

搞笑呢 类似于从0到1 的transformer 和把decoder 单独拿出来根本不是一个量级的研究

亮了(16)
回复
查看评论(1)
引用 @虎扑JR1502540701 发表的:
只看此人

搞笑呢 类似于从0到1 的transformer 和把decoder 单独拿出来根本不是一个量级的研究

搞笑呢 类似于从0到1 的transformer 和把decoder 单独拿出来根本不是一个量级的研究

谷歌搞出来transformer跟他现在落伍了有冲突吗?
原版encoder-decoder架构适用于翻译,后来纯encoder的bert用于理解,再往后谷歌一直不舍得放弃encoder导致了现在的尴尬局面。

谷歌搞出来transformer跟他现在落伍了有冲突吗?
原版encoder-decoder架构适用于翻译,后来纯encoder的bert用于理解,再往后谷歌一直不舍得放弃encoder导致了现在的尴尬局面。

亮了(14)
回复
查看评论(2)
引用 @S1LveR4567 发表的:
只看此人

那没有,我可戴不上这帽子。我对未知的还是很敬畏的,单纯对你不敬而已。

[图片]

查看更多

那没有,我可戴不上这帽子。我对未知的还是很敬畏的,单纯对你不敬而已。

我天,说不过,气急败坏了这是,开始对人不对事了

我天,说不过,气急败坏了这是,开始对人不对事了

亮了(0)
回复
引用 @S1LveR4567 发表的:
只看此人

字都看不明白还喜欢追着回。你去换个人上课吧,我没兴趣听你讲。不送。

字都看不明白还喜欢追着回。你去换个人上课吧,我没兴趣听你讲。不送。

无知且自大,低端又无品。

无知且自大,低端又无品。

亮了(0)
回复
引用 @小田曦薇 发表的:
只看此人

谷歌这个公司挺有意思,每年全世界断档第一的科研费用,愣是没见到做出啥有用的发明来

谷歌这个公司挺有意思,每年全世界断档第一的科研费用,愣是没见到做出啥有用的发明来

经典我不知道就是没有,我即世界

经典我不知道就是没有,我即世界

亮了(0)
回复
查看评论(1)
引用 @虎扑JR0678484024 发表的:
只看此人

?当下最火的生成式AI就是谷歌搞出来的

?当下最火的生成式AI就是谷歌搞出来的

没必要给科普了 想看的是他们很弱马上要崩盘那种结论

没必要给科普了 想看的是他们很弱马上要崩盘那种结论

亮了(0)
回复
引用 @虎扑JR0678484024 发表的:
只看此人

?当下最火的生成式AI就是谷歌搞出来的

?当下最火的生成式AI就是谷歌搞出来的

没必要给科普了 想看的是他们很弱马上要崩盘那种结论

没必要给科普了 想看的是他们很弱马上要崩盘那种结论

亮了(0)
回复
引用 @快乐家族家庭教师 发表的:
只看此人

不是隔行如隔山,只是这地方三低用户比例力大的惊人而已。这些人基本没有什么对科学和客观规律的敬畏之心,你跟这些人讨论点什么事儿,他们除了谈立场就没有别的本事了。殊不知,逢外必舔和逢外必贬的两拨人,本质上却都是一类人

不是隔行如隔山,只是这地方三低用户比例力大的惊人而已。这些人基本没有什么对科学和客观规律的敬畏之心,你跟这些人讨论点什么事儿,他们除了谈立场就没有别的本事了。殊不知,逢外必舔和逢外必贬的两拨人,本质上却都是一类人

虎扑win就可以

虎扑win就可以

亮了(16)
回复
引用 @虎扑JR1922643964 发表的:
只看此人

Transformer模型是由谷歌的八位研究人员提出的,他们分别是Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N. Gomez、Lukasz Kaiser和Illia Polosukhin。他们于2017年在论文《Attention Is All You Need》中首次提出了这一架构。

Transformer模型的核心思想是利用“自注意力(Self-Attention)”机制来捕捉输入数据中的内在关系,而无需依赖传统的循环神经网络(RNN)或卷积神经网络(CNN)结构。这种机制使得模型能够同时处理输入序列中的所有元素,并捕捉它们之间的复杂关系。

这八位研究人员最初的想法是改进谷歌的机器翻译技术。他们希望通过让机器通读整个句子,分析其所有部分,而不是单个单词逐个翻译,从而获得更好的上下文理解。这一想法经过讨论和碰撞后,最终形成了“Transformer”架构的概念起点——“自我注意力(self-attention)”。

论文《Attention Is All You Need》于2017年12月发表,标志着人工智能领域的一个重要转折点。这篇论文不仅推动了自然语言处理技术的发展,也为后续的研究者和开发者提供了新的工具和思路,极大地扩展了人工智能的应用范围。

如今,Transformer模型不仅嵌入在谷歌搜索和谷歌翻译中,还驱动着几乎所有大型语言模型(LLMs),如ChatGPT和Bard。此外,它还被应用于图像生成、代码生成等领域。

OpenAI 是 gpt-3 的工程实现,这儿可能提的是 attention is all you need

btw, BERT 也是 google 提出来的。

这些 encoder & decoder 各种架构在学术上可以说是非常领先的,而且直接咣咣砸论文,确实牛逼。

Transformer模型是由谷歌的八位研究人员提出的,他们分别是Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N. Gomez、Lukasz Kaiser和Illia Polosukhin。他们于2017年在论文《Attention Is All You Need》中首次提出了这一架构。

Transformer模型的核心思想是利用“自注意力(Self-Attention)”机制来捕捉输入数据中的内在关系,而无需依赖传统的循环神经网络(RNN)或卷积神经网络(CNN)结构。这种机制使得模型能够同时处理输入序列中的所有元素,并捕捉它们之间的复杂关系。

这八位研究人员最初的想法是改进谷歌的机器翻译技术。他们希望通过让机器通读整个句子,分析其所有部分,而不是单个单词逐个翻译,从而获得更好的上下文理解。这一想法经过讨论和碰撞后,最终形成了“Transformer”架构的概念起点——“自我注意力(self-attention)”。

论文《Attention Is All You Need》于2017年12月发表,标志着人工智能领域的一个重要转折点。这篇论文不仅推动了自然语言处理技术的发展,也为后续的研究者和开发者提供了新的工具和思路,极大地扩展了人工智能的应用范围。

如今,Transformer模型不仅嵌入在谷歌搜索和谷歌翻译中,还驱动着几乎所有大型语言模型(LLMs),如ChatGPT和Bard。此外,它还被应用于图像生成、代码生成等领域。

OpenAI 是 gpt-3 的工程实现,这儿可能提的是 attention is all you need

btw, BERT 也是 google 提出来的。

这些 encoder & decoder 各种架构在学术上可以说是非常领先的,而且直接咣咣砸论文,确实牛逼。

但为啥谷歌翻译还是那么垃圾

但为啥谷歌翻译还是那么垃圾

亮了(0)
回复
Re:企业比国家有钱?谷歌一家公司的净利润,已经超过全世界大多数国家的财政收入。
虎扑游戏中心
历史区最热帖
胡塞武装:我们的导弹准确的击中了“艾森豪威尔”号航母!央妈作证,美国:没打着
韩国作为发达国家,为何只有19%的年轻男性超过181厘米?
饭局上,上级示意你帮他挡酒,客人说“你没资格跟我喝”,应该如何应对?
冷门诗人:初唐四杰,我想郑重介绍下初唐四杰王勃杨炯卢照邻骆宾王
世界体育史上害人最多的人:施瓦辛格
李敖有资格看不起金庸吗?
山姆今年营收要过千亿了,为什么在国内这么火啊?????
我国研制时钟6000万年误差小于1秒,将帮助7G网络建设
前三季度经济增量最高的15个城市
深圳在美国相当于什么水平?,能否达到休斯敦的水平?
历史区最新帖
冷门诗人:初唐四杰,我想郑重介绍下初唐四杰王勃杨炯卢照邻骆宾王
《三国演义》人物喜爱榜复赛 64进32 第①②场 诸葛亮VS曹彰
《三国演义》人物喜爱榜复赛 64进32 第⑩场 张辽VS丁奉
戴高乐的军衔为什么到死都是准将?他的功绩完全配得上元帅军衔啊!
分子人类学检测:即便北方汉人也普遍没有所谓胡人基因。
《三国演义》人物喜爱榜复赛 64进32 第⑧场 太史慈VS典韦
《三国演义》人物喜爱榜复赛 64进32 第⑦场 赵云VS徐盛
春秋战国名人半决赛—老子李耳VS孔子孔丘
兄弟们,曹髦这个台词太好了啊,尤其玩游戏的时候给我的感觉,我甚至穿越了
《三国演义》人物喜爱榜复赛 64进32 第⑥场 张飞VS黄盖
热门游戏-即点即玩
无需下载,足球经理模式一键即玩
《NBA英雄》教练系统上线啦!我选好了,看看你的