企业比国家有钱?谷歌一家公司的净利润,已经超过全世界大多数国家的财政收入。 141回复/ 5073163 浏览

全部回帖

收起

那是我的国家小

那是我的国家小

亮了(0)
回复
引用 @DMerchant 发表的:
只看此人

充分说明隔行如隔山,跨行业之后普通人根本区分不了一个公司是吹牛逼还是真牛逼。谷歌做过非常多开拓式的成果,不少成为了行业基石。在这个角度上国内几家加起来都比不过。

充分说明隔行如隔山,跨行业之后普通人根本区分不了一个公司是吹牛逼还是真牛逼。
谷歌做过非常多开拓式的成果,不少成为了行业基石。在这个角度上国内几家加起来都比不过。

是啊,他们大多数只知道chatgpt,根本不理解transformer的意义;更不用说大数据领域,TensorFlow这些;谷歌算是硅谷最良心的企业了,我和你中国谈不拢,我就放弃中国市场;即不像微软和苹果那样圆滑求全,也不像小扎那样舔后又踩;ai领域,谷歌的贡献毫无疑问是最大的,多少基础研究突破,结果现在就知道个openai……别的不说,一个安卓,让世界上多少屌丝穷鬼也可以享受移动互联网的便利…更不用说在本行搜索上了,对比下百度,你就知道这个企业到底有多良心了

是啊,他们大多数只知道chatgpt,根本不理解transformer的意义;更不用说大数据领域,TensorFlow这些;谷歌算是硅谷最良心的企业了,我和你中国谈不拢,我就放弃中国市场;即不像微软和苹果那样圆滑求全,也不像小扎那样舔后又踩;ai领域,谷歌的贡献毫无疑问是最大的,多少基础研究突破,结果现在就知道个openai……别的不说,一个安卓,让世界上多少屌丝穷鬼也可以享受移动互联网的便利…更不用说在本行搜索上了,对比下百度,你就知道这个企业到底有多良心了

亮了(16)
回复
引用 @快乐家族家庭教师 发表的:
只看此人

不是隔行如隔山,只是这地方三低用户比例力大的惊人而已。这些人基本没有什么对科学和客观规律的敬畏之心,你跟这些人讨论点什么事儿,他们除了谈立场就没有别的本事了。殊不知,逢外必舔和逢外必贬的两拨人,本质上却都是一类人

不是隔行如隔山,只是这地方三低用户比例力大的惊人而已。这些人基本没有什么对科学和客观规律的敬畏之心,你跟这些人讨论点什么事儿,他们除了谈立场就没有别的本事了。殊不知,逢外必舔和逢外必贬的两拨人,本质上却都是一类人

超级认同,这类人就是没什么分辨能力,别人说啥是啥,没有自己的脑子,非黑即白,没有一丢丢辩证思维

超级认同,这类人就是没什么分辨能力,别人说啥是啥,没有自己的脑子,非黑即白,没有一丢丢辩证思维

亮了(25)
回复
查看评论(1)
引用 @中本姜 发表的:
只看此人

赢了?

赢了?

必须的啊,你没看美国那个物价涨的,真正的水深火热。

必须的啊,你没看美国那个物价涨的,真正的水深火热。

亮了(0)
回复
引用 @小田曦薇 发表的:
只看此人

谷歌这个公司挺有意思,每年全世界断档第一的科研费用,愣是没见到做出啥有用的发明来

谷歌这个公司挺有意思,每年全世界断档第一的科研费用,愣是没见到做出啥有用的发明来

你也是有够无知的

你也是有够无知的

亮了(2)
回复
引用 @S1LveR4567 发表的:
只看此人

印象中谷歌弄ai好多年了都,但声音不大啊,这两年风头倒都被openai出了。

[图片]

查看更多

印象中谷歌弄ai好多年了都,但声音不大啊,这两年风头倒都被openai出了。

Chatgpt的前身BERT就是谷歌搞的,2022年以前甚至现在还有非常多的自然语言处理系统在使用bert的变体

Chatgpt的前身BERT就是谷歌搞的,2022年以前甚至现在还有非常多的自然语言处理系统在使用bert的变体

亮了(0)
回复
引用 @趙晶 发表的:
只看此人

你说的这些好多是收购的

你说的这些好多是收购的

TIKTOLK不也是字节收购的

TIKTOLK不也是字节收购的

亮了(2)
回复

30年前,用来跟国家比有钱的公司是通用汽车

30年前,用来跟国家比有钱的公司是通用汽车

亮了(0)
回复
引用 @虎扑Jr7777777777 发表的:
只看此人

谷歌搞出来transformer跟他现在落伍了有冲突吗?原版encoder-decoder架构适用于翻译,后来纯encoder的bert用于理解,再往后谷歌一直不舍得放弃encoder导致了现在的尴尬局面。

谷歌搞出来transformer跟他现在落伍了有冲突吗?
原版encoder-decoder架构适用于翻译,后来纯encoder的bert用于理解,再往后谷歌一直不舍得放弃encoder导致了现在的尴尬局面。

按照你这么说 四大发明也落伍了

按照你这么说 四大发明也落伍了

亮了(2)
回复
查看评论(1)
引用 @小院熊 发表的:
只看此人

经典我不知道就是没有,我即世界

经典我不知道就是没有,我即世界

没看过乔丹打球,勒布朗就是我心中的勾特/🐕

没看过乔丹打球,勒布朗就是我心中的勾特/🐕

亮了(0)
回复
引用 @小田曦薇 发表的:
只看此人

谷歌这个公司挺有意思,每年全世界断档第一的科研费用,愣是没见到做出啥有用的发明来

谷歌这个公司挺有意思,每年全世界断档第一的科研费用,愣是没见到做出啥有用的发明来

因为人不会提前发布PPT雇水军买热搜

因为人不会提前发布PPT雇水军买热搜

亮了(0)
回复
引用 @10912051 发表的:
只看此人

主要还是把他墙了,宣不宣传都一样

主要还是把他墙了,宣不宣传都一样

谷歌宣传这些倒是不知道,但是谷歌参与以色列对巴勒斯坦人民的迫害项目,倒是真的,比如美国就有谷歌工程师在项目会议上抗议的。

谷歌宣传这些倒是不知道,但是谷歌参与以色列对巴勒斯坦人民的迫害项目,倒是真的,比如美国就有谷歌工程师在项目会议上抗议的。

亮了(4)
回复
查看评论(1)
引用 @永远的纳什粉 发表的:
只看此人

因为谷歌没有到处宣传遥遥领先吧

[图片]

查看更多

因为谷歌没有到处宣传遥遥领先吧

谷歌宣传这些但是不知道,但是谷歌参与以色列对巴勒斯坦人民的迫害项目,倒是真的,比如美国就有谷歌工程师在项目会议上抗议的。

谷歌宣传这些但是不知道,但是谷歌参与以色列对巴勒斯坦人民的迫害项目,倒是真的,比如美国就有谷歌工程师在项目会议上抗议的。

亮了(4)
回复
引用 @小田曦薇 发表的:
只看此人

我说的是这两年

我说的是这两年

前段网络框架 angular,编程语言golang(知乎,腾讯,B站,抖音后台用的这门语言)Kubernetes集群,安卓系统,chrome浏览器内核(国内浏览器基本上都用这个内核)

前段网络框架 angular,编程语言golang(知乎,腾讯,B站,抖音后台用的这门语言)Kubernetes集群,安卓系统,chrome浏览器内核(国内浏览器基本上都用这个内核)

亮了(10)
回复
引用 @虎扑JR1922643964 发表的:
只看此人

Transformer模型是由谷歌的八位研究人员提出的,他们分别是Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N. Gomez、Lukasz Kaiser和Illia Polosukhin。他们于2017年在论文《Attention Is All You Need》中首次提出了这一架构。

Transformer模型的核心思想是利用“自注意力(Self-Attention)”机制来捕捉输入数据中的内在关系,而无需依赖传统的循环神经网络(RNN)或卷积神经网络(CNN)结构。这种机制使得模型能够同时处理输入序列中的所有元素,并捕捉它们之间的复杂关系。

这八位研究人员最初的想法是改进谷歌的机器翻译技术。他们希望通过让机器通读整个句子,分析其所有部分,而不是单个单词逐个翻译,从而获得更好的上下文理解。这一想法经过讨论和碰撞后,最终形成了“Transformer”架构的概念起点——“自我注意力(self-attention)”。

论文《Attention Is All You Need》于2017年12月发表,标志着人工智能领域的一个重要转折点。这篇论文不仅推动了自然语言处理技术的发展,也为后续的研究者和开发者提供了新的工具和思路,极大地扩展了人工智能的应用范围。

如今,Transformer模型不仅嵌入在谷歌搜索和谷歌翻译中,还驱动着几乎所有大型语言模型(LLMs),如ChatGPT和Bard。此外,它还被应用于图像生成、代码生成等领域。

OpenAI 是 gpt-3 的工程实现,这儿可能提的是 attention is all you need

btw, BERT 也是 google 提出来的。

这些 encoder & decoder 各种架构在学术上可以说是非常领先的,而且直接咣咣砸论文,确实牛逼。

Transformer模型是由谷歌的八位研究人员提出的,他们分别是Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N. Gomez、Lukasz Kaiser和Illia Polosukhin。他们于2017年在论文《Attention Is All You Need》中首次提出了这一架构。

Transformer模型的核心思想是利用“自注意力(Self-Attention)”机制来捕捉输入数据中的内在关系,而无需依赖传统的循环神经网络(RNN)或卷积神经网络(CNN)结构。这种机制使得模型能够同时处理输入序列中的所有元素,并捕捉它们之间的复杂关系。

这八位研究人员最初的想法是改进谷歌的机器翻译技术。他们希望通过让机器通读整个句子,分析其所有部分,而不是单个单词逐个翻译,从而获得更好的上下文理解。这一想法经过讨论和碰撞后,最终形成了“Transformer”架构的概念起点——“自我注意力(self-attention)”。

论文《Attention Is All You Need》于2017年12月发表,标志着人工智能领域的一个重要转折点。这篇论文不仅推动了自然语言处理技术的发展,也为后续的研究者和开发者提供了新的工具和思路,极大地扩展了人工智能的应用范围。

如今,Transformer模型不仅嵌入在谷歌搜索和谷歌翻译中,还驱动着几乎所有大型语言模型(LLMs),如ChatGPT和Bard。此外,它还被应用于图像生成、代码生成等领域。

OpenAI 是 gpt-3 的工程实现,这儿可能提的是 attention is all you need

btw, BERT 也是 google 提出来的。

这些 encoder & decoder 各种架构在学术上可以说是非常领先的,而且直接咣咣砸论文,确实牛逼。

叼,transformer离gpt还有几百公里

叼,transformer离gpt还有几百公里

亮了(2)
回复
引用 @虎扑Jr7777777777 发表的:
只看此人

谷歌搞出来transformer跟他现在落伍了有冲突吗?原版encoder-decoder架构适用于翻译,后来纯encoder的bert用于理解,再往后谷歌一直不舍得放弃encoder导致了现在的尴尬局面。

谷歌搞出来transformer跟他现在落伍了有冲突吗?
原版encoder-decoder架构适用于翻译,后来纯encoder的bert用于理解,再往后谷歌一直不舍得放弃encoder导致了现在的尴尬局面。

你之前的主要观点是open ai搞出来了decoder 不是这样的 虽然狗目前落后一点 但是开创性的工作 或者说里程碑式的工作和基础创新是transformer

你之前的主要观点是open ai搞出来了decoder 不是这样的 虽然狗目前落后一点 但是开创性的工作 或者说里程碑式的工作和基础创新是transformer

亮了(2)
回复
查看评论(1)
引用 @虎扑JR1502540701 发表的:
只看此人

你之前的主要观点是open ai搞出来了decoder 不是这样的 虽然狗目前落后一点 但是开创性的工作 或者说里程碑式的工作和基础创新是transformer

你之前的主要观点是open ai搞出来了decoder 不是这样的 虽然狗目前落后一点 但是开创性的工作 或者说里程碑式的工作和基础创新是transformer

decoder也是开创性工作

decoder也是开创性工作

亮了(0)
回复
Re:企业比国家有钱?谷歌一家公司的净利润,已经超过全世界大多数国家的财政收入。
虎扑游戏中心
历史区最热帖
居然还有人觉得李小龙能打?这女人身板是怎么吹的下去的?
有哪些酷刑是人类的意志承受不了的?
为什么萧何能看出韩信国士无双,而项羽刘邦都没有
如何评价艾教授?
如果有人送你一斤茶叶,以你现在的职业能给他什么回礼?
对人类历史影响最大的双人组合是谁?
人类历史上横向对比最强大的国家
微博网友投出全国10大美食之都
原来在外国人看来,辽国、金国是蛮族,只有宋朝代表中国正统
出生于京、沪、苏、浙的4位60后女明星,许晴、张敏、江珊、何晴,谁最漂亮?
历史区最新帖
演技这块,周星驰,李连杰,谁更好。
演技这块:李连杰,成龙,谁差。
演技这块,周星驰,成龙,谁差?
这好像跟读者意林上面描述的不一样吧。真理在手,人人平等!
大家学完历史之后有没有什么历史事件或人物让人感到遗憾的地方?
对人类历史影响最大的双人组合是谁?
各领十万兵,项羽能一波韩信吗?
历史人物厌恶榜128进64第四十场(赵高VS来俊臣)
历史人物厌恶榜128进64第三十九场(石亨VS陈璧君)
人类历史上横向对比最强大的国家
热门游戏-即点即玩
无需下载,足球经理模式一键即玩
《NBA英雄》教练系统上线啦!我选好了,看看你的