全部回帖
充分说明隔行如隔山,跨行业之后普通人根本区分不了一个公司是吹牛逼还是真牛逼。谷歌做过非常多开拓式的成果,不少成为了行业基石。在这个角度上国内几家加起来都比不过。
充分说明隔行如隔山,跨行业之后普通人根本区分不了一个公司是吹牛逼还是真牛逼。
谷歌做过非常多开拓式的成果,不少成为了行业基石。在这个角度上国内几家加起来都比不过。
是啊,他们大多数只知道chatgpt,根本不理解transformer的意义;更不用说大数据领域,TensorFlow这些;谷歌算是硅谷最良心的企业了,我和你中国谈不拢,我就放弃中国市场;即不像微软和苹果那样圆滑求全,也不像小扎那样舔后又踩;ai领域,谷歌的贡献毫无疑问是最大的,多少基础研究突破,结果现在就知道个openai……别的不说,一个安卓,让世界上多少屌丝穷鬼也可以享受移动互联网的便利…更不用说在本行搜索上了,对比下百度,你就知道这个企业到底有多良心了
是啊,他们大多数只知道chatgpt,根本不理解transformer的意义;更不用说大数据领域,TensorFlow这些;谷歌算是硅谷最良心的企业了,我和你中国谈不拢,我就放弃中国市场;即不像微软和苹果那样圆滑求全,也不像小扎那样舔后又踩;ai领域,谷歌的贡献毫无疑问是最大的,多少基础研究突破,结果现在就知道个openai……别的不说,一个安卓,让世界上多少屌丝穷鬼也可以享受移动互联网的便利…更不用说在本行搜索上了,对比下百度,你就知道这个企业到底有多良心了
不是隔行如隔山,只是这地方三低用户比例力大的惊人而已。这些人基本没有什么对科学和客观规律的敬畏之心,你跟这些人讨论点什么事儿,他们除了谈立场就没有别的本事了。殊不知,逢外必舔和逢外必贬的两拨人,本质上却都是一类人
不是隔行如隔山,只是这地方三低用户比例力大的惊人而已。这些人基本没有什么对科学和客观规律的敬畏之心,你跟这些人讨论点什么事儿,他们除了谈立场就没有别的本事了。殊不知,逢外必舔和逢外必贬的两拨人,本质上却都是一类人
超级认同,这类人就是没什么分辨能力,别人说啥是啥,没有自己的脑子,非黑即白,没有一丢丢辩证思维
超级认同,这类人就是没什么分辨能力,别人说啥是啥,没有自己的脑子,非黑即白,没有一丢丢辩证思维
印象中谷歌弄ai好多年了都,但声音不大啊,这两年风头倒都被openai出了。
Chatgpt的前身BERT就是谷歌搞的,2022年以前甚至现在还有非常多的自然语言处理系统在使用bert的变体
Chatgpt的前身BERT就是谷歌搞的,2022年以前甚至现在还有非常多的自然语言处理系统在使用bert的变体
谷歌搞出来transformer跟他现在落伍了有冲突吗?原版encoder-decoder架构适用于翻译,后来纯encoder的bert用于理解,再往后谷歌一直不舍得放弃encoder导致了现在的尴尬局面。
谷歌搞出来transformer跟他现在落伍了有冲突吗?
原版encoder-decoder架构适用于翻译,后来纯encoder的bert用于理解,再往后谷歌一直不舍得放弃encoder导致了现在的尴尬局面。
按照你这么说 四大发明也落伍了
按照你这么说 四大发明也落伍了
主要还是把他墙了,宣不宣传都一样
主要还是把他墙了,宣不宣传都一样
谷歌宣传这些倒是不知道,但是谷歌参与以色列对巴勒斯坦人民的迫害项目,倒是真的,比如美国就有谷歌工程师在项目会议上抗议的。
谷歌宣传这些倒是不知道,但是谷歌参与以色列对巴勒斯坦人民的迫害项目,倒是真的,比如美国就有谷歌工程师在项目会议上抗议的。
因为谷歌没有到处宣传遥遥领先吧
谷歌宣传这些但是不知道,但是谷歌参与以色列对巴勒斯坦人民的迫害项目,倒是真的,比如美国就有谷歌工程师在项目会议上抗议的。
谷歌宣传这些但是不知道,但是谷歌参与以色列对巴勒斯坦人民的迫害项目,倒是真的,比如美国就有谷歌工程师在项目会议上抗议的。
Transformer模型是由谷歌的八位研究人员提出的,他们分别是Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N. Gomez、Lukasz Kaiser和Illia Polosukhin。他们于2017年在论文《Attention Is All You Need》中首次提出了这一架构。
Transformer模型的核心思想是利用“自注意力(Self-Attention)”机制来捕捉输入数据中的内在关系,而无需依赖传统的循环神经网络(RNN)或卷积神经网络(CNN)结构。这种机制使得模型能够同时处理输入序列中的所有元素,并捕捉它们之间的复杂关系。
这八位研究人员最初的想法是改进谷歌的机器翻译技术。他们希望通过让机器通读整个句子,分析其所有部分,而不是单个单词逐个翻译,从而获得更好的上下文理解。这一想法经过讨论和碰撞后,最终形成了“Transformer”架构的概念起点——“自我注意力(self-attention)”。
论文《Attention Is All You Need》于2017年12月发表,标志着人工智能领域的一个重要转折点。这篇论文不仅推动了自然语言处理技术的发展,也为后续的研究者和开发者提供了新的工具和思路,极大地扩展了人工智能的应用范围。
如今,Transformer模型不仅嵌入在谷歌搜索和谷歌翻译中,还驱动着几乎所有大型语言模型(LLMs),如ChatGPT和Bard。此外,它还被应用于图像生成、代码生成等领域。
OpenAI 是 gpt-3 的工程实现,这儿可能提的是 attention is all you need
btw, BERT 也是 google 提出来的。
这些 encoder & decoder 各种架构在学术上可以说是非常领先的,而且直接咣咣砸论文,确实牛逼。
Transformer模型是由谷歌的八位研究人员提出的,他们分别是Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N. Gomez、Lukasz Kaiser和Illia Polosukhin。他们于2017年在论文《Attention Is All You Need》中首次提出了这一架构。
Transformer模型的核心思想是利用“自注意力(Self-Attention)”机制来捕捉输入数据中的内在关系,而无需依赖传统的循环神经网络(RNN)或卷积神经网络(CNN)结构。这种机制使得模型能够同时处理输入序列中的所有元素,并捕捉它们之间的复杂关系。
这八位研究人员最初的想法是改进谷歌的机器翻译技术。他们希望通过让机器通读整个句子,分析其所有部分,而不是单个单词逐个翻译,从而获得更好的上下文理解。这一想法经过讨论和碰撞后,最终形成了“Transformer”架构的概念起点——“自我注意力(self-attention)”。
论文《Attention Is All You Need》于2017年12月发表,标志着人工智能领域的一个重要转折点。这篇论文不仅推动了自然语言处理技术的发展,也为后续的研究者和开发者提供了新的工具和思路,极大地扩展了人工智能的应用范围。
如今,Transformer模型不仅嵌入在谷歌搜索和谷歌翻译中,还驱动着几乎所有大型语言模型(LLMs),如ChatGPT和Bard。此外,它还被应用于图像生成、代码生成等领域。
OpenAI 是 gpt-3 的工程实现,这儿可能提的是 attention is all you need
btw, BERT 也是 google 提出来的。
这些 encoder & decoder 各种架构在学术上可以说是非常领先的,而且直接咣咣砸论文,确实牛逼。
叼,transformer离gpt还有几百公里
叼,transformer离gpt还有几百公里
谷歌搞出来transformer跟他现在落伍了有冲突吗?原版encoder-decoder架构适用于翻译,后来纯encoder的bert用于理解,再往后谷歌一直不舍得放弃encoder导致了现在的尴尬局面。
谷歌搞出来transformer跟他现在落伍了有冲突吗?
原版encoder-decoder架构适用于翻译,后来纯encoder的bert用于理解,再往后谷歌一直不舍得放弃encoder导致了现在的尴尬局面。
你之前的主要观点是open ai搞出来了decoder 不是这样的 虽然狗目前落后一点 但是开创性的工作 或者说里程碑式的工作和基础创新是transformer
你之前的主要观点是open ai搞出来了decoder 不是这样的 虽然狗目前落后一点 但是开创性的工作 或者说里程碑式的工作和基础创新是transformer
你之前的主要观点是open ai搞出来了decoder 不是这样的 虽然狗目前落后一点 但是开创性的工作 或者说里程碑式的工作和基础创新是transformer
你之前的主要观点是open ai搞出来了decoder 不是这样的 虽然狗目前落后一点 但是开创性的工作 或者说里程碑式的工作和基础创新是transformer
decoder也是开创性工作
decoder也是开创性工作
上海匡慧网络科技有限公司 沪B2-20211235 沪ICP备2021021198号-6 Copyright ©2021 KUANGHUI All Rights Reserved. 匡慧公司 版权所有