企业比国家有钱?谷歌一家公司的净利润,已经超过全世界大多数国家的财政收入。 141回复/ 5073163 浏览

全部回帖

收起
引用 @雪里看花丶 发表的:
只看此人

B站做梦都想当中国油管[捂脸]

B站做梦都想当中国油管[捂脸]

那是中国互联网企业竞争力度大。让油管来中国,和亚马逊一个样

那是中国互联网企业竞争力度大。让油管来中国,和亚马逊一个样

亮了(0)
回复

谷歌割全球广告业务,整合太厉害了,生怕被告垄断拆分

谷歌割全球广告业务,整合太厉害了,生怕被告垄断拆分

亮了(0)
回复
引用 @真这么厉害跑路干嘛 发表的:
只看此人

YouTube就算了吧 推荐机制还不如b站

YouTube就算了吧 推荐机制还不如b站

就B站那个播放收益,很多up主如果不是有油管收益,早就不干了,在B站纯粹是赔本赚吆喝,所以还是感谢油管吧

就B站那个播放收益,很多up主如果不是有油管收益,早就不干了,在B站纯粹是赔本赚吆喝,所以还是感谢油管吧

亮了(4)
回复
查看评论(1)
引用 @hupu_b6634522eabea851 发表的:
只看此人

就B站那个播放收益,很多up主如果不是有油管收益,早就不干了,在B站纯粹是赔本赚吆喝,所以还是感谢油管吧

就B站那个播放收益,很多up主如果不是有油管收益,早就不干了,在B站纯粹是赔本赚吆喝,所以还是感谢油管吧

油管是赛道垄断。像腾讯。换成国内,又不讨喜吧。就推荐机制和用户体验感,视频内容,b站高于油管一两档。油管唯一的优势是没有内容限制哈哈

油管是赛道垄断。像腾讯。换成国内,又不讨喜吧。就推荐机制和用户体验感,视频内容,b站高于油管一两档。油管唯一的优势是没有内容限制哈哈

亮了(0)
回复
引用 @虎扑JR1760648223 发表的:
只看此人

很震惊的在于,这里应该年轻人居多。可是言论真的让人绝望。

很震惊的在于,这里应该年轻人居多。可是言论真的让人绝望。

大专,体育生居多

大专,体育生居多

亮了(0)
回复
引用 @hari_2017 发表的:
只看此人

那是什么?

那是什么?

现在是claude

现在是claude

亮了(0)
回复
引用 @江北区麦迪 发表的:
只看此人

超级认同,这类人就是没什么分辨能力,别人说啥是啥,没有自己的脑子,非黑即白,没有一丢丢辩证思维

超级认同,这类人就是没什么分辨能力,别人说啥是啥,没有自己的脑子,非黑即白,没有一丢丢辩证思维

叫“帽子党”

叫“帽子党”

亮了(0)
回复
引用 @虎扑JR1760648223 发表的:
只看此人

很震惊的在于,这里应该年轻人居多。可是言论真的让人绝望。

很震惊的在于,这里应该年轻人居多。可是言论真的让人绝望。

九年义务教育是如此的成功,已经达到义务教育预期目的!

九年义务教育是如此的成功,已经达到义务教育预期目的!

亮了(0)
回复
引用 @虎扑JR1922643964 发表的:
只看此人

Transformer模型是由谷歌的八位研究人员提出的,他们分别是Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N. Gomez、Lukasz Kaiser和Illia Polosukhin。他们于2017年在论文《Attention Is All You Need》中首次提出了这一架构。

Transformer模型的核心思想是利用“自注意力(Self-Attention)”机制来捕捉输入数据中的内在关系,而无需依赖传统的循环神经网络(RNN)或卷积神经网络(CNN)结构。这种机制使得模型能够同时处理输入序列中的所有元素,并捕捉它们之间的复杂关系。

这八位研究人员最初的想法是改进谷歌的机器翻译技术。他们希望通过让机器通读整个句子,分析其所有部分,而不是单个单词逐个翻译,从而获得更好的上下文理解。这一想法经过讨论和碰撞后,最终形成了“Transformer”架构的概念起点——“自我注意力(self-attention)”。

论文《Attention Is All You Need》于2017年12月发表,标志着人工智能领域的一个重要转折点。这篇论文不仅推动了自然语言处理技术的发展,也为后续的研究者和开发者提供了新的工具和思路,极大地扩展了人工智能的应用范围。

如今,Transformer模型不仅嵌入在谷歌搜索和谷歌翻译中,还驱动着几乎所有大型语言模型(LLMs),如ChatGPT和Bard。此外,它还被应用于图像生成、代码生成等领域。

OpenAI 是 gpt-3 的工程实现,这儿可能提的是 attention is all you need

btw, BERT 也是 google 提出来的。

这些 encoder & decoder 各种架构在学术上可以说是非常领先的,而且直接咣咣砸论文,确实牛逼。

Transformer模型是由谷歌的八位研究人员提出的,他们分别是Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N. Gomez、Lukasz Kaiser和Illia Polosukhin。他们于2017年在论文《Attention Is All You Need》中首次提出了这一架构。

Transformer模型的核心思想是利用“自注意力(Self-Attention)”机制来捕捉输入数据中的内在关系,而无需依赖传统的循环神经网络(RNN)或卷积神经网络(CNN)结构。这种机制使得模型能够同时处理输入序列中的所有元素,并捕捉它们之间的复杂关系。

这八位研究人员最初的想法是改进谷歌的机器翻译技术。他们希望通过让机器通读整个句子,分析其所有部分,而不是单个单词逐个翻译,从而获得更好的上下文理解。这一想法经过讨论和碰撞后,最终形成了“Transformer”架构的概念起点——“自我注意力(self-attention)”。

论文《Attention Is All You Need》于2017年12月发表,标志着人工智能领域的一个重要转折点。这篇论文不仅推动了自然语言处理技术的发展,也为后续的研究者和开发者提供了新的工具和思路,极大地扩展了人工智能的应用范围。

如今,Transformer模型不仅嵌入在谷歌搜索和谷歌翻译中,还驱动着几乎所有大型语言模型(LLMs),如ChatGPT和Bard。此外,它还被应用于图像生成、代码生成等领域。

OpenAI 是 gpt-3 的工程实现,这儿可能提的是 attention is all you need

btw, BERT 也是 google 提出来的。

这些 encoder & decoder 各种架构在学术上可以说是非常领先的,而且直接咣咣砸论文,确实牛逼。

这还是我爱逛的虎扑吗

这还是我爱逛的虎扑吗

亮了(0)
回复
引用 @虎扑Jr7777777777 发表的:
只看此人

谷歌提出了transformer不假,但目前生成式ai用的decoder only架构是openai提出并发展起来的,谷歌目前在生成世ai方面没什么建树,闭源的gpt、claude,开源的llama、千问等都吊打谷歌

谷歌提出了transformer不假,但目前生成式ai用的decoder only架构是openai提出并发展起来的,谷歌目前在生成世ai方面没什么建树,闭源的gpt、claude,开源的llama、千问等都吊打谷歌

gemma2那么好用,不要乱讲哦

gemma2那么好用,不要乱讲哦

亮了(0)
回复
查看评论(1)
引用 @ricardolz 发表的:
只看此人

你的意思就是提出质能方程的爱因斯坦不牛逼,制造出原子弹的奥本海默更牛逼。

你的意思就是提出质能方程的爱因斯坦不牛逼,制造出原子弹的奥本海默更牛逼。

这个不好说,没有智能方程原子弹一样造的出来。当时已经发现了原子核爆炸释放的能量巨大,爱因斯坦是解释了为什么这么大。

这个不好说,没有智能方程原子弹一样造的出来。当时已经发现了原子核爆炸释放的能量巨大,爱因斯坦是解释了为什么这么大。

亮了(0)
回复
查看评论(1)
引用 @抽刀断水水长流 发表的:
只看此人

这个不好说,没有智能方程原子弹一样造的出来。当时已经发现了原子核爆炸释放的能量巨大,爱因斯坦是解释了为什么这么大。

[图片]

查看更多

这个不好说,没有智能方程原子弹一样造的出来。当时已经发现了原子核爆炸释放的能量巨大,爱因斯坦是解释了为什么这么大。

能说出这种话,大学物理及格了吗?至少看过电影横空出世吧,邓稼先写在黑板上的公式,上千科研人员打算盘算出来的指标,你以为是加减乘除?

能说出这种话,大学物理及格了吗?至少看过电影横空出世吧,邓稼先写在黑板上的公式,上千科研人员打算盘算出来的指标,你以为是加减乘除?

亮了(0)
回复
查看评论(1)
引用 @ricardolz 发表的:
只看此人

能说出这种话,大学物理及格了吗?至少看过电影横空出世吧,邓稼先写在黑板上的公式,上千科研人员打算盘算出来的指标,你以为是加减乘除?

[图片]

查看更多

能说出这种话,大学物理及格了吗?至少看过电影横空出世吧,邓稼先写在黑板上的公式,上千科研人员打算盘算出来的指标,你以为是加减乘除?

多读点书吧,不知道火药为什么爆炸一样发明了火药。诺贝尔明白爆炸的原理吗?

多读点书吧,不知道火药为什么爆炸一样发明了火药。诺贝尔明白爆炸的原理吗?

亮了(0)
回复
查看评论(2)
引用 @抽刀断水水长流 发表的:
只看此人

多读点书吧,不知道火药为什么爆炸一样发明了火药。诺贝尔明白爆炸的原理吗?

[图片]

查看更多

多读点书吧,不知道火药为什么爆炸一样发明了火药。诺贝尔明白爆炸的原理吗?

建议直接评院士

建议直接评院士

亮了(0)
回复
引用 @抽刀断水水长流 发表的:
只看此人

多读点书吧,不知道火药为什么爆炸一样发明了火药。诺贝尔明白爆炸的原理吗?

[图片]

查看更多

多读点书吧,不知道火药为什么爆炸一样发明了火药。诺贝尔明白爆炸的原理吗?

你踏马多读点书吧,造原子弹和造火药相提并论了

你踏马多读点书吧,造原子弹和造火药相提并论了

亮了(0)
回复
查看评论(1)
引用 @速冻香蕉 发表的:
只看此人

gemma2那么好用,不要乱讲哦

[图片]

查看更多

gemma2那么好用,不要乱讲哦

亮了(0)
回复
引用 @江北区麦迪 发表的:
只看此人

你踏马多读点书吧,造原子弹和造火药相提并论了

你踏马多读点书吧,造原子弹和造火药相提并论了

你踏马多读点历史吧。

你踏马多读点历史吧。

亮了(0)
回复
Re:企业比国家有钱?谷歌一家公司的净利润,已经超过全世界大多数国家的财政收入。
虎扑游戏中心
历史区最热帖
河北11市,你觉得哪一座全国知名度相对最高?
假如小行星没有撞地球,现在的地球霸主是人类还是恐龙呢?
看看中国的4F级别的机场!最好看和最丑的你觉得分别是哪一个?
在韩国历史书中,你是哪国人?
居然还有人觉得李小龙能打?这女人身板是怎么吹的下去的?
各领十万兵,项羽能一波韩信吗?
《无间道》里黄秋生曾志伟竟然能接住刘德华梁朝伟的戏,太厉害了。
不懂就问,林志颖当年真的这么抽象吗?
有哪些酷刑是人类的意志承受不了的?
为什么萧何能看出韩信国士无双,而项羽刘邦都没有
历史区最新帖
演技这块,周星驰,李连杰,谁更好。
演技这块:李连杰,成龙,谁差。
演技这块,周星驰,成龙,谁差?
这好像跟读者意林上面描述的不一样吧。真理在手,人人平等!
大家学完历史之后有没有什么历史事件或人物让人感到遗憾的地方?
对人类历史影响最大的双人组合是谁?
各领十万兵,项羽能一波韩信吗?
历史人物厌恶榜128进64第四十场(赵高VS来俊臣)
历史人物厌恶榜128进64第三十九场(石亨VS陈璧君)
人类历史上横向对比最强大的国家
热门游戏-即点即玩
无需下载,足球经理模式一键即玩
《NBA英雄》教练系统上线啦!我选好了,看看你的