企业比国家有钱?谷歌一家公司的净利润,已经超过全世界大多数国家的财政收入。 136回复/ 5073277 浏览

全部回帖

收起
引用 @小田曦薇 发表的:
只看此人

谷歌这个公司挺有意思,每年全世界断档第一的科研费用,愣是没见到做出啥有用的发明来

谷歌这个公司挺有意思,每年全世界断档第一的科研费用,愣是没见到做出啥有用的发明来

我不知道就等于没有

我不知道就等于没有

亮了(8)
回复
引用 @hari_2017 发表的:
只看此人

最火的生成式ai不是chatgpt吗?

最火的生成式ai不是chatgpt吗?

chatgpt 是产品 transformer是产品下的基础架构

相当于有人发明了内燃机(transformer)结果转头被别人拿来造了汽车 (gen ai)

chatgpt 是产品 transformer是产品下的基础架构

相当于有人发明了内燃机(transformer)结果转头被别人拿来造了汽车 (gen ai)

亮了(12)
回复
引用 @虎扑JR1922643964 发表的:
只看此人

Transformer模型和GPT模型都是基于深度学习的自然语言处理(NLP)模型,但它们在设计和应用上有一些关键的区别。

1. Transformer模型

- Transformer是一种用于序列到序列学习的神经网络模型,主要用于自然语言处理任务,如机器翻译、文本摘要等。它由编码器(Encoder)和解码器(Decoder)两部分组成,每个部分都有多个相同的层,每个层都有两个子层:多头自注意力子层和前馈神经网络子层。

- Transformer模型的核心是自注意力机制(Self-Attention),它允许模型在处理每个输入元素时能够关注到所有其他元素,从而学习到输入序列中的全局依赖关系。

- Transformer模型通常包括编码器和解码器,但在某些应用中,如BERT,只使用编码器部分。

2. GPT模型

- GPT(Generative Pre-trained Transformer)是一种基于Transformer架构的预训练语言模型,主要用于文本生成任务。GPT模型通过大量文本数据进行预训练,学习语言的普遍规律。

- GPT模型采用单向Transformer结构,即只使用解码器部分,因此只能利用上文信息,而不能直接利用下文信息。在预训练阶段,GPT使用了语言模型和下一句预测任务。

- GPT模型在预训练阶段使用了两种任务:语言模型(LM)和下一句预测(NSP)。在语言模型任务中,模型根据前面的文本预测下一个单词;在下一句预测任务中,模型需要判断两个句子是否相邻。

3. 关系与区别

- GPT模型建立在Transformer解码器的基础上,预训练了一个用于表示文本序列的语言模型。当将GPT应用于下游任务时,语言模型的输出将被送到一个附加的线性输出层,以预测任务的标签。

- GPT和BERT都是基于Transformer架构的预训练语言模型,但它们在训练方式和应用场景上有所不同。BERT通过双向Transformer进行训练,利用上下文信息,而GPT则是通过单向Transformer进行训练,从左到右学习输入序列中的语言表示。

- GPT更适用于生成任务,如文本生成、摘要、翻译等,而BERT更适用于理解型任务,如情感分析、问答和语义匹配等。

总结来说,Transformer模型是一种通用的序列到序列模型,可以用于多种NLP任务,而GPT模型是专门设计用于文本生成任务的预训练语言模型,基于Transformer的解码器部分。

GPT 主要基于 Transformer 的 Decoder,采用单向结构,只能利用上文信息,不能直接利用下文信息。而 Transformer 到 GPT 在学术上并没有什么额外其它的重要工作,更多的是细节架构上的设计以及工程上的实现。

您打的比方亲缘关系太远了,并且甚至不是一个领域的。

如果使用更合适的比喻,虽然法拉第发现了电磁感应现象,还给出了个原型机,但是就工程而言下面就没了,但是后来法国的希波特·皮克西研制成功了一种安装了两个线圈的交流发电机,这可以看作是所有发电机的始祖。西门子实现了人类第一台自励式发电机,因此法拉第和现代的发电机没啥关系 。

这种贬低是很不符合事实的。

实际上 Ilya 以及他的 SuperAlignment 毫无疑问是成功的。在 gpt2 的时候,我们甚至没办法用它来做什么事情,然后在 3 之前,一方面使用了超大规模的算力去训练,同时在标注上付出了极大的努力。公开信息是他们花费了千万美元在 alignment 本身,并且占用 20% 的计算规模(当然现在 Ilya 已走, Jan Leike 跑路,未来如何未为可知)。

如果按人类的社交形态来比方,可以说是在对方没有任何正反馈的情况下把全部身家砸进去去追求一个女性,可以说是史上罕见的舔狗了,当然,成功后我们不得不佩服的是他的远见以及给钱给资源的微软爸爸大胆。

一个小道消息是,某家训练了好几个月后,突然惊恐发现他们的训练语料质量甚至不如 gpt4 生成的结果。如果为真,毫无疑问是很大的失误。

因此,无论从工程实践还是从很多远见上说, Ilya 他们确实有非常大的贡献,但是这并不是一个维度的,并且是不可互相替代的。

Transformer模型和GPT模型都是基于深度学习的自然语言处理(NLP)模型,但它们在设计和应用上有一些关键的区别。

1. Transformer模型

- Transformer是一种用于序列到序列学习的神经网络模型,主要用于自然语言处理任务,如机器翻译、文本摘要等。它由编码器(Encoder)和解码器(Decoder)两部分组成,每个部分都有多个相同的层,每个层都有两个子层:多头自注意力子层和前馈神经网络子层。

- Transformer模型的核心是自注意力机制(Self-Attention),它允许模型在处理每个输入元素时能够关注到所有其他元素,从而学习到输入序列中的全局依赖关系。

- Transformer模型通常包括编码器和解码器,但在某些应用中,如BERT,只使用编码器部分。

2. GPT模型

- GPT(Generative Pre-trained Transformer)是一种基于Transformer架构的预训练语言模型,主要用于文本生成任务。GPT模型通过大量文本数据进行预训练,学习语言的普遍规律。

- GPT模型采用单向Transformer结构,即只使用解码器部分,因此只能利用上文信息,而不能直接利用下文信息。在预训练阶段,GPT使用了语言模型和下一句预测任务。

- GPT模型在预训练阶段使用了两种任务:语言模型(LM)和下一句预测(NSP)。在语言模型任务中,模型根据前面的文本预测下一个单词;在下一句预测任务中,模型需要判断两个句子是否相邻。

3. 关系与区别

- GPT模型建立在Transformer解码器的基础上,预训练了一个用于表示文本序列的语言模型。当将GPT应用于下游任务时,语言模型的输出将被送到一个附加的线性输出层,以预测任务的标签。

- GPT和BERT都是基于Transformer架构的预训练语言模型,但它们在训练方式和应用场景上有所不同。BERT通过双向Transformer进行训练,利用上下文信息,而GPT则是通过单向Transformer进行训练,从左到右学习输入序列中的语言表示。

- GPT更适用于生成任务,如文本生成、摘要、翻译等,而BERT更适用于理解型任务,如情感分析、问答和语义匹配等。

总结来说,Transformer模型是一种通用的序列到序列模型,可以用于多种NLP任务,而GPT模型是专门设计用于文本生成任务的预训练语言模型,基于Transformer的解码器部分。

GPT 主要基于 Transformer 的 Decoder,采用单向结构,只能利用上文信息,不能直接利用下文信息。而 Transformer 到 GPT 在学术上并没有什么额外其它的重要工作,更多的是细节架构上的设计以及工程上的实现。

您打的比方亲缘关系太远了,并且甚至不是一个领域的。

如果使用更合适的比喻,虽然法拉第发现了电磁感应现象,还给出了个原型机,但是就工程而言下面就没了,但是后来法国的希波特·皮克西研制成功了一种安装了两个线圈的交流发电机,这可以看作是所有发电机的始祖。西门子实现了人类第一台自励式发电机,因此法拉第和现代的发电机没啥关系 。

这种贬低是很不符合事实的。

实际上 Ilya 以及他的 SuperAlignment 毫无疑问是成功的。在 gpt2 的时候,我们甚至没办法用它来做什么事情,然后在 3 之前,一方面使用了超大规模的算力去训练,同时在标注上付出了极大的努力。公开信息是他们花费了千万美元在 alignment 本身,并且占用 20% 的计算规模(当然现在 Ilya 已走, Jan Leike 跑路,未来如何未为可知)。

如果按人类的社交形态来比方,可以说是在对方没有任何正反馈的情况下把全部身家砸进去去追求一个女性,可以说是史上罕见的舔狗了,当然,成功后我们不得不佩服的是他的远见以及给钱给资源的微软爸爸大胆。

一个小道消息是,某家训练了好几个月后,突然惊恐发现他们的训练语料质量甚至不如 gpt4 生成的结果。如果为真,毫无疑问是很大的失误。

因此,无论从工程实践还是从很多远见上说, Ilya 他们确实有非常大的贡献,但是这并不是一个维度的,并且是不可互相替代的。

看完直接困了

看完直接困了[捂脸]

亮了(0)
回复
引用 @DMerchant 发表的:
只看此人

充分说明隔行如隔山,跨行业之后普通人根本区分不了一个公司是吹牛逼还是真牛逼。谷歌做过非常多开拓式的成果,不少成为了行业基石。在这个角度上国内几家加起来都比不过。

充分说明隔行如隔山,跨行业之后普通人根本区分不了一个公司是吹牛逼还是真牛逼。
谷歌做过非常多开拓式的成果,不少成为了行业基石。在这个角度上国内几家加起来都比不过。

安卓和Chrome
国内企业纷纷套壳,更说明了谷歌是真的厉害

安卓和Chrome
国内企业纷纷套壳,更说明了谷歌是真的厉害

亮了(36)
回复
引用 @虎扑JR0678484024 发表的:
只看此人

?当下最火的生成式AI就是谷歌搞出来的

?当下最火的生成式AI就是谷歌搞出来的

这个小田君难道是百度员工吗

这个小田君难道是百度员工吗

亮了(4)
回复
引用 @D_Neeson 发表的:
只看此人

没有做小额信贷,格局还是小了/狗头

没有做小额信贷,格局还是小了/狗头

谷歌die,不吉利,董事会否了

谷歌die,不吉利,董事会否了[狗头]

亮了(16)
回复
查看评论(1)
引用 @虎扑JR0710957007 发表的:
只看此人

哈哈哈哈哈哈。笑死我了。老哥我amd,tesla也一起亏麻了。能不能一起报销。

哈哈哈哈哈哈。笑死我了。老哥我amd,tesla也一起亏麻了。能不能一起报销。

买特斯拉本来就有赌的成分啊……我还有其他科技和半导体的股票和指数,哎,麻了,投资果然比乱买东西花钱多得多

买特斯拉本来就有赌的成分啊……我还有其他科技和半导体的股票和指数,哎,麻了,投资果然比乱买东西花钱多得多

亮了(0)
回复
引用 @虎扑JR1922643964 发表的:
只看此人

Transformer模型是由谷歌的八位研究人员提出的,他们分别是Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N. Gomez、Lukasz Kaiser和Illia Polosukhin。他们于2017年在论文《Attention Is All You Need》中首次提出了这一架构。

Transformer模型的核心思想是利用“自注意力(Self-Attention)”机制来捕捉输入数据中的内在关系,而无需依赖传统的循环神经网络(RNN)或卷积神经网络(CNN)结构。这种机制使得模型能够同时处理输入序列中的所有元素,并捕捉它们之间的复杂关系。

这八位研究人员最初的想法是改进谷歌的机器翻译技术。他们希望通过让机器通读整个句子,分析其所有部分,而不是单个单词逐个翻译,从而获得更好的上下文理解。这一想法经过讨论和碰撞后,最终形成了“Transformer”架构的概念起点——“自我注意力(self-attention)”。

论文《Attention Is All You Need》于2017年12月发表,标志着人工智能领域的一个重要转折点。这篇论文不仅推动了自然语言处理技术的发展,也为后续的研究者和开发者提供了新的工具和思路,极大地扩展了人工智能的应用范围。

如今,Transformer模型不仅嵌入在谷歌搜索和谷歌翻译中,还驱动着几乎所有大型语言模型(LLMs),如ChatGPT和Bard。此外,它还被应用于图像生成、代码生成等领域。

OpenAI 是 gpt-3 的工程实现,这儿可能提的是 attention is all you need

btw, BERT 也是 google 提出来的。

这些 encoder & decoder 各种架构在学术上可以说是非常领先的,而且直接咣咣砸论文,确实牛逼。

Transformer模型是由谷歌的八位研究人员提出的,他们分别是Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N. Gomez、Lukasz Kaiser和Illia Polosukhin。他们于2017年在论文《Attention Is All You Need》中首次提出了这一架构。

Transformer模型的核心思想是利用“自注意力(Self-Attention)”机制来捕捉输入数据中的内在关系,而无需依赖传统的循环神经网络(RNN)或卷积神经网络(CNN)结构。这种机制使得模型能够同时处理输入序列中的所有元素,并捕捉它们之间的复杂关系。

这八位研究人员最初的想法是改进谷歌的机器翻译技术。他们希望通过让机器通读整个句子,分析其所有部分,而不是单个单词逐个翻译,从而获得更好的上下文理解。这一想法经过讨论和碰撞后,最终形成了“Transformer”架构的概念起点——“自我注意力(self-attention)”。

论文《Attention Is All You Need》于2017年12月发表,标志着人工智能领域的一个重要转折点。这篇论文不仅推动了自然语言处理技术的发展,也为后续的研究者和开发者提供了新的工具和思路,极大地扩展了人工智能的应用范围。

如今,Transformer模型不仅嵌入在谷歌搜索和谷歌翻译中,还驱动着几乎所有大型语言模型(LLMs),如ChatGPT和Bard。此外,它还被应用于图像生成、代码生成等领域。

OpenAI 是 gpt-3 的工程实现,这儿可能提的是 attention is all you need

btw, BERT 也是 google 提出来的。

这些 encoder & decoder 各种架构在学术上可以说是非常领先的,而且直接咣咣砸论文,确实牛逼。

谷歌最早没错,只是后来路走偏了,然后OpenAI脱颖而出,值得一提的是谷歌也罢喜欢抄袭它的百度带偏了,导致百度也是深耕多年没出好成绩

谷歌最早没错,只是后来路走偏了,然后OpenAI脱颖而出,值得一提的是谷歌也罢喜欢抄袭它的百度带偏了,导致百度也是深耕多年没出好成绩

亮了(14)
回复
查看评论(1)
引用 @小田曦薇 发表的:
只看此人

谷歌这个公司挺有意思,每年全世界断档第一的科研费用,愣是没见到做出啥有用的发明来

谷歌这个公司挺有意思,每年全世界断档第一的科研费用,愣是没见到做出啥有用的发明来

“我啥都不懂,孤陋寡闻,所以他们啥都没做出来”

“我啥都不懂,孤陋寡闻,所以他们啥都没做出来”

亮了(18)
回复
引用 @小田曦薇 发表的:
只看此人

谷歌这个公司挺有意思,每年全世界断档第一的科研费用,愣是没见到做出啥有用的发明来

谷歌这个公司挺有意思,每年全世界断档第一的科研费用,愣是没见到做出啥有用的发明来

……………好家伙,谷歌都被你说的一无是处了,谷歌要是中国公司,余大嘴都直接闭肛了

……………好家伙,谷歌都被你说的一无是处了,谷歌要是中国公司,余大嘴都直接闭肛了

亮了(2)
回复
引用 @小田曦薇 发表的:
只看此人

谷歌这个公司挺有意思,每年全世界断档第一的科研费用,愣是没见到做出啥有用的发明来

谷歌这个公司挺有意思,每年全世界断档第一的科研费用,愣是没见到做出啥有用的发明来

你很好地解释了什么是无知者无畏

你很好地解释了什么是无知者无畏

亮了(12)
回复
引用 @爱叫叔就叫吧 发表的:
只看此人

这么牛逼?能把我这周跌下去的股票报销一下吗?

这么牛逼?能把我这周跌下去的股票报销一下吗?

这周我净赚41刀哈哈

这周我净赚41刀哈哈

亮了(0)
回复
引用 @DMerchant 发表的:
只看此人

充分说明隔行如隔山,跨行业之后普通人根本区分不了一个公司是吹牛逼还是真牛逼。谷歌做过非常多开拓式的成果,不少成为了行业基石。在这个角度上国内几家加起来都比不过。

充分说明隔行如隔山,跨行业之后普通人根本区分不了一个公司是吹牛逼还是真牛逼。
谷歌做过非常多开拓式的成果,不少成为了行业基石。在这个角度上国内几家加起来都比不过。

不是隔行如隔山,只是这地方三低用户比例力大的惊人而已。这些人基本没有什么对科学和客观规律的敬畏之心,你跟这些人讨论点什么事儿,他们除了谈立场就没有别的本事了。殊不知,逢外必舔和逢外必贬的两拨人,本质上却都是一类人

不是隔行如隔山,只是这地方三低用户比例力大的惊人而已。这些人基本没有什么对科学和客观规律的敬畏之心,你跟这些人讨论点什么事儿,他们除了谈立场就没有别的本事了。殊不知,逢外必舔和逢外必贬的两拨人,本质上却都是一类人

亮了(139)
回复
查看评论(3)
引用 @yuchunlei2000 发表的:
只看此人

垄断人才,让别人创造不出威胁他的东西。。。

垄断人才,让别人创造不出威胁他的东西。。。

你这话说的,好像人家是通过绑架的手段把人才弄回去的一样

你这话说的,好像人家是通过绑架的手段把人才弄回去的一样

亮了(2)
回复
引用 @小田曦薇 发表的:
只看此人

谷歌这个公司挺有意思,每年全世界断档第一的科研费用,愣是没见到做出啥有用的发明来

谷歌这个公司挺有意思,每年全世界断档第一的科研费用,愣是没见到做出啥有用的发明来

你是不是觉得华为比谷歌牛多了

你是不是觉得华为比谷歌牛多了

亮了(8)
回复
引用 @虎扑JR1922643964 发表的:
只看此人

Transformer模型是由谷歌的八位研究人员提出的,他们分别是Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N. Gomez、Lukasz Kaiser和Illia Polosukhin。他们于2017年在论文《Attention Is All You Need》中首次提出了这一架构。

Transformer模型的核心思想是利用“自注意力(Self-Attention)”机制来捕捉输入数据中的内在关系,而无需依赖传统的循环神经网络(RNN)或卷积神经网络(CNN)结构。这种机制使得模型能够同时处理输入序列中的所有元素,并捕捉它们之间的复杂关系。

这八位研究人员最初的想法是改进谷歌的机器翻译技术。他们希望通过让机器通读整个句子,分析其所有部分,而不是单个单词逐个翻译,从而获得更好的上下文理解。这一想法经过讨论和碰撞后,最终形成了“Transformer”架构的概念起点——“自我注意力(self-attention)”。

论文《Attention Is All You Need》于2017年12月发表,标志着人工智能领域的一个重要转折点。这篇论文不仅推动了自然语言处理技术的发展,也为后续的研究者和开发者提供了新的工具和思路,极大地扩展了人工智能的应用范围。

如今,Transformer模型不仅嵌入在谷歌搜索和谷歌翻译中,还驱动着几乎所有大型语言模型(LLMs),如ChatGPT和Bard。此外,它还被应用于图像生成、代码生成等领域。

OpenAI 是 gpt-3 的工程实现,这儿可能提的是 attention is all you need

btw, BERT 也是 google 提出来的。

这些 encoder & decoder 各种架构在学术上可以说是非常领先的,而且直接咣咣砸论文,确实牛逼。

Transformer模型是由谷歌的八位研究人员提出的,他们分别是Ashish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit、Llion Jones、Aidan N. Gomez、Lukasz Kaiser和Illia Polosukhin。他们于2017年在论文《Attention Is All You Need》中首次提出了这一架构。

Transformer模型的核心思想是利用“自注意力(Self-Attention)”机制来捕捉输入数据中的内在关系,而无需依赖传统的循环神经网络(RNN)或卷积神经网络(CNN)结构。这种机制使得模型能够同时处理输入序列中的所有元素,并捕捉它们之间的复杂关系。

这八位研究人员最初的想法是改进谷歌的机器翻译技术。他们希望通过让机器通读整个句子,分析其所有部分,而不是单个单词逐个翻译,从而获得更好的上下文理解。这一想法经过讨论和碰撞后,最终形成了“Transformer”架构的概念起点——“自我注意力(self-attention)”。

论文《Attention Is All You Need》于2017年12月发表,标志着人工智能领域的一个重要转折点。这篇论文不仅推动了自然语言处理技术的发展,也为后续的研究者和开发者提供了新的工具和思路,极大地扩展了人工智能的应用范围。

如今,Transformer模型不仅嵌入在谷歌搜索和谷歌翻译中,还驱动着几乎所有大型语言模型(LLMs),如ChatGPT和Bard。此外,它还被应用于图像生成、代码生成等领域。

OpenAI 是 gpt-3 的工程实现,这儿可能提的是 attention is all you need

btw, BERT 也是 google 提出来的。

这些 encoder & decoder 各种架构在学术上可以说是非常领先的,而且直接咣咣砸论文,确实牛逼。

谷歌提出了transformer不假,但目前生成式ai用的decoder only架构是openai提出并发展起来的,谷歌目前在生成世ai方面没什么建树,闭源的gpt、claude,开源的llama、千问等都吊打谷歌

谷歌提出了transformer不假,但目前生成式ai用的decoder only架构是openai提出并发展起来的,谷歌目前在生成世ai方面没什么建树,闭源的gpt、claude,开源的llama、千问等都吊打谷歌

亮了(43)
回复
查看评论(4)
引用 @ricardolz 发表的:
只看此人

阿尔法狗声音还不大?只是gpt首先做到了llm大规模使用,第一个吃螃蟹的人,以为吊打天下一样。

[图片]

查看更多

阿尔法狗声音还不大?只是gpt首先做到了llm大规模使用,第一个吃螃蟹的人,以为吊打天下一样。

阿尔法狗肯定声音大,以后就有点没声音。这几年ai全是openai的风头,谷歌直接没画面了。

阿尔法狗肯定声音大,以后就有点没声音。这几年ai全是openai的风头,谷歌直接没画面了。

亮了(4)
回复
查看评论(1)
引用 @S1LveR4567 发表的:
只看此人

阿尔法狗肯定声音大,以后就有点没声音。这几年ai全是openai的风头,谷歌直接没画面了。

[图片]

查看更多

阿尔法狗肯定声音大,以后就有点没声音。这几年ai全是openai的风头,谷歌直接没画面了。

你好歹查查资料再说,alpha go之后alpha fold等相关技术在不同领域已经对行业进行了颠覆性革命,你眼里只有chatgpt。这几年deepMind年年nature、science。这还只是谷歌旗下deepMind的一个方向的突破。

你好歹查查资料再说,alpha go之后alpha fold等相关技术在不同领域已经对行业进行了颠覆性革命,你眼里只有chatgpt。这几年deepMind年年nature、science。这还只是谷歌旗下deepMind的一个方向的突破。

亮了(4)
回复
查看评论(1)
引用 @ricardolz 发表的:
只看此人

你好歹查查资料再说,alpha go之后alpha fold等相关技术在不同领域已经对行业进行了颠覆性革命,你眼里只有chatgpt。这几年deepMind年年nature、science。这还只是谷歌旗下deepMind的一个方向的突破。

你好歹查查资料再说,alpha go之后alpha fold等相关技术在不同领域已经对行业进行了颠覆性革命,你眼里只有chatgpt。这几年deepMind年年nature、science。这还只是谷歌旗下deepMind的一个方向的突破。

我本来就不懂啊,讲的就是印象流。以我一个外行的视角来看,这两年就是openai比谷歌更有画面啊,一提到ai就联想到chatgpt。要是去查资料了解过再讲也就不算印象流了。

我本来就不懂啊,讲的就是印象流。以我一个外行的视角来看,这两年就是openai比谷歌更有画面啊,一提到ai就联想到chatgpt。要是去查资料了解过再讲也就不算印象流了。

亮了(2)
回复
查看评论(1)
Re:企业比国家有钱?谷歌一家公司的净利润,已经超过全世界大多数国家的财政收入。
虎扑游戏中心
历史区最热帖
山姆今年营收要过千亿了,为什么在国内这么火啊?????
前三季度经济增量最高的15个城市
李敖有资格看不起金庸吗?
深圳在美国相当于什么水平?,能否达到休斯敦的水平?
韩国作为发达国家,为何只有19%的年轻男性超过181厘米?
中国消费了全球40%以上的豪车,为什么体育市场毫无消费能力?
分子人类学检测:即便北方汉人也普遍没有所谓胡人基因。
中国那个朝代做江山更久
白起VS韩信,谁的军事能力更强?
1996年到2024年,我们的拳头是不是硬了许多?
历史区最新帖
冷门诗人:初唐四杰,我想郑重介绍下初唐四杰王勃杨炯卢照邻骆宾王
《三国演义》人物喜爱榜复赛 64进32 第①②场 诸葛亮VS曹彰
《三国演义》人物喜爱榜复赛 64进32 第⑩场 张辽VS丁奉
戴高乐的军衔为什么到死都是准将?他的功绩完全配得上元帅军衔啊!
分子人类学检测:即便北方汉人也普遍没有所谓胡人基因。
《三国演义》人物喜爱榜复赛 64进32 第⑧场 太史慈VS典韦
《三国演义》人物喜爱榜复赛 64进32 第⑦场 赵云VS徐盛
春秋战国名人半决赛—老子李耳VS孔子孔丘
兄弟们,曹髦这个台词太好了啊,尤其玩游戏的时候给我的感觉,我甚至穿越了
《三国演义》人物喜爱榜复赛 64进32 第⑥场 张飞VS黄盖
热门游戏-即点即玩
无需下载,足球经理模式一键即玩
《NBA英雄》教练系统上线啦!我选好了,看看你的