还是CNN,对自然语言的处理上效果都不是很好,目前在自然语言处理领域,仍旧是以RNN和LSTM为主流。
古狗大脑在去年展示了如何基于LSTM来生成对话,但这些对话仍然存在上下文理解不一致的问题。
也就是说,上一句对话中,它对这个问题还是A理解,当隔了几句对话后,再次出现涉及到第一句对话中的问题时,人工智能对这个问题的理解就变成了B。
直到现在为止,似乎也没有什么更好的办法来处理这个问题。
柚子科技又是怎么做到的?
哈萨比斯和大卫席尔瓦绞尽脑汁,也不知道橘子大模型到底用的是什么样的模型结构。
要知道,刚刚陆偲所展示的,对于人工智能来说,和下棋是完全是两种不同的能力方向!
难道说,柚子科技开发出了全新的神经网络结构?
不不不,此前没有看到过任何新论文出现,应该是他们针对于现有的神经网络做出了一些优化,或者发现了过去没有被注意到的某些论文的作用。
赛后,一定要约他们团队聊一下,了解一下他们到底是如何做到的。
这种交流在IT行业内其实很常见,很多伟大的产品创意其实都是在这种交流中产生的。
包括deepmind自己,原本也是个没有几个人的草台班子,是先搞出了一个人工智能自动玩打砖块的游戏,在一些大学中做了演讲,随后又死皮赖脸的找到彼得蒂尔,彼得蒂尔又给他们介绍了马斯克。
在马斯克和其他人聊八卦的时候,佩奇听到了,对deepmind产生了兴趣,这才收购了deepmind。
收购deepmind时,古狗也同样有竞争者,那就是FB。
当时扎克伯格其实出价比古狗还高一些,但就是因为名声太差,deepmind最终还是和辛顿一样,接受了比较低的出价。
只要注意交流时不透露核心技术机密,这种交流往往是对双方都有利的。
其实担心交流时泄密大多数时候也是多余,以现在人工智能的复杂性来说,拼的是技术实力,拼的是算力资源,像苹果抄袭微软视窗时代那种一两个简单的点子就能赚大钱的时代早就过去了。
现在的IT行业,把创意、技术原理、硬件平台、甚至论文全都完完整整的给你摆出来,你做出来的东西都未必能有原版一半的性能。
例如这两年爆火的头条,所有人都知道,他的
本章未完,请点击下一页继续阅读!