“刚刚阿狸云已经同意给予Y搜更大的资源弹性。”
面对李博明的紧张,周授兹显得非常镇定,拍了拍李博明的肩膀,给他吃了颗定心丸。
听到周授兹的话,李博明稍稍松了口气,随后又摇了摇头,笑道:“每天十万迈元的云服务存储计算和带宽成本,就能解决每天五亿次的搜索请求。”
“如果一个月前有人跟我说这个话,我一定以为他已经疯了。”
“佛手系统的分布式小模型,居然在只比普通搜索引擎多消耗十分之一资源的情况下,在用户本地完成百分之九十以上的AI计算。”
“如果不是亲眼所见,我绝不会相信还有这种技术。”
听到李博明的感叹,周授兹也深以为然的点了点头。
虽然他不是搞技术出身的,但从事高科技投资这么多年,耳濡目染和持续学习下,对IT的前沿技术发展并不陌生。
Y搜这种近乎于断崖式领先的搜索技术,此前连听都没听说过!
为了降低计算成本,Y搜采用了分布式小模型架构,用户打开Y搜页面后,就会在浏览器后台逐步加载一个几十M的小模型。
用户的搜索请求发出后,会由这个小模型将用户的请求先进行一次转化。
转化为Y搜在阿狸云服务器上的大模型最有效率能够理解的请求。
而被布置在阿狸云服务器上的这个大模型,就是李博明口中的佛手系统。
搜索过程返回后,再由本地小模型将佛手系统输出的结果进行AI评级后输出到本地页面。
通过这种小模型分布式计算的方式,Y搜的计算资源得到了极大的节省和降低,每个搜索请求所消耗的算力甚至比古狗或千寻还要低。
更为重要的是,由于大量的数据处理是在用户本地完成的,小模型与大模型之间的通信又是AI之间类似神经网络信号的“黑箱沟通”。
这种“不是加密数据但人类却无法理解”的数据即使被第三方截获,也没有任何办法可以破译,可以极大地保护用户数据安全。
实际上,Y搜通过分布式小模型降低搜索公司资源消耗的思路并不是独有的。
几乎目前所有互联网大厂都在布局的IOT“边缘计算”以及古狗刚刚提出的“联邦学习”,其实都是这个思路。
佛手系统的模式,更加类似于古狗提出的“联邦学习”。
只不过古狗的“联邦学习”还处于理论阶段,目前也只
本章未完,请点击下一页继续阅读!