第321章 女娲1号

当初只能简单查找数据库里的内容,对答非常死板,经常答非所问。

最后李元不得不采用语言大模型“诸葛”,让他自己学习。

为了实现大模型,李元在一个主板上集成了8片PG32V3.5,内存高达4GB。

用于记录大模型的数据库,容量高达512GB。

这也是他现在能够做到的极限。

语言大模型更像是单字接龙:

比如你说“白”,她就会接“白天”。

如果你说“白日”,她就会接“白日做梦”。

如果你说“白日依山尽”,她就会接“白日依山尽,黄河入海流”。

核心是联想评判模型,她会联系上下文,从数据库里查找最为接近的词汇。

这是一个巨大的进步,她和第一版语言模型完全不同。

第一版,虽然也是查找数据库,但是没有组词、组句子的能力。

“诸葛”会根据上下文,组合出最符合逻辑的句子。

通过三次升级,现在的“诸葛”在语言方面好似有了一点智慧。

李元为了解决数据库爆炸的难题,把数据分为三个等级:高频、中频和低频。

高频的数据最少,但都是最近经常用到的内容,优先级最高。

中频数据是高频的3倍,是1个月内会调动的数据。

低频数据最多,是中频的100倍,低于3个月查找的数据。超过1年没用,会被新数据覆盖。

三级数据是经常更新的,类似计算机的三级缓存。

“女娲1号”目前还是带着一根电源线,移动范围有限。

是李元最强助手,很多反复演算、测试的工作全都是它负责。

每次追加任务需求修改脚本即可。

目前已经积累了大量的脚本,很多时候无需重新编写,只需调用组合。

等忙完手头的工作,他就会试图提升“女娲1号”的智能。

方案已经确定,就是“诸葛”语言大模型,在它的应用中积累了大量的经验。

这些经验可以非常容易地移植到“女娲1号”控制算法中。