第137章 方案顺利通过验证

最新网址:m.xiaoshuoge.info
    第137章 方案顺利通过验证 (第1/3页)

    “老婆,你先带着女儿玩一会儿,我去书房处理点儿工作,就一会儿!”思路涌来,郝成回到家不工作的承诺又要食言了。

    “十点!”宁荟能怎么样呢,还不是得由着他。

    “用不了,最多一个小时!”郝成伸出一根手指指着灯:“我保证!”

    “德性!”宁荟笑骂了一句,心里也是感叹:忙点就忙点吧,至少比起去年,这看起来开朗了许多。

    ……

    今天确实不费什么脑筋,因为相关的知识早就在从前整理过了,只是当初没有重视。

    来到书房,稍微翻一下之前记录下来的东西,郝成的思如泉涌,一下子就全都冒了出来。

    如果说模型的训练提升是在做加法,让模型变得更大更强,那裁切、量化、蒸馏就是在做减法。

    很多人可能会有疑问,做减法,那不是让模型变得更弱了吗?

    理论确实是这样,但有时候,弱不弱的其实不是特别重要,只要使对了劲儿,一样能造的嗷嗷叫,发挥很大的作用。

    比如,有些神经元节点的权重非常小,对模型加载信息的影响微乎其微,切掉它们,精度不会降太多,但却能大大的减少资源消耗。

    还有,像小沙这样全量全知全能的模型,其部署和每一次的相应运算推理,都需要消耗较大的算力资源。但事实上,每一次都是确有必要的吗?

    显然并不是!

    就拿小沙现在应用最广的软件开发能力来说,它就只需要精准需求的理解以及代码编写能力就够了,至于慢慢在增强的情感映射、主观判断等能力映射这些,那就完全没有必要!

    不仅消耗了更多的算力,还拖慢了相应速度。

    而且即便是需要的部分,也可以分层去处置:

    还是拿软件开发能力来说,最粗略的,那就可以分为两部分:一部分是需求理解,另一部分是根据需求去做开发。

    而这第二部分,那就只需要一个“软件开发”的行业模型就够了。

    所以,先在输入端就将用户

    (本章未完,请点击下一页继续阅读)
最新网址:m.xiaoshuoge.info