第161章 先去篮球队装个逼(第一更)(1/2)
第161章 先去篮球队装个逼(第一更)
“橘子……嘿嘿黑……”柚子傻笑了几声,笑声里充满了感情。
方豫看了一眼柚子,从某种意义上说,这个大模型也能算是柚子的孩子了。
就是不知道这个孩子能成长到什么程度?
橘子大模型的底层中,不只由多重神经网络组成,更隐含了柚子自身的简化版架构法则,具有超过三亿的参数,仅大模型本身规模,就超过10个g。
3亿的参数,在周历3061年的现在,是一个非常恐怖的规模。
deepmind几个月前刚刚公布的deep q-network的参数量也不过才168万。
而非死不可年中发布的深度学习面部学习系统deepface,虽然没有公布参数量,但按照推测,应该也不过是一千多万参数的级别。
而三年前古狗发布的古狗大脑计划,使用了一万六千颗cpu进行训练,号称有10亿参数,但其中无效参数和负作用参数比例超过百分之七十。
虽然也实现了视频端的无监督学习,但训练效果并不好。
但橘子大模型是不一样的。
由于柚子是在自己本体中完成的橘子大模型的框架搭建,在奥术的辅助下,橘子大模型的三亿参数中,无效参数和负作用参数基本能控制在10%以内!
可以说,刚刚诞生的橘子大模型,就是目前这个世界上性能最强的ai大模型!
神经网络下的人工智能参数,就相当于人类大脑的神经突触。
参数数量是影响人工智能模型能力的最重要因素之一,甚至是决定性因素。
更多的参数通常意味着模型具有更高的表示能力,能够捕捉和表达更复杂的模式和关系。
说人话,就是参数越多,人工智能就越像人。
而且,具有更多参数的模型可以更好地拟合训练数据,降低训练误差。
说人话,就是参数越多,人工智能的理解能力就越强。
从大方向上来说——参数越多,人工智能的能力越强,这句话是没有错的。
尽管目前只有40g的训练资料,但橘子大模型已经展现出了相当程度的智能水平。
这也说明,柚子所创造的深度学习训练框架效率之高,已经远超古狗一个月前刚刚发布tensorflow训练框架0.5版。
值得注意的是,人工智能训练框架和人工智能大模型的模型框架是两个不同的东西。
比如橘子大模型,其中所使用的多层神经网络及神经网络的层次结构和连接方式就是橘子的模型框架。
而训练框架,是一个提供工具和接口,用于构建、训练、评估和部署深度学习模型的软件平台。
说人话,就是,如果未经数据训练的大模型框架是一个崭新的脑子,那么训练框架就是学校、是老师、是整个教育体系。
ai大模型框架本身的层次和结构,就是这个崭新脑子的智商。
而训练数据,就是被教育体系用各种方法教授给这个崭新脑子的知识。
老师水平不同,教育体系不同,教授的知识不同,那么学生掌握知识的效率和准确率自然也不同。
一个学生本身成绩好不好,一方面取决于个人智商和努力,另一方面,也取决于教育方式和教育体系是否科学,老师的教学水平如何。
还有一方面,就是这些知识本就应该是正确的,错误的知识教授给学生,在考试和实际应用中没有任何作用。
同样,受过污染的错误数据也无法训练出可用的ai大模型,使用受过污染的数据训练大模型,会导致训练后的大模型几乎没有任何实用性。
三者相辅相成,缺一不可。
83中文网最新地址www.83zws.com本章未完,点击下一页继续阅读。