全球几乎所有的AI模型,想要训练都要依靠着这些公开的数据内容才⛁🗠🜿行。因为都是英文数据,所以这些AI模型,一定都是以英文为核🗊🙸心。
所以当百度的文心一言推🆙🏽出之后,就会出现很多令人难以理解😮🄲的事……其实原因很简单♄🅴,文心一言使用的是英文数据,中文语料的数据实在是太少了。
别看国内人多,但网络上真正有💷🖟📸价值的内容实在不多,🗿稍微出格一点📴🟈🛊,这些有价值的语料就要按法律法规给删除了。
就剩下了一堆没法训练AI的垃圾内容。
就比如,《大时代之⛆😊⛆😊巅》到底是一本怎🗾样的书?
如果有人说好,有人说不好,这些内容就都是有价值的内容,AI模型经过一番的训练和评估,从而给出比较客🍅观公正的评价。
如果作者想要维护评论区的和谐,把所有说好的🞒内容都留下了,说差的内容都删除了,最后只剩下了一片🙽赞歌,那么即便这些赞歌都是对的,这也是垃圾信息。
因为对AI模型来说缺少了多元化的评判。
从出发点到终点,有一万条路,AI模型的训练就是把这一万条路都走一遍,然后选出最合适的🖪那条路,这才是AI的价值。
就像生物制药,有一万种选择,AI帮忙给出最好的那几个选择,就会大大地缩减⚮🔭研发经费、提高研发成功率。
要是一开始就只提供一条路,那还训练个屁啊,不给AI选择、评判、思考和分析的机会,就🕊🇻只告诉他一个标准答案,AI就会毫无意义。
德文、法文、日文、韩文的数据💷🖟📸量太少,中文的🞒数据量很大,可是因📴🟈🛊为环境的限制有价值的数据也很少。
所以,想🖡🔊训练出世界级的🆙🏽AI模型,就只能用英🞒文语料来训练。
这就需要一些弱势语言的AI模型,要有语言转换能力,去转换成英文⛁🗠🜿。🗶
就像使用文🌇☦🁨心一言,让他画一个起重🙩🍀🄽机的图片。
结果画的是鹤。
这就很让人费解。
其实很简🖡🔊单,起重机的英文是e,而e在英文里主要是指鹤。所以AI模型就画出了鹤的图片。