|
8#
發(fā)表于 2025-3-11 19:25:10
|
只看該作者
本帖最后由 學(xué)者11 于 2025-3-11 19:45 編輯
1網(wǎng)絡(luò)數(shù)據(jù)很多都是胡說八道,最明顯的例子就是
Screenshot_20250127_104331.jpg (63.4 KB, 下載次數(shù): 4)
下載附件
保存到相冊
2025-3-11 19:19 上傳
TMD哪來的4000點(diǎn),后來有人找到了數(shù)據(jù)來源,是某個(gè)自媒體的胡說八道,而大模型它屁不懂,就知道照抄。就是TMD哪門子智能。
IMG_20240608_181528.jpg (63.15 KB, 下載次數(shù): 3)
下載附件
保存到相冊
2025-3-11 19:24 上傳
要不是讀過標(biāo)準(zhǔn),真就信了。
笑話166.JPG (101.89 KB, 下載次數(shù): 7)
下載附件
保存到相冊
2025-3-11 19:25 上傳
2 聽說過數(shù)據(jù)標(biāo)注員,你知道全國有多少人從事數(shù)據(jù)標(biāo)注員工作嗎。而且也不存在各行各業(yè),很多行業(yè)的常識大模型是根本不知道,是一點(diǎn)不懂。
3你根本不知道大模型本質(zhì)是猜文字生成概率模型,你就是讓AI全文閱讀標(biāo)準(zhǔn),它照樣胡說八道。
4 微調(diào)的依賴路徑是什么,AI很大程度上依然取決于數(shù)據(jù)的質(zhì)量和數(shù)量。如果特定領(lǐng)域的數(shù)據(jù)量過少或質(zhì)量不高,微調(diào)的效果不理想。
而且在微調(diào)過程中,AI會(huì)“忘記”它在預(yù)訓(xùn)練階段學(xué)到的一些信息。所謂越調(diào)越傻。
5 大模型不是靠用戶反饋的,你想多了,你但凡用過國內(nèi)軟件,哪個(gè)是用戶反饋就給你升級的,你算老幾。即便是最先進(jìn)的大模型也不能直接根據(jù)用戶反饋進(jìn)行自我進(jìn)化,模型的改進(jìn)和更新通常需要人工干預(yù),大模型也必須程序員來編程改進(jìn)。
6 關(guān)于微調(diào)上面已經(jīng)闡述了,專業(yè)領(lǐng)域的AI與微調(diào)無關(guān),微調(diào)什么都不能解決,多看點(diǎn)相關(guān)論文。
7再一次證明你不懂什么是大模型,上面說了,大模型就是個(gè)文字概率生成模型,所以它沒有“學(xué)習(xí)”這種概念。
8大模型的參數(shù)權(quán)重是指在深度學(xué)習(xí)或機(jī)器學(xué)習(xí)模型中,特別是神經(jīng)網(wǎng)絡(luò)里,每個(gè)神經(jīng)元之間的連接強(qiáng)度。這些權(quán)重是模型內(nèi)部的參數(shù),它們決定了輸入數(shù)據(jù)如何通過網(wǎng)絡(luò)的不同層被處理和轉(zhuǎn)換,并最終影響輸出結(jié)果。權(quán)重反映了每個(gè)輸入的重要性:如果權(quán)重接近零,那么該輸入對最終輸出的影響就很小;如果權(quán)重很大(無論是正數(shù)還是負(fù)數(shù)),那么該輸入將對輸出產(chǎn)生較大的影響。
9人類的意識都沒探討明白,你探討什么大模型,都說一萬遍了,現(xiàn)在生成式AI的架構(gòu)就是大型語言模型架構(gòu)LLM,文字生成概率。它根本不理解世界,它說草是綠色的,僅僅是人類給的數(shù)據(jù)中,草和綠色經(jīng)常性組合在一起。就是權(quán)重高,所以大模型也就跟著組合。
|
|