国产精品乱码一区-性开放网站-少妇又紧又爽视频-西西大胆午夜人体视频-国产极品一区-欧美成人tv-四虎av在线-国产无遮挡无码视频免费软件-中文字幕亚洲乱码熟女一区二区-日产精品一区二区三区在线观看-亚洲国产亚综合在线区-五月婷婷综合色-亚洲日本视频在线观看-97精品人人妻人人-久久久久久一区二区三区四区别墅-www.免费av-波多野结衣绝顶大高潮-日本在线a一区视频高清视频-强美女免费网站在线视频-亚洲永久免费

 找回密碼
 注冊會(huì)員

QQ登錄

只需一步,快速開始

搜索
查看: 6454|回復(fù): 82

各位設(shè)計(jì)師,請盡快擁抱AI時(shí)代,盡快,盡快!

[復(fù)制鏈接]
1#
發(fā)表于 2025-3-11 17:29:07 | 只看該作者 |只看大圖 |倒序?yàn)g覽 |閱讀模式
我原本以為我年紀(jì)大了,跟不上時(shí)代了,但今天發(fā)現(xiàn)是很多的年輕人完全沒跟上時(shí)代的步伐。在今天這樣一個(gè)DEEPSEEK開創(chuàng)的免費(fèi)的AI時(shí)代。很多人居然都沒聽說更沒用過這個(gè)。我真的有些震驚。下面附幾張利用AI計(jì)算和解決工程問題的圖片,這個(gè)時(shí)代的AI已經(jīng)極大的提升了個(gè)人設(shè)計(jì)能力的邊界,不用多久,我相信一個(gè)總工帶領(lǐng)一群AI設(shè)計(jì)的模式將全面取代設(shè)計(jì)院。各位加油,跟上這個(gè)時(shí)代。

1.jpg (75.59 KB, 下載次數(shù): 6)

1.jpg

2.jpg (82.04 KB, 下載次數(shù): 5)

2.jpg

3.jpg (82.34 KB, 下載次數(shù): 3)

3.jpg

4.jpg (106.45 KB, 下載次數(shù): 8)

4.jpg

5.jpg (58.48 KB, 下載次數(shù): 4)

5.jpg

評分

參與人數(shù) 3威望 +102 收起 理由
cyzy6388 + 1 問題描述清楚,顯得很專業(yè)!
喂我袋鹽 + 1 我去年發(fā)的AI+CNC落地帖,有人不信說騙子哈.
老鷹 + 100

查看全部評分

回復(fù)

使用道具 舉報(bào)

2#
發(fā)表于 2025-3-11 17:39:33 | 只看該作者
加油,跟上這個(gè)時(shí)代
3#
發(fā)表于 2025-3-11 17:41:05 | 只看該作者
AI 其實(shí)就是一個(gè) 可以給你整理電子書的助手,儲存量可以理解為無限制。也會(huì)根據(jù)大數(shù)據(jù)進(jìn)行提取

但真正用到的機(jī)械設(shè)計(jì) 尚有難度,尤其是涉及現(xiàn)場應(yīng)用 還要經(jīng)驗(yàn)型的

超靜定結(jié)構(gòu)‌ 這些學(xué)過理論力學(xué) 都知道 如何分配受力計(jì)算 屬于常識

點(diǎn)評

就是搜索神器,另外還能組織下簡單的程序。我現(xiàn)在使用deepseek和豆包寫的程序,很多都無法達(dá)到我的預(yù)期,我都寫那么詳細(xì)的提綱了,還是不行,必須提綱寫的非常詳盡,最好是把參數(shù)在每一步都固化下來才行。  發(fā)表于 2025-3-13 08:12
對 很多廢話,他就是 把關(guān)鍵詞提取那種,無法像人那樣組成有邏輯的推理和應(yīng)用。  發(fā)表于 2025-3-11 18:27
大模型只會(huì)說一些大話廢話,只要一深入某個(gè)具體案例,它就直接就飯桶。信它不如信共產(chǎn)主義。  發(fā)表于 2025-3-11 18:15
4#
 樓主| 發(fā)表于 2025-3-11 17:49:57 | 只看該作者
pengzhiping 發(fā)表于 2025-3-11 17:41
AI 其實(shí)就是一個(gè) 可以給你整理電子書的助手,儲存量可以理解為無限制。也會(huì)根據(jù)大數(shù)據(jù)進(jìn)行提取

但真正用 ...

大家需要重新理解AI,今天的AI完全不是整理電子書這么簡單,他不僅僅是昨天的CAD。一個(gè)微調(diào)好的,垂直領(lǐng)域的AI會(huì)吊打20年的工程師的,這件事不用多久就會(huì)發(fā)生,不會(huì)超過2年。今天各個(gè)設(shè)計(jì)院完全有條件訓(xùn)練自己的專業(yè)AI系統(tǒng)了。盡快體驗(yàn),盡快體驗(yàn)。

點(diǎn)評

簡單的事情能省很多事情,但是專業(yè)的領(lǐng)域,不好說,本身用AI就是因?yàn)樵诒緦I(yè)中有缺憾,或者是需要彌補(bǔ),然后一個(gè)不是本專業(yè)的公司或者個(gè)人搞的AI就彌補(bǔ)這個(gè)缺憾并吊打本專業(yè)的人?可能性不大。所以不要迷行。  發(fā)表于 2025-3-13 08:15
AI的用處是加快你設(shè)計(jì)的思路,以及文檔的匯總,你就更加全面了  發(fā)表于 2025-3-12 13:45
我也覺得AI至少比剛高考結(jié)束的高中生強(qiáng)一些,那好好訓(xùn)練三四年,至少也會(huì)比在大學(xué)里面荒廢的大學(xué)生強(qiáng)吧,按照春哥的說法,大學(xué)不咋樣  發(fā)表于 2025-3-12 09:17
AI的低層是 是 數(shù)學(xué)矩陣 如果你理解低層 就不會(huì)那么說。  發(fā)表于 2025-3-11 18:27
你但凡用過大模型,就知道大模型最多是個(gè)搜索信息的玩意,什么正經(jīng)事都干不了,還經(jīng)常性胡說八道。P不懂的新手直接就被胡說八道坑死。但你自己什么都懂,為什么要用大模型,邏輯呢。  發(fā)表于 2025-3-11 18:13
5#
 樓主| 發(fā)表于 2025-3-11 17:59:28 | 只看該作者
機(jī)械社區(qū)可以組織高手把曾經(jīng)的精華問答,做成高質(zhì)量的訓(xùn)練數(shù)據(jù)集,和DEEPSEEK這樣的公司合作,訓(xùn)練專業(yè)的大模型,AI時(shí)代,機(jī)械社區(qū)這個(gè)古舊的網(wǎng)站問答已經(jīng)完成歷史使命了,需要徹底更新了。

點(diǎn)評

你確實(shí)有點(diǎn)拎不清自己...  發(fā)表于 2025-3-13 08:51
深度求索公司認(rèn)識你是誰啊,deepseek開源模型自己不會(huì)去下載啊,你不會(huì)真以為deepseek是低成本運(yùn)行吧,deepseek沒了優(yōu)質(zhì)顯卡,一樣是弱智。  發(fā)表于 2025-3-11 18:12
6#
發(fā)表于 2025-3-11 18:02:34 | 只看該作者
我用AI輔助設(shè)計(jì)已經(jīng)快2年了,感覺很爽

點(diǎn)評

不能完全照搬,要有分辨能力  發(fā)表于 2025-3-11 21:01
大白天說夢話呢,AI經(jīng)常胡說八道,你怎么克服,義務(wù)替它挑錯(cuò)嗎?它的訓(xùn)練數(shù)據(jù)里有什么行業(yè)的核心數(shù)據(jù)嗎  發(fā)表于 2025-3-11 18:11
7#
 樓主| 發(fā)表于 2025-3-11 18:21:00 | 只看該作者
發(fā)一段我和AI的對話,具體回答,各位可以自行問AI。如果你認(rèn)真讀一下,可能會(huì)理解今天的AI是什么,不要辜負(fù)這個(gè)時(shí)代。
1.大語言模型是如何利用全網(wǎng)數(shù)據(jù)進(jìn)行訓(xùn)練的,能不能用淺顯易懂的例子說明一下,比如你是怎么學(xué)習(xí)GB 150-2011這標(biāo)準(zhǔn)的?
2.那是不是有什么自動(dòng)化的清理數(shù)據(jù)的的程序,因?yàn)槲依斫饪咳斯砬謇砦谋竞屯段箶?shù)據(jù)是項(xiàng)無法完成的巨量工作,特別是考慮你需要各行各業(yè)的專業(yè)人士來清理數(shù)據(jù),確保數(shù)據(jù)質(zhì)量。
3.如果想讓模型精確掌握GB 150-2011的內(nèi)容,需要人工干預(yù)模型的學(xué)習(xí)過程嗎,比方用示例來校核。
4.也就是說像你這樣的模型,如果想要在某一領(lǐng)域表現(xiàn)的更加出色,是需要針對性的做更專業(yè)的訓(xùn)練。這是不是就是所謂的微調(diào)?
5.一個(gè)已經(jīng)發(fā)布的大語言模型,比如你這樣的,能通過用戶的反饋來實(shí)現(xiàn)自我改進(jìn)嗎?
6.你這樣的開源模型應(yīng)該是可以通過微調(diào),來構(gòu)建一個(gè)專業(yè)領(lǐng)域的模型,比如內(nèi)科醫(yī)生AI,我的理解對吧?
7.模型訓(xùn)練用的數(shù)據(jù)集是個(gè)什么樣的東西,能舉個(gè)例子嗎?是不是這樣的文件,比如,1+1是輸入,2是輸出,然后把這個(gè)當(dāng)成一條數(shù)據(jù)喂給模型。重復(fù)類似的數(shù)據(jù),10以內(nèi)的加減法,然后模型就學(xué)會(huì)了泛化10以內(nèi)的加減法。是不是有點(diǎn)類似人類學(xué)習(xí)時(shí)的習(xí)題集?
8.大模型的參數(shù)權(quán)重這些,可以不可理解成一種更優(yōu)化的或者更泛化(我可能沒有合適的詞來描述)的算法,比如,如果我們詳細(xì)的知道皮膚骨骼等隨著年齡變化的函數(shù),我們就能用一種算法來描述一個(gè)人從孩子到老年的容貌變化。當(dāng)你給定小孩的容貌時(shí),我們就能算出老年時(shí)的容貌。但是大模型的話,我們只要連續(xù)給定大量的孩子從小到老的容貌變化的圖片的數(shù)據(jù)集,模型就會(huì)調(diào)整參數(shù)權(quán)重,從而得出一個(gè)人無法知曉的函數(shù)(如果可以稱為函數(shù)的話)。從而預(yù)測某個(gè)孩子的未來容貌。更關(guān)鍵的是這組參數(shù)權(quán)重所代表的函數(shù)往往比之前那種算法涵蓋的規(guī)律更全面準(zhǔn)確。上面這些理解有問題嗎?
9.就人類已知的知識,容貌還和與生活環(huán)境、基因、飲食等因素相關(guān),理論上這些因素可能是無窮的,如果是以數(shù)據(jù)集訓(xùn)練大模型,顯然我們無法實(shí)現(xiàn)無窮因素和結(jié)果之間的映射,如果這樣的話,以現(xiàn)有的模式是不可能訓(xùn)練出像上帝一樣的超級智能的。模型的智能表現(xiàn)會(huì)困在我們已知的知識映射上。舉個(gè)例子人類的歷史并不具備繞銀河系中心一周的數(shù)據(jù),更不用說更大的星系團(tuán),這些信息對某些規(guī)律可能有重要的影響,但這個(gè)不包含在人類已有的數(shù)據(jù)集中。除非我們能找到更底層的規(guī)律,才有可能做一些可能的推演。但是悖論是所有的知識起點(diǎn)都是基于歸納法的。但歸納法本身就是不完備的,所以世界是無法完全認(rèn)知的,我說的對嗎?

點(diǎn)評

你費(fèi)勁打這些內(nèi)容,都表明你是一篇大模型,AI,transformer架構(gòu)相關(guān)的論文沒看,所以全是扯淡。  發(fā)表于 2025-3-11 19:46
8#
發(fā)表于 2025-3-11 19:25:10 | 只看該作者
本帖最后由 學(xué)者11 于 2025-3-11 19:45 編輯
極限思維 發(fā)表于 2025-3-11 18:21
發(fā)一段我和AI的對話,具體回答,各位可以自行問AI。如果你認(rèn)真讀一下,可能會(huì)理解今天的AI是什么,不要辜負(fù) ...

1網(wǎng)絡(luò)數(shù)據(jù)很多都是胡說八道,最明顯的例子就是

TMD哪來的4000點(diǎn),后來有人找到了數(shù)據(jù)來源,是某個(gè)自媒體的胡說八道,而大模型它屁不懂,就知道照抄。就是TMD哪門子智能。

要不是讀過標(biāo)準(zhǔn),真就信了。


2 聽說過數(shù)據(jù)標(biāo)注員,你知道全國有多少人從事數(shù)據(jù)標(biāo)注員工作嗎。而且也不存在各行各業(yè),很多行業(yè)的常識大模型是根本不知道,是一點(diǎn)不懂。

3你根本不知道大模型本質(zhì)是猜文字生成概率模型,你就是讓AI全文閱讀標(biāo)準(zhǔn),它照樣胡說八道。

4 微調(diào)的依賴路徑是什么,AI很大程度上依然取決于數(shù)據(jù)的質(zhì)量和數(shù)量。如果特定領(lǐng)域的數(shù)據(jù)量過少或質(zhì)量不高,微調(diào)的效果不理想。
而且在微調(diào)過程中,AI會(huì)“忘記”它在預(yù)訓(xùn)練階段學(xué)到的一些信息。所謂越調(diào)越傻。

5 大模型不是靠用戶反饋的,你想多了,你但凡用過國內(nèi)軟件,哪個(gè)是用戶反饋就給你升級的,你算老幾。即便是最先進(jìn)的大模型也不能直接根據(jù)用戶反饋進(jìn)行自我進(jìn)化,模型的改進(jìn)和更新通常需要人工干預(yù),大模型也必須程序員來編程改進(jìn)。


6 關(guān)于微調(diào)上面已經(jīng)闡述了,專業(yè)領(lǐng)域的AI與微調(diào)無關(guān),微調(diào)什么都不能解決,多看點(diǎn)相關(guān)論文。

7再一次證明你不懂什么是大模型,上面說了,大模型就是個(gè)文字概率生成模型,所以它沒有“學(xué)習(xí)”這種概念。

8大模型的參數(shù)權(quán)重是指在深度學(xué)習(xí)或機(jī)器學(xué)習(xí)模型中,特別是神經(jīng)網(wǎng)絡(luò)里,每個(gè)神經(jīng)元之間的連接強(qiáng)度。這些權(quán)重是模型內(nèi)部的參數(shù),它們決定了輸入數(shù)據(jù)如何通過網(wǎng)絡(luò)的不同層被處理和轉(zhuǎn)換,并最終影響輸出結(jié)果。權(quán)重反映了每個(gè)輸入的重要性:如果權(quán)重接近零,那么該輸入對最終輸出的影響就很小;如果權(quán)重很大(無論是正數(shù)還是負(fù)數(shù)),那么該輸入將對輸出產(chǎn)生較大的影響。
9人類的意識都沒探討明白,你探討什么大模型,都說一萬遍了,現(xiàn)在生成式AI的架構(gòu)就是大型語言模型架構(gòu)LLM,文字生成概率。它根本不理解世界,它說草是綠色的,僅僅是人類給的數(shù)據(jù)中,草和綠色經(jīng)常性組合在一起。就是權(quán)重高,所以大模型也就跟著組合。


9#
發(fā)表于 2025-3-11 20:01:49 | 只看該作者
在中國,99.5%以上的機(jī)械設(shè)計(jì)師工程師技術(shù)水平,都比不上一個(gè)只有一年不到的AI應(yīng)用,其實(shí)不是AI聰明,而是99.5%的所謂工程師設(shè)計(jì)師,其實(shí)都是一幫無能之輩,一輩子沒有高光時(shí)刻,一輩子在自己的可憐的工位上做著那點(diǎn)可憐的活,以此度過余生而已。

點(diǎn)評

你自己是個(gè)勒色,但不要把大家主說成勒色。  發(fā)表于 2025-3-12 14:15
喲,這不是35歲哥嗎  發(fā)表于 2025-3-11 22:09
10#
發(fā)表于 2025-3-11 20:07:37 | 只看該作者
其實(shí)不要說設(shè)計(jì)師,任何人都應(yīng)該好好了解學(xué)習(xí)AI,和身邊幾個(gè)玩自媒體的朋友聊天當(dāng)中用得知用AI收益確實(shí)不錯(cuò)其一。其二,之前自學(xué)三維軟件只知其一不知其二。用AI后知道了:“為什么要這樣”,思路清楚了,現(xiàn)在設(shè)計(jì)一個(gè)東西我都會(huì)先問一下AI,他會(huì)怎樣設(shè)計(jì)。如果后續(xù)的AI發(fā)展到與人交流,對話,那才是最可怕的時(shí)代。

點(diǎn)評

你上網(wǎng)搜索資料,難道也要學(xué)習(xí)下網(wǎng)頁搜索嗎。你簡直太搞笑了,你是不是還要學(xué)習(xí)如何使用筷子吃飯啊,你是不是也要向天下人告之你會(huì)用筷子吃飯啊。  發(fā)表于 2025-3-12 14:17
AI的資料也在網(wǎng)上搜的,比你強(qiáng)嗎?你到底有多懶。  發(fā)表于 2025-3-12 14:15
您需要登錄后才可以回帖 登錄 | 注冊會(huì)員

本版積分規(guī)則

Archiver|手機(jī)版|小黑屋|機(jī)械社區(qū) ( 京ICP備10217105號-1,京ICP證050210號,浙公網(wǎng)安備33038202004372號 )

GMT+8, 2025-9-6 15:20 , Processed in 0.083877 second(s), 20 queries , Gzip On.

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回復(fù) 返回頂部 返回列表