国产精品乱码一区-性开放网站-少妇又紧又爽视频-西西大胆午夜人体视频-国产极品一区-欧美成人tv-四虎av在线-国产无遮挡无码视频免费软件-中文字幕亚洲乱码熟女一区二区-日产精品一区二区三区在线观看-亚洲国产亚综合在线区-五月婷婷综合色-亚洲日本视频在线观看-97精品人人妻人人-久久久久久一区二区三区四区别墅-www.免费av-波多野结衣绝顶大高潮-日本在线a一区视频高清视频-强美女免费网站在线视频-亚洲永久免费

機械社區

標題: 各位設計師,請盡快擁抱AI時代,盡快,盡快! [打印本頁]

作者: 極限思維    時間: 2025-3-11 17:29
標題: 各位設計師,請盡快擁抱AI時代,盡快,盡快!
我原本以為我年紀大了,跟不上時代了,但今天發現是很多的年輕人完全沒跟上時代的步伐。在今天這樣一個DEEPSEEK開創的免費的AI時代。很多人居然都沒聽說更沒用過這個。我真的有些震驚。下面附幾張利用AI計算和解決工程問題的圖片,這個時代的AI已經極大的提升了個人設計能力的邊界,不用多久,我相信一個總工帶領一群AI設計的模式將全面取代設計院。各位加油,跟上這個時代。
作者: ALANALANALANALA    時間: 2025-3-11 17:39
加油,跟上這個時代
作者: pengzhiping    時間: 2025-3-11 17:41
AI 其實就是一個 可以給你整理電子書的助手,儲存量可以理解為無限制。也會根據大數據進行提取

但真正用到的機械設計 尚有難度,尤其是涉及現場應用 還要經驗型的

超靜定結構‌ 這些學過理論力學 都知道 如何分配受力計算 屬于常識
作者: 極限思維    時間: 2025-3-11 17:49
pengzhiping 發表于 2025-3-11 17:41
AI 其實就是一個 可以給你整理電子書的助手,儲存量可以理解為無限制。也會根據大數據進行提取

但真正用 ...

大家需要重新理解AI,今天的AI完全不是整理電子書這么簡單,他不僅僅是昨天的CAD。一個微調好的,垂直領域的AI會吊打20年的工程師的,這件事不用多久就會發生,不會超過2年。今天各個設計院完全有條件訓練自己的專業AI系統了。盡快體驗,盡快體驗。

作者: 極限思維    時間: 2025-3-11 17:59
機械社區可以組織高手把曾經的精華問答,做成高質量的訓練數據集,和DEEPSEEK這樣的公司合作,訓練專業的大模型,AI時代,機械社區這個古舊的網站問答已經完成歷史使命了,需要徹底更新了。
作者: longyucanghai    時間: 2025-3-11 18:02
我用AI輔助設計已經快2年了,感覺很爽
作者: 極限思維    時間: 2025-3-11 18:21
發一段我和AI的對話,具體回答,各位可以自行問AI。如果你認真讀一下,可能會理解今天的AI是什么,不要辜負這個時代。
1.大語言模型是如何利用全網數據進行訓練的,能不能用淺顯易懂的例子說明一下,比如你是怎么學習GB 150-2011這標準的?
2.那是不是有什么自動化的清理數據的的程序,因為我理解靠人工來清理文本和投喂數據是項無法完成的巨量工作,特別是考慮你需要各行各業的專業人士來清理數據,確保數據質量。
3.如果想讓模型精確掌握GB 150-2011的內容,需要人工干預模型的學習過程嗎,比方用示例來校核。
4.也就是說像你這樣的模型,如果想要在某一領域表現的更加出色,是需要針對性的做更專業的訓練。這是不是就是所謂的微調?
5.一個已經發布的大語言模型,比如你這樣的,能通過用戶的反饋來實現自我改進嗎?
6.你這樣的開源模型應該是可以通過微調,來構建一個專業領域的模型,比如內科醫生AI,我的理解對吧?
7.模型訓練用的數據集是個什么樣的東西,能舉個例子嗎?是不是這樣的文件,比如,1+1是輸入,2是輸出,然后把這個當成一條數據喂給模型。重復類似的數據,10以內的加減法,然后模型就學會了泛化10以內的加減法。是不是有點類似人類學習時的習題集?
8.大模型的參數權重這些,可以不可理解成一種更優化的或者更泛化(我可能沒有合適的詞來描述)的算法,比如,如果我們詳細的知道皮膚骨骼等隨著年齡變化的函數,我們就能用一種算法來描述一個人從孩子到老年的容貌變化。當你給定小孩的容貌時,我們就能算出老年時的容貌。但是大模型的話,我們只要連續給定大量的孩子從小到老的容貌變化的圖片的數據集,模型就會調整參數權重,從而得出一個人無法知曉的函數(如果可以稱為函數的話)。從而預測某個孩子的未來容貌。更關鍵的是這組參數權重所代表的函數往往比之前那種算法涵蓋的規律更全面準確。上面這些理解有問題嗎?
9.就人類已知的知識,容貌還和與生活環境、基因、飲食等因素相關,理論上這些因素可能是無窮的,如果是以數據集訓練大模型,顯然我們無法實現無窮因素和結果之間的映射,如果這樣的話,以現有的模式是不可能訓練出像上帝一樣的超級智能的。模型的智能表現會困在我們已知的知識映射上。舉個例子人類的歷史并不具備繞銀河系中心一周的數據,更不用說更大的星系團,這些信息對某些規律可能有重要的影響,但這個不包含在人類已有的數據集中。除非我們能找到更底層的規律,才有可能做一些可能的推演。但是悖論是所有的知識起點都是基于歸納法的。但歸納法本身就是不完備的,所以世界是無法完全認知的,我說的對嗎?
作者: 學者11    時間: 2025-3-11 19:25
本帖最后由 學者11 于 2025-3-11 19:45 編輯
極限思維 發表于 2025-3-11 18:21
發一段我和AI的對話,具體回答,各位可以自行問AI。如果你認真讀一下,可能會理解今天的AI是什么,不要辜負 ...

1網絡數據很多都是胡說八道,最明顯的例子就是
(, 下載次數: 5)
TMD哪來的4000點,后來有人找到了數據來源,是某個自媒體的胡說八道,而大模型它屁不懂,就知道照抄。就是TMD哪門子智能。
(, 下載次數: 3)
要不是讀過標準,真就信了。
(, 下載次數: 8)

2 聽說過數據標注員,你知道全國有多少人從事數據標注員工作嗎。而且也不存在各行各業,很多行業的常識大模型是根本不知道,是一點不懂。

3你根本不知道大模型本質是猜文字生成概率模型,你就是讓AI全文閱讀標準,它照樣胡說八道。

4 微調的依賴路徑是什么,AI很大程度上依然取決于數據的質量和數量。如果特定領域的數據量過少或質量不高,微調的效果不理想。
而且在微調過程中,AI會“忘記”它在預訓練階段學到的一些信息。所謂越調越傻。

5 大模型不是靠用戶反饋的,你想多了,你但凡用過國內軟件,哪個是用戶反饋就給你升級的,你算老幾。即便是最先進的大模型也不能直接根據用戶反饋進行自我進化,模型的改進和更新通常需要人工干預,大模型也必須程序員來編程改進。


6 關于微調上面已經闡述了,專業領域的AI與微調無關,微調什么都不能解決,多看點相關論文。

7再一次證明你不懂什么是大模型,上面說了,大模型就是個文字概率生成模型,所以它沒有“學習”這種概念。

8大模型的參數權重是指在深度學習或機器學習模型中,特別是神經網絡里,每個神經元之間的連接強度。這些權重是模型內部的參數,它們決定了輸入數據如何通過網絡的不同層被處理和轉換,并最終影響輸出結果。權重反映了每個輸入的重要性:如果權重接近零,那么該輸入對最終輸出的影響就很小;如果權重很大(無論是正數還是負數),那么該輸入將對輸出產生較大的影響。
9人類的意識都沒探討明白,你探討什么大模型,都說一萬遍了,現在生成式AI的架構就是大型語言模型架構LLM,文字生成概率。它根本不理解世界,它說草是綠色的,僅僅是人類給的數據中,草和綠色經常性組合在一起。就是權重高,所以大模型也就跟著組合。



作者: 翱翔天際    時間: 2025-3-11 20:01
在中國,99.5%以上的機械設計師工程師技術水平,都比不上一個只有一年不到的AI應用,其實不是AI聰明,而是99.5%的所謂工程師設計師,其實都是一幫無能之輩,一輩子沒有高光時刻,一輩子在自己的可憐的工位上做著那點可憐的活,以此度過余生而已。
作者: 無法言喻1977    時間: 2025-3-11 20:07
其實不要說設計師,任何人都應該好好了解學習AI,和身邊幾個玩自媒體的朋友聊天當中用得知用AI收益確實不錯其一。其二,之前自學三維軟件只知其一不知其二。用AI后知道了:“為什么要這樣”,思路清楚了,現在設計一個東西我都會先問一下AI,他會怎樣設計。如果后續的AI發展到與人交流,對話,那才是最可怕的時代。
作者: cc851    時間: 2025-3-11 21:51
不用計算什么的,真的成了畫圖狗了。
作者: Shlgzh    時間: 2025-3-12 08:01
謝謝分享
作者: Dahui256    時間: 2025-3-12 08:12
還是那句話,盡信書不如無書,AI只是工具,能學到多少利用多少都看自己
作者: jian2901    時間: 2025-3-12 08:35
大語言模型是如何利用全網數據進行訓練的,能不能用淺顯易懂的例子說明一下,比如你是怎么學習GB 150-2011這標準的?

chatGPT4:
大語言模型的訓練過程并不是指通過直接 "學習" 或下載特定文件或標準。模型的訓練是通過接觸大量的文本數據,來學習語言的結構、模式、語法和語義。這些數據可能包含各種各樣的來源,比如書籍、網站、文章和其他公開可用的文本。

以下用淺顯的方法來解釋這個過程:

數據收集:在訓練初期,模型會接觸到非常海量的文本,這些文本涵蓋多個領域和主題。這些數據是在訓練前已經收集好的,并不是實時網絡抓取。

特征學習:通過分析這些文本,模型會識別出一些語言特征。例如,它會了解句子的結構,詞語的用法,還有段落的組織方式。這些特征幫助模型理解如何生成合理的文本。

模式識別:模型通過大量的示例學習規律和模式,譬如某些詞語通常在一起出現,某類文體的句式特點等。這樣,它就能根據輸入的上下文生成符合邏輯的回答。

對于非常具體的像GB 150-2011這樣的標準,模型可能在訓練數據中接觸到與它相關的介紹、討論或引用,但并不是直接去學習或存儲該文檔。模型會通過學習語言的表達習慣來了解如何表述與該標準相關的內容。如果模型在訓練數據中接觸較多與該標準相關的信息,它的相關性可能更強。

總的來說,模型的能力是基于所接受的廣泛語料,而不是逐字逐句地記住特定文檔。不過,它能模擬生成內容響應有關的請求,因為它了解語言運作的基本規律和常識。

作者: jian2901    時間: 2025-3-12 08:35
那是不是有什么自動化的清理數據的的程序,因為我理解靠人工來清理文本和投喂數據是項無法完成的巨量工作,特別是考慮你需要各行各業的專業人士來清理數據,確保數據質量。
chatGPT4:
確實,對于訓練大語言模型來說,自動化的數據清理和處理是非常重要且必要的,因為處理的數據量極其龐大,人工逐一清理是不可行的。以下是一些典型的自動化數據清理和處理的方法:

數據收集與初步篩選:自動化程序會從多種公開可用的來源中收集數據,然后使用基本過濾器來移除顯而易見的低質量數據,如包含惡意內容或格式損壞的文本。

去重和格式規范化:使用自動腳本刪除重復內容,并規范化文本格式,比如統一編碼格式、去除多余的空白和HTML標簽等。

語言檢測:通過自動語言檢測工具篩選出目標語言的文本,以避免將其他不相關語言的文本誤用。

垃圾內容過濾:使用機器學習模型或規則基礎的方法來檢測和過濾廣告、噪聲數據或其他非人類生成的內容。

敏感信息移除:設計特定的工具來去除潛在的敏感信息,如個人身份信息(PII)或者其他需要保密的信息。

主題分類和標記:利用自然語言處理技術對文本進行分類和標記,以便于后續的專業性篩選和處理。

質量評估模型:開發基于模型的質量評估工具,自動化評估文本的質量并根據得分篩選數據。

樣本審查和迭代改進:從自動清理后的數據中抽取樣本,進行人工審查。這幫助識別可能的誤判和改進自動化篩選程序。

通過使用這些自動化工具和技術,訓練數據的質量和多樣性可以得到有效控制。這不僅提高了數據處理的效率,也確保了模型在訓練過程中接觸到更準確和有用的內容。
作者: jian2901    時間: 2025-3-12 08:36
如果想讓模型精確掌握GB 150-2011的內容,需要人工干預模型的學習過程嗎,比方用示例來校核。
chatGPT4:
為了讓模型精確掌握特定標準,如GB 150-2011,需要采取一定的措施,確保模型不僅獲取相關信息,還能理解其中的細節和要求。以下是一些方法,可以幫助提高模型對特定標準的掌握程度:

數據標注:將GB 150-2011相關的文本進行精確標注,標示出關鍵的部分、定義和要求。這有助于模型識別并理解重要的信息。

示例解析:提供相關的實際應用示例和案例分析,幫助模型了解如何在現實中應用標準。這對提高模型的理解力非常有幫助。

領域特定訓練:使用GB 150-2011及其應用場景的相關數據進行專門的訓練。通過在這個領域內的擴展學習資料來豐富模型的知識。

專家審查及反饋:如果可能,結合領域專家對模型的輸出進行審查和反饋,以校正理解誤差,并指導模型學習正確的信息。

細化評估:設計專門的評估機制,通過問答和應用情境測試模型對GB 150-2011的掌握程度,借此調整和優化訓練參數。

逐步學習:逐步增加復雜度,從基礎部分(如術語和基本概念)開始,讓模型逐步掌握復雜的內容。

結合這些方法,人工干預可以有效地提高模型對特定標準的理解和掌握能力。但在實際應用中,人工干預的程度需根據具體的需求和資源來平衡。通過自動化工具和專家參與,模型可以在精確度和廣泛性之間找到適合的結合。
作者: jian2901    時間: 2025-3-12 08:36
也就是說像你這樣的模型,如果想要在某一領域表現的更加出色,是需要針對性的做更專業的訓練。這是不是就是所謂的微調?
chatGPT4:
是的,您說得對。所謂的微調(fine-tuning)是一種在預訓練模型的基礎上,進行針對性訓練的過程,以提高該模型在特定領域或特定任務上的表現。預訓練模型通常在大量的通用數據上進行訓練,具備廣泛的語言和知識能力,但為了能在某一領域取得更優異的表現,常需要進行微調。以下是有關微調的幾個關鍵點:

特定領域數據:微調通常需要收集該領域的專用數據集。這些數據用于更新模型,使其在該領域的表現更優。

保留通用能力:由于微調是在預訓練模型之上進行的,因此模型可以保留其通用的語言能力,同時在特定領域表現更佳。

任務定制:微調過程中,訓練的目標可以根據特定任務進行調整,比如分類、問答或生成任務等。因此,微調不僅適用于增加領域知識,也可以提升任務性能。

適應專業術語和細微差別:對于技術或術語密集的領域,通過微調,模型可以更好地理解和使用專業術語,抓住文本中的細微差別。

訓練資源:微調通常需要的計算資源和時間比初始模型訓練要少,這是因為微調過程中主要是對模型的某些層或參數進行更新。

通過微調,一個已經具備廣泛能力的模型能夠適應特定的領域需求,從而提供更準確、更可靠的結果。因此,在想要提升特定領域表現時,微調是一種非常有效的方法。
作者: jian2901    時間: 2025-3-12 08:36
一個已經發布的大語言模型,比如你這樣的,能通過用戶的反饋來實現自我改進嗎?
chatGPT4:
目前,通過用戶反饋來實現自我改進仍然是一個具有挑戰性的問題。大多數發布的大語言模型,包括我這樣的,通常不是直接通過用戶交互進行自我學習或自我改進。然而,開發者可以使用用戶反饋來間接改善模型性能。這里有一些常見的方法:

反饋收集:開發者可以收集用戶反饋,包括用戶在使用模型時遇到的問題、滿意度評估以及建議等。這些反饋對于了解模型在真實環境中的表現非常有價值。

數據更新:基于用戶反饋,開發者可以識別出哪些領域或問題上模型表現不足,并尋找相關的補充數據集進行再訓練或微調。

錯誤分析:通過分析用戶反饋中頻繁出現的錯誤或不足,開發者可以找到模型的薄弱點,加以改進。

迭代開發:根據用戶反饋,開發團隊可以迭代地更新模型和產品,以提供性能更優、用戶體驗更好的版本。

主動學習:在某些情況下,可以使用主動學習的方法,選擇最有價值的反饋信息來更新和優化模型。

需要注意,對于已經發布的模型來說,直接通過用戶交互進行自我改進存在技術和隱私方面的挑戰。通常,改進過程是通過開發團隊的干預、數據集擴展和再訓練來實現的,而不是模型在用戶交互過程中自動進行的。保持用戶信息的安全和隱私也是進行這種改進的一個重要考慮因素。
作者: jian2901    時間: 2025-3-12 08:37
你這樣的開源模型應該是可以通過微調,來構建一個專業領域的模型,比如內科醫生AI,我的理解對吧?
chatGPT4:
是的,你的理解是正確的。開源的大語言模型可以通過微調(fine-tuning)來適應特定領域的需求,例如構建一個專業的內科醫生AI。微調是一種在特定領域數據集上進一步訓練現有大模型的方法。這可以提高模型在該領域的專門知識和表現能力。以下是微調過程的一般步驟:

準備數據:收集與特定領域相關的數據集,比如醫學文獻、臨床病例和醫學問答等,確保數據質量和多樣性。

數據預處理:清理和格式化數據,以適應模型的輸入要求。如文本規范化、去除無關信息等。

選擇模型:選擇一個適合的開源語言模型作為基礎,如GPT或BERT變種等。

微調模型:使用領域特定的數據集對模型進行微調。這包括調整模型的參數,使其能在特定領域更準確地理解和生成文本。

評估和驗證:對微調后的模型進行測試,評估其準確性和實用性。可以使用領域專家的反饋來輔助評估。

部署和監控:將微調后的模型部署在實際應用中,并持續監控其表現,以便根據用戶反饋和新數據調整模型。

這樣的微調能夠顯著提高模型在某一專業領域的表現,使其在該領域的應用中更具實用價值和專業性。不過,需要注意的是,進行領域微調時需要謹慎處理數據隱私和模型偏見問題。

作者: jian2901    時間: 2025-3-12 08:37
模型訓練用的數據集是個什么樣的東西,能舉個例子嗎?是不是這樣的文件,比如,1+1是輸入,2是輸出,然后把這個當成一條數據喂給模型。重復類似的數據,10以內的加減法,然后模型就學會了泛化10以內的加減法。是不是有點類似人類學習時的習題集?
chatGPT4:
你的理解很接近。訓練數據集確實類似于人類學習時使用的習題集,但對于語言模型和其他機器學習模型來說,格式和內容可能會有所不同,具體取決于訓練目標和模型類型。

對于一個語言模型來說,數據集通常由大量的文本構成。這些文本可以是書籍、文章、對話記錄等。在微調過程中,數據集可能會更加專門化,例如專業領域的研究論文、問答對、對話集等。這些文本數據幫助模型學習語言規律、語法結構以及特定領域的知識。

如果我們以數學計算為例,如你提到的加減法,數據集可以設計成問題-答案對。例如:

輸入: "什么是1加1?"

輸出: "2"

輸入: "4減2等于多少?"

輸出: "2"

通過訓練,這樣的問題-答案對幫助模型學習如何處理類似的數學問題。

不僅如此,模型可以被訓練為理解語義和上下文,比如:

輸入: "在6個蘋果中拿走2個,會剩下多少?"
輸出: "4個蘋果"
當然,模型訓練的核心在于數據的多樣性和覆蓋度,以確保模型能夠泛化到新的、未見過的輸入,并能夠可靠地生成準確的輸出。在語言模型的訓練中,目標不僅僅是記住答案,而是要理解語言表達背后的結構和邏輯。
作者: jian2901    時間: 2025-3-12 08:38
大模型的參數權重這些,可以不可理解成一種更優化的或者更泛化(我可能沒有合適的詞來描述)的算法,比如,如果我們詳細的知道皮膚骨骼等隨著年齡變化的函數,我們就能用一種算法來描述一個人從孩子到老年的容貌變化。當你給定小孩的容貌時,我們就能算出老年時的容貌。但是大模型的話,我們只要連續給定大量的孩子從小到老的容貌變化的圖片的數據集,模型就會調整參數權重,從而得出一個人無法知曉的函數(如果可以稱為函數的話)。從而預測某個孩子的未來容貌。更關鍵的是這組參數權重所代表的函數往往比之前那種算法涵蓋的規律更全面準確。上面這些理解有問題嗎?
chatGPT4:
你的理解在一定程度上是正確的,但也需要進一步細化。在機器學習中,尤其是深度學習和大模型的場景中,參數權重確實可以被視為一種復雜的函數或算法,能夠捕捉到數據中的規律并進行預測或生成。

參數權重與函數: 當我們訓練一個模型時,實際上是在優化模型的參數(權重和偏置),使得模型能夠最好地適應訓練數據。這些參數形成了一個復雜的多維函數,能夠進行預期的預測或生成。雖然我們不能簡單地用一個顯式的數學函數來描述這些權重所代表的關系,但它們確實在處理輸入到輸出的映射。

泛化能力: 大模型通過在大量多樣化的數據上進行訓練,可以學習更全面的統計規律,具備更強的泛化能力。這意味著即使面對未曾見過的數據,它們也能夠進行合理的預測。這種泛化能力是通過學習數據中的復雜模式與特征實現的。

不可解釋性: 目前,大多數深度學習模型尤其是大模型的內在機制仍然難以完全解釋。這些模型的參數空間非常龐大,直接解讀參數及其與具體輸入輸出的關系在技術上是相當困難的。這與傳統的、完整定義的算法不同,后者通常有明確的步驟和規則。

數據驅動: 而與傳統的顯式公式或函數通過明確的數學關系進行描述不同,深度學習依賴于海量的數據。它通過數據驅動的方式學習復雜模式,因此可以自動調整權重以捕捉潛在規律,比如預測容貌變化。

總結來說,你的概念中強調了模型通過學習數據自動發現并應用復雜關系的能力,這是深度學習的核心優勢之一。盡管這些關系可以比傳統算法更廣泛和深刻,它們可能缺乏可解釋性,但確實具備了強大的實際應用價值。
作者: jian2901    時間: 2025-3-12 08:38
就人類已知的知識,容貌還和與生活環境、基因、飲食等因素相關,理論上這些因素可能是無窮的,如果是以數據集訓練大模型,顯然我們無法實現無窮因素和結果之間的映射,如果這樣的話,以現有的模式是不可能訓練出像上帝一樣的超級智能的。模型的智能表現會困在我們已知的知識映射上。舉個例子人類的歷史并不具備繞銀河系中心一周的數據,更不用說更大的星系團,這些信息對某些規律可能有重要的影響,但這個不包含在人類已有的數據集中。除非我們能找到更底層的規律,才有可能做一些可能的推演。但是悖論是所有的知識起點都是基于歸納法的。但歸納法本身就是不完備的,所以世界是無法完全認知的,我說的對嗎?
chatGPT4:
你提出了一個非常深刻的問題,涉及到人工智能的局限性和科學哲學的范疇。以下是對這些問題的幾點思考:

不完備的數據和模型局限性: 你指出的一個核心問題是,模型訓練依賴于數據,而數據往往是有限的和不完備的。當涉及到諸如生活環境、基因、飲食等多種復雜因素時,想要完全捕捉這些變量之間的關系可能是不現實的。當前的大模型在很大程度上局限于我們已知的信息和數據,如果面臨完全未知或未觀察到的現象,它們的預測能力就會受到限制。

對世界的理解有限: 人類當前對宇宙及其規律的理解是有限的。科學的進展常通過歸納法,即通過觀察和實驗歸納出一般規律。然而,歸納法的一個關鍵限制是,它無法保證全面的完備性。我們無法確保從有限的觀察中得出的結論在所有情況下都是適用的。

尋找底層規律的挑戰: 確實,科學理論的發展歷史上,不斷有新的、更為基礎的規律被發現。例如,牛頓力學到相對論和量子力學的過渡就是科學對自然界越來越深刻理解的體現。然而,這種發現新的底層規律的過程是艱難且充滿不確定性的,不一定能夠通過當前的方法或技術實現。

超級智能的限制: 由于這些數據和方法的局限性,目前的大模型和人工智能不可能達到無所不知的"超級智能"。它們可以在特定領域或任務中表現出顯著的智能水平,但這些表現總是在已知信息和方法的框架內。

科學的自我糾正: 雖然歸納法本身有其局限,但科學方法的一個優勢在于其自我糾正機制。通過不斷的驗證、實驗和修正,科學理論會逐漸接近于對世界的更真實描述。盡管我們可能無法達到完全的認知,但科學能夠幫助我們更好地理解和描述我們所觀察的宇宙。

總結來說,你的觀察是正確的,當前的模型和我們對世界的理解都有各自的局限性。認識到這些限制是推動科學和技術不斷進步的一個重要動力。
作者: zc1401    時間: 2025-3-12 08:40
目前AI應該是信息整合,無法分辨
作者: 孫越sy    時間: 2025-3-12 08:59
無法言喻1977 發表于 2025-3-11 20:07
其實不要說設計師,任何人都應該好好了解學習AI,和身邊幾個玩自媒體的朋友聊天當中用得知用AI收益確實不錯 ...

豆包早就能交流了

作者: jian2901    時間: 2025-3-12 09:05
你是一位資深機械工程師,擅長物料輸送方案的設計與優化,我需要給一個長筒形封閉容器分配物料,300目的粉狀料,筒體大約6米長,沿著筒體軸線方向,每隔大約450mm設置一個落料口,請設計一個輸送方案盡可能均勻的落料。

ChatGPT4:
在設計這樣的物料輸送方案時,首先需要考慮確保粉狀物料能夠均勻地分布到每個落料口。以下是一個可能的設計方案,旨在實現均勻分配:

方案設計
螺旋輸送機:

使用一根長螺旋輸送機,沿著筒體的軸線方向布置,覆蓋所有落料口的位置。螺旋輸送機可以準確地控制物料流量,并防止物料架橋或堵塞。
選擇適合300目粉狀料的螺旋直徑和螺距,確保物料能夠順利運輸。通常,較小的螺距更適合細粉物料的精確輸送。
多出口分配器:

在螺旋輸送機上設置多個出口,與每個落料口對應。每個出口可以設計成可調節的,以便對每個位置的物料流量進行微調。
出口之間的間距應設計為450mm,以對應筒體的落料口間距。
振動篩分裝置:

在上料前使用振動篩對粉料進行預處理,以防止結塊并確保物料的流動性。
空氣輔助系統:

如果物料流動性較差或容易發生結塊,可以考慮在每個出口處設計空氣噴射裝置,以幫助物料順利落下。
自動化控制系統:

利用PLC系統控制進料速度和螺旋輸送機的運行速度。可以通過傳感器監控每個輸送段的物料流量,實現閉環控制。
通過調節螺旋輸送機的轉速和出口開口大小,確保每個落料口的物料分配均衡。
系統檢驗與調試:

在方案實施后,利用測試設備進行系統調試,確保實際物料流量與設計相符,并進行必要的調整以優化性能。
其他注意事項
材料選擇:確保輸送設備及落料口材料適用于300目粉料,防止磨損和腐蝕。
維護清潔:設計便于清潔和維護的結構,以防止細粉料積聚和交叉污染。
安全性:考慮防塵和防爆措施,確保系統符合相關安全標準,特別是粉塵爆炸風險較高時。
這個方案綜合考慮了物料特性和裝置要求,目的是實現更均勻和高效的物料分配。根據實際需求,可能需要進一步定制和優化。

詳細描述下螺旋輸送機的設計

assistant avatar
設計螺旋輸送機時,特別是在用于輸送細粉狀物料(如300目粉料)時,需要考慮多方面的因素,以確保輸送過程的順暢和均勻分配。以下是詳細的設計步驟和考慮因素:

螺旋輸送機設計
結構設計:

螺旋直徑:通常直徑應根據輸送量和物料特性選擇。對于細粉料,選擇適中的直徑以平衡輸送量和流動性。
螺距設計:較小的螺距有助于精確控制物料流量,防止物料架橋。通常,螺距與螺旋直徑的比例在0.5到1之間較為合適。
材料選擇:

螺旋和槽體材料:應使用耐磨、耐腐蝕材料,例如不銹鋼或表面處理鋼材,防止粉料對設備的磨損。
表面處理:可能需要進行特殊涂層處理,以減少摩擦系數,提高物料流動性。
驅動裝置:

電機和減速器:根據輸送機長度和負載選擇合適的電機功率和減速器,確保螺旋軸能夠穩定運轉。
可變頻驅動:建議采用可變頻驅動裝置以方便調節螺旋轉速,從而精準控制物料流量。
進料和分配設計:

進料口:設計足夠大的進料口以防止粉料堆積,同時可設置振動篩以輔助進料。
分配器設計:在每個落料點位置,設置可調高度的出口,以控制流量并保證均勻分布。
檢測和控制系統:

傳感器:安裝重量或流量傳感器以實時監控物料經過情況,判斷是否均勻落料。
自動控制系統:利用PLC或其他控制系統自動調節電機速度及出口開口,確保穩定均勻的物料分配。
維護和清潔設計:

可拆卸面板:設計便于拆卸的面板,以方便定期清潔和維護。
清潔設備:可考慮設置空氣噴吹或振動器以定期去除積料,保持輸送順暢。
安全和防護措施:

除塵設備:配置高效除塵裝置以收集和控制粉塵排放,確保操作環境安全。
防爆設計:特別是在處理易燃易爆粉體時,需要采取適當的防爆措施,比如靜電消散裝置。
通過以上設計步驟,可以確保螺旋輸送機能夠有效地輸送細粉狀物料,并均勻地分布于所需位置。具體參數選擇應根據實際物料性質和工藝要求進行調整。
作者: jian2901    時間: 2025-3-12 09:10
方案文生圖
作者: hxglty    時間: 2025-3-12 09:12
你問問AI哪吒鬧海的劇情看看,他會說他的知識只更新到去年7月份……2個星期之前搜索的,現在不知道
作者: 744633782    時間: 2025-3-12 09:13
確實厲害

作者: 極限思維    時間: 2025-3-12 09:39
jian2901 發表于 2025-3-12 09:10
方案文生圖

我x,你這個牛,你這個是付費版嗎?但GPT4水平不咋地,現在能用的還是GROK3,國內設計計算的話DEEPSEEK是不二的選擇。

作者: 極限思維    時間: 2025-3-12 09:43
我看很多社友的信息落后了,就設計而言,豆包啥的不是這個領域的AI,有條件用grok3和GPT的最新版本,舉個例子來說,grok的翻譯水平甩百度翻譯,谷歌翻譯好幾條街。
作者: 極限思維    時間: 2025-3-12 09:48
jian2901 發表于 2025-3-12 09:05
你是一位資深機械工程師,擅長物料輸送方案的設計與優化,我需要給一個長筒形封閉容器分配物料,300目的粉 ...

grok3的方案要比這個好,他給的是變螺距方案,但是目前的AI在方案靈活性上顯然還不夠,當然也許是我交流的不夠。但是但是但是,重點來了,和A1合作搞工程相互可以啟發,又不必爭吵,比和幾個固執的蠢人討論方案強太多。現在唯一的問題是還沒有免費的多模態。另外能力稍嫌不足,但確實可以補全很多你會疏漏的細節。

作者: jian2901    時間: 2025-3-12 11:31
極限思維 發表于 2025-3-12 09:39
我x,你這個牛,你這個是付費版嗎?但GPT4水平不咋地,現在能用的還是GROK3,國內設計計算的話DEEPSEEK是 ...

是公司內部開發的

作者: jian2901    時間: 2025-3-12 11:34
極限思維 發表于 2025-3-12 09:48
grok3的方案要比這個好,他給的是變螺距方案,但是目前的AI在方案靈活性上顯然還不夠,當然也許是我交流 ...

詳細的某個領域還需要單獨開發的,不然很難準確的得到自己想要的答案,基于大模型基礎,喂給他所有某個領域專業的知識,會比通用大模型好很多。AI是公認的技術革命,不跟進早晚會被淘汰。

作者: 極限思維    時間: 2025-3-12 11:38
本帖最后由 極限思維 于 2025-3-12 11:41 編輯
jian2901 發表于 2025-3-12 11:31
是公司內部開發的

我試了下,還真行,但是方案圖太扯了,但是grok似乎能看懂草圖

作者: decade12580    時間: 2025-3-12 13:09
博主可以看ai下圍棋的經歷就能了解目前ai的發展進度,個人淺見目前ai的發展仍然處在李世石大戰的master的前瞻版本,也就是還處在初步的收集資料進行總結的階段,并沒有達到完成資料統合媲美頂尖棋手的地步。所以就目前來看個人專業化提升和對ai的學習是需要同步提升的,而不是只掌握一樣即可
作者: 極限思維    時間: 2025-3-12 14:09
decade12580 發表于 2025-3-12 13:09
博主可以看ai下圍棋的經歷就能了解目前ai的發展進度,個人淺見目前ai的發展仍然處在李世石大戰的master的前 ...

關于當前的AI,我的個人認識如下
1.大模型就是個孩子,天生有資質差異(基因)。
2. 這個基因由基本架構(如transform)參數量和基本訓練組成。
3.基本訓練的好壞取決于訓練數據集的廣度和深度(這部分決定性的訓練在于語言理解能力)。
4.訓練需要大量的算力(時間+硬件)和優秀的教法。缺一不可。
5.其他人可以在一個訓練好的開源模型上微調。
6.微調相當于你把別人的孩子領回家,教他新的東西,如果你教的好,他在某些方面會明顯超過原模型。重要的是,你能教的那些知識他原來學過,你可以用更好的數據更好的方法糾正他原來學的不扎實的部分而不用全教一遍(這可能就是deepseek的蒸餾技術)。
7.所以你微調需要的算力很低,但你得先有那個孩子(千問)。
8.要有更好的效果,你得有一個基因更好的孩子,基因太差,單靠教育(微調)很難提升。重新訓練又太吃算力。
9.所以決定AI能力最重要的幾個因素是架構,算力,數據及教法。架構也許可以理解成社會制度,算力也許是人腦基因,數據及教法可能是日月山川,四季輪回及天命。
10.除了算力,其他三個中國還是有競爭的可能的。
11.目前的架構和人腦相去甚遠,目前的架構下實現AGI可能,但不可能實現ASI,所以人還可以領先很久,人的價值永恒。
12.如果能找到一種全新架構,比如像人腦一樣實現多維層間鏈接,那可能是個巨大的效率提升,暫時性的實現超車。
13.目前硬件架構中最接近人腦架構的是神經擬態芯片。但這玩意也要靠光刻機。
14.大模型的開源和從前軟件的開源是完全不同的概念。數據集,訓練方法不同,代碼相同的大模型根本就不是一個東西。另外由于算力導致的時間差異,也會導致根本不可能存在兩個一樣的模型(人不可能兩次踏進同一條河流)。


作者: 狄奧多西今猶在    時間: 2025-3-12 14:10
年輕人沒聽過deepseek的原因主要是這玩意太卡了,說兩句就卡死。同級的gpt不僅鎖中國ip,而且20刀/月,只要沾點收費就有很多人理性的選擇觀望了。說實話ai對于初級代碼的處理遠勝機械設計以及計算,基礎的代碼只需要說需求就可以給你整出來,但是程序員依然該干啥干啥。
作者: 14373    時間: 2025-3-12 15:37
深度贊同,當前階段的AI可能還有錯亂和幻想成分,可能還不夠直接替代,但也只是當前階段,看看發展進化速度,足夠嚇人了,不一定過多少時間,不一定變成什么樣子.
我們還是要空杯心態,憂患意識,放開視野,去關注,去研究,去結合,揚長避短,看能借用什么優勢,看自己能保有什么優勢.
作者: sfcp    時間: 2025-3-12 16:24
牛 也得追時代了
作者: 來自何方    時間: 2025-3-12 17:04
我朋友的,還需要進化
作者: 嘉樂君子    時間: 2025-3-12 17:40
盡信書不如無書,AI只是工具,能學到多少利用多少都看自己
作者: 極限思維    時間: 2025-3-12 18:08
來自何方 發表于 2025-3-12 17:04
我朋友的,還需要進化

我現在一般用2,3個AI同解一個問題,當他們有分歧時,我再仔細看一下,當然他給出的答案要符合經驗也很重要。

作者: 喂我袋鹽    時間: 2025-3-12 18:51
極限思維 發表于 2025-3-11 18:21
發一段我和AI的對話,具體回答,各位可以自行問AI。如果你認真讀一下,可能會理解今天的AI是什么,不要辜負 ...

http://www.whclglass.com.cn/thread-1075843-1-1.html
【薅羊毛】嘉立創1¥/銓智6.6¥不包郵,CNC福音不服來薅


有社友說是騙子,我都找他們打樣了好多件了,親測有效,AI+CNC不是騙子。

作者: 喂我袋鹽    時間: 2025-3-12 18:56
decade12580 發表于 2025-3-12 13:09
博主可以看ai下圍棋的經歷就能了解目前ai的發展進度,個人淺見目前ai的發展仍然處在李世石大戰的master的前 ...

圍棋alphaGO,ZERO,到手機上的KataGO,迭代非常快,

其中有一個原因,圍棋這是一個腦力競技,基本沒有企業商業邏輯,技術機密方面的內容。

不排除有些企業自己本地部署AI,自己培訓,私自喂養猛獸,為我所用。

可以看看我去年發的AI+CNC的帖子http://www.whclglass.com.cn/thread-1075843-1-1.html

他們這些先行者已經嘗到甜頭,在大量削減人力成本,大量招聘搞數學的人才,優化刀路算法。

一旦成熟了,不斷拓展AI加工的邊界,幾乎可以覆蓋大部分業務了。



作者: jian2901    時間: 2025-3-13 08:09
看看AI的發展
作者: jian2901    時間: 2025-3-13 08:14
極限思維 發表于 2025-3-12 09:48
grok3的方案要比這個好,他給的是變螺距方案,但是目前的AI在方案靈活性上顯然還不夠,當然也許是我交流 ...

Grok的排名還是比較靠后的

作者: babty    時間: 2025-3-13 11:45
啥啥啥
作者: 無法言喻1977    時間: 2025-3-14 19:19
無法言喻1977 發表于 2025-3-11 20:07
其實不要說設計師,任何人都應該好好了解學習AI,和身邊幾個玩自媒體的朋友聊天當中用得知用AI收益確實不錯 ...

AI的資料也是在網上搜集沒有錯,這與勤奮或者懶惰沒有關系,如果自已搜一個需要5分鐘利用AI2分鐘搜出,做那中選擇?其二,我利用AI搜索怎樣用SOLIDWORKS畫一個圓,AI從3個基準面依次介紹,思路,動作,技巧,等,后面還給出學習建議。網上會有如此詳細嗎?其三,對AI的理解是仁者見仁智者見智,沒有必要加雜個人情緒。當初我開淘寶店鋪的時候,10個人有9個人就說不行的,說什么質量沒保障,沒人買,。其結果這些年多少線下實體關門。其四,如果說AI真沒有什么作用,堂堂的大美國家會如此緊張。





歡迎光臨 機械社區 (http://www.whclglass.com.cn/) Powered by Discuz! X3.5