Regular Member
加入日期: Oct 2017
文章: 86
|
電腦多問題請教
十多年沒組電腦,很多都不知道,也不懂怎麼用AI…
1.請問NPU是要連網上雲端才能做AI方面嗎? 2.對AMD超頻沒什麼概念,很多溫度功耗等名詞設定等都不太了解 如果使用主機板預設或Auto 是以最佳化(超頻方式)跑嗎? 3. GPU比CPU更快速 既然GPU更快更強,x86 CPU為什麼不用GPU的架構? |
|||||||
2024-10-16, 12:43 PM
#1
|
Advance Member
加入日期: Dec 2002 您的住址: 台北市有點東又不是很東的文教區
文章: 347
|
引用:
關於2.我不懂,無法回答。 我先回答3.這個比較好回答。 GPU的強項在浮點運算,硬要跑轉碼模擬X86相容的程式,不是做不到,浪費。 Windows/Linux作業系統,大家已經用得很順了,這是既有市場的結果。 要說取代X86的東西,不會是GPU而是ARM,MIPS,RISC-V這些。 再來回答我理解的1. AI完全可以不連網,當年震驚世界的AI電腦圍棋AlphaGo Zero就有單機版的,面對連網版的AlphaGo Zero,雖然可以想見輸多贏少,仍然有一定以上的勝率。印象中二三十趴還是有的。 連網的優勢在於資料量大,可以使用外面的雲端機器協助運算,或是直接拿外面做好的現成模組與資料。 也有一些單位為了避免版權疑慮、資料汙染或資安考慮,會做獨立培養完全封閉的AI系統。 可以連上雲端,其實本地也不一定需要NPU;只是如果本機有NPU,會跑得比較順比較快比較流暢。
__________________
「我們是小國小民,但我們是好國好民」-----鄭南榕 現役活動裝備: Nikon D750 Lens 85 1.8D + Tamron 16-300 VC + 50 1.8D + 24 2.8D + 70-300 VR + 28-50。 噗浪 |
|||
2024-10-16, 05:40 PM
#2
|
Senior Member
加入日期: Sep 2001 您的住址: K
文章: 1,473
|
久未組電腦的話,看到一些新名詞和技術確實會讓人感到不熟悉。針對你的三個問題,我會盡量簡單明瞭地解答:
1. NPU是否需要連網上雲端才能做AI運算? NPU(Neural Processing Unit,神經處理單元)是一種專門用來處理 AI 工作負載的硬體加速器,尤其是深度學習和神經網絡的運算。它不一定需要連網上雲端才能進行 AI 運算,具體情況取決於應用的設計: 本地運算:許多設備(如手機、單板電腦)內建的 NPU 可以在本地處理 AI 任務,不需要連網,像是影像辨識、語音處理等應用。 雲端運算:有些較為複雜或需要大量資料的 AI 訓練和推論可能會依賴雲端的計算資源,這時候會需要連網。不過這與 NPU 本身無關,而是應用程式決定使用雲端資源。 所以,NPU 是否需要連網上雲端取決於具體的應用需求,但它本身可以在本地處理許多 AI 相關的運算。 2. 主機板的預設或Auto模式是最佳化(超頻)運行嗎? 如果你對超頻和設定不熟悉,使用主機板的預設或Auto模式是一個安全的選擇。主機板的預設設定通常會選擇穩定性優先,並不一定會自動進行超頻,這樣可以減少因不正確的超頻而造成不穩定性或過熱的風險。 在預設模式下: 穩定運行:主機板通常會以 CPU 預設的頻率和電壓運行,這樣能保證系統穩定性和合理的功耗、溫度。 自動調整:某些高級的主機板會有「Auto Boost」或「自動超頻」功能,它會根據系統狀況進行自動調整,但通常這種「自動」模式還是比較保守的,不會像手動超頻那樣激進。 如果你希望最佳化性能,可以考慮手動進行超頻,但這需要對溫度、功耗、電壓等有較深入的了解。如果你只是希望系統穩定運行,Auto 模式是非常合適的選擇。 3. 為什麼x86 CPU不直接使用GPU的架構? GPU(Graphics Processing Unit)和 CPU(Central Processing Unit)的設計目的是不同的,因此它們在架構上有明顯的差異。儘管 GPU 確實在某些任務上(特別是大量平行計算,如圖形處理和深度學習)比 CPU 快得多,但它們的用途和設計目標不同,無法完全取代 CPU。 CPU 的強項:CPU 是通用型處理器,它可以高效處理各種複雜、序列化的任務,並且能夠靈活地執行操作系統、應用程式、伺服器等大量多樣化的工作。x86 架構經過多年優化,具備強大的指令集和處理序列化任務的能力。 GPU 的強項:GPU 是專門設計來處理高度平行的運算,例如圖形渲染或機器學習中的矩陣運算。它有大量的核心,可以同時處理大量簡單的運算,但它在處理像操作系統管理、複雜邏輯運算等方面的效能不如 CPU。 CPU 和 GPU 的互補性: CPU 適合處理控制流密集型的任務,像是多線程的應用管理、操作系統調度等;而 GPU 則專門處理大量數據並行計算的任務,例如遊戲圖形渲染和 AI 訓練。因此,CPU 不直接使用 GPU 的架構是因為它們的設計目標和應用範圍不同,並且它們常常協同工作以實現最佳的性能。 總結: NPU 不一定需要雲端,可在本地進行 AI 運算。 主機板的預設或Auto模式通常以穩定性優先,不一定會進行激進的超頻。 CPU 和 GPU 的設計目標不同,GPU 更擅長平行運算,而 CPU 擅長處理多樣化的序列化任務,因此它們在架構上無法互相替代。 如果有任何更多的疑問或需要更深入的說明,隨時告訴我! |
2024-10-17, 02:53 PM
#3
|
Major Member
加入日期: Feb 2004 您的住址: 台中
文章: 191
|
引用:
希望得到轉貼授權 |
|
2024-10-17, 03:59 PM
#4
|
Advance Member
加入日期: May 2001 您的住址: 台北
文章: 473
|
引用:
請教S大,針對(CPU、GPU、NPU, Storage)我的假設, CPU+RAM=公司主管+1級腦袋 、 GPU+顯卡RAM=基本職員+1級腦袋 、 NPU+??=???? cpu接受user 天馬行空的指令 、 gpu接受app 固定運算指令、 NPU ??
__________________
此文章於 2024-10-17 07:11 PM 被 polor 編輯. |
|
2024-10-17, 07:09 PM
#5
|
Basic Member
加入日期: Jun 2021
文章: 17
|
難道各位都看不出答案出自ChatGPT嗎?
此文章於 2024-10-17 08:03 PM 被 mobilestubsars 編輯. |
2024-10-17, 07:53 PM
#6
|
Basic Member
加入日期: Jun 2021
文章: 17
|
引用:
ChatGPT比較大,我只幫忙修改你的原問題,以下為ChatGPT的回答。 引用:
NPU(神經處理單元)在您的比喻中類似於專門處理AI和機器學習任務的“機器學習專員”。如果我們進一步擴展這個類比,可以考慮NPU與其他技術的結合,進而將其對應到更高層次、更專業化的“職位加腦袋”。讓我們來思考幾種可能的情境: 1. NPU + CPU = AI工程師 + 通用智能 如果NPU與CPU協同工作,這可以看作是AI專員與公司主管共同合作。CPU負責總體決策和分配任務,而NPU專注於AI領域的深度學習運算。這樣的組合就像是“AI工程師”,具備通用智能(能處理公司範圍內的不同任務),但對AI任務有專門知識和執行能力。 腦袋等級: 在這種情況下,腦袋類似於一個熟練的專家,能夠根據不同情境在AI領域提供有效的解決方案,同時又能理解整個公司(系統)的運作。 2. NPU + GPU = 高級數據科學家 + 深度學習專家 NPU和GPU的協同工作將強化其在高度並行運算方面的能力,特別是在處理大型數據集和深度學習模型上。這類組合可以看作是“高級數據科學家”或“深度學習專家”,專注於通過數據訓練複雜模型,並進行高效運算。 腦袋等級: 這種腦袋能夠快速分析大量數據,並且能夠快速找到關鍵點,實現智能推斷,進而產生洞察力。這類角色非常擅長技術細節以及計算優化。 3. NPU + TPU(Tensor處理單元) = AI研究科學家 + 知識領導者 如果將NPU與TPU(專門設計來處理深度學習模型的硬體單元)結合,這就像一位既精通前沿AI技術,又有能力開發和訓練大型神經網絡模型的“AI研究科學家”。這樣的人物專注於前沿研究,並致力於設計出更高效的AI算法和神經網絡架構。 腦袋等級: 這種腦袋等級就像是知識領導者(thought leader),擁有遠見,能夠引導AI的發展方向,設計和實現創新的AI技術。 4. NPU + Edge Computing = 智能設備工程師 + 自主學習能力 NPU與邊緣計算結合,這樣的系統能在終端設備(如智能手機、智能家居設備等)上進行本地AI推斷,而不必依賴雲端。這樣的組合類似於“智能設備工程師”,其腦袋有自主學習能力,能夠在本地做出快速響應,並且針對具體情境進行優化和適應。 腦袋等級: 在這種情況下,這個腦袋可以被視為高度自主且快速適應環境變化的“靈活解決者”,不需要等待指令或依賴遠程數據來進行決策。 5. NPU + 傳感器網絡 = AI分析師 + 感知與反應能力 如果NPU與物聯網設備的傳感器網絡結合,這會形成一個能夠感知環境並做出快速推斷和反應的系統,就像一個“AI分析師”,擁有精準的感知能力,能夠根據大量即時數據進行實時決策和行動。 腦袋等級: 這樣的腦袋擁有極強的感知和反應能力,能夠在環境中快速捕捉變化,並及時採取行動,適合需要即時決策的情境。 總結: NPU + CPU = AI工程師 + 通用智能 NPU + GPU = 高級數據科學家 + 深度學習專家 NPU + TPU = AI研究科學家 + 知識領導者 NPU + Edge Computing = 智能設備工程師 + 自主學習能力 NPU + 傳感器網絡 = AI分析師 + 感知與反應能力 這些不同的組合反映了NPU的靈活性和專業性,尤其是在AI領域。根據與其他處理單元的協同工作,它可以變成不同層級的“職位”並具備相應的智能或處理能力。 引用:
NPU接受的指令:特定於AI和機器學習的指令 NPU 通常不會直接接受來自應用或使用者的指令,而是接受來自 AI 框架(如 TensorFlow、PyTorch 等)的神經網絡模型運算指令。這些指令主要涉及矩陣乘法、卷積運算、激活函數等,都是與深度學習模型有關的核心計算。 具體來說,NPU 對應的指令是高度專門化的,針對推理階段的神經網絡模型進行加速。這意味著 NPU 是在既定的機器學習模型運行時才會發揮作用,例如人臉識別、語音助手的語音識別等場景中,NPU 負責高效地執行相關運算。 總結: CPU:接受來自使用者的多樣指令,處理通用計算。 GPU:接受應用程式中需要大量平行處理的圖形或運算指令。 NPU:接受專門針對 AI 和神經網絡的計算指令,用來加速深度學習推理過程。 希望這樣的解釋能幫助您更清楚理解 NPU 的角色及其接受的指令範疇! 此文章於 2024-10-17 08:04 PM 被 mobilestubsars 編輯. |
|||
2024-10-17, 08:01 PM
#7
|
Senior Member
加入日期: May 2002
文章: 1,071
|
...糟糕,我很多知識還停留在30年前的計算機概論...
上網 看片 玩遊戲..好像不需要NPU
__________________
為了刷存在感,要想這麼多廢文出來發,我真是服了你。 |
2024-10-17, 09:59 PM
#8
|
Advance Member
加入日期: Oct 2017
文章: 451
|
NPU,你就把他想像成xx加速處理器就好,
他的用途就是處理AI相關的邏輯運算, 要用到就是得額外寫程式去呼叫這一部分的功能出來用, 這也代表說,現已存在的程式對NPU需求是0, NPU的存在對這些程式來說就等於是虛無縹緲的東西... 得等未來的程式、遊戲有針對NPU去開發相對應的功能,才會有功用。 NPU在現階段的狀態是,雖然消費者用不到,不過廠商在規格上不能沒有, 不然在銷售上就會趨於劣勢。 |
2024-10-18, 10:58 AM
#9
|
Golden Member
加入日期: Jun 2002 您的住址: 地獄18層
文章: 3,173
|
3. GPU比CPU更快速
既然GPU更快更強,x86 CPU為什麼不用GPU的架構? ====== 這要先知道什麼是GPU,現在GPU能做什麼事情 他把CPU做的某些事拿來統包 https://zh.wikipedia.org/zh-tw/NVIDIA_GeForce_256 https://aws.amazon.com/tw/what-is/gpu/ 另一個重要的進展是PhysX https://zh.wikipedia.org/wiki/PhysX 再來就是CPU包山包海,不是只處理圖形 引用:
__________________
徵你不要的AM4 CPU 徵你不要的SATA接頭斷裂SSD 此文章於 2024-10-18 03:54 PM 被 supermaxfight 編輯. |
|
2024-10-18, 01:15 PM
#10
|