PCDVD數位科技討論區
(https://www.pcdvd.com.tw/index.php)
- 七嘴八舌異言堂
(https://www.pcdvd.com.tw/forumdisplay.php?f=12)
- - DeepSeek崛起、輝達結束獨霸時代!
(https://www.pcdvd.com.tw/showthread.php?t=1212289)
|
---|
引用:
TVBS的東西也是老美那邊來的 Nvidia calls China’s DeepSeek R1 model ‘an excellent AI advancement’ China’s DeepSeek AI dethrones ChatGPT on App Store: Here’s what you should know |
因為NV之前靠著算力膨脹逼那些AI公司幾乎把所有資源都投在購買算力(新的伺服器 新的運算卡)了
但是現在有人證明了 我不需要堆算力也可以做到堆5倍10倍算力才能做到的事 對NV當然有差 至少那些AI公司不會繼續無腦堆算力 |
引用:
很多西岸北韓人搞一堆帳號洗一些沒意義的東西 每天自我吹噓都不會累,拿國家補貼 在說自己成本很低共產黨的套路 都不知道用幾年了還在這邊自"慰" 西岸北韓人真的都不會心虛嗎?? |
說他不用堆算力,那真是想得太美.
他主打的是能省錢,可以省過半的錢, 效果還與對手差不多. 那些機器可是貴森森, 它們錢也不是大風颳來的, 這已經很讓老外驚艷了. 很多老外紛紛跳進去加入研究. 現在川普上台 ,以後就更難拿到新機器了. |
當然算力還是要呀 只是可以用低很多的算力達成還算過得去的成果
從P100後每代半精度算力都是*2以上增長 這種情況下讓AI廠商不得不以買新機器(堆算力)作為進步的動力 去年老黃要推B200時被一堆廠商嫌主要也是這原因 把AI服務公司當韭菜割 整天推新機器還不得不買 現在看起來還有別種作法 等這種方法傳開以後再看看業界會有啥變化吧 |
演算法這麼厲害,皮衣黃以後烤爐端出來產品沒人要買。
|
中國人喜歡吹牛,甚至吹牛B
先前吹什天才少女姜萍,現在又來天才少女羅福莉 因為沒有紮實的科研基礎,只能靠天才突圍,可是天才也是上下交相賊的幻想。 |
東西都開源了 是真是假一測便知
假如是假的 歐美的科技業會這麼震驚? |
AI 資料荒!馬斯克表示去年 AI 訓練已耗盡現實世界所有資料
網路資料的有限性: 儘管網際網路上的資料量龐大,但相對於 AI 模型日益增長的胃口而言,仍是有限的。 資料品質的問題: 許多網上資料內容有雜訊、偏見或不一致性,這些問題會影響模型的訓練效果。 資料隱私的限制: 隨著隱私保護意識的增強,獲取和使用資料的限制越來越多,這也阻礙了 AI 模型的訓練。 合成資料:AI 發展的新曙光 面對資料的瓶頸,Sutskever 和馬斯克都將目光投向了合成資料(synthetic data)。合成資料是指由 AI 自行生成、模擬真實世界的資料。相較於現實世界資料,合成資料具有以下優勢: 數量不受限: 可以根據需要生成任意大量的資料。 品質可控: 可以精確控制資料的分布和特徵。 隱私保護: 可以避免使用真實用戶的個人資料。 馬斯克認為,補充現實世界資料的唯一方法就是合成資料, 由 AI 自行生成用於訓練的資料,透過合成資料,AI 將能夠為自己打分,並展開自我學習的過程。 事實上,許多科技巨頭已經開始使用合成資料來訓練 AI 模型, 微軟、Meta、OpenAI 及 Anthropic 等企業已經在其 AI 模型訓練中廣泛應用合成資料。 科技市場研究機構 Gartner 估計,2024 年 AI 及分析項目使用的資料中,約 60% 是合成資料。 例如,微軟在 1 月 8 日開源的 AI 模型「Phi-4」 就是透過合成資料結合現實世界資料進行訓練的, Google 的「Gemma」模型也採用了類似的做法。 Anthropic 使用部分合成資料開發了表現最佳的系統之一「Claude 3.5 Sonnet」, 而 Meta 則運用 AI 生成資料來微調其最新推出的 Llama 系列模型。 ...................................................................... 美國AI看得更遠 這也是人類創新進步的主因 打算無中生有.去創造新東西 後發的 就是只能靠前面廠商的.丟下不要的資訊與技術 加減騙吃騙喝.狠撈一票走人 :laugh: :laugh: :laugh: :laugh: |
引用:
千萬別抬頭 要不然怎麼辦? 一座金山放在他們面前 他們也會嘲笑花力氣去挖的人 我一躺就爽了 哪像他們挖到累的要死 反正要罵總是找得到地方罵啦 |
所有的時間均為GMT +8。 現在的時間是07:10 AM. |
vBulletin Version 3.0.1
powered_by_vbulletin 2025。