算力

📌 100年前,一個小夥兒發現了『破解上帝』的『矩陣』,100年後,谷歌TPU vs 輝達GPU,一場『算力世界大戰』正在進行中,而上帝已然被關入了『矩陣』當中……|自說自話的總裁

📌 100年前,一個小夥兒發現了『破解上帝』的『矩陣』,100年後,谷歌TPU vs 輝達GPU,一場『算力世界大戰』正在進行中,而上帝已然被關入了『矩陣』當中……|自說自話的總裁

Original URL: https://youtu.be/_-khWyBTVM4 📌 100年前,一個小夥兒發現了『破解上帝』的『矩陣』,100年後,谷歌TPU vs 輝達GPU,一場『算力世界大戰』正在進行中,而上帝已然被關入了『矩陣』當中……|自說自話的總裁 ⓵ 容易懂 Easy Know 想像一百年前,有個科學家(海森堡)發現,我們沒辦法用眼睛看清楚原子裡的小東西(電子)是怎麼跑的,就像在黑暗中抓蚊子一樣。但他很聰明,決定放棄「看懂」,只專心用表格和數字來「計算」蚊子下一秒最可能在哪裡,這就是「矩陣」黑盒子的開始。 這個計算方法現在成了超級電腦的大腦。現在有兩個科技巨人正在打一場算力大戰:一個是賣超級顯卡(GPU)的「皮衣俠」黃仁勳,他賣的顯卡像軍火一樣貴;
DAVID C
📌 谷歌大神|斯坦福演讲|疯狂豪赌:一个“数学上完全错误”的决定,如何引爆了今天的AI狂潮?|算力暴涨100万倍!从斯坦福的一篇论文到Gemini,我们是如何走到今天的?

📌 谷歌大神|斯坦福演讲|疯狂豪赌:一个“数学上完全错误”的决定,如何引爆了今天的AI狂潮?|算力暴涨100万倍!从斯坦福的一篇论文到Gemini,我们是如何走到今天的?

Original URL: https://youtu.be/op5J5NIF1FM 📌 谷歌大神|斯坦福演讲|疯狂豪赌:一个“数学上完全错误”的决定,如何引爆了今天的AI狂潮?|算力暴涨100万倍!从斯坦福的一篇论文到Gemini,我们是如何走到今天的? ⓵ 容易懂 Easy Know 想像一下,AI的世界就像一輛全速衝刺的超級火車,我們總覺得它跑得太快抓不住。但這不是魔法,Google的傑夫迪恩爺爺說,這背後是一個叫做「AI飛輪」的大齒輪。這個飛輪由三個部分組成:數據(燃料)、算法(設計圖)和算力(引擎)。很久以前(1990年),科學家只有設計圖(理論),但電腦只有一點點像「柴火」般的算力,火車根本跑不起來。後來,Google為了讓火車動起來,發明了超強的「法拉利引擎」TPU,它能提供比以前多百萬倍的算力。有了這個強大引擎,火車就能讀懂海量數據,
DAVID C
📌 Neocloud云端对决:一场举债扩张下的AI高风险进击【深度】

📌 Neocloud云端对决:一场举债扩张下的AI高风险进击【深度】

Original URL: https://youtu.be/8ndEN6VVlUw 📌 Neocloud云端对决:一场举债扩张下的AI高风险进击【深度】 想像一下,AI就像一個超級聰明的機器人,要讓它變得更聰明,就需要大量的「超級電腦大腦」,我們叫它GPU。現在有兩家很厲害的公司,Corewave和Navies,就像是專門租借這些超級大腦的「超級電腦租賃中心」。 Corewave一開始是挖數位黃金(加密貨幣),後來發現AI更需要這些大腦,就非常積極地跟銀行借很多錢,買超多GPU,然後租給像OpenAI這樣的大型AI公司。它就像一位開著借來的超跑,飆速擴張的選手,雖然很快,但也承擔著很大的風險。 而Navies則比較像一位腳踏實地的發明家,它不僅租借大腦,還自己打造一套好用的工具和軟體,先幫助一些小型的AI團隊,慢慢地,也獲得了像微軟這樣的大客戶。它雖然慢一點,但財務更穩健。 現在,因為大家都瘋狂地想讓AI變得更強,所以這兩家公司都變得非常熱門,但同時也面臨著競爭和未來的挑戰,就像一場刺激又充滿變數的科技賽跑。 --- 這段影片深入探討了由人工智慧(AI)算力需求激增所催生
DAVID C
📌 硅谷视角深聊:DeepSeek的颠覆、冲击、争议和误解 - YouTube

📌 硅谷视角深聊:DeepSeek的颠覆、冲击、争议和误解 - YouTube

Original URL: https://youtu.be/b_OpjUz7zN8 📌 硅谷视角深聊:DeepSeek的颠覆、冲击、争议和误解 - YouTube ⇣ 好的,以下是根據原文總結出的五個部分,以繁體中文呈現: **❶ 總結 (Overall Summary):** DeepSeek是由中國幻方量化旗下的人工智慧團隊於2024年底推出的大型語言基礎模型DeepSeek V3,並在2025年1月開源了基於V3的兩款推理模型DeepSeek R1-0和DeepSeek R1。此舉在全球AI界引發震動,原因在於DeepSeek以出乎意料的低成本,達到了不遜於OpenAI推理模型O1的性能,這對AI大模型的發展範式、GPU算力市場以及AI新創企業的生態,都可能帶來顛覆性的影響。 DeepSeek的創新之處並非技術上的突破,而是工程上的創新,使得AI大模型的訓練和推理更高效、更便宜。其核心技術包括混合專家結構(MOE)和多頭潛在注意力機制(MLA),有效提升了模型效率並降低了成本。 然而,DeepSeek也面臨著諸多爭議,包括是否使用了OpenAI的數據進行訓練、模
DAVID C