跳到主要內容

發表文章

從太空販賣陽光:Reflect Orbital的未來能源

Reflect Orbital 是一家位於加州的新創公司,透過發射一系列軌道鏡子來反射陽光到地球上的太陽能發電廠,以創新再生能源生產。這種新方法可以在太陽下山後的尖峰需求時段增加發電容量。 核心概念 Reflect Orbital 的核心概念是使用配備可展開聚酯薄膜鏡子的小型衛星網路,從太空捕捉並重新導向陽光到地球。透過在夜間為太陽能發電場提供額外的陽光,該公司目的在使太陽能可隨需求供應,解決因日夜循環造成的間歇性發電問題。 衛星星座 Reflect Orbital 計劃在距地球 370 英里(600 公里)高的太陽同步極地軌道上部署 57 顆小型衛星的星座。每顆衛星重約 35 磅(16 公斤),配備一面 33 英尺 x 33 英尺(9.9 x 9.9 米)的聚酯薄膜鏡子,可在軌道上展開。這些鏡子將光線集中成一束聚焦光束,可根據太陽能發電場營運商的能源需求進行定向。 測試與開發 在 2024 年夏天,Reflect Orbital 使用一面附在熱氣球上、漂浮在太陽能發電場上方 1.7 英里(3 公里)的鏡子進行了測試。這項實驗每平方米太陽能板產生了 500 瓦的能量,證明了這個概念的可行性。該公司已獲得資金,計劃在 2025 年發射第一顆太空測試衛星。 挑戰與顧慮 雖然軌道鏡子的概念很有前景,但也有人擔心可能造成光害和干擾天文觀測。Reflect Orbital 強調,通過仔細設計鏡子以避免超過明亮恆星的亮度或加劇天文學家面臨的衛星光害問題,來最小化這些問題的重要性。 未來展望 Reflect Orbital 設想未來即使在太陽下山後,陽光仍能繼續為太陽能發電場供電並提供照明。該公司相信,通過使太陽能可隨需求供應,它可以為全球向再生能源轉型做出重大貢獻。隨著第一顆測試衛星計劃於 2025 年發射,Reflect Orbital 已準備好展示其創新方法的可行性。 寫在後面 Reflect Orbital 從太空販賣陽光的計劃代表了一種提升地球太陽能發電的新穎方法。透過利用軌道鏡子星座,該公司目的為了於尖峰需求時段為太陽能發電場提供額外的陽光,有效地將太陽能的可用性延伸至日光時間之外。這東西如果用於私人用途,很有可能變成一種不讓人睡的攻擊手段,不知道Reflect Orbital 怎麼規範這件事情發生? 或是這僅是噱頭新創而已。 參考資料: Reflect Orbita
最近的文章

HBM3 和 HBM3E:High Bandwidth Memory

High Bandwidth Memory (HBM) High Bandwidth Memory 這項技術在人工智慧 (AI)、高效能運算 (HPC) 到GPU 等應用中起著關鍵作用。HBM 通過垂直堆疊記憶體晶片來實現其高速資料傳輸,與傳統的平面記憶體佈局相比,顯著減少了資料必須傳輸的距離。這種結構不僅提高了頻寬,而且提高了能源效率,並減少了記憶體模組所需的物理空間。 HBM 的演進和世代 HBM 的第一個版本,簡稱為 HBM 或 HBM1,它為 3D 記憶體技術奠定了基礎。它的繼任者是 HBM2 和 HBM2E,每一代在速度、容量和效率方面都有所改進。HBM3 是截至 2024 年的最新一代,其擴展版本 HBM3E 進一步突破了界限,提供了前所未有的性能水平。 HBM3:第三代 HBM3 由 JEDEC 於 2022 年 1 月推出,代表著記憶體技術的重大進步。它可以支援更大的密度、更高的運行速度、更多的 bank 數量以及先進的可靠性、可用性和可維修性 (RAS) 功能。HBM3 裝置可以提供高達 32 Gb 的密度,並支援最多 16 層堆疊,總儲存容量為 64 GB,與 HBM2E 相比,增長了近三倍。HBM3 的最高速度為 6.4 Gbps,幾乎是 HBM2E 3.6 Gbps 最高速度的兩倍。 HBM3E:Extended HBM3E 是 HBM3 的延伸版本,為了進一步提高資料速率和容量。它的每個引腳運行速度超過 9.2 Gbps,提供超過 1.2 TB/s 的頻寬,功耗比競爭對手低 30%。HBM3E 提供 8 層 24GB 和 12 層 36GB 的配置,為 AI 訓練和推理系統等要求嚴格的應用提供業界領先的性能和效率。 HBM3 和 HBM3E 的供應商 HBM3 和 HBM3E 的主要供應商是 SK 海力士、三星和美光。 SK 海力士 一直處於領先地位,率先宣布大規模生產 HBM3E,目標是 AI 應用。他們的 HBM3E 晶片可以每秒處理高達 1.18 TB 的資料,展示了資料處理速度和散熱性能的顯著改進。 三星 宣布了其 HBM3E 變體 "Shinebolt",提供高達 9.8Gbps 的記憶體速度。三星的 HBM3E 為了在為高端處理器設定新的記憶體頻寬和容量標準。 美光 推出了其 HBM3E,引腳速度超過 9

Spotify 推出 AI 個人化播放清單功能,打造獨特音樂體驗

We just launched a new beta test - AI playlists. It’s a feature that uses AI chat prompts to help you curate personalized playlists. It’s still a work in progress but I’m excited for you to give it a try. We’re starting with Premium users in the UK and AU, so let me know what you… pic.twitter.com/bJBei7nxNc — Daniel Ek (@eldsjal) April 8, 2024 Spotify 最近推出了一項新的功能,透過 AI 技術,根據用戶的輸入文字來建立個人化的播放清單。這項新功能不僅標誌著音樂體驗個人化的一大進步,也讓用戶能夠根據自己的獨特喜好和需求,打造專屬的音樂清單。 Spotify AI 播放清單功能 Spotify 的新 AI 播放清單功能,讓用戶能夠透過 AI 技術,根據文字提示來建立客製化的播放清單。這項功能意在將用戶的創意想法轉化為音樂清單,為音樂串流服務帶來前所未有的個性化體驗。 功能運作與用戶體驗 透過 AI 播放清單功能,用戶可以輸入從特定音樂類型和心情到更具創意的請求,如「為我家的貓咪獻唱的歌曲」或「末日殭屍來襲時的背景音樂」等文字需求。接著,AI 會根據這些提示生成一份符合用戶需求的播放清單,運用大型語言模型(LLM)和 Spotify 的個性化技術,依據用戶的聆聽歷史和偏好進行量身推薦。 用戶還可以透過提供更多提示或反饋,如「增加流行元素」或「減少快節奏歌曲」,來進一步調整播放清單,並可透過向左滑動移除不喜歡的歌曲。這一互動過程確保最終播放清單能夠精準反映用戶的需求和音樂品味。 推出地區與使用方式 目前,Spotify 的 AI 播放清單功能首先在英國和澳洲為 Android 和 iOS 設備上的 Premium 用戶提供。用戶可在 Spotify 應用程式的「你的音樂庫」標籤中找到此功能,點擊「+」按鈕並選擇「AI 播放清單」即可開始建立個人化播放清單。 寫在後面 Spotify 推出的 AI 播放清單功能,為用戶提供了前所

Elon Musk 宣布特斯拉自動駕駛計程車即將問世,無需方向盤踏板

特斯拉執行長 Musk 最近宣布,該公司備受期待的自動駕駛計程車將於 2024 年 8 月 8 日亮相。這款自動駕駛計程車預計將是一款完全自主的車輛,不設置方向盤或踏板,專為搭車服務進行優化。隨著特斯拉將重心從開發平價電動車轉移到自動駕駛計程車項目,此次宣布備受矚目。 據傳,自動駕駛計程車的主要特色與規格 全自動操作,無需人為干預 不設置方向盤或踏板 針對不同使用情境提供多種車型(如睡眠、工作、娛樂) 採用特斯拉新一代車輛平台打造 綜合考量各項因素,實現每英里最低成本 - 面對面座位、大型滑動門便於進出、四輪驅動 開發進度 特斯拉的自動駕駛計程車計畫已醞釀多年,Musk 於 2016 年發表的"Master Plan Part Deux" 中首次提及此概念。2019年,Musk 曾聲稱特斯拉將在2020 年中旬實現百萬輛全自動駕駛計程車上路,但這一目標並未實現。 該公司持續開發全自動駕駛 (Full Self-Driving,FSD) 軟體,目前被歸類為需要人工監督的"二級"系統。特斯拉認為,其基於攝影機的自動駕駛方法最終將超越人類的能力。 挑戰與爭議 自動駕駛汽車的推出面臨諸多挑戰與安全疑慮。特斯拉的自動輔助駕駛與FSD 功能飽受質疑,有人指責該公司誇大其性能。數百起事故與數十起死亡案例都涉及使用這些系統的特斯拉車輛。 Waymo 與 Cruise 等競爭對手在自動駕駛汽車計畫中也遭遇挫折,包括事故與監管問題。事實證明,開發完全自動駕駛技術的難度與成本都超出初期預期。 市場影響與未來展望 儘管在交易時段下跌 3.6%,但在 Musk 發表聲明後,特斯拉股價在盤後交易中上漲 4%。但是,截至 2024 年 4 月 6 日,該公司股票年初至今已下跌近34%。 若能成功,自動駕駛計程車可望為特斯拉的成長與獲利帶來顯著影響。Musk 認為,該車型的每英里成本有望低於政府補貼的公車票價。他還表示,特斯拉車主可在閒置時將愛車加入共享車隊,藉此創造收入。 面對自動駕駛汽車產業面臨的挑戰,以及特斯拉多次錯失期限的歷史,自動駕駛計程車能否成功仍有待觀察。部分分析師認為,該公司捨棄平價電動車,轉而押注自動駕駛計程車,是一項高風險的賭注。 參考資料 Tesla Robotaxi: Unveil Date and Everything Else Y

2023 年科技創新亮點:CoolIT 的液體冷卻解決方案

CoolIT Systems CoolIT Systems 於 2001 年成立,已將自己確立為直接液體冷卻(DLC)技術的領導者,應用於高性能計算(HPC)、雲端和企業市場。公司開始於專注於透過冷卻技術方案提升遊戲玩家的電腦性能。多年來,CoolIT 已經演變,擴大其範圍以包括數據中心和高性能計算環境,這是由於對能源效率高且密度高的冷卻解決方案的需求日益增加造成。 CoolIT 成長故事 CoolIT 的故事是創新和成長的故事,從一個單純為了幫助遊戲玩家的地下室專案開始,到成為電腦液體冷卻的全球領導者。公司的成功由其顯著的收入增長凸顯,2020 年達到創紀錄的 9400 萬美元,並在數據中心和桌機市場上達到歷史水平的訂單。這一增長軌跡得到了戰略合作夥伴關係和投資的支持,在 2023 年被 KKR 收購,為了擴大公司的全球客戶基礎並增強其產品供應。 產品和解決方案 CoolIT 的產品核心是其專利的直接液體冷卻技術,Rack DLC™,它使用溫水而不是冷空氣來散熱電腦和伺服器組件。 CoolIT 專注於液體冷卻解決方案,為了滿足世界上最嚴苛的計算環境的需求。公司的產品生態系統包括冷卻液分配單元(Coolant Distribution Units,CDU)、次級流體網絡(Secondary Fluid Networks,SFN)、機架匯流排和被動冷板迴路(Passive Coldplates,PCL),這些都是 DLC 解決方案的組成部分。這些產品被設計來支援任何伺服器、機架配置和數據中心環境,使伺服器技術能夠達到其性能巔峰。 客戶和合作 CoolIT 的客戶基礎橫跨各個部門,包括 HPC、企業和雲端服務提供商。公司一直是 HPE、Intel、Gigabyte 和 Supermicro 等領先技術組織的信賴合作夥伴。CoolIT 的合作擴展到與 GIGABYTE 合作提供工廠安裝的液冷伺服器,展示了公司支持高密度和能源效率數據中心部署的承諾。 寫在後面 全球資料中心液體冷卻市場正在經歷顯著增長,這是由於資料中心對高效率冷卻方案的需求不斷增加所造成。該市場在 2021-2022 年的估值約為 18-24 億美元,預計到 2028-2033 年將達到 106-399 億美元,在預測期內的年複合增長率為 23-25%。液態冷卻系統對手如 Rittal, Fujitsu,

Meta 將 AI 融入 Ray-Ban 眼鏡,重新定義時尚與科技

Meta 在可穿戴技術領域邁出了重大的一步,宣布將 AI 整合到其 Ray-Ban 智慧眼鏡中。此舉象徵著 Meta 從原本專注於元宇宙的策略,轉向更廣泛地強調 AI 在日常設備中的應用。AI 與 Ray-Ban 智慧眼鏡的結合,將提升這些可穿戴設備的功能,提供物體和動物識別、語音翻譯等特色功能。 Ray-Ban 智慧眼鏡中的 AI 整合 Meta 與 Ray-Ban 合作推出了配備攝像頭和麥克風的智慧眼鏡,最初設計用於拍照、錄製影片和播放音樂。隨著 AI 的加入,這款眼鏡現在能夠識別物體和動物,即時翻譯語音,並根據視覺輸入提供資訊。 物體和動物識別 Ray-Ban 智慧眼鏡內建的 AI 可以利用鏡頭識別各種物體和動物。《紐約時報》對此功能進行了測試,發現雖然眼鏡可以正確識別寵物和藝術品,但在識別遠處或籠子後面的動物園動物,以及看到釋迦認不出來的狀況。雖然存在這些挑戰,但 AI 在提供使用者周遭環境的實用資訊方面展現出前景。 語音翻譯 AI 整合的一大亮點是語音翻譯功能。目前,該眼鏡支援英語、西班牙語、義大利語、法語和德語之間的翻譯。這個功能可以讓說不同語言的人之間的無縫對話,有望打破溝通障礙。這功能如果可以沒有延遲的的持續翻譯,真的會是一大福音。 用戶體驗和啟動 使用者可以透過說 "Hey Meta" 並提出問題或指令來啟動智慧助理。AI 會透過內建於眼鏡框架中的喇叭進行回應。這種免持操作針對移動中的使用體驗進行了優化,讓使用者能夠透過語音命令取得資訊和控制功能。這功能類似掛著耳機的 Hey Google 或是 Hey Siri,但是搭配上視覺辨識,可以更加強大。 市場發布日期 Ray-Ban Meta 智慧眼鏡的 AI 功能預計將於下個月向大眾發布,在這之前從去年 12 月就開始了提前體驗。初期,這些功能將透過美國用戶的提前體驗候補名單提供。這款眼鏡的售價為 299.99 美元,可以從 Ray-Ban 官網訂購。看來目前台灣是無法取得了,真的很可惜。 挑戰和限制 雖然 AI 驅動的智慧眼鏡提供了新的功能,但它們並非沒有局限性。《紐約時報》的測試顯示,AI 並不總是能準確識別物體,這表明該技術仍處於早期階段,需要進一步完善。此外,AI 功能在上市時僅支援英語、義大利語和法語,未來計劃逐步擴展語言支援。 寫在後面 Meta 將 AI 引入其 Ra

NVIDIA 發表 Blackwell 架構 GPU,為 AI 應用提供前所未有的性能

NVIDIA 最近宣布了一個新一代的 AI 加速器,稱為 Blackwell 架構。這個新系列包括 B100、B200 和 GB200 GPU,有希望為 AI 應用,特別是生成式 AI 領域,提供前所未有的性能。在這篇文章中,我們整理了一下這些新 GPU 的細節、規格、性能以及它們對 AI 產業的可能影響。 NVIDIA Blackwell 架構  Blackwell 架構代表了 NVIDIA 在 GPU 技術上的最新進展,接替了 Hopper 架構。Blackwell 架構以著名數學家 David Harold Blackwell 的名字命名,引入了六項變革性技術,專門為了加速計算和生成式 AI。這些技術包括第二代 Transformer 引擎、第五代 NVLink、RAS 引擎、安全 AI 功能以及用於加速資料庫查詢的解壓縮引擎。 B100 和 B200 GPU B100 和 B200 GPU 是基於 Hopper 的 H100 和 H200 的繼任者。預計 B200 將包含比 B100 更大的高頻寬記憶體容量。B200 是一個 1000W 的模組,高於 H100 的 700W,功率和性能有顯著提升。B200 被稱為世界上最強大的晶片,擁有 2080 億個電晶體,提供高達 20 petaflops 的 FP4 馬力。另一方面,B100 預計將是一個較低階的加速器,TDP 為 700W,使其可以直接與 H100 系統相容。 B100 和 B200 GPU 的整體外觀相比於 H100/H200 大,是因為 Nvidia 將兩組 Blackwell 架構的 Die,號稱是最大的兩顆 Die 直接連接在一起成為一個 Blackwell GPU。 GB200 超級晶片 GB200,也被稱為 Grace Blackwell 超級晶片,是兩個 B200 GPU 和一個 Grace CPU 的組合,提供更高的性能。它是 NVIDIA GB200 NVL72 的一部分,這是一個多節點、液冷的資料中心電腦系統,專為 AI 訓練和推理任務而設計。與相同數量的 NVIDIA H100 Tensor Core GPU 相比,GB200 NVL72 系統可以為 LLM 提供高達 30 倍的性能提升,同時將成本和能耗降低高達 25 倍。 超級電腦的架構 Nvidia 針對 Blackwell