作者: admin

  • SAP 認證助理-SAP S/4HANA 雲端私有版、生產計畫與製造考試:C_TS422_2504

    SAP Certified Associate – SAP S/4HANA Cloud Private Edition, Production Planning and Manufacturing:C_TS422_2504
    SAP 認證助理-SAP S/4HANA 雲端私有版、生產計畫與製造考試:C_TS422_2504
    概述
    此認證證明您具備 SAP S/4HANA 製造顧問職位所需的核心技能,並證明您擁有全面的理解和深入的技術技能,能夠以導師指導的角色參與專案團隊。

    此認證適用於 SAP S/4HANA 雲端私有版和 SAP S/4HANA 本地部署版。
    考試詳情
    考試科目:C_TS422_2504
    考試題目:80題(3小時)
    及格分數:68% 的及格分數
    考試語言:提供英文版本
    該證書有效期為:12個月

    通過考試後獲得的技能
    ~製造工藝
    ~材料成分
    ~生產計劃
    ~生產過程

    考試涵蓋的主題
    SAP S/4HANA供應鏈計畫簡介
    考試成績:≤10

    SAP S/4HANA生產計畫簡介
    考試成績:≤10

    SAP S/4HANA 中的需求管理
    考試成績:≤10

    SAP S/4HANA 中的高階計劃
    考試比例:11-20%

    SAP S/4HANA 中的產能規劃
    考試成績:≤10

    SAP S/4HANA 中的精實生產
    考試成績:≤10

    SAP S/4HANA 中的主數據
    考試比例:11-20%

    SAP S/4HANA 中的生產訂單
    考試比例:11-20%

    SAP S/4HANA 中的物料需求計劃
    考試成績:≤10

    SAP S/4HANA 中的流程訂單
    考試成績:≤10

    清潔核心管理
    考試成績:≤10

  • 配錯交換器別重敲! 3步驟配置回滾,比重配快10倍

    轉自網絡工程師訓練營

    第一步:先存配置!改之前留後悔藥
    不管改啥配置,先敲save儲存目前狀態,設備會把配置存到vrpcfg.zip檔裡。這跟改監控主機設定前先備份一樣,留個後悔藥,萬一改崩了能直接回滾。

    要是改配置前忘了存,也能找最近的自動儲存文件,華為設備預設會定時保存,不過手動存更靠譜,養成改前存的習慣。

    第二步:查歷史設定文件,找到能回滾的版本
    敲dir /all,能看到設備裡的設定文件,例如vrpcfg.zip(目前已儲存的)、vrpcfg-bak.zip(備份的)。
    找到你要回滾的版本,記好檔名。
    這跟找電腦的系統還原點一樣,選一個沒問題的設定版本,別選錯了舊的無效設定。

    第三步:執行回滾指令,1分鐘恢復配置
    敲startup saved-configuration vrpcfg-bak.zip,指定下次啟動用備份的設定文件,然後敲reboot重新啟動裝置。
    重新啟動後,裝置就會載入備份的配置,之前配錯的內容全沒了,回到正常狀態。
    要是不想重新啟動(例如核心設備),也能透過rollback configuration指令回滾最近的幾次設定變更,適合小範圍改錯的情況。
    配置回滾是轉行網工的保命技能,跟咱恢復電腦系統的邏輯一模一樣,操作簡單還能省大量時間。
    以後配設備再也不怕改崩,先存再改,錯了就回滾,穩得很。

  • 全球 11 家類似思科的網路公司有哪些?

    身為網路設備領域的領導企業,思科系統公司(Cisco Systems)以其路由器、交換器、安全解決方案和雲端網路服務聞名於世。
    思科成立於1984年,總部位於美國加州聖荷西,已發展成為市值超過2,000億美元的科技巨頭,其產品廣泛應用於企業、資料中心和電信領域。
    隨著5G、AI、雲端運算和邊緣運算的快速發展,網路產業競爭日益激烈。
    本文將介紹全球11家類似思科的網路公司,這些公司在硬體、軟體和服務方面與思科直接競爭或互補。
    我們將從每家公司的歷史、主要產品、市場地位以及2025年的最新動態入手,幫助讀者了解網路產業的多樣性和創新趨勢。
    Juniper Networks
    Juniper Networks成立於1996年,總部位於美國加州桑尼維爾。
    該公司最初專注於高效能路由器,以挑戰思科在IP網路領域的壟斷。
    Juniper的核心技術源自於其創辦人Pradeep Sindhu的創新理念,強調軟體定義網路(SDN)和自動化。
    早期,Juniper透過推出MX系列路由器和EX系列交換器迅速崛起,服務於電信業者和大型企業。
    Juniper的主要產品包括路由器、交換器、安全設備和AI驅動的網路管理平台,如Mist AI
    該平台利用機器學習實現網路自動化和故障預測,深受雲端供應商青睞。
    在安全領域,Juniper的SRX系列防火牆提供進階威脅防護,與思科的ASA系列類似。
    進入2025年,Juniper的市場地位進一步鞏固。
    根據Gartner的2025 Magic Quadrant報告,Juniper在企業有線和無線LAN基礎設施領域被評為領導者,位於「執行能力」和「願景完整性」最高位置。
    公司報告顯示,第一季營收強勁成長,總產品訂單較去年同期成長近40%。
    儘管2024年收入略有下降,但2025年預計透過雲端投資和AI-native資料中心網路實現反彈。
    Juniper在800GbE OEM交換器市場領先,並在AI驅動自動化領域擴展。 與思科相比,Juniper更注重開放標準和多雲集成,目前市佔率約6.86%,位居產業前列。
    然而,待定的HPE收購可能改變其獨立地位。 Juniper的創新在於其「AI-native」策略,2025年Mist平台繼續主導自治網路市場。
    公司在永續性方面也表現出色,透過高效硬體減少能耗。整體而言,Juniper是思科在高階路由和安全領域的強大對手。
    HPE Aruba
    HPE Aruba是惠普企業(Hewlett Packard Enterprise)旗下的網路部門,前身是Aruba Networks,於2002年成立於美國加州。
    Aruba專注於無線網路解決方案,2015年被HPE收購後,與HPE的網路產品線整合,形成完整的端對端網路平台。
    歷史上的Aruba以其無線存取點和控制器聞名,幫助企業實現行動轉型。
    主要產品包括Aruba Central雲端管理平台、交換器、無線LAN和邊緣安全解決方案。
    Aruba的AI Ops功能可最佳化網路效能,與思科的Meraki類似,提供統一的有線/無線管理。
    2025年,HPE Aruba的市場表現強勁。該公司第三季營收創紀錄達到91億美元,包括Juniper收購貢獻。
    Aruba Networking部門營收成長10.7%。 在Gartner評估中,HPE Aruba被評為企業網路領導者。
    該公司強調AI和自動化,在Discover 2025會議上展示了跨組合自動化和可觀測性。
    市場預測顯示,HPE整體營收成長4.8%,Azure整合增強其雲端競爭力。 與思科相比,HPE Aruba在企業無線市場佔有率更高,尤其在教育和醫療領域。
    HPE的策略重點是與Juniper的整合,2025年SAM會議上宣布了聯合產品願景。 這將加強HPE在資料中心和邊緣運算的地位。公司也推出新品牌,強調創新和獲利擴展。
    整體上,HPE Aruba是思科在無線和雲端管理領域的關鍵競爭者。 Huawei
    華為成立於1987年,總部位於中國深圳。
    從電信設備起步,華為迅速擴展到網路硬體和軟體領域。早期依賴低成本路由器進入全球市場,現已成為5G和雲端網路領導者。
    儘管面臨地緣政治挑戰,華為堅持創新,透過HarmonyOS和雲端服務多元化。主要產品包括NE系列路由器、S系列交換器、NetEngine系列和雲端Fabric資料中心解決方案。華為的網路安全產品如USG防火牆,與思科的整合安全類似。
    2025年,華為在Gartner Magic Quadrant中被評為企業有線/無線LAN領導者。 公司推出14款新產品和兩項技術白皮書,針對商業市場。 全球數位指數報告顯示,華為驅動AI轉型。
    在亞太智慧型手機市場佔有率中,華為佔顯著比例。 與思科相比,華為在電信和新興市場更強,路由器市佔率第三。華為的全球化策略包括Partner2Connect聯盟,到2025年連結1.2億偏遠人口。
    公司強調技術創新和敏捷策略,在商業市場涵蓋教育、醫療等領域。 儘管制裁影響,華為仍是思科的主要全球對手。
    Arista Networks
    Arista Networks成立於2004年,總部位於美國加州聖克拉拉。由前思科高層創立,專注於資料中心網絡,強調可程式性和高效能交換器。
    主要產品包括EOS作業系統、CloudVision管理和7000系列交換機,支援雲端和AI工作負載。
    2025年,Arista第三季營收23.08億美元,年增27.5%。 第一季營收首次超20億美元。 Gartner領導者像限認可其多元化。 市佔率10.62%,AI收入預計15億美元。
    Arista在AI資料中心領先,與思科競爭激烈。公司目標到2027年中184美元股價,強調高成長。
    Arista是思科在雲端網路領域的強勁挑戰者。 NETGEARNETGEAR成立於1996年,總部位於美國加州聖荷西。起初聚焦消費網路設備,後來擴展到中小企業市場。主要產品包括路由器、交換器和Orbi Wi-Fi系統,支援智慧家庭和企業級網路。
    2025年,營收6.74億美元,下降9.1%。 第三季營收強勁,企業部門成長15.7%。 市場估值39美元,強調成長驅動。
    與思科相比,NETGEAR更注重消費和SMB市場。公司推出Nighthawk 5G熱點,擴展行動連線。
    NETGEAR是思科在入門網路的替代品。
    VMware
    VMware成立於1998年,總部位於美國加州帕洛阿爾托。以虛擬化軟體聞名,後來擴及網路領域。
    2023年被Broadcom收購。主要產品包括NSX網路虛擬化和Tanzu平台,支援SDN和多雲。
    2025年,VMware Explore會議強調Cloud Foundation 9.0。 Gartner領導者認可其混合基礎設施。
    市場規模預估2025年948億美元。 與思科相比,VMware更強於軟體定義網路。 Broadcom定價策略推動25%成長,但引發客戶流失。
    VMware是思科在虛擬化領域的夥伴與對手。
    Extreme Networks
    Extreme Networks成立於1996年,總部位於美國北卡羅萊納州。專注於企業網路管理,透過收購擴展產品線。主要產品包括Fabric Connect和ExtremeCloud IQ,提供端對端網路。 2025年,第四季營收3.07億美元,成長19.6%。 SaaS ARR成長24%。 IDC MarketScape領導者。
    與思科相比,Extreme在無線LAN更具競爭力。推出Platform One AI平台。 Extreme是思科在中階市場的替代品。
    Dell Technologies
    Dell Technologies成立於1984年,總部位於美國德州。透過EMC收購進入網路領域。主要產品包括PowerSwitch交換器和PowerEdge伺服器,支援AI和儲存。
    2025年,伺服器收入66.34億美元。 Gartner領導者像限。 營收956億美元,成長8%。 AI伺服器市場領先。 與思科相比,Dell在基礎架構整合更強。 Dell AI Factory強調可擴展性。
    Dell是思科在資料中心網路的競爭者。
    Lenovo
    Lenovo成立於1984年,總部位於中國北京。從PC擴展到資料中心網路。主要產品包括ThinkSystem伺服器和網路設備,支援AI基礎設施。
    2025年,第二季營收創紀錄。 收入188億美元,成長20%。 伺服器市佔率超20%。 與思科相比,Lenovo在新興市場更具優勢。 Gartner供應鏈前25。
    Lenovo是思科在硬體多樣化的對手。
    Microsoft
    Microsoft Azure成立於2010年,是雲端運算平台,網路服務為其核心。主要產品包括Azure Virtual Network和Azure Firewall,支援SDN。
    2025年,Azure營收超750億美元,成長34%。 市佔率24%。 Gartner領導者。
    與思科相比,Microsoft在雲端網路主導。 Build 2025宣布AI Foundry。
    Microsoft是思科的雲端夥伴兼競爭者。
    NVIDIA
    NVIDIA成立於1993年,總部位於美國加州。從GPU擴展到網絡,透過收購Mellanox進入。主要產品包括InfiniBand和Ethernet交換機,支援AI資料中心。
    2025年,第三季營收570億美元。 資料中心收入391億美元。 網路收入成長雙位數。
    與思科相比,NVIDIA在AI網路領先。 Blackwell平台創紀錄。
    NVIDIA是思科在高效能運算的對手。

  • UALink vs 乙太網路:AI資料中心新互聯技術

    本文系統介紹了 Ultra Accelerator Link(UALink)— 面向 AI 資料中心的開放標準級擴展互聯技術,聚焦其技術定位、核心特性、標準規範、效能優勢及未來規劃。
    一、技術背景:AI 大模型驅動互聯需求升級
    隨著 AI 模型參數規模指數級增長(從百億級到萬億級突破),訓練與推理對算力、內存的需求呈爆發式上升,行業面臨兩大核心挑戰:單機櫃內擴展(Scale-Up)
    需求:大模型推理需數十至數百個加速器(如 GPU)在單機櫃(Podale)內協同工作Pod 互聯,需開放、相容的互聯標準打破廠商壁壘,實現多設備協同。
    在此背景下,UALink 作為開放產業標準互聯技術應運而生,旨在解決 「多加速器高效分散式協同」 問題,支撐 AI 模型從單機櫃到跨資料中心的全場景擴展。
    二、UALink 核心定位與技術架構1. 核心定位:開放、相容的 AI 互聯標準
    UALink 的核心目標是成為 AI 加速器互聯的 “通用語言”,具備三大關鍵屬性:
    開放生態:任何廠商的 CPU、加速器(GPU/NPU)、交換機均可接入,打破 “廠商鎖定”,已有超 100 家成員單位(如阿里、AWS、谷歌、英特爾、微軟、騰騰、騰騰、中興等)。
    全場景覆蓋:既支援單機櫃內 “Scale-Up”(數百個加速器協同),也可透過跨 Pod 互聯實現 “Scale-Out”(數萬個加速器集群),適配從中小規模推理到超大規模訓練的全需求;
    技術繼承與創新:基於成熟的 Infinity Fabric 協議技術,融合以太網基礎設施優勢(例如重線連接器),

    1. 技術架構:分層設計,兼顧效能與簡化UALink 採用分層架構,從協定到實體層全面最佳化,確保低延遲、高可靠性:

    三、UALink 200G 1.0 标准:核心规范与能力

    1. 核心功能与关键参数

    UALink 200G 1.0 是首个正式发布的规范版本,聚焦 “加速器、加速器直接互联”,核心能力如下:

    • 核心互联场景:支持加速器间内存共享,可直接执行 Load/Store/ 原子操作(如 GPU 间直接访问远端 HBM 内存),无需 CPU 中转;
    • 性能指标:单端口速率最高 200Gbps,单机柜内支持最多 1024 个加速器协同;端到端延迟优化至 350-400ns,接近 PCIe 交换机延迟,远超传统以太网;
    • 效率与成本优势:简化的链路栈设计减少芯片面积(降低成本),固定 FLIT 帧大小、ID 路由等技术降低交换机复杂度,功耗较传统方案显著降低;
    • 安全特性:支持端到端加密(Crypto)与机密计算(Confidential Compute),满足 AI 数据中心敏感数据传输需求。
    1. 典型應用架構
      UALink 透過 “單機櫃 Scale-Up + 跨機櫃 Scale-Out” 兩級互聯,建構 AI 叢集架構: Scale-Up(單機櫃):透過 UALink 交換器實現數百個加速器直接互聯,形成 「單層交換」 架構,減少轉送節點,降低延遲; Scale-Out(跨機櫃):多個 UALink 單櫃透過乙太網路核心交換器互聯,實現數萬個加速器協同,適配超大規模訓練場景; 介面相容:支援與 CXL、PCIe、 CHI 等現有介面協同,可無縫接取現有資料中心架構,無需大規模改造。
      四、性能優勢:比較乙太網路的核心突破
      UALink 在延遲、頻寬效率、吞吐量等關鍵指標上全面優於傳統以太網,尤其適配 AI 流量特性(小型資料包、高頻互動),具體對比如下:

    核心原因 :UALink 透過 「固定 FLIT 訊框、ID 路由、簡化傳輸層」 等設計,減少乙太網路的封包封裝 / 解封裝、複雜路由運算開銷,尤其在 AI 小封包場景下優勢顯著。
    五、 UALink 未來規劃
    UALink 聯盟已明確短期技術路線圖,持續提升效能與場景適配能力:

    128G 資料鏈路 / 物理層規範(2025 年 Q3):補充 128Gbps 速率選項,適配中低頻寬需求場景,平衡效能與成本;網內集合通訊(INC)規格(2025 年 Q4):支援加速器間 「全聚集(All-Gather)」集「全式通訊」(All-to-All)集,進一步提升128G/200G UCIe PHY 芯粒規範(開發中):推進芯粒( Chiplet )級互聯標準化,支援 2.0Tb/s 超高頻寬,適配未來高性能加速器的芯粒化整合需求; 多速率相容:物理層將支援 212G/106G/128G 多重寬頻速率,如同高配寬帶寬配寬帶)。
    六、生態與落地:開放協作推動產業化
    1. 生態建設:全產業鏈協同
    UALink 生態已形成 「標準制定、產品研發、落地驗證」 的完整閉環,已發布 UALink 200G 1.0 規範文件與白皮書,供會員單位免費下載,加速產品適配與 interoperability(互通性)驗證。
    2. 核心價值:推動 AI 互聯 “標準化”
    UALink 的產業化落地將解決 AI 資料中心兩大關鍵痛點: 打破廠商壁壘:避免不同廠商加速器、交換機 「無法協同」 的問題,降低企業採購與運維成本; 釋放 AI 算力:透過低延遲、高頻寬互聯,減少加速器間通訊開銷,使擴展有效加速器 接近線性訓練模式(如 102 階以上)與大規模推理
    作為 AI 資料中心的 UALink “業界標準級互聯技術”,透過開放生態、分層架構、效能最佳化,解決了多加速器協同的核心痛點,既適配單機櫃內推理的 “Scale-Up” 需求,也支撐跨資料中心訓練的 “Scale-Out” 需求。隨著 128G 規範、網內集合通訊等功能的推進,以及超 100 家產業鏈成員的協同,UALink 有望成為 AI 加速器互聯的 “通用語言”,推動 AI 數據中心從 “封閉廠商方案” 向 “開放標準生態” 轉型,為大模型技術的規模化落地提供關鍵互聯支撐。

  • Nvidia成全球首家市值達五兆美元公司

    Nvidia(英偉達)週三創造了歷史,成為首家市值達到五萬億美元的公司,這場驚人的股價飆升鞏固了其在全球人工智慧浪潮中的核心地位。
    這一里程碑凸顯了該公司從一個小眾圖形晶片設計公司迅速轉變為全球人工智慧產業的中堅力量,使執行長黃仁勳(黃仁勳)成為矽谷代表性人物,並使其先進的晶片成為中美科技競爭的熱點。
    自2022年ChatGPT問世以來,英偉達股價已飆漲12倍,推動標普500指數屢創新高,也引發市場對科技估值泡沫的討論。
    在英偉達市值突破4兆美元大關僅三個月後,此次突破5兆美元標誌著已超越全球加密貨幣總市值,約等於歐洲指標股指史托克600指數的一半。
    黃仁勳週二公佈了 5,000 億美元的人工智慧晶片訂單,並表示計劃為美國政府建造七台超級電腦。
    同時,該公司Blackwell晶片的銷售因美國出口管製成為中美科技競爭的關鍵議題之一。

    股價大漲,黃仁勳財富暴增
    根據監管文件與路透社的估算,以目前股價計算,Nvidia執行長黃仁勳持股價值約1,792億美元,使他成為《富比士》全球富豪榜上的第八名。
    雖然 Nvidia 仍是人工智慧競賽中當之無愧的領跑者,但蘋果和微軟等大科技公司近幾個月的市值也已突破 4 兆美元。
    分析師稱,這一漲勢反映了投資者對人工智慧支出持續成長的信心,但也有分析師警告稱,估值可能已經過熱。

  • GPU互連新標準:UALink聯盟能否打破NVIDIA壟斷?

    UALink聯盟(UALink Consortium)正式成立,現已開放企業會員申請。
    聯盟宣布首個技術規格UALink 1.0將於2025年第一季公開發布。
    目前核心成員(Promoter Members)包括AMD、Astera Labs、AWS、Cisco、Google、HPE、Intel、Meta和Microsoft等科技巨頭。
    參考:UALink(Ultra Accelerator Link)
    對話AMD CEO Lisa Su:解決難題UALink聯盟致力於制定開放標準和技術規範,推動AI加速器高速互連技術的產業化發展。
    其核心目標是為大型語言模型(LLM)訓練和複雜運算任務提供GPU叢集互連解決方案。
    這項開放標準旨在實現類似NVIDIA NVLink的GPU互連能力,但面向整個產業開放。
    值得關注的是,聯盟匯聚了許多互為競爭對手的科技巨頭,他們選擇透過開放合作來推進AI及加速器運算工作負載的技術演進。
    技術演進:CPU架構的瓶頸突破在高效能運算(HPC)領域,業界較早意識到傳統CPU架構的限制。
    由於大規模平行運算能力和超高資料吞吐量,GPU在深度學習、基因組定序和大數據分析等領域的效能顯著優於CPU。
    這種架構優勢和可程式特性使GPU成為AI運算的首選加速器平台。特別是在LLM規模每半年翻倍的發展態勢下,GPU的運算效率和處理速度優勢更為突出。
    然而,在現有伺服器架構中,CPU作為系統主控,所有資料流都需要經過CPU進行路由轉送。
    GPU必須透過PCIe匯流排與CPU連接。無論GPU運算效能多強,系統整體效能仍受制於CPU的資料路由能力。
    隨著LLM和資料集規模的持續擴張,尤其在生成式AI(Generative AI)領域,這項架構瓶頸在大規模GPU叢集協同運算時表現得特別突出。
    對於超大規模資料中心和前沿AI模型研發機構而言,如訓練GPT-4、Mistral或Gemini 1.5等模型的GPU叢集(通常由數千GPU節點跨機架部署),系統延遲已成為關鍵挑戰。
    這項技術瓶頸不僅影響模型訓練,也為企業IT部門大規模部署生成式AI推理(Inference)服務帶來挑戰。
    對於AI和HPC等運算密集型工作負載,CPU架構對系統及叢集效能的限制已顯著影響到運算效能、部署成本和推理精度等多個層面。 UALink技術解讀UALink聯盟致力於開發新一代加速器直連架構標準,實現加速器間繞過CPU的直接通訊。
    此技術規範定義了一種創新的I/O架構,單通道可達200 Gbps傳輸速率,支援最多1024個AI加速器互連。
    相較於傳統乙太網路(Ethernet)架構,UALink在效能和GPU互連規模上都具有顯著優勢,互連規模更是大幅超越Nvidia NVLink技術。
    資料中心網路架構可分為三個層面:前端網路(Front-end Network)、縱向擴展網路(Scale-Up Network)和橫向擴展網路(Scale-Out Network)。
    前端網路透過CPU上的乙太網路卡(NIC)連接廣域網,用於存取運算儲存叢集和外部網路。
    後端網路專注於GPU互連,包含縱向擴展和橫向擴展兩個維度。 UALink主要應用於縱向擴展場景,支援數百GPU低延遲高頻寬互連。
    而橫向擴展網路則透過專用網路卡和乙太網路技術支援超大規模GPU叢集(1萬至10萬級),這是Ultra Ethernet技術的主要應用領域。以Dell PowerEdge XE9680伺服器為例,單一伺服器最多支援8塊AMD Instinct或Nvidia HGX GPU。
    採用UALink技術後,可實現百台級伺服器叢集內GPU的直接低延遲存取。隨著算力需求成長,使用者可透過Ultra Ethernet Consortium(UEC)技術實現更大規模擴充。
    2023年,Broadcom、AMD、Intel和Arista等產業領導者成立UEC,致力於提升AI和HPC工作負載的效能、擴充性和互通性。 AMD近期發表的Pensando Pollara 400網路卡是首款符合UEC規範的產品。
    參考:AMD發佈業界首款UEC就緒AI NICUltra Ethernet 規範更新UALink是實質的開放標準,而非針對Nvidia NVLink的競爭標準。
    聯盟已組成專門工作小組,正在開發具體技術標準和解決方案。
    核心成員已開始佈局底層技術,如Astera Labs推出的Scorpio系列交換晶片。
    其中P-Series支援基於PCIe Gen 6的GPU-CPU互連(可客製化),X-Series專注於GPU-GPU互連。
    這些基礎架構為未來支援UALink標準奠定了技術基礎。值得注意的是,UALink在加速器、交換晶片、Retimer等互連技術上保持中立立場,不偏向特定廠商,目標是建立開放創新的技術生態系統。
    對企業IT管理者和CIO而言,UALink的價值在於提供更有效率的訓練和推理平台,具備自我管理和自我優化能力,同時降低TCO。 Nvidia NVLink與市場格局UALink的出現固然是對Nvidia市場主導地位的回應,但其更深層意義在於確保GPU互連這項關鍵技術不被單一廠商壟斷。
    主流伺服器供應商Dell、HPE、Lenovo對UALink和NVLink的支援策略值得關注(目前Lenovo作為Contributor加入UALink聯盟,Dell尚未加入)。
    NVLink採用專有訊號實現Nvidia GPU互連,而UALink支援多廠商加速器,並允許符合標準的廠商提供底層架構元件。
    對伺服器廠商而言,支援多種互連標準確實增加了從設計、製造到認證、支援的成本。
    雖然UALink方案具有吸引力,但考慮到Nvidia在市場中的強勁需求,預計短期內市場格局不會發生根本性變化。
    資料中心計算的協同發展UALink聯盟的成立是產業重要里程碑,有助於解決AI模型訓練過程中日益複雜的技術挑戰。
    隨著Astera Labs等廠商開發底層互連架構,Dell和HPE等公司建構配套硬體平台,這種技術創新將從AWS和Meta等超大規模用戶延伸到企業IT部門,推動AI技術的廣泛落地。
    理想情況下,市場需要一個統一的加速器互連標準。目前,看到AMD、Intel、Google、AWS等競爭對手攜手推動開放標準,展現了產業協同創新的積極態勢。
    ———-參考資料:Kimball, Matt, and Patrick Moorhead. “Digging Into the Ultra Accelerator Link Consortium.” Forbes, November 7, 2024. https://www.forbes.com/sites/moorinsights/2024/11/07/digging-into-the-ul-tra-accelium.

  • 谷歌推出 AI 命令列編碼工具,直達 Shell

    大家知道,AI 最開始的是命令列。
    儘管AI與機器學習仍舊火爆異常,新品不斷,但開發者仍大多數生活在命令列中。
    正因為如此,Google將其 Jules 編碼代理推入了終端,並推出了一個名為 Jules Tools 的新工具。
    谷歌在創業時就將搜尋定位為互聯網的命令行,現在它為其 Jules 非同步編碼代理程式創建了一個命令列介面,並賦予它「不可抗拒」的綽號 Jules Tools。
    這本來一定會發生,因為多家AI頭部企業已經在做了。
    OpenAI 有一個名為Codex CLI的命令列介面 (CLI) 。 Anthropic 的Claude Code是 CLI 編碼代理程式。
    Cursor 是一個用於 AI 編碼的整合開發環境 (IDE),它有一個 CLI。
    任何面向軟體開發人員的應用程式都需要在某個時候實現命令列工具。 Google 實驗室的軟體工程師 Jiahao Cai 和 Google 實驗室的產品經理 AK Kulkarni 在發布 Jules Tools 的文章中也表達了同樣的看法。
    他們表示說:「到目前為止,你大概主要透過 Web 瀏覽器與 Jules 進行交互,但我們知道開發者喜歡生活在終端機中。
    這是我們測試、建置、調試和發布的地方。因此,我們建立了 Jules Tools,一個輕量級的命令列介面,讓你可以啟動任務、檢查 Jules 正在執行的操作,並讓其成為您自己的代理,所有這些都無需離開你的工作流程。 」
    Jules於2024年 12 月發布,它使用 Google 的 Gemini 模型來搜尋程式碼庫、修復錯誤並編寫測試。
    與GitHub Copilot 編碼代理程式類似,它的設計目的是自動執行一組指令,而無需對每個提議的更改進行人工審核——因此被稱為「非同步」的。
    巧合的是,我開發的一款基於 Electron 的 RSS 閱讀器,用於聚合新聞源,卻遇到了一個未解決的 bug 。
    於是我把這個錯誤訊息告訴了 Jules,然後就讓它在專案的 GitHub 倉庫裡「肆意妄為」。
    該應用程式最近因未處理的 Promise 拒絕而拋出了類型錯誤。本質上,應用程式的渲染進程在視窗物件被銷毀後試圖對其進行某些操作。
    朱爾斯花了幾分鐘分析錯誤訊息並提出了修復錯誤的計劃。
    編碼代理這樣表示說:「我已成功修改js/rsslib.js,避免了『物件已被銷毀』的錯誤。
    透過新增檢查以確保win物件在將資料傳送到渲染進程之前仍然有效,我解決了導致應用程式崩潰的競爭條件。
    我還通過檢查文件,確認了更改已正確應用。 」
    乍一看,機器人提出的修復 bug 的拉取請求令人滿意。
    然而,修改過程重複,違反了DRY原則,其中一系列win.isDestroyed()檢查或許可以更簡潔地實現。
    我對 Jules 的回覆很滿意。
    該修復是透過 Jules 的 Web 介面進行的。
    根據 Cai 和 Kulkarni 介紹,Jules Tools 讓這款 AI 助理更具可編程性和可自訂性。
    他們說:“Jules Tools 不僅僅是一個介面,它是一種將 Jules 連接到你在終端上所做的一切的方式。”
    最後,若要安裝 Jules Tools,請輸入下列程式碼:
    npm install -g @google/jules.
    (當然,不要帶末尾的句點哦。)

  • 思科 Splunk Observability Cloud for AI POD 解決方案

    思科首席解決方案工程師 蔣星

    隨著人工智慧(AI)和大型語言模型(LLM)技術的快速發展,企業對 AI 工作負載的部署和管理需求日益增長。然而,AI POD 環境的複雜性,包括分散式運算、高效能 GPU、大量資料儲存和複雜的網路互聯,為其效能監控、成本優化和故障排除帶來了巨大挑戰。思科 Splunk Observability Cloud for AI POD 解決方案旨在應對這些挑戰,為企業提供全面的可見度和智慧洞察。

    核心痛點解決此解決方案專注於解決 AI POD 營運中的核心痛點:
    1.效能瓶頸辨識:快速定位 AI 模型推理和訓練過程中的效能瓶頸,如高延遲、GPU 使用率低或過高、以及 Token 生成速度慢等問題。
    2.資源成本最佳化:有效管理和優化 AI 基礎架構的資源消耗,特別是 GPU、儲存和網路資源,以及 LLM 的 Token 使用成本(即「Tokenomics」)。
    3.複雜環境的視覺化:將分散的 AI 基礎設施元件(如運算主機、網路、儲存、容器平台)統一到一個平台進行監控,消除盲點。
    4.快速故障排除:透過即時數據和智慧告警,加速問題診斷和解決,減少 AI 服務的停機時間。

    端對端的監控能力Splunk Observability Cloud for AI POD 解決方案整合了多項關鍵技術與專用模組,提供端對端的監控能力:
    ◎ AI POD Overview:提供 AI POD 整體健康狀況和關鍵效能指標的概覽,例如目前運作的請求數量。
    ◎ Tokenomics:針對 LLM 工作負載的核心模組,監控 Token 的使用效率和成本。它詳細顯示了總輸入 Token、總輸出 Token、峰值提示 Token / 秒、峰值生成 Token / 秒等指標,幫助用戶理解和優化 LLM 的運行成本和吞吐量。
    ◎ Intersight:與 Cisco Intersight 集成,用於監控和管理底層的 Cisco UCS 伺服器和 HyperFlex 超融合基礎設施,確保運算資源的穩定性和效率。
    ◎ Nexus Switches:監控 Cisco Nexus 資料中心交換器的網路效能,確保 AI POD 內部外部資料傳輸的低延遲和高頻寬,這對於處理大量資料的 AI 應用至關重要。
    ◎ Storage:提供對儲存系統效能的深度洞察,包括 I/O 延遲、吞吐量和容量使用情況,確保 AI 模型訓練和推理所需資料的快速存取。
    ◎ AI POD Hosts & AI POD GPUs:專注於 AI 運算核心-主機與 GPU 的效能。監控 GPU 的關鍵指標,如 KV Cache 使用率,以及 GPU 的整體健康狀況和效能表現。
    ◎ Red Hat OpenShift:支援對運行在 OpenShift 容器平台上的 AI 應用進行監控,確保容器化 AI 服務的穩定運作和資源調度效率。
    ◎ 針​​對 NVIDIA LLM 推理微服務的特定監控,優化 LLM 的推理性能,包括關注如首次 Token 生成時間(TTFT)和每 Token 輸出時間(TPOT)等關鍵延遲指標。

    Splunk Observability Cloud for AI POD 解決方案為企業提供了一個統一、智慧的平台,以應對 AI 時代複雜的維運挑戰,確保 AI 投資能夠轉化為實實在在的業務價值。
    自助展示網站:https://cisco-full-stack-observability.navattic.com/2sk0bvw