分类: News

IT資訊新聞

  • Sam Altman 對 AI 未來的真正期望

     21CTO

    背景

    在上週,OpenAI 正式推出了 GPT-4o,這是世界上功能最強大聊天機器人的最新語音互動版本。

    OpenAI執行長 Sam Altman 在「All-In」 播客中長達一小時的訪談中分享了一些讓我們驚訝,但也很坦率的想法。

    該播客由著名投資人Chamath Palihapitiya、Jason Calacanis、David O. Sacks和David Friedberg組成的團隊主持,這讓 Altman 有機會在更具對話性的環境中敞開心扉。

    在一小時的交流討論中,Altman 透露了他對 OpenAI 公司的長期願景,甚至透露了世界通用人工智慧(AGI)的未來發展軌跡。

    身為全球頂尖人工智慧公司的掌門人,Altman 回答了人工智慧大語言模式的安全性、可負擔性、經濟模式以及下一件大事等問題。

    此外在交流過程中,Altman 也和大家展望和思考了未來事物的形態,本文均做了詳細記錄。

    內在差異

    在宣布 GPT-4o時,Altman 指出了它在 OpenAI 產品發展中的地位。

    「最初的ChatGPT 展示了語言介面的可能性;這個新東西給人的感覺完全不同,它快速、智能、有趣、自然並且實用。與電腦交談對我來說從來沒有感覺到自然,而現在感覺到 非常自然。

    在播客中,我們也能夠真切感受到 Altman 對長期願景的關注,並且把長期願景提升到非常重要的位置。

    在討論人類的下一個偉大技術是什麼時,Altman 有一些暗示地說:「我認為語音可能是下一個技術」。

    “做為程式設計師,如果你能讓語音互動變得非常好,那感覺就非常好——我認為這就像是一種使用電腦的不同方式。”

    ps:ChatGTP-4.0 中,使用了著名女星斯嘉麗·約翰遜 (Scarlett Johansson)在電影《Her》的聲音。

    安全性如何?

    上週,OpenAI 解散了 10 個月前組成的管理團隊,登上了各大科技媒體的頭條。

    OpenAI團隊的目標是探索「引導和控制比我們更聰明的AI系統」的解決方案,但這個團隊的兩位領導與創建者雙雙辭職。

    他們分別是Ilya Sutskever和Jan Leike。

     

     

    Ilya Sutskever 是 11 月投票罷免 Altman 的董事會成員之一,而 Jan Leike週五在 Twitter 上抱怨OpenAI 的「安全文化和流程已經讓位給閃光的產品」。

    在宣布辭職的幾天前,Altman 對11 月「宮鬥」與罷免事件的評論也表現的很有意思。

    「你看看,顯然並非所有董事會成員都是我最喜歡的人。但我非常尊重他們對待AGI 的嚴肅態度,還有確保AI 安全的重要性。即使我完全不同意他們的決策和行動,我也 從未懷疑過他們的正直,或對安全和有益的AGI 共同使命的承諾。

    Altman 也直接談到了人工智慧的風險問題。

    “我認為在不遠的將來,前沿人工智慧系統將能夠對全球造成重大危害。”

    他希望有一個國際機構確保對最強大的系統進行“合理的安全測試”,這樣“你知道,這些東西不會逃脫,並不斷自我改進或諸如此類……”他補充說:“也許什麼都不 會發生。

    Altman 將監督人工智慧比作對現有核武或生物技術的監督,「或那些真正會產生非常負面的影響、遠遠超出一個國家範圍的事情」。

    他對監督AI方法論提出了具體建議:例如對輸出進行安全測試,而不是讓政府監管機構審查公司的所有內部程式碼庫並評估機器學習模型中使用的權重。

    Altman 還有另一個擔憂:

    “我也非常擔心監管過度。我認為我們做得太多,甚至有點過頭,都有可能犯錯。”

    他坦承說,我們也可能「因為做得不夠而犯錯」。 Altman 曾擔任創業加速器 YCombinator 的總裁五年,也認同創業家們的觀點。 “我們已經看到監管部門越權或控制在其他領域,結果變得非常糟糕。”

    因此,他希望監管機構只關注耗資超過 100 億美元的項目。 “我不認為這會給新創公司帶來任何監管負擔。”

    “去創造未來”

    在對話的前段,Altman 就不斷的申明,免費提供先進技術是「我們使命中非常重要的一部分」。 他不僅想開發人工智慧工具,還想「讓它們廣泛使用——要免費,或者不那麼貴,不管是什麼——這樣人們就可以用它們去創造未來,而不是讓天降神奇AGI 來創造 未來,然後把它灑在我們每個人身上。

    「這似乎是一條更好的道路。這更像是一條鼓舞人心的道路。我也認為這是事情的實際發展方向。因此,我們還沒有想出如何讓免費用戶使用GPT4 級別的技術,這讓 我很難過。

    Q:我認為它非常昂貴,對嗎?

    Altman:非常昂貴。

    但 Altman 仍然預測人們將會看到一個低廉的人工智慧世界。 “這對我們很重要,對用戶來說也很重要,它將解鎖很多東西。”

    這是 Altman 上週宣布 GPT-4o時重申的主題。 「我非常自豪,在 ChatGPT 中免費提供了世界上最好的大語言模型,沒有廣告或類似的東西。

    「我們創辦OpenAI 時的最初構想是,我們創造人工智慧,並利用它為世界創造各種好處。但現在看來,我們將創造人工智慧,然後其他人將利用它創造各種讓我們所有人都 受益的奇妙事物。

    “我們也是一家企業,會找到很多可以收費的東西,這將幫助我們向(希望)數十億人提供免費、卓越的人工智慧服務。”

    超越“全民基本收入”

    很明顯的是,Altman 一直在思考未來,包括顛覆性技術、經濟模式以及世界的未來將會是什麼樣子。

    在播客中 Altman 也表示,他對人工智慧導師的可能性以及「更快、更好地進行科學發現……這將是一次很高可能性的勝利感到非常興奮」。

    Altman 已經發起了一項著名的全民基本收入試點,已經有3,000 人參與。 因此,大家聽到他對融入人工智慧新方案的最新坦誠想法很興致。

    首先,Altman 談到了全民基本收入的基本概念。

    “給人們錢並不能解決全部問題,這當然不會讓人們特別興奮。但它會解決一些問題,並可能為人們提供更好的視野來幫助自己。”

    此外, Altman 還有另一個想法。

    「現在,我們看到了人工智慧正在發展的一些方向。我想知道未來是否更像通用基本計算,而不是全民基本收入……每個人都會得到GPT-7 計算的一部分,他們可以使用它,可以轉 出售它,可以捐贈給某人用於癌症研究。

    “這樣,你便擁有了生產力的一部分!”

    保護我們關心的事物

    在播客中,Altman偶爾還會流露出自己的個人情感。 例如當他談到蘋果的廣告時,廣告中藝術材料在液壓裝置中被碾碎,然後用蘋果iPad取代。

    「我對人工智慧持非常積極的態度——但我認為人類的創造力和藝術表達方式也非常美妙。你知道,對於一個只在科學上表現更好的人工智慧來說?很好,那就 來吧。

    Altman 停頓了一下,然後說:“這會發生的。它將成為一種工具,引領我們達到更高的創意高度。”

    “但我認為我們應該想辦法做到這一點,以保留我們大家所關心的精神。”

    雙方也對版權和訓練資料進行了一些討論,Altman 透露,OpenAI 決定「不做音樂…部分原因正是這些關於界線的問題」。

    “這將會發生”

    那麼,當我們最終實現 AGI 這一聖杯時會發生什麼?

    AGI 是一種能力與人類智慧相當,甚至超越人類智慧的機器。

    Altman 坦白說:

    「我認為,世界上很多人都非常恐懼AGI,這是可以理解的,或者說,甚至非常害怕當前的人工智慧,但又對它感到非常興奮——甚至更加害怕,也更加興奮於它的發展 方向。

    “我們正在努力解決這個問題,但我認為這種情況是不可避免的。”

    他似乎意識到了真正顛覆的可能性,並同意“很多事情都會改變。而改變會讓人們感到相當不舒服。因此,我們必須做好很多事情。”

    不過,最終,Altman 也相信這一切都將「帶來巨大的好處。但我們必須找到如何以合理的方式實現這一目標。」Altman 甚至一度強調,OpenAI 的使命「是朝著AGI 邁進——並 弄清楚如何廣泛分配其好處。

    在結束採訪之前,奧爾特曼真誠地表達了他對未來漫長道路的熱情。

    “我非常關心 AGI,並認為這是世界上最有趣的工作。”
    作者:場長

  • 思科認證350-801考試詳情指南

    思科認證350-801考試詳情指南
    一、認證背景
    350-801考試是思科認證中的一項重要考試,專注於統一通信和協作技術領域。它是思科認證路徑中的CCNP Collaboration認證和CCIE Collaboration認證的基礎考試。此認證考試的目的是確認考生對實施和操作核心協作技術的知識。在當今世界,協作技術在各種行業和領域中發揮著重要作用,包括教育、醫療、商業和政府部門等。具有此類技能的專業人員可以幫助企業和組織改善其溝通效率,從而提高生產力和服務質量。
    二、考試內容
    350-801考試的內容主要包括以下幾個部分:

    協作基礎:這部分考試內容包括瞭解和配置思科的協作基礎知識和技能,包括協作架構、協作部署模型、協作的組件和功能等。

    音頻網絡:這部分考試內容涵蓋了對思科的音頻網絡設備和技術的瞭解和配置,包括思科的音頻網絡設備、音頻網絡的協議和標準、以及設計和實施音頻網絡的最佳實踐等。

    協作應用:這部分考試內容包括對思科協作應用的瞭解和配置,包括思科的協作應用如Cisco Unified Communications Manager、Cisco Unified Communications Manager Express、Cisco Unity Connection等。

    質量服務(QoS)和安全:這部分考試內容包括對思科協作網絡中的QoS和安全的理解和運用,包括QoS的原理和實施、思科協作網絡的安全策略和解決方案等。

    統一通信和協作解決方案的設計:這部分考試內容包括設計和實施思科的統一通信和協作解決方案,包括對解決方案的需求分析、解決方案的設計和實施、以及解決方案的優化和故障排除等。
    三、所適用人群
    此考試主要適用於以下專業人士:

    網絡工程師:這些專業人員需要了解和配置網絡設備,包括路由器、交換機和防火牆等。他們需要了解網絡的運作原理,並能夠解決網絡問題。

    系統工程師:這些專業人員需要了解和配置企業的IT系統,包括服務器、存儲設備和應用程序等。他們需要了解IT系統的運作原理,並能夠解決系統問題。

    支持工程師:這些專業人員需要提供技術支持,解決客戶的技術問題。他們需要了解各種技術產品和解決方案,並能夠有效地解決問題。

    協作工程師:這些專業人員需要了解和配置協作技術和解決方案,包括音頻和視頻會議系統、即時通訊工具和協作平台等。他們需要了解協作技術的運作原理,並能夠提供協作解決方案。
    四、學習方法及學習重點
    為了通過350-801考試,考生需要專注於以下重點:

    理解和應用協作基礎:考生需要對思科的協作基礎知識和技能有深入的理解,並能在實際環境中應用這些技術。這需要學習和了解協作的基本概念,包括協作的架構、協作的部署模型、協作的組件和功能等。

    了解並配置音頻網絡:考生需要瞭解並熟悉思科的音頻網絡設備和技術。這需要學習和了解音頻網絡的基本概念,包括音頻網絡的設備、音頻網絡的協議和標準、以及設計和實施音頻網絡的最佳實踐等。

    理解並配置協作應用:考生需要對思科的協作應用有深入的理解,並能配置這些應用。這需要學習和了解協作應用的基本概念,包括思科的協作應用如Cisco Unified Communications Manager、Cisco Unified Communications Manager Express、Cisco Unity Connection等。

    掌握QoS和安全:考生需要對思科協作網絡中的QoS和安全有深入的理解。這需要學習和了解QoS和安全的基本概念,包括QoS的原理和實施、思科協作網絡的安全策略和解決方案等。

    設計和實施統一通信和協作解決方案:考生需要能夠設計和實施思科的統一通信和協作解決方案。這需要學習和了解解決方案的基本概念,包括對解決方案的需求分析、解決方案的設計和實施、以及解決方案的優化和故障排除等。
    五、官方考試費
    考試的費用因地區和考試類型而異,具體的費用應在思科的官方網站上查詢。一般來說,思科的考試費用包括考試本身的費用和可能的註冊費。此外,考生還需要考慮到準備考試的其他成本,如購買參考書籍,參加培訓課程等。
    六、授權考試中心
    考試通常在思科認證的考試中心進行,考生可以在思科的官方網站上查找最近的考試中心。這些考試中心提供了一個專業的環境,讓考生可以專心參加考試。考試中心通常提供的設施包括安靜的考試環境、現代化的設備和友好的工作人員等。
    七、預約考試流程
    要預約考試,考生需要先在思科的官方網站上註冊一個帳號,然後選擇考試,選擇考試中心,並支付考試費用。在考試當天,考生需要帶上有效的身份證件,按時到達考試中心。
    八、認證有效期
    思科的CCNP Collaboration認證和CCIE Collaboration認證的有效期通常為三年。在此期間,考生需要通過再認證考試或完成其他再認證要求以保持認證的有效性。如果考生在認證有效期內未能完成再認證要求,則認證將過期,考生需要重新參加考試以獲得認證。
    九、重認證政策
    思科有明確的重認證政策,考生可以通過參加和通過相關的再認證考試或完成思科認可的持續教育活動來完成重認證。持續教育活動可以包括參加思科的培訓課程、參加思科的網絡學院課程、參加思科的研討會或活動等。
    十、有樣本預覽
    為了幫助考生更好地準備考試,思科在其官方網站上提供了一些考試樣題。這些樣題可以幫助考生了解考試的格式和題型,並可以用來測試和提高自己的知識和技能。考生可以利用這些樣題來評估自己的學習進度,並確定是否需要進一步的學習或實踐。
    以上就是思科認證350-801考試的詳細資訊,希望這些資訊能夠幫助您更好的準備考試。無論您是剛剛開始您的IT職業生涯,還是已經在此領域工作多年,這個考試都是驗證您技術能力和知識的絕佳方式。另外,獲得這個認證將是您職業生涯的一個重要里程碑,它將證明您的專業技能,並可能為您帶來更多的職業發展機會。

  • Google I/O 變 Google A/I ,力壓 GPT-4o

     为开发者服务的 21CTO

    21CTO導讀:今年的 Google I/O 開發者大會應該改名,它已經將重點放在人工智慧。 但是新的網路生態系統對人工智慧與Google搜尋的擔憂似乎沒有答案。

    Google 一年一度的開發者大會仍然被稱為 Google I/O,不過2024年應該叫 Google A/I 大會可能更合適。

    這是因為,這個從週二開始的大會中,幾乎所有面向開發者的公告都提到了人工智慧,它變成了一個通用的術語,被用來描述從文本成成到圖像識別以及語言翻譯的全部 內容。

    雖然被OpenAI搶了風頭,這家網路與軟體巨頭還是推出一系列讓開發者眼前一亮的新產品與技術。

    新的 Gemini 1.5 發布

    面對OpenAI等公司的競爭,Google 繼續增強其旗下所有的 AI 模型,Gemini 1.5 Pro在 200 多個國家/地區全面進入公開預覽版,同時又推出了名為 Gemini 1.5 Flash 的速度調整新變體。

    這兩種模型都具有 100 萬個令牌上下文窗口,這表示它們可以接受大量資料作為輸入,並且它們都透過 Google AI Studio 向參與私人預覽的開發者提供 200 萬個令牌上下文窗口。

    Gemini API 目前可以處理平行函數呼叫與本機視訊幀提取,很快它將支援上下文緩存,還可以透過儲存常用的上下文資料來幫助管理運行成本。

    Google 的開放模型系列 Gemma 正在透過新的姊妹產品進行擴展。 包括除了用於程式碼完成和生成的CodeGemma,還有用於更好記憶體使用的 RecurrentGemma,現在還出來一個用於多模式視覺語言任務的 PaliGemma。

    此外,Google 還計劃展示即將在 6 月推出的 Gemma 2 系列機型。 該集合的第一個成員將是一個 270 億個參數的大語言模型。

    Google 實驗室副總裁Josh Woodward 向人們解釋道:「它經過最佳化,可在Nvidia 的下一代GPU 或Vertex AI 中的單一TPU 主機上運行。這就是它易於使用的原因。而且人們也已經看到了一些 出色的品質,它性能優於現有型號的2倍。

    Android 深度結合 AI

    Android Studio 中的 Gemini最初以 StudioBot 的名稱開始,今年也在合適時機進行了改造,它使用 Gemini 1.5 Pro 處理多模式輸入。

    Android 開發者副總裁Matthew McCullough 介紹:「Android 將是一款以人工智慧為核心的作業系統。我們正在幫助開發者打造只有人工智慧才能解鎖的,令人難以置信的體驗,然後將這些 體驗完整交付到用戶手中。

    McCullough 說,Google在為開發者提供多個將 AI 整合到 Android 應用中的方法,包括 Google AI Client SDK 和 Vertex AI SDK,這兩種方法都已經出了公開預覽版。

    McCullough 對Android開發者這樣描述:

    「如果開發者不熟悉生成式AI 構建,也沒關係,可以先對AI Studio進行實驗以及原型設計,然後再使用Google AI Client SDK ,將Gemini 無縫集成到的Android 應用程式中。如果企業用戶已經在 使用Vertex AI,可以使用Vertex AI SDK 來存取Gemini 的全部功能。

    Chrome 瀏覽器全面AI化

    Google 今年的一大策略是在 Chrome 瀏覽器中加入機器學習模型。

    特別是 Gemini Nano 模型,這要歸功於 WebGPU 和WebAssembly的改進,使人工智慧能夠在更廣泛的電腦硬體上更好地工作。

    Google網路平台小組產品管理總監Jon Dahlke 表示:「從Chrome 126 開始,Gemini 將內建於Chrome 桌面用戶端。我們將使用Gemini 來支援我們自己的人工智慧功能,包括協助寫作,它使用裝置上的人工 智慧來幫助用戶編寫簡短的內容,例如產品評論、社交媒體貼文與客戶回饋表單。

    Google將使用整合的 Gemini Nano 模型來實現自己基於瀏覽器的 AI 功能,並透過預覽程式向開發者提供。

    Google 已「投入巨資,確保AI 模型透過使用WebGPU 和Wasm(支援網路裝置上AI 的骨幹技術)快速且有效率地運作。」與Chrome 一起,這種對人工智慧工程的平台支援是谷歌可以比其人工 智慧競爭對手OpenAI、微軟和Meta 佔優勢的領域之一。

     

     

     

    「我們的願景是,開發者將能夠為Chrome 的數十億用戶提供強大的人工智慧解決方案,而不必擔心提示語工程、微調、容量或成本等,你們所要做的就是調用一些高級API,例如 翻譯、字幕或轉錄等功能。

    並且其它瀏覽器廠商會相繼採取類似的步驟。 Google已經“開始與其它瀏覽器合作”,這意味著瀏覽器中人工智慧模型的網路標準開始出現。

    在媒體上詢問 Gemini Nano 是否會配備新的投訴功能,以便向Google通報模型錯誤或濫用情況。 媒體活動結束後,其發言人回復道:“安全是我們模型開發與部署不可或缺的一部分。Gemini Nano 集成是根據Google與SAIF和 Responsible AI 實踐合作構建的。”

    值得一提的是,該聲明並未明確 Chrome 是否會發出更新穎的遙測資料來監視大模型濫用。

    Chrome 的人工智慧注入也滲透到了 Chrome DevTools Console,得益於 Gemini Nano,控制台將看到錯誤解釋和調試解決方案。 這項被稱為 Console Insights 的功能,最快將於下週在美國地區作為實驗性功能提供,之後成熟後應該會推廣到其它國家。

    人工智慧應用開發環境 Project IDX

    其基於雲端的整合開發環境Project IDX,現已結束公共預覽版並進入測試階段。 它可以幫助我們開發用於人工智慧驅動的應用程式。

    Project IDX 適合想要建立可在Web和各種行動作業系統上運行的應用程式的開發人員。 它與 GitHub Codespaces 有幾個相似之處,因為這兩個產品都與 Microsoft 的開源 Visual Studio Code 產品 Code OSS 整合。

    但 IDX的特徵「更加固執己見」。 舉一個例子,它能夠進行 Android 模擬和 iOS 模擬。

    關於 Project IDX 獲得了更多人工智慧功能。 Google表示說:“我們已將 Gemini 模型深入整合到 IDX 中,以便直接在您的工作空間中提供更大的幫助。”

    IDX 專案中的人工智慧助手

    Project IDX 已經支援人工智慧驅動的程式碼完成、輔助聊天以及「新增註解」和「解釋此程式碼」等上下文程式碼操作。

    在 I/O 大會上,開發者們又被告知這些功能已被「進一步改進」。

    在有人詢問 Google 的開發者產品是可以幫助網頁設計流程,例如建立 CSS 和佈局。 這些以設計為中心的人工智慧功能現在在Figma和Locofy等工具中已經很常見。

    Google開發副總裁兼總經理 Jeanine Banks 回答:

    “我們計劃今年推出更多轉換功能和程式碼修復,我認為另一個重要的事情是與設計的聯繫。那麼設計工作流程如何轉化為程式碼呢?這也是我們正在關注的一個空間。”

    Flutter與Python團隊被裁撤之後

    估計大家特別關心Flutter和Python團隊。

    在兩個團隊裁員之後,沒有特別大的影響。 「巧克力工廠」的 Dart 程式語言和 Flutter 跨平台開發框架分別升級到 3.4 和 3.22 。

    最顯著的變化包括 Flutter Web 應用程式中對 WebAssembly 的本機支持,據稱在大多數情況下可以將幀渲染時間提高2倍。 在 Dart 中,更新添加了宏,這可能對於自動化 Flutter 開發工作流程很有用。

    Firebase 服務

    如果沒有宣布某種新框架,這就不會是一次開發者大會。

    果不其然,Google 推出 Firebase Genkit——一個為 JavaScript/TypeScript 開發人員構建的新開源框架,很快就會支援 Go 語言的版本即將推出,幫助他們為 AI 應用程式建立 Node.js 後端。

    不過,我們也不必非得使用 Firebase。 Google 指出,如果使用 VS Code 或 Project IDX,“你也可以在 VS Code 整合瀏覽器中開啟 Genkit Developer UI,並將其與你的程式碼並排使用。”

    Genkit 支援資料來源、大模型、雲端服務與程式碼的整合:

    大型語言模型,例如 Google 的 Gemini 和 Ollama 的開源模型。

    向量資料庫,例如 Chroma、Pinecone、Cloud Firestore 和 PostgreSQL (pgvector)。

    來自 Google 的嵌入服務(Google AI 和 Vertex)。

    其它重要增強

    此外,推測規則 API(透過在後台預取和預渲染頁面來促進更快的頁面載入)也已經融入了人工智慧。 Google 介紹說,人工智慧可以透過預測導航模式來進一步優化,以提高資源預載的效率。

    在將人工智慧融入一切之後,Google也向 Android 和 iOS 開發者提供 Checks 服務。 Checks 使用人工智慧來驗證應用程式(無論是否支援人工智慧)是否符合隱私和資料收集要求。

    除了網路平台的新增功能之外,Google還宣布了整個開發板的一系列其他調整,例如Angular 中的部分水合、Maps JavaScript API 中的3D 沉浸式體驗以及其行動平台Flutter 和Dart 的新版本 。

    未提及搜尋對網路生態系統的影響

    儘管在 Google I/O 大會上宣布了大量人工智慧功能,但這家巨頭並沒有提及人工智慧搜尋對網路平台的影響。

    雖然搜尋引擎不是開發者大會的重點,但今年人們對Google將如何防禦人工智慧增強的微軟Bing、Perplexity以及來自OpenAI這樣的新進入者,甚至可能是「搜尋GPT」的攻擊,捍衛自己的搜尋引擎 領域越來越感興趣。

    有開發者提出,所在的公司的網站或網路應用程式可能會受到人工智慧驅動的搜尋威脅。 但是,Google I/O 大會並沒有提到人工智慧對網路的生存威脅。

    鑑於網路生態系統在一段時間內仍會充滿生機,開發者再有一堆閃亮的新人工智慧工具還是有許多好處。

  • 英偉達:下一代GPU細節曝光

    架构师技术联盟

    本文轉自「英偉達:下一代GPU細節曝光」。 Nvidia 正在準備該公司的 GeForce RTX 50 系列 (Blackwell) 產品,以與最好的顯示卡競爭。 著名硬體洩密者 @kopite7kimi 聲稱,根據他的訊息,Blackwell系列的記憶體介面配置不會與Ada Lovelace系列有太大差異。 既然這是洩漏,請持保留態度。 我們從先前發布的一些洩密資訊中了解到 ,該公司計劃在其基於Blackwell 架構 的下一代頂級 GB202 GPU 中保留 384 位元記憶體總線 。

    相關連結:

    1.英偉達NVLink技術詳細概述

    2.英偉達Blackwell平台網路配置詳解

    3.英偉達GB200 NVL72全連網技術,銅纜方案或成為未來趨勢?

    4.英偉達Blackwell性能增加5倍,AMD/Intel產品升級,國產廠商如果應對?

    更多GPU技術細節,請參考文章“最新版:GPU顯示卡天梯圖(2023年11月)”,“全球GPU呈現“一超一強”競爭格局”,“2023年GPU顯卡詞條報告”,“ HBM崛起:從GPU到CPU”,“英偉達GPU龍頭穩固,國內逐步追趕(2023)”,“英偉達L40S GPU架構及A100、H100對比”,“AI晶片第一極:GPU性能、技術全面分析”, “主流國產GPU產品及規格概述(2023)”,“新型GPU雲桌面發展白皮書”,“國內外GPU現狀:海外龍頭領跑,國產差距明顯”,“GPGPU流式多處理器架構及原理”等等 。

    Nvidia 的 Blackwell 可能是該公司第一個支援GDDR7記憶體的系列,與現有的GDDR6和GDDR6X記憶體解決方案相比,其更高的資料傳輸速率和架構特性有望顯著提高效能。 鑑於第一代 GDDR7 SGRAM IC 將具有 32 GT/s 的資料傳輸速率,採用這些晶片的 384 位元記憶體子系統將提供約 1,536 GB/s 的頻寬,因此 512 位元記憶體介面是不容錯過的。

    雖然我對512位元還抱有幻想,但GB20x的記憶體介面配置和AD10x沒有太大差別。

    2024 年 3 月 9 日,美光錶示 16 Gb 和 24 Gb GDDR7晶片將於 2025 年上市,但其路線圖並未顯示這些設備是否會同時推出,還是 16 Gb 會更早推出。 也就是說,仍有待觀察的是 Nvidia 是否會在其原始的 GeForce RTX 50 系列顯示卡中使用 16 Gb 還是 24 Gb GDDR7 記憶體 IC。

    由於英偉達的Blackwell家族至少還有兩到四分之三的時間,現在很難做出預測。 然而,我們在表中概述了GB200系列供電產品的可能記憶體配置。

    在迄今為止的幾代產品中,Nvidia 的頂級消費性顯示卡均使用 384 位元記憶體介面(AD102、GA102),事實證明,從效能和成本的角度來看,該介面是最佳的。 Nvidia 頂級消費性圖形產品的精簡版採用 320 位元記憶體接口,而高階 GPU 則採用 256 位元匯流排(例如 AD103、GA103 和 GA104)。 同時,效能主流段也有採用192位元記憶體匯流排的GPU(如AD104、GA106)及主流段採用128位元記憶體介面的GPU(如AD106、AD107、GA107)。

    雖然洩密者的評論表明Blackwell系列將在很大程度上保留當前Ada Lovelace系列的記憶體介面配置,但應該記住,根據同一洩密者,Blackwell 系列將缺少 GB204 GPU。 相比之下,傳聞中的GB205很可能不會直接繼承 AD104。

    功率突破1000W?

    如果你認為 Nvidia 的 700W H100 是又熱又耗電的機器,那就等到今年稍後 的 B100 GPU上市吧。

    戴爾科技集團營運長 Jeff Clarke 表示,Nvidia 最新的 AI 加速器的功耗將達到 1,000 瓦,比其前身高出 42%。 但別擔心,他非常確定馴服這頭野獸不需要液體冷卻。

    克拉克上週在戴爾財報電話會議上對投資者表示:「我們對H200 所發生的事情及其性能改進感到興奮。」他補充說,他對Nvidia 即將推出的B100 加速器和另一個他稱為B200 的加速器 也有同樣的感受。 。

    他認為,處理每個功耗 1,000 瓦的 GPU 不需要直接液體冷卻——他說「明年 B200 就會達到這一水平」。

    目前還不完全清楚 Clarke 所指的「B200」卡是什麼,因為去年秋天英偉達與投資者分享的路線圖上沒有出現該名稱的晶片。 然而,我們懷疑 Clarke 實際上指的是 GB200 Superchip,它與GH200一樣,預計將 Nvidia 的 Grace CPU 與其 B100 GPU 結合起來。

  • 思科重新構想人工智慧時代的資料中心與雲端安全

    思科联天下

    ● 思科為人工智慧規模的資料中心和雲端提供動力和保護。 無論應用和裝置如何分佈或聯接,思科均能確保其安全。

    ● 當今高度離散的網路世界,漏洞從出現到被利用的時間正在縮短,而防禦資料中心日益複雜的威脅環境已經超出了人力所能處理的範圍。

    ● Cisco Hypershield 能夠在客戶需要的任何地方提供安全保護,無論是雲端、資料中心、工廠車間或醫院影像室,都能夠隨時隨地保障其安全。

    ● 透過AI原生安全功能,客戶可以自主分段其網絡,無需補丁即可享受分散式和近乎即時的漏洞保護,同時享受零停機時間的自動軟體升級服務。

    2024年4月24日,北京—全球科技領導廠商思科日前正式推出資料中心與雲端安全的全新技術,以因應AI變革對IT基礎設施日益增長的需求。

    思科推出業界首創的Cisco Hypershield,重新建構企業運用並保護人工智慧和其他現代工作負載的方式。 這項前所未有的創新,加上思科近期宣布的利用乙太網路交換、晶片和算力產品組合加速人工智慧基礎設施建設,以及與NVIDIA公司的合作,思科進一步拓展了能為防守方所提供的安全支持 。

    Hypershield能夠在客戶需要的任何地點提供保護,包括公有和私有資料中心、雲端平台和實體位置中的應用程式、裝置和資料。 Hypershield將人工智慧需求考慮在內,進行設計和構建,旨在幫助企業實現超越人力所能及的安全成果。

    Cisco Hypershield是思科有史以來最重大的安全創新之一。 思科在資料、安全、基礎架構和視覺化平台的實力,都令我們在協助客戶充分發揮人工智慧潛能方面具有得天獨厚的優勢。

    ——羅卓克

    思科董事長

    兼首席執行官

    Hypershield是一種革命性的全新安全架構。 它採用的技術最初僅針對超大規模公有雲;現在,則拓展為可供各種規模的企業IT團隊使用。

    Hypershield更像是一種安全網絡,而不僅僅是安全屏障,它使安全策略得以部署到任何需要它的地方。 無論是資料中心內的每個應用服務、公有雲中的每個Kubernetes集群,或是每個容器和虛擬機器(VM),Hypershield都能為其提供保護。

    Hypershield甚至將每個網路連接埠轉變為高效能的安全執行點,為雲端、資料中心、工廠車間或醫院影像室帶來全新的安全保障。 這項新技術能夠在幾分鐘內阻斷應用漏洞,並迅速阻止其橫向移動。

    AI有潛力使全球80億人擁有與800億人相同的影響力。 在這個充滿無限可能的時代,我們必須重新構想資料中心的角色,也就是資料中心的連結方式、安全保障、營運模式和擴展能力。 Cisco Hypershield的強大之處在於,它可以在任何需要的地方提供安全性,無論是軟體、伺服器,還是未來的網路交換器。 當您擁有一個包含數十萬個安全執行點的分散式系統時,簡化管理至關重要。 我們需要以更低成本實現更高等級的自動化。

    ——Jeetu Patel

    思科全球執行副總裁

    安全與協作事業部總經理

    Hypershield的安全執行分為三個不同的層次:軟體、虛擬機器以及網路和算力伺服器與設備,並利用了在高效能運算和超大規模公有雲中廣泛使用的強大硬體加速器。
    Hypershield基於三大支柱構建:

    三大支柱

    ●人工智慧原生:Hypershield以自動化和可預測為核心進行設計,一旦建立信任,Hypershield就可以實現自我管理,實現規模化的高度離散佈局。

    ● 雲端原生:Hypershield基於開源eBPF(Extended Berkeley Packet Filter)構建,是聯接和保護超大規模雲端雲端原生工作負載的預設機制。 思科預計將在本月完成為企業提供eBPF的領先供應商Isovalent的收購。

    ● 超分散式:思科正在徹底改變傳統網路安全性的工作方式,將高階安全控制嵌入伺服器和網路架構中。 Hypershield涵蓋所有的雲端平台,並利用資料處理單(DPU)等硬體加速功能來分析和回應應用程式和網路行為中的異常,為更需要保護的工作負載提供更強安全保護。

    憑藉在網路、安全以及廣泛的合作夥伴生態系統方面的業界領先專業知識,思科致力於與NVIDIA共同建構和優化人工智慧本地安全解決方案,以保護和擴展未來的資料中心。

    這項合作包括利用NVIDIA Morpheus人工智慧網路異常檢測框架,加速網路異常檢測,以及利用NVIDIA NIM微服務,為企業提供客製化的安全人工智慧助理。

    NVIDIA的整合式加速器系列產品結合了GPU和DPU運算的力量,保障了Cisco Hypershield從雲端到邊緣的強大安全性。

    各行各業的企業都在尋求能夠保護他們免受不斷擴大的網路威脅的安全解決方案,思科與NVIDIA共同利用人工智慧的力量,提供強大而極其安全的資料中心基礎設施,將幫助企業轉型並造福 全球客戶。

    ——Kevin Deierling

    NVIDIA網絡

    資深副總裁

    作為一項革命性的全新安全架構,Hypershield正在解決當今複雜威脅環境下客戶面臨的三大關鍵挑戰:

    三大關鍵挑戰

    ●分散式漏洞防禦:攻擊者擅長利用新發布的漏洞進行攻擊,其速度往往快於防守方進行修補程式更新的速度。 根據思科Talos威脅情報的數據,防守方每天幾乎要面對100個新的漏洞,可能導致災難性的後果。 Hypershield透過自動測試和部署補償控制措施到分散式執行點結構中,在幾分鐘內提供保護。

    ● 自主分段:一旦攻擊者進入網絡,分段就是阻止其橫向移動的關鍵。 Hypershield持續觀察、自動推理和重新評估現有策略,以自主地對網路進行分段,從而在大規模複雜環境阻隔攻擊。

    ● 自動驗證升級:Hypershield利用雙層資料平面,自動化了測試和部署升級的極為繁瑣和耗時的流程。 這種全新的軟體架構允許將軟體升級和策略變更放置在數位孿生中,並利用客戶獨特的流量、策略和功能組合進行測試,繼而在零停機情況下進行更新。

    Cisco Hypershield是思科人工智慧驅動的統一跨網域安全平台安全雲端(Security Cloud)的一部分,預計2024年7月全面上市。

    隨著思科完成對網路安全軟體公司Splunk的收購,客戶能夠在完整數位化足跡中獲得卓越的可見度和洞察力,從而獲得前所未有的安全保護體驗。

    AI不僅是向善的力量,也被用於不法目的,讓駭客能夠逆向工程補丁並在極短時間內創建漏洞利用。 思科希望透過AI解決方案來解決AI帶來的問題,因為Cisco Hypershield旨在透過幾分鐘內保護新漏洞不被利用,從而讓防守方重新獲得優勢,而不是等待補丁實際部署所需的數天、 數週甚至數月。 隨著漏洞數量的不斷增加,攻擊者大規模利用這些漏洞的時間也不斷縮短,顯然僅靠修補程式已無法跟上這一趨勢。 像Hypershield這樣的工具對於應對日益狡猾的惡意網路攻擊來說至關重要。

    ——Frank Dickson

    IDC安全與信任部門

    集團副總裁
    Cisco Hypershield旨在解決現代、AI規模資料中心所面臨的複雜安全挑戰。 思科對於能夠無縫整合從網路到終端的自我管理網路架構的願景,將有助於重新定義大規模安全的可能性,例如,在超分散式環境中實現這種層級的可見性和控制,能夠 防止攻擊者的橫向移動,這得益於一種自主且高度有效的獨特分段方法。 儘管這聽起來可能有些不可思議,但鑑於近期AI的進步以及eBPF等雲端原生技術的成熟,此刻正當時。

    ——Zeus Kerravala

    ZK研究創辦人

    兼首席分析師

    在AHEAD,我們堅信網路安全應該融入我們所做的一切。 附加的安全措施成本更高,效果更差,Cisco Hypershield確保網路安全防護融入企業架構之中。 分散式漏洞保護將為網路安全中的防守方帶來巨大勝利——傳統的合成修補程式主要局限於邊緣設備,一旦攻擊者突破邊界,就允許其進行橫向移動。 這對網路防守方來說,真是個好消息!

    ——Steven Aiello

    AHEAD

    首席資訊安全官

    思科(NASDAQ:CSCO)是全球科技領導廠商,致力於安全地連接一切,使一切成為可能。 我們的目標是透過重新定義應用、賦能混合辦公、保護企業安全、基礎架構轉型,幫助客戶實現永續發展目標,為所有人打造一個包容性的未來。 您可以在cisco.com.cn上獲取更多信息,並關注我們的微信公眾號“思科聯天下”。

    思科和思科標誌是思科或其附屬機構在美國和其他國家地區的商標或註冊商標。 您可以查看Cisco商標清單www.cisco.com/go/trademarks,其中提及的第三方商標是其各自所有者的財產。 使用「夥伴」一詞並不能直接表示思科與任何其他公司之間有合作關係。

  • 連接埠鏡像

    通信弱電交流學習

    連接埠鏡像
    通信弱電交流學習

    什麼是連接埠鏡像?

    連接埠鏡像是指在交換器或路由器上將經過指定連接埠(來源連接埠)的資料封包複製一份到另一個指定連接埠(目標連接埠)上,以實現網路流量的分析與監控。

    一些對即時監控比較注重的用戶在網路遭受了各種攻擊,需要檢查流量而不希望影響原來的網路時,可以利用連接埠鏡像,例如我國文化部和公安部要求網路服務場所安裝監控軟體,透過連接埠 鏡像採集相關數據,分析使用者的網路使用。

    依照工作範圍的劃分,連接埠鏡像分為兩種類型,本地鏡像和遠端鏡像。

    本機鏡像實作在同一台網路設備上,監控設備對客戶端的資料分析監控。

    遠端鏡像實現跨網路設備時,監控設備對客戶端的資料分析監控。

    連接埠鏡像的原理是什麼?

    本機連接埠鏡像的來源連接埠與目標連接埠處在同一台裝置上。

    如下圖所示,透過本機連接埠鏡像,來源連接埠(Eth 1/1)的資料封包被鏡像到目標連接埠(Eth 1/2)上。

    這樣連接在目標連接埠上的監控設備就可以對經過來源連接埠的資料封包進行監控分析。

     

    遠端連接埠鏡像的來源連接埠與目標連接埠處在不同的設備上,如下圖所示。

    透過遠端鏡像,來源連接埠(Eth 1/3)的資料封包經過兩台裝置的級聯連接埠(Eth 1/4)後被鏡像到目標連接埠(Eth 1/3)上,該連接埠將鏡像資料報 文複製到監控設備上,實現跨裝置的資料報文監控分析。

    端口鏡像的熱點問答

    交換器如何配置連接埠鏡像?

    設定連接埠鏡像的前提是交換器或路由器支援連接埠鏡像功能。 您可以根據需求場景選擇配置本機鏡像還是遠端鏡像。

    本機鏡像的設定步驟如下:

    1、建立VLAN

    2、將連接埠加入到VLAN中

    3、配置IP位址

    4.在目標連接埠下進行鏡像指令配置,將來源埠的資料封包鏡像到目標埠。

    遠端鏡像的設定步驟如下:

    1.在全域模式下建立來源端口

    2、配置一台交換器uplink端口

    3.在全域模式下建立目標端口

    4.設定另一台交換器uplink端口

    需要注意的是:
    1、在本機鏡像中,必須選擇一個口作為來源端口,一個口作為目標端口,配置才能生效

    2.如果需要建立鏡像組,一個鏡像組只能有一個目標端口,可有多個來源端口

    3.如果某個端口已經是鏡像群組的來源端口,則不能成為另一個鏡像群組的成員端口

    4.如果某個端口已經是鏡像群組的目標端口,則不能成為另一個鏡像群組的成員端口

    5.建議不要在目標連接埠上使用STP、RSTP或MSTP,否則會影響設備的正常使用

    連接埠鏡像與串流鏡像有什麼區別?

    連接埠鏡像與串流鏡像都屬於鏡像功能。

    每個網路連線都有入口流、出口流兩個方向的資料流,對交換器來說這兩個資料流需要分開鏡像。

    流鏡像是指按照一定的資料流分類規則對資料進行分流,然後將屬於指定流的所有資料鏡像到監控端口,以便進行分析。

    流鏡像可以透過存取控制清單(ACL)的方式匹配合適的流,也可以透過指令匹配,在功能上比連接埠鏡像更強大。

    連接埠鏡像與連接埠對映有什麼區別?

    連接埠對映是指將內部網路的某個(LAN)IP位址轉送到公網路上,或將外網的(WAN)IP位址轉送到內網路上。

    例如有一台電腦本地的IP位址是192.168.1.10,在這台電腦上用百度查詢資料,資料傳輸的流程是:

    透過路由器用ADSL撥號上百度,百度只能辨識到路由器的IP位址,把資料傳給路由器後,路由器透過內建的連接埠對映表(設定了連接埠對映路由器才能準確辨別訊息應回傳給哪個本機IP)把 數據返回電腦。

    連接埠鏡像與連接埠對映的主要區別在於:連接埠鏡像是流量複製的過程,連接埠映射是流量轉送的過程。
    如何驗證連接埠鏡像是否成功?
    通常情況下,你可透過流量抓包軟體進行流量抓包驗證,在監控裝置上進行抓包測試,如果可以取得到來源埠發送或接收的資料包,則連接埠鏡像成功。

    主流廠商交換器埠鏡像配置
    華為
    配置 GigabitEthernet0/0/1 為鏡像接口,GigabitEthernet0/0/2 為觀察接口,觀察接口索引號為 1。 鏡像 GigabitEthernet0/0/1 上的雙向業務流量到 GigabitEthernet0/0/2 上。

    system-view

    [Quidway] observe-port 1 interface gigabitethernet 0/0/2

    [Quidway] interface gigabitethernet 0/0/1

    [Quidway-GigabitEthernet0/0/1] port-mirroring to observe-port 1 both

    步驟 1 執行指令 system-view,進入系統視圖

    步驟 2 執行指令 observe-port index interface interface-type interface-number ,設定觀察接口

    步驟 3 執行指令 interface interface-type interface-number,進入鏡像介面的介面視圖

    步驟 4 執行指令 port-mirroring to observe-port index { both | inbound | outbound } ,設定介面鏡像

    華三

    配置 GigabitEthernet0/0/1 為鏡像接口,GigabitEthernet0/0/2 為觀察接口,觀察接口索引號為 1。

    鏡像 GigabitEthernet0/0/1 上的雙向業務流量到 GigabitEthernet0/0/2 上。
    system-view

    [sysname] mirroring-group 1 local

    [sysname] mirroring-group 1 mirroring-port G0/0/1 both

    [sysname] mirroring-group 1 monitor-port G0/0/2

    步驟 1 執行指令 system-view,進入系統視圖
    步驟 2 執行指令 mirroring-group number local ,建立一個鏡像群組

    步驟3 執行指令mirroring-group 1 mirroring-port G0/0/1 { both | inbound | outbound },將連接埠加入到鏡像群組中,鏡像可以根據實際情況靈活選擇入方向、出方向及全部流量;both, 全部流量;inbound,入方向流量;outbound,出方向流量

    步驟 4 執行指令 mirroring-group 1 monitor-port G0/0/2 ,設定鏡像的目的連接埠。

    銳捷

    配置 fa0/1 為鏡像接口,fa0/2 為觀察接口,觀察接口索引號為 1。 鏡像 fa0/1 上的雙向業務流量到 fa0/2 上。

    Switch# configure terminal

    Switch(config)#monitor session 1 source interface fa0/1 both

    Switch(config)#monitor session 1 destination interface fa 0/2

    步驟 1 執行指令 configure terminal,進入全域設定模式

    步驟2 執行指令monitor session 1 source interface fa0/1 { both | inbound | outbound } ,建立觀察介面索引號為1,並將fa0/1 加入此索引,鏡像可依實際情況靈活選擇入方向、出方向及 全部流量;both,全部流量;inbound,入方向流量;outbound,出方向流量

    步驟 3 執行指令 monitor session 1 destination interface fa 0/2 設定 fa0/2 為監控口。
    思科
    配置 fa0/1 為鏡像接口,fa0/2 為觀察接口,觀察接口索引號為 1。 鏡像 fa0/1 上的雙向業務流量到 fa0/2 上。

    Switch# configure terminal

    Switch(config)# monitor session 1 source interface fastethernet 0/1 both

    Switch(config)# monitor session 1 destination interface fastethernet 0/2

    步驟 1 執行指令 configure terminal,進入全域設定模式

    步驟2 執行指令monitor session 1 source interface fa0/1 { both | inbound | outbound } ,建立觀察介面索引號為1,並將fa0/1 加入此索引,鏡像可依實際情況靈活選擇入方向、出方向及 全部流量;both,全部流量;inbound,入方向流量;outbound,出方向流量

    步驟 3 執行指令 monitor session 1 destination interface fa 0/2 設定 fa0/2 為監控口

  • Microsoft:我們不會為了 Rust 而「放棄」C#

     21CTO

    儘管最近有關於微軟減少其自家C#語言的使用,以支持Rust語言的消息不斷傳出,但這家公司表示它仍然致力於支持C#。

    這項消息來自MSPoweruser的Rafly Gilang看到微軟的招募訊息,它在尋找熟悉Rust的架構師幫助在Rust中重寫使用C#(.net序列中的程式語言)建構的核心元件。

     

     

     

     

     

     

     

     

    網址:https://jobs.careers.microsoft.com/global/en/job/1633482/Principal-Software-Architect

    其職位描述是指導現有大規模 C# 雲端服務向 Rust 程式碼的技術過渡。 此舉被視為是Microsoft採用Rust實現全球平台服務現代化和優化的更廣泛努力的一部分。 Rust 語言提供記憶體安全性和效能。

    C# 不會無處可去

    Microsoft承認它對 Rust 的各種用例感興趣,但 C# 不會被取代。 相反,Rust 只是該公司武器庫中的語言。

    微軟的發言人這樣說:

    「在 Microsoft,我們使用各種程式語言來開發並向客戶交付產品和服務。C#仍然是Microsoft高度重視的語言,我們致力於其持續成長和發展」。

    C#是一種通用的高階程式語言,由Anders Hejlsberg設計。 Anders Hejlsberg是Microsoft「自吹自擂「的技術研究員、軟體工具製造者和程式語言創作者。 Microsoft 於 2000 年發布了 C#。

    而 Rust 是一種多範式、通用的程式語言,強調效能、類型安全性和並發性。 Rust 於 2015 年問世,被視為一種更現代的程式語言。 Rust 基金會是此程式語言的管理者。

    Rust基金會的一位代表說:

    「因為Microsoft是Rust基金會白金會員的創始成員,我們的團隊自成立以來一直致力於Rust程式語言的發展和未來的成功。儘管如此,我們並不認為Microsoft對Rust 的承諾表明C# 被’放棄’ ,正如最近的報導和評論所暗示的那樣。

    Microsoft尋求填補的職位角色是該公司的Substrate App Platform小組,該開發小組是Microsoft 365核心平台開發團隊的一部分。

    」生鏽的愛「

    如今,Rust 程式設計師的需求開始變得很大,因為越來越多的組織因其安全性和效能而轉向該語言。

    Omdia分析師Brad Shimmin說:

    「這就像人們在說『嘿,我們為什麼要用Rust 重寫Linux 核心的一部分?』這些都是挺大的問題,因為與Python之類的東西相比,Rust對開發者並不友好,但 作為一種通用語言,與C語言相比,它有一些重要的優勢。

    Rust 在最新的流行程式語言 TIOBE 排行榜中排名第 18位,而 C# 排名第5。

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

    同時,2023 年 Stack Overflow 調查將 Rust 列為最受推崇的語言,因為去年使用它的開發人員中有超過 80% 希望今年再次使用它。 2022 年 Stack Overflow 調查報告顯示了 Rust 的類似結果。

    Brad Shimmin也說:

    「你可以編寫與C# 一樣快的裸機程式碼,而不必擔心伴隨該語言的記憶體’陷阱’,我認為對於更廣泛的應用程式中的特定項目和模組,Rust 絕對是一個不錯的選擇,尤其是在 效能和健壯性被提上日程的情況下。 發行版一樣。

    事實上,就性能和健壯性而言,Rust 是一個不錯的選擇。

    「我想這是一種更好、更有效的編碼和管理資源的方式——Rust 的價值在於它是被編譯的,它管理內存,而不是C++,你管理內存(安全問題),但它很 快,C# 管理記憶體(垃圾收集器),但它是字節碼動態編譯,沒有那麼快或節省空間,“

    Rust 管理記憶體(新格式,而不是垃圾回收器),並且對其進行編譯,使其更快、更有效率。 這主要對在 Office 365 等雲端平台上運行的東西有價值。

    關於預算

    針對Microsoft 經常修改Azure中執行的服務代碼。 微軟MVP和區域總監,Campbell&Associates的創辦人Richard Campbell這樣表示:

    「我懷疑他們熱衷於優化該程式碼,因為這會花掉他們部門的預算」。

    Campbell 指出,這些程式碼最初是用 C# 編寫的,因為可以快速開發並進入市場——只有當它變得熱門時,才會考慮 Rust 可以帶來的那種極端的效能最佳化。 只有當服務需求量很大時,微軟才會考慮這種優化——如果很少人使用它,那就不值得了。

    「當你追求峰值最佳化時,你會傾向於使用低階語言——那種『接近金屬』的語言,這樣你就可以盡可能地節省每一個處理週期。C# 是一種很棒的語言,但它 存在於託管運行時中,該運行時針對可靠性和易用性進行了優化。 – 通常是C++。

    而相關的權衡是,C++程式碼更難編寫和調試,並且需要非常熟練的人來編寫高度優化的程式碼。

    Campbell 說:「Rust 代表了新一代的低階程式語言,它使得在該層級創建高品質的程式碼變得更加容易。

    一個錯誤?

    然而,對於一家軟體公司來說,僅僅用 Rust 重寫其程式碼庫可能是一個錯誤。

    Brad Shimmin這樣說:

    「首先,有能力的 Rust 開發人員比那些精通 C#、React 等工程師更難找到,其次,如果出現大規模的變化,Rust 中的一些記憶體安全限制可能會隨著時間推移而變得難以維護。

    但是,他說可以很容易想像Microsoft為什麼要這樣做。

    「這與 Linus Torvalds 允許 Rust 進入 Linux 核心的理由相同:效能和穩定性,」這就是 Linus 從驅動程式開始的原因。 它們就在祼機金屬上工作,而且是高度模組化的。 用Rust很合適。 就像用 Python 編寫Web應用程式一樣,它也非常適合資料科學專案。

    Google 也提高了 Rust 賭注

    同時,Microsoft並不是唯一一家密切關注 Rust 的大公司。 如果你關注21CTO,本月早些時候,Google承諾向Rust基金會提供100萬美元,以提高C++和Rust程式語言之間的互通性。 (相關連結:Google向 Rust 基金會捐贈 100 萬美元,改善 Rust 與 C++ 的互通性)

    雖然這個專案被稱為“Interop Initiative”,但其目標本質上更加聚焦,讓“組織慢慢地將當前的C++遷移到Rust”。

    同樣的情況,關注記憶體安全是一個核心問題。

    Lars Bergstrom 在Ggoogle 是 Android 平台工具和函式庫的總監,也是 Rust 基金會董事會主席。 他在一篇部落格文章中這樣寫道:

    “雖然 Rust 可能不適合所有產品應用程序,但優先考慮與 C++ 的無縫互通性將加速更廣泛的開發者社區採用,從而與提高內存安全性的行業目標保持一致,”

    作為具有網路安全背景和基礎設施安全局 (CISA)的 局長 Jen Easterly 最近倡導在 Android 中使用 Rust 和 Google 核心的實現,作為組織和平台緩解記憶體安全漏洞的關鍵方式。 據CISA稱,大約三分之二的已知軟體漏洞是一類被稱為「記憶體安全」漏洞的弱點,這些漏洞是引入了與電腦記憶體存取方式相關某種類型的漏洞。

    此外,Google一直是 Rust 實施的先驅。 谷歌表示,迄今為止,在 Android 的 Rust 程式碼中發現的記憶體安全漏洞為零。 雖然Google在Android中使用Rust的成長最為明顯,但該公司仍在繼續擴大其在更多應用程式中的使用,包括客戶端和伺服器硬體。

    Microsoft 的「生鏽」歷史

    事實上,Microsoft對 Rust 的興趣已經不是一兩天了。

    早在 2020 年,微軟就表示逐步轉向 Rust 來建立其基礎設施軟體,遠離 C/C++。

    2022 年,Azure 技術長Mark Russinovich 就在Twitter(現在稱為X)上發文說:「說到語言,是時候停止在C/C++ 中啟動任何新專案了,並將Rust 用於需要非GC 語言 的場景。

    雖然然 Rust 的學習曲線很陡峭,Azure團隊更喜歡 Rust 而不是 Go,因為 Rust 能夠發現 Go 無法發現的錯誤。

    去年,Russinovich 在平台上發文說:“如果你在 Windowns 11 Insider 體驗頻道上,你就會在 Windows 核心中第一次嚐到 Rust 的滋味!”

     

  • 平台工程如何應對DevOps挑戰

    岱军 云云众生s

    一覽 DevOps 的核心挑戰,以及平台工程是否可能取而代之。

    譯自How Platform Engineering Takes on DevOps Challenges,作者 Kenn Hussey。

    隨著公司持續以前所未有的速度擴展,DevOps 的角色正在經歷重大轉型。 雖然 DevOps 一直是彌合開發和維運之間差距的重要工具,但其局限性和低效率也變得越來越明顯。

    許多人認為平台工程是 DevOps 的自然演進,它解決了 DevOps 的核心挑戰,並使組織更有效地擴展。 隨著重點轉向創建自助服務平台和賦能開發人員,DevOps 的傳統角色正在被重新定義。

    讓我們回顧一下 DevOps 的核心挑戰以及平台工程如何取代它。

    雖然 DevOps 徹底改變了軟體開發和部署,但現代雲端原生技術的日益複雜性給團隊帶來了前所未有的壓力。 隨著組織的擴展,目前 DevOps 方法的限制和低效率變得更加明顯。

    一個主要挑戰是需要在端到端 DevOps 流程中實現更多自動化。 Dynatrace 最近關於 DevOps 自動化的研究顯示,只有 56% 的這些流程是自動化的,導致交付時間更長,效率降低。 在典型的開發人員管道中平均有九項手動幹預,包括審批和安全檢查,這進一步加劇了這種情況。 這些導致了解決時間延長,並可能嚴重影響組織的利潤和客戶滿意度。

    造成這種情況有兩個核心原因。 第一個是工具鏈的複雜性。 DevOps 生態系統中豐富的工具和技術可能導致難以管理的碎片化環境。 這種複雜性為團隊整合和維護一個有凝聚力的 DevOps 工作流程帶來了挑戰,導致效率低下和生產力下降。

    第二個是孤島團隊。 孤島會阻礙協作和溝通,而協作和溝通對於成功採用 DevOps 至關重要。 孤島團隊通常缺乏對彼此流程的可見性,導致錯位、重複工作和問題解決時間更長。

    即使沒有這些問題,團隊也缺乏推動自主營運的關鍵技能,這使得有效實施和維護 DevOps 實踐變得具有挑戰性。 所需的技能,包括編碼、基礎設施管理和自動化,在單一團隊中可能很難找到和培養。

    隨著目前 DevOps 方法的限制變得越來越明顯,組織正在尋求克服這些挑戰並改善其軟體交付流程的方法。 DevOps 團隊必須縮短開發週期以實現業務服務等級目標 (SLO),提高軟體品質並更快地創新。 平台工程應運而生。

    什麼是平台工程?
    平台工程是 DevOps 的一種現代方法,更確切地說,是 DevOps 的一個邏輯擴展,旨在與現有的 DevOps 原則一起工作,同時減輕相關的認知負擔。 平台工程師透過建立內部開發人員平台(IDP)來簡化標準 DevOps 活動,該平台提供單一的應用程式開發和部署工具包。

    作為 DevOps 的策略擴展,平台工程解決了傳統手動方法的缺點、不足和限制。 它自動化了開發和部署管道,簡化了它們以提高效率和有效性,超越了傳統限制。 採用平台工程文化使企業能夠在數位轉型時代脫穎而出,讓他們能夠在當今瞬息萬變的技術環境中蓬勃發展。

    平台團隊可以簡化和提高先前由 DevOps 團隊處理的任務的效率。 你的平台團隊必須有明確定義的產品目標、已建立的 DevOps 程式和正確的思維方式才能發揮其潛力。

    在新科技時代,平台工程師的角色並沒有取代 DevOps,而是擴展了使其成功應對新挑戰和機會的原則。 平台工程將在軟體開發和交付中發揮重要作用。

    平台使 DevOps 能夠大規模擴展
    隨著 DevOps 的興起極大地改變了軟體開發,使其變得更加敏捷和協作,但組織通常需要幫助才能獨立處理複雜性。 平台工程源於為開發人員提供簡單、可擴展且用戶友好的自助服務流程以更快地建立軟體的需求。

    組織可以利用平台工程來:

    簡化流程:透過提供標準化、簡化的軟體開發和部署方法來簡化複雜流程。

    自動化基礎設施和部署:自動化是平台工程的核心,使團隊能夠在最少的手動幹預下配置基礎設施和部署應用程式。

    提供自助服務平台以提高開發人員效率:自助服務平台使開發人員能夠快速輕鬆地存取他們需要的工具和資源,而無需依賴其他團隊或等待批准。

    縮短上市時間:透過簡化流程和自動化任務,平台工程幫助組織更快、更頻繁地交付軟體。

    提高可擴展性和彈性:平台工程使組織能夠建立可擴展且有彈性的系統,這些系統可以處理增加的需求並從故障中快速恢復。

    促進協作:平台工程透過提供一個共享平台和一套通用的工具和實踐來促進協作,使團隊能夠更有效地協同工作。

    平台工程可以幫助團隊快速擴展他們目前的 DevOps 流程來滿足需求,而無需引入不必要的開銷。 平台工程不是依賴單獨的工具,而是建構了一個支援端到端交付的緊密基礎。

    任何平台工程團隊的主要目標是促進工具和配置重用。 重複使用程式碼可以使應用程式交付過程更有效率,需要的工具更少,並且可以改善程式碼一致性。 開發人員可以專注於創新,而不是編寫重複的程式碼。

    平台工程如何優化 DevOps 效率
    軟體開發團隊的需求通常不同。 如果每個開發團隊都建立自己的 DevOps 實踐,您將遇到複雜性、瓶頸和安全漏洞。 平台工程團隊可能會承擔部分 DevOps 職責,例如以下職責:

    自動化 Git 工作流程:平台團隊可以自動化 git 儲存庫的建立、配置和管理,確保整個組織的一致且安全的版本控制實務。

    配置測試環境:透過自動化測試環境的配置,平台團隊可以減少設定和維護測試基礎架構所需的時間和精力。

    為 CI/CD 管道建立配置模板:平台團隊可以為 CI/CD 管道建立可重複使用的模板,使開發團隊能夠快速採用最佳實踐並在專案中保持一致性。

    配置用於秘密管理和使用者身份驗證的中央儲存庫:集中這些功能有助於維護安全性並符合要求,同時簡化開發團隊的存取控制。

    配置用於應用程式效能監控的儲存庫:平台團隊可以設定和維護一個用於應用程式效能監控的集中儲存庫,該儲存庫可為開發人員提供對其應用程式行為和效能的見解。

    以下是您的平台團隊如何優化 DevOps 效率的方法:

    為內部開發人員建立一個工作平台:透過創建一個標準化的自助服務平台,平台團隊可以簡化開發流程並減輕各個團隊的負擔。

    建立鋪設好的道路以減少認知負荷:鋪設好的道路為常見的開發任務提供了預先定義的、經過充分測試的路徑,從而減少了開發人員的認知負荷並最大程度地降低了錯誤風險。

    簡化流程、標準化流程並擴展流程:平台團隊可以識別並簡化複雜流程,制定標準並確保隨著組織的發展,這些流程可以有效地擴展。

    監控關鍵績效指標 (KPI) 和指標:透過此監控,平台團隊可以識別需要改進的領域,並做出數據驅動的決策以優化 DevOps 效率。

    提升團隊績效,為客戶提供更大價值:平台團隊可以持續評估並提升開發團隊的績效,最終為客戶提供更好的價值。

    以下是貴組織吸引合適的工程師加入平台團隊的關鍵策略。

    明確目標並定義現實的時間表:明確傳達平台團隊的目標和期望,並設定可實現的時間表,有助於吸引與組織願景一致的工程師。

    擁抱多元化,促進更好的溝通與協作:培養一個多元化和包容性的團隊環境,可以促進平台工程師之間的創造力、創新和實際合作。

    為平台團隊提供合適的工具和技術:為平台團隊配備必要的工具和技術,使他們能夠有效率且有效地工作,吸引重視良好支援工作環境的熟練工程師。

    DevOps 的未來在於採用平台工程,而不是傳統的孤島式實踐。 為了在當今瞬息萬變的環境中保持競爭力,組織必須將平台工程作為 DevOps 之旅的下一步。 它將塑造團隊協作、整合和簡化未來軟體交付的方式。

    隨著 DevOps 的發展,平台工程將促進無縫的跨團隊溝通並優化工作流程。 透過自助功能和自動化管道,軟體更新將更快完成,從而取代手動任務。

    從 DevOps 過渡到平台工程可能是快速變化的 IT 產業中的下一個規範。 一個引人注目的可能性是,新的平台有一天可能會結合併協調當代數位環境的所有複雜性。 在當今快速發展的數位世界中,能夠隨時代變化而改變的人才能保持領先地位。