博客

  • 從GPU虛擬化到池化

    【摘要】隨著大模型的興起,GPU算力的需求越來越多,而當前現實狀況使企業往往受限於有限的GPU卡資源,即便進行了虛擬化,往往也難以充分使用GPU卡資源或持續使用資源。為解決GPU算力資源不均衡等問題,同時支援GPU算力的國產化替代,提升GPU資源的使用率,GPU算力池化需求迫在眉睫。
    本文分享了GPU設備虛擬化的幾種路線、GPU虛擬化與共享方案以及GPU算力池化雲端原生實作。
    【作者】汪照輝,中國銀河證券架構師,專注於容器雲、微服務、DevOps、資料治理、數位轉型等領域,對相關技術有獨特的理解與見解。擅長於軟體規劃和設計,提出的「平台融合」的觀點越來越被認同和事實證明。發表了許多技術文章探討容器平台建置、微服務技術、DevOps、數位轉型、資料治理、中台建置等內容,受到了廣泛關注與肯定。

    智慧化應用如人臉辨識、語音辨識、文字辨識、智慧推薦、智慧客服、智慧風控等已廣泛應用於各行各業,這些應用被稱為判定式AI的範疇,通常和特定的業務場景相綁定,因此在使用GPU(Graphics Processing Unit)卡的時候也通常各自獨立,未考慮業務間GPU共享能力,至多實現vGPU虛擬化切分,從而一張實體GPU卡虛擬出多張vGPU,可以運行多個判定式AI 應用。隨著大模型的興起,對GPU算力的需求越來越多,而當前現實情況使企業往往受限於有限的GPU卡資源,難以支撐眾多的業務需求,同時由於業務特性等,即便進行了虛擬化,往往難以充分使用GPU卡資源或持續使用資源,因此也造成有限的卡片資源也無法有效利用。
    從GPU虛擬化需求到池化需求智慧化應用數量的成長對GPU算力資源的需求越來越多。 NVIDIA雖然提供了GPU虛擬化和多GPU執行個體切分方案等,但仍無法滿足自由定義虛擬GPU和整個企業GPU資源的共享重複使用需求。 TensorFlow、Pytorch等智慧化應用框架開發的應用往往獨佔一張GPU整卡(AntMan框架是為共享的形式設計的),從而使GPU卡短缺,另一方面,大部分應用卻只使用卡的一小部分資源,例如身分證辨識、票據辨識、語音辨識、投研分析等推理場景,這些場景GPU卡的使用率都比較低,沒有業務請求時利用率甚至是0%,有算力卻受限於卡的有限數量。

    單一推理場景佔用一張卡片造成很大浪費,和卡片數量不足形成矛盾,因此,算力切分是目前許多場景的基本需求。再者,往往受限於組織架構等因素,GPU由各團隊自行採購使用,算力資源形成孤島,分佈不均衡,有的團隊GPU資源空閒,有團隊無卡可用。為解決GPU算力資源不均衡等問題,同時支援GPU算力的國產化替代,協調線上和離線資源需求、業務高峰和低峰值資源需求、訓練和推理、以及開發、測試、生產環境對資源需求不同,實現算力的統一管理與調度重複使用,實現GPU資源的切分、聚合、超分、遠端呼叫、應用熱遷移等能力,提升GPU資源的利用率,GPU算力池化需求迫在眉睫。
    GPU設備虛擬化路線GPU設備虛擬化有幾個可行方案。

    首先是PCIe直通模式(PCIe Pass-through技術,pGPU),也就是將實體主機上的整塊GPU卡直通掛載到虛擬機器上使用。但這種方式是獨佔模式,GPU卡沒有虛擬化切分,並不能解決多個應用運行在一張卡上的問題,因此意義不是很大。

    第二是採用SR-IOV技術,讓一個PCIe設備在多個虛擬機器之間共享,同時保持較高效能。透過SR-IOV在實體GPU設備上創建多個虛擬vGPU來實現的,每個虛擬vGPU可以被分配到一個虛擬機,讓虛擬機直接存取和控制這些虛擬功能,從而實現高效的I/O虛擬化。 NVIDIA早期的vGPU就是這樣的實現,不過NVIDIA vGPU需要額外的license,額外增加了成本。SR-IOV雖然實現了1:N的能力,但其彈性比較差,難以更細粒度的分割和調度。

    第三是MPT(Mediated Pass-Through,受控制的直通)模式。 MPT本質上是一種通用的PCIe設備虛擬化方案。兼顧了1:N靈活性、高性能、功能完整性,但邏輯上相當於實現在內核態的device-model,廠商通常不會公開硬體編程接口,因此採用MPT可能會形成廠商依賴。用的最多的模式是API轉送模式。根據AI應用的呼叫層次(如下圖),API轉送有多個層次,包含CUDA API轉送(圖中①)、GPU Driver API轉送(圖中②)和裝置硬體層API轉送(圖③)。設備硬體層API通常是難以取得的,因此目前市面上通常採用CUDA API轉送模式(截獲CUDA請求轉發,也稱為用戶態)和GPU卡驅動Driver API轉送模式(截取驅動層請求轉發,也被稱為內核態).另外AI開發框架往往和GPU卡綁定(例如華為支持CANN框架,海光支持DTK框架,英偉達則支持TensorFlow、Pytorch等框架),AI應用在使用AI框架時,也可以在AI框架層進行轉發,在AI應用程式遷移時比較有用。

    AI應用呼叫層次
    GPU虛擬化與共享方案了解了GPU設備虛擬化的方式,基於裝置虛擬化技術,看下GPU虛擬化與共享的實作方式。 GPU虛擬化和共享有多種方案,英偉達從官方也提供了vGPU、MIG、MPS等方案,以及非官方的vCUDA、rCUDA、核心劫持等多種方案。

    NVIDIA VGPU方案NVIDIA vGPU是NVIDIA提供的虛擬化方案,可靠性和安全性高,但不支援容器,只能虛擬化若干個vGPU ,使用不靈活;無法動態調整資源比例;有一定的共享損耗;不支援客製化開發,需支付額外license費用。 MIG方案MIG是多實例GPU方案。只支援Linux作業系統,需要CUDA11/R450或更高版本;支援MIG的卡有A100, H100 等比較高階的卡;支援裸機和容器,支援vGPU模式,一旦GPU卡設定了MIG後,就可以動態管理instance了,MIG設定時persistent 的,即使是reboot也不會受影響,直到使用者明確地切換。

    借助MIG,用戶可以在單一GPU卡上獲得最多7倍的GPU資源,為研發人員提供了更多的資源和更高的靈活性。優化了GPU的利用率,並支援在單一GPU上同時執行推理、訓練和高效能運算(HPC)任務。每個MIG實例對於應用程式都像獨立GPU一樣運行,使其程式設計模型沒有變化,對開發者友好。

    MPS(Multi-Process Scheduling)MPS多進程調度是CUDA應用程式介面的替代二進位相容實作。從Kepler的GP10 架構開始,NVIDIA 引入了MPS ,允許多個流(Stream)或CPU 的進程同時向GPU 發射K ernel 函數,結合為單一應用程式的上下文在GPU上運行,從而實現更好的GPU利用率。當使用MPS時,MPS Server會透過一個CUDA Context 管理GPU硬體資源,多個MPS Clients會將他們的任務透過MPS Server 傳入GPU ,從而越過了硬體時間分片調度的限制,使得他們的CUDA Kernels 實現真正意義上的並行。但MPS由於共享CUDA Context也帶來一個致命缺陷,其故障隔離差,如果一個在執行kernel的任務退出,和該任務共享share IPC和UVM的任務一會一同出錯退出。 rCUDArCUDA指remote CUDA,是遠端GPU呼叫方案,支援以透明的方式並發遠端使用CUDA 設備。 rCUDA提供了非GPU節點存取使用GPU 的方式,因此可以在非GPU 節點運行AI應用程式。 rCUDA是一種C/S架構,Client使用CUDA運行庫遠端呼叫Server上的GPU接口,Server監控請求並使用GPU執行請求,返回執行結果。

    在實際場景中,無需為本地節點配置GPU資源,可以透過遠端呼叫GPU資源而無需關注GPU所在位置,是非常重要的能力,隔離了應用程式和GPU資源層。 vCUDAvCUDA採用在用戶層攔截和重定向CUDA API的方式,在VM中建立pGPU的邏輯映像,即vGPU,來實現GPU資源的細粒度劃分、重組和再利用,支援多機並發、掛起恢復等VM的高級特性。 vCUDA函式庫是nvidia-ml和libcuda函式庫的封裝函式庫,透過劫持容器內使用者程式的CUDA呼叫來限制目前容器內程序對GPU 算力和顯存的使用。 vCUDA優點是API開源,容易實現;缺點是CUDA庫升級快,CUDA 庫升級則需要不斷適配,成本高;另外隔離不準確無法提供算力精準限制的能力、安全性低用戶可以繞過限制等。目前市面上廠商基本上都是採用vCUDA API轉送的方式來實現GPU算力池化。

    GPU算力池化雲端原生實現GPU池化(GPU-Pooling)是透過對實體GPU進行軟體定義,融合了GPU虛擬化、多卡聚合、遠端呼叫、動態釋放等多種能力,解決GPU使用效率低和彈性擴展差的問題。 GPU資源池化最理想的方案是屏蔽底層GPU異質資源細部(支援英偉達和國產各廠商GPU) ,分離上層AI 架構應用與底層GPU類型的耦合性。不過目前AI框架和GPU類型是緊密耦合的,尚沒有實現的方案抽像出一層能屏蔽異構GPU。

    基於不同框架開發的應用程式在遷移到其他類型GPU時,必須重新建構應用,至少要遷移應用到另外的GPU,往往需要重新的適配與調試。算力隔離、故障隔離是GPU虛擬化與池化的關鍵。算力隔離有硬體隔離也就是空分的方式,MPS共享CUDA Context方式和Time Sharing時分的方式。越靠底層,隔離效果越好,如MIG硬體算力隔離方案,是一種硬體資源隔離、故障隔離方式,效果最好。但硬體設備程式介面和驅動介面往往是不公開的,所以對廠商依賴大,實施的難度非常大,靈活性差,如支援Ampere架構的A100等,最多只能切分為7個MIG實例等。 NVIDIA MPS是除MIG外,算力隔離最好的。

    它將多個CUDA Context合併到一個CUDA Context中,省去Context Switch的開銷並在Context內部實現了算力隔離,但也致額外的故障傳播。 MIG和MPS優缺點都非常明顯,實際工程中使用的並不普遍。採用API轉送的多工GPU時間分片的實作模式相對容易實現且應用最廣。根據AI應用使用GPU的呼叫層次,可以實現不同層次的資源池化能力。例如CUDA層、Diver層、硬體設備層等。在不同的抽象層次,將需要加速的應用轉送(Forwarding)到GPU資源池。總的來說,越靠底層的轉發效能損失越小,可操作的範圍越大;但同時,程式設計量也越大,也越難。


    由於雲端原生應用程式的大量部署,GPU算力資源池化需要支援雲端原生部署能力,比如說支援Kubernetes、Docker服務,透過K8s Pod綁定由GPU資源池按需虛擬出來的vGPU,執行Pod中的應用。不管是英偉達的GPU卡或是國產GPU,所有的卡片都在算力資源池中,目前可以將不同的卡片分類,不同框架的應用按需調度到適當的分類GPU算力池上。從而提升資源管理效率。算力資源池同樣需要實現對應的資源、資產管理和運作監控和可觀測性,優化調度能力,減少GPU資源片段。隨著AI應用需求的快速成長,算力資源池化在未來一段時間內將是企業關注的重要的一個面向。

  • JUNIPER安全專家 (JNCIS-SEC)考試詳情

    JUNIPER安全專家 (JNCIS-SEC)考試詳情
    考試代碼:JN0-335
    先決條件認證:JNCIA-SEC(JN0-231)
    考試時長:90分鐘
    考試類型:65 道多項選擇題
    軟件版本:Junos OS 22.3
    認證有效期:三年
    以下是成功完成 JNCIS-SEC 認證考試所需技能:
    一.應用程式安全
    二.安全策略(進階)
    三.進階威脅防禦 (ATP)
    四.高可用性 (HA) 集群
    五.Juniper Networks vSRX 虛擬防火牆或 cSRX 容器防火牆
    六.瞻博網路身分管理服務 (JIMS)
    七.SSL 代理
    八.瞻博網路 JSA 系列安全分析產品組合
    安全軌道使您能夠展示對 SRX 系列設備的一般安全技術和 Junos OS 軟體的透徹理解。
    JNCIS-SEC 是該領域的專家級認證,專為具有適用於 SRX 系列設備的瞻博網路 Junos OS 中級知識的網路專業人士而設計。
    筆試驗證您對安全技術以及相關平台配置和故障排除技能的理解。

  • FCP – FortiAnalyzer 7.4 管理員認證考試:FCP_FAZ_AD-7.4

    FCP – FortiAnalyzer 7.4 Administrator:FCP_FAZ_AD-7.4 Exam,FCP – FortiAnalyzer 7.4 管理員認證考試
    考試詳情
    考試名稱 FCP – FortiAnalyzer 7.4 管理員
    考試系列 FCP_FAZ_AD-7.4
    允許時間 65 分鐘
    考試題 35 題選擇題
    得分通過或失敗。您可以從您的 Pearson VUE 帳戶取得成績報告。
    語言 英語、日語和法語
    產品版本 FortiAnalyzer 7.4.1、FortiOS 7.4.1
    考試所涉及知識重點:
    1.系統配置
    2.執行初始配置
    3.管理高可用性
    4.管理RAID
    5.描述FortiAnalyzer概念
    6.設備管理
    7.管理設備
    8.解決設備通訊問題
    9.日誌和報告管理
    10.管理日誌數據
    11.管理報告
    12.行政
    13.配置管理存取權限
    14.管理管理域(ADOM)
    15.管理磁碟配額和備份

  • IBM 認證開發人員 – App Connect Enterprise v12.0:C1000-171

    認證概覽

    此中級認證是針對具有使用 IBM App Connect Enterprise v12.0 開發、測試、部署、故障排除和支援獨​​立於平台的整合應用程式的知識和經驗的開發人員。開發人員應具備雲端應用程式和工具的經驗,以開發和部署基於容器的解決方案。除了開發之外,他們還需要根據模式產生 IBM App Connect Enterprise 工件,並使用故障排除和監控工具。 

     

    這些開發人員通常是自給自足的,可以在同事有限的幫助下執行角色所涉及的任務。

    要求
    考試 C1000-171:IBM App Connect Enterprise V12.0 開發人員
    考試目標

    在考試開發過程中,主題專家 (SME) 定義個人成功履行產品或解決方案角色所需的所有任務、知識和經驗。這些由以下目標代表,考試中的問題是基於這些目標。

    問題數: 60
    待通過的問題數: 39
    允許時間: 90分鐘
    狀態: 即時
    • 第 1 部分:開發 IBM App Connect Enterprise Toolkit 解決方案

      32%
    • 第 2 部分:開發 IBM App Connect Designer 解決方案 

      12%
    • 第 3 部分:應用程式配置

      15%
    • 第 4 部分:擴充 App Connect Enterprise

      5%
    • 第 5 部分:安裝與設定

      8%
    • 第 6 節:安全

      3%
    • 第 7 節:解決方案組裝、設定與部署

      15%
    • 第 8 節:故障排除與調整

      10%
      Exam C1000-171:IBM App Connect V12.0 Developer Sample Test
      1. Which domain parser should an App Connect Enterprise developer
      use if their application data comes from C, COBOL, or consists of
      fixed-format binary data?
      A. JSON
      B. DFDL
      C. MIME
      D. DataObject
      2. What typically contains reusable helper routines and resources to aid
      the management and reuse of such resources in App Connect
      Enterprise?
      A. Library
      B. Project
      C. Repository
      D. Application
      3. Where are connectors created and published?
      A. Toolkit
      B. Designer
      C. Dashboard
      D. Automation Explorer
      4. Which ESQL datatype holds a tree structure?
      A. ROW
      B. LIST
      C. BLOB
      D. REFERENCE
      5. When would a static library be used instead of a shared library?
      A. To group common types of resources together.
      B. To share resources across multiple applications.
      C. To deploy and manage just one copy of common resources.
      D. To use a different version of a resource for each application.

      6. When a security profile is defined, identity mapping can be performed
      at which node?
      A. MQInput
      B. Mapping
      C. MQOutput
      D. HTTPReply

      7. Which statement is true about server optimization startup time
      procedures in App Connect Enterprise?
      A. The work directory has no message flows.
      B. The content of the server’s work directory can be invalid.
      C. They can only be applied to independent integration servers.
      D. A BAR file’s server level resources are not moved into the default
      application.

      8. How can the default location of BAR files be changed in the App
      Connect Enterprise Toolkit?
      A. By modifying the BAR file extension.
      B. By generating the BAR file using custom scripts.
      C. By creating a new integration project for BAR files.
      D. By changing the preferences in the Build BAR settings.

      9. An Integration Server consumes a large amount of memory on a
      system. Which diagnostic can help determine where the memory is
      spent?
      A. Flow Statistics
      B. Activity Logging
      C. FlowThreadReporter
      D. Resource Statistics

      10. Consider a message flow that connects to a backend service
      via HTTP. The backend service has limited throughput capabilities
      and can become overwhelmed due to spikes in traffic. What can be
      done to ensure that a message flow does not flood a backend service
      with too many requests?
      A. Use a Workload management policy.
      B. Configure a Business Transaction Definition.
      C. Set the maximum request rate on the HTTPRequest node.
      D. Limit the number of additional instances on the message flow.
      ANSWER KEY BELOW…

      Answer Key
      1. B
      2. A
      3. D
      4. A
      5. D
      6. A
      7. C
      8. D
      9. D
      10. A

  • splunk使用教程

    如何使用Splunk進行資料收集、搜尋、分析和視覺化
    Splunk是一款強大的日誌分析和資料視覺化工具,廣泛應用於IT維運、安全資訊和事件管理等領域。以下是使用Splunk的基本步驟:

    1. 安裝與配置
    下載與安裝:造訪Splunk官網,下載適合您作業系統的安裝包,並依照指示完成安裝。
    初始配置:啟動Splunk後,進行基本配置,包括設定管理員密碼和管理介面。
    2. 資料導入
    資料來源新增:透過「add data」功能,可匯入本機檔案、網路資料等多種資料來源。
    資料索引:索引是Splunk處理資料的核心,合理設定索引可以提高查詢效率。
    3. 搜尋與查詢
    基本搜尋:使用Splunk搜尋欄進行關鍵字搜索,以取得相關日誌資訊。
    SPL(Splunk Processing Language):SPL是Splunk的查詢語言,支援複雜的資料處理和分析。
    4. 可視化與報表
    儀表板創建:透過「create dashboard」功能,可以建立個人化的資料展示介面。
    圖表配置:在儀表板中新增各種圖表,直觀展示資料分析結果。
    5. 進階功能
    警告設定:透過「alerts」功能,可以設定資料異常時的自動警告。
    資料模型:利用資料模型對複雜資料進行結構化處理,提升分析效率。
    6. 最佳實踐
    定期優化索引:確保查詢效能。
    合理使用SPL:簡化查詢過程。
    建立標準化的儀表板範本:提高工作效率。
    透過上述步驟,您可以快速上手並應用於實際工作中,有效利用Splunk的強大功能來管理和分析資料。

  • 到底什麼是32位元(x86)和64位元(x64)Windows系統

    來源:msf 掌中IT发烧友圈
    我們在為電腦安裝系統或軟體的時候,常常會遇到選擇64位元還是32位元的選項,那麼什麼32位元(x86)和64位元(x64)?二者有什麼異同?軟體能不能互相相容呢?如何查看自己的電腦系統和CPU是32位元(x86)和64位元(x64)?
    以下分別作以簡單說明:
    一、概念解釋首先我們遇到32位元和64位元的情況有兩種,第一是下載系統的時候會分X64和X86,第二是安裝程式的時候會提示下載64位還是32位的。
    從系統方面來說:X86是32位元版本的系統,而X64是64位元版本的系統。我們知道CPU一次處理資料的能力是32位還是64位,關係著系統需要安裝32位還是64位的系統。 32 位元和 64 位元中的“位元”,也叫字長,是 CPU 通用暫存器的資料寬度,是資料傳遞和處理的基本單位。字長是 CPU 的主要技術指標之一,指的是 CPU 一次能並行處理的二進位位數,字長總是8的整數倍。
    從安裝軟體上說:32位元與64位元程序,是指經過語言編譯後的可執行文件,例如 C 語言編寫的程式需要區分 32 位元和 64 位元。
    二、系統32位元(x86)與64位元(x64)有何不同
    (1)設計初衷不同。
    64位元作業系統的設計初衷是:滿足機械設計和分析、三維動畫、影片編輯和創作,以及科學運算和高效能運算應用程式等領域中需要大量記憶體和浮點效能的客戶需求。
    換句簡明的話說就是:它們是高科技人員使用本行業特殊軟體的運作平台。而32位元作業系統是為一般使用者設計的。
    (2)要求配置不同。 64位元作業系統只能安裝在64位元電腦上(CPU必須是64位元的)。同時需要安裝64位元常用軟體以發揮64位元(x64)的最佳效能。 32位元作業系統則可安裝在32位元(32位元CPU)或64位元(64位元CPU)電腦上。當然,32位元作業系統安裝在64位元電腦上,其硬體恰似「大馬拉小車」:64位元效能就會大打折扣。
    (3)運算速度不同。 64位CPU GPRs(General-Purpose Registers,通用暫存器)的資料寬度為64位,64位指令集可以運行64位資料指令,也就是說處理器一次可提取64位資料(只要兩個指令,一次提取8個位元組的資料),比32位元(需要四個指令,一次提取4個位元組的資料)提高了一倍,理論上效能會相應提升1倍。
    (4)尋址能力不同。 32位元系統尋址能力是4G容量,不過需要保留一些給硬體使用,因此留給用戶的可用內存一般是3.25g-3.5G容量左右,即使你插上8G內存,也無法識別那麼大容量,而64位元系統可以支援128GB大內存,甚至更大。即就是64位元處理器的優勢也反映在系統對記憶體的控制上。由於位址使用的是特殊的整數,因此一個ALU(算術邏輯運算器)和暫存器可以處理更大的整數,也就是更大的位址。例如,Windows Vista x64 Edition支援多達128 GB的記憶體和多達16 TB的虛擬記憶體。
    (5)軟體普及不同。目前,64位常用軟體比32位常用軟體,少很多的多。道理很簡單:使用64位元作業系統的使用者相對較少。因此,軟體開發商必須考慮“投入產出比”,將有限資金投入到更多使用群體的軟體之中。這也是為什麼64位元軟體價格相對昂貴的重要原因(將成本攤入較少的發售之中)。
    總之,Microsoft Windows 64位元作業系統,必須「上」靠64位主機硬體的支撐,「下」靠64位常用軟體的協助,才能將64位的優勢發揮到極致,「三位一體」缺一不可(道理很簡單:作業系統只是承上啟下的運作平台)。至於64位元電腦可以安裝32位元作業系統,64位元作業系統可以安裝32位元軟體,那是設計上的“向下相容”,不是64位元設計初衷的本來意義(如上所述)。
    方法四:用一些硬體資訊查看軟體如EVEREST Ultimate、魯大師等軟體也可以查看。下次就知道自己的電腦是64位還是32位,安裝的時候就不會選錯了。
    以上就是系統32位元和64位元的有關內容。雖然目前有64位和32位選擇,但就目前電腦配置來看,基本上已經都是支援64位的了。
    四、64位元與32位元電腦是否可以相容x86與x64作業系統
    1.64位元電腦雖然可以安裝32位元作業系統,但32位元電腦絕對不能安裝64位元作業系統。這一點至關重要務必牢記,以避免盲目下載和安裝。
    2.在64位元電腦運作的32位元作業系統上,不能採取硬碟安裝方式安裝64位元作業系統。如若安裝,首選光碟格式化安裝方式,也可採用較繁瑣的DOS安裝方式。
    3.使用虛擬機器安裝作業系統,實際上就是在目前運作的作業系統上安裝軟體。因此,在32位元作業系統上不能虛擬安裝64位元作業系統。即便採取「曲線」方式勉強安裝,其實已經脫離了底層設備的支持,是毫無疑義的。
    五、64位元與32位元電腦安裝作業系統時常遇到的問題
    1.如果想裝64位元的作業系統,是不是一定要CPU也是64位元的?
    答:當然需要cpu也是才可以。並不是一定要64對64.當然對著就最好了。因為64位元系統是對64位元CPU設計的,32位元系統是對32位元CPU設計的。但是64位元系統和32的CPU這麼搭配也能用,但是理論速度會慢。
    2.對於64位元的作業系統,目前常用的支援32位元作業系統的軟體是否可用?
    答:大多是支援的,當然也存在相容性不好的
    3.相對於32位元的作業系統和CPU,64位元的有什麼優點?
    答:64位更先進一點,理論值更快一點,其實差距不是很大。 64,32指的是cpu尋址的位數,當然尋址位數越多,處理能力就越強。所以64位元 CPU擁有更大的尋址能力,最大支援到16GB內存,而32bit只支援4G內存。 64位元CPU一次可擷取64位元數據,比32位元提高了一倍,理論上效能會提升1倍。但這是建立在64bit作業系統,64bit軟體的基礎上的。

  • 考試 MS-900 學習指南:Microsoft 365 基礎知識

    自 2024 年 4 月 15 日起測試的技能
    受眾概況
    MS-900考試面向希望證明自己具有基於雲端的解決方案基礎知識,可提高現場、遠端和混合工作人員的工作效率和協作能力的考生。 作為考生,你可能:

    了解基於雲端的解決方案。

    剛開始使用 Microsoft 365。

    可以使用此考試來準備其他 Microsoft 認證,但這不是參加相關認證的先決條件。

    身為考生,你應能推薦 Microsoft 365 解決方案,以解決常見的組織 IT 問題。 你應該了解 Microsoft 365 解決方案如何實現以下目標:

    提高工作效率

    促進協作

    優化通訊

    幫助保護數據

    標識並促進合規性

    你應該能夠推薦適用於以下領域的解決方案:

    終點和應用程式管理

    桌面虛擬化

    自動化作業系統部署

    報告和分析

    你應該熟悉 Microsoft 365 授權、部署和遷移協助,以及為希望最大程度地利用雲端投資的組織提供的支援選項。

    技能概覽
    描述雲概念 (5-10%)

    描述 Microsoft 365 應用與服務 (45-50%)

    描述 Microsoft 365 中的安全性、合規性、隱私性和信任 (25-30%)

    描述 Microsoft 365 定價、授權和支援 (10-15%)

    描述雲概念 (5-10%)
    描述不同類型的可用雲端服務
    說明 Microsoft 服務型軟體 (SaaS)、基礎架構即服務 (IaaS) 和平台即服務 (PaaS) 概念和使用案例

    描述 Office 365 和 Microsoft 365 的差異

    描述使用雲端服務、混合式服務或本地服務的好處和注意事項
    描述公有雲、私有雲和混合雲模型

    比較雲端服務、混合服務和本地服務的成本和優勢

    描述混合工作和彈性工作的概念

    描述 Microsoft 365 應用與服務 (45-50%)
    描述 Microsoft 365 的生產力解決方案
    描述 Microsoft 365 的核心生產力功能和優勢,包括 Microsoft Outlook 和 Microsoft Exchange、Microsoft 365 應用程式和 OneDrive

    描述核心 Microsoft 365 應用版,包括 Microsoft Word、Excel、PowerPoint、Outlook 和 OneNote

    描述 Microsoft 365 的工作管理功能,包括 Microsoft Project、Planner、Bookings、Forms、Lists 和 To Do

    描述 Microsoft 365 的協作解決方案
    描述 Microsoft 365 的協作優勢和功能,包括 Microsoft Exchange、Outlook、SharePoint、OneDrive 和 Stream

    描述 Microsoft Teams 和 Teams 電話的協作優勢和功能

    介紹 Microsoft Viva 應用

    描述使用協作應用程式擴充 Microsoft Teams 的方式

    描述 Microsoft 365 中的終結點現代化、管理概念和部署選項
    說明 Microsoft 365 的終端點管理功能,包括 Microsoft Intune(Configuration Manager 和共同管理、終端點分析以及 Windows Autopilot)

    比較 Windows 365 和 Azure 虛擬桌面之間的差異

    描述 Windows 即服務 (WaaS) 的部署和發布模型,包括部署環

    確定 Microsoft 365 應用版的部署和更新頻道

    描述 Microsoft 365 的分析功能
    描述 Viva Insights 的功能

    描述 Microsoft 365 管理中心和 Microsoft 365 使用者入口網站的功能

    描述 Microsoft 365 管理中心以及其他管理中心內提供的報告

    描述 Microsoft 365 中的安全性、合規性、隱私性和信任 (25-30%)
    描述 Microsoft 365 的身份和存取管理解決方案
    描述 Microsoft Entra ID 的身份驗證和存取控制管理功能

    描述雲端標識、本地標識和混合標識的概念

    描述 Microsoft 如何使用多重驗證 (MFA)、自助式密碼重設 (SSPR) 和條件存取等方法來保護識別、存取和資料安全

    描述 Microsoft 365 的威脅防護解決方案
    描述 Microsoft Defender XDR、Defender for Endpoint、Defender for Office 365、Defender for Identity、Defender for Cloud Apps 和 Microsoft Defender 門戶

    描述 Microsoft 安全功能分數的優點和功能

    描述 Microsoft 365 如何解決針對終結點、應用程式和識別的最常見威脅類型

    描述 Microsoft 365 的信任、隱私、風險和合規解決方案
    描述零信任模型

    描述 Microsoft Purview 合規性解決方案,例如內部風險、審核和電子資料展示

    描述敏感度標籤和資料遺失防護等 Microsoft Purview 資訊保護功能

    描述 Microsoft 如何支援資料駐留以確保法規遵循

    描述 Microsoft Priva 的功能與優勢

    描述 Microsoft 365 定價、授權和支援 (10-15%)
    確定 Microsoft 365 定價和計費管理選項
    描述 Microsoft 雲端服務的定價模型,包括企業協定、雲端解決方案供應商和直接計費

    描述可用的計費和帳單管理選項,包括記帳頻率和付款方式

    確定 Microsoft 365 中提供的授權選項
    描述許可證管理

    介紹基本許可和附加許可之間的差異

    確定 Microsoft 365 服務的支援選項
    描述如何為 Microsoft 365 服務建立支援請求

    描述 Microsoft 365 服務的支援選項

    描述服務等級協定 (SLA)(包括服務額度)

    使用 Microsoft 365 管理入口網站或 Microsoft Entra 管理中心確定服務運作狀況

  • 通訊原理: 什麼是相干解調?什麼是非相干解調?

     七号小英雄
    一、什麼是解調?解調是調製的逆過程,將已調訊號中的基頻調變訊號恢復出來就是解調。二、什麼是相干? “相干”源自光學。波的相干的條件是:頻率相同,相位差恆定,振動方向相同。兩列波在傳播過程中相遇,若如果這兩列波滿足一定的條件,則它們相遇後會出現如下現象:在二者疊加區域的某些位置振動始終加強,在另一些位置上振動始終減弱或完全抵消,且振動加強的區域和振動減弱的區域相互隔開,形成波的干涉現象。產生相干現象的波叫做相干波。下圖1源自維基百科。

    圖1 維基百科中的相干性解釋

    圖1 維基百科中的相干性解釋三、什麼是相干解調,什麼是非相干解調?解調時,如果接收端需要一個與發送端的載波同頻同相的載波副本來進行解調,則稱為相干解調。這樣的載波副本稱為相干載波。如果接收端只要一個與發送端載波同頻的載波副本(不需要同相)就可以進行解調,則稱為非相干解調。具體而言,相干解調是指利用乘法器,輸入一路與載頻相干(同頻同相)的參考訊號與載波相乘。舉例說明:設原始基頻訊號A與載波cos(ωt + θ) 調變後得到已調訊號Sm(t)=Acos(ωt +θ);解調時,引入相干(同頻同相)的參考訊號cos( ωt +θ),將此參考訊號與已調整訊號相乘,則得到:Sp(t)=Acos(ωt+θ)cos(ωt+θ)利用積化和差公式可以得到

    利用低通濾波器將高頻訊號cos(2ωt+2θ)濾除,得到A/2,再進行簡單操作即得原始訊號 A。

    圖2 相干解調原理
    上圖2為相干解調原理圖,圖中Sm(t)為已調訊號,c(t)為接收端的相干載波,可以看出這裡的相干載波與調變時的載波完全一樣,即同頻同相。相干解調實現關鍵:相干載波應與載波訊號嚴格同步,否則會帶來失真。相干解調適用於所有線性調變訊號的解調。而非相干解調不使用乘法器,不需要接收機和載波同步。包絡檢波是直接從已調的振幅中恢復原調變訊號,不需要相干載波,因此是非相干解調。