- Microsoft Fabric 將資料、治理、人工智慧和即時分析集中在 OneLake 上,並實現了統一的功能。
- 該平台透過 Purview、OneLake 安全性、DLP、DSPM 以及與 Azure 成本管理的集成,加強了治理、安全性和成本控制。
- 資料工廠、資料流 Gen2 和遷移工具使遷移現有工作負載和協調複雜的管道變得容易。
- Copilot、資料代理、MCP 和 Fabric IQ 和即時智慧等新工作負載推動了高階 AI 和自動化場景的發展。
如果你在微軟生態系統中處理資料已經有一段時間了,你會注意到: Microsoft Fabric 已成為現代分析的核心樞紐將先前分散在 Power BI、Azure Synapse、Data Factory 和其他服務中的所有功能整合到一個統一的平台中。在本文中,我們將全面深入探討 Fabric 的最新特性、發展路線圖以及它在分析、治理、人工智慧和即時運算方面的實際應用。
其目的是,當你讀完這本書後,你將對以下內容有一個清晰的理解: Microsoft Fabric 目前提供什麼,它的發展方向是什麼,以及它將如何影響資料架構? 您的組織:透過 Purview 實現治理能力,透過 API 和 Git 實現自動化,新增 AI 功能,即時智能,OneLake 中的安全性,遷移,效能等等。
Microsoft Fabric 與雲端採用架構:治理、成本與自動化

在雲端採用框架 (CAF) 框架內,微軟發布了一系列指南,旨在協調一致。 微軟 Fabric 設計以降落區為設計支柱本系列的最後一部分將探討三個關鍵領域:治理、容量優化和自動化/DevOps。
在治理部分, 透過 Azure 成本管理可以查看 Fabric 容量成本。這樣,您就可以將 F 容量(以及其他 SKU)使用情況資料原生整合到 Azure 成本儀表板、警報和支出分析中。這不僅關乎查看帳單:您還可以將此資訊與標籤、訂閱或資源群組進行交叉引用,從而了解誰在花費什麼以及原因。
Fabric 的技術架構和商業模式使客戶能夠 精細控制產能消耗,以優化營運成本在實踐中,這可以轉化為以下幾個方面:
- 能力擴展 F根據可預測的高峰期(例如銷售活動、會計截止日期或大量資料加載)增加或減少容量。
- 暫停和恢復功能Fabric 管理員可以在不需要時暫停 F 容量(例如,在非關鍵環境中,夜間或週末),以降低運算成本。
- 突波保護兩個容量等級的參數控制後台作業的管理方式,以防止它們使環境飽和:後台拒絕閾值和後台恢復閾值。
- 容量預訂如果對預期消耗量進行嚴格規劃,則可以預留產能一段時間以獲得折扣。
在資料治理領域,Fabric 依賴 Microsoft Purview 作為編目、譜系和分類的核心元件透過 Purview,可以套用敏感度標籤,查看來源、轉換和使用之間的血緣關係,認證資料資產或提升資料品質活動,同時整合 Fabric 的各個元素(Lakehouse、Warehouse、KQL、Power BI 等)。
「平台自動化和DevOps」部分主要圍繞著以下幾個方面展開: 與 Git、部署管道和 REST API 集成Fabric 工作區可以連結到 Git 儲存庫,以便多個開發人員可以協作處理同一個資料工程、資料科學或即時分析項目,而不會出現工作重疊。
Git 和部署管道允許 以可控的方式協調開發、測試和生產生命週期。內容推廣、變更追蹤、工件同步和版本管理。自 2025 年 3 月起,這些管道(在常規或預覽狀態下)已支援多種元素類型,例如觸發器、儀表板、資料流、資料管道、資料集市、湖倉、倉庫、KQL、筆記本、分頁報表、組織應用程式等。
與此同時,Fabric 曝光了 非常廣泛的 REST API 集 可用於自動化幾乎所有管理或部署任務:建立工作區和資料夾、大量遷移專案、管理連接和網關、提取定義、啟動管道或筆記本等等。
Microsoft Fabric 在分析、人工智慧和治理方面的主要更新

Fabric 的發展歷程以大量的預覽功能和新功能為標誌, 他們幾乎涉及了平台的所有領域。然後將它們分組,並以結構化的方式進行討論,以便了解其全部範圍。
資料倉儲和多模態功能中的人工智慧功能
在關聯式資料領域,Fabric 資料倉儲整合了 AI 功能直接在 T-SQL 中實作。 (預覽)。這允許:
- 將文本進行分類或歸類。
- 分析情緒。
- 從自由文本中提取結構化資訊。
- 在不同語言之間翻譯文本。
- 語法正確。
目標是 無需離開 SQL 上下文即可使用 AI 來豐富資料。這些功能與 Fabric AI 功能中更通用的多模態支援相結合,現在可以處理影像(JPG/JPEG、PNG、GIF、WebP)、PDF 和常見文字格式,以及檔案路徑形式的輸入。
諸如公用事業 aifunc.load 用於將資料夾匯入表 透過提示和模式選項,`aifunc.list_file_paths` 允許您遍歷檔案路徑,而 `ai.infer_schema` 可以推斷與 `ai.extract` 相容的模式。所有這些功能使您無需從頭開始建立複雜的管道即可轉換和豐富資料。
OneLake、Delta、Apache Iceberg 和多平台訪問
在儲存層,OneLake 仍然是 Fabric 所有資料所在的統一庫。其中一項主要改進是能夠… 將 Delta Lake 表格作為 Apache Iceberg 表格公開 無需移動或複製數據,以便 Iceberg 相容引擎可以直接讀取 OneLake 上的內容。
此外,OneLake 現在支援 Apache Iceberg 資料由 Snowflake 直接寫入,並透過無複製存取在 Fabric 中使用。該策略加強了互通性:Fabric 不想成為一個孤島,而想成為一個資料“樞紐”,其他引擎可以利用它而無需重複儲存。
同樣,OneLake也承認 Azure Blob 儲存體的捷徑OneDrive 和 SharePoint,並透過存取角色、資料夾、行和列層級的安全性以及第三方可以遵守的安全性模型(由於授權引擎模型的擴充)來擴展安全性。
其中一個特別相關的點是 Azure Databricks 中 OneLake 目錄的聯合,可以 從 Unity Catalog 到 OneLake 表的零拷貝訪問這樣一來,OneLake 仍然是真實資料來源,但 Databricks 可以直接查詢數據,只同步元資料。
Fabric 上的 SQL 資料庫:效能、安全性和虛擬化
Fabric 的 SQL 資料庫正在獲得其自身的功能: ALTER DATABASE SET 選項預覽中支援排序和全文索引。在級別上 資料庫效能 至於成本方面,有幾點可以改進:
- 自動索引壓縮 減少儲存、I/O 並縮短查詢時間,而無需安排維護作業。
- 最大 vCore 限制 控制運算資源(4 或 32 個虛擬核心)的使用,旨在防止工作負載消耗過多的共享容量。
- 自訂 SQL 池 這使得工作區管理員能夠按應用程式名稱對資源分配和查詢路由進行精細控制。
它也啟用 SQL資料庫中的資料虛擬化這使得使用者可以使用 T-SQL 查詢儲存在 OneLake 中的外部數據,使用連接將通用格式的檔案與本機關係表連接起來,而無需實際匯入資料。
在安全性方面,SQL資料庫支持 租戶層級的私有連結(預覽版)這樣一來,就可以更方便地以私密和可控的方式引導資料流量,並與 Fabric 的整體安全網路配置整合。
即時智慧、Eventhouse、Eventstream 和 Activator
即時智慧 (RTI) 模組已成為 Fabric 的關鍵差異化優勢之一。 Eventhouse 和 Eventstream 結合使用 攝取、處理和觸發即時事件 Activator 可以從各種來源獲取訊息,並協調在特定條件下觸發的操作。
其中最強大的新功能包括:
- 無需代碼的異常檢測 具備自動型號選擇、簡潔介面和靈活提醒功能。
- 商業活動它可以捕獲從用戶資料函數和筆記本生成的關鍵業務時刻,並允許您啟動警報、自訂邏輯、流程、AI 模型或 Spark 作業。
- 激活器-用戶資料功能集成這樣,在 Fabric 中建立的函數就可以處理來自任何來源的事件,包括來自平臺本身和 OneLake 的內部事件。
- 能夠使用 SQL 處理事件(Eventstream 中的 SQL 運算子)允許使用已知的 SQL 語法轉換即時串流。
新增了相關連接器,例如: 嬰兒床 (用於從多個來源攝取日誌和遙測資料),一個與 Solace PubSub+ 連接的連接器,以及透過 Azure 虛擬網路、VPN、ExpressRoute 或專用終端點在專用網路上進行串流傳輸的支援。
Eventstream 為資料模式和契約引入了 模式註冊表 它定義並驗證事件方案,以實現更強大的管道,並支援 Confluent Schema Registry 與 Confluent Cloud 中的 Kafka 連接,同時遵守現有契約。
平台的副駕駛和人工智慧功能
Fabric 中的 Copilot 現已在全球推出,並在以下地區有應用: Power BI、Data Factory、資料科學與資料工程以及編寫 KQL 查詢此外,也融入了以下特定功能:
- 資料流 Gen2(現代獲取資料)的 Copilot它能夠根據自然語言指令攝取和轉換資料。
- 資料倉儲副駕駛(聊天)可透過功能區上的按鈕訪問,以透過對話方塊加速倉儲任務。
- SQL 分析端點的 Copilot它可以根據業務描述產生和最佳化 SQL 查詢。
- 筆記型電腦上的副駕駛 在了解工作區上下文、Lakehouse、筆記本結構和執行環境後,能夠產生多步驟程式碼、重構、總結複雜的筆記本,並使用「使用 Copilot 修復」選項診斷錯誤。
- 內聯自動補全(內嵌程式碼補全)及 Notebook Copilot 內嵌程式碼補全(預覽)以便更快地編寫 Python 程式碼,並減少錯誤。
此外,人工智慧技術基礎正在不斷擴展。 預先建置的 Foundry Tools 集成 (Azure OpenAI、Azure Language、Azure Translator)、Eventhouse 的 OpenAI 外掛程式(ai_embed_text 和 ai_chat_completion)以及一系列代理程式和資料代理,允許其他應用程式(包括 Copilot Studio)以協調的方式處理 Fabric 資料。
Fabric 資料代理、MCP 和開發者工具
布料介紹 能夠協調對數據和工具存取的數據代理 對於 AI 代理,Fabric 提供 Python SDK 並與 Microsoft Copilot Studio 直接整合。這使得建立可在 Fabric 中處理受控企業資料的對話式助理變得輕鬆便捷。
平行地, 模型上下文協定 (MCP) 它成為人工智慧代理與 Fabric 服務整合的關鍵組成部分。 Activator 和 Eventhouse 有專用的 MCP 伺服器,還有一個開發為導向的 Fabric MCP,它:
- 它允許人工智慧助理為 Fabric 商品產生程式碼和內容。
- 它與 VS Code 和 GitHub Codespaces 等開發工具整合。
- 它提供了在 Eventhouse 中查詢和處理即時資料的工具。
對於開發人員的日常工作而言,有幾個關鍵部分需要重點關注,其中包括: 開發環境: 支援 Fabric SQL 資料庫的 VS Code MSSQL 擴展,Microsoft ADO.NET 驅動程式和用於 Fabric 資料工程的 ODBC 驅動程式(透過 Livy 連接到 Spark SQL),以及用於 SQL 資料庫的 Spark 連接器,可簡化從 Spark 到 Azure 和 Fabric 中 SQL 資料庫的驗證存取。
還出現了 Fabric CLI,作為 Azure DevOps 中的整合任務提供,無需手動安裝外部工具即可自動管理工作區、專案和部署。
Fabric 中的資料工廠、資料遷移和編排
Fabric 的資料整合層依賴 Data Factory 和 Dataflow Gen2,它們接收函數以… 編排將更加智慧、更易於自動化,遷移也將更加簡單。 來自現有平台。
資料流 Gen2:效能、公共 API 和診斷
Dataflow Gen2 中有幾個功能處於預覽階段:
- 目標查詢的高階編輯 直接從創作環境本身調整目標端的邏輯。
- 分區計算這樣一來,資料流的部分內容就可以並行運行,從而減少總的評估時間。
- 下載診斷程序 在執行層面,提供結構化的日誌包,用於效能分析和事件解決。
- 公共API 用於以程式設計方式建立、更新、刪除、調度和監控資料流。
- 支援 CI/CD 的公共參數它允許透過從管道或其他來源傳遞值來刷新資料流。
- 最新數據 以便在 Power Query 功能區和「現代獲取資料」中快速存取最近使用的項目。
這一切都與以下能力相輔相成: 以 REST 以程式設計方式評估 Power Query這為在自動化流程中運行 M 腳本、將其與 Spark、管道或外部工具整合、利用 Power Query 連接器打開了大門。
資料工廠:自適應效能、連線性和 dbt
在更「經典」的整合部分,Fabric 中的資料工廠引入了:
- 自適應效能調優 對於複製活動,它會根據配置和執行上下文智慧地調整效能參數。
- 複製作業中的變更資料擷取 (CDC) 支持僅持續複製變更(插入、更新、刪除)。
- 具有手動升級選項的本地網關 可透過 Fabric 入口網站、API 或腳本進行管理。
- 最近連接它會為連接添加最後使用屬性,以方便審計和生命週期管理。
- 原生 dbt 作業這使得可以在 Fabric 中運行 dbt 項目,並整合編排、測試、文件和治理功能。
- 調用 SSIS 套件活動 在管道中,從 Fabric 中的編排本身運行 SSIS 套件。
使用者體驗也透過以下方式提升: SharePoint 網站選擇器 (SharePoint 網站選擇器)避免了手動輸入 URL,並且支援 MCP 資料工廠,因此 AI 助理可以根據自然語言指令輕鬆建立和部署 Dataflow Gen2。
資料遷移和複製工具
微軟正透過多種專用工具大力推廣向 Fabric 的遷移:
- 資料工廠的架構遷移評估它會分析 ADF 管道的準備情況,並將受支援的管道遷移到具有連接映射的 Fabric 工作區。
- 資料倉儲遷移助手現在可以直接連接到來源倉庫,將其遷移到 Fabric 資料倉儲。
- SQL資料庫遷移助手旨在遷移本機 SQL Server 工作負載,透過 DACPAC 匯入架構,偵測不相容性並提供建議。
關於複製方面,我們提供支援。 鏡像多個營運來源 (Azure Database for MySQL、Google BigQuery、SQL Server 等)到 Fabric,能夠控制要複製的表,透過 REST 重新啟動鏡像進程,並且在 Databricks 的情況下,將 Unity Catalog 策略對應到 OneLake 安全性。
此外,還包括來自 Lakehouse 的複製連接器,使用 增量變化資料來源這樣一來,Lakehouse Delta 板塊的變更就可以向相容的目標進行調整,而無需使用 CDC 的自研解決方案重新發明輪子。
Fabric 中的安全性、高階治理與監控
任何分析平檯面臨的最大問題之一是如何 保護資料、管理使用量並監控資源消耗織物在這些方面正迅速成熟。
OneLake 的安全與資料保護
OneLake 增加了一個完整的模型 資料存取安全 使用:
- 透過基於資料夾的安全性介面,為 Lakehouse 提供可設定權限的資料存取角色。
- 為快捷方式提供安全支持,以便第三方能夠遵守已定義的策略。
- OneLake 資料存取安全 API,可實現自動化權限管理。
- 將模型擴展到外部引擎(OneLake 第三方安全授權)。
同時,保護範圍也在擴大。 DLP限制訪問 對 OneLake 中的所有結構化資料(SQL、KQL、資料倉儲)進行介紹 DSPM for AI for Fabric Copilots and data agents它可以監控人工智慧互動中的敏感資訊和危險行為,並與 Purview Audit 和 eDiscovery 整合。
就身份而言,其特徵體現在以下幾個方面: 與物品相關的身份 (例如 Lakehouse 和 Eventstream)透過 REST API,消除了某些操作的擁有者依賴性,並使用工作區識別或服務主體對 OneDrive 和 SharePoint 捷徑進行驗證。
集中式治理與 OneLake 目錄
資料治理經驗透過以下方式強化: OneLake 目錄中新增集中式面板資料擁有者可以在這裡查看他們創建的專案的匯總視圖,收到治理行動建議,並存取所有可用的工具來提高安全性和合規性。
此外, OneLake Catalog Search API 此外,還有一個 MCP 工具,允許透過一次調用,從程式碼或 AI 代理程式中發現 Fabric 環境中的項目,同時尊重目錄權限和元資料。
監測產能、消耗和工作
織物提供了多層可觀察性:
- 工作區監控它會在 Fabric 中建立一個資料庫,用於整合來自多個專案的日誌和指標(包括具有詳細監控的複製作業)。
- 工作區監控複製作業指標包括吞吐量、資料量、錯誤代碼和時間,所有這些都旨在進行集中分析。
- 容量指標應用中的項目歷史記錄,提供每項商品 30 天的 CU 消耗量視圖,可依工作區和類型進行篩選。
- 工作區級突波保護它允許在 24 小時滾動視窗中為每個工作區設定消耗閾值,自動阻止超過閾值的工作區,並將工作區標記為“關鍵任務”,以將其排除在限制之外。
作為補充,初始集 Fabric 管理 API 專注於發現工作區、物品和使用者存取詳情,促進動態盤點和定期存取控制。
業務建模、規劃和新的工作量
除了技術層面之外,微軟還在引進 新的業務導向工作負載 關於 Fabric。其中最突出的是 Fabric IQ,它致力於統一業務語意、資料和模型,以便為智慧代理提供基於組織整體視圖做出決策的功能。
在 Fabric IQ 中,會顯示以下內容:
- 本體(預覽),這是一種根據公司業務語言定義實體、關係、屬性和約束的專案類型。
- 計劃(預覽)一個用於規劃、報告、分析、整合和協作管理的無程式碼平台。
即時智慧也開始出現 數位孿生建構器該產品專門用於基於即時數據對數位孿生進行建模,旨在優化物理操作、監控狀態和模擬場景。
另一方面,它被引入 Fabric IQ 工作負載 作為一項獨立的工作負載,治理和語義對齊的支援工具不斷擴展,從而在資料模型、業務邏輯和 AI/分析應用之間形成閉環。
效能、使用者體驗和生產力提升
最後,值得一提的是,本次回顧中出現了一些跨領域的改進,這些改進包括: 它們雖然不總是登上新聞頭條,但卻對日常生活有著巨大的影響。 的團隊。
在 Spark 和分散式運算部分,Fabric 引進了以下功能:
- Fabric Runtime 2.0(預覽版) 採用 Apache Spark 4.0、Delta Lake 4.0、Java 21、Scala 2.13 和 Python 3.12,運行於 Azure Linux 3.0 上。
- Spark 應用比較工具它允許您並行選擇和比較最多四個 Spark 執行。
- 火花診斷發射器它會從 Spark 應用程式收集日誌、指標和事件,並將它們發送到 Event Hubs、儲存或 Log Analytics 等目標位置。
- JobInsight 診斷庫一個用於透過 API(查詢、作業、階段、任務、執行器、事件日誌)分析已完成的 Spark 執行的程式庫。
在倉庫層,新增了以下內容: 資料聚類 為了提高效能並降低存取成本,透過 VS Code 中的 SQL 資料庫專案(倉庫原始碼控制)提供代理鍵的 IDENTITY 列、版本控制和 CI/CD 支援。
Fabric門戶網站的使用者體驗也不斷發展。 標籤式瀏覽和物件資源管理器這使您能夠同時打開多個項目並在它們之間快速切換。此外,諸如 Git 中的 Lakehouse 自動綁定以及用於 Lakehouse 維護的一系列實用程式(維護活動和 SQL 端點刷新)等改進,共同打造了一個更加用戶友好和敏捷的平台。
最後,還有一些功能,例如 批次匯入/匯出項目定義 (用於遷移、模板和元數據備份)、文件夾的 REST、Activator 項目激活中的參數支援以及使用集成目錄在 Excel 中加載 OneLake 數據,這些功能構成了一個生態系統,幾乎可以滿足現代數據團隊的所有常見需求。
憑藉這一系列功能——從集中式治理、細粒度安全、智慧編排,到嵌入 SQL 的 AI、即時分析、數位孿生和 MCP 代理程式——Microsoft Fabric 正在鞏固其作為完整資料平台的地位。 關鍵不再只是儲存和視覺化數據,而是管理、自動化和利用人工智慧來控制資料生命週期的每個環節。允許組織逐步發展其架構,遷移現有架構並實現新解決方案,速度比傳統方法快得多。
