Building Stream Processing Applications with Kafka Streams培訓
Kafka Streams 是一個客戶端庫,用於構建應用程序和微服務,其數據在 Kafka 消息系統之間傳遞。傳統上,Apache Kafka 依賴於 Apache Spark 或 Apache Storm 來處理消息生產者和消費者之間的數據。通過在應用程序中調用 Kafka Streams API,數據可以直接在 Kafka 中進行處理,從而避免了將數據發送到單獨的集群進行處理的需求。
在這場由講師指導的線下培訓中,參與者將學習如何將 Kafka Streams 集成到一組示例 Java 應用程序中,這些應用程序在 Apache Kafka 之間傳遞數據以進行流處理。
在培訓結束時,參與者將能夠:
- 了解 Kafka Streams 的功能及其相較於其他流處理框架的優勢
- 直接在 Kafka 集群中處理流數據
- 編寫與 Kafka 和 Kafka Streams 集成的 Java 或 Scala 應用程序或微服務
- 編寫簡潔的代碼,將輸入的 Kafka 主題轉換為輸出的 Kafka 主題
- 構建、打包並部署應用程序
目標受眾
- 開發人員
課程形式
- 部分講座、部分討論、練習和大量動手實踐
注意事項
- 如需為本課程定制培訓,請聯繫我們安排
課程簡介
簡介
- Kafka 與 Spark、Flink 和 Storm 的比較
Kafka Streams 功能概述
- 有狀態和無狀態處理、事件時間處理、DSL、基於事件時間的窗口操作等
案例研究:使用 Kafka Streams API 進行預算預測
設置開發環境
創建 Streams 應用程序
啟動 Kafka 集群
準備主題和輸入數據
處理流數據的選項
- 高級 Kafka Streams DSL
- 低級 Processor
轉換輸入數據
檢查輸出數據
停止 Kafka 集群
應用程序部署選項
- 經典運維工具(Puppet、Chef 和 Salt)
- Docker
- WAR 文件
故障排除
總結與結論
最低要求
- 理解Apache Kafka
- Java编程經驗
需要幫助選擇合適的課程嗎?
Building Stream Processing Applications with Kafka Streams培訓 - Enquiry
Building Stream Processing Applications with Kafka Streams - 咨詢詢問
咨詢詢問
客戶評論 (1)
Recalling/reviewing keypoints of the topics discussed.
Paolo Angelo Gaton - SMS Global Technologies Inc.
Course - Building Stream Processing Applications with Kafka Streams
相關課程
Apache Kafka Connect
7 時間:這是一個由講師指導的澳門(線上或線下)培訓,針對希望將Apache Kafka與現有數據庫和應用程序集成以進行處理、分析等的開發人員。
在培訓結束時,參與者將能夠:
- 使用Kafka Connect將大量數據從數據庫導入Kafka主題。
- 將應用程序服務器生成的日誌數據導入Kafka主題。
- Make任何收集到的數據,以便進行流處理。
- 將數據從Kafka主題導出到次級系統進行存儲和分析。
Unified Batch and Stream Processing with Apache Beam
14 時間:Apache Beam 是一個開源的統一程式設計模型,用於定義和執行並行數據處理管道。它的強大之處在於它能夠同時運行批處理和流式管道,執行由 Beam 支援的分散式處理後端之一執行:Apache Apex、Apache Flink、Apache Spark 和 Google Cloud Dataflow。Apache Beam 對於 ETL(提取、轉換和載入)任務非常有用,例如在不同的存儲介質和數據源之間移動數據、將數據轉換為更理想的格式以及將數據載入到新系統。
在這個由講師指導的現場培訓(現場或遠端)中,參與者將學習如何在 Java 或 Python 應用程式中實施 Apache Beam SDK,該應用程式定義了一個數據處理管道,用於將大數據集分解成更小的塊,以進行獨立的並行處理。
在本次培訓結束時,參與者將能夠:
- 安裝和配置 Apache Beam。
- 使用單個程式設計模型從其 Java 或 Python 應用程式執行批處理和流處理。
- 跨多個環境執行管道。
課程形式
- 部分講座、部分討論、練習和大量動手實踐
注意
- 本課程將在未來提供 Scala。請聯繫我們安排。
Building Kafka Solutions with Confluent
14 時間:這是一個由講師指導的培訓課程(線上或線下),旨在幫助工程師使用Confluent(Kafka的分發版本)來構建和管理實時數據處理平台,以滿足其應用需求。
在培訓結束時,參與者將能夠:
- 安裝和配置Confluent Platform。
- 使用Confluent的管理工具和服務,更輕鬆地運行Kafka。
- 存儲和處理流入的串流數據。
- 優化和管理Kafka集群。
- 確保數據串流的安全性。
課程形式
- 互動式講座和討論。
- 大量的練習和實踐。
- 在實時實驗室環境中進行動手操作。
課程定制選項
- 本課程基於Confluent的開源版本:Confluent Open Source。
- 如需為本課程定制培訓,請聯繫我們安排。
Building Data Pipelines with Apache Kafka
7 時間:Apache Kafka是一個分佈式流媒體平台。它實際上是構建數據管道的標準,它解決了許多圍繞數據處理的不同用例:它可以用作消息隊列,分佈式日誌,流處理器等。
我們將從數據管道背後的一些理論開始,然後繼續介紹Kafka背後的基本概念。我們還將發現Kafka Streams和Kafka Connect等重要組件。
Flink for Scalable Stream and Batch Data Processing
28 時間:這個由 澳門 的講師指導式現場培訓(在線或現場)介紹了分散式流和批處理數據處理背後的原理和方法,並引導參與者在 Apache Flink 中創建實時數據流應用程式。
在本次培訓結束時,參與者將能夠:
- 設置用於開發數據分析應用程式的環境。
- 瞭解 Apache Flink 的 圖形處理庫 (Gelly) 的工作原理。
- 打包、執行和監控基於 Flink 的容錯數據流應用程式。
- 管理各種工作負載。
- 執行高級分析。
- 設置多節點 Flink 集群。
- 衡量和優化性能。
- 將 Flink 與不同的 Big Data 系統集成。
- 將 Flink 功能與其他大數據處理框架的功能進行比較。
A Practical Introduction to Stream Processing
21 時間:在這個以講師為主導的澳門現場培訓(現場或遠端)中,參與者將學習如何設置不同的Stream Processing框架並將其與現有的大數據存儲系統以及相關的軟體應用程式和微服務集成。
在培訓結束時,參與者將能夠:
- 安裝和配置不同的 Stream Processing 框架,例如 Spark Streaming 和 Kafka Streaming。
- 瞭解並選擇最適合工作的框架。
- 以逐條記錄的方式連續、併發地處理數據。
- 將 Stream Processing 解決方案與現有資料庫、數據倉庫、數據湖等集成。
- 將最合適的流處理庫與企業應用程式和微服務集成 。
Distributed Messaging with Apache Kafka
14 時間:本課程適用於企業架構師,開發人員,系統管理員以及任何想要了解和使用高吞吐量分佈式消息傳遞系統的人員。如果您有更多特定要求(例如,僅限系統管理方),可以根據您的需求定製本課程。
Kafka for Administrators
21 時間:這種以講師為主導的澳門現場現場培訓針對的是希望設置,部署,管理和優化企業級Kafka集群的系統管理員。
在培訓結束時,參與者將能夠:
- 設置和管理 Kafka 集群。
- 評估在本地部署 Kafka 與在雲中部署 Kafka 的優缺點。
- 使用各種本地和雲環境工具部署和監控 Kafka。
Apache Kafka for Python Programmers
7 時間:這種以講師為主導的澳門現場培訓(現場或遠端)針對數據工程師,數據科學家和程式師,他們希望在數據流中使用Apache Kafka功能Python。
在本次培訓結束時,參與者將能夠使用 Apache Kafka 通過 Python 程式設計來監控和管理連續數據流中的條件。
Confluent KSQL
7 時間:這個由 講師指導的 澳門 現場培訓(在線或現場)面向希望在不編寫代碼的情況下實現 Apache Kafka 流處理的開發人員。
在本次培訓結束時,參與者將能夠:
- 安裝和配置 Confluent KSQL。
- 僅使用 SQL 命令(無 Java 或 Python 編碼)設置流處理管道。
- 完全在 SQL 中執行數據過濾、轉換、聚合、連接、視窗化和會話化。
- 為流式 ETL 和即時分析設計和部署互動式連續查詢。
Apache NiFi for Administrators
21 時間:在這個以講師為主導的澳門現場或遠端培訓中,參與者將學習如何在實時實驗室環境中部署和管理Apache NiFi。
在培訓結束時,參與者將能夠:
- 安裝並配置 Apachi NiFi。
- 從不同的分散式數據源(包括資料庫和大數據湖)中獲取、轉換和管理數據。
- 自動化數據流。
- 啟用流分析。
- 應用各種方法進行數據引入。
- 轉換 Big Data 並轉化為業務洞察。
Apache NiFi for Developers
7 時間:在這個由講師指導的 澳門 現場培訓中,參與者將學習基於流程的程式設計的基礎知識,因為他們使用 Apache NiFi 開發許多演示擴展、元件和處理器。
在培訓結束時,參與者將能夠:
- 瞭解 NiFi 的架構和數據流概念。
- 使用 NiFi 和第三方 API 開發擴展。
- 定製開發自己的Apache Nifi處理器。
- 從不同和不常見的檔格式和數據源中攝取和處理實時數據。
Spark Streaming with Python and Kafka
7 時間:這種以講師為主導的澳門現場培訓(現場或遠端)針對希望使用Spark Streaming功能處理和分析即時數據的數據工程師,數據科學家和程式師。
在本次培訓結束時,參與者將能夠使用 Spark Streaming 處理實時數據流,以便在資料庫、文件系統和即時儀錶板中使用。