A Practical Introduction to Stream Processing Képzés
Stream Processing -feldolgozás a „mozgásban lévő adatok” valós idejű feldolgozására vonatkozik, vagyis a számítások elvégzésére az adatokra, amint azok beérkeznek. Ezek az adatok olvasható folyamatként adatforrásokból származó, mint érzékelő események honlap felhasználói aktivitás, anyagi ágakban, hitelkártya csúsztatással kattintson patakok, stb Stream Processing keretek képesek olvasni nagy mennyiségű bejövő adatokat, és értékes betekintést szinte azonnal.
Ebben az oktató által vezetett, élő (helyszíni vagy távoli) képzésen a résztvevők megtanulják, hogyan állítson össze és integráljon különféle Stream Processing kereteket a meglévő nagy adattárolási rendszerekhez, valamint a kapcsolódó szoftveralkalmazásokhoz és mikroszolgáltatásokhoz.
A képzés végére a résztvevők képesek lesznek:
- Telepítse és konfigurálja a különféle Stream Processing kereteket, például a Spark Streaming és a Kafka Streaming.
- Megérteni és kiválasztani a feladathoz legmegfelelőbb keretet.
- Az adatok feldolgozása folyamatosan, egyidejűleg és rekordonként.
- Integrálja az Stream Processing megoldásokat a meglévő adatbázisokkal, adattárházakkal, adattavakkal stb.
- Integrálja a legmegfelelőbb adatfeldolgozó könyvtárat a vállalati alkalmazásokkal és a mikro-szolgáltatásokkal.
Közönség
- Fejlesztők
- Szoftvertervezők
A tantárgy formátuma
- Részleges előadás, részleges beszélgetés, gyakorlatok és nehéz gyakorlati gyakorlat
Megjegyzések
- Ahhoz, hogy igényeljen személyre szabott képzést erre a kurzusra, kérjük, vegye fel velünk a kapcsolatot, hogy megbeszéljünk.
Kurzusleírás
Bevezetés
- Streamfeldolgozás vs kötegelt feldolgozás
- Analytics-központú adatfolyam-feldolgozás
Áttekintő keretrendszerek és Programming Languages
- Spark Streaming (Scala)
- Kafka Streaming (Java)
- Flink
- Vihar
- Az egyes keretrendszerek jellemzőinek és erősségeinek összehasonlítása
Az adatforrások áttekintése
- Élő adatok események sorozataként az idő múlásával
- Történelmi adatforrások
Telepítési lehetőségek
- A felhőben (AWS stb.)
- Helyszínen (privát felhő stb.)
Elkezdeni
- A Fejlesztési Környezet kialakítása
- Telepítés és konfigurálás
- Az Ön Data Analysis szükségleteinek felmérése
Streaming Framework működtetése
- A Streaming Framework integrálása Big Data eszközökkel
- Esemény Stream Processing (ESP) kontra Komplex eseményfeldolgozás (CEP)
- A bemeneti adatok átalakítása
- A kimeneti adatok vizsgálata
- A Stream Processing keretrendszer integrálása meglévő alkalmazásokkal és Microservices
Hibaelhárítás
Összefoglalás, és következtetés
Követelmények
- Programming bármilyen nyelven szerzett tapasztalat
- A Big Data fogalmainak megértése (Hadoop stb.)
A nyílt képzésekhez 5+ résztvevő szükséges.
A Practical Introduction to Stream Processing Képzés - Booking
A Practical Introduction to Stream Processing Képzés - Enquiry
A Practical Introduction to Stream Processing - Érdeklődjön a vezetői tanácsadásról!
Érdeklődjön a vezetői tanácsadásról!
Vélemények (1)
Sufficient hands on, trainer is knowledgable
Chris Tan
Kurzus - A Practical Introduction to Stream Processing
Közelgő kurzusok
Rokon tanfolyam
Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
21 ÓrákEz a kurzus azoknak a fejlesztőknek és adattudósoknak szól, akik szeretnék megérteni és megvalósítani a mesterséges intelligenciát alkalmazásaikban. Különös hangsúlyt kap az adatelemzés, az elosztott mesterséges intelligencia és a természetes nyelvi feldolgozás.
Apache Kafka Connect
7 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) azoknak a fejlesztőknek szól, akik szeretnének integrálni Apache Kafka meglévő adatbázisokkal és alkalmazásokkal feldolgozás, elemzés stb.
A képzés végére a résztvevők képesek lesznek:
- A Kafka Connect használatával nagy mennyiségű adatot tölthet be adatbázisból Kafka témákba.
- Alkalmazásszerverek által generált naplóadatok feldolgozása Kafka témákba kerül.
- Tegye elérhetővé az összegyűjtött adatokat adatfolyam-feldolgozáshoz.
- Exportáljon adatokat a Kafka témákból másodlagos rendszerekbe tárolás és elemzés céljából.
Unified Batch and Stream Processing with Apache Beam
14 ÓrákAz Apache Beam egy nyílt forráskódú, egységes programozási modell párhuzamos adatfeldolgozási folyamatok meghatározására és végrehajtására. Ereje abban rejlik, hogy képes kötegelt és adatfolyam-folyamatokat is futtatni, a végrehajtást pedig a Beam egyik támogatott elosztott feldolgozási háttérrendszere hajtja végre: Apache Apex, Apache Flink, Apache Spark és Google Cloud Dataflow. Az Apache Beam olyan ETL (Extract, Transform, and Load) feladatoknál hasznos, mint például az adatok mozgatása különböző tárolóeszközök és adatforrások között, az adatok kívánatosabb formátumba való átalakítása és az adatok új rendszerbe való betöltése.
Ezen az oktató által vezetett, élő (helyszíni vagy távoli) képzésen a résztvevők megtanulják, hogyan implementálják az Apache Beam SDK-kat egy Java vagy Python alkalmazásban, amely adatfeldolgozási folyamatot határoz meg a nagy adathalmazok kisebb darabokra bontásához. független, párhuzamos feldolgozáshoz.
A képzés végére a résztvevők képesek lesznek:
- Telepítse és konfigurálja Apache Beam.
- Használjon egyetlen programozási modellt a kötegelt és adatfolyam-feldolgozás végrehajtásához a Java vagy Python alkalmazásból.
- Csővezetékek végrehajtása több környezetben.
A tanfolyam formátuma
- Rész előadás, részben beszélgetés, gyakorlatok és nehéz gyakorlati gyakorlat
Jegyzet
- Ez a tanfolyam a jövőben elérhető lesz Scala. Kérjük, vegye fel velünk a kapcsolatot, hogy megbeszéljük.
Building Kafka Solutions with Confluent
14 ÓrákEz az oktató által vezetett, élő képzés (helyszíni vagy távoli) célja a mérnökök, akik szeretnék használni Fluent (eloszlása Kafka) építeni és kezelni a valós idejű adatfeldolgozó platform azok alkalmazásait.
végére a képzés, a résztvevők képesek lesznek:
- telepítése és konfigurálása Fluent platform.
- használata Fluent & #39; s irányítási eszközök és szolgáltatások futni Kafka könnyebben. a bejövő adatfolyam-adatok tárolása és feldolgozása
- .
- optimalizálása és kezelése Kafka klaszterek.
- biztonságos adatfolyamok.
formátuma tanfolyam
- interaktív előadás és vita.
- sok gyakorlatok és gyakorlat.
- gyakorlati végrehajtás egy élő-Lab környezetben.
tanfolyam testreszabási beállítások
- Ez a tanfolyam alapja a nyílt forráskódú változata a Fluent: a nyílt forráskódú Fluent.
- , hogy kérjen egy testreszabott képzést ezt a tanfolyamot, kérjük lépjen kapcsolatba velünk, hogy gondoskodjon.
Apache Flink Fundamentals
28 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) bemutatja az elosztott adatfolyam- és kötegelt adatfeldolgozás mögött meghúzódó elveket és megközelítéseket, és végigvezeti a résztvevőket egy valós idejű adatfolyam-alkalmazás létrehozásán a Apache Flink-ban.
A képzés végére a résztvevők képesek lesznek:
- Környezet létrehozása adatelemző alkalmazások fejlesztéséhez.
- Ismerje meg, hogyan működik Apache Flink gráffeldolgozó könyvtára (Gelly).
- Flink-alapú, hibatűrő, adatfolyam-küldő alkalmazások becsomagolása, végrehajtása és figyelése.
- Változatos munkaterhelések kezelése.
- Végezzen haladó elemzést.
- Hozzon létre egy több csomópontból álló Flink-fürtöt.
- Mérje meg és optimalizálja a teljesítményt.
- Integrálja a Flink-et különböző Big Data rendszerekkel.
- Hasonlítsa össze a Flink képességeit más big data feldolgozó keretrendszerekkel.
Introduction to Graph Computing
28 ÓrákEzen az oktató által vezetett, élő képzésen a Magyarország-ban a résztvevők megismerkedhetnek a technológiai kínálatokkal és a grafikonadatok feldolgozásának megvalósítási módszereivel. A cél a valós objektumok, jellemzőik és kapcsolataik azonosítása, majd a kapcsolatok modellezése és adatként való feldolgozása Graph Computing (más néven Graph Analytics) megközelítéssel. Kezdjük egy átfogó áttekintéssel, és leszűkítjük a konkrét eszközöket, miközben esettanulmányok, gyakorlati gyakorlatok és élő telepítések sorozatán lépkedünk végig.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg a grafikonadatok megőrzését és bejárását.
- Válassza ki a legjobb keretrendszert egy adott feladathoz (a gráfadatbázisoktól a kötegelt feldolgozási keretrendszerekig).
- A Hadoop, a Spark, GraphX és a Pregel megvalósítása számos gépen párhuzamosan végezhet gráfszámítást.
- Tekintse meg a valós világban felmerülő big data problémákat grafikonok, folyamatok és bejárások formájában.
Apache Kafka for Python Programmers
7 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) azoknak az adatmérnököknek, adattudósoknak és programozóknak szól, akik szeretnék használni a Apache Kafka funkciókat az Python-es adatfolyamban.
A képzés végére a résztvevők képesek lesznek a Apache Kafka segítségével figyelni és kezelni a feltételeket folyamatos adatfolyamokban az Python programozás segítségével.
Stream Processing with Kafka Streams
7 ÓrákA Kafka Streams ügyféloldali könyvtár olyan alkalmazások és mikroszolgáltatások építéséhez, amelyek adatait továbbítják a Kafka üzenetküldő rendszerbe és onnan. Hagyományosan, Apache Kafka támaszkodott Apache Spark vagy Apache Storm adatok feldolgozására közötti üzenet a termelők és a fogyasztók számára. A Kafka Streams API alkalmazásból történő meghívásával az adatok közvetlenül a Kafkán belül feldolgozhatók, megkerülve azt, hogy az adatokat külön fürtbe kell továbbítani feldolgozásra.
Ebben az oktató által vezetett, élő képzésen a résztvevők megtanulják, hogyan integrálhatja a Kafka Streams egy olyan Java alkalmazásba, amely adatátvitelt továbbít az Apache Kafka felé és az adatfolyam feldolgozása céljából.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg a Kafka Streams szolgáltatásait és előnyeit a többi adatfeldolgozási keretrendszerhez képest
- Folyamatos adatfeldolgozás közvetlenül egy Kafka-fürtön belül
- Írj egy Java vagy Scala alkalmazást vagy mikroszolgáltatást, amely integrálódik a Kafka és a Kafka Streams
- Írjon be olyan tömör kódot, amely átalakítja a bemeneti Kafka témákat kimeneti Kafka témákká
- Az alkalmazás készítése, csomagolása és telepítése
Közönség
- Fejlesztők
A tantárgy formátuma
- Részleges előadás, részleges beszélgetés, gyakorlatok és nehéz gyakorlati gyakorlat
Megjegyzések
- Ha személyre szabott képzést szeretne kérni erre a kurzusra, kérjük, vegye fel velünk a kapcsolatot, hogy megbeszéljünk
Confluent KSQL
7 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) azoknak a fejlesztőknek szól, akik a Apache Kafka adatfolyam-feldolgozást kódírás nélkül szeretnék megvalósítani.
A képzés végére a résztvevők képesek lesznek:
- Telepítse és konfigurálja a Confluent KSQL-t.
- Állítson be egy adatfolyam-feldolgozási folyamatot csak SQL parancsok használatával (nincs Java vagy Python kódolás).
- Végezzen adatszűrést, átalakításokat, összesítést, összekapcsolást, ablakozást és szekciózást teljes egészében a SQL-ben.
- Interaktív, folyamatos lekérdezések tervezése és üzembe helyezése az ETL és a valós idejű elemzések streameléséhez.
Apache NiFi for Administrators
21 ÓrákEzen az oktató által vezetett, élő képzésen a Magyarország-ban (helyszíni vagy távoli) a résztvevők megtanulják, hogyan telepítsék és kezeljék a Apache NiFi-t élő laborkörnyezetben.
A képzés végére a résztvevők képesek lesznek:
- Telepítse és konfigurálja az Apachi NiFi-t.
- Forrása, átalakítása és kezelése különböző, elosztott adatforrásokból, beleértve az adatbázisokat és a nagy adatforrásokat.
- Automatizálja az adatfolyamokat.
- Engedélyezze a streamelési elemzést.
- Alkalmazzon különféle megközelítéseket az adatfeldolgozáshoz.
- Alakítsa át Big Data üzleti betekintést.
Apache NiFi for Developers
7 ÓrákEzen az oktató által vezetett, élő képzésen a Magyarország-ban a résztvevők megtanulják az áramlásalapú programozás alapjait, miközben számos demó-bővítményt, komponenst és processzort fejlesztenek a Apache NiFi segítségével.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg a NiFi architektúráját és adatfolyam-koncepcióit.
- Bővítmények fejlesztése NiFi és harmadik féltől származó API-k használatával.
- Egyedi fejlesztésű saját Apache Nifi processzort.
- Valós idejű adatok feldolgozása és feldolgozása eltérő és nem megszokott fájlformátumokból és adatforrásokból.
Python and Spark for Big Data (PySpark)
21 ÓrákEzen az oktató által vezetett, élő képzésen a Magyarország-ban a résztvevők megtanulják, hogyan használhatják a Python-t és a Spark-ot a nagy adatok elemzésére, miközben gyakorlati gyakorlatokon dolgoznak.
A képzés végére a résztvevők képesek lesznek:
- Ismerje meg, hogyan használja a Sparkot a Python-val a Big Data elemzéséhez.
- Dolgozz olyan gyakorlatokon, amelyek a valós eseteket utánozzák.
- Használjon különféle eszközöket és technikákat a nagy adatelemzéshez az PySpark segítségével.
Spark Streaming with Python and Kafka
7 ÓrákEz az oktató által vezetett, élő képzés a Magyarország-ban (online vagy helyszíni) azoknak az adatmérnököknek, adattudósoknak és programozóknak szól, akik a Spark Streaming funkciókat szeretnék használni a valós idejű adatok feldolgozásához és elemzéséhez.
A képzés végére a résztvevők képesek lesznek a Spark Streaming segítségével feldolgozni az élő adatfolyamokat adatbázisokban, fájlrendszerekben és élő műszerfalakban.
Apache Spark MLlib
35 ÓrákAz MLlib a Spark gépi tanulási (ML) könyvtára. Célja, hogy a gyakorlati gépi tanulás méretezhető és egyszerű legyen. Közös tanulási algoritmusokból és segédprogramokból áll, beleértve a besorolást, a regressziót, a klaszterezést, az együttműködő szűrést, a dimenziócsökkentést, valamint az alacsonyabb szintű optimalizálási primitíveket és a magasabb szintű csővezeték API-kat.
Ez két csomagra oszlik:
A spark.mllib tartalmazza az RDD-re épített eredeti API-t.
A spark.ml magasabb szintű API-t kínál, amely a DataFrames tetején épült ML-csővezetékek építéséhez.
Közönség
Ez a tanfolyam olyan mérnökökre és fejlesztőkre irányul, akik egy beépített gépkönyvtárat kívánnak használni az Apache Spark