Azure Stream Analytics

Azure Stream Analytics
Keine Kommentare

Serverlose Analyse in Echtzeit

In unserer modernen Welt erzeugen verschiedenste Geräten und Sensoren immer mehr Daten. Daher wird es immer wichtiger diese Daten in Echtzeit auszuwerten. Mit Azure Stream Analytics integrieren Sie Ihre IoT-Geräte und -Anwendungen mit geringem Aufwand in eine Stream Analytics-Engine. Mit dessen Hilfe kann man Echtzeit Analysen auf den Daten ausführen. So erlangen Sie jederzeit neue Erkenntnisse über Ihre Daten und können entsprechend reagieren.

Eine typische Pipeline basierend auf Stream Analytics besteht
aus 4 Komponenten

Ereignisersteller

Azure Stream Analytics

Ein Ereignisersteller ist eine Anwendung, ein System oder ein Sensor, der kontinuierlich relevante Ereignisdaten erzeugt. Als Beispiel wollen wir einen Sensor in einem Parkhaus betrachten. Dieser misst den Zustand des Stellplatzes und leitet die Ergebnisse zu einer beliebigen Anwendung weiter. Folglich kann dann dort eingesehen werden, ob der Stellplatz noch frei ist oder nicht.

Ereigniserfassungssystem

Dieses „System“ ruft die Daten aus dem Quellsystem ab und übergibt die Daten an die Analyse-Engine. Azure Stream Analytics kann dabei Daten von verschiedenen Erfassungssystemen verarbeiten. Im Speziellen sind das:

Stream Analytics-Engine

Hier erfolgt die Berechnung über die eingehenden Datenströme. Somit kann man in Echtzeit neue Erkenntnisse ermitteln. Mit Azure Stream Analytics ist die Stream Analytics-Abfragesprache (SAQL) verfügbar, die auf Transact-SQL basiert. Diese Sprache ist auf die Durchführung von Berechnungen über Streaming-Daten optimiert.

Ereigniskonsument

Hierbei handelt es sich um das Ziel (Senke), in dem die gewonnen Erkenntnisse abgelegt werden. Das Ziel kann ein Speicher (Azure Data Lake, Cosmos DB, SQL Azure oder Azure Blob Storage) sein. Ebenso möglich ist aber auch beispielsweise ein von Power BI unterstütztes Dashboard.

Da es sich bei den Azure Stream Analytics um einen PaaS-Dienst handelt, wird dieser vollständig verwaltet und läuft somit äußerst zuverlässig. Des Weiterenkann man die Pipeline für komplexere Szenarien mit benutzerdefiniertem Code und integrierten Machine-Learning-Funktionen erweitern.

Sie möchten sich intensiver mit dem Thema Stream Analytics befassen? Dann sind die herzlich eingeladen sich mit uns in Verbindung zu setzen.

Vorheriger Beitrag
Azure Data Factory (Teil 3)
Nächster Beitrag
Schiffeversenken mit T-SQL (und KI)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Bitte füllen Sie dieses Feld aus.
Bitte füllen Sie dieses Feld aus.
Bitte gib eine gültige E-Mail-Adresse ein.
Sie müssen den Bedingungen zustimmen, um fortzufahren.

Weitere Beiträge

Filter
Kategorie
Zurücksetzen
Plan-Item Microsoft Fabric
Planung und Reporting auf einer Datenplattform vereint – Zwei Welten werden gebündelt Microsoft Fabric Planung Integration: Warum diese Entwicklung entscheidend…
Microsoft Fabric_Maijugend Voreifel
Warum die Maijugend in der Voreifel plötzlich über Microsoft Fabric spricht Es war ein ganz normaler Tanz-in-den-Mai-Abend irgendwo in der…
Aprilwetter_Microsoft Fabric und Power BI
Daten vs. Bauchgefühl: Das Business‑Wetter richtig einschätzen Einleitung: Im Business hilft dir Datenanalyse mit Power BI und Microsoft Fabric, verlässliche…
Item Recovery_arelium
Item Recovery in Microsoft Fabric (Preview) – Alles, was du wissen musst Microsoft Fabric Item Recovery: Einleitung Hast du schon…
se_Microsoft Fabric_arelium
So hoppelt der Osterhase 2026 mit Microsoft Fabric effizient durch die Nacht! Der Osterhase hatte im Jahr 2025 ein echtes…
Microsoft Fabric OneLake Governance
Microsoft Fabric und Purview für Daten-Governance meistern – So steigern Sie Ihre BI-Effizienz Warum Data Governance heute wichtiger ist als…
Beratungstermin buchen
×