<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Data Engineering Archive - arelium - Wir holen mehr aus deinen Daten</title>
	<atom:link href="https://delhofen.de/category/data-engineering/feed/" rel="self" type="application/rss+xml" />
	<link>https://delhofen.de/category/data-engineering/</link>
	<description></description>
	<lastBuildDate>Fri, 13 Feb 2026 14:46:19 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://delhofen.de/wp-content/uploads/2022/10/Logo_arelium_FavIcon-150x150.jpg</url>
	<title>Data Engineering Archive - arelium - Wir holen mehr aus deinen Daten</title>
	<link>https://delhofen.de/category/data-engineering/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>k-Nearest Neighbors Algorithmus – Schnell und sicher Daten laden – Anleitung &#038; Tipps</title>
		<link>https://delhofen.de/k-nearest-neighbors-algorithmus-schnell-und-sicher-daten-laden-anleitung-tipps/</link>
					<comments>https://delhofen.de/k-nearest-neighbors-algorithmus-schnell-und-sicher-daten-laden-anleitung-tipps/#respond</comments>
		
		<dc:creator><![CDATA[Emil Vincazovic]]></dc:creator>
		<pubDate>Mon, 16 Feb 2026 10:00:58 +0000</pubDate>
				<category><![CDATA[Azure]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Data Engineering]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<category><![CDATA[Azure Machine Learning]]></category>
		<category><![CDATA[Benchmarking]]></category>
		<category><![CDATA[k-Nearest Neighbors]]></category>
		<category><![CDATA[KI-Algorithmen]]></category>
		<category><![CDATA[Klassifikation]]></category>
		<category><![CDATA[Microsoft Azure]]></category>
		<category><![CDATA[Modellvergleich]]></category>
		<category><![CDATA[Regression]]></category>
		<guid isPermaLink="false">https://delhofen.de/?p=21678</guid>

					<description><![CDATA[<p>k-Nearest Neighbors: ein Klassiker im Machine Learning mit aktueller Relevanz Der k-Nearest Neighbors Algorithmus, kurz kNN, geh&#246;rt zu den einfachsten und zugleich intuitivsten Verfahren im Machine Learning. Er ordnet neue Datenpunkte anhand der &#196;hnlichkeit zu bereits bekannten Beispielen ein. Dabei kann er sowohl f&#252;r Klassifikations- als auch f&#252;r Regressionsaufgaben eingesetzt werden. In modernen Data- und...</p>
<p>Der Beitrag <a href="https://delhofen.de/k-nearest-neighbors-algorithmus-schnell-und-sicher-daten-laden-anleitung-tipps/">k-Nearest Neighbors Algorithmus – Schnell und sicher Daten laden – Anleitung &#038; Tipps</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="arelium-article">
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">k-Nearest Neighbors: ein Klassiker im Machine Learning mit aktueller Relevanz</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Der k-Nearest Neighbors Algorithmus, kurz kNN, gehört zu den einfachsten und zugleich intuitivsten Verfahren im Machine Learning. Er ordnet neue Datenpunkte anhand der Ähnlichkeit zu bereits bekannten Beispielen ein. Dabei kann er sowohl für Klassifikations- als auch für Regressionsaufgaben eingesetzt werden. In modernen Data- und AI-Projekten bleibt kNN relevant, weil er ohne komplexe Modelltrainings auskommt, leicht verständlich ist und sich schnell als Benchmark oder Basismodell einbinden lässt. Gerade in explorativen Phasen, wie sie auch in <a href="https://delhofen.de/azure-machine-learning-studio/">Azure Machine Learning</a> oder in <a href="https://delhofen.de/microsoft-fabric/">Fabric Notebooks</a> stattfinden, kann kNN wertvolle erste Erkenntnisse liefern.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Funktionsweise kompakt erklärt</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Das Prinzip von kNN ist so einfach wie wirkungsvoll. Stellen Sie sich vor, Sie betreten eine neue Stadt und wollen wissen, welche Restaurants Ihnen gefallen könnten. Sie fragen nicht jeden zufällig, sondern suchen nach den drei oder fünf Personen, deren Geschmack Ihrem am nächsten kommt. Die Empfehlungen dieser „nächsten Nachbarn“ bestimmen Ihre Entscheidung. Technisch betrachtet misst kNN die Distanz zwischen einem neuen Datenpunkt und allen bekannten Punkten im Datensatz. Die k Punkte mit der geringsten Distanz werden als „Nachbarn“ ausgewählt. Bei einer Klassifikation wird die Mehrheitsklasse dieser Nachbarn übernommen. Bei Regressionen wird der Mittelwert der Nachbarn berechnet.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Typische Einsatzbereiche</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">kNN ist besonders nützlich, wenn Daten klar strukturiert und überschaubar sind, etwa bei der Erkennung von Mustern in Kundenverhalten, der Empfehlung von Produkten oder der Klassifikation einfacher Sensorwerte im IoT-Umfeld. In der <a href="https://delhofen.de/beginn-der-video-reihe-azure-ml-studio-am-beispiel-der-betrugserkennung/">Betrugserkennung</a> kann er als schnelles Vorfiltermodell dienen, bevor komplexere Verfahren wie neuronale Netze zum Einsatz kommen. Weniger geeignet ist kNN für sehr große Datensätze mit hohem Dimensionalitätsgrad, da die Berechnung der Distanz zu allen Punkten schnell sehr ressourcenintensiv wird.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Vorteile und Nachteile aus Praxissicht</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Der größte Vorteil liegt in der Einfachheit und Interpretierbarkeit. Fachbereiche können Ergebnisse ohne tiefes mathematisches Wissen nachvollziehen. Gleichzeitig ist kNN robust gegenüber Rauschen in den Daten, wenn k sinnvoll gewählt wird. Nachteile zeigen sich bei der Performance, sobald die Datenmenge stark wächst, sowie bei der Empfindlichkeit gegenüber der Wahl der Distanzmetrik und der Skalierung der Features.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Bezug zum Microsoft- und Azure-Ökosystem</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Im Microsoft-Umfeld lässt sich kNN einfach mit Bibliotheken wie <code style="background-color: #f8f9fa; padding: 2px 6px; border-radius: 3px; font-family: 1Consolas\', \'Monaco\', monospace; border: 1px solid #e9ecef; font-size: 0.9em;">scikit-learn</code> in <a href="https://delhofen.de/azure-machine-learning-studio/">Azure Machine Learning</a> oder <a href="https://delhofen.de/azure-databricks/">Azure Databricks</a> einsetzen. Auch in <a href="https://delhofen.de/microsoft-fabric/">Microsoft Fabric Notebooks</a> können Data Engineers den Algorithmus für schnelle Prototypen nutzen. Für produktive Szenarien bietet sich die Integration in <a href="https://learn.microsoft.com/en-us/azure/machine-learning/" target="_blank" rel="noopener">SynapseML</a> an, um kNN-Modelle skalierbar im Azure-Cluster zu betreiben. Über <a href="https://delhofen.de/onelake-fuer-power-bi-desktop/">Onelake</a> können die zugrunde liegenden Daten zentral bereitgestellt werden, was die Wiederverwendung des Modells in verschiedenen BI-Reports erleichtert.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Mini-Beispiel in Python</h3>
<pre style="background-color: #f8f9fa; padding: 12px; border-radius: 6px; border: 1px solid #e9ecef; font-family: 'Consolas','Monaco',monospace; font-size: 0.9em; white-space: pre-wrap;">from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.neighbors import KNeighborsClassifier

# Daten laden
iris = load_iris()
X_train, X_test, y_train, y_test = train_test_split(
    iris.data, iris.target, test_size=0.2, random_state=42
)

# kNN-Modell erstellen
knn = KNeighborsClassifier(n_neighbors=5)
knn.fit(X_train, y_train)

# Vorhersage treffen
predictions = knn.predict(X_test)

# Genauigkeit prüfen
accuracy = knn.score(X_test, y_test)
print(f"Genauigkeit: {accuracy:.2f}")
</pre>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Dieses Beispiel lässt sich in einem Fabric Notebook oder direkt in Azure Machine Learning ausführen. Durch die geringe Komplexität ist kNN ideal für den Start, bevor auf komplexere Modelle umgestiegen wird.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Warum kNN heute noch relevant ist</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Trotz des Vormarschs von Deep Learning und <a href="https://delhofen.de/machine-learning/">Foundation Models</a> behält kNN seinen Platz im Werkzeugkasten moderner Data Scientists. Er ist nicht nur ein Lern- und Demonstrationsmodell, sondern wird in produktiven Szenarien als schneller Klassifikator oder zur Vorverarbeitung eingesetzt. In hybriden Architekturen innerhalb von <a href="https://delhofen.de/microsoft-fabric/">Microsoft Fabric</a> kann kNN als Edge-Algorithmus für schnelle Entscheidungen dienen, bevor Daten in zentrale KI-Modelle fließen. Er bleibt damit ein Beispiel dafür, wie bewährte Verfahren und moderne Plattformen gemeinsam Mehrwert schaffen.</p>
</div>
<p>Der Beitrag <a href="https://delhofen.de/k-nearest-neighbors-algorithmus-schnell-und-sicher-daten-laden-anleitung-tipps/">k-Nearest Neighbors Algorithmus – Schnell und sicher Daten laden – Anleitung &#038; Tipps</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://delhofen.de/k-nearest-neighbors-algorithmus-schnell-und-sicher-daten-laden-anleitung-tipps/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Microsoft Osmos-Übernahme</title>
		<link>https://delhofen.de/microsoft-osmos-uebernahme/</link>
					<comments>https://delhofen.de/microsoft-osmos-uebernahme/#respond</comments>
		
		<dc:creator><![CDATA[Martin Kopp]]></dc:creator>
		<pubDate>Thu, 12 Feb 2026 09:29:43 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Data Engineering]]></category>
		<category><![CDATA[Microsoft Fabric]]></category>
		<guid isPermaLink="false">https://delhofen.de/?p=22420</guid>

					<description><![CDATA[<p>Was&#160;bedeutet die &#220;bernahme von Osmos durch Microsoft f&#252;r&#160;Microsoft Fabric? Die&#160;&#220;bernahme von Osmos durch Microsoft&#160;ist kein kurzfristiger KI-Hype. Sie ist ein strategisches Signal mit klaren betriebswirtschaftlichen Konsequenzen.&#160; Microsoft investiert hier nicht in &#8222;bessere Dashboards&#8220;, sondern in die Automatisierung der&#160;teuersten und fehleranf&#228;lligsten Teile&#160;der Datenarbeit: Data Engineering&#160; und Datenbetrieb.&#160;Genau hier tut es am meisten&#160;weh. Denn hier verbrennen heute...</p>
<p>Der Beitrag <a href="https://delhofen.de/microsoft-osmos-uebernahme/">Microsoft Osmos-Übernahme</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h1><b><span data-contrast="auto">Was bedeutet die Übernahme von Osmos durch Microsoft für Microsoft Fabric?</span></b></h1>
<p><span data-contrast="auto">Die </span><a href="https://blogs.microsoft.com/blog/2026/01/05/microsoft-announces-acquisition-of-osmos-to-accelerate-autonomous-data-engineering-in-fabric/"><span data-contrast="none">Übernahme von Osmos durch Microsoft</span></a><span data-contrast="auto"> ist kein kurzfristiger KI-Hype. Sie ist ein strategisches Signal mit klaren betriebswirtschaftlichen Konsequenzen.</span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;335559738&quot;:240,&quot;335559739&quot;:240}"> </span></p>
<p><img fetchpriority="high" decoding="async" class=" wp-image-22423 aligncenter" src="https://delhofen.de/wp-content/uploads/2026/02/MSosmos.png" alt="" width="669" height="264" srcset="https://delhofen.de/wp-content/uploads/2026/02/MSosmos.png 601w, https://delhofen.de/wp-content/uploads/2026/02/MSosmos-300x118.png 300w" sizes="(max-width: 669px) 100vw, 669px" /></p>
<p><span data-contrast="auto">Microsoft investiert hier nicht in „bessere Dashboards&#8220;, sondern in die Automatisierung der teuersten und fehleranfälligsten Teile der Datenarbeit: Data Engineering  und Datenbetrieb. Genau hier tut es am meisten weh. Denn hier verbrennen heute Zeit, Budget und damit auch Nerven und Geld.</span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559685&quot;:0,&quot;335559737&quot;:0,&quot;335559738&quot;:240,&quot;335559739&quot;:240,&quot;335559740&quot;:279}"> </span></p>
<h2 aria-level="2"><b><span data-contrast="none">Daten kosten Geld, bevor sie Nutzen bringen</span></b><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335559738&quot;:299,&quot;335559739&quot;:299}"> </span></h2>
<p><span data-contrast="auto">Wenn wir ehrlich sind, kennen es alle Datenteams. Ein großer Teil der Arbeitszeit fließt nicht in Analyse oder Insights, sondern in Reparatur-Arbeiten von fehlerhaften Daten, kaputten Pipelines und Schemaänderungen.</span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;335559738&quot;:240,&quot;335559739&quot;:240}"> </span></p>
<p><span data-contrast="auto">Die Zahlen sind ernüchternd:</span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;335559738&quot;:240,&quot;335559739&quot;:240}"> </span></p>
<ul>
<li aria-setsize="-1" data-leveltext="" data-font="Symbol" data-listid="4" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" data-aria-posinset="1" data-aria-level="1"><span data-contrast="none">Lau</span><span data-contrast="none">t <a href="https://www.gartner.de/de">Gartner</a> kostet schlechte Datenqualität Unternehmen im Durchschnitt rund 12,9 Millionen US-Dollar pro Jahr.</span><span data-contrast="auto"> Das ist nur der Aufwand für Bereinigung, Korrektur und die Folgekosten fehlerhafter Entscheidungen.</span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;335559738&quot;:240,&quot;335559739&quot;:240}"> </span></li>
</ul>
<ul>
<li aria-setsize="-1" data-leveltext="" data-font="Symbol" data-listid="4" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" data-aria-posinset="2" data-aria-level="1"><span data-contrast="auto">Studien von MIT Sloan Management Review in Zusammenarbeit mit der Cork University Business School zeigen: </span><a href="https://integrate.io/blog/data-quality-improvement-stats-from-etl"><span data-contrast="none">Ineffiziente Datenprozesse können 15 bis 25 Prozent des Jahresumsatzes beeinträchtigen</span></a><span data-contrast="auto">.</span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;335559738&quot;:240,&quot;335559739&quot;:240}"> </span></li>
</ul>
<ul>
<li aria-setsize="-1" data-leveltext="" data-font="Symbol" data-listid="4" data-list-defn-props="{&quot;335552541&quot;:1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769226&quot;:&quot;Symbol&quot;,&quot;469769242&quot;:[8226],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" data-aria-posinset="3" data-aria-level="1"><span data-contrast="auto">Eine Umfrage von Monte Carlo Data unter mehr als 300 Datenexperten ergab, dass </span><a href="https://montecarlodata.com/blog-2022-data-quality-survey"><span data-contrast="none">Data Engineers durchschnittlich 40 Prozent ihrer Zeit mit der Bewertung und Überprüfung von Datenqualität verbringen</span></a><span data-contrast="auto">.</span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;335559738&quot;:240,&quot;335559739&quot;:240}"> </span></li>
</ul>
<p><span data-contrast="auto">Die Ursache ist selten fehlende BI-Kompetenz. Das Problem liegt in der Aufnahme, Harmonisierung und Stabilisierung externer Daten.</span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;335559738&quot;:240,&quot;335559739&quot;:240}"> </span></p>
<h2 aria-level="2"><b><span data-contrast="none">Was macht Osmos in Microsoft Fabric?</span></b><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;335559738&quot;:299,&quot;335559739&quot;:299}"> </span></h2>
<p><span data-contrast="auto">Osmos setzt nicht bei Visualisierung oder Analyse an, sondern schon im Datenprozess. Beim Data Engineering.</span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;335559738&quot;:240,&quot;335559739&quot;:240}"> </span></p>
<ol>
<li aria-setsize="-1" data-leveltext="%1." data-font="Aptos" data-listid="8" data-list-defn-props="{&quot;335552541&quot;:0,&quot;335559683&quot;:0,&quot;335559684&quot;:-1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769242&quot;:[65533,0,46],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;%1.&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" data-aria-posinset="1" data-aria-level="1"><span data-contrast="auto">Externe Datenquellen ändern sich. Osmos verarbeitet Daten unabhängig von wechselnden Formaten und Strukturen, ohne jedes Mal manuell nachzubauen.</span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;335559738&quot;:240,&quot;335559739&quot;:240}"> </span></li>
<li><span data-contrast="auto">Schemaänderungen sind einer der häufigsten Gründe für Pipeline-Ausfälle. Osmos erkennt diese Änderungen eigenständig und verarbeitet weiter.</span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;335559738&quot;:240,&quot;335559739&quot;:240}"> </span></li>
<li aria-setsize="-1" data-leveltext="%1." data-font="Aptos" data-listid="8" data-list-defn-props="{&quot;335552541&quot;:0,&quot;335559683&quot;:0,&quot;335559684&quot;:-1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769242&quot;:[65533,0,46],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;%1.&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" data-aria-posinset="3" data-aria-level="1"><span data-contrast="auto">Der entscheidende Unterschied zu vielen „AI-for-BI&#8220;-Ansätzen: KI wirkt während der Datenverarbeitung, nicht erst bei der Visualisierung. Osmos generiert PySpark-Notebooks inklusive Validierung, Logging und Versionskontrolle.</span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;335559738&quot;:240,&quot;335559739&quot;:240}"> </span></li>
</ol>
<p><span data-contrast="auto">Microsoft selbst berichtet von konkreten Ergebnissen: Laut Roy Hasson, Senior Director of Product bei Microsoft, konnten Kunden mit Osmos auf Fabric ihre Entwicklungs- und Wartungsaufwände um </span><a href="https://www.linkedin.com/posts/royhasson_microsoft-announces-acquisition-of-osmos-activity-7414019961091739648--Gkb?utm_source=share&amp;utm_medium=member_desktop&amp;rcm=ACoAABsNm84B9ECoHRLPIdxio3sTiyHm8FAVXxI"><span data-contrast="none">mehr als 50 Prozent reduzieren</span></a><span data-contrast="auto">.</span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;335559738&quot;:240,&quot;335559739&quot;:240}"> </span></p>
<p><span data-contrast="auto">Wichtig: Osmos läuft nicht „neben&#8220; Fabric. Die Technologie ist Teil des Fabric-Data-Engineering-Kerns.</span><span data-contrast="auto"> </span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559685&quot;:0,&quot;335559737&quot;:0,&quot;335559738&quot;:240,&quot;335559739&quot;:240,&quot;335559740&quot;:279}"> </span></p>
<h2 aria-level="2"><strong>Wie funktioniert Osmos heute? </strong></h2>
<p><span data-contrast="auto">Bisher bietet Osmos zwei Workloads in Microsoft Fabric:</span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559685&quot;:0,&quot;335559737&quot;:0,&quot;335559738&quot;:0,&quot;335559739&quot;:160,&quot;335559740&quot;:279}"> </span></p>
<ol>
<li aria-setsize="-1" data-leveltext="%1." data-font="" data-listid="7" data-list-defn-props="{&quot;335552541&quot;:0,&quot;335559683&quot;:0,&quot;335559684&quot;:-1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769242&quot;:[65533,0,46],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;%1.&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" data-aria-posinset="1" data-aria-level="1"><span data-contrast="auto">AI Data Engineer: Generiert kompletten Python Code für das Data Engineering. Das Besondere ist die Idee, mit allen Dokumenten und Beschreibungen vorzugeben, wie ein Quellsystem funktioniert. Aus einer Mischung von Web-Seiten und Dokumenten kann ich so fertigen Code für den Import von einem komplexen ERP- oder CRM-System generieren lassen.</span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559737&quot;:0,&quot;335559738&quot;:0,&quot;335559739&quot;:160,&quot;335559740&quot;:279}"> </span></li>
</ol>
<ol>
<li aria-setsize="-1" data-leveltext="%1." data-font="" data-listid="7" data-list-defn-props="{&quot;335552541&quot;:0,&quot;335559683&quot;:0,&quot;335559684&quot;:-1,&quot;335559685&quot;:720,&quot;335559991&quot;:360,&quot;469769242&quot;:[65533,0,46],&quot;469777803&quot;:&quot;left&quot;,&quot;469777804&quot;:&quot;%1.&quot;,&quot;469777815&quot;:&quot;hybridMultilevel&quot;}" data-aria-posinset="2" data-aria-level="1"><span data-contrast="auto">AI Data Wrangler: Mit Hilfe von KI werden verschiedene Dateien analysiert und ausgewertet. So ist es möglich viele verschiedene Dateiformate mitzugeben und analysieren zu lassen. Dies beinhaltet zum Beispiel auch PDF-Dokumente. Dieser Workload kann also unstrukturierte in strukturierte Daten umformen.</span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559737&quot;:0,&quot;335559738&quot;:0,&quot;335559739&quot;:160,&quot;335559740&quot;:279}"> </span></li>
</ol>
<p><img decoding="async" class="size-full wp-image-22422 aligncenter" src="https://delhofen.de/wp-content/uploads/2026/02/OsmosHeute.png" alt="Osmos in Microsoft Fabric" width="601" height="309" srcset="https://delhofen.de/wp-content/uploads/2026/02/OsmosHeute.png 601w, https://delhofen.de/wp-content/uploads/2026/02/OsmosHeute-300x154.png 300w" sizes="(max-width: 601px) 100vw, 601px" /></p>
<p><span data-contrast="auto">Diese beiden Workloads wurden in Microsoft Fabric bereits als Deprecated markiert und der bisherige Dienst von Osmos wird eingestellt. Microsoft ist aktuell dabei die Workloads von Osmos komplett in die eigene Umgebung einzubetten. Es ist davon auszugehen, dass die ein oder andere Überraschung für das Data Engineering auf uns zukommt und unsere Arbeit in Zukunft vereinfachen und beschleunigen wird.</span><b><span data-contrast="auto"> </span></b><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559737&quot;:0,&quot;335559738&quot;:0,&quot;335559739&quot;:160,&quot;335559740&quot;:279}"> </span></p>
<h2 aria-level="2"><b><span data-contrast="none">Die entscheidende Frage für dich</span></b><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;134245418&quot;:true,&quot;134245529&quot;:true,&quot;201341983&quot;:0,&quot;335551550&quot;:1,&quot;335551620&quot;:1,&quot;335559685&quot;:0,&quot;335559737&quot;:0,&quot;335559738&quot;:299,&quot;335559739&quot;:299,&quot;335559740&quot;:279}"> </span></h2>
<p><span data-contrast="auto">Wenn du heute dein Data-Engineering-Budget anschaust, fließt der Großteil wahrscheinlich in Betrieb, Wartung und Fehlerbehebung. Das ist keine Innovation. </span><span data-contrast="auto">Microsoft zeigt mit der Übernahme von Osmos, dass sich dieses Verhältnis umkehren soll.</span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;335559738&quot;:240,&quot;335559739&quot;:240}"> </span><span data-contrast="auto">Die eigentliche Frage lautet also: Welche Teile deiner Datenaufbereitung laufen heute noch manuell, obwohl sie eigentlich automatisch mitlaufen müssten?</span><span data-ccp-props="{&quot;134233117&quot;:false,&quot;134233118&quot;:false,&quot;335559738&quot;:240,&quot;335559739&quot;:240}"> </span></p>
<p>Der Beitrag <a href="https://delhofen.de/microsoft-osmos-uebernahme/">Microsoft Osmos-Übernahme</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://delhofen.de/microsoft-osmos-uebernahme/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Microsoft Fabric Git Integration – Git &#038; CI/CD für Fabric Workspaces – Ultimativer Guide</title>
		<link>https://delhofen.de/microsoft-fabric-git-integration-git-ci-cd-fuer-fabric-workspaces-ultimativer-guide/</link>
					<comments>https://delhofen.de/microsoft-fabric-git-integration-git-ci-cd-fuer-fabric-workspaces-ultimativer-guide/#respond</comments>
		
		<dc:creator><![CDATA[Emil Vincazovic]]></dc:creator>
		<pubDate>Mon, 09 Feb 2026 10:00:08 +0000</pubDate>
				<category><![CDATA[Azure]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[Data Engineering]]></category>
		<category><![CDATA[Microsoft Fabric]]></category>
		<category><![CDATA[Automated Deployment]]></category>
		<category><![CDATA[CI/CD]]></category>
		<category><![CDATA[Cloud Analytics]]></category>
		<category><![CDATA[Continuous Integration]]></category>
		<category><![CDATA[DevOps]]></category>
		<category><![CDATA[Git Integration]]></category>
		<category><![CDATA[Version Control]]></category>
		<category><![CDATA[Workspace Management]]></category>
		<guid isPermaLink="false">https://delhofen.de/?p=21647</guid>

					<description><![CDATA[<p>Git-Integration und CI/CD f&#252;r Fabric Workspaces: Der klare Leitfaden Warum dieses Thema gerade jetzt wichtig ist Hast du dich schon einmal gefragt, wie du &#196;nderungen in deinem Microsoft Fabric Workspace sauber versionieren kannst, ohne Angst, dass ein Fehler dein komplettes Projekt zerschie&#223;t? Oder wie du neue Features automatisiert in deine Produktionsumgebung &#252;bertr&#228;gst, ohne jede Datei...</p>
<p>Der Beitrag <a href="https://delhofen.de/microsoft-fabric-git-integration-git-ci-cd-fuer-fabric-workspaces-ultimativer-guide/">Microsoft Fabric Git Integration – Git &#038; CI/CD für Fabric Workspaces – Ultimativer Guide</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="arelium-article">
<h1 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 2.2rem; margin-bottom: 1.5rem; color: #242323; font-style: normal;">Git-Integration und CI/CD für Fabric Workspaces: Der klare Leitfaden</h1>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Warum dieses Thema gerade jetzt wichtig ist</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Hast du dich schon einmal gefragt, wie du Änderungen in deinem Microsoft Fabric Workspace sauber versionieren kannst, ohne Angst, dass ein Fehler dein komplettes Projekt zerschießt? Oder wie du neue Features automatisiert in deine Produktionsumgebung überträgst, ohne jede Datei mühsam von Hand zu kopieren?</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Genau hier kommt die Git-Integration ins Spiel. Zusammen mit einem guten CI/CD-Setup (Continuous Integration und Continuous Deployment) kannst du deine Fabric-Workspaces so organisieren, dass Änderungen nachvollziehbar, testbar und schnell ausrollbar sind. Das ist nicht nur ein Komfortgewinn, sondern spart langfristig Zeit und Nerven. Zusätzlich minimiert es das Risiko von Daten- oder Modellfehlern.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Allerdings ist das Thema für viele, die gerade erst mit Microsoft Fabric arbeiten, noch etwas abstrakt. Daher schauen wir uns Schritt für Schritt an, wie du Git einbindest, CI/CD einrichtest und dabei Best Practices einhältst.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Was macht die Git-Integration in Microsoft Fabric so besonders?</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Während viele Entwickler Git schon seit Jahren nutzen, war die Integration in Business-Intelligence-Tools und Data-Analytics-Plattformen lange Zeit eher rudimentär.</p>
<p>Microsoft Fabric geht hier einen Schritt weiter: Du kannst komplette Workspaces direkt mit einem Git-Repository verbinden. Inklusive aller Reports, Datasets, Dataflows und anderer Artefakte!</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Das bedeutet:</p>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;">Änderungen an Berichten und Modellen landen nicht nur lokal, sondern auch im Versionsverlauf.</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Du kannst problemlos zu älteren Ständen zurückspringen.</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Mehrere Teammitglieder können parallel arbeiten, ohne sich gegenseitig zu überschreiben.</li>
</ul>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Wie funktioniert das technisch?</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Im Grunde legt Fabric bei aktivierter Git-Integration eine Art &#8222;Spiegelung&#8220; deiner Artefakte im Repository an. Jedes Mal, wenn du speicherst, kannst du diese Änderungen committen und pushen. Entweder manuell oder automatisiert. Das Repository dient dann als zentraler Punkt für Zusammenarbeit und als Basis für CI/CD-Pipelines.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Voraussetzungen für Git-Integration in Fabric</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Bevor du loslegst, solltest du sicherstellen, dass folgende Punkte erfüllt sind:</p>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;">Fabric-Kapazität mit Git-Integration (nicht jede Lizenz hat den vollen Funktionsumfang)<br />
→ Mehr dazu findest du im <a style="text-align: justify; letter-spacing: 0em;" href="https://delhofen.de/microsoft-fabric/">Fabric Überblick</a><span style="text-align: justify; letter-spacing: 0em;">.</span></li>
</ul>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;">Git-Repository (idealerweise in Azure DevOps oder GitHub)<br />
→ Microsoft empfiehlt Azure DevOps, da die CI/CD-Integration hier besonders eng ist.</li>
</ul>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;">Berechtigungen<br />
→  du brauchst Zugriff auf das Repository und den Fabric-Workspace.</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Klare Projektstruktur<br />
→ bevor du Git aktivierst, solltest du überlegen, wie deine Dateien organisiert werden.</li>
</ul>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Tipps hierzu findest du auch in unserem Beitrag zur <a href="https://delhofen.de/data-governance-in-fabric/">Data Governance in Fabric</a>.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Schritt-für-Schritt: Git mit Fabric Workspaces verbinden</h2>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Schritt 1 – Verbindung zum Repository herstellen</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Im Workspace-Menü gibt es den Punkt Git-Integration. Hier trägst du die Repository-URL, den Branch (oft <code style="background-color: #f8f9fa; padding: 2px 6px; border-radius: 3px; font-family: 1Consolas\', \'Monaco\', monospace; border: 1px solid #e9ecef; font-size: 0.9em;">main</code> oder <code style="background-color: #f8f9fa; padding: 2px 6px; border-radius: 3px; font-family: 1Consolas\', \'Monaco\', monospace; border: 1px solid #e9ecef; font-size: 0.9em;">master</code>) und deine Authentifizierungsmethode ein.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Angenommen, du nutzt Azure DevOps, sieht die URL etwa so aus:</p>
<pre style="background-color: #f8f9fa; padding: 10px; border-radius: 5px; font-family: 'Consolas', 'Monaco', monospace; border: 1px solid #e9ecef; font-size: 0.9em;">https://dev.azure.com///_git/
</pre>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Nach dem Speichern synchronisiert Fabric die aktuellen Artefakte ins Repository. Der erste Commit umfasst sämtliche vorhandenen Inhalte – das kann je nach Größe etwas dauern.</p>
<h3 style="font-family: 'Lucida Sans Unicode', 'Lucida Grande', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Schritt 2 – Branch-Strategie definieren</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Ohne klare Branch-Strategie endet Zusammenarbeit oft im Chaos. Im BI-Kontext hat sich bewährt:</p>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;"><strong style="color: #2c3e50; font-weight: 600;">Main</strong>: Produktionsstand</li>
<li style="margin-bottom: 8px; line-height: 1.6;"><strong style="color: #2c3e50; font-weight: 600;">Develop</strong>: Aktive Entwicklungsphase</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Feature-Branches: Für einzelne Reports oder Modelländerungen</li>
</ul>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Dadurch kannst du Änderungen isoliert testen, bevor sie den Hauptstand erreichen. Das ist besonders wichtig, weil Fabric-Artefakte oft komplexe Abhängigkeiten haben.</p>
<h3 style="font-family: 'Lucida Sans Unicode', 'Lucida Grande', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Schritt 3 – CI/CD-Pipeline einrichten</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Hier kommt der spannende Teil: Mit der Git-Integration kannst du Änderungen aus dem Repository automatisiert in andere Fabric-Workspaces deployen, etwa von einer Entwicklungs- in eine Produktionsumgebung. Hier zu gibt es zwei Möglichkeiten:</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Zum einen haben wir die in Fabric fest implementierten Deployment-Pipelines. Diese sind per einfachem User Interface recht einfach zusammenzuklicken.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Zum anderen gibt es die Möglichkeit, das Ganze über Azure DevOps zu machen.</p>
<h4 style="font-family: 'Lucida Sans Unicode', 'Lucida Grande', sans-serif; font-size: 1.2rem; margin-bottom: 0.8rem; color: #242323; font-style: normal;">Beispiel mit Azure DevOps YAML-Pipeline:</h4>
<pre style="background-color: #f8f9fa; padding: 10px; border-radius: 5px; font-family: 'Consolas', 'Monaco', monospace; border: 1px solid #e9ecef; font-size: 0.9em;">trigger:
  branches:
    include:
      - main

pool:
  vmImage: 'ubuntu-latest'

steps:
  - task: PowerShell@2
    inputs:
      targetType: 'inline'
      script: |
        # Fabric CLI-Befehle (fiktiv, Beispiel)
        fabric login --token $(FabricToken)
        fabric deploy --workspaceId $(ProdWorkspaceId) --sourceRepo .
</pre>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Dieser einfache Pipeline-Job reagiert auf Änderungen im<br />
<code style="background-color: #f8f9fa; padding: 2px 6px; border-radius: 3px; font-family: 'Consolas', 'Monaco', monospace; border: 1px solid #e9ecef; font-size: 0.9em;">main</code>-Branch und führt ein Deployment in den Produktions-Workspace durch. In der Realität würdest du hier noch Tests, Validierungen und vielleicht sogar automatisierte Report-Checks einbauen.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Best Practices für Git und CI/CD in Fabric</h2>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">1. Kleine Commits statt großer &#8222;Monster-Updates&#8220;</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Damit Änderungen nachvollziehbar bleiben, solltest du lieber häufiger committen. Das erleichtert den Review-Prozess und macht Fehlerquellen sichtbar.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">2. Automatisierte Tests einbauen</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Bevor ein Deployment läuft, sollten Tests sicherstellen, dass Berichte und Modelle korrekt laden. Das kann im CI-Schritt geschehen, indem etwa Power BI Deployment Pipelines oder Fabric-eigene Validierungen genutzt werden.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">3. Sensible Daten schützen</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Falls dein Repository sensible Daten enthalten könnte, solltest du diese entweder entfernen oder mit Tools wie <a href="https://delhofen.de/microsoft-purview/">Microsoft Purview</a> klassifizieren und schützen.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">4. Deployment-Pfade klar definieren</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Gerade bei mehreren Workspaces ist es wichtig, genau zu wissen, welche Artefakte wohin gehen. Das spart Zeit und verhindert ungewollte Überschreibungen.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Verknüpfung mit anderen Fabric-Funktionen</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Die Git-Integration ist kein isoliertes Feature. Sie spielt perfekt mit anderen Fabric-Komponenten zusammen. Wenn du beispielsweise OneLake nutzt, kannst du deine Datenhaltung und Berichte gemeinsam versionieren. Mehr dazu im Beitrag <a href="https://delhofen.de/onelake-fuer-power-bi-desktop/">OneLake für Power BI Desktop</a>.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Auch bei Themen wie Security in Microsoft Fabric (<a href="https://delhofen.de/security-in-microsoft-fabric/">Link</a>) ist Git relevant, denn durch die Versionskontrolle dokumentierst du Änderungen an Berechtigungen und kannst sie im Zweifelsfall zurücksetzen.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Häufige Stolperfallen</h2>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;">Nicht synchronisierte Branches<br />
→ wenn du versehentlich im falschen Branch arbeitest, kann das zu Konflikten führen.</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Fehlende Berechtigungen<br />
→ gerade in größeren Teams ist es wichtig, dass jeder die nötigen Rechte hat.</li>
<li style="margin-bottom: 8px; line-height: 1.6;">CI/CD-Fehler durch fehlende Artefakte<br />
→ wenn ein Deployment scheitert, liegt das oft an fehlenden Abhängigkeiten.</li>
</ul>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Warum sich der Aufwand lohnt</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Git-Integration und CI/CD in Microsoft Fabric sind keine &#8222;Nice-to-have&#8220;-Features, sondern echte &#8222;Lebensretter&#8220;. Sie machen deine Arbeit planbarer, sicherer und skalierbarer. Zwar kostet die Einrichtung anfangs etwas Zeit, aber die langfristigen Vorteile sind enorm. Vor allem dann , wenn dein Team wächst oder Projekte komplexer werden.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Call-to-Action</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Wenn du Lust hast, deine Fabric-Workspaces mit Git und CI/CD aufzuwerten:</p>
<ol style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;">Richte ein Test-Repository ein.</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Verbinde es mit einem nicht-produktiven Workspace.</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Experimentiere mit einer einfachen Pipeline in Azure DevOps.</li>
</ol>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Du wirst schnell merken, wie viel entspannter die Arbeit wird und wie klar du den Überblick behältst.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Falls du tiefer einsteigen willst, empfehle ich dir unseren Artikel zu <a href="https://delhofen.de/medaillon-architektur-in-microsoft-fabric/">Medallion-Architektur in Microsoft Fabric</a> oder den Beitrag <a href="https://delhofen.de/das-aendert-sich-mit-microsoft-fabric/">Das ändert sich mit Microsoft Fabric</a>.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Und wenn du direkt loslegen möchtest: Schau in die <a href="https://learn.microsoft.com/de-de/fabric/" target="_blank" rel="noopener">Microsoft Docs zur Git-Integration in Fabric</a> oder in Community-Beiträge. Dort findest du viele Praxisbeispiele.</p>
</div>
<p>Der Beitrag <a href="https://delhofen.de/microsoft-fabric-git-integration-git-ci-cd-fuer-fabric-workspaces-ultimativer-guide/">Microsoft Fabric Git Integration – Git &#038; CI/CD für Fabric Workspaces – Ultimativer Guide</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://delhofen.de/microsoft-fabric-git-integration-git-ci-cd-fuer-fabric-workspaces-ultimativer-guide/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Infrastructure as Code mit Microsoft Fabric und Azure</title>
		<link>https://delhofen.de/infrastructure-as-code-mit-microsoft-fabric-und-azure/</link>
					<comments>https://delhofen.de/infrastructure-as-code-mit-microsoft-fabric-und-azure/#respond</comments>
		
		<dc:creator><![CDATA[Emil Vincazovic]]></dc:creator>
		<pubDate>Mon, 26 Jan 2026 10:00:40 +0000</pubDate>
				<category><![CDATA[Azure]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[Data Engineering]]></category>
		<category><![CDATA[Microsoft Fabric]]></category>
		<category><![CDATA[Azure Automation]]></category>
		<category><![CDATA[Azure Data Factory]]></category>
		<category><![CDATA[Cloud Deployment]]></category>
		<category><![CDATA[Cloud Governance]]></category>
		<category><![CDATA[Continuous Integration]]></category>
		<category><![CDATA[DevOps]]></category>
		<category><![CDATA[Infrastructure as Code]]></category>
		<category><![CDATA[Resource Provisioning]]></category>
		<guid isPermaLink="false">https://delhofen.de/?p=21645</guid>

					<description><![CDATA[<p>Infrastructure as Code f&#252;r Fabric + <a class="glossaryLink"  aria-describedby="tt"  data-cmtooltip="&#60;div class=glossaryItemTitle&#62;Azure&#60;/div&#62;&#60;div class=glossaryItemBody&#62;&#38;lt;section class=&#38;quot;l-section wpb_row height_small&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;l-section-h i-cf&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;g-cols vc_row via_grid cols_1 laptops-cols_inherit tablets-cols_inherit mobiles-cols_1 valign_top type_default stacking_default&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_column vc_column_container&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;vc_column-inner&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_text_column&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_wrapper&#38;quot;&#38;gt;Was ist Azure?&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-separator size_medium&#38;quot;&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-image align_center&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;w-image-h&#38;quot;&#38;gt;&#38;lt;img width=&#38;quot;1300&#38;quot; height=&#38;quot;400&#38;quot; src=&#38;quot;https://delhofen.de/wp-content/uploads/2024/01/Azure-2.png&#38;quot; class=&#38;quot;attachment-us_1300_400 size-us_1300_400&#38;quot; alt=&#38;quot;Azure&#38;quot; loading=&#38;quot;lazy&#38;quot; decoding=&#38;quot;async&#38;quot; srcset=&#38;quot;https://delhofen.de/wp-content/uploads/2024/01/Azure-2.png 1300w, https://delhofen.de/wp-content/uploads/2024/01/Azure-2-300x92.png 300w, https://delhofen.de/wp-content/uploads/2024/01/Azure-2-1024x315.png 1024w&#38;quot; sizes=&#38;quot;auto, (max-width: 1300px) 100vw, 1300px&#38;quot; /&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-separator size_medium&#38;quot;&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;wpb_text_column&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_wrapper&#38;quot;&#38;gt;Microsoft Azure ist eine Cloudplattform, die von Microsoft entwickelt wurde und eine breite Palette von Diensten bereitstellt, die(...)&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/section&#38;gt;&#60;/div&#62;"  href="https://delhofen.de/glossar/azure/"  target="_blank"  data-gt-translate-attributes='[{"attribute":"data-cmtooltip", "format":"html"}]'  tabindex='0' role='link'>Azure</a>: Was heute m&#246;glich ist und was nicht Hast du dich schon mal gefragt, ob du deine komplette Microsoft Fabric-Umgebung genauso automatisiert und reproduzierbar aufsetzen kannst wie eine klassische <a class="glossaryLink"  aria-describedby="tt"  data-cmtooltip="&#60;div class=glossaryItemTitle&#62;Azure&#60;/div&#62;&#60;div class=glossaryItemBody&#62;&#38;lt;section class=&#38;quot;l-section wpb_row height_small&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;l-section-h i-cf&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;g-cols vc_row via_grid cols_1 laptops-cols_inherit tablets-cols_inherit mobiles-cols_1 valign_top type_default stacking_default&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_column vc_column_container&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;vc_column-inner&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_text_column&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_wrapper&#38;quot;&#38;gt;Was ist Azure?&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-separator size_medium&#38;quot;&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-image align_center&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;w-image-h&#38;quot;&#38;gt;&#38;lt;img width=&#38;quot;1300&#38;quot; height=&#38;quot;400&#38;quot; src=&#38;quot;https://delhofen.de/wp-content/uploads/2024/01/Azure-2.png&#38;quot; class=&#38;quot;attachment-us_1300_400 size-us_1300_400&#38;quot; alt=&#38;quot;Azure&#38;quot; loading=&#38;quot;lazy&#38;quot; decoding=&#38;quot;async&#38;quot; srcset=&#38;quot;https://delhofen.de/wp-content/uploads/2024/01/Azure-2.png 1300w, https://delhofen.de/wp-content/uploads/2024/01/Azure-2-300x92.png 300w, https://delhofen.de/wp-content/uploads/2024/01/Azure-2-1024x315.png 1024w&#38;quot; sizes=&#38;quot;auto, (max-width: 1300px) 100vw, 1300px&#38;quot; /&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-separator size_medium&#38;quot;&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;wpb_text_column&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_wrapper&#38;quot;&#38;gt;Microsoft Azure ist eine Cloudplattform, die von Microsoft entwickelt wurde und eine breite Palette von Diensten bereitstellt, die(...)&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/section&#38;gt;&#60;/div&#62;"  href="https://delhofen.de/glossar/azure/"  target="_blank"  data-gt-translate-attributes='[{"attribute":"data-cmtooltip", "format":"html"}]'  tabindex='0' role='link'>Azure</a>-Infrastruktur? Also wirklich von Null auf, ohne ins Portal zu klicken, nur mit ein paar Zeilen Code? Das klingt verlockend,...</p>
<p>Der Beitrag <a href="https://delhofen.de/infrastructure-as-code-mit-microsoft-fabric-und-azure/">Infrastructure as Code mit Microsoft Fabric und Azure</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="arelium-article">
<h1 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 2.2rem; margin-bottom: 1.5rem; color: #242323; font-style: normal;">Infrastructure as Code für Fabric + Azure: Was heute möglich ist und was nicht</h1>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Hast du dich schon mal gefragt, ob du deine komplette Microsoft Fabric-Umgebung genauso automatisiert und reproduzierbar aufsetzen kannst wie eine klassische Azure-Infrastruktur? Also wirklich von Null auf, ohne ins Portal zu klicken, nur mit ein paar Zeilen Code? Das klingt verlockend, vor allem wenn du schon mit Infrastructure as Code (IaC) in Azure vertraut bist. Aber wie sieht das in der Praxis aus, wenn Fabric ins Spiel kommt? Genau darum geht’s in diesem Artikel: Wir schauen uns an, welche Möglichkeiten es aktuell gibt, wo noch Lücken sind und wie du trotzdem schon heute einen guten Teil deiner Fabric- und Azure-Umgebungen automatisieren kannst.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Microsoft Fabric und Azure: ein kurzer Überblick</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Bevor wir ins Detail gehen, lass uns kurz klarstellen, worüber wir sprechen.</p>
<p>Microsoft Fabric ist eine integrierte Data- und Analytics-Plattform, die Services wie Data Engineering, Data Science, Real-Time Analytics, Data Warehouse und natürlich Power BI in einer einheitlichen Umgebung bündelt.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Dank OneLake als zentralem Datenspeicher kannst du Daten aus verschiedensten Quellen zusammenführen. Falls du noch nicht so tief im Thema bist: Lies dir gerne unseren Überblick zu <a href="https://delhofen.de/onelake-fuer-power-bi-desktop/">OneLake für Power BI Desktop</a> durch. Dort bekommst du schnell ein Gefühl, wie der zentrale Speicher funktioniert.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Azure hingegen ist der Cloud-Baukasten von Microsoft. Hier findest du alles von virtuellen Maschinen über Datenbanken bis hin zu KI-Diensten. In Azure ist Infrastructure as Code schon lange etabliert. Mit Tools wie ARM Templates, Bicep oder Terraform kannst du Ressourcen definieren, versionieren und automatisiert bereitstellen.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Was bedeutet Infrastructure as Code (IaC) im Kontext von Fabric?</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">IaC heißt, dass du deine Infrastruktur nicht manuell über Klicks im Portal aufbaust, sondern sie als Code beschreibst. Das bringt gleich mehrere Vorteile: Du kannst Änderungen nachvollziehen, Umgebungen reproduzieren und Deployments automatisieren.</p>
<figure></figure>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">In Azure funktioniert das mit Bicep oder Terraform hervorragend, aber bei Fabric sieht es aktuell noch etwas anders aus. Fabric ist zwar technisch eng mit Azure verwoben, allerdings gibt es, Stand heute, keine vollständige API- oder Template-Abdeckung, um jeden Aspekt einer Fabric-Umgebung per Code zu erstellen.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Was heute schon möglich ist</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Lass uns positiv anfangen: Es gibt einige Bereiche, die du bereits automatisieren kannst – teilweise direkt über Azure-Mechanismen, teilweise über Workarounds.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">1. Kapazitäten und Workspaces in Fabric</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Über die Power BI REST API kannst du Workspaces anlegen, verwalten und Nutzerberechtigungen setzen. Da Fabric auf derselben Workspace-Logik wie Power BI aufsetzt, funktioniert dieser Weg auch hier. Mit einem Skript, das die REST API nutzt, kannst du z. B. automatisch ein Workspace-Gerüst für ein neues Projekt erstellen.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Kurzes Beispiel in PowerShell:</p>
<pre style="background-color: #f8f9fa; padding: 10px; border-radius: 5px; font-family: 'Consolas','Monaco', monospace; border: 1px solid #e9ecef; font-size: 0.9em;">$token = Get-PowerBIAccessToken

Invoke-RestMethod `
  -Uri "https://api.powerbi.com/v1.0/myorg/groups" `
  -Headers @{ Authorization = "Bearer $token" } `
  -Method Post `
  -Body @{ name = "Projekt_X_Fabric_Workspace" }
</pre>
<h3 style="font-family: 'Lucida Sans Unicode','Lucida Grande', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323;">2. Azure-Ressourcen für Fabric-Datenintegration</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Fabric nutzt im Hintergrund Azure-Ressourcen wie Data Lake Storage oder (je nach Szenario) Synapse-Elemente. Diese kannst du weiterhin per IaC in Azure bereitstellen. Ein Beispiel: Du kannst einen Azure Data Lake Storage Gen2 mit Bicep anlegen und ihn anschließend als Speicher im Fabric-Workspace konfigurieren.</p>
<pre style="background-color: #f8f9fa; padding: 10px; border-radius: 5px; font-family: 'Consolas','Monaco', monospace; border: 1px solid #e9ecef; font-size: 0.9em;">resource storageAccount 'Microsoft.Storage/storageAccounts@2022-09-01' = {
  name: 'fabricstorage${uniqueString(resourceGroup().id)}'
  location: resourceGroup().location
  kind: 'StorageV2'
  sku: {
    name: 'Standard_LRS'
  }
  properties: {
    isHnsEnabled: true
  }
}
</pre>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Mehr zu Speicheroptionen in Fabric findest du auch in unserem Artikel zu<br />
<a href="https://delhofen.de/speichermoeglichkeiten-in-fabric/">Speichermöglichkeiten in Fabric</a>.</p>
<h3 style="font-family: 'Lucida Sans Unicode','Lucida Grande', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323;">3. Data Pipelines und Dataflows</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Fabric Data Factory (vergleichbar mit Azure Data Factory) erlaubt es, Pipelines zu erstellen. Allerdings kannst du diese aktuell nicht vollständig per IaC aufsetzen. Es gibt aber Export/Import-Mechanismen. Du kannst eine Pipeline als JSON exportieren und dann über die API oder das Portal importieren. Das ist zwar nicht so elegant wie ein reines IaC-Deployment, aber immerhin reproduzierbar.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Was (noch) nicht möglich ist</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Hier kommen wir zum spannenden Teil, und vielleicht auch zu deinem größten Aha-Moment.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Fehlende API-Abdeckung</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Viele Fabric-spezifische Objekte wie Lakehouses, Warehouses oder Real-Time-Analytics-Knoten lassen sich derzeit nicht einfach per API oder Template erstellen. Zwar gibt es Ansätze über Microsoft Graph oder Power BI REST, doch die sind oft auf Metadaten beschränkt. Das heißt: Du kannst zwar sehen, welche Objekte existieren, aber nicht jedes davon per Code anlegen.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Komplettes „Greenfield“-Deployment</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Ein vollautomatisiertes Setup „von Null auf Fabric“ – also inklusive Kapazität, Workspaces, Datenobjekte, Pipelines und Sicherheitseinstellungen – ist Stand heute nicht möglich. Du wirst immer einen Teil manuell im Portal ergänzen müssen. Das ist ein klarer Unterschied zu Azure, wo du theoretisch eine komplette Umgebung mit einem einzigen Terraform-Apply hochziehen kannst.</p>
<h3 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.4rem; margin-bottom: 1rem; color: #242323; font-style: normal;">Sicherheit und Governance</h3>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Fabric bringt spannende Governance-Features, etwa über Microsoft Purview. Diese lassen sich über IaC nur eingeschränkt konfigurieren. Zwar kannst du Purview in Azure automatisieren (mehr dazu in unserem Beitrag <a href="https://delhofen.de/microsoft-purview/">Microsoft Purview – Data Governance</a>), aber die Anbindung an Fabric muss aktuell noch manuell erfolgen.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Workarounds und Best Practices</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Nur weil nicht alles geht, heißt das nicht, dass du auf Automatisierung verzichten musst. Hier ein paar Ideen, wie du heute schon effizient arbeiten kannst:</p>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;"><strong style="color: #2c3e50; font-weight: 600;">Hybrid-Ansatz</strong>: Automatisiere alles, was in Azure geht, und kombiniere das mit Skripten für Fabric-Workspaces.</li>
<li style="margin-bottom: 8px; line-height: 1.6;"><strong style="color: #2c3e50; font-weight: 600;">Template-Libraries</strong>: Halte deine Pipeline- und Dataflow-Definitionen als JSON-Versionen vor, um sie bei Bedarf schnell wieder einzuspielen.</li>
<li style="margin-bottom: 8px; line-height: 1.6;"><strong style="color: #2c3e50; font-weight: 600;">API-Wrapper</strong>: Nutze eigene Skripte, die REST-Calls bündeln, um wiederkehrende Aufgaben zu vereinfachen.</li>
<li style="margin-bottom: 8px; line-height: 1.6;"><strong style="color: #2c3e50; font-weight: 600;">Dokumentation als Code</strong>: Auch wenn du manuell klickst, dokumentiere jeden Schritt in Markdown – so kannst du ihn später leichter automatisieren, wenn die API verfügbar wird.26.</li>
</ul>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Ausblick: Was Microsoft in Zukunft liefern könnte</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Microsoft entwickelt Fabric rasant weiter. Daher ist es vermutlich nur eine Frage der Zeit, bis wir mehr API-Endpunkte und IaC-Unterstützung sehen. Gerade die Integration mit Azure DevOps oder GitHub Actions für CI/CD-Deployments wäre ein Gamechanger. Wenn dich das Thema DevOps interessiert, schau dir auch unseren Artikel <a href="https://delhofen.de/was-bedeutet-eigentlich-devops/">Was bedeutet eigentlich DevOps?</a> an.</p>
<figure></figure>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Schluss</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Unterm Strich lässt sich sagen: Mit Microsoft Fabric kannst du heute schon einen Teil deiner Infrastruktur per Code aufbauen. Vor allem in den Bereichen, in denen Fabric auf klassische Azure-Ressourcen setzt. Vollautomatisierte End-to-End-Deployments sind jedoch noch nicht drin, da APIs und Templates fehlen. Aber genau hier liegt die Chance: Wer jetzt anfängt, erste Automatisierungen aufzubauen, ist bereit, sobald Microsoft die fehlenden Puzzlestücke liefert.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Call-to-Action</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Wenn du direkt loslegen willst, schnapp dir ein paar Azure-Bicep-Templates und bau die Grundinfrastruktur für deine Fabric-Projekte. Experimentiere mit der Power BI REST API für Workspaces und teste den Import/Export von Pipelines. Schau auch in unseren Beitrag <a href="https://delhofen.de/security-in-microsoft-fabric/">Security in Microsoft Fabric</a> rein, um deine Deployments von Anfang an sicher zu gestalten.</p>
</div>
<p>Der Beitrag <a href="https://delhofen.de/infrastructure-as-code-mit-microsoft-fabric-und-azure/">Infrastructure as Code mit Microsoft Fabric und Azure</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://delhofen.de/infrastructure-as-code-mit-microsoft-fabric-und-azure/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Azure OpenAI Data Use Cases – Azure OpenAI: Top Use Cases für Data-Projekte</title>
		<link>https://delhofen.de/azure-openai-data-use-cases-azure-openai-top-use-cases-fuer-data-projekte/</link>
					<comments>https://delhofen.de/azure-openai-data-use-cases-azure-openai-top-use-cases-fuer-data-projekte/#respond</comments>
		
		<dc:creator><![CDATA[Emil Vincazovic]]></dc:creator>
		<pubDate>Mon, 12 Jan 2026 10:00:25 +0000</pubDate>
				<category><![CDATA[Azure]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Data Analytics]]></category>
		<category><![CDATA[Data Engineering]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Automatisierung]]></category>
		<category><![CDATA[Azure OpenAI]]></category>
		<category><![CDATA[Data Projekte]]></category>
		<category><![CDATA[Datenanalyse]]></category>
		<category><![CDATA[Datenqualität]]></category>
		<category><![CDATA[KI Use Cases]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<category><![CDATA[Microsoft Azure]]></category>
		<category><![CDATA[Natural Language Processing]]></category>
		<guid isPermaLink="false">https://delhofen.de/?p=21643</guid>

					<description><![CDATA[<p>Praktische Use Cases f&#252;r <a class="glossaryLink"  aria-describedby="tt"  data-cmtooltip="&#60;div class=glossaryItemTitle&#62;Azure&#60;/div&#62;&#60;div class=glossaryItemBody&#62;&#38;lt;section class=&#38;quot;l-section wpb_row height_small&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;l-section-h i-cf&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;g-cols vc_row via_grid cols_1 laptops-cols_inherit tablets-cols_inherit mobiles-cols_1 valign_top type_default stacking_default&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_column vc_column_container&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;vc_column-inner&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_text_column&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_wrapper&#38;quot;&#38;gt;Was ist Azure?&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-separator size_medium&#38;quot;&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-image align_center&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;w-image-h&#38;quot;&#38;gt;&#38;lt;img width=&#38;quot;1300&#38;quot; height=&#38;quot;400&#38;quot; src=&#38;quot;https://delhofen.de/wp-content/uploads/2024/01/Azure-2.png&#38;quot; class=&#38;quot;attachment-us_1300_400 size-us_1300_400&#38;quot; alt=&#38;quot;Azure&#38;quot; loading=&#38;quot;lazy&#38;quot; decoding=&#38;quot;async&#38;quot; srcset=&#38;quot;https://delhofen.de/wp-content/uploads/2024/01/Azure-2.png 1300w, https://delhofen.de/wp-content/uploads/2024/01/Azure-2-300x92.png 300w, https://delhofen.de/wp-content/uploads/2024/01/Azure-2-1024x315.png 1024w&#38;quot; sizes=&#38;quot;auto, (max-width: 1300px) 100vw, 1300px&#38;quot; /&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-separator size_medium&#38;quot;&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;wpb_text_column&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_wrapper&#38;quot;&#38;gt;Microsoft Azure ist eine Cloudplattform, die von Microsoft entwickelt wurde und eine breite Palette von Diensten bereitstellt, die(...)&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/section&#38;gt;&#60;/div&#62;"  href="https://delhofen.de/glossar/azure/"  target="_blank"  data-gt-translate-attributes='[{"attribute":"data-cmtooltip", "format":"html"}]'  tabindex='0' role='link'>Azure</a> OpenAI in Data-Projekten Warum KI in Data-Projekten gerade jetzt spannend ist Hast du schon einmal vor einem riesigen Datenberg gesessen und dich gefragt, wie du daraus schnell wirklich brauchbare Erkenntnisse ziehen kannst? Genau an diesem Punkt kommt <a class="glossaryLink"  aria-describedby="tt"  data-cmtooltip="&#60;div class=glossaryItemTitle&#62;Azure&#60;/div&#62;&#60;div class=glossaryItemBody&#62;&#38;lt;section class=&#38;quot;l-section wpb_row height_small&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;l-section-h i-cf&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;g-cols vc_row via_grid cols_1 laptops-cols_inherit tablets-cols_inherit mobiles-cols_1 valign_top type_default stacking_default&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_column vc_column_container&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;vc_column-inner&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_text_column&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_wrapper&#38;quot;&#38;gt;Was ist Azure?&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-separator size_medium&#38;quot;&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-image align_center&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;w-image-h&#38;quot;&#38;gt;&#38;lt;img width=&#38;quot;1300&#38;quot; height=&#38;quot;400&#38;quot; src=&#38;quot;https://delhofen.de/wp-content/uploads/2024/01/Azure-2.png&#38;quot; class=&#38;quot;attachment-us_1300_400 size-us_1300_400&#38;quot; alt=&#38;quot;Azure&#38;quot; loading=&#38;quot;lazy&#38;quot; decoding=&#38;quot;async&#38;quot; srcset=&#38;quot;https://delhofen.de/wp-content/uploads/2024/01/Azure-2.png 1300w, https://delhofen.de/wp-content/uploads/2024/01/Azure-2-300x92.png 300w, https://delhofen.de/wp-content/uploads/2024/01/Azure-2-1024x315.png 1024w&#38;quot; sizes=&#38;quot;auto, (max-width: 1300px) 100vw, 1300px&#38;quot; /&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-separator size_medium&#38;quot;&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;wpb_text_column&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_wrapper&#38;quot;&#38;gt;Microsoft Azure ist eine Cloudplattform, die von Microsoft entwickelt wurde und eine breite Palette von Diensten bereitstellt, die(...)&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/section&#38;gt;&#60;/div&#62;"  href="https://delhofen.de/glossar/azure/"  target="_blank"  data-gt-translate-attributes='[{"attribute":"data-cmtooltip", "format":"html"}]'  tabindex='0' role='link'>Azure</a> OpenAI ins Spiel. Denn w&#228;hrend klassische Data-Analytics-Tools dir Zahlen liefern, kann KI...</p>
<p>Der Beitrag <a href="https://delhofen.de/azure-openai-data-use-cases-azure-openai-top-use-cases-fuer-data-projekte/">Azure OpenAI Data Use Cases – Azure OpenAI: Top Use Cases für Data-Projekte</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="arelium-article">
<h1 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 2.2rem; margin-bottom: 1.5rem; color: #242323; font-style: normal;">Praktische Use Cases für Azure OpenAI in Data-Projekten</h1>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Warum KI in Data-Projekten gerade jetzt spannend ist</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Hast du schon einmal vor einem riesigen Datenberg gesessen und dich gefragt, wie du daraus schnell wirklich brauchbare Erkenntnisse ziehen kannst? Genau an diesem Punkt kommt Azure OpenAI ins Spiel. Denn während klassische Data-Analytics-Tools dir Zahlen liefern, kann KI diese Zahlen in echten Kontext setzen. Und zwar automatisch. Allerdings reicht es nicht, einfach ein Modell zu trainieren und es irgendwo laufen zu lassen. Vielmehr musst du dir überlegen, wie du Azure OpenAI konkret in deine Projekte einbindest, ohne dass es ein reines „Proof-of-Concept“ bleibt.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">In diesem Artikel schauen wir uns konkrete, praxisnahe Anwendungsfälle an, die du direkt in Projekte integrieren kannst. Dabei ist egal, ob du im Bereich Business Intelligence, Data Engineering oder Data Science unterwegs bist. Du wirst sehen, dass Azure OpenAI nicht nur für Chatbots taugt, sondern auch tief in Microsoft Fabric, Power BI oder Data-Governance-Prozesse eingreifen kann.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Was ist Azure OpenAI?</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Azure OpenAI ist der Azure-gehostete Zugang zu OpenAI-Modelle wie GPT-4, GPT-3.5 und DALL·E. Der Vorteil gegenüber der direkten Nutzung von OpenAI liegt nicht nur in der Integration in Azure Security und Compliance, sondern auch darin, dass du die Dienste direkt in deine bestehenden Azure-Services wie Azure Data Factory oder Microsoft Fabric einbinden kannst.</p>
<figure></figure>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Im Gegensatz zu reinem Machine Learning musst du dich oft nicht mit komplexem Modelltraining herumschlagen. Stattdessen kannst du vortrainierte Modelle per API ansprechen und sie mit deinen Daten füttern, sei es für Textanalyse, Codegenerierung oder Bilderzeugung.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Use Case 1: Automatisierte Datenbereinigung mit GPT</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Einer der größten Pain Points in Data-Projekten ist die Datenqualität. Du kannst zwar mit Tools wie Microsoft Fabric Dataflows oder Azure Data Factory (siehe <a href="https://delhofen.de/einleitung-in-die-mapping-data-flows-der-azure-data-factory/">Einleitung in die Mapping Data Flows der Azure Data Factory</a>) grundlegende Regeln anwenden, aber oft brauchst du komplexere Logik, um Freitextfelder zu säubern, Dubletten zu erkennen oder inkonsistente Formate zu korrigieren.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Mit Azure OpenAI kannst du beispielsweise eine Pipeline bauen, in der Rohdaten zunächst ins OneLake von Microsoft Fabric geladen werden, danach per API an GPT geschickt werden, um Formatierungen zu harmonisieren. Das kann so aussehen:</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Beispiel in Python:</p>
<pre style="background-color: #f8f9fa; padding: 12px; border-radius: 6px; border: 1px solid #e9ecef; font-size: 0.9em; font-family: Consolas, Monaco, monospace; overflow-x: auto; margin-bottom: 15px;"><code>
import openai
import os

openai.api_type = "azure"
openai.api_base = os.getenv("AZURE_OPENAI_ENDPOINT")
openai.api_version = "2023-05-15"
openai.api_key = os.getenv("AZURE_OPENAI_KEY")

response = openai.ChatCompletion.create(
    engine="gpt-4",
    messages=[
        {"role": "system", "content": "Bereinige die folgenden Kundendaten und formatiere sie einheitlich."},
        {"role": "user", "content": "Max Mustermann, Tel: +49 0172-123456, München; mustermann@example.com"}
    ]
)

print(response['choices'][0]['message']['content'])
</code></pre>
<figure></figure>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Dadurch kannst du nicht nur Tippfehler korrigieren, sondern auch semantische Harmonisierung erreichen. Dies ist etwas, das klassische ETL-Tools oft nicht oder nur erschwert leisten.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Use Case 2: Generierung von Business-Insights in Power BI</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Oft hast du in Power BI schon ein Dashboard, aber die Interpretation der Daten bleibt beim Anwender hängen. Warum nicht Azure OpenAI nutzen, um automatisch Textzusammenfassungen zu erzeugen, die direkt im Report erscheinen?</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Hier kommt die Integration mit Microsoft Fabric ins Spiel. Denn Fabric kann Datenmodelle bereitstellen, die du per REST-API an Azure OpenAI übergibst, um Natural Language Summaries zu generieren. Mehr dazu findest du im Beitrag <a href="https://delhofen.de/datamart-in-power-bi/">Datamart in Power BI</a>.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Beispiel: Ein Verkaufsdashboard zeigt Umsätze pro Region. GPT kann automatisch schreiben: „Im letzten Quartal erzielte die Region Süd einen Umsatzanstieg von 12 %, hauptsächlich getrieben durch das neue Produkt XY.“</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Das spart Zeit, erhöht die Akzeptanz bei nicht-technischen Nutzern und bringt echten Mehrwert.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Use Case 3: Data-Governance &amp; Klassifizierung</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Gerade bei sensiblen Daten ist es wichtig, Inhalte nach Compliance-Anforderungen zu klassifizieren. Azure OpenAI kann hier in Kombination mit Microsoft Purview (siehe <a href="https://delhofen.de/microsoft-purview/">Microsoft Purview</a>) eingesetzt werden, um Textinhalte oder Metadaten automatisch zu taggen.</p>
<figure></figure>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Du kannst beispielsweise E-Mail-Inhalte oder Vertragsdokumente durch GPT analysieren lassen, um zu bestimmen, ob personenbezogene Daten enthalten sind – und sie entsprechend zu kennzeichnen.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Use Case 4: Automatisierte Dokumentation von Pipelines</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Wer kennt es nicht: ETL-Prozesse sind fertig, aber die Dokumentation hinkt hinterher. Mit Azure OpenAI kannst du Code oder JSON-Definitionen deiner Data Factory bzw. Fabric Dataflows analysieren lassen und daraus automatisch technische Dokumentation erzeugen. Das spart Zeit und sorgt dafür, dass die Dokumentation immer aktuell bleibt.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Use Case 5: KI-gestützte Betrugserkennung</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">In Finanz- oder E-Commerce-Projekten kannst du Azure OpenAI nutzen, um Transaktionen semantisch zu bewerten. Zwar gibt es für Betrugserkennung klassische Machine-Learning-Ansätze (siehe <a href="https://delhofen.de/betrugserkennung-per-python-mit-ki/">Betrugserkennung per Python mit KI</a>), aber GPT kann zusätzlich Muster in Textkommentaren oder Kundenkommunikation erkennen, die auf verdächtige Aktivitäten hinweisen.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Integration in Microsoft Fabric und warum das besonders spannend ist</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Microsoft Fabric bringt mit OneLake eine zentrale Datenspeicherlösung, die perfekt zu Azure OpenAI passt. Du kannst Daten in OneLake ablegen, sie mit Fabric Data Engineering aufbereiten und dann direkt per API an GPT geben. Das bedeutet: Keine komplizierte Zwischenlagerung, keine doppelten Datenkopien.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Mehr dazu findest du im Artikel <a href="https://delhofen.de/was-unterscheidet-den-onelake/">Was unterscheidet den OneLake?</a> und <a href="https://delhofen.de/security-in-microsoft-fabric/">Security in Microsoft Fabric</a>.</p>
<figure></figure>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Was du mitnehmen solltest</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Azure OpenAI ist nicht nur ein „cooles Tool“, sondern kann echte Produktivitäts-Booster in Data-Projekten sein. Egal ob Datenbereinigung, Insight-Generierung, Governance oder Dokumentation: mit der richtigen Integration in Microsoft Fabric und Power BI kannst du Prozesse drastisch beschleunigen.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Call-to-Action</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Wenn dich das Thema gepackt hat, probiere doch einfach einen der beschriebenen Use Cases aus. Starte klein, z. B. mit einer automatisierten Datenbereinigung, und erweitere dann Schritt für Schritt. Falls du tiefer in Microsoft Fabric einsteigen willst, schau dir den Beitrag <a href="https://delhofen.de/das-aendert-sich-mit-microsoft-fabric/">Das ändert sich mit Microsoft Fabric</a> an oder unseren <a href="https://delhofen.de/onelake-fuer-power-bi-desktop/">Fabric-Onelake-Guide</a>.</p>
</div>
<p>Der Beitrag <a href="https://delhofen.de/azure-openai-data-use-cases-azure-openai-top-use-cases-fuer-data-projekte/">Azure OpenAI Data Use Cases – Azure OpenAI: Top Use Cases für Data-Projekte</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://delhofen.de/azure-openai-data-use-cases-azure-openai-top-use-cases-fuer-data-projekte/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Weihnachtsmanns Vorteile mit Microsoft Fabric entdecken</title>
		<link>https://delhofen.de/weihnachtsmanns-vorteile-mit-microsoft-fabric/</link>
					<comments>https://delhofen.de/weihnachtsmanns-vorteile-mit-microsoft-fabric/#respond</comments>
		
		<dc:creator><![CDATA[Thomas Sobizack]]></dc:creator>
		<pubDate>Wed, 17 Dec 2025 13:09:58 +0000</pubDate>
				<category><![CDATA[Azure]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Data Analytics]]></category>
		<category><![CDATA[Data Engineering]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Microsoft Fabric]]></category>
		<category><![CDATA[Cloud Computing]]></category>
		<category><![CDATA[Datenanalyse]]></category>
		<category><![CDATA[Datenintegration]]></category>
		<category><![CDATA[Digitale Transformation]]></category>
		<category><![CDATA[Forecasting]]></category>
		<category><![CDATA[Logistikoptimierung]]></category>
		<category><![CDATA[Nordpol]]></category>
		<category><![CDATA[Supply Chain Management]]></category>
		<category><![CDATA[Weihnachtsmann]]></category>
		<guid isPermaLink="false">https://delhofen.de/?p=21856</guid>

					<description><![CDATA[<p>Wie kann der Weihnachtsmann vom Umstieg auf Microsoft Fabric profitieren? Oder: Warum selbst am Nordpol Excel endlich in Rente darf &#160; Es ist wieder so weit. Am Nordpol herrscht Ausnahmezustand.Nicht wegen Schneesturm, nicht wegen Rentierstreik,sondern wegen Datenchaos. Alle Jahre wieder steht der Weihnachtsmann vor denselben Problemen: Milliarden Wunschzettel Millionen Kinder unz&#228;hlige Elfen und Excel-Dateien, die...</p>
<p>Der Beitrag <a href="https://delhofen.de/weihnachtsmanns-vorteile-mit-microsoft-fabric/">Weihnachtsmanns Vorteile mit Microsoft Fabric entdecken</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="arelium-article">
<h1 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 2.2rem; margin-bottom: 1.5rem; color: #242323; font-style: normal;">Wie kann der Weihnachtsmann vom Umstieg auf Microsoft Fabric profitieren?</h1>
<h3>Oder: Warum selbst am Nordpol Excel endlich in Rente darf</h3>
<p>&nbsp;</p>
</div>
<figure id="attachment_21859" aria-describedby="caption-attachment-21859" style="width: 403px" class="wp-caption alignright"><img decoding="async" class="wp-image-21859" src="https://delhofen.de/wp-content/uploads/2025/12/Weihnachtsmann-erkennt-di-eNotwendigkeit-von-Fabric-e1765890975119-282x300.png" alt="" width="403" height="429" srcset="https://delhofen.de/wp-content/uploads/2025/12/Weihnachtsmann-erkennt-di-eNotwendigkeit-von-Fabric-e1765890975119-282x300.png 282w, https://delhofen.de/wp-content/uploads/2025/12/Weihnachtsmann-erkennt-di-eNotwendigkeit-von-Fabric-e1765890975119-377x400.png 377w, https://delhofen.de/wp-content/uploads/2025/12/Weihnachtsmann-erkennt-di-eNotwendigkeit-von-Fabric-e1765890975119.png 467w" sizes="(max-width: 403px) 100vw, 403px" /><figcaption id="caption-attachment-21859" class="wp-caption-text">Es wird höchste Zeit am Nordpol auf Microsoft Fabric umzustellen!</figcaption></figure>
<p data-start="313" data-end="459">Es ist wieder so weit. <strong>Am Nordpol herrscht Ausnahmezustand.</strong><br data-start="372" data-end="375" />Nicht wegen Schneesturm, nicht wegen Rentierstreik,<br data-start="427" data-end="430" />sondern wegen <strong data-start="444" data-end="458">Datenchaos</strong>.</p>
<p data-start="461" data-end="528">Alle Jahre wieder steht der Weihnachtsmann vor denselben Problemen:</p>
<ul>
<li style="list-style-type: none;">
<ul>
<li>Milliarden Wunschzettel</li>
<li>Millionen Kinder</li>
<li>unzählige Elfen</li>
<li>und Excel-Dateien, die sich hartnäckig weigern, noch ein einziges Mal aufzugehen</li>
</ul>
</li>
</ul>
<p data-start="685" data-end="716">Spätestens wenn Rudolf fragt:</p>
<p data-start="685" data-end="716"><strong><span style="letter-spacing: 0em;">„Santa… warum hat der Schlitten schon wieder Verspätung?“</span></strong></p>
<p data-start="780" data-end="841">…weiß der Weihnachtsmann:   <strong data-start="808" data-end="841">So kann es nicht weitergehen.</strong></p>
<p><strong>Am Nordpol wird es Zeit für eine moderne Datenplattform wie Microsoft Fabric.</strong></p>
<h2></h2>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Wunschzettel-Chaos? Willkommen im echten Leben.</h2>
<div class="arelium-article">
<p data-start="981" data-end="1044">Wunschzettel erreichen den Nordpol über <em data-start="1021" data-end="1031">wirklich</em> alle Kanäle:</p>
<ul>
<li style="list-style-type: none;">
<ul data-start="1046" data-end="1286">
<li data-start="1046" data-end="1069">
<p data-start="1048" data-end="1069">klassisch per Brief</p>
</li>
<li data-start="1070" data-end="1121">
<p data-start="1072" data-end="1121">über die offizielle Wunschzettel-Empfangsstelle</p>
</li>
<li data-start="1122" data-end="1136">
<p data-start="1124" data-end="1136">per E-Mail</p>
</li>
<li data-start="1137" data-end="1172">
<p data-start="1139" data-end="1172">manchmal direkt durch den Kamin</p>
</li>
<li data-start="1173" data-end="1286">
<p data-start="1175" data-end="1286">und gelegentlich als WhatsApp-Sprachnachricht von Oma („Der Kleine hätte gern was <em data-start="1257" data-end="1281">pädagogisch Wertvolles</em>…“)</p>
</li>
</ul>
</li>
</ul>
<p data-start="1288" data-end="1301"><strong>Das Ergebnis?</strong></p>
<ul>
<li style="list-style-type: none;">
<ul data-start="1303" data-end="1490">
<li data-start="1303" data-end="1328">
<p data-start="1305" data-end="1328">unstrukturierte Daten</p>
</li>
<li data-start="1329" data-end="1350">
<p data-start="1331" data-end="1350">doppelte Einträge</p>
</li>
<li data-start="1351" data-end="1379">
<p data-start="1353" data-end="1379">widersprüchliche Wünsche</p>
</li>
<li data-start="1380" data-end="1490">
<p data-start="1382" data-end="1490">und <strong data-start="1386" data-end="1411">ein Elf namens Thomas</strong>, der heldenhaft versucht, alles in einer alten Access-Datenbank zu verwalten&#8230;.   <span style="letter-spacing: 0em;">Thomas ist müde. Sehr müde.</span><span style="letter-spacing: 0em;"></span></p>
</li>
</ul>
</li>
</ul>
<figure id="attachment_21861" aria-describedby="caption-attachment-21861" style="width: 410px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="wp-image-21861" src="https://delhofen.de/wp-content/uploads/2025/12/Wunschzelltannahme-beim-Weihnachtsmann-300x200.png" alt="" width="410" height="273" srcset="https://delhofen.de/wp-content/uploads/2025/12/Wunschzelltannahme-beim-Weihnachtsmann-300x200.png 300w, https://delhofen.de/wp-content/uploads/2025/12/Wunschzelltannahme-beim-Weihnachtsmann-1024x683.png 1024w, https://delhofen.de/wp-content/uploads/2025/12/Wunschzelltannahme-beim-Weihnachtsmann-600x400.png 600w, https://delhofen.de/wp-content/uploads/2025/12/Wunschzelltannahme-beim-Weihnachtsmann-1200x800.png 1200w, https://delhofen.de/wp-content/uploads/2025/12/Wunschzelltannahme-beim-Weihnachtsmann.png 1536w" sizes="auto, (max-width: 410px) 100vw, 410px" /><figcaption id="caption-attachment-21861" class="wp-caption-text">Datenchaos am Nordpol</figcaption></figure>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Elfen-Reporting in Echtzeit statt nächtlicher Panik-Läufe</h2>
<p data-start="1630" data-end="1641"><strong>Fragen wie:</strong></p>
<ul>
<li style="list-style-type: none;">
<ul>
<li data-start="1645" data-end="1697">„Wie v<strong>iele Puppen</strong> wurden letzte Nacht produziert?“</li>
<li data-start="1700" data-end="1747">„Warum <strong>fehlen</strong> plötzlich 12.000 <strong>PlayStations</strong>?“</li>
<li data-start="1750" data-end="1805">„Wer hat schon wieder die Socken-Fabrik übersteuert?“</li>
</ul>
</li>
</ul>
<p data-start="1807" data-end="1970">Ließen sich früher nur beantworten, nachdem nächtliche Batch-Läufe durch waren. Betrieben mit <strong data-start="1904" data-end="1969">SSIS-Paketen aus einer Zeit, als Rentiere noch Diesel tankten</strong>.</p>
<p data-start="1972" data-end="2077">Mit <strong data-start="1976" data-end="1996">Microsoft Fabric</strong>, <strong>Real-Time Analytics</strong> und <strong>Power BI</strong> sieht der Weihnachtsmann jetzt alles <strong data-start="2068" data-end="2076">live</strong>:</p>
<ul>
<li style="list-style-type: none;">
<ul>
<li style="list-style-type: none;">
<ul>
<li data-start="2081" data-end="2100">Produktionsstände</li>
<li data-start="2103" data-end="2113">Engpässe</li>
<li data-start="2116" data-end="2122">KPIs</li>
<li data-start="2125" data-end="2230">und welche Elfenschicht gerade Höchstleistung bringt oder im Homeoffice heimlich Glühwein trinkt.</li>
</ul>
</li>
</ul>
</li>
</ul>
<figure id="attachment_21862" aria-describedby="caption-attachment-21862" style="width: 360px" class="wp-caption aligncenter"><img loading="lazy" decoding="async" class="wp-image-21862" src="https://delhofen.de/wp-content/uploads/2025/12/Reporting-in-Echtzeit-dank-Microsoft-Fabric-e1765891612174-289x300.png" alt="" width="360" height="374" srcset="https://delhofen.de/wp-content/uploads/2025/12/Reporting-in-Echtzeit-dank-Microsoft-Fabric-e1765891612174-289x300.png 289w, https://delhofen.de/wp-content/uploads/2025/12/Reporting-in-Echtzeit-dank-Microsoft-Fabric-e1765891612174-385x400.png 385w, https://delhofen.de/wp-content/uploads/2025/12/Reporting-in-Echtzeit-dank-Microsoft-Fabric-e1765891612174.png 456w" sizes="auto, (max-width: 360px) 100vw, 360px" /><figcaption id="caption-attachment-21862" class="wp-caption-text">Optimiertes Reporting dank Micrsosoft Fabric</figcaption></figure>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Performance-Skalierung: Peak Load in der Weihnachtszeit</h2>
<p>Die Weihnachtsnacht ist der <strong>Super Bowl der Datenverarbeitung</strong>:</p>
<ul>
<li style="list-style-type: none;">
<ul>
<li><strong>weltweite Auslieferung,</strong></li>
<li><strong>24 Stunden Dauerbetrieb,</strong></li>
<li><strong>und null Fehlertoleranz.</strong></li>
</ul>
</li>
</ul>
<p>Eine klassische On-Premise-Lösung am Nordpol? Keine gute Idee – besonders, wenn die Server einfrieren.</p>
<p data-start="2573" data-end="2653"><strong data-start="2573" data-end="2593">Microsoft Fabric</strong> setzt hier auf eine cloudbasierte, skalierbare Architektur:</p>
<ul>
<li style="list-style-type: none;">
<ul data-start="2655" data-end="2805">
<li data-start="2655" data-end="2709">
<p data-start="2657" data-end="2709">Rechenleistung genau dann, wenn sie gebraucht wird</p>
</li>
<li data-start="2710" data-end="2758">
<p data-start="2712" data-end="2758">keine Wartungsfenster während der Bescherung</p>
</li>
<li data-start="2759" data-end="2805">
<p data-start="2761" data-end="2805">hohe Verfügbarkeit und stabile Performance</p>
</li>
</ul>
</li>
</ul>
<p data-start="2807" data-end="2864">Selbst bei Schneesturm.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">KI-gestützte Insights: Endlich weniger Socken</h2>
<p>Ein weiteres Highlight ist die Integration von <strong>Copilot in Microsoft Fabric</strong>. KI-gestützte Analysen helfen dem Weihnachtsmann dabei, Trends zu erkennen, umso die richtigen Entscheidungen treffen zu können.</p>
<p>Die Frage <strong>„Welche Geschenke machen Kinder dieses Jahr wirklich glücklich?“</strong> lässt sich datenbasiert beantworten.</p>
<p data-start="3203" data-end="3216"><strong>Das Ergebnis:</strong></p>
<figure id="attachment_21871" aria-describedby="caption-attachment-21871" style="width: 410px" class="wp-caption alignright"><img loading="lazy" decoding="async" class="wp-image-21871" src="https://delhofen.de/wp-content/uploads/2025/12/Generiertes-Bild-300x200.png" alt="" width="410" height="273" srcset="https://delhofen.de/wp-content/uploads/2025/12/Generiertes-Bild-300x200.png 300w, https://delhofen.de/wp-content/uploads/2025/12/Generiertes-Bild-1024x683.png 1024w, https://delhofen.de/wp-content/uploads/2025/12/Generiertes-Bild-600x400.png 600w, https://delhofen.de/wp-content/uploads/2025/12/Generiertes-Bild-1200x800.png 1200w, https://delhofen.de/wp-content/uploads/2025/12/Generiertes-Bild.png 1536w" sizes="auto, (max-width: 410px) 100vw, 410px" /><figcaption id="caption-attachment-21871" class="wp-caption-text">KI-gestützte Insights</figcaption></figure>
<ul>
<li style="list-style-type: none;">
<ul data-start="3218" data-end="3343">
<li data-start="3218" data-end="3236">
<p data-start="3220" data-end="3236">weniger Socken</p>
</li>
<li data-start="3237" data-end="3250">
<p data-start="3239" data-end="3250">mehr Lego</p>
</li>
<li data-start="3251" data-end="3343">
<p data-start="3253" data-end="3343">und bitte <strong data-start="3263" data-end="3294">kein weiteres Lernspielzeug</strong>.</p>
</li>
</ul>
</li>
</ul>
</div>
<h2></h2>
<h2></h2>
<h2></h2>
<p>&nbsp;</p>
<h2></h2>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Fazit: Microsoft Fabric &#8211; auch für Unternehmen (nicht nur mit Bart)</h2>
<figure id="attachment_21860" aria-describedby="caption-attachment-21860" style="width: 325px" class="wp-caption alignright"><img loading="lazy" decoding="async" class="wp-image-21860 " src="https://delhofen.de/wp-content/uploads/2025/12/comic_panel_5-e1765891292396-300x300.png" alt="" width="325" height="325" srcset="https://delhofen.de/wp-content/uploads/2025/12/comic_panel_5-e1765891292396-300x300.png 300w, https://delhofen.de/wp-content/uploads/2025/12/comic_panel_5-e1765891292396-150x150.png 150w, https://delhofen.de/wp-content/uploads/2025/12/comic_panel_5-e1765891292396-399x400.png 399w, https://delhofen.de/wp-content/uploads/2025/12/comic_panel_5-e1765891292396.png 489w" sizes="auto, (max-width: 325px) 100vw, 325px" /><figcaption id="caption-attachment-21860" class="wp-caption-text">Optimierte Geschenkeproduktion beim Weihnachtsmann &#8211; Dank Microsoft Fabric</figcaption></figure>
<p>Der Umstieg auf <strong>Microsoft Fabric</strong> bedeutet für den Weihnachtsmann und für Unternehmen jeder Größe, vor allem eines:</p>
<p>Weniger Komplexität bei gleichzeitig mehr Transparenz.</p>
<ul>
<li style="list-style-type: none;">
<ul>
<li><strong>zentrale Datenhaltung</strong>,</li>
<li><strong>Echtzeit-Analytics</strong>,</li>
<li><strong>flexible Cloud-Skalierung,</strong></li>
<li><strong>und KI-gestützte Insights</strong></li>
</ul>
</li>
</ul>
<p>machen Fabric zu einer zukunftssicheren Plattform für moderne Datenarchitekturen.</p>
<p>Oder wie der Weihnachtsmann selbst sagen würde:</p>
<p><strong>„Früher habe ich Geschenke verteilt. Heute verteile ich Insights.“</strong></p>
<p data-start="179" data-end="337">Dieses Jahr konnten wir dem Weihnachtsmann ganz offiziell unter die Arme greifen, nicht beim Schlittenziehen, sondern beim <strong data-start="305" data-end="336">Aufräumen seines Datenchaos</strong>.</p>
<p data-start="339" data-end="531">Gemeinsam haben wir Wunschzettel, Produktionszahlen und Rentier-KPIs in den Griff bekommen und dafür gesorgt, dass am Nordpol endlich wieder <strong data-start="480" data-end="520">klare Daten statt klarer Überstunden</strong> herrschen.</p>
<p data-start="533" data-end="674">So ist sichergestellt, dass am <strong data-start="564" data-end="582">Heiligen Abend</strong> alle Geschenke pünktlich ankommen – datengetrieben, skalierbar und ganz ohne Excel-Panik, dafür hat der Weihnachtsmann Vorteile mit Microsoft Fabric.</p>
<p data-start="533" data-end="674">In diesem Sinne wünschen wir euch <strong data-start="714" data-end="735">frohe Weihnachten</strong>, entspannte Feiertage und einen <strong data-start="775" data-end="821">guten Start in ein datenstarkes neues Jahr</strong>!</p>
<p data-start="824" data-end="850">Euer <strong data-start="829" data-end="845">arelium-Team</strong></p>
<p>Neugierig geworden? Dann steig, wie der Weihnachtsmann, auf <strong data-start="211" data-end="231">Microsoft Fabric</strong> um und sichere dir jetzt ein <a href="https://delhofen.de/kontakt/"><strong data-start="261" data-end="298">kostenloses Erstberatungsgespräch</strong></a> mit unseren Fabric-Experten.</p>
<p>Der Beitrag <a href="https://delhofen.de/weihnachtsmanns-vorteile-mit-microsoft-fabric/">Weihnachtsmanns Vorteile mit Microsoft Fabric entdecken</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://delhofen.de/weihnachtsmanns-vorteile-mit-microsoft-fabric/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Microsoft Fabric OneLake Integration: Data Engineering für BI Potenziale</title>
		<link>https://delhofen.de/microsoft-fabric-onelake-integration-data-engineering-fuer-bi-potenziale/</link>
					<comments>https://delhofen.de/microsoft-fabric-onelake-integration-data-engineering-fuer-bi-potenziale/#respond</comments>
		
		<dc:creator><![CDATA[Emil Vincazovic]]></dc:creator>
		<pubDate>Mon, 03 Nov 2025 10:00:15 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Business Intelligence]]></category>
		<category><![CDATA[Data Engineering]]></category>
		<category><![CDATA[Microsoft Fabric]]></category>
		<category><![CDATA[OneLake]]></category>
		<category><![CDATA[Analyse-Tools]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Cloud Data Platform]]></category>
		<category><![CDATA[Datenintegration]]></category>
		<category><![CDATA[Datenmanagement]]></category>
		<category><![CDATA[Power BI]]></category>
		<guid isPermaLink="false">https://delhofen.de/?p=21601</guid>

					<description><![CDATA[<p>Microsoft Fabric im Data Engineering f&#252;r <a class="glossaryLink" aria-describedby="tt" data-cmtooltip="&#60;div class=glossaryItemTitle&#62;Business Intelligence&#60;/div&#62;&#60;div class=glossaryItemBody&#62;&#38;lt;section class=&#38;quot;l-section wpb_row height_small&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;l-section-h i-cf&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;g-cols vc_row via_grid cols_1 laptops-cols_inherit tablets-cols_inherit mobiles-cols_1 valign_top type_default stacking_default&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_column vc_column_container&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;vc_column-inner&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_text_column&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_wrapper&#38;quot;&#38;gt;Was ist Business Intelligence?&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-separator size_medium&#38;quot;&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-image align_none&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;w-image-h&#38;quot;&#38;gt;&#38;lt;img width=&#38;quot;1300&#38;quot; height=&#38;quot;400&#38;quot; src=&#38;quot;https://delhofen.de/wp-content/uploads/2024/01/BI_Business-Intelligence-2.png&#38;quot; class=&#38;quot;attachment-us_1300_400 size-us_1300_400&#38;quot; alt=&#38;quot;BI_Business Intelligence/ BI&#38;quot; loading=&#38;quot;lazy&#38;quot; decoding=&#38;quot;async&#38;quot; srcset=&#38;quot;https://delhofen.de/wp-content/uploads/2024/01/BI_Business-Intelligence-2.png 1300w, https://delhofen.de/wp-content/uploads/2024/01/BI_Business-Intelligence-2-300x92.png 300w, https://delhofen.de/wp-content/uploads/2024/01/BI_Business-Intelligence-2-1024x315.png 1024w&#38;quot; sizes=&#38;quot;auto, (max-width: 1300px) 100vw, 1300px&#38;quot; /&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-separator size_medium&#38;quot;&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;wpb_text_column&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_wrapper&#38;quot;&#38;gt;Business Intelligence (BI) bezeichnet eine Sammlung von Technologien, Anwendungen, Prozessen und Praktiken, die(...)&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/section&#38;gt;&#60;/div&#62;" href="https://delhofen.de/glossar/business-intelligence/" target="_blank" data-gt-translate-attributes='[{"attribute":"data-cmtooltip", "format":"html"}]' tabindex="0" role="link">Business Intelligence</a> &#8211; So entfesseln Sie verborgene Potenziale Kennst du das auch? Du hast Unmengen an Daten aus verschiedensten Quellen, aber irgendwie fehlt das gro&#223;e Ganze. Du jonglierst zwischen Data Lakes, Data Warehouses und <a class="glossaryLink"  aria-describedby="tt"  data-cmtooltip="&#60;div class=glossaryItemTitle&#62;ETL&#60;/div&#62;&#60;div class=glossaryItemBody&#62;&#38;lt;section class=&#38;quot;l-section wpb_row height_small&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;l-section-h i-cf&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;g-cols vc_row via_grid cols_1 laptops-cols_inherit tablets-cols_inherit mobiles-cols_1 valign_top type_default stacking_default&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_column vc_column_container&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;vc_column-inner&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_text_column&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_wrapper&#38;quot;&#38;gt;Was bedeutet Extract/Transform/Load (ETL)?&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-separator size_medium&#38;quot;&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-image align_none&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;w-image-h&#38;quot;&#38;gt;&#38;lt;img width=&#38;quot;1300&#38;quot; height=&#38;quot;400&#38;quot; src=&#38;quot;https://delhofen.de/wp-content/uploads/2024/01/ETL-2.png&#38;quot; class=&#38;quot;attachment-us_1300_400 size-us_1300_400&#38;quot; alt=&#38;quot;ETL&#38;quot; loading=&#38;quot;lazy&#38;quot; decoding=&#38;quot;async&#38;quot; srcset=&#38;quot;https://delhofen.de/wp-content/uploads/2024/01/ETL-2.png 1300w, https://delhofen.de/wp-content/uploads/2024/01/ETL-2-300x92.png 300w, https://delhofen.de/wp-content/uploads/2024/01/ETL-2-1024x315.png 1024w&#38;quot; sizes=&#38;quot;auto, (max-width: 1300px) 100vw, 1300px&#38;quot; /&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-separator size_medium&#38;quot;&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;wpb_text_column&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_wrapper&#38;quot;&#38;gt;&#38;lt;strong&#38;gt;Definition&#38;lt;/strong&#38;gt;&#38;lt;span data-contrast=&#38;quot;auto&#38;quot;&#38;gt;&#38;lt;strong&#38;gt;Extract&#38;lt;/strong&#38;gt; &#38;lt;strong&#38;gt;Transform&#38;lt;/strong&#38;gt; &#38;lt;strong&#38;gt;Load&#38;lt;/strong&#38;gt; (ETL) bezieht sich auf den Prozess der Extraktion von Daten aus(...)&#38;lt;/span&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/section&#38;gt;&#60;/div&#62;"  href="https://delhofen.de/glossar/etl/"  target="_blank"  data-gt-translate-attributes='[{"attribute":"data-cmtooltip", "format":"html"}]'  tabindex='0' role='link'>ETL</a>-Prozessen, w&#228;hrend <a class="glossaryLink" aria-describedby="tt" data-cmtooltip="&#60;div class=glossaryItemTitle&#62;Business Intelligence&#60;/div&#62;&#60;div class=glossaryItemBody&#62;&#38;lt;section class=&#38;quot;l-section wpb_row height_small&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;l-section-h i-cf&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;g-cols vc_row via_grid cols_1 laptops-cols_inherit tablets-cols_inherit mobiles-cols_1 valign_top type_default stacking_default&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_column vc_column_container&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;vc_column-inner&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_text_column&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_wrapper&#38;quot;&#38;gt;Was ist Business Intelligence?&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-separator size_medium&#38;quot;&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-image align_none&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;w-image-h&#38;quot;&#38;gt;&#38;lt;img width=&#38;quot;1300&#38;quot; height=&#38;quot;400&#38;quot; src=&#38;quot;https://delhofen.de/wp-content/uploads/2024/01/BI_Business-Intelligence-2.png&#38;quot; class=&#38;quot;attachment-us_1300_400 size-us_1300_400&#38;quot; alt=&#38;quot;BI_Business Intelligence/ BI&#38;quot; loading=&#38;quot;lazy&#38;quot; decoding=&#38;quot;async&#38;quot; srcset=&#38;quot;https://delhofen.de/wp-content/uploads/2024/01/BI_Business-Intelligence-2.png 1300w, https://delhofen.de/wp-content/uploads/2024/01/BI_Business-Intelligence-2-300x92.png 300w, https://delhofen.de/wp-content/uploads/2024/01/BI_Business-Intelligence-2-1024x315.png 1024w&#38;quot; sizes=&#38;quot;auto, (max-width: 1300px) 100vw, 1300px&#38;quot; /&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;w-separator size_medium&#38;quot;&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;div class=&#38;quot;wpb_text_column&#38;quot;&#38;gt;&#38;lt;div class=&#38;quot;wpb_wrapper&#38;quot;&#38;gt;Business Intelligence (BI) bezeichnet eine Sammlung von Technologien, Anwendungen, Prozessen und Praktiken, die(...)&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/div&#38;gt;&#38;lt;/section&#38;gt;&#60;/div&#62;" href="https://delhofen.de/glossar/business-intelligence/" target="_blank" data-gt-translate-attributes='[{"attribute":"data-cmtooltip", "format":"html"}]' tabindex="0" role="link">Business Intelligence</a>-Anfragen immer schneller beantwortet werden sollen. Dabei w&#252;nschst du dir ein zentrales...</p>
<p>Der Beitrag <a href="https://delhofen.de/microsoft-fabric-onelake-integration-data-engineering-fuer-bi-potenziale/">Microsoft Fabric OneLake Integration: Data Engineering für BI Potenziale</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div class="arelium-article">
<h1 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 2.2rem; margin-bottom: 1.5rem; color: #242323; font-style: normal;">Microsoft Fabric im Data Engineering für Business Intelligence – So entfesseln Sie verborgene Potenziale</h1>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Kennst du das auch? Du hast Unmengen an Daten aus verschiedensten Quellen, aber irgendwie fehlt das große Ganze. Du jonglierst zwischen Data Lakes, Data Warehouses und ETL-Prozessen, während Business Intelligence-Anfragen immer schneller beantwortet werden sollen. Dabei wünschst du dir ein zentrales Werkzeug, das sowohl Data Engineering als auch BI nahtlos zusammenbringt. Genau hier setzt Microsoft Fabric an. Es entfaltet dabei in Verbindung mit OneLake ein enormes Potenzial.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Denn während klassische BI-Tools oft auf fertige Datenmodelle warten müssen, erlaubt Microsoft Fabric es dir, Rohdaten effizient zu transformieren, zu modellieren und direkt für Analysen bereitzustellen. Das ist nicht nur schneller, sondern auch flexibler. Damit ist es ein echter Gamechanger für datengetriebene Unternehmen.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Was ist Microsoft Fabric und warum spricht gerade jeder darüber?</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Microsoft Fabric ist im Kern eine integrierte Plattform, die Data Engineering, Data Science, Real-Time Analytics und Business Intelligence in einer einzigen Umgebung vereint. Das Besondere dabei ist, dass du nicht mehr zwischen verschiedenen Services wie Azure Synapse, Data Factory und Power BI wechseln musst. Stattdessen bietet Fabric eine gemeinsame Grundlage – den OneLake – als zentrales Speichersystem für alle Daten.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">OneLake funktioniert ähnlich wie ein klassischer Data Lake, ist jedoch tief mit den restlichen Fabric-Komponenten verzahnt. Das bedeutet, dass du Daten nur einmal speichern musst und sie danach in unterschiedlichen Workloads nutzen kannst, ohne unnötige Kopien zu erzeugen. Außerdem sorgt die Integration mit Direct Lake Mode dafür, dass Power BI-Reports direkt auf den im Lake gespeicherten Daten arbeiten können, ganz ohne zusätzliche Ladeprozesse.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Du fragst dich vielleicht, wie das im Alltag aussieht. Stell dir vor, du hast Sensordaten aus einer IoT-Umgebung, Verkaufszahlen aus einem ERP-System und Kundenfeedback aus sozialen Medien. Mit Microsoft Fabric kannst du all diese Datenquellen in OneLake zusammenführen, sie bspw. mithilfe der Data Factory transformieren und anschließend in einem Lakehouse oder Warehouse für BI-Analysen verfügbar machen.</p>
<figure></figure>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Die Rolle von Data Engineering in Microsoft Fabric</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Data Engineering ist die Grundlage für jede hochwertige BI-Lösung. Ohne solide Datenpipelines bringt dir das schönste Dashboard wenig. Mit Microsoft Fabric kannst du diese Pipelines direkt im integrierten Data Factory-Modul entwickeln. Dabei profitierst du von:</p>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;">Code-freien Dataflows, die du visuell zusammenstellst (ideal für schnelle Prototypen).</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Notebooks mit PySpark, SQL oder R, wenn du lieber programmatisch arbeitest.</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Automatisierter Datenintegration zwischen Cloud- und On-Premise-Systemen.</li>
</ul>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Ein Beispiel: Angenommen, du möchtest Verkaufsdaten aus verschiedenen Ländern vereinheitlichen. Du kannst in Fabric einen Pipeline-Schritt definieren, der alle Datensätze in ein einheitliches Währungsformat konvertiert, ein zweiter Schritt bereinigt fehlerhafte Einträge und ein dritter Schritt lädt die Daten ins Lakehouse. Von dort aus können Analysten sofort loslegen.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Einen praktischen Überblick über die Unterschiede zwischen Lakehouse und Warehouse findest du übrigens hier: <a href="https://delhofen.de/lakehouse-vs-warehouse/">Lakehouse vs. Warehouse</a>.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Business Intelligence mit Microsoft Fabric – mehr als nur Dashboards</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">BI lebt von schnellen, präzisen Erkenntnissen. Mit Microsoft Fabric wird dieser Prozess deutlich effizienter, weil du Daten nicht erst mühsam exportieren oder in ein separates BI-Tool laden musst. Stattdessen greift Power BI direkt auf OneLake zu. Das spart nicht nur Zeit, sondern reduziert auch die Gefahr von Dateninkonsistenzen.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Beispielsweise kannst du mit Dynamic Format Strings in Power BI (<a href="https://delhofen.de/dynamic-format-strings/">mehr dazu hier</a>) unterschiedliche Darstellungsformate je nach Kontext definieren. Das Ganze geht ohne komplizierte Workarounds. Das ist besonders hilfreich, wenn du internationale Berichte erstellst, die unterschiedliche Währungs-, Datums- oder Maßeinheiten verwenden.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">OneLake im Detail: der Motor hinter Microsoft Fabric</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Der OneLake ist so etwas wie das „OneDrive für Daten“. Alle Fabric-Workloads greifen auf diesen zentralen Speicher zu. Das bedeutet, dass du keine redundanten Datensilos mehr hast. Das ist nicht nur praktisch, sondern auch kosteneffizient, gerade wenn du große Datenmengen verarbeiten musst.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Ein wesentlicher Vorteil ist die Unterstützung des Delta-Formats, das sowohl schnelle Abfragen als auch inkrementelle Updates ermöglicht. Dank dieser Architektur kannst du auch historische Daten effizient speichern und analysieren.</p>
<figure></figure>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Falls dich interessiert, wie OneLake im Zusammenspiel mit Power BI funktioniert, schau dir diesen Beitrag an: <a href="https://delhofen.de/onelake-fuer-power-bi-desktop/">OneLake für Power BI Desktop</a>.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Beispiel-Pipeline – Vom Rohdatenimport bis zum Dashboard</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Lass uns das Ganze einmal konkret durchspielen:</p>
<p><strong style="color: #2c3e50; font-weight: 600;">1.Datenquelle anbinden</strong></p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Du verbindest ERP-Daten per SQL-Connector und IoT-Daten per Event Hub mit Fabric.</p>
<p><strong style="color: #2c3e50; font-weight: 600;">2. Transformation</strong></p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Mit der Fabric Data Factory werden die Daten bereinigt, normalisiert und ins Delta-Format konvertiert.</p>
<p><strong style="color: #2c3e50; font-weight: 600;">3. Speicherung in OneLake</strong></p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Alle transformierten Daten landen zentral im Lakehouse.</p>
<p><strong style="color: #2c3e50; font-weight: 600;">4. Visualisierung</strong></p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Power BI greift direkt im Direct Lake Mode auf das Lakehouse zu und erstellt interaktive Dashboards.</p>
<p><code style="background-color: #f8f9fa; padding: 2px 6px; border-radius: 3px; font-family: 1Consolas\', \'Monaco\', monospace; border: 1px solid #e9ecef; font-size: 0.9em;"></code></p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Sicherheit und Governance – unverzichtbar im Unternehmenskontext</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Natürlich bringt es wenig, wenn Daten schnell verfügbar sind, aber Sicherheits- oder Compliance-Anforderungen nicht erfüllt werden. Hier kommt die Integration mit Microsoft Purview ins Spiel. Purview übernimmt die Datenklassifizierung, Zugriffssteuerung und sorgt für lückenlose Audits.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Mehr Details zur Sicherheit in Fabric findest du hier: <a href="https://delhofen.de/security-in-microsoft-fabric/">Security in Microsoft Fabric</a>.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Warum Microsoft Fabric gerade für BI-Teams spannend ist</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Viele BI-Teams kämpfen mit fragmentierten Datenlandschaften. Mit Microsoft Fabric wird dieser Flickenteppich durch eine einheitliche Plattform ersetzt. Das bedeutet:</p>
<figure></figure>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;">Schnellere Time-to-Insight</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Weniger manuelle Datenvorbereitung</li>
<li style="margin-bottom: 8px; line-height: 1.6;">Bessere Zusammenarbeit zwischen Data Engineers und Analysten</li>
</ul>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Und ganz ehrlich: Wer möchte nicht lieber mit einer zentralen Lösung arbeiten, anstatt zwischen fünf Tools hin- und herzuspringen?</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Fazit? Zeit, die Potenziale zu entfesseln!</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Microsoft Fabric ist kein weiteres isoliertes Tool, sondern ein Ökosystem, das Data Engineering und Business Intelligence zusammenführt. Gerade die Kombination aus OneLake und Direct Lake Mode macht es möglich, Daten nahezu in Echtzeit zu analysieren, ohne Performance-Einbußen.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Wenn du bisher mit langen Ladezeiten, komplexen ETL-Prozessen oder inkonsistenten Daten gekämpft hast, solltest du Fabric unbedingt ausprobieren.</p>
<h2 style="font-family: 1Lucida Sans Unicode\', \'Lucida Grande\', sans-serif; font-size: 1.8rem; margin-bottom: 1.2rem; color: #242323; font-style: normal;">Starte sofort durch</h2>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Falls dich das Thema begeistert und du tiefer einsteigen möchtest, empfehle ich dir, direkt mit einer kleinen Testumgebung zu starten. Importiere eine deiner bestehenden Datenquellen in OneLake, baue eine einfache Pipeline in der Data Factory und visualisiere die Ergebnisse in Power BI. Du wirst überrascht sein, wie schnell du Ergebnisse siehst.</p>
<p style="margin-bottom: 15px; text-align: justify; line-height: 1.7;">Und wenn du mehr praxisnahe Tipps suchst, wir haben in unserem Blog eine Menge Inhalte rund um Fabric:</p>
<ul style="margin-bottom: 20px; padding-left: 30px;">
<li style="margin-bottom: 8px; line-height: 1.6;"><a href="https://delhofen.de/medaillon-architektur-in-microsoft-fabric/">Medallion-Architektur in Microsoft Fabric</a></li>
<li style="margin-bottom: 8px; line-height: 1.6;"><a href="https://delhofen.de/das-aendert-sich-mit-microsoft-fabric/">Das ändert sich mit Microsoft Fabric</a></li>
<li style="margin-bottom: 8px; line-height: 1.6;"><a href="https://delhofen.de/data-governance-in-fabric/">Data Governance in Fabric</a></li>
</ul>
</div>
<p>Der Beitrag <a href="https://delhofen.de/microsoft-fabric-onelake-integration-data-engineering-fuer-bi-potenziale/">Microsoft Fabric OneLake Integration: Data Engineering für BI Potenziale</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://delhofen.de/microsoft-fabric-onelake-integration-data-engineering-fuer-bi-potenziale/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Cloud-Datenbanken – Dein Guide zu den besten Optionen in Azure</title>
		<link>https://delhofen.de/cloud-datenbanken/</link>
		
		<dc:creator><![CDATA[Thomas Sobizack]]></dc:creator>
		<pubDate>Fri, 16 May 2025 09:47:17 +0000</pubDate>
				<category><![CDATA[Architektur]]></category>
		<category><![CDATA[Azure]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[Data Engineering]]></category>
		<category><![CDATA[Datenbank]]></category>
		<category><![CDATA[Business Intelligence]]></category>
		<guid isPermaLink="false">https://delhofen.de/?page_id=21012</guid>

					<description><![CDATA[<p>Der Beitrag <a href="https://delhofen.de/cloud-datenbanken/">Cloud-Datenbanken – Dein Guide zu den besten Optionen in Azure</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<section class="l-section wpb_row height_auto"><div class="l-section-h i-cf"><div class="g-cols vc_row via_grid cols_1 laptops-cols_inherit tablets-cols_inherit mobiles-cols_1 valign_top type_default stacking_default"><div class="wpb_column vc_column_container"><div class="vc_column-inner"><div class="wpb_text_column"><div class="wpb_wrapper"><figure id="attachment_21033" aria-describedby="caption-attachment-21033" style="width: 300px" class="wp-caption alignright"><img loading="lazy" decoding="async" class="size-medium wp-image-21033" src="https://delhofen.de/wp-content/uploads/2025/04/Azure-Datenbanken-300x300.jpg" alt="Azure-Datenbanken" width="300" height="300" srcset="https://delhofen.de/wp-content/uploads/2025/04/Azure-Datenbanken-300x300.jpg 300w, https://delhofen.de/wp-content/uploads/2025/04/Azure-Datenbanken-150x150.jpg 150w, https://delhofen.de/wp-content/uploads/2025/04/Azure-Datenbanken-400x400.jpg 400w, https://delhofen.de/wp-content/uploads/2025/04/Azure-Datenbanken-800x800.jpg 800w, https://delhofen.de/wp-content/uploads/2025/04/Azure-Datenbanken.jpg 1024w" sizes="auto, (max-width: 300px) 100vw, 300px" /><figcaption id="caption-attachment-21033" class="wp-caption-text">Azure-Datenbanken</figcaption></figure>
<p>In unserer schnelllebigen und mobilen Welt sind <strong>Cloud-Datenbanken</strong> das Herzstück moderner IT-Architekturen. Egal ob für Webanwendungen, Analysen, IoT- Szenarien oder unternehmenskritische Systeme – Microsoft bietet in seiner Cloud-Umgebung Azure eine breite Palette an Datenbankdiensten. Versprochen, hier findest du für jede Anforderung die perfekte Lösung!</p>
<p>In diesem Beitrag bekommst du einen Überblick über die wichtigsten Azure-Datenbanken, ihre Anwendungsfälle und Vorteile.</p>
</div></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3><strong>Azure SQL-Datenbank <span style="color: #ffffff;">(Cloud-Datenbanken)</span></strong></h3>
<p>Die <strong>Azure SQL-Datenbank</strong> ist Microsofts vollständig verwaltete relationale Cloud-Datenbank, die auf dem SQL Server basiert.<br data-start="296" data-end="299" />Sie eignet sich besonders für moderne Cloud-Anwendungen, die sowohl Zuverlässigkeit als auch Skalierbarkeit erfordern, und das bei minimalem Wartungsaufwand.<br data-start="468" data-end="471" />Zudem profitiert man von automatischem Performance-Tuning, regelmäßigen Sicherheitsupdates sowie integrierter Hochverfügbarkeit, wodurch sie ideal für Entwickler ist, die sich nicht mit der zugrunde liegenden Infrastruktur beschäftigen wollen.</p>
<h4><strong>Merkmale:</strong></h4>
<ul>
<li>Vollständig verwaltet (PaaS)</li>
<li>Automatische Backups</li>
<li>Nahezu unbegrenzte Skalierung</li>
<li>Hochverfügbarkeit</li>
<li>Verschiedene Bereitstellungsmodelle: Single Database, Elastic Pool, Hyperscale</li>
</ul>
<h4><strong>Einsatzszenarien:</strong></h4>
<ul>
<li>Webanwendungen</li>
<li>SaaS-Plattformen</li>
<li>Unternehmensdatenbanken mit kleinen bis hohen Anforderungen</li>
</ul>
</div></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3><strong>Azure Cosmos DB <span style="color: #ffffff;">Cloud-Datenbanken</span></strong></h3>
<p class="" data-start="122" data-end="728">Bei der <strong>Azure Cosmos DB</strong> handelt es sich um Microsofts hoch skalierbare, global verteilte <strong>NoSQL-Datenbank</strong>, die speziell für Anwendungen entwickelt wurde, die sowohl eine niedrige Latenz als auch eine hohe Verfügbarkeit erfordern. Weil sie verschiedene APIs wie MongoDB oder Cassandra unterstützt, lässt sie sich flexibel in bestehende Systeme integrieren, sodass Entwickler je nach Bedarf auf vertraute Technologien zurückgreifen können.<br data-start="584" data-end="587" />Zudem ermöglicht die weltweite Verteilung der Daten eine konsistente Nutzererfahrung – unabhängig davon, wo sich die Nutzer befinden.</p>
<h4><strong>Merkmale:</strong></h4>
<figure id="attachment_21149" aria-describedby="caption-attachment-21149" style="width: 300px" class="wp-caption alignright"><img loading="lazy" decoding="async" class="size-medium wp-image-21149" src="https://delhofen.de/wp-content/uploads/2025/05/Verschiedene-Azure-Datenbanken-300x300.jpg" alt="" width="300" height="300" srcset="https://delhofen.de/wp-content/uploads/2025/05/Verschiedene-Azure-Datenbanken-300x300.jpg 300w, https://delhofen.de/wp-content/uploads/2025/05/Verschiedene-Azure-Datenbanken-150x150.jpg 150w, https://delhofen.de/wp-content/uploads/2025/05/Verschiedene-Azure-Datenbanken-400x400.jpg 400w, https://delhofen.de/wp-content/uploads/2025/05/Verschiedene-Azure-Datenbanken-800x800.jpg 800w, https://delhofen.de/wp-content/uploads/2025/05/Verschiedene-Azure-Datenbanken.jpg 1024w" sizes="auto, (max-width: 300px) 100vw, 300px" /><figcaption id="caption-attachment-21149" class="wp-caption-text">Es gibt ganz viele Datenbank-Typen in Microsoft Azure!</figcaption></figure>
<ul>
<li>Unterstützung verschiedener APIs: SQL (DocumentDB), MongoDB, Cassandra, Gremlin, Table</li>
<li>Niedrige Latenz bei Lese- und Schreiboperationen</li>
<li>Globale Verteilung und Echtzeit-Replikation</li>
</ul>
<h4><strong>Einsatzszenarien:</strong></h4>
<ul>
<li>Globale Web- oder Mobilanwendungen</li>
<li>IoT-Anwendungen</li>
<li>E-Commerce und Echtzeitanalysen</li>
</ul>
<h3></h3>
</div></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3><strong>Azure-Datenbank für PostgreSQL</strong></h3>
<p>Die <strong>Azure-Datenbank für PostgreSQL</strong> bietet eine vollständig verwaltete PostgreSQL-Umgebung auf Azure, wodurch sie ideal für Standardanwendungen sowie für <strong>hochskalierende</strong> Datenverarbeitung ist. Da <strong>PostgreSQL</strong> ein beliebtes Open-Source-Datenbanksystem mit einer großen Community ist, profitieren Nutzer von kontinuierlicher Weiterentwicklung und einer umfangreichen Unterstützung durch die Community.</p>
<h4><strong>Merkmale:</strong></h4>
<ul>
<li>Open-Source</li>
<li>Hochverfügbarkeit mit Zonen-Redundanz</li>
<li>Skalierbare Leistung und Speicher</li>
<li>Unterstützung von Citus (massiv parallele Verteilung)</li>
</ul>
<h4><strong>Einsatzszenarien:</strong></h4>
<ul>
<li>Geodatenverarbeitung (GIS)</li>
<li>Analyse- und Reporting-Szenarien</li>
</ul>
<h3></h3>
</div></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3><strong>Azure-Datenbank für MySQL</strong></h3>
<figure id="attachment_21156" aria-describedby="caption-attachment-21156" style="width: 255px" class="wp-caption alignleft"><img loading="lazy" decoding="async" class=" wp-image-21156" src="https://delhofen.de/wp-content/uploads/2025/05/Komplexe-Datenbank-300x300.jpg" alt="" width="255" height="255" srcset="https://delhofen.de/wp-content/uploads/2025/05/Komplexe-Datenbank-300x300.jpg 300w, https://delhofen.de/wp-content/uploads/2025/05/Komplexe-Datenbank-150x150.jpg 150w, https://delhofen.de/wp-content/uploads/2025/05/Komplexe-Datenbank-400x400.jpg 400w, https://delhofen.de/wp-content/uploads/2025/05/Komplexe-Datenbank-800x800.jpg 800w, https://delhofen.de/wp-content/uploads/2025/05/Komplexe-Datenbank.jpg 1024w" sizes="auto, (max-width: 255px) 100vw, 255px" /><figcaption id="caption-attachment-21156" class="wp-caption-text">Microsoft Azure Datenbank</figcaption></figure>
<p>Auch für<strong> MySQL</strong> bietet <strong>Azure</strong> einen vollständig verwalteten Dienst, der sich insbesondere auf die Themen Einfachheit, Sicherheit und Skalierbarkeit fokussiert.</p>
<p><br data-start="286" data-end="289" />Da MySQL im <strong>Webbereich besonders beliebt</strong> ist – insbesondere, wenn es um CMS- und E-Commerce-Systeme geht – findet es in diesen Bereichen eine entsprechend intensive Anwendung.</p>
<p>Somit eignet sich der <strong>Azure-Dienst</strong> ideal für Entwickler, die eine vertraute Datenbanktechnologie mit den Vorteilen einer Cloud-Plattform kombinieren möchten.</p>
<h4></h4>
<h4><strong>Merkmale:</strong></h4>
<ul>
<li>Kompatibel mit MySQL 5.7 und 8.0</li>
<li>Skalierbarkeit und automatische Patches</li>
<li>Flexible Server-Architektur mit mehr Kontrolle</li>
</ul>
<h4><strong>Einsatzszenarien:</strong></h4>
<ul>
<li>WordPress-Hosting</li>
<li>Webanwendungen kleiner bis mittlerer Größe</li>
</ul>
</div></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3><strong>Azure-Datenbank für MariaDB (Hinweis: wird eingestellt)</strong></h3>
<p>Bei<strong> Azure MariaDB</strong> handelt es sich um ein <strong>Fork</strong> (eine &#8222;Kopie&#8220; die unabhängig vom Original weiterentwickelt wurde) von MySQL das jedoch mit zusätzlichen Features ausgestattet ist. <strong>Microsoft stellt MariaDB jedoch </strong><strong>schrittweise ein</strong>. Bestehende Nutzer sollten zur Azure-Datenbank für MySQL oder einer VM (Virtuelle Maschine) -basierten Lösung migrieren.</p>
<h4><strong>Merkmale:</strong></h4>
<ul>
<li>Basiert auf MySQL</li>
<li>Integrierte Skalierung und Backup-Funktionen</li>
<li>Unterstützung für bekannte Tools</li>
</ul>
<h4><strong>Einsatzszenarien:</strong></h4>
<ul>
<li>Bestehende MariaDB-Anwendungen</li>
<li>Kleinere relationale Workloads</li>
<li>Web-Apps mit Open-Source-Stack</li>
</ul>
<h3></h3>
</div></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3><strong>Azure Synapse Analytics <span style="color: #ffffff;">(Cloud-Datenbanken)</span></strong></h3>
<p><strong data-start="151" data-end="281">Azure Synapse Analytics </strong>ist ein cloudbasierter Dienst, der Datenintegration, Big Data-Analyse und Data Warehousing kombiniert, wodurch eine umfassende Plattform für datengetriebene Anwendungen entsteht.<br data-start="361" data-end="364" />Synapse ermöglicht es, schnell Erkenntnisse aus großen Datenmengen zu gewinnen, indem es leistungsstarke Tools wie <strong>SQL</strong>, <strong>Apache Spark</strong> sowie den <strong>Data Explorer</strong> bereitstellt. Darüber hinaus kannst du mit Azure Synapse Daten aus verschiedenen Quellen integrieren, transformieren und analysieren, sodass du fundierte Entscheidungen auf Basis konsistenter und aktueller Informationen treffen kannst. Weil alle Komponenten eng miteinander verknüpft sind, lässt sich der gesamte Datenfluss effizient steuern und automatisieren. Für einen tieferen Einblick in Synapse empfehle ich den Beitrag meines Kollegen Tobias Adler: <a href="https://delhofen.de/data-analytics-wiki/">Azure Synapse Analytics</a></p>
<h4><strong>Merkmale:</strong></h4>
<ul>
<li>T-SQL-basiertes MPP-Data Warehouse ( <strong data-start="18" data-end="51">Massively Parallel Processing)</strong></li>
<li>Integration mit Data Lake, Spark, Power BI</li>
<li>Serverless SQL und dedizierte Pools</li>
</ul>
<h4><strong>Einsatzszenarien:</strong></h4>
<ul>
<li>Datenanalyse</li>
<li>Echtzeitdatenintegration</li>
<li>Reporting und Business Intelligence</li>
</ul>
</div></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3><strong>Azure Data Explorer (Kusto) <span style="color: #ffffff;">Cloud-Datenbanken</span></strong></h3>
<p><strong>Azure Data Explorer (Kusto)</strong> ist eine leistungsstarke Datenanalyseplattform, die speziell für schnelle Abfragen auf großen Datensätzen entwickelt wurde.<br data-start="309" data-end="312" />Dabei nutzt die Plattform die <strong>Kusto Query Language (KQL)</strong> – eine Sprache, die nicht nur einfach zu erlernen, sondern auch sehr effizient ist (<strong><a href="https://delhofen.de/sql-vs-kql/">hier</a></strong> findest du einen Vergleich zwischen <strong>SQL</strong> und <strong>KQL</strong>). Mit dem <strong>Azure Data Explorer</strong> kannst du Daten in Echtzeit verarbeiten und diese analysieren, wodurch er sich besonders für das Monitoring, die Sicherheitsanalyse sowie die Analyse von Nutzerverhalten eignet.<br data-start="737" data-end="740" />Außerdem integriert sich die Plattform nahtlos in andere Azure-Dienste wie Event Hubs, IoT Hub und Azure Monitor, sodass umfassende End-to-End-Szenarien realisierbar sind.</p>
<h4><strong>Merkmale:</strong></h4>
<ul>
<li>Kusto Query Language für große Datensätze</li>
<li>Echtzeitverarbeitung</li>
<li>Schnelle Abfragen über strukturierte und semi-strukturierte Daten</li>
</ul>
<h4><strong>Einsatzszenarien:</strong></h4>
<ul>
<li>Anwendungsüberwachung (App Insights)</li>
<li>IoT-Telemetrie</li>
<li>Security- und Log-Analytik</li>
</ul>
</div></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3><strong>SQL Server auf Azure Virtual Machines</strong></h3>
<p>Wenn du vollständige Kontrolle über deine Datenbankumgebung brauchst, dann ist der SQL Server auf Azure Virtual Machines eine gute Wahl. Diese IaaS-Option bietet eine Umgebung, die deiner On-Premises-Struktur gleicht und unterstützt alle SQL Server-Features.</p>
<h4><strong>Merkmale:</strong></h4>
<ul>
<li>Vollständige Admin-Kontrolle über Betriebssystem und SQL Server</li>
<li>Unterstützung aller SQL Server-Versionen</li>
<li>Integration in Azure Backup, Monitor etc.</li>
</ul>
<h4><strong>Einsatzszenarien:</strong></h4>
<ul>
<li>Legacy-Anwendungen</li>
<li>Komplexe SQL Server-Features (SSRS, SSIS)</li>
<li>Hybrid-Cloud-Szenarien</li>
</ul>
</div></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><h3><strong>Fazit: Welche Azure-Datenbank passt zu mir?</strong></h3>
<figure id="attachment_21150" aria-describedby="caption-attachment-21150" style="width: 300px" class="wp-caption alignleft"><img loading="lazy" decoding="async" class="size-medium wp-image-21150" src="https://delhofen.de/wp-content/uploads/2025/05/Welche-Azure-Datenbank-soll-ich-nehmen-300x300.jpg" alt="" width="300" height="300" srcset="https://delhofen.de/wp-content/uploads/2025/05/Welche-Azure-Datenbank-soll-ich-nehmen-300x300.jpg 300w, https://delhofen.de/wp-content/uploads/2025/05/Welche-Azure-Datenbank-soll-ich-nehmen-150x150.jpg 150w, https://delhofen.de/wp-content/uploads/2025/05/Welche-Azure-Datenbank-soll-ich-nehmen-400x400.jpg 400w, https://delhofen.de/wp-content/uploads/2025/05/Welche-Azure-Datenbank-soll-ich-nehmen-800x800.jpg 800w, https://delhofen.de/wp-content/uploads/2025/05/Welche-Azure-Datenbank-soll-ich-nehmen.jpg 1024w" sizes="auto, (max-width: 300px) 100vw, 300px" /><figcaption id="caption-attachment-21150" class="wp-caption-text">Welche Azure Datenbank soll ich nehmen?</figcaption></figure>
<p>Die Auswahl der passenden Cloud-Datenbank hängt von verschiedenen Faktoren ab. Dazu zählen zum Beispiel die Art der Anwendung, das Datenvolumen und die benötigte Geschwindigkeit. Auch Anforderungen an Sicherheit, Skalierbarkeit und Wartungsaufwand spielen eine wichtige Rolle.</p>
<h4>Je nach Einsatzzweck bieten sich unterschiedliche Azure SQL-Datenbanklösungen an:</h4>
<table>
<thead>
<tr>
<td><strong>Anforderung</strong></td>
<td><strong>Empfehlung</strong></td>
</tr>
</thead>
<tbody>
<tr>
<td>Relationale Web-App</td>
<td>Azure SQL-Datenbank</td>
</tr>
<tr>
<td>Migration von SQL Server</td>
<td>SQL Managed Instance oder Azure VM</td>
</tr>
<tr>
<td>Globale NoSQL-Anwendung</td>
<td>Azure Cosmos DB</td>
</tr>
<tr>
<td>Open-Source Stack (PostgreSQL)</td>
<td>Azure-Datenbank für PostgreSQL</td>
</tr>
<tr>
<td>Analytische Workloads</td>
<td>Azure Synapse Analytics</td>
</tr>
<tr>
<td>Log- und Telemetriedaten</td>
<td>Azure Data Explorer</td>
</tr>
</tbody>
</table>
</div></div><div class="w-separator size_medium"></div><div class="w-separator size_medium"></div><div class="wpb_text_column"><div class="wpb_wrapper"><p>Ganz gleich, ob du eine Beratung brauchst oder bereits konkrete Anforderungen hast – nimm einfach <a href="https://delhofen.de/kontakt/">Kontakt</a> zu uns auf.</p>
<p>Wir von der <strong>arelium GmbH</strong> helfen dir gern.</p>
</div></div></div></div></div></div></section>
<p>Der Beitrag <a href="https://delhofen.de/cloud-datenbanken/">Cloud-Datenbanken – Dein Guide zu den besten Optionen in Azure</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Datengetriebenes Controlling</title>
		<link>https://delhofen.de/datengetriebenes-controlling/</link>
					<comments>https://delhofen.de/datengetriebenes-controlling/#respond</comments>
		
		<dc:creator><![CDATA[Martin Kopp]]></dc:creator>
		<pubDate>Thu, 13 Mar 2025 13:08:36 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Cloud]]></category>
		<category><![CDATA[Controlling]]></category>
		<category><![CDATA[Data Analytics]]></category>
		<category><![CDATA[Data Engineering]]></category>
		<category><![CDATA[Datengetrieben]]></category>
		<category><![CDATA[Microsoft Fabric]]></category>
		<guid isPermaLink="false">https://delhofen.de/?p=20810</guid>

					<description><![CDATA[<p>Datengetriebenes Controlling: Von der Zahlenflut zur fundierten Entscheidung So war das mal In meinem Studium der Wirtschaftsinformatik hatte ich den betriebswirtschaftlichen Schwerpunkt Controlling. Damals war der Lehrstuhl an der Uni K&#246;ln ganz neu. Heute kaum vorstellbar, dass es den nicht schon viel fr&#252;her gegeben hat. In meinem Studium standen Ans&#228;tze wie Shareholder Value im Vordergrund....</p>
<p>Der Beitrag <a href="https://delhofen.de/datengetriebenes-controlling/">Datengetriebenes Controlling</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<h2>Datengetriebenes Controlling: Von der Zahlenflut zur fundierten Entscheidung</h2>
<h3>So war das mal</h3>
<p>In meinem Studium der Wirtschaftsinformatik hatte ich den betriebswirtschaftlichen Schwerpunkt Controlling. Damals war der Lehrstuhl an der Uni Köln ganz neu. Heute kaum vorstellbar, dass es den nicht schon viel früher gegeben hat. In meinem Studium standen Ansätze wie <a href="https://en.wikipedia.org/wiki/Shareholder_value">Shareholder Value</a> im Vordergrund. Aber natürlich war die Interne Rechnungslegung auch ein großer Teil der Vorlesungen. Es gab aber auch schon sehr viele Kennzahlen, die für den Controller interessant waren: Return on Investment, Cash Flow, &#8230; oder <a href="https://en.wikipedia.org/wiki/Economic_value_added">Economic Value Added (EVA)</a>. Gerade der letzte Ansatz ist schon sehr mathematisch. Nicht kompliziert zu berechnen, aber doch mit einer Menge an Kennzahlen, die man berechnen kann. Fast alle Kennzahlen schauen dabei in die Vergangenheit. Wurden Budgets eingehalten, stimmt die Buchhaltung, haben wir Ziele erreicht etc.</p>
<h3>Und woher kommen die Zahlen?</h3>
<p>Ich habe mich damals schon gefragt, wo alle die Werte herkommen sollen, die in die Formeln einfließen. Später habe ich in der Praxis gelernt, dass es die Kennzahlen überall gibt, aber diese tatsächlich oft viel Arbeit mit sich bringen. Die Arbeit besteht dann meist aus Excel, Excel und noch ein wenig Data Warehouse mit Excel. Kann man so machen. Ist aber doch sehr fehleranfällig und ein echter Zeitfresser. Ein Blick in die Zukunft fällt da meist vollkommen herunter. Dabei ist doch gerade das so wichtig. Die Vergangenheit hilft mir nicht mehr. Ich will doch vorher schon steuernd eingreifen können.</p>
<p><img loading="lazy" decoding="async" class="wp-image-20816 alignright" src="https://delhofen.de/wp-content/uploads/2025/02/Datengetriebenes_Controlling_Personen.png" alt="" width="728" height="485" srcset="https://delhofen.de/wp-content/uploads/2025/02/Datengetriebenes_Controlling_Personen.png 1152w, https://delhofen.de/wp-content/uploads/2025/02/Datengetriebenes_Controlling_Personen-300x200.png 300w, https://delhofen.de/wp-content/uploads/2025/02/Datengetriebenes_Controlling_Personen-1024x683.png 1024w, https://delhofen.de/wp-content/uploads/2025/02/Datengetriebenes_Controlling_Personen-600x400.png 600w" sizes="auto, (max-width: 728px) 100vw, 728px" /></p>
<p>An meiner Vorgeschichte kannst du schon erkennen, wohin ein datengetriebenes Controlling gehen soll. Heute reicht es einfach nicht mehr, nur zu wissen, was letzte Woche oder letzten Monat passiert ist. Unternehmen erwarten, dass das Controlling Entwicklungen proaktiv erkennt, Zusammenhänge aufzeigt und konkrete Handlungsempfehlungen liefert. Kurz gesagt: Es geht nicht mehr nur um Berichte, sondern um Entscheidungen. Wie komme ich aber dahin?</p>
<h3>Von der Rückschau zur Steuerung in Echtzeit</h3>
<p>Die größte Veränderung im Controlling der letzten Jahre liegt in der Art und Weise, wie mit Daten gearbeitet wird. Statt einmal im Monat einen Report zu erstellen, geht es darum, laufend relevante Kennzahlen im Blick zu haben und die richtigen Maßnahmen frühzeitig einzuleiten. Das war schon immer die Idee vom Controlling. Nur kommt es meist nicht dazu, eben weil sich Controller mit Kennzahlen, der Aufbereitung und der Vergangenheit beschäftigen.</p>
<h3>Datengetriebenes Controlling</h3>
<p>Genau hier kommt das datengetriebene Controlling. Weniger manuelle Datenauswertung, mehr Automatisierung – Routinetätigkeiten werden reduziert, sodass mehr Zeit für Analysen bleibt. Von statischen Reports zu dynamischen Dashboards – anstatt lange Tabellen zu durchforsten, lassen sich Daten flexibel visualisieren. Bessere Vorhersagen statt reiner Vergangenheitsanalysen – Künstliche Intelligenz und Algorithmen helfen, Muster zu erkennen und Entwicklungen zu prognostizieren. Echtzeit-Informationen statt Monatsberichte. Am Ende können Unternehmen schneller auf Veränderungen reagieren. Das hört ich alles toll an und sollte jeden Unternehmer dazu bringen sich mit dem Thema zu beschäftigen. Nur die meisten tun sich schwer, datengetrieben zu arbeiten. Meist liegt es an den folgenden Hürden:</p>
<ul>
<li><strong>Datensilos und fragmentierte Systeme</strong><br />
Viele Unternehmen haben Daten in unterschiedlichen Systemen (ERP, CRM, Buchhaltung, Produktion, Lagerverwaltung). Diese Daten sind oft nicht miteinander verknüpft und erschweren eine ganzheitliche Analyse. Viele haben natürlich ein Data Warehouse, aber das ist oft nicht komplett oder übergreifend oder es fehlen einfach immer wieder wichtige Informationen.</li>
<li><strong>Mangelnde Datenqualität</strong><br />
Fehlerhafte oder unvollständige Daten führen zu falschen Analysen. Häufig fehlen klare Prozesse zur Datenpflege, was den Wert der Analysen mindert.</li>
<li><strong>Komplexe IT-Infrastrukturen</strong><br />
Viele Unternehmen nutzen gewachsene Systeme, die nicht flexibel genug sind, um moderne Analysemethoden zu unterstützen.</li>
<li><strong>Fehlendes Know-how und Akzeptanz im Unternehmen</strong><br />
Datengetriebenes Arbeiten erfordert neue Kompetenzen – sowohl im Controlling als auch in den Fachbereichen. Oft fehlt das Wissen, wie man Daten effizient nutzt, oder die Bereitschaft, neue Tools einzusetzen.</li>
</ul>
<h3>Microsoft Fabric als Lösungsansatz</h3>
<p>Natürlich kann ein Tool alleine hier keine Wunder wirken. Es kann aber sehr wohl dabei helfen. Du benötigst eine Plattform, die Daten aus verschiedenen Quellen zusammenführt, automatisiert verarbeitet und einfach analysierbar macht. Microsoft Fabric ist ein Lösungsansatz, der genau hier ansetzt.</p>
<p>Anders als klassische BI-Systeme vereint Fabric Datenintegration, Analyse, Automatisierung und KI-gestützte Prognosen in einer zentralen Umgebung. Und genau hier arbeitet es an den Hürden aus dem letzten Abschnitt.</p>
<p>Das bedeutet:</p>
<ul>
<li>Alle Daten an einem Ort: Verknüpfung von ERP, CRM, Buchhaltung, Supply Chain und weiteren Systemen.</li>
<li>Echtzeit-Dashboards mit Power BI: Controlling kann aktuelle Entwicklungen jederzeit verfolgen und gezielt analysieren.</li>
<li>Automatisierte Datenverarbeitung: Routineaufgaben wie die Zusammenführung und Bereinigung von Daten laufen automatisch.</li>
<li>KI-gestützte Prognosen: Statt nur rückblickend zu analysieren, lassen sich Wahrscheinlichkeiten und Entwicklungen berechnen.</li>
</ul>
<p>Mit einem datengetriebenen Ansatz kann dein Unternehmen:</p>
<ul>
<li>Daten aus Einkauf, Lager und Produktion in Echtzeit zusammenführen.</li>
<li>Preisentwicklungen analysieren und Muster erkennen.</li>
<li>Prognosen für zukünftige Kostensteigerungen erhalten.</li>
<li>Frühzeitig alternative Lieferanten oder Einsparpotenziale identifizieren.</li>
</ul>
<p>Durch den Einsatz von Fabric lassen sich diese Schritte automatisieren und visuell in Power BI-Dashboards darstellen, sodass die Unternehmenssteuerung nicht im Nachgang reagieren muss, sondern vorausschauend handeln kann.</p>
<p><img loading="lazy" decoding="async" class="wp-image-20812 alignright" src="https://delhofen.de/wp-content/uploads/2025/02/Datengetriebenes_Controlliing.png" alt="Datengetriebenes Controlling" width="493" height="493" srcset="https://delhofen.de/wp-content/uploads/2025/02/Datengetriebenes_Controlliing.png 1024w, https://delhofen.de/wp-content/uploads/2025/02/Datengetriebenes_Controlliing-300x300.png 300w, https://delhofen.de/wp-content/uploads/2025/02/Datengetriebenes_Controlliing-150x150.png 150w, https://delhofen.de/wp-content/uploads/2025/02/Datengetriebenes_Controlliing-400x400.png 400w, https://delhofen.de/wp-content/uploads/2025/02/Datengetriebenes_Controlliing-800x800.png 800w" sizes="auto, (max-width: 493px) 100vw, 493px" /></p>
<h3>Fazit oder warum datengetriebenes Controlling die Zukunft ist</h3>
<p>Datengetriebenes Controlling ist mehr als nur eine technische Veränderung – es bedeutet einen neuen Anspruch an die Steuerung von Unternehmen. Statt nur Zahlen aufzubereiten, geht es darum, Entscheidungen aktiv zu unterstützen.</p>
<p>Wer sich heute mit echtzeitfähigen, integrierten und KI-gestützten Lösungen auseinandersetzt, kann schneller auf Veränderungen reagieren und sich einen klaren Wettbewerbsvorteil verschaffen.</p>
<p>Der Wandel ist nicht immer einfach – aber die Frage ist nicht, ob datengetriebenes Controlling kommt, sondern wann Unternehmen sich darauf einstellen.</p>
<p>Um nochmal auf mein Studium zurückzukommen: So habe ich mir das damals vorgestellt. Die vielen blumigen Worte unseres Professors zum Controlling (&#8222;Der Steuermann im Wind&#8220; oder &#8222;Ohne Controller kein Neugeschäft&#8220;) ergeben mit datengetriebenem Controlling viel mehr Sinn. Ich wünschte mir das wäre schon damals ein großer Bestandteil vom Controlling gewesen und ich wäre vielleicht in dem Bereich geblieben und hätte nicht doch wieder in die IT gewechselt.</p>
<p>Der Beitrag <a href="https://delhofen.de/datengetriebenes-controlling/">Datengetriebenes Controlling</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://delhofen.de/datengetriebenes-controlling/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Semantisches Modell in Microsoft Fabric</title>
		<link>https://delhofen.de/semantisches-modell-in-fabric/</link>
					<comments>https://delhofen.de/semantisches-modell-in-fabric/#respond</comments>
		
		<dc:creator><![CDATA[Martin Kopp]]></dc:creator>
		<pubDate>Thu, 13 Feb 2025 10:54:39 +0000</pubDate>
				<category><![CDATA[Architektur]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Data Analytics]]></category>
		<category><![CDATA[Data Engineering]]></category>
		<category><![CDATA[Microsoft Fabric]]></category>
		<category><![CDATA[Semantisches Modell]]></category>
		<guid isPermaLink="false">https://delhofen.de/?p=20410</guid>

					<description><![CDATA[<p>Das Semantische Modell in Microsoft Fabric kommt immer wieder zur Sprache, wenn du dich mit Microsoft Fabric besch&#228;ftigst. Aber was ist das &#252;berhaupt? Ich bringe ein wenig Licht in die &#8222;dunkle semantische&#8220; Welt. Stell dir vor, du hast riesige Mengen an Daten, die aus verschiedenen Quellen kommen &#8211; aus verschiedenen Abteilungen, Systemen oder externen Datenquellen....</p>
<p>Der Beitrag <a href="https://delhofen.de/semantisches-modell-in-fabric/">Semantisches Modell in Microsoft Fabric</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></description>
										<content:encoded><![CDATA[<p>Das <a href="https://learn.microsoft.com/de-de/fabric/data-warehouse/semantic-models">Semantische Modell in Microsoft Fabric</a> kommt immer wieder zur Sprache, wenn du dich mit Microsoft Fabric beschäftigst. Aber was ist das überhaupt? Ich bringe ein wenig Licht in die &#8222;dunkle semantische&#8220; Welt.</p>
<p>Stell dir vor, du hast riesige Mengen an Daten, die aus verschiedenen Quellen kommen – aus verschiedenen Abteilungen, Systemen oder externen Datenquellen. Diese Daten liegen oft in verschiedenen Formaten vor, in verschiedenen Tabellen und Datenbanken, und es ist nicht immer klar, wie sie miteinander zusammenhängen.</p>
<p>In einem ersten Schritt solltest du die Daten in ein Stern-Schema überführen und das am Besten mit Hilfe der <a href="https://delhofen.de/medaillon-architektur-in-microsoft-fabric/">Medaillon-Architektur</a>.</p>
<p>Im Idealfall hast du dann deine Daten im Gold-Layer als Stern-Schema (oder als Snowflake) vorliegen. Genau an dieser Stelle setzt das semantische Modell an. Du kannst es dir wie ein intelligentes Schichtensystem vorstellen, das die Gold-Layer-Daten nimmt und sie in eine klare, strukturierte Form bringt, die für jeden verständlich ist.</p>
<h3>Wie funktioniert das?</h3>
<p>Ich erkläre es dir anhand einiger Sichtweisen:</p>
<ol>
<li><strong>Daten verstehen und strukturieren</strong>: Du hast vielleicht viele Daten, aber ohne Kontext weiß niemand, was sie wirklich bedeuten. In einem semantischen Modell definierst du Beziehungen zwischen den Daten. Zum Beispiel, wenn du Daten zu Kunden, Bestellungen und Produkten hast, sorgt das semantische Modell dafür, dass klar ist: Ein Kunde kann viele Bestellungen haben, und jede Bestellung kann mehrere Produkte enthalten. Das Modell macht also klar, wie sich die Daten zueinander verhalten. Hier sei nochmal erwähnt, dass du sie vorher am besten in ein Stern-Schema überführt hast.</li>
<li><strong>Komplexe Daten vereinfachen</strong>: Ohne ein semantisches Modell würdest du dich durch Dutzende von Tabellen kämpfen müssen, um zu verstehen, was zusammengehört. Mit dem semantischen Modell kannst du eine einheitliche Sicht auf die Daten bekommen. Es bündelt die Informationen, die du brauchst, und blendet das aus, was nicht relevant ist.</li>
<li><strong>Einheitliche Begriffe und Definitionen</strong>: Ein weiterer Vorteil ist, dass alle im Team die gleichen Begriffe und Definitionen verwenden. Es gibt keine Verwirrung mehr, weil jeder unterschiedliche Namen für dieselben Dinge verwendet. Du kannst zum Beispiel sagen, &#8222;Kunde&#8220; bedeutet immer &#8222;ein individueller Käufer&#8220;.</li>
<li><strong>Mehr Menschen können mit den Daten arbeiten</strong>: Ein semantisches Modell macht die Daten zugänglicher – nicht nur für die IT-Experten oder Datenwissenschaftler, sondern für jeden im Unternehmen. Das bedeutet, auch nicht-technische Benutzer können mit den Daten arbeiten und wertvolle Erkenntnisse gewinnen, ohne tief in der Technik oder den Datenstrukturen drin zu sein. Die Komplexität wird also herausgenommen, und jeder sieht nur das Wesentliche.</li>
<li><strong>Verbesserte Berichterstattung und Analysen</strong>: Wenn du mit einem klar strukturierten Modell arbeitest, wird es viel einfacher, Berichte und Dashboards zu erstellen. Die Daten sind nicht nur durcheinander, sondern du kannst sie so aufbereiten, dass jeder schnell die wichtigen Kennzahlen (KPIs) versteht und analysieren kann, ohne die Daten mehrfach prüfen zu müssen.</li>
</ol>
<h3>Ein Beispiel in Fabric</h3>
<p>In Microsoft Fabric habe ich einen Editor für das Semantische Modell. Einige werden die Sicht aus Power BI kennen. Ich habe hier ein Bild aus einem einfachen Modell eingefügt.</p>
<p><img loading="lazy" decoding="async" class="aligncenter wp-image-20412" src="https://delhofen.de/wp-content/uploads/2024/12/Beispiel_Semantisches_Modell.png" alt="Beispiel Semantisches Modell" width="976" height="706" srcset="https://delhofen.de/wp-content/uploads/2024/12/Beispiel_Semantisches_Modell.png 2175w, https://delhofen.de/wp-content/uploads/2024/12/Beispiel_Semantisches_Modell-300x217.png 300w, https://delhofen.de/wp-content/uploads/2024/12/Beispiel_Semantisches_Modell-1024x741.png 1024w, https://delhofen.de/wp-content/uploads/2024/12/Beispiel_Semantisches_Modell-553x400.png 553w" sizes="auto, (max-width: 976px) 100vw, 976px" /></p>
<p>In dem Beispiel ist gut das Stern-Schema zu erkennen. Die Faktentabelle in der Mitte und die zugehörigen Dimensionen drumherum. Hier kann ich (identisch zu Power BI) Attribute oder ganze Tabellen ausblenden. Mit Hilfe von DAX können Kennzahlen definiert werden und für alle Benutzer zur Verfügung gestellt werden.</p>
<p>Am Ende ist wichtig zu verstehen, dass Anwender oder Berichtsentwickler nur diese Sicht zur Verfügung gestellt bekommen. Damit können sie dann arbeiten. So habe ich die Möglichkeit Frontend und Backend und damit auch verschiedene Teams zu trennen. Das semantische Modell hilft mir dabei, die Daten in eine klar verständliche Sprache zu übersetzen, sodass alle Beteiligten im Unternehmen die richtigen Entscheidungen treffen können.</p>
<h3>Fazit &#8211; Semantisches Modell in Microsoft Fabric</h3>
<p>Ein Semantisches Modell in Microsoft Fabric hilft dir, Daten zu organisieren, zu verbinden und so aufzubereiten, dass jeder im Team damit arbeiten kann – ohne sich in den Details zu verlieren. Es sorgt für klare Beziehungen zwischen den Daten, eine einheitliche Sprache und einfachere Analysen. So wird das Arbeiten mit Daten nicht nur einfacher, sondern auch schneller und weniger fehleranfällig.</p>
<p>Ich werde in einem kommenden Blogartikel auch auf die Fähigkeit von Direct Lake im semantischen Modell eingehen. In einem anderen <a href="/direct-lake-power-bi-desktop/">Beitrag</a> habe ich bereits erwähnt, dass das inzwischen auch in Power BI Desktop geht. Ich finde aber der Direct Lake-Modus ist das absolute Killer-Feature in Microsoft Fabric und sollte daher nochmal explizit beschrieben werden.</p>
<p>Der Beitrag <a href="https://delhofen.de/semantisches-modell-in-fabric/">Semantisches Modell in Microsoft Fabric</a> erschien zuerst auf <a href="https://delhofen.de">arelium - Wir holen mehr aus deinen Daten</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://delhofen.de/semantisches-modell-in-fabric/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
