Im September steht das nächste Treffen der Datamonsters Karlsruhe an! Die geplanten Termine und Themen gibt's gesammelt hier auf der DataMonster Site.
Auch dieses Mal haben wir wieder 2 spannende Monster Sessions:
Carsten Oppitz zeigt in einer Demo den Einsatz von Fabric Real-Time Intelligence und Michael Riedmüller bringt Euch Lessons Learned beim Thema Deployment in Fabric näher. Dazwischen gibt es wie immer die Gelegenheit sich mit anderen Data Monstern bei Pizza & gekühlten Getränken auszutauschen. Wir treffen uns dieses Mal bei inovex, was ja manchen aus der Vergangenheit noch ein Begriff sein könnte. Für die mit dem Auto anreisenden Teilnehmer übernimmt inovex die Parkgebühren.
Organisatorisches
Bitte meldet euch vorab über Meetup an, da die Teilnehmerzahl begrenzt ist.
Wir starten um 18 Uhr mit dem Event, die Vorträge dauern beide ungefähr eine Stunde +/-.
Wir freuen uns auf einen interessanten Abend und natürlich darauf, viele von euch wiederzusehen!
Stefan Kirner / Michael Riedmüller
Im Vortrag soll die Leistungsfähigkeit von Microsoft Fabric Real-Time Intelligence (RTI) präsentiert werden.
In dieser Session wird gezeigt, wie man mit Fabric RTI Daten aus verschiedenen Quellen nahtlos aufnehmen, analysieren und in Echtzeit in Business-Entscheidungen umsetzen kann. Man sieht, wie sich die Tools nahtlos integrieren, um komplexe Datenpipelines zu vereinfachen.
Was Sie in dieser Demo erwartet:
Diese Demo richtet sich an alle, die Echtzeit-Einblicke aus ihren Daten gewinnen und die Potenziale von Fabric voll ausschöpfen möchten.
Carsten ist seit 9 Jahren als Data Engineer in der Azure Cloud tätig. Er verfügt über umfassende Erfahrung mit Tools wie Azure Data Factory, Azure Synapse und Power BI. In seinen Projekten legt er großen Wert auf Continuous Integration und Continuous Deployment (CI/CD) von Infrastruktur, wobei er DevOps-Pipelines nutzt. Zudem entwickelt er mit seinen Kollegen APIs (Azure WebApps), die Daten für Drittanbieter bereitstellen.
Microsoft Fabric ermöglicht Nutzern, die bisher mit Tools wie Excel oder Power BI gearbeitet haben, einen einfachen Einstieg in die Welt der Cloud-Datenverarbeitung. Viele dieser Anwender sind jedoch mit den Konzepten von CI/CD und Deployment-Pipelines in Umgebungen wie Azure DevOps oder GitHub nicht vertraut. Stattdessen nutzen sie die integrierten Deployment Pipelines, um ihre entwickelten Artefakte von einem Entwicklungs- in einen Test- oder Produktions-Arbeitsbereich zu überführen.
Während die offizielle Dokumentation diesen Prozess oft als unkompliziert darstellt, sehen sich Anwender in der Praxis mit verschiedenen Herausforderungen konfrontiert. Dieser Vortrag beleuchtet genau diese Hürden und zeigt praxiserprobte Lösungen auf. Es wird demonstriert, wie du bereits in der Entwicklungsphase die Weichen richtig stellen kannst, um das spätere Deployment zu vereinfachen, und wie die korrekte Reihenfolge der Schritte Probleme von vornherein vermeidet.
Wir behandeln im Live-Demo-Modus die spezifischen Anforderungen beim Transfer verschiedener Fabric-Artefakte wie Lakehouses, Warehouses, Pipelines, Dataflows, Notebooks, semantische Modelle und Reports, um einen reibungslosen Deployment-Prozess zu gewährleisten.
Michael arbeitet seit mehr als 20 Jahren in Projekten im Umfeld von Microsoft Produkten.
Aktuell ist sein Schwerpunkt eher in Richtung Data Engineering, Power BI oder auch Fabric gewandert.
Ludwig-Erhard-Allee 6
76131 Karlsruhe
Mo | Di | Mi | Do | Fr | Sa | So |
---|---|---|---|---|---|---|
28
|
29
|
30
|
31
|
1
|
2
|
3
|
|
|
|
|
|
|
|
4
|
5
|
6
|
7
|
8
|
9
|
10
|
|
|
|
|
|
|
|
11
|
12
|
13
|
14
|
15
|
16
|
17
|
|
|
|
|
|
|
|
18
|
19
|
20
|
21
|
22
|
23
|
24
|
|
|
|
|
|
|
|
25
|
26
|
27
|
28
|
29
|
30
|
31
|
|
|
|
|
|
|
|