adesso BLOG
18.11.2024 von Wolfgang Weber und Christian Blank
Die Transformation vom Gas- zum Wasserstoffnetz
Der Weg zur vollständigen Dekarbonisierung wird auch die Gasnetzbetreiber massiv betreffen: Teile der Infrastruktur werden voraussichtlich langfristig nicht mehr benötigt, andere Teile müssen für den Betrieb mit Wasserstoff ertüchtigt werden. In diesem Blog-Beitrag skizzieren wir ein Vorgehen, um die Umstellung auf Wasserstoff gut vorzubereiten. Die dafür notwendigen Daten können auch anderweitig genutzt werden.
weiterlesen11.10.2024 von Marco Becker und Ivan Butron Sossa
Fakten statt Bauchgefühl: Mit Process Mining in jeder Branche datenbasiert Prozesse verstehen und optimieren
In einer Zeit, in der Effizienz und schnelle Anpassungsfähigkeit entscheidend sind, bietet Process Mining einen erheblichen Mehrwert: Es ermöglicht Unternehmen, ihre Geschäftsprozesse datengetrieben zu optimieren. In diesem Blog-Beitrag erklären wir genauer, wie Process Mining helfen kann - und zwar in praktisch jeder Implementierung und unabhängig von Branche oder Prozess.
weiterlesen07.08.2024 von Siver Rajab
Der Umstieg von PostgreSQL zu Databricks: Wann ist es sinnvoll?
In der modernen Datenverarbeitung stehen Unternehmen vor der Herausforderung, die richtige Datenbanktechnologie für ihre spezifischen Anforderungen zu wählen. PostgreSQL und Databricks sind zwei weit verbreitete Lösungen, die jeweils ihre eigenen Stärken haben. In diesem Blog-Beitrag werde ich die Unterschiede zwischen PostgreSQL und Databricks herausarbeiten, ihre jeweiligen Vor- und Nachteile untersuchen und konkrete Anwendungsfälle nennen, die einen Wechsel zu Databricks rechtfertigen.
weiterlesen06.06.2024 von Christian Del Monte
Change Data Capture für Data Lakehouse
Change Data Capture (CDC) ist eine Technik, die alle Datenänderungen in einem Datenarchiv erfasst, sammelt und für die Übertragung und Replikation in andere Systeme aufbereitet, entweder als Batch-Prozess oder als Stream. Dieser Blog-Beitrag konzentriert sich auf die Anwendung von CDC in Data Lakehouses am Beispiel von Change Data Feed, einer Variante von CDC, die von Databricks im Rahmen von Delta-Lake-basierten Data Lakehouses entwickelt wurde.
weiterlesen14.05.2024 von Christian Del Monte
Datenänderungen im Griff haben mit Change Data Capture
In einem verteilten Softwaresystem stellen Datenänderungen immer eine Herausforderung dar. Wie ist es möglich, die Änderungshistorie von Daten, die sich in einem Teil des Systems befinden, zu verfolgen, um angeschlossene Datenspeicher in anderen Teilsystemen zu synchronisieren? Eine Antwort auf diese Frage bietet Change Data Capture (CDC). Was es damit auf sich hat, erkläre ich in diesem Blog-Beitrag.
weiterlesen15.04.2024 von Patrick Kübler
Warum unsere Kunden beim Thema IIoT mit einem Produktonsreporting beginnen
Täglich kämpfen Mitarbeitende mit manuellen Berichtsprozessen, die hohe Personalkosten, eingeschränkte Prozessoptimierungsmöglichkeiten und Qualitätsmängel verursachen. Trotz der entscheidenden Bedeutung von Kennzahlen für das Management sind manuelle Berichtsprozesse in der Produktion weit verbreitet. In diesem Blog-Beitrag erkläre ich, warum Unternehmen im IIoT-Bereich mit dem Produktionsreporting beginnen.
weiterlesen06.03.2024 von Stefan Klempnauer
Jsonnet als Beschleuniger für metadatengesteuerte Datenpipelines
Metadatengesteuerte Datenpipelines sind ein Gamechanger für die Datenverarbeitung in Unternehmen. Diese Pipelines nutzen Metadaten, um Prozesse dynamisch zu aktualisieren, anstatt bei jeder Änderung einer Datenquelle jeden Schritt manuell zu überarbeiten. Wie auch bei den Datenpipelines kann die Pflege der Metadaten einen Engpass bei der Wartung und Weiterentwicklung eines Pipeline-Frameworks darstellen. In diesem Blog-Beitrag zeige ich anhand praktischer Beispiele, wie die Template-Sprache Jsonnet die Pflege von Metadaten erleichtert.
weiterlesen22.02.2024 von Azza Baatout und Marc Mezger
Prefect - Workflow Orchestrierung für AI- und Data-Engineering-Projekte
Workflow-Orchestrierung und Workflow-Engines sind entscheidende Komponenten in der modernen Datenverarbeitung und Softwareentwicklung, insbesondere im Bereich der Künstlichen Intelligenz (KI). Diese Technologien ermöglichen es, verschiedene Aufgaben und Prozesse innerhalb komplexer Datenpipelines effizient zu verwalten und zu koordinieren. In diesem Blog-Beitrag stellen wir Prefect vor, ein intuitives Tool zur Orchestrierung von Workflows in der KI-Entwicklung.
weiterlesen12.02.2024 von Siver Rajab
Snowflake: Die Fortschrittliche Lösung im Datenmanagement
In der sich ständig weiterentwickelnden Welt der Datenanalyse und des Datenmanagements spielt Snowflake eine herausragende Rolle, die das Gesicht der Branche nachhaltig beeinflusst. Dieser Blog-Beitrag befasst sich mit der Entwicklung von Snowflake und warum es als bahnbrechende Lösung für Unternehmen gilt.
weiterlesen