Reveal — Agentic First DAG Engine

yaico Plattform — Schicht 2

Reveal

Agentic First DAG Engine.

Die DAG-Engine die Claude versteht. Data Pipelines die ein KI-Agent auf Zuruf debuggt, erweitert und dokumentiert — statt Wochen Einarbeitung in Airflow-Operator-Boilerplate.

schnellere Pipeline-Erweiterung mit Agent
0
Boilerplate für neuen Connector
täglich
automatische DAG-Runs + Propagation
100 %
Audit-Trail — jeder Run nachvollziehbar
Reveal — Agentic First DAG Engine mit Claude

Aus Daten werden Zusammenhänge.

Reveal ist die DAG-basierte Transformations-Engine im Kern der yaico Plattform. Jeder Verarbeitungsschritt — vom Roh-Datenpunkt bis zum fertigen Kennzahlen-Datensatz — ist ein Node im Graphen: nachvollziehbar, reproduzierbar, auditierbar. Und: von einem KI-Agenten vollständig lesbar.

Source Node Consolidation Node Match / Route Node Transform Node Report Node

Agentic First.

Reveal-Nodes sind selbst-beschreibende Klassen. Kein YAML-Boilerplate, kein Operator-Zoo, keine Hidden Side Effects. Ein Claude-Kontext mit dem DAG-Code ist genug um die gesamte Pipeline zu verstehen — und zu erweitern.

Airflow und dbt optimieren für Data Engineers die Pipelines schreiben. Reveal optimiert für KI-Agenten die Pipelines lesen, debuggen und erweitern.

Szenario 1 — Debugging
> Hey Claude, analysiere die Abweichung der Zahlen in Quelle und Ziel.
3 CashFlows ohne Beleg-Match in VerheirateNode. Alle drei Empfänger "PayPal Express" — dein Matching-Pattern greift nicht weil kein Verwendungszweck-Feld befüllt ist. Vorschlag: PayPal-Regex in BuchungsRegelNode Zeile 47 erweitern.
Szenario 2 — Erweiterung
> Hey Claude, erstelle einen weiteren Bankkontobewegungs-Import für Bank XY.
BankXYCashFlowSourceNode.cs erstellt — abgeleitet von CommerzBankCashFlowSourceNode. CSV-Spalten-Mapping angepasst, Datumsformat "dd.MM.yyyy", Encoding UTF-8. Bitte Kontonummer in appsettings.json ergänzen.
Szenario 3 — Monitoring
> Hey Claude, hat der gestrige Run alle Nodes erfolgreich abgeschlossen?
Alle 5 Nodes erfolgreich. 847 Records verarbeitet, 12 neue CashFlows, 9 Belege gematcht. CommerzBankSourceNode: 0 Fehler. VerheirateNode: 3 Unmatched (wie gestern besprochen).

Reveal vs. Airflow vs. dbt.

Warum Agentic First ein echtes Architektur-Merkmal ist — kein Marketing-Begriff.

Airflow
Python DAG-Definitionen, komplexes Operator-Ökosystem, schwerer Boilerplate. Scheduling und Orchestration im Fokus.
✗ LLM versteht Operator-Zoo nicht ohne Deep Context
✗ Neuer Connector = Operator + Connection + DAG-Anpassung
✗ Keine Report-Nodes — Output ist separater Schritt
✗ Debugging = Log-Diving, kein semantisches Verständnis
dbt
SQL-Transformationen, Model-Abhängigkeitsgraphen. Analytics Engineering. LLM-freundlicheres SQL, aber keine Sources.
~ SQL ist LLM-lesbar — Transformationen ok
✗ Kein Source-Management — nur Transform-Layer
✗ Kein Report/Dashboard Output
✗ Kein Audit-Trail auf Record-Ebene
Reveal
Self-beschreibende Node-Klassen. Gesamter DAG — Sources, Transforms, Reports — in einem kohärenten Modell. Agent-lesbar by design.
✓ Agent liest gesamten DAG aus einer Codebasis
✓ Neuer Connector = eine abgeleitete Klasse
✓ Report Nodes als First-Class DAG-Citizens
✓ Audit-Trail per Record, automatische Propagation

Was Reveal leistet.

Die komplette Feature-Liste — für Berater und Teams die Pipelines ausliefern.

Agentic Interface
Reveal USP

DAG-Code so strukturiert dass Claude (oder jeder andere LLM-Agent) den Graphen liest, Nodes versteht und eigenständig erweitert — ohne Framework-Einarbeitung.

Debug on demand Extend on demand Monitor on demand

Report Nodes

Fertige HTML-Reports und Dashboards werden während des ETL-Laufs erzeugt — als First-Class DAG-Nodes, nicht als separater Nachbearbeitungsschritt. Steuerberater bekommt den Report jeden Morgen automatisch.

DAG-Engine

Beliebig tiefe Abhängigkeitsgraphen. Jeder Node einzeln testbar und isoliert ausführbar. Source, Consolidation, Match, Transform, Output — alle in einem kohärenten Modell.

Audit-Trail

Jeder Lauf vollständig protokolliert — wann hat welcher Node welchen Output erzeugt. Buchungsvorschlag zurückverfolgen bis zum Quell-PDF. Prüfungssicher.

Automatische Propagation

Neue Quelldaten triggern nur die betroffenen Downstream-Nodes — kein Full-Reload. Effizient auch bei täglichen Runs mit großen Datenmengen.

Connector-Nodes

Google Ads, Meta, Shopify, Xentral, DATEV-Excel, Commerzbank, PayPal — native Source-Nodes direkt im DAG. Neuer Connector: eine abgeleitete Klasse, Claude schreibt den Boilerplate.

Für wen ist Reveal?

Zwei sehr unterschiedliche Käufer — beide profitieren von Agentic First.

Berater & Data Engineers

„Ich implementiere Pipeline nach Pipeline für Kunden."

Der Pain: jede neue Datenquelle kostet 2–3 Tage Arbeit. Onboarding neuer Teammates dauert Wochen. Debugging bedeutet Log-Diving. Mit Reveal + Claude schreibt der Agent den Connector-Boilerplate, der Berater reviewt und deployt.

Konkrete Gewinne:
→ Neue Datenquelle: halber Tag statt 2–3 Tage
→ Debugging: Claude erklärt Abweichung in Minuten
→ Dokumentation: Agent schreibt sie beim Erweitern mit
→ Onboarding: neuer Kollege liest DAG mit Claude-Hilfe
→ Gespräch vereinbaren

Software Vendors & ISVs

„Ich will meinem Produkt eine Data Pipeline Engine geben."

Der Pain: eine eigene DAG-Engine bauen und betreiben kostet ein Data-Engineering-Team. Mit Reveal als lizenzierbarer Komponente bekommt das Produkt eine fertige, produktionshärtete Engine — inklusive dem Agentic-Interface das eure Kunden nutzen können.

Konkrete Gewinne:
→ DAG-Engine als NuGet-Package oder Source-Lizenz
→ Eure Kunden erweitern Pipelines selbst — mit KI-Agent
→ Kein eigenes Data-Engineering-Team für die Engine
→ Capture + Reveal + Resolve als komplettes Bundle
→ For ISVs ansehen

Reveal in der yaico Plattform.

Reveal ist Schicht 2 — zwischen Capture (Dokumente) und Resolve (Antworten).

yaico Resolve — Schicht 3
OLAP-Engine + Natural Language Query — Aus Zusammenhängen werden Antworten.
Reveal — Schicht 2 ← hier
DAG-Engine + Agentic Interface — Aus Daten werden Zusammenhänge.
Capture — Schicht 1
Document Intelligence — Aus Dokumenten werden Daten.

Reveal läuft heute produktiv.

Nicht Konzept — sondern täglich ausgeführte Pipelines in ecommerce-GmbHs.

ROAS Analytics
Multi-Channel-Werbekosten täglich aktuell — Google Ads, Meta, Xentral auf Artikel-Ebene
AkuaTax
Buchhaltungsvorbereitung — CashFlows + Belege + Buchungssätze vollautomatisch
PPWR Analytics
Verpackungsmengen-Compliance — Billbee, Shopify, Shopware auf LUCID-Report
ChefÜbersicht
DATEV-Zahlen interaktiv — IST/PLAN auf Klick ohne Excel-Herumkopieren

Reveal live sehen — 20 Minuten reichen.

Wir zeigen euch wie ein Agent eure erste Pipeline debuggt und erweitert. Bringt gerne eine konkrete Datenquelle mit die ihr anschließen wollt.

→ 20 Minuten reden