Technologie

Über klassische Automatisierung hinaus: Aufrüstung heutiger Workflows für die KI-Agenten von morgen

Lesezeit: 7 Min | Okt 8, 2024

Die Workflow-Automatisierung im Unternehmensbereich hat sich zur Grundlage für die Verwaltung strukturierter Routineaufgaben in verschiedenen Branchen entwickelt. Lösungen von Plattformen wie ServiceNow, SAP, Microsoft Power Automate oder IBM waren maßgeblich an der Automatisierung wiederholbarer Prozesse wie Aufgabenweiterleitung, Genehmigungen und Benachrichtigungen beteiligt. Während diese Systeme vordefinierte Aufgaben effizient bewältigen, stoßen sie bei der wachsenden Komplexität moderner Unternehmensabläufe an ihre Grenzen, insbesondere wenn es um unstrukturierte Daten, Entscheidungen in Echtzeit oder Anpassungsfähigkeit geht.

Da Unternehmen nach größerer betrieblicher Effizienz streben, werden die Grenzen der regelbasierten Workflow-Automatisierung immer deutlicher. Unternehmensführer erforschen nun fortschrittlichere Technologien, insbesondere solche, die kognitive Flexibilität in Workflows einbringen können. Diese Erforschung führt natürlich zu einer tieferen Diskussion über KI-Agenten (ein derzeit heißes Thema) und LLM-gestützte Workflows, die jeweils unterschiedliche Möglichkeiten und Grenzen für die Zukunft der Automatisierung aufzeigen.

Während traditionelle Workflow-Automatisierungslösungen hervorragend bei der Verwaltung strukturierter Daten und Routineabläufe sind, haben sie Schwierigkeiten, wenn es um unstrukturierte Daten oder die Notwendigkeit dynamischer Entscheidungsfindung in Echtzeit geht. An dieser Stelle beginnt die Diskussion über KI-Agenten an Bedeutung zu gewinnen.

KI-Agenten zwischen Versprechen und Realität

KI-Agenten sind zu einem zentralen Thema in Diskussionen über Automatisierung geworden. Sie repräsentieren eine neue Art von System, das in der Lage ist, komplexe Aufgaben autonom zu bewältigen. Diese Agenten variieren in ihrer Komplexität, von einfachen Chatbots bis hin zu fortgeschrittenen digitalen Assistenten, die in Echtzeit arbeiten, mit mehreren Systemen interagieren und intelligente Entscheidungen treffen können.

KI-Agenten unterscheiden sich von traditionellen Automatisierungstools oder eigenständigen großen Sprachmodellen (LLMs) durch mehrere Schlüsselkomponenten:

  1. Planung: KI-Agenten können Aktionen sequenzieren und planen, um bestimmte Ziele zu erreichen. LLMs haben diese Fähigkeit erweitert und ermöglichen Agenten eine dynamische Planung.
  2. Tool-Nutzung: Fortgeschrittene KI-Agenten können verschiedene Tools nutzen, sei es zur Ausführung von Code, zur Abfrage von Datenbanken oder zur Durchführung von Berechnungen. Diese Werkzeugnutzung wird durch Funktionsaufrufe integriert.
  3. Wahrnehmung: Agenten können ihre Umgebung wahrnehmen, indem sie Informationen wie visuelle oder auditive Daten verarbeiten, was sie interaktiver und reaktionsfähiger macht.
  4. Gedächtnis: KI-Agenten haben die Fähigkeit, vergangene Interaktionen zu speichern und daraus zu lernen, wobei sie dieses Gedächtnis nutzen, um ihre zukünftigen Entscheidungen und Handlungen zu verbessern.

Theoretisch repräsentieren KI-Agenten die Zukunft der Automatisierung, also Systeme, die sich in komplexen, unvorhersehbaren Umgebungen anpassen, lernen und unabhängig handeln können. Trotz des Potenzials sind KI-Agenten jedoch noch nicht zuverlässig genug für den Produktionseinsatz in den meisten Unternehmensumgebungen.

Die Hauptherausforderung liegt in ihrer Unberechenbarkeit. Die dynamische Plangenerierung führt zu Variabilität bei jeder Ausführung, was es schwierig macht, konsistente Ergebnisse zu gewährleisten. In einer Lösung, bei der eine relativ niedrige Fehlerrate (5-10%) bei jeder Aufgabe über mehrere Schritte hinweg kumuliert, kann diese Unberechenbarkeit zu erheblichen Fehlern führen, die die Gesamtlösung tatsächlich unbrauchbar machen. Zusätzlich erhöht die Komplexität der Fehlersuche bei diesen Agenten die Schwierigkeit weiter. KI-Agenten benötigen, obwohl vielversprechend, noch viel mehr Entwicklung, bevor sie in Produktionsumgebungen weit verbreitet eingesetzt werden können.

LLM-gestützte Workflows als praktische Lösung für heute

Obwohl KI-Agenten Potenzial für die Automatisierung komplexer Aufgaben gezeigt haben, führt ihre Abhängigkeit von dynamischer Plangenerierung zu Unberechenbarkeit. Jede Ausführung kann zu einem anderen Ergebnis führen, was sie für viele reale Anwendungen zu unzuverlässig macht. Diese Komplexität hat zu einem Bedarf an einer pragmatischeren Lösung geführt, die wir als LLM-gestützte Workflows bezeichnen können. Anstatt LLMs zu erlauben, Ausführungspläne autonom zu erstellen und anzupassen, folgen LLM-gestützte Workflows einer vordefinierten Struktur.

In diesem Modell werden die LLMs auf klare, vordefinierte Pläne und Schritte gesetzt, die widerspiegeln, wie Geschäftsabläufe typischerweise ablaufen. Dieser Ansatz entfernt nicht die Intelligenz der LLMs, sondern stellt sicher, dass die Automatisierung zuverlässig bleibt. Jeder Schritt wird geführt, und die kognitiven Fähigkeiten des LLM werden angewendet, um Aufgaben wie das Verstehen unstrukturierter Daten, das Treffen kontextbezogener Entscheidungen, die Verarbeitung von Daten oder den dynamischen Umgang mit Ausnahmen innerhalb des Rahmens eines strukturierten Workflows auszuführen.

Indem LLMs darauf beschränkt werden, innerhalb gut etablierter Workflows zu arbeiten, vermeiden Unternehmen das Risiko unvorhersehbarer Ergebnisse, während sie dennoch von der Fähigkeit des Modells profitieren, komplexe, nuancierte Aufgaben zu bewältigen, die traditionelle Automatisierungstools nicht handhaben können. Im Wesentlichen wird die Intelligenz des LLM auf kontrollierte Weise genutzt, was die Anpassungsfähigkeit und Kontextbewusstheit bietet, die für komplexere Aufgaben benötigt wird, ohne Konsistenz oder Zuverlässigkeit zu opfern.

Was LLM-gestützte Workflows bieten

LLM-gestützte Workflows sind eine Hybridlösung zwischen der Starrheit traditioneller Automatisierung und der Flexibilität von KI-Agenten. Das definierende Merkmal dieser Workflows ist, wie bereits erwähnt, dass sie vordefinierten Pfaden folgen (was Zuverlässigkeit gewährleistet), während das LLM dynamische, kontextbewusste Entscheidungsfindung in jeden Schritt einbringt.

  1. Verstehen unstrukturierter Daten: Im Gegensatz zu traditionellen Systemen, die auf strukturierte Daten in spezifischen Formaten angewiesen sind, zeichnen sich LLMs durch die Interpretation unstrukturierter Daten aus. Ob es darum geht, eine E-Mail zu verarbeiten, einen Vertrag zu überprüfen oder einen Bericht zusammenzufassen, LLMs können mit der Unordnung realer geschäftlicher Eingaben umgehen. Dies macht sie besonders effektiv in Bereichen wie HR (für die Verarbeitung von Lebensläufen), Finanzen (für die Analyse von Rechnungen) und Gesundheitswesen (für die Zusammenfassung von Patientenfeedback).
  2. Kontextbewusste Entscheidungsfindung: LLMs können den Kontext verstehen, in dem sie operieren. Beispielsweise kann ein LLM in einem Compliance-Workflow Anomalien in einem Dokument kennzeichnen, die Begründung für seine Entscheidungen erklären und Vorschläge für nächste Schritte machen. Diese Entscheidungen basieren nicht auf statischen Regeln, sondern auf dem spezifischen Inhalt und den Nuancen der verarbeiteten Daten.
  3. Effizienzgewinne: LLM-gestützte Workflows reduzieren den Bedarf an menschlichen Eingriffen. Aufgaben, die typischerweise manuelle Eingaben erfordern, wie das Überprüfen von Dokumenten oder die Analyse von Kundenbeschwerden, können nun autonom bearbeitet werden. Dies befreit Mitarbeiter davon, sich mit repetitiven, zeitaufwändigen Aufgaben zu beschäftigen, und ermöglicht ihnen, sich auf höherwertige Arbeit zu konzentrieren.

Es ist erwähnenswert, dass alle großen Workflow- und Prozessautomatisierungsanbieter bereits aggressiv daran arbeiten, LLMs in ihre Lösungen zu integrieren. Plattformen wie ServiceNow, SAP und Microsoft betten LLMs nicht nur in die vorgefertigten Workflows ein, die als Teil ihrer Produktfunktionen angeboten werden, sondern auch in die Entwicklungstools, die Unternehmen zur Verfügung gestellt werden. Diese Fähigkeiten ermöglichen es Unternehmen, Standardworkflows zu erweitern oder völlig kundenspezifische Workflows zu erstellen, die von LLMs angetrieben werden. Das Rennen um die Implementierung von LLM-gestützten Lösungen hat bereits begonnen, und Unternehmen, die zögern, riskieren, in ihrer Fähigkeit zur Automatisierung komplexer, kontextgesteuerter Aufgaben zurückzufallen.

Dieser Trend bedeutet, dass Unternehmen jetzt damit beginnen müssen, Strategien zur Integration von LLM-gestützten Workflows in ihre Abläufe zu entwickeln. Unternehmen sollten erforschen, wie diese Tools ihre bestehenden Prozesse verbessern können, und Bereiche identifizieren, in denen kundenspezifische LLM-gestützte Workflows den größten Mehrwert bieten können. Die Landschaft verändert sich schnell, und proaktive Unternehmen werden diejenigen sein, die diese Technologien effektiv nutzen, um im Bereich der Automatisierung und Effizienz die Nase vorn zu haben.

Die Technik hinter LLM-gestützten Workflows

Aus technischer Sicht hängt der Erfolg von LLM-gestützten Workflows von der Modularität ab. KI-Systeme, insbesondere LLMs, sind von Natur aus nicht-deterministisch, was bedeutet, dass ihr Verhalten bei verschiedenen Ausführungen variieren kann. Diese Unberechenbarkeit macht den Aufbau modularer Workflows entscheidend für Zuverlässigkeit, Fehlersuche und Skalierbarkeit.

Modularität für Fehlersuche und Wartung: Bei LLM-gestützten Workflows liegt der Schlüssel zur Aufrechterhaltung der Zuverlässigkeit darin, wie das System aufgebaut ist, wobei modulare Tools für jeden Teil des Workflows verwendet werden. Anstatt sich auf ein einzelnes, monolithisches System zu verlassen, ist jedes Tool darauf ausgelegt, eine bestimmte Aufgabe zu bewältigen, wie z.B. Datenextraktion, Validierung oder Compliance-Prüfung. Diese Tools folgen dem Single Responsibility Principle aus den SOLID-Designprinzipien und stellen sicher, dass sich jedes Tool auf eine klare Funktion konzentriert.

Durch die Aufteilung des Workflows in diese modularen Komponenten wird das System viel einfacher zu warten und zu debuggen. Jede Komponente kann unabhängig evaluiert und getestet werden, was es Teams ermöglicht, Fehler zu isolieren und zu beheben, ohne den gesamten Workflow zu stören. Diese Modularität bringt auch Flexibilität, da Tools nach Bedarf aktualisiert oder ersetzt werden können, ohne andere Teile des Workflows zu beeinflussen, was sicherstellt, dass das System anpassungsfähig bleibt, während sich die geschäftlichen Anforderungen weiterentwickeln.

Ein weiterer entscheidender Vorteil dieses Ansatzes ist, dass  Unternehmen ermöglicht, Genauigkeit und Zuverlässigkeit in ihrer Automatisierung sicherzustellen. Da jede Komponente unabhängig bewertet werden kann, ist es möglich zu bestätigen, dass jeder Schritt des Workflows wie erwartet funktioniert. Diese Kontrollebene ist entscheidend in komplexen Workflows mit hohem Einsatz, wo selbst kleine Fehler signifikante Auswirkungen haben können. Durch den Aufbau von Workflows auf modulare Weise können Unternehmen LLM-gestützte Automatisierung zuversichtlich in Produktionsumgebungen einsetzen und gleichzeitig Risiken minimieren.

Spezialisierte vs. Allzweck-LLMs: Eine weitere wichtige Überlegung ist die Optimierung von Leistung und Kosten durch die Verwendung verschiedener LLMs für unterschiedliche Aufgaben. Nicht jeder Schritt in einem Workflow benötigt das fortschrittlichste, teuerste LLM. Für einfachere Aufgaben, wie grundlegende Datenextraktion, könnte ein kleineres, kostengünstigeres LLM ausreichen. Für komplexere Entscheidungsfindung kann ein größeres, allgemeines LLM eingesetzt werden. Dieser modulare Ansatz zur LLM-Nutzung stellt sicher, dass Unternehmen Kosten kontrollieren können, während sie dennoch die beste Leistung dort erhalten, wo es am wichtigsten ist.

Überbrückung der Kluft zwischen Business- und Engineering-Anwendungsfällen

LLM-gestützte Workflows bieten klare Vorteile sowohl für Geschäftsanwender als auch für Entwicklungsteams. Einige guten Beispiele sind: 

Für Geschäftsanwender:

  • Im HR können LLM-gestützte Workflows automatisch Onboarding-Dokumente verarbeiten, relevante Daten aus Lebensläufen extrahieren und basierend auf Mitarbeiterprofilen nächste Schritte vorschlagen. Diese Workflows beschleunigen nicht nur den Prozess, sondern gewährleisten auch eine genauere Datenverarbeitung.
  • Im Finanzbereich können LLMs Rechnungen analysieren und sie unabhängig von Format oder Komplexität mit Bestellungen abgleichen. Wenn Diskrepanzen auftreten, kann das LLM diese kennzeichnen und die Gründe für seine Aktionen in natürlicher Sprache erklären.
  • Im Gesundheitswesen können LLMs bei der Verwaltung der Patientenerfahrung helfen, indem sie Patientenfeedback zusammenfassen und personalisierte Pflegeempfehlungen auf Basis historischer Daten geben.

Für Entwickler:

  • Modularität vereinfacht die Workflow-Entwicklung. Teams können Tools wie Dokumentenprozessoren, Datenvalidierer oder Anomaliedetektoren erstellen, die in mehreren Workflows wiederverwendbar sind. Dieser Ansatz macht Systeme einfacher zu warten und zu skalieren.
  • Durch die Einbeziehung spezialisierter LLMs für einfachere Aufgaben und allgemeiner LLMs für komplexere Entscheidungsfindungen können Entwickler die Leistung optimieren und gleichzeitig die Kosten unter Kontrolle halten.

LLM-gestützte Workflows als Schritt in Richtung KI-Agenten

Während KI-Agenten die langfristige Vision für vollständig autonome Systeme bleiben, bieten LLM-gestützte Workflows eine praktische, zuverlässige Lösung für die heutigen Herausforderungen. Durch die Kombination der Zuverlässigkeit vordefinierter Workflows mit der Intelligenz und Flexibilität von LLMs können Unternehmen komplexere, kontextgesteuerte Aufgaben automatisieren und sich auf die nächste Welle intelligenter Automatisierung vorbereiten.

Die Zukunft ist klar. Mit dem Fortschritt der KI-Technologie werden die LLM-gestützten Workflows von heute den Grundstein für die agentischen Systeme von morgen legen. Vorerst können Unternehmen damit beginnen, LLM-gestützte Workflows zu nutzen, um reale Probleme zu lösen, die Effizienz zu steigern und das volle Potenzial ihrer Daten zu erschließen.

Hier sind weitere coole Artikel

Lesen Sie, was als nächstes kommt