Willkommen zurück zu unserer Serie über generative KI-Assistenten und ihre Rolle im Unternehmenskontext. In unserem vorherigen Artikel haben wir das Potenzial von KI-Assistenten wie ChatGPT, Claude und Gemini diskutiert, wobei wir ihre Fähigkeiten, Architektur und Verarbeitungsabläufe hervorhoben. Wir haben auch Begrifflichkeiten geklärt und die Notwendigkeit einer fortgeschrittenen Konfiguration und Anpassung bei der Implementierung dieser Assistenten in Unternehmensumgebungen betont. Im zweiten Teil werden wir die verschiedenen auf dem Markt verfügbaren generativen KI-Assistenten untersuchen und ihre Vor- und Nachteile erörtern.
Eine Lösung für generative KI-Assistenten besteht aus zwei Hauptkomponenten: dem Großen Sprachmodell (LLM) und der KI-Assistenten-Anwendung. Das LLM ist dafür verantwortlich, Benutzeranfragen auf Basis der trainierten Datensätze zu analysieren und darauf zu reagieren. Die KI-Assistenten-Anwendung dient als Schnittstelle, über die Benutzer mit dem LLM interagieren.
Es gibt Anpassungsoptionen sowohl auf der Ebene des LLM als auch der KI-Assistenten-Anwendung. Beim LLM können Sie entweder das standardmäßig trainierte Modell auf umfangreichen allgemeinen Datensätzen verwenden oder es für spezifische Anwendungsfälle in Ihrem Bereich weiter spezialisieren. Dies kann durch Feinabstimmung des Modells auf Ihren eigenen kuratierten Datensatz oder durch Einsatz von Prompt-Engineering-Techniken zur Optimierung der Ausgabe des LLM basierend auf seinem bestehenden Allgemeinwissen erreicht werden. Ein hybrider Ansatz, der diese Techniken kombiniert, ist ebenfalls möglich.
Auf der Ebene der KI-Assistenten-Anwendung gibt es mehrere Möglichkeiten, eine Anwendung zu entwickeln, die steuert, wie Informationen in das LLM eingespeist werden und wie sie mit anderen Komponenten interagieren, wie z.B. Connectoren zu ERP-Systemen. Diese Schicht ist besonders in Großunternehmensumgebungen wichtig, wo das Volumen und die Komplexität der Anfragen robuste, skalierbare Lösungen erfordern. Während das LLM die Basis der generativen KI-Assistenten bildet, ist die Anwendungsschicht der Teil, den Unternehmen am meisten beeinflussen können und sollten, da sie die Kostenwirksamkeit und Leistung direkt beeinflusst. Die Gestaltung dieser Schicht muss Kostenwirksamkeit und Leistung priorisieren, um mögliche Eskalationen der Betriebskosten effektiv zu verwalten.
Viele Führungskräfte erkennen, dass KI nicht als separates Geschäftselement behandelt werden sollte, sondern eher als der Kern, der alle Komponenten antreibt. In der Praxis wird KI jedoch oft zunächst als neue, separate Komponente eingeführt, bevor sie in das breitere Geschäftsökosystem integriert wird. Dieser Ansatz mag eine Zeit lang funktionieren, aber mit fortschreitender Technologie und sich erweiternden Anwendungsfällen kann dies technische Schulden für Unternehmen verursachen.
Basierend auf aktuellen Erkenntnissen können wir zwei Schlüsselannahmen treffen:
Mit diesen Annahmen im Hinterkopf ist es wesentlich, KI-Assistenten-Anwendungen mit Blick auf zukünftige komplexe Szenarien zu entwerfen und zu entwickeln, da sie letztendlich Teil größerer, vernetzter KI-Systeme werden.
Lassen Sie uns die derzeitigen Optionen einiger Pioniere und wichtiger Akteure auf dem Markt für generative KI untersuchen, um Ihre eigene KI-Assistenten-Anwendung auf deren Modellen aufzubauen.
Modelle: GPT-4 Turbo und GPT-3.5 Turbo sind die Flaggschiffmodelle von OpenAI, wobei GPT-4 multimodale Fähigkeiten bietet, wie die Verarbeitung von Text, Bildern oder Dateien. API-basierter Zugang ist für diese Modelle verfügbar.
KI-Assistenten-Option: OpenAIs Assistentenangebot ist ChatGPT, das die Fähigkeiten von GPT-4 oder GPT-3.5 nutzt. ChatGPT bietet verschiedene Integrationsmöglichkeiten mit Drittanbieter-Tools, Web-Browsing-Fähigkeiten und Speicherfunktionen. Für den Unternehmenseinsatz bietet ChatGPT für Unternehmen unternehmensgerechte Sicherheit und Datenschutz sowie kundenspezifische GPTs für spezifische Aufgaben.
Modelle: Die Claude 3-Serie (Opus, Sonnet, Haiku) ist für komplexe Aufgaben konzipiert und legt Wert auf Sicherheit, Vertrauenswürdigkeit und Zuverlässigkeit. Diese Modelle zeichnen sich durch die Handhabung großer Kontextfenster aus und demonstrieren erweiterte Genauigkeit bei langen Dokumenten mit niedrigen Halluzinationsraten.
KI-Assistenten-Option: Anthropic bietet den Claude KI-Assistenten an, der die Fähigkeiten der Claude 3-Modelle nutzt. Während Einzelabonnements verfügbar sind, ist die Eignung des Teamplans für Unternehmen unklar. Der Teamplan beinhaltet Admin-Tools, vereinfachte Rechnungsverwaltung, Quellenverifizierungsfunktionen und Integration mit anderen Apps.
Modelle: Gemini, einschließlich Varianten wie Gemini Ultra, Gemini Pro und Gemini Nano, ist darauf ausgelegt, multimodal zu sein und Text, Bilder und andere Datentypen zu verarbeiten und zu verstehen.
KI-Assistenten-Option: Google Gemini ist der von Google angebotene KI-Assistent, der die Leistung ihrer Modelle nutzt. Das Gemini-Unternehmensabonnement ermöglicht die Verbindung zu verschiedenen Google-Apps und umfasst erweiterte Unternehmenssicherheitsfunktionen. Ein bemerkenswertes Merkmal ist die Integration mit Google Search, die es ermöglicht, von KI generierte Behauptungen zu überprüfen.
Modelle: Microsoft verwendet LLMs wie das GPT-4-Modell von OpenAI, obwohl andere spezifische Modelle, die in seinen Angeboten verwendet werden, nicht klar sind.
KI-Assistenten-Option: Microsoft Copilot ist in zwei Versionen verfügbar: eine für Einzelpersonen, die das GPT-4-Modell nutzt, und eine andere für die Microsoft 365-Suite, die für Unternehmen und große Unternehmen konzipiert ist. Die Version der Microsoft 365-Suite bietet unternehmensgerechte Sicherheit, Integrationsmöglichkeiten mit anderen ERP-Datenquellen und das Copilot Studio zur Anpassung des Assistenten an spezifische Anwendungsfälle.
Modelle: Mistral AI bietet mehrere Modelle an, wie Mistral 7B, Mistral 8x7B, Mistral Large, Mistral Next und Mistral Small, die auf verschiedene Weise innerhalb von KI-Assistenten-Anwendungen genutzt werden können.
KI-Assistenten-Option: Mistrals eigene KI-Assistenten-Anwendung, "LE CHAT", nutzt die Large, Next und Small Modellversionen. Derzeit in der Beta-Testphase, wird sie in individuellen und Unternehmensversionen verfügbar sein. Bemerkenswerte Unternehmensmerkmale sind die Selbsthosting-Option und feingranulare Moderationsmechanismen.
Nach der Analyse der verschiedenen KI-Assistenten-Angebote einiger der wichtigsten Akteure auf dem KI-Markt können wir zwei wichtige Überlegungen festhalten. Auf der Ebene des Großen Sprachmodells (LLM) müssen Unternehmen zunächst zwischen der einfachen Bereitstellungsoption und der benötigten erhöhten Kontrolle wählen. Wenn sie eine einfache Modellbereitstellungsoption benötigen, können sie sich dafür entscheiden, Modelle wie GPT über die eigene Plattform des Anbieters zu nutzen. Dieser Ansatz führt jedoch zu minimaler Kontrolle über das LLM und wirft Datenschutzbedenken auf. Für die meisten EU-Unternehmen ist diese Option wahrscheinlich nicht praktikabel aufgrund der Notwendigkeit einer erhöhten Kontrolle über das LLM und den Datenzugriff.
Die zweite Option für Unternehmen, die eine erhöhte Kontrolle benötigen, ist die Selbstbereitstellungsoption. Dieser Ansatz ermöglicht es ihnen, die Modelle in ihrer eigenen Cloud- oder Vor-Ort-Infrastruktur zu bereitstellen. Während diese Option mehr Kontrolle bietet, bringt sie potenzielle Nachteile mit sich, wie erhöhte Wartungskosten und die Notwendigkeit spezialisierter Software-Engineering-Teams.
Auf der Anwendungsebene müssen Unternehmen ebenfalls weitere Kompromisse eingehen, wenn sie die KI-Assistenten dieser Unternehmen out-of-the-box nutzen möchten. Jeder dieser Assistenten eignet sich für persönliche Produktivität und Anwendungsfälle wie Synthese, Forschung, Ideenfindung und Schreiben. Die Anzahl der Benutzer, die die Assistenten nutzen werden, ist jedoch ein wichtiger Faktor, der zu berücksichtigen ist. Je nach Unternehmensgröße könnten einige Unternehmen Angebote wie das von Anthropic ansprechender finden, während große Unternehmen möglicherweise ChatGPT aufgrund seiner Skalierbarkeit für große Teams mit vielen Benutzern bevorzugen.
Es gibt auch den Anwendungsfall von Gemini und Microsoft Co-pilot, die ihre Assistenten in ihre Produktangebote einbetten. Diese einheitliche Ökosystemerfahrung kann für Organisationen attraktiv sein, die eine nahtlose Integration suchen. Wenn wir jedoch diesen Anwendungsfall ignorieren, bleiben KI-Assistenten übrig, die für verschiedene Anwendungsfälle genutzt werden können.
Abgesehen von Sicherheits- und Datenschutzbedenken wird der tatsächliche Return-on-Investment (ROI) nur dann deutlich, wenn diese Lösungen in die breitere Unternehmenslandschaft integriert werden, einschließlich ERP-Systemen, Drittanbieter-Apps und anderen Datenquellen. Während Off-the-Shelf-KI-Produkte aufgrund ihrer schnellen Einsatzfähigkeit und potenziellen Kosteneinsparungen attraktiv sind, können ihre Anpassungsbeschränkungen bedeutende Nachteile darstellen. Diese Einschränkungen können zu einer Abhängigkeit von den Bedingungen und der Kontinuität der Anbieter führen, und es gibt potenzielle Risiken im Zusammenhang mit dem Datenschutz aufgrund der Notwendigkeit einer externen Datenverarbeitung.
Ein weiteres großes Problem ist, dass die meisten KI-Assistenten von OpenAI, Anthropic oder Mistral keine Überprüfungsmöglichkeiten der Ausgaben bieten. Dieser Mangel an Transparenz kann es für Benutzer schwierig machen zu verstehen, wie der Assistent die Ausgabe generiert hat, welche Schritte er unternommen hat oder welche Quellen er genutzt hat. Für "banale" Aufgaben wie die Analyse von Finanzberichten könnte die Unfähigkeit, die Ausgabe und die Quellen zu überprüfen, für viele Unternehmen ein Ausschlusskriterium sein.
Kostenoptimierung ist ein weiteres Problem, dem Unternehmen bei der Nutzung solcher Lösungen begegnen könnten. Da es kein einziges bestes LLM für alle Anwendungsfälle gibt, können Unternehmen durch die Nutzung unterschiedlicher LLMs für unterschiedliche Aufgaben je nach deren Komplexität und Eignung bessere Ergebnisse und Kosteneffizienz erzielen. Der KI-Assistent könnte sich dafür entscheiden, ein LLM für eine Aufgabe und ein anderes für eine andere Aufgabe zu verwenden. Dieses Maß an Anpassung ist mit Out-of-the-Box-Lösungen im Allgemeinen nicht möglich.
Die Alternative für Unternehmen besteht darin, ihre KI-Assistenten-Apps von Grund auf neu zu entwickeln oder mit einem KI-Assistenten-Toolkit eines Anbieters zu arbeiten, das nach ihren Bedürfnissen und Anwendungsfällen angepasst werden kann. Maßgeschneiderte KI-Lösungen bieten das höchste Maß an Anpassung, ermöglichen es Unternehmen, Funktionen auf ihre betrieblichen Bedürfnisse zuzuschneiden und die Kontrolle über ihre Daten zu behalten. Dieser Ansatz kann jedoch mit höheren Entwicklungskosten und Wartungskosten verbunden sein, erfordert erhebliche technische Fachkenntnisse und birgt Risiken eines Projektfehlschlags oder Integrationsprobleme.
Ob ein Unternehmen sich für ein fertiges Produkt entscheiden sollte oder in eine individuelle Lösung investieren sollte, hängt von verschiedenen Faktoren ab. Diese Faktoren umfassen Budgetbeschränkungen, spezifische Geschäfts- und Domänenanforderungen, verfügbare technische Fachkenntnisse und gewünschte Bereitstellungsgeschwindigkeit. Während fertige Lösungen schnelle und einfache Produktivitätsgewinne bieten können, könnten sie ohne bedeutende Anpassungen kurzfristig an Wert verlieren. Maßgeschneiderte KI-Lösungen, obwohl sie kostspielig und komplex zu entwickeln sind, bieten maßgeschneiderte Funktionalität, die die betriebliche Effizienz und den Wettbewerbsvorteil erheblich steigern kann. Im dritten Teil dieser Blogserie werden wir die Entwicklung kundenspezifischer generativer KI-Assistenten untersuchen und bewährte Praktiken und Empfehlungen für deren Implementierung und Einführung in Unternehmen bereitstellen.