In den letzten Jahren haben die Fähigkeiten, die Verfügbarkeit und die Akzeptanz künstlicher Intelligenz (KI) Produkte und Märkte stark verändert. Die Integration von KI-Funktionen in Software oder softwaregesteuerte Produkte ist für Wachstum, Rentabilität und Unternehmensbewertungen unverzichtbar geworden. Dieser Druck veranlasst Unternehmen jedoch dazu, KI einzuführen, ohne das erforderliche Fachwissen aufzubauen oder die Organisation auf die Besonderheiten der KI-Forschung und -Entwicklung (F&E) sowie der Wartung vorzubereiten.
Das Ergebnis sind KI-Softwareprodukte, die von der Organisation nicht vollständig entwickelt oder verstanden werden, was neue Risiken (Software, die wie eine Black Box funktioniert) für das Unternehmen und damit für potenzielle Investoren mit sich bringt. Insbesondere bei M&A- und Private-Equity-Transaktionen muss sich die Software-Due-Diligence-Prüfung von LLM- und GenAI-gesteuerten Produkten rasch weiterentwickeln, um diesen noch recht neuen und einzigartigen Technologierisiken gerecht zu werden.
Die traditionelle Software-Due-Diligence konzentriert sich auf die Codequalität und -architektur, automatisierte F&E-Prozesse, die Fähigkeiten der Mitarbeiter/Teams und die Skalierbarkeit des Teams und der Software sowie deren Dokumentation. In Teil 5 der Blogreihe zum Thema "Software Due Diligence: zu der Schlüssel zu erfolgreichen M&A-Deals" untersuchen wir, wie eine Due Diligence für KI-basierte Software durchgeführt werden sollte. Wir konzentrieren uns dabei auf Technologiebereiche (z. B. den KI-Stack und KI-Praktiken), die zusätzliche Aufmerksamkeit, Fachwissen und Tools erfordern.
Mit unseren Erkenntnissen möchten wir Investoren auf die zusätzlichen Risiken aufmerksam machen, die mit der Entwicklung und Nutzung von KI-Funktionen in softwarebasierten Unternehmen verbunden sind. KI-Funktionen treiben zwar zweifellos die Unternehmensbewertung in die Höhe, man sollte sich jedoch bewusst sein, dass sie auch das potenzielle Risiko erhöhen.
Bevor man in die KI-bezogene Software-Due-Diligence eintaucht, lohnt sich ein Blick auf die unterschiedlichen Muster, wie künstliche Intelligenz heute in Softwareprodukte integriert wird. Nicht jede „KI-gestützte“ Lösung funktioniert gleich – und diese Unterschiede haben erhebliche Auswirkungen auf Bewertung, Risikoeinschätzung und Skalierbarkeit.
Grundsätzlich lassen sich drei Hauptkategorien unterscheiden:
Diese Kategorie umfasst Produkte und Services, die auf intern entwickelten, speziell trainierten Machine-Learning-Modellen basieren. Typische Merkmale sind:
Fazit: Proprietäre ML-Systeme sind technisch anspruchsvoll und kostenintensiv im Betrieb, bieten jedoch langfristige Verteidigungsfähigkeit durch eigenes IP, Datenbesitz und Differenzierung.
Hier integrieren Unternehmen externe Large Language Models (LLMs) über APIs von Anbietern wie OpenAI, Anthropic oder Google Gemini. Charakteristische Merkmale wären:
Fazit: Ideal für schnelle Innovation und Prototyping, jedoch mit klaren Risiken hinsichtlich Abhängigkeit, Compliance und Datenschutz – aufgrund begrenzter Kontrolle über Modellverhalten und Datenverarbeitung.
Diese Modelle werden nicht von Grund auf neu entwickelt, aber auch nicht einfach über eine Standard-API konsumiert. Stattdessen handelt es sich um weitertrainierte Versionen bestehender Foundation Models (LLMs/GenAI), die mit proprietären Daten für spezifische Anwendungsfälle angepasst werden. Beispiele:
Fazit: Diese Herangehensweise kombiniert Flexibilität und Anpassung mit höherem technischem Aufwand und kontinuierlichem Modellmanagement.
Für Investoren und Technologieprüfer ist das Verständnis der jeweiligen Integrationsstrategie zentral.
Diese Unterschiede verlangen unterschiedliche Perspektiven in der Due Diligence – sowohl bei der Bewertung der technischen Robustheit als auch bei der Einschätzung des langfristigen Unternehmenswerts.
Der erste Schritt jeder Due Diligence bei LLM-/GenAI-basierten Produkten besteht darin, zu bewerten, wie zentral die KI-Komponenten für den Kernnutzen des Produkts sind.
Es macht einen großen Unterschied, ob ein generatives Modell lediglich Blog-Zusammenfassungen erstellt oder ob ein gesamter Workflow oder ein Produkt auf RAG-Architektur basiert.
Zentrale Fragen zur Bewertung:
Die Beantwortung dieser Fragen zeigt, ob die KI-Funktion ein strategisches Differenzierungsmerkmal oder lediglich eine austauschbare Implementierungsdetails ist.
Large Language Models (LLMs) und generative KI sind inhärent nicht-deterministisch – identische Eingaben können unterschiedliche Ausgaben liefern.
Dieses probabilistische Verhalten führt zu betrieblichen und regulatorischen Risiken, die klassische QA-Frameworks nicht vollständig abdecken.
Due Diligence sollte daher die folgenden Aspekte prüfen:
In regulierten Branchen wie Finanzen, Recht, Gesundheitswesen oder Verteidigung gelten hier besonders hohe Anforderungen an Nachweisbarkeit, Dokumentation und Resilienz.
LLM-basierte Software erfordert spezialisierte Expertise, die über klassische ML- oder DevOps-Rollen hinausgeht. Ein nachhaltiges KI-Team zeichnet sich durch Kompetenzen in folgenden Bereichen aus:
Relevante Due-Diligence-Fragen wären:
Gerade bei frühen Start-ups ist Know-how-Abhängigkeit ein zentraler operativer Risikofaktor.
KI-Systeme erweitern die Angriffsfläche deutlich über klassische Software-Sicherheitsrisiken hinaus. Due Diligence sollte prüfen, wie gut ein Unternehmen gegen neue Bedrohungen gewappnet ist, z. B.:
Ein starkes Sicherheitskonzept kombiniert präventive Kontrollen, aktive Überwachung und klar definierte Reaktionsprozesse auf KI-spezifische Vorfälle.
Moderne KI-Due-Diligence umfasst nicht nur Leistungsfähigkeit, sondern auch ethische Verantwortung. Regulierungsbehörden und Investoren erwarten zunehmend eine proaktive Governance in Bezug auf Fairness, Transparenz und Nachvollziehbarkeit.
Zu prüfende Punkte wären:
Ein Mangel an diesen Governance-Strukturen kann erhebliche Reputations- und Regulierungsrisiken nach sich ziehen – selbst bei technisch leistungsfähigen Systemen.
Generative KI verwischt die Grenze zwischen deterministischem Code und probabilistischem Denken. Diese Entwicklung verlangt eine neue Art der Software-Due-Diligence – eine, die technische Tiefe, regulatorisches Verständnis und ethisches Bewusstsein kombiniert.
Für Investoren geht es nicht nur darum, Risiken zu identifizieren, sondern vor allem, wertschöpfende Fähigkeiten zu erkennen: Datenherkunft, reife MLOps-Strukturen, erklärbares Modellverhalten und glaubwürdige Governance.
Sorgfältig ausgeführte KI-Due-Diligence ist damit weit mehr als Risikomanagement – sie ist die Grundlage für vertrauensvolle Investitionen, verantwortungsvolle Innovation und nachhaltige Wettbewerbsvorteile in einer KI-getriebenen Wirtschaft.
Jetzt handeln: KI-Kompetenz gezielt in Ihre Transaktionsprüfung integrieren
Ob Tech-Akquisition oder Investition in ein datenbasiertes Geschäftsmodell – wenn KI eine Rolle spielt, brauchen Sie neue Kriterien, neue Methoden und Partner mit praktischer Erfahrung.
👉 Cape of Good Code kombiniert fundierte Technologieanalyse mit KI-spezifischer Expertise – und liefert innerhalb kürzester Zeit klare Einschätzungen zur Tragfähigkeit, Skalierbarkeit und Nachhaltigkeit Ihrer Zieltechnologie.
📞 Vereinbaren Sie ein unverbindliches Erstgespräch oder fordern Sie direkt unsere KI Software Due Diligence an.