Proprietäre, fine-tuned KI-Foundation-Modelle erfordern neue Fragestellungen in einer Tech Due Diligence

Geschrieben von Egon Wuchner | 27.03.26 10:29

„Das größte Risiko proprietärer, feinjustierter (“fine-tuned”) KI-Modelle besteht nicht darin, dass sie technisch versagen – sondern darin, dass sie sich nicht nachhaltig über das aktuelle Team, das bestehende Setup und die Rahmenbedingungen ihrer Entstehung hinaus weiterentwickeln und skalieren lassen.“

— Egon Wuchner, Co-Founder & CEO Cape of Good Code

In Teil 6 der Blogreihe zum Thema "Software Due Diligence: zu der Schlüssel zu erfolgreichen M&A-Deals" untersuchen wir die neuen Fragestellungen einer Technology Due Diligence feinjustierter ("fine-tuned") KI Foundation Modelle, im Gegensatz zu einer KI-basierten Sofware die "nur" externe KI-Modelle ohne weitere Anpassungen nutzt (s. Teil 5).

Definition und strategischer Kontext

Proprietäre, feinjustierte KI-Foundation-Modelle bauen auf großen Open-Source- oder kommerziell lizenzierten Basismodellen (z. B. LLaMA, Falcon, T5 oder BERT) auf und werden zusätzlich mit unternehmensspezifischen, intern kuratierten und gelabelten Datensätzen weiter trainiert. Ihr primärer Zweck liegt in der Bearbeitung eng definierter, domänenspezifischer Anwendungsfälle wie z.B. einer Vertragsanalyse, Zusammenfassung klinischer Dokumente oder Anomalieerkennung in der Fertigung.

Bei konsequenter Umsetzung kann dieser Ansatz eine wesentliche Quelle wettbewerblicher Differenzierung darstellen. Die Wertschöpfung geht dabei über die zugrunde liegenden Daten hinaus und umfasst auch Modellgewichte, Trainingskonfigurationen, Fine-Tuning-Methodiken sowie Alignment-Strategien. Dadurch können Unternehmen domänenspezifisches Verhalten gezielt abbilden, die Interpretierbarkeit optimieren und die volle Kontrolle über Deployment und Governance behalten.

Gleichzeitig sind die Vertraulichkeit der Trainingsdaten sowie die Fähigkeit, durch den Fine-Tuning-Prozess neues, proprietäres geistiges Eigentum zu generieren, zentrale Werttreiber. Sensible oder schwer zu reproduzierende Datensätze – kombiniert mit strukturierten Labeling- und Trainingsprozessen – können zu wertvoller IP führen, das von Wettbewerbern nicht ohne Weiteres repliziert werden kann.

Im Gegensatz zu Black-Box-API-basierten KI-Lösungen ermöglichen proprietäre Modelle eine tiefere Analyse, bessere Anpassbarkeit und umfassendere operative Kontrolle – Faktoren, die für eine langfristige legal absicherbare IP, regulatorische Compliance und nachhaltige Wertschöpfung entscheidend sind.

Implikationen für die Technology Due Diligence

Neben den üblichen Prüfungsfeldern einer klassischen AI Software Due Diligence muss die Bewertung proprietärer, feinjustierter Foundation-Modelle eine grundlegendere Frage beantworten:

In welchem Maße schaffen die Modelle – und die sie umgebenden organisatorischen Voraussetzungen – einen nachhaltigen und übertragbaren Wettbewerbsvorteil über das aktuelle Team und Entwicklungssetup hinaus?

Dies umfasst nicht nur die Bewertung der technischen Leistungsfähigkeit, sondern auch Reproduzierbarkeit, Skalierbarkeit, IP-Eigentum, Datenvertraulichkeit, Kostenstruktur, Sicherheit, sowie operative Resilienz.

Zentrale technologische Werttreiber und Red Flags

Vergleich zu einer Standard-AI-Software-Due-Diligence zielen die folgenden Analysefelder darauf ab, (i) den spezifischen Wertbeitrag proprietärer, feinjustierter Foundation-Modelle für die Investment-These zu bewerten und (ii) potenzielle technische und strukturelle Risiken frühzeitig zu identifizieren.

Die folgenden sieben Dimensionen bilden die zentralen Werthebel – und, wenn nicht hinreichend erfüllt, wesentliche Risikofaktoren für das Investment.

1. Modellauswahl & Begründung

Werttreiber:
Eine klar formulierte und nachvollziehbar dokumentierte Begründung der Modellauswahl (z. B. Transformer- vs. Encoder-basierte Ansätze) deutet auf strategisches Vorgehen statt einer opportunistischer ersten, initial verfügbaren Auswahl (Trial & Error) hin. Starke Indikatoren sind die präzise Eignung für den Zielanwendungsfall, nachgewiesene Skalierbarkeit sowie die Nutzung von Modellen mit stabilem Ökosystem und belastbarer Weiterentwicklungs-Roadmap.

Red Flags:
Allgemeine Begründungen wie „bestes Modell“ ohne die Validierung verschiedener Kandidaten oder häufige Modellwechsel ohne klare Kriterien deuten typischerweise auf eine geringe AI-Reife des Modells und der Organisation hin. Eine starke Abhängigkeit von einem einzelnen proprietären Drittanbieter-Modell kann zudem die strategische Flexibilität nach der Transaktion einschränken.

2. Architektur & Optimierung

Werttreiber:
Gut strukturierte, modulare Architekturen sowie eine klar definierte Fine-Tuning-Strategie zeigen technologische Tiefe und Kostenbewusstsein. Optimierte Inferenz-Pipelines sowie transparente Trade-offs zwischen Genauigkeit, Latenz und operativen Kosten sind starke Indikatoren für nachhaltige technische Kompetenzen.

Red Flags:
Black-Box-End-to-End-Architekturen, ad-hoc Fine-Tuning-Ansätze und das Fehlen robuster MLOps-Strukturen führen häufig zu Skalierungsproblemen und steigenden Betriebskosten. Eine eingeschränkte Reproduzierbarkeit von Trainings- oder Deployment-Prozessen ist insbesondere in Carve-out- und Post-Merger-Integrationsszenarien kritisch.

3. Eigentum, Lizenzierung & Daten-/IP-Governance

Werttreiber:
Klar dokumentierte Eigentumsverhältnisse an feinjustierten Modellen, Trainingsdaten und abgeleiteten Artefakten stärken die IP-Position des Targets. Dazu gehören kontrollierter Zugriff auf vertrauliche Trainingsdaten, nachvollziehbare Datenherkunft sowie explizite Nutzungsrechte für Input-Daten und resultierende Modellartefakte.

Die nachweisbare Generierung neuen proprietären IP durch Fine-Tuning (z. B. domänenspezifisches Modellverhalten, kuratierte Datensätze, Trainingspipelines) erhöht die Verteidigungsfähigkeit und Bewertung signifikant. Die Nutzung von Foundation-Modellen mit klar definierten kommerziellen Nutzungs- und Fine-Tuning-Rechten reduziert zusätzlich das Transaktionsrisiko.

Red Flags:
Unklare Lizenzbedingungen, ungeklärte Eigentumsverhältnisse an Trainingsdaten oder Modelloutputs sowie unzureichende Schutzmaßnahmen für vertrauliche Daten stellen wesentliche Deal-Risiken dar.

Die Nutzung von Datensätzen mit unklarer Herkunft, fehlenden Nutzungsrechten oder potenzieller regulatorischer Exposition kann zu erheblichen Haftungsrisiken nach der Transaktion führen. Unzureichende Dokumentation zur Entstehung und Absicherung von neuem IP wäre ein weiterer häufiger Schwachpunkt.

4. Produktintegration & Wettbewerbsvorteil

Werttreiber:
Eine tiefe Integration der KI-Funktionalitäten in zentrale Produktprozesse, Datenstrukturen und User Experience ist ein starker Indikator für einen nachhaltigen Wettbewerbsvorteil. Ist die KI-Funktionalität eng mit dem Wertversprechen verknüpft und kann nicht ohne signifikanten Funktionsverlust entfernt werden, steigt ihre strategische Relevanz erheblich.

Red Flags:
Oberflächliche Implementierungen – etwa lose gekoppelte Features oder rein Marketing-getriebene Use Cases – sind in der Regel leichter nachzuahmen. In solchen Fällen liefert die KI nur begrenzten zusätzlichen Wert und sollte entsprechend kritisch in der Bewertung berücksichtigt werden.

5. Kostenstruktur & Skalierbarkeit

Werttreiber:
Eine transparente und belastbare Kostenstruktur sowohl für Training als auch für Inferenz ist zentral für die Bewertung der Skalierbarkeit. Positive Indikatoren sind stabile oder sich verbessernde Unit Economics bei wachsender Nutzung oder eine effiziente Ressourcennutzung sowie Architekturentscheidungen, die Abhängigkeiten von kostenintensiver Infrastruktur reduzieren.

Flexibilität in der Infrastruktur (z. B. Multi-Cloud-Fähigkeit, Hardware-Abstraktion) unterstützt zusätzlich die langfristige Margenentwicklung und operative Resilienz.

Red Flags:
Stark schwankende oder unzureichend verstandene Kostentreiber – insbesondere bei Inferenz in großem Maßstab – können das Margenpotenzial erheblich beeinträchtigen. Abhängigkeiten von spezifischer Hardware (z. B. GPUs) oder einzelnen Cloud-Anbietern können Skalierung, Preissetzung und Verhandlungsspielräume einschränken.

Eine geringe Transparenz über die Kostenentwicklung bei wachsender Nutzung stellt ein häufiges und wesentliches Risiko in der Due Diligence dar.

6. Sicherheit & IP-Schutz

Werttreiber:
Robuste Sicherheitsmechanismen zum Schutz proprietärer KI-Assets – insbesondere kontrollierter Zugriff auf Modellgewichte, Trainingsdaten und Trainingsverfahren – sind essentiell für den Erhalt des IP-Werts. Reife Setups umfassen rollenbasierte Zugriffskontrollen, Monitoring der Modellnutzung sowie Schutzmaßnahmen gegen Modell-Leakage und Extraktionsangriffe.

Klare interne Richtlinien und technische Kontrollmechanismen zur Vermeidung eines unbeabsichtigten Wissenstransfers stärken den IP-Schutz zusätzlich.

Red Flags:
Unkontrollierter oder schlecht geregelter Zugriff auf Modelle, Prompts oder Trainingsdaten erhöht das Risiko von Datenabfluss und IP-Verlust erheblich. Anfälligkeit für Reverse Engineering oder Model-Extraction-Angriffe – insbesondere bei extern zugänglichen Systemen – stellt eine kritische Schwachstelle dar.

Sicherheitsaspekte werden häufig unterschätzt, können jedoch den Kernwert proprietärer KI direkt gefährden.

7. Regulatorische & Compliance-Reife

Werttreiber:
Eine proaktive Ausrichtung an relevanten regulatorischen Rahmenwerken – insbesondere in Jurisdiktionen wie der EU – signalisiert Reife und reduziert Umsetzungsrisiken. Dazu gehören etablierte Prozesse für Erklärbarkeit, Auditierbarkeit und Dokumentation sowie klare Governance hinsichtlich Datenherkunft und zulässiger Anwendungsfälle.

Eine frühzeitige Compliance-Readiness kann insbesondere in regulierten Branchen zukünftige Reibungsverluste deutlich reduzieren.

Red Flags:
Geringe Vorbereitung auf regulatorische Anforderungen (z. B. Dokumentation von Fine-Tuning-Anpassungen, strukturierte Zusammenfassungen der Trainingsdaten sowie Nachvollziehbarkeit der Datenherkunft gemäß EU AI Act) kann nach der Transaktion erheblichen Nachbesserungsaufwand verursachen. Fehlende Dokumentation, eingeschränkte Erklärbarkeit oder unklare Datenherkunft können die Einsatzfähigkeit einschränken oder regulatorische Risiken auslösen.

Reaktive statt proaktive Compliance-Ansätze sind ein typischer Indikator für ein erhöhtes Risiko.

Takeaways für KI Tech Due Diligence

Proprietäre, feinjustierte KI-Foundation-Modelle können einen starken und nachhaltigen Wettbewerbsvorteil begründen. Sie ermöglichen die Schaffung differenzierender, verteidigungsfähiger IP – basierend auf proprietären Daten, domänenspezifischem Modellverhalten und tief integrierten Produktfunktionen.

Dieser Mehrwert geht jedoch mit erhöhter Komplexität und einigen Umsetzungsrisiken einher. Im Gegensatz zu KI-Lösungen auf Basis externer APIs oder Drittanbieter-Modelle erfordern proprietäre Ansätze Kontrolle über ein deutlich breiteres Spektrum an Aspekten – darunter Datenherkunft und -qualität, Datenschutz und Vertraulichkeit, IP-Governance, Kostenstruktur, Sicherheit und regulatorische Compliance.

Die eigentliche Wertschöpfung entsteht daher nicht primär durch das Modell selbst, sondern durch die Fähigkeit der Organisation, diese Modelle skalierbar, sicher und regelkonform zu entwickeln, zu betreiben und zu schützen.

Gleichzeitig resultieren die wesentlichsten Risiken meist nicht aus technischen Leistungsdefiziten, sondern aus Schwächen in den Grundlagen – etwa unklaren Datenrechten, unzureichendem Schutz proprietärer Assets, mangelnder Kostentransparenz oder fehlender regulatorischer Vorbereitung.

Die zentrale Due-Diligence-Frage lautet daher nicht, ob das Modell funktioniert – sondern ob sein Wert nachhaltig, übertragbar und unabhängig vom ursprünglichen Betriebsumfeld verteidigbar ist.

Vorschau auf Teil 7

Als nächstes werden wir in Teil 7 der Blogserie das Thema "AI Coded Software: Was bleibt und was ändert sich bei einer Software Due Diligence?" genauer beleuchten.

Jetzt handeln: KI-Kompetenz gezielt in Ihre Transaktionsprüfung integrieren

Ob Tech-Akquisition oder Investition in ein datenbasiertes Geschäftsmodell – wenn KI eine Rolle spielt, brauchen Sie neue Kriterien, neue Methoden und Partner mit praktischer Erfahrung.

👉 Cape of Good Code kombiniert fundierte Technologieanalyse mit KI-spezifischer Expertise – und liefert innerhalb kürzester Zeit klare Einschätzungen zur Tragfähigkeit, Skalierbarkeit und Nachhaltigkeit Ihrer Zieltechnologie.

📞 Vereinbaren Sie ein unverbindliches Erstgespräch oder fordern Sie direkt unsere KI Software Due Diligence an.

Links

[0] Photo by wal_ 172619