Der nächste Schritt in der Produktkonfiguration

3D-Konfiguratoren sind seit Jahren das Herzstück vieler CPQ-Lösungen (Configure-Price-Quote). Ob im Maschinenbau, in der Industrie oder im Retail: sie helfen, hochkomplexe Produkte und Anlagen visuell zusammenzustellen.

Doch jetzt verändert künstliche Intelligenz (KI) die Spielregeln.
Statt starrer Regelwerke eröffnen generative Modelle völlig neue Möglichkeiten – sie verstehen Nutzeranfragen, schlagen passende Konfigurationen vor oder erstellen ganze Anlagen autonom.

Ein Kunde aus der Industrie beauftragte mich, genau das zu evaluieren:
Wie kann KI sinnvoll in einen bestehenden 3D-Konfigurator integriert werden – und wie weit darf man gehen, bevor der Aufwand explodiert?

Ergebnis: Drei getestete Szenarien, von „KI als Empfehlungssystem“ bis zu „vollständig KI-generierten Konfigurationen“.

Szenario 1 – KI als Empfehlungssystem: Smart, sicher, aber limitiert

Im ersten Szenario wurde die KI als intelligentes Vorschlagssystem eingesetzt.

Der Ablauf war einfach, aber effektiv:

  1. Analyse der Nutzeranfrage – Die KI zerlegt den Text (z. B. „Ich brauche eine Verpackungsmaschine für Kartons mit 40 x 60 cm“) in messbare Kriterien.
  2. Normierung der Daten – Maße, Leistungsdaten und Optionen werden in ein einheitliches Format gebracht.
  3. Abgleich mit Konfigurationsdatenbank – Aus bestehenden Datensätzen werden die Top 3 passenden Konfigurationen ermittelt.
  4. KI-Ranking und Auswahl – Ein System-Prompt bewertet die Vorschläge und wählt die beste Option.
  5. Patch-Phase – Falls nötig, passt die KI die gewählte Konfiguration leicht an die Anfrage an.

Ergebnis:

Ein robustes, deterministisches System, das nie „halluziniert“. Die KI schlägt nur valide Konfigurationen vor – ideal für PoCs oder erste KI-Pilotprojekte.

Vorteile:

  • Zuverlässig und nachvollziehbar
  • Schnelle Implementierung
  • Kein Fine-Tuning oder Training nötig

Nachteile:

  • Keine neuen Konfigurationen
  • Eingeschränkte Flexibilität bei neuen Anforderungen

Fazit: Ideal als sicherer Einstieg in die KI-gestützte Konfiguration.

Szenario 2 – Hybridmodell mit RAG + Regelwerk: KI wird zum Co-Ingenieur

Das zweite Szenario war deutlich ambitionierter:
Ein Hybrid-System aus RAG (Retrieval-Augmented Generation), festen Regeln und logischer Validierung.

Hier interagiert die KI nicht nur, sie denkt mit – und baut aktiv neue Konfigurationen auf.

Architektur und Ablauf:

  1. Dialogfähigkeit:
    Wenn der Nutzer unklare Angaben macht, fragt die KI gezielt nach („Welche Raumhöhe hat Ihr Laden?“).
  2. Embedding und RAG-Abfrage (Pinecone):
    Die Anfrage wird vektorisiert und an eine RAG-Datenbank gesendet, die alle Komponenten kennt.
  3. Komponenten-Auswahl:
    Die Datenbank liefert passende Module, Bauteile oder Regale zurück.
  4. KI-Assembler:
    Eine zweite KI baut die Komponenten anhand eines vordefinierten Schemas (JSON-Struktur) zu einer vollständigen Konfiguration zusammen.
  5. Validator + Regelengine:
    Ein Validator prüft das Ergebnis und korrigiert es automatisch nach festen Regeln – z. B. Kollisionen, Abstände, X/Y/Z-Koordinaten.
  6. Letzte Kontrolle:
    Eine finale KI validiert die Logik und fragt beim Nutzer nach, wenn noch Unklarheiten bestehen.

Ergebnis:

Ein intelligentes, teil-autonomes System – deterministisch, aber in der Lage, völlig neue Konfigurationen zu generieren.

Vorteile:

  • KI erstellt eigenständige, konsistente Konfigurationen
  • System bleibt kontrollierbar
  • Erweiterbar durch neue Regeln und Module

Nachteile:

  • Hoher Entwicklungs- und Wartungsaufwand
  • Jede Branche / Kunde braucht eigene Regeln
  • Bei großen Szenarien (z. B. Supermärkte) wird es teuer

Fazit: Perfekter Mittelweg – KI und klassische Logik ergänzen sich. Ideal für mittlere Komplexität und Unternehmen mit klarer Regelbasis.

Szenario 3 – Vollständiges Fine-Tuning: KI schreibt die Konfiguration selbst

Das dritte Szenario war das ehrgeizigste: Ein Fine-Tuning eines Large Language Models, das komplette JSON-Konfigurationen generiert.

Ziel: die KI soll auf Basis realer Kundendaten selbstständig valide Konfigurationen erstellen, ohne externe Regeln.

Vorgehensweise:

  1. Datenaufbereitung:
    Alle bestehenden Konfigurationen wurden in JSONL-Format überführt – inklusive semantischer Anmerkungen und Beispielbilder, um die Struktur und Bedeutung zu lernen.
  2. Training (Fine-Tuning):
    • Parallel auf OpenAI (ChatGPT 4.1) und Fireworks AI mit Llama (5 GB)
    • Kosten: ca. 0,50 € pro Trainingseinheit
    • Server: 80 GB RAM, 2 Epochen
  3. Evaluation:
    Ein Evaluations-Script prüfte, ob das Modell nach dem Training gültige, konsistente JSON-Ausgaben erzeugt.
  4. Ergebnisse:
    • ChatGPT 4.1 (fine-getuned): 100 % gültige JSON-Struktur, sehr präzise.
    • Llama (5 GB): 80–90 % korrekte Struktur – akzeptabel, aber fehleranfälliger.
  5. Limitierungen:
    • Kontextfenster: 64 000–128 000 Tokens → nur Konfigurationen bis ~100 KB trainierbar.
    • DSGVO: Nutzung von Cloud-basierter KI (OpenAI) ist für viele Unternehmen nicht zulässig.
    • Kosten: Produktives Training kann bis zu 100 000 € verschlingen.

Ergebnis:

ChatGPT lieferte erstaunlich gute Resultate. Schon mit einem kleinen Datensatz erzeugte das Modell vollständige, valide Konfigurationen – ideal für Proof-of-Concepts.
Für produktive Systeme sind Open-Source-Modelle jedoch meist wirtschaftlicher und datenschutzfreundlicher.

Vorteile:

  • Vollständige Autonomie
  • Sehr hohe Lernfähigkeit
  • Schnell zum PoC

Nachteile:

  • Hohe Kosten
  • DSGVO-Risiko bei Cloud-Anbietern
  • Komplexes Retraining bei Schema-Änderungen

Fazit: Die Zukunft. Aber teuer, komplex und (noch) nicht DSGVO-konform für alle.

Vergleich der drei Ansätze

KriteriumVorschlag (S1)Hybrid RAG+Regeln (S2)Fine-Tuning (S3)
Neue Konfigurationen
Determinismus⚠️ Teilweise
Kosten💶 Niedrig💶💶 Mittel💶💶💶 Hoch
DSGVO-Konformität⚠️ Teilweise
WartungsaufwandGeringHochSehr hoch
PoC-GeschwindigkeitSchnellMittelMittel
SkalierbarkeitBegrenztMittelHoch (wenn budgetiert)

Technische Learnings aus der Praxis

  1. Konfigurationen modularisieren:
    Große JSON-Strukturen in kleinere Subsysteme zerlegen (z. B. Module pro Produktgruppe).
  2. Validatoren sind Pflicht:
    Ohne eine Validierungsschicht (Geometrie, Kompatibilität, X/Y/Z) ist jede KI-Konfiguration riskant.
  3. Fehlerbudget einplanen:
    Fine-Tuning ist teuer – und Retraining noch teurer. Plane von Anfang an 20–30 % Nachbesserungskosten ein.
  4. RAG-Index sauber halten:
    Pinecone oder pgvector nur mit validierten, konsistenten Datensätzen füttern.
  5. DSGVO immer mitdenken:
    Cloud-basierte Trainings (z. B. bei OpenAI) können problematisch sein – lokale LLMs (z. B. Mistral, Llama 3) sind sicherer.
  6. Proof-of-Concept zuerst:
    Nicht gleich das ganze System bauen. Ein schlanker PoC auf Szenario 1 oder 2 kann in wenigen Wochen laufen.

Fazit – KI-Konfiguratoren sind keine Zukunft mehr, sie passieren jetzt

KI verändert die Art, wie Produkte konfiguriert werden – nicht in 10 Jahren, sondern jetzt.
Ob Maschinen, Anlagen, Regalsysteme oder Retail-Layouts – wer KI-basierte Konfiguratoren nutzt, kann:

  • schneller reagieren,
  • komplexe Regeln automatisieren,
  • personalisierte Konfigurationen anbieten
  • und massiv Kosten sparen.

Wenn du selbst überlegst, KI in deine Konfiguratoren oder CPQ-Systeme zu integrieren, sprich mich gerne an. Ich helfe bei der technischen Architektur, Datenstrategie und Proof-of-Concepts – egal ob du mit ChatGPT, Pinecone, Llama oder lokalen LLMs arbeiten willst.


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert