Tset Blog | Insights zu Produktkosten- und CO₂-Simulation

Cost Engineering: Balance zwischen Menschen, Maschinen, Daten | Tset

Geschrieben von Maria Skvoznova | Mar 10, 2026 10:32:55 AM

Als der weltweit größte Motorcycle OEM öffentlich erklärte, dass „European manufacturing is dead“ sei, verstand Jürgen Gumpinger, Vice President Strategic Supply Chain Management bei KTM, dies als Signal und nicht als endgültiges Urteil.

Da 80% der Cost of Goods Sold bei KTM auf zugekaufte Teile entfallen, war die Toleranz für Ungenauigkeiten im Product Costing schlicht zu gering, um sie zu ignorieren. Seine Antwort war der Aufbau einer der datenintensivsten und am stärksten automatisierten Cost Engineering Organisationen in der Two-Wheeler-Industrie.

Auf dem Tset Summit 2025 in München blickte Jürgen Gumpinger auf sieben Jahre Praxiserfahrung beim Aufbau einer Cost Engineering Funktion von Grund auf zurück. Nachfolgend finden Sie die wichtigsten Erkenntnisse aus seinem Vortrag.

Starten Sie dort, wo Sie Ergebnisse zeigen können 

Vor sieben Jahren gab der CEO von KTM Jürgen Gumpinger eine klare Vorgabe: eine Cost Engineering Abteilung aufzubauen. Das Team begann dort, wo die meisten erfolgreichen Transformationen starten: mit should cost analysis. 

 

Should costing verschaffte dem Einkauf eine konkrete Grundlage. Procurement entwickelte sich von reaktiven Verhandlungen hin zu strategischem Denken auf Commodity-Ebene und gewann die interne Glaubwürdigkeit, die notwendig war, um die Funktion weiter auszubauen.

 

 

Vier Säulen, die Skalierung möglich machten 

Jürgen Gumpinger strukturierte die Entwicklung bei KTM rund um vier voneinander abhängige Säulen: Tools, Integration, Change und Data. Dedizierte Costing Tools bildeten das Rückgrat der Berechnungen und wurden über einen zentralen Data Lake mit bestehenden ERP-, PLM- und PDM-Systemen verbunden. Neben den klassischen Commodity Cost Engineers entstanden neue Rollen zur Unterstützung dieser Infrastruktur: Data Analysts, Automation Engineers und Vehicle Costing Specialists.

Von 3 Berechnungen pro Woche zu 500 pro Tag

Die Einführung von target costing zu Beginn jedes neuen Vehicle-Projekts veränderte den Umfang der Arbeit grundlegend. Engineers arbeiteten nun wöchentlich mit dem Cost Engineering Team zusammen, um Part-Level Cost Targets zu erreichen, und die Anzahl der erforderlichen Berechnungen stieg deutlich an. Aus ursprünglich 2 bis 3 Berechnungen pro Woche wurden mindestens 500 pro Tag. 

 

Um dieses Volumen zu bewältigen, führte KTM Automation über similarity search, random forest models für Standardteile sowie NLP-basierte Parameterprognosen ein. Das System identifiziert ein ähnliches historisches Teil, extrahiert dessen Abmessungen, Material und Gewicht und übergibt diese Parameter direkt an eine Berechnung in Tset oder Siemens. Dies funktioniert unabhängig davon, ob 3D-Daten verfügbar sind.

Spend mit 2,5 % Genauigkeit prognostizieren 

Eine der greifbarsten Demonstrationen des Mehrwerts in der Session war der Predictive-Analytics-Ansatz von KTM. Mithilfe eines Spend Cube, der Produktionspläne, Bill of Materials (BOM)-Daten, SAP-Materialinformationen und Zolldaten miteinander verknüpft, führt das Team Sensitivitätsanalysen über rund 260 should cost calculations pro Commodity durch. Das Modell berücksichtigt Veränderungen bei Rohstoffpreisen, Lohnkosten, Energie und Supplier-Aktivitäten. 

 

Controlling nutzt inzwischen Cost Engineering Daten direkt zur Erstellung der Midterm-Budget-Forecasts. Ein deutliches Zeichen dafür, dass die Funktion ihren ursprünglichen Umfang längst überschritten hat.

Was KTM auf dem Weg gelernt hat 

Neben den Erfolgen teilte Jürgen Gumpinger auch eine ehrliche Einschätzung der offenen Herausforderungen. Die Explainability der Ergebnisse bleibt eine zentrale Aufgabe: Wenn sich eine automatisierte Whole-Vehicle-Berechnung von einer Woche zur nächsten verändert, ist es alles andere als trivial, die Ursache über 1.500 Teile hinweg nachzuvollziehen. Die Qualität der Ergebnisse hängt zudem stark von den zugrunde gelegten Annahmen ab, insbesondere beim Vergleich von Kosten über unterschiedliche Geografien mit verschiedenen Prozessen und Machine Lifecycles hinweg. Eine frühe Ambition musste im Laufe der Zeit angepasst werden: Ein einzelnes Tool für alles zu finden, erwies sich als unrealistisch. Stattdessen entwickelte sich das Team in Richtung einer offeneren, integrierbaren Architektur.

 

Mit Blick nach vorne skizzierte Jürgen Gumpinger sechs Fokusfelder, die aus seiner Sicht die nächste Phase im Cost Engineering prägen werden:

  • Veränderung aktiv gestalten, indem Mehrwert sichtbar gemacht wird
  • In die richtigen Parameter-Sets investieren
  • Datenzugang im gesamten Unternehmen öffnen
  • Nachvollziehbare Vergleiche schaffen, um Vertrauen aufzubauen
  • Tools mit offenen APIs auswählen, um die Prozessintegration zu unterstützen
  • Kostenbewusstsein über den gesamten Entwicklungs- und Produktionszyklus hinweg etablieren

 

Interessieren Sie sich für die Teilnahme am Tset Summit 2026? Die nächste Ausgabe wird in Kürze angekündigt. Folgen Sie Tset auf LinkedIn und abonnieren Sie unseren Newsletter, um als Erste Ihre Einladung zu erhalten.