So geht perfektes Timing: Pünktlich zum Start des Referats »DWII2 – Künstliche Intelligenz« im neuen Bundesministerium für Digitales und Staatsmodernisierung (BMDS) richtete SPECTARIS die Konferenz »KI in der Photonik - Mehr Wertschöpfung in Laserfertigungstechnik & Optikdesign« aus. Für Referatsleiterin Evelyn Graß markierte dieser 1. Oktober also einen doppelten Aufbruch. »Wir wollen eine KI-Nation werden!«, zitierte sie den Koalitionsvertrag. KI werde Vieles umwälzen und die Karten für die Wettbewerbsfähigkeit von Unternehmen und Staaten neu mischen. Daher müsse KI Chefsache werden. Die Ausgangslage sieht Graß positiv: »Wir haben hochwertige Daten aus unseren industriellen Prozessen, deren Wert es zu erkennen und zu nutzen gilt«. Sie freue sich, dass die Photonik diese Aufgabe entschlossen angeht.
Erst kommt die Datenstrategie – dann die KI
Die Konferenz zeigte dann, wie komplex und multidimensional die Herausforderung ist, Daten für KI-Anwendungen nutzbar zu machen. Am Anfang muss laut Stephan Kiene, Leiter des Azure-Geschäfts für öffentliche Auftraggeber bei Microsoft Deutschland, eine Datenstrategie stehen. Noch seien Datensilos verbreitet, die Daten darin unzugänglich und kaum kombinierbar. Er warb für zentrale Datenplattformen, auf denen Fertigungs- und Sensordaten mit Daten des Lifecycle Managements oder der Manufacturing Execution zusammenlaufen. Zudem brauche es genug Rechenleistung für Simulationen, Digitale Zwillinge und rechenintensiv KI-Prozesse.
Das Übergeordnete Ziel: engmaschige möglichst 360°-Qualitätsüberwachung. Viele Referenten schilderten den Bedarf. So auch Martin Stambke, TRUMPF-Produktmanager für Sensorik. Während eine Autotür 70 Schweißnähte habe, seien es bei Batterien und Brennstoffzellenstacks hunderte. Nicht eine davon dürfe fehlerhaft sein. Und während ein Produktionsfehler bei Autotüren mit unter 100 Euro zu Buche schlage, habe eine Batterie zum Zeitpunkt der Schweißprozesse schon mehrere 1.000 Euro Wert. Dr. Jan-Phillip Weberpals, AUDI-Experte für Laserstrahlprozesse, Sensorik und Machine Learning, und Konstantin Ribalko, der Key Account Manager bei Precitec ist, schilderten Ähnliches: »Bei der Zellkontaktierung für Batteriemodule darf trotz einer hohen Bandbreite an Materialdicken und Einschweißtiefen nicht eine der vielen hundert Schweißnähte pro Bauteil schadhaft sein«.
Kosten und Datenvolumina in den Griff bekommen
Es braucht tiefes Prozessverständnis und systematische Qualitätskontrolle, um Ausschuss zu minimieren. Emissionsbasierte Sensoriken, 3D-Bildgebung per Triangulation, Kamera- und OCT-Systeme oder auch Computertomographien (CTs) in und abseits der Fertigungslinien überwachen die Schweißprozesse. Die Prozessüberwachung generiert Unmengen an Daten und hohe Kosten. Beides ist problematisch; dies erst recht in regulierten Branchen, wie Christoph Hauck, Technologie- und Vertriebsvorstand der toolcraft AG berichtete. Er formulierte konkrete Wünsche an KI: Diese sollen ideale Parameterkonfiguration für eine vorausschauende Prozessplanung ermitteln, um Fehlern vorzubeugen. »Auch Echtzeit-Fehlererkennung im Prozess, die den Bedarf an teuren CTs minimiert, würde der Industrie sehr helfen«, erklärte er. Für additive Prozesse wünscht er sich eine automatische Parameteranpassung an neue Pulver-Chargen, Geometrien und Maschinenvarianten, adaptive Echtzeitregelungen sowie eine First-time-Right-Production, um auch bei Losgröße 1 auf Anhieb alle Qualitätsanforderungen erfüllen zu können. Und um in Pulverbettverfahren lastoptimierte Designs umsetzen zu können, seien Prozessstrategien wünschenswert, die nur entlang der Lastpfade perfekte Gefüge schaffen und ansonsten im Speed-Modus arbeiten, um AM-Bauteile schneller und günstiger zu produzieren.
Die Beispiele zeigen: Anwendungen werden komplexer, Bauteile wertiger und die Vielfalt an Verfahren, in denen KI datenbasiert die Prozesse optimieren soll, nimmt zu. Zugleich ist in industriellen Anwendungen Rückverfolgbarkeit gefragt. Nicht nur Hauck ließ durchblicken, wie unbefriedigend der Status-quo ist: die Unternehmen generieren große Datenmengen, die aber zu oft in Datensilos landen. Werden sie genutzt, ist der Erkenntnisgewinn oft gering. Kausalitäten bleiben unklar. Fehlerbewertungen erfolgen manuell und subjektiv. Der Aufwand der Prüfung und Prozessqualifizierung läuft aus dem Ruder. In dieser Problemlage kommt KI wie gerufen.