MaterialDigital INSIGHTS September 2020

Die Digitalisierung von Werkstoffen nimmt Konturen an. Chancen, Möglichkeiten, neue (Daten-) Räume.

Liebe Leserinnen und Leser,

Digitalisierung in der Werkstofftechnik und in der Materialforschung mausert sich vom Buzz-Word zum Begriff. Sie wird griffiger und nimmt Konturen an. Im Aufmacherbeitrag möchten wir diese Konturen beschreiben. Griffiger wird die Digitalisierung, auch, weil sich das vom Land-Baden-Württemberg geförderte Projekt MaterialDigital auf der Zielgeraden befindet und wir mit vielen Partnern hier Pionierarbeit leisten konnten. Unseren Workshop im April mussten wir Corona-bedingt leider absagen. Wir hatten uns sehr darauf gefreut, Ihnen in vier griffigen thematischen Blöcken hochkarätige Referenten zu präsentieren. In einigen Interviews mit Referenten möchten wir Ihnen im Newsletter etwas von dem Spirit des Workshops vermitteln. Für 2021 haben wir den nächsten Workshop geplant. An Themen mangelt es nicht, denn aktuell starten auch viele geförderte Projekte im Zusammenhang mit der vom Bundesministerium für Bildung und Forschung geförderten Plattform MaterialDigital. Auch dazu halten wir Sie auf dem Laufenden.

Wir wünschen Ihnen anregende »Insights« und freuen uns über Feedback.

Thomas Götz und Markus Niebel

Digitalisierung in der Werkstofftechnik

Die Chancen der Digitalisierung in der Werkstofftechnik heben: Den Wirkungsgrad von Werkstoffdaten als Rohstoff für Innovationen verbessern

Je klarer die Entstehungsgeschichte eines Bauteils nachvollzogen und die relevanten Einflussfaktoren identifiziert werden können, die seinen Zustand bestimmen, umso besser kann Einfluss auf seine Zuverlässigkeit und die Lebensdauer genommen werden. Dazu sind wir auf Verfügbarkeit von Werkstoffdaten und -informationen entlang des gesamten Produktlebenszyklus angewiesen. Hier setzt die Digitalisierung in der Werkstofftechnik an, mit dem Ziel die Erzeugung, Speicherung und Auswertung von Werkstoffdaten so zu gestalten und zu vernetzen, dass durchgängige Datenflüsse und Datenräume entstehen.

Konsequente und einheitliche Datenintegration über möglichst viele Schritte eines Produktlebenszyklus verspricht eine weitreichende Rückverfolgbarkeit von Bauteileigenschaften und die Abschätzung ihrer Ursachen. Das Aufsetzen solcher Ketten oder Datenströme ist in vielen Industrien aus Ingenieurssicht schon lange bekannt. Deren Reichweite und Qualität repräsentieren heute oft einen entscheidenden Wettbewerbsfaktor. Zum Heben des vergleichbaren Potentials für die Werkstofftechnik, also der Nachvollziehbarkeit der materialeigenen Vorgänge, benötigt man jedoch vollkommen neue Ansätze. Denn der Status Quo der wissenschaftlichen oder industriellen Praxis ist meist dadurch gekennzeichnet, dass benötigte Werkstoffdaten nicht verfügbar, Datensätze unvollständig oder inkonsistent sind. Zudem sind die wichtigen (Meta-)Daten in den Organisationen weit verstreut oder es fehlen wichtige Kontextinformationen, da sie nie dokumentiert wurden. Und damit sind die entscheidungsrelevanten Werkstoffinformationen lückenhaft, nicht übertragbar oder nicht vergleichbar.

Darüber hinaus ist es die sogenannte Multiskaligkeit von Werkstoffen, die der Übertragbarkeit von Industrie 4.0-Konzepten auf die Werkstofftechnik eine enorme Komplexität verleiht: Verschiedene chemische, physikalische und mechanische Phänomene spielen sich auf unterschiedlichen Zeit- und Längenskalen ab und müssen je nach gewünschter Aussagekraft berücksichtigt und entsprechend modelliert werden. Beispielsweise wird die Leistungsfähigkeit eines Magneten auf der Elektronenskala definiert. Die Korrosionsbeständigkeit eines Stahls auf der atomaren Skala. Die mechanische Funktionsleistung übernimmt die weitgehend heterogene Mikrostruktur mit ihren vielfältigen Defekten.

Damit sich nun mit der Digitalisierung in der Werkstofftechnik »bessere« Produkte erzeugen lassen, müssen Datenerzeugung, Datenspeicherung und Datenauswertung und die entsprechenden Datenströme so beschaffen sein, dass die Entstehungsgeschichte und alle Einflussfaktoren, die zum Endprodukt geführt haben, einheitlich nachvollziehbar und transparent werden. Die richtigen Werkzeuge dafür sind beispielsweise Ontologien, Wissensgraphen, vernetzte Datenbanken, Werkstoffmodelle, künstliche Intelligenzen, oder digitale Zwillinge. Letztlich geht es stets um die Frage, an welchen der unzähligen möglichen Stellschrauben denn nun gedreht werden kann oder muss, um ein Bauteil günstiger, zuverlässiger, leistungsstärker oder langlebiger zu machen.

Treiber für die digitalen Transformation der Werkstofftechnik sind der Kosten- und der Wettbewerbsdruck: Teure oder kritische Materialien müssen kosteneffizient substituiert werden, wirtschaftliche Wartungs- und Reparaturkonzepte benötigen belastbare Aussagen zur Restlebensdauer von Anlagen und Komponenten und Produktionsprozesse sollen wirtschaftlicher werden – möglichst ohne Einbußen bei der Leistungsfähigkeit der produzierten Bauteile. Und nicht zuletzt versprechen Datenprodukte zusätzliche Umsätze.

Um nun Mehrwerte in werkstoffintensiven Produktlebenszyklen erzeugen zu können, müssen vier Kompetenzfelder ineinandergreifen, die momentan noch viel zu häufig isoliert betrachtet werden: (1) Daten strukturieren und Dateninseln integrieren, (2) Datenströme implementieren, (3) Datenbestände analysieren, (4) Datenprodukte entwickeln.

(1) Daten strukturieren und Dateninseln integrieren: Die Basis der Digitalisierung in werkstoffintensiven Wertschöpfungsketten bildet die Strukturierung von Werkstoffdaten. Erst durch eine »gemeinsame Sprache« werden ein sinnhafter Austausch und eine Verknüpfung von Informationen möglich. Auf dieser Grundlage können Prozesse oder Prozessschritte datenbasiert dargestellt und Dateninseln zusammengeführt werden.

(2) Datenströme implementieren: Die vielzitierte durchgängige Verfügbarkeit von Werkstoffinformationen erfordert die Implementierung von Datenströmen. Dazu müssen Messdaten, Maschinen und -geräte zu einem digitalen Workflow integriert werden. Beispielsweise gilt es digitale Pfade von der Prüfmaschine bis zum Simulationstool mit automatischen Schnittstellen (»APIs«) zu etablieren.

(3) Datenbestände analysieren und nutzen: In vielen Unternehmen schlummern ungenutzte wertvolle Datenbestände, die es zu analysieren und zu nutzen gilt. Zentrale Arbeitsfragen sind: Wie können vorhandene, gegebenenfalls inkonsistente Werkstoffdaten für die Entwicklung neuer Produkte genutzt werden? Hierbei werden aufgrund der Vielzahl der Daten in Zukunft sicherlich die Methoden des maschinellen Lernens eine viel zentralere Rolle einnehmen.

(4) Datenprodukte entwickeln: Letztlich eröffnen digitalisierte Entwicklungs- und Produktionsprozesse neue Geschäftsmodelle. Dazu gehören digitalisierte Werkstoffe und digitale Zwillinge oder die Verhaltensvorhersage zur Auswahl eines neuartigen Materials. Daten werden für die Industrie von heute so vom rein internen Kompetenzfeld zum extern anbietbaren Produkt – und eröffnen dabei ganz neue Lernfelder, wie die Klärung rechtlicher Aspekte beim Datenaustausch.

Die Umsetzung von Digitalisierungsinitiativen mit dem Ziel Wertschöpfungspotenziale zu heben, beginnt mit der Frage (a) wo datenbasierte Entscheidungen getroffen werden müssen  und (b) wo relevante Werkstoffdaten erzeugt werden müssen. Die Blaupause ist eine Art (c) Netzplan dessen Verbindungslinien die Datenströme darstellen. Das Ausmaß der Implementierung wird schnell klar, wenn man die Ströme zum Fließen zu bringen möchte, denn dafür braucht es nun (d) Datenformate und Schnittstellen.

Aber nicht nur die technische Umsetzung und Machbarkeit stellt Organisationen vor große Herausforderungen. In großen Organisationen sind Bereichs-, Kultur- oder Unternehmensgrenzen zu überwinden, woraus auch kommunikative oder rechtliche Klärungsbedarfe resultieren. Wertschöpfende Datenströme müssen oft über Silogrenzen hinweg fließen, womit Aspekte der Organisationskultur, des Datenaustausches und der Kooperation und letztlich auch der Arbeitsteilung verbunden sind. Schon viel zu häufig ist die Implementierung innovativer Lösungen an einer mangelnden Kommunikation und dadurch geringer Akzeptanz gescheitert.

Das liegt auch daran, dass die kulturelle Perspektive im meist technologisch geprägten Diskurs (beispielsweise zu Wissensgraphen, KI oder digitalisierten Geräten) häufig untergeht. Jede größer angelegte Digitalisierungsinitiative ist ein Veränderungsprojekt für die Menschen, die Daten erzeugen, verarbeiten und interpretieren. Durch die Datenlandkarte und die Datenpfade entsteht eine neue Art der Transparenz zwischen den beteiligten Akteuren, die nicht in Abwehrreaktionen münden darf. Der Abgleich und die Optimierung von Datenflüssen wirkt dem Silodenken entgegen und kann zu Verschiebungen bei der Arbeitsteilung führen. Gleichzeitig kommen vielversprechende Datenflüsse über Grenzen hinweg ohne Anreizsysteme schnell zum Stocken. Hier gilt wohl, dass schwächere Lösungen mit größerer Akzeptanz mehr bewirken können, als umgekehrt.

Aus Organisationsperspektive reduziert sich ein großes Digitalisierungsprojekt so zum großen Teil auf Kommunikation, Kooperation und Koordination, sprich auf klassische Managementaufgaben, und darauf, Menschen mit Blick auf wertschöpfungsrelevante Daten sinnhaft und mit genügend kreativem Freiraum zueinander in Beziehung zu setzen.

Der Erfolg der Digitalisierung in der werkstoffintensiven Wertschöpfung hängt davon ab, wie gut digitale Methoden, organisationskulturelle Herausforderungen und letztlich die Übersetzung von Kundenanforderungen in Datenprodukte zusammenwirken – eine wahrhaft interdisziplinäre Aufgabe.

nach oben

© Fraunhofer IWM (Grafik: Gebhard | Uhl, Freiburg)

Expertengespräch: Dr. Michael Luke, Fraunhofer IWM: »Expertenwissen strukturieren«

 

Dr. Michael Luke leitet am Fraunhofer IWM das Geschäftsfeld Bauteilsicherheit und Leichtbau. Als Experte für Ermüdungsverhalten und Bruchmechanik von Metallen und Verbundwerkstoffen war er zuvor für das  Deutsche Zentrum für Luft- und Raumfahrt und die Deutsche Bahn mit Werkstofffragen befasst. Wir sprachen mit ihm über die Potenziale der strukturierten Ablage von Materialdaten in der Produktentwicklung.

 

Herr Luke, Sie arbeiten an Datenräumen, mit denen man Produkte schneller entwickeln kann. Was ist denn überhaupt ein Datenraum?

Das ist eine strukturierte Datenablage auf Basis von Ontologien. Das heißt, beliebige Informationen sind darin system-, fach- und Dimensionen übergreifend miteinander verknüpft. Jeder Datenpunkt in diesem Raum ist über die Wechselwirkungen mit anderen Datenpunkten und seine Historie identifizierbar.

Das klingt sehr virtuell. Was bedeutet das für die Produktentwicklung?

Technisch gesehen ist ein Datenraum nichts weiter als eine Datenbank. Der Clou ist aber, dass die Daten mit ihrer Entstehungsgeschichte und wichtigen Abhängigkeiten dort abgelegt sind, so dass man auf diesen Datenraum statistische oder Machine Learning Methoden anwenden kann, um eine verlässliche Vorhersage von Werkstoffsystemeigenschaften oder Vorschläge für optimale Werkstoffzustände zu bekommen. Ein sinnvoll angelegter und befüllter Werkstoff- oder Werkstoffsystemdatenraum ermöglicht einem Unternehmen belastbare Daten zur Vorhersage von Produkteigenschaften zu einem Zeitpunkt, in der die Hardware noch gar nicht da ist. So kann ich verschiedene Produktszenarien durchzuspielen, bevor ich mich für eines entscheide.

Das Implementieren von Datenräumen ist noch nicht in der Praxis angekommen. Warum nicht?

Es fehlen Erfahrungswerte und vorgefertigte Ontologien, auf denen man Produkten datentechnisch aufbauen kann. Eine akzeptierte Lösung zwischen unterschiedlichen Stakeholdern eines Unternehmens nimmt außerdem aufgrund der Abstimmung hinsichtlich Datensicherheit, Datensouveränität sowie neuer Geschäftsmodelle viel Zeit in Anspruch. Auch für einfache Anwendungsfälle muss man schon ein halbes Jahr für die Konzeption eines unternehmensspezifischen Datenraums einplanen. Die Fraunhofer-Gesellschaft hat daher Forschungsmittel bereitgestellt, um auf diesem Gebiet Vorarbeit für die deutsche Industrie zu leisten. Ziel ist es, ein Grundgerüst zu erarbeiten, das dann nur noch angepasst werden muss. Damit hält sich der Zusatzaufwand für Unternehmen in Grenzen.

Wie sieht das konkret aus, gibt es ein Forschungsprojekt?

So ist es. Drei Fraunhofer-Institute (IWM, IAIS, ITWM) haben sich zusammengeschlossen, um zu demonstrieren, welche Vorteile ein Unternehmen hat, wenn es Daten strukturiert ablegt und vernetzt und daher besser analysieren kann. Da alle Institute Teil der Fraunhofer-Gesellschaft sind, haben wir den Vorteil, dass wir rechtliche Fragestellungen beispielsweise zum Dateneigentum zunächst ausblenden können. Wir wollen der Industrie einen Demonstrator zur Verfügung zu stellen, mit dem wir zeigen, dass mit Ontologien strukturierte Daten wirklich einen geldwerten Vorteil in der digitalisierten Produktentwicklung darstellen. In diesem Demonstrator sollen die Datenräume unserer Anwendungsfälle in der gleichen Programmoberfläche nutzbar sein und kundentypische Fragen beantworten, beispielsweise »Wie muss mein Werkstoff eingestellt sein, wenn ich bestimmte Produkteigenschaften absichern will?«

Welche Anwendungsfälle untersucht das Projekt?

Wir betrachten in diesem Projekt zwei Anwendungsfälle und wollen zeigen, dass ein Datenraum jede Fragestellung erschlagen kann, wenn er richtig aufgesetzt ist.

Als Werkstoff betrachten wir höchstfeste Stähle, die zwar hohe Festigkeiten aufweisen, auf zyklische Belastung (Ermüdung) aber unter Umständen empfindlich reagieren. Bisher gibt es wenige Richtlinien, die verbindliche Aussagen zu ihrem Ermüdungsverhalten treffen, weil diese sich aus sehr vielen und gleichzeitig komplexen Faktoren ergeben, wie beispielsweise unterschiedliche Gefügen, Härten, Oberflächenrauheiten, Defektverteilungen, Wärmebehandlungszuständen und so weiter.

Als Werkstoffsystem betrachten wir Biege- und Torsionssteifigkeiten von Kabelbündeln für die Konfektionierung und Montagesimulation moderner Automobilelektronik. Die Kabel alleine bestehen schon aus unterschiedlich aufgebauten Metalllitzen und  Kunststoffisolierungen. In Kabelbäumen kommen noch die unterschiedlichen geometrischen Anordnungen der Einzelkabel und deren Fixierung hinzu. Der Kabelbaum der zu einem Blinklicht geht, ist ein komplett anderer als der für die Antriebssteuerung. Alle resultierenden Biege- und Torsionssteifigkeiten messtechnisch zu ermitteln ist aufwändig, diese vorab aus bekannten Testdaten abzuleiten, die Zielstellung.

In beiden Fällen gilt es, alle relevanten Parameter und ihre Abhängigkeiten in der strukturierten Datenablage verfügbar zu haben. Dann können statistische und ML-Methoden die benötigten Antworten liefern.

 Was sind die Herausforderungen bei der Implementierung eines Datenraumes?

Für die Unternehmen stellt sich die Frage, wie Daten aufbereitet sein müssen, damit sie erfasst werden können. Man kann nicht einfach direkt aus der Maschine Daten in eine Tabellenkalkulation laufen lassen. Damit die Daten übertragbar sind und eine Verknüpfung zwischen Herstellung und Prüfergebnis erlauben, sind standardisierte Begrifflichkeiten und Bezüge wichtig. In einer Ontologie kann es nur einen einheitlich definierten Begriff beispielsweise für die Festigkeit von Stählen geben. Das klingt jetzt viel trivialer als es tatsächlich ist – es reicht ja schon ein unterschiedlicher Buchstabe und ein ungeschultes Auge oder erst recht ein Computer erkennen es nicht als gleichwertig an. Im Projekt bauen wir auf der von der EU favorisierten EMMO (European Materials Modelling Ontology) auf, an deren Entwicklung wir maßgeblich beteiligt sind. Am Fraunhofer IWM nutzen wir in anderen Projekten allerdings auch die Basic Formal Ontology (BFO) des Briten Barry Smith.

Wenn wir ein Unternehmen begleiten, beginnen wir mit dem Zuhören. Der Kunde zeigt uns zu Beginn, wie er seine Dinge bezeichnet und wir analysieren dann gemeinsam die Bezüge zu einer Ontologie: Was kann wie eingespeist und abgelegt werden? Entscheidend ist, herauszufinden, welche Prozesse und Daten eigentlich wichtig sind. Manche Firmen haben ihre Not, wenn jahrzehntelange Erfahrungsträger aus dem Betrieb ausscheiden. Obwohl man die Abläufe unverändert fortsetzt, läuft es nicht mehr so wie vorher. Ein Grund ist vermutlich, dass der Experte unbewusst ein paar Daten im Kopf mitverfolgt hat, die in der Dokumentation nicht fixiert sind. Im Interview hinterfragen wir daher Arbeitsprozesse und helfen, Expertenwissen zu strukturieren und in einer anderen Form darzustellen.

Zum Glück sind sie Werkstoffexperten! Können Sie auch in anderen Domänen tätig werden?

Natürlich bieten wir unseren Kunden unser eigenes Domänenwissen, nicht nur im Bereich der Ontologieentwicklung, sondern in unseren klassischen werkstoffwissenschaftlichen Kernbereichen. Zu dem Zweck erzeugen wir auch Daten für den Datenraum des Kunden beispielsweise durch Ermüdungs- oder Crashexperimente. Darüber hinaus bieten wir Tools, die auf dem gefüllten Datenraum aufsetzen, beispielsweise Software-Werkzeuge und Werkstoffmodelle zur Analyse und Simulation. Unser Konsortium besteht aus drei divers aufgestellten Fraunhofer-Instituten. Zusammen können wir schon einiges abdecken.

nach oben

© Fraunhofer IWM (Grafik: Gebhard | Uhl, Freiburg)

Expertengespräch: Heiko Witte, Rolls-Royce: »Crossfunktional zu neuen Horizonten«

 

Mit »Power by the hour« hat Rolls-Royce bereits 1962 ein Konzept eingeführt, das heute als Vorreiter für datengetriebene Geschäftsmodelle gilt. Wie der Stand der Digitalisierung bei so einem Pionier heute aussieht, erklärt Heiko Witte. Er koordiniert und leitet am Standort Dahlewitz die Digitalisierungs- und Industrie-4.0-Projekte des Unternehmens.

 

Herr Witte, Sie haben in 20 Jahren bei Rolls-Royce sehr viele Bereich durchlaufen und als Head of Engineering Improvement & Quality einen sehr guten Überblick. Ist die Digitalisierung in den Materialwissenschaften ein stetiger Prozess, der seit Jahrzehnten läuft oder hat sie seit kurzem eine neue Qualität bekommen?

Bei Rolls-Royce ist das klar die Fortführung eines seit vielen Jahren laufenden Prozesses im Unternehmen. Digitalisierung ist bei uns die logische Konsequenz aus unserem Antrieb das Produktverständnis kontinuierlich weiter zu verbessern und damit in Produktlebenszyklen zu denken. Das alles ist Teil unserer IntelligentEngine Vision – einer Zukunft, in der Produkt und Dienstleistung dank der Fortschritte bei den digitalen Fähigkeiten untrennbar miteinander verbunden sind. Die Digitalisierung verändert unsere Prozesse und erlaubt uns wesentlich mehr Daten über unsere Produkte zu erfassen und zu analysieren, was wir wiederum nutzen, um Prozesse und Produkte weiter zu optimieren. Über eine gesamte Flotte gesehen nehmen wir mittlerweile Triebwerksdaten im Umfang von Terabytes ab, die wir für die Vorhersage der Zuverlässigkeit nutzen.

Seit einigen Jahren dringt die Digitalisierung verstärkt auch in Bereiche vor, die nicht direkt kundennah sind, wie zum Beispiel Einkauf, Forschung und Entwicklung sowie Montage. Daten aus diesen Bereichen, wie unterschiedliche Module und Modelle, ermöglichen ein noch umfassenderes Prozessverständnis. Gleichzeitig nehmen technische und regulatorische Anforderungen in unserem Bereich extrem zu – da ginge es ohne die Möglichkeiten der Digitalisierung gar nicht mehr weiter.

Wie findet man in so einem Umfeld Dateninnovationen und wie werden sie honoriert?

An die Grenzbereiche, vor allem im Hinblick auf die Materialeffizienz, komme ich nur mit der Integration der verschiedenen Fachbereiche heran. Wir brauchen also nicht nur ein Datenconsulting, sondern müssen im Digitalisierungsprozess alle Funktionen eines Unternehmens mit einbeziehen und anfangen bereichsübergreifend zu denken. Dazu gehören auch die Einbindung von strategischem Marketing, der Fertigung und so weiter. Konkret bedeutet das, dass ich als Monteur Einblicke vom Konstrukteur brauche, in der Entwicklung und im Marketing muss ich bedenken, wie Fertigung und Montage sich auf das Produkt auswirken und so weiter. Wir glauben, dass wir dieser Herausforderung nur mit neuen Denkweisen begegnen können.

 

»Ein äußeren Einflüssen gegenüber abgeriegelter Prozess kann niemals sein vollständiges Potential ausreizen.«

 

Das gilt für das gesamte Unternehmen wie für unsere industriellen Prozesse gleichermaßen. Um flexibler zu agieren, nutzen wir unter anderem Lean- und Design-Thinking-Konzepte und holen uns über Kooperationen, beispielsweise mit dem Hasso-Plattner-Institut, externes Fachwissen dazu ins Unternehmen.

Der Digital Twin ist wiederum eines der wichtigsten digitalen Werkzeuge, um Wissen im Unternehmen verknüpfen zu können. Wir verstehen dabei den digitalen Schatten als reines Abbild und den Zwilling als seine Erweiterung mit virtuellen Sensoren oder anderen verknüpften Daten, beispielsweise von IoT-Geräten oder Daten aus der Fertigung. Der digitale Zwilling macht aus Daten Informationen, indem er sie in einen Kontext setzt. So ermöglicht er mir ein viel plastischeres Verständnis meiner Daten, als ich es jemals durch Excel-Tabellen bekommen könnte.

Wir haben mit R2 DataLabs einen globalen Bereich ins Leben gerufen, der für unseren Konzern in drei Artificial Intelligence-Zentren Dateninnovationen erarbeiten und diese intern und extern anwenden soll. Triebfeder ist klar die interne Wertschöpfung. Durch unser Serviceverständnis sind wir auf der Suche nach Einsparungen und Verbesserungen auf Basis des besseren Produktverständnisses. Wir haben dadurch noch keine reinen digitalen Produkte, aber unsere Produkte werden zum Gesamtservice mit angegliederten Diensten. »Power by the hour« funktioniert nur, wenn ich genaue Daten habe, um Vorhersagen treffen zu können, beispielsweise »wie reagiert mein Triebwerk auf Abweichungen?«.

Wo gibt es noch Entwicklungsbedarfe?

Die große Frage ist, wo machen wir weiter, nach dem die offensichtlichen, einfachen Projekte abgearbeitet wurden? Wir haben ja auch hohe Grundkosten der Digitalisierung. Das erfordert eine Priorisierung und damit eine Strategie. Und für diese muss ich eigentlich schon vorher wissen, welche Antwort ich erhalten möchte. Aber die Digitalisierung bringt es nun mal mit sich, dass sie mir Antworten auf Fragen liefert, die ich vorher noch gar nicht hatte. Jedes Mal, wenn ich neue Daten erschließe, tun sich auch neue Perspektiven auf. Das heißt einen Teil ihrer Digitalisierungsarbeit müssen Unternehmen auch gerade am Anfang explorativ vornehmen. Dabei ist klar, dass diese immer in Balance zum Kerngeschäft durchgeführt werden muss.

Für zukünftige Produkte von Rolls-Royce ist klar, dass ich vorab nicht nur ein besseres Bauteil- und Modulverständnis, sondern auch ein Systemverständnis haben und wissen will, wie sich mein Produkt in einem Gesamtsystem integriert. Aktuell sind wir beteiligt an einem Projekt zur Entwicklung von hybrid-elektrischen Triebwerkssystemen. Die Einzelsysteme sind für sich allein genommen schon unglaublich komplex. Um diese Kombination zu beherrschen ist die frühzeitige Entwicklung des Digitalen Zwillings wettbewerbsentscheidend.

nach oben

© Fraunhofer IWM (Grafik: Gebhard | Uhl, Freiburg)

Expertengespräch: Dr. Lutz Weber, Ontochem: »Das Weltwissen erschließen«

 

Der Chemiker und Pharmazeut Dr. Lutz Weber ist Geschäftsführer der OntoChem GmbH. Das Unternehmen mit Sitz in Halle an der Saale unterstützt seine Auftraggeber dabei, Fragestellungen, die sich aus der Entwicklung und Erforschung neuer Materialien ergeben, zu beantworten. Dazu durchforstet OntoChem softwaregestützt das »Weltwissen« und stellt die Erkenntnisse aufbereitet in strukturierter Form zur Verfügung.

 

Herr Weber, warum ergeben sich Fragestellung aus neuen Materialien, die sie beantworten möchten?

Es wird nach wie vor unterschätzt, wie komplex materialwissenschaftliches Wissen mit seinen vielen unterschiedlichen Herstellungsweisen und Zusammensetzungen ist. Auch die externen Anforderungen an Materialien nehmen zu. Nehmen Sie zum Beispiel Mikroplastiken in Kosmetik oder Nanomaterialien in Sonnencremes. Die waren erst der Hype und fast überall drin und jetzt sind wir mindestens vorsichtig und maximal sogar vom Gegenteil überzeugt. Neue Materialien erzeugen neue Fragestellungen, das wird sich nie ändern. Fragen von heute betreffen beispielsweise wie oder durch was kann ich seltene Erden in meinen Elektromotoren oder Batterien ersetzen.

Und wie kann das Weltwissen helfen und was ist das überhaupt?

Weltwissen nennen wir die Gesamtheit des elektronisch verfügbaren Wissens auf der Welt. Das hat im Zuge der Digitalisierung unglaubliche, ich würde sogar sagen dramatische Ausmaße angenommen. Und wenn Sie dieses Wissen für ihre Fragestellung nutzbar machen können, dann ist fast alles möglich. Auf unseren Servern haben wir 400 Millionen entsprechend lizenzierte Dokumente und das ist noch gar nichts.

 

»Die gesamte Wissenspipeline der Menschheit läuft mittlerweile digital.«

 

Das geht vom Förderantrag, über die wissenschaftlichen Abschlussarbeiten der damit eingestellten Forscher, über deren Publikationen und Konferenzbeiträge, bis hin zu Patentschriften und technischen Dokumentationen, die diese Leute dann in Unternehmen erarbeiten. Sogar Fernsehbeiträge werden mittlerweile verlässlich komplett textlich erfasst, so dass einem fast nichts mehr entgeht.

Alles was es zur Nutzung braucht ist ein Software-Roboter, der dieses Wissen dann für mich ausliest?

Nicht ganz. Wir sind auch keine reine IT-Firma, sondern koppeln das technische Know-How mit fachlicher Kompetenz. Jede wissenschaftliche Disziplin hat einen eigenen Wortraum. Die deutsche Sprache kennt ca. 50.000 Wörter. Das klingt erstmal viel, bis sie sich die Sprachen der Wissenschaften anschauen. Den komplexesten Sprachraum nutzt das Gebiet der Chemie, dort haben wir 450 Millionen verschiedene Wörter. Bei den Materialwissenschaften ist es ähnlich, verantwortlich sind die vielen möglichen Materialkombinationen, die alle einen eigenen Namen tragen. Noch etwas weniger komplex ist die Biologie. Auf der Erde gibt es beispielsweise geschätzt 8 Millionen verschiedene Spezies.

Für unsere Arbeit brauchen wir nicht nur die Wissensquellen, sondern auch die intellektuellen Konzepte. Ein Computer weiß per se nicht, dass beispielsweise »Silberweide« oder »Buche« zur Gruppe der Bäume gehören. Daher müssen unsere Mitarbeiter unsere Ontologien auch kontrollieren können. Wenn ich Möbel herstellen will, ist es praktisch zu wissen, dass auch die Buche als Ausgangsmaterial in Frage kommt. Dieser Arbeitsschritt heißt Normalisierung.

Was kann denn für mein Unternehmen alles extrahiert werden, nur materialwissenschaftliches oder auch betriebs- oder geisteswissenschaftliches Wissen?

Da ist viel machbar. Denken Sie beispielsweise an Sentiment- bzw. Reputationsanalysen. Wenn ich ein Produkt habe und wissen will, wie das auf dem Markt ankommt, also wie es rezensiert, besprochen, in Studien verglichen wird etc. Dann ließe sich ein Roboter bauen, der entsprechende Texte scannt und Warnungen heraus gibt bei bestimmten Funden. Dann kann ich als Unternehmen mit Gegenmaßnahmen oder Krisen-PR reagieren, um Verkaufseinbrüche oder einen Imageschaden beispielsweise in Form eines Shitstorms zu verhindern. Eine rein syntaktische Stichwortanalyse alleine reicht da nicht aus, so dass wir auch semantisch, also die Textbedeutung analysieren müssen.

Wo geht die Reise hin?

Aktuelles Thema ist die Anwendung von Machine Learning zum Einsatz in der Unternehmensführung. Im Pharmabereich wird KI dort bereits schon sehr ausgedehnt eingesetzt, auch im Portfoliomanagement. Beliebt sind beispielsweise Vorhersagen zur Erfolgswahrscheinlichkeit von Arzneimitteln. Diese werden vorgenommen noch bevor klinische Studien komplett abgeschlossen sind. Dann wird nach Informationen gesucht, wann das Mittel auf den Markt kommen könnte, wo der Freedom-to-Operate liegt, was gibt es für Konkurrenten und wie sehen deren Daten aus etc. Machine Learning hat den Vorteil, dass wir kein vordefiniertes Modell benötigen, nach dem Erfolgskriterien unterschieden werden müssen, d.h. wie der Erfolg aussieht, findet die Maschine alleine heraus. Das bedeutet im Umkehrschluss allerdings auch, dass wir sehr viele Daten für ein gutes Ergebnis benötigen.

Sie arbeiten auch viel für US-amerikanische Unternehmen wie Google. Was haben die uns voraus?

Die Datenbasis ist im Bereich Materialwissenschaft und Maschinenbau in Deutschland gerade massiv in der Wachstumsphase und wir fangen an, mit den im Internet der Dinge erhobenen Daten richtig zu arbeiten. Gerade im Bereich Automotive sind wir aus meiner Sicht deutlich besser aufgestellt als vielfach dargestellt. Nachholbedarf besteht glaube ich eher auf der Seite des Datenhandlings. Das ist für Deutschland leider im Moment keine Frage des Wollens, sondern des Könnens.

Das Silicon Valley hat in letzten Jahrzehnten sehr viel »Rohstoff« gesammelt und gelernt, gut mit großen Datenmengen umzugehen. Unsere Nutzung des Weltwissens steckt noch in den Kinderschuhen. Facebook und gerade Google haben nicht nur viel mehr Daten, sondern auch einen deutlich besseren Zugang zu Fachpublikationen. Das liegt daran, dass die Verlage sie hinter ihre Paywalls lassen, wo diese Unternehmen dann Daten einsammeln können, an die andere gar nicht heran kommen.

nach oben

Updates aus der Forschungscommunity

Die Plattform MaterialDigital hat sich zum Ziel gesetzt eine übergreifende und integrierte Materialdatenumgebung für industrienahe Anwendungen zu entwickeln. Dazu sollen Forschungsdaten durch Ontologien einheitlich strukturiert und mit geteilten Workflowtools auswertbar werden.

Im Kontext der Plattform werden einige weitere Projekte öffentlich gefördert. Zur ersten Ausschreibung von September 2019 hat das BMBF nun konkrete Projektskizzen ausgewählt und zur Antragsstellung aufgefordert. Intern arbeitet das Verbundprojekt derweil an der Etablierung gemeinsamer Methoden für die Digitalisierung von Produktionsworkflows und deren Schnittstellen zur Auswertungssoftware. Mehr Informationen dazu gibt es in den letzten Plattform-News der Initiative.

nach oben

DigiBites – Das Digitalisierungsglossar

© Fraunhofer IWM

G wie Graphdatenbank – Die »typische« Datenbank ist wie eine Sammlung von Tabellen. Eine Tabelle repräsentiert dabei eine Sammlung gleichartiger, vordefinierter Dinge pro Zeile und jeweils eine ihrer Eigenschaften pro Spalte. Bei der Suche nach einem Datensatz anhand mehrerer Kriterien (dem »Query«) müssen Informationen aus mehreren, teils verteilt vorliegenden, Tabellen »in Relation« kombiniert werden – daher spricht man auch von einer relationalen Datenbank. Dies ist praktisch für bekannte, hochstrukturierte und standardisierte Daten, aber sehr rechenintensiv zur Abfrage komplexer und stetig wachsender Verhältnisinformationen. Hier schafft die Graphdatenbank Abhilfe: Sie strukturiert jede Information in Form eines Tripels als »Subjekt (»Knoten«) – Prädikat (»Kante«) – Objekt (»Knoten«)« und kann als Netzwerk abgebildet werden.

Siehe die Beispiele unten. In der Tabelle müssen die Verhältnisse zwischen den Datensatzeigenschaften bekannt sein. Sie ist damit unflexibel gegenüber der Ergänzung um weitere Eigenschaften und nur mit erheblichem Aufwand zur organisationsübergreifenden Standardisierung geeignet.

nach oben