DE112019005373T5 - Framework für maschinelles lernen zum finden von materialien mit gewünschten eigenschaften - Google Patents

Framework für maschinelles lernen zum finden von materialien mit gewünschten eigenschaften Download PDF

Info

Publication number
DE112019005373T5
DE112019005373T5 DE112019005373.6T DE112019005373T DE112019005373T5 DE 112019005373 T5 DE112019005373 T5 DE 112019005373T5 DE 112019005373 T DE112019005373 T DE 112019005373T DE 112019005373 T5 DE112019005373 T5 DE 112019005373T5
Authority
DE
Germany
Prior art keywords
materials
base material
computer
response
predictive model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019005373.6T
Other languages
English (en)
Inventor
Takayuki Katsuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of DE112019005373T5 publication Critical patent/DE112019005373T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/30Prediction of properties of chemical compounds, compositions or mixtures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C60/00Computational materials science, i.e. ICT specially adapted for investigating the physical or chemical properties of materials or phenomena associated with their design, synthesis, processing, characterisation or utilisation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/40Searching chemical structures or physicochemical data
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/70Machine learning, data mining or chemometrics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Computational Linguistics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Es wird ein auf einem Computer ausgeführtes Verfahren zum Entdecken neuer in Frage kommender Materialien anhand einer chemischen Datenbank vorgestellt. Das Verfahren umfasst ein Extrahieren eines Merkmalsvektors aus einer chemischen Formel, ein Erlernen eines Vorhersagemodells zum Vorhersagen von Eigenschaftswerten aus dem Merkmalsvektor mit einem Sparse-Kernel-Modell unter Verwendung der chemischen Datenbank, ein Auswählen eines vorhandenen Materials aus einer Liste von vorhandenen Materialien, die beruhend auf den vorhergesagten Eigenschaftswerten durch das in dem Lernschritt erlernte Vorhersagemodell in absteigender Reihenfolge sortiert ist, ein Auswählen eines Basismaterials aus einer Liste von Basismaterialien, die in absteigender Reihenfolge der absoluten Reaktionsgrößen in Bezug auf das ausgewählte vorhandene Material sortiert ist, und ein Generieren der neuen in Frage kommenden Materialien als Varianten des ausgewählten vorhandenen Materials unter Berücksichtigung des ausgewählten Basismaterials.

Description

  • HINTERGRUND
  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich im Allgemeinen auf ein Entdecken neuer Materialien und im Besonderen auf ein Framework für maschinelles Lernen zum Finden neuer Materialien mit gewünschten Eigenschaften.
  • Beschreibung des Standes der Technik
  • Die Praxis des Data-Minings hat angesichts der Verfügbarkeit großer Datenmengen zu einem Paradigmenwechsel in der wissenschaftlichen Forschung geführt, von der Erfahrungswissenschaft über theoretische Simulationswissenschaften hin zur Datenwissenschaft. Insbesondere gibt es ein wachsendes Interesse an dem Anwenden fortschrittlicher Techniken des maschinellen Lernens zur Unterstützung der Entdeckung von Materialien, die eine computergestützte Entdeckung, Entwicklung, Herstellung und Verwendung von fortschrittlichen Materialien mit einer wesentlich höheren Geschwindigkeit und zu geringeren Kosten vorsieht. Anwendungen in der realen Welt fördern die Entwicklung von Verfahren, die helfen, objektiv neue Materialien mit gewünschten Eigenschaften für konkrete Anwendungen zu schaffen, indem sie das, was man sieht (z.B. die Struktur eines Kristalls, die Zusammensetzung einer Verbindung) mit dem verbinden, was man will (z.B. eine bestimmte Anforderung an die Festigkeit einer Legierung).
  • KURZDARSTELLUNG
  • Gemäß einer Ausführungsform wird ein Verfahren zum Entdecken neuer in Frage kommender Materialien anhand einer chemischen Datenbank bereitgestellt. Das Verfahren umfasst ein Extrahieren eines Merkmalsvektors aus einer chemischen Formel, ein Erlernen eines Vorhersagemodells zum Vorhersagen von Eigenschaftswerten aus dem Merkmalsvektor mit einem Sparse-Kernel-Modell unter Verwendung der chemischen Datenbank, ein Auswählen eines vorhandenen Materials aus einer Liste von vorhandenen Materialien, die beruhend auf den vorhergesagten Eigenschaftswerten durch das in dem Lernschritt erlernte Vorhersagemodell in absteigender Reihenfolge sortiert ist, ein Auswählen eines Basismaterials aus einer Liste von Basismaterialien, die in absteigender Reihenfolge der absoluten Reaktionsgrößen in Bezug auf das ausgewählte vorhandene Material sortiert ist, und ein Generieren der neuen in Frage kommenden Materialien als Varianten des ausgewählten vorhandenen Materials unter Berücksichtigung des ausgewählten Basismaterials.
  • Gemäß einer anderen Ausführungsform wird ein System zum Entdecken neuer in Frage kommender Materialien anhand einer chemischen Datenbank bereitgestellt. Das System umfasst einen Hauptspeicher und einen oder mehrere Prozessoren, die mit dem Hauptspeicher Daten austauschen und so konfiguriert sind, dass sie einen Merkmalsvektor verwenden, der aus einer chemischen Formel extrahiert wurde, ein Vorhersagemodell zum Vorhersagen von Eigenschaftswerten aus dem Merkmalsvektor mit einem Sparse-Kernel-Modell unter Verwendung der chemischen Datenbank erlernen, ein vorhandenes Material aus einer Liste von vorhandenen Materialien auswählen, die beruhend auf den vorhergesagten Eigenschaftswerten durch das in dem Lernschritt erlernte Vorhersagemodell in absteigender Reihenfolge sortiert ist, ein Basismaterial aus einer Liste von Basismaterialien auswählen, die in absteigender Reihenfolge der absoluten Reaktionsgrößen in Bezug auf das ausgewählte vorhandene Material sortiert ist, und die neuen in Frage kommenden Materialien als Varianten des ausgewählten vorhandenen Materials unter Berücksichtigung des ausgewählten Basismaterials generieren.
  • Gemäß noch einer anderen Ausführungsform wird ein nicht-flüchtiges, durch einen Computer lesbares Speichermedium vorgestellt, das ein durch einen Computer lesbares Programm zum Entdecken neuer in Frage kommender Materialien anhand einer chemischen Datenbank aufweist. Das nicht-flüchtige, durch einen Computer lesbare Speichermedium führt die Schritte eines Extrahierens eines Merkmalsvektors aus einer chemischen Formel, eines Erlernens eines Vorhersagemodells zum Vorhersagen von Eigenschaftswerten aus dem Merkmalsvektor mit einem Sparse-Kernel-Modell unter Verwendung der chemischen Datenbank, eines Auswählens eines vorhandenen Materials aus einer Liste von vorhandenen Materialien, die beruhend auf den vorhergesagten Eigenschaftswerten durch das in dem Lernschritt erlernte Vorhersagemodell in absteigender Reihenfolge sortiert ist, eines Auswählens eines Basismaterials aus einer Liste von Basismaterialien, die in absteigender Reihenfolge der absoluten Reaktionsgrößen in Bezug auf das ausgewählte vorhandene Material sortiert ist, und eines Generierens der neuen in Frage kommenden Materialien als Varianten des ausgewählten vorhandenen Materials unter Berücksichtigung des ausgewählten Basismaterials.
  • Es sei angemerkt, dass die beispielhaften Ausführungsformen unter Bezugnahme auf verschiedene Gegenstände beschrieben werden. Insbesondere werden einige Ausführungsformen unter Bezugnahme auf verfahrensartige Ansprüche beschrieben, während andere Ausführungsformen unter Bezugnahme auf vorrichtungsartige Ansprüche beschrieben wurden. Ein Fachmann wird aus dem oben Aufgeführten und der folgenden Beschreibung jedoch folgern, dass zusätzlich zu jeder beliebigen Kombination von zu einer Art von Gegenstand gehörenden Eigenschaften auch jede beliebige Kombination von sich auf andere Gegenstände beziehenden Eigenschaften, insbesondere von Eigenschaften der verfahrensartigen Ansprüche und Eigenschaften der vorrichtungsartigen Ansprüche, als innerhalb dieses Dokuments beschrieben angesehen wird, soweit nicht anderweitig angegeben.
  • Diese und weitere Merkmale und Vorteile ergeben sich aus der folgenden ausführlichen Beschreibung von veranschaulichenden Ausführungsformen, die in Verbindung mit den beigefügten Zeichnungen zu lesen ist.
  • Figurenliste
  • Die Erfindung stellt in der folgenden Beschreibung von bevorzugten Ausführungsformen unter Bezugnahme auf die folgenden Figuren Einzelheiten bereit, wobei:
    • 1 ein beispielhaftes, deterministisches Generierungsverfahren zum Entdecken von in Frage kommenden Materialien ist;
    • 2 ein beispielhaftes Diagramm, das ein Abtasten der Trainingsdaten darstellt, gemäß einer Ausführungsform der vorliegenden Erfindung ist;
    • 3 ein beispielhaftes Diagramm, welches das vorliegende Verfahren mit Verfahren nach dem Stand der Technik vergleicht, gemäß einer Ausführungsform der vorliegenden Erfindung ist;
    • 4 ein Blockschaubild/Ablaufplan eines beispielhaften, deterministischen Generierungsverfahrens zum Entdecken von in Frage kommenden Materialien durch Verwendung eines Sparse-Kernel-Modells, gemäß einer Ausführungsform der vorliegenden Erfindung ist;
    • 5 ein Blockschaubild/Ablaufplan einer beispielhaften Gleichung zum Umsetzen des deterministischen Generierungsverfahrens zum Entdecken von in Frage kommenden Materialien, gemäß einer Ausführungsform der vorliegenden Erfindung ist;
    • 6 ein beispielhaftes Verarbeitungssystem gemäß Ausführungsformen der vorliegenden Erfindung ist;
    • 7 ein Blockschaubild/Ablaufplan einer beispielhaften Cloud-Datenverarbeitungsumgebung gemäß einer Ausführungsform der vorliegenden Erfindung ist; und
    • 8 ein schematisches Schaubild von beispielhaften Abstraktionsmodellschichten gemäß einer Ausführungsform der vorliegenden Erfindung ist.
  • In den Zeichnungen stehen gleiche oder ähnliche Bezugszahlen für die gleichen oder ähnliche Elemente.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Ausführungsformen gemäß der vorliegenden Erfindung stellen Verfahren und Einheiten zum Einsetzen eines deterministischen Verfahrens ohne Zufälligkeit zum Generieren von neuen in Frage kommenden Materialien unter Verwendung eines Sparse-Kernel-Modells bereit, wobei das Verfahren die in Frage kommenden Materialien als Varianten zwischen den vorhandenen Materialien mit höheren Ziel-Eigenschaftswerten und den Basismaterialien mit großen Reaktionsgrößen in Bezug auf diese vorhandenen Materialien in dem Sparse-Kernel-Modell generiert.
  • Das Problem bei der Entdeckung von Materialien besteht darin, sich für bestimmte Zusammensetzungen, Rezepturen und Verarbeitungsschritte von Materialien mit einer gewünschten Zieleigenschaft zu entscheiden. Neuronale Netze als Werkzeug wurden bisher in materialwissenschaftlichen Anwendungen wie zum Beispiel Spektroskopie-Klassifizierung und strukturelle Identifikation, Beschreibung von stofflichen Zusammenhängen für Legierungen, Auswertung von Deskriptoren usw. eingesetzt. Allerdings wurden neuronale Netze und Deep-Learning bisher nicht in großem Umfang in Anwendungen zur Entdeckung von Materialien eingesetzt. Die beispielhaften Ausführungsformen der vorliegenden Erfindung verwenden Deep-Learning-Techniken, um neue Materialien mit gewünschten Eigenschaften zu entdecken.
  • Techniken des maschinellen Lernens sind im Vergleich zu statistischen Techniken effektiver beim Erkennen und Analysieren von Zeitreihendaten. Das liegt daran, dass das maschinelle Lernen zwei wichtige Merkmale aufweist, nämlich Merkmalskonstruktion (feature engineering) und Vorhersage (prediction). Der Aspekt der Merkmalskonstruktion wird verwendet, um die Probleme bezüglich Trend und Saisonalität von Zeitreihendaten anzugehen. Auch die Probleme bezüglich des Anpassens des Modells an Zeitreihendaten können damit gelöst werden.
  • Deep-Learning wird verwendet, um die Merkmalsextraktion von Zeitreihen mit einem nichtlinearen autoregressiven Modell für die Vorhersage auf höherer Ebene zu kombinieren. Deep-Learning wird verwendet, um nützliche Informationen aus den Merkmalen automatisch zu extrahieren, ohne menschlichen Aufwand oder komplexe statistische Techniken einzusetzen.
  • Es gibt zwei Techniken des maschinellen Lernens, die am effektivsten sind, nämlich überwachtes und unüberwachtes Lernen. Überwachtes Lernen wird zum Trainieren von Datenpunkten durchgeführt, damit diese in verschiedene Kategorien von Datenpunkten eingestuft werden können. Für überwachtes Lernen müssen die Datenpunkte jedoch gekennzeichnet sein. Ein anderer Ansatz ist jedoch unüberwachtes Lernen, wobei die Datenpunkte nicht gekennzeichnet sind. Man kann unüberwachtes Lernen anwenden, um ein System zu trainieren, so dass eine Vorhersage der nächsten Datenpunkte in der Reihe getroffen werden kann. Um dies umzusetzen, wird ein Konfidenzintervall oder ein Vorhersagefehler erstellt. Daher kann für Datenpunkte ein Test umgesetzt werden, um zu prüfen, welche Datenpunkte innerhalb oder außerhalb des Konfidenzintervalls vorliegen. Die gebräuchlichsten Algorithmen des überwachten Lernens sind überwachte neuronale Netze, maschinelles Lernen mit Unterstützungsvektoren, k-Nearest-Neighbor-Algorithmen, bayessche Netze und Entscheidungsbäume. Die gebräuchlichsten unüberwachten Algorithmen sind selbstorganisierende Karten (SOM, self-organizing maps), k-Means, c-Means, Erwartungsmaximierungs-Meta-Algorithmus (EM), adaptive Resonanztheorie (ART) und Ein-Klassen-Support-Vektor-Maschine.
  • Es sollte klar sein, dass die vorliegende Erfindung in Bezug auf eine gegebene veranschaulichende Architektur beschrieben wird; jedoch können andere Architekturen, Strukturen, Substratmaterialien und Prozessmerkmale und Schritte/Blöcke im Rahmen der vorliegenden Erfindung abgewandelt werden. Es sei angemerkt, dass bestimmte Merkmale aus Gründen der Übersichtlichkeit nicht in allen Figuren gezeigt werden können. Dies soll nicht als Einschränkung einer bestimmten Ausführungsform, einer Abbildung oder des Umfangs der Ansprüche verstanden werden.
  • 1 ist ein beispielhaftes, deterministisches Generierungsverfahren zum Entdecken von in Frage kommenden Materialien.
  • Das Entdecken neuer Materialien wie zum Beispiel organische Polymere (z.B. Epoxidharze) mit gewünschten Eigenschaften (z.B. hohe Glasübergangstemperatur, niedrige Viskosität, usw.) ist eine wichtige Aufgabe für die chemische Industrie. Es gibt viele ähnliche Probleme und Bedürfnisse (inverse Analyse) in verschiedenen Bereichen, wie zum Beispiel ein Generieren von Prozessen und Rezepten (für chemische Reaktionen, zum Kochen, für Düfte, usw.), ein Optimieren von physischen Strukturen, Werbung, usw.
  • Es geht um ein Entdecken oder Finden von Materialien mit einem hohen Eigenschaftswert anhand einer chemischen Datenbank, wie in dem Ablaufplan 100 von 1 gezeigt. Die Eingabe 102 umfasst Paare aus vorhandenen Materialien (z.B. eine chemische Formel, die unter Verwendung des vereinfachten Molekulareingabe-Zeileneintragssystems (chemisches Dateiformat SMILES, Simplified Molecular-input Line-entry System beschrieben werden kann) und entsprechenden Eigenschaften der chemischen Formel. Die Ausgabe 118 umfasst eine chemische Formel eines neuen Materials mit den gewünschten Eigenschaften, wobei die gewünschte Eigenschaft z.B. ein hoher Wert sein kann. Allerdings kann die gewünschte Eigenschaft auf andere Einstellungen verallgemeinert werden, wie zum Beispiel ein Erkunden von Materialien mit einem bestimmten Eigenschaftswert.
  • In herkömmlichen Verfahren können die folgenden Schritte stapelweise oder nacheinander durchgeführt werden. In einem ersten Schritt wird aus einem Merkmalsvektor 104, der aus einer chemischen Formel 102 extrahiert wurde, ein Vorhersagemodell 106 für eine chemische Eigenschaft aufgebaut. Bei einem Merkmalsvektor 104 handelt es sich um einen Vektor, der die Eigenschaften einer chemischen Formel beschreibt. In einem zweiten Schritt wird der Merkmalsvektor 104 auf der Grundlage des Vorhersagemodells 106 optimiert (invers analysiert). In einem dritten Schritt wird der Vektor in eine chemische Formel umgewandelt. In einem Fall kann ein Eigenschaftswert 108 aus einer Trainingsdatenbank 110 ausgewählt werden. Bei dem ausgewählten Eigenschaftswert kann es sich z.B. um den Eigenschaftswert 112 handeln. Der Eigenschaftswert 112 kann wieder in das Vorhersagemodell 114 eingespeist werden, anhand dessen ein neuer Merkmalsvektor 116 in ein neues Material 118 umgewandelt werden muss. Die Umwandlung von dem neuen Merkmalsvektor 116 in das neue Material 118 kann sehr schwierig sein.
  • Folglich benötigen diese Verfahren weniger Berechnungsaufwand für die Experimente oder sie benötigen ausreichend Trainingsdaten, um eine gute Reaktion oder ein gutes Ergebnis zu erlernen. Zudem kann eine Extrapolation unsinnig sein, und es kann schwierig sein, den Merkmalsvektor in eine chemische Formel umzuwandeln. Deshalb können bestimmte Annahmen getroffen werden, nämlich dass herkömmliche Verfahren das Problem des Vorhersagens einer chemischen Formel aus einer Eigenschaft (oder einem Eigenschaftswert) nicht direkt lösen können, und dass herkömmliche Verfahren eine 3D-Struktur für die Eingabe des Vorhersagemodells für die Eigenschaft (oder den Eigenschaftswert) nicht direkt verwenden können, weil die in der Trainingsdatenbank 110 gespeicherten Trainingsdaten unzureichend sind.
  • 2 ist ein beispielhaftes Diagramm, das ein Abtasten der Trainingsdaten veranschaulicht, gemäß einer Ausführungsform der vorliegenden Erfindung, während 3 ein beispielhaftes Diagramm, welches das vorliegende Verfahren mit Verfahren nach dem Stand der Technik vergleicht, gemäß einer Ausführungsform der vorliegenden Erfindung ist.
  • Anstelle des Verwendens des Schaubilds 100 aus 1 verwenden die beispielhaften Ausführungsformen ein Vorhersagemodell für Eigenschaftswerte aus einem Merkmalsvektor eines Materials und untersuchen direkt eine chemische Formel neuer in Frage kommender Materialien in dem Interpolationsbereich des Vorhersagemodells (ohne die Notwendigkeit, den Merkmalsvektor in ein neues Material umzuwandeln, wie in 1). Deshalb wird in den beispielhaften Ausführungsformen der vorliegenden Erfindung ein Sparse-Kernel-Modell für das Vorhersagemodell verwendet, das die Eigenschaften oder Eigenschaftswerte anhand der Materialien vorhersagt. Durch Verwenden des Sparse-Kernel-Modells erkunden und entdecken die Verfahren Materialien zwischen den Trainingsdaten mit guten Eigenschaften und den am meisten reagierenden Basismaterialien in dem Vorhersagemodell.
  • Die Materialien in den Trainingsdaten können aus zwei Quellen stammen: empirische Experimente und Computersimulationen. Experimentelle Daten beziehen sich auf die Versuch-und-Irrtum-Iterationen von experimentellen Beobachtungen, zum Beispiel mikroskopische Bilder, die direkt von einer Materialprobe aufgenommen werden. Derartige Daten sind oft in ihrer Größe sehr begrenzt und können Rauschen nichtstationärer Varianz umfassen, wodurch die Datenqualität beeinträchtigt wird. Simulationsdaten hingegen sind reichlicher vorhanden, besser verfügbar, stabiler und weniger anfällig für menschliche Betriebsfehler.
  • Was den Begriff „Kernel-Modell“ betrifft, so kann ein Kernel-Modell von einer Kernel-Funktion abgeleitet werden. Eine Kernel-Funktion nimmt als Eingaben Vektoren in dem Originalraum und liefert das Skalarprodukt der Vektoren in dem Merkmalsraum. Bei Kernel-Verfahren handelt es sich um eine Klasse von Algorithmen zur Musteranalyse. Die allgemeine Aufgabe der Musteranalyse besteht darin, allgemeine Arten von Beziehungen (z.B. Cluster, Rangfolgen, Hauptkomponenten, Korrelationen, Klassifikationen) in Datensätzen zu finden und zu untersuchen. In seiner einfachsten Form bedeutet der Kernel-Trick, Daten in eine andere Dimension zu transformieren, die eine klare Trennlinie zwischen Datenklassen aufweist. Für viele Algorithmen, die diese Aufgaben lösen, müssen die Daten in Rohdarstellung mittels einer durch einen Benutzer festgelegten Merkmalskarte (feature map) explizit in Merkmalsvektordarstellungen transformiert werden. Im Gegensatz dazu benötigen Kernel-Verfahren lediglich einen durch einen Benutzer festgelegten Kernel, d.h. eine Ähnlichkeitsfunktion über Paare von Datenpunkten in Rohdarstellung. Somit bieten Kernel-Funktionen eine Möglichkeit, Daten so zu bearbeiten, als ob sie in einen höherdimensionalen Raum projiziert würden, indem man mit ihnen in ihrem ursprünglichen Raum arbeitet.
  • Was den Begriff „Basismaterial“ betrifft, so handelt es sich bei einem Verbundmaterial oder Verbundwerkstoff um ein Material, das aus zwei oder mehr Materialbestandteilen (oder Basismaterialien) mit deutlich unterschiedlichen physischen oder chemischen Eigenschaften besteht, die in Kombination ein Material mit Eigenschaften ergeben, die sich von denen der einzelnen Komponenten unterscheiden. Die einzelnen Komponenten bleiben innerhalb der fertigen Struktur getrennt und gut erkennbar. Das neue Material kann aus vielen Gründen bevorzugt werden, z.B. weil es stärker, leichter oder preiswerter im Vergleich zu herkömmlichen Materialien ist. Daher können die Basismaterialien als Materialbestandteile von Verbundmaterialien betrachtet werden.
  • In einem ersten Schritt verwendet das Verfahren einen Merkmalsvektor, der aus einer chemischen Formel extrahiert wird, und erlernt das Modell zum Vorhersagen der Eigenschaften aus dem Merkmalsvektor mit einem Sparse-Kernel-Modell unter Verwendung einer chemischen Datenbank.
  • Der Merkmalsvektor ist frei wählbar (z.B. Anzahl von Teilstrukturen, Strukturmerkmal usw.). Der Merkmalsvektor erfordert keine Berücksichtigung der Einfachheit der Umwandlung des Merkmalsvektors in ein Material.
  • Zudem kann das Verfahren zur Dimensionsverringerung für den Merkmalsvektor verwendet werden, was den Algorithmus nicht beeinträchtigt.
  • Die beispielhaften Verfahren können eine Support-Vektor-Maschine (SVM), eine Relevanz-Vektor-Maschine (RVM) und andere Modelle für das Sparse-Kernel-Modell verwenden, wobei aber bayessche Modelle (wie zum Beispiel RVM) besser geeignet sind, da derartige beispielhafte Verfahren das A-posteriori-Schätzung und die Konfidenz der Vorhersage verwenden können und darüber hinaus eine bayessche Optimierungsvorgehensweise beim Generieren von in Frage kommenden Materialien verwenden können.
  • Bei SVM handelt es sich um eine Technik des überwachten maschinellen Lernens, die für Klassifizierungsaufgaben verwendet werden kann. In ihrer Grundform stellt SVM die Instanzen der Daten im Raum dar und SVM versucht, die einzelnen Klassen durch eine maximal mögliche breite Lücke (Hyperebene) zu trennen, welche die Klassen trennt. Andererseits verwendet RVM probabilistische Maßnahmen, um diesen Trennungsraum zu definieren. In einem Fall verwendet RVM bayessche Statistik, um eine Lösung zu erhalten. Somit verwendet RVM deutlich weniger Grundfunktionen.
  • Zudem verwenden die beispielhaften Verfahren den Kernel auf der Grundlage von Abständen zwischen Datenpunkten in einem Merkmalsraum, ohne dass die Koordinaten der Datenpunkte in dem Merkmalsraum bekannt sein müssen.
  • In einem zweiten Schritt wird das vorhandene Material in absteigender Reihenfolge ausgewählt, und zwar auf der Grundlage von den vorhergesagten Eigenschaftswerten durch das in dem ersten Schritt erlernte Vorhersagemodell. Anders ausgedrückt, es wird eine Materialliste erstellt und beruhend auf den durch das Vorhersagemodell vorhergesagten Eigenschaftswerten sortiert. Die absteigende Reihenfolge kann so aussehen, dass Materialien, welche die ähnlichsten gewünschten Eigenschaftswerte aufweisen, oben aufgeführt werden, und Materialien, die relevante gewünschte Eigenschaftswerte aufweisen, unten aufgeführt werden. Die absteigende Reihenfolge kann als absolut am nächsten, einigermaßen nahe, am weitesten entfernt, usw. zusammengestellt werden.
  • Da bei einigen Modellen (wie zum Beispiel RVM) die Vorhersage für die Trainingsdaten in dem Lernschritt benötigt wird, gibt es keine zusätzlichen Berechnungen für diese Vorhersage, sondern nur eine Sortierung.
  • Das beispielhafte Verfahren kann für diesen Schritt mit zusätzlichen Vorhersageberechnungen vorhandene Materialien ohne Eigenschaftskennzeichnungen verwenden. Durch das Fehlen von Eigenschaftskennzeichnungen eignen sich die Verfahren für unüberwachte Lerntechniken.
  • In einem dritten Schritt wird das Basismaterial (aus Materialien in der Trainingsdatenbank) in absteigender Reihenfolge seiner absoluten Reaktionsgrößen in Bezug auf das in dem zweiten Schritt ausgewählte Material ausgewählt (Abstand zwischen dem ausgewählten Material und der Basis x dem Koeffizienten für die Basis). Anders ausgedrückt, es wird eine Materialliste erstellt und beruhend auf absoluten Reaktionsgrößen in Bezug auf das ausgewählte vorhandene Material sortiert.
  • Bei der Sparse-Modellierung wird eine begrenzte Anzahl von Basismaterialien aktiviert.
  • In einem vierten Schritt generiert das beispielhafte Verfahren die neuen in Frage kommenden Materialien als die Varianten des in dem zweiten Schritt ausgewählten vorhandenen Materials und des in dem dritten Schritt ausgewählten Basismaterials wie folgt:
  • Wenn die Reaktion im dritten Schritt positiv ist, „tauschen“ die beispielhaften Verfahren die Teilstruktur zwischen ihnen entweder durch eine der folgenden Möglichkeiten oder eine Kombination daraus „aus“: Hinzufügen der Teilstrukturen eines Materials, das in dem anderen Material nicht enthalten ist, zu dem anderen Material, oder Entfernen der Teilstrukturen, die nicht von den Materialien gemeinsam genutzt werden.
  • Wenn die Reaktion im dritten Schritt negativ ist, entfernen die beispielhaften Verfahren die Teilstrukturen, welche die Materialien gemeinsam nutzen.
  • Die Schritte 2 bis 4 werden solange wiederholt, bis eine vorher festgelegte Anzahl von in Frage kommenden Materialien abgeleitet wurde. Die vorher festgelegte Anzahl kann von einem Benutzer bestimmt oder von der Software vordefiniert werden.
  • Da die beispielhaften Verfahren die in Frage kommenden Materialien als Varianten zwischen den vorhandenen Daten generieren, können die beispielhaften Verfahren die in Frage kommenden Materialien meist als Interpolation des Vorhersagemodells generieren. Die Erkundung (exploration) wird gemäß der Anzahl und Variation der Trainingsdaten umfassender.
  • Die beispielhaften Ausführungsformen der vorliegenden Erfindung machen sich die Tatsache zu eigen, dass chemische Formeln die Struktur unstetig, aber nicht kontinuierlich verändern können.
  • Bei dem Sparse-Kernel-Modell hat das Modell keine anderen Informationen als eine Basis, die durch Sparse-Lernen Gewichte ungleich Null aufweist. Im Allgemeinen wird sich die Basis mit Gewichten ungleich Null in den meisten Fällen nicht ähneln, und das Material und die Basis, die stark auf das Material reagiert, ähneln sich aufgrund der Definition des Kernels (Abstand) in den meisten Fällen.
  • Daher wird ein bloßes Austauschen von Materialien mit guten Eigenschaften nicht effizienter sein als das beispielhafte Verfahren. Zudem kann das beispielhafte Verfahren sequenziell angewendet werden und muss keine Differenzierbarkeit des Vorhersagemodells voraussetzen.
  • In Bezug auf 2 und 3 haben die beispielhaften Verfahren die Trainingsdaten aus der Funktion, wie in Diagramm 200 gezeigt, abgetastet, das Vorhersagemodell erlernt und den hohen Wert der Funktion beruhend auf dem Vorhersagemodell erkundet.
  • Die beispielhaften Verfahren wurden mit herkömmlichen Verfahren verglichen, z.B. mit der Partikelschwarmoptimierung (Muster 2) und dem genetischen Algorithmus (Muster 3).
  • Die beispielhaften Verfahren zeigen darüber hinaus den ermittelten Zielwert und den mittleren Fehler der zehnfachen Vergleichsprüfung für jede experimentelle Einstellung bei unterschiedlicher Anzahl von Trainingsdaten, wie in den Diagrammen 310 und 320 von 3 gezeigt.
  • Die Leistung des beispielhaften Verfahrens (Muster 1) war besser als die der anderen Verfahren (Muster 2 und 3), insbesondere in der Einstellung, in der eine kleine oder unzureichende Anzahl von Trainingsdaten zur Verfügung steht.
  • Somit ist das beispielhafte Verfahren im Vergleich zu den anderen Verfahren effizient, da das beispielhafte Verfahren keine Zufälligkeit in seinem Algorithmus aufweist. In Experimenten mit realen chemischen Daten wurde festgestellt, dass das Sparse-Kernel-Modell (z.B. RVM) eine bessere Vorhersageleistung aufweist als andere Verfahren (z.B. lineares Modell, Random Forest, usw.). Das beispielhafte Verfahren entdeckte die neuen in Frage kommenden Materialien mit einer besseren Leistung als die, die in der Trainingsdatenbank gefunden wurden. Zudem wurde in einem Fall festgestellt, dass sich 1/3 der entdeckten in Frage kommenden Materialien mit neuen Materialien überschnitten.
  • 4 ist ein Blockschaubild/Ablaufplan eines beispielhaften, deterministischen Generierungsverfahrens zum Entdecken von in Frage kommenden Materialien durch Verwendung eines Sparse-Kernel-Modells, gemäß einer Ausführungsform der vorliegenden Erfindung.
  • In Block 410 wird das Vorhersagemodell für die chemische Eigenschaft aus einem Merkmalsvektor konstruiert, der aus einer chemischen Formel extrahiert wurde.
  • In Block 412 wird das vorhandene Material in absteigender Reihenfolge ausgewählt, und zwar auf der Grundlage von den vorhergesagten Eigenschaftswerten, die aus dem Vorhersagemodell abgeleitet wurden.
  • In Block 414 wird das Basismaterial (ausgewählt aus Materialien in den Trainingsdaten) in absteigender Reihenfolge der absoluten Reaktionsgrößen in Bezug auf das ausgewählte vorhandene Material ausgewählt.
  • In Block 416 werden die neuen in Frage kommenden Materialien als Varianten des ausgewählten vorhandenen Materials und des ausgewählten Basismaterials generiert. Wenn die Anzahl von in Frage kommenden Materialien ausreichend ist, endet der Prozess und fährt mit Block 418 fort.
  • In Block 418 wird die Liste in Frage kommender Materialien ausgegeben, z.B. an eine Benutzerschnittstelle einer Datenverarbeitungseinheit, um sie auszuwerten und zu analysieren.
  • 5 ist ein Blockschaubild/Ablaufplan einer beispielhaften Gleichung zum Umsetzen des deterministischen Generierungsverfahrens zum Entdecken von in Frage kommenden Materialien, gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Das beispielhafte Verfahren kann in etwa als der einstufige Aufstieg von dem vorhandenen Material in dem folgenden Optimierungsproblem 510 gesehen werden: argmax z w T ϕ ( x ( z ) )
    Figure DE112019005373T5_0001
  • Dabei ist z die chemische Formel, x(z) der Merkmalsvektor (frei wählbar) und Φ(x(z)) die Basisfunktion (beruhend auf dem Abstand, z.B. radiale Basisfunktion).
  • Der Gradient 520 kann wie folgt angegeben werden: w T ϕ ( x ( z ) ) z j w j exp ( 1 2 σ 2 x ( z ) x j 2 ) ( z x ( z ) x j )
    Figure DE112019005373T5_0002
  • Zusammenfassend kann man sagen, dass die Eigenschaften von Materialien wie zum Beispiel Härte, Schmelzpunkt, lonenleitfähigkeit, Glasübergangstemperatur, molekulare Zerstäubungsenergie und Gitterkonstante, entweder auf makroskopischer oder mikroskopischer Ebene beschrieben werden können. Es gibt zwei gängige Verfahren zum Untersuchen von Materialeigenschaften: Computersimulation und experimentelle Messung. Diese Verfahren gehen mit komplizierten Arbeitsschritten und Versuchsaufbauten einher. Daher ist es recht schwierig, Computersimulationen zu erstellen, welche die komplizierten logischen Beziehungen zwischen den Eigenschaften eines Materials und den damit verbundenen Faktoren vollständig erfassen, und einige dieser Beziehungen können sogar unbekannt sein. Zudem werden die Experimente, die zum Messen der Eigenschaften von Verbindungen durchgeführt werden, in der Regel erst in den späteren Phasen der Materialauswahl durchgeführt. Wenn die Ergebnisse nicht zufriedenstellend sind, können sich die enormen Mengen an Zeit und experimentellen Ressourcen, die bis zu diesem Zeitpunkt investiert wurden, demzufolge als nutzlos erweisen. Darüber hinaus ist es in vielen Fällen schwierig oder nahezu unmöglich, die Eigenschaften von Materialien selbst durch massive Berechnungs- oder experimentelle Aufwände zu untersuchen. Daher besteht die Notwendigkeit, intelligente und leistungsstarke Vorhersagemodelle zu entwickeln, welche die Eigenschaften von Materialien mit geringem Berechnungsaufwand korrekt vorhersagen können. Maschinelles Lernen befasst sich mit der Konstruktion und Untersuchung von Algorithmen, die Muster aus Daten erlernen können. Der grundlegende Gedanke bei der Verwendung von Verfahren des maschinellen Lernens für die Vorhersage von Materialeigenschaften besteht darin, die (in den meisten Fällen nichtlinearen) Beziehungen zwischen den Eigenschaften eines Materials und den damit verbundenen Faktoren zu analysieren und abzubilden, indem Wissen aus vorhandenen empirischen Daten extrahiert wird. Allerdings können die empirischen Daten unzureichend sein. Als Ergebnis verwenden die beispielhaften Ausführungsformen der vorliegenden Erfindung ein Framework für maschinelles Lernen, um ein deterministisches Verfahren ohne Zufälligkeit zum Erzeugen von neuen in Frage kommenden Materialien unter Verwendung eines Sparse-Kernel-Modells umzusetzen, wobei die Verfahren die in Frage kommenden Materialien als Varianten zwischen den vorhandenen Materialien mit höheren Ziel-Eigenschaftswerten und den Basismaterialien mit großen Reaktionsgrößen in Bezug auf die vorhandenen Materialien in dem Sparse-Kernel-Modell generieren.
  • 6 ist ein beispielhaftes Verarbeitungssystem gemäß Ausführungsformen der vorliegenden Erfindung.
  • Unter Bezugnahme auf 6 zeigt diese Figur eine Hardware-Konfiguration eines Datenverarbeitungssystems 600 gemäß einer Ausführungsform der vorliegenden Erfindung. Wie ersichtlich ist, weist diese Hardware-Konfiguration mindestens einen Prozessor oder eine zentrale Verarbeitungseinheit (CPU) 611 auf. Die CPUs 611 sind über einen Systembus 612 mit einem Direktzugriffsspeicher (RAM) 614, einem Nur-Lese-Speicher (ROM) 616, einem Eingabe/Ausgabe- (E/A-) Adapter 618 (zum Anschließen von Peripheriegeräten wie zum Beispiel Platteneinheiten 621 und Bandlaufwerken 640 an den Bus 612), einem Benutzerschnittstellenadapter 622 (zum Anschließen einer Tastatur 624, einer Maus 626, eines Lautsprechers 628, eines Mikrofons 632 und/oder einer anderen Benutzerschnittstelleneinheit an den Bus 612), einem Datenübertragungsadapter 634 zum Verbinden des Systems 600 mit einem Datenverarbeitungsnetzwerk, dem Internet, einem Intranet, einem lokalen Netzwerk (LAN) usw. und einem Anzeigenadapter 636 zum Verbinden des Busses 612 mit einer Anzeigeeinheit 638 und/oder einem Drucker 639 (z.B. einem digitalen Drucker oder dergleichen) verbunden.
  • 7 ist ein Blockschaubild/Ablaufplan einer beispielhaften Cloud-Datenverarbeitungsumgebung gemäß einer Ausführungsform der vorliegenden Erfindung.
  • Es sei von vornherein klargestellt, dass das Umsetzen der hierin angeführten Lehren nicht auf eine Cloud-Computing-Umgebung beschränkt ist, obwohl diese Erfindung eine ausführliche Beschreibung von Cloud-Computing umfasst. Stattdessen können Ausführungsformen der vorliegenden Erfindung gemeinsam mit jeder beliebigen Art von jetzt bekannter oder später erfundener Datenverarbeitungsumgebung umgesetzt werden.
  • Cloud-Computing ist ein Servicebereitstellungsmodell zum Ermöglichen eines problemlosen bedarfsgesteuerten Netzwerkzugriffs auf einen gemeinsam genutzten Pool von konfigurierbaren Datenverarbeitungsressourcen (z.B. Netzwerke, Netzwerkbandbreite, Server, Verarbeitung, Hauptspeicher, Speicher, Anwendungen, virtuelle Maschinen und Dienste), die mit minimalem Verwaltungsaufwand bzw. minimaler Interaktion mit einem Anbieter des Service schnell bereitgestellt und freigegeben werden können. Dieses Cloud-Modell kann mindestens fünf Eigenschaften umfassen, mindestens drei Dienstmodelle und mindestens vier Implementierungsmodelle.
  • Bei den Eigenschaften handelt es sich um die Folgenden:
  • On-Demand Self-Service: Ein Cloud-Nutzer kann einseitig automatisch nach Bedarf für Datenverarbeitungsfunktionen wie Serverzeit und Netzwerkspeicher sorgen, ohne dass eine menschliche Interaktion mit dem Anbieter der Dienste erforderlich ist.
  • Broad Network Access: Es sind Funktionen über ein Netzwerk verfügbar, auf die durch Standardmechanismen zugegriffen wird, welche die Verwendung durch heterogene Thin- oder Thick-Client-Plattformen (z.B. Mobiltelefone, Laptops und PDAs) unterstützen.
  • Resource-Pooling: Die Datenverarbeitungsressourcen des Anbieters werden zusammengeschlossen, um mehreren Nutzern unter Verwendung eines Multi-Tenant-Modells zu dienen, wobei verschiedene physische und virtuelle Ressourcen dynamisch nach Bedarf zugewiesen und neu zugewiesen werden. Es gibt eine gefühlte Standortunabhängigkeit, da der Nutzer allgemein keine Kontrolle bzw. Kenntnis über den genauen Standort der bereitgestellten Ressourcen hat, aber in der Lage sein kann, einen Standort auf einer höheren Abstraktionsebene festzulegen (z.B. Land, Staat oder Rechenzentrum).
  • Rapid Elasticity: Funktionen können für eine schnelle horizontale Skalierung (scale out) schnell und elastisch bereitgestellt werden, in einigen Fällen auch automatisch, und für ein schnelles Scale-in schnell freigegeben werden. Für den Nutzer erscheinen die für das Bereitstellen verfügbaren Funktionen häufig unbegrenzt und sie können jederzeit in jeder beliebigen Menge gekauft werden.
  • Measured Service: Cloud-Systeme steuern und optimieren die Verwendung von Ressourcen automatisch, indem sie eine Messfunktion auf einer gewissen Abstraktionsebene nutzen, die für die Art von Dienst geeignet ist (z.B. Speicher, Verarbeitung, Bandbreite sowie aktive Benutzerkonten). Die Nutzung von Ressourcen kann überwacht, gesteuert und gemeldet werden, wodurch sowohl für den Anbieter als auch für den Nutzer des verwendeten Dienstes Transparenz geschaffen wird.
  • Bei den Dienstmodellen handelt es sich um die Folgenden:
  • Software as a Service (SaaS): Die dem Nutzer bereitgestellte Funktion besteht darin, die in einer Cloud-Infrastruktur laufenden Anwendungen des Anbieters zu verwenden. Die Anwendungen sind über eine Thin-Client-Schnittstelle wie einen Web-Browser (z.B. auf dem Web beruhende E-Mail) von verschiedenen Client-Einheiten her zugänglich. Der Nutzer verwaltet bzw. steuert die zugrunde liegende Cloud-Infrastruktur nicht, darunter das Netzwerk, Server, Betriebssysteme, Speicher bzw. sogar einzelne Anwendungsfunktionen, mit der möglichen Ausnahme von eingeschränkten benutzerspezifischen Anwendungskonfigurationseinstellungen.
  • Platform as a Service (PaaS): Die dem Nutzer bereitgestellte Funktion besteht darin, durch einen Nutzer erstellte bzw. erhaltene Anwendungen, die unter Verwendung von durch den Anbieter unterstützten Programmiersprachen und Tools erstellt wurden, in der Cloud-Infrastruktur einzusetzen. Der Nutzer verwaltet bzw. steuert die zugrunde liegende Cloud-Infrastruktur nicht, darunter Netzwerke, Server, Betriebssysteme bzw. Speicher, hat aber die Kontrolle über die eingesetzten Anwendungen und möglicherweise über Konfigurationen des Application Hosting Environment.
  • Infrastructure as a Service (laaS): Die dem Nutzer bereitgestellte Funktion besteht darin, das Verarbeiten, Speicher, Netzwerke und andere grundlegende Datenverarbeitungsressourcen bereitzustellen, wobei der Nutzer in der Lage ist, beliebige Software einzusetzen und auszuführen, zu der Betriebssysteme und Anwendungen gehören können. Der Nutzer verwaltet bzw. steuert die zugrunde liegende Cloud-Infrastruktur nicht, hat aber die Kontrolle über Betriebssysteme, Speicher, eingesetzte Anwendungen und möglicherweise eine eingeschränkte Kontrolle über ausgewählte Netzwerkkomponenten (z.B. Host-Firewalls).
  • Bei den Einsatzmodellen handelt es sich um die Folgenden:
  • Private Cloud: Die Cloud-Infrastruktur wird einzig und allein für eine Organisation betrieben. Sie kann durch die Organisation oder einen Dritten verwaltet werden und kann sich in den eigenen Räumen oder in fremden Räumen befinden.
  • Community Cloud: Die Cloud-Infrastruktur wird von mehreren Organisationen gemeinsam genutzt und unterstützt eine spezielle Benutzergemeinschaft, die gemeinsame Angelegenheiten hat (z.B. Mission, Sicherheitsanforderungen, Richtlinien sowie Überlegungen bezüglich der Einhaltung von Vorschriften). Sie kann durch die Organisationen oder einen Dritten verwaltet werden und kann in den eigenen Räumen oder fremden Räumen stehen.
  • Public Cloud: Die Cloud-Infrastruktur wird der allgemeinen Öffentlichkeit oder einer großen Industriegruppe zur Verfügung gestellt und sie gehört einer Cloud-Dienste verkaufenden Organisation.
  • Hybrid Cloud: Die Cloud-Infrastruktur ist eine Zusammensetzung aus zwei oder mehreren Clouds (privat, Benutzergemeinschaft oder öffentlich), die zwar einzelne Einheiten bleiben, aber durch eine standardisierte oder proprietäre Technologie miteinander verbunden sind, die Daten- und Anwendungsportierbarkeit ermöglicht (z.B. Cloud-Zielgruppenverteilung für den Lastenausgleich zwischen Clouds).
  • Eine Cloud-Computing-Umgebung ist dienstorientiert mit Fokus auf Statusunabhängigkeit, geringer Kopplung, Modularität und semantischer Interoperabilität. Im Herzen von Cloud-Computing liegt eine Infrastruktur, die ein Netzwerk aus zusammengeschalteten Knoten aufweist.
  • Unter Bezugnahme auf 7 ist eine veranschaulichende Cloud-Computing-Umgebung 750 zum Ermöglichen von Anwendungsfällen der vorliegenden Erfindung abgebildet. Wie gezeigt ist, weist die Cloud-Computing-Umgebung 750 einen oder mehrere Cloud-Computing-Knoten 710 auf, mit denen von Cloud-Nutzern verwendete lokale Datenverarbeitungseinheiten wie der elektronische Assistent (PDA, personal digital assistant) oder ein Mobiltelefon 754A, ein Desktop-Computer 754B, ein Laptop-Computer 754C und/oder ein Automobil-Computer-System 754N Daten austauschen können. Die Knoten 710 können miteinander Daten austauschen. Sie können physisch oder virtuell in ein oder mehrere Netzwerke wie private, Benutzergemeinschafts-, öffentliche oder hybride Clouds gruppiert werden (nicht gezeigt), wie vorstehend beschrieben wurde, oder in eine Kombination daraus. Dies ermöglicht es der Cloud-Computing-Umgebung 750, Infrastruktur, Plattformen und/oder Software als Dienst anzubieten, für die ein Cloud-Nutzer keine Ressourcen auf einer lokalen Datenverarbeitungseinheit vorhalten muss. Es sei darauf hingewiesen, dass die Arten von in 7 gezeigten Datenverarbeitungseinheiten 754A bis N lediglich veranschaulichend sein sollen und dass die Datenverarbeitungsknoten 600 und die Cloud-Computing-Umgebung 750 über eine beliebige Art Netzwerk und/oder über eine beliebige Art von über ein Netzwerk aufrufbarer Verbindung (z.B. unter Verwendung eines Web-Browsers) mit einer beliebigen Art von computergestützter Einheit Daten austauschen können.
  • 8 ist eine schematische Darstellung von beispielhaften Abstraktionsmodellschichten gemäß einer Ausführungsform der vorliegenden Erfindung. Es sollte von vornherein klar sein, dass die in 8 gezeigten Komponenten, Schichten und Funktionen lediglich veranschaulichend sein sollen und Ausführungsformen der Erfindung nicht darauf beschränkt sind. Wie abgebildet ist, werden die folgenden Schichten und entsprechenden Funktionen bereitgestellt:
  • Eine Hardware- und Software-Schicht 860 umfasst Hardware- und Software-Komponenten. Zu Beispielen für Hardware-Komponenten gehören: Mainframe-Computer 861; auf der RISC- (Reduced Instruction Set Computer) Architektur beruhende Server 862; Server 863; Blade-Server 864; Speichereinheiten 865; und Netzwerke sowie Netzwerkkomponenten 866. In einigen Ausführungsformen umfassen Software-Komponenten eine Netzwerk-Anwendungsserver-Software 867 und eine Datenbank-Software 868.
  • Eine Virtualisierungsschicht 870 stellt eine Abstraktionsschicht bereit, aus der die folgenden Beispiele für virtuelle Einheiten bereitgestellt werden können: virtuelle Server 871, virtueller Speicher 872, virtuelle Netzwerke 873, darunter virtuelle private Netzwerke, virtuelle Anwendungen und Betriebssysteme 874; und virtuelle Clients 875.
  • In einem Beispiel kann eine Verwaltungsschicht 880 die nachfolgend beschriebenen Funktionen bereitstellen. Eine Ressourcen-Bereitstellung 881 stellt die dynamische Beschaffung von Datenverarbeitungsressourcen sowie anderen Ressourcen bereit, die zum Durchführen von Aufgaben innerhalb der Cloud-Computing-Umgebung verwendet werden. Ein Messen und eine Preisfindung 882 stellen die Kostenverfolgung beim Verwenden von Ressourcen innerhalb der Cloud-Computing-Umgebung sowie die Abrechnung oder Rechnungsstellung für den Verbrauch dieser Ressourcen bereit. In einem Beispiel können diese Ressourcen Anwendungs-Software-Lizenzen aufweisen. Die Sicherheit stellt die Identitätsüberprüfung für Cloud-Nutzer und Aufgaben sowie Schutz für Daten und andere Ressourcen bereit. Ein Benutzerportal 883 stellt Nutzern und Systemadministratoren den Zugang zu der Cloud-Computing-Umgebung bereit. Eine Verwaltung des Dienstumfangs 884 stellt die Zuordnung und Verwaltung von Cloud-Computing-Ressourcen bereit, so dass die benötigten Dienstziele erreicht werden. Ein Planen und Erfüllen von Vereinbarungen zum Dienstumfang (SLA, Service Level Agreement) 885 stellt die Anordnung vorab und die Beschaffung von Cloud-Computing-Ressourcen, für die eine zukünftige Anforderung vorausgesehen wird, gemäß einem SLA bereit.
  • Eine Arbeitslastschicht 890 stellt Beispiele für die Funktionalität bereit, für welche die Cloud-Computing-Umgebung verwendet werden kann. Zu Beispielen für Arbeitslasten und Funktionen, die von dieser Schicht bereitgestellt werden können, gehören: Abbildung und Navigation 891; Software-Entwicklung und Lebenszyklusverwaltung 892; Bereitstellung von Ausbildung in virtuellen Klassenzimmern 893; Datenanalytikverarbeitung 894; Transaktionsverarbeitung 895; und einen Generator 896 für neue in Frage kommende Materialien.
  • Die hierin verwendeten Begriffe „Daten“, „Inhalt“, „Information(en)“ und ähnliche Begriffe können austauschbar verwendet werden, um sich auf Daten zu beziehen, die gemäß verschiedenen Ausführungsbeispielen erfasst, übertragen, empfangen, angezeigt und/oder gespeichert werden können. Daher sollte die Verwendung von derartigen Begriffen nicht als Einschränkung des Sinngehalts und des Umfangs der Offenbarung verstanden werden. Darüber hinaus können, wenn eine Datenverarbeitungseinheit hierin beschrieben wird, um Daten von einer anderen Datenverarbeitungseinheit zu empfangen, die Daten direkt von der anderen Datenverarbeitungseinheit empfangen werden oder indirekt über eine oder mehrere zwischengeschaltete Datenverarbeitungseinheiten empfangen werden, wie zum Beispiel einen oder mehrere Server, Relais, Leitwegrechner, Netzwerkzugangspunkte, Basisstationen und/oder dergleichen.
  • Um eine Interaktion mit einem Benutzer zu ermöglichen, können Ausführungsformen des in dieser Beschreibung beschriebenen Gegenstands auf einem Computer umgesetzt werden, der eine Anzeigeeinheit, z.B. einen CRT-(Kathodenstrahlröhre) oder LCD- (Flüssigkristallanzeige) Monitor, zum Anzeigen von Informationen für den Benutzer sowie eine Tastatur und eine Zeigeeinheit, z.B. eine Maus oder einen Trackball, aufweist, mit denen der Benutzer dem Computer eine Eingabe bereitstellen kann. Es können auch andere Arten von Einheiten verwendet werden, um eine Interaktion mit einem Benutzer bereitzustellen; zum Beispiel kann eine Rückmeldung, die dem Benutzer bereitgestellt wird, jede beliebige Form von sensorischer Rückmeldung sein, z.B. visuelle Rückmeldung, auditive Rückmeldung oder taktile Rückmeldung; und Eingaben von dem Benutzer können in jeder beliebigen Form empfangen werden, darunter akustische, sprachliche oder taktile Eingaben.
  • Bei der vorliegenden Erfindung kann es sich um ein System, ein Verfahren und/oder ein Computerprogrammprodukt handeln. Das Computerprogrammprodukt kann ein durch einen Computer lesbares Speichermedium (oder -medien) mit durch einen Computer lesbaren Programmanweisungen darauf umfassen, um einen Prozessor dazu zu veranlassen, Aspekte der vorliegenden Erfindung auszuführen.
  • Bei dem durch einen Computer lesbaren Speichermedium kann es sich um eine physische Einheit handeln, die Anweisungen zur Verwendung durch ein System zur Ausführung von Anweisungen behalten und speichern kann. Bei dem durch einen Computer lesbaren Speichermedium kann es sich zum Beispiel um eine elektronische Speichereinheit, eine magnetische Speichereinheit, eine optische Speichereinheit, eine elektromagnetische Speichereinheit, eine Halbleiterspeichereinheit oder jede geeignete Kombination daraus handeln, ohne auf diese beschränkt zu sein. Zu einer nicht erschöpfenden Liste spezifischerer Beispiele des durch einen Computer lesbaren Speichermediums gehören die Folgenden: eine tragbare Computerdiskette, eine Festplatte, ein Direktzugriffsspeicher (RAM), ein Nur-Lese-Speicher (ROM), ein löschbarer programmierbarer Nur-Lese-Speicher (EPROM bzw. Flash-Speicher), ein statischer Direktzugriffsspeicher (SRAM), ein tragbarer Kompaktspeicherplatte-Nur-Lese-Speicher (CD-ROM), eine DVD (digital versatile disc), ein Speicher-Stick, eine Diskette, eine mechanisch kodierte Einheit wie zum Beispiel Lochkarten oder erhabene Strukturen in einer Rille, auf denen Anweisungen gespeichert sind, und jede geeignete Kombination daraus. Ein durch einen Computer lesbares Speichermedium soll in der Verwendung hierin nicht als flüchtige Signale an sich aufgefasst werden, wie zum Beispiel Funkwellen oder andere sich frei ausbreitende elektromagnetische Wellen, elektromagnetische Wellen, die sich durch einen Wellenleiter oder ein anderes Übertragungsmedium ausbreiten (z.B. Lichtwellenleiterkabel durchlaufende Lichtimpulse) oder durch einen Draht übertragene elektrische Signale.
  • Hierin beschriebene, durch einen Computer lesbare Programmanweisungen können von einem durch einen Computer lesbaren Speichermedium auf jeweilige Datenverarbeitungs-/Verarbeitungseinheiten oder über ein Netzwerk wie zum Beispiel das Internet, ein lokales Netzwerk, ein Weitverkehrsnetz und/oder ein drahtloses Netzwerk auf einen externen Computer oder eine externe Speichereinheit heruntergeladen werden. Das Netzwerk kann Kupferübertragungskabel, Lichtwellenübertragungsleiter, drahtlose Übertragung, Leitwegrechner, Firewalls, Vermittlungseinheiten, Gateway-Computer und/oder Edge-Server aufweisen. Eine Netzwerkadapterkarte oder Netzwerkschnittstelle in jeder Datenverarbeitungs-/Verarbeitungseinheit empfängt durch einen Computer lesbare Programmanweisungen aus dem Netzwerk und leitet die durch einen Computer lesbaren Programmanweisungen zur Speicherung in einem durch einen Computer lesbaren Speichermedium innerhalb der entsprechenden Datenverarbeitungs-/Verarbeitungseinheit weiter.
  • Bei durch einen Computer lesbaren Programmanweisungen zum Ausführen von Arbeitsschritten der vorliegenden Erfindung kann es sich um Assembler-Anweisungen, ISA-Anweisungen (Instruction-Set-Architecture), Maschinenanweisungen, maschinenabhängige Anweisungen, Mikrocode, Firmware-Anweisungen, zustandssetzende Daten oder entweder Quellcode oder Objektcode handeln, die in einer beliebigen Kombination aus einer oder mehreren Programmiersprachen geschrieben werden, darunter objektorientierte Programmiersprachen wie Smalltalk, C++ o.ä. sowie herkömmliche prozedurale Programmiersprachen wie die Programmiersprache „C“ oder ähnliche Programmiersprachen. Die durch einen Computer lesbaren Programmanweisungen können vollständig auf dem Computer des Benutzers, teilweise auf dem Computer des Benutzers, als eigenständiges Software-Paket, teilweise auf dem Computer des Benutzers und teilweise auf einem fernen Computer oder vollständig auf dem fernen Computer oder Server ausgeführt werden. In letzterem Fall kann der entfernt angeordnete Computer mit dem Computer des Benutzers durch eine beliebige Art Netzwerk verbunden sein, darunter ein lokales Netzwerk (LAN) oder ein Weitverkehrsnetz (WAN), oder die Verbindung kann mit einem externen Computer hergestellt werden (zum Beispiel über das Internet unter Verwendung eines Internet-Dienstanbieters). In einigen Ausführungsformen können elektronische Schaltungen, darunter zum Beispiel programmierbare Logikschaltungen, vor Ort programmierbare Gatter-Anordnungen (FPGA, field programmable gate arrays) oder programmierbare Logikanordnungen (PLA, programmable logic arrays) die durch einen Computer lesbaren Programmanweisungen ausführen, indem sie Zustandsinformationen der durch einen Computer lesbaren Programmanweisungen nutzen, um die elektronischen Schaltungen zu personalisieren, um Aspekte der vorliegenden Erfindung durchzuführen.
  • Aspekte der vorliegenden Erfindung sind hierin unter Bezugnahme auf Ablaufpläne und/oder Blockschaltbilder bzw. Schaubilder von Verfahren, Vorrichtungen (Systemen) und Computerprogrammprodukten gemäß Ausführungsformen der Erfindung beschrieben. Es wird darauf hingewiesen, dass jeder Block der Ablaufpläne und/oder der Blockschaltbilder bzw. Schaubilder sowie Kombinationen von Blöcken in den Ablaufplänen und/oder den Blockschaltbildern bzw. Schaubildern mittels durch einen Computer lesbare Programmanweisungen ausgeführt werden können.
  • Diese durch einen Computer lesbaren Programmanweisungen können einem Prozessor eines Universalcomputers, eines Spezialcomputers oder einer anderen programmierbaren Datenverarbeitungsvorrichtung bereitgestellt werden, um eine Maschine zu erzeugen, so dass die über den Prozessor des Computers bzw. der anderen programmierbaren Datenverarbeitungsvorrichtung ausgeführten Anweisungen ein Mittel zur Umsetzung der in dem Block bzw. den Blöcken oder Modulen der Ablaufpläne und/oder der Blockschaltbilder bzw. Schaubilder festgelegten Funktionen/Schritte erzeugen. Diese durch einen Computer lesbaren Programmanweisungen können auch auf einem durch einen Computer lesbaren Speichermedium gespeichert sein, das einen Computer, eine programmierbare Datenverarbeitungsvorrichtung und/oder andere Einheiten so steuern kann, dass sie auf eine bestimmte Art funktionieren, so dass das durch einen Computer lesbare Speichermedium, auf dem Anweisungen gespeichert sind, ein Herstellungsprodukt beinhaltet, darunter Anweisungen, welche Aspekte der/des in dem Block bzw. den Blöcken oder Modulen des Ablaufplans und/oder der Blockschaltbilder bzw. Schaubilder angegebenen Funktion/Schritts umsetzen.
  • Die durch einen Computer lesbaren Programmanweisungen können auch auf einen Computer, eine andere programmierbare Datenverarbeitungsvorrichtung oder eine andere Einheit geladen werden, um das Ausführen einer Reihe von Prozess-Blöcken/Schritten auf dem Computer bzw. der anderen programmierbaren Vorrichtung oder anderen Einheit zu verursachen, um einen auf einem Computer ausgeführten Prozess zu erzeugen, so dass die auf dem Computer, einer anderen programmierbaren Vorrichtung oder einer anderen Einheit ausgeführten Anweisungen die in dem Block bzw. den Blöcken oder Modulen der Ablaufpläne und/oder der Blockschaltbilder bzw. Schaubilder festgelegten Funktionen/Schritte umsetzen.
  • Die Ablaufpläne und die Blockschaltbilder bzw. Schaubilder in den Figuren veranschaulichen die Architektur, die Funktionalität und den Betrieb möglicher Ausführungen von Systemen, Verfahren und Computerprogrammprodukten gemäß verschiedenen Ausführungsformen der vorliegenden Erfindung. In diesem Zusammenhang kann jeder Block in den Ablaufplänen oder Blockschaltbildern bzw. Schaubildern ein Modul, ein Segment oder einen Teil von Anweisungen darstellen, die eine oder mehrere ausführbare Anweisungen zur Ausführung der bestimmten logischen Funktion(en) umfassen. In einigen alternativen Ausführungen können die in dem Block angegebenen Funktionen in einer anderen Reihenfolge als in den Figuren gezeigt stattfinden. Zwei nacheinander gezeigte Blöcke können zum Beispiel in Wirklichkeit im Wesentlichen gleichzeitig ausgeführt werden, oder die Blöcke können manchmal je nach entsprechender Funktionalität in umgekehrter Reihenfolge ausgeführt werden. Es ist ferner anzumerken, dass jeder Block der Blockschaltbilder bzw. Schaubilder und/oder der Ablaufpläne sowie Kombinationen aus Blöcken in den Blockschaltbildern bzw. Schaubildern und/oder den Ablaufplänen durch spezielle auf Hardware beruhende Systeme umgesetzt werden können, welche die festgelegten Funktionen oder Schritte durchführen, oder Kombinationen aus Spezial-Hardware und Computeranweisungen ausführen.
  • Eine Bezugnahme in der Beschreibung auf „eine Ausführungsform“ der vorliegenden Grundgedanken sowie andere Abwandlungen davon bedeutet, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder Eigenschaft usw., die in Verbindung mit der Ausführungsform beschrieben werden, in mindestens einer Ausführungsform der vorliegenden Grundgedanken enthalten sind. Somit verweist nicht jedes Auftauchen der Formulierung „in einer Ausführungsform“ sowie jeglicher anderer Abwandlungen, die an verschiedenen Stellen in dieser Beschreibung auftauchen, unbedingt auf dieselbe Ausführungsform.
  • Man sollte sich bewusst sein, dass die Verwendung von „/“, „und/oder“ und „entweder ... und/oder“, z.B. in den Fällen von „A/B“, „A und/oder B“ und „entweder A und/oder B“, die Auswahl lediglich der ersten aufgeführten Option (A) oder die Auswahl lediglich der zweiten aufgeführten Option (B) oder die Auswahl beider Optionen (A und B) umfassen soll. Als weiteres Beispiel soll eine derartige Formulierung in den Fällen „A, B und/oder C“ und „entweder A und/oder B und/oder C“ die Auswahl lediglich der ersten aufgeführten Option (A) oder die Auswahl lediglich der zweiten aufgeführten Option (B) oder die Auswahl lediglich der dritten aufgeführten Option (C) umfassen, oder die Auswahl lediglich der ersten und der zweiten aufgeführten Option (A und B), oder die Auswahl lediglich der ersten und der dritten aufgeführten Option (A und C), oder die Auswahl lediglich der zweiten und der dritten aufgeführten Option (B und C), oder die Auswahl aller drei Optionen (A und B und C). Dies kann, wie für einen Fachmann leicht ersichtlich ist, für beliebig viele Artikel erweitert werden.
  • Nach der Beschreibung von bevorzugten Ausführungsformen eines Systems und Verfahrens zum Entdecken neuer in Frage kommender Materialien anhand einer chemischen Datenbank (die als veranschaulichend und nicht als einschränkend gedacht sind), sei angemerkt, dass Fachleute angesichts der vorstehenden Lehren Abänderungen und Abwandlungen vornehmen können. Es wird deshalb darauf hingewiesen, dass Änderungen an den bestimmten beschriebenen Ausführungsformen vorgenommen werden können, die innerhalb des Umfangs der durch die beigefügten Ansprüche zusammengefassten Erfindung liegen. Nach dieser ausführlichen Beschreibung von Aspekten der Erfindung, mit den von den Patentgesetzen geforderten Einzelheiten und Besonderheiten, wird das in den beigefügten Ansprüchen Dargelegte beansprucht und soll geschützt werden.

Claims (21)

  1. Auf einem Computer ausgeführtes Verfahren, das auf einem Prozessor ausgeführt wird, zum Entdecken neuer in Frage kommender Materialien anhand einer chemischen Datenbank, das Verfahren aufweisend: Extrahieren eines Merkmalsvektors aus einer chemischen Formel; Erlernen eines Vorhersagemodells zum Vorhersagen von Eigenschaftswerten aus dem Merkmalsvektor mit einem Sparse-Kernel-Modell unter Verwendung der chemischen Datenbank; Auswählen eines vorhandenen Materials aus einer Liste von vorhandenen Materialien, die beruhend auf den vorhergesagten Eigenschaftswerten durch das in dem Lernschritt erlernte Vorhersagemodell in absteigender Reihenfolge sortiert ist; Auswählen eines Basismaterials aus einer Liste von Basismaterialien, die in absteigender Reihenfolge der absoluten Reaktionsgrößen in Bezug auf das ausgewählte vorhandene Material sortiert ist; und Generieren der neuen in Frage kommenden Materialien als Varianten des ausgewählten vorhandenen Materials unter Berücksichtigung des ausgewählten Basismaterials.
  2. Verfahren nach Anspruch 1, wobei der Schritt des Generierens darüber hinaus umfasst: als Reaktion auf eine positive Reaktion, Austauschen einer Teilstruktur zwischen dem ausgewählten vorhandenen Material und dem ausgewählten Basismaterial.
  3. Verfahren nach Anspruch 1, wobei der Schritt des Generierens darüber hinaus umfasst: als Reaktion auf eine negative Reaktion, Entfernen von Teilstrukturen, die von dem ausgewählten vorhandenen Material und dem ausgewählten Basismaterial gemeinsam genutzt werden, aus dem ausgewählten vorhandenen Material.
  4. Verfahren nach Anspruch 1, wobei das Basismaterial in einer Trainingsdatenbank gespeichert ist, die zum Erlernen des Vorhersagemodells verwendet wird.
  5. Verfahren nach Anspruch 1, wobei es sich bei der Reaktionsgröße um einen Abstand zwischen dem ausgewählten vorhandenen Material und dem Basismaterial x dem Koeffizienten des Vorhersagemodells handelt.
  6. Verfahren nach Anspruch 1, wobei die neuen in Frage kommenden Materialien in einem Interpolationsbereich des Vorhersagemodells entdeckt werden.
  7. Verfahren nach Anspruch 1, wobei der Merkmalsvektor frei wählbar ist und das Sparse-Kernel-Modell eine Relevanz-Vektor-Maschine (RVM) ist.
  8. Nichtflüchtiges, durch einen Computer lesbares Speichermedium, das ein durch einen Computer lesbares Programm aufweist, das auf einem Prozessor in einem Datenverarbeitungssystem zum Entdecken neuer in Frage kommender Materialien anhand einer chemischen Datenbank ausgeführt wird, wobei das durch einen Computer lesbare Programm, wenn es auf dem Prozessor ausgeführt wird, einen Computer veranlasst, die folgenden Schritte durchzuführen: Extrahieren eines Merkmalsvektors aus einer chemischen Formel; Erlernen eines Vorhersagemodells zum Vorhersagen von Eigenschaftswerten aus dem Merkmalsvektor mit einem Sparse-Kernel-Modell unter Verwendung der chemischen Datenbank; Auswählen eines vorhandenen Materials aus einer Liste von vorhandenen Materialien, die beruhend auf den vorhergesagten Eigenschaftswerten durch das in dem Lernschritt erlernte Vorhersagemodell in absteigender Reihenfolge sortiert ist; Auswählen eines Basismaterials aus einer Liste von Basismaterialien, die in absteigender Reihenfolge der absoluten Reaktionsgrößen in Bezug auf das ausgewählte vorhandene Material sortiert ist; und Generieren der neuen in Frage kommenden Materialien als Varianten des ausgewählten vorhandenen Materials unter Berücksichtigung des ausgewählten Basismaterials.
  9. Nichtflüchtiges, durch einen Computer lesbares Speichermedium nach Anspruch 8, wobei der Schritt des Generierens darüber hinaus umfasst: als Reaktion auf eine positive Reaktion, Austauschen einer Teilstruktur zwischen dem ausgewählten vorhandenen Material und dem ausgewählten Basismaterial.
  10. Nichtflüchtiges, durch einen Computer lesbares Speichermedium nach Anspruch 8, wobei der Schritt des Generierens darüber hinaus umfasst: als Reaktion auf eine negative Reaktion, Entfernen von Teilstrukturen, die von dem ausgewählten vorhandenen Material und dem ausgewählten Basismaterial gemeinsam genutzt werden, aus dem ausgewählten vorhandenen Material.
  11. Nichtflüchtiges, durch einen Computer lesbares Speichermedium nach Anspruch 8, wobei das Basismaterial in einer Trainingsdatenbank gespeichert ist, die zum Erlernen des Vorhersagemodells verwendet wird.
  12. Nichtflüchtiges, durch einen Computer lesbares Speichermedium nach Anspruch 8, wobei es sich bei der Reaktionsgröße um einen Abstand zwischen dem ausgewählten vorhandenen Material und dem Basismaterial x dem Koeffizienten des Vorhersagemodells handelt.
  13. Nichtflüchtiges, durch einen Computer lesbares Speichermedium nach Anspruch 8, wobei die neuen in Frage kommenden Materialien in einem Interpolationsbereich des Vorhersagemodells entdeckt werden.
  14. Nichtflüchtiges, durch einen Computer lesbares Speichermedium nach Anspruch 8, wobei der Merkmalsvektor frei wählbar ist und das Sparse-Kernel-Modell eine Relevanz-Vektor-Maschine (RVM) ist.
  15. System zum Entdecken neuer in Frage kommender Materialien anhand einer chemischen Datenbank, das System aufweisend: einen Hauptspeicher; und einen oder mehrere Prozessoren, die mit dem Hauptspeicher Daten austauschen, konfiguriert zum: Extrahieren eines Merkmalsvektors aus einer chemischen Formel; Erlernen eines Vorhersagemodells zum Vorhersagen von Eigenschaftswerten aus dem Merkmalsvektor mit einem Sparse-Kernel-Modell unter Verwendung der chemischen Datenbank; Auswählen eines vorhandenen Materials aus einer Liste von vorhandenen Materialien, die beruhend auf den vorhergesagten Eigenschaftswerten durch das in dem Lernschritt erlernte Vorhersagemodell in absteigender Reihenfolge sortiert ist; Auswählen eines Basismaterials aus einer Liste von Basismaterialien, die in absteigender Reihenfolge der absoluten Reaktionsgrößen in Bezug auf das ausgewählte vorhandene Material sortiert ist; und Generieren der neuen in Frage kommenden Materialien als Varianten des ausgewählten vorhandenen Materials unter Berücksichtigung des ausgewählten Basismaterials.
  16. System nach Anspruch 15, wobei die Generierung der neuen in Frage kommenden Materialien umfasst: als Reaktion auf eine positive Reaktion, Austauschen einer Teilstruktur zwischen dem ausgewählten vorhandenen Material und dem ausgewählten Basismaterial.
  17. System nach Anspruch 15, wobei die Generierung der neuen in Frage kommenden Materialien umfasst: als Reaktion auf eine negative Reaktion, Entfernen von Teilstrukturen, die von dem ausgewählten vorhandenen Material und dem ausgewählten Basismaterial gemeinsam genutzt werden, aus dem ausgewählten vorhandenen Material.
  18. System nach Anspruch 15, wobei das Basismaterial in einer Trainingsdatenbank gespeichert ist, die zum Erlernen des Vorhersagemodells verwendet wird.
  19. System nach Anspruch 15, wobei es sich bei der Reaktionsgröße um einen Abstand zwischen dem ausgewählten vorhandenen Material und dem Basismaterial x dem Koeffizienten des Vorhersagemodells handelt.
  20. System nach Anspruch 15, wobei die neuen in Frage kommenden Materialien in einem Interpolationsbereich des Vorhersagemodells entdeckt werden.
  21. System nach Anspruch 15, wobei der Merkmalsvektor frei wählbar ist und das Sparse-Kernel-Modell eine Relevanz-Vektor-Maschine (RVM) ist.
DE112019005373.6T 2019-01-15 2019-12-16 Framework für maschinelles lernen zum finden von materialien mit gewünschten eigenschaften Pending DE112019005373T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/247,954 US11901045B2 (en) 2019-01-15 2019-01-15 Machine learning framework for finding materials with desired properties
US16/247,954 2019-01-15
PCT/IB2019/060838 WO2020148588A1 (en) 2019-01-15 2019-12-16 Machine learning framework for finding materials with desired properties

Publications (1)

Publication Number Publication Date
DE112019005373T5 true DE112019005373T5 (de) 2021-07-15

Family

ID=71517719

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019005373.6T Pending DE112019005373T5 (de) 2019-01-15 2019-12-16 Framework für maschinelles lernen zum finden von materialien mit gewünschten eigenschaften

Country Status (6)

Country Link
US (1) US11901045B2 (de)
JP (1) JP7372012B2 (de)
CN (1) CN113260986A (de)
DE (1) DE112019005373T5 (de)
GB (1) GB2593848B (de)
WO (1) WO2020148588A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111899816B (zh) * 2020-07-17 2022-12-02 北京航空航天大学 基于人工智能数据分析的热电材料性能预测
CN113505527B (zh) * 2021-06-24 2022-10-04 中国科学院计算机网络信息中心 一种基于数据驱动的材料性质预测方法及系统
CN114864013A (zh) * 2022-04-12 2022-08-05 脸萌有限公司 向量生成方法及装置、数据处理方法及装置、存储介质
JP7416131B2 (ja) * 2022-06-15 2024-01-17 Dic株式会社 熱硬化性エポキシ樹脂組成物の探索方法、情報処理装置、及びプログラム
CN115271274B (zh) * 2022-09-30 2022-12-27 华中科技大学 电力系统短期日负荷预测方法及相关设备
CN117252114B (zh) * 2023-11-17 2024-02-13 湖南华菱线缆股份有限公司 一种基于遗传算法的电缆耐扭转实验方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1687627A4 (de) 2003-10-14 2010-01-27 Verseon System zur vorhersage und optimierung der kreuzreaktion von leitmolekülen
JP4780554B2 (ja) 2005-07-11 2011-09-28 大和 寛 新規材料の構成物質情報探索方法、及び新規材料の構成物質情報探索システム
JP2007106708A (ja) 2005-10-14 2007-04-26 Univ Of Tokushima 構造反応特性相関解析装置および構造反応特性相関解析プログラム
US20080168014A1 (en) * 2006-12-27 2008-07-10 Bhagat Phiroz M Catalyst discovery through pattern recognition-based modeling and data analysis
EP1992939A1 (de) 2007-05-16 2008-11-19 National University of Ireland, Galway Kornbasiertes Verfahren und Vorrichtung für die Klassifizierung von Materialien oder Chemikalien sowie zur Quantifizierung der Eigenschaften von Materialien oder Chemikalien in Mischungen mittels spektroskopischer Daten
EP3312269A1 (de) 2008-12-17 2018-04-25 The Scripps Research Institute Erzeugung und erhaltung von stammzellen
US9367812B2 (en) 2010-08-25 2016-06-14 Optibrium Ltd. Compound selection in drug discovery
US9605034B2 (en) * 2015-08-28 2017-03-28 The United States Of America As Represented By The Secretary Of The Army Method and use for surface display of proteins and peptide derivatives in a bacterial thermophile
KR102457974B1 (ko) 2015-11-04 2022-10-21 삼성전자주식회사 신규 물질 탐색 방법 및 장치
KR102523472B1 (ko) * 2016-08-01 2023-04-18 삼성전자주식회사 신규 물질의 구조 생성 방법 및 장치
JP7353874B2 (ja) * 2019-09-03 2023-10-02 株式会社日立製作所 材料特性予測装置および材料特性予測方法

Also Published As

Publication number Publication date
JP7372012B2 (ja) 2023-10-31
GB202110471D0 (en) 2021-09-01
JP2022516697A (ja) 2022-03-02
GB2593848B (en) 2022-04-13
CN113260986A (zh) 2021-08-13
WO2020148588A1 (en) 2020-07-23
US11901045B2 (en) 2024-02-13
US20200227143A1 (en) 2020-07-16
GB2593848A (en) 2021-10-06

Similar Documents

Publication Publication Date Title
DE112019005373T5 (de) Framework für maschinelles lernen zum finden von materialien mit gewünschten eigenschaften
DE112017007510T5 (de) Blockchain für offene wissenschaftliche forschung
DE112018005462T5 (de) Anomalie-erkennung unter verwendung von cognitive-computing
DE112015002433T5 (de) Systeme und Techniken zur prädikativen Datenanalytik
DE112020002110T5 (de) Ressourcenarme entitätsauflösung mit transfer learning
DE112021006130T5 (de) Automatisierte orchestrierung von containern durch bewerten von mikrodiensten
DE112020005095T5 (de) Automatische trennung und extraktion von tabellendaten unter verwendung von maschinellem lernen
DE102018121757A1 (de) Durchführen von vektorvergleichsoperationen in einervollhomomorphen verschlüsselung
DE112021002820T5 (de) Dynamische automatisierung einer auswahl von pipeline-artefakten
DE112021006215T5 (de) Automatisierte Deep-Learning-Architekturauswahl für Zeitreihenvorhersage mit Benutzerinteraktion
DE112018002266T5 (de) Kognitives Datenfiltern für Speicherumgebungen
DE112021000810T5 (de) Optisches erkennen von zellenstrukturen unter verwendung hierarchischer neuronaler netzwerke und zellengrenzen zum strukturieren von clustern
DE112021003262T5 (de) Erkennen von quelldatensätzen, die zu einem transferlernverfahren für eine zieldomäne passen
DE102021124264A1 (de) Erzeugung von synthetischen Systemfehlern
DE112020002917T5 (de) Erzeugen von steuereinstellungen für einen chemischen reaktor
DE112020003744T5 (de) Durch dienstqualitätskriterien vorgegebenes automatisiertes betriebsdatenmanagement
DE112020005306T5 (de) Implementierung von arbeitslasten in einer multi-cloud-umgebung
DE112021005569T5 (de) Kontradiktorisches, halbüberwachtes one-shot-lernen
DE112020003825T5 (de) Entsprechung zwischen externen Operationen und Containern sowie Mutationsereignissen
DE112021005313T5 (de) Topologiegesteuerte vervollständigung chemischer daten
DE112018005891T5 (de) Bibliotheks-Screening auf Krebswahrscheinlichkeit
DE112021003680T5 (de) Deterministisch lernende videoszenenerkennung
DE112021003274T5 (de) Ressourcenzuordnung zum optimieren von hyperparametern bei umfangreichen deep-learning-arbeitslasten
DE112021003761T5 (de) Prädiktive modelle mit zerlegbaren hierarchischen ebenen, die konfiguriert werden, um interpretierbare resultate zu erzeugen
DE112021001974T5 (de) Proaktives durchführen von aufgaben auf der grundlage eines schätzens vonhardwarerekonfigurationszeiten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence