TW202117577A - 用以針對目標性質生成結構的機器學習系統以及方法 - Google Patents

用以針對目標性質生成結構的機器學習系統以及方法 Download PDF

Info

Publication number
TW202117577A
TW202117577A TW109130672A TW109130672A TW202117577A TW 202117577 A TW202117577 A TW 202117577A TW 109130672 A TW109130672 A TW 109130672A TW 109130672 A TW109130672 A TW 109130672A TW 202117577 A TW202117577 A TW 202117577A
Authority
TW
Taiwan
Prior art keywords
network
property
generator
vector
simulated
Prior art date
Application number
TW109130672A
Other languages
English (en)
Other versions
TWI846942B (zh
Inventor
迦尼士 海茲
哈索諾S 席姆卡
Original Assignee
南韓商三星電子股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 南韓商三星電子股份有限公司 filed Critical 南韓商三星電子股份有限公司
Publication of TW202117577A publication Critical patent/TW202117577A/zh
Application granted granted Critical
Publication of TWI846942B publication Critical patent/TWI846942B/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C60/00Computational materials science, i.e. ICT specially adapted for investigating the physical or chemical properties of materials or phenomena associated with their design, synthesis, processing, characterisation or utilisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/13Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/50Molecular design, e.g. of drugs
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/70Machine learning, data mining or chemometrics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Hardware Design (AREA)
  • Chemical & Material Sciences (AREA)
  • Pure & Applied Mathematics (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Probability & Statistics with Applications (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Structural Engineering (AREA)
  • Civil Engineering (AREA)
  • Architecture (AREA)
  • Databases & Information Systems (AREA)
  • Medicinal Chemistry (AREA)
  • Pharmacology & Pharmacy (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Algebra (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本發明提供一種用於利用機器學習進行材料設計的方法及系統,其中結構(S)-性質(P)關係的基礎聯合分佈p(S,P)被同時顯式地學習,且被用於利用生成式技術在單個步驟中直接生成樣本(S,P),而無需任何附加處理步驟。然後,利用分佈(例如,p(P))的條件生成或者藉由隨機生成大量樣本(S,P)並過濾(例如,選擇)那些滿足目標性質準則的樣本來識別滿足或超過性質P目標的結構的子空間。

Description

用以針對目標性質生成結構的機器學習系統以及方法
本發明大體而言是有關於用於利用機器學習進行材料設計的系統及方法。 [相關申請案的交叉參考]
本申請案主張於2019年10月2日提出申請且名稱為「材料的生成式結構-性質反向計算協同設計(GENERATIVE STRUCTURE-PROPERTY INVERSE COMPUTATIONAL CO-DESIGN OF MATERIALS)」的美國臨時申請案第62/909,648號的優先權及權益,所述美國臨時申請案的全部內容通過引用併入本案。
本申請案與2020年2月21日提出申請且名稱為「利用機器學習的電子及原子結構計算(ELECTRONIC AND ATOMIC STRUCTURE COMPUTATION UTILIZING MACHINE LEARNING)」的美國專利申請案第16/798,245號相關,所述美國專利申請案主張於2019年9月18日提出申請且名稱為「半導體裝置及其製造方法(SEMICONDUCTOR DEVICE AND METHOD OF MAKING THE SAME)」的美國臨時申請案第62/902,324號的優先權及權益,此二案的全部內容都通過引用併入本案。
已利用機器學習來進行材料發現,以滿足對具有新穎及/或改良性質的材料的需求。
參照圖1,示出用於材料發現及設計的過程。在動作101中,可首先識別感興趣的物理性質(P)。例如,此可為給定材料對目標材料的黏附性、電阻率、熱導率、熔點、抗電遷移性、抗氧化性、崩潰電壓、或給定應用感興趣的相關物理性質的組合。
然後,在動作102中,可基於先前知識及/或化學直覺來收集候選材料(M)的列表,所述化學直覺基於與具有性質P相關值的已知材料的相似性。對於候選列表中的每一材料M,在動作103中,可選擇各種合適的潛在材料結構(S)(例如晶體結構、取向等),且在動作104中,可在不同的長度尺度及時間尺度下針對潛在結構中的每一者計算性質P,例如(1)利用連續體階模擬(continuum level simulation)(其中性質P是在人類相關時間尺度及大(微米或更大)的長度尺度下計算的)或者(2)利用原子論模擬(atomistic simulation)(其中性質P是在原子階及飛秒時間尺度下計算的)。
在動作105中,作出決策。若材料M滿足目標物理性質,則在動作106中,可將材料M視為用於進一步實驗及驗證的有利候選者。由於在各種權衡下對於性質P可能存在多於一個有利候選者,所述過程可能不會在此處停止。若材料M不滿足性質P的目標,則搜尋繼續,直至候選集中的所有材料已被模擬為止。
為便於進行此說明,圖1所示的過程可被稱為材料設計及發現的「正向」模式(例如,「正向設計」)。可基於適用於性質P的材料的先前知識或者基於化學直覺來選擇候選材料的列表,所述化學直覺基於目標材料與已知具有合適的P值的其他材料的相似性。雖然在正向設計中使用將結構S映射至性質P的已知物理學/演算法,然而此種選擇過程可能對仍可適用於特定應用但(1)處於某一領域的專家的直覺之外或者(2)與具有給定性質的已知材料不同的數種目標材料視而不見。
另外,正向設計可能會受到對結構S的性質P進行模擬所需時間的限制。在可能的材料界之外,因時間約束,僅能模擬一小部分。
如此,仍然需要利用機器學習來改良材料發現的過程。
背景技術章節中的上述資訊僅用於增強讀者對本文所述發明概念的理解,且因此不應被理解為承認先前技術的存在或相關性。
根據本發明一或多個實施例的態樣是有關於一種用於材料設計的機器學習系統,其中結構(S)-性質(P)關係的基礎聯合分佈p(S,P)被學習,並被用於利用生成式技術(generative technique)在單個步驟(動作)中直接生成樣本(S,P),而無需任何附加處理步驟(動作)。
根據本發明一或多個實施例的態樣是有關於一種用於利用機器學習進行材料設計的方法,其中結構(S)-性質(P)關係的基礎聯合分佈p(S,P)被學習,並被用於利用生成式技術在單個步驟中直接生成具有(S,P)的樣本,而無需附加處理步驟。
根據本發明的實施例,利用分佈(例如,p(P))的條件生成或者藉由隨機生成大量樣本(S,P)並過濾(例如,選擇)那些滿足目標性質標準的樣本來識別滿足或超過性質P目標的結構的子空間(例如,來自表示所有可能結構的「整個」空間)。
根據本發明的一或多個實施例,一種用以針對目標性質(P)生成結構(S)的機器學習系統包括生成式對抗網路(generative adversarial network,GAN),其中所述GAN包括:潛在空間向量生成器(latent space vector generator),被配置成生成隨機向量;生成器網路,被配置成接收所述隨機向量作為輸入,並生成包含所模擬結構及所模擬性質的元組;以及鑑別器網路,被配置成自包含真實結構及真實性質的資料庫被訓練,將所述所模擬結構及所述所模擬性質與所述真實結構及所述真實性質區分開,並向所述生成器網路發送損失函數,其中所述潛在空間向量生成器、所述生成器網路及所述鑑別器網路被佈置成同時學習結構-性質的基礎聯合概率分佈(underlying joint probability distribution)p(S,P)。
在一個實施例中,所述目標性質(P)包括一或多個物理量,且所述結構(S)包括選自以下各項的表示:經編碼向量化表示,其中結構向量的元素表示特定位置中的原子物種;浮點向量化表示,其中結構向量的相連元組表示固定原子物種的笛卡爾座標的變數(x, y, z);以及混合表示,包括接連的物種及/或座標元組。
在一個實施例中,所述系統包括單個生成器網路。
在一個實施例中,所述生成器網路包括用以生成所述所模擬結構的第一生成器網路及用以生成所述所模擬性質的第二生成器網路,且所述第一生成器網路及所述第二生成器網路均被配置成自同一所述潛在空間向量生成器接收所述隨機向量。
在一個實施例中,所述生成器網路包括用以生成所述所模擬結構的第一生成器網路及各自用以生成多個所模擬性質之一的多個第二生成器網路,且所述第一生成器網路及所述多個第二生成器網路均被配置成自同一所述潛在空間向量生成器接收所述隨機向量。
在一個實施例中,所述鑑別器網路被配置成輸出浮點或離散計數值。
在一個實施例中,所述系統包括計算裝置,所述計算裝置包括圖形處理單元(graphics processing unit,GPU)及/或現場可程式化閘陣列(field programmable gate array,FPGA)。
根據本發明的一或多個實施例,一種用以利用機器學習來針對目標性質(P)生成結構(S)的方法包括:用包含真實結構及真實目標性質的資料庫來訓練鑑別器網路;藉由生成器網路生成所模擬結構及所模擬性質;訓練所述生成器網路使得所述鑑別器網路不能區分所述所模擬結構與來自所述資料庫的所述真實結構之差,且同時學習結構-性質的基礎聯合概率分佈p(S,P);以及利用所述基礎聯合概率分佈來針對所述目標性質生成所述結構。
在一個實施例中,針對所述目標性質生成所述結構包括利用潛在空間劃分p(P)來針對所述目標性質(P)生成所述結構(S)。
在一個實施例中,針對所述目標性質生成所述結構包括隨機生成大量樣本(S,P),並過濾那些滿足所述目標性質(P)的樣本。
在一個實施例中,所述目標性質(P)包括物理量,且所述結構(S)包括選自以下各項的表示:經編碼向量化表示,其中結構向量的元素表示特定位置中的原子物種;浮點向量化表示,其中結構向量的相連元組表示固定原子物種的笛卡爾座標的變數(x, y, z);以及混合表示,包含接連的(物種,座標)元組。
在一個實施例中,所述方法更包括藉由潛在空間向量生成器生成隨機向量,其中藉由所述生成器網路生成所述所模擬結構及生成所述所模擬性質是利用所述隨機向量作為輸入,且其中訓練所述生成器網路包括自所述鑑別器網路向所述生成器網路發送損失函數。
在一個實施例中,所述生成器網路包括用以生成所述所模擬結構的第一生成器網路及用以生成所述所模擬性質的第二生成器網路,且所述第一生成器網路及所述第二生成器網路均被配置成自同一所述潛在空間向量生成器接收所述隨機向量。
根據本發明的一或多個實施例,一種用以針對目標性質(P)生成結構(S)的機器學習系統,所述系統包括變分自動編碼器(variational autoencoder,VAE),其中所述VAE包括編碼器網路、潛在空間及解碼器網路,其中所述編碼器網路被配置成接收包含真實結構及真實性質的資料庫作為輸入,並壓縮所述輸入以生成經編碼向量、所述經編碼向量在所述潛在空間中的分佈的均值及標準偏差,所述解碼器網路被配置成自包含所述真實結構及所述真實性質的所述資料庫被訓練,解壓縮所述經編碼向量以創建所模擬結構及所模擬性質,並區分所述所模擬結構及所述所模擬性質與所述真實結構及所述真實性質之差,且向所述編碼器網路發送損失函數,其中所述編碼器網路、所述潛在空間及所述解碼器網路被佈置成同時學習結構-性質的基礎聯合概率分佈p(S,P)。
在一個實施例中,所述目標性質(P)包括一或多個物理量,且所述結構(S)包括選自以下各項的表示:經編碼向量化表示,其中結構向量的元素表示特定位置中的原子物種;浮點向量化表示,其中結構向量的相連元組表示固定原子物種的笛卡爾座標的變數(x, y, z);以及混合表示,包括接連的物種及/或座標元組。
在一個實施例中,所述系統包括計算裝置,所述計算裝置包括圖形處理單元(GPU)及/或現場可程式化閘陣列(FPGA)。
根據本發明的一或多個實施例,一種用以利用機器學習來針對目標性質(P)生成結構(S)的方法包括:將包含真實結構及真實性質的資料庫輸入至編碼器網路作為輸入,並壓縮所述輸入以生成經編碼向量、所述經編碼向量在潛在空間中的分佈的均值及標準偏差;用包含所述真實結構及所述真實性質的所述資料庫訓練解碼器網路;由所述解碼器網路解壓縮所述經編碼向量以創建所模擬結構及所模擬性質;向所述編碼器網路發送損失函數;以及同時學習結構-性質的基礎聯合概率分佈p(S,P)。
在一個實施例中,所述方法更包括利用潛在空間劃分p(P)來針對所述目標性質生成所述結構。
在一個實施例中,所述方法更包括藉由隨機生成大量樣本(S,P)並過濾那些滿足所述目標性質(P)的樣本來針對所述目標性質生成所述結構。
在一個實施例中,所述目標性質(P)包括物理量,且所述結構(S)包括選自以下各項的表示:經編碼向量化表示,其中結構向量的元素表示特定位置中的原子物種;浮點向量化表示,其中結構向量的相連元組表示固定原子物種的笛卡爾座標的變數(x, y, z);以及混合表示,包含接連的(物種,座標)元組。
提供本發明內容是為了介紹以下在詳細說明中進一步闡述的本發明實施例的一系列特徵及概念。本發明內容並非旨在識別所主張的標的的關鍵特徵或基本特徵,亦並非旨在用於限制所主張的標的的範圍。所闡述的特徵中的一或多者可與一或多個其他所闡述的特徵相結合以提供可行的裝置(workable device)。
在下文中,將參照附圖更詳細地闡述示例性實施例,在所有附圖中,相同的參考編號指代相同的元件。然而,本發明可被實施成各種不同的形式,而不應被視為僅限於本文中所示的實施例。確切而言,提供該些實施例是作為實例來使本發明將透徹及完整,並將向熟習此項技術者充分傳達本發明的態樣及特徵。因此,可不再闡述對於此項技術中具有通常知識者完整地理解本發明的各個態樣及特徵而言並非必需的製程、元件及技術。除非另外注明,否則在所有附圖及本書面說明通篇中相同的參考編號表示相同的元件,且因此,可不再對其予以贅述。
本文所用術語僅是出於闡述特定實施例的目的而並非旨在限制本發明。除非上下文清楚地另外指明,否則本文中所用的單數形式「一個(a及an)」旨在亦包括複數形式。更應理解,當在本說明書中使用用語「包括(comprises、comprising、includes及including)」時,是指明所陳述特徵、整數、步驟、操作、元件及/或組件的存在,但不排除一或多個其他特徵、整數、步驟、操作、元件、組件及/或其群組的存在或添加。
在闡述本發明的實施例時所使用的「可(may)」是指「本發明的一或多個實施例」。本文中所用用語「使用(use)」、「正使用(using)」、及「被使用(used)」可被視為分別與用語「利用(utilize)」、「正利用(utilizing)」、及「被利用(utilized)」同義。另外,用語「示例性(exemplary)」旨在指代實例或示例。
除非另外定義,否則本文中所用的所有用語(包括技術用語及科學用語)的含義均與本發明所屬領域中的通常知識者所通常理解的含義相同。更應理解,用語(例如在常用詞典中所定義的用語)應被解釋為具有與其在相關技術的上下文及/或本說明書中的含義一致的含義,且除非在本文中明確定義,否則不應將其解釋為具有理想化或過於正式的意義。
根據本文所述本發明實施例的電子裝置或電性裝置及/或任何其他相關裝置或組件可利用任何合適的硬體、韌體(例如,特殊應用積體電路(application-specific integrated circuit))、軟體、或軟體、韌體與硬體的組合來實作。該些裝置的各種組件可為一種過程(process)或執行緒(thread),所述過程或執行緒在一或多個計算裝置中的一或多個處理器上運行、執行電腦程式指令並與其他系統組件互動以執行本文中所述的各種功能。所述電腦程式指令儲存於記憶體中,所述記憶體可利用標準記憶體裝置(例如,隨機存取記憶體(random access memory,RAM))而實作於計算裝置中。所述電腦程式指令亦可儲存於其他非暫時性電腦可讀取媒體(例如,光碟唯讀記憶體(compact disc - read only memory,CD-ROM)、快閃磁碟機(flash drive)等)中。此外,熟習此項技術者應認識到,在不背離本發明的示例性實施例的精神及範圍的條件下,各種計算裝置的功能可被組合或整合至單個計算裝置中,或特定計算裝置的功能可跨一或多個其他計算裝置分佈。
在以下說明中,用語「結構」可指原子結構、材料中呈規則或不規則圖案的原子排列、及/或材料(例如,化合物)中原子物種的空間組成。
在以下說明中,用語「性質」可指物理性質(例如沸點、熔點、比熱容、密度、電阻率、熱導率、電子傳輸、抗電遷移性、電子能階密度、聲子能階密度、電子-聲子散射的平均自由程等);及/或基於結構中所界定的原子排列而計算的電子結構性質。
在以下說明中,關於生成式過程中的步驟或動作,用語「同時」可與併發、在時間上同步及/或重合互換使用。
在整個本發明中,本文中所使用的用語「聯合概率分佈p(S,P)」是指表示結構與性質關係的概率分佈,其中結構S及目標性質P作為二個單獨的事件將被同時找到。表達「同時學習結構(S)-性質(P)關係的聯合分佈p(S,P)」是指直接、同時或併發地學習關係p(S,P)的系統或方法。亦即,當「同時學習結構(S)-性質(P)關係的聯合分佈p(S,P)」時,聯合分佈p(S,P)並非是自個體概率p(S)、個體概率p(P)、條件概率p(S|P)、條件概率p(P|S)或另一經機器學習的分佈而獲得的。
此外,表達「樣本(S,P)」是指具有結構S及性質P的樣本。
根據本發明的實施例,提供一種用於利用機器學習進行材料設計的方法及系統,其中結構(S)-性質(P)關係的基礎聯合概率分佈p(S,P)被同時學習(即,同時顯式地學習),且被用於利用生成式技術在單個步驟(動作)中直接生成樣本(S,P),而無需任何附加處理步驟(動作)。然後,利用分佈(例如,p(P))的條件生成或者藉由隨機生成大量樣本(S,P)並過濾(例如,選擇)那些滿足目標性質準則的樣本來識別滿足或超過性質P目標的結構的子空間。
在相關技術實例中,正向設計的替代方法可為材料反向設計。此處,並非利用直覺及先前知識來找到適用於應用的候選材料集,而是可藉由利用數種反向設計方法將目標性質P映射至結構S上。例如,反向設計方法可用於晶體結構預測,如圖5的示意圖所示。
基於統計推理的方法510需要自大型資料庫學習結構-性質關係,並利用此種學習來預測材料的某種組成具有特定性質(例如,特定晶體結構類型)的概率。此處,輸出是晶體(材料)組成,而輸入是晶體結構。自一大群組的二元材料及三元材料,將組成-基態晶體結構映射提取至機器學習模型中。然後利用所述模型預測具有未知結構的組成的晶體類型。
在基於基因演算法的方法530中,利用演化及/或其他全域最佳化技術(例如粒子群最佳化(particle swarm optimization,PSO)、基因演算法等)來為誤差函數找到全域最佳值:
Figure 02_image001
此處,在候選結構σ的空間中計算性質α或數個性質之和。藉由利用啟發式最佳化技術來獲得全域最小值,即最佳化所期望性質與所計算性質之差的結構。
另一種方法可為基於生成式模型的方法550。在正向設計問題中,感興趣的概率分佈是p(性質|結構),即在給定性質下結構的條件概率。當輸入已知時尋求輸出分佈的問題類別被稱為鑑別式問題(discriminative problem)。在反向方法中,條件性被顛倒—尋求的是p(結構|性質)。此類問題是生成式問題。生成式方法可包括使用生成式對抗網路(GAN)來識別與目標光譜匹配的幾何結構,如圖6所示。
參照圖6,可藉由利用模擬及反向設計來制定結構-性質關係以自超表面生成光譜而將超表面設計自試誤法轉變成神經網路介導式反向設計,反之亦然。此二個過程均可由深度神經網路替代。基於人工智慧(artificial intelligence,AI)的光學設計網路的架構可包括三個網路:生成器610、模擬器630及評論器(critic)650,如圖6所示。生成器可接受光譜T及雜訊z,並產生可能的圖案。模擬器可為經過預先訓練的網路,其在其輸出處近似給定圖案的透射光譜
Figure 02_image003
,且評論器可評估幾何資料與來自生成器的圖案之間的分佈距離。在訓練生成器時,所產生的圖案可根據自模擬器及評論器獲得的回饋而變化。可在訓練過程期間記錄有效圖案,且可將其平滑以具備候選結構的資格,但將需要附加的步驟(動作)來識別給定性質的結構。
在圖5至圖6所示的方法中,在給定過程中僅獲得結構的條件概率分佈p(結構|性質)或性質的概率分佈p(性質|結構)中的一者。該些方法均未利用生成式技術在無需任何附加處理步驟(例如,在生成或預測新結構時)的情況下同時獲得結構(S)-性質(P)關係的基礎聯合分佈p(S,P)。事實上,在該些方法中,在識別目標性質(P)的給定結構(S)之前,需要數個步驟。
對比之下,根據本發明實施例的方法可完全在生成式框架中執行反向設計,而不需要任何附加學習框架來將分佈偏向所期望/目標性質。例如,在本申請案(例如,當前方法)中可不需要(即,可不包括)強化學習。
根據一些示例性實施例,可在單個步驟(動作)中獲得任意材料的結構及性質的聯合概率分佈,而非包括中間步驟(動作)及後處理。另外,根據一些示例性實施例,可在單個步驟(動作)中產生(S,P)(即結構及性質),而無需任何中間或後處理步驟(動作)。
根據本發明的一或多個實施例,一種用於同時生成結構及性質的方法包括同時學習結構-性質的聯合概率分佈p(S,P)的基礎統計性質,其中在結構的生成與性質的生成之間不需要附加的步驟(動作)或計算處理。根據本發明的實施例,並非藉由學習分佈p(S)、p(S|P)、p(P)及/或p(P|S)來依序學習聯合分佈p(S,P)。
根據本發明的實施例,可藉由選自但不限於以下各項的生成式框架來學習(或估計)基礎聯合概率分佈p(S,P):生成式對抗網路(GAN)、其任何合適的變型(例如深度卷積GAN(deep convolutional GAN,DCGAN)、瓦瑟斯坦GAN(Wasserstein GAN,WGAN)、費希爾GAN(Fisher GAN,FGAN)等)、變分自動編碼器(VAE)、其任何合適的變型(例如注意力網路)、及/或其組合(例如VAE-GAN)。
圖2是根據本發明實施例用於生成式對抗網路(GAN)的系統及訓練過程的示意圖。所述系統包括潛在空間向量生成器(V)210、生成器網路(G)230及鑑別器網路(D)250。
在機器學習中,時期(epoch)是通過所有訓練資料的一次迭代。訓練資料被分成各種大小的批次(batch)。每一訓練時期中的初始遍次利用真實結構與真實性質對教示鑑別器「真正」實例是什麼樣的。利用每一訓練時期中的後續遍次來訓練生成器網路(G)產生與真實對不可區分的所模擬結構及所模擬性質。藉由一起(同時)用結構-性質對進行學習及訓練,系統可同時學習聯合分佈p(S,P)。
在訓練過程(階段)中,同時利用真實結構(RREAL )及真實性質(TREAL )來訓練鑑別器網路(D),以學習此二者之間的映射函數。例如,利用具有目標性質的實際材料來訓練鑑別器網路(D)。藉由用真實結構(RREAL )及真實性質(TREAL )兩者來訓練鑑別器網路(D),可同時學習結構-性質關係(例如,並非依序地分別先後學習結構或性質)。
在機器學習中,潛在空間是指包含特徵值(即,向量)的抽象多維空間,其為在外部觀察到的事件(例如材料的結構及性質)編碼出有意義的內部表示。潛在空間旨在藉由定量空間表示/建模向電腦提供對該些事件(結構及性質)的理解(或表示)。事件的每一屬性由潛在空間中的一或多個向量來表示,且事件可用潛在空間中的多個維度來表示。
在利用根據本發明實施例的生成式對抗網路(GAN)時,潛在空間向量生成器(V)為所期望維數生成純隨機數。例如,潛在空間向量生成器(V)可為任何合適的維數輸出純隨機向量(例如為10的維數),使得所有隨機數是自具有零均值及單位變異數的高斯(Gaussian)分佈(即,標準常態分佈)得到。在此框架中利用隨機數生成器背後的理念是,該些隨機向量的含義被指派為「後驗的」,即,在鑑別器網路(D)拒絕偽造的(即,模擬的)樣本之後。在訓練過程的進程中,對由潛在空間向量生成器定義的向量空間強加某種形式的次序,使得所生成的向量的子空間對應於所期望的子空間(例如,具有具目標性質的結構的子空間)。在本發明的一個實施例中,訓練程序的成功完成會找到與具有所期望性質的材料的結構-性質對的分佈對應的子空間。
潛在空間向量生成器(V)生成映射至性質空間及結構空間的隨機向量,且生成器網路(G)基於自潛在空間向量生成器(V)提供的隨機向量來生成(TSIM ,RSIM )元組的所模擬樣本,其中包含所模擬性質TSIM 及所模擬結構RSIM 。在本說明通篇中,「T」及「P」可互換地用於指代性質,且「R」及「S」可互換地用於指代材料結構。
然後,該些結構/性質對被饋送至經過訓練的鑑別器網路(D)中。若鑑別器網路(D)可區分其被訓練所用的真實結構-性質對與所模擬結構-性質對之差,即,若所生成的樣本(TSIM ,RSIM )被辨識為偽造的,則使用所述差來構造損失函數,所述損失函數被傳遞至生成器網路(G),進而迫使生成器網路(G)修改其參數以產生更逼真的樣本。差愈大,損失函數愈大。訓練目標是增加鑒別器網路(D)的誤差率(即,「欺騙」鑒別器網路(D),使得其不能將由生成器網路(G)生成的樣本與真實結構-性質對區分開)。
損失函數可為與正學習的量對應的任何合適的類型。例如,若正在學習連續變數,則損失函數可為例如均方根誤差等的量。若正在學習類別(例如定性)變數,則損失可為交叉熵、庫貝克-李柏散度(Kullback-Leibler divergence)或類似的度量。在一個實施例中,當輸出資料是離散的時,可利用負二項式損失函數來訓練生成器網路(G)。然而,本發明的實施例並非僅限於此,且可利用其他合適的損失函數。
根據本發明的實施例,結構及/或性質可包括序數資料或計數資料或者由序數資料或計數資料組成。鑑別器網路(D)可輸出浮點(例如,連續浮點)或離散計數值,而非二進制(真/假,0/1)值。可基於鑑別器網路(D)的輸出來計算損失函數。例如,可利用負二項式損失(Negative Binomial loss)或泊松損失(Poisson loss)來定義計數資料的損失函數。
在訓練過程結束時,在一個實施例中,鑑別器網路(D)將所生成的樣本正確地分類為偽造(模擬)或非偽造的概率可為例如50%或更大。整個過程被稱為樣本的對抗性生成,乃因生成器網路(G)及鑑別器網路(D)充當對手,其各自試圖超越對方。生成器網路(G)試圖創建逼真樣本,而鑑別器網路(D)試圖認出偽造樣本,且此二個網路被鎖定於對抗過程中,直至訓練完成為止,即,直至生成器網路(G)生成基礎分佈(T,R)的相當逼真的樣本為止。
當GAN被訓練至其中其所模擬的結構-性質對在統計上與真實的結構-性質對不可區分的程度時,訓練完成。在此階段處,已學習了聯合分佈p(S,P),且可藉由對對應的子空間進行取樣來獲得滿足目標性質的新材料。
一旦訓練過程完成,便可藉由如圖3所示利用生成器網路(G)對潛在空間進行取樣來生成滿足目標性質P的(T,R)樣本。參照圖3,潛在空間向量生成器(V)210為生成器網路(G)230產生隨機向量,且生成器網路(G)230將隨機向量變換成(S,P),即,具有目標性質(P)的結構(S)。可藉由使用潛在空間劃分(p(P))或者藉由同時(或併發地)生成大量候選結構/性質對(S,P)、隨後進行過濾以選擇具有所期望性質(P)的候選者來識別滿足或超過性質P目標的結構的子空間。
根據一些示例性實施例,除了連續性質之外,所述系統及方法亦可應用於類別、序數、整數及/或計數性質。例如,當性質P是材料的彈道電子傳輸時,根據實施例,表示性質的輸出可為整數/計數資料。當性質是狀態密度時,表示性質的輸出可為連續資料。當性質是材料所屬的類目時,表示性質的輸出可為類別資料。
根據本發明的實施例,目標性質可為二或更多個所期望物理量(例如電阻率、狀態密度等)的任一組合,而結構可為經編碼向量化表示,在所述經編碼向量化表示中,結構向量的元素表示特定位置中的原子物種。
根據本發明的實施例,目標性質可為二或更多個所期望物理量(例如電阻率、狀態密度等)的任一組合,而結構可為浮點向量化表示,在所述浮點向量化表示中,結構向量的相連元組表示固定原子物種的笛卡爾座標的變數(x, y, z)。根據一些示例性實施例的系統及方法可適用於設計任何所期望的材料,例如1D、2D、3D、分子等。
根據本發明的實施例,目標性質可為二或更多個所期望物理量(例如電阻率、狀態密度等)的任一組合,而所述結構可為包含接連的(物種,座標)元組的混合表示。
根據本發明的實施例,用於結構及性質的生成式框架利用單個生成式網路(G)來生成結構及性質兩者。結構及性質兩者可為彼此序連且然後被饋送至鑑別器網路(D)的向量。
根據本發明的另一實施例,單個生成式網路用於結構生成,而不同的生成式網路用於多個目標性質中相應的不同性質。例如,第一生成式網路用於結構生成,第二生成式網路用於第一性質生成,且第三生成式網路用於第二性質生成。然後將結構、第一性質及第二性質序連於一起。
圖4是根據本發明實施例用於生成式對抗網路(GAN)的系統及訓練過程的示意圖。參照圖4,潛在空間向量生成器(V)410向二個生成器網路(G)431及433中饋送,此二個生成器網路(G)431及433分別單獨地創建結構向量(R)及性質向量(T),所述結構向量(R)及性質向量(T)被序連並饋送至鑑別器網路(D)450。在訓練過程期間,來自鑑別器網路(D)的損失被饋送至二個生成器網路(G)中。
損失函數可為均方誤差(Mean Squared Error,MSE)、交叉熵或任何其他合適的損失函數。
在MSE中,藉由在由GAN生成的資料的分佈與真實資料的分佈之差的平方的整個資料集內取平均值來計算誤差。
在交叉熵損失函數中,可利用以下數學公式:
Figure 02_image005
在交叉熵損失函數中,yi 表示實際值,且
Figure 02_image007
表示所模擬值。當實際標籤為1(yi = 1)時,函數的後半部消失,而在其中實際標籤為0(yi = 0)的情形中,前半部消散。二元或二類預測問題的交叉熵是作為所有實例的平均交叉熵來進行計算。
雖然在圖2至圖4中示出了生成式對抗網路(GAN),然而本發明並非僅限於此。根據本發明的實施例,可利用變分自動編碼器(VAE)來學習基礎聯合概率分佈p(S,P)。在一個實施例中,變分自動編碼器(VAE)包括編碼器網路、潛在空間、解碼器網路及損失函數。編碼器網路是輸出資料x的經壓縮表示z的神經網路。解碼器網路是在給出經壓縮表示z的情況下學習重構資料x的神經網路。藉由訓練,損失函數得到減小或最小化,且VAE學習資料的概率分佈。
更詳細而言,編碼器網路由卷積層構成,所述卷積層壓縮輸入並輸出輸入的密集表示(被稱為編碼)。其中編碼器網路壓縮資料(自初始空間至經編碼空間(亦稱為潛在空間))的此種過程被稱為資料壓縮或維數降低。在此種過程中,輸入被編碼為在潛在空間上具有概率分佈的向量。自所述分佈對潛在空間中的點進行取樣。解碼器網路使用與卷積層反向的解卷積層,並對所取樣點進行解壓縮。
在訓練過程期間,真實結構與真實性質對(即,初始資料)被饋送至編碼器網路。亦即,真實結構及真實性質均被饋送至編碼器網路。編碼器網路將輸入變換為潛在空間上的向量分佈,並學習概率分佈的均值及標準偏差。然後,解碼器網路取得編碼器的輸出,並輸出輸入的經重構版本。輸入的經重構版本與實際輸入之差作為損失函數被反向傳播,以在迭代最佳化過程中調整編碼器及解碼器的神經網路的權重,使得在訓練過程結束時,解碼器網路的輸出是初始資料的可接受的近似值或者不能與初始資料區分開。
損失函數由「重構項」(在最後層上)及「正則化項」(在潛在層上)構成,所述「重構項」傾向於使編碼-解碼方案盡可能具有高效能,「正則化項」傾向於藉由使由編碼器返回的分佈接近標準常態分佈來正則化潛在空間的組織。藉由訓練過程,損失函數被最小化。
在訓練完成(即,解碼器網路的輸出與初始資料不可區分)之後,可利用VAE架構來獲得新的結構-性質對。藉由訓練過程,潛在空間變成(結構-性質對的)經編碼表示,所述經編碼表示當被傳遞通過合適的解碼器時產生所期望的輸出。為針對目標性質獲得新的結構,利用所學習的聯合分佈概率、均值及標準偏差來提供來自潛在空間的輸入,所述輸入將由解碼器解碼以生成(參與)結構適於提供目標性質的新結構-性質對。可利用過濾器來進一步選擇材料結構。在此過程中,解碼器的作用將類似於生成式對抗網路的生成器網路,且編碼器未被利用。
圖7是VAE架構的示意圖。參照圖7,在訓練過程期間,由編碼器網路710將輸入變換成潛在空間730中的潛在分佈(作為經編碼向量)。由解碼器網路750對來自潛在分佈的經編碼向量進行取樣,並藉由解碼過程將其變換成經解碼輸出。在生成過程期間,由解碼器網路750對潛在空間(作為所取樣向量)730中的點進行選擇及解碼,以產生新生成的結構/性質對。
根據本發明的實施例,生成過程可併入有不確定性估計,所述不確定性估計給出模型對其預測的置信度如何的度量。可利用任何可用的合適技術(例如主動學習、貝氏學習(Bayesian learning)等)來估計預測的不確定性。
在一個實施例中,感興趣的性質可為電子傳輸(T),而結構(R)可由表示單位胞元中特定位置處的原子物種的類別值來表示。此種配置適用於學習合金(例如二元、三元或四元合金)的聯合結構-傳輸分佈。T及R兩者可為彼此序連的向量。在此實施例中,T及R是離散的。例如,T可取整數值,而R可取類別值。
根據一些示例性實施例,所述方法可應用於結構-多個性質(例如,結構
Figure 02_image009
(性質1、性質2))關係的聯合概率分佈。例如,第一性質可為電子傳輸,且第二性質可為電子能階密度。根據一些示例性實施例,所述方法可以某些性質為條件。例如,所述方法可用於得出p(S,P1|P2),即在給出P2的情況下的概率分佈(S,P1)等。
此外,自根據本發明實施例的方法獲得的結構並非具體僅限於分子結構,且可更包括原子結構、材料中呈規則或不規則圖案的原子排列、以及材料(例如,化合物)或材料樣本中原子物種的空間組成。
所述系統可利用任何合適的計算裝置(例如具有圖形處理單元(GPU)、現場可程式化閘陣列(FPGA)或其他合適的硬體的計算裝置)來實作。
雖然已特別參照本發明的示例性實施例詳細闡述了本發明,然而本文中所述的示例性實施例並非旨在為詳盡的或將本發明的範圍限制於所揭露的確切形式。本發明所屬領域及技術中的技術人員應瞭解,在不有意義地背離以下申請專利範圍及其等效內容中所陳述的本發明的原理、精神及範圍的情況下,可對所闡述的結構以及組裝及操作方法實踐更改及改變。
101、102、103、104、105、106:動作 210、410:潛在空間向量生成器(V) 230、431、433:生成器網路(G) 250、450:鑑別器網路(D) 510:基於統計推理的方法 530:基於基因演算法的方法 550:基於生成式模型的方法 610:生成器 630:模擬器 650:評論器 710:編碼器網路 730:潛在空間 750:解碼器網路 M:材料 P:性質 RREAL :真實結構 RSIM :所模擬結構 S:結構 T:光譜
Figure 02_image003
:透射光譜 TREAL :真實性質 TSIM :所模擬性質 z:雜訊
藉由結合以下圖式來參照以下詳細說明,本發明實施例的該些以及其他特徵及優點將變得更加顯而易見。在圖式中,所有的圖中使用相同的參考編號來指代相同的特徵及組件。各圖未必按比例繪製。 圖1是正向設計過程的圖示。 圖2是根據本發明實施例用於生成式對抗網路(GAN)的系統及訓練過程的示意圖。 圖3是根據本發明實施例的樣本生成過程的示意圖。 圖4是根據本發明實施例用於生成式對抗網路(GAN)的系統及訓練過程的示意圖。 圖5是用於晶體結構預測的反向設計方法的示意圖。 圖6是用於超表面(metasurface)的反向設計方法的示意圖。 圖7是根據本發明實施例利用VAE架構的系統及訓練過程的示意圖。
101、102、103、104、105、106:動作
M:材料
P:性質
S:結構

Claims (20)

  1. 一種用以針對目標性質(P)生成結構(S)的機器學習系統,所述機器學習系統包括生成式對抗網路, 其中所述生成式對抗網路包括: 潛在空間向量生成器,被配置成生成隨機向量, 生成器網路,被配置成接收所述隨機向量作為輸入,並生成包含所模擬結構及所模擬性質的元組,以及 鑑別器網路,被配置成自包含真實結構及真實性質的資料庫被訓練,將所述所模擬結構及所述所模擬性質與所述真實結構及所述真實性質區分開,並向所述生成器網路發送損失函數, 其中所述潛在空間向量生成器、所述生成器網路及所述鑑別器網路被佈置成同時學習結構-性質的基礎聯合概率分佈p(S,P)。
  2. 如請求項1所述的機器學習系統,其中所述目標性質(P)包括一或多個物理量,且所述結構(S)包括選自以下各項的表示:經編碼向量化表示,其中結構向量的元素表示特定位置中的原子物種;浮點向量化表示,其中結構向量的相連元組表示固定原子物種的笛卡爾座標的變數(x, y, z);以及混合表示,包括接連的物種及座標元組。
  3. 如請求項1所述的機器學習系統,其中所述機器學習系統包括單個生成器網路。
  4. 如請求項1所述的機器學習系統,其中: 所述生成器網路包括用以生成所述所模擬結構的第一生成器網路及用以生成所述所模擬性質的第二生成器網路,且 所述第一生成器網路及所述第二生成器網路均被配置成自同一所述潛在空間向量生成器接收所述隨機向量。
  5. 如請求項1所述的機器學習系統,其中: 所述生成器網路包括用以生成所述所模擬結構的第一生成器網路及各自用以生成多個所模擬性質之一的多個第二生成器網路,且 所述第一生成器網路及所述多個第二生成器網路均被配置成自同一所述潛在空間向量生成器接收所述隨機向量。
  6. 如請求項1所述的機器學習系統,其中所述鑑別器網路被配置成輸出浮點或離散計數值。
  7. 如請求項1所述的機器學習系統,其中所述機器學習系統包括計算裝置,所述計算裝置包括圖形處理單元及現場可程式化閘陣列中的任一者或兩者。
  8. 一種用以利用機器學習來針對目標性質(P)生成結構(S)的方法,所述方法包括: 用包含真實結構及真實目標性質的資料庫來訓練鑑別器網路; 藉由生成器網路生成所模擬結構及所模擬性質; 訓練所述生成器網路使得所述鑑別器網路不能區分所述所模擬結構與來自所述資料庫的所述真實結構之差,且同時學習結構-性質的基礎聯合概率分佈p(S,P);以及 利用所述基礎聯合概率分佈來針對所述目標性質生成所述結構。
  9. 如請求項8所述的方法,其中針對所述目標性質生成所述結構包括利用潛在空間劃分p(P)來針對所述目標性質(P)生成所述結構(S)。
  10. 如請求項8所述的方法,其中針對所述目標性質生成所述結構包括隨機生成大量樣本(S,P),並過濾那些滿足所述目標性質(P)的樣本。
  11. 如請求項8所述的方法,其中所述目標性質(P)包括物理量,且所述結構(S)包括選自以下各項的表示:經編碼向量化表示,其中結構向量的元素表示特定位置中的原子物種;浮點向量化表示,其中結構向量的相連元組表示固定原子物種的笛卡爾座標的變數(x, y, z);以及混合表示,包含接連的(物種,座標)元組。
  12. 如請求項8所述的方法,更包括: 藉由潛在空間向量生成器生成隨機向量,其中藉由所述生成器網路生成所述所模擬結構及生成所述所模擬性質是利用所述隨機向量作為輸入,且 其中訓練所述生成器網路包括自所述鑑別器網路向所述生成器網路發送損失函數。
  13. 如請求項12所述的方法,其中: 所述生成器網路包括用以生成所述所模擬結構的第一生成器網路及用以生成所述所模擬性質的第二生成器網路,且 所述第一生成器網路及所述第二生成器網路均被配置成自同一所述潛在空間向量生成器接收所述隨機向量。
  14. 一種用以針對目標性質(P)生成結構(S)的機器學習系統,所述機器學習系統包括變分自動編碼器, 其中所述變分自動編碼器包括編碼器網路、潛在空間及解碼器網路, 其中所述編碼器網路被配置成接收包含真實結構及真實性質的資料庫作為輸入,並壓縮所述輸入以生成經編碼向量、所述經編碼向量在所述潛在空間中的分佈的均值及標準偏差, 所述解碼器網路被配置成自包含所述真實結構及所述真實性質的所述資料庫被訓練,解壓縮所述經編碼向量以創建所模擬結構及所模擬性質,並區分所述所模擬結構及所述所模擬性質與所述真實結構及所述真實性質之差,且向所述編碼器網路發送損失函數, 其中所述編碼器網路、所述潛在空間及所述解碼器網路被佈置成同時學習結構-性質的基礎聯合概率分佈p(S,P)。
  15. 如請求項14所述的機器學習系統,其中所述目標性質(P)包括一或多個物理量,且所述結構(S)包括選自以下各項的表示:經編碼向量化表示,其中結構向量的元素表示特定位置中的原子物種;浮點向量化表示,其中結構向量的相連元組表示固定原子物種的笛卡爾座標的變數(x, y, z);以及混合表示,包括接連的物種及座標元組。
  16. 如請求項14所述的機器學習系統,其中所述機器學習系統包括計算裝置,所述計算裝置包括圖形處理單元及現場可程式化閘陣列中的任一者或兩者。
  17. 一種用以利用機器學習來針對目標性質(P)生成結構(S)的方法,所述方法包括: 將包含真實結構及真實性質的資料庫輸入至編碼器網路作為輸入,並壓縮所述輸入以生成經編碼向量、所述經編碼向量在潛在空間中的分佈的均值及標準偏差; 用包含所述真實結構及所述真實性質的所述資料庫訓練解碼器網路; 由所述解碼器網路解壓縮所述經編碼向量以創建所模擬結構及所模擬性質; 向所述編碼器網路發送損失函數;以及 同時學習結構-性質的基礎聯合概率分佈p(S,P)。
  18. 如請求項17所述的方法,更包括利用潛在空間劃分p(P)來針對所述目標性質生成所述結構。
  19. 如請求項17所述的方法,更包括藉由隨機生成大量樣本(S,P)並過濾那些滿足所述目標性質(P)的樣本來針對所述目標性質生成所述結構。
  20. 如請求項17所述的方法,其中所述目標性質(P)包括物理量,且所述結構(S)包括選自以下各項的表示:經編碼向量化表示,其中結構向量的元素表示特定位置中的原子物種;浮點向量化表示,其中結構向量的相連元組表示固定原子物種的笛卡爾座標的變數(x, y, z);以及混合表示,包含接連的(物種,座標)元組。
TW109130672A 2019-10-02 2020-09-08 用以針對目標性質生成結構的機器學習系統以及方法 TWI846942B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962909648P 2019-10-02 2019-10-02
US62/909,648 2019-10-02
US16/799,410 US11537898B2 (en) 2019-10-02 2020-02-24 Generative structure-property inverse computational co-design of materials
US16/799,410 2020-02-24

Publications (2)

Publication Number Publication Date
TW202117577A true TW202117577A (zh) 2021-05-01
TWI846942B TWI846942B (zh) 2024-07-01

Family

ID=

Also Published As

Publication number Publication date
JP2021060992A (ja) 2021-04-15
US20210103822A1 (en) 2021-04-08
EP3800586A1 (en) 2021-04-07
CN112599208A (zh) 2021-04-02
US11537898B2 (en) 2022-12-27
KR20210040248A (ko) 2021-04-13

Similar Documents

Publication Publication Date Title
EP3800586A1 (en) Generative structure-property inverse computational co-design of materials
Lai et al. Policy-gnn: Aggregation optimization for graph neural networks
Ucar et al. Subtab: Subsetting features of tabular data for self-supervised representation learning
Liu et al. A survey on evolutionary neural architecture search
Rao et al. Dynamicvit: Efficient vision transformers with dynamic token sparsification
CN112529168B (zh) 一种基于gcn的属性多层网络表示学习方法
CN108108854B (zh) 城市路网链路预测方法、系统及存储介质
Raghu et al. Evaluation of causal structure learning methods on mixed data types
Li et al. Bayesian regularized quantile regression
Shi et al. Effective decoding in graph auto-encoder using triadic closure
CN109389151B (zh) 一种基于半监督嵌入表示模型的知识图谱处理方法和装置
Bonner et al. Temporal neighbourhood aggregation: Predicting future links in temporal graphs via recurrent variational graph convolutions
Singh et al. Edge proposal sets for link prediction
Wang et al. A new approach for advertising CTR prediction based on deep neural network via attention mechanism
CN114742208A (zh) 一种基于对比学习和对抗学习的图预训练学习方法
Li et al. A graphical approach for filter pruning by exploring the similarity relation between feature maps
CN114547347A (zh) 基于卷积神经网络的时序知识图谱补全方法、装置及设备
Altares-López et al. AutoQML: Automatic generation and training of robust quantum-inspired classifiers by using evolutionary algorithms on grayscale images
Traoré et al. A data-driven approach to neural architecture search initialization
TWI846942B (zh) 用以針對目標性質生成結構的機器學習系統以及方法
Wang et al. Dc-nas: Divide-and-conquer neural architecture search
CN114842247A (zh) 基于特征累加的图卷积网络半监督节点分类方法
Cai et al. Completely random measures for modeling power laws in sparse graphs
Zhang et al. Compressing knowledge graph embedding with relational graph auto-encoder
Gress et al. Probabilistic formulations of regression with mixed guidance