KR20210040248A - 물질의 생성 구조-특성 역 계산 공동 설계 - Google Patents

물질의 생성 구조-특성 역 계산 공동 설계 Download PDF

Info

Publication number
KR20210040248A
KR20210040248A KR1020200063120A KR20200063120A KR20210040248A KR 20210040248 A KR20210040248 A KR 20210040248A KR 1020200063120 A KR1020200063120 A KR 1020200063120A KR 20200063120 A KR20200063120 A KR 20200063120A KR 20210040248 A KR20210040248 A KR 20210040248A
Authority
KR
South Korea
Prior art keywords
network
generator
characteristic
generating
simulated
Prior art date
Application number
KR1020200063120A
Other languages
English (en)
Inventor
가네쉬 헥데
하르소노 에스. 심카
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20210040248A publication Critical patent/KR20210040248A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C60/00Computational materials science, i.e. ICT specially adapted for investigating the physical or chemical properties of materials or phenomena associated with their design, synthesis, processing, characterisation or utilisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/13Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • G06N7/005
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/50Molecular design, e.g. of drugs
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/70Machine learning, data mining or chemometrics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Hardware Design (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Probability & Statistics with Applications (AREA)
  • Structural Engineering (AREA)
  • Civil Engineering (AREA)
  • Architecture (AREA)
  • Databases & Information Systems (AREA)
  • Medicinal Chemistry (AREA)
  • Pharmacology & Pharmacy (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Algebra (AREA)
  • Complex Calculations (AREA)

Abstract

머신 러닝을 이용한 물질 설계 및 방법 및 시스템이 제공되며, 여기서 구조(S)-특성(P) 관계의 기본 공동 확률 분포 p(S, P)는 동시에 학습되고, 추가 처리 단계 없이 생성 기법을 사용하여 단일 단계(행위)에서 샘플 (S, P)을 직접 생성하는 데 이용된다. 특성 P의 목표를 만족하거나 초과한 구조의 서브 공간은 분포의 조건부 생성(예: p(P))을 이용하여 식별되거나 또는 무작위로 다수의 샘플 (S, P)을 생성하고 목표 특성 기준을 만족하는 샘플들을 필터링(예: 선택)하여 식별된다.

Description

물질의 생성 구조-특성 역 계산 공동 설계{GENERATIVE STRUCTURE-PROPERTY INVERSE COMPUTATIONAL CO-DESIGN OF MATERIALS}
본 발명은 일반적으로 머신 러닝을 이용하는 물질 설계를 위한 시스템 및 방법에 관한 것이다.
신규한 및/또는 진보한 특성을 가진 물질에 대한 수요를 충족시키기 위한 물질 발견에 머신 러닝을 이용해왔다.
도 1을 참조하면, 물질 발견 및 설계 프로세스가 도시된다. 관심 있는 물리적 특성(P)은 행위 101에서 먼저 선택될 수 있다. 예를 들어, 이것은 목표 물질에 대한 특정 물질의 접착력, 저항력, 열 전도성, 녹는점, 일렉트로마이그레이션(electromigration) 저항, 산화 저항, 파괴 전압 또는 특정 용도에 대한 관련 물리적 특성의 조합일 수 있다.
후보 물질(M)의 목록은 우선 특성 P의 관련 값을 갖는 알려진 물질과의 유사성에 기초한 사전 지식 및/또는 화학적 직관에 기초하여 행위 102에서 수집될 수 있다. 후보 목록의 각각의 물질 M에 대해, 결정 구조, 방향 등과 같은 다양하고 적합하고 잠재적인 물질 구조(S)가 행위 103에서 생성될 수 있고, 특성 P는 다른 길이 및 시간 스케일에서 각각의 잠재적 구조에 대해 행위 104에서 계산될 수 있다. 예를 들어, (1) 특성 P가 사람-관련 시간 스케일(human-relevant time scale) 및 큰 스케일에서 계산될 때 연속 레벨 시뮬레이션을 활용할 수 있고, (2) 특성 P가 원자 수준(level of atoms)과 펨토초 시간 스케일(femtosecond time scale)에서 계산될 때 원자적 시뮬레이션을 활용할 수 있다.
행위 105에서는 결정이 이루어진다. 물질 M이 목표 물리적 특성을 만족하는 경우, 행위 106에서 추가 실험 및 검증을 위한 유리한 후보로 간주될 수 있다. 다양한 트레이드 오프를 가진 특성 P에 대해 둘 이상의 유리한 후보가 있을 수 있으므로 프로세스가 여기서 중단되지 않을 수 있다. 물질 M이 목표 특성 P를 만족하지 않으면 후보 세트의 모든 물질이 시뮬레이션될 때까지 검색이 계속된다.
이 설명의 목적을 위해, 도 1에 프로세스가 도시되어 있다. 도 1은 물질 설계 및 발견의 "포워드(forward)" 모드, 예를 들어, 포워드 설계로 지칭될 수 있다. 후보 물질의 목록은 특성 P에 적합한 물질에 대한 사전 지식에 기초하거나 또는 P의 적절한 값을 갖는 것으로 알려진 다른 물질과 목표 물질의 유사성에 근거한 화학적 직관에 기초하여 선택될 수 있다. 구조 S를 특성 P에 맵핑하는 알려진 물리/알고리즘은 포워드 설계에 이용되며, 그러한 선택 프로세스는 여전히 특정 용도에 적합할 수 있지만, (1) 분야 전문가의 직관 밖에 놓여 있거나 (2) 주어진 특성을 가지는 알려진 물질과 다른 다수의 목표 물질에 대해 맹목적일 수 있다.
추가적으로 포워드 설계는 구조 S의 특성 P를 시뮬레이션하는 데 필요한 시간으로 제한될 수 있다. 가능한 물질 세계에서 시간 제약으로 인해 작은 부분만 시뮬레이션할 수 있다.
이와 같이, 머신 러닝을 이용하는 물질 발견 프로세스를 개선할 필요가 있다.
배경 기술의 정보는 본 명세서에 기술된 본 발명의 개념에 대해 이해를 증진시키기 위한 것일 뿐이므로, 종래 기술의 존재 또는 관련성을 인정하는 것으로 해석되어서는 아니 된다.
본 발명의 하나 이상의 실시예는 물질 설계를 위한 머신 러닝 시스템에 관한 것이며, 여기서 구조(S)-특성(P)의 관계의 기본 공동 분포 p(S, P)가 학습되고 활용되어 추가적인 처리 단계(행위) 없이 생성 기술을 사용하여 단일 단계(행위)에서 샘플 (S, P)을 곧바로 생성한다.
본 발명의 하나 이상의 실시예는 머신 러닝을 이용하는 물질 설계 방법에 관한 것이며, 여기서 구조(S)-특성(P)의 관계의 기본 공동 분포 p(S, P)가 학습되고 활용되어 추가적인 처리 단계 없이 생성 기술을 사용하여 단일 단계에서 샘플 (S, P)를 직접 생성한다.
본 발명의 실시예에 따르면, 특성 P에 대한 목표를 만족시키거나 초과하는 구조의 서브 공간(예를 들어, 모든 가능성 있는 구조를 대표하는 모든 공간을 의미함)은 조건부 생성(예: p(P))을 활용하거나 다수의 샘플 (S, P)을 무작위로 생성하여 목표 특성 기준을 만족하는 샘플들을 필터링(예: 선택)하여 식별한다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
본 발명의 실시예에 따르면, 목표 특성(P)에 대한 구조(S)를 생성하는 머신 러닝 시스템은 GAN(generative adversarial network)을 포함하고, 상기 GAN은 랜덤 벡터를 생성하도록 구성된 잠재 공간 벡터 생성기(latent space vector generator), 상기 랜덤 벡터를 입력으로 수신하고 시뮬레이션된 구조 및 시뮬레이션된 특성 모두를 포함하는 튜플(tuple)을 생성하도록 구성된 생성기 네트워크(generator network) 및 실제 구조 및 실제 특성을 포함하는 데이터베이스로부터 훈련되고, 상기 시뮬레이션된 구조 및 상기 시뮬레이션된 특성을 상기 실제 구조 및 상기 실제 특성과 구별하고, 손실 함수를 상기 생성기 네트워크에 전송하도록 구성된 판별기 네트워크(discriminator network)를 포함하고, 상기 잠재 공간 벡터 생성기, 상기 생성기 네트워크 및 상기 판별기 네트워크가 동시에 구조-특성 p(S, P)의 기본 공동 확률 분포(underlying joint probability distribution)를 학습하기 위해 배치된다.
일 실시예에서, 상기 목표 특성(P)는 하나 이상의 물리량을 포함하고, 상기 구조(S)는 구조 벡터의 요소가 특정 위치의 원자 종을 나타내는 인코딩된 벡터화 표시로부터 선택된 표시, 구조 벡터의 연속 튜플이 고정 원자 종의 데카르트 좌표의 변수(x, y, z)를 나타내는 부동 소수점 벡터화 표시 및 종 및/또는 좌표 튜플을 연속적으로 포함하는 혼합 표시를 포함한다.
일 실시예에서, 목표 특성(P)에 대한 구조(S)를 생성하는 머신 러닝 시스템은 단일 생성기 네트워크를 포함한다.
일 실시예에서, 상기 생성기 네트워크는 상기 시뮬레이션된 구조를 생성하는 제1 생성기 네트워크 및 상기 시뮬레이션된 특성을 생성하는 제2 생성기 네트워크를 포함하고, 상기 제1 생성기 네트워크 및 상기 제2 생성기 네트워크 모두는 동일한 상기 잠재 공간 벡터 생성기로부터 상기 랜덤 벡터를 수신하도록 구성된다.
일 실시예에서, 상기 생성기 네트워크는 상기 시뮬레이션된 구조를 생성하는 제1 생성기 네트워크 및 복수의 제2 생성기 네트워크를 포함하고, 상기 복수의 제2 생성기 네트워크는 복수의 시뮬레이션된 특성 중 하나를 각각 생성하고, 상기 제1 생성기 네트워크 및 상기 복수의 제2 생성기 네트워크 모두는 상기 동일한 잠재 공간 벡터 생성기로부터 상기 랜덤 벡터를 수신하도록 구성된다.
일 실시예에서, 상기 판별기 네트워크는 부동 소수점 또는 이산 카운트 값을 출력하도록 구성된다.
일 실시예에서, 목표 특성(P)에 대한 구조(S)를 생성하는 머신 러닝 시스템은 GPUs(graphics processing units) 및/또는 FPGAs(field programmable gate array)를 포함하는 컴퓨팅 장치를 포함한다.
본 발명의 하나 이상의 실시예에 따르면, 머신 러닝을 이용하여 목표 특성(P)에 대한 구조(S)를 생성하는 방법은 실제 구조와 실제 목표 특성을 포함하는 데이터베이스로 판별기 네트워크를 훈련하고, 생성기 네트워크를 통해 시뮬레이션된 구조 및 시뮬레이션된 특성을 생성하고, 상기 판별기 네트워크가 상기 시뮬레이션된 구조와 상기 실제 구조 사이의 차이를 상기 데이터베이스와 구별하지 못하도록 상기 생성기 네트워크를 훈련하고, 구조-특성 p(S, P)의 기본 공동 확률 분포를 동시에 학습하고, 상기 기본 공동 확률 분포를 활용하여 상기 목표 특성에 대한 상기 구조를 생성하는 것을 포함한다.
일 실시예에서, 상기 목표 특성에 대한 상기 구조를 생성하는 것은, 잠재 공간 분할 p(P)를 이용하여 상기 목표 특성(P)에 대한 상기 구조(S)를 생성하는 것을 포함한다.
일 실시예에서, 상기 목표 특성에 대한 상기 구조를 생성하는 것은, 다수의 샘플 (S, P)을 무작위로 생성하는 것 및 상기 목표 특성(P)을 만족하는 상기 샘플을 필터링하는 것을 포함한다.
일 실시예에서, 상기 목표 특성(P)는 물리량을 포함하고, 상기 구조(S)는 구조 벡터의 요소가 특정 위치의 원자 종을 나타내는 인코딩된 벡터화 표시로부터 선택된 표시를 포함하고, 구조 벡터의 연속 튜플이 고정 원자 종의 데카르트 좌표의 변수(x, y, z)를 나타내는 부동 소수점 벡터화 표시를 포함하고, 종 및/또는 좌표 튜플을 연속적으로 포함하는 혼합 표시를 포함한다.
일 실시예에서, 머신 러닝을 이용하여 목표 특성(P)에 대한 구조(S)를 생성하는 방법은 잠재 공간 벡터 생성기를 통해 랜텀 벡터를 생성하는 것을 더 포함하되, 상기 생성기 네트워크를 통해 상기 시뮬레이션된 구조 및 상기 시뮬레이션된 특성을 생성하는 것은 상기 랜덤 벡터를 입력으로 사용하고, 상기 생성기 네트워크를 훈련하는 것은 상기 판별기 네트워크로부터 상기 생성기 네트워크로 손실 함수를 전송하는 것을 포함한다.
일 실시예에서, 상기 생성기 네트워크는 상기 시뮬레이션된 구조를 생성하는 제1 생성기 네트워크 및 상기 시뮬레이션된 특성을 생성하는 제2 생성기 네트워크를 포함하고, 상기 제1 생성기 네트워크 및 상기 제2 생성기 네트워크 모두는 상기 동일한 잠재 벡터 공간 생성기로부터 상기 랜덤 벡터를 수신하도록 구성된다.
본 발명의 하나 이상의 실시예에 따르면, 목표 특성(P)에 대한 구조(S)를 생성하는 머신 러닝 시스템은 VAE(variational autoencoder)를 포함하고, 상기 VAE는 인코더 네트워크(encoder network), 잠재 공간, 디코더 네트워크(decoder network)를 포함하고, 상기 인코더 네트워크는 입력으로서 실제 구조 및 실제 특성을 포함하는 데이터베이스를 수신하고, 상기 입력을 압축하여 인코딩된 벡터를 생성하고, 상기 잠재 공간에서 상기 인코딩된 벡터 분포의 평균 및 표준 편차를 생성하고, 상기 디코더 네트워크는 상기 실제 구조 및 상기 실제 특성을 포함하는 상기 데이터베이스로부터 학습되고, 상기 인코딩된 벡터를 압축 해제하여 상기 시뮬레이션된 구조 및 상기 시뮬레이션된 특성을 생성하고, 상기 시뮬레이션된 구조 및 상기 시뮬레이션된 특성 그리고 상기 실제 구조 및 상기 실제 특성 간의 차이를 구별하고, 손실 함수를 상기 인코더 네트워크에 전송하고, 상기 인코더 네트워크, 상기 잠재 공간 및 상기 디코더 네트워크는 동시에 구조-특성 p(S, P)의 기본 공동 확률 분포를 학습한다.
일 실시예에서, 상기 목표 특성(P)는 하나 이상의 물리량을 포함하고, 상기 구조(S)는 구조 벡터의 요소가 특정 위치의 원자 종을 나타내는 인코딩된 벡터화 표시로부터 선택된 표시를 포함하고, 구조 벡터의 연속 튜플이 고정 원자 종의 데카르트 좌표의 변수(x, y, z)를 나타내는 부동 소수점 벡터화 표시를 포함하고, 종 및/또는 좌표 튜플을 연속적으로 포함하는 혼합 표시를 포함한다.
일 실시예에서, 상기 시스템은 GPUs(graphics processing units) 및/또는 FPGAs(field programmable gate array)를 포함하는 컴퓨팅 장치를 포함한다.
본 발명의 하나 이상의 실시예에 따르면, 머신 러닝을 이용하여 목표 특성(P)에 대한 구조(S)를 생성하는 방법은 실제 구조 및 실제 특성을 포함하는 데이터베이스를 입력으로 인코더 네트워크에 입력하고 상기 입력을 압축하여 인코딩된 벡터, 평균 및 잠재 공간에서의 상기 인코딩된 벡터의 분포의 표준편차를 생성하고, 상기 실제 구조와 상기 실제 특성을 포함하는 상기 데이터베이스로 디코더 네트워크를 훈련하고, 상기 인코딩된 벡터를 압축 해제하여 상기 디코더 네트워크에 의해 시뮬레이션된 구조 및 특성을 생성하고, 상기 인코더 네트워크에 손실함수를 전송하고, 구조-특성 p(S, P)의 기본 공동 확률 분포를 동시에 학습하는 것을 포함한다.
일 실시예에서, 머신 러닝을 이용하여 목표 특성(P)에 대한 구조(S)를 생성하는 방법은 상기 목표 특성(P)에 대한 상기 구조(S)를 생성하기 위해 잠재 공간 분할 p(P)를 이용하여 상기 목표 특성에 대한 상기 구조를 생성하는 것을 더 포함한다.
일 실시예에서, 머신 러닝을 이용하여 목표 특성(P)에 대한 구조(S)를 생성하는 방법은 다수의 샘플 (S, P)을 무작위로 생성하여 상기 목표 특성에 대한 상기 구조를 생성하는 것 및 상기 목표 특성(P)를 만족하는 상기 샘플을 필터링하는 것을 더 포함한다.
일 실시예에서, 상기 목표 특성(P)는 물리량을 포함하고, 상기 구조(S)는 구조 벡터의 요소가 특정 위치의 원자 종을 나타내는 인코딩된 벡터화 표시로부터 선택된 표시, 구조 벡터의 연속 튜플이 고정 원자 종의 데카르트 좌표의 변수 (x, y, z)를 나타내는 부동 소수점 벡터화 표시 및 종 및/또는 좌표 튜플을 연속적으로 포함하는 혼합 표시를 포함한다.
기타 실시예들의 구체적인 사항들은 발명의 설명 및 도면들에 포함되어 있다.
도 1은 포워드 설계 프로세스의 예시이다.
도 2는 본 발명의 일 실시예에 따른 GAN(Generative Adversarial Network)을 위한 시스템 및 훈련 프로세스의 개략도이다.
도 3은 본 발명의 일 실시예에 따른 샘플 생성 프로세스의 개략도이다.
도 4는 본 발명의 일 실시예에 따른 GAN(Generative Adversarial Network)을 위한 시스템 및 훈련 프로세스의 개략도이다.
도 5는 결정 구조 예측을 위한 역 설계 접근법의 개략도이다.
도 6은 메타서페이스(metasurface)에 대한 역 설계 접근법의 개략도이다.
도 7은 본 발명의 일 실시예에 따른 VAE 아키텍쳐를 이용하는 시스템 및 훈련 프로세스의 개략도이다.
본 발명의 실시예들의 다른 특징 및 장점은 첨부되는 도면과 함께 고려될 때 다음의 발명의 설명을 참조하여 보다 명확해질 것이다. 도면에서, 유사한 특징 및 구성 요소를 참조하기 위해 도면 전체에 걸쳐 유사한 참조 부호가 사용된다. 수치가 반드시 축적대로 그려지는 것은 아니다.
이하에서, 첨부되는 도면과 함께 예시적인 실시예들이 보다 상세하게 후술될 것이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자(이하, '통상의 기술자')에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 이에 따라, 본 발명의 양상 및 특징의 완전한 이해를 위해 통상의 기술자에에 필수적이지 않은 공정들, 구성 요소들 및 기술들은 설명되지 않을 것이다. 달리 언급이 없다면, 첨부된 도면 및 설명 전반에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭하므로, 그들에 대한 설명은 반복되지 않을 수 있다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.
본 발명의 실시예들을 설명할 때 "~일 수 있다(may)"의 사용은 "본 발명의 하나 이상의 실시예"를 지칭하려는 것이다. 본 명세서에서, "사용하다(use)", "사용하는(using)", "사용된(used)"은 각각 "활용하다(utilize)", "활용하는(utilizing)", "활용된(utilized)"과 같은 의미인 것으로 고려될 수 있다. 또한, "예시적인(exemplary)"은 예 또는 설명을 지칭하려는 것이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에 기술된 본 발명의 실시예에 따른 전자 또는 전기 장치 및/또는 다른 관련 장치 또는 구성요소는 임의의 적절한 하드웨어, 펌웨어(예를 들어, 응용-특정 집적 회로), 소프트웨어 또는 소프트웨어, 펌웨어 및 하드웨어의 조합을 이용하여 구현될 수 있다. 이들 장치의 다양한 구성요소는 하나 이상의 프로세서 상에서, 하나 이상의 컴퓨팅 장치에서 실행되고, 컴퓨터 프로그램 명령을 실행하고, 본 명세서에 기술된 다양한 기능을 수행하기 위해 다른 시스템 구성 요소와 상호 작용하는 프로세스 또는 스레드일 수 있다. 컴퓨터 프로그램 명령은 예를 들어, 휘발성 메모리(RAM)와 같은 표준 메모리 장치를 이용하는 컴퓨팅 장치에서 구현될 수 있는 메모리에 저장된다. 컴퓨터 프로그램 명령은 또한 예를 들어, CD-ROM, 플래시 드라이브 등과 같은 다른 비일시적 컴퓨터 판독 기능 매체에 저장될 수 있다. 또한, 본 발명의 예시적인 실시예의 범위에 따르면, 통상의 기술자는 다양한 컴퓨팅 장치의 기능이 단일 컴퓨팅 장치에 결합되거나 통합될 수 있거나, 특정 컴퓨팅 장치의 기능이 하나 이상의 다른 컴퓨팅 장치에 걸쳐서 분산될 수 있음을 인식하여야 한다.
이하의 설명에서, 용어 "구조(structure)"는 원자 구조, 물질에서 규칙적이거나 불규칙적인 패턴인 원자의 배열 및/또는 물질 및 화합물에서 원자 종의 공간 조성을 지칭할 수 있다.
이하의 설명에서, 용어 "특성(property)"은 구조에 정의된 원자 배열에 기초하여 계산되는 끓는점, 녹는점, 비열 용량, 밀도, 저항력, 열 전도도, 전자 전송, 일렉트로마이그레이션 저항, 전자 레벨 밀도, 포논 레벨 밀도, 전자-포논 산란의 평균 자유 경로 등과 같은 물리적 특성 및/또는 전자 구조 특성을 지칭할 수 있다.
이하의 설명에서, 용어 "동시에(simultaneously)"는 생성 프로세스의 단계 또는 행위와 관련하여 동시에(concurrently), 동기화된(synchronous) 및/또는 우연의(coincidental)와 상호 교환 가능하게 사용된다.
본 명세서 전체에 걸쳐, 용어 "공동 확률 분포(joint probability distribution p(S, P)"는 구조 및 특성 관계를 나타내는 확률 분포를 나타내며, 여기서 구조 S 및 목표 특성 P는 2개의 별개의 사건으로서 동시에 발견될 수 있다. "구조(S)-특성(P) 관계의 공동 분포 p(S, P)는 동시에 학습된다"라는 표현은 관계 p(S, P)를 직접, 동시에 학습하는 시스템 또는 방법을 지칭한다. 즉, "구조(S)-특성(P) 관계의 공동 분포 p(S, P)가 동시에 학습될 때" 개별 확률 p(S), 개별 확률 p(P), 조건부 확률 p(S|P), 조건부 확률 p(P|S) 또는 다른 머신 러닝 분포로부터 공동 분포 p(S, P)가 얻어지지 않는다.
또한, "샘플 (S, P)"라는 표현은 구조 S와 특성 P를 가진 샘플을 말한다.
본 발명의 실시예에 따르면, 머신 러닝을 이용한 물질 설계 및 방법 및 시스템이 제공되며, 여기서 구조(S)-특성(P) 관계의 기본 공동 확률 분포 p(S, P)는 동시에 학습되고(즉, 명시적으로 동시에 학습된다), 추가 처리 단계(행위) 없이 생성 기법을 사용하여 단일 단계(행위)에서 샘플 (S, P)을 직접 생성하는 데 이용된다. 특성 P의 목표를 만족하거나 초과한 구조의 서브 공간은 분포의 조건부 생성(예: p(P))을 이용하여 식별되거나 또는 무작위로 다수의 샘플 (S, P)을 생성하고 목표 특성 기준을 만족하는 샘플들을 필터링(예: 선택)하여 식별된다.
관련 실시예에서, 포워드 설계에 대한 대안적 접근법은 물질 역설계일 수 있다. 여기서는 직관 및 사전 지식을 활용하여 응용에 적합한 후보 물질 세트를 찾는 대신, 목표 특성 P는 다수의 역설계 접근법을 이용하여 구조 S에 맵핑될 수 있다. 예를 들어, 역설계 접근법은 도 5의 개략도에 도시된 바와 같이 결정 구조 예측에 이용될 수 있다.
통계적 추론-기반 접근법(510)은 대형 데이터베이스로부터 구조-특성 관계를 학습하고, 이 학습을 이용하여 특정 특성, 예를 들어 특정 결정 구조 유형을 가질 수 있는 물질의 특정 조성의 확률을 예측한다. 여기서 출력은 결정(물질) 조성이며, 입력은 결정 구조이다. 이원계 및 삼원계 물질의 큰 그룹에서, 구성 대 바닥 상태 결정 구조 맵핑은 머신 러닝 모델로 추출된다. 그런 다음, 모델을 사용하여 알 수 없는 구조를 가진 조성의 결정 유형을 예측한다.
유전자 알고리즘 기반 접근법(530)에서, PSO(particle swarm optimization), 유전자 알고리즘 등과 같은 진화 및/또는 다른 글로벌 최적화 기술은 오류 함수에 대한 전역 최적해(global optimum)을 찾는 데 활용된다.
Figure pat00001
여기서, 특성 α 또는 다수의 특성에 대한 합은 후보 구조 σ의 공간에서 계산된다. 전체 최소값, 즉 원하는 특성과 계산된 특성의 차이를 최적화하는 구조는 휴리스틱(heuristic) 최적화 기법을 사용하여 얻을 수 있다.
다른 접근법은 생성 모델 기반 접근법(550)일 수 있다. 포워드 설계의 문제점은, 관심 확률 분포는 주어진 특성에서 구조의 조건부 확률인 p(특성|구조)이다. 입력을 알고 있을 때 출력 분포를 찾는 문제의 카테고리를 판별적 문제라고 한다. 역 접근법에서는 조건이 p(구조|특성)로 뒤바뀐다. 그러한 문제점은 생성적인 문제점이다. 생성 접근법은 도 6에 도시된 바와 같이, 목표 광학 스펙트럼과 일치하는 기하학적 구조를 식별하기 위한 GAN의 사용이 포함될 수 있다.
도 6을 참조하면, 메타서페이스(metasurface) 설계는 시행 착오 접근법에서 시뮬레이션과 역설계 모두를 활용하여 메타서페이스로부터 광학 스펙트럼을 생성하기 위한 구조-변환 관계를 구축함으로써 신경망 매개 역 설계로 전환될 수 있고, 그 반대일 수 있다. 두 과정 모두 DNN(deep neural netework)으로 대체될 수 있다. 인공 지능(AI) 기반 광학 설계를 위한 네트워크의 구조는 도 6에 도시된 바와 같이 3개의 네트워크, 생성기(generator)(610), 시뮬레이터(simulator)(630), 크리틱(critic)(650)을 포함할 수 있다. 생성기는 스펙트럼 T 및 잡음 Z를 수용하고 가능한 패턴을 생성할 수 있다. 시뮬레이터는 출력에서 주어진 패턴에 대한 투과 스펙트럼 T를 근사하는 사전 훈련된 네트워크일 수 있고, 크리틱은 기하 데이터와 생성기의 패턴 사이의 분포 거리를 평가할 수 있다. 생성기를 훈련하는 동안 생성된 패턴은 시뮬레이터와 크리틱으로부터 얻은 피드백에 따라 달라질 수 있다. 훈련 프로세스 중에 유효한 패턴이 문서화될 수 있고, 후보 구조로 자격이 부여될 수 있지만, 주어진 특성에 대한 구조를 식별하기 위해서는 추가 단계(행위)가 필요하다.
도 5 및 도 6을 참조하면, 주어진 프로세스에서 구조의 조건부 확률 분포 p(구조|특성) 또는 특성의 확률 분포 p(특성|구조) 중 하나만 얻을 수 있다. 이들 접근법 중 어느 것도 생성 기술을 이용하여 구조(S)-특성(P) 관계의 기본 공동 분포 p(S, P)를 동시에 그리고 추가적인 처리 단계 없이, 새로운 구조를 생성하거나 예측하는 것을 얻지 못한다. 실제로, 이러한 방법들에서, 목표 특성(P)에 대한 주어진 구조(S)가 식별되기 전에 많은 단계들이 필요하다.
이와 대조적으로, 본 발명의 실시예들에 따른 접근법은 원하는/목표 특성들에 대한 분포를 편향시키기 위해 추가적인 학습 프레임워크를 요구하지 않고 생성 프레임워크에서 전체적으로 역설계를 수행할 수 있다. 예를 들어, 본 명세서에서 강화 학습이 필요하지 않을 수 있다(즉, 포함되지 않을 수 있다).
일부 예시적인 실시예에 따르면, 임의의 물질의 구조 및 특성의 공동 확률 분포는 중간 단계(행위) 및 이후 프로세스를 포함하는 대신 단일 단계(행위)로 얻을 수 있다. 추가적으로, 일부 예시적인 실시예에 따르면, (S, P) 즉 구조 및 특성은 중간 또는 이후 프로세스 단계(행위) 없이 단일 단계(행위)로 생성될 수 있다.
본 발명의 하나 이상의 실시예에 따르면, 구조와 특성을 동시에 생성하는 방법은 구조-특성 p(S, P)의 공동 확률 분포의 기본 통계 특성을 동시에 학습하는 것을 포함하며, 여기서 구조 생성과 특성 생성 사이에 추가 단계(행위) 또는 계산 처리가 필요하지 않다. 본 발명의 실시예에 따르면, 공동 분포 p(S, P)는 p(S), p(S|P), p(P) 및/또는 p(P|S)의 분포를 학습함으로써 순차적으로 학습되지 않는다.
본 발명의 실시예에 따르면, 기본 공동 확률 분포 p(S, P)는 GANs(generative adversarial networks), 이의 임의의 적합한 변형인 DCGAN(deep convolutional GAN), WGAN(Wasserstein GAN) 및 FGAN(Fisher GAN)등, VAE(variational autoencoders), 어텐션 네트워크(Attnetion network)와 같은 변형 및/또는 VAE-GAN과 같은 그것의 조합에서 선택된 생성 프레임워크에 의해 학습될 수 있지만, 이에 제한되는 것은 아니다.
도 2는 본 발명의 일 실시예에 따른 GAN(generative adversarial network)을 위한 시스템 및 훈련 프로세스의 개략도이다. 시스템은 잠재 공간 벡터 생성기(V)(210), 생성기 네트워크(G)(230), 판별기 네트워크(D)(250)를 포함한다.
머신 러닝에서, 하나의 시대는 모든 훈련 데이터를 통한 하나의 반복이다. 훈련 데이터는 다양한 크기의 배치로 분할된다. 모든 훈련 시대의 초기 단계는 판별기에게 실제 구조와 실제 특성 쌍을 활용하여 "참(true)"의 예가 어떤 것인지 가르쳐준다. 각 훈련 시대의 후속 단계는 생성기 네트워크(G)를 훈련시켜 실제 쌍과 구별할 수 없는 시뮬레이션된 구조와 시뮬레이션된 특성을 생성하는 데 사용된다. 구조-특성 쌍을 함께(동시에) 학습하고 훈련함으로써, 시스템은 p(S, P)의 공동 분포를 동시에 학습할 수 있다.
훈련 프로세스(스테이지)에서, 판별기 네트워크(D)는 실제 구조(Rreal)와 실제 특성(Treal) 사이의 맵핑 함수를 학습하기 위해 실제 구조(Rreal)와 실제 특성(Treal)을 동시에 사용하여 훈련된다. 예를 들어, 목표 특성을 갖는 실제 물질은 판별기 네트워크(D)를 훈련시키는 데 사용된다. 실제 구조(Rreal)와 실제 특성(Treal)을 모두 사용하여 판별기 네트워크 (D)를 훈련함으로써 구조-특성 관계를 동시에 학습할 수 있다. 예를 들어, 구조를 별도로 학습하기 전 또는 후에 순차적으로 학습하지 않는다.
머신 러닝에서 잠재 공간은 물질의 구조 및 특성 등과 같은 외부에서 관찰된 사건의 의미 있는 내부 표현을 인코딩하는 특징값(즉, 벡터)을 포함하는 추상적인 다차원 공간을 지칭한다. 잠재 공간은 정량적 공간 표현/모델링을 통해 이러한 사건(구조 및 특성)에 대한 이해(또는 표현)를 컴퓨터에 제공하는 것을 목표로 한다. 사건의 각 속성은 잠재 공간에서 하나 이상의 벡터로 표현되고, 사건은 잠재 공간에서 복수의 차원으로 표현될 수 있다.
본 발명의 일 실시예에 따른 GAN을 이용함에 있어서, 잠재 공간 벡터 생성기(V)는 원하는 차원의 순수한 랜덤 넘버(random number)를 생성한다. 예를 들어, 잠재 공간 벡터 생성기(V)는 임의의 적절한 차원의 순수 랜덤 벡터를 출력할 수 있다. 예를 들어, 10차원에서, 모든 랜덤 넘버는 평균 및 단위 분산이 0인 가우시안 분포(Gaussian distribution), 즉, 표준 정규 분포에서 도출된다. 이 프레임 워크에서 랜덤 넘버 생성기를 사용하는 이면의 개념은 이러한 랜덤 벡터에 대한 의미가 "귀납적인(a posterion)"으로 지정된다는 것이다. 훈련 프로세스에서, 어떤 형태의 순서가 생성되는 벡터의 서브 공간이 원하는 서브 공간, 예를 들어 목표 특성이 있는 구조를 가진 서브 공간에 일치하도록 잠재 공간 벡터 생성기에 의해 정의된 벡터 공간에 부과되고 있다. 본 발명의 일 실시예에서, 훈련 프로세스의 성공적인 완료는 원하는 특성을 가진 물질과 구조-특성 쌍의 분포에 대응하는 서브 공간을 찾는다.
잠재 공간 벡터 생성기(V)는 특성 공간과 구조 공간으로 맵핑되는 랜덤 벡터를 생성하고, 생성기 네트워크(G)는 잠재 공간 벡터 생성기(V)에서 제공된 랜덤 벡터를 기반으로 시뮬레이션된 특성 Tsim과 시뮬레이션된 구조 Rsim을 포함한 (Tsim, Rsim) 튜플의 시뮬레이션 샘플을 생성한다. 본 명세서 전체에서, "T" 및 "P"는 특성을 지칭하기 위해 상호 교환적으로 이용되고, "R" 및 "S"는 물질 구조를 지칭하기 위해 상호 교환적으로 이용된다.
이들의 구조-특성 쌍은 훈련된 판별기 네트워크(D)로 공급된다. 판별기 네트워크(D)가 훈련된 실제 구조-특성 쌍과 시뮬레이션된 구조-특성 쌍의 차이를 구별할 수 있는 경우, 즉, 생성된 샘플 (Tsim, Rsim)이 가짜로 인식되면, 차이는 생성기 네트워크(G)로 전달되는 손실 함수를 구성하는 데 이용되며, 생성기 네트워크(G)가 보다 현실적인 샘플을 생성하도록 파라미터를 수정하도록 한다. 차이가 클수록 손실 함수가 커지고, 훈련의 목표는 판별기 네트워크(D)의 오류율을 높이는 것이다. 즉, 생성기 네트워크(G)에 의해 생성된 샘플을 실제 구조-특성 쌍과 구별할 수 없도록 판별기 네트워크를 "fool"하는 것이다.
손실 함수는 학습되는 수량에 해당하는 임의의 적절한 유형일 수 있다. 예를 들어, 연속 변수를 학습하는 경우 손실 함수는 제곱 평균 오차와 같은 양일 수 있다. 범주형(예: 질적인) 변수를 학습하는 경우 손실이 교차 엔트로피, 쿨백-라이블러 발산(Kullback-Leibler divergence) 또는 유사한 측정값일 수 있다. 일 실시예에서, 음이항 손실 함수는 출력 데이터가 분리된 경우 생성기 네트워크(G)를 훈련시키기 위해 이용될 수 있다. 그러나 본 발명이 이에 한정되는 것은 아니며, 다른 적절한 손실 함수가 이용될 수 있다.
본 발명의 일 실시예에 따르면, 구조 및/또는 특성은 순서 데이터 또는 카운트 데이터를 포함하거나 포함할 수 있다. 판별기 네트워크 (D)는 이진(참/거짓, 0/1) 값 대신 부동 소수점(예: 연속 부동 소수점) 또는 이산 카운트 값을 출력할 수 있다. 손실 함수는 판별기 네트워크(D)의 출력에 기초하여 계산될 수 있다. 예를 들어, 카운트 데이터에 대한 손실 함수는 음이항 손실 또는 포아송 손실을 이용하여 정의될 수 있다.
훈련 프로세스의 후반부에서, 일 실시예에서, 판별기 네트워크(D)는 예를 들어 생성된 샘플을 가짜(시뮬레이션) 또는 그렇지 않은 것으로 올바르게 분류할 확률이 50% 이상일 수 있다. 생성기 네트워크(G)와 판별기 네트워크(D)가 각각 상대방을 능가하려고 시도하는 적의 역할을 하기 때문에 전체 프로세스를 적대적 샘플 생성이라고 한다. 생성기 네트워크(G)는 실제 샘플을 생성하려고 시도하는 반면, 판별기 네트워크(D)는 가짜 샘플을 발견하려고 시도하고 두 네트워크는 훈련이 완료될 때까지, 즉 생성기 네트워크(G)가 기본(T, R) 분포의 상당히 현실적인 표본을 생성할 때까지 적대 프로세스에 고정된다.
GAN이 시뮬레이션된 구조-특성 쌍이 실제 구조-특성 쌍과 통계적으로 구별될 수 없는 지점으로 훈련될 때, 훈련이 완료된다. 이 단계에서, p(S, P)의 결합 분포가 학습되었고, 대응하는 서브 공간을 샘플링함으로써 목표 특성을 만족시키는 새로운 물질을 얻을 수 있다.
훈련 프로세스가 완료되면, 목표 특성 P를 만족시키는 (T, R) 표본을 도 3과 같이 생성기 네트워크(G)를 통해 잠재 공간을 샘플링하여 생성할 수 있다. 도 3을 참조하면, 잠재 공간 벡터 생성기(V)(210)는 생성기 네트워크(G)(230)에 대한 랜덤 벡터를 생성하고, 생성기 네트워크(G)(230)는 랜덤 벡터를 (S, P), 즉, 목표 특성(P)를 갖는 구조(S)로 변환한다. 특성 P에 대한 목표를 만족시키거나 초과하는 구조의 서브 공간은 잠재 공간 분할(p(P))을 사용하여 식별될 수 있거나 또는 다수의 후보 구조-특성 쌍 (S, P)의 동시 생성을 통해 원하는 특성 (P)를 갖는 후보를 선택하도록 필터링할 수 있다.
일부 예시적인 실시예에 따르면, 시스템 및 방법은 연속적인 특성들 외에 범주형, 순서형, 정수형 및/또는 카운트형 특성들에 적용될 수 있다. 예를 들어, 특성 P가 물질의 탄도 전자 전송인 경우, 일 실시예에 따른 특성을 나타내는 출력은 정수/카운트 데이터일 수 있다. 특성이 상태 밀도인 경우, 특성을 나타내는 출력은 연속적인 데이터일 수 있다. 특성이 물질이 속하는 클래스인 경우 특성을 나타내는 출력은 범주형 데이터일 수 있다.
본 발명의 일 실시예에 따르면, 목표 특성은 저항력, 상태 밀도 등과 같은 둘 이상의 바람직한 물리량의 임의의 조합일 수 있지만, 구조는 구조 벡터의 연속 튜플이 고정 원자 종의 데카르트 좌표에 변수 (x, y, z)를 나타내는 부동 소수점 벡터화 표시일 수 있다. 일부 예시적인 실시예들에 따른 시스템 및 방법은 1D, 2D, 3D, 분자 등과 같은 임의의 바람직한 물질을 설계하는 데 적용될 수 있다.
본 발명의 일 실시예에 따르면, 구조 및 특성에 대한 생성 프레임 워크는 단일 생성 네트워크(G)를 사용하여 구조 및 특성을 모두 생성한다. 구조와 특성 모두는 서로 연결된 벡터를 판별기 네트워크(D)에 공급되는 벡터일 수 있다.
본 발명의 다른 실시예에 따르면, 단일 생성기 네트워크는 구조 생성을 위해 사용되는 반면, 별개의 생성 네트워크는 복수의 목표 특성 중에서 각각의 다른 특성을 위해 사용된다. 예를 들어, 제1 생성기 네트워크는 구조 생성에 이용되고, 제2 생성기 네트워크는 제1 특성 생성에 이용되고, 제3 생성기 네트워크는 제2 특성 생성에 이용된다. 그런 다음 구조, 제1 특성 및 제2 특성이 함께 연결된다.
도 4는 본 발명의 일 실시예에 따른 GAN(generalative adversarial network)을 위한 시스템 및 훈련 프로세스의 개략도이다. 도 4를 참조하면, 잠재 공간 벡터 생성기(V)(410)는 각각 판별기 네트워크(D)(450)에 연결되고 공급되는 구조(R) 및 특성(T) 벡터를 개별적으로 생성하는 2개의 생성기 네트워크(G)(431) 및 생성기 네트워크(G)(433)으로 공급한다. 판별기 네트워크(D)의 손실은 훈련 과정에서 두 생성기 네트워크(G)로 공급된다.
손실 함수는 평균 제곱 오차(MSE), 교차 엔트로피 또는 임의의 다른 적절한 손실 함수일 수 있다.
MSE에서, 오차는 GAN에 의해 생성된 데이터의 분포와 실제 데이터의 분포 사이의 차이의 제곱의 전체 데이터 세트에 대한 평균을 취함으로써 계산된다.
교차 엔트로피 손실 함수에서, 다음 수학 공식이 이용될 수 있다.
Figure pat00002
교차 엔트로피 손실 함수에서, yi는 실제 값을 나타내고, y^는 시뮬레이션 된 값을 나타낸다. 실제 레이블(label)이 1(yi=1)인 경우 함수의 제2 절반이 사라지는 반면, 실제 레이블이 0(yi=0)인 경우 제1 절반이 제거된다.
GNN은 도 2 내지 도 4에 도시되어 있지만, 본 발명은 이에 국한되지 않는다. 본 발명의 일 실시예에 따르면, 기본 공동 확률 분포 p(S, P)는 VAE(vareiational autoencoder)를 이용하여 학습될 수 있다. 일 실시예에서, VAE는 인코더 네트워크, 잠재 공간, 디코더 네트워크 및 손실 함수를 포함한다. 인코더 네트워크는 데이터 x의 압축된 표현 z를 출력하는 신경망이다. 디코더 네트워크는 압축 표현(z)이 주어지면 데이터(x)를 재구성하는 것을 학습하는 신경망이다. 훈련을 통해 손실 함수가 줄어들거나 최소화되며 VAE는 데이터의 확률 분포를 학습한다.
보다 상세하게는, 인코더 네트워크는 컨볼루셔널 막(convolutional layer)으로 구성되며, 이는 입력을 압축하고 인코딩이라고 하는 입력의 밀집된 표현을 출력한다. 인코더 네트워크가 데이터를 압축하는 프로세스(잠재 공간이라고도 하는 인코딩된 공간)를 데이터 압축 또는 차원 축소라고 한다. 이 과정에서 입력은 잠재 공간에 대한 확률 분포를 갖는 벡터로 인코딩된다. 잠재 공간의 포인트는 해당 분포에서 샘플링된다. 디코더 네트워크는 컨볼루셔널 막의 반대인 디컨볼루셔널 막(deconvolutional layer)을 사용하고, 샘플링된 포인트를 압축 해제한다.
훈련 프로세스 동안, 실제 구조 및 실제 특성의 쌍, 즉 초기 데이터는 인코더 네트워크에 공급된다. 즉, 실제 구조와 실제 특성이 모두 인코더 네트워크에 공급된다. 인코더 네트워크는 입력을 잠재 공간에 대한 벡터 분포로 변환하고, 확률 분포의 평균 및 표준편차를 학습한다. 그런 다음 디코더 네트워크는 인코더의 출력을 받아 재구성된 버전의 입력을 출력한다. 입력의 재구성된 버전과 실제 입력 간의 차이는 손실 최적화 함수로 역전파되어 반복 최적화 프로세스에서 인코더 및 디코더의 신경망 가중치를 조정하여 훈련 프로세스의 끝에서 디코더 네트워크는 초기 데이터의 수용 가능한 근사치이거나 이와 구별될 수 없다.
손실 함수는 "재구성 용어(reconstruction term)" (최종 계층에 있는) 및 "정규화 용어(regularization)"로 구성되며, 재구성 용어는 인코딩-디코딩 방식을 최대한 수행하게 하는 경향이 있고, 정규화 용어는 그러한 인코더가 반환한 분포를 표준 정규 분포에 가깝게 하여 잠재 공간의 구성을 정규화하는 경향이 있다. 훈련 프로세스를 통해 손실 함수는 최소화된다.
훈련이 완료된 후, 즉 디코더 네트워크의 출력이 초기 데이터와 구별될 수 없는 경우, VAE 아키텍쳐는 새로운 구조-특성 쌍을 얻는 데 활용될 수 있다. 훈련 프로세스를 통해 잠재 공간은 구조-특성 쌍의 인코딩된 표현이 되고, 적절한 디코더를 통과하면 원하는 출력을 생성한다. 목표 특성에 대한 새로운 구조를 얻기 위해, 학습된 공동 확률 분포, 평균 및 표준편차는 목표 특성을 제공하기에 적합한 구조를 가진 새로운 구조-특성 쌍을 생성하기 위해 디코더에 의해 디코딩될 잠재 공간의 입력을 제공하는 데 이용된다. 필터는 물질 구조를 추가로 선택하기 위해 사용할 수 있다. 이 과정에서 디코더는 GAN의 생성기 네트워크와 유사하게 작용하며 인코더는 활용되지 않는다.
도 7은 VAE 아키텍쳐의 개략도이다. 도 7을 참조하면, 훈련 프로세스 동안, 입력은 인코더 네트워크(710)에 의해 잠재 공간(730)(인코딩된 벡터)에서 잠재 분포로 변환된다. 잠재 분포로부터의 인코딩된 벡터는 디코더 네트워크(750)에 의해 샘플링되고 디코딩 프로세스를 통해 디코딩된 출력으로 변환된다. 생성 프로세스 동안, 잠재 공간으로부터의 포인트(730)가 새롭게 생성된 구조-특성 쌍을 생성하기 위해 디코더 네트워크(750)에 의해 선택되고 디코딩된다.
본 발명의 일 실시예에 따르면, 생성 프로세스는 불확실성 추정을 포함할 수 있으며, 이는 모델이 예측에 대해 얼마나 확신하는지를 측정한다. 예측의 불확실성은 능동(active) 학습, 베이지안(Bayesian) 학습 등과 같은 이용 가능한 적절한 기술을 사용하여 추정할 수 있다.
일 실시예에서, 관심있는 특성은 전자 전송(T)일 수 있으며, 구조(R)는 단위 셀의 특정 위치에서 원자 종을 나타내는 범주형 값으로 표시될 수 있다. 이러한 구성은 이원계, 삼원계 또는 사원계 합금과 같은 합금에 대한 공동 구조-전송 분포를 학습하는 데 적합하다. T와 R은 서로 연결된 벡터일 수 있다. 이 실시예에서, T와 R은 이산적이다. 예를 들어, T는 정수 값을 사용할 수 있는 반면 R은 범주 값을 사용할 수 있다.
일부 예시적인 실시예에 따르면, 이 방법은 여러 특성에 대한 구조의 공동 확률 분포에 적용될 수 있다(예를 들어, 구조
Figure pat00003
Figure pat00004
제1 특성, 제 2특성)
예를 들어, 제1 특성은 전자 전송일 수 있고, 제2 특성은 전자 레벨의 밀도일 수 있다. 일부 예시적인 실시예에 따르면, 이 방법은 특정 특성에 조건부로 만들 수 있다. 예를 들어, 이 방법은 p(S, P1|P2), 즉 P2가 주어진 (S, P1)의 확률 분포 등을 찾기 위해 이용될 수 있다.
또한, 본 발명의 실시예에 따른 방법으로부터 얻은 구조는 분자 구조에 특별히 한정되지 않으며, 원자 구조, 물질의 규칙적 또는 불규칙적인 패턴으로 원자 배열을 더 포함할 수 있고, 물질(예: 화합물) 또는 물질의 샘플에 있는 원자 종의 공간 조성을 포함할 수 있다.
시스템은 GPUs(graphics processing units), FPGAs(field programmable gate arrays) 또는 다른 적절한 하드웨어를 갖는 장치와 같은 임의의 적합한 컴퓨팅 장치를 이용하여 구현될 수 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였으나, 본 발명은 상기 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 제조될 수 있으며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.

Claims (20)

  1. GAN(generative adversarial network)을 포함하는 목표 특성(P)에 대한 구조(S)를 생성하는 머신 러닝 시스템에 있어서,
    상기 GAN은 랜덤 벡터를 생성하도록 구성된 잠재 공간 벡터 생성기(latent space vector generator), 상기 랜덤 벡터를 입력으로 수신하고 시뮬레이션된 구조 및 시뮬레이션된 특성 모두를 포함하는 튜플(tuple)을 생성하도록 구성된 생성기 네트워크(generator network) 및 실제 구조 및 실제 특성을 포함하는 데이터베이스로부터 훈련되고, 상기 시뮬레이션된 구조 및 상기 시뮬레이션된 특성을 상기 실제 구조 및 상기 실제 특성과 구별하고, 손실 함수를 상기 생성기 네트워크에 전송하도록 구성된 판별기 네트워크(discriminator network)를 포함하고,
    상기 잠재 공간 벡터 생성기, 상기 생성기 네트워크 및 상기 판별기 네트워크가 구조-특성 p(S, P)의 기본 공동 확률 분포(underlying joint probability distribution)를 동시에 학습하기 위해 배치되는 목표 특성(P)에 대한 구조(S)를 생성하는 머신 러닝 시스템.
  2. 제 1항에 있어서,
    상기 목표 특성(P)은 하나 이상의 물리량을 포함하고,
    상기 구조(S)는 구조 벡터의 요소가 특정 위치의 원자 종을 나타내는 인코딩된 벡터화 표시으로부터 선택된 표시, 구조 벡터의 연속 튜플이 고정 원자 종의 데카르트 좌표의 변수(x, y, z)를 나타내는 부동 소수점 벡터화 표시 및 종 및/또는 좌표 튜플을 연속적으로 포함하는 혼합 표시을 포함하는 목표 특성(P)에 대한 구조(S)를 생성하는 머신 러닝 시스템.
  3. 제 1항에 있어서,
    상기 시스템은 단일 생성기 네트워크를 포함하는 목표 특성(P)에 대한 구조(S)를 생성하는 머신 러닝 시스템.
  4. 제 1항에 있어서,
    상기 생성기 네트워크는 상기 시뮬레이션된 구조를 생성하는 제1 생성기 네트워크 및 상기 시뮬레이션된 특성을 생성하는 제2 생성기 네트워크를 포함하고,
    상기 제1 생성기 네트워크 및 상기 제2 생성기 네트워크 모두는 동일한 상기 잠재 공간 벡터 생성기로부터 상기 랜덤 벡터를 수신하도록 구성되는 목표 특성(P)에 대한 구조(S)를 생성하는 머신 러닝 시스템.
  5. 제 1항에 있어서,
    상기 생성기 네트워크는 상기 시뮬레이션된 구조를 생성하는 제1 생성기 네트워크 및 복수의 제2 생성기 네트워크를 포함하고,
    상기 복수의 제2 생성기 네트워크는 복수의 시뮬레이션된 특성 중 하나를 각각 생성하고,
    상기 제1 생성기 네트워크 및 상기 복수의 제2 생성기 네트워크 모두는 동일한 상기 잠재 공간 벡터 생성기로부터 상기 랜덤 벡터를 수신하도록 구성되는 목표 특성(P)에 대한 구조(S)를 생성하는 머신 러닝 시스템.
  6. 제 1항에 있어서,
    상기 판별기 네트워크는 부동 소수점 또는 이산 카운트 값을 출력하도록 구성되는 목표 특성(P)에 대한 구조(S)를 생성하는 머신 러닝 시스템.
  7. 제 6항에 있어서,
    상기 시스템은 GPUs(graphics processing units) 및/또는 FPGAs(field programmable gate array)를 포함하는 컴퓨팅 장치를 포함하는 목표 특성(P)에 대한 구조(S)를 생성하는 머신 러닝 시스템.
  8. 실제 구조와 실제 목표 특성을 포함하는 데이터베이스로 판별기 네트워크를 훈련하고,
    생성기 네트워크를 통해 시뮬레이션된 구조 및 시뮬레이션된 특성을 생성하고,
    상기 판별기 네트워크가 상기 시뮬레이션된 구조와 상기 실제 구조 사이의 차이를 상기 데이터베이스와 구별하지 못하도록 상기 생성기 네트워크를 훈련하고, 구조-특성 p(S, P)의 기본 공동 확률 분포를 동시에 학습하고,
    상기 기본 공동 확률 분포를 활용하여 상기 목표 특성에 대한 상기 구조를 생성하는 것을 포함하는 머신 러닝을 이용하여 목표 특성(P)에 대한 구조(S)를 생성하는 방법.
  9. 제 8항에 있어서,
    상기 목표 특성에 대한 상기 구조를 생성하는 것은, 잠재 공간 분할 p(P)를 이용하여 상기 목표 특성(P)에 대한 상기 구조(S)를 생성하는 것을 포함하는 머신 러닝을 이용하여 목표 특성(P)에 대한 구조(S)를 생성하는 방법.
  10. 제 8항에 있어서,
    상기 목표 특성에 대한 상기 구조를 생성하는 것은,
    다수의 샘플 (S, P)을 무작위로 생성하고,
    상기 목표 특성(P)를 만족하는 상기 샘플을 필터링하는 것을 포함하는 머신 러닝을 이용하여 목표 특성(P)에 대한 구조(S)를 생성하는 방법.
  11. 제 8항에 있어서,
    상기 목표 특성(P)는 물리량을 포함하고, 상기 구조(S)는 구조 벡터의 요소가 특정 위치의 원자 종을 나타내는 인코딩된 벡터화 표시로부터 선택된 표시를 포함하고,
    구조 벡터의 연속 튜플이 고정 원자 종의 데카르트 좌표의 변수(x, y, z)를 나타내는 부동 소수점 벡터화 표시를 포함하고,
    종 및/또는 좌표 튜플을 연속적으로 포함하는 혼합 표시를 포함하는 머신 러닝을 이용하여 목표 특성(P)에 대한 구조(S)를 생성하는 방법.
  12. 제 8항에 있어서,
    잠재 공간 벡터 생성기를 통해 랜덤 벡터를 생성하는 것을 더 포함하되,
    상기 생성기 네트워크를 통해 상기 시뮬레이션된 구조 및 상기 시뮬레이션된 특성을 생성하는 것은 상기 랜덤 벡터를 입력으로 사용하고,
    상기 생성기 네트워크를 훈련하는 것은 상기 판별기 네트워크로부터 상기 생성기 네트워크로 손실 함수를 전송하는 것을 포함하는 머신 러닝을 이용하여 목표 특성(P)에 대한 구조(S)를 생성하는 방법.
  13. 제 12항에 있어서,
    상기 생성기 네트워크는 상기 시뮬레이션된 구조를 생성하는 제1 생성기 네트워크 및 상기 시뮬레이션된 특성을 생성하는 제2 생성기 네트워크를 포함하고,
    상기 제1 생성기 네트워크 및 상기 제2 생성기 네트워크 모두는 동일한 상기 잠재 벡터 공간 생성기로부터 상기 랜덤 벡터를 수신하도록 구성되는 머신 러닝을 이용하여 목표 특성(P)에 대한 구조(S)를 생성하는 방법.
  14. VAE(variational autoencoder)를 포함하는 목표 특성(P)에 대한 구조(S)를 생성하는 머신 러닝 시스템에 있어서,
    상기 VAE는 인코더 네트워크(encoder network), 잠재 공간, 디코더 네트워크(decoder network)를 포함하고,
    상기 인코더 네트워크는 입력으로서 실제 구조 및 실제 특성을 포함하는 데이터베이스를 수신하고, 상기 입력을 압축하여 인코딩된 벡터를 생성하고, 상기 잠재 공간에서 상기 인코딩된 벡터 분포의 평균 및 표준 편차를 생성하고,
    상기 디코더 네트워크는 상기 실제 구조 및 상기 실제 특성을 포함하는 상기 데이터베이스로부터 학습되고,
    상기 인코딩된 벡터를 압축 해제하여 시뮬레이션된 구조 및 시뮬레이션된 특성을 생성하고,
    상기 시뮬레이션된 구조 및 상기 시뮬레이션된 특성 그리고 상기 실제 구조 및 상기 실제 특성 간의 차이를 구별하고,
    손실 함수를 상기 인코더 네트워크에 전송하고,
    상기 인코더 네트워크, 상기 잠재 공간 및 상기 디코더 네트워크는 동시에 구조-특성 p(S, P)의 기본 공동 확률 분포를 학습하는 목표 특성(P)에 대한 구조(S)를 생성하는 머신 러닝 시스템.
  15. 제 14항에 있어서,
    상기 목표 특성(P)는 하나 이상의 물리량을 포함하고, 상기 구조(S)는 구조 벡터의 요소가 특정 위치의 원자 종을 나타내는 인코딩된 벡터화 표시로부터 선택된 표시를 포함하고,
    구조 벡터의 연속 튜플이 고정 원자 종의 데카르트 좌표의 변수(x, y, z)를 나타내는 부동 소수점 벡터화 표시를 포함하고,
    종 및/또는 좌표 튜플을 연속적으로 포함하는 혼합 표시를 포함하는 목표 특성(P)에 대한 구조(S)를 생성하는 머신 러닝 시스템.
  16. 제 14항에 있어서,
    상기 시스템은 GPUs(graphics processing units) 및/또는 FPGAs(field programmable gate array)를 포함하는 컴퓨팅 장치를 포함하는 목표 특성(P)에 대한 구조(S)를 생성하는 머신 러닝 시스템.
  17. 실제 구조 및 실제 특성을 포함하는 데이터베이스를 입력으로 인코더 네트워크에 입력하고 상기 입력을 압축하여 인코딩된 벡터, 평균 및 잠재 공간에서의 상기 인코딩된 벡터의 분포의 표준편차를 생성하고,
    상기 실제 구조와 상기 실제 특성을 포함하는 상기 데이터베이스로 디코더 네트워크를 훈련하고,
    상기 인코딩된 벡터를 압축 해제하여 상기 디코더 네트워크에 의해 시뮬레이션된 구조 및 시뮬레이션된 특성을 생성하고,
    상기 인코더 네트워크에 손실함수를 전송하고,
    구조-특성 p(S, P)의 기본 공동 확률 분포를 동시에 학습하는 것을 포함하는 머신 러닝을 이용하여 목표 특성(P)에 대한 구조(S)를 생성하는 방법.
  18. 제 17항에 있어서,
    상기 목표 특성(P)에 대한 상기 구조(S)를 생성하기 위해 잠재 공간 분할 p(P)를 이용하여 상기 목표 특성에 대한 상기 구조를 생성하는 것을 더 포함하는 머신 러닝을 이용하여 목표 특성(P)에 대한 구조(S)를 생성하는 방법.
  19. 제 17항에 있어서,
    다수의 샘플 (S, P)을 무작위로 생성하여 상기 목표 특성에 대한 상기 구조를 생성하는 것 및 상기 목표 특성(P)를 만족하는 상기 샘플을 필터링하는 것을 더 포함하는 머신 러닝을 이용하여 목표 특성(P)에 대한 구조(S)를 생성하는 방법.
  20. 제 17항에 있어서,
    상기 목표 특성(P)는 물리량을 포함하고,
    상기 구조(S)는 구조 벡터의 요소가 특정 위치의 원자 종을 나타내는 인코딩된 벡터화 표시로부터 선택된 표시, 구조 벡터의 연속 튜플이 고정 원자 종의 데카르트 좌표의 변수 (x, y, z)를 나타내는 부동 소수점 벡터화 표시 및 종 및/또는 좌표 튜플을 연속적으로 포함하는 혼합 표시를 포함하는 머신 러닝을 이용하여 목표 특성(P)에 대한 구조(S)를 생성하는 방법.
KR1020200063120A 2019-10-02 2020-05-26 물질의 생성 구조-특성 역 계산 공동 설계 KR20210040248A (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962909648P 2019-10-02 2019-10-02
US62/909,648 2019-10-02
US16/799,410 2020-02-24
US16/799,410 US11537898B2 (en) 2019-10-02 2020-02-24 Generative structure-property inverse computational co-design of materials

Publications (1)

Publication Number Publication Date
KR20210040248A true KR20210040248A (ko) 2021-04-13

Family

ID=71092247

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200063120A KR20210040248A (ko) 2019-10-02 2020-05-26 물질의 생성 구조-특성 역 계산 공동 설계

Country Status (6)

Country Link
US (1) US11537898B2 (ko)
EP (1) EP3800586A1 (ko)
JP (1) JP2021060992A (ko)
KR (1) KR20210040248A (ko)
CN (1) CN112599208A (ko)
TW (1) TW202117577A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102370993B1 (ko) * 2021-05-25 2022-03-07 주식회사 디블렌트 신경망 기반의 실시간 수어 통역 및 대화를 지원하는 인공지능 시스템

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201718756D0 (en) * 2017-11-13 2017-12-27 Cambridge Bio-Augmentation Systems Ltd Neural interface
US11196503B2 (en) * 2020-02-20 2021-12-07 X Development Llc Techniques of robust inverse design that account for manufacturing variabilities due to operating conditions
US20210304852A1 (en) * 2020-03-31 2021-09-30 International Business Machines Corporation Expert-in-the-loop ai for materials generation
EP3958182A1 (en) * 2020-08-20 2022-02-23 Dassault Systèmes Variational auto-encoder for outputting a 3d model
US11403496B2 (en) 2020-11-04 2022-08-02 Silicon Laboratories Inc. Detecting anomalous events in a discriminator of an embedded device
US20240194305A1 (en) * 2021-04-16 2024-06-13 The Regents Of The University Of California Machine learning enabled techniques for material design and ultra-incompressible ternary compounds derived therewith
CN114329900A (zh) * 2021-11-30 2022-04-12 浪潮电子信息产业股份有限公司 一种基于神经网络的器件参数获取方法、系统及相关组件
WO2023198927A1 (en) * 2022-04-14 2023-10-19 Basf Se Methods and apparatuses for characterizing chemical substances, measuring physicochemical properties and generating control data for synthesizing chemical substances
DE102022204087A1 (de) 2022-04-27 2023-11-02 Robert Bosch Gesellschaft mit beschränkter Haftung Computerimplementiertes Verfahren zum Design einer synthetischen Mikrostruktur für einen polykristallinen Werkstoff, Verfahren zur Herstellung eines polykristallinen Werkstoffs und Vorrichtung dafür
WO2024085414A1 (ko) * 2022-10-17 2024-04-25 삼성전자주식회사 전자 장치 및 그 제어 방법
CN115691695B (zh) * 2022-11-11 2023-06-30 中南大学 基于gan和vae的材料成分生成方法及评价方法
US11837333B1 (en) 2022-12-20 2023-12-05 Dow Global Technologies Llc Simulation guided inverse design for material formulations
CN117766070A (zh) * 2023-06-08 2024-03-26 香港量子人工智能实验室有限公司 一种基于人工智能的材料设计方法、装置、终端及介质
CN116913436B (zh) * 2023-08-10 2024-04-05 华东交通大学 一种基于ldm-pnn和粒子群算法的超原子逆向设计方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6647342B2 (en) 2000-08-07 2003-11-11 Novodynamics, Inc. Knowledge-based process for the development of materials
US7292958B2 (en) 2004-09-22 2007-11-06 Massachusetts Institute Of Technology Systems and methods for predicting materials properties
US7882052B2 (en) 2006-09-11 2011-02-01 Eors Szathmary Evolutionary neural network and method of generating an evolutionary neural network
EP2306180A4 (en) 2008-06-23 2016-03-09 Atonarp Inc SYSTEM FOR MANAGING INFORMATION RELATING TO CHEMICALS
US8671369B2 (en) 2009-12-08 2014-03-11 University Of Seoul Industry Cooperation Foundation Quantum Karnaugh map
US10360506B2 (en) 2014-07-23 2019-07-23 Hrl Laboratories, Llc General formal concept analysis (FCA) framework for classification
US20170039469A1 (en) 2015-08-04 2017-02-09 Qualcomm Incorporated Detection of unknown classes and initialization of classifiers for unknown classes
US10776712B2 (en) 2015-12-02 2020-09-15 Preferred Networks, Inc. Generative machine learning systems for drug design
US10043261B2 (en) 2016-01-11 2018-08-07 Kla-Tencor Corp. Generating simulated output for a specimen
KR102523472B1 (ko) 2016-08-01 2023-04-18 삼성전자주식회사 신규 물질의 구조 생성 방법 및 장치
US11327201B2 (en) 2016-10-31 2022-05-10 The Government Of The United States Of America, As Represented By The Secretary Of The Navy Porosity prediction based on effective stress
EP3646250A1 (en) 2017-05-30 2020-05-06 GTN Ltd Tensor network machine learning system
WO2019045320A1 (ko) 2017-08-28 2019-03-07 한국과학기술연구원 소재의 전자 구조를 예측하는 방법 및 전자 장치
US11087055B2 (en) 2017-11-17 2021-08-10 Samsung Electronics Co., Ltd. Method of screening materials using forward conducting modes
US11105942B2 (en) * 2018-03-27 2021-08-31 Schlumberger Technology Corporation Generative adversarial network seismic data processor
CN108596994B (zh) 2018-04-24 2022-05-03 朱高杰 一种基于深度学习和数据自洽的磁共振弥散加权成像方法
US10824909B2 (en) * 2018-05-15 2020-11-03 Toyota Research Institute, Inc. Systems and methods for conditional image translation
US10885383B2 (en) * 2018-05-16 2021-01-05 Nec Corporation Unsupervised cross-domain distance metric adaptation with feature transfer network
US20210304847A1 (en) * 2018-09-21 2021-09-30 Deepmind Technologies Limited Machine learning for determining protein structures
US11347810B2 (en) 2018-12-20 2022-05-31 International Business Machines Corporation Methods of automatically and self-consistently correcting genome databases
US11320506B2 (en) 2019-04-08 2022-05-03 University Of Virginia Patent Foundation Multiband spiral cardiac MRI with non-cartesian reconstruction methods
US11501037B2 (en) * 2019-06-14 2022-11-15 Palo Alto Research Center Incorporated Microstructures using generative adversarial networks
CN111144565B (zh) 2019-12-27 2020-10-27 中国人民解放军军事科学院国防科技创新研究院 基于一致性训练的自监督领域自适应深度学习方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102370993B1 (ko) * 2021-05-25 2022-03-07 주식회사 디블렌트 신경망 기반의 실시간 수어 통역 및 대화를 지원하는 인공지능 시스템

Also Published As

Publication number Publication date
EP3800586A1 (en) 2021-04-07
CN112599208A (zh) 2021-04-02
JP2021060992A (ja) 2021-04-15
US11537898B2 (en) 2022-12-27
TW202117577A (zh) 2021-05-01
US20210103822A1 (en) 2021-04-08

Similar Documents

Publication Publication Date Title
KR20210040248A (ko) 물질의 생성 구조-특성 역 계산 공동 설계
Ghorbani et al. Neuron shapley: Discovering the responsible neurons
Shi et al. Effective decoding in graph auto-encoder using triadic closure
CN109388565B (zh) 基于生成式对抗网络的软件系统性能优化方法
Bonner et al. Temporal neighbourhood aggregation: Predicting future links in temporal graphs via recurrent variational graph convolutions
CN112434628B (zh) 基于主动学习和协同表示的小样本图像分类方法
CN114422382A (zh) 网络流量预测方法、计算机装置、产品及存储介质
CN115114484A (zh) 异常事件检测方法、装置、计算机设备和存储介质
Baykal et al. A theoretical view on sparsely activated networks
Chen et al. Harsanyinet: Computing accurate shapley values in a single forward propagation
Dash DECPNN: A hybrid stock predictor model using Differential Evolution and Chebyshev Polynomial neural network
Goswami et al. A new evaluation measure for feature subset selection with genetic algorithm
Wang et al. Parameters optimization of classifier and feature selection based on improved artificial bee colony algorithm
Babatunde et al. Comparative analysis of genetic algorithm and particle swam optimization: An application in precision agriculture
CN117033997A (zh) 数据切分方法、装置、电子设备和介质
Rossi et al. Relational similarity machines (RSM): A similarity-based learning framework for graphs
Manoju et al. Conductivity based agglomerative spectral clustering for community detection
Zhang et al. Compressing knowledge graph embedding with relational graph auto-encoder
Zhu et al. Structural landmarking and interaction modelling: a “slim” network for graph classification
Gkillas et al. Resource efficient federated learning for deep anomaly detection in industrial IoT applications
Zhao et al. Streaming adaptive nonparametric variational autoencoder
Joldos et al. A parallel evolutionary approach to community detection in complex networks
Zhang et al. Pruning Edges and Gradients to Learn Hypergraphs from Larger Sets
Goyal et al. Application of genetic algorithm based intuitionistic fuzzy k-mode for clustering categorical data
CN113326393B (zh) 一种基于深度哈希特征和异构并行处理的图像检索方法

Legal Events

Date Code Title Description
A201 Request for examination