KR20220014798A - Apparatus and method for synthesizing target products using neural networks - Google Patents
Apparatus and method for synthesizing target products using neural networks Download PDFInfo
- Publication number
- KR20220014798A KR20220014798A KR1020210017869A KR20210017869A KR20220014798A KR 20220014798 A KR20220014798 A KR 20220014798A KR 1020210017869 A KR1020210017869 A KR 1020210017869A KR 20210017869 A KR20210017869 A KR 20210017869A KR 20220014798 A KR20220014798 A KR 20220014798A
- Authority
- KR
- South Korea
- Prior art keywords
- target product
- reactant combinations
- candidate
- prediction model
- latent variable
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/10—Analysis or design of chemical reactions, syntheses or processes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/30—Prediction of properties of chemical compounds, compositions or mixtures
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/60—In silico combinatorial chemistry
Abstract
Description
뉴럴 네트워크를 이용하여 표적 생성물을 합성하는 장치 및 방법에 관한다.It relates to an apparatus and method for synthesizing a target product using a neural network.
뉴럴 네트워크(neural network)는 생물학적 뇌를 모델링한 컴퓨터 과학적 아키텍쳐(computational architecture)를 참조한다. 뉴럴 네트워크(neural network) 기술이 발전함에 따라, 다양한 종류의 전자 시스템에서 뉴럴 네트워크를 활용하여 입력 데이터를 분석하고 유효한 정보를 추출하고 있다.Neural network refers to a computational architecture that models the biological brain. As neural network technology develops, various types of electronic systems use neural networks to analyze input data and extract valid information.
뉴럴 네트워크를 이용하면서도 유효하고, 타당한 반응물이 도출되며, 다양한 후보 반응물들을 제공할 수 있는 기술이 요구된다.A technique capable of deriving an effective and valid reactant while using a neural network and providing various candidate reactants is required.
뉴럴 네트워크를 이용하여 표적 생성물을 합성하는 장치 및 방법을 제공하는데 있다. 본 실시예가 이루고자 하는 기술적 과제는 상기와 같은 기술적 과제들로 한정되지 않으며 이하의 실시예들로부터 또 따른 기술적 과제들이 유추될 수 있다.An object of the present invention is to provide an apparatus and method for synthesizing a target product using a neural network. The technical problem to be achieved by the present embodiment is not limited to the above technical problems, and further technical problems may be inferred from the following embodiments.
일 측면에 따르면, 뉴럴 네트워크를 이용하여 표적 생성물을 합성하는 방법은 미리 학습된 역합성 예측 모델을 이용하여, 표적 생성물을 생성하기 위한 후보 반응물 조합들을 예측하는 단계, 미리 학습된 반응 예측 모델을 이용하여 상기 후보 반응물 조합들 각각에 대한 예측 생성물을 예측하는 단계 및 상기 표적 생성물과 상기 예측 생성물의 비교 결과에 기초하여 상기 후보 반응물 조합들의 실험 우선 순위를 결정하는 단계를 포함한다.According to one aspect, a method of synthesizing a target product using a neural network includes predicting candidate reactant combinations for generating a target product using a pre-trained reverse synthesis prediction model, using a pre-trained response prediction model predicting a predicted product for each of the candidate reactant combinations, and determining an experimental priority of the candidate reactant combinations based on a comparison result between the target product and the predicted product.
다른 측면에 따르면, 뉴럴 네트워크를 이용하여 표적 생성물을 생성하는 장치는, 적어도 하나의 프로그램이 저장된 메모리 및 상기 적어도 하나의 프로그램을 실행하는 프로세서를 포함하고, 상기 프로세서는 미리 학습된 역합성 예측 모델을 이용하여, 표적 생성물을 생성하기 위한 후보 반응물 조합들을 예측하고, 미리 학습된 반응 예측 모델을 이용하여 상기 후보 반응물 조합들 각각에 대한 예측 생성물을 예측하고, 상기 표적 생성물과 상기 예측 생성물의 비교 결과에 기초하여 상기 후보 반응물 조합들의 실험 우선 순위를 결정한다.According to another aspect, an apparatus for generating a target product using a neural network includes a memory storing at least one program and a processor executing the at least one program, wherein the processor generates a pre-trained inverse synthesis prediction model. predicting candidate reactant combinations for generating a target product, predicting a predicted product for each of the candidate reactant combinations using a pre-trained reaction prediction model, and predicting a prediction product for each of the candidate reactant combinations using a comparison result between the target product and the predicted product based on the experimental priority of the candidate reactant combinations.
도 1은 일 실시예에 따른 뉴럴 네트워크 장치의 하드웨어 구성을 도시한 블록도이다.
도 2는 일 실시예에 따른 표적 생성물과 예측 생성물의 비교 결과에 기초하여 후보 반응물 조합들의 실험 우선 순위를 결정하는 과정을 설명하기 위한 도면이다.
도 3은 범주형 잠재 변수를 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 역합성 예측 모델 및 반응 예측 모델에서 수행되는 연산을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 역합성 예측 모델 및 반응 예측 모델에서 수행되는 연산을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 역합성 예측 모델 및 반응 예측 모델에서 수행되는 연산을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 뉴럴 네트워크 장치의 동작 방법을 설명하기 위한 순서도이다.
도 8은 일 실시예에 따른 역합성 예측 모델 및 반응 예측 모델의 학습 방법을 설명하기 위한 순서도이다.
도 9는 일 실시예에 따른 역합성 예측 모델의 동작 방법을 설명하기 위한 순서도이다.
도 10은 일 실시예에 따른 반응 예측 모델의 동작 방법을 설명하기 위한 순서도이다.
도 11은 일 실시예에 따른 후보 반응물 조합들의 실험 우선 순위를 결정하는 방법을 설명하기 위한 순서도이다.1 is a block diagram illustrating a hardware configuration of a neural network device according to an embodiment.
FIG. 2 is a diagram for explaining a process of determining an experiment priority of candidate reactant combinations based on a comparison result between a target product and a predicted product, according to an exemplary embodiment;
3 is a diagram for explaining a categorical latent variable.
4 is a diagram for explaining operations performed in the inverse synthesis prediction model and the reaction prediction model according to an embodiment.
5 is a diagram for explaining operations performed in the inverse synthesis prediction model and the reaction prediction model according to an embodiment.
6 is a diagram for explaining operations performed in the inverse synthesis prediction model and the reaction prediction model according to an embodiment.
7 is a flowchart illustrating a method of operating a neural network device according to an embodiment.
8 is a flowchart illustrating a method of learning a reverse synthesis prediction model and a reaction prediction model according to an embodiment.
9 is a flowchart illustrating a method of operating an inverse synthesis prediction model according to an embodiment.
10 is a flowchart illustrating a method of operating a response prediction model according to an exemplary embodiment.
11 is a flowchart illustrating a method of determining an experiment priority of candidate reactant combinations according to an embodiment.
본 명세서에서 다양한 곳에 등장하는 "일부 실시예에서" 또는 "일 실시예에서" 등의 어구는 반드시 모두 동일한 실시예를 가리키는 것은 아니다.The appearances of the phrases "in some embodiments" or "in one embodiment" in various places in this specification are not necessarily all referring to the same embodiment.
본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단” 및 “구성”등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented in various numbers of hardware and/or software configurations that perform specific functions. For example, the functional blocks of the present disclosure may be implemented by one or more microprocessors, or may be implemented by circuit configurations for a given function. Also, for example, the functional blocks of the present disclosure may be implemented in various programming or scripting languages. The functional blocks may be implemented as an algorithm running on one or more processors. In addition, the present disclosure may employ prior art for electronic configuration, signal processing, and/or data processing, and the like. Terms such as “mechanism”, “element”, “means” and “configuration” may be used broadly and are not limited to mechanical and physical components.
또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다. In addition, the connecting lines or connecting members between the components shown in the drawings only exemplify functional connections and/or physical or circuit connections. In an actual device, a connection between components may be represented by various functional connections, physical connections, or circuit connections that are replaceable or added.
한편, 본 명세서에서 사용된 용어와 관련하여, 뉴럴 네트워크 시스템에서 이용되는 데이터인 구조(structure)는 물질의 원자(atom) 레벨의 구조를 의미할 수 있다. 구조는, 원자와 원자 간의 연결 관계(bond)에 기반하는 구조식일 수 있다. 예를 들어, 구조는 간단한 형식의 문자열(1차원) 형태일 수 있다. 구조를 표현하는 문자열 형식으로서, SMILES(Simplified Molecular-Input Line-Entry System) 코드, SMARTS(Smiles Arbitrary Target Specification) 코드 또는 InChi(International Chemical Identifier) 코드 등이 있다.Meanwhile, in relation to the terms used in this specification, a structure that is data used in a neural network system may mean an atom-level structure of a material. The structure may be a structural formula based on a bond between atoms. For example, the structure may be in the form of a simple-form string (one-dimensional). As a string format expressing the structure, there are a Simplified Molecular-Input Line-Entry System (SMILES) code, a Smiles Arbitrary Target Specification (SMARTS) code, or an International Chemical Identifier (InChi) code.
또한, 표현자(descriptor)는 물질의 특징을 표현하기 위해 사용되는 지표 값으로서, 주어진 물질에 대해서 비교적 간단한 연산 처리를 수행함으로써 획득될 수 있는 값이다. 일 실시예에서 표현자는, 특정한 부분 구조의 포함 여부를 표시하는 분자 구조 핑거프린트(fingerprint)(예를 들어, Morgan Fingerprint, Extended Connectivity Fingerprint(ECFP)) 또는 분자량이나 분자 구조 내에 포함된 부분 구조(예를 들어, 링)의 개수 등 바로 계산될 수 있는 값으로 구성된 정량적 구조-물성 상관관계(quantitative structure-property relationships, QSPR) 표현자를 포함할 수 있다.In addition, a descriptor is an index value used to express characteristics of a material, and is a value that can be obtained by performing relatively simple arithmetic processing on a given material. In one embodiment, the presenter is a molecular structure fingerprint (eg, Morgan Fingerprint, Extended Connectivity Fingerprint (ECFP)) indicating whether a specific partial structure is included or not, or a molecular weight or partial structure contained within a molecular structure (eg, a molecular weight). For example, it may include a quantitative structure-property relationship (QSPR) descriptor composed of a value that can be calculated immediately, such as the number of rings).
또한, 물성(property)은 물질이 가지고 있는 특성을 의미하며, 실험을 통해 측정되거나 시뮬레이션을 통해 계산된 실수 값이 될 수 있다. 예를 들어, 물질이 디스플레이 소재인 경우 빛에 대한 투과 파장, 발광 파장 등이 될 수 있고, 물질이 배터리 소재인 경우 전압이 될 수 있다. 표현자의 경우와는 달리, 물성을 계산하는 데에는 복잡한 시뮬레이션이 필요하고 많은 시간이 소모될 수 있다.In addition, a property refers to a property of a material, and may be a real value measured through an experiment or calculated through a simulation. For example, if the material is a display material, it may be a transmission wavelength for light, an emission wavelength, etc., or if the material is a battery material, it may be a voltage. Unlike the presenter, complex simulations are required to calculate the physical properties and can be time consuming.
도 1은 일 실시예에 따른 뉴럴 네트워크 장치의 하드웨어 구성을 도시한 블록도이다.1 is a block diagram illustrating a hardware configuration of a neural network device according to an embodiment.
뉴럴 네트워크 장치(100)는 PC(personal computer), 서버 디바이스, 모바일 디바이스, 임베디드 디바이스 등의 다양한 종류의 디바이스들로 구현될 수 있고, 구체적인 예로서 뉴럴 네트워크를 이용한 음성 인식, 영상 인식, 영상 분류 등을 수행하는 스마트폰, 태블릿 디바이스, AR(Augmented Reality) 디바이스, IoT(Internet of Things) 디바이스, 자율주행 자동차, 로보틱스, 의료기기 등에 해당될 수 있으나, 이에 제한되지 않는다. 나아가서, 뉴럴 네트워크 장치(100)는 위와 같은 디바이스에 탑재되는 전용 하드웨어 가속기(HW accelerator)에 해당될 수 있고, 뉴럴 네트워크 장치(100)는 뉴럴 네트워크 구동을 위한 전용 모듈인 NPU(neural processing unit), TPU(Tensor Processing Unit), Neural Engine 등과 같은 하드웨어 가속기일 수 있으나, 이에 제한되지 않는다.The
도 1을 참조하면, 뉴럴 네트워크 장치(100)는 프로세서(110), 메모리(120) 및 사용자 인터페이스(130)를 포함한다. 도 1에 도시된 뉴럴 네트워크 장치(100)에는 본 실시예들과 관련된 구성요소들만이 도시되어 있다. 따라서, 뉴럴 네트워크 장치(100)에는 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음은 당해 기술분야의 통상의 기술자에게 자명하다.Referring to FIG. 1 , the
프로세서(110)는 뉴럴 네트워크 장치(100)를 실행하기 위한 전반적인 기능들을 제어하는 역할을 한다. 예를 들어, 프로세서(110)는 뉴럴 네트워크 장치(100) 내의 메모리(120)에 저장된 프로그램들을 실행함으로써, 뉴럴 네트워크 장치(100)를 전반적으로 제어한다. 프로세서(110)는 뉴럴 네트워크 장치(100) 내에 구비된 CPU(central processing unit), GPU(graphics processing unit), AP(application processor) 등으로 구현될 수 있으나, 이에 제한되지 않는다.The
메모리(120)는 뉴럴 네트워크 장치(100) 내에서 처리되는 각종 데이터들을 저장하는 하드웨어로서, 예를 들어, 메모리(120)는 뉴럴 네트워크 장치(100)에서 처리된 데이터들 및 처리될 데이터들을 저장할 수 있다. 또한, 메모리(120)는 뉴럴 네트워크 장치(100)에 의해 구동될 애플리케이션들, 드라이버들 등을 저장할 수 있다. 메모리(120)는 DRAM(dynamic random access memory), SRAM(static random access memory) 등과 같은 RAM(random access memory), ROM(read-only memory), EEPROM(electrically erasable programmable read-only memory), CD-ROM, 블루레이 또는 다른 광학 디스크 스토리지, HDD(hard disk drive), SSD(solid state drive), 또는 플래시 메모리를 포함할 수 있다.The
프로세서(110)는 역합성 예측 모델, 합성 예측 모델, 수율 예측 모델 및 반응 방식 모델 중 적어도 어느 하나를 구동할 수 있다.The
역합성 예측 모델, 합성 예측 모델, 수율 예측 모델 및 반응 방식 모델은 트랜스포머(transformer) 모델로 구현될 수 있다. 뉴럴 네트워크 장치(100)가 트랜스포머 모델을 구동함에 따라, 데이터의 병렬 처리 및 신속한 연산이 가능할 수 있다.The reverse synthesis prediction model, the synthesis prediction model, the yield prediction model, and the reaction method model may be implemented as a transformer model. As the
프로세서(110)는 테스트 데이터 세트(test data set)를 이용하여 트랜스포머 모델을 학습시킬 수 있고, 이 과정에서 범주형 잠재 변수(categorical latent variable)가 결정 또는 학습될 수 있다. 예를 들어, 프로세서(110)는 테스트 생성물들 각각의 입력에 대한 범주형 잠재 변수의 조건부 확률 분포를 학습할 수 있다. 또한, 예측 수율 및 반응 방식은 잠재 변수의 조건부 확률 분포를 학습시키기 위해 제공될 수도 있다.The
테스트 데이터 세트는 테스트 반응물들(test reactants), 테스트 반응물 조합들 각각에 대응하는 테스트 생성물들(test products)을 포함할 수 있다. 또한, 테스트 데이터 세트는 실험 조건에 따른 테스트 생성물들의 예측 수율 및 테스트 반응물 조합들 각각의 반응 방식들을 더 포함할 수 있다.The test data set may include test reactants, test products corresponding to each of the test reactant combinations. In addition, the test data set may further include a predicted yield of the test products according to the experimental conditions and reaction modes of each of the test reactant combinations.
실험 조건은 반응물을 이용하여 생성물을 생성하는 실험을 진행하기 위해 설정되는 여러 가지 조건을 의미할 수 있다. 예를 들어, 실험 조건은 촉매, 염기, 용매, 시약, 온도, 반응 시간 중 적어도 어느 하나를 포함할 수 있다.Experimental conditions may refer to various conditions set in order to proceed with an experiment for generating a product using a reactant. For example, the experimental conditions may include at least one of a catalyst, a base, a solvent, a reagent, a temperature, and a reaction time.
예측 수율은 반응물이 소정 반응 방식 및 소정 실험 조건 하에서 실험될 때, 반응물로부터 생성되는 생성물의 수율에 대한 기대치를 의미할 수 있다. 예측 수율은 실제 실험에 의한 실측 수율과는 상이할 수도 있다.The predicted yield may refer to an expectation for the yield of a product produced from the reactants when the reactants are tested in a given reaction mode and under given experimental conditions. The predicted yield may be different from the actual yield measured by an actual experiment.
반응 방식은 반응물을 이용하여 생성물을 생성하기 위한 화학 반응 방법을 의미할 수 있다. 예를 들어, 반응물 유기 붕소(R1-BY2)를 이용하여 생성물 할라이드(R2-BY2)를 생성하는 경우, 반응 방식은 스즈키 미야우라(suzuki-miyaura) 방식일 수 있다. 반응 방식은 반응물의 구조 정보 및 생성물의 구조 정보에 따라 복수 개로 제공 될 수도 있다.The reaction mode may refer to a chemical reaction method for generating a product using a reactant. For example, when the reactant organoboron (R1-BY2) is used to form the product halide (R2-BY2), the reaction method may be a Suzuki-miyaura method. A plurality of reaction methods may be provided according to structural information of a reactant and structural information of a product.
프로세서(110)는 미리 학습된 역합성 예측 모델을 이용하여 표적 생성물을 생성하기 위한 후보 반응물 조합들을 예측할 수 있다.The
프로세서(110)는 표적 생성물의 화학 구조를 문자열(1차원) 형식으로 입력 받을 수 있다. 구조는 원자와 원자 간의 연결 관계(bond)에 기반하는 구조식일 수 있다. 예를 들어, 프로세서(110)는 SMILES(Simplified Molecular-Input Line-Entry System) 코드, SMARTS(Smiles Arbitrary Target Specification) 코드 또는 InChi(International Chemical Identifier) 코드 형식으로 표적 생성물의 화학 구조를 입력 받을 수 있다. 실시예에 따라, 표적 생성물의 표현자에 대한 정보 및 물성에 대한 정보가 화학 구조와 더불어 문자열 형식으로 입력될 수도 있다.The
프로세서(110)는 미리 학습된 역합성 예측 모델을 구동시킴으로써, 표적 생성물의 문자열을 입력 데이터로 이용하여 연산을 수행하고, 연산 수행 결과를 기초로 후보 반응물 조합들을 문자열 형식의 출력 데이터로 생성할 수 있다.The
프로세서(110)는 미리 학습된 반응 예측 모델을 이용하여 후보 반응물 조합들 각각에 대한 예측 생성물을 예측할 수 있다.The
프로세서(110)는 미리 학습된 반응 예측 모델을 구동시킴으로써, 후보 반응물 조합들을 입력 데이터로 이용하여 연산을 수행하고, 연산 수행 결과를 기초로 예측 생성물들을 문자열 형식의 출력 데이터로 생성할 수 있다.The
한편, 프로세서(110)는 미리 학습된 수율 예측 모델을 구동시킴으로써, 후보 반응물 조합들을 입력 데이터로 이용하여 연산을 수행하고, 연산 수행 결과를 기초로 표적 생성물의 예측 수율 및 표적 생성물을 생성하기 위한 반응 방식을 출력 데이터로 생성할 수 있다. 표적 생성물의 예측 수율은 범주형 잠재 변수를 학습하기 위한 데이터로써 이용될 수도 있다.On the other hand, the
또한, 프로세서(110)는 미리 학습된 반응 방식 예측 모델을 구동시킴으로써, 표적 생성물을 입력 데이터로 이용하여 연산을 수행하고, 연산 수행 결과를 기초로 표적 생성물을 생성하기 위한 반응 방식을 출력 데이터로 생성할 수 있다. 표적 생성물을 생성하기 위한 반응 방식은 범주형 잠재 변수를 학습하기 위한 데이터로써 이용될 수도 있다.In addition, the
프로세서(110)는 표적 생성물과 예측 생성물을 비교하고, 비교 결과에 기초하여 후보 반응물 조합들의 실험 우선 순위를 결정할 수 있다. 이에 따라, 표적 생성물을 생성하기 위한 최적의 후보 반응물 조합들이 우선 순위에 따라 출력될 수 있다. The
사용자 인터페이스(130)는 실험 결과를 피드백(feedback) 받는 입력 수단을 의미할 수 있다. 예를 들어, 사용자 인터페이스에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다. 프로세서(110)는 실험 결과를 피드백 받음으로써 트랜스포머 모델을 업데이트할 수 있다.The
이하 본 실시예들의 설명에서는 이와 같이 뉴럴 네트워크 장치(100)를 이용하여 최적화된 실험 조건을 우선적으로 제공하는 방법들에 대해 상세하게 설명하도록 한다. 이하에서 설명된 방법들은 뉴럴 네트워크 장치(100)의 프로세서(110), 메모리(120) 및 사용자 인터페이스(130)에 의해 수행될 수 있다.Hereinafter, in the description of the present embodiments, methods for preferentially providing optimized experimental conditions using the
도 2는 일 실시예에 따른 표적 생성물과 예측 생성물의 비교 결과에 기초하여 후보 반응물 조합들의 실험 우선 순위를 결정하는 과정을 설명하기 위한 도면이고, 도 3은 범주형 잠재 변수를 설명하기 위한 도면이다.2 is a diagram for explaining a process of determining an experimental priority of candidate reactant combinations based on a comparison result of a target product and a predicted product according to an embodiment, and FIG. 3 is a diagram for explaining a categorical latent variable .
도 2를 참조하면, 프로세서(110)는 표적 생성물(210)의 화학 구조를 문자열 형식으로 입력 받을 수 있다.Referring to FIG. 2 , the
문자열 형식의 표적 생성물(211)은 역합성 예측 모델(220)에 입력될 수 있다. 또한, 범주형 잠재 변수(230)가 역합성 예측 모델(220)에 입력될 수 있다.The
범주형 잠재 변수(230)는 직접 관찰되지는 않지만 후보 반응물 조합들(240)에 대한 정보에 영향을 미치는 변수를 의미할 수 있다. 일 실시예에서 범주형 잠재 변수(230)는 반응의 종류를 나타낼 수 있다. 반응의 종류는 분해(decomposition), 연소(combustion), 복분해(metathesis) 및 치환(displacement)과 같은 반응 형태, 촉매, 염기, 용매, 시약, 온도 및 반응 시간과 같은 실험 조건, 스즈키 미야우라(suzuki-miyaura)와 같은 반응 방식을 모두 포함하는 의미일 수 있다.The categorical latent variable 230 may refer to a variable that is not directly observed but affects information about the
범주형 잠재 변수(230)는 복수의 클래스들(classes)을 포함할 수 있다. 복수의 클래스들은 반응의 종류에 대응하여 생성될 수 있다. 범주형 잠재 변수에 의하여 후보 반응물들 또는 후보 반응물 조합들의 군집(cluster)이 가변될 수 있다.The categorical latent variable 230 may include a plurality of classes. A plurality of classes may be generated corresponding to the type of reaction. A categorical latent variable may vary a cluster of candidate reactants or candidate reactant combinations.
역합성 예측 모델은 관측되지 않는 범주형 잠재 변수에 의존하는 확률 모델일 수 있다. 일 실시예에서 역합성 예측 모델은 후보 반응물들 또는 후보 반응물 조합들에 대한 정보가 범주형 잠재 변수에 따라 서로 다른 파라미터(예를 들어, 기대값, 분상 등)를 가지는 복수의 정규분포들로 이루어진 가우시안 혼합 모델일 수 있으나 이에 제한되지 않는다.The inverse synthesis predictive model may be a probabilistic model that depends on unobserved categorical latent variables. In an embodiment, the inverse synthesis prediction model is composed of a plurality of normal distributions in which information on candidate reactants or candidate reactant combinations has different parameters (eg, expected values, differential phases, etc.) according to categorical latent variables. It may be a Gaussian mixture model, but is not limited thereto.
프로세서(110)는 미리 학습된 역합성 예측 모델(220)을 이용하여, 표적 생성물(210)을 생성하기 위한 후보 반응물 조합들(240)을 출력할 수 있다. 후보 반응물 조합들(240)은 문자열 형식으로 출력될 수 있다. 다시 말해, 프로세서(110)는 문자열 형식의 표적 생성물(211) 및 범주형 잠재 변수(230)에 기초하여 문자열 형식의 후보 반응물 조합들(240)을 출력할 수 있다. 일 실시예에서, 프로세서(110)는 표적 생성물의 입력에 대한 클래스별 우도(likelihood) 및 역합성 예측 결과의 우도를 모두 최대화하는 후보 반응물 조합들(240)을 출력할 수 있으나 이에 제한되지 않는다.The
후보 반응물 조합들(240)은 표적 생성물(211)을 생성하기 위해 프로세서(110)가 예측한 반응물 조합들의 집합을 의미할 수 있다. 후보 반응물 조합에 포함된 후보 반응물은 복수 개일 수 있으나 이에 제한되지 않는다. 다시 말해, 후보 반응물 조합에는 하나의 후보 반응물만이 포함되는 것도 가능하다.The
한편, 역합성 예측 모델(220)에는 범주형 잠재 변수(230)가 입력되므로 도 3에서와 같이 후보 반응물 조합들(240)의 다양성이 확보될 수 있다.Meanwhile, since the categorical latent variable 230 is input to the inverse
도 3을 참조하면, 프로세서(110)가 범주형 잠재 변수(230)에 포함된 클래스들 중 어느 하나를 이니셜 토큰(initial token)으로 설정하고, 설정된 이니셜 토큰에 기초하여 디코딩을 수행하는 경우, 하나의 표적 생성물(210)에 대하여 복수의 후보 반응물 조합들(220a, 220b, 220c)이 생성될 수 있다. 표적 생성물(210)의 입력에 따른 후보 반응물 조합들(220a, 220b, 220c)의 클래스별 조건부 확률에 따라 후보 반응물 조합들(220a, 220b, 220c)은 군집화(clustering)될 수 있다. 도 3은 클래스가 3개인 경우, 표적 생성물(210)의 입력에 따른 후보 반응물 조합들(220a, 220b, 220c)의 군집화 과정이 도시되어 있다.Referring to FIG. 3 , when the
프로세서(110)는 표적 생성물(211)의 입력에 따른 후보 반응물 조합들(240) 각각의 클래스별 우도(likelihood)를 계산할 수 있다. 또한, 프로세서(110)는 후보 반응물 조합들(240) 각각의 클래스별 우도에 기초하여 후보 반응물 조합들(240) 중에서 기 설정된 개수의 최종 후보 반응물 조합들을 선택할 수 있다. 실시예에 따라 프로세서(110)가 후보 반응물 조합들(240) 각각의 클래스별 로그 우도(log likelihood)를 계산하고, 클래스별 로그 우도에 기초하여 기 설정된 개수의 최종 후보 반응물 조합들을 선택하는 것도 가능하다. 최종 후보 반응물 조합들은 반응 예측 모델(250)에 입력되어 예측 생성물(260)의 예측에 이용될 수 있다.The
다시 도 2를 참조하면, 후보 반응물 조합들(240)은, 반응 예측 모델(250)에 입력될 수 있다. 또한, 범주형 잠재 변수(230)는 반응 예측 모델(250)에도 입력될 수 있다.Referring back to FIG. 2 , candidate reactant
프로세서(110)는 미리 학습된 반응 예측 모델(250)을 이용하여, 후보 반응물 조합들(240) 각각에 대한 예측 생성물(260)을 출력할 수 있다. 예측 생성물(260)은 문자열 형식으로 출력될 수 있다. 다시 말해, 프로세서(110)는 문자열 형식의 후보 반응물 조합들(240) 및 범주형 잠재 변수(230)에 기초하여 문자열 형식의 예측 생성물(261)을 출력할 수 있다. 일 실시예에서, 프로세서(110)는 후보 반응물 조합들(240)의 입력에 대한 클래스별 우도(likelihood) 및 반응 예측 결과의 우도를 모두 최대화하는 예측 생성물(260)을 출력할 수 있으나 이에 제한되지 않는다.The
예측 생성물(260)은 후보 반응물 조합들(240)에 포함된 반응물들로부터 예측되는 생성물을 의미할 수 있다.The predicted
한편, 반응 예측 모델(250)에도 범주형 잠재 변수(230)가 입력되므로, 예측 생성물(260)의 다양성도 확보될 수 있다.On the other hand, since the categorical latent variable 230 is also input to the
프로세서(110)는 후보 반응물 조합들(240) 각각의 입력에 따른 예측 생성물(260)과 표적 생성물(210)을 비교할 수 있다. 또한, 프로세서(110)는 예측 생성물(260)과 표적 생성물(210)의 비교 결과에 기초하여 후보 반응물 조합들(240)의 실험 우선 순위를 결정할 수 있다.The
프로세서(110)는 실험 우선 순위가 조정된, 재정렬된 후보 반응물 조합들(270)을 출력할 수 있다. 프로세서(110)는 구조식 형식의 재정렬된 후보 반응물 조합들(280)을 출력할 수 있다.The
본 개시의 뉴럴 네트워크 장치(100)는 역합성 예측 모델(220)을 통해 도출된 후보 반응물 조합들(240)을 반응 예측 모델(250)을 통해 검증하므로, 구조식 문법에 어긋나는 후보 반응물 조합들(240)이 출력되는 경우 및 문자열 형식으로는 표적 생성물(210)을 합성할 수 없는 경우를 방지할 수 있다.Since the
도 4는 일 실시예에 따른 역합성 예측 모델 및 반응 예측 모델에서 수행되는 연산을 설명하기 위한 도면이다.4 is a diagram for explaining operations performed in the inverse synthesis prediction model and the reaction prediction model according to an embodiment.
도 4를 참조하면, 프로세서(110)는 표적 생성물(210)에 대한 정보를 입력 받을 수 있다. 표적 생성물(210)에 대한 정보는 문자열 형식으로 표현될 수 있다. 문자열 형식의 표적 생성물(210)은 역합성 예측 모델(220)에 입력될 수 있다.Referring to FIG. 4 , the
프로세서(110)는 표적 생성물(210)에 대한 정보에 기초하여 범주형 잠재 변수(230)를 예측할 수 있다. 범주형 잠재 변수(230)는 직접 관찰되지는 않지만 후보 반응물 조합들(240)에 대한 정보에 영향을 미치는 변수를 의미하며 복수의 클래스들을 포함할 수 있다.The
프로세서(110)는 표적 생성물(210)에 대한 정보 및 범주형 잠재 변수(230)에 기초하여 역합성 예측 모델(220)을 구동시킴으로써, 표적 생성물(210)을 생성하기 위한 후보 반응물 조합들(240)을 예측할 수 있다.The
역합성 예측 모델(220)은 워드 임베딩부(411), 포지션 인코딩부(412a, 412b, 412c, 412d, 이하 구분의 필요가 없는 경우, 412라고 함), 역합성 인코더부(413), 역합성 디코더부(414) 및 워드 제너레이터부(415)를 포함할 수 있다. 도 4에서 워드 임베딩부(411), 포지션 인코딩부(412), 역합성 인코더부(413), 역합성 디코더부(414) 및 워드 제너레이터부(415)는 역합성 예측 모델(220)에 포함된 어느 하나의 부(unti)로 도시되어 있으나, 워드 임베딩부(411), 포지션 인코딩부(412), 역합성 인코더부(413), 역합성 디코더부(414) 및 워드 제너레이터부(415)는 역합성 예측 모델(220)에 포함된 계층(layer)을 의미할 수도 있다.The
워드 임베딩부(411)는 입력 데이터를 문자 단위로 임베딩할 수 있다. 워드 임베딩부(411)는 문자열 형식의 표적 생성물(210)을 기설정된 차원의 벡터에 맵핑할 수 있다. 또한, 워드 임베딩부(411) 범주형 잠재 변수(230)를 기 설정된 차원의 벡터에 맵핑할 수 있다. The
포지션 인코딩부(412)는 입력 데이터에 포함된 각각의 문자의 위치를 식별하기 위하여 위치 인코딩(positional encoding)을 수행할 수 있다. 일 실시예에서, 포지션 인코딩부(412)는 상이한 주파수의 정현파를 이용하여 입력 데이터를 인코딩할 수 있다.The positional encoding unit 412 may perform positional encoding to identify the position of each character included in the input data. In an embodiment, the position encoding unit 412 may encode input data using sinusoids of different frequencies.
제1 포지션 인코딩부(412a)는 문자열 형식의 표적 생성물(210)을 위치 인코딩할 수 있다. 제1 포지션 인코딩부(412a)는 임베딩된 입력 데이터에 위치 정보를 결합하여, 역합성 인코더부(413)에 제공할 수 있다.The first
제2 포지션 인코딩부(412b)는 범주형 잠재 변수(230)를 이니셜 토큰(initial token)으로 위치 인코딩 할 수 있다. 제2 포지션 인코딩부(412b)는 임베딩된 입력 데이터에 위치 정보를 결합하여, 역합성 인코더부(413)에 제공할 수 있다.The second
역합성 인코더부(413)는 셀프 어텐션(self-attention) 서브 계층 및 피드-포워드(feed-forwad) 서브 계층을 포함할 수 있다. 설명의 편의를 위해 도 4에서는 역합성 인코더부(413)가 하나로 표시되나, 역합성 인코더부(413)는 N개의 인코더들이 적층된 형태로 구성될 수 있다.The inverse
역합성 인코더부(413)는 셀프 어텐션 서브 계층을 통하여 표적 생성물(210)의 입력 시퀀스 중에서 주목(attention)해야할 정보를 특정할 수 있다. 특정된 정보는 피드-포워드(feed-forward) 서브 계층에 전달될 수 있다. 피드-포워드(feed-forward) 서브 계층은 피드-포워드 신경망을 포함하고, 피드-포워드 신경망에 의하여 입력 시퀀스의 변환 시퀀스가 출력될 수 있다. 변환 시퀀스는 역합성 인코더부(413)의 인코더 출력으로써 역합성 디코더부(414)에 제공될 수 있다.The
역합성 인코더부(413)와 마찬가지로 설명의 편의를 위해 도 4에서는 역합성 디코더부(414)가 하나로 표시되나, 역합성 디코더부(414)는 N개의 디코더들이 적층된 형태로 구성될 수 있다.Like the
역합성 디코더부(414)는 셀프 어텐션 서브 계층, 인코더-디코더 어텐션 서브 계층 및 피드-포워드 서브 계층을 포함할 수 있다. 인코더-디코더 어텐션 서브 계층은 쿼리가 디코더의 벡터이고, 키(key)와 밸류(Value)가 인코더의 벡터라는 점에서 셀프 어텐션 서브 계층과는 차이가 있다.The
한편, 잔여 연결(residual connection) 서브 계층 및 정규화(normalization) 서브 계층은 모든 하위 계층들에 개별적으로 적용되고, 현재 출력 위치가 다음 출력 위치에 대한 정보로 사용되지 않도록 셀프 어텐션 서브 계층에는 마스킹(masking)이 적용될 수 있다. 또한, 디코더 출력은 선형 변환되거나 소프트 맥스(softmax) 함수가 적용될 수도 있다.Meanwhile, the residual connection sub-layer and the normalization sub-layer are individually applied to all lower layers, and the self-attention sub-layer is masked so that the current output position is not used as information about the next output position. ) can be applied. Also, the decoder output may be linearly transformed or a softmax function may be applied.
역합성 디코더부(414)는 빔 검색 절차(beam search procedure)를 사용하여 범주형 잠재 변수(230)의 입력 시퀀스 및 표적 생성물(210)의 입력 시퀀스에 대응되는 출력 시퀀스를 출력할 수 있다. 출력 시퀀스는 워드 제너레이터부(415)에 의하여 문자열 형식으로 변환되어 출력될 수 있다. 이에 따라 역합성 예측 모델(220)은 표적 생성물(210)의 입력에 대응하는 문자열 형식의 후보 반응물 조합들(240)을 출력할 수 있다. 또한, 범주형 잠재 변수(230)는 반응 예측 모델(250)에 공유되어 예측 생성물의 연산 시 사용될 수 있다.The
프로세서(110)는 후보 반응물 조합들(240)에 대한 정보 및 범주형 잠재 변수(230)에 기초하여 반응 예측 모델(250)을 구동시킴으로써, 후보 반응물 조합들(240) 각각에 대한 예측 생성물(260)을 예측할 수 있다.The
반응 예측 모델(250)은 워드 임베딩부(411), 포지션 인코딩부(412), 반응 예측 인코더부(413), 반응 예측 디코더부(416) 및 워드 제너레이터부(415)를 포함할 수 있다. 후술하는 바와 같이, 역합성 예측 모델(220)과 반응 예측 모델(250)은 인코더부를 공유하므로, 역합성 인코더부(413) 및 반응 예측 인코더부(413)는 공유된 인코더부(413)라고 명명할 수 있다. 또한, 도 4에서 워드 임베딩부(411), 포지션 인코딩부(412), 반응 예측 인코더부(413), 반응 예측 디코더부(416) 및 워드 제너레이터부(415)는 반응 예측 모델(250)에 포함된 어느 하나의 부(unti)로 도시되어 있으나, 워드 임베딩부(411), 포지션 인코딩부(412), 반응 예측 인코더부(413), 반응 예측 디코더부(416) 및 워드 제너레이터부(415)는 반응 예측 모델(250)에 포함된 계층(layer)을 의미할 수도 있다.The
반응 예측 모델(250)의 연산 방법과 역합성 예측 모델(220)의 연산 방법은 입력 시퀀스의 종류 및 출력 시퀀스의 종류를 제외하고는 서로 유사할 수 있다. 다시 말해, 워드 임베딩부(411)는 후보 반응물 조합들(240) 및 범주형 잠재 변수(230)를 입력 데이터로써 입력 받고, 입력 데이터를 문자 단위로 임베딩할 수 있다. 또한, 제3 포지션 인코딩부(412c)는 임베딩된 입력 데이터에 위치 정보를 결합하여 반응 예측 인코더부(413)에 제공하고 제4 포지션 인코딩부(412d)는 범주형 잠재 변수(230)를 이니셜 토큰으로 위치 인코딩하여 반응 예측 인코더부(413)에 제공할 수 있다.The calculation method of the
반응 예측 인코더부(413)는 셀프 어텐션 서브 계층을 통하여 후보 반응물 조합들(240)의 입력 시퀀스 중에서 주목해야할 정보를 특정하여 피드-포워드 서브 계층에 전달하고, 피드-포워드 서브 계층은 피드-포워드 신경망을 이용하여 변환 시퀀스를 출력할 수 있다.The response
반응 예측 디코더부(416)는 셀프 어텐션 서브 계층, 인코더-디코더 어텐션 서브 계층 및 피드-포워드 서브 계층을 포함할 수 있다. 또한, 잔여 연결(residual connection) 서브 계층 및 정규화(normalization) 서브 계층은 모든 하위 계층들에 개별적으로 적용되고, 현재 출력 위치가 다음 출력 위치에 대한 정보로 사용되지 않도록 셀프 어텐션 서브 계층에는 마스킹(masking)이 적용될 수 있다. 또한, 디코더 출력은 선형 변환되거나 소프트 맥스(softmax) 함수가 적용될 수도 있다.The response
반응 예측 디코더부(416)는 빔 검색 절차를 사용하여 범주형 잠재 변수(230)의 입력 시퀀스 및 후보 반응물 조합들(240)의 입력 시퀀스에 대응되는 출력 시퀀스를 출력할 수 있다. 출력 시퀀스는 워드 제너레이터부(415)에 의하여 문자열 형식으로 변환되어 출력될 수 있다. 이에 따라 반응 예측 모델(250)은 후보 반응물 조합들(240)의 입력에 대응하는 문자열 형식의 예측 생성물(261)을 출력할 수 있다.The response
프로세서(110)는 문자열 형식의 표적 생성물(211)과 문자열 형식의 예측 생성물(261)을 비교하고, 비교 결과에 기초하여 후보 반응물 조합들(240)의 실험 우선 순위를 결정할 수 있다. 프로세서(110)는 문자열 형식의 표적 생성물(211)과 문자열 형식의 예측 생성물(261)의 일치 여부에 기초하여 후보 반응물 조합들(240)의 실험 우선 순위를 결정하고, 결정된 실험 우선 순위에 기초하여 재정렬된 후보 반응물 조합들(270)을 출력할 수 있다.The
한편, 도 4에서 소스 언어(source language)와 대상 언어(target language)는 문자열 형식(예를 들어, SMILES)으로 동일하므로 역합성 예측 모델(220)과 반응 예측 모델(250)은 워드 임베딩부(411), 워드 제너레이터부(415) 및 인코더부를 공유할 수 있다. 또한, 역합성 예측 모델(220)과 반응 예측 모델(250)은 범주형 잠재 변수(230)와 같은 파라미터를 공유하므로 모델 복잡성(model complexity)이 감소되고, 모델의 정규화(regularize)가 용이하다.Meanwhile, in FIG. 4 , since the source language and the target language are the same in a string format (eg, SMILES), the inverse
도 5는 일 실시예에 따른 역합성 예측 모델 및 반응 예측 모델에서 수행되는 연산을 설명하기 위한 도면이다.5 is a diagram for explaining operations performed in the inverse synthesis prediction model and the reaction prediction model according to an embodiment.
도 4와의 차이점은 반응 방식이 범주형 잠재 변수의 입력 값으로 제공된다는 점이다. 도 5에서 도 4와 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대한 중복된 설명은 생략한다.The difference from FIG. 4 is that the response mode is provided as an input value of a categorical latent variable. In FIG. 5 , the same reference numerals are used for the same components as those of FIG. 4 , and duplicate descriptions of the same components are omitted.
도 5를 참조하면, 뉴럴 네트워크 장치(100)는 반응 방식 예측 모델(417)을 더 포함할 수 있다. 도 5에서는 반응 방식 예측 모델(417)이 역합성 예측 모델(310)의 일부 구성으로 도시되어 있으나, 실시예에 따라, 반응 방식 예측 모델(417)은 역합성 예측 모델(310)과는 구분되는 별도 구성일 수도 있다.Referring to FIG. 5 , the
반응 방식 예측 모델(417)은 인코딩된 표적 생성물(210)에 대한 정보에 기초하여 반응 방식을 예측할 수 있다. 일 실시예에서, 반응 방식 예측 모델(417)은 표적 생성물(210)의 인코딩된 표현으로부터 표적 생성물(210)의 물성 정보, 표현자 정보 및 구조 정보 중 적어도 어느 하나를 획득할 수 있다. 또한, 반응 방식 예측 모델(417)은 표적 생성물(210)의 물성 정보, 표현자 정보 및 구조 정보 중 적어도 어느 하나에 기초하여 표적 생성물(210)을 생성하기 위한 반응 방식들(510)을 예측할 수 있다.The reaction
프로세서(110)는 예측된 반응 방식들(510) 중 어느 하나의 기대 반응 방식(511)을 입력 받을 수 있다. 기대 반응 방식(511)은 사용자 인터페이스(130)를 통한 사용자 입력에 의해 프로세서(110)에 입력될 수 있다. 기대 반응 방식(511)은 범주형 잠재 변수(230) 내의 입력 값으로 활용될 수 있다.The
프로세서(110)는 인코딩된 표적 생성물(210) 및 기대 반응 방식(511)을 디코딩하여 기대 반응 방식(511)에 대응하는 후보 반응물 조합들(240)을 출력할 수 있다. 예를 들어, 기대 반응 방식(511)이 스즈키 미야우라(suzuki-miyaura) 방식인 경우, 프로세서(110)는 스즈키 미야우라(suzuki-miyaura) 방식으로 표적 생성물(210)을 생성할 수 있는 후보 반응물 조합들(240)을 출력할 수 있다.The
기대 반응 방식(511)이 범주형 잠재 변수(230)의 입력 값으로 제공됨에 따라, 시약 사용이 제한된 환경에서도 최적의 후보 반응물 조합들(240)이 출력될 수 있다.As the expected reaction scheme 511 is provided as an input value of the categorical latent variable 230 , optimal
도 6은 일 실시예에 따른 역합성 예측 모델 및 반응 예측 모델에서 수행되는 연산을 설명하기 위한 도면이다.6 is a diagram for explaining operations performed in the inverse synthesis prediction model and the reaction prediction model according to an embodiment.
도 5와의 차이점은 실험 조건에 따른 수율이 범주형 잠재 변수(230)를 학습할 때 활용된다는 점이다. 마찬가지로 도 6에서 도 5와 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대한 중복된 설명은 생략한다.The difference from FIG. 5 is that the yield according to the experimental conditions is utilized when learning the categorical
도 6을 참조하면, 뉴럴 네트워크 장치(100)는 수율 예측 모델(610)을 더 포함할 수 있다. 도 6에서는 수율 예측 모델(610)이 역합성 예측 모델(310)과 구별되는 구성으로 도시되어 있으나, 실시예에 따라, 수율 예측 모델(610)은 역합성 예측 모델(310)의 일부 구성일 수도 있다.Referring to FIG. 6 , the
수율 예측 모델(610)은 트랜스포머 모델로 구현될 수 있다. 수율 예측 모델(610)은 테스트 데이터 세트(test data set)에 의해 학습(trained)되며, 실험 조건에 따른 표적 생성물(210)의 예측 수율을 출력할 수 있다.The
수율 예측 모델(610)은 워드 임베딩부(411), 제5 포지션 인코딩부(412e), 수율 예측 인코더부(413), 수율 예측부(611) 및 실험 조건 예측부(612)를 포함할 수 있다. 수율 예측 모델(610)은 워드 임베딩부(411)를 역합성 예측 모델(220) 및 반응 예측 모델(250)과 공유할 수 있다. 또한, 수율 예측 모델(610)은 인코더부를 역합성 예측 모델(220) 및 반응 예측 모델(250)과 공유할 수 있다. 수율 예측부(611) 및 실험 조건 예측부(612)는 역합성 예측 모델(220) 및 반응 예측 모델(250)에 포함된 디코더부와 동일한 기능을 수행할 수 있다.The
실험 조건 예측부(612)는 표적 생성물(210)을 생성하기 위한 재정렬된 후보 반응물 조합들(270)의 실험 조건들을 예측할 수 있다. 또한, 수율 예측부(611)는 실험 조건 예측부(612)가 예측한 실험 조건으로 실험을 수행하는 경우, 표적 생성물(210)의 예측 수율을 예측할 수 있다.The
수율 예측부(611)가 예측한, 표적 생성물(210)의 예측 수율은 범주형 잠재 변수(230)를 학습할 때 활용될 수 있다. 프로세서(110)는 표적 생성물(2100)의 예측 수율을 소정의 표시 수단을 통해 출력할 수 있다. 이에 따라, 사용자는 예측 수율을 고려하여 최적의 후보 반응물 조합들(240)을 선택할 수 있다.The predicted yield of the
도 7은 일 실시예에 따른 뉴럴 네트워크 장치의 동작 방법을 설명하기 위한 순서도이다.7 is a flowchart illustrating a method of operating a neural network device according to an embodiment.
도면을 참조하면, S710단계에서, 프로세서(110)는 미리 학습된 역합성 예측 모델(310)을 이용하여 표적 생성물(210)을 생성하기 위한 후보 반응물 조합들(240)을 예측할 수 있다.Referring to the drawing, in step S710 , the
프로세서(110)는 표적 생성물(210)에 대한 정보가 입력되는 경우, 표적 생성물(210)에 대한 정보에 기초하여 복수의 클래스들을 포함하는 범주형 잠재 변수(230)를 예측할 수 있다. 또한, 프로세서(110)는 범주형 잠재 변수(230)에 기초하여 후보 반응물 조합들(240)을 자동 회귀적(autoregressively)으로 예측할 수 있다.When information on the
표적 생성물(210)에 대한 정보가 x이고, 범주형 잠재 변수(230)가 z이고, 후보 반응물 조합들(240)이 y인 경우, 표적 생성물(210)의 입력에 따른 범주형 잠재 변수(230) 및 후보 반응물 조합들(240)은 우도 P(z,y|x)에 의해 예측될 수 있다. 프로세서(110)는 우도 P(z,y|x)의 값에 기초하여 범주형 잠재 변수(230) 및 후보 반응물 조합들(240)을 예측할 수 있다.If the information about the
S720 단계에서, 프로세서(110)는 미리 학습된 반응 예측 모델(250)을 이용하여 후보 반응물 조합들(240) 각각에 대한 예측 생성물(260)을 예측할 수 있다.In operation S720 , the
프로세서(110)는 범주형 잠재 변수(230) 및 후보 반응물 조합들(240)에 기초하여 예측 생성물(260)에 대한 정보를 획득할 수 있다. The
S730 단계에서, 프로세서(110)는 표적 생성물(210)과 예측 생성물(260)의 비교 결과에 기초하여 후보 반응물 조합들(240)의 실험 우선 순위를 결정할 수 있다.In operation S730 , the
프로세서(110)는 표적 생성물(210)과 예측 생성물(260)의 일치 여부에 기초하여 후보 반응물 조합들(240)의 실험 우선 순위를 결정할 수 있다.The
예측 생성물(260)이 인 경우, 범주형 잠재 변수(230) 및 후보 반응물 조합들(240)의 입력에 따른 표적 생성물(210)과 예측 생성물(260)의 일치 확률은 우도 P(=x|z,y)에 의해 결정될 수 있다. 프로세서(110)는 우도 P(=x|z,y)·P(z,y|x)의 값이 큰 순서대로 후보 반응물 조합들(240)의 실험 우선 순위를 결정할 수 있다.The
도 8은 일 실시예에 따른 역합성 예측 모델 및 반응 예측 모델의 학습 방법을 설명하기 위한 순서도이다.8 is a flowchart illustrating a method of learning a reverse synthesis prediction model and a reaction prediction model according to an embodiment.
도 8을 참조하면, S810 단계에서, 프로세서(110)는 테스트 반응물 조합들 및 테스트 반응물 조합들 각각에 대응하는 테스트 생성물들을 입력 받을 수 있다.Referring to FIG. 8 , in step S810 , the
실시예에 따라, 프로세서(110)는 실험 조건에 따른 테스트 생성물들의 예측 수율 및 테스트 반응물 조합들 각각의 반응 방식들을 추가로 입력 받을 수도 있다.According to an embodiment, the
S820 단계에서, 프로세서(110)는 테스트 반응물 조합들 및 테스트 생성물들에 기초하여 복수의 클래스들을 포함하는 범주형 잠재 변수(230)를 학습할 수 있다.In step S820 , the
실시예에 따라, 프로세서(110)는 미리 학습된 수율 예측 모델에 의해 제공된 예측 수율에 더 기초하여 범주형 잠재 변수(230)를 학습할 수도 있다.According to an embodiment, the
프로세서(110)는 테스트 생성물들 각각의 입력에 대한 범주형 잠재 변수(230)의 조건부 확률 분포를 학습할 수 있다.The
일 실시예에서, 테스트 생성물들에 대한 정보가 xts이고, 테스트 반응물들에 대한 정보가 yts인 경우, 프로세서(110)는 다음의 수학식 1과 같이, 역합성 예측 모델(220)의 우도 P(z,yts|xts) 및 반응 예측 모델(250)의 우도 P(xts|yts,z)의 교차 엔트로피 손실(cross-entropy loss)이 최소가 되도록 범주형 잠재 변수(230)를 설정할 수 있다. In an embodiment, when the information on the test products is x ts and the information on the test reactants is y ts , the
예를 들어, 프로세서(110)는 기대값 최대화 알고리즘(Expectation-Maximization algorithm: hard EM)을 이용하여 범주형 잠재 변수(230)를 학습할 수 있다.For example, the
프로세서(110)는 현재 모델의 모수(parameter)가 인 경우 다음의 수학식 2와 같이, 교차 엔트로피 손실(L)을 최소화하는 범주형 잠재 변수(230)를 추정하는 단계 및 다음의 수학식 3과 같이, 입력되는 변수들에 대응하여 모수를 업데이트하는 단계를 반복적으로 수행할 수 있다. 프로세서(110)가 모델을 반복적으로 업데이트함에 따라 최적의 범주형 잠재 변수(230)가 도출될 수 있다.The
한편, 수학식 2 및 3에서 Lh는 프로세서(110)가 경성(hard) 기대값 최대화 알고리즘을 사용하였음을 의미하여, 수학식 3에서 는 업데이트된 모수를 의미한다.Meanwhile, in
도 9는 일 실시예에 따른 역합성 예측 모델의 동작 방법을 설명하기 위한 순서도이다.9 is a flowchart illustrating a method of operating an inverse synthesis prediction model according to an embodiment.
도 9를 참조하면, S910 단계에서, 프로세서(110)는 표적 생성물(210)에 대한 정보를 입력 받을 수 있다.Referring to FIG. 9 , in step S910 , the
프로세서(110)는 표적 생성물(210)의 화학 구조를 문자열 형식으로 입력 받을 수 있다. 예를 들어, 프로세서(110)는 SMILES(Simplified Molecular-Input Line-Entry System) 코드, SMARTS(Smiles Arbitrary Target Specification) 코드 또는 InChi(International Chemical Identifier) 코드 형식으로 표적 생성물(210)의 화학 구조를 입력 받을 수 있다.The
S920 단계에서, 프로세서(110)는 복수의 클래스들을 포함하는 범주형 잠재 변수(230)를 예측할 수 있다.In step S920 , the
프로세서(110)는 역합성 예측 모델(220)을 구동시켜, 범주형 잠재 변수(230)를 첫 번째 토큰(token)으로 예측할 수 있다. 실시예에 따라, 표적 생성물(210)의 기대 반응 방식이 범주형 잠재 변수(230)의 입력 값으로써 제공될 수도 있다. 기대 반응 방식(511)이 범주형 잠재 변수(230)의 입력 값으로 제공되는 경우, 시약 사용이 제한된 환경에서도 최적의 후보 반응물 조합들(240)이 출력될 수 있다.The
S930 단계에서, 프로세서(110)는 표적 생성물(210)에 대한 정보 및 범주형 잠재 변수(230)에 기초하여 후보 반응물 조합들(240)에 대한 정보를 획득할 수 있다.In operation S930 , the
프로세서(110)는 표적 생성물(210)에 대한 정보 및 예측된 범주형 잠재 변수(230)에 기초하여 후보 반응물 조합들(240)에 대한 토큰들(tokens)을 자동 회귀적(autoregressively)으로 예측할 수 있다. 표적 생성물(210)의 입력에 따른 범주형 잠재 변수(230) 및 후보 반응물 조합들(240)의 우도는 다음의 수학식 4에 의해 결정될 수 있다.The
수학식 4에서 T는 토큰 시퀀스의 길이이고, y<t는 yt 이전의 대상 토큰(target token)을 의미한다. In Equation 4, T is the length of the token sequence, and y < t means a target token before y t .
프로세서(110)는 표적 생성물(210)의 입력에 대한 클래스별 우도와, 표적 생성물(210) 및 범주형 잠재 변수(230)의 입력에 대한 역합성 예측 결과의 우도를 모두 최대화하는 후보 반응물 조합들(240)을 출력할 수 있다.The
일 실시예에서, 프로세서(110)는 클래스별 우도 및 역합성 예측 결과의 우도에 기초하여 기 설정된 개수의 최종 후보 반응물 조합들을 선택할 수 있다. 예를 들어, 프로세서(110)는 표적 생성물(210)의 입력에 따른 범주형 잠재 변수(230) 및 후보 반응물 조합들(240)의 우도가 큰 순서대로 기 설정된 개수만큼의 세트들을 선택할 수 있다. 세트에는 범주형 잠재 변수(230) 및 최종 후보 반응물 조합들(240)의 쌍(pair)이 포함될 수 있다. 범주형 잠재 변수(230) 및 최종 후보 반응물 조합들(240)의 쌍은 반응 예측 모델(250)에 입력되어 예측 생성물(260)의 연산에 이용될 수 있다.In an embodiment, the
도 10은 일 실시예에 따른 반응 예측 모델의 동작 방법을 설명하기 위한 순서도이다.10 is a flowchart illustrating a method of operating a response prediction model according to an exemplary embodiment.
도 10을 참조하면, S1010 단계에서, 프로세서(110)는 후보 반응물 조합들(240)에 대한 정보를 입력 받을 수 있다.Referring to FIG. 10 , in step S1010 , the
프로세서(110)는 후보 반응물 조합들(240)의 구조를 문자열 형식으로 입력 받을 수 있다. 이때, 후보 반응물 조합들(240)의 문자열 형식은 표적 생성물(210)의 문자열 형식과 동일할 수 있다. 예를 들어, 표적 생성물(210)의 문자열 형식이 SMILES 코드인 경우, 후보 반응물 조합들(240)의 문자열 형식도 SMILES 코드일 수 있다.The
S1020 단계에서, 프로세서(110)는 복수의 클래스들을 포함하는 범주형 잠재 변수(230)를 입력 받을 수 있다.In step S1020 , the
다시 말해, 프로세서(110)는 범주형 잠재 변수(230) 및 최종 후보 반응물 조합들(240)의 쌍(pair)을 입력 받을 수 있다.In other words, the
S1030 단계에서, 프로세서(110)는 후보 반응물 조합들(240)에 대한 정보 및 범주형 잠재 변수(230)에 기초하여 후보 반응물 조합들 각각에 대한 예측 생성물에 대한 정보를 획득할 수 있다.In step S1030 , the
프로세서(110)는 우도 P(x|z,y)에 기초하여 예측 생성물(260)의 토큰을 생성할 수 있다. 예측 생성물(260)은 역합성 예측 모델(220)의 검증에 사용될 수 있다.The
도 11은 일 실시예에 따른 후보 반응물 조합들의 실험 우선 순위를 결정하는 방법을 설명하기 위한 순서도이다.11 is a flowchart illustrating a method of determining an experiment priority of candidate reactant combinations according to an embodiment.
도 11을 참조하면, S1110 단계에서, 프로세서(110)는 후보 반응물 조합들(240) 각각의 입력에 따른 예측 생성물(260)과 표적 생성물(210)의 일치 여부를 판단할 수 있다.Referring to FIG. 11 , in step S1110 , the
프로세서(110)는 범주형 잠재 변수(230) 및 후보 반응물 조합들(240)의 입력에 따른 표적 생성물(210)과 예측 생성물(260)의 일치 여부를 우도 P(=x|z,y)에 의해 결정할 수 있다.The
S1120 단계에서, 프로세서(110)는 예측 생성물(260)과 표적 생성물(210)의 일치 여부에 기초하여 후보 반응물 조합들(240)의 실험 우선 순위를 결정할 수 있다.In operation S1120 , the
프로세서(110)는 우도 P(=x|z,y)·P(z,y|x)의 값이 큰 순서대로 후보 반응물 조합들(240)의 실험 우선 순위를 결정할 수 있다.The
한편, 상술한 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 실시예들에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.Meanwhile, the above-described embodiments can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium. In addition, the structure of data used in the above-described embodiments may be recorded in a computer-readable recording medium through various means. The computer-readable recording medium includes a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.) and an optically readable medium (eg, a CD-ROM, a DVD, etc.).
본 실시예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 실시예가 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 권리 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 실시예에 포함된 것으로 해석되어야 할 것이다.Those of ordinary skill in the art related to the present embodiment will understand that the embodiment may be implemented in a modified form without departing from the essential characteristics of the above description. Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the rights is indicated in the claims rather than the above description, and all differences within the scope equivalent thereto should be construed as being included in the present embodiment.
100: 뉴럴 네트워크 장치
110: 프로세서
220: 역합성 예측 모델
250: 반응 예측 모델100: neural network device
110: processor
220: retrosynthesis prediction model
250: response prediction model
Claims (20)
미리 학습된 역합성 예측 모델을 이용하여, 표적 생성물을 생성하기 위한 후보 반응물 조합들을 예측하는 단계;
미리 학습된 반응 예측 모델을 이용하여 상기 후보 반응물 조합들 각각에 대한 예측 생성물을 예측하는 단계; 및
상기 표적 생성물과 상기 예측 생성물의 비교 결과에 기초하여 상기 후보 반응물 조합들의 실험 우선 순위를 결정하는 단계;를 포함하는 방법.In the method of synthesizing a target product using a neural network,
predicting candidate reactant combinations to produce a target product using the pre-trained retrosynthesis prediction model;
predicting a predicted product for each of the candidate reactant combinations using a pre-trained response prediction model; and
determining an experiment priority of the candidate reactant combinations based on a comparison result of the target product and the predicted product.
상기 미리 학습된 역합성 예측 모델 및 상기 미리 학습된 반응 예측 모델은
테스트 반응물 조합들 및 상기 테스트 반응물 조합들 각각에 대응하는 테스트 생성물들을 입력 받는 단계;
상기 테스트 반응물 조합들 및 상기 테스트 생성물들에 기초하여 복수의 클래스들을 포함하는 범주형 잠재 변수(categorical latent variables)를 학습하는 단계;를 포함하는 방법.According to claim 1,
The pre-trained inverse synthesis prediction model and the pre-trained reaction prediction model are
receiving test reactant combinations and test products corresponding to each of the test reactant combinations;
learning categorical latent variables comprising a plurality of classes based on the test reactant combinations and the test products.
상기 범주형 잠재 변수를 학습하는 단계는
상기 테스트 생성물들 각각의 입력에 대한 상기 범주형 잠재 변수의 조건부 확률 분포를 학습하는 것인 방법.3. The method of claim 2,
The step of learning the categorical latent variable is
and learning the conditional probability distribution of the categorical latent variable for each input of the test products.
상기 범주형 잠재 변수를 학습하는 단계는
미리 학습된 수율 예측 모델에 의해 제공된 예측 수율에 기초하여 상기 범주형 잠재 변수를 학습하는 방법.3. The method of claim 2,
The step of learning the categorical latent variable is
A method for learning the categorical latent variable based on a predicted yield provided by a pre-trained yield prediction model.
상기 학습된 범주형 잠재 변수는 상기 후보 반응물 조합들의 예측 및 상기 예측 생성물의 예측에 사용되는 방법.3. The method of claim 2,
wherein the learned categorical latent variable is used to predict the candidate reactant combinations and predict the predicted product.
상기 후보 반응물 조합들을 예측하는 단계는
상기 표적 생성물에 대한 정보를 입력 받는 단계;
상기 표적 생성물에 대한 정보에 기초하여 복수의 클래스들을 포함하는 범주형 잠재 변수를 예측하는 단계; 및
상기 표적 생성물에 대한 정보 및 상기 범주형 잠재 변수에 기초하여 상기 후보 반응물 조합들에 대한 정보를 획득하는 단계;를 포함하는 방법.According to claim 1,
Predicting the candidate reactant combinations comprises:
receiving information on the target product;
predicting a categorical latent variable including a plurality of classes based on the information on the target product; and
obtaining information on the candidate reactant combinations based on the information on the target product and the categorical latent variable.
상기 후보 반응물 조합들에 대한 정보를 획득하는 단계는
상기 표적 생성물의 입력에 따른 상기 후보 반응물 조합들 각각의 클래스별 우도(likelihood)를 계산하는 단계;
상기 표적 생성물 및 상기 범주형 잠재 변수의 입력에 대한 역합성 예측 결과의 우도를 계산하는 단계; 및
상기 클래스별 우도 및 상기 역합성 예측 결과의 우도에 기초하여 기 설정된 개수의 최종 후보 반응물 조합들을 선택하는 단계;를 포함하는 방법.7. The method of claim 6,
Obtaining information on the candidate reactant combinations comprises:
calculating a likelihood for each class of the candidate reactant combinations according to the input of the target product;
calculating a likelihood of a reverse synthesis prediction result for the target product and the input of the categorical latent variable; and
Selecting a preset number of final candidate reactant combinations based on the likelihood for each class and the likelihood of the reverse synthesis prediction result.
상기 범주형 잠재 변수를 예측하는 단계는
상기 표적 생성물을 생성하기 위한 기대 반응 방식이 상기 범주형 잠재 변수의 입력 값으로써 제공되는 방법.7. The method of claim 6,
The step of predicting the categorical latent variable is
wherein an expected response mode for producing the target product is provided as an input value of the categorical latent variable.
상기 예측 생성물을 예측하는 단계는
상기 후보 반응물 조합들에 대한 정보를 입력 받는 단계;
복수의 클래스들을 포함하는 범주형 잠재 변수를 입력 받는 단계; 및
상기 후보 반응물 조합들에 대한 정보 및 상기 범주형 잠재 변수에 기초하여, 상기 후보 반응물 조합들 각각에 대한 상기 예측 생성물에 대한 정보를 획득하는 단계;를 포함하는 방법.According to claim 1,
Predicting the predicted product comprises:
receiving information on the candidate reactant combinations;
receiving a categorical latent variable including a plurality of classes; and
obtaining information on the predicted product for each of the candidate reactant combinations based on the information on the candidate reactant combinations and the categorical latent variable.
상기 후보 반응물 조합들의 실험 우선 순위를 결정하는 단계
상기 후보 반응물 조합들 각각의 입력에 따른, 상기 예측 생성물과 상기 표적 생성물의 일치 여부를 판단하는 단계; 및
상기 예측 생성물과 상기 표적 생성물의 일치 여부에 기초하여 상기 후보 반응물 조합들의 실험 우선 순위를 결정하는 단계;를 포함하는 방법.According to claim 1,
determining the experimental priority of the candidate reactant combinations;
determining whether the predicted product matches the target product according to the input of each of the candidate reactant combinations; and
determining an experiment priority of the candidate reactant combinations based on whether the predicted product matches the target product.
적어도 하나의 프로그램이 저장된 메모리; 및
상기 적어도 하나의 프로그램을 실행하는 프로세서를 포함하고,
상기 프로세서는
미리 학습된 역합성 예측 모델을 이용하여, 표적 생성물을 생성하기 위한 후보 반응물 조합들을 예측하고,
미리 학습된 반응 예측 모델을 이용하여 상기 후보 반응물 조합들 각각에 대한 예측 생성물을 예측하고,
상기 표적 생성물과 상기 예측 생성물의 비교 결과에 기초하여 상기 후보 반응물 조합들의 실험 우선 순위를 결정하는 장치.An apparatus for generating a target product using a neural network, comprising:
a memory in which at least one program is stored; and
a processor executing the at least one program;
the processor is
predicting candidate reactant combinations to produce a target product using the pre-trained retrosynthesis prediction model;
Predict the predicted product for each of the candidate reactant combinations using a pre-trained response prediction model,
An apparatus for determining an experimental priority of the candidate reactant combinations based on a comparison result of the target product and the predicted product.
상기 미리 학습된 역합성 예측 모델 및 상기 미리 학습된 반응 예측 모델은
테스트 반응물 조합들 및 상기 테스트 반응물 조합들 각각에 대응하는 테스트 생성물들에 기초하여 복수의 클래스들을 포함하는 범주형 잠재 변수(categorical latent variables)를 학습하는 장치.12. The method of claim 11,
The pre-trained inverse synthesis prediction model and the pre-trained reaction prediction model are
An apparatus for learning categorical latent variables including a plurality of classes based on test reactant combinations and test products corresponding to each of the test reactant combinations.
상기 미리 학습된 역합성 예측 모델 및 상기 미리 학습된 반응 예측 모델은
상기 테스트 생성물들 각각의 입력에 대한 상기 범주형 잠재 변수의 조건부 확률 분포를 학습하는 장치.13. The method of claim 12,
The pre-trained inverse synthesis prediction model and the pre-trained reaction prediction model are
An apparatus for learning the conditional probability distribution of the categorical latent variable for each input of the test products.
상기 미리 학습된 역합성 예측 모델 및 상기 미리 학습된 반응 예측 모델은
미리 학습된 수율 예측 모델에 의해 제공된 예측 수율에 기초하여 상기 범주형 잠재 변수를 학습하는 장치.13. The method of claim 12,
The pre-trained inverse synthesis prediction model and the pre-trained reaction prediction model are
An apparatus for learning the categorical latent variable based on a predicted yield provided by a pre-trained yield prediction model.
상기 학습된 범주형 잠재 변수는 상기 후보 반응물 조합들의 예측 및 상기 예측 생성물의 예측에 사용되는 장치.13. The method of claim 12,
wherein the learned categorical latent variable is used for prediction of the candidate reactant combinations and prediction of the prediction product.
상기 프로세서는
상기 표적 생성물에 대한 정보를 입력 받고,
상기 표적 생성물에 대한 정보에 기초하여 복수의 클래스들을 포함하는 범주형 잠재 변수를 예측하고,
상기 표적 생성물에 대한 정보 및 상기 범주형 잠재 변수에 기초하여 상기 후보 반응물 조합들에 대한 정보를 획득하는 장치.12. The method of claim 11,
the processor is
receiving information about the target product,
Predict a categorical latent variable comprising a plurality of classes based on the information about the target product,
An apparatus for obtaining information about the candidate reactant combinations based on the information on the target product and the categorical latent variable.
상기 프로세서는
상기 표적 생성물의 입력에 따른 상기 후보 반응물 조합들 각각의 클래스별 우도(likelihood)를 계산하고,
상기 표적 생성물 및 상기 범주형 잠재 변수의 입력에 대한 역합성 예측 결과의 우도를 계산하고,
상기 클래스별 우도 및 상기 역합성 예측 결과의 우도에 기초하여 기 설정된 개수의 최종 후보 반응물 조합들을 선택하는 장치.17. The method of claim 16,
the processor is
calculating the likelihood of each class of the candidate reactant combinations according to the input of the target product,
calculating the likelihood of a retrosynthesis prediction result for the input of the target product and the categorical latent variable,
An apparatus for selecting a preset number of final candidate reactant combinations based on the likelihood for each class and the likelihood of the inverse synthesis prediction result.
상기 표적 생성물을 생성하기 위한 기대 반응 방식은
상기 범주형 잠재 변수의 입력 값으로써 제공되는 장치.17. The method of claim 16,
The expected reaction scheme to produce the target product is
A device provided as an input value of the categorical latent variable.
상기 프로세서는
상기 후보 반응물 조합들에 대한 정보를 입력 받고,
복수의 클래스들을 포함하는 범주형 잠재 변수를 입력 받고,
상기 후보 반응물 조합들에 대한 정보 및 상기 범주형 잠재 변수에 기초하여, 상기 후보 반응물 조합들 각각에 대한 상기 예측 생성물에 대한 정보를 획득하는 장치.12. The method of claim 11,
the processor is
receiving information about the candidate reactant combinations;
Receive a categorical latent variable containing a plurality of classes,
An apparatus for obtaining information about the predicted product for each of the candidate reactant combinations based on the information about the candidate reactant combinations and the categorical latent variable.
상기 프로세서는
상기 후보 반응물 조합들 각각의 입력에 따른, 상기 예측 생성물과 상기 표적 생성물의 일치 여부를 판단하고,
상기 예측 생성물과 상기 표적 생성물의 일치 여부에 기초하여 상기 후보 반응물 조합들의 실험 우선 순위를 결정하는 장치.12. The method of claim 11,
the processor is
Determine whether the predicted product matches the target product according to the input of each of the candidate reactant combinations,
An apparatus for determining an experimental priority of the candidate reactant combinations based on whether the predicted product and the target product match.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/372,808 US20220036182A1 (en) | 2020-07-29 | 2021-07-12 | Method and apparatus for synthesizing target products by using neural networks |
EP21186592.8A EP3945526A1 (en) | 2020-07-29 | 2021-07-20 | Method and apparatus for retrosynthesis by using neural networks |
CN202110846347.8A CN114093430A (en) | 2020-07-29 | 2021-07-26 | Method and apparatus for synthesizing target product by using neural network |
JP2021122539A JP2022027571A (en) | 2020-07-29 | 2021-07-27 | Apparatus for synthesizing target products by using neural networks and method for the same |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200094615 | 2020-07-29 | ||
KR20200094615 | 2020-07-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220014798A true KR20220014798A (en) | 2022-02-07 |
Family
ID=80253443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210017869A KR20220014798A (en) | 2020-07-29 | 2021-02-08 | Apparatus and method for synthesizing target products using neural networks |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220014798A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116300075A (en) * | 2023-05-23 | 2023-06-23 | 华南师范大学 | Layered nano-photonics device design method based on multi-head series neural network |
WO2023177171A1 (en) * | 2022-03-17 | 2023-09-21 | 주식회사 아론티어 | Retrosynthetic translation method using transformer and atomic environment, and device for performing same |
-
2021
- 2021-02-08 KR KR1020210017869A patent/KR20220014798A/en unknown
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023177171A1 (en) * | 2022-03-17 | 2023-09-21 | 주식회사 아론티어 | Retrosynthetic translation method using transformer and atomic environment, and device for performing same |
CN116300075A (en) * | 2023-05-23 | 2023-06-23 | 华南师范大学 | Layered nano-photonics device design method based on multi-head series neural network |
CN116300075B (en) * | 2023-05-23 | 2023-08-11 | 华南师范大学 | Layered nano-photonics device design method based on multi-head series neural network |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3945526A1 (en) | Method and apparatus for retrosynthesis by using neural networks | |
US11587646B2 (en) | Method for simultaneous characterization and expansion of reference libraries for small molecule identification | |
US20200027528A1 (en) | Systems and methods for predicting chemical reactions | |
KR20210147862A (en) | Method and apparatus for training retrosynthesis prediction model | |
EP3514734A1 (en) | Method and apparatus for generating a chemical structure using a neural network | |
WO2019241879A1 (en) | Variationally and adiabatically navigated quantum eigensolvers | |
KR20220014798A (en) | Apparatus and method for synthesizing target products using neural networks | |
US11720791B2 (en) | Apparatus and method of optimizing experimental conditions using neural network | |
US20210374536A1 (en) | Method and apparatus for training retrosynthesis prediction model | |
US20230325687A1 (en) | System and method for de novo drug discovery | |
US20230342611A1 (en) | Systems and methods for time series analysis using attention models | |
KR20200046189A (en) | Method and system for collaborative filtering based on generative adversarial networks | |
US20230223112A1 (en) | Retrosynthesis using neural networks | |
KR20210076122A (en) | Systems and Methods for Active Transfer Learning Including Deep Characterization | |
CN111223532A (en) | Method, apparatus, device, medium for determining a reactant of a target compound | |
KR20210042777A (en) | Method and apparatus for generating chemical structure | |
US20220004898A1 (en) | Detecting cognitive biases in interactions with analytics data | |
US20240120022A1 (en) | Predicting protein amino acid sequences using generative models conditioned on protein structure embeddings | |
US20210174910A1 (en) | Method and apparatus for generating new chemical structure using neural network | |
US11854672B2 (en) | Method and apparatus for generating chemical structure | |
WO2022259185A1 (en) | Adversarial framework for molecular conformation space modeling in internal coordinates | |
US20230360739A1 (en) | Method and apparatus of predicting synthetic path | |
Yusup et al. | Feature selection with harmony search for classification: A review | |
KR20230156619A (en) | Method and apparatus of predicting synthetic path | |
US20240135141A1 (en) | Method and apparatus for predicting recipe property reflecting similarity between chemical materials |