KR20220014798A - Apparatus and method for synthesizing target products using neural networks - Google Patents

Apparatus and method for synthesizing target products using neural networks Download PDF

Info

Publication number
KR20220014798A
KR20220014798A KR1020210017869A KR20210017869A KR20220014798A KR 20220014798 A KR20220014798 A KR 20220014798A KR 1020210017869 A KR1020210017869 A KR 1020210017869A KR 20210017869 A KR20210017869 A KR 20210017869A KR 20220014798 A KR20220014798 A KR 20220014798A
Authority
KR
South Korea
Prior art keywords
target product
reactant combinations
candidate
prediction model
latent variable
Prior art date
Application number
KR1020210017869A
Other languages
Korean (ko)
Inventor
김은지
권영천
박민식
이동선
최윤석
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US17/372,808 priority Critical patent/US20220036182A1/en
Priority to EP21186592.8A priority patent/EP3945526A1/en
Priority to CN202110846347.8A priority patent/CN114093430A/en
Priority to JP2021122539A priority patent/JP2022027571A/en
Publication of KR20220014798A publication Critical patent/KR20220014798A/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/10Analysis or design of chemical reactions, syntheses or processes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/30Prediction of properties of chemical compounds, compositions or mixtures
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16CCOMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
    • G16C20/00Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
    • G16C20/60In silico combinatorial chemistry

Abstract

An apparatus for synthesizing a target product using a neural network predicts candidate reactant combinations for generating a target product by using a reverse synthesis prediction model, predicts a predicted product for each of the candidate reactant combinations by using a response prediction model, and determines experimental priorities of the candidate reactant combinations based on a result of the comparison between the target product and the predicted product.

Description

뉴럴 네트워크를 이용하여 표적 생성물을 합성하는 장치 및 방법{Apparatus and method for synthesizing target products using neural networks}Apparatus and method for synthesizing target products using neural networks

뉴럴 네트워크를 이용하여 표적 생성물을 합성하는 장치 및 방법에 관한다.It relates to an apparatus and method for synthesizing a target product using a neural network.

뉴럴 네트워크(neural network)는 생물학적 뇌를 모델링한 컴퓨터 과학적 아키텍쳐(computational architecture)를 참조한다. 뉴럴 네트워크(neural network) 기술이 발전함에 따라, 다양한 종류의 전자 시스템에서 뉴럴 네트워크를 활용하여 입력 데이터를 분석하고 유효한 정보를 추출하고 있다.Neural network refers to a computational architecture that models the biological brain. As neural network technology develops, various types of electronic systems use neural networks to analyze input data and extract valid information.

뉴럴 네트워크를 이용하면서도 유효하고, 타당한 반응물이 도출되며, 다양한 후보 반응물들을 제공할 수 있는 기술이 요구된다.A technique capable of deriving an effective and valid reactant while using a neural network and providing various candidate reactants is required.

뉴럴 네트워크를 이용하여 표적 생성물을 합성하는 장치 및 방법을 제공하는데 있다. 본 실시예가 이루고자 하는 기술적 과제는 상기와 같은 기술적 과제들로 한정되지 않으며 이하의 실시예들로부터 또 따른 기술적 과제들이 유추될 수 있다.An object of the present invention is to provide an apparatus and method for synthesizing a target product using a neural network. The technical problem to be achieved by the present embodiment is not limited to the above technical problems, and further technical problems may be inferred from the following embodiments.

일 측면에 따르면, 뉴럴 네트워크를 이용하여 표적 생성물을 합성하는 방법은 미리 학습된 역합성 예측 모델을 이용하여, 표적 생성물을 생성하기 위한 후보 반응물 조합들을 예측하는 단계, 미리 학습된 반응 예측 모델을 이용하여 상기 후보 반응물 조합들 각각에 대한 예측 생성물을 예측하는 단계 및 상기 표적 생성물과 상기 예측 생성물의 비교 결과에 기초하여 상기 후보 반응물 조합들의 실험 우선 순위를 결정하는 단계를 포함한다.According to one aspect, a method of synthesizing a target product using a neural network includes predicting candidate reactant combinations for generating a target product using a pre-trained reverse synthesis prediction model, using a pre-trained response prediction model predicting a predicted product for each of the candidate reactant combinations, and determining an experimental priority of the candidate reactant combinations based on a comparison result between the target product and the predicted product.

다른 측면에 따르면, 뉴럴 네트워크를 이용하여 표적 생성물을 생성하는 장치는, 적어도 하나의 프로그램이 저장된 메모리 및 상기 적어도 하나의 프로그램을 실행하는 프로세서를 포함하고, 상기 프로세서는 미리 학습된 역합성 예측 모델을 이용하여, 표적 생성물을 생성하기 위한 후보 반응물 조합들을 예측하고, 미리 학습된 반응 예측 모델을 이용하여 상기 후보 반응물 조합들 각각에 대한 예측 생성물을 예측하고, 상기 표적 생성물과 상기 예측 생성물의 비교 결과에 기초하여 상기 후보 반응물 조합들의 실험 우선 순위를 결정한다.According to another aspect, an apparatus for generating a target product using a neural network includes a memory storing at least one program and a processor executing the at least one program, wherein the processor generates a pre-trained inverse synthesis prediction model. predicting candidate reactant combinations for generating a target product, predicting a predicted product for each of the candidate reactant combinations using a pre-trained reaction prediction model, and predicting a prediction product for each of the candidate reactant combinations using a comparison result between the target product and the predicted product based on the experimental priority of the candidate reactant combinations.

도 1은 일 실시예에 따른 뉴럴 네트워크 장치의 하드웨어 구성을 도시한 블록도이다.
도 2는 일 실시예에 따른 표적 생성물과 예측 생성물의 비교 결과에 기초하여 후보 반응물 조합들의 실험 우선 순위를 결정하는 과정을 설명하기 위한 도면이다.
도 3은 범주형 잠재 변수를 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 역합성 예측 모델 및 반응 예측 모델에서 수행되는 연산을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 역합성 예측 모델 및 반응 예측 모델에서 수행되는 연산을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 역합성 예측 모델 및 반응 예측 모델에서 수행되는 연산을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 뉴럴 네트워크 장치의 동작 방법을 설명하기 위한 순서도이다.
도 8은 일 실시예에 따른 역합성 예측 모델 및 반응 예측 모델의 학습 방법을 설명하기 위한 순서도이다.
도 9는 일 실시예에 따른 역합성 예측 모델의 동작 방법을 설명하기 위한 순서도이다.
도 10은 일 실시예에 따른 반응 예측 모델의 동작 방법을 설명하기 위한 순서도이다.
도 11은 일 실시예에 따른 후보 반응물 조합들의 실험 우선 순위를 결정하는 방법을 설명하기 위한 순서도이다.
1 is a block diagram illustrating a hardware configuration of a neural network device according to an embodiment.
FIG. 2 is a diagram for explaining a process of determining an experiment priority of candidate reactant combinations based on a comparison result between a target product and a predicted product, according to an exemplary embodiment;
3 is a diagram for explaining a categorical latent variable.
4 is a diagram for explaining operations performed in the inverse synthesis prediction model and the reaction prediction model according to an embodiment.
5 is a diagram for explaining operations performed in the inverse synthesis prediction model and the reaction prediction model according to an embodiment.
6 is a diagram for explaining operations performed in the inverse synthesis prediction model and the reaction prediction model according to an embodiment.
7 is a flowchart illustrating a method of operating a neural network device according to an embodiment.
8 is a flowchart illustrating a method of learning a reverse synthesis prediction model and a reaction prediction model according to an embodiment.
9 is a flowchart illustrating a method of operating an inverse synthesis prediction model according to an embodiment.
10 is a flowchart illustrating a method of operating a response prediction model according to an exemplary embodiment.
11 is a flowchart illustrating a method of determining an experiment priority of candidate reactant combinations according to an embodiment.

본 명세서에서 다양한 곳에 등장하는 "일부 실시예에서" 또는 "일 실시예에서" 등의 어구는 반드시 모두 동일한 실시예를 가리키는 것은 아니다.The appearances of the phrases "in some embodiments" or "in one embodiment" in various places in this specification are not necessarily all referring to the same embodiment.

본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 개시의 기능 블록들은 하나 이상의 마이크로프로세서들에 의해 구현되거나, 소정의 기능을 위한 회로 구성들에 의해 구현될 수 있다. 또한, 예를 들어, 본 개시의 기능 블록들은 다양한 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능 블록들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 개시는 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. “매커니즘”, “요소”, “수단” 및 “구성”등과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다.Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented in various numbers of hardware and/or software configurations that perform specific functions. For example, the functional blocks of the present disclosure may be implemented by one or more microprocessors, or may be implemented by circuit configurations for a given function. Also, for example, the functional blocks of the present disclosure may be implemented in various programming or scripting languages. The functional blocks may be implemented as an algorithm running on one or more processors. In addition, the present disclosure may employ prior art for electronic configuration, signal processing, and/or data processing, and the like. Terms such as “mechanism”, “element”, “means” and “configuration” may be used broadly and are not limited to mechanical and physical components.

또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다. In addition, the connecting lines or connecting members between the components shown in the drawings only exemplify functional connections and/or physical or circuit connections. In an actual device, a connection between components may be represented by various functional connections, physical connections, or circuit connections that are replaceable or added.

한편, 본 명세서에서 사용된 용어와 관련하여, 뉴럴 네트워크 시스템에서 이용되는 데이터인 구조(structure)는 물질의 원자(atom) 레벨의 구조를 의미할 수 있다. 구조는, 원자와 원자 간의 연결 관계(bond)에 기반하는 구조식일 수 있다. 예를 들어, 구조는 간단한 형식의 문자열(1차원) 형태일 수 있다. 구조를 표현하는 문자열 형식으로서, SMILES(Simplified Molecular-Input Line-Entry System) 코드, SMARTS(Smiles Arbitrary Target Specification) 코드 또는 InChi(International Chemical Identifier) 코드 등이 있다.Meanwhile, in relation to the terms used in this specification, a structure that is data used in a neural network system may mean an atom-level structure of a material. The structure may be a structural formula based on a bond between atoms. For example, the structure may be in the form of a simple-form string (one-dimensional). As a string format expressing the structure, there are a Simplified Molecular-Input Line-Entry System (SMILES) code, a Smiles Arbitrary Target Specification (SMARTS) code, or an International Chemical Identifier (InChi) code.

또한, 표현자(descriptor)는 물질의 특징을 표현하기 위해 사용되는 지표 값으로서, 주어진 물질에 대해서 비교적 간단한 연산 처리를 수행함으로써 획득될 수 있는 값이다. 일 실시예에서 표현자는, 특정한 부분 구조의 포함 여부를 표시하는 분자 구조 핑거프린트(fingerprint)(예를 들어, Morgan Fingerprint, Extended Connectivity Fingerprint(ECFP)) 또는 분자량이나 분자 구조 내에 포함된 부분 구조(예를 들어, 링)의 개수 등 바로 계산될 수 있는 값으로 구성된 정량적 구조-물성 상관관계(quantitative structure-property relationships, QSPR) 표현자를 포함할 수 있다.In addition, a descriptor is an index value used to express characteristics of a material, and is a value that can be obtained by performing relatively simple arithmetic processing on a given material. In one embodiment, the presenter is a molecular structure fingerprint (eg, Morgan Fingerprint, Extended Connectivity Fingerprint (ECFP)) indicating whether a specific partial structure is included or not, or a molecular weight or partial structure contained within a molecular structure (eg, a molecular weight). For example, it may include a quantitative structure-property relationship (QSPR) descriptor composed of a value that can be calculated immediately, such as the number of rings).

또한, 물성(property)은 물질이 가지고 있는 특성을 의미하며, 실험을 통해 측정되거나 시뮬레이션을 통해 계산된 실수 값이 될 수 있다. 예를 들어, 물질이 디스플레이 소재인 경우 빛에 대한 투과 파장, 발광 파장 등이 될 수 있고, 물질이 배터리 소재인 경우 전압이 될 수 있다. 표현자의 경우와는 달리, 물성을 계산하는 데에는 복잡한 시뮬레이션이 필요하고 많은 시간이 소모될 수 있다.In addition, a property refers to a property of a material, and may be a real value measured through an experiment or calculated through a simulation. For example, if the material is a display material, it may be a transmission wavelength for light, an emission wavelength, etc., or if the material is a battery material, it may be a voltage. Unlike the presenter, complex simulations are required to calculate the physical properties and can be time consuming.

도 1은 일 실시예에 따른 뉴럴 네트워크 장치의 하드웨어 구성을 도시한 블록도이다.1 is a block diagram illustrating a hardware configuration of a neural network device according to an embodiment.

뉴럴 네트워크 장치(100)는 PC(personal computer), 서버 디바이스, 모바일 디바이스, 임베디드 디바이스 등의 다양한 종류의 디바이스들로 구현될 수 있고, 구체적인 예로서 뉴럴 네트워크를 이용한 음성 인식, 영상 인식, 영상 분류 등을 수행하는 스마트폰, 태블릿 디바이스, AR(Augmented Reality) 디바이스, IoT(Internet of Things) 디바이스, 자율주행 자동차, 로보틱스, 의료기기 등에 해당될 수 있으나, 이에 제한되지 않는다. 나아가서, 뉴럴 네트워크 장치(100)는 위와 같은 디바이스에 탑재되는 전용 하드웨어 가속기(HW accelerator)에 해당될 수 있고, 뉴럴 네트워크 장치(100)는 뉴럴 네트워크 구동을 위한 전용 모듈인 NPU(neural processing unit), TPU(Tensor Processing Unit), Neural Engine 등과 같은 하드웨어 가속기일 수 있으나, 이에 제한되지 않는다.The neural network apparatus 100 may be implemented with various types of devices such as a personal computer (PC), a server device, a mobile device, and an embedded device, and as a specific example, voice recognition, image recognition, image classification, etc. using a neural network It may correspond to a smartphone, tablet device, AR (Augmented Reality) device, IoT (Internet of Things) device, autonomous vehicle, robotics, medical device, etc., but is not limited thereto. Furthermore, the neural network apparatus 100 may correspond to a dedicated hardware accelerator mounted on the above device, and the neural network apparatus 100 is a dedicated module for driving a neural network, a neural processing unit (NPU), It may be a hardware accelerator such as a Tensor Processing Unit (TPU), a Neural Engine, or the like, but is not limited thereto.

도 1을 참조하면, 뉴럴 네트워크 장치(100)는 프로세서(110), 메모리(120) 및 사용자 인터페이스(130)를 포함한다. 도 1에 도시된 뉴럴 네트워크 장치(100)에는 본 실시예들과 관련된 구성요소들만이 도시되어 있다. 따라서, 뉴럴 네트워크 장치(100)에는 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음은 당해 기술분야의 통상의 기술자에게 자명하다.Referring to FIG. 1 , the neural network device 100 includes a processor 110 , a memory 120 , and a user interface 130 . In the neural network device 100 shown in FIG. 1, only the components related to the present embodiments are shown. Accordingly, it is apparent to those skilled in the art that the neural network device 100 may further include other general-purpose components in addition to the components shown in FIG. 1 .

프로세서(110)는 뉴럴 네트워크 장치(100)를 실행하기 위한 전반적인 기능들을 제어하는 역할을 한다. 예를 들어, 프로세서(110)는 뉴럴 네트워크 장치(100) 내의 메모리(120)에 저장된 프로그램들을 실행함으로써, 뉴럴 네트워크 장치(100)를 전반적으로 제어한다. 프로세서(110)는 뉴럴 네트워크 장치(100) 내에 구비된 CPU(central processing unit), GPU(graphics processing unit), AP(application processor) 등으로 구현될 수 있으나, 이에 제한되지 않는다.The processor 110 serves to control overall functions for executing the neural network device 100 . For example, the processor 110 generally controls the neural network device 100 by executing programs stored in the memory 120 in the neural network device 100 . The processor 110 may be implemented as a central processing unit (CPU), a graphics processing unit (GPU), an application processor (AP), etc. included in the neural network device 100 , but is not limited thereto.

메모리(120)는 뉴럴 네트워크 장치(100) 내에서 처리되는 각종 데이터들을 저장하는 하드웨어로서, 예를 들어, 메모리(120)는 뉴럴 네트워크 장치(100)에서 처리된 데이터들 및 처리될 데이터들을 저장할 수 있다. 또한, 메모리(120)는 뉴럴 네트워크 장치(100)에 의해 구동될 애플리케이션들, 드라이버들 등을 저장할 수 있다. 메모리(120)는 DRAM(dynamic random access memory), SRAM(static random access memory) 등과 같은 RAM(random access memory), ROM(read-only memory), EEPROM(electrically erasable programmable read-only memory), CD-ROM, 블루레이 또는 다른 광학 디스크 스토리지, HDD(hard disk drive), SSD(solid state drive), 또는 플래시 메모리를 포함할 수 있다.The memory 120 is hardware for storing various data processed in the neural network device 100 . For example, the memory 120 may store data processed by the neural network device 100 and data to be processed. have. Also, the memory 120 may store applications, drivers, and the like to be driven by the neural network device 100 . The memory 120 includes random access memory (RAM), such as dynamic random access memory (DRAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), CD- It may include ROM, Blu-ray or other optical disk storage, a hard disk drive (HDD), a solid state drive (SSD), or flash memory.

프로세서(110)는 역합성 예측 모델, 합성 예측 모델, 수율 예측 모델 및 반응 방식 모델 중 적어도 어느 하나를 구동할 수 있다.The processor 110 may drive at least one of an inverse synthesis prediction model, a synthesis prediction model, a yield prediction model, and a reaction method model.

역합성 예측 모델, 합성 예측 모델, 수율 예측 모델 및 반응 방식 모델은 트랜스포머(transformer) 모델로 구현될 수 있다. 뉴럴 네트워크 장치(100)가 트랜스포머 모델을 구동함에 따라, 데이터의 병렬 처리 및 신속한 연산이 가능할 수 있다.The reverse synthesis prediction model, the synthesis prediction model, the yield prediction model, and the reaction method model may be implemented as a transformer model. As the neural network device 100 drives the transformer model, parallel processing of data and rapid computation may be possible.

프로세서(110)는 테스트 데이터 세트(test data set)를 이용하여 트랜스포머 모델을 학습시킬 수 있고, 이 과정에서 범주형 잠재 변수(categorical latent variable)가 결정 또는 학습될 수 있다. 예를 들어, 프로세서(110)는 테스트 생성물들 각각의 입력에 대한 범주형 잠재 변수의 조건부 확률 분포를 학습할 수 있다. 또한, 예측 수율 및 반응 방식은 잠재 변수의 조건부 확률 분포를 학습시키기 위해 제공될 수도 있다.The processor 110 may train the transformer model using a test data set, and in this process, a categorical latent variable may be determined or learned. For example, the processor 110 may learn the conditional probability distribution of the categorical latent variable for the input of each of the test artifacts. In addition, prediction yields and response schemes may be provided for learning conditional probability distributions of latent variables.

테스트 데이터 세트는 테스트 반응물들(test reactants), 테스트 반응물 조합들 각각에 대응하는 테스트 생성물들(test products)을 포함할 수 있다. 또한, 테스트 데이터 세트는 실험 조건에 따른 테스트 생성물들의 예측 수율 및 테스트 반응물 조합들 각각의 반응 방식들을 더 포함할 수 있다.The test data set may include test reactants, test products corresponding to each of the test reactant combinations. In addition, the test data set may further include a predicted yield of the test products according to the experimental conditions and reaction modes of each of the test reactant combinations.

실험 조건은 반응물을 이용하여 생성물을 생성하는 실험을 진행하기 위해 설정되는 여러 가지 조건을 의미할 수 있다. 예를 들어, 실험 조건은 촉매, 염기, 용매, 시약, 온도, 반응 시간 중 적어도 어느 하나를 포함할 수 있다.Experimental conditions may refer to various conditions set in order to proceed with an experiment for generating a product using a reactant. For example, the experimental conditions may include at least one of a catalyst, a base, a solvent, a reagent, a temperature, and a reaction time.

예측 수율은 반응물이 소정 반응 방식 및 소정 실험 조건 하에서 실험될 때, 반응물로부터 생성되는 생성물의 수율에 대한 기대치를 의미할 수 있다. 예측 수율은 실제 실험에 의한 실측 수율과는 상이할 수도 있다.The predicted yield may refer to an expectation for the yield of a product produced from the reactants when the reactants are tested in a given reaction mode and under given experimental conditions. The predicted yield may be different from the actual yield measured by an actual experiment.

반응 방식은 반응물을 이용하여 생성물을 생성하기 위한 화학 반응 방법을 의미할 수 있다. 예를 들어, 반응물 유기 붕소(R1-BY2)를 이용하여 생성물 할라이드(R2-BY2)를 생성하는 경우, 반응 방식은 스즈키 미야우라(suzuki-miyaura) 방식일 수 있다. 반응 방식은 반응물의 구조 정보 및 생성물의 구조 정보에 따라 복수 개로 제공 될 수도 있다.The reaction mode may refer to a chemical reaction method for generating a product using a reactant. For example, when the reactant organoboron (R1-BY2) is used to form the product halide (R2-BY2), the reaction method may be a Suzuki-miyaura method. A plurality of reaction methods may be provided according to structural information of a reactant and structural information of a product.

프로세서(110)는 미리 학습된 역합성 예측 모델을 이용하여 표적 생성물을 생성하기 위한 후보 반응물 조합들을 예측할 수 있다.The processor 110 may predict candidate reactant combinations for generating the target product using the pre-trained inverse synthesis prediction model.

프로세서(110)는 표적 생성물의 화학 구조를 문자열(1차원) 형식으로 입력 받을 수 있다. 구조는 원자와 원자 간의 연결 관계(bond)에 기반하는 구조식일 수 있다. 예를 들어, 프로세서(110)는 SMILES(Simplified Molecular-Input Line-Entry System) 코드, SMARTS(Smiles Arbitrary Target Specification) 코드 또는 InChi(International Chemical Identifier) 코드 형식으로 표적 생성물의 화학 구조를 입력 받을 수 있다. 실시예에 따라, 표적 생성물의 표현자에 대한 정보 및 물성에 대한 정보가 화학 구조와 더불어 문자열 형식으로 입력될 수도 있다.The processor 110 may receive the chemical structure of the target product in the form of a character string (one-dimensional). The structure may be a structural formula based on a bond between atoms. For example, the processor 110 may receive the chemical structure of the target product in the form of a Simplified Molecular-Input Line-Entry System (SMILES) code, a Smiles Arbitrary Target Specification (SMARTS) code, or an International Chemical Identifier (InChi) code format. . According to an embodiment, information on a descriptor of a target product and information on physical properties may be input in a string format together with a chemical structure.

프로세서(110)는 미리 학습된 역합성 예측 모델을 구동시킴으로써, 표적 생성물의 문자열을 입력 데이터로 이용하여 연산을 수행하고, 연산 수행 결과를 기초로 후보 반응물 조합들을 문자열 형식의 출력 데이터로 생성할 수 있다.The processor 110 performs an operation using the string of the target product as input data by driving the pre-trained inverse synthesis prediction model, and generates candidate reactant combinations as output data in string format based on the result of the operation. have.

프로세서(110)는 미리 학습된 반응 예측 모델을 이용하여 후보 반응물 조합들 각각에 대한 예측 생성물을 예측할 수 있다.The processor 110 may predict a prediction product for each of the candidate reactant combinations using the pre-trained response prediction model.

프로세서(110)는 미리 학습된 반응 예측 모델을 구동시킴으로써, 후보 반응물 조합들을 입력 데이터로 이용하여 연산을 수행하고, 연산 수행 결과를 기초로 예측 생성물들을 문자열 형식의 출력 데이터로 생성할 수 있다.The processor 110 may operate the pre-trained reaction prediction model to perform an operation using candidate reactant combinations as input data, and generate prediction products as output data in a string format based on the operation result.

한편, 프로세서(110)는 미리 학습된 수율 예측 모델을 구동시킴으로써, 후보 반응물 조합들을 입력 데이터로 이용하여 연산을 수행하고, 연산 수행 결과를 기초로 표적 생성물의 예측 수율 및 표적 생성물을 생성하기 위한 반응 방식을 출력 데이터로 생성할 수 있다. 표적 생성물의 예측 수율은 범주형 잠재 변수를 학습하기 위한 데이터로써 이용될 수도 있다.On the other hand, the processor 110 performs an operation using candidate reactant combinations as input data by driving the pre-trained yield prediction model, and a reaction for generating a predicted yield and a target product of the target product based on the result of performing the operation You can create a method as output data. The predicted yield of the target product may be used as data for learning categorical latent variables.

또한, 프로세서(110)는 미리 학습된 반응 방식 예측 모델을 구동시킴으로써, 표적 생성물을 입력 데이터로 이용하여 연산을 수행하고, 연산 수행 결과를 기초로 표적 생성물을 생성하기 위한 반응 방식을 출력 데이터로 생성할 수 있다. 표적 생성물을 생성하기 위한 반응 방식은 범주형 잠재 변수를 학습하기 위한 데이터로써 이용될 수도 있다.In addition, the processor 110 performs an operation using the target product as input data by driving the pre-trained reaction method prediction model, and generates a reaction method for generating the target product based on the operation result as output data can do. Reaction schemes for generating target products may also be used as data for learning categorical latent variables.

프로세서(110)는 표적 생성물과 예측 생성물을 비교하고, 비교 결과에 기초하여 후보 반응물 조합들의 실험 우선 순위를 결정할 수 있다. 이에 따라, 표적 생성물을 생성하기 위한 최적의 후보 반응물 조합들이 우선 순위에 따라 출력될 수 있다. The processor 110 may compare the target product and the predicted product, and may determine an experiment priority of candidate reactant combinations based on the comparison result. Accordingly, optimal candidate reactant combinations for generating the target product may be output according to priority.

사용자 인터페이스(130)는 실험 결과를 피드백(feedback) 받는 입력 수단을 의미할 수 있다. 예를 들어, 사용자 인터페이스에는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다. 프로세서(110)는 실험 결과를 피드백 받음으로써 트랜스포머 모델을 업데이트할 수 있다.The user interface 130 may refer to an input means for receiving a feedback of an experiment result. For example, the user interface includes a key pad, a dome switch, and a touch pad (contact capacitive method, pressure resistive film method, infrared sensing method, surface ultrasonic conduction method, integral tension measurement method) , piezo effect method, etc.), a jog wheel, a jog switch, etc., but is not limited thereto. The processor 110 may update the transformer model by receiving a feedback of the experimental result.

이하 본 실시예들의 설명에서는 이와 같이 뉴럴 네트워크 장치(100)를 이용하여 최적화된 실험 조건을 우선적으로 제공하는 방법들에 대해 상세하게 설명하도록 한다. 이하에서 설명된 방법들은 뉴럴 네트워크 장치(100)의 프로세서(110), 메모리(120) 및 사용자 인터페이스(130)에 의해 수행될 수 있다.Hereinafter, in the description of the present embodiments, methods for preferentially providing optimized experimental conditions using the neural network apparatus 100 as described above will be described in detail. The methods described below may be performed by the processor 110 , the memory 120 , and the user interface 130 of the neural network device 100 .

도 2는 일 실시예에 따른 표적 생성물과 예측 생성물의 비교 결과에 기초하여 후보 반응물 조합들의 실험 우선 순위를 결정하는 과정을 설명하기 위한 도면이고, 도 3은 범주형 잠재 변수를 설명하기 위한 도면이다.2 is a diagram for explaining a process of determining an experimental priority of candidate reactant combinations based on a comparison result of a target product and a predicted product according to an embodiment, and FIG. 3 is a diagram for explaining a categorical latent variable .

도 2를 참조하면, 프로세서(110)는 표적 생성물(210)의 화학 구조를 문자열 형식으로 입력 받을 수 있다.Referring to FIG. 2 , the processor 110 may receive the chemical structure of the target product 210 in a string format.

문자열 형식의 표적 생성물(211)은 역합성 예측 모델(220)에 입력될 수 있다. 또한, 범주형 잠재 변수(230)가 역합성 예측 모델(220)에 입력될 수 있다.The target product 211 in the string format may be input to the inverse synthesis prediction model 220 . In addition, the categorical latent variable 230 may be input to the inverse synthesis prediction model 220 .

범주형 잠재 변수(230)는 직접 관찰되지는 않지만 후보 반응물 조합들(240)에 대한 정보에 영향을 미치는 변수를 의미할 수 있다. 일 실시예에서 범주형 잠재 변수(230)는 반응의 종류를 나타낼 수 있다. 반응의 종류는 분해(decomposition), 연소(combustion), 복분해(metathesis) 및 치환(displacement)과 같은 반응 형태, 촉매, 염기, 용매, 시약, 온도 및 반응 시간과 같은 실험 조건, 스즈키 미야우라(suzuki-miyaura)와 같은 반응 방식을 모두 포함하는 의미일 수 있다.The categorical latent variable 230 may refer to a variable that is not directly observed but affects information about the candidate reactant combinations 240 . In an embodiment, the categorical latent variable 230 may indicate a type of response. Types of reactions include reaction forms such as decomposition, combustion, metathesis and displacement, catalysts, bases, solvents, reagents, experimental conditions such as temperature and reaction time, suzuki Miyaura -miyaura) may mean including all of the reaction methods.

범주형 잠재 변수(230)는 복수의 클래스들(classes)을 포함할 수 있다. 복수의 클래스들은 반응의 종류에 대응하여 생성될 수 있다. 범주형 잠재 변수에 의하여 후보 반응물들 또는 후보 반응물 조합들의 군집(cluster)이 가변될 수 있다.The categorical latent variable 230 may include a plurality of classes. A plurality of classes may be generated corresponding to the type of reaction. A categorical latent variable may vary a cluster of candidate reactants or candidate reactant combinations.

역합성 예측 모델은 관측되지 않는 범주형 잠재 변수에 의존하는 확률 모델일 수 있다. 일 실시예에서 역합성 예측 모델은 후보 반응물들 또는 후보 반응물 조합들에 대한 정보가 범주형 잠재 변수에 따라 서로 다른 파라미터(예를 들어, 기대값, 분상 등)를 가지는 복수의 정규분포들로 이루어진 가우시안 혼합 모델일 수 있으나 이에 제한되지 않는다.The inverse synthesis predictive model may be a probabilistic model that depends on unobserved categorical latent variables. In an embodiment, the inverse synthesis prediction model is composed of a plurality of normal distributions in which information on candidate reactants or candidate reactant combinations has different parameters (eg, expected values, differential phases, etc.) according to categorical latent variables. It may be a Gaussian mixture model, but is not limited thereto.

프로세서(110)는 미리 학습된 역합성 예측 모델(220)을 이용하여, 표적 생성물(210)을 생성하기 위한 후보 반응물 조합들(240)을 출력할 수 있다. 후보 반응물 조합들(240)은 문자열 형식으로 출력될 수 있다. 다시 말해, 프로세서(110)는 문자열 형식의 표적 생성물(211) 및 범주형 잠재 변수(230)에 기초하여 문자열 형식의 후보 반응물 조합들(240)을 출력할 수 있다. 일 실시예에서, 프로세서(110)는 표적 생성물의 입력에 대한 클래스별 우도(likelihood) 및 역합성 예측 결과의 우도를 모두 최대화하는 후보 반응물 조합들(240)을 출력할 수 있으나 이에 제한되지 않는다.The processor 110 may output candidate reactant combinations 240 for generating the target product 210 by using the pre-trained inverse synthesis prediction model 220 . The candidate reactant combinations 240 may be output in a string format. In other words, the processor 110 may output the candidate reactant combinations 240 in the string format based on the target product 211 in the string format and the categorical latent variable 230 . In an embodiment, the processor 110 may output, but is not limited to, candidate reactant combinations 240 that maximize both the likelihood of each class for the input of the target product and the likelihood of the backward synthesis prediction result.

후보 반응물 조합들(240)은 표적 생성물(211)을 생성하기 위해 프로세서(110)가 예측한 반응물 조합들의 집합을 의미할 수 있다. 후보 반응물 조합에 포함된 후보 반응물은 복수 개일 수 있으나 이에 제한되지 않는다. 다시 말해, 후보 반응물 조합에는 하나의 후보 반응물만이 포함되는 것도 가능하다.The candidate reactant combinations 240 may refer to a set of reactant combinations predicted by the processor 110 to generate the target product 211 . The candidate reactants included in the candidate reactant combination may be plural, but is not limited thereto. In other words, it is possible that only one candidate reactant is included in the candidate reactant combination.

한편, 역합성 예측 모델(220)에는 범주형 잠재 변수(230)가 입력되므로 도 3에서와 같이 후보 반응물 조합들(240)의 다양성이 확보될 수 있다.Meanwhile, since the categorical latent variable 230 is input to the inverse synthesis prediction model 220 , diversity of candidate reactant combinations 240 can be secured as shown in FIG. 3 .

도 3을 참조하면, 프로세서(110)가 범주형 잠재 변수(230)에 포함된 클래스들 중 어느 하나를 이니셜 토큰(initial token)으로 설정하고, 설정된 이니셜 토큰에 기초하여 디코딩을 수행하는 경우, 하나의 표적 생성물(210)에 대하여 복수의 후보 반응물 조합들(220a, 220b, 220c)이 생성될 수 있다. 표적 생성물(210)의 입력에 따른 후보 반응물 조합들(220a, 220b, 220c)의 클래스별 조건부 확률에 따라 후보 반응물 조합들(220a, 220b, 220c)은 군집화(clustering)될 수 있다. 도 3은 클래스가 3개인 경우, 표적 생성물(210)의 입력에 따른 후보 반응물 조합들(220a, 220b, 220c)의 군집화 과정이 도시되어 있다.Referring to FIG. 3 , when the processor 110 sets any one of the classes included in the categorical latent variable 230 as an initial token, and performs decoding based on the set initial token, one A plurality of candidate reactant combinations 220a, 220b, 220c may be generated for the target product 210 of The candidate reactant combinations 220a , 220b , and 220c may be clustered according to the conditional probability for each class of the candidate reactant combinations 220a , 220b , 220c according to the input of the target product 210 . FIG. 3 illustrates a clustering process of candidate reactant combinations 220a , 220b , and 220c according to the input of the target product 210 when there are three classes.

프로세서(110)는 표적 생성물(211)의 입력에 따른 후보 반응물 조합들(240) 각각의 클래스별 우도(likelihood)를 계산할 수 있다. 또한, 프로세서(110)는 후보 반응물 조합들(240) 각각의 클래스별 우도에 기초하여 후보 반응물 조합들(240) 중에서 기 설정된 개수의 최종 후보 반응물 조합들을 선택할 수 있다. 실시예에 따라 프로세서(110)가 후보 반응물 조합들(240) 각각의 클래스별 로그 우도(log likelihood)를 계산하고, 클래스별 로그 우도에 기초하여 기 설정된 개수의 최종 후보 반응물 조합들을 선택하는 것도 가능하다. 최종 후보 반응물 조합들은 반응 예측 모델(250)에 입력되어 예측 생성물(260)의 예측에 이용될 수 있다.The processor 110 may calculate a likelihood for each class of the candidate reactant combinations 240 according to the input of the target product 211 . Also, the processor 110 may select a preset number of final candidate reactant combinations from among the candidate reactant combinations 240 based on the likelihood of each class of the candidate reactant combinations 240 . According to an embodiment, it is also possible for the processor 110 to calculate the log likelihood for each class of the candidate reactant combinations 240 and to select a preset number of final candidate reactant combinations based on the log likelihood for each class do. The final candidate reactant combinations may be input to the reaction prediction model 250 and used for prediction of the prediction product 260 .

다시 도 2를 참조하면, 후보 반응물 조합들(240)은, 반응 예측 모델(250)에 입력될 수 있다. 또한, 범주형 잠재 변수(230)는 반응 예측 모델(250)에도 입력될 수 있다.Referring back to FIG. 2 , candidate reactant combinations 240 may be input to the response prediction model 250 . In addition, the categorical latent variable 230 may also be input to the response prediction model 250 .

프로세서(110)는 미리 학습된 반응 예측 모델(250)을 이용하여, 후보 반응물 조합들(240) 각각에 대한 예측 생성물(260)을 출력할 수 있다. 예측 생성물(260)은 문자열 형식으로 출력될 수 있다. 다시 말해, 프로세서(110)는 문자열 형식의 후보 반응물 조합들(240) 및 범주형 잠재 변수(230)에 기초하여 문자열 형식의 예측 생성물(261)을 출력할 수 있다. 일 실시예에서, 프로세서(110)는 후보 반응물 조합들(240)의 입력에 대한 클래스별 우도(likelihood) 및 반응 예측 결과의 우도를 모두 최대화하는 예측 생성물(260)을 출력할 수 있으나 이에 제한되지 않는다.The processor 110 may output a prediction product 260 for each of the candidate reactant combinations 240 using the pre-trained response prediction model 250 . The prediction product 260 may be output in a string format. In other words, the processor 110 may output the prediction product 261 in the string form based on the candidate reactant combinations 240 in the string form and the categorical latent variable 230 . In one embodiment, the processor 110 may output a prediction product 260 that maximizes both the likelihood of each class for the input of the candidate reactant combinations 240 and the likelihood of the response prediction result, but is not limited thereto. does not

예측 생성물(260)은 후보 반응물 조합들(240)에 포함된 반응물들로부터 예측되는 생성물을 의미할 수 있다.The predicted product 260 may mean a product predicted from reactants included in the candidate reactant combinations 240 .

한편, 반응 예측 모델(250)에도 범주형 잠재 변수(230)가 입력되므로, 예측 생성물(260)의 다양성도 확보될 수 있다.On the other hand, since the categorical latent variable 230 is also input to the response prediction model 250 , the diversity of the prediction product 260 may also be secured.

프로세서(110)는 후보 반응물 조합들(240) 각각의 입력에 따른 예측 생성물(260)과 표적 생성물(210)을 비교할 수 있다. 또한, 프로세서(110)는 예측 생성물(260)과 표적 생성물(210)의 비교 결과에 기초하여 후보 반응물 조합들(240)의 실험 우선 순위를 결정할 수 있다.The processor 110 may compare the predicted product 260 and the target product 210 according to the input of each of the candidate reactant combinations 240 . In addition, the processor 110 may determine an experiment priority of the candidate reactant combinations 240 based on the comparison result between the predicted product 260 and the target product 210 .

프로세서(110)는 실험 우선 순위가 조정된, 재정렬된 후보 반응물 조합들(270)을 출력할 수 있다. 프로세서(110)는 구조식 형식의 재정렬된 후보 반응물 조합들(280)을 출력할 수 있다.The processor 110 may output the reordered candidate reactant combinations 270 with an adjusted trial priority. The processor 110 may output the rearranged candidate reactant combinations 280 in the form of a structural formula.

본 개시의 뉴럴 네트워크 장치(100)는 역합성 예측 모델(220)을 통해 도출된 후보 반응물 조합들(240)을 반응 예측 모델(250)을 통해 검증하므로, 구조식 문법에 어긋나는 후보 반응물 조합들(240)이 출력되는 경우 및 문자열 형식으로는 표적 생성물(210)을 합성할 수 없는 경우를 방지할 수 있다.Since the neural network apparatus 100 of the present disclosure verifies the candidate reactant combinations 240 derived through the inverse synthesis prediction model 220 through the reaction prediction model 250, the candidate reactant combinations 240 that are inconsistent with the structural grammar ) is output and the case where the target product 210 cannot be synthesized in a string format can be prevented.

도 4는 일 실시예에 따른 역합성 예측 모델 및 반응 예측 모델에서 수행되는 연산을 설명하기 위한 도면이다.4 is a diagram for explaining operations performed in the inverse synthesis prediction model and the reaction prediction model according to an embodiment.

도 4를 참조하면, 프로세서(110)는 표적 생성물(210)에 대한 정보를 입력 받을 수 있다. 표적 생성물(210)에 대한 정보는 문자열 형식으로 표현될 수 있다. 문자열 형식의 표적 생성물(210)은 역합성 예측 모델(220)에 입력될 수 있다.Referring to FIG. 4 , the processor 110 may receive information on the target product 210 . Information on the target product 210 may be expressed in a string format. The target product 210 in a string format may be input to the inverse synthesis prediction model 220 .

프로세서(110)는 표적 생성물(210)에 대한 정보에 기초하여 범주형 잠재 변수(230)를 예측할 수 있다. 범주형 잠재 변수(230)는 직접 관찰되지는 않지만 후보 반응물 조합들(240)에 대한 정보에 영향을 미치는 변수를 의미하며 복수의 클래스들을 포함할 수 있다.The processor 110 may predict the categorical latent variable 230 based on information about the target product 210 . The categorical latent variable 230 refers to a variable that is not directly observed but affects information about the candidate reactant combinations 240 , and may include a plurality of classes.

프로세서(110)는 표적 생성물(210)에 대한 정보 및 범주형 잠재 변수(230)에 기초하여 역합성 예측 모델(220)을 구동시킴으로써, 표적 생성물(210)을 생성하기 위한 후보 반응물 조합들(240)을 예측할 수 있다.The processor 110 drives the retrosynthesis prediction model 220 based on the information about the target product 210 and the categorical latent variable 230 , thereby generating candidate reactant combinations 240 for generating the target product 210 . ) can be predicted.

역합성 예측 모델(220)은 워드 임베딩부(411), 포지션 인코딩부(412a, 412b, 412c, 412d, 이하 구분의 필요가 없는 경우, 412라고 함), 역합성 인코더부(413), 역합성 디코더부(414) 및 워드 제너레이터부(415)를 포함할 수 있다. 도 4에서 워드 임베딩부(411), 포지션 인코딩부(412), 역합성 인코더부(413), 역합성 디코더부(414) 및 워드 제너레이터부(415)는 역합성 예측 모델(220)에 포함된 어느 하나의 부(unti)로 도시되어 있으나, 워드 임베딩부(411), 포지션 인코딩부(412), 역합성 인코더부(413), 역합성 디코더부(414) 및 워드 제너레이터부(415)는 역합성 예측 모델(220)에 포함된 계층(layer)을 의미할 수도 있다.The desynthesis prediction model 220 includes a word embedding unit 411, a position encoding unit 412a, 412b, 412c, 412d, hereinafter referred to as 412 when there is no need to distinguish), a desynthesis encoder unit 413, and inverse synthesis. It may include a decoder unit 414 and a word generator unit 415 . In FIG. 4 , the word embedding unit 411 , the position encoding unit 412 , the desynthesis encoder unit 413 , the desynthesis decoder unit 414 , and the word generator unit 415 are included in the desynthesis prediction model 220 . Although shown as one unit (unti), the word embedding unit 411, the position encoding unit 412, the desynthesis encoder unit 413, the desynthesis decoder unit 414, and the word generator unit 415 are reversed. It may refer to a layer included in the synthetic prediction model 220 .

워드 임베딩부(411)는 입력 데이터를 문자 단위로 임베딩할 수 있다. 워드 임베딩부(411)는 문자열 형식의 표적 생성물(210)을 기설정된 차원의 벡터에 맵핑할 수 있다. 또한, 워드 임베딩부(411) 범주형 잠재 변수(230)를 기 설정된 차원의 벡터에 맵핑할 수 있다. The word embedding unit 411 may embed input data in character units. The word embedding unit 411 may map the target product 210 in a string format to a vector having a predetermined dimension. In addition, the word embedding unit 411 may map the categorical latent variable 230 to a vector of a preset dimension.

포지션 인코딩부(412)는 입력 데이터에 포함된 각각의 문자의 위치를 식별하기 위하여 위치 인코딩(positional encoding)을 수행할 수 있다. 일 실시예에서, 포지션 인코딩부(412)는 상이한 주파수의 정현파를 이용하여 입력 데이터를 인코딩할 수 있다.The positional encoding unit 412 may perform positional encoding to identify the position of each character included in the input data. In an embodiment, the position encoding unit 412 may encode input data using sinusoids of different frequencies.

제1 포지션 인코딩부(412a)는 문자열 형식의 표적 생성물(210)을 위치 인코딩할 수 있다. 제1 포지션 인코딩부(412a)는 임베딩된 입력 데이터에 위치 정보를 결합하여, 역합성 인코더부(413)에 제공할 수 있다.The first position encoding unit 412a may position-encode the target product 210 in a character string format. The first position encoder 412a may combine the position information with the embedded input data and provide it to the desynthesis encoder 413 .

제2 포지션 인코딩부(412b)는 범주형 잠재 변수(230)를 이니셜 토큰(initial token)으로 위치 인코딩 할 수 있다. 제2 포지션 인코딩부(412b)는 임베딩된 입력 데이터에 위치 정보를 결합하여, 역합성 인코더부(413)에 제공할 수 있다.The second position encoding unit 412b may position-encode the categorical latent variable 230 into an initial token. The second position encoder 412b may combine the position information with the embedded input data and provide it to the desynthesis encoder 413 .

역합성 인코더부(413)는 셀프 어텐션(self-attention) 서브 계층 및 피드-포워드(feed-forwad) 서브 계층을 포함할 수 있다. 설명의 편의를 위해 도 4에서는 역합성 인코더부(413)가 하나로 표시되나, 역합성 인코더부(413)는 N개의 인코더들이 적층된 형태로 구성될 수 있다.The inverse synthesis encoder unit 413 may include a self-attention sub-layer and a feed-forward sub-layer. For convenience of explanation, one inverse synthesis encoder unit 413 is shown in FIG. 4 , but the inverse synthesis encoder unit 413 may be configured in a stacked form of N encoders.

역합성 인코더부(413)는 셀프 어텐션 서브 계층을 통하여 표적 생성물(210)의 입력 시퀀스 중에서 주목(attention)해야할 정보를 특정할 수 있다. 특정된 정보는 피드-포워드(feed-forward) 서브 계층에 전달될 수 있다. 피드-포워드(feed-forward) 서브 계층은 피드-포워드 신경망을 포함하고, 피드-포워드 신경망에 의하여 입력 시퀀스의 변환 시퀀스가 출력될 수 있다. 변환 시퀀스는 역합성 인코더부(413)의 인코더 출력으로써 역합성 디코더부(414)에 제공될 수 있다.The desynthesis encoder unit 413 may specify information to be paid attention to among the input sequence of the target product 210 through the self-attention sub-layer. The specified information may be delivered to a feed-forward sub-layer. The feed-forward sub-layer includes a feed-forward neural network, and a transform sequence of an input sequence may be output by the feed-forward neural network. The transform sequence may be provided to the inverse synthesis decoder unit 414 as an encoder output of the inverse synthesis encoder unit 413 .

역합성 인코더부(413)와 마찬가지로 설명의 편의를 위해 도 4에서는 역합성 디코더부(414)가 하나로 표시되나, 역합성 디코더부(414)는 N개의 디코더들이 적층된 형태로 구성될 수 있다.Like the desynthesis encoder unit 413, one desynthesis decoder unit 414 is shown in FIG. 4 for convenience of explanation, but the desynthesis decoder unit 414 may be configured in a stacked form of N decoders.

역합성 디코더부(414)는 셀프 어텐션 서브 계층, 인코더-디코더 어텐션 서브 계층 및 피드-포워드 서브 계층을 포함할 수 있다. 인코더-디코더 어텐션 서브 계층은 쿼리가 디코더의 벡터이고, 키(key)와 밸류(Value)가 인코더의 벡터라는 점에서 셀프 어텐션 서브 계층과는 차이가 있다.The desynthesis decoder unit 414 may include a self-attention sub-layer, an encoder-decoder attention sub-layer, and a feed-forward sub-layer. The encoder-decoder attention sublayer is different from the self-attention sublayer in that a query is a vector of the decoder, and a key and a value are vectors of the encoder.

한편, 잔여 연결(residual connection) 서브 계층 및 정규화(normalization) 서브 계층은 모든 하위 계층들에 개별적으로 적용되고, 현재 출력 위치가 다음 출력 위치에 대한 정보로 사용되지 않도록 셀프 어텐션 서브 계층에는 마스킹(masking)이 적용될 수 있다. 또한, 디코더 출력은 선형 변환되거나 소프트 맥스(softmax) 함수가 적용될 수도 있다.Meanwhile, the residual connection sub-layer and the normalization sub-layer are individually applied to all lower layers, and the self-attention sub-layer is masked so that the current output position is not used as information about the next output position. ) can be applied. Also, the decoder output may be linearly transformed or a softmax function may be applied.

역합성 디코더부(414)는 빔 검색 절차(beam search procedure)를 사용하여 범주형 잠재 변수(230)의 입력 시퀀스 및 표적 생성물(210)의 입력 시퀀스에 대응되는 출력 시퀀스를 출력할 수 있다. 출력 시퀀스는 워드 제너레이터부(415)에 의하여 문자열 형식으로 변환되어 출력될 수 있다. 이에 따라 역합성 예측 모델(220)은 표적 생성물(210)의 입력에 대응하는 문자열 형식의 후보 반응물 조합들(240)을 출력할 수 있다. 또한, 범주형 잠재 변수(230)는 반응 예측 모델(250)에 공유되어 예측 생성물의 연산 시 사용될 수 있다.The desynthesis decoder unit 414 may output an output sequence corresponding to the input sequence of the categorical latent variable 230 and the input sequence of the target product 210 using a beam search procedure. The output sequence may be converted into a string format by the word generator unit 415 and output. Accordingly, the inverse synthesis prediction model 220 may output candidate reactant combinations 240 in a string format corresponding to the input of the target product 210 . In addition, the categorical latent variable 230 may be shared with the response prediction model 250 and used in the calculation of a prediction product.

프로세서(110)는 후보 반응물 조합들(240)에 대한 정보 및 범주형 잠재 변수(230)에 기초하여 반응 예측 모델(250)을 구동시킴으로써, 후보 반응물 조합들(240) 각각에 대한 예측 생성물(260)을 예측할 수 있다.The processor 110 drives the response prediction model 250 based on the categorical latent variable 230 and the information about the candidate reactant combinations 240 , thereby generating a prediction product 260 for each of the candidate reactant combinations 240 . ) can be predicted.

반응 예측 모델(250)은 워드 임베딩부(411), 포지션 인코딩부(412), 반응 예측 인코더부(413), 반응 예측 디코더부(416) 및 워드 제너레이터부(415)를 포함할 수 있다. 후술하는 바와 같이, 역합성 예측 모델(220)과 반응 예측 모델(250)은 인코더부를 공유하므로, 역합성 인코더부(413) 및 반응 예측 인코더부(413)는 공유된 인코더부(413)라고 명명할 수 있다. 또한, 도 4에서 워드 임베딩부(411), 포지션 인코딩부(412), 반응 예측 인코더부(413), 반응 예측 디코더부(416) 및 워드 제너레이터부(415)는 반응 예측 모델(250)에 포함된 어느 하나의 부(unti)로 도시되어 있으나, 워드 임베딩부(411), 포지션 인코딩부(412), 반응 예측 인코더부(413), 반응 예측 디코더부(416) 및 워드 제너레이터부(415)는 반응 예측 모델(250)에 포함된 계층(layer)을 의미할 수도 있다.The reaction prediction model 250 may include a word embedding unit 411 , a position encoding unit 412 , a reaction prediction encoder unit 413 , a reaction prediction decoder unit 416 , and a word generator unit 415 . As will be described later, since the inverse synthesis prediction model 220 and the reaction prediction model 250 share an encoder unit, the inverse synthesis encoder unit 413 and the reaction prediction encoder unit 413 are called a shared encoder unit 413 . can do. In addition, in FIG. 4 , the word embedding unit 411 , the position encoding unit 412 , the reaction prediction encoder unit 413 , the reaction prediction decoder unit 416 , and the word generator unit 415 are included in the reaction prediction model 250 . Although shown as a single unit (unti), the word embedding unit 411, the position encoding unit 412, the reactive prediction encoder unit 413, the reactive prediction decoder unit 416 and the word generator unit 415 are It may also mean a layer included in the response prediction model 250 .

반응 예측 모델(250)의 연산 방법과 역합성 예측 모델(220)의 연산 방법은 입력 시퀀스의 종류 및 출력 시퀀스의 종류를 제외하고는 서로 유사할 수 있다. 다시 말해, 워드 임베딩부(411)는 후보 반응물 조합들(240) 및 범주형 잠재 변수(230)를 입력 데이터로써 입력 받고, 입력 데이터를 문자 단위로 임베딩할 수 있다. 또한, 제3 포지션 인코딩부(412c)는 임베딩된 입력 데이터에 위치 정보를 결합하여 반응 예측 인코더부(413)에 제공하고 제4 포지션 인코딩부(412d)는 범주형 잠재 변수(230)를 이니셜 토큰으로 위치 인코딩하여 반응 예측 인코더부(413)에 제공할 수 있다.The calculation method of the reaction prediction model 250 and the calculation method of the inverse synthesis prediction model 220 may be similar to each other except for the type of the input sequence and the type of the output sequence. In other words, the word embedding unit 411 may receive the candidate reactant combinations 240 and the categorical latent variable 230 as input data, and embed the input data in character units. In addition, the third position encoding unit 412c combines the position information with the embedded input data and provides it to the response prediction encoder 413, and the fourth position encoding unit 412d provides the categorical latent variable 230 as an initial token. It may be provided to the response prediction encoder unit 413 by position-encoding as .

반응 예측 인코더부(413)는 셀프 어텐션 서브 계층을 통하여 후보 반응물 조합들(240)의 입력 시퀀스 중에서 주목해야할 정보를 특정하여 피드-포워드 서브 계층에 전달하고, 피드-포워드 서브 계층은 피드-포워드 신경망을 이용하여 변환 시퀀스를 출력할 수 있다.The response prediction encoder unit 413 specifies information to be noted from among the input sequences of candidate reactant combinations 240 through the self-attention sub-layer and delivers it to the feed-forward sub-layer, and the feed-forward sub-layer is a feed-forward neural network can be used to output a transform sequence.

반응 예측 디코더부(416)는 셀프 어텐션 서브 계층, 인코더-디코더 어텐션 서브 계층 및 피드-포워드 서브 계층을 포함할 수 있다. 또한, 잔여 연결(residual connection) 서브 계층 및 정규화(normalization) 서브 계층은 모든 하위 계층들에 개별적으로 적용되고, 현재 출력 위치가 다음 출력 위치에 대한 정보로 사용되지 않도록 셀프 어텐션 서브 계층에는 마스킹(masking)이 적용될 수 있다. 또한, 디코더 출력은 선형 변환되거나 소프트 맥스(softmax) 함수가 적용될 수도 있다.The response prediction decoder unit 416 may include a self-attention sub-layer, an encoder-decoder attention sub-layer, and a feed-forward sub-layer. In addition, the residual connection sublayer and the normalization sublayer are individually applied to all lower layers, and the self-attention sublayer is masked so that the current output position is not used as information about the next output position. ) can be applied. Also, the decoder output may be linearly transformed or a softmax function may be applied.

반응 예측 디코더부(416)는 빔 검색 절차를 사용하여 범주형 잠재 변수(230)의 입력 시퀀스 및 후보 반응물 조합들(240)의 입력 시퀀스에 대응되는 출력 시퀀스를 출력할 수 있다. 출력 시퀀스는 워드 제너레이터부(415)에 의하여 문자열 형식으로 변환되어 출력될 수 있다. 이에 따라 반응 예측 모델(250)은 후보 반응물 조합들(240)의 입력에 대응하는 문자열 형식의 예측 생성물(261)을 출력할 수 있다.The response prediction decoder unit 416 may output an output sequence corresponding to the input sequence of the categorical latent variable 230 and the input sequence of the candidate reactant combinations 240 using a beam search procedure. The output sequence may be converted into a string format by the word generator unit 415 and output. Accordingly, the reaction prediction model 250 may output the prediction product 261 in the form of a string corresponding to the input of the candidate reactant combinations 240 .

프로세서(110)는 문자열 형식의 표적 생성물(211)과 문자열 형식의 예측 생성물(261)을 비교하고, 비교 결과에 기초하여 후보 반응물 조합들(240)의 실험 우선 순위를 결정할 수 있다. 프로세서(110)는 문자열 형식의 표적 생성물(211)과 문자열 형식의 예측 생성물(261)의 일치 여부에 기초하여 후보 반응물 조합들(240)의 실험 우선 순위를 결정하고, 결정된 실험 우선 순위에 기초하여 재정렬된 후보 반응물 조합들(270)을 출력할 수 있다.The processor 110 may compare the target product 211 in the character string format with the prediction product 261 in the character string format, and may determine an experiment priority of the candidate reactant combinations 240 based on the comparison result. The processor 110 determines the experiment priority of the candidate reactant combinations 240 based on whether the target product 211 in the string format matches the predicted product 261 in the string format, and based on the determined experiment priority Reordered candidate reactant combinations 270 may be output.

한편, 도 4에서 소스 언어(source language)와 대상 언어(target language)는 문자열 형식(예를 들어, SMILES)으로 동일하므로 역합성 예측 모델(220)과 반응 예측 모델(250)은 워드 임베딩부(411), 워드 제너레이터부(415) 및 인코더부를 공유할 수 있다. 또한, 역합성 예측 모델(220)과 반응 예측 모델(250)은 범주형 잠재 변수(230)와 같은 파라미터를 공유하므로 모델 복잡성(model complexity)이 감소되고, 모델의 정규화(regularize)가 용이하다.Meanwhile, in FIG. 4 , since the source language and the target language are the same in a string format (eg, SMILES), the inverse synthesis prediction model 220 and the reaction prediction model 250 are formed by a word embedding unit ( 411), the word generator unit 415 and the encoder unit may be shared. In addition, since the inverse synthesis prediction model 220 and the response prediction model 250 share the same parameters as the categorical latent variable 230 , model complexity is reduced, and regularization of the model is easy.

도 5는 일 실시예에 따른 역합성 예측 모델 및 반응 예측 모델에서 수행되는 연산을 설명하기 위한 도면이다.5 is a diagram for explaining operations performed in the inverse synthesis prediction model and the reaction prediction model according to an embodiment.

도 4와의 차이점은 반응 방식이 범주형 잠재 변수의 입력 값으로 제공된다는 점이다. 도 5에서 도 4와 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대한 중복된 설명은 생략한다.The difference from FIG. 4 is that the response mode is provided as an input value of a categorical latent variable. In FIG. 5 , the same reference numerals are used for the same components as those of FIG. 4 , and duplicate descriptions of the same components are omitted.

도 5를 참조하면, 뉴럴 네트워크 장치(100)는 반응 방식 예측 모델(417)을 더 포함할 수 있다. 도 5에서는 반응 방식 예측 모델(417)이 역합성 예측 모델(310)의 일부 구성으로 도시되어 있으나, 실시예에 따라, 반응 방식 예측 모델(417)은 역합성 예측 모델(310)과는 구분되는 별도 구성일 수도 있다.Referring to FIG. 5 , the neural network apparatus 100 may further include a response method prediction model 417 . In FIG. 5 , the reaction method prediction model 417 is shown as a part of the retrosynthesis prediction model 310 , but according to an embodiment, the reaction method prediction model 417 is distinguished from the retrosynthesis prediction model 310 . It may be a separate configuration.

반응 방식 예측 모델(417)은 인코딩된 표적 생성물(210)에 대한 정보에 기초하여 반응 방식을 예측할 수 있다. 일 실시예에서, 반응 방식 예측 모델(417)은 표적 생성물(210)의 인코딩된 표현으로부터 표적 생성물(210)의 물성 정보, 표현자 정보 및 구조 정보 중 적어도 어느 하나를 획득할 수 있다. 또한, 반응 방식 예측 모델(417)은 표적 생성물(210)의 물성 정보, 표현자 정보 및 구조 정보 중 적어도 어느 하나에 기초하여 표적 생성물(210)을 생성하기 위한 반응 방식들(510)을 예측할 수 있다.The reaction mode prediction model 417 may predict a reaction mode based on information about the encoded target product 210 . In an embodiment, the reaction mode prediction model 417 may obtain at least one of physical property information, presenter information, and structure information of the target product 210 from the encoded representation of the target product 210 . In addition, the reaction method prediction model 417 may predict the reaction methods 510 for generating the target product 210 based on at least one of physical property information, presenter information, and structure information of the target product 210 . have.

프로세서(110)는 예측된 반응 방식들(510) 중 어느 하나의 기대 반응 방식(511)을 입력 받을 수 있다. 기대 반응 방식(511)은 사용자 인터페이스(130)를 통한 사용자 입력에 의해 프로세서(110)에 입력될 수 있다. 기대 반응 방식(511)은 범주형 잠재 변수(230) 내의 입력 값으로 활용될 수 있다.The processor 110 may receive an expected response scheme 511 of any one of the predicted response schemes 510 . The expected response method 511 may be input to the processor 110 by a user input through the user interface 130 . The expected response method 511 may be utilized as an input value in the categorical latent variable 230 .

프로세서(110)는 인코딩된 표적 생성물(210) 및 기대 반응 방식(511)을 디코딩하여 기대 반응 방식(511)에 대응하는 후보 반응물 조합들(240)을 출력할 수 있다. 예를 들어, 기대 반응 방식(511)이 스즈키 미야우라(suzuki-miyaura) 방식인 경우, 프로세서(110)는 스즈키 미야우라(suzuki-miyaura) 방식으로 표적 생성물(210)을 생성할 수 있는 후보 반응물 조합들(240)을 출력할 수 있다.The processor 110 may decode the encoded target product 210 and the expected response scheme 511 to output candidate reactant combinations 240 corresponding to the expected response scheme 511 . For example, if the expected reaction scheme 511 is a Suzuki-miyaura scheme, the processor 110 may generate a target product 210 in a suzuki-miyaura scheme. Candidate reactants Combinations 240 may be output.

기대 반응 방식(511)이 범주형 잠재 변수(230)의 입력 값으로 제공됨에 따라, 시약 사용이 제한된 환경에서도 최적의 후보 반응물 조합들(240)이 출력될 수 있다.As the expected reaction scheme 511 is provided as an input value of the categorical latent variable 230 , optimal candidate reactant combinations 240 may be output even in an environment in which reagent use is limited.

도 6은 일 실시예에 따른 역합성 예측 모델 및 반응 예측 모델에서 수행되는 연산을 설명하기 위한 도면이다.6 is a diagram for explaining operations performed in the inverse synthesis prediction model and the reaction prediction model according to an embodiment.

도 5와의 차이점은 실험 조건에 따른 수율이 범주형 잠재 변수(230)를 학습할 때 활용된다는 점이다. 마찬가지로 도 6에서 도 5와 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대한 중복된 설명은 생략한다.The difference from FIG. 5 is that the yield according to the experimental conditions is utilized when learning the categorical latent variable 230 . Similarly, in FIG. 6, the same reference numerals are used for the same components as those of FIG. 5, and duplicate descriptions of the same components are omitted.

도 6을 참조하면, 뉴럴 네트워크 장치(100)는 수율 예측 모델(610)을 더 포함할 수 있다. 도 6에서는 수율 예측 모델(610)이 역합성 예측 모델(310)과 구별되는 구성으로 도시되어 있으나, 실시예에 따라, 수율 예측 모델(610)은 역합성 예측 모델(310)의 일부 구성일 수도 있다.Referring to FIG. 6 , the neural network apparatus 100 may further include a yield prediction model 610 . In FIG. 6 , the yield prediction model 610 is shown in a configuration distinct from the inverse synthesis prediction model 310 , but according to an embodiment, the yield prediction model 610 may be a part of the inverse synthesis prediction model 310 . have.

수율 예측 모델(610)은 트랜스포머 모델로 구현될 수 있다. 수율 예측 모델(610)은 테스트 데이터 세트(test data set)에 의해 학습(trained)되며, 실험 조건에 따른 표적 생성물(210)의 예측 수율을 출력할 수 있다.The yield prediction model 610 may be implemented as a transformer model. The yield prediction model 610 may be trained by a test data set, and may output a predicted yield of the target product 210 according to experimental conditions.

수율 예측 모델(610)은 워드 임베딩부(411), 제5 포지션 인코딩부(412e), 수율 예측 인코더부(413), 수율 예측부(611) 및 실험 조건 예측부(612)를 포함할 수 있다. 수율 예측 모델(610)은 워드 임베딩부(411)를 역합성 예측 모델(220) 및 반응 예측 모델(250)과 공유할 수 있다. 또한, 수율 예측 모델(610)은 인코더부를 역합성 예측 모델(220) 및 반응 예측 모델(250)과 공유할 수 있다. 수율 예측부(611) 및 실험 조건 예측부(612)는 역합성 예측 모델(220) 및 반응 예측 모델(250)에 포함된 디코더부와 동일한 기능을 수행할 수 있다.The yield prediction model 610 may include a word embedding unit 411, a fifth position encoding unit 412e, a yield prediction encoder unit 413, a yield prediction unit 611, and an experimental condition prediction unit 612. . The yield prediction model 610 may share the word embedding unit 411 with the inverse synthesis prediction model 220 and the reaction prediction model 250 . Also, the yield prediction model 610 may share an encoder unit with the inverse synthesis prediction model 220 and the response prediction model 250 . The yield prediction unit 611 and the experimental condition prediction unit 612 may perform the same functions as the decoder unit included in the inverse synthesis prediction model 220 and the reaction prediction model 250 .

실험 조건 예측부(612)는 표적 생성물(210)을 생성하기 위한 재정렬된 후보 반응물 조합들(270)의 실험 조건들을 예측할 수 있다. 또한, 수율 예측부(611)는 실험 조건 예측부(612)가 예측한 실험 조건으로 실험을 수행하는 경우, 표적 생성물(210)의 예측 수율을 예측할 수 있다.The experimental condition predictor 612 may predict the experimental conditions of the rearranged candidate reactant combinations 270 for generating the target product 210 . Also, the yield prediction unit 611 may predict the predicted yield of the target product 210 when the experiment is performed under the experimental conditions predicted by the experimental condition prediction unit 612 .

수율 예측부(611)가 예측한, 표적 생성물(210)의 예측 수율은 범주형 잠재 변수(230)를 학습할 때 활용될 수 있다. 프로세서(110)는 표적 생성물(2100)의 예측 수율을 소정의 표시 수단을 통해 출력할 수 있다. 이에 따라, 사용자는 예측 수율을 고려하여 최적의 후보 반응물 조합들(240)을 선택할 수 있다.The predicted yield of the target product 210 predicted by the yield prediction unit 611 may be utilized when learning the categorical latent variable 230 . The processor 110 may output the predicted yield of the target product 2100 through a predetermined display means. Accordingly, the user may select the optimal candidate reactant combinations 240 in consideration of the predicted yield.

도 7은 일 실시예에 따른 뉴럴 네트워크 장치의 동작 방법을 설명하기 위한 순서도이다.7 is a flowchart illustrating a method of operating a neural network device according to an embodiment.

도면을 참조하면, S710단계에서, 프로세서(110)는 미리 학습된 역합성 예측 모델(310)을 이용하여 표적 생성물(210)을 생성하기 위한 후보 반응물 조합들(240)을 예측할 수 있다.Referring to the drawing, in step S710 , the processor 110 may predict candidate reactant combinations 240 for generating the target product 210 using the pre-trained inverse synthesis prediction model 310 .

프로세서(110)는 표적 생성물(210)에 대한 정보가 입력되는 경우, 표적 생성물(210)에 대한 정보에 기초하여 복수의 클래스들을 포함하는 범주형 잠재 변수(230)를 예측할 수 있다. 또한, 프로세서(110)는 범주형 잠재 변수(230)에 기초하여 후보 반응물 조합들(240)을 자동 회귀적(autoregressively)으로 예측할 수 있다.When information on the target product 210 is input, the processor 110 may predict the categorical latent variable 230 including a plurality of classes based on the information on the target product 210 . In addition, the processor 110 may autoregressively predict the candidate reactant combinations 240 based on the categorical latent variable 230 .

표적 생성물(210)에 대한 정보가 x이고, 범주형 잠재 변수(230)가 z이고, 후보 반응물 조합들(240)이 y인 경우, 표적 생성물(210)의 입력에 따른 범주형 잠재 변수(230) 및 후보 반응물 조합들(240)은 우도 P(z,y|x)에 의해 예측될 수 있다. 프로세서(110)는 우도 P(z,y|x)의 값에 기초하여 범주형 잠재 변수(230) 및 후보 반응물 조합들(240)을 예측할 수 있다.If the information about the target product 210 is x, the categorical latent variable 230 is z, and the candidate reactant combinations 240 are y, then the categorical latent variable 230 according to the input of the target product 210 is y. ) and candidate reactant combinations 240 may be predicted by the likelihood P(z,y|x). The processor 110 may predict the categorical latent variable 230 and the candidate reactant combinations 240 based on the value of the likelihood P(z,y|x).

S720 단계에서, 프로세서(110)는 미리 학습된 반응 예측 모델(250)을 이용하여 후보 반응물 조합들(240) 각각에 대한 예측 생성물(260)을 예측할 수 있다.In operation S720 , the processor 110 may predict the prediction product 260 for each of the candidate reactant combinations 240 using the pre-trained response prediction model 250 .

프로세서(110)는 범주형 잠재 변수(230) 및 후보 반응물 조합들(240)에 기초하여 예측 생성물(260)에 대한 정보를 획득할 수 있다. The processor 110 may obtain information about the predicted product 260 based on the categorical latent variable 230 and the candidate reactant combinations 240 .

S730 단계에서, 프로세서(110)는 표적 생성물(210)과 예측 생성물(260)의 비교 결과에 기초하여 후보 반응물 조합들(240)의 실험 우선 순위를 결정할 수 있다.In operation S730 , the processor 110 may determine an experiment priority of the candidate reactant combinations 240 based on the comparison result between the target product 210 and the predicted product 260 .

프로세서(110)는 표적 생성물(210)과 예측 생성물(260)의 일치 여부에 기초하여 후보 반응물 조합들(240)의 실험 우선 순위를 결정할 수 있다.The processor 110 may determine an experiment priority of the candidate reactant combinations 240 based on whether the target product 210 and the predicted product 260 match.

예측 생성물(260)이

Figure pat00001
인 경우, 범주형 잠재 변수(230) 및 후보 반응물 조합들(240)의 입력에 따른 표적 생성물(210)과 예측 생성물(260)의 일치 확률은 우도 P(
Figure pat00002
=x|z,y)에 의해 결정될 수 있다. 프로세서(110)는 우도 P(
Figure pat00003
=x|z,y)·P(z,y|x)의 값이 큰 순서대로 후보 반응물 조합들(240)의 실험 우선 순위를 결정할 수 있다.The prediction product 260 is
Figure pat00001
If , the probability of matching the target product 210 and the predicted product 260 according to the input of the categorical latent variable 230 and the candidate reactant combinations 240 is the likelihood P(
Figure pat00002
=x|z,y). The processor 110 determines the likelihood P(
Figure pat00003
=x|z,y)·P(z,y|x) may determine the experimental priority of the candidate reactant combinations 240 in the order of the largest values.

도 8은 일 실시예에 따른 역합성 예측 모델 및 반응 예측 모델의 학습 방법을 설명하기 위한 순서도이다.8 is a flowchart illustrating a method of learning a reverse synthesis prediction model and a reaction prediction model according to an embodiment.

도 8을 참조하면, S810 단계에서, 프로세서(110)는 테스트 반응물 조합들 및 테스트 반응물 조합들 각각에 대응하는 테스트 생성물들을 입력 받을 수 있다.Referring to FIG. 8 , in step S810 , the processor 110 may receive test reactant combinations and test products corresponding to each of the test reactant combinations.

실시예에 따라, 프로세서(110)는 실험 조건에 따른 테스트 생성물들의 예측 수율 및 테스트 반응물 조합들 각각의 반응 방식들을 추가로 입력 받을 수도 있다.According to an embodiment, the processor 110 may additionally receive the predicted yield of the test products according to the experimental condition and the reaction method of each of the test reactant combinations.

S820 단계에서, 프로세서(110)는 테스트 반응물 조합들 및 테스트 생성물들에 기초하여 복수의 클래스들을 포함하는 범주형 잠재 변수(230)를 학습할 수 있다.In step S820 , the processor 110 may learn the categorical latent variable 230 including a plurality of classes based on test reactant combinations and test products.

실시예에 따라, 프로세서(110)는 미리 학습된 수율 예측 모델에 의해 제공된 예측 수율에 더 기초하여 범주형 잠재 변수(230)를 학습할 수도 있다.According to an embodiment, the processor 110 may learn the categorical latent variable 230 further based on the predicted yield provided by the pre-trained yield prediction model.

프로세서(110)는 테스트 생성물들 각각의 입력에 대한 범주형 잠재 변수(230)의 조건부 확률 분포를 학습할 수 있다.The processor 110 may learn the conditional probability distribution of the categorical latent variable 230 for each input of the test products.

일 실시예에서, 테스트 생성물들에 대한 정보가 xts이고, 테스트 반응물들에 대한 정보가 yts인 경우, 프로세서(110)는 다음의 수학식 1과 같이, 역합성 예측 모델(220)의 우도 P(z,yts|xts) 및 반응 예측 모델(250)의 우도 P(xts|yts,z)의 교차 엔트로피 손실(cross-entropy loss)이 최소가 되도록 범주형 잠재 변수(230)를 설정할 수 있다. In an embodiment, when the information on the test products is x ts and the information on the test reactants is y ts , the processor 110 calculates the likelihood of the inverse synthesis prediction model 220 as in Equation 1 below. Categorical latent variable 230 such that the cross-entropy loss of P(z,y ts |x ts ) and the likelihood P(x ts |y ts ,z) of the response prediction model 250 is minimized can be set.

Figure pat00004
Figure pat00004

예를 들어, 프로세서(110)는 기대값 최대화 알고리즘(Expectation-Maximization algorithm: hard EM)을 이용하여 범주형 잠재 변수(230)를 학습할 수 있다.For example, the processor 110 may learn the categorical latent variable 230 using an Expectation-Maximization algorithm (hard EM).

프로세서(110)는 현재 모델의 모수(parameter)가

Figure pat00005
인 경우 다음의 수학식 2와 같이, 교차 엔트로피 손실(L)을 최소화하는 범주형 잠재 변수(230)를 추정하는 단계 및 다음의 수학식 3과 같이, 입력되는 변수들에 대응하여 모수를 업데이트하는 단계를 반복적으로 수행할 수 있다. 프로세서(110)가 모델을 반복적으로 업데이트함에 따라 최적의 범주형 잠재 변수(230)가 도출될 수 있다.The processor 110 determines that the parameters of the current model are
Figure pat00005
In the case of estimating the categorical latent variable 230 that minimizes the cross entropy loss (L) as shown in Equation 2 below, and as shown in Equation 3 below, updating the parameter in response to the input variables as shown in Equation 3 below. The steps can be performed repeatedly. As the processor 110 iteratively updates the model, an optimal categorical latent variable 230 may be derived.

Figure pat00006
Figure pat00006

Figure pat00007
Figure pat00007

한편, 수학식 2 및 3에서 Lh는 프로세서(110)가 경성(hard) 기대값 최대화 알고리즘을 사용하였음을 의미하여, 수학식 3에서

Figure pat00008
는 업데이트된 모수를 의미한다.Meanwhile, in Equations 2 and 3, L h means that the processor 110 used a hard expected value maximization algorithm, and in Equation 3
Figure pat00008
is the updated parameter.

도 9는 일 실시예에 따른 역합성 예측 모델의 동작 방법을 설명하기 위한 순서도이다.9 is a flowchart illustrating a method of operating an inverse synthesis prediction model according to an embodiment.

도 9를 참조하면, S910 단계에서, 프로세서(110)는 표적 생성물(210)에 대한 정보를 입력 받을 수 있다.Referring to FIG. 9 , in step S910 , the processor 110 may receive information on the target product 210 .

프로세서(110)는 표적 생성물(210)의 화학 구조를 문자열 형식으로 입력 받을 수 있다. 예를 들어, 프로세서(110)는 SMILES(Simplified Molecular-Input Line-Entry System) 코드, SMARTS(Smiles Arbitrary Target Specification) 코드 또는 InChi(International Chemical Identifier) 코드 형식으로 표적 생성물(210)의 화학 구조를 입력 받을 수 있다.The processor 110 may receive the chemical structure of the target product 210 in a string format. For example, the processor 110 inputs the chemical structure of the target product 210 in the form of a Simplified Molecular-Input Line-Entry System (SMILES) code, Smiles Arbitrary Target Specification (SMARTS) code, or International Chemical Identifier (InChi) code format. can receive

S920 단계에서, 프로세서(110)는 복수의 클래스들을 포함하는 범주형 잠재 변수(230)를 예측할 수 있다.In step S920 , the processor 110 may predict the categorical latent variable 230 including a plurality of classes.

프로세서(110)는 역합성 예측 모델(220)을 구동시켜, 범주형 잠재 변수(230)를 첫 번째 토큰(token)으로 예측할 수 있다. 실시예에 따라, 표적 생성물(210)의 기대 반응 방식이 범주형 잠재 변수(230)의 입력 값으로써 제공될 수도 있다. 기대 반응 방식(511)이 범주형 잠재 변수(230)의 입력 값으로 제공되는 경우, 시약 사용이 제한된 환경에서도 최적의 후보 반응물 조합들(240)이 출력될 수 있다.The processor 110 may drive the inverse synthesis prediction model 220 to predict the categorical latent variable 230 as a first token. According to an embodiment, the expected response manner of the target product 210 may be provided as an input value of the categorical latent variable 230 . When the expected reaction scheme 511 is provided as an input value of the categorical latent variable 230 , optimal candidate reactant combinations 240 may be output even in an environment in which reagent use is restricted.

S930 단계에서, 프로세서(110)는 표적 생성물(210)에 대한 정보 및 범주형 잠재 변수(230)에 기초하여 후보 반응물 조합들(240)에 대한 정보를 획득할 수 있다.In operation S930 , the processor 110 may obtain information on the candidate reactant combinations 240 based on the information on the target product 210 and the categorical latent variable 230 .

프로세서(110)는 표적 생성물(210)에 대한 정보 및 예측된 범주형 잠재 변수(230)에 기초하여 후보 반응물 조합들(240)에 대한 토큰들(tokens)을 자동 회귀적(autoregressively)으로 예측할 수 있다. 표적 생성물(210)의 입력에 따른 범주형 잠재 변수(230) 및 후보 반응물 조합들(240)의 우도는 다음의 수학식 4에 의해 결정될 수 있다.The processor 110 may autoregressively predict tokens for the candidate reactant combinations 240 based on the information about the target product 210 and the predicted categorical latent variable 230 . have. The likelihood of the categorical latent variable 230 and the candidate reactant combinations 240 according to the input of the target product 210 may be determined by Equation 4 below.

Figure pat00009
Figure pat00009

수학식 4에서 T는 토큰 시퀀스의 길이이고, y<t는 yt 이전의 대상 토큰(target token)을 의미한다. In Equation 4, T is the length of the token sequence, and y < t means a target token before y t .

프로세서(110)는 표적 생성물(210)의 입력에 대한 클래스별 우도와, 표적 생성물(210) 및 범주형 잠재 변수(230)의 입력에 대한 역합성 예측 결과의 우도를 모두 최대화하는 후보 반응물 조합들(240)을 출력할 수 있다.The processor 110 selects candidate reactant combinations that maximize both the likelihood of each class for the input of the target product 210 and the likelihood of the reverse synthesis prediction result for the input of the target product 210 and the categorical latent variable 230 . (240) can be output.

일 실시예에서, 프로세서(110)는 클래스별 우도 및 역합성 예측 결과의 우도에 기초하여 기 설정된 개수의 최종 후보 반응물 조합들을 선택할 수 있다. 예를 들어, 프로세서(110)는 표적 생성물(210)의 입력에 따른 범주형 잠재 변수(230) 및 후보 반응물 조합들(240)의 우도가 큰 순서대로 기 설정된 개수만큼의 세트들을 선택할 수 있다. 세트에는 범주형 잠재 변수(230) 및 최종 후보 반응물 조합들(240)의 쌍(pair)이 포함될 수 있다. 범주형 잠재 변수(230) 및 최종 후보 반응물 조합들(240)의 쌍은 반응 예측 모델(250)에 입력되어 예측 생성물(260)의 연산에 이용될 수 있다.In an embodiment, the processor 110 may select a preset number of final candidate reactant combinations based on the likelihood of each class and the likelihood of the inverse synthesis prediction result. For example, the processor 110 may select a preset number of sets in the order of increasing the likelihood of the categorical latent variable 230 and the candidate reactant combinations 240 according to the input of the target product 210 . The set may include pairs of categorical latent variables 230 and final candidate reactant combinations 240 . The pair of categorical latent variable 230 and final candidate reactant combinations 240 may be input to response prediction model 250 and used in calculation of prediction product 260 .

도 10은 일 실시예에 따른 반응 예측 모델의 동작 방법을 설명하기 위한 순서도이다.10 is a flowchart illustrating a method of operating a response prediction model according to an exemplary embodiment.

도 10을 참조하면, S1010 단계에서, 프로세서(110)는 후보 반응물 조합들(240)에 대한 정보를 입력 받을 수 있다.Referring to FIG. 10 , in step S1010 , the processor 110 may receive information on candidate reactant combinations 240 .

프로세서(110)는 후보 반응물 조합들(240)의 구조를 문자열 형식으로 입력 받을 수 있다. 이때, 후보 반응물 조합들(240)의 문자열 형식은 표적 생성물(210)의 문자열 형식과 동일할 수 있다. 예를 들어, 표적 생성물(210)의 문자열 형식이 SMILES 코드인 경우, 후보 반응물 조합들(240)의 문자열 형식도 SMILES 코드일 수 있다.The processor 110 may receive the structure of the candidate reactant combinations 240 in the form of a character string. In this case, the string format of the candidate reactant combinations 240 may be the same as the string format of the target product 210 . For example, if the string format of the target product 210 is a SMILES code, the string format of the candidate reactant combinations 240 may also be a SMILES code.

S1020 단계에서, 프로세서(110)는 복수의 클래스들을 포함하는 범주형 잠재 변수(230)를 입력 받을 수 있다.In step S1020 , the processor 110 may receive a categorical latent variable 230 including a plurality of classes.

다시 말해, 프로세서(110)는 범주형 잠재 변수(230) 및 최종 후보 반응물 조합들(240)의 쌍(pair)을 입력 받을 수 있다.In other words, the processor 110 may receive a pair of the categorical latent variable 230 and the final candidate reactant combinations 240 .

S1030 단계에서, 프로세서(110)는 후보 반응물 조합들(240)에 대한 정보 및 범주형 잠재 변수(230)에 기초하여 후보 반응물 조합들 각각에 대한 예측 생성물에 대한 정보를 획득할 수 있다.In step S1030 , the processor 110 may obtain information on the predicted product for each of the candidate reactant combinations based on the information on the candidate reactant combinations 240 and the categorical latent variable 230 .

프로세서(110)는 우도 P(x|z,y)에 기초하여 예측 생성물(260)의 토큰을 생성할 수 있다. 예측 생성물(260)은 역합성 예측 모델(220)의 검증에 사용될 수 있다.The processor 110 may generate a token of the prediction product 260 based on the likelihood P(x|z,y). The prediction product 260 may be used for validation of the inverse synthesis prediction model 220 .

도 11은 일 실시예에 따른 후보 반응물 조합들의 실험 우선 순위를 결정하는 방법을 설명하기 위한 순서도이다.11 is a flowchart illustrating a method of determining an experiment priority of candidate reactant combinations according to an embodiment.

도 11을 참조하면, S1110 단계에서, 프로세서(110)는 후보 반응물 조합들(240) 각각의 입력에 따른 예측 생성물(260)과 표적 생성물(210)의 일치 여부를 판단할 수 있다.Referring to FIG. 11 , in step S1110 , the processor 110 may determine whether the prediction product 260 according to the input of each of the candidate reactant combinations 240 matches the target product 210 .

프로세서(110)는 범주형 잠재 변수(230) 및 후보 반응물 조합들(240)의 입력에 따른 표적 생성물(210)과 예측 생성물(260)의 일치 여부를 우도 P(

Figure pat00010
=x|z,y)에 의해 결정할 수 있다.The processor 110 determines whether the target product 210 and the predicted product 260 according to the input of the categorical latent variable 230 and the candidate reactant combinations 240 match the likelihood P(
Figure pat00010
=x|z,y).

S1120 단계에서, 프로세서(110)는 예측 생성물(260)과 표적 생성물(210)의 일치 여부에 기초하여 후보 반응물 조합들(240)의 실험 우선 순위를 결정할 수 있다.In operation S1120 , the processor 110 may determine an experiment priority of the candidate reactant combinations 240 based on whether the predicted product 260 and the target product 210 match.

프로세서(110)는 우도 P(

Figure pat00011
=x|z,y)·P(z,y|x)의 값이 큰 순서대로 후보 반응물 조합들(240)의 실험 우선 순위를 결정할 수 있다.The processor 110 determines the likelihood P(
Figure pat00011
=x|z,y)·P(z,y|x) may determine the experimental priority of the candidate reactant combinations 240 in the order of the largest values.

한편, 상술한 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 실시예들에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.Meanwhile, the above-described embodiments can be written as a program that can be executed on a computer, and can be implemented in a general-purpose digital computer that operates the program using a computer-readable recording medium. In addition, the structure of data used in the above-described embodiments may be recorded in a computer-readable recording medium through various means. The computer-readable recording medium includes a storage medium such as a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.) and an optically readable medium (eg, a CD-ROM, a DVD, etc.).

본 실시예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 실시예가 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 권리 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 실시예에 포함된 것으로 해석되어야 할 것이다.Those of ordinary skill in the art related to the present embodiment will understand that the embodiment may be implemented in a modified form without departing from the essential characteristics of the above description. Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the rights is indicated in the claims rather than the above description, and all differences within the scope equivalent thereto should be construed as being included in the present embodiment.

100: 뉴럴 네트워크 장치
110: 프로세서
220: 역합성 예측 모델
250: 반응 예측 모델
100: neural network device
110: processor
220: retrosynthesis prediction model
250: response prediction model

Claims (20)

뉴럴 네트워크를 이용하여 표적 생성물을 합성하는 방법에 있어서,
미리 학습된 역합성 예측 모델을 이용하여, 표적 생성물을 생성하기 위한 후보 반응물 조합들을 예측하는 단계;
미리 학습된 반응 예측 모델을 이용하여 상기 후보 반응물 조합들 각각에 대한 예측 생성물을 예측하는 단계; 및
상기 표적 생성물과 상기 예측 생성물의 비교 결과에 기초하여 상기 후보 반응물 조합들의 실험 우선 순위를 결정하는 단계;를 포함하는 방법.
In the method of synthesizing a target product using a neural network,
predicting candidate reactant combinations to produce a target product using the pre-trained retrosynthesis prediction model;
predicting a predicted product for each of the candidate reactant combinations using a pre-trained response prediction model; and
determining an experiment priority of the candidate reactant combinations based on a comparison result of the target product and the predicted product.
제1항에 있어서,
상기 미리 학습된 역합성 예측 모델 및 상기 미리 학습된 반응 예측 모델은
테스트 반응물 조합들 및 상기 테스트 반응물 조합들 각각에 대응하는 테스트 생성물들을 입력 받는 단계;
상기 테스트 반응물 조합들 및 상기 테스트 생성물들에 기초하여 복수의 클래스들을 포함하는 범주형 잠재 변수(categorical latent variables)를 학습하는 단계;를 포함하는 방법.
According to claim 1,
The pre-trained inverse synthesis prediction model and the pre-trained reaction prediction model are
receiving test reactant combinations and test products corresponding to each of the test reactant combinations;
learning categorical latent variables comprising a plurality of classes based on the test reactant combinations and the test products.
제2항에 있어서,
상기 범주형 잠재 변수를 학습하는 단계는
상기 테스트 생성물들 각각의 입력에 대한 상기 범주형 잠재 변수의 조건부 확률 분포를 학습하는 것인 방법.
3. The method of claim 2,
The step of learning the categorical latent variable is
and learning the conditional probability distribution of the categorical latent variable for each input of the test products.
제2항에 있어서,
상기 범주형 잠재 변수를 학습하는 단계는
미리 학습된 수율 예측 모델에 의해 제공된 예측 수율에 기초하여 상기 범주형 잠재 변수를 학습하는 방법.
3. The method of claim 2,
The step of learning the categorical latent variable is
A method for learning the categorical latent variable based on a predicted yield provided by a pre-trained yield prediction model.
제2항에 있어서,
상기 학습된 범주형 잠재 변수는 상기 후보 반응물 조합들의 예측 및 상기 예측 생성물의 예측에 사용되는 방법.
3. The method of claim 2,
wherein the learned categorical latent variable is used to predict the candidate reactant combinations and predict the predicted product.
제1항에 있어서,
상기 후보 반응물 조합들을 예측하는 단계는
상기 표적 생성물에 대한 정보를 입력 받는 단계;
상기 표적 생성물에 대한 정보에 기초하여 복수의 클래스들을 포함하는 범주형 잠재 변수를 예측하는 단계; 및
상기 표적 생성물에 대한 정보 및 상기 범주형 잠재 변수에 기초하여 상기 후보 반응물 조합들에 대한 정보를 획득하는 단계;를 포함하는 방법.
According to claim 1,
Predicting the candidate reactant combinations comprises:
receiving information on the target product;
predicting a categorical latent variable including a plurality of classes based on the information on the target product; and
obtaining information on the candidate reactant combinations based on the information on the target product and the categorical latent variable.
제6항에 있어서,
상기 후보 반응물 조합들에 대한 정보를 획득하는 단계는
상기 표적 생성물의 입력에 따른 상기 후보 반응물 조합들 각각의 클래스별 우도(likelihood)를 계산하는 단계;
상기 표적 생성물 및 상기 범주형 잠재 변수의 입력에 대한 역합성 예측 결과의 우도를 계산하는 단계; 및
상기 클래스별 우도 및 상기 역합성 예측 결과의 우도에 기초하여 기 설정된 개수의 최종 후보 반응물 조합들을 선택하는 단계;를 포함하는 방법.
7. The method of claim 6,
Obtaining information on the candidate reactant combinations comprises:
calculating a likelihood for each class of the candidate reactant combinations according to the input of the target product;
calculating a likelihood of a reverse synthesis prediction result for the target product and the input of the categorical latent variable; and
Selecting a preset number of final candidate reactant combinations based on the likelihood for each class and the likelihood of the reverse synthesis prediction result.
제6항에 있어서,
상기 범주형 잠재 변수를 예측하는 단계는
상기 표적 생성물을 생성하기 위한 기대 반응 방식이 상기 범주형 잠재 변수의 입력 값으로써 제공되는 방법.
7. The method of claim 6,
The step of predicting the categorical latent variable is
wherein an expected response mode for producing the target product is provided as an input value of the categorical latent variable.
제1항에 있어서,
상기 예측 생성물을 예측하는 단계는
상기 후보 반응물 조합들에 대한 정보를 입력 받는 단계;
복수의 클래스들을 포함하는 범주형 잠재 변수를 입력 받는 단계; 및
상기 후보 반응물 조합들에 대한 정보 및 상기 범주형 잠재 변수에 기초하여, 상기 후보 반응물 조합들 각각에 대한 상기 예측 생성물에 대한 정보를 획득하는 단계;를 포함하는 방법.
According to claim 1,
Predicting the predicted product comprises:
receiving information on the candidate reactant combinations;
receiving a categorical latent variable including a plurality of classes; and
obtaining information on the predicted product for each of the candidate reactant combinations based on the information on the candidate reactant combinations and the categorical latent variable.
제1항에 있어서,
상기 후보 반응물 조합들의 실험 우선 순위를 결정하는 단계
상기 후보 반응물 조합들 각각의 입력에 따른, 상기 예측 생성물과 상기 표적 생성물의 일치 여부를 판단하는 단계; 및
상기 예측 생성물과 상기 표적 생성물의 일치 여부에 기초하여 상기 후보 반응물 조합들의 실험 우선 순위를 결정하는 단계;를 포함하는 방법.
According to claim 1,
determining the experimental priority of the candidate reactant combinations;
determining whether the predicted product matches the target product according to the input of each of the candidate reactant combinations; and
determining an experiment priority of the candidate reactant combinations based on whether the predicted product matches the target product.
뉴럴 네트워크를 이용하여 표적 생성물을 생성하는 장치에 있어서,
적어도 하나의 프로그램이 저장된 메모리; 및
상기 적어도 하나의 프로그램을 실행하는 프로세서를 포함하고,
상기 프로세서는
미리 학습된 역합성 예측 모델을 이용하여, 표적 생성물을 생성하기 위한 후보 반응물 조합들을 예측하고,
미리 학습된 반응 예측 모델을 이용하여 상기 후보 반응물 조합들 각각에 대한 예측 생성물을 예측하고,
상기 표적 생성물과 상기 예측 생성물의 비교 결과에 기초하여 상기 후보 반응물 조합들의 실험 우선 순위를 결정하는 장치.
An apparatus for generating a target product using a neural network, comprising:
a memory in which at least one program is stored; and
a processor executing the at least one program;
the processor is
predicting candidate reactant combinations to produce a target product using the pre-trained retrosynthesis prediction model;
Predict the predicted product for each of the candidate reactant combinations using a pre-trained response prediction model,
An apparatus for determining an experimental priority of the candidate reactant combinations based on a comparison result of the target product and the predicted product.
제11항에 있어서,
상기 미리 학습된 역합성 예측 모델 및 상기 미리 학습된 반응 예측 모델은
테스트 반응물 조합들 및 상기 테스트 반응물 조합들 각각에 대응하는 테스트 생성물들에 기초하여 복수의 클래스들을 포함하는 범주형 잠재 변수(categorical latent variables)를 학습하는 장치.
12. The method of claim 11,
The pre-trained inverse synthesis prediction model and the pre-trained reaction prediction model are
An apparatus for learning categorical latent variables including a plurality of classes based on test reactant combinations and test products corresponding to each of the test reactant combinations.
제12항에 있어서,
상기 미리 학습된 역합성 예측 모델 및 상기 미리 학습된 반응 예측 모델은
상기 테스트 생성물들 각각의 입력에 대한 상기 범주형 잠재 변수의 조건부 확률 분포를 학습하는 장치.
13. The method of claim 12,
The pre-trained inverse synthesis prediction model and the pre-trained reaction prediction model are
An apparatus for learning the conditional probability distribution of the categorical latent variable for each input of the test products.
제12항에 있어서,
상기 미리 학습된 역합성 예측 모델 및 상기 미리 학습된 반응 예측 모델은
미리 학습된 수율 예측 모델에 의해 제공된 예측 수율에 기초하여 상기 범주형 잠재 변수를 학습하는 장치.
13. The method of claim 12,
The pre-trained inverse synthesis prediction model and the pre-trained reaction prediction model are
An apparatus for learning the categorical latent variable based on a predicted yield provided by a pre-trained yield prediction model.
제12항에 있어서,
상기 학습된 범주형 잠재 변수는 상기 후보 반응물 조합들의 예측 및 상기 예측 생성물의 예측에 사용되는 장치.
13. The method of claim 12,
wherein the learned categorical latent variable is used for prediction of the candidate reactant combinations and prediction of the prediction product.
제11항에 있어서,
상기 프로세서는
상기 표적 생성물에 대한 정보를 입력 받고,
상기 표적 생성물에 대한 정보에 기초하여 복수의 클래스들을 포함하는 범주형 잠재 변수를 예측하고,
상기 표적 생성물에 대한 정보 및 상기 범주형 잠재 변수에 기초하여 상기 후보 반응물 조합들에 대한 정보를 획득하는 장치.
12. The method of claim 11,
the processor is
receiving information about the target product,
Predict a categorical latent variable comprising a plurality of classes based on the information about the target product,
An apparatus for obtaining information about the candidate reactant combinations based on the information on the target product and the categorical latent variable.
제16항에 있어서,
상기 프로세서는
상기 표적 생성물의 입력에 따른 상기 후보 반응물 조합들 각각의 클래스별 우도(likelihood)를 계산하고,
상기 표적 생성물 및 상기 범주형 잠재 변수의 입력에 대한 역합성 예측 결과의 우도를 계산하고,
상기 클래스별 우도 및 상기 역합성 예측 결과의 우도에 기초하여 기 설정된 개수의 최종 후보 반응물 조합들을 선택하는 장치.
17. The method of claim 16,
the processor is
calculating the likelihood of each class of the candidate reactant combinations according to the input of the target product,
calculating the likelihood of a retrosynthesis prediction result for the input of the target product and the categorical latent variable,
An apparatus for selecting a preset number of final candidate reactant combinations based on the likelihood for each class and the likelihood of the inverse synthesis prediction result.
제16항에 있어서,
상기 표적 생성물을 생성하기 위한 기대 반응 방식은
상기 범주형 잠재 변수의 입력 값으로써 제공되는 장치.
17. The method of claim 16,
The expected reaction scheme to produce the target product is
A device provided as an input value of the categorical latent variable.
제11항에 있어서,
상기 프로세서는
상기 후보 반응물 조합들에 대한 정보를 입력 받고,
복수의 클래스들을 포함하는 범주형 잠재 변수를 입력 받고,
상기 후보 반응물 조합들에 대한 정보 및 상기 범주형 잠재 변수에 기초하여, 상기 후보 반응물 조합들 각각에 대한 상기 예측 생성물에 대한 정보를 획득하는 장치.
12. The method of claim 11,
the processor is
receiving information about the candidate reactant combinations;
Receive a categorical latent variable containing a plurality of classes,
An apparatus for obtaining information about the predicted product for each of the candidate reactant combinations based on the information about the candidate reactant combinations and the categorical latent variable.
제11항에 있어서,
상기 프로세서는
상기 후보 반응물 조합들 각각의 입력에 따른, 상기 예측 생성물과 상기 표적 생성물의 일치 여부를 판단하고,
상기 예측 생성물과 상기 표적 생성물의 일치 여부에 기초하여 상기 후보 반응물 조합들의 실험 우선 순위를 결정하는 장치.
12. The method of claim 11,
the processor is
Determine whether the predicted product matches the target product according to the input of each of the candidate reactant combinations,
An apparatus for determining an experimental priority of the candidate reactant combinations based on whether the predicted product and the target product match.
KR1020210017869A 2020-07-29 2021-02-08 Apparatus and method for synthesizing target products using neural networks KR20220014798A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/372,808 US20220036182A1 (en) 2020-07-29 2021-07-12 Method and apparatus for synthesizing target products by using neural networks
EP21186592.8A EP3945526A1 (en) 2020-07-29 2021-07-20 Method and apparatus for retrosynthesis by using neural networks
CN202110846347.8A CN114093430A (en) 2020-07-29 2021-07-26 Method and apparatus for synthesizing target product by using neural network
JP2021122539A JP2022027571A (en) 2020-07-29 2021-07-27 Apparatus for synthesizing target products by using neural networks and method for the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200094615 2020-07-29
KR20200094615 2020-07-29

Publications (1)

Publication Number Publication Date
KR20220014798A true KR20220014798A (en) 2022-02-07

Family

ID=80253443

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210017869A KR20220014798A (en) 2020-07-29 2021-02-08 Apparatus and method for synthesizing target products using neural networks

Country Status (1)

Country Link
KR (1) KR20220014798A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116300075A (en) * 2023-05-23 2023-06-23 华南师范大学 Layered nano-photonics device design method based on multi-head series neural network
WO2023177171A1 (en) * 2022-03-17 2023-09-21 주식회사 아론티어 Retrosynthetic translation method using transformer and atomic environment, and device for performing same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023177171A1 (en) * 2022-03-17 2023-09-21 주식회사 아론티어 Retrosynthetic translation method using transformer and atomic environment, and device for performing same
CN116300075A (en) * 2023-05-23 2023-06-23 华南师范大学 Layered nano-photonics device design method based on multi-head series neural network
CN116300075B (en) * 2023-05-23 2023-08-11 华南师范大学 Layered nano-photonics device design method based on multi-head series neural network

Similar Documents

Publication Publication Date Title
EP3945526A1 (en) Method and apparatus for retrosynthesis by using neural networks
US11587646B2 (en) Method for simultaneous characterization and expansion of reference libraries for small molecule identification
US20200027528A1 (en) Systems and methods for predicting chemical reactions
KR20210147862A (en) Method and apparatus for training retrosynthesis prediction model
EP3514734A1 (en) Method and apparatus for generating a chemical structure using a neural network
WO2019241879A1 (en) Variationally and adiabatically navigated quantum eigensolvers
KR20220014798A (en) Apparatus and method for synthesizing target products using neural networks
US11720791B2 (en) Apparatus and method of optimizing experimental conditions using neural network
US20210374536A1 (en) Method and apparatus for training retrosynthesis prediction model
US20230325687A1 (en) System and method for de novo drug discovery
US20230342611A1 (en) Systems and methods for time series analysis using attention models
KR20200046189A (en) Method and system for collaborative filtering based on generative adversarial networks
US20230223112A1 (en) Retrosynthesis using neural networks
KR20210076122A (en) Systems and Methods for Active Transfer Learning Including Deep Characterization
CN111223532A (en) Method, apparatus, device, medium for determining a reactant of a target compound
KR20210042777A (en) Method and apparatus for generating chemical structure
US20220004898A1 (en) Detecting cognitive biases in interactions with analytics data
US20240120022A1 (en) Predicting protein amino acid sequences using generative models conditioned on protein structure embeddings
US20210174910A1 (en) Method and apparatus for generating new chemical structure using neural network
US11854672B2 (en) Method and apparatus for generating chemical structure
WO2022259185A1 (en) Adversarial framework for molecular conformation space modeling in internal coordinates
US20230360739A1 (en) Method and apparatus of predicting synthetic path
Yusup et al. Feature selection with harmony search for classification: A review
KR20230156619A (en) Method and apparatus of predicting synthetic path
US20240135141A1 (en) Method and apparatus for predicting recipe property reflecting similarity between chemical materials