JP2024064115A - Image-to-text conversion system - Google Patents

Image-to-text conversion system Download PDF

Info

Publication number
JP2024064115A
JP2024064115A JP2022172467A JP2022172467A JP2024064115A JP 2024064115 A JP2024064115 A JP 2024064115A JP 2022172467 A JP2022172467 A JP 2022172467A JP 2022172467 A JP2022172467 A JP 2022172467A JP 2024064115 A JP2024064115 A JP 2024064115A
Authority
JP
Japan
Prior art keywords
image
chemical structure
character
character string
altered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022172467A
Other languages
Japanese (ja)
Inventor
篤史 吉森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
INSTITUTE FOR THEORETICAL MEDICINE, INC.
Original Assignee
INSTITUTE FOR THEORETICAL MEDICINE, INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by INSTITUTE FOR THEORETICAL MEDICINE, INC. filed Critical INSTITUTE FOR THEORETICAL MEDICINE, INC.
Priority to JP2022172467A priority Critical patent/JP2024064115A/en
Publication of JP2024064115A publication Critical patent/JP2024064115A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】画像を文字列に変換すること。【解決手段】本発明の画像-文字列変換システムは、画像を受信する受信手段と、前記画像に対応する文字列を導出する導出手段と、前記導出された文字列を出力する出力手段とを備える。画像-文字列変換システムは、化学構造推定システムの一部を構成し得る。化学構造推定システムは、化学構造を変換して画像を生成する第1の生成手段と、前記生成された画像を改変して改変画像を生成する第2の生成手段と、前記改変画像に対応する文字列を導出する導出手段と、前記導出された文字列に対応する化学構造を出力する出力手段とを備える。【選択図】図1C[Problem] To convert an image into a character string. [Solution] The image-character string conversion system of the present invention comprises a receiving means for receiving an image, a derivation means for deriving a character string corresponding to the image, and an output means for outputting the derived character string. The image-character string conversion system may form a part of a chemical structure estimation system. The chemical structure estimation system comprises a first generating means for generating an image by converting a chemical structure, a second generating means for modifying the generated image to generate an altered image, a derivation means for deriving a character string corresponding to the altered image, and an output means for outputting a chemical structure corresponding to the derived character string. [Selected Figure] Figure 1C

Description

本発明は、画像を文字列に変換するシステム、方法、およびプログラムならびにそれらの応用に関し、より具体的には、化学構造を表す画像を、当該化学構造を表す文字列に変換するシステム、方法、およびプログラムならびにそれらの応用に関する。さらに、特性が改変された化学構造を推定するシステム、方法、およびプログラムならびにそれらの応用にも関する。 The present invention relates to a system, method, and program for converting an image into a character string, and to applications of the same, and more specifically, to a system, method, and program for converting an image representing a chemical structure into a character string representing the chemical structure, and to applications of the same. It also relates to a system, method, and program for estimating a chemical structure with modified properties, and to applications of the same.

化学構造を一意の画像に変換して取り扱う技術が開発されている(非特許文献1)。 A technology has been developed that converts chemical structures into unique images for handling (Non-Patent Document 1).

Atsushi Yoshimori, “Prediction of Molecular Properties Using Molecular Topographic Map”, Molecules 2021, 26, 4475Atsushi Yoshimori, "Prediction of Molecular Properties Using Molecular Topographic Map", Molecules 2021, 26, 4475

本発明の発明者は、化学構造を一意の画像に変換して取り扱う技術が不可逆の変換であったことに鑑み、画像を一意に化学構造に逆変換するための新規の手法を開発した。この手法では、画像を文字列に変換する。 In light of the fact that the technology for converting chemical structures into unique images and handling them is an irreversible conversion, the inventors of the present invention have developed a new method for converting an image back into a unique chemical structure. This method converts an image into a character string.

本発明は、例えば、以下の項目を提供する。
(項目1)
画像を受信する受信手段と、
前記画像に対応する文字列を導出する導出手段と、
前記導出された文字列を出力する出力手段と
を備えるシステム。
(項目2)
前記導出手段は、学習用画像と、前記学習用画像に対応する文字列の一部の文字とを入力すると、前記文字の次の文字を出力するように学習した学習済モデルを用いて、前記画像に対応する文字列を導出する、上記項目に記載のシステム。
(項目3)
前記学習済モデルは、
前記次の文字の候補である複数の候補文字のそれぞれについて、前記次の文字となる確率を出力することと、
前記確率に基づいて、前記次の文字を出力することと
を行うように構成されている、上記項目のいずれか一項に記載のシステム。
(項目4)
前記確率に基づいて、前記次の文字を出力することは、
前記複数の候補文字のうちの前記確率が最も高い1つの候補文字を選択することと、
前記選択された候補文字を前記次の文字として出力することと
を含む、上記項目のいずれか一項に記載のシステム。
(項目5)
前記確率に基づいて、前記次の文字を出力することは、
前記複数の候補文字のそれぞれの前記確率の分布に従って、前記複数の候補文字のうちの1つの候補文字を選択することと、
前記選択された候補文字を前記次の文字として出力することと
を含む、上記項目のいずれか一項に記載のシステム。
(項目6)
前記確率の分布に重みをつけることをさらに含む、上記項目のいずれか一項に記載のシステム。
(項目7)
前記画像は、化学構造を表す画像である、上記項目のいずれか一項に記載のシステム。
(項目8)
前記文字列は、化学構造を表す文字列である、上記項目のいずれか一項に記載のシステム。
(項目9)
前記出力手段は、前記導出された文字列を構造式に変換して出力する、上記項目のいずれか一項に記載のシステム。
(項目10)
文字列を変換して画像を生成する生成手段と、
学習用化学構造を表す文字列を変換した画像と、前記学習用化学構造の特性との関係を学習した第2の学習済モデルを用いて、化学構造の特性を予測する予測手段と
をさらに備え、
前記生成手段は、前記出力された文字列を変換して画像を生成し、
前記予測手段は、前記生成された画像に基づいて、前記画像に対応する化学構造の特性を予測する、上記項目のいずれか一項に記載のシステム。
(項目11)
化学構造推定システムであって、
化学構造を変換して画像を生成する第1の生成手段と、
前記生成された画像を改変して改変画像を生成する第2の生成手段と、
前記改変画像に対応する文字列を導出する導出手段と、
前記導出された文字列に対応する化学構造を出力する出力手段と
を備える化学構造推定システム。
(項目12)
前記第1の生成手段は、第1の化学構造を表す第1の文字列を変換して第1の画像を生成し、第2の化学構造を表す第2の文字列を変換して第2の画像を生成し、
前記第2の生成手段は、前記第1の画像と前記第2の画像とを合成して前記改変画像を生成する、上記項目のいずれか一項に記載のシステム。
(項目13)
特性が改変された化学構造を推定するシステムであって、
化学構造を変換して画像を生成する第1の生成手段と、
前記生成された画像を改変して改変画像を生成する第2の生成手段と、
前記改変画像に対応する複数組の文字列を導出する導出手段と、
前記導出された複数組の文字列のそれぞれを変換して複数の画像を生成する第3の生成手段と、
前記複数の画像の各画像に基づいて、それぞれの画像に対応する化学構造の特性を予測する予測手段と、
前記予測された特性に基づいて、特性が改変された化学構造を特定する特定手段と
を備えるシステム。
(項目14)
前記特性は、前記化学構造に関連する活性である、上記項目のいずれか一項に記載のシステム。
(項目15)
前記活性は、前記化学構造に相当する化合物が有する生物または化学的な活性である、上記項目のいずれか一項に記載のシステム。
(項目16)
前記活性は、酵素阻害活性である、上記項目のいずれか一項に記載のシステム。
(項目17)
特性が改変された対象の構造を推定するシステムであって、
前記対象の構造と一意に関連付けられた画像を生成する第1の生成手段と、
前記生成された画像を改変して改変画像を生成する第2の生成手段と、
前記改変画像に対応する複数組の文字列を導出する導出手段と、
前記導出された複数組の文字列のそれぞれを変換して複数の画像を生成する生成手段と、
前記複数の画像の各画像に基づいて、それぞれの画像に対応する特性を予測する予測手段と、
前記予測された特性に基づいて、特性が改変された前記対象の構造を特定する特定手段と
を備えるシステム。
(項目18)
画像を受信することと、
前記画像に対応する文字列を導出することと、
前記導出された文字列を出力することと
を含む方法。
(項目18A)
上記項目のうちの1つまたは複数に記載の特徴を含む、項目18に記載の方法。
(項目19)
プログラムであって、前記プログラムは、プロセッサ部を備えるコンピュータにおいて実行され、前記プログラムは、
画像を受信することと、
前記画像に対応する文字列を導出することと、
前記導出された文字列を出力することと
を含む処理を前記プロセッサ部に行わせる、プログラム。
(項目19A)
上記項目のうちの1つまたは複数に記載の特徴を含む、項目19に記載のプログラム。
(項目19B)
項目19または19Aに記載のプログラムを記憶するコンピュータ読み取り可能な記憶媒体。
(項目20)
化学構造推定方法であって、
化学構造を変換して画像を生成することと、
前記生成された画像を改変して改変画像を生成することと、
前記改変画像に対応する文字列を導出することと、
前記導出された文字列に対応する化学構造を出力することと
を含む方法。
(項目18A)
上記項目のうちの1つまたは複数に記載の特徴を含む、項目20に記載の方法。
(項目21)
化学構造推定プログラムであって、前記プログラムは、プロセッサ部を備えるコンピュータにおいて実行され、前記プログラムは、
化学構造を変換して画像を生成することと、
前記生成された画像を改変して改変画像を生成することと、
前記改変画像に対応する文字列を導出することと、
前記導出された文字列に対応する化学構造を出力することと
を含む処理を前記プロセッサ部に行わせる、プログラム。
(項目21A)
上記項目のうちの1つまたは複数に記載の特徴を含む、項目21に記載のプログラム。
(項目21B)
項目21または21Aに記載のプログラムを記憶するコンピュータ読み取り可能な記憶媒体。
(項目22)
特性が改変された化学構造を推定する方法であって、
化学構造を変換して画像を生成することと、
前記生成された画像を改変して改変画像を生成することと、
前記改変画像に対応する複数組の文字列を導出することと、
前記導出された複数組の文字列のそれぞれを変換して複数の画像を生成することと、
前記複数の画像の各画像に基づいて、それぞれの画像に対応する化学構造の特性を予測することと、
前記予測された特性に基づいて、特性が改変された化学構造を特定することと
を含む方法。
(項目22A)
上記項目のうちの1つまたは複数に記載の特徴を含む、項目22に記載の方法。
(項目23)
特性が改変された化学構造を推定するプログラムであって、前記プログラムは、プロセッサ部を備えるコンピュータにおいて実行され、前記プログラムは、
化学構造を変換して画像を生成することと、
前記生成された画像を改変して改変画像を生成することと、
前記改変画像に対応する複数組の文字列を導出することと、
前記導出された複数組の文字列のそれぞれを変換して複数の画像を生成することと、
前記複数の画像の各画像に基づいて、それぞれの画像に対応する化学構造の特性を予測することと、
前記予測された特性に基づいて、特性が改変された化学構造を特定することと
を含む処理を前記プロセッサ部に行わせる、プログラム。
(項目23A)
上記項目のうちの1つまたは複数に記載の特徴を含む、項目23に記載のプログラム。
(項目23B)
項目23または23Aに記載のプログラムを記憶するコンピュータ読み取り可能な記憶媒体。
(項目24)
特性が改変された対象の構造を推定する方法であって、
前記対象の構造と一意に関連付けられた画像を生成することと、
前記生成された画像を改変して改変画像を生成することと、
前記改変画像に対応する複数組の文字列を導出することと、
前記導出された複数組の文字列のそれぞれを変換して複数の画像を生成することと、
前記複数の画像の各画像に基づいて、それぞれの画像に対応する特性を予測することと、
前記予測された特性に基づいて、特性が改変された前記対象の構造を特定することと
を含む方法。
(項目24A)
上記項目のうちの1つまたは複数に記載の特徴を含む、項目24に記載の方法。
(項目25)
特性が改変された対象の構造を推定するプログラムであって、前記プログラムは、プロセッサ部を備えるコンピュータにおいて実行され、前記プログラムは、
前記対象の構造と一意に関連付けられた画像を生成することと、
前記生成された画像を改変して改変画像を生成することと、
前記改変画像に対応する複数組の文字列を導出することと、
前記導出された複数組の文字列のそれぞれを変換して複数の画像を生成することと、
前記複数の画像の各画像に基づいて、それぞれの画像に対応する特性を予測することと、
前記予測された特性に基づいて、特性が改変された前記対象の構造を特定することと
を含む処理を前記プロセッサ部に行わせる、プログラム。
(項目25A)
上記項目のうちの1つまたは複数に記載の特徴を含む、項目25に記載のプログラム。
(項目25B)
項目25または25Aに記載のプログラムを記憶するコンピュータ読み取り可能な記憶媒体。
The present invention provides, for example, the following items.
(Item 1)
A receiving means for receiving an image;
A derivation means for deriving a character string corresponding to the image;
and an output means for outputting the derived string.
(Item 2)
The system described in the above item, wherein the derivation means, when inputting a training image and a part of a character of a string corresponding to the training image, derives a character string corresponding to the image using a trained model that has been trained to output the next character after the character.
(Item 3)
The trained model is
outputting a probability of each of a plurality of candidate characters being the next character;
and outputting the next character based on the probability.
(Item 4)
outputting the next character based on the probability
selecting one candidate character from the plurality of candidate characters that has the highest probability; and
and outputting the selected candidate character as the next character.
(Item 5)
outputting the next character based on the probability
selecting a candidate character from the plurality of candidate characters according to the probability distribution for each of the plurality of candidate characters;
and outputting the selected candidate character as the next character.
(Item 6)
20. The system of claim 19, further comprising weighting the distribution of probabilities.
(Item 7)
The system of any one of the preceding claims, wherein the image is an image representing a chemical structure.
(Item 8)
The system according to any one of the preceding claims, wherein the character string is a character string representing a chemical structure.
(Item 9)
The system according to any one of the preceding items, wherein the output means converts the derived character string into a structural formula and outputs the structural formula.
(Item 10)
A generating means for converting a character string to generate an image;
A prediction means for predicting a characteristic of the chemical structure by using an image obtained by converting a character string representing the training chemical structure and a second trained model that has learned a relationship between the image and the characteristic of the training chemical structure,
The generating means converts the output character string to generate an image,
The system according to any one of the preceding claims, wherein the prediction means predicts properties of a chemical structure corresponding to the generated image based on the generated image.
(Item 11)
A chemical structure prediction system, comprising:
A first generating means for converting a chemical structure to generate an image;
a second generating means for generating an altered image by altering the generated image;
A derivation means for deriving a character string corresponding to the altered image;
and an output means for outputting a chemical structure corresponding to the derived character string.
(Item 12)
the first generating means converts a first character string representing a first chemical structure to generate a first image, and converts a second character string representing a second chemical structure to generate a second image;
The system according to any one of the preceding claims, wherein the second generation means generates the modified image by combining the first image and the second image.
(Item 13)
A system for predicting a chemical structure having an altered property, comprising:
A first generating means for converting a chemical structure to generate an image;
a second generating means for generating an altered image by altering the generated image;
A derivation means for deriving a plurality of sets of character strings corresponding to the altered image;
a third generating means for generating a plurality of images by transforming each of the derived sets of character strings;
A prediction means for predicting, based on each of the plurality of images, a property of a chemical structure corresponding to each image;
and an identification means for identifying a chemical structure having an altered property based on the predicted property.
(Item 14)
The system of any one of the preceding claims, wherein the property is an activity associated with the chemical structure.
(Item 15)
The system according to any one of the preceding claims, wherein the activity is a biological or chemical activity possessed by a compound corresponding to the chemical structure.
(Item 16)
The system according to any one of the preceding claims, wherein the activity is an enzyme inhibitory activity.
(Item 17)
A system for predicting a structure of an object having an altered characteristic, comprising:
a first generating means for generating an image uniquely associated with the structure of interest;
a second generating means for generating an altered image by altering the generated image;
A derivation means for deriving a plurality of sets of character strings corresponding to the altered image;
a generating means for generating a plurality of images by converting each of the derived sets of character strings;
A prediction means for predicting characteristics corresponding to each of the plurality of images based on each of the images;
and an identification means for identifying a structure of the object having an altered property based on the predicted property.
(Item 18)
Receiving an image; and
deriving a character string corresponding to the image; and
and outputting the derived string.
(Item 18A)
19. The method of claim 18, comprising the features according to one or more of the preceding claims.
(Item 19)
A program, the program being executed in a computer having a processor unit, the program comprising:
Receiving an image; and
deriving a character string corresponding to the image; and
and outputting the derived character string.
(Item 19A)
20. The program according to claim 19, comprising one or more of the features according to the preceding claims.
(Item 19B)
A computer-readable storage medium storing the program according to item 19 or 19A.
(Item 20)
A chemical structure prediction method, comprising the steps of:
Transforming the chemical structure to generate an image;
modifying the generated image to generate an altered image;
deriving a character string corresponding to the altered image;
and outputting a chemical structure corresponding to the derived string.
(Item 18A)
21. The method of claim 20, comprising the features according to one or more of the preceding claims.
(Item 21)
A chemical structure estimation program, the program being executed on a computer having a processor unit, the program comprising:
Transforming the chemical structure to generate an image;
modifying the generated image to generate an altered image;
deriving a character string corresponding to the altered image;
and outputting a chemical structure corresponding to the derived character string.
(Item 21A)
22. The program according to claim 21, comprising one or more of the features according to the preceding claims.
(Item 21B)
A computer-readable storage medium storing the program according to item 21 or 21A.
(Item 22)
A method for predicting a chemical structure with modified properties, comprising:
Transforming the chemical structure to generate an image;
modifying the generated image to generate an altered image;
deriving a plurality of sets of character strings corresponding to the altered image;
transforming each of the derived sets of strings to generate a plurality of images;
predicting, based on each image of the plurality of images, a property of a chemical structure corresponding to the respective image;
and identifying a chemical structure having an altered property based on the predicted property.
(Item 22A)
23. The method of claim 22, comprising the features according to one or more of the preceding claims.
(Item 23)
A program for predicting a chemical structure having modified properties, the program being executed on a computer having a processor unit, the program comprising:
Transforming the chemical structure to generate an image;
modifying the generated image to generate an altered image;
deriving a plurality of sets of character strings corresponding to the altered image;
transforming each of the derived sets of strings to generate a plurality of images;
predicting, based on each image of the plurality of images, a property of a chemical structure corresponding to the respective image;
and identifying a chemical structure having an altered property based on the predicted property.
(Item 23A)
24. The program according to claim 23, comprising one or more of the features according to the preceding claims.
(Item 23B)
A computer-readable storage medium storing the program according to item 23 or 23A.
(Item 24)
A method for predicting the structure of an object having an altered property, comprising:
generating an image uniquely associated with the structure of interest;
modifying the generated image to generate an altered image;
deriving a plurality of sets of character strings corresponding to the altered image;
transforming each of the derived sets of strings to generate a plurality of images;
predicting, based on each image of the plurality of images, a characteristic corresponding to the respective image;
and identifying a structure of the subject having an altered property based on the predicted property.
(Item 24A)
25. The method of claim 24, comprising the features according to one or more of the preceding claims.
(Item 25)
A program for predicting a structure of an object whose characteristics have been modified, the program being executed on a computer having a processor unit, the program comprising:
generating an image uniquely associated with the structure of interest;
modifying the generated image to generate an altered image;
deriving a plurality of sets of character strings corresponding to the altered image;
transforming each of the derived sets of strings to generate a plurality of images;
predicting, based on each image of the plurality of images, a characteristic corresponding to the respective image;
and identifying a structure of the target having an altered property based on the predicted property.
(Item 25A)
26. The program according to claim 25, comprising one or more of the features according to the preceding claims.
(Item 25B)
A computer-readable storage medium storing the program according to item 25 or 25A.

本発明によれば、画像を文字列に変換するシステム等を提供することができる。これにより、例えば、画像を、文字列で表される化学構造に変換することができる。また、このシステムを利用して、化学構造(例えば、新規な化学構造、改変された特性を有する化学構造)を推定することができる。 According to the present invention, it is possible to provide a system for converting an image into a character string. This makes it possible to convert, for example, an image into a chemical structure represented by a character string. In addition, this system can be used to estimate a chemical structure (for example, a novel chemical structure, or a chemical structure having modified properties).

化学構造推定システム1000により化学構造を推定するフローの一例を示す図FIG. 1 is a diagram showing an example of a flow of chemical structure estimation by the chemical structure estimation system 1000. 化学構造推定システム1000により化学構造を推定する別のフローの一例を示す図FIG. 1 is a diagram showing another example of a flow for predicting a chemical structure by the chemical structure prediction system 1000. 画像-文字列変換システム100(MTMインバータ)が、MTMを化学構造に逆変換する概念を示す図A diagram showing the concept of the image-to-character string conversion system 100 (MTM inverter) converting MTM back into a chemical structure. 画像-文字列変換システム100が、画像を対応する文字列に変換する概念を示す図A diagram showing the concept of how the image-to-character string conversion system 100 converts an image into a corresponding character string. 画像-文字列変換システム100が、化合物の物性値を示す画像を対応する文字列に変換する概念を示す図A diagram showing the concept of the image-to-character string conversion system 100 converting an image showing the physical properties of a compound into a corresponding character string. 画像-文字列変換システム100の構成の一例を示す図FIG. 1 shows an example of the configuration of an image-character string conversion system 100. 画像-文字列変換システム100の具体的な構成の一例を示す図FIG. 1 is a diagram showing an example of a specific configuration of an image-character string conversion system 100. プロセッサ部120の構成の一例を示す図FIG. 1 shows an example of the configuration of a processor unit 120. プロセッサ部120の代替実施形態であるプロセッサ部120Aの構成の一例を示す図FIG. 1 shows an example of the configuration of a processor unit 120A that is an alternative embodiment of the processor unit 120. プロセッサ部120の代替実施形態であるプロセッサ部120Bの構成の一例を示す図FIG. 1 shows an example of the configuration of a processor unit 120B that is an alternative embodiment of the processor unit 120. プロセッサ部120の代替実施形態であるプロセッサ部120Cの構成の一例を示す図FIG. 1 shows an example of the configuration of a processor unit 120C that is an alternative embodiment of the processor unit 120. 学習済モデルの構造の一例を示す図A diagram showing an example of the structure of a trained model 学習済モデルの構造の一例を示す図A diagram showing an example of the structure of a trained model 画像-文字列変換システム100における処理の一例(処理600)を示すフローチャートA flowchart showing an example of processing (process 600) in the image-character string conversion system 100. 化学構造推定システム1000における処理の一例(700)を示すフローチャートA flowchart showing an example (700) of a process in the chemical structure estimation system 1000. 化学構造推定システム1000における処理の一例(800)を示すフローチャートA flowchart showing an example (800) of a process in the chemical structure estimation system 1000. 実施例におけるトレーニングデータ、およびテストデータにおける類似度の分布を示す図FIG. 1 is a diagram showing distributions of similarities in training data and test data in an embodiment; 実施例における最も予測値の良い化合物の例を示す図FIG. 1 shows an example of a compound with the best predictive value in an embodiment. 実施例において分類された4つのタイプを示す図A diagram showing four types classified in the embodiment. 実施例において分類された4つのタイプを示す図A diagram showing four types classified in the embodiment.

以下、本開示を説明する。本明細書の全体にわたり、単数形の表現は、特に言及しない限り、その複数形の概念をも含むことが理解されるべきである。従って、単数形の冠詞(例えば、英語の場合は「a」、「an」、「the」など)は、特に言及しない限り、その複数形の概念をも含むことが理解されるべきである。また、本明細書において使用される用語は、特に言及しない限り、当該分野で通常用いられる意味で用いられることが理解されるべきである。したがって、他に定義されない限り、本明細書中で使用されるすべての専門用語および科学技術用語は、本発明の属する分野の当業者によって一般的に理解されるのと同じ意味を有する。矛盾する場合、本明細書(定義を含めて)が優先する。 The present disclosure will be described below. Throughout this specification, singular expressions should be understood to include the concept of the plural form, unless otherwise specified. Therefore, singular articles (e.g., in the case of English, "a", "an", "the", etc.) should be understood to include the concept of the plural form, unless otherwise specified. In addition, it should be understood that the terms used in this specification are used in the sense commonly used in the field, unless otherwise specified. Therefore, unless otherwise defined, all technical terms and scientific and technical terms used in this specification have the same meaning as commonly understood by those skilled in the art to which this invention belongs. In the case of conflict, the present specification (including definitions) will take precedence.

(定義)
本明細書において「文字列」とは、対象の構造を表すことができる文字列である。対象が、物質である場合、対象の構造は、化学構造となる。化学構造を表すことができる文字列は、例えば、SMILES記法による文字列であり得る。
(Definition)
In this specification, a "character string" is a character string that can represent the structure of an object. When the object is a substance, the structure of the object is a chemical structure. The character string that can represent a chemical structure may be, for example, a character string in the SMILES notation.

本明細書において「画像に対応する文字列」とは、対象となる画像と何らかの関係性を有する文字列をいう。関係性は、何らかの数学的なものであってもよく、その他化学に関連するものなど任意のものであってもよい。この文字列は、画像と一対一対応の関係があるものであってもよく、画像と一対一対応の関係を有する文字列と類似する関係を有する文字列群のうちの1つであってもよい。この文字列は、例えば、確率分布によって導き出される文字列であってもよい。 In this specification, a "character string corresponding to an image" refers to a character string that has some relationship with the target image. The relationship may be some mathematical relationship, or it may be any other relationship such as related to chemistry. This character string may have a one-to-one correspondence with the image, or may be one of a group of character strings that have a similar relationship to the character string that has a one-to-one correspondence with the image. This character string may be, for example, a character string derived by a probability distribution.

本明細書において「化学構造」とは、物質(例えば、化合物)の組成原子を結合の状態を含めて示した構造をいう。「化学構造」は種々の態様で表現され得る。例えば、化学構造は、化学式、より特定すると、構造式によって表現されることができる。例えば、化学構造は、文字列によって表現されることができる。化学構造を文字列で表現することは、例えば、SMILES記法として知られている。例えば、化学構造は、画像によって表現されることができる。化学構造を画像によって表現することは、本発明者が考案したMolecular Topographic Map(MTM)に化学構造を変換することによってなされ得る(例えば、Atsushi Yoshimori, “Prediction of Molecular Properties Using Molecular Topographic Map”, Molecules 2021, 26, 4475)。 As used herein, "chemical structure" refers to a structure showing the constituent atoms of a substance (e.g., a compound) including the state of bonding. A "chemical structure" can be represented in various ways. For example, a chemical structure can be represented by a chemical formula, more specifically, a structural formula. For example, a chemical structure can be represented by a character string. Representing a chemical structure by a character string is known, for example, as the SMILES notation. For example, a chemical structure can be represented by an image. Representing a chemical structure using an image can be achieved by converting the chemical structure into a Molecular Topographic Map (MTM) invented by the present inventor (e.g., Atsushi Yoshimori, "Prediction of Molecular Properties Using Molecular Topographic Map", Molecules 2021, 26, 4475).

本明細書において「化学構造の特性」とは、その化学構造を有する物質が有する特性であり、任意の特性を含む。特性は、例えば、化学的特性、物理的特性、機械的特性を含む。 As used herein, "characteristics of a chemical structure" refers to properties possessed by a substance having that chemical structure, and includes any property. Examples of properties include chemical properties, physical properties, and mechanical properties.

本明細書において「構造式」とは、分子内の原子相互の結合状態を図式的に表記した式のことをいう。 In this specification, "structural formula" refers to a formula that diagrammatically represents the bonding state of atoms within a molecule.

本明細書において画像の「改変」とは、画像が2次元の場合には、画像の少なくとも1つのピクセルのピクセル値を変化させることをいい、画像が3次元の場合には、画像の少なくとも1つのボクセルのボクセル値を変化させることをいう。ピクセル値またはボクセル値は、例えば、所与の値の加算、減算、乗算、除算によって変化させられる。所与の値は、別の画像の対応するピクセルのピクセル値または対応するボクセルのボクセル値であり得る。別の画像のピクセル値またはボクセル値で画像を改変することを、画像と別の画像との合成という。 As used herein, "modifying" an image refers to changing the pixel value of at least one pixel of the image if the image is two-dimensional, or to changing the voxel value of at least one voxel of the image if the image is three-dimensional. The pixel or voxel value is changed, for example, by adding, subtracting, multiplying, or dividing a given value. The given value can be the pixel value of a corresponding pixel or voxel value of a corresponding voxel of another image. Modifying an image with the pixel or voxel values of another image is called compositing the image with the other image.

本明細書において「活性」とは、化学構造に関連する活性であり、好ましくは、化学構造に対応する化合物が有する生物的な活性または化学的な活性である。活性は、例えば、pKi値>6、もしくはpIC50値>6、好ましくはpKi値>8、もしくはpIC50値>8で表され得る。 As used herein, "activity" refers to activity associated with a chemical structure, and preferably refers to biological or chemical activity possessed by a compound corresponding to the chemical structure. Activity can be expressed, for example, by a pKi value > 6 or a pIC50 value > 6, preferably a pKi value > 8 or a pIC50 value > 8.

本明細書において、「約」とは、後に続く数値の±10%を意味する。 In this specification, "about" means ±10% of the numerical value that follows.

(好ましい実施形態)
以下に本開示の好ましい実施形態を説明する。以下に提供される実施形態は、本開示のよりよい理解のために提供されるものであり、本開示の範囲は以下の記載に限定されるべきでないことが理解される。従って、当業者は、本明細書中の記載を参酌して、本開示の範囲内で適宜改変を行うことができることは明らかである。また、以下の実施形態は単独でも使用されあるいはそれらを組み合わせて使用することができることが理解される。
Preferred Embodiments
Preferred embodiments of the present disclosure are described below. The embodiments provided below are provided for a better understanding of the present disclosure, and it is understood that the scope of the present disclosure should not be limited to the following description. Therefore, it is clear that a person skilled in the art can make appropriate modifications within the scope of the present disclosure in light of the description in this specification. It is also understood that the following embodiments can be used alone or in combination.

以下、図面を参照しながら、本開示の好ましい実施の形態を説明する。 The following describes a preferred embodiment of the present disclosure with reference to the drawings.

1.化学構造推定システム
本開示の発明者は、化学構造を推定するための新たなシステムを開発した。この化学構造推定システムでは、新規の化学構造を探索することができる。例えば、化学構造推定システムに、1つの既知の化合物の化学構造を入力すると、その化合物に類似し得る新規の化合物の化学構造が出力される。例えば、化学構造推定システムに、複数の既知の化合物を入力すると、それらの複数の化合物の平均となり得る新規の化合物が出力され得る。
1. Chemical Structure Prediction System The inventors of the present disclosure have developed a new system for predicting chemical structures. This chemical structure prediction system can search for new chemical structures. For example, when the chemical structure of one known compound is input to the chemical structure prediction system, the system outputs the chemical structure of a new compound that may be similar to the known compound. For example, when multiple known compounds are input to the chemical structure prediction system, the system can output a new compound that may be the average of the multiple compounds.

図1Aは、化学構造推定システム1000により化学構造を推定するフローの一例を示す。本例では、2つの化合物の化学構造から、それらの2つの化合物の平均となる化合物を推定することを例に説明する。 Figure 1A shows an example of a flow for estimating a chemical structure using the chemical structure estimation system 1000. In this example, we will explain an example of estimating a compound that is the average of two compounds based on their chemical structures.

ステップS1では、2つの化合物(第1の化合物C1、第2の化合物C2)の化学構造が化学構造推定システム1000に入力される。2つの化合物(C1、C2)の化学構造は、例えば、構造式で入力される。 In step S1, the chemical structures of two compounds (a first compound C1 and a second compound C2) are input to the chemical structure estimation system 1000. The chemical structures of the two compounds (C1, C2) are input, for example, as structural formulas.

2つの化合物(C1、C2)の化学構造が化学構造推定システム1000に入力されると、化学構造推定システム1000は、それぞれの化合物の化学構造を表す画像(例えば、MTM)を生成する。第1の化合物C1の化学構造画像I1が生成され、第2の化合物C2の化学構造から画像I2が生成される。 When the chemical structures of two compounds (C1, C2) are input to the chemical structure estimation system 1000, the chemical structure estimation system 1000 generates an image (e.g., MTM) representing the chemical structure of each compound. A chemical structure image I1 of the first compound C1 is generated, and an image I2 is generated from the chemical structure of the second compound C2.

MTMは、例えば、28×28ピクセルのヒートマップであり得る。ヒートマップは、各ピクセルに対応する値を色または濃淡で表す図であり、カラーマップであってもよいし、グレースケースマップであってもよいし、別の様式で表されるマップであってもよい。例えば、後述する図1CのMTMに示されるように、色または濃淡が、所定のパラメータの値と関連付けられ得る。各化合物の化学構造から、一意のMTMが生成される。すなわち、第1の化合物C1の化学構造とMTM I1とは一対一に対応し、第2の化合物C2の化学構造とMTM I2とは一対一に対応することになる。 The MTM may be, for example, a heat map of 28 x 28 pixels. The heat map is a diagram in which the value corresponding to each pixel is represented by a color or shade, and may be a color map, a grayscale map, or a map represented in another format. For example, as shown in the MTM of FIG. 1C described below, the color or shade may be associated with the value of a predetermined parameter. A unique MTM is generated from the chemical structure of each compound. That is, the chemical structure of the first compound C1 and MTM I1 correspond one-to-one, and the chemical structure of the second compound C2 and MTM I2 correspond one-to-one.

化学構造推定システム1000では、化学構造を画像(例えば、MTM)として扱うことで、構造式上では困難であった化学構造に対する演算(例えば、加算、減算)が可能になっている。 In the chemical structure estimation system 1000, by treating the chemical structure as an image (e.g., MTM), it is possible to perform calculations (e.g., addition, subtraction) on the chemical structure that would be difficult to perform on the structural formula.

ステップS2では、第1の化合物C1の化学構造から生成された画像I1と、第2の化合物C2の化学構造から生成された画像I2とが合成される。ここでは、第1の化合物C1の化学構造から生成された画像I1と、第2の化合物C2の化学構造から生成された画像I2との平均をとるように合成される。例えば、合成された画像I3では、各ピクセルのピクセル値が2つの画像I1、I2の対応するピクセルのピクセル値の平均となり得る。なお、平均は、加重平均であってもよい。このとき、加重は任意の値に設定され得る。 In step S2, image I1 generated from the chemical structure of the first compound C1 and image I2 generated from the chemical structure of the second compound C2 are synthesized. Here, image I1 generated from the chemical structure of the first compound C1 and image I2 generated from the chemical structure of the second compound C2 are synthesized to take the average. For example, in the synthesized image I3, the pixel value of each pixel can be the average of the pixel values of the corresponding pixels of the two images I1 and I2. The average may be a weighted average. In this case, the weight can be set to an arbitrary value.

合成された画像I3は、第1の化合物C1の化学構造のものでも第2の化学構造C2の化学構造のものでもない、新規の化合物の化学構造の画像となっている。この新規の化合物の化学構造の画像I3は、このままでは、どのような化学構造のものであるか理解できない。従って、化学構造推定システム1000は、この新規の化合物の化学構造の画像I3を、その化合物の化学構造を表す文字列に変換する。 The synthesized image I3 is an image of the chemical structure of a new compound, neither the chemical structure of the first compound C1 nor the chemical structure of the second chemical structure C2. As it is, it is impossible to understand what kind of chemical structure this new compound's chemical structure image I3 has. Therefore, the chemical structure estimation system 1000 converts this new compound's chemical structure image I3 into a character string representing the chemical structure of that compound.

ステップS3では、画像I3が、化合物を表す文字列に変換される。化合物を表す文字列は、例えば、SMILES記法に従って表現される文字列であり得る。これにより、画像I3が表す化学構造がどのようなものであるかを理解することができるようになる。例えば、SMILES記法に従って表現された文字列を構造式で表すと、新規の化合物C3として表現されることになる。 In step S3, image I3 is converted into a character string representing the compound. The character string representing the compound may be, for example, a character string expressed according to the SMILES notation. This makes it possible to understand what kind of chemical structure image I3 represents. For example, when the character string expressed according to the SMILES notation is expressed as a structural formula, it is expressed as a new compound C3.

出力された新規の化合物C3は、第1の化合物C1と第2の化合物C2との平均の化合物であり得、第1の化合物C1の特性と第2の化合物C2の特性との間の特性、あるいは、第1の化合物C1の特性および第2の化合物C2の特性よりも向上した特性を有することが予期される。 The output new compound C3 may be an average compound of the first compound C1 and the second compound C2, and is expected to have properties between those of the first compound C1 and those of the second compound C2, or properties that are improved over those of the first compound C1 and those of the second compound C2.

このようにして、化学構造推定システム1000は、第1の化合物C1および第2の化合物C2に類似する特性または第1の化合物C1および第2の化合物C2よりも優れた特性を有する新規の化合物を推定することができる。このように推定された新規の化合物に対しては、創薬における様々な応用展開が期待され得る。 In this way, the chemical structure estimation system 1000 can estimate a new compound that has properties similar to those of the first compound C1 and the second compound C2 or that is superior to those of the first compound C1 and the second compound C2. The new compounds estimated in this way are expected to be applied in a variety of drug discovery applications.

なお、上述した例では、2つの化合物の化学構造を化学構造推定システム1000に入力することを説明したが、例えば、3つ以上の化合物の化学構造を化学構造推定システム1000に入力するようにしてもよいし、1つの化合物の化学構造を化学構造推定システム1000に入力するようにしてもよい。3つ以上の化合物の化学構造化学構造推定システム1000に入力する場合、化学構造推定システム1000は、例えば、3つ以上の化合物の化学構造のそれぞれから生成された画像を平均し、3つ以上の化合物の平均となる化合物の化学構造を推定することになる。1つの化合物の化学構造を化学構造推定システム1000に入力する場合、化学構造推定システム1000は、例えば、1つの化合物の化学構造から生成された画像を改変し、1つの化合物に類似する化学構造を推定することになる。 In the above example, the chemical structures of two compounds are input to the chemical structure estimation system 1000. However, for example, the chemical structures of three or more compounds may be input to the chemical structure estimation system 1000, or the chemical structure of one compound may be input to the chemical structure estimation system 1000. When the chemical structures of three or more compounds are input to the chemical structure estimation system 1000, the chemical structure estimation system 1000, for example, averages images generated from the chemical structures of the three or more compounds, and estimates the chemical structure of the compound that is the average of the three or more compounds. When the chemical structure of one compound is input to the chemical structure estimation system 1000, the chemical structure estimation system 1000, for example, modifies an image generated from the chemical structure of one compound, and estimates a chemical structure similar to the one compound.

上述した例では、化学構造推定システム1000が、画像I3を一意に文字列に変換することを説明した。この場合、画像I3を一意に変換した文字列を再び画像に変換すると、画像I3と再変換された画像とが類似するものの一致しない場合がある。この場合、化学構造推定システム1000は、画像I3から複数の文字列候補に変換することで、画像I3に一致するまたは画像I3により類似する画像に変換され得る文字列(ひいては、化学構造)を導出することもできる。 In the above example, the chemical structure estimation system 1000 has been described as converting image I3 uniquely into a character string. In this case, when the character string obtained by converting image I3 uniquely into an image is converted again, image I3 and the reconverted image may be similar but not identical. In this case, the chemical structure estimation system 1000 can convert image I3 into multiple character string candidates, thereby deriving a character string (and thus a chemical structure) that matches image I3 or can be converted into an image that is more similar to image I3.

図1Bは、化学構造推定システム1000により化学構造を推定する別のフローの一例を示す。本例でも、2つの化合物の化学構造から、それらの2つの化合物の平均となる化合物を推定することを例に説明する。 Figure 1B shows another example of a flow for estimating a chemical structure using the chemical structure estimation system 1000. In this example, too, an example is described in which a compound that is the average of two compounds is estimated based on the chemical structures of the two compounds.

ステップS11では、2つの化合物(第1の化合物C11、第2の化合物C12)の化学構造が化学構造推定システム1000に入力される。2つの化合物(C11、C12)の化学構造は、例えば、構造式で入力される。 In step S11, the chemical structures of two compounds (a first compound C11 and a second compound C12) are input to the chemical structure estimation system 1000. The chemical structures of the two compounds (C11, C12) are input, for example, as structural formulas.

2つの化合物(C11、C12)の化学構造が化学構造推定システム1000に入力されると、化学構造推定システム1000は、それぞれの化合物の化学構造を表す画像(例えば、MTM)を生成する。第1の化合物C11の化学構造から画像I11が生成され、第2の化合物C12の化学構造から画像I2が生成される。 When the chemical structures of two compounds (C11, C12) are input to the chemical structure estimation system 1000, the chemical structure estimation system 1000 generates an image (e.g., MTM) representing the chemical structure of each compound. Image I11 is generated from the chemical structure of the first compound C11, and image I2 is generated from the chemical structure of the second compound C12.

ステップS12では、第1の化合物C11の化学構造から生成された画像I11と、第2の化合物C12の化学構造から生成された画像I12とが合成される。ここでは、図1Aの例と同様に、第1の化合物C11の化学構造から生成された画像I11と、第2の化合物C12の化学構造から生成された画像I12との平均をとるように合成される。 In step S12, image I11 generated from the chemical structure of the first compound C11 and image I12 generated from the chemical structure of the second compound C12 are synthesized. Here, similar to the example of FIG. 1A, image I11 generated from the chemical structure of the first compound C11 and image I12 generated from the chemical structure of the second compound C12 are synthesized to take the average.

合成された画像I13は、第1の化合物C11の化学構造のものでも第2の化学構造C12の化学構造のものでもない、新規の化合物の化学構造の画像となっている。 The synthesized image I13 is an image of the chemical structure of a new compound, which is neither the chemical structure of the first compound C11 nor the chemical structure of the second compound C12.

ステップS13では、画像I13が、化合物を表す文字列に変換される。このとき、化学構造推定システム1000では、画像I13が、複数の文字列候補に変換される。複数の文字列候補のそれぞれは、第1の候補化合物C13’、第2の候補化合物C13’’、第3の候補化合物C13’’’・・・に対応し得る。 In step S13, image I13 is converted into a character string representing the compound. At this time, in the chemical structure estimation system 1000, image I13 is converted into a plurality of character string candidates. Each of the plurality of character string candidates may correspond to a first candidate compound C13', a second candidate compound C13'', a third candidate compound C13''', etc.

化学構造推定システム1000では、複数の文字列候補(ひいては複数の候補化合物)のうち、どの文字列候補が表す化学構造が、画像I13が表す化学構造として適切かを判定する。例えば、各文字列候補を画像に変換し、変換された各画像と画像I13との類似度を算出することで、最も類似度が高い画像に変換された文字列候補を特定することができる。 The chemical structure estimation system 1000 determines which of the multiple character string candidates (and thus multiple candidate compounds) represents a chemical structure that is appropriate for the chemical structure represented by image I13. For example, by converting each character string candidate into an image and calculating the similarity between each converted image and image I13, it is possible to identify the character string candidate that has been converted into an image with the highest similarity.

ステップS14では、複数の文字列候補(ひいては複数の候補化合物)のうち、画像I13が表す化学構造として適切であると特定された文字列が出力される。本例では、第3の候補化合物C13’’’に対応する文字列が出力される。 In step S14, a character string that is identified as being appropriate for the chemical structure represented by image I13 from among the multiple character string candidates (and thus the multiple candidate compounds) is output. In this example, a character string corresponding to the third candidate compound C13''' is output.

出力された新規の化合物C13’’’は、第1の化合物C11と第2の化合物C12との平均の化合物であり得、第1の化合物C11の特性と第2の化合物C12の特性との間の特性、あるいは、第1の化合物C11の特性および第2の化合物C12の特性よりも向上した特性を有することが予期される。 The output new compound C13''' may be an average compound of the first compound C11 and the second compound C12, and is expected to have properties between those of the first compound C11 and those of the second compound C12, or properties that are improved over those of the first compound C11 and those of the second compound C12.

化学構造推定システム1000は、例えば、画像から化学構造の特性を予測する予測モデルと併用されることにより、特性が改変された(好ましくは、向上した)化学構造を推定することができる。予測モデルは、既知の化学構造から変換された画像(例えば、MTM)とその化学構造の既知の特性との関係を学習するように訓練されたモデルである。この予測モデルに、未知の化学構造から変換された画像を入力すると、この予測モデルは、その化学構造の特性を予測することができる。 The chemical structure estimation system 1000 can, for example, be used in conjunction with a predictive model that predicts the properties of a chemical structure from an image to estimate a chemical structure with modified (preferably improved) properties. The predictive model is a model trained to learn the relationship between an image (e.g., MTM) converted from a known chemical structure and the known properties of that chemical structure. When an image converted from an unknown chemical structure is input to this predictive model, the predictive model can predict the properties of that chemical structure.

例えば、ステップS13で画像I13から変換された複数の文字列候補のそれぞれから変換された画像を予測モデルに入力することができる。これにより、複数の文字列候補に対応する化学構造のそれぞれの特性が予測されることになる。化学構造推定システム1000は、それぞれの特性を比較することで、最も向上した特性を有する化学構造に対応する文字列を出力することができる。このようにして出力された文字列は、特性が改変された(好ましくは、向上した)化学構造を表すことになる。 For example, an image converted from each of the multiple character string candidates converted from image I13 in step S13 can be input to the prediction model. This allows the properties of each of the chemical structures corresponding to the multiple character string candidates to be predicted. By comparing the properties of each, the chemical structure estimation system 1000 can output a character string corresponding to the chemical structure having the most improved property. The character string output in this manner represents a chemical structure with modified (preferably improved) properties.

例えば、第1の化合物C11および第2の化合物C12として生物活性(例えば、酵素阻害活性)が強い化合物を選択すると、化学構造推定システム1000により、生物活性が向上した化学構造を推定することができる。 For example, if compounds with strong biological activity (e.g., enzyme inhibitory activity) are selected as the first compound C11 and the second compound C12, the chemical structure estimation system 1000 can estimate a chemical structure with improved biological activity.

上述した化学構造推定システム1000は、画像-文字列変換システム100を備えている。画像-文字列変換システム100は、入力された画像を、当該画像を表す文字列に変換することができ、具体的には、化学構造を表す画像(例えば、MTM)が画像-文字列変換システム100に入力されると、画像に対応する文字列(例えば、画像によって表される化学構造のSMILES)が出力されることができる。画像-文字列変換システム100は、上述したステップS3およびステップS13を行うことができる。 The above-mentioned chemical structure estimation system 1000 includes an image-to-character string conversion system 100. The image-to-character string conversion system 100 can convert an input image into a character string representing the image. Specifically, when an image representing a chemical structure (e.g., an MTM) is input to the image-to-character string conversion system 100, a character string corresponding to the image (e.g., the SMILES of the chemical structure represented by the image) can be output. The image-to-character string conversion system 100 can perform the above-mentioned steps S3 and S13.

このように、画像-文字列変換システム100は、化合構造から変換されたMTMを、化合構造を表す文字列に逆変換することから、MTMインバータとも呼ばれ得る。 In this way, the image-to-character string conversion system 100 can also be called an MTM inverter, since it converts the MTM converted from a chemical structure back into a character string representing the chemical structure.

図1Cは、画像-文字列変換システム100(MTMインバータ)が、MTMを化学構造に逆変換する概念を示す。 Figure 1C shows the concept of the image-to-character string conversion system 100 (MTM inverter) converting MTM back into a chemical structure.

MTMインバータ100には、MTMが入力され得る。MTMインバータは、MTMと、MTMが表す化学構造を表す文字列(SMILES)との間の関係を学習するように訓練されたモデルを用いて、MTMをSMILESに変換する。 The MTM inverter 100 can receive an MTM as input. The MTM inverter converts the MTM to a SMILES using a model trained to learn the relationship between the MTM and a string of characters (SMILES) that represent the chemical structure that the MTM represents.

例えば、図1Cに示されるMTMをMTMインバータに入力すると、「Cc1nnc2n1-c1sc(C#CC3CCOCC3)c(Cc3ccccc3)c1COC2」というSMILESが出力される。このSMILESは、3-benzyl-9-methyl-2-((tetrahydro-2H-pyran-4-yl)ethynyl)-4H,6H-thieno[2,3-e][1,2,4]triazolo[3,4-c][1,4]oxazepineという化合物を表す。 For example, when the MTM shown in Figure 1C is input to an MTM inverter, the SMILES "Cc1nnc2n1-c1sc(C#CC3CCOCC3)c(Cc3ccccc3)c1COC2" is output. This SMILES represents the compound 3-benzyl-9-methyl-2-((tetrahydro-2H-pyran-4-yl)ethyl)-4H,6H-thieno[2,3-e][1,2,4]triazolo[3,4-c][1,4]oxazepine.

上述した例では、化学構造を表す画像を画像-文字列変換システム100(MTMインバータ100)に入力すると、画像に対応する、化学構造を表す文字列が出力されることを説明したが、本発明はこれに限定されない。画像-文字列変換システム100は、画像と文字列とが対応付けられる限り、任意の画像に適用されることができる。 In the above example, it was explained that when an image representing a chemical structure is input to the image-to-character string conversion system 100 (MTM inverter 100), a character string representing the chemical structure corresponding to the image is output, but the present invention is not limited to this. The image-to-character string conversion system 100 can be applied to any image as long as the image and the character string can be associated.

図1Dは、画像-文字列変換システム100が、画像を対応する文字列に変換する概念を示す。 Figure 1D shows the concept of how the image-to-string conversion system 100 converts an image into a corresponding string.

画像-文字列変換システム100には、画像が入力される。画像は、上述したように化学構造を表す画像であってもよいし、遺伝子配列を表す画像であってもよいし、化合物の物性値を示す画像であってもよい。画像-文字列変換システム100は、画像と、画像に対応する文字列との関係を学習するように訓練されているモデルを用いて、画像を対応する文字列に変換する。 An image is input to the image-to-character string conversion system 100. The image may be an image representing a chemical structure as described above, an image representing a gene sequence, or an image showing the physical properties of a compound. The image-to-character string conversion system 100 converts the image into the corresponding character string using a model that has been trained to learn the relationship between the image and the character string corresponding to the image.

例えば、画像-文字列変換システム100に、遺伝子配列を表す画像が入力されると、その画像が表す遺伝子配列に対応する文字列が出力され得る。例えば、図1Eに示されるように、画像-文字列変換システム100に、化合物の物性値を示す画像を表す画像が入力されると、その画像が表す化合物の化学構造を表す文字列が出力され得る。化合物の物性値を示す画像は、複数のマスを有する画像であって、各マスがその化合物の物性値を表す画像である。化合物の物性値を示す画像は、例えば、3×3マスのヒートマップであり得る。例えば、図1Eに示されるように、各マスは、分子量、溶解度、hERG阻害活性、膜透過性、BBB透過性、CYP1A2阻害活性、CYP2C19阻害活性、CYP2C9阻害活性、CYP2D6阻害活性のそれぞれを、色または濃淡で表すことができる。 For example, when an image showing a gene sequence is input to the image-character string conversion system 100, a character string corresponding to the gene sequence shown by the image can be output. For example, as shown in FIG. 1E, when an image showing an image showing the physical properties of a compound is input to the image-character string conversion system 100, a character string showing the chemical structure of the compound shown by the image can be output. The image showing the physical properties of a compound is an image having multiple squares, each of which represents a physical property of the compound. The image showing the physical properties of a compound can be, for example, a heat map of 3×3 squares. For example, as shown in FIG. 1E, each square can represent the molecular weight, solubility, hERG inhibitory activity, membrane permeability, BBB permeability, CYP1A2 inhibitory activity, CYP2C19 inhibitory activity, CYP2C9 inhibitory activity, and CYP2D6 inhibitory activity by color or shade.

上述した画像-文字列変換システム100は、例えば、後述する構成を備え得る。 The image-to-character string conversion system 100 described above may have, for example, the configuration described below.

2.画像-文字列変換システム100の構成2. Configuration of image-to-character string conversion system 100

図2は、画像-文字列変換システム100の構成の一例を示す。 Figure 2 shows an example of the configuration of an image-to-character string conversion system 100.

システム100は、データベース部200に接続されている。また、システム100は、少なくとも1つの端末装置300にネットワーク400を介して接続されている。 The system 100 is connected to a database unit 200. The system 100 is also connected to at least one terminal device 300 via a network 400.

なお、図2では、3つの端末装置300が示されているが、端末装置300の数はこれに限定されない。任意の数の端末装置300が、ネットワーク400を介してシステム100に接続され得る。 Note that although three terminal devices 300 are shown in FIG. 2, the number of terminal devices 300 is not limited to this. Any number of terminal devices 300 may be connected to the system 100 via the network 400.

ネットワーク400は、任意の種類のネットワークであり得る。ネットワーク400は、例えば、インターネットであってもよいし、LANであってもよい。ネットワーク400は、有線ネットワークであってもよいし、無線ネットワークであってもよい。 Network 400 may be any type of network. Network 400 may be, for example, the Internet or a LAN. Network 400 may be a wired network or a wireless network.

システム100の一例は、例えば、化学構造推定サービスを提供するプロバイダPに設置されているコンピュータ(例えば、サーバ装置)であってもよいし、化学構造推定のためのWEBアプリケーションを提供するプロバイダPに設置されているコンピュータ(例えば、サーバ装置)であってもよいが、これに限定されない。システム100は、例えば、ユーザ(例えば、製薬会社)に設置されているコンピュータ(例えば、端末装置)であってもよく、ユーザのコンピュータに化学構造推定のためのアプリケーションがインストールされることになる。このとき、システム100は、ネットワーク400に接続されなくてもよい。端末装置は、スマートフォン、タブレット、パーソナルコンピュータ、スマートグラス、スマートウォッチ等の任意のタイプの端末装置であり得る。 An example of the system 100 may be, for example, a computer (e.g., a server device) installed in a provider P that provides a chemical structure estimation service, or a computer (e.g., a server device) installed in a provider P that provides a web application for chemical structure estimation, but is not limited thereto. The system 100 may be, for example, a computer (e.g., a terminal device) installed in a user (e.g., a pharmaceutical company), and an application for chemical structure estimation is installed in the user's computer. In this case, the system 100 does not need to be connected to the network 400. The terminal device may be any type of terminal device, such as a smartphone, tablet, personal computer, smart glasses, or smart watch.

データベース部200には、画像-文字列変換システム100によって出力された文字列または文字列から変換された画像が格納されることができる。あるいは、データベース部200には、化学構造推定システム1000によって出力された化学構造を表す文字列または画像が格納されることができる。あるいは、データベース部200には、学習済モデルを構築するための学習用データまたは構築された学習済モデルが格納されることができる。 The database unit 200 may store character strings output by the image-character string conversion system 100 or images converted from character strings. Alternatively, the database unit 200 may store character strings or images representing chemical structures output by the chemical structure estimation system 1000. Alternatively, the database unit 200 may store training data for constructing a trained model or a constructed trained model.

図3は、画像-文字列変換システム100の具体的な構成の一例を示す。 Figure 3 shows an example of a specific configuration of the image-to-character string conversion system 100.

システム100は、インターフェース部110と、プロセッサ部120と、メモリ130部とを備える。 The system 100 includes an interface unit 110, a processor unit 120, and a memory unit 130.

インターフェース部110は、システム100の外部と情報のやり取りを行う。システム100のプロセッサ部120は、インターフェース部110を介して、システム100の外部から情報を受信することが可能であり、システム100の外部に情報を送信することが可能である。インターフェース部110は、任意の形式で情報のやり取りを行うことができる。 The interface unit 110 exchanges information with the outside of the system 100. The processor unit 120 of the system 100 can receive information from the outside of the system 100 via the interface unit 110, and can transmit information to the outside of the system 100. The interface unit 110 can exchange information in any format.

インターフェース部110は、例えば、システム100に情報を入力することを可能にする入力部を備える。入力部が、どのような態様でシステム100に情報を入力することを可能にするかは問わない。例えば、入力部がタッチパネルである場合には、ユーザがタッチパネルにタッチすることによって情報を入力するようにしてもよい。あるいは、入力部がマウスである場合には、ユーザがマウスを操作することによって情報を入力するようにしてもよい。あるいは、入力部がキーボードである場合には、ユーザがキーボードのキーを押下することによって情報を入力するようにしてもよい。あるいは、入力部がマイクである場合には、ユーザがマイクに音声を入力することによって情報を入力するようにしてもよい。あるいは、入力部がデータ読み取り装置である場合には、システム100に接続された記憶媒体から情報を読み取ることによって情報を入力するようにしてもよい。あるいは、入力部が受信器である場合、受信器がネットワークを介してシステム100の外部から情報を受信することにより入力してもよい。この場合、ネットワークの種類は問わない。例えば、受信器は、インターネットを介して情報を受信してもよいし、LANを介して情報を受信してもよい。 The interface unit 110 includes, for example, an input unit that allows information to be input to the system 100. It does not matter in what manner the input unit allows information to be input to the system 100. For example, if the input unit is a touch panel, the user may input information by touching the touch panel. Alternatively, if the input unit is a mouse, the user may input information by operating the mouse. Alternatively, if the input unit is a keyboard, the user may input information by pressing a key on the keyboard. Alternatively, if the input unit is a microphone, the user may input information by inputting voice into the microphone. Alternatively, if the input unit is a data reading device, the information may be input by reading information from a storage medium connected to the system 100. Alternatively, if the input unit is a receiver, the receiver may input information from outside the system 100 via a network. In this case, the type of network does not matter. For example, the receiver may receive information via the Internet or via a LAN.

インターフェース部110は、例えば、システム100から情報を出力することを可能にする出力部を備える。出力部が、どのような態様でシステム100から情報を出力することを可能にするかは問わない。例えば、出力部が表示画面である場合、表示画面に情報を出力するようにしてもよい。あるいは、出力部がデータ書き込み装置である場合、システム100に接続された記憶媒体に情報を書き込むことによって情報を出力するようにしてもよい。あるいは、出力部が印刷装置である場合、紙等の媒体に印刷することによって情報を出力するようにしてもよい。あるいは、出力部が送信器である場合、送信器がネットワークを介してシステム100の外部に情報を送信することにより出力してもよい。この場合、ネットワークの種類は問わない。例えば、送信器は、インターネットを介して情報を送信してもよいし、LANを介して情報を送信してもよい。 The interface unit 110 includes, for example, an output unit that enables information to be output from the system 100. It does not matter in what manner the output unit enables information to be output from the system 100. For example, if the output unit is a display screen, it may be configured to output information on the display screen. Alternatively, if the output unit is a data writing device, it may be configured to output information by writing information to a storage medium connected to the system 100. Alternatively, if the output unit is a printing device, it may be configured to output information by printing on a medium such as paper. Alternatively, if the output unit is a transmitter, it may be configured to output information by transmitting the information to the outside of the system 100 via a network. In this case, the type of network does not matter. For example, the transmitter may transmit information via the Internet or via a LAN.

システム100は、例えば、インターフェース部110を介して、データベース部200に情報を送信し、かつ/または、データベース部200から情報を受信することができる。システム100は、例えば、インターフェース部110を介して、端末装置300に情報を送信し、かつ/または、端末装置300から情報を受信することができる。 The system 100 can transmit information to the database unit 200 and/or receive information from the database unit 200, for example, via the interface unit 110. The system 100 can transmit information to the terminal device 300 and/or receive information from the terminal device 300, for example, via the interface unit 110.

システム100は、例えば、インターフェース部110を介して、化学構造を表す画像を受信することができる。 The system 100 can receive an image representing a chemical structure, for example, via the interface unit 110.

システム100は、例えば、インターフェース部110を介して、化合物を表す文字列を出力することができる。システム100は、例えば、インターフェース部110を介して、化合物を表す文字列から変換された構造式を出力することができる。 The system 100 can output, for example, a character string representing a compound via the interface unit 110. The system 100 can output, for example, a structural formula converted from the character string representing a compound via the interface unit 110.

プロセッサ部120は、システム100の処理を実行し、かつ、システム100全体の動作を制御する。プロセッサ部120は、メモリ部130に格納されているプログラムを読み出し、そのプログラムを実行する。これにより、システム100を所望のステップを実行するシステムとして機能させることが可能である。プロセッサ部120は、単一のプロセッサによって実装されてもよいし、複数のプロセッサによって実装されてもよい。 The processor unit 120 executes the processing of the system 100 and controls the operation of the entire system 100. The processor unit 120 reads out a program stored in the memory unit 130 and executes the program. This makes it possible for the system 100 to function as a system that executes desired steps. The processor unit 120 may be implemented by a single processor or by multiple processors.

メモリ部130は、システム100の処理を実行するために必要とされるプログラムやそのプログラムの実行に必要とされるデータ等を格納する。メモリ部130は、画像を文字列に変換するための処理をプロセッサ部120に行わせるためのプログラム(例えば、後述する図6に示される処理を実現するプログラム)、化学構造を推定するための処理をプロセッサ部120Bに行わせるためのプログラム(例えば、後述する図7に示される処理を実現するプログラム)、および/または、特性が改変された化学構造を推定するための処理をプロセッサ部120Cに行わせるためのプログラム(例えば、後述する図8に示される処理を実現するプログラム)を格納してもよい。ここで、プログラムをどのようにしてメモリ部130に格納するかは問わない。例えば、プログラムは、メモリ部130にプリインストールされていてもよい。あるいは、プログラムは、コンピュータ読み取り可能な記憶媒体に格納されており、コンピュータ読み取り可能な記憶媒体を読み取ることにより、メモリ部130にインストールされるようにしてもよい。あるいは、プログラムは、ネットワークを経由してダウンロードされることによってメモリ部130にインストールされるようにしてもよい。この場合、ネットワークの種類は問わない。メモリ部130は、任意の記憶手段によって実装され得る。 The memory unit 130 stores programs required to execute the processing of the system 100 and data required to execute the programs. The memory unit 130 may store a program for causing the processor unit 120 to perform a process for converting an image into a character string (for example, a program for realizing the process shown in FIG. 6 described later), a program for causing the processor unit 120B to perform a process for estimating a chemical structure (for example, a program for realizing the process shown in FIG. 7 described later), and/or a program for causing the processor unit 120C to perform a process for estimating a chemical structure whose characteristics have been modified (for example, a program for realizing the process shown in FIG. 8 described later). Here, it does not matter how the program is stored in the memory unit 130. For example, the program may be pre-installed in the memory unit 130. Alternatively, the program may be stored in a computer-readable storage medium and installed in the memory unit 130 by reading the computer-readable storage medium. Alternatively, the program may be installed in the memory unit 130 by being downloaded via a network. In this case, the type of network does not matter. The memory unit 130 may be implemented by any storage means.

データベース部200には、例えば、画像-文字列変換システム100によって出力された文字列または文字列から変換された画像が格納されることができる。あるいは、データベース部200には、化学構造推定システム1000によって出力された化学構造を表す文字列または画像が格納されることができる。あるいは、データベース部200には、学習済モデルを構築するための学習用データまたは構築された学習済モデルが格納されることができる。 The database unit 200 may store, for example, a character string output by the image-character string conversion system 100 or an image converted from a character string. Alternatively, the database unit 200 may store a character string or an image representing a chemical structure output by the chemical structure estimation system 1000. Alternatively, the database unit 200 may store training data for constructing a trained model or a constructed trained model.

図3に示される例では、データベース部200は、システム100の外部に設けられているが、本発明はこれに限定されない。データベース部200をシステム100の内部に設けることも可能である。このとき、データベース部200は、メモリ部130を実装する記憶手段と同一の記憶手段によって実装されてもよいし、メモリ部130を実装する記憶手段とは別の記憶手段によって実装されてもよい。いずれにせよ、データベース部200は、システム100のための格納部として構成される。データベース部200の構成は、特定のハードウェア構成に限定されない。例えば、データベース部200は、単一のハードウェア部品で構成されてもよいし、複数のハードウェア部品で構成されてもよい。例えば、データベース部200は、システム100の外付けハードディスク装置として構成されてもよいし、ネットワークを介して接続されるクラウド上のストレージとして構成されてもよい。 3, the database unit 200 is provided outside the system 100, but the present invention is not limited to this. The database unit 200 can also be provided inside the system 100. In this case, the database unit 200 may be implemented by the same storage means as the storage means that implements the memory unit 130, or may be implemented by a storage means different from the storage means that implements the memory unit 130. In any case, the database unit 200 is configured as a storage unit for the system 100. The configuration of the database unit 200 is not limited to a specific hardware configuration. For example, the database unit 200 may be configured as a single hardware component, or may be configured as multiple hardware components. For example, the database unit 200 may be configured as an external hard disk device of the system 100, or may be configured as a cloud storage connected via a network.

図4Aは、プロセッサ部120の構成の一例を示す。 Figure 4A shows an example of the configuration of the processor unit 120.

プロセッサ部120は、受信手段121と、導出手段122と、出力手段123とを備える。 The processor unit 120 includes a receiving means 121, a derivation means 122, and an output means 123.

受信手段121は、画像を受信するように構成されている。 The receiving means 121 is configured to receive an image.

画像は、文字列と対応付けられる任意の画像であり得、好ましくは化学構造を表す画像である。受信された画像は、導出手段122に渡される。 The image can be any image that can be associated with a string, and is preferably an image representing a chemical structure. The received image is passed to the derivation means 122.

導出手段122は、画像に対応する文字列を導出するように構成されている。 The derivation means 122 is configured to derive a character string corresponding to an image.

導出手段122は、例えば、学習済モデルを用いて、画像に対応する文字列を導出することができる。学習済モデルは、学習用画像と、学習用画像に対応する文字列の一部の文字とを入力すると、入力された文字の次の文字を出力するように学習したモデルである。 The derivation means 122 can derive a character string corresponding to an image, for example, by using a trained model. The trained model is a model that has been trained to output the next character after the input character when a training image and some characters of a character string corresponding to the training image are input.

図5Aは、学習済モデルの構造の一例を示す。本例では、ディープニューラルネットワーク(DNN)が用いられている。DNNは任意の数の層を有することができる。 Figure 5A shows an example of the structure of a trained model. In this example, a deep neural network (DNN) is used. A DNN can have any number of layers.

例えば、第1の入力層に画像を入力し、第2の入力層に文字列の一部の文字を入力すると、出力層503から、当該文字列における次の文字が出力されることになる。このDNNは、例えば、以下の手法により構築されることができる。以下では、化学構造を表す画像(MTM)および対応する文字列(SMILES)例に説明する。 For example, when an image is input to the first input layer and some characters of a string are input to the second input layer, the next character in the string is output from the output layer 503. This DNN can be constructed, for example, by the following method. Below, an example of an image (MTM) representing a chemical structure and the corresponding string (SMILES) is explained.

まず、複数の既知の化合物の化学構造を画像に変換し、それぞれの化合物のそれぞれの文字列(SMILES)も導出し、画像と文字列と対にして記憶する。文字列は、意味を成す単語に分割して記憶されることができる。単語は、例えば、SMILESの意味構成単位であるトークンであり得る。 First, the chemical structures of multiple known compounds are converted into images, and character strings (SMILES) for each compound are derived and stored as pairs of images and character strings. Character strings can be divided into meaningful words and stored. Words can be, for example, tokens, which are the semantic building blocks of SMILES.

例えば、SMILES:
Cn1cc(-c2ccccc2CN2CCOCC2)c2cc[nH]c2c1=O
は、トークンにより、
start C n 1 c c ( - c 2 c c c c c 2 C N 2 C C O C C 2 ) c 2 c c [nH] c 2 c 1 = O end
と表されることができる。トークンによって表されたSMILESの始まりはstartトークンであり、終わりはendトークンであり、各トークンはスペースで区切られている。
For example, SMILES:
Cn1cc(-c2ccccc2CN2CCOCC2)c2cc[nH]c2c1=O
By token,
start C n 1 c c ( - c 2 c c c c c c 2 C N 2 C C O C C 2 ) c 2 c c [nH] c 2 c 1 = O end
The tokens represented by SMILES start with a start token and end with an end token, with each token separated by a space.

SMILESには、start、end、noneトークンを含め、全部で32種類のトークンが存在する。ここで、各トークンには、トークン-数値変換表から0~31までのうち1つの番号が割り振られる。noneトークンは、何もないことを示すトークンであり、数値としては、0が割り振られている。トークンによって表されたSMILESは、トークン-数値変換表を用いて数値化されることができる。トークン-数値変換表は、トレーニングデータに含まれるSMILESにより構築されるため、トレーニングデータが変わればトークン―数値変換表も変わり得る。学習のために適切なトークン-数値変換表が利用され得る。 There are a total of 32 types of SMILES tokens, including start, end, and none tokens. Each token is assigned a number between 0 and 31 from the token-number conversion table. The none token is a token that indicates nothing, and is assigned the numerical value 0. The SMILES represented by the tokens can be quantified using the token-number conversion table. The token-number conversion table is constructed from the SMILES contained in the training data, so if the training data changes, the token-number conversion table may also change. An appropriate token-number conversion table may be used for learning.

一例において、トークン-数値変換表は、以下のように表され得る。“ ”内がトークンを表しており、各トークンが0~31の数値に対応している。なお、トークン-数値変換表は、学習に用いられるSMILESの数および種類に応じて変動し得る、
{“none”:0,“start”:1,“C”:2,“S”:3,“(”:4,“=”:5,“O”:6,“)”:7,“c”:8,“1”:9,“n”:10,“2”:11,“F”:12,“-”:13,“3”:14,“[nH]”:15,“end”:16,“N”:17,“[C@@H]”:18,“4”:19,“L”:20,“[N+]”:21,“[O-]”:22,“s”:23,“o”:24,“[C@H]”:25,“5”:26,“#”:27,“R”:28,“6”:29,“/”:30,“[SH]”:31}
In one example, the token-number conversion table can be expressed as follows. The tokens in "" correspond to numbers from 0 to 31. Note that the token-number conversion table can vary depending on the number and types of SMILES used in learning.
{"none": 0, "start": 1, "C": 2, "S": 3, "(": 4, "=": 5, "O": 6, ")": 7, "c": 8, "1": 9, "n": 10, "2": 11, "F": 12, "-": 13, "3": 14, "[nH]": 15, "end": 16, "N": 17, "[C@@H]": 18, "4": 19, "L": 20, "[N+]": 21, "[O-]": 22, "s": 23, "o": 24, "[C@H]": 25, "5": 26, "#": 27, "R": 28, "6": 29, "/": 30, "[SH]": 31}

このトークン-数値変換表を用いると、トークンによって表されたSMILES:
start C n 1 c c ( - c 2 c c c c c 2 C N 2 C C O C C 2 ) c 2 c c [nH] c 2 c 1 = O end
は、
数値化されたSMILES:
[1,2,10,9,8,8,4,13,8,11,8,8,8,8,8,11,2,17,11,2,2,6,2,2,11,7,8,11,8,8,15,8,11,8,9,5,6,16]
として表される。
Using this token-to-number conversion table, SMILES represented by the token:
start C n 1 c c ( - c 2 c c c c c c 2 C N 2 C C O C C 2 ) c 2 c c [nH] c 2 c 1 = O end
teeth,
Quantified SMILEs:
[1, 2, 10, 9, 8, 8, 4, 13, 8, 11, 8, 8, 8, 8, 8, 11, 2, 17, 11, 2, 2, 6, 2, 2, 11, 7, 8, 11, 8, 8, 15, 8, 11, 8, 9, 5, 6, 16]
It is expressed as:

学習用データとして、1つの数値化されたSMILESから、その長さに応じた複数の学習用の数値されたSMILESを作成する。 As learning data, multiple learning quantified SMILEs are created from one quantified SMILE according to its length.

学習用データは、入力ベクトルと出力ベクトルとの対である。入力ベクトルと出力ベクトルとの対は、例えば、SMILESの第1文字目を表すベクトルとSMILESの第2文字目を表すベクトルとの対、SMILESの第2文字目までを表すベクトルとSMILESの第3文字目を表すベクトルとの対、SMILESの第3文字目までを表すベクトルとSMILESの第4文字目を表すベクトルとの対、・・・であり得る。 The training data is a pair of input vectors and output vectors. The pair of input vectors and output vectors can be, for example, a pair of a vector representing the first character of SMILES and a vector representing the second character of SMILES, a pair of a vector representing the first two characters of SMILES and a vector representing the third character of SMILES, a pair of a vector representing the first three characters of SMILES and a vector representing the fourth character of SMILES, etc.

例えば、上記の数値化されたSMILESでは、
第1の学習用データは、
入力ベクトル:
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1]
出力ベクトル(答え):
[0. 0. 1. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.]
となり得る。ここでは、トークン化されたSMILESの最大長を80としており、入力ベクトルが80次元のベクトルとなっている。何もない要素は0(noneトークンを示す)で埋められている。入力ベクトルの末尾に、第1文字目の文字(ここでは、1(“start”トークン)が挿入されている。
For example, in the above quantified SMILES,
The first learning data is
Input vector:
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1]
Output vector (answer):
[0. 0. 1. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.]
Here, the maximum length of tokenized SMILES is set to 80, and the input vector is an 80-dimensional vector. Empty elements are filled with 0 (indicating a none token). The first character (here, 1 (the "start" token)) is inserted at the end of the input vector.

また、トークンの種類が32種類であるため、出力ベクトルは、32次元のベクトルとなっている。ここでは、第2文字目の文字が2(“C”トークン)であるため、出力ベクトルの第2成分に1が設定されている。 In addition, since there are 32 types of tokens, the output vector is a 32-dimensional vector. In this example, the second character is 2 (the "C" token), so the second component of the output vector is set to 1.

この入力ベクトルおよび出力ベクトルの対により、入力が「start」、その出力(答え)が「C」であることが学習される。 With this input and output vector pair, the model learns that the input is "start" and the output (answer) is "C."

第2の学習用データは、
入力ベクトル:
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 2]
出力ベクトル(答え):
[0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 1. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.]
となり得る。入力ベクトルの末尾には、第2文字目の文字が挿入されており、ここでは、2(“C”トークン)が挿入されている。数値はベクトルの後ろから前にシフトする。また、第3文字目の文字が10(“n”トークン)であるため、出力ベクトルの第10成分に1が設定されている。
The second learning data is
Input vector:
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 2]
Output vector (answer):
[0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 1. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.]
The second character is inserted at the end of the input vector, in this case a 2 (the "C" token). The numbers are shifted from the back of the vector to the front. Also, because the third character is 10 (the "n" token), the 10th component of the output vector is set to 1.

この入力ベクトルおよび出力ベクトルの対により、入力が「start,C」、その出力(答え)が「n」であることが学習される。 With this pair of input and output vectors, the model learns that the input is "start, C" and the output (answer) is "n".

以上のことから、入力は”start C”、その出力(答え)は”n”となる。 From the above, the input is "start C" and the output (answer) is "n".

第3の学習用データは、
入力ベクトル:
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 2 10]
出力ベクトル(答え):
[0. 0. 0. 0. 0. 0. 0. 0. 0. 1. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.]
となり得る。入力ベクトルの末尾には、第3文字目の文字が挿入されており、ここでは、10(“n”トークン)が挿入されている。数値はベクトルの後ろから前にシフトする。また、第4文字目の文字が9(“1”トークン)であるため、出力ベクトルの第9成分に1が設定されている。
The third learning data is
Input vector:
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 2 10]
Output vector (answer):
[0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 1. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0. 0.]
The third character is inserted at the end of the input vector, in this case a 10 (the "n" token). The numbers are shifted from the back of the vector to the front. Also, because the fourth character is a 9 (the "1" token), the ninth component of the output vector is set to 1.

この入力ベクトルおよび出力ベクトルの対により、入力が「start,C,n」、その出力(答え)が「1」であることが学習される。 With this pair of input and output vectors, the model learns that the input is "start, C, n" and the output (answer) is "1."

この手順を繰り返すことにより、“end”トークンが出力ベクトルに設定されるまで、学習用データを作成する。例えば、数値化されたSMILESの長さが38の場合、37個の学習用データが生成される。本例では、1つのMTMに対して37個の学習用データが生成されたことになる。学習用データと、MTMとを用いて学習処理が行われる。MTMは、例えば、28×28ピクセルの画像であり、28×28の2階のテンソル(2次元行列)として表現される。各成分は、正規化されたピクセル値であってもよいし、実数値であってもよい。 By repeating this procedure, training data is created until the "end" token is set in the output vector. For example, if the length of the quantified SMILES is 38, 37 pieces of training data are generated. In this example, 37 pieces of training data are generated for one MTM. Training processing is performed using the training data and the MTM. The MTM is, for example, an image of 28 x 28 pixels, and is expressed as a 28 x 28 second-order tensor (two-dimensional matrix). Each component may be a normalized pixel value or a real value.

作成された学習用データと対応するMTMとを用いて、図5Aに示されるDNNの学習処理を行うことによって学習済モデルが構築される。学習の際のハイパーパラメータは、任意のものに設定され得る。 A trained model is constructed by performing the DNN training process shown in FIG. 5A using the created training data and the corresponding MTM. The hyperparameters used during training can be set to any value.

導出手段122は、例えば、上記のように構築された学習済モデルを用いて、以下のように、MTMに対応するSMILESを導出することができる。 The derivation means 122 can use the trained model constructed as described above to derive the SMILES corresponding to the MTM as follows:

はじめに、MTMと、「Start」トークンを表す入力ベクトルとが、学習済モデルに入力される。MTMは、2次元行列から784の要素からなるベクトルに変換されたのち、学習済モデルの第1の入力層501に入力される。「Start」トークンを表す入力ベクトルは、学習済モデルの第2の入力層502に入力される。「Start」トークンを表す入力ベクトルは、「Start」トークンに対応する数値が末尾に挿入されたベクトルであり得る。
入力ベクトル:
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1]
First, the MTM and an input vector representing the "Start" token are input to the trained model. The MTM is converted from a two-dimensional matrix into a vector consisting of 784 elements, and then input to the first input layer 501 of the trained model. The input vector representing the "Start" token is input to the second input layer 502 of the trained model. The input vector representing the "Start" token may be a vector with a number corresponding to the "Start" token inserted at the end.
Input vector:
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1]

学習済モデルの出力層503からは、「Start」トークンの次にくるトークンが予測され出力される。学習済モデルの出力層503の出力は、32次ベクトルであり、各成分は、対応するトークンが次にくる確率を示している。 The output layer 503 of the trained model predicts and outputs the token that will come next after the "Start" token. The output of the output layer 503 of the trained model is a 32nd order vector, with each component indicating the probability that the corresponding token will come next.

例えば、出力ベクトルが、
[ 7.69443306e-14 3.60606239e-13 9.99999762e-01 4.12664393e-16
9.96908610e-13 2.51735466e-10 9.08047681e-08 1.14084934e-07
6.60184440e-09 3.07496715e-12 2.06361572e-09 3.41530715e-15
1.59075051e-16 1.24587674e-10 1.68514540e-12 4.61158471e-08
1.24160726e-09 2.73644041e-12 7.36772874e-20 1.35796608e-15
2.88039873e-17 1.01721806e-13 1.73131027e-13 6.01821607e-17
1.28117691e-16 6.16416265e-22 1.21871484e-20 1.19068711e-21
1.47954461e-16 3.89847341e-28 4.67776026e-23 5.85218293e-23]
であった場合、一例において、第0の成分~第31の成分の32個の成分のうち、第2の成分が9.99999762e-01と最も大きな値(確率)であるため、第2の成分に対応するトークンが選択されることができる(最も確率が大きい値を選択する手法を、Argmax法と呼ぶ)。トークン-数値変換表から第2の成分は、“C”トークンに対応しているため、入力された“start”トークンの次のトークンは、“C”トークンであることが予想される。
For example, if the output vector is
[ 7.69443306e-14 3.60606239e-13 9.99999762e-01 4.12664393e-16
9.96908610e-13 2.51735466e-10 9.08047681e-08 1.14084934e-07
6.60184440e-09 3.07496715e-12 2.06361572e-09 3.41530715e-15
1.59075051e-16 1.24587674e-10 1.68514540e-12 4.61158471e-08
1.24160726e-09 2.73644041e-12 7.36772874e-20 1.35796608e-15
2.88039873e-17 1.01721806e-13 1.73131027e-13 6.01821607e-17
1.28117691e-16 6.16416265e-22 1.21871484e-20 1.19068711e-21
1.47954461e-16 3.89847341e-28 4.67776026e-23 5.85218293e-23]
In this case, in one example, the second component has the largest value (probability) of 9.99999762e-01 among the 32 components from the 0th component to the 31st component, so the token corresponding to the second component can be selected (the method of selecting the value with the largest probability is called the Argmax method). Since the second component corresponds to the "C" token according to the token-number conversion table, it is predicted that the next token after the input "start" token will be the "C" token.

別の例では、Argmax法とは異なる選択法としてTemperature sampling(T-sampling)法を用いることができる。T-sampling法は、例えば、iScience 25, 104661, 2022 DOI(https://doi.org/10.1016/j.isci.2022.104661)に記載されている。T-sampling法は、温度が高いほど低エネルギー状態に遭遇しやすいという統計熱力学に着想を得た手法である。Argmax法では、最も大きい値(確率)をもつトークンのみが選択されるが、T-sampling法は、温度Tに基づいてトークンを選択する手法であって、最も大きい値(確率)をもつトークンではないトークンも選択可能とする手法である。 In another example, the temperature sampling (T-sampling) method can be used as a selection method different from the Argmax method. The T-sampling method is described, for example, in iScience 25, 104661, 2022 DOI (https://doi.org/10.1016/j.isci.2022.104661). The T-sampling method is a method inspired by statistical thermodynamics, in which the higher the temperature, the more likely it is to encounter a low-energy state. In the Argmax method, only the token with the largest value (probability) is selected, but the T-sampling method is a method of selecting a token based on the temperature T, and is a method that allows the selection of tokens other than the token with the largest value (probability).

T-sampling法によるトークン選択法は次の通りである。 The token selection method using the T-sampling method is as follows:

はじめに、出力ベクトルXが式(1)を使ってpに変換される。
ここで、zはln(x)であり、添え字iは、ベクトルのi番目の成分を指す。またTは温度であり、任意の値に設定可能である。Tが大きいほど、各成分の確率の差が小さくなり、より均等な確率でトークンが選択されることになる。
First, the output vector X is transformed to p using equation (1).
Here, z i is ln(x i ), where the subscript i refers to the i-th component of the vector, and T is the temperature, which can be set to any value. The larger T is, the smaller the difference in probability of each component becomes, and the more even the probability of the token being selected becomes.

次に、piに基づく多項分布によるランダムサンプリングを行うことで、成分を選択する。このランダムサンプリングによりArgmax法とは異なる成分を選択できる可能性をもつことができる。T-sampling法の利用により、多様な文字列の生成が可能となる。 Next, components are selected by random sampling using a multinomial distribution based on p i . This random sampling has the potential to select components different from those selected by the Argmax method. The use of the T-sampling method makes it possible to generate a variety of character strings.

選択されたトークンは、入力ベクトル末尾に挿入される。例えば、Argmax法により第2の成分に対応するトークン(“C”トークン)が選択された場合、入力ベクトルの末尾に挿入され、数値はベクトルの後ろから前にシフトする。
入力ベクトル:
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 2]
The selected token is inserted at the end of the input vector. For example, if the token corresponding to the second component is selected by the Argmax method (the "C" token), it is inserted at the end of the input vector, shifting the values from the back of the vector to the front.
Input vector:
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 2]

この入力ベクトルとMTMが学習済モデルに入力され、出力される確率に基づいて、トークンが選択される。これを繰り返し、次の条件のいずれかを満たす場合に処理を終了することができる。
1.“end”トークンが選択される。
2.入力ベクトルの0(noneトークン)がなくなる。
This input vector and MTM are input to the trained model, and a token is selected based on the output probability. This process is repeated, and the process can be terminated when any of the following conditions is met:
1. The "end" token is selected.
2. The input vector has no 0s (none tokens).

このようにして得られたベクトルは、トークン-数値変換表を用いてSMILESに変換される。このとき、noneトークン、startトークン、endトークンは除去される。 The vector obtained in this way is converted to SMILES using a token-to-number conversion table. At this time, the none token, start token, and end token are removed.

例えば、
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 2 8 9 15 8 4 13 8 11 8 8 8 8 8 11 6 8 11 8 8 8 8 8 11 7 8 8 9 2 4 17 7 5 6 16]
が得られたとき、SMILESに変換すると、
Cc1[nH]c(-c2ccccc2Oc2ccccc2)cc1C(N)=O
となる。これは、2-methyl-5-(2-phenoxyphenyl)-1H-pyrrole-3-carboxamideの化合物を表している。
for example,
[0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 2 8 9 15 8 4 13 8 11 8 8 8 8 8 11 6 8 11 8 8 8 8 8 11 7 8 8 9 2 4 17 7 5 6 16]
When we obtain this, we convert it to SMILES and get
Cc1[nH]c(-c2ccccc2Oc2ccccc2)cc1C(N)=O
This represents the compound 2-methyl-5-(2-phenoxyphenyl)-1H-pyrrole-3-carboxamide.

このようにして、MTMから文字列を導出することができる。T-sampling法が用いられる場合には、複数の文字列候補が導出されることになる。 In this way, a character string can be derived from the MTM. If the T-sampling method is used, multiple character string candidates will be derived.

出力手段123は、導出された文字列を出力するように構成されている。 The output means 123 is configured to output the derived character string.

出力手段123は、例えば、導出された文字列を、ユーザにとって容易に理解にできる情報に変換して出力することができる。例えば、導出された文字列が化学構造を表す場合、出力手段123は、導出された文字列を構造式に変換して出力することができる。 The output means 123 can, for example, convert the derived character string into information that is easily understandable to the user and output the information. For example, if the derived character string represents a chemical structure, the output means 123 can convert the derived character string into a structural formula and output the structural formula.

出力された文字列または文字列から変換された情報は、例えば、インターフェース部110を介してユーザに提示されることができる。 The output string or information converted from the string can be presented to the user, for example, via the interface unit 110.

出力された文字列は任意の用途に利用されることができる。一例において、出力された文字列は、対応する化学構造の特性を予測するために利用されることができる。 The output string can be used for any purpose. In one example, the output string can be used to predict properties of the corresponding chemical structure.

図4Bは、プロセッサ部120の代替実施形態であるプロセッサ部120Aの構成の一例を示す。プロセッサ部120Aは、化学構造の特性を予測するための構成を有している。 Figure 4B shows an example of the configuration of processor unit 120A, which is an alternative embodiment of processor unit 120. Processor unit 120A has a configuration for predicting properties of chemical structures.

プロセッサ部120Aは、受信手段121と、導出手段122と、出力手段123と、生成手段124と、予測手段125とを備えている。受信手段121、導出手段122、および出力手段123は、プロセッサ部120について上述したものと同一の構成を有し、ここでは説明を省略する。 The processor unit 120A includes a receiving means 121, a derivation means 122, an output means 123, a generation means 124, and a prediction means 125. The receiving means 121, the derivation means 122, and the output means 123 have the same configuration as that described above for the processor unit 120, and a description thereof will be omitted here.

出力手段123は、導出された文字列を生成手段124に渡す。 The output means 123 passes the derived string to the generation means 124.

生成手段124は、文字列を変換して画像を生成するように構成されている。 The generating means 124 is configured to convert the character string to generate an image.

文字列を変換して画像を生成することは、文字列に対応する化学構造を画像(MTM)に変換することを含む。これは、例えば、Atsushi Yoshimori, “Prediction of Molecular Properties Using Molecular Topographic Map”, Molecules 2021, 26, 4475に説明されるMTMコンバータを用いて実現されることができる。 Converting the character string to generate an image includes converting the chemical structure corresponding to the character string into an image (MTM). This can be achieved, for example, using the MTM converter described in Atsushi Yoshimori, "Prediction of Molecular Properties Using Molecular Topographic Map", Molecules 2021, 26, 4475.

予測手段125は、画像に基づいて、対象の特性を予測するように構成されている。特に、予測手段125は、化学構造を表す画像に基づいて、化学構造の特性を予測することができる。 The prediction means 125 is configured to predict a property of an object based on an image. In particular, the prediction means 125 can predict a property of a chemical structure based on an image representing the chemical structure.

予測手段125は、例えば、学習用化学構造を表す文字列を変換した画像と、学習用化学構造の特性との関係を学習した第2の学習済モデルを用いて、化学構造の特性を予測することができる。第2の学習済モデルは、学習用化学構造を表す文字列を変換した画像を入力すると、学習用化学構造の特性を出力するように学習している。 The prediction means 125 can predict the characteristics of a chemical structure, for example, by using a second trained model that has learned the relationship between an image obtained by converting a character string representing a training chemical structure and the characteristics of the training chemical structure. The second trained model has been trained to output the characteristics of the training chemical structure when an image obtained by converting a character string representing a training chemical structure is input.

図5Bは、学習済モデルの構造の一例を示す。本例では、ディープニューラルネットワーク(DNN)が用いられている。DNNは任意の数の層を有することができる。 Figure 5B shows an example of the structure of a trained model. In this example, a deep neural network (DNN) is used. A DNN can have any number of layers.

例えば、入力層に画像を入力すると、出力層から、画像に対応する化学構造の特性が出力されることになる。このDNNは、例えば、複数の学習用化学構造のそれぞれについて、1つの学習用化学構造から生成された画像を入力用教師データとし、その学習用化学構造の特性を出力用教師データとして学習することによって構築されることができる。学習用化学構造から生成された画像は、例えば、28×28の2次元行列として入力用教師データに利用される。 For example, when an image is input to the input layer, the characteristics of the chemical structure corresponding to the image are output from the output layer. This DNN can be constructed, for example, by using an image generated from one training chemical structure as input training data for each of a number of training chemical structures, and learning the characteristics of that training chemical structure as output training data. The image generated from the training chemical structure is used as the input training data, for example, as a 28 x 28 two-dimensional matrix.

予測手段125によって予測された特性は、システム100の外部に出力されることができる。予測された特性は、例えば、データベース部200に格納されてもよいし、端末装置300に送信されてユーザに提示されてもよい。 The characteristics predicted by the prediction means 125 can be output to the outside of the system 100. The predicted characteristics may be stored, for example, in the database unit 200, or may be transmitted to the terminal device 300 and presented to the user.

このように、プロセッサ部120Aによれば、受信された画像から導出された文字列を、画像に再変換して、対象(例えば、化学構造)の特性を予測することができる。これは、例えば、導出手段122から複数の文字列候補が導出される場合に、1つの文字列(または対応する化学構造)を特定する際に役立つ。具体的には、導出手段122から複数の文字列候補が導出されたとき、それぞれの文字列候補を画像に変換して特性を予測することで、最も良いまたは所望の特性を有する化学構造(または対応する文字列)を選択することが可能になる。 In this way, the processor unit 120A can convert the character string derived from the received image back into an image to predict the properties of the target (e.g., a chemical structure). This is useful, for example, in identifying one character string (or a corresponding chemical structure) when multiple character string candidates are derived from the derivation means 122. Specifically, when multiple character string candidates are derived from the derivation means 122, it becomes possible to select the chemical structure (or corresponding character string) having the best or desired properties by converting each of the character string candidates into an image and predicting the properties.

図4Cは、プロセッサ部120の代替実施形態であるプロセッサ部120Bの構成の一例を示す。プロセッサ部120Bは、化学構造を推定するための構成を有している。従って、プロセッサ部120Bは、化学構造推定システム1000のプロセッサ部ともなり得る。 Figure 4C shows an example of the configuration of processor unit 120B, which is an alternative embodiment of processor unit 120. Processor unit 120B has a configuration for estimating chemical structures. Therefore, processor unit 120B can also be the processor unit of chemical structure estimation system 1000.

プロセッサ部120Bは、第1の生成手段126と、第2の生成手段127と、導出手段122と、出力手段123とを備える。図4Cにおいて、図4Aを参照して上述した構成を同様の構成には同一の参照番号を付し、ここでは、詳細な説明を省略する。 The processor unit 120B includes a first generating means 126, a second generating means 127, a derivation means 122, and an output means 123. In FIG. 4C, the same reference numerals are used to designate components similar to those described above with reference to FIG. 4A, and detailed descriptions thereof will be omitted here.

第1の生成手段126は、化学構造を変換して画像を生成するように構成されている。第1の生成手段126は、図4Bを参照して上述した生成手段124と同様の構成を有する。すなわち、第1の生成手段126は、MTMコンバータを用いて実現されることができる。 The first generating means 126 is configured to convert the chemical structure to generate an image. The first generating means 126 has a configuration similar to that of the generating means 124 described above with reference to FIG. 4B. That is, the first generating means 126 can be realized using an MTM converter.

生成された画像は、第2の生成手段127に渡される。 The generated image is passed to the second generation means 127.

第2の生成手段127は、生成された画像を改変して改変画像を生成するように構成されている。 The second generating means 127 is configured to modify the generated image to generate a modified image.

第2の生成手段127は、画像に対して任意の改変を行うことができる。第2の生成手段127は、例えば、画像内の任意のピクセルの実数値またはピクセル値に所定の値を加算、減算、乗算、除算することができる。 The second generating means 127 can perform any modification to the image. For example, the second generating means 127 can add, subtract, multiply, or divide a given value to the real value or pixel value of any pixel in the image.

あるいは、第1の生成手段126が複数の化学構造を変換して複数の画像を生成した場合、第2の生成手段126は、複数の画像を組み合わせることによって改変を行うことができる。複数の画像の組み合わせは、例えば、複数の画像の平均をとることであり得る。これにより、生成される画像(すなわち、改変画像)の各ピクセル値は、複数の画像のそれぞれの対応するピクセル値の平均または加重平均となり得る。あるいは、改変画像の各ピクセル値は、複数の画像のそれぞれの対応するピクセルの実数値の平均または加重平均となり得る。 Alternatively, if the first generating means 126 converts multiple chemical structures to generate multiple images, the second generating means 126 can perform the modification by combining the multiple images. The combination of the multiple images can be, for example, averaging the multiple images. This allows each pixel value of the generated image (i.e., the modified image) to be the average or weighted average of the corresponding pixel values of each of the multiple images. Alternatively, each pixel value of the modified image can be the average or weighted average of the real values of the corresponding pixels of each of the multiple images.

導出手段122は、改変画像に対応する文字列を導出するように構成されている。導出された文字列は、出力手段123に渡される。 The derivation means 122 is configured to derive a character string corresponding to the altered image. The derived character string is passed to the output means 123.

出力手段123は、導出された文字列に対応する化学構造を出力するように構成されている。 The output means 123 is configured to output a chemical structure corresponding to the derived character string.

プロセッサ部120Bは、入力された化学構造から変換される画像を改変して文字列を出力するため、入力された化学構造とは異なる化学構造の文字列を出力することができる。例えば、2つの化学構造を入力すると、2つの化学構造の平均となり得る化学構造の文字列が出力されることになる。例えば、1つの化学構造を入力すると、改変された化学構造の文字列が出力されることになる。これにより、プロセッサ部120Bは、新規な化学構造を推定することができる。 Since the processor unit 120B outputs a character string by modifying an image converted from an input chemical structure, it is possible to output a character string with a chemical structure different from the input chemical structure. For example, when two chemical structures are input, a character string with a chemical structure that may be the average of the two chemical structures is output. For example, when one chemical structure is input, a character string with a modified chemical structure is output. This allows the processor unit 120B to estimate a new chemical structure.

図4Dは、プロセッサ部120の代替実施形態であるプロセッサ部120Cの構成の一例を示す。プロセッサ部120Cは、特性が改変された(好ましくは、向上した)化学構造を推定するための構成を有している。従って、プロセッサ部120Cは、化学構造推定システム1000のプロセッサ部ともなり得る。 Figure 4D shows an example of the configuration of processor unit 120C, which is an alternative embodiment of processor unit 120. Processor unit 120C has a configuration for estimating chemical structures with modified (preferably improved) properties. Thus, processor unit 120C can also be the processor unit of chemical structure estimation system 1000.

プロセッサ部120Cは、第1の生成手段126と、第2の生成手段127と、導出手段122と、第3の生成手段128と、予測手段125と、特定手段129とを備える。図4Dにおいて、図4Aを参照して上述した構成を同様の構成には同一の参照番号を付し、ここでは、詳細な説明を省略する。 The processor unit 120C includes a first generating means 126, a second generating means 127, a derivation means 122, a third generating means 128, a prediction means 125, and a determination means 129. In FIG. 4D, the same reference numbers are used for configurations similar to those described above with reference to FIG. 4A, and detailed descriptions thereof are omitted here.

第1の生成手段126は、化学構造を変換して画像を生成するように構成されている。 The first generating means 126 is configured to convert the chemical structure to generate an image.

第2の生成手段127は、生成された画像を改変して改変画像を生成するように構成されている。 The second generating means 127 is configured to modify the generated image to generate a modified image.

導出手段122は、改変画像に対応する複数組の文字列を導出するように構成されている。導出手段122は、T-sampling法を用いて、複数組の文字列を導出することができる。複数組の文字列はそれぞれ、改変画像に対応し得るが、その対応の程度が異なっている。導出された複数組の文字列は、第3の生成手段128に渡される。 The deriving means 122 is configured to derive a plurality of sets of character strings corresponding to the altered image. The deriving means 122 can derive the plurality of sets of character strings using a T-sampling method. Each of the plurality of sets of character strings may correspond to the altered image, but the degree of correspondence varies. The derived plurality of sets of character strings are passed to a third generating means 128.

第3の生成手段128は、複数組の文字列のそれぞれを変換して複数の画像を生成するように構成されている。第3の生成手段128は、図4Bを参照して上述した生成手段124と同様の構成を有する。第3の生成手段128は、複数組の文字列のそれぞれに対して処理を行うことにより、それぞれの画像を生成する。例えば、第3の生成手段128により、第1の文字列から第1の画像が生成され、第2の文字列から第2の画像が生成され、第3の文字列から第3の画像が生成され、・・・第nの文字列から第nの画像が生成される。上述したとおり、複数組の文字列はそれぞれ、改変画像に対応し得るが、その対応の程度が異なるため、生成された画像は、改変画像に一致しないことがあるが、生成された画像は、改変画像に類似する画像であり得る。 The third generating means 128 is configured to convert each of the multiple sets of character strings to generate multiple images. The third generating means 128 has a configuration similar to that of the generating means 124 described above with reference to FIG. 4B. The third generating means 128 processes each of the multiple sets of character strings to generate each image. For example, the third generating means 128 generates a first image from a first character string, a second image from a second character string, a third image from a third character string, ... and an nth image from an nth character string. As described above, each of the multiple sets of character strings may correspond to an altered image, but since the correspondences vary, the generated images may not match the altered image, but the generated images may be similar to the altered image.

予測手段125は、生成された複数の画像のそれぞれに基づいて、それぞれの画像に対応する化学構造の特性を予測するように構成されている。予測手段125は、複数の画像のそれぞれに対して処理を行うことにより、それぞれの特性を予測することができる。例えば、予測手段125により、第1の画像から対応する第1の化学構造の特性が予測され、第2の画像から対応する第2の化学構造の特性が予測され、第3の画像から対応する第3の化学構造の特性が予測され、・・・第nの画像から対応する第nの化学構造の特性が予測される。 The prediction means 125 is configured to predict the characteristics of the chemical structure corresponding to each of the multiple images generated, based on each of the multiple images. The prediction means 125 can predict the characteristics of each of the multiple images by processing each of the multiple images. For example, the prediction means 125 predicts the characteristics of a corresponding first chemical structure from a first image, predicts the characteristics of a corresponding second chemical structure from a second image, predicts the characteristics of a corresponding third chemical structure from a third image, ... predicts the characteristics of a corresponding nth chemical structure from an nth image.

特定手段129は、予測された特性に基づいて、特性が改変された化学構造を特定するように構成されている。特定手段129は、複数の画像のそれぞれに対応する化学構造の特性を比較し、所定の基準を満たす化学構造を特定することができる。所定の基準は、例えば、最も高いまたは最も低い特性値を有する化学構造、入力された化学構造よりも高いまたは低い特性値を有する化学構造等であり得る。 The identification means 129 is configured to identify a chemical structure with an altered property based on the predicted property. The identification means 129 can compare the properties of the chemical structures corresponding to each of the multiple images and identify a chemical structure that satisfies a predetermined criterion. The predetermined criterion can be, for example, a chemical structure having the highest or lowest property value, a chemical structure having a property value higher or lower than the input chemical structure, etc.

プロセッサ部120Cは、入力された化学構造を改変して得られる化学構造のうち、改変された特性を有する化学構造を特定することができる。例えば、2つの化学構造を入力すると、2つの化学構造の平均となり得る化学構造のうち、改変された特性を有する化学構造を特定することができる。例えば、1つの化学構造を入力すると、改変された化学構造のうち、改変された特性を有する化学構造を特定することができる。これにより、プロセッサ部120Bは、新規な化学構造であって、特性が改変された化学構造を推定することができる。 The processor unit 120C can identify a chemical structure having modified properties among chemical structures obtained by modifying an input chemical structure. For example, when two chemical structures are input, a chemical structure having modified properties can be identified among chemical structures that can be the average of the two chemical structures. For example, when one chemical structure is input, a chemical structure having modified properties can be identified among modified chemical structures. This allows the processor unit 120B to estimate a new chemical structure with modified properties.

なお、上述した例では、化学構造を対象としたが、対象は化学構造に限定されない。対象は、構造を有し、構造が画像と一意に関連付けられるものであれば、任意の対象であり得る。 In the above example, the target was a chemical structure, but the target is not limited to a chemical structure. The target can be any object as long as it has a structure and the structure is uniquely associated with an image.

なお、上述したシステム100の各構成要素は、単一のハードウェア部品で構成されていてもよいし、複数のハードウェア部品で構成されていてもよい。複数のハードウェア部品で構成される場合は、各ハードウェア部品が接続される態様は問わない。各ハードウェア部品は、無線で接続されてもよいし、有線で接続されてもよい。本発明のシステム100は、特定のハードウェア構成には限定されない。プロセッサ部120をデジタル回路ではなくアナログ回路によって構成することも本発明の範囲内である。本発明のシステム100の構成は、その機能を実現できる限りにおいて上述したものに限定されない。 Each component of the system 100 described above may be composed of a single hardware part, or may be composed of multiple hardware parts. When composed of multiple hardware parts, the manner in which the hardware parts are connected does not matter. The hardware parts may be connected wirelessly or by wire. The system 100 of the present invention is not limited to a specific hardware configuration. It is also within the scope of the present invention that the processor unit 120 is configured by an analog circuit rather than a digital circuit. The configuration of the system 100 of the present invention is not limited to the one described above as long as it can realize its functions.

3.画像-文字列変換システム100における処理
図6は、画像-文字列変換システム100における処理の一例(処理600)を示す。処理600は、画像を文字列に変換するための処理である。処理600は、例えば、プロセッサ部120において実行されることができる。以下では、プロセッサ部120が処理600を実行することを説明するが、プロセッサ部120Aも同様に処理600を実行することができる。
3. Processing in image-to-character string conversion system 100 Fig. 6 shows an example of processing (process 600) in image-to-character string conversion system 100. Process 600 is processing for converting an image into a character string. Process 600 can be executed in, for example, processor unit 120. In the following, the processor unit 120 will be described as executing process 600, but processor unit 120A can also execute process 600 in a similar manner.

ステップS601では、プロセッサ部120の受信手段121が、画像を受信する。画像は、文字列と対応付けられる任意の画像であり得る。好ましくは、画像は、化学構造を表す画像(例えば、MTM)である。受信された画像は、導出手段122に渡される。 In step S601, the receiving means 121 of the processor unit 120 receives an image. The image may be any image that can be associated with a character string. Preferably, the image is an image representing a chemical structure (e.g., MTM). The received image is passed to the derivation means 122.

ステップS602では、プロセッサ部120の導出手段122が、画像に対応する文字列を導出する。 In step S602, the derivation means 122 of the processor unit 120 derives a character string corresponding to the image.

導出手段122は、例えば、学習済モデルを用いて、画像に対応する文字列を導出することができる。ここで、学習済モデルは、学習用画像と、学習用画像に対応する文字列の一部の文字とを入力すると、その文字の次の文字を出力するように学習している。これにより、学習済モデルに、画像と、その画像に対応する文字列の一部の文字とを入力する、その文字列におけるその文字の次の文字が出力される。 The derivation means 122 can derive a character string corresponding to an image, for example, by using a trained model. Here, the trained model has been trained to output the character following that character when a training image and a character that is part of a character string corresponding to the training image are input. As a result, when an image and a character that is part of a character string corresponding to the image are input to the trained model, the character following that character in the string is output.

例えば、学習済モデルに、ステップS601で受信された画像と、その画像に対応する文字列における第1の文字(例えば、SMILESにおけるStartトークンに対応する文字)とを入力すると、学習済モデルから、当該文字列における第2の文字が出力される。例えば、学習済モデルに、ステップS601で受信された画像と、その画像に対応する文字列における第1の文字と、先に出力された第2の文字とを入力すると、学習済モデルから、当該文字列における第3の文字が出力される。これを繰り返すことにより、当該文字列の全ての文字列が出力されることになる。 For example, when the image received in step S601 and the first character in the string corresponding to that image (e.g., the character corresponding to the Start token in SMILES) are input to the trained model, the second character in the string is output from the trained model. For example, when the image received in step S601, the first character in the string corresponding to that image, and the second character previously output are input to the trained model, the third character in the string is output from the trained model. By repeating this, all characters in the string are output.

学習済モデルが文字列における次の文字を出力するとき、学習済モデルは、例えば、次の文字の候補である複数の候補文字のそれぞれについて、次の文字となる確率を出力し、その確率に基づいて、次の文字を出力することができる。一実施形態において、複数の候補文字のうち、確率が最も高い1つの候補文字を選択し、選択された候補文字を次の文字として出力することができる。これは、上述したArgmax法に対応している。別の実施形態において、複数の候補文字のそれぞれの確率の分布に従って、複数の候補文字のうちの1つの候補文字を選択し、選択された候補文字を次の文字として出力することができる。これは、上述したT-sampling法に対応している。確率の分布には、重みをつけることができ、これにより、所望の結果が得られるように調節することが可能である。重みは、上述したT-sampling法におけるTの値に対応している。Tが大きいほど、各候補文字の確率の差が小さくなり、より均等な確率で候補文字が選択されることになる。 When the trained model outputs the next character in the string, the trained model can, for example, output the probability of each of a plurality of candidate characters that are candidates for the next character being the next character, and output the next character based on the probability. In one embodiment, one of the plurality of candidate characters with the highest probability can be selected, and the selected candidate character can be output as the next character. This corresponds to the Argmax method described above. In another embodiment, one of the plurality of candidate characters can be selected according to the distribution of the probabilities of each of the plurality of candidate characters, and the selected candidate character can be output as the next character. This corresponds to the T-sampling method described above. The distribution of probabilities can be weighted, and can be adjusted to obtain a desired result. The weight corresponds to the value of T in the T-sampling method described above. The larger T is, the smaller the difference in probability between each candidate character is, and the candidate characters are selected with a more equal probability.

確率の分布に従って、複数の候補文字のうちの1つの候補文字を選択することによって文字列における文字を出力することを繰り返すことによって導出される文字列は、同じ画像に対して処理600を複数回行う場合、必ずしも同じになるとは限らない。確率の分布に従って、導出される文字列にばらつきが生じるからである。これは、1つの画像から、その画像に対応し得る複数の文字列候補を導出することを可能にする。 The string derived by repeatedly outputting the characters in the string by selecting one of multiple candidate characters according to a probability distribution will not necessarily be the same when process 600 is performed multiple times on the same image. This is because there will be variation in the derived string according to the probability distribution. This makes it possible to derive multiple candidate strings that may correspond to a single image from that image.

例えば、上述したSMILESを例にすると、学習済モデルは、次の文字の候補である複数の候補文字(SMILESのトークンに対応する32個の候補文字)のそれぞれについて、次の文字となる確率を出力する。導出手段122は、学習済モデルからの出力のうち、最も高い確率の候補文字(SMILESのトークンに対応する1つの候補文字)を選択するようにしてもよいし、確率の分布に従って1つの候補文字(SMILESのトークンに対応する1つの候補文字)を選択するようにしてもよい。 For example, in the above-mentioned example of SMILES, the trained model outputs the probability that each of multiple candidate characters (32 candidate characters corresponding to the SMILES token) that are candidates for the next character will be the next character. The derivation means 122 may select the candidate character with the highest probability (one candidate character corresponding to the SMILES token) from the outputs from the trained model, or may select one candidate character (one candidate character corresponding to the SMILES token) according to the probability distribution.

ステップS603では、プロセッサ部120の出力手段123が、ステップS602で導出された文字列を出力する。出力手段123は、例えば、導出された文字列を、ユーザにとって容易に理解にできる情報に変換して出力することができる。例えば、導出された文字列が化学構造を表す場合、出力手段123は、導出された文字列を構造式に変換して出力することができる。 In step S603, the output means 123 of the processor unit 120 outputs the character string derived in step S602. The output means 123 can, for example, convert the derived character string into information that is easily understandable to the user and output it. For example, if the derived character string represents a chemical structure, the output means 123 can convert the derived character string into a structural formula and output it.

出力された文字列は任意の用途に利用されることができる。一例において、出力された文字列は、対象の特性を予測するために利用されることができる。 The output string can be used for any purpose. In one example, the output string can be used to predict properties of an object.

例えば、ステップS603の後、プロセッサ部120Aの生成手段124が、出力された文字列を変換して画像を生成することと、プロセッサ部120Aの予測手段125が、生成された画像に基づいて、画像が表す対象の特性を予測することとを行うことができる。 For example, after step S603, the generation means 124 of the processor unit 120A can convert the output character string to generate an image, and the prediction means 125 of the processor unit 120A can predict the characteristics of the object represented by the image based on the generated image.

予測手段125は、学習用画像と、学習用画像が表す対象の特性との関係を学習した第2の学習済モデルを用いて、特性を予測することができる。第2の学習済モデルは、画像を入力すると、その画像が表す対象の特性を出力することができる。 The prediction means 125 can predict the characteristics using a second trained model that has learned the relationship between the training image and the characteristics of the object represented by the training image. When an image is input, the second trained model can output the characteristics of the object represented by the image.

一例において、出力された化学構造を表す文字列は、MTMに変換され、変換されたMTMは、第2の学習済モデルに入力され、これにより、当該化学構造の特性を予測することができる。
In one example, the outputted string representing the chemical structure is converted to an MTM, and the converted MTM is input to a second trained model, which can predict properties of the chemical structure.

図7は、化学構造推定システム1000における処理の一例(700)を示す。処理700は、化学構造を推定するための処理である。処理700は、例えば、プロセッサ部120Bにおいて実行されることができる。 Figure 7 shows an example (700) of a process in the chemical structure estimation system 1000. Process 700 is a process for estimating a chemical structure. Process 700 can be executed, for example, in the processor unit 120B.

ステップS701において、プロセッサ部120Bの第1の生成手段126が、化学構造を変換して画像を生成する。第1の生成手段126は、例えば、MTMコンバータを用いて、化学構造を変換して画像(MTM)を生成することができる。 In step S701, the first generating means 126 of the processor unit 120B converts the chemical structure to generate an image. The first generating means 126 can convert the chemical structure to generate an image (MTM) using, for example, an MTM converter.

ステップS701では、第1の生成手段126は、複数の化学構造のそれぞれを変換して複数の画像を生成することができる。例えば、第1の生成手段126は、第1の化学構造を表す第1の文字列を変換して第1の画像を生成し、第2の化学構造を表す第2の文字列を変換して第2の画像を生成することができる。 In step S701, the first generating means 126 can generate a plurality of images by converting each of the plurality of chemical structures. For example, the first generating means 126 can convert a first character string representing a first chemical structure to generate a first image, and convert a second character string representing a second chemical structure to generate a second image.

ステップS702において、プロセッサ部120Bの第2の生成手段127が、ステップS701で生成された画像を改変して改変画像を生成する。 In step S702, the second generating means 127 of the processor unit 120B generates an altered image by modifying the image generated in step S701.

第2の生成手段127は、化学構造を変換して生成された画像に対して任意の改変を行うことができる。第2の生成手段127は、例えば、画像内の任意のピクセルの実数値またはピクセル値に所定の値を加算、減算、乗算、除算することができる。 The second generating means 127 can perform any modification to the generated image by converting the chemical structure. For example, the second generating means 127 can add, subtract, multiply, or divide a given value to the real value or pixel value of any pixel in the image.

複数の化学構造を変換して複数の画像が生成されている場合には、第2の生成手段127は、複数の画像を組み合わせることで改変画像を生成することができる。複数の画像の組み合わせは、例えば、複数の画像の平均をとることであり得る。これにより、生成される画像(すなわち、改変画像)の各ピクセル値は、複数の画像のそれぞれの対応するピクセル値の平均または加重平均となり得る。あるいは、改変画像の各ピクセル値は、複数の画像のそれぞれの対応するピクセルの実数値の平均または加重平均となり得る。 In the case where multiple images are generated by converting multiple chemical structures, the second generating means 127 can generate the modified image by combining the multiple images. The combination of the multiple images can be, for example, averaging the multiple images. In this way, each pixel value of the generated image (i.e., the modified image) can be the average or weighted average of the corresponding pixel values of each of the multiple images. Alternatively, each pixel value of the modified image can be the average or weighted average of the real values of the corresponding pixels of each of the multiple images.

ステップS703において、プロセッサ部120Bの導出手段122が、改変画像に対応する文字列を導出する。導出手段122は、ステップS602と同様にして、文字列を導出することができる。 In step S703, the derivation means 122 of the processor unit 120B derives a character string corresponding to the altered image. The derivation means 122 can derive the character string in a manner similar to step S602.

例えば、学習済モデルに、ステップS702で生成された改変画像と、その改変画像に対応する文字列における第1の文字(例えば、SMILESにおけるStartトークンに対応する文字)とを入力すると、学習済モデルから、当該文字列における第2の文字が出力される。例えば、学習済モデルに、ステップS702で生成された改変画像と、その改変画像に対応する文字列における第1の文字と、先に出力された第2の文字とを入力すると、学習済モデルから、当該文字列における第3の文字が出力される。これを繰り返すことにより、当該文字列の全ての文字列が出力されることになる。 For example, when the altered image generated in step S702 and the first character in the string corresponding to the altered image (e.g., the character corresponding to the Start token in SMILES) are input to the trained model, the second character in the string is output from the trained model. For example, when the altered image generated in step S702, the first character in the string corresponding to the altered image, and the second character previously output are input to the trained model, the third character in the string is output from the trained model. By repeating this, all characters in the string are output.

導出手段122は、確率の分布を利用して、複数の文字列候補を導出するようにしてもよい。 The derivation means 122 may use a probability distribution to derive multiple character string candidates.

ステップS704において、プロセッサ部120Bの出力手段123が、導出された文字列に対応する化学構造を出力する。出力手段123は、例えば、化学構造を構造式で出力することができる。 In step S704, the output means 123 of the processor unit 120B outputs a chemical structure corresponding to the derived character string. The output means 123 can output the chemical structure as a structural formula, for example.

このようにして、入力された化学構造から新規な化学構造を推定することができる。複数の化学構造が入力された場合には、複数の化学構造の平均となり得る化学構造を推定することができる。これは、創薬の分野において、新規の薬剤を創出することにつながり得る。 In this way, a new chemical structure can be estimated from the input chemical structure. If multiple chemical structures are input, a chemical structure that may be the average of the multiple chemical structures can be estimated. In the field of drug discovery, this can lead to the creation of new drugs.

図8は、化学構造推定システム1000における処理の一例(800)を示す。処理800は、特性が改変された化学構造を推定するための処理である。処理800は、例えば、プロセッサ部120Cにおいて実行されることができる。 Figure 8 shows an example of a process (800) in the chemical structure estimation system 1000. Process 800 is a process for estimating a chemical structure with modified properties. Process 800 can be executed, for example, in the processor unit 120C.

ステップS801において、プロセッサ部120Cの第1の生成手段126が、化学構造を変換して画像を生成する。第1の生成手段126は、例えば、MTMコンバータを用いて、化学構造を変換して画像(MTM)を生成することができる。 In step S801, the first generating means 126 of the processor unit 120C converts the chemical structure to generate an image. The first generating means 126 can convert the chemical structure to generate an image (MTM) using, for example, an MTM converter.

ステップS801では、第1の生成手段126は、複数の化学構造のそれぞれを変換して複数の画像を生成することができる。例えば、第1の生成手段126は、第1の化学構造を表す第1の文字列を変換して第1の画像を生成し、第2の化学構造を表す第2の文字列を変換して第2の画像を生成することができる。 In step S801, the first generating means 126 can generate a plurality of images by converting each of the plurality of chemical structures. For example, the first generating means 126 can convert a first character string representing a first chemical structure to generate a first image, and convert a second character string representing a second chemical structure to generate a second image.

ステップS802において、プロセッサ部120Cの第2の生成手段127が、ステップS802で生成された画像を改変して改変画像を生成する。 In step S802, the second generating means 127 of the processor unit 120C generates an altered image by modifying the image generated in step S802.

第2の生成手段127は、化学構造を変換して生成された画像に対して任意の改変を行うことができる。第2の生成手段127は、例えば、画像内の任意のピクセルの実数値またはピクセル値に所定の値を加算、減算、乗算、除算することができる。 The second generating means 127 can perform any modification to the generated image by converting the chemical structure. For example, the second generating means 127 can add, subtract, multiply, or divide a given value to the real value or pixel value of any pixel in the image.

複数の化学構造を変換して複数の画像が生成されている場合には、第2の生成手段127は、複数の画像を組み合わせることで改変画像を生成することができる。複数の画像の組み合わせは、例えば、複数の画像の平均をとることであり得る。これにより、生成される画像(すなわち、改変画像)の各ピクセル値は、複数の画像のそれぞれの対応するピクセル値の平均または加重平均となり得る。あるいは、改変画像の各ピクセル値は、複数の画像のそれぞれの対応するピクセルの実数値の平均または加重平均となり得る。 In the case where multiple images are generated by converting multiple chemical structures, the second generating means 127 can generate the modified image by combining the multiple images. The combination of the multiple images can be, for example, averaging the multiple images. In this way, each pixel value of the generated image (i.e., the modified image) can be the average or weighted average of the corresponding pixel values of each of the multiple images. Alternatively, each pixel value of the modified image can be the average or weighted average of the real values of the corresponding pixels of each of the multiple images.

ステップS803において、プロセッサ部120Cの導出手段122が、ステップS802で生成された改変画像に対応する複数組の文字列を導出する。導出手段122は、ステップS602と同様にして、学習済モデルを用いて文字列を導出することができる。 In step S803, the derivation means 122 of the processor unit 120C derives a plurality of sets of character strings corresponding to the altered image generated in step S802. The derivation means 122 can derive character strings using the trained model in a manner similar to step S602.

例えば、学習済モデルに、ステップS802で生成された改変画像と、その改変画像に対応する文字列における第1の文字(例えば、SMILESにおけるStartトークンに対応する文字)とを入力すると、学習済モデルから、当該文字列における第2の文字が出力される。例えば、学習済モデルに、ステップS702で生成された改変画像と、その改変画像に対応する文字列における第1の文字と、先に出力された第2の文字とを入力すると、学習済モデルから、当該文字列における第3の文字が出力される。これを繰り返すことにより、当該文字列の全ての文字列が出力されることになる。 For example, when the altered image generated in step S802 and the first character in the string corresponding to the altered image (e.g., the character corresponding to the Start token in SMILES) are input to the trained model, the second character in the string is output from the trained model. For example, when the altered image generated in step S702, the first character in the string corresponding to the altered image, and the second character previously output are input to the trained model, the third character in the string is output from the trained model. By repeating this, all characters in the string are output.

導出手段122は、改変画像に対応する文字列を導出する処理を繰り返すことにより、複数組の文字列を導出する。このとき、T-sampling法を用いて文字列を導出するようにすることで、複数回の繰り返し処理で導出される複数組の文字列にばらつきが生じる。 The derivation means 122 derives multiple sets of character strings by repeating the process of deriving character strings corresponding to the altered image. At this time, by deriving character strings using the T-sampling method, the multiple sets of character strings derived by the repeated process will vary.

ステップS804において、プロセッサ部120Cの第3の生成手段128が、ステップS803で導出された複数組の文字列のそれぞれを変換して複数の画像を生成する。第3の生成手段128は、例えば、MTMコンバータを用いて、化学構造を変換して画像(MTM)を生成することができる。第3の生成手段128は、複数組の文字列のそれぞれに対して処理を行うことにより、それぞれの画像を生成する。例えば、第3の生成手段128により、第1の文字列から第1の画像が生成され、第2の文字列から第2の画像が生成され、第3の文字列から第3の画像が生成され、・・・第nの文字列から第nの画像が生成される。 In step S804, the third generating means 128 of the processor unit 120C converts each of the sets of character strings derived in step S803 to generate a plurality of images. The third generating means 128 can convert the chemical structure to generate an image (MTM) using, for example, an MTM converter. The third generating means 128 generates each image by performing processing on each of the sets of character strings. For example, the third generating means 128 generates a first image from the first character string, a second image from the second character string, a third image from the third character string, ... and an nth image from the nth character string.

ステップS805において、プロセッサ部120Cの予測手段125が、ステップS804で生成された複数の画像の各画像に基づいて、それぞれの特性を予測する。予測手段125は、学習用画像と、学習用画像が表す対象の特性との関係を学習した第2の学習済モデルを用いて、特性を予測することができる。第2の学習済モデルは、画像を入力すると、その画像が表す対象の特性を出力することができる。予測手段125は、複数の画像のそれぞれに対して処理を行うことにより、それぞれの特性を予測することができる。例えば、予測手段125により、第1の画像から対応する第1の化学構造の特性が予測され、第2の画像から対応する第2の化学構造の特性が予測され、第3の画像から対応する第3の化学構造の特性が予測され、・・・第nの画像から対応する第nの化学構造の特性が予測される。 In step S805, the prediction means 125 of the processor unit 120C predicts the characteristics of each of the multiple images generated in step S804, based on each of the multiple images. The prediction means 125 can predict the characteristics using a second trained model that has learned the relationship between the learning image and the characteristics of the object represented by the learning image. When an image is input, the second trained model can output the characteristics of the object represented by the image. The prediction means 125 can predict the characteristics of each of the multiple images by performing processing on each of the images. For example, the prediction means 125 predicts the characteristics of a corresponding first chemical structure from a first image, predicts the characteristics of a corresponding second chemical structure from a second image, predicts the characteristics of a corresponding third chemical structure from a third image, ... predicts the characteristics of a corresponding nth chemical structure from an nth image.

ステップS806において、プロセッサ部120Cの特定手段129が、ステップS805で予測された特性に基づいて、特性が改変された化学構造を特定する。特定手段129は、複数の特性を比較し、所定の基準を満たす特性を有する化学構造を特定することができる。所定の基準は、例えば、最も高いまたは最も低い特性値を有する化学構造、入力された化学構造よりも高いまたは低い特性値を有する化学構造等であり得る。 In step S806, the identification means 129 of the processor unit 120C identifies a chemical structure whose property has been modified based on the property predicted in step S805. The identification means 129 can compare multiple properties and identify a chemical structure whose property satisfies a predetermined criterion. The predetermined criterion can be, for example, a chemical structure having the highest or lowest property value, a chemical structure having a property value higher or lower than the input chemical structure, etc.

このようにして、入力された化学構造から特性が改変された(例えば、向上した)化学構造を推定することができる。複数の化学構造が入力された場合には、複数の化学構造に共通する特性が改変された化学構造を推定することができる。これは、創薬の分野において、新規かつ有効な薬剤を創出することにつながり得る。 In this way, a chemical structure with modified (e.g., improved) properties can be inferred from an input chemical structure. When multiple chemical structures are input, a chemical structure with modified properties common to the multiple chemical structures can be inferred. This can lead to the creation of novel and effective drugs in the field of drug discovery.

なお、上述した例では、化学構造を対象としたが、対象は化学構造に限定されない。対象は、構造を有し、構造が画像と一意に関連付けられるものであれば、任意の対象であり得る。 In the above example, the target was a chemical structure, but the target is not limited to a chemical structure. The target can be any object as long as it has a structure and the structure is uniquely associated with an image.

図6~図8を参照して上述した例では、特定の順序で処理が行われることを説明したが、各処理の順序は説明されたものに限定されず、論理的に可能な任意の順序で行われ得る。 In the examples described above with reference to Figures 6 to 8, the processes are described to be performed in a specific order, but the order of each process is not limited to that described, and the processes may be performed in any order that is logically possible.

図6~図8を参照して上述した例では、図6~図8に示される各ステップの処理は、プロセッサ部120、プロセッサ部120A、プロセッサ部120B、またはプロセッサ部120Cとメモリ部130に記憶されたプログラムとによって実現することが説明されたが、本発明はこれに限定されない。図6~図8に示される各ステップの処理のうちの少なくとも1つは、制御回路などのハードウェア構成によって実現されてもよい。 In the examples described above with reference to Figures 6 to 8, it has been explained that the processing of each step shown in Figures 6 to 8 is realized by processor unit 120, processor unit 120A, processor unit 120B, or processor unit 120C and a program stored in memory unit 130, but the present invention is not limited to this. At least one of the processing of each step shown in Figures 6 to 8 may be realized by a hardware configuration such as a control circuit.

本発明は、上述した実施形態に限定されるものではない。本発明は、特許請求の範囲によってのみその範囲が解釈されるべきであることが理解される。当業者は、本発明の具体的な好ましい実施形態の記載から、本発明の記載および技術常識に基づいて等価な範囲を実施することができることが理解される。例えば、一実施形態について記載された特徴は、別の実施形態にも適用可能であることが当然に理解される。 The present invention is not limited to the above-described embodiment. It is understood that the scope of the present invention should be interpreted only by the claims. It is understood that a person skilled in the art can implement an equivalent scope based on the description of the present invention and common technical knowledge from the description of the specific preferred embodiment of the present invention. For example, it is naturally understood that the features described for one embodiment can also be applied to another embodiment.

(MTMインバータの構築)
Bromodomain-containing protein 4(BRD4)阻害剤について、MTMインバータを構築した。構築するためのデータセットとして、BRD4阻害剤の化学構造とそのKi値をChEMBL(https://www.ebi.ac.uk/chembl/)より取得した。重複した化学構造は、そのKi値の平均を代表値とし、1つの化学構造を残すことで重複の除去をした。結果として、839個の化学構造とそのKi値を得た。ここでは、これら839個のデータをBRD4データセットと呼ぶことにする。
(Construction of MTM inverter)
An MTM inverter was constructed for Bromodomain-containing protein 4 (BRD4) inhibitors. As a data set for construction, the chemical structures and Ki values of BRD4 inhibitors were obtained from ChEMBL (https://www.ebi.ac.uk/chembl/). For duplicated chemical structures, the average Ki value was used as the representative value, and duplicates were removed by leaving one chemical structure. As a result, 839 chemical structures and their Ki values were obtained. Here, these 839 pieces of data will be referred to as the BRD4 data set.

BRD4データセットは、以下に示すように、各行に1つの化学構造に関する情報が記載されており、具体的にはSMILES 化合物ID/pKi値が掲載されている。pKi値は、pKi=-log(Ki)により得られる値であり、値が大きい程、阻害活性が強いことを示す。
例:BRD4データセット:
Cc1[nH]c(-c2cc(N)ccc2Oc2ccccc2)cc1C(N)=O CHEMBL4088536/6.38
COc1cc2c(cc1-c1c(C)noc1C)[nH]c1ncnc(Cl)c12 CHEMBL4209208/6.365
Cc1cc(C)c(S(=O)(=O)O)cc1/N=N/c1cc(C)c(O)c(C)c1 CHEMBL3087050/5.255
In the BRD4 dataset, as shown below, information on one chemical structure is described in each row, specifically, SMILES compound ID/pKi value is listed. The pKi value is a value obtained by pKi = -log(Ki), and the larger the value, the stronger the inhibitory activity.
Example: BRD4 dataset:
Cc1[nH]c(-c2cc(N)ccc2Oc2ccccc2)cc1C(N)=O CHEMBL4088536/6.38
COc1cc2c(cc1-c1c(C)noc1C)[nH]c1ncnc(Cl)c12 CHEMBL4209208/6.365
Cc1cc(C)c(S(=O)(=O)O)cc1/N=N/c1cc(C)c(O)c(C)c1 CHEMBL3087050/5.255

BRD4データセットを8対2の割合で、トレーニングデータ(671個)とテストデータ(168個)に分割した。 The BRD4 dataset was split into training data (671 entries) and test data (168 entries) in a ratio of 8:2.

トレーニングデータ(671個)に含まれる化学構造を用いて、本開示のMTMインバータを構築した。 The MTM inverter disclosed herein was constructed using chemical structures contained in the training data (671 pieces).

(MTMインバータの精度評価)
トレーニングデータ(671個)およびテストデータ(168個)を使って、MTMインバータの変換精度について評価を行った。
(Accuracy evaluation of MTM inverter)
The conversion accuracy of the MTM inverter was evaluated using training data (671 items) and test data (168 items).

変換精度の評価は以下の2つの変換手法と2つの評価指標により実施した。
変換手法:Argmax法、T-Sampling法
評価指標:再構築(Reconstruction)、SMILESの有効性(Validity)、類似度(Similarity)
The conversion accuracy was evaluated using the following two conversion methods and two evaluation indices.
Conversion methods: Argmax method, T-Sampling method Evaluation indices: Reconstruction, SMILES validity, Similarity

再構築(Reconstruction)とは、MTMから逆変換された化学構造が元の化学構造に一致するか否かを示す指標である。化学構造はSMILESで表現されている。SMILESの一致は、SMILESをRDKit(https://www.rdkit.org/)によりCanonical SMILESに変換し、文字列一致により判定を行った。Canonical SMILESとは、1つの化学構造が1つのSMILESに変換されるように規範化されたSMILESを指す。 Reconstruction is an index showing whether the chemical structure converted back from MTM matches the original chemical structure. Chemical structures are expressed in SMILES. SMILES match was determined by converting SMILES to Canonical SMILES using RDKit (https://www.rdkit.org/) and checking for string match. Canonical SMILES refers to a standardized SMILES that is converted so that one chemical structure is converted to one SMILES.

SMILESの有効性(Validity)とは、MTMから逆変換されたSMILESが、SMILESの文法として正しいか否か示す指標である。SMILESの文法が正しいか否かは、RDKitのChem.MolFromSmiles関数(https://www.rdkit.org/)を使って判定を行った。 The validity of SMILES is an index showing whether SMILES converted from MTM is grammatically correct. The grammatical correctness of SMILES was determined using the Chem. MolFromSmiles function of the RDKit (https://www.rdkit.org/).

類似度(Similarity)とは、MTMから逆変換された化学構造と元の化学構造との類似度を示す指標である。MTMから逆変換された化学構造のMTMは、MTMコンバータで変換する。化学構造間の類似度は、MTM間の類似度と定義し、谷本係数(実数版)(Int J Data Sci Anal 4, 153-172 (2017). https://doi.org/10.1007/s41060-017-0064-z)を用いて算出する。 Similarity is an index showing the similarity between a chemical structure reverse-converted from an MTM and the original chemical structure. The MTM of a chemical structure reverse-converted from an MTM is converted using an MTM converter. The similarity between chemical structures is defined as the similarity between MTMs, and is calculated using the Tanimoto coefficient (real number version) (Int J Data Sci Anal 4, 153-172 (2017). https://doi.org/10.1007/s41060-017-0064-z).

Argmax法およびT-Sampling法のそれぞれについての評価結果を表1に示す。
The evaluation results for each of the Argmax method and the T-Sampling method are shown in Table 1.

トレーニングデータにおけるArgmax法を用いたReconstructionは、78.2%であり、T-sampling法を用いたReconstructionは、97.8%であった。T-sampling法により、再構築の精度が大幅に向上している。Validityは、Argmax法では96.3%、T-sampling法では、100%であった。平均のSimilarityは、Argmax法では、0.990、T-sampling法では、0.998であった。 Reconstruction of the training data using the Argmax method was 78.2%, and reconstruction using the T-sampling method was 97.8%. The accuracy of reconstruction is significantly improved by the T-sampling method. Validity was 96.3% for the Argmax method and 100% for the T-sampling method. Average similarity was 0.990 for the Argmax method and 0.998 for the T-sampling method.

次に、テストデータにおけるArgmax法を用いたReconstructionは、10.1%であり、T-sampling法を用いたReconstructionは、30.4%であった。テストデータにおいても、T-sampling法により、再構築の精度が大幅に向上している。Validityは、Argmax法では84.5%、T-sampling法では、99.4%であった。Averaged Similarityは、Argmax法では、0.906、T-sampling法では、0.956であった。Reconstructionは、30.4%であるが、平均のSimilarityをみて分かるように、元の化学構造と非常に類似した化学構造を生成していることが分かる。 Next, the reconstruction rate using the Argmax method for the test data was 10.1%, and the reconstruction rate using the T-sampling method was 30.4%. Even for the test data, the accuracy of reconstruction was significantly improved by the T-sampling method. The validity was 84.5% for the Argmax method and 99.4% for the T-sampling method. The average similarity was 0.906 for the Argmax method and 0.956 for the T-sampling method. The reconstruction rate was 30.4%, but as can be seen from the average similarity, it is clear that a chemical structure very similar to the original chemical structure was generated.

T-sampling法において必要なパラメータは温度(Temperature)とサンプリング回数の2つである。設定した値を表2に示す。
The two parameters required for the T-sampling method are temperature and the number of samplings. The set values are shown in Table 2.

ここでは、各T-samplingにおいて、100回のサンプリングを行っている。その結果、平均のvalidityはトレーニングセットで85.4%、テストセットで70.4%であった。また、平均のユニーク性は、トレーニングセットで6.5%、テストセットで9.9%であった。ユニーク性とは、重複のない化学構造のことを示す。100回のサンプリングで重複のない10個の化学構造が生成された場合は、ユニーク性は、10.0%となる。 Here, 100 samples were taken for each T-sampling. As a result, the average validity was 85.4% for the training set and 70.4% for the test set. The average uniqueness was 6.5% for the training set and 9.9% for the test set. Uniqueness refers to chemical structures that do not have duplicates. If 10 unique chemical structures are generated through 100 samples, the uniqueness will be 10.0%.

トレーニングデータ、およびテストデータにおける類似度の分布を図9に示す。T-sampling法により、元の化学構造と類似した化学構造を大幅に増加させていることが分かる。以上の結果から、MTMインバータによる逆変換は、Reconstructionでは30.4%、平均のSimilarityでは、0.956の精度で実施できることを確認した。 Figure 9 shows the distribution of similarities in the training data and test data. It can be seen that the T-sampling method significantly increases the number of chemical structures similar to the original chemical structure. From these results, it was confirmed that inverse conversion using the MTM inverter can be performed with an accuracy of 30.4% in reconstruction and 0.956 in average similarity.

(MTMインバータによる新規BRD4阻害剤の推定)
既知のBRD4阻害剤から、生物活性が向上したBRD4阻害剤をMTMインバータを利用して推定した。このフローは、図1Bに示されるフローに対応している。
(Estimation of novel BRD4 inhibitors using MTM inverters)
From known BRD4 inhibitors, BRD4 inhibitors with improved biological activity were predicted using MTM inverters, the flow of which corresponds to the flow shown in Figure 1B.

トレーニングデータから、活性の強い(pKi値>8.0)BRD4阻害剤を1000組、ランダムに選択した。ここで選ばれた化合物をベース化合物と呼び、そのペアをベース化合物ペアと呼ぶ。 From the training data, 1000 pairs of BRD4 inhibitors with high activity (pKi value > 8.0) were randomly selected. The compounds selected here are called base compounds, and the pairs are called base compound pairs.

ベース化合物ペアは、ペース化合物A(C11)とベース化合物B(C22)から構成される。 The base compound pair consists of base compound A (C11) and base compound B (C22).

混合MTM(I13)は、ベース化合物AのMTM(I11)とベース化合物BのMTM(I12)を用いて、以下の式から算出される。
0<λ<1であり、典型的には、λ=0.5である。λ=0.5は、混合MTM(I13)がベース化合物AのMTM(I11)とベース化合物BのMTM(I12)との丁度平均であることを意味する。
The mixed MTM (I13) is calculated from the MTM (I11) of the base compound A and the MTM (I12) of the base compound B according to the following formula.
0<λ<1, typically λ=0.5, which means that the mixed MTM (I13) is just the average of the MTM (I11) of base compound A and the MTM (I12) of base compound B.

MTMインバータを用いてMTM(I13)からT-sampling法を用いて化学構造(SMILES)に逆変換する。ここで、T-sampling法における温度(Temperature)は1.5、サンプリング回数は100とした。T-sampling法を用いた逆変換により、複数組のSMILESが得られた。得られたSMILESは、MTMコンバータを用いてMTMに変換された。MTM(I13)と最も類似したMTMの元となる化学構造(SMILES)が、MTM(I13)を逆変換して得られた化学構造として提示された。 Using an MTM inverter, MTM (I13) was reverse-converted to a chemical structure (SMILES) using the T-sampling method. Here, the temperature (Temperature) in the T-sampling method was set to 1.5, and the number of samplings was set to 100. Multiple sets of SMILES were obtained by reverse conversion using the T-sampling method. The obtained SMILES were converted to MTM using an MTM converter. The chemical structure (SMILES) that is the source of MTM and is most similar to MTM (I13) was presented as the chemical structure obtained by reverse conversion of MTM (I13).

BRD4に対する活性予測を行うために、BRD4活性予測モデルを用いた。BRD4活性予測モデルは上述した第2の学習済モデルに対応している。MTM(I13)を入力とし、BRD4活性予測モデルを用いて、BRD4に対する活性を予測した。また、MTMインバータを用いて得られたSMILESからMTMコンバータを用いて変換されたMTMを入力とし、BRD4活性予測モデルを用いて、BRD4に対する活性を予測した。 To predict activity for BRD4, a BRD4 activity prediction model was used. The BRD4 activity prediction model corresponds to the second trained model described above. MTM (I13) was used as input, and activity for BRD4 was predicted using the BRD4 activity prediction model. In addition, MTM converted from SMILES obtained using an MTM inverter using an MTM converter was used as input, and activity for BRD4 was predicted using the BRD4 activity prediction model.

BRD4活性予測モデルはMTMコンバータを構築するときのトレーニングデータと同じものを利用した。 The BRD4 activity prediction model used the same training data as when constructing the MTM converter.

DNNにおけるパラメータは、ハイパーパラメータ自動最適化フレームワークoptuna(https://github.com/optuna/optuna)を用いて、以下の4つのハイパーパラメータの最適化を実施した。
・conv2d_1のConv2Dレイヤーの引数filters
・conv2d_2のConv2Dレイヤーの引数filters
・dense_1のDenseレイヤーの引数units
・dropout_1のDropoutレイヤーの引数rate
The following four hyperparameters were optimized using the automatic hyperparameter optimization framework optuna (https://github.com/optuna/optuna) for the DNN parameters:
・Conv2D layer argument filters of conv2d_1
・Conv2D layer argument filters of conv2d_2
・Dense layer argument units for dense_1
・Dropout layer argument rate of dropout_1

最終的にDNNのハイパーパラメータは以下となった。
・conv2d_1のConv2Dレイヤーの引数filtersは48、activationは”relu”
・conv2d_2のConv2Dレイヤーの引数filtersは96、activationは”relu”
・dense_1のDenseレイヤーの引数unitsは、512、activationは”relu”
・dropout_1のDropoutレイヤーの引数rateは0.2
・dense_2のDenseレイヤーの引数activationは”liner”
・DNNにおける損失関数は、” mean_squared_error”
・損失関数の最適化アルゴリズムは、”adam”
・epoch数は100
・batchサイズは16
Finally, the hyperparameters of the DNN were as follows:
・The arguments for the Conv2D layer of conv2d_1 are filters 48 and activation is “relu”
・The arguments for the Conv2D layer of conv2d_2 are filters 96 and activation is “relu”
・The Dense layer argument units for dense_1 is 512, and activation is "relu".
・The rate argument of the Dropout layer for dropout_1 is 0.2
・The activation argument for the Dense layer in dense_2 is “liner”
・The loss function in DNN is “mean_squared_error”
・The optimization algorithm for the loss function is "adam"
・Number of epochs is 100
・Batch size is 16

BRD4活性予測モデルの評価を以下の3つの評価指標により実施した。
・平均二乗誤差(MSE:Mean Squared Error)
・平均絶対誤差(MAE:Mean Absolute Error)
・決定係数(R2):
The BRD4 activity prediction model was evaluated using the following three evaluation indexes.
Mean Squared Error (MSE)
・ Mean Absolute Error (MAE)
Coefficient of determination (R2):

結果を、表3に示す。
The results are shown in Table 3.

テストデータにおいてMSE=0.277、MAE=0.389、R2=0.755と良好な予測精度であることを確認した。 We confirmed good prediction accuracy on the test data, with MSE = 0.277, MAE = 0.389, and R2 = 0.755.

1000組のベース化合物から生成された1000個の化学構造に対して、構築されたMTMインバータおよびBRD4活性予測モデルを用いて、3つの条件を全て満たす化合物を選別した。
条件1:MTM(I13)の予測値(pKi)がベース化合物AおよびBのどちらの実測値(pKi)よりも大きい。
条件2:MTMインバータにより変換されたSMILESから得られたMTMの予測値(pKi)がベース化合物AおよびBのどちらの実測値(pKi)よりも大きい。
条件3:MTMインバータにより変換されたSMILESの化学構造が、BRD4データセットに含まれていないこと。
Compounds satisfying all three conditions were selected from 1000 chemical structures generated from 1000 sets of base compounds using the constructed MTM inverter and BRD4 activity prediction model.
Condition 1: The predicted pKi of MTM (I13) is greater than the measured pKi of both base compounds A and B.
Condition 2: The predicted value (pKi) of MTM obtained from SMILES converted by the MTM inverter is greater than the measured values (pKi) of both base compounds A and B.
Condition 3: The chemical structure of SMILES converted by the MTM inverter is not included in the BRD4 dataset.

その結果、25個の化学構造がBRD4阻害剤として選別された。最も予測値の良い化合物を図10に示す。 As a result, 25 chemical structures were selected as BRD4 inhibitors. The compounds with the best predictive values are shown in Figure 10.

選抜された25個の化合物は、次の4つのタイプに分類できた(図11Aおよび図11B)。 The 25 selected compounds could be classified into the following four types (Figures 11A and 11B).

ここでは、ベース化合物Aを化合物A、ベース化合物Bを化合物B、そしてMTMインバータにより変換されたSMILESが示す化合物を化合物Cと呼ぶ。
Type A:
化合物Cは、次の条件を全て満たす。
・化合物Cは化合物AとMMPである。
・化合物Cは化合物BとMMPである。
ただし、化合物Aと化合物BはMMPではない。
Type B:
化合物Cは、次の条件を全て満たす。
・化合物Cは化合物AとMMPである。
・化合物Cは化合物BとMMPである。
ただし、化合物Aと化合物BはMMPである。
Type C:
化合物Cは、次の条件のどちらか1つを満たす。
・化合物Cは、化合物AとMMPである。
・化合物Cは、化合物BとMMPである。
Type D:
化合物Cは、次の条件を全て満たす。
・化合物Cは化合物AとMMPでない。
・化合物Cは化合物BとMMPでない。
Here, base compound A is called compound A, base compound B is called compound B, and the compound represented by SMILES converted by the MTM inverter is called compound C.
Type A:
Compound C satisfies all of the following conditions:
- Compound C is compound A and MMP.
- Compound C is compound B and MMP.
However, Compound A and Compound B are not MMPs.
Type B:
Compound C satisfies all of the following conditions:
- Compound C is compound A and MMP.
- Compound C is compound B and MMP.
However, compound A and compound B are MMPs.
Type C:
Compound C satisfies one of the following conditions:
- Compound C is compound A and MMP.
- Compound C is compound B and MMP.
Type D:
Compound C satisfies all of the following conditions:
Compound C is not compound A or an MMP.
Compound C is not an MMP like compound B.

ここで、MMP(Matched Molecular Pair)は、大部分において共通の構造を持ち、一か所のみ部分構造が異なる分子のペアのことである。 Here, MMP (Matched Molecular Pair) refers to a pair of molecules that share a common structure for the most part, but differ in only one partial structure.

創薬の分野においては、リード化合物のMMPとなる化合物を中心に、合成展開を行い、医薬品に適した化合物へと最適化を行われている。本開示のMTMインバータおよびBRD4活性予測モデルを用いて推定された新規な化合物の中には、ベース化合物Aおよび/またはベース化合物Bに対してMMPの関係をもった化合物が複数含まれていた。従って、本開示の手法は、創薬の分野においても利用価値があることが示唆されている。 In the field of drug discovery, synthesis is expanded with a focus on compounds that will become MMPs for lead compounds, and optimization is carried out to produce compounds suitable for pharmaceuticals. Among the novel compounds estimated using the MTM inverter and BRD4 activity prediction model disclosed herein, there were several compounds that have an MMP relationship with base compound A and/or base compound B. Therefore, it is suggested that the method disclosed herein may also be useful in the field of drug discovery.

(新規かつ活性のあるBRD4阻害剤の生成)
1000組の中から以下の条件を全て満たす化合物をBRD4阻害剤として選別した。
Generation of Novel and Active BRD4 Inhibitors
From the 1,000 pairs, compounds that satisfied all of the following conditions were selected as BRD4 inhibitors.

条件:逆変換された化学構造が、テストデータに含まれていること。 Condition: The reverse-converted chemical structure is included in the test data.

MTMインバータはトレーニングデータの化学構造をもとに学習されているため、テストデータの化学構造は一切含まれていない。1000組のベース化合物のMTM(I13)から逆変換された化学構造がテストデータに含まれていれば、新規かつ活性のあるBRD4阻害剤を生成できたことを示す。 The MTM inverter is trained based on the chemical structures of the training data, so it does not contain any chemical structures of the test data. If the test data contains chemical structures reverse-converted from the MTM (I13) of 1,000 sets of base compounds, this indicates that a novel and active BRD4 inhibitor has been generated.

結果は以下の通りであった。
新規の化学構造:485(BRDデータセットに含まれていない化学構造)
既存の化学構造:515 (BRDデータセットに含まれている化学構造)
トレーニングデータ内:485
バリデーションデータ内:10
テストデータ内:20
合計 1000
The results were as follows:
New chemical structures: 485 (chemical structures not included in the BRD dataset)
Existing chemical structures: 515 (chemical structures included in the BRD dataset)
In training data: 485
In validation data: 10
In the test data: 20
Total 1000

生成された1000化合物の内、20化合物がテストデータ内に含まれていた。ただし、重複した化学構造が含まれているため、それを除去したところ、8化合物であった。結果として、実際にBRD4に対して活性のある化合物を8化合物、生成できたことになる。 Of the 1,000 compounds generated, 20 were included in the test data. However, because they contained duplicate chemical structures, after removing them, eight compounds remained. As a result, eight compounds that were actually active against BRD4 were generated.

本発明は、画像を文字列に変換するシステム等、具体的には、化学構造を表す画像を、当該化学構造を表す文字列に変換するシステム等を提供するものとして有用である。 The present invention is useful for providing a system for converting an image into a string of characters, specifically, a system for converting an image showing a chemical structure into a string of characters showing the chemical structure.

100 画像-文字列変換システム
110 インターフェース部
120、120A、120B、120C プロセッサ部
130 メモリ部
200 データベース部
300 端末装置
400 ネットワーク
1000 化学構造推定システム
100 Image-character string conversion system 110 Interface section 120, 120A, 120B, 120C Processor section 130 Memory section 200 Database section 300 Terminal device 400 Network 1000 Chemical structure estimation system

Claims (25)

画像を受信する受信手段と、
前記画像に対応する文字列を導出する導出手段と、
前記導出された文字列を出力する出力手段と
を備えるシステム。
A receiving means for receiving an image;
A derivation means for deriving a character string corresponding to the image;
and an output means for outputting the derived string.
前記導出手段は、学習用画像と、前記学習用画像に対応する文字列の一部の文字とを入力すると、前記文字の次の文字を出力するように学習した学習済モデルを用いて、前記画像に対応する文字列を導出する、請求項1に記載のシステム。 The system according to claim 1, wherein the derivation means, when a learning image and a character in a string corresponding to the learning image are input, uses a trained model that has been trained to output the character next to the input character, to derive a string corresponding to the image. 前記学習済モデルは、
前記次の文字の候補である複数の候補文字のそれぞれについて、前記次の文字となる確率を出力することと、
前記確率に基づいて、前記次の文字を出力することと
を行うように構成されている、請求項2に記載のシステム。
The trained model is
outputting a probability of each of a plurality of candidate characters being the next character;
and outputting the next character based on the probability.
前記確率に基づいて、前記次の文字を出力することは、
前記複数の候補文字のうちの前記確率が最も高い1つの候補文字を選択することと、
前記選択された候補文字を前記次の文字として出力することと
を含む、請求項3に記載のシステム。
outputting the next character based on the probability
selecting one candidate character from the plurality of candidate characters that has the highest probability; and
and outputting the selected candidate character as the next character.
前記確率に基づいて、前記次の文字を出力することは、
前記複数の候補文字のそれぞれの前記確率の分布に従って、前記複数の候補文字のうちの1つの候補文字を選択することと、
前記選択された候補文字を前記次の文字として出力することと
を含む、請求項3に記載のシステム。
outputting the next character based on the probability
selecting a candidate character from the plurality of candidate characters according to the probability distribution for each of the plurality of candidate characters;
and outputting the selected candidate character as the next character.
前記確率の分布に重みをつけることをさらに含む、請求項5に記載のシステム。 The system of claim 5, further comprising weighting the distribution of probabilities. 前記画像は、化学構造を表す画像である、請求項1に記載のシステム。 The system of claim 1, wherein the image is an image representing a chemical structure. 前記文字列は、化学構造を表す文字列である、請求項7に記載のシステム。 The system of claim 7, wherein the character string is a character string representing a chemical structure. 前記出力手段は、前記導出された文字列を構造式に変換して出力する、請求項8に記載のシステム。 The system according to claim 8, wherein the output means converts the derived character string into a structural formula and outputs it. 文字列を変換して画像を生成する生成手段と、
学習用化学構造を表す文字列を変換した画像と、前記学習用化学構造の特性との関係を学習した第2の学習済モデルを用いて、化学構造の特性を予測する予測手段と
をさらに備え、
前記生成手段は、前記出力された文字列を変換して画像を生成し、
前記予測手段は、前記生成された画像に基づいて、前記画像に対応する化学構造の特性を予測する、請求項7~9のいずれか一項に記載のシステム。
A generating means for converting a character string to generate an image;
A prediction means for predicting a characteristic of the chemical structure by using an image obtained by converting a character string representing the training chemical structure and a second trained model that has learned a relationship between the image and the characteristic of the training chemical structure,
The generating means converts the output character string to generate an image;
The system according to any one of claims 7 to 9, wherein the prediction means predicts, based on the generated image, a property of a chemical structure corresponding to the image.
化学構造推定システムであって、
化学構造を変換して画像を生成する第1の生成手段と、
前記生成された画像を改変して改変画像を生成する第2の生成手段と、
前記改変画像に対応する文字列を導出する導出手段と、
前記導出された文字列に対応する化学構造を出力する出力手段と
を備える化学構造推定システム。
A chemical structure prediction system, comprising:
A first generating means for converting a chemical structure to generate an image;
A second generating means for generating an altered image by altering the generated image;
A derivation means for deriving a character string corresponding to the altered image;
and an output means for outputting a chemical structure corresponding to the derived character string.
前記第1の生成手段は、第1の化学構造を表す第1の文字列を変換して第1の画像を生成し、第2の化学構造を表す第2の文字列を変換して第2の画像を生成し、
前記第2の生成手段は、前記第1の画像と前記第2の画像とを合成して前記改変画像を生成する、請求項11に記載のシステム。
the first generating means converts a first character string representing a first chemical structure to generate a first image, and converts a second character string representing a second chemical structure to generate a second image;
The system of claim 11 , wherein the second generating means generates the altered image by combining the first image and the second image.
特性が改変された化学構造を推定するシステムであって、
化学構造を変換して画像を生成する第1の生成手段と、
前記生成された画像を改変して改変画像を生成する第2の生成手段と、
前記改変画像に対応する複数組の文字列を導出する導出手段と、
前記導出された複数組の文字列のそれぞれを変換して複数の画像を生成する第3の生成手段と、
前記複数の画像の各画像に基づいて、それぞれの画像に対応する化学構造の特性を予測する予測手段と、
前記予測された特性に基づいて、特性が改変された化学構造を特定する特定手段と
を備えるシステム。
A system for predicting a chemical structure having an altered property, comprising:
A first generating means for converting a chemical structure to generate an image;
A second generating means for generating an altered image by altering the generated image;
A derivation means for deriving a plurality of sets of character strings corresponding to the altered image;
a third generating means for generating a plurality of images by transforming each of the derived sets of character strings;
A prediction means for predicting, based on each of the plurality of images, a property of a chemical structure corresponding to each image;
and an identification means for identifying a chemical structure having an altered property based on the predicted property.
前記特性は、前記化学構造に関連する活性である、請求項13に記載のシステム。 The system of claim 13, wherein the property is an activity associated with the chemical structure. 前記活性は、前記化学構造に相当する化合物が有する生物または化学的な活性である、請求項14に記載のシステム。 The system of claim 14, wherein the activity is a biological or chemical activity possessed by a compound corresponding to the chemical structure. 前記活性は、酵素阻害活性である、請求項15に記載のシステム。 The system of claim 15, wherein the activity is an enzyme inhibitory activity. 特性が改変された対象の構造を推定するシステムであって、
前記対象の構造と一意に関連付けられた画像を生成する第1の生成手段と、
前記生成された画像を改変して改変画像を生成する第2の生成手段と、
前記改変画像に対応する複数組の文字列を導出する導出手段と、
前記導出された複数組の文字列のそれぞれを変換して複数の画像を生成する生成手段と、
前記複数の画像の各画像に基づいて、それぞれの画像に対応する特性を予測する予測手段と、
前記予測された特性に基づいて、特性が改変された前記対象の構造を特定する特定手段と
を備えるシステム。
A system for predicting a structure of an object having an altered characteristic, comprising:
a first generating means for generating an image uniquely associated with the structure of interest;
a second generating means for generating an altered image by altering the generated image;
A derivation means for deriving a plurality of sets of character strings corresponding to the altered image;
a generating means for generating a plurality of images by converting each of the derived sets of character strings;
A prediction means for predicting characteristics corresponding to each of the plurality of images based on each of the images;
and an identification means for identifying a structure of the object having an altered property based on the predicted property.
画像を受信することと、
前記画像に対応する文字列を導出することと、
前記導出された文字列を出力することと
を含む方法。
Receiving an image; and
deriving a character string corresponding to the image; and
and outputting the derived string.
プログラムであって、前記プログラムは、プロセッサ部を備えるコンピュータにおいて実行され、前記プログラムは、
画像を受信することと、
前記画像に対応する文字列を導出することと、
前記導出された文字列を出力することと
を含む処理を前記プロセッサ部に行わせる、プログラム。
A program, the program being executed in a computer having a processor unit, the program comprising:
Receiving an image; and
deriving a character string corresponding to the image; and
and outputting the derived character string.
化学構造推定方法であって、
化学構造を変換して画像を生成することと、
前記生成された画像を改変して改変画像を生成することと、
前記改変画像に対応する文字列を導出することと、
前記導出された文字列に対応する化学構造を出力することと
を含む方法。
A chemical structure prediction method, comprising the steps of:
Transforming the chemical structure to generate an image;
modifying the generated image to generate an altered image;
deriving a character string corresponding to the altered image;
and outputting a chemical structure corresponding to the derived string.
化学構造推定プログラムであって、前記プログラムは、プロセッサ部を備えるコンピュータにおいて実行され、前記プログラムは、
化学構造を変換して画像を生成することと、
前記生成された画像を改変して改変画像を生成することと、
前記改変画像に対応する文字列を導出することと、
前記導出された文字列に対応する化学構造を出力することと
を含む処理を前記プロセッサ部に行わせる、プログラム。
A chemical structure prediction program, the program being executed on a computer having a processor unit, the program comprising:
Transforming the chemical structure to generate an image;
modifying the generated image to generate an altered image;
deriving a character string corresponding to the altered image;
and outputting a chemical structure corresponding to the derived character string.
特性が改変された化学構造を推定する方法であって、
化学構造を変換して画像を生成することと、
前記生成された画像を改変して改変画像を生成することと、
前記改変画像に対応する複数組の文字列を導出することと、
前記導出された複数組の文字列のそれぞれを変換して複数の画像を生成することと、
前記複数の画像の各画像に基づいて、それぞれの画像に対応する化学構造の特性を予測することと、
前記予測された特性に基づいて、特性が改変された化学構造を特定することと
を含む方法。
A method for predicting a chemical structure with modified properties, comprising:
Transforming the chemical structure to generate an image;
modifying the generated image to generate an altered image;
deriving a plurality of sets of character strings corresponding to the altered image;
transforming each of the derived sets of strings to generate a plurality of images;
predicting, based on each image of the plurality of images, a property of a chemical structure corresponding to the respective image;
and identifying a chemical structure having an altered property based on the predicted property.
特性が改変された化学構造を推定するプログラムであって、前記プログラムは、プロセッサ部を備えるコンピュータにおいて実行され、前記プログラムは、
化学構造を変換して画像を生成することと、
前記生成された画像を改変して改変画像を生成することと、
前記改変画像に対応する複数組の文字列を導出することと、
前記導出された複数組の文字列のそれぞれを変換して複数の画像を生成することと、
前記複数の画像の各画像に基づいて、それぞれの画像に対応する化学構造の特性を予測することと、
前記予測された特性に基づいて、特性が改変された化学構造を特定することと
を含む処理を前記プロセッサ部に行わせる、プログラム。
A program for predicting a chemical structure having modified properties, the program being executed on a computer having a processor unit, the program comprising:
Transforming the chemical structure to generate an image;
modifying the generated image to generate an altered image;
deriving a plurality of sets of character strings corresponding to the altered image;
transforming each of the derived sets of strings to generate a plurality of images;
predicting, based on each image of the plurality of images, a property of a chemical structure corresponding to the respective image;
and identifying a chemical structure having an altered property based on the predicted property.
特性が改変された対象の構造を推定する方法であって、
前記対象の構造と一意に関連付けられた画像を生成することと、
前記生成された画像を改変して改変画像を生成することと、
前記改変画像に対応する複数組の文字列を導出することと、
前記導出された複数組の文字列のそれぞれを変換して複数の画像を生成することと、
前記複数の画像の各画像に基づいて、それぞれの画像に対応する特性を予測することと、
前記予測された特性に基づいて、特性が改変された前記対象の構造を特定することと
を含む方法。
A method for predicting the structure of an object having an altered property, comprising:
generating an image uniquely associated with the structure of interest;
modifying the generated image to generate an altered image;
deriving a plurality of sets of character strings corresponding to the altered image;
transforming each of the derived sets of strings to generate a plurality of images;
predicting, based on each image of the plurality of images, a characteristic corresponding to the respective image;
and identifying a structure of the subject having an altered property based on the predicted property.
特性が改変された対象の構造を推定するプログラムであって、前記プログラムは、プロセッサ部を備えるコンピュータにおいて実行され、前記プログラムは、
前記対象の構造と一意に関連付けられた画像を生成することと、
前記生成された画像を改変して改変画像を生成することと、
前記改変画像に対応する複数組の文字列を導出することと、
前記導出された複数組の文字列のそれぞれを変換して複数の画像を生成することと、
前記複数の画像の各画像に基づいて、それぞれの画像に対応する特性を予測することと、
前記予測された特性に基づいて、特性が改変された前記対象の構造を特定することと
を含む処理を前記プロセッサ部に行わせる、プログラム。
A program for predicting a structure of an object whose characteristics have been modified, the program being executed on a computer having a processor unit, the program comprising:
generating an image uniquely associated with the structure of interest;
modifying the generated image to generate an altered image;
deriving a plurality of sets of character strings corresponding to the altered image;
transforming each of the derived sets of strings to generate a plurality of images;
predicting, based on each image of the plurality of images, a characteristic corresponding to the respective image;
and identifying a structure of the target having an altered property based on the predicted property.
JP2022172467A 2022-10-27 2022-10-27 Image-to-text conversion system Pending JP2024064115A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022172467A JP2024064115A (en) 2022-10-27 2022-10-27 Image-to-text conversion system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022172467A JP2024064115A (en) 2022-10-27 2022-10-27 Image-to-text conversion system

Publications (1)

Publication Number Publication Date
JP2024064115A true JP2024064115A (en) 2024-05-14

Family

ID=91034466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022172467A Pending JP2024064115A (en) 2022-10-27 2022-10-27 Image-to-text conversion system

Country Status (1)

Country Link
JP (1) JP2024064115A (en)

Similar Documents

Publication Publication Date Title
Barber et al. Predictive inference with the jackknife+
Zhou et al. Understanding knowledge distillation in non-autoregressive machine translation
Li et al. A multi-task learning formulation for survival analysis
TWI754033B (en) Generating document for a point of interest
Kurtz et al. Sparse and compositionally robust inference of microbial ecological networks
Fenske et al. Identifying risk factors for severe childhood malnutrition by boosting additive quantile regression
Horrocks et al. Algorithmic discovery of dynamic models from infectious disease data
Pirgazi et al. A robust gene regulatory network inference method base on Kalman filter and linear regression
CN109478204A (en) The machine of non-structured text understands
Mongkhonvanit et al. Deep knowledge tracing and engagement with MOOCs
Navascués et al. The inflation technique completely solves the causal compatibility problem
US20220207370A1 (en) Inferring device, training device, inferring method, and training method
JP2019191827A (en) Question answering device, question answering method and program
Lainscsek et al. Global modeling of the Rössler system from the z-variable
Emad et al. CaSPIAN: a causal compressive sensing algorithm for discovering directed interactions in gene networks
JP2009110341A (en) Prediction apparatus using time information, prediction method, prediction program, and recording medium recording the program
Yuan et al. Compositional data network analysis via lasso penalized D-trace loss
Thomas et al. Overview of integrative analysis methods for heterogeneous data
Li et al. Aggregate or not? exploring where to privatize in dnn based federated learning under different non-iid scenes
Mohammad-Taheri et al. Do-calculus enables estimation of causal effects in partially observed biomolecular pathways
JP2024064115A (en) Image-to-text conversion system
US20240070492A1 (en) Reasoning method based on structural attention mechanism for knowledge-based question answering and computing apparatus for performing the same
EP4231202A1 (en) Apparatus and method of data processing
Larjo et al. Using multi-step proposal distribution for improved MCMC convergence in Bayesian network structure learning
Zhang et al. Nonbifurcating Phylogenetic Tree Inference via the Adaptive LASSO

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20230823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230823

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20230927