JP2021111076A - Diagnostic device using ai, diagnostic system, and program - Google Patents

Diagnostic device using ai, diagnostic system, and program Download PDF

Info

Publication number
JP2021111076A
JP2021111076A JP2020001974A JP2020001974A JP2021111076A JP 2021111076 A JP2021111076 A JP 2021111076A JP 2020001974 A JP2020001974 A JP 2020001974A JP 2020001974 A JP2020001974 A JP 2020001974A JP 2021111076 A JP2021111076 A JP 2021111076A
Authority
JP
Japan
Prior art keywords
medical image
image
learning
diagnostic device
medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020001974A
Other languages
Japanese (ja)
Other versions
JP6737491B1 (en
Inventor
宇貴秀 立石
Ukihide Tateishi
宇貴秀 立石
浩二 佐々木
Koji Sasaki
浩二 佐々木
和治 井上
Kazuharu Inoue
和治 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Medical and Dental University NUC
AdIn Research Inc
Original Assignee
Tokyo Medical and Dental University NUC
AdIn Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Medical and Dental University NUC, AdIn Research Inc filed Critical Tokyo Medical and Dental University NUC
Priority to JP2020001974A priority Critical patent/JP6737491B1/en
Application granted granted Critical
Publication of JP6737491B1 publication Critical patent/JP6737491B1/en
Publication of JP2021111076A publication Critical patent/JP2021111076A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

To provide a diagnostic device, a diagnostic system, and a program, which accurately determine a specific symptom on the basis of an image.SOLUTION: In a diagnostic system, the function configuration of a diagnostic device comprises: a first medical image input section for inputting a first medical image obtained by projecting a first region of a patient; a second medical image input section for inputting a second medical image obtained by projecting a second region which is a region different from the first region; a learning section for learning a network and building a learning model on the basis of the first medical image and the second medical image; and a determination section for determining a symptom on the basis of an execution medical image obtained by projecting the first region and the second region using the learning model.SELECTED DRAWING: Figure 13

Description

本発明は、AIを用いる診断装置、診断システム、及び、プログラムに関する。 The present invention relates to diagnostic devices, diagnostic systems, and programs that use AI.

従来、CNN(畳み込みニューラルネットワーク、Convolution Neural Network)等のAI(Artificial Intelligence)によって、画像に基づいて診断を行う方法が知られている。 Conventionally, there is known a method of performing diagnosis based on an image by AI (Artificial Intelligence) such as CNN (Convolutional Neural Network).

図1は、従来技術における症状の分類器アーキテクチャをモデル化して示す図である。例えば、図示するように、MR(Magnetic Resonance)又はPET(Positron Emission Tomography)等で生成される診断用の画像に対して、図示するようなネットワーク構造のCNNを適用して診断を行う方法が知られている。 FIG. 1 is a diagram showing a model of a symptomatology classifier architecture in the prior art. For example, as shown in the figure, a method of applying a CNN having a network structure as shown in the figure to a diagnostic image generated by MR (Magnetic Resonance) or PET (Positron Emission Tomography) or the like is known. Has been done.

図2は、MR画像及びPET画像を用いる症状の分類器アーキテクチャをモデル化して示す図である。さらに、図示するように、まず、MR画像及びPET画像に対して、別々にVGG(Visual Geometry Group)−11のネットワーク構造であるCNNを適用して結果を抽出する。そして、それぞれの結果を連結する。このように、診断用の画像を複数入力するCNN等が知られている(例えば、非特許文献1等)。 FIG. 2 is a diagram showing a model of a symptomatology classifier architecture using MR images and PET images. Further, as shown in the figure, first, CNN, which is a network structure of VGG (Visual Geometry Group) -11, is separately applied to MR images and PET images, and the results are extracted. Then, each result is concatenated. As described above, CNNs and the like for inputting a plurality of diagnostic images are known (for example, Non-Patent Document 1 and the like).

Original Research ARTICLE Front. Neurosci., 31 May 2019、"Diagnosis of Alzheimer's Disease via Multi−Modality 3D Convolutional Neural Network"、[online]、2019年5月31日、[2019年10月25日検索]、インターネット〈URL:https://www.frontiersin.org/articles/10.3389/fnins.2019.00509/full〉Original Research ARTICLE Front. Neurosci. , 31 May 2019, "Diagnosis of Alzheimer's Disease via Multi-Modality 3D Convolutional Neural Network", [online], May 31, 2019, [online], May 31, 2019, [2019] /www.frontiersin.org/articles/10.3389/fnins.2019.00509/full>

しかしながら、従来の方法は、患者全身のうち、1種類の臓器又は臓器周辺の部位(以下単に「部位」という。)1箇所のみを投影した画像だけで診断を行う場合が多い。そのため、血管炎(「大型血管炎」、「高安動脈炎」、「血管炎症候群」又は「全身性血管炎」等を含む。以下「大型血管炎」という。)又は白質脳症等といった特定の症状が対象となると、判断の精度が悪い場合が多い。 However, in the conventional method, in many cases, the diagnosis is made only by projecting an image of only one type of organ or a part around the organ (hereinafter, simply referred to as "site") in the whole body of the patient. Therefore, specific symptoms such as vasculitis (including "large vasculitis", "Takayasu's arteritis", "vasculitis syndrome" or "systemic vasculitis"; hereinafter referred to as "large vasculitis") or leukoencephalopathy. In many cases, the accuracy of judgment is poor.

そこで、本発明に係る一実施形態は、上記のような課題を解決するためになされたものであり、特定の症状であっても、画像に基づいて精度良く判断できる診断装置、診断システム、及び、プログラムを提供することを目的とする。 Therefore, one embodiment of the present invention has been made to solve the above-mentioned problems, and a diagnostic device, a diagnostic system, and a diagnostic system capable of accurately determining a specific symptomatism based on an image. , The purpose is to provide a program.

本発明の一実施形態に係る、診断装置は、
患者の第1部位を投影した第1医用画像を入力する第1医用画像入力部と、
前記第1部位とは異なる部位である第2部位を投影した第2医用画像を入力する第2医用画像入力部と、
前記第1医用画像及び前記第2医用画像に基づいて、ネットワークの学習を行い、学習モデルを構築する学習部と、
前記学習モデルを用いて、前記第1部位及び前記第2部位を投影した実行医用画像に基づいて、症状について判断を行う判断部と
を含む。
The diagnostic apparatus according to the embodiment of the present invention is
A first medical image input unit that inputs a first medical image that projects the first part of the patient,
A second medical image input unit that inputs a second medical image that projects a second part that is a part different from the first part, and a second medical image input unit.
A learning unit that learns a network and builds a learning model based on the first medical image and the second medical image.
It includes a judgment unit that makes a judgment about a symptom based on an image for an execution doctor that projects the first part and the second part using the learning model.

特定の症状であっても、画像に基づいて精度良く判断できる診断装置、診断システム、及び、プログラムを提供できる。 It is possible to provide a diagnostic device, a diagnostic system, and a program that can accurately judge a specific symptomatism based on an image.

症状の分類器アーキテクチャをモデル化して示す図である。It is a figure which models and shows the symptomatology classifier architecture. MR画像及びPET画像を用いる症状の分類器アーキテクチャをモデル化して示す図である。It is a figure which models and shows the classifier architecture of the symptomatology using MR image and PET image. 診断システムの全体構成例を示す図である。It is a figure which shows the whole configuration example of a diagnostic system. 診断装置のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of a diagnostic apparatus. 全体処理例を示す図である。It is a figure which shows the whole processing example. 第1医用画像及び第2医用画像の生成例を示す図である。It is a figure which shows the generation example of the 1st medical image and the 2nd medical image. ネットワーク構造例を示す図である。It is a figure which shows the example of a network structure. 畳み込み処理の例を示す図である。It is a figure which shows the example of the convolution processing. プーリング処理の例を示す図である。It is a figure which shows the example of the pooling process. 全結合処理の例を示す図である。It is a figure which shows the example of the full combination processing. ドロップアウト処理の例を示す図である。It is a figure which shows the example of the dropout process. 実行処理に用いるネットワークの例を示す図である。It is a figure which shows the example of the network used for execution processing. 機能構成例を示す図である。It is a figure which shows the functional structure example. スライス医用画像群を用いる診断システムの全体構成例を示す図である。It is a figure which shows the whole configuration example of the diagnostic system using a slice medical image group. 白質脳症用のネットワーク構造例を示す図である。It is a figure which shows the example of the network structure for white matter encephalopathy. 第1部位の変形例を示す図である。It is a figure which shows the modification of the 1st part.

以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省略する。 Hereinafter, each embodiment will be described with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.

<全体構成例>
図3は、診断システムの全体構成例を示す図である。例えば、診断システム2は、医用画像生成システム21、及び、診断装置の例であるPC(Personal Computer)(以下単に「PC20」という。)を含む構成である。
<Overall configuration example>
FIG. 3 is a diagram showing an overall configuration example of the diagnostic system. For example, the diagnostic system 2 includes a medical image generation system 21 and a PC (Personal Computer) (hereinafter, simply referred to as “PC20”) which is an example of a diagnostic device.

医用画像生成システム21は、例えば、レントゲン装置又はMRI等である。なお、医用画像生成システム21は、医用画像を生成できる装置であればよい。 The medical image generation system 21 is, for example, an X-ray apparatus or an MRI. The medical image generation system 21 may be any device that can generate a medical image.

医用画像は、人体における内臓等を撮影又は透過して投影した画像である。したがって、医用画像は、放射線を利用する方法、MRI(核磁気共鳴画像法、Magnetic Resonance Imaging)、PET(ポジトロン断層法、Positron Emission Tomography)、CT(コンピュータ断層撮影、Computed Tomography)等で生成される画像である。また、医用画像は、放射線画像、診断用画像又は医療用画像等と呼ばれる場合もある。 A medical image is an image obtained by photographing or transmitting and projecting an internal organ or the like in the human body. Therefore, medical images are generated by a method using radiation, MRI (Magnetic Resonance Imaging), PET (Positron Emission Tomography), CT (Computed Tomography), etc. It is an image. Further, the medical image may be referred to as a radiographic image, a diagnostic image, a medical image, or the like.

なお、医用画像は、例えば、血管造影等で生成される画像、超音波を利用して生成される画像、サーモグラフィを利用して生成される画像、内視鏡を利用して生成される画像、又は、これらと上記の方法との組み合わせによって生成された画像でもよい。 The medical image is, for example, an image generated by angiography or the like, an image generated by using ultrasonic waves, an image generated by using thermography, an image generated by using an endoscope, and the like. Alternatively, an image generated by a combination of these and the above method may be used.

医用画像は、モノクロ画像でもよいし、カラー画像でもよい。 The medical image may be a monochrome image or a color image.

以下、医用画像、及び、医用画像に基づいて生成される特徴マップを単に「画像」と呼ぶ場合がある。 Hereinafter, the medical image and the feature map generated based on the medical image may be simply referred to as an "image".

なお、医用画像生成システム21は、PACS(Picture Archiving and Communication Systems)を有する構成でもよい。 The medical image generation system 21 may have a configuration having a PACS (Picture Archiving and Communication Systems).

また、医用画像生成システム21は、診断システム2において必須な構成ではない。すなわち、医用画像は、PC20に接続されていない他の外部装置によって生成されてもよい。この場合には、医用画像は、例えば、通信回線又は記録媒体等を介してPC20に入力される。 Further, the medical image generation system 21 is not an essential configuration in the diagnostic system 2. That is, the medical image may be generated by another external device that is not connected to the PC 20. In this case, the medical image is input to the PC 20 via, for example, a communication line or a recording medium.

PC20は、例えば、以下のような情報処理装置である。 The PC 20 is, for example, the following information processing device.

図4は、診断装置のハードウェア構成例を示す図である。例えば、診断装置20は、CPU(Central Processing Unit、以下単に「CPU20H1」という。)、記憶装置20H2、通信装置20H3、入力装置20H4、出力装置20H5、及び、インタフェース20H6等を有するハードウェア構成である。 FIG. 4 is a diagram showing a hardware configuration example of the diagnostic device. For example, the diagnostic device 20 has a hardware configuration including a CPU (Central Processing Unit, hereinafter simply referred to as “CPU 20H1”), a storage device 20H2, a communication device 20H3, an input device 20H4, an output device 20H5, an interface 20H6, and the like. ..

CPU20H1は、演算装置及び制御装置の例である。 The CPU 20H1 is an example of an arithmetic unit and a control unit.

記憶装置20H2は、いわゆるメモリ等の主記憶装置である。また、記憶装置20H2は、ハードディスク又はSSD(Solid State Drive)等の補助記憶装置を更に有してもよい。 The storage device 20H2 is a main storage device such as a so-called memory. Further, the storage device 20H2 may further have an auxiliary storage device such as a hard disk or an SSD (Solid State Drive).

通信装置20H3は、外部装置と無線又は有線で通信を行う。例えば、通信装置20H3は、コネクタ又はアンテナ等である。 The communication device 20H3 communicates with the external device wirelessly or by wire. For example, the communication device 20H3 is a connector, an antenna, or the like.

入力装置20H4は、ユーザによる操作を入力する装置である。例えば、入力装置20H4は、キーボード又はマウス等である。 The input device 20H4 is a device for inputting an operation by the user. For example, the input device 20H4 is a keyboard, a mouse, or the like.

出力装置20H5は、ユーザに対して処理結果等を出力する装置である。例えば、出力装置20H5は、ディスプレイ等である。 The output device 20H5 is a device that outputs a processing result or the like to the user. For example, the output device 20H5 is a display or the like.

インタフェース20H6は、外部装置と有線又は無線で接続してデータを入出力する。例えば、インタフェース20H6は、コネクタ等である。 The interface 20H6 connects to an external device by wire or wirelessly to input / output data. For example, the interface 20H6 is a connector or the like.

なお、診断装置は、図示するようなハードウェア構成に限られない。例えば、診断装置は、演算装置、制御装置、記憶装置、入力装置、出力装置、又は、補助装置等を更に有するハードウェア構成であってもよい。 The diagnostic device is not limited to the hardware configuration as shown in the figure. For example, the diagnostic device may have a hardware configuration further including an arithmetic device, a control device, a storage device, an input device, an output device, an auxiliary device, and the like.

上記のようなPC20に対して、学習データ(「教師データ」等と呼ばれる場合もある。)となる、第1医用画像IMG1及び第2医用画像IMG2が入力されると、PC20は、1医用画像IMG1及び第2医用画像IMG2に基づいて、ネットワークの学習を行う。以下、学習処理が完了したネットワークを「学習モデル22」という。このようにして、PC20は、学習モデル22をあらかじめ学習処理により構築する。 When the first medical image IMG1 and the second medical image IMG2, which are learning data (sometimes referred to as "teacher data"), are input to the PC 20 as described above, the PC 20 is the one medical image. Network learning is performed based on IMG1 and the second medical image IMG2. Hereinafter, the network in which the learning process is completed is referred to as "learning model 22". In this way, the PC 20 builds the learning model 22 in advance by the learning process.

なお、ネットワーク及び学習モデル22は、CNNのネットワーク構造であるのが望ましい。以下、ネットワーク及び学習モデル22がCNNである例で説明する。ただし、ネットワーク及び学習モデル22は、RNN(Recurrent Neural Network、再帰型ニューラルネットワーク)等でもよい。 It is desirable that the network and learning model 22 have a CNN network structure. Hereinafter, an example in which the network and learning model 22 is a CNN will be described. However, the network and the learning model 22 may be an RNN (Recurrent Neural Network) or the like.

学習モデル22が構築された後、症状を判断する対象となる医用画像(以下「実行医用画像IMG3」という。)が入力されると、PC20は、学習モデル22に基づいて、特定の症状であるか否かの判断を示す判断結果3を出力できる。 After the learning model 22 is constructed, when a medical image to be determined for symptomatology (hereinafter referred to as "execution medical image IMG3") is input, the PC 20 has a specific symptomatology based on the learning model 22. A judgment result 3 indicating whether or not the judgment can be made can be output.

なお、判断結果3は、患者1が特定の症状であるか否かという2値データでなくともよい。例えば、判断結果3は、特定の症状である確率を数値で示してもよい。さらに、判断結果3は、判断の根拠(判断に影響が大きい画像又はその画像の一部等である。)を示してもよい。また、判断結果3は、現状だけでなく、将来的に症状になる可能性、又は、傾向等を示唆してもよい。 The judgment result 3 does not have to be binary data indicating whether or not the patient 1 has a specific symptom. For example, the judgment result 3 may numerically indicate the probability of having a specific symptomatism. Further, the judgment result 3 may indicate the basis of the judgment (an image having a great influence on the judgment, a part of the image, or the like). In addition, the judgment result 3 may suggest not only the present situation but also the possibility of becoming a symptom or a tendency in the future.

<全体処理例>
例えば、診断装置は、以下のような全体処理を行って、特定の症状について判断する。
<Overall processing example>
For example, the diagnostic device performs the following overall processing to determine a specific symptom.

図5は、全体処理例を示す図である。以下、図示するように、ステップS1乃至ステップS4等の「学習処理」があらかじめ実行されるとする。そして、このような学習処理によって、学習が完了した後、ステップS5及びステップS6のような「実行処理」が行われる全体処理であるとする。 FIG. 5 is a diagram showing an example of overall processing. Hereinafter, as shown in the figure, it is assumed that the "learning process" of steps S1 to S4 and the like is executed in advance. Then, it is assumed that the learning process is an overall process in which the "execution process" such as step S5 and step S6 is performed after the learning is completed.

<学習処理例>
(第1医用画像の入力例)
ステップS1では、診断装置は、第1医用画像を入力する。
<Learning process example>
(Example of inputting the first medical image)
In step S1, the diagnostic device inputs a first medical image.

(第2医用画像の入力例)
ステップS2では、診断装置は、第2医用画像を入力する。
(Example of inputting a second medical image)
In step S2, the diagnostic device inputs a second medical image.

例えば、ステップS1及びステップS2は、以下のように行われる。 For example, step S1 and step S2 are performed as follows.

<第1医用画像及び第2医用画像の入力例>
以下、特定の症状を「大型血管炎」とする場合の例で説明する。ただし、対象となる症状は、大型血管炎以外の症状であってもよい。
<Input example of first medical image and second medical image>
Hereinafter, an example will be described in which a specific symptom is defined as "major vasculitis". However, the target symptom may be a symptom other than macroangiitis.

例えば、第1医用画像IMG1及び第2医用画像IMG2は、以下のように生成される画像である。 For example, the first medical image IMG1 and the second medical image IMG2 are images generated as follows.

図6は、第1医用画像及び第2医用画像の生成例を示す図である。 FIG. 6 is a diagram showing an example of generating a first medical image and a second medical image.

例えば、第1医用画像及び第2医用画像は、図6(A)に示すような患者1の全身を示す医用画像(以下「全身医用画像」という。)から、第1医用画像IMG1及び第2医用画像IMG2となる領域を切り出して生成される。具体的には、例えば、第1医用画像IMG1及び第2医用画像IMG2は、以下のように生成される。 For example, the first medical image and the second medical image are the first medical image IMG1 and the second medical image from the medical image showing the whole body of the patient 1 as shown in FIG. 6 (A) (hereinafter referred to as “whole body medical image”). It is generated by cutting out a region to be a medical image IMG2. Specifically, for example, the first medical image IMG1 and the second medical image IMG2 are generated as follows.

図6(B)は、第1医用画像IMG1の例を示す図である。 FIG. 6B is a diagram showing an example of the first medical image IMG1.

第1医用画像IMG1は、患者の部位のうち、症状が発生する部位(以下「第1部位P1」という。)が投影された医用画像である。具体的には、図示するように、大型血管炎の場合には、第1医用画像IMG1は、縦隔の部位を含むように投影された医用画像である。 The first medical image IMG1 is a medical image on which a part of the patient's part where a symptom occurs (hereinafter referred to as “first part P1”) is projected. Specifically, as illustrated, in the case of large vasculitis, the first medical image IMG1 is a medical image projected to include a site of the mediastinum.

縦隔は、胸部にある左右肺、胸椎、及び、胸骨に囲まれた部位である。したがって、第1医用画像IMG1は、胸部にある左右肺、胸椎、及び、胸骨に囲まれた範囲が含まれる画像であるのが望ましい。以下、第1部位P1が縦隔である場合を例に説明する。ただし、第1部位P1は、症状の種類によって異なるため、症状の種類ごとに設定される。 The mediastinum is the area of the chest surrounded by the left and right lungs, the thoracic spine, and the sternum. Therefore, it is desirable that the first medical image IMG1 is an image including a range surrounded by the left and right lungs, the thoracic vertebrae, and the sternum in the chest. Hereinafter, a case where the first portion P1 is a mediastinum will be described as an example. However, since the first site P1 differs depending on the type of symptom, it is set for each type of symptom.

図6(C)は、第2医用画像IMG2の例を示す図である。 FIG. 6C is a diagram showing an example of the second medical image IMG2.

第2医用画像IMG2は、第1部位P1に基づいて症状を判断するのに、基準となる画像である。そして、第2医用画像IMG2は、第1部位P1とは異なる部位の一部(以下「第2部位P2」という。)を投影した医用画像である。具体的には、図示するように、大型血管炎の場合には、第2医用画像IMG2は、肝臓の一部を含むように投影された医用画像である。ただし、第2部位P2は、症状の種類によって異なるため、症状の種類ごとに設定される。 The second medical image IMG2 is a reference image for determining the symptom based on the first site P1. The second medical image IMG2 is a medical image obtained by projecting a part of a part different from the first part P1 (hereinafter referred to as "second part P2"). Specifically, as illustrated, in the case of macroangiitis, the second medical image IMG2 is a medical image projected to include a portion of the liver. However, since the second site P2 differs depending on the type of symptom, it is set for each type of symptom.

なお、第1医用画像IMG1は、第2医用画像IMG2より解像度が高い画像であるのが望ましい。すなわち、第1医用画像IMG1は、第2医用画像IMG2より画素数が多い画像であるのが望ましい。 It is desirable that the first medical image IMG1 is an image having a higher resolution than the second medical image IMG2. That is, it is desirable that the first medical image IMG1 is an image having a larger number of pixels than the second medical image IMG2.

第1医用画像IMG1は、第1部位P1を直接示す画像であるため、詳細が分かる画像であるのが望ましい。ゆえに、第1医用画像IMG1は、少なくとも第2医用画像IMG2より解像度が高く、第1部位P1の詳細を示す画像であるのが望ましい。 Since the first medical image IMG1 is an image directly showing the first site P1, it is desirable that the first medical image IMG1 is an image in which details can be understood. Therefore, it is desirable that the first medical image IMG1 has at least a higher resolution than the second medical image IMG2 and is an image showing the details of the first portion P1.

また、第2医用画像IMG2は、図6(C)に示すように、肝臓全体でなく、肝臓の一部を切り出した画像であるのが望ましい。 Further, as shown in FIG. 6C, it is desirable that the second medical image IMG2 is an image obtained by cutting out a part of the liver instead of the entire liver.

第2医用画像IMG2は、肝臓を示す画素のうち、同一の色を示す画素、同一の画素値を示す画素、又は、基準値以内の画素のいずれかの集まりを含む領域を示す画像であるのが望ましい。なお、医用画像では、画素値は、明暗を示す値、いわゆる輝度値である場合が多い。ただし、医用画像は、カラー画像でもよい。例えば、サーモグラフィ、超音波又は内視鏡を用いて投影する場合には、医用画像は、カラー画像である場合が多い。このような場合には、カラー画像(例えば、RGB形式等である。)は、各色の画素値に基づいて輝度値が計算されてもよい。いわゆるYUV変換等の計算によって、RGB形式の値は、「Y」を含む形式に変換できる。このようにして計算される「Y」の値を画素値として使用してもよい。又は、画素値は、カラー画像を構成する複数の色のうち、いずれかの色を示す値を代表にして画素値に用いてもよい。 The second medical image IMG2 is an image showing a region including a group of pixels showing the same color, pixels showing the same pixel value, or pixels within the reference value among the pixels showing the liver. Is desirable. In a medical image, the pixel value is often a value indicating lightness or darkness, that is, a so-called luminance value. However, the medical image may be a color image. For example, when projecting using thermography, ultrasound, or an endoscope, the medical image is often a color image. In such a case, the brightness value of the color image (for example, RGB format or the like) may be calculated based on the pixel value of each color. The RGB format value can be converted into a format including "Y" by a calculation such as so-called YUV conversion. The value of "Y" calculated in this way may be used as the pixel value. Alternatively, the pixel value may be used as the pixel value on behalf of a value indicating any one of a plurality of colors constituting the color image.

例えば、肝臓を含む領域に対して、いわゆるラベリング等の画像処理を行うと、同じような色、又は、同じような画素値を示す画素が連続して続くような領域が抽出される。具体的には、まず、肝臓を示す複数の画素について、それぞれの画素値を比較する処理が行われる。例えば、肝臓を示す複数の画素のうち、画素値があらかじめ設定される基準値以内の差である画素が「同じ色を示す画素」として抽出される。そして、抽出された画素が隣接している場合には、画素は、同じグループであるとラベリングされる。 For example, when image processing such as so-called labeling is performed on a region including a liver, a region in which pixels showing the same color or the same pixel value are continuously extracted is extracted. Specifically, first, a process of comparing the pixel values of a plurality of pixels indicating the liver is performed. For example, among a plurality of pixels indicating the liver, pixels having a difference between the pixel values within a preset reference value are extracted as "pixels exhibiting the same color". Then, when the extracted pixels are adjacent to each other, the pixels are labeled as being in the same group.

このようにラベリング等によって、同じような画素の集まりが複数抽出できる場合がある。このような場合には、集まりのうち、最も画素数が多い集まりが画像の中心になるようにして、第2医用画像IMG2が生成されるのが望ましい。このようにすると、肝臓の代表的な色を最もよく示す医用画像が生成できる。 In this way, there are cases where a plurality of similar pixel groups can be extracted by labeling or the like. In such a case, it is desirable that the second medical image IMG2 is generated so that the group having the largest number of pixels among the groups is the center of the image. In this way, a medical image that best shows the typical color of the liver can be generated.

ただし、図6(C)に示すように、第2医用画像IMG2は、同じグループの画素だけを示す医用画像でなくともよい。すなわち、第2医用画像IMG2は、肝臓を示す画素のうち、代表的な色又は画素値を示す画素の集まりが中心となるように示す医用画像であればよく、周辺の画素を一部に含む医用画像でもよい。 However, as shown in FIG. 6C, the second medical image IMG2 does not have to be a medical image showing only the pixels of the same group. That is, the second medical image IMG2 may be a medical image showing a group of pixels showing a typical color or pixel value as the center among the pixels showing the liver, and includes peripheral pixels as a part thereof. It may be a medical image.

また、第2医用画像IMG2は、図示する第2部位P2のように、肝臓全体でなく、臓器の中心を切り出した画像であるのが望ましい。すなわち、第2医用画像IMG2は、臓器の輪郭を含まないように、臓器の内側にフォーカスした医用画像であるのが望ましい。 Further, it is desirable that the second medical image IMG2 is an image obtained by cutting out the center of an organ, not the entire liver, as in the illustrated second site P2. That is, it is desirable that the second medical image IMG2 is a medical image focused on the inside of the organ so as not to include the outline of the organ.

第2医用画像IMG2が肝臓の輪郭を示すと、第2医用画像IMG2に基づいて、肝臓の形状等が学習の対象、いわゆる特徴量になりやすくなる。一方で、大型血管炎が判断される場合には、臓器の輪郭、すなわち、形状等は、診断において参考にならない場合が多く、色又は画素値に基づいて症状が判断されるのが望ましい。 When the second medical image IMG2 shows the contour of the liver, the shape of the liver or the like tends to be a learning target, a so-called feature amount, based on the second medical image IMG2. On the other hand, when large vasculitis is determined, the contour of the organ, that is, the shape, etc., is often not helpful in diagnosis, and it is desirable that the symptom is determined based on the color or pixel value.

大型血管炎の判断を行うには、縦隔等の色を肝臓の色と比較して判断すると、精度良く判断できる。したがって、肝臓の形状等が第2医用画像IMG2に基づいてあまり学習されないように、第2医用画像IMG2は、肝臓の中心付近を拡大して示すような画像であるのが望ましい。このような範囲を示す第2医用画像IMG2を用いると、特徴量に色又は画素値が採用されやすくなり、特定の症状をより精度良く判断できる。 In order to judge large vasculitis, it is possible to judge accurately by comparing the color of the mediastinum with the color of the liver. Therefore, it is desirable that the second medical image IMG2 is an image that magnifies and shows the vicinity of the center of the liver so that the shape of the liver and the like are not learned so much based on the second medical image IMG2. When the second medical image IMG2 showing such a range is used, it becomes easy to adopt a color or a pixel value as a feature amount, and a specific symptomatology can be determined more accurately.

なお、第1医用画像IMG1及び第2医用画像IMG2は、ステップS1及びステップS2というように、第1医用画像IMG1及び第2医用画像IMG2の順で入力されなくともよい。例えば、第1医用画像IMG1及び第2医用画像IMG2は、第2医用画像IMG2が先に入力される、又は、並行して入力されてもよい。すなわち、第1医用画像IMG1及び第2医用画像IMG2は、入力の順序を問わない。 The first medical image IMG1 and the second medical image IMG2 do not have to be input in the order of the first medical image IMG1 and the second medical image IMG2, as in steps S1 and S2. For example, in the first medical image IMG1 and the second medical image IMG2, the second medical image IMG2 may be input first or may be input in parallel. That is, the first medical image IMG1 and the second medical image IMG2 may be input in any order.

また、第1医用画像IMG1及び第2医用画像IMG2は、全身医用画像が入力され、入力された全身医用画像に基づいて、切り出し又は拡大等によって生成されたそれぞれの医用画像が第1医用画像IMG1及び第2医用画像IMG2となって入力されてもよい。一方で、第1医用画像IMG1及び第2医用画像IMG2は、他の装置であらかじめ全身医用画像から切り出されて入力されてもよい。 Further, in the first medical image IMG1 and the second medical image IMG2, a whole body medical image is input, and each medical image generated by cutting out or enlarging based on the input whole body medical image is the first medical image IMG1. And the second medical image IMG2 may be input. On the other hand, the first medical image IMG1 and the second medical image IMG2 may be cut out from the whole body medical image in advance by another device and input.

又は、第1医用画像IMG1及び第2医用画像IMG2は、全身医用画像から生成されるのではなく、医用画像生成システム21等によって、第1部位P1及び第2部位P2に絞って別々に生成される医用画像でもよい。以下、第1医用画像IMG1が「128×128」(pixel)、かつ、第2医用画像IMG2が「32×32」(pixel)の解像度である場合を例に説明する。ただし、第1医用画像IMG1及び第2医用画像IMG2は、上記以外の解像度であってもよい。 Alternatively, the first medical image IMG1 and the second medical image IMG2 are not generated from the whole-body medical image, but are separately generated by the medical image generation system 21 or the like focusing on the first part P1 and the second part P2. It may be a medical image. Hereinafter, a case where the first medical image IMG1 has a resolution of “128 × 128” (pixel) and the second medical image IMG2 has a resolution of “32 × 32” (pixel) will be described as an example. However, the first medical image IMG1 and the second medical image IMG2 may have resolutions other than the above.

(マージ画像の生成例)
ステップS3では、診断装置は、第1医用画像及び第2医用画像に基づく画像をマージして、マージ画像を生成する。
(Example of generating merged image)
In step S3, the diagnostic apparatus merges the first medical image and the image based on the second medical image to generate the merged image.

(マージ画像に基づく学習例)
ステップS4では、診断装置は、マージ画像に基づいて学習を行う。
(Learning example based on merged images)
In step S4, the diagnostic apparatus learns based on the merged image.

例えば、上記のような学習処理は、以下のような構造のネットワークで行われる。 For example, the above learning process is performed in a network having the following structure.

図7は、ネットワーク構造例を示す図である。まず、上記のように、ステップS1及びステップS2が行われると、第1医用画像IMG1及び第2医用画像IMG2がPC20に入力される。 FIG. 7 is a diagram showing an example of a network structure. First, as described above, when steps S1 and S2 are performed, the first medical image IMG1 and the second medical image IMG2 are input to the PC 20.

例えば、ネットワークNWは、図示するようなCNNのネットワーク構造であるのが望ましい。 For example, it is desirable that the network NW has a network structure of CNN as shown in the figure.

なお、学習処理において、ネットワークNWは、マージ画像IMG4を生成する上で、第1医用画像IMG1及び第2医用画像IMG2に対して、隠れ層を有するネットワーク構造であるのが望ましい。 In the learning process, the network NW preferably has a network structure having a hidden layer with respect to the first medical image IMG1 and the second medical image IMG2 in order to generate the merged image IMG4.

以下、第1医用画像IMG1に対する隠れ層を「第1隠れ層L1」という。一方で、第2医用画像IMG2に対する隠れ層を「第2隠れ層L2」という。 Hereinafter, the hidden layer for the first medical image IMG1 is referred to as "first hidden layer L1". On the other hand, the hidden layer for the second medical image IMG2 is called "second hidden layer L2".

第1隠れ層L1は、例えば、畳み込み層とプーリング層の組み合わせで構成される層である。具体的には、第1隠れ層L1は、例えば、第11畳み込み層LC11、第11プーリング層LP11、第12畳み込み層LC12、第12プーリング層LP12、第13畳み込み層LC13の順に層構成される。このような第1隠れ層L1により、第1医用画像IMG1に基づいて、第1特徴マップMP1が生成される。 The first hidden layer L1 is, for example, a layer composed of a combination of a convolution layer and a pooling layer. Specifically, the first convolutional layer L1 is configured in the order of, for example, the 11th convolutional layer LC11, the 11th convolutional layer LP11, the 12th convolutional layer LC12, the 12th convolutional layer LP12, and the 13th convolutional layer LC13. Such a first hidden layer L1 generates a first feature map MP1 based on the first medical image IMG1.

第11畳み込み層LC11は、この例では、畳み込み処理によって「128×128」の特徴マップを64枚生成する。なお、畳み込み処理の詳細は後述する。 In this example, the eleventh convolution layer LC11 generates 64 "128 × 128" feature maps by the convolution process. The details of the convolution process will be described later.

第11プーリング層は、この例では、第11畳み込み層LC11が生成する特徴マップに対してプーリング処理を行うことで「64×64」の特徴マップを生成する。なお、プーリング処理の詳細は後述する。 In this example, the eleventh pooling layer generates a “64 × 64” feature map by performing a pooling process on the feature map generated by the eleventh convolution layer LC11. The details of the pooling process will be described later.

第12畳み込み層LC12は、この例では、畳み込み処理によって「64×64」の特徴マップを128枚生成する。 In this example, the 12th convolution layer LC12 generates 128 “64 × 64” feature maps by the convolution process.

第12プーリング層LP12は、この例では、第12畳み込み層LC12が生成する特徴マップに対してプーリング処理を行うことで「32×32」の特徴マップを生成する。 In this example, the twelfth pooling layer LP12 generates a “32 × 32” feature map by performing a pooling process on the feature map generated by the twelfth convolution layer LC12.

第13畳み込み層LC13は、畳み込み処理によって「32×32」の特徴マップを128枚生成する。 The thirteenth convolution layer LC13 generates 128 “32 × 32” feature maps by the convolution process.

例えば、上記のような第1隠れ層L1に基づいて第1医用画像IMG1が処理されると、第1特徴マップMP1が生成できる。一方で、第1隠れ層L1に基づく処理とは、別に、第2隠れ層L2に基づく処理が行われる。なお、それぞれの処理は、並行して行われてもよいし、順に行われてもよい。 For example, when the first medical image IMG1 is processed based on the first hidden layer L1 as described above, the first feature map MP1 can be generated. On the other hand, apart from the process based on the first hidden layer L1, the process based on the second hidden layer L2 is performed. In addition, each process may be performed in parallel or may be performed in order.

第2隠れ層L2は、例えば、畳み込み層で構成される層である。具体的には、第2隠れ層L2は、第2畳み込み層LC2で層構成される。このような第2隠れ層L2により、第2医用画像IMG2に基づいて、第2特徴マップMP2が生成される。 The second hidden layer L2 is, for example, a layer composed of a convolution layer. Specifically, the second hidden layer L2 is composed of a second convolution layer LC2. Such a second hidden layer L2 generates a second feature map MP2 based on the second medical image IMG2.

第2畳み込み層LC2は、畳み込み処理によって「32×32」の特徴マップを128枚生成する。 The second convolution layer LC2 generates 128 "32 × 32" feature maps by the convolution process.

次に、ネットワークNWでは、第1特徴マップMP1及び第2特徴マップMP2に基づいて、マージ画像IMG4が生成される。 Next, in the network NW, the merged image IMG4 is generated based on the first feature map MP1 and the second feature map MP2.

マージ画像IMG4は、第1特徴マップMP1及び第2特徴マップMP2に対するマージ処理によって生成される画像である。 The merged image IMG4 is an image generated by a merge process for the first feature map MP1 and the second feature map MP2.

このように、マージ処理によって生成されるマージ画像IMG4は、第1医用画像IMG1に基づいて症状を判断する上で、第2医用画像IMG2が示す代表的な色又は画素値を考慮した結果を示す。 As described above, the merged image IMG4 generated by the merge process shows the result of considering the typical color or pixel value indicated by the second medical image IMG2 in determining the symptom based on the first medical image IMG1. ..

なお、図7に示すネットワーク構造の例では、まず、あらかじめ隠れ層に基づく処理によって、第1医用画像IMG1及び第2医用画像IMG2に基づいて、第1特徴マップMP1及び第2特徴マップMP2が生成される。その後、第1特徴マップMP1及び第2特徴マップMP2に基づいて、マージ画像IMG4が生成されるネットワーク構造である。このようなネットワーク構造であっても、第1特徴マップMP1及び第2特徴マップMP2は、第1医用画像IMG1及び第2医用画像IMG2の特徴を示す画像である。したがって、以下の説明では、説明を簡略にするため、図7に示すネットワーク構造の例のように、第1特徴マップMP1及び第2特徴マップMP2に対してマージ処理を行う場合であっても、第1医用画像IMG1及び第2医用画像IMG2に対する処理と表現して説明する。なお、ネットワークNWは、第1隠れ層L1、第2隠れ層L2、又は、両方がない構造でもよい。 In the example of the network structure shown in FIG. 7, first, the first feature map MP1 and the second feature map MP2 are generated based on the first medical image IMG1 and the second medical image IMG2 by the processing based on the hidden layer in advance. Will be done. After that, the merged image IMG4 is generated based on the first feature map MP1 and the second feature map MP2, which is a network structure. Even with such a network structure, the first feature map MP1 and the second feature map MP2 are images showing the features of the first medical image IMG1 and the second medical image IMG2. Therefore, in the following description, in order to simplify the description, even when the first feature map MP1 and the second feature map MP2 are merged as in the example of the network structure shown in FIG. The process will be described as processing for the first medical image IMG1 and the second medical image IMG2. The network NW may have a structure in which the first hidden layer L1, the second hidden layer L2, or both are not provided.

例えば、マージ処理は、画素値を加算、減算、又は、乗算する処理である。 For example, the merge process is a process of adding, subtracting, or multiplying pixel values.

具体的には、マージ画像IMG4を第1医用画像IMG1及び第2医用画像IMG2が有する画素のそれぞれの画素値の差を計算するマージ処理によって生成する場合には、マージ画像IMG4は、第1医用画像IMG1及び第2医用画像IMG2に基づいて生成される特徴マップの画素値の差を示す画像となる。 Specifically, when the merged image IMG4 is generated by a merge process that calculates the difference between the pixel values of the pixels of the first medical image IMG1 and the second medical image IMG2, the merged image IMG4 is used for the first medical use. It is an image showing the difference between the pixel values of the feature map generated based on the image IMG1 and the second medical image IMG2.

したがって、マージ画像IMG4は、第2医用画像IMG2が示す色に対する第1医用画像IMG1の明暗差等を示すような画像にできる。このように、マージ画像IMG4は、第2医用画像IMG2が示す色を基準に、第1医用画像IMG1を判断するような画像であるのが望ましい。 Therefore, the merged image IMG4 can be an image that shows the difference in brightness of the first medical image IMG1 with respect to the color indicated by the second medical image IMG2. As described above, it is desirable that the merged image IMG4 is an image that determines the first medical image IMG1 based on the color indicated by the second medical image IMG2.

第2医用画像IMG2のように、基準となる色を示す補助的な画像があると、第1医用画像IMG1のみ、すなわち、1箇所の部位だけに着目して判断する場合よりも、症状を精度良く判断できる。したがって、マージ画像IMG4は、第2医用画像IMG2が示す色等を基準にするように生成されるのが望ましい。 If there is an auxiliary image showing a reference color such as the second medical image IMG2, the symptomatology is more accurate than the case where the judgment is made by focusing on only the first medical image IMG1, that is, only one part. I can judge well. Therefore, it is desirable that the merged image IMG4 is generated so as to be based on the color or the like indicated by the second medical image IMG2.

なお、マージ処理において、例えば、第1医用画像IMG1の画素値から第2医用画像IMG2の画素値を減算する場合において、第2医用画像IMG2の画素値にあらかじめ設定する係数を乗算してから減算が行われてもよい。すなわち、マージ処理を行う上で、どちらか一方の医用画像の画素値に重み付けがされてもよい。 In the merging process, for example, when the pixel value of the second medical image IMG2 is subtracted from the pixel value of the first medical image IMG1, the pixel value of the second medical image IMG2 is multiplied by a preset coefficient and then subtracted. May be done. That is, in performing the merge process, the pixel value of either one of the medical images may be weighted.

以上のようなマージ処理で生成されるマージ画像IMG4に基づいて、例えば、第3隠れ層L3に基づいて処理が行われる(ステップS4)。 Based on the merged image IMG4 generated by the merge process as described above, for example, the process is performed based on the third hidden layer L3 (step S4).

第3隠れ層L3は、例えば、第31プーリング層LP31、第31畳み込み層LC31、第32プーリング層LP32、第32畳み込み層LC32、第33プーリング層LP33、第33畳み込み層LC33、及び、第34プーリング層LP34等で構成される。さらに、第3隠れ層L3は、例えば、正規化層LN3、第1全結合層LF31、第1ドロップアウト層LD31、第2全結合層LF32、及び、第2ドロップアウト層LD32等を有する構成である。 The third hidden layer L3 is, for example, the 31st pooling layer LP31, the 31st convolution layer LC31, the 32nd pooling layer LP32, the 32nd convolution layer LC32, the 33rd pooling layer LP33, the 33rd convolution layer LC33, and the 34th pooling. It is composed of layer LP34 and the like. Further, the third hidden layer L3 has, for example, a normalized layer LN3, a first fully connected layer LF31, a first dropout layer LD31, a second fully connected layer LF32, a second dropout layer LD32, and the like. be.

第31プーリング層LP31は、この例では、マージ画像IMG4に対してプーリング処理を行うことで「16×16」の特徴マップを生成する。 In this example, the 31st pooling layer LP31 generates a “16 × 16” feature map by performing a pooling process on the merged image IMG4.

第31畳み込み層LC31は、この例では、第31プーリング層LP31が生成する特徴マップに対して畳み込み処理を行い、「16×16」の特徴マップを256枚生成する。 In this example, the 31st convolution layer LC31 performs a convolution process on the feature map generated by the 31st pooling layer LP31 to generate 256 "16 × 16" feature maps.

第32プーリング層LP32は、この例では、第31畳み込み層LC31が生成する特徴マップに対してプーリング処理を行うことで「8×8」の特徴マップを生成する。 In this example, the 32nd pooling layer LP32 generates an “8 × 8” feature map by performing a pooling process on the feature map generated by the 31st convolution layer LC31.

第32畳み込み層LC32は、この例では、第32プーリング層LP32が生成する特徴マップに対して畳み込み処理を行い、「8×8」の特徴マップを256枚生成する。 In this example, the 32nd convolution layer LC32 performs a convolution process on the feature map generated by the 32nd pooling layer LP32 to generate 256 “8 × 8” feature maps.

第33プーリング層LP33は、この例では、第32畳み込み層LC32が生成する特徴マップに対してプーリング処理を行うことで「4×4」の特徴マップを生成する。 In this example, the 33rd pooling layer LP33 generates a “4 × 4” feature map by performing a pooling process on the feature map generated by the 32nd convolution layer LC32.

第33畳み込み層LC33は、この例では、第33プーリング層LP33が生成する特徴マップに対して畳み込み処理を行い、「4×4」の特徴マップを256枚生成する。 In this example, the 33rd convolution layer LC33 performs a convolution process on the feature map generated by the 33rd pooling layer LP33 to generate 256 “4 × 4” feature maps.

第34プーリング層LP34は、この例では、第33畳み込み層LC33が生成する特徴マップに対してプーリング処理を行うことで「1×1」の特徴マップを生成する。 In this example, the 34th pooling layer LP34 generates a “1 × 1” feature map by performing a pooling process on the feature map generated by the 33rd convolution layer LC33.

正規化層LN3は、第34プーリング層LP34が生成する特徴マップを正規化する。なお、正規化の処理の詳細は後述する。 The normalization layer LN3 normalizes the feature map generated by the 34th pooling layer LP34. The details of the normalization process will be described later.

第1全結合層LF31、及び、第2全結合層LF32は、全結合処理を行う。なお、全結合処理の詳細は後述する。 The first fully-bonded layer LF31 and the second fully-bonded layer LF32 are fully bonded. The details of the full combination process will be described later.

第1ドロップアウト層LD31、第2ドロップアウト層LD32は、ドロップアウト処理を行う。なお、ドロップアウト処理の詳細は後述する。 The first dropout layer LD31 and the second dropout layer LD32 perform dropout processing. The details of the dropout process will be described later.

なお、ネットワークNWの構成において、画素数(画像の縦及び横のサイズでもある。)及び生成する特徴マップの数は、上記の例に限られない。すなわち、上記の例と異なる画素数及び特徴マップの数が生成されるネットワーク構造でもよい。 In the network NW configuration, the number of pixels (which is also the vertical and horizontal size of the image) and the number of feature maps to be generated are not limited to the above examples. That is, it may be a network structure in which the number of pixels and the number of feature maps different from the above example are generated.

また、層構成等は、上記に示す例の構成に限られない。すなわち、上記に示す以外の層がある層構成であってもよい。さらに、層構成は、学習処理等によって変更されてもよい。 Further, the layer structure and the like are not limited to the structure of the example shown above. That is, it may have a layer structure having layers other than those shown above. Further, the layer structure may be changed by a learning process or the like.

なお、学習処理では、学習モデルが評価されてもよい。例えば、精度を向上させるために、第1医用画像IMG1又は第2医用画像IMG2のうち、少なくともいずれか一方が投影する範囲を変更する等の調整がされてもよい。 In the learning process, the learning model may be evaluated. For example, in order to improve the accuracy, adjustments such as changing the projection range of at least one of the first medical image IMG1 and the second medical image IMG2 may be made.

<畳み込み処理例>(Convolution)
畳み込み処理は、入力される画像又は特徴マップの特徴を抽出する処理である。
<Example of convolution processing> (Convolution)
The convolution process is a process of extracting the features of the input image or feature map.

畳み込み処理では、まず、フィルタ(「カーネル」と呼ばれる場合もある。)に基づいて、フィルタを構成するフィルタ係数(「重み」と呼ばれる場合もある。)を画素値と乗算し、それぞれの画素値に対して乗算結果を算出していく処理が行われる。次に、それぞれの乗算結果を総和して特徴マップを構成する各値を算出する処理が行われる。このように、畳み込み処理は、いわゆるフィルタ処理によって特徴マップを生成する処理である。 In the convolution process, first, based on the filter (sometimes called "kernel"), the filter coefficient (sometimes called "weight") that constitutes the filter is multiplied by the pixel value, and each pixel value is multiplied. Is processed to calculate the multiplication result. Next, a process is performed in which the respective multiplication results are summed to calculate each value constituting the feature map. As described above, the convolution process is a process of generating a feature map by a so-called filter process.

図8は、畳み込み処理の例を示す図である。例えば、図8(A)に示すような画像(医用画像又は特徴マップ等である。以下「第1入力画像IN1」という。)が畳み込み処理の対象であるとする。 FIG. 8 is a diagram showing an example of the convolution process. For example, it is assumed that an image as shown in FIG. 8A (medical image, feature map, etc., hereinafter referred to as “first input image IN1”) is the target of the convolution process.

図8(A)に示すように、第1入力画像IN1は、横にM行、かつ、縦にN列、すなわち、M×N個の画素を有する画像であるとする。また、図では、それぞれの画素値を「A00」(図は、下1桁目が行を示し、下2桁目が列を示す記載とする。)のように示す。 As shown in FIG. 8A, it is assumed that the first input image IN1 is an image having M rows horizontally and N columns vertically, that is, an image having M × N pixels. Further, in the figure, each pixel value is indicated as "A00" (in the figure, the last digit indicates a row and the last second column indicates a column).

図8(B)は、第1フィルタF1を示す図である。なお、第1フィルタF1は、「3×3」のサイズの例である。ただし、フィルタのサイズは、「3×3」以外でもよい。以下、第1フィルタF1を構成するフィルタ係数を図では、第1入力画像IN1の画素値と同様の形式で示す。 FIG. 8B is a diagram showing the first filter F1. The first filter F1 is an example of a size of "3 x 3". However, the size of the filter may be other than "3x3". Hereinafter, in the figure, the filter coefficients constituting the first filter F1 are shown in the same format as the pixel values of the first input image IN1.

畳み込み処理は、例えば、第1入力画像IN1の左上、すなわち、「A11」を中心にフィルタ係数を乗じる計算を行う。具体的には、「A00×B00」、「A01×B01」、・・・のように乗算結果が算出され、これらの乗算結果を総和すると、特徴マップを構成する特徴値の1つである「C00」が生成される。 In the convolution process, for example, the calculation is performed by multiplying the upper left of the first input image IN1, that is, "A11" by the filter coefficient. Specifically, multiplication results are calculated as "A00 x B00", "A01 x B01", ..., And when these multiplication results are summed up, it is one of the feature values constituting the feature map. "C00" is generated.

図8(C)は、第1出力特徴マップOUT1を示す図である。以下、図では、畳み込み処理結果を示す第1出力特徴マップOUT1を構成する特徴値を第1入力画像IN1の画素値と同様の形式で示す。そして、図示するように、第1フィルタF1を適用する位置を変えていくと、第1出力特徴マップOUT1における特徴値が「C01」、「C02」・・・のように生成される。 FIG. 8C is a diagram showing a first output feature map OUT1. Hereinafter, in the figure, the feature values constituting the first output feature map OUT1 showing the convolution processing result are shown in the same format as the pixel values of the first input image IN1. Then, as shown in the figure, when the position where the first filter F1 is applied is changed, the feature values in the first output feature map OUT1 are generated as “C01”, “C02”, and so on.

そして、フィルタ係数が学習処理により、変更される。このように、いわゆる誤差逆伝播によって、フィルタ係数が変更され、畳み込み処理に用いられるフィルタが学習処理により生成される。また、畳み込み処理の処理結果、すなわち、特徴マップは、畳み込み処理に用いるフィルタのフィルタ係数又は入力画像の少なくとも一方が異なれば違う処理結果となる。 Then, the filter coefficient is changed by the learning process. In this way, the filter coefficient is changed by so-called error back propagation, and the filter used for the convolution process is generated by the learning process. Further, the processing result of the convolution processing, that is, the feature map will be a different processing result if at least one of the filter coefficient of the filter used for the convolution processing or the input image is different.

このような畳み込み処理を行うと、例えば、入力される医用画像又は特徴マップ等において特徴を示す画素が、他の画像とは、上下左右にずれる、又は、回転等の違いがあっても、同様の特徴が抽出できる。すなわち、人の局所受容野のように、いわゆる移動不変性を確保できる。 When such a convolution process is performed, for example, even if the pixels showing the features in the input medical image or feature map are shifted vertically and horizontally from other images, or even if there is a difference in rotation or the like, the same applies. Features can be extracted. That is, so-called migration invariance can be ensured like the local receptive field of humans.

なお、畳み込み処理では、処理対象となる画像の端部に、あらかじめ設定する画素値の画素を周辺に追加する事前処理、いわゆるパディング(Padding)が行われてもよい。パディングが行われると、畳み込み処理によってサイズが小さくなるのを防げる。また、パディングが行われると、端部までフィルタ処理が可能になる。 In the convolution process, pre-processing, so-called padding, in which pixels having pixel values set in advance are added to the periphery of the image to be processed may be performed. When padding is done, the convolution process prevents the size from shrinking. Further, when padding is performed, filtering can be performed up to the end.

さらに、畳み込み処理におけるフィルタ処理は、間隔が1画素でなく、間隔が2画素以上であってもよい。すなわち、畳み込み処理では、いわゆるストライド(Stride)が行われてもよい。ストライドが行われると、特徴マップを小さく生成できる。 Further, in the filter processing in the convolution process, the interval may be not one pixel but two or more pixels. That is, in the convolution process, so-called stride may be performed. Once stride is done, a small feature map can be generated.

<プーリング処理例>(Pooling)
プーリング処理は、特徴点の位置をロバストにする処理である。
<Example of pooling process> (Polling)
The pooling process is a process of making the position of the feature point robust.

プーリング処理は、あらかじめ設定される演算を行って、入力画像をダウンサイズさせた特徴マップを生成する処理である。なお、プーリング処理は、ダウンサンプリング処理又はサブサンプリング処理等と呼ばれる場合もある。 The pooling process is a process of generating a feature map in which the input image is downsized by performing a preset operation. The pooling process may be called a downsampling process, a subsampling process, or the like.

図9は、プーリング処理の例を示す図である。例えば、図9(A)に示すような画像(医用画像又は特徴マップ等である。以下「第2入力画像IN2」という。)がプーリング処理の対象であるとする。 FIG. 9 is a diagram showing an example of the pooling process. For example, it is assumed that an image as shown in FIG. 9A (medical image, feature map, etc., hereinafter referred to as “second input image IN2”) is the target of the pooling process.

プーリング処理は、例えば、設定される範囲にある画素のうち、最も画素値が大きい値を抽出する処理(「maxサンプリング」等と呼ばれる場合もある。)である。図示する例では、プーリング処理は、「2×2」の範囲ごとに、最大値を抽出していく処理である。 The pooling process is, for example, a process of extracting the value having the largest pixel value among the pixels in the set range (sometimes called “max sampling” or the like). In the illustrated example, the pooling process is a process of extracting the maximum value for each range of “2 × 2”.

図9(A)に示すように、例えば、第2入力画像IN2の左上の位置において、「2×2」の範囲に、「3」、「5」、「4」、及び、「−1」という画素値の画素がある場合には、これらの画素値で最も画素値が大きい「5」という画素値の画素が、プーリング処理によって抽出される。このような処理が行われると、出力特徴マップを構成する特徴値の1つである「5」が生成される。 As shown in FIG. 9A, for example, at the upper left position of the second input image IN2, in the range of “2 × 2”, “3”, “5”, “4”, and “-1”. When there is a pixel having a pixel value of "5", the pixel having the pixel value of "5", which has the largest pixel value among these pixel values, is extracted by the pooling process. When such processing is performed, "5", which is one of the feature values constituting the output feature map, is generated.

図9(B)は、第2出力特徴マップOUT2を示す図である。以下、プーリング処理結果を示す第2出力特徴マップOUT2を構成する特徴値を第1入力画像IN1の画素値と同様の形式で示す。そして、図示するように、処理の対象となる範囲を変えていくと、第2出力特徴マップOUT2における特徴値が「5」、「5」・・・のように生成される。 FIG. 9B is a diagram showing a second output feature map OUT2. Hereinafter, the feature values constituting the second output feature map OUT2 showing the pooling processing result are shown in the same format as the pixel values of the first input image IN1. Then, as shown in the figure, when the range to be processed is changed, the feature values in the second output feature map OUT2 are generated as “5”, “5”, and so on.

なお、プーリング処理は、最大値を抽出する処理に限られない。すなわち、プーリング処理は、設定される範囲における画素値に基づいて代表値を定める処理であればよい。例えば、プーリング処理は、平均値又は中央値等の統計値を抽出する処理でもよい。 The pooling process is not limited to the process of extracting the maximum value. That is, the pooling process may be a process of determining a representative value based on the pixel value in the set range. For example, the pooling process may be a process of extracting statistical values such as an average value or a median value.

また、プーリング処理は、パディングが行われてもよい。 Further, the pooling process may be padded.

<正規化の処理例>(Normalization)
正規化の処理は、分散及び平均値を揃える処理である。例えば、正規化の処理は、データの分散が「1」となり、かつ、平均値が「0」となるように、データを変更する処理である。なお、正規化の処理は、最大値、最小値又はこれら双方を設定値以内の値にする等の処理を含んでもよい。
<Example of normalization processing> (Normalization)
The normalization process is a process of aligning the variance and the mean value. For example, the normalization process is a process of changing the data so that the variance of the data is “1” and the average value is “0”. The normalization process may include a process such as setting the maximum value, the minimum value, or both of them to a value within the set value.

このように、正規化の処理が行われると、学習係数を大きくできる。また、正規化の処理が行われると、多層であっても値が収束するようにできる。 When the normalization process is performed in this way, the learning coefficient can be increased. Further, when the normalization process is performed, the values can be made to converge even if there are multiple layers.

また、正規化の処理は、層ごとに行われてもよい。すなわち、正規化の処理は、いわゆるバッチノーマライゼーション等でもよい。 Further, the normalization process may be performed for each layer. That is, the normalization process may be so-called batch normalization or the like.

<全結合処理例>(Full connected)
全結合処理は、前に行われる畳み込み処理等で生成される特徴マップを出力層へ落とし込む処理である。
<Example of full connection processing> (Full connected)
The full combination process is a process of dropping the feature map generated by the previously performed convolution process or the like into the output layer.

図10は、全結合処理の例を示す図である。例えば、全結合処理は、図示するように、全結合処理より前に行われる処理によって、複数の「特徴マップ」が生成される場合において、それぞれの特徴マップを出力層LOに関連付けさせる処理である。 FIG. 10 is a diagram showing an example of a fully combined process. For example, as shown in the figure, the fully combined process is a process of associating each feature map with the output layer LO when a plurality of "feature maps" are generated by the process performed before the fully combined process. ..

図示する例は、出力層LOが「Yes」又は「No」等のように、最終的に出力する形式が2つに設定された場合の例である。したがって、全結合処理は、それぞれの特徴マップに基づいて、活性化関数(いわゆる「softmax」等である。)等によって出力層LOにあらかじめ設定される出力形式のいずれに該当するかを判定する処理である。 The illustrated example is an example in which the output layer LO is set to two final output formats such as “Yes” or “No”. Therefore, the full coupling process is a process of determining which of the output formats is preset in the output layer LO by an activation function (so-called "softmax" or the like) or the like based on each feature map. Is.

なお、それぞれの特徴マップには、重み付けがされてもよい。 Note that each feature map may be weighted.

また、全結合層より後に出力層がないネットワーク構造、すなわち、出力が特徴マップとなる構成でもよい。具体的には、いわゆるGAP(Global Average Pooling)層等が採用されてもよい。このようにGAP層を用いて、パラメータを少なくするようにしてもよい。 Further, a network structure in which there is no output layer after the fully connected layer, that is, a configuration in which the output is a feature map may be used. Specifically, a so-called GAP (Global Average Pooling) layer or the like may be adopted. In this way, the GAP layer may be used to reduce the number of parameters.

<ドロップアウト処理例>(Dropout)
図11は、ドロップアウト処理の例を示す図である。例えば、ドロップアウト処理を行うドロップアウト層DPは、図示するように、全結合層LFの前後に設定される。
<Example of dropout processing> (Dropout)
FIG. 11 is a diagram showing an example of dropout processing. For example, the dropout layer DP that performs the dropout process is set before and after the fully connected layer LF as shown in the figure.

図において、丸印(○)は、パーセプトロン(「ノード」等と呼ばれる場合もある。)を示す。また、図では、線で結ぶことで、前後のパーセプトロンを関連付けして示す。 In the figure, a circle (○) indicates a perceptron (sometimes referred to as a “node” or the like). In addition, in the figure, the front and rear perceptrons are shown in association with each other by connecting them with a line.

ドロップアウト処理は、学習処理において、所定の確率で関連付けをなくす処理である。この図では、ドロップアウト層DPは、前の全結合層LFと、後の全結合層LFとを結ぶ線であって、ドロップアウト層DPを通過する線のうち、一部の線を所定の確率で消す処理となる。 The dropout process is a process of losing the association with a predetermined probability in the learning process. In this figure, the dropout layer DP is a line connecting the front fully connected layer LF and the rear fully connected layer LF, and some of the lines passing through the dropout layer DP are predetermined. It is a process to erase with probability.

ドロップアウト処理は、学習処理において、例えば、ランダムにノードを使わないようにして、出力及び誤差逆伝播等を行う処理である。ドロップアウト処理を行うと、ノード間の依存関係を減らすことができる。したがって、過学習等を防ぐことができる。 The dropout process is a process in which, for example, output and error backpropagation are performed in the learning process without using nodes at random. Dropout processing can reduce the dependencies between nodes. Therefore, overfitting and the like can be prevented.

<実行処理例>
(実行医用画像の入力例)
ステップS5では、診断装置は、実行医用画像を入力する。
<Execution processing example>
(Example of inputting image for execution doctor)
In step S5, the diagnostic device inputs an image for the performing doctor.

(実行医用画像に基づく判断例)
ステップS6では、診断装置は、実行医用画像に基づいて判断を行う。
(Example of judgment based on medical image)
In step S6, the diagnostic apparatus makes a judgment based on the image for the executing doctor.

例えば、上記のような実行処理は、あらかじめ行われる学習処理で生成されるネットワークに基づいて、以下のように実行される。 For example, the above-mentioned execution process is executed as follows based on the network generated by the learning process performed in advance.

図12は、実行処理に用いるネットワークの例を示す図である。例えば、診断装置は、あらかじめ学習データを入力して行う学習処理によって、ネットワークの学習を行う。 FIG. 12 is a diagram showing an example of a network used for execution processing. For example, the diagnostic device learns the network by learning processing performed by inputting learning data in advance.

学習処理が実行された後、診断装置は、学習モデル22に対して実行医用画像IMG3を入力して実行処理を行う。 After the learning process is executed, the diagnostic apparatus inputs the execution medical image IMG3 to the learning model 22 and performs the execution process.

実行医用画像IMG3は、例えば、全身医用画像等である。ただし、実行医用画像IMG3は、第1部位P1及び第2部位P2の両方を含む範囲を示す医用画像であればよく、全身がすべて含まれる医用画像でなくともよい。 The performing medical image IMG3 is, for example, a whole-body medical image or the like. However, the medical image IMG3 for execution may be a medical image showing a range including both the first site P1 and the second site P2, and may not be a medical image including the whole body.

実行処理が行われると、大型血管炎等の症状であるか否かを判断した判断結果3が出力される。判断結果3は、例えば、出力装置によって、医師等が見れるように出力される。 When the execution process is performed, the judgment result 3 for judging whether or not the symptom is a symptom such as large vasculitis is output. The determination result 3 is output by, for example, an output device so that a doctor or the like can see it.

例えば、医師は、このように出力される判断結果3を症状の診断を行うのに参考にして最終的な診断を行う。 For example, the doctor makes a final diagnosis by referring to the judgment result 3 output in this way for diagnosing the symptom.

なお、実行医用画像IMG3は、学習処理と同様に、第1医用画像IMG1及び第2医用画像IMG2という2つの医用画像の組み合わせでもよい。 The execution medical image IMG3 may be a combination of two medical images, a first medical image IMG1 and a second medical image IMG2, as in the learning process.

また、診断装置は、第1医用画像IMG1及び第2医用画像IMG2等の画像以外に、更にパラメータを入力してもよい。 Further, the diagnostic apparatus may input parameters in addition to the images such as the first medical image IMG1 and the second medical image IMG2.

なお、第2部位P2は、上記の例に示すように1箇所の部位でなくともよい。すなわち、第2医用画像IMG2は、2種類以上の部位を示す画像であってもよい。さらに、第2医用画像IMG2は、2種類以上の画像であってもよい。 The second site P2 does not have to be one site as shown in the above example. That is, the second medical image IMG2 may be an image showing two or more types of parts. Further, the second medical image IMG2 may be two or more types of images.

また、上記の例において、マージ画像IMG4を生成する位置は、図示する位置以外であってもよい。 Further, in the above example, the position where the merged image IMG4 is generated may be a position other than the position shown in the drawing.

なお、第1医用画像IMG1、第2医用画像IMG2、実行医用画像IMG3又はこれらの画像のうち、2つ以上の組み合わせは、入力において、階調又はコントラスト等が調整されてもよい。 The gradation or contrast of the first medical image IMG1, the second medical image IMG2, the executing medical image IMG3, or a combination of two or more of these images may be adjusted at the input.

<機能構成例>
図13は、機能構成例を示す図である。例えば、診断装置又は診断システムは、第1医用画像入力部FN1、第2医用画像入力部FN2、学習部FN3、実行画像入力部FN4、及び、判断部FN5等を含む機能構成である。
<Function configuration example>
FIG. 13 is a diagram showing a functional configuration example. For example, the diagnostic device or diagnostic system has a functional configuration including a first medical image input unit FN1, a second medical image input unit FN2, a learning unit FN3, an execution image input unit FN4, a determination unit FN5, and the like.

第1医用画像入力部FN1は、患者の第1部位P1を投影した第1医用画像IMG1を入力する第1医用画像入力手順を行う。例えば、第1医用画像入力部FN1は、通信装置20H3、又は、インタフェース20H6等で実現する。 The first medical image input unit FN1 performs a first medical image input procedure for inputting a first medical image IMG1 that is a projection of the patient's first site P1. For example, the first medical image input unit FN1 is realized by the communication device 20H3, the interface 20H6, or the like.

第2医用画像入力部FN2は、第2部位P2を投影した第2医用画像IMG2を入力する第2医用画像入力手順を行う。例えば、第2医用画像入力部FN2は、通信装置20H3、又は、インタフェース20H6等で実現する。 The second medical image input unit FN2 performs a second medical image input procedure for inputting a second medical image IMG2 that is a projection of the second portion P2. For example, the second medical image input unit FN2 is realized by the communication device 20H3, the interface 20H6, or the like.

学習部FN3は、第1医用画像IMG1及び第2医用画像IMG2に基づいて、ネットワークNWの学習を行い、学習モデル22を構築する学習手順を行う。例えば、学習部FN3は、CPU20H1等で実現する。 The learning unit FN3 learns the network NW based on the first medical image IMG1 and the second medical image IMG2, and performs a learning procedure for constructing the learning model 22. For example, the learning unit FN3 is realized by the CPU 20H1 or the like.

実行画像入力部FN4は、実行医用画像IMG3を入力する実行医用画像入力手順を行う。例えば、実行画像入力部FN4は、通信装置20H3、又は、インタフェース20H6等で実現する。 The execution image input unit FN4 performs an execution doctor image input procedure for inputting the execution doctor image IMG3. For example, the execution image input unit FN4 is realized by the communication device 20H3, the interface 20H6, or the like.

判断部FN5は、学習モデル22を用いて、実行医用画像IMG3に基づいて、症状について判断を行う判断手順を行う。例えば、判断部FN5は、CPU20H1等で実現する。 The judgment unit FN5 uses the learning model 22 to perform a judgment procedure for judging a symptom based on the image IMG3 for an executing doctor. For example, the determination unit FN5 is realized by the CPU 20H1 or the like.

なお、第1医用画像入力部FN1、第2医用画像入力部FN2、及び、学習部FN3は、学習処理が行われる場合に存在すればよい。したがって、学習処理が完了して、学習モデル22が構築された後、すなわち、実行処理を行う場合には、診断装置又は診断システムは、第1医用画像入力部FN1、第2医用画像入力部FN2、及び、学習部FN3がない機能構成でもよい。 The first medical image input unit FN1, the second medical image input unit FN2, and the learning unit FN3 may exist when the learning process is performed. Therefore, after the learning process is completed and the learning model 22 is constructed, that is, when the execution process is performed, the diagnostic device or the diagnostic system uses the first medical image input unit FN1 and the second medical image input unit FN2. , And a functional configuration without the learning unit FN3 may be used.

同様に、実行画像入力部FN4は、学習モデル22が構築された後、実行処理を行う場合に存在すればよい。したがって、学習処理が完了する前、すなわち、学習処理を行う場合には、診断装置又は診断システムは、実行画像入力部FN4がない機能構成でもよい。 Similarly, the execution image input unit FN4 may exist when the execution process is performed after the learning model 22 is constructed. Therefore, before the learning process is completed, that is, when the learning process is performed, the diagnostic device or the diagnostic system may have a functional configuration without the execution image input unit FN4.

ゆえに、学習処理と実行処理は、異なる装置が別々に行う構成でもよい。 Therefore, the learning process and the execution process may be performed separately by different devices.

なお、診断装置又は診断システムは、例えば、図7に示すように、隠れ層に基づいて、畳み込み処理、及び、プーリング処理等を行う処理部が更に含まれる機能構成であるのが望ましい。 As shown in FIG. 7, the diagnostic device or the diagnostic system preferably has a functional configuration further including a processing unit that performs a convolution process, a pooling process, and the like based on the hidden layer.

以上のような機能構成であると、診断装置又は診断システムは、大型血管炎等のように、症例数が数百件以下の希少な症状であっても、画像に基づいて精度良く症例を判断できる。 With the above functional configuration, the diagnostic device or diagnostic system can accurately determine cases based on images even for rare symptoms such as large vasculitis, in which the number of cases is several hundred or less. can.

希少な症状は、例えば、「難病の患者に対する医療等に関する法律」(平成二十六年法律第五十号)、いわゆる難病法(以下「難病法」という。)で難病と指定される症状である。なお、難病法では、大型血管炎は、高安動脈炎という名称で指定される症状である。したがって、本実施形態では、難病法における高安動脈炎が対象となってもよい。 Rare symptoms are, for example, symptoms designated as intractable diseases by the "Act on Medical Care for Patients with Intractable Diseases" (Act No. 50 of 2006), the so-called Intractable Diseases Act (hereinafter referred to as the "Intractable Diseases Act"). be. In the Act on Medical Care for Patients, macroangiitis is a symptom designated by the name of Takayasu's arteritis. Therefore, in this embodiment, Takayasu's arteritis in the Act on Medical Care for Patients may be targeted.

<対象となる特定の症状の例>
特定の症状は、症例が少ない症状である。AI等における学習は、学習データとしての画像は、数万枚以上あるのが望ましい場合が多い。一方で、大型血管炎等の症状は、これほど発生しない症状である。このような症状では、機械学習等で十分に学習ができるほど、症例の画像を準備するのが難しい場合が多い。
<Examples of specific target symptoms>
Specific symptoms are those with few cases. For learning in AI and the like, it is often desirable that there are tens of thousands or more images as learning data. On the other hand, symptoms such as large vasculitis are symptoms that do not occur so much. In such a symptom, it is often difficult to prepare an image of a case so that it can be sufficiently learned by machine learning or the like.

学習データを準備するのに、学習データの数を増やすため、1つの画像を加工する方法がある。例えば、元の画像に対して、回転、反転、変形、移動、又は、これらの組み合わせ等の加工を行って、別の画像を生成して画像の数を増やす方法がある。いわゆる「データ拡張(Data Augmentation)」と呼ばれる方法である。 To prepare the training data, there is a method of processing one image in order to increase the number of training data. For example, there is a method in which the original image is rotated, inverted, deformed, moved, or processed such as a combination thereof to generate another image and increase the number of images. This is a so-called "Data Augmentation" method.

医用画像に基づく判断では、データ拡張等の方法によって生成された画像では、精度が向上しない場合が多い。例えば、データ拡張によって生成された画像であると、医師等が診断に一般的に用いる画像からかけ離れた形式になり、学習の妨げになる場合がある。 In the judgment based on the medical image, the accuracy is often not improved in the image generated by a method such as data expansion. For example, if the image is generated by data expansion, the format is far from the image generally used for diagnosis by doctors and the like, which may hinder learning.

また、前提的な症例の画像(例えば、医学書等に記載される例となる画像等である。)では、症状が起きた臓器を同じような形状等を示す場合が多い。そのため、このような画像を学習データに用いると、形状等だけを学習してしまい、形状等だけで判断するように学習してしまうような場合もある。したがって、特定の症状には、データ拡張等の方法で学習データを増やして学習させても、精度が向上しない場合がある。 In addition, images of premised cases (for example, images that serve as examples described in medical books and the like) often show similar shapes and the like of organs in which symptoms have occurred. Therefore, when such an image is used as learning data, it may be learned that only the shape or the like is learned and the judgment is made only by the shape or the like. Therefore, for a specific symptom, the accuracy may not be improved even if the training data is increased and trained by a method such as data expansion.

また、医用画像に特化した学習モデルは、公開されていない場合が多い。特に、放射線科に係る医用画像を学習データとした学習モデルは、公開されていない場合が多い。そして、一般的な画像を学習データとする学習モデルでは、精度が高くできない場合が多い。例えば、ImageNet、FMD(Flickr Material Database)、又は、The KTH−TIPS and KTH−TIPS2 image databases等で提供されている画像を学習データにして学習した学習モデルでは、精度が向上しない場合がある。したがって、医用画像を入力とし、特定の症状を判断させるような処理では、一般的な画像で学習済みのネットワークを利用する、いわゆる転移学習では、精度が向上しない場合がある。 In addition, learning models specialized for medical images are often not published. In particular, there are many cases where a learning model using medical images related to radiology as learning data is not open to the public. In many cases, a learning model using a general image as training data cannot achieve high accuracy. For example, in a learning model trained using images provided by ImageNet, FMD (Flickr Material Database), The KTH-TIPS and KTH-TIPS2 image data, etc. as training data, the accuracy may not be improved. Therefore, in a process in which a medical image is input and a specific symptomatology is determined, the accuracy may not be improved in so-called transfer learning, which uses a network trained with a general image.

なお、診断装置によって判断される対象となる症状は、白質脳症であってもよい。 The target symptom determined by the diagnostic device may be leukoencephalopathy.

図14は、スライス医用画像群を用いる診断システムの全体構成例を示す図である。例えば、特定の症状が白質脳症である場合には、医用画像生成システム21は、スライス医用画像群IMG10を生成する。 FIG. 14 is a diagram showing an overall configuration example of a diagnostic system using a slice medical image group. For example, if the particular symptomatology is leukoencephalopathy, the medical image generation system 21 produces the sliced medical image group IMG10.

スライス医用画像群IMG10は、例えば、患者1の頭頂部乃至鼻孔部を対象範囲として、生成される複数の医用画像である。具体的には、スライス医用画像群IMG10を構成するそれぞれの医用画像は、例えば、対象範囲において、一定の間隔ごとに投影、いわゆるスライス状に生成される医用画像である。したがって、スライス医用画像群IMG10を構成するそれぞれの医用画像は、一定の間隔、ずれた部位を示す画像である。 The sliced medical image group IMG10 is, for example, a plurality of medical images generated from the crown to the nostril of patient 1 as a target range. Specifically, each medical image constituting the sliced medical image group IMG10 is, for example, a medical image generated in a so-called slice shape projected at regular intervals in a target range. Therefore, each medical image constituting the sliced medical image group IMG10 is an image showing a portion shifted at a fixed interval.

なお、一定の間隔は、あらかじめ設定され、医用画像生成システム21の仕様等によって定まる。 The fixed interval is set in advance and is determined by the specifications of the medical image generation system 21 and the like.

例えば、このように生成されるスライス医用画像群IMG10のうち、任意に選択される2枚以上の医用画像が、第1医用画像IMG1及び第2医用画像IMG2、すなわち、学習データとなってもよい。以下、大型血管炎と同様に、図5に示すような全体処理が行われてもよい。 For example, two or more arbitrarily selected medical images in the slice medical image group IMG10 generated in this way may be the first medical image IMG1 and the second medical image IMG2, that is, training data. .. Hereinafter, as in the case of large vasculitis, the whole treatment as shown in FIG. 5 may be performed.

なお、特定の症例が白質脳症である場合には、ネットワーク構造は、例えば、以下のような構造でもよい。 When the specific case is leukoencephalopathy, the network structure may be, for example, the following structure.

図15は、白質脳症用のネットワーク構造例を示す図である。例えば、スライス医用画像群IMG10を構成する医用画像が学習データ及び実行用のデータとなる場合には、図示するようなネットワーク構造であってもよい。 FIG. 15 is a diagram showing an example of a network structure for leukoencephalopathy. For example, when the medical images constituting the sliced medical image group IMG10 are learning data and execution data, the network structure as shown in the figure may be used.

以上のように、診断装置又は診断システムは、異なる部位を示す複数の医用画像を入力して、学習処理及び実行処理を行う構成である。 As described above, the diagnostic device or the diagnostic system is configured to input a plurality of medical images showing different parts and perform learning processing and execution processing.

<変形例>
なお、第1部位には、縦隔以外の部位が含まれてもよい。例えば、第1部位には、縦隔に加えて、首あたりまでの範囲等が更に含まれてもよい。具体的には、第1部位には、以下のような範囲が含まれてもよい。
<Modification example>
The first portion may include a portion other than the mediastinum. For example, the first portion may further include a range up to the neck, etc., in addition to the mediastinum. Specifically, the first portion may include the following ranges.

図16は、第1部位の変形例を示す図である。具体的には、第1部位には、大動脈弓分枝血管P11、上行大動脈P12、大動脈弓P13、胸部下行大動脈P14(単に「下行大動脈」と呼ばれる場合もある。)、腹部大動脈P15、及び、腎動脈P16(右腎動脈及び左腎動脈である。)等が含まれてもよい。 FIG. 16 is a diagram showing a modified example of the first portion. Specifically, the first site includes aortic arch branch blood vessel P11, ascending aorta P12, aortic arch P13, thoracic descending aorta P14 (sometimes simply referred to as "descending aorta"), abdominal aorta P15, and. Renal artery P16 (right renal artery and left renal artery) and the like may be included.

大動脈弓分枝血管P11は、例えば、腕頭動脈、右鎖骨下動脈、右総頚動脈、左総頚動脈、左鎖骨下動脈、又は、これらの一部である。さらに、上行大動脈P12、大動脈弓P13、胸部下行大動脈P14、腹部大動脈P15、及び、腎動脈P16等が加わってもよい。 The aortic arch branch vessel P11 is, for example, the brachiocephalic artery, the right subclavian artery, the right common carotid artery, the left common carotid artery, the left subclavian artery, or a part thereof. Further, ascending aorta P12, aortic arch P13, thoracic descending aorta P14, abdominal aorta P15, renal artery P16 and the like may be added.

大型血管炎は、例えば、病変部位によって、大動脈弓分枝血管(分類 タイプ1)、上行大動脈、大動脈弓、及び、分枝血管(分類 タイプ2a)、上行大動脈、大動脈弓、分枝血管、及び、胸部下行大動脈(分類 タイプ2b)、胸部下行大動脈、腹部大動脈、及び、腎動脈(分類 タイプ3)、腹部大動脈、及び/又は、腎動脈(分類 タイプ4)、並びに、上行大動脈、大動脈弓、分枝血管、胸部下行大動脈、腹部大動脈、及び/又は、腎動脈(分類 タイプ5)という6種類に分類される。 Large vasculitis includes, for example, aortic arch branching vessels (classification type 1), ascending aorta, aortic arch, and branching vessels (classification type 2a), ascending aorta, aortic arch, branching blood vessels, and, depending on the lesion site. , Chest descending aorta (classification type 2b), thoracic descending aorta, abdominal aorta, and renal artery (classification type 3), abdominal aorta, and / or renal artery (classification type 4), and ascending aorta, aortic arch, It is classified into 6 types: branched blood vessels, descending thoracic aorta, abdominal aortic arch, and / or renal artery (classification type 5).

すなわち、大型血管炎では、縦隔に症状が発生する場合であっても、胸部下行大動脈P14、腹部大動脈P15、及び、腎動脈P16等の部位にも症状が発生する場合がある。そこで、第1部位に胸部下行大動脈P14、腹部大動脈P15、及び、腎動脈P16等を加えて学習及び実行が行われてもよい。このような部位が加わると、胸部下行大動脈P14、腹部大動脈P15、及び、腎動脈P16等の部位にも症状が発生しているか否か等も判断できる。すなわち、タイプ1乃至タイプ5に分類される症状も判断できる。なお、これらの部位は、すべて1つの医用画像に含まれる必要はなく、別の医用画像で入力されてもよい。 That is, in large vasculitis, even if symptoms occur in the mediastinum, symptoms may occur in sites such as the descending thoracic aorta P14, the abdominal aorta P15, and the renal artery P16. Therefore, learning and execution may be performed by adding the descending thoracic aorta P14, the abdominal aorta P15, the renal artery P16, etc. to the first site. When such a site is added, it can be determined whether or not symptoms occur in sites such as the descending thoracic aorta P14, the abdominal aorta P15, and the renal artery P16. That is, the symptoms classified into type 1 to type 5 can also be determined. It should be noted that all of these parts need not be included in one medical image, and may be input in another medical image.

なお、第1医用画像及び第2医用画像は、データ拡張が行われてもよい。ただし、医用画像を対象にデータ拡張する場合には、例えば、以下のような条件が設定されるのが望ましい。 The data of the first medical image and the second medical image may be expanded. However, when expanding data for medical images, for example, it is desirable to set the following conditions.

医用画像の拡大及び縮小は、人間の常識で考えられる範囲内で行われるのが望ましい。例えば、心臓及び血管等は、一般的な大きさに対して、2倍の大きさになる場合は少ない。したがって、医用画像の拡大及び縮小は、0.9倍乃至1.1倍程度の範囲で行われるのが望ましい。 It is desirable that the enlargement and reduction of the medical image be performed within the range considered by human common sense. For example, the heart, blood vessels, etc. are rarely twice as large as the general size. Therefore, it is desirable that the enlargement and reduction of the medical image be performed in the range of about 0.9 times to 1.1 times.

医用画像のコントラスト変更は、人間が医用画像を見て形状等を判断できる範囲内で変更されるのが望ましい。すなわち、医用画像のコントラスト変更は、形状及び色等が分からなくなるレベルまで画像を暗く又は明るくしない範囲が望ましい。 It is desirable that the contrast of the medical image is changed within a range in which a human can judge the shape or the like by looking at the medical image. That is, it is desirable to change the contrast of the medical image in a range in which the image is not darkened or brightened to a level where the shape, color, etc. cannot be understood.

なお、上記に示す方法と、他のデータ拡張が組み合わせて行われてもよい。 In addition, the method shown above and other data expansion may be performed in combination.

また、マージ画像を生成する画像は、第1部位を示す画像及び第2部位を示す画像に基づく画像であればよい。したがって、学習処理では、マージ画像を生成するのに用いられる画像は、第1医用画像及び第2医用画像が用いられてもよいし、これらの画像に対して何らかの処理を行って生成される画像でもよい。一方で、実行処理では、マージ画像を生成するのに用いられる画像は、実行医用画像が用いられてもよいし、実行医用画像に対して何らかの処理を行って生成される画像でもよい。 Further, the image for generating the merged image may be an image showing the first part and an image based on the image showing the second part. Therefore, in the learning process, the first medical image and the second medical image may be used as the image used to generate the merged image, or an image generated by performing some processing on these images. It may be. On the other hand, in the execution process, the image used to generate the merged image may be an image for the execution doctor or an image generated by performing some processing on the image for the execution doctor.

<その他の実施形態>
上記に示す各装置は、1台の装置でなくともよい。すなわち、各装置は、複数の装置で構成されてもよい。また、各装置は、上記に示す以外の装置を内部又は外部に有線又は無線で接続して有してもよい。
<Other Embodiments>
Each device shown above does not have to be one device. That is, each device may be composed of a plurality of devices. In addition, each device may have a device other than those shown above connected internally or externally by wire or wirelessly.

本発明に係る実施形態では、診断装置、又は、診断システムが有する情報処理装置等は、並行、分散又は冗長して処理を行ってもよい。 In the embodiment of the present invention, the diagnostic device, the information processing device included in the diagnostic system, and the like may perform processing in parallel, distributed, or redundantly.

また、本発明に係る処理及びデータは、クラウドコンピュータ等を利用して、並行、分散又は冗長して処理されてもよい。さらに、データは、クラウドコンピュータ又はRAID等で冗長又は分散して記憶されてもよい。 Further, the processing and data according to the present invention may be processed in parallel, distributed or redundantly by using a cloud computer or the like. Further, the data may be stored redundantly or distributed in a cloud computer, RAID, or the like.

また、本実施形態は、コンピュータに診断方法を実行させるためのプログラム等で実現されてもよい。 Further, the present embodiment may be realized by a program or the like for causing a computer to execute a diagnostic method.

したがって、プログラムに基づいて、診断方法を実現する各処理が実行されると、コンピュータが有する演算装置及び制御装置は、各処理を実行するため、プログラムに基づいて演算及び制御を行う。また、コンピュータが有する記憶装置は、各処理を実行するため、プログラムに基づいて、処理に用いられるデータを記憶する。このように、プログラムに基づいて、各ハードウェア資源が協働して処理を実行することで診断方法が行われてもよい。 Therefore, when each process for realizing the diagnostic method is executed based on the program, the arithmetic unit and the control device of the computer perform the calculation and control based on the program in order to execute each process. In addition, the storage device of the computer stores the data used for the processing based on the program in order to execute each processing. In this way, the diagnostic method may be performed by the hardware resources collaborating to execute the process based on the program.

また、プログラムは、コンピュータが読み取り可能な記録媒体に記録されて頒布することができる。なお、記録媒体は、磁気テープ、フラッシュメモリ、光ディスク、光磁気ディスク又は磁気ディスク等のメディアである。さらに、プログラムは、電気通信回線を通じて頒布することができる。 In addition, the program can be recorded and distributed on a computer-readable recording medium. The recording medium is a medium such as a magnetic tape, a flash memory, an optical disk, a magneto-optical disk, or a magnetic disk. In addition, the program can be distributed over telecommunication lines.

以上、本発明の例示的な実施形態について説明したが、本発明は、具体的に開示された実施の形態に限定されない。すなわち、特許請求の範囲から逸脱することなく、種々の変形、改良又は変更が可能である。 Although the exemplary embodiments of the present invention have been described above, the present invention is not limited to the specifically disclosed embodiments. That is, various modifications, improvements or changes can be made without departing from the scope of claims.

1 患者
2 診断システム
3 判断結果
20 診断装置
21 医用画像生成システム
22 学習モデル
DP ドロップアウト層
F1 第1フィルタ
FN1 第1医用画像入力部
FN2 第2医用画像入力部
FN3 学習部
FN4 実行画像入力部
FN5 判断部
IMG1 第1医用画像
IMG2 第2医用画像
IMG3 実行医用画像
IMG4 マージ画像
IMG10 スライス医用画像群
IN1 第1入力画像
IN2 第2入力画像
L1 第1隠れ層
L2 第2隠れ層
L3 第3隠れ層
LC11 第11畳み込み層
LC12 第12畳み込み層
LC13 第13畳み込み層
LC2 第2畳み込み層
LC31 第31畳み込み層
LC32 第32畳み込み層
LC33 第33畳み込み層
LD31 第1ドロップアウト層
LD32 第2ドロップアウト層
LF 全結合層
LF31 第1全結合層
LF32 第2全結合層
LN3 正規化層
LO 出力層
LP11 第11プーリング層
LP12 第12プーリング層
LP31 第31プーリング層
LP32 第32プーリング層
LP33 第33プーリング層
LP34 第34プーリング層
MP1 第1特徴マップ
MP2 第2特徴マップ
NW ネットワーク
OUT1 第1出力特徴マップ
OUT2 第2出力特徴マップ
P1 第1部位
P2 第2部位
1 Patient 2 Diagnostic system 3 Judgment result 20 Diagnostic device 21 Medical image generation system 22 Learning model DP Dropout layer F1 1st filter FN1 1st medical image input unit FN2 2nd medical image input unit FN3 Learning unit FN4 Execution image input unit FN5 Judgment unit IMG1 1st medical image IMG2 2nd medical image IMG3 Execution medical image IMG4 Merged image IMG10 Slice medical image group IN1 1st input image IN2 2nd input image L1 1st hidden layer L2 2nd hidden layer L3 3rd hidden layer LC11 11th Folding Layer LC12 12th Folding Layer LC13 13th Folding Layer LC2 2nd Folding Layer LC31 31st Folding Layer LC32 32nd Folding Layer LC33 33rd Folding Layer LD31 1st Dropout Layer LD32 2nd Dropout Layer LF Fully Bonded Layer LF31 1st fully connected layer LF32 2nd fully bonded layer LN3 Normalized layer LO Output layer LP11 11th pooling layer LP12 12th pooling layer LP31 31st pooling layer LP32 32nd pooling layer LP33 33rd pooling layer LP34 34th pooling layer MP1 1st feature map MP2 2nd feature map NW network OUT1 1st output feature map OUT2 2nd output feature map P1 1st part P2 2nd part

Claims (14)

患者の第1部位を投影した第1医用画像を入力する第1医用画像入力部と、
前記第1部位とは異なる部位である第2部位を投影した第2医用画像を入力する第2医用画像入力部と、
前記第1医用画像及び前記第2医用画像に基づいて、ネットワークの学習を行い、学習モデルを構築する学習部と、
前記学習モデルを用いて、前記第1部位及び前記第2部位を投影した実行医用画像に基づいて、症状について判断を行う判断部と
を含む診断装置。
A first medical image input unit that inputs a first medical image that projects the first part of the patient,
A second medical image input unit that inputs a second medical image that projects a second part that is a part different from the first part, and a second medical image input unit.
A learning unit that learns a network and builds a learning model based on the first medical image and the second medical image.
A diagnostic device including a determination unit that determines a symptom based on an image for an execution doctor that projects the first portion and the second portion using the learning model.
前記第1部位は、縦隔であり、
前記第2部位は、肝臓である
請求項1に記載の診断装置。
The first part is the mediastinum.
The diagnostic device according to claim 1, wherein the second site is the liver.
前記症状は、大型血管炎である
請求項1又は2に記載の診断装置。
The diagnostic device according to claim 1 or 2, wherein the symptom is macroangiitis.
前記第1医用画像は、前記第2医用画像より解像度が高い画像である
請求項1乃至3のいずれか1項に記載の診断装置。
The diagnostic device according to any one of claims 1 to 3, wherein the first medical image is an image having a higher resolution than the second medical image.
前記第2医用画像は、前記第2部位における同一の色を示す画素、同一の画素値を示す画素、又は、基準値以内の画素のうち、いずれかの集まりを含む画像である
請求項1乃至4のいずれか1項に記載の診断装置。
The second medical image is an image including a group of pixels showing the same color, pixels showing the same pixel value, or pixels within the reference value in the second part. The diagnostic apparatus according to any one of 4.
前記第2医用画像は、前記第2部位における臓器の輪郭を含まない位置を示す
請求項5に記載の診断装置。
The diagnostic device according to claim 5, wherein the second medical image shows a position in the second site that does not include the contour of an organ.
前記第1医用画像及び前記第2医用画像は、前記第1部位及び前記第2部位の両方を示す医用画像から切り出して生成される
請求項1乃至6のいずれか1項に記載の診断装置。
The diagnostic device according to any one of claims 1 to 6, wherein the first medical image and the second medical image are generated by cutting out from a medical image showing both the first part and the second part.
前記学習部は、前記第1医用画像及び前記第2医用画像に基づいてマージ画像を生成して、前記マージ画像を用いて学習を行う
請求項1乃至7のいずれか1項に記載の診断装置。
The diagnostic device according to any one of claims 1 to 7, wherein the learning unit generates a merged image based on the first medical image and the second medical image, and performs learning using the merged image. ..
前記マージ画像は、前記第1医用画像及び前記第2医用画像のそれぞれの色又は画素値を比較した結果を示す画像である
請求項8に記載の診断装置。
The diagnostic device according to claim 8, wherein the merged image is an image showing the result of comparing the color or pixel value of each of the first medical image and the second medical image.
前記マージ画像は、前記画素値の差を計算して生成される画像である
請求項9に記載の診断装置。
The diagnostic device according to claim 9, wherein the merged image is an image generated by calculating the difference between the pixel values.
前記ネットワークは、隠れ層を有し、
前記第1医用画像及び前記第2医用画像に対して、前記隠れ層に基づく、畳み込み、プーリング、又は、これらの組み合わせを行う処理部を更に含み、
前記マージ画像は、前記処理部が前記第1医用画像及び前記第2医用画像を処理して生成する第1特徴マップ及び第2特徴マップに基づいて生成される
請求項8乃至10のいずれか1項に記載の診断装置。
The network has a hidden layer
The first medical image and the second medical image further include a processing unit that performs convolution, pooling, or a combination thereof based on the hidden layer.
The merged image is any one of claims 8 to 10 generated based on the first feature map and the second feature map generated by the processing unit by processing the first medical image and the second medical image. The diagnostic device described in the section.
前記第1部位は、大動脈弓分枝血管、上行大動脈、大動脈弓、胸部下行大動脈、腹部大動脈、及び、腎動脈のうち、いずれを含み、かつ、前記第1部位は、縦隔を更に含み、
前記第2部位は、肝臓である
請求項1乃至11のいずれか1項に記載の診断装置。
The first site includes any of the aortic arch branch blood vessel, the ascending aorta, the aortic arch, the descending thoracic aorta, the abdominal aorta, and the renal artery, and the first site further includes the mediastinum.
The diagnostic device according to any one of claims 1 to 11, wherein the second site is the liver.
患者の第1部位を投影した第1医用画像を入力する第1医用画像入力部と、
前記第1部位とは異なる部位である第2部位を投影した第2医用画像を入力する第2医用画像入力部と、
前記第1医用画像及び前記第2医用画像に基づいて、ネットワークの学習を行い、学習モデルを構築する学習部と、
前記学習モデルを用いて、前記第1部位及び前記第2部位を投影した実行医用画像に基づいて、症状について判断を行う判断部と
を含む診断システム。
A first medical image input unit that inputs a first medical image that projects the first part of the patient,
A second medical image input unit that inputs a second medical image that projects a second part that is a part different from the first part, and a second medical image input unit.
A learning unit that learns a network and builds a learning model based on the first medical image and the second medical image.
A diagnostic system including a judgment unit that makes a judgment about a symptom based on an image for an execution doctor that projects the first part and the second part using the learning model.
コンピュータに診断方法を実行させるためのプログラムであって、
コンピュータが、患者の第1部位を投影した第1医用画像を入力する第1医用画像入力手順と、
コンピュータが、前記第1部位とは異なる部位である第2部位を投影した第2医用画像を入力する第2医用画像入力手順と、
コンピュータが、前記第1医用画像及び前記第2医用画像に基づいて、ネットワークの学習を行い、学習モデルを構築する学習手順と、
コンピュータが、前記学習モデルを用いて、前記第1部位及び前記第2部位を投影した実行医用画像に基づいて、症状について判断を行う判断手順と
を実行させるためのプログラム。
A program that lets a computer perform diagnostic methods
A first medical image input procedure in which a computer inputs a first medical image that projects a first part of a patient,
A second medical image input procedure in which a computer inputs a second medical image that projects a second part that is a part different from the first part.
A learning procedure in which a computer learns a network based on the first medical image and the second medical image and builds a learning model.
A program for a computer to execute a judgment procedure for making a judgment about a symptom based on an execution medical image projected on the first part and the second part using the learning model.
JP2020001974A 2020-01-09 2020-01-09 Diagnostic device, diagnostic system and program using AI Active JP6737491B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020001974A JP6737491B1 (en) 2020-01-09 2020-01-09 Diagnostic device, diagnostic system and program using AI

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020001974A JP6737491B1 (en) 2020-01-09 2020-01-09 Diagnostic device, diagnostic system and program using AI

Publications (2)

Publication Number Publication Date
JP6737491B1 JP6737491B1 (en) 2020-08-12
JP2021111076A true JP2021111076A (en) 2021-08-02

Family

ID=71949278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020001974A Active JP6737491B1 (en) 2020-01-09 2020-01-09 Diagnostic device, diagnostic system and program using AI

Country Status (1)

Country Link
JP (1) JP6737491B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6827245B1 (en) * 2020-10-23 2021-02-10 株式会社アドイン研究所 Diagnostic device using AI, learning data generator, data request device, diagnostic system, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017187840A (en) * 2016-04-01 2017-10-12 富士ゼロックス株式会社 Image pattern recognition device and program
JP2018180635A (en) * 2017-04-04 2018-11-15 コニカミノルタ株式会社 Image processing device, image processing method, and image processing program
JP2019033966A (en) * 2017-08-18 2019-03-07 コニカミノルタ株式会社 Image processing device, image processing method, and image processing program
JP2019149093A (en) * 2018-02-28 2019-09-05 富士フイルム株式会社 Diagnostic assistance system, diagnostic assistance method, and program
JP2019154943A (en) * 2018-03-15 2019-09-19 ライフサイエンスコンピューティング株式会社 Lesion detection method using artificial intelligence, and system therefor
JP2019181226A (en) * 2017-11-24 2019-10-24 キヤノンメディカルシステムズ株式会社 Medical data processing device, magnetic resonance imaging apparatus, and learned model generation method
JP2019195627A (en) * 2018-05-07 2019-11-14 ゼブラ メディカル ビジョン リミテッド System and device for analyzing anatomical image

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017187840A (en) * 2016-04-01 2017-10-12 富士ゼロックス株式会社 Image pattern recognition device and program
JP2018180635A (en) * 2017-04-04 2018-11-15 コニカミノルタ株式会社 Image processing device, image processing method, and image processing program
JP2019033966A (en) * 2017-08-18 2019-03-07 コニカミノルタ株式会社 Image processing device, image processing method, and image processing program
JP2019181226A (en) * 2017-11-24 2019-10-24 キヤノンメディカルシステムズ株式会社 Medical data processing device, magnetic resonance imaging apparatus, and learned model generation method
JP2019149093A (en) * 2018-02-28 2019-09-05 富士フイルム株式会社 Diagnostic assistance system, diagnostic assistance method, and program
JP2019154943A (en) * 2018-03-15 2019-09-19 ライフサイエンスコンピューティング株式会社 Lesion detection method using artificial intelligence, and system therefor
JP2019195627A (en) * 2018-05-07 2019-11-14 ゼブラ メディカル ビジョン リミテッド System and device for analyzing anatomical image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
磯部 光章, "血管炎症候群の診療ガイドライン(2017年改訂版)", JPN7020000544, 23 March 2018 (2018-03-23), pages 9 - 19, ISSN: 0004221165 *

Also Published As

Publication number Publication date
JP6737491B1 (en) 2020-08-12

Similar Documents

Publication Publication Date Title
JP6657132B2 (en) Image classification device, method and program
Torosdagli et al. Deep geodesic learning for segmentation and anatomical landmarking
US20220265239A1 (en) Systems and methods for assessing the severity of plaque and/or stenotic lesions using contrast distribution predictions and measurements
US20210406591A1 (en) Medical image processing method and apparatus, and medical image recognition method and apparatus
US20220028085A1 (en) Method and system for providing an at least 3-dimensional medical image segmentation of a structure of an internal organ
JP6525912B2 (en) Image classification device, method and program
JP6930283B2 (en) Image processing device, operation method of image processing device, and image processing program
US11861851B2 (en) Anatomical and functional assessment of CAD using machine learning
JP2018175226A (en) Medical image classification device, method, and program
Ko et al. Rigid and non-rigid motion artifact reduction in X-ray CT using attention module
CN111524109B (en) Scoring method and device for head medical image, electronic equipment and storage medium
JP6737491B1 (en) Diagnostic device, diagnostic system and program using AI
JP7456928B2 (en) Abnormal display control method of chest X-ray image, abnormal display control program, abnormal display control device, and server device
Zreik et al. Combined analysis of coronary arteries and the left ventricular myocardium in cardiac CT angiography for detection of patients with functionally significant stenosis
AU2019204365C1 (en) Method and System for Image Segmentation and Identification
KR102254365B1 (en) Medical image processing method
JP2018102586A (en) Fundus image processing device
CN114565623A (en) Pulmonary vessel segmentation method, device, storage medium and electronic equipment
Benjamins et al. Hybrid Cardiac Imaging: The Role of Machine Learning and Artificial Intelligence
EP4266255A1 (en) Method and system for generating label of medical image
US11847779B2 (en) Clinical decision support for cardiovascular disease based on a plurality of medical assessments
US20240122563A1 (en) Medical image processing device, medical image processing method, and storage medium
Li Data-efficient deep learning algorithms for computer-aided medical diagnosis
KR20210127849A (en) System for determining severity of ankylosing spondylitis using artificial intelligence based on spinal image and method thereof
SANONGSIN et al. A New Deep Learning Model for Diffeomorphic Deformable Image Registration Problems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200128

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200128

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200710

R150 Certificate of patent or registration of utility model

Ref document number: 6737491

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250