JP2020010805A - Specification device, program, specification method, information processing device, and specifier - Google Patents

Specification device, program, specification method, information processing device, and specifier Download PDF

Info

Publication number
JP2020010805A
JP2020010805A JP2018134527A JP2018134527A JP2020010805A JP 2020010805 A JP2020010805 A JP 2020010805A JP 2018134527 A JP2018134527 A JP 2018134527A JP 2018134527 A JP2018134527 A JP 2018134527A JP 2020010805 A JP2020010805 A JP 2020010805A
Authority
JP
Japan
Prior art keywords
image
unit
state
tumor
teacher data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018134527A
Other languages
Japanese (ja)
Other versions
JP7167515B2 (en
Inventor
隆寛 田中
Takahiro Tanaka
隆寛 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2018134527A priority Critical patent/JP7167515B2/en
Publication of JP2020010805A publication Critical patent/JP2020010805A/en
Application granted granted Critical
Publication of JP7167515B2 publication Critical patent/JP7167515B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Nuclear Medicine (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

To provide a specification device capable of specifying a state of an imaging object on the basis of an image.SOLUTION: A specification device 20 acquires each of a plurality of kinds of images imaged by different methods for an imaging object. The specification device discriminates a state of the imaging object in each of the acquired images by using a learning model of the learning based on teacher data including the image and the state of the imaging object in the image for each kind of the image. The specification device specifies the state of the imaging object on the basis of a result of the discrimination for each kind of the image.SELECTED DRAWING: Figure 7

Description

本開示は、特定装置、プログラム、特定方法、情報処理装置及び特定器に関する。   The present disclosure relates to a specifying device, a program, a specifying method, an information processing device, and a specifying device.

医療分野では、X線撮影、CT(Computed Tomography:コンピュータ断層撮影法)、MRI(Magnetic Resonance Imaging:磁気共鳴画像法)、PET(Positron Emission Tomography:陽電子放出断層撮影法)、PET−CT等の撮像装置を用いて患者を撮影し、得られた医用画像に基づいて病変の診断が行われている。撮像装置はその種類や備えられている画像化手段によって異なった観点から生体組織を観察できるようになるので、医師は、それぞれの装置で撮影した医用画像を比較しながら診断を行っている。特許文献1では、X線CT画像データとMRI画像データとを互いに重ね合わせるように統合させた統合画像を生成する装置が開示されている。特許文献1に開示された装置では、2種類の医用画像を統合して表示できるので、それぞれの医用画像中に含まれる所望の生体組織の情報を1枚の統合画像として確認できる。   In the medical field, imaging such as X-ray photography, CT (Computed Tomography), MRI (Magnetic Resonance Imaging), PET (Positron Emission Tomography), PET-CT, etc. 2. Description of the Related Art A patient is photographed using an apparatus, and a lesion is diagnosed based on the obtained medical image. Since the imaging device can observe the biological tissue from different viewpoints depending on the type and the provided imaging means, the doctor makes a diagnosis while comparing medical images captured by each device. Patent Literature 1 discloses an apparatus that generates an integrated image in which X-ray CT image data and MRI image data are integrated so as to overlap each other. In the device disclosed in Patent Literature 1, two types of medical images can be integrated and displayed, so that information on a desired biological tissue included in each medical image can be confirmed as one integrated image.

特開2014−182号公報JP-A-2014-182

特許文献1に開示された装置は、同一対象を異なる画像化手段で撮像した2つの画像を統合して表示するものの、複数の画像に基づいて観察対象の状態を特定するものではない。   The apparatus disclosed in Patent Literature 1 integrates and displays two images of the same object captured by different imaging units, but does not specify the state of the observation target based on a plurality of images.

本開示は、このような事情に鑑みてなされたものであり、その目的とするところは、画像に基づいて撮影対象の状態を特定することが可能な特定装置等を提供することにある。   The present disclosure has been made in view of such circumstances, and a purpose thereof is to provide a specification device and the like that can specify a state of a shooting target based on an image.

本開示の一態様に係る特定装置は、撮影対象の状態を特定する特定装置であって、撮影対象に対して異なる方法によって画像化された複数種類の画像をそれぞれ取得する複数の画像取得部と、前記画像の種類毎に設けられ、前記画像及び該画像における撮影対象の状態を含む教師データに基づいて学習した学習モデルを用いて、前記画像取得部のそれぞれが取得した前記画像における撮影対象の状態をそれぞれ判別する複数の判別部と、前記判別部のそれぞれによる判別結果に基づいて、前記撮影対象の状態を特定する特定部とを備える。   A specific device according to an aspect of the present disclosure is a specific device that specifies a state of an imaging target, and includes a plurality of image acquisition units that respectively acquire a plurality of types of images imaged by different methods for the imaging target. Using a learning model that is provided for each type of the image and that is learned based on teacher data including the state of the image and the shooting target in the image, and that the image obtaining unit obtains the shooting target in the image. The image processing apparatus includes a plurality of determination units for determining states, and a specification unit for specifying the state of the imaging target based on a determination result by each of the determination units.

本開示にあっては、画像に基づいて撮影対象の状態を特定することできる。   According to the present disclosure, a state of a shooting target can be specified based on an image.

診断支援システムの構成例を示す模式図である。It is a schematic diagram which shows the example of a structure of a diagnosis support system. 学習装置の構成例を示すブロック図である。It is a block diagram showing an example of composition of a learning device. マンモグラフィ画像の例を示す模式図である。It is a schematic diagram which shows the example of a mammography image. フィルタ処理後の画像の例を示す模式図である。It is a schematic diagram which shows the example of the image after a filter process. 学習装置の制御部によって実現される機能を示すブロック図である、It is a block diagram showing a function realized by the control unit of the learning device, 学習装置が行う学習処理の説明図である。FIG. 9 is an explanatory diagram of a learning process performed by the learning device. 特定装置の構成例を示すブロック図である。It is a block diagram showing an example of composition of a specific device. 特定装置の制御部によって実現される機能を示すブロック図である。It is a block diagram showing a function realized by a control unit of a specific device. 特定装置が行う特定処理の説明図である。FIG. 9 is an explanatory diagram of a specific process performed by a specific device. 学習装置による学習処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the learning process by a learning device. 特定装置による特定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the specific processing by a specific device. T2強調画像の例を示す模式図である。It is a schematic diagram which shows the example of a T2-weighted image. T1CE画像の例を示す模式図である。It is a schematic diagram which shows the example of a T1CE image. 実施形態3の学習装置の制御部によって実現される機能を示すブロック図である。FIG. 13 is a block diagram illustrating functions realized by a control unit of the learning device according to the third embodiment. 実施形態3の学習装置が行う学習処理の説明図である。FIG. 14 is an explanatory diagram of a learning process performed by the learning device according to the third embodiment. 実施形態3の学習装置が行う学習処理の説明図である。FIG. 14 is an explanatory diagram of a learning process performed by the learning device according to the third embodiment. 実施形態3の特定装置の制御部によって実現される機能を示すブロック図である。FIG. 13 is a block diagram illustrating functions realized by a control unit of a specific device according to a third embodiment. 実施形態3の特定装置が行う特定処理の説明図である。FIG. 14 is an explanatory diagram of a specifying process performed by a specifying device according to a third embodiment. 実施形態3の特定装置が行う特定処理の説明図である。FIG. 14 is an explanatory diagram of a specifying process performed by a specifying device according to a third embodiment. 実施形態3の特定装置が行う特定処理の説明図である。FIG. 14 is an explanatory diagram of a specifying process performed by a specifying device according to a third embodiment. 実施形態3の学習装置による学習処理の手順を示すフローチャートである。13 is a flowchart illustrating a procedure of a learning process performed by the learning device according to the third embodiment. 実施形態3の特定装置による特定処理の手順を示すフローチャートである。13 is a flowchart illustrating a procedure of a specific process performed by a specific device according to a third embodiment. 実施形態3の特定装置による特定処理の手順を示すフローチャートである。13 is a flowchart illustrating a procedure of a specific process performed by a specific device according to a third embodiment. テストデータの構成を示す図表である。4 is a chart showing a configuration of test data. 特定装置による判別精度を示す図表である。6 is a table showing the accuracy of determination by a specific device. マンモグラフィ画像の例を示す模式図である。It is a schematic diagram which shows the example of a mammography image. 差分画像の例を示す模式図である。It is a schematic diagram which shows the example of a difference image. 実施形態5の特定装置の制御部によって実現される機能を示すブロック図である。It is a block diagram showing the function realized by the control part of the specific device of Embodiment 5. 実施形態5の特定装置による特定処理の手順の一部を示すフローチャートである。15 is a flowchart illustrating a part of a procedure of a specific process performed by a specific device according to a fifth embodiment.

以下に、本開示の特定装置、プログラム、特定方法、情報処理装置及び特定器について、X線撮影、CT、MRI、PET、PET−CT等の撮像装置を用いて患者の患部を撮影した医用画像に基づいて患者の患部の状態を判別する診断処理を支援する診断支援システムに適用した実施形態を示す図面に基づいて詳述する。なお、本開示は、好適には、乳房腫瘤、肺癌、脳腫瘍等、各種の病変を撮影した医用画像に基づいて病変の状態を判別する診断処理を支援するシステムに適用できるが、医用画像を対象に限定するものでもなく、診断支援システムへの適用に限定するものでもない。   Hereinafter, regarding the specific device, the program, the specific method, the information processing device, and the specific device of the present disclosure, a medical image obtained by capturing an affected part of a patient using an imaging device such as X-ray imaging, CT, MRI, PET, or PET-CT. A detailed description will be given with reference to the drawings showing an embodiment applied to a diagnosis support system that supports a diagnosis process of determining a state of an affected part of a patient based on the diagnosis. Note that the present disclosure is preferably applicable to a system that supports a diagnosis process of determining a state of a lesion based on medical images obtained by capturing various lesions such as a breast mass, a lung cancer, and a brain tumor. Nor is it limited to the application to a diagnosis support system.

(実施形態1)
乳房腫瘤の疑いがある患者の乳房をマンモグラフィで撮影して得られた医用画像(X線画像)に基づいて腫瘤であるか否かを判別する診断支援システムについて説明する。図1は診断支援システムの構成例を示す模式図である。本実施形態の診断支援システムは、学習装置10と、医療機関に設置された特定装置20とを含み、学習装置10及び特定装置20は、インターネット等のネットワークに接続可能である。なお、学習装置10は、医用画像に基づいて乳房腫瘤であるか否かを判別する分類器(学習モデル)を、後述する教師データを用いて学習させる装置であり、特定装置20は、学習装置10にて学習済みの分類器を用いて、患者の医用画像に基づいて乳房腫瘤であるか否かを判別(特定)する装置である。特定装置20は学習装置10から学習済みの分類器を取得する場合、例えばネットワーク経由、又は、USB(Universal Serial Bus)メモリ、CD−R(compact disc recordable )等の可搬型記憶媒体を用いて取得する。
(Embodiment 1)
A diagnosis support system for determining whether or not a breast is a tumor based on a medical image (X-ray image) obtained by imaging a breast of a patient suspected of having a breast tumor by mammography will be described. FIG. 1 is a schematic diagram illustrating a configuration example of a diagnosis support system. The diagnosis support system of the present embodiment includes a learning device 10 and a specific device 20 installed in a medical institution, and the learning device 10 and the specific device 20 can be connected to a network such as the Internet. The learning device 10 is a device that learns a classifier (learning model) that determines whether or not it is a breast mass based on a medical image using teacher data described later. An apparatus that determines (identifies) whether or not the subject is a breast mass based on a medical image of a patient by using a classifier that has been trained in 10. When acquiring the classifier that has been learned from the learning device 10, the identifying device 20 acquires the learned classifier via a network, or using a portable storage medium such as a USB (Universal Serial Bus) memory or a CD-R (compact disc recordable). I do.

図2は、学習装置10の構成例を示すブロック図である。学習装置10は、パーソナルコンピュータ、サーバコンピュータ等である。学習装置10は、制御部11、記憶部12、表示部13、入力部14、通信部15等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを含む。制御部11は、記憶部12に記憶してある制御プログラムを適宜実行することにより、学習装置10が行うべき種々の情報処理、制御処理等を行う。   FIG. 2 is a block diagram illustrating a configuration example of the learning device 10. The learning device 10 is a personal computer, a server computer, or the like. The learning device 10 includes a control unit 11, a storage unit 12, a display unit 13, an input unit 14, a communication unit 15, and the like, and these units are mutually connected via a bus. The control unit 11 includes one or a plurality of processors such as a central processing unit (CPU), a micro-processing unit (MPU), or a graphics processing unit (GPU). The control unit 11 performs various types of information processing, control processing, and the like to be performed by the learning device 10 by appropriately executing a control program stored in the storage unit 12.

記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部12は、制御部11が実行する制御プログラム及び制御プログラムの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11が制御プログラムを実行する際に発生するデータ等を一時的に記憶する。記憶部12に記憶される制御プログラムには、第1分類器12b及び第2分類器12dの学習処理を実行するための学習プログラム12aが含まれる。また記憶部12は、例えば機械学習処理によって構築されたCNN(Convolution Neural Network)モデルである第1分類器12b及び第2分類器12dを記憶している。記憶部12に記憶されるデータには、第1分類器12bを学習させるための第1教師データが蓄積された第1教師データDB12c、第2分類器12dを学習させるための第2教師データが蓄積された第2教師データDB12eが含まれる。   The storage unit 12 includes a random access memory (RAM), a flash memory, a hard disk, a solid state drive (SSD), and the like. The storage unit 12 stores in advance a control program to be executed by the control unit 11 and various data necessary for executing the control program. The storage unit 12 temporarily stores data and the like generated when the control unit 11 executes the control program. The control program stored in the storage unit 12 includes a learning program 12a for executing a learning process of the first classifier 12b and the second classifier 12d. Further, the storage unit 12 stores a first classifier 12b and a second classifier 12d, which are CNN (Convolution Neural Network) models constructed by machine learning processing, for example. The data stored in the storage unit 12 includes a first teacher data DB 12c storing first teacher data for learning the first classifier 12b and a second teacher data for learning the second classifier 12d. The stored second teacher data DB 12e is included.

記憶部12に記憶される制御プログラム及びデータは、例えば通信部15を介してネットワーク経由で外部装置から取得されて記憶部12に記憶される。また、学習装置10が可搬型記憶媒体に記憶された情報を読み取る読取部等を備える場合、記憶部12に記憶される制御プログラム及びデータは、可搬型記憶媒体から読み出されて記憶部12に記憶されてもよい。また、第1教師データDB12c及び第2教師データDB12eは、学習装置10に接続された外部の記憶装置に記憶されてもよく、ネットワークを介して学習装置10と通信可能な記憶装置に記憶されてもよい。   The control program and data stored in the storage unit 12 are acquired from an external device via a network via the communication unit 15 and stored in the storage unit 12, for example. When the learning device 10 includes a reading unit that reads information stored in the portable storage medium, the control program and data stored in the storage unit 12 are read from the portable storage medium and stored in the storage unit 12. It may be stored. Further, the first teacher data DB 12c and the second teacher data DB 12e may be stored in an external storage device connected to the learning device 10, or stored in a storage device that can communicate with the learning device 10 via a network. Is also good.

表示部13は、例えば液晶ディスプレイ、有機ELディスプレイ等であり、制御部11からの指示に従って各種の情報を表示する。入力部14は、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。表示部13及び入力部14は一体として構成されたタッチパネルであってもよい。通信部15は、有線通信又は無線通信によってネットワークに接続するためのインタフェースであり、ネットワークを介して外部装置との間で情報の送受信を行う。   The display unit 13 is, for example, a liquid crystal display, an organic EL display, or the like, and displays various types of information according to instructions from the control unit 11. The input unit 14 receives an operation input by the user and sends a control signal corresponding to the operation content to the control unit 11. The display unit 13 and the input unit 14 may be an integrated touch panel. The communication unit 15 is an interface for connecting to a network by wire communication or wireless communication, and transmits and receives information to and from an external device via the network.

以下に、本実施形態の診断支援システムで用いる医用画像について説明する。マンモグラフィで撮影して得られた撮影画像(以下、マンモグラフィ画像という)に対して、異なる画像処理フィルタを用いたフィルタ処理を行うことによって異なる種類の医用画像を得ることができる。本実施形態の診断支援システムでは、マンモグラフィ画像に対して、ガボールフィルタによるフィルタ処理を行ったガボールフィルタ適用後画像(以下、ガボール画像という)と、アイリスフィルタによるフィルタ処理を行ったアイリスフィルタ適用後画像(以下、アイリス画像という)とを用いて、撮影対象の状態が腫瘤であるか否かを判断(判別)する。なお、判断に用いる医用画像はこれらに限定されず、他のフィルタを用いたフィルタ処理を行った医用画像を用いてもよい。また、判断に用いる複数種類の医用画像は、同じ撮影対象(患者の乳房)を同じ状態で撮影した撮影画像であればよく、同一の撮像装置にて同じ撮影タイミングでパラメータを異ならせて撮影されたものであってもよく、異なる撮像装置にて撮影されたものであってもよい。   Hereinafter, a medical image used in the diagnosis support system of the present embodiment will be described. Different types of medical images can be obtained by performing a filter process using a different image processing filter on a captured image (hereinafter, referred to as a mammographic image) obtained by mammography. In the diagnosis support system according to the present embodiment, an image after applying a Gabor filter (hereinafter referred to as a Gabor image) obtained by performing a filtering process using a Gabor filter on a mammography image and an image obtained after applying an iris filter using a filtering process using an iris filter (Hereinafter referred to as an iris image) to determine (determine) whether or not the state of the imaging target is a tumor. The medical image used for the determination is not limited to these, and a medical image that has been subjected to filter processing using another filter may be used. Also, the plurality of types of medical images used for the determination may be captured images of the same imaging target (patient's breast) captured in the same state, and are captured by the same imaging device at the same imaging timing with different parameters. Or an image taken by a different imaging device.

図3はマンモグラフィ画像の例を示す模式図、図4はフィルタ処理後の画像の例を示す模式図である。図3Aはマンモグラフィ画像の例を示し、図3Bは、マンモグラフィ画像から抽出された腫瘤領域を含む腫瘤画像T及び正常領域を含む正常画像Nの例を示す。本実施形態では、教師データを生成する際に、腫瘤を有する患者のマンモグラフィ画像から腫瘤領域を含む腫瘤画像Tと、腫瘤がない正常領域を含む正常画像Nとを抽出する。そして、抽出した腫瘤画像T及び正常画像Nのそれぞれに対して、ガボールフィルタによるフィルタ処理を行ってガボール画像を生成し、アイリスフィルタによるフィルタ処理を行ってアイリス画像を生成する。図4Aは、図3Bに示す腫瘤画像T及び正常画像Nから生成されたガボール画像の例を示し、図4Bは、図3Bに示す腫瘤画像T及び正常画像Nから生成されたアイリス画像の例を示す。ガボール画像及びアイリス画像のサイズは例えば128画素×128画素とすることができるが、これに限定されない。本実施形態の診断支援システムでは、判別対象の状態の種類として、撮影対象の病変の状態が腫瘤であるか正常であるか(腫瘤でないか)を判別する。よって、第1分類器12bは、患者のガボール画像に基づいて、撮影対象の病変の状態が腫瘤であるか正常であるかを判別する分類器であり、第2分類器12dは、患者のアイリス画像に基づいて、撮影対象の病変の状態が腫瘤であるか正常であるかを判別する分類器である。   FIG. 3 is a schematic diagram showing an example of a mammography image, and FIG. 4 is a schematic diagram showing an example of an image after filtering. FIG. 3A shows an example of a mammography image, and FIG. 3B shows an example of a tumor image T including a tumor region and a normal image N including a normal region extracted from the mammography image. In the present embodiment, when generating teacher data, a tumor image T including a tumor region and a normal image N including a normal region without a tumor are extracted from a mammography image of a patient having a tumor. Then, a filtering process using a Gabor filter is performed on each of the extracted tumor image T and normal image N to generate a Gabor image, and a filtering process using an iris filter is performed to generate an iris image. FIG. 4A shows an example of a Gabor image generated from the tumor image T and the normal image N shown in FIG. 3B, and FIG. 4B shows an example of an iris image generated from the tumor image T and the normal image N shown in FIG. 3B. Show. The size of the Gabor image and the iris image can be, for example, 128 pixels × 128 pixels, but is not limited thereto. In the diagnosis support system of the present embodiment, as the type of the state to be determined, it is determined whether the state of the lesion to be imaged is a tumor or a normal state (whether or not it is a tumor). Therefore, the first classifier 12b is a classifier that determines whether the state of the lesion to be imaged is a tumor or a normal based on the Gabor image of the patient, and the second classifier 12d is a iris of the patient. It is a classifier that determines whether the state of a lesion to be imaged is a tumor or a normal based on an image.

第1教師データDB12cには、腫瘤領域の画像(腫瘤画像)として、図4Aの左側に示すようなガボール画像が多数蓄積されており、正常領域の画像(正常画像)として、図4Aの右側に示すようなガボール画像が多数蓄積されている。第1教師データDB12cにおいて、1つのガボール画像と、このガボール画像に対応付けられた腫瘤又は正常を示す情報とのセットを第1教師データという。第2教師データDB12eには、腫瘤領域の画像として、図4Bの左側に示すようなアイリス画像が多数蓄積されており、正常領域の画像として、図4Bの右側に示すようなアイリス画像が多数蓄積されている。第2教師データDB12eにおいて、1つのアイリス画像と、このアイリス画像に対応付けられた腫瘤又は正常を示す情報とのセットを第2教師データという。学習装置10は、図4Aに示すようなガボール画像による第1教師データに基づいて第1分類器12bを学習させ、図4Bに示すようなアイリス画像による第2教師データに基づいて第2分類器12dを学習させる。   In the first teacher data DB 12c, a large number of Gabor images as shown on the left side of FIG. 4A are accumulated as images of the tumor region (tumor images), and as images of normal regions (normal images), Many Gabor images as shown are accumulated. In the first teacher data DB 12c, a set of one Gabor image and information indicating a tumor or normal associated with the Gabor image is referred to as first teacher data. In the second teacher data DB 12e, many iris images as shown on the left side of FIG. 4B are accumulated as images of the tumor region, and many iris images as shown on the right side of FIG. 4B are accumulated as images of the normal region. Have been. In the second teacher data DB 12e, a set of one iris image and information indicating a tumor or normal associated with the iris image is referred to as second teacher data. The learning device 10 causes the first classifier 12b to learn based on the first teacher data based on the Gabor image as illustrated in FIG. 4A, and based on the second teacher data based on the iris image as illustrated in FIG. 4B. Train 12d.

次に、学習装置10において制御部11が学習プログラム12aを実行することによって実現される機能について説明する。図5は、学習装置10の制御部11によって実現される機能を示すブロック図、図6は、学習装置10が行う学習処理の説明図である。学習装置10の制御部11は、記憶部12に記憶してある学習プログラム12aを実行した場合、第1教師データ取得部101、第1学習部104、第2教師データ取得部111、第2学習部114の各機能を実現する。なお、本実施形態では、これらの各機能を制御部11が学習プログラム12aを実行することにより実現するが、これらの一部を専用のハードウェア回路で実現してもよい。   Next, a function realized by the control unit 11 of the learning device 10 executing the learning program 12a will be described. FIG. 5 is a block diagram illustrating functions realized by the control unit 11 of the learning device 10, and FIG. 6 is an explanatory diagram of a learning process performed by the learning device 10. When the control unit 11 of the learning device 10 executes the learning program 12a stored in the storage unit 12, the first teacher data acquisition unit 101, the first learning unit 104, the second teacher data acquisition unit 111, and the second learning The functions of the unit 114 are realized. In the present embodiment, each of these functions is realized by the control unit 11 executing the learning program 12a, but a part of them may be realized by a dedicated hardware circuit.

第1教師データ取得部101は、第1教師データDB12cに記憶されている第1教師データを順次取得する。第1教師データには、腫瘤又は正常を示す情報と、図4Aに示すようなガボール画像とが含まれる。
第1学習部104は、第1教師データ取得部101が第1教師データDB12cから取得した腫瘤又は正常を示す情報とガボール画像とに基づいて、第1分類器12bを学習させる。ここで、第1分類器12bについて説明する。図6は本実施形態の第1分類器12bの構成例を示す模式図である。図6に示す第1分類器12bは、畳み込みニューラルネットワークモデル(CNN)で構成したものである。第1分類器12bの構成は、図6に示すように多層のニューラルネットワーク(深層学習)に限定されるものではなく、他の機械学習のアルゴリズムを用いることもできる。
The first teacher data acquisition unit 101 sequentially acquires the first teacher data stored in the first teacher data DB 12c. The first teacher data includes information indicating a tumor or normal, and a Gabor image as shown in FIG. 4A.
The first learning unit 104 causes the first classifier 12b to learn based on the information indicating the tumor or normal acquired by the first teacher data acquisition unit 101 from the first teacher data DB 12c and the Gabor image. Here, the first classifier 12b will be described. FIG. 6 is a schematic diagram illustrating a configuration example of the first classifier 12b of the present embodiment. The first classifier 12b shown in FIG. 6 is configured by a convolutional neural network model (CNN). The configuration of the first classifier 12b is not limited to a multilayer neural network (deep learning) as shown in FIG. 6, but may use another machine learning algorithm.

図6に示すように、第1分類器12bは、入力層、中間層及び出力層から構成されている。中間層は畳み込み層、プーリング層及び全結合層を含む。本実施形態の第1分類器12bでは、入力層のノード数は16,384(チャンネル数は1)であり、出力層のノード数は2であり、上述したようなガボール画像が、学習済みの第1分類器12bの入力データとして与えられる。入力層のノードに与えられたガボール画像は中間層に入力され、中間層において、畳み込み層でフィルタ処理等によって画像特徴量が抽出されて特徴マップが生成され、プーリング層で圧縮されて情報量を削減される。畳み込み層及びプーリング層は複数層繰り返し設けられており、複数の畳み込み層及びプーリング層によって生成された特徴マップは、全結合層に入力される。全結合層は複数層(図6では2層)設けられており、入力された特徴マップに基づいて、重み及び各種の関数を用いて各層のノードの出力値を算出し、算出した出力値を順次後の層のノードに入力する。全結合層は、各層のノードの出力値を順次後の層のノードに入力することにより、最終的に出力層の各ノードにそれぞれの出力値を与える。畳み込み層、プーリング層及び全結合層のそれぞれの層数は図6に示す例に限定されない。出力層の各ノードは、腫瘤又は正常のそれぞれに対する分類確率を出力する。例えば入力されたガボール画像が腫瘤領域の画像である確率をノード0が出力し、正常領域の画像である確率をノード1が出力する。出力層の各ノードの出力値は例えば0〜1.0の値であり、2つのノードから出力された確率の合計が1.0(100%)となる。   As shown in FIG. 6, the first classifier 12b includes an input layer, a middle layer, and an output layer. The intermediate layer includes a convolutional layer, a pooling layer, and a fully connected layer. In the first classifier 12b of the present embodiment, the number of nodes in the input layer is 16,384 (the number of channels is 1), the number of nodes in the output layer is 2, and the Gabor image as described above has been trained. It is provided as input data of the first classifier 12b. The Gabor image given to the node of the input layer is input to the intermediate layer, and in the intermediate layer, an image feature amount is extracted by a filtering process or the like in a convolutional layer to generate a feature map, which is compressed in a pooling layer to reduce the information amount. Be reduced. A plurality of convolutional layers and pooling layers are provided repeatedly, and a feature map generated by the plurality of convolutional layers and pooling layers is input to a fully connected layer. The total connection layer is provided in a plurality of layers (two layers in FIG. 6), and based on the input feature map, calculates the output values of the nodes of each layer using weights and various functions, and calculates the calculated output values. Input to the node of the layer after the order. The fully connected layer finally gives each node of the output layer a respective output value by sequentially inputting the output value of the node of each layer to the node of the subsequent layer. The number of each of the convolutional layer, the pooling layer, and the total connection layer is not limited to the example shown in FIG. Each node in the output layer outputs a classification probability for each of a tumor and a normal. For example, the node 0 outputs the probability that the input Gabor image is the image of the tumor region, and the node 1 outputs the probability that the image is the image of the normal region. The output value of each node in the output layer is, for example, a value of 0 to 1.0, and the total of the probabilities output from the two nodes is 1.0 (100%).

第1学習部104は、第1教師データ取得部101が第1教師データDB12cから取得したガボール画像を、第1分類器12bの入力層のノードに入力し、出力層において、このガボール画像の腫瘤又は正常を示す情報に応じたノードの出力値が1.0に近づき、他方のノードの出力値が0に近づくように、第1分類器12bを学習させる。即ち、第1学習部104は、入力層のノードに入力したガボール画像が腫瘤画像である場合、ノード0の出力値が1.0に近づき、ノード1の出力値が0に近づくように、第1分類器12bを学習させる。第1学習部104は、例えば全結合層の各層のノードを結合する重み及び関数を学習アルゴリズムによって最適化して第1分類器12bを学習させる。第1学習部104は、第1教師データDB12cに記憶してある全ての第1教師データを用いて第1分類器12bを学習させる。これにより、学習済みの第1分類器12bが生成される。   The first learning unit 104 inputs the Gabor image acquired by the first teacher data acquiring unit 101 from the first teacher data DB 12c to a node of the input layer of the first classifier 12b, and outputs a tumor of the Gabor image in the output layer. Alternatively, the first classifier 12b is trained so that the output value of the node corresponding to the information indicating normality approaches 1.0 and the output value of the other node approaches 0. That is, when the Gabor image input to the node in the input layer is a tumor image, the first learning unit 104 determines that the output value of the node 0 approaches 1.0 and the output value of the node 1 approaches 0. The one classifier 12b is trained. The first learning unit 104 learns the first classifier 12b by optimizing, for example, a weight and a function for connecting the nodes of each layer of the fully connected layer by a learning algorithm. The first learning unit 104 trains the first classifier 12b using all the first teacher data stored in the first teacher data DB 12c. Thereby, the learned first classifier 12b is generated.

第2教師データ取得部111及び第2学習部114のそれぞれは、第1教師データ取得部101及び第1学習部104とは処理対象の画像が異なるが、それぞれ同様の処理を行う。また、第2分類器12dは第1分類器12bと同様の構成を有する。よって、これらについての詳細な説明は省略する。第2教師データ取得部111は、第2教師データDB12eに記憶されている第2教師データを順次取得する。第2教師データには、腫瘤又は正常を示す情報と、図4Bに示すようなアイリス画像とが含まれる。第2学習部114は、第2教師データDB12eに記憶してある全ての第2教師データを用いて第2分類器12dを学習させる。これにより、学習済みの第2分類器12dが生成される。   Although each of the second teacher data acquisition unit 111 and the second learning unit 114 has a different image to be processed than the first teacher data acquisition unit 101 and the first learning unit 104, they perform the same processing. The second classifier 12d has the same configuration as the first classifier 12b. Therefore, a detailed description thereof will be omitted. The second teacher data acquisition unit 111 sequentially acquires the second teacher data stored in the second teacher data DB 12e. The second teacher data includes information indicating a tumor or normal, and an iris image as shown in FIG. 4B. The second learning unit 114 makes the second classifier 12d learn using all the second teacher data stored in the second teacher data DB 12e. Thereby, the learned second classifier 12d is generated.

以下に、上述したように学習装置10にて学習した第1分類器12b及び第2分類器12dを用いて、診断対象の患者の医用画像に基づいて、撮影対象の病変の状態が腫瘤であるか正常であるか(腫瘤でないか)を判別する特定装置20について説明する。図7は、特定装置20の構成例を示すブロック図である。特定装置20は、パーソナルコンピュータ、サーバコンピュータ等であり、学習装置10と同様の構成を有するので詳細については省略する。特定装置20は、制御部21、記憶部22、表示部23、入力部24、通信部25等を含み、これらの各部はバスを介して相互に接続されている。なお、特定装置20の記憶部22には、本開示のプログラムである特定プログラム22a、学習装置10にて学習済みの第1分類器22b及び第2分類器22cが記憶されている。学習装置10にて学習済みの第1分類器12b及び第2分類器12dはまとめて特定器として提供される。   Hereinafter, using the first classifier 12b and the second classifier 12d trained by the learning device 10 as described above, the state of the lesion to be photographed is a tumor based on the medical image of the patient to be diagnosed. The identification device 20 that determines whether the data is normal or not (is not a tumor) will be described. FIG. 7 is a block diagram illustrating a configuration example of the specifying device 20. The specifying device 20 is a personal computer, a server computer, or the like, and has a configuration similar to that of the learning device 10, and thus the details are omitted. The identification device 20 includes a control unit 21, a storage unit 22, a display unit 23, an input unit 24, a communication unit 25, and the like, and these units are mutually connected via a bus. The storage unit 22 of the identifying device 20 stores an identifying program 22a that is a program of the present disclosure, and a first classifier 22b and a second classifier 22c that have been learned by the learning device 10. The first classifier 12b and the second classifier 12d that have been trained by the learning device 10 are collectively provided as a specifying device.

第1分類器22b及び第2分類器22cは、学習装置10で学習した第1分類器12b及び第2分類器12dである。特定装置20は、例えば通信部25を介してネットワーク経由で学習装置10から第1分類器22b及び第2分類器22cを取得して記憶部22に記憶する。また特定装置20が可搬型記憶媒体に記憶された情報を読み取る読取部等を備える場合、特定装置20は、第1分類器22b及び第2分類器22cを可搬型記憶媒体から読み出して記憶部22に記憶してもよい。また特定装置20は、特定プログラム22aを第1分類器22b及び第2分類器22cと共に、ネットワーク経由で取得してもよいし、可搬型記憶媒体を用いて取得してもよい。   The first classifier 22b and the second classifier 22c are the first classifier 12b and the second classifier 12d learned by the learning device 10. The identifying device 20 acquires the first classifier 22b and the second classifier 22c from the learning device 10 via the network via the communication unit 25, for example, and stores them in the storage unit 22. When the specifying device 20 includes a reading unit that reads information stored in the portable storage medium, the specifying device 20 reads the first classifier 22b and the second classifier 22c from the portable storage medium and reads the first classifier 22b and the second classifier 22c from the storage unit 22. May be stored. The specifying device 20 may obtain the specifying program 22a together with the first classifier 22b and the second classifier 22c via a network, or may obtain the specific program 22a using a portable storage medium.

次に、特定装置20において制御部21が特定プログラム22aを実行することによって実現される機能について説明する。図8は、特定装置20の制御部21によって実現される機能を示すブロック図、図9は、特定装置20が行う特定処理の説明図である。特定装置20の制御部21は、記憶部22に記憶してある特定プログラム22aを実行した場合、第1画像取得部201、第1腫瘤領域抽出部202、第1判別部205、第2画像取得部211、第2腫瘤領域抽出部212、第2判別部215、特定部221、出力部222の各機能を実現する。なお、本実施形態では、これらの各機能を制御部21が特定プログラム22aを実行することにより実現するが、これらの一部を専用のハードウェア回路で実現してもよい。   Next, functions realized by the control unit 21 executing the specific program 22a in the specific device 20 will be described. FIG. 8 is a block diagram illustrating functions realized by the control unit 21 of the specifying device 20, and FIG. 9 is an explanatory diagram of a specifying process performed by the specifying device 20. When the specific program 22a stored in the storage unit 22 is executed, the control unit 21 of the specific device 20 executes the first image acquisition unit 201, the first tumor region extraction unit 202, the first determination unit 205, and the second image acquisition The functions of the unit 211, the second tumor region extracting unit 212, the second determining unit 215, the specifying unit 221, and the output unit 222 are realized. In the present embodiment, each of these functions is realized by the control unit 21 executing the specific program 22a. However, a part of these functions may be realized by a dedicated hardware circuit.

第1画像取得部201は、乳房腫瘤の疑いがある診断対象の患者のガボール画像を取得する。ここでのガボール画像は、患者のマンモグラフィ画像に対してガボールフィルタによるフィルタ処理を行って生成されたガボール画像である。特定装置20は、患者のガボール画像を、例えばネットワーク経由又は可搬型記憶媒体経由で予め取得して記憶部22に記憶しておき、第1画像取得部201は、診断対象のガボール画像を記憶部22から読み出す。なお、特定装置20が、患者のマンモグラフィ画像をネットワーク経由又は可搬型記憶媒体経由で取得して記憶部22に記憶している場合、第1画像取得部201は、診断対象のマンモグラフィ画像を記憶部22から読み出す。そして、第1画像取得部201は、読み出したマンモグラフィ画像に対してガボールフィルタによるフィルタ処理を行ってガボール画像を生成し、患者のガボール画像を取得する。   The first image acquisition unit 201 acquires a Gabor image of a patient to be diagnosed suspected of having a breast mass. The Gabor image here is a Gabor image generated by performing a filtering process using a Gabor filter on a mammography image of a patient. The identifying device 20 previously acquires the Gabor image of the patient via a network or a portable storage medium and stores the Gabor image in the storage unit 22 in advance, and the first image acquisition unit 201 stores the Gabor image of the diagnosis target in the storage unit. 22. When the identification device 20 acquires a mammography image of a patient via a network or a portable storage medium and stores the acquired mammography image in the storage unit 22, the first image acquisition unit 201 stores the mammography image to be diagnosed in the storage unit. 22. Then, the first image acquiring unit 201 generates a Gabor image by performing a filtering process using a Gabor filter on the read mammography image, and acquires a Gabor image of the patient.

第1腫瘤領域抽出部202は、第1画像取得部201が取得したガボール画像から腫瘤領域を抽出する。第1腫瘤領域抽出部202は、例えば入力部24を介したユーザ(医師等)の入力操作による指定に基づいて、乳房全体のガボール画像から腫瘤領域を抽出する。これにより、図4Aの左側に示すような腫瘤領域(腫瘤画像)が抽出される。また、第1腫瘤領域抽出部202は、例えばディープラーニングによる学習済みの認識モデルを用いて、第1画像取得部201が取得したガボール画像中の腫瘤領域を認識して抽出してもよい。   The first tumor region extraction unit 202 extracts a tumor region from the Gabor image acquired by the first image acquisition unit 201. The first tumor region extracting unit 202 extracts a tumor region from a Gabor image of the entire breast based on, for example, a designation made by a user (a doctor or the like) through the input unit 24. Thereby, a tumor region (tumor image) as shown on the left side of FIG. 4A is extracted. In addition, the first tumor region extracting unit 202 may recognize and extract a tumor region in the Gabor image acquired by the first image acquiring unit 201 using a recognition model that has been learned by deep learning, for example.

第1判別部205は、第1腫瘤領域抽出部202が抽出した腫瘤領域(腫瘤画像)に基づいて、撮影対象の状態が腫瘤であるか正常であるかを第1分類器22bを用いて判別する。具体的には、第1判別部205は、抽出した腫瘤領域を第1分類器22bに入力し、第1分類器22bからの出力値を取得する。第1分類器22bの出力値は、腫瘤又は正常に対する分類確率である。第1判別部205は、判別結果を例えば記憶部22に記憶する。   The first determination unit 205 determines, using the first classifier 22b, whether the state of the imaging target is a tumor or a normal based on the tumor region (tumor image) extracted by the first tumor region extraction unit 202. I do. Specifically, the first determination unit 205 inputs the extracted tumor region to the first classifier 22b, and obtains an output value from the first classifier 22b. The output value of the first classifier 22b is a classification probability for a tumor or normal. The first determination unit 205 stores the determination result in, for example, the storage unit 22.

第2画像取得部211、第2腫瘤領域抽出部212及び第2判別部215のそれぞれは、第1画像取得部201、第1腫瘤領域抽出部202及び第1判別部205とは処理対象の画像が異なるが、それぞれ同様の処理を行う。よって、詳細については説明を省略する。なお、第1画像取得部201が取得するガボール画像と、第2画像取得部211が取得するアイリス画像とは、同じ患者の乳房(撮影対象)の撮影画像である。   Each of the second image acquisition unit 211, the second tumor region extraction unit 212, and the second determination unit 215 is an image to be processed by the first image acquisition unit 201, the first tumor region extraction unit 202, and the first determination unit 205. , But perform the same processing. Therefore, the detailed description is omitted. The Gabor image acquired by the first image acquisition unit 201 and the iris image acquired by the second image acquisition unit 211 are images of the breast (imaging target) of the same patient.

第2画像取得部211は、診断対象の患者のアイリス画像を取得する。ここでも、特定装置20は、患者のアイリス画像をネットワーク経由又は可搬型記憶媒体経由で取得して記憶部22に記憶しておき、第2画像取得部211は、診断対象のアイリス画像を記憶部22から読み出す。また、特定装置20が患者のマンモグラフィ画像を記憶部22に記憶している場合、第2画像取得部211は、診断対象のマンモグラフィ画像を記憶部22から読み出し、アイリスフィルタによるフィルタ処理を行ってアイリス画像を生成してもよい。第2腫瘤領域抽出部212は、第2画像取得部211が取得したアイリス画像から腫瘤領域を抽出する。第2判別部215は、第2腫瘤領域抽出部212が抽出した腫瘤領域(腫瘤画像)を第2分類器22cに入力し、第2分類器22cからの出力である腫瘤又は正常に対する分類確率を取得する。第2判別部215は判別結果を例えば記憶部22に記憶する。   The second image acquisition unit 211 acquires an iris image of a patient to be diagnosed. Also in this case, the identification device 20 acquires the iris image of the patient via a network or via a portable storage medium and stores the iris image in the storage unit 22, and the second image acquisition unit 211 stores the iris image to be diagnosed in the storage unit. 22. When the identification device 20 stores the mammography image of the patient in the storage unit 22, the second image acquisition unit 211 reads out the mammography image to be diagnosed from the storage unit 22, performs a filtering process using an iris filter, and performs iris filtering. An image may be generated. The second tumor region extraction unit 212 extracts a tumor region from the iris image acquired by the second image acquisition unit 211. The second determination unit 215 inputs the tumor region (tumor image) extracted by the second tumor region extraction unit 212 to the second classifier 22c, and calculates the classification probability for the tumor or normal output from the second classifier 22c. get. The second determination unit 215 stores the determination result in, for example, the storage unit 22.

特定部221は、患者のガボール画像に基づいて第1判別部205が取得した腫瘤又は正常に対する分類確率と、患者のアイリス画像に基づいて第2判別部215が取得した腫瘤又は正常に対する分類確率とに基づいて、この患者の病変の状態が腫瘤であるか正常であるかを特定する。具体的には、特定部(算出部)221は、第1判別部205が取得した腫瘤又は正常に対する分類確率と、第2判別部215が取得した腫瘤又は正常に対する分類確率とを統合して、この患者における腫瘤又は正常に対する分類確率(判別確率)を算出する。例えば特定部221は、判別対象である腫瘤又は正常のそれぞれについて、ガボール画像に基づいて取得された分類確率と、アイリス画像に基づいて取得された分類確率との平均値を算出し、統合された確率とする。特定部221は、統合した腫瘤又は正常に対する分類確率において、高い分類確率であった判別結果を、この患者の病変の状態として特定する。   The identification unit 221 includes a classification probability for the tumor or normal acquired by the first determination unit 205 based on the Gabor image of the patient, and a classification probability for the tumor or normal acquired by the second determination unit 215 based on the iris image of the patient. Is used to determine whether the state of the lesion in this patient is a tumor or a normal state. Specifically, the identification unit (calculation unit) 221 integrates the classification probability for the tumor or normal acquired by the first determination unit 205 and the classification probability for the tumor or normal acquired by the second determination unit 215, The classification probability (discrimination probability) for the tumor or normal in this patient is calculated. For example, the specifying unit 221 calculates the average value of the classification probability obtained based on the Gabor image and the classification probability obtained based on the iris image for each of the tumor or normal to be determined, and is integrated. Probability. The identification unit 221 identifies the determination result having the high classification probability in the integrated classification probability for the tumor or the normal as the lesion state of this patient.

出力部222は、特定部221による特定結果を出力する。例えば出力部222は、特定部221による特定結果を表示するための表示情報を生成し、生成した表示情報に基づいて特定結果画面を表示部23に表示する。図9は特定結果画面の例を示しており、図9に示す画面には、特定部221が最終的に算出した、この患者における腫瘤又は正常に対する分類確率(判別確率)が表示され、特定部221が特定した判別結果に下線が付されて目立つように表示されている。また、図9に示す画面には、診断に用いたガボール画像及びアイリス画像が表示されている。よって、出力部222は、ガボール画像及びアイリス画像と、特定部221が算出した腫瘤又は正常に対する分類確率とを表示する特定結果画面を生成する。   The output unit 222 outputs the specified result by the specifying unit 221. For example, the output unit 222 generates display information for displaying the specified result by the specifying unit 221 and displays the specified result screen on the display unit 23 based on the generated display information. FIG. 9 shows an example of the specification result screen. The screen shown in FIG. 9 displays the classification probability (discrimination probability) for the tumor or normal in this patient finally calculated by the specification unit 221. The determination result identified by 221 is underlined and displayed prominently. The screen shown in FIG. 9 displays a Gabor image and an iris image used for the diagnosis. Therefore, the output unit 222 generates the identification result screen that displays the Gabor image and the iris image and the classification probability for the tumor or the normal calculated by the identification unit 221.

表示部23に表示される画面は、図9に示す例に限定されず、例えば、特定部221が最終的に算出した腫瘤又は正常に対する分類確率のみを表示する画面でもよい。また、例えば、特定部221が特定した判別結果について第1判別部205及び第2判別部215で取得された分類確率が高い方の画像(ガボール画像又はアイリス画像)を表示してもよい。また、腫瘤領域の大きさが大きい方の画像(ガボール画像又はアイリス画像)を表示してもよい。このような画像は、特定部221が特定した判別結果であることを判断し易い画像である可能性が高い。また、ガボール画像及びアイリス画像を表示する場合に、ガボール画像及びアイリス画像中の腫瘤領域を目立つように表示してもよい。なお、出力部222は、特定部221による特定結果を表示部23に表示するほかに、音声で出力してもよいし、所定の端末装置に送信してもよい。   The screen displayed on the display unit 23 is not limited to the example illustrated in FIG. 9, and may be, for example, a screen that displays only the classification probability with respect to the tumor or normal finally calculated by the specifying unit 221. In addition, for example, an image (Gabor image or iris image) with a higher classification probability obtained by the first determination unit 205 and the second determination unit 215 for the determination result specified by the specification unit 221 may be displayed. Further, an image (Gabor image or iris image) having a larger size of the tumor region may be displayed. Such an image is likely to be an image in which it is easy to determine that the image is the determination result specified by the specifying unit 221. When displaying the Gabor image and the iris image, the tumor region in the Gabor image and the iris image may be displayed prominently. The output unit 222 may output the result of the identification performed by the identifying unit 221 on the display unit 23 by voice, or may transmit the result to a predetermined terminal device.

次に、診断支援システムにおいて学習装置10による学習処理についてフローチャートに基づいて説明する。図10は学習装置10による学習処理の手順を示すフローチャートである。以下の処理は、学習装置10の記憶部12に記憶してある学習プログラム12aを含む制御プログラムに従って制御部11によって実行される。学習装置10は、第1教師データDB12cに記憶されているガボール画像の第1教師データを用いて第1分類器12bを学習させ、第2教師データDB12eに記憶されているアイリス画像の第2教師データを用いて第2分類器12dを学習させる。第1分類器12bの学習処理と第2分類器12dの学習処理とは同じ処理であり、図10には第1分類器12bの学習処理のみを示す。   Next, a learning process performed by the learning device 10 in the diagnosis support system will be described with reference to a flowchart. FIG. 10 is a flowchart illustrating a procedure of a learning process performed by the learning device 10. The following processing is executed by the control unit 11 according to a control program including a learning program 12a stored in the storage unit 12 of the learning device 10. The learning device 10 causes the first classifier 12b to learn using the first teacher data of the Gabor image stored in the first teacher data DB 12c, and the second teacher of the iris image stored in the second teacher data DB 12e. The second classifier 12d is trained using the data. The learning process of the first classifier 12b and the learning process of the second classifier 12d are the same process, and FIG. 10 shows only the learning process of the first classifier 12b.

学習装置10の制御部11は、第1教師データDB12cからガボール画像の第1教師データを1つ取得する(S11)。第1教師データには、腫瘤又は正常を示す情報と、図4Aに示すようなガボール画像とが含まれる。制御部11は、第1教師データに含まれる腫瘤又は正常を示す情報とガボール画像とを用いて、第1分類器12bを学習させる(S12)。ここでは、制御部11は、ガボール画像を第1分類器12bの入力層のノードに入力し、出力層において、このガボール画像が腫瘤画像(又は正常画像)である場合、ノード0(又はノード1)の出力値が1.0に近づき、ノード1(又はノード0)の出力値が0に近づくように、第1分類器12bを学習させる。   The control unit 11 of the learning device 10 acquires one piece of first teacher data of a Gabor image from the first teacher data DB 12c (S11). The first teacher data includes information indicating a tumor or normal, and a Gabor image as shown in FIG. 4A. The control unit 11 causes the first classifier 12b to learn using the information indicating the tumor or normal included in the first teacher data and the Gabor image (S12). Here, the control unit 11 inputs the Gabor image to a node in the input layer of the first classifier 12b, and in the output layer, when the Gabor image is a tumor image (or a normal image), the node 0 (or the node 1) ) Is approached to 1.0, and the first classifier 12b is trained so that the output value of the node 1 (or the node 0) approaches 0.

制御部11は、第1教師データDB12cに記憶してある全ての第1教師データに基づく処理を終了したか否かを判断する(S13)。全ての第1教師データに基づく処理を終了していないと判断した場合(S13:NO)、制御部11は、ステップS11の処理に戻り、未処理の第1教師データを1つ取得する(S11)。制御部11は、取得した第1教師データに基づいてステップS12の処理を行う。全ての第1教師データに基づく処理を終了したと判断した場合(S13:YES)、制御部11は、第1分類器12bの学習処理を終了する。   The control unit 11 determines whether the processing based on all the first teacher data stored in the first teacher data DB 12c has been completed (S13). If it is determined that the processing based on all the first teacher data has not been completed (S13: NO), the control unit 11 returns to the processing of step S11 and acquires one unprocessed first teacher data (S11). ). The control unit 11 performs the process of step S12 based on the acquired first teacher data. When it is determined that the processing based on all the first teacher data has been completed (S13: YES), the control unit 11 ends the learning processing of the first classifier 12b.

学習装置10の制御部11は、図10に示す処理と同様の処理によって、第2教師データDB12eに記憶されているアイリス画像の第2教師データを用いて第2分類器12dを学習させる。なお、第2分類器12dの学習処理では、図10中のステップS11で、制御部11は、第2教師データDB12eからアイリス画像の第2教師データを取得する。またステップS12で、制御部11は、第2教師データに含まれる腫瘤又は正常を示す情報とアイリス画像とを用いて第2分類器12dを学習させる。
上述した処理により、ガボール画像に基づいて患者の病変の状態が腫瘤であるか否かを判別する第1分類器12bと、アイリス画像に基づいて患者の病変の状態が腫瘤であるか否かを判別する第2分類器12dとを学習させることができる。よって、学習済みの第1分類器12b及び第2分類器12dが得られる。
The control unit 11 of the learning device 10 causes the second classifier 12d to learn using the second teacher data of the iris image stored in the second teacher data DB 12e by a process similar to the process illustrated in FIG. In the learning process of the second classifier 12d, the control unit 11 acquires the second teacher data of the iris image from the second teacher data DB 12e in step S11 in FIG. In step S12, the control unit 11 causes the second classifier 12d to learn using the information indicating the tumor or normal included in the second teacher data and the iris image.
By the above-described processing, the first classifier 12b that determines whether the state of the patient's lesion is a tumor based on the Gabor image and whether the state of the patient's lesion is a tumor based on the iris image is determined. The second classifier 12d to be determined can be learned. Therefore, the learned first classifier 12b and second classifier 12d are obtained.

次に、診断支援システムにおいて特定装置20による特定処理についてフローチャートに基づいて説明する。図11は、特定装置20による特定処理の手順を示すフローチャートである。以下の処理は、特定装置20の記憶部22に記憶してある特定プログラム22aを含む制御プログラムに従って制御部21によって実行される。特定装置20の記憶部22には、学習装置10によって学習済みの第1分類器22b及び第2分類器22cが記憶されている。また、記憶部22には、診断対象の患者の乳房のガボール画像及びアイリス画像が記憶されている。なお、ガボール画像及びアイリス画像の代わりにマンモグラフィ画像が記憶部22に記憶されていてもよい。図11に示す処理では、特定装置20の制御部21は、ステップS21〜S24の処理とステップS31〜S34の処理とを並列に実行するが、一方の処理を実行した後に他方の処理を実行してもよい。   Next, the identification processing by the identification device 20 in the diagnosis support system will be described based on a flowchart. FIG. 11 is a flowchart illustrating the procedure of the specifying process performed by the specifying device 20. The following processing is executed by the control unit 21 according to a control program including the specific program 22a stored in the storage unit 22 of the specific device 20. The storage unit 22 of the identification device 20 stores the first classifier 22b and the second classifier 22c that have been learned by the learning device 10. The storage unit 22 stores a Gabor image and an iris image of the breast of the patient to be diagnosed. Note that a mammography image may be stored in the storage unit 22 instead of the Gabor image and the iris image. In the processing illustrated in FIG. 11, the control unit 21 of the identification device 20 executes the processing of steps S21 to S24 and the processing of steps S31 to S34 in parallel, but executes one processing and then executes the other processing. You may.

特定装置20の制御部21は、診断対象の患者のガボール画像を取得する(S21)。なお、記憶部22にマンモグラフィ画像が記憶されている場合、制御部21は、マンモグラフィ画像に対してガボールフィルタによるフィルタ処理を行ってガボール画像を取得する。制御部21は、取得したガボール画像から腫瘤領域を抽出し(S22)、抽出した腫瘤領域に対して、腫瘤領域における病変の状態が腫瘤であるか正常であるかを第1分類器22bにて判別し(S23)、判別結果を記憶部22に記憶する(S24)。具体的には、第1分類器22bは、ガボール画像における病変の状態が腫瘤であるとする判別結果と、正常であるとする判別結果とのそれぞれに対する分類確率を出力し、制御部21は、第1分類器22bから出力された腫瘤又は正常に対する分類確率を記憶部22に記憶する。   The control unit 21 of the identification device 20 acquires a Gabor image of the patient to be diagnosed (S21). When a mammography image is stored in the storage unit 22, the control unit 21 performs a filtering process using a Gabor filter on the mammography image to obtain a Gabor image. The control unit 21 extracts a tumor region from the acquired Gabor image (S22), and the first classifier 22b determines whether the state of the lesion in the tumor region is normal or normal for the extracted tumor region. The determination is performed (S23), and the determination result is stored in the storage unit 22 (S24). Specifically, the first classifier 22b outputs classification probabilities for each of the determination result that the lesion state in the Gabor image is a tumor and the determination result that the lesion state is normal, and the control unit 21 The classification probability for the tumor or normal output from the first classifier 22b is stored in the storage unit 22.

一方、制御部21は、患者のアイリス画像を取得し(S31)、取得したアイリス画像から腫瘤領域を抽出し(S32)、抽出した腫瘤領域に対する腫瘤又は正常の判別を第2分類器22cにて行い(S33)、判別結果を記憶部22に記憶する(S34)。ここでは、第2分類器22cは、アイリス画像における病変の状態が腫瘤であるとする判別結果と、正常であるとする判別結果とのそれぞれに対する分類確率を出力し、制御部21は、第2分類器22cから出力された腫瘤又は正常に対する分類確率を記憶部22に記憶する。   On the other hand, the control unit 21 acquires an iris image of the patient (S31), extracts a tumor region from the acquired iris image (S32), and determines whether the extracted tumor region is a tumor or normal by the second classifier 22c. The determination is performed (S33), and the determination result is stored in the storage unit 22 (S34). Here, the second classifier 22c outputs classification probabilities for each of the determination result that the lesion state in the iris image is a tumor and the determination result that the lesion state is normal. The classification probability for a tumor or normal output from the classifier 22c is stored in the storage unit 22.

制御部21は、ステップS23でガボール画像に基づいて取得した腫瘤又は正常に対する分類確率と、ステップS33でアイリス画像に基づいて取得した腫瘤又は正常に対する分類確率とを統合して、この患者における腫瘤又は正常に対する分類確率を算出する(S41)。制御部21は、算出した患者における腫瘤又は正常に対する分類確率を判別結果として表示するための表示情報を生成する(S42)。例えば、制御部21は、この患者における腫瘤又は正常に対する分類確率を表示するための表示情報を生成する。そして、制御部21は、生成した表示情報に基づいて、特定装置20による判別結果を表示部23に表示する(S43)。これにより、例えば図9に示すような画面が表示部23に表示され、特定装置20による判別結果が通知される。   The control unit 21 integrates the classification probability for the tumor or normal acquired based on the Gabor image in step S23 and the classification probability for the tumor or normal acquired based on the iris image in step S33, and calculates the mass or A classification probability for normality is calculated (S41). The control unit 21 generates display information for displaying the calculated classification probability of the patient as a tumor or normal as a determination result (S42). For example, the control unit 21 generates display information for displaying a classification probability of the patient regarding a mass or normal. And the control part 21 displays the determination result by the specific device 20 on the display part 23 based on the generated display information (S43). Thereby, for example, a screen as shown in FIG. 9 is displayed on the display unit 23, and the result of the determination by the identifying device 20 is notified.

本実施形態では、患者のガボール画像及びアイリス画像に基づいて、撮影対象の病変が腫瘤である可能性を示す分類確率と、正常である可能性を示す分類確率とを算出できる。よって、病変の状態が腫瘤又は正常である可能性を通知できるので、医師は、マンモグラフィ画像に基づいて病変の状態を診断する際に考慮でき、医師による診断を支援できる。医師が医用画像の情報を目視で正確に読み取ることは困難であるが、特定装置20は医用画像に基づいて判別を行うので、医用画像を有効に利用できる。   In the present embodiment, based on the Gabor image and the iris image of the patient, it is possible to calculate the classification probability indicating that the imaging target lesion is a tumor mass and the classification probability indicating that the imaging target lesion is normal. Therefore, it is possible to notify the possibility that the state of the lesion is a mass or normal, so that the doctor can consider when diagnosing the state of the lesion based on the mammography image, and can assist the diagnosis by the doctor. Although it is difficult for a doctor to visually and accurately read information of a medical image, the identification device 20 makes a determination based on the medical image, so that the medical image can be used effectively.

本実施形態では、第1分類器22bを用いたガボール画像に基づく判別結果と、第2分類器22cを用いたアイリス画像に基づく判別結果とを統合して、患者の病変が腫瘤であるか正常であるかを判別する。これにより、判別精度が向上する。出願人は、特定装置20による判別処理の精度を評価するための評価実験を行った。比較対象として、第1分類器22bを用いてガボール画像に基づいて病変の状態が腫瘤であるか否かを判別した場合、例えば48枚のガボール画像のテストデータに対して正解であると判別できた割合(分類精度)は64.6%であった。また、第2分類器22cを用いてアイリス画像に基づいて病変の状態が腫瘤であるか否かを判別した場合、例えば48枚のアイリス画像のテストデータに対して正解であると判別できた割合(分類精度)は62.5%であった。更に出願人は、ガボール画像及びアイリス画像の2つの画像を入力し、2つの画像に基づいて撮影対象の病変の状態が腫瘤であるか否かを判別する分類器を用いた判別処理を行った。この場合、例えばそれぞれ48枚のガボール画像及びアイリス画像のテストデータに対して正解であると判別できた割合(分類精度)は58.3%であった。これに対して、本実施形態の特定装置20による判別処理における分類精度は66.7%であった。このように、第1分類器22b又は第2分類器22cの一方のみを用いた判別処理による分類精度や、2つの画像を入力して判別する判別処理による分類精度と比較して、第1分類器22b及び第2分類器22cによる判別結果を統合して判別する判別処理による分類精度が高い値となっている。よって、異なる種類の医用画像に対して、それぞれの医用画像用の分類器を用いた判別処理を行い、それぞれの判別結果を統合して最終的な判別結果を特定することによって、判別精度を向上させることができる。   In the present embodiment, the discrimination result based on the Gabor image using the first classifier 22b and the discrimination result based on the iris image using the second classifier 22c are integrated to determine whether the lesion of the patient is a tumor or not. Is determined. Thereby, the discrimination accuracy is improved. The applicant has conducted an evaluation experiment for evaluating the accuracy of the discrimination processing by the identification device 20. As a comparison target, when it is determined whether the state of the lesion is a tumor based on the Gabor image using the first classifier 22b, for example, it can be determined that the test data of 48 Gabor images is correct. The ratio (classification accuracy) was 64.6%. Further, when it is determined whether the state of the lesion is a tumor based on the iris image using the second classifier 22c, for example, the percentage of the test data of 48 iris images determined to be correct (Classification accuracy) was 62.5%. Further, the applicant inputs two images of a Gabor image and an iris image, and performs a discriminating process using a classifier for discriminating whether or not the state of a lesion to be photographed is a tumor based on the two images. . In this case, for example, the ratio (classification accuracy) at which the test data of 48 Gabor images and iris images could be determined to be correct for each was 58.3%. On the other hand, the classification accuracy in the discrimination processing by the specifying device 20 of the present embodiment was 66.7%. As described above, the first classification is compared with the classification accuracy by the classification process using only one of the first classifier 22b and the second classifier 22c and the classification accuracy by the classification process of inputting and discriminating two images. The classification accuracy obtained by the classification processing in which the classification results obtained by the classifier 22b and the second classifier 22c are integrated is high. Therefore, classification accuracy is improved by performing a classification process using a classifier for each medical image on different types of medical images and integrating the respective classification results to specify a final classification result. Can be done.

本実施形態では、診断に用いる画像としてマンモグラフィ画像からフィルタ処理によって得られるガボール画像及びアイリス画像を用いたが、これらに限定されない。また、分類器22b,22cによる判別対象は、腫瘤又は正常の2種別に限定されない。例えば、乳癌、乳腺線維腺腫、乳腺症、乳腺炎、葉状腫瘍等の各種の病変について、それぞれの教師データを用いて分類器22b,22cに学習させることによって病変の種類の判別が可能となる。   In the present embodiment, a Gabor image and an iris image obtained by filtering from a mammography image are used as images used for diagnosis, but the present invention is not limited to these. The objects to be determined by the classifiers 22b and 22c are not limited to the two types: tumor mass and normal. For example, for various lesions such as breast cancer, fibroadenoma of the breast, mastosis, mastitis, and phyllodes tumor, the type of the lesion can be determined by learning the classifiers 22b and 22c using the respective teacher data.

本実施形態において、学習装置10は、教師データのガボール画像及びアイリス画像をそのまま用いて分類器12b,12dを学習させる代わりに、教師データのガボール画像及びアイリス画像からそれぞれ、所定の画素数の画素を有するパッチ画像を複数抽出し、パッチ画像にて分類器12b,12dを学習させてもよい。この場合、特定装置20は、診断対象の患者のガボール画像及びアイリス画像をそのまま用いて分類器22b,22cによる判別処理を行う代わりに、ガボール画像及びアイリス画像からパッチ画像を複数抽出し、パッチ画像にて分類器22b,22cによる判別処理を行ってもよい。画像から抽出したパッチ画像を教師データに用いる場合、1枚の画像から複数のパッチ画像(教師データ)を生成できるので、教師データ数を増やすことができ、その結果、学習精度を向上させることができる。また、画像から抽出したパッチ画像を用いて判別処理を行う場合、判別対象のデータ数を増やすことができるので、判別精度を向上させることができる。   In the present embodiment, instead of using the Gabor image and the iris image of the teacher data as they are to train the classifiers 12b and 12d, the learning device 10 uses a predetermined number of pixels from the Gabor image and the iris image of the teacher data. May be extracted, and the classifiers 12b and 12d may be learned using the patch images. In this case, the identifying device 20 extracts a plurality of patch images from the Gabor image and the iris image instead of performing the discriminating process by the classifiers 22b and 22c using the Gabor image and the iris image of the patient to be diagnosed as they are, and The classification process by the classifiers 22b and 22c may be performed by. When a patch image extracted from an image is used for teacher data, a plurality of patch images (teacher data) can be generated from one image, so that the number of teacher data can be increased, and as a result, learning accuracy can be improved. it can. Further, in the case where the discrimination processing is performed using the patch image extracted from the image, the number of data to be discriminated can be increased, so that the discrimination accuracy can be improved.

本実施形態において、3種別以上の画像を用いて患者の病変の状態を判別するように構成することもできる。この場合、学習装置10は、画像の種類毎に、教師データを用いて分類器(学習モデル)を学習させ、特定装置20は、画像の種類毎に分類器を用いた判別処理を行い、画像の種類毎の判別結果を統合して、患者の病変の状態を判別する。このような構成とした場合、判別精度の更なる向上が期待できる。   In the present embodiment, it may be configured to determine the state of the lesion of the patient using three or more types of images. In this case, the learning device 10 trains a classifier (learning model) using teacher data for each type of image, and the identifying device 20 performs a discriminating process using the classifier for each type of image, The determination result for each type is integrated to determine the state of the lesion of the patient. In the case of such a configuration, further improvement of the discrimination accuracy can be expected.

(実施形態2)
肺癌の疑いがある患者の肺をPET−CTで撮影して得られた医用画像(PET画像及びCT画像)に基づいて、肺の所定部位の状態として肺癌であるか否かを判別する診断支援システムについて説明する。本実施形態においては異なる種類の画像を取得するために、異なる撮像方式に基づいた画像(PET画像及びCT画像)を使用する。本実施形態の診断支援システムの各装置は、実施形態1の各装置と同じ構成を有するので、構成については説明を省略する。本実施形態では、PET−CTで撮影して得られたPET画像及びCT画像を用いて、撮影対象の状態が肺癌であるか否かを判断(判別)する。なお、判断に用いる医用画像はこれらに限定されず、他の種類の医用画像を用いてもよい。また、判断に用いる複数種類の医用画像は、同じ撮影対象(患者の肺)を撮影した撮影画像であればよく、PET−CTにて同時に撮影されたものであってもよく、PET及びCTのそれぞれの装置にて各別に撮影されたものであってもよい。
(Embodiment 2)
Diagnosis support for determining, based on medical images (PET image and CT image) obtained by imaging the lungs of a patient suspected of having lung cancer by PET-CT, whether or not the state of a predetermined part of the lung is lung cancer. The system will be described. In this embodiment, in order to acquire different types of images, images (PET images and CT images) based on different imaging methods are used. Since each device of the diagnosis support system of the present embodiment has the same configuration as each device of the first embodiment, the description of the configuration will be omitted. In the present embodiment, it is determined (determined) whether or not the state of the imaging target is lung cancer using a PET image and a CT image obtained by imaging with PET-CT. The medical images used for the determination are not limited to these, and other types of medical images may be used. Further, the plurality of types of medical images used for the determination may be images captured of the same imaging target (patient's lung), and may be images simultaneously captured by PET-CT. The images may be shot separately by each device.

本実施形態では、第1分類器12b,22bは、患者のPET画像に基づいて、撮影対象の病変の状態が肺癌であるか正常であるかを判別する分類器であり、第2分類器12d,22cは、患者のCT画像に基づいて、撮影対象の病変の状態が肺癌であるか正常であるかを判別する分類器である。よって、第1教師データDB12cには、肺癌患者のPET画像から抽出された腫瘤領域(肺癌領域)を含む腫瘤画像と、腫瘤(肺癌)がない正常領域を含む正常画像とによる第1教師データが多数蓄積されており、第2教師データDB12eには、肺癌患者のCT画像から抽出された腫瘤領域(肺癌領域)を含む腫瘤画像と、腫瘤(肺癌)がない正常領域を含む正常画像とによる第2教師データが多数蓄積されている。そして、本実施形態の学習装置10は、PET画像による第1教師データに基づいて第1分類器12bを学習させ、CT画像による第2教師データに基づいて第2分類器12dを学習させる。   In the present embodiment, the first classifiers 12b and 22b are classifiers that determine whether the state of the lesion to be imaged is lung cancer or normal based on the PET image of the patient, and the second classifier 12d. , 22c are classifiers that determine whether the state of the lesion to be imaged is lung cancer or normal based on the CT image of the patient. Therefore, the first teacher data DB12c includes first teacher data including a tumor image including a tumor region (lung cancer region) extracted from a PET image of a lung cancer patient and a normal image including a normal region having no tumor (lung cancer). The second teacher data DB 12e stores a large number of tumor images including a tumor region (lung cancer region) extracted from a CT image of a lung cancer patient and a normal image including a normal region without a tumor (lung cancer). 2. Many teacher data are accumulated. Then, the learning device 10 of the present embodiment makes the first classifier 12b learn based on the first teacher data based on the PET image, and learns the second classifier 12d based on the second teacher data based on the CT image.

本実施形態の学習装置10では、制御部11は学習プログラム12aを実行することによって図5に示した各機能を実現する。なお、本実施形態において、第1教師データ取得部101は、第1教師データDB12cからPET画像による第1教師データを取得する。第1学習部104は、第1教師データに含まれる肺癌又は正常を示す情報とPET画像とに基づいて第1分類器12bを学習させる。また、第2教師データ取得部111は、第2教師データDB12eからCT画像による第2教師データを取得する。また第2学習部114は、第2教師データに含まれる肺癌又は正常を示す情報とCT画像とに基づいて第2分類器12dを学習させる。   In the learning device 10 of the present embodiment, the control unit 11 realizes each function illustrated in FIG. 5 by executing the learning program 12a. Note that, in the present embodiment, the first teacher data acquisition unit 101 acquires the first teacher data based on the PET image from the first teacher data DB 12c. The first learning unit 104 makes the first classifier 12b learn based on the information indicating the lung cancer or normal included in the first teacher data and the PET image. Further, the second teacher data acquiring unit 111 acquires second teacher data based on a CT image from the second teacher data DB 12e. Further, the second learning unit 114 makes the second classifier 12d learn based on the information indicating the lung cancer or normal included in the second teacher data and the CT image.

本実施形態の特定装置20では、制御部21は特定プログラム22aを実行することによって図8に示した各機能を実現する。なお、本実施形態において、第1画像取得部201は、診断対象の患者のPET画像を取得し、第1腫瘤領域抽出部202は、PET画像から腫瘤領域を抽出する。第1判別部205は、PET画像から抽出した腫瘤領域に対して第1分類器22bが出力した肺癌又は正常に対する分類確率を取得する。また、第2画像取得部211は、診断対象の患者のCT画像を取得し、第2腫瘤領域抽出部212は、CT画像から腫瘤領域を抽出する。第2判別部215は、CT画像から抽出した腫瘤領域に対して第2分類器22cが出力した肺癌又は正常に対する分類確率を取得する。その他の機能は実施形態1と同様であるので説明を省略する。   In the identification device 20 of the present embodiment, the control unit 21 realizes each function shown in FIG. 8 by executing the identification program 22a. In the present embodiment, the first image acquisition unit 201 acquires a PET image of a patient to be diagnosed, and the first tumor region extraction unit 202 extracts a tumor region from the PET image. The first determination unit 205 acquires the classification probability for lung cancer or normal output from the first classifier 22b for the tumor region extracted from the PET image. Further, the second image acquisition unit 211 acquires a CT image of a patient to be diagnosed, and the second tumor region extraction unit 212 extracts a tumor region from the CT image. The second determination unit 215 acquires the classification probability for lung cancer or normal output from the second classifier 22c for the tumor region extracted from the CT image. The other functions are the same as those of the first embodiment, and a description thereof will be omitted.

本実施形態において、学習装置10は、図10に示した処理と同様の処理を行う。なお、本実施形態では、図10中のステップS11で、制御部11は、第1教師データDB12cからPET画像による第1教師データを取得し、ステップS12で、第1教師データに含まれるPET画像と、肺癌又は正常を示す情報とを用いて、第1分類器12bを学習させる。その他の処理は実施形態1と同様であるので説明を省略する。また、本実施形態の学習装置10の制御部11は、図10に示す処理と同様の処理によって、第2教師データDB12eに記憶されているCT画像の第2教師データを用いて第2分類器12dを学習させる。これにより、学習済みの第1分類器12b及び第2分類器12dが得られる。   In the present embodiment, the learning device 10 performs the same processing as the processing illustrated in FIG. In the present embodiment, at step S11 in FIG. 10, the control unit 11 acquires the first teacher data based on the PET image from the first teacher data DB 12c, and at step S12, the PET image included in the first teacher data. The first classifier 12b is learned using the information indicating the lung cancer or normal. Other processes are the same as those in the first embodiment, and a description thereof will not be repeated. In addition, the control unit 11 of the learning device 10 of the present embodiment executes the second classifier using the second teacher data of the CT image stored in the second teacher data DB 12e by the same process as the process illustrated in FIG. Train 12d. Thereby, the learned first classifier 12b and second classifier 12d are obtained.

本実施形態において、特定装置20は、図11に示した処理と同様の処理を行う。なお、本実施形態では、図11中のステップS21で、制御部21は、診断対象の患者のPET画像を取得し、ステップS22で、取得したPET画像から腫瘤領域を抽出する。またステップS23で、制御部21は、PET画像から抽出した腫瘤領域に対して、病変の状態が肺癌であるか正常であるかを第1分類器22bにて判別する。また、制御部21は、ステップS31で診断対象の患者のCT画像を取得し、ステップS32で、取得したCT画像から腫瘤領域を抽出する。またステップS33で、制御部21は、CT画像から抽出した腫瘤領域に対して、病変の状態が肺癌であるか正常であるかを第2分類器22cにて判別する。その他の処理は実施形態1と同様であるので説明を省略する。   In the present embodiment, the identification device 20 performs the same processing as the processing illustrated in FIG. In the present embodiment, the control unit 21 acquires a PET image of a patient to be diagnosed in step S21 in FIG. 11, and extracts a tumor region from the acquired PET image in step S22. In step S23, the control unit 21 uses the first classifier 22b to determine whether the lesion state is lung cancer or normal for the tumor region extracted from the PET image. Further, the control unit 21 acquires a CT image of the patient to be diagnosed in step S31, and extracts a tumor region from the acquired CT image in step S32. In step S33, the control unit 21 uses the second classifier 22c to determine whether the state of the lesion is lung cancer or normal for the tumor region extracted from the CT image. Other processes are the same as those in the first embodiment, and a description thereof will not be repeated.

本実施形態では、上述した実施形態1と同様の効果が得られる。よって、患者の病変の状態が肺癌である可能性及び肺癌でない(正常である)可能性を通知できるので、医師は、PET画像及びCT画像に基づいて病変の状態を診断する際に考慮でき、医師による診断を支援できる。また、第1分類器22bを用いたPET画像に基づく判別結果と、第2分類器22cを用いたCT画像に基づく判別結果とを統合して、患者の病変が肺癌であるか否かを判別するので、判別精度が向上する。   In the present embodiment, the same effects as those of the above-described first embodiment can be obtained. Therefore, since it is possible to notify the possibility that the condition of the lesion of the patient is lung cancer and the possibility that the condition is not lung cancer (normal), the doctor can consider when diagnosing the condition of the lesion based on the PET image and the CT image, We can assist doctors in diagnosis. Also, the determination result based on the PET image using the first classifier 22b and the determination result based on the CT image using the second classifier 22c are integrated to determine whether the patient's lesion is lung cancer. Therefore, the discrimination accuracy is improved.

本実施形態においても、診断に用いる医用画像はPET画像及びCT画像に限定されない。また、分類器22b,22cによる判別対象は、肺癌又は正常の2種別に限定されない。例えば、肺癌のほかに、転移性肺腫瘍、過誤腫、硬化性血管腫等の各種の病変について、それぞれの教師データを用いて分類器22b,22cに学習させることによって病変の種類の判別が可能となる。また、本実施形態においても、実施形態1で説明した変形例の適応が可能である。即ち、学習装置10は、教師データのPET画像及びCT画像からそれぞれ複数のパッチ画像を抽出し、パッチ画像にて分類器12b,12dを学習させてもよく、特定装置20は、診断対象の患者のPET画像及びCT画像からそれぞれ複数のパッチ画像を抽出し、パッチ画像にて分類器22b,22cによる判別処理を行ってもよい。また、本実施形態の診断支援システムを、3種別以上の画像を用いて患者の病変の状態を判別するように構成してもよい。   Also in the present embodiment, medical images used for diagnosis are not limited to PET images and CT images. Further, the discrimination targets by the classifiers 22b and 22c are not limited to the two types, lung cancer and normal. For example, in addition to lung cancer, various types of lesions such as metastatic lung tumors, hamartomas, and sclerosing hemangiomas can be used to discriminate the types of lesions by learning the classifiers 22b and 22c using the respective teacher data. Becomes Also, in the present embodiment, the modification described in the first embodiment can be applied. That is, the learning device 10 may extract a plurality of patch images from the PET image and the CT image of the teacher data, and train the classifiers 12b and 12d using the patch images. A plurality of patch images may be extracted from the PET image and the CT image, and the classifiers 22b and 22c may perform the discriminating process on the patch images. Further, the diagnosis support system according to the present embodiment may be configured to determine the state of a lesion of a patient using three or more types of images.

(実施形態3)
脳腫瘍の患者の脳をMRIで撮影して得られた医用画像(MRI画像)に基づいて、撮影対象である脳腫瘍の状態(種別)を判別する診断支援システムについて説明する。本実施形態の診断支援システムの各装置は、実施形態1の各装置と同じ構成を有するので、構成については説明を省略する。本実施形態では、MRIで撮影して得られたMRI画像を用いて、撮影対象の脳腫瘍の種別を判別する。
(Embodiment 3)
A diagnosis support system that determines the state (type) of a brain tumor to be imaged based on a medical image (MRI image) obtained by imaging the brain of a brain tumor patient with MRI will be described. Since each device of the diagnosis support system of the present embodiment has the same configuration as each device of the first embodiment, the description of the configuration will be omitted. In the present embodiment, the type of brain tumor to be imaged is determined using an MRI image obtained by imaging with MRI.

MRIは、撮影時のパラメータを異ならせることによって異なる種類のMRI画像を得ることができる。本実施形態の診断支援システムでは、造影剤を用いずに水、脂肪及び腫瘍が白く写る方法で撮影して得られたT2強調画像と、造影剤を用いて脂肪及び造影剤が白く写り、水及び腫瘍が黒く写る方法で撮影して得られたT1CE画像とを用いて、撮影対象の脳腫瘍の種別を判別する。脳腫瘍の種別の判別に用いる医用画像はこれらに限定されず、他の種類の医用画像を用いてもよい。MRIは、患者の頭(撮影対象の脳)を上下方向に走査しつつ前後左右方向の平面で切った断面画像(スライス画像)を取得する装置であり、1人の患者の脳に対して、T2強調画像であれば例えば20枚程度撮影し、T1CE画像であれば例えば200程度撮影する。MRIによる撮影枚数はこれらの枚数に限定されない。   In MRI, different types of MRI images can be obtained by changing parameters at the time of imaging. In the diagnosis support system of the present embodiment, a T2-weighted image obtained by imaging using a method in which water, fat, and a tumor appear white without using a contrast agent, and a fat and a contrast agent appear white using a contrast agent, Then, the type of the brain tumor to be imaged is determined using the T1CE image obtained by imaging the tumor in a black image. The medical image used for determining the type of the brain tumor is not limited to these, and another type of medical image may be used. MRI is an apparatus that acquires a cross-sectional image (slice image) cut by a plane in the front-rear and left-right directions while scanning a patient's head (brain to be imaged) in a vertical direction. For example, about 20 images are shot for a T2-weighted image, and about 200 images are shot for a T1CE image. The number of images taken by MRI is not limited to these numbers.

図12はT2強調画像の例を示す模式図、図13はT1CE画像の例を示す模式図である。T2強調画像及びT1CE画像のサイズは例えば512画素×512画素とすることができるが、これに限定されない。T2強調画像では病変(腫瘍)の領域を認識し易く、T1CE画像では病変(腫瘍)の輪郭を認識し易い。図12には、膠芽腫、悪性リンパ腫、髄膜腫、転移性腫瘍、神経鞘腫の5種別の脳腫瘍のT2強調画像の例を示し、図13には、膠芽腫、悪性リンパ腫、髄膜腫、転移性腫瘍、神経鞘腫の5種別の脳腫瘍のT1CE画像の例を示す。本実施形態の診断支援システムでは、判別対象の脳腫瘍の種別として、膠芽腫、悪性リンパ腫、髄膜腫、転移性腫瘍、神経鞘腫の5種別のいずれであるかを判別する。よって、第1分類器12b,22bは、患者のT2強調画像に基づいて、このT2強調画像に対する脳腫瘍の種別を判別する分類器であり、第2分類器12d,22cは、患者のT1CE画像に基づいて、このT1CE画像に対する脳腫瘍の種別を判別する分類器である。   FIG. 12 is a schematic diagram illustrating an example of a T2-weighted image, and FIG. 13 is a schematic diagram illustrating an example of a T1CE image. The size of the T2-weighted image and the T1CE image can be, for example, 512 pixels × 512 pixels, but is not limited thereto. In the T2-weighted image, the lesion (tumor) region is easily recognized, and in the T1CE image, the outline of the lesion (tumor) is easily recognized. FIG. 12 shows an example of a T2-weighted image of five types of brain tumors of glioblastoma, malignant lymphoma, meningioma, metastatic tumor, and schwannoma. FIG. 13 shows glioblastoma, malignant lymphoma, and marrow tumor. 5 shows an example of T1CE images of five types of brain tumors: a membranous tumor, a metastatic tumor, and a schwannoma. In the diagnosis support system of the present embodiment, it is determined which of the five types of brain tumor to be determined is glioblastoma, malignant lymphoma, meningioma, metastatic tumor, and schwannoma. Therefore, the first classifiers 12b and 22b are classifiers that determine the type of the brain tumor with respect to the T2 weighted image based on the T2 weighted image of the patient, and the second classifiers 12d and 22c generate the T1CE images of the patient. Based on this T1CE image, it is a classifier that determines the type of brain tumor.

従って、本実施形態の第1教師データDB12cには、膠芽腫、悪性リンパ腫、髄膜腫、転移性腫瘍、神経鞘腫のそれぞれに対応付けて、図12に示すようなT2強調画像が多数蓄積されている。また、第2教師データDB12eには、脳腫瘍の種別のそれぞれに対応付けて、図13に示すようなT1CE画像が多数蓄積されている。なお、第1教師データDB12cにおいて、1つのT2強調画像(スライス画像)と、このT2強調画像に対応付けられた脳腫瘍の種別(膠芽腫、悪性リンパ腫、髄膜腫、転移性腫瘍又は神経鞘腫)を示す情報とのセットを第1教師データという。また、第2教師データDB12eにおいて、1つのT1CE画像(スライス画像)と、このT1CE画像に対応付けられた脳腫瘍の種別を示す情報とのセットを第2教師データという。本実施形態の学習装置10は、図12に示すようなT2強調画像による第1教師データに基づいて第1分類器12bを学習させ、図13に示すようなT1CE画像による第2教師データに基づいて第2分類器12dを学習させる。   Accordingly, in the first teacher data DB 12c of the present embodiment, a large number of T2-weighted images as shown in FIG. 12 are associated with each of glioblastoma, malignant lymphoma, meningioma, metastatic tumor, and schwannoma. Has been accumulated. Further, a large number of T1CE images as shown in FIG. 13 are stored in the second teacher data DB 12e in association with each type of brain tumor. In the first teacher data DB 12c, one T2-weighted image (slice image) and the type of brain tumor (glioblastoma, malignant lymphoma, meningioma, metastatic tumor, or neural sheath) associated with this T2-weighted image The set with the information indicating the tumor is referred to as first teacher data. In the second teacher data DB 12e, a set of one T1CE image (slice image) and information indicating the type of brain tumor associated with the T1CE image is referred to as second teacher data. The learning device 10 of the present embodiment makes the first classifier 12b learn based on the first teacher data based on the T2-weighted image as illustrated in FIG. 12, and based on the second teacher data based on the T1CE image as illustrated in FIG. To make the second classifier 12d learn.

図14は、実施形態3の学習装置10の制御部11によって実現される機能を示すブロック図、図15及び図16は、実施形態3の学習装置10が行う学習処理の説明図である。本実施形態の学習装置10では、制御部11は学習プログラム12aを実行した場合、第1教師データ取得部101、第1腫瘤領域抽出部102、第1パッチ画像抽出部103、第1学習部104、第2教師データ取得部111、第2腫瘤領域抽出部112、第2パッチ画像抽出部113、第2学習部114の各機能を実現する。なお、これらの各機能の一部を専用のハードウェア回路で実現してもよい。第1教師データ取得部101、第1学習部104、第2教師データ取得部111及び第2学習部114は、図5に示した実施形態1の各機能と同様の処理を行う。   FIG. 14 is a block diagram illustrating functions realized by the control unit 11 of the learning device 10 according to the third embodiment. FIGS. 15 and 16 are diagrams illustrating a learning process performed by the learning device 10 according to the third embodiment. In the learning device 10 of the present embodiment, when the control unit 11 executes the learning program 12a, the first teacher data acquisition unit 101, the first tumor region extraction unit 102, the first patch image extraction unit 103, the first learning unit 104 , The second teacher data acquisition unit 111, the second tumor region extraction unit 112, the second patch image extraction unit 113, and the second learning unit 114. Some of these functions may be realized by a dedicated hardware circuit. The first teacher data acquisition unit 101, the first learning unit 104, the second teacher data acquisition unit 111, and the second learning unit 114 perform the same processing as each function of the first embodiment illustrated in FIG.

本実施形態において、第1教師データ取得部101は、第1教師データDB12cからT2強調画像による第1教師データを取得する。第1教師データには、脳腫瘍の種別を示す情報とT2強調画像(スライス画像)とが含まれる。第1腫瘤領域抽出部102は、第1教師データ取得部101が取得したT2強調画像から腫瘤領域(脳腫瘍領域)を抽出する。第1教師データDB12cに記憶されるT2強調画像は脳全体の画像であり、第1腫瘤領域抽出部102は、例えば入力部14を介したユーザの入力操作による指定に基づいて脳腫瘍領域を抽出する。また、第1腫瘤領域抽出部102は、例えばディープラーニングによる学習済みの認識モデルを用いて、第1教師データ取得部101が取得したT2強調画像中の脳腫瘍領域を認識して抽出してもよい。図15Aに示す例では、破線の閉曲線で囲まれた領域Rが脳腫瘍領域として抽出されている。   In the present embodiment, the first teacher data acquisition unit 101 acquires the first teacher data using a T2-weighted image from the first teacher data DB 12c. The first teacher data includes information indicating the type of brain tumor and a T2-weighted image (slice image). The first tumor region extraction unit 102 extracts a tumor region (brain tumor region) from the T2-weighted image acquired by the first teacher data acquisition unit 101. The T2-weighted image stored in the first teacher data DB 12c is an image of the entire brain, and the first tumor region extracting unit 102 extracts a brain tumor region based on, for example, a designation by a user's input operation via the input unit 14. . Further, the first tumor region extracting unit 102 may recognize and extract a brain tumor region in the T2-weighted image acquired by the first teacher data acquiring unit 101, for example, using a recognition model learned by deep learning. . In the example shown in FIG. 15A, a region R surrounded by a broken closed curve is extracted as a brain tumor region.

第1パッチ画像抽出部103は、第1腫瘤領域抽出部102が抽出した腫瘤領域に対して、所定の画素数の画素を含む矩形のパッチ画像(画素ブロック)を複数抽出する。パッチ画像のサイズは例えば128画素×128画素とすることができるが、これに限定されない。第1パッチ画像抽出部103は、第1腫瘤領域抽出部102が抽出した腫瘤領域内の所定間隔を隔てた各位置をそれぞれ中央位置とするパッチ画像を、1枚のT2強調画像(腫瘤領域)から例えば100〜200枚程度抽出する。図15Bに示す例では、それぞれの矩形で囲まれた領域Pがパッチ画像として抽出されている。   The first patch image extracting unit 103 extracts a plurality of rectangular patch images (pixel blocks) including a predetermined number of pixels from the tumor region extracted by the first tumor region extracting unit 102. The size of the patch image can be, for example, 128 pixels × 128 pixels, but is not limited thereto. The first patch image extraction unit 103 converts a patch image whose center position is at a predetermined interval in the tumor region extracted by the first tumor region extraction unit 102 into one T2-weighted image (tumor region) For example, about 100 to 200 sheets are extracted. In the example shown in FIG. 15B, the area P surrounded by each rectangle is extracted as a patch image.

第1学習部104は、第1教師データに含まれる脳腫瘍の種別を示す情報と、T2強調画像から抽出された複数のパッチ画像(T2強調画像のパッチ画像)とに基づいて第1分類器12bを学習させる。ここで、本実施形態の第1分類器12bについて説明する。図16は本実施形態の第1分類器12bを示し、図16に示す第1分類器12bは、実施形態1の第1分類器12bと同様にCNNで構成されている。図16に示すように、本実施形態の第1分類器12bでは、入力層のノード数は16,384(チャンネル数は1)であり、出力層のノード数は5である。本実施形態の第1分類器12bには、上述したようなパッチ画像が入力データとして与えられる。出力層の各ノードは、5種別の脳腫瘍のそれぞれに対する分類確率を出力する。例えば入力されたパッチ画像が膠芽腫の画像である確率をノード0が出力し、悪性リンパ腫の画像である確率をノード1が出力し、髄膜腫の画像である確率をノード2が出力し、転移性腫瘍の画像である確率をノード3が出力し、神経鞘腫の画像である確率をノード4が出力する。出力層の各ノードの出力値は例えば0〜1.0の値であり、5つのノードから出力された確率の合計が1.0(100%)となる。本実施形態の第2分類器12dも第1分類器12bと同様の構成を有する。   The first learning unit 104 generates a first classifier 12b based on information indicating the type of brain tumor included in the first teacher data and a plurality of patch images (patch images of the T2-weighted image) extracted from the T2-weighted image. To learn. Here, the first classifier 12b of the present embodiment will be described. FIG. 16 shows a first classifier 12b of the present embodiment, and the first classifier 12b shown in FIG. 16 is configured by a CNN similarly to the first classifier 12b of the first embodiment. As shown in FIG. 16, in the first classifier 12b of the present embodiment, the number of nodes in the input layer is 16,384 (the number of channels is 1), and the number of nodes in the output layer is 5. The above-described patch image is provided as input data to the first classifier 12b of the present embodiment. Each node in the output layer outputs a classification probability for each of the five types of brain tumors. For example, node 0 outputs the probability that the input patch image is a glioblastoma image, node 1 outputs the probability of being an image of malignant lymphoma, and node 2 outputs the probability of being an image of meningioma. The node 3 outputs the probability of being an image of a metastatic tumor, and the node 4 outputs the probability of being an image of a schwannoma. The output value of each node in the output layer is, for example, a value from 0 to 1.0, and the total of the probabilities output from the five nodes is 1.0 (100%). The second classifier 12d of the present embodiment also has the same configuration as the first classifier 12b.

本実施形態の第1学習部104は、T2強調画像から抽出したパッチ画像を第1分類器12bの入力層のノードに入力し、出力層において、このパッチ画像(T2強調画像)の脳腫瘍の種別に応じたノードの出力値が1.0に近づき、その他のノードの出力値が0に近づくように、第1分類器12bを学習させる。即ち、第1学習部104は、入力層のノードに入力したパッチ画像が膠芽腫の画像である場合、ノード0の出力値が1.0に近づき、ノード1〜4の出力値が0に近づくように第1分類器12bを学習させる。   The first learning unit 104 of the present embodiment inputs the patch image extracted from the T2-weighted image to the node of the input layer of the first classifier 12b, and outputs the patch image (T2-weighted image) of the brain tumor in the output layer. The first classifier 12b is made to learn so that the output value of the node corresponding to approaches 1.0 and the output values of the other nodes approach 0. That is, when the patch image input to the node in the input layer is an image of glioblastoma, the first learning unit 104 approaches the output value of the node 0 to 1.0 and sets the output values of the nodes 1 to 4 to 0. The first classifier 12b is made to learn so as to approach.

本実施形態において、第2教師データ取得部111、第2腫瘤領域抽出部112、第2パッチ画像抽出部113及び第2学習部114のそれぞれは、第1教師データ取得部101、第1腫瘤領域抽出部102、第1パッチ画像抽出部103及び第1学習部104とは処理対象の画像が異なるが、それぞれ同様の処理を行う。また、第2分類器12dは第1分類器12bと同様の構成を有する。よって、これらについての詳細な説明は省略する。第2教師データ取得部111は、第2教師データDB12eからT1CE画像による第2教師データを取得し、第2腫瘤領域抽出部112は、T1CE画像から腫瘤領域(脳腫瘍領域)を抽出する。また第2パッチ画像抽出部113は、T1CE画像から抽出された脳腫瘍領域から複数のパッチ画像を抽出する。第2学習部114は、第2教師データに含まれる脳腫瘍の種別を示す情報と、T1CE画像から抽出された複数のパッチ画像とに基づいて第2分類器12dを学習させる。   In the present embodiment, each of the second teacher data acquisition unit 111, the second tumor region extraction unit 112, the second patch image extraction unit 113, and the second learning unit 114 includes the first teacher data acquisition unit 101, the first tumor region Although the image to be processed is different from the extraction unit 102, the first patch image extraction unit 103, and the first learning unit 104, they perform the same processing. The second classifier 12d has the same configuration as the first classifier 12b. Therefore, a detailed description thereof will be omitted. The second teacher data acquisition unit 111 acquires the second teacher data based on the T1CE image from the second teacher data DB 12e, and the second tumor region extraction unit 112 extracts a tumor region (brain tumor region) from the T1CE image. In addition, the second patch image extraction unit 113 extracts a plurality of patch images from the brain tumor region extracted from the T1CE image. The second learning unit 114 makes the second classifier 12d learn based on the information indicating the type of the brain tumor included in the second teacher data and the plurality of patch images extracted from the T1CE image.

図17は、実施形態3の特定装置20の制御部21によって実現される機能を示すブロック図、図18〜図20は、実施形態3の特定装置20が行う特定処理の説明図である。本実施形態の特定装置20の制御部21は、記憶部22に記憶してある特定プログラム22aを実行した場合、第1画像取得部201、第1腫瘤領域抽出部202、第1パッチ画像抽出部203、第1パッチ判別部204、第1判別部205、第2画像取得部211、第2腫瘤領域抽出部212、第2パッチ画像抽出部213、第2パッチ判別部214、第2判別部215、特定部221、出力部222の各機能を実現する。なお、本実施形態では、これらの各機能の一部を専用のハードウェア回路で実現してもよい。第1画像取得部201、第1腫瘤領域抽出部202、第2画像取得部211、第2腫瘤領域抽出部212、特定部221、出力部222は、図8に示した実施形態1の各機能と同様の処理を行う。   FIG. 17 is a block diagram illustrating functions realized by the control unit 21 of the specifying device 20 according to the third embodiment. FIGS. 18 to 20 are diagrams illustrating a specifying process performed by the specifying device 20 according to the third embodiment. When executing the specific program 22a stored in the storage unit 22, the control unit 21 of the specific device 20 according to the present embodiment, the first image acquisition unit 201, the first tumor region extraction unit 202, the first patch image extraction unit 203, a first patch determination unit 204, a first determination unit 205, a second image acquisition unit 211, a second tumor region extraction unit 212, a second patch image extraction unit 213, a second patch determination unit 214, a second determination unit 215 , The functions of the specifying unit 221 and the output unit 222 are realized. In the present embodiment, some of these functions may be realized by a dedicated hardware circuit. The first image acquiring unit 201, the first tumor region extracting unit 202, the second image acquiring unit 211, the second tumor region extracting unit 212, the specifying unit 221, and the output unit 222 are the respective functions of the first embodiment shown in FIG. The same processing is performed.

本実施形態において、第1画像取得部201は、診断対象の患者のT2強調画像(スライス画像)を取得する。なお、T2強調画像は、患者の脳を上下方向に走査しつつ撮影した断面画像であり、1人の患者に対して複数枚のT2強調画像が1セットとして処理される。よって、第1画像取得部201は、1人の患者から得られた複数のT2強調画像を取得する。第1腫瘤領域抽出部202は、第1画像取得部201が取得したT2強調画像のそれぞれから脳腫瘍領域を抽出する。   In the present embodiment, the first image acquisition unit 201 acquires a T2-weighted image (slice image) of a patient to be diagnosed. The T2-weighted image is a cross-sectional image taken while scanning the patient's brain in the vertical direction, and a plurality of T2-weighted images are processed as one set for one patient. Therefore, the first image acquisition unit 201 acquires a plurality of T2-weighted images obtained from one patient. The first tumor region extraction unit 202 extracts a brain tumor region from each of the T2-weighted images acquired by the first image acquisition unit 201.

第1パッチ画像抽出部203は、学習装置10の制御部11が実現する第1パッチ画像抽出部103と同様の処理を行う。即ち、第1パッチ画像抽出部203は、第1腫瘤領域抽出部202が抽出した腫瘤領域のそれぞれから複数のパッチ画像を抽出する。第1パッチ判別部204は、第1パッチ画像抽出部203が抽出したパッチ画像(T2強調画像のパッチ画像)に基づいて、それぞれのパッチ画像に対する脳腫瘍の種別を第1分類器22bを用いて判別する。具体的には、第1パッチ判別部204は、パッチ画像のそれぞれを第1分類器22bに入力し、第1分類器22bからの出力値を取得する。第1分類器22bの出力値は、5種別の脳腫瘍(膠芽腫、悪性リンパ腫、髄膜腫、転移性腫瘍、神経鞘腫)のそれぞれに対する分類確率である。第1パッチ判別部204は、1人の患者における複数のT2強調画像のそれぞれから第1パッチ画像抽出部203が抽出したパッチ画像についてそれぞれ判別処理を行う。第1パッチ判別部204は、それぞれのパッチ画像に対する判別結果を例えば記憶部22に記憶する。図18は、第1パッチ判別部204による判別結果を示す模式図である。図18に示すテーブルには、患者ID、T2強調画像ID、パッチID、分類確率が対応付けて記憶されている。患者IDは各患者に割り当てられた識別情報であり、T2強調画像IDは、患者のT2強調画像に割り当てられた識別情報であり、パッチIDは、T2強調画像から抽出されたパッチ画像のそれぞれに割り当てられた識別情報である。分類確率は、それぞれのパッチ画像に基づいて第1分類器22bが出力した脳腫瘍の各種別に対する分類確率である。   The first patch image extraction unit 203 performs the same processing as the first patch image extraction unit 103 realized by the control unit 11 of the learning device 10. That is, the first patch image extraction unit 203 extracts a plurality of patch images from each of the tumor regions extracted by the first tumor region extraction unit 202. The first patch discriminating unit 204 discriminates the type of brain tumor for each patch image using the first classifier 22b based on the patch image (the patch image of the T2-weighted image) extracted by the first patch image extracting unit 203. I do. Specifically, the first patch determination unit 204 inputs each of the patch images to the first classifier 22b, and acquires an output value from the first classifier 22b. The output value of the first classifier 22b is the classification probability for each of the five types of brain tumors (glioblastoma, malignant lymphoma, meningioma, metastatic tumor, schwannoma). The first patch determination unit 204 performs a determination process on each of the patch images extracted by the first patch image extraction unit 203 from each of the plurality of T2-weighted images of one patient. The first patch determination unit 204 stores a determination result for each patch image in, for example, the storage unit 22. FIG. 18 is a schematic diagram illustrating a determination result by the first patch determination unit 204. The table shown in FIG. 18 stores a patient ID, a T2-weighted image ID, a patch ID, and a classification probability in association with each other. The patient ID is identification information assigned to each patient, the T2-weighted image ID is identification information assigned to the T2-weighted image of the patient, and the patch ID is assigned to each of the patch images extracted from the T2-weighted image. This is assigned identification information. The classification probability is a classification probability for each type of brain tumor output by the first classifier 22b based on each patch image.

第1判別部205は、第1パッチ判別部204による判別結果に基づいて、それぞれのT2強調画像(スライス画像)について、脳腫瘍の各種別に対する分類確率を算出する。即ち、第1判別部205は、第1分類器22bが各パッチ画像に対して出力した脳腫瘍の種別毎の分類確率に基づいて、このパッチ画像が抽出されたT2強調画像(スライス画像)における脳腫瘍の種別毎の分類確率を算出する。例えば第1判別部205は、1枚のT2強調画像から抽出されたパッチ画像のそれぞれに対して出力された脳腫瘍の各種別に対する分類確率の平均値をそれぞれ算出して、このT2強調画像における脳腫瘍の種別毎の分類確率としてもよい。T2強調画像における脳腫瘍の種別毎の分類確率の算出方法はこれに限定されない。例えば、一部のパッチ画像における脳腫瘍の種別毎の分類確率の平均値を、T2強調画像における脳腫瘍の種別毎の分類確率としてもよい。第1判別部205は、1人の患者における全てのT2強調画像に対して、脳腫瘍の種別毎の分類確率を算出し、例えば記憶部22に記憶する。   The first determination unit 205 calculates a classification probability for each type of brain tumor for each T2-weighted image (slice image) based on the determination result by the first patch determination unit 204. That is, based on the classification probabilities for each type of brain tumor output from the first classifier 22b for each patch image by the first classifier 22b, the first determination unit 205 determines the brain tumor in the T2-weighted image (slice image) from which this patch image has been extracted. The classification probability for each type of is calculated. For example, the first determination unit 205 calculates the average value of the classification probabilities for each type of brain tumor output for each of the patch images extracted from one T2-weighted image, and calculates the brain tumor in the T2-weighted image. May be the classification probability for each type. The method of calculating the classification probability for each type of brain tumor in the T2-weighted image is not limited to this. For example, the average value of the classification probabilities for each type of brain tumor in some patch images may be used as the classification probabilities for each type of brain tumor in the T2-weighted image. The first determination unit 205 calculates a classification probability for each type of brain tumor for all T2-weighted images of one patient, and stores the classification probability in, for example, the storage unit 22.

そして、本実施形態の第1判別部205は、それぞれのT2強調画像(スライス画像)について算出した脳腫瘍の種別毎の分類確率に基づいて、この患者の脳腫瘍の種別を判別する。具体的には、第1判別部205は、それぞれのT2強調画像における脳腫瘍の種別毎の分類確率に基づいて、この患者における脳腫瘍の種別毎の分類確率を算出する。ここで、第1判別部205は、例えば、それぞれのT2強調画像における脳腫瘍領域の大きさ(面積)に応じた重み付けを行って、脳腫瘍の各種別に対する分類確率の加重平均値(重み付き平均)を算出し、患者における脳腫瘍の種別毎の分類確率とする。   Then, the first determination unit 205 of the present embodiment determines the type of the brain tumor of this patient based on the classification probability for each type of the brain tumor calculated for each T2-weighted image (slice image). Specifically, the first determination unit 205 calculates the classification probability for each type of brain tumor in this patient based on the classification probability for each type of brain tumor in each T2-weighted image. Here, the first determination unit 205 performs, for example, weighting according to the size (area) of the brain tumor region in each T2-weighted image, and a weighted average value (weighted average) of classification probabilities for each type of brain tumor. Is calculated as the classification probability for each type of brain tumor in the patient.

図19は、T2強調画像における脳腫瘍領域の大きさに応じた重み付けを説明するための模式図である。図19A〜Dには、T2強調画像と、それぞれT2強調画像中の脳腫瘍領域(腫瘍領域)とを示している。図19A〜Dに示すT2強調画像において、それぞれの脳腫瘍領域の面積がa1〜a4であり、最大面積がa2であったとする。この場合、図19A〜Dに示すT2強調画像における脳腫瘍領域の大きさに応じた係数(重み係数)はそれぞれ、a1/a2,1,a3/a2,a4/a2とすることができる。そして、第1判別部205は、脳腫瘍の種別毎に、それぞれのT2強調画像における分類確率に、脳腫瘍領域の大きさに応じた係数を掛け算した上で加算し、その合計値を係数の合計値で割り算し、得られた商を、この患者における分類確率とする。T2強調画像における分類確率から患者の分類確率を算出する方法はこれに限定されない。例えば、一部のT2強調画像における分類確率を用いて患者の分類確率を算出してもよい。第1判別部205は、判別対象の脳腫瘍のそれぞれについて、患者における分類確率を算出する。   FIG. 19 is a schematic diagram for explaining weighting according to the size of the brain tumor region in the T2-weighted image. 19A to 19D show a T2-weighted image and a brain tumor region (tumor region) in each T2-weighted image. In the T2-weighted images shown in FIGS. 19A to 19D, it is assumed that the areas of the respective brain tumor regions are a1 to a4 and the maximum area is a2. In this case, the coefficients (weighting factors) according to the size of the brain tumor region in the T2-weighted images shown in FIGS. 19A to 19D can be a1 / a2, 1, a3 / a2, and a4 / a2, respectively. Then, for each type of brain tumor, the first determination unit 205 multiplies the classification probability in each T2-weighted image by a coefficient corresponding to the size of the brain tumor region, and adds the result. And the obtained quotient is taken as the classification probability for this patient. The method for calculating the classification probability of the patient from the classification probabilities in the T2-weighted image is not limited to this. For example, the classification probability of a patient may be calculated using the classification probabilities in some T2-weighted images. The first determination unit 205 calculates a classification probability in a patient for each of the brain tumors to be determined.

第2画像取得部211、第2腫瘤領域抽出部212、第2パッチ画像抽出部213、第2パッチ判別部214及び第2判別部215のそれぞれは、第1画像取得部201、第1腫瘤領域抽出部202、第1パッチ画像抽出部203、第1パッチ判別部204及び第1判別部205とは処理対象の画像が異なるが、それぞれ同様の処理を行う。よって、詳細については説明を省略する。なお、第1画像取得部201が取得するT2強調画像と、第2画像取得部211が取得するT1CE画像とは、同じ患者の脳(撮影対象)の同じ箇所での断面画像である。このようなT2強調画像及びT1CE画像は、同一の撮像装置にて同じ撮影タイミングでパラメータを異ならせて撮影されたものであってもよく、異なる撮像装置にて撮影されたものであってもよく、1つの撮像装置にて撮影した後に異なる画像処理を行うことによって生成されたものでもよい。   The second image acquiring unit 211, the second tumor region extracting unit 212, the second patch image extracting unit 213, the second patch discriminating unit 214, and the second discriminating unit 215 each include a first image acquiring unit 201 and a first tumor region. The extraction unit 202, the first patch image extraction unit 203, the first patch discrimination unit 204, and the first discrimination unit 205 differ in the image to be processed, but perform the same processing. Therefore, the detailed description is omitted. Note that the T2-weighted image acquired by the first image acquisition unit 201 and the T1CE image acquired by the second image acquisition unit 211 are cross-sectional images of the same patient's brain (imaging target) at the same location. Such a T2-weighted image and a T1CE image may be captured using the same imaging device at the same imaging timing with different parameters, or may be captured using different imaging devices. Alternatively, it may be generated by performing different image processing after photographing with one imaging device.

第2画像取得部211は、1人の患者から得られた複数のT1CE画像(スライス画像)を取得する。第2腫瘤領域抽出部212は、第2画像取得部211が取得したT1CE画像のそれぞれから脳腫瘍領域を抽出する。第2パッチ画像抽出部213は、第2腫瘤領域抽出部212が抽出した脳腫瘍領域のそれぞれから複数のパッチ画像を抽出する。   The second image acquisition unit 211 acquires a plurality of T1CE images (slice images) obtained from one patient. The second tumor region extraction unit 212 extracts a brain tumor region from each of the T1CE images acquired by the second image acquisition unit 211. The second patch image extraction unit 213 extracts a plurality of patch images from each of the brain tumor regions extracted by the second tumor region extraction unit 212.

本実施形態において、第2パッチ判別部214は、T1CE画像(脳腫瘍領域)から抽出したパッチ画像のそれぞれを第2分類器22cに入力し、第2分類器22cからの出力である5種別の脳腫瘍のそれぞれに対する分類確率を取得する。第2パッチ判別部214は、1人の患者における複数のT1CE画像のそれぞれから抽出されたパッチ画像についてそれぞれ判別処理を行い、図18に示すテーブルと同様の構成のテーブルに判別結果を記憶する。なお、第2パッチ判別部214が判別結果を記憶するテーブルは、図18に示すテーブルにおいてT2強調画像IDの代わりにT1CE画像IDが記憶される。   In the present embodiment, the second patch discriminating unit 214 inputs each of the patch images extracted from the T1CE image (brain tumor region) to the second classifier 22c, and outputs five types of brain tumors that are output from the second classifier 22c. Obtain the classification probabilities for each of the. The second patch determination unit 214 performs determination processing on each of the patch images extracted from each of the plurality of T1CE images of one patient, and stores the determination result in a table having the same configuration as the table illustrated in FIG. In the table in which the second patch determination unit 214 stores the determination result, the T1CE image ID is stored instead of the T2-weighted image ID in the table shown in FIG.

第2判別部215は、第2分類器22cが各パッチ画像に対して出力した脳腫瘍の種別毎の分類確率に基づいて、このパッチ画像が抽出されたT1CE画像(スライス画像)における脳腫瘍の種別毎の分類確率を算出する。そして、第2判別部215は、それぞれのT1CE画像(スライス画像)について算出した脳腫瘍の種別毎の分類確率に基づいて、この患者における脳腫瘍の種別毎の分類確率を算出する。ここでも、第2判別部215は、T1CE画像における脳腫瘍領域の大きさに応じた重み係数を用いて、患者における脳腫瘍の種別毎の分類確率を算出してもよい。第2判別部215は、1人の患者に対して、判別対象の脳腫瘍の種別毎の分類確率を算出し、例えば記憶部22に記憶する。   The second determining unit 215 determines, for each type of brain tumor in the T1CE image (slice image) from which the patch image is extracted, based on the classification probability for each type of brain tumor output from the second classifier 22c for each patch image. Is calculated. Then, the second determination unit 215 calculates the classification probability for each type of brain tumor in this patient based on the classification probability for each type of brain tumor calculated for each T1CE image (slice image). Also here, the second determination unit 215 may calculate the classification probability for each type of brain tumor in the patient using a weight coefficient according to the size of the brain tumor region in the T1CE image. The second determination unit 215 calculates the classification probability for each type of brain tumor to be determined for one patient, and stores the classification probability in, for example, the storage unit 22.

本実施形態の特定部221は、患者のT2強調画像に基づいて第1判別部205が算出した脳腫瘍の種別毎の分類確率と、患者のT1CE画像に基づいて第2判別部215が算出した脳腫瘍の種別毎の分類確率とに基づいて、この患者における脳腫瘍の種別を特定する。具体的には、特定部221は、第1判別部205が算出した脳腫瘍の種別毎の分類確率と、第2判別部215が算出した脳腫瘍の種別毎の分類確率とを統合して、この患者における脳腫瘍の種別毎の分類確率(判別確率)を算出する。例えば特定部221は、脳腫瘍の種別毎に、T2強調画像に基づいて算出された分類確率と、T1CE画像に基づいて算出された分類確率との平均値をそれぞれ算出し、統合された確率とする。特定部221は、統合した脳腫瘍の種別毎の分類確率のうちで最高の分類確率であった脳腫瘍を、この患者の脳腫瘍に特定する。   The identification unit 221 according to the present embodiment includes a classification probability for each type of brain tumor calculated by the first determination unit 205 based on the T2-weighted image of the patient, and a brain tumor calculated by the second determination unit 215 based on the T1CE image of the patient. The type of brain tumor in this patient is specified based on the classification probability for each type. Specifically, the identification unit 221 integrates the classification probability for each type of brain tumor calculated by the first determination unit 205 and the classification probability for each type of brain tumor calculated by the second determination unit 215, and , The classification probability (discrimination probability) for each type of brain tumor is calculated. For example, the specifying unit 221 calculates, for each type of brain tumor, an average value of the classification probability calculated based on the T2 weighted image and the average value of the classification probability calculated based on the T1CE image, and sets the average value as an integrated probability. . The identification unit 221 identifies the brain tumor having the highest classification probability among the classification probabilities for each type of integrated brain tumor as the brain tumor of this patient.

本実施形態の出力部222は、特定部221による特定結果を表示するための表示情報を生成し、生成した表示情報に基づいて、図20に示すような特定結果画面を表示部23に表示する。図20に示す画面には、特定部221が最終的に算出した、この患者における脳腫瘍の種別毎の分類確率(判別確率)が表示され、特定部221が特定した脳腫瘍に下線が付されて、他の脳腫瘍よりも目立つように表示されている。また、図20に示す画面には、例えば、診断対象のT2強調画像のうちで、特定部221が特定した脳腫瘍(図20では転移性腫瘍)について、第1判別部205で算出された分類確率が最高であったT2強調画像が表示されている。このようなT2強調画像は、特定部221が特定した脳腫瘍であることを判断し易い画像である可能性が高い。同様に、図20に示す画面には、診断対象のT1CE画像のうちで、特定部221が特定した脳腫瘍について、第2判別部215で算出された分類確率が最高であったT1CE画像が表示されている。よって、出力部222は、上述したようなT2強調画像及びT1CE画像をそれぞれ選択し、この患者における脳腫瘍の種別毎に算出された分類確率と共に表示する特定結果画面を生成する。   The output unit 222 of the present embodiment generates display information for displaying the specified result by the specifying unit 221 and displays a specified result screen as shown in FIG. 20 on the display unit 23 based on the generated display information. . On the screen shown in FIG. 20, the classification probability (discrimination probability) for each type of brain tumor in this patient, which is finally calculated by the identification unit 221, is displayed, and the brain tumor identified by the identification unit 221 is underlined. It is displayed more prominently than other brain tumors. The screen illustrated in FIG. 20 includes, for example, a classification probability calculated by the first determination unit 205 for a brain tumor (a metastatic tumor in FIG. 20) identified by the identification unit 221 in a T2-weighted image to be diagnosed. Are displayed. Such a T2-weighted image is likely to be an image in which it is easy to determine that the brain tumor has been identified by the identifying unit 221. Similarly, on the screen shown in FIG. 20, among the T1CE images to be diagnosed, a T1CE image with the highest classification probability calculated by the second determination unit 215 is displayed for the brain tumor identified by the identification unit 221. ing. Therefore, the output unit 222 selects the T2-weighted image and the T1CE image as described above, and generates a specific result screen to be displayed together with the classification probabilities calculated for each type of brain tumor in this patient.

表示部23に表示される画面は、図20に示す例に限定されず、例えば、この患者における脳腫瘍の種別毎の分類確率のみを表示する画面でもよい。また、例えば、特定部221が特定した脳腫瘍について第1判別部205で算出された分類確率が高いT2強調画像のうちで、脳腫瘍領域の大きさが最も大きいT2強調画像を表示してもよい。同様に、特定部221が特定した脳腫瘍について第2判別部215で算出された分類確率が高いT1CE強調画像のうちで、脳腫瘍領域の大きさが最も大きいT1CE画像を表示してもよい。また、例えば、特定部221が特定した脳腫瘍について、第1パッチ判別部204で算出された分類確率が所定値以上であったT2強調画像のパッチ画像を表示してもよい。同様に、特定部221が特定した脳腫瘍について、第2パッチ判別部214で算出された分類確率が所定値以上であったT1CE画像のパッチ画像を表示してもよい。更に、それぞれ表示されるスライス画像(T2強調画像及びT1CE画像)に対して、脳腫瘍領域をハイライト表示してもよい。   The screen displayed on the display unit 23 is not limited to the example illustrated in FIG. 20, and may be, for example, a screen that displays only the classification probabilities for each type of brain tumor in this patient. In addition, for example, a T2 weighted image having the largest size of the brain tumor region may be displayed among the T2 weighted images having a high classification probability calculated by the first determination unit 205 for the brain tumor specified by the specifying unit 221. Similarly, the T1CE image having the largest size of the brain tumor region may be displayed among the T1CE-emphasized images having the high classification probability calculated by the second determination unit 215 for the brain tumor identified by the identification unit 221. In addition, for example, a patch image of a T2-weighted image whose classification probability calculated by the first patch determination unit 204 is equal to or more than a predetermined value may be displayed for the brain tumor identified by the identification unit 221. Similarly, for the brain tumor identified by the identifying unit 221, a patch image of a T1CE image whose classification probability calculated by the second patch determining unit 214 is equal to or greater than a predetermined value may be displayed. Furthermore, a brain tumor region may be highlighted on each of the displayed slice images (T2-weighted image and T1CE image).

図21は、実施形態3の学習装置10による学習処理の手順を示すフローチャートである。本実施形態の学習装置10は、第1教師データDB12cに記憶されているT2強調画像の第1教師データを用いて第1分類器12bを学習させ、第2教師データDB12eに記憶されているT1CE画像の第2教師データを用いて第2分類器12dを学習させる。第1分類器12bの学習処理と第2分類器12dの学習処理とは同じ処理であり、図21には第1分類器12bの学習処理のみを示す。   FIG. 21 is a flowchart illustrating a procedure of a learning process performed by the learning device 10 according to the third embodiment. The learning device 10 of the present embodiment makes the first classifier 12b learn using the first teacher data of the T2-weighted image stored in the first teacher data DB 12c, and the T1CE stored in the second teacher data DB 12e. The second classifier 12d is trained using the second teacher data of the image. The learning process of the first classifier 12b and the learning process of the second classifier 12d are the same process, and FIG. 21 shows only the learning process of the first classifier 12b.

本実施形態の学習装置10において、制御部11は、第1教師データDB12cからT2強調画像の第1教師データを1つ取得する(S91)。第1教師データには、脳腫瘍の種別を示す情報とT2強調画像(スライス画像)とが含まれる。制御部11は、取得したT2強調画像から腫瘤領域(脳腫瘍領域)を抽出し(S92)、抽出した腫瘤領域に対して、所定の画素数の画素を含むパッチ画像を抽出する(S93)。そして、制御部11は、1つのパッチ画像と、第1教師データに含まれる脳腫瘍の種別を示す情報とを用いて、第1分類器12bを学習させる(S94)。ここでは、制御部11は、パッチ画像を第1分類器12bの入力層のノードに入力し、出力層において、このパッチ画像の脳腫瘍の種別に応じたノードの出力値が1.0に近づき、その他のノードの出力値が0に近づくように、第1分類器12bを学習させる。   In the learning device 10 of the present embodiment, the control unit 11 acquires one piece of the first teacher data of the T2-weighted image from the first teacher data DB 12c (S91). The first teacher data includes information indicating the type of brain tumor and a T2-weighted image (slice image). The control unit 11 extracts a tumor region (brain tumor region) from the acquired T2-weighted image (S92), and extracts a patch image including a predetermined number of pixels from the extracted tumor region (S93). Then, the control unit 11 makes the first classifier 12b learn using one patch image and information indicating the type of the brain tumor included in the first teacher data (S94). Here, the control unit 11 inputs the patch image to the node of the input layer of the first classifier 12b, and in the output layer, the output value of the node corresponding to the type of the brain tumor of this patch image approaches 1.0, The first classifier 12b is trained so that the output values of the other nodes approach zero.

制御部11は、ステップS93でT2強調画像から抽出した全てのパッチ画像に対して処理を終了したか否かを判断し(S95)、終了していないと判断した場合(S95:NO)、ステップS94の処理に戻り、未処理のパッチ画像を用いて第1分類器12bを学習させる(S94)。全てのパッチ画像に対して処理を終了したと判断した場合(95:YES)、制御部11は、第1教師データDB12cに記憶してある全ての第1教師データに基づく処理を終了したか否かを判断する(S96)。全ての第1教師データに基づく処理を終了していないと判断した場合(S96:NO)、制御部11は、ステップS91の処理に戻り、未処理の第1教師データを1つ取得する(S91)。制御部11は、取得した第1教師データに基づいてステップS92〜S95の処理を行う。全ての第1教師データに基づく処理を終了したと判断した場合(S96:YES)、制御部11は、第1分類器12bの学習処理を終了する。   The control unit 11 determines whether or not the processing has been completed for all the patch images extracted from the T2-weighted image in step S93 (S95). If it is determined that the processing has not been completed (S95: NO), the process proceeds to step S93. Returning to the processing of S94, the first classifier 12b is learned using the unprocessed patch image (S94). When it is determined that the processing has been completed for all patch images (95: YES), the control unit 11 determines whether the processing based on all the first teacher data stored in the first teacher data DB 12c has been completed. Is determined (S96). If it is determined that the processing based on all the first teacher data has not been completed (S96: NO), the control unit 11 returns to the processing of step S91 and acquires one unprocessed first teacher data (S91). ). The control unit 11 performs the processing of steps S92 to S95 based on the acquired first teacher data. When determining that the processing based on all the first teacher data has been completed (S96: YES), the control unit 11 ends the learning processing of the first classifier 12b.

本実施形態の学習装置10の制御部11は、図21に示す処理と同様の処理によって、第2教師データDB12eに記憶されているT1CE画像の第2教師データを用いて第2分類器12dを学習させる。なお、第2分類器12dの学習処理では、図21中のステップS91で、制御部11は、第2教師データDB12eからT1CE画像の第2教師データを取得する。またステップS94で、制御部11は、T1CE画像から抽出されたパッチ画像と、第2教師データに含まれる脳腫瘍の種別を示す情報とを用いて第2分類器12dを学習させる。上述した処理により、T2強調画像に基づいて患者の脳腫瘍の種別を判別する第1分類器12bと、T1CE画像に基づいて患者の脳腫瘍の種別を判別する第2分類器12dとを学習させることができる。よって、学習済みの第1分類器12b及び第2分類器12dが得られる。   The control unit 11 of the learning device 10 of the present embodiment performs the same process as the process illustrated in FIG. 21 to generate the second classifier 12d using the second teacher data of the T1CE image stored in the second teacher data DB 12e. Let them learn. In the learning process of the second classifier 12d, the control unit 11 acquires the second teacher data of the T1CE image from the second teacher data DB 12e in step S91 in FIG. In step S94, the control unit 11 causes the second classifier 12d to learn using the patch image extracted from the T1CE image and information indicating the type of brain tumor included in the second teacher data. By the above-described processing, the first classifier 12b that determines the type of the brain tumor of the patient based on the T2-weighted image and the second classifier 12d that determines the type of the brain tumor of the patient based on the T1CE image can be learned. it can. Therefore, the learned first classifier 12b and second classifier 12d are obtained.

図22及び図23は、実施形態3の特定装置20による特定処理の手順を示すフローチャートである。特定装置20の記憶部22には、学習装置10によって学習済みの第1分類器22b及び第2分類器22cが記憶されている。また、記憶部22には、診断対象の患者の脳のT2強調画像及びT1CE画像がそれぞれ複数枚ずつ記憶されている。図22に示す処理では、特定装置20の制御部21は、ステップS51〜S59の処理とステップS61〜S69の処理とを並列に実行するが、一方の処理を実行した後に他方の処理を実行してもよい。   FIG. 22 and FIG. 23 are flowcharts illustrating the procedure of the specifying process by the specifying device 20 of the third embodiment. The storage unit 22 of the identification device 20 stores the first classifier 22b and the second classifier 22c that have been learned by the learning device 10. The storage unit 22 stores a plurality of T2-weighted images and a plurality of T1CE images of the brain of the patient to be diagnosed. In the processing illustrated in FIG. 22, the control unit 21 of the identification device 20 executes the processing of steps S51 to S59 and the processing of steps S61 to S69 in parallel, but executes one processing and then executes the other processing. You may.

本実施形態において、特定装置20の制御部21は、診断対象の患者のT2強調画像のうちの1つを取得する(S51)。制御部21は、取得したT2強調画像から脳腫瘍領域を抽出し(S52)、抽出した脳腫瘍領域から複数のパッチ画像を抽出する(S53)。そして、制御部21は、1つのパッチ画像に対する脳腫瘍の種別を第1分類器22bにて判別し(S54)、判別結果を記憶部22に記憶する(S55)。判別結果とは、第1分類器22bから出力される脳腫瘍の種別毎の分類確率である。制御部21は、ステップS53でT2強調画像から抽出した全てのパッチ画像に対して処理を終了したか否かを判断し(S56)、終了していないと判断した場合(S56:NO)、ステップS54の処理に戻り、未処理のパッチ画像に対してステップS54〜S55の処理を行う。   In the present embodiment, the control unit 21 of the identification device 20 acquires one of the T2-weighted images of the patient to be diagnosed (S51). The control unit 21 extracts a brain tumor region from the acquired T2-weighted image (S52), and extracts a plurality of patch images from the extracted brain tumor region (S53). Then, the control unit 21 determines the type of the brain tumor for one patch image by the first classifier 22b (S54), and stores the determination result in the storage unit 22 (S55). The discrimination result is the classification probability for each type of brain tumor output from the first classifier 22b. The control unit 21 determines whether or not the processing has been completed for all the patch images extracted from the T2-weighted image in step S53 (S56). If it is determined that the processing has not been completed (S56: NO), the process proceeds to step S53. Returning to the processing of S54, the processing of steps S54 to S55 is performed on the unprocessed patch image.

全てのパッチ画像に対して処理を終了したと判断した場合(S56:YES)、制御部21は、記憶部22に記憶した各パッチ画像に対する脳腫瘍の種別毎の分類確率に基づいて、ステップS51で取得したT2強調画像(スライス画像)に対する脳腫瘍の種別毎の分類確率を算出する(S57)。例えば制御部21は、脳腫瘍の種別毎に、各パッチ画像に基づく分類確率の平均値を算出し、スライス画像(T2強調画像)に対する分類確率とする。制御部21は、1つのT2強調画像に対して算出した脳腫瘍の種別毎の分類確率を記憶部22に記憶しておく。   If it is determined that the processing has been completed for all patch images (S56: YES), the control unit 21 determines in step S51 based on the classification probability for each type of brain tumor for each patch image stored in the storage unit 22. The classification probability for each type of brain tumor with respect to the acquired T2-weighted image (slice image) is calculated (S57). For example, the control unit 21 calculates an average value of classification probabilities based on each patch image for each type of brain tumor, and sets the average value as the classification probability for the slice image (T2-weighted image). The control unit 21 stores in the storage unit 22 the classification probabilities for each type of brain tumor calculated for one T2-weighted image.

制御部21は、全てのT2強調画像に対して処理を終了したか否かを判断する(S58)。全てのT2強調画像に対して処理を終了していないと判断した場合(S58:NO)、制御部21は、ステップS51の処理に戻り、未処理のT2強調画像を1つ取得する(S51)。制御部21は、取得したT2強調画像に対してステップS52〜S57の処理を行う。全てのT2強調画像に対して処理を終了したと判断した場合(S58:YES)、制御部21は、それぞれのT2強調画像に対する脳腫瘍の種別毎の分類確率に基づいて、この患者に対する脳腫瘍の種別毎の分類確率を算出する(S59)。ここでは、制御部21は、脳腫瘍の種別毎に、それぞれのT2強調画像に基づく分類確率から、それぞれのT2強調画像中の脳腫瘍領域の大きさに応じた重み係数を用いた加重平均値を算出し、患者に対する分類確率とする。   The control unit 21 determines whether the processing has been completed for all T2-weighted images (S58). When it is determined that the processing has not been completed for all the T2-weighted images (S58: NO), the control unit 21 returns to the processing of step S51, and acquires one unprocessed T2-weighted image (S51). . The control unit 21 performs the processing of steps S52 to S57 on the acquired T2-weighted image. If it is determined that the processing has been completed for all T2-weighted images (S58: YES), the control unit 21 determines the type of brain tumor for this patient based on the classification probability for each type of brain tumor for each T2-weighted image. A classification probability is calculated for each (S59). Here, the control unit 21 calculates a weighted average value using a weight coefficient according to the size of the brain tumor region in each T2-weighted image from the classification probability based on each T2-weighted image for each type of brain tumor. And the classification probability for the patient.

一方、制御部21は、患者のT1CE画像のうちの1つを取得し(S61)、取得したT1CE画像から脳腫瘍領域を抽出し(S62)、抽出した脳腫瘍領域から複数のパッチ画像を抽出する(S63)。そして、制御部21は、1つのパッチ画像に対する脳腫瘍の種別を第2分類器22cにて判別し(S64)、判別結果を記憶部22に記憶する(S65)。制御部21は、全てのパッチ画像に対して処理を終了したか否かを判断し(S66)、終了していないと判断した場合(S66:NO)、ステップS64の処理に戻り、未処理のパッチ画像に対してステップS64〜S65の処理を行う。   On the other hand, the control unit 21 acquires one of the T1CE images of the patient (S61), extracts a brain tumor region from the acquired T1CE image (S62), and extracts a plurality of patch images from the extracted brain tumor region (S61). S63). Then, the control unit 21 determines the type of the brain tumor for one patch image by the second classifier 22c (S64), and stores the determination result in the storage unit 22 (S65). The control unit 21 determines whether or not the processing has been completed for all the patch images (S66). If it is determined that the processing has not been completed (S66: NO), the control unit 21 returns to the processing of step S64 and returns to the unprocessed state The processing of steps S64 to S65 is performed on the patch image.

全てのパッチ画像に対して処理を終了したと判断した場合(S66:YES)、制御部21は、記憶部22に記憶した各パッチ画像に対する脳腫瘍の種別毎の分類確率に基づいて、ステップS61で取得したT1CE画像(スライス画像)に対する脳腫瘍の種別毎の分類確率を算出する(S67)。制御部21は、全てのT1CE画像に対して処理を終了したか否かを判断する(S68)。全てのT1CE画像に対して処理を終了していないと判断した場合(S68:NO)、制御部21は、ステップS61の処理に戻り、未処理のT1CE画像を1つ取得する(S61)。制御部21は、取得したT1CE画像に対して、ステップS62〜S67の処理を行う。全てのT1CE画像に対して処理を終了したと判断した場合(S68:YES)、制御部21は、各T1CE画像に対する脳腫瘍の種別毎の分類確率に基づいて、この患者に対する脳腫瘍の種別毎の分類確率を算出する(S69)。   If it is determined that the processing has been completed for all patch images (S66: YES), the control unit 21 determines in step S61 based on the classification probability of each type of brain tumor for each patch image stored in the storage unit 22. The classification probability for each type of brain tumor with respect to the acquired T1CE image (slice image) is calculated (S67). The control unit 21 determines whether the processing has been completed for all T1CE images (S68). When it is determined that the processing has not been completed for all the T1CE images (S68: NO), the control unit 21 returns to the processing of step S61 and acquires one unprocessed T1CE image (S61). The control unit 21 performs the processing of steps S62 to S67 on the acquired T1CE image. When it is determined that the processing has been completed for all T1CE images (S68: YES), the control unit 21 classifies the brain tumor for each patient based on the classification probability for each type of brain tumor for each T1CE image. The probability is calculated (S69).

制御部21は、ステップS59でT2強調画像に基づいて算出した脳腫瘍の種別毎の分類確率と、ステップS69でT1CE画像に基づいて算出した脳腫瘍の種別毎の分類確率とを統合して、この患者に対する脳腫瘍の種別毎の分類確率を算出する(S71)。制御部21は、算出した患者に対する脳腫瘍の種別毎の分類確率を判別結果として表示するための表示情報を生成する(S72)。そして、制御部21は、生成した表示情報に基づいて、特定装置20による判別結果を表示部23に表示する(S73)。これにより、例えば図20に示すような画面が表示部23に表示され、特定装置20による判別結果が通知される。   The control unit 21 integrates the classification probability for each type of brain tumor calculated based on the T2-weighted image in step S59 and the classification probability for each type of brain tumor calculated based on the T1CE image in step S69, and Then, the classification probability for each type of brain tumor is calculated (S71). The control unit 21 generates display information for displaying the calculated classification probability of each type of brain tumor for the patient as a determination result (S72). And the control part 21 displays the determination result by the specific device 20 on the display part 23 based on the generated display information (S73). Thereby, for example, a screen as shown in FIG. 20 is displayed on the display unit 23, and the result of the determination by the identifying device 20 is notified.

本実施形態では、実施形態1と同様の効果が得られる。即ち、本実施形態では、患者のT2強調画像及びT1CE画像に基づいて、少なくとも5種別に分類される脳腫瘍のそれぞれについて、この患者の脳腫瘍である可能性を通知できる。よって、医師は、T2強調画像及びT1CE画像に基づいてどういった脳腫瘍であるかを診断する際に考慮でき、医師による診断を支援できる。医師が全ての医用画像を目視で確認することは困難であるが、特定装置20は全ての医用画像を用いて判別を行うので、医用画像を有効に利用できる。また、特定装置20による判別結果として、患者の脳腫瘍である可能性が高い脳腫瘍であることを判断し易いスライス画像(T2強調画像又はT1CE画像)を通知することができる。よって、通知されたスライス画像に基づいて診断を行うことができた場合、医師は全ての画像を確認する必要がなく、医師による診断の負担を軽減できる。   In the present embodiment, the same effects as in the first embodiment can be obtained. That is, in this embodiment, based on the T2-weighted image and the T1CE image of the patient, it is possible to notify the possibility of the brain tumor of this patient for each of at least five types of brain tumors. Therefore, the doctor can consider when diagnosing what kind of brain tumor is based on the T2-weighted image and the T1CE image, and can support the diagnosis by the doctor. Although it is difficult for a doctor to visually check all medical images, the identification device 20 performs determination using all medical images, so that the medical images can be used effectively. In addition, a slice image (T2-weighted image or T1CE image) that makes it easy to determine that the brain tumor is likely to be a patient's brain tumor can be notified as the determination result by the specifying device 20. Therefore, when the diagnosis can be performed based on the notified slice image, the doctor does not need to check all the images, and the burden of the diagnosis on the doctor can be reduced.

本実施形態の特定装置20は、第1分類器22bを用いたT2強調画像に基づく判別結果と、第2分類器22cを用いたT1CE画像に基づく判別結果とを統合して、患者の脳腫瘍の種別を判別する。これにより、判別精度が向上する。出願人は、特定装置20による判別処理の精度を評価するための評価実験を行った。図24はテストデータの構成を示す図表、図25は特定装置20による判別精度を示す図表である。評価実験では、膠芽腫、悪性リンパ腫、髄膜腫、転移性腫瘍及び神経鞘腫のそれぞれの脳腫瘍に対して、図24に示すスライス画像数のT2強調画像及びT1CE画像(スライス画像)をそれぞれテストデータとして用いた。また、テストデータのT2強調画像及びT1CE画像のそれぞれから、図24に示すパッチ画像数のパッチ画像が抽出されて判別処理に用いられた。   The identification device 20 of the present embodiment integrates the determination result based on the T2 weighted image using the first classifier 22b and the determination result based on the T1CE image using the second classifier 22c, and obtains the brain tumor of the patient. Determine the type. Thereby, the discrimination accuracy is improved. The applicant has conducted an evaluation experiment for evaluating the accuracy of the discrimination processing by the identification device 20. FIG. 24 is a chart showing the configuration of the test data, and FIG. 25 is a chart showing the discrimination accuracy of the identification device 20. In the evaluation experiment, for each of the brain tumors of glioblastoma, malignant lymphoma, meningioma, metastatic tumor, and schwannoma, the T2 weighted images and the T1CE images (slice images) of the number of slice images shown in FIG. Used as test data. Also, patch images of the number of patch images shown in FIG. 24 were extracted from each of the T2-weighted image and the T1CE image of the test data and used for the discrimination processing.

特定装置20は、図24に示すようなテストデータを用いて判別処理を行い、図25に示すような結果が得られた。感度は、それぞれの患者のT2強調画像及びT1CE画像(テストデータ)に基づいて、正解の脳腫瘍に対して正解の脳腫瘍であると判別できた割合(正解の脳腫瘍に対して最高の分類確率を出力できた割合)を示す。特異度は、それぞれの患者のT2強調画像及びT1CE画像に基づいて、不正解の脳腫瘍に対して不正解の脳腫瘍であると判別できた割合(不正解の脳腫瘍に対して低い分類確率を出力できた割合)を示す。分類精度は、各テストデータの患者に対して、T2強調画像に基づいて正解の脳腫瘍であると判別できた割合、T1CE画像に基づいて正解の脳腫瘍であると判別できた割合、第1分類器22b及び第2分類器22cによる判別結果を統合した分類確率に基づいて正解の脳腫瘍であると判別できた割合をそれぞれ示す。図25に示す結果では、T2強調画像に基づいて正解の脳腫瘍を判別できた割合及びT1CE画像に基づいて正解の脳腫瘍を判別できた割合と比較して、第1分類器22b及び第2分類器22cによる判別結果を統合して最終的に正解の脳腫瘍を判別できた割合が高い値となっている。よって、異なる医用画像に対して、それぞれの医用画像用の分類器を用いた判別処理を行い、それぞれの判別結果を統合して最終的な判別を行うことによって、判別精度を向上させることができる。   The identification device 20 performs the determination process using the test data as shown in FIG. 24, and the result as shown in FIG. 25 is obtained. The sensitivity is the ratio of the correct brain tumor to the correct brain tumor based on the T2-weighted image and T1CE image (test data) of each patient (the highest classification probability is output for the correct brain tumor) Percentage). Based on the T2-weighted image and T1CE image of each patient, the specificity is the percentage of incorrect brain tumors determined to be incorrect brain tumors (low classification probabilities can be output for incorrect brain tumors). Percentage). The classification accuracy is, for each test data patient, the proportion of the subject that could be determined to be a correct brain tumor based on the T2-weighted image, the proportion that the subject could be determined to be the correct brain tumor based on the T1CE image, and the first classifier. The percentages at which it is possible to determine that the brain tumor is a correct brain tumor based on the classification probabilities obtained by integrating the determination results obtained by the second classifier 22b and the second classifier 22c are shown. In the results shown in FIG. 25, the first classifier 22b and the second classifier were compared by comparing the rate at which a correct brain tumor could be determined based on the T2-weighted image and the rate at which a correct brain tumor could be determined based on the T1CE image. A high value is obtained by integrating the discrimination results by 22c and finally discriminating a correct brain tumor. Therefore, discrimination processing using different medical image classifiers is performed on different medical images, and the final discrimination is performed by integrating the respective discrimination results, thereby improving the discrimination accuracy. .

本実施形態では、複数のスライス画像(T2強調画像/T1CE画像)のそれぞれに基づいて算出した脳腫瘍の種別毎の分類確率に対して、それぞれの画像中の脳腫瘍領域の大きさに応じた重み付けを行って、患者に対する脳腫瘍の種別毎の分類確率を算出した。画像中の脳腫瘍領域が大きいほど、このスライス画像から算出した脳腫瘍の種別毎の分類確率の信頼性が高いと考えられる。よって、画像中の脳腫瘍領域が大きいほど大きい重み係数とすることにより、算出される患者における脳腫瘍の種別毎の分類確率の信頼性を向上させることができる。   In the present embodiment, the classification probability for each type of brain tumor calculated based on each of the plurality of slice images (T2-weighted image / T1CE image) is weighted according to the size of the brain tumor region in each image. Then, classification probabilities for each type of brain tumor for the patient were calculated. It is considered that the larger the brain tumor region in the image, the higher the reliability of the classification probability for each type of brain tumor calculated from this slice image. Therefore, the reliability of the classification probability for each type of brain tumor in the calculated patient can be improved by using a larger weighting factor as the brain tumor region in the image is larger.

本実施形態においても、診断に用いる医用画像はT2強調画像及びT1CE画像に限定されない。また、分類器22b,22cによる判別対象の脳腫瘍は、膠芽腫、悪性リンパ腫、髄膜腫、転移性腫瘍、神経鞘腫の5種別に限定されない。これら以外の脳腫瘍についても分類器22b,22cに学習させることによって判別可能となる。また、脳腫瘍以外の疾病についても、それぞれの教師データを用いて分類器に学習させることによって判別可能となる。また、本実施形態においても、学習装置10は、教師データのT2強調画像及びT1CE画像をそのまま用いて分類器12b,12dを学習させてもよく、特定装置20は、診断対象の患者のT2強調画像及びT1CE画像をそのまま用いて分類器22b,22cによる判別処理を行ってもよい。また、本実施形態の診断支援システムを、3種別以上の画像を用いて患者の脳腫瘍の種別を判別するように構成してもよい。   Also in the present embodiment, the medical images used for diagnosis are not limited to the T2-weighted images and the T1CE images. The brain tumors to be determined by the classifiers 22b and 22c are not limited to five types: glioblastoma, malignant lymphoma, meningioma, metastatic tumor, and schwannoma. Brain tumors other than these can be discriminated by learning the classifiers 22b and 22c. Also, diseases other than brain tumors can be discriminated by learning the classifier using the respective teacher data. Also in the present embodiment, the learning device 10 may cause the classifiers 12b and 12d to learn using the T2 weighted image and the T1CE image of the teacher data as they are, and the identification device 20 determines the T2 weighted value of the patient to be diagnosed. The classification process by the classifiers 22b and 22c may be performed using the image and the T1CE image as they are. Further, the diagnosis support system of the present embodiment may be configured to determine the type of the brain tumor of the patient using three or more types of images.

(実施形態4)
乳房腫瘤の疑いがある患者の乳房をマンモグラフィで撮影した医用画像(マンモグラフィ画像)に基づいて腫瘤であるか否かを判別する診断支援システムについて説明する。本実施形態の診断支援システムの各装置は、実施形態1の各装置と同じ構成を有するので、構成については説明を省略する。本実施形態では、1人の同一患者の左右の乳房をそれぞれ撮影した2枚のマンモグラフィ画像(以下、左乳房画像及び右乳房画像という)と、2枚のマンモグラフィ画像の差分画像との2種類の画像を用いて、撮影対象の状態が腫瘤であるか否かを判別する。
(Embodiment 4)
A diagnosis support system that determines whether a breast is a tumor based on a medical image (mammography image) obtained by mammography of a breast of a patient suspected of having a breast mass will be described. Since each device of the diagnosis support system of the present embodiment has the same configuration as each device of the first embodiment, the description of the configuration will be omitted. In the present embodiment, two types of mammography images (hereinafter, referred to as a left breast image and a right breast image) obtained by imaging left and right breasts of one and the same patient, respectively, and a difference image between the two mammography images are provided. Using the image, it is determined whether the state of the imaging target is a tumor.

図26はマンモグラフィ画像の例を示す模式図、図27は差分画像の例を示す模式図である。図26は1人の患者の左乳房画像及び右乳房画像を示し、図26の左側に右乳房画像を、右側に左乳房画像をそれぞれ示す。本実施形態では、教師データを生成する際に、左右乳房のいずれかに腫瘤を有する患者の乳房画像において、腫瘤がある乳房画像(左乳房画像又は右乳房画像)から腫瘤領域を含む腫瘤画像T1を抽出し、腫瘤がない乳房画像(右乳房画像又は左乳房画像)から、腫瘤画像T1に対応する対応画像T2を抽出する。腫瘤画像T1と対応画像T2とは、患者の身体の上下方向の中心軸に対して左右対称の領域の画像である。また、本実施形態では、腫瘤がある乳房画像中の正常領域を含む正常画像N1を抽出し、腫瘤がない乳房画像から、正常画像N1に対応する対応画像N2を抽出する。正常画像N1及び対応画像N2も患者の身体において左右対称の領域の画像である。図26に示す例では、右乳房に腫瘤があるので、右乳房画像から腫瘤画像T1と正常画像N1とを抽出し、左乳房画像から対応画像T2,N2を抽出する。腫瘤画像T1、正常画像N1及び対応画像T2,N2のサイズは例えば128画素×128画素とすることができるが、これに限定されない。   FIG. 26 is a schematic diagram illustrating an example of a mammography image, and FIG. 27 is a schematic diagram illustrating an example of a difference image. FIG. 26 shows a left breast image and a right breast image of one patient. The left breast image and the right breast image are shown on the left and right sides of FIG. 26, respectively. In the present embodiment, when generating teacher data, in a breast image of a patient having a tumor in one of the left and right breasts, a tumor image T1 including a tumor region from a breast image having a tumor (left breast image or right breast image) Is extracted, and a corresponding image T2 corresponding to the tumor image T1 is extracted from a breast image without a tumor (right breast image or left breast image). The tumor image T1 and the corresponding image T2 are images of a region which is symmetrical with respect to the center axis of the patient's body in the vertical direction. In the present embodiment, a normal image N1 including a normal region in a breast image having a tumor is extracted, and a corresponding image N2 corresponding to the normal image N1 is extracted from a breast image having no tumor. The normal image N1 and the corresponding image N2 are also images of a symmetrical region in the patient's body. In the example shown in FIG. 26, since there is a tumor in the right breast, the tumor image T1 and the normal image N1 are extracted from the right breast image, and the corresponding images T2 and N2 are extracted from the left breast image. The size of the tumor image T1, the normal image N1, and the corresponding images T2 and N2 can be, for example, 128 pixels × 128 pixels, but is not limited thereto.

本実施形態では、抽出した腫瘤画像T1及び対応画像T2の差分画像T3を生成し、抽出した正常画像N1及び対応画像N2の差分画像N3を生成する。例えば、腫瘤画像T1及び正常画像N1中の各画素値から対応画像T2,N2中の各画素値を引いた各値の絶対値を差分画像T3,N3の各画素値とする。図27Aは腫瘤画像T1、対応画像T2、腫瘤画像T1及び対応画像T2の差分画像T3の例を示し、図27Bは正常画像N1、対応画像N2、正常画像N1及び対応画像N2の差分画像N3の例を示す。
第1教師データDB12cには、腫瘤領域の画像として、図27Aの左側に示すような腫瘤画像T1(マンモグラフィ画像)が多数蓄積されており、正常領域の画像として、図27Bの左側に示すような正常画像N1(マンモグラフィ画像)が多数蓄積されている。第1教師データDB12cにおいて、1つのマンモグラフィ画像と、この画像に対応付けられた腫瘤又は正常を示す情報とのセットを第1教師データという。第2教師データDB12eには、腫瘤領域の画像として、図27Aの右側に示すような差分画像T3が多数蓄積されており、正常領域の画像として、図27Bの右側に示すような差分画像N3が多数蓄積されている。第2教師データDB12eにおいて、1つの差分画像と、この差分画像に対応付けられた腫瘤又は正常を示す情報とのセットを第2教師データという。学習装置10は、マンモグラフィ画像による第1教師データに基づいて第1分類器12bを学習させ、マンモグラフィ画像から生成された差分画像による第2教師データに基づいて第2分類器12dを学習させる。
In the present embodiment, a difference image T3 between the extracted tumor image T1 and the corresponding image T2 is generated, and a difference image N3 between the extracted normal image N1 and the corresponding image N2 is generated. For example, the absolute value of each value obtained by subtracting each pixel value in the corresponding images T2 and N2 from each pixel value in the tumor image T1 and the normal image N1 is set as each pixel value of the difference images T3 and N3. FIG. 27A shows an example of a tumor image T1, a corresponding image T2, and a difference image T3 of the tumor image T1 and the corresponding image T2, and FIG. 27B shows a normal image N1, a corresponding image N2, and a difference image N3 of the normal image N1 and the corresponding image N2. Here is an example.
In the first teacher data DB 12c, many tumor images T1 (mammography images) as shown on the left side of FIG. 27A are accumulated as images of the tumor region, and as images of normal regions, as shown on the left side of FIG. 27B. Many normal images N1 (mammography images) are accumulated. In the first teacher data DB 12c, a set of one mammography image and information indicating a tumor or normal associated with the image is referred to as first teacher data. In the second teacher data DB 12e, a large number of difference images T3 as shown on the right side of FIG. 27A are accumulated as images of the tumor region, and a difference image N3 as shown on the right side of FIG. Many are accumulated. In the second teacher data DB 12e, a set of one difference image and information indicating a tumor or normal associated with the difference image is referred to as second teacher data. The learning device 10 makes the first classifier 12b learn based on the first teacher data based on the mammography image, and makes the second classifier 12d learn based on the second teacher data based on the difference image generated from the mammography image.

本実施形態の診断支援システムでは、判別対象の状態として、撮影対象である病変が腫瘤であるか正常であるか(腫瘤でないか)を判別する。よって、第1分類器12b,22bは、患者のマンモグラフィ画像に基づいて、撮影対象の病変が腫瘤であるか正常であるかを判別する分類器である。第2分類器12d,22cは、患者の差分画像に基づいて、撮影対象の病変が腫瘤であるか正常であるかを判別する分類器である。   In the diagnosis support system of the present embodiment, it is determined whether the lesion to be imaged is a tumor or a normal tumor (not a tumor) as a determination target state. Therefore, the first classifiers 12b and 22b are classifiers that determine whether the lesion to be imaged is a tumor or a normal lesion based on the mammographic image of the patient. The second classifiers 12d and 22c are classifiers that determine whether the lesion to be imaged is a tumor or a normal lesion based on the difference image of the patient.

本実施形態の学習装置10では、制御部11は学習プログラム12aを実行することによって図5に示した各機能を実現する。なお、本実施形態において、第1教師データ取得部101は、第1教師データDB12cからマンモグラフィ画像による第1教師データを取得し、第1学習部104は、第1教師データに含まれる腫瘤又は正常を示す情報とマンモグラフィ画像とに基づいて第1分類器12bを学習させる。また、第2教師データ取得部111は、第2教師データDB12eから差分画像による第2教師データを取得し、第2学習部114は、第2教師データに含まれる腫瘤又は正常を示す情報と差分画像とに基づいて第2分類器12dを学習させる。   In the learning device 10 of the present embodiment, the control unit 11 realizes each function illustrated in FIG. 5 by executing the learning program 12a. In the present embodiment, the first teacher data obtaining unit 101 obtains the first teacher data based on the mammography image from the first teacher data DB 12c. The first classifier 12b is trained on the basis of the information indicating the above and the mammography image. Further, the second teacher data acquiring unit 111 acquires second teacher data based on the difference image from the second teacher data DB 12e, and the second learning unit 114 compares the second teacher data with the information indicating the tumor or normal contained in the second teacher data. The second classifier 12d is trained based on the image.

本実施形態の特定装置20では、制御部21は特定プログラム22aを実行することによって図8に示した各機能を実現する。なお、本実施形態において、第1画像取得部201は、診断対象の患者のマンモグラフィ画像を取得し、第1腫瘤領域抽出部202は、マンモグラフィ画像から腫瘤領域を抽出する。第1判別部205は、マンモグラフィ画像から抽出された腫瘤領域に対して第1分類器22bが出力した腫瘤又は正常に対する分類確率を取得する。また、第2画像取得部211は、診断対象の患者の差分画像を取得し、第2腫瘤領域抽出部212は、差分画像から腫瘤領域を抽出する。第2判別部215は、差分画像から抽出された腫瘤領域に対して第2分類器22cが出力した腫瘤又は正常に対する分類確率を取得する。その他の機能は実施形態1と同様であるので説明を省略する。   In the identification device 20 of the present embodiment, the control unit 21 realizes each function shown in FIG. 8 by executing the identification program 22a. In the present embodiment, the first image acquisition unit 201 acquires a mammography image of a patient to be diagnosed, and the first tumor region extraction unit 202 extracts a tumor region from the mammography image. The first determination unit 205 acquires the classification probability for the tumor or normal output by the first classifier 22b for the tumor region extracted from the mammography image. Further, the second image acquisition unit 211 acquires a difference image of the patient to be diagnosed, and the second tumor region extraction unit 212 extracts a tumor region from the difference image. The second determination unit 215 acquires the classification probability for the tumor or normal output from the second classifier 22c for the tumor region extracted from the difference image. The other functions are the same as those of the first embodiment, and a description thereof will be omitted.

本実施形態において、学習装置10は、図10に示した処理と同様の処理を行う。なお、本実施形態では、図10中のステップS11で、制御部11は、第1教師データDB12cからマンモグラフィ画像による第1教師データを取得し、ステップS12で、第1教師データに含まれる腫瘤又は正常を示す情報とマンモグラフィ画像とを用いて、第1分類器12bを学習させる。その他の処理は実施形態1と同様であるので説明を省略する。また、本実施形態の学習装置10の制御部11は、図10に示す処理と同様の処理によって、第2教師データDB12eに記憶されている差分画像の第2教師データを用いて第2分類器12dを学習させる。これにより、学習済みの第1分類器12b及び第2分類器12dが得られる。   In the present embodiment, the learning device 10 performs the same processing as the processing illustrated in FIG. In the present embodiment, at step S11 in FIG. 10, the control unit 11 acquires first teacher data based on a mammography image from the first teacher data DB 12c, and at step S12, calculates a tumor or The first classifier 12b is trained using the information indicating normality and the mammography image. Other processes are the same as those in the first embodiment, and a description thereof will not be repeated. In addition, the control unit 11 of the learning device 10 of the present embodiment executes the second classifier using the second teacher data of the difference image stored in the second teacher data DB 12e by the same process as the process illustrated in FIG. Train 12d. Thereby, the learned first classifier 12b and second classifier 12d are obtained.

本実施形態において、特定装置20は、図11に示した処理と同様の処理を行う。なお、本実施形態では、図11中のステップS21で、制御部21は、診断対象の患者のマンモグラフィ画像を取得し、ステップS22で、取得したマンモグラフィ画像から腫瘤領域を抽出する。またステップS23で、制御部21は、マンモグラフィ画像から抽出した腫瘤領域に対して、病変の状態が腫瘤であるか正常であるかを第1分類器22bにて判別する。また、制御部21は、ステップS31で診断対象の患者の差分画像を取得し、ステップS32で、取得した差分画像から腫瘤領域を抽出する。またステップS33で、制御部21は、差分画像から抽出した腫瘤領域に対して、病変の状態が腫瘤であるか正常であるかを第2分類器22cにて判別する。その他の処理は実施形態1と同様であるので説明を省略する。   In the present embodiment, the identification device 20 performs the same processing as the processing illustrated in FIG. In the present embodiment, the control unit 21 acquires a mammography image of a patient to be diagnosed in step S21 in FIG. 11, and extracts a tumor region from the acquired mammography image in step S22. In step S23, the control unit 21 uses the first classifier 22b to determine whether the state of the lesion is a tumor or a normal lesion in the tumor region extracted from the mammography image. The control unit 21 acquires a difference image of the patient to be diagnosed in step S31, and extracts a tumor region from the acquired difference image in step S32. In step S33, the control unit 21 uses the second classifier 22c to determine whether the state of the lesion is a tumor or a normal lesion in the tumor region extracted from the difference image. Other processes are the same as those in the first embodiment, and a description thereof will not be repeated.

本実施形態では、上述した実施形態1と同様の効果が得られる。よって、患者の病変の状態が乳癌腫瘤である可能性及び正常である可能性を通知できるので、医師は、マンモグラフィ画像に基づいて病変の状態を診断する際に考慮でき、医師による診断を支援できる。また、第1分類器22bを用いたマンモグラフィ画像に基づく判別結果と、第2分類器22cを用いた差分画像に基づく判別結果とを統合して、患者の病変が腫瘤であるか否かを判別するので、判別精度が向上する。   In the present embodiment, the same effects as those of the above-described first embodiment can be obtained. Therefore, it is possible to notify the possibility that the state of the lesion of the patient is a breast cancer mass and the possibility that the state is normal, so that the doctor can consider when diagnosing the state of the lesion based on the mammography image and can assist the diagnosis by the doctor . Further, the determination result based on the mammography image using the first classifier 22b and the determination result based on the difference image using the second classifier 22c are integrated to determine whether the patient's lesion is a tumor. Therefore, the discrimination accuracy is improved.

(実施形態5)
実施形態1における特定装置20の変形例について説明する。本実施形態の診断支援システムの各装置は、実施形態1の各装置と同じ構成を有するので、構成については説明を省略する。図28は、実施形態5の特定装置20の制御部21によって実現される機能を示すブロック図である。本実施形態の特定装置20の制御部21は、特定プログラム22aを実行した場合、図8に示す各機能のほかに、第1腫瘤検出部206及び第2腫瘤検出部216の各機能を実現する。図28では、第1画像取得部201、第1腫瘤領域抽出部202、第2画像取得部211、第2腫瘤領域抽出部212、第1腫瘤検出部206及び第2腫瘤検出部216以外の機能の図示を省略する。
(Embodiment 5)
A modification of the specifying device 20 according to the first embodiment will be described. Since each device of the diagnosis support system of the present embodiment has the same configuration as each device of the first embodiment, the description of the configuration will be omitted. FIG. 28 is a block diagram illustrating functions realized by the control unit 21 of the specifying device 20 according to the fifth embodiment. When the specific program 22a is executed, the control unit 21 of the specific device 20 according to the present embodiment realizes the functions of the first mass detection unit 206 and the second mass detection unit 216 in addition to the functions illustrated in FIG. . In FIG. 28, functions other than the first image acquisition unit 201, the first mass region extraction unit 202, the second image acquisition unit 211, the second mass region extraction unit 212, the first mass detection unit 206, and the second mass detection unit 216 Are not shown.

本実施形態の特定装置20において、第1腫瘤検出部206は、第1画像取得部201が取得したガボール画像に対して、腫瘤の疑いがある腫瘤領域の有無を検出する。なお、腫瘤領域とは、第1分類器22bによって腫瘤か否かの判別が可能な腫瘤の領域である。第1腫瘤検出部206は、例えばディープラーニングによる学習済みの認識モデルを用いて、第1画像取得部201が取得したガボール画像中の腫瘤領域を検出する。よって、本実施形態の第1腫瘤領域抽出部202は、第1画像取得部201が取得したガボール画像から、第1腫瘤検出部206が検出した腫瘤領域を抽出する。同様に、第2腫瘤検出部216は、第2画像取得部211が取得したアイリス画像に対して腫瘤領域の有無を検出する。よって、本実施形態の第2腫瘤領域抽出部212は、第2画像取得部211が取得したアイリス画像から、第2腫瘤検出部216が検出した腫瘤領域を抽出する。   In the identification device 20 of the present embodiment, the first tumor detection unit 206 detects the presence or absence of a tumor region suspected of being a tumor in the Gabor image acquired by the first image acquisition unit 201. The tumor region is a region of a tumor in which the first classifier 22b can determine whether or not the tumor is a tumor. The first tumor detection unit 206 detects a tumor region in the Gabor image acquired by the first image acquisition unit 201, for example, using a recognition model that has been learned by deep learning. Therefore, the first tumor region extraction unit 202 of the present embodiment extracts the tumor region detected by the first tumor detection unit 206 from the Gabor image acquired by the first image acquisition unit 201. Similarly, the second tumor detection unit 216 detects the presence or absence of a tumor region in the iris image acquired by the second image acquisition unit 211. Therefore, the second tumor region extraction unit 212 of the present embodiment extracts the tumor region detected by the second tumor detection unit 216 from the iris image acquired by the second image acquisition unit 211.

図29は、実施形態5の特定装置20による特定処理の手順の一部を示すフローチャートである。図29に示す処理は、図11に示した実施形態1の処理において、ステップS21,S22の処理の間にステップS81,S82の処理を追加し、ステップS31,S32の処理の間にステップS83,S84の処理を追加したものである。図29では、図11中のステップS21,S22,S31,S32以外のステップの図示を省略する。   FIG. 29 is a flowchart illustrating a part of the procedure of the specifying process by the specifying device 20 of the fifth embodiment. The processing shown in FIG. 29 is different from the processing of the first embodiment shown in FIG. 11 in that steps S81 and S82 are added between steps S21 and S22, and steps S83 and S83 are added between steps S31 and S32. This is an added step of S84. 29, illustration of steps other than steps S21, S22, S31, and S32 in FIG. 11 is omitted.

本実施形態の特定装置20では、制御部21は、診断対象の患者のガボール画像を取得し(S21)、取得したガボール画像に対して、乳房腫瘤の領域を検出する検出処理を実行する(S81)。制御部21は、検出処理によって腫瘤領域を検出できたか否かを判断し(S82)、検出できたと判断した場合(S82:YES)、取得したガボール画像から、ステップS81で検出した腫瘤領域を抽出し(S22)、ステップS23以降の処理を行う。ガボール画像中に腫瘤領域を検出できないと判断した場合(S82:NO)、制御部21は、このガボール画像に対する以降の処理を終了する。また、制御部21は、診断対象の患者のアイリス画像を取得し(S31)、取得したアイリス画像に対して、乳房腫瘤の領域を検出する検出処理を実行する(S83)。制御部21は、検出処理によって腫瘤領域を検出できたか否かを判断し(S84)、検出できたと判断した場合(S84:YES)、取得したアイリス画像から、ステップS83で検出した腫瘤領域を抽出し(S32)、ステップS33以降の処理を行う。アイリス画像中に腫瘤領域を検出できないと判断した場合(S84:NO)、制御部21は、このアイリス画像に対する以降の処理を終了する。   In the identification device 20 of the present embodiment, the control unit 21 acquires a Gabor image of a patient to be diagnosed (S21), and executes a detection process for detecting an area of a breast mass on the acquired Gabor image (S81). ). The control unit 21 determines whether or not the tumor area has been detected by the detection processing (S82). If it is determined that the tumor area has been detected (S82: YES), the control unit 21 extracts the tumor area detected in step S81 from the acquired Gabor image. Then (S22), the processing after step S23 is performed. When it is determined that the tumor region cannot be detected in the Gabor image (S82: NO), the control unit 21 ends the subsequent processing on the Gabor image. Further, the control unit 21 acquires an iris image of the patient to be diagnosed (S31), and executes a detection process for detecting a region of a breast mass on the acquired iris image (S83). The control unit 21 determines whether or not the tumor area has been detected by the detection processing (S84). If it is determined that the tumor area has been detected (S84: YES), the control unit 21 extracts the tumor area detected in step S83 from the acquired iris image. Then (S32), the processing after step S33 is performed. When it is determined that the tumor region cannot be detected in the iris image (S84: NO), the control unit 21 ends the subsequent processing on the iris image.

本実施形態では、上述した実施形態1と同様の効果が得られる。また本実施形態では、診断対象の医用画像(ガボール画像及びアイリス画像)中に腫瘤領域が有るか否かを判断し、有る場合に、この腫瘤領域(医用画像)に基づく判別処理を行う。よって、例えば健康診断や脳ドック等で多数の患者から撮影された膨大な医用画像を医師が確認する前に、特定装置20による判別処理によって、何らかの腫瘤を有する可能性のある患者を抽出することができる。よって、医師は、何らかの腫瘤を有する可能性が高い患者の医用画像を優先的に確認することができ、医師による診断の負担を軽減できると共に、診断漏れを抑制できる。本実施形態の構成は実施形態2〜4にも適用可能であり、実施形態2〜4に適用した場合であっても同様の効果が得られる。   In the present embodiment, the same effects as those of the above-described first embodiment can be obtained. Further, in the present embodiment, it is determined whether or not a tumor region is present in the medical image (Gabor image and iris image) to be diagnosed, and if so, a determination process based on the tumor region (medical image) is performed. Therefore, for example, before the physician checks a huge medical image taken from a large number of patients by a medical examination, a brain dock, or the like, a patient having a possibility of having a certain mass is extracted by the determination processing by the identification device 20. Can be. Therefore, a doctor can preferentially check a medical image of a patient who has a high possibility of having some kind of mass, and can reduce the burden of diagnosis by the doctor and suppress omission of diagnosis. The configuration of this embodiment can be applied to the second to fourth embodiments, and the same effects can be obtained even when applied to the second to fourth embodiments.

上述した実施形態1〜5では、撮像装置を用いて患者を撮影した医用画像に基づいて、患者の病変の状態を特定するシステムについて説明したが、本開示は、その他のシステムにも適用できる。例えば、建物の外壁の状態を検出(特定)するシステムに適用できる。この場合、建物の外壁を撮影して複数種類の画像を取得し、それぞれの画像に応じた学習モデルを用いて、それぞれの画像について撮影対象の状態を判別し、判別結果を統合して外壁の状態を特定することによって外壁の状態を精度良く検出できる。   In the above-described first to fifth embodiments, the system for specifying the state of the lesion of the patient based on the medical image obtained by imaging the patient using the imaging device has been described. However, the present disclosure can be applied to other systems. For example, the present invention can be applied to a system that detects (specifies) the state of the outer wall of a building. In this case, a plurality of types of images are acquired by photographing the outer wall of the building, the state of the photographing target is determined for each image using a learning model corresponding to each image, the determination results are integrated, and the outer wall of the outer wall is integrated. By specifying the state, the state of the outer wall can be accurately detected.

今回開示された実施の形態はすべての点で例示であって、制限的なものでは無いと考えられるべきである。本発明の範囲は、上記した意味では無く、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time is an example in all points and should be considered as not being restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

10 学習装置(情報処理装置)
20 特定装置
21 制御部
22 記憶部
101 第1教師データ取得部(教師データ取得部)
103 第1パッチ画像抽出部(抽出部)
104 第1学習部(学習部)
111 第2教師データ取得部(教師データ取得部)
113 第2パッチ画像抽出部(抽出部)
114 第2学習部(学習部)
201 第1画像取得部(画像取得部)
202 第1腫瘤領域抽出部
203 第1パッチ画像抽出部(抽出部)
204 第1パッチ判別部(ブロック判別部)
205 第1判別部(判別部)
211 第2画像取得部(画像取得部)
212 第2腫瘤領域抽出部
213 第2パッチ画像抽出部(抽出部)
214 第2パッチ判別部(ブロック判別部)
215 第2判別部(判別部)
221 特定部
222 出力部
12b,22b 第1分類器(学習モデル)
12d,22c 第2分類器(学習モデル)
10 Learning device (information processing device)
Reference Signs List 20 identification device 21 control unit 22 storage unit 101 first teacher data acquisition unit (teacher data acquisition unit)
103 First patch image extraction unit (extraction unit)
104 1st learning part (learning part)
111 Second teacher data acquisition unit (teacher data acquisition unit)
113 Second Patch Image Extraction Unit (Extraction Unit)
114 second learning unit (learning unit)
201 first image acquisition unit (image acquisition unit)
202 first tumor region extraction unit 203 first patch image extraction unit (extraction unit)
204 first patch determining unit (block determining unit)
205 First discriminator (discriminator)
211 Second image acquisition unit (image acquisition unit)
212 second tumor region extraction unit 213 second patch image extraction unit (extraction unit)
214 second patch determining unit (block determining unit)
215 Second discriminator (discriminator)
221 specifying part 222 output part 12b, 22b first classifier (learning model)
12d, 22c Second classifier (learning model)

Claims (12)

撮影対象の状態を特定する特定装置であって、
撮影対象に対して異なる方法によって画像化された複数種類の画像をそれぞれ取得する複数の画像取得部と、
前記画像の種類毎に設けられ、前記画像及び該画像における撮影対象の状態を含む教師データに基づいて学習した学習モデルを用いて、前記画像取得部のそれぞれが取得した前記画像における撮影対象の状態をそれぞれ判別する複数の判別部と、
前記判別部のそれぞれによる判別結果に基づいて、前記撮影対象の状態を特定する特定部と
を備える特定装置。
A specifying device for specifying a state of a shooting target,
A plurality of image acquisition units that respectively acquire a plurality of types of images imaged by different methods with respect to a shooting target,
Using the learning model provided based on the teacher data including the image and the state of the imaging target in the image provided for each type of the image, the state of the imaging target in the image acquired by each of the image acquisition units. A plurality of determination units for determining
A specifying unit configured to specify a state of the imaging target based on a determination result by each of the determination units.
前記判別部のそれぞれは、前記画像取得部が取得した前記画像に対して、前記状態毎に前記状態である可能性を示す確率を算出し、
前記判別部のそれぞれが前記状態毎に算出した前記確率に基づいて、前記状態毎の判別確率を算出する算出部を更に備え、
前記特定部は、前記算出部が算出した前記状態毎の前記判別確率に基づいて、前記撮影対象の状態を特定する
請求項1に記載の特定装置。
Each of the determination units, for the image acquired by the image acquisition unit, calculates a probability indicating the possibility of the state for each state,
Based on the probability that each of the determination units calculated for each state, further comprising a calculation unit that calculates the determination probability for each state,
The identification device according to claim 1, wherein the identification unit identifies the state of the imaging target based on the determination probability calculated for each state by the calculation unit.
前記算出部は、前記判別部のそれぞれが前記状態毎に算出した前記確率の平均値を、前記状態毎の判別確率として算出する
請求項2に記載の特定装置。
The identification device according to claim 2, wherein the calculation unit calculates an average value of the probabilities calculated for each of the states by each of the determination units as a determination probability for each of the states.
前記画像取得部のそれぞれが取得した前記画像から、所定の画素数で構成される画素ブロックを複数抽出する複数の抽出部と、
前記複数の抽出部のそれぞれが抽出した画素ブロックにおける撮影対象の状態を、前記画像の種類毎に設けられた前記学習モデルを用いて判別する複数のブロック判別部とを備え、
前記判別部のそれぞれは、前記ブロック判別部のそれぞれによる各画素ブロックに対する判別結果に基づいて、前記画素ブロックを抽出した前記画像における撮影対象の状態を判別する
請求項1から3までのいずれかひとつに記載の特定装置。
From the image acquired by each of the image acquisition unit, a plurality of extraction units to extract a plurality of pixel blocks composed of a predetermined number of pixels,
A plurality of block determination units that determine the state of the imaging target in the pixel block extracted by each of the plurality of extraction units using the learning model provided for each type of the image,
4. The image processing apparatus according to claim 1, wherein each of the determination units determines a state of a shooting target in the image from which the pixel block is extracted, based on a determination result for each pixel block by each of the block determination units. Specific device according to.
前記ブロック判別部のそれぞれは、前記抽出部が抽出した前記画素ブロックに対して、前記状態毎に前記状態である可能性を示す確率を算出し、
前記ブロック判別部のそれぞれが前記状態毎に算出した前記確率の平均値をそれぞれ算出する複数の平均算出部を更に備え、
前記判別部のそれぞれは、前記平均算出部のそれぞれが算出した前記平均値に基づいて、前記画素ブロックを抽出した前記画像における撮影対象の状態を判別する
請求項4に記載の特定装置。
Each of the block determination unit, for the pixel block extracted by the extraction unit, calculates a probability indicating the possibility of the state for each state,
Each of the block determination units further includes a plurality of average calculation units that calculate an average value of the probability calculated for each state,
The identification device according to claim 4, wherein each of the determination units determines a state of a shooting target in the image from which the pixel block is extracted, based on the average value calculated by each of the average calculation units.
前記特定部が特定した状態であると前記判別部のそれぞれが判別した前記画像のうちで、前記特定部が特定した状態である可能性を示す確率が高い画像を出力する出力部
を更に備える請求項1から5までのいずれかひとつに記載の特定装置。
An output unit that outputs an image having a high probability of indicating the possibility of being in the state specified by the specifying unit among the images determined by the determination units as being in the state specified by the specifying unit. Item 6. The specifying device according to any one of Items 1 to 5.
前記複数種類の画像は、前記撮影対象の同一部分に対して異なる方法によって画像化した画像である
請求項1から6までのいずれかひとつに記載の特定装置。
The identification device according to any one of claims 1 to 6, wherein the plurality of types of images are images obtained by imaging the same portion of the imaging target by different methods.
コンピュータに、撮影対象の状態を特定する処理を実行させるプログラムであって、
前記コンピュータに、
撮影対象に対して異なる方法によって画像化された複数種類の画像をそれぞれ取得し、
前記画像の種類毎に、前記画像及び該画像における撮影対象の状態を含む教師データに基づいて学習した学習モデルを用いて、取得した前記画像における撮影対象の状態を判別し、
前記画像の種類毎に判別した判別結果に基づいて、前記撮影対象の状態を特定する
処理を実行させるプログラム。
A program that causes a computer to execute a process of identifying a state of an imaging target,
On the computer,
Acquire multiple types of images that are imaged by different methods for the shooting target,
For each type of the image, using a learning model learned based on the image and teacher data including the state of the imaging target in the image, determine the state of the imaging target in the acquired image,
A program for executing a process of specifying a state of the imaging target based on a determination result determined for each type of the image.
撮影対象の状態を特定する特定装置による特定方法であって、
前記特定装置が、
撮影対象に対して異なる方法によって画像化された複数種類の画像をそれぞれ取得し、
前記画像の種類毎に、前記画像及び該画像における撮影対象の状態を含む教師データに基づいて学習した学習モデルを用いて、取得した前記画像における撮影対象の状態を判別し、
前記画像の種類毎に判別した判別結果に基づいて、前記撮影対象の状態を特定する
処理を実行する特定方法。
A specifying method by a specifying device that specifies a state of a shooting target,
The specific device,
Acquire multiple types of images that are imaged by different methods for the shooting target,
For each type of the image, using a learning model learned based on the image and teacher data including the state of the imaging target in the image, determine the state of the imaging target in the acquired image,
A specifying method for performing a process of specifying the state of the imaging target based on a determination result determined for each type of the image.
撮影対象に対して異なる方法によって画像化された複数種類の画像及び該画像における前記撮影対象の状態を含む教師データを、前記画像の種類毎に取得する教師データ取得部と、
前記画像の種類毎に、前記画像における撮影対象の状態を判別する学習モデルを、前記教師データ取得部が取得した前記教師データに基づいて学習させる学習部と
を備える情報処理装置。
A teacher data acquisition unit that acquires teacher data including a plurality of types of images imaged by a different method for an imaging target and the state of the imaging target in the image, for each type of the image,
An information processing apparatus comprising: a learning unit that learns, based on the teacher data obtained by the teacher data obtaining unit, a learning model that determines a state of a shooting target in the image for each type of the image.
前記画像の種類毎に、前記教師データ取得部が取得した前記画像から、所定の画素数で構成される画素ブロックを複数抽出する抽出部を更に備え、
前記学習部は、前記抽出部が抽出した前記画素ブロックと、前記画素ブロックを抽出した前記画像における前記撮影対象の状態とに基づいて、前記学習モデルを学習させる
請求項10に記載の情報処理装置。
For each type of the image, further comprising an extraction unit that extracts a plurality of pixel blocks composed of a predetermined number of pixels from the image acquired by the teacher data acquisition unit,
The information processing device according to claim 10, wherein the learning unit learns the learning model based on the pixel block extracted by the extraction unit and a state of the imaging target in the image from which the pixel block is extracted. .
撮影対象の状態を特定する特定器であって、
前記撮影対象に対して異なる方法によって画像化された複数種類の画像及び該画像における前記撮影対象の状態を含む教師データに基づいて学習し、それぞれの種類の前記画像における撮影対象の状態を判別する学習モデルを、前記画像の種類毎に備える特定器。
A specifying device for specifying a state of a shooting target,
Learning is performed based on teacher data including a plurality of types of images formed by different methods for the imaging target and the state of the imaging target in the image, and the state of the imaging target in each type of the image is determined. A specifying device including a learning model for each type of the image.
JP2018134527A 2018-07-17 2018-07-17 Identification device, program, identification method, information processing device and identification device Active JP7167515B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018134527A JP7167515B2 (en) 2018-07-17 2018-07-17 Identification device, program, identification method, information processing device and identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018134527A JP7167515B2 (en) 2018-07-17 2018-07-17 Identification device, program, identification method, information processing device and identification device

Publications (2)

Publication Number Publication Date
JP2020010805A true JP2020010805A (en) 2020-01-23
JP7167515B2 JP7167515B2 (en) 2022-11-09

Family

ID=69168922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018134527A Active JP7167515B2 (en) 2018-07-17 2018-07-17 Identification device, program, identification method, information processing device and identification device

Country Status (1)

Country Link
JP (1) JP7167515B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021153314A1 (en) * 2020-01-29 2021-08-05 キヤノン株式会社 Medical information processing system, medical information processing device, control method for medical information processing system, and program
JP2021133255A (en) * 2020-02-27 2021-09-13 国立陽明交通大学 Benign tumor progression tendency evaluation system, server computer device therefor, and computer-readable storage medium
JP2021133142A (en) * 2020-02-28 2021-09-13 株式会社日立製作所 Medical imaging apparatus, medical image processing apparatus and image processing program
WO2021199967A1 (en) * 2020-03-30 2021-10-07 テルモ株式会社 Program, information processing method, learning model generation method, learning model relearning method, and information processing system
JP2021176424A (en) * 2020-05-08 2021-11-11 コニカミノルタ株式会社 Medical diagnosis support device, medical diagnosis support program and medical diagnosis support method
WO2024042890A1 (en) * 2022-08-26 2024-02-29 富士フイルム株式会社 Information processing device, information processing method, and program
WO2024048168A1 (en) * 2022-09-02 2024-03-07 富士フイルム株式会社 Information processing device, information processing method, and program
WO2024048169A1 (en) * 2022-09-02 2024-03-07 富士フイルム株式会社 Information processing device, information processing method, and program
JP7486113B2 (en) 2020-03-03 2024-05-17 Psp株式会社 Apparatus and method for detecting objects left in the body

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09508815A (en) * 1993-11-29 1997-09-09 アーチ ディヴェロプメント コーポレイション Improved Computerized Automated Method and System for Mammography Finding and Classification
US20060004278A1 (en) * 2004-02-13 2006-01-05 University Of Chicago Method, system, and computer software product for feature-based correlation of lesions from multiple images
US20090082637A1 (en) * 2007-09-21 2009-03-26 Michael Galperin Multi-modality fusion classifier with integrated non-imaging factors
JP2009072433A (en) * 2007-09-21 2009-04-09 Fujifilm Corp Size measuring apparatus, image display device, size measuring program and image display program
JP2009082465A (en) * 2007-09-28 2009-04-23 Fujifilm Corp Image display device and image display program
US20160361025A1 (en) * 2015-06-12 2016-12-15 Merge Healthcare Incorporated Methods and Systems for Automatically Scoring Diagnoses associated with Clinical Images
US20180075597A1 (en) * 2016-09-09 2018-03-15 Siemens Healthcare Gmbh Tissue Characterization Based on Machine Learning in Medical Imaging

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09508815A (en) * 1993-11-29 1997-09-09 アーチ ディヴェロプメント コーポレイション Improved Computerized Automated Method and System for Mammography Finding and Classification
US20060004278A1 (en) * 2004-02-13 2006-01-05 University Of Chicago Method, system, and computer software product for feature-based correlation of lesions from multiple images
US20090082637A1 (en) * 2007-09-21 2009-03-26 Michael Galperin Multi-modality fusion classifier with integrated non-imaging factors
JP2009072433A (en) * 2007-09-21 2009-04-09 Fujifilm Corp Size measuring apparatus, image display device, size measuring program and image display program
JP2009082465A (en) * 2007-09-28 2009-04-23 Fujifilm Corp Image display device and image display program
US20160361025A1 (en) * 2015-06-12 2016-12-15 Merge Healthcare Incorporated Methods and Systems for Automatically Scoring Diagnoses associated with Clinical Images
US20180075597A1 (en) * 2016-09-09 2018-03-15 Siemens Healthcare Gmbh Tissue Characterization Based on Machine Learning in Medical Imaging

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021153314A1 (en) * 2020-01-29 2021-08-05 キヤノン株式会社 Medical information processing system, medical information processing device, control method for medical information processing system, and program
JP2021133255A (en) * 2020-02-27 2021-09-13 国立陽明交通大学 Benign tumor progression tendency evaluation system, server computer device therefor, and computer-readable storage medium
JP7198300B2 (en) 2020-02-27 2022-12-28 国立陽明交通大学 Progressive tendency evaluation system for benign tumor, its server computer device and computer-readable storage medium
JP2021133142A (en) * 2020-02-28 2021-09-13 株式会社日立製作所 Medical imaging apparatus, medical image processing apparatus and image processing program
JP7256765B2 (en) 2020-02-28 2023-04-12 株式会社日立製作所 Medical imaging device, medical image processing device, and image processing program
JP7486113B2 (en) 2020-03-03 2024-05-17 Psp株式会社 Apparatus and method for detecting objects left in the body
WO2021199967A1 (en) * 2020-03-30 2021-10-07 テルモ株式会社 Program, information processing method, learning model generation method, learning model relearning method, and information processing system
JP2021176424A (en) * 2020-05-08 2021-11-11 コニカミノルタ株式会社 Medical diagnosis support device, medical diagnosis support program and medical diagnosis support method
WO2024042890A1 (en) * 2022-08-26 2024-02-29 富士フイルム株式会社 Information processing device, information processing method, and program
WO2024048168A1 (en) * 2022-09-02 2024-03-07 富士フイルム株式会社 Information processing device, information processing method, and program
WO2024048169A1 (en) * 2022-09-02 2024-03-07 富士フイルム株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP7167515B2 (en) 2022-11-09

Similar Documents

Publication Publication Date Title
JP7167515B2 (en) Identification device, program, identification method, information processing device and identification device
US11100645B2 (en) Computer-aided diagnosis apparatus and computer-aided diagnosis method
US10249042B2 (en) Method and apparatus for providing medical information service on basis of disease model
CN107492097B (en) Method and device for identifying region of interest of MRI (magnetic resonance imaging) image
US20200226752A1 (en) Apparatus and method for processing medical image
KR102154733B1 (en) Apparatus and method for estimating whether malignant tumor is in object by using medical image
CN112041912A (en) Systems and methods for diagnosing gastrointestinal tumors
CN107292884B (en) Method and device for identifying edema and hematoma in MRI (magnetic resonance imaging) image
CN107563434B (en) Brain MRI image classification method and device based on three-dimensional convolutional neural network
KR101919866B1 (en) Method for aiding determination of presence of bone metastasis from bone scan image and apparatus using the same
US20120166211A1 (en) Method and apparatus for aiding imaging diagnosis using medical image, and image diagnosis aiding system for performing the method
JPWO2007026598A1 (en) Medical image processing device
US9547896B2 (en) Lesion classification apparatus, and method of modifying lesion classification data
KR102258756B1 (en) Determination method for stage of cancer based on medical image and analyzing apparatus for medical image
EP2793164A1 (en) Method and system for determining a phenotype of a neoplasm in a human or animal body
KR20190087681A (en) A method for determining whether a subject has an onset of cervical cancer
CN114332132A (en) Image segmentation method and device and computer equipment
US9436889B2 (en) Image processing device, method, and program
JP7129058B2 (en) Medical image diagnosis support device, program, and medical image diagnosis support method
KR101656582B1 (en) Method and system for detection of thyroid nodules
WO2020263002A1 (en) Blood vessel segmentation method
KR102360615B1 (en) Medical image diagnosis assistance apparatus and method using a plurality of medical image diagnosis algorithm for endoscope images
CN114360695A (en) Mammary gland ultrasonic scanning analysis auxiliary system, medium and equipment
KR102136107B1 (en) Apparatus and method for alignment of bone suppressed chest x-ray image
CN114067154B (en) Crohn's disease fibrosis classification method based on multi-sequence MRI and related equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221010

R150 Certificate of patent or registration of utility model

Ref document number: 7167515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150