JP7154492B2 - MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND MEDICAL IMAGE PROCESSING PROGRAM - Google Patents

MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND MEDICAL IMAGE PROCESSING PROGRAM Download PDF

Info

Publication number
JP7154492B2
JP7154492B2 JP2018104971A JP2018104971A JP7154492B2 JP 7154492 B2 JP7154492 B2 JP 7154492B2 JP 2018104971 A JP2018104971 A JP 2018104971A JP 2018104971 A JP2018104971 A JP 2018104971A JP 7154492 B2 JP7154492 B2 JP 7154492B2
Authority
JP
Japan
Prior art keywords
medical image
classification
classifications
feature
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018104971A
Other languages
Japanese (ja)
Other versions
JP2019208620A (en
Inventor
司 古瀬
卓 箱石
Original Assignee
株式会社ジェイマックシステム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ジェイマックシステム filed Critical 株式会社ジェイマックシステム
Priority to JP2018104971A priority Critical patent/JP7154492B2/en
Publication of JP2019208620A publication Critical patent/JP2019208620A/en
Application granted granted Critical
Publication of JP7154492B2 publication Critical patent/JP7154492B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、医用画像処理装置、医用画像処理方法および医用画像処理プログラムに関し、特に、患者を撮影することにより生成された医用画像を処理する、医用画像処理装置、医用画像処理方法および医用画像処理プログラムに関する。 TECHNICAL FIELD The present invention relates to a medical image processing apparatus, a medical image processing method, and a medical image processing program, and more particularly to a medical image processing apparatus, a medical image processing method, and a medical image processing for processing medical images generated by photographing a patient. Regarding the program.

近年、AI(人工知能)は著しく進歩しており、医療分野へのAIの応用も進められている(例えば、特許文献1参照)。医療分野への応用は広範囲にわたり、その中には、モダリティで撮影された医用画像の解析による診断支援も含まれる。 In recent years, AI (artificial intelligence) has made remarkable progress, and AI is being applied to the medical field (see, for example, Patent Document 1). It has a wide range of applications in the medical field, including diagnostic support through analysis of medical images captured by modalities.

一方、DICOM規格によれば、検査日付、患者名、検査時の患者の年齢などが記載されたタグ情報が、医用画像に付される。したがって、当該タグ情報を参照して医用画像を解析することで、AIによる画像診断支援性能の向上が期待される。 On the other hand, according to the DICOM standard, tag information describing the examination date, patient name, age of the patient at the time of examination, etc. is attached to the medical image. Therefore, by analyzing medical images with reference to the tag information, it is expected to improve the performance of AI-based image diagnosis support.

特開2018-14059号公報JP 2018-14059 A

しかし、詳細な撮影部位や撮影方法を当該タグ情報から特定することは不可能であり、これが画像診断支援性能の向上を妨げる一因となっている。 However, it is impossible to specify a detailed imaging site or imaging method from the tag information.

それゆえに、この発明の主たる目的は、画像診断支援性能を高めることができる、医用画像処理装置を提供することである。 SUMMARY OF THE INVENTION Therefore, a primary object of the present invention is to provide a medical image processing apparatus capable of enhancing image diagnosis support performance.

この発明に係る医用画像処理装置(40:実施例で相当する参照符号。以下同じ)は、患者を撮影することにより生成された医用画像を処理する医用画像処理装置(40)であって、複数の第1分類(頭部CT、胸部CT、腹部CT)の各々に属する基準医用画像の特徴を表す第1特徴量と、医用画像の特徴量とを照合する第1照合手段(S04~S06)、および複数の第2分類(頭部単純CT、頭部造影CT、胸部単純CT、胸部造影CT、腹部単純CT、腹部造影CT)の各々に属する基準医用画像の特徴を表す第2特徴量のうち、特定の第2分類の第2特徴量と、医用画像の特徴量とを照合する第2照合手段(S07~S10, S17~S18, S20~S21, S23~S24)を備え、複数の第2分類の各々は複数の第1分類のいずれか1つに属し、第2照合手段は、第1照合手段の照合結果に基づいて複数の第1分類のいずれか1つを特定する第1分類特定手段(S07)、および複数の第2分類のうち第1分類特定手段によって特定された第1分類に属する第2分類を特定の第2分類として特定する第2分類特定手段(S08~S10)を含む。 A medical image processing apparatus (40: corresponding reference numeral in the embodiments; hereinafter the same) according to the present invention is a medical image processing apparatus (40) for processing medical images generated by photographing a patient. First collation means (S04 to S06) for collating the first feature amount representing the feature of the reference medical image belonging to each of the first classification (head CT, chest CT, abdomen CT) with the feature amount of the medical image , and a second feature quantity representing a feature of a reference medical image belonging to each of a plurality of second classifications (simple head CT, head CT with contrast, simple chest CT, contrast-enhanced chest CT, simple abdomen CT, contrast-enhanced abdomen) Among them, second matching means (S07 to S10, S17 to S18, S20 to S21, S23 to S24) for matching a second feature amount of a specific second classification with a feature amount of a medical image, and a plurality of second Each of the two classifications belongs to one of the plurality of first classifications, and the second collation means identifies any one of the plurality of first classifications based on the collation result of the first collation means. identifying means (S07); and second classification identifying means (S08 to S10) for identifying, as a specific second classification, a second classification belonging to the first classification identified by the first classification identifying means among the plurality of second classifications including.

好ましくは、特定の第2分類の数は2以上であり、第2照合手段の照合結果に基づいて特定の第2分類のいずれか1つを特定する特定手段(S19, S22, S25)、および特定手段によって特定された第2分類に属する基準医用画像の特徴量と医用画像の特徴量とを照合して患者の疾患を解析する解析手段(S26~S28)がさらに備えられる。 Preferably, the number of specific second classifications is two or more, and identifying means (S19, S22, S25) for identifying any one of the specific second classifications based on the collation result of the second collating means, and An analysis means (S26 to S28) is further provided for analyzing the patient's disease by collating the feature amount of the reference medical image belonging to the second classification identified by the identification means with the feature amount of the medical image.

好ましくは、複数の第1分類は撮影部位および撮影方法の一方を基準とする分類であり、複数の第2分類は撮影部位および撮影方法の両方を基準とする分類である。 Preferably, the plurality of first categories are categories based on one of the imaging region and the imaging method, and the plurality of second categories are categories based on both the imaging region and the imaging method.

好ましくは、基準医用画像は複数の患者の各々を撮影することにより生成された医用画像である。 Preferably, the reference medical image is a medical image generated by imaging each of a plurality of patients.

好ましくは、患者の医用画像にはタグ情報が付されており、第1分類および第2分類の各々の基準となる情報はタグ情報において欠落している。 Preferably, the patient's medical image is attached with tag information, and the tag information lacks information that serves as a reference for each of the first classification and the second classification.

この発明に係る医用画像処理方法は、患者を撮影することにより生成された医用画像を処理する医用画像処理装置(40)によって実行される医用画像処理方法であって、複数の第1分類(頭部CT、胸部CT、腹部CT)の各々に属する基準医用画像の特徴を表す第1特徴量と、医用画像の特徴量とを照合する第1照合ステップ(S04~S06)、および複数の第2分類(頭部単純CT、頭部造影CT、胸部単純CT、胸部造影CT、腹部単純CT、腹部造影CT)の各々に属する基準医用画像の特徴を表す第2特徴量のうち、特定の第2分類の第2特徴量と、医用画像の特徴量とを照合する第2照合ステップ(S07~S10, S17~S18, S20~S21, S23~S24)を備え、複数の第2分類の各々は複数の第1分類のいずれか1つに属し、第2照合ステップは、第1照合ステップの照合結果に基づいて複数の第1分類のいずれか1つを特定する第1分類特定ステップ(S07)、および複数の第2分類のうち第1分類特定ステップによって特定された第1分類に属する第2分類を特定の第2分類として特定する第2分類特定ステップ(S08~S10)を含む。 A medical image processing method according to the present invention is a medical image processing method executed by a medical image processing apparatus (40) for processing medical images generated by photographing a patient, wherein a plurality of first classifications (head a first matching step (S04 to S06) of matching a first feature amount representing a feature of a reference medical image belonging to each of the abdominal CT, chest CT, and abdominal CT with the feature amount of the medical image; Specific second a second matching step (S07-S10, S17-S18, S20-S21, S23-S24) for matching the second feature quantity of the classification with the feature quantity of the medical image; belongs to any one of the first classifications, and the second matching step is a first classification identifying step (S07) of identifying any one of a plurality of first classifications based on the matching result of the first matching step; and a second class specifying step (S08 to S10) for specifying, as a specific second class, a second class belonging to the first class specified by the first class specifying step among the plurality of second classes.

この発明に係る医用画像処理プログラムは、患者を撮影することにより生成された医用画像を処理する医用画像処理装置(40)のプロセッサ(42pr)に、複数の第1分類(頭部CT、胸部CT、腹部CT)の各々に属する基準医用画像の特徴を表す第1特徴量と、医用画像の特徴量とを照合する第1照合ステップ(S04~S06)、および複数の第2分類(頭部単純CT、頭部造影CT、胸部単純CT、胸部造影CT、腹部単純CT、腹部造影CT)の各々に属する基準医用画像の特徴を表す第2特徴量のうち、特定の第2分類の第2特徴量と、医用画像の特徴量とを照合する第2照合ステップ(S07~S10, S17~S18, S20~S21, S23~S24)を実行させるための医用画像処理プログラムであって、複数の第2分類の各々は複数の第1分類のいずれか1つに属し、第2照合ステップは、第1照合ステップの照合結果に基づいて複数の第1分類のいずれか1つを特定する第1分類特定ステップ(S07)、および複数の第2分類のうち第1分類特定ステップによって特定された第1分類に属する第2分類を特定の第2分類として特定する第2分類特定ステップ(S08~S10)を含む。 A medical image processing program according to the present invention provides a plurality of first classifications (head CT, chest CT, , Abdominal CT), a first matching step (S04 to S06) of matching a first feature amount representing a feature of a reference medical image with a feature amount of a medical image, and a plurality of second classifications (head simple CT, head contrast-enhanced CT, chest simple CT, chest contrast-enhanced CT, abdominal plain CT, abdominal contrast-enhanced CT, among the second feature amounts representing the features of the reference medical images belonging to each, the second feature of the specific second classification A medical image processing program for executing a second matching step (S07-S10, S17-S18, S20-S21, S23-S24) of matching a quantity with a feature quantity of a medical image, the program comprising a plurality of second Each of the classifications belongs to one of the plurality of first classifications, and the second collation step identifies any one of the plurality of first classifications based on the collation result of the first collation step. a step (S07), and second classification identifying steps (S08 to S10) for identifying, as a specific second classification, a second classification belonging to the first classification identified by the first classification identifying step among the plurality of second classifications. include.

複数の第2分類の各々は複数の第1分類のいずれか1つに属するところ、患者の医用画像の特徴量は、複数の第1分類の各々の第1特徴量と照合されるとともに、複数の第2分類のうち、第1特徴量との照合結果に応じて異なる第2分類の第2特徴量と照合される。この結果、第1分類および第2分類の情報が患者の医用画像に付されていなくても、照合処理によって当該情報を特定することができ、ひいては画像診断支援性能を高めることができる。 Each of the plurality of second classifications belongs to one of the plurality of first classifications, and the feature amount of the patient's medical image is matched with the first feature amount of each of the plurality of first classifications, and the plurality of Among the second classifications, matching is performed with a second feature quantity of a different second classification according to the matching result with the first feature quantity. As a result, even if the information of the first classification and the second classification is not attached to the patient's medical image, the information can be specified by the matching process, and the image diagnosis support performance can be enhanced.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of the embodiments with reference to the drawings.

この実施例に適用される医療診断支援システムの構成を示すブロック図である。1 is a block diagram showing the configuration of a medical diagnosis support system applied to this embodiment; FIG. 機械学習システムによって参照される疾患候補テーブルの構成の一例を示す図解図である。FIG. 4 is an illustrative view showing one example of the configuration of a disease candidate table referenced by the machine learning system; (A)は機械学習システムを構成するデータベースに設けられた或るメモリエリアのマッピング状態の一例を示す図解図であり、(B)は機械学習システムを構成するデータベースに設けられた他のメモリエリアのマッピング状態の一例を示す図解図であり、(C)は機械学習システムを構成するデータベースに設けられたその他のメモリエリアのマッピング状態の一例を示す図解図である。(A) is an illustrative view showing an example of a mapping state of a certain memory area provided in a database constituting the machine learning system, and (B) is another memory area provided in the database constituting the machine learning system; FIG. 11C is an illustrative view showing one example of a mapping state of , and (C) is an illustrative view showing one example of a mapping state of other memory areas provided in a database that constitutes the machine learning system. モダリティによって作成されたDICOMファイルの構造の一例を示す図解図である。FIG. 4 is an illustrative view showing one example of the structure of a DICOM file created by a modality; 画像診断支援装置のメインモニタに表示される診断支援画面の一例を示す図解図である。FIG. 4 is an illustrative view showing one example of a diagnostic support screen displayed on a main monitor of the diagnostic imaging support apparatus; 画像診断支援装置のメインモニタに表示される診断支援画面の他の一例を示す図解図である。FIG. 10 is an illustrative view showing another example of a diagnostic support screen displayed on the main monitor of the diagnostic imaging support apparatus; 画像診断支援装置のメインモニタに表示される診断支援画面のその他の一例を示す図解図である。FIG. 11 is an illustrative view showing another example of the diagnostic support screen displayed on the main monitor of the diagnostic imaging support apparatus; 画像診断支援装置のサブモニタに表示される診断支援画面の一例を示す図解図である。FIG. 4 is an illustrative view showing one example of a diagnostic support screen displayed on a sub-monitor of the diagnostic imaging support apparatus; 画像診断支援装置のメインモニタに表示される診断支援画面のさらにその他の一例を示す図解図である。FIG. 11 is an illustrative view showing still another example of the diagnostic support screen displayed on the main monitor of the diagnostic imaging support apparatus; 画像診断支援装置のメインモニタに表示される診断支援画面の他の一例を示す図解図である。FIG. 10 is an illustrative view showing another example of a diagnostic support screen displayed on the main monitor of the diagnostic imaging support apparatus; 機械学習システムに設けられたCPUの動作の一部を示すフロー図である。FIG. 4 is a flowchart showing part of the operation of a CPU provided in the machine learning system; 機械学習システムに設けられたCPUの動作の他の一部を示すフロー図である。FIG. 4 is a flowchart showing another part of the operation of the CPU provided in the machine learning system;

図1を参照して、この実施例の医療診断支援システムは、院内LAN50を介して互いに接続された画像診断支援装置10,モダリティ20,PACS30および機械学習システム(医用画像処理装置)40によって構成される。 Referring to FIG. 1, the medical diagnosis support system of this embodiment comprises an image diagnosis support apparatus 10, a modality 20, a PACS 30 and a machine learning system (medical image processing apparatus) 40, which are interconnected via an in-hospital LAN 50. be.

画像診断支援装置10において、バスBS1には、通信I/F12cm,CPU12pr,キーボード/マウス12km,DRAM12mm,HDD12hd,メインモニタ12m1およびサブモニタ12m2が接続される。サブモニタ12m2は、メインモニタ12m1に付随する。読影医は、メインモニタ12m1およびサブモニタ12m2と向き合い、キーボード/マウス12kmを操作して画像診断を行う。 In image diagnosis support apparatus 10, bus BS1 is connected to communication I/F 12cm, CPU 12pr, keyboard/mouse 12km, DRAM 12mm, HDD 12hd, main monitor 12m1 and sub-monitor 12m2. The sub monitor 12m2 accompanies the main monitor 12m1. The radiologist faces the main monitor 12m1 and the sub-monitor 12m2, operates the keyboard/mouse 12km, and performs image diagnosis.

機械学習システム40において、バスBS2には、通信I/F42cm,CPU42pr,DRAM42mmおよびデータベース42dbが接続される。データベース42dbには、図2に示す疾患候補テーブルTBL1が記憶されるとともに、図3(A)に示すメモリエリアMM1と、図3(B)に示すメモリエリアMM2と、図3(C)に示すメモリエリアMM3とが設けられる。 In machine learning system 40, communication I/F 42cm, CPU 42pr, DRAM 42mm and database 42db are connected to bus BS2. The database 42db stores a disease candidate table TBL1 shown in FIG. 2, as well as a memory area MM1 shown in FIG. 3A, a memory area MM2 shown in FIG. A memory area MM3 is provided.

図2によれば、頭部疾患として、“くも膜下出血”,“脳出血”,“慢性中耳炎”,“頭蓋骨折”,“副鼻腔炎”,“真珠腫性中耳炎”,“脳梗塞”,…“所見なし”が登録され、胸部疾患として、“気胸”,“塵肺”,“肺塞栓症”,“胸腺腫”,“悪性リンパ腫”,“縦隔内気腫”,“肺水腫”,…“所見なし”が登録され、腹部疾患として、“肝硬変”,“肝細胞癌”,“急性胆嚢炎”,“胆石”,“膵臓癌”,“急性虫垂炎”,“腸閉塞”,…“所見なし”が登録される。 According to FIG. 2, head diseases include "subarachnoid hemorrhage", "cerebral hemorrhage", "chronic otitis media", "cranium fracture", "sinusitis", "cholesteatoma otitis media", "cerebral infarction", . "No findings" were registered, and the chest diseases were "pneumothorax", "pneumoconiosis", "pulmonary embolism", "thymoma", "malignant lymphoma", "pneumomediastinum", "pulmonary edema", ..." "No findings" were registered, and "cirrhosis", "hepatocellular carcinoma", "acute cholecystitis", "gallstones", "pancreatic cancer", "acute appendicitis", "intestinal obstruction", ... "no findings" were registered as abdominal diseases. is registered.

図3(A)によれば、メモリエリアMM1には、次元削減された頭部CT特徴量と、次元削減された胸部CT特徴量と、次元削減された腹部CT特徴量とが記憶される。図3(B)によれば、メモリエリアMM2には、次元削減された頭部単純CT特徴量および頭部造影CT特徴量と、次元削減された胸部単純CT特徴量および胸部造影CT特徴量と、次元削減された腹部単純CT特徴量および腹部造影CT特徴量とが記憶される。図3(C)によれば、メモリエリアMM3には、複数の頭部単純CT特徴量と、複数の頭部造影CT特徴量と、複数の胸部単純CT特徴量と、複数の胸部造影CT特徴量と、複数の腹部単純CT特徴量と、複数の腹部造影CT特徴量とが記憶される。 According to FIG. 3A, the memory area MM1 stores the dimension-reduced head CT feature amount, the dimension-reduced chest CT feature amount, and the dimension-reduced abdominal CT feature amount. According to FIG. 3B, the memory area MM2 stores the dimensionality-reduced head simple CT feature amount and head enhanced CT feature amount, and the dimensionality-reduced chest simple CT feature amount and chest enhanced CT feature amount. , dimensionality-reduced abdominal simple CT features and abdominal enhanced CT features are stored. According to FIG. 3C, the memory area MM3 stores a plurality of simple head CT feature amounts, a plurality of head enhanced CT feature amounts, a plurality of chest simple CT feature amounts, and a plurality of chest enhanced CT feature amounts. A quantity, a plurality of plain abdominal CT feature amounts, and a plurality of abdominal enhanced CT feature amounts are stored.

メモリエリアMM3に記憶された特徴量は、複数の基準医用画像(教師画像)の各々の特徴量である。具体的には、頭部単純CT特徴量は、頭部に疾患を抱える複数の患者の各々に対する頭部単純CT撮影により生成された医用画像の特徴量であり、頭部造影CT特徴量は、頭部に疾患を抱える複数の患者の各々に対する頭部造影CT撮影により生成された医用画像の特徴量である。 The feature amount stored in the memory area MM3 is the feature amount of each of a plurality of reference medical images (teacher images). Specifically, the head simple CT feature amount is a feature amount of a medical image generated by head plain CT imaging for each of a plurality of patients with head diseases, and the head contrast-enhanced CT feature amount is: It is a feature quantity of a medical image generated by contrast-enhanced CT imaging of the head for each of a plurality of patients having diseases in the head.

胸部単純CT特徴量は、胸部に疾患を抱える複数の患者の各々に対する胸部単純CT撮影により生成された医用画像の特徴量であり、胸部造影CT特徴量は、胸部に疾患を抱える複数の患者の各々に対する胸部造影CT撮影により生成された医用画像の特徴量である。 The chest plain CT feature quantity is a feature quantity of a medical image generated by chest plain CT imaging for each of a plurality of patients with chest diseases, and the chest enhanced CT feature quantity is a feature quantity of a plurality of patients with chest diseases. It is a feature amount of a medical image generated by chest contrast-enhanced CT imaging for each.

腹部単純CT特徴量は、腹部に疾患を抱える複数の患者の各々に対する腹部単純CT撮影により生成された医用画像の特徴量であり、腹部造影CT特徴量は、腹部に疾患を抱える患者に対する腹部造影CT撮影により生成された医用画像の特徴量である。 Abdominal plain CT feature quantity is a feature quantity of a medical image generated by plain abdominal CT imaging for each of a plurality of patients with abdominal disease, and abdominal enhanced CT feature quantity is an abdominal contrast-enhanced feature quantity for a patient with abdominal disease. It is a feature amount of a medical image generated by CT imaging.

メモリエリアMM2に記憶された特徴量は、メモリエリアMM3に記憶された特徴量に次元削減を施すことで生成された特徴量である。また、メモリエリアMM1に記憶された特徴量は、メモリエリアMM2に記憶された特徴量にさらに次元削減を施すことで生成された特徴量である。 The feature quantity stored in the memory area MM2 is a feature quantity generated by reducing the dimension of the feature quantity stored in the memory area MM3. The feature amount stored in the memory area MM1 is a feature amount generated by further reducing the dimension of the feature amount stored in the memory area MM2.

具体的には、メモリエリアMM2上の頭部単純CT特徴量は、メモリエリアMM3上のいずれかの頭部単純CT特徴量に次元削減を施すことで生成される。メモリエリアMM2上の頭部造影CT特徴量は、メモリエリアMM3上のいずれかの頭部造影CT特徴量に次元削減を施すことで生成される。 Specifically, the head simple CT feature amount in the memory area MM2 is generated by performing dimensionality reduction on any head simple CT feature amount in the memory area MM3. The head-enhanced CT feature quantity in the memory area MM2 is generated by performing dimensionality reduction on any head-enhanced CT feature quantity in the memory area MM3.

メモリエリアMM2上の胸部単純CT特徴量は、メモリエリアMM3上のいずれかの胸部単純CT特徴量に次元削減を施すことで生成される。メモリエリアMM2上の胸部造影CT特徴量は、メモリエリアMM3上のいずれかの胸部造影CT特徴量に次元削減を施すことで生成される。 The chest simple CT feature amount in the memory area MM2 is generated by performing dimensionality reduction on any chest simple CT feature amount in the memory area MM3. The chest contrast-enhanced CT feature quantity in the memory area MM2 is generated by performing dimensionality reduction on any chest contrast-enhanced CT feature quantity in the memory area MM3.

メモリエリアMM2上の腹部単純CT特徴量は、メモリエリアMM3上のいずれかの腹部単純CT特徴量に次元削減を施すことで生成される。メモリエリアMM2上の腹部造影CT特徴量は、メモリエリアMM3上のいずれかの腹部造影CT特徴量に次元削減を施すことで生成される。 Abdominal simple CT feature amounts in the memory area MM2 are generated by performing dimensionality reduction on any abdominal simple CT feature amount in the memory area MM3. Abdominal contrast-enhanced CT feature quantities in the memory area MM2 are generated by performing dimensionality reduction on any abdominal contrast-enhanced CT feature quantity in the memory area MM3.

メモリエリアMM1上の頭部CT特徴量は、メモリエリアMM2上の頭部単純CT特徴量または頭部造影CT特徴量に次元削減を施すことで生成される。メモリエリアMM1上の胸部CT特徴量は、メモリエリアMM2上の胸部単純CT特徴量または胸部造影CT特徴量に次元削減を施すことで生成される。メモリエリアMM1上の腹部CT特徴量は、メモリエリアMM2上の腹部単純CT特徴量または腹部造影CT特徴量に次元削減を施すことで生成される。 The head CT feature amount in the memory area MM1 is generated by performing dimensionality reduction on the head simple CT feature amount or the head enhanced CT feature amount in the memory area MM2. The chest CT feature amount in the memory area MM1 is generated by performing dimensionality reduction on the chest simple CT feature amount or the chest enhanced CT feature amount in the memory area MM2. Abdominal CT feature amounts in the memory area MM1 are generated by performing dimensionality reduction on the abdominal simple CT feature amounts or the abdominal enhanced CT feature amounts in the memory area MM2.

したがって、頭部CT、胸部CTおよび腹部CTの3つの分類を“第1分類”と定義し、頭部単純CT、頭部造影CT、胸部単純CT、胸部造影CT、腹部単純CT、腹部造影CTの6つの分類を“第2分類と”定義すると、第1分類は撮影部位を基準とする分類に相当し、第2分類は撮影部位および撮影方法の両方を基準とする分類に相当する。 Therefore, the three classifications of head CT, chest CT and abdominal CT are defined as "first classification", and simple head CT, head CT with contrast, chest simple CT, chest contrast CT, abdominal simple CT, abdominal contrast CT are defined as "second classification", the first classification corresponds to the classification based on the imaging region, and the second classification corresponds to the classification based on both the imaging region and the imaging method.

また、第2分類は第1分類の下位概念として位置付けられ、6つの第2分類の各々は3つの第1分類のいずれか1つに属する。具体的には、頭部単純CTおよび頭部造影CTの2つは頭部CTに属し、胸部単純CTおよび胸部造影CTの2つは胸部CTに属し、腹部単純CTおよび腹部造影CTの2つは腹部CTに属する。 Also, the second classification is positioned as a subordinate concept of the first classification, and each of the six second classifications belongs to one of the three first classifications. Specifically, two of head plain CT and head contrast-enhanced CT belong to head CT, two of chest plain CT and chest contrast-enhanced CT belong to chest CT, and two of abdomen plain CT and abdomen contrast-enhanced CT belong to chest CT. belongs to abdominal CT.

そうすると、メモリエリアMM1に記憶された特徴量は、3つの第1分類の各々に属する基準医用画像の特徴を表す特徴量と言える。また、メモリエリアMM2に記憶された特徴量は、6つの第2分類の各々に属する基準医用画像の特徴を表す特徴量と言える。 Then, the feature amount stored in the memory area MM1 can be said to be the feature amount representing the feature of the reference medical image belonging to each of the three first classifications. Also, the feature amount stored in the memory area MM2 can be said to be the feature amount representing the feature of the reference medical image belonging to each of the six second classifications.

検査技師は、主治医からの依頼コメントを踏まえてモダリティ20を操作する。モダリティ20は、患者の頭部,胸部または腹部を対象として、単純CT撮影および造影CT撮影の各々を複数回に亘って実行し、単純CT撮影によって生成された複数の医用画像からなる1シリーズ目のシリーズ画像と、造影CT撮影によって生成された複数の医用画像からなる2シリーズ目のシリーズ画像とを収めたDICOMファイルを出力する。 The laboratory technician operates the modality 20 based on the requested comment from the attending physician. The modality 20 performs simple CT imaging and contrast-enhanced CT imaging multiple times on the patient's head, chest, or abdomen, and a first series of medical images generated by the simple CT imaging. and a second series of images composed of a plurality of medical images generated by contrast-enhanced CT imaging.

なお、検査によっては、単純CT撮影および造影CT撮影のうち、単純CT撮影のみが実行される。この場合は、1シリーズ目および2シリーズ目のうち、1シリーズ目のシリーズ画像のみがDICOMファイルに収められる。 Of the simple CT imaging and the contrast-enhanced CT imaging, only the simple CT imaging is performed depending on the examination. In this case, only the series images of the first series out of the first series and the second series are contained in the DICOM file.

DICOMファイルは、図4に示すデータ構造を有し、院内LAN50を介してPACS30に保存される。図4を参照して、DICOMファイルには、1シリーズ目のシリーズ画像および2シリーズ目のシリーズ画像に加えて、タグ情報が収められる。ここで、タグ情報は、検査属性を各々が示す複数の項目(検査日付,患者名,患者の検査時年齢,検査インスタンスUIDなど)によって構成される。ただし、撮影部位および撮影方法の項目は、タグ情報には存在しない。即ち、撮影部位および撮影方法は、タグ情報から欠落している。 A DICOM file has the data structure shown in FIG. 4 and is stored in the PACS 30 via the hospital LAN 50 . Referring to FIG. 4, the DICOM file stores tag information in addition to the series images of the first series and the series images of the second series. Here, the tag information is composed of a plurality of items (examination date, patient name, patient's age at examination, examination instance UID, etc.) each indicating an examination attribute. However, the tag information does not include the items of imaging region and imaging method. That is, the imaging site and imaging method are missing from the tag information.

読影医が画像診断支援装置10を操作して患者を診断する際は、まず図5に示すトップ画面がCPU12prによってDRAM12mmに展開される。展開されたトップ画面は、メインモニタ12m1によって読み出され、かつ表示される。図5によれば、トップ画面は、複数の検査をそれぞれ表す複数の見出しが列挙された見出し欄IDXを有する。また、図5に示すトップ画面においては、いずれの見出しに対応する読影レポートも“保留”とされる。 When a radiologist operates the image diagnosis support apparatus 10 to diagnose a patient, the top screen shown in FIG. 5 is developed in the DRAM 12mm by the CPU 12pr. The expanded top screen is read and displayed by the main monitor 12m1. According to FIG. 5, the top screen has an index column IDX in which a plurality of indexes representing a plurality of examinations are listed. Also, on the top screen shown in FIG. 5, the interpretation report corresponding to any heading is set as "pending".

キーボード/マウス12kmによって見出し選択操作(=見出し欄IDXに列挙された複数の見出しのいずれか1つを選択する操作であり、例えば図6において太枠で囲った見出しをクリックする操作)が行われると、当該見出しに対応する読影レポート画面(図7参照)がトップ画面の代わりにメインモニタ12m1に表示される。 A headline selection operation (=an operation of selecting any one of a plurality of headlines listed in the headline column IDX, for example, an operation of clicking on the headline enclosed in a thick frame in FIG. 6) is performed with the keyboard/mouse 12 km. Then, the interpretation report screen (see FIG. 7) corresponding to the headline is displayed on the main monitor 12m1 instead of the top screen.

図7によれば、読影レポート画面には、依頼コメント欄REQ,所見欄RMK,診断欄DGNおよび添付画像欄IMGが設けられる。このうち、依頼コメント欄REQにある“胸痛”の文字列は、主治医によって記載されたものである。 According to FIG. 7, the interpretation report screen is provided with a requested comment column REQ, a finding column RMK, a diagnosis column DGN, and an attached image column IMG. Among them, the character string "chest pain" in the request comment field REQ was written by the attending physician.

CPU12prは続いて、通信I/F12cmを介してPACS30にアクセスし、選択中の見出しに割り当てられた検査インスタンスUIDに対応するDICOMファイルをPACS30から取得する。CPU12prはまた、取得されたDICOMファイル内のいずれかの医用画像をDRAM12mmに展開する。展開された医用画像はサブモニタ12m2によって読み出され、図8に示す要領で表示される。 The CPU 12pr then accesses the PACS 30 via the communication I/F 12cm, and acquires from the PACS 30 the DICOM file corresponding to the study instance UID assigned to the heading being selected. The CPU 12pr also expands any medical image in the acquired DICOM file to the DRAM 12mm. The developed medical image is read by the sub-monitor 12m2 and displayed as shown in FIG.

キーボード/マウス12kmによって所見入力操作(所見欄RMKを指定して所望の文字列を入力する操作)が行われれば、CPU12prは、入力された文字列を図9に示す要領で所見欄RMKに表示する。図9によれば、所見欄RMKには、“冠動脈起始部に石灰化を認める。”の文字列が表示される。 When a remark input operation (an operation of designating a remark column RMK and inputting a desired character string) is performed using the keyboard/mouse 12km, the CPU 12pr displays the input character string in the remark column RMK as shown in FIG. do. According to FIG. 9, the finding field RMK displays a character string of "Calcification is found at the coronary artery origin."

また、キーボード/マウス12kmによって診断コメント入力操作(診断欄DGNを指定して所望の文字列を入力する操作)が行われれば、CPU12prは、入力された文字列を図9に示す要領で診断欄DGNに表示する。図9によれば、診断欄DGNには、“1.狭心症の疑い”の文字列が表示される。 Also, when a diagnostic comment input operation (an operation of designating the diagnosis field DGN and inputting a desired character string) is performed using the keyboard/mouse 12km, the CPU 12pr inputs the input character string to the diagnosis field as shown in FIG. Display on DGN. According to FIG. 9, the diagnosis column DGN displays a character string of "1. suspected angina pectoris".

さらに、キーボード/マウス12kmによって画像添付操作(サブモニタ12m2に表示された医用画像をドラッグ&ドロップ操作によって添付画像欄IMGに移動させる操作)が行われれば、CPU12prは、サブモニタ12m2に表示された医用画像に基づいてサムネイル画像を作成し、作成されたサムネイル画像を図9に示す要領で添付画像欄IMGに表示する。 Furthermore, when an image attachment operation (an operation to move the medical image displayed on the sub-monitor 12m2 to the attached image field IMG by a drag-and-drop operation) is performed using the keyboard/mouse 12km, the CPU 12pr attaches the medical image displayed on the sub-monitor 12m2. and displays the created thumbnail image in the attached image field IMG in the manner shown in FIG.

また、キーボード/マウス12kmによって画像更新操作(サブモニタ12m2上の医用画像を更新する操作)が行われれば、CPU12prは、PACS30から取得したDICOMファイル内の別の医用画像をDRAM12mmに展開する。この結果、サブモニタ12m2に表示される医用画像が別の医用画像に更新される。 Also, when an image update operation (an operation to update the medical image on the sub-monitor 12m2) is performed using the keyboard/mouse 12km, the CPU 12pr expands another medical image in the DICOM file acquired from the PACS 30 to the DRAM 12mm. As a result, the medical image displayed on the sub-monitor 12m2 is updated to another medical image.

添付画像欄IMGの近傍に表示された「確認」ボタンがキーボード/マウス12kmによってクリックされると、CPU12prは、解析要求を機械学習システム40に送信する。解析要求には、PACS30から取得したDICOMファイル内の全ての医用画像(1シリーズ目のシリーズ画像および2シリーズ目のシリーズ画像)が付随する。 When the "Confirm" button displayed near the attached image field IMG is clicked with the keyboard/mouse 12km, the CPU 12pr transmits an analysis request to the machine learning system 40. FIG. All medical images (the first series of images and the second series of images) in the DICOM file acquired from the PACS 30 are attached to the analysis request.

機械学習システム40は、医用画像に基づいて患者の疾患を診断した経験が豊富な医師の知能と同様の人工知能を有し、解析要求に付随する医用画像に基づいて患者の疾患を解析する。具体的には、機械学習システム40は、医用画像に基づく解析処理によって図2に示す疾患候補テーブルTBL1から疾患候補を特定し、当該疾患候補と患者の疾患が当該疾患候補に該当する確率とを含む解析レポートを画像診断支援装置10に返送する。 The machine learning system 40 has artificial intelligence similar to that of a physician experienced in diagnosing patient disease based on medical images, and analyzes the patient disease based on the medical image accompanying the analysis request. Specifically, the machine learning system 40 identifies disease candidates from the disease candidate table TBL1 shown in FIG. An analysis report containing the information is sent back to the diagnostic imaging support apparatus 10 .

解析レポートが返送されると、CPU12prは、解析レポート画面をDRAM12mmに展開する。展開された解析レポート画面はメインモニタ12m1によって読み出され、図10に示す要領で読影レポート画面に多重表示(追加表示)される。 When the analysis report is returned, the CPU 12pr develops the analysis report screen in the DRAM 12mm. The expanded analysis report screen is read out by the main monitor 12m1, and multiplexed (additionally displayed) on the interpretation report screen in the manner shown in FIG.

図10を参照して、胸部単純CT撮影によって生成された医用画像に基づく疾患候補および該当確率は、解析レポート画面の左側に表示される。また、胸部造影CT撮影によって生成された医用画像に基づく疾患候補および該当確率は、解析レポート画面の右側に表示される。 Referring to FIG. 10, disease candidates and corresponding probabilities based on medical images generated by plain CT imaging of the chest are displayed on the left side of the analysis report screen. Further, disease candidates and corresponding probabilities based on medical images generated by contrast-enhanced chest CT imaging are displayed on the right side of the analysis report screen.

ここでは、胸部単純CT撮影によって生成された医用画像に基づく疾患候補および該当確率は、“胸膜炎80%”,“狭心症50%”,“急性心筋炎15%”,“肺癌10%”の順で並ぶ。また、胸部造影CT撮影によって生成された医用画像に基づく疾患候補および該当確率は、“狭心症80%”,“心筋梗塞40%”,“大動脈弁疾患30%”,“急性心筋炎10%”の順で並ぶ。 Here, disease candidates based on medical images generated by plain chest CT imaging and their corresponding probabilities are "pleuritis 80%", "angina pectoris 50%", "acute myocarditis 15%", and "lung cancer 10%". Line up in order. In addition, disease candidates based on medical images generated by contrast-enhanced CT imaging of the chest and corresponding probabilities are "angina pectoris 80%", "myocardial infarction 40%", "aortic valve disease 30%", and "acute myocarditis 10%". ” in order.

なお、所見欄RMKおよび診断欄DGNの各々に表示された文字列、ならびに添付画像欄IMGに添付されたサムネイル画像は、解析レポート画面が表示された後にキーボード/マウス12kmを操作することにより、変更可能である。 The character strings displayed in each of the findings column RMK and the diagnosis column DGN and the thumbnail images attached to the attached image column IMG can be changed by operating the keyboard/mouse 12 km after the analysis report screen is displayed. It is possible.

読影レポート画面の右上に表示された「確定」ボタンがキーボード/マウス12kmによってクリックされれば、確定処理が行われる。この結果、メインモニタ12m1の表示は、読影レポート画面からトップ画面に復帰する。ただし、確定処理を施された読影レポートに対応する見出しには、“保留”に代えて“確定”の文字列が付される。 When the "Confirm" button displayed at the upper right of the interpretation report screen is clicked with the keyboard/mouse 12km, the confirmation process is performed. As a result, the display on the main monitor 12m1 returns from the interpretation report screen to the top screen. However, instead of "pending", the character string "confirmed" is attached to the headline corresponding to the interpretation report that has undergone the confirmation process.

機械学習システム40に設けられたCPU42prは、図11~図12に示すフロー図に従って患者の疾患を解析する処理を実行する。なお、このフロー図に対応する制御プログラムは、DB42dbに記憶される。 A CPU 42pr provided in the machine learning system 40 executes processing for analyzing a patient's disease according to the flowcharts shown in FIGS. A control program corresponding to this flow chart is stored in the DB 42db.

図11を参照して、ステップS01では、画像診断支援装置10から解析要求を受信したか否かを通信I/F42cmの処理状況に基づいて繰り返し判別し、判別結果がNOからYESに更新されるとステップS02に進む。なお、解析要求に付随するシリーズ画像は、通信I/F42cmによってDRAM42mmに書き込まれる。 Referring to FIG. 11, in step S01, whether or not an analysis request has been received from image diagnosis support apparatus 10 is repeatedly determined based on the processing status of communication I/F 42cm, and the determination result is updated from NO to YES. and proceed to step S02. The series images accompanying the analysis request are written in the DRAM 42mm by the communication I/F 42cm.

ステップS02では、DRAM42mmに格納されたシリーズ画像の数を定数Lmaxに設定し、変数Lを“1”に設定する。1シリーズ目のシリーズ画像および2シリーズ目のシリーズ画像がDRAM42mmに格納された場合、定数Lmaxは“2”に設定される。ステップS03では、Lシリーズ目のシリーズ画像を構成する医用画像の枚数を定数Kmaxに設定し、変数Kを“1”に設定する。 In step S02, the number of series images stored in the DRAM 42mm is set to a constant Lmax, and the variable L is set to "1". When the series images of the first series and the series images of the second series are stored in the DRAM 42mm, the constant Lmax is set to "2". In step S03, the number of medical images forming the L-th series image is set to a constant Kmax, and the variable K is set to "1".

ステップS04では、Lシリーズ目のシリーズ画像を構成するK枚目の医用画像の特徴量をメモリエリアMM1に記憶されている頭部CT特徴量と照合する。ステップS05では、Lシリーズ目のシリーズ画像を構成するK枚目の医用画像の特徴量をメモリエリアMM1に記憶されている胸部CT特徴量と照合する。ステップS06では、Lシリーズ目のシリーズ画像を構成するK枚目の医用画像の特徴量をメモリエリアMM1に記憶されている腹部CT特徴量と照合する。 In step S04, the feature amount of the K-th medical image forming the L-th series image is collated with the head CT feature amount stored in the memory area MM1. In step S05, the feature amount of the K-th medical image forming the L-th series image is collated with the chest CT feature amount stored in the memory area MM1. In step S06, the feature amount of the K-th medical image forming the L-th series image is collated with the abdominal CT feature amount stored in the memory area MM1.

ステップS07では、ステップS04~S06の各々の照合結果に基づいて、当該K枚目の医用画像の撮影部位を特定する。ステップS08では、当該K枚目の医用画像の撮影部位が頭部であるか否かをステップS07の処理結果に基づいて判別し、ステップS09では、当該K枚目の医用画像の撮影部位が胸部であるか否かをステップS07の処理結果に基づいて判別し、ステップS10では、当該K枚目の医用画像の撮影部位が腹部であるか否かをステップS07の処理結果に基づいて判別する。 In step S07, based on the matching results of steps S04 to S06, the imaged region of the K-th medical image is specified. In step S08, it is determined based on the processing result of step S07 whether or not the imaging region of the K-th medical image is the head, and in step S09, the imaging region of the K-th medical image is the chest. Based on the result of processing in step S07, it is determined whether or not the imaged region of the K-th medical image is the abdomen based on the result of processing in step S07 in step S10.

ステップS08の判別結果がYESであれば、頭部単純CT特徴量および頭部造影CT特徴量を対象として照合処理を実行するべく、ステップS17に進む。ステップS09の判別結果がYESであれば、胸部単純CT特徴量および胸部造影CT特徴量を対象として照合処理を実行するべく、ステップS20に進む。ステップS10の判別結果がYESであれば、腹部単純CT特徴量および腹部造影CT特徴量を対象として照合処理を実行するべく、ステップS23に進む。 If the determination result in step S08 is YES, the process proceeds to step S17 to execute matching processing for the simple head CT feature amount and the head enhanced CT feature amount. If the determination result in step S09 is YES, the process proceeds to step S20 in order to execute matching processing for the chest simple CT feature amount and the chest enhanced CT feature amount. If the determination result in step S10 is YES, the process proceeds to step S23 in order to execute matching processing for the abdominal simple CT feature amount and the abdominal contrast-enhanced CT feature amount.

上述のように、第1分類は、撮影部位(頭部CT、胸部CTおよび腹部CT)を基準とする分類であり、第2分類は、撮影部位および撮影方法の両方(頭部単純CT、頭部造影CT、胸部単純CT、胸部造影CT、腹部単純CT、腹部造影CT)を基準とする分類であるところ、ステップS07の処理は、いずれか1つの第1分類を特定する処理に相当し、ステップS08,S09またはS10の処理は、ステップS07で特定された第1分類に属する2つの第2分類を特定する処理に相当する。 As described above, the first classification is based on the imaging site (head CT, chest CT, and abdomen CT), and the second classification is based on both the imaging site and the imaging method (head simple CT, head CT, head CT). contrast-enhanced CT, chest simple CT, chest contrast-enhanced CT, abdominal simple CT, and abdominal contrast-enhanced CT), the process of step S07 corresponds to the process of specifying any one of the first classifications, The process of steps S08, S09 or S10 corresponds to the process of identifying two second classes belonging to the first class identified in step S07.

ステップS08でYESと判別されることにより、頭部単純CTおよび頭部造影CTの2つの第2分類が特定され、ステップS09でYESと判別されることにより、胸部単純CTおよび胸部造影CTの2つの第2分類が特定され、ステップS10でYESと判別されることにより、腹部単純CTおよび腹部造影CTの2つの第2分類が特定される。 By determining YES in step S08, the two second classifications of simple head CT and enhanced head CT are identified, and by determining YES in step S09, the two second classifications of simple chest CT and enhanced chest CT are identified. Two second classifications are identified, and two second classifications of abdominal simple CT and abdominal contrast-enhanced CT are identified by determining YES in step S10.

ステップS17では、当該K枚目の医用画像の特徴量をメモリエリアMM2に記憶されている頭部単純CT特徴量と照合し、ステップS18では、当該K枚目の医用画像の特徴量をメモリエリアMM2に記憶されている頭部造影CT特徴量と照合する。ステップS19では、ステップS17およびS18の各々の照合結果に基づいて、当該K枚目の医用画像の撮影方法を特定する。 In step S17, the feature amount of the K-th medical image is collated with the head simple CT feature amount stored in the memory area MM2. It is collated with the cephalometric CT feature amount stored in MM2. In step S19, the imaging method of the K-th medical image is specified based on the matching results of steps S17 and S18.

ステップS20では、当該K枚目の医用画像の特徴量をメモリエリアMM2に記憶されている胸部単純CT特徴量と照合し、ステップS21では、当該K枚目の医用画像の特徴量をメモリエリアMM2に記憶されている胸部造影CT特徴量と照合する。ステップS22では、ステップS20およびS21の各々の照合結果に基づいて、当該K枚目の医用画像の撮影方法を特定する。 In step S20, the feature amount of the K-th medical image is collated with the chest plain CT feature amount stored in the memory area MM2. is compared with the chest contrast-enhanced CT feature value stored in . In step S22, the imaging method for the K-th medical image is specified based on the matching results in steps S20 and S21.

ステップS23では、当該K枚目の医用画像の特徴量をメモリエリアMM2に記憶されている腹部単純CT特徴量と照合し、ステップS24では、当該K枚目の医用画像の特徴量をメモリエリアMM2に記憶されている腹部造影CT特徴量と照合する。ステップS25では、ステップS23およびS24の各々の照合結果に基づいて、当該K枚目の医用画像の撮影方法を特定する。 In step S23, the feature amount of the K-th medical image is collated with the abdominal simple CT feature amount stored in the memory area MM2. is compared with the feature amount of abdominal contrast-enhanced CT stored in . In step S25, the imaging method for the K-th medical image is specified based on the matching results in steps S23 and S24.

ステップS26では、当該K枚目の医用画像の撮影方法が単純CT撮影であるか否かをステップS19,S22またはS25の処理結果に基づいて判別する。また、ステップS27では、当該K枚目の医用画像の撮影方法が造影CT撮影であるか否かをステップS19,S22またはS25の処理結果に基づいて判別する。ステップS26の判別結果およびステップS27の判別結果のいずれか一方がYESであれば、ステップS28に進む。 In step S26, it is determined whether or not the imaging method of the K-th medical image is simple CT imaging based on the processing result of steps S19, S22, or S25. Also, in step S27, it is determined whether or not the imaging method of the K-th medical image is contrast-enhanced CT imaging based on the processing results of steps S19, S22, or S25. If either the determination result of step S26 or the determination result of step S27 is YES, the process proceeds to step S28.

ステップS28では、ステップS07で特定された撮影部位とステップS19,S22またはS25で特定された撮影方法とに対応する特徴量をメモリエリアMM3に記憶された特徴量の中から特定し、当該K枚目の医用画像の特徴量をメモリエリアMM3から特定した特徴量と照合することにより、患者の疾患を解析する。 In step S28, a feature amount corresponding to the imaging region specified in step S07 and the imaging method specified in step S19, S22 or S25 is specified from among the feature amounts stored in the memory area MM3, and the K sheets are selected. The patient's disease is analyzed by collating the feature amount of the medical image of the eye with the feature amount specified from the memory area MM3.

具体的には、特定された撮影部位および撮影方法がそれぞれ頭部および単純CTであれば、当該K枚目の医用画像の特徴量をメモリエリアMM3に記憶された複数の頭部単純CT特徴量の各々と照合することにより、患者の疾患を解析する。特定された撮影部位および撮影方法がそれぞれ頭部および造影CTであれば、当該K枚目の医用画像の特徴量をメモリエリアMM3に記憶された複数の頭部造影CT特徴量の各々と照合することにより、患者の疾患を解析する。 Specifically, if the specified imaging region and imaging method are the head and simple CT, respectively, the feature amount of the K-th medical image is obtained from the plurality of head simple CT feature amounts stored in the memory area MM3. The patient's disease is analyzed by matching with each of If the specified imaging region and imaging method are the head and contrast-enhanced CT, respectively, the feature amount of the K-th medical image is collated with each of the plurality of head-enhanced CT feature amounts stored in the memory area MM3. By doing so, the patient's disease is analyzed.

特定された撮影部位および撮影方法がそれぞれ胸部および単純CTであれば、当該K枚目の医用画像の特徴量をメモリエリアMM3に記憶された複数の胸部単純CT特徴量の各々と照合することにより、患者の疾患を解析する。特定された撮影部位および撮影方法がそれぞれ胸部および造影CTであれば、当該K枚目の医用画像の特徴量をメモリエリアMM3に記憶された複数の胸部造影CT特徴量の各々と照合することにより、患者の疾患を解析する。 If the specified imaging region and imaging method are chest and simple CT, respectively, the feature amount of the K-th medical image is compared with each of the plurality of simple chest CT feature amounts stored in memory area MM3. , to analyze the patient's disease. If the specified imaging region and imaging method are chest and contrast-enhanced CT, respectively, the feature quantity of the K-th medical image is compared with each of the plurality of chest contrast-enhanced CT feature quantities stored in memory area MM3. , to analyze the patient's disease.

特定された撮影部位および撮影方法がそれぞれ腹部および単純CTであれば、当該K枚目の医用画像の特徴量をメモリエリアMM3に記憶された複数の腹部単純CT特徴量の各々と照合することにより、患者の疾患を解析する。特定された撮影部位および撮影方法がそれぞれ腹部および造影CTであれば、当該K枚目の医用画像の特徴量をメモリエリアMM3に記憶された複数の腹部造影CT特徴量の各々と照合することにより、患者の疾患を解析する。 If the specified imaging region and imaging method are the abdomen and the imaging method, respectively, by comparing the feature amount of the K-th medical image with each of the plurality of abdominal simple CT feature amounts stored in the memory area MM3, , to analyze the patient's disease. If the specified imaging region and imaging method are the abdomen and contrast-enhanced CT, respectively, the feature amount of the K-th medical image is compared with each of the plurality of abdominal contrast-enhanced CT feature amounts stored in the memory area MM3. , to analyze the patient's disease.

ステップS28の処理が完了すると、ステップS12に進む。なお、ステップS08~S10のいずれの判別結果もNOであれば、ステップS11でエラー処理を行ってからステップS12に進む。また、ステップS26の判別結果およびステップS27の判別結果のいずれもNOであれば、ステップS29でエラー処理を行ってからステップS12に進む。 When the process of step S28 is completed, the process proceeds to step S12. If the determination result of any of steps S08 to S10 is NO, error processing is performed in step S11, and then the process proceeds to step S12. If both the determination result of step S26 and the determination result of step S27 are NO, error processing is performed in step S29, and then the process proceeds to step S12.

ステップS12では変数Kを“K+1”に更新し、ステップS13では更新後の変数Kが定数Kmaxを上回っているか否かを判別する。判別結果がNOであればステップS04に戻り、判別結果がYESであればステップS14に進む。ステップS14では変数Lを“L+1”に更新し、ステップS15では更新後の変数Lが定数Lmaxを上回っているか否かを判別する。判別結果がNOであればステップS03に戻り、判別結果がYESであればステップS16に進む。 In step S12, the variable K is updated to "K+1", and in step S13, it is determined whether or not the updated variable K exceeds the constant Kmax. If the determination result is NO, the process returns to step S04, and if the determination result is YES, the process proceeds to step S14. In step S14, the variable L is updated to "L+1", and in step S15, it is determined whether or not the updated variable L exceeds the constant Lmax. If the determination result is NO, the process returns to step S03, and if the determination result is YES, the process proceeds to step S16.

ステップS16では、ステップS28の処理結果に基づいて、図2に示す疾患候補テーブルTBL1から疾患候補を特定するとともに、当該疾患候補について統計を取り、当該疾患候補と患者の疾患が当該疾患候補に該当する確率とを含む解析レポートを画像診断支援装置10に返送する。解析処理は、解析レポートを返送した後に終了する。 In step S16, a disease candidate is specified from the disease candidate table TBL1 shown in FIG. 2 based on the processing result of step S28, and statistics are obtained for the disease candidate, and the disease candidate and the patient's disease correspond to the disease candidate. and an analysis report including the probability that The analysis process ends after returning the analysis report.

以上の説明から分かるように、患者を撮影することにより生成された医用画像を処理して患者の疾患を解析するとき、機械学習システム40のCPU42prは、複数の第1分類の各々に属する基準医用画像の特徴を表す第1特徴量(頭部CT特徴量、胸部CT特徴量、腹部CT特徴量)と、医用画像の特徴量とを照合する第1照合処理を実行する(S04~S06)。CPU42prはまた、複数の第2分類の各々に属する基準医用画像の特徴を表す第2特徴量(頭部単純CT特徴量、頭部造影CT特徴量、胸部単純CT特徴量、胸部造影CT特徴量、腹部単純CT特徴量、腹部造影CT特徴量)のうち、特定の第2分類の第2特徴量と、医用画像の特徴量とを照合する第2照合処理を実行する(S07~S10, S17~S18, S20~S21, S23~S24)。 As can be seen from the above description, when processing a medical image generated by photographing a patient and analyzing the patient's disease, the CPU 42pr of the machine learning system 40 uses reference medical images belonging to each of a plurality of first classifications. A first matching process is executed to match the first feature amount (head CT feature amount, chest CT feature amount, abdominal CT feature amount) representing the feature of the image with the feature amount of the medical image (S04 to S06). The CPU 42pr also calculates a second feature quantity (head simple CT feature quantity, head enhanced CT feature quantity, chest simple CT feature quantity, chest enhanced CT feature quantity , abdominal simple CT feature amount, abdominal enhanced CT feature amount), the second matching process is performed to match the second feature amount of a specific second classification with the feature amount of the medical image (S07 to S10, S17 ~S18, S20~S21, S23~S24).

ここで、複数の第2分類の各々は、複数の第1分類のいずれか1つに属する。また、第2照合処理では、第1照合処理の結果に基づいて複数の第1分類のうちのいずれかの第1分類が特定され(S07)、複数の第2分類のうち当該第1分類に属する第2分類が特定の第2分類として特定される(S08~S10)。 Here, each of the plurality of second classifications belongs to any one of the plurality of first classifications. Further, in the second collation process, one of the plurality of first classifications is identified based on the result of the first collation process (S07), and the first classification among the plurality of second classifications is identified. The second class to which it belongs is specified as a specific second class (S08-S10).

複数の第2分類の各々は複数の第1分類のいずれか1つに属するところ、患者の医用画像の特徴量は、複数の第1分類の各々の第1特徴量と照合されるとともに、複数の第2分類のうち、第1特徴量との照合結果に応じて異なる第2分類の第2特徴量と照合される。この結果、第1分類および第2分類の情報が患者の医用画像に付されていなくても、照合処理によって当該情報を特定することができ、ひいては画像診断支援性能を高めることができる。 Each of the plurality of second classifications belongs to one of the plurality of first classifications, and the feature amount of the patient's medical image is matched with the first feature amount of each of the plurality of first classifications, and the plurality of Among the second classifications, matching is performed with a second feature quantity of a different second classification according to the matching result with the first feature quantity. As a result, even if the information of the first classification and the second classification is not attached to the patient's medical image, the information can be specified by the matching process, and the image diagnosis support performance can be enhanced.

なお、本実施形態では、モダリティ20としてCT装置を用いているが、これに変えてMRIを用いるようにしてもよい。また、本実施形態では、撮影部位を基準とする分類を第1分類とし、撮影部位および撮影方法の両方を基準とする分類を第2分類としている。しかし、撮影方向を基準とする分類を第1分類とし、撮影部位および撮影方法の両方を基準とする分類を第2分類とするようにしてもよい。 In this embodiment, a CT device is used as the modality 20, but MRI may be used instead. Further, in the present embodiment, the classification based on the imaging region is set as the first classification, and the classification based on both the imaging region and the imaging method is set as the second classification. However, the classification based on the imaging direction may be the first classification, and the classification based on both the imaging region and the imaging method may be the second classification.

10 …画像診断支援装置
40 …機械学習システム
12pr、42pr …CPU
12hd …HDD
12m1 …メインモニタ
12m2 …サブモニタ
42db …データベース


DESCRIPTION OF SYMBOLS 10... Image diagnosis assistance apparatus 40... Machine learning system 12pr, 42pr... CPU
12hd …HDD
12m1 ... Main monitor 12m2 ... Sub monitor 42db ... Database


Claims (6)

単一のモダリティによって患者を撮影することにより生成された医用画像を処理する医用画像処理装置であって、
撮影部位および撮影方法の一方を基準とする分類である複数の第1分類の各々に属する基準医用画像の特徴を表す第1特徴量と、前記医用画像の特徴量とを照合する第1照合手段、および
前記撮影部位および前記撮影方法の両方を基準とする分類である複数の第2分類の各々に属する基準医用画像の特徴を表す第2特徴量のうち、特定の第2分類の第2特徴量と、前記医用画像の特徴量とを照合する第2照合手段を備え、
前記複数の第2分類の各々は前記複数の第1分類のいずれか1つに属し、
前記第2照合手段は、
前記第1照合手段の照合結果に基づいて前記複数の第1分類のいずれか1つを特定する第1分類特定手段、および
前記複数の第2分類のうち前記第1分類特定手段によって特定された第1分類に属する第2分類を前記特定の第2分類として特定する第2分類特定手段を含み、
前記特定の第2分類の数は2以上であり、
前記第2照合手段の照合結果に基づいて前記特定の第2分類のいずれか1つを特定する特定手段を備える、医用画像処理装置。
A medical image processing apparatus for processing medical images generated by imaging a patient with a single modality ,
A first collation means for collating a first feature quantity representing a feature of a reference medical image belonging to each of a plurality of first classifications based on one of an imaging region and an imaging method with the feature quantity of the medical image. ,and
a second feature quantity of a specific second classification among second feature quantities representing features of a reference medical image belonging to each of a plurality of second classifications based on both the imaging region and the imaging method ; , a second matching means for matching the feature amount of the medical image,
Each of the plurality of second classifications belongs to any one of the plurality of first classifications,
The second verification means is
a first classification identifying means for identifying any one of the plurality of first classifications based on the collation result of the first collating means; and one of the plurality of second classifications identified by the first classification identifying means. including a second classification identifying means for identifying a second classification belonging to the first classification as the specific second classification,
The number of the specific second classifications is 2 or more,
A medical image processing apparatus, comprising specifying means for specifying any one of the specific second classifications based on a collation result of the second collating means .
前記特定手段によって特定された第2分類に属する基準医用画像の特徴量と前記医用画像の特徴量とを照合して前記患者の疾患を解析する解析手段をさらに備える、請求項1記載の医用画像処理装置。 2. The medical image according to claim 1, further comprising analysis means for analyzing the patient's disease by collating the feature amount of the reference medical image belonging to the second classification identified by the identification means with the feature amount of the medical image. processing equipment. 前記基準医用画像は複数の患者の各々を撮影することにより生成された医用画像である、請求項1または2記載の医用画像処理装置。 3. The medical image processing apparatus according to claim 1, wherein said reference medical image is a medical image generated by photographing each of a plurality of patients. 前記患者の医用画像にはタグ情報が付されており、
前記第1分類および前記第2分類の各々の基準となる情報は前記タグ情報において欠落している、請求項1ないしのいずれかに記載の医用画像処理装置。
tag information is attached to the medical image of the patient;
4. The medical image processing apparatus according to any one of claims 1 to 3 , wherein reference information for each of said first classification and said second classification is missing in said tag information.
単一のモダリティによって患者を撮影することにより生成された医用画像を処理する医用画像処理装置によって実行される医用画像処理方法であって、
撮影部位および撮影方法の一方を基準とする分類である複数の第1分類の各々に属する基準医用画像の特徴を表す第1特徴量と、前記医用画像の特徴量とを照合する第1照合ステップ、および
前記撮影部位および前記撮影方法の両方を基準とする分類である複数の第2分類の各々に属する基準医用画像の特徴を表す第2特徴量のうち、特定の第2分類の第2特徴量と、前記医用画像の特徴量とを照合する第2照合ステップを備え、
前記複数の第2分類の各々は前記複数の第1分類のいずれか1つに属し、
前記第2照合ステップは、
前記第1照合ステップの照合結果に基づいて前記複数の第1分類のいずれか1つを特定する第1分類特定ステップ、および
前記複数の第2分類のうち前記第1分類特定ステップによって特定された第1分類に属する第2分類を前記特定の第2分類として特定する第2分類特定ステップを含み、
前記特定の第2分類の数は2以上であり、
前記第2照合ステップの照合結果に基づいて前記特定の第2分類のいずれか1つを特定する特定ステップを備える、医用画像処理方法。
A medical image processing method performed by a medical image processing apparatus that processes medical images generated by imaging a patient with a single modality , comprising:
A first collation step of collating a first feature quantity representing a feature of a reference medical image belonging to each of a plurality of first classifications based on one of an imaging region and an imaging method with the feature quantity of the medical image. ,and
a second feature quantity of a specific second classification among second feature quantities representing features of a reference medical image belonging to each of a plurality of second classifications based on both the imaging region and the imaging method ; , a second matching step of matching the feature amount of the medical image,
Each of the plurality of second classifications belongs to any one of the plurality of first classifications,
The second verification step includes:
a first classification identifying step of identifying any one of the plurality of first classifications based on the collation result of the first collating step; and one of the plurality of second classifications identified by the first classification identifying step including a second classification identifying step of identifying a second classification belonging to the first classification as the specific second classification;
The number of the specific second classification is 2 or more,
A medical image processing method, comprising a specifying step of specifying any one of the specific second classifications based on the matching result of the second matching step .
単一のモダリティによって患者を撮影することにより生成された医用画像を処理する医用画像処理装置のプロセッサに、
撮影部位および撮影方法の一方を基準とする分類である複数の第1分類の各々に属する基準医用画像の特徴を表す第1特徴量と、前記医用画像の特徴量とを照合する第1照合ステップ、および
前記撮影部位および前記撮影方法の両方を基準とする分類である複数の第2分類の各々に属する基準医用画像の特徴を表す第2特徴量のうち、特定の第2分類の第2特徴量と、前記医用画像の特徴量とを照合する第2照合ステップを実行させるための医用画像処理プログラムであって、
前記複数の第2分類の各々は前記複数の第1分類のいずれか1つに属し、
前記第2照合ステップは、
前記第1照合ステップの照合結果に基づいて前記複数の第1分類のいずれか1つを特定する第1分類特定ステップ、および
前記複数の第2分類のうち前記第1分類特定ステップによって特定された第1分類に属する第2分類を前記特定の第2分類として特定する第2分類特定ステップを含み、
前記特定の第2分類の数は2以上であり、
前記第2照合ステップの照合結果に基づいて前記特定の第2分類のいずれか1つを特定する特定ステップを備える、医用画像処理プログラム。
to a processor of a medical image processing device that processes medical images generated by imaging a patient with a single modality ;
A first collation step of collating a first feature quantity representing a feature of a reference medical image belonging to each of a plurality of first classifications based on one of an imaging region and an imaging method with the feature quantity of the medical image. ,and
a second feature quantity of a specific second classification among second feature quantities representing features of a reference medical image belonging to each of a plurality of second classifications based on both the imaging region and the imaging method ; , a medical image processing program for executing a second matching step of matching the feature amount of the medical image,
Each of the plurality of second classifications belongs to any one of the plurality of first classifications,
The second verification step includes:
a first classification identifying step of identifying any one of the plurality of first classifications based on the collation result of the first collating step; and one of the plurality of second classifications identified by the first classification identifying step a second classification identifying step of identifying a second classification belonging to the first classification as the specific second classification ;
The number of the specific second classifications is 2 or more,
A medical image processing program, comprising a specifying step of specifying any one of the specific second classifications based on a matching result of the second matching step .
JP2018104971A 2018-05-31 2018-05-31 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND MEDICAL IMAGE PROCESSING PROGRAM Active JP7154492B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018104971A JP7154492B2 (en) 2018-05-31 2018-05-31 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND MEDICAL IMAGE PROCESSING PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018104971A JP7154492B2 (en) 2018-05-31 2018-05-31 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND MEDICAL IMAGE PROCESSING PROGRAM

Publications (2)

Publication Number Publication Date
JP2019208620A JP2019208620A (en) 2019-12-12
JP7154492B2 true JP7154492B2 (en) 2022-10-18

Family

ID=68844249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018104971A Active JP7154492B2 (en) 2018-05-31 2018-05-31 MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND MEDICAL IMAGE PROCESSING PROGRAM

Country Status (1)

Country Link
JP (1) JP7154492B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115205294B (en) * 2022-09-16 2022-11-22 杭州脉流科技有限公司 Ischemic stroke infarction assessment device and method based on multi-model fusion

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009502230A (en) 2005-07-22 2009-01-29 ケアストリーム ヘルス インク Detection of wounds in medical images
JP2009061170A (en) 2007-09-07 2009-03-26 Konica Minolta Medical & Graphic Inc Medical diagnostic imaging support apparatus
WO2010050334A1 (en) 2008-10-30 2010-05-06 コニカミノルタエムジー株式会社 Information processing device
JP2014014680A (en) 2012-07-11 2014-01-30 General Electric Co <Ge> System and method for performing image type recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009502230A (en) 2005-07-22 2009-01-29 ケアストリーム ヘルス インク Detection of wounds in medical images
JP2009061170A (en) 2007-09-07 2009-03-26 Konica Minolta Medical & Graphic Inc Medical diagnostic imaging support apparatus
WO2010050334A1 (en) 2008-10-30 2010-05-06 コニカミノルタエムジー株式会社 Information processing device
JP2014014680A (en) 2012-07-11 2014-01-30 General Electric Co <Ge> System and method for performing image type recognition

Also Published As

Publication number Publication date
JP2019208620A (en) 2019-12-12

Similar Documents

Publication Publication Date Title
Bakas et al. Advancing the cancer genome atlas glioma MRI collections with expert segmentation labels and radiomic features
US8837794B2 (en) Medical image display apparatus, medical image display method, and medical image display program
US20190156947A1 (en) Automated information collection and evaluation of clinical data
WO2010082246A1 (en) Information processing device and information processing method
US8934687B2 (en) Image processing device, method and program including processing of tomographic images
JP6906462B2 (en) Medical image display devices, methods and programs
KR20100096224A (en) Systems and methods for efficient imaging
JP2014512897A (en) Method and system for intelligent linking of medical data
JP2013511762A (en) Protocol Guide Imaging Procedure
US20110282194A1 (en) Method and apparatus of quantitative analysis and data mining of medical imaging agent administration
JP2015203920A (en) Similar case retrieval system, similar case retrieval method and program
JP2015201092A (en) Information processing device, information processing method, and program
JP2019149005A (en) Medical document creation support apparatus, method, and program
US20130159022A1 (en) Clinical state timeline
US10803986B2 (en) Automatic layout apparatus, automatic layout method, and automatic layout program
JP5172262B2 (en) Report creation support system and report creation support method
JP7154492B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, MEDICAL IMAGE PROCESSING METHOD AND MEDICAL IMAGE PROCESSING PROGRAM
JP6571346B2 (en) Medical information processing apparatus and medical information processing method
US20100274116A1 (en) Computer-supported medical image acquisition and/or assessment
Chang et al. Computer-aided diagnosis for surgical office-based breast ultrasound
WO2019193983A1 (en) Medical document display control device, medical document display control method, and medical document display control program
WO2019102917A1 (en) Radiologist determination device, method, and program
JP7109910B2 (en) Image interpretation report creation support device and image interpretation report creation support method
Krieger On cave paintings and shallow waters—the case for advancing spinal cord imaging in multiple sclerosis
JP2023020145A (en) Analysis device, analysis method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220922

R150 Certificate of patent or registration of utility model

Ref document number: 7154492

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150