WO2023276810A1 - 疾患ラベル作成装置、方法及びプログラム並びに学習装置及び疾患検出モデル - Google Patents

疾患ラベル作成装置、方法及びプログラム並びに学習装置及び疾患検出モデル Download PDF

Info

Publication number
WO2023276810A1
WO2023276810A1 PCT/JP2022/024843 JP2022024843W WO2023276810A1 WO 2023276810 A1 WO2023276810 A1 WO 2023276810A1 JP 2022024843 W JP2022024843 W JP 2022024843W WO 2023276810 A1 WO2023276810 A1 WO 2023276810A1
Authority
WO
WIPO (PCT)
Prior art keywords
disease
image
label
ray image
reliability
Prior art date
Application number
PCT/JP2022/024843
Other languages
English (en)
French (fr)
Inventor
祐太 日朝
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2023531856A priority Critical patent/JPWO2023276810A5/ja
Priority to EP22832958.7A priority patent/EP4364665A1/en
Publication of WO2023276810A1 publication Critical patent/WO2023276810A1/ja
Priority to US18/395,710 priority patent/US20240127613A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • G06T2207/30064Lung nodule
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Definitions

  • Non-Patent Document 1 when manually creating disease labels for simple X-ray images while referring to CT (Computed Tomography) images of the same patient, it requires a great deal of labor and time, and annotation costs There is a problem that the In addition, if an annotation at a level that is visible in CT images but not visible in simple X-ray images is reflected in learning, it may become noise in learning of the disease detection model.
  • CT Computer Tomography
  • the alignment processing includes processing for extracting a two-dimensional anatomical region of interest from a plain X-ray image, and processing for extracting a two-dimensional anatomical region of interest from a CT image.
  • Anatomical regions of interest are, for example, lung fields, ribcage, heart, and aorta.
  • the statistical deformation model applicable to the patient is selected and the selected A statistical deformation model is used to perform non-rigid registration of plain X-ray and CT images.
  • An invention according to an eighteenth aspect is a learning device comprising a second processor, wherein the second processor comprises a simple X-ray image and a second disease label generated by the disease label generating device according to the first or second aspect.
  • a learning device that performs learning processing for learning a disease detection model using first teacher data consisting of and converges a first error between the output of the disease detection model and the second disease label be.
  • the nineteenth aspect of the present invention not only the second disease label but also the first reliability based on the visibility of the disease is used, and the first error is adjusted according to the first reliability for learning. Therefore, it is possible to reduce the influence of annotation noise at a level that is visible in a CT image but not visible or difficult to be visible in a simple X-ray image.
  • the disease labeling apparatus 10 shown in FIG. 1 can be configured by a personal computer, workstation, or the like, and includes a processor 12, a memory 14, a first database 16, a second database 18, a display 20, an input/output interface 22, and an operating system.
  • a unit 24 and the like are provided.
  • the display 20 is a part that displays simple X-ray images, detection results of diseases detected by a learned disease detection model, etc. when detecting diseases from simple X-ray images that are diagnostic targets.
  • a user can refer to the detection results and the like displayed on the display 20 when performing image diagnosis by observing a simple X-ray image to be diagnosed.
  • the display 20 can be used as part of the user interface when receiving various instructions from the user.
  • the disease label creation device 10-1 of the first embodiment shown in FIG. 2 is composed of a processor 12 (first processor) and a memory 14 included in the disease label creation device 10 having the hardware configuration shown in FIG.
  • Processor 12 functions as information acquisition unit 28 , registration processing unit 30 , and disease label converter 40 as described above.
  • the first disease label is automatically ( can be obtained easily).
  • the slice image of the CT image since the contrast between the normal region and the diseased region is clear, the diseased region can be extracted with high accuracy.
  • the three-dimensional CT image 2 is attached to the first disease label extracted in advance. It may be automatically detected.
  • a disease class classification size, volume, lung disease, lung nodule, lung mass, etc.
  • FIG. 3 is a block diagram showing a first embodiment of the alignment processing section shown in FIG.
  • the DRR image created by the DRR image creation unit 33 is added to the comparison unit 32.
  • the alignment processing unit 30 performs processing for projecting the extracted three-dimensional anatomical landmarks, and performs processing for aligning the two-dimensional anatomical landmarks with the projected anatomical landmarks. . That is, the projection conditions of the three-dimensional anatomical landmarks are adjusted and projected so that both anatomical landmarks match.
  • a third embodiment of the registration processing unit 30 shown in FIG. Perform registration using anatomical regions of interest.
  • a fourth embodiment of the alignment processing unit 30 shown in FIG. 3 performs alignment using a simple X-ray image restored in three dimensions and a three-dimensional CT image.
  • the registration processing unit 30 performs non-rigid registration of the simple X-ray image 1 and the CT image 2 using the selected statistical deformation model.
  • the disease label creation device 10-2 of the second embodiment shown in FIG. 4 differs from the disease label creation device 10-1 of the first embodiment in that a reliability calculator 42 is added.
  • the first embodiment of the reliability calculator 42 shown in FIG. 4 calculates the reliability (first reliability) of the disease area (second disease area) from the visibility of the disease area in the simple X-ray image 1. do.
  • the processor 12 creates the simple X-ray image 1
  • the second disease label and the first reliability (with reliability disease label 3-2) is stored in the second database 18 as second teacher data.
  • the information acquisition unit 28 can acquire a disease label (third disease label) for each image of the CT image 2 .
  • the third disease label for each image includes presence/absence of disease, disease class classification (size, volume), number of diseases, presence/absence of disease in each of the left and right lungs, and the like.
  • the disease label 3-2 with reliability is added to one input of the error calculation unit 62-2, and the detection result 4-2, which is the output of the disease detection model 50-2, is added to the other input.
  • the error calculation unit 62-2 calculates the error (first error) between the disease label 3-1 and the detection result 4-2, and applies the calculated first error to the first confidence associated with the disease label 3-2. Adjust accordingly. For example, if the first confidence has a value in the range of 0 to 1.0, the first error can be adjusted by multiplying the first error by the first confidence.
  • a modified example of the learning device 11-2 of the second embodiment causes the disease detection model 50-2 to learn so that reliability (second reliability) is also output as a detection result.
  • second reliability the reliability of the disease label detected by the disease detection model 50-2 itself
  • the simple X-ray image 5 is displayed on the display 20 during image diagnosis by a medical specialist. It can be superimposed and displayed on the displayed simple X-ray image 5, thereby supporting image diagnosis by a medical specialist.
  • the bounding box By using the bounding box with reliability, it is possible to grasp the visibility of the disease (pulmonary nodules 6A and 6B) surrounded by the bounding box.
  • the disease label converter 40 of the processor 12 converts the first three-dimensional disease labels acquired together with the three-dimensional CT image 2 to two-dimensional disease labels corresponding to the simple X-ray image 1 based on the alignment result in step S12. Convert to a second disease label (step S14). That is, in step S14, the three-dimensional first disease label is projected in the same manner as the three-dimensional CT image 2 based on the alignment result (projection condition) between the simple X-ray image 1 and the CT image 2, A second disease label is created by converting the simple X-ray image 1 into a two-dimensional disease label (second disease label).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Quality & Reliability (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Computational Linguistics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

単純X線画像に対する疾患ラベルを低アノテーションコストで作成することができる疾患ラベル作成装置、方法及びプログラム並びに学習装置及び疾患検出モデルを提供する。疾患ラベル作成装置(10-1)の第1プロセッサの情報取得部(28)は、単純X線画像(1)、単純X線画像(1)とペアの3次元のCT画像(2)、及びCT画像(2)から抽出された3次元の第1疾患ラベルを取得する。第1プロセッサの位置合わせ処理部(30)は、単純X線画像(1)とCT画像(2)とを位置合わせする。第1プロセッサの疾患ラベル変換器(40)は、位置合わせ処理部(30)での位置合わせの結果に基づいて第1疾患ラベルを、単純X線画像に対応する2次元の第2疾患ラベルに変換し、これにより疾患ラベル(3-1)を作成する。

Description

疾患ラベル作成装置、方法及びプログラム並びに学習装置及び疾患検出モデル
 本発明は疾患ラベル作成装置、方法及びプログラム並びに学習装置及び疾患検出モデルに係り、特に疾患検出モデルの学習に使用する疾患ラベルを作成する技術に関する。
 単純X線撮影は、X線源からX線を被検体に照射し、被検体を透過したX線量に応じた画像(以下、「単純X線画像」という)を撮影する。専門医は、単純X線画像から疾患の有無、大きさ等を視認するが、単純X線画像は、臓器や骨に疾患が重畳しているため、疾患の視認は容易ではない。
 そこで、専門医による単純X線画像の読影を支援するために、単純X線画像から疾患を検出する疾患検出モデルを構築することが望まれる。
 この種の疾患検出モデルを構築する場合、単純X線画像と疾患ラベルの一対一のペアからなる教師データを大量に準備し、教師データにより疾患検出モデルのパラメータを最適化する(学習する)のが一般的である。
 非特許文献1には、患者の単純X線画像に対する肺結節の領域情報(疾患ラベル)を作成する場合に、医師が同一患者のCT(Computed Tomography)画像を参照し、手動で疾患ラベルを作成する技術が記載されている。
 また、非特許文献2には、CT画像の疾患ラベル(ラベル情報)を単純X線画像に活用する技術が記載されている。非特許文献2に記載の技術は、CT画像を投影してDRR(Digital Reconstructed Radiograph)画像に画像変換し、DRR画像と投影されたラベル情報とで学習した疾患検出モデルを、単純X線画像に適用するというものである。
 非特許文献1に記載のように、同一患者のCT(Computed Tomography)画像を参照しながら、手動で単純X線画像に対する疾患ラベルを作成する場合、多大な労力と時間が必要になり、アノテーションコストが高くなるという問題がある。また、CT画像では視認できるが、単純X線画像では視認できないレベルのアノテーションを学習に反映すると、疾患検出モデルの学習のノイズとなり得る。
 また、非特許文献2に記載のようにCT画像から作成したDRR画像は、単純X線画像と比較して解像度が低く、そのため、DRR画像により学習させた疾患検出モデルは、解剖学的領域などの大局的な認識しかできず、例えば、小さな肺結節などの疾患の検出には適さないという問題がある。
 本発明はこのような事情に鑑みてなされたもので、単純X線画像に対する疾患ラベルを低アノテーションコストで作成することができ、かつ作成された疾患ラベルを疾患検出モデルの教師データとして使用することで、疾患検出の信頼性の高い疾患検出モデルを構築することができる疾患ラベル作成装置、方法及びプログラム並びに学習装置及び疾患検出モデルを提供することを目的とする。
 上記目的を達成するために第1態様に係る発明は、第1プロセッサを備える疾患ラベル作成装置であって、第1プロセッサは、単純X線画像、単純X線画像とペアの3次元のCT画像、及びCT画像から抽出された3次元の第1疾患ラベルを取得する情報取得処理と、単純X線画像とCT画像とを位置合わせする位置合わせ処理と、位置合わせの結果に基づいて第1疾患ラベルを、単純X線画像に対応する2次元の第2疾患ラベルに変換する変換処理と、を行う。
 本発明の第1態様は、単純X線画像とCT画像との位置合わせを行い、その位置合わせの結果に基づいてCT画像から抽出された3次元の第1疾患ラベルを、単純X線画像に対応する2次元の第2疾患ラベルに変換する。これにより、単純X線画像に対する疾患ラベルを自動的に作成することができ、アノテーションコストを低減することができる。また、単純X線画像とCT画像とは、モダリティ及び撮影時の患者姿勢が異なるが、両画像の位置合わせに応じて3次元の第1疾患ラベルを単純X線画像に対応する2次元の第2疾患ラベルに変換するため、画素単位のアノテーションを反映させた疾患ラベル(第2疾患ラベル)を生成することができる。
 本発明の第2態様に係る疾患ラベル作成装置において、位置合わせ処理は、CT画像を投影して疑似X線画像を作成する処理と、単純X線画像と疑似X線画像とを位置合わせする処理と、を含むことが好ましい。
 本発明の第3態様に係る疾患ラベル作成装置において、位置合わせ処理は、単純X線画像から2次元の解剖学的ランドマークを抽出する処理と、CT画像から解剖学的ランドマークに対応する3次元の解剖学的ランドマークを抽出する処理と、3次元の解剖学的ランドマークを投影する処理と、2次元の解剖学的ランドマークと投影処理後の解剖学的ランドマークとを位置合わせする処理と、を含むことが好ましい。解剖学的ランドマークとしては、単純X線画像での解像度の高い肋骨などが考えられる。
 本発明の第4態様に係る疾患ラベル作成装置において、位置合わせ処理は、単純X線画像から2次元の解剖学的関心領域を抽出する処理と、CT画像から解剖学的関心領域に対応する3次元の解剖学的関心領域を抽出する処理と、3次元の解剖学的関心領域を投影する処理と、2次元の解剖学的関心領域の輪郭と投影処理後の解剖学的関心領域の輪郭とを位置合わせする処理と、を含むことが好ましい。解剖学的関心領域とは、例えば、肺野、胸郭、心臓、及び大動脈等の領域である。
 本発明の第5態様に係る疾患ラベル作成装置において、位置合わせ処理は、単純X線画像を3次元復元する処理と、CT画像と3次元復元した単純X線画像とを位置合わせする処理と、を含むことが好ましい。
 本発明の第6態様に係る疾患ラベル作成装置において、第1プロセッサは、第2疾患ラベルに対する第1信頼度を算出する第1信頼度算出処理を行うことが好ましい。
 本発明の第7態様に係る疾患ラベル作成装置において、第1信頼度算出処理は、単純X線画像の正常領域に対する、第2疾患ラベルに対応する第2疾患領域の視認性を、第1疾患ラベルに対応するCT画像の第1疾患領域と正常領域との画素値の統計量、及びCT画像の第1疾患領域の形状特徴の少なくとも1つ以上を用いて算出し、算出した視認性から第1信頼度を算出することが好ましい。CT画像の第1疾患領域と正常領域との画素値の統計量(例えば、平均値)の差が大きければ、第2疾患領域の視認性が高くなる。また、CT画像の第1疾患領域の形状特徴から、例えば、第1疾患領域が投影方向に長い形状を有する場合、第1疾患領域と正常領域でのX線吸収量の差がより大きくなり、第2疾患領域の視認性が高くなる。
 本発明の第8態様に係る疾患ラベル作成装置において、情報取得処理は、CT画像における解剖学的領域の情報を取得し、第1信頼度算出処理は、単純X線画像の正常領域に対する、第2疾患ラベルに対応する第2疾患領域の視認性を、第1疾患ラベルに対応するCT画像の第1疾患領域と解剖学的領域との投影方向の重畳に基づいて算出し、算出した視認性から第1信頼度を算出することが好ましい。CT画像の第1疾患領域が、投影方向において、解剖学的領域(例えば、骨領域)と重畳する場合、その第1疾患領域に対応する単純X線画像における疾患領域(第2疾患領域)は、骨領域によりX線の透過量が少なくなり、視認性が低くなる。
 本発明の第9態様に係る疾患ラベル作成装置において、第1疾患ラベルは、CT画像から自動検出されたラベルであり、情報取得処理は、単純X線画像又はCT画像に対応する読影レポートを取得し、第1信頼度算出処理は、第1疾患ラベルと読影レポートの記載内容との一致度に基づいて第1信頼度を算出することが好ましい。これにより、専門医による画像診断結果を、第1信頼度に反映させることができる。
 本発明の第10態様に係る疾患ラベル作成装置において、第1プロセッサは、位置合わせの結果の成功度を算出し、第1信頼度算出処理は、成功度に基づいて第1信頼度を算出することが好ましい。
 本発明の第11態様に係る疾患ラベル作成装置において、第1疾患ラベルは、CT画像から自動検出されたラベルであり、第1信頼度算出処理は、ペアの単純X線画像とCT画像とで撮影範囲が異なる領域の第2疾患ラベルに対して低い第1信頼度を付与することが好ましい。
 本発明の第12態様に係る疾患ラベル作成装置において、位置合わせ処理は、患者に応じて患者に対応付けられたペアの単純X線画像及びCT画像の位置合わせにおける解空間を調整して位置合わせを行うことが好ましい。
 本発明の第13態様に係る疾患ラベル作成装置において、患者特徴情報毎の統計変形モデルのデータベースを有し、位置合わせ処理は、ペアの単純X線画像及びCT画像に対応する患者の患者特徴情報に基づいて、データベースから対応する統計変形モデルを選択する処理と、選択した統計変形モデルを用いて、単純X線画像とCT画像との非剛体位置合わせを行う処理と、を行うことが好ましい。
 例えば、肋骨が動かない障害がある患者の場合、その患者の単純X線画像とCT画像における肋骨の位置を位置合わせする場合、その患者(障害)に該当する統計変形モデルを選択し、選択した統計変形モデルを用いて、単純X線画像とCT画像との非剛体位置合わせを行う。
 本発明の第14態様に係る疾患ラベル作成装置において、情報取得処理は、CT画像の画像単位の第3疾患ラベルを取得し、第1プロセッサは、単純X線画像に第2疾患ラベル及び第3疾患ラベルを付与することが好ましい。例えば、CT画像の画像単位の第3疾患ラベルとして、疾患のクラス分類(肺結節、肺腫瘤等)を示すラベルを付与することができる。
 本発明の第15態様に係る疾患ラベル作成装置において、情報取得処理は、CT画像の画像単位の第3疾患ラベルを取得し、第1プロセッサは、位置合わせの結果の成功又は失敗を判定し、成功と判定した場合には第2疾患ラベルを選択し、失敗と判定した場合には第3疾患ラベルを選択し、単純X線画像に選択した第2疾患ラベル又は第3疾患ラベルを付与することが好ましい。
 第16態様に係る発明は、単純X線画像、単純X線画像とペアの3次元のCT画像、及びCT画像から抽出された3次元の第1疾患ラベルを取得するステップと、単純X線画像とCT画像とを位置合わせするステップと、位置合わせの結果に基づいて第1疾患ラベルを、単純X線画像に対応する2次元の第2疾患ラベルに変換するステップと、を含み、プロセッサが各ステップの処理を実行する疾患ラベル作成方法である。
 第17態様に係る発明は、単純X線画像、単純X線画像とペアの3次元のCT画像、及びCT画像から抽出された3次元の第1疾患ラベルを取得する機能と、単純X線画像とCT画像とを位置合わせする機能と、位置合わせの結果に基づいて第1疾患ラベルを、単純X線画像に対応する2次元の第2疾患ラベルに変換する機能と、をコンピュータにより実現させる疾患ラベル作成プログラムである。
 第18態様に係る発明は、第2プロセッサを備える学習装置であって、第2プロセッサは、単純X線画像と第1態様又は第2態様に係る疾患ラベル作成装置により作成された第2疾患ラベルとからなる第1教師データを使用して、疾患検出モデルを学習させる学習処理であって、疾患検出モデルの出力と第2疾患ラベルとの第1誤差を収束させる学習処理を行う、学習装置である。
 本発明の第18態様によれば、第1態様又は第2態様に係る疾患ラベル作成装置により作成された第2疾患ラベルと単純X線画像とからなる第1教師データ(低アノテーションコストで得られた第1教師データ)を使用して、疾患検出モデルを学習させるようにしたため、疾患検出モデルの学習を低コストで行うことができる。また、第2疾患ラベルは、単純X線画像とペア(同一患者)の、より視認が容易なCT画像に基づいて作成されるため、この第2疾患ラベルと単純X線画像とからなる第1教師データは、ノイズの少ない良好な教師データとなり、検出精度の高い疾患検出モデルを構築することができる。
 第19態様に係る発明は、第2プロセッサを備える学習装置であって、第2プロセッサは、単純X線画像と第6態様から第16態様のいずれかの疾患ラベル作成装置により作成された第2疾患ラベルと第1信頼度とからなる第2教師データを使用して、疾患検出モデルを学習させる学習処理であって、疾患検出モデルの出力と第2疾患ラベルとの第1誤差を収束させる学習処理を行う際に、第1信頼度に応じて第1誤差を調整して学習させる学習処理を行う、学習装置である。
 本発明の第19態様によれば、第2疾患ラベルだけでなく、疾患の視認性に基づいた第1信頼度を使用し、第1信頼度に応じて第1誤差を調整して学習させるようにしたため、CT画像では視認できるが、単純X線画像では視認できない、又は視認が困難なレベルのアノテーションノイズの影響を低減することができる。
 本発明の第20態様に係る学習装置において、情報取得処理は、CT画像の画像単位の第3疾患ラベルを取得し、第1プロセッサは、単純X線画像に第2疾患ラベル及び第3疾患ラベルを付与し、第2プロセッサは、第3疾患ラベルが付与された単純X線画像を第3教師データとして使用し、疾患検出モデルの出力と第3疾患ラベルとの第2誤差を収束させる学習処理を行うことが好ましい。
 本発明の第21態様に係る学習装置において、第2プロセッサは、疾患検出モデルから単純X線画像に含まれる疾患領域を示す疾患検出結果と疾患検出結果の第2信頼度を出力させるべく学習処理を行うことが好ましい。これによれば、疾患検出モデル自身が、第2疾患ラベルに対する信頼度(第2信頼度)を検出することができるようになる。
 本発明の第22態様に係る学習装置において、第2プロセッサは、疾患検出モデルから出力される第2信頼度が低く、かつ擬陽性となる疾患領域の第1誤差を大きく調整し、第2信頼度が低く、かつ擬陰性となる疾患領域の第1誤差を小さく調整することが好ましい。
 本発明の第23態様に係る学習装置において、第2プロセッサは、第1信頼度算出処理により算出された第1信頼度と、疾患検出モデルから出力される第2信頼度とを統合して第3信頼度を生成し、疾患検出モデルの出力と第2疾患ラベルとの第1誤差を収束させる学習処理を行う際に、第3信頼度に応じて第1誤差を調整して学習させる学習処理を行うことが好ましい。
 第24態様に係る発明は、第18態様から第24態様のいずれかの学習装置により学習が行われた学習済みの疾患検出モデルであって、任意の単純X線画像を入力画像とし、入力した単純X線画像から疾患ラベルを検出出力する、疾患検出モデルである。
 本発明によれば、単純X線画像に対する疾患ラベルを低アノテーションコストで作成することができ、かつ作成された疾患ラベルを疾患検出モデルの教師データとして使用することで、疾患検出の信頼性の高い疾患検出モデルを構築することができる。
図1は、本発明に係る疾患ラベル作成装置及び学習装置のハードウェア構成の実施形態を示すブロック図である。 図2は、本発明に係る疾患ラベル作成装置の第1実施形態を示す機能ブロック図である。 図3は、図2に示した位置合わせ処理部の第1実施形態を示すブロック図である。 図4は、本発明に係る疾患ラベル作成装置の第2実施形態を示す機能ブロック図である。 図5は、本発明に係る学習装置の第1実施形態を示す機能ブロック図である。 図6は、本発明に係る学習装置の第2実施形態を示す機能ブロック図である。 図7は、本発明に係る疾患検出モデルの第1実施形態を示す図である。 図8は、本発明に係る疾患検出モデルの第2実施形態を示す図である。 図9は、本発明に係る疾患ラベル作成方法の実施形態を示すフローチャートである。
 以下、添付図面に従って本発明に係る疾患ラベル作成装置、方法及びプログラム並びに学習装置及び疾患検出モデルの好ましい実施形態について説明する。
 [疾患ラベル作成装置及び学習装置のハードウェア構成]
 図1は、本発明に係る疾患ラベル作成装置及び学習装置のハードウェア構成の実施形態を示すブロック図である。尚、本例の疾患ラベル作成装置は、学習装置としての機能を含んでいるが、疾患ラベル作成装置と学習装置とは、物理的に別々の装置でもよい。
 図1に示す疾患ラベル作成装置10は、パーソナルコンピュータ、ワークステーション等により構成することができ、プロセッサ12、メモリ14、第1データベース16、第2データベース18、ディスプレイ20、入出力インターフェース22、及び操作部24等を備える。
 プロセッサ12は、CPU(Central Processing Unit)等から構成され、疾患ラベル作成装置10の各部を統括制御すると共に、例えば、図2及び図4に示す疾患ラベル作成装置10-1、10-2における情報取得部28、位置合わせ処理部30、疾患ラベル変換器40、及び信頼度算出器42として機能し、また、図5及び図6に示した学習装置11-1、11-2における疾患検出モデル50-1、50-2、及び学習処理部60-1、60-2として機能する。
 メモリ14は、フラッシュメモリ、ROM(Read-only Memory)、RAM(Random Access Memory)、ハードディスク装置等を含む。フラッシュメモリ、ROM及びハードディスク装置は、オペレーションシステム、プロセッサ12を疾患検出モデルとして機能させるプログラム及びパラメータ、本発明に係る疾患ラベル作成プログラムを含む各種のプログラム等を記憶する不揮発性メモリである。
 RAMは、プロセッサ12による処理の作業領域として機能し、また、不揮発性メモリに格納された疾患ラベル作成プログラム等を一時的に記憶する。尚、プロセッサ12が、メモリ14の一部(RAM)を内蔵していてもよい。
  第1データベース16は、多数の患者の単純X線画像、各単純X線画像とペア(同一患者)の3次元のCT画像、各CT画像から抽出された疾患の3次元の領域情報(疾患の3次元座標等に関連する情報)を示す第1疾患ラベルを保存及び管理する部分である。尚、第1疾患ラベルは、疾患のクラス分類が注釈として付されていてもよい。また、CT画像には、胸郭、肺野、その他の臓器ごとの領域を示すセグメンテーションラベルが付属していてもよい。
 尚、本例の単純X線画像は、胸部X線画像であり、CT画像は、体軸方向に位置を変えながら胸部を輪切りに撮影したものである。3次元のCT画像は、輪切りに撮影した多数のスライス画像を体軸方向に重ねてなる3次元データである。
 第2データベース18は、単純X線画像と疾患ラベル作成装置10により作成された疾患ラベル(第2疾患ラベル)とのペアからなる教師データを保存及び管理する部分であり、第1データベース16に保存された単純X線画像と各単純X線画像とペアのCT画像に基づいて第2疾患ラベルが作成されると、単純X線画像と作成された第2疾患ラベルとのペアからなる教師データの保存先となる。
 尚、第1データベース16と第2データベース18とは、物理的に同一のものでもよい。また、第1データベース16及び第2データベース18の少なくとも一方は、装置外部に設けられ、入出力インターフェース22を介してデータのやり取りを行うものでもよい。
 ディスプレイ20は、診断対象である単純X線画像から疾患を検出する場合に、単純X線画像、学習済みの疾患検出モデルにより検出された疾患の検出結果等を表示する部分である。ユーザ(医師)は、診断対象である単純X線画像を観察して画像診断する際に、ディスプレイ20に表示された検出結果等を参考にして診断することができる。尚、ディスプレイ20は、ユーザの各種の指示を受け付ける場合のユーザインターフェースの一部として使用可能である。
 入出力インターフェース22は、外部機器と接続可能な接続部、及びネットワークと接続可能な通信部等を含む。外部機器と接続可能な接続部としては、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(HDMIは登録商標)等を適用することができる。プロセッサ12は、入出力インターフェース22を介して診断対象である単純X線画像の他、メモリ14に格納する疾患ラベル作成プログラムを含む各種のプログラム、第1データベース16に保存する情報(教師データ作成用の単純X線画像及びCT画像等)を取得することが可能である。また、ディスプレイ20の代わりに、入出力インターフェース22に接続された外部の表示機器を使用することが可能である。
 操作部24は、キーボード、マウス等のポインティングデバイス、キーボードを含み、医師による各種の指示を受け付けるユーザインターフェースとして機能する。
 [疾患ラベル作成装置の第1実施形態]
 図2は、本発明に係る疾患ラベル作成装置の第1実施形態を示す機能ブロック図である。
 図2に示す第1実施形態の疾患ラベル作成装置10-1は、図1に示したハードウェア構成の疾患ラベル作成装置10に含まれるプロセッサ12(第1プロセッサ)、及びメモリ14により構成され、前述したようにプロセッサ12が、情報取得部28、位置合わせ処理部30、及び疾患ラベル変換器40として機能する。
 情報取得部28は、第1データベース16から、単純X線画像1、及び単純X線画像1とペア(同一患者)の疾患ラベル付きの3次元のCT画像2等の情報を取得する情報取得処理を行う部分である。
 疾患ラベル(第1疾患ラベル)は、CT画像2における3次元の疾患領域を示す3次元の領域情報であり、3次元の疾患領域の画素単位の情報、又は3次元の疾患領域を囲む直方体の領域を示す情報である。
 第1疾患ラベルは、3次元のCT画像2を構成する複数枚のスライス画像(アキシャル像)を1枚ずつ、公知の疾患検出モデルに入力し、その検出結果を統合することで自動的に(容易に)取得することができる。尚、CT画像のスライス画像では、正常領域と疾患領域とのコントラストが明確であるため、疾患領域の抽出は精度よく行うことができる。また、本例では、3次元のCT画像2は、予め抽出された第1疾患ラベルに付属しているが、第1疾患ラベルが付属していない場合には、3次元のCT画像に基づいて自動検出するようにしてもよい。
 位置合わせ処理部30は、情報取得部28により取得されたペアの単純X線画像1とCT画像2を入力し、単純X線画像1とCT画像2との位置合わせを行う。位置合わせ処理部30での位置合わせ処理は、例えば、3次元のCT画像2を投影して2次元のDRR画像に変換し、変換したDDR画像が、単純X線画像1と一致するように投影時の幾何学的な条件やCT画像2の回転等を調整することで行うことができる。尚、ここでは、剛体変形により位置合わせを行う例を示すが、非剛体変形により位置合わせを行うようにしてもよい。また、位置合わせ処理部30の詳細については、後述する。
 疾患ラベル変換器40は、位置合わせ処理部30による位置合わせの結果に基づいて、3次元のCT画像2と同様に、3次元の第1疾患ラベルを投影等の変換処理を行うことで、単純X線画像1に対応する2次元の疾患ラベル(第2疾患ラベル)3-1に変換する変換処理を行う。
 3次元の第1疾患ラベルとして、2つの3次元の疾患領域をそれぞれ囲む直方体2A,2Bの領域を示す情報(例えば、直方体の8つの頂点の座標情報)とすると、各直方体の8つの頂点の3次元の座標情報は、疾患ラベル変換器40により変換されて、単純X線画像1上の8つの位置を示す2次元の座標情報になる。そして、8つの2次元の座標情報を包含する矩形領域3A、3Bを示す情報を、単純X線画像1に対する疾患ラベル3-1とすることができる。
 プロセッサ12は、疾患ラベル作成装置10-1により単純X線画像1に対する疾患ラベル3-1を作成すると、単純X線画像1と疾患ラベル3-1とのペアを、教師データ(第1教師データ)として第2データベース18に保存する。
 尚、本例の疾患ラベル3-1は、単純X線画像1における疾患領域を囲む矩形枠内の領域情報であるが、矩形枠(バウンディングボックス)の対角の2つの頂点の座標情報でもよい。また、CT画像2における第1疾患ラベルは、3次元の疾患領域を示す領域情報でもよく、この場合、2次元の疾患ラベルは、単純X線画像1における疾患領域(画素単位)の情報となる。
 更に、CT画像2における第1疾患ラベルが、3次元の疾患領域を示す領域情報の場合において、疾患ラベル変換器40は、この第1疾患ラベルを投影して単純X線画像1における画素単位の疾患領域に変換し、更に画素単位の疾患領域に外接するバウンディングボックスを、疾患ラベル3-1(第2疾患ラベル)とすることができる。
 また、3次元の第1疾患ラベルに注釈として、疾患のクラス分類(サイズ、体積、肺疾患の場合、肺結節、肺腫瘤等)が付与されている場合、変換した疾患ラベル3-1に対しても疾患単位又は画像単位で疾患のクラス分類の注釈を付与することが好ましい。
 [位置合わせ処理部]
 <位置合わせ処理部の第1実施形態>
 図3は、図2に示した位置合わせ処理部の第1実施形態を示すブロック図である。
 図3に示す位置合わせ処理部30は、正規化部31、比較部32、DRR画像作成部33、及び最適化部35を備えている。
 正規化部31は、単純X線画像1を入力すると、例えば、単純X線画像1の局所領域ごとに濃淡値の正規化を行い、コントラストを調整する。正規化された単純X線画像1aは、比較部32に加えられる。
 DRR画像作成部33には、3次元のCT画像2と、3次元のCT画像2の特定領域を示すマスク情報2aとが加えられており、DRR画像作成部33は、まず、マスク情報2aに基づいてCT画像2の特定領域を抽出する。本例の特定領域は、骨の領域である胸郭領域であり、胸郭領域を示すマスク情報2aに基づいてCT画像2から胸郭領域を抽出する。尚、マスク情報2aは、CT画像2の各臓器領域を示す情報として付与されている場合には、その情報を使用することができ、マスク情報2aが付与されていない場合には、CT画像2から直接、胸郭領域を抽出するようにしてもよい。
 DRR画像作成部33の他の入力には、CT画像2(胸郭領域)を投影して2次元のDRR画像に変換する場合の幾何情報が加えられており、DRR画像作成部33は、幾何情報34に基づいて胸郭領域を投影し、胸郭領域の2次元画像であるDRR画像を作成する。
 ここで、幾何情報34は、CT画像2を投影面に投影する場合の幾何学的な情報であり、例えば、X線源位置38と患者位置(投影されるCT画像)との距離(SOD)、及びX線源位置38と検出器位置39との距離(SDD)を含む。距離(SOD)及び距離(SDD)は、単純X線画像1を撮影したときのX線源、及び検出器(イメージングプレート)の位置関係等から取得することができる。また、幾何情報34は、DRR画像のサイズ等を調整するためのパラメータとして使用することができる。
 DRR画像作成部33により作成されたDRR画像は、比較部32に加えられる。
 比較部32は、正規化された単純X線画像1aとDRR画像との濃度勾配を比較し、両画像の類似度を示す比較結果を最適化部35に出力する。
 最適化部35は、比較部32から出力される比較結果に基づいて類似度が最大になるように、投影されるCT画像2(胸郭領域)の姿勢パラメータ(θ)を調整する情報をDRR画像作成部33に出力する。また、最適化部35は、幾何情報34を調整する情報を出力することができる。
 DRR画像作成部33は、最適化部35から入力する情報に基づいて、投影条件(姿勢パラメータ(θ)、幾何情報34)を調整して得たDRR画像を再度、比較部32に出力する。
 比較部32、最適化部35、及びDRR画像作成部33の処理を順次繰り返すことで、DRR画像作成部33は、正規化された単純X線画像1aとの類似度が最大になるDRR画像を作成する。
 そして、位置合わせ処理部30は、単純X線画像1aとDRR画像との類似度が最大になるときの投影条件を、位置合わせの結果として疾患ラベル変換器40に出力することができ、疾患ラベル変換器40は、位置合わせの結果(投影条件)に基づいて3次元の第1疾患ラベルを投影することで、単純X線画像に対応する2次元の疾患ラベル3-1に変換する。
 本例では、CT画像2の胸郭領域を使用して単純X線画像1との位置合わせを行うことで、胸郭領域の内側の肺野領域の位置合わせを行うが、これに限らず、CT画像2の肺野領域を使用して単純X線画像1との位置合わせを行うようにしてもよいし、複数の臓器領域を使用して単純X線画像1との位置合わせを行うようにしてもよい。
 また、位置合わせ処理部30は、CT画像2を投影して疑似X線画像を作成し、単純X線画像1と疑似X線画像とを位置合わせする処理を行うようにしてもよい。
 尚、図2に示した疾患ラベル変換器40は、位置合わせしたCT画像2の第1疾患ラベルを、2次元に変換(単純X線画像1と同じ平面に投影)することで、単純X線画像1に対応する第2疾患ラベルに変換することができる。
 <位置合わせ処理部の第2実施形態>
 図3に示す位置合わせ処理部30の第2実施形態は、単純X線画像1の2次元の解剖学的ランドマークと、2次元の解剖学的ランドマークに対応するCT画像2の3次元の解剖学的ランドマークとを使用して位置合わせを行う。
 即ち、第2実施形態の位置合わせ処理部30は、単純X線画像1から2次元の解剖学的ランドマークを抽出する処理を行い、CT画像2から3次元の解剖学的ランドマーク(2次元の解剖学的ランドマークに対応するランドマーク)を抽出する処理を行う。解剖学的ランドマークとしては、例えば、各肋骨や、各肋骨の助軟骨との境界などをランドマークとすることができる。
 位置合わせ処理部30は、抽出した3次元の解剖学的ランドマークを投影する処理を行い、2次元の解剖学的ランドマークと投影処理後の解剖学的ランドマークとを位置合わせする処理を行う。即ち、両者の解剖学的ランドマークが一致するように、3次元の解剖学的ランドマークの投影条件を調整して投影する。
 位置合わせ処理部30は、2次元の解剖学的ランドマークと投影した3次元の解剖学的ランドマークが一致し、又は最も一致度が高くなる場合の投影条件を位置合わせの結果として出力する。
 <位置合わせ処理部の第3実施形態>
 図3に示す位置合わせ処理部30の第3実施形態は、単純X線画像1の2次元の解剖学的関心領域と、2次元の解剖学的関心領域に対応するCT画像2の3次元の解剖学的関心領域とを使用して位置合わせを行う。
 即ち、第3実施形態の位置合わせ処理部30は、単純X線画像1から2次元の解剖学的関心領域を抽出する処理を行い、CT画像2から3次元の解剖学的関心領域(2次元の解剖学的関心領域に対応する関心領域)を抽出する処理を行う。胸部の単純X線画像1における解剖学的関心領域は、例えば、肺野、胸郭、心臓、及び大動脈等の領域である。
 位置合わせ処理部30は、抽出した3次元の解剖学的関心領域を投影する処理を行い、2次元の解剖学的関心領域の輪郭と投影処理後の解剖学的関心領域の輪郭とを位置合わせする処理を行う。即ち、両者の解剖学的関心領域の輪郭一致するように、3次元の解剖学的関心領域の投影条件を調整して投影する。
 位置合わせ処理部30は、2次元の解剖学的関心領域の輪郭と投影した3次元の解剖学的関心領域の輪郭とが一致し、又は最も一致度が高くなる場合の投影条件を位置合わせの結果として出力する。
 <位置合わせ処理部の第4実施形態>
 図3に示す位置合わせ処理部30の第4実施形態は、3次元復元した単純X線画像と3次元のCT画像とを使用して位置合わせを行う。
 即ち、第4実施形態の位置合わせ処理部30は、単純X線画像1を3次元復元する処理を行う。例えば、2次元の単純X線画像を入力する3次元のX線画像を出力するように学習させた学習モデルを使用することで、単純X線画像1を3次元復元することができる。
 位置合わせ処理部30は、3次元のCT画像2と3次元復元した単純X線画像とを位置合わせする処理を行う。この場合の位置合わせは、3次元空間での位置合わせであり、例えば、CT画像2の並進移動、回転移動、及び拡縮等を行うことで、CT画像2を3次元復元した単純X線画像に合わせる。
 <位置合わせ処理部の第5実施形態>
 位置合わせ処理部30の第5実施形態は、患者に応じて、患者に対応付けられたペアの単純X線画像及びCT画像の位置合わせにおける解空間を調整して位置合わせを行う。
 例えば、疾患ラベル作成装置10は、患者特徴情報毎の統計変形モデルのデータベースを備え、第5実施形態の位置合わせ処理部30は、ペアの単純X線画像1及びCT画像2に対応する患者の患者特徴情報に基づいて、統計変形モデルのデータベースから対応する統計変形モデルを選択する。
 位置合わせ処理部30は、選択した統計変形モデルを用いて、単純X線画像1とCT画像2との非剛体位置合わせを行う。
 肋骨が動かない障害がある患者の場合、その患者の単純X線画像とCT画像における肋骨の位置を位置合わせする場合、その患者(障害)に該当する統計変形モデルを選択し、選択した統計変形モデルを用いて、単純X線画像とCT画像との非剛体位置合わせを行う。
 [疾患ラベル作成装置の第2実施形態]
 図4は、本発明に係る疾患ラベル作成装置の第2実施形態を示す機能ブロック図である。尚、図4において、図2に示した第1実施形態の疾患ラベル作成装置10-1と共通する部分には同一の符号を付し、その詳細な説明は省略する。
 図4に示す第2実施形態の疾患ラベル作成装置10-2は、信頼度算出器42が追加されている点で、第1実施形態の疾患ラベル作成装置10-1と相違する。
 信頼度算出器42は、疾患ラベル変換器40により変換された第2疾患ラベルに対する信頼度(第1信頼度)を算出する第1信頼度算出処理を行う。ここで算出された第1信頼度は、作成された第2疾患ラベルの注釈として、第2疾患ラベルに付与される。即ち、疾患ラベル3-2は、信頼度付きの疾患ラベルである点、信頼度が付与されていない疾患ラベル3-1と相違する。
 <信頼度算出器の第1実施形態>
 図4に示した信頼度算出器42の第1実施形態は、単純X線画像1における疾患領域の視認性から、その疾患領域(第2疾患領域)の信頼度(第1信頼度)を算出する。
 第1実施形態の信頼度算出器42は、単純X線画像1の正常領域に対する、第2疾患ラベルに対応する第2疾患領域の視認性を、3次元の第1疾患ラベルに対応するCT画像2の第1疾患領域の画素値の統計量、及び形状特徴の少なくとも1つ以上を用いて算出し、算出した視認性から第2疾患ラベルに対する第1信頼度を算出する。
 第1信頼度は、例えば、第1信頼度が、0~1.0の範囲の値をとる場合、視認性が低い程、第1信頼度を0に近づけ、視認性が高い程、第1信頼度を1.0に近づけるように算出する。
 第2疾患領域の視認性は、正常領域と第1疾患領域との画素値の統計量(平均値、濃度の分散など)により評価することができる。正常領域と第1疾患領域との画素値の統計量の差異が大きければ、単純X線画像1における正常領域と第2疾患領域(第1疾患領域に対応する単純X線画像1上の疾患領域)との識別がしやすくなり、差異が小さければ、正常領域と第2疾患領域との識別がしにくくなるからである。
 また、第2疾患領域の視認性は、第1疾患領域の形状特徴により評価することができる。例えば、第1疾患領域のサイズが小さい程、第1疾患領域に対応する第2疾患領域のサイズも小さく、第2疾患領域を見つけにくくなるからである。尚、第1疾患領域のサイズは、その第1疾患領域が投影された場合のサイズとすることが好ましい。
 また、第2疾患領域の視認性は、第1疾患領域の画素値および形状特徴により評価することができる。例えば、X線吸収量は、投影方向への領域の厚みと画素値(線減弱係数)の積に比例する。正常領域に対する疾患領域のX線吸収量が大きければ、単純X線画像1における正常領域と第2疾患領域との識別がしやすくなり、小さければ、正常領域と第2疾患領域との識別がしにくくなるからである。また、形状特徴は、投影方向の形状特徴に限らず、疾患領域全体に関する形状特徴でもよい。
 <信頼度算出器の第2実施形態>
 図4に示した信頼度算出器42の第2実施形態は、第1データベース16から、又は入出力インターフェース22を介してCT画像2における解剖学的領域の情報を、情報取得部28が取得する。解剖学的領域の情報は、例えば、胸郭、肺野、心臓等の臓器毎の3次元の領域情報である。
 第2実施形態の信頼度算出器42は、単純X線画像1の正常領域に対する第2疾患ラベルに対応する第2疾患領域の視認性を、第1疾患ラベルに対応するCT画像2の第1疾患領域と解剖学的領域との投影方向の重畳に基づいて算出する。
 CT画像2の第1疾患領域が、投影方向において、解剖学的領域(例えば、骨領域である胸郭領域)と重畳する場合、その第1疾患領域に対応する単純X線画像1における疾患領域(第2疾患領域)は、骨領域によりX線の透過量が少なくなり、視認性が低くなる。信頼度算出器42は、第1疾患領域と解剖学的領域(特に骨領域)が投影方向において重畳する場合には、重畳しない場合に比べて第2疾患領域の視認性を低くする。
 また、第1疾患領域が解剖学的領域と投影方向において重畳する場合、その重畳する度合い(一部重畳又は全て重畳)、及び重畳する解剖学的領域の種類に応じて視認性を算出することが好ましい。
 第2実施形態の信頼度算出器42は、上記のように解剖学的領域との重畳に応じて算出した視認性から第1信頼度を算出する。
 <信頼度算出器の第3実施形態>
 図4に示した信頼度算出器42の第3実施形態は、第1データベース16から、又は入出力インターフェース22を介して単純X線画像1又はCT画像2に対応する読影レポートを、情報取得部28が取得する。読影レポートには、単純X線画像1又はCT画像2を使用した画像診断の結果(例えば、疾患の部位、疾患のクラス分類、サイズ等)が記載されている。
 第3実施形態の信頼度算出器42は、CT画像2から自動検出された疾患ラベル(第1疾患ラベル)と、読影レポートの記載内容(画像診断結果の内容)との一致度に基づいて自動検出された第1疾患ラベルに対する第1信頼度を算出する。
 これにより、専門医による画像診断結果を、第1信頼度に反映させることができる。
 <信頼度算出器の第4実施形態>
 プロセッサ12又は位置合わせ処理部30は、単純X線画像1とCT画像2との位置合わせの結果の成功度を算出する。
 位置合わせの成功度は、例えば、単純X線画像1から検出された複数の解剖学的ランドマークと、これらの複数の解剖学的ランドマークに対応するCT画像2から検出された複数の解剖学的ランドマークであって、投影面に投影される複数の解剖学的ランドマークとに基づいて位置合わせを行った場合に、それぞれ対応する解剖学的ランドマーク間の距離の自乗和の大きさを成功度の指標とすることができる。
 図4に示した信頼度算出器42の第4実施形態は、単純X線画像1とCT画像2との位置合わせの成功度に基づいて第2疾患ラベルに対する第1信頼度を算出する。
 <信頼度算出器の第5実施形態>
 図4に示した信頼度算出器42の第5実施形態は、単純X線画像1とCT画像2とで、撮影範囲(視野)が異なる領域の第2疾患ラベルに対する第1信頼度を低くする。
 例えば、プロセッサ12は、単純X線画像の撮影範囲と比較してCT画像の撮影範囲が狭い場合、CT画像を補外し、単純X線画像と補外済みCT画像との位置合わせを行うことが考えられる。その一方、補外済みCT画像から第1疾患ラベルを自動検出することが考えられる。
 第5実施形態の信頼度算出器42は、自動検出された第1疾患ラベルが補外済みCT画像の補外領域に含まれる場合、第1疾患ラベルに対応する第2疾患ラベルに対して低い第1信頼度を付与する。即ち、このような第2疾患ラベルは、疾患ラベルとして扱わないように第1信頼度を低くする。
 尚、信頼度算出器42は、上記第1実施形態から第5実施形態の2以上の実施形態によりそれぞれ算出された2以上の第1信頼度を統合し、新たな第1信頼度とすることができる。
 プロセッサ12は、疾患ラベル作成装置10-2により単純X線画像1に対する信頼度付きの疾患ラベル3-2を作成すると、単純X線画像1と第2疾患ラベルと第1信頼度(信頼度付きの疾患ラベル3-2)を、第2教師データとして第2データベース18に保存する。
 また、情報取得部28は、CT画像2の画像単位の疾患ラベル(第3疾患ラベル)を取得することができる。画像単位の第3疾患ラベルは、疾患の有無、疾患のクラス分類(サイズ、体積)、疾患の個数、左右肺それぞれの疾患の有無などを含む。
 情報取得部28は、CT画像2の注釈として画像単位の第3疾患ラベルが付与されている場合には、その付与された第3疾患ラベルを取得し、第3疾患ラベルが付与されていない場合には、CT画像2に対する画素単位の第1疾患ラベルを変換器(図示せず)により変換した画像単位の第3疾患ラベルを取得することができる。
 プロセッサ12は、画像単位の第3疾患ラベルを取得すると、単純X線画像1に第1疾患ラベル及び第3疾患ラベルを付与し、これらを教師データとして第2データベースに保存する。
 また、プロセッサ12又は位置合わせ処理部30は、前述したように単純X線画像1とCT画像2との位置合わせの結果の成功度を算出することができるが、プロセッサ12は、位置合わせの結果の成功度から位置合わせの結果の成功又は失敗を判定する。
 プロセッサ12は、成功と判定した場合には第2疾患ラベルを選択し、失敗と判定した場合には第3疾患ラベルを選択し、単純X線画像に選択した第2疾患ラベル又は第3疾患ラベルを付与する。
 即ち、単純X線画像1とCT画像2との位置合わせが失敗した場合には、単純X線画像と画像単位の第3疾患ラベルとのペアを教師データ(第3教師データ)とし、ノイズとなる第2教師データを排除する。
 [学習装置の第1実施形態]
 図5は、本発明に係る学習装置の第1実施形態を示す機能ブロック図である。
 図5に示す第1実施形態の学習装置11-1は、図1に示したハードウェア構成の疾患ラベル作成装置10に含まれるプロセッサ12(第2プロセッサ)、及びメモリ14により構成され、前述したようにプロセッサ12が、疾患検出モデル50-1、及び学習処理部60-1として機能する。
 学習装置11-1は、第2データベース18に保存された単純X線画像と第2疾患ラベルとからなる第1教師データ(学習用のデータセット)を使用して、疾患検出モデル50-1を学習させる。
 疾患検出モデル50-1は、単純X線画像を入力すると、入力した単純X線画像から疾患ラベルを検出出力する学習モデルであり、ベイジアンニューラルネットワークからなる学習モデルが好ましく、Bayesian U-Netがより好ましい。ベイジアンニューラルネットワークでは、小規模のデータセットでも所望の学習が可能であるため、データセットを準備するためのアノテーションコストをより低減することができるためである。
 本装置による学習前の疾患検出モデル50-1は、未学習のものでもよいし、例えば、画像の領域毎にラベル(セグメンテーションラベル)をつける学習が行われたものでもよい。
 プロセッサ12は、第2データベース18に保存された単純X線画像1と疾患ラベル3-1(第2疾患ラベル)とからなる第1教師データを読み出し、単純X線画像1を疾患検出モデル50-1の入力画像とし、疾患ラベル3-1を正解ラベルとして学習処理部60-1に出力する。
 単純X線画像1を入力とする疾患検出モデル50-1は、畳み込み層、プーリング層等の複数の層構造を有し、畳み込み層に適用されるフィルタの係数、オフセット値及び前後の層間における接続の重み等のパラメータを保持している。疾患検出モデル50-1は、パラメータが最適値に設定されることで、疾患を検出する学習済みの疾患検出モデルとして機能する。本例の疾患検出モデル50-1は、単純X線画像1に写っている肺結節(類円形の影)等の疾患領域を個別に認識するセグメンテーションを行うモデルであり、単純X線画像1内のピクセル単位、もしくはいくつかのピクセルを一塊にした単位で、各疾患領域の領域分類(セグメンテーション)を行い、例えば、疾患領域毎に各疾患領域を示すラベル画像、あるいは疾患領域を囲むバウンディングボックスを検出結果4-1として出力する。尚、学習が行われていない疾患検出モデル50-1は、パラメータが最適値に設定されておらず、適切な検出結果4-1を出力することはできない。
 学習処理部60-1は、誤差算出部62-1及びパラメータ制御部64を備えている。
 誤差算出部62-1の一方の入力には、疾患ラベル3-1が加えられ、他の入力には、疾患検出モデル50-1の出力である検出結果4-1が加えられ、誤差算出部62-1は、疾患ラベル3-1と検出結果4-1との誤差(第1誤差)を算出する。誤差の算出方法は、例えば、ソフトマックスクロスエントロピー、シグモイドなどが考えられる。
 パラメータ制御部64は、誤差算出部62-1により算出された第1誤差を元に誤差逆伝播法により疾患検出モデル50-1におけるパラメータを調整することで疾患検出モデル50-1を学習させる。
 学習処理部60-1は、疾患検出モデル50-1におけるパラメータを第1誤差が収束するように繰り返し調整する。これを、第2データベース18に保存された多数の第1教師データ(学習用のデータセット)を使用して行うことで疾患検出モデル50-1を学習させる。
 また、学習処理部60-1は、第1教師データを使用して疾患検出モデル50-1を学習させる他に、単純X線画像とその単純X線画像に対応するCT画像の画像単位の疾患ラベル(第3疾患ラベル)とからなる教師データ(第3教師データ)も使用して疾患検出モデル50-1を学習させるようにしてもよい。
 即ち、誤差算出部62-1は、疾患ラベル3-1と検出結果4-1との第1誤差、及びCT画像の画像単位の第3疾患ラベルと検出結果(画像単位の疾患検出結果)との第2誤差とを統合した誤差を算出し、パラメータ制御部64は、統合した誤差を元に誤差逆伝播法により疾患検出モデル50-1におけるパラメータを調整することで疾患検出モデル50-2を学習させる。
 このようにして学習させた疾患検出モデル50-1は、画素単位等の疾患ラベルの他に、画像単位の疾患ラベルを出力することができる。
 また、学習処理部60-1は、1つの第1教師データごとに疾患検出モデル50-1を学習させるのではなく、第2データベース18から一定数のミニバッチの第1教師データを抽出し、ミニバッチ単位のトータルの第1誤差が収束するように疾患検出モデル50-1を学習させ、これを複数のミニバッチで行うことで疾患検出モデル50-1を学習させることができる。この場合、第2データベース18に第1教師データと第3教師データとを混在させることで、ミニバッチに第1教師データと第3教師データを含ませることができ、これによりミニバッチ単位の誤差(第1誤差と第2誤差とが統合された誤差)により、その誤差を収束させるように疾患検出モデル50-1を学習させることができる。
 [学習装置の第2実施形態]
 図6は、本発明に係る学習装置の第2実施形態を示す機能ブロック図である。
 図6に示す第2実施形態の学習装置11-2は、図1に示したハードウェア構成の疾患ラベル作成装置10に含まれるプロセッサ12(第2プロセッサ)、及びメモリ14により構成され、前述したようにプロセッサ12が、疾患検出モデル50-2、及び学習処理部60-2として機能する。
 第2実施形態の学習装置11-2は、単純X線画像1と第2疾患ラベルに対する信頼度(第1信頼度)と第2疾患ラベル(信頼度付きの疾患ラベル)3-2とからなる教師データ(第2教師データ)を使用して学習を行う点で、単純X線画像1と信頼度が付与されていない疾患ラベル3-1とからなる教師データ(第1教師データ)を使用して学習を行う、図5に示した第1実施形態の学習装置11-1と相違する。
 疾患検出モデル50-2は、単純X線画像を入力すると、入力した単純X線画像から疾患ラベルを検出出力する学習モデルであり、ベイジアンニューラルネットワークからなる学習モデルが好ましく、Bayesian U-Netがより好ましい。
 プロセッサ12は、第2データベース18に保存された単純X線画像1と信頼度付きの疾患ラベル3-2とからなる第2教師データを読み出し、単純X線画像1を疾患検出モデル50-2の入力画像とし、疾患ラベル3-2を学習処理部60-1に出力する。
 単純X線画像1を入力とする疾患検出モデル50-2は、図5に示した疾患検出モデル50-1と同様にパラメータが最適値に設定されることで、疾患を検出する学習済みの疾患検出モデルとして機能する。即ち、疾患検出モデル50-2は、単純X線画像1に写っている肺結節等の疾患領域を個別に認識するセグメンテーションを行うモデルであり、単純X線画像1内のピクセル単位、もしくはいくつかのピクセルを一塊にした単位で、各疾患領域の領域分類(セグメンテーション)を行い、疾患領域毎に各疾患領域を示すラベル画像、あるいは疾患領域を囲むバウンディングボックスを検出結果4-2として出力する。尚、学習が行われていない疾患検出モデル50-2は、パラメータが最適値に設定されておらず、適切な検出結果4-2出力することはできない。
 学習処理部60-2は、誤差算出部62-2及びパラメータ制御部64を備えている。
 誤差算出部62-2の一方の入力には、信頼度付きの疾患ラベル3-2が加えられ、他の入力には、疾患検出モデル50-2の出力である検出結果4-2が加えられ、誤差算出部62-2は、疾患ラベル3-1と検出結果4-2との誤差(第1誤差)を算出し、算出した第1誤差を、疾患ラベル3-2に付帯する第1信頼度に応じて調整する。例えば、第1信頼度が、0~1.0の範囲の値をとる場合、第1誤差に第1信頼度を乗算することにより第1誤差を調整することができる。
 パラメータ制御部64は、誤差算出部62-2より算出された、第1信頼度により調整された第1誤差を元に誤差逆伝播法により疾患検出モデル50-2におけるパラメータを調整することで疾患検出モデル50-2を学習させる。
 学習処理部60-2は、疾患検出モデル50-2におけるパラメータを第1誤差が収束するように繰り返し調整する。これを、第2データベース18に保存された多数の第2教師データ(学習用のデータセット)を使用して行うことで疾患検出モデル50-2を学習させる。
 また、学習処理部60-2は、1つの第2教師データごとに疾患検出モデル50-2を学習させるのではなく、第2データベース18から一定数のミニバッチの第2教師データを抽出し、ミニバッチ単位のトータルの第1誤差(ミニバッチの各第2教師データの第1信頼度によりそれぞれ調整された第1誤差のトータルの誤差)が収束するように疾患検出モデル50-1を学習させ、これを複数のミニバッチで行うことで疾患検出モデル50-2を学習させることができる。
 CT画像では視認できるが、単純X線画像では視認できない、又は視認が困難なレベルのアノテーションを学習に反映させれば、モデルの学習でのノイズとなり得るが、第2実施形態の学習装置11-2によれば、第1信頼度に応じて第1誤差を調整して学習させるようにしたため、アノテーションノイズの影響を低減することができる。
 第2実施形態の学習装置11-2の変形例は、疾患検出モデル50-2が、信頼度(第2信頼度)も検出結果として出力するように学習させる。これにより、疾患検出モデル50-2は、単純X線画像を入力すると、入力した単純X線画像から、疾患ラベルと疾患検出モデル50-2が自ら検出した疾患ラベルの信頼度(第2信頼度)(即ち、第2信頼度付きの疾患ラベル)を検出出力する学習モデルにすることができる。
 この場合、誤差算出部62-2は、第1信頼度付きの疾患ラベル3-2と第2信頼度付きの検出結果4-2との第1誤差を算出し、算出した第1誤差を、疾患ラベル3-2に付帯する第1信頼度に応じて調整する。
 また、誤差算出部は、第1信頼度と第2信頼と統合して第3信頼度を生成し、第1誤差を収束させる学習処理を行う際に、第3信頼度に応じて第1誤差を調整してもよい。
 更に、誤差算出部62-2は、疾患検出モデル50-2から出力される第2信頼度が低く、かつ擬陽性となる疾患領域の第1誤差を大きく調整し、第2信頼度が低く、かつ擬陰性となる疾患領域の第1誤差を小さく調整することが好ましい。第2信頼度が低い場合、擬陽性となる検出結果が出力されないように学習させるためである。
 パラメータ制御部64は、誤差算出部62-2より算出された、第1信頼度により調整された第1誤差を元に誤差逆伝播法により疾患検出モデル50-2におけるパラメータを調整することで疾患検出モデル50-2を学習させる。
 [疾患検出モデルの第1実施形態]
 図7は、本発明に係る疾患検出モデルの第1実施形態を示す図であり、特に疾患検出モデルの入出力を示している。
 図7に示す第1実施形態の疾患検出モデル52-1は、第1実施形態の学習装置11-1により学習された学習済みの疾患検出モデル50-1に対応するモデルである。疾患検出モデル52-1は、学習装置11-1により学習された学習済みの疾患検出モデル50-1そのものでもよいし、学習済みの疾患検出モデル50-1において最適化されたパラメータが設定された別の疾患検出モデルでもよい。
 この疾患検出モデル52-1は、学習時に使用した単純X線画像以外の任意の単純X線画像5を入力画像とし、入力した単純X線画像5から検出した疾患ラベルを検出結果6-1として出力する。
 図7に示す例では、疾患検出モデル52-1は、疾患領域として類円形の影である肺結節6A、6Bを検出し、肺結節6A、6Bを囲むバウンディングボックス(肺結節のクラス分類の注釈付きのバウンディングボックス)を検出結果6-1として出力する。
 単純X線画像5は、専門医による画像診断時にディスプレイ20に表示されるが、疾患検出モデル52-1の検出結果である肺結節6A、6Bを囲むバウンディングボックスを、ディスプレイ20に表示された単純X線画像5に重畳して表示することができ、これにより専門医による画像診断を支援することができる。また、肺結節のクラス分類は、テキストで表示するようにしてもよいし、バウンディングボックスの枠の色により表示してもよい。
 尚、バウンディングボックスは、表示・非表示の選択が可能である。また、バウンディングボックスは、疾患領域を示す指標の一例であり、バウンディングボックスの代わりに、疾患領域の輪郭を強調表示し、あるいは疾患領域を矢印等で示すようにしてもよい。
 [疾患検出モデルの第2実施形態]
 図8は、本発明に係る疾患検出モデルの第2実施形態を示す図であり、特に疾患検出モデルの入出力を示している。
 図8に示す第2実施形態の疾患検出モデル52-2は、第2実施形態の学習装置11-2により学習された学習済みの疾患検出モデル50-2に対応し、特に信頼度付きの検出ラベルを出力するように学習されたモデルである。
 この疾患検出モデル52-2は、学習時に使用した単純X線画像以外の任意の単純X線画像5を入力画像とし、入力した単純X線画像5から検出した信頼度付き疾患ラベルを検出結果6-2として出力する。
 図8に示す例では、疾患検出モデル52-2は、類円形の影である肺結節6A、6B、及び各肺結節6A、6Bの信頼度を検出し、肺結節6A、6Bを囲むバウンディングボックスと、信頼度を示す数値(1.0、0.5)を検出結果6-2として出力する。
 単純X線画像5は、専門医による画像診断時にディスプレイ20に表示されるが、疾患検出モデル52-2の検出結果である肺結節6A、6Bを囲む、信頼度付きのバウンディングボックスを、ディスプレイ20に表示された単純X線画像5に重畳して表示することができ、これにより専門医による画像診断を支援することができる。尚、信頼度付きのバウンディングボックスにより、そのバウンディングボックスで囲まれた疾患(肺結節6A、6B)の視認性を把握することができる。
 [疾患ラベル作成方法]
 図9は、本発明に係る疾患ラベル作成方法の実施形態を示すフローチャートである。
 図9に示す疾患ラベル作成方法の各ステップの処理は、プロセッサ12により行われ、特に図2に示した第1実施形態の疾患ラベル作成装置10-1により行われる処理に対応する。
 図9において、プロセッサ12の情報取得部28は、第1データベース16から、同一患者の単純X線画像1、3次元のCT画像2、及びCT画像2から抽出された3次元の第1疾患ラベルを読み出す(ステップS10)。
 プロセッサ12の位置合わせ処理部30は、単純X線画像1とCT画像2とを位置合わせする(ステップS12)。この場合、位置合わせ処理部30は、投影条件(CT画像2の姿勢パラメータ、幾何情報)にしたがってCT画像2を投影してDRR画像を作成し、単純X線画像1(又は正規化した単純X線画像)とDRR画像との類似度を算出する。そして、算出した類似度が最大になるように投影条件を調整することで、単純X線画像1とCT画像2との位置合わせを行う。
 プロセッサ12の疾患ラベル変換器40は、ステップS12における位置合わせの結果に基づいて、3次元のCT画像2とともに取得した3次元の第1疾患ラベルを、単純X線画像1に対応する2次元の第2疾患ラベルに変換する(ステップS14)。即ち、ステップS14では、単純X線画像1とCT画像2との位置合わせの結果(投影条件)に基づいて、3次元のCT画像2と同様に、3次元の第1疾患ラベルを投影し、単純X線画像1に対応する2次元の疾患ラベル(第2疾患ラベル)に変換することで、第2疾患ラベルを作成する。
 プロセッサ12は、単純X線画像1と作成した第2疾患ラベルとのペアを第1教師データとして第2データベース18に保存する(ステップS16)。
 プロセッサ12は、第1データベース16に保存された同一患者の単純X線画像1、及び3次元のCT画像2等に基づく全ての疾患ラベルの作成が終了したか否かを判別する(ステップS18)。プロセッサ12は、全ての疾患ラベルの作成が終了していないと判別すると(「NO」の場合)、ステップS10に遷移し、別の患者の単純X線画像1、及び3次元のCT画像2等を読み出して、上記と同様にして疾患ラベルを作成し、全ての疾患ラベルの作成が終了したと判別すると(「YES」の場合)、疾患ラベルを自動的に作成する処理を終了させる。
 [その他]
 本実施形態では、単純X線画像として胸部X線画像の場合について説明したが、これに限らず、腹部X線画像等の他の単純X線画像にも適用することができ、また、本発明に係る疾患ラベル作成装置により作成される疾患ラベル、及び本発明に係る疾患検出モデルにより検出される疾患ラベルは、肺結節の領域を示す情報に限らず、他の疾患の領域を示す情報でもよい。
 また、本実施形態では、疾患検出モデルとして、Bayesian U-Netを使用する場合について説明したが、Bayesian U-Netに限らず、単純X線画像から疾患領域を検出する学習モデルであれば、いかなるものでもよい。
 また、本実施形態において、例えば、CPU等の各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
 更に、本発明は、コンピュータにインストールされることにより、コンピュータを本発明に係る疾患ラベル作成装置として機能させる疾患ラベル作成プログラム、及びこの疾患ラベル作成プログラムが記録された不揮発性の記憶媒体を含む。
 更にまた、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
1、5 単純X線画像
2 CT画像
3-1、3-2 疾患ラベル
3A、3B 矩形領域
4-1、4-2、6-1、6-2 検出結果
6A、6B 肺結節
10、10-1、10-2 疾患ラベル作成装置
11-1、11-2 学習装置
12 プロセッサ
14 メモリ
16 第1データベース
18 第2データベース
20 ディスプレイ
22 入出力インターフェース
24 操作部
28 情報取得部
30 位置合わせ処理部
31 正規化部
32 比較部
33 DRR画像作成部
34 幾何情報
35 最適化部
38 X線源位置
39 検出器位置
40 疾患ラベル変換器
42 信頼度算出器
50-1、50-2、52-1、52-2 疾患検出モデル
60-1、60-2 学習処理部
62-1、62-2 誤差算出部
64 パラメータ制御部
S10~S18 ステップ

Claims (25)

  1.  第1プロセッサを備える疾患ラベル作成装置であって、
     前記第1プロセッサは、
     単純X線画像、前記単純X線画像とペアの3次元のCT画像、及び前記CT画像から抽出された3次元の第1疾患ラベルを取得する情報取得処理と、
     前記単純X線画像と前記CT画像とを位置合わせする位置合わせ処理と、
     前記位置合わせの結果に基づいて前記第1疾患ラベルを、前記単純X線画像に対応する2次元の第2疾患ラベルに変換する変換処理と、
     を行う疾患ラベル作成装置。
  2.  前記位置合わせ処理は、
     前記CT画像を投影して疑似X線画像を作成する処理と、
     前記単純X線画像と前記疑似X線画像とを位置合わせする処理と、を含む、
     請求項1に記載の疾患ラベル作成装置。
  3.  前記位置合わせ処理は、
     前記単純X線画像から2次元の解剖学的ランドマークを抽出する処理と、
     前記CT画像から前記解剖学的ランドマークに対応する3次元の解剖学的ランドマークを抽出する処理と、
     前記3次元の解剖学的ランドマークを投影する処理と、
     前記2次元の解剖学的ランドマークと前記投影処理後の解剖学的ランドマークとを位置合わせする処理と、を含む、
     請求項1に記載の疾患ラベル作成装置。
  4.  前記位置合わせ処理は、
     前記単純X線画像から2次元の解剖学的関心領域を抽出する処理と、
     前記CT画像から前記解剖学的関心領域に対応する3次元の解剖学的関心領域を抽出する処理と、
     前記3次元の解剖学的関心領域を投影する処理と、
     前記2次元の解剖学的関心領域の輪郭と前記投影処理後の解剖学的関心領域の輪郭とを位置合わせする処理と、を含む、
     請求項1に記載の疾患ラベル作成装置。
  5.  前記位置合わせ処理は、
     前記単純X線画像を3次元復元する処理と、
     前記CT画像と前記3次元復元した前記単純X線画像とを位置合わせする処理と、を含む、
     請求項1に記載の疾患ラベル作成装置。
  6.  前記第1プロセッサは、前記第2疾患ラベルに対する第1信頼度を算出する第1信頼度算出処理を行う、
     請求項1から5のいずれか1項に記載の疾患ラベル作成装置。
  7.  前記第1信頼度算出処理は、
     前記単純X線画像の正常領域に対する、前記第2疾患ラベルに対応する第2疾患領域の視認性を、前記第1疾患ラベルに対応する前記CT画像の第1疾患領域と正常領域との画素値の統計量、及び前記CT画像の前記第1疾患領域の形状特徴の少なくとも1つ以上を用いて算出し、
     前記算出した視認性から前記第1信頼度を算出する、
     請求項6に記載の疾患ラベル作成装置。
  8.  前記情報取得処理は、前記CT画像における解剖学的領域の情報を取得し、
     前記第1信頼度算出処理は、
     前記単純X線画像の正常領域に対する、前記第2疾患ラベルに対応する第2疾患領域の視認性を、前記第1疾患ラベルに対応する前記CT画像の第1疾患領域と前記解剖学的領域との投影方向の重畳に基づいて算出し、
     前記算出した視認性から前記第1信頼度を算出する、
     請求項6に記載の疾患ラベル作成装置。
  9.  前記第1疾患ラベルは、前記CT画像から自動検出されたラベルであり、
     前記情報取得処理は、前記単純X線画像又は前記CT画像に対応する読影レポートを取得し、
     前記第1信頼度算出処理は、前記第1疾患ラベルと前記読影レポートの記載内容との一致度に基づいて前記第1信頼度を算出する、
     請求項6に記載の疾患ラベル作成装置。
  10.  前記第1プロセッサは、前記位置合わせの結果の成功度を算出し、
     前記第1信頼度算出処理は、前記成功度に基づいて前記第1信頼度を算出する、
     請求項6に記載の疾患ラベル作成装置。
  11.  前記第1疾患ラベルは、前記CT画像から自動検出されたラベルであり、
     前記第1信頼度算出処理は、前記ペアの前記単純X線画像と前記CT画像とで撮影範囲が異なる領域の前記第2疾患ラベルに対して低い第1信頼度を付与する、
     請求項6に記載の疾患ラベル作成装置。
  12.  前記位置合わせ処理は、
     患者に応じて前記患者に対応付けられた前記ペアの前記単純X線画像及び前記CT画像の位置合わせにおける解空間を調整して位置合わせを行う、
     請求項1から11のいずれか1項に記載の疾患ラベル作成装置。
  13.  患者特徴情報毎の統計変形モデルのデータベースを有し、
     前記位置合わせ処理は、
     前記ペアの前記単純X線画像及び前記CT画像に対応する患者の患者特徴情報に基づいて、前記データベースから対応する統計変形モデルを選択する処理と、
     前記選択した統計変形モデルを用いて、前記単純X線画像と前記CT画像との非剛体位置合わせを行う処理と、を行う、
     請求項12に記載の疾患ラベル作成装置。
  14.  前記情報取得処理は、前記CT画像の画像単位の第3疾患ラベルを取得し、
     前記第1プロセッサは、前記単純X線画像に前記第2疾患ラベル及び前記第3疾患ラベルを付与する、
     請求項1から13のいずれか1項に記載の疾患ラベル作成装置。
  15.  前記情報取得処理は、前記CT画像の画像単位の第3疾患ラベルを取得し、
     前記第1プロセッサは、
     前記位置合わせの結果の成功又は失敗を判定し、
     前記成功と判定した場合には前記第2疾患ラベルを選択し、前記失敗と判定した場合には前記第3疾患ラベルを選択し、
     前記単純X線画像に前記選択した前記第2疾患ラベル又は前記第3疾患ラベルを付与する、
     請求項1から14のいずれか1項に記載の疾患ラベル作成装置。
  16.  単純X線画像、前記単純X線画像とペアの3次元のCT画像、及び前記CT画像から抽出された3次元の第1疾患ラベルを取得するステップと、
     前記単純X線画像と前記CT画像とを位置合わせするステップと、
     前記位置合わせの結果に基づいて前記第1疾患ラベルを、前記単純X線画像に対応する2次元の第2疾患ラベルに変換するステップと、を含み、
     プロセッサが各ステップの処理を実行する疾患ラベル作成方法。
  17.  単純X線画像、前記単純X線画像とペアの3次元のCT画像、及び前記CT画像から抽出された3次元の第1疾患ラベルを取得する機能と、
     前記単純X線画像と前記CT画像とを位置合わせする機能と、
     前記位置合わせの結果に基づいて前記第1疾患ラベルを、前記単純X線画像に対応する2次元の第2疾患ラベルに変換する機能と、
     をコンピュータにより実現させる疾患ラベル作成プログラム。
  18.  非一時的かつコンピュータ読取可能な記録媒体であって、請求項17に記載のプログラムが記録された記録媒体。
  19.  第2プロセッサを備える学習装置であって、
     前記第2プロセッサは、
     前記単純X線画像と請求項1又は2に記載の疾患ラベル作成装置により作成された第2疾患ラベルとからなる第1教師データを使用して、疾患検出モデルを学習させる学習処理であって、前記疾患検出モデルの出力と前記第2疾患ラベルとの第1誤差を収束させる学習処理を行う、
     学習装置。
  20.  第2プロセッサを備える学習装置であって、
     前記第2プロセッサは、前記単純X線画像と請求項6から11のいずれか1項に記載の疾患ラベル作成装置により作成された前記第2疾患ラベルと前記第1信頼度とからなる第2教師データを使用して、疾患検出モデルを学習させる学習処理であって、前記疾患検出モデルの出力と前記第2疾患ラベルとの第1誤差を収束させる学習処理を行う際に、前記第1信頼度に応じて前記第1誤差を調整して学習させる学習処理を行う、
     学習装置。
  21.  前記情報取得処理は、前記CT画像の画像単位の第3疾患ラベルを取得し、
     前記第1プロセッサは、前記単純X線画像に前記第2疾患ラベル及び前記第3疾患ラベルを付与し、
     前記第2プロセッサは、前記第3疾患ラベルが付与された前記単純X線画像を第3教師データとして使用し、前記疾患検出モデルの出力と前記第3疾患ラベルとの第2誤差を収束させる学習処理を行う、
     請求項19又は20に記載の学習装置。
  22.  前記第2プロセッサは、前記疾患検出モデルから単純X線画像に含まれる疾患領域を示す疾患検出結果と前記疾患検出結果の第2信頼度を出力させるべく学習処理を行う、
     請求項20に記載の学習装置。
  23.  前記第2プロセッサは、前記疾患検出モデルから出力される前記第2信頼度が低く、かつ擬陽性となる前記疾患領域の前記第1誤差を大きく調整し、前記第2信頼度が低く、かつ擬陰性となる前記疾患領域の前記第1誤差を小さく調整する、
     請求項22に記載の学習装置。
  24.  前記第2プロセッサは、前記第1信頼度算出処理により算出された前記第1信頼度と、前記疾患検出モデルから出力される前記第2信頼度とを統合して第3信頼度を生成し、前記疾患検出モデルの出力と前記第2疾患ラベルとの第1誤差を収束させる学習処理を行う際に、前記第3信頼度に応じて前記第1誤差を調整して学習させる学習処理を行う、
     請求項22又は23に記載の学習装置。
  25.  請求項19から24のいずれか1項に記載の学習装置により学習が行われた学習済みの疾患検出モデルであって、
     任意の単純X線画像を入力画像とし、入力した前記単純X線画像から疾患ラベルを検出出力する、
     疾患検出モデル。
PCT/JP2022/024843 2021-06-29 2022-06-22 疾患ラベル作成装置、方法及びプログラム並びに学習装置及び疾患検出モデル WO2023276810A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2023531856A JPWO2023276810A5 (ja) 2022-06-22 疾患ラベル作成装置、方法、プログラム及び記録媒体並びに学習装置及び疾患検出モデル
EP22832958.7A EP4364665A1 (en) 2021-06-29 2022-06-22 Disease label creation device, method, and program, learning device, and disease detection model
US18/395,710 US20240127613A1 (en) 2021-06-29 2023-12-25 Disease label creation device, disease label creation method, disease label creation program, learning device, and disease detection model

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-107709 2021-06-29
JP2021107709 2021-06-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/395,710 Continuation US20240127613A1 (en) 2021-06-29 2023-12-25 Disease label creation device, disease label creation method, disease label creation program, learning device, and disease detection model

Publications (1)

Publication Number Publication Date
WO2023276810A1 true WO2023276810A1 (ja) 2023-01-05

Family

ID=84706694

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/024843 WO2023276810A1 (ja) 2021-06-29 2022-06-22 疾患ラベル作成装置、方法及びプログラム並びに学習装置及び疾患検出モデル

Country Status (3)

Country Link
US (1) US20240127613A1 (ja)
EP (1) EP4364665A1 (ja)
WO (1) WO2023276810A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117197737A (zh) * 2023-09-08 2023-12-08 数字广东网络建设有限公司 一种土地用途的检测方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007159643A (ja) * 2005-12-09 2007-06-28 Canon Inc 画像処理装置および方法
JP2009061156A (ja) * 2007-09-07 2009-03-26 Hitachi Medical Corp 医用画像診断支援システム
JP2020086519A (ja) * 2018-11-15 2020-06-04 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理方法、およびプログラム
JP2020192006A (ja) * 2019-05-27 2020-12-03 キヤノンメディカルシステムズ株式会社 診断支援装置、及び、x線ct装置
JP2021039748A (ja) * 2019-08-30 2021-03-11 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP2021051573A (ja) * 2019-09-25 2021-04-01 キヤノン株式会社 画像処理装置、および画像処理装置の制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007159643A (ja) * 2005-12-09 2007-06-28 Canon Inc 画像処理装置および方法
JP2009061156A (ja) * 2007-09-07 2009-03-26 Hitachi Medical Corp 医用画像診断支援システム
JP2020086519A (ja) * 2018-11-15 2020-06-04 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理方法、およびプログラム
JP2020192006A (ja) * 2019-05-27 2020-12-03 キヤノンメディカルシステムズ株式会社 診断支援装置、及び、x線ct装置
JP2021039748A (ja) * 2019-08-30 2021-03-11 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP2021051573A (ja) * 2019-09-25 2021-04-01 キヤノン株式会社 画像処理装置、および画像処理装置の制御方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
NAM, JU GANG ET AL.: "Development and validation of deep learning-based automatic detection algorithm for malignant pulmonary nodules on chest radiographs", RADIOLOGY, 2019
ZHANG, YUE ET AL.: "Task driven generative modeling for unsupervised domain adaptation: Application to x-ray image segmentation", MICCAI, 2018

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117197737A (zh) * 2023-09-08 2023-12-08 数字广东网络建设有限公司 一种土地用途的检测方法、装置、设备及存储介质
CN117197737B (zh) * 2023-09-08 2024-05-28 数字广东网络建设有限公司 一种土地用途的检测方法、装置、设备及存储介质

Also Published As

Publication number Publication date
JPWO2023276810A1 (ja) 2023-01-05
EP4364665A1 (en) 2024-05-08
US20240127613A1 (en) 2024-04-18

Similar Documents

Publication Publication Date Title
US10709394B2 (en) Method and system for 3D reconstruction of X-ray CT volume and segmentation mask from a few X-ray radiographs
Miao et al. A CNN regression approach for real-time 2D/3D registration
EP3355273B1 (en) Coarse orientation detection in image data
US8953856B2 (en) Method and system for registering a medical image
CN107403463B (zh) 在成像系统中具有非刚性部分的人体表示
JP7325954B2 (ja) 医用画像処理装置、医用画像処理プログラム、学習装置及び学習プログラム
US8121362B2 (en) Registration of medical images using learned-based matching functions
Yao Assessing accuracy factors in deformable 2D/3D medical image registration using a statistical pelvis model
US8958614B2 (en) Image-based detection using hierarchical learning
US9179890B2 (en) Model-based positioning for intracardiac echocardiography volume stitching
WO2010143400A1 (ja) 画像照合装置及びこれを用いた患者位置決め装置
Maken et al. 2D-to-3D: a review for computational 3D image reconstruction from X-ray images
US9135696B2 (en) Implant pose determination in medical imaging
Li et al. Automatic lumbar vertebrae detection based on feature fusion deep learning for partial occluded C-arm X-ray images
US20240127613A1 (en) Disease label creation device, disease label creation method, disease label creation program, learning device, and disease detection model
JP7114737B2 (ja) 画像処理装置、画像処理方法、及びプログラム
Goswami et al. 3D modeling of X-ray images: a review
US9286688B2 (en) Automatic segmentation of articulated structures
CN113348485A (zh) 异常检测方法、异常检测程序、异常检测装置、服务器装置以及信息处理方法
Albarqouni et al. Single-view X-ray depth recovery: toward a novel concept for image-guided interventions
CN116664476A (zh) 确定医学图像数据中描绘的解剖异常的变化的方法和系统
CN113657420A (zh) 身体表示
JP2023531365A (ja) 医用画像変換方法および関連付けられる医用画像3dモデルパーソナライズ方法
US11430203B2 (en) Computer-implemented method for registering low dimensional images with a high dimensional image, a method for training an aritificial neural network useful in finding landmarks in low dimensional images, a computer program and a system for registering low dimensional images with a high dimensional image
Koehler et al. Reconstructing the human ribcage in 3d with x-rays and geometric models

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22832958

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023531856

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2022832958

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022832958

Country of ref document: EP

Effective date: 20240129