JP7187680B2 - 線構造抽出装置及び方法、プログラム並びに学習済みモデル - Google Patents

線構造抽出装置及び方法、プログラム並びに学習済みモデル Download PDF

Info

Publication number
JP7187680B2
JP7187680B2 JP2021511869A JP2021511869A JP7187680B2 JP 7187680 B2 JP7187680 B2 JP 7187680B2 JP 2021511869 A JP2021511869 A JP 2021511869A JP 2021511869 A JP2021511869 A JP 2021511869A JP 7187680 B2 JP7187680 B2 JP 7187680B2
Authority
JP
Japan
Prior art keywords
line structure
image
processing module
point
anchor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021511869A
Other languages
English (en)
Other versions
JPWO2020203552A1 (ja
Inventor
嘉郎 北村
晶路 一ノ瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020203552A1 publication Critical patent/JPWO2020203552A1/ja
Application granted granted Critical
Publication of JP7187680B2 publication Critical patent/JP7187680B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/504Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01TMEASUREMENT OF NUCLEAR OR X-RADIATION
    • G01T1/00Measuring X-radiation, gamma radiation, corpuscular radiation, or cosmic radiation
    • G01T1/16Measuring radiation intensity
    • G01T1/161Applications in the field of nuclear medicine, e.g. in vivo counting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30172Centreline of tubular or elongated structure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Software Systems (AREA)
  • Vascular Medicine (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Quality & Reliability (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Computing Systems (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、線構造抽出装置及び方法、プログラム並びに学習済みモデルに係り、特に画像内から線状の対象物を検出するための画像処理技術及び機械学習技術に関する。
深層学習を利用した物体検出のアルゴリズムとして、特許文献1及び非特許文献1には、Faster R-CNN(Region-Based Convolutional Neural Networks)と呼ばれる手法が提案されている。非特許文献2には、Faster R-CNNを利用して橋梁及び建物の画像から鉄の錆、剥離、ボルトの腐食、及びコンクリートのクラックといった構造物の劣化部分を自動的に検出する方法が提案されている。
米国特許第9858496号
Ren, Shaoqing, et al. "Faster R-CNN: Towards real-time object detection with region proposal networks." Advances in neural information processing systems. 2015. Gahayun Suh, Young-Jin Cha "Deep faster R-CNN-based automated detection and localization of multiple types of damage" Sensors and Smart Structures Technologies for Civil, Mechanical, and Aerospace Systems 2018
コンクリートのクラックは、線構造を有するオブジェクトの一形態である。線構造を持つオブジェクトの他の例として、医療画像における血管あるいは気管支などの管状構造物がある。特許文献1及び非特許文献1には、画像から線構造を検出するための応用方法について記載されていない。線構造を検出するために、画像セグメンテーションの手法により画像から線状のオブジェクトを検出することが考えられる。しかし、画像セグメンテーションのタスクを実現するための機械学習には、画素単位で正解のラベルを付した画像が大量に必要であり、このような正解画像の作成が困難である。
非特許文献2ではコンクリートのクラックを対象に、Faster R-CNNのアルゴリズムをそのまま適用したものであり、画像中からクラックを含むバウンディングボックスを連続的に検出する。この場合、検出結果はバウンディングボックスが示す矩形領域であり、このような矩形領域群として出力される検出結果から線状のオブジェクトの領域を代表する中心線などを特定するような再構成処理が難しい。
本発明はこのような事情に鑑みてなされたもので、画像中の線構造を検出することができる線構造抽出装置及び方法、プログラム並びに学習済みモデルを提供することを目的とする。
本開示の一態様に係る線構造抽出装置は、画像から線構造を構成する要素点を抽出する線構造抽出装置であって、画像の入力を受けて画像から線構造を構成する1つ以上の要素点を予測結果として出力するよう学習された学習モデルを備え、学習モデルは、画像を受け入れて畳み込みの処理により画像の特徴量を示す特徴マップを生成する第1の処理モジュールと、特徴マップをグリッド状に既定サイズの領域を持つ複数のユニットに分割して得られるユニットごとに、ユニット中心点から最も近くにある線構造の要素点へのユニット中心点からのシフト量を計算する第2の処理モジュールと、を含む線構造抽出装置である。
本開示の他の態様に係る線構造抽出装置において、第2の処理モジュールは、ユニットの各々に対して、予め定められた形状及びサイズを持つ1つ以上の基準形状領域であるアンカーを配置し、ユニットごとにユニットの位置の特徴量を用いて畳み込みの処理を行うことにより、アンカーのアンカー中心点から最も近くにある線構造の要素点である最近点にアンカー中心点を移動させるためのシフト量と、アンカー内に線構造が存在するか否かを判別するためのスコアと、を計算する構成とすることができる。
本開示のさらに他の態様に係る線構造抽出装置において、基準形状領域は、画像が2次元画像である場合は矩形領域であり、画像が3次元画像である場合は直方体領域である構成とすることができる。
本開示のさらに他の態様に係る線構造抽出装置において、線構造は、画像内において太さを持つ領域の代表線であり、太さを持つ領域の太さに対応させて、サイズが異なる複数のアンカーが用いられる構成とすることができる。
本開示のさらに他の態様に係る線構造抽出装置において、線構造は、画像内において太さを持つ領域の代表線であり、第2の処理モジュールは、対象とする太さを持つ領域の太さに応じてアンカーのサイズを変更するように学習されたものである構成とすることができる。
本開示のさらに他の態様に係る線構造抽出装置において、線構造は、画像内において太さを持つ領域の代表線であり、第2の処理モジュールは、アンカーごとに、太さを持つ領域の最近点の周囲の太さに合わせてアンカーの少なくとも1つの辺の方向についてのアンカーの変形倍率を計算するように学習されたものである構成とすることができる。
本開示のさらに他の態様に係る線構造抽出装置において、太さを持つ領域は管状構造物であり、代表線は、管状構造物の経路に沿った中心線である構成とすることができる。
本開示のさらに他の態様に係る線構造抽出装置において、第1の処理モジュール及び第2の処理モジュールの各々はニューラルネットワークによって構成されており、第1の処理モジュールは、複数の畳み込み層を備える畳み込みニューラルネットワークによって構成され、第2の処理モジュールは、第1の処理モジュールとは異なる畳み込み層を備え、特徴マップから線構造が含まれる候補領域を予測する領域提案ネットワークによって構成される構成とすることができる。
本開示のさらに他の態様に係る線構造抽出装置において、第2の処理モジュールによって予測された線構造の要素点に対し、各点をクラス分類するよう学習された第3の処理モジュールをさらに備える構成とすることができる。
本開示のさらに他の態様に係る線構造抽出装置において、第3の処理モジュールにより分類されるクラスは、グラフ理論の木構造における根、分岐、末端、及び枝上の点のうち少なくとも1つを含む構成とすることができる。
本開示のさらに他の態様に係る線構造抽出装置において、線構造は、血管の経路に沿った中心線であり、第3の処理モジュールにより分類されるクラスは、血管構造における特定の解剖学的名称を含む構成とすることができる。
本開示のさらに他の態様に係る線構造抽出装置において、線構造は、気管の経路に沿った中心線であり、第3の処理モジュールにより分類されるクラスは、気管構造における特定の解剖学的名称を含む構成とすることができる。
本開示のさらに他の態様に係る線構造抽出装置において、第3の処理モジュールは、ニューラルネットワークによって構成されており、第3の処理モジュールは、特徴マップから、第2の処理モジュールによって予測された要素点を含むアンカーの局所画像を切り出して局所画像を固定サイズに変形する関心領域プーリング層と、固定サイズに変形された局所画像が入力される畳み込み層及び全結合層のうち少なくとも一方と、を含む構成とすることができる。
本開示のさらに他の態様に係る線構造抽出方法は、画像から線構造を構成する要素点を抽出する線構造抽出方法であって、画像の入力を受けて画像から線構造を構成する1つ以上の要素点を予測結果として出力するよう学習された学習モデルを用い、学習モデルへの画像の入力を受け付けることと、入力された画像について第1の処理モジュールにより畳み込みの処理を行い、画像の特徴量を示す特徴マップを生成することと、特徴マップをグリッド状に既定サイズの領域を持つ複数のユニットに分割し、第2の処理モジュールを用いて、ユニットごとにユニット中心点から最も近くにある線構造の要素点へのユニット中心点からのシフト量を計算することと、を含む線構造抽出方法である。
本開示のさらに他の態様に係る線構造抽出方法において、複数のユニットによって予測された複数の要素点の点群のうち、ユニットのサイズの半分を目安とする第1の間隔よりも近接している過剰な要素点の一部を削除して、第1の間隔の程度で要素点を選択して残すこと、をさらに含む構成とすることができる。
本開示のさらに他の態様に係る線構造抽出方法において、線構造は、画像内において太さを持つ領域の代表線であり、複数のユニットによって予測された複数の要素点の点群のうち、太さの半分を目安とする第2の間隔よりも近接している過剰な要素点の一部を削除して、第2の間隔の程度で要素点を選択して残すこと、をさらに含む構成とすることができる。
本開示のさらに他の態様に係る線構造抽出方法において、複数のユニットによって予測された複数の要素点の点群のうち、予め定めた閾値以内の距離に他の点が存在しない孤立点を削除すること、をさらに含む構成とすることができる。
本開示のさらに他の態様に係るプログラムは、画像から線構造を構成する要素点を抽出する機能をコンピュータに実現させるためのプログラムであって、画像の入力を受け付ける機能と、入力された画像について第1の処理モジュールを用いて畳み込みの処理を行い、画像の特徴量を示す特徴マップを生成する機能と、特徴マップをグリッド状に既定サイズの領域を持つ複数のユニットに分割し、第2の処理モジュールを用いて、ユニットごとにユニット中心点から最も近くにある線構造の要素点への、ユニット中心点からのシフト量を予測する機能と、をコンピュータに実現させるプログラムである。
本開示のさらに他の態様に係る学習済みモデルは、入力された画像から線構造を構成する1つ以上の要素点を予測結果として出力するよう学習された学習済みモデルであって、画像を受け入れて畳み込みの処理により画像の特徴量を示す特徴マップを生成する第1の処理モジュールと、特徴マップをグリッド状に既定サイズの領域を持つ複数のユニットに分割して得られるユニットごとに、ユニット中心点から最も近くにある線構造の要素点へのユニット中心点からのシフト量を計算する第2の処理モジュールと、を含む学習済みモデルである。
本開示のさらに他の態様に係る学習済みモデルにおいて、第1の処理モジュール及び第2の処理モジュールを構成しているネットワークのパラメータは、訓練画像と、訓練画像に含まれている線構造の位置情報と、を組み合わせた複数の学習データを用いた機械学習を実行することによって決定されている構成とすることができる。
本開示のさらに他の態様に係る学習済みモデルにおいて、線構造は、画像内において太さを持つ領域の代表線であり、学習データは、訓練画像に含まれている太さを持つ領域の太さ情報をさらに含む構成とすることができる。
本開示のさらに他の態様に係る線構造抽出装置は、プロセッサと、画像から線構造を構成する要素点を抽出する処理をプロセッサに実行させるための命令が記憶された非一時的なコンピュータ可読媒体と、を備え、プロセッサは、命令を実行することにより、画像の入力を受け付けることと、入力された画像について第1の処理モジュールにより畳み込みの処理を行い、画像の特徴量を示す特徴マップを生成することと、特徴マップをグリッド状に既定サイズの領域を持つ複数のユニットに分割し、第2の処理モジュールを用いて、ユニットごとにユニット中心点から最も近くにある線構造の要素点へのユニット中心点からのシフト量を計算することと、を含む処理を行う。
本発明によれば、学習モデルを用いて画像中に含まれる線構造の要素点を予測することができ、要素点の点群によって線構造を検出することができる。本発明によれば、予測された要素点の点群から線構造を容易に再構成することができる。学習モデルの学習には、訓練画像に対する正解の線構造の線上点座標を用いればよく、このような正解データの作成は比較的容易である。
図1は、心臓CT検査によって得られるボリュームレンダリング(Volume Rendering:VR)画像の例である。 図2は、ノードとエッジとを用いて表現される血管経路の模式図である。 図3は、冠動脈のCPR(Curved Planer Reconstruction)画像の例である。 図4は、本発明の実施形態に適用されるFaster R-CNNの概要を示す構成図である。 図5は、本発明の実施形態に係る線状構造抽出装置における処理の内容を概略的に示す説明図である。 図6は、領域提案ネットワーク(Region Proposal Network:RPN)によって処理される特徴マップの各画素と、血管中心線との位置関係の例を模式的に示す図である。 図7は、中心線CLbvの付近にあるユニットの拡大図である。 図8は、アンカーの説明図である。 図9は、サイズが異なる3種類のアンカーを用いる例を示す図である。 図10は、RPNの出力例を示す概念図である。 図11は、孤立点の説明図である。 図12は、木構造の構成要素のラベルが付された点群の例を示す。 図13は、線構造抽出装置に実装される学習モデルのネットワーク構造及び処理の流れを概略的に示す説明図である。 図14は、線構造抽出装置による処理内容の例を示すフローチャートである。 図15は、図14のステップS54に適用される処理内容の例を示すフローチャートである。 図16は、学習データの概念図である。 図17は、機械学習を行う学習装置の構成例を示す機能ブロック図である。 図18は、本実施形態に係る線構造抽出装置における学習モデルの学習方法の例を示すフローチャートである。 図19は、コンピュータのハードウェア構成の例を示すブロック図である。
以下、添付図面に従って本発明の好ましい実施の形態について詳説する。
《医療画像中の管状構造を検出する例》
本発明の一実施形態として医療画像から管状構造を検出する場合の例を説明する。近年、マルチスライスCT(Computed Tomography)装置等の医療機器の進歩により、質の高い3次元画像が画像診断に用いられるようになってきている。しかしながら、3次元画像は多数のスライス画像から構成され、情報量が多いため、医師が所望の観察部位を見つけ診断することに時間を要する場合がある。
そこで、3次元画像から注目する臓器を抽出し、MIP(Maximum Intensity Projection)、VR(Volume Rendering)、又はCPR(Curved Planer Reconstruction)等の表示を行うことにより、臓器全体及び/又は病変の視認性を高め診断の効率化を図ることが行われている。例えば、心臓CT画像に対する解析、特に冠動脈解析あるいは脳血管の解析を行う際に、画像中から血管経路を抽出することが求められる。
図1は、心臓CT検査によって得られるVR画像の例である。図1の左図に示す画像HVR1は心臓VR画像の例であり、右図に示す画像HVR2は冠動脈経路Carを重畳表示した心臓VR画像の例である。
図2は、血管経路の模式図である。血管の経路は、血管の中心線CLbvを連続的に追跡した座標点(ノードNd)の点群と、ノードNd間の隣接関係を表すエッジEgと、を用いて表現することができる。3次元画像から血管の中心線CLbvが検出されると、その経路に沿って展開したCPR画像を生成することにより、血管に体積したプラークを可視化したり、狭窄率を計測したりすることができ、診断に有効な情報を得ることができる。
図3は、冠動脈のCPR画像の例である。図3の下段にはストレートビューモードによるCPR画像の例が示され、図3の上段には血管BVの経路に沿った位置ごとの平均径のグラフが表示されている。図3に示すCPR画像において血管BVの一部が白く膨らんだ部分はプラークPLQである。
《線構造抽出装置の概要》
本発明の実施形態に係る線構造抽出装置は、図1から図3で説明したような画像診断の支援に適用される管状構造物の中心線(センターライン)を抽出する処理に適用される。ここでは、具体的な適用例として、腹部3次元CT画像から肝臓の門脈及び静脈の構造を検出する場合を想定する。血管は本開示における「管状構造物」の一例であり、血管の中心線は本開示における「線構造」の一例である。本実施形態に係る線構造抽出装置は、入力画像から血管の中心線を構成する点の集まり、つまり中心線上の複数の点を予測し、かつ、各点のクラス分類のラベル付けを行う。中心線上の点群は「点列」と言い換えてもよい。
本実施形態に係る線構造抽出装置は、物体検出のアルゴリズムであるFaster R-CNNのフレームワークを改良して、画像中から線構造を構成する線上の点を予測する処理を行う。すなわち、本実施形態において検出対象とする物体は、血管の中心線であり、予測結果としての出力は中心線を構成する要素となる点、つまり、中心線上の点の位置情報である。線構造を構成する要素となる点を「線構造の要素点」という。以下、中心線の要素点を「中心線上点」という。
本明細書において「物体」あるいは「オブジェクト」という用語は、物理的に実在する「実体物」に限定されず、例えば、クラックあるいは隙間のような領域、あるいは大きさを持つ領域の代表線、線構造及び線構造の要素点の概念を含む。血管の中心線は、太さを持つ管状構造物の代表線の一例である。3次元画像を用いた処理の説明は複雑になるため、以下、理解を容易にするために、入力画像が2次元画像である場合に置き換えて説明する。
〔Faster R-CNNの概要〕
図4は、本発明の実施形態に適用されるFaster R-CNNの概要を示す構成図である。Faster R-CNN40は、入力画像IMiptの画像中から物体が存在しそうな領域を見つけ出す第1のニューラルネットワーク41と、第1のニューラルネットワーク41の出力として得られた候補領域RPの各々について、候補領域RP内の物体が何であるかを特定するクラス分類の処理を行う第2のニューラルネットワーク42と、を含んで構成される。
第1のニューラルネットワーク41は、深層畳み込みニューラルネットワーク(Deep Convolutional Neural Network:DCNN)411と、領域提案ネットワーク(Region Proposal Network:RPN)412と、を含んで構成される。DCNN41は、入力画像IMiptの特徴量を抽出するニューラルネットワークである。DCNN41の畳み込みに使用するフィルタのサイズ及びチャンネル数は適宜設計可能である。例えば、フィルタは、3×3のフィルタであってよく、隠れ層のチャンネル数は256あるいは512などであってよい。
DCNN411に入力画像IMiptが入力されると、DCNN411から特徴マップFMが出力される。特徴マップFMは、多層の畳み込み演算によって得られる畳み込み特徴マップである。DCNN411は、プーリング層を含んでもよいし、プーリング層を持たずに畳み込みのフィルタのストライドを2などに設定して特徴マップFMのサイズを縮小してもよい。DCNN411から出力される特徴マップFMは、RPN412に入力される。
RPN412は、DCNN411から出力される特徴マップFMを入力とし、特徴マップFMから物体らしい候補領域RPを予測する。RPN412は、畳み込み層を含んで構成され、画像中から物体らしきものを含むバウンディングボックス(Bounding box:Bbox)を生成する。RPN412によって予測した候補領域RPのリストは第2のニューラルネットワーク42に送られる。すなわち、RPN412は、画像中から複数の候補領域RPをリストアップして、R-CNN423に渡す。
第2のニューラルネットワーク42は、R-CNN(Region-Based Convolutional Neural Network)423によって構成される。R-CNN423は、RPN412の出力として得られた候補領域RPの1つ1つについてクラス分類を行う。R-CNN423は、クラス分類のタスクに加え、物体を囲む矩形を表すバウンディングボックスを出力してもよい。なお、矩形という用語は、長辺と短辺とを持つ長方形に限らず、正方形も含む。
R-CNN423はDCNN411と接続されており、R-CNN423には、DCNN411から出力される特徴マップFMが入力される。また、R-CNN423には、RPN412によって予測された候補領域RPのデータが入力される。R-CNN423は、RPN412が生成した候補領域RPを特徴マップFMに投影して、演算対象とする関心領域(Region of Interest:ROI)を切り出し、ROIごとにオブジェクトのクラス分類を行い、ラベルを決定する。R-CNN423は、RPN412の出力として得られた候補領域RPの1つ1つについてクラス分類を行う。
さらに、R-CNN423は、検出したオブジェクトを囲むバウンディングボックスを出力してもよい。特許文献1及び非特許文献1に記載の一般的な写真画像に写る被写体物を対象とする物体検出のタスクでは、R-CNN423から、オブジェクトラベルの出力と、物体の外接矩形を表すバウンディングボックスの出力と、を得ている。
本実施形態の場合、線構造の要素点である「中心線上点」を囲む矩形を出力しても実用性に乏しいと考えられるため、バウンディングボックスの出力を省略してよい。あるいは、必要に応じて、中心線上点及びその周囲の血管太さ程度の領域範囲を含むバウンディングボックスを出力するよう構成されてもよい。
〔線構造抽出装置における処理の内容〕
図5は、本発明の実施形態に係る線構造抽出装置50における処理の内容を概略的に示す説明図である。図5において、図4と共通する要素には同一の符号を付す。線構造抽出装置50は、1台又は複数台のコンピュータを用いて構成される計算システム(コンピューティングシステム)によって実現することができる。線構造抽出装置50は、第1の処理モジュールとしてのDCNN411と、第2の処理モジュールとしてのRPN412と、第3の処理モジュールとしてのR-CNN423と、を備える。「モジュール」という用語はプログラムモジュールの概念を含む。
DCNN411は、入力画像IMiptを受け入れ、複数の畳み込み層414による畳み込み処理を行い、特徴マップFMを生成する。DCNN411の先頭の入力層は、入力画像IMiptを受け付ける画像受付部としての役割を持つ。図5に示す6×6のグリッドは特徴マップFMの一部を表しており、グリッドのマス目の1区画は特徴マップFMの画素pxfmに対応している。特徴マップFMの1つの画素pxfmは、入力画像IMiptにおけるより広い範囲の画像領域から計算された特徴量の情報を持つ。
入力画像IMiptの画素を画素pxと表記すると、例えば、特徴マップFMの1つの画素pxfmは、入力画像IMiptの画素pxのグリッド配列におけるS×Sピクセルのサイズの画素領域から計算された特徴量を持つようにDCNN411が構成される。Sは、DCNN411による画像の縮小率に応じた値である。つまり、特徴マップFMの各画素pxfmは、入力画像IMiptにおける対応する位置のS×Sサイズの画素領域に相当するものと理解される。
言い換えると、入力画像IMiptをグリッド状にS×Sサイズの複数の領域に分割した場合のS×Sサイズの各領域が特徴マップFMの画素pxfmに対応している。特徴マップFMの各画素pxfmの位置は、入力画像IMiptにおける画像位置を表す座標系に投影して記述することができる。
RPN412はDCNN411から出力された特徴マップFMを受け入れ、特徴マップFMの画素pxfmごとに、画素pxfmの中心点から最も近い中心線上点を予測する。画素pxfmの中心点から最も近い中心線上点を「最近点」という。特徴マップFMの各画素pxfmは、最近点へのシフト量を予測する領域の単位であり、「ユニット」と呼ばれる。すなわち、特徴マップFMは、グリッド状に既定サイズの領域を持つ複数のユニット(画素pxfm)に分割され、RPN412は、特徴マップFMのユニットごとに、中心線の要素点の候補となる最近点を予測する。
RPN412は、特徴マップFMのユニットごとに最近点を予測するために、特徴マップFMの各ユニットに対して、アスペクト比及び/又はサイズの異なる複数種の基準矩形を適用する。この基準矩形は「アンカー」と呼ばれる。図5には、それぞれサイズの異なるアンカーA1、アンカーA2、及びアンカーA3の3種のアンカーを用いる例を示す。ここでは3種のアンカーのアスペクト比はどれも1:1である。なお、同サイズで異なるアスペクト比を持つ複数のアンカーを用いてもよい。複数のアンカーA1、アンカーA2、及びアンカーA3は、それぞれの中心点をユニット(画素pxfm)の中心点と一致させて配置される。
RPN412は、各アンカーをどれだけ移動(シフト)及び/又は変形させると正解の矩形に近づくかを計算し、かつ、アンカー内に物体があるか否かを計算する畳み込み層416を有する。ここでいう正解の矩形とは、正解の中心線上点を中心位置に持つ矩形であり、かつ血管太さに対応した領域サイズを有する矩形である。RPN412は、DCNN411とは異なる畳み込み層を備える。例えば、RPN412は、DCNN411よりも少ない層数の畳み込み層を持つ構成であってよい。RPN412は、ユニットごとにユニットの位置の特徴量を用いて畳み込みの処理を行う。
RPN412は、畳み込み層416による畳み込みを経て、アンカーを正解の矩形に近づけるためのアンカー中心点のシフト量及びアンカーの変形量の出力と、アンカー内に物体があるか否かを示す2クラス分類の確からしさを表すスコアの出力と、を行う。つまり、RPN412は各アンカーについて「アンカーをどのように移動及び/又は変形したらグラウンドトゥルース(ground truth)と一致するかという回帰問題」と「アンカー内に物体があるか否かという識別問題」と、を解く。なお、アンカーの変形量とは、例えば、x方向及びy方向のそれぞれの方向の変形倍率であってよい。アンカーのアスペクト比を変えずにサイズのみを修正する相似変形を行う場合、アンカーの変形量はx方向及びy方向に共通の変形倍率であってよい。
アンカー内に物体があるか否かを示す2クラス分類のスコアを「オブジェクトネススコア」という。一方、アンカーを正解の矩形に近づけるためのアンカーのシフト量及び変形量を示す回帰結果のデータをまとめて「Bboxオフセット」という。RPN412は、計算されたシフト量でシフトしたアンカー内に物体があるか否かを示すオブジェクトネススコアを計算してもよいし、シフトしないアンカー内(ユニット位置に配置したアンカー内)に物体があるか否かを示すオブジェクトネススコアを計算してもよいし、又は、これらの両方のオブジェクトネススコアを計算してもよい。
R-CNN423は、RPN412から出力された予測結果の候補領域に基づき、特徴マップFMから候補領域に対応する部分を切り出した局所画像を生成し、この切り取られた局所画像であるROI画像を基に、全結合層426、427によって、ROI画像内に含まれる物体のクラス分類のスコアを計算し、スコアを基にクラスラベルを付与する。なお、特徴マップFMから切り出す局所画像のサイズは候補領域のサイズと異なるサイズであってもよい。
以下、RPN412とR-CNN423とについてさらに詳細に説明する。
〔RPN412の説明〕
例えば、肝臓の血管の抽出に用いられるRPN412は、門脈と静脈の区別なく、血管の中心線上の候補点を提示するように訓練される。RPN412の最終層から得られる特徴マップの各画素が、中心線上の候補点を予測するユニットである。それぞれのユニットは、図5で説明した特徴マップFMの画素pxfmに対応している。それぞれのユニットは、ユニットの中心位置を基準とした、中心線の最近点の位置とのずれ量を予測する。
2次元画像の場合、RPN412が予測するずれ量はx方向及びy方向の各方向のずれ量を示す2つの実数値Δx,Δyである。3次元画像の場合、RPN412が予測するずれ量は、x方向、y方向及びz方向の各方向のずれ量を示す3つの実数値Δx,Δy,Δzである。さらに、RPN412は、予測したずれ量に従ってシフトさせたアンカー内に、及び/又はシフトさせないアンカー内に対象物体があるか無いかも同時に判別する。つまり、RPN412は、対象物体があるか無いかの2クラス分類を行う。
図6は、RPN412によって処理される特徴マップの各画素と、血管中心線との位置関係の例を模式的に示す図である。図6に示す8×8のグリッドは、DCNN411からの特徴マップFMの一部を表している。例えば、図6において各ユニットuの位置をグリッドの列番号0~7と行番号0~7を用いて「u(列番号,行番号)」のように表記すると、左上のユニットはu(0,0)、右下のユニットはu(7,7)と表記される。例えば、ユニットu(3,4)は、ユニット中心位置の中心座標CP34と、この中心座標CP34から最も近い中心線CLbvの最近点NP34の位置とのずれ量(Δx,Δy)を予測する。
なお、座標を定義する空間は入力画像IMiptにおける位置を特定するxy座標系であってよい。すなわち、各ユニットの中心座標及び最近点座標は入力画像IMiptの画像内の位置を特定するxy座標系の数値(x,y)によって表される。他のユニットについても同様に、各ユニットの中心座標を基準として中心線CLbvの最近点の位置とのずれ量(Δx,Δy)を予測する。ユニットuの中心座標は本開示における「ユニット中心点」の一例である。予測される「ずれ量」は本開示におけるユニット中心点から最近点への「シフト量」の一例である。
図7は、中心線CLbvのユニットの拡大図である。ここでは、4つのユニットuが示されている。ユニットu内に表示された細かいグリッドのマス目は入力画像IMiptの画素のサイズを模式的に表している。図7のように、各ユニットuの中心座標CPから中心線CLbvの最近点NPが予測される。
〈アンカーの説明〉
図8は、アンカーの説明図である。図8は、図6と同様に、特徴マップFMの一部を表しており、グリッドのマス目は特徴マップFMの画素、すなわちユニットを表す。それぞれのユニットは、あらかじめ定義された複数のアンカーを仮想的に有している。図7では、説明を簡単にするために、2種類のアンカーを示す。図7は、グレーで塗りつぶしたユニットu(4,4)に配置される第1のアンカー71及び第2のアンカー72を示す。第1のアンカー71は、3×3のピクセルサイズを持つアンカーである。第2のアンカー72は、7×7のピクセルサイズを持つアンカーである。
血管の中心線CLbvはその線上の位置に応じて血管の太さが定義されているものとする。各ユニットに置かれる複数のアンカーのうち、対象の太さと最も近いサイズのアンカーのみが中心線上点の位置を予測する。
アンカーは、対象の太さの範囲をカバーするように複数種類用意しておく。例えば、冠動脈を対象とする場合、一辺が3ピクセル、5ピクセル、及び9ピクセルの3サイズの正方形のアンカーを用意する。なお、非特許文献1に記載の一般的な物体を対象として物体検出を行う場合には、アスペクト比の異なる複数のアンカーを用意するが、本実施形態の場合、検出の対象は様々な方向に伸びる線構造を有する管状構造物であり、縦長又は横長といった方向性について特段に顕著な傾向もないため、アンカーのアスペクト比は1:1のものだけであってよい。
図8の場合、中心線CLbvの左下の付近、例えば、ユニットu(1,5)の付近は、概ね半径1ピクセルの血管太さを持つ。これに対し、中心線CLbvの右上寄りに位置するユニットu(4,3)付近は、概ね半径2ピクセルの血管太さを持つ。したがって、図8の左下の部分に配置されるユニットでは、複数のアンカーのうち、3×3のピクセルサイズを持つアンカーが中心線上点の位置の予測に用いられ、図8の右上の部分に配置されるユニットでは、7×7のピクセルサイズを持つアンカーが中心線上点の位置の予測に用いられる。
図9は、サイズが異なる3種類のアンカーを用いる例を示しており、中心線上点の予測に用いるアンカーが血管太さに応じて決定されることを表している。この例では、一辺が3ピクセルのアンカー81と、一辺が5ピクセルのアンカー82と、1辺が7ピクセルのアンカー83とが用意されており、血管太さに応じて適用するアンカーのサイズが変更される。なお、1つのユニットに対して予測に用いるアンカーは1つに限定する必要はなく、血管太さによっては1つのユニットに複数のアンカーをそれぞれ適用して中心線上点を予測してもよい。
学習に用いる学習データとして、訓練画像に対し正解となる中心線の位置情報が与えられ、かつ、正解の各中心線上点がどのような大きさの領域(ここでは血管太さ)を代表する点であるかの情報が与えられる。すなわち、学習データには、正解の中心線上点の各々が、どのサイズのアンカーによって抽出されるべきか、つまり、どの太さの代表点として抽出されるべきか、を示す情報(スコア)も与えられる。これにより、対象となる領域の血管太さに応じてアンカーサイズを変更するように学習させることができる。
図10は、RPN412の出力例を示す概念図である。図10は、図9に示した各アンカーについて、予測された最近点NPへの中心点座標のシフトと、予測された変形倍率による矩形サイズ修正とを実施して得られるそれぞれの候補領域RPの例を示す。
〈アンカーを使った学習方法の概要〉
アンカーを使った学習方法の手順の例を以下に示す。
[ステップ1]RPN412は、訓練画像の入力によってDCNN411から出力される特徴マップFMの各ユニット(画素)に予め定義した複数のアンカーを配置する。
[ステップ2]RPN412は、複数のアンカーのうち正解矩形とのオーバーラップの大きいアンカーを探す。
[ステップ3]ステップ2にて選定した選定アンカーと正解矩形との差分を計算する。この差分とは、具体的には、アンカー中心座標のシフト量Δx、Δyと、アンカーの大きさを変更するための変形倍率と、であってよい。
[ステップ4]選定アンカーの物体らしさのスコア(objectness score)が「1」、バウンディングボックスの修正量(Bboxオフセット)がステップ3で計算した差分となるように、ネットワークを学習する。
〈アンカーを使った推論方法の概要〉
アンカーを使った推論(予測)方法の例を以下に示す。
[ステップ101]学習済みのRPN412は、推論対象とする未知画像の入力によってDCNN411から出力される特徴マップFMの各ユニットに予め定義した複数のアンカーを配置する。
[ステップ102]RPN412は、各アンカーのBboxオフセットと、オブジェクトネススコアと、を計算する。
[ステップ103]オブジェクトネススコアが高いアンカーについて、そのアンカーのBboxオフセットを基に、アンカーを移動及び変形する。
〈重複する候補領域の抑制:Non-Maximum Suppression(NMS)処理〉
各ユニットが予測した中心線上点の点群は、過剰に多い場合がある。特許文献1及び非特許文献1に記載のように、Faster R-CNNでは、RPNとR-CNNとの間に重要な候補のみを選択して残すNMS処理が挿入されている。NMS処理は、同じ物体を示している複数の矩形のうちから1つの矩形を残して、他の矩形からの出力を抑制する処理である。
特許文献1及び非特許文献1の場合、RPNが生成する候補領域間でIoU(Intersection over Union)値を計算し、IoU値が所定の閾値よりも大きい場合は、領域どうしの重なりが大きいと見做して、一方の領域を削除(抑制)する。逆に、IoU値が小さければ、領域どうしの重なりが小さいため、両方の候補領域をそのまま残す。このようなアルゴリズムによって、過剰に重複する候補領域の数を減らす仕組みが提案されている。
本実施形態が対象とする中心線上の点群を検出する問題の場合、血管の太さの半分程度の間隔で「中心線上点」が検出されれば十分である。したがって、本実施形態では、上述のNMS処理に加え、又は、NMS処理に代えて、上述のIoU値を計算せずに、血管の太さの半分程度の間隔で候補領域を間引く処理を行う。なお、学習の際に、教師データとして予め血管の太さの情報が与えられていない場合は、ユニットのピクセル間隔程度でサンプリングすればよい。
〈孤立点除去〉
図11は、RPN412によって予測された候補点の例を示しており、候補点の中に孤立点が含まれている場合の説明図である。血管の中心線のような線構造は、連続する点の配列(点列)によって表現されるため、図11に示すように、各ユニットから予測された中心線上点が他の点列から大きく離れて孤立して存在するような場合は、その孤立点ISPは誤って予測された結果(誤検出)である可能性が高い。したがって、RPN412において、予測された中心線上の候補点が孤立してある場合は誤検出と判断できる所定の閾値を設定しておき、この閾値以内の距離に他の候補点が一つも存在しない点は、その孤立点ISPを予測結果から削除(消去)する。
〔R-CNN423の説明〕
R-CNN423は、RPN412が予測したアンカー内の特徴マップを規格化した画像を入力として、クラス判別を行う。本実施形態が扱う血管構造のように、検出の対象がグラフ理論の木構造である場合に、R-CNN423は、木構造の構成要素としての「根」、「枝上の点」、「分岐点」、又は「末梢の点(末端)」の4ラベルのいずれかに分類する。
図12は、木構造の構成要素のラベルが付された点群の例を示す。このように点ごとの特性(分類)が予めわかっていると、さらに後段で点同士を接続してグラフ構造を再構成させる際に都合がよい。例えば、根の位置から経路の探索をはじめたり、分岐点で枝の数を増やしたり、末梢の点で経路の接続を終了させることができる。
経路の接続には既存のアルゴリズム、例えば最全域木アルゴリズム、又は最短経路(ダイクストラ)アルゴリズムを用いることができる。
〈クラス分類の他の例〉
人体中には様々な血管系があり、例えば肝臓や肺がある。肝臓の血管系であれば動脈、門脈、及び静脈がある。それぞれの血管系は接触したり、交差したりしており、解剖を把握するために、対象を分離することが重要である。そこでR-CNN423に血管の種類を分類させる構成としてもよい。この場合、分類するクラスの項目として解剖学的名称を与え、学習データに正解となるラベルのデータを加えればよい。
[肝臓の場合]
肝臓の血管を分類する目的の場合には、RPN412が検出した候補点(予測した中心線上点)に対し、R-CNN423が判別するクラスを血管タイプによって、{門脈,静脈,動脈,その他}の4クラスとする。
さらに肝臓は、解剖学的に8区域に分けられる。8区域は、尾状葉、外側区域背側、外側区域尾側、内側区域、前区域頭側、前区域尾側、後区域後頭側、及び後区域尾側である。これらの区域は血管枝の走行によって定義されるため、8種類の血管枝のクラス分けをすることができる。
正解として与えられる中心線について、その枝ごとに解剖名が付与される。予測した中心線上の候補点のラベルをR-CNN423が学習する正解のラベルとする。
人体中には、肝臓の他にも脳血管、肺血管や気管支、あるいは消化管のような木構造(ループがある場合は広義に「グラフ」と呼ぶ)が存在する。本開示の手法は、様々な解剖構造の認識に応用することができる。
[肺の場合]
肺の血管構造の場合、例えば、肺静脈と肺動脈のクラス分けをすることができる。あるいはまた、気管及び気管支の木構造を持つ気管構造に関して、解剖学的な気管支名及び/又は区域名によって複数のクラス分けを行うことができる。肺は、気管支枝によって複数の区域に分類される。例えば、気管、右肺の主気管支、上葉支、肺突枝(B1)、後上葉枝(B2)、前上葉枝(B3)、中間幹、中葉支、外側中葉枝(B4)、内側中葉枝(B5)、下葉支、上下葉枝(B6)、内側肺底枝(B7)、前肺底枝(B8)、外側肺底枝(B9)、後肺底枝(B10)、底幹支、左肺の主気管支、上葉支、上区支、肺突後枝(B1+2)、前上葉枝(B3)、舌支、上舌枝(B4)、下舌枝(B5)、下葉支、上下葉枝(B6)、内側前肺底枝(B7+8)、外側肺底枝(B9)、後肺底枝(B10)、及び底幹支などの各クラスに分けることができる。
《線構造抽出装置に用いられる学習モデルの例》
図13は、線構造抽出装置50に実装される学習モデル52のネットワーク構造と処理の流れを概略的に示す説明図である。図13において、図4及び図5で説明した要素と対応する要素には同一の符号を付し、その説明は省略する。学習モデル52は、DCNN411と、RPN412と、R-CNN423と、を含む。
RPN412の畳み込み層416は、DCNN411が出力する特徴マップFMのチャンネル数に対応するフィルタ数を持つ。畳み込み層416のフィルタサイズは例えば3×3であってよい。
RPN412は、畳み込み層416の後段に2種類の1×1の畳み込み層417、418を有する。畳み込み層416の出力は、1×1の畳み込み層417、418の各々に入力される。一方の1×1の畳み込み層417は、活性化関数としてソフトマックス関数を用いるソフトマックス層を含み、各アンカーの位置において物体(中心線上点)であるか否かの確率を示すオブジェクトネススコアを出力する。他方の1×1の畳み込み層418は、複数のアンカーの各々についてアンカーを正解の矩形に近づけるための数値回帰を行う回帰層である。RPN412は、訓練データの正解矩形との重なりが大きくなるように訓練される。
R-CNN423は、ROIプーリング層424と、全結合層426、427と、ソフトマックス層428と、を含む。ROIプーリング層424は、DCNN411から得られる特徴マップFMの中から切り出される各候補領域RPに対応する領域内の特徴マップをプーリングして、固定サイズの規格化した画像に変形する。固定サイズに変形された特徴マップの部分画像は全結合層426に入力される。最終の全結合層427の後段にソフトマックス層428が設けられる。分類するクラスの数に対応して出力層のユニットの数が決定され、各クラスである確率を示すオブジェクトスコアが計算され、最終的にオブジェクトラベルが特定される。なお、全結合層426、427の一部もしくは全部に代えて、又はこれに加えて、畳み込み層を備える構成を採用してもよい。
図13に示すROIプーリング層424は本開示における「関心領域プーリング層」の一例である。学習モデル52は本開示における「学習済みモデル」の一例である。
〈本実施形態による線構造抽出方法〉
図14は、線構造抽出装置50による処理内容の例を示すフローチャートである。図14に示す処理は、線構造抽出装置50として機能する計算システムによって実行される。計算システムは、コンピュータ可読媒体に記憶されたプログラムに従って各ステップの処理を実行する。
ステップS50において、計算システムは処理の対象となる画像を受け入れる。
ステップS52において、計算システムは入力された画像からDCNN411によって畳み込み特徴マップを生成する。
ステップS54において、計算システムはDCNN411から出力された畳み込み特徴マップをRPN412に入力してRPN412により中心線上点らしき候補領域を生成する。
ステップS56において、計算システムはRPN412によって生成された各候補領域の情報とDCNN411によって生成された畳み込み特徴マップとをR-CNN423に入力して、R-CNN423により各候補領域を切り出し、各候補領域のオブジェクトの分類ラベルを生成する。
ステップS58において、計算システムはRPN412によって予測された中心線上各点の位置と、各点の血管太さと、R-CNN423によって予測された各点のラベルと、が紐付けされた予測結果のデータを記憶する。
ステップS58の後、計算システムは図14のフローチャートを終了する。
図15は、図14のステップS54に適用される処理内容の例を示すフローチャートである。図15のステップS61において、計算システムは畳み込み特徴マップのユニットごとに複数のアンカーを生成する。
ステップS62において、計算システムは各アンカーについてアンカー中心から最も近い血管の中心線上の点(最近点)の座標を予測する。
ステップS63において、計算システムは各アンカー内に中心線の点が含まれているか否かの2クラス分類のためのオブジェクトネススコアを計算する。
ステップS64において、計算システムはオブジェクトネススコアが高いアンカーについて、予測した最近点の位置における血管太さに相当するアンカー倍率を予測する。
ステップS65において、計算システムはRPN412が生成する多数の候補領域から血管太さを考慮して過剰な候補領域を抑制する。例えば、RPN412によって予測された複数の候補点の点群のうち、血管の直径の半分(半径)程度を目安とする間隔(第1の間隔)よりも近接している過剰な候補点の一部を削除して、血管の半径程度の間隔で候補点を選択して残すようにサンプリングを行う。このような間引きのサンプリングにより、血管の太さが太い部分ほど大きな間隔で候補点の点列が残り、細い部分では小さな間隔で候補点が残る。
なお、予め検出対象物の太さの情報が与えられていない場合には、RPN412によって予測された複数の候補点の点群のうち、ユニットuのサイズの半分を目安とする間隔(第2の間隔)よりも近接している過剰な候補点の一部を削除して、ユニットuの1/2サイズ程度の間隔で候補点を選択して残すようにサンプリングを行う。
ステップS66において、計算システムはRPN412によって予測された候補点から孤立点を判別し、孤立点の候補領域を削除する。
ステップS67において、計算システムは予測した中心線上の各点の位置と、各点における血管太さとが紐付けされた予測結果のデータ、すなわち候補領域のBboxのリストを生成する。
ステップS67の後、計算システムは図15のフローチャートを終了して、図14のフローチャートに復帰する。
《学習方法の例》
次に、本実施形態に係る線構造抽出装置50における学習モデルの学習方法の例について説明する。
〔学習データの例〕
学習に用いる学習データとして、訓練画像と、その訓練画像に含まれる血管の中心線上の各点の位置情報と、中心線上の各点における血管太さ情報と、各点についてのクラス分類の正解ラベルと、の組み合わせを複数セット用いる。「学習データ」とは、機械学習に用いる訓練用のデータであり、「学習用データ」或いは「訓練データ」と同義である。
訓練画像は、例えば、CT装置によって撮影されたCT画像であってよい。正解として与える血管の中心線上の各点の位置情報及び血管太さ情報は、例えば、CT画像から生成したCPR画像の中心線上の点の座標及び血管半径の数値を用いることができる。
各点の血管太さ(半径)が特定されることにより、例えば、その点を中心として半径の2倍の長さを1辺とする正方形の正解矩形を自動的に定めることができる。また、与えられた各点の血管太さから、その点の予測に適したアンカーサイズを定めることができる。各点のクラス分類の正解ラベルは、解剖学的な知見に基づき定めることができる。1つの訓練画像について、アンカーの種類(サイズ)ごとに、各サイズのアンカーが抽出してほしいい位置の正解データを与える。なお、血管太さによっては異なるサイズの複数のアンカーを用いて重複して予測を行うように正解データを与えてよい。
図16は、学習データLD(i)の概念図である。本実施形態の機械学習においては、学習データLD(i)として、訓練画像と、正解中心線の各点の座標と、各点の正解太さと、各点の正解ラベルと、を与える。iは学習データを識別するインデックス番号である。なお、正解中心線の各点の座標は、訓練画像のピクセル単位よりも細かなサブピクセル単位の数値で与えてよい。正解矩形は、正解太さの情報から自動生成することができる。アンカーサイズは、正解太さの情報から自動生成してもよいし、オペレータが指定してもよい。
〔学習装置の構成例〕
図17は、機械学習を行う学習装置100の構成例を示す機能ブロック図である。学習装置100は、1台又は複数台のコンピュータを用いて構成される計算システムによって実現することができる。学習装置100を構成する計算システムは、線構造抽出装置50を構成する計算システムと同じシステムであってもよいし、異なるシステムであってもよく、また一部の要素を共有するシステムであってもよい。
学習装置100は、学習データ保管部150と接続される。学習データ保管部150は、学習装置100が機械学習を行うために必要な学習データLD(i)を保管しておくストレージを含んで構成される。ここでは、学習データ保管部150と学習装置100とがそれぞれ別々の装置として構成される例を説明するが、これらの機能は1台のコンピュータで実現してもよいし、2以上の複数台のコンピュータで処理の機能を分担して実現してもよい。
例えば、学習データ保管部150と学習装置100とは、図示しない電気通信回線を介して互いに接続されていてもよい。「接続」という用語は、有線接続に限らず、無線接続の概念も含む。電気通信回線は、ローカルエリアネットワークであってもよいし、ワイドエリアネットワークであってもよい。
このように構成することで、学習データの生成処理と学習モデルの学習処理とを物理的にも時間的にも互いに束縛されることなく実施することができる。
学習装置100は、学習データ保管部150から学習データLD(i)を読み込み、機械学習を実行する。学習装置100は、複数の学習データLD(i)をまとめたミニバッチの単位で学習データLD(i)の読み込みとパラメータの更新を行うことができる。
学習装置100は、データ取得部102と、学習モデル52と、第1誤差計算部110と、第2誤差計算部112と、オプティマイザ114と、を含む。
データ取得部102は、学習データLD(i)を取り込むためのインターフェースである。データ取得部102は、外部又は装置内の他の信号処理部から学習データLD(i)を取り込むデータ入力端子で構成されてよい。また、データ取得部102には、有線又は無線の通信インターフェース部を採用してもよいし、メモリカードなどの可搬型の外部記憶媒体の読み書きを行うメディアインターフェース部を採用してもよく、若しくは、これら態様の適宜の組み合わせであってもよい。
学習モデル52は、既に説明したとおり、DCNN411と、RPN412と、R-CNN423と、を含む。
第1誤差計算部110は、アンカーごとに、RPN412から出力された予測結果と、正解データとの誤差を計算する。第1誤差計算部110は、損失関数を用いて誤差を評価する。第1誤差計算部110によって計算された第1誤差はオプティマイザ114に送られる。
第2誤差計算部112は、R-CNN423から出力された予測結果と、正解ラベルとの誤差を計算する。第2誤差計算部112は、損失関数を用いて誤差を評価する。第2誤差計算部112によって計算された第2誤差はオプティマイザ114に送られる。
オプティマイザ114は、第1誤差計算部110及び第2誤差計算部112の各々の計算結果から学習モデル52のパラメータを更新する処理を行う。オプティマイザ114は、誤差逆伝播法などのアルゴリズムに基づきパラメータの更新を行う。ネットワークのパラメータは、各層の処理に用いるフィルタのフィルタ係数(ノード間の結合の重み)及びノードのバイアスなどを含む。
オプティマイザ114は、第1誤差計算部110の計算結果を用いて、DCNN411とRPN412とが結合されてなる第1サブネットワーク410のパラメータの更新量を計算し、計算されたパラメータの更新量に従い、DCNN411及びRPN412のうち少なくともRPN412のネットワークのパラメータを更新するパラメータ更新処理を行う。好ましくは、DCNN411とRPN412のそれぞれのネットワークのパラメータを更新する。
また、オプティマイザ114は、第2誤差計算部112の計算結果を用いて、DCNN411とR-CNN423とが結合されてなる第2サブネットワーク420のパラメータの更新量を計算し、計算されたパラメータの更新量に従い、DCNN411及びR-CNN423の各ネットワークのパラメータを更新する。
また、学習装置100は、第2サブネットワーク420の訓練によってファインチューンされたDCNN411のパラメータを固定した状態で、第1サブネットワーク410のモデルについてさらなる学習を行い、RPN412のパラメータを更新する。このような学習プロセスを繰り返し実行することにより、学習モデル52のパラメータを最適化することができる。こうして、学習済みの学習モデル52を得ることができる。
〔学習装置100を用いた学習方法の例〕
図18は、本実施形態に係る線構造抽出装置50における学習モデル52の学習方法の例を示すフローチャートである。図18に示す処理は、学習装置100として機能する1台又は複数台のコンピュータを用いて構成される計算システムによって実行される。計算システムは、コンピュータ可読媒体に記憶されたプログラムに従って各ステップの処理を実行する。機械学習に使用する計算システムは、線構造抽出装置50を構成する計算システムと同じシステムであってもよいし、異なるシステムであってもよく、また一部の要素を共有するシステムであってもよい。
図18のステップS202において、学習装置100は学習モデル52の初期設定を行う。ここでは、図13に示したネットワーク構造を持つ学習モデル52の初期設定を行う。DCNN411、RPN412、及びR-CNN423の各ネットワークのパラメータが初期の値に設定される。パラメータの一部は、事前の学習によって得られている学習済みのパラメータであってもよい。
図18のステップS204において、学習装置100はDCNN411とRPN412とが結合されてなる第1サブネットワーク410のモデルを訓練する。ステップS204により、DCNN411及びRPN412のネットワークのパラメータが更新される。なお、学習装置100は複数の学習データLD(i)を含むミニバッチの単位で学習データを取得することができ、オプティマイザ114はミニバッチの単位でパラメータの更新処理を行うことができる。
その後、ステップS206において、学習装置100は訓練した第1サブネットワーク410を用いて訓練画像から候補領域を生成する。
ステップS208において、学習装置100は訓練した第1サブネットワーク410により生成された候補領域をR-CNN423に入力し、DCNN411とR-CNN423とが結合されてなる第2サブネットワーク420のモデルを訓練する。ステップS208により、DCNN411及びR-CNN423のネットワークのパラメータが更新される。
ステップS210において、学習装置100は訓練した第2サブネットワーク420のDCNN411を用いて第1サブネットワーク410のRPN412を再度訓練する。
ステップS210の後、学習装置100はステップS206に戻って訓練を繰り返してもよいし、所定の学習終了条件に基づき、図18のフローチャートを終了してもよい。
学習終了条件は、誤差の値に基づいて定められていてもよいし、パラメータの更新回数に基づいて定められていてもよい。誤差の値に基づく方法としては、例えば、誤差が規定の範囲内に収束していることを学習終了条件としてよい。更新回数に基づく方法としては、例えば、更新回数が規定回数に到達したことを学習終了条件としてよい。
《3次元画像への適用》
これまで2次元画像を例に説明したが、2次元画像について説明した事項は、3次元画像の処理に拡張して適用することができる。2次元から3次元への拡張に際しての読み替えは、例えば、次のとおりである。
「画素」は「ボクセル」に読み替えることができる。「矩形」は「直方体」に読み替えることができる。「立方体」は「直方体」の一種として理解することができる。2次元のxy座標は3次元のxyz座標に読み替えることができる。矩形の「アスペクト比」については、直方体の「三辺の比」に読み替えることができる。アンカーは、予め定められた形状及びサイズを持つ基準形状領域と理解でき、3次元画像の場合は、3次元形状の直方体が用いられる。すなわち、2次元画像に対するアンカーの基準形状領域が矩形領域であるのに対し、3次元画像に対するアンカーの基準形状領域は直方体領域である。
《コンピュータのハードウェア構成の例》
図19は、コンピュータのハードウェア構成の例を示すブロック図である。コンピュータ800は、パーソナルコンピュータであってもよいし、ワークステーションであってもよく、また、サーバコンピュータであってもよい。コンピュータ800は、既に説明した線構造抽出装置50、学習装置100、及び学習データ保管部150のいずれかの一部又は全部又はこれらの複数の機能を備えた装置として用いることができる。
コンピュータ800は、CPU(Central Processing Unit)802、RAM(Random Access Memory)804、ROM(Read Only Memory)806、GPU(Graphics Processing Unit)808、ストレージ810、通信部812、入力装置814、表示装置816及びバス818を備える。なお、GPU(Graphics Processing Unit)808は、必要に応じて設ければよい。
CPU802は、ROM806又はストレージ810等に記憶された各種のプログラムを読み出し、各種の処理を実行する。RAM804は、CPU802の作業領域として使用される。また、RAM804は、読み出されたプログラム及び各種のデータを一時的に記憶する記憶部として用いられる。
ストレージ810は、例えば、ハードディスク装置、光ディスク、光磁気ディスク、若しくは半導体メモリ、又はこれらの適宜の組み合わせを用いて構成される記憶装置を含んで構成される。ストレージ810には、線構造抽出処理及び/又は学習処理等に必要な各種プログラムやデータ等が記憶される。ストレージ810に記憶されているプログラムがRAM804にロードされ、これをCPU802が実行することにより、コンピュータ800は、プログラムで規定される各種の処理を行う手段として機能する。
通信部812は、有線又は無線により外部装置との通信処理を行い、外部装置との間で情報のやり取りを行うインターフェースである。通信部812は、画像の入力を受け付ける画像受付部の役割を担うことができる。
入力装置814は、コンピュータ800に対する各種の操作入力を受け付ける入力インターフェースである。入力装置814は、例えば、キーボード、マウス、タッチパネル、若しくはその他のポインティングデバイス、若しくは、音声入力装置、又はこれらの適宜の組み合わせであってよい。
表示装置816は、各種の情報が表示される出力インターフェースである。表示装置816は、例えば、液晶ディスプレイ、有機EL(organic electro-luminescence:OEL)ディスプレイ、若しくは、プロジェクタ、又はこれらの適宜の組み合わせであってよい。
《コンピュータを動作させるプログラムについて》
上述の実施形態で説明した線構造抽出機能、及び学習機能のうち少なくとも1つの処理機能の一部又は全部をコンピュータに実現させるプログラムを、光ディスク、磁気ディスク、若しくは、半導体メモリその他の有体物たる非一時的な情報記憶媒体であるコンピュータ可読媒体に記録し、この情報記憶媒体を通じてプログラムを提供することが可能である。
またこのような有体物たる非一時的な情報記憶媒体にプログラムを記憶させて提供する態様に代えて、インターネットなどの電気通信回線を利用してプログラム信号をダウンロードサービスとして提供することも可能である。
また、上述の各実施形態で説明した線構造抽出機能、及び学習機能のうち少なくとも1つの処理機能の一部又は全部をアプリケーションサーバとして提供し、電気通信回線を通じて処理機能を提供するサービスを行うことも可能である。
《各処理部のハードウェア構成について》
図4の第1のニューラルネットワーク41、DCNN411、RPN412、第2のニューラルネットワーク42、R-CNN423、図17のデータ取得部102、学習モデル52、第1誤差計算部110、第2誤差計算部112、及びオプティマイザ114などの各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、例えば、次に示すような各種のプロセッサ(processor)である。
各種のプロセッサには、プログラムを実行して各種の処理部として機能する汎用的なプロセッサであるCPU、画像処理に特化したプロセッサであるGPU、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサで構成されてもよい。例えば、1つの処理部は、複数のFPGA、或いは、CPUとFPGAの組み合わせ、又はCPUとGPUの組み合わせによって構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第一に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第二に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
《実施形態による効果》
(1)本実施形態によれば、画像中から線構造を抽出することができる。
(2)本実施形態によれば、線構造の要素点を直接検出するため、グラフ構造の再構成が容易である。
(3)本実施形態によれば、各訓練画像に対する正解が中心線の位置情報を示すデータによって定義されるため、学習データの作成が容易である。
《他の応用例》
本開示による線構造抽出処理の技術は、CT画像に限らず、各種の3次元断層画像に適用することができる。例えば、MRI(Magnetic Resonance Imaging)装置により取得されるMR画像、PET(Positron Emission Tomography)装置により取得されるPET画像、OCT(Optical Coherence Tomography)装置により取得されるOCT画像、3次元超音波撮影装置により取得される3次元超音波画像等であってもよい。
また、本開示による線構造抽出処理の技術は、3次元断層画像に限らず、各種の2次元画像に適用することができる。例えば、処理の対象とする画像は、2次元のX線画像であってもよい。また、本開示による線構造抽出処理の技術は、医療画像に限定されず、通常のカメラ画像など、様々な画像について適用することができる。例えば、非特許文献2で扱っているような建造物等の画像からクラックを検出する場合に、本開示の技術を適用することができる。
《変形例》
[1]検出しようとする対象物の形及び/又は大きさによっては、アンカーの種類は1種類であってもよい。
[2]対象物の大きさを問題にしない場合など、RPN412においてアンカーの変形倍率の計算を実施しない形態も可能である。
《その他》
上述の実施形態で説明した構成や変形例で説明した事項は、適宜組み合わせて用いることができ、また、一部の事項を置き換えることもできる。本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
40 Faster R-CNN
41 第1のニューラルネットワーク
42 第2のニューラルネットワーク
50 線構造抽出装置
52 学習モデル
71 第1のアンカー
72 第2のアンカー
81、82、83 アンカー
100 学習装置
102 データ取得部
110 第1誤差計算部
112 第2誤差計算部
114 オプティマイザ
150 学習データ保管部
410 第1サブネットワーク
411 DCNN
412 RPN
414、416、417、418 畳み込み層
420 第2サブネットワーク
423 R-CNN
424 ROIプーリング層
426、427 全結合層
428 ソフトマックス層
800 コンピュータ
810 ストレージ
812 通信部
814 入力装置
816 表示装置
818 バス
A1、A2、A3 アンカー
BV 血管
Car 冠動脈経路
CLbv 中心線
CP、CP34 中心座標
NP、NP34 最近点
Nd ノード
Eg エッジ
HVR1 画像
HVR2 画像
IMipt 入力画像
FM 特徴マップ
RP 候補領域
LD(i) 学習データ
PLQ プラーク
px 画素
pxfm 画素
u ユニット
S50~S58 線構造抽出処理のステップ
S61~S67 候補領域生成処理のステップ
S202~S210 学習処理のステップ

Claims (22)

  1. 画像から線構造を構成する要素点を抽出する線構造抽出装置であって、
    前記画像の入力を受けて前記画像から線構造を構成する1つ以上の要素点を予測結果として出力するよう学習された学習モデルを備え、
    前記学習モデルは、
    前記画像を受け入れて畳み込みの処理により前記画像の特徴量を示す特徴マップを生成する第1の処理モジュールと、
    前記特徴マップをグリッド状に既定サイズの領域を持つ複数のユニットに分割して得られる前記ユニットごとに、ユニット中心点から最も近くにある前記線構造の前記要素点への前記ユニット中心点からのシフト量を計算する第2の処理モジュールと、
    を含む線構造抽出装置。
  2. 前記第2の処理モジュールは、
    前記ユニットの各々に対して、予め定められた形状及びサイズを持つ1つ以上の基準形状領域であるアンカーを配置し、
    前記ユニットごとに前記ユニットの位置の前記特徴量を用いて畳み込みの処理を行うことにより、前記アンカーのアンカー中心点から最も近くにある前記線構造の前記要素点である最近点に前記アンカー中心点を移動させるための前記シフト量と、前記アンカー内に前記線構造が存在するか否かを判別するためのスコアと、を計算する、
    請求項1に記載の線構造抽出装置。
  3. 前記基準形状領域は、前記画像が2次元画像である場合は矩形領域であり、前記画像が3次元画像である場合は直方体領域である、
    請求項2に記載の線構造抽出装置。
  4. 前記線構造は、前記画像内において太さを持つ領域の代表線であり、
    前記太さを持つ領域の太さに対応させて、サイズが異なる複数のアンカーが用いられる、請求項2又は3に記載の線構造抽出装置。
  5. 前記線構造は、前記画像内において太さを持つ領域の代表線であり、
    前記第2の処理モジュールは、対象とする前記太さを持つ領域の太さに応じて前記アンカーのサイズを変更するように学習されたものである、
    請求項2から4のいずれか一項に記載の線構造抽出装置。
  6. 前記線構造は、前記画像内において太さを持つ領域の代表線であり、
    前記第2の処理モジュールは、前記アンカーごとに、前記太さを持つ領域の前記最近点の周囲の太さに合わせて前記アンカーの少なくとも1つの辺の方向についての前記アンカーの変形倍率を計算するように学習されたものである、
    請求項2から5のいずれか一項に記載の線構造抽出装置。
  7. 前記太さを持つ領域は管状構造物であり、
    前記代表線は、前記管状構造物の経路に沿った中心線である、
    請求項4から6のいずれか一項に記載の線構造抽出装置。
  8. 前記第1の処理モジュール及び前記第2の処理モジュールの各々はニューラルネットワークによって構成されており、
    前記第1の処理モジュールは、複数の畳み込み層を備える畳み込みニューラルネットワークによって構成され、
    前記第2の処理モジュールは、前記第1の処理モジュールとは異なる畳み込み層を備え、
    前記特徴マップから前記線構造が含まれる候補領域を予測する領域提案ネットワークによって構成される、請求項1から7のいずれか一項に記載の線構造抽出装置。
  9. 前記第2の処理モジュールによって予測された前記線構造の前記要素点に対し、各点をクラス分類するよう学習された第3の処理モジュールをさらに備える、請求項1から8のいずれか一項に記載の線構造抽出装置。
  10. 前記第3の処理モジュールにより分類されるクラスは、グラフ理論の木構造における根、分岐、末端、及び枝上の点のうち少なくとも1つを含む、
    請求項9に記載の線構造抽出装置。
  11. 前記線構造は、血管の経路に沿った中心線であり、
    前記第3の処理モジュールにより分類されるクラスは、血管構造における特定の解剖学的名称を含む、
    請求項9に記載の線構造抽出装置。
  12. 前記線構造は、気管の経路に沿った中心線であり、
    前記第3の処理モジュールにより分類されるクラスは、気管構造における特定の解剖学的名称を含む、
    請求項9に記載の線構造抽出装置。
  13. 前記第3の処理モジュールは、ニューラルネットワークによって構成されており、
    前記第3の処理モジュールは、
    前記特徴マップから、前記第2の処理モジュールによって予測された前記要素点を含む前記アンカーの局所画像を切り出して前記局所画像を固定サイズに変形する関心領域プーリング層と、
    前記固定サイズに変形された前記局所画像が入力される畳み込み層及び全結合層のうち少なくとも一方と、
    を含む、請求項2を引用する請求項9から12のいずれか一項に記載の線構造抽出装置。
  14. 画像から線構造を構成する要素点を抽出する線構造抽出方法であって、
    前記画像の入力を受けて前記画像から線構造を構成する1つ以上の要素点を予測結果として出力するよう学習された学習モデルを用い、
    前記学習モデルへの前記画像の入力を受け付けることと、
    入力された前記画像について第1の処理モジュールにより畳み込みの処理を行い、前記画像の特徴量を示す特徴マップを生成することと、
    前記特徴マップをグリッド状に既定サイズの領域を持つ複数のユニットに分割し、第2の処理モジュールを用いて、前記ユニットごとにユニット中心点から最も近くにある前記線構造の前記要素点への前記ユニット中心点からのシフト量を計算することと、
    を含む線構造抽出方法。
  15. 前記複数のユニットによって予測された複数の前記要素点の点群のうち、前記ユニットのサイズの半分を目安とする第1の間隔よりも近接している過剰な前記要素点の一部を削除して、前記第1の間隔の程度で前記要素点を選択して残すこと、をさらに含む、
    請求項14に記載の線構造抽出方法。
  16. 前記線構造は、前記画像内において太さを持つ領域の代表線であり、
    前記複数のユニットによって予測された複数の前記要素点の点群のうち、前記太さの半分を目安とする第2の間隔よりも近接している過剰な前記要素点の一部を削除して、前記第2の間隔の程度で前記要素点を選択して残すこと、をさらに含む、
    請求項14に記載の線構造抽出方法。
  17. 前記複数のユニットによって予測された複数の前記要素点の点群のうち、予め定めた閾値以内の距離に他の点が存在しない孤立点を削除すること、をさらに含む、
    請求項14から16のいずれか一項に記載の線構造抽出方法。
  18. 画像から線構造を構成する要素点を抽出する機能をコンピュータに実現させるためのプログラムであって、
    前記画像の入力を受け付ける機能と、
    入力された前記画像について第1の処理モジュールを用いて畳み込みの処理を行い、前記画像の特徴量を示す特徴マップを生成する機能と、
    前記特徴マップをグリッド状に既定サイズの領域を持つ複数のユニットに分割し、第2の処理モジュールを用いて、前記ユニットごとに前記ユニットの中心点から最も近くにある前記線構造の前記要素点への前記ユニット中心点からのシフト量を予測する機能と、
    をコンピュータに実現させるプログラム。
  19. 非一時的かつコンピュータ読取可能な記録媒体であって、前記記録媒体に格納された指令がコンピュータによって読み取られた場合に請求項18に記載のプログラムをコンピュータに実行させる記録媒体。
  20. 入力された画像から線構造を構成する1つ以上の要素点を予測結果として出力する機能をコンピュータに実現させる学習済みモデルであって、
    前記画像を受け入れて畳み込みの処理により前記画像の特徴量を示す特徴マップを生成する第1の処理モジュールと、
    前記特徴マップをグリッド状に既定サイズの領域を持つ複数のユニットに分割して得られる前記ユニットごとに、ユニット中心点から最も近くにある前記線構造の前記要素点への前記ユニット中心点からのシフト量を計算する第2の処理モジュールと、
    を含む学習済みモデル。
  21. 前記第1の処理モジュール及び前記第2の処理モジュールを構成しているネットワークのパラメータは、訓練画像と、前記訓練画像に含まれている線構造の位置情報と、を組み合わせた複数の学習データを用いた機械学習を実行することによって決定されている、請求項20に記載の学習済みモデル。
  22. 前記線構造は、前記画像内において太さを持つ領域の代表線であり、
    前記学習データは、前記訓練画像に含まれている前記太さを持つ領域の太さ情報をさらに含む、請求項21に記載の学習済みモデル。
JP2021511869A 2019-03-29 2020-03-25 線構造抽出装置及び方法、プログラム並びに学習済みモデル Active JP7187680B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019066982 2019-03-29
JP2019066982 2019-03-29
PCT/JP2020/013334 WO2020203552A1 (ja) 2019-03-29 2020-03-25 線構造抽出装置及び方法、プログラム並びに学習済みモデル

Publications (2)

Publication Number Publication Date
JPWO2020203552A1 JPWO2020203552A1 (ja) 2020-10-08
JP7187680B2 true JP7187680B2 (ja) 2022-12-12

Family

ID=72668274

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021511869A Active JP7187680B2 (ja) 2019-03-29 2020-03-25 線構造抽出装置及び方法、プログラム並びに学習済みモデル

Country Status (4)

Country Link
US (1) US11961276B2 (ja)
EP (1) EP3951433A4 (ja)
JP (1) JP7187680B2 (ja)
WO (1) WO2020203552A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023032480A1 (ja) * 2021-08-31 2023-03-09 富士フイルム株式会社 医療画像処理装置、肝区域分割方法およびプログラム
CN114926753B (zh) * 2022-06-16 2023-10-13 无锡慧眼人工智能科技有限公司 一种海量图像条件下的快速目标场景信息提取方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018534694A (ja) 2015-11-04 2018-11-22 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. 物体検出のためのサブカテゴリ認識機能付き畳み込みニューラルネットワーク
JP2019500110A (ja) 2015-12-18 2019-01-10 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 頭部コンピュータ断層撮影における緊急性の特徴の解釈及び定量化
US10198671B1 (en) 2016-11-10 2019-02-05 Snap Inc. Dense captioning with joint interference and visual context

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9858496B2 (en) 2016-01-20 2018-01-02 Microsoft Technology Licensing, Llc Object detection and classification in images
US10206646B2 (en) * 2016-03-10 2019-02-19 Siemens Healthcare Gmbh Method and system for extracting centerline representation of vascular structures in medical images via optimal paths in computational flow fields
WO2018165753A1 (en) * 2017-03-14 2018-09-20 University Of Manitoba Structure defect detection using machine learning algorithms
US10685438B2 (en) * 2017-07-17 2020-06-16 Siemens Healthcare Gmbh Automated measurement based on deep learning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018534694A (ja) 2015-11-04 2018-11-22 エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. 物体検出のためのサブカテゴリ認識機能付き畳み込みニューラルネットワーク
JP2019500110A (ja) 2015-12-18 2019-01-10 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア 頭部コンピュータ断層撮影における緊急性の特徴の解釈及び定量化
US10198671B1 (en) 2016-11-10 2019-02-05 Snap Inc. Dense captioning with joint interference and visual context

Also Published As

Publication number Publication date
EP3951433A1 (en) 2022-02-09
US20220004797A1 (en) 2022-01-06
US11961276B2 (en) 2024-04-16
JPWO2020203552A1 (ja) 2020-10-08
WO2020203552A1 (ja) 2020-10-08
EP3951433A4 (en) 2022-05-25

Similar Documents

Publication Publication Date Title
US11816837B2 (en) Vascular characteristic determination with correspondence modeling of a vascular tree
Chen et al. Curve-like structure extraction using minimal path propagation with backtracking
CN111161275B (zh) 医学图像中目标对象的分割方法、装置和电子设备
US7379062B2 (en) Method for determining a path along a biological object with a lumen
EP2194505B1 (en) Method and apparatus for segmenting spine and aorta in a medical image according to a skeletal atlas
Li et al. Optimal surface segmentation in volumetric images-a graph-theoretic approach
US20070109299A1 (en) Surface-based characteristic path generation
JP2007289704A (ja) 大動脈瘤の半自動分析のためのシステム及び方法
JP2012223315A (ja) 医用画像処理装置および方法、並びにプログラム
US11961276B2 (en) Linear structure extraction device, method, program, and learned model
CN112862833A (zh) 血管分段方法、电子装置和存储介质
CN113538471B (zh) 斑块的分割方法、装置、计算机设备和存储介质
CN111340756A (zh) 一种医学图像病变检出合并方法、系统、终端及存储介质
Gharleghi et al. Deep learning for time averaged wall shear stress prediction in left main coronary bifurcations
EP3248172A1 (en) Atlas-based determination of tumour growth direction
CN113256670A (zh) 图像处理方法及装置、网络模型的训练方法及装置
Bruyninckx et al. Segmentation of liver portal veins by global optimization
US20240005498A1 (en) Method of generating trained model, machine learning system, program, and medical image processing apparatus
JP2022546303A (ja) 管状フィーチャのセグメント化
JP2004174219A (ja) 画像処理装置、画像処理方法、及び当該画像処理をコンピュータに実行させるプログラムを格納する記録媒体
WO2023032480A1 (ja) 医療画像処理装置、肝区域分割方法およびプログラム
CN116934741B (zh) 一站式血管壁的成分和定量参数获取方法和装置
CN117115187B (zh) 颈动脉壁分割方法、装置、计算机设备和存储介质
Sabrowsky-Hirsch et al. A content-driven architecture for medical image segmentation
KR101674462B1 (ko) 3차원 관형체의 표면 메쉬를 이용한 혈관 병합 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211020

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221028

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221130

R150 Certificate of patent or registration of utility model

Ref document number: 7187680

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150