JP7439990B2 - 医療画像処理装置、医療画像処理プログラム、および医療画像処理方法 - Google Patents

医療画像処理装置、医療画像処理プログラム、および医療画像処理方法 Download PDF

Info

Publication number
JP7439990B2
JP7439990B2 JP2023510719A JP2023510719A JP7439990B2 JP 7439990 B2 JP7439990 B2 JP 7439990B2 JP 2023510719 A JP2023510719 A JP 2023510719A JP 2023510719 A JP2023510719 A JP 2023510719A JP 7439990 B2 JP7439990 B2 JP 7439990B2
Authority
JP
Japan
Prior art keywords
image processing
region
image
dimensional
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023510719A
Other languages
English (en)
Other versions
JPWO2022209574A5 (ja
JPWO2022209574A1 (ja
Inventor
涼介 柴
佳紀 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidek Co Ltd
Original Assignee
Nidek Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidek Co Ltd filed Critical Nidek Co Ltd
Publication of JPWO2022209574A1 publication Critical patent/JPWO2022209574A1/ja
Publication of JPWO2022209574A5 publication Critical patent/JPWO2022209574A5/ja
Application granted granted Critical
Publication of JP7439990B2 publication Critical patent/JP7439990B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biophysics (AREA)
  • Image Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Description

本開示は、生体組織の画像のデータを処理する医療画像処理装置、医療画像処理装置において実行される医療画像処理プログラム、および、医療画像処理方法に関する。
従来、画像に写っている組織の構造(例えば、層、複数の層の境界、および、組織中の特定部位等の少なくともいずれか)を検出するための種々の技術が提案されている。例えば、畳み込みニューラルネットワークを用いて、各画素がどの層に属するかを画素毎にマッピングし、マッピングの結果に基づいて各層の境界を検出する技術等が知られている。
畳み込みニューラルネットワークを利用する場合、高い精度で組織の構造を検出することができるが、画像処理を用いる従来の手法に比べて演算量が多い。従って、三次元画像のデータ(「ボリュームデータ」と言われる場合もある)から組織の構造を検出する場合には、処理するデータの量が膨大となるので、処理時間を短縮できることが望ましい。非特許文献1では、CPUよりも高い計算能力を有するGPUを使用して、ニューラルネットワークによる眼底の層のセグメンテーションを行うことで、処理時間の短縮化を図っている。
Svetlana Borkovkina, Acner Camino, et al. "Real-time retinal layer segmentation of OCT volumes with GPU accelerated inferencing using a compressed, low-latency neural network" Biomedical Optics Express Vol.11 Issue 7, PP.3968-3984(2020)
しかしながら、処理を実行する環境等によっては、高い計算能力を有するGPU等のコントローラ(以下、「高性能コントローラ」という)を使用できない場合も多い。そもそも、高性能コントローラは高価である。従って、三次元画像から組織の構造を検出する際に、高い検出精度を保ちつつ演算量を削減することができれば、非常に有用である。
本開示の典型的な目的は、三次元画像から組織の構造を検出する際に、高い検出精度を保ちつつ演算量を削減することが可能な医療画像処理装置、医療画像処理プログラム、および医療画像処理方法を提供することである。
本開示における典型的な実施形態が提供する医療画像処理装置の第1態様は、生体組織の三次元画像のデータを処理する医療画像処理装置であって、前記医療画像処理装置の制御部は、組織の三次元画像を取得する画像取得ステップと、取得された前記三次元画像から、一部の領域である第1領域を抽出する抽出ステップと、機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに、前記抽出ステップにおいて抽出された前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、前記三次元画像の全領域のうち、前記抽出ステップにおいて前記第1領域として抽出されなかった第2領域における前記特定の構造を、前記第1領域に対して前記数学モデルによって出力された前記特定の構造の検出結果に基づいて検出する第2構造検出ステップと、を実行する。
本開示における典型的な実施形態が提供する医療画像処理装置の第2態様は、生体組織の三次元画像のデータを処理する医療画像処理装置であって、前記医療画像処理装置の制御部は、組織の三次元画像を取得する画像取得ステップと、取得された前記三次元画像を構成する複数の二次元画像の各々から、一部の領域である第1領域を抽出する抽出ステップと、機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに、前記抽出ステップにおいて抽出された前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、を実行する。
本開示における典型的な実施形態が提供する医療画像処理装置の第3態様は、生体組織の三次元画像のデータを処理する医療画像処理装置であって、前記医療画像処理装置の制御部は、組織の三次元画像を取得する画像取得ステップと、取得された前記三次元画像に含まれる複数の二次元画像のうちの一部を第1領域として抽出する抽出ステップと、機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに、前記抽出ステップにおいて抽出された前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、を実行し、前記制御部は、前記三次元画像に含まれる前記複数の二次元画像のうち、一部の基準画像を前記第1領域として前記抽出ステップおよび前記第1構造検出ステップを実行した後に、前記複数の二次元画像のうち、前記基準画像との間の類似度が閾値未満である二次元画像を前記第1領域として前記抽出ステップおよび前記第1構造検出ステップを実行する。
本開示における典型的な実施形態が提供する医療画像処理装置の第4態様は、生体組織の三次元画像のデータを処理する医療画像処理装置であって、前記医療画像処理装置の制御部は、組織の三次元画像を取得する画像取得ステップと、取得された前記三次元画像に含まれる複数の二次元画像のうちの一部を第1領域として抽出する抽出ステップと、機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに、前記抽出ステップにおいて抽出された前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、を実行し、前記制御部は、前記抽出ステップにおいて、前記三次元画像の画像領域内に注目位置を設定し、設定した前記注目位置を基準として、複数の二次元画像の抽出パターンを設定し、前記三次元画像から、設定した抽出パターンに合致する複数の二次元画像を、前記第1領域として抽出する。
本開示における典型的な実施形態が提供する医療画像処理プログラムの第1態様は、生体組織の三次元画像のデータを処理する医療画像処理装置によって実行される医療画像処理プログラムであって、前記医療画像処理プログラムが前記医療画像処理装置の制御部によって実行されることで、組織の三次元画像を取得する画像取得ステップと、取得された前記三次元画像から、一部の領域である第1領域を抽出する抽出ステップと、機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに、前記抽出ステップにおいて抽出された前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、前記三次元画像の全領域のうち、前記抽出ステップにおいて前記第1領域として抽出されなかった第2領域における前記特定の構造を、前記第1領域に対して前記数学モデルによって出力された前記特定の構造の検出結果に基づいて検出する第2構造検出ステップと、を前記医療画像処理装置に実行させる。
本開示における典型的な実施形態が提供する医療画像処理プログラムの第2態様は、生体組織の三次元画像のデータを処理する医療画像処理装置によって実行される医療画像処理プログラムであって、前記医療画像処理プログラムが前記医療画像処理装置の制御部によって実行されることで、組織の三次元画像を取得する画像取得ステップと、取得された前記三次元画像を構成する複数の二次元画像の各々から、一部の領域である第1領域を抽出する抽出ステップと、機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに、前記抽出ステップにおいて抽出された前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、を前記医療画像処理装置に実行させる。
本開示における典型的な実施形態が提供する医療画像処理プログラムの第3態様は、生体組織の三次元画像のデータを処理する医療画像処理装置によって実行される医療画像処理プログラムであって、前記医療画像処理プログラムが前記医療画像処理装置の制御部によって実行されることで、組織の三次元画像を取得する画像取得ステップと、取得された前記三次元画像に含まれる複数の二次元画像のうちの一部を第1領域として抽出する抽出ステップと、機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに、前記抽出ステップにおいて抽出された前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、を前記医療画像処理装置に実行させ、前記三次元画像に含まれる前記複数の二次元画像のうち、一部の基準画像を前記第1領域として前記抽出ステップおよび前記第1構造検出ステップが実行された後に、前記複数の二次元画像のうち、前記基準画像との間の類似度が閾値未満である二次元画像を前記第1領域として前記抽出ステップおよび前記第1構造検出ステップが実行される。
本開示における典型的な実施形態が提供する医療画像処理プログラムの第4態様は、生体組織の三次元画像のデータを処理する医療画像処理装置によって実行される医療画像処理プログラムであって、前記医療画像処理プログラムが前記医療画像処理装置の制御部によって実行されることで、組織の三次元画像を取得する画像取得ステップと、取得された前記三次元画像に含まれる複数の二次元画像のうちの一部を第1領域として抽出する抽出ステップと、機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに、前記抽出ステップにおいて抽出された前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、を前記医療画像処理装置に実行させ、前記抽出ステップにおいて、前記三次元画像の画像領域内に注目位置が設定され、設定された前記注目位置を基準として、複数の二次元画像の抽出パターンが設定され、前記三次元画像から、設定された抽出パターンに合致する複数の二次元画像が、前記第1領域として抽出される。
本開示における典型的な実施形態が提供する医療画像処理方法の第1態様は、生体組織の三次元画像のデータを処理する医療画像処理システムにおいて実行される医療画像処理方法であって、前記医療画像処理システムは、ネットワークを介して互いに接続された第1画像処理装置および第2画像処理装置を含み、前記第1画像処理装置が、組織の三次元画像を取得する画像取得ステップと、前記第1画像処理装置が、前記三次元画像から、一部の領域である第1領域を抽出する抽出ステップと、前記第1画像処理装置が、前記抽出ステップにおいて抽出された前記第1領域を前記第2画像処理装置に送信する送信ステップと、前記第2画像処理装置が、機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、前記第2画像処理装置が、前記三次元画像の全領域のうち、前記抽出ステップにおいて前記第1領域として抽出されなかった第2領域における前記特定の構造を、前記第1領域に対して前記数学モデルによって出力された前記特定の構造の検出結果に基づいて検出する第2構造検出ステップと、を含む。
本開示における典型的な実施形態が提供する医療画像処理方法の第2態様は、生体組織の三次元画像のデータを処理する医療画像処理システムにおいて実行される医療画像処理方法であって、前記医療画像処理システムは、ネットワークを介して互いに接続された第1画像処理装置および第2画像処理装置を含み、前記第1画像処理装置が、組織の三次元画像を取得する画像取得ステップと、前記第1画像処理装置が、前記三次元画像を構成する複数の二次元画像の各々から、一部の領域である第1領域を抽出する抽出ステップと、前記第1画像処理装置が、前記抽出ステップにおいて抽出された前記第1領域を前記第2画像処理装置に送信する送信ステップと、前記第2画像処理装置が、機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、を含む。
本開示における典型的な実施形態が提供する医療画像処理方法の第3態様は、生体組織の三次元画像のデータを処理する医療画像処理システムにおいて実行される医療画像処理方法であって、前記医療画像処理システムは、ネットワークを介して互いに接続された第1画像処理装置および第2画像処理装置を含み、前記第1画像処理装置が、組織の三次元画像を取得する画像取得ステップと、前記第1画像処理装置が、前記三次元画像に含まれる複数の二次元画像のうちの一部を第1領域として抽出する抽出ステップと、前記第1画像処理装置が、前記抽出ステップにおいて抽出された前記第1領域を前記第2画像処理装置に送信する送信ステップと、前記第2画像処理装置が、機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、を含み、前記三次元画像に含まれる前記複数の二次元画像のうち、一部の基準画像を前記第1領域として前記抽出ステップおよび前記第1構造検出ステップが実行された後に、前記複数の二次元画像のうち、前記基準画像との間の類似度が閾値未満である二次元画像を前記第1領域として前記抽出ステップおよび前記第1構造検出ステップが実行される。
本開示における典型的な実施形態が提供する医療画像処理方法の第4態様は、生体組織の三次元画像のデータを処理する医療画像処理システムにおいて実行される医療画像処理方法であって、前記医療画像処理システムは、ネットワークを介して互いに接続された第1画像処理装置および第2画像処理装置を含み、前記第1画像処理装置が、組織の三次元画像を取得する画像取得ステップと、前記第1画像処理装置が、前記三次元画像に含まれる複数の二次元画像のうちの一部を第1領域として抽出する抽出ステップと、前記第1画像処理装置が、前記抽出ステップにおいて抽出された前記第1領域を前記第2画像処理装置に送信する送信ステップと、前記第2画像処理装置が、機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、を含み、前記抽出ステップにおいて、前記三次元画像の画像領域内に注目位置が設定され、設定された前記注目位置を基準として、複数の二次元画像の抽出パターンが設定され、前記三次元画像から、設定された抽出パターンに合致する複数の二次元画像が、前記第1領域として抽出される。
本開示に係る医療画像処理装置、医療画像処理プログラム、および医療画像処理方法によると、光をスキャンすることで生成される生体組織の画像の歪みが適切に補正される。
本開示で例示する医療画像処理装置は、生体組織の三次元画像のデータを処理する。医療画像処理装置の制御部は、画像取得ステップ、抽出ステップ、および第1構造検出ステップを実行する。画像取得ステップでは、制御部は組織の三次元画像を取得する。抽出ステップでは、制御部は、画像取得ステップにおいて取得された三次元画像から、一部の領域である第1領域を抽出する。第1構造検出ステップでは、制御部は、数学モデルに第1領域を入力することで、第1領域における特定の構造の検出結果を取得する。数学モデルは、機械学習アルゴリズムによって訓練されており、入力された画像(本実施形態では、三次元画像から抽出された第1領域の画像)に写る組織の特定の構造の検出結果を出力する。
本開示に係る技術によると、三次元画像の全体から、一部の領域である第1領域が抽出され、抽出された第1領域に対して数学モデルによる特定の構造の検出処理が実行される。その結果、三次元画像の全体に対して数学モデルによる処理が実行される場合に比べて、機械学習アルゴリズムを利用した処理の演算量が適切に減少する。なお、以下の説明では、第1領域に対して数学モデルによって実行される構造の検出処理を、「第1構造検出処理」という場合もある。
画像から検出する対象とする組織の構造は、適宜選択できる。例えば、画像が眼科画像である場合には、検出対象とする構造は、被検眼の眼底組織の層、眼底組織の層の境界、眼底に存在する視神経乳頭、前眼部組織の層、前眼部組織の層の境界、および、被検眼の疾患部位の少なくともいずれかであってもよい。
また、三次元画像を撮影(生成)する撮影装置には、種々の装置を使用することができる。例えば、光コヒーレンストモグラフィの原理を利用して組織の断層画像を撮影するOCT装置を使用することができる。OCT装置による撮影方法には、例えば、光(測定光)のスポットを二次元状に走査させて三次元断層画像を取得する方法、または、一次元方向に延びる光を走査させて三次元断層画像を取得する方法(所謂ラインフィールドOCT)等を採用できる。また、MRI(磁気共鳴画像診断)装置、またはCT(コンピュータ断層撮影)装置等が使用されてもよい。
制御部は、第2構造検出ステップをさらに実行してもよい。第2構造検出ステップでは、制御部は、三次元画像の全領域のうち、抽出ステップにおいて第1領域として抽出されなかった第2領域における特定の構造を、第1領域に対して数学モデルによって出力された特定の構造の検出結果に基づいて検出する。
この場合、第1領域における構造に加えて、第2領域における構造も検出されるので、三次元画像中の特定の構造がより高い精度で検出される。また、第2領域における特定の構造の検出には、第1領域に対して数学モデルによって出力された検出結果が利用される。従って、第2領域における構造の検出処理の演算量は、第1領域における構造の検出処理の演算量よりも少なくなる。よって、処理の演算量が増加することが抑制された状態で、第1領域および第2領域の各々に対する構造の検出処理が実行される。なお、以下の説明では、第1構造検出処理の検出結果に基づいて実行される、第2領域における構造の検出処理を、「第2構造検出処理」という場合もある。
なお、第2構造検出ステップを実行する際の具体的な方法(つまり、第2構造検出処理の具体的な方法)は、適宜選択できる。例えば、制御部は、第1領域を構成する各画素に対する構造の検出結果および画素情報(例えば輝度値等)と、第2領域を構成する各画素の画素情報とを比較することで、第2領域における構造の検出結果を算出してもよい。この場合、第2領域を構成する各画素と、参照する第1領域(例えば、対象の第2領域に最も近い第1領域等)を構成する各画素の位置関係が考慮されてもよい。例えば、第1領域内の複数の画素のうち、第2領域における注目画素からの距離の近さがn番目以内の画素に関する検出結果および画素情報が、注目画素の画素情報と比較されてもよい。また、制御部は、第2領域の注目画素についての構造の検出結果を、注目画素の周辺に位置する第1領域の画素に関する構造の検出結果に基づいて、補間処理によって算出してもよい。
制御部は、抽出ステップにおいて、三次元画像を構成する複数の二次元画像の各々から第1領域を抽出してもよい。この場合、各々の二次元画像の全領域に対して数学モデルによる構造の検出処理が行われる場合に比べて、処理の演算量が適切に減少する。
抽出ステップでは、制御部は、二次元画像を構成する複数の画素列の各々を、類似度に基づいて複数のグループのいずれかに分類し、複数のグループの各々を代表する画素列を第1領域として抽出してもよい。第1構造検出ステップでは、制御部は、抽出ステップにおいて第1領域として抽出された画素列を、数学モデルに入力してもよい。この場合、1つのグループに多数の画素列が分類された場合でも、グループを代表する1つまたは少数の画素列に対して、数学モデルによる構造の検出処理が実行される。従って、数学モデルを用いた処理の演算量が適切に減少する。
なお、画素列が延びる方向は、適宜規定すればよい。例えば、三次元画像がOCT装置によって撮影される場合、三次元画像の構成する複数の二次元画像のうち、OCT光の光軸に沿う方向の画素列をAスキャン画像と言う場合がある。この場合、二次元画像を構成する複数のAスキャン画像の各々が、複数のグループのいずれかに分類されてもよい。また、Aスキャン画像に対して垂直に交差する複数の画素列の各々が、複数のグループのいずれかに分類されてもよい。
第1構造検出処理に加えて、前述した第2構造検出処理を実行することも可能である。この場合、制御部は、各々のグループから第1領域として検出されなかった画素列(つまり、第2領域)における特定の構造を、同一のグループの第1領域についての数学モデルによる構造の検出結果に基づいて検出してもよい。前述したように、同一のグループに分類された複数の画素列の類似度は高い。従って、第1構造検出処理と第2構造検出処理がグループ毎に実行されることで、第2構造検出処理の精度がさらに向上する。
また、複数のグループの各々を代表する画素列を第1領域として抽出するための具体的な方法も、適宜選択できる。例えば、制御部は、各々のグループに分類された複数の画素列に対して加算平均処理を行うことで得られた画素列を、第1領域として抽出してもよい。また、制御部は、各々のグループに属する複数の画素列から、所定の規則に従って、またはランダムに第1領域を抽出してもよい。この場合、各々のグループから抽出される第1領域の数は、1つであってもよいし、複数(ただし、グループに属する画素列の数よりも少ない数)であってもよい。
ただし、二次元画像を構成する複数の画素列を単位として構造を検出する方法は、画素列を複数のグループに分類する方法のみに限定されない。例えば、制御部は、二次元画像を構成する複数の画素列から、一定間隔毎に、第1領域として画素列を抽出してもよい。この場合、制御部は、第1方向に並ぶ複数の画素列から第1領域を抽出する処理と、第1方向に対して垂直な第2方向に並ぶ複数の画素列から第1領域を抽出する処理を、共に実行してもよい。
三次元画像は、複数の二次元画像が、各々の二次元画像の画像領域に対して交差する方向に順に並べられることで構成されていてもよい。制御部は、抽出ステップにおいて、複数の二次元画像の各々から、組織が写る矩形の像領域を第1領域として抽出してもよい。この場合、組織が写っていない領域は、数学モデルによって特定の組織を検出する対象とする領域から除外される。従って、数学モデルを用いた処理の演算量が適切に減少する。
抽出ステップでは、制御部は、複数の二次元画像のうち、一部の基準画像を数学モデルに入力することで、基準画像の像領域を検出してもよい。制御部は、複数の二次元画像のうち、基準画像以外の二次元画像の像領域を、基準画像の像領域の検出結果に基づいて第1領域として抽出してもよい。この場合、基準画像の像領域が、数学モデルによって高精度で検出される。また、基準画像以外の二次元画像の像領域が、基準画像の像領域の検出結果に基づいて少ない演算量で検出される。よって、より適切に像領域が検出される。
なお、基準画像の像領域の検出結果に基づいて、他の二次元画像の像領域を抽出する方法は、適宜選択できる。例えば、制御部は、基準画像を構成する各画素に対する像領域の検出結果および画素情報と、他の二次元画像を構成する各画素の画素情報とを比較することで、他の二次元画像の像領域を抽出してもよい。この場合、基準画像を構成する各画素と、他の二次元画像を構成する各画素の位置関係が考慮されてもよい。
ただし、各々の二次元画像から像領域を抽出する方法を変更することも可能である。例えば、制御部は、二次元画像を構成する各画素の画素情報に基づいて像領域を抽出してもよい。一例として、制御部は、二次元画像の画像領域のうち、画素の輝度が閾値以上となっている領域を、像領域として検出してもよい。
制御部は、各々の二次元画像を構成する複数の画素列の間で像の位置合わせを行う二次元画像内位置合わせステップをさらに実行してもよい。第1構造検出ステップでは、二次元画像内位置合わせステップおよび抽出ステップで位置合わせと抽出が行われた矩形の第1領域が、数学モデルに入力されてもよい。この場合、二次元画像内位置合わせステップと抽出ステップが共に実行されることで、矩形の第1領域内に像が適切に収まり、且つ、矩形の第1領域の大きさが小さくなり易い。従って、少ない演算量で適切に構造が検出される。
なお、二次元画像内位置合わせステップと抽出ステップは、いずれが先に実行されてもよい。つまり、複数の画素列の間で像の位置合わせが行われた後に、矩形の像領域が第1領域として抽出されてもよい。また、像領域が第1領域として検出された後に、複数の画素列の間で像の位置合わせが行われることで、第1領域の形状が矩形に調整されてもよい。
制御部は、複数の二次元画像の間で像の位置合わせを行う二次元画像間位置合わせステップをさらに実行してもよい。この場合、種々の面で処理が効率化される。例えば、制御部は、1つの二次元画像(第2領域)における特定の構造を、他の二次元画像(第1領域)に対する第1構造検出処理の結果に基づいて検出する際に、複数の二次元画像の間で像の位置合わせが行われていれば、互いの二次元画像間で座標が近似する画素同士を比較することで、第2領域における構造をより適切に検出することができる。
なお、二次元画像間位置合わせステップと抽出ステップは、いずれが先に実行されてもよい。また、二次元画像内位置合わせステップと二次元画像間位置合わせステップも、いずれが先に実行されてもよい。
制御部は、抽出ステップにおいて、三次元画像に含まれる複数の二次元画像のうちの一部を第1領域として抽出してもよい。この場合、三次元画像を構成する全ての二次元画像に対して数学モデルによる構造の検出処理が行われる場合に比べて、処理の演算量が適切に減少する。
制御部は、三次元画像に含まれる複数の二次元画像のうち、一部の基準画像を第1領域として抽出ステップおよび第1構造検出ステップを実行してもよい。その後、制御部は、複数の二次元画像のうち、基準画像との間の類似度が閾値未満である二次元画像を第1領域として抽出ステップおよび第1構造検出ステップを実行してもよい。制御部は、以上の処理を繰り返し実行してもよい。
例えば、三次元画像を構成する複数の二次元画像から、一定間隔毎に二次元画像を第1領域として抽出することも可能である。しかし、この場合、構造の変化が激しい部分でも、第1領域は一定間隔毎に抽出されるのみである。その結果、構造の検出精度が低下する可能性がある。これに対し、第1構造検出処理が実行された基準画像との間の類似度を用いて第1領域を抽出すると、構造の変化が激しい部分では密に第1領域が抽出される。よって、構造の検出精度が向上する。
ただし、二次元画像を単位として第1領域を抽出する方法は、基準画像との間の類似度を用いて抽出する方法に限定されない。例えば、制御部は、三次元画像を構成する複数の二次元画像から、一定間隔毎に、第1領域として二次元画像を抽出してもよい。
抽出ステップにおいて、制御部は、三次元画像の画像領域内に注目位置を設定してもよい。制御部は、設定した注目位置を基準として、複数の二次元画像の抽出パターンを設定してもよい。制御部は、三次元画像から、設定した抽出パターンに合致する複数の二次元画像を、第1領域として抽出してもよい。この場合、注目位置を基準とした抽出パターンに従って、複数の二次元画像が第1領域として抽出される。従って、注目部位に対応した適切な態様で、三次元画像から特定の構造が検出される。
なお、注目部位を設定するための具体的な方法は、適宜選択できる。例えば、制御部は、ユーザによって入力された指示に応じて、三次元画像の画像領域内に注目位置を設定してもよい。この場合、ユーザが注目する位置を基準として適切に第1領域が抽出される。また、制御部は、三次元画像中の特定部位(例えば、特定の構造が存在する部位、または、疾患が存在する部位等)を検出し、検出した特定部位を注目位置に設定してもよい。この場合、制御部は、公知の画像処理等によって特定部位を検出してもよい。また、特定部位を検出するための数学モデルが利用されてもよい。
また、複数の二次元画像の抽出パターンも適宜選択できる。例えば、画像の撮影光軸に沿う方向から三次元画像を見た場合に、抽出される二次元画像が横断するラインが注目位置を中心とする放射状となるように、抽出パターンが設定されてもよい。また、注目位置に近い程、第1領域として抽出される二次元画像が密になるように、抽出パターンが設定されてもよい。
以上説明した種々の方法は一例に過ぎない。従って、上記の方法に変更を加えることも可能である。例えば、制御部は、三次元画像が撮影された際の撮影条件(例えば、撮影部位、撮影方式、および撮影画角等の少なくともいずれか)に応じて、第1領域の抽出方法を変更してもよい。また、制御部は、医療画像処理装置の制御部の処理能力に応じて、第1領域の抽出方法を変更してもよい。
本開示で例示する医療画像処理方法は、生体組織の三次元画像のデータを処理する医療画像処理システムにおいて実行される。医療画像処理システムは、ネットワークを介して互いに接続された第1画像処理装置および第2画像処理装置を含む。医療画像処理方法は、画像取得ステップ、抽出ステップ、送信ステップ、および第1構造検出ステップを含む。画像取得ステップでは、第1画像処理装置が組織の三次元画像を取得する。抽出ステップでは、第1画像処理装置が、三次元画像から一部の領域である第1領域を抽出する。送信ステップでは、第1画像処理装置が、抽出ステップにおいて抽出された第1領域を第2画像処理装置に送信する。第1構造検出ステップでは、第2画像処理装置が、機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る組織の特定の構造の検出結果を出力する数学モデルに第1領域を入力することで、第1領域における特定の構造の検出結果を取得する。
この場合、機械学習アルゴリズムによって訓練された数学モデルを実行するためのプログラムが、第1画像処理装置に組み込まれていない場合でも、第1画像処理装置と第2画像処理装置がネットワークを介して接続されていれば、前述した種々の処理が適切に実行される。
第1画像処理装置と第2画像処理装置の具体的な態様は、適宜選択できる。例えば、第1画像処理装置は、PC、携帯端末、および医療画像撮影装置等の少なくともいずれかであってもよい。第1画像処理装置は、被検者の診断または検査等を行う施設に配置されてもよい。また、第2画像処理装置は、サーバ(例えばクラウドサーバ等)であってもよい。
なお、第2画像処理装置は、第1構造検出ステップによる構造の検出結果を第1画像処理装置に出力する出力ステップを実行してもよい。第1画像処理装置は、三次元画像の全領域のうち、抽出ステップにおいて第1領域として抽出されなかった第2領域における特定の構造を、第1領域に対して数学モデルによって出力された特定の構造の検出結果に基づいて検出する第2構造検出ステップをさらに実行してもよい。この場合、第1構造検出処理と第2構造検出処理の各々が、医療画像処理システム内で適切に実行される。
数学モデル構築装置1、医療画像処理装置21、および医療画像撮影装置11A,11Bの概略構成を示すブロック図である。 眼底の二次元断層画像である訓練用画像30の一例を示す図である。 図2に示す訓練用画像30に写る組織の特定の構造を示す出力データ31の一例を示す図である。 医療画像撮影装置11Bが生体の組織50の三次元画像を撮影する方法を説明するための説明図である。 複数の二次元画像61によって三次元画像が構成されている状態を説明するための説明図である。 医療画像処理装置21が実行する第1検出処理のフローチャートである。 二次元画像61中の複数のAスキャン画像を複数のグループに分類した状態を説明するための説明図である。 医療画像処理装置21が実行する第2検出処理のフローチャートである。 基準画像61Aの像領域に基づいて二次元画像61Bの像領域を抽出する方法の一例を説明するための説明図である。 医療画像処理装置21が実行する第3検出処理のフローチャートである。 位置合わせが行われる前後の二次元画像を比較した図である。 医療画像処理装置21が実行する第4検出処理のフローチャートである。 第4検出処理を説明するための参考図である。 医療画像処理装置21が実行する第5検出処理のフローチャートである。 三次元画像中に注目位置73と抽出パターン75が設定された状態の一例を示す図である。 変形例に係る医療画像処理システム100の概略構成を示すブロック図である。
以下、本開示における典型的な実施形態の1つについて、図面を参照して説明する。図1に示すように、本実施形態では、数学モデル構築装置1、医療画像処理装置21、および医療画像撮影装置11A,11Bが用いられる。数学モデル構築装置1は、機械学習アルゴリズムによって数学モデルを訓練させることで、数学モデルを構築する。構築された数学モデルは、入力された画像に基づいて、画像に写る組織の特定の構造の検出結果を出力する。医療画像処理装置21は、数学モデルを用いて、画像に写る組織の特定の構造を検出する。医療画像撮影装置11A,11Bは、生体組織(本実施形態では、被検眼の眼底組織)の画像を撮影する。
一例として、本実施形態の数学モデル構築装置1にはパーソナルコンピュータ(以下、「PC」という)が用いられる。詳細は後述するが、数学モデル構築装置1は、医療画像撮影装置11Aから取得した画像(以下、「入力データ」という)と、入力データにおける組織の特定の構造を示す出力データとを利用して数学モデルを訓練させることで、数学モデルを構築する。しかし、数学モデル構築装置1として機能できるデバイスは、PCに限定されない。例えば、医療画像撮影装置11Aが数学モデル構築装置1として機能してもよい。また、複数のデバイスの制御部(例えば、PCのCPUと、医療画像撮影装置11AのCPU13A)が、協働して数学モデルを構築してもよい。
また、本実施形態の医療画像処理装置21にはPCが用いられる。しかし、医療画像処理装置21として機能できるデバイスも、PCに限定されない。例えば、医療画像撮影装置11Bまたはサーバ等が、医療画像処理装置21として機能してもよい。医療画像撮影装置(本実施形態ではOCT装置)11Bが医療画像処理装置21として機能する場合、医療画像撮影装置11Bは、生体組織の三次元画像を撮影しつつ、撮影した三次元画像の組織における特定の構造を適切に検出することができる。また、タブレット端末またはスマートフォン等の携帯端末が、医療画像処理装置21として機能してもよい。複数のデバイスの制御部(例えば、PCのCPUと、医療画像撮影装置11BのCPU13B)が、協働して各種処理を行ってもよい。
数学モデル構築装置1について説明する。数学モデル構築装置1は、例えば、医療画像処理装置21または医療画像処理プログラムをユーザに提供するメーカー等に配置される。数学モデル構築装置1は、各種制御処理を行う制御ユニット2と、通信I/F5を備える。制御ユニット2は、制御を司るコントローラであるCPU3と、プログラムおよびデータ等を記憶することが可能な記憶装置4を備える。記憶装置4には、後述する数学モデル構築処理を実行するための数学モデル構築プログラムが記憶されている。また、通信I/F5は、数学モデル構築装置1を他のデバイス(例えば、医療画像撮影装置11Aおよび医療画像処理装置21等)と接続する。
数学モデル構築装置1は、操作部7および表示装置8に接続されている。操作部7は、ユーザが各種指示を数学モデル構築装置1に入力するために、ユーザによって操作される。操作部7には、例えば、キーボード、マウス、タッチパネル等の少なくともいずれかを使用できる。なお、操作部7と共に、または操作部7に代えて、各種指示を入力するためのマイク等が使用されてもよい。表示装置8は、各種画像を表示する。表示装置8には、画像を表示可能な種々のデバイス(例えば、モニタ、ディスプレイ、プロジェクタ等の少なくともいずれか)を使用できる。なお、本開示における「画像」には、静止画像も動画像も共に含まれる。
数学モデル構築装置1は、医療画像撮影装置11Aから画像のデータ(以下、単に「画像」という場合もある)を取得することができる。数学モデル構築装置1は、例えば、有線通信、無線通信、着脱可能な記憶媒体(例えばUSBメモリ)等の少なくともいずれかによって、医療画像撮影装置11Aから画像のデータを取得してもよい。
医療画像処理装置21について説明する。医療画像処理装置21は、例えば、被検者の診断または検査等を行う施設(例えば、病院または健康診断施設等)に配置される。医療画像処理装置21は、各種制御処理を行う制御ユニット22と、通信I/F25を備える。制御ユニット22は、制御を司るコントローラであるCPU23と、プログラムおよびデータ等を記憶することが可能な記憶装置24を備える。記憶装置24には、後述する医療画像処理(第1検出処理~第5検出処理)を実行するための医療画像処理プログラムが記憶されている。医療画像処理プログラムには、数学モデル構築装置1によって構築された数学モデルを実現させるプログラムが含まれる。通信I/F25は、医療画像処理装置21を他のデバイス(例えば、医療画像撮影装置11Bおよび数学モデル構築装置1等)と接続する。
医療画像処理装置21は、操作部27および表示装置28に接続されている。操作部27および表示装置28には、前述した操作部7および表示装置8と同様に、種々のデバイスを使用することができる。
医療画像撮影装置11(11A,11B)は、各種制御処理を行う制御ユニット12(12A,12B)と、医療画像撮影部16(16A,16B)を備える。制御ユニット12は、制御を司るコントローラであるCPU13(13A,13B)と、プログラムおよびデータ等を記憶することが可能な記憶装置14(14A,14B)を備える。
医療画像撮影部16は、生体組織の画像(本実施形態では、被検眼の眼科画像)を撮影するために必要な各種構成を備える。本実施形態の医療画像撮影部16には、OCT光源、OCT光源から出射されたOCT光を測定光と参照光に分岐する分岐光学素子、測定光を走査するための走査部、測定光を被検眼に照射するための光学系、組織によって反射された光と参照光の合成光を受光する受光素子等が含まれる。
医療画像撮影装置11は、生体組織(本実施形態では被検眼の眼底)の二次元断層画像および三次元断層画像を撮影することができる。詳細には、CPU13は、スキャンライン上にOCT光(測定光)を走査させることで、スキャンラインに交差する断面の二次元断層画像を撮影する。二次元断層画像は、同一部位の複数の断層画像に対して加算平均処理を行うことで生成された加算平均画像であってもよい。また、CPU13は、OCT光を二次元的に走査することによって、組織における三次元断層画像を撮影することができる。例えば、CPU13は、組織を正面から見た際の二次元の領域内において、位置が互いに異なる複数のスキャンライン上の各々に測定光を走査させることで、複数の二次元断層画像を取得する。次いで、CPU13は、撮影された複数の二次元断層画像を組み合わせることで、三次元断層画像を取得する(この詳細は後述する)。
(数学モデル構築処理)
図2および図3を参照して、数学モデル構築装置1が実行する数学モデル構築処理について説明する。数学モデル構築処理は、記憶装置4に記憶された数学モデル構築プログラムに従って、CPU3によって実行される。数学モデル構築処理では、複数の訓練データによって数学モデルが訓練されることで、画像に写る組織における特定の構造の検出結果を出力する数学モデルが構築される。訓練データには、入力データと出力データが含まれる。
まず、CPU3は、医療画像撮影装置11Aによって撮影された画像である訓練用画像のデータを、入力データとして取得する。本実施形態では、訓練用画像のデータは、医療画像撮影装置11Aによって生成された後、数学モデル構築装置1によって取得される。しかし、CPU3は、訓練用画像を生成する基となる信号(例えばOCT信号)を医療画像撮影装置11Aから取得し、取得した信号に基づいて訓練用画像を生成することで、訓練用画像のデータを取得してもよい。
なお、本実施形態では、画像から検出する対象とする組織の構造は、被検眼の眼底組織
の層、および、眼底組織の層の境界の少なくともいずれか(以下、単に「層・境界」という)である。この場合、訓練用画像として、被検眼の眼底組織の画像が取得される。詳細には、数学モデル構築処理では、医療画像処理装置21において画像から構造を検出される際に、数学モデルに入力される画像の態様に応じて、訓練用画像の態様が変化する。例えば、構造(眼底の層・境界)を検出するために数学モデルに入力される画像が二次元画像(眼底の二次元断層画像)であれば、数学モデル構築処理でも、二次元画像(眼底の二次元断層画像)が訓練用画像として用いられる。図2に、眼底の二次元断層画像である訓練用画像30の一例を示す。図2に例示する訓練用画像30には、眼底における複数の層・境界が表れている。
また、構造(眼底の層・境界)を検出するために数学モデルに入力される画像が、一次元の画像(例えば、OCT測定光の光軸に沿う方向に延びるAスキャン画像)であれば、数学モデル構築処理でも、一次元の画像(Aスキャン画像)が訓練用画像として用いられる。
次いで、CPU3は、訓練用画像に写る組織の特定の構造を示す出力データを取得する。図3に、訓練用画像30として眼底の二次元断層画像が使用される場合の、特定の境界の位置を示す出力データ31の一例を示す。図3に例示する出力データ31には、訓練用画像30(図2参照)に写る眼底組織の6つの境界の各々の位置を示すラベル32A~32Fのデータが含まれている。本実施形態では、出力データ31におけるラベル32A~32Fのデータは、作業者が訓練用画像30における境界を見ながら操作部7を操作することで生成される。ただし、ラベルのデータの生成方法を変更することも可能である。なお、訓練用画像が一次元の画像であれば、出力データは、一次元の画像上における特定の構造の位置を示すデータとなる。
次いで、CPU3は、機械学習アルゴリズムによって、訓練データを用いた数学モデルの訓練を実行する。機械学習アルゴリズムとしては、例えば、ニューラルネットワーク、ランダムフォレスト、ブースティング、サポートベクターマシン(SVM)等が一般的に知られている。
ニューラルネットワークは、生物の神経細胞ネットワークの挙動を模倣する手法である。ニューラルネットワークには、例えば、フィードフォワード(順伝播型)ニューラルネットワーク、RBFネットワーク(放射基底関数)、スパイキングニューラルネットワーク、畳み込みニューラルネットワーク、再帰型ニューラルネットワーク(リカレントニューラルネット、フィードバックニューラルネット等)、確率的ニューラルネット(ボルツマンマシン、ベイシアンネットワーク等)等がある。
ランダムフォレストは、ランダムサンプリングされた訓練データに基づいて学習を行って、多数の決定木を生成する方法である。ランダムフォレストを用いる場合、予め識別器として学習しておいた複数の決定木の分岐を辿り、各決定木から得られる結果の平均(あるいは多数決)を取る。
ブースティングは、複数の弱識別器を組み合わせることで強識別器を生成する手法である。単純で弱い識別器を逐次的に学習させることで、強識別器を構築する。
SVMは、線形入力素子を利用して2クラスのパターン識別器を構成する手法である。SVMは、例えば、訓練データから、各データ点との距離が最大となるマージン最大化超平面を求めるという基準(超平面分離定理)で、線形入力素子のパラメータを学習する。
数学モデルは、例えば、入力データと出力データの関係を予測するためのデータ構造を指す。数学モデルは、訓練データを用いて訓練されることで構築される。前述したように、訓練データは、入力データと出力データのペアである。例えば、訓練によって、各入力と出力の相関データ(例えば、重み)が更新される。
本実施形態では、機械学習アルゴリズムとして多層型のニューラルネットワークが用いられている。ニューラルネットワークは、データを入力するための入力層と、予測したいデータを生成するための出力層と、入力層と出力層の間の1つ以上の隠れ層を含む。各層には、複数のノード(ユニットとも言われる)が配置される。詳細には、本実施形態では、多層型ニューラルネットワークの一種である畳み込みニューラルネットワーク(CNN)が用いられている。ただし、他の機械学習アルゴリズムが用いられてもよい。例えば、競合する2つのニューラルネットワークを利用する敵対的生成ネットワーク(Generative adversarial networks:GAN)が、機械学習アルゴリズムとして採用されてもよい。構築された数学モデルを実現させるプログラムおよびデータは、医療画像処理装置21に組み込まれる。
(三次元画像)
図4および図5を参照して、組織の構造を検出する対象とする三次元画像の一例について説明する。図4に示すように、本実施形態の医療画像撮影装置11Bは、生体の組織50(図4に示す例では、眼底組織)における二次元の領域51内で、光(測定光)をスキャンする。詳細には、本実施形態の医療画像撮影装置11Bは、領域51内の所定の方向に延びるスキャンライン52上で光をスキャンすることで、光の光軸に沿うZ方向と、Z方向に垂直なX方向に広がる二次元画像61(図5参照)を取得(撮影)する。図4に示す例では、Z方向は二次元の領域51に対して垂直な方向(深さ方向)となり、X方向はスキャンライン52が延びる方向となる。次いで、医療画像撮影装置11Bは、スキャンライン52の位置を領域51内でY方向に移動させて、二次元画像61の取得を繰り返す。Y方向は、Z方向およびX方向に共に交差(本実施形態では垂直に交差)する方向となる。その結果、複数のスキャンライン52の各々を通過し、且つ組織の深さ方向に広がる複数の二次元画像61が取得される。次いで、図5に示すように、複数の二次元画像61が、Y方向(つまり、各々の二次元画像の画像領域に対して交差する方向)に並べられることで、領域51における三次元画像が生成される。
以下、本実施形態の医療画像処理装置21が実行する第1検出処理~第5検出処理について説明する。第1検出処理~第5検出処理では、三次元画像に写る組織の特定の構造が検出される。なお、本実施形態では、PCである医療画像処理装置21が、医療画像撮影装置11Bから三次元画像を取得し、取得した三次元画像に写る組織の特定の構造を検出する。しかし、前述したように、他のデバイスが医療画像処理装置として機能してもよい。例えば、医療画像撮影装置(本実施形態ではOCT装置)11B自身が、以下で説明する第1検出処理~第5検出処理を実行してもよい。また、複数の制御部が協働して第1検出処理~第5検出処理を実行してもよい。本実施形態では、医療画像処理装置21のCPU23は、記憶装置24に記憶された医療画像処理プログラムに従って、第1検出処理~第5検出処理を実行する。
(第1検出処理)
図6および図7を参照して、第1検出処理について説明する。第1検出処理では、二次元画像61を構成する画素列を処理の単位として、各々の二次元画像61から構造を検出する処理が行われる。
図6に示すように、CPU23は、第1検出処理を開始すると、特定の構造を検出する対象とする三次元画像を取得する(S1)。例えば、ユーザは、操作部27(図1参照)を操作し、複数の三次元画像の中から、構造の検出対象とする三次元画像を選択する。CPU23は、ユーザによって選択された三次元画像のデータを取得する。
CPU23は、三次元画像を構成する複数の二次元画像61のうち、T番目(Tは自然数であり、初期値は1)の二次元画像61を選択する(S2)。本実施形態では、三次元画像を構成する複数の二次元画像61の各々に、Y方向に並べられている順に番号が付されている。S2の処理では、複数の二次元画像61のうち、Y方向における最も外側に位置する二次元画像61から順に選択されていく。
CPU23は、S2で選択した二次元画像61中の複数のAスキャン画像を、複数のグループのいずれかに分類する(S3)。図7に示すように、OCT装置によって撮影された二次元画像61は、図7における矢印で示す複数のAスキャン画像によって構成されている。Aスキャン画像とは、OCT測定光の光軸に沿う方向に延びる画素列である。S3では、CPU23は、各々のAスキャン画像同士の位置関係に関わらず、互いの類似度が高い複数のAスキャン画像を、同一のグループに分類する。図7に示す例では、グループG1には、層の剥離が無く、且つ網膜神経線維層が薄い領域のAスキャン画像が分類されている。グループG2には、層の剥離が無く、且つ網膜神経線維層が厚い領域のAスキャン画像が分類されている。グループG3には、IS/OSラインが剥離している領域のAスキャン画像が分類されている。グループG4には、IS/OSラインと網膜色素上皮層が共に剥離している領域のAスキャン画像が分類されている。
次いで、CPU23は、複数のグループの各々を代表する画素列である代表Aスキャン画像を、第1領域として抽出する(S4)。第1領域とは、三次元画像内の領域のうち、機械学習アルゴリズムによって訓練された数学モデルが用いられることで特定の構造が検出される領域である。グループに属する複数のAスキャン画像から代表Aスキャン画像を抽出する方法は、適宜選択できる。本実施形態では、CPU23は、各々のグループに分類された複数のAスキャン画像に対して加算平均処理を行うことで得られた画素列を、代表Aスキャン画像として抽出する。その結果、グループを代表する代表Aスキャン画像が適切に抽出される。
CPU23は、各々のグループから抽出された代表Aスキャン画像(第1領域)に対して、第1構造検出処理を実行する(S5)。第1構造検出処理とは、数学モデルによって特定の構造を検出する処理である。つまり、第1構造検出処理を実行する場合、CPU23は、三次元画像から抽出された第1領域(図6に示す例では代表Aスキャン画像)を、機械学習アルゴリズムによって訓練された数学モデルに入力する。数学モデルは、第1領域における特定の構造(本実施形態では、眼底における層・境界)の検出結果を出力する。CPU23は、数学モデルによって出力された検出結果を取得する。第1構造検出処理によると、従来から用いられている画像処理等の手法に比べて演算量は多いが、高い精度で画像中の特定の構造が検出される。
CPU23は、各々のグループから第1領域(本実施形態では代表Aスキャン画像)として抽出されなかったAスキャン画像を第2領域とし、第2領域に対する第2構造検出処理を、グループ毎に実行する(S6)。第2構造検出処理とは、三次元画像の全領域のうち、第1領域として検出されなかった第2領域における特定の構造を、第1構造検出処理の検出結果に基づいて検出する処理である。第2構造検出処理の演算量は、第1構造検出処理の演算量よりも少なくなる。また、第2構造検出処理は、高い精度で行われる第1構造検出処理の結果に基づいて実行される。従って、第2領域の構造が適切に検出される。
詳細には、本実施形態におけるS6の処理では、CPU23は、第1領域(代表Aスキャン画像)を構成する各画素に対する構造の検出結果および画素情報と、第2領域を構成する各画素の画素情報とを比較することで、第2領域における構造の検出結果を算出する。ここで、CPU23は、第2領域を構成する各画素と、参照する第1領域(同一グループに属する代表Aスキャン)を構成する各画素の位置関係(例えば、Z方向における距離の近さ等)を考慮してもよい。また、CPU23は、第1構造検出処理の結果に基づく補間処理によって、第2領域に対する第2構造検出処理を行ってもよい。
S3の処理で説明したように、同一のグループに分類された複数のAスキャン画像間の類似度は高い。従って、本実施形態のS5,S6では、第1構造検出処理と第2構造検出処理がグループ毎に実行されることで、第2構造検出処理の精度がさらに向上する。
CPU23は、全ての二次元画像に対する構造の検出処理が完了したか否かを判断する(S8)。完了していなければ(S8:NO)、二次元画像の順番を示すカウンタTに「1」が加算されて(S9)、処理はS2へ戻る。全ての二次元画像に対する構造の検出処理が完了すると(S8:YES)、第1検出処理は終了する。
なお、本実施形態の第1検出処理では、二次元画像を構成する複数の画素列(Aスキャン画像)が複数のグループに分類され、グループ毎に第1領域が抽出される。しかし、第1領域の抽出方法を変更することも可能である。例えば、CPU23は、複数の画素列(例えばAスキャン画像等)からなる小領域(パッチ)を複数のグループに分類し、グループ毎に第1領域を抽出してもよい。また、CPU23は、二次元画像を構成する複数の画素列から、一定間隔毎に第1領域を抽出してもよい。
(第2検出処理)
図8および図9を参照して、第2検出処理について説明する。第2検出処理では、各々の二次元画像から、組織の像が写っている領域である像領域が抽出される。抽出された像領域に対して、数学モデルを用いた第1構造検出処理が行われる。従って、組織の像が写っていない領域が、数学モデルによって特定の組織を検出する対象とする領域から除外される。なお、第2~第5検出処理のうち、前述した第1検出処理で説明したステップと同様のステップについては、説明を簡略化する。
図8に示すように、CPU23は、第2検出処理を開始すると、特定の構造を検出する対象とする三次元画像を取得する(S1)。CPU23は、三次元画像を構成する複数の二次元画像61のうち、T番目の二次元画像61を選択する(S2)。
次いで、CPU23は、T番目の二次元画像61を基準画像61A(図9参照)とするか否かを判断する(S11)。基準画像61Aとは、他の二次元画像61Bにおける像領域の抽出位置の基準となる画像である。複数の二次元画像61から基準画像61Aを選択する方法は、適宜選択できる。一例として、本実施形態では、CPU23は、複数の二次元画像61から、一定間隔毎に基準画像61Aを選択する。なお、最初のS11では、T=1番目の二次元画像61は必ず基準画像61Aとして選択される。
T番目の二次元画像61を基準画像61Aとする場合(S11:YES)、CPU23は、基準画像61A(つまり、T番目の二次元画像61)に対する第1構造検出処理を実行する(S12)。つまり、CPU23は、基準画像61Aを数学モデルに入力することで、基準画像61Aに写る組織の特定の構造の検出結果を取得する。
次いで、CPU23は、S12で取得された構造の検出結果に基づいて、基準画像61Aにおいて組織の像が写っている像領域を検出する(S13)。前述したように、数学モデルを用いる第1構造検出処理では、特定の構造が高い精度で検出され易い。従って、S12で取得された検出結果に基づいて検出される像領域も、高い精度で検出され易い。図9に示す基準画像61Aでは、第1構造検出処理による構造の検出結果(本実施形態では、眼底の層・境界の検出結果)に基づいて、2本の白い実線で囲まれる領域が像領域として検出されている。
一方で、T番目の二次元画像61を基準画像61Aとしない場合には(S11:NO)、CPU23は、既に検出されている基準画像61Aの像領域に基づいて、T番目の二次元画像61B(図9参照)の像領域を、第1領域として抽出する(S15)。その結果、T番目の二次元画像61Bは、数学モデルが用いられる場合に比べて少ない演算量で検出される。図9に示す例では、基準画像61Aの近傍に位置する二次元画像61Bのうち、2本の白い破線で囲まれる領域が、像領域として検出されている。
なお、本実施形態のS15では、CPU23は、基準画像61Aを構成する各画素に対する像領域の検出結果および画素情報と、他の二次元画像61Bを構成する各画素の画素情報とを比較することで、二次元画像61Bの像領域を検出する。また、CPU23は、基準画像61Aを構成する各画素と、二次元画像61Bを構成する各画素の位置関係(本実施形態では、XZ座標の位置関係)も考慮して、二次元画像61Bの像領域を検出する。
次いで、CPU23は、T番目の二次元画像61Bを構成する複数の画素列(本実施形態では、前述した複数のAスキャン画像)の間で、像の位置合わせ(本実施形態では、Z方向における像の位置合わせ)を実行する(S16)。例えば、CPU23は、基準画像61に対する二次元画像61Bの像領域の位置合わせを行うことで、二次元画像61Bの像領域と基準画像の像領域の形状(湾曲形状)を同様の形状とする。その状態で、CPU23は、湾曲形状が平らになるように切り出す、またはAスキャン画像をZ方向にずらす処理を実行することで、二次元画像61Bから抽出される像領域65を矩形(略矩形でもよい)とする。つまり、第2検出処理によると、矩形の像領域65(第1領域)内に像が適切に収まり、且つ、矩形の像領域65の大きさが小さくなり易い。CPU23は、矩形の像領域65に対する第1構造検出処理を実行する(S17)。つまり、CPU23は、矩形の像領域65を数学モデルに入力することで、像領域65における特定の構造の検出結果を取得する。
CPU23は、全ての二次元画像61に対する構造の検出処理が完了したか否かを判断する(S18)。完了していなければ(S18:NO)、二次元画像61の順番を示すカウンタTに「1」が加算されて(S19)、処理はS2へ戻る。全ての二次元画像61に対する構造の検出処理が完了すると(S18:YES)、第2検出処理は終了する。なお、第2検出処理では、S16で各Aスキャン画像に対して実行された位置合わせの移動量の逆数が、S17で取得された構造の検出結果に加算されることで、最終的な構造の検出結果が得られる。
なお、本実施形態の第2検出処理では、基準画像61Aの像領域に基づいて、他の二次元画像61Bの像領域が抽出される。しかし、像領域の抽出方法を変更することも可能である。例えば、CPU23は、二次元画像61に対して公知の画像処理を行うことで、像領域を検出してもよい。
(第3検出処理)
図10および図11を参照して、第3検出処理について説明する。第3検出処理では、三次元画像を構成する複数の二次元画像61に対し、二次元画像61内における像の位置合わせと、二次元画像61間の像の位置合わせが実行される。その後、像領域が抽出されて、抽出された像領域における特定の構造が検出される。
図10に示すように、CPU23は、第3検出処理を開始すると、特定の構造を検出する対象とする三次元画像を取得する(S1)。CPU23は、三次元画像を構成する複数の二次元画像61の間で、像の位置合わせ(本実施形態では、Z方向における像の位置合わせ)を実行する(S21)。さらに、CPU23は、三次元画像を構成する複数の二次元画像61の各々について、二次元画像61を構成する複数の画素列(本実施形態では、前述した複数のAスキャン画像)の間で、像の位置合わせ(本実施形態では、Z方向における像の位置合わせ)を実行する(S22)。
なお、本実施形態のS22では、CPU23は、YZ方向に広がる二次元画像を複数構築し、構築した複数の二次元画像の間で像の位置合わせを行うことで、XZ方向に広がる二次元画像61内の隣接画素間の位置合わせを実行する。その結果、複数のAスキャン画像の間で位置合わせを実行する場合に比べて、ノイズの影響等が抑制される。なお、S21の処理とS22の処理の順番は逆であってもよい。
図11では、像の位置合わせ(二次元画像61間の像の位置合わせと、二次元画像61内における像の位置合わせ)が行われる前後の二次元画像を比較している。図11の左側は、像の位置合わせが行われる前の二次元画像であり、図11の右側は、像の位置合わせが行われた後の二次元画像である。図11に示すように、画像内、および画像間の位置合わせが行われることで、各画像における像の位置は互いに近くなる。
次いで、CPU23は、三次元画像を構成する複数の二次元画像61のうちの少なくともいずれかを基準画像とし、基準画像とした二次元画像61から矩形の像領域を第1領域として抽出する(S23)。複数の二次元画像61から基準画像を選択する方法は、前述したS11と同様に適宜選択できる。本実施形態では、CPU23は、複数の二次元画像61から、一定間隔毎に基準画像を選択する。複数の二次元画像61のうち、基準画像として選択されなかった二次元画像61は、数学モデルによる構造の検出処理が実行されない第2領域となる。
CPU23は、S23で抽出した第1領域に対する第1構造検出処理を実行する(S24)。つまり、CPU23は、S23で抽出した第1領域を数学モデルに入力することで、第1領域における特定の構造の検出結果を取得する。
また、CPU23は、基準画像として選択されなかった二次元画像61(第2領域)に対する第2構造検出処理を実行する(S25)。つまり、CPU23は、第2領域における特定の構造を、基準画像である第1領域に対する第1構造検出処理の結果に基づいて検出する。ここで、第3検出処理では、S21において、複数の二次元画像61の間で像の位置合わせが行われている。従って、S25では、第1領域と第2領域の間で座標(本実施形態ではXZ座標)が近似する画素同士を比較することで、第2領域における構造が適切に検出される。
なお、第3検出処理では、S21,S22で各Aスキャン画像に対して実行された位置合わせの移動量の符号(プラス、マイナス)を反転させた反数が、S24,S25で取得された構造の検出結果に加算されることで、最終的な構造の検出結果が得られる。
第3検出処理のうち、S23~S25の処理を変更することも可能である。例えば、CPU23は、S21,S22で三次元画像全体の像の位置合わせを行った後に、矩形(略矩形でもよい)の像領域を三次元画像から抽出し、抽出した像領域に対して第1構造検出処理を行ってもよい。この場合、CPU23は、S21,S22で全体の位置合わせを行った三次元画像から、全てのAスキャン画像の平均を取り、平均Aスキャン画像から像の範囲を特定してもよい。その後、CPU23は、特定した像の範囲に基づいて、各々の二次元画像61から矩形の像領域を抽出し、抽出した像領域を数学モデルに入力することで第1構造検出処理を行っても良い。この場合、第1構造検出処理は省略される。本変形例では、像が存在する可能性が高い領域のみに対して第1構造検出処理が実行されるので、処理量が適切に削減される。
(第4検出処理)
図12および図13を参照して、第4検出処理について説明する。第4検出処理では、三次元画像を構成する複数の二次元画像61の一部が、第1構造検出処理の対象とする第1領域として抽出される。詳細には、複数の二次元画像61の間の類似度に基づいて、複数の二次元画像61の一部が第1領域として抽出される。
図12に示すように、CPU23は、第4検出処理を開始すると、特定の構造を検出する対象とする三次元画像を取得する(S1)。CPU23は、三次元画像を構成する複数の二次元画像61のうち、T番目の二次元画像61を選択する(S2)。
CPU23は、その時点における基準画像と、T番目の二次元画像61の間の類似度が、閾値未満であるか否かを判断する(S31)。第4検出処理における基準画像とは、他の二次元画像61を第1領域および第2領域のいずれとするかを判断するための基準となる画像である。最初のS31の処理では、基準画像が未だに設定されていない。この場合、処理はS32へ移行し、CPU23は、T=1番目の二次元画像61を基準画像として設定すると共に、T=1番目の二次元画像61を第1領域として抽出する(S32)。CPU23は、基準画像であるT番目の画像に対して、第1構造検出処理を実行する(S33)。
一方で、その時点で設定されている基準画像と、T番目の二次元画像61の間の類似度が閾値以上である場合には(S31:NO)、CPU23は、T番目の二次元画像61を第2領域とし、T番目の二次元画像61に対する第2構造検出処理を実行する(S34)。つまり、CPU23は、T番目の二次元画像61における特定の構造を、類似度が高い基準画像に対する第1構造検出処理の結果に基づいて検出する。
なお、一般的に、T番目の二次元画像61と基準画像の間の距離(本実施形態では、Y方向の距離)が離間する程、両画像の類似度は低くなり易い。また、T番目の二次元画像61と基準画像の間の距離が近い場合でも、構造の変化が激しい部分である程、両画像の類似度は低くなり易い。
その時点で設定されている基準画像と、T番目の二次元画像61の間の類似度が閾値未満であれば(S31:YES)、CPU23は、T番目の二次元画像61を新たな基準画像として設定すると共に、T番目の二次元画像61を第1領域として抽出する(S32)。CPU23は、基準画像であるT番目の画像に対して、第1構造検出処理を実行する(S33)。
CPU23は、全ての二次元画像61に対する構造の検出処理が完了したか否かを判断する(S36)。完了していなければ(S36:NO)、二次元画像の順番を示すカウンタTに「1」が加算されて(S37)、処理はS2へ戻る。全ての二次元画像に対する構造の検出処理が完了すると(S36:YES)、第4検出処理は終了する。
図13を参照して、第4検出処理の流れ、および効果について説明する。まず、T=1番目の二次元画像が基準画像に設定される。T=1番目の二次元画像は第1領域として抽出され、数学モデルを用いた第1構造検出処理の対象となる。
図13の例では、T=2番目の二次元画像は、基準画像であるT=1番目の二次元画像に隣接している。また、T=1,2番目の二次元画像の撮影位置では、構造の変化が緩やかである。その結果、T=2番目の二次元画像と、T=1番目の二次元画像(基準画像)の間の類似度が閾値以上となっている。この場合、T=2番目の二次元画像61における特定の構造が、T=1番目の二次元画像に対する第1構造検出処理の結果に基づいて算出される。なお、図13の例では、T=3番目の二次元画像と、T=1番目の二次元画像(基準画像)の間の類似度も閾値以上となっている。
しかし、T=N番目の二次元画像と、T=1番目の二次元画像(基準画像)の間の類似度は、閾値未満となった。この場合、T=N番目の二次元画像が新たな基準画像に設定され、且つ、数学モデルを用いた第1構造検出処理の対象となる。T=N+1番目の二次元画像に対する処理は、T=N番目の二次元画像を基準画像として実行される。
(第5検出処理)
図14および図15を参照して、第5検出処理について説明する。第5検出処理では、三次元画像領域内に注目位置が設定され、設定された注目領域を基準として第1領域が抽出される。
図14に示すように、CPU23は、第5検出処理を開始すると、特定の構造を検出する対象とする三次元画像を取得する(S1)。CPU23は、三次元画像の画像領域内に、注目位置を設定する(S41)。一例として、本実施形態では、CPU23は、操作部27を介してユーザによって入力された指示に応じて(つまり、ユーザによって指示された位置に)、注目位置を設定する。また、CPU23は、三次元画像中の特定部位を検出し、検出した特定部位を注目位置として設定することも可能である。図15には、OCT測定光の光軸に沿う方向から三次元画像の撮影領域を見た場合の二次元の正面画像70が示されている。図15に示す例では、被検眼の眼底組織から、特定部位である黄斑が検出され、検出された黄斑に注目位置73が設定されている。
次いで、CPU23は、注目位置を基準として、複数の二次元画像の抽出パターンを設定する(S42)。CPU23は、設定した抽出パターンに合致する二次元画像を、数学モデルによる構造検出の対象とする第1領域として抽出する(S43)。S42で設定される二次元画像の抽出パターンは、医療画像撮影装置11Bによって撮影された各々の二次元画像61に合致する必要はなく、任意に設定することが可能である。例えば、図15に示す例では、OCT測定光の光軸に沿う方向から三次元画像を見た場合に、抽出される二次元画像が横断するラインが注目位置73を中心とする放射状となるように、抽出パターン75が設定される。その結果、注目位置73を中心とする複数の二次元画像が、第1領域として抽出される。
CPU23は、S43で抽出した第1領域に対する第1構造検出処理を実行する(S44)。また、三次元画像のうち、第1領域以外の領域である第2領域に対して、第2構造検出処理を実行する(S45)。第1構造検出処理および第2構造検出処理には、前述した処理と同様の処理を採用できるので、詳細な説明は省略する。
上記実施形態で開示された技術は一例に過ぎない。従って、上記実施形態で例示された技術を変更することも可能である。図16を参照して、上記実施形態の変形例である医療画像処理システム100のシステム構成について説明する。なお、医療画像処理システム100のうち、上記実施形態と同様の構成を採用できる部分(例えば、医療画像処理装置21および医療画像撮影装置11B等)については、上記実施形態と同じ符号を付し、その説明を省略または簡略化する。
図16に示す医療画像処理システム100は、医療画像処理装置21とクラウドサーバ91を備える。医療画像処理装置21は、医療画像撮影装置11Bによって撮影された三次元画像を処理する。詳細には、図16に示す例では、医療画像処理装置21は、前述した第1~第5検出処理(方法)のうち、第1構造検出処理(図6のS5、図8のS17、図10のS24、図12のS33、図14のS44)以外の処理(方法)を実行する第1画像処理装置として機能する。ただし、医療画像処理装置21とは異なるデバイス(例えば、医療画像撮影装置11B等)が、第1画像処理装置として機能してもよい。
クラウドサーバ91は、制御ユニット92と通信I/F95を備える。制御ユニット92は、制御を司るコントローラであるCPU93と、プログラムおよびデータ等を記憶することが可能な記憶装置94を備える。記憶装置94には、前述した数学モデルを実現させるためのプログラムが記憶されている。通信I/F95は、ネットワーク(例えばインターネット等)9を介して、クラウドサーバ91と医療画像処理装置21を接続する。図16に示す例では、クラウドサーバ91は、前述した第1~第5検出処理のうち、第1構造検出処理(図6のS5、図8のS17、図10のS24、図12のS33、図14のS44)を実行する第2画像処理装置として機能する。
医療画像処理装置(第1画像処理装置)21は、図6のS4、図8のS15、図10のS23、図12のS32、図14のS43で抽出された第1領域を、クラウドサーバ91に送信する送信ステップを実行する。クラウドサーバ91は、前述した第1構造検出処理を実行する。また、クラウドサーバ91は、第1構造検出処理によって検出された結果を医療画像処理装置21に出力する出力ステップを実行する。その結果、数学モデルを実行するためのプログラムが医療画像処理装置21に組み込まれていない場合でも、前述した種々の処理が適切に実行される。
また、上記実施形態で例示された処理の一部のみを実行することも可能である。例えば、図10に示す第3検出処理では、第1領域に対する第1構造検出処理(S24)と、その他の第2領域に対する第2構造検出処理(S25)が実行される。しかし、S23において、三次元画像を構成する全ての二次元画像71から像領域が検出されてもよい。この場合、第2構造検出処理(S25)は省略されてもよい。
また、第1~第5検出処理で例示した複数の処理を組み合わせて実行することも可能である。例えば、図8に示す第2検出処理では、像領域以外の第2領域に対する第2構造検出処理は省略されている。しかし、第2検出処理の中で第2構造検出処理を実行することも可能である。
図6、図8、図10、図12、図14のS1で三次元画像を取得する処理は、「画像取得ステップ」の一例である。図6のS4、図8のS15、図10のS23、図12のS32、図14のS43で第1領域を抽出する処理は、「抽出ステップ」の一例である。図6のS5、図8のS17、図10のS24、図12のS33、図14のS44に示す第1構造検出処理は、「第1構造検出ステップ」の一例である。図6のS45、図10のS25、図12のS34、図14のS45に示す第2構造検出処理は、「第2構造検出ステップ」の一例である。図8のS16、図10のS21で二次元画像内の像の位置合わせを行う処理は、「二次元画像内位置合わせステップ」の一例である。図10のS22で複数の二次元画像間の位置合わせを行う処理は、「二次元画像間位置合わせステップ」の一例である。

Claims (12)

  1. 生体組織の三次元画像のデータを処理する医療画像処理装置であって、
    前記医療画像処理装置の制御部は、
    組織の三次元画像を取得する画像取得ステップと、
    取得された前記三次元画像から、一部の領域である第1領域を抽出する抽出ステップと、
    機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに、前記抽出ステップにおいて抽出された前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、
    前記三次元画像の全領域のうち、前記抽出ステップにおいて前記第1領域として抽出されなかった第2領域における前記特定の構造を、前記第1領域に対して前記数学モデルによって出力された前記特定の構造の検出結果に基づいて検出する第2構造検出ステップと、
    を実行することを特徴とする医療画像処理装置。
  2. 生体組織の三次元画像のデータを処理する医療画像処理装置であって、
    前記医療画像処理装置の制御部は、
    組織の三次元画像を取得する画像取得ステップと、
    取得された前記三次元画像を構成する複数の二次元画像の各々から、一部の領域である第1領域を抽出する抽出ステップと、
    機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに、前記抽出ステップにおいて抽出された前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、
    を実行することを特徴とする医療画像処理装置。
  3. 生体組織の三次元画像のデータを処理する医療画像処理装置であって、
    前記医療画像処理装置の制御部は、
    組織の三次元画像を取得する画像取得ステップと、
    取得された前記三次元画像に含まれる複数の二次元画像のうちの一部を第1領域として抽出する抽出ステップと、
    機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに、前記抽出ステップにおいて抽出された前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、
    を実行し、
    前記制御部は、
    前記三次元画像に含まれる前記複数の二次元画像のうち、一部の基準画像を前記第1領域として前記抽出ステップおよび前記第1構造検出ステップを実行した後に、
    前記複数の二次元画像のうち、前記基準画像との間の類似度が閾値未満である二次元画像を前記第1領域として前記抽出ステップおよび前記第1構造検出ステップを実行することを特徴とする医療画像処理装置。
  4. 生体組織の三次元画像のデータを処理する医療画像処理装置であって、
    前記医療画像処理装置の制御部は、
    組織の三次元画像を取得する画像取得ステップと、
    取得された前記三次元画像に含まれる複数の二次元画像のうちの一部を第1領域として抽出する抽出ステップと、
    機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに、前記抽出ステップにおいて抽出された前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、
    を実行し、
    前記制御部は、前記抽出ステップにおいて、
    前記三次元画像の画像領域内に注目位置を設定し、
    設定した前記注目位置を基準として、複数の二次元画像の抽出パターンを設定し、
    前記三次元画像から、設定した抽出パターンに合致する複数の二次元画像を、前記第1領域として抽出することを特徴とする医療画像処理装置。
  5. 生体組織の三次元画像のデータを処理する医療画像処理装置によって実行される医療画像処理プログラムであって、
    前記医療画像処理プログラムが前記医療画像処理装置の制御部によって実行されることで、
    組織の三次元画像を取得する画像取得ステップと、
    取得された前記三次元画像から、一部の領域である第1領域を抽出する抽出ステップと、
    機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに、前記抽出ステップにおいて抽出された前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、
    前記三次元画像の全領域のうち、前記抽出ステップにおいて前記第1領域として抽出されなかった第2領域における前記特定の構造を、前記第1領域に対して前記数学モデルによって出力された前記特定の構造の検出結果に基づいて検出する第2構造検出ステップと、
    を前記医療画像処理装置に実行させることを特徴とする医療画像処理プログラム。
  6. 生体組織の三次元画像のデータを処理する医療画像処理装置によって実行される医療画像処理プログラムであって、
    前記医療画像処理プログラムが前記医療画像処理装置の制御部によって実行されることで、
    組織の三次元画像を取得する画像取得ステップと、
    取得された前記三次元画像を構成する複数の二次元画像の各々から、一部の領域である第1領域を抽出する抽出ステップと、
    機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに、前記抽出ステップにおいて抽出された前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、
    を前記医療画像処理装置に実行させることを特徴とする医療画像処理プログラム。
  7. 生体組織の三次元画像のデータを処理する医療画像処理装置によって実行される医療画像処理プログラムであって、
    前記医療画像処理プログラムが前記医療画像処理装置の制御部によって実行されることで、
    組織の三次元画像を取得する画像取得ステップと、
    取得された前記三次元画像に含まれる複数の二次元画像のうちの一部を第1領域として抽出する抽出ステップと、
    機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに、前記抽出ステップにおいて抽出された前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、
    を前記医療画像処理装置に実行させ、
    前記三次元画像に含まれる前記複数の二次元画像のうち、一部の基準画像を前記第1領域として前記抽出ステップおよび前記第1構造検出ステップが実行された後に、
    前記複数の二次元画像のうち、前記基準画像との間の類似度が閾値未満である二次元画像を前記第1領域として前記抽出ステップおよび前記第1構造検出ステップが実行されることを特徴とする医療画像処理プログラム。
  8. 生体組織の三次元画像のデータを処理する医療画像処理装置によって実行される医療画像処理プログラムであって、
    前記医療画像処理プログラムが前記医療画像処理装置の制御部によって実行されることで、
    組織の三次元画像を取得する画像取得ステップと、
    取得された前記三次元画像に含まれる複数の二次元画像のうちの一部を第1領域として抽出する抽出ステップと、
    機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに、前記抽出ステップにおいて抽出された前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、
    を前記医療画像処理装置に実行させ、
    前記抽出ステップにおいて、
    前記三次元画像の画像領域内に注目位置が設定され、
    設定された前記注目位置を基準として、複数の二次元画像の抽出パターンが設定され、
    前記三次元画像から、設定された抽出パターンに合致する複数の二次元画像が、前記第1領域として抽出されることを特徴とする医療画像処理プログラム。
  9. 生体組織の三次元画像のデータを処理する医療画像処理システムにおいて実行される医療画像処理方法であって、
    前記医療画像処理システムは、ネットワークを介して互いに接続された第1画像処理装置および第2画像処理装置を含み、
    前記第1画像処理装置が、組織の三次元画像を取得する画像取得ステップと、
    前記第1画像処理装置が、前記三次元画像から、一部の領域である第1領域を抽出する抽出ステップと、
    前記第1画像処理装置が、前記抽出ステップにおいて抽出された前記第1領域を前記第2画像処理装置に送信する送信ステップと、
    前記第2画像処理装置が、機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、
    前記第2画像処理装置が、前記三次元画像の全領域のうち、前記抽出ステップにおいて前記第1領域として抽出されなかった第2領域における前記特定の構造を、前記第1領域に対して前記数学モデルによって出力された前記特定の構造の検出結果に基づいて検出する第2構造検出ステップと、
    を含むことを特徴とする医療画像処理方法。
  10. 生体組織の三次元画像のデータを処理する医療画像処理システムにおいて実行される医療画像処理方法であって、
    前記医療画像処理システムは、ネットワークを介して互いに接続された第1画像処理装置および第2画像処理装置を含み、
    前記第1画像処理装置が、組織の三次元画像を取得する画像取得ステップと、
    前記第1画像処理装置が、前記三次元画像を構成する複数の二次元画像の各々から、一部の領域である第1領域を抽出する抽出ステップと、
    前記第1画像処理装置が、前記抽出ステップにおいて抽出された前記第1領域を前記第2画像処理装置に送信する送信ステップと、
    前記第2画像処理装置が、機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、
    を含むことを特徴とする医療画像処理方法。
  11. 生体組織の三次元画像のデータを処理する医療画像処理システムにおいて実行される医療画像処理方法であって、
    前記医療画像処理システムは、ネットワークを介して互いに接続された第1画像処理装置および第2画像処理装置を含み、
    前記第1画像処理装置が、組織の三次元画像を取得する画像取得ステップと、
    前記第1画像処理装置が、前記三次元画像に含まれる複数の二次元画像のうちの一部を第1領域として抽出する抽出ステップと、
    前記第1画像処理装置が、前記抽出ステップにおいて抽出された前記第1領域を前記第2画像処理装置に送信する送信ステップと、
    前記第2画像処理装置が、機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、
    を含み、
    前記三次元画像に含まれる前記複数の二次元画像のうち、一部の基準画像を前記第1領域として前記抽出ステップおよび前記第1構造検出ステップが実行された後に、
    前記複数の二次元画像のうち、前記基準画像との間の類似度が閾値未満である二次元画像を前記第1領域として前記抽出ステップおよび前記第1構造検出ステップが実行されることを特徴とする医療画像処理方法。
  12. 生体組織の三次元画像のデータを処理する医療画像処理システムにおいて実行される医療画像処理方法であって、
    前記医療画像処理システムは、ネットワークを介して互いに接続された第1画像処理装置および第2画像処理装置を含み、
    前記第1画像処理装置が、組織の三次元画像を取得する画像取得ステップと、
    前記第1画像処理装置が、前記三次元画像に含まれる複数の二次元画像のうちの一部を第1領域として抽出する抽出ステップと、
    前記第1画像処理装置が、前記抽出ステップにおいて抽出された前記第1領域を前記第2画像処理装置に送信する送信ステップと、
    前記第2画像処理装置が、機械学習アルゴリズムによって訓練されており、且つ、入力された画像に写る前記組織の特定の構造の検出結果を出力する数学モデルに前記第1領域を入力することで、前記第1領域における前記特定の構造の検出結果を取得する第1構造検出ステップと、
    を含み、
    前記抽出ステップにおいて、
    前記三次元画像の画像領域内に注目位置が設定され、
    設定された前記注目位置を基準として、複数の二次元画像の抽出パターンが設定され、
    前記三次元画像から、設定された抽出パターンに合致する複数の二次元画像が、前記第1領域として抽出されることを特徴とする医療画像処理方法。
JP2023510719A 2021-03-31 2022-03-04 医療画像処理装置、医療画像処理プログラム、および医療画像処理方法 Active JP7439990B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021059329 2021-03-31
JP2021059329 2021-03-31
PCT/JP2022/009329 WO2022209574A1 (ja) 2021-03-31 2022-03-04 医療画像処理装置、医療画像処理プログラム、および医療画像処理方法

Publications (3)

Publication Number Publication Date
JPWO2022209574A1 JPWO2022209574A1 (ja) 2022-10-06
JPWO2022209574A5 JPWO2022209574A5 (ja) 2023-09-29
JP7439990B2 true JP7439990B2 (ja) 2024-02-28

Family

ID=83458589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023510719A Active JP7439990B2 (ja) 2021-03-31 2022-03-04 医療画像処理装置、医療画像処理プログラム、および医療画像処理方法

Country Status (3)

Country Link
US (1) US20240020839A1 (ja)
JP (1) JP7439990B2 (ja)
WO (1) WO2022209574A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116071350B (zh) * 2023-03-06 2023-07-04 同心智医科技(北京)有限公司 基于深度学习的大脑微出血识别方法、装置及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020026535A1 (ja) 2018-08-03 2020-02-06 株式会社ニデック 眼科画像処理装置、oct装置、および眼科画像処理プログラム
WO2020036182A1 (ja) 2018-08-14 2020-02-20 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
WO2020137678A1 (ja) 2018-12-27 2020-07-02 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2020121037A (ja) 2019-01-31 2020-08-13 株式会社ニデック 眼科画像処理装置、および眼科画像処理プログラム
US20200327663A1 (en) 2019-04-11 2020-10-15 HONGBOG Inc. Method of analyzing iris image for diagnosing dementia in artificial intelligence
JP2021037239A (ja) 2019-09-05 2021-03-11 キヤノン株式会社 領域分類方法
JP2021037177A (ja) 2019-09-04 2021-03-11 株式会社ニデック 眼科画像処理プログラムおよび眼科画像処理装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020026535A1 (ja) 2018-08-03 2020-02-06 株式会社ニデック 眼科画像処理装置、oct装置、および眼科画像処理プログラム
WO2020036182A1 (ja) 2018-08-14 2020-02-20 キヤノン株式会社 医用画像処理装置、医用画像処理方法及びプログラム
WO2020137678A1 (ja) 2018-12-27 2020-07-02 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP2020121037A (ja) 2019-01-31 2020-08-13 株式会社ニデック 眼科画像処理装置、および眼科画像処理プログラム
US20200327663A1 (en) 2019-04-11 2020-10-15 HONGBOG Inc. Method of analyzing iris image for diagnosing dementia in artificial intelligence
JP2021037177A (ja) 2019-09-04 2021-03-11 株式会社ニデック 眼科画像処理プログラムおよび眼科画像処理装置
JP2021037239A (ja) 2019-09-05 2021-03-11 キヤノン株式会社 領域分類方法

Also Published As

Publication number Publication date
US20240020839A1 (en) 2024-01-18
JPWO2022209574A1 (ja) 2022-10-06
WO2022209574A1 (ja) 2022-10-06

Similar Documents

Publication Publication Date Title
JP7332463B2 (ja) 制御装置、光干渉断層撮影装置、光干渉断層撮影装置の制御方法、及びプログラム
WO2020026535A1 (ja) 眼科画像処理装置、oct装置、および眼科画像処理プログラム
JP7439990B2 (ja) 医療画像処理装置、医療画像処理プログラム、および医療画像処理方法
WO2021106967A1 (ja) 眼底画像処理装置および眼底画像処理プログラム
WO2021100694A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JPWO2019207800A1 (ja) 眼科画像処理装置および眼科画像処理プログラム
JP6703319B1 (ja) 眼科画像処理装置、およびoct装置
JP2023115058A (ja) 眼科画像処理装置、および眼科画像処理プログラム
WO2021020419A1 (ja) 医療画像処理装置および医療画像処理プログラム
JPWO2020116351A1 (ja) 診断支援装置、および診断支援プログラム
JP7328489B2 (ja) 眼科画像処理装置、および眼科撮影装置
JP7147888B2 (ja) 眼科画像処理装置、oct装置、および眼科画像処理プログラム
JP6747617B2 (ja) 眼科画像処理装置、およびoct装置
JP2021074095A (ja) 眼科画像処理装置および眼科画像処理プログラム
JP2022138552A (ja) 眼科画像処理装置、眼科画像処理プログラム、および眼科画像撮影装置
WO2023281965A1 (ja) 医療画像処理装置、および医療画像処理プログラム
WO2020241794A1 (ja) 眼科画像処理装置、眼科画像処理プログラム、および眼科画像処理システム
JP7210927B2 (ja) 眼科画像処理装置、oct装置、および眼科画像処理プログラム
JP7180187B2 (ja) 眼科画像処理装置、oct装置、および眼科画像処理プログラム
JP7468163B2 (ja) 眼科画像処理プログラムおよび眼科画像処理装置
JP7435067B2 (ja) 眼科画像処理装置および眼科画像処理プログラム
WO2021045019A1 (ja) 眼科画像処理プログラムおよび眼科画像処理装置
US20240221160A1 (en) Ophthalmic image processing device, oct device, and non-transitory computer-readable storage medium
JP7302184B2 (ja) 眼科画像処理装置、および眼科画像処理プログラム
JP6720267B2 (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230901

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230901

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240129

R150 Certificate of patent or registration of utility model

Ref document number: 7439990

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150