JP5982726B2 - ボリュームデータ解析システム及びその方法 - Google Patents

ボリュームデータ解析システム及びその方法 Download PDF

Info

Publication number
JP5982726B2
JP5982726B2 JP2014554042A JP2014554042A JP5982726B2 JP 5982726 B2 JP5982726 B2 JP 5982726B2 JP 2014554042 A JP2014554042 A JP 2014554042A JP 2014554042 A JP2014554042 A JP 2014554042A JP 5982726 B2 JP5982726 B2 JP 5982726B2
Authority
JP
Japan
Prior art keywords
cluster
data
target
learning
volume data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014554042A
Other languages
English (en)
Other versions
JPWO2014103061A1 (ja
Inventor
琢磨 柴原
琢磨 柴原
崇文 小池
崇文 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Application granted granted Critical
Publication of JP5982726B2 publication Critical patent/JP5982726B2/ja
Publication of JPWO2014103061A1 publication Critical patent/JPWO2014103061A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52023Details of receivers
    • G01S7/52036Details of receivers using analysis of echo signal for target characterisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Computer Graphics (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physiology (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Image Analysis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Pulmonology (AREA)

Description

本発明は、三次元ボリュームデータから目標物を抽出するボリュームデータ解析システム及びその方法に関する。
医用分野において、人体内部の情報を可視化する医用画像処理装置が急速に普及しつつあり、様々な診断に用いられている。医用画像処理装置に用いられるモダリティとしては、例えば、X線CT(Computed Tomography)、PET(Positron Emission Tomography)、MRI(Magnetic Resonance Imaging)、US(Ultrasonography)などがあり、これらモダリティは、三次元的なボリュームデータを得ることができる。
モダリティとして、X線CTを用い、X線CTで得られた肝臓のボリュームデータを画像として可視化することで、医師は、肝臓がんの有無や進行度合いを診断することができる。
さらに、近年では、医師の負担を軽減することを目的として、ボリュームデータから、がん等に代表される疾患を自動で検出する自動検出装置(以降、CAD:Computer Aided Diagnosisと称することがある。)の開発が進んでいる。しかしながら、人体の内部は極めて複雑な構造であるため、自動検出装置を用いて得られた検出結果には誤りが生じてしまう場合がある。また、ボリュームデータには、モダリティに応じて特有のノイズが混入することがあり、ノイズによっては、自動検出装置で疾患を自動検出することが困難となる。そこで、現在、医師と同程度に正しく、疾患を検出可能な自動検出装置の開発が強く望まれている。なお、ボリュームデータから目標物を検出する技術は、例えば、以下の特許文献1、2に開示されている。
特開2009−22342号公報 特許4388121号公報
特許文献1によれば、ボリュームデータから目標物を抽出するに際して、目標物の大きさを閾値で判別する閾値処理を行っているので、ボリュームデータに含まれるノイズ成分を除去することができる。しかし、目標物が、非ノイズ領域に存在していても、その大きさが閾値以下の場合には、除去されてしまう課題がある。また、閾値の設定を行う作業が煩雑であり、装置の使用者となる医師や技師(以降、ユーザと呼称する。)の負担が大きい。さらに、異なる複数種類の尺度ごとに閾値を設定しなければならない。
特許文献2によれば、ポリープ検出を行う特徴量に三次元の回転依存性があり、異なる回転ごとに学習を行う必要がある。つまり、回転のパターンを増加させない場合には、検出性能が低下する可能性がある。また、パターンの回転に要する計算コストの増加が懸念される。さらに、三次元ボリュームデータのボクセル値から直接に特徴量を計算する必要があるため、計算コストが大きい。
本発明は、前記従来術の課題に鑑みて為されたものであり、その目的は、計算コストを低減することができるボリュームデータ解析システム及びその方法を提供することにある。
前記課題を解決するために、本発明は、モダリティで生成された三次元ボリュームデータをポリゴン化してポリゴンデータに変換し、前記変換されたポリゴンデータを複数のクラスタに分割し、前記各クラスタを構成するポリゴンデータを基に球面調和関数のL2ノルムベクトルを特徴ベクトルとして前記クラスタ毎に算出し、前記算出された各特徴ベクトルと、訓練データを用いた機械学習で得られた学習データとを基に、前記各クラスタがターゲットであるか否かを識別し、ターゲットであると識別されたクラスタの画像を、少なくとも画面上に表示させることを特徴とする。
本発明によれば、計算コストを低減することができる。
ボリュームデータ解析システムの構成図である。 (a)は、三次元ボリュームデータの模式図であり、(b)、(c)、(d)は、三次元ボリュームデータから得られた二次元画像の構成図である。 メインプロセッサの処理を説明するためのフローチャートである。 ボリュームデータをポリゴン化した画像の表示例であって、ターゲットのみの画像の表示例を示す図である。 ボリュームデータをポリゴン化して得られた画像の表示例であって、ターゲットと非ターゲットを含む画像の表示例を示す図である。 (a)は、ノイズとして識別されたクラスタの三次元画像の表示例を示す図であり、(b)は、ノイズを示すクラスタのポリゴンデータから、N次元球面調和関数のL2ノルムベクトルの計算し、計算結果をヒストグラムとして可視化した図である。 (a)は、図6(a)に示すクラスタを90度回転させたクラスタの三次元画像の表示例を示す図であり、(b)は、図7(a)に示すクラスタのポリゴンデータから、N次元球面調和関数のL2ノルムベクトルを計算し、計算結果をヒストグラムとして可視化した例を示す図である。 サポートベクターマシンによる学習結果を可視化した画像の表示例を示す図である。 クラスタに識別ラベルが付加されたときの三次元画像の表示例を示す図である。
(実施例)
以下、本発明の一実施例を図面に基づいて説明する。図1は、ボリュームデータ解析システムの構成図である。図1において、ボリュームデータ解析システムは、複数のモダリティ10、12、14、16と、ディスプレイ18と、ネットワークプロセッサ20と、自動検出装置22とを有し、ボリュームデータから、癌などの疾患を自動的に解析することができる。各モダリティ10〜16は、それぞれネットワークプロセッサ20に接続され、ネットワークプロセッサ20は、ディスプレイ18と自動検出装置22に接続される。
自動検出装置22は、メインプロセッサ24と、メインメモリ26と、補助メモリ28と、入力装置30と、出力装置32から構成される。メインプロセッサ24は、ネットワークプロセッサ20に接続されるとともに、メインメモリ26を介して出力装置32に接続され、さらに、入力装置30を介して補助メモリ28に接続される。
各モダリティ10〜16は、それぞれ解析対象又は測定対象と信号の授受を行って、目標物(以下、ターゲットと称することがある。)に関する三次元ボリュームデータを生成する検出器として構成される。この際、モダリティ10は、X線CTで構成され、モダリティ12は、MRIで構成され、モダリティ14は、USで構成され、モダリティ16は、PETで構成される。
モダリティ10〜16のうち、一般に、ターゲットが胎児の場合には、被曝の影響を避けるために、モダリティ(US)14が用いられ、ターゲットが癌などの病巣の場合には、精密なボリュームデータを取得するために、モダリティ(X線CT)10、モダリティ(MRI)12あるいはモダリティ(PET)16が用いられる。
本実施例では、胎児を測定対象あるいは解析対象とするため、モダリティ14から得られた三次元ボリュームデータを処理する例について説明する。
モダリティ14は、例えば、超音波探触子から、胎児内部の断層面(スキャン面)に超音波を走査し、断層面の生体組織の各部位から戻ってくる反射エコー信号を受信してデジタル化し、デジタル化されたデータを断層面のフレームデータとして処理するとともに、複数のスキャン面を走査して得られたフレームデータ(各断層画像のボリュームデータ)を、三次元ボリュームデータとして生成する機能を有する。即ち、モダリティ14は、測定対象を走査して得られた反射エコー信号(被測定信号)を受信して三次元ボリュームデータを生成する機能を有する。
モダリティ14で生成された三次元ボリュームデータは、ネットワークプロセッサ20を介してメインプロセッサ24に転送される。ここで、三次元ボリュームデータは、キューブ状の三次元元配列、例えば、512×512×512ボクセルのボクセル値(2次元画像の輝度値に相当する値)としてメインメモリ26に格納される。
メインプロセッサ24は、受信した三次元ボリュームデータから画像データ(例えば、三次元ボリュームデータの値に基づいて定まる三次元形状を二次元平面に投影した三次元画像に関する画像データ)を生成するための処理を実行し、生成された画像データを、ネットワークプロセッサ20を介してディスプレイ18に転送し、転送した画像データによる三次元画像をディスプレイ18の画面上に表示させる。
ディスプレイ18は、タッチパネル機能を有する表示装置であって、メインプロセッサ24の処理結果を表示する表示装置を構成するとともに、ユーザの操作、例えば、訂正操作に応答した訂正情報などの情報を入力する入力装置としての機能を有する。
ネットワークプロセッサ20は、各モダリティ10〜16とデータまたは情報の授受を行うとともに、ディスプレイ18と情報またはデータの授受を行い、さらに、メインプロセッサ24とデータまたは情報の授受を行う。
自動検出装置22は、一般的な医用ワークステーションとして構成される。メインプロセッサ24は、例えば、CPU(Central Processing Unit)を有し、自動検出装置22全体を統括制御するコントローラとして機能する。この際、メインプロセッサ24は、モダリティ14で生成された三次元ボリュームデータとディスプレイ18や入力装置30から入力された情報を処理するコントローラとしても機能する。
メインメモリ26は、例えば、DRAM(Dynamic Random Access Memory)で構成され、三次元ボリュームデータなどを格納する記憶装置として構成される。補助メモリ28は、例えば、SSD(Solid State Drive)で構成され、補助記憶装置として機能する。入力装置30は、例えば、マウスやトラックボール、キーボードなどで構成され、ユーザからのインストラクションを受け付ける機能を有する。出力装置32は、例えば、DVD(Digital Versatile Disc)‐RW(ReWritable)ドライブで構成される。なお、入力装置30を、ユーザの操作による訂正情報を入力する入力装置として用いることもできる。
図2(a)は、三次元ボリュームデータの模式図であり、図2(b)、(c)、(d)は、三次元ボリュームデータから得られた二次元画像の構成図である。図2において、三次元ボリュームデータ100は、モダリティ14によって生成された三次元ボリュームデータであって、キューブ状の三次元配列のボクセル値で構成される。キューブ状の三次元ボリュームデータ100を水平方向に3分割した場合、三次元ボリュームデータ100からボリュームデータ101、102、103が抽出される。
図2(b)、(c)、(d)に示す画像201、202、203は、それぞれボリュームデータ101、102、103から得られた二次元画像であって、胎児の断面画像を示す。即ち、画像201、202、203は、胎児の画像を水平方向にスライスした断面図に相当する。この際、画像201、202、203では、ボクセル値の値が高い部分程白色となるように可視化されている。また、ボリュームデータ101、102、103には、ターゲットの質的な情報、例えば、骨、血管などの情報が輝度の情報として保持されている。このため、メインプロセッサ24は、三次元ボリュームデータ100のボクセル値の分布を判別することで、ターゲットを検出するための処理を実行することになる。
図3は、メインプロセッサの処理を説明するためのフローチャートである。図3において、メインプロセッサ24は、モダリティ14から三次元ボリュームデータを取得し(S11)、取得した三次元ボリュームデータをポリゴン化してポリゴンデータに変換し、変換されたポリゴンデータを複数のクラスタに分割する(S12)。この後、メインプロセッサ24は、各クラスタを構成するポリゴンデータを基に球面調和関数のL2ノルムベクトルを特徴ベクトルとしてクラスタ毎に計算し(S13)、計算された各特徴ベクトルと学習データとを比較して、各クラスタがターゲットであるか否かを識別し(S14)、各識別結果をディスプレイ18の画面上に表示するとともに、各識別結果を判定する(S15)。
この際、メインプロセッサ24は、ディスプレイ18に表示したクラスタが、ターゲットであると、即ち、識別結果が「正」であると、ユーザが判定した場合には、このルーチンでの処理を終了し、一方、ディスプレイ18に表示されたクラスタが非ターゲット、即ち、識別結果が「誤」であって、ノイズであると、ユーザが判定し、クラスタに対してタグ403が付加され、ディスプレイ18から訂正情報が入力された場合、再学習処理を実行し(S16)、その後、ステップS14の処理に戻り、ステップS14〜S15の処理を繰り返す。
以下、各ステップS11〜S16における具体的な内容について説明する。まず、ステップS11において、メインプロセッサ24は、モダリティ14から三次元ボリュームデータを取得し、取得した三次元ボリュームデータをメインメモリ26に格納する。
次に、ステップS12において、メインプロセッサ24は、メインメモリ26に格納された三次元ボリュームデータを作業エリアに読み出し、読み出した三次元ボリュームデータをポリゴン化してポリゴンデータに変換し、変換されたポリゴンデータを複数のクラスタに分割する。この際、メインプロセッサ24は、ドロネー三角形分割法や、マーチングキューブスアルゴリズム(marching cubes algorithm)などの手法のうち、例えば、計算コスト削減の観点から、マーチングキューブスアルゴリズムを採用する。この場合、メインプロセッサ24は、モダリティ14で生成された三次元ボリュームデータをポリゴン化してポリゴンデータに変換し、変換されたポリゴンデータを複数のクラスタに分割するクラスタ生成部として機能する。
なお、ポリゴンは、順序を持った三次元の頂点座標群からなる多角形である。通常、ポリゴンを構成する多角形のうち、三角形をポリゴンとして用いる。また、クラスタは、多角形(三角形)の頂点が互いに連結されるポリゴンの集まりである。各クラスタは、各クラスタのポリゴンに属するポリゴンデータによって構成される。
図4は、ボリュームデータをポリゴン化した画像の表示例であって、ターゲットのみの画像の表示例を示す図である。図4において、ディスプレイ18の画面上には、メインプロセッサ24が、ターゲットであると識別したクラスタ、例えば、クラスタ401の画像が、三次元画像として模式的に表示される。
図5は、ボリュームデータをポリゴン化して得られた画像の表示例であって、ターゲットと非ターゲットを含む画像の表示例を示す図である。図5において、ディスプレイ18の画面上には、メインプロセッサ24が、ターゲットであると識別したクラスタ、例えば、クラスタ401の画像が、三次元画像として模式的に表示されると共に、メインプロセッサ24が、ターゲットであると識別したクラスタであるが、非ターゲットに相当するクラスタ、例えば、クラスタ402、403の画像が、三次元画像として模式的に表示される。なお、図4と図5では、各クラスタの頂点の巡回方向によって表裏を表現することができ、本実施例では、反時計回りの巡回を表とし、時計回りの巡回を裏としている。
ここで、ディスプレイ18にクラスタ402、403の画像が表示され、ユーザが、クラスタ402、403を、ノイズを示す画像であって、非ターゲットであると判定した場合、ユーザは、タッチ操作で、例えば、クラスタ402に、クラスタ402を非ターゲットに特定するための識別ラベルとして、タグ404を付加することができる。このタグ404の情報は、ユーザの訂正操作に伴う訂正情報として、ネットワークプロセッサ20を介してメインプロセッサ24に入力される。この場合、後述するように、メインプロセッサ24は、入力された訂正情報を基に、機械学習アルゴリズムを用いた再学習処理を実行する。
次に、ステップS13において、メインプロセッサ24は、各クラスタの特徴ベクトルを計算し、計算で得られた各特徴ベクトルを1次元の配列としてメインメモリ26に保持する。特徴ベクトルを計算するに際しては、本実施例では、球面調和関数に基づく回転不変な特徴量を利用することとしているが、他の様々な特徴量を併用することで、より高精度な識別を行うことが可能となる。
特徴ベクトルが保持する特徴量を算出する手法としては、まず、(1)クラスタの体積、(2)クラスタが内包するボリュームデータの平均値、(3)クラスタが内包するボリュームデータの分散を算出する手法が挙げられる。また、特徴ベクトルが保持する特徴量を算出する手法としては、(4)クラスタが内包するボリュームデータのヒストグラムを算出する手法が挙げられる。この手法を用いる場合、クラスタが内包するボリュームデータのボクセル値を25段階に量子化することで、ヒストグラムを特徴ベクトルに追加することができる。
また、特徴ベクトルが保持する特徴量を算出する手法としては、(5)クラスタが内包するポリゴンデータの平均曲率、(6)クラスタが内包するポリゴンデータのガウス曲率を算出する手法が挙げられる。さらに、(7)クラスタのポリゴンデータから球面調和関数の係数であるL2ノルムのベクトルを算出する手法が挙げられる。L2ノルムのベクトルを算出する場合、例えば、20次元のL2ノルムのベクトルを計算し、計算結果を特徴ベクトルに追加する手法を用いることができる。
特徴ベクトルが保持する特徴量を算出するに際して、(1)〜(7)のいずれかの手法を用いた場合、1つのクラスタの特徴ベクトルは50次元となる。この際、計算コストを軽減する場合には、(1)〜(7)の手法を全て用いるのではなく、いくつかの手法を組み合わせて用いることもできる。この際、本実施例では、高い識別性能を達成するために、(7)の手法であって、球面調和関数に基づく回転不変な特徴量を算出する手法を基本として用い、(1)〜(6)のいずれかの手法を組み合わせることとしている。
なお、図2に示す三次元ボリュームデータ100をポリゴン化してクラスタを生成した際に、144個のクラスタが存在した場合、特徴ベクトルの数も145個となる。ボリュームデータをポリゴン化してポリゴンデータに変換し、変換されたポリゴンデータを用いて特徴ベクトルを計算する方法を採用した場合、ボリュームデータを全て探索する必要がないため、ボリュームデータから直接特徴ベクトルを計算する方法よりも、計算コストが大幅に削減される。なお、特徴ベクトルの各次元の値は、値域が大きく異なるため、補正処理が実施される。補正処理の例としては、値が、0〜1となるように、スケーリングを行うことで、定数での打ち切りや対数スケーリングなどを行うことができる。
以下、(7)の手法を用いて、球面調和関数から特徴量を算出する方法について説明する。
球面調和関数y (ω)は、次式で与えられる。
上記(数1)式における各パラメタータの意味を説明すると、正規化係数K は、次式で与えられる。
であり、lは、球面調和関数の次数、P は、Legendre陪関数であり、mは、-l≦m≦lを満たす整数であり、ωは、角度(θ,φ)の組みによって表され、
ω=(sinθcosφ,sinθsinφ,cosθ)となる方向である。
ここで、1つのクラスタを例に、球面調和関数に基づく特徴量の算出方法について説明する。
図6(a)は、ノイズとして識別されたクラスタの三次元画像の表示例を示す図である。図6(a)において、複数のポリゴンで構成されたクラスタ403は、ノイズとして識別されたクラスタである。クラスタ403に関する特徴量を算出するに際して、メインプロセッサ24は、クラスタ403についてスケーリング処理を行う。
スケーリング処理においては、1つのクラスタ403を構成するポリゴンデータの三次元座標値を、そのクラスタ自身の重心を原点とした座標系に変換した後、ポリゴンの頂点座標を拡大(もしくは、縮小)することで、一定サイズに変換する。ケーリング処理の際には、縦横比を変更しないように、調整を行うものとする。このスケーリング処理を行うことにより、クラスタの大きさに関わらず、安定した識別処理を行うことが可能となる。なお、スケーリング処理の例として、本システムでは、長軸(クラスタの最大幅)が1となるように縮小(もしくは、拡大)する。ススケーリング処理後は、以下の処理を実行する。
変換後のクラスタの座標値(x,y,z)について、原点から方向を次式で示す。
なお、k(k=1,…,K)は、クラスタを座標値のインデックスを表し、Kは1つのクラスタ内の全頂点数である。このとき、インデックスkのN次元球面調和関数のL2ノルムベクトルは、次式で表され、(7)の手法で得られた特徴量として、特徴ベクトルに追加される。
ポリゴンデータから、上記(数4)式により、N次元球面調和関数のL2ノルムベクトルを計算し、計算結果をヒストグラムとして可視化した例を図6(b)に示す。
図6(b)は、ノイズを示すクラスタのポリゴンデータから、N次元球面調和関数のL2ノルムベクトルの計算し、計算結果をヒストグラムとして可視化した図である。図6(b)において、各ヒストグラムは、ノイズを示すクラスタ403のポリゴンデータから得られたヒストグラムであって、1次元から20次元のヒストグラムを示す。なお、図6(b)において、水平方向は、特徴ベクトルの次元nを示し、垂直方向は、球面調和関数のL2ノルムの値を示す。
図7(a)は、図6(a)に示すクラスタを90度回転させたクラスタ403の三次元画像の表示例を示す図である。
図7(b)は、図7(a)に示すクラスタ403のポリゴンデータから、(数4)式により、N次元球面調和関数のL2ノルムベクトルを計算し、計算結果をヒストグラムとして可視化した例を示す図である。
本実施例では、ポリゴンデータから、(数4)式を用いて、N次元球面調和関数のL2ノルムベクトルを計算しているので、クラスタ403を90度回転させた場合でも、同一のクラスタ403から計算された球面調和関数のL2ノルムベクトルは等しくなる。即ち、図6(b)に示す、各次元のヒストグラムの値と、図7(b)に示す、各次元のヒストグラムの値は、等しくなる。
ここで、厳密ではないが、上記処理では、クラスタ403を様々な形状の球に分解し、分解された様々な球がどれだけの割合で含まれているかを計算する処理が行われることになる。この際、(数4)式を用い、次元の項を、次元が増加する毎に順次加算することで、回転依存性を除去することができる。また、球面調和関数による分解は、いわば、球を利用したフーリエ変換に相当する。
この際、メインプロセッサ24は、各クラスタを構成するポリゴンデータを基に球面調和関数のL2ノルムベクトルを特徴ベクトルとしてクラスタ毎に算出する特徴ベクトル算出部として機能する。
マーチングキューブスアルゴリズムと球面調和関数とを組み合わせて特徴量を計算する手法には、以下の利点がある。
マーチングキューブスアルゴリズムによるポリゴン化には位相的な穴が生じるという欠点があることが知られている。しかし、特徴ベクトルが保持する特徴量を算出するに際して、クラスタの球面調和関数のL2ノルムベクトルの値を計算する手法を採用した場合、位相的な穴が開いたクラスタに関する計算結果と、位相的な穴が生じていないクラスタに関する計算結果との間には、変化が現れるため、他の特徴量を用いた場合よりも、効果的に位相的な穴を除去することができる。さらに、マーチングキューブスアルゴリズムを用いて可視化した際には、穴開きクラスタが可視化された状態で表示されるので、ユーザは、穴開きクラスタを、効率良く除去することが可能である。
次に、ステップ14では、特徴ベクトルから識別ラベルデータを生成する処理が実行される。この際、機械学習を用いて特徴ベクトルからターゲットの識別が実施される。この機械学習の手法としては、例えば、ニューラルネットワーク、アダブースト(AdaBoost)、サポートベクターマシン(SVM:Support Vector Machine)を用いることができる。本実施例では、識別精度の高さと説明の容易さから、SVM(サポートベクターマシン)による多値識別の例について説明する。初めに、単一カーネルのSVMの定義式を以下に示す。
ここで、αは、最適化変数であり、t(t∈−1,1)は、目標値を表しており、t=1の時にターゲットとする。そして、K(x,x)は、カーネルであり、xは、特徴ベクトルである。なお、各変数の添字i、jは、特徴ベクトルのインデックスを表し、次元ではない。上記(数5)式において、α≠0と付随する特徴ベクトル(一般に、サポートベクターと呼ばれる)の組みとなるXを、学習データとする。なお、一般に、機械学習による識別では、訓練データ(αとx,tの組み)を基に、予め学習を行う必要がある。
そこで、本実施例では、メインプロセッサ24が、SVM(サポートベクターマシン)を用いて、事前に学習処理を実行し、学習結果を、学習データとして訓練データとともに保存しておく。なお、(数5)式は、単一カーネルのSVMであるが、複数の異なるカーネルに拡張したマルチカーネルSVMを用いることで、さらに高精度な識別を行うこともできる。マルチカーネルSVMにおいては、特徴ベクトルの次元k毎に、重みを変えて学習を行った後に、識別処理を実施することが可能となるため、特徴ベクトルに、異なる種類の特徴量を用いる際に好適である。
図8は、サポートベクターマシンによる学習結果を可視化した画像の表示例を示す図である。なお、高次元の可視化は容易でないため、本実施例では、50次元の特徴ベクトルを利用し、そのうち2次元だけを抽出し、抽出した特徴ベクトルの画像を可視化した例を図8に示してある。
図8の縦軸は、1つの次元であり、図8の横軸は、他の1つの次元である。図8において、四角で描画されている点は、ターゲット501を表しており、三角で描画されている点は、非ターゲット502を表している。また丸で描画されている点は、ターゲット501と非ターゲット502との境の近傍に位置する訓練点503、504であって、サポートベクターを意味する。曲線で描画されている線は、学習データによって計算された識別境界505、506である。識別境界505、506とは、ターゲット501と非ターゲット502とを識別するための境界であり、サポートベクター(訓練点503、504)を基準として、その距離が最も大きくなるような位置に計算される。
次に、メインプロセッサ24は、学習データとクラスタ毎の特徴ベクトルから次式を計算する。
なお、(数6)式において、bは、バイアスパラメータであり、学習データから算出可能である。また、(数6)式の値が、正であれば、ターゲットを示すラベルが付与される。
例えば、(数6)式の値が正であれば、そのクラスタは、ターゲット501であると識別され、(数6)式の値が負であれば、そのクラスタは、非ターゲット502であると識別される。
ここで、ターゲットの種類が複数種類存在する場合、複数の学習データを準備し、多クラスタ問題として、1対多方式もしくは、1対1方式を用いて解く方法を採用することができる。例えば、クラスタの種類を3クラスに分類する場合には、メインプロセッサ24は、クラスタをターゲットまたは非ターゲットに識別するとともに、ターゲットと識別されたクラスタを2種類に分類することができる。この際、ラベルデータとしては、タプルを要素とした1次元配列のものを用いることができる。また、識別に用いるラベルとしては、例えば、クラスAのラベルは、胎児領域を意味し、クラスBのラベルは、子宮領域を意味し、非ターゲットのラベルは、非ターゲット領域を意味するラベルを用いることができる。そして、識別に用いられるラベルのデータは、識別ラベルデータとしてメインメモリ26に保存される。
次に、ステップ15では、識別ラベルデータに基づいて各クラスタを可視化するための処理が実行される。
図9は、クラスタに識別ラベルが付加されたときの三次元画像の表示例を示す図である。図9において、クラスタ401には、非ターゲットを示すターゲット外ラベル601が付加され、クラスタ402には、クラスAのターゲットを示すターゲットラベル402が付加されている。
ユーザは、クラスタ402がノイズであると判定した場合、ディスプレイ18のタッチパネル操作によってタグ403を付加することで、クラスタ402を非ターゲットに訂正するための訂正情報を入力することができる。この際、メインプロセッサ24は、ターゲットラベル602をターゲット外ラベルに補正して表示し、クラスタ402のラベルデータを、ターゲットを示すラベルデータから、非ターゲットを示すラベルデータに補正し、補正されたラベルデータをメインメモリ26に保存する。
また、ユーザが、クラスタ401をターゲットであると判定し、ディスプレイ18上のタッチパネル操作により、ターゲット外ラベル601からターゲットラベル602に訂正するための操作が実行された場合、メインプロセッサ24は、クラスタ401のラベルデータを、非ターゲットを示すラベルデータからターゲットを示すラベルデータに補正し、補正されたラベルデータをメインメモリ26に保存する。
次に、ステップ16では、再学習処理が実行される。この際、メインプロセッサ24は、補正されたラベルデータと特徴ベクトルと、訓練データに基づいて、ターゲットの再学習を実施することで、学習データを新規学習データとして生成する。この場合、メインプロセッサ24は、事前学習時に保存しておいた訓練データに、補正されたラベルデータおよび特徴ベクトルを追加し、(数5)式を基にパラメータ(最適化変数)を最適化し、最適化後に得られた学習データをメインメモリ26に保存し、ステップ14の処理を再度実行する。
ここで、メインプロセッサ24は、各クラスタを構成するポリゴンデータを基に球面調和関数のL2ノルムベクトルを特徴ベクトルとしてクラスタ毎に算出する特徴ベクトル算出部と、特徴ベクトル算出部の算出による各特徴ベクトルと、訓練データを用いた機械学習で得られた学習データとを基に、各クラスタがターゲットであるか否かを識別する識別部と、クラスタ生成部の生成による各クラスタのうち、識別部でターゲットであると識別されたクラスタの画像を、当該各クラスタを構成するポリゴンデータから生成し、少なくとも当該生成した画像をディスプレイ18に表示させる画像生成部として機能する。
また、メインプロセッサ24は、ディスプレイ18から、ディスプレイ18に画像表示されたクラスタのうちいずれかのクラスタを訂正するための訂正情報が入力された場合、当該入力された訂正情報で指定されたクラスタをターゲット又は非ターゲットに訂正する訂正部と、特徴ベクトル計算部の計算による特徴ベクトルのうち、訂正部で訂正されたクラスタの特徴ベクトルと、当該クラスタに関する訂正部の訂正結果を基に学習データを再学習して、新規学習データを生成する再学習部として機能する。
この際、メインプロセッサ24は、再学習部で新規学習データが生成された場合、特徴ベクトル算出部の算出による特徴ベクトルのうち、訂正部で訂正されたクラスタの特徴ベクトルと再学習部で生成された新規学習データとを基に、訂正部で訂正されたクラスタが、ターゲットであるか否かを識別し、当該識別結果を画像生成部に出力する識別部としても機能する。
また、メインプロセッサ24は、ディスプレイ18から入力された訂正情報が、ディスプレイ18に画像表示されたクラスタを非ターゲットに訂正するための訂正情報である場合、入力された訂正情報で指定されたクラスタを非ターゲットに訂正し、ディスプレイ18から入力された訂正情報が、ディスプレイ18に画像表示されたクラスタをターゲットに訂正するための訂正情報である場合、入力された訂正情報で指定されたクラスタをターゲットに訂正する訂正部として機能する。
また、メインプロセッサ24は、学習データとして、ターゲットの種類に応じた複数種類の学習データを用いた場合、複数種類の学習データと特徴ベクトル算出部の算出による各特徴ベクトルとを基に、各クラスタがターゲットであるか否かを識別すると共に、識別結果に応じたラベルデータを付加する識別部と、ディスプレイ18に画像表示されたクラスタに、識別部の識別結果に付加されたラベルデータに応じた識別ラベルを表示させる画像生成部として機能する。
本実施例によれば、ボリュームデータをポリゴン化し、ポリゴン化されたポリゴンデータの球面調和関数を計算して特徴ベクトルを求めているので、計算コストを大幅に削減することができる。また、ボリュームデータからターゲットの領域のみを検出し、検出したターゲットの画像を可視化することができので、誤検出が低下する。さらに、特徴ベクトルの特徴量には、回転依存性がないため、検出精度の向上と計算コストの低減を両立させることができる。また、計算コストが低いため、高速に結果を得ることができる。
以上の効果により、医師や技師の負担を軽減し、医療の質的向上に寄与することができる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能等は、それらの一部又は全部を、例えば、集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、IC(Integrated Circuit)カード、SD(Secure Digital)メモリカード、DVD(Digital Versatile Disc)等の記録媒体に記録して置くことができる。
10、12、14、16 モダリティ、18 ディスプレイ、20 ネットワークプロセッサ、22 自動検出装置、24 メインプロセッサ、26 メインメモリ、28 補助メモリ、30 入力装置、32 出力装置。

Claims (10)

  1. 測定対象を走査して得られた被測定信号を受信して三次元ボリュームデータを生成するモダリティと、
    操作による情報を入力する入力装置と、
    前記モダリティで生成された三次元ボリュームデータと前記入力装置から入力された情報を処理するコントローラと、
    前記コントローラの処理結果を表示する表示装置と、を有し、
    前記コントローラは、
    前記モダリティで生成された三次元ボリュームデータをポリゴン化してポリゴンデータに変換し、前記変換されたポリゴンデータを複数のクラスタに分割するクラスタ生成部と、
    前記各クラスタを構成するポリゴンデータを基に球面調和関数のL2ノルムベクトルを特徴ベクトルとして前記クラスタ毎に算出する特徴ベクトル算出部と、
    前記特徴ベクトル算出部の算出による各特徴ベクトルと、訓練データを用いた機械学習で得られた学習データとを基に、前記各クラスタがターゲットであるか否かを識別する識別部と、
    前記クラスタ生成部の生成による各クラスタのうち、前記識別部でターゲットであると識別されたクラスタの画像を、当該各クラスタを構成するポリゴンデータから生成し、少なくとも当該生成した画像を前記表示装置に表示させる画像生成部と、を含むことを特徴とするボリュームデータ解析システム。
  2. 前記コントローラは、
    前記入力装置から、前記表示装置に画像表示されたクラスタのうちいずれかのクラスタを訂正するための訂正情報が入力された場合、当該入力された訂正情報で指定されたクラスタをターゲット又は非ターゲットに訂正する訂正部と、
    前記特徴ベクトル算出部の算出による特徴ベクトルのうち、前記訂正部で訂正されたクラスタの特徴ベクトルと、当該クラスタに関する前記訂正部の訂正結果を基に前記学習データを再学習して、新規学習データを生成する再学習部と、を有し、
    前記識別部は、
    前記再学習部で前記新規学習データが生成された場合、前記特徴ベクトル算出部の算出による特徴ベクトルのうち、前記訂正部で訂正されたクラスタの特徴ベクトルと、前記再学習部で生成された新規学習データとを基に、前記訂正部で訂正されたクラスタが、ターゲットであるか否かを識別し、当該識別結果を前記画像生成部に出力することを特徴とする請求項1に記載のボリュームデータ解析システム。
  3. 前記識別部は、
    前記学習データとして、前記ターゲットの種類に応じた複数種類の学習データを用いる場合、前記複数種類の学習データと前記特徴ベクトル算出部の算出による各特徴ベクトルとを基に、前記各クラスタがターゲットであるか否かを識別すると共に、前記各識別結果に、当該識別結果に応じたラベルデータを付加し、
    前記画像生成部は、
    前記表示装置に画像表示されたクラスタに、前記識別部の識別結果に付加されたラベルデータに応じた識別ラベルを表示させることを特徴とする請求項1に記載のボリュームデータ解析システム。
  4. 前記クラスタ生成部は、
    ドロネー三角形分割法又はマーチングキューブスアルゴリズムのいずれかを用いて、前記モダリティで生成された三次元ボリュームデータをポリゴン化してポリゴンデータに変換することを特徴とする請求項1に記載のボリュームデータ解析システム。
  5. 前記識別部は、
    前記機械学習に、サポートベクターマシン、マルチサポートベクターマシン、アダブースト、オンラインサポートベクターマシン、又はニューラルネットワークのうちいずれか一つを用いることを特徴とする請求項1に記載のボリュームデータ解析システム。
  6. 測定対象を走査して得られた被測定信号を受信して三次元ボリュームデータを生成するモダリティと、
    操作による情報を入力する入力装置と、
    前記モダリティで生成された三次元ボリュームデータと前記入力装置から入力された情報を処理するコントローラと、
    前記コントローラの処理結果を表示する表示装置と、を有するシステムにおけるボリュームデータ解析方法であって、
    前記コントローラは、
    前記モダリティで生成された三次元ボリュームデータをポリゴン化してポリゴンデータに変換し、前記変換されたポリゴンデータを複数のクラスタに分割する第1のステップと、
    前記各クラスタを構成するポリゴンデータを基に球面調和関数のL2ノルムベクトルを特徴ベクトルとして前記クラスタ毎に算出する第2のステップと、
    前記第2のステップで算出された各特徴ベクトルと、訓練データを用いた機械学習で得られた学習データとを基に、前記各クラスタがターゲットであるか否かを識別する第3のステップと、
    前記第1のステップで生成された各クラスタのうち、前記第3のステップでターゲットであると識別されたクラスタの画像を、当該各クラスタを構成するポリゴンデータから生成し、少なくとも当該生成した画像を前記表示装置に表示させる第4のステップと、を実行することを特徴とするボリュームデータ解析方法。
  7. 前記コントローラは、
    前記入力装置から、前記表示装置に画像表示されたクラスタのうちいずれかのクラスタを訂正するための訂正情報が入力された場合、当該入力された訂正情報で指定されたクラスタをターゲット又は非ターゲットに訂正する第5のステップと、
    前記第2のステップで算出された特徴ベクトルのうち、前記第5のステップで訂正されたクラスタの特徴ベクトルと、当該クラスタに関する訂正結果を基に前記学習データを再学習して、新規学習データを生成する第6のステップとを実行し、
    前記第3のステップでは、
    前記第6のステップで前記新規学習データが生成された場合、前記第2のステップで算出された特徴ベクトルのうち、前記第5のステップで訂正されたクラスタの特徴ベクトルと、前記第6のステップで生成された新規学習データとを基に、前記第5のステップで訂正されたクラスタが、ターゲットであるか否かを識別し、当該識別結果を前記第4のステップに反映させることを特徴とする請求項6に記載のボリュームデータ解析方法。
  8. 前記第3のステップでは、
    前記学習データとして、前記ターゲットの種類に応じた複数種類の学習データを用いる場合、前記複数種類の学習データと前記第2のステップで算出された各特徴ベクトルとを基に、前記各クラスタがターゲットであるか否かを識別すると共に、前記各識別結果に、当該識別結果に応じたラベルデータを付加し、
    前記第4のステップでは、
    前記表示装置に画像表示されたクラスタに、前記第3のステップで付加されたラベルデータに応じた識別ラベルを表示させることを特徴とする請求項6に記載のボリュームデータ解析方法。
  9. 前記第1のステップでは、
    ドロネー三角形分割法又はマーチングキューブスアルゴリズムのいずれかを用いて、前記モダリティで生成された三次元ボリュームデータをポリゴン化してポリゴンデータに変換することを特徴とする請求項6に記載のボリュームデータ解析方法。
  10. 前記第3のステップでは、
    前記機械学習に、サポートベクターマシン、マルチサポートベクターマシン、アダブースト、オンラインサポートベクターマシン、又はニューラルネットワークのうちいずれか一つを用いることを特徴とする請求項6に記載のボリュームデータ解析方法。
JP2014554042A 2012-12-28 2012-12-28 ボリュームデータ解析システム及びその方法 Expired - Fee Related JP5982726B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/084207 WO2014103061A1 (ja) 2012-12-28 2012-12-28 ボリュームデータ解析システム及びその方法

Publications (2)

Publication Number Publication Date
JP5982726B2 true JP5982726B2 (ja) 2016-08-31
JPWO2014103061A1 JPWO2014103061A1 (ja) 2017-01-12

Family

ID=51020206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014554042A Expired - Fee Related JP5982726B2 (ja) 2012-12-28 2012-12-28 ボリュームデータ解析システム及びその方法

Country Status (3)

Country Link
US (1) US9589344B2 (ja)
JP (1) JP5982726B2 (ja)
WO (1) WO2014103061A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201517462D0 (en) * 2015-10-02 2015-11-18 Tractable Ltd Semi-automatic labelling of datasets
US10249053B2 (en) * 2016-08-04 2019-04-02 The Boeing Company Method and apparatus for rapid scanning of a three dimensional surface
WO2018031959A1 (en) * 2016-08-12 2018-02-15 Aquifi, Inc. Systems and methods for automatically generating metadata for media documents
US20180114368A1 (en) * 2016-10-25 2018-04-26 Adobe Systems Incorporated Three-dimensional model manipulation and rendering
CN110050267B (zh) 2016-12-09 2023-05-26 北京地平线信息技术有限公司 用于数据管理的系统和方法
US11170246B2 (en) 2017-07-12 2021-11-09 Sony Interactive Entertainment Inc. Recognition processing device, recognition processing method, and program
JP7324086B2 (ja) * 2019-08-15 2023-08-09 キヤノン株式会社 情報処理装置、情報処理方法
CA3163620A1 (en) 2020-01-03 2021-07-08 Razvan RANCA Method of determining painting requirements for a damage vehicle
JP7510782B2 (ja) 2020-04-23 2024-07-04 合同会社H.U.グループ中央研究所 プログラム、情報処理装置、情報処理方法及び学習モデルの生成方法
CN115018904B (zh) * 2022-06-02 2023-10-20 如你所视(北京)科技有限公司 全景图像的掩膜生成方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005052860A2 (en) * 2003-11-19 2005-06-09 Siemens Corporate Research, Inc. System and method for detecting and matching anatomical structures using appearance and shape
WO2007035340A2 (en) * 2005-09-15 2007-03-29 St. Jude Medical, Atrial Fibrillation Division, Inc. Method of rendering a surface from a solid graphical image

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7239908B1 (en) * 1998-09-14 2007-07-03 The Board Of Trustees Of The Leland Stanford Junior University Assessing the condition of a joint and devising treatment
US7184814B2 (en) * 1998-09-14 2007-02-27 The Board Of Trustees Of The Leland Stanford Junior University Assessing the condition of a joint and assessing cartilage loss
AU6634800A (en) * 1999-08-11 2001-03-05 Case Western Reserve University Method and apparatus for producing an implant
WO2004074505A2 (en) * 2003-02-14 2004-09-02 Eidogen Inc. Method for determining functional sites in a protein
US7558413B2 (en) 2004-10-12 2009-07-07 Siemens Medical Solutions USA, Inc, Method for detecting polyps in a three dimensional image volume
US7672497B2 (en) * 2005-12-29 2010-03-02 Carestream Health, Inc. Computer aided disease detection system for multiple organ systems
JP5226978B2 (ja) 2007-07-17 2013-07-03 日立アロカメディカル株式会社 超音波診断装置及び画像処理プログラム
US9171396B2 (en) * 2010-06-30 2015-10-27 Primal Space Systems Inc. System and method of procedural visibility for interactive and broadcast streaming of entertainment, advertising, and tactical 3D graphical information using a visibility event codec

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005052860A2 (en) * 2003-11-19 2005-06-09 Siemens Corporate Research, Inc. System and method for detecting and matching anatomical structures using appearance and shape
WO2007035340A2 (en) * 2005-09-15 2007-03-29 St. Jude Medical, Atrial Fibrillation Division, Inc. Method of rendering a surface from a solid graphical image

Also Published As

Publication number Publication date
US20160005167A1 (en) 2016-01-07
JPWO2014103061A1 (ja) 2017-01-12
WO2014103061A1 (ja) 2014-07-03
US9589344B2 (en) 2017-03-07

Similar Documents

Publication Publication Date Title
JP5982726B2 (ja) ボリュームデータ解析システム及びその方法
US10467757B2 (en) System and method for computer aided diagnosis
US10147223B2 (en) Apparatus and method for computer-aided diagnosis
US11250569B2 (en) Systems and methods for functional imaging follow-up evaluation using deep neural network
JP5334692B2 (ja) 制約されたマージナル空間学習を使用して3d解剖学的オブジェクトを検出するための方法およびシステム
US10102622B2 (en) Processing apparatus, processing method, and non-transitory computer-readable storage medium
JP5954769B2 (ja) 医用画像処理装置、医用画像処理方法および異常検出プログラム
JP5864542B2 (ja) 画像の異常を検出するための画像データの処理方法、システムおよびプログラム
US9218542B2 (en) Localization of anatomical structures using learning-based regression and efficient searching or deformation strategy
US20110262015A1 (en) Image processing apparatus, image processing method, and storage medium
EP2846310A2 (en) Method and apparatus for registering medical images
US9014456B2 (en) Computer aided diagnostic system incorporating appearance analysis for diagnosing malignant lung nodules
US10319093B2 (en) Image processing apparatus, image processing method, and program
JP2012155723A (ja) 三次元医療映像から最適の二次元医療映像を自動的に生成する方法及び装置
US10949698B2 (en) Image processing apparatus, image processing system, image processing method, and storage medium
EP3893198A1 (en) Method and system for computer aided detection of abnormalities in image data
US20120232379A1 (en) Method and System for Regression-Based 4D Mitral Valve Segmentation From 2D+t Magnetic Resonance Imaging Slices
KR20130016942A (ko) 3차원 볼륨 파노라마 영상 생성 방법 및 장치
JP5364009B2 (ja) 画像生成装置、画像生成方法、及びそのプログラム
JP6827707B2 (ja) 情報処理装置および情報処理システム
Chen et al. Virtual blood vessels in complex background using stereo x-ray images
JP2024509039A (ja) 分類の視覚的説明、方法、システム
US20230342994A1 (en) Storage medium, image identification method, image identification device
JP2022175787A (ja) 画像処理装置、画像処理方法、およびプログラム
Freitas et al. Automatic multi-view pose estimation in focused cardiac ultrasound

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160715

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160715

R150 Certificate of patent or registration of utility model

Ref document number: 5982726

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees