JP7033369B2 - サーフェス・ベースのオブジェクト識別 - Google Patents

サーフェス・ベースのオブジェクト識別 Download PDF

Info

Publication number
JP7033369B2
JP7033369B2 JP2019564408A JP2019564408A JP7033369B2 JP 7033369 B2 JP7033369 B2 JP 7033369B2 JP 2019564408 A JP2019564408 A JP 2019564408A JP 2019564408 A JP2019564408 A JP 2019564408A JP 7033369 B2 JP7033369 B2 JP 7033369B2
Authority
JP
Japan
Prior art keywords
target object
distribution
orientations
training
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019564408A
Other languages
English (en)
Other versions
JP2020522056A (ja
Inventor
ザオ、コン
宏毅 中野
太朗 関山
正治 阪本
康 根岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2020522056A publication Critical patent/JP2020522056A/ja
Application granted granted Critical
Publication of JP7033369B2 publication Critical patent/JP7033369B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30092Stomach; Gastric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Description

本発明は、サーフェス(surface)ベースのオブジェクト識別に関する。
ニューラル・ネットワークにおけるような機械学習が、オブジェクトのイメージ識別のために使用されてきた。例えば、CTイメージに基づいた小結節(又は悪性腫瘍)の検出が知られている。非特許文献1及び非特許文献2に開示されるように、これまでは、小結節の検出のために、2Dイメージがニューラル・ネットワークに入力された。
しかしながら、2D(2次元)イメージは、オブジェクトの3D(3次元)の形態的特徴(morphological feature)を表さないこともあるので、2Dイメージによるオブジェクトの識別は十分に正確でないことがある。さらに、データ・サイズが大きいため、2Dイメージには、長い訓練時間が必要である。
2Dイメージの代わりに、オブジェクトの識別のために、オブジェクトの3Dデータを用いることができる。それにもかかわらず、3Dデータを用いる訓練は、2Dイメージを用いるものよりも多くの時間がかかる。
Hua,Kai-Lung他、「Computer-Aided Classification of Lung Nodules on Computed Tomography Images via Deep Learning Technique」,OncoTargets and therapy8(2015)発行、2015-2022.PMC.Web.2016年10月17日 Richard Gruetzemacher及びAshish Gupta,「Using Deep Learning for Pulmonary Nodule Detection & Diagnosis」,Intelligence and Intelligent Systems発行(SIGODIS),2016年11月8日
サーフェス・ベースのオブジェクト識別のための方法、装置及びコンピュータ・プログラムを提供する。
本発明の第1の態様によると、ターゲット・オブジェクトの外周部(periphery)の複数の向き(orientation)の分布を推定することと、分布に基づいてターゲット・オブジェクトを識別することとを含む方法が提供される。第1の態様によると、より少ない計算リソースで、ターゲット・オブジェクトの識別を正確に判断することができる。
本発明の第2の態様によると、第1の態様の方法が提供され、そこでは、ターゲット・オブジェクトの外周部の複数の向きは、基準点からターゲット・オブジェクトの外周部までの向きに対応する。第2の態様によると、より少ない計算リソースで、ターゲット・オブジェクトが小結節かどうかを正確に判断することができる。
本発明の第3の態様によると、第1の態様又は第2の態様の方法が提供され、そこで、ターゲット・オブジェクトの外周部は、ターゲット・オブジェクトのボクセル・データの等値面に対応する。第2の態様によると、より少ない計算リソースで、ターゲット・オブジェクトの識別を正確に判断することができる。
本発明の第4の態様によると、第1乃至第3の態様のいずれか1つの方法が提供され、そこで、等値面は複数の部分領域を含み、ターゲット・オブジェクトの外周部の複数の向きの各々は、複数の部分領域の各々の向きである。第4の態様によると、より少ない計算リソースで、ターゲット・オブジェクトの識別を正確に判断することができる。
本発明の第5の態様によると、第1乃至第4の態様のいずれか1つの方法が提供され、そこで、ターゲット・オブジェクトの外周部の複数の向きの分布は、法線ベクトルと中心ベクトルとの間の角度のコサイン値の分布であり、法線ベクトルは、複数の部分領域の各部分領域のものであり、中心ベクトルは、ターゲット・オブジェクトの中心と各部分領域の中心との間に作られる。第5の態様によると、より少ない計算リソースで、ターゲット・オブジェクトの識別を正確に判断することができる。
上記の第1乃至第5の態様は、上記の方法を実行する装置と、プロセッサ又はプログラム可能回路に上記の方法を実行させるための、コンピュータ可読媒体又はプログラム可能回路上に具体化される命令を格納するコンピュータ・プログラム製品とを含むこともできる。
概要の節は、必ずしも本発明の実施形態の全ての特徴を説明するものではない。本発明の実施形態は、上述した特徴の部分的な組み合わせを含むこともできる。
本発明の実施形態による、装置の例示的な構成を示す。 本発明の実施形態による、装置により行われる動作ステップのフローチャートを示す。 本発明の実施形態による、テンプレート・キューブを示す。 本発明の実施形態による、テンプレート・キューブを示す。 本発明の実施形態による、テンプレート・キューブを示す。 本発明の実施形態による、テンプレート・キューブを示す。 本発明の実施形態による、テンプレート・キューブを示す。 本発明の実施形態による、テンプレート・キューブを示す。 本発明の実施形態による、テンプレート・キューブを示す。 本発明の実施形態による、テンプレート・キューブを示す。 本発明の実施形態による、テンプレート・キューブを示す。 本発明の実施形態による、テンプレート・キューブを示す。 本発明の実施形態による、テンプレート・キューブを示す。 本発明の実施形態による、テンプレート・キューブを示す。 本発明の実施形態による、テンプレート・キューブを示す。 本発明の実施形態による、テンプレート・キューブを示す。 本発明の実施形態による、テンプレート・キューブを示す。 本発明の実施形態による、オブジェクトの外周部を示す。 本発明の実施形態による、部分領域を示す。 本発明の実施形態による、分布を示す。 本発明の実施形態による、CNNを示す。 本発明の実施形態による、システムとして機能するコンピュータの例示的なハードウェア構成を示す。
以下に、本発明の例示的な実施形態が説明される。例示的な実施形態は、特許請求の範囲に従った本発明を限定するものではなく、実施形態に説明される特徴の組み合わせは、必ずしも本発明にとって本質的なものではない。
図1は、本発明の実施形態による、装置10の例示的な構成を示す。装置10は、ターゲット・オブジェクトの外周部に基づいてターゲット・オブジェクトを識別することができる。実施形態において、装置10は、ターゲット・オブジェクトとしての体組織のボクセル・データを受信し、ニューラル・ネットワークを用いることにより、体組織の外周部に基づいて体組織が小結節かどうかを識別することができる。
装置10は、プロセッサ及び/又はプログラム可能回路を含むことができる。装置10は、命令をまとめて含む1つ又は複数のコンピュータ可読媒体をさらに含むことができる。命令は、コンピュータ可読媒体及び/又はプログラム可能回路上に具体化することができる。
命令は、プロセッサ又はプログラム可能回路により実行されるとき、プロセッサ又はプログラム可能回路に、複数の動作セクションとして動作させることができる。それにより、装置10は、格納セクション100、受信セクション110、抽出セクション120、推定セクション130、識別セクション150、及び訓練セクション170を含むものと考えることができる。
格納セクション100は、装置10が実行する処理に用いられる情報を格納することができる。格納セクション100は、装置10の動作に用いられる種々のデータ/命令を格納することもできる。装置10内の1つ又は複数の他の要素(例えば、受信セクション110、抽出セクション120、推定セクション130、識別セクション150、訓練セクション170等)は、必要に応じて、直接又は格納セクション100を介して、データを通信することができる。格納セクションは、装置10の揮発性又は不揮発性メモリにより実装することができる。1つの実施形態において、格納セクション100は、ニューラル・ネットワークのために訓練された重みを格納することができる。
受信セクション110は、ターゲット・オブジェクトの3次元データを受信することができる。実施形態において、受信セクションは、データベース20から又は装置10のユーザから、ターゲット・オブジェクトのボクセル・データを受信することができる。受信セクション110は、データベース20から、訓練オブジェクトの3次元データ及び訓練オブジェクトの識別を受信することもできる。
抽出セクション120は、ターゲット・オブジェクトの3次元データから、オブジェクトの外周部を抽出することができる。実施形態において、抽出セクション120は、ターゲット・オブジェクトの外周部として、ターゲット・オブジェクトのボクセル・データの等値面(isosurface)を抽出することができる。抽出セクション120は、訓練オブジェクトの3次元データから、訓練オブジェクトの外周部を抽出することができる。
推定セクション130は、ターゲット・オブジェクトの外周部の複数の向きの分布を推定することができる。実施形態において、推定セクション130は、ターゲット・オブジェクトの外周部の複数の向きの分布として、ターゲット・オブジェクトの外周部の複数の向きのヒストグラムを生成することができる。推定セクション130はまた、訓練オブジェクトの外周部の複数の向きの分布を推定することもできる。
識別セクション150は、推定セクション130により推定された分布に基づいて、ターゲット・オブジェクトを識別することができる。実施形態において、識別セクション150は、ニューラル・ネットワークに分布を入力することにより、ターゲット・オブジェクトを識別することができる。
訓練セクション170は、複数の訓練セットを含む訓練データによりニューラル・ネットワークを訓練することができる。実施形態において、各訓練セットは、1つの訓練オブジェクトの外周部の複数の向きの分布、及び1つの訓練オブジェクトの識別を含むことができる。
図2は、本発明の実施形態による、装置により行われる動作ステップのフローチャートを示す。本実施形態は、装置10のような装置が、図2に示されるようなS110~S180の動作を実行する例を説明する。装置は、ニューラル・ネットワークが訓練される、S110~S140の全体にわたる訓練段階、及び訓練されたニューラル・ネットワークによりターゲット・オブジェクトを識別する、S150~S180の全体にわたる試験段階を実行することができる。実施形態において、装置は、訓練段階又は試験段階のみを実行することができる。
S110において、受信セクション110のような受信セクションが、複数の訓練オブジェクトの3次元データを受信することができる。実施形態において、受信セクションは、データベース20のようなデータベースから、複数の訓練オブジェクトの各訓練オブジェクトのボクセル・データを受信することができる。
実施形態において、受信セクションは、MRIデバイス、CTスキャナ、及び/又は他の3Dイメージング・デバイスから、訓練オブジェクトとして、体組織(例えば、肺、肝臓、心臓、胃、腸、血管、骨、脳、他の器官など)のボクセル・データを受信することができる。例えば、受信セクションは、訓練オブジェクトとして、各イメージが肺の64×64ピクセル・スライスである64個のCTイメージを有するボクセル・データを受信することができる。
実施形態において、受信セクションは、データベースから、複数の訓練オブジェクトの各訓練オブジェクトの2Dイメージを受信することができる。例えば、受信セクションは、データベースから、複数の訓練オブジェクトとして、肺のスライスについてのCTイメージを受信することができる。
受信セクションは、複数の訓練オブジェクトの識別を受信することもできる。実施形態において、識別は、ターゲット・オブジェクトが第1のクラスに属するか又は第2のクラスに属するかに関するものとすることができる。実施形態において、第1のクラスは、ターゲット・オブジェクトが正常であることを示し、第2のクラスは、ターゲット・オブジェクトが異常であることを示すことができる。
例えば、受信セクションは、複数の訓練オブジェクトの各々についての訓練オブジェクトの識別として、訓練オブジェクトが小結節(又は悪性腫瘍)であるかどうかを受信することができる。識別は、訓練オブジェクトに関して「小結節である」か、又は「小結節でない」かの確認された診断とすることができ、この確認は、医師により行われる。
S120において、抽出セクション120のような抽出セクションは、訓練オブジェクトの3次元データから訓練オブジェクトの外周部を抽出することができる。外周部は、訓練/ターゲット・オブジェクトの外形を表す形状とすることができる。
実施形態において、抽出セクションは、各訓練オブジェクトの外周部として、各訓練オブジェクトのボクセル・データの等値面を抽出することができる。実施形態において、ボクセル・データの等値面は、ボクセル・データにおける一定値又はほぼ一定値を有する頂点からなる面とすることができる。例えば、等値面は、MRIボクセル・データから抽出された同じ又はほぼ同じ量の1H原子を有する面とすることができる。
実施形態において、抽出セクションは、マーチング・キューブ・アルゴリズム(marching cube algorithm)を用いて、等値面を抽出することができる。例えば、抽出セクションは、所定のカットオフ値に基づいて、各頂点が0又は1の値を有するように、訓練オブジェクトのボクセル・データにおける各ボクセルを、頂点に変換することができる。変換された頂点は、0又は1の値を有する8個の頂点をそれぞれが含むキューブのアレイを形成する。推定セクションは、1の値を有する頂点を接続することにより、例えばテンプレート・キューブを頂点に適用することにより、等値面を生成することができる。
図3~図17は、本発明の実施形態によるテンプレート・キューブを示す。図3~図17に示される15個のキューブは、マーチング・キューブ・アルゴリズムのためのテンプレート・キューブとして使用することができる。図3~図17において、キューブ内の斜線入りの点は、1の値を有する頂点に対応し、一方、キューブ内の他の頂点は、0の値を有する頂点に対応し、網掛け入りの面は、等値面の一部分に対応する。
例えば、図3に示されるように、変換されたボクセル・データにおけるキューブが、0の値を有する8個の頂点をもつ場合、キューブは、等値面を有しない。図4に示されるように、変換されたボクセル・データにおけるキューブが、1の値を有する1個の頂点と、0の値を有する7個の頂点とを有する場合、キューブは、三角形の等値面を有する。図5に示されるように、変換されたボクセル・データにおけるキューブが、1の値を有する2つの隣接する頂点と、0の値を有する6個の頂点とを有する場合、キューブは、矩形の等値面を有する。図5の矩形の等値面は、2つの三角形の等値面に分割することができる。
同様に、図6~図17に示されるようなテンプレート・キューブに基づいて、種々のパターンの部分等値面を形成することができる。図3~図17に示されるテンプレート・キューブは、変換された頂点により形成されるキューブの1の値を有する頂点及び0の値を有する頂点の全ての組み合わせのパターンをカバーすることができる。
図18は、本発明の実施形態によるオブジェクトの外周部を示す。実施形態において、抽出セクションは、マーチング・キューブ・アルゴリズムに基づいて、図18に示されるような訓練オブジェクトの等値面を抽出することができる。等値面は、複数の部分領域を含むことができる。複数の部分領域の各部分領域は、訓練オブジェクトのボクセル・データにおける一定値の頂点を有する三角形とすることができる。これらの部分領域は、図4~図17に示される網掛け入りの三角形の等値面に対応し得る。図18において、1つの三角形の部分領域401が示される。
実施形態において、抽出セクションは、単一のカットオフ値を用いて、訓練オブジェクトの単層の等値面を抽出することができる。実施形態において、抽出セクションは、1つ又は複数のカットオフ値を用いて、訓練オブジェクトの層状の等値面を抽出することができる。
幾つかの代替的な実施形態において、抽出セクションは、マーチング・キューブ以外の方法によりボクセル・データの等値面を抽出することができる。例えば、抽出セクションは、補間(interpolating)アルゴリズムにより、ボクセル・データにおける一定値を有する3D位置を推定し、推定位置を結合して等値面を生成することができる。
S130において、推定セクション130のような推定セクションは、訓練オブジェクトの外周部の複数の向きの分布を推定することができる。実施形態において、推定セクションは、訓練オブジェクトの等値面の向きを識別することができる。実施形態において、推定セクションは、等値面の複数の部分領域の各々の向きを識別することができる。図18の実施形態において、推定セクションは、等値面の部分領域の全て又は一部の向きを判断することができる。部分領域の向きは、1つ又は2つのパラメータにより識別することができる。
推定セクションは、最初に、基準点から訓練オブジェクトの外周部までの訓練オブジェクトの外周部の向きを推定することができる。実施形態において、基準点は、訓練オブジェクトの中心とすることができる。
実施形態において、訓練オブジェクトの中心は、少なくとも1つの部分領域を含むキューブからなる3次元形状の中心、少なくとも1つの部分領域を含むキューブの境界ボックス(bounding box)の中心、又は等値面により覆われる3次元形状の中心とすることができる。推定セクションは、訓練オブジェクトの密度(例えば、MRIボクセル・データにおける1Hの量)を考慮に入れることにより、訓練オブジェクトの中心を判断することができる。
図19は、本発明の実施形態による部分領域を示す。推定セクションは、訓練オブジェクトの中心と各部分領域の中心との間に作られる中心ベクトルを推定することができる。図19の実施形態において、推定セクションは、訓練オブジェクトの中心503と部分領域401の中心504との間に作られる中心ベクトル(点線矢印として示される)を推定することができる。代替的な実施形態において、推定セクションは、訓練オブジェクトの中心と各部分領域の1つの頂点との間に作られる中心ベクトルを推定することができる。
推定セクションは、複数の部分領域の各部分領域の中心ベクトルと法線ベクトルとの間の角度を推定することもできる。実施形態において、推定セクションは、各部分領域の法線ベクトルと中心ベクトルとの間の角度のコサイン値を推定することができる。実施形態において、各部分領域の法線ベクトルと中心ベクトルとの間の角度のサイン値を推定することができる。
推定セクションは、各部分領域の中心ベクトルと法線ベクトルとの間に作られる面と、所定の基準面との間の第2の角度をさらに推定することができる。推定セクションは、各部分領域の向きの少なくとも一部として、第2の角度、第2の角度のコサイン値、及び/又は第2の角度のサイン値をさらに使用することができる。
推定セクションは、推定したコサイン値、サイン値、及び/又は角度自体に基づいて、訓練オブジェクトの外周部の複数の向きの分布を生成することができる。実施形態において、推定セクションは、分布を生成するために、複数の部分領域の法線ベクトルと中心ベクトルとの間の角度のコサイン値を蓄積することができる。
実施形態において、推定セクションは、分布を生成するために、複数の部分領域の法線ベクトルと中心ベクトルとの間の角度のサイン値を蓄積することができる。実施形態において、推定セクションは、分布を生成するために、複数の部分領域の法線ベクトルと中心ベクトルとの間の角度値を蓄積することができる。
実施形態において、推定セクションは、訓練オブジェクトの等値面の複数の部分領域の法線ベクトルと中心ベクトルとにより作られる蓄積されたコサイン値、サイン値、及び/又は角度のヒストグラムを、分布として生成することができる。実施形態において、推定セクションは、分布の推定のために、第2の角度、第2の角度のコサイン値、及び/又は第2の角度のサイン値を使用することができる。
図20は、本発明の実施形態による分布を示す。推定セクションは、図20に示されるような複数の部分領域の法線ベクトルと中心ベクトルとの間の角度のコサイン値のヒストグラムを、分布として生成することができる。図20において、横軸は、コサイン値のビンに対応し、縦軸は、各コサイン値のカウント又は比率に対応する。
小結節は、一般に、球状をなし、部分領域の向きは1のコサイン値を与える。従って、訓練オブジェクトが小結節である場合、訓練オブジェクトの分布は、1の付近にピークを有する。
実施形態において、推定セクションは、向きの分布に加えて、複数の部分領域の中心ベクトルの長さの分布をさらに推定することができる。
代替的な実施形態において、推定セクションは、各部分領域についての中心ベクトルの長さをさらに計算することができる。実施形態において、推定セクションは、複数の部分領域の中心ベクトルの長さの分布を生成することができる。
代替的な実施形態において、推定セクションは、等値面の各部分領域の向きを、隣接する部分領域のなす角度で識別することができる。例えば、推定セクションは、各部分領域と隣接する部分領域とのなす隣接する角度の分布、隣接角度のコサイン値の分布、及び/又は隣接角度のサイン値の分布を生成することができる。
代替的な実施形態において、推定セクションは、ヒストグラムを近似する既知の分布(ガウス分布等)を生成することができる。実施形態において、推定セクションは、S140におけるヒストグラムの代わりに、既知の分布を使用することができる。
S140において、訓練セクション170のような訓練セクションは、複数の訓練セットでニューラル・ネットワークを訓練することができる。複数の訓練セットの各々は、S130で推定された各訓練オブジェクトの分布(例えば、ヒストグラム)と、S110で受信した各訓練オブジェクトの識別とを含むことができる。
実施形態において、各訓練セットは、各訓練オブジェクトの等値面の向きのヒストグラム、及び各訓練オブジェクト(例えば、体組織)が小結節であるかどうかの識別を含むことができる。実施形態において、各訓練セットは、分布自体の代わりに、分布から得られる平均値及び分散を含むことができる。
実施形態において、訓練セクションは、ニューラル・ネットワークにおけるある層内の各ノードと別の層内の各ノードとの間の重みを決定することができる。実施形態において、訓練セクションは、逆伝搬を行うことにより重みを決定することができる。実施形態において、ニューラル・ネットワークは、畳み込みニューラル・ネットワーク(Convolutional Neural Network、CNN)とすることができる。
図21は、本発明の実施形態によるCNNを示す。訓練セクションは、図21の構造により表されるニューラル・ネットワークを訓練することができる。図に示されるように、ニューラル・ネットワークは、複数の(例えば、3つの)グループの畳み込み層及びプーリング層(Pooling layer)と、少なくとも1つの全結合層(fully connectedlayer)とを含むことができる。畳み込み層は、入力に対してフィルタリング・プロセスを実行することにより畳み込みを実行する層とすることができ、複数のフィルタに対応する複数のニューロンを含むことができる。
プーリング層は、入力の最大値を抽出するための矩形フィルタを適用する層とすることができ、複数の矩形フィルタに対応する複数のニューロンを含むことができる。少なくとも1つの全結合層は、各々が複数のニューロンを有する複数の層を含むことができ、ニューロンは、各層の間で互いに結合することができる。
最も低いプーリング層から結果として生じる出力は、複数の(例えば、2つの)全結合層への入力とすることができる。全結合層からの出力結果は、ニューラル・ネットワークの出力として出力することができる。1つの実施形態において、訓練セクションは、畳み込み層、プーリング層及び全結合層内のノード間の少なくとも幾らかの重みを訓練することができる。
分布(例えば、ヒストグラム)は、1D-特徴であり、CNNは、1D-畳み込み層及び1D-プーリング層を有する1D-CNNとすることができる。1D-CNNは、分布におけるわずかな変動又はシフトに関係なく、分布の特徴を抽出することができる。従って、訓練されたCNNは、分布の大まかな特徴を抽出することができる。
S150において、受信セクションは、ターゲット・オブジェクトの3次元データを受信することができる。ターゲット・オブジェクトは、まだ識別されていないオブジェクトとすることができる。実施形態において、受信セクションは、データベースから又は装置のユーザからターゲット・オブジェクトのボクセル・データを受信することができる。受信セクションは、MRIデバイス、CTスキャナ、及び/又は他の3Dイメージング・デバイスから、ターゲット・オブジェクトとしての体組織(肺、肝臓、心臓、胃、腸、血管、骨、脳等のような)のボクセル・データを受信することができる。
S160において、抽出セクションは、ターゲット・オブジェクトの外周部を抽出することができる。抽出セクションは、S120の動作と同じ又は類似の方法でS160の動作を実行することができる。
S170において、推定セクションは、ターゲット・オブジェクトの外周部の複数の向きの分布を推定することができる。推定セクションは、S130の動作と同じ又は類似の方法でS170の動作を実行することができる。
S180において、識別セクション150のような識別セクションは、S140で訓練されたニューラル・ネットワークを用いて、S170で推定された分布に基づいて、ターゲット・オブジェクトを識別することができる。実施形態において、識別セクションは、ニューラル・ネットワークの計算を処理することができる。
ニューラル・ネットワークは、ヒストグラムを、1D-CNNの入力として受信することができる。実施形態において、向き(例えば、コサイン値)の変動のために、類似の等値面のヒストグラム頻度が、異なる近くのビンによりカウントされ得る。向きの変動は、1D-畳み込み及び1D-プーリングにより吸収することができる。
ニューラル・ネットワークは、ターゲット・オブジェクトの識別を出力することができる。実施形態において、ニューラル・ネットワークは、0又1の値を出力することができ、ここで、0はターゲット・オブジェクトが小結節であることを示し、1はターゲット・オブジェクトが小結節でないことを示す。実施形態において、ニューラル・ネットワークは、ターゲット・オブジェクトが小結節である可能性を出力することができる。
上記の実施形態に関連して説明されるように、装置は、ターゲット・オブジェクトの外周部の向きの情報を用いて、ターゲット・オブジェクトを識別することができる。ターゲット・オブジェクトの外周部の向きの情報は、3Dの形態学的特徴に関して、ターゲット・オブジェクトの2Dイメージより多くの情報を与えるものであり得る。
ターゲット・オブジェクトの外周部の向きの情報は、分布(例えば、ヒストグラム)のような1D情報により表され、ターゲット・オブジェクトの3Dデータより少ないデータ・ボリュームを有する。それにより、装置は、より少ない計算リソースでターゲット・オブジェクトを正確に識別することができる。例えば、装置は、体組織のボクセル・データから得られる体組織の外周部に基づいて、体組織が小結節であるかどうかを判断することができる。
上記の実施形態において、訓練セクションは、ニューラル・ネットワークを訓練する。幾つかの代替的な実施形態において、訓練セクションは、他の学習機械を訓練することができる。実施形態において、訓練セクションは、訓練データによりサポート・ベクトル・マシン(すなわち、SVM)を訓練することができ、識別セクションは、訓練されたSVMによりターゲット・オブジェクトを識別することができる。
上記の実施形態において、推定セクションは、訓練/ターゲット・オブジェクトの所定の中心を使用することができる。幾つかの代替的な実施形態において、推定セクションは、訓練オブジェクトの外周部の向きの分布(例えば、ヒストグラム)の変動が最小になるように、訓練オブジェクトの中心を検索することができる。それにより、推定セクションは、球状の特徴を示す分布を生成し得る。
図22は、本発明の実施形態による、クラウド・サービス利用のために構成できるコンピュータの例示的なハードウェア構成を示す。コンピュータ800内にインストールされたプログラムは、コンピュータ800に、本発明の実施形態の装置、又はその1つ又は複数のセクション(モジュール、コンポーネント、要素等を含む)として機能させること、又はそれと関連した動作を実行させることができ、及び/又は、コンピュータ800に、本発明の実施形態のプロセス又そのステップを実行させることができる。こうしたプログラムは、CPU800-12により実行され、コンピュータ800に、本明細書で説明されるフローチャート及びブロック図のブロックの一部又全てと関連した特定の動作を実行させることができる。
本発明によるコンピュータ800は、ホスト・コントローラ800-10により互いに接続される、CPU800-12、RAM800-14、グラフィックス・コントローラ800-16、及びディスプレイ・デバイス800-18を含む。コンピュータ800は、入力/出力コントローラ800-20を介してホスト・コントローラ800-10に接続される、通信インターフェース800-22、ハードディスク・ドライブ800-24、DVD-ROMドライブ800-26、及びICカード・ドライブのような入力/出力ユニットも含む。コンピュータは、入力/出力チップ800-40を通じて入力/出力コントローラ800-20に接続される、ROM800-30及びキーボード800-42のような従来の入力/出力ユニットも含む。
CPU800-12は、ROM800-30及びRAM800-14に格納されるプログラムに従って動作し、それにより、各ユニットを制御する。グラフィックス・コントローラ800-16は、CPU800-12により生成されるイメージ・データを、RAM800-14に又はそれ自体に提供されるフレーム・バッファ又は同様のもの上で受信し、そのイメージ・データをディスプレイ・デバイス800-18上で表示させる。
通信インターフェース800-22は、ネットワーク800-50を介して他の電子デバイスと通信する。ハードディスク・ドライブ800-24は、コンピュータ800内のCPU800-12により使用されるプログラム及びデータを格納する。DVD-ROMドライブ800-26は、DVD-ROM800-01からプログラム又はデータを読み取り、RAM800-14を介してそれらのプログラム又はデータをハードディスク・ドライブ800-24に提供する。ICカード・ドライブは、ICカードからプログラム及びデータを読み取り、及び/又は、プログラム及びデータをICカードに書き込む。
ROM800-30は、起動時にコンピュータ800により実行されるブートプログラム又は同様のもの、及び/又は、コンピュータ800のハードウェアに依存するプログラムを格納する。入力/出力チップ800-40はまた、パラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート及び同様のものを介して、様々な入力/出力ユニットを入力/出力コントローラ800-20に接続することができる。
プログラムは、DVD-ROM800-01又はICカードなどのコンピュータ可読媒体により提供される。プログラムは、コンピュータ可読媒体から読み取られ、コンピュータ可読媒体の例でもあるハードディスク・ドライブ800-24、RAM800-14、又はROM800-30にインストールされ、CPU800-12により実行される。これらのプログラムにおいて記述される情報処理は、コンピュータ800に読み取られ、プログラムと上述の様々なタイプのハードウェア・リソースとの間の協働をもたらす。装置又は方法は、コンピュータ800の使用に従って動作又は情報処理を実現することによって構成することができる。
例えば、コンピュータ800と外部のデバイスとの間の通信が実行される場合、CPU800-12は、通信プログラムに記述されている処理に基づいて、通信インターフェース800-22に通信処理を命令するよう、RAM800-14上に読み込まれた通信プログラムを実行することができる。通信インターフェース800-22は、CPU800-12の制御下で、RAM800-14、ハードディスク・ドライブ800-24、DVD-ROM800-01、又はICカードなどの記録媒体上に提供されている送信バッファ領域上に格納された送信データを読み取り、その読み取られた送信データをネットワーク800-50に送信し、又は、ネットワーク800-50から受信された受信データを、記録媒体上に提供されている受信バッファ領域又は同様のものに書き込む。
加えて、CPU800-12は、ハードディスク・ドライブ800-24、DVD-ROMドライブ800-26(DVD-ROM800-01)、ICカードなどのような外部記録媒体に格納されているファイル又はデータベースの全て又は必要な部分を、RAM800-14に読み取らせることができ、RAM800-14上でデータに対して様々なタイプの処理を実行することができる。次にCPU800-12は、処理されたデータを外部記録媒体に書き戻すことができる。
情報処理を行うために、様々なタイプのプログラム、データ、テーブル、及びデータベースなどの様々なタイプの情報を記録媒体に格納することができる。CPU800-12は、RAM800-14から読み取られたデータに対して、本開示の全体にわたって説明され、プログラムの命令シーケンスにより指定されている様々なタイプの動作、情報の処理、条件判断、条件分岐(conditional branch)、無条件分岐(unconditional branch)、情報の検索/置換などを含む様々なタイプの処理を実行することができ、その結果をRAM800-14に書き戻す。
加えて、CPU800-12は、記録媒体において、ファイル、データベースなどにおける情報を検索することができる。例えば、複数のエントリが記録媒体に格納されており、各々のエントリが第2の属性の属性値に関連付けられた第1の属性の属性値を有している場合、CPU800-12は、複数のエントリのうちから、その第1の属性の属性値が指定された条件に一致するエントリを検索することができ、そのエントリに格納されている第2の属性の属性値を読み取り、それにより、所定の条件を満たす第1の属性に関連付けられている第2の属性の属性値を受け取る。
上述のプログラム又はソフトウェア・モジュールは、コンピュータ800上の又はその付近のコンピュータ可読媒体に格納することができる。加えて、専用通信ネットワーク又はインターネットに接続されているサーバ・システムに提供されるハードディスク又はRAMなどの記録媒体を、コンピュータ可読媒体として使用することができ、それにより、ネットワークを介して、プログラムをコンピュータ800に提供する。
本発明は、インテグレーションの任意の技術的詳細のレベルにおいて、システム、方法、及び/又はコンピュータ・プログラム製品とすることができる。コンピュータ・プログラム製品は、プロセッサに、本発明の態様を実行させるためのコンピュータ可読プログラム命令をその上に有するコンピュータ可読ストレージ媒体(単数又は複数)を含むことができる。
コンピュータ可読ストレージ媒体は、命令実行デバイスにより使用される命令を保持及び格納できる有形デバイスとすることができる。コンピュータ可読ストレージ媒体は、例えば、これらに限定されるものではないが、電子記憶装置、磁気記憶装置、光学記憶装置、電磁気記憶装置、半導体記憶装置、又は上記のいずれかの適切な組み合わせとすることができる。コンピュータ可読ストレージ媒体のより具体的な例の非網羅的なリストとして、以下のもの:すなわち、ポータブル・コンピュータ・ディスケット、ハードディスク、ランダム・アクセス・メモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラム可能読み出し専用メモリ(EPROM又はフラッシュメモリ)、スタティック・ランダム・アクセス・メモリ(SRAM)、ポータブル・コンパクト・ディスク読み出し専用メモリ(CD-ROM)、デジタル多用途ディスク(DVD)、メモリ・スティック、フロッピー・ディスク、パンチカード若しくは命令がそこに記録された溝内の隆起構造のような機械的にエンコードされたデバイス、及び上記のいずれかの適切な組み合わせが挙げられる。本明細書で使用される場合、コンピュータ可読ストレージ媒体は、電波、又は他の自由に伝搬する電磁波、導波管若しくは他の伝送媒体を通じて伝搬する電磁波(例えば、光ファイバ・ケーブルを通る光パルス)、又はワイヤを通って送られる電気信号などの、一時的信号自体として解釈されない。
本明細書で説明されるコンピュータ可読プログラム命令は、コンピュータ可読ストレージ媒体からそれぞれのコンピューティング/処理デバイスに、又は、例えばインターネット、ローカル・エリア・ネットワーク、広域ネットワーク、及び/又は無線ネットワークなどのネットワーク(図示せず)を介して、外部コンピュータ又は外部ストレージ・デバイスにダウンロードすることができる。ネットワークは、銅伝送ケーブル、光伝送ファイバ、無線伝送、ルータ、ファイアウォール、スイッチ、ゲートウェイ・コンピュータ、及び/又はエッジ・サーバを含むことができる。各コンピューティング/処理デバイスにおけるネットワーク・アダプタ・カード又はネットワーク・インターフェースは、ネットワークからコンピュータ可読プログラム命令を受け取り、コンピュータ可読プログラム命令を転送して、それぞれのコンピューティング/処理デバイス内のコンピュータ可読ストレージ媒体に格納する。
本発明の動作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又は、Smalltalk、C++などのオブジェクト指向プログラミング言語、及び、「C」プログラミング言語若しくは類似のプログラミング言語などの通常の手続き型プログラミング言語を含む1つ又は複数のプログラミング言語の任意の組み合わせで記述することができる。コンピュータ可読プログラム命令は、完全にユーザのコンピュータ上で実行される場合もあり、一部がユーザのコンピュータ上で、独立型ソフトウェア・パッケージとして実行される場合もあり、一部がユーザのコンピュータ上で実行され、一部が遠隔コンピュータ上で実行される場合もあり、又は完全に遠隔コンピュータ若しくはサーバ上で実行される場合もある。最後のシナリオにおいて、遠隔コンピュータは、ローカル・エリア・ネットワーク(LAN)若しくは広域ネットワーク(WAN)を含むいずれかのタイプのネットワークを通じてユーザのコンピュータに接続される場合もあり、又は外部コンピュータへの接続がなされる場合もある(例えば、インターネットサービスプロバイダを用いたインターネットを通じて)。幾つかの実施形態において、例えば、プログラム可能論理回路、フィールド・プログラマブル・ゲート・アレイ(FPGA)、又はプログラム可能論理アレイ(PLA)を含む電子回路は、コンピュータ可読プログラム命令の状態情報を用いて電子回路を個人化することによりコンピュータ可読プログラム命令を実行し、本発明の態様を実施することができる。
本発明の態様は、本発明の実施形態による方法、装置(システム)及びコンピュータ・プログラム製品のフローチャート図及び/又はブロック図を参照して説明される。フローチャート図及び/又はブロック図の各ブロック、並びにフローチャート図及び/又はブロック図内のブロックの組み合わせは、コンピュータ可読プログラム命令によって実装できることが理解されるであろう。
これらのコンピュータ可読プログラム命令を、汎用コンピュータ、専用コンピュータ、又は他のプログラム可能データ処理装置のプロセッサに与えてマシンを製造し、それにより、コンピュータ又は他のプログラム可能データ処理装置のプロセッサによって実行される命令が、フローチャート及び/又はブロック図の1つ又は複数のブロック内で指定された機能/動作を実施するための手段を作り出すようにすることができる。これらのコンピュータ・プログラム命令を、コンピュータ、他のプログラム可能データ処理装置、及び/又は他のデバイスを特定の方式で機能させるように指示することができるコンピュータ可読媒体内に格納し、それにより、そのコンピュータ可読媒体内に格納された命令が、フローチャート及び/又はブロック図の1つ又複数のブロックにおいて指定された機能/動作の態様を実施する命令を含む製品を含むようにすることもできる。
コンピュータ・プログラム命令を、コンピュータ、他のプログラム可能データ処理装置、又は他のデバイス上にロードして、一連の動作ステップをコンピュータ、他のプログラム可能データ処理装置、又は他のデバイス上で行わせてコンピュータ実施のプロセスを生成し、それにより、コンピュータ又は他のプログラム可能装置上で実行される命令が、フローチャート及び/又はブロック図の1つ又は複数のブロックにおいて指定された機能/動作を実行するためのプロセスを提供するようにすることもできる。
図面内のフローチャート及びブロック図は、本発明の種々の実施形態による、システム、方法、及びコンピュータ・プログラム製品の可能な実装の、アーキテクチャ、機能及び動作を示す。この点に関して、フローチャート内の各ブロックは、指定された論理機能を実装するための1つ又は複数の実行可能命令を含む、モジュール、セグメント、又はコードの一部を表すことができる。幾つかの代替的な実装において、ブロック内に示される機能は、図に示される順序とは異なる順序で生じることがある。例えば、連続して示される2つのブロックは、関与する機能に応じて、実際には実質的に同時に実行されることもあり、又はこれらのブロックはときとして逆順で実行されることもある。ブロック図及び/又はフローチャート図の各ブロック、及びブロック図及び/又はフローチャート図内のブロックの組み合わせは、指定された機能又は動作を実行する、又は専用のハードウェアとコンピュータ命令との組み合わせを実行する、専用ハードウェア・ベースのシステムによって実装できることにも留意されたい。
本発明の実施形態を説明したが、本発明の技術的範囲は上述の実施形態に限定されない。本発明の上述の実施形態に、種々の変更又は改良を加え得ることが当業者には明らかである。また、そうした変更又は改良を加えた実施形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲から明らかである。
特許請求の範囲、実施形態、又は図に示される装置、システム、プログラム、及び方法により実施される各プロセスの動作、手順、ステップ、及び段階は、順番が、「に先立って(prior to)」、「より前に(before)」等により示されず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実施することができる。特許請求の範囲、実施形態、又は図において、プロセス・フローが、「最初に(first)」又は「次に(next)」のような語句を用いて説明されたとしても、これは必ずしも、プロセスをこの順序で実施しなければならないことを意味するものではない。
10:装置
20:データベース
100:格納セクション
110:受信セクション
120:抽出セクション
130:推定セクション
150:識別セクション
170:訓練セクション
800:コンピュータ
800-12:CPU
800-14:RAM
800-16:グラフィックス・コントローラ
800-22:通信インターフェース

Claims (12)

  1. プロセッサ又はプログラム可能回路が、
    ターゲット・オブジェクトの外周部の複数の向きの分布を推定することであって、
    前記ターゲット・オブジェクトの前記外周部の前記複数の向きは、基準点から前記ターゲット・オブジェクトの前記外周部までの向きに対応し、
    前記基準点は前記ターゲット・オブジェクトの中心であり、
    前記ターゲット・オブジェクトの前記外周部は、前記ターゲット・オブジェクトのボクセル・データの等値面に対応し、
    前記等値面は複数の部分領域を含み、前記ターゲット・オブジェクトの前記外周部の前記複数の向きの各々は、前記複数の部分領域の各々の向きである、
    推定することと、
    前記分布に基づいて前記ターゲット・オブジェクトを識別することと、
    を実行する方法。
  2. 各部分領域は、前記ターゲット・オブジェクトの前記ボクセル・データにおける一定値の頂点を有する三角形である、請求項に記載の方法。
  3. 前記ターゲット・オブジェクトの前記外周部の前記複数の向きの前記分布は、法線ベクトルと中心ベクトルとの間の角度のコサイン値の分布であり、前記法線ベクトルは、前記複数の部分領域の各部分領域のものであり、前記中心ベクトルは、前記ターゲット・オブジェクトの前記中心と前記各部分領域の中心との間に作られる、請求項に記載の方法。
  4. 前記ターゲット・オブジェクトの前記外周部の前記複数の向きの前記分布は、前記ターゲット・オブジェクトの前記外周部の前記複数の向きのヒストグラムを含む、請求項1~請求項のいずれか一項に記載の方法。
  5. プロセッサ又はプログラム可能回路が、
    各々が訓練オブジェクトの外周部の複数の向きの分布及び前記訓練オブジェクトの識別を含む複数の訓練セットによりニューラル・ネットワークを訓練することと、
    ターゲット・オブジェクトの外周部の複数の向きの分布を推定することと、
    前記ニューラル・ネットワークを用いて、前記分布に基づいて前記ターゲット・オブジェクトを識別することと、
    を実行する方法。
  6. 前記ニューラル・ネットワークは、畳み込みニューラル・ネットワークである、請求項に記載の方法。
  7. 前記ターゲット・オブジェクトは体組織である、請求項1~請求項のいずれか一項に記載の方法。
  8. プロセッサ又はプログラム可能回路と、
    前記プロセッサ又は前記プログラム可能回路に、
    ターゲット・オブジェクトの外周部を受信することと、
    前記ターゲット・オブジェクトの前記外周部の複数の向きの分布を推定することであって、
    前記ターゲット・オブジェクトの前記外周部の前記複数の向きは、基準点から前記ターゲット・オブジェクトの前記外周部までの向きに対応し、
    前記基準点は前記ターゲット・オブジェクトの中心であり、
    前記ターゲット・オブジェクトの前記外周部は、前記ターゲット・オブジェクトのボクセル・データの等値面に対応し、
    前記等値面は複数の部分領域を含み、前記ターゲット・オブジェクトの前記外周部の前記複数の向きの各々は、前記複数の部分領域の各々の向きである、
    推定することと、
    前記分布に基づいて前記ターゲット・オブジェクトを識別することと、
    を実行させる命令を含む1つ又は複数のコンピュータ可読媒体と、
    を含む、装置。
  9. 請求項1~のいずれか一項に記載の方法の各ステップを実行するためのプロセッサ又はプログラム可能回路を備えた、装置。
  10. プロセッサ又はプログラム可能回路に、
    ターゲット・オブジェクトの外周部を受信することと、
    前記ターゲット・オブジェクトの前記外周部の複数の向きの分布を推定することであって、
    前記ターゲット・オブジェクトの前記外周部の前記複数の向きは、基準点から前記ターゲット・オブジェクトの前記外周部までの向きに対応し、
    前記基準点は前記ターゲット・オブジェクトの中心であり、
    前記ターゲット・オブジェクトの前記外周部は、前記ターゲット・オブジェクトのボクセル・データの等値面に対応し、
    前記等値面は複数の部分領域を含み、前記ターゲット・オブジェクトの前記外周部の前記複数の向きの各々は、前記複数の部分領域の各々の向きである、
    推定することと、
    前記分布に基づいて前記ターゲット・オブジェクトを識別することと、
    を実行させる、コンピュータ・プログラム。
  11. 請求項1~のいずれか一項に記載の方法の各ステップをプロセッサ又はプログラム可能回路に実行させるためのコンピュータ・プログラム。
  12. 請求項10又は11に記載の前記コンピュータ・プログラムを記憶したコンピュータ可読ストレージ媒体。


JP2019564408A 2017-05-30 2018-05-16 サーフェス・ベースのオブジェクト識別 Active JP7033369B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/608,814 2017-05-30
US15/608,814 US10169874B2 (en) 2017-05-30 2017-05-30 Surface-based object identification
PCT/IB2018/053402 WO2018220461A1 (en) 2017-05-30 2018-05-16 Surface-based object identification

Publications (2)

Publication Number Publication Date
JP2020522056A JP2020522056A (ja) 2020-07-27
JP7033369B2 true JP7033369B2 (ja) 2022-03-10

Family

ID=64455282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019564408A Active JP7033369B2 (ja) 2017-05-30 2018-05-16 サーフェス・ベースのオブジェクト識別

Country Status (6)

Country Link
US (1) US10169874B2 (ja)
JP (1) JP7033369B2 (ja)
CN (1) CN110692065B (ja)
DE (1) DE112018000696T5 (ja)
GB (1) GB2577651A (ja)
WO (1) WO2018220461A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110945537B (zh) * 2017-07-28 2023-09-22 索尼互动娱乐股份有限公司 训练装置、识别装置、训练方法、识别方法和程序
US10282589B2 (en) * 2017-08-29 2019-05-07 Konica Minolta Laboratory U.S.A., Inc. Method and system for detection and classification of cells using convolutional neural networks
CN112998668B (zh) * 2021-02-06 2022-08-23 路晟悠拜(重庆)科技有限公司 基于毫米波的非接触式远场多人体呼吸心率监测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003524492A (ja) 2000-02-04 2003-08-19 ザ・ユニバーシティー・オブ・シカゴ 医学的画像のコンピュータ支援解釈用知的探索ワークステーションのための方法、システム、及びコンピュータ読取り型媒体
US20060093196A1 (en) 2004-10-28 2006-05-04 Odry Benjamin L System and method for automatic detection and localization of 3D bumps in medical images
US20060120591A1 (en) 2004-12-07 2006-06-08 Pascal Cathier Shape index weighted voting for detection of objects
US20070286469A1 (en) 2006-06-08 2007-12-13 Hitoshi Yamagata Computer-aided image diagnostic processing device and computer-aided image diagnostic processing program product

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001078005A2 (en) 2000-04-11 2001-10-18 Cornell Research Foundation, Inc. System and method for three-dimensional image rendering and analysis
WO2001095090A2 (en) * 2000-06-09 2001-12-13 Pelton Walter E Apparatus, methods and computer program products for performing high speed division calculations
JP2004522464A (ja) * 2000-10-02 2004-07-29 ザ リサーチ ファウンデーション オブ ステイト ユニヴァーシティ オブ ニューヨーク 向上した視覚化、ナビゲーション及び検査
US7538764B2 (en) * 2001-01-05 2009-05-26 Interuniversitair Micro-Elektronica Centrum (Imec) System and method to obtain surface structures of multi-dimensional objects, and to represent those surface structures for animation, transmission and display
US7043064B2 (en) * 2001-05-04 2006-05-09 The Board Of Trustees Of The Leland Stanford Junior University Method for characterizing shapes in medical images
US7058210B2 (en) * 2001-11-20 2006-06-06 General Electric Company Method and system for lung disease detection
TWI268148B (en) * 2004-11-25 2006-12-11 Univ Chung Yuan Christian Image analysis method for vertebral disease which comprises 3D reconstruction method and characteristic identification method of unaligned transversal slices
US8923577B2 (en) * 2006-09-28 2014-12-30 General Electric Company Method and system for identifying regions in an image
US8126244B2 (en) * 2007-09-21 2012-02-28 Siemens Medical Solutions Usa, Inc. User interface for polyp annotation, segmentation, and measurement in 3D computed tomography colonography
JP5047005B2 (ja) * 2008-02-29 2012-10-10 キヤノン株式会社 画像処理方法、パターン検出方法、パターン認識方法及び画像処理装置
JP5527869B2 (ja) * 2008-03-21 2014-06-25 国立大学法人神戸大学 画像診断支援処理装置および画像診断支援処理プログラム
US9805473B2 (en) * 2008-09-19 2017-10-31 Siemens Healthcare Gmbh Method and system for segmentation of brain structures in 3D magnetic resonance images
US9639949B2 (en) * 2010-03-15 2017-05-02 Analog Devices, Inc. Edge orientation for second derivative edge detection methods
JP2013037462A (ja) * 2011-08-05 2013-02-21 Sony Corp 情報処理装置、および情報処理方法
US9317921B2 (en) * 2014-07-10 2016-04-19 Qualcomm Incorporated Speed-up template matching using peripheral information
CN104700419A (zh) * 2015-03-27 2015-06-10 马学梅 一种放射科x光片的图像处理方法
US9965719B2 (en) * 2015-11-04 2018-05-08 Nec Corporation Subcategory-aware convolutional neural networks for object detection
CN105809730B (zh) 2016-03-07 2018-08-07 哈尔滨工程大学 一种长骨骨折断面点云提取方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003524492A (ja) 2000-02-04 2003-08-19 ザ・ユニバーシティー・オブ・シカゴ 医学的画像のコンピュータ支援解釈用知的探索ワークステーションのための方法、システム、及びコンピュータ読取り型媒体
US20060093196A1 (en) 2004-10-28 2006-05-04 Odry Benjamin L System and method for automatic detection and localization of 3D bumps in medical images
US20060120591A1 (en) 2004-12-07 2006-06-08 Pascal Cathier Shape index weighted voting for detection of objects
US20070286469A1 (en) 2006-06-08 2007-12-13 Hitoshi Yamagata Computer-aided image diagnostic processing device and computer-aided image diagnostic processing program product

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Y.S.P. Chiou, 外2名,"Neural-knowledge base object detection in Hybrid Lung Nodule Detection (HLND) system",Proceedings of 1994 IEEE International Conference on Neural Networks (ICNN'94),米国,IEEE,1994年07月02日,p.4180-4185

Also Published As

Publication number Publication date
GB201918312D0 (en) 2020-01-29
US20180350063A1 (en) 2018-12-06
JP2020522056A (ja) 2020-07-27
CN110692065B (zh) 2023-05-09
WO2018220461A1 (en) 2018-12-06
CN110692065A (zh) 2020-01-14
DE112018000696T5 (de) 2019-10-17
US10169874B2 (en) 2019-01-01
GB2577651A (en) 2020-04-01

Similar Documents

Publication Publication Date Title
Han et al. Synthesizing diverse lung nodules wherever massively: 3D multi-conditional GAN-based CT image augmentation for object detection
JP5931755B2 (ja) モデルベースのセグメント化の確率向上
JP7033369B2 (ja) サーフェス・ベースのオブジェクト識別
US20160171703A1 (en) Camera pose estimation apparatus and method
Lecron et al. Heterogeneous computing for vertebra detection and segmentation in X-ray images
US20210287454A1 (en) System and method for segmentation and visualization of medical image data
US20170294014A1 (en) Image processing used to estimate abnormalities
Lu et al. PatchMatch filter: edge-aware filtering meets randomized search for visual correspondence
EP2206093B1 (en) Automatic movie fly-path calculation
Nowinski et al. A 3D model of human cerebrovasculature derived from 3T magnetic resonance angiography
CN108805876B (zh) 使用生物力学模型的磁共振和超声图像的可形变配准的方法和系统
CN114365188A (zh) 基于vrds ai下腔静脉影像的分析方法及产品
US20160267352A1 (en) System and method for constructing a statistical shape model
WO2019045714A1 (en) METHODS, DEVICES AND COMPUTER PROGRAM PRODUCTS FOR MESH GENERATION IN BUILD 3D IMAGES
CN111862001A (zh) Ct影像的半自动标注方法及装置、电子设备、存储介质
Drakopoulos et al. Tetrahedral image-to-mesh conversion software for anatomic modeling of arteriovenous malformations
Pramod Kumar et al. Volumetric lung nodule segmentation in thoracic CT scan using freehand sketch
CN113409324B (zh) 一种融合微分几何信息的脑分割方法
CN112862975B (zh) 骨骼数据处理方法、系统、可读存储介质和设备
CN111613300B (zh) 基于VRDS 4D医学影像的肿瘤与血管Ai处理方法及产品
Leonardi et al. Multiple reconstruction and dynamic modeling of 3D digital objects using a morphing approach: Application to kidney animation and tumor tracking
Deshmukh et al. Depth map estimation with 3DFFT for two-dimensional to three-dimensional stereoscopic conversion based on image registration
US20230030618A1 (en) Making measurements in images
Preedanan et al. Improvement of urinary stone segmentation using GAN-based urinary stones inpainting augmentation
US20240005503A1 (en) Method for processing medical images

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200526

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

RD12 Notification of acceptance of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7432

Effective date: 20211215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220215

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20220216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220222

R150 Certificate of patent or registration of utility model

Ref document number: 7033369

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150