JP2018501005A - 解剖学的オブジェクトをセグメント化する超音波画像装置及び方法 - Google Patents

解剖学的オブジェクトをセグメント化する超音波画像装置及び方法 Download PDF

Info

Publication number
JP2018501005A
JP2018501005A JP2017535670A JP2017535670A JP2018501005A JP 2018501005 A JP2018501005 A JP 2018501005A JP 2017535670 A JP2017535670 A JP 2017535670A JP 2017535670 A JP2017535670 A JP 2017535670A JP 2018501005 A JP2018501005 A JP 2018501005A
Authority
JP
Japan
Prior art keywords
dimensional
ultrasound
segmentation
data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017535670A
Other languages
English (en)
Other versions
JP6644795B2 (ja
Inventor
ペーテルス,ヨッヘン
マラゴーシュ,アミール モハンマド タマセビ
マラゴーシュ,アミール モハンマド タマセビ
ヴェーゼ,ユルゲン
ビュルガー,クリスティアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2018501005A publication Critical patent/JP2018501005A/ja
Application granted granted Critical
Publication of JP6644795B2 publication Critical patent/JP6644795B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/468Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means allowing annotation or message recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20128Atlas-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Physiology (AREA)
  • Quality & Reliability (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)

Abstract

画像誘導介入中に超音波取得ユニット(14)の視界(29)の中の解剖学的オブジェクトをセグメント化する超音波画像装置(10)が開示される。超音波画像装置は、超音波取得ユニットから画像平面内の視野の中のオブジェクトの、生画像データとして提供される連続2次元超音波データストリーム(30)を受信し、セグメント化ユニット(36)からオブジェクトの3次元表現として3次元セグメント化モデル(46)を受信するよう構成される。画像プロセッサ(34)は、3次元セグメント化モデル及びセグメント化平面(48)に基づき2次元セグメント化モデル(50)を決定するよう構成され、セグメント化平面及び連続2次元超音波データストリームの画像平面は互いに対応する。画像プロセッサは、パターン検出に基づき2次元セグメント化モデルの輪郭を連続2次元超音波データストリームに適応させるよう構成され、画像プロセッサは、連続2次元超音波データストリーム及び連続2次元超音波データストリームに位置合わせされた適応セグメント化モデルに基づき、注釈付き2次元生画像データ(42)を提供するよう構成される。

Description

本発明は、超音波取得ユニットの視野の中の解剖学的オブジェクトをセグメント化する超音波画像装置に関する。本発明は、さらに、超音波取得ユニットの視野の中の解剖学的オブジェクトをセグメント化する方法に関する。特に、本発明は、患者のスキャンされる体積の中の解剖学的オブジェクトの画像処理及びセグメント化に関する。本発明は、さらに、コンピュータプログラムがコンピュータにおいて実行されるとコンピュータに本発明に従う方法のステップを実行させるプログラムコード手段を有するコンピュータプログラムに関する。
医用画像システムの分野では、通常、診断の可能性を向上するために、同一の又は異なる医療分析システムにより取得された患者の異なる画像を結合することが知られている。特に、超音波画像を異なる画像システムから得られた患者の術前画像データと結合する超音波システムが知られている。
超音波画像システムは、さらに、解剖学的モデル及び超音波画像データに基づきセグメント化画像を提供するために、超音波プローブにより走査された解剖学的構造の所定モデル又はセグメント化データを、取得した超音波データから得られた画像と結合できる。対応するシステムは、例えばUS2012/0065510A1から知られている。
生体検査及び/又はブランチの多い治療のような超音波画像により支援される医療処置の間、リアルタイム画像及び解剖学的オブジェクトの対応するリアルタイムセグメント化、つまり、超音波プローブの視野の中の解剖学的オブジェクトの体積又は表面の定義は、幾つかの利点を提供できる。
従来の解剖学的セグメント化技術は、磁気共鳴断層撮影法(magnet resonance tomography:MRT)又はコンピュータ断層撮影法(computer tomography:CT)のような提供される画像データの中に見える異なる組織の間の明瞭なコントラストを要求する。しかしながら、大部分の知られているセグメント化技術は、セグメント化モデルが粗悪な信号対雑音比を有する超音波画像に正しく位置合わせされないので、超音波画像システムでは低い性能を有していた。通常、セグメント化されるべき解剖学的構造の形状に関する事前情報は、超音波画像内の解剖学的構造のセグメント化を向上できるが、これらの技術は、標準的に、多大な計算量を必要とする3次元データに適用される。したがって、これらの技術は、標準的に効果であり、リアルタイム用途には適用できない。
幾つかの更なる知られている生体検査及び/又はブランチの多い治療の用途では、2次元画像データが取得され、位置センサに基づき、解剖学的オブジェクトのセグメント化のために使用される規則的な3次元ボクセルアレイに再構成される。
超音波画像データの中の解剖学的オブジェクトをセグメント化する知られている技術の欠点は、予め決定される3次元セグメント化モデルが分析中の解剖学的オブジェクトの変形を考慮しないことである。セグメント化モデルをリアルタイム3次元超音波画像データに位置合わせするための計算量は、医療行為の間のリアルタイムの3次元セグメント化を困難にする。さらに、医療行為の間の3次元データの取得は複雑であり、したがって、標準的に、2次元データのみが医療行為中に取得される。
本発明の目的は、高精度及び低い技術的努力により超音波データの中の解剖学的オブジェクトをセグメント化できる改良された超音波画像装置を提供することである。本発明の更なる目的は、超音波データの中の解剖学的オブジェクトをセグメント化する対応する方法を提供することである。本発明の最後の目的は、上述の方法を実施するコンピュータプログラム、及び該コンピュータプログラムを格納する非一時的メモリを提供することである。
本発明の第1の態様では、超音波取得ユニットの視界の中の解剖学的オブジェクトをセグメント化する超音波画像装置であって、前記超音波取得ユニットからの画像平面内の前記視界の中の前記オブジェクトの2次元超音波データを受信し、セグメント化ユニットから前記オブジェクトの3次元表現として3次元セグメント化モデルを受信するよう構成されるデータインタフェースと、前記3次元セグメント化モデル及びセグメント化平面に基づき、2次元セグメント化モデルを決定するよう構成される画像プロセッサであって、前記セグメント化平面及び前記2次元超音波データの画像平面は、互いに対応する、画像プロセッサと、を有し、前記画像プロセッサは、パターン検出に基づき前記2次元セグメント化モデルの輪郭を前記2次元超音波データに適応するよう構成され、前記画像プロセッサは、前記2次元超音波データ及び前記2次元超音波データに適応される前記適応セグメント化モデルに基づき、注釈付き2次元画像データを提供するよう構成される、超音波画像装置が提供される。
本発明の別の態様によると、超音波取得ユニットの視界の中の解剖学的オブジェクトをセグメント化する方法であって、前記超音波取得ユニットからの前記視界の中の前記オブジェクトの画像平面の中の2次元超音波データを受信するステップと、セグメント化ユニットから前記オブジェクトの3次元表現として3次元セグメント化モデルを受信するステップと、前記3次元セグメント化モデル及び前記3次元セグメント化モデルを横切るセグメント化平面に基づき、2次元セグメント化モデルを決定するステップであって、前記セグメント化平面及び前記画像平面は、互いに対応する、ステップと、を有し、前記2次元超音波データの中のパターン検出に基づき前記2次元セグメント化モデルの輪郭を前記2次元超音波データに変形するステップと、前記2次元超音波データ及び前記2次元超音波データに揃えられる前記適応セグメント化モデルに基づき、注釈付き2次元画像データを提供するステップと、を有する方法が提供される。
本発明の別の態様によると、コンピュータプログラムがコンピュータにおいて実行されるとコンピュータに本発明に従う方法のステップを実行させるプログラムコード手段を有するコンピュータプログラムが提供される。
別の態様によると、本発明によるコンピュータプログラムを格納するために格納媒体が提供される。
本発明の好適な実施形態は、従属請求項で定められる。理解されるべきことに、請求される方法は、請求される装置の及び従属請求項に定められるのと同様の及び/又は同一の好適な実施形態を有する。
本発明は、3次元セグメント化モデルとセグメント化モデルの3次元表現の切断面又は交差面に対応するセグメント化平面とから解剖学的オブジェクトの2次元セグメント化モデルを導出するための考えに基づく。ここで、取得される超音波データの画像平面は、セグメント化平面に対応する。したがって、対応する2次元セグメント化モデルは、少ない計算量で及び低減された時間枠の中で2次元超音波データに適応され得る。2次元セグメント化モデル及び2次元超音波データの精細な適応又は相関を達成するために、2次元セグメント化モデルは、超音波データの中で検出されるパターンに基づき輪郭を変形することにより、2次元超音波データに更に適応される。モデルの超音波データへの適応の後に、相応して注釈付き2次元画像が提供され得る。注釈付き2次元画像では、異なるピクセルのような異なる画像部分は、2次元セグメント化モデルに基づき、異なる解剖学的特徴として注釈を付けられ又はラベルを付けられる。追加又は代替で、解剖学的オブジェクトの表面ピクセルは、視覚ディスプレイのために輪郭を提供するために注釈を付けられる。したがって、解剖学的オブジェクトは、短い時間枠の中の少ない計算量で及び高精度で、超音波取得ユニットから受信される超音波データの中でセグメント化され得る。
このような削減された計算量に基づき、解剖学的オブジェクトのセグメント化モデルの適応及び超音波データセグメント化は、特に、超音波データの生画像ストリームのために提供され得る。したがって、画像装置及び画像方法は、例えば、生体検査又はブランチの多い治療処置又は他の画像誘導介入のために使用できる。
好適な実施形態では、前記セグメント化ユニットは、前記オブジェクトの3次元医用画像データを受信するよう構成されるデータインタフェースを有し、前記セグメント化ユニットは、2次元画像手順の前に、前記3次元医用画像データに基づき、前記解剖学的オブジェクトの所定3次元セグメント化モデルを適応させるよう構成される、請求項1に記載の超音波画像装置。これは、場合によっては、オブジェクトの3次元表現として提供され得る精細且つ詳細なセグメント化を得るためである。適応された所定3次元セグメント化モデルは、解剖学的オブジェクトの患者固有に適応される3次元表現であり、3次元セグメント化を形成する。所定3次元セグメント化モデル及び患者固有3次元セグメント化は、以下で、2次元セグメント化の処理中に使用される。
これは、所定3次元セグメント化モデルから得られる、視界の中のオブジェクトの一般的解剖学的特徴及び画像外観の知識を利用することを可能にする。結果として、私達は、解剖学的特徴及び画像外観に関する知識をエンコードする2次元セグメント化モデルを得る。この2次元モデルは、患者の個々の解剖学的特徴及び画像外観に適応される必要があるだけである。
更なる好適な実施形態では、前記セグメント化ユニットは、前記適応3次元セグメント化モデルを前記データインタフェースに提供するよう構成される。
好適な実施形態では、3次元セグメント化モデル及び/又は2次元セグメント化モデルは、解剖学的オブジェクトの表現を形成する複数のモデル要素を有する。ここで、解剖学的情報及び/又はパターン情報は、モデル要素に割り当てられる。モデル要素は、望ましくは、2次元セグメント化モデル又は3次元セグメント化モデルの線要素又は面要素を形成する。これは、セグメント化モデルが単なる外形よりも多くの情報を含み、したがって不整合又は誤ったセグメント化の可能性が低減できるので、2次元セグメント化モデルの輪郭の適応を向上し、注釈付き画像データの中で提供される情報を向上することを可能にする。
好適な実施形態では、画像プロセッサは、解剖学的情報及び/又はパターン情報に基づき、2次元セグメント化モデルの輪郭を超音波データに変形可能に適応するよう構成される。これは、解剖学的情報及び/又はパターン情報のような追加情報が解剖学的オブジェクトの3次元表現の形状に加えて利用できるので、さらに場合によっては識別及び位置合わせの精度を向上する。モデル要素は、パターン情報を有して良い。したがって、個々の要素は、超音波画像データの中の形成されたパターンに相応して位置合わせされ得る。ここで、エッジが超音波画像データの中で検出されるだけでなく、局所的画像強度又は他の画像パターンも考慮される。
好適な実施形態では、前記パターン情報は、前記オブジェクトの超音波データ強度情報を有し、前記画像プロセッサは、前記2次元セグメント化モデルの輪郭を、前記2次元超音波データの中の対応するパターンに適応させるよう構成される。これは、位置合わせが単純なエッジ検出に基づくのではなく(それだけではなく)超音波画像データの中のより多くの一般的パターン情報に基づくので、セグメント化モデルの超音波画像データに対する位置あわせを向上する可能性がある。これは、概して、位置合わせの信頼性を向上する可能性がある。
好適な実施形態では、パターン情報は、モデル要素が揃えられる強度値及び/又は強度勾配を有する。これは、視界の中の解剖学的オブジェクトをセグメント化するために超音波データの中の更なる強度又はコントラスト情報が利用できるので、2次元セグメント化モデルの形状の適応又は変形を更に向上する可能性がある。これに関し、強度情報は、モデル要素が位置合わせされるべきモデル要素の1又は2つの側の強度であって良い。したがって、エッジ検出だけでなく、隣接組織の強度情報も利用される。
好適な実施形態では、前記画像プロセッサは、前記注釈付き画像データの中に前記解剖学的情報を表示するよう構成される。これは、セグメント化の個々の解剖学的特徴が超音波画像の中の解剖学的特徴に正しく位置合わせされるか否かをユーザが調べることができるので、オブジェクトセグメント化の信頼性を更に向上する可能性がある。
好適な実施形態では、超音波画像装置は、前記超音波取得ユニットの位置及び観察方向を決定し及び前記2次元超音波データの前記画像平面を決定する位置決定ユニットを更に有し、前記画像プロセッサは、前記決定された画像平面に対応する前記セグメント化平面を決定するよう構成される。これは、2つの関連する平面、つまり互いに対応する2次元超音波データの画像平面とセグメント化平面とを決定することを可能にする。したがって、2次元セグメント化モデル及び2次元超音波データの位置合わせは、少ない計算量、高い精度で、及び短い時間枠の中で、達成できる。画像平面は、このような決定された画像平面に基づき位置決定ユニットにより決定される。画像平面は、3次元セグメント化モデルがセグメント化平面の中の対応する2次元セグメント化モデルに低減され得るよう、及び2次元セグメント化モデルが画像平面の中の超音波画像に適応され得るよう、決定される。
代替の実施形態では、前記セグメント化平面は、前記3次元セグメント化との関連で予め定められ、前記画像平面は、前記予め定められたセグメント化平面に適応される。これは、超音波画像が取得されるべき及び個々の画像平面を所謂、セグメント化平面に適応すべき平面を決定することを可能にする。したがって、ユーザは、画像化手順の前に、キャプチャされるべき画像を定めることができる。
更なる実施形態では、超音波画像装置は、ユーザインタフェースを有する。ここで、セグメント化平面は、3次元セグメント化モデルに関連して、ユーザインタフェースによりユーザにより予め定められる。これは、画像化の前にセグメント化平面を選択し、画像平面を予め選択されたセグメント化平面に適応することを可能にする。これは、2次元画像化の開始前に3次元画像を取得し及びセグメント化することなく、セグメント化平面を選択することを可能にする。
更なる好適な実施形態では、前記データインタフェースは、前記超音波取得ユニットからの前記視野の中の前記解剖学的オブジェクトの前記2次元超音波データを連続データストリームとして受信するよう構成される。これは、連続データストリームの中で受信される解剖学的オブジェクトの生画像を利用することを可能にする。したがって、生体検査又はブランチの多い治療又は何らかの他の介入は、解剖学的オブジェクトの個々のセグメント化に基づき実行できる。
上述のように、本発明は、解剖学的オブジェクトをセグメント化するための計算量及び必要な時間枠を削減する可能性を提供する。これは、2次元セグメント化モデルが2次元セグメント化モデルが適応されるべき2次元超音波データの画像平面に対応するセグメント化平面に沿って切断され又は交差される3次元セグメント化モデルに基づき決定されるので、3次元の代わりに2次元超音波データを使用することにより可能にされる。さらに、このように決定される2次元セグメント化モデルは超音波データの中のパターン検出に基づき超音波データに変形可能に適応されるので、位置合わせの精度が向上できる。言い換えると、粗い位置合わせは、個々のセグメント化平面及び画像平面の相関により達成され、精細な位置合わせ又は適応は、セグメント化モデルの形状の適応により達成される。したがって、分析中の解剖学的オブジェクトの変形が考慮され得る。
さらに、本発明は、セグメント化されるべき組織を有する動的に定められる方向により、2次元画像データのみを使用することを可能にする。3次元データ及び結果として生じるセグメント化は利用可能ではないので、所望の画像平面は、ユーザがセグメント化モデルを表す3次元組織表面の幻像描画に関連して仮想平面を対話的に回転し及びシフトできるグラフィカルユーザインタフェース(GUI)を用いて定められて良い。このように、2次元セグメント化モデルは、GUIを介してユーザにより定められる平面を用いて3次元セグメント化モデルから導出できる。所望の面方向の中の所望の閲覧方向は、(例えば、ユーザが超音波トランスデューサを位置決めでき又は走査取得方向を描画できる)高度GUIにより定められて良い。
本発明の上述の及び他の態様は、本願明細書に記載される実施形態から明らかであり、それらの実施形態を参照して教示される。以下の図面がある。
患者の体の体積を走査するために使用される医用画像システムの概略表現を示す。 超音波画像装置の一実施形態の概略ブロック図を示す。 超音波プローブによりキャプチャされる2次元超音波画像を示す。 解剖学的オブジェクトのセグメント化の概略図を示す。 視界の中の解剖学的オブジェクトをセグメント化するために、セグメント化モデル及び超音波画像の位置合わせを示す。 解剖学的特徴及び/又はパターン認識に関する追加情報と一緒に解剖学的オブジェクトの3次元表現を形成するセグメント化モデルの詳細図を示す。 視界の中の解剖学的オブジェクトをセグメント化するために、2次元セグメント化モデル及び医用画像データの位置合わせを示す。 超音波取得ユニットの視界の中のオブジェクトをセグメント化する方法の概略フロー図を示す。
図1は、一実施形態による超音波画像装置10、特に医用超音波2次元画像システムの概略図を示す。超音波画像装置10は、解剖学的位置の体積(volume)、特に患者12の解剖学的位置を検査するために適用される。超音波画像装置10は、超音波波形を送信し及び/又は受信する多数のトランスデューサ要素を備える少なくとも1つのトランスデューサアレイを有する超音波プローブ(又は超音波取得ユニット)14を有する。トランスデューサ要素はアレイに配置されるので、超音波プローブ14は、患者12の解剖学的位置の画像平面内の視界の中の2次元超音波データを決定できる。
超音波画像装置10は、超音波プローブ14及び超音波データの取得を制御する制御ユニット16を有する。以下に更に詳述するように、制御ユニット16は、超音波プローブによる超音波データの取得だけでなく、超音波プローブ14のトランスデューサアレイにより受信される超音波ビームのエコーの中から超音波画像を形成する画像処理及び信号も制御する。制御ユニット16は、さらに、以下に詳細に記載するように、超音波プローブ14の画像平面及び個々の解剖学的オブジェクトのセグメント化のセグメント化平面を位置合わせすることにより、超音波プローブ14の視界の中の解剖学的オブジェクトをセグメント化し、セグメント化及び超音波画像データを位置合わせする。
超音波画像装置10は、位置決定ユニット18を更に有する。位置決定ユニット18は、超音波プローブ14により取得される超音波データの画像平面の空間的方向を決定するために、超音波プローブ14の位置及び見ている方向を決定する。位置決定ユニット18は、図1に示すように超音波プローブ14に組み込まれて良く、或いは代替で、電磁追跡ユニットのような別個の位置決定ユニットとして設けられて良い。
超音波画像装置10は、超音波プローブ14の視界の中の解剖学的オブジェクトの体積又は表面を定めるために、超音波データ及び個々の位置合わせされたセグメント化モデルを表示するディスプレイ20を更に有する。さらに、ユーザ入力を提供するためのキー又はキーパッドを有し得る入力装置22が設けられて良い。入力装置22は、ディスプレイ20に結合されて良く、又は制御ユニット16に直接結合されて良い。
図2は、図1に示した超音波画像装置10の詳細図を示す。同一の要素は、同一の参照符号により示される。ここでは単に相違点が詳細に記載される。
超音波プローブ14は、視界29の中の超音波波形28を送信し及び受信するトランスデューサアレイ26を有する。超音波プローブ14は、超音波プローブ14又はトランスデューサアレイ26の位置及び見ている方向を決定する位置決定ユニット18を有する。位置決定ユニット18は、超音波プローブ14又はトランスデューサアレイ26の位置及び見ている方向に基づき、トランスデューサアレイ26によりキャプチャされ制御ユニット16に提供される超音波データ30の画像平面を決定する。超音波データは2次元超音波データであり、2次元超音波データから2次元画像データが得られる。超音波データは、望ましくは、連続データストリームであり、生画像データとして提供される。
超音波プローブ14は、制御ユニット16の入力インタフェース32に結合されて、超音波データ30、並びに超音波プローブ14の位置及び見ている方向、又は超音波データ30の画像平面を制御ユニット16に提供する。
制御ユニット16は、通常、画像プロセッサ34を有する。画像プロセッサ34は、位置決定ユニット18から、超音波データ30及び位置及び見ている方向又は画像平面を受信するデータインタフェース32に結合される。制御ユニット16は、セグメント化ユニット36を更に有する。セグメント化ユニット36は、データベース40又は追加医用画像装置40から医用画像データを受信するデータインタフェース38に接続される。
画像プロセッサ34は、通常、超音波データ30に基づき超音波画像を決定し、画像データをユーザに表示するために画像データ42をディスプレイ20に提供する。
セグメント化ユニット36は、3次元医用画像データをデータベース又は外部医用画像装置40から患者12の画像データとして受信し、個々の解剖学的オブジェクトに対応する所定セグメント化モデルに基づき、患者12の特定解剖学的オブジェクトの患者固有セグメント化モデルを提供する。外部医用画像装置40は、MRT、CT、又は3D超音波装置であって良い。セグメント化ユニットにより提供される患者固有セグメント化モデルは、患者の座標系の、患者の生体構造に適応される所定モデルの適応されたメッシュを有する。このように決定された3次元セグメント化モデルは、セグメント化ユニット36により画像プロセッサ34に提供される。
画像プロセッサ34は、2次元超音波データ30、及び入力インタフェース32から受信した3次元セグメント化モデルと同じ座標系を有する個々の画像平面を受信する。2次元超音波データがキャプチャされる画像平面に基づき、セグメント化平面が決定され、3次元セグメント化モデルは、セグメント化平面に沿って切断され又は横断される。したがって、3次元セグメント化モデルは、セグメント化平面の中で個々の解剖学的オブジェクトの輪郭又は形状を表す2次元セグメント化モデルに低減される。
3次元セグメント化モデルをセグメント化平面に沿って横断される2次元セグメント化モデルに変換する間に、対応する3次元セグメント化モデルの追加解剖学的情報及び/又はパターン情報も変換され、対応する2次元セグメント化モデルが生成される。この2次元セグメント化モデルでは、セグメント化線のようなモデル要素の各々は、対応する超音波画像の解剖学的特徴に関する追加情報及び/又はパターン情報に関連付けられる。
3次元セグメント化モデルは、3次元医用画像データに基づき、患者12の個々の解剖学的オブジェクトに適応される所定セグメント化モデルに基づく。それは、三角形のメッシュにより形成され、各三角形は、解剖学的オブジェクト及び解剖学的オブジェクトに関連付けられる個々の画像データに対応する、境界情報、解剖学的情報又はパターン情報を有する。3次元セグメント化モデルを2次元セグメント化モデルに変換する間に、メッシュの三角形は、2次元セグメント化モデルの中の輪郭の対応する線に変換される。ここで、三角形に関連付けられる、解剖学的情報、境界情報、及び/又はパターン情報も、2次元セグメント化モデルに変換される。したがって、個々の情報も、2次元セグメント化モデルの線に関連付けられる。
画像プロセッサ34は、ディスプレイユニット20に提供される注釈付き画像データ42を提供するために、2次元セグメント化モデル及び超音波画像データ30を結合するよう構成される。注釈付き画像データ42は、解剖学的オブジェクトの超音波画像データ、及び結合画像データ42の中で解剖学的オブジェクトを識別するために超音波画像データに重ね合わされる解剖学的オブジェクトの輪郭データ又は形状を有する。注釈付き画像データ42の中で、異なる画像部分又はピクセルは、解剖学的オブジェクトを識別し又はラベル付けするために、特定解剖学的特徴として注釈を付けられ又はラベル付けされる。2次元セグメント化モデルの輪郭又は形状は、パターン検出に基づきモデル輪郭を変形することにより、超音波画像データに適応される。したがって、臓器のような解剖学的オブジェクトの動き又は変形が考慮でき、個々の解剖学的オブジェクトは、少ない技術的努力により正確に識別され又はラベル付けできる。適応又は変形するステップの間、2次元セグメント化モデルの線セグメントの、解剖学的情報、境界情報、及び/又はパターン情報は、2次元セグメント化モデルを超音波画像データに位置合わせするために利用され、さらに、情報は、超音波画像データの中のパターン検出、コントラスト情報、及び/又はコントラスト勾配(gradients)に基づき、2次元セグメント化モデルの形状を超音波データの中の解剖学的オブジェクトに適応するために使用される。さらに、エネルギ重み平衡メッシュのシフトに対する鏡像力(energy weights balancing mesh stiffness versus image forces)のような他のマッピングされたモデルパラメータは、2次元セグメント化モデルの輪郭又は形状を画像データに適応させるために利用できる。
セグメント化平面及び個々の2次元セグメント化モデルは、低い技術的努力及び低い計算量により決定できるので、及び2次元セグメント化モデルの超音波画像データ30への適応又は変形は、低い計算量及び短い時間フレームで実行できるので、2次元セグメント化モデルの適応は、連続データストリームとして画像プロセッサ34に提供される生画像データにも適用できる。したがって、解剖学的オブジェクトのセグメント化は、超音波生画像アプリケーションにも適用できる。
図3は、この特定の例では、図3に示すデカルト座標系でyx平面である画像平面に沿ってキャプチャされた超音波画像の形式の、超音波データ30の概略図を示す。位置決定ユニット18により決定されたこのような決定された画像平面は、画像プロセッサ34に提供される。したがって、画像プロセッサ34は、以下に記載するように、視界29の中の解剖学的オブジェクトのセグメント化のためにセグメント化平面を決定できる。図4では、対応するセグメント化モデルを適応することにより得られる3次元セグメント化が、三角形47のメッシュ46として概略的に示される。3次元セグメント化モデル46は、上述のようにデータベース40又は医用画像装置40から受信されセグメント化ユニット36により画像プロセッサ34に提供される3次元医用画像データに基づき、患者12の解剖学的オブジェクトに適応される、対応する所定3次元セグメント化モデルに基づき決定される。画像プロセッサ34は、図4に示すように、位置決定ユニット18により提供される画像平面の座標に従いセグメント化平面48を決定する。ここで、セグメント化平面は、図4に示すデカルト座標系のyx平面に対応する。セグメント化平面48は、3次元セグメント化モデル46の切断面又は交差平面を定める。ここで、画像プロセッサ34は、図4に示すような3次元セグメント化モデル46、対応する3次元セグメント化モデル、及びセグメント化平面48に基づき、2次元セグメント化モデル50を決定するよう構成される。2次元セグメント化モデル50は、セグメント化されるべき解剖学的オブジェクトの2次元輪郭又は形状の形式で、2次元セグメント化も定める。
2次元セグメント化モデル50は、セグメント化平面48により切断される3次元セグメント化モデル46の三角形47に対応する異なる線セグメント52を有する。適応3次元セグメント化モデル46の三角形47の各々は、追加解剖学的情報、境界情報又はパターン情報を有する。ここで、パターン情報は、超音波画像データ30の中に期待される画像コントラスト情報、画像強度情報、強度勾配を有して良い。パターン情報は、例えば、個々の超音波画像の中に期待される三角形の2つの側の強度であって良い。3次元セグメント化モデル46の三角形の各々に関連付けられる情報は、2次元セグメント化モデル50に変換される。したがって、線セグメント52の各々は、追加情報を有し、相応して超音波画像に位置合わせされ得る。したがって、線セグメント52は、例えばエッジ検出に基づき画像データに適応されるだけでなく、相応して、線セグメント52の2つの側の画像強度に位置合わせされる。
2次元セグメント化モデル50の位置あわせは、図5に概略的に示される。ここで、セグメント化モデルは、超音波画像データ30の中の解剖学的オブジェクトに重ね合わされ位置合わせされる。更なるステップで、注釈付き画像42が提供される。ここで、各ピクセルは、特定解剖学的オブジェクト又は特徴として注釈を付けられ又はラベルを付けられ、注釈付き画像42はディスプレイユニット20において表示されるべきである。位置合わせの精度を向上するために、2次元セグメント化モデル50の輪郭は、図5の矢印54により概略的に示されるような輪郭の変形により、超音波データ30に適応される。
したがって、セグメント化モデルは、少ない計算量で及び短い時間枠の中で、超音波画像データ30に適応できる。したがって、生超音波画像データが、視界の中の解剖学的オブジェクトの特徴の個々の定義又は注釈のために利用できる。
図6で、3次元セグメント化モデル46は、三角形47の3次元メッシュとして示される。ここで、各三角形47は、画像データに対する個々の位置合わせのための異なる解剖学的情報、パターン情報、及び/又は境界情報を有する。詳細な3次元セグメント化モデル46に基づき、2次元セグメント化モデル50が導出され、その輪郭は、超音波データ30の中の個々のパターンに位置合わせされ、図7に示すような注釈付き画像42を提供するために重ね合わされられ得る。
図8において、概略フロー図は、超音波取得ユニット14の視界29の中の解剖学的オブジェクトをセグメント化する方法を示す。方法は、概して60により示される。方法60はステップ62で開始する。ステップ64で、所定3次元モデルは、セグメント化ユニット36に提供される。ステップ66で、セグメント化ユニット36は、データベース40又は画像装置40から受信した3次元医用画像データに基づき、所定3次元セグメント化モデルを適応する。
3次元セグメント化モデル46は、3次元医用画像データから導出した患者12の個々の解剖学的特徴に、所定セグメント化モデルの適応の結果として決定される。
ステップ68で、画像プロセッサ34は、適応3次元セグメント化モデル46をセグメント化ユニット36から、及びセグメント化平面48を位置決定ユニット18から受信し、適応3次元セグメント化モデル46を切断し又は交差することにより2次元セグメント化モデル50を決定する。ステップ70で、トランスデューサアレイ26は、超音波データ30をキャプチャし、超音波データ30を画像プロセッサ34に提供する。ここで、ステップ72で、画像プロセッサ34は、適応2次元セグメント化モデル50と超音波画像データ30を結合する。ステップ74で、画像プロセッサ34は、超音波データ30の中のパターン検出に基づき2次元セグメント化モデル50を超音波データ30の中の解剖学的オブジェクトに適応し、このような適応セグメント化モデル及び画像データを注釈付き又はラベル付き画像42に結合する。ステップ76で、注釈付き画像データ42は、ディスプレイユニット20により表示される。ステップ78で、方法60は終了する。
したがって、超音波プローブ14の視界29の中の解剖学的オブジェクトは、少ない計算量及び低減された時間消費により識別できる。したがって、解剖学的オブジェクトは、生超音波画像の中でセグメント化できる。
本発明は図面及び上述の説明で詳細に説明されたが、このような図面及び説明は説明及び例であり、本発明を限定するものではない。本発明は開示された実施形態に限定されない。開示された実施形態の他の変形は、図面、詳細な説明、及び請求項を読むことにより、当業者に理解され請求項に記載された発明を実施する際に実施されうる。
留意すべき点は、用語「有する(comprising)」は他の要素又は段階を排除しないこと、及び単数を表す語(a、an)は複数を排除しないことである。単一の要素又は他のユニットが、請求の範囲に記載された幾つかのアイテムの機能を満たしても良い。特定の量が相互に異なる従属請求項に記載されるという事実は、これらの量の組合せが有利に用いることが出来ないことを示すものではない。
コンピュータプログラムは、インターネット又は他の有線若しくは無線通信システムを介するような、他のハードウェアと共に又はその一部として提供される光記憶媒体又は固体媒体のような適切な媒体に格納/分配されても良く、他の形式で分配されても良い。
請求項中のいかなる参照符号も請求の範囲又は本発明の範囲を制限するものと考えられるべきではない。
従来の解剖学的セグメント化技術は、磁気共鳴断層撮影法(magnet resonance tomography:MRT)又はコンピュータ断層撮影法(computer tomography:CT)のような提供される画像データの中に見える異なる組織の間の明瞭なコントラストを要求する。しかしながら、大部分の知られているセグメント化技術は、セグメント化モデルが粗悪な信号対雑音比を有する超音波画像に正しく位置合わせされないので、超音波画像システムでは低い性能を有していた。通常、セグメント化されるべき解剖学的構造の形状に関する事前情報は、超音波画像内の解剖学的構造のセグメント化を向上できるが、これらの技術は、標準的に、多大な計算量を必要とする3次元データに適用される。したがって、これらの技術は、標準的に効果であり、リアルタイム用途には適用できない。
WO2004/111937A1は、例えば多角形の単位により表現される3D変形モデルを関心構造の境界に適合することにより関心構造の描写が実行できる3D画像セグメント化技術に関する。
超音波画像データの中の解剖学的オブジェクトをセグメント化する知られている技術の欠点は、予め決定される3次元セグメント化モデルが分析中の解剖学的オブジェクトの変形を考慮しないことである。セグメント化モデルをリアルタイム3次元超音波画像データに位置合わせするための計算量は、医療行為の間のリアルタイムの3次元セグメント化を困難にする。さらに、医療行為の間の3次元データの取得は複雑であり、したがって、標準的に、2次元データのみが医療行為中に取得される。
WO2013/114257A2は、オブジェクトを画像化する画像装置を記載している。ここで、形状関係決定ユニットは、オブジェクトの第1画像と第2画像との間の形状関係を決定し、マーカ決定ユニットは、形状関係に基づき、第1画像及び第2画像の中の対応するマーカ位置及びマーカ外観を決定し、第1画像の中の第1位置に位置すべき第1マーカのマーカ外観、及び第2画像の中の第2の対応する位置に位置すべき第2マーカのマーカ外観が形状関係を示すようにする。
WO2014/134188A1は、超音波データを処理する技術を開示している。この技術は、被写体の画像領域から1又は複数の超音波信号に基づき生成された超音波データを取得するステップと、超音波データに対応する陰影強度データを計算するステップと、陰影強度データ及び骨分離パラメータに基づき、画像領域の中の骨の存在の指示を生成し、陰影強度データ及び骨分離パラメータと異なる組織分離パラメータに基づき、画像領域の中の組織の存在の指示を生成するステップと、骨の存在の指示及び組織の存在の指示を結合することにより、被写体の超音波画像を生成するステップと、を有する。
本発明の目的は、高精度及び低い技術的努力により超音波データの中の解剖学的オブジェクトをセグメント化できる改良された超音波画像装置を提供することである。本発明の更なる目的は、超音波データの中の解剖学的オブジェクトをセグメント化する対応する方法を提供することである。本発明の最後の目的は、上述の方法を実施するコンピュータプログラム、及び該コンピュータプログラムを格納する非一時的メモリを提供することである。
これらの目的は、独立請求項により解決される。有利な実施形態は、従属請求項により定められる。

Claims (13)

  1. 超音波取得ユニットの視界の中の解剖学的オブジェクトをセグメント化する超音波画像装置であって、
    前記超音波取得ユニットからの画像平面内の前記視界の中の前記オブジェクトの2次元超音波データを受信し、セグメント化ユニットから前記オブジェクトの3次元表現として3次元セグメント化モデルを受信するよう構成されるデータインタフェースと、
    前記3次元セグメント化モデル及びセグメント化平面に基づき、2次元セグメント化モデルを決定するよう構成される画像プロセッサであって、前記セグメント化平面及び前記2次元超音波データの画像平面は、互いに対応する、画像プロセッサと、
    を有し、
    前記画像プロセッサは、パターン検出に基づき前記2次元セグメント化モデルの輪郭を前記2次元超音波データに適応させるよう構成され、前記画像プロセッサは、前記2次元超音波データ及び前記2次元超音波データに適応される前記適応セグメント化モデルに基づき、注釈付き2次元画像データを提供するよう構成される、
    超音波画像装置。
  2. 前記セグメント化ユニットは、前記オブジェクトの3次元医用画像データを受信するよう構成されるデータインタフェースを有し、前記セグメント化ユニットは、前記3次元医用画像データに基づき、前記解剖学的オブジェクトの所定3次元セグメント化モデルを適応させるよう構成される、請求項1に記載の超音波画像装置。
  3. 前記セグメント化ユニットは、前記適応3次元セグメント化モデルを前記データインタフェースに提供するよう構成される、請求項2に記載の超音波画像装置。
  4. 前記3次元セグメント化モデル及び/又は前記2次元セグメント化モデルは、前記解剖学的オブジェクトの面又は輪郭の前記表現を形成する複数の面要素又は線要素を含み、解剖学的情報及び/又はパターン情報は前記面要素又は線要素に割り当てられる、請求項1に記載の超音波画像装置。
  5. 前記画像プロセッサは、パターン情報に基づき、前記2次元セグメント化モデルの輪郭を前記超音波データに適応させるよう構成される、請求項4に記載の超音波画像装置。
  6. 前記パターン情報は、前記オブジェクトの超音波データ強度情報を有し、前記画像プロセッサは、前記2次元セグメント化モデルの輪郭を、前記2次元超音波データの中の対応する強度に適応させるよう構成される、請求項4に記載の超音波画像装置。
  7. 前記画像プロセッサは、前記注釈付き画像データの中に前記解剖学的情報を表示するよう構成される、請求項4に記載の超音波画像装置。
  8. 前記超音波取得ユニットの位置及び観察方向を決定し及び前記2次元超音波データの前記画像平面を決定する位置決定ユニットを更に有し、前記画像プロセッサは、前記決定された画像平面に対応する前記セグメント化平面を決定するよう構成される、請求項1に記載の超音波画像装置。
  9. 前記セグメント化平面は、前記3次元セグメント化モデルとの関連で予め定められ、前記画像平面は、前記予め定められたセグメント化平面に適応される、請求項1に記載の超音波画像装置。
  10. ユーザインタフェースを更に有し、前記セグメント化平面は、前記ユーザインタフェースを介して前記ユーザにより予め定められる、請求項9に記載の超音波画像装置。
  11. 前記データインタフェースは、前記超音波取得ユニットからの前記視界の中の前記解剖学的オブジェクトの前記2次元超音波データを連続データストリームとして受信するよう構成される、請求項1に記載の超音波画像装置。
  12. 超音波取得ユニットの視界の中の解剖学的オブジェクトを識別する方法であって、
    前記超音波取得ユニットからの前記視界の中の前記オブジェクトの画像平面の中の2次元超音波データを受信するステップと、
    セグメント化ユニットから前記オブジェクトの3次元表現として3次元セグメント化モデルを受信するステップと、
    前記3次元セグメント化モデル及び前記3次元セグメント化モデルを横切るセグメント化平面に基づき、2次元セグメント化モデルを決定するステップであって、前記セグメント化平面及び前記画像平面は、互いに対応する、ステップと、
    を有し、
    前記2次元超音波データの中のパターン検出に基づき前記2次元セグメント化モデルの輪郭を前記2次元超音波データに変形するステップと、
    前記2次元超音波データ及び前記2次元超音波データに位置合わせされる前記適応2次元セグメント化モデルに基づき、注釈付き2次元画像データを提供するステップと、
    を有する方法。
  13. コンピュータプログラムであって、前記コンピュータプログラムがコンピュータで実行されると請求項12に記載の方法のステップをコンピュータに実行させるプログラム手段を有する、コンピュータプログラム。
JP2017535670A 2015-01-06 2016-01-04 解剖学的オブジェクトをセグメント化する超音波画像装置及び方法 Active JP6644795B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562100136P 2015-01-06 2015-01-06
US62/100,136 2015-01-06
EP15152964 2015-01-29
EP15152964.1 2015-01-29
PCT/EP2016/050021 WO2016110463A1 (en) 2015-01-06 2016-01-04 Ultrasound imaging apparatus and method for segmenting anatomical objects

Publications (2)

Publication Number Publication Date
JP2018501005A true JP2018501005A (ja) 2018-01-18
JP6644795B2 JP6644795B2 (ja) 2020-02-12

Family

ID=52396608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017535670A Active JP6644795B2 (ja) 2015-01-06 2016-01-04 解剖学的オブジェクトをセグメント化する超音波画像装置及び方法

Country Status (5)

Country Link
US (1) US10667786B2 (ja)
EP (1) EP3242602B1 (ja)
JP (1) JP6644795B2 (ja)
CN (1) CN107106128B (ja)
WO (1) WO2016110463A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3533031B1 (en) 2016-10-25 2023-08-16 Koninklijke Philips N.V. A method and apparatus for segmenting a two-dimensional image of an anatomical structure
KR102107581B1 (ko) * 2016-12-19 2020-05-07 지멘스 메디컬 솔루션즈 유에스에이, 인크. 초음파 프로브의 주석 정보를 제공하는 방법 및 초음파 시스템
EP3381512A1 (en) * 2017-03-30 2018-10-03 Koninklijke Philips N.V. Determining at least one final two-dimensional image for visualizing an object of interest in a three-dimensional ultrasound volume
EP3432262A1 (en) * 2017-07-18 2019-01-23 Koninklijke Philips N.V. Method and system for dynamic multi dimensional images of an object
EP3711673A1 (en) * 2019-03-18 2020-09-23 Koninklijke Philips N.V. Methods and systems for adjusting the field of view of an ultrasound probe
KR20220062596A (ko) * 2019-09-12 2022-05-17 에코너스 인코퍼레이티드 자동화된 초음파 이미지 라벨링 및 품질 등급화를 위한 시스템들 및 방법들(systems and methods for automated ultrasound image labeling and quality grading)

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4614548B2 (ja) * 2001-01-31 2011-01-19 パナソニック株式会社 超音波診断装置
US6824517B2 (en) 2002-06-25 2004-11-30 Koninklijke Philips Electronics N.V. Ultrasound quantification in real-time using acoustic data in more than two dimensions
DE602004028471D1 (de) * 2003-06-13 2010-09-16 Philips Intellectual Property Dreidimensionale bildsegmentierung
JP4885952B2 (ja) 2005-06-21 2012-02-29 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 漸進的モデル・ベースの適応
US8260586B2 (en) 2005-09-23 2012-09-04 Koninklijke Philips Electronics N.V. Method of and a system for adapting a geometric model using multiple partial transformations
KR100870412B1 (ko) * 2005-12-01 2008-11-26 주식회사 메디슨 Svm 기반 질감분류를 이용하여 추출된 태아의 표면영상을 기초로 태아의 3차원 초음파 영상을 형성하는초음파 시스템 및 방법
ATE437421T1 (de) 2005-12-19 2009-08-15 Koninkl Philips Electronics Nv Verfahren zur erleichterung der nachbearbeitung von bildern über verformbare netze
US7889912B2 (en) * 2006-09-15 2011-02-15 The General Electric Company Method for real-time tracking of cardiac structures in 3D echocardiography
JP4935632B2 (ja) 2007-11-07 2012-05-23 ソニー株式会社 画像処理装置、画像処理方法および画像処理プログラム
DE102008030244A1 (de) * 2008-06-25 2009-12-31 Siemens Aktiengesellschaft Verfahren zur Unterstützung von perkutanen Interventionen
TR201902939T4 (tr) * 2008-09-26 2019-03-21 Koninklijke Philips Nv Medikal raporlara yönelik hastaya özgü anatomik taslaklar.
JP5491836B2 (ja) * 2009-01-30 2014-05-14 株式会社東芝 超音波診断装置、超音波画像処理装置、医用画像診断装置及び医用画像処理装置
US20120065510A1 (en) 2010-09-09 2012-03-15 General Electric Company Ultrasound system and method for calculating quality-of-fit
CN103402453B (zh) * 2011-03-03 2016-11-16 皇家飞利浦有限公司 用于导航系统的自动初始化和配准的系统和方法
WO2013040693A1 (en) * 2011-09-23 2013-03-28 Hamid Reza Tizhoosh Computer system and method for atlas-based consensual and consistent contouring of medical images
US8724878B2 (en) * 2012-01-12 2014-05-13 General Electric Company Ultrasound image segmentation
JP6078559B2 (ja) 2012-02-03 2017-02-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. オブジェクトを撮像するイメージング装置
US9375195B2 (en) * 2012-05-31 2016-06-28 Siemens Medical Solutions Usa, Inc. System and method for real-time ultrasound guided prostate needle biopsy based on biomechanical model of the prostate from magnetic resonance imaging data
US20140105473A1 (en) * 2012-10-12 2014-04-17 Samsung Electronics Co., Ltd. Method and apparatus for segmenting contour in image
US8831311B2 (en) * 2012-12-31 2014-09-09 General Electric Company Methods and systems for automated soft tissue segmentation, circumference estimation and plane guidance in fetal abdominal ultrasound images
US9147258B2 (en) * 2013-02-19 2015-09-29 General Electric Company Methods and systems for segmentation in echocardiography
US10134125B2 (en) 2013-02-28 2018-11-20 Rivanna Medical Llc Systems and methods for ultrasound imaging
CN105190692B (zh) * 2013-05-09 2019-04-16 皇家飞利浦有限公司 用于网格分割和网格配准的方法和系统
WO2015008279A1 (en) * 2013-07-15 2015-01-22 Tel Hashomer Medical Research Infrastructure And Services Ltd. Mri image fusion methods and uses thereof
EP3089670A4 (en) * 2014-01-02 2017-10-11 Metritrack, Inc. System and method for tracking completeness of co-registered medical image data
US10743844B2 (en) * 2014-07-29 2020-08-18 Koninklijke Philips N.V. Ultrasound imaging apparatus

Also Published As

Publication number Publication date
CN107106128A (zh) 2017-08-29
WO2016110463A1 (en) 2016-07-14
US20170360396A1 (en) 2017-12-21
JP6644795B2 (ja) 2020-02-12
EP3242602B1 (en) 2019-08-07
EP3242602A1 (en) 2017-11-15
US10667786B2 (en) 2020-06-02
CN107106128B (zh) 2020-07-03

Similar Documents

Publication Publication Date Title
US11759261B2 (en) Augmented reality pre-registration
JP6644795B2 (ja) 解剖学的オブジェクトをセグメント化する超音波画像装置及び方法
US10631829B2 (en) Segmentation of large objects from multiple three-dimensional views
US10055848B2 (en) Three-dimensional image segmentation based on a two-dimensional image information
EP4343707A2 (en) Indication-dependent display of a medical image
KR20210051141A (ko) 환자의 증강 현실 기반의 의료 정보를 제공하는 방법, 장치 및 컴퓨터 프로그램
US20120078102A1 (en) 3-dimensional (3d) ultrasound system using image filtering and method for operating 3d ultrasound system
JP2017525445A (ja) 超音波撮像装置
KR102056436B1 (ko) 의료용 네비게이션 시스템 및 그 방법
Hacihaliloglu et al. Projection-based phase features for localization of a needle tip in 2D curvilinear ultrasound
KR20210052270A (ko) 환자의 증강 현실 기반의 의료 정보를 제공하는 방법, 장치 및 컴퓨터 프로그램
CN106068098B (zh) 用于超声引导过程的区域可视化
JP2022546344A (ja) 脳卒中特徴取得のための画像処理
US8781188B2 (en) Method and device for displaying changes in medical image data
US10896501B2 (en) Rib developed image generation apparatus using a core line, method, and program
KR20120000729A (ko) 엑스레이 이미지와 씨티 3차원 모델 정합을 통한 혈관 치료용 마이크로 로봇의 위치 추적 방법
US20200305837A1 (en) System and method for guided ultrasound imaging
EP4128145B1 (en) Combining angiographic information with fluoroscopic images
US20230360334A1 (en) Positioning medical views in augmented reality
WO2021099171A1 (en) Systems and methods for imaging screening
CN116583912A (zh) 医学指标测量方法及针对该方法的超声诊断设备
KR20130013506A (ko) 엑스레이스 촬영각도 변화에 따른 마커의 인식 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170707

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181228

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190522

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200108

R150 Certificate of patent or registration of utility model

Ref document number: 6644795

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250