JP2012526623A - 画像ガイド下前立腺癌針生検のためのシステムおよび方法 - Google Patents

画像ガイド下前立腺癌針生検のためのシステムおよび方法 Download PDF

Info

Publication number
JP2012526623A
JP2012526623A JP2012510898A JP2012510898A JP2012526623A JP 2012526623 A JP2012526623 A JP 2012526623A JP 2012510898 A JP2012510898 A JP 2012510898A JP 2012510898 A JP2012510898 A JP 2012510898A JP 2012526623 A JP2012526623 A JP 2012526623A
Authority
JP
Japan
Prior art keywords
image
prostate
registration
composite
imaging modality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012510898A
Other languages
English (en)
Other versions
JP5627677B2 (ja
Inventor
ケイメン アリ
ヴァイン ヴォルフガング
カード パーメシュウォー
ディアロ ママドゥー
ナンケ ラルフ
フェーレ イェンス
キーファー ベアトルト
レクヴァート マーティン
ワイス クリフォード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Siemens Corp
Original Assignee
Siemens AG
Siemens Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG, Siemens Corp filed Critical Siemens AG
Publication of JP2012526623A publication Critical patent/JP2012526623A/ja
Application granted granted Critical
Publication of JP5627677B2 publication Critical patent/JP5627677B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B10/00Other methods or instruments for diagnosis, e.g. instruments for taking a cell sample, for biopsy, for vaccination diagnosis; Sex determination; Ovulation-period determination; Throat striking implements
    • A61B10/02Instruments for taking cell samples or for biopsy
    • A61B10/0233Pointed or sharp biopsy instruments
    • A61B10/0241Pointed or sharp biopsy instruments for prostate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • A61B2017/00238Type of minimally invasive operation
    • A61B2017/00274Prostate operation, e.g. prostatectomy, turp, bhp treatment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00694Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3413Needle locating or guiding means guided by ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B18/00Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body
    • A61B2018/00315Surgical instruments, devices or methods for transferring non-mechanical forms of energy to or from the body for treatment of particular body parts
    • A61B2018/00547Prostate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

画像ガイド下前立腺眼針生検において、前立腺の第1の画像を前立腺の第2の画像と一致させる第1のレジストレーションを行う(210)。前立腺の第3の画像を取得し、3次元(3D)画像に合成する(220)。合成3D画像中の前立腺をその境界を示すためにセグメント化する(230)。第1の画像と合成3D画像の前立腺の境界から生成された距離マップについて第2のレジストレーションと、第2のレジストレーションとは異なる第3のレジストレーションとを行い、ここで、第2のレジストレーションおよび第3のレジストレーションは前立腺の生体力学的性質に基づいている(240)。第1の画像中の対象領域を合成3D画像または第2のモダリティを用いて取得された前立腺の第4の画像にマッピングする(250)。

Description

関連出願の相互参照
本願は、2009年5月11日に出願された米国仮特許出願第61/176,969号の優先権を主張するものであり、その開示は全体が本明細書に参照により含まれる。
1.技術分野
本発明は、前立腺生検に関し、より詳細には、癌検診のための前立腺生検処理の感度を高めることに関する。
2.関連技術の説明
前立腺癌は、現状、経直腸超音波(US)ガイド下針生検を用いて診断される。経直腸超音波ガイド下針生検は、前立腺特異抗原(PSA)のレベルが高い場合、または、直腸診(DRE)によって顕著な小結節が発見された場合に指示される。USを用いる画像ガイド下生検の導入は、実質的に生検の精度を向上させ、経直腸超音波ガイドは前立腺生検のための広く受け入れられた方法となっている。この精度の向上は、完全盲目生検の精度と比較される。経直腸USガイド下生検は臨床的に受け入れられた方法である一方、全体の処理結果において、感度は約60%と低く、陽性的中率はわずか約25%である。結果として、生検を繰り返す必要がある。たとえば、20%を超える癌の研究において、臨床的決定に達するには、複数の生検作業が必要である。
磁気共鳴(MR)映像法は、前立腺だけでなく、中心領域、移行領域および周辺領域を含むその下部構造も明確に示すことができる。T2強調画像によれば、周辺領域における小結節が示される。前立腺生検の前に腫瘍病巣および周辺領域をMR映像法を用いて特定することにより、全体の癌検出率が向上しうる。さらに、拡散強調画像(DWI)、ダイナミック造影画像化法(DCE)、化学シフト画像化法(CSI)などの技術を用いて機能情報を取得し、前立腺の腫瘍組織をさらに特徴づけることができる。USガイド下生検においてこの情報を用いて、生検処理の感度を向上させることができる。たとえば、既知の技術では、直腸内MR映像法による被検腫瘍病巣の所見が、経直腸USガイド下生検における針の配置のガイドに用いられた。直腸内MR画像において被検腫瘍病変または標的を特定し、かつ、経直腸USガイド下生検においてUS画像に位置を視覚的に関連づけることにより、MR映像法を用いる経直腸USガイド下生検の精度は、33人の患者の研究において67%であった。この研究に関するデータは退屈な視覚的調査により行われたものであり、臨床ルーチンとして行うことができるものではない。
前立腺生検処理において悪性病変の検出感度を向上させることへの要望がある。
発明の概要
本発明の例示的実施形態によれば、腫瘍およびその周辺領域を特定し、この情報を、超音波(US)検査における針の病巣病変への配置に用いるため、前立腺生検のための磁気共鳴(MR)映像法を用いるシステムおよび方法が開示される。この方法は、臨床的実施に必要とされる、この処理の自動化を目的としている。このシステムは、画像取得プロセスの実施を容易とするものである。さらに、全体の処置において処理および可視化のステップを扱う特別な特徴を有するナビゲーションソフトウェアが開示される。
本発明の例示的実施形態においては、画像ガイド下前立腺癌針生検のための方法およびシステムが提供される。
上記方法は、前立腺の第1の画像を受信するステップであって、該第1の画像は、第1の画像化モダリティを用いて取得され、前立腺の範囲を示すようセグメント化されるステップと、前立腺の第2の画像を取得するステップであって、該第2の画像は第2の画像化モダリティを用いて取得されるステップと、上記第1の画像の方向および上記第2の画像の方向と、上記第1の画像および上記第2の画像における前立腺のフィーチャと、を一致させる第1のレジストレーションを実行するステップと、前立腺の第3の画像を取得するステップであって、該第3の画像は、第2の画像化モダリティを用いて取得され、3次元(3D)画像に合成されるステップと、前立腺の境界を示すために上記合成された3D画像において前立腺をセグメント化するステップであって、該セグメント化には上記第1のレジストレーションのパラメタと、上記第1の画像における前立腺のバイナリマスクとが用いられるステップと、上記の前立腺の境界から生成された距離マップについて、第2のレジストレーションと、次いで該第2のレジストレーションとは異なる第3のレジストレーションとを実行するステップであって、上記第1のレジストレーションおよび上記第2のレジストレーションは前立腺の生体力学的性質に基づいているステップと、上記合成された3D画像、または、上記第2の画像化モダリティを用いて取得された前立腺の第4の画像において対象領域をマッピングするステップであって、該マッピングは上記第2のレジストレーションおよび上記第3のレジストレーションの結果に基づいているステップと、を有する。
上記第1の画像化モダリティは磁気共鳴断層法であり、上記第2の画像化モダリティは超音波(US)法である。
上記第1の画像および上記第2の画像の方向は、軸方向、矢状または冠状である。
前立腺の一致したフィーチャは前立腺の中心を含む。
上記の前立腺の第3の画像はUSの扇状スイープにより取得される。
上記の、前立腺の境界を示すために上記合成された3D画像において前立腺をセグメント化するステップは、上記バイナリマスクから前景シードおよび背景シードを生成するステップを含み、上記前景シードは合成3D画像において上記バイナリマスクを収縮させることにより生成され、上記背景シードは上記合成3D画像において上記バイナリマスクを拡大することにより生成される。
上記第2のレジストレーションは剛体レジストレーションであり、上記第3のレジストレーションは可変形レジストレーションである。
上記合成3D画像または上記第4の画像の上に、上記対象領域をマッピングして表示するステップをさらに含む。
上記合成3D画像または上記第4の画像中で、生検針を可視的にトラッキングするステップをさらに含む。
上記対象領域の位置をメモリに保存し、上記対象領域が生検されたか否か記録するステップをさらに含む。
上記対象領域がマッピングされた上記合成3D画像または上記第4の画像上に、計画された針の経路を表示するステップをさらに含む。
上記第1の画像は複数の対象領域を含んでおり、該複数の対象領域の位置を保存するステップをさらに含む。
上記第4の画像について上記合成3D画像に対するレジストレーションを行い、次いで、上記対象領域を上記第4の画像にマッピングするステップをさらに含む。
上記前立腺の生体力学的性質は前立腺の弾性を含む。
上記システムは、プログラムを記録するメモリ装置と、上記メモリ装置に接続されたプロセッサと、を備えるシステムであって、上記プロセッサは、上記プログラムによって、前立腺の第1の画像を受信し、ここで、該第1の画像は、第1の画像化モダリティを用いて取得され、前立腺の境界を示すようセグメント化され、前立腺の第2の画像を取得し、ここで、該第2の画像は第2の画像化モダリティを用いて取得され、第1のレジストレーションのパラメタを受信し、該第1のレジストレーションにおいては、上記第1の画像の方向が上記第2の画像の方向と一致され、かつ、上記第1の画像および上記第2の画像における前立腺のフィーチャが一致され、前立腺の第3の画像を取得し、ここで、該第3の画像は第2の画像化モダリティを用いて取得され、3次元(3D)画像に合成され、前立腺の境界を示すために上記合成された3D画像において前立腺をセグメント化し、ここで、該セグメント化には上記第1のレジストレーションのパラメタと、上記第1の画像における前立腺のバイナリマスクとが用いられ、上記の前立腺の境界から生成された距離マップについて、第2のレジストレーションと、次いで該第2のレジストレーションとは異なる第3のレジストレーションとを実行し、ここで、上記第1のレジストレーションおよび上記第2のレジストレーションは前立腺の生体力学的性質に基づいており、上記合成された3D画像、または、上記第2の画像化モダリティを用いて取得された前立腺の第4の画像において対象領域をマッピングし、ここで、該マッピングは上記第2のレジストレーションおよび上記第3のレジストレーションの結果に基づいている。
上記第2の画像、上記第3の画像または上記第4の画像を提供する超音波装置をさらに備える。
上記プロセッサは、上記プログラムによって、上記対象領域がマッピングされた上記合成3D画像または上記第4の画像を表示し、上記合成3D画像または上記第4の画像中に生検針の画像を表示する、よう動作する。
生検針をトラッキングする装置をさらに備える。
超音波プローブをトラッキングする装置をさらに備える。
別の方法は、前立腺の、3次元(3D)トラッキング超音波(US)スイープを取得し、上記スイープから合成3D超音波画像を生成するステップと、上記合成3D超音波画像の、前立腺の磁気共鳴断層(MR)画像に対するレジストレーションを行うステップであって、上記レジストレーションステップは、上記MR画像およびUS画像における前立腺のセグメント化から生成された距離マップについて剛体レジストレーションを行い、次いで、可変形レジストレーションを行うステップを含み、該剛体レジストレーションおよび該可変形レジストレーションは前立腺の生体力学的性質に基づいている、ステップと、病変を含むと推測される対象領域を識別するマーカを、上記MR画像から、上記合成3D US画像またはリアルタイムUS画像へ送るステップと、を含む。
本発明の例示的実施形態に係るシステムを示す。 本発明の例示的実施形態に係る方法を示す。 本発明の例示的実施形態に係る、計画に関する磁気共鳴(MR)画像についてセグメント化された前立腺を示す。 本発明の例示的実施形態に係る合成超音波(US)画像についてセグメント化された前立腺を示す。 本発明の例示的実施形態に係る図3および4のセグメント化に基づく、前立腺のレジストレーションおよびその下層における変形を示す。 本発明の例示的実施形態に係るMRから送られた特定の標的領域および計画された針の経路を含む超音波画像を示す。 本発明の例示的実施形態に係るコンピュータを示す。
図1に、本発明の例示的実施形態に係るシステムを示す。このシステムは、定常座標系すなわち固定座標系において超音波(US)プローブ110をトラッキングする外部トラッキング装置105を備える。プローブ110はたとえばトランスデューサであり、プローブ110に設けられたトラッキングセンサ115の位置をトラッキングする。針120は生検に用いられるものであり、針120に設けられたトラッキングセンサ125の位置によってトラッキングされる。このシステムは、参照画像、たとえば、病変140を有する前立腺135aの磁気共鳴(MR)画像130を表示させるコンピュータ(図1中には示していないが、図7に示す)をさらに備える。
簡単に言えば、USプローブ110の校正情報を含むUSプローブ110のトラッキング情報により擬3次元(3D)データセットが生成され、このデータセットは、3Dでの(手動で取得された)任意の方向の2次元(2D)US画像から構成される。一方で、参照データ(たとえばMR画像130)は、MR画像130の取得に用いられるスキャン装置の座標系において位置特定されている。本発明の例示的実施形態によれば、画像に基づくレジストレーションの技術は、参照MR画像130を3DのUS画像上にマッピングするために必要とされる変換手法を確立するものである。このレジストレーションの詳細およびこのレジストレーションプロセスに必要な関連要素について、本明細書において以下説明される。
しかしその前に、USに対する参照MR画像の、画像に基づくレジストレーションに関連するいくつかの課題について説明する。たとえば、USおよびMRにおける前立腺の外観は完全に異なっている。このことによりこれらの2つの画像の間に関連する構造を確立することは困難である。さらに、US画像の取得においては、MRに用いられる経直腸コイルの結果として生じる変形と比べて異なるかたちの前立腺の局所的な変形が引き起こされ、または、コイルが用いられない場合には全く変形は引き起こされない。
これらの2つは、第1にロバストな画像類似性測定の確立における課題、第2に可変形レジストレーションのフレームワークにこの類似性測定/計量作業を含ませることにおける課題に置き換えられる。
本発明の例示的実施形態に係る方法によれば、これらの2つの課題が克服される。この方法の各ステップを図2に示す。たとえば、図2中、MR画像およびUS画像の最初のレジストレーションが行われる(210)。3DトラッキングされたUSスイープ(映像出力)が生成される(220)。前立腺は、USスイープにより生成された前立腺の合成3D画像中でセグメント化される(230)。MR画像とUS画像との間での画像のレジストレーションが再び行われる(240)。合成マップが生成され、針がガイドされる(250)。このプロセスについて、以下詳細に説明する。
1.(図2の3Dトラッキングスイープの前の)計画段階において、3D計画データ(たとえばMR)についての半自動的なセグメント化が行われる。ここで、前立腺のバイナリマスクまたは輪郭が保存される。図3はMRに基づいて輪郭を描いた前立腺を示す。図3中、前立腺の境界は参照番号310で識別される。疑わしい領域も、マルチパラメトリックMRを用いて前立腺中に識別される。このデータは、生検の実行計画に用いられ、計画情報は記録される。
2.USガイド下生検作業の間、磁気トラッキングシステムを用いたトラッキングUS画像の3Dスイープ(スイープの例に関しては図1の参照番号145を参照)が行われる。ここで、3D US装置を用いることができる。2D US装置も用いることもできる。しかし、2D US装置を用いる場合には、USプローブがセンサを備えている必要がある(たとえば、図1のプローブ−センサ構成を参照)。
3.最初の剛体位置合わせがMR画像とUS画像との間で行われる。これは、US画像とMR画像との間の誤まった方向の位置合わせを補償するために行われる。これは、USにより前立腺の標準視野(軸方向、矢状または冠状)を最初に得て、次いでMRのそれに方向を一致させることにより行われる。この標準視野は医療従事者に、たとえばUS画像の中心において前立腺が得られるようにUSプローブを操作させることにより行われる。これは、手作業で行われる。
4.方向の一致したMR画像およびUS画像について、MR画像とUS画像との間の平行方向の誤った位置合わせを考慮して、平行方向の手動による調整が行われる。ここで、医療従事者はMR画像をUS画像上にスライドさせ、MR画像をUS画像の内容に一致させる。たとえば、前立腺の中心がMR画像とUS画像との両方において一致される。
5.トラッキングされた2D US画像は3Dボリュームに合成される。ここで、前立腺を含む3D USスイープ(図1の前立腺135bを参照)が取得される。ここで、3Dトラッキングスイープは結合デカルトボリュームに構成され、2D画像のシーケンスが3Dボリュームに再サンプリングされる。
6.前立腺は、MRとUSとの間の確立された最初のレジストレーションおよび計画段階からのMRに基づくバイナリマスクを用いることにより、合成3D US画像においてセグメント化される。図4は、合成US画像においてセグメント化された前立腺を示す。図4中、前立腺の境界は参照番号410によって示されている。合成US画像において前立腺をセグメント化するステップは以下の通りである。形状を変えることのできるバイナリマスクから前景シードおよび背景シードを生成する。前景シードは、たとえばマスクを約20%収縮させることにより生成される。背景シードは、たとえばマスクを約20%拡大することにより生成される。拡大と収縮の割合は、剛体レジストレーションおよび2つの画像にわたって存在するありうる変形による形状の変化を考慮する。基本的に、この段階では、MR中の前立腺の境界が、US画像上にオーバーレイされ、US画像において前立腺の境界が決定される。
7.MRおよびUSにおける前立腺のセグメント化は、最初に剛体レジストレーションに用いられ、次いで、(前立腺の弾性によって調整される)可変形レジストレーションに用いられる。換言すれば、MRおよびUSからのメッシュ表面は、剛体変換および弾性変形(生体力学的性質)を考慮してレジストレーションに用いられる。セグメント化されたものの境界から生成された距離マップについてレジストレーションが行われる。距離マップのレジストレーションによって、前立腺における輪郭の食い違いは均一に拡げられる。これは、物体表面にかかる力による、内部の物体の動きを抽出することに等しい。図5は、レジストレーションが行われた前立腺の境界(510−MR;520−US)、および、下層の変形フィールド(参照番号530によって示される歪んだメッシュ)を示す。
8.計画にかかるMR画像は、合成US画像または他のリアルタイムに取得されたUS画像についての全ての注釈およびセグメント化された構造とともに変換される。換言すれば、変形フィールドが見いだされたとき、被検領域(たとえば病変)はMR画像からUS画像に移される(たとえば、マッピングされる)。
9.確立された変換手法を用いてMR画像からリアルタイムのUS(または記録されたUS)に変換された対象点(たとえば生検の標的点)の概略的注釈が表示される。図6は、MR画像からマッピングされた、病変位置610(生検の標的点)を含むUS画像を示す。また、図6には、前立腺の境界620が示されている。磁気的な位置トラッキングによって、対応するMR画像および標的の情報が、任意の時点でUSにおいて正しく可視化される。適切な重畳手法(ダイレクトMRIオーバーレイ、カラーブレンド、構造化オーバーレイなど)により、ユーザは位置合わせの質を知ることができ、患者の固定が不十分であったり、解剖構造が動くことにより質が低下している場合には、レジストレーションのワークフローを再実行することができる(たとえば、ステップ2、5〜8を繰り返し、位置合わせの誤りが大きければさらにステップ3、4を加えて繰り返す)。
以下に示すものは、本発明の変形例であり、拡張例である。
磁気的な位置および方向トラッキングシステムとは異なる、機械的および/または光学的トラッキングシステムを、超音波プローブのトラッキングに用いることができる。
トラッキング2D US画像のセットからの合成3Dボリュームとは異なる、元となる(native)3D USボリュームの生成に、3Dウォブラ(wobbler)または2Dマトリックスエアウェイ(matrix airway)を用いても良い。
1つの3D MR計画データセットとは異なる、マルチスライスの2D MRの取得を用いても良い。
1つの2Dまたは3D計画データセット(たとえば、形態情報を取得するためのT2強調MR画像ならびに機能情報を取得するための画像(たとえば拡散強調画像、ダイナミック造影画像、および化学シフト画像))だけでなく、一連の2Dおよび3Dの画像を用いても良い。画像は、1回のスキャン作業または複数の時点のいずれかから得ても良い。異なる画像取得が行われる場合、一連の画像を1つの座標フレームに構成するためにはレジストレーションが必要である。
超音波画像を患者の方向が特定される計画データセットにおおよそ位置合わせするため、トラッキングシステムおよび患者の全体方向が用いられる。
合成および可視化のためのMRと異なる、別の3Dまたは2D US画像のセットを用いる。これらの3Dおよび2D US画像は、いくらかの付加的情報(たとえば病変の検出)を抽出するために処理されるか、または、付加処理なしにそのままただ用いられる。
ユーザが特定した点の対応(たとえば、MR画像およびUS画像の両方における、前立腺の中央たとえば尿道における一点)を用いて、おおよその平行移動(translation)を計算する。3つ以上の点の対応が特定された場合、剛体レジストレーションの推定および解剖学的変形量に関する初期推定が自動的に計算される。
完全に自動化されたセグメント化方法を、計画されているデータにおける前立腺のセグメント化に用いることができる。
レベルセットまたは機械学習に基づくアプローチに基づく、形状モデル制約付きセグメント化などの異なるセグメント化方法を、US画像についての前立腺のセグメント化に用いても良い。
生体力学的有限要素に基づくレジストレーションにより、MRおよびUSにおける前立腺のセグメント化の抽出された境界にレジストレーションを行い、物理的に妥当な変形を生成しても良い。
輪郭に基づくレジストレーションの代わりにまたはその後に、Wein et al. "Automatic CT-Ultrasound Registration for Diagnostic Imaging and Image-Guided Intervention." Medical Image Analysis 1295), pp 577-585, October 2008に記載されているような、MRおよびUSの画像強度に直接作用する自動アルゴリズムを実行する。いくつかの内部構造はMRの相応部分よりもより良く対応しうるものの、前立腺の輪郭それ自体はUSでは十分可視化できないため、これはレジストレーションの精度を向上させる。別の実施形態では、MR画像の強度は粗く推定された音響インピーダンス値についてマッピング可能であり、次いで、元々のMR画像の強度とインピーダンス値の両方を、MR画像からのUSのマルチチャネルシミュレーションの生成に用いることができる。適切な向上された局所類似性計量を用いて、それを実際の3D US画像と(その2D/3D画像化形状を考慮して)比較することができ、非線形の最適化により、この類似性に関して可変形変換パラメタをリファインする。
レジストレーションの視覚的モニタリング(上記ワークフローステップ9)に加えて、リアルタイムのUS画像平面に基づくレジストレーションの自動画像ベース検証および/または動的なリファインを行っても良い。
標準BモードUS画像化の代わりにまたはこれに加えて、(音響放射圧画像化法(ARFI)などの)弾性率計測法または造影画像化などの異なる画像化モードを用いても良い。
本発明の例示的実施形態を実施可能なコンピュータについて図7を参照して以下説明する。図7に示すように、コンピュータ705は、スキャナ725と、データベース730と、トラッキングシステム735に、有線または無線ネットワーク740を介してアクセスする。スキャナ725は、たとえば、MRスキャナまたは機能的画像化が可能な他のタイプのスキャナあるいはUSスキャナであってよい。スキャナ725により取得される画像データは、コンピュータ705によるその後のアクセスのためにデータベース730に直接送られても良い。トラッキングシステム735は光学的、磁気的または機械的なものであってよい。USプローブおよび/または生検針は、トラッキングシステム735およびコンピュータ705に接続可能である。コンピュータ705は、とりわけ、中央処理部(CPU)710と、メモリ715と、ナビゲーションモジュール720とを備え、ナビゲーションモジュール720は本発明の例示的実施形態にかかる方法を実行するプログラムコードを有している。コンピュータ705は、たとえば液晶ディスプレイ(LCD)型のコンピュータスクリーンであるディスプレイ745に接続されている。
例示的実施形態では、本発明は、プログラム記録装置(磁気フロッピー(登録商標)ディスク、ランダムアクセスメモリ(RAM)、読み取り専用コンパクトディスク(CD ROM)、デジタルビデオディスク(DVD)、ROM、フラッシュメモリなど)に実施可能に具体化されたアプリケーションプログラムとしてのソフトウェアにおいて実現可能である。このアプリケーションプログラムは、たとえば、任意の適したアーキテクチャを備える装置にアップロードされ、当該装置において実施される。
添付図面に示したいくつかのシステムの構成要素および方法の構成ステップはソフトウェアで実施可能であり、システムの構成要素(またはプロセスのステップ)の間の実際の接続は本発明がプログラムされている様式に依存して異なっていても良い。本明細書中に記載されている教示により、当業者はこれら、および本発明の類似の実施または構成を考慮することができるであろう。
本発明について例示的実施形態を参照して詳細に説明したが、添付の特許請求の範囲に記載された本発明の範囲から逸脱することなく、種々の修正および置換をなし得ることは当業者には理解されるところである。
110 プローブ、 120 針、 705 コンピュータ

Claims (20)

  1. 前立腺の第1の画像を受信するステップであって、該第1の画像は、第1の画像化モダリティを用いて取得され、前立腺の範囲を示すようセグメント化されるステップと、
    前立腺の第2の画像を取得するステップであって、該第2の画像は第2の画像化モダリティを用いて取得されるステップと、
    前記第1の画像の方向および前記第2の画像の方向と、前記第1の画像および前記第2の画像における前立腺のフィーチャと、を一致させる第1のレジストレーションを実行するステップと、
    前立腺の第3の画像を取得するステップであって、該第3の画像は、第2の画像化モダリティを用いて取得され、3次元(3D)画像に合成されるステップと、
    前立腺の境界を示すために前記合成された3D画像において前立腺をセグメント化するステップであって、該セグメント化には前記第1のレジストレーションのパラメタと、前記第1の画像における前立腺のバイナリマスクとが用いられるステップと、
    前記の前立腺の境界から生成された距離マップについて、第2のレジストレーションと、次いで該第2のレジストレーションとは異なる第3のレジストレーションとを実行するステップであって、前記第1のレジストレーションおよび前記第2のレジストレーションは前立腺の生体力学的性質に基づいているステップと、
    前記合成された3D画像、または、前記第2の画像化モダリティを用いて取得された前立腺の第4の画像において対象領域をマッピングするステップであって、該マッピングは前記第2のレジストレーションおよび前記第3のレジストレーションの結果に基づいているステップと、
    を有する、ことを特徴とする方法。
  2. 前記第1の画像化モダリティは磁気共鳴断層法であり、前記第2の画像化モダリティは超音波(US)法である、請求項1記載の方法。
  3. 前記第1の画像および前記第2の画像の方向は、軸方向、矢状または冠状である、請求項1記載の方法。
  4. 前立腺の一致したフィーチャは前立腺の中心を含む、請求項1記載の方法。
  5. 前記の前立腺の第3の画像はUSの扇状スイープにより取得される、請求項1記載の方法。
  6. 前記の、前立腺の境界を示すために前記合成された3D画像において前立腺をセグメント化するステップは、前記バイナリマスクから前景シードおよび背景シードを生成するステップを含み、
    前記前景シードは合成3D画像において前記バイナリマスクを収縮させることにより生成され、前記背景シードは前記合成3D画像において前記バイナリマスクを拡大することにより生成される、請求項1記載の方法。
  7. 前記第2のレジストレーションは剛体レジストレーションであり、前記第3のレジストレーションは可変形レジストレーションである、請求項1記載の方法。
  8. 前記合成3D画像または前記第4の画像の上に、前記対象領域をマッピングして表示するステップをさらに含む、請求項1記載の方法。
  9. 前記合成3D画像または前記第4の画像中で、生検針を可視的にトラッキングするステップをさらに含む、請求項1記載の方法。
  10. 前記対象領域の位置をメモリに保存し、前記対象領域が生検されたか否か記録するステップをさらに含む、請求項9記載の方法。
  11. 前記対象領域がマッピングされた前記合成3D画像または前記第4の画像上に、計画された針の経路を表示するステップをさらに含む、請求項8記載の方法。
  12. 前記第1の画像は複数の対象領域を含んでおり、該複数の対象領域の位置を保存するステップをさらに含む、請求項1記載の方法。
  13. 前記第4の画像について前記合成3D画像に対するレジストレーションを行い、次いで、前記対象領域を前記第4の画像にマッピングするステップをさらに含む、請求項1記載の方法。
  14. 前記前立腺の生体力学的性質は前立腺の弾性を含む、請求項1記載の方法。
  15. プログラムを記録するメモリ装置と、
    前記メモリ装置に接続されたプロセッサと、を備えるシステムであって、前記プロセッサは、前記プログラムによって、
    前立腺の第1の画像を受信し、ここで、該第1の画像は、第1の画像化モダリティを用いて取得され、前立腺の境界を示すようセグメント化され、
    前立腺の第2の画像を取得し、ここで、該第2の画像は第2の画像化モダリティを用いて取得され、
    第1のレジストレーションのパラメタを受信し、該第1のレジストレーションにおいては、前記第1の画像の方向が前記第2の画像の方向と一致され、かつ、前記第1の画像および前記第2の画像における前立腺のフィーチャが一致され、
    前立腺の第3の画像を取得し、ここで、該第3の画像は第2の画像化モダリティを用いて取得され、3次元(3D)画像に合成され、
    前立腺の境界を示すために前記合成された3D画像において前立腺をセグメント化し、ここで、該セグメント化には前記第1のレジストレーションのパラメタと、前記第1の画像における前立腺のバイナリマスクとが用いられ、
    前記の前立腺の境界から生成された距離マップについて、第2のレジストレーションと、次いで該第2のレジストレーションとは異なる第3のレジストレーションとを実行し、ここで、前記第1のレジストレーションおよび前記第2のレジストレーションは前立腺の生体力学的性質に基づいており、
    前記合成された3D画像、または、前記第2の画像化モダリティを用いて取得された前立腺の第4の画像において対象領域をマッピングし、ここで、該マッピングは前記第2のレジストレーションおよび前記第3のレジストレーションの結果に基づいている、
    ことを特徴とするシステム。
  16. 前記第2の画像、前記第3の画像または前記第4の画像を提供する超音波装置をさらに備える、請求項15記載のシステム。
  17. 前記プロセッサは、前記プログラムによって、
    前記対象領域がマッピングされた前記合成3D画像または前記第4の画像を表示し、
    前記合成3D画像または前記第4の画像中に生検針の画像を表示する、
    よう動作する、請求項15記載のシステム。
  18. 生検針をトラッキングする装置をさらに備える、請求項15記載のシステム。
  19. 超音波プローブをトラッキングする装置をさらに備える、請求項15記載のシステム。
  20. 前立腺の、3次元(3D)トラッキング超音波(US)スイープを取得し、前記スイープから合成3D超音波画像を生成するステップと、
    前記合成3D超音波画像の、前立腺の磁気共鳴断層(MR)画像に対するレジストレーションを行うステップであって、前記レジストレーションステップは、前記MR画像およびUS画像における前立腺のセグメント化から生成された距離マップについて剛体レジストレーションを行い、次いで、可変形レジストレーションを行うステップを含み、該剛体レジストレーションおよび該可変形レジストレーションは前立腺の生体力学的性質に基づいている、ステップと、
    病変を含むと推測される対象領域を識別するマーカを、前記MR画像から、前記合成3D US画像またはリアルタイムUS画像へ送るステップと、
    を含む、ことを特徴とする方法。
JP2012510898A 2009-05-11 2010-05-10 画像ガイド下前立腺癌針生検のためのシステムおよび方法 Expired - Fee Related JP5627677B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US17696909P 2009-05-11 2009-05-11
US61/176,969 2009-05-11
US12/774,798 US9521994B2 (en) 2009-05-11 2010-05-06 System and method for image guided prostate cancer needle biopsy
US12/774,798 2010-05-06
PCT/US2010/034214 WO2010132349A1 (en) 2009-05-11 2010-05-10 System and method for image guided prostate cancer needle biopsy

Publications (2)

Publication Number Publication Date
JP2012526623A true JP2012526623A (ja) 2012-11-01
JP5627677B2 JP5627677B2 (ja) 2014-11-19

Family

ID=43062754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012510898A Expired - Fee Related JP5627677B2 (ja) 2009-05-11 2010-05-10 画像ガイド下前立腺癌針生検のためのシステムおよび方法

Country Status (4)

Country Link
US (1) US9521994B2 (ja)
EP (1) EP2429406B1 (ja)
JP (1) JP5627677B2 (ja)
WO (1) WO2010132349A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150129506A (ko) * 2014-05-12 2015-11-20 삼성전자주식회사 의료 영상 정합 방법 및 그 장치
JP2015533329A (ja) * 2012-11-06 2015-11-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 超音波画像のエンハンスメント
JP2016515419A (ja) * 2013-03-26 2016-05-30 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 診断プロセスにおいてユーザを支援する支援装置
JP2016536035A (ja) * 2013-09-30 2016-11-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 変形可能レジストレーションのためのシステム及びモジュラーネットワーク
JP2017532131A (ja) * 2014-10-17 2017-11-02 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 介入治療内で器具を挿入する間の実時間の臓器区分化及び器具ナビゲーションのためのシステム、並びにその作動方法
JP2018532458A (ja) * 2015-09-09 2018-11-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 反復介入手順を計画及び実行するシステム並びに方法
JP2020512166A (ja) * 2017-03-20 2020-04-23 エグザクト イメージング インコーポレイテッド 超音波システムの操作者を視覚的に支援するための方法およびシステム
JP7461501B2 (ja) 2020-04-07 2024-04-03 ベラソン インコーポレイテッド 前立腺自動解析システム

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5543444B2 (ja) * 2008-06-20 2014-07-09 コーニンクレッカ フィリップス エヌ ヴェ 生検実施のための方法及びシステム
US9521994B2 (en) * 2009-05-11 2016-12-20 Siemens Healthcare Gmbh System and method for image guided prostate cancer needle biopsy
US9025841B2 (en) * 2009-11-18 2015-05-05 Siemens Aktiengesellschaft Method and system for segmentation of the prostate in 3D magnetic resonance images
JP5538861B2 (ja) * 2009-12-18 2014-07-02 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム、及びプログラム
CN103402453B (zh) * 2011-03-03 2016-11-16 皇家飞利浦有限公司 用于导航系统的自动初始化和配准的系统和方法
DE102011006650B4 (de) 2011-04-01 2018-06-21 Siemens Healthcare Gmbh Vorrichtung zur Behandlung einer Prostata in einem Patienten
US9478022B2 (en) 2011-08-22 2016-10-25 Siemens Medical Solutions Usa, Inc. Method and system for integrated radiological and pathological information for diagnosis, therapy selection, and monitoring
US9597008B2 (en) 2011-09-06 2017-03-21 Ezono Ag Imaging probe and method of obtaining position and/or orientation information
FR2983397B1 (fr) * 2011-12-06 2014-07-04 Univ Paris Curie Dispositif d'assistance au positionnement d'un instrument medical relativement a un organe interne d'un patient et procede de commande d'un tel dispositif
US9240032B2 (en) * 2012-03-15 2016-01-19 Koninklijke Philips N.V. Multi-modality deformable registration
EP2648160B1 (en) * 2012-04-03 2017-03-08 Intrasense Topology-preserving ROI remapping method between medical images
US9375195B2 (en) * 2012-05-31 2016-06-28 Siemens Medical Solutions Usa, Inc. System and method for real-time ultrasound guided prostate needle biopsy based on biomechanical model of the prostate from magnetic resonance imaging data
US9269156B2 (en) 2012-07-24 2016-02-23 Siemens Aktiengesellschaft Method and system for automatic prostate segmentation in magnetic resonance images
GB201303917D0 (en) * 2013-03-05 2013-04-17 Ezono Ag System for image guided procedure
CN104103083A (zh) * 2013-04-03 2014-10-15 株式会社东芝 图像处理装置和方法以及医学成像设备
KR102114417B1 (ko) 2013-06-11 2020-05-22 삼성메디슨 주식회사 영상 정합 방법 및 장치
WO2014207627A1 (en) 2013-06-26 2014-12-31 Koninklijke Philips N.V. Method and system for multi-modal tissue classification
KR20150080820A (ko) * 2014-01-02 2015-07-10 삼성전자주식회사 관심 영역 표시 장치 및 방법
US20160324584A1 (en) * 2014-01-02 2016-11-10 Koninklijke Philips N.V. Ultrasound navigation/tissue characterization combination
US9466118B2 (en) * 2014-01-17 2016-10-11 Htc Corporation Image segmentation device, image segmentation method, and depth map generating method
WO2015173668A1 (en) * 2014-05-16 2015-11-19 Koninklijke Philips N.V. Reconstruction-free automatic multi-modality ultrasound registration.
WO2015193441A1 (en) * 2014-06-18 2015-12-23 Koninklijke Philips N.V. Ultrasound imaging apparatus
US10368850B2 (en) * 2014-06-18 2019-08-06 Siemens Medical Solutions Usa, Inc. System and method for real-time ultrasound guided prostate needle biopsies using a compliant robotic arm
CN107405126B (zh) * 2015-03-10 2022-01-25 皇家飞利浦有限公司 检索成对的医学图像的对应结构
RU2017134276A (ru) 2015-03-31 2019-04-03 Конинклейке Филипс Н.В. Аппарат медицинской визуализации
EP3383305A1 (en) * 2015-12-04 2018-10-10 Koninklijke Philips N.V. System and workflow for grid-less transperineal prostate interventions
US11191444B2 (en) * 2017-10-19 2021-12-07 Profound Medical Inc. Processing system and dynamic correction method for thermal therapy
US11382603B2 (en) 2018-05-07 2022-07-12 Siemens Healthcare Gmbh System and methods for performing biomechanically driven image registration using ultrasound elastography
CN109907801B (zh) * 2019-03-08 2021-09-10 哈尔滨工程大学 一种可定位超声引导穿刺方法
CN110097952A (zh) * 2019-05-10 2019-08-06 图兮深维医疗科技(苏州)有限公司 一种医学图像显示处理装置及设备
US20230013884A1 (en) * 2021-07-14 2023-01-19 Cilag Gmbh International Endoscope with synthetic aperture multispectral camera array

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006089426A1 (en) * 2005-02-28 2006-08-31 Robarts Research Institute System and method for performing a biopsy of a target volume and a computing device for planning the same
US20080161687A1 (en) * 2006-12-29 2008-07-03 Suri Jasjit S Repeat biopsy system
WO2009052497A2 (en) * 2007-10-18 2009-04-23 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for mapping regions in a model of an object comprising an anatomical structure from one image data set to images used in a diagnostic or therapeutic intervention
US20100286517A1 (en) * 2009-05-11 2010-11-11 Siemens Corporation System and Method For Image Guided Prostate Cancer Needle Biopsy

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US646681A (en) * 1899-04-21 1900-04-03 Sun Electric Mfg Company Telephone-exchange system.
US4443855A (en) * 1981-05-06 1984-04-17 Robert Bishop Method of and apparatus for controlling robotic equipment with the aid of mask algorithm image processing techniques
US6037914A (en) * 1997-08-25 2000-03-14 Hewlett-Packard Company Method and apparatus for augmented reality using a see-through head-mounted display
US6137898A (en) * 1997-08-28 2000-10-24 Qualia Computing, Inc. Gabor filtering for improved microcalcification detection in digital mammograms
US6040835A (en) 1997-11-06 2000-03-21 Mitsubishi Electric Information Technology Center America, Inl. (Ita) System for depicting surfaces using volumetric distance maps
US6283917B1 (en) * 1998-10-01 2001-09-04 Atl Ultrasound Ultrasonic diagnostic imaging system with blurring corrected spatial compounding
US6466815B1 (en) 1999-03-30 2002-10-15 Olympus Optical Co., Ltd. Navigation apparatus and surgical operation image acquisition/display apparatus using the same
DE19958553A1 (de) * 1999-12-04 2001-06-07 Luratech Ges Fuer Luft Und Rau Verfahren zur Kompression von gescannten Farb- und/oder Graustufendokumenten
CN1612713A (zh) 2001-11-05 2005-05-04 计算机化医学体系股份有限公司 用于外部波束放射治疗的记录,引导和目标命中的装置和方法
US7280710B1 (en) * 2002-05-24 2007-10-09 Cleveland Clinic Foundation Architecture for real-time 3D image registration
US7901357B2 (en) * 2003-07-21 2011-03-08 The John Hopkins University Robotic 5-dimensional ultrasound
US8233681B2 (en) * 2004-09-24 2012-07-31 The University Of North Carolina At Chapel Hill Methods, systems, and computer program products for hierarchical registration between a blood vessel and tissue surface model for a subject and a blood vessel and tissue surface image for the subject
CN101052993A (zh) * 2004-11-05 2007-10-10 皇家飞利浦电子股份有限公司 用于医学图像配准的通用变换滤波合成
US8235726B2 (en) * 2005-01-24 2012-08-07 Institut De Recherche Sur Les Cancers De L'appareil Digestif (Ircad) Process and system for simulation or digital synthesis of sonographic images
US7738683B2 (en) * 2005-07-22 2010-06-15 Carestream Health, Inc. Abnormality detection in medical images
EP2104919A2 (en) * 2006-11-27 2009-09-30 Koninklijke Philips Electronics N.V. System and method for fusing real-time ultrasound images with pre-acquired medical images
US8700126B2 (en) * 2007-01-11 2014-04-15 General Electric Company System and method for computer aided septal defect diagnosis and surgery framework
US10433929B2 (en) 2007-03-09 2019-10-08 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for local deformable registration of a catheter navigation system to image data or a model
US20090326363A1 (en) 2008-05-02 2009-12-31 Eigen, Llc Fused image modalities guidance
US8199988B2 (en) * 2008-05-16 2012-06-12 Geodigm Corporation Method and apparatus for combining 3D dental scans with other 3D data sets

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006089426A1 (en) * 2005-02-28 2006-08-31 Robarts Research Institute System and method for performing a biopsy of a target volume and a computing device for planning the same
US20080161687A1 (en) * 2006-12-29 2008-07-03 Suri Jasjit S Repeat biopsy system
WO2009052497A2 (en) * 2007-10-18 2009-04-23 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for mapping regions in a model of an object comprising an anatomical structure from one image data set to images used in a diagnostic or therapeutic intervention
US20100286517A1 (en) * 2009-05-11 2010-11-11 Siemens Corporation System and Method For Image Guided Prostate Cancer Needle Biopsy

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015533329A (ja) * 2012-11-06 2015-11-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 超音波画像のエンハンスメント
JP2016515419A (ja) * 2013-03-26 2016-05-30 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 診断プロセスにおいてユーザを支援する支援装置
JP2016536035A (ja) * 2013-09-30 2016-11-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 変形可能レジストレーションのためのシステム及びモジュラーネットワーク
KR102233966B1 (ko) 2014-05-12 2021-03-31 삼성전자주식회사 의료 영상 정합 방법 및 그 장치
KR20150129506A (ko) * 2014-05-12 2015-11-20 삼성전자주식회사 의료 영상 정합 방법 및 그 장치
JP2017532131A (ja) * 2014-10-17 2017-11-02 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 介入治療内で器具を挿入する間の実時間の臓器区分化及び器具ナビゲーションのためのシステム、並びにその作動方法
JP2018532458A (ja) * 2015-09-09 2018-11-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 反復介入手順を計画及び実行するシステム並びに方法
CN109073725A (zh) * 2015-09-09 2018-12-21 皇家飞利浦有限公司 用于规划和执行重复介入流程的系统和方法
CN109073725B (zh) * 2015-09-09 2021-02-19 皇家飞利浦有限公司 用于规划和执行重复介入流程的系统和方法
JP7041052B2 (ja) 2015-09-09 2022-03-23 コーニンクレッカ フィリップス エヌ ヴェ 反復介入手順を計画及び実行するシステム並びに方法
JP7041052B6 (ja) 2015-09-09 2022-05-30 コーニンクレッカ フィリップス エヌ ヴェ 反復介入手順を計画及び実行するシステム並びに方法
JP2020512166A (ja) * 2017-03-20 2020-04-23 エグザクト イメージング インコーポレイテッド 超音波システムの操作者を視覚的に支援するための方法およびシステム
JP7461501B2 (ja) 2020-04-07 2024-04-03 ベラソン インコーポレイテッド 前立腺自動解析システム

Also Published As

Publication number Publication date
EP2429406B1 (en) 2018-12-05
US20100286517A1 (en) 2010-11-11
JP5627677B2 (ja) 2014-11-19
EP2429406A1 (en) 2012-03-21
WO2010132349A1 (en) 2010-11-18
US9521994B2 (en) 2016-12-20

Similar Documents

Publication Publication Date Title
JP5627677B2 (ja) 画像ガイド下前立腺癌針生検のためのシステムおよび方法
US20200085412A1 (en) System and method for using medical image fusion
JP5543444B2 (ja) 生検実施のための方法及びシステム
US9375195B2 (en) System and method for real-time ultrasound guided prostate needle biopsy based on biomechanical model of the prostate from magnetic resonance imaging data
JP7041052B6 (ja) 反復介入手順を計画及び実行するシステム並びに方法
Xu et al. Real-time MRI-TRUS fusion for guidance of targeted prostate biopsies
US20140073907A1 (en) System and method for image guided medical procedures
Wein et al. Automatic CT-ultrasound registration for diagnostic imaging and image-guided intervention
JP6611612B2 (ja) 外科データのイントラモーダル同期化
Park et al. Registration methodology for histological sections and in vivo imaging of human prostate
JP4657561B2 (ja) 医学的ドキュメント化のための生体乳房生検位置の視覚化強化
CN103402453B (zh) 用于导航系统的自动初始化和配准的系统和方法
JP4490442B2 (ja) 手術中の2次元画像および手術前の3次元画像をアフィン重ね合わせするための方法およびシステム
US20110178389A1 (en) Fused image moldalities guidance
US20100208963A1 (en) System and method for fusing real-time ultrasound images with pre-acquired medical images
US20070118100A1 (en) System and method for improved ablation of tumors
WO2014031531A1 (en) System and method for image guided medical procedures
JP2011125431A (ja) 画像処理装置、および画像位置合せ方法
Kaspersen et al. Three-dimensional ultrasound-based navigation combined with preoperative CT during abdominal interventions: a feasibility study
Orczyk et al. Preliminary experience with a novel method of three-dimensional co-registration of prostate cancer digital histology and in vivo multiparametric MRI
US11304683B2 (en) Biopsy workflow using multimodal imaging
EP3110335B1 (en) Zone visualization for ultrasound-guided procedures
Alam et al. Evaluation of medical image registration techniques based on nature and domain of the transformation
US20160228068A1 (en) Quality assurance for mri-guided breast biopsy
Kadoury et al. Realtime TRUS/MRI fusion targeted-biopsy for prostate cancer: a clinical demonstration of increased positive biopsy rates

Legal Events

Date Code Title Description
A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140217

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140224

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140317

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140325

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140512

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140930

R150 Certificate of patent or registration of utility model

Ref document number: 5627677

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees