JP7171168B2 - 医用画像診断装置及び医用画像処理装置 - Google Patents

医用画像診断装置及び医用画像処理装置 Download PDF

Info

Publication number
JP7171168B2
JP7171168B2 JP2017119588A JP2017119588A JP7171168B2 JP 7171168 B2 JP7171168 B2 JP 7171168B2 JP 2017119588 A JP2017119588 A JP 2017119588A JP 2017119588 A JP2017119588 A JP 2017119588A JP 7171168 B2 JP7171168 B2 JP 7171168B2
Authority
JP
Japan
Prior art keywords
light source
target
image
medical image
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017119588A
Other languages
English (en)
Other versions
JP2017225819A (ja
Inventor
ワレンバーグ マグナス
トリスタン・ロートン
デイ ティモシー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Publication of JP2017225819A publication Critical patent/JP2017225819A/ja
Application granted granted Critical
Publication of JP7171168B2 publication Critical patent/JP7171168B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Gynecology & Obstetrics (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Robotics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)

Description

本実施形態は、例えば医用画像診断装置及び医用画像処理装置に関する。
穿刺針を用いる生検は、一般に、患者またはその他被検体から組織サンプルを収集するために実施される。また、穿刺針を用いて腫瘍部を焼灼する治療法が存在する。これらの生検、焼灼治療においては、針は組織に挿入され、関心領域の医用撮像を使用して導かれる。関心領域の医用撮像は、例えば、超音波プローブを使用して取得される撮像など、リアルタイム撮像を含んでよい。針の位置は、リアルタイム撮像を使用して追跡されてもよい。また針の位置は、位置センサを使用して代替的にまたは追加的に追跡することが出来る。
穿刺術に先立って取得される先行画像(例えば、穿刺術よりも前もって取得された先行3次元医用画像、或いはアトラス画像)は、リアルタイム撮像と共に表示される。先行3次元医用画像とは、例えば、CT、MRなどの医用画像診断装置によって取得された三次元画像または3次元超音波画像であってもよい。先行3次元医用画像は、リアルタイム超音波画像と一緒にレジストレーションされることがある。
生検針を誘導中の臨床医にとって、先行3次元医用画像は有益な情報を含むことができる。例えば、先行3次元医用画像は、所望のサンプルされる解剖学的特徴(腫瘍など)の大きさや位置を示すことができる。先行3次元医用画像は、3次元の性質によりおよび/または異なるモダリティで撮られているので、リアルタイム撮像よりもさらに多くの情報量を示すかもしれない。
中には、先行3次元医用画像がレジストレーションされたMPR(マルチプラナー再編成)画像として示される場合がある。レジストレーションされたMPR画像は、リアルタイム撮像で示される平面画像に対応する、先行3次元医用画像のスライスを示してもよい。
またあるケースでは、先行3次元医用画像が3次元ボリュームレンダリング画像として、示されるものがある。先行3次元医用画像を3次元ボリュームレンダリング画像として表示することにより、MPR画像に比して、より多くの事実関係(context)を伴う概要的な全体像を考慮することが出来る。
3次元ボリュームレンダリング画像は、先行画像が針とプローブとの幾何学的な位置関係の移動のみを伴った、固定された位置から見られることを可能にする。その一方で、レジストレーションされたMPR画像は、針とプローブの幾何学的な位置関係の移動のみに固定された位置から先行3次元医用画像を観察するような、全体的な位置や方向において同じ感覚をもたらさないかもしれない。
米国特許出願公開第2014/0232719A1号明細書
例えば、穿刺術においては、針先や針先周囲に関する関連情報を視覚化することが望ましい。しかし、3次元ボリュームレンダリングの特性上、針の描出が3次元ボリュームレンダリングに含まれる場合、実際に針先がどこにあるのかを目で捉えるのは、一般的に困難である。針先は、針が挿入される表面または物質によって塞がれる可能性があるからである。
針は、主には柔組織に向けられるので、先行3次元医用画像の標準的な直接ボリュームレンダリング画像(classical Direct Volume Rendering images)では、粗く見える可能性がある。従来の直接ボリュームレンダリングは、柔組織を上手くレンダリングしないかもしれないので、主な組織タイプおよび/またはその主な組織タイプ周りの大半が柔組織の場合、先行3次元医用画像のレンダリングに対しては不適切かもしれない。
画像中のノイズは、局所シェーディングにより、よりひどくなる可能性がある。ノイズの影響は、先行画像が3次元超音波ボリュームならば、特にひどいかもしれない。ある状況下で、ノイズ影響が針の幾何学的位置関係(needle geometry)をより見づらいものにする可能性がある。
以上に鑑み、本実施形態の目的は、手術前のシミュレーションや手術中において、対象部位、被検体内に挿入する医用器具又は電子機器の経路、或いは対象部位と医用器具又は電子機器の位置関係を、従来に比してより簡単に視認することが可能な医用画像診断装置、医用画像処理装置を提供することである。
実施形態に係る医用画像診断装置は、スキャン部、処理部を有する。スキャン部は、被検体の3次元領域に対してスキャンを実行する。処理部は、スキャンの結果に基づいて、3次元領域の医用画像データを生成し、3次元領域内のターゲットの位置を検出し、検出した前記ターゲットの位置を光源の位置として、前記医用画像データに対するレンダリング処理を実行する。
図1は、実施形態に係る医用画像診断装置の概要図である。 図2は、実施形態の処理全体を描いているフローチャートである。 図3は、針先に電源を備えた(active)仮想光源を有する、針生検画像の概要図である。 図4は、針先の前面のエラストグラフィに基づく色と輝度モディファイアとを示す概要図である。 図5は、先行PET/CT画像からFDG摂取(FDG uptake)に基づく色と輝度モディファイアとを示す概要図である。 図6は、収集点からの距離の計測を示す概要図である。 図7は、ライブ超音波面からの距離の計測を示す概要図である。
以下、各実施形態を図面に従って説明する。なお、以下の説明において、略同一の機能及び構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行う。
また、以下の実施形態においては、説明を具体的にするため、実施形態に係る医用画像診断装置が超音波診断装置である場合を例として説明する。しかしながら、以下に述べる本実施形態の画像処理手法は、超音波診断装置の例に限定されず、例えば、X線コンピュータ断層撮像装置、磁気共鳴イメージング装置、X線診断装置、PET、SPECT等の他の医用画像診断装置においても適用可能である。
実施形態に係る超音波診断装置1が、図1に示されている。超音波診断装置1は、撮影機器としての超音波スキャナ14と、当該超音波スキャナ14によって取得された超音波データを処理するパーソナルコンピュータ(PC)またはワークステーションである医用画像処理装置12を具備している。医用画像処理装置12は、超音波スキャナ14、一つ以上の表示機器50またはその他表示デバイス、そしてコンピュータキーボード、マウスまたはトラックボールなど、入力装置または複数の入力装置18に接続されている。
超音波診断装置1或いは医用画像処理装置12は、例えばその手術計画段階において手術の対象となる部位の位置を把握、被検体に挿入する医用器具又は電子機器の経路のシミュレーション、或いは手術中における手術対象部位と医用器具又は電子機器の位置関係のモニタリング等を行う場合に用いられる。なお、以下においては、説明を具体的にするため、医用器具としての穿刺針を被検体内に挿入する場合を例とする。なお、本実施形態では、被検体内の手術対象部位、医用器具の位置、電子機器の位置、又はユーザによりマニュアル指定された位置など、仮想光源が配置される位置の総称をターゲットとする。
超音波スキャナ14は、患者またはその他被検体の領域を描出した超音波データ(ultrasound data representative of a region)を収集するように構成された任意の超音波スキャナであってよい。患者またはその他被検体の領域は、少なくとも一つの関心の解剖学的構造を具備するかもしれない。
本実施形態において、超音波スキャナ14は、2次元超音波データを収集するように構成されている。超音波スキャナ14は、リアルタイムまたはほぼリアルタイム(near-real-time)で2次元超音波データを収集するように構成されている。代替的な実施形態において、医用画像診断装置が他のモダリティとなる場合には、超音波スキャナ14は、例えばMRI(磁気共鳴撮像)スキャナ、X線スキャナ、PET(陽電子放射断層撮影法)スキャナ、SPECT(単光子放出コンピュータ断層撮影)スキャナ、またはCTスキャナなど、2次元または3次元医用撮像データを提供するように構成された任意の撮像モダリティ内の、任意のボリューメトリックスキャナと置き換えられる、または補われてもよい。
なお、超音波診断装置1には、生検手術を実行する患者またはその他被検体の身体に挿入される可能性のある、生検針の位置を決定するように構成された位置検出器21が接続される。本実施形態において、公知のタイプの磁気検波器が生検針の位置を検出するために使用される。
実施形態の中には、位置検出器21は、電磁石追跡システムを具備してよい。また実施形態には、電磁石センサが生検針(またはその他医療器具)に埋め込まれているものがある。電磁石センサの位置、つまり生検針の位置は、一つ以上の電磁石送信機を使用して決定される。
代わりの実施形態において、例えばステレオビジョン針検出器など、任意の適切なその他タイプの検出器が使われてよい。ステレオビジョン針検出器は、プローブと針とを追跡し、プローブと針の幾何学的関係(geometric relationship)を計算する、カメラ二台を具備しているかもしれない。さらなる実施形態において、位置検出器21は、任意の適切な挿入手術において任意の適切な医用デバイスが挿入される位置を決定するように構成されている。
図1に示されるように、超音波診断装置1は、装置本体10、超音波プローブ70、表示機器50、及び入力装18を備える。装置本体10は、ネットワーク100を介して外部装置40と接続される。また、装置本体10は、表示機器50、及び入力装18と接続される。
超音波プローブ70は、複数の圧電振動子、圧電振動子に設けられる整合層、及び圧電振動子から後方への超音波の伝播を防止するバッキング材等を有する。超音波プローブ70は、装置本体10と着脱自在に接続される。複数の圧電振動子は、装置本体10が有する超音波送信部11aから供給される駆動信号に基づき超音波を発生する。また、超音波プローブ70には、後述するオフセット処理や、超音波画像のフリーズなどの際に押下されるボタンが配置される。
超音波プローブ70から被検体Pに超音波が送信されると、送信された超音波は、被検体Pの体内組織における音響インピーダンスの不連続面で次々と反射され、反射波信号として超音波プローブ70が有する複数の圧電振動子にて受信される。受信される反射波信号の振幅は、超音波が反射される不連続面における音響インピーダンスの差に依存する。なお、送信された超音波パルスが移動している血流や心臓壁などの表面で反射された場合の反射波信号は、ドプラ効果により、移動体の超音波送信方向に対する速度成分に依存して周波数偏移を受ける。超音波プローブ70は、被検体Pからの反射波信号を受信して電気信号に変換する。超音波プローブ70は、例えば、複数の超音波振動子が所定の方向に沿って配列された一次元アレイプローブである。なお、超音波プローブ70は、一次元アレイプローブに限られず、ボリュームデータを取得可能なものとして、二次元アレイプローブ(複数の超音波振動子が二次元マトリックス状に配列されたプローブ)、又はメカニカル4Dプローブ(超音波振動子列をその配列方向と直交する方向に機械的に煽りながら超音波走査を実行可能なプローブ)等であってもよい。
図1に示される装置本体10は、超音波プローブ70が受信した反射波信号に基づいて超音波画像を生成する装置である。装置本体10は、図1に示すように、超音波送信部11a、超音波受信部11b、Bモード処理部13a、ドプラ処理部13b、画像メモリ34(シネメモリ)、内部記憶部20、データ処理部22、通信インタフェース回路35、制御部(CPU)30、画像データベース31、入力インタフェース回路32を含む。
超音波送信部11aは、超音波プローブ70に駆動信号を供給するプロセッサである。超音波送信部11aは、例えば、トリガ発生回路、遅延回路、パルサ回路等により実現される。トリガ発生回路は、制御部30の制御の下、所定のレート周波数で、送信超音波を形成するためのレートパルスを繰り返し発生する。遅延回路は、超音波プローブ70から発生される超音波をビーム状に集束して送信指向性を決定するために必要な圧電振動子ごとの遅延時間を、トリガ発生回路が発生する各レートパルスに対し与える。パルサ回路は、制御部30の制御の下、レートパルスに基づくタイミングで、超音波プローブ70に駆動信号(駆動パルス)を印加する。遅延回路により各レートパルスに対し与える遅延時間を変化させることで、圧電振動子面からの送信方向が任意に調整可能となる。
超音波受信部11bは、超音波プローブ70が受信した反射波信号に対して各種処理を施し、受信信号を生成するプロセッサである。超音波受信部11bは、例えば、アンプ回路、A/D変換器、受信遅延回路、加算器等により実現される。アンプ回路は、超音波プローブ70が受信した反射波信号をチャンネルごとに増幅してゲイン補正処理を行なう。A/D変換器は、ゲイン補正された反射波信号をデジタル信号に変換する。受信遅延回路は、デジタル信号に受信指向性を決定するのに必要な遅延時間を与える。加算器は、遅延時間が与えられた複数のデジタル信号を加算する。加算器の加算処理により、受信指向性に応じた方向からの反射成分が強調された受信信号が発生される。
Bモード処理部13aは、超音波受信部11bから受け取った受信信号に基づき、Bモードデータを生成するプロセッサである。Bモード処理部13aは、超音波受信部11bから受け取った受信信号に対して包絡線検波処理、及び対数増幅処理等を施し、信号強度が輝度の明るさで表現されるデータ(Bモードデータ)を生成する。生成されたBモードデータは、2次元的な超音波走査線上のBモードRAWデータとして不図示のRAWデータメモリに記憶される。
ドプラ処理部13bは、超音波受信部11bから受け取った受信信号に基づき、ドプラ波形、及びドプラデータを生成するプロセッサである。ドプラ処理部13bは、受信信号から血流信号を抽出し、抽出した血流信号からドプラ波形を生成すると共に、血流信号から平均速度、分散、及びパワー等の情報を多点について抽出したデータ(ドプラデータ)を生成する。生成されたドプラデータは、2次元的な超音波走査線上のドプラRAWデータとして不図示のRAWデータメモリに記憶される。
データ処理部22は、Bモード処理部13a、及びドプラ処理部13bにより生成されたデータに基づき、各種データ処理を実行するプロセッサである。
データ処理部22は、位置決定部24、レジストレーション処理部26、画像生成部28、画像処理部29を有している。
位置決定部24は、位置検出器21が検出した穿刺針の基準位置(例えば、先端位置)に基づいて、ボリュームデータ内における当該基準位置の位置を決定する。
レジストレーション処理部26は、リジッドレジストレーション、アフィン変換、ノンリジッドレジストレーション等の所定の手法に従って、超音波ボリュームデータと先行ボリュームデータ(例えばCTボリュームデータ)とをレジストレーションする。
画像生成部28は、RAWデータメモリに記憶されたBモードRAWデータに基づいてBモード画像データを生成する。また、画像生成部28は、RAWデータメモリに記憶されたドプラRAWデータに基づいて、平均速度画像、分散画像、パワー画像等に係るドプラ画像データを生成する。
さらに、画像生成部28は、RAWデータメモリに記憶されたBモードデータに対し、空間的な位置情報を加味した補間処理を含むRAW-ボクセル変換を実行することにより、形態情報を表すBモードボリュームデータを生成する。また、データ処理部22は、RAWデータメモリに記憶されたドプラデータに対し、空間的な位置情報を加味した補間処理を含むRAW-ボクセル変換を実行することにより、血流情報を表す血流(カラードプラ)ボリュームデータを生成する。Bモードボリュームデータ、及び、血流ボリュームデータは、所望の範囲のボクセルから構成される。
画像処理部29は、発生した各種ボリュームデータを用いて、レンダリング画像、MPR画像等を生成する。また、画像処理部29は、シェーディング等の所定の画像処理を実行する。
表示処理部16は、各種画像を表示機器50に表示させるプロセッサである。表示処理部16は、座標変換処理等により、表示画像としての超音波画像データを生成する。座標変換処理とは、例えば、Bモードデータ、及びドプラデータからなる超音波走査の走査線の信号列を、テレビ等に代表される一般的なビデオフォーマットの走査線信号列であるビデオ信号に変換する処理である。生成された超音波画像データは、例えばDICOM(digital imaging and communication in medicine)規格に準拠したフォーマットに変換され、例えば画像データベース19に記憶される。
また、表示処理部16は、データ処理部22において生成された各種画像データに対し、ダイナミックレンジ、輝度(ブライトネス)、コントラスト、γカーブ補正、及びRGB変換などの各種処理を実行することで、画像データをビデオ信号に変換する。表示処理部16は、ビデオ信号を表示機器50に超音波画像として表示させる。
なお、表示処理部16は、操作者(例えば、術者)が入力インタフェース回路32により各種指示を入力するためのユーザインタフェース(GUI:Graphical User Interface)を生成し、GUIを表示機器50に表示させてもよい。表示機器50としては、例えば、CRTディスプレイや液晶ディスプレイ、有機ELディスプレイ、LEDディスプレイ、プラズマディスプレイ、又は当技術分野で知られている他の任意のディスプレイが適宜利用可能である。
内部記憶部20は、例えば、磁気的若しくは光学的記録媒体、又は半導体メモリ等のプロセッサにより読み取り可能な記録媒体等を有する。内部記憶部20は、超音波送受信を実現するための制御プログラム、画像処理を行うための制御プログラム、及び表示処理を行なうための制御プログラム等を記憶している。また、内部記憶部20は、本実施形態に係る各種機能を実現するための制御プログラムを記憶している。また、内部記憶部20は、診断情報(例えば、患者ID、医師の所見等)、診断プロトコル、ボディマーク生成プログラム、及び映像化に用いるカラーデータの範囲を診断部位ごとに予め設定する変換テーブルなどのデータ群を記憶している。また、内部記憶部20は、生体内の臓器の構造に関する解剖学図譜、例えば、アトラスを記憶してもよい。
また、内部記憶部20は、本実施形態では、超音波スキャナ14によって収集された超音波データセットは、内部記憶部20に格納され、その後に医用画像処理装置12に提供される。代わりの実施形態において、超音波データセットは、画像保管通信システム(PACS)の一部を形成し得る、遠隔データストア(図示せず)から供給される。内部記憶部20または遠隔データストアは、メモリストレージの任意の適切な形態を具備していてもよい。
内部記憶部20は、患者またはその他被検体を描出した3次元CTデータも格納する。格納された3次元CTデータは、CTスキャナを使用して以前に収集されてきたデータである。格納された3次元CTデータは、以下により詳細に説明される通り、撮像処理において使用される。代わりの実施形態において、CTデータは、遠隔データストアから供給される。その他の実施形態において、CTデータは、例えばMRI、X線、PET、SPECT、または超音波撮像モダリティなど任意のその他適切な撮像モダリティを使用して収集された3次元医用撮像データによって、置き換えられる、または補われてもよい。
画像メモリ34は、例えば、磁気的若しくは光学的記録媒体、又は半導体メモリ等のプロセッサにより読み取り可能な記録媒体等を有する。画像メモリ34は、入力インタフェース回路32を介して入力されるフリーズ操作直前の複数フレームに対応する画像データを保存する。画像メモリ34に記憶されている画像データは、例えば、連続表示(シネ表示)される。
画像データベース31は、外部装置40から転送される画像データを記憶する。例えば、画像データベース31は、過去の診察において取得された同一患者に関する過去画像データを、外部装置40から取得して記憶する。過去画像データには、超音波画像データ、CT(Computed Tomography)画像データ、MR画像データ、PET(Positron Emission Tomography)-CT画像データ、PET-MR画像データ及びX線画像データが含まれる。また、過去画像データは、例えば3次元ボリュームデータ、及びレンダリング画像データとして記憶されている。これらの過去画像データは、本実施形態において、先行医用画像として利用される。
なお、画像データベース31は、MO、CD-R、DVDなどの記録媒体(メディア)に記録された画像データを読み込むことで、所望の画像データを格納してもよい。
入力インタフェース回路32は、入力装18を介して、操作者からの各種指示を受け付ける。入力装18には、例えば、マウス、キーボード、パネルスイッチ、スライダースイッチ、ダイヤルスイッチ、トラックボール、ロータリーエンコーダ、操作パネル及びタッチコマンドスクリーン(TCS)等が含まれる。
入力インタフェース回路32は、例えばバスを介して制御部30に接続され、操作者から入力される操作指示を電気信号へ変換し、電気信号を制御部30へ出力する。なお、本実施形態において入力インタフェース回路32は、マウス及びキーボード等の物理的な操作部品と接続するものだけに限られない。例えば、超音波診断装置1とは別体に設けられた外部の入力機器から入力される操作指示に対応する電気信号を無線信号として受け取り、この電気信号を制御部30へ出力する電気信号の処理回路も入力インタフェース回路32の例に含まれる。
通信インタフェース回路35は、通信インタフェース回路35は、ネットワーク100等を介して外部装置40と接続され、外部装置40との間でデータ通信を行う。外部装置40は、例えば、各種の医用画像のデータを管理するシステムであるPACS(Picture Archiving and Communication System)のデータベース、医用画像が添付された電子カルテを管理する電子カルテシステムのデータベース等である。また、外部装置40は、例えば、X線CT装置、及びMRI(Magnetic Resonance Imaging)装置、核医学診断装置(PET、SPECT)、及びX線診断装置等、本実施形態に係る超音波診断装置1以外の各種医用画像診断装置である。なお、外部装置40との通信の規格は、如何なる規格であっても良いが、例えば、DICOMが挙げられる。
制御部(CPU)30は、プロセッサを有し、超音波診断装置1の中枢として機能する。制御部30は、超音波受信部11bから発生される受信信号に基づき、Bモード処理部13a、ドプラ処理部13b、データ処理部22、及び表示処理部16等を制御し、所定の超音波画像データを生成し、生成した超音波画像データを表示機器に表示する。制御部30は、入力インタフェース回路32を介して、操作者等からの各種指示を受け付ける。制御部30は、受け付けた各種指示を、制御部30に入力する。
本実施形態において、位置決定部24、レジストレーション処理部26と画像生成部28とは、実施形態の方法を実行することが可能なコンピュータ可読指示を有するコンピュータプログラムの方法により、医用画像処理装置12でそれぞれ実行される。例えば、位置決定部24とレジストレーション処理部26、画像生成部28とは、例えば制御部30によって、医用画像処理装置12で実行可能な個別のコンピュータプログラムまたはアルゴリズムとして、それぞれ実行される可能性がある。しかし、その他の実施形態において、回路は、一つ以上のASICs(特定用途向け集積回路)またはFPGAs(フィールド・プログラマブル・ゲート・アレイ)として、実行されてもよい。
医用画像処理装置12は、ハードドライブや、RAM、ROMを含むPCのその他構成要素、データバス、様々なデバイスドライバを含むオペレーティング・システム、グラフィックス・カードを含むハードウェアデバイスも包括する。このような構成要素は、明確にするために図1には図示されていない。
以下により詳細に説明される通り、生検針が患者またはその他被検体の身体へと挿入される間、生検針の少なくとも一部を描出した画像の特性は、画像上に表示されてよい、というのが図1の実施形態の特徴である。その表示される画像とは、例えば、レンダリング処理を使用して予め収集されたCTデータから生成された、患者またはその他被検体の身体の少なくとも一部の3次元レンダリング画像である。レンダリング処理の一部として、針が移動するとレンダリング画像の少なくとも一部の見た目が変化するように、仮想光源は、生検針の少なくとも一部と関連付けられる可能性がある。例えば、仮想光源の位置および/または輝度は、針が動くにつれて変化してもよい。
CTデータから生成された、3次元レンダリング画像は、例えば、生検針の挿入中または生検針を抜いている間に、リアルタイムで超音波スキャナ14から収集された、超音波データから生成されたリアルタイム画像を補足するのに、使用されることができる。例えば、実施形態の中には、CTデータから生成された画像は、表示機器50または異なる、例えば近接する、表示スクリーンに、超音波画像の隣に/と同時に表示されてよく、一つ以上の関心特徴に関連する生検針の位置を画像から決定する際に、ユーザを支援することができる。
生検針挿入手術間の図1のシステムの操作は、図2のフローチャートに概要が描かれている。
生検針挿入手術は、図3に概略的に描かれており、図3は、生検針200が生検を実行したい一つ以上の点を含む可能性のある関心領域204へと、患者またはその他の被検体の肉体202を通して挿入されているところを示している。
処理の第一ステージ100で、医用画像処理装置12は、患者またはその他の被検体を描出したCT撮像データを、内部記憶部20または遠隔データストアから検索する。本実施形態において、CTデータは、スキャンボリュームにおける対応する位置で、CTスキャンによって決定されたX線吸収の程度を表すそれぞれボクセルの輝度値と共に、ボクセルのセットを具備している3次元CTデータを具備する。本願実施形態におけるCT撮像データとは、以前のスキャンから予め収集されてきたCTデータのことである。その他の実施形態において、医用画像処理装置12は、任意の適切な3次元医用撮像データセットを検索する。
処理の次のステージ102で、位置決定部24は、生検針200の位置を描出する位置検出器21から位置データを収集し、その位置データから生検針200の現在位置を決定する。
次ステージ104で、医用画像処理装置12は、患者またはその他の被検体に超音波スキャナ14を使用して実行されている超音波計測を描出する超音波スキャナ14から、リアルタイム超音波データを収集する。その他実施形態において、ステージ100から104までは、同時にまたは任意の順序で実行されてよい。実施形態には、位置検出器21からよりもリアルタイム超音波データから位置データが収集されるものもある。
CTスキャナまたはCTデータのそれぞれ、超音波スキャナ14または超音波データ、そして位置検出器21または位置データは、それら独自の座標系を有する場合があるので、一つ以上の超音波データ、CTデータまたは位置データを、一つ以上の超音波データ、CTデータまたは位置データと組み合わせて使用するという試みは、ミスアライメントという結果に繋がる可能性がある。従って述べられた実施形態において、CTデータ、超音波データおよび/または位置データが共通の座標系でアライメントされていることを確かなものにするために、アライメント手順は実行される。
アライメント手順は、レジストレーション処理部26によって実行されて、先行レジストレーション手順または先行キャリブレーション手順に基づいていてよい。任意の適切なレジストレーション手順またはキャリブレーション手順が使用され得る。例えば、最初の超音波データセットは、超音波スキャナ14から収集されてよく、そして任意の適切な公知のレジストレーション手順(例えば、任意の適切な公知の、リジッド、アフィン変換またはノンリジッドレジストレーション手順)が、超音波データセットをCTデータにレジストレーションするために、使用されてよく、その結果、超音波データまたはCTデータの座標系システムをアライメントするために使用されてもよい、並進または座標オフセットのセットを収集することになる。レジストレーション手順は、例えば解剖学的特性のそれぞれデータセットおよび/または位置における輝度値に基づいていてもよい。
同様に、例えば生検針200が患者またはその他の被検体に関連する所定位置(例えば、被検体に触れてはいるが刺してはいないなど)にある場合に、または患者天板または超音波スキャナ14に対して所定位置にある場合に、最初の位置データは、位置検出器21から収集することが出来る。最初の位置データは、位置検出器21の座標系、または位置データを、一つ以上のCTスキャナまたはCTデータ、超音波スキャナ14または超音波データとアライメントするために使用され得る、並進または座標オフセットのセットを決定するためのレジストレーション処理部26によって使用されてよい。
本実施形態において、並進または座標オフセットのセットは、上述の通り先行レジストレーションまたはキャリブレーション手順で収集される。本実施形態のステージ106において、医用画像処理装置12(例えば、レジストレーション処理部26)は、ステージ100で検索されたCTデータ撮像データ、ステージ102で収集された位置データ、ステージ104で取得された超音波データ、をアライメントするために、先行レジストレーションまたはキャリブレーション手順において収集された並進または座標オフセットのセットを使用する。
実施形態において、並進または座標オフセットのセットは、CTデータ、超音波データ、または位置データをアライメントするために、データ処理部22によって(例えば、レジストレーション処理部26によって)、使用されてよく、CTデータ、超音波データおよび/または位置データとをアライメントするために、それぞれ時間的に新しい(each time new)CTデータ、超音波データが収集される(つまり、それぞれステージ100、102、または104の逐次に対して)。代わりの実施形態において、並進または座標オフセットのセットは、一つ以上のCTスキャナ、内部記憶部20、超音波スキャナ14、または位置検出器21に提供される可能性があり、アライメントは、データが医用画像処理装置12に提供される前に実施されてよい。さらなる実施形態において、CTデータ、超音波データ、そして位置データのそれぞれは、同じ座標系で生成されており、アライメントを必要としない。
ステージ106のアライメント後、CTデータは、患者またはその他被検体の少なくとも一部画像をレンダリングするためのレンダリング処理において、画像生成部28によって使用される。仮想光源がレンダリング処理において使用されることは、図1の実施形態の特徴である。このようにして、ステージ108で仮想光源の位置が決定される。生検針200の少なくとも一部の決定された位置に基づき(ステージ102で収集された位置データから位置決定部24によって決定されたように)、ステージ108で仮想光源の位置が決定されることは、図1の実施形態の更なる特徴である。
なお、ステージ108で仮想光源の位置決定は、上述した位置検出器21を用いた手法に限定されず、種々の手法を採用することが可能である。例えば、所定の断面に対応する2次元CT画像或いは2次元超音波画像を表示し、当該画像上において、入力装置18を介してユーザがマニュアル操作により仮想光源位置(ターゲットの位置)を入力するようにしてもよい。
また、三次元画像を用いたマニュアル操作による仮想光源位置の入力も可能である。例えば、PET-CTによって取得された三次元画像(すなわち、PET画像とCT画像の三次元合成画像)に対して、入力装置18を介してユーザがマニュアル操作により仮想光源位置(ターゲットの位置)を入力する。位置決定部24は、入力された位置(少なくとも一点)から深さ方向に進み、初めてPET画像に到達した座標を基準とすることで、仮想光源位置を決定することができる。
さらに、位置決定部24は、閾値処理やパターンマッチング等の手法により、仮想光源位置を自動的に決定するようにしてもよい。
以上の様にして、図1の実施形態において、仮想光源は、生検針200の先端位置に対応する位置であるように決定される。本実施形態において、仮想光源は一点の光源である。
次ステージ110で、画像生成部28は、CTデータを処理して、仮想光源を使用することで、画像をレンダリングして表示する。本開示における仮想光源の位置は、生検針200の先端位置に対応しているように、ステージ108で決定される。任意の適切なレンダリング方法が使われてよく、例えば、グローバルイルミネーション(global illumination)および/またはトランスイルミネーション(transillumination)および/または光子マッピングおよび/またはレイ追跡方法および/またはその他レンダリング方法があり、また例えば米国出願2014/0232719、米国出願2015/0022523、または米国出願2015/0164475に述べられているような任意の方法があるが、それぞれの内容は、ここに番号を付すことで組み込まれるものとする。レンダリング方法は、例えば、Jonsson共著、相互ボリュームレンダリングのためのボリューメトリック照明技術検査(A Survey of Volumetric Illumination Techniques for Interactive Volume Rendering)、コンピュータグラフィックスフォーラム、第33巻、1号、2014年2月に述べられているレンダリング方法の一つが使われてよい。
本実施形態において、画像生成部28によって実行されるレンダリング処理は、CTデータのボリュームの少なくとも一部に対応するボリューム中に、複数の仮想光源のそれぞれから仮想ライトをキャスティングすることで、放射照度ボリュームを決定することを具備する。仮想ライトがキャストされるボリュームは、関心領域を含む。
仮想光源のうちの一つは、ステージ108で定義された仮想光源であり、生検針200の先端に位置する。少なくとも一つの更なる仮想光源が、周囲照明を提供するために使用される。その他の実施形態で、仮想光源の任意の数または任意のタイプが使用されてよい。
複数の仮想光源による放射照度は、CTデータのボクセル輝度に依存し、ボクセルに割り当てられた吸収特性を使用して、ボリュームにおける点の大きなアレイ(each of a large array of points)のそれぞれで、決定される。点のアレイでの放射照度の値は、放射照度ボリュームとして格納される。
本実施形態において、グローバルイルミネーションライティングモデルは、レンダリング処理に置いて使用される。グローバルイルミネーションライティングモデルは、光源から直接向かって来る(coming)光による直接照明と、例えば別の表面から散乱してきた光による照明などの間接照明、との両方を含んでよい。
画像生成部28は、表示用の画像をレンダリングするために、放射照度ボリュームを使用する。レイは仮想カメラからのキャスト(例えば、レンダリング結果画像のそれぞれピクセルに対する一つのレイ)であり、それぞれレイに沿った点からの放射照度は、レンダリング最終画像のためのピクセルカラーを提供するために統合される。
本実施形態において、レンダリング処理は、放射照度ボリュームの決定と放射照度ボリュームからの画像のレンダリングとの二段階(two-pass)処理であるが、その他の実施形態では一段階処理が使用されてもよい。仮想光源を使用する、任意の適切なレンダリング技術が使用され得る。レンダリング技術は、グローバルイルミネーションライティングモデルを使用してもしなくてもよい。レンダリング技術は、反射、屈折および/または散乱などの影響を含んでよいし、含まずともよい。
図1の実施形態において、レンダリング処理は、ボリューメトリックレンダリング処理であり、ステージ110で表示される画像は、スクリーンまたはその他2次元表示デバイス上に表示されるにもかかわらず、3次元における特徴を表すという印象をユーザに与える可能性のある、2次元投影である。この画像は、そのため3次元画像と呼ぶことが出来る。この画像は、一つ以上のシェーディング、深さ、表面テクスチャ特徴を含み得る。
図1の実施形態において、画像生成部28は、レンダリング画像において生検針200の少なくとも一部を描出した画像特徴を含む。本実施形態において、画像特徴は、レンダリング画像上に画像生成部28によって、オーバーレイドされたライン(オーバーレイドライン)である。任意のその他適切な画像特徴が、代わりの実施形態において使用されてよい。実施形態の中には、生検針の少なくとも一部を描出した画像特徴は、多角形幾何により特徴付けたものまたはオーバーレイドラインのものがある。
実施形態には、針の代表的な画像特徴が画像において何も見当たらないものもある。唯一仮想光源だけが針の位置を示す。
実施形態の中には、二枚の3次元画像が表示されるものがある(例えば、同じレンダリング画像の二枚のコピー)。3次元画像のうちの一枚は、光源の点を含み、その他 の3次元画像は、例えば多角形幾何により特徴付けたものまたはオーバーレイドラインなど、生検針の少なくとも一部を具現化した画像特性を含む。画像特性と点光源は、同一ビューでは使用されないかもしれない。
ステージ112で、画像生成部28は、超音波データから更なる画像を生成して表示する。任意の適切な公知の画像生成処理が超音波画像を生成するために使用されてよい。例えば、任意の適切な商業用超音波画像処理ソフトウェアが使用されてよい。本実施形態において、ステージ112で超音波データから生成された画像は、2次元画像である。その他実施形態において、ステージ104で受信したデータは、任意の適切なリアルタイムデータであってよく、ステージ104で受信したデータは、任意の適当な2次元または3次元画像を収集するために、処理することが出来る。
ステージ102から112は、超音波スキャナ14および/または位置検出器21から受信された新たなデータとして、繰り返される。例えば、超音波スキャナ14は、各秒超音波データのいくつかのセットを収集するかもしれない。ステージ112は、新たな画像を生成するために、超音波データのそれぞれ新たなセットに対して、繰り返される。位置検出器は、毎秒数回新たな位置データを返す可能性がある。ステージ110は、新たな位置データのそれぞれセットに対して、繰り返される。
本実施形態において、直近の超音波画像は、直近のレンダリング画像に隣接して、表示機器50上に表示される。新たな位置データおよび新たな超音波データが収集されるごとに、画像は更新される。
超音波画像は、現在画像化されている超音波面を示す。レンダリング画像は、仮想光源により指示されている生検針200の位置がある、関心領域のレンダリング3次元画像を示す。レンダリング3次元画像における仮想光源の位置は、生検針200が移動するにつれて、変化する。
仮想光源は生検針200と関連付けられているように、生検針200が患者またはその他被検体に挿入されたり、または引き抜かれたりすることで、画像の様子は変化する。本実施形態において、仮想光源によって提供される仮想ライトの輝度や色は、変わらないままである。しかし、ステージ110の結果画像に見えるライトの量やライトの色は、生検針200の位置に依存する。
もし生検針200の先端が肉体202の表面に近ければ、生検針200の先端での仮想光源によって提供されるライトは、レンダリング画像において非常に明るく見える。またもし生検針200の先端が肉体202へとさらに挿入されたら、仮想光源によって提供されるライトは、少し暗くなるおよび/または赤っぽく見える。さらに、組織のあるタイプには、その他の組織のタイプよりもよりライトを吸収するかもしれない。結果、画像におけるライトの明るさは、生検針200が挿入された組織のタイプに依存する可能性がある。
レンダリング3次元画像は、2次元超音波画像を補足する。レンダリング3次元画像は、超音波画像が超音波プローブの位置とともに変化するビューを提供する一方で、生検針200の位置が変化する、関心領域の固定されたビューを提供することがある。レンダリング3次元画像は、関心の解剖的構造の全体像(overview perspective)に対して可能とする。レンダリング3次元画像は、全体的な位置および全体方向の感覚を与えることが出来る。
レンダリング3次元画像は、超音波画像と比較された際、追加の解剖学的情報を提供することが出来る。例えば、レンダリング3次元画像は、特定の解剖学的特徴を識別するために、セグメントされる可能性がある。レンダリング3次元画像は、超音波画像よりもより高解像であるかもしれない、および/または特定の特徴(例えば、柔組織における特徴)をより良く検知するために、適応されるかもしれない。
本実施形態において、仮想光源は、生検針200の先端で位置されていることで、生検針200と関連付けられる。その他の実施形態で、仮想光源は、任意の適当な医用デバイスの任意の適切な部分に関連して、位置付けすることも可能である。
針先に電源を備えた光源を使用することは、グローバルイルミネーションレンダリングモデルにうまく適合する可能性がある。針先での点ライトを位置付けるためにグローバルイルミネーション照明を使用することで、過度の透明度またはオーバーレイの使用を必要とすることなく、針先が関心領域の内側に示される可能性がある。
レンダリング画像において生検針200を表示するある方法は、3次元多角形幾何を使用することである。多角形モデルの使用は、グローバルイルミネーションアルゴリズムと適合するかもしれない。しかし、針の幾何形状は、レンダリング画像において減衰され、良く見えない可能性がある。針の幾何学的位置関係(geometry)が見えるかどうかは、照明条件にも依るのかもしれない。針先に電源を備えた光源を位置付けることは、挿入された幾何的位置関係(geometry)よりももっと見えやすい有効位置マーカとして、役目を果たす可能性がある。
もし生検針200が多角形幾何でのみ表されたとしたら、過度の透明性が肉体202のレンダリングで使用されない限り、生検針200が肉体202へと挿入されると、目立たなくなる可能性がある。肉体202をレンダリングするための高い透明性を使用することは、ユーザに対して表示されることが可能な有益な情報量を制限するかもしれないし、および/またはユーザが肉体202における解剖学的構造の描出を理解することをより困難なものにしてしまうかもしれない。
レンダリング画像において生検針200を表示する別の方法として、レンダリング画像上にオーバーレイによるものがある。仮に生検針200が画像上にオーバーレイでのみ表されたら、肉体202への生検針200の挿入の深さは、ユーザにとって不明確になる可能性がある。オーバーレイは、3次元方法におけるボリュームと相互に作用しない可能性があり、またGI(グローバルイルミネーション、Global Illumination)ビューも物理的でないことから、GIを妨げる可能性もある。
実施形態の中には、生検針200も多角形幾何またはオーバーレイによって描出されていることなく、針先が仮想光源によって描出されるものがある。その他の実施形態では、仮想光源が、多角形幾何またはオーバーレイを使用する生検針200の描出を補足するために使用される。
本実施形態において、電源を備えた照明の針先点は、ビーコンのような役割を果たすと考えられてよい。生検針200の描出は、生検針自体のライティングを提供し、それにより生検針の視覚性に対するその他の照明条件に依存しないかもしれない。仮想光源を使用する生検針200の描出は、3次元の方法でボリュームと相互に作用する。
生検針200の先端にある仮想ライトの位置付けは、レンダリング3次元画像における生検針200の先の位置により、直観的な方法で観察し把握出来るようになるだろう。画像の2次元における針先の位置は、画像におけるライトの位置で示される。画像におけるライトの明るさおよび/または色は、針先の深さ(つまり、スクリーン中へ向けられた次元に沿った針先の位置)および/またはライトが通っている組織中のタイプと、対応するかもしれない。
概念実証は、動脈瘤内に位置された仮想ライトで準備されてきた。動脈瘤において異なる位置にあるライト位置は、はっきりと区別がつくと思われる。もしライトが動脈瘤の背後に位置していれば、ライトが動脈瘤の内側に位置している画像とは、ライトの明るさや性質が異なる。この場合、ライトは有効位置インジケータとしての役割を果たす。
図1の実施形態において、針先の仮想光源により発せられる仮想ライトの明るさは、一定のままである(結果画像における明るさは、例えば深さなど位置によって、一見すると異なるが)。更なる実施形態において、針先での仮想光源により発せられる仮想ライトの色/輝度は、有益なボリューメトリック特性を示すように調節される。
図4は、針先での仮想光源により発せられる仮想ライトの色が、生検針200周辺の超音波弾性計測の小さな領域に基づいている実施形態を例示している。生検針200は、肉体202と関心領域204とに挿入される。超音波プローブ206は、関心の領域204を含む超音波撮像領域208のための超音波データを収集する。
弾性計測は、関心領域における点に対し収集される。弾性計測は、任意の適切な方法および任意の適切なモダリティを使用して、収集されてよい。例えば、弾性計測は、超音波プローブ206を使用して収集された超音波データから、収集されてもよい。弾性計測は、例えば生検針200が肉体に挿入される前など、挿入手術が実行される前に収集されてもよい。弾性計測は、CTデータとアライメントされる。
関心領域における点のセット(例えば、ピクセルまたはボクセル)のそれぞれに対して、画像生成部28は、点周辺の小さな領域における弾性計測に基づいて、弾性値を決定する。画像生成部28は、それぞれ弾性値を色と関連付ける。例えば、高い弾性値は赤、低い弾性値は青、と関連付けられていてよい。画像生成部28は、その結果、色が弾性を表す関心領域に対するカラーマップを決定する。
図4のインセット領域210は、関心領域204の一部に対するカラーマップのグレースケールの描出を具備する。異なるグレースケール値が、弾性の異なる値を描出する。
画像生成部28は、カラーマップと生検針200の先端位置とを使用して、生検針200の先端によって発せられる仮想ライトの色を決定する。針先により発せられる仮想ライトの色は、針先の位置に対するカラーマップにおける色に対応する。例えば、図4に示された針先位置は、カラーマップの赤い部分と一致する。赤い仮想ライトは、従って針先がこの赤い部分位置にある場合、針先にある仮想光源によって発せられる。仮に、針先がカラーマップの青い部分へと移動したら、針先の仮想光源より青い光が発せられる。
実際に、表示された画像は、図4のインセット領域として示されるカラーマップを表示しない。代わりに、針先の仮想光源によって発せられる仮想ライトは、生検針200が移動するにつれて変化し、仮想光源の色は、カラーマップに関連して針先の位置に依存している(そして色自体は、弾性計測に基づいている)。
弾性計測に基づいて仮想光源の色を変化させることで、生検針200の先端が関心領域の弾性が高い部分なのか、または低い部分なのかどうか、ユーザにとって直観的なビューで示されるかもしれない。
図5は、針先と関連付けられた仮想光源により発せられた仮想ライトの色が、針先周辺の計測されたPET FDG(フルデオキシグルコース(18F))摂取に基づく、実施形態の概略図である。生検針200は、肉体202と関心領域204とに挿入される。
FDG摂取値は、関心領域における点に対して収集される。図5の実施形態において、FDG摂取は、先行するPET/CTから決定され、レンダリング3次元画像をレンダリングするために使用される3次元医用撮像データを提供するためにも使われる。その他の実施形態において、FDG摂取は、任意の適切なデータセットから決定されてよく、そのデータセットとは、3次元画像のレンダリングにおいて使用されたデータセットと同じでもよいし、違っていてもよい。更なる実施形態において、FDG以外のマーカが使用されてよい。ライトは、例えばPETなど、線源としての核医学薬剤からの任意の適切な値に基づいて、調節され得る。
関心領域における点のセット(例えば、ピクセルまたはボクセル)のそれぞれに対して、画像生成部28は、あの点に対するFDG摂取値を決定する。画像生成部28は、それぞれFDG摂取値を色と関連付ける。画像生成部28は、それによって、色がFDG摂取を表す、関心領域に対するカラーマップを決定する。
図5におけるグレースケールシェーディング212は、FDG摂取が赤(高摂取)から青(低摂取)まで色によって表されたカラーマップの描出である。画像生成部28は、カラーマップ212と生検針200の先端位置とを使用して、生検針200の先端で発せされた仮想ライトの色を決定する。針先により発せされた仮想ライトの色は、針先の位置に対するカラーマップ212における色と対応する。
図5において、針先は、カラーマップ212の緑のエリアと合致する。従って、針先の仮想光源から発せられた仮想ライトは、緑ということになる。もし、針先がカラーマップの青い領域へと移動したら、針先の仮想光源により発せられた仮想ライトは、青になる。針先での仮想ライトの色は、カラーマップでの位置に伴って、変化する(そして、それにより計測されたFDG摂取にも伴って変化する)。ユーザは、生検針200の先端が低摂取領域にあるのか高摂取領域にあるのかを、ライトの色から判断できる。
その他の実施形態において、針先での仮想光源により発せられたライトの色は、針先で、または針先周辺の、組織に対する任意の適切な計測の値に依存する可能性がある。実施形態には、ライトの色が、例えばPETまたはSPECT撮像のために使用される任意の適切なトレーサなど、任意の適切なトレーサの摂取に依存するものがある。ライトの色は、任意の適切な放射性核種の摂取に依存してもよい。実施形態の中には、ライトの色がテクニチューム-99mに依存するものもある。ライトの色は、超音波またはMRエレクトログラフィ(例えば、電気的活性に対する値)、計算圧力、CFD(コンピュータ流体力学)シミュレーション、またはCTパフュージョン値から収集される値に依存していてもよい。
仮想光源の色の決定には、カラーマップ、伝達関数、または任意のその他適切な関数を使用してよく、またはカラーマップまたは伝達関数を使用しない計測値に直接基づいていてもよい。
更なる実施形態において、仮想光源の任意の適切なパラメータが、任意の適切な計測の値に依存していてよい。例えば、ライトの輝度、色、方向または位置は、計測値(例えば、トレーサ摂取に対する値、弾性、粘性、圧力または流速、またはパフュージョン)に依存してよい。仮想光源によって生み出される光線または光円錐の、方向および/またはサイズは、計測値に依存するかもしれない。実施形態の中には、仮想光源はパルス状の光を生み出し、パルス状の光のパルス継続時間および/またはパルス周波数は、計測値に基づいているものがある。
実施形態には、CTデータ(または画像がレンダリングされる元のその他3次元データ)は、レンダリングの前にセグメントされる。異なる解剖学的特徴は、CTデータにおいて異なるセグメントされた領域によって、表すことが出来る。仮想光源のパラメータ(例えば、色または輝度)は、針先が特定のセグメントされた領域の内側にあるかどうかによって、調節される。
一実施形態において、異なる解剖学的構造を描出したセグメントされた領域は、異なる色と関連付けられる。ユーザは、仮想光源の色における変化を観察することで、針先が特定のセグメントされた領域へと入ってきたことが見ることが出来る。
その他の実施形態において、生検針200は、肝腫瘍付近の組織へと挿入される。レンダリング画像において、生検針200の先端は、点ライトのように見える。針200が腫瘍に入ったら、ライトの輝度が上がる。ライトの輝度を観察することで、ユーザは、針200が腫瘍に入ったということを目撃することが出来る。
図4および図5の実施形態において、仮想光源の性質は、針先位置での計測に左右される。その他の実施形態において、仮想光源の性質は、針先が例えばセグメントされた領域など、特定の領域にあるかどうかによる。またその他の実施形態において、仮想光源の性質は、所望の位置に関連する針先の位置に左右される。
所望の位置は、所望の収集点でもよい。所望の収集点とは、生検針200を使用する、サンプルを収集するように意図された点であってよい。所望の位置は、以前の収集点に関連して、決められてもよい。例えば、所望の位置とは、以前の収集点または複数点から所定の距離での位置でよい。所望の位置は、計測の位置に関連して決めることが出来る。また所望の位置は、基準点に関連して決められることがある。さらに所望の位置は、画像において、または更なる画像において、点または特徴に関連して決められることもある。
図6は、関心領域204における所望の収集点214の四点が特定されてきたことを示す。実施形態には、所望の収集点214は、レンダリング3次元画像を使用して、特定されるものがある。その他の実施形態において、所望の収集点214は、任意の最適な方法によって特定されてよい。
図6は、所望の収集点214のうちの一点(針先に最も近い点)から、生検針200の先端までの距離216を示している。図6の実施形態において、針先での仮想光源からのライトの輝度は、針先から最も近い所望の収集点214への距離216に依存している。針先が、最も近い所望の収集点214に近づいていくほど(つまり、距離216が縮まるほど)、仮想光源はより明るくなる。その他の実施形態で、仮想光源の任意の適切な特性が、距離216に応じて変化してよい。例えば、仮想光源からの光の色、方向、パルス継続時間、またはパルス繰り返し数は、針先が最も近い所望の収集点214へ近づくにつれ、変化してよい。実施形態の中には、異なる所望の収集点214が、ライトの異なる色と関連付けられるものがある。
図6の実施形態において、ライトの輝度は、針先から所望の収集点214までの距離に依存する。その他の実施形態において、ライトの性質は、以前に生検が行われてきた位置(以前の収集点)に、針先が近いかどうかに依存する。ライトの適切な特性は、以前の収集点214への距離に依存するおよび/または予め用意された収集点214への距離に基づいていてもよい。
実施形態には、ライトの特性は解剖学的距離からの距離に基づくものがある。例えば、ライトの特性は、腫瘍を表す領域としてなど、セグメントされた領域からの距離に基づいてよい。ライトの特性は、解剖学的目印からの距離に基づいてもよい。
実施形態には、ライトの特性は、例えば更なる針からの距離など、更なるデバイスからの距離に基づくものがある。一実施形態では、凍結切除のために複数の針が患者に挿入される。個別の仮想光源は、複数の針のそれぞれと関連付けられている。それぞれ仮想光源の色および/または輝度は、針と近接する針との間の間隔に基づいている。
実施形態には、ライトの特性は、更なる画像と関連付けられた位置からの距離に基づくものがある。例えば、実施形態の中には、基準位置が更なる画像から決定されるものがある。ライトの特性は、針先と基準位置との間の距離に基づく。更なる画像とは、ステージ112で生成された超音波画像でもよいし、または異なる画像でもよい。実施形態には、基準面は更なる画像から決定され、ライトの特性は針先と基準面との間の距離に基づいているものがある。
図7は、針先の仮想光源の色および/または輝度は、超音波スキャナ14によって収集された超音波画像に対応している、ライブ2次元超音波面から針先のオフセットに依存する、更なる実施形態を描いている。図7において、生検針200の先端は、距離220でのライブ2次元超音波面218からオフセットである。従って、現在の超音波ビューは(図2のステージ112で生成された超音波画像上に示されるように)、針200と一直線になっていない(is out of alignment with)。図7の実施形態において、針200がライブ2次元超音波面と一直線になったら、仮想光源の輝度は、より明るくなる。その他の実施形態では、仮想光源の任意の適切なパラメータは、ライブ超音波面からの距離に基づく(その距離は、不均衡計測と表現されるかもしれない)。
図1から図7までを参考に今まで述べられた実施形態において、位置データは針200の位置を描出したものであり、仮想光源は針200の先端に位置する。その他の実施形態において、仮想光源は針200の任意の部分に対して位置してよい。実施形態には、分布した仮想光源または複数の光源は、針200の長さに沿って位置している。従って、ユーザは単に先端だけよりも、光を生み出している針全体200を見る。実施形態には、針200に沿ったその他の点よりも、針200の先端の方が、ずっと多い量の仮想ライトの光を生み出すものがある。
図1から図7の実施形態において、針の先端に位置した仮想光源は、点光源である。その他の実施形態では、仮想光源は指向性を有する光源である。その他実施形態において、針先の仮想光源は、最も近い所望の収集点に向かって、光線または光の円錐を発する。光線または光の円錐は、針が動こうとする方向のインジケータとしての役割を果たす。その他の実施形態において、光線または光の円錐は、針200の軸と一直線に並んでよい。光線または光の円錐は、針200の移動の方向と一直線に並んでもよい。
図1から図7の実施形態において、位置検出器21によって取得された位置データは、生検針200の位置を描出したデータであり、仮想光源は生検針200と関連付けられている。その他の実施形態において、位置データは、人体または動物体中へ挿入された任意の医用デバイスの位置を描出する可能性がある。仮想光源は、医用デバイスの任意の適切な部分に関連付けられているかもしれない。仮想光源は、医用デバイスの先端に位置するかもしれない。仮想光源は、医用デバイスの長さの少なくとも一部に沿って分布していても良い。
画像生成部28は、医用デバイスの任意の部分の位置に従って、仮想光源の任意のパラメータを変えるように構成されていて良い。
仮想光源は、医用デバイス処理を実行するように構成された、医用デバイスの一部に関連付けられている可能性がある。医用デバイス処理は、例えば生検サンプルの取得や切除の実行を具備する可能性がある。医用デバイス処理は、画像の取得を具備するかもしれない。医用デバイスの一部とは、医用デバイス処理を実行するように構成されており、例えばカメラ、ポイント、ブレードまたはアンテナなどを具備してよい。医用デバイスは、一つ以上の医用デバイス処理(例えば、一つ以上の生検)を具備する、挿入手術(例えば、生検針挿入手術)の実行のために、挿入されるかもしれない。それぞれ医用デバイス処理は、個別の位置で実行されてよい。
その医用デバイスとは、例えば針、ステント、身体部分の置換、人口装具、計測デバイス、外科装置、バルブ、心臓弁、撮像デバイス、内視鏡デバイス、カテーテル、インプラント、または電子デバイス、などの可能性がある。電子デバイスとは、例えば内視鏡や超音波プローブがあるかもしれない。挿入手術とは、例えば生検針挿入手術、内視鏡検査、カテーテル法、インプラント挿入手術を具備する可能性がある。仮想光源は、点光源または分布した光源であってよい。
実施形態には、医用デバイスが内視鏡というものがある。仮想光源は、例えば内視鏡の先端など、内視鏡の点と関連付けられている可能性がある。仮想光源は、内視鏡の観察点に位置するかもしれない。仮想光源の特性が内視鏡の観察点の位置に依存する画像は、レンダリングされるかもしれない。
実施形態には、医用デバイスがカテーテルであり、仮想光源がカテーテルの先端と関連付けられているものがある。実施形態の中には、医用デバイスはインプラントであり、仮想光源はインプラント上の点、例えばコーナーや中心点、基準点、付着点などの点に関連付けられているものもある。
一実施形態において、医用デバイスは経食道心エコー図(TOEまたはTEE)を実行するように構成された超音波プローブである。仮想光源は、超音波プローブと関連付けられている。
実施形態では、仮想光源の任意のパラメータは、手術の進捗に依存して変化してよい。例えば、仮想光源の任意のパラメータは、挿入手術の進捗によって変化してよい。仮想光源のパラメータは、挿入手術の継続時間によって変化してもよい。例えば、仮想光源の色/輝度は、時間と共に変化する可能性がある。仮想光源のパラメータは、例えば、実行されてきた医用デバイス処理の数など、達成されてきたことよりも、挿入手術のステージに依存して、変化するかもしれない。例えば、仮想光源の色は、収集されてきた所望のサンプルの割合によって、変化する可能性がある。仮想光源のパラメータは、挿入手術の完成度のレベルに応じて、変化してよい。
上記で述べた実施形態において、仮想光源の一つ以上のパラメータが変化される。その他の実施形態において、画像生成部28は、仮想光源に関する少なくとも一つのパラメータを変えるように構成されており、仮想光源自体のパラメータであってもよいし、そうでなくてもよい。例えば画像生成部28は、例えば解剖学的特徴を描出した画像の一部など画像の任意の部分の、または画像の全体の、色またはその他特性を変化させる可能性がある。画像生成部28は、画像生成処理の任意のパラメータを変化させるように構成されていてよい。
実施形態には、医用デバイス上に位置しない、仮想光源が使用され得るものがある。例えば、仮想光源は、所望の収集点など、所望の位置にあるかもしれない。所望の位置での仮想光源のパラメータは、所望の位置から医用デバイスの距離に依存して、変化する可能性がある。例えば、所望の位置での仮想光源は、医用デバイスが所望の位置に近づくにつれ、色および/または輝度において変わる可能性がある。実施形態の中には、医用デバイス上に位置しない仮想光源のパラメータは、挿入手術の進捗に依存して、変化されてもよいものがある。例えば、医用デバイス処理が順調に実行されてきたら、画像の色は変化してもよい。
実施形態の中には、医用デバイス上に位置した仮想光源を使用することで、医用デバイス上に位置しない仮想光源の画像よりも、画像の解釈が更に容易になることを提供し得るものがある。例えば、針のように小さな物体が、点光源に関しどのように移動するのかを観察するのが比較的難しい一方で、点光源がその周辺に関しどのように移動するか、が容易に見て取れるかもしれない。
実施形態には、レンダリング3次元画像は、仮想内視鏡画像であり、仮想光源は、仮想内視鏡画像の観察点で、または観察点に対して、位置するものがある。また実施形態の中には、仮想内視鏡画像がレンダリング3次元画像に追加でレンダリングされるものもある。
内視鏡画像は、内視鏡検査の間に内視鏡の上に位置したカメラによって導出されるかもしれない画像をシミュレートするように、例えば内視鏡のビューの点から生成された仮想ビューを具備するかもしれない。代わりに、または追加で、画像は内視鏡自体の描出を具備するかもしれない。
実施形態には、仮想内視鏡画像の観察点の位置(例えば、ビューワが画像を観察しているように見える所からの位置)は、内視鏡の先端位置と対応し得るものがある。実施形態の中には、画像生成部28は、仮想光源(例えば、少なくとも一つの色または輝度)に関する少なくとも一つのパラメータを、仮想内視鏡画像の観察点の位置に依存して変化させるように構成されている。例えば、仮想光源の色または輝度は、観察点が関心のある点または領域に近づくにつれて、変化するかもしれない。
実施形態には、医用画像処理装置12は、3次元医用画像データの処理において、ユーザ入力を受信して、ユーザ入力を使用するように構成されているものがある。実施形態の中には、画像生成部28は、ユーザ入力を受信して、ユーザ入力に基づいて医用デバイスに関する仮想光源を配置するように構成されたものがある。例えば、ユーザが画像生成部28に仮想光源を、医用装置の先端上に、または医用デバイスの任意の適切な位置に、配置するように指示してもよい。ユーザは、仮想光源のパラメータを選択してよい。ユーザは、医用デバイスの位置に依存して、仮想光源のパラメータが変わるように選択してもよい。例えば、医用デバイスが所望の位置に近づくにつれて、仮想光源の色および/または輝度が変化するのを、ユーザが望むかどうか選択するかもしれない。
ユーザは、画像に表示されるのが、関心領域および/または解剖学的特徴かを選択してよい。ユーザは、医用デバイスの描出を選択し得る。例えば、ユーザは、一つ以上のオーバーレイ、多角形幾何、そして仮想光源を使用して、医用デバイスを表すかどうかを選択する可能性がある。ユーザは、任意の可能性のある描出をする、しないの切り替えをしてよい。
特定の実施形態は、医用撮像デバイス、追跡された生検針と表示装置とを具備する医用撮像装置を提供し得る。即ちその中で、光源は、点ライトとして先行スキャンにおける針先位置を視覚化するために使用される。
ライトの色および/または輝度は、超音波エラストグラフィを使用する針周辺の弾性の計測に基づいて、調節される可能性がある。ライトの色および/または輝度は、例えばPETなど核医学源からの値を基に、調節される可能性がある。ライドの色および/または輝度は、既に集められてきた生検サンプルからの針の点への距離に基づいて、調節されてもよい。またライトの色および/または輝度は、針の予め計画された生検点への距離に基づいて調節されてもよい。さらにライトの色/および輝度は、針のライブ超音波面上の高さに基づいて調節されてもよいだろう。
光線または光の円錐は、どの方向に針が移動するかのインジケータとして、最も近い点に向かうキャストであってもよい。
針について多くの実施形態が述べられてきたが、任意の医用デバイスが使用されてよい。医用デバイスは、任意の人体または動物体の、任意の部分へと挿入されてよい。仮想光源は、任意の医用デバイスの、任意の適切な位置に、または位置に対して、位置してよい。仮想光源は、医用デバイスが人体または動物検体の被検体へと挿入されたら、その人体または動物検体の被検体の少なくとも一部分の3次元画像における医用デバイスの位置を示すことが出来る。医用デバイスは、任意の適切な医用手術または獣医手術において、使用されてよい。
上記実施形態においては、穿刺針を用いた生検を例として説明した。しかしながら、当該例に拘泥されず、本実施形態は、穿刺針を用いた焼灼治療においても適用可能である。例えば、焼灼治療の事前のシミュレーション時において、ステップ108において焼灼予定範囲(ターゲット)内に仮想光源を設定し、ステップ110において、当該仮想光源によって焼灼予定範囲が照らし出されるように、焼灼予定範囲に存在するボクセルの輝度値を仮想光源からの距離に基づいて決定することで実現できる。また、例えば焼灼治療時のモニタリングにおいては、ステップ108において被検体内の電極の位置を仮想光源として設定し、ステップ110において、当該電極の位置から焼灼可能範囲が照らし出されるように、焼灼可能範囲に存在するボクセルの輝度値を仮想光源からの距離に基づいて決定することで実現できる。
本明細書では特定の回路が説明されたが、代替的な実施形態においては、これらの回路の一つ以上の機能性が単一の処理リソースまたはその他構成要素によって提供されることも可能であり、あるいは単一の回路によって提供される機能性が二つ以上の処理リソースまたはその他の構成要素の組み合わせで提供されることも可能である。単一回路への言及は、多数の構成要素が互いに離れているか否かにかかわらず、単一の回路の機能性を提供する多数の構成要素を包含し、複数回路への言及は、複数の回路の機能性を提供する単一の構成要素を包含する。
特定の実施形態が説明されたが、これらの実施形態は単に一例として提示されているだけであり、本発明の範囲を限定することを意図としていない。実際、本明細書に説明された新規の方法およびシステムは、他の様々な形態で実施されてもよい。さらに、本明細書に記載される方法およびシステムの形態において、様々な省略、置換、および変さらが本発明の趣旨から逸脱することなく行われてもよい。添付の特許請求の範囲およびその均等物は、本発明の範囲内に入るそのような形態および修正形態を含むように意図されている。
1…超音波診断装置、10…装置本体、11a…超音波送信部、11b…超音波受信部、12…医用画像処理装置、13a…Bモード処理部、13b…ドプラ処理部、14…超音波スキャナ、16…表示処理部、18…入力装置、19…画像データベース、20…内部記憶部、21…位置検出器、22…データ処理部、24…位置決定部、26…レジストレーション処理部、28…画像生成部、29…画像処理部、30…制御部、31…画像データベース、32…入力インタフェース回路、34…画像メモリ、35…通信インタフェース回路、40…外部装置、50…表示機器、70…超音波プローブ

Claims (15)

  1. 被検体の3次元領域に対してスキャンを実行するスキャン部と、
    前記スキャンの結果に基づいて、前記3次元領域の医用画像データを生成し、
    前記3次元領域内のターゲットの位置を検出し、
    検出した前記ターゲットの位置を光源の位置として、前記医用画像データに対するレンダリング処理を実行する、処理部と、
    を備え、
    前記ターゲットは、前記3次元領域内に存在する医用器具又は電子機器であり、
    前記処理部は、
    前記被検体の内部に挿入された前記ターゲットの位置及び手術の進捗のうち少なくとも一つに基づいて、前記光源に関連する少なくとも一つのパラメータを変化させ、
    前記ターゲットの先端、前記ターゲットの所定の一部、及び、前記ターゲットの長さの少なくとも一部に沿って分布する部分、のうちのいずれかの位置を前記光源の位置として、前記レンダリング処理を実行し、
    色が組織性状情報または機能情報を表す、前記3次元領域内の関心領域に対するカラーマップを決定し、
    前記光源の色は、前記ターゲットが位置する領域の前記カラーマップの色に対応する、医用画像診断装置。
  2. 前記医用器具は、穿刺針、カテーテル、ステント、およびインプラントのうち少なくとも一つを含む、請求項1に記載の医用画像診断装置。
  3. 前記電子機器は、体内式の超音波プローブ、内視鏡、のうち少なくとも一つを含む、請求項1に記載の医用画像診断装置。
  4. 前記処理部は、ユーザインタフェースを介してユーザから指定された前記医用器具または電子機器の位置を、前記ターゲットの位置として検出する、請求項1乃至3のうちいずれか一項に記載の医用画像診断装置。
  5. 前記処理部は、前記3次元領域内に存在する穿刺針のシャフト位置を、前記ターゲットの位置として検出する、請求項1乃至4のうちいずれか一項に記載の医用画像診断装置。
  6. 前記処理部は、前記3次元領域内に存在する穿刺針の先端位置を、前記ターゲットの位置として検出する、請求項1乃至4のうちいずれか一項に記載の医用画像診断装置。
  7. 前記処理部は、穿刺の対象であるサンプル位置と、検出した前記穿刺針の先端位置の間の距離に基づいて、前記光源の強度を決定する、請求項6に記載の医用画像診断装置。
  8. 前記処理部は、所定の穿刺計画において定められた位置と、検出した前記穿刺針の先端位置の間の距離に基づいて、前記光源の強度を決定する、請求項6に記載の医用画像診断装置。
  9. 前記ターゲットは、前記被検体内を進行し、
    前記処理部は、前記ターゲットの進行方向に光が投じられるように、前記光源を設定する、請求項1乃至8のうちいずれか一項に記載の医用画像診断装置。
  10. 前記スキャン部は、超音波走査を実行する超音波プローブを含み、
    前記処理部は、前記超音波プローブによる超音波走査が実行されているライブ走査断面の位置と前記ターゲットの位置の間の距離に基づいて、前記光源の強度を決定する、請求項1に記載の医用画像診断装置。
  11. 前記処理部は、前記ターゲットの位置を含む領域、または前記ターゲットが存在する位置の周辺について算出された組織性状情報に基づいて、前記光源の強度を決定する、請求項1に記載の医用画像診断装置。
  12. 前記機能情報は、他の医用画像診断装置により算出される、請求項1に記載の医用画像診断装置。
  13. 前記スキャン部は、超音波走査を実行する超音波プローブを含み、
    前記処理部は、超音波プローブに設けられた位置センサの出力、穿刺針に設けられた位置センサの出力、および前記医用画像データのうちの少なくとも1つに基づいて、前記ターゲットの位置を検出する、請求項1乃至9のうちいずれか一項に記載の医用画像診断装置。
  14. 前記処理部は、前記ターゲットの位置の光源を第1光源の位置として、前記ターゲットの位置と異なる位置を第2光源の位置として前記医用画像データに対するレンダリング処理を実行する、請求項1乃至13のうちいずれか一項に記載の医用画像診断装置。
  15. 医用画像診断装置で生成された被検体の3次元領域の医用画像データを取得し、
    前記3次元領域内のターゲットの位置を検出し、
    検出した前記ターゲットの位置を光源の位置として、前記医用画像データに対するレンダリング処理を実行する、処理部を備え、
    前記ターゲットは、前記3次元領域内に存在する医用器具又は電子機器であり、
    前記処理部は、
    前記被検体の内部に挿入された前記ターゲットの位置及び手術の進捗のうち少なくとも一つに基づいて、前記光源に関連する少なくとも一つのパラメータを変化させ、
    前記ターゲットの先端、前記ターゲットの所定の一部、及び、前記ターゲットの長さの少なくとも一部に沿って分布する部分、のうちのいずれかの位置を前記光源の位置として、前記レンダリング処理を実行し、
    色が組織性状情報または機能情報を表す、前記3次元領域内の関心領域に対するカラーマップを決定し、
    前記光源の色は、前記ターゲットが位置する領域の前記カラーマップの色に対応する、医用画像処理装置。
JP2017119588A 2016-06-20 2017-06-19 医用画像診断装置及び医用画像処理装置 Active JP7171168B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/186,733 2016-06-20
US15/186,733 US10342633B2 (en) 2016-06-20 2016-06-20 Medical image data processing system and method

Publications (2)

Publication Number Publication Date
JP2017225819A JP2017225819A (ja) 2017-12-28
JP7171168B2 true JP7171168B2 (ja) 2022-11-15

Family

ID=60661386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017119588A Active JP7171168B2 (ja) 2016-06-20 2017-06-19 医用画像診断装置及び医用画像処理装置

Country Status (3)

Country Link
US (1) US10342633B2 (ja)
JP (1) JP7171168B2 (ja)
CN (1) CN107527379B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3602502B1 (en) * 2017-03-29 2023-11-08 Koninklijke Philips N.V. Embedded virtual light source in 3d volume linked to mpr view crosshairs
US11204677B2 (en) * 2018-10-22 2021-12-21 Acclarent, Inc. Method for real time update of fly-through camera placement
CN112906741A (zh) * 2019-05-21 2021-06-04 北京嘀嘀无限科技发展有限公司 图像处理方法、装置、电子设备及存储介质
US11954785B2 (en) 2021-12-07 2024-04-09 Canon Medical Systems Corporation Data processing method and apparatus
TWI821149B (zh) * 2023-05-18 2023-11-01 國立中正大學 內視鏡冗餘影像除去方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001276066A (ja) 2000-03-29 2001-10-09 Toshiba Corp 三次元画像処理装置
JP2002315754A (ja) 2001-04-24 2002-10-29 Toshiba Corp 細径プローブ型超音波診断装置
WO2009107770A1 (ja) 2008-02-29 2009-09-03 株式会社 日立メディコ 医用画像表示装置、医用画像撮影装置、及び、医用画像表示方法
US20120046521A1 (en) 2010-08-20 2012-02-23 Mark Hunter Systems, instruments, and methods for four dimensional soft tissue navigation
WO2012039192A1 (ja) 2010-09-21 2012-03-29 株式会社 日立メディコ 超音波診断装置および超音波画像の表示方法
JP2013022156A (ja) 2011-07-19 2013-02-04 Toshiba Corp 画像処理システム、装置、方法及び医用画像診断装置
JP2014150957A (ja) 2013-02-07 2014-08-25 Toshiba Corp 超音波診断装置、画像処理装置及び画像処理プログラム
JP2014158746A (ja) 2013-02-20 2014-09-04 Toshiba Corp 医用画像処理装置及び医用画像処理方法
JP2015134132A (ja) 2014-01-20 2015-07-27 日立アロカメディカル株式会社 超音波診断装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7660385B2 (en) * 2007-09-28 2010-02-09 Searete Llc Time of flight aspects for X-Ray fluorescence visualizer, imager, or information provider
US8641621B2 (en) * 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
JP5707148B2 (ja) * 2010-01-27 2015-04-22 株式会社東芝 医用画像診断装置及び医用画像処理装置
US9827605B2 (en) * 2011-02-23 2017-11-28 National Institute For Materials Science Ti—Mo alloy and method for producing the same
WO2014034905A1 (ja) 2012-08-30 2014-03-06 株式会社東芝 超音波診断装置、画像処理装置及び画像処理方法
US9055975B2 (en) * 2012-09-29 2015-06-16 DePuy Synthes Products, Inc. Surgical instrument and method of positioning an acetabular prosthetic component
US10008026B2 (en) * 2013-07-19 2018-06-26 Toshiba Medical Systems Corporation Apparatus for, and method of, rendering image data

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001276066A (ja) 2000-03-29 2001-10-09 Toshiba Corp 三次元画像処理装置
JP2002315754A (ja) 2001-04-24 2002-10-29 Toshiba Corp 細径プローブ型超音波診断装置
WO2009107770A1 (ja) 2008-02-29 2009-09-03 株式会社 日立メディコ 医用画像表示装置、医用画像撮影装置、及び、医用画像表示方法
US20120046521A1 (en) 2010-08-20 2012-02-23 Mark Hunter Systems, instruments, and methods for four dimensional soft tissue navigation
WO2012039192A1 (ja) 2010-09-21 2012-03-29 株式会社 日立メディコ 超音波診断装置および超音波画像の表示方法
JP2013022156A (ja) 2011-07-19 2013-02-04 Toshiba Corp 画像処理システム、装置、方法及び医用画像診断装置
JP2014150957A (ja) 2013-02-07 2014-08-25 Toshiba Corp 超音波診断装置、画像処理装置及び画像処理プログラム
JP2014158746A (ja) 2013-02-20 2014-09-04 Toshiba Corp 医用画像処理装置及び医用画像処理方法
JP2015134132A (ja) 2014-01-20 2015-07-27 日立アロカメディカル株式会社 超音波診断装置

Also Published As

Publication number Publication date
CN107527379B (zh) 2021-05-25
US10342633B2 (en) 2019-07-09
CN107527379A (zh) 2017-12-29
US20170365051A1 (en) 2017-12-21
JP2017225819A (ja) 2017-12-28

Similar Documents

Publication Publication Date Title
JP7171168B2 (ja) 医用画像診断装置及び医用画像処理装置
JP6085366B2 (ja) 画像誘導手順用の超音波撮像システム及びその作動方法
US9561016B2 (en) Systems and methods to identify interventional instruments
CN105451663B (zh) 对目标视图的超声采集反馈引导
US20100121189A1 (en) Systems and methods for image presentation for medical examination and interventional procedures
JP6615603B2 (ja) 医用画像診断装置および医用画像診断プログラム
US10524768B2 (en) Medical image diagnostic apparatus and medical image processing apparatus
US20170095226A1 (en) Ultrasonic diagnostic apparatus and medical image diagnostic apparatus
US10299753B2 (en) Flashlight view of an anatomical structure
US20160113632A1 (en) Method and system for 3d acquisition of ultrasound images
US20080234570A1 (en) System For Guiding a Medical Instrument in a Patient Body
US20160030008A1 (en) System and method for registering ultrasound information to an x-ray image
US20180344290A1 (en) Systems and methods for displaying intersections on ultrasound images
JP2011011001A (ja) 超音波診断装置およびその処理プログラム
JP2018057428A (ja) 超音波診断装置および超音波診断支援プログラム
JP6125380B2 (ja) 超音波診断装置、医用画像処理装置及び画像処理プログラム
KR20170086311A (ko) 의료 영상 장치 및 그 동작방법
JP5942217B2 (ja) 超音波診断装置、超音波画像処理装置及び超音波画像処理プログラム
US20120095341A1 (en) Ultrasonic image processing apparatus and ultrasonic image processing method
US11850101B2 (en) Medical image diagnostic apparatus, medical image processing apparatus, and medical image processing method
JP2021186257A (ja) 医用画像診断装置及び医用画像処理装置
CN116263948A (zh) 用于图像融合的系统和方法
JP2020174697A (ja) 超音波診断装置、医用画像処理装置、医用画像診断装置、及び表示制御プログラム
He et al. A Merging Model Reconstruction Method for Image-Guided Gastroscopic Biopsy

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221102

R150 Certificate of patent or registration of utility model

Ref document number: 7171168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150