JP2021157108A - トレーニングシステム、画像処理装置、画像処理方法および画像処理プログラム - Google Patents

トレーニングシステム、画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP2021157108A
JP2021157108A JP2020058946A JP2020058946A JP2021157108A JP 2021157108 A JP2021157108 A JP 2021157108A JP 2020058946 A JP2020058946 A JP 2020058946A JP 2020058946 A JP2020058946 A JP 2020058946A JP 2021157108 A JP2021157108 A JP 2021157108A
Authority
JP
Japan
Prior art keywords
image
target object
model
images
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020058946A
Other languages
English (en)
Inventor
耕太郎 楠
Kotaro Kusunoki
耕太郎 楠
貴之 松田
Takayuki Matsuda
貴之 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Terumo Corp
Original Assignee
Terumo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Terumo Corp filed Critical Terumo Corp
Priority to JP2020058946A priority Critical patent/JP2021157108A/ja
Publication of JP2021157108A publication Critical patent/JP2021157108A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)

Abstract

【課題】モデルおよびモデルに挿入される医療用具に関する3次元の情報を用いて画像ガイド下手技模擬画像を生成できるトレーニングシステムを提供する。【解決手段】トレーニングシステム100は、生体の一部を模擬した光透過性のモデル210と、モデル210を撮像する撮像部300と、撮像部300で撮像された画像を処理する画像処理部400と、を備えている。撮像部300は、少なくとも2つの異なる方向からの画像を取得する画像取得デバイス310、320を備え、画像処理部400は、画像からガイドワイヤ251を抽出するとともに、少なくとも2つの異なる方向からの画像に基づいて画像に含まれるガイドワイヤ251が抽出された画像ガイド下手技模擬画像を生成し、生成された画像ガイド下手技模擬画像を出力する。【選択図】図1

Description

本発明は、トレーニングシステム、画像処理装置、画像処理方法および画像処理プログラムに関し、たとえば、カテーテル手技のトレーニングに用いられる。
臨床現場においては、生体の心臓等の臓器に腕や足の血管からカテーテルなどの長尺状の医療用具を挿入して病変部の検査や治療をする血管内治療が行われている。血管内治療において、医師は、血管への造影剤の注入とX線の照射によりX線透視画像上に描出された血管や医療用具を確認しながら手技を行う。
血管内治療を行うにあたり、医師は、血管内治療の様々な手技を予め習得しておく必要がある。そこで、医師は、生体を立体的に模擬したシリコーン製のモデルを用いて手技のトレーニングを行うことがある(たとえば、特許文献1)。このようなトレーニングは、医師のX線被曝を避けるために、直視下で行うことが望まれる。
直視下でのトレーニングでは、医師は、モデルの血管や病変の形状、およびモデルに挿入された医療用具の形状を、3次元の情報として得る。一方、臨床現場では、医師は、血管や病変の形状、および血管に挿入された医療用具の形状を、X線透視画像による2次元の情報として得る。そのため、医師にとって、直視下でのトレーニングにおける血管や病変の形状の見え方は、臨床現場におけるX線透視画像上での見え方と大きく異なる。
そこで、カメラによってモデルを撮像し、撮像された画像に輝度変換処理等を施すことによって、臨床現場で得られる画像と類似した画像である画像ガイド下手技模擬画像を生成する装置が提案されている(たとえば、特許文献2参照)。画像ガイド下手技模擬画像とは、カテーテル挿入、針の穿刺、生検等の様子をX線、超音波、CT、MRI等の医療用撮像装置で撮像した画像を模擬した画像を指す。
特開2003−330358号公報 特開2012−073490号公報
しかしながら、上記特許文献2に記載の装置では、1台のカメラを用いて1つの方向のみから画像を取得しているため、得られる情報は2次元である。したがって、3次元の情報が必要な画像ガイド下手技模擬画像を生成することができない。たとえば、特許文献2に記載の装置では、X線透視画像による2次元の情報をもとに3次元での医療用具の先端部の形状や向き、医療用具とモデルとの位置関係を推定できるようにするトレーニングを提供することは、難しい。また、特許文献2に記載の装置では、血管が分岐し複数存在するモデルを使用する場合、抽出対象であるカテーテル等の医療用具を明確に抽出できない虞がある。たとえば、カメラ画角の同一直線状に複数の血管が重なって存在する状況において、カメラから視て遠位側の血管に抽出の対象物体である医療用具が挿入される場合が考えられる。この場合、対象物体からの反射光は、近位側の血管を通過する際に、減衰や散乱が生じる。したがって、モデルの材質や撮像時の照明条件によっては、対象物体からの反射光を受光できない、あるいは受光できた場合でも輝度値が低下したり輪郭がぼけてしまったりして、対象物体を明確に抽出できないという問題が生じてしまう。
本発明は、上記課題を鑑みてなされたものであり、モデルおよびモデルに挿入される医療用具に関する3次元の情報を用いて画像ガイド下手技模擬画像を生成できるトレーニングシステム、画像処理装置、画像処理方法および画像処理プログラムを提供することを目的とする。
本発明に係るトレーニングシステムは、生体の一部を模擬した光透過性のモデルと、前記モデルを撮像する撮像部と、前記撮像部で撮像された画像を処理する画像処理部と、を備えている。前記撮像部は、少なくとも2つの異なる方向からの画像を取得する画像取得デバイスを備え、前記画像処理部は、画像から対象物体を抽出するとともに、少なくとも2つの異なる方向からの画像に基づいて前記画像に含まれる対象物体が抽出された画像ガイド下手技模擬画像を生成し、生成された画像ガイド下手技模擬画像を出力する。
また、本発明に係る画像処理装置は、生体の一部を模擬した光透過性のモデルを少なくとも2つの異なる方向から撮像した画像を取得する取得部と、前記取得部によって取得された少なくとも2つの異なる方向からの画像に基づいて前記画像に含まれる対象物体が抽出された画像ガイド下手技模擬画像を生成する生成部と、前記生成部によって生成された画像ガイド下手技模擬画像を出力する出力部と、を有する。
また、本発明に係る画像処理方法は、生体の一部を模擬した光透過性のモデルを少なくとも2つの異なる方向から撮像した画像を取得する取得ステップと、前記取得ステップにおいて取得された少なくとも2つの異なる方向からの画像に基づいて前記画像に含まれる対象物体が抽出された画像ガイド下手技模擬画像を生成する生成ステップと、前記生成ステップにおいて生成された画像ガイド下手技模擬画像を出力する出力ステップと、を有する。
また、本発明に係る画像処理プログラムは、生体の一部を模擬した光透過性のモデルを少なくとも2つの異なる方向から撮像した画像を取得する取得ステップと、前記取得ステップにおいて取得された少なくとも2つの異なる方向からの画像に基づいて前記画像に含まれる対象物体が抽出された画像ガイド下手技模擬画像を生成する生成ステップと、前記生成ステップにおいて生成された画像ガイド下手技模擬画像を出力する出力ステップと、をコンピューターに実行させるように構成される。
本発明に係るトレーニングシステムによれば、少なくとも2つの異なる方向から撮像した画像を取得して、画像から対象物体を抽出するとともに、少なくとも2つの異なる方向からの画像に基づいて前記画像に含まれる対象物体が抽出された画像ガイド下手技模擬画像を生成して出力する。これにより、モデルおよびモデルに挿入される医療用具に関する3次元の情報を用いて画像ガイド下手技模擬画像を生成できるので、ユーザーに効果的なトレーニングを行わせることができる。
トレーニングシステムの概略構成を示す図である。 撮像部の概略構成を示す図である。 画像処理装置の概略構成を示す図である。 画像処理装置の機能構成を示す図である。 ガイドワイヤの構成の一例を説明するための正面図である。 ガイドワイヤの構成の一例を説明するための上面図である。 ガイドワイヤの構成の一例を説明するための右側面図である。 第1実施形態のトレーニングシステムによって実行される処理の手順を示すフローチャートである。 ステップS102において取得される画像Xの一例を示す図である。 ステップS102において取得される画像Yの一例を示す図である。 ステップS103において生成される画像X1の一例を示す図である。 ステップS103において生成される画像Y1の一例を示す図である。 ステップS104において生成される画像X2の一例を示す図である。 ステップS104において生成される画像Y2の一例を示す図である。 ステップS105において生成される画像X1’の一例を示す図である。 ステップS105において生成される画像Y1’の一例を示す図である。 ステップS106において生成される画像X2’の一例を示す図である。 ステップS106において生成される画像Y2’の一例を示す図である。 ステップS107において画像X2’から対象物体の先端および変曲部の位置を特定する様子を示す図である。 ステップS107において画像Y2’から対象物体の先端および変曲部の位置を特定する様子を示す図である。 ステップS108においてモデルと対象物体との位置関係を特定する様子を示す図である。 ステップS108においてモデルと対象物体との位置関係を特定する様子を示す図である。 ステップS109において生成される画像Zの一例を示す図である。 第2実施形態のトレーニングシステムによって実行される処理の手順を示すフローチャートである。 第2実施形態のトレーニングシステムによって実行される処理の流れを説明するための概念図である。 第3実施形態のトレーニングシステムによって実行される処理の手順を示すフローチャートである。
以下、添付した図面を参照しながら、本発明の実施形態およびその変形例を説明する。なお、以下の記載は特許請求の範囲に記載される技術的範囲や用語の意義を限定するものではない。また、図面の寸法比率は説明の都合上誇張されており、実際の比率とは異なる場合がある。
本明細書では、長尺状の医療用具について、医療用具が延びている方向(図5A〜図5CにおけるZ方向)を「長軸方向」とする。また、医療用具において、血管あるいはモデルに挿入される側を先端側とし、先端側と反対の端部側を基端側とする。
<第1実施形態>
<トレーニングシステムの構成>
図1は、トレーニングシステムの概略構成を示す図である。図1に示すように、トレーニングシステム100は、モデル部200、撮像部300および画像処理装置400により構成される。
モデル部200は、たとえば、心臓等の臓器と臓器周辺の血管が模擬された臓器モデル210(以下、「モデル210」とも称する)がベース220に固定されて構成される。ベース220の周囲は図示しない壁で覆われる。ベース220および壁は、モデル210、医療用具、模擬造影溶液(造影剤を模した色付きの液体)等とは異なる輝度値を有する色で塗られている。これにより、画像処理時にモデル210、医療用具、模擬造影溶液等と背景との混同が抑止される。
モデル210は、生体の形態の一部を模擬した光透過性を有するモデルである。モデル210は、透明なシリコーン樹脂等を用いて製作される。モデル210は、外表面と内表面とを有する中空構造であり、内腔に血液を模した無色透明の模擬血液が、配管230を介して循環ポンプ240によって循環される。モデル210は、モデル210の内腔にガイドワイヤ251等の医療用具を挿入するためのカテーテルシース260が接続される。
撮像部300は、モデル210を撮像するための構成である。
図2は、撮像部の概略構成を示す図である。図2に示すように、撮像部300は、少なくとも2つの異なる方向からの画像を取得するカメラ等の画像取得デバイスによって構成される。撮像部300に設けられる画像取得デバイスの数は制限されない。以下、説明を簡単にするために、撮像部300は、第1カメラ310および第2カメラ320の2台のカメラで構成されるものとして説明する。
第1カメラ310および第2カメラ320は、カラー画像を撮像可能であり、位置および姿勢を変更可能なビデオカメラである。図2の例では、第1カメラ310および第2カメラ320は、Z軸周りに回動可能なアームに取り付けられている。第1カメラ310および第2カメラ320は、互いに直交する方向からモデル210およびモデル210に挿入されたカテーテル250およびガイドワイヤ251を撮像し、得られた画像データを画像処理装置400に出力する。図2の例では、第1カメラ310は第1の方向であるX方向からモデル210を撮像し、第2カメラ320はX方向と直交する第2の方向であるY方向からモデル210を撮像する。なお、第1カメラ310および第2カメラ320が撮像する方向は直交する形態に限定されず、任意の異なる方向から撮像し得る。
第1カメラ310および第2カメラ320には、各カメラからモデル210に向かう奥行き方向において、モデル210の長さ以上の被写界深度を有するレンズが用いられる。具体的には、第1カメラ310および第2カメラ320は、5cm〜30cm程度、好ましくは5cm〜20cm程度の被写界深度を有するレンズが用いられる。
また、第1カメラ310および第2カメラ320は、抽出する対象物体の輝度値範囲のコントラストが最大となるように、ピントを自動的に調節する機構を有する。たとえば、対象物体が黒色である場合、対象物体の輝度値範囲として予め設定された輝度値0〜20/255付近のコントラストが最大となる位置にピントが調整される。
撮像部300には、第1カメラ310および第2カメラ320の位置および姿勢を検出する検出部が設けられており、第1カメラ310および第2カメラ320の位置および姿勢を示す位置姿勢情報を画像処理装置400に出力し得る。検出部は、たとえば、第1カメラ310および第2カメラ320それぞれの内部に設けられた3次元加速度センサの検出信号に基づいて位置および姿勢を検出してもよく、あるいは第1カメラ310および第2カメラ320それぞれを保持するアームの角度および位置を検出することによって位置および姿勢を検出してもよい。
画像処理装置400は、撮像部300の第1カメラ310および第2カメラ320から供給される画像データに対して後述する画像処理を施し、画像処理を施した画像を出力するための構成である。
図3は、画像処理装置の概略構成を示す図である。図3に示すように、画像処理装置400は、CPU(Central Processing Unit)410、ROM(Read Only Memory)420、RAM(Random Access Memory)430、記憶部440、通信インターフェース450、表示部460および操作部470がバス480を介して接続される。
CPU410は、ROM420や記憶部440に記録されているプログラムにしたがって、上記各構成の制御や各種の演算処理を行う。
ROM420は、各種プログラムや各種データを格納する。
RAM430は、作業領域として一時的にプログラムやデータを記憶する。
記憶部440は、オペレーティングシステムを含む各種プログラムや、画像処理に必要な各種画像データや設定データ、画像処理によって生成された画像データ等を格納する。
通信インターフェース450は、他の装置と通信するためのインターフェースである。通信インターフェース450としては、有線または無線の各種規格による通信インターフェースが用いられる。
表示部460は、画像処理によって生成された画像データに対応する画像等の各種情報を表示するためのディスプレイ等の構成である。
操作部470は、ユーザーから操作や指示を受け付けるためのマウスやキーボード等の構成である。操作部470は、表示部460をタッチパネル式のディスプレイによって構成することによって実現されてもよい。
図4は、画像処理装置の機能構成を示す図である。図4に示すように、画像処理装置400は、CPU410が記憶部440に記憶されたプログラムを読み込んで処理を実行することによって、取得部411、生成部412、および出力部413として機能する。
取得部411は、モデル210を少なくとも2つの異なる方向から撮像した画像を示す画像データを撮像部300から取得する。
生成部412は、取得部411によって取得された画像データに基づいて、画像に含まれる対象物体が抽出されて示された画像ガイド下手技模擬画像を生成する。
出力部413は、生成部412によって生成された画像ガイド下手技模擬画像を、表示部460等を介して出力する。
これにより、モデル210を用いてカテーテル手技のトレーニングを行う者は、モデル210を直視することなく、表示部460に表示された画像を見ながらトレーニングを行うことができる。
<ガイドワイヤの構成>
以下、本実施形態において画像から対象物体として抽出されるガイドワイヤの構成について説明する。
図5Aは、ガイドワイヤの構成の一例を説明するための正面図である。図5Bは、ガイドワイヤの構成の一例を説明するための上面図である。図5Cは、ガイドワイヤの構成の一例を説明するための右側面図である。図5Aおよび図5Bには、ガイドワイヤの先端付近の構成が示されている。
図5Aおよび図5Bに示すように、ガイドワイヤ251は、長尺状の形状を有しており、軸部253および先端チップ部254を有する。軸部253は、ガイドワイヤ251の長軸方向に延びる部分である。先端チップ部254は、先端252から距離Lの位置に設けられる変曲部255において、軸部253を屈曲させることによって構成されている。軸部253と先端チップ部254とがなす角度θは、たとえば45度である。なお、本明細書において、軸部253と先端チップ部254とがなす角度θは、鋭角を指すものとする。軸部253と先端チップ部254とがなす角度θは、これに限定されず、任意の角度とすることができる。ガイドワイヤ251は、モデル210の血管内を進行するために、軸部253回りに回転しながら使用される。したがって、先端チップ部254の向きは、軸部253の回転に伴い変化する。
<3Dワイヤリングについて>
3Dワイヤリングは、慢性完全閉塞病変(CTO)にガイドワイヤを通過させる手技のひとつである。CTOの治療においては、ガイドワイヤは、血管の損傷抑止および治療成績の向上といった観点から、血管本来の内腔(真腔)を通過することが望まれる。医師は、図5Aに示すような、先端をわずかに湾曲させたガイドワイヤを逐次回転させながらガイドワイヤを意図するルートに進める。このとき、回転によって変化する先端チップ部の向きを把握することは、ガイドワイヤの操作を行う上で非常に重要である。3Dワイヤリングでは、医師は、ガイドワイヤの長軸に直交する2方向から取得したX線透視画像をもとに、ガイドワイヤの軸部の位置、ガイドワイヤの先端の向き、および血管の真腔の位置の関係性をイメージすることで、ガイドワイヤの回転方向を判断する。これにより、医師は、必要最小限の回転操作でガイドワイヤを進めることができ、治療成績の向上や手技時間の短縮を図ることができる。一方で、2次元のX線透視画像から、3次元でのガイドワイヤの軸部の位置、ガイドワイヤの先端の向き、および血管の真腔の位置の関係性を直感的に推定することは難しいため、3Dワイヤリングは、手技の習得に十分なトレーニングを要する。
以下、画像処理装置400において実行される処理について詳細に説明する。
<第1実施形態のトレーニングシステムの処理>
第1実施形態のトレーニングシステム100は、対象物体であるガイドワイヤ251の長軸方向とそれぞれ交差する第1の方向および第2の方向から対象物体を視た画像を取得し、取得した画像に基づいて、対象物体を基端から先端に向かって視た画像を画像ガイド下手技模擬画像として生成する。具体的には、トレーニングシステム100は、取得された画像から、対象物体の先端および変曲部の位置を特定し、特定された先端および変曲部の位置を用いて対象物体を長軸方向から視た画像を仮想的に生成する。なお、第1実施形態のトレーニングシステム100では、第1の方向および第2の方向は、ガイドワイヤ251の長軸方向とそれぞれ直交する。以下、第1実施形態のトレーニングシステム100における処理について、図6を参照しつつ詳細に説明する。
図6は、第1実施形態のトレーニングシステムによって実行される処理の手順を示すフローチャートである。図6のフローチャートに示される処理は、画像処理装置400の記憶部440にプログラムとして記憶されており、CPU410が各部を制御することにより実行される。
(ステップS101)
画像処理装置400は、画像処理に必要となる初期情報を取得する。
初期情報には、第1カメラ310および第2カメラ320の図2におけるZ方向に対する回転角度、第1カメラ310および第2カメラ320が取得する画像上での図2におけるZ方向が含まれる。
また、初期情報には、画像処理によって抽出される対象物体であるガイドワイヤ251の図5Aにおける距離Lおよび角度θに関する情報が含まれる。
また、初期情報には、撮像されるモデル210、ガイドワイヤ251、ベース220等の背景の輝度値に関する情報が含まれる。上述のように、モデル210、ガイドワイヤ251、および背景の輝度値はそれぞれ異なる。たとえば、背景は白色、モデル210は灰色、ガイドワイヤ251は黒色、のように、各構成の輝度値は、「背景>モデル210>ガイドワイヤ251」となるように設定される。なお、本実施形態において使用されるモデル210は、CTOに対応するモデルである。CTOは、ガイドワイヤ251を通過させるターゲットとして仮想的に生成して画像上に表示してもよい。この場合は、ターゲットを表示させる位置に関する情報も初期情報として取得され得る。
(ステップS102)
続いて、画像処理装置400は、撮像部300から、第1カメラ310によって撮像された画像である画像Xおよび第2カメラ320によって撮像された画像である画像Yを示す画像データを取得する。
図7Aは、ステップS102において取得される画像Xの一例を示す図である。図7Bは、ステップS102において取得される画像Yの一例を示す図である。
図7Aに示すように、画像Xは、モデル210およびモデル210に挿入されたガイドワイヤ251を第1の方向であるX方向から撮像した画像である。また、図7Bに示すように、画像Yは、モデル210およびモデル210に挿入されたガイドワイヤ251を第2の方向であるY方向から撮像した画像である。第1の方向であるX方向および第2の方向であるY方向は、対象物体であるガイドワイヤ251の長軸方向であるZ方向と交差する方向である。画像Xおよび画像Yにおいて、モデル210、ガイドワイヤ251、および背景は、それぞれ異なる輝度値によって示されている。なお、ガイドワイヤ251を通過させるターゲットをモデル210の内腔に物理的に設ける場合は、図7Aおよび図7Bの画像にもターゲットが示される。
(ステップS103)
続いて、画像処理装置400は、ステップS102の処理において取得した画像Xおよび画像Yから、モデル210のみを抽出した画像である画像X1および画像Y1を生成する。
図8Aは、ステップS103において生成される画像X1の一例を示す図である。図8Bは、ステップS103において生成される画像Y1の一例を示す図である。
図8Aに示すように、画像X1は、モデル210をX方向から視た画像である。また、図8Bに示すように、画像Y1は、モデル210をY方向から視た画像である。上述のように、画像Xおよび画像Yにおいて、モデル210、ガイドワイヤ251、および背景は、それぞれ異なる輝度値によって示されている。したがって、画像処理装置400は、画像Xおよび画像Yから、予め設定されたモデル210の輝度値範囲に含まれる画素のみを抽出して新たな画像を生成することによって、画像X1および画像Y1を生成することができる。
(ステップS104)
続いて、画像処理装置400は、ステップS102の処理において取得した画像Xおよび画像Yから、ガイドワイヤ251のみを抽出した画像である画像X2および画像Y2を生成する。
図9Aは、ステップS104において生成される画像X2の一例を示す図である。図9Bは、ステップS104において生成される画像Y2の一例を示す図である。
図9Aに示すように、画像X2は、ガイドワイヤ251をX方向から視た画像である。また、図9Bに示すように、画像Y2は、ガイドワイヤ251をY方向から視た画像である。画像処理装置400は、ステップS103の処理と同様に、画像Xおよび画像Yから、予め設定されたガイドワイヤ251の輝度値範囲に含まれる画素のみを抽出して新たな画像を生成することによって、画像X2および画像Y2を生成することができる。
ここで、画像処理装置400は、ステップS102の処理において取得された処理対象となる画像と、対象物体であるガイドワイヤ251がない状態でモデル210を撮像して予め取得された参照画像とを比較して対象物体を抽出することによって、画像X2および画像Y2を生成してもよい。たとえば、画像処理装置400は、参照画像を示す画像を示す情報を記憶部440に記憶しておき、取得された画像の各画素の値と参照画像の各画素の値の差分を取得することによって、対象物体のみを抽出する。トレーニング中にモデル210の位置が大きくずれることによって、背景等のノイズが適切に除去できない場合には、一度ガイドワイヤ251をモデル210から取り除いた上で、再度参照画像を取得して、対象物体を抽出してもよい。画像処理装置400は、対象物体を抽出後の画像にノイズ除去のための処理を実行してもよい。
さらに、トレーニング中に、ガイドワイヤ251の操作によってモデル210が変形したり、撮像部300の各カメラが変動したりすることによってノイズが生じる可能性がある。この場合は、モルフォロジー処理(オープニング処理、クロージング処理、トップハット処理)やラベリング処理を行うことによってノイズを除去することができる。各アルゴリズムのパラメータは、撮影環境や対象物体等に合わせて適宜設定される。たとえば、ラベリング処理を実行した場合、ラベリング後に各領域において円形度などの指標を計算する。計算された円形度等の指標に基づいて、各領域の対象物体らしさを示す尤度を推定し、推定された尤度が閾値以下となる場合にはノイズとして除去することができる。
(ステップS105)
続いて、画像処理装置400は、ステップS103の処理において生成した画像X1および画像Y1から、モデル210の端部を抽出した画像である画像X1’および画像Y1’を生成する。
図10Aは、ステップS105において生成される画像X1’の一例を示す図である。図10Bは、ステップS105において生成される画像Y1’の一例を示す図である。
図10Aに示すように、画像X1’は、X方向から視たモデル210の端部を示す画像である。また、図10Bに示すように、画像Y1’は、Y方向から視たモデル210の端部を示す画像である。画像X1’および画像Y1’では、モデル210の内表面をモデル210の端部として示す。すなわち、画像X1’および画像Y1’において、抽出されたモデル210の端部が囲む領域は、モデル210の内腔に相当する領域である。画像処理装置400は、たとえば、画像Xおよび画像Yに対して公知の境界抽出処理(エッジ抽出処理)を実行することによって、画像X1’および画像Y1’を生成することができる。
(ステップS106)
続いて、画像処理装置400は、ステップS104の処理において生成した画像X2および画像Y2から、ガイドワイヤ251を細線化した画像である画像X2’および画像Y2’を生成する。
図11Aは、ステップS106において生成される画像X2’の一例を示す図である。図11Bは、ステップS106において生成される画像Y2’の一例を示す図である。
図11Aおよび図11Bに示すように、画像X2’および画像Y2’には、それぞれX方向およびY方向から視たガイドワイヤ251が細線化されて示されている。画像処理装置400は、たとえば、画像X2および画像Y2に対して、モルフォロジー細線化処理またはハフ変換等を実行することによって、ガイドワイヤ251が細線化されて示された画像である画像X2’および画像Y2’を生成することができる。
(ステップS107)
続いて、画像処理装置400は、ステップS106の処理において生成した画像X2’および画像Y2’から、ガイドワイヤ251の先端252および変曲部255の位置を特定する。先端252および変曲部255の位置が特定されると、先端252と変曲部255との間の部分が先端チップ部254であり、変曲部255からZ方向に延びる部分が軸部253であると推定できる。これにより、ガイドワイヤ251の全体の位置が推定できる。
図12Aは、ステップS107において画像X2’からガイドワイヤ251の先端252および変曲部255の位置を特定する様子を示す図である。図12Bは、ステップS107において画像Y2’からガイドワイヤ251の先端252および変曲部255の位置を特定する様子を示す図である。
画像処理装置400は、たとえば、初期情報として取得されているガイドワイヤ251の先端から画像X2’および画像Y2’のラスタスキャンを実行し、最初に検出される画素を特定することによって、画像X2’および画像Y2’における先端252の位置を特定する。もしくは、画像X2‘および画像Y2’よりモルフォロジー処理により、初期情報を使用せずに先端252の位置を特定してもよい。画像処理装置400は、たとえば、特定した先端252の位置と、初期情報として予め取得したガイドワイヤ251のサイズおよび形状に関する情報に基づいて、画像X2’および画像Y2’における変曲部255の位置を特定する。具体的には、たとえば、ガイドワイヤ251の先端252から長軸方向上に下した垂線の足と変曲部255との距離H(図5Aの例では、L・cosθとして算出される)を予め取得しておく。そして、先端252からガイドワイヤ251の基端に向かって距離Hだけ進んだ位置から長軸方向と直交する方向に進んだ位置において検出される画素を特定することによって、画像X2’および画像Y2’における変曲部255の位置を特定する。
なお、先端252および変曲部255の位置を特定する方法は上記の例に限定されず、いかなる画像処理方法によって特定されてもよい。たとえば、上記のように検出される先端252から初期情報で得られている距離L分の連続する全ての画素(複数個)を先端チップ部254として検出し、ガイドワイヤ251の基端側から画像X2’および画像Y2’のラスタスキャンを実行して軸部253を検出する。そして、先端チップ部254に沿う近似直線と軸部253に沿う近似直線との交点を算出して、算出された交点の位置を変曲部255の位置として検出してもよい。
(ステップS108)
続いて、画像処理装置400は、ステップS107の処理において特定した先端252および変曲部255の位置と、ステップS105の処理において抽出したモデル210の端部から、モデル210とガイドワイヤ251との位置関係を特定する。
図13Aおよび図13Bは、ステップS108においてモデルと対象物体との位置関係を特定する方法を説明する図である。図13Aおよび図13Bは、ステップS105の処理において生成したモデル210の端部を示す画像X1’および画像Y1’に、ステップS107の処理において特定した先端252および変曲部255の位置を重畳した図である。図13Aによれば、先端252および変曲部255のY方向の位置が特定され、図13Bによれば、先端252および変曲部255のX方向の位置が特定される。特定される先端252および変曲部255の位置は、モデル210の端部との相対的な位置でもよく、あるいは所定の座標系における絶対的な位置でもよい。
(ステップS109)
続いて、画像処理装置400は、ステップS108の処理において特定したモデル210とガイドワイヤ251との位置関係に基づいて、モデル210およびガイドワイヤ251をZ方向から視た画像Zを仮想的に生成する。
(ステップS110)
続いて、画像処理装置400は、ステップS109において生成した画像Zを、画像ガイド下手技模擬画像として表示部460に出力する。
図14は、ステップS109において生成される画像Zの一例を示す図である。図14は、ステップS108の処理において特定された先端252および変曲部255のY方向およびX方向それぞれにおける位置を、Z方向から視たXY平面上に示したモデル210の画像(短軸像)上にプロットしたものである。短軸像上での先端252と変曲部255とは、異なる色や形状で表示されることが好ましい。また、短軸像上での先端252と変曲部255とは、変曲部255を基端とし先端252を先端とする矢印として表示されてもよい。これにより、トレーニングを行うユーザーは、ガイドワイヤ251の先端チップ部254が向いている方向を容易に把握できる。なお、本実施形態では、モデル210をZ方向から視た形状は円形状であることが予め設定されているが、これに限定されない。
図14の画像において、ガイドワイヤ251の先端252はモデル210の横断面の左上方に位置し、変曲部255はモデル210の横断面の中心に位置している。したがって、図14の画像は、ガイドワイヤ251の先端チップ部254が左上方を向いていることを示している。図14の画像が表示部460に表示されることによって、トレーニングを行うユーザーは、ガイドワイヤ251の位置や先端チップ部254が向いている方向を容易に把握できる。
以上のように、第1実施形態のトレーニングシステム100は、生体の一部を模擬した光透過性のモデル210と、少なくとも2つの異なる方向からモデル210を撮像して画像を取得する撮像部300と、撮像部300で撮像された画像を処理する画像処理装置400と、を備え、画像処理装置400は、画像から対象物体を抽出するとともに、少なくとも2つの異なる方向からの画像に基づいて、対象物体が抽出された画像ガイド下手技模擬画像を生成して出力する。
第1実施形態のトレーニングシステム100によれば、モデルおよびモデルに挿入される医療用具に関する3次元の情報を用いて画像ガイド下手技模擬画像を生成できるので、ユーザーに効果的なトレーニングを行わせることができる。
また、第1カメラ310は、対象物体の長軸方向(Z方向)と交差する第1の方向(X方向)から対象物体を視た画像を取得し、第2カメラ320は、長軸方向および第1の方向と交差する第2の方向(Y方向)から対象物体を視た画像を取得する。そして、画像処理装置400は、取得された画像に基づいて、対象物体を長軸方向(Z方向)から視た画像を生成する。これにより、第1実施形態のトレーニングシステム100は、X方向およびY方向の2方向から取得した対象物体のX線透視画像をもとに、その時のモデル210とガイドワイヤ251との位置関係、すなわちZ方向から視たガイドワイヤの軸部の位置、ガイドワイヤの先端の向き、およびモデル210の位置の関係性を瞬時に把握するトレーニングを、臨床現場における手技を模擬した環境で行うことができる。そのため、ユーザーに、より短時間で効果的なトレーニングを行わせることができる。
また、画像処理装置400は、取得された画像から、対象物体の先端252および変曲部255の位置を特定し、特定された先端252および変曲部255の位置を用いて対象物体を長軸方向(Z方向)から視た画像を仮想的に生成する。これにより、必要最小限の簡単な処理によって長軸方向から視た画像を効率的に生成することができる。
また、第1カメラ310および第2カメラ320は、各カメラからモデル210に向かう奥行き方向におけるモデル210の長さ以上の被写界深度を有する。これにより、奥行き方向の全ての位置において、焦点のあった映像を取得できるため、対象物体がぼけることを抑止できる。そのため、対象物体を画像処理する段階において、画像上のサイズおよび輝度値が一定となり、対象物体の抽出処理を行った後の画像のサイズが変動することを防止できる。したがって、奥行き方向に距離があるモデル210を使用する場合においても、対象物体の実際のサイズをより安定的かつ精度よく再現することができる。その結果、より実際に近い画像をユーザーに提供することができ、より現実的なトレーニングをユーザーに行わせることができる。
また、第1カメラ310および第2カメラ320は、対象物体の輝度値範囲のコントラストが最大となるようにピントを調節する機構を有する。これにより、対象物体の輝度値付近のコントラストが最大となる位置に自動的にピントが調整され、対象物体がぼけることを抑止できる。そのため、対象物体を画像処理する段階において、画像上のサイズおよび輝度値が一定となり、対象物体の抽出処理を行った後の画像のサイズが変動することを防止できる。したがって、奥行き方向に距離があるモデル210を使用する場合においても、対象物体の実際のサイズをより安定的かつ精度よく再現することができる。
また、画像処理装置400は、取得された処理対象となる画像と、対象物体がない状態でモデル210を撮像して予め取得された参照画像とを比較して対象物体を抽出することによって、対象物体を示す画像から対象物体以外を除去する。これにより、常に映り込んでいる背景等は、参照画像として取得されて処理対象となる画像から除去できる。したがって、画像中に対象物体に近い輝度値を有する他の部分が存在する場合であっても、当該他の部分を除去して、対象物体のみを抽出することが可能となる。
<第2実施形態>
第1実施形態においては、対象物体の長軸方向とそれぞれ直交する第1の方向および第2の方向から対象物体を視た画像に基づいて、対象物体を長軸方向から視た画像を画像ガイド下手技模擬画像として生成する例について説明した。第2実施形態においては、第1の方向および第2の方向から対象物体を視た画像または当該画像から抽出された対象物体を示す画像を合成することによって、対象物体が明確に抽出された画像ガイド下手技模擬画像を生成する例について説明する。
第2実施形態のトレーニングシステム100の構成は、第1実施形態のトレーニングシステム100の構成と同様であるため、詳細な説明を省略する。以下、第2実施形態のトレーニングシステム100における処理について、図15および図16を参照しつつ詳細に説明する。
<第2実施形態のトレーニングシステムの処理>
図15は、第2実施形態のトレーニングシステムによって実行される処理の手順を示すフローチャートである。図16は、第2実施形態のトレーニングシステムによって実行される処理の流れを説明するための概念図である。図15のフローチャートに示される処理は、画像処理装置400の記憶部440にプログラムとして記憶されており、CPU410が各部を制御することにより実行される。
(ステップS201)
画像処理装置400は、画像処理に必要となる初期情報を取得する。ステップS201の処理は、第1実施形態のステップS101の処理と同様であるため、詳細な説明を省略する。
(ステップS202)
続いて、画像処理装置400は、図16の(a)に示すように、撮像部300から、第1カメラ310および第2カメラ320それぞれによって撮像された画像である画像Xおよび画像Yを示す画像データを取得する。
(ステップS203)
続いて、画像処理装置400は、ステップS202の処理において取得された画像Xおよび画像Yを合成するための画像変換行列を推定する。たとえば、画像処理装置400は、SIFT(Lowe, D. (2004): Distinctive image features from scaleinvariant keypoints, Int’l. J. Computer Vision, 60, 2, pp.91−110参照)等の公知の手法を用いて、取得された複数の画像から特徴点と呼ばれる画像の特徴を表す点を抽出する。SIFTを用いる場合、画像処理装置400は、抽出された特徴点の特徴量情報に基づいて特徴点のスケール情報と勾配情報とを算出する。そして、画像処理装置400は、算出した情報を基に各画像において対応する点(対応点)を決定し、決定された対応点を使用して複数の画像の類似度を最大にするような画像変換行列を推定する。
なお、画像変換行列の推定は、画像処理装置400によって自動で行われる形態に限定されず、手動で行われてもよい。たとえば、取得された複数の画像それぞれにおいて対応点が指定され、対応点を使用して複数の画像の類似度を最大にするような変換行列が推定されてもよい。この場合、画像処理装置400は、推定された画像変換行列をユーザーからの入力等によって取得する。
また、画像変換行列の推定のために、モデル210の周辺に対応点を確認するためのマーカーが配置されてもよい。この場合、マーカーは、モデル210の外側に4か所以上配置されていることが望ましい。マーカーの数が多い程、画像変換行列の推定精度が向上する。また、画像処理装置400による画像処理によって対応点の関係を自動で抽出できるように、各マーカーの色は異なることが望ましい。また、マーカーの材質は、容易に変形しないよう剛体であることが望ましい。
(ステップS204)
続いて、画像処理装置400は、ステップS203の処理において推定された画像変換行列を用いて画像Xおよび画像Yを合成した際の、適切な画像補間条件を決定する。
(ステップS205)
続いて、画像処理装置400は、図16の(b)に示すように、ステップS202の処理において取得された画像Xおよび画像Yから、対象物体であるガイドワイヤ251のみを抽出した画像X’および画像Y’を生成する。そして、画像処理装置400は、図16の(c)〜(e)に示すように、生成された画像Y’を、ステップS203およびステップS204の処理において求められた画像変換行列および画像補間条件を用いて形状変換した上で、画像X’と重ね合わせて合成する。
(ステップS206)
続いて、画像処理装置400は、ステップS205の処理において合成された画像を、画像ガイド下手技模擬画像として表示部460に出力する。
なお、本実施形態においては、画像Xおよび画像Yから画像変換行列および画像補間条件を求めた後に、ガイドワイヤ251を抽出して画像X’および画像Y’を生成し、求められた画像変換行列および画像補間条件を用いて画像X’および画像Y’を合成する例について説明した。このような処理の順序とすることによって、ガイドワイヤ251を抽出する前の情報量の多い画像Xおよび画像Yを用いて画像変換行列および画像補間条件を求めることができるため、合成の精度を向上させることができる。また、ガイドワイヤ251のみが抽出された画像X’および画像Y’を合成するため、効率的に画像を合成することができる。しかし、各処理の順序は上記の例に限定されない。たとえば、画像Xおよび画像Yを合成した後で、合成された画像からガイドワイヤ251を抽出してもよい。あるいは、画像Xおよび画像Yからガイドワイヤ251を抽出した画像X’および画像Y’から画像変換行列および画像補間条件を求めて画像を合成してもよい。
以上のように、第2実施形態のトレーニングシステム100は、少なくとも2つの異なる方向からの画像または当該画像から抽出された対象物体を示す画像を合成して合成画像を生成し、生成された合成画像に基づいて画像ガイド下手技模擬画像を生成する。これにより、たとえば、1台のカメラだけを用いる場合では、対象物体がモデル210の陰に隠れてしまう状況においても、異なる方向から視た画像を取得して合成することによって、対象物体が明瞭に抽出された画像ガイド下手技模擬画像を生成することができる。したがって、血管が分岐し複数存在するモデルを使用する場合でも、対象物体が明瞭に抽出された画像を出力できるので、ユーザーに効果的なトレーニングを行わせることができる。
また、画像処理装置400は、少なくとも2つの異なる方向からの画像に基づいて、画像変換行列を推定するとともに画像補間条件を取得し、取得された画像変換行列および画像補間条件を用いて合成画像を生成する。これにより、精度よく効率的に2つの異なる方向からの画像を合成して画像ガイド下手技模擬画像を生成することができる。
<第3実施形態>
第2実施形態においては、第1の方向および第2の方向から対象物体を視た画像または当該画像から抽出された対象物体を示す画像を合成することによって、対象物体が明確に抽出された画像ガイド下手技模擬画像を生成する例について説明した。第3実施形態においては、第1の方向および第2の方向から対象物体を視た画像に基づいて、モデルおよび対象物体の3次元形状を推定して、対象物体が明確に抽出された画像ガイド下手技模擬画像を生成する例について説明する。
第3実施形態のトレーニングシステム100の構成は、第1実施形態のトレーニングシステム100の構成と同様であるため、詳細な説明を省略する。以下、第3実施形態のトレーニングシステム100における処理について、図17を参照しつつ詳細に説明する。
<第3実施形態のトレーニングシステムの処理>
図17は、第3実施形態のトレーニングシステムによって実行される処理の手順を示すフローチャートである。
(ステップS301)
図17に示すように、画像処理装置400は、画像処理に必要となる初期情報を取得する。ステップS301の処理は、第2実施形態のステップS201の処理と同様であるため、詳細な説明を省略する。
(ステップS302)
続いて、画像処理装置400は、撮像部300から、第1カメラ310および第2カメラ320それぞれによって撮像された画像を示す画像データを取得する。ステップS302の処理は、第2実施形態のステップS202の処理と同様であるため、詳細な説明を省略する。
(ステップS303)
続いて、画像処理装置400は、ステップS302の処理において取得した画像に基づいて、モデル210および対象物体であるガイドワイヤ251の3次元形状を推定する。たとえば、3次元形状を推定する対象それぞれの相対的な位置関係が既知である場合、画像処理装置400は、ステレオ法により3次元形状を推定することができる。あるいは、相対的な位置関係が未知である場合には、画像処理装置400は、SfM法により3次元形状を推定することができる。ステレオ法およびSfM法において、対応点をマッチングするための手法としては、画像上の小領域毎に輝度値の相違度を計測する領域ベースの手法や、エッジまたはコーナーなどの特徴点同士の相違度を計測する特徴点ベースの手法が挙げられる。特徴点ベースの手法においては、たとえばSIFTにより特徴点が抽出される。
なお、ステレオ法としては、2台のカメラにより取得される画像から対応関係を取得する上述のパッシブステレオ法の代わりに、2台のカメラのうちの1台を可視光や近赤外光を照射する装置に置き換えたアクティブステレオ法と呼ばれる方法が用いられてもよい。
また、3次元形状の推定のために、モデル210の周辺に対応点を確認するためのマーカーが配置されてもよい。この場合、マーカーはモデル210の外側に4か所以上に配置されていることが望ましい。マーカーの数が多い程、3次元形状の推定精度が向上する。また、画像処理装置400による画像処理によって対応点の関係を自動で抽出できるように、各マーカーの色は異なることが望ましい。また、マーカーの材質は、容易に変形しないよう剛体であることが望ましい。
(ステップS304)
続いて、画像処理装置400は、ステップS303の処理において推定した3次元形状を所定の視点から視た表示画像を生成する。
(ステップS305)
続いて、画像処理装置400は、ステップS304の処理において生成した表示画像において、対象物体であるガイドワイヤ251が、モデル210の一部に隠れている箇所があるか否かを判断する。
(ステップS306)
ガイドワイヤ251が、モデル210の一部に隠れている箇所がない場合(ステップS306:NO)、画像処理装置400は、ステップS310の処理に進む。
ガイドワイヤ251が、モデル210の一部に隠れている箇所がある場合(ステップS306:YES)、画像処理装置400は、ステップS307の処理に進む。
(ステップS307)
続いて、画像処理装置400は、ステップS302の処理において取得した異なる方向からの画像において、ステップS305において判断された表示画像の隠れている箇所に対応する部分の部分画像を抽出する。
(ステップS308)
続いて、画像処理装置400は、ステップS307の処理において抽出された各部分画像のなかで、対象物体が隠れていない部分画像を特定する。
(ステップS309)
続いて、画像処理装置400は、ステップS308の処理において特定された部分画像を、表示画像の対象物体が隠れている箇所に対応させて重畳し、新たな表示画像を生成する。
(ステップS310)
続いて、画像処理装置400は、ステップS304またはステップS309の処理において生成された表示画像を画像ガイド下手技模擬画像として表示部460に出力する。
以上のように、第3実施形態のトレーニングシステム100によれば、画像処理装置400は、少なくとも2つの異なる方向からの画像に基づいて、モデル210および対象物体の3次元形状を推定し、所定の視点から3次元形状を視た表示画像を生成する。そして、画像処理装置400は、表示画像において、対象物体がモデル210の一部に隠れている箇所があるか否かを判断し、隠れている箇所がある場合には、元の少なくとも2つの異なる方向からの画像それぞれにおいて、当該箇所に対応する部分画像を抽出する。そして、画像処理装置400は、抽出された各部分画像のなかで対象物体が隠れていない部分画像を特定し、特定された部分画像を、表示画像において対象物体が隠れている箇所に対応させて重畳して、画像ガイド下手技模擬画像を生成する。これにより、たとえば、1台のカメラだけを用いる場合では、対象物体がモデル210の陰に隠れてしまう状況においても、異なる方向から視た画像を用いて3次元形状を推定することによって、1つの方向からの画像のみでは得られない情報を補完して、対象物体が抽出された画像ガイド下手技模擬画像を生成することができる。したがって、血管が分岐し複数存在するモデルを使用する場合でも、対象物体が明瞭に抽出された画像を出力できるので、ユーザーに効果的なトレーニングを行わせることができる。
なお、本発明は、上述した実施形態のみに限定されるものではなく、特許請求の範囲内において、種々改変することができる。
たとえば、トレーニングシステム100およびトレーニングシステム100に含まれる各構成は、それぞれ上記の構成要素以外の構成要素を含んでいてもよく、あるいは、上記の構成要素のうちの一部が含まれていなくてもよい。
また、画像処理装置400は、複数の装置によって構成されてもよく、あるいは単一の装置によって構成されてもよい。また、画像処理装置400が有するものとして説明した機能の一部は、撮像部300等の他の構成によって実現されてもよい。
また、上記の実施形態においては、第1カメラ310および第2カメラ320は、カラー画像を撮像するものとして説明したが、これに限定されない。たとえば、第1カメラ310および第2カメラ320は、グレースケールの画像を撮像してもよい。
また、上記の実施形態においては、画像上の各画素の輝度値に応じてガイドワイヤ251、モデル210、および背景等が識別されるものとして説明したが、これに限定されない。たとえば、画像上の各画素の色情報に基づいてガイドワイヤ251、モデル210、および背景等が識別されてもよい。
また、上記の実施形態においては、対象物体としてガイドワイヤ251が抽出される例について説明したが、これに限定されない。たとえば、対象物体としてガイドワイヤ251以外の他の医療デバイスが抽出されてもよい。
また、上記の各実施形態におけるフローチャートの処理単位は、各処理の理解を容易にするために、主な処理内容に応じて分割したものである。処理ステップの分類の仕方によって、本願発明が制限されることはない。各処理は、さらに多くの処理ステップに分割することもできる。また、1つの処理ステップが、さらに多くの処理を実行してもよい。
上述した実施形態に係るトレーニングシステム100における各種処理を行う手段および方法は、専用のハードウェア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、たとえば、フレキシブルディスクおよびCD−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、トレーニングシステム100の一機能としてその装置のソフトウエアに組み込まれてもよい。
100 トレーニングシステム、
200 モデル部、
210 モデル(臓器モデル)、
220 ベース、
230 配管、
240 循環ポンプ、
250 カテーテル、
251 ガイドワイヤ、
252 先端、
253 軸部、
254 先端チップ部、
255 変曲部、
260 カテーテルシース、
300 撮像部、
310 第1カメラ、
320 第2カメラ、
400 画像処理装置、
410 CPU、
411 取得部、
412 生成部、
413 出力部、
420 ROM、
430 RAM、
440 記憶部、
450 通信インターフェース、
460 表示部、
470 操作部、
480 バス。

Claims (12)

  1. 生体の一部を模擬した光透過性のモデルと、
    前記モデルを撮像する撮像部と、
    前記撮像部で撮像された画像を処理する画像処理部と、を備え、
    前記撮像部は、少なくとも2つの異なる方向からの画像を取得する画像取得デバイスを備え、
    前記画像処理部は、画像から対象物体を抽出するとともに、少なくとも2つの異なる方向からの画像に基づいて前記画像に含まれる対象物体が抽出された画像ガイド下手技模擬画像を生成し、生成された画像ガイド下手技模擬画像を出力するトレーニングシステム。
  2. 前記撮像部は、前記対象物体の長軸方向と交差する第1の方向から、ならびに前記長軸方向および前記第1の方向と交差する第2の方向から前記対象物体を視た画像を取得し、
    前記画像処理部は、前記撮像部によって取得された画像に基づいて、前記対象物体を前記長軸方向から視た前記画像ガイド下手技模擬画像を生成する請求項1に記載のトレーニングシステム。
  3. 前記画像処理部は、前記撮像部によって取得された画像から、前記対象物体の先端および変曲部の位置を特定し、特定された前記先端および前記変曲部の位置を用いて前記対象物体を前記長軸方向から視た前記画像ガイド下手技模擬画像を仮想的に生成する請求項2に記載のトレーニングシステム。
  4. 前記画像処理部は、前記少なくとも2つの異なる方向からの画像または当該画像から抽出された前記対象物体を示す画像を合成して合成画像を生成し、生成された前記合成画像に基づいて前記画像ガイド下手技模擬画像を生成する請求項1に記載のトレーニングシステム。
  5. 前記画像処理部は、少なくとも2つの異なる方向からの画像に基づいて、画像変換行列を推定するとともに画像補間条件を取得し、取得された前記画像変換行列および前記画像補間条件を用いて前記合成画像を生成する請求項4に記載のトレーニングシステム。
  6. 前記画像処理部は、前記少なくとも2つの異なる方向からの画像に基づいて、前記モデルおよび前記対象物体の3次元形状を推定し、所定の視点から前記3次元形状を視た表示画像において前記対象物体が、前記モデルの一部に隠れている箇所があるか否かを判断し、隠れている箇所がある場合には、元の前記少なくとも2つの異なる方向からの画像それぞれにおいて当該箇所に対応する部分画像を抽出し、抽出された各部分画像のなかで対象物体が隠れていない部分画像を特定し、特定された前記部分画像を前記表示画像の前記箇所に対応させて重畳して、前記画像ガイド下手技模擬画像を生成する請求項1に記載のトレーニングシステム。
  7. 前記画像取得デバイスは、当該画像取得デバイスから前記モデルに向かう奥行き方向における前記モデルの長さ以上の被写界深度を有する請求項1〜6のいずれか一項に記載のトレーニングシステム。
  8. 前記画像取得デバイスは、前記対象物体の輝度値範囲のコントラストが最大となるようにピントを調節する機構を有する請求項1〜7のいずれか一項に記載のトレーニングシステム。
  9. 前記画像処理部は、前記撮像部によって取得された処理対象となる画像と、前記対象物体がない状態で前記モデルを撮像して予め取得された参照画像とを比較することによって前記対象物体を抽出する請求項1〜8のいずれか一項に記載のトレーニングシステム。
  10. 生体の一部を模擬した光透過性のモデルを少なくとも2つの異なる方向から撮像した画像を取得する取得部と、
    前記取得部によって取得された少なくとも2つの異なる方向からの画像に基づいて前記画像に含まれる対象物体が抽出された画像ガイド下手技模擬画像を生成する生成部と、
    前記生成部によって生成された画像ガイド下手技模擬画像を出力する出力部と、
    を有する画像処理装置。
  11. 生体の一部を模擬した光透過性のモデルを少なくとも2つの異なる方向から撮像した画像を取得する取得ステップと、
    前記取得ステップにおいて取得された少なくとも2つの異なる方向からの画像に基づいて前記画像に含まれる対象物体が抽出された画像ガイド下手技模擬画像を生成する生成ステップと、
    前記生成ステップにおいて生成された画像ガイド下手技模擬画像を出力する出力ステップと、
    を有する画像処理方法。
  12. 生体の一部を模擬した光透過性のモデルを少なくとも2つの異なる方向から撮像した画像を取得する取得ステップと、
    前記取得ステップにおいて取得された少なくとも2つの異なる方向からの画像に基づいて前記画像に含まれる対象物体が抽出された画像ガイド下手技模擬画像を生成する生成ステップと、
    前記生成ステップにおいて生成された画像ガイド下手技模擬画像を出力する出力ステップと、
    をコンピューターに実行させるための画像処理プログラム。
JP2020058946A 2020-03-27 2020-03-27 トレーニングシステム、画像処理装置、画像処理方法および画像処理プログラム Pending JP2021157108A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020058946A JP2021157108A (ja) 2020-03-27 2020-03-27 トレーニングシステム、画像処理装置、画像処理方法および画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020058946A JP2021157108A (ja) 2020-03-27 2020-03-27 トレーニングシステム、画像処理装置、画像処理方法および画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2021157108A true JP2021157108A (ja) 2021-10-07

Family

ID=77918276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020058946A Pending JP2021157108A (ja) 2020-03-27 2020-03-27 トレーニングシステム、画像処理装置、画像処理方法および画像処理プログラム

Country Status (1)

Country Link
JP (1) JP2021157108A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023056637A (ja) * 2021-10-08 2023-04-20 日鉄エンジニアリング株式会社 溶接システム、溶接方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023056637A (ja) * 2021-10-08 2023-04-20 日鉄エンジニアリング株式会社 溶接システム、溶接方法及びプログラム
JP7292344B2 (ja) 2021-10-08 2023-06-16 日鉄エンジニアリング株式会社 溶接システム、溶接方法及びプログラム

Similar Documents

Publication Publication Date Title
JP6395995B2 (ja) 医療映像処理方法及び装置
JP6348078B2 (ja) 分岐構造判定装置、分岐構造判定装置の作動方法および分岐構造判定プログラム
JP6463038B2 (ja) 画像位置合せ装置、方法およびプログラム
US9498132B2 (en) Visualization of anatomical data by augmented reality
JP4676021B2 (ja) 診断支援装置、診断支援プログラムおよび診断支援方法
CN108420529A (zh) 基于电磁定位技术和术中图像引导的手术导航仿真方法
CN103025227B (zh) 图像处理设备、方法
US20110245660A1 (en) Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same
US20150371390A1 (en) Three-Dimensional Image Segmentation Based on a Two-Dimensional Image Information
CN103371870A (zh) 一种基于多模影像的外科手术导航系统
US9830737B2 (en) Virtual endoscopic image generation device, method, and medium containing program
JP5961504B2 (ja) 仮想内視鏡画像生成装置およびその作動方法並びにプログラム
KR101993384B1 (ko) 환자의 자세 변화에 따른 의료 영상을 보정하는 방법, 장치 및 시스템
EP3110335B1 (en) Zone visualization for ultrasound-guided procedures
JP2021157108A (ja) トレーニングシステム、画像処理装置、画像処理方法および画像処理プログラム
JP7441934B2 (ja) 処理装置、内視鏡システム及び処理装置の作動方法
JP6476125B2 (ja) 画像処理装置、及び手術顕微鏡システム
CN108113690B (zh) 解剖腔的改善的可视化
JP5283015B2 (ja) 測距装置及びそのプログラム、並びに測距システム
US11657547B2 (en) Endoscopic surgery support apparatus, endoscopic surgery support method, and endoscopic surgery support system
CN111658141B (zh) 一种胃切除术端口位置导航系统、装置及存储介质
CN108113749B (zh) 距解剖腔的壁的距离的可视化
Kumar et al. Stereoscopic augmented reality for single camera endoscope using optical tracker: a study on phantom
CN117100393A (zh) 一种用于视频辅助外科手术靶标定位的方法、系统和装置
Edgcumbe Developing surgical navigation tools for minimally invasive surgery using ultrasound, structured light, tissue tracking and augmented reality.