JP5137033B2 - 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム - Google Patents

手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム Download PDF

Info

Publication number
JP5137033B2
JP5137033B2 JP2008556035A JP2008556035A JP5137033B2 JP 5137033 B2 JP5137033 B2 JP 5137033B2 JP 2008556035 A JP2008556035 A JP 2008556035A JP 2008556035 A JP2008556035 A JP 2008556035A JP 5137033 B2 JP5137033 B2 JP 5137033B2
Authority
JP
Japan
Prior art keywords
patient
endoscope
coordinate axis
shape
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008556035A
Other languages
English (en)
Other versions
JPWO2008093517A1 (ja
Inventor
清二 山本
進 寺川
昌紀 高矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hamamatsu University School of Medicine NUC
Original Assignee
Hamamatsu University School of Medicine NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu University School of Medicine NUC filed Critical Hamamatsu University School of Medicine NUC
Priority to JP2008556035A priority Critical patent/JP5137033B2/ja
Publication of JPWO2008093517A1 publication Critical patent/JPWO2008093517A1/ja
Application granted granted Critical
Publication of JP5137033B2 publication Critical patent/JP5137033B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Description

本発明は、内視鏡により撮像された画像に関する情報を術者等に提供する手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラムに関する。
従来から、内視鏡等の手術器具が患者の体内に挿入されたときに、当該手術器具の先端の正確な位置を術前に撮影されたCT(Computed Tomography)やMRI(Magnetic Resonance Imaging)による画像上に表示し、術者を支援する手術ナビゲーション(手術支援情報表示)が行われている。しかしながら、これらの方法は何れも手術器具やポインタなど器具の先端の位置を表示するのみで、内視鏡で撮像している部位が、CTやMRIによる術前画像のどの部分に相当するかを表示するものではない。
もし、内視鏡で撮像している部位(内視鏡のモニタに表示されている術野)が術前のCT等による画像のどこに相当するのかを確認することができれば、例えば術者は左手に持った内視鏡で操作を加える場所を直視下に確認し、それが術前のCT等による画像のどの部位を観察しているかを認識しながら、右手で自由に任意の手術器具を持ち替えて手術操作を連続して行うことができる。これにより手術器具には特殊なマーカを必要とせず、あらゆる器具を制限無く使用することができる。
これを解決する技術として、特許文献1において開示されているような、内視鏡で観察している部位を術前画像(CT/MRI)に表示するものがある。
特開2001−204738号公報
しかしながら、特許文献1に記載された方法は、患者の体内に挿入される挿入部の先端から患者体内の術部までの距離を測定する距離測定手段(スポット光照射による三角測量法や超音波センサ等)を有する内視鏡を用いている。従って、この方法は、新たに特殊な内視鏡を必要とするという問題点がある。また、距離測定手段を有することにより、内視鏡の構造が複雑になると、消毒等の日常業務で内視鏡あるいはこれらの付加的な構成要素が損傷するおそれがある。また、内視鏡手術では、吸引管等の手術器具が内視鏡先端と患者体内の術部の間に入ることが多く、この場合には内視鏡の先端から患者体内の術部までの距離を正確に測定することが困難になる。更に、超音波センサを用いる場合は、例えば脳脊髄液や副鼻腔内の浸出液等の中では、超音波の速度が空気中とは異なるため、その速度を正確に知る必要がある。しかしながら、脳脊髄液や浸出液に代表される体液は、個人差が大きい上に腫瘍や炎症等の病状に影響されてその組成が変わるので、超音波の速度を正確に算出することが不可能である。そのため、内視鏡先端から患者体内の術部までの距離の算出が正確にできないという問題点がある。
本発明は、以上の問題点を解決するためになされたものであり、新たに特殊な内視鏡を用いることなく従来から用いられる内視鏡を用いて、内視鏡で撮像している部分が患者のどの部位に相当するかを正確に表示することができる手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラムを提供することを目的とする。
本発明に係る手術支援情報表示装置は、患者の内部に挿入されて当該内部を撮像する内視鏡と、第1の座標軸上における、内視鏡が挿入される患者の内部を構成する面及び当該患者の表面の三次元形状を示す情報を取得する患者形状取得手段と、患者に内視鏡が差し込まれるときに、患者の表面を撮像する撮像手段と、撮像手段により撮像された患者の表面の画像から、第2の座標軸上における当該患者の表面の三次元形状を示す情報を算出する表面形状算出手段と、患者形状取得手段により取得された患者の表面の三次元形状を示す情報と表面形状算出手段により算出された患者の表面の三次元形状を示す情報とをマッチングして、第1の座標軸と第2の座標軸とを一致させる座標軸一致手段と、撮像手段により撮像された画像から、座標軸一致手段により第1の座標軸に一致された第2の座標軸上における内視鏡の撮像方向である光軸を示す半直線を算出する内視鏡光軸算出手段と、内視鏡光軸算出手段により算出された内視鏡の撮像方向である光軸を示す半直線と患者形状取得手段により取得された三次元形状を示す情報に係る患者の内部を構成する面との交点を算出する交点算出手段と、交点算出手段により算出された交点を示す情報を、患者形状取得手段により取得された患者の内部を構成する面を示す情報に重畳して出力する出力手段と、を備えることを特徴とする。
本発明に係る手術支援情報表示装置では、CT等により患者の内部を構成する面及び患者の表面の三次元形状を示す情報が取得される。その一方で、患者に内視鏡が差し込まれるときに、患者の表面が撮像される。撮像された画像から、患者の表面の三次元形状を示す情報が算出される。続いて、CT等による三次元形状を示す情報における(第1の)座標軸と撮像された画像における(第2の)座標軸とが、それぞれの患者の表面の三次元形状を示す情報がマッチングされることにより、一致される。
続いて、撮像された画像から内視鏡の撮像方向である光軸を示す半直線が算出される。この撮像方向である光軸を示す半直線とCT等による三次元形状を示す情報に係る患者の内部を構成する面との交点が算出される。この交点は、CT等による三次元形状を示す情報において、内視鏡が撮像を行っている点(中心点)を示すものである。この交点を示す情報がCT等による三次元形状を示す情報に重畳されて出力される。
即ち、上記のように、本発明に係る手術支援情報表示装置では、CT等による患者の内部を構成する面及び患者の表面の三次元形状を示す情報と、外部から患者を撮像した画像とのみを用いて、内視鏡で撮像している部分が、患者のどの部位に相当するかを表示することができる。従って、本発明に係る手術支援情報表示装置によれば、新たに特殊な内視鏡を用いることなく、上記の表示を行うことができる。また、本発明に係る手術支援情報表示装置によれば、上記の表示において、患者の体内の脳脊髄液等のような液体の影響を受けることが無いので、正確に上記の表示を行うことができる。
本発明に係る手術支援情報表示装置は、内視鏡の撮像方向に対して予め定められた相対的な位置関係の位置に固定されて設けられるマーカを更に備え、撮像手段は、患者に内視鏡が差し込まれるときに、患者の表面と共にマーカを撮像し、内視鏡光軸算出手段は、撮像手段により撮像されたマーカの画像から、座標軸一致手段により第1の座標軸に一致された第2の座標軸上における、マーカの三次元座標を算出して、当該マーカと内視鏡の撮像方向との位置関係から内視鏡の撮像方向である光軸を示す半直線を算出する、ことが望ましい。
この構成によれば、患者に内視鏡が差し込まれるときに、患者の表面及び内視鏡の撮像方向に対して相対的な位置関係に固定されたマーカの座標が撮像される。続いて、撮像された画像から、マーカの三次元座標が算出され、算出されたマーカの画像から内視鏡の撮像方向である光軸を示す半直線が算出される。このようにマーカを用いて内視鏡の撮像方向である光軸を示す半直線を算出することとすれば、正確な半直線がより確実に算出できるので、より確実に正確な上記の表示を行うことができる。
また、本発明に係る手術支援情報表示装置は、患者に内視鏡が差し込まれるときに患者の表面の画像が取得されればよいので、構成要素として必ずしも内視鏡を備えている必要はない。即ち、本発明に係る手術支援情報表示装置は、第1の座標軸上における、患者の内部に挿入されて当該内部を撮像する内視鏡が挿入される患者の内部を構成する面及び当該患者の表面の三次元形状を示す情報を取得する患者形状取得手段と、患者に内視鏡が差し込まれるときに撮像された患者の表面の画像を取得する表面画像取得手段と、表面画像取得手段により取得された患者の表面の画像から、第2の座標軸上における当該患者の表面の三次元形状を示す情報を算出する表面形状算出手段と、患者形状取得手段により取得された患者の表面の三次元形状を示す情報と表面形状算出手段により算出された患者の表面の三次元形状を示す情報とをマッチングして、第1の座標軸と第2の座標軸とを一致させる座標軸一致手段と、表面画像取得手段により取得された画像から、座標軸一致手段により第1の座標軸に一致された第2の座標軸上における内視鏡の撮像方向である光軸を示す半直線を算出する内視鏡光軸算出手段と、内視鏡光軸算出手段により算出された内視鏡の撮像方向である光軸を示す半直線と患者形状取得手段により取得された三次元形状を示す情報に係る患者の内部を構成する面との交点を算出する交点算出手段と、交点算出手段により算出された交点を示す情報を、患者形状取得手段により取得された患者の内部を構成する面を示す情報に重畳して出力する出力手段と、を備えることを特徴とする。
交点算出手段は、患者の内部を構成する面をポリゴンデータにして、当該ポリゴンデータを構成する各面と内視鏡の撮像方向である光軸を示す半直線との交点を算出することが望ましい。この構成によれば、容易かつ確実に交点を算出することができ、確実に本発明を実施することができる。
出力手段は、内視鏡により撮像された画像に交点に対応する箇所を示す情報を重畳させた画像を併せて出力することが望ましい。この構成によれば、術者等が、内視鏡で撮像された内容と、内視鏡で撮像されている部分が患者のどの部位に相当するかの情報との両方を同時に確認することができるので、より利便性の高い手術支援を行うことができる。
撮像手段は、形状算出手段により用いられる画像を撮像する場合と内視鏡光軸算出手段により用いられる画像を撮像する場合とで撮像条件を切り替えることが望ましい。この構成によれば、撮像手段により撮像された画像が用いられる内容に応じて、適切に撮像条件を切り替えることができ、より適切な手術支援を行うことが可能になる。
ところで、本発明は、上記のように手術支援情報表示装置の発明として記述できる他に、以下のように手術支援情報表示方法及び動画像符号化プログラムの発明としても記述することができる。これはカテゴリが異なるだけで、実質的に同一の発明であり、同様の作用及び効果を奏する。
即ち、本発明に係る手術支援情報表示方法は、患者形状取得手段が、第1の座標軸上における、患者の内部に挿入されて当該内部を撮像する内視鏡が挿入される患者の内部を構成する面及び当該患者の表面の三次元形状を示す情報を取得する患者形状取得ステップと、表面画像取得手段が、患者に内視鏡が差し込まれるときに撮像された患者の表面の画像を取得する表面画像取得ステップと、表面形状算出手段が、表面画像取得ステップにおいて取得された患者の表面の画像から、第2の座標軸上における当該患者の表面の三次元形状を示す情報を算出する表面形状算出ステップと、座標軸一致手段が、患者形状取得ステップにおいて取得された患者の表面の三次元形状を示す情報と表面形状算出ステップにおいて算出された患者の表面の三次元形状を示す情報とをマッチングして、第1の座標軸と第2の座標軸とを一致させる座標軸一致ステップと、内視鏡光軸算出手段が、表面画像取得ステップにおいて取得された画像から、座標軸一致ステップにおいて第1の座標軸に一致された第2の座標軸上における内視鏡の撮像方向である光軸を示す半直線を算出する内視鏡光軸算出ステップと、交点算出手段が、内視鏡光軸算出ステップにおいて算出された内視鏡の撮像方向である光軸を示す半直線と患者形状取得ステップにおいて取得された三次元形状を示す情報に係る患者の内部を構成する面との交点を算出する交点算出ステップと、出力手段が、交点算出ステップにおいて算出された交点を示す情報を、患者形状取得ステップにおいて取得された患者の内部を構成する面を示す情報に重畳して出力する出力ステップと、を含むことを特徴とする。
本発明に係る手術支援情報表示プログラムは、第1の座標軸上における、患者の内部に挿入されて当該内部を撮像する内視鏡が挿入される患者の内部を構成する面及び当該患者の表面の三次元形状を示す情報を取得する患者形状取得機能と、患者に内視鏡が差し込まれるときに撮像された患者の表面の画像を取得する表面画像取得機能と、表面画像取得機能により取得された患者の表面の画像から、第2の座標軸上における当該患者の表面の三次元形状を示す情報を算出する表面形状算出機能と、患者形状取得機能により取得された患者の表面の三次元形状を示す情報と表面形状算出機能により算出された患者の表面の三次元形状を示す情報とをマッチングして、第1の座標軸と第2の座標軸とを一致させる座標軸一致機能と、表面画像取得機能により取得された画像から、座標軸一致機能により第1の座標軸に一致された第2の座標軸上における内視鏡の撮像方向である光軸を示す半直線を算出する内視鏡光軸算出機能と、内視鏡光軸算出機能により算出された内視鏡の撮像方向である光軸を示す半直線と患者形状取得機能により取得された三次元形状を示す情報に係る患者の内部を構成する面との交点を算出する交点算出機能と、交点算出機能により算出された交点を示す情報を、患者形状取得機能により取得された患者の内部を構成する面を示す情報に重畳して出力する出力機能と、をコンピュータに実行させることを特徴とする。
本発明では、CT等による患者の内部を構成する面及び患者の表面の三次元形状を示す情報と、外部から患者を撮像した画像とのみを用いて、内視鏡で撮像している部分が、患者のどの部位に相当するかを表示することができる。従って、本発明によれば、新たに特殊な内視鏡を用いることなく、上記の表示を行うことができる。また、本発明によれば、上記の表示において、患者の体内の脳脊髄液等のような液体の影響を受けることが無いので、正確に上記の表示を行うことができる。
本発明の実施形態に係る手術支援情報表示装置の構成を示す図である。 撮像装置により撮像され、情報処理されて三次元位置情報を持った、患者の顔面の画像を示す図である。 CT装置により取得されたCT画像を示す図である。 本発明の実施形態に係る手術支援情報表示装置での処理を示すフローチャートである。 CT装置による患者の三次元形状を示す情報と、撮像装置による画像から算出された患者の三次元形状を示す情報とのマッチング処理を示す図である。 撮像装置による画像から標識球の三次元座標を算出する処理を示した図である。 患者の面を構成する三角形と内視鏡の撮像方向である光軸を示す半直線との交点を示した図である。 内視鏡により撮像されている点が示されたCT画像を示す図である。 内視鏡により撮像されている点が示されたCT画像、及び内視鏡により撮像されている画像を示す図である。 本発明に係る手術支援情報表示プログラムの構成を示す図である。
符号の説明
1…手術支援情報表示装置、11…内視鏡、12…標識球、20…撮像装置、30…CT装置、40…PC、41…患者形状取得部、42…撮像画像取得部、43…表面形状算出部、44…座標軸一致部、45…内視鏡光軸算出部、46…交点算出部、47…出力部、50…モニタ、60…患者、70…手術台、80…記録媒体、80a…プログラム格納領域、81…手術支援情報表示プログラム、81a…メインモジュール、81b…患者形状取得モジュール、81c…撮像画像取得モジュール、81d…表面形状算出モジュール、81e…座標軸一致モジュール、81f…内視鏡光軸算出モジュール、81g…交点算出モジュール、81h…出力モジュール。
以下、図面とともに本発明に係る手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラムの好適な実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明のものと必ずしも一致していない。
図1に、本発明に係る手術支援情報表示装置1の実施形態を概略的に示す構成図である。手術支援情報表示装置1は、患者60に対する手術の際に、内視鏡により撮像された画像に関する情報を術者等に提供する装置である。本実施形態に係る手術支援情報表示装置1が用いられる手術は、例えば、耳鼻咽頭科における副鼻腔の内視鏡手術等のように、内視鏡による撮像が行われるものを対象とする。
図1に示すように、手術支援情報表示装置1は、内視鏡11と、標識球12と、撮像装置20と、CT装置30と、PC(Personal Computer)40と、モニタ50とを含んで構成されている。
内視鏡11は、術者により操作され、患者60の内部に挿入されて当該内部を撮像する装置である。内視鏡11は、患者の生体内の挿入できるように細長い形状をしており、その先端部には患者60の内部を撮像するための機構が設けられている。その機構としては、例えば、被撮像部に向くように位置決めして設けられたレンズ及び、レンズの決像位置に設けられたCCDイメージセンサ(Charge Coupled Device Image Sensor)等の撮像素子である。上記の機構の位置決めのされ方によって、内視鏡11の撮像方向Aが決まる。通常は、レンズの光軸方向が、内視鏡11の撮像方向Aとなる。内視鏡11により撮像された画像の情報は、ケーブルにより内視鏡11と接続されたPC40に出力される。なお、上記の内視鏡11としては、特殊な構成を有している必要はなく、従来から用いられている内視鏡を用いることができる。
標識球12は、内視鏡11の撮像方向に対して予め定められた相対的な位置関係の位置に固定されて設けられるマーカである。標識球12は、撮像装置20により撮像されて、撮像された画像から三次元座標を求められる。具体的には、標識球12は、複数内視鏡11に対して棒状の部材13を介して固定される、それぞれ大きさが異なる球状の部材である。大きさが異なることとしているのは、撮像装置20により撮像された画像から、それぞれを区別して検出するためである。
標識球12が内視鏡11に設けられる位置は、患者60に挿入される部分から更に後方の、患者60に挿入されない位置である。また、標識球12と内視鏡11の撮像方向Aとの位置関係が一定となるように、内視鏡11における、患者60の内部に挿入される部分から標識球12が設けられる部分までは、硬質の材質で形成されており屈曲できないようになっている。但し、内視鏡11の撮像方向と標識球12との位置関係が把握できればよいので、例えば、内視鏡11の先端部のみが決められた方向のみに動くような構成となっていてもよい。
なお、内視鏡11に設けられるマーカは、内視鏡11の撮像方向に対して定められた相対的な位置関係の位置にあり、撮像装置20により撮像された画像から三次元座標を求められるものであればよいので、必ずしも、本実施形態の標識球12のような球状のものでなくてもよい。また、内視鏡11自体の形状が、容易に三次元座標を求められるものであれば、内視鏡11自体の形状がマーカとなるので、必ずしも標識球12を設ける必要はない。
撮像装置20は、患者60に内視鏡11が差し込まれるときに、患者60の表面及び標識球12を撮像する撮像手段である。図1に示すように、患者60の鼻の穴から内視鏡11を挿入して、内視鏡11により患者60の頭部を撮像する場合には、患者60の顔面と標識球12とが撮像できるような位置に撮像装置20が設けられる。撮像装置20としては具体的には、例えば、CCDカメラが用いられる。撮像装置20は、PC40と接続されており、撮像した画像の情報をPC40に送信する。
撮像装置20により撮像された画像は、撮像されたものの三次元座標(三次元位置情報)を算出するために用いられる。そのために必要な構成も併せて撮像装置20に備えておく必要がある。画像から撮像されたものの三次元座標を算出する方法としては光学的な方法を用いるものがあり、例えば、特開2003−254732号公報に記載された方法を用いることができる。この方法を用いる場合は、そのために必要な、撮像装置20により撮像される範囲にキセノンライトから発せられる自然太陽光に似た白色光に似た格子模様を投影する装置を更に設けておく。
なお、特開2003−254732号公報に記載された方法によれば、1秒の計測時間で、90±10cmの距離から撮像が可能となる。また、分解能は0.1〜0.6mmである。即ち、1秒で三次元位置情報を持った解像度の高いカラー画像が取得できる。また、曇りの日中(屋外)の約28%の照度の白色光であり、レーザ等を使うことなく安全に三次元位置情報を取得できる。本方法により、患者60の顔面を撮像して、情報処理されて三次元位置情報を持った解像度の高いカラー画像とした例を図2に示す。
CT装置30は、内視鏡11が挿入される患者60の内部を構成する面及び患者60の表面の三次元形状を示す情報を取得する患者形状取得手段である。内視鏡11が挿入される患者60を構成する面は、例えば、患者60の副鼻腔に内視鏡11が挿入される場合、副鼻腔を構成する面である。また、患者60の表面は、上記の場合、患者60の顔面である。ここで、CT装置30により取得される三次元形状を示す情報は、例えば予めCT装置30に設定されている所定の座標軸に対する座標毎に三次元形状を示す情報を保持することによって構成されている。この座標軸は、第1の座標軸である。即ち、CT装置30による患者60の三次元形状を示す情報は、第1の座標軸上における情報である。
CT装置30は、放射線等を利用して物体を走査し、コンピュータを用いて処理された内部構造を等間隔(例えば、1mm)毎に輪切りにしたような画像(CT画像)を、患者60の三次元形状を示す情報として構成するものであり、既存のCT装置を用いることができる。CT画像の例を図3に示す。CT装置30はPC40と接続されており、取得した患者60の三次元形状を示す情報を、PC40に送信する。なお、CT装置30は、撮像装置20と同じ場所に設置されている必要はなく、通常、撮像装置20による撮像と、CT装置30による三次元形状を示す情報の取得とは別々に行われる。なお、CT画像から三次元形状を示す情報の構成には、例えば特開2005−278992号公報に記載の方法を用いることができる。
なお、手術支援情報表示装置1では、患者60の内部を含む三次元形状を示す情報が取得できればよいので、患者形状取得手段として必ずしもCT装置30を用いる必要はない。例えば、MRI装置を用いることとしてもよい。
PC40は、撮像装置20により撮像された画像の情報及びCT装置30により取得された患者60の三次元形状を示す情報を受信して、これらの情報に対して情報処理を行う装置である。PC40は、具体的には、CPU(Central Processing Unit)、メモリ等のハードウェアにより構成され、これらの情報処理装置が動作することにより、下記のPC40の機能が実現される。図1に示すように、PC40は、機能的な構成要素として、患者形状取得部41と、撮像画像取得部42と、表面形状算出部43と、座標軸一致部44と、内視鏡光軸算出部45と、交点算出部46と、出力部47とを備えている。
患者形状取得部41は、CT装置30から送信される、患者60の三次元形状を示す情報を受信する手段である。患者形状取得部41は、受信した患者60の三次元形状を示す情報を、必要に応じて座標軸一致部44及び交点算出部46等に出力する。なお、手術支援情報表示装置1では、必ずしも本実施形態のように、患者形状取得手段としてCT装置30自体を備えている必要はなく、患者形状取得部41により(手術支援情報表示装置1に含まれないCT装置で撮像等された)患者60の三次元形状を示す情報が受信さえされればよい。
撮像画像取得部42は、撮像装置20により撮像され送信された画像の情報を受信する手段である。即ち、撮像画像取得部42は、患者60に内視鏡11が差し込まれるときに撮像装置20により撮像された患者の表面の画像を取得する表面画像取得手段である。撮像画像取得部42は、受信した画像を表面形状算出部43及び内視鏡光軸算出部45等に出力する。
表面形状算出部43は、撮像装置20により撮像された患者60の表面の画像から、患者60の表面の三次元形状を示す情報を算出する表面形状算出手段である。患者60の表面は、本実施形態の場合、患者60の顔面である。画像から三次元形状を算出する方法は、例えば、上述した特開2003−254732号公報に記載された方法を用いることができる。表面形状算出部43により取得される三次元形状を示す情報は、例えば予め表面形状算出部43に設定されている所定の座標軸に対する座標毎に三次元形状を示す情報を構成することにより算出される。この座標軸は、上述した第1の座標軸とは異なるものであり第2の座標軸である。即ち、撮像装置20により撮像された画像による患者60の三次元形状を示す情報は、第2の座標軸上における情報である。表面形状算出部43は、算出した患者60の表面の三次元形状を示す情報を、座標軸一致部44に出力する。
座標軸一致部44は、患者形状取得部41により取得された患者60の表面の三次元形状を示す情報と表面形状算出部43により算出された患者60の表面の三次元形状を示す情報とをマッチングして、第1の座標軸と第2の座標軸とを一致させる座標軸一致手段である。即ち、座標軸一致部44は、CT装置30による三次元形状を示す情報と、撮像装置20により撮像された画像から算出された三次元形状を示す情報とを同じ座標軸上で処理できるようにするための手段である。
具体的には、座標軸一致部44は、CT装置30による三次元形状を示す情報、及び撮像装置20により撮像された画像から算出された三次元形状を示す情報における患者60の顔面の位置を一致させることによって座標軸の一致を行う。座標軸の一致の処理は、例えばパターンマッチングの方法を用いることにより行われ、当該処理の結果として第1の座標軸及び第2の座標軸の何れか一方の座標軸をもう一方の座標軸に変換する関数が算出される。座標軸一致部44は、座標軸を一致させた結果として算出された座標軸を変換する関数等を、必要に応じて内視鏡光軸算出部45、交点算出部46及び出力部47等に出力する。上記の座標軸を一致させる処理以降は、内視鏡光軸算出部45、交点算出部46及び出力部47等において上記の関数等が、三次元形状を示す情報に適用されることによって、CT装置30による三次元形状を示す情報と、撮像装置20により撮像された画像から算出された三次元形状を示す情報とは同じ座標軸上で処理される。
内視鏡光軸算出部45は、撮像装置20により撮像された標識球12の画像から、座標軸一致部44により一致された座標軸上における、標識球12の三次元座標を算出して、標識球12と内視鏡11の撮像方向Aとの位置関係から内視鏡11の撮像方向Aである光軸を示す半直線を算出する内視鏡光軸算出手段である。なお、ここで言う撮像方向Aである光軸を示す半直線には、半直線の起点となる位置も含まれる。即ち、内視鏡11の撮像方向Aである光軸を示す半直線は、どの点からどの方向に撮像が行われるかを示したものである。内視鏡光軸算出部45は、予め、標識球12と内視鏡11の撮像方向Aとの位置関係を示す情報を保持している。当該位置関係を示す情報としては、具体的には例えば、内視鏡11の光軸(撮像方向Aである光軸を示す半直線)を通るように内視鏡11の基部の所定の位置と先端の位置とを特定して、その2点と標識球12との位置関係を示す情報が用いられる。
内視鏡11の撮像方向Aである光軸を示す半直線の算出は、具体的には、以下のように行われる。まず、内視鏡光軸算出部45は、表面形状算出部43における三次元形状を算出する方法と同様の方法で、撮像装置20により撮像された標識球12から三次元形状及び三次元座標を算出する。標識球12が複数設けられている場合、内視鏡光軸算出部45は、例えば標識球12の大きさ等からそれぞれの標識球12を識別する。
続いて、内視鏡光軸算出部45は、算出された上記の座標軸上における標識球12の三次元座標と、標識球12と内視鏡11の撮像方向Aとの位置関係を示す情報とから、上記の座標軸上における撮像方向Aである光軸を示す半直線を算出する。内視鏡光軸算出部45は、算出した撮像方向である光軸を示す半直線の情報を、交点算出部46に出力する。
交点算出部46は、内視鏡光軸算出部45により算出された内視鏡11の撮像方向Aである光軸を示す半直線と患者形状取得部41により取得された三次元形状を示す情報に係る患者60の内部を構成する面との交点を算出する交点算出手段である。この交点は、CT装置30による三次元形状を示す情報において、内視鏡11が撮像を行っている点(中心点)を示すものである。具体的には、交点算出部46は、患者60の内部を構成する面をポリゴンデータにして、当該ポリゴンデータを構成する各面と内視鏡11の撮像方向Aである光軸を示す半直線との交点を算出する。交点の算出については、より詳細には後述する。交点算出部46は、算出した交点の情報を出力部47に出力する。
出力部47は、交点算出部46により算出された交点を示す情報を、患者形状取得部41により取得された患者60の内部を構成する面を示す情報であるCT画像に重畳して、モニタ50に出力する出力手段である。また、出力部47は、内視鏡11により撮像されてPC40に入力された内視鏡画像を併せて、モニタ50に出力することとしてもよい
モニタ50は、PC40から入力された情報を表示する。術者はモニタ50を参照することにより、内視鏡11が患者60内部のどの部分を撮像しているのかを知ることができる。以上が、手術支援情報表示装置1の構成の構成である。
引き続いて、手術支援情報表示装置1の動作(手術支援情報表示方法)について、図4のフローチャートを参照して説明する。この動作は、例えば、患者60に対する手術の際に内視鏡11を挿入して治療等を行うときの動作である。この説明においては、手術前の処理と手術時の処理とに分けて説明する。
まず手術前に、CT装置30を用いた、患者60に対するCTスキャン撮影が行われる(S01、患者形状取得ステップ)。このCTスキャン撮影は、内視鏡11が挿入される患者60の部位に対して行われる。これにより、患者60の表面である顔面と、内視鏡11が挿入される患者60の内部を構成する面との三次元形状を示す情報が取得される。CT装置30によりCTスキャン撮影が行われ取得された、患者60の三次元形状を示す情報は、PC40に送信される。PC40では、患者形状取得部41により当該情報が取得されて、PC40内に格納される(S02、患者形状取得ステップ)。上記が手術前の処理であり、例えば、手術の前日等に行われる。
引き続いて、手術時の処理を説明する。まず、患者60を手術室に入室させて、図1に示すように、内視鏡11を鼻の穴から挿入できるように手術台70の上の仰向けに配置する。患者60を配置した後、内視鏡11を挿入する前に、撮像装置20によって、配置された患者60が撮像される(S03、表面画像取得ステップ)。撮像された画像は、撮像装置20からPC40に送信されて、PC40において撮像画像取得部42によって受信される。受信された画像は、撮像画像取得部42から表面形状算出部43に出力される。
表面形状算出部43では、当該画像から患者60の表面である顔面の三次元形状を示す情報が算出される(S04、表面形状算出ステップ)。算出された患者60の顔面の三次元形状を示す情報は、表面形状算出部43から座標軸一致部44に出力される。これと同じタイミングで、PC40内に格納されていた、CT装置30による患者60の三次元形状を示す情報が、患者形状取得部41から座標軸一致部44に出力される。
CT装置30による患者60の三次元形状を示す情報と、撮像装置20による画像から患者60の表面である顔面の三次元形状を示す情報とに係るそれぞれの座標軸は、一致していない。これらの情報を共に表示すると、図5(a)に示すように、CT装置30による情報81と、撮像装置20の画像による情報82とが位置合わせされていない状態となる。
ここで、座標軸一致部44によって、図5(b)に示すように、これら2つの情報81,82における顔面の形状がマッチングされて、2つの情報に係る座標軸が一致される(S05、座標軸一致ステップ)。顔面の形状のマッチングは、上述したようにパターンマッチングの手法により行われる。なお、マッチングする部位は、顔面全体や顔面の鼻や頬等の特徴ある部位等、予め設定しておく。一致した座標軸に係る情報は、座標軸一致部44から、内視鏡光軸算出部45、交点算出部46及び出力部47にそれぞれ出力されて座標軸の変換等が行われて、これ以降、一致した座標軸を基準として三次元形状に対する情報処理が行われる。上記が手術開始までの処理である。
続いて、手術が開始され、術者によって、内視鏡11が患者60に挿入される。この際、患者60の頭部は、S03〜S05の処理を行ったときから動かさないようにする。座標軸がずれることを防止するためである。内視鏡11が患者60に挿入される際に、撮像装置20によって、患者60及び標識球12が撮像される(S06、表面画像取得ステップ)。図6(a)に示すように、撮像された画像には、標識球12(の画像)が含まれている。撮像された画像は、撮像装置20からPC40に送信されて、PC40において撮像画像取得部42によって受信される。受信された画像は、撮像画像取得部42から内視鏡光軸算出部45に出力される。
続いて、内視鏡光軸算出部45によって、図6(b)に示すように、画像から標識球12の三次元座標が算出される(S07、内視鏡光軸算出ステップ)。続いて、内視鏡光軸算出部45によって、算出された標識球12の三次元座標から、予め保持していた標識球12と内視鏡11の撮像方向Aとの位置関係を示す情報に基づいて、一致された座標軸上での内視鏡11の撮像方向Aである光軸を示す半直線が算出される(S08、内視鏡光軸算出ステップ)。
算出された半直線の情報は、内視鏡光軸算出部45から交点算出部46に出力される。これと同じタイミングで、PC40内に格納されていた、CT装置30による患者60の三次元形状を示す情報が、患者形状取得部41から交点算出部46に出力される。続いて、交点算出部46によって、内視鏡11の撮像方向Aである光軸を示す半直線と、患者60の内部を構成する面との交点が算出される(S09、交点算出ステップ)。
交点の算出は、以下のように行われる。まず、交点算出部46によって、CT装置30による患者60の三次元形状を示す情報が、ポリゴンデータに変換される。この変換により、患者60(の内部)を構成する面が、例えば多数の三角形で構成させることとなる。次に、それらの各三角形と、内視鏡11の撮像方向Aである光軸を示す半直線との交点が算出される。
この交点の算出について、図7を用いて説明する。ポリゴンを構成する三角形の基準となる点をPT、三角形の2辺のベクトルをそれぞれvecA及びvecBとし、2つの媒介変数をα及びβとすると、三角形は以下の式で表すことができる。
P1=PT+αvecA+βvecB
また、内視鏡11の撮像方向Aの基準となる点(例えば、内視鏡11の先端の点)をPL、半直線の方向を示すベクトルをvecCとし、媒介変数をγとすると、内視鏡11の撮像方向Aは以下の式で表すことができる。
P2=PL+γvecC
ここで、両者が交わるときはP1=P2となる。P1=P2となる点が、三角形の内部に存在する条件は、媒介変数が以下の条件を満たす場合である。
条件1:0<α,0<β
条件2:0<α+β<1
条件3:γ>0
これらの条件を満たす点を全てのポリゴンデータを構成する三角形について導出し、それら全ての点と内視鏡11の先端の点との距離を計算する。この距離が最も小さくなる交点を、内視鏡11の撮像方向Aである光軸を示す半直線と患者60の内部を構成する面との交点とする。
算出された交点の座標の情報は、交点算出部46から出力部47に出力される。このタイミングで、患者60の内部を構成する面を示す情報であるCT画像が、患者形状取得部41から出力部47に出力される。交点の情報は、出力部47によって、患者60の内部を構成する面を示す情報であるCT画像に当該交点の座標に応じた箇所に重畳されて、モニタ50に入力される。入力された画像は、モニタ50によって表示される(S10、出力ステップ)。交点の表示は、具体的には例えば、図8に示すように、内視鏡11により撮像されている箇所がどの点に位置しているかが分かるように、十字の表示90として行われる。術者は表示された画像を参照することにより、内視鏡11が患者60内部のどの部分を撮像しているのかを知ることができる。
また、内視鏡11により撮像された画像も、PC40によって受信されて出力部47からモニタ50に出力されるようにして、上記の内視鏡11により撮像されている箇所がどの点に位置しているかの表示と併せて表示されるようにすることが望ましい。例えば、図9に示す画面例91のように、内視鏡11により撮像された画像92と、内視鏡11により撮像されている箇所がどの点に位置しているかが示されたCT画像93a〜93cとを1つの画面に示すこととするのがよい。また、その際の内視鏡11の画像には、交点に対応する箇所を示す情報(例えば、十字形(+)のマーク)94を重畳させることが望ましい。内視鏡11の画像における交点に対応する箇所を示す情報の位置は、例えば、画像の中心等、内視鏡11の撮像方向に応じて予め出力部47に記憶させておく。また、術者が対応する箇所を理解しやすいように、CT画像93a〜93cは、断面がそれぞれ異なるもの(断面がそれぞれ直交するものがよい)を複数、表示することとするのがよい。図9では、CT画像93aは横断面のもの、CT画像93bは冠状断面のもの、CT画像93cは、矢状断面のものである。更に、CT画像93a〜93cには、交点の情報(画像とは色違いの四角95で示す)に加えて、内視鏡11が挿入されている方向(内視鏡11の撮像方向である光軸)96を示すことが望ましい。
上記のS06〜S10までの処理は、例えば、1秒間間隔等の等間隔で繰り返し行われる。なお、PC40におけるS03〜S05の処理と、S06〜S10の処理とは異なっているが、例えば、S05の座標軸の一致の処理が行われたら、自動的にS06以降の処理に移るようにしてもよい。また、術者等の操作により処理の切替が行われてもよい。
また、S03〜S05の処理による初回の位置合わせ後に患者60の頭部を動かした場合でも、再度S03〜S05の処理を行い改めて位置合わせを行なうこととすればよい。再度の位置合わせは、例えば、術者等の操作により行われてもよいし、位置合わせしたときの画像とその後の画像とを比較して、頭部が動いたことを検出して、それをトリガとして行われてもよい。
上述したように本実施形態に係る手術支援情報表示装置1では、CT装置30による患者60の内部を構成する面及び患者の表面の三次元形状を示す情報と、撮像装置20により外部から患者60を撮像した画像とのみを用いて、内視鏡11で撮像している部分が、患者60のどの部位に相当するかを表示することができる。従って、本実施形態に係る手術支援情報表示装置1によれば、新たに特殊な内視鏡を用いることなく、上記の表示を行うことができる。また、本実施形態に係る手術支援情報表示装置1によれば、上記の表示において、患者の体内の脳脊髄液等のような液体の影響を受けることが無いので、正確に上記の表示を行うことができる。従って、本実施形態に係る手術支援情報表示装置1を用いれば、安全かつ正確に手術を行うことができる。
また、CTスキャン撮影(S01)の際に、患者60にマーク等をつける必要がなく、通常通りのCTスキャン撮影を行えばよいので、簡便である。また、位置合わせ等のために患者60をピンなどで固定する必要がない。患者60を手術中に動かしたとしても、容易に位置合わせを行うことができる。上記の手術支援情報表示装置1の各構成要素は、比較的安価であり、低コストで実現することができる。
また、本実施形態のように内視鏡11にマーカである標識球12を設けておき、マーカを用いて内視鏡11の撮像方向である光軸を示す半直線を算出することとすれば、正確な半直線がより確実に算出できるので、より確実に正確な上記の表示を行うことができる。但し、マーカを用いずに、内視鏡11の撮像方向である光軸を示す半直線を算出することとしてもよい。例えば、本実施形態において、撮像装置20による画像から患者の表面を算出した方法と同様に、内視鏡11の形状を算出して、当該形状から内視鏡11の撮像方向である光軸を示す半直線を算出することとしてもよい。
なお、本発明は、画像や情報のPC40への入力さえあれば実施可能であるので、手術支援情報表示装置1には必ずしも、内視鏡11、撮像装置20及びCT装置30等のハードウェアを備えている必要はない。即ち、本発明は、PC40の備える各構成要素41〜47のみを備えていれば実施可能である。
また、本実施形態のように、CT装置30による患者60の三次元情報をポリゴンデータとし交点を求めることとすれば、確実に交点を算出することができ、確実に本発明を実施することができる。
また、内視鏡11で撮像している部分が、患者60のどの部位に相当するかの情報に併せて、内視鏡11により撮像された画像自体も表示することとすれば、術者等が、内視鏡11で撮像された内容と、内視鏡11で撮像されている部分が患者60のどの部位に相当するかの情報との両方を同時に確認することができるので、より利便性の高い手術支援を行うことができる。
また、撮像装置20は、撮像条件を切り替えて撮像を行うことができることが望ましい。ここで、撮像条件には、例えば、撮像対象範囲や撮像の精度、撮像速度が含まれる。撮像条件の切り替えは、具体的には、CT装置30による患者60の三次元形状を示す情報と撮像装置20による画像から算出される患者60の三次元形状を示す情報との位置合わせを行なう場合(S03〜S05、S03における撮像)と、内視鏡11の撮像方向Aを算出する場合(S06〜S08、S06における撮像)とで下記のように切り替えることが望ましい。
位置合わせを行なう場合の撮像では、撮像対象範囲を広くし高い精度が要求されるが、撮像に要する時間について高速性は要求されない。一方で、内視鏡11の撮像方向Aを算出する場合の撮像では、高い精度と高速性が要求されるが、標識球12が認識されればよいので撮像対象範囲は狭くてもよい。これは、一般的に手術前は、患者等の対象物を正確に位置計測することが必要になるが、手術中は、内視鏡11の撮像方向Aに基づき施術するために、当該撮像方向Aを正確かつ迅速に計測することが重要になるためである。なお、撮像された画像が、位置合わせと内視鏡11の撮像方向Aの算出との両方に用いられる場合は、上記の中間的な設定にしてもよい。
上記のように、撮像装置20により撮像された画像が用いられる内容に応じて、撮像条件を切り替えることすれば、位置合わせをより正確にできる、あるいは、内視鏡11の撮像方向Aの表示をより速く行うことができる等、より適切な手術支援を行うことが可能になる。
引き続いて、上述した一連の手術支援情報の表示を行う処理をコンピュータに実行させるための手術支援情報表示プログラムを説明する。図9に示すように、手術支援情報表示プログラム82は、コンピュータが備える記録媒体80に形成されたプログラム格納領域80a内に格納されている。
手術支援情報表示プログラム81は、手術支援情報の表示処理を統括的に制御するメインモジュール81aと、患者形状取得モジュール81bと、撮像画像取得モジュール81cと、表面形状算出モジュール81dと、座標軸一致モジュール81eと、内視鏡光軸算出モジュール81fと、交点算出モジュール81gと、出力モジュール81hとを備えて構成される。患者形状取得モジュール81b、撮像画像取得モジュール81c、表面形状算出モジュール81d、座標軸一致モジュール81e、内視鏡光軸算出モジュール81f、交点算出モジュール81g及び出力モジュール81hを実行させることにより実現される機能は、上述したPC40の患者形状取得部41、撮像画像取得部42、表面形状算出部43、座標軸一致部44、内視鏡光軸算出部45、交点算出部46及び出力部47の機能とそれぞれ同様である。
なお、手術支援情報表示プログラム81は、その一部若しくは全部が、通信回線等の伝送媒体を介して伝送され、他の機器により受信されて記録(インストールを含む)される構成としてもよい。

Claims (8)

  1. 患者の内部に挿入されて当該内部を撮像する内視鏡と、
    第1の座標軸上における、前記内視鏡が挿入される前記患者の内部を構成する面及び当該患者の表面の三次元形状を示す情報を取得する患者形状取得手段と、
    前記患者に前記内視鏡が差し込まれるときに、前記患者の表面を撮像する撮像手段と、
    前記撮像手段により撮像された前記患者の表面の画像から、第2の座標軸上における当該患者の表面の三次元形状を示す情報を算出する表面形状算出手段と、
    前記患者形状取得手段により取得された前記患者の表面の三次元形状を示す情報と前記表面形状算出手段により算出された前記患者の表面の三次元形状を示す情報とをマッチングして、前記第1の座標軸と前記第2の座標軸とを一致させる座標軸一致手段と、
    前記撮像手段により撮像された画像から、前記座標軸一致手段により前記第1の座標軸に一致された前記第2の座標軸上における前記内視鏡の撮像方向である光軸を示す半直線を算出する内視鏡光軸算出手段と、
    前記内視鏡光軸算出手段により算出された前記内視鏡の撮像方向である光軸を示す半直線と前記患者形状取得手段により取得された三次元形状を示す情報に係る前記患者の内部を構成する面との交点を算出する交点算出手段と、
    前記交点算出手段により算出された交点を示す情報を、前記患者形状取得手段により取得された前記患者の内部を構成する面を示す情報に重畳して出力する出力手段と、
    を備える手術支援情報表示装置。
  2. 前記内視鏡の撮像方向に対して予め定められた相対的な位置関係の位置に固定されて設けられるマーカを更に備え、
    前記撮像手段は、前記患者に前記内視鏡が差し込まれるときに、前記患者の表面と共に前記マーカを撮像し、
    前記内視鏡光軸算出手段は、前記撮像手段により撮像された前記マーカの画像から、前記座標軸一致手段により前記第1の座標軸に一致された前記第2の座標軸上における、前記マーカの三次元座標を算出して、当該マーカと前記内視鏡の撮像方向との前記位置関係から前記内視鏡の撮像方向である光軸を示す半直線を算出する、
    ことを特徴とする請求項1に記載の手術支援情報表示装置。
  3. 第1の座標軸上における、患者の内部に挿入されて当該内部を撮像する内視鏡が挿入される患者の内部を構成する面及び当該患者の表面の三次元形状を示す情報を取得する患者形状取得手段と、
    前記患者に前記内視鏡が差し込まれるときに撮像された前記患者の表面の画像を取得する表面画像取得手段と、
    前記表面画像取得手段により取得された前記患者の表面の画像から、第2の座標軸上における当該患者の表面の三次元形状を示す情報を算出する表面形状算出手段と、
    前記患者形状取得手段により取得された前記患者の表面の三次元形状を示す情報と前記表面形状算出手段により算出された前記患者の表面の三次元形状を示す情報とをマッチングして、前記第1の座標軸と前記第2の座標軸とを一致させる座標軸一致手段と、
    前記表面画像取得手段により取得された画像から、前記座標軸一致手段により前記第1の座標軸に一致された前記第2の座標軸上における前記内視鏡の撮像方向である光軸を示す半直線を算出する内視鏡光軸算出手段と、
    前記内視鏡光軸算出手段により算出された前記内視鏡の撮像方向である光軸を示す半直線と前記患者形状取得手段により取得された三次元形状を示す情報に係る前記患者の内部を構成する面との交点を算出する交点算出手段と、
    前記交点算出手段により算出された交点を示す情報を、前記患者形状取得手段により取得された前記患者の内部を構成する面を示す情報に重畳して出力する出力手段と、
    を備える手術支援情報表示装置。
  4. 前記交点算出手段は、前記患者の内部を構成する面をポリゴンデータにして、当該ポリゴンデータを構成する各面と前記内視鏡の撮像方向である光軸を示す半直線との交点を算出することを特徴とする請求項1〜3の何れか一項に記載の手術支援情報表示装置。
  5. 前記出力手段は、前記内視鏡により撮像された画像に前記交点に対応する箇所を示す情報を重畳させた画像を併せて出力することを特徴とする請求項1〜4の何れか一項に記載の手術支援情報表示装置。
  6. 前記撮像手段は、前記形状算出手段により用いられる画像を撮像する場合と前記内視鏡光軸算出手段により用いられる画像を撮像する場合とで撮像条件を切り替えることを特徴とする請求項1〜5の何れか一項に記載の手術支援情報表示装置。
  7. 患者形状取得手段が、第1の座標軸上における、患者の内部に挿入されて当該内部を撮像する内視鏡が挿入される患者の内部を構成する面及び当該患者の表面の三次元形状を示す情報を取得する患者形状取得ステップと、
    表面画像取得手段が、前記患者に前記内視鏡が差し込まれるときに撮像された前記患者の表面の画像を取得する表面画像取得ステップと、
    表面形状算出手段が、前記表面画像取得ステップにおいて取得された前記患者の表面の画像から、第2の座標軸上における当該患者の表面の三次元形状を示す情報を算出する表面形状算出ステップと、
    座標軸一致手段が、前記患者形状取得ステップにおいて取得された前記患者の表面の三次元形状を示す情報と前記表面形状算出ステップにおいて算出された前記患者の表面の三次元形状を示す情報とをマッチングして、前記第1の座標軸と前記第2の座標軸とを一致させる座標軸一致ステップと、
    内視鏡光軸算出手段が、前記表面画像取得ステップにおいて取得された画像から、前記座標軸一致ステップにおいて前記第1の座標軸に一致された前記第2の座標軸上における前記内視鏡の撮像方向である光軸を示す半直線を算出する内視鏡光軸算出ステップと、
    交点算出手段が、前記内視鏡光軸算出ステップにおいて算出された前記内視鏡の撮像方向である光軸を示す半直線と前記患者形状取得ステップにおいて取得された三次元形状を示す情報に係る前記患者の内部を構成する面との交点を算出する交点算出ステップと、
    出力手段が、前記交点算出ステップにおいて算出された交点を示す情報を、前記患者形状取得ステップにおいて取得された前記患者の内部を構成する面を示す情報に重畳して出力する出力ステップと、
    を含む手術支援情報表示方法。
  8. 第1の座標軸上における、患者の内部に挿入されて当該内部を撮像する内視鏡が挿入される患者の内部を構成する面及び当該患者の表面の三次元形状を示す情報を取得する患者形状取得機能と、
    前記患者に前記内視鏡が差し込まれるときに撮像された前記患者の表面の画像を取得する表面画像取得機能と、
    前記表面画像取得機能により取得された前記患者の表面の画像から、第2の座標軸上における当該患者の表面の三次元形状を示す情報を算出する表面形状算出機能と、
    前記患者形状取得機能により取得された前記患者の表面の三次元形状を示す情報と前記表面形状算出機能により算出された前記患者の表面の三次元形状を示す情報とをマッチングして、前記第1の座標軸と前記第2の座標軸とを一致させる座標軸一致機能と、
    前記表面画像取得機能により取得された画像から、前記座標軸一致機能により前記第1の座標軸に一致された前記第2の座標軸上における前記内視鏡の撮像方向である光軸を示す半直線を算出する内視鏡光軸算出機能と、
    前記内視鏡光軸算出機能により算出された前記内視鏡の撮像方向である光軸を示す半直線と前記患者形状取得機能により取得された三次元形状を示す情報に係る前記患者の内部を構成する面との交点を算出する交点算出機能と、
    前記交点算出機能により算出された交点を示す情報を、前記患者形状取得機能により取得された前記患者の内部を構成する面を示す情報に重畳して出力する出力機能と、
    をコンピュータに実行させる手術支援情報表示プログラム。
JP2008556035A 2007-01-31 2008-01-09 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム Active JP5137033B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008556035A JP5137033B2 (ja) 2007-01-31 2008-01-09 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2007022077 2007-01-31
JP2007022077 2007-01-31
PCT/JP2008/050139 WO2008093517A1 (ja) 2007-01-31 2008-01-09 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム
JP2008556035A JP5137033B2 (ja) 2007-01-31 2008-01-09 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム

Publications (2)

Publication Number Publication Date
JPWO2008093517A1 JPWO2008093517A1 (ja) 2010-05-20
JP5137033B2 true JP5137033B2 (ja) 2013-02-06

Family

ID=39673831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008556035A Active JP5137033B2 (ja) 2007-01-31 2008-01-09 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム

Country Status (4)

Country Link
US (1) US8251893B2 (ja)
EP (1) EP2123232A4 (ja)
JP (1) JP5137033B2 (ja)
WO (1) WO2008093517A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008264520A (ja) * 2007-03-20 2008-11-06 National Univ Corp Shizuoka Univ 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5561458B2 (ja) * 2008-03-18 2014-07-30 国立大学法人浜松医科大学 手術支援システム
JP5569711B2 (ja) * 2009-03-01 2014-08-13 国立大学法人浜松医科大学 手術支援システム
DE102009025077A1 (de) 2009-06-10 2010-12-16 Karl Storz Gmbh & Co. Kg System zur Orientierungsunterstützung und Darstellung eines Instruments im Inneren eines Untersuchungsobjektes insbesondere im menschlichen Körper
CN103118596B (zh) * 2010-05-04 2015-11-25 开创治疗股份有限公司 用于使用伪特征进行腹部表面匹配的系统
US10674968B2 (en) * 2011-02-10 2020-06-09 Karl Storz Imaging, Inc. Adjustable overlay patterns for medical display
US11412998B2 (en) 2011-02-10 2022-08-16 Karl Storz Imaging, Inc. Multi-source medical display
US10631712B2 (en) * 2011-02-10 2020-04-28 Karl Storz Imaging, Inc. Surgeon's aid for medical display
EP2837326A4 (en) * 2012-09-07 2016-02-24 Olympus Corp MEDICAL APPARATUS
WO2014104767A1 (ko) * 2012-12-26 2014-07-03 가톨릭대학교 산학협력단 복합 실제 3차원 영상 제작방법 및 이를 위한 시스템
KR20140083856A (ko) * 2012-12-26 2014-07-04 가톨릭대학교 산학협력단 복합 실제 3차원 영상 제작방법 및 이를 위한 시스템
WO2014139023A1 (en) 2013-03-15 2014-09-18 Synaptive Medical (Barbados) Inc. Intelligent positioning system and methods therefore
CA2892554C (en) 2013-03-15 2017-04-18 Synaptive Medical (Barbados) Inc. System and method for dynamic validation, correction of registration for surgical navigation
SG11201507612XA (en) 2013-03-15 2015-10-29 Synaptive Medical Barbados Inc Systems and methods for navigation and simulation of minimally invasive therapy
CN114343608A (zh) * 2013-07-29 2022-04-15 直观外科手术操作公司 具有冗余感测的形状传感器系统
US9436993B1 (en) * 2015-04-17 2016-09-06 Clear Guide Medical, Inc System and method for fused image based navigation with late marker placement
KR101727567B1 (ko) 2015-09-17 2017-05-02 가톨릭관동대학교산학협력단 복합 실제 3차원 영상 제작방법 및 이를 위한 시스템
CN108135453B (zh) * 2015-09-28 2021-03-23 奥林巴斯株式会社 内窥镜系统和图像处理方法
US9947091B2 (en) * 2015-11-16 2018-04-17 Biosense Webster (Israel) Ltd. Locally applied transparency for a CT image
EP3393389A1 (en) 2015-12-22 2018-10-31 Koninklijke Philips N.V. Providing a projection data set
JP2017176773A (ja) * 2016-03-31 2017-10-05 国立大学法人浜松医科大学 手術支援システム、手術支援方法、手術支援プログラム
JP7031118B2 (ja) * 2016-12-09 2022-03-08 ソニーグループ株式会社 画像処理装置、及び、画像処理方法
US10506991B2 (en) * 2017-08-31 2019-12-17 Biosense Webster (Israel) Ltd. Displaying position and optical axis of an endoscope in an anatomical image
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09173352A (ja) * 1995-12-25 1997-07-08 Toshiba Medical Eng Co Ltd 医用ナビゲーションシステム
JP2000350734A (ja) * 1999-06-10 2000-12-19 Olympus Optical Co Ltd 手術画像撮像表示装置
JP2001204738A (ja) * 2000-01-26 2001-07-31 Olympus Optical Co Ltd 手術用ナビゲーションシステム
JP2002263053A (ja) * 2001-03-06 2002-09-17 Olympus Optical Co Ltd 医用画像表示装置および医用画像表示方法
JP2007209531A (ja) * 2006-02-09 2007-08-23 Hamamatsu Univ School Of Medicine 手術支援装置、方法及びプログラム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4506676A (en) * 1982-09-10 1985-03-26 Duska Alois A Radiographic localization technique
US4583538A (en) * 1984-05-04 1986-04-22 Onik Gary M Method and apparatus for stereotaxic placement of probes in the body utilizing CT scanner localization
US4791934A (en) * 1986-08-07 1988-12-20 Picker International, Inc. Computer tomography assisted stereotactic surgery system and method
KR970001431B1 (ko) * 1987-05-27 1997-02-06 쉬뢴도르프 게오르그 외과수술을 재생할 수 있게 광학적으로 표시하는 방법 및 장치
CA2003497C (en) * 1989-11-21 1999-04-06 Michael M. Greenberg Probe-correlated viewing of anatomical image data
US5107839A (en) * 1990-05-04 1992-04-28 Pavel V. Houdek Computer controlled stereotaxic radiotherapy system and method
US5662111A (en) * 1991-01-28 1997-09-02 Cosman; Eric R. Process of stereotactic optical navigation
US6675040B1 (en) * 1991-01-28 2004-01-06 Sherwood Services Ag Optical object tracking system
AT399647B (de) * 1992-07-31 1995-06-26 Truppe Michael Anordnung zur darstellung des inneren von körpern
US5517990A (en) * 1992-11-30 1996-05-21 The Cleveland Clinic Foundation Stereotaxy wand and tool guide
CA2161430C (en) * 1993-04-26 2001-07-03 Richard D. Bucholz System and method for indicating the position of a surgical probe
US5531520A (en) * 1994-09-01 1996-07-02 Massachusetts Institute Of Technology System and method of registration of three-dimensional data sets including anatomical body data
US5617857A (en) * 1995-06-06 1997-04-08 Image Guided Technologies, Inc. Imaging system having interactive medical instruments and methods
DE69819289T2 (de) * 1997-06-23 2004-08-05 Philips Intellectual Property & Standards Gmbh Bildgeführtes chirurgisches system
US6285902B1 (en) * 1999-02-10 2001-09-04 Surgical Insights, Inc. Computer assisted targeting device for use in orthopaedic surgery
US6466815B1 (en) * 1999-03-30 2002-10-15 Olympus Optical Co., Ltd. Navigation apparatus and surgical operation image acquisition/display apparatus using the same
US6856826B2 (en) * 2000-04-28 2005-02-15 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
US6484049B1 (en) * 2000-04-28 2002-11-19 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
US6725079B2 (en) * 2001-06-20 2004-04-20 Odin Medical Technologies, Ltd. Dual pointer device and method for surgical navigation
US6584339B2 (en) * 2001-06-27 2003-06-24 Vanderbilt University Method and apparatus for collecting and processing physical space data for use while performing image-guided surgery
US6741883B2 (en) * 2002-02-28 2004-05-25 Houston Stereotactic Concepts, Inc. Audible feedback from positional guidance systems
JP3536097B2 (ja) 2002-03-04 2004-06-07 和歌山大学長 周波数変調格子による格子投影形状計測方法及び装置
US7381183B2 (en) * 2003-04-21 2008-06-03 Karl Storz Development Corp. Method for capturing and displaying endoscopic maps
US20050054910A1 (en) * 2003-07-14 2005-03-10 Sunnybrook And Women's College Health Sciences Centre Optical image-based position tracking for magnetic resonance imaging applications
US20050054895A1 (en) * 2003-09-09 2005-03-10 Hoeg Hans David Method for using variable direction of view endoscopy in conjunction with image guided surgical systems
EP1680024A2 (en) * 2003-10-21 2006-07-19 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for intraoperative targetting
WO2005058137A2 (en) * 2003-12-12 2005-06-30 University Of Washington Catheterscope 3d guidance and interface system
US9615772B2 (en) * 2004-02-20 2017-04-11 Karl Storz Imaging, Inc. Global endoscopic viewing indicator
JP4630564B2 (ja) 2004-03-30 2011-02-09 国立大学法人浜松医科大学 手術支援装置、方法及びプログラム
US7967742B2 (en) * 2005-02-14 2011-06-28 Karl Storz Imaging, Inc. Method for using variable direction of view endoscopy in conjunction with image guided surgical systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09173352A (ja) * 1995-12-25 1997-07-08 Toshiba Medical Eng Co Ltd 医用ナビゲーションシステム
JP2000350734A (ja) * 1999-06-10 2000-12-19 Olympus Optical Co Ltd 手術画像撮像表示装置
JP2001204738A (ja) * 2000-01-26 2001-07-31 Olympus Optical Co Ltd 手術用ナビゲーションシステム
JP2002263053A (ja) * 2001-03-06 2002-09-17 Olympus Optical Co Ltd 医用画像表示装置および医用画像表示方法
JP2007209531A (ja) * 2006-02-09 2007-08-23 Hamamatsu Univ School Of Medicine 手術支援装置、方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008264520A (ja) * 2007-03-20 2008-11-06 National Univ Corp Shizuoka Univ 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム

Also Published As

Publication number Publication date
US8251893B2 (en) 2012-08-28
EP2123232A4 (en) 2011-02-16
JPWO2008093517A1 (ja) 2010-05-20
US20100094085A1 (en) 2010-04-15
EP2123232A1 (en) 2009-11-25
WO2008093517A1 (ja) 2008-08-07

Similar Documents

Publication Publication Date Title
JP5137033B2 (ja) 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム
JP5283157B2 (ja) 手術支援情報表示装置、手術支援情報表示方法及び手術支援情報表示プログラム
JP5561458B2 (ja) 手術支援システム
JP5569711B2 (ja) 手術支援システム
EP2953569B1 (en) Tracking apparatus for tracking an object with respect to a body
JP4630564B2 (ja) 手術支援装置、方法及びプログラム
WO2013141155A1 (ja) 画像内遮蔽領域の画像補完システム、画像処理装置及びそのプログラム
JP5113990B2 (ja) 計測用内視鏡装置
CN109419556A (zh) 在解剖图像中显示内窥镜的位置和光轴
JP6141559B1 (ja) 医療装置、医療画像生成方法及び医療画像生成プログラム
US11540706B2 (en) Method of using a manually-operated light plane generating module to make accurate measurements of the dimensions of an object seen in an image taken by an endoscopic camera
JP2008262555A (ja) 形状情報処理方法、形状情報処理装置及び形状情報処理プログラム
WO2017170488A1 (ja) 光軸位置測定システム、光軸位置測定方法、光軸位置測定プログラム、光軸位置測定装置
JP4022068B2 (ja) 内視鏡システム
JP2017176773A (ja) 手術支援システム、手術支援方法、手術支援プログラム
JP2017205343A (ja) 内視鏡装置、内視鏡装置の作動方法
US10049480B2 (en) Image alignment device, method, and program
KR20140124456A (ko) Oct 영상과 심장 삼차원 영상의 정합을 통한 심장 수술 내비게이션 시스템 및 방법
JP2017185212A (ja) 光軸位置測定システム、光軸位置測定方法、光軸位置測定プログラム、光軸位置測定装置
US20230032791A1 (en) Measuring method and a measuring device
JP5560424B2 (ja) 長軸部先端からの光軸を有する物体における光軸位置と該物体の位置姿勢を定義する手段との3次元相対関係測定方法、装置およびシステム
KR20160074885A (ko) 수술 결과 표시 방법 및 이를 이용한 수술 결과 표시 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121030

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121106

R150 Certificate of patent or registration of utility model

Ref document number: 5137033

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151122

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250