JP2008272370A - Medical guide system - Google Patents

Medical guide system Download PDF

Info

Publication number
JP2008272370A
JP2008272370A JP2007122649A JP2007122649A JP2008272370A JP 2008272370 A JP2008272370 A JP 2008272370A JP 2007122649 A JP2007122649 A JP 2007122649A JP 2007122649 A JP2007122649 A JP 2007122649A JP 2008272370 A JP2008272370 A JP 2008272370A
Authority
JP
Japan
Prior art keywords
image data
reference image
medical
subject
ultrasonic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007122649A
Other languages
Japanese (ja)
Other versions
JP5226244B2 (en
Inventor
Masahiko Komuro
雅彦 小室
Tomonao Kawashima
知直 川島
Soichi Ikuma
聡一 生熊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to JP2007122649A priority Critical patent/JP5226244B2/en
Priority to EP08007928A priority patent/EP2036494A3/en
Priority to US12/114,592 priority patent/US20080281189A1/en
Publication of JP2008272370A publication Critical patent/JP2008272370A/en
Application granted granted Critical
Publication of JP5226244B2 publication Critical patent/JP5226244B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a medical guide system capable of highly precisely matching the position of a medical instrument on a guide image to the position of an actual medical instrument despite of the posture of a subject. <P>SOLUTION: This medical guide system includes: detection means for detecting the position and orientation of a medical instrument; storage means for storing reference medical image data acquired by CT, MRI, or the like before using the medical instrument for a subject; and guide image generation means for generating a guide image indicating the position and orientation of the medical instrument in the reference image data in real time based on the position and orientation of the medical instrument detected by the detection means, wherein the reference image data are acquired in the same posture as that of the subject when using the medical instrument. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、人体の臓器及び器官の少なくとも一方の解剖学的な位置情報を有する参照画像データ中において医用器具の位置を示し、医用器具のガイドを行う医用ガイドシステムに関する。   The present invention relates to a medical guide system that guides a medical instrument by indicating the position of the medical instrument in reference image data having anatomical position information of at least one of a human organ and an organ.

従来より、内視鏡、超音波内視鏡、細径超音波プローブ等に代表されるような、消化管、胆膵管、血管などの体腔内へ挿入して、診断、治療、手術等に用いる医用器具が周知である。内視鏡には、気管支鏡、消化管内視鏡、腹腔鏡等が含まれる。   Conventionally, it is inserted into body cavities such as the digestive tract, bile pancreatic duct, blood vessels, etc. as represented by endoscopes, ultrasonic endoscopes, small-diameter ultrasonic probes, etc., and used for diagnosis, treatment, surgery, etc. Medical devices are well known. Endoscopes include bronchoscopes, gastrointestinal endoscopes, laparoscopes, and the like.

このような医用器具を生体に対して用い検査や手術を行う際に、術者は、予め生体内の各器官、各組織の既知の解剖学的な位置関係を念頭に置きながら、現在観察している解剖学上の位置を推定して、診断や手術を行う。   When performing such examinations and operations using such a medical instrument on a living body, the surgeon observes the organs and tissues in the living body in advance while keeping in mind the known anatomical positional relationships of the tissues. Estimate the anatomical position that is being diagnosed and perform surgery.

このような診断や手術を支援するために、検査時や手術時に観察している位置を案内するガイド画像を、事前に取得したCT画像やMRI画像をもとに合成して表示する技術が提案されている。   In order to support such diagnosis and surgery, a technique for combining and displaying a guide image that guides the position observed at the time of examination or surgery based on CT images and MRI images acquired in advance is proposed. Has been.

このような医用ガイド装置として、例えば特開2005−312770号公報には、超音波内視鏡の先端位置を検出して、超音波内視鏡の解剖学的な位置に対応したガイド画像を解剖学的画像データに基づき構築し表示する医用ガイド装置が記載されている。   As such a medical guide device, for example, Japanese Patent Application Laid-Open No. 2005-31770 discloses a guide image corresponding to an anatomical position of an ultrasonic endoscope by detecting the tip position of the ultrasonic endoscope. A medical guide device that is constructed and displayed based on anatomical image data is described.

また、特開2006−149481号公報及び特開2007−37790号公報には、3次元ガイド画像作成手段を備え、立体的な3次元ガイド画像を表示することで、超音波断層像による観察位置がより分かり易く確認できる超音波診断装置が開示されている。
特開2005−312770号公報 特開2006−149481号公報 特開2007−37790号公報
Japanese Patent Application Laid-Open Nos. 2006-149481 and 2007-37790 include a three-dimensional guide image creation unit that displays a stereoscopic three-dimensional guide image so that the observation position based on an ultrasonic tomographic image An ultrasonic diagnostic apparatus that can be confirmed more easily is disclosed.
JP 2005-31770 A JP 2006-149481 A JP 2007-37790 A

特開2005−312770号公報、特開2006−149481号公報及び特開2007−37790号公報に開示されている超音波診断装置では、ガイド画像のもとになる生体断面の解剖学的な画像データである複数の断層像データが予め記憶されている。この断層像データは例えば3次元MRI装置やX線3次元ヘリカルCT装置等で取得した画像(以降、単にMRI画像やCT画像とする)が使用される。   In the ultrasonic diagnostic apparatuses disclosed in JP 2005-31770 A, JP 2006-149481 A, and JP 2007-37790 A, an anatomical image data of a cross section of a living body that is a basis of a guide image. A plurality of tomographic image data are stored in advance. As this tomographic image data, for example, an image (hereinafter simply referred to as an MRI image or CT image) acquired by a three-dimensional MRI apparatus, an X-ray three-dimensional helical CT apparatus, or the like is used.

一般に、MRI画像やCT画像を取得するときの被検者の体位は仰臥位である。一方、医用器具である内視鏡や超音波内視鏡により検査や手術を行う場合には、被検者の体位は左側臥位であることが多い。   In general, the body position of a subject when acquiring an MRI image or CT image is the supine position. On the other hand, when an examination or an operation is performed using an endoscope or an ultrasonic endoscope which is a medical instrument, the subject's body posture is often left-sided.

仰臥位と、左側臥位とでは、体に対する重力の方向が異なるために、体腔内における臓器や血管の位置関係が変化してしまうことになる。したがって、被検者を仰臥位にして撮影されたCT画像やMRI画像に基づき作成されたガイド画像は、内視鏡検査により得られる内視鏡画像や超音波画像とは体腔内における臓器位置が異なることになってしまう。   Since the direction of gravity with respect to the body is different between the supine position and the left-sided position, the positional relationship between the organs and blood vessels in the body cavity changes. Therefore, the guide image created based on the CT image or MRI image taken with the subject in the supine position is different from the endoscopic image or ultrasonic image obtained by endoscopy in the position of the organ in the body cavity. It will be different.

また、上述した例に限らず、腹腔鏡や体外式の超音波診断装置を用いる場合にも、体位が仰臥位でない場合には、上述したような事情は同様に生じる。   Further, not only in the above-described example, but also in the case where a laparoscope or an extracorporeal ultrasonic diagnostic apparatus is used, if the body position is not the supine position, the above-described circumstances similarly occur.

さらに、例えば気管支内視鏡のチャンネルに処置具等を挿入して、内視鏡を挿入することができない細い気管支中で組織採取をする場合には、内視鏡画像による観察を行うことができないために、上述したガイド画像のみを観察しながら、処置具の先端位置を組織採取場所まで到達させる必要がある。従って、このような場合には、ガイド画像に高い精度が要求されるために、上述したような、実際の処置具の位置とガイド画像の位置とにずれが生じることは、望ましくない。   Furthermore, for example, when a treatment tool or the like is inserted into a channel of a bronchoscope and tissue is collected in a thin bronchus where the endoscope cannot be inserted, observation using an endoscopic image cannot be performed. Therefore, it is necessary to allow the distal end position of the treatment tool to reach the tissue collection site while observing only the above-described guide image. Therefore, in such a case, since high accuracy is required for the guide image, it is not desirable that the actual position of the treatment instrument and the position of the guide image be shifted as described above.

本発明は上記事情に鑑みてなされたものであり、被検者の体位によることなく、ガイド画像上の医用器具の位置を実際の医用器具の位置に高い精度で一致させることができる医用ガイドシステムを提供することを目的としている。   The present invention has been made in view of the above circumstances, and a medical guide system capable of matching the position of the medical instrument on the guide image with the position of the actual medical instrument with high accuracy without depending on the posture of the subject. The purpose is to provide.

本発明に係る医用ガイドシステムは、医用器具の位置及び配向を検出する検出手段と、前記医用器具を被検者に対して使用する以前に取得された、人体の臓器及び器官の少なくとも一方の解剖学的な位置情報を有する参照画像データを記憶する記憶手段と、前記検出手段により検出された前記医用器具の位置及び配向に基づき、前記参照画像データ中における前記医用機器の位置及び配向をリアルタイムに示すガイド画像を作成するガイド画像作成手段と、を具備する医用ガイドシステムであって、前記参照画像データは、前記医用器具を使用する際の前記被検者の体位と同じ体位において取得されたものであること特徴とする。   The medical guide system according to the present invention includes detection means for detecting the position and orientation of a medical instrument, and anatomy of at least one of a human organ and an organ acquired before the medical instrument is used on a subject. Based on the position and orientation of the medical device detected by the detecting means and the storage means for storing the reference image data having the geometrical position information, the position and orientation of the medical device in the reference image data in real time A guide image creation means for creating a guide image to be shown, wherein the reference image data is acquired in the same posture as the posture of the subject when the medical instrument is used. It is characterized by being.

以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態においては、検出手段により位置および方位を検出する医用器具が超音波内視鏡であって、医用ガイドシステムは該超音波内視鏡の操作の支援を行うガイド画像を生成するものとして、説明を行う。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following embodiments, the medical instrument that detects the position and orientation by the detection means is an ultrasonic endoscope, and the medical guide system generates a guide image that supports the operation of the ultrasonic endoscope. The explanation will be given.

(第1の実施形態)
以下、本発明の第1の実施形態について図面を参照して説明する。図1は医用ガイドシステムの構成を示すブロック図、図2は受信コイルの構成を示す図である。図3は、姿勢検出プレートの構成を示す斜視図である。図4は、マーカスティックの構成を示す斜視図である。図5は参照画像データの概要を示す図である。図6は、仰臥位における断層像の一例を示した図である。図7は、左側臥位における断層像の一例を示した図である。図8は、ボクセル空間の概要を示す図である。図9は、超音波断層像マーカを示す図である。図10は、超音波断層像マーカと抽出データとの合成データの様子を示す図である。図11は、医用ガイドシステムの動作を示すフローチャートである。図12は、送信アンテナ上に定義した直交座標軸O−xyzを示す図である。図13は、3次元ガイド画像作成・表示処理の詳細を示すフローチャートである。図14は、表示画面に超音波断層像と3次元ガイド画像とを並べて表示している様子を示す図である。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a medical guide system, and FIG. 2 is a diagram showing a configuration of a receiving coil. FIG. 3 is a perspective view showing the configuration of the attitude detection plate. FIG. 4 is a perspective view showing the configuration of the marker stick. FIG. 5 is a diagram showing an outline of reference image data. FIG. 6 is a diagram showing an example of a tomographic image in the supine position. FIG. 7 is a diagram showing an example of a tomographic image in the left lateral position. FIG. 8 is a diagram showing an outline of the voxel space. FIG. 9 is a diagram showing an ultrasonic tomographic image marker. FIG. 10 is a diagram showing the state of the combined data of the ultrasonic tomographic image marker and the extracted data. FIG. 11 is a flowchart showing the operation of the medical guide system. FIG. 12 is a diagram illustrating an orthogonal coordinate axis O-xyz defined on the transmission antenna. FIG. 13 is a flowchart showing details of the three-dimensional guide image creation / display process. FIG. 14 is a diagram illustrating a state in which the ultrasonic tomographic image and the three-dimensional guide image are displayed side by side on the display screen.

本実施形態の医用ガイドシステム1は、超音波内視鏡2と、超音波観測装置3と、位置配向算出装置4と、ガイド画像作成装置5と、キーボード6と、マウス7と、表示装置8と、光学観察装置10と、を備えてなり、医用器具としての超音波内視鏡2の体腔内への挿入を支援するためのガイドを行うシステムである。   A medical guide system 1 according to this embodiment includes an ultrasonic endoscope 2, an ultrasonic observation device 3, a position / orientation calculation device 4, a guide image creation device 5, a keyboard 6, a mouse 7, and a display device 8. And an optical observation device 10, and a system for performing a guide for supporting insertion of the ultrasonic endoscope 2 as a medical instrument into a body cavity.

超音波内視鏡2は超音波観測装置、光学観察装置、及び位置配向算出装置に接続されている。超音波内視鏡2は、体腔内に挿入する挿入部11と、術者が超音波内視鏡2を把持して操作を行う操作部12と、超音波内視鏡2を各機器に接続する図示しない接続コネクタとを具備して構成されている。超音波内視鏡2の挿入部11の先端に設けられたステンレス等の硬質な物質で構成された硬性部には、撮像装置13と、超音波振動子21と、受信コイル22が配設されている。   The ultrasonic endoscope 2 is connected to an ultrasonic observation apparatus, an optical observation apparatus, and a position / orientation calculation apparatus. The ultrasonic endoscope 2 connects the insertion unit 11 to be inserted into a body cavity, an operation unit 12 in which an operator holds and operates the ultrasonic endoscope 2, and the ultrasonic endoscope 2 to each device. And a connecting connector (not shown). An imaging device 13, an ultrasonic transducer 21, and a receiving coil 22 are disposed in a hard portion made of a hard material such as stainless steel provided at the distal end of the insertion portion 11 of the ultrasonic endoscope 2. ing.

撮像装置13は、体腔内を光学的に観察するための光学観察像を取得するための撮像素子、撮像素子の駆動回路、対物レンズ、及び照明装置等からなり、光学観察装置10に電気的に接続されている。   The imaging device 13 includes an imaging device for acquiring an optical observation image for optically observing the inside of a body cavity, a driving circuit for the imaging device, an objective lens, an illumination device, and the like, and is electrically connected to the optical observation device 10. It is connected.

超音波振動子21は、本実施形態においては、いわゆる電子ラジアル走査型の超音波振動子アレイであり、挿入部11の挿入軸に直交する面上において超音波ビームを放射方向に走査しながら送受することにより、超音波断層像を得るために必要な超音波信号を取得するものである。なお、以下において、超音波振動子21が走査を行う面を、走査面と称するものとする。また、硬性部に固定した正規直交基底(各方向の単位ベクトル)V、V12、V3を図1のように定義する。つまり、Vは硬性部の挿入軸方向と平行、すなわち走査面の法線方向ベクトルとし、超音波振動子21の所定の走査方向を12時方向とした場合に、12時方向に向くベクトルをV12、3時方向に向くベクトルをV3とする。   In the present embodiment, the ultrasonic transducer 21 is a so-called electronic radial scanning type ultrasonic transducer array, and transmits and receives an ultrasonic beam while scanning an ultrasonic beam in a radial direction on a plane orthogonal to the insertion axis of the insertion portion 11. By doing so, an ultrasonic signal necessary for obtaining an ultrasonic tomographic image is acquired. Hereinafter, the surface on which the ultrasonic transducer 21 performs scanning is referred to as a scanning surface. Further, orthonormal bases (unit vectors in each direction) V, V12, and V3 fixed to the rigid portion are defined as shown in FIG. That is, V is parallel to the insertion axis direction of the hard part, that is, a normal direction vector of the scanning plane, and when a predetermined scanning direction of the ultrasonic transducer 21 is 12 o'clock, a vector directed to the 12 o'clock direction is V12. A vector pointing in the 3 o'clock direction is assumed to be V3.

超音波振動子21は、超音波観測装置3に電気的に接続されている。超音波観測装置3は、超音波振動子21が送信する超音波ビームの強度、角度、フォーカス等を制御すると共に、超音波振動子21により取得された超音波信号から走査面における超音波断層像データを生成し、出力する装置である。   The ultrasonic transducer 21 is electrically connected to the ultrasonic observation apparatus 3. The ultrasonic observation apparatus 3 controls the intensity, angle, focus, and the like of the ultrasonic beam transmitted by the ultrasonic transducer 21 and also uses an ultrasonic signal acquired by the ultrasonic transducer 21 to obtain an ultrasonic tomographic image on the scanning plane. A device that generates and outputs data.

受信コイル22は、超音波振動子に対する位置関係が固定された状態で挿入部11の硬性部に配設されており、位置配向算出装置4に電気的に接続されている。図2に概略的に示すように、各単位ベクトルV、V12、V3をそれぞれ巻線軸とした3個のコイルを一体にしたものである。なお、ベクトルについては太字のイタリック体で表記するのが一般的であるが、本実施形態においては通常の英数字を用いて標記するものとする。   The receiving coil 22 is disposed in the rigid portion of the insertion portion 11 in a state where the positional relationship with respect to the ultrasonic transducer is fixed, and is electrically connected to the position / orientation calculation device 4. As schematically shown in FIG. 2, three coils having the unit vectors V, V12, and V3 as winding axes are integrated. In general, vectors are written in bold italics, but in this embodiment, they are written using ordinary alphanumeric characters.

位置検出手段である位置配向算出装置4は、上述したように超音波内視鏡2の挿入部11の先端部に配設された受信コイル22と電気的に接続されているとともに、送信アンテナ41、マーカスティック42及び姿勢検出プレート43に電気的に接続されている。また、位置配向算出装置4は、ガイド画像作成装置5の3次元ガイド画像作成回路54に電気的に接続されている。   As described above, the position / orientation calculation apparatus 4 serving as a position detection unit is electrically connected to the reception coil 22 disposed at the distal end of the insertion portion 11 of the ultrasonic endoscope 2 and also includes a transmission antenna 41. The marker stick 42 and the posture detection plate 43 are electrically connected. The position / orientation calculation device 4 is electrically connected to a three-dimensional guide image creation circuit 54 of the guide image creation device 5.

送信アンテナ41は、図示しない複数個の磁場発生用コイルを具備して構成されており、位置配向算出装置4からの出力に応じて交番磁場を発生する装置である。超音波内視鏡2の挿入部11の先端部に配設された受信コイル22は、送信アンテナ41により発生された交番磁場を検出し、位置電気信号に変換して位置配向算出装置4へ出力する。   The transmission antenna 41 includes a plurality of magnetic field generating coils (not shown), and is an apparatus that generates an alternating magnetic field in accordance with an output from the position / orientation calculation apparatus 4. The receiving coil 22 disposed at the distal end portion of the insertion portion 11 of the ultrasonic endoscope 2 detects an alternating magnetic field generated by the transmitting antenna 41, converts it into a position electric signal, and outputs it to the position orientation calculating device 4. To do.

また、詳しくは後述するが、マーカスティック42及び姿勢検出プレート43は、送信アンテナ41により発生された交番磁場を検出するためのコイルを具備して構成されおり、コイルが検出した交番磁場を位置電気信号に変換して位置配向算出装置4へ出力する。   In addition, as will be described in detail later, the marker stick 42 and the posture detection plate 43 are configured to include a coil for detecting an alternating magnetic field generated by the transmitting antenna 41, and the alternating magnetic field detected by the coil is applied to the position electricity. This is converted into a signal and output to the position / orientation calculation device 4.

位置配向算出装置4は、受信コイル22、マーカスティック42及び姿勢検出プレート43のそれぞれに配設されたコイルから出力される位置電気信号に基づいて、受信コイル22、マーカスティック42及び姿勢検出プレート43の、送信アンテナ41に対する位置及び配向を算出する構成を有するものである。   The position / orientation calculation device 4 is configured to receive the reception coil 22, the marker stick 42, and the posture detection plate 43 based on position electrical signals output from coils disposed in the reception coil 22, the marker stick 42, and the posture detection plate 43. The position and orientation with respect to the transmission antenna 41 are calculated.

図3に示すように、姿勢検出プレート43は、巻線軸が単軸となっているコイルにより構成された3個のプレートコイル43a、43b、43cを具備して構成されている。なお、図3は、プレートコイル43a、43b、43cを透視した状態で示しているものである。   As shown in FIG. 3, the posture detection plate 43 includes three plate coils 43 a, 43 b, and 43 c that are formed of coils having a single winding axis. FIG. 3 shows the plate coils 43a, 43b, and 43c as seen through.

ここで、姿勢検出プレート43に固定されている直交座標系O”−x”y”z”を、図3に示すように定義するものとする。すなわち、3個のプレートコイル43a、43b、43cのうち、プレートコイル43a、43bは、それぞれの巻線軸がx”軸と平行となり、また、残りのプレートコイル43cは、巻線軸がy”軸と平行となるように、それぞれ姿勢検出プレート43内に固定されている。なお、以下において、姿勢検出プレート43の基準位置Lを、3個のプレートコイル43a、43b、43cの重心に定義するものとする。   Here, the orthogonal coordinate system O ″ -x ″ y ″ z ″ fixed to the attitude detection plate 43 is defined as shown in FIG. That is, among the three plate coils 43a, 43b, 43c, the plate coils 43a, 43b have their winding axes parallel to the x "axis, and the remaining plate coils 43c have the winding axis of the y" axis. Each is fixed in the posture detection plate 43 so as to be parallel. In the following, the reference position L of the posture detection plate 43 is defined as the center of gravity of the three plate coils 43a, 43b, 43c.

姿勢検出プレート43は、図3における下面側が体表接触面43dとなっており、図示しない付属のベルトや負圧吸引等によって、体表接触面43dが被検者の体表に接するようにして固定することが可能に構成されている。   The posture detection plate 43 has a body surface contact surface 43d on the lower surface side in FIG. 3 so that the body surface contact surface 43d is in contact with the body surface of the subject by an attached belt (not shown) or negative pressure suction. It can be fixed.

図4に示すように、マーカスティック42は、巻線軸が単軸となっているコイルにより構成されたマーカコイル42aを具備して構成されている。マーカコイル42aは、巻線軸がマーカスティック42の長軸方向と一致するように、該マーカスティック42に対して固定されている。なお、マーカスティック42の基準位置Mを、マーカスティック42の先端に定義するものとする。   As shown in FIG. 4, the marker stick 42 includes a marker coil 42 a configured by a coil having a single winding axis. The marker coil 42 a is fixed to the marker stick 42 so that the winding axis coincides with the long axis direction of the marker stick 42. The reference position M of the marker stick 42 is defined at the tip of the marker stick 42.

ガイド画像作成装置5は、制御手段である制御部51と、記憶手段である参照画像記憶部52と、抽出手段である抽出回路53と、標本点位置補正手段、ガイド画像作成手段を兼ねた3次元ガイド画像作成回路54と、ボリュームメモリ57と、混合回路55と、表示回路56と、を具備して構成されている。   The guide image creation device 5 is a control unit 51 that is a control unit, a reference image storage unit 52 that is a storage unit, an extraction circuit 53 that is an extraction unit, a sample point position correction unit, and a guide image creation unit 3 A dimension guide image creation circuit 54, a volume memory 57, a mixing circuit 55, and a display circuit 56 are provided.

制御部51は、演算装置、記憶装置、入出力装置等を具備して構成され、ガイド画像作成装置5の動作を制御するものであり、ガイド画像作成装置5内の各部や各回路と図示しない信号線を介して電気的に接続されている。また、本実施形態においては、制御部51は、超音波観測装置3及び位置配向算出手段4の動作の制御も行うものである。   The control unit 51 includes an arithmetic device, a storage device, an input / output device, and the like, and controls the operation of the guide image creation device 5, and is not illustrated with each unit and each circuit in the guide image creation device 5. It is electrically connected via a signal line. In the present embodiment, the control unit 51 also controls the operations of the ultrasonic observation apparatus 3 and the position / orientation calculation means 4.

制御部51には、体位情報取得手段であるマウス7及びキーボード6が接続されており、制御部51は、マウス7及びキーボード6を介して入力される術者からの指示に基づいて、医用ガイドシステム1の動作を制御するものである。本実施形態においては、キーボード6には、術者が被検者の体位を入力するための体位選択キー6aが配設されている。   The control unit 51 is connected to a mouse 7 and a keyboard 6 which are body position information acquisition means, and the control unit 51 is based on an instruction from an operator input via the mouse 7 and the keyboard 6. The operation of the system 1 is controlled. In the present embodiment, the keyboard 6 is provided with a posture selection key 6a for the operator to input the posture of the subject.

なお、指示部としてのマウス7及びキーボード6は、入力装置の一例として挙げたものであり、本実施形態に限られるものではない。マウス7及びキーボード6は、例えばトラックボール、タッチパネル、ロータリースイッチ等であってもよい。   Note that the mouse 7 and the keyboard 6 as the instruction unit are given as examples of the input device, and are not limited to the present embodiment. The mouse 7 and the keyboard 6 may be, for example, a trackball, a touch panel, a rotary switch, or the like.

参照画像記憶部52は、大容量のデータを保存することができる例えばハードディスク
ドライブ、テープドライブ等の記録媒体を具備して構成されている。参照画像記憶部52は、人体の解剖学的な3次元の画像情報である参照画像データ60を記憶するものである。
The reference image storage unit 52 includes a recording medium such as a hard disk drive or a tape drive that can store a large amount of data. The reference image storage unit 52 stores reference image data 60 that is anatomical three-dimensional image information of the human body.

図5に示すように、参照画像データ60は、X線CT装置、MRI装置、超音波診断装置等により取得された、人体の断層像(スライスデータ)の集合により構成される。断層像は、人体の体軸に略直交する断面における画像データであり、例えばMDCT装置等により体軸方向に1mm間隔で取得された後に、各画素に対して、対応する器官別に色情報及び属性情報が付加されたものである。この複数の断層像を体軸方向に積層することにより、人体の解剖学的な3次元の画像データが構成される。   As shown in FIG. 5, the reference image data 60 is composed of a set of tomographic images (slice data) of a human body acquired by an X-ray CT apparatus, an MRI apparatus, an ultrasonic diagnostic apparatus, or the like. The tomographic image is image data in a cross section substantially orthogonal to the body axis of the human body. For example, after being acquired at 1 mm intervals in the body axis direction by an MDCT apparatus or the like, color information and attributes for each corresponding organ are obtained for each pixel. Information is added. By laminating the plurality of tomographic images in the body axis direction, anatomical three-dimensional image data of the human body is constructed.

例えば、図5に示すように、ある断層像60aにおいては、大動脈に対応する画素の集合に対しては赤色の色情報と大動脈の属性情報が付加されており、膵臓に対応する画素の集合に対しては水色の色情報と膵臓の属性情報が付加されている。   For example, as shown in FIG. 5, in a tomographic image 60a, red color information and aortic attribute information are added to a set of pixels corresponding to the aorta, and the set of pixels corresponding to the pancreas is added. On the other hand, light blue color information and pancreatic attribute information are added.

本実施形態においては、断層像の厚み方向、すなわち人体の体軸に平行な方向をz’軸として定義し、該z’軸は、頭部から脚部方向へ向かう方向を正の方向とする。また、参照画像データを構成する各断層像は一辺が所定の長さを有する正方形の画像データであり、断層像の各辺は水平及び鉛直となるように設定されているものとする。   In the present embodiment, the thickness direction of the tomogram, that is, the direction parallel to the body axis of the human body is defined as the z ′ axis, and the z ′ axis has the positive direction from the head toward the leg. . Each tomographic image constituting the reference image data is square image data having one side having a predetermined length, and each side of the tomographic image is set to be horizontal and vertical.

ここで、参照画像データ60において、所定の一つの断層像60aを脚部の方向から見て左下隅となる点を原点O’とし、断層像の横方向、すなわち水平方向をx’軸とし、断層像の縦方向、すなわち鉛直方向をy’軸として定義する。すなわち、3次元の画像情報である参照画像データ60において、固定された直交座標系O’−x’y’z’を定義する。   Here, in the reference image data 60, a point which becomes the lower left corner when viewing one predetermined tomographic image 60a from the direction of the leg is an origin O ′, and a horizontal direction of the tomographic image, that is, a horizontal direction is an x ′ axis. The longitudinal direction of the tomographic image, that is, the vertical direction is defined as the y ′ axis. That is, a fixed orthogonal coordinate system O′-x′y′z ′ is defined in the reference image data 60 that is three-dimensional image information.

また、本実施形態の参照画像記憶部52は、人体を異なる複数の体位とした状態でそれぞれ取得された、複数の体位別の参照画像データ60を記憶するものである。本実施形態においては、体位を仰臥位としてMDCT装置により取得された仰臥位参照画像データ61と、体位を左側臥位としてMDCT装置により取得された左側臥位参照画像データ62と、が参照画像記憶部52に記憶されている。   In addition, the reference image storage unit 52 according to the present embodiment stores a plurality of reference image data 60 for each body position acquired in a state where the human body is in a plurality of different body positions. In this embodiment, the supine position reference image data 61 acquired by the MDCT apparatus with the body position as the supine position and the left supine reference image data 62 acquired by the MDCT apparatus with the body position as the left supine position are stored as reference images. Stored in the unit 52.

また、複数の異なる体位における参照画像データには、各々を取得した際の人体の体位を表す属性情報である体位情報が付加されている。なお、体位情報は、参照画像データ内の例えば先頭部分に直接格納されるものであってもよいし、参照画像データとは別に参照画像記憶部52に記憶された制御リスト内において、個々の参照画像データと紐付けされて記述されるものであってもよい。   In addition, body position information, which is attribute information representing the body position of each human body, is added to the reference image data in a plurality of different body positions. The body position information may be stored directly in the reference image data, for example, in the head portion, or in the control list stored in the reference image storage unit 52 separately from the reference image data. It may be described in association with image data.

図6及び図7に、仰臥位参照画像データ61と、左側臥位参照画像データ62の例を示す。図6及び図7は、仰臥位参照画像データ61及び左側臥位参照画像データ62の、人体の体軸方向における位置が同位置、すなわちz’軸座標が同一の断層像を、脚部側から見たものを示している。図6及び図7において、矢印G方向が、仰臥位参照画像データ61及び左側臥位参照画像データ62をそれぞれ取得した際の重力方向、すなわち鉛直下向きである。   6 and 7 show examples of the supine position reference image data 61 and the left-side position reference image data 62. 6 and 7 show tomographic images of the supine reference image data 61 and the left-side prone reference image data 62 at the same position in the body axis direction of the human body, that is, the same z′-axis coordinates, from the leg side. It shows what you see. 6 and 7, the arrow G direction is the direction of gravity when the supine position reference image data 61 and the left position reference image data 62 are acquired, that is, vertically downward.

なお、図6及び図7においては、大動脈71、下大静脈72、門脈73、膵臓74、胆嚢75のみを抽出して示している。図6及び図7に示すように、人体が仰臥位である場合(図6)と左側臥位である場合(図7)とにおいて、器官の位置を比較すると体位により器官の位置が異なっていることがわかる。これは体位が異なることにより、各器官へ働く重力の方向が異なるからである。具体的には、仰臥位で撮像された仰臥位参照画像データ61に対して、左側臥位で撮像された左側臥位参照画像データ62における各器官は、重力の影響により脚部側から見て時計回り方向に回転するように変位する。   6 and 7, only the aorta 71, the inferior vena cava 72, the portal vein 73, the pancreas 74, and the gallbladder 75 are extracted and shown. As shown in FIGS. 6 and 7, when the human body is in the supine position (FIG. 6) and the left-side recumbent position (FIG. 7), the position of the organ differs depending on the body position when the position of the organ is compared. I understand that. This is because the direction of gravity acting on each organ differs depending on the body position. Specifically, with respect to the supine reference image data 61 imaged in the supine position, each organ in the left supine reference image data 62 imaged in the left supine position is viewed from the leg side due to the influence of gravity. Displaces to rotate clockwise.

ボリュームメモリ57は、大容量のデータを格納可能に構成されたメモリである。このボリュームメモリ57が備える記憶領域の少なくとも一部には、ボクセル空間が割り当てられている。ボクセル空間は、図8に概略的に示すように、参照画像データ60に設定した直交座標軸O’−x’y’z’に対応するアドレスを持つメモリセル(以下、ボクセル)から構成されている。   The volume memory 57 is a memory configured to store a large amount of data. A voxel space is allocated to at least a part of the storage area of the volume memory 57. As schematically shown in FIG. 8, the voxel space is composed of memory cells (hereinafter referred to as voxels) having addresses corresponding to the orthogonal coordinate axes O′-x′y′z ′ set in the reference image data 60. .

抽出回路53は、参照画像記憶部52に記憶された複数の参照画像データ60のうちの、制御部51によって指定された所定の参照画像データ60から、ガイド画像を作成するための関心器官のデータを抽出し、ボリュームメモリ57のボクセル空間に抽出データとして書き出すものである。   The extraction circuit 53 is data of an organ of interest for creating a guide image from predetermined reference image data 60 designated by the control unit 51 among a plurality of reference image data 60 stored in the reference image storage unit 52. Are extracted and written as extracted data in the voxel space of the volume memory 57.

3次元ガイド画像作成回路54は、詳しくは後述するが、参照画像データ60上における所定の特徴点P’と、該特徴点P’に解剖学的に対応する被検者の体表もしくは体腔表面上における標本点Pとの相関関係の情報と、受信コイル22、マーカスティック42及び姿勢検出プレート43の送信アンテナ41に対する位置及び配向の情報と、に基づいて、図7に示すような超音波断層像マーカ81を生成し、該超音波断層像マーカ81をボリュームメモリ57のボクセル空間に書き出すものである。ここで、超音波断層像マーカ81とは、超音波内視鏡2の挿入部11の先端部に配設された、超音波振動子21のラジアル走査により得られる超音波断層像の位置と配向を示すための指標である。   As will be described in detail later, the three-dimensional guide image creation circuit 54 has a predetermined feature point P ′ on the reference image data 60 and the body surface or body cavity surface of the subject corresponding anatomically to the feature point P ′. Based on the information on the correlation with the sample point P above and the information on the position and orientation of the receiving coil 22, the marker stick 42 and the posture detection plate 43 with respect to the transmitting antenna 41, an ultrasonic tomography as shown in FIG. An image marker 81 is generated, and the ultrasonic tomographic image marker 81 is written in the voxel space of the volume memory 57. Here, the ultrasonic tomographic image marker 81 is the position and orientation of the ultrasonic tomographic image obtained by radial scanning of the ultrasonic transducer 21 disposed at the distal end portion of the insertion portion 11 of the ultrasonic endoscope 2. It is an index for indicating.

図7に示すように、本実施形態においては、超音波断層像マーカ81は、ボクセル空間上において矩形の平面形状を有するものであり、この平面がボクセル空間上における超音波振動子21の走査面に対応するものである。また、超音波断層像マーカ81には、超音波振動子21の走査の12時方向を示す12時方向マーカξが付される。   As shown in FIG. 7, in this embodiment, the ultrasonic tomographic image marker 81 has a rectangular planar shape on the voxel space, and this plane is the scanning plane of the ultrasonic transducer 21 on the voxel space. It corresponds to. Further, a 12 o'clock direction marker ξ indicating the 12 o'clock direction of scanning of the ultrasonic transducer 21 is attached to the ultrasonic tomographic image marker 81.

抽出回路53により関心器官の抽出データが書き出されたボクセル空間に、超音波断層像マーカ81が書き出されることにより、合成データが生成される。合成データは、図10に示すように、関心器官と、超音波断層像の位置と配向を示す超音波断層像マーカとがが重畳されたものである。図10には、膵臓74、大動脈71、十二指腸76、上腸間膜静脈77、が関心器官として術者により指定された場合を示している。   The ultrasonic tomographic image marker 81 is written in the voxel space in which the extraction data of the organ of interest is written by the extraction circuit 53, thereby generating synthesized data. As shown in FIG. 10, the synthesized data is obtained by superposing an organ of interest and an ultrasonic tomographic image marker indicating the position and orientation of the ultrasonic tomographic image. FIG. 10 shows a case where the operator designates the pancreas 74, the aorta 71, the duodenum 76, and the superior mesenteric vein 77 as an organ of interest.

また、3次元ガイド画像作成回路54は、ボリュームメモリ57内のボクセル空間から合成データを読み出し、該合成データに対して陰面消去、陰影付加、視線変換に伴う座標変換等の公知の3次元画像処理を施し、3次元ガイド画像データを作成する構成を有する。   The three-dimensional guide image creation circuit 54 reads the composite data from the voxel space in the volume memory 57, and performs well-known three-dimensional image processing such as shadow removal, shading addition, and coordinate conversion accompanying line-of-sight conversion on the composite data. To create 3D guide image data.

混合回路55は、超音波観測装置3から出力された超音波断層像データと、3次元ガイド画像作成回路54から出力された3次元ガイド画像データとを合成した混合データを生成するものである。   The mixing circuit 55 generates mixed data obtained by synthesizing the ultrasonic tomographic image data output from the ultrasonic observation apparatus 3 and the three-dimensional guide image data output from the three-dimensional guide image creation circuit 54.

表示回路56は、混合回路55から出力された混合データをビデオ信号に変換し、表示装置8に出力するものである。また、表示回路56は、光学観察装置10から出力された光学像データをビデオ信号に変換し、表示装置8へ出力する構成も有する。   The display circuit 56 converts the mixed data output from the mixing circuit 55 into a video signal and outputs the video signal to the display device 8. The display circuit 56 also has a configuration in which the optical image data output from the optical observation device 10 is converted into a video signal and output to the display device 8.

表示装置8は、ブラウン管モニタ、液晶モニタ等の画像表示部を具備し、該画像表示部にビデオ信号に基づいた画像を表示する構成を有するものである。   The display device 8 includes an image display unit such as a cathode ray tube monitor or a liquid crystal monitor, and has a configuration for displaying an image based on a video signal on the image display unit.

次に、上述した構成を有する本実施形態の医用ガイドシステム1の動作について説明する。図11は、医用ガイドシステムの動作を示すフローチャートである。   Next, the operation of the medical guide system 1 of the present embodiment having the above-described configuration will be described. FIG. 11 is a flowchart showing the operation of the medical guide system.

なお、以下においては、被検者の体位が左側臥位である状態において、被検者の体腔内に超音波内視鏡2の挿入部11を挿入して診断を行うものとし、診断を行う際の関心器官として膵臓、大動脈、上腸間膜静脈、十二指腸を抽出してガイド画像に表示する場合を例に挙げて説明する。   In the following description, the diagnosis is performed by inserting the insertion portion 11 of the ultrasonic endoscope 2 into the body cavity of the subject in a state where the subject's body is in the left lateral position. A case where the pancreas, the aorta, the superior mesenteric vein, and the duodenum are extracted and displayed on the guide image will be described as an example.

まず、制御部51は、被検者の診断時の体位情報を取得する(ステップS01)。ここで、制御部51は、体位の選択を術者に促す表示を表示装置8を介して行い、術者が、表示装置8上の選択肢から体位情報取得手段であるキーボード6の体位選択キー6aを操作することにより、体位情報が制御部51に入力される。本実施形態では、術者が、被検者の体位が左側臥位であることを、体位選択キー6aを介して、体位情報として制御部51に入力する。   First, the control unit 51 acquires body position information at the time of diagnosis of the subject (step S01). Here, the control unit 51 performs a display for prompting the operator to select the body position via the display device 8, and the operator selects the body position selection key 6 a of the keyboard 6 which is body position information acquisition means from options on the display device 8. Is operated to input the posture information to the control unit 51. In the present embodiment, the surgeon inputs to the control unit 51 as body position information via the body position selection key 6a that the subject's body position is the left-side position.

次に、制御部51は、診断を行う際の関心器官の種類を示す関心器官情報を取得する(ステップS02)。ここで、制御部51は、術者に人体の各器官の選択を促す表示を表示装置8に提示し、術者が、表示装置8に表示された各器官の選択肢から、一つ又は複数の関心器官をキーボード6又はマウス7を操作することにより指定することにより、関心器官情報が制御部51に入力される。本実施形態では、上述のように関心器官として膵臓、大動脈、上腸間膜静脈、十二指腸が指定される。   Next, the control unit 51 acquires organ-of-interest information indicating the type of organ of interest at the time of diagnosis (step S02). Here, the control unit 51 presents a display that prompts the operator to select each organ of the human body on the display device 8, and the operator selects one or more of the organ options displayed on the display device 8. By specifying the organ of interest by operating the keyboard 6 or the mouse 7, the organ of interest information is input to the control unit 51. In the present embodiment, the pancreas, aorta, superior mesenteric vein, and duodenum are designated as the organs of interest as described above.

なお、ステップS02における、表示装置8に表示される関心器官の選択画面は、人体の断層像が2次元画像又は3次元画像により表示されるものであって、術者が該断層像中から関心器官を視覚的に選択するものであってもよいし、人体の各器官がリストとして羅列されて表示されるものであって、術者が該リストから選択を行うものであってもよい。   Note that the organ of interest selection screen displayed on the display device 8 in step S02 displays a tomographic image of the human body as a two-dimensional image or a three-dimensional image, and the operator is interested in the tomographic image from the tomographic image. The organ may be selected visually, or the organs of the human body may be listed and displayed as a list, and the operator may select from the list.

次に、抽出回路53は、参照画像記憶部52に記憶された複数の異なる体位における参照画像データ60のうちから、入力された体位情報に対応する参照画像データを読み出す(ステップS03)。本実施形態においては、体位情報が左側臥位であることから、抽出回路53は、体位情報と同一の体位において取得された左側臥位参照画像データ62を画像記憶部52から読み出す。   Next, the extraction circuit 53 reads the reference image data corresponding to the input body posture information from the reference image data 60 in a plurality of different body postures stored in the reference image storage unit 52 (step S03). In this embodiment, since the posture information is the left-side position, the extraction circuit 53 reads the left-side position reference image data 62 acquired in the same position as the position information from the image storage unit 52.

次に、抽出回路53は、読み出した左側臥位参照画像データ62から、入力された関心器官情報に対応する画素を抽出し、ボリュームメモリ57のボクセル空間に抽出データとして書き出す(ステップS04)。すなわち、抽出回路53は、抽出データを各々の画素の直交座標軸O’−x’y’z’上の座標に対応したアドレスを持つボクセルへ書き出す。ここで、抽出回路53は、抽出したの各画素に対応するボクセルには、その画素の色情報を、また、抽出した画素の間に対応するボクセルにはその画素を補間したデータを、それ以外のボクセルには0(透明)を割り当てる。こうして抽出回路53は、ボリューム空間の全てのボクセルにデータを割り当てたボリュームデータを構築する。   Next, the extraction circuit 53 extracts pixels corresponding to the input organ-of-interest information from the read left lateral reference image data 62, and writes it as extracted data in the voxel space of the volume memory 57 (step S04). That is, the extraction circuit 53 writes the extracted data to voxels having addresses corresponding to the coordinates on the orthogonal coordinate axes O′-x′y′z ′ of the respective pixels. Here, the extraction circuit 53 stores the color information of the pixel in the voxel corresponding to each extracted pixel, the data obtained by interpolating the pixel in the voxel corresponding between the extracted pixels, and the others. 0 (transparent) is assigned to the voxel. Thus, the extraction circuit 53 constructs volume data in which data is assigned to all voxels in the volume space.

本実施形態では、関心器官として指定された、膵臓、大動脈、上腸間膜静脈、十二指腸にそれぞれ対応するボクセルに、水色、赤、紫、黄の色情報が割り当てられる。   In the present embodiment, light blue, red, purple, and yellow color information is assigned to voxels corresponding to the pancreas, aorta, superior mesenteric vein, and duodenum that are designated as organs of interest.

.

次に、3次元ガイド画像作成回路54は、術者による指示入力により、または自動的な算出により、ボリュームデータにおける体表上又は体腔内の複数の特徴点を設定し、それぞれの特徴点の直交座標軸O’−x’y’z’上の座標を取得する(ステップS05)。   Next, the three-dimensional guide image creation circuit 54 sets a plurality of feature points on the body surface or in the body cavity in the volume data by an instruction input by an operator or by automatic calculation, and orthogonality of each feature point is set. The coordinates on the coordinate axis O′-x′y′z ′ are acquired (step S05).

本実施形態においては、ボリュームデータにおける体表上の4点の特徴点として、骨格上の特徴のある箇所である、剣状突起(xiphoid process)P1’、骨盤(pelvis)の左側の左上前腸骨棘(left anterior superior iliac spine)P2’、骨盤の右側の右上前腸骨棘(right anterior superior iliac spine)P3’、左右の上前腸骨棘の中間で脊椎上の腰椎椎体棘突起(spinous process of vertebral body)P4’が設定されるものとする。これらの4点の特徴点P1’〜P4’は、ボリュームデータに上おける点であり、4点の特徴点P1’〜P4’の直交座標軸O’−x’y’z’上の座標が、3次元ガイド画像作成回路54によって取得される。   In this embodiment, as the four feature points on the body surface in the volume data, the xiphoid process P1 ′, which is a characteristic part on the skeleton, the upper left foregut on the left side of the pelvis (pelvis) Left anterior superior iliac spine P2 ', right anterior superior iliac spine P3' on the right side of the pelvis (right anterior superior iliac spine) P3 ' Spinous process of vertebral body) P4 'is set. These four feature points P1 ′ to P4 ′ are points on the volume data, and the coordinates of the four feature points P1 ′ to P4 ′ on the orthogonal coordinate axes O′-x′y′z ′ are Obtained by the three-dimensional guide image creation circuit 54.

次に、3次元ガイド画像作成回路54は、被検者の体表上又は体腔内における、上記ステップS05において設定した複数の特徴点にそれぞれ解剖学的に対応した、複数の標本点の実空間上における座標を取得する(ステップS06)。具体的には、被検者に装着された姿勢検出プレート43の基準位置L、及び術者がマーカスティック42の基準位置Mで被検者の体表上の点を指示することにより、3次元ガイド画像作成回路54は、実空間上に固定された状態で定義される直交座標軸O−xyz上の標本点の座標を位置配向算出装置4により算出し取得する。   Next, the three-dimensional guide image creation circuit 54 creates a real space of a plurality of sample points respectively corresponding to the plurality of feature points set in step S05 on the body surface or body cavity of the subject. The upper coordinates are acquired (step S06). Specifically, when the operator designates a point on the body surface of the subject at the reference position L of the posture detection plate 43 attached to the subject and the reference position M of the marker stick 42, the three-dimensional The guide image creation circuit 54 calculates and acquires the coordinates of the sample point on the orthogonal coordinate axis O-xyz defined in a fixed state in the real space.

本実施形態においては、ステップS05において設定した特徴点に対応して、標本点を被検者の骨格上の特徴のある箇所である、剣状突起P1、左上前腸骨棘P2、右上前腸骨棘P3、腰椎椎体棘突起P4の直交座標軸O−xyz上の座標を取得するものである。   In the present embodiment, corresponding to the feature points set in step S05, the sample points are characteristic locations on the subject's skeleton, ie, the xiphoid process P1, the upper left anterior iliac spine P2, the upper right foregut. The coordinates on the orthogonal coordinate axis O-xyz of the osteophyte P3 and the lumbar spine spinous process P4 are acquired.

姿勢検出プレート43は、被検者の体表上において基準位置Lが剣状突起P1の位置に重なるようにして、被検者の体表に対して固定される。   The posture detection plate 43 is fixed with respect to the body surface of the subject so that the reference position L overlaps the position of the xiphoid protrusion P1 on the body surface of the subject.

図12に示すように、送信アンテナ41上に実空間上の座標の原点Oを定義する。位置配向算出装置4は、送信アンテナ41により交番磁場を発生させ、交番磁場に応じて3つのプレートコイル43a〜43cから出力される位置電気信号に基づいて、姿勢検出プレート43の直交座標軸O−xyz上における配向と基準位置Lの位置を算出する。これにより、標本点である剣状突起P1の直交座標軸O−xyz上の座標が、3次元ガイド画像作成回路54により取得される。なお、実空間上の座標の原点Oは、受信コイル41上でなくともよく、受信コイル41に対して位置関係が固定された点であれば良い。   As shown in FIG. 12, the origin O of coordinates in real space is defined on the transmission antenna 41. The position / orientation calculation device 4 generates an alternating magnetic field by the transmission antenna 41, and based on the position electrical signals output from the three plate coils 43a to 43c in accordance with the alternating magnetic field, the orthogonal coordinate axis O-xyz of the attitude detection plate 43. The orientation above and the position of the reference position L are calculated. Thereby, the coordinate on the orthogonal coordinate axis O-xyz of the sword-like projection P1 which is a sample point is acquired by the three-dimensional guide image creation circuit 54. Note that the origin O of the coordinates in the real space does not have to be on the reception coil 41, but may be any point as long as the positional relationship with the reception coil 41 is fixed.

また、位置配向算出装置4は、送信アンテナ41により交番磁場を発生させ、交番磁場に応じてマーカコイル42aから出力される位置電気信号に基づいて、マーカスティック42の基準位置Mの直交座標軸O−xyz上における座標を算出する。この動作を、術者が、左上前腸骨棘P2、右上前腸骨棘P3、腰椎椎体棘突起P4にそれぞれマーカスティック42の基準位置Mを接触させた状態において行うことによって、標本点である左上前腸骨棘P2、右上前腸骨棘P3、腰椎椎体棘突起P4の直交座標軸O−xyz上の座標が、3次元ガイド画像作成回路54により取得される。   Further, the position / orientation calculation device 4 generates an alternating magnetic field by the transmitting antenna 41, and based on the position electrical signal output from the marker coil 42a in accordance with the alternating magnetic field, the orthogonal coordinate axis O− of the reference position M of the marker stick 42 Coordinates on xyz are calculated. By performing this operation in a state where the reference position M of the marker stick 42 is brought into contact with the left upper anterior iliac spine P2, the upper right anterior iliac spine P3, and the lumbar spine spinous process P4, respectively, at the sample point. The coordinates on the orthogonal coordinate axis O-xyz of a certain left upper anterior iliac spine P2, upper right anterior iliac spine P3, and lumbar spine spinous process P4 are acquired by the three-dimensional guide image creation circuit 54.

次に、3次元ガイド画像作成回路54は、直交座標軸O−xyz上における4点の標本点P1〜P4の座標のデータと、直交座標軸O−xyz上における姿勢検出プレート43の座標及び配向のデータと、及びボクセル空間すなわち直交座標軸O’−x’y’z’上におけるボリュームデータの4点の特徴点P1’〜P4’の座標データとから、直交座標軸O−xyz上において表現された実空間における位置及び配向を、直交座標軸O’−x’y’z’上において表現されたボクセル空間における位置及び配向に写像する変換式を算出する(ステップS07)。   Next, the three-dimensional guide image creation circuit 54 performs coordinate data of the four sample points P1 to P4 on the orthogonal coordinate axis O-xyz, and coordinates and orientation data of the posture detection plate 43 on the orthogonal coordinate axis O-xyz. And the real space expressed on the orthogonal coordinate axis O-xyz from the voxel space, that is, the coordinate data of the four feature points P1 ′ to P4 ′ of the volume data on the orthogonal coordinate axis O′-x′y′z ′. A conversion formula that maps the position and orientation in to the position and orientation in the voxel space expressed on the orthogonal coordinate axis O′-x′y′z ′ is calculated (step S07).

以上に説明した、医用ガイドシステム1におけるステップS01〜S07の処理は、超音波内視鏡2の挿入の支援を行うためのガイド画像を作成し表示するための初期設定として実施されるものである。   The processing in steps S01 to S07 in the medical guide system 1 described above is performed as an initial setting for creating and displaying a guide image for assisting insertion of the ultrasonic endoscope 2. .

次に、医用ガイドシステム1は、詳しくは図13のフローチャートを参照して説明するガイド画像作成表示処理を実施する(ステップS08)。ガイド画像作成表示処理について、以下に説明する。   Next, the medical guide system 1 performs a guide image creation / display process, which will be described in detail with reference to the flowchart of FIG. 13 (step S08). The guide image creation / display process will be described below.

まず、制御部51は、術者からの指示に応じて超音波観測装置3を制御し、超音波内視鏡2の超音波振動子21によるラジアル走査を開始する(ステップS81)。このラジアル走査に応じて、混合回路55には、超音波観測装置3から超音波断層像データが逐次入力される。   First, the control unit 51 controls the ultrasonic observation apparatus 3 in accordance with an instruction from the operator, and starts radial scanning by the ultrasonic transducer 21 of the ultrasonic endoscope 2 (step S81). In accordance with this radial scanning, ultrasonic tomographic image data is sequentially input from the ultrasonic observation apparatus 3 to the mixing circuit 55.

超音波振動子22が1回のラジアル走査をして、超音波観測装置3が超音波断層像デー
タを作成し、超音波断層像データが超音波観測装置3から混合回路55に入力される都度
に、制御部51は、3次元ガイド画像作成回路54に指令を出す。3次元ガイド画像作
成回路54は、この指令を受けると、位置配向算出装置4から位置配向データを取得する(ステップS82)。
Each time the ultrasonic transducer 22 performs one radial scan, the ultrasonic observation device 3 creates ultrasonic tomographic image data, and the ultrasonic tomographic image data is input from the ultrasonic observation device 3 to the mixing circuit 55. In addition, the control unit 51 issues a command to the three-dimensional guide image creation circuit 54. Upon receiving this instruction, the three-dimensional guide image creation circuit 54 acquires position / orientation data from the position / orientation calculation device 4 (step S82).

ステップS55において、1回のラジアル走査ごとに取得される位置配向データは、受信コイル22の直交座標軸O−xyz上における座標及び配向のデータと、姿勢検出プレート43の直交座標軸O−xyz上における座標及び配向のデータである。   In step S55, the position / orientation data acquired for each radial scan includes coordinates and orientation data on the orthogonal coordinate axis O-xyz of the receiving coil 22 and coordinates on the orthogonal coordinate axis O-xyz of the attitude detection plate 43. And orientation data.

次に、3次元ガイド画像作成回路54は、姿勢検出プレート43の座標及び配向のデータの変化から、被検者の体位の変化により移動する標本点P0〜P4の位置を補正する(ステップS83)。   Next, the three-dimensional guide image creation circuit 54 corrects the positions of the sample points P0 to P4 that move due to the change in the posture of the subject from the change in the coordinate and orientation data of the posture detection plate 43 (step S83). .

次に、3次元ガイド画像作成回路54は、超音波断層像マーカ81を生成する(ステップS84)。具体的には、まず、3次元ガイド画像作成回路54は、受信コイル22の直交座標軸O−xyz上における座標及び配向のデータに基づいて、直交座標軸O−xyz上におけるラジアル走査面の位置及び配向を算出する。すなわち、標本点P0〜P4とラジアル走査面との関係が求められる。そして、この標本点P0〜P4とラジアル走査面との関係を、図11のステップS07において算出した変換式により直交座標軸O’−x’y’z’上において表現されたボクセル空間へ写像することにより、直交座標軸O’−x’y’z’上におけるラジアル走査面の位置及び配向を表す超音波断層像マーカ81が生成される。   Next, the three-dimensional guide image creation circuit 54 generates an ultrasonic tomographic image marker 81 (step S84). Specifically, first, the three-dimensional guide image creation circuit 54 determines the position and orientation of the radial scanning plane on the orthogonal coordinate axis O-xyz based on the coordinate and orientation data on the orthogonal coordinate axis O-xyz of the receiving coil 22. Is calculated. That is, the relationship between the sample points P0 to P4 and the radial scanning plane is obtained. Then, the relationship between the sample points P0 to P4 and the radial scanning plane is mapped to the voxel space expressed on the orthogonal coordinate axis O′-x′y′z ′ by the conversion formula calculated in step S07 in FIG. As a result, the ultrasonic tomographic image marker 81 representing the position and orientation of the radial scanning plane on the orthogonal coordinate axis O′-x′y′z ′ is generated.

次に、3次元ガイド画像作成回路54は、超音波断層像マーカ81をボリュームメモリ57のボクセル空間の対応するボクセルに書き出す(ステップS85)。ここで、ボクセル空間には、既に抽出回路53により抽出データが書き込まれているため、該抽出データと超音波断層像マーカ81とは合成され、図10に示したような合成データが生成される。   Next, the three-dimensional guide image creation circuit 54 writes the ultrasonic tomographic image marker 81 into the corresponding voxel in the voxel space of the volume memory 57 (step S85). Here, since the extraction data is already written in the voxel space by the extraction circuit 53, the extraction data and the ultrasonic tomographic image marker 81 are combined to generate combined data as shown in FIG. .

次に、3次元ガイド画像作成回路54は、ボリュームメモリ57のボクセル空間から合成データを読み出す。このとき、3次元ガイド画像作成回路54は、読み出した直後に、ボクセル空間から超音波断層像マーカ81を消去する(ステップS86)。   Next, the three-dimensional guide image creation circuit 54 reads the composite data from the voxel space of the volume memory 57. At this time, the three-dimensional guide image creation circuit 54 deletes the ultrasonic tomographic image marker 81 from the voxel space immediately after the reading (step S86).

次に、3次元ガイド画像作成回路54は、合成データに基づいて、陰面消去、陰影付加、視線変換に伴う座標変換等の公知の3次元画像処理を加え、3次元ガイド画像データを作成する。その後、3次元ガイド画像作成回路54は、3次元ガイド画像データを混合回路55へ出力する(ステップS87)。   Next, the three-dimensional guide image creation circuit 54 performs known three-dimensional image processing such as shadow removal, shading addition, coordinate transformation accompanying line-of-sight transformation, and the like based on the composite data to create three-dimensional guide image data. Thereafter, the three-dimensional guide image creation circuit 54 outputs the three-dimensional guide image data to the mixing circuit 55 (step S87).

次に、混合回路55は、超音波観測装置3から入力される超音波断層像データと、3次元ガイド画像作成回路63から入力される3次元ガイド画像データと、を並べて、混合データとして表示回路56へ出力する。表示回路56は、混合データをビデオ信号に変換し、表示装置8へ出力する。表示装置8は、図14に示すように、超音波断層像82と、3次元ガイド画像83と、を並べて表示する(ステップS88)。3次元ガイド画像83上で表現される各器官は、左側臥位参照画像データ62で器官別に色分けされた元々の色を用いて表示される。   Next, the mixing circuit 55 arranges the ultrasonic tomographic image data input from the ultrasonic observation apparatus 3 and the three-dimensional guide image data input from the three-dimensional guide image creation circuit 63, and displays the mixed data as a display circuit. To 56. The display circuit 56 converts the mixed data into a video signal and outputs it to the display device 8. As shown in FIG. 14, the display device 8 displays the ultrasonic tomographic image 82 and the three-dimensional guide image 83 side by side (step S88). Each organ expressed on the three-dimensional guide image 83 is displayed using the original color that is color-coded for each organ in the left-side position reference image data 62.

制御部51は、ステップS82からステップS88の処理を行っている間に、術者がラジアル走査の終了を指示しているか否かを確認している(ステップS89)。ここで、術者がラジアル走査の終了を指示していない場合には、上記ステップS82へ戻って、上述した処理を繰り返し行う。   While performing the processing from step S82 to step S88, the control unit 51 confirms whether or not the operator has instructed the end of the radial scanning (step S89). Here, if the surgeon has not instructed the end of the radial scan, the process returns to step S82 and the above-described processing is repeated.

一方、術者がラジアル走査の終了を指示した場合には、制御部51は、上記処理を終了させて、ラジアル走査の制御オフを指令するための走査制御信号を超音波観測装置3へ出力し、超音波振動子22によるラジアル走査を終了する。   On the other hand, when the surgeon instructs the end of the radial scan, the control unit 51 ends the above process and outputs a scan control signal for instructing the radial scan control off to the ultrasound observation apparatus 3. Then, the radial scanning by the ultrasonic transducer 22 is finished.

以上に説明したように、図13のフローチャートに示すガイド画像作成表示処理においては、ステップS82からステップS88の処理を繰り返し実行することにより、超音波振動子22が1回のラジアル走査をして超音波観測装置3が超音波断層像データを作成し、超音波断層像データが超音波観測装置3から混合回路55に入力する都度に、新たな3次元ガイド画像83が作成され、新たな超音波断層像82とともに表示装置8の表示画面にリアルタイムに更新されつつ表示される。   As described above, in the guide image creation / display process shown in the flowchart of FIG. 13, the ultrasonic transducer 22 performs one radial scan and performs super-scanning by repeatedly executing the processes from step S82 to step S88. Each time the ultrasonic observation device 3 creates ultrasonic tomographic image data and the ultrasonic tomographic image data is input from the ultrasonic observation device 3 to the mixing circuit 55, a new three-dimensional guide image 83 is created, and new ultrasonic waves are generated. The tomographic image 82 is displayed on the display screen of the display device 8 while being updated in real time.

すなわち、術者の超音波内視鏡2の用手的な操作に伴うラジアル走査面の移動とともに、3次元ガイド画像83の超音波断層像マーカ81が例えば図14の白抜き矢印84に示すように抽出データに対して移動して行く。   That is, the ultrasonic tomographic image marker 81 of the three-dimensional guide image 83 is, for example, as indicated by the white arrow 84 in FIG. 14 along with the movement of the radial scanning plane accompanying the manual operation of the ultrasonic endoscope 2 by the operator. Go to the extracted data.

これにより、本実施形態に係る医用ガイドシステム1を用いることで、術者は、超音波内視鏡2を操作しながら、超音波断層像で現在観察しているのが、解剖学的に被検者のどの位置であるのかを、例えば器官別に色分けされた3次元ガイド画像により認識することができるのである。   Thus, by using the medical guide system 1 according to the present embodiment, the operator is observing the ultrasonic tomogram while operating the ultrasonic endoscope 2 so that the anatomically The position of the examiner can be recognized by, for example, a three-dimensional guide image color-coded for each organ.

以上のような構成を有する本実施形態の医用ガイドシステム1は、予め取得された参照画像データ60上において、医用器具である超音波内視鏡2に位置及び配向をリアルタイムに表示するガイド画像を作成する構成を有するものであって、特に参照画像データは、超音波内視鏡2を使用する際の被検者の体位である左側臥位において取得された左側臥位参照画像データ62が用いられるものである。   The medical guide system 1 according to the present embodiment having the above-described configuration displays a guide image for displaying the position and orientation in real time on the ultrasonic endoscope 2 that is a medical instrument on the reference image data 60 acquired in advance. In particular, the reference image data is the left-side-down position reference image data 62 acquired in the left-side position, which is the posture of the subject when using the ultrasonic endoscope 2. It is

したがって、本実施形態によれば、医用器具である超音波内視鏡2を使用している被検者の臓器及び器官への重力の方向と、参照画像データを取得した人体の臓器及び器官への重力の方向とが一致する。このため、本実施形態においては、参照画像データにおける臓器及び器官の解剖学的な位置と、被検者の臓器及び器官の解剖学的な位置とが精度よく一致させることが可能となり、被検者の体位によることなく、ガイド画像上の医用器具の位置を実際の医用器具の位置に高い精度で一致させることができるのである。   Therefore, according to the present embodiment, the direction of gravity toward the organ and organ of the subject using the ultrasonic endoscope 2 that is a medical instrument, and the organ and organ of the human body that acquired the reference image data. The direction of gravity matches. For this reason, in this embodiment, it becomes possible to accurately match the anatomical position of the organ and organ in the reference image data with the anatomical position of the organ and organ of the subject. The position of the medical instrument on the guide image can be matched with the actual position of the medical instrument with high accuracy without depending on the posture of the person.

また、本実施形態の医用ガイドシステム1においては、記憶手段である参照画像記憶部52に、異なる体位において取得された複数の体位別参照画像データとしての仰臥位参照画像データ61と左側臥位参照画像データ62が記憶されている。そして、術者が体位情報取得手段であるキーボード6の体位選択キー6aを操作することにより、被検者の体位を示す体位情報が取得され、該体位情報と略同一の体位で取得された体位別参照画像データが、ガイド画像を作成する際の参照画像データとして用いられる。   Further, in the medical guide system 1 of the present embodiment, the reference image storage unit 52 that is a storage unit stores the supine position reference image data 61 and the left-side position reference as a plurality of body position-specific reference image data acquired in different positions. Image data 62 is stored. Then, when the surgeon operates the posture selection key 6a of the keyboard 6 which is the posture information acquisition means, the posture information indicating the posture of the subject is acquired, and the posture acquired in substantially the same posture as the posture information. The separate reference image data is used as reference image data when creating the guide image.

本実施形態のこのような構成によれば、医用器具を使用する場合に、被検者の体位に複数の選択肢が存在する場合であっても、それぞれの体位の場合において被検者の臓器及び器官への重力の方向と、参照画像データを取得した人体の臓器及び器官への重力の方向とを位置させることができる。よって、被検者の体位によることなく参照画像データにおける臓器及び器官の解剖学的な位置と、被検者の臓器及び器官の解剖学的な位置とが精度よく一致させることが可能となり、ガイド画像上の医用器具の位置を実際の医用器具の位置に高い精度で一致させることができるのである。   According to such a configuration of the present embodiment, when using a medical instrument, even when there are a plurality of options for the posture of the subject, the organ of the subject and The direction of gravity toward the organ and the direction of gravity toward the organ of the human body from which the reference image data was acquired and the organ can be located. Therefore, the anatomical position of the organ and the organ in the reference image data can be accurately matched with the anatomical position of the subject and the organ regardless of the posture of the subject. The position of the medical device on the image can be matched with the actual position of the medical device with high accuracy.

なお、本実施形態においては、被検者の体位を示す体位情報は、キーボードを介して術者により入力されるものであるが、本発明はこれに限られるものではない。例えば、被検者に装着された姿勢検出プレート43の、直交座標軸O−xyz上における座標及び配向のデータから、被検者の体位を算出し体位情報を自動的に取得する構成であってもよい。   In the present embodiment, the posture information indicating the posture of the subject is input by the operator via the keyboard, but the present invention is not limited to this. For example, the posture detection plate 43 attached to the subject may be configured to calculate the posture of the subject from the coordinate and orientation data on the orthogonal coordinate axis O-xyz and automatically acquire the posture information. Good.

また、本実施形態においては、超音波内視鏡2の先端部に受信コイル22を配設したものであるが、構成はこれに限られるものではない。例えば、鉗子チャンネルを備えた超音波内視鏡と、該鉗子チャンネルに挿通可能であり先端部に受信コイルを具備した位置検出プローブとによって構成されるものであってもよい。   In the present embodiment, the receiving coil 22 is disposed at the distal end portion of the ultrasonic endoscope 2, but the configuration is not limited to this. For example, an ultrasonic endoscope including a forceps channel and a position detection probe that can be inserted through the forceps channel and includes a receiving coil at a distal end portion may be used.

また、本実施形態では、検出手段として送信アンテナと受信コイルとを用い、磁場で位置と配向とを検出するものであるが、磁場の送受を逆とした構成であってもよい。また、位置及び配向の検出手段は、磁場の検出によるものではなく、加速度の検出や他の手段で構成されるものであってもよい。   In the present embodiment, the transmitting antenna and the receiving coil are used as detection means and the position and orientation are detected by a magnetic field. However, a configuration in which transmission and reception of the magnetic field are reversed may be used. Further, the position and orientation detection means are not based on the detection of the magnetic field, but may be constituted by acceleration detection or other means.

また、本実施形態では、超音波内視鏡の走査方式を電子ラジアル走査方式として説明しているが、走査方式は機械式であってもいし、また走査方向はコンベックス走査等であってもよい。   In this embodiment, the scanning method of the ultrasonic endoscope is described as an electronic radial scanning method. However, the scanning method may be mechanical, and the scanning direction may be convex scanning or the like. .

また、本実施形態では、参照画像データ、ガイド画像において、器官別に色分けするように構成されているものであるが、色分けの態様に限らず、輝度、明度、彩度等、他の態様により器官を区別する様態であってもよい。   In the present embodiment, the reference image data and the guide image are configured to be color-coded according to organs. However, the present invention is not limited to the color-coded mode, and other modes such as luminance, brightness, and saturation are used. It is also possible to distinguish between these.

また、本実施形態では、3次元ガイド画像を作成したが、ガイド画像は2次元であっても良い。   In the present embodiment, a three-dimensional guide image is created, but the guide image may be two-dimensional.

また、本実施形態では、参照画像データとして仰臥位と左側臥位について説明したが、腹臥位等の他の体位の参照画像データであってもよいことは言うまでもない。   Further, in the present embodiment, the supine position and the left-side recumbent position have been described as the reference image data, but it goes without saying that the reference image data may be in other positions such as the prone position.

(第2の実施形態)
以下に、本発明の第2の実施形態について、図15を参照して説明する。本実施形態は、第1の実施形態に対して、一部の構成及び動作のみが異なる。よって、以下ではこの相違点のみを説明するものとし、また、第1の実施形態と同様の構成要素については同一の符号を付し、その説明を適宜に省略するものとする。
(Second Embodiment)
Below, the 2nd Embodiment of this invention is described with reference to FIG. This embodiment is different from the first embodiment only in a part of configuration and operation. Therefore, only this difference will be described below, and the same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof will be omitted as appropriate.

本実施形態においては、参照画像記憶部52に、第1の実施形態で説明した複数の体位別の参照画像データのみではなく、人体の身体的特徴応じて取得された複数の特徴別参照画像データ161が記憶されている。   In the present embodiment, the reference image storage unit 52 stores not only the plurality of reference image data for each body position described in the first embodiment, but also a plurality of reference image data for each feature acquired according to the physical characteristics of the human body. 161 is stored.

ここで、人体の身体的特徴とは、体格、身長、性別、年齢、既往歴、手術歴等のうちの少なくとも一つのことを指し、複数の特徴別参照画像データ161は、これらの身体的特徴の情報が付加された状態で参照画像記憶部52に記憶されている。複数の特徴別参照画像データ161は、体格、身長、性別、年齢、既往歴、手術歴等のそれぞれの身体的特徴の条件に応じて予め取得されるものである。   Here, the physical characteristics of the human body refer to at least one of physique, height, sex, age, medical history, surgical history, and the like, and the plurality of characteristic-specific reference image data 161 include these physical characteristics. Is stored in the reference image storage unit 52 in a state where the above information is added. The plurality of feature-specific reference image data 161 is acquired in advance according to physical condition conditions such as physique, height, sex, age, medical history, and surgical history.

なお、これらの身体的特徴のデータと特徴別参照画像データ161とは別個のデータとして参照画像記憶部52に記憶され、図示しないデータベースにより、身体的特徴と複数の特徴別参照画像データ161が紐付けられる形態であってもよい。   The physical feature data and the feature-specific reference image data 161 are stored in the reference image storage unit 52 as separate data, and the physical feature and the plurality of feature-specific reference image data 161 are linked by a database (not shown). It may be in a form attached.

また、身体的特徴取得手段であるキーボード6には、術者が被検者の体位を入力するための体位選択キー6aに加え、さらに被検者の身体的特徴を入力するための身体的特徴選択キー6bが配設されている。   In addition to the body position selection key 6a for the operator to input the body position of the subject, the body feature for further inputting the body characteristics of the subject is provided on the keyboard 6 which is a body feature acquisition means. A selection key 6b is provided.

抽出回路53は、参照画像記憶部52に記憶された複数の参照画像データのうちから、キーボードを介して入力された被検者の体位情報と略同一の体位であって、かつ被検者の身体的特徴情報に一致もしくは最も近い身体的特徴を有する人物の参照画像データを抽出して抽出データを作成する。   The extraction circuit 53 has a posture substantially the same as the posture information of the subject input via the keyboard from the plurality of reference image data stored in the reference image storage unit 52, and the subject's posture. Extraction data is created by extracting reference image data of a person having physical features that match or are closest to the physical feature information.

上述のように構成された本実施形態の医用ガイドシステムの動作は、図16のフローチャートに示すように第1の実施形態とほぼ同じであるが、ステップS101の体位情報取得処理の後にステップS102の身体的特徴取得手段が追加されるものである。   The operation of the medical guide system of the present embodiment configured as described above is almost the same as that of the first embodiment as shown in the flowchart of FIG. 16, but after the body position information acquisition process of step S101, the operation of step S102 is performed. A physical feature acquisition means is added.

ステップS102においては、術者が、キーボード6の身体的特徴選択キー6bを介して、被検者の身体的特徴を入力する。   In step S102, the surgeon inputs the physical characteristics of the subject via the physical characteristics selection key 6b of the keyboard 6.

そして、ステップS103の参照画像データ読み出し処理において、抽出回路53は、参照画像記憶部52に記憶された複数の参照画像データのうちから、被検者の体位情報と略同一の体位であって、かつ被検者の身体的特徴情報に一致もしくは最も近い身体的特徴を有する人物の参照画像データを選択し読み出す。   Then, in the reference image data reading process of step S103, the extraction circuit 53 has a posture that is substantially the same as the posture information of the subject among the plurality of reference image data stored in the reference image storage unit 52. In addition, reference image data of a person having a physical feature that matches or is closest to the physical feature information of the subject is selected and read out.

ステップS104以降の動作は、第1の実施形態の図11に示したフローチャートのステップS04以降と同様であるため、説明を省略するものとする。   Since the operation after step S104 is the same as that after step S04 in the flowchart shown in FIG. 11 of the first embodiment, the description thereof will be omitted.

以上のような構成を有する本実施形態の医用ガイドシステムは、記憶手段である参照画像記憶部52に、異なる体位、及び異なる身体的特徴ごとに予め取得された複数の特徴別参照画像データ161が記憶されている。そして、術者が体位情報取得手段及び身体的特徴選択手段であるキーボード6を操作することにより、被検者の体位を示す体位情報と、被検者の身体的特徴を示す身体的特徴情報が取得される。この該体位情報と略同一の体位で取得され、かつ身体的特徴データに一致もしくは最も近い身体的特徴を有する人物の参照画像データが、ガイド画像を作成する際の参照画像データとして用いられる。   In the medical guide system of this embodiment having the above-described configuration, a plurality of feature-specific reference image data 161 acquired in advance for each of different body positions and different physical features is stored in the reference image storage unit 52 that is a storage unit. It is remembered. Then, when the surgeon operates the keyboard 6 which is body position information acquisition means and body feature selection means, body position information indicating the body position of the subject and body feature information indicating the body characteristics of the subject are obtained. To be acquired. Reference image data of a person acquired with a body position substantially the same as the body position information and having the physical feature that matches or is closest to the physical feature data is used as reference image data when creating a guide image.

本実施形態のこのような構成によれば、第1の実施形態の効果に加えて、被検者により近い身体的特徴を有する人物から取得した参照画像データを用いてガイド画像を作成することが可能となる。人体の体内器官の大きさや形状は、体格、身長、性別、年齢、既往歴、手術歴等の身体的特徴に応じて大きく異なるものであるが、本実施形態によれば、これらの身体的特徴の差異に起因する、参照画像データと被検者との臓器及び器官の解剖学的な位置及び形状の不一致を解消することが可能となる。したがって、本実施形態の医用ガイドシステムによれば、ガイド画像上の医用器具の位置を実際の医用器具の位置にさらに高い精度で一致させることができるのである。   According to such a configuration of the present embodiment, in addition to the effects of the first embodiment, a guide image can be created using reference image data acquired from a person having physical characteristics closer to the subject. It becomes possible. The size and shape of the internal organs of the human body vary greatly depending on physical characteristics such as physique, height, sex, age, medical history, history of surgery, etc., but according to this embodiment, these physical characteristics It is possible to eliminate the discrepancy between the reference image data and the subject and the anatomical position and shape of the organ due to the difference. Therefore, according to the medical guide system of this embodiment, the position of the medical instrument on the guide image can be matched with the actual position of the medical instrument with higher accuracy.

なお、本実施形態においては、術者がキーボード6を介して被検者の身体的特徴情報を入力する構成としているものであるが、被検者の身体的特徴情報の取得方法は、この形態に限られるものではない。例えば、術者がマーカスティック42により指示する複数の体表上の標本点間の距離から、被検者の身長や体格を自動的に算出するものであってもよい。   In the present embodiment, the surgeon inputs the physical feature information of the subject via the keyboard 6, but the method for acquiring the physical feature information of the subject is in this form. It is not limited to. For example, the height and physique of the subject may be automatically calculated from the distances between the sample points on the plurality of body surfaces indicated by the marker stick 42 by the surgeon.

また、被検者の身体的特徴情報は、被検者ごとに固有のID、例えばカルテ番号等に関連付けられて管理されており、術者が該カルテ番号をキーボード6を介して入力することにより、そのカルテ番号に対応する被検者の身体的特徴情報が読み込まれ、取得されるものであってもよい。   The physical feature information of the subject is managed in association with a unique ID for each subject, for example, a medical record number, etc., and the surgeon inputs the medical record number via the keyboard 6. The physical feature information of the subject corresponding to the chart number may be read and acquired.

また、本実施形態においては、身体的特徴として体格、身長、性別、年齢、既往歴、手術歴を用いた参照画像データの抽出の例を挙げたが、他の身体的特徴を用いたものであってもよいことは言うまでもない。   Further, in the present embodiment, an example of extracting reference image data using the physique, height, sex, age, medical history, and surgical history as physical features has been given, but other physical features are used. Needless to say, it may be.

上述した実施形態に基づいて、以下の構成を提案することができる。すなわち、
(付記1)
被検者に超音波を送受して得られる超音波信号により超音波画像を生成して超音波断層像データを出力する超音波断層像生成手段と、
該超音波画像の位置及び配向を示す位置情報を検出して位置情報データを出力する位置検出手段と、
人体の解剖学的な画像データとして予め取得された参照画像データを保持する参照画像データ保持手段と、
前記位置検出手段により検出された位置もしくは配向に基づき、前記参照画像データから前記超音波走査手段で取得された前記超音波断層像の解剖学的なガイド画像を作成するガイド画像作成手段と、
を設けた超音波診断装置において、
前記ガイド画像は、前記被検者に超音波を送受する際の体位と同じ体位で取得した参照画像データに基づいて作成されたことを特徴とする。
Based on the embodiment described above, the following configuration can be proposed. That is,
(Appendix 1)
An ultrasonic tomographic image generating means for generating an ultrasonic image from an ultrasonic signal obtained by transmitting and receiving ultrasonic waves to a subject and outputting ultrasonic tomographic image data;
Position detecting means for detecting position information indicating the position and orientation of the ultrasonic image and outputting position information data;
Reference image data holding means for holding reference image data previously acquired as anatomical image data of the human body,
Guide image creation means for creating an anatomical guide image of the ultrasonic tomogram acquired by the ultrasonic scanning means from the reference image data based on the position or orientation detected by the position detection means;
In the ultrasonic diagnostic apparatus provided with
The guide image is created based on reference image data acquired in the same posture as that used when transmitting and receiving ultrasonic waves to the subject.

(付記2)
付記1に記載の参照画像データは左側臥位で取得したことを特徴とする。
(Appendix 2)
The reference image data described in Supplementary Note 1 is acquired in the left-side position.

(付記3)
付記1に記載の超音波診断装置において、
人体の身体的特徴に応じて、あらかじめ取得した複数種の参照画像データを保持する参照画像データ保持手段と、
前記被検者の体位や身体的特徴に近い参照画像データを選択する選択手段と、
前記選択された参照画像データに基づいてガイド画像を作成するガイド画像作成手段を設けたことを特徴とする。
(Appendix 3)
In the ultrasonic diagnostic apparatus according to appendix 1,
Reference image data holding means for holding a plurality of types of reference image data acquired in advance according to the physical characteristics of the human body,
Selection means for selecting reference image data close to the body position and physical characteristics of the subject;
Guide image creation means for creating a guide image based on the selected reference image data is provided.

(付記4)
付記3に記載の超音波診断装置において、前記身体的特徴は体格、身長、性別、年齢、既往歴、手術歴であることを特徴とする。
(Appendix 4)
The ultrasonic diagnostic apparatus according to attachment 3, wherein the physical characteristics are a physique, a height, a sex, an age, a medical history, and a surgical history.

なお、本発明は、上述した実施形態に限られるものではなく、特許請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴う医用ガイド装置もまた本発明の技術的範囲に含まれるものである。   The present invention is not limited to the above-described embodiments, and can be appropriately changed without departing from the spirit or idea of the invention that can be read from the claims and the entire specification. Guide devices are also included in the technical scope of the present invention.

例えば気管支内視鏡や腹腔鏡等の内視鏡による診断や手術、さらには体外式の超音波診断装置にも本発明を適用することが可能である。   For example, the present invention can be applied to diagnosis and surgery using an endoscope such as a bronchoscope or a laparoscope, and also to an extracorporeal ultrasonic diagnostic apparatus.

第1の実施形態の医用ガイドシステムの構成を示す図である。It is a figure which shows the structure of the medical guide system of 1st Embodiment. 受信コイルの構成を示す図である。It is a figure which shows the structure of a receiving coil. 姿勢検出プレートの構成を示す斜視図である。It is a perspective view which shows the structure of an attitude | position detection plate. マーカスティックの構成を示す斜視図である。It is a perspective view which shows the structure of a marker stick. 参照画像データの概要を示す図である。It is a figure which shows the outline | summary of reference image data. 仰臥位における断層像の一例を示した図である。It is the figure which showed an example of the tomogram in a supine position. 左側臥位における断層像の一例を示した図である。It is the figure which showed an example of the tomographic image in the left side position. ボクセル空間の概要を示す図である。It is a figure which shows the outline | summary of a voxel space. 超音波断層像マーカを示す図である。It is a figure which shows an ultrasonic tomogram marker. 超音波断層像マーカと抽出データとの合成データの様子を示す図である。It is a figure which shows the mode of the synthetic | combination data of an ultrasonic tomogram marker and extraction data. 医用ガイドシステムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a medical guide system. 送信アンテナ上に定義した直交座標軸O−xyzを示す図である。It is a figure which shows the orthogonal coordinate axis O-xyz defined on the transmitting antenna. 3次元ガイド画像作成・表示処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of a three-dimensional guide image creation and display process. 表示画面に超音波断層像と3次元ガイド画像とを並べて表示している様子を示す図である。It is a figure which shows a mode that the ultrasonic tomogram and a three-dimensional guide image are displayed side by side on a display screen. 第2の実施形態の医用ガイドシステムの構成を示す図である。It is a figure which shows the structure of the medical guide system of 2nd Embodiment. 医用ガイドシステムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a medical guide system.

符号の説明Explanation of symbols

1 医用ガイドシステム、 2 超音波内視鏡、 3 超音波観測装置、 4 位置配向算出装置、 5 ガイド画像作成装置、 6 キーボード、 6a 体位選択キー、 7 マウス、 8 表示装置、 10 光学観察装置、 11 挿入部、 21 超音波振動子、 22 受信コイル、 41 送信アンテナ、 42 マーカスティック、 43 姿勢検出プレート、 51 制御部、 52 参照画像記憶部、 53 抽出回路、 54 3次元ガイド画像作成回路、 55 混合回路、 56 表示回路、 57 ボリュームメモリ、 61 仰臥位用参照画像データ、 62 左側臥位用参照画像データ   DESCRIPTION OF SYMBOLS 1 Medical guide system, 2 Ultrasound endoscope, 3 Ultrasound observation apparatus, 4 Position orientation calculation apparatus, 5 Guide image creation apparatus, 6 Keyboard, 6a Position selection key, 7 Mouse, 8 Display apparatus, 10 Optical observation apparatus, DESCRIPTION OF SYMBOLS 11 Insertion part, 21 Ultrasonic vibrator, 22 Reception coil, 41 Transmission antenna, 42 Marker stick, 43 Attitude detection plate, 51 Control part, 52 Reference image memory | storage part, 53 Extraction circuit, 54 Three-dimensional guide image creation circuit, 55 Mixing circuit 56 Display circuit 57 Volume memory 61 Reference image data for supine position 62 Reference image data for left position

Claims (3)

医用器具の位置及び配向を検出する検出手段と、
前記医用器具を被検者に対して使用する以前に取得された、人体の臓器及び器官の少なくとも一方の解剖学的な位置情報を有する参照画像データを記憶する記憶手段と、
前記検出手段により検出された前記医用器具の位置及び配向に基づき、前記参照画像データ中における前記医用機器の位置及び配向をリアルタイムに示すガイド画像を作成するガイド画像作成手段と、
を具備する医用ガイドシステムであって、
前記参照画像データは、前記医用器具を使用する際の前記被検者の体位と同じ体位において取得されたものであること特徴とする医用ガイドシステム。
Detection means for detecting the position and orientation of the medical instrument;
Storage means for storing reference image data having anatomical position information of at least one of a human organ and an organ acquired before the medical instrument is used on a subject;
Based on the position and orientation of the medical instrument detected by the detection means, a guide image creating means for creating a guide image showing the position and orientation of the medical device in the reference image data in real time;
A medical guide system comprising:
The medical guide system, wherein the reference image data is acquired in the same posture as the posture of the subject when the medical instrument is used.
前記医用器具を使用する際の被検者の体位を示す体位情報を取得する体位情報取得手段を具備し、
前記記憶手段は、複数の異なる体位において取得され、人体の臓器及び器官の少なくとも一方の解剖学的な位置情報を有する複数の体位別参照画像データを記憶し、
前記ガイド画像作成手段は、前記複数の体位別参照画像データから、前記体位情報が示す体位と同一の体位において取得された前記体位別参照画像データを用いて前記ガイド画像を作成することを特徴とする請求項1に記載の医用ガイドシステム。
Comprising posture information acquisition means for acquiring posture information indicating the posture of the subject when using the medical instrument;
The storage means stores a plurality of body-specific reference image data obtained at a plurality of different body positions and having anatomical position information of at least one of a human organ and an organ;
The guide image creating means creates the guide image from the plurality of body position reference image data using the body position reference image data acquired in the same body position as the body position indicated by the body position information. The medical guide system according to claim 1.
前記被検者の身体的特徴を取得する身体的特徴取得手段を具備し、
前記記憶手段は、人体の身体的特徴に応じて予め取得され、人体の臓器及び器官の少なくとも一方の解剖学的な位置情報を有する複数の特徴別参照画像データを記憶し、
前記ガイド画像作成手段は、前記複数の参照画像データから、前記被検者の前記身体的特徴に最も近い条件で取得された前記特徴別参照画像データを用いて前記ガイド画像を作成することを特徴とする請求項1又は2に記載の医用ガイドシステム。
Comprising physical feature acquisition means for acquiring the physical feature of the subject;
The storage means stores a plurality of feature-specific reference image data acquired in advance according to the physical characteristics of the human body and having anatomical position information of at least one of the organs and organs of the human body,
The guide image creating means creates the guide image using the feature-specific reference image data acquired from the plurality of reference image data under a condition closest to the physical feature of the subject. The medical guide system according to claim 1 or 2.
JP2007122649A 2007-05-07 2007-05-07 Medical guide system Expired - Fee Related JP5226244B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007122649A JP5226244B2 (en) 2007-05-07 2007-05-07 Medical guide system
EP08007928A EP2036494A3 (en) 2007-05-07 2008-04-24 Medical guiding system
US12/114,592 US20080281189A1 (en) 2007-05-07 2008-05-02 Medical guiding system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007122649A JP5226244B2 (en) 2007-05-07 2007-05-07 Medical guide system

Publications (2)

Publication Number Publication Date
JP2008272370A true JP2008272370A (en) 2008-11-13
JP5226244B2 JP5226244B2 (en) 2013-07-03

Family

ID=40051097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007122649A Expired - Fee Related JP5226244B2 (en) 2007-05-07 2007-05-07 Medical guide system

Country Status (1)

Country Link
JP (1) JP5226244B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007526064A (en) * 2004-03-05 2007-09-13 デピュー インターナショナル リミテッド Pelvic alignment method and apparatus
JP2010172701A (en) * 2009-01-28 2010-08-12 Medison Co Ltd Ultrasonic system and method for providing image indicator
JP5323194B2 (en) * 2009-08-21 2013-10-23 株式会社東芝 Medical image processing apparatus and method
JP2014004234A (en) * 2012-06-26 2014-01-16 Toshiba Corp Medical image diagnostic apparatus and image processing apparatus
JP2019058461A (en) * 2017-09-27 2019-04-18 株式会社日立製作所 Magnetic resonance imaging apparatus, device position detection method using the same, device, and image-guided intervention support apparatus

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004113629A (en) * 2002-09-27 2004-04-15 Olympus Corp Ultrasonograph
JP2004321390A (en) * 2003-04-23 2004-11-18 Toshiba Corp X-ray diagnostic imaging device and its method
WO2004098414A1 (en) * 2003-05-08 2004-11-18 Hitachi Medical Corporation Reference image display method for ultrasonography and ultrasonograph
EP1504713A1 (en) * 2003-07-14 2005-02-09 Surgical Navigation Technologies, Inc. Navigation system for cardiac therapies
US20050085715A1 (en) * 2003-10-17 2005-04-21 Dukesherer John H. Method and apparatus for surgical navigation
JP2005111143A (en) * 2003-10-10 2005-04-28 Olympus Corp Ultrasonic diagnostic apparatus
JP2005522274A (en) * 2002-04-17 2005-07-28 スーパー ディメンション リミテッド Techniques for navigating to targets in endoscopic and bifurcated structures
WO2005087125A2 (en) * 2004-03-10 2005-09-22 Depuy International Ltd Orthopaedic operating systems, methods, implants and instruments
JP2005312770A (en) * 2004-04-30 2005-11-10 Olympus Corp Ultrasonic diagnostic device
WO2006057296A1 (en) * 2004-11-25 2006-06-01 Olympus Corporation Ultrasonographic device
JP2006146482A (en) * 2004-11-18 2006-06-08 Nissei Plastics Ind Co Component file generating method for cad system
JP2006149483A (en) * 2004-11-25 2006-06-15 Olympus Corp Electronic endoscope apparatus and color shift correction apparatus
JP2007037790A (en) * 2005-08-03 2007-02-15 Olympus Medical Systems Corp Ultrasonic diagnostic equipment
JP2008005923A (en) * 2006-06-27 2008-01-17 Olympus Medical Systems Corp Medical guide system

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005522274A (en) * 2002-04-17 2005-07-28 スーパー ディメンション リミテッド Techniques for navigating to targets in endoscopic and bifurcated structures
JP2004113629A (en) * 2002-09-27 2004-04-15 Olympus Corp Ultrasonograph
JP2004321390A (en) * 2003-04-23 2004-11-18 Toshiba Corp X-ray diagnostic imaging device and its method
WO2004098414A1 (en) * 2003-05-08 2004-11-18 Hitachi Medical Corporation Reference image display method for ultrasonography and ultrasonograph
EP1504713A1 (en) * 2003-07-14 2005-02-09 Surgical Navigation Technologies, Inc. Navigation system for cardiac therapies
JP2005111143A (en) * 2003-10-10 2005-04-28 Olympus Corp Ultrasonic diagnostic apparatus
US20050085715A1 (en) * 2003-10-17 2005-04-21 Dukesherer John H. Method and apparatus for surgical navigation
WO2005087125A2 (en) * 2004-03-10 2005-09-22 Depuy International Ltd Orthopaedic operating systems, methods, implants and instruments
JP2005312770A (en) * 2004-04-30 2005-11-10 Olympus Corp Ultrasonic diagnostic device
JP2006146482A (en) * 2004-11-18 2006-06-08 Nissei Plastics Ind Co Component file generating method for cad system
WO2006057296A1 (en) * 2004-11-25 2006-06-01 Olympus Corporation Ultrasonographic device
JP2006149481A (en) * 2004-11-25 2006-06-15 Olympus Corp Ultrasonic diagnosis apparatus
JP2006149483A (en) * 2004-11-25 2006-06-15 Olympus Corp Electronic endoscope apparatus and color shift correction apparatus
JP2007037790A (en) * 2005-08-03 2007-02-15 Olympus Medical Systems Corp Ultrasonic diagnostic equipment
JP2008005923A (en) * 2006-06-27 2008-01-17 Olympus Medical Systems Corp Medical guide system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007526064A (en) * 2004-03-05 2007-09-13 デピュー インターナショナル リミテッド Pelvic alignment method and apparatus
JP4712791B2 (en) * 2004-03-05 2011-06-29 デピュー インターナショナル リミテッド Pelvic alignment method and apparatus
JP2010172701A (en) * 2009-01-28 2010-08-12 Medison Co Ltd Ultrasonic system and method for providing image indicator
US9211105B2 (en) 2009-01-28 2015-12-15 Samsung Medison Co., Ltd. Image indicator provision in an ultrasound system
JP5323194B2 (en) * 2009-08-21 2013-10-23 株式会社東芝 Medical image processing apparatus and method
JP2014004234A (en) * 2012-06-26 2014-01-16 Toshiba Corp Medical image diagnostic apparatus and image processing apparatus
JP2019058461A (en) * 2017-09-27 2019-04-18 株式会社日立製作所 Magnetic resonance imaging apparatus, device position detection method using the same, device, and image-guided intervention support apparatus

Also Published As

Publication number Publication date
JP5226244B2 (en) 2013-07-03

Similar Documents

Publication Publication Date Title
JP5394622B2 (en) Medical guide system
JP5191167B2 (en) Medical guide system
JP4875416B2 (en) Medical guide system
JP5208495B2 (en) Medical system
JP4868959B2 (en) Body cavity probe device
US20080281189A1 (en) Medical guiding system
EP2460473B1 (en) Reference image display method for ultrasonography and ultrasonic diagnosis apparatus
JP4681857B2 (en) Ultrasonic diagnostic equipment
JP5161013B2 (en) Medical guide system
EP2430979A1 (en) Biopsy support system
CN111588464B (en) Operation navigation method and system
JP2012024509A (en) Image processor, method, and program
US20160095581A1 (en) Ultrasonic diagnosis apparatus
JP2008220802A (en) Medical image diagnostic apparatus
CN103764041A (en) Medical image diagnosis device, image processing device and image processing method
JP5226244B2 (en) Medical guide system
WO2015091226A1 (en) Laparoscopic view extended with x-ray vision
JP4869197B2 (en) Medical guide device
JP4869189B2 (en) Medical guide system
JP2014204904A (en) Medical guide system
US20210393358A1 (en) Enhanced haptic feedback system
JP4700405B2 (en) Ultrasonic diagnostic equipment
JP2008301969A (en) Ultrasonic diagnostic device
JP5307357B2 (en) Ultrasonic diagnostic equipment
JP2009247641A (en) Ultrasonic image processor and surgery support system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130314

R151 Written notification of patent or utility model registration

Ref document number: 5226244

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees