JP2008036447A - Probe apparatus within body cavity - Google Patents

Probe apparatus within body cavity Download PDF

Info

Publication number
JP2008036447A
JP2008036447A JP2007238333A JP2007238333A JP2008036447A JP 2008036447 A JP2008036447 A JP 2008036447A JP 2007238333 A JP2007238333 A JP 2007238333A JP 2007238333 A JP2007238333 A JP 2007238333A JP 2008036447 A JP2008036447 A JP 2008036447A
Authority
JP
Japan
Prior art keywords
image
orientation
subject
data
body cavity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007238333A
Other languages
Japanese (ja)
Other versions
JP4869189B2 (en
Inventor
Tomonao Kawashima
知直 川島
Soichi Ikuma
聡一 生熊
Saori Obata
里織 小幡
Masahiko Komuro
雅彦 小室
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Medical Systems Corp
Original Assignee
Olympus Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Medical Systems Corp filed Critical Olympus Medical Systems Corp
Priority to JP2007238333A priority Critical patent/JP4869189B2/en
Publication of JP2008036447A publication Critical patent/JP2008036447A/en
Application granted granted Critical
Publication of JP4869189B2 publication Critical patent/JP4869189B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a probe apparatus within a body cavity which can more correctly guide a real-time image as a guide image. <P>SOLUTION: An ultrasonic vibrator array 29 which acquires the echo signal of an ultrasound is formed on the leading edge of an ultrasonic endoscope 2 as a probe within the body cavity inserted into the body cavity. An ultrasonic tomographic image as the real-time image is formed from the echo signal. A guide image preparing circuit gives correction processing to the guide image by the detected value of the position of an element for detection within the body cavity when the guide image is created based on the detected value of a coil 31 for image position orientation detection from the three-dimensional data of the human body. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、体腔内に挿入される体腔内プローブを用いて体腔内を診断等する体腔内プローブ装置に関する。   The present invention relates to an in-vivo probe device for diagnosing the inside of a body cavity using an in-vivo probe inserted into the body cavity.

従来より、内視鏡、超音波内視鏡、細径超音波プローブなど、消化管、胆膵管、血管などの体腔内へ挿入して、診断、治療に用いる体腔内プローブが周知である。これら体腔内プローブは通常、先端にCCDカメラなどの撮像素子や超音波振動子を先端に設けている。
そして、これら体腔内プローブは、撮像素子や超音波振動子から得られた信号から光学像や超音波断層像を作成するプロセッサと一体となった体腔内プローブ装置として用いられることが通例である。
さらに、近年、これら体腔内プローブを目的部位まで容易に到達するよう補助するためにナビゲーション機能を備えた体腔内プローブ装置が公知である。
2. Description of the Related Art Conventionally, an intracorporeal probe used for diagnosis and treatment by inserting into a body cavity such as a digestive tract, a bile pancreatic duct, or a blood vessel, such as an endoscope, an ultrasonic endoscope, and a small-diameter ultrasonic probe, is well known. These intra-body-cavity probes usually have an imaging device such as a CCD camera or an ultrasonic transducer at the tip.
These body cavity probes are typically used as body cavity probe devices integrated with a processor that creates an optical image or an ultrasonic tomographic image from signals obtained from an image sensor or an ultrasonic transducer.
Further, in recent years, an intra-body cavity probe apparatus having a navigation function for assisting these intra-body probes to easily reach a target site is known.

このうち、第1の従来例としての特開2004−113629号公報で開示されている体腔内プローブ装置は、被検体に超音波を送受して得られる超音波信号により、超音波画像を生成する超音波診断装置であり、超音波を送受する部位の位置を検出するための超音波走査位置検出手段と、超音波信号を基に超音波画像を生成する超音波画像生成手段と、超音波走査位置検出手段により得られる位置情報に対応する被検体の部位の解剖学的な画像情報を、ガイド画像としての人体の模式図データを有する画像情報保持手段より取得し超音波画像と同一の画面に表示させる制御手段と、を備えている。
この体腔内プローブ装置では、超音波画像がリアルタイム画像として表示される。
Among these, the intracavity probe apparatus disclosed in Japanese Patent Application Laid-Open No. 2004-113629 as a first conventional example generates an ultrasound image by an ultrasound signal obtained by transmitting and receiving ultrasound to a subject. An ultrasonic diagnostic apparatus, an ultrasonic scanning position detecting means for detecting the position of a part for transmitting and receiving ultrasonic waves, an ultrasonic image generating means for generating an ultrasonic image based on an ultrasonic signal, and ultrasonic scanning The anatomical image information of the part of the subject corresponding to the position information obtained by the position detection means is acquired from the image information holding means having schematic diagram data of the human body as a guide image, and is displayed on the same screen as the ultrasonic image. Control means for displaying.
In this body cavity probe device, an ultrasonic image is displayed as a real-time image.

また、この体腔内プローブ装置では、実際の位置情報検出には磁場を発生する送信コイルと磁場を受信する受信コイルとが用いられており、このうち、あるコイルは体腔内プローブとしての超音波内視鏡の挿入端に設けられ、あるコイルは被検体に装着される。このため、この体腔内プローブ装置では被検体の姿勢を検出して、超音波を送受する被検体の部位の位置を検出することができる。
一方、第2の従来例としての特開2002−306403号公報で開示されている体腔内プローブ装置は、内視鏡の挿入形状を検出し、挿入形状を描出する映像信号を得る内視鏡装置であり、予め被検体のCTスキャンにて3次元領域の連続するスライス断層像から被検体の3次元画像を生成する画像生成手段と、挿入形状と挿入形の周囲の被検体の3次元画像とを合成して表示する表示手段と、を設けている。
Further, in this body cavity probe device, a transmission coil that generates a magnetic field and a reception coil that receives a magnetic field are used for actual position information detection, and one of these coils is an ultrasonic wave as an intracavity probe. A coil provided at the insertion end of the endoscope is attached to the subject. Therefore, this body cavity probe device can detect the posture of the subject and detect the position of the portion of the subject that transmits and receives the ultrasonic wave.
On the other hand, an intracorporeal probe device disclosed in Japanese Patent Application Laid-Open No. 2002-306403 as a second conventional example detects an insertion shape of an endoscope and obtains a video signal that depicts the insertion shape. An image generation means for generating a three-dimensional image of a subject from consecutive slice tomographic images of a three-dimensional region in advance by a CT scan of the subject; Display means for combining and displaying.

この体腔内プローブ装置では、内視鏡像がリアルタイム画像として表示される。
また、この体腔内プローブ装置では、実際の挿入形状検出には、内視鏡の可撓管に充填されたγ線を放射する放射性物質と、γ線吸収により発光するシンチレータと受光素子とを組み合わせた底部検出部と垂直検出部と、が用いられている。
特開2004−113629号公報 特開2002−306403号公報
In this body cavity probe apparatus, an endoscopic image is displayed as a real-time image.
In this body cavity probe device, the actual insertion shape is detected by combining a radioactive substance that emits γ rays filled in the flexible tube of the endoscope, a scintillator that emits light by γ ray absorption, and a light receiving element. A bottom detection unit and a vertical detection unit are used.
JP 2004-113629 A JP 2002-306403 A

X線3次元ヘリカルCT装置と3次元MRI装置とは、通常仰臥位で撮像するように設定され、左側臥位での内視鏡検査の時とは体位が異なる。   The X-ray three-dimensional helical CT apparatus and the three-dimensional MRI apparatus are normally set to image in the supine position, and are different in posture from the endoscopic examination in the left supine position.

従来は、ガイド画像に補正処理を施さないため、被検体内の諸器官がX線3次元ヘリカルCT装置と3次元MRI装置に比して左側臥位での内視鏡検査の時に重力に従って変位し、被検体内の点の写像も解剖学的に正確な一致をしなかった。   Conventionally, since the guide image is not subjected to correction processing, various organs in the subject are displaced according to gravity at the time of endoscopic examination in the left lateral position as compared with the X-ray three-dimensional helical CT apparatus and the three-dimensional MRI apparatus. However, the mapping of points within the subject also did not match anatomically accurately.

(発明の目的)
本発明は、上述した点に鑑みてなされたもので、ガイド画像としてリアルタイム画像を一層正確にガイドすることができる体腔内プローブ装置を提供することを目的とする。
(Object of invention)
The present invention has been made in view of the above-described points, and an object thereof is to provide an intra-body-cavity probe apparatus that can more accurately guide a real-time image as a guide image.

本発明は、被検体の体腔内へ挿入され、前記体腔内への挿入側先端に前記被検体内の画像を作成するための信号を取得する画像信号取得手段を設けた体腔内プローブと、
前記画像信号取得手段が取得した信号から前記被検体内のリアルタイム画像を作成する画像作成手段と、
人体の3次元データから前記被検体内の前記リアルタイム画像の前記被検体に対する位置もしくは配向をガイドするガイド画像を作成するガイド画像作成手段と、
を備えた体腔内プローブ装置において、
前記画像信号取得手段に対して位置が固定された画像位置配向検出用素子と、
前記被検体体腔内に接触可能な体腔内検出用素子を含む被検体検出用素子と、
前記画像位置配向検出用素子の位置及び配向と、前記体腔内検出用素子の位置と、を検出し、検出値として出力する検出手段と、
前記ガイド画像作成手段が、前記検出手段が出力した前記画像位置配向検出用素子の位置及び配向の検出値を基に前記ガイド画像を作成する際、前記体腔内検出用素子の位置の検出値により前記ガイド画像に補正処理を施す補正手段と、
を具備することを特徴とする。
The present invention relates to an intracavity probe provided with an image signal acquisition means that is inserted into a body cavity of a subject and acquires a signal for creating an image of the subject at the distal end on the insertion side into the body cavity;
Image creating means for creating a real-time image in the subject from the signal obtained by the image signal obtaining means;
Guide image creation means for creating a guide image for guiding the position or orientation of the real-time image in the subject relative to the subject from three-dimensional data of the human body;
In a body cavity probe device comprising:
An image position orientation detecting element whose position is fixed with respect to the image signal acquisition means;
A subject detection element including a body cavity detection element capable of contacting the subject body cavity;
Detecting means for detecting the position and orientation of the image position / orientation detecting element and the position of the in-body cavity detecting element, and outputting the detected value;
When the guide image creation means creates the guide image based on the position and orientation detection value of the image position / orientation detection element output from the detection means, the detection value of the position of the body cavity detection element is used. Correction means for performing correction processing on the guide image;
It is characterized by comprising.

本発明によれば、ガイド画像は、リアルタイム画像を一層正確にガイドすることができる。   According to the present invention, the guide image can more accurately guide the real-time image.

以下、図面を参照して本発明の各実施例を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1から図21を参照して本発明の実施例1を説明する。図1は本発明の実施例1の体腔内プローブ装置の構成を示し、図2は体表検出用コイルを使用例で示し、図3は体腔内接触プローブを示し、図4は画像処理装置の構成を示し、図5は参照画像記憶部内に記憶される参照画像データを示す。
図6は、ボクセル空間を示し、図7は位置・配向データを表すために送信アンテナ上に原点を設定した直交基底を示し、図8は被検体側の超音波断層像の中心をボクセル空間へ写像する説明図を示し、図9は被検体側の体腔内特徴点をボクセル空間へ写像する説明図を示し、図10は画像指標作成回路により画像指標データが作成される様子を示す。
A first embodiment of the present invention will be described with reference to FIGS. FIG. 1 shows a configuration of an in-vivo probe device according to a first embodiment of the present invention, FIG. 2 shows an example of using a body surface detection coil, FIG. 3 shows an in-body contact probe, and FIG. 4 shows an image processing apparatus. FIG. 5 shows reference image data stored in the reference image storage unit.
FIG. 6 shows a voxel space, FIG. 7 shows an orthogonal base in which the origin is set on the transmitting antenna to represent position / orientation data, and FIG. 8 shows the center of the ultrasonic tomogram on the subject side to the voxel space. FIG. 9 shows an explanatory diagram for mapping, and FIG. 9 shows an explanatory diagram for mapping feature points in the body cavity on the subject side to the voxel space, and FIG. 10 shows how image index data is created by the image index creating circuit.

図11は挿入形状作成回路により作成される挿入形状データが作成される様子を示し、図12は3次元人体画像データを示し、図13は合成回路により画像指標データと挿入形状データとが合成メモリ内のボクセル空間に埋められていく様子を示し、図14は被検体の腹側から観察した場合の3次元ガイド画像データを示し、図15は被検体の足側から観察した場合の3次元ガイド画像データを示す。
図16は表示装置に表示される3次元ガイド画像及び超音波断層像を示し、図17は本実施例の全体的な処理内容をフローチャートで示し、図18は図17における参照画像上での体表特徴点、体腔内特徴点指定処理の具体的な処理内容をフローチャートで示し、図19は図17における補正値算出処理の具体的な処理内容をフローチャートで示し、図20は図19における処理の説明図を示し、図21は図17における超音波断層像・3次元ガイド画像作成/表示処理の具体的な処理内容をフローチャートで示す。
FIG. 11 shows how the insertion shape data created by the insertion shape creation circuit is created, FIG. 12 shows three-dimensional human body image data, and FIG. 13 shows the synthesis memory that combines the image index data and the insertion shape data. FIG. 14 shows three-dimensional guide image data when observed from the ventral side of the subject, and FIG. 15 shows three-dimensional guide when observed from the foot side of the subject. Image data is shown.
FIG. 16 shows a three-dimensional guide image and ultrasonic tomographic image displayed on the display device, FIG. 17 shows a flowchart of the entire processing contents of this embodiment, and FIG. 18 shows the body on the reference image in FIG. Specific processing contents of the table feature point and body cavity feature point designation processing are shown in a flowchart, FIG. 19 is a flowchart showing specific processing contents of the correction value calculation processing in FIG. 17, and FIG. 20 is a flowchart of the processing in FIG. FIG. 21 is a flowchart showing specific processing contents of the ultrasonic tomographic image / three-dimensional guide image creation / display processing in FIG.

まず、本発明の実施例1の体腔内プローブ装置1の構成を説明する。
図1に示すように実施例1の体腔内プローブ装置1は、体腔内プローブとしての電子ラジアル走査型の超音波内視鏡2と、光学観察装置3と、超音波観測装置4と、位置配向算出装置5と、送信アンテナ6と、体表検出用コイル7と、体腔内接触プローブ8と、A/Dユニット部9と、画像処理装置11と、マウス12と、キーボード13と、表示装置14とからなり、これらは信号線で接続されている。
体腔内プローブ装置1の外部にはX線3次元ヘリカルCT装置(X-ray 3 dimentional computer tomography system)15、3次元MRI装置(3 dimentional magnetic resonance imaging system)16と、それらを接続した光通信やADSL等の高速のネットワーク17がある。X線3次元ヘリカルCT装置15、3次元MRI装置16とは、ネットワーク17経由で本体腔内プローブ装置1の画像処理装置11と接続している。
First, the configuration of the body cavity probe device 1 according to the first embodiment of the present invention will be described.
As shown in FIG. 1, an intra-body-cavity probe apparatus 1 according to the first embodiment includes an electronic radial scanning type ultrasonic endoscope 2 as an intra-body probe, an optical observation apparatus 3, an ultrasonic observation apparatus 4, and a position orientation. Calculation device 5, transmitting antenna 6, body surface detection coil 7, body cavity contact probe 8, A / D unit 9, image processing device 11, mouse 12, keyboard 13, and display device 14 These are connected by signal lines.
An X-ray three-dimensional helical CT device (X-ray 3 dimensional computer tomography system) 15, a three-dimensional MRI device (3 dimensional magnetic resonance imaging system) 16, and optical communication that connects them are provided outside the body cavity probe device 1. There is a high-speed network 17 such as ADSL. The X-ray three-dimensional helical CT apparatus 15 and the three-dimensional MRI apparatus 16 are connected to the image processing apparatus 11 of the main body intracavity probe apparatus 1 via the network 17.

超音波内視鏡2は、食道、胃、十二指腸などの体腔内に挿入できるよう、先端のステンレス等の硬質な材料で構成された硬性部21と、硬性部21より後端側に可撓性のある材料で構成された長尺の可撓部22と、可撓部22より後端側(手前側)に硬質な材料で構成された操作部23とを有する。なお、硬性部21と可撓部22は、体腔内に挿入される挿入部を形成する。
硬性部21には、以下のように光学的に撮像して画像信号を取得する画像信号取得手段が、硬性部21に固定して設けてある。
硬性部21には、カバーガラスで形成された光学観察窓24が設けてあり、この光学観察窓24の内側に光学像を結ぶ対物レンズ25と、その結像位置に配置された撮像素子として、例えばCCD(charge coupled device)カメラ26とが設けてある。また、この光学観察窓24に隣接して、体腔内に照明光を照射する図示しない照明光照射窓(照明窓)が設けられている。
The ultrasonic endoscope 2 has a rigid portion 21 made of a hard material such as stainless steel at the tip so that it can be inserted into body cavities such as the esophagus, stomach, and duodenum, and is flexible on the rear end side from the rigid portion 21. A long flexible portion 22 made of a certain material, and an operation portion 23 made of a hard material on the rear end side (front side) from the flexible portion 22. The hard part 21 and the flexible part 22 form an insertion part that is inserted into the body cavity.
The rigid portion 21 is provided with image signal acquisition means that optically captures and acquires an image signal as described below, fixed to the rigid portion 21.
The rigid portion 21 is provided with an optical observation window 24 formed of a cover glass, and an objective lens 25 that connects an optical image inside the optical observation window 24 and an image pickup device disposed at the image formation position thereof. For example, a CCD (charge coupled device) camera 26 is provided. An illumination light irradiation window (illumination window) (not shown) that irradiates illumination light into the body cavity is provided adjacent to the optical observation window 24.

CCDカメラ26は、光学観察装置3と信号線27で接続されている。図示しない照明光照射窓は照明光を照射し、体腔内を照明するよう構成されている。体腔表面の像は、光学観察窓24から対物レンズ25を経由してCCDカメラ26に結像され、CCDカメラ26からのCCD信号は信号線27を経由して光学像のリアルタイム画像を生成する画像作成手段としての光学観察装置3へ出力される。
また、この硬性部21には音響的に撮像して画像信号としてエコー信号を取得する画像信号取得手段も、硬性部21に固定して設けてある。
硬性部21における例えば円柱状の先端部分は、短冊状に細かく切断され、挿入軸の周囲に環状でアレイ状に配列させた超音波振動子群が設けてあり、この超音波振動子群で超音波振動子アレイ29が形成されている。
超音波振動子アレイ29を構成する各超音波振動子29aはそれぞれ信号線30を介して操作部23経由で超音波によるリアルタイム画像を生成する画像作成手段としての超音波観測装置4と接続されている。超音波振動子アレイ29の環の中心は、後述するラジアル走査による超音波ビームの旋回中心である。
The CCD camera 26 is connected to the optical observation device 3 through a signal line 27. An illumination light irradiation window (not shown) is configured to irradiate illumination light and illuminate the inside of the body cavity. The image of the surface of the body cavity is formed on the CCD camera 26 from the optical observation window 24 via the objective lens 25, and the CCD signal from the CCD camera 26 is an image that generates a real-time image of the optical image via the signal line 27. It is output to the optical observation apparatus 3 as a creation means.
In addition, the rigid portion 21 is also provided with image signal acquisition means for acquiring an echo signal as an image signal by acoustic imaging.
For example, a cylindrical tip portion of the rigid portion 21 is finely cut into a strip shape, and an ultrasonic transducer group arranged in an annular shape around the insertion shaft is provided. A sound wave transducer array 29 is formed.
Each ultrasonic transducer 29a constituting the ultrasonic transducer array 29 is connected to the ultrasonic observation device 4 as an image creating means for generating a real-time image by ultrasonic waves via the operation unit 23 via the signal line 30, respectively. Yes. The center of the ring of the ultrasonic transducer array 29 is the turning center of the ultrasonic beam by radial scanning described later.

ここで、硬性部21に固定された正規直交基底(各方向の単位ベクトル)V、V3、V12を図1のように定義する。
つまり、Vは硬性部21の長手方向(挿入軸方向)と平行で、後述するように、このVは超音波断層像の法線方向ベクトルとなる。このベクトルVに直交するV3は、3時方向ベクトル、そしてV12は、12時方向ベクトルである。
硬性部21内には、超音波振動子アレイ29に対する画像位置配向検出用素子としての画像位置配向検出用コイル31が超音波振動子アレイ29の環の中心のごく近傍に固定して設けてある。画像位置配向検出用コイル31は、ベクトルV及びV3の2つの方向(軸)を指向するように、2軸方向に巻かれたコイルが一体に形成され、ベクトルV及びV3の両方向を検出できるように設定されている。
Here, orthonormal bases (unit vectors in each direction) V, V3, and V12 fixed to the rigid portion 21 are defined as shown in FIG.
That is, V is parallel to the longitudinal direction (insertion axis direction) of the rigid portion 21 and, as will be described later, this V is a normal direction vector of the ultrasonic tomographic image. V 3 orthogonal to the vector V is a 3 o'clock direction vector, and V 12 is a 12 o'clock direction vector.
In the rigid portion 21, an image position / orientation detection coil 31 as an image position / orientation detection element for the ultrasonic transducer array 29 is fixed in the very vicinity of the center of the ring of the ultrasonic transducer array 29. . The image position / orientation detection coil 31 is formed integrally with a coil wound in two directions so that the two directions (axes) of the vectors V and V 3 are directed, and detects both directions of the vectors V and V 3. It is set to be possible.

可撓部22内には、超音波内視鏡2における挿入部を構成するこの可撓部22の挿入形状を検出するため、挿入軸に沿って、例えば一定間隔で複数の挿入形状検出用コイル32が設けてある。
図1に示すように、挿入形状検出用コイル32は、1軸方向に巻かれたコイルで、その巻線軸方向が可撓部22の挿入軸方向と一致するよう可撓部22内部に固定されている。なお、硬性部21は、上記画像位置配向検出用コイル31の位置から検出できる。
従って、挿入形状検出用素子は、より正確には硬性部21内に設けた画像位置配向検出用コイル31と可撓部22内に設けられた挿入形状検出用コイル32とから構成される。 なお、挿入形状を検出するための挿入形状検出用素子としての複数の挿入形状検出用コイル32は、例えば可撓部22の先端側部分のみに設け、超音波内視鏡2の挿入部の先端側部分の挿入形状を検出するようにしても良い。
In the flexible portion 22, a plurality of insertion shape detection coils, for example, at regular intervals along the insertion axis in order to detect the insertion shape of the flexible portion 22 constituting the insertion portion in the ultrasonic endoscope 2. 32 is provided.
As shown in FIG. 1, the insertion shape detection coil 32 is a coil wound in one axial direction, and is fixed inside the flexible portion 22 so that the winding axis direction coincides with the insertion axis direction of the flexible portion 22. ing. The hard portion 21 can be detected from the position of the image position / orientation detection coil 31.
Therefore, the insertion shape detection element is more precisely constituted by the image position / orientation detection coil 31 provided in the rigid portion 21 and the insertion shape detection coil 32 provided in the flexible portion 22. Note that the plurality of insertion shape detection coils 32 as insertion shape detection elements for detecting the insertion shape are provided, for example, only at the distal end portion of the flexible portion 22, and the distal end of the insertion portion of the ultrasonic endoscope 2. You may make it detect the insertion shape of a side part.

本実施例においては、挿入形状検出用素子として複数の挿入形状検出用コイル32を採用することにより、磁場を利用して挿入形状の検出を行う。これにより、挿入形状検出のために、術者及び患者(被検体)が放射線被爆を受けないようにできる。
可撓部22の先端付近には、湾曲自在の湾曲部が設けられることが多く、この湾曲部付近のみに複数の挿入形状検出用コイル32を設けるようにしても良い。
画像位置配向検出用コイル31の位置及び配向等を検出する検出手段を構成する位置配向算出装置5は、送信アンテナ6と、A/Dユニット部9を構成する複数のA/Dユニット9a、9b、9cと、挿入形状作成手段、3次元画像作成手段、合成手段、画像指標作成手段等を内蔵した画像処理装置11と信号線で接続されている。
このうち、位置配向算出装置5と画像処理装置11とは、例えばRS-232C規格のケーブル33で接続されている。
送信アンテナ6は、巻線軸の配向の異なる複数の図示しない送信コイルにより構成され、これらの送信コイルは例えば直方体の筐体の中に一体に収納されている。複数の送信コイルは、それぞれ位置配向算出装置5に接続されている。
In the present embodiment, by using a plurality of insertion shape detection coils 32 as the insertion shape detection element, the insertion shape is detected using a magnetic field. Thereby, it is possible to prevent the surgeon and patient (subject) from being exposed to radiation for detecting the insertion shape.
A flexible bending portion is often provided near the distal end of the flexible portion 22, and a plurality of insertion shape detection coils 32 may be provided only in the vicinity of the bending portion.
A position / orientation calculation apparatus 5 constituting detection means for detecting the position and orientation of the image position / orientation detection coil 31 includes a transmission antenna 6 and a plurality of A / D units 9a and 9b constituting the A / D unit 9. 9c is connected to the image processing apparatus 11 having a built-in insertion shape creating means, a three-dimensional image creating means, a synthesizing means, an image index creating means and the like through signal lines.
Among these, the position / orientation calculation device 5 and the image processing device 11 are connected by, for example, an RS-232C standard cable 33.
The transmission antenna 6 is composed of a plurality of transmission coils (not shown) having different winding axis orientations, and these transmission coils are integrally accommodated in, for example, a rectangular parallelepiped housing. Each of the plurality of transmission coils is connected to the position / orientation calculation device 5.

A/Dユニット9i(i=a〜c)は、入力されるアナログ信号を増幅する図示しないアンプと、増幅された信号をサンプリングしてデジタルデータへ変換する図示しないアナログデジタル変換回路とからなる。
A/Dユニット9aは、画像位置配向検出用コイル31と、複数の挿入形状検出用コイル32の各々と、個別に信号線34で接続されている。
A/Dユニット9bは、長尺の体腔内接触プローブ8と信号線35で接続されている。 A/Dユニット9cは、複数の体表検出用コイル7の各々と個別に信号線36で接続されている。
なお、図1及び後述する図4の各矢印線は以下の通りの信号、データの流れを示す。
The A / D unit 9i (i = a to c) includes an amplifier (not shown) that amplifies an input analog signal and an analog-digital conversion circuit (not shown) that samples the amplified signal and converts it into digital data.
The A / D unit 9a is connected to the image position / orientation detection coil 31 and each of the plurality of insertion shape detection coils 32 via signal lines 34 individually.
The A / D unit 9 b is connected to the long body cavity contact probe 8 through a signal line 35. The A / D unit 9 c is individually connected to each of the plurality of body surface detection coils 7 by a signal line 36.
In addition, each arrow line of FIG. 1 and FIG. 4 mentioned later shows the flow of the following signals and data.

(a)第1:点線は光学像に関わる信号・データの流れ、
(b)第2:破線は超音波断層像に関わる信号・データの流れ、
(c)第3:実線は位置に関わる信号・データやそれを加工して作成されたデータの流れ、
(d)第4:一点鎖線は参照画像データやそれを加工して作成されたデータの流れ、
(e)第5:太線は超音波断層像データ(後述)と、3次元ガイド画像データ(後述)とを合成した最終的な表示画面に関わる信号・データの流れ、
(f)第6:流曲線はそれ以外の制御に関わる信号・データの流れ。
図2は被検体検出用素子を形成する体表検出用コイル7を示す。
(A) The first dotted line is the flow of signals and data related to the optical image,
(B) Second: the broken line shows the flow of signals and data related to the ultrasonic tomogram,
(C) Third: The solid line is the flow of signals and data related to the position and the data created by processing it,
(D) Fourth: A one-dot chain line is a flow of reference image data or data created by processing the reference image data,
(E) No. 5: A thick line represents a flow of signals and data related to a final display screen obtained by combining ultrasonic tomographic image data (described later) and three-dimensional guide image data (described later).
(F) Sixth: The flow curve is the flow of signals and data related to other controls.
FIG. 2 shows a body surface detection coil 7 which forms an object detection element.

体表検出用コイル7は、各々1軸方向に巻かれた4個のコイルからなり、各々のコイルがテープ、ベルト、バンドなどで、被検体37の体表、具体的には腹部体表の特徴のある点(以下、単に体表特徴点)に着脱可能に固定され、その体表特徴点の磁場を用いた位置検出に利用される。
通常の上部内視鏡検査では、被検体37は左側を下にしてベッド38上で横になるいわゆる左側臥位の姿勢をとって、内視鏡を口から挿入されるので、図2もその姿勢で描いている。
本実施例では体表特徴点を、骨格上の特徴のある箇所「剣状突起」(xiphoid process)、骨盤(pelvis)の左側の「左上前腸骨棘」(left anterior superior iliac spine)、骨盤の右側の「右上前腸骨棘」(right anterior superior iliac spine)、左右の上前腸骨棘の中間で脊椎上の「腰椎椎体棘突起」(spinous process of vertebral body)の4点にとって説明する。
The body surface detection coil 7 is composed of four coils each wound in one axial direction, and each coil is a tape, a belt, a band, etc., and the body surface of the subject 37, specifically the abdominal body surface. A feature point (hereinafter simply referred to as a body surface feature point) is detachably fixed, and is used for position detection using the magnetic field of the body surface feature point.
In normal upper endoscopy, the subject 37 takes a so-called left-side-down position lying on the bed 38 with the left side down, and the endoscope is inserted through the mouth. I draw with a posture.
In this example, the body surface feature points are the skeletal features `` xiphoid process '' on the skeleton, `` left anterior superior iliac spine '' on the left side of the pelvis (pelvis), pelvis Explained for the four points of "right anterior superior iliac spine" on the right side of the spine and "spinous process of vertebral body" on the spine between the left and right upper anterior iliac spines To do.

この4点は術者が触診で位置を特定できる。また、この4点は同一平面状になく、剣状突起を原点として他の特徴点へ向かう3本のベクトルを基本ベクトルとする斜交座標系(un-orthogonal reference frame)を形成する。この斜交座標系を図2に太い線で示す。
図3は体腔内接触プローブ8を示す。体腔内接触プローブ8は、可撓性のある材料で構成された外筒41を有する。この外筒41内におけるその先端には体腔内検出用コイル42が固定して設けられ、この外筒41の後端にはコネクタ43が設けてある。
図3に示すように、体腔内検出用コイル42は、1軸方向に巻かれたコイルで、体腔内接触プローブ8の先端に固定されている。体腔内検出用コイル42は、その巻線軸方向が体腔内接触プローブ8の挿入軸方向と一致するよう固定されている。そして、この体腔内検出用コイル42は、体腔内接触プローブ8の先端が接触された体腔内の関心部位等の位置検出に利用される。
These four points can be identified by the operator through palpation. Further, these four points are not in the same plane, but form an oblique coordinate system (un-orthogonal reference frame) having three vectors from the sword-like projection as an origin to other feature points as basic vectors. This oblique coordinate system is indicated by a thick line in FIG.
FIG. 3 shows the body cavity contact probe 8. The body cavity contact probe 8 has an outer cylinder 41 made of a flexible material. A body cavity detection coil 42 is fixedly provided at the front end of the outer cylinder 41, and a connector 43 is provided at the rear end of the outer cylinder 41.
As shown in FIG. 3, the body cavity detection coil 42 is a coil wound in one axial direction and is fixed to the distal end of the body cavity contact probe 8. The body cavity detection coil 42 is fixed so that the winding axis direction thereof coincides with the insertion axis direction of the body cavity contact probe 8. The body cavity detection coil 42 is used to detect the position of a region of interest in the body cavity with which the tip of the body cavity contact probe 8 is in contact.

図1に示すように、超音波内視鏡2は、操作部23から可撓部22を経て硬性部21にかけて、操作部23に第1の開口として、鉗子等を挿入する処置具挿入口(以下では、簡単化のため鉗子口と略記)44を備え、硬性部21に第2の開口としての突出口45を備えた、管状の処置具チャンネル46が設けてある。
この処置具チャンネル46は、体腔内接触プローブ8を鉗子口44から挿通し、突出口45から突出できるよう構成されている。突出口45の開口方向は、体腔内接触プローブ8が突出口45から突出したときに、体腔内接触プローブ8が光学観察窓24の光学視野範囲の内に入るよう向けられている。
図4は挿入形状作成手段、3次元画像作成手段、合成手段、画像指標作成手段等を内蔵した画像処理装置11を示す。
As shown in FIG. 1, the ultrasonic endoscope 2 is a treatment instrument insertion port for inserting forceps or the like as a first opening from the operation unit 23 through the flexible unit 22 to the rigid unit 21 (first opening). In the following, for the sake of simplicity, a tubular treatment instrument channel 46 is provided, which is provided with a forceps opening 44, and the rigid portion 21 is provided with a protruding opening 45 as a second opening.
The treatment instrument channel 46 is configured such that the body cavity contact probe 8 can be inserted through the forceps opening 44 and protrude from the protrusion 45. The opening direction of the protrusion 45 is directed so that the body cavity contact probe 8 falls within the optical field of view of the optical observation window 24 when the body cavity contact probe 8 protrudes from the protrusion 45.
FIG. 4 shows an image processing apparatus 11 incorporating an insertion shape creation means, a three-dimensional image creation means, a synthesis means, an image index creation means, and the like.

画像処理装置11は、マッチング回路51と、画像指標作成回路52と、挿入形状作成回路53と、通信回路54と、参照画像記憶部55と、補間回路56と、3次元人体画像作成回路57と、合成回路58と、回転変換回路59と、異なる2つの視線方向の3次元ガイド画像を作成する3次元画像作成回路60(以下、3次元ガイド画像作成回路Aと3次元ガイド画像作成回路Bと記載)、混合回路61と、表示回路62と、制御回路63とを有する。
マッチング回路51には、挿入形状検出用素子等の位置及び配向を検出する検出手段を構成する位置配向算出装置5から出力される位置・配向データが入力される。
そして、このマッチング回路51は、後述するように直交座標軸O-xyzにおいて算出された位置・配向データを、所定の変換式に従って写像し、直交座標軸O'-x'y'z'における新たな位置・配向データを算出する。
The image processing apparatus 11 includes a matching circuit 51, an image index creation circuit 52, an insertion shape creation circuit 53, a communication circuit 54, a reference image storage unit 55, an interpolation circuit 56, and a three-dimensional human body image creation circuit 57. The composition circuit 58, the rotation conversion circuit 59, and a three-dimensional image creation circuit 60 for creating three-dimensional guide images in two different gaze directions (hereinafter referred to as a three-dimensional guide image creation circuit A and a three-dimensional guide image creation circuit B) A mixing circuit 61, a display circuit 62, and a control circuit 63.
The matching circuit 51 receives position / orientation data output from the position / orientation calculation device 5 constituting detection means for detecting the position and orientation of the insertion shape detecting element or the like.
Then, the matching circuit 51 maps the position / orientation data calculated on the orthogonal coordinate axis O-xyz as described later according to a predetermined conversion formula, and creates a new position on the orthogonal coordinate axis O′-x′y′z ′. -Calculate orientation data.

そして、マッチング回路51は、この新たな位置・配向データを、位置・配向写像データとして、画像指標データを作成する画像指標作成回路52と、挿入形状データを作成する挿入形状作成回路53とへ出力する。
通信回路54は、大容量で高速の通信モデムを内部に設けており、人体の3次元データを生成するX線3次元ヘリカルCT装置15と、3次元MRI装置16とネットワーク17経由で接続されている。
参照画像記憶部55は、大容量のデータを保存できるハードディスクドライブ等からなる。参照画像記憶部55は、解剖学的な画像情報として、複数の参照画像データを記憶している。
Then, the matching circuit 51 outputs the new position / orientation data as position / orientation mapping data to an image index creating circuit 52 for creating image index data and an insertion shape creating circuit 53 for creating insertion shape data. To do.
The communication circuit 54 includes a large-capacity and high-speed communication modem, and is connected to the X-ray three-dimensional helical CT device 15 that generates three-dimensional data of the human body, the three-dimensional MRI device 16 and the network 17. Yes.
The reference image storage unit 55 includes a hard disk drive or the like that can store a large amount of data. The reference image storage unit 55 stores a plurality of reference image data as anatomical image information.

図5に示すように、参照画像データは、X線3次元ヘリカルCT装置15と、3次元MRI装置16からネットワーク17経由で得られた被検体37の断層像のデータである。 本実施例では、以下、参照画像データを、被検体37の体軸(頭から足に抜ける軸)に垂直、0.5mm〜数mmピッチ、一辺数十cmの正方形の断層像のデータとする。
被検体37の断層像を得る場合、X線3次元ヘリカルCT装置15よりも3次元MRI装置16を多用することにより、被検体37が受けるX線の被爆を低減ないしは解消できる。
図5の参照画像記憶部55内の参照画像データには説明の都合上、1番からN番までの番号が付されている。
ここで、図5のように、複数の参照画像データに対して固定した直交座標軸O’-x’y’z’とその正規直交基底(各軸方向の単位ベクトル)i’、j’、k’を、原点O’を1番の参照画像データの最も左下に定義して、参照画像データ上に定義する。
As shown in FIG. 5, the reference image data is tomographic image data of the subject 37 obtained from the X-ray three-dimensional helical CT apparatus 15 and the three-dimensional MRI apparatus 16 via the network 17. In the present embodiment, hereinafter, the reference image data is data of a square tomogram perpendicular to the body axis (the axis extending from the head to the foot) of the subject 37, with a pitch of 0.5 mm to several mm and several tens of cm on each side. .
When obtaining a tomographic image of the subject 37, the X-ray exposure received by the subject 37 can be reduced or eliminated by using the three-dimensional MRI apparatus 16 more frequently than the X-ray three-dimensional helical CT apparatus 15.
The reference image data in the reference image storage unit 55 in FIG. 5 are numbered from 1 to N for convenience of explanation.
Here, as shown in FIG. 5, the orthogonal coordinate axes O′-x′y′z ′ fixed for a plurality of reference image data and their orthonormal bases (unit vectors in each axis direction) i ′, j ′, k 'Is defined on the reference image data by defining the origin O as the lowermost left of the first reference image data.

図4に示すように補間回路56と合成回路58とは、それぞれボリュームメモリVMを内蔵している。説明の都合上、以下、補間回路56に設けられたボリュームメモリVMを補間メモリ56a、合成回路58に設けられたボリュームメモリを合成メモリ58aと呼ぶ。
ボリュームメモリVMは、大容量のデータを格納することができるよう構成されている。ボリュームメモリVMの一部の記憶領域にはボクセル空間が割り当てられている。図6に示すように、ボクセル空間は、直交座標軸O’-x’y’z’に対応したアドレスを持つメモリセル(以下、ボクセル)からなっている。
図4に示す3次元人体画像を作成する3次元人体画像作成回路57と回転変換を行う回転変換回路59は、輝度によるボクセルや画素の抽出、回転変換、相似変換、平行移動等の画像処理を高速に行う図示しない高速プロセッサを内蔵している。
As shown in FIG. 4, the interpolation circuit 56 and the synthesis circuit 58 each have a built-in volume memory VM. For convenience of explanation, hereinafter, the volume memory VM provided in the interpolation circuit 56 is referred to as an interpolation memory 56a, and the volume memory provided in the synthesis circuit 58 is referred to as a synthesis memory 58a.
The volume memory VM is configured to store a large amount of data. A voxel space is allocated to a part of the storage area of the volume memory VM. As shown in FIG. 6, the voxel space is composed of memory cells (hereinafter referred to as voxels) having addresses corresponding to the orthogonal coordinate axes O′-x′y′z ′.
A three-dimensional human body image creation circuit 57 that creates a three-dimensional human body image shown in FIG. 4 and a rotation conversion circuit 59 that performs rotation conversion perform image processing such as extraction of voxels and pixels by luminance, rotation conversion, similarity conversion, and parallel movement. It incorporates a high-speed processor (not shown) that performs at high speed.

表示回路62は、その入力を切り替えるスイッチ62aを有する。スイッチ62aは、入力端子αと、入力端子βと、入力端子γと、1個の出力端子を有する。入力端子αは、参照画像記憶部55と接続されている。入力端子βは、光学観察装置3の図示しない出力端子と接続している。入力端子γは、混合回路61と接続している。出力端子は、光学像、超音波断層像及び3次元ガイド画像等を表示する表示装置14と接続されている。
制御回路63は、画像処理装置11内の各部、各回路に指令が出力できるよう、各部、各回路とは図示しない信号線で接続されている。制御回路63は、超音波観測装置4、マウス12、キーボード13と制御線で直接接続されている。
図1に示すように、キーボード13は、体腔内特徴点指定キー65と、走査制御キー66と、表示切換キー13αと、表示切換キー13βと、表示切換キー13γとが設けてある。
The display circuit 62 has a switch 62a for switching the input. The switch 62a has an input terminal α, an input terminal β, an input terminal γ, and one output terminal. The input terminal α is connected to the reference image storage unit 55. The input terminal β is connected to an output terminal (not shown) of the optical observation device 3. The input terminal γ is connected to the mixing circuit 61. The output terminal is connected to a display device 14 that displays an optical image, an ultrasonic tomographic image, a three-dimensional guide image, and the like.
The control circuit 63 is connected to each unit and each circuit by a signal line (not shown) so that a command can be output to each unit and each circuit in the image processing apparatus 11. The control circuit 63 is directly connected to the ultrasound observation apparatus 4, the mouse 12, and the keyboard 13 through control lines.
As shown in FIG. 1, the keyboard 13 is provided with a body cavity feature point designation key 65, a scanning control key 66, a display switching key 13α, a display switching key 13β, and a display switching key 13γ.

表示切換キー13αもしくは13βもしくは13γが押されると、制御回路63は、表示回路62へスイッチ62aを入力端子αもしくはβもしくはγへ切り換えるよう指令を出力する。スイッチ62aは、表示切換キー13αが押されたときには入力端子αへ、表示切換キー13βが押されたときには入力端子βへ、表示切換キー13γが押されたときには入力端子γへ切り換える。
上述した(a)第1:から(f)第6:までの信号、データに関して、順次説明する。(a)点線で示す第1の光学像に関わる信号・データの流れに沿って、本実施例の作用を説明する。
硬性部21の図示しない照明光照射窓は、光学視野範囲側に照明光を照射する。CCDカメラ26は、光学視野範囲の物体を撮像し、光電変換してCCD信号を光学観察装置3に出力する。
When the display switching key 13α, 13β, or 13γ is pressed, the control circuit 63 outputs a command to the display circuit 62 to switch the switch 62a to the input terminal α, β, or γ. The switch 62a switches to the input terminal α when the display switching key 13α is pressed, switches to the input terminal β when the display switching key 13β is pressed, and switches to the input terminal γ when the display switching key 13γ is pressed.
The above-described signals and data from (a) No. 1 to (f) No. 6 will be described in order. (A) The operation of this embodiment will be described along the flow of signals and data related to the first optical image indicated by the dotted line.
An illumination light irradiation window (not shown) of the rigid portion 21 irradiates the illumination light toward the optical visual field range side. The CCD camera 26 images an object in the optical field of view, photoelectrically converts it, and outputs a CCD signal to the optical observation device 3.

光学観察装置3は、入力されたCCD信号を基にして光学視野範囲のリアルタイム画像のデータを作成し、このデータを光学像データとして画像処理装置11内の表示回路62のスイッチ62aの入力端子βへ出力する。
(b)第2の超音波断層像に関わる信号・データの流れに沿って、本実施例の作用を説明する。
術者が走査制御キー66を押すと、制御回路63は後述するラジアル走査のON/OFF制御を指令するための走査制御信号を超音波観測装置4へ出力する。
超音波観測装置4は、超音波振動子アレイ29を構成する超音波振動子29aのうち、一部かつ複数の超音波振動子29aを選択して、パルス電圧状の励起信号を送信する。 この一部かつ複数の超音波振動子29aは、励起信号を受け取って媒体の疎密波である超音波に変換する。
The optical observation device 3 creates real-time image data in the optical visual field range based on the input CCD signal, and uses this data as optical image data for the input terminal β of the switch 62a of the display circuit 62 in the image processing device 11. Output to.
(B) The operation of this embodiment will be described along the flow of signals and data related to the second ultrasonic tomographic image.
When the surgeon presses the scanning control key 66, the control circuit 63 outputs a scanning control signal for instructing the ON / OFF control of the radial scanning described later to the ultrasonic observation apparatus 4.
The ultrasonic observation device 4 selects a part and a plurality of ultrasonic transducers 29a among the ultrasonic transducers 29a constituting the ultrasonic transducer array 29, and transmits a pulse voltage-like excitation signal. The part and the plurality of ultrasonic transducers 29a receive the excitation signal and convert it into ultrasonic waves that are a dense wave of the medium.

この際、超音波観測装置4は、各励起信号が各超音波振動子29aに到着する時刻が異なるよう、各励起信号に遅延をかけている。この遅延は、各超音波振動子29aが励起する超音波が被検体37内で重ね合わせられたときに一本の超音波ビームを形成するようにその値(遅延量)が調整されている。
超音波ビームは、超音波内視鏡2外部へと照射され、被検体37内からの反射波が超音波ビームとは逆の経路を辿って各超音波振動子29aへ戻る。
各超音波振動子29aは反射波を電気的なエコー信号に変換して励起信号とは逆の経路で超音波観測装置4へ伝達する。
超音波観測装置4は、超音波ビームが、超音波振動子アレイ29の環の中心を含み、硬性部21および可撓部22に垂直な平面(以下、ラジアル走査面)内で旋回するよう、超音波ビームの形成に関与する複数の超音波振動子29aを選択し直し、再び励起信号を送信する。このようにして超音波ビームの送信角度が変わっていく。これを反復的に繰り返すことにより、いわゆるラジアル走査が実現する。
At this time, the ultrasonic observation apparatus 4 delays each excitation signal so that the time at which each excitation signal arrives at each ultrasonic transducer 29a is different. The value (delay amount) of the delay is adjusted so that one ultrasonic beam is formed when the ultrasonic waves excited by the ultrasonic transducers 29 a are superimposed in the subject 37.
The ultrasonic beam is irradiated to the outside of the ultrasonic endoscope 2, and the reflected wave from the inside of the subject 37 returns to each ultrasonic transducer 29a along a path opposite to the ultrasonic beam.
Each ultrasonic transducer 29a converts the reflected wave into an electrical echo signal and transmits it to the ultrasonic observation apparatus 4 through a path opposite to the excitation signal.
The ultrasonic observation apparatus 4 includes a center of the ring of the ultrasonic transducer array 29 so that the ultrasonic beam swirls within a plane perpendicular to the rigid portion 21 and the flexible portion 22 (hereinafter referred to as a radial scanning plane). The plurality of ultrasonic transducers 29a involved in the formation of the ultrasonic beam are selected again, and the excitation signal is transmitted again. In this way, the transmission angle of the ultrasonic beam changes. By repeating this repeatedly, so-called radial scanning is realized.

この際、超音波観測装置4は、超音波振動子29aが反射波から変換したエコー信号から、超音波振動子アレイ29の1回のラジアル走査に対し、硬性部21の挿入軸に垂直な1枚のデジタル化した超音波断層像データをリアルタイム画像として作成し、画像処理装置11の混合回路61へ出力する。この際、超音波観測装置4は、超音波断層像データを正方形に加工して作成する。
このように本実施例においては、超音波観測装置4が超音波ビームの形成に関与する複数の超音波振動子29aを選択し直し、再び励起信号を送信するため、正方形の超音波断層像の例えば12時方向は、超音波観測装置4が12時方向としてどの超音波振動子29aを選択して励起信号を送信するかで決定される。
こうして、超音波断層像の法線方向ベクトルV、3時方向ベクトルV3、12時方向ベクトルV12が定義される。さらに、超音波観測装置4は、超音波断層像データを、法線方向ベクトルVの反対方向−Vから観察した方向で作成する。
At this time, the ultrasonic observation device 4 uses the echo signal converted from the reflected wave by the ultrasonic transducer 29 a to 1 perpendicular to the insertion axis of the rigid portion 21 for one radial scan of the ultrasonic transducer array 29. One piece of digitized ultrasonic tomographic image data is created as a real-time image and output to the mixing circuit 61 of the image processing apparatus 11. At this time, the ultrasonic observation apparatus 4 creates ultrasonic tomographic image data by processing it into a square.
As described above, in this embodiment, since the ultrasonic observation apparatus 4 reselects the plurality of ultrasonic transducers 29a involved in the formation of the ultrasonic beam and transmits the excitation signal again, For example, the 12 o'clock direction is determined by which ultrasonic transducer 29a selects and transmits the excitation signal as the 12 o'clock direction.
Thus, the normal direction vector V, 3 o'clock direction vector V 3 , and 12 o'clock direction vector V 12 of the ultrasonic tomographic image are defined. Furthermore, the ultrasonic observation apparatus 4 creates ultrasonic tomographic image data in a direction observed from a direction −V opposite to the normal direction vector V.

超音波振動子アレイ29によるラジアル走査と、超音波観測装置4による超音波断層像データの作成と混合回路61への出力はリアルタイムに行われる。本実施例では、超音波断層像がリアルタイム画像として生成される。
(c)次に、第3の位置に関わる信号・データやそれを加工して作成されたデータの流れに沿って、本実施例の作用を説明する。
位置配向算出装置5は、送信アンテナ6の図示しない送信コイルを励磁する。送信アンテナ6は、空間に交番磁場を張る。超音波による画像信号取得手段の位置及び配向(方向)を検出する画像位置配向検出用コイル31を構成するベクトルVとV3との方向に巻かれた巻線軸が互いに直交する2個のコイル及び可撓部22の挿入形状を検出する複数個の挿入形状検出用コイル32と、被検体検出用素子としての体腔内検出用コイル42及び体表検出用コイル7とは、それぞれ交番磁場を検出し、交番磁場を各々の位置電気信号に変換してA/Dユニット9a、9b、9cへ出力する。
Radial scanning by the ultrasonic transducer array 29, generation of ultrasonic tomographic image data by the ultrasonic observation apparatus 4, and output to the mixing circuit 61 are performed in real time. In this embodiment, an ultrasonic tomographic image is generated as a real-time image.
(C) Next, the operation of the present embodiment will be described along the flow of signals and data related to the third position and data created by processing it.
The position / orientation calculation apparatus 5 excites a transmission coil (not shown) of the transmission antenna 6. The transmitting antenna 6 applies an alternating magnetic field in the space. Two coils with winding axes wound in the directions of vectors V and V 3 constituting the image position / orientation detection coil 31 for detecting the position and orientation (direction) of the image signal acquisition means using ultrasonic waves, and The plurality of insertion shape detection coils 32 for detecting the insertion shape of the flexible portion 22, the body cavity detection coil 42 and the body surface detection coil 7 as the subject detection elements respectively detect alternating magnetic fields. The alternating magnetic field is converted into each position electric signal and output to the A / D units 9a, 9b, 9c.

A/Dユニット9a、9b、9cは、位置電気信号をアンプで増幅し、アナログデジタル変換回路でサンプリングしてデジタルデータへ変換し、デジタルデータを位置配向算出装置5へ出力する。
次に、位置配向算出装置5は、A/Dユニット9aからのデジタルデータを基にして、画像位置配向検出用コイル31の位置とその直交する巻線軸の方向、つまりベクトルVとV3とを算出する。次に、位置配向算出装置5は、直交する巻線軸の方向のベクトルVとV3の外積V×V3を算出することで、残りの直交方向である12時方向のベクトルV12を算出する。このようにして、位置配向算出装置5は直交する3方向、つまりベクトルV、V3、V12を算出する。
次に、位置配向算出装置5は、A/Dユニット9a〜9cからのデジタルデータを基にして、複数個の挿入形状検出用コイル32の各々の位置と、体表検出用コイル7の各々の位置と、体腔内検出用コイル42の位置とを算出する。
The A / D units 9 a, 9 b, 9 c amplify the position electrical signal with an amplifier, sample it with an analog-digital conversion circuit, convert it into digital data, and output the digital data to the position orientation calculation device 5.
Next, the position / orientation calculation apparatus 5 calculates the position of the image position / orientation detection coil 31 and the direction of the winding axis perpendicular thereto, that is, the vectors V and V 3 based on the digital data from the A / D unit 9a. calculate. Then, the position orientation calculation device 5, by calculating the outer product V × V 3 of the winding axis direction of the vector V and V 3 of orthogonal, to calculate the 12 o'clock direction of the vector V 12 is the remaining orthogonal direction . In this way, the position / orientation calculation apparatus 5 calculates three orthogonal directions, that is, vectors V, V 3 and V 12 .
Next, the position / orientation calculation device 5 uses the digital data from the A / D units 9a to 9c to determine the position of each of the plurality of insertion shape detection coils 32 and each of the body surface detection coils 7. The position and the position of the body cavity detection coil 42 are calculated.

次に、位置配向算出装置5は、画像位置配向検出用コイル31の位置及び配向と、複数個の挿入形状検出用コイル32の各々の位置と、4個の体表検出用コイル7の各々の位置と、体腔内検出用コイル42の位置と、を位置・配向データとして画像処理装置11のマッチング回路51へ出力する。
次に位置・配向データの詳細を以下に述べる。
本実施例では図7のように原点Oを送信アンテナ6上に定義して、術者が被検体37を検査する実際の空間上に直交座標軸O-xyzとその正規直交基底(各軸方向の単位ベクトル)i、j、kを定義する。
画像位置配向検出用コイル31の位置をO"とする。画像位置配向検出用コイル31は超音波振動子アレイ29の環の中心のごく近傍に固定されているので位置O"は、ラジアル走査の中心かつ超音波断層像の中心に一致する。
Next, the position / orientation calculation apparatus 5 includes the position and orientation of the image position / orientation detection coil 31, the positions of the plurality of insertion shape detection coils 32, and the four body surface detection coils 7. The position and the position of the body cavity detection coil 42 are output to the matching circuit 51 of the image processing apparatus 11 as position / orientation data.
Next, details of the position / orientation data will be described below.
In this embodiment, the origin O is defined on the transmitting antenna 6 as shown in FIG. 7, and the orthogonal coordinate axis O-xyz and its normal orthogonal base (in each axial direction) are set on the actual space where the operator examines the subject 37. Unit vectors) i, j, k are defined.
The position of the image position / orientation detection coil 31 is O ". Since the image position / orientation detection coil 31 is fixed very close to the center of the ring of the ultrasonic transducer array 29, the position O" It coincides with the center of the ultrasonic tomogram.

ここで、位置・配向データを以下のように定義する。
直交座標軸O-xyzにおける画像位置配向検出用コイル31の位置O"の位置ベクトルOO"の各方向成分:
(x0,y0,z0)
直交座標軸O-xyzに対する画像位置配向検出用コイル31の配向を示すオイラー角(後述)の各角度成分:
(ψ,θ,φ)
直交座標軸O-xyzにおける複数個の挿入形状検出用コイル32の各々の位置ベクトルの各方向成分:
(xi,yi,zi) (iは1から挿入形状検出用コイル32の総数までの自然数)
直交座標軸O-xyzにおける4個の体表検出用コイル7の各々の位置ベクトルの各方向成分:
(xa,ya,za)、(xb,yb,zb)、(xc,yc,zc)、(xd,yd,zd)
直交座標軸O-xyzにおける体腔内検出用コイル42の位置ベクトルの各方向成分:
(xp,yp,zp)
ここで、オイラー角とは、図7の直交座標軸O-xyzに、z軸の周りの回転、y軸の周りの回転、再びz軸の周りの回転をこの順で加えて、以下の通りに各軸の方向が一致するような角度である。
Here, the position / orientation data is defined as follows.
Each direction component of the position vector OO "of the position O" of the image position / orientation detection coil 31 on the orthogonal coordinate axis O-xyz:
(x0, y0, z0)
Each angle component of Euler angles (described later) indicating the orientation of the image position orientation detection coil 31 with respect to the orthogonal coordinate axis O-xyz:
(ψ, θ, φ)
Each direction component of each position vector of the plurality of insertion shape detection coils 32 on the orthogonal coordinate axis O-xyz:
(xi, yi, zi) (i is a natural number from 1 to the total number of insertion shape detection coils 32)
Each direction component of each position vector of the four body surface detection coils 7 on the orthogonal coordinate axis O-xyz:
(xa, ya, za), (xb, yb, zb), (xc, yc, zc), (xd, yd, zd)
Each direction component of the position vector of the body cavity detection coil 42 on the orthogonal coordinate axis O-xyz:
(xp, yp, zp)
Here, the Euler angle is obtained by adding rotation around the z axis, rotation around the y axis, and rotation around the z axis in this order to the orthogonal coordinate axis O-xyz in FIG. The angle is such that the directions of the axes coincide.

回転後のi = V3、回転後のj = V12、回転後のk = V
ψは、最初のz軸の周りの回転角度、θはy軸の周りの回転角度、φは再びのz軸の周りの回転角度である。
図7のHは、位置O"からxy平面へ下ろした垂線と、xy平面との交点である。このオイラー角の各角度成分(ψ,θ,φ)が画像位置配向検出用コイル31の配向、すなわち超音波断層像データの配向に相当する。
マッチング回路51は、以下の第1と第2と第3と第4とのデータ群から、直交座標軸O-xyz上で表現された位置・配向を、直交座標軸O'-x'y'z'上で表現されたボクセル空間内の位置・配向へ写像する変換式を算出する。
この算出の方法は後述する。また、下記第1と第2で説明する位置・配向データは、被検体37の体動によって変化が生じる。変換式も被検体37の体動の変化とともに新たに作成される。この変換式の新たな作成も後述する。
I = V 3 after rotation, j = V 12 after rotation, k = V after rotation
ψ is the rotation angle around the first z axis, θ is the rotation angle around the y axis, and φ is the rotation angle around the z axis again.
H in FIG. 7 is an intersection of a perpendicular line from the position O ″ to the xy plane and the xy plane. Each angular component (ψ, θ, φ) of this Euler angle is the orientation of the image position orientation detecting coil 31. That is, it corresponds to the orientation of ultrasonic tomographic image data.
The matching circuit 51 converts the position / orientation expressed on the orthogonal coordinate axis O-xyz from the following first, second, third, and fourth data groups to the orthogonal coordinate axis O′-x′y′z ′. The conversion formula that maps to the position / orientation in the voxel space expressed above is calculated.
This calculation method will be described later. In addition, the position / orientation data described in the following first and second changes depending on the body movement of the subject 37. A conversion formula is also newly created as the body movement of the subject 37 changes. New creation of this conversion formula will also be described later.

第1のデータ群は、位置・配向データのうち、被検体37の剣状突起、左上前腸骨棘、右上前腸骨棘、腰椎椎体棘突起の各々に取り付けた体表検出用コイル7の直交座標軸O-xyzにおける位置ベクトルの各方向成分(xa,ya,za)、(xb,yb,zb)、(xc,yc,zc)、(xd,yd,zd)。
図8は、これらに取り付けられた体表検出用コイル7を示す。
第2のデータ群は、位置・配向データのうち、直交座標軸O-xyzにおける体腔内検出用コイル42の位置ベクトルの各方向成分(xp,yp,zp)。
図9において体腔内検出用コイル42を先端に固定して内蔵した体腔内接触プローブ8を太い点線で示す。
第3のデータ群は、1〜N番までの参照画像データのいずれかの上の、剣状突起、左上前腸骨棘、右上前腸骨棘、腰椎椎体棘突起の各々について、これら各々から最も体表に近い画素の直交座標軸O'-x'y'z'における座標(xa',ya',za')、(xb',yb',zb')、(xc',yc',zc')、(xd',yd',zd')。
The first data group includes a body surface detection coil 7 attached to each of the xiphoid process, upper left anterior iliac spine, upper right anterior iliac spine, and lumbar spine process of the subject 37 in the position / orientation data. Direction component (xa, ya, za), (xb, yb, zb), (xc, yc, zc), (xd, yd, zd) of the position vector on the orthogonal coordinate axis O-xyz.
FIG. 8 shows the body surface detection coil 7 attached thereto.
The second data group is each direction component (xp, yp, zp) of the position vector of the body cavity detection coil 42 in the orthogonal coordinate axis O-xyz in the position / orientation data.
In FIG. 9, the body cavity contact probe 8 in which the body cavity detection coil 42 is fixed and housed is shown by a thick dotted line.
The third data group includes the xiphoid process, the upper left anterior iliac spine, the upper right anterior iliac spine, and the lumbar spine spinous processes on any of the reference image data Nos. 1 to N, respectively. (Xa ', ya', za '), (xb', yb ', zb'), (xc ', yc',) on the orthogonal coordinate axis O'-x'y'z 'of the pixel closest to the body surface zc '), (xd', yd ', zd').

これらの画素は、予め術者が1〜N番までの参照画像データのいずれかの上で指定する。この指定の方法は後述する。
図9は、これらの画素を黒丸●と白丸○とで示す。(xa',ya',za')、(xb',yb',zb')、(xc',yc',zc')、(xd',yd',zd')は、図4に示すように体表特徴点座標として、参照画像記憶部55からマッチング回路51へ読み出される。
第4のデータ群は、1〜N番までの参照画像データのいずれかの上の、十二指腸乳頭に相当する画素の直交座標軸O'-x'y'z'における座標(xp",yp",zp")。
これらの画素は、予め術者が1〜N番までの参照画像データのいずれかの上で指定する。
These pixels are designated in advance on any of the reference image data Nos. 1 to N by the operator. This designation method will be described later.
FIG. 9 shows these pixels with black circles ● and white circles ○. (xa ', ya', za '), (xb', yb ', zb'), (xc ', yc', zc '), (xd', yd ', zd') are as shown in FIG. The body surface feature point coordinates are read from the reference image storage unit 55 to the matching circuit 51.
The fourth data group includes coordinates (xp ", yp", xp ", yp", pixels on the orthogonal coordinate axes O'-x'y'z 'of pixels corresponding to the duodenal papilla on any of the reference image data Nos. 1 to N. zp ").
These pixels are designated in advance on any of the reference image data Nos. 1 to N by the operator.

この指定の方法は後述する。図9において、この画素をP"で示す。第4の画素の座標(xp",yp",zp")は、図4に示すように体腔内特徴点座標として、参照画像記憶部55からマッチング回路51へ読み出される。
次に、マッチング回路51は、直交座標軸O-xyzにおいて算出された位置・配向データを、上記変換式に従って写像し、直交座標軸O'-x'y'z'における新たな位置・配向データを算出する。
次に、マッチング回路51は、この新たな位置・配向データを、位置・配向写像データとして、画像指標作成回路52と挿入形状作成回路53とへ出力する。
画像指標作成回路52は、直交座標軸O-xyzにおける画像位置配向検出用コイル31の位置O"の位置ベクトルOO"の各方向成分(x0,y0,z0)と、直交座標軸O-xyzに対する画像位置配向検出用コイル31の配向を示すオイラー角の各角度成分(ψ,θ,φ)との計6自由度の位置・配向写像データから画像指標データを作成し、合成回路58へ出力する。
This designation method will be described later. In FIG. 9, this pixel is indicated by P ″. The coordinates (xp ″, yp ″, zp ″) of the fourth pixel are matched from the reference image storage unit 55 as body cavity feature point coordinates as shown in FIG. Read to circuit 51.
Next, the matching circuit 51 maps the position / orientation data calculated on the orthogonal coordinate axis O-xyz in accordance with the above conversion formula, and calculates new position / orientation data on the orthogonal coordinate axis O′-x′y′z ′. To do.
Next, the matching circuit 51 outputs the new position / orientation data to the image index creating circuit 52 and the insertion shape creating circuit 53 as position / orientation mapping data.
The image index creation circuit 52 includes each direction component (x0, y0, z0) of the position vector OO "of the position O" of the image position / orientation detection coil 31 on the orthogonal coordinate axis O-xyz, and the image position relative to the orthogonal coordinate axis O-xyz. Image index data is created from position / orientation mapping data having a total of six degrees of freedom with each of the Euler angle components (ψ, θ, φ) indicating the orientation of the orientation detection coil 31, and is output to the synthesis circuit 58.

この様子を図10に示す。つまり、図10の上側の位置・配向写像データから、図10の下側に示すように画像指標データが作成される。
この画像指標データは、平行四辺形の超音波断層像マーカMuに、例えば青色の先端方向マーカMd(図10中で青と表記)と黄緑色の矢印状の6時方向マーカMt(図10中に黄緑と表記)とを合成した直交座標軸O'-x'y'z'上における画像データである。
挿入形状作成回路53は、画像位置配向検出用コイル31の位置O"の位置ベクトルOO"の各方向成分(x0,y0,z0)と、直交座標軸O-xyzにおける複数個の挿入形状検出用コイル32の各々の位置ベクトルの各方向成分(xi,yi,zi) との位置・配向写像データから、(補間及びマーカ作成処理により)挿入形状データを作成し、合成回路58へ出力する。
この様子を図11に示す。挿入形状データは、画像位置配向検出用コイル31と複数個の挿入形状検出用コイル32の各々の位置を順につないで補間したひも状の挿入形状マーカMsと、各コイル位置を示すコイル位置マーカMcとを合成した直交座標軸O'-x'y'z'上における画像データである。
This is shown in FIG. That is, image index data is created from the upper position / orientation mapping data in FIG. 10 as shown in the lower part of FIG.
This image index data includes, for example, a parallelogram ultrasonic tomogram marker Mu, a blue tip direction marker Md (indicated as blue in FIG. 10), and a yellow green arrow-shaped 6 o'clock direction marker Mt (in FIG. 10). Image data on the Cartesian coordinate axis O'-x'y'z '.
The insertion shape creation circuit 53 includes each direction component (x0, y0, z0) of the position vector OO "of the position O" of the image position / orientation detection coil 31 and a plurality of insertion shape detection coils on the orthogonal coordinate axis O-xyz. Insertion shape data is created (by interpolation and marker creation processing) from the position / orientation mapping data of each of the 32 position vectors and each direction component (xi, yi, zi), and output to the synthesis circuit 58.
This is shown in FIG. The insertion shape data includes a string-like insertion shape marker Ms obtained by interpolating the positions of the image position / orientation detection coil 31 and the plurality of insertion shape detection coils 32 in order, and a coil position marker Mc indicating each coil position. Is the image data on the orthogonal coordinate axis O′-x′y′z ′.

(d)次に第4の参照画像データやそれを加工して作成されたデータの流れに沿って、本実施例の作用を説明する。
術者は事前に被検体37にX線3次元ヘリカルCT装置15や3次元MRI装置16で、被検体37の腹部全体にわたる参照画像データを取得する。
術者は、キーボード13の所定のキーを押すか、画面上のメニューをマウス12で選択して、参照画像データの取得を指示する。このとき同時に術者は、入手先も指示する。この指示により、制御回路63は、通信回路54に対して参照画像データの取り込みとその入手先を指令する。
例えば、入手先がX線3次元ヘリカルCT装置15であった場合には、通信回路54は、参照画像データとしてネットワーク17から複数枚の2次元CT画像を取り込み、参照画像記憶部55へ記憶させる。
(D) Next, the operation of this embodiment will be described along the flow of fourth reference image data and data created by processing it.
The surgeon acquires reference image data for the entire abdomen of the subject 37 in advance using the X-ray three-dimensional helical CT apparatus 15 and the three-dimensional MRI apparatus 16 on the subject 37.
The surgeon presses a predetermined key on the keyboard 13 or selects a menu on the screen with the mouse 12 to instruct acquisition of reference image data. At the same time, the surgeon also instructs the supplier. In response to this instruction, the control circuit 63 instructs the communication circuit 54 to take in reference image data and obtain it.
For example, when the acquisition destination is the X-ray three-dimensional helical CT apparatus 15, the communication circuit 54 takes in a plurality of two-dimensional CT images from the network 17 as reference image data and stores them in the reference image storage unit 55. .

X線3次元ヘリカルCT装置15で撮像する際には撮像前にX線造影剤を被検体37の血管から注入し、大動脈(aorta)、上腸間膜静脈(superior mesenteric vein)等の血管(広義には脈管)や、血管を多く含む器官が2次元CT画像上、高輝度や中輝度で表示されるようにし、周囲の組織とは輝度差がつきやすくしておく。
また、例えば、入手先が3次元MRI装置16であった場合には、通信回路54は、参照画像データとしてネットワーク17から複数枚の2次元MRI画像を取り込み、参照画像記憶部55へ記憶させる。
3次元MRI装置16で撮像する際には撮像前に核磁気共鳴の感度の高いMRI用造影剤を被検体37の血管から注入し、大動脈、上腸間膜静脈等の血管や、血管を多く含む器官が2次元MRI画像上、高輝度や中輝度で表示されるようにし、周囲の組織とは輝度差がつきやすくしておく。
When imaging with the X-ray three-dimensional helical CT apparatus 15, an X-ray contrast medium is injected from the blood vessel of the subject 37 before imaging, and blood vessels such as aorta and superior mesenteric vein (superior mesenteric vein) In a broad sense, a blood vessel) or an organ containing many blood vessels is displayed on a two-dimensional CT image with high or medium luminance so that a difference in luminance from the surrounding tissue is likely to occur.
For example, when the acquisition destination is the three-dimensional MRI apparatus 16, the communication circuit 54 captures a plurality of two-dimensional MRI images from the network 17 as reference image data and stores them in the reference image storage unit 55.
When imaging with the three-dimensional MRI apparatus 16, an MRI contrast agent with high sensitivity of nuclear magnetic resonance is injected from the blood vessel of the subject 37 before imaging, and many blood vessels such as the aorta and superior mesenteric vein and many blood vessels are injected. The organs included are displayed on the two-dimensional MRI image with high or medium luminance so that a difference in luminance from the surrounding tissue is likely to occur.

以下、術者が入手先としてX線3次元ヘリカルCT装置15を選択した場合と3次元MRI装置16を選択した場合とは作用が同様であるので、入手先としてX線3次元ヘリカルCT装置15を選択し、通信回路54が参照画像データとして複数枚の2次元CT画像を取り込んだ場合についてのみの作用を説明する。
図5は参照画像記憶部55へ記憶された参照画像データの例を示す。X線造影剤の作用により、大動脈、上腸間膜静脈等の血管は高輝度に、膵臓(pancreas)等の末梢血管を多く含む器官は中輝度に、十二指腸(duodenum)等は低輝度に造影されている。
補間回路56は、参照画像記憶部55より1番からN番までの全ての参照画像データを読み出す。次に補間回路56は、読み出した参照画像データを補間メモリ56aのボクセル空間へ埋めていく。
Hereinafter, since the operation is the same as when the operator selects the X-ray 3D helical CT apparatus 15 as the acquisition destination and when the 3D MRI apparatus 16 is selected, the X-ray 3D helical CT apparatus 15 as the acquisition destination. Only when the communication circuit 54 captures a plurality of two-dimensional CT images as reference image data will be described.
FIG. 5 shows an example of reference image data stored in the reference image storage unit 55. Due to the action of the X-ray contrast medium, blood vessels such as the aorta and superior mesenteric veins have high brightness, organs containing many peripheral blood vessels such as pancreas have medium brightness, and duodenum etc. have low brightness. Has been.
The interpolation circuit 56 reads all the reference image data from No. 1 to No. N from the reference image storage unit 55. Next, the interpolation circuit 56 fills the read reference image data into the voxel space of the interpolation memory 56a.

具体的には、参照画像データの各画素の輝度を、画素に対応するアドレスを持つボクセルへ出力していく。次に補間回路56は、隣接する参照画像データの輝度値を基に補間して、空いているボクセルをデータで埋めていく。このようにして、ボクセル空間内の全てのボクセルが参照画像データを基にしたデータ(以下、ボクセルデータ)で満たされる。 3次元人体画像作成回路57は、補間回路56から高輝度値のボクセル(主に血管)、中輝度値のボクセル(主に膵臓など末梢血管を多く含む器官)をそれぞれ輝度値域別に抽出し、輝度別に分類して着色する。
次に、3次元人体画像作成回路57は、抽出したボクセルを3次元人体画像データとして合成回路58の合成メモリ58aのボクセル空間へ埋めていく。このとき、3次元人体画像作成回路57は、抽出したボクセルの補間メモリ56a内のボクセル空間のアドレスと、合成メモリ58a内のボクセル空間のアドレスとが同じになるように埋めていく。
Specifically, the luminance of each pixel of the reference image data is output to a voxel having an address corresponding to the pixel. Next, the interpolation circuit 56 performs interpolation based on the luminance value of the adjacent reference image data, and fills the vacant voxel with the data. In this way, all the voxels in the voxel space are filled with data based on the reference image data (hereinafter referred to as voxel data). The three-dimensional human body image creation circuit 57 extracts voxels (mainly blood vessels) with high luminance values and voxels with medium luminance values (mainly organs including many peripheral blood vessels such as pancreas) from the interpolation circuit 56 for each luminance value range. Separately and color.
Next, the three-dimensional human body image creation circuit 57 fills the extracted voxels into the voxel space of the synthesis memory 58a of the synthesis circuit 58 as three-dimensional human body image data. At this time, the three-dimensional human body image creation circuit 57 fills the extracted voxel addresses in the interpolation memory 56a so that the addresses in the voxel space in the synthesis memory 58a are the same.

図12は3次元人体画像データの例を示す。図12に示す例では3次元人体画像データは、高輝度の血管である大動脈と上腸間膜静脈、中輝度の器官である膵臓とが抽出されたものであり、血管は赤、膵臓は緑で着色され、被検体37の頭側を右側に足側を左側にして腹側から観察した3次元データとして示されている。
3次元人体画像作成回路57は、臓器や血管等を抽出する抽出手段の機能も持つ。なお、この抽出手段を3次元ガイド画像作成回路A、B側に設けるようにしても良い。そして、3次元ガイド画像作成回路A、B側においても3次元ガイド画像を作成する際、臓器や血管を選択できるようにしても良い。
FIG. 12 shows an example of 3D human body image data. In the example shown in FIG. 12, the three-dimensional human body image data is obtained by extracting the aorta, which is a high-luminance blood vessel, the superior mesenteric vein, and the pancreas, which is a medium-luminance organ. The blood vessel is red and the pancreas is green. And is shown as three-dimensional data observed from the ventral side with the head side of the subject 37 on the right side and the foot side on the left side.
The three-dimensional human body image creation circuit 57 also has a function of extraction means for extracting organs, blood vessels, and the like. This extraction means may be provided on the three-dimensional guide image creation circuits A and B side. The three-dimensional guide image creation circuits A and B may be configured so that organs and blood vessels can be selected when creating a three-dimensional guide image.

合成回路58は、画像指標データと、挿入形状データとを合成メモリ58a内のボクセル空間に埋めていく。この様子は図13に示してある。
図13においては説明の都合上、ボクセル空間に存在する3次元人体画像データを省略している(3次元人体画像データを省略しない場合は図14等で示す)。このようにして、合成回路58は、同じボクセル空間内に3次元人体画像データと、画像指標データと、挿入形状データとを同じ合成メモリ内に埋めていくことで、これらを一組のデータ(以下、合成3次元データ)として合成する。
The synthesis circuit 58 fills the image index data and the insertion shape data in the voxel space in the synthesis memory 58a. This is shown in FIG.
In FIG. 13, for convenience of explanation, three-dimensional human body image data existing in the voxel space is omitted (when three-dimensional human body image data is not omitted, it is shown in FIG. 14 and the like). In this way, the synthesis circuit 58 embeds the three-dimensional human body image data, the image index data, and the insertion shape data in the same synthesis memory in the same voxel space. Hereinafter, they are synthesized as synthesized three-dimensional data).

回転変換回路59は、合成3次元データを読み出し、制御回路63からの回転指示信号に従って、合成3次元データに対して回転処理を施す。
3次元ガイド画像作成回路Aは、合成3次元データに陰面消去、陰影付け等のレンダリング処理を施し、画面に出力可能な画像データ(以下、3次元ガイド画像データ)を作成する。
3次元ガイド画像データのデフォルトの向きは、人体の腹側からの向きとする。従って、3次元ガイド画像作成回路Aは、被検体37の腹側からの方向で観察した3次元ガイド画像データを作成する。なお、3次元ガイド画像データのデフォルトの向きとしては、人体の腹側からの向きとしているが、背側からの向きの3次元ガイド画像データを作成するようにしても良い。また、その他の方向からの3次元ガイド画像データを作成するようにしても良い。
この3次元ガイド画像作成回路Aは、被検体腹側から観察した3次元ガイド画像データを混合回路61へ出力する。この3次元ガイド画像データを図14に示す。図14の右側が被検体頭側、左側が被検体足側である。
The rotation conversion circuit 59 reads the combined three-dimensional data and performs a rotation process on the combined three-dimensional data in accordance with the rotation instruction signal from the control circuit 63.
The three-dimensional guide image creation circuit A performs rendering processing such as hidden surface removal and shading on the combined three-dimensional data, and creates image data (hereinafter, three-dimensional guide image data) that can be output to the screen.
The default direction of the three-dimensional guide image data is the direction from the ventral side of the human body. Therefore, the three-dimensional guide image creation circuit A creates three-dimensional guide image data observed in the direction from the ventral side of the subject 37. Note that the default orientation of the 3D guide image data is the orientation from the abdomen side of the human body, but 3D guide image data of the orientation from the back side may be created. Further, three-dimensional guide image data from other directions may be created.
The three-dimensional guide image creation circuit A outputs the three-dimensional guide image data observed from the subject's ventral side to the mixing circuit 61. The three-dimensional guide image data is shown in FIG. The right side of FIG. 14 is the subject head side, and the left side is the subject foot side.

図14の3次元ガイド画像データでは、画像指標データのうちの超音波断層像マーカMuを半透明にして、画像指標データの6時方向マーカMtと先端方向マーカMdと、挿入形状データの挿入形状マーカMsとコイル位置マーカMcとが透けて見えるようにしている。
その他の臓器に対しては超音波断層像マーカMuを不透明にして超音波断層像マーカMuの裏側の部分は見えないようにしている。図14では、超音波断層像マーカMuの裏側にあり、かつ超音波断層像マーカMuと重なる各マーカは破線で示してある。
3次元ガイド画像作成回路Bは、回転処理を加えられた合成3次元データに陰面消去、陰影付け等のレンダリング処理を施し、画面に出力可能な3次元ガイド画像データを作成する。
In the three-dimensional guide image data of FIG. 14, the ultrasonic tomographic image marker Mu in the image index data is made translucent, the 6 o'clock direction marker Mt and the tip direction marker Md of the image index data, and the insertion shape of the insertion shape data The marker Ms and the coil position marker Mc are seen through.
For other organs, the ultrasonic tomographic image marker Mu is made opaque so that the portion on the back side of the ultrasonic tomographic image marker Mu cannot be seen. In FIG. 14, each marker that is behind the ultrasonic tomographic image marker Mu and overlaps the ultrasonic tomographic image marker Mu is indicated by a broken line.
The three-dimensional guide image creation circuit B performs rendering processing such as hidden surface removal and shading on the combined three-dimensional data subjected to the rotation processing, and creates three-dimensional guide image data that can be output to the screen.

本実施例では1例として、術者のマウス12、キーボード13からの入力により、制御回路63からの回転指示信号が3次元ガイド画像データを90度回転させ、足側から観察する指示内容になっていたものとする。
従って、3次元ガイド画像作成回路Bは被検体足側からの方向で観察した3次元ガイド画像データを作成する。
3次元ガイド画像作成回路Bは、被検体足側から観察した3次元ガイド画像データを混合回路61へ出力する。この3次元ガイド画像データを図15に示す。図15の右側が被検体右側、左側が被検体左側である。
図15の3次元ガイド画像データでは、画像指標データのうちの超音波断層像マーカMuを半透明にして、画像指標データの6時方向マーカMtと先端方向マーカMdと、挿入形状データの挿入形状マーカMsとコイル位置マーカMcとが透けて見えるようにしている。
In the present embodiment, as an example, the rotation instruction signal from the control circuit 63 is rotated by 90 degrees by the operator's mouse 12 and keyboard 13 and the instruction content is to be observed from the foot side. It shall have been.
Accordingly, the 3D guide image creation circuit B creates 3D guide image data observed in the direction from the subject's foot side.
The three-dimensional guide image creation circuit B outputs the three-dimensional guide image data observed from the subject's foot side to the mixing circuit 61. This three-dimensional guide image data is shown in FIG. The right side of FIG. 15 is the subject right side, and the left side is the subject left side.
In the three-dimensional guide image data of FIG. 15, the ultrasonic tomographic image marker Mu in the image index data is made translucent, the 6 o'clock direction marker Mt and the tip direction marker Md of the image index data, and the insertion shape of the insertion shape data The marker Ms and the coil position marker Mc are seen through.

その他の臓器に対しては超音波断層像マーカMuを不透明にして超音波断層像マーカMuの裏側の部分は見えないようにしている。図15では、超音波断層像マーカMuの裏側にあり、かつ超音波断層像マーカMuと重なる各マーカは破線で示してある。
なお、図15における超音波断層像マーカMuの表示は、超音波断層像マーカMuの法線が観察視線すなわち表示装置14の画面法線と一致するように正対させる場合でない、つまり非正対の表示である。
(e)次に第5の超音波断層像データと、3次元ガイド画像データとを合成した最終的な表示画面に関わる信号・データの流れに沿って、本実施例の作用を説明する。
図4の混合回路61は、超音波観測装置4からの超音波断層像データと、3次元ガイド画像作成回路Aからの被検体37を腹側から観察した3次元ガイド画像データと、3次元ガイド画像作成回路Bからの被検体37を足側から観察した3次元ガイド画像データとを並べて表示用の混合データを作成する。
For other organs, the ultrasonic tomographic image marker Mu is made opaque so that the portion on the back side of the ultrasonic tomographic image marker Mu cannot be seen. In FIG. 15, each marker that is behind the ultrasonic tomographic image marker Mu and overlaps the ultrasonic tomographic image marker Mu is indicated by a broken line.
Note that the display of the ultrasonic tomographic image marker Mu in FIG. 15 is not a case where the normal line of the ultrasonic tomographic image marker Mu is aligned so as to coincide with the observation line of sight, that is, the screen normal line of the display device 14, that is, non-facing. Display.
(E) Next, the operation of this embodiment will be described along the flow of signals and data related to the final display screen obtained by synthesizing the fifth ultrasonic tomographic image data and the three-dimensional guide image data.
The mixing circuit 61 in FIG. 4 includes ultrasonic tomographic image data from the ultrasonic observation apparatus 4, three-dimensional guide image data obtained by observing the subject 37 from the three-dimensional guide image creation circuit A from the ventral side, and a three-dimensional guide. 3D guide image data obtained by observing the object 37 from the image creation circuit B from the foot side is arranged to create mixed data for display.

表示回路62は、この混合データをアナログビデオ信号に変換して、表示装置14に出力するする。
表示装置14は、このアナログビデオ信号を基に超音波断層像と被検体37を足側から観察した3次元ガイド画像と腹側から観察した3次元ガイド画像とを並べて対比可能に表示する。
図16に示すように、表示装置14は、3次元ガイド画像上で表現される各器官を、もともと参照画像データ上の輝度値に応じた色で器官別に色分けして表示する。
図16の表示例では、膵臓は緑、大動脈、上腸間膜静脈は赤で表示されている。図16では、超音波断層像マーカMuの裏側にあり、かつ超音波断層像マーカMuと重なる各マーカは破線で示してある。
また、図16で白抜きの矢印で示すように2つの3次元ガイド画像は、ラジアル走査面の移動に連動して移動する。
The display circuit 62 converts the mixed data into an analog video signal and outputs it to the display device 14.
The display device 14 displays the ultrasonic tomographic image, the three-dimensional guide image obtained by observing the subject 37 from the foot side, and the three-dimensional guide image observed from the abdominal side, side by side, based on the analog video signal.
As shown in FIG. 16, the display device 14 displays each organ represented on the three-dimensional guide image by color-coding by organ according to the color corresponding to the luminance value on the reference image data.
In the display example of FIG. 16, the pancreas is displayed in green, the aorta, and the superior mesenteric vein is displayed in red. In FIG. 16, each marker that is behind the ultrasonic tomographic image marker Mu and overlaps the ultrasonic tomographic image marker Mu is indicated by a broken line.
In addition, as shown by white arrows in FIG. 16, the two three-dimensional guide images move in conjunction with the movement of the radial scanning plane.

(f)次に第6に制御に関わる信号・データの流れに沿って、本実施例の作用を説明する。
図4の画像処理装置11内のマッチング回路51と、画像指標作成回路52と、挿入形状作成回路53と、通信回路54と、参照画像記憶部55と、補間回路56と、3次元人体画像作成回路57と、合成回路58と、回転変換回路59と、3次元ガイド画像作成回路Aと、3次元ガイド画像作成回路Bと、混合回路61と、表示回路62とは、制御回路63からの指令により制御される。
制御の詳細は後述する。
以下、術者の使用形態に沿って、本実施例の画像処理装置11、キーボード13、マウス12、表示装置14の作用の全体を説明する。図17はその全体のフローチャートであり、ステップS1〜S4の各処理はこの順序で実行される。
(F) Sixth, the operation of this embodiment will be described along the flow of signals and data related to control.
The matching circuit 51, the image index creation circuit 52, the insertion shape creation circuit 53, the communication circuit 54, the reference image storage unit 55, the interpolation circuit 56, and the 3D human body image creation in the image processing apparatus 11 of FIG. The circuit 57, the synthesis circuit 58, the rotation conversion circuit 59, the three-dimensional guide image creation circuit A, the three-dimensional guide image creation circuit B, the mixing circuit 61, and the display circuit 62 are commands from the control circuit 63. Controlled by
Details of the control will be described later.
Hereinafter, the entire operation of the image processing device 11, the keyboard 13, the mouse 12, and the display device 14 according to the present embodiment will be described in accordance with the usage pattern of the surgeon. FIG. 17 is a flowchart of the entire process, and the processes in steps S1 to S4 are executed in this order.

最初のステップS1は参照画像データ上での体表特徴点、体腔内特徴点指定処理である。つまり、このステップS1において参照画像データ上で、体表特徴点と体腔内特徴点とを指定する処理が行われる。
次のステップS2において術者は、被検体37に体表検出用コイル7を固定する。術者は、被検体37をその左側を臥せた体位、所謂、左側臥位にする。術者は、被検体37を触診し、4つの体表特徴点である剣状突起、左上前腸骨棘、右上前腸骨棘、腰椎椎体棘突起に最も近い体表上の位置に体表検出用コイル7を固定する。
次のステップS3は補正値算出処理である。
このステップS3において画像処理装置11は、体腔内特徴点の位置・配向データを取得し、直交座標軸O-xyz上で表現された位置・配向データを直交座標軸O'-x'y'z'上で表現されたボクセル空間内の位置・配向写像データへ写像する変換式を算出し、さらに体腔内特徴点の位置・配向データから変換式の補正値を算出する処理を行う。
The first step S1 is a body surface feature point and body cavity feature point designation process on the reference image data. That is, in this step S1, processing for designating body surface feature points and body cavity feature points is performed on the reference image data.
In the next step S <b> 2, the surgeon fixes the body surface detection coil 7 to the subject 37. The surgeon places the subject 37 in a body position with its left side thin, so-called left-sided position. The surgeon palpates the subject 37 and places the body at a position on the body surface closest to the four body surface feature points xiphoid process, left upper anterior iliac spine, right upper iliac spine, and lumbar spine process. The table detection coil 7 is fixed.
The next step S3 is a correction value calculation process.
In this step S3, the image processing apparatus 11 acquires the position / orientation data of the feature points in the body cavity, and the position / orientation data expressed on the orthogonal coordinate axis O-xyz on the orthogonal coordinate axis O'-x'y'z '. The conversion formula for mapping to the position / orientation mapping data in the voxel space expressed in (4) is calculated, and further, the correction value of the conversion formula is calculated from the position / orientation data of the feature points in the body cavity.

次のステップS4において超音波断層像・3次元ガイド画像作成/表示処理が行われる。このステップS4は、超音波断層像と3次元ガイド画像を作成し、表示する処理である。
次に図17のステップS1の処理、つまり参照画像データ上での体表特徴点、体腔内特徴点指定処理を具体的に説明する。
図18は、図17のステップS1の参照画像データ上で、体表特徴点と体腔内特徴点とを指定する処理の詳細を示す。
最初のステップS1-1において、術者は表示切換キー13αを押す。制御回路63は表示回路62に指令を出す。表示回路62のスイッチ62aは指令により入力端子αに切り換わる。
次のステップS1-2において、術者は、マウス12、キーボード13を用い、1〜N番までのいずれかの参照画像データを指定する。
In the next step S4, ultrasonic tomographic image / three-dimensional guide image creation / display processing is performed. This step S4 is processing for creating and displaying an ultrasonic tomographic image and a three-dimensional guide image.
Next, the processing in step S1 in FIG. 17, that is, the body surface feature point and body cavity feature point designation processing on the reference image data will be specifically described.
FIG. 18 shows details of processing for designating body surface feature points and body cavity feature points on the reference image data in step S1 of FIG.
In the first step S1-1, the operator presses the display switching key 13α. The control circuit 63 issues a command to the display circuit 62. The switch 62a of the display circuit 62 is switched to the input terminal α according to a command.
In the next step S1-2, the surgeon uses the mouse 12 and the keyboard 13 to specify any reference image data from 1 to N.

次のステップS1-3において、制御回路63は、表示回路62に参照画像記憶部55に記憶された1〜N番までのいずれかの参照画像データのうち、指定された参照画像データを読み出させる。
表示回路62は、参照画像記憶部55からの参照画像データをアナログビデオ信号に変換し、参照画像データを表示装置14に出力する。表示装置14は参照画像データを表示する。
次のステップS1-4において、術者は、マウス12、キーボード13を用い、参照画像データ上で体表特徴点を指定する。具体的には以下の通りである。
術者は表示された参照画像データに被検体37の4つの体表特徴点である剣状突起、左上前腸骨棘、右上前腸骨棘、腰椎椎体棘突起のいずれかが写っているようにする。いずれも写っていなければステップS1-2へ戻り、術者は他の参照画像データを指定し直し、ステップS1-3で写っている参照画像データを表示させるまで、異なる参照画像データの表示を繰り返す。
In the next step S <b> 1-3, the control circuit 63 reads the designated reference image data from any one of the reference image data 1 to N stored in the reference image storage unit 55 in the display circuit 62. Let
The display circuit 62 converts the reference image data from the reference image storage unit 55 into an analog video signal, and outputs the reference image data to the display device 14. The display device 14 displays reference image data.
In the next step S1-4, the operator uses the mouse 12 and the keyboard 13 to designate body surface feature points on the reference image data. Specifically, it is as follows.
The surgeon shows in the displayed reference image data any of the four body surface feature points of the subject 37, the xiphoid process, the upper left anterior iliac spine, the upper right anterior iliac spine, and the lumbar spine spinous process. Like that. If none is shown, the process returns to step S1-2, and the surgeon respecifies other reference image data and repeats display of different reference image data until the reference image data shown in step S1-3 is displayed. .

術者は、マウス12、キーボード13を用い、表示された参照画像データ上で被検体37の体表面上の4点である剣状突起、左上前腸骨棘、右上前腸骨棘、腰椎椎体棘突起に最も近い体表上の点に相当する画素を指定する。
指定した点を図8と図9の黒丸●と白丸○とで示す。本実施例では説明の都合上、剣状突起○がn1番(1≦n1≦N)の参照画像データ上に写っており、左上前腸骨棘、右上前腸骨棘、腰椎椎体棘突起●がn2番(1≦n2≦N)の参照画像データ上に写っているものとして説明する。
図8と図9では説明の都合上、n2番の参照画像データ上の剣状突起に相当する位置に○で剣状突起を示している。
The operator uses the mouse 12 and the keyboard 13 to display four points on the surface of the body of the subject 37 on the displayed reference image data, the upper left iliac spine, the upper right iliac spine, the lumbar vertebrae A pixel corresponding to a point on the body surface closest to the spinous process is designated.
The designated points are indicated by black circles ● and white circles ○ in FIGS. 8 and 9. In this embodiment, for the convenience of explanation, the xiphoid process ○ is shown on the reference image data of n1 (1 ≦ n1 ≦ N), and the upper left anterior iliac spine, the upper right anterior iliac spine, and the lumbar spinous process In the following description, it is assumed that ● is reflected on the reference image data of n2 (1 ≦ n2 ≦ N).
In FIGS. 8 and 9, for the convenience of explanation, sword-shaped protrusions are indicated by circles at positions corresponding to the sword-shaped protrusions on the reference image data of the number n2.

次のステップS1-5において、術者は、マウス12、キーボード13を用い、体腔内特徴点P"を指定する。本実施例では体腔内特徴点P"として十二指腸乳頭(総胆管の十二指腸への開口部:duodenal papilla)を例にあげて説明する。具体的には以下の通りである。
術者は、マウス12、キーボード13を用い、1〜N番までのいずれかの参照画像データを指定する。
制御回路63は、表示回路62に図示しない信号線を経由して参照画像記憶部55に記憶された1〜N番までのいずれかの参照画像データのうち、指定された参照画像データを読み出させる。
表示回路62は、読み出した参照画像データを表示装置14へ出力する。表示装置14はこの参照画像データを表示する。術者は表示された参照画像データに被検体37の体腔内特徴点である十二指腸乳頭が写っていなければ、他の参照画像データを指定し直し、写っている参照画像データを表示させるまで、異なる参照画像データの表示を繰り返す。
In the next step S1-5, the operator designates the body cavity feature point P "using the mouse 12 and the keyboard 13. In this embodiment, as the body cavity feature point P", the duodenal papilla (to the duodenum of the common bile duct) is designated. A description will be given by taking an example of an opening (duodenal papilla). Specifically, it is as follows.
The surgeon uses the mouse 12 and the keyboard 13 to specify any one of the reference image data from 1 to N.
The control circuit 63 reads designated reference image data out of any one of reference image data 1 to N stored in the reference image storage unit 55 via a signal line (not shown) in the display circuit 62. Let
The display circuit 62 outputs the read reference image data to the display device 14. The display device 14 displays this reference image data. If the duodenal papilla, which is a feature point in the body cavity of the subject 37, is not reflected in the displayed reference image data, the surgeon respecifies the other reference image data and is different until the reflected reference image data is displayed. Repeat display of reference image data.

術者は、マウス12、キーボード13を用い、表示された参照画像データ上で被検体37の体腔内の点である十二指腸乳頭に相当する画素を指定する。
指定した点を図9のP"で示す。本実施例では説明の都合上、十二指腸乳頭P"がn2番(1≦n2≦N)の参照画像データ上に写っているものとして説明する。
次のステップS1-6において、制御回路63は、ステップS1-4で指定された各体表特徴点に相当する各画素とステップS1-5で指定された体腔内特徴点P"に相当する画素とについて、参照画像データ上でのアドレスからボクセル空間に張られた直交座標軸O’-x’y’z’での座標を算出し、マッチング回路51へ出力する。
The operator uses the mouse 12 and the keyboard 13 to designate a pixel corresponding to the duodenal papilla that is a point in the body cavity of the subject 37 on the displayed reference image data.
The designated point is indicated by P "in FIG. 9. In this embodiment, for convenience of explanation, it is assumed that the duodenal papilla P" is shown on the reference image data of n2 (1 ≦ n2 ≦ N).
In the next step S1-6, the control circuit 63 determines each pixel corresponding to each body surface feature point designated in step S1-4 and a pixel corresponding to the body cavity feature point P "designated in step S1-5. , The coordinates on the orthogonal coordinate axes O′-x′y′z ′ stretched in the voxel space from the address on the reference image data are calculated and output to the matching circuit 51.

ステップS1-4で指定された各体表特徴点に相当する各画素の直交座標軸O’-x’y’z’での座標の算出値を(xa',ya',za')、(xb',yb',zb')、(xc',yc',zc')、(xd',yd',zd')とする。
ステップS1-5で指定された体腔内特徴点に相当する画素直交座標軸O’-x’y’z’での各座標の算出値を(xp",yp",zp")とする。
マッチング回路51はこの座標を記憶する。このステップS1-6の終了後、図17のステップS2に進む。そして、このステップS2の処理の後、図17のステップS3の補正値算出処理に進む。
図19は、ステップS3の補正値算出処理の詳細を示す。上述したようにこのステップS3は、体腔内特徴点の位置・配向データを取得し、直交座標軸O-xyz上で表現された位置・配向データを直交座標軸O'-x'y'z'上で表現されたボクセル空間内の位置・配向写像データへ写像する変換式を算出し、さらに体腔内特徴点の位置・配向データから変換式の補正値を算出する処理である。
The calculated values of the coordinates on the orthogonal coordinate axes O′-x′y′z ′ of the pixels corresponding to the body surface feature points designated in step S1-4 are (xa ′, ya ′, za ′), (xb ', yb', zb '), (xc', yc ', zc'), (xd ', yd', zd ').
The calculated value of each coordinate on the pixel orthogonal coordinate axis O′-x′y′z ′ corresponding to the feature point in the body cavity designated in step S1-5 is set to (xp ″, yp ″, zp ″).
The matching circuit 51 stores this coordinate. After step S1-6 is completed, the process proceeds to step S2 in FIG. Then, after the process of step S2, the process proceeds to the correction value calculation process of step S3 of FIG.
FIG. 19 shows details of the correction value calculation processing in step S3. As described above, this step S3 obtains the position / orientation data of the feature points in the body cavity, and the position / orientation data expressed on the orthogonal coordinate axis O-xyz on the orthogonal coordinate axis O'-x'y'z '. This is a process of calculating a conversion formula that maps to the expressed position / orientation mapping data in the voxel space, and further calculating a correction value of the conversion formula from the position / orientation data of the feature points in the body cavity.

ステップS3の補正値算出処理が開始すると、最初のステップS3-1において、術者は、表示切換キー13βを押す。この指示に対応して制御回路63は表示回路62に指令を出す。表示回路62のスイッチ62aは指令により入力端子βに切り換わる。
次にステップS3-2において、表示回路62は、光学観察装置3からの光学像データをアナログビデオ信号に変換し、光学像を表示装置14に出力する。表示装置14は、光学像を表示する。
次のステップS3-3において、術者は、被検体37に超音波内視鏡2の硬性部21と可撓部22とを体腔内へ挿入する。
次のステップS3-4において、術者は、光学像を観察しながら硬性部21を動かして体腔内特徴点を探す。術者は、体腔内特徴点が見つかった後、硬性部21を体腔内特徴点近傍へ移動する。
When the correction value calculation process in step S3 is started, in the first step S3-1, the operator presses the display switching key 13β. In response to this instruction, the control circuit 63 issues a command to the display circuit 62. The switch 62a of the display circuit 62 is switched to the input terminal β according to a command.
Next, in step S 3-2, the display circuit 62 converts the optical image data from the optical observation device 3 into an analog video signal, and outputs the optical image to the display device 14. The display device 14 displays an optical image.
In the next step S3-3, the operator inserts the rigid portion 21 and the flexible portion 22 of the ultrasonic endoscope 2 into the body cavity into the subject 37.
In the next step S3-4, the surgeon searches the feature point in the body cavity by moving the rigid portion 21 while observing the optical image. After the feature point in the body cavity is found, the operator moves the rigid portion 21 to the vicinity of the feature point in the body cavity.

次のステップS3-5において、術者は、光学像を観察しながら、体腔内接触プローブ8を鉗子口44から挿入し、突出口45から突出させる。そして、術者は、光学像視野下で体腔内接触プローブ8の先端を体腔内特徴点に接触させる。
この様子を図20に示す。図20では表示画面に光学像が表示されている。光学像には体腔内特徴点の例として十二指腸乳頭Pと体腔内接触プローブ8とが表示されている。
次のステップS3-6において、術者は、体腔内特徴点指定キー65を押す。
次のステップS3-7において、制御回路63は、マッチング回路51に指令を出す。マッチング回路51は、指令により位置配向算出装置5から位置・配向データを取り込み、記憶する。この位置・配向データには、前述の通り以下の2種類のデータが含まれている。
In the next step S3-5, the surgeon inserts the body cavity contact probe 8 from the forceps port 44 and projects from the projecting port 45 while observing the optical image. Then, the operator brings the tip of the body cavity contact probe 8 into contact with the body cavity feature point under the optical image field of view.
This is shown in FIG. In FIG. 20, an optical image is displayed on the display screen. The optical image displays the duodenal papilla P and the body cavity contact probe 8 as examples of body cavity feature points.
In the next step S3-6, the operator presses the body cavity feature point designation key 65.
In the next step S3-7, the control circuit 63 issues a command to the matching circuit 51. The matching circuit 51 takes in the position / orientation data from the position / orientation calculation device 5 according to the command and stores it. The position / orientation data includes the following two types of data as described above.

直交座標軸O-xyzにおける4個の体表検出用コイル7の各々の位置ベクトルの各方向成分、すなわち、この場合は4個の体表特徴点の直交座標軸O-xyzでの座標:(xa,ya,za)、(xb,yb,zb)、(xc,yc,zc)、(xd,yd,zd)。
直交座標軸O-xyzにおける体腔内検出用コイル42の位置ベクトルの各方向成分、すなわち、この場合は体腔内特徴点の直交座標軸O-xyzでの座標:(xp,yp,zp)。
次のステップS3-8において、マッチング回路51は体表特徴点の座標から第1の写像を表現する第1変換式を作成する。具体的には以下の通りである。
まず、マッチング回路51は、以下の内容を記憶している。
Each direction component of each position vector of the four body surface detection coils 7 on the orthogonal coordinate axis O-xyz, that is, in this case, the coordinates of the four body surface feature points on the orthogonal coordinate axis O-xyz: (xa, ya, za), (xb, yb, zb), (xc, yc, zc), (xd, yd, zd).
Each direction component of the position vector of the body cavity detection coil 42 on the orthogonal coordinate axis O-xyz, that is, in this case, the coordinates of the body cavity feature point on the orthogonal coordinate axis O-xyz: (xp, yp, zp).
In the next step S3-8, the matching circuit 51 creates a first conversion expression that expresses the first mapping from the coordinates of the body surface feature points. Specifically, it is as follows.
First, the matching circuit 51 stores the following contents.

第1にステップS1で指定された各体表特徴点に相当する各画素のボクセル空間内の直交座標軸O’-x’y’z’での各座標:
(xa',ya',za')、(xb',yb',zb')、(xc',yc',zc')、(xd',yd',zd')
第2にステップS1)で指定された体腔内特徴点に相当する画素のボクセル空間内の直交座標軸O’-x’y’z’での座標:
(xp",yp",zp")
第3にステップS3-7で取り込まれた体表特徴点の直交座標軸O-xyzでの各座標:
(xa,ya,za)、(xb,yb,zb)、(xc,yc,zc)、(xd,yd,zd)
第4にステップS3-7で取り込まれた体腔内特徴点の直交座標軸O-xyzでの座標:
(xp,yp,zp)
マッチング回路51は、このうち、第3の各座標(xa,ya,za)、(xb,yb,zb)、(xc,yc,zc)、(xd,yd,zd)と第1の各座標(xa',ya',za')、(xb',yb',zb')、(xc',yc',zc')、(xd',yd',zd')とから、直交座標軸O-xyz上の任意の点をボクセル空間内の直交座標軸O’-x’y’z’の点への第1の写像を表現する第1変換式を作成する。この第1の写像と第1変換式とは以下の通り定義される。
First, each coordinate on the orthogonal coordinate axis O′-x′y′z ′ in the voxel space of each pixel corresponding to each body surface feature point specified in step S1:
(xa ', ya', za '), (xb', yb ', zb'), (xc ', yc', zc '), (xd', yd ', zd')
Second, the coordinates of the pixel corresponding to the feature point in the body cavity designated in step S1) on the orthogonal coordinate axis O'-x'y'z 'in the voxel space:
(xp ", yp", zp ")
Thirdly, each coordinate on the orthogonal coordinate axis O-xyz of the body surface feature point captured in step S3-7:
(xa, ya, za), (xb, yb, zb), (xc, yc, zc), (xd, yd, zd)
Fourth, the coordinates of the body cavity feature points taken in step S3-7 on the orthogonal coordinate axis O-xyz:
(xp, yp, zp)
The matching circuit 51 includes the third coordinates (xa, ya, za), (xb, yb, zb), (xc, yc, zc), (xd, yd, zd) and the first coordinates. From (xa ', ya', za '), (xb', yb ', zb'), (xc ', yc', zc '), (xd', yd ', zd'), the orthogonal coordinate axis O- A first transformation expression expressing a first mapping of an arbitrary point on xyz to a point on the orthogonal coordinate axis O'-x'y'z 'in the voxel space is created. The first mapping and the first conversion formula are defined as follows.

図8に示すように、体表特徴点である剣状突起、左上前腸骨棘、右上前腸骨棘、腰椎椎体棘突起を用い、剣状突起から他の点へ向かう3本のベクトルを基本ベクトルとする、2つの斜交座標系を被検体37上とボクセル空間内(図8では参照画像データとして表現されているが、これを補間して得たデータ空間内)とを仮想(設定)する。
第1の写像とは、「直交座標軸O-xyzにおける任意点の、被検体37上の斜交座標系で表現される座標」と、「直交座標軸O'-x'y'z'におけるこの任意点の写像後の点の、ボクセル空間内の斜交座標系で表現される座標」とが同じになるような、被検体37からボクセル空間への写像である。
また、第1変換式とは「任意点の直交座標軸O-xyzにおける座標」を「ボクセル空間内の第1の写像後の点の直交座標軸O'-x'y'z'における座標」へ変換する式である。
As shown in FIG. 8, three vectors from the xiphoid process to another point using the xiphoid process, the upper left anterior iliac spine, the upper right anterior iliac spine, and the lumbar spine process, which are body surface feature points, are shown in FIG. Two oblique coordinate systems having a basic vector as the base vector and the object 37 in the voxel space (represented as reference image data in FIG. 8, but in the data space obtained by interpolating them) are virtually ( Set).
The first mapping is “coordinates of an arbitrary point on the orthogonal coordinate axis O-xyz expressed in an oblique coordinate system on the subject 37” and “this arbitrary coordinate on the orthogonal coordinate axis O′-x′y′z ′”. This is a mapping from the subject 37 to the voxel space so that the “coordinates expressed by the oblique coordinate system in the voxel space of the point after mapping the point” are the same.
In addition, the first conversion formula converts “coordinates of the arbitrary point on the orthogonal coordinate axis O-xyz” to “coordinates of the point after the first mapping in the voxel space on the orthogonal coordinate axis O′-x′y′z ′”. It is an expression to do.

例えば、図8に示すように、画像位置配向検出用コイル31の位置、すなわちラジアル走査の中心かつ超音波断層像の中心O"の第1の写像による写像後の点をQ'とする。
点Q'の直交座標軸O'-x'y'z'における座標を(x0',y0',z0')とする。第1変換式を用いると、点O"の直交座標軸O-xyzにおける座標(x0,y0,z0)は、点Q'の直交座標軸O'-x'y'z'における座標(x0',y0',z0')へ変換される。
次のステップS3-9において、マッチング回路51は、図9に示すように、第1変換式により、体腔内特徴点Pをボクセル空間内の点P'へ写像する。体腔内特徴点Pの直交座標軸O-xyzでの座標は(xp,yp,zp)である。第1の写像後の点P'の直交座標軸O’-x’y’z’での座標を(xp',yp',zp')と定義する。
次のステップS3-10において、マッチング回路51は、点P'のボクセル空間内の直交座標軸O’-x’y’z’での座標を(xp',yp',zp')と、ステップS1で指定された体腔内特徴点に相当する点P"のボクセル空間内の直交座標軸O’-x’y’z’での座標(xp",yp",zp")とから、以下のようにベクトルP'P"を算出する。
For example, as shown in FIG. 8, the position of the image position / orientation detection coil 31, that is, the point after mapping by the first mapping of the center of radial scanning and the center O ″ of the ultrasonic tomographic image is Q ′.
The coordinates of the point Q ′ on the orthogonal coordinate axes O′-x′y′z ′ are (x0 ′, y0 ′, z0 ′). Using the first conversion formula, the coordinate (x0, y0, z0) of the point O ″ on the orthogonal coordinate axis O-xyz is the coordinate (x0 ′, y0) of the point Q ′ on the orthogonal coordinate axis O′-x′y′z ′. ', z0').
In the next step S3-9, as shown in FIG. 9, the matching circuit 51 maps the body cavity feature point P to the point P ′ in the voxel space by the first conversion formula. The coordinates of the body cavity feature point P on the orthogonal coordinate axis O-xyz are (xp, yp, zp). The coordinates of the point P ′ after the first mapping on the orthogonal coordinate axes O′-x′y′z ′ are defined as (xp ′, yp ′, zp ′).
In the next step S3-10, the matching circuit 51 sets the coordinates of the point P ′ on the orthogonal coordinate axes O′-x′y′z ′ in the voxel space to (xp ′, yp ′, zp ′), and step S1. From the coordinates (xp ", yp", zp ") on the orthogonal coordinate axis O'-x'y'z 'in the voxel space of the point P" corresponding to the feature point in the body cavity specified by Vector P'P "is calculated.

P'P" =(xp",yp",zp")−(xp',yp',zp') = (xp"−xp',yp"−yp',zp"−zp')
次のステップS3-11において、マッチング回路51は、ベクトルP'P"を記憶する。 ベクトルP'P"は後述する処理で第1変換式を補正して第2の変換式を作成するための補正値として作用する。このステップS3-11の終了後、次のステップS4に進む。
次にこのステップS4の超音波断層像・3次元ガイド画像作成/表示処理を説明する。 図21は、ステップS4の被検体37の実際の超音波断層像・3次元ガイド画像を作成し、表示する処理の詳細を示す。
ステップS4の処理が開始すると、最初のステップS4-1において、術者は表示切換キー13γを押す。制御回路63は表示回路62に指令を出す。表示回路62のスイッチ62aは、この指令により入力端子γに切り換わる。
次のステップS4-2において、術者は走査制御キー66を押す。
P'P "= (xp", yp ", zp")-(xp ', yp', zp ') = (xp "-xp', yp" -yp ', zp "-zp')
In the next step S3-11, the matching circuit 51 stores the vector P'P ". The vector P'P" is used for correcting the first conversion formula and creating the second conversion formula in the process described later. Acts as a correction value. After step S3-11 ends, the process proceeds to next step S4.
Next, the ultrasonic tomographic image / three-dimensional guide image creation / display process in step S4 will be described. FIG. 21 shows details of processing for creating and displaying an actual ultrasonic tomographic image / three-dimensional guide image of the subject 37 in step S4.
When the processing of step S4 is started, the operator presses the display switching key 13γ in the first step S4-1. The control circuit 63 issues a command to the display circuit 62. The switch 62a of the display circuit 62 is switched to the input terminal γ by this command.
In the next step S4-2, the operator presses the scan control key 66.

次のステップS4-3において、制御回路63は走査制御信号を超音波観測装置4へ出力する。そして、超音波振動子アレイ29は、ラジアル走査を開始する。
次のステップS4-4において、制御回路63は混合回路61に指令を出す。混合回路61は、この指令により超音波観測装置4からのラジアル走査に応じて入力される超音波断層像データを逐次、取り込む。
次のステップS4-5において、制御回路63はマッチング回路51に指令を出す。マッチング回路51は、指令により位置配向算出装置5から位置・配向データを取り込み、記憶する。この取り込みは、瞬時に行われる。そのため、マッチング回路51は、ステップS4-4で混合回路61が超音波断層像データを取り込んだ瞬間の、以下のデータを含む、位置・配向データを取り込むことになる。
In the next step S4-3, the control circuit 63 outputs a scanning control signal to the ultrasonic observation apparatus 4. Then, the ultrasonic transducer array 29 starts radial scanning.
In the next step S4-4, the control circuit 63 issues a command to the mixing circuit 61. The mixing circuit 61 sequentially captures the ultrasonic tomographic image data input according to the radial scanning from the ultrasonic observation apparatus 4 in accordance with this command.
In the next step S4-5, the control circuit 63 issues a command to the matching circuit 51. The matching circuit 51 takes in the position / orientation data from the position / orientation calculation device 5 according to the command and stores it. This capture is instantaneous. Therefore, the matching circuit 51 captures position / orientation data including the following data at the moment when the mixing circuit 61 captures the ultrasonic tomographic image data in step S4-4.

直交座標軸O-xyzにおける画像位置配向検出用コイル31の位置、すなわちラジアル走査の中心かつ超音波断層像の中心O"の位置ベクトルOO"の各方向成分:
(x0,y0,z0)
直交座標軸O-xyzに対する画像位置配向検出用コイル31の配向、すなわち超音波断層像の配向を示すオイラー角の各角度成分:
(ψ,θ,φ)
直交座標軸O-xyzにおける複数個の挿入形状検出用コイル32の各々の位置ベクトルの各方向成分:
(xi,yi,zi) (iは1から挿入形状検出用コイル32の総数までの自然数)
直交座標軸O-xyzにおける4個の体表検出用コイル7の各々の位置ベクトルの各方向成分:
(xa,ya,za)、(xb,yb,zb)、(xc,yc,zc)、(xd,yd,zd)
次のステップS4-6において、マッチング回路51は、ステップS4-5で取り込んだ位置・配向データのうち、直交座標軸O-xyzにおける4個の体表検出用コイル7の各々の位置ベクトルの各方向成分(xa,ya,za)、(xb,yb,zb)、(xc,yc,zc)、(xd,yd,zd)を用い、ステップS3)で記憶した第1変換式を更新する。
Each direction component of the position of the image position / orientation detection coil 31 on the orthogonal coordinate axis O-xyz, that is, the position vector OO "of the center of radial scanning and the center O" of the ultrasonic tomographic image:
(x0, y0, z0)
Each angular component of the Euler angle indicating the orientation of the image position orientation detecting coil 31 with respect to the orthogonal coordinate axis O-xyz, that is, the orientation of the ultrasonic tomographic image:
(ψ, θ, φ)
Each direction component of each position vector of the plurality of insertion shape detection coils 32 on the orthogonal coordinate axis O-xyz:
(xi, yi, zi) (i is a natural number from 1 to the total number of insertion shape detection coils 32)
Each direction component of each position vector of the four body surface detection coils 7 on the orthogonal coordinate axis O-xyz:
(xa, ya, za), (xb, yb, zb), (xc, yc, zc), (xd, yd, zd)
In the next step S4-6, the matching circuit 51 determines each direction of the position vector of each of the four body surface detection coils 7 on the orthogonal coordinate axis O-xyz out of the position / orientation data acquired in step S4-5. Using the components (xa, ya, za), (xb, yb, zb), (xc, yc, zc), (xd, yd, zd), the first conversion formula stored in step S3) is updated.

次にマッチング回路51は、更新した第1変換式にステップS3で記憶したベクトルP'P"による平行移動とを合わせて、第2の写像を表現する第2変換式を新たに作成する。 マッチング回路51は、第1変換式とベクトルP'P"による平行移動とを合わせて第2の写像を表現する第2変換式を作成する。第2の写像の概念は、以下の通りである。
第2の写像=第1の写像+ベクトルP'P"による平行移動
ベクトルP'P"による平行移動には以下に示す補正効果がある。ベクトルP'P"は補正値として作用する。
第1の写像を「直交座標軸O-xyzにおける任意点の、被検体37上の斜交座標系で表現される座標」と、「直交座標軸O'-x'y'z'におけるこの任意点の写像後の点の、ボクセル空間内の斜交座標系で表現される座標」とが同じになるような、被検体37からボクセル空間への写像とした。
Next, the matching circuit 51 newly creates a second conversion expression expressing the second mapping by combining the updated first conversion expression with the parallel movement by the vector P′P ″ stored in step S3. The circuit 51 creates a second conversion expression that represents the second mapping by combining the first conversion expression and the parallel movement by the vector P′P ″. The concept of the second mapping is as follows.
Second map = first map + translation by vector P′P ″ The translation by vector P′P ″ has the following correction effect. Vector P'P "acts as a correction value.
The first mapping is “coordinates of an arbitrary point on the orthogonal coordinate axis O-xyz expressed in the oblique coordinate system on the subject 37” and “the coordinates of the arbitrary point on the orthogonal coordinate axis O′-x′y′z ′”. The mapping from the subject 37 to the voxel space was made so that the “coordinates expressed by the oblique coordinate system in the voxel space of the points after mapping” were the same.

理想的には、体腔内特徴点Pのボクセル空間内への第1の写像による写像点P'と、ステップS1)で指定された体腔内特徴点に相当する点P"とは一致することが望ましい。しかし、実際には正確に一致させることが難しい。
この理由は、「直交座標軸O-xyzにおける任意点と、被検体37上の斜交座標系との空間的な位置関係」と「任意点に解剖学的に相当する直交座標軸O'-x'y'z'における点と、ボクセル空間内の斜交座標系との空間的な位置関係」とが種々の要因で完全に一致しないことにある。
本実施例で説明すると、第1の写像と第1変換式とを骨格上の特徴のある体表特徴点の各座標から求めたが、体腔内特徴点である十二指腸乳頭Pは骨格上の体表特徴点と常に同じ位置関係にあるとは限らないためである。
Ideally, the mapping point P ′ obtained by the first mapping of the body cavity feature point P into the voxel space and the point P ″ corresponding to the body cavity feature point specified in step S1) may coincide with each other. Desirable, but in practice it is difficult to match exactly.
This is because “the spatial positional relationship between an arbitrary point on the orthogonal coordinate axis O-xyz and the oblique coordinate system on the subject 37” and “the orthogonal coordinate axis O′-x ′ corresponding to the arbitrary point anatomically. This is because the point in y′z ′ and the spatial positional relationship between the oblique coordinate system in the voxel space do not completely match due to various factors.
In the present embodiment, the first mapping and the first transformation formula are obtained from the coordinates of the body surface feature points having features on the skeleton. The duodenal papilla P, which is a feature point in the body cavity, This is because the table feature points are not always in the same positional relationship.

この原因は主に、X線3次元ヘリカルCT装置15と3次元MRI装置16とは、通常仰臥位で撮像され、左側臥位での超音波内視鏡2検査の時とは体位が異なるため、被検体37内の諸器官は重力に従って変位することがあげられる。
そのため、第1の写像に補正値としてのベクトルP'P"による平行移動を合わせて第2の写像とすることにより、体腔内特徴点Pの写像点はボクセル空間内で体腔内特徴点に相当する点P"に一致する。さらに、被検体37の他の点、例えば超音波断層像の中心O"も第2の写像により解剖学的に一層正確な一致をするのである。
次のステップS4-7において、マッチング回路51は、ステップS4-5で取り込んだ位置・配向データのうち、直交座標軸O-xyzにおける超音波断層像の中心O"の位置ベクトルOO"の各方向成分(x0,y0,z0)と、直交座標軸O-xyzに対する画像位置配向検出用コイル31の配向を示すオイラー角の各角度成分(ψ,θ,φ)と、直交座標軸O-xyzにおける複数個の挿入形状検出用コイル32の各々の位置ベクトルの各方向成分(xi,yi,zi) (iは1から挿入形状検出用コイル32の総数までの自然数)とを新たに作成した第2変換式を用いて、位置・配向写像データへ変換する。
This is mainly because the X-ray three-dimensional helical CT apparatus 15 and the three-dimensional MRI apparatus 16 are normally imaged in the supine position and are different in body posture from the time of the ultrasonic endoscope 2 examination in the left lateral position. The various organs in the subject 37 can be displaced according to gravity.
Therefore, the mapping of the feature point P in the body cavity is equivalent to the feature point in the body cavity in the voxel space by combining the first mapping with the parallel movement by the vector P′P ”as the correction value. Matches the point P ". Further, other points of the object 37, for example, the center O ″ of the ultrasonic tomographic image, are more accurately anatomically matched by the second mapping.
In the next step S4-7, the matching circuit 51 extracts each directional component of the position vector OO "of the center O" of the ultrasonic tomographic image on the orthogonal coordinate axis O-xyz from the position / orientation data acquired in step S4-5. (x0, y0, z0), each angular component (ψ, θ, φ) of Euler angles indicating the orientation of the image position orientation detection coil 31 with respect to the orthogonal coordinate axis O-xyz, and a plurality of angular components on the orthogonal coordinate axis O-xyz. A second transformation formula that newly creates each directional component (xi, yi, zi) (i is a natural number from 1 to the total number of insertion shape detection coils 32) of each position vector of the insertion shape detection coil 32. To convert to position / orientation mapping data.

図8に示すように第1変換式では超音波断層像の中心O"はボクセル空間上の点Q'へ写像されるが、本ステップで新たに作成した第2変換式を用いることにより、図9に示すように超音波断層像の中心O"はボクセル空間上の点Q"へ写像される。Q'とQ"との差異を示すベクトルQ'Q"は第2の写像における平行移動による補正分と一致するのでベクトルP'P"と同じである。すなわち、以下の式が成立する。
Q'Q" =P'P"
次のステップS4-8において、画像指標作成回路52は、画像指標データを作成する。挿入形状作成回路53は、挿入形状データを作成する。
合成回路58は、3次元人体画像データと、画像指標データと、挿入形状データを合成し、合成3次元データを作成する。
回転変換回路59は合成3次元データに回転処理を施す。
As shown in FIG. 8, in the first conversion formula, the center O ″ of the ultrasonic tomographic image is mapped to the point Q ′ on the voxel space. By using the second conversion formula newly created in this step, As shown in Fig. 9, the center O "of the ultrasonic tomogram is mapped to a point Q" in the voxel space. The vector Q'Q "indicating the difference between Q 'and Q" is due to the translation in the second map. Since it matches the correction amount, it is the same as the vector P'P ". That is, the following expression is established.
Q'Q "= P'P"
In the next step S4-8, the image index creation circuit 52 creates image index data. The insertion shape creation circuit 53 creates insertion shape data.
The synthesizing circuit 58 synthesizes the three-dimensional human body image data, the image index data, and the insertion shape data, and creates synthesized three-dimensional data.
The rotation conversion circuit 59 performs rotation processing on the combined three-dimensional data.

3次元ガイド画像作成回路Aと3次元ガイド画像作成回路Bとは、それぞれ3次元ガイド画像データを作成する。
上記それぞれの処理は前述の通りである。
次のステップS4-9において、混合回路61は、超音波断層像データと3次元ガイド画像データとを並べて表示用の混合データを作成する。
表示回路62はこの混合データをアナログビデオ信号に変換する。
表示装置14は、このアナログビデオ信号を基に超音波断層像と被検体37を腹側から観察した3次元ガイド画像と足側から観察した3次元ガイド画像とを並べて図16のように表示する。
上記それぞれの処理は前述の通りである。
次のステップS4-10において、制御回路63は、ステップS4-4からステップS4-9の間、術者が再び走査制御キー66を押すか否かを確認している。
The three-dimensional guide image creation circuit A and the three-dimensional guide image creation circuit B each create three-dimensional guide image data.
Each of the above processes is as described above.
In the next step S4-9, the mixing circuit 61 generates the mixed data for display by arranging the ultrasonic tomographic image data and the three-dimensional guide image data.
The display circuit 62 converts this mixed data into an analog video signal.
The display device 14 displays the ultrasonic tomographic image, the three-dimensional guide image obtained by observing the subject 37 from the ventral side, and the three-dimensional guide image observed from the foot side, side by side, as shown in FIG. .
Each of the above processes is as described above.
In the next step S4-10, the control circuit 63 confirms whether or not the operator presses the scan control key 66 again during steps S4-4 to S4-9.

術者が再び走査制御キー66を押していた場合には、制御回路63は、ここで上記の処理を終了させ、ラジアル走査の制御OFFを指令するための走査制御信号を超音波観測装置4へ出力する。超音波振動子アレイ29はラジアル走査を終了する。
術者が再び走査制御キー66を押していなかった場合には、処理はステップS4-4へジャンプする。
このようにして、ステップS4-4からステップS4-9で述べた処理を繰り返すことで、超音波振動子アレイ29が1回のラジアル走査をして超音波観測装置4が超音波断層像データを作成し、超音波断層像データが超音波観測装置4から混合回路61に入力するたびに、2つの新たな3次元ガイド画像が作成され、新たな超音波断層像とともに表示装置14の表示画面にリアルタイムに更新されつつ表示される。
If the surgeon has pressed the scan control key 66 again, the control circuit 63 ends the above processing, and outputs a scan control signal for commanding the radial scan control OFF to the ultrasound observation apparatus 4. To do. The ultrasonic transducer array 29 ends the radial scanning.
If the surgeon has not pressed the scan control key 66 again, the process jumps to step S4-4.
In this manner, by repeating the processing described in steps S4-4 to S4-9, the ultrasonic transducer array 29 performs one radial scan, and the ultrasonic observation apparatus 4 converts the ultrasonic tomographic image data. Each time the tomographic image data is created and input from the ultrasonic observation device 4 to the mixing circuit 61, two new three-dimensional guide images are created and displayed on the display screen of the display device 14 together with the new ultrasonic tomographic image. Displayed while being updated in real time.

すなわち、図16に示すように、術者の可撓部22、硬性部21の用手的な操作に伴うラジアル走査面の移動に連動して、画像指標データ上の超音波断層像マーカMuと先端方向マーカMdと6時方向マーカMtと、挿入形状データ上の挿入形状マーカMsとコイル位置マーカMcとが3次元人体画像データ上を移動もしくは変形していく。
本実施例は以下の効果を有する。
本実施例は、超音波内視鏡2が、体腔内への挿入側に被検体37内の超音波断層像を作成するための信号を取得する超音波振動子アレイ29を固定して設けた硬性部21と、硬性部21より手前側に可撓部22とを設け、超音波振動子29aが取得したエコー信号から被検体37内の超音波断層像を作成する超音波観測装置4を設け、画像位置配向検出用コイル31を硬性部21に対して空間的に位置を固定して設け、挿入形状検出用コイル32を可撓部22に沿って複数個設け、被検体37に接触可能な体表検出用コイル7を複数個設け、画像位置配向検出用コイル31の位置及び配向との6自由度と、複数個の挿入形状検出用コイル32の各位置と、体表検出用コイル7の位置もしくは配向とを検出し、位置・配向データとして出力する送信アンテナ6と位置配向算出装置5とを設け、超音波観測装置4が作成した被検体37内の超音波断層像の位置と配向とを示す超音波断層像マーカMuを作成する画像指標作成回路52を設け、合成回路58が、位置配向算出装置5が出力した位置・配向データを基に、可撓部22の先端側の挿入形状と超音波断層像マーカMuと3次元人体画像データとを合成し、被検体37に対する可撓部22と超音波断層像の位置および配向をガイドする3次元ガイド画像作成回路A,Bを設けた。
That is, as shown in FIG. 16, the ultrasonic tomographic image marker Mu on the image index data is linked with the movement of the radial scanning plane accompanying the manual operation of the flexible portion 22 and the rigid portion 21 of the operator. The tip direction marker Md, the 6 o'clock direction marker Mt, the insertion shape marker Ms on the insertion shape data, and the coil position marker Mc move or deform on the three-dimensional human body image data.
This embodiment has the following effects.
In this embodiment, the ultrasonic endoscope 2 is provided with a fixed ultrasonic transducer array 29 for acquiring a signal for creating an ultrasonic tomographic image in the subject 37 on the insertion side into the body cavity. A hard part 21 and a flexible part 22 are provided on the front side of the hard part 21, and an ultrasonic observation device 4 that creates an ultrasonic tomographic image in the subject 37 from an echo signal acquired by the ultrasonic transducer 29 a is provided. The image position / orientation detection coil 31 is spatially fixed with respect to the rigid portion 21, and a plurality of insertion shape detection coils 32 are provided along the flexible portion 22 so as to contact the subject 37. A plurality of body surface detection coils 7 are provided, six degrees of freedom of the position and orientation of the image position / orientation detection coil 31, each position of the plurality of insertion shape detection coils 32, and the body surface detection coil 7. Detect position or orientation and output as position / orientation data An image index creating circuit that includes a communication antenna 6 and a position / orientation calculation device 5 and creates an ultrasonic tomographic image marker Mu that indicates the position and orientation of an ultrasonic tomographic image in the subject 37 created by the ultrasonic observation device 4. 52, and the combining circuit 58 generates the insertion shape on the distal end side of the flexible portion 22, the ultrasonic tomographic image marker Mu, and the three-dimensional human body image data based on the position / orientation data output from the position / orientation calculation device 5. The three-dimensional guide image creating circuits A and B for synthesizing and guiding the position and orientation of the flexible portion 22 and the ultrasonic tomographic image with respect to the subject 37 are provided.

そのため、本実施例は、超音波内視鏡2の硬性部21と可撓部22の挿入形状と超音波断層像の方向とを放射線被曝の侵襲を少なく検出でき、両者を含んだ3次元ガイド画像を作成することができる。
また、本実施例においては、画像指標作成回路52が、超音波断層像マーカMuに青色の先端方向マーカMdと黄緑色の矢印状の6時方向マーカMtとを合成した画像指標データを作成し、合成回路58が、同じボクセル空間内に3次元人体画像データと、画像指標データと、挿入形状データとを合成し、混合回路61が超音波観測装置4からの超音波断層像データと、3次元ガイド画像データとを並べて表示するための表示用の混合データを作成し、表示回路62はこの混合データをアナログビデオ信号に変換し、表示装置14はこのアナログビデオ信号を基に超音波断層像と3次元ガイド画像とを並べて表示するような構成及び作用をする。
Therefore, this embodiment can detect the insertion shape of the rigid portion 21 and the flexible portion 22 of the ultrasonic endoscope 2 and the direction of the ultrasonic tomographic image with less invasion of radiation exposure, and includes a three-dimensional guide including both. Images can be created.
In this embodiment, the image index creation circuit 52 creates image index data obtained by combining the ultrasonic tomographic image marker Mu with the blue tip direction marker Md and the yellow-green arrow-shaped 6 o'clock direction marker Mt. The synthesizing circuit 58 synthesizes the three-dimensional human body image data, the image index data, and the insertion shape data in the same voxel space, and the mixing circuit 61 combines the ultrasonic tomographic image data from the ultrasonic observation apparatus 4 and 3 The mixed data for display for displaying the dimension guide image data side by side is created, the display circuit 62 converts the mixed data into an analog video signal, and the display device 14 uses the analog video signal to produce an ultrasonic tomographic image. And the three-dimensional guide image are arranged and displayed side by side.

そのため、本実施例は、超音波断層像と膵臓などの関心領域との位置関係をガイドすることができるとともに、消化管等の体腔壁に対して超音波内視鏡2のラジアル走査面と可撓部22と硬性部21とがどのような配向や形状になっているのかをガイドすることができる。
従って、術者はこれらの関係を視覚的に把握でき、関心領域に対する診断、処置等を容易に行うことが可能となる。
また、本実施例においては、マッチング回路51がステップS4-4からステップS4-9で述べた処理を繰り返し、混合回路61が超音波断層像データを取り込んだ瞬間の、位置・配向データを取り込み、第1変換式とベクトルP'P"による平行移動とを合わせて第2の写像を表現する第2変換式を新たに作成し、直交座標軸O-xyzにおける超音波断層像の中心O"の位置ベクトルOO"の各方向成分(x0,y0,z0)と、直交座標軸O-xyzに対する画像位置配向検出用コイル31の配向を示すオイラー角の各角度成分(ψ,θ,φ)と、直交座標軸O-xyzにおける複数個の挿入形状検出用コイル32の各々の位置ベクトルの各方向成分(xi,yi,zi) (iは1から挿入形状検出用コイル32の総数までの自然数)とを、位置・配向写像データへ変換する処理を繰り返すような構成及び作用する。
Therefore, this embodiment can guide the positional relationship between the ultrasonic tomogram and the region of interest such as the pancreas, and can be used as a radial scanning surface of the ultrasonic endoscope 2 with respect to the body cavity wall such as the digestive tract. It is possible to guide the orientation and shape of the flexible portion 22 and the hard portion 21.
Therefore, the surgeon can visually grasp these relationships, and can easily perform diagnosis, treatment, etc. on the region of interest.
In this embodiment, the matching circuit 51 repeats the processing described in steps S4-4 to S4-9, and the mixing circuit 61 captures position / orientation data at the moment when the ultrasonic tomographic image data is captured. A new second transformation formula is created to express the second mapping by combining the first transformation formula and the translation by the vector P'P ", and the position of the center O" of the ultrasonic tomographic image on the orthogonal coordinate axis O-xyz Each direction component (x0, y0, z0) of the vector OO ", each angle component (ψ, θ, φ) of Euler angles indicating the orientation of the image position orientation detection coil 31 with respect to the orthogonal coordinate axis O-xyz, and the orthogonal coordinate axis Each directional component (xi, yi, zi) (i is a natural number from 1 to the total number of insertion shape detection coils 32) of each position vector of the plurality of insertion shape detection coils 32 in O-xyz・ Configuration and operation to repeat the process of converting to orientation map data .

そのため、本実施例は、超音波内視鏡2での検査中に被検体37の体位に変化が生じても、体表特徴点と臓器との位置関係が変化しない限り、超音波断層像、可撓部22、硬性部21と、3次元ガイド画像上の超音波断層像マーカMu、先端方向マーカMd、6時方向マーカMt、挿入形状マーカMsとはそれぞれ解剖学的により正確に一致をするという効果がある。
また、X線3次元ヘリカルCT装置15と3次元MRI装置16とは、通常仰臥位で撮像され、左側臥位での超音波内視鏡検査の時とは体位が異なるが、本実施例は、マッチング回路51が、第1の写像に補正値としてのベクトルP'P"による平行移動を合わせて第2の写像を表現する第2変換式を作成するような構成及び作用する。
従って、本実施例は、被検体37内の諸器官がX線3次元ヘリカルCT装置15と3次元MRI装置16に比して左側臥位での超音波内視鏡検査の時に重力に従って変位しても、被検体37の点、例えば超音波断層像の中心O"に第2の写像により解剖学的に一層正確な一致をする。そのため、3次元ガイド画像が超音波断層像を一層正確にガイドすることができる。
Therefore, in this embodiment, even if a change in the body position of the subject 37 occurs during the examination with the ultrasonic endoscope 2, an ultrasonic tomographic image, as long as the positional relationship between the body surface feature point and the organ does not change. The flexible portion 22, the rigid portion 21, and the ultrasonic tomographic image marker Mu, the tip direction marker Md, the 6 o'clock direction marker Mt, and the insertion shape marker Ms on the three-dimensional guide image are more accurately matched anatomically. There is an effect.
The X-ray three-dimensional helical CT apparatus 15 and the three-dimensional MRI apparatus 16 are usually imaged in the supine position, and the body position is different from that in the ultrasonic endoscopy in the left supine position. The matching circuit 51 is configured and operates so as to create a second conversion expression for expressing the second mapping by combining the first mapping with the parallel movement by the vector P′P ”as the correction value.
Therefore, in the present embodiment, the organs in the subject 37 are displaced according to gravity at the time of ultrasonic endoscopy in the left lateral position as compared with the X-ray three-dimensional helical CT apparatus 15 and the three-dimensional MRI apparatus 16. However, a more accurate anatomical coincidence with the point of the subject 37, for example, the center O "of the ultrasonic tomographic image by the second mapping. Therefore, the three-dimensional guide image makes the ultrasonic tomographic image more accurate. Can guide.

また、本実施例においては、3次元ガイド画像作成回路Aが、右側が被検体頭側、左側が被検体足側で、被検体37の腹側からの方向で観察した3次元ガイド画像データを作成するよう構成、作用する。被検体37は、超音波内視鏡検査では通常左側臥位での体位で検査される。   Further, in this embodiment, the three-dimensional guide image creating circuit A generates three-dimensional guide image data observed in the direction from the ventral side of the subject 37 on the subject head side on the right side and the subject foot side on the left side. Configure and act to create. The subject 37 is usually examined in the position of the left lateral position in the ultrasonic endoscopy.

本実施例では3次元ガイド画像も左側臥位で表示されるので、被検体37と3次元ガイド画像とを対比しやすく、術者は3次元ガイド画像がわかりやすい。従って、本実施例は術者による診断、処置等際の操作性を向上或いは適切に支援することができる。   In this embodiment, since the 3D guide image is also displayed in the left-side position, the subject 37 and the 3D guide image can be easily compared, and the operator can easily understand the 3D guide image. Therefore, this embodiment can improve or appropriately support the operability during diagnosis and treatment by the operator.

また、本実施例によれば、3次元ガイド画像作成回路A と3次元ガイド画像作成回路Bとが互いに異なる方向に視線を設定した3次元ガイド画像を作成したため、超音波断層像と膵臓などの関心領域との位置関係を複数の方向から、ガイドすることができるとともに、消化管等の体腔壁に対して、超音波断層像と超音波内視鏡2の可撓部22と硬性部21とがどのような配向や形状になっているのかを複数の方向からガイドすることができ、術者にはわかりやすい。   In addition, according to the present embodiment, since the 3D guide image creation circuit A and the 3D guide image creation circuit B create a 3D guide image in which the line of sight is set in different directions, an ultrasonic tomogram, a pancreas, etc. The positional relationship with the region of interest can be guided from a plurality of directions, and the ultrasonic tomographic image, the flexible portion 22 and the rigid portion 21 of the ultrasonic endoscope 2 with respect to the body cavity wall such as the digestive tract, etc. The orientation and shape of the can be guided from a plurality of directions, making it easy for the operator to understand.

(変形例)
本実施例では、処置具チャンネル46を備えた超音波内視鏡2と、処置具チャンネル46に挿通する体腔内接触プローブ8を設けて構成したが、構成はこれに限定されるものでない。
体腔内特徴点に対して光学観察窓24を経由して対物レンズ25の焦点が合い、体腔内接触プローブ8を用いずに硬性部21自体を体腔内特徴点に正確に接触できれば、硬性部21に固定して設けた画像位置配向検出用コイル31を体腔内接触プローブ8の体腔内検出用コイル42の代用にしても良い。
このとき、画像位置配向検出用コイル31は画像位置配向検出用素子としてだけでなく体腔内検出用素子としても作用する。
また、本実施例では、超音波プローブとして電子ラジアル走査型超音波内視鏡2を用いたが、従来技術の特開2004−113629号公報で開示されている体腔内プローブ装置のように、機械走査型超音波内視鏡でも、挿入軸の一方に超音波振動子群を扇状に設けた電子コンベックス走査型超音波内視鏡でも、カプセル型の超音波ゾンデでも良く、超音波の走査方式には限定されない。また光学観察窓24の無い超音波プローブでも良い。
(Modification)
In this embodiment, the ultrasonic endoscope 2 provided with the treatment instrument channel 46 and the body cavity contact probe 8 inserted through the treatment instrument channel 46 are provided. However, the configuration is not limited to this.
If the objective lens 25 is focused on the feature point in the body cavity via the optical observation window 24 and the rigid part 21 itself can be accurately brought into contact with the feature point in the body cavity without using the contact probe 8 in the body cavity, the rigid part 21 is obtained. The image position / orientation detection coil 31 fixed to the body cavity may be substituted for the body cavity detection coil 42 of the body cavity contact probe 8.
At this time, the image position / orientation detection coil 31 functions not only as an image position / orientation detection element but also as a body cavity detection element.
In the present embodiment, the electronic radial scanning ultrasonic endoscope 2 is used as the ultrasonic probe. However, as in the body cavity probe device disclosed in Japanese Patent Application Laid-Open No. 2004-113629, a mechanical device is used. It can be a scanning ultrasound endoscope, an electronic convex scanning ultrasound endoscope with a group of ultrasound transducers on one of the insertion axes, or a capsule ultrasound sonde. Is not limited. An ultrasonic probe without the optical observation window 24 may be used.

また、本実施例では、超音波内視鏡2の硬性部21において超音波振動子を短冊状に細かく切断し、挿入軸の周囲に環状アレイとして配列させたが、超音波振動子アレイ29は、360°全周に設けても、それより一部が欠けても良い。例えば270°や180°にわたる部分に超音波振動子アレイ29が形成されるようにしても良い。
また、本実施例では位置検出手段として送信アンテナ6と受信コイルとを用い、磁場で位置と配向とを検出するよう構成、作用させたが、送受は逆でも良い。磁場を利用して位置及び配向を検出することにより、簡単な構成で位置(配向)検出手段を形成できると共に、低コスト化、小型化することができる。
しかし、位置(配向)検出手段は、磁場を利用したものに限定されるものでなく、加速度や他の手段で位置と配向とを検出するような構成及び作用をさせても良い。
また、本実施例では、原点Oを送信アンテナ6上の特定の位置に設定するよう構成したが、送信アンテナ6と位置関係の変わらない他の場所に設定するよう構成しても良い。
In this embodiment, the ultrasonic transducers are cut into strips in the rigid portion 21 of the ultrasonic endoscope 2 and arranged in an annular array around the insertion axis. It may be provided on the entire 360 ° circumference, or a part thereof may be missing. For example, the ultrasonic transducer array 29 may be formed in a portion extending over 270 ° or 180 °.
In this embodiment, the transmitting antenna 6 and the receiving coil are used as position detecting means and the position and orientation are detected and detected by the magnetic field. However, transmission and reception may be reversed. By detecting the position and orientation using a magnetic field, the position (orientation) detection means can be formed with a simple configuration, and the cost and size can be reduced.
However, the position (orientation) detection means is not limited to one using a magnetic field, and may be configured and operated to detect the position and orientation by acceleration or other means.
In the present embodiment, the origin O is set to a specific position on the transmission antenna 6. However, the origin O may be set to another place where the positional relationship with the transmission antenna 6 does not change.

また、本実施例では、画像位置配向検出用コイル31を硬性部21に固定して設けているが、硬性部21と位置が固定(確定)されるのであれば、硬性部21の内部でなくとも良い。
また、本実施例では、3次元ガイド画像データ上の各器官を、器官別に色分けして表示されるよう構成したが、色分け(表示色の変更)の態様に限らず、輝度、明度、彩度等、他の態様を採用しても良い。例えば、器官別に輝度の値を変化させる等しても良い。
また、本実施例では、参照画像データとして、X線3次元ヘリカルCT装置15、3次元MRI装置16で撮像された複数枚の2次元CT画像や2次元MRI画像を用いるよう構成、作用させたが、PET(Positoron Emission Tomography)のような他のモダリティーを用いて事前に取得した3次元画像データを用いても良い。また、体外から超音波を照射する方式の所謂、体外式の体腔内プローブ装置で事前に取得した3次元画像データを用いても良い。
また、本実施例では、参照画像データとして、被検体37からX線3次元ヘリカルCT装置15等により撮像した画像データを用いるよう構成・作用したが、あらかじめ体格の似た性別の同じ他人の画像データを用いても良い。
In this embodiment, the image position / orientation detection coil 31 is fixedly provided on the rigid portion 21. However, if the position of the rigid portion 21 and the position is fixed (determined), it is not inside the rigid portion 21. Good.
In the present embodiment, each organ on the three-dimensional guide image data is displayed by being color-coded for each organ. However, the present invention is not limited to the color-coded (change display color) mode, and brightness, lightness, and saturation. Other modes may be adopted. For example, the luminance value may be changed for each organ.
Further, in this embodiment, the reference image data is configured and operated so as to use a plurality of two-dimensional CT images and two-dimensional MRI images captured by the X-ray three-dimensional helical CT apparatus 15 and the three-dimensional MRI apparatus 16. However, three-dimensional image data acquired in advance using another modality such as PET (Positoron Emission Tomography) may be used. Alternatively, three-dimensional image data acquired in advance by a so-called extracorporeal body cavity probe device that irradiates ultrasonic waves from outside the body may be used.
In this embodiment, the image data captured from the subject 37 by the X-ray three-dimensional helical CT apparatus 15 or the like is used and used as the reference image data. Data may be used.

また、本実施例では、1軸方向に巻かれた4個のコイルからなる体表検出用コイル7を設け、各々を被検体体表にテープ、ベルト、バンドなどで、複数の体表特徴点に着脱可能に固定し、体表特徴点の位置・配向データを同時に得るよう構成したが、1個のコイル、例えば体腔内検出用コイル42に代えて、超音波内視鏡2による検査に先立ち、被検体37を左側臥位にした後、体腔内接触プローブ8の先端を複数の体表特徴点に順次接触させて体表特徴点の位置・配向データを順次に得るような構成及び作用にしても良い。
また、本実施例では、位置配向算出手段が、位置・配向データとして、体表検出用コイル7に関してはその位置を算出したが、位置の代わりに巻線軸の方向を算出してもよい。また、位置と巻線軸の方向との両方を算出しても良い。1個の体表検出用コイル7に関して位置配向算出装置5が算出する自由度が増えることで、体表検出用コイル7の個数を減らすことができ、被検体37に体表検出用コイル7を固定する際や超音波内視鏡検査中の術者や被検体37の負担を減らすことができる。
Further, in this embodiment, a body surface detection coil 7 comprising four coils wound in one axial direction is provided, and a plurality of body surface feature points are provided on the subject body surface by tape, belt, band, etc. The position / orientation data of the body surface feature points are obtained at the same time, but instead of one coil, for example, the detection coil 42 in the body cavity, prior to the examination by the ultrasonic endoscope 2 After the subject 37 is placed in the left-side position, the configuration and operation are performed in which the tip of the body cavity contact probe 8 is sequentially brought into contact with a plurality of body surface feature points to sequentially obtain the position / orientation data of the body surface feature points. May be.
In this embodiment, the position / orientation calculation means calculates the position of the body surface detection coil 7 as the position / orientation data. However, the direction of the winding axis may be calculated instead of the position. Further, both the position and the direction of the winding axis may be calculated. The number of body surface detection coils 7 can be reduced by increasing the degree of freedom that the position / orientation calculation device 5 calculates for one body surface detection coil 7, and the body surface detection coil 7 is attached to the subject 37. It is possible to reduce the burden on the operator and the subject 37 during fixation or during the ultrasonic endoscopy.

また、本実施例では、体表特徴点を腹部体表の剣状突起、左上前腸骨棘、右上前腸骨棘、腰椎椎体棘突起とし、体腔内特徴点を十二指腸乳頭として説明したが、この例に限らず、胸部体表や胸部体腔内の特徴点や他の例でも良い。一般に、体表特徴点は骨格と関連のある点にとった方が、超音波断層像マーカMuの配向についての精度が良い。
また、本実施例では、術者のマウス12、キーボード13からの入力により、制御回路63からの回転指示信号が3次元ガイド画像データを90度回転させ、足側から観察する指示内容になっており、3次元ガイド画像作成回路Bは被検体足側からの方向で観察した3次元ガイド画像データを作成したが、この例に限らず、術者によるマウス12、キーボード13からの入力により、任意の軸、任意の角度で入力に対し3次元ガイド画像をリアルタイムに回転できるようにしても良い。
Further, in this embodiment, the body surface feature points are described as the xiphoid process of the abdominal body surface, the upper left anterior iliac spine, the upper right anterior iliac spine, and the lumbar spine spinous process, and the body cavity feature point is described as the duodenal papilla. However, the present invention is not limited to this example, but may be a feature point in the chest body surface, a chest body cavity, or another example. In general, the accuracy of the orientation of the ultrasonic tomographic image marker Mu is better when the body surface feature point is a point related to the skeleton.
Further, in this embodiment, the rotation instruction signal from the control circuit 63 is rotated by 90 degrees by the operator's mouse 12 and keyboard 13, and the instruction contents are observed from the foot side. The three-dimensional guide image creation circuit B creates the three-dimensional guide image data observed in the direction from the subject's foot side. However, the present invention is not limited to this example. The three-dimensional guide image may be rotated in real time with respect to the input at an arbitrary angle.

次に本発明の実施例2を説明する。本実施例の構成は実施例1と同じである。但し、実施例1とは3次元ガイド画像作成回路Bの作用のみが異なる。
次に本実施例の作用を説明する。
上述のように本実施例は、実施例1と3次元ガイド画像作成回路Bの作用のみが異なる。
実施例1では、図15に示すように、3次元ガイド画像作成回路Bは被検体足側からの方向で観察した3次元ガイド画像データを作成し、混合回路61へ出力した。
そして、術者による可撓部22、硬性部21の用手的な操作に伴うラジアル走査面の移動とともに、画像指標データ上の超音波断層像マーカMuと先端方向マーカMdと6時方向マーカMtと、挿入形状データ上の挿入形状マーカMsとコイル位置マーカMcとが3次元人体画像データ上を移動もしくは変形していった。
Next, a second embodiment of the present invention will be described. The configuration of the present embodiment is the same as that of the first embodiment. However, only the operation of the three-dimensional guide image creation circuit B is different from the first embodiment.
Next, the operation of this embodiment will be described.
As described above, the present embodiment differs from the first embodiment only in the operation of the three-dimensional guide image creation circuit B.
In Example 1, as shown in FIG. 15, the three-dimensional guide image creation circuit B creates three-dimensional guide image data observed in the direction from the subject's foot side, and outputs it to the mixing circuit 61.
Then, along with the movement of the radial scanning surface accompanying manual operation of the flexible portion 22 and the rigid portion 21 by the operator, the ultrasonic tomographic image marker Mu, the tip direction marker Md, and the 6 o'clock direction marker Mt on the image index data. Then, the insertion shape marker Ms and the coil position marker Mc on the insertion shape data are moved or deformed on the three-dimensional human body image data.

本実施例では、図22に示すように、3次元ガイド画像作成回路Bは、位置・配向写像データを基にして、超音波断層像マーカMuの法線を観察視線すなわち表示装置14の画面法線と一致するよう画面に正対させ、かつ6時方向マーカMtが表示装置14の画面の下方向に向くように設定されたガイド画像を作成する。
図22の3次元ガイド画像データは、術者の可撓部22、硬性部21の用手的な操作に伴うラジアル走査面の移動とともに、画像指標データ上の超音波断層像マーカMuと先端方向マーカMdと6時方向マーカMtと、挿入形状データ上の挿入形状マーカMsとコイル位置マーカMcとは表示装置14の画面上で固定され、3次元人体画像データが表示装置14の画面上を移動していく。
図22の3次元ガイド画像データでは、画像指標データのうちの超音波断層像マーカMuを半透明にして、画像指標データの6時方向マーカMtと先端方向マーカMdと、挿入形状データの挿入形状マーカMsとコイル位置マーカMcとが透けて見えるようにしている。
In this embodiment, as shown in FIG. 22, the three-dimensional guide image creating circuit B uses the normal line of the ultrasonic tomographic image marker Mu as the observation line of sight, that is, the screen method of the display device 14 based on the position / orientation mapping data. A guide image is created in which the screen faces the screen so as to match the line, and the 6 o'clock direction marker Mt is set to face downward in the screen of the display device 14.
The three-dimensional guide image data in FIG. 22 includes the ultrasonic tomographic image marker Mu on the image index data and the tip direction along with the movement of the radial scanning plane accompanying the manual operation of the flexible portion 22 and the rigid portion 21 of the operator. The marker Md, the 6 o'clock direction marker Mt, the insertion shape marker Ms on the insertion shape data, and the coil position marker Mc are fixed on the screen of the display device 14, and the three-dimensional human body image data moves on the screen of the display device 14. I will do it.
In the three-dimensional guide image data of FIG. 22, the ultrasonic tomographic image marker Mu in the image index data is made translucent, the 6 o'clock direction marker Mt and the tip direction marker Md of the image index data, and the insertion shape of the insertion shape data The marker Ms and the coil position marker Mc are seen through.

その他の臓器に対しては超音波断層像マーカMuを不透明にして超音波断層像マーカMuの裏側の部分は見えないようにしている。
その他の作用は実施例1と同じである。
本実施例は以下の効果を有する。
本実施例によれば、3次元ガイド画像作成回路Bが、位置・配向写像データを基にして、超音波断層像マーカMuの法線を観察視線すなわち表示装置14の画面法線と一致するよう画面に正対させ、かつ6時方向マーカMtが表示装置14の画面の下方向に向くように設定された3次元ガイド画像を作成するよう構成、作用させたため、この3次元ガイド画像と表示装置14の画面に並べてリアルタイムに表示される超音波断層像との方向が一致する。そのため術者は両者を対比しやすく、超音波断層像の解剖学的な解釈をしやすい。
その他の効果は実施例1と同じである。
(変形例)
本実施例の変形例として、実施例1で説明した変形例を適用できる。
For other organs, the ultrasonic tomographic image marker Mu is made opaque so that the portion on the back side of the ultrasonic tomographic image marker Mu cannot be seen.
Other operations are the same as those of the first embodiment.
This embodiment has the following effects.
According to the present embodiment, the three-dimensional guide image creation circuit B matches the normal line of the ultrasonic tomographic image marker Mu with the observation line of sight, that is, the screen normal line of the display device 14 based on the position / orientation mapping data. The 3D guide image and the display device are configured and operated so as to create a 3D guide image that faces the screen and is set so that the 6 o'clock direction marker Mt faces the lower direction of the screen of the display device 14. The direction coincides with the ultrasonic tomographic image displayed on the screen of 14 in real time. Therefore, it is easy for the surgeon to compare the two, and to interpret the ultrasonic tomogram anatomically.
Other effects are the same as those of the first embodiment.
(Modification)
As a modification of the present embodiment, the modification described in the first embodiment can be applied.

次に本発明の実施例3を説明する。
本実施例の構成は実施例2と同じである。本実施例は、実施例2とは3次元ガイド画像作成回路Bの作用のみが異なる。
次に本実施例の作用を説明する。
Next, a third embodiment of the present invention will be described.
The configuration of the present embodiment is the same as that of the second embodiment. This embodiment is different from the second embodiment only in the operation of the three-dimensional guide image creation circuit B.
Next, the operation of this embodiment will be described.

上述のように本実施例の作用は、実施例2とは3次元ガイド画像作成回路Bの作用のみが異なる。
実施例2では、図22に示すように、3次元ガイド画像作成回路Bは、画像指標データのうちの超音波断層像マーカMuを半透明にし、画像指標データの6時方向マーカMtと先端方向マーカMdと、挿入形状データの挿入形状マーカMsとコイル位置マーカMcとが透けて見えるようにし、その他の臓器に対しては超音波断層像マーカMuを不透明にして超音波断層像マーカMuの裏側の部分は見えないようにした3次元ガイド画像データを作成し、混合回路61へ出力した。
As described above, the operation of this embodiment differs from that of Embodiment 2 only in the operation of the three-dimensional guide image creation circuit B.
In the second embodiment, as shown in FIG. 22, the three-dimensional guide image creation circuit B makes the ultrasonic tomographic image marker Mu of the image index data translucent, and the 6 o'clock direction marker Mt of the image index data and the tip direction. The marker Md, the insertion shape marker Ms of the insertion shape data, and the coil position marker Mc are seen through, and the ultrasonic tomographic image marker Mu is made opaque to other organs, and the back side of the ultrasonic tomographic image marker Mu. The three-dimensional guide image data in which the portion was made invisible was created and output to the mixing circuit 61.

本実施例では、図23に示すように、3次元ガイド画像作成回路Bは、画像指標データのうちの超音波断層像マーカMuを半透明にする。また、3次元ガイド画像作成回路Bは、画像指標データの6時方向マーカMtと先端方向マーカMdと、挿入形状データの挿入形状マーカMsとコイル位置マーカMcとだけでなく、その他の臓器の超音波断層像マーカMuの裏側の部分も透けて見えるようにし、それぞれ、超音波断層像マーカMuの表側と裏側にある部分の輝度を変化させて3次元ガイド画像データを作成し、混合回路61へ出力する。
膵臓であれば、超音波断層像マーカMuより表側(手前側)にある部分は濃緑、裏側にある部分は薄緑で作成する。血管であれば、超音波断層像マーカMuより表側(手前側)にある部分は濃赤、裏側にある部分は薄赤で作成する。
図23では、超音波断層像マーカMuの裏側にあり、かつ超音波断層像マーカMuと重なる各マーカと各器官とは破線で示してある。
その他の作用は実施例2と同じである。
In this embodiment, as shown in FIG. 23, the three-dimensional guide image creation circuit B makes the ultrasonic tomographic image marker Mu in the image index data semi-transparent. In addition, the three-dimensional guide image creation circuit B not only includes the 6 o'clock direction marker Mt and the tip direction marker Md of the image index data, the insertion shape marker Ms and the coil position marker Mc of the insertion shape data, but also the superposition of other organs. The back side portion of the ultrasonic tomographic image marker Mu is also seen through, and the luminance of the portions on the front side and the back side of the ultrasonic tomographic image marker Mu is changed to create three-dimensional guide image data, and to the mixing circuit 61. Output.
In the case of the pancreas, the portion on the front side (front side) from the ultrasonic tomographic image marker Mu is created in dark green, and the portion on the back side is created in light green. In the case of a blood vessel, the portion on the front side (front side) from the ultrasonic tomographic image marker Mu is created in dark red, and the portion on the back side is created in light red.
In FIG. 23, each marker and each organ that are behind the ultrasonic tomographic image marker Mu and overlap the ultrasonic tomographic image marker Mu are indicated by broken lines.
Other operations are the same as those in the second embodiment.

本実施例は以下の効果を有する。
本実施例によれば、3次元ガイド画像作成回路Bが、画像指標データのうちの超音波断層像マーカMuを半透明にし、画像指標データの6時方向マーカMtと先端方向マーカMdと、挿入形状データの挿入形状マーカMsとコイル位置マーカMcとだけでなく、その他の臓器の超音波断層像マーカMuの裏側の部分も透けて見えるようにし、それぞれ、超音波断層像マーカMuの表側と裏側にある部分の輝度を変化させて3次元ガイド画像データを作成するような構成及び作用する。
そのため、術者には、可撓部22と硬性部21とをさらにどう動かしたら、患部等の関心領域を超音波断層像上に表示できるかわかりやすく、術者には、超音波内視鏡2の可撓部22と硬性部21との操作をしやすい。
This embodiment has the following effects.
According to the present embodiment, the three-dimensional guide image creation circuit B makes the ultrasonic tomographic image marker Mu in the image index data translucent, and inserts the 6 o'clock direction marker Mt and the tip direction marker Md of the image index data. In addition to the shape data insertion shape marker Ms and the coil position marker Mc, the back side portion of the ultrasonic tomographic image marker Mu of other organs can be seen through, and the front side and the back side of the ultrasonic tomographic image marker Mu, respectively. The configuration and the operation of creating the three-dimensional guide image data by changing the luminance of the portion in the above.
Therefore, it is easy for the surgeon to know how to move the flexible portion 22 and the rigid portion 21 further so that the region of interest such as the affected portion can be displayed on the ultrasonic tomographic image. It is easy to operate the second flexible portion 22 and the hard portion 21.

特に、胆嚢のように被検体37内部で柔らかく動きやすい臓器は超音波断層像マーカMu上には写っていながら、超音波断層像上には写らない可能性がある。本実施例の3次元ガイド画像は、術者がもう少し硬性部21と可撓部22とを動かせば胆嚢の超音波断層像上での描出ができるという目印になるため、術者には、超音波内視鏡2硬性部21と可撓部22との操作がしやすい。
その他の効果は実施例2と同じである。
(変形例)
本実施例では、画像指標データのうちの超音波断層像マーカMuを半透明にし、画像指標データの6時方向マーカMtと先端方向マーカMdと、挿入形状データの挿入形状マーカMsとコイル位置マーカMcとだけでなく、その他の臓器の超音波断層像マーカMuの裏側の部分も透けて見えるように構成及び作用させたが、その変形例として術者は、透明度をマウス12やキーボード13からの選択入力で自由に変更させることができるようにしても良い。
その他の変形例として、実施例2の変形例を適用できる。
In particular, an organ that is soft and easy to move within the subject 37, such as the gallbladder, may appear on the ultrasonic tomographic image marker Mu, but not on the ultrasonic tomographic image. The three-dimensional guide image of the present embodiment is a mark that the surgeon moves the rigid portion 21 and the flexible portion 22 a little more, so that it can be drawn on the ultrasonic tomogram of the gallbladder. The sonic endoscope 2 is easy to operate with the rigid portion 21 and the flexible portion 22.
Other effects are the same as those of the second embodiment.
(Modification)
In this embodiment, the ultrasonic tomographic image marker Mu in the image index data is made translucent, the 6 o'clock direction marker Mt and the tip direction marker Md of the image index data, the insertion shape marker Ms of the insertion shape data, and the coil position marker. Although it was configured and operated so that not only Mc but also the back side portion of the ultrasonic tomographic image marker Mu of other organs could be seen through, as a modified example, the operator changed the transparency from the mouse 12 or the keyboard 13. You may make it change freely by selection input.
As another modification, the modification of the second embodiment can be applied.

次に本発明の実施例4を説明する。本実施例は実施例3と同じ構成である。本実施例は、実施例3とは3次元ガイド画像作成回路Bの作用のみが異なる。
次に本実施例の作用を説明する。
上述のように本実施例の作用は、実施例3とは3次元ガイド画像作成回路Bの作用のみが異なる。
実施例3では、図23に示すように、3次元ガイド画像作成回路Bは、画像指標データのうちの超音波断層像マーカMuを半透明にし、画像指標データの6時方向マーカMtと先端方向マーカMdと、挿入形状データの挿入形状マーカMsとコイル位置マーカMcとだけでなく、その他の臓器の超音波断層像マーカMuの裏側の部分も透けて見えるようにし、それぞれ、超音波断層像マーカMuの表側と裏側にある部分の輝度を変化させて3次元ガイド画像データを作成し、混合回路61へ出力した。
Next, a fourth embodiment of the present invention will be described. This embodiment has the same configuration as that of the third embodiment. This embodiment differs from the third embodiment only in the operation of the three-dimensional guide image creation circuit B.
Next, the operation of this embodiment will be described.
As described above, the operation of the present embodiment is different from the third embodiment only in the operation of the three-dimensional guide image creation circuit B.
In the third embodiment, as shown in FIG. 23, the three-dimensional guide image creation circuit B makes the ultrasonic tomographic image marker Mu of the image index data translucent, and the 6 o'clock direction marker Mt and the tip direction of the image index data. In addition to the marker Md, the insertion shape marker Ms of the insertion shape data, and the coil position marker Mc, the back side portion of the ultrasonic tomographic image marker Mu of other organs can be seen through, respectively. Three-dimensional guide image data was generated by changing the luminance of the portions on the front side and the back side of Mu and output to the mixing circuit 61.

膵臓であれば、超音波断層像マーカMuより表側(手前側)にある部分は濃緑、裏側にある部分は薄緑で作成した。血管であれば、超音波断層像マーカMuより表側(手前側)にある部分は濃赤、裏側にある部分は薄赤で作成した。
本実施例では、図24に示すように、3次元ガイド画像作成回路Bは、画像指標データのうちの超音波断層像マーカMuによって分けられる2つの領域のうち、可撓部22の先端側すなわち表示装置14の画面手前側を非表示にし、超音波断層像マーカMu上の部分と、裏側の部分の輝度を変化させた3次元ガイド画像データを作成して、混合回路61へ出力する。
膵臓であれば、超音波断層像マーカMu上にある部分は濃緑、裏側にある部分は薄緑で作成する。血管であれば、超音波断層像マーカMu上にある部分は濃赤、裏側にある部分は薄赤で作成する。
In the case of the pancreas, the portion on the front side (near side) from the ultrasonic tomographic image marker Mu was created in dark green, and the portion on the back side in light green. In the case of a blood vessel, the portion on the front side (near side) from the ultrasonic tomographic image marker Mu is created in dark red and the portion on the back side is created in light red.
In the present embodiment, as shown in FIG. 24, the three-dimensional guide image creation circuit B has a distal end side of the flexible portion 22 in two regions divided by the ultrasonic tomographic image marker Mu in the image index data, that is, The front side of the screen of the display device 14 is not displayed, and three-dimensional guide image data in which the luminance of the portion on the ultrasonic tomographic image marker Mu and the portion on the back side is changed is created and output to the mixing circuit 61.
In the case of the pancreas, the portion on the ultrasonic tomographic image marker Mu is created in dark green, and the portion on the back side is created in light green. In the case of a blood vessel, the portion on the ultrasonic tomographic image marker Mu is created in dark red, and the portion on the back side is created in light red.

その他の作用は実施例3と同じである。
本実施例は以下の効果を有する。
本実施例においては、3次元ガイド画像作成回路Bが、画像指標データのうちの超音波断層像マーカMuによって分けられる2つの領域のうち、可撓部22の先端側すなわち表示装置14の画面手前側を非表示にし、超音波断層像マーカMu上の部分と、裏側の部分の輝度を変化させた3次元ガイド画像データを作成するよう構成、作用させた。
そのため、本実施例によれば、手前側の臓器が術者の3次元ガイド画像の観察の邪魔になることなく、この3次元ガイド画像と表示装置14の画面に並べてリアルタイムに表示される超音波断層像との対比を一層しやすく、超音波断層像の解剖学的な解釈をしやすい。
その他の効果は、実施例3と同じである。
(変形例)
本実施例の変形例は、実施例3の変形例を適用できる。
Other operations are the same as those in the third embodiment.
This embodiment has the following effects.
In the present embodiment, the three-dimensional guide image creation circuit B has the two regions divided by the ultrasonic tomographic image marker Mu in the image index data, that is, on the distal end side of the flexible portion 22, that is, in front of the screen of the display device 14. The side is not displayed, and the three-dimensional guide image data in which the luminance of the portion on the ultrasonic tomographic image marker Mu and the portion on the back side is changed is created and operated.
For this reason, according to the present embodiment, an ultrasonic wave displayed in real time side by side on the screen of the three-dimensional guide image and the display device 14 without causing the organ on the near side to obstruct the operator's observation of the three-dimensional guide image. It is easier to compare with tomographic images and to facilitate anatomical interpretation of ultrasonic tomographic images.
Other effects are the same as those of the third embodiment.
(Modification)
The modification of the third embodiment can be applied to the modification of the present embodiment.

次に本発明の実施例5を説明する。本実施例の構成は実施例1と同じである。本実施例は、実施例1とは3次元ガイド画像作成回路Bの作用のみが異なる。
次に本実施例の作用を説明する。
本実施例の作用は、上述したように実施例1とは3次元ガイド画像作成回路Bの作用のみが異なる。
実施例1では、図15に示すように、3次元ガイド画像作成回路Bは、画像指標データのうちの超音波断層像マーカMuを半透明にして、画像指標データの6時方向マーカMtと先端方向マーカMdと、挿入形状データの挿入形状マーカMsとコイル位置マーカMcとが透けて見えるようにし、その他の臓器に対しては超音波断層像マーカMuを不透明にして超音波断層像マーカMuの裏側の部分は見えないようにした3次元ガイド画像データを作成し、混合回路61へ出力した。
Next, a fifth embodiment of the present invention will be described. The configuration of the present embodiment is the same as that of the first embodiment. This embodiment differs from the first embodiment only in the operation of the three-dimensional guide image creation circuit B.
Next, the operation of this embodiment will be described.
As described above, the operation of this embodiment is different from the first embodiment only in the operation of the three-dimensional guide image creation circuit B.
In the first embodiment, as shown in FIG. 15, the three-dimensional guide image creation circuit B makes the ultrasonic tomographic image marker Mu in the image index data translucent, and the 6 o'clock direction marker Mt and the tip of the image index data. The direction marker Md, the insertion shape marker Ms of the insertion shape data, and the coil position marker Mc are made transparent, and the ultrasonic tomographic image marker Mu is made opaque for other organs. Three-dimensional guide image data in which the back side portion was not visible was created and output to the mixing circuit 61.

本実施例では、図25に示すように、3次元ガイド画像作成回路Bは、画像指標データのうちの超音波断層像マーカMuを半透明にし、画像指標データの6時方向マーカMtと先端方向マーカMdと、挿入形状データの挿入形状マーカMsとコイル位置マーカMcとだけでなく、その他の臓器の超音波断層像マーカMuの裏側の部分も透けて見えるようにし、それぞれ、超音波断層像マーカMuの表側と裏側にある部分の輝度を変化させて3次元ガイド画像データを作成し、混合回路61へ出力する。
膵臓であれば、超音波断層像マーカMuより先端方向マーカMd側にある部分は濃緑、反対側にある部分は薄緑で作成する。血管であれば、超音波断層像マーカMuより先端方向マーカMd側にある部分は濃赤、反対側にある部分は薄赤で作成する。
その他の作用は実施例1と同じである。
本実施例は以下の効果を有する。
In this embodiment, as shown in FIG. 25, the three-dimensional guide image creation circuit B makes the ultrasonic tomographic image marker Mu in the image index data translucent, and the 6 o'clock direction marker Mt and the tip direction of the image index data. In addition to the marker Md, the insertion shape marker Ms of the insertion shape data, and the coil position marker Mc, the back side portion of the ultrasonic tomographic image marker Mu of other organs can be seen through, respectively. Three-dimensional guide image data is created by changing the luminance of the portions on the front side and the back side of Mu and output to the mixing circuit 61.
In the case of the pancreas, the portion on the tip direction marker Md side from the ultrasonic tomographic image marker Mu is created in dark green, and the portion on the opposite side is created in light green. In the case of a blood vessel, the portion on the tip direction marker Md side from the ultrasonic tomographic image marker Mu is created in dark red, and the portion on the opposite side is created in light red.
Other operations are the same as those of the first embodiment.
This embodiment has the following effects.

本実施例によれば、3次元ガイド画像作成回路Bが、画像指標データのうちの超音波断層像マーカMuを半透明にし、画像指標データの6時方向マーカMtと先端方向マーカMdと、挿入形状データの挿入形状マーカMsとコイル位置マーカMcとだけでなく、その他の臓器の超音波断層像マーカMuの裏側の部分も透けて見えるようにし、それぞれ、超音波断層像マーカMuの表側と裏側にある部分の輝度を変化させて3次元ガイド画像データを作成するよう構成、作用させた。
そのため、術者には、可撓部22と硬性部21とをさらにどう動かしたら、患部等の関心領域を超音波断層像上に表示できるかわかりやすく、超音波内視鏡2の操作をしやすい。
特に、胆嚢のように被検体37内部で柔らかく動きやすい臓器は超音波断層像マーカMu上には写っていながら、超音波断層像上には写らない可能性がある。本実施例の3次元ガイド画像は、術者がもう少し硬性部21と可撓部22とを動かせば胆嚢の超音波断層像上での描出ができる目印になるため、術者には、超音波内視鏡2の操作をしやすい。
その他の効果は実施例1と同じである。
According to the present embodiment, the three-dimensional guide image creation circuit B makes the ultrasonic tomographic image marker Mu of the image index data translucent, and inserts the 6 o'clock direction marker Mt and the tip direction marker Md of the image index data. In addition to the shape data insertion shape marker Ms and the coil position marker Mc, the back side of the ultrasonic tomographic image marker Mu of other organs can be seen through, and the front side and the back side of the ultrasonic tomographic image marker Mu, respectively. The three-dimensional guide image data is created and operated by changing the luminance of the portion in the area.
Therefore, it is easy for the operator to know how to move the flexible portion 22 and the rigid portion 21 further and display the region of interest such as the affected area on the ultrasonic tomographic image, and operate the ultrasonic endoscope 2. Cheap.
In particular, an organ that is soft and easy to move within the subject 37, such as the gallbladder, may appear on the ultrasonic tomographic image marker Mu, but not on the ultrasonic tomographic image. The three-dimensional guide image of this embodiment becomes a mark that can be drawn on an ultrasonic tomographic image of the gallbladder if the surgeon moves the rigid portion 21 and the flexible portion 22 a little more. It is easy to operate the endoscope 2.
Other effects are the same as those of the first embodiment.

(変形例)
本実施例では、画像指標データのうちの超音波断層像マーカMuを半透明にし、画像指標データの6時方向マーカMtと先端方向マーカMdと、挿入形状データの挿入形状マーカMsとコイル位置マーカMcとだけでなく、その他の臓器の超音波断層像マーカMuの裏側の部分も透けて見えるように構成、作用させたが、その変形例として術者は、透明度をマウス12やキーボード13で自由に変更させることができるようにしても良い。
その他の変形例として実施例1の変形例を適用できる。
(Modification)
In this embodiment, the ultrasonic tomographic image marker Mu in the image index data is made translucent, the 6 o'clock direction marker Mt and the tip direction marker Md of the image index data, the insertion shape marker Ms of the insertion shape data, and the coil position marker. Although it was configured and operated so that not only Mc but also the back side of the ultrasonic tomographic image marker Mu of other organs could be seen through, as a modified example, the operator can freely set the transparency with the mouse 12 or the keyboard 13. You may make it change to.
As another modification, the modification of the first embodiment can be applied.

次に本発明の実施例6を説明する。実施例1と異なる箇所のみ説明する。
実施例1の画像処理装置11では、硬性部21は、画像位置配向検出用コイル31を超音波振動子アレイ29の環の中心のごく近傍に固定して設けていた。
本実施例においては、硬性部21には、画像位置配向検出用コイル31がCCDカメラ26のごく近傍に固定して設けている。
画像位置配向検出用コイル31の固定されている向きは、実施例1と同じである。CCDカメラ26の光軸は、図1のVとV12とを含む平面内で、Vに対し既知の角度に向いている。
図26は本実施例の画像処理装置11を示す。実施例1の画像処理装置11では、混合回路61は超音波観測装置4と接続されていた。本実施例では、混合回路61は、超音波観測装置4の代わりに、光学観察装置3と接続されている。
Next, a sixth embodiment of the present invention will be described. Only portions different from the first embodiment will be described.
In the image processing apparatus 11 of the first embodiment, the rigid portion 21 is provided with the image position / orientation detection coil 31 fixed in the very vicinity of the center of the ring of the ultrasonic transducer array 29.
In this embodiment, the rigid portion 21 is provided with an image position / orientation detection coil 31 fixed in the very vicinity of the CCD camera 26.
The direction in which the image position / orientation detection coil 31 is fixed is the same as in the first embodiment. The optical axis of the CCD camera 26 is oriented at a known angle with respect to V in the plane including V and V 12 in FIG.
FIG. 26 shows the image processing apparatus 11 of the present embodiment. In the image processing apparatus 11 according to the first embodiment, the mixing circuit 61 is connected to the ultrasonic observation apparatus 4. In the present embodiment, the mixing circuit 61 is connected to the optical observation device 3 instead of the ultrasonic observation device 4.

その他の構成は実施例1と同じである。
次に本実施例の作用を説明する。
実施例1の画像処理装置11では、術者が入手先としてX線3次元ヘリカルCT装置15を選択し、通信回路54が参照画像データとして複数枚の2次元CT画像を取り込み、図5に示すような参照画像データが参照画像記憶部55へ記憶された場合についての作用を説明した。例としてX線造影剤の作用により、大動脈、上腸間膜静脈等の血管は高輝度に、膵臓(pancreas)等の末梢血管を多く含む器官は中輝度に、十二指腸(duodenum)等は低輝度に造影されていた。
本実施例では、X線3次元ヘリカルCT装置15で胸部、特に気管、気管支、気管分枝を非造影で撮像した例で、気管支が2本の気管分枝、気管分枝aと気管分枝bとに分岐する箇所で超音波内視鏡2を気管分枝aへ挿入する例を説明する。
Other configurations are the same as those of the first embodiment.
Next, the operation of this embodiment will be described.
In the image processing apparatus 11 according to the first embodiment, the operator selects the X-ray three-dimensional helical CT apparatus 15 as an acquisition destination, and the communication circuit 54 captures a plurality of two-dimensional CT images as reference image data, which is shown in FIG. The operation in the case where such reference image data is stored in the reference image storage unit 55 has been described. For example, due to the action of an X-ray contrast medium, blood vessels such as the aorta and superior mesenteric vein have high brightness, organs containing many peripheral blood vessels such as pancreas have medium brightness, and duodenum etc. have low brightness. Was contrasted.
In this embodiment, the chest, particularly the trachea, bronchus, and tracheal branch, is imaged non-contrastally with the X-ray three-dimensional helical CT apparatus 15. An example in which the ultrasonic endoscope 2 is inserted into the trachea branch a at a location branched to b will be described.

光学観察装置3は、光学像の12時方向(上方向)を図1のVとV12とを含む平面へV12の射影した方向と反対の方向にして光学像データを作成する。
3次元人体画像作成回路57は、補間回路56から高輝度値のボクセル(主に気管、気管支、気管分枝の壁)、を抽出して着色する。次に、3次元人体画像作成回路57は、抽出したボクセルを3次元人体画像データとして合成回路58の合成メモリ58aのボクセル空間へ埋めていく。
このとき、3次元人体画像作成回路57は、抽出したボクセルの補間メモリ56a内のボクセル空間のアドレスと、合成メモリ内のボクセル空間のアドレスとが同じになるように埋めていく。3次元人体画像データは、高輝度の気管壁と気管支壁と気管分枝壁とが抽出され、各壁は肌色で着色され、被検体頭側を右側に足側を左側にして腹側から観察した3次元データである。
The optical observation device 3 creates optical image data by setting the 12 o'clock direction (upward direction) of the optical image to a direction opposite to the direction in which V 12 is projected onto the plane including V and V 12 in FIG.
The three-dimensional human body image creation circuit 57 extracts voxels (mainly trachea, bronchi, and tracheal branch walls) having high luminance values from the interpolation circuit 56 and colors them. Next, the three-dimensional human body image creation circuit 57 fills the extracted voxels into the voxel space of the synthesis memory 58a of the synthesis circuit 58 as three-dimensional human body image data.
At this time, the three-dimensional human body image creation circuit 57 fills the extracted voxel space address in the interpolation memory 56a and the voxel space address in the synthesis memory so as to be the same. Three-dimensional human body image data is extracted from the high-luminance trachea wall, bronchial wall, and tracheal branch wall, and each wall is colored with skin color. It is the observed three-dimensional data.

画像指標作成回路52は、直交座標軸O-xyzにおける画像位置配向検出用コイル31の位置O"の位置ベクトルOO"の各方向成分(x0,y0,z0)と、直交座標軸O-xyzに対する画像位置配向検出用コイル31の配向を示すオイラー角の各角度成分(ψ,θ,φ)との計6自由度の位置・配向写像データから画像指標データを作成し、合成回路58へ出力する。
画像指標データは、光軸の方向を示すオレンジ色の光学像視野方向マーカと、光学像の12時方向を示す黄緑色の光学像up方向マーカとを合成した直交座標軸O'-x'y'z'上における画像データである。
挿入形状作成回路53は、実施例1と同様に、画像位置配向検出用コイル31の位置O"の位置ベクトルOO"の各方向成分(x0,y0,z0)と、直交座標軸O-xyzにおける複数個の挿入形状検出用コイル32の各々の位置ベクトルの各方向成分(xi,yi,zi) との位置・配向写像データから、挿入形状データを作成し、合成回路58へ出力する。
The image index creation circuit 52 includes each direction component (x0, y0, z0) of the position vector OO "of the position O" of the image position / orientation detection coil 31 on the orthogonal coordinate axis O-xyz, and the image position relative to the orthogonal coordinate axis O-xyz. Image index data is created from position / orientation mapping data having a total of six degrees of freedom with each of the Euler angle components (ψ, θ, φ) indicating the orientation of the orientation detection coil 31, and is output to the synthesis circuit 58.
The image index data is an orthogonal coordinate axis O′-x′y ′ obtained by combining an orange optical image field direction marker indicating the direction of the optical axis and a yellow-green optical image up direction marker indicating the 12 o'clock direction of the optical image. Image data on z ′.
Similarly to the first embodiment, the insertion shape creation circuit 53 includes a plurality of directional components (x0, y0, z0) of the position vector OO ″ of the position O ″ of the image position / orientation detection coil 31 and a plurality of orthogonal coordinate axes O-xyz. Insertion shape data is created from position / orientation mapping data of each of the position vectors of each of the insertion shape detection coils 32 and the direction components (xi, yi, zi), and is output to the synthesis circuit 58.

この様子を図11に示す。挿入形状データは、画像位置配向検出用コイル31と複数個の挿入形状検出用コイル32の各々の位置を順につないで補間したひも状の挿入形状マーカMsと各コイル位置を示すコイル位置マーカMcとを合成した直交座標軸O'-x'y'z'上における画像データである。
合成回路58は、画像指標データと、挿入形状データとを合成メモリ58a内のボクセル空間に埋めていく。このようにして、合成回路58は、同じボクセル空間内に3次元人体画像データと、画像指標データと、挿入形状データとを同じ合成メモリ58a内に埋めていくことで、これらを一組の合成3次元データとして合成する。
回転変換回路59は、合成3次元データを読み出し、制御回路63からの回転指示信号に従って、合成3次元データに回転処理を施す。
This is shown in FIG. The insertion shape data includes a string-like insertion shape marker Ms obtained by interpolating the positions of the image position / orientation detection coil 31 and the plurality of insertion shape detection coils 32 in order, and a coil position marker Mc indicating each coil position. Is the image data on the orthogonal coordinate axis O′-x′y′z ′.
The synthesis circuit 58 fills the image index data and the insertion shape data in the voxel space in the synthesis memory 58a. In this manner, the synthesis circuit 58 embeds the three-dimensional human body image data, the image index data, and the insertion shape data in the same synthesis memory 58a in the same voxel space, thereby combining a set of synthesis. It is synthesized as 3D data.
The rotation conversion circuit 59 reads the combined three-dimensional data and performs a rotation process on the combined three-dimensional data in accordance with the rotation instruction signal from the control circuit 63.

3次元ガイド画像作成回路Aは、合成3次元データに陰面消去、陰影付け等のレンダリング処理を施し、画面に出力可能な3次元ガイド画像データを作成する。3次元ガイド画像データのデフォルトの向きは人体の腹側からの向きとする。
従って、3次元ガイド画像作成回路Aは、被検体37の腹側からの方向で観察した3次元ガイド画像データを作成する。3次元ガイド画像作成回路Aは、被検体腹側から観察した3次元ガイド画像データを混合回路61へ出力する。この3次元ガイド画像データを図27に示す。図27の右側が被検体頭側、左側が被検体足側である。
図27の3次元ガイド画像データでは、気管支の壁と、その先の気管分枝aと気管分枝bとの壁とを半透明にして、画像指標データの光学像視野方向マーカと光学像up方向マーカと、挿入形状データの挿入形状マーカMsとコイル位置マーカMcとが見えるようにしている。
The three-dimensional guide image creation circuit A performs rendering processing such as hidden surface removal and shading on the synthesized three-dimensional data, and creates three-dimensional guide image data that can be output to the screen. The default direction of the three-dimensional guide image data is the direction from the ventral side of the human body.
Therefore, the three-dimensional guide image creation circuit A creates three-dimensional guide image data observed in the direction from the ventral side of the subject 37. The three-dimensional guide image creation circuit A outputs the three-dimensional guide image data observed from the subject's ventral side to the mixing circuit 61. This three-dimensional guide image data is shown in FIG. The right side of FIG. 27 is the subject head side, and the left side is the subject foot side.
In the three-dimensional guide image data of FIG. 27, the wall of the bronchi and the walls of the trachea branch a and the trachea branch b are made translucent, and the optical image field direction marker and the optical image up of the image index data are displayed. The direction marker, the insertion shape marker Ms of the insertion shape data, and the coil position marker Mc are made visible.

3次元ガイド画像作成回路Bは、回転処理を加えられた合成3次元データに陰面消去、陰影付け等のレンダリング処理を施し、画面に出力可能な3次元ガイド画像データを作成する。
本実施例では1例として、術者によるマウス12、キーボード13からの入力により、制御回路63からの回転指示信号が3次元ガイド画像データを90度回転させ、足側から観察する指示内容になっていたものとする。
従って、3次元ガイド画像作成回路Bは、被検体足側からの方向で観察した3次元ガイド画像データを作成する。3次元ガイド画像作成回路Bは被検体足側から観察した3次元ガイド画像データを混合回路61へ出力する。この3次元ガイド画像データを図28に示す。図28の右側が被検体右側、左側が被検体左側である。
The three-dimensional guide image creation circuit B performs rendering processing such as hidden surface removal and shading on the combined three-dimensional data subjected to the rotation processing, and creates three-dimensional guide image data that can be output to the screen.
In this embodiment, as an example, the rotation instruction signal from the control circuit 63 rotates the three-dimensional guide image data by 90 degrees according to the input from the mouse 12 and the keyboard 13 by the operator, and the instruction content is observed from the foot side. It shall have been.
Accordingly, the 3D guide image creation circuit B creates 3D guide image data observed in the direction from the subject's foot side. The three-dimensional guide image creation circuit B outputs the three-dimensional guide image data observed from the subject foot side to the mixing circuit 61. This three-dimensional guide image data is shown in FIG. The right side of FIG. 28 is the subject right side, and the left side is the subject left side.

図28の3次元ガイド画像データでは、気管支の壁と、その先の気管分枝aと気管分枝bとの壁とを半透明にして、画像指標データの光学像視野方向マーカと光学像up方向マーカと、挿入形状データの挿入形状マーカMsとコイル位置マーカMcとが見えるようにしている。
混合回路61は、光学観察装置3からの光学像データと、3次元ガイド画像作成回路Aからの被検体37を腹側から観察した3次元ガイド画像データと、3次元ガイド画像作成回路Bからの被検体37を足側から観察した3次元ガイド画像データとを並べて表示用の混合データを作成する。
表示回路62はこの混合データをアナログビデオ信号に変換する。
表示装置14は、このアナログビデオ信号を基に光学像と被検体37を足側から観察した3次元ガイド画像と腹側から観察した3次元ガイド画像とを並べて表示する。
In the three-dimensional guide image data of FIG. 28, the wall of the bronchus and the walls of the trachea branch a and the trachea branch b are made translucent, and the optical image field direction marker and the optical image up of the image index data are displayed. The direction marker, the insertion shape marker Ms of the insertion shape data, and the coil position marker Mc are made visible.
The mixing circuit 61 includes optical image data from the optical observation device 3, three-dimensional guide image data obtained by observing the subject 37 from the three-dimensional guide image creation circuit A from the ventral side, and three-dimensional guide image creation circuit B. The mixed data for display is created by arranging the three-dimensional guide image data obtained by observing the subject 37 from the foot side.
The display circuit 62 converts this mixed data into an analog video signal.
The display device 14 displays the optical image, the three-dimensional guide image obtained by observing the subject 37 from the foot side, and the three-dimensional guide image observed from the abdomen side by side based on the analog video signal.

図29に示すように、表示装置14は、3次元ガイド画像上で表現される気管支の壁と、気管分枝の壁とを肌色で表示する。
本実施例では、光学像がリアルタイム画像として処理される。
実施例1と同様、本実施例では、2つの新たな3次元ガイド画像が作成され、新たな光学像とともに表示装置14の表示画面にリアルタイムに更新されつつ表示される。すなわち、図29に示すように術者の可撓部22、硬性部21の用手的な操作に伴う光軸の移動に連動して、画像指標データの光学像視野方向マーカと光学像up方向マーカと、挿入形状データの挿入形状マーカMsとコイル位置マーカMcとが3次元人体画像データ上を移動もしくは変形していく。
その他の作用は実施例1と同じである。
本実施例は以下の効果を有する。
As shown in FIG. 29, the display device 14 displays the wall of the bronchus and the wall of the trachea branch expressed on the three-dimensional guide image in skin color.
In this embodiment, the optical image is processed as a real-time image.
As in the first embodiment, in this embodiment, two new three-dimensional guide images are created and displayed on the display screen of the display device 14 while being updated in real time together with new optical images. That is, as shown in FIG. 29, the optical image field direction marker of the image index data and the optical image up direction are interlocked with the movement of the optical axis accompanying the manual operation of the flexible portion 22 and the rigid portion 21 of the operator. The marker, the insertion shape marker Ms of the insertion shape data, and the coil position marker Mc move or deform on the three-dimensional human body image data.
Other operations are the same as those of the first embodiment.
This embodiment has the following effects.

本実施例によれば、気管支の壁と、その先の気管分枝aと気管分枝bとの壁とを半透明にして、画像指標データの光学像視野方向マーカと光学像up方向マーカと、挿入形状データの挿入形状マーカMsとコイル位置マーカMcとが見えるようにした3次元ガイド画像データを作成し、混合回路61と表示装置14とが、光学像と被検体37を腹側から観察した3次元ガイド画像と足側から観察した3次元ガイド画像とを並べて表示するよう構成、作用させた。
そのため、本実施例は、超音波内視鏡2(或いは以下の変形例で説明するように内視鏡)を気管分枝aへ挿入する際に誤って気管分枝bへ挿入することを防ぐことができる。
その他の効果は実施例1と同じである。
According to the present embodiment, the bronchial wall and the walls of the trachea branch a and the trachea branch b beyond that are translucent, and the optical image field direction marker and the optical image up direction marker of the image index data Then, three-dimensional guide image data is created so that the insertion shape marker Ms and the coil position marker Mc of the insertion shape data can be seen, and the mixing circuit 61 and the display device 14 observe the optical image and the subject 37 from the ventral side. The three-dimensional guide image and the three-dimensional guide image observed from the foot side are arranged and displayed side by side.
Therefore, this embodiment prevents the ultrasonic endoscope 2 (or an endoscope as described in the following modification) from being erroneously inserted into the trachea branch b when inserted into the trachea branch a. be able to.
Other effects are the same as those of the first embodiment.

ここでは、気管支の深部側に挿入する場合で説明したが、他の場合においても画像指標データの光学像視野方向マーカと光学像up方向マーカと、挿入形状データの挿入形状マーカMsとコイル位置マーカMcとが見えるように合成された3次元ガイド画像データを作成しているので、術者は体腔内プローブを体腔内に挿入して円滑な診断、処置を行うことができる。従って、術者が診断、処置を円滑に行い易い体腔内プローブ装置を実現できる。   Here, the case of insertion into the deep part of the bronchi has been described. However, in other cases, the optical image field direction marker of the image index data, the optical image up direction marker, the insertion shape data insertion shape marker Ms, and the coil position marker are used. Since the three-dimensional guide image data synthesized so that Mc can be seen is created, the surgeon can insert a body cavity probe into the body cavity and perform smooth diagnosis and treatment. Therefore, it is possible to realize an in-vivo probe device that allows an operator to easily perform diagnosis and treatment smoothly.

(変形例)
本実施例によれば、実施例1と同じく体腔内プローブとして光学観察系(光学観察窓24と、対物レンズ25と、CCDカメラ26と、図示しない照明光照射窓)を設けた電子ラジアル走査型の超音波内視鏡2を用いたが、体腔内プローブとして、超音波内視鏡2ではなく単に光学観察系を設けた内視鏡を用いても良い。
その他の変形例は実施例1における変形例を適用することができる。
なお、上述した各実施例等を部分的に組み合わせる等して構成される実施例等も本発明に属する。また、図4等において示した画像処理装置11のブロック構成を変更しても良い。
(Modification)
According to the present embodiment, as in the first embodiment, an electronic radial scanning type provided with an optical observation system (an optical observation window 24, an objective lens 25, a CCD camera 26, and an illumination light irradiation window not shown) as a body cavity probe. However, instead of the ultrasonic endoscope 2, an endoscope provided with an optical observation system may be used as a body cavity probe.
Other modifications can be applied to the modification in the first embodiment.
It should be noted that embodiments configured by partially combining the above-described embodiments and the like also belong to the present invention. Further, the block configuration of the image processing apparatus 11 shown in FIG. 4 and the like may be changed.

[付記]
1.被検体の体腔内へ挿入される体腔内プローブと、
前記体腔内プローブの挿入形状を作成する挿入形状作成手段と、
人体の3次元データから前記人体の3次元画像を作成する3次元画像作成手段と、
前記挿入形状と、前記3次元画像とを合成する合成手段と、
を備えた体腔内プローブ装置において、
前記体腔内プローブは、前記体腔内への挿入側に前記被検体内の画像を作成するための信号を取得する画像信号取得手段を固定して設けた硬性部と、前記硬性部より手前側の可撓部とを具備し、
前記画像信号取得手段が取得した信号から前記被検体内のリアルタイム画像を作成する画像作成手段と、
前記硬性部に対して位置が固定された画像位置配向検出用素子と、
前記可撓部に沿って複数個設けられた挿入形状検出用素子と、
前記被検体に接触可能な被検体検出用素子と、
前記画像位置配向検出用素子の位置と配向との6自由度と、前記複数個の挿入形状検出用素子の各位置と、前記被検体検出用素子の位置もしくは配向とを検出し、検出値として出力する検出手段と、
前記画像作成手段が作成した前記被検体内の前記リアルタイム画像の位置と配向とを示す画像指標を作成する画像指標作成手段と、
を具備し、
前記合成手段が、前記検出手段が出力した検出値を基に、前記挿入形状と前記画像指標と前記3次元画像とを合成し、前記被検体に対する前記可撓部と前記リアルタイム画像の位置および配向をガイドする3次元ガイド画像を作成することを特徴とする体腔内プローブ装置。
[Appendix]
1. An intracavity probe inserted into the body cavity of the subject;
An insertion shape creation means for creating an insertion shape of the probe in the body cavity;
3D image creation means for creating a 3D image of the human body from 3D data of the human body;
Synthesis means for synthesizing the insertion shape and the three-dimensional image;
In a body cavity probe device comprising:
The intra-body-cavity probe includes a rigid portion provided with fixed image signal acquisition means for acquiring a signal for creating an image in the subject on the insertion side into the body cavity, and a front side of the rigid portion. A flexible portion,
Image creating means for creating a real-time image in the subject from the signal obtained by the image signal obtaining means;
An image position / orientation detecting element whose position is fixed with respect to the hard part;
A plurality of insertion shape detecting elements provided along the flexible portion;
An analyte detection element capable of contacting the analyte;
6 degrees of freedom between the position and orientation of the image position / orientation detecting element, each position of the plurality of insertion shape detecting elements, and the position or orientation of the subject detecting element are detected as detection values. Detecting means for outputting;
Image index creating means for creating an image index indicating the position and orientation of the real-time image in the subject created by the image creating means;
Comprising
The synthesizing unit synthesizes the insertion shape, the image index, and the three-dimensional image based on the detection value output from the detection unit, and the position and orientation of the flexible part and the real-time image with respect to the subject An intra-body-cavity probe apparatus characterized by creating a three-dimensional guide image for guiding

(付記1の効果)
体腔内プローブの挿入形状とリアルタイム画像の方向とを侵襲を少なく検出でき、両者を含んだガイド画像を作成することができる。
また、リアルタイム画像と膵臓などの関心領域との位置関係をガイドすることができるとともに、消化管や気管等の体腔壁に対して、リアルタイム画像と体腔内プローブと可撓部22と硬性部21とがどのような配向や形状になっているのかをガイドすることができる。
また、被検体に接触可能な被検体検出用素子を設けたため、体腔内プローブでの検査中に被検体の体位に変化が生じても、体表特徴点と臓器との位置関係が変化しない限り、リアルタイム画像もしくは可撓部もしくは硬性部と、人体の3次元画像上の画像指標もしくは挿入形状とは解剖学的により正確に一致するようにできる。
(Effects of Appendix 1)
The insertion shape of the body cavity probe and the direction of the real-time image can be detected with less invasion, and a guide image including both can be created.
Further, the positional relationship between the real-time image and the region of interest such as the pancreas can be guided, and the real-time image, the probe in the body cavity, the flexible part 22, the rigid part 21, and the body cavity wall such as the digestive tract and trachea Can be guided in what orientation and shape.
In addition, since a subject detection element that can contact the subject is provided, even if a change in the posture of the subject occurs during the examination with the body cavity probe, the positional relationship between the body surface feature point and the organ does not change. In addition, the real-time image or the flexible part or the rigid part and the image index or the insertion shape on the three-dimensional image of the human body can be more accurately matched anatomically.


(付記8の効果)
補正X線3次元ヘリカルCT装置と3次元MRI装置とは、通常仰臥位で撮像するように設定され、左側臥位での内視鏡検査の時とは体位が異なる。ガイド画像に体表検出用素子の位置もしくは配向の検出値を基にガイド画像を作成する際、体腔内検出用素子の位置の検出値によりガイド画像に補正処理を施したため、被検体内の諸器官がX線3次元ヘリカルCT装置と3次元MRI装置に比して左側臥位での内視鏡検査の時に重力に従って変位しても、被検体内の点の写像も解剖学的に一層正確な一致をする。そのため、ガイド画像は、リアルタイム画像を一層正確にガイドすることができる。
また、被検体に接触可能な被検体検出用素子を設けたため、体腔内プローブでの検査中に被検体の体位に変化が生じても、体表特徴点と臓器との位置関係が変化しない限り、リアルタイム画像もしくは可撓部もしくは硬性部と、人体の3次元画像上の画像指標もしくは挿入形状とは解剖学的により正確に一致するようにできる。

(Effects of Appendix 8)
The corrected X-ray three-dimensional helical CT apparatus and the three-dimensional MRI apparatus are normally set to image in the supine position, and are different in posture from the endoscopic examination in the left supine position. When creating a guide image based on the detection value of the position or orientation of the body surface detection element in the guide image, the guide image was corrected using the detection value of the position of the body cavity detection element. Compared to X-ray 3D helical CT and 3D MRI, the mapping of points in the subject is more anatomically accurate even if the organ is displaced according to gravity during endoscopic examination in the left lateral position Make a coincidence. Therefore, the guide image can more accurately guide the real-time image.
In addition, since a subject detection element that can contact the subject is provided, even if a change in the posture of the subject occurs during the examination with the body cavity probe, the positional relationship between the body surface feature point and the organ does not change. In addition, the real-time image or the flexible part or the rigid part and the image index or the insertion shape on the three-dimensional image of the human body can be more accurately matched anatomically.

9.前記補正手段による前記補正処理は、前記3次元データ内での平行移動処理であることを特徴とする付記8に記載の体腔内プローブ装置。
10.前記画像作成手段が作成した前記被検体内の前記リアルタイム画像の位置及び配向を示す画像指標を作成する画像指標作成手段を有し、
前記ガイド画像作成手段は、前記検出手段が出力した前記画像位置配向検出用素子の位置及び配向と、前記体表検出用素子の位置もしくは配向の検出値を基に、前記画像指標を合成したガイド画像を作成し、
前記補正手段による前記補正処理が、前記体腔内検出用素子の位置の検出値により前記画像指標を前記3次元データ内もしくは前記ガイド画像内で平行移動した位置で合成することで前記ガイド画像を作成する処理であることを特徴とする付記8に記載の体腔内プローブ装置。
9. 9. The intra-body-cavity probe apparatus according to appendix 8, wherein the correction process by the correction unit is a parallel movement process in the three-dimensional data.
10. Image index creating means for creating an image index indicating the position and orientation of the real-time image in the subject created by the image creating means;
The guide image creating means is a guide that synthesizes the image index based on the position and orientation of the image position / orientation detecting element output from the detecting means and the detected value of the position or orientation of the body surface detecting element. Create an image,
The correction processing by the correction means creates the guide image by synthesizing the image index at the position translated in the three-dimensional data or the guide image based on the detection value of the position of the body cavity detecting element. 9. The body cavity probe device according to appendix 8, wherein

11.前記体腔内プローブは管状のチャンネルを有し、
前記体腔内検出用素子を固定して内蔵した接触手段を有し、
前記接触手段は、前記チャンネルに挿通して前記被検体の前記体腔内の所定の位置に接触することを特徴とする付記8に記載の体腔内プローブ装置。
11. The body cavity probe has a tubular channel;
Contact means incorporating and fixing the body cavity detection element,
9. The intra-body-cavity probe apparatus according to appendix 8, wherein the contact means is inserted into the channel and contacts a predetermined position in the body cavity of the subject.

12.前記画像位置配向検出用素子は、前記体腔内検出用素子を兼ね、
前記補正手段は、前記画像位置配向検出用素子の位置もしくは配向の検出値により前記ガイド画像に補正処理を施すことを特徴とする付記8に記載の体腔内プローブ装置。
12 The image position / orientation detecting element also serves as the body cavity detecting element,
9. The intra-body-cavity probe apparatus according to appendix 8, wherein the correction unit performs correction processing on the guide image based on a detection value of the position or orientation of the image position / orientation detection element.

13.前記ガイド画像作成手段は、前記被検体から撮像された3次元データから臓器もしくは脈管を抽出する抽出手段を有し、
前記ガイド画像作成手段は、前記抽出手段が抽出した前記被検体の前記臓器もしくは前記脈管から、前記臓器もしくは前記脈管の形状と配置とを表現する3次元画像を作成し、前記3次元画像を基に前記ガイド画像を作成することを特徴とする付記8に記載の体腔内プローブ装置。
13. The guide image creating means includes an extracting means for extracting an organ or a blood vessel from three-dimensional data imaged from the subject;
The guide image creating means creates a three-dimensional image representing the shape and arrangement of the organ or the vessel from the organ or the vessel of the subject extracted by the extracting means, and the three-dimensional image 9. The body cavity probe device according to appendix 8, wherein the guide image is created based on the guide image.

14.前記画像信号取得手段は、前記被検体内を撮像して映像信号を出力する撮像素子であり、
前記画像作成手段は、前記映像信号から前記リアルタイム画像として光学像を作成することを特徴とする付記8に記載の体腔内プローブ装置。
14 The image signal acquisition means is an image sensor that images the inside of the subject and outputs a video signal,
9. The intra-body-cavity probe apparatus according to appendix 8, wherein the image creating unit creates an optical image as the real-time image from the video signal.

15.前記画像信号取得手段は、前記被検体内に超音波を送受信してエコー信号を出力する超音波振動子であり、
前記画像作成手段は、前記エコー信号から前記リアルタイム画像として超音波断層像を作成することを特徴とする付記8に記載の体腔内プローブ装置。
15. The image signal acquisition means is an ultrasonic transducer that transmits and receives ultrasonic waves in the subject to output echo signals,
9. The intra-body-cavity probe apparatus according to appendix 8, wherein the image creating unit creates an ultrasonic tomographic image as the real-time image from the echo signal.

16.前記画像位置配向検出用素子と前記被検体検出用素子とは磁場発生器もしくは磁場検出器であり、
前記検出手段は、磁場を用いて前記検出を行うことを特徴とする付記8に記載の体腔内プローブ装置。
16. The image position and orientation detection element and the subject detection element are a magnetic field generator or a magnetic field detector,
The intra-body-cavity probe apparatus according to appendix 8, wherein the detection means performs the detection using a magnetic field.

17.被検体の体腔内へ挿入され、前記体腔内への挿入側先端に前記被検体内の画像を作成するための信号を取得する画像信号取得手段を設けた体腔内プローブと、
人体の3次元データから前記人体の3次元画像を作成する3次元画像作成手段と、
前記3次元画像を基に前記被検体内の前記リアルタイム画像の前記被検体に対する位置もしくは配向をガイドするガイド画像を作成するガイド画像作成手段と、
を備えた体腔内プローブ装置において、
前記画像信号取得手段が取得した信号から前記被検体内のリアルタイム画像を作成する画像作成手段と、
前記画像信号取得手段と位置関係を固定された画像位置配向検出用素子と、
前記被検体に接触可能な被検体検出用素子と、
前記画像位置配向検出用素子の位置と配向と、前記被検体検出用素子の位置もしくは配向とを検出し、検出値として出力する検出手段と、
前記画像作成手段が作成した前記被検体内の前記リアルタイム画像の位置と配向とを示す画像指標を作成する画像指標作成手段と、
前記画像作成手段が作成した前記被検体内の前記リアルタイム画像と、前記ガイド画像作成手段が作成した前記ガイド画像とを、対比可能に表示する表示手段と、
を具備し、
前記表示手段は、前記人体の前記3次元画像の頭側が右に、足側が左に、腹側が前記表示手段の画面手前の法線方向になるよう、前記ガイド画像を表示することを特徴とする体腔内プローブ装置。
17. An intracorporeal probe provided with an image signal acquisition means that is inserted into the body cavity of the subject and acquires a signal for creating an image in the subject at the distal end on the insertion side into the body cavity;
3D image creation means for creating a 3D image of the human body from 3D data of the human body;
Guide image creating means for creating a guide image for guiding the position or orientation of the real-time image in the subject with respect to the subject based on the three-dimensional image;
In a body cavity probe device comprising:
Image creating means for creating a real-time image in the subject from the signal obtained by the image signal obtaining means;
An image position / orientation detection element having a fixed positional relationship with the image signal acquisition means;
An analyte detection element capable of contacting the analyte;
Detecting means for detecting the position and orientation of the image position / orientation detecting element and the position or orientation of the object detecting element and outputting as a detection value;
Image index creating means for creating an image index indicating the position and orientation of the real-time image in the subject created by the image creating means;
Display means for displaying the real-time image in the subject created by the image creation means and the guide image created by the guide image creation means in a comparable manner;
Comprising
The display means displays the guide image such that the head side of the three-dimensional image of the human body is on the right, the foot side is on the left, and the ventral side is in a normal direction in front of the screen of the display means. Body cavity probe device.

(付記17の効果)
被検体は内視鏡検査では通常左側臥位での体位で検査される。ガイド画像も左側臥位で表示されるので、被検体とガイド画像とを対比しやすく、術者はガイド画像がわかりやすい。
また、被検体に接触可能な被検体検出用素子を設けたため、体腔内プローブでの検査中に被検体の体位に変化が生じても、体表特徴点と臓器との位置関係が変化しない限り、リアルタイム画像もしくは可撓部もしくは硬性部と、人体の3次元画像上の画像指標もしくは挿入形状とは解剖学的により正確に一致するようにできる。
(Effect of Supplementary Note 17)
The subject is usually examined in a left-right position in endoscopy. Since the guide image is also displayed in the left lateral position, it is easy to compare the subject and the guide image, and the surgeon can easily understand the guide image.
In addition, since a subject detection element that can contact the subject is provided, even if a change in the posture of the subject occurs during the examination with the body cavity probe, the positional relationship between the body surface feature point and the organ does not change. In addition, the real-time image or the flexible part or the rigid part and the image index or the insertion shape on the three-dimensional image of the human body can be more accurately matched anatomically.

18.前記ガイド画像作成手段は、前記被検体から撮像された3次元データから臓器もしくは脈管を抽出する抽出手段を有し、
前記ガイド画像作成手段は、前記抽出手段が抽出した前記被検体の前記臓器もしくは前記脈管から、前記臓器もしくは前記脈管の形状と配置とを表現する3次元画像を作成し、前記3次元画像を基に前記ガイド画像を作成することを特徴とする付記17に記載の体腔内プローブ装置。
18. The guide image creating means includes an extracting means for extracting an organ or a blood vessel from three-dimensional data imaged from the subject;
The guide image creating unit creates a three-dimensional image representing the shape and arrangement of the organ or the vessel from the organ or the vessel of the subject extracted by the extracting unit, and the three-dimensional image 18. The body cavity probe device according to appendix 17, wherein the guide image is created based on the guide image.

19.前記画像信号取得手段は、前記被検体内を撮像して映像信号を出力する撮像素子であり、
前記画像作成手段は、前記映像信号から前記リアルタイム画像として光学像を作成することを特徴とする付記17に記載の体腔内プローブ装置。
19. The image signal acquisition means is an image sensor that images the inside of the subject and outputs a video signal,
18. The body cavity probe device according to appendix 17, wherein the image creating means creates an optical image as the real-time image from the video signal.

20.前記画像信号取得手段は、前記被検体内に超音波を送受信してエコー信号を出力する超音波振動子であり、
前記画像作成手段は、前記エコー信号から前記リアルタイム画像として超音波断層像を作成することを特徴とする付記17に記載の体腔内プローブ装置。
20. The image signal acquisition means is an ultrasonic transducer that transmits and receives ultrasonic waves in the subject to output echo signals,
The in-vivo probe device according to appendix 17, wherein the image creating means creates an ultrasonic tomographic image as the real-time image from the echo signal.

21.前記画像位置配向検出用素子と前記被検体検出用素子とは磁場発生器もしくは磁場検出器であり、
前記検出手段は、磁場を用いて前記検出を行うことを特徴とする付記17に記載の体腔内プローブ装置。
21. The image position and orientation detection element and the subject detection element are a magnetic field generator or a magnetic field detector,
18. The body cavity probe device according to appendix 17, wherein the detection means performs the detection using a magnetic field.

22.被検体の体腔内へ挿入され、前記体腔内への挿入側先端に前記被検体内の画像を作成するための信号を取得する画像信号取得手段を設けた体腔内プローブと、
人体の3次元データから前記人体の3次元画像を作成する3次元画像作成手段と、
前記3次元画像を基に前記被検体内の前記リアルタイム画像の前記被検体に対する位置もしくは配向をガイドするガイド画像を作成するガイド画像作成手段と、
を備えた体腔内プローブ装置において、
前記画像信号取得手段が取得した信号から前記被検体内のリアルタイム画像を作成する画像作成手段と、
前記画像信号取得手段と位置関係を固定された画像位置配向検出用素子と、
前記被検体に接触可能な被検体検出用素子と、
前記画像位置配向検出用素子の位置と配向と、前記被検体検出用素子の位置もしくは配向とを検出し、検出値として出力する検出手段と、
前記画像作成手段が作成した前記被検体内の前記リアルタイム画像の位置と配向とを示す画像指標を作成する画像指標作成手段と、
を具備し、
前記ガイド画像作成手段は、前記検出手段が出力した検出値を基に、前記3次元画像と前記画像指標とを合成し、少なくとも2つの互いに異なる方向に視線を設定したガイド画像を作成することを特徴とする体腔内プローブ装置。
22. An intracorporeal probe provided with an image signal acquisition means that is inserted into the body cavity of the subject and acquires a signal for creating an image in the subject at the distal end on the insertion side into the body cavity;
3D image creation means for creating a 3D image of the human body from 3D data of the human body;
Guide image creating means for creating a guide image for guiding the position or orientation of the real-time image in the subject with respect to the subject based on the three-dimensional image;
In a body cavity probe device comprising:
Image creating means for creating a real-time image in the subject from the signal obtained by the image signal obtaining means;
An image position / orientation detection element having a fixed positional relationship with the image signal acquisition means;
An analyte detection element capable of contacting the analyte;
Detecting means for detecting the position and orientation of the image position / orientation detecting element and the position or orientation of the object detecting element and outputting as a detection value;
Image index creating means for creating an image index indicating the position and orientation of the real-time image in the subject created by the image creating means;
Comprising
The guide image creating means synthesizes the three-dimensional image and the image index based on the detection value output from the detection means, and creates a guide image in which the line of sight is set in at least two different directions. A body cavity probe device.

(付記22の効果)
2つの互いに異なる方向に視線を設定したガイド画像を作成したため、リアルタイム画像と膵臓などの関心領域との位置関係を複数の方向から、ガイドすることができるとともに、消化管等の体腔壁に対して、リアルタイム画像と体腔内プローブの可撓部と硬性部とがどのような配向や形状になっているのかを複数の方向からガイドすることができ、術者にはわかりやすい。
また、被検体に接触可能な被検体検出用素子を設けたため、体腔内プローブでの検査中に被検体の体位に変化が生じても、体表特徴点と臓器との位置関係が変化しない限り、リアルタイム画像もしくは可撓部もしくは硬性部と、人体の3次元画像上の画像指標もしくは挿入形状とは解剖学的により正確に一致するようにできる。
(Effects of Supplementary Note 22)
Since the guide images were created with the line of sight set in two different directions, the positional relationship between the real-time image and the region of interest such as the pancreas can be guided from multiple directions, and against the body cavity wall such as the digestive tract The orientation and shape of the real-time image and the flexible part and the rigid part of the body cavity probe can be guided from a plurality of directions, which is easy for the operator to understand.
In addition, since a subject detection element that can contact the subject is provided, even if a change in the posture of the subject occurs during the examination with the body cavity probe, the positional relationship between the body surface feature point and the organ does not change. In addition, the real-time image or the flexible part or the rigid part and the image index or the insertion shape on the three-dimensional image of the human body can be more accurately matched anatomically.

23.前記ガイド画像作成手段は、少なくとも2つの互いに異なる方向に視線を設定したガイド画像を作成し、
かつ、少なくとも前記2つのガイド画像のうち1つの視線を被検体の腹側もしくは背側からの方向に設定し、
かつ、少なくとも前記2つのガイド画像のうち1つの視線を被検体の頭側もしくは足側からの方向に設定することを特徴とする付記22に記載の体腔内プローブ装置。
23. The guide image creating means creates a guide image in which the line of sight is set in at least two different directions;
And at least one of the two guide images is set in the direction from the ventral or dorsal side of the subject,
The in-vivo probe device according to appendix 22, wherein one line of sight of at least the two guide images is set in a direction from the head side or the foot side of the subject.

24.前記ガイド画像作成手段は、少なくとも2つの互いに異なる方向に視線を設定したガイド画像を作成し、
かつ、少なくとも2つの前記ガイド画像のうち、少なくとも1つのガイド画像の視線方向を変更するガイド画像回転手段を設けたことを特徴とする付記22に記載の体腔内プローブ装置。
24. The guide image creating means creates a guide image in which the line of sight is set in at least two different directions;
The body cavity probe device according to appendix 22, further comprising guide image rotation means for changing a line-of-sight direction of at least one of the at least two guide images.

25.前記ガイド画像作成手段は、前記被検体から撮像された3次元データから臓器もしくは脈管を抽出する抽出手段を有し、
前記ガイド画像作成手段は、前記抽出手段が抽出した前記被検体の前記臓器もしくは前記脈管から、前記臓器もしくは前記脈管の形状と配置とを表現する3次元画像を作成し、前記3次元画像を基に前記ガイド画像を作成することを特徴とする付記22ないし付記24のいずれか1つの付記に記載の体腔内プローブ装置。
25. The guide image creating means includes an extracting means for extracting an organ or a blood vessel from three-dimensional data imaged from the subject;
The guide image creation means creates a three-dimensional image representing the shape and arrangement of the organ or the vessel from the organ or the vessel of the subject extracted by the extraction means, and the three-dimensional image The intracavity probe apparatus according to any one of appendices 22 to 24, wherein the guide image is created based on the appendix.

26.前記画像信号取得手段は、前記被検体内を撮像して映像信号を出力する撮像素子であり、
前記画像作成手段は、前記映像信号から前記リアルタイム画像として光学像を作成することを特徴とする付記22ないし24のいずれか1つの付記に記載の体腔内プローブ装置。
26. The image signal acquisition means is an image sensor that images the inside of the subject and outputs a video signal,
25. The intra-body-cavity probe apparatus according to any one of appendices 22 to 24, wherein the image creation means creates an optical image as the real-time image from the video signal.

27.前記画像信号取得手段は、前記被検体内に超音波を送受信してエコー信号を出力する超音波振動子であり、
前記画像作成手段は、前記エコー信号から前記リアルタイム画像として超音波断層像を作成することを特徴とする付記22ないし24のいずれか1つの付記に記載の体腔内プローブ装置。
27. The image signal acquisition means is an ultrasonic transducer that transmits and receives ultrasonic waves in the subject to output echo signals,
25. The body cavity probe device according to any one of appendices 22 to 24, wherein the image creating means creates an ultrasonic tomographic image as the real-time image from the echo signal.

28.前記画像位置配向検出用素子と前記被検体検出用素子とは磁場発生器もしくは磁場検出器であり、
前記検出手段は、磁場を用いて前記検出を行うことを特徴とする付記22ないし24のいずれか1つの付記に記載の体腔内プローブ装置。
28. The image position and orientation detection element and the subject detection element are a magnetic field generator or a magnetic field detector,
25. The body cavity probe device according to any one of appendices 22 to 24, wherein the detection means performs the detection using a magnetic field.

29.被検体の体腔内へ挿入され、前記体腔内への挿入側先端に前記被検体内の画像を作成するための信号を取得する画像信号取得手段を設けた体腔内プローブと、
人体の3次元データから前記人体の3次元画像を作成する3次元画像作成手段と、
前記3次元画像を基に前記被検体内の前記リアルタイム画像の前記被検体に対する位置もしくは配向をガイドするガイド画像を作成するガイド画像作成手段と、
を備えた体腔内プローブ装置において、
前記画像信号取得手段が取得した信号から前記被検体内のリアルタイム画像を作成する画像作成手段と、
前記画像信号取得手段と位置関係を固定された画像位置配向検出用素子と、
前記被検体に接触可能な被検体検出用素子と、
前記画像位置配向検出用素子の位置と配向と、前記被検体検出用素子の位置もしくは配向とを検出し、検出値として出力する検出手段と、
前記画像作成手段が作成した前記被検体内の前記リアルタイム画像の位置と配向とを示す画像指標を作成する画像指標作成手段と、
を具備し、
前記ガイド画像作成手段は、前記検出手段が出力した検出値を基に前記3次元画像と前記画像指標とを合成し、視線を前記画像指標の法線と一致する方向になるよう設定された第1のガイド画像を作成することを特徴とする体腔内プローブ装置。
(付記29の効果)
第1のガイド画像とリアルタイム画像との方向が一致するため、術者は両者を対比しやすく、リアルタイム画像の解剖学的な解釈をしやすい。
また、被検体に接触可能な被検体検出用素子を設けたため、体腔内プローブでの検査中に被検体の体位に変化が生じても、体表特徴点と臓器との位置関係が変化しない限り、リアルタイム画像もしくは可撓部もしくは硬性部と、人体の3次元画像上の画像指標もしくは挿入形状とは解剖学的により正確に一致するようにできる。
29. An intracorporeal probe provided with an image signal acquisition means that is inserted into the body cavity of the subject and acquires a signal for creating an image in the subject at the distal end on the insertion side into the body cavity;
3D image creation means for creating a 3D image of the human body from 3D data of the human body;
Guide image creating means for creating a guide image for guiding the position or orientation of the real-time image in the subject with respect to the subject based on the three-dimensional image;
In a body cavity probe device comprising:
Image creating means for creating a real-time image in the subject from the signal obtained by the image signal obtaining means;
An image position / orientation detection element having a fixed positional relationship with the image signal acquisition means;
An analyte detection element capable of contacting the analyte;
Detecting means for detecting the position and orientation of the image position / orientation detecting element and the position or orientation of the object detecting element and outputting as a detection value;
Image index creating means for creating an image index indicating the position and orientation of the real-time image in the subject created by the image creating means;
Comprising
The guide image creating unit is configured to synthesize the three-dimensional image and the image index based on the detection value output from the detection unit, and set the line of sight to a direction that coincides with the normal line of the image index. An intra-body-cavity probe apparatus characterized by creating one guide image.
(Effects of Supplementary Note 29)
Since the directions of the first guide image and the real-time image coincide with each other, it is easy for the operator to compare the two images and to interpret the real-time image anatomically.
In addition, since a subject detection element that can contact the subject is provided, even if a change in the posture of the subject occurs during the examination with the body cavity probe, the positional relationship between the body surface feature point and the organ does not change. In addition, the real-time image or the flexible part or the rigid part and the image index or the insertion shape on the three-dimensional image of the human body can be more accurately matched anatomically.

30.前記ガイド画像作成手段は、前記第1のガイド画像の他に、視線を被検体の腹側もしくは背側からの方向、または、
被検体の頭側もしくは足側からの方向に設定された第2のガイド画像を作成することを特徴とする付記29に記載の体腔内プローブ装置。
30. The guide image creating means, in addition to the first guide image, the line of sight from the abdominal side or the back side of the subject, or
30. The body cavity probe device according to appendix 29, wherein the second guide image set in a direction from the head side or the foot side of the subject is created.

31.前記画像作成手段が作成した前記被検体内の前記リアルタイム画像と、前記ガイド画像作成手段が作成した前記第1のガイド画像とを、対比可能に表示する表示手段を有し、
前記表示手段は、画面の法線と前記第1のガイド画像に合成された前記画像指標の法線とを一致させ、前記第1のガイド画像と前記被検体内の前記リアルタイム画像とを対比可能に表示することを特徴とする付記29に記載の体腔内プローブ装置。
31. Display means for displaying the real-time image in the subject created by the image creation means and the first guide image created by the guide image creation means in a comparable manner;
The display means can match the first guide image with the real-time image in the subject by matching the normal line of the screen with the normal line of the image index synthesized with the first guide image. The in-body-cavity probe device according to appendix 29, characterized by:

32.前記画像作成手段が作成した前記被検体内の前記リアルタイム画像と、前記ガイド画像作成手段が作成した前記第1のガイド画像とを、対比可能に表示する表示手段を有し、
前記表示手段は、前記被検体内の前記リアルタイム画像と、前記ガイド画像作成手段が作成した前記第1のガイド画像の向きを一致させて対比可能に表示することを特徴とする付記31に記載の体腔内プローブ装置。
32. Display means for displaying the real-time image in the subject created by the image creation means and the first guide image created by the guide image creation means in a comparable manner;
Item 32. The supplementary note 31, wherein the display unit displays the real-time image in the subject and the first guide image created by the guide image creation unit so that the directions of the images coincide with each other. Body cavity probe device.

33.前記ガイド画像作成手段は、前記3次元画像が前記画像指標によって分けられる2つの領域のうち、一方を非表示にして前記ガイド画像を作成することを特徴とする付記31又は32に記載の体腔内プローブ装置。 33. 33. The intracavity according to appendix 31 or 32, wherein the guide image creating means creates the guide image while hiding one of the two regions in which the three-dimensional image is divided by the image index. Probe device.

34.前記ガイド画像作成手段は、前記3次元画像のうち前記画像指標上の部分の輝度もしくは明度もしくは彩度もしくは表示色をそれ以外の表示部分とは変化させて前記ガイド画像を作成することを特徴とする付記31又は32に記載の体腔内プローブ装置。 34. The guide image creating means creates the guide image by changing the luminance, brightness, saturation, or display color of a portion on the image index of the three-dimensional image from the other display portions. The in-body-cavity probe device according to Supplementary Note 31 or 32.

35.前記ガイド画像作成手段は、前記第1のガイド画像の他に、視線を被検体の腹側もしくは背側からの方向、または、
被検体の頭側もしくは足側からの方向に設定された第2のガイド画像を作成し、
前記表示手段は、前記第1のガイド画像と前記第2のガイド画像とを同時もしくは順次もしくは切り替えて表示することを特徴とする付記31又は32に記載の体腔内プローブ装置。
35. The guide image creating means, in addition to the first guide image, the line of sight from the abdominal side or the back side of the subject, or
Create a second guide image set in the direction from the head or foot of the subject,
33. The body cavity probe device according to appendix 31 or 32, wherein the display means displays the first guide image and the second guide image simultaneously, sequentially or by switching.

36.前記ガイド画像作成手段は、前記被検体から撮像された3次元データから臓器もしくは脈管を抽出する抽出手段を有し、
前記ガイド画像作成手段は、前記抽出手段が抽出した前記被検体の前記臓器もしくは前記脈管から、前記臓器もしくは前記脈管の形状と配置とを表現する3次元画像を作成し、前記3次元画像を基に前記ガイド画像を作成したことを特徴とする付記29ないし35のいずれか1つの付記に記載の体腔内プローブ装置。
36. The guide image creating means includes an extracting means for extracting an organ or a blood vessel from three-dimensional data imaged from the subject;
The guide image creation means creates a three-dimensional image representing the shape and arrangement of the organ or the vessel from the organ or the vessel of the subject extracted by the extraction means, and the three-dimensional image 36. The body cavity probe device according to any one of appendices 29 to 35, wherein the guide image is created based on

37.前記画像信号取得手段は、前記被検体内を撮像して映像信号を出力する撮像素子であり、
前記画像作成手段は、前記映像信号から前記リアルタイム画像として光学像を作成することを特徴とする付記29ないし35のいずれか1つの付記に記載の体腔内プローブ装置。
37. The image signal acquisition means is an image sensor that images the inside of the subject and outputs a video signal,
36. The intra-body-cavity probe apparatus according to any one of appendices 29 to 35, wherein the image creation means creates an optical image as the real-time image from the video signal.

38.前記画像信号取得手段は、前記被検体内に超音波を送受信してエコー信号を出力する超音波振動子であり、
前記画像作成手段は、前記エコー信号から前記リアルタイム画像として超音波断層像を作成することを特徴とする付記29ないし35のいずれか1つの付記に記載の体腔内プローブ装置。
38. The image signal acquisition means is an ultrasonic transducer that transmits and receives ultrasonic waves in the subject to output echo signals,
36. The in-vivo probe device according to any one of appendices 29 to 35, wherein the image creating means creates an ultrasonic tomographic image as the real-time image from the echo signal.

39.前記画像位置配向検出用素子と前記被検体検出用素子とは磁場発生器もしくは磁場検出器であり、
前記検出手段は、磁場を用いて前記検出を行うことを特徴とする付記29ないし35のいずれか1つの付記に記載の体腔内プローブ装置。
39. The image position and orientation detection element and the subject detection element are a magnetic field generator or a magnetic field detector,
36. The body cavity probe device according to any one of appendices 29 to 35, wherein the detection means performs the detection using a magnetic field.

40.被検体の体腔内へ挿入され、前記体腔内への挿入側先端に前記被検体内の画像を作成するための信号を取得する画像信号取得手段を設けた体腔内プローブと、
人体の3次元データから前記人体の3次元画像を作成する3次元画像作成手段と、
前記3次元画像を基に前記被検体内の前記リアルタイム画像の前記被検体に対する位置もしくは配向をガイドするガイド画像を作成するガイド画像作成手段と、
を備えた体腔内プローブ装置において、
前記画像信号取得手段が取得した信号から前記被検体内のリアルタイム画像を作成する画像作成手段と、
前記画像信号取得手段と位置関係を固定された画像位置配向検出用素子と、
前記被検体に接触可能な被検体検出用素子と、
前記画像位置配向検出用素子の位置と配向と、前記被検体検出用素子の位置もしくは配向とを検出し、検出値として出力する検出手段と、
前記画像作成手段が作成した前記被検体内の前記リアルタイム画像の位置と配向とを示す画像指標を作成する画像指標作成手段と、
を具備し、
前記ガイド画像作成手段は、前記検出手段が出力した検出値を基に前記3次元画像と前記画像指標とを合成し、前記3次元画像が前記画像指標によって分けられる2つの領域を、互いに表示態様を変化させて前記ガイド画像を作成することを特徴とする体腔内プローブ装置。
40. An intracorporeal probe provided with an image signal acquisition means that is inserted into the body cavity of the subject and acquires a signal for creating an image in the subject at the distal end on the insertion side into the body cavity;
3D image creation means for creating a 3D image of the human body from 3D data of the human body;
Guide image creating means for creating a guide image for guiding the position or orientation of the real-time image in the subject with respect to the subject based on the three-dimensional image;
In a body cavity probe device comprising:
Image creating means for creating a real-time image in the subject from the signal obtained by the image signal obtaining means;
An image position / orientation detection element having a fixed positional relationship with the image signal acquisition means;
An analyte detection element capable of contacting the analyte;
Detecting means for detecting the position and orientation of the image position / orientation detecting element and the position or orientation of the object detecting element and outputting as a detection value;
Image index creating means for creating an image index indicating the position and orientation of the real-time image in the subject created by the image creating means;
Comprising
The guide image creating means combines the three-dimensional image and the image index based on the detection value output from the detection means, and displays two regions in which the three-dimensional image is divided by the image index. An intra-body-cavity probe apparatus, wherein the guide image is created by changing

(付記40の効果)
表示態様を変化させてガイド画像を作成するため、術者は、可撓部と硬性部とをさらにどう動かしたら、患部等の関心領域をリアルタイム画像上に表示できるかわかりやすく、体腔内プローブの可撓部と硬性部との操作をしやすい。
特に、胆嚢のように被検体内部で柔らかく動きやすい臓器は画像指標上には写っていながら、リアルタイム画像上には写らない可能性があるが、本構成によってガイド画像は、術者がもう少し硬性部と可撓部とを動かせば胆嚢のリアルタイム画像上での描出ができるという目印になるため、術者には、体腔内プローブの硬性部と可撓部との操作がしやすい。
また、被検体に接触可能な被検体検出用素子を設けたため、体腔内プローブでの検査中に被検体の体位に変化が生じても、体表特徴点と臓器との位置関係が変化しない限り、リアルタイム画像もしくは可撓部もしくは硬性部と、人体の3次元画像上の画像指標もしくは挿入形状とは解剖学的により正確に一致するようにできる。
(Effects of Supplementary Note 40)
In order to create a guide image by changing the display mode, the surgeon can easily understand how the region of interest such as the affected part can be displayed on the real-time image by further moving the flexible part and the hard part. It is easy to operate the flexible part and the hard part.
In particular, organs such as the gallbladder that are soft and easy to move inside the subject may appear on the image index, but may not appear on the real-time image. And the flexible part is a mark that the gallbladder can be drawn on the real-time image, so that the operator can easily operate the rigid part and the flexible part of the body cavity probe.
In addition, since a subject detection element that can contact the subject is provided, even if a change in the posture of the subject occurs during the examination with the body cavity probe, the positional relationship between the body surface feature point and the organ does not change. In addition, the real-time image or the flexible part or the rigid part and the image index or the insertion shape on the three-dimensional image of the human body can be more accurately matched anatomically.

41.前記画像指標作成手段は、前記画像指標を透過可能にして作成することを特徴とする付記40に記載の体腔内プローブ装置。
42.前記ガイド画像作成手段は、前記3次元画像が前記画像指標によって分けられる前記2つの領域を、互いに輝度もしくは明度もしくは彩度もしくは表示色を変化させて前記ガイド画像を作成することを特徴とする付記40又は41に記載の体腔内プローブ装置。43.前記ガイド画像作成手段は、前記被検体から撮像された3次元データから臓器もしくは脈管を抽出する抽出手段を有し、
前記ガイド画像作成手段は、前記抽出手段が抽出した前記被検体の前記臓器もしくは前記脈管から、前記臓器もしくは前記脈管の形状と配置とを表現する3次元画像を作成し、前記3次元画像を基に前記ガイド画像を作成することを特徴とする付記40ないし42のいずれか1つの付記に記載の体腔内プローブ装置。
41. 41. The intra-body-cavity probe device according to appendix 40, wherein the image index creating means creates the image index so that the image index is transmissive.
42. The guide image creating means creates the guide image by changing the brightness, brightness, saturation, or display color of the two regions in which the three-dimensional image is divided by the image index. 40. The body cavity probe device according to 40 or 41. 43. The guide image creating means includes an extracting means for extracting an organ or a blood vessel from three-dimensional data imaged from the subject;
The guide image creating unit creates a three-dimensional image representing the shape and arrangement of the organ or the vessel from the organ or the vessel of the subject extracted by the extracting unit, and the three-dimensional image 43. The intra-body-cavity probe apparatus according to any one of appendices 40 to 42, wherein the guide image is created based on

44.前記画像信号取得手段は、前記被検体内を撮像して映像信号を出力する撮像素子であり、
前記画像作成手段は、前記映像信号から前記リアルタイム画像として光学像を作成することを特徴とする付記40ないし42のいずれか1つの付記に記載の体腔内プローブ装置。
44. The image signal acquisition means is an image sensor that images the inside of the subject and outputs a video signal,
43. The intra-body-cavity probe apparatus according to any one of appendices 40 to 42, wherein the image creation means creates an optical image as the real-time image from the video signal.

45.前記画像信号取得手段は、前記被検体内に超音波を送受信してエコー信号を出力する超音波振動子であり、
前記画像作成手段は、前記エコー信号から前記リアルタイム画像として超音波断層像を作成することを特徴とする付記40ないし42のいずれか1つの付記に記載の体腔内プローブ装置。
45. The image signal acquisition means is an ultrasonic transducer that transmits and receives ultrasonic waves in the subject to output echo signals,
43. The body cavity probe device according to any one of appendices 40 to 42, wherein the image creating means creates an ultrasonic tomographic image as the real-time image from the echo signal.

46.前記画像位置配向検出用素子と前記被検体検出用素子とは磁場発生器もしくは磁場検出器であり、
前記検出手段は磁場を用いて前記検出を行うことを特徴とする付記40ないし42のいずれか1つの付記に記載の体腔内プローブ装置。
46. The image position and orientation detection element and the subject detection element are a magnetic field generator or a magnetic field detector,
43. The body cavity probe device according to any one of appendices 40 to 42, wherein the detection means performs the detection using a magnetic field.

47.被検体の体腔内へ挿入され、前記体腔内への挿入側先端に前記被検体内の画像を作成するための信号を取得する画像信号取得手段を設けた体腔内プローブと、
人体の3次元データから前記人体の3次元画像を作成する3次元画像作成手段と、
前記3次元画像を基に前記被検体内の前記リアルタイム画像の前記被検体に対する位置もしくは配向をガイドするガイド画像を作成するガイド画像作成手段と、
を備えた体腔内プローブ装置において、
前記画像信号取得手段が取得した信号から前記被検体内のリアルタイム画像を作成する画像作成手段と、
前記画像信号取得手段と位置関係を固定された画像位置配向検出用素子と、
前記被検体に接触可能な被検体検出用素子と、
前記画像位置配向検出用素子の位置と配向と、前記被検体検出用素子の位置もしくは配向とを検出し、検出値として出力する検出手段と、
前記画像作成手段が作成した前記被検体内の前記リアルタイム画像の位置と配向とを示す画像指標を作成する画像指標作成手段と、
を具備し、
前記ガイド画像作成手段は、前記検出手段が出力した検出値を基に前記3次元画像と前記画像指標とを合成し、前記3次元画像が前記画像指標によって分けられる2つの領域のうち、一方を非表示にして前記ガイド画像を作成することを特徴とする体腔内プローブ装置。
(付記47の効果)
画像指標によって分けられる2つの領域のうち、一方を非表示にしてガイド画像を作成したため、臓器が術者のガイド画像の観察の邪魔になることなく、このガイド画像とリアルタイム画像との対比を一層しやすい。
また、被検体に接触可能な被検体検出用素子を設けたため、体腔内プローブでの検査中に被検体の体位に変化が生じても、体表特徴点と臓器との位置関係が変化しない限り、リアルタイム画像もしくは可撓部もしくは硬性部と、人体の3次元画像上の画像指標もしくは挿入形状とは解剖学的により正確に一致するようにできる。
47. An intracorporeal probe provided with an image signal acquisition means that is inserted into the body cavity of the subject and acquires a signal for creating an image in the subject at the distal end on the insertion side into the body cavity;
3D image creation means for creating a 3D image of the human body from 3D data of the human body;
Guide image creating means for creating a guide image for guiding the position or orientation of the real-time image in the subject with respect to the subject based on the three-dimensional image;
In a body cavity probe device comprising:
Image creating means for creating a real-time image in the subject from the signal obtained by the image signal obtaining means;
An image position / orientation detection element having a fixed positional relationship with the image signal acquisition means;
An analyte detection element capable of contacting the analyte;
Detecting means for detecting the position and orientation of the image position / orientation detecting element and the position or orientation of the object detecting element and outputting as a detection value;
Image index creating means for creating an image index indicating the position and orientation of the real-time image in the subject created by the image creating means;
Comprising
The guide image creating means synthesizes the three-dimensional image and the image index based on the detection value output from the detection means, and selects one of the two regions into which the three-dimensional image is divided by the image index. An intra-body-cavity probe apparatus, wherein the guide image is created in a non-display state.
(Effect of Supplementary Note 47)
Since the guide image was created by hiding one of the two areas divided by the image index, the contrast between the guide image and the real-time image can be further increased without causing the organ to obstruct the operator's observation of the guide image. It's easy to do.
In addition, since a subject detection element that can contact the subject is provided, even if a change in the posture of the subject occurs during the examination with the body cavity probe, the positional relationship between the body surface feature point and the organ does not change. In addition, the real-time image or the flexible part or the rigid part and the image index or the insertion shape on the three-dimensional image of the human body can be more accurately matched anatomically.

48.前記ガイド画像作成手段は、前記3次元画像のうち前記画像指標上の部分の輝度もしくは明度もしくは彩度もしくは表示色をそれ以外の表示部分とは変化させて前記ガイド画像を作成することを特徴とする付記47に記載の体腔内プローブ装置。
49.前記ガイド画像作成手段は、前記被検体から撮像された3次元データから臓器もしくは脈管を抽出する抽出手段を有し、
前記ガイド画像作成手段は、前記抽出手段が抽出した前記被検体の前記臓器もしくは前記脈管から、前記臓器もしくは前記脈管の形状と配置とを表現する3次元画像を作成し、前記3次元画像を基に前記ガイド画像を作成することを特徴とする付記47に記載の体腔内プローブ装置。
48. The guide image creating means creates the guide image by changing the luminance, brightness, saturation, or display color of a portion on the image index of the three-dimensional image from the other display portions. 48. The body cavity probe device according to appendix 47.
49. The guide image creating means includes an extracting means for extracting an organ or a blood vessel from three-dimensional data imaged from the subject;
The guide image creation means creates a three-dimensional image representing the shape and arrangement of the organ or the vessel from the organ or the vessel of the subject extracted by the extraction means, and the three-dimensional image 48. The body cavity probe device according to appendix 47, wherein the guide image is created based on

50.前記画像信号取得手段は、前記被検体内を撮像して映像信号を出力する撮像素子であり、
前記画像作成手段は、前記映像信号から前記リアルタイム画像として光学像を作成することを特徴とする付記47に記載の体腔内プローブ装置。
51.前記画像信号取得手段は、前記被検体内に超音波を送受信してエコー信号を出力する超音波振動子であり、
前記画像作成手段は、前記エコー信号から前記リアルタイム画像として超音波断層像を作成することを特徴とする付記47に記載の体腔内プローブ装置。
50. The image signal acquisition means is an image sensor that images the inside of the subject and outputs a video signal,
48. The intra-body-cavity probe apparatus according to appendix 47, wherein the image creating means creates an optical image as the real-time image from the video signal.
51. The image signal acquisition means is an ultrasonic transducer that transmits and receives ultrasonic waves in the subject to output echo signals,
48. The intra-body-cavity probe device according to appendix 47, wherein the image creating means creates an ultrasonic tomographic image as the real-time image from the echo signal.

52.前記画像位置配向検出用素子と前記被検体検出用素子とは磁場発生器もしくは磁場検出器であり、
前記検出手段は磁場を用いて前記検出を行うことを特徴とする付記47に記載の体腔内プローブ装置。
52. The image position and orientation detection element and the subject detection element are a magnetic field generator or a magnetic field detector,
48. The body cavity probe device according to appendix 47, wherein the detection means performs the detection using a magnetic field.

体腔内に屈曲自在に挿入される超音波内視鏡等の体腔内プローブにおける先端の硬性部に設けた画像信号取得手段により取得した画像をリアルタイム画像として表示する場合、そのリアルタイム画像の位置及び配向を表す3次元ガイド画像を、挿入形状と共に表示するようにして、術者が診断、治療を行い易くする。   When displaying an image acquired by an image signal acquisition means provided at a hard part at the tip of an intracavity probe such as an ultrasonic endoscope that is flexibly inserted into the body cavity as a real-time image, the position and orientation of the real-time image Is displayed together with the insertion shape, making it easier for the operator to perform diagnosis and treatment.

図1は本発明の実施例1の体腔内プローブ装置の全体構成図。FIG. 1 is an overall configuration diagram of a body cavity probe device according to a first embodiment of the present invention. 図2は体表検出用コイルを使用例で模式的に示す図。FIG. 2 is a diagram schematically showing an example of use of a body surface detection coil. 図3は体腔内接触プローブを示す側面図。FIG. 3 is a side view showing the body cavity contact probe. 図4は画像処理装置の構成を示すブロック図。FIG. 4 is a block diagram showing the configuration of the image processing apparatus. 図5は参照画像記憶部内に記憶される参照画像データを示す説明図。FIG. 5 is an explanatory diagram showing reference image data stored in a reference image storage unit. 図6は、ボクセル空間を示す説明図。FIG. 6 is an explanatory diagram showing a voxel space. 図7は位置・配向データを表すために送信アンテナ上に原点を設定した直交基底を示す図。FIG. 7 is a diagram showing an orthogonal base in which an origin is set on a transmission antenna in order to represent position / orientation data. 図8は被検体側の超音波断層像の中心をボクセル空間へ写像する様子等を示す説明図。FIG. 8 is an explanatory diagram showing a state in which the center of the ultrasonic tomogram on the subject side is mapped to the voxel space. 図9は被検体側の体腔内特徴点をボクセル空間へ写像する様子等を示す説明図。FIG. 9 is an explanatory diagram showing a state in which feature points in the body cavity on the subject side are mapped to the voxel space. 図10は画像指標作成回路により画像指標データが作成される様子を示す説明図。FIG. 10 is an explanatory diagram showing how image index data is created by the image index creating circuit. 図11は挿入形状作成回路により作成される挿入形状データが作成される様子を示す説明図。FIG. 11 is an explanatory diagram showing a state in which insertion shape data created by the insertion shape creation circuit is created. 図12は3次元人体画像データを示す説明図。FIG. 12 is an explanatory diagram showing three-dimensional human body image data. 図13は合成回路により画像指標データと挿入形状データとが合成メモリ内のボクセル空間に埋められていく様子を示す説明図。FIG. 13 is an explanatory diagram showing a state in which the image index data and the insertion shape data are embedded in the voxel space in the synthesis memory by the synthesis circuit. 図14は被検体の腹側から観察した場合の3次元ガイド画像データを示す説明図。FIG. 14 is an explanatory diagram showing three-dimensional guide image data when observed from the ventral side of the subject. 図15は被検体の足側から観察した場合の3次元ガイド画像データを示す説明図。FIG. 15 is an explanatory view showing three-dimensional guide image data when observed from the foot side of the subject. 図16は表示装置に表示される3次元ガイド画像及び超音波断層像を示す図。FIG. 16 is a diagram showing a three-dimensional guide image and an ultrasonic tomographic image displayed on the display device. 図17は本実施例の全体的な処理内容を示すフローチャート。FIG. 17 is a flowchart showing the overall processing contents of this embodiment. 図18は図17における参照画像上での体表特徴点、体腔内特徴点指定処理の具体的な処理内容を示すフローチャート。18 is a flowchart showing specific processing contents of body surface feature points and body cavity feature point designation processing on the reference image in FIG. 図19は図17における補正値算出処理の具体的な処理内容を示すフローチャート。FIG. 19 is a flowchart showing specific processing contents of the correction value calculation processing in FIG. 図20は図19における処理の説明図。FIG. 20 is an explanatory diagram of the processing in FIG. 図21は図17における超音波断層像・3次元ガイド画像作成/表示処理の具体的な処理内容を示すフローチャート。FIG. 21 is a flowchart showing specific processing contents of the ultrasonic tomographic image / three-dimensional guide image creation / display processing in FIG. 図22は本発明の実施例2における3次元ガイド画像データを示す説明図。FIG. 22 is an explanatory diagram showing three-dimensional guide image data according to the second embodiment of the present invention. 図23は本発明の実施例3における3次元ガイド画像データを示す説明図。FIG. 23 is an explanatory diagram showing three-dimensional guide image data according to the third embodiment of the present invention. 図24は本発明の実施例4における3次元ガイド画像データを示す説明図。FIG. 24 is an explanatory diagram showing three-dimensional guide image data according to the fourth embodiment of the present invention. 図25は本発明の実施例5における3次元ガイド画像データを示す説明図。FIG. 25 is an explanatory diagram showing three-dimensional guide image data according to the fifth embodiment of the present invention. 図26は本発明の実施例6における画像処理装置の構成を示すブロック図。FIG. 26 is a block diagram showing a configuration of an image processing apparatus in Embodiment 6 of the present invention. 図27は3次元ガイド画像作成回路Aが生成する3次元ガイド画像データを示す説明図。FIG. 27 is an explanatory diagram showing three-dimensional guide image data generated by the three-dimensional guide image creating circuit A. 図28は3次元ガイド画像作成回路Bが生成する3次元ガイド画像データを示す説明図。FIG. 28 is an explanatory diagram showing three-dimensional guide image data generated by the three-dimensional guide image creating circuit B. 図29は表示装置に表示される3次元ガイド画像及び光学像を示す図。FIG. 29 is a diagram showing a three-dimensional guide image and an optical image displayed on the display device.

符号の説明Explanation of symbols

1…体腔内プローブ装置
2…超音波内視鏡
3…光学観察装置
4…超音波観測装置
5…位置配向算出装置
6…送信アンテナ
7…体表検出用コイル
8…体腔内接触プローブ
9…A/D変換ユニット部
11…画像処理装置
14…表示装置
15…X線3次元ヘリカルCT装置
21…硬性部
22…可撓部
26…CCDカメラ
29…超音波振動子アレイ
31…画像位置配向検出用コイル
32…挿入形状検出用コイル
42…体腔内検出用コイル
51…マッチング回路
52…画像指標作成回路
53…挿入形状作成回路
55…参照画像記憶部
56…補間回路
57…3次元人体画像作成回路
58…合成回路
59…回転変換回路
60…3次元ガイド画像作成回路A,B
61…混合回路
62…表示回路
65…体腔内特徴点指定キー
66…走査制御キー
DESCRIPTION OF SYMBOLS 1 ... Body cavity probe apparatus 2 ... Ultrasound endoscope 3 ... Optical observation apparatus 4 ... Ultrasound observation apparatus 5 ... Position orientation calculation apparatus 6 ... Transmitting antenna 7 ... Body surface detection coil 8 ... Body cavity contact probe 9 ... A / D conversion unit section 11 ... image processing apparatus 14 ... display apparatus 15 ... X-ray three-dimensional helical CT apparatus 21 ... rigid section 22 ... flexible section 26 ... CCD camera 29 ... ultrasonic transducer array 31 ... for image position and orientation detection Coil 32 ... Coil for insertion shape detection 42 ... Coil for body cavity detection 51 ... Matching circuit 52 ... Image index creation circuit 53 ... Insertion shape creation circuit 55 ... Reference image storage unit 56 ... Interpolation circuit 57 ... Three-dimensional human body image creation circuit 58 ... Composition circuit 59 ... Rotation conversion circuit 60 ... 3D guide image creation circuits A and B
61 ... Mixing circuit 62 ... Display circuit 65 ... Body cavity feature point designation key 66 ... Scanning control key

Claims (10)

被検体の体腔内へ挿入され、前記体腔内への挿入側先端に前記被検体内の画像を作成するための信号を取得する画像信号取得手段を設けた体腔内プローブと、
前記画像信号取得手段が取得した信号から前記被検体内のリアルタイム画像を作成する画像作成手段と、
人体の3次元データから前記被検体内の前記リアルタイム画像の前記被検体に対する位置もしくは配向をガイドするガイド画像を作成するガイド画像作成手段と、
を備えた体腔内プローブ装置において、
前記画像信号取得手段に対して位置が固定された画像位置配向検出用素子と、
前記被検体体腔内に接触可能な体腔内検出用素子を含む被検体検出用素子と、
前記画像位置配向検出用素子の位置及び配向と、前記体腔内検出用素子の位置と、を検出し、検出値として出力する検出手段と、
前記ガイド画像作成手段が、前記検出手段が出力した前記画像位置配向検出用素子の位置及び配向の検出値を基に前記ガイド画像を作成する際、前記体腔内検出用素子の位置の検出値により前記ガイド画像に補正処理を施す補正手段と、
を具備することを特徴とする体腔内プローブ装置。
An intracorporeal probe provided with an image signal acquisition means that is inserted into the body cavity of the subject and acquires a signal for creating an image in the subject at the distal end on the insertion side into the body cavity;
Image creating means for creating a real-time image in the subject from the signal obtained by the image signal obtaining means;
Guide image creation means for creating a guide image for guiding the position or orientation of the real-time image in the subject relative to the subject from three-dimensional data of the human body;
In a body cavity probe device comprising:
An image position orientation detecting element whose position is fixed with respect to the image signal acquisition means;
A subject detection element including a body cavity detection element capable of contacting the subject body cavity;
Detecting means for detecting the position and orientation of the image position / orientation detecting element and the position of the in-body cavity detecting element, and outputting the detected value;
When the guide image creation means creates the guide image based on the position and orientation detection value of the image position / orientation detection element output from the detection means, the detection value of the position of the body cavity detection element is used. Correction means for performing correction processing on the guide image;
A body cavity probe device comprising:
前記被検体検出用素子が、前記被検体体表に接触可能な体表検出用素子をさらに含み、
前記検出手段が、前記画像位置配向検出用素子の位置及び配向と、前記体表検出用素子の位置もしくは配向と、前記体腔内検出用素子の位置と、を検出し、検出値として出力し、
前記ガイド画像作成手段が、前記検出手段が出力した前記画像位置配向検出用素子の位置と配向と、前記体表検出用素子の位置もしくは配向の検出値を基に前記ガイド画像を作成すること、
特徴とする請求項1に記載の体腔内プローブ装置。
The subject detection element further includes a body surface detection element capable of contacting the subject body surface;
The detection means detects the position and orientation of the image position / orientation detection element, the position or orientation of the body surface detection element, and the position of the intra-body-cavity detection element, and outputs a detection value.
The guide image creating means creates the guide image based on the position and orientation of the image position / orientation detecting element output from the detecting means and the detected value of the position or orientation of the body surface detecting element;
The body cavity probe device according to claim 1, wherein
前記補正手段による前記補正処理は、前記3次元データ内での平行移動処理であることを特徴とする請求項1に記載の体腔内プローブ装置。   The intra-body-cavity probe apparatus according to claim 1, wherein the correction process by the correction unit is a parallel movement process in the three-dimensional data. 前記画像作成手段が作成した前記被検体内の前記リアルタイム画像の位置及び配向を示す画像指標を作成する画像指標作成手段を有し、
前記ガイド画像作成手段は、前記検出手段が出力した前記画像位置配向検出用素子の位置及び配向と、前記体表検出用素子の位置もしくは配向の検出値を基に、前記画像指標を合成したガイド画像を作成し、
前記補正手段による前記補正処理は、前記体腔内検出用素子の位置の検出値により前記画像指標を前記3次元データ内もしくは前記ガイド画像内で平行移動した位置で合成することで前記ガイド画像を作成する処理であることを特徴とする請求項1に記載の体腔内プローブ装置。
Image index creating means for creating an image index indicating the position and orientation of the real-time image in the subject created by the image creating means;
The guide image creating means is a guide that synthesizes the image index based on the position and orientation of the image position / orientation detecting element output from the detecting means and the detected value of the position or orientation of the body surface detecting element. Create an image,
The correction processing by the correction means creates the guide image by synthesizing the image index at a position translated in the three-dimensional data or the guide image based on the detection value of the position of the body cavity detecting element. The intracavity probe device according to claim 1, wherein the processing is performed.
前記体腔内プローブは管状のチャンネルを有し、
前記体腔内検出用素子を固定して内蔵した接触手段を有し、
前記接触手段は、前記チャンネルに挿通して前記被検体の前記体腔内の所定の位置に接触することを特徴とする請求項1に記載の体腔内プローブ装置。
The body cavity probe has a tubular channel;
Contact means incorporating and fixing the body cavity detection element,
2. The intra-body-cavity probe apparatus according to claim 1, wherein the contact unit is inserted into the channel and contacts a predetermined position in the body cavity of the subject.
前記画像位置配向検出用素子は、前記体腔内検出用素子を兼ね、
前記補正手段は、前記画像位置配向検出用素子の位置もしくは配向の検出値により前記ガイド画像に補正処理を施すことを特徴とする請求項1に記載の体腔内プローブ装置。
The image position / orientation detecting element also serves as the body cavity detecting element,
The intra-body-cavity probe apparatus according to claim 1, wherein the correction unit performs a correction process on the guide image based on a detection value of the position or orientation of the image position / orientation detection element.
前記ガイド画像作成手段は、前記被検体から撮像された3次元データから臓器もしくは脈管を抽出する抽出手段を有し、
前記ガイド画像作成手段は、前記抽出手段が抽出した前記被検体の前記臓器もしくは前記脈管から、前記臓器もしくは前記脈管の形状と配置とを表現する3次元画像を作成し、前記3次元画像を基に前記ガイド画像を作成することを特徴とする請求項1に記載の体腔内プローブ装置。
The guide image creating means includes an extracting means for extracting an organ or a blood vessel from three-dimensional data imaged from the subject;
The guide image creating unit creates a three-dimensional image representing the shape and arrangement of the organ or the vessel from the organ or the vessel of the subject extracted by the extracting unit, and the three-dimensional image The intracavity probe apparatus according to claim 1, wherein the guide image is created based on the information.
前記画像信号取得手段は、前記被検体内を撮像して映像信号を出力する撮像素子であり、
前記画像作成手段は、前記映像信号から前記リアルタイム画像として光学像を作成することを特徴とする請求項1に記載の体腔内プローブ装置。
The image signal acquisition means is an image sensor that images the inside of the subject and outputs a video signal,
The intra-body-cavity probe apparatus according to claim 1, wherein the image creating unit creates an optical image as the real-time image from the video signal.
前記画像信号取得手段は、前記被検体内に超音波を送受信してエコー信号を出力する超音波振動子であり、
前記画像作成手段は、前記エコー信号から前記リアルタイム画像として超音波断層像を作成することを特徴とする請求項1に記載の体腔内プローブ装置。
The image signal acquisition means is an ultrasonic transducer that transmits and receives ultrasonic waves in the subject to output echo signals,
The intra-body probe apparatus according to claim 1, wherein the image creating unit creates an ultrasonic tomographic image as the real-time image from the echo signal.
前記画像位置配向検出用素子と前記被検体検出用素子とは磁場発生器もしくは磁場検出器であり、
前記検出手段は、磁場を用いて前記検出を行うことを特徴とする請求項1に記載の体腔内プローブ装置。
The image position and orientation detection element and the subject detection element are a magnetic field generator or a magnetic field detector,
The intra-body-cavity probe apparatus according to claim 1, wherein the detection unit performs the detection using a magnetic field.
JP2007238333A 2007-09-13 2007-09-13 Medical guide system Active JP4869189B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007238333A JP4869189B2 (en) 2007-09-13 2007-09-13 Medical guide system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007238333A JP4869189B2 (en) 2007-09-13 2007-09-13 Medical guide system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006180435A Division JP4868959B2 (en) 2006-06-29 2006-06-29 Body cavity probe device

Publications (2)

Publication Number Publication Date
JP2008036447A true JP2008036447A (en) 2008-02-21
JP4869189B2 JP4869189B2 (en) 2012-02-08

Family

ID=39172077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007238333A Active JP4869189B2 (en) 2007-09-13 2007-09-13 Medical guide system

Country Status (1)

Country Link
JP (1) JP4869189B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010069018A (en) * 2008-09-18 2010-04-02 Olympus Medical Systems Corp Medical guide system
JP2011212244A (en) * 2010-03-31 2011-10-27 Fujifilm Corp Endoscope observation supporting system and method, and device and program
WO2015141635A1 (en) * 2014-03-20 2015-09-24 オリンパス株式会社 Insertion shape detection device
JP2017227864A (en) * 2016-06-17 2017-12-28 キヤノン株式会社 Display unit and display control method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003305044A (en) * 2002-04-17 2003-10-28 Olympus Optical Co Ltd Ultrasonograph
JP2005312770A (en) * 2004-04-30 2005-11-10 Olympus Corp Ultrasonic diagnostic device
JP2006116024A (en) * 2004-10-20 2006-05-11 Olympus Corp Ultrasonic diagnostic apparatus
WO2006057296A1 (en) * 2004-11-25 2006-06-01 Olympus Corporation Ultrasonographic device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003305044A (en) * 2002-04-17 2003-10-28 Olympus Optical Co Ltd Ultrasonograph
JP2005312770A (en) * 2004-04-30 2005-11-10 Olympus Corp Ultrasonic diagnostic device
JP2006116024A (en) * 2004-10-20 2006-05-11 Olympus Corp Ultrasonic diagnostic apparatus
WO2006057296A1 (en) * 2004-11-25 2006-06-01 Olympus Corporation Ultrasonographic device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010069018A (en) * 2008-09-18 2010-04-02 Olympus Medical Systems Corp Medical guide system
JP2011212244A (en) * 2010-03-31 2011-10-27 Fujifilm Corp Endoscope observation supporting system and method, and device and program
WO2015141635A1 (en) * 2014-03-20 2015-09-24 オリンパス株式会社 Insertion shape detection device
JP2015181495A (en) * 2014-03-20 2015-10-22 オリンパス株式会社 Insertion shape detection device
JP2017227864A (en) * 2016-06-17 2017-12-28 キヤノン株式会社 Display unit and display control method

Also Published As

Publication number Publication date
JP4869189B2 (en) 2012-02-08

Similar Documents

Publication Publication Date Title
JP4868959B2 (en) Body cavity probe device
JP5208495B2 (en) Medical system
US8204576B2 (en) Medical guiding system
EP2036494A2 (en) Medical guiding system
JP5394622B2 (en) Medical guide system
JP4537756B2 (en) Ultrasonic diagnostic equipment
JP4681857B2 (en) Ultrasonic diagnostic equipment
EP2430979B1 (en) Biopsy support system
WO2004028375A1 (en) Ultrasonograph
US20150320391A1 (en) Ultrasonic diagnostic device and medical image processing device
JP2007125179A (en) Ultrasonic diagnostic apparatus
JP2010069018A (en) Medical guide system
JP4869189B2 (en) Medical guide system
JP4869197B2 (en) Medical guide device
JP5226244B2 (en) Medical guide system
JP2010088699A (en) Medical image processing system
JP2004121488A (en) Ultrasonograph
JP4700434B2 (en) Ultrasonic diagnostic equipment
JP5307357B2 (en) Ultrasonic diagnostic equipment
JP2006087599A (en) Ultrasonic diagnostic equipment
JP4700405B2 (en) Ultrasonic diagnostic equipment
JP2008301969A (en) Ultrasonic diagnostic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111115

R151 Written notification of patent or utility model registration

Ref document number: 4869189

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250