JP2003265408A - Endoscope guide device and method - Google Patents

Endoscope guide device and method

Info

Publication number
JP2003265408A
JP2003265408A JP2002075882A JP2002075882A JP2003265408A JP 2003265408 A JP2003265408 A JP 2003265408A JP 2002075882 A JP2002075882 A JP 2002075882A JP 2002075882 A JP2002075882 A JP 2002075882A JP 2003265408 A JP2003265408 A JP 2003265408A
Authority
JP
Japan
Prior art keywords
image
endoscope
endoscopic image
virtual endoscopic
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002075882A
Other languages
Japanese (ja)
Other versions
JP4171833B2 (en
Inventor
Kiyoshi Yoda
潔 依田
Atsushi Nagata
敦 永田
Yukio Kosugi
幸夫 小杉
Eiju Watanabe
英寿 渡辺
Hiroyuki Aoki
宏之 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Rikogaku Shinkokai
Original Assignee
Mitsubishi Electric Corp
Rikogaku Shinkokai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Rikogaku Shinkokai filed Critical Mitsubishi Electric Corp
Priority to JP2002075882A priority Critical patent/JP4171833B2/en
Publication of JP2003265408A publication Critical patent/JP2003265408A/en
Application granted granted Critical
Publication of JP4171833B2 publication Critical patent/JP4171833B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection

Abstract

<P>PROBLEM TO BE SOLVED: To judge the position of the distal end of an endoscope simply and with high accuracy. <P>SOLUTION: In order to guide an endoscope, a virtual endoscope image of a subject to be tested and information on the position and attitude of the distal end of the endoscope are stored in a database. When the actual soft endoscope image of the subject to be tested is obtained, the actual endoscope image is compared with the virtual endoscope image in the database to determina the virtual endoscope image having the highest similarity to the endscope image. According to the information on the determined virtual endoscope image, the position and attitude of the distal end of the soft endoscope corresponding to the actual endoscope image is determined. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、自在に屈折する軟
性内視鏡のナビゲーションに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to navigation of a flexible endoscope that bends freely.

【0002】[0002]

【従来の技術】脳神経外科などの手術の際には、患者の
手術操作部位とコンピュータ連動断層撮影(CT)、磁
気共鳴撮像(MRI)などの断層画像(3次元画像)の
位置関係を把握できるように術者を支援するナビゲーシ
ョン装置が利用されている。これにより、術者は、操作
位置と、診断時に撮影された医用画像との相対的位置関
係の認識が可能となる。
2. Description of the Related Art During an operation such as neurosurgery, it is possible to grasp a positional relationship between an operation site of a patient and a tomographic image (three-dimensional image) such as computer-coupled tomography (CT) and magnetic resonance imaging (MRI). As described above, a navigation device that supports an operator is used. As a result, the operator can recognize the relative positional relationship between the operation position and the medical image captured at the time of diagnosis.

【0003】このナビゲーション装置を利用した操作部
位の3次元位置計測の主なものとして、機械方式(例え
ば、Kosugi et al., An Articulated Neurosurgical Na
vigation System Using MRI and CT Images (IEEE Tran
sactions of Biomedical Engineering, Vol. 35, No.
2, February 1988)、および米国特許5050608号 (E. Wat
anabe, Y. Kosugi and S. Manaka: System for indicat
ing a position to beoperated in a patient's body)
と、ステレオビジョン方式 (例えば、特許3152810号;
小杉、渡辺、鈴木、川上、中川:光学式3次元位置検出
装置) がある。機械方式は、ロータリーエンコーダを有
する多関節アームナビゲーション装置により先端位置座
標を求めるものである。また、ステレオビジョン方式
は、複数個のCCDカメラによりプローブに設置された
輝点像を認識し、三角測量の原理に基づいてプローブの
3次元的位置を算出するものである。
A mechanical method (for example, Kosugi et al., An Articulated Neurosurgical Na) is mainly used for three-dimensional position measurement of an operation part using this navigation device.
vigation System Using MRI and CT Images (IEEE Tran
sactions of Biomedical Engineering, Vol. 35, No.
2, February 1988), and U.S. Pat.No. 5050608 (E. Wat.
anabe, Y. Kosugi and S. Manaka: System for indicat
ing a position to beoperated in a patient's body)
And a stereo vision method (for example, Japanese Patent No. 3152810;
Kosugi, Watanabe, Suzuki, Kawakami, Nakagawa: optical 3D position detection device). In the mechanical method, the tip position coordinates are obtained by a multi-joint arm navigation device having a rotary encoder. Further, the stereo vision method is for recognizing a bright spot image set on a probe by a plurality of CCD cameras and calculating a three-dimensional position of the probe based on the principle of triangulation.

【0004】[0004]

【発明が解決しようとする課題】しかし、これらの装置
で内視鏡先端の位置を測定しようとした場合、機械方式
にあっては、アームと内視鏡先端の位置が機械的に剛性
の保たれた形で接続されていることが必要であり、形状
が自在に変わり得るファイバー式の軟性内視鏡ではこの
ような使用条件が満たされない。また、ステレオビジョ
ン方式にあっては、体内に置かれた内視鏡先端に仮に発
光部を装着したとしても、体外に位置するCCDカメラ
との間に不透明の生体組織が存在することから、位置の
確定は不可能である。
However, when attempting to measure the position of the endoscope tip with these devices, in the mechanical system, the positions of the arm and the endoscope tip are mechanically kept rigid. It is necessary to connect in a slanted shape, and such a usage condition is not satisfied with a fiber-type flexible endoscope that can be freely changed in shape. In addition, in the stereo vision system, even if the light emitting unit is attached to the tip of the endoscope placed inside the body, the opaque living tissue exists between the CCD camera and the outside of the body. Cannot be determined.

【0005】軟性内視鏡を用いた手術装置において、内
視鏡先端部の位置測定をおこなうためには、1) 体内の
3次元位置に対応した画像をいかにして生成・登録する
かという問題、2) 登録された画像と内視鏡から観測さ
れる画像の照合をいかにして行うかという問題、3) 手
術環境下で内視鏡の進むべき方向を術者に的確に与える
ヒューマンインターフェースをどのように構成すれば良
いかという問題がある。また、4) 手術時に簡便かつ高
精度に実時間で内視鏡先端部の位置測定を実行するため
の計算アルゴリズムおよび付属機器の開発を行う必要が
ある。
In order to measure the position of the endoscope distal end in a surgical device using a flexible endoscope, 1) the problem of how to generate and register an image corresponding to the three-dimensional position in the body 2) The problem of how to match the registered image with the image observed from the endoscope. 3) A human interface that gives the operator a proper direction in which the endoscope should move in the surgical environment. There is a problem of how to configure. In addition, 4) it is necessary to develop a calculation algorithm and an accessory device for performing the position measurement of the endoscope distal end in a simple and accurate manner in real time during surgery.

【0006】この発明の目的は、自在に屈折する軟性内
視鏡を用いた手術などにおいて、簡便かつ高精度に内視
鏡先端部の位置を判断できるようにすることである。
An object of the present invention is to make it possible to determine the position of the distal end portion of an endoscope easily and with high accuracy in a surgery or the like using a flexible endoscope that bends freely.

【0007】[0007]

【課題を解決するための手段】本発明に係る内視鏡誘導
装置は、検査対象の仮想内視鏡画像と内視鏡先端の位置
および姿勢の情報からなるデータベースを記憶する記憶
手段と、検査対象の実軟性内視鏡画像を取得する入力手
段と、前記実内視鏡画像を前記データベース内の仮想内
視鏡画像と比較して、前記内視鏡画像と最も類似度が高
い仮想内視鏡画像を決定する比較手段と、決定された仮
想内視鏡画像の情報から、前記実内視鏡画像に対応する
軟性内視鏡先端部の位置と姿勢を決定する決定手段とを
有する。ここで、実軟性内視鏡画像とは、本物の軟性内
視鏡で観測される画像であり、実内視鏡画像とは、本物
の内視鏡で観測される画像である。
An endoscopic guidance device according to the present invention comprises a storage means for storing a database of a virtual endoscopic image of an examination object and information on the position and orientation of the tip of the endoscope, and an examination. Input means for acquiring a real flexible endoscopic image of the object, and comparing the real endoscopic image with the virtual endoscopic image in the database, the virtual endoscopic image having the highest degree of similarity with the endoscopic image. The comparison means determines the mirror image, and the determination means determines the position and orientation of the flexible endoscope tip portion corresponding to the real endoscopic image from the information of the determined virtual endoscopic image. Here, the real flexible endoscope image is an image observed by a real flexible endoscope, and the real endoscope image is an image observed by a real endoscope.

【0008】前記の内視鏡誘導装置において、たとえ
ば、前記の仮想内視鏡画像は、検査対象の3次元画像デ
ータに基づいて生成された画像である。
In the endoscope guiding apparatus, for example, the virtual endoscopic image is an image generated based on the three-dimensional image data of the inspection target.

【0009】前記の内視鏡誘導装置において、たとえ
ば、前記の仮想内視鏡画像と内視鏡先端の位置および姿
勢の情報は、硬性内視鏡により得られた画像と、その画
像を得たときの硬性内視鏡先端の位置および姿勢の情報
である。
In the endoscope guiding apparatus, for example, the virtual endoscopic image and the information on the position and posture of the endoscope tip are obtained by a rigid endoscope, and the image is obtained. This is information on the position and posture of the tip of the rigid endoscope at that time.

【0010】前記の内視鏡誘導装置において、たとえ
ば、さらに、決定手段により決定された内視鏡先端部の
位置と姿勢を、2次元断面表示または3次元表示された
検査対象の画像に重畳して表示装置の画面に表示する表
示手段とを備える。
In the above endoscope guiding apparatus, for example, the position and orientation of the endoscope distal end portion determined by the determining means is further superimposed on the image of the inspection object displayed in a two-dimensional sectional view or a three-dimensional display. Display means for displaying on the screen of the display device.

【0011】前記の内視鏡誘導装置において、たとえ
ば、前記の表示手段は、さらに、実内視鏡画像またはそ
れと最も類似度が高い仮想内視鏡画像に、当該画像では
表示されていない体内の患部を重畳して表示する。
In the above endoscope guiding apparatus, for example, the display means may further display in the body that is not displayed in the real endoscopic image or the virtual endoscopic image having the highest similarity to the real endoscopic image. The affected area is displayed superimposed.

【0012】前記の内視鏡誘導装置において、たとえ
ば、さらに、検査対象の3次元画像データに基づいて仮
想内視鏡画像を計算する画像生成手段を備え、この画像
生成手段は、設定された内視鏡先端の位置と姿勢ごと
に、それに基いて3次元画像データの補間演算とレンダ
リング演算を実行して仮想内視鏡画像を取得する。多数
の内視鏡先端の位置と姿勢を設定して演算することによ
り大規模な仮想内視鏡画像のデータベースを構築でき
る。
The above-mentioned endoscope guide device further comprises, for example, an image generating means for calculating a virtual endoscopic image based on the three-dimensional image data of the object to be inspected, and this image generating means is set to a predetermined value. Based on the position and orientation of the tip of the endoscope, interpolation calculation and rendering calculation of three-dimensional image data are executed based on the position and orientation to acquire a virtual endoscopic image. A large-scale virtual endoscopic image database can be constructed by setting and calculating the positions and postures of a large number of endoscope tips.

【0013】前記の内視鏡誘導装置において、たとえ
ば、前記の比較手段は、画素位置(i,j)における実内視
鏡画像の画素値と仮想内視鏡画像の画素値を、実内視鏡
画像の画素値と仮想内視鏡画像の画素位置を座標軸とす
る2次元グラフにプロットしたときに最も少ない面積上
に分布する仮想内視鏡画像をデータベースから探索し、
最も類似度が高い仮想内視鏡画像とする。
In the above endoscope guiding apparatus, for example, the comparing means compares the pixel value of the real endoscopic image and the pixel value of the virtual endoscopic image at the pixel position (i, j) with the real endoscope. When the virtual endoscopic image distributed on the smallest area is plotted from the database when plotted on a two-dimensional graph having the pixel value of the mirror image and the pixel position of the virtual endoscopic image as coordinate axes,
The virtual endoscopic image having the highest degree of similarity is set.

【0014】前記の内視鏡誘導装置において、たとえ
ば、前記の比較手段は、相互情報量が最大の仮想内視鏡
画像を仮想内視鏡画像データベースから探索し、最も類
似度が高い仮想内視鏡画像とする。
In the endoscope guiding apparatus, for example, the comparing means searches the virtual endoscopic image database for a virtual endoscopic image having the maximum mutual information, and the virtual endoscopic image having the highest degree of similarity is searched. Use as a mirror image.

【0015】前記の内視鏡誘導装置において、たとえ
ば、前記の比較手段は、回転に不変な複素数画像連想処
理を用いる。
In the endoscope guiding apparatus, for example, the comparing means uses rotation-invariant complex image associative processing.

【0016】前記の内視鏡誘導装置において、たとえ
ば、前記の比較手段は、適応的非線形写像を実施した後
の最終マッチングスコアによる類似度を用いる。
In the endoscope guiding apparatus, for example, the comparing means uses the degree of similarity based on the final matching score after executing the adaptive nonlinear mapping.

【0017】前記の内視鏡誘導装置において、たとえ
ば、前記の比較手段は、内視鏡を前進させた場合に、探
索範囲を常に前回の探索範囲の近傍とし、前回と今回の
内視鏡の挿入距離の差分に相当する探索半径を基に、仮
想内視鏡画像のデータベース内の探索を実施する。
In the above endoscope guiding apparatus, for example, when the endoscope is advanced, the comparing means always sets the search range to the vicinity of the search range of the previous time and sets the search range of the endoscopes of the previous time and this time. Based on the search radius corresponding to the difference in the insertion distance, the search for the virtual endoscopic image in the database is performed.

【0018】前記の内視鏡誘導装置において、たとえ
ば、前記の比較手段は、実内視鏡画像と仮想内視鏡画像
をそれぞれ極座標系に変換した後、最も類似度が高い仮
想内視鏡画像を選ぶ。
In the endoscope guiding apparatus, for example, the comparing means converts the real endoscopic image and the virtual endoscopic image into polar coordinate systems, respectively, and thereafter, the virtual endoscopic image having the highest degree of similarity. Choose.

【0019】前記の内視鏡誘導装置において、たとえ
ば、前記の比較手段は、類似度の評価において、あらか
じめ実内視鏡画像と仮想内視鏡画像の各画像の画素強度
の最大値を1に規格化した後、対応する画素後との強度
差の2乗和を用いる。
In the endoscope guiding apparatus, for example, the comparing means sets the maximum value of the pixel intensity of each image of the real endoscopic image and the virtual endoscopic image to 1 in advance in the similarity evaluation. After normalization, the sum of squares of the intensity difference from the corresponding pixel is used.

【0020】前記の内視鏡誘導装置において、たとえ
ば、前記の決定手段は、前記の比較手段により得られた
内視鏡先端の推定位置が、過去に推定した内視鏡先端位
置を時系列で並べたときに外挿される現在の予測位値か
ら著しく逸脱した位置である場合にその推定位置を採用
しない。なお、前述の内視鏡誘導装置における種々の構
成要素は、可能な限り組み合わせることができる。
In the above endoscope guiding apparatus, for example, the determining means may be arranged such that the estimated position of the endoscope tip obtained by the comparing means is a time series of the endoscope tip position estimated in the past. If the position is significantly deviated from the current predicted value extrapolated when arranged, the estimated position is not adopted. The various constituent elements of the endoscope guiding apparatus described above can be combined as much as possible.

【0021】本発明に係る内視鏡誘導方法では、検査対
象の仮想内視鏡画像と内視鏡先端の位置および姿勢の情
報をデータベースに記憶しておく。検査対象の実軟性内
視鏡画像を取得すると、前記実内視鏡画像を前記データ
ベース内の仮想内視鏡画像と比較して、前記内視鏡画像
と最も類似度が高い仮想内視鏡画像を決定する。そし
て、決定された仮想内視鏡画像の情報から、前記実内視
鏡画像に対応する軟性内視鏡先端部の位置と姿勢を決定
する。
In the endoscopic guidance method according to the present invention, the virtual endoscopic image to be inspected and the information on the position and orientation of the endoscope tip are stored in the database. When the real flexible endoscopic image of the inspection target is acquired, the real endoscopic image is compared with the virtual endoscopic image in the database, and the virtual endoscopic image having the highest similarity to the endoscopic image is obtained. To decide. Then, the position and orientation of the tip portion of the flexible endoscope corresponding to the real endoscopic image is determined from the information of the determined virtual endoscopic image.

【0022】前記の内視鏡誘導方法において、好ましく
は、さらに、決定された内視鏡先端部の位置と姿勢を、
2次元断面表示または3次元表示された検査対象の画像
に重畳して表示装置の画面に表示する。
In the above endoscope guiding method, it is preferable that the determined position and orientation of the endoscope distal end portion be
The image of the inspection target displayed in the two-dimensional cross-section or the three-dimensional display is superimposed and displayed on the screen of the display device.

【0023】前記の内視鏡誘導方法において、好ましく
は、さらに、実内視鏡画像またはそれと最も類似度が高
い仮想内視鏡画像に、当該画像では表示されていない体
内の患部を重畳して表示する。なお、前述の内視鏡誘導
装置における種々の構成要素は、内視鏡誘導方法の構成
要素としても組み合わせることができる。
In the above endoscope guiding method, it is preferable that the affected area in the body not displayed in the image is further superimposed on the real endoscopic image or the virtual endoscopic image having the highest degree of similarity. indicate. It should be noted that various components of the above-mentioned endoscope guiding device can be combined as components of the endoscope guiding method.

【0024】[0024]

【発明の実施の形態】以下、添付の図面を参照して本発
明の実施の形態を説明する。本発明は、自由に屈折する
内視鏡の誘導(ナビゲーション)に関する。近年脳神経
外科領域をはじめとして多くの医療分野で内視鏡を用い
た手術が行われるようになったが、術者は内視鏡先端が
患者のどの位置にあるかを見失う場合がある。そこで、
ヒトはGPSなどの特別な位置検出機器を用いなくて
も、見慣れた街中を迷わずに自由に移動することができ
ることに着眼した。これは、「この光景は見たことがあ
る」という既視感と、その光景から場所の情報を連想的
に検索できる人間の脳に備わった機能によるものであ
る。本発明では、このような画像の印象より位置情報を
検索する機能をコンピュータのアルゴリズム上で実現し
た。ここで、コンピュータ連動断層撮影(CT)、磁気
共鳴撮像(MRI)などの断層写真群からボリュームレ
ンダリング、手術用ナビゲーションシステムなどの画像
表示によって得られた位置と画像の関係のデータを蓄積
しておき、特に手術などの施行者が操作する内視鏡先端
の3次元的位置情報を、過去に登録済みの画像から推定
して術者に提供する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the accompanying drawings. The present invention relates to navigation of a freely refracting endoscope. In recent years, surgery using an endoscope has been performed in many medical fields including the field of neurosurgery, but the operator may sometimes lose sight of where the tip of the endoscope is located in the patient. Therefore,
We have noticed that humans can move freely in the familiar city without hesitation without using a special position detecting device such as GPS. This is due to the sense of "I've seen this scene" and the function of the human brain that can associatively retrieve location information from the scene. In the present invention, the function of retrieving position information from such an image impression is realized by a computer algorithm. Here, the data of the relationship between the position and the image obtained by volume rendering from a group of tomographic images such as computer-aided tomography (CT) and magnetic resonance imaging (MRI) and image display by a surgical navigation system is accumulated. In particular, the three-dimensional position information of the endoscope tip operated by a practitioner such as surgery is estimated from the images registered in the past and provided to the operator.

【0025】発明の実施の形態1.図1は、発明の実施
の形態1に係る内視鏡誘導装置の構成を示す。この装置
は、自在に屈折する軟性内視鏡(図示しない)に接続さ
れ、患者の手術操作部位と断層画像(3次元画像)の位
置関係を把握できるように術者を支援する。さらに説明
すると、この装置において、ネットワークコントローラ
10は、CT画像、MRI画像などの3次元画像、本物
の内視鏡からの画像(内視鏡画像)などの診断画像を外
部から読み込む。これらの診断画像は、ハードディスク
12内に記憶される。CPU14は、キーボード、マウ
スなどの入力装置16からの指示に基づき、内視鏡誘導
プログラムに従い計算機処理を実行する。ここで、ハー
ドディスク装置12内のハードディスク(記録媒体)に
格納された内視鏡誘導プログラムは、実行時にメモリ1
8にロードされる。処理結果の画像は、ビデオコントロ
ーラ20を経由し、ディスプレーモニタ22で表示され
る。
First Embodiment of the Invention FIG. 1 shows the configuration of an endoscope guiding apparatus according to the first embodiment of the invention. This device is connected to a flexible endoscope (not shown) that bends freely, and assists the operator in grasping the positional relationship between the surgical operation site of the patient and the tomographic image (three-dimensional image). More specifically, in this apparatus, the network controller 10 externally reads a diagnostic image such as a three-dimensional image such as a CT image or an MRI image, or an image (endoscopic image) from a real endoscope. These diagnostic images are stored in the hard disk 12. The CPU 14 executes computer processing according to an endoscope guidance program based on an instruction from the input device 16 such as a keyboard and a mouse. Here, the endoscope guidance program stored in the hard disk (recording medium) in the hard disk device 12 is stored in the memory 1 when it is executed.
Loaded in 8. The image of the processing result is displayed on the display monitor 22 via the video controller 20.

【0026】図2は、内視鏡誘導プログラムにおける機
能ブロックを表している。仮想内視鏡画像データベース
計算ステップ(S10)で、検査対象のMRI、CTな
どの3次元画像データを入力して、入力した3次元画像
データに基づいて仮想内視鏡画像を計算し、ハードディ
スク装置12内のデータベースに記憶しておく。手術な
どにおいて、検査対象の内視鏡画像データが入力される
と、比較ステップ(S12)で、データベース内の仮想
内視鏡画像と本物の内視鏡で観測した検査対象の画像
(実内視鏡画像)とを比較して、現在の内視鏡先端部の
位置と姿勢を実時間で決定する。次に、表示ステップ
(S14)で、比較ステップで得られた現在の内視鏡先
端部の位置と姿勢を、モニタ22の画面上に表示してい
るMRI画像またはCT画像上に重畳して表示する。
FIG. 2 shows functional blocks in the endoscope guidance program. In the virtual endoscopic image database calculation step (S10), three-dimensional image data such as MRI and CT of an inspection target is input, a virtual endoscopic image is calculated based on the input three-dimensional image data, and a hard disk device It is stored in the database in 12. When endoscopic image data to be inspected is input during surgery or the like, in the comparison step (S12), the virtual endoscopic image in the database and the image to be inspected by the real endoscope (actual endoscopic The current position and orientation of the endoscope distal end portion is determined in real time by comparison with a mirror image). Next, in a display step (S14), the current position and orientation of the endoscope distal end portion obtained in the comparison step is displayed by being superimposed on the MRI image or CT image displayed on the screen of the monitor 22. To do.

【0027】仮想内視鏡画像の計算では、検査対象のM
RI、CTなどの3次元画像データに基いて仮想内視鏡
画像を計算する必要がある。これについては、3次元画
像データをボリュームレンダリングする方法が公知であ
り、その方法を用いてもよい。その方法の詳細は、たと
えば、Rubin, Perspective Volume Rendering of CTand
MRI Images: Applications for Endoscopic Imaging
(Radiology、199巻、321〜330ページ、199
6年) に記載されている。簡単に説明すると、検査対象
のMRI、CTなどの3次元画像データは3次元のボリ
ュームデータである。内視鏡を検査対象に挿入したとき
に、内視鏡先端のカメラで観測できる画像は、この点に
観測点をセットして、そこから光の束を発散させて各光
の直進路にしたがって検査対象の体積要素に関する色と
透明度の計算を行うと、シミュレーション可能である。
たとえば、MRIの各体積要素内の値が小さいときは、
空気領域または骨領域であることが一般的である。ま
た、MRIの各体積要素内の値が大きいときは、軟組織
など水分が豊富な領域であることが一般的である。した
がって、MRIの各体積要素内の値が小さいときは透明
度をあげて、MRIの各体積要素内の値が大きくなるに
従い透明度を下げれば、空気領域と軟組織領域をコント
ラストよく区別して3次元表示できる。
In the calculation of the virtual endoscopic image, the M
It is necessary to calculate a virtual endoscopic image based on three-dimensional image data such as RI and CT. For this, a method of volume rendering 3D image data is known, and that method may be used. For details of the method, see, for example, Rubin, Perspective Volume Rendering of CTand.
MRI Images: Applications for Endoscopic Imaging
(Radiology, Volume 199, Pages 321 to 330, 199
6 years). Briefly, the three-dimensional image data such as MRI and CT to be inspected is three-dimensional volume data. When the endoscope is inserted into the examination target, the image that can be observed with the camera at the tip of the endoscope is the observation point set at this point, the light flux is diverged from that point, and it follows the straight path of each light. Simulation can be performed by calculating the color and the transparency of the volume element to be inspected.
For example, when the value in each volume element of MRI is small,
It is generally the air or bone region. When the value in each volume element of MRI is large, it is generally a region rich in water such as soft tissue. Therefore, if the value in each volume element of the MRI is small, the transparency is increased, and as the value in each volume element of the MRI is increased, the transparency is lowered, so that the air region and the soft tissue region can be distinguished with good contrast and three-dimensional display can be performed. .

【0028】仮想内視鏡画像データベース計算(図2、
S10)では、上記の観測点(視点)と観測姿勢(仮想
的なカメラの方向)を種々変化させて、多数の内視鏡画
像をシミュレートした画像(仮想内視鏡画像)を得て、
仮想内視鏡画像および視点情報をハードディスク装置1
2内のデータベースに蓄積しておく。図3に、その処理
をより詳細に流れ図として示した。まず、病院内ネット
ワークで標準的に使用されているDICOM形式のCT
またはMRI画像を読み込む(S100)。次に、ボク
セル値に対する不透明度と色テーブルを定義する(ステ
ップS102)。ボクセル値に対する不透明度に関して
は、所定のしきい値以下の不透明度をゼロ(完全透
明)、前記しきい値以上の不透明度を1(完全不透明)
とすると、レンダリング速度が増大した。次に、補間計
算法を設定する(ステップS104)。補間計算法とし
ては、3次元の線形補間を用いた。次に、陰影処理パラ
メータを設定し(ステップS106)、レンダリング方
法を選択する(ステップS108)。陰影処理パラメー
タは複数の値で試行錯誤的に調整した。また、レンダリ
ング方法としてレイキャスティング法によるボリューム
レンダリングを採用した。なお、光線上の計算刻み幅を
表示にアーチファクトが入らない範囲でなるべく大きく
することにより、高速計算が達成できた。次に、視点
(カメラ)位置・回転中心・鉛直上向きの視点情報を設
定する(ステップS110)。視点情報は、カメラ位置
を体外位置とした平行投影による対象となる画像全体の
ボリュームレンダリング表示に基づき決定した。次に、
視野角を設定する(ステップS112)。視野角として
は同時に用いる内視鏡における視野角の値を入力した。
次に、レンダリングを実行し、仮想内視鏡画像を取得す
る(ステップS114)。最後に、仮想内視鏡画像と視
点情報をデータベース用ファイルに保存する(ステップ
S116)。視点情報(観測点と観測姿勢)を種々変化
させて、ステップS110〜S116の処理を繰り返し
て、多数の内視鏡画像をシミュレートした画像(仮想内
視鏡画像)を得る。
Virtual endoscopic image database calculation (FIG. 2,
In S10), the observation point (viewpoint) and the observation attitude (virtual camera direction) are variously changed to obtain an image (virtual endoscopic image) simulating a large number of endoscopic images,
The virtual endoscopic image and viewpoint information are stored in the hard disk device 1
It is stored in the database in 2. The process is shown in more detail as a flow chart in FIG. First, CT in DICOM format, which is commonly used in hospital networks
Alternatively, the MRI image is read (S100). Next, the opacity and the color table for the voxel value are defined (step S102). Regarding the opacity with respect to the voxel value, the opacity below a predetermined threshold is zero (completely transparent), and the opacity above the threshold is 1 (completely opaque).
Then, the rendering speed increased. Next, the interpolation calculation method is set (step S104). Three-dimensional linear interpolation was used as the interpolation calculation method. Next, the shadow processing parameters are set (step S106), and the rendering method is selected (step S108). The shading parameters were adjusted by trial and error with multiple values. Moreover, the volume rendering by the ray casting method was adopted as the rendering method. It should be noted that high-speed calculation could be achieved by increasing the calculation step size on the ray as large as possible within the range where artifacts were not included in the display. Next, the viewpoint (camera) position, the center of rotation, and vertically upward viewpoint information are set (step S110). The viewpoint information is determined based on the volume rendering display of the entire target image by parallel projection with the camera position outside the body. next,
The viewing angle is set (step S112). As the viewing angle, the value of the viewing angle of the endoscope used at the same time was input.
Next, rendering is executed to acquire a virtual endoscopic image (step S114). Finally, the virtual endoscopic image and the viewpoint information are saved in the database file (step S116). The viewpoint information (observation point and observation attitude) is changed variously, and the processes of steps S110 to S116 are repeated to obtain an image (virtual endoscopic image) simulating a large number of endoscopic images.

【0029】図4は、仮想内視鏡画像データベースを生
成する処理(図2、S10)における視点情報の設定を
具体的に示す。この処理は、図3のステップS110と
S112に対応する。ここで、種々の位置と姿勢に仮想
カメラを設置する必要がある。カメラ位置については、
1)まず本物の内視鏡で探索する場合に想定されるカメ
ラ位置の領域を決定し(S120)、その後この領域内
をたとえば10mmステップで3軸方向に移動した点を
すべてカメラ位置として採用する(S122)。次に、
カメラの姿勢については、2)カメラ画像の回転を5度
おきに設定し、3)カメラ画像の端部位置を画像サイズ
の1/10ずつ平行移動し、4)さらに仮想カメラによ
る画像の拡大・縮小率を50%から200%まで20%
ずつ変化させる(S124)。これらの1)から4)の
パラメータを独立に変化させて(S126)、多数のカ
メラ位置と姿勢を与える。これに基いてレンダリング画
像を生成することより、大規模な仮想内視鏡画像データ
ベースを生成する。なお、仮想内視鏡画像を計算する場
合は、仮想内視鏡の視野角および仮想内視鏡のカメラ回
転中心とカメラ位置の相対的配置を実内視鏡と同一にす
ることが好ましい。
FIG. 4 specifically shows the setting of the viewpoint information in the process (S10 in FIG. 2) for generating the virtual endoscopic image database. This process corresponds to steps S110 and S112 in FIG. Here, it is necessary to install virtual cameras at various positions and postures. For camera position,
1) First, an area of a camera position that is assumed when searching with a real endoscope is determined (S120), and then, all points that move in this direction in three axis directions in steps of 10 mm are adopted as camera positions. (S122). next,
Regarding the posture of the camera, 2) set the rotation of the camera image every 5 degrees, 3) move the edge position of the camera image in parallel by 1/10 of the image size, and 4) further enlarge the image by the virtual camera. 20% reduction rate from 50% to 200%
Are changed one by one (S124). These parameters 1) to 4) are independently changed (S126) to give a large number of camera positions and postures. A large-scale virtual endoscopic image database is generated by generating a rendering image based on this. When calculating the virtual endoscope image, it is preferable that the viewing angle of the virtual endoscope and the relative arrangement of the camera rotation center of the virtual endoscope and the camera position are the same as those of the real endoscope.

【0030】このようなデータベースを用いれば、画像
比較ステップ(図2、S12)において、計算した仮想
内視鏡画像と本物の内視鏡で観測がされる画像(実内視
鏡画像)を比較して、本物の内視鏡画像と一致度が最も
高い仮想内視鏡画像をデータベース内部から探索でき
る。画像比較ステップ(図2、S12)では、仮想内視
鏡画像データベース内に蓄積された画像と現時点の内視
鏡画像の一致度合いを調べ、最も一致する仮想内視鏡画
像データベース内に蓄積された画像を決定して、これに
対応する仮想カメラ位置と姿勢を得る。この結果、現時
点の内視鏡先端部が検査対象(たとえば、人体の脳内)
のどの位置で、どの方向に向いているかを知ることがで
きる。この情報を、モニタ22の2次元または3次元の
MRI画像またはCT画像上に重畳して表示することに
より、内視鏡手術従事者は、位置と方向の判断を誤るこ
となく複雑な手術を続行できる。
If such a database is used, in the image comparison step (FIG. 2, S12), the calculated virtual endoscopic image is compared with the image observed by a real endoscope (real endoscopic image). Then, the virtual endoscopic image having the highest degree of coincidence with the real endoscopic image can be searched from the inside of the database. In the image comparison step (S12 in FIG. 2), the degree of matching between the images stored in the virtual endoscopic image database and the current endoscopic image is checked, and the images are stored in the virtual endoscopic image database having the best match. The image is determined and the corresponding virtual camera position and orientation are obtained. As a result, the tip of the endoscope at this point is the target of inspection (for example, in the human brain)
It is possible to know in which position and in which direction of the. By superimposing and displaying this information on the two-dimensional or three-dimensional MRI image or CT image of the monitor 22, the endoscopic surgeon can continue complicated surgery without making a mistake in the determination of the position and direction. it can.

【0031】具体的な方法は、図5の流れ図に示す。ま
ずオフラインで仮想内視鏡画像をグレースケール表示し
て、仮想内視鏡画像の濃淡変化を、同一場所で撮像した
本物の内視鏡画像となるべく一致するように調整する
(S130)。具体的には、内視鏡を体内に入れながら
MRIまたはCT撮像を行い、同一部位の実内視鏡画像
と仮想内視鏡画像を取得すれば、上記の色の調整が対話
的に可能になる。仮想内視鏡の画素強度をグレースケー
ルに変換する関数を対話的に定義すれば、仮想内視鏡画
像の濃淡を任意に変更できる。次に、相関係数が最大に
なる仮想内視鏡画像を仮想内視鏡画像データベースから
探索する(S132)。次に、求まった仮想内視鏡画像
に対する内視鏡先端の位置と姿勢の情報を出力する(S
134)。
The specific method is shown in the flowchart of FIG. First, the virtual endoscopic image is displayed in gray scale off-line, and the change in shading of the virtual endoscopic image is adjusted so as to match the real endoscopic image captured at the same place as much as possible (S130). Specifically, if the MRI or CT imaging is performed while the endoscope is inside the body, and the real endoscopic image and the virtual endoscopic image of the same site are acquired, the above color adjustment can be performed interactively. Become. If the function for converting the pixel intensity of the virtual endoscope into the gray scale is interactively defined, the shading of the virtual endoscope image can be arbitrarily changed. Next, the virtual endoscopic image having the maximum correlation coefficient is searched from the virtual endoscopic image database (S132). Next, information on the position and orientation of the endoscope tip with respect to the obtained virtual endoscopic image is output (S
134).

【0032】より詳細に説明すると、一致度の判定に
は、通常よく用いられる画像間の相関係数を計算する方
法が適している。仮想内視鏡と本物の内視鏡画像では、
色情報の相関は一般には高くないので、相関計算は、カ
ラー画像からグレースケール画像に変換した後に実施す
ることが望ましい。そこで、オフラインで仮想内視鏡画
像をグレースケール化して、仮想内視鏡画像の濃淡変化
を同一場所で撮影した本物の内視鏡画像となるべく一致
するように調整する。仮想内視鏡の画素強度をグレース
ケールに変換する関数を定義すれば、濃淡を任意に定義
できる。カラー画像(R,G,B色の強度をそれぞれI
R, IG, IBとする)からグレースケール画像(強度I)
に変換する方法は、たとえば、次の式(1)で計算すれ
ばよい。
More specifically, a method of calculating a correlation coefficient between images, which is usually used, is suitable for determining the degree of coincidence. With virtual endoscopy and real endoscopic images,
Since the correlation of color information is not generally high, it is desirable to perform the correlation calculation after converting a color image into a grayscale image. Therefore, the virtual endoscopic image is gray-scaled off-line, and the change in shading of the virtual endoscopic image is adjusted to match the real endoscopic image taken at the same place as much as possible. By defining a function that converts the pixel intensity of the virtual endoscope into gray scale, the shading can be defined arbitrarily. Color image (R, G, B color intensity is I
R , I G , I B ) to grayscale image (intensity I)
The method of converting to can be calculated by the following equation (1), for example.

【数1】 [Equation 1]

【0033】次に、仮想内視鏡画像と内視鏡画像の相関
計算を行う。画素位置(i,j)における内視鏡画像画素値
A(i,j)と仮想内視鏡画像画素値B(i,j)について、相関
係数rは次の式(2)で定義される。
Next, the correlation calculation between the virtual endoscopic image and the endoscopic image is performed. For the endoscopic image pixel value A (i, j) and the virtual endoscopic image pixel value B (i, j) at the pixel position (i, j), the correlation coefficient r is defined by the following equation (2). It

【数2】 ここで、UとVはベクトルであり、内視鏡画像および仮
想内視鏡画像の画素値を並べたものであり、具体的に
は、次式(3)、(4)で定義される。
[Equation 2] Here, U and V are vectors and are obtained by arranging pixel values of the endoscopic image and the virtual endoscopic image, and are specifically defined by the following equations (3) and (4).

【数3】 U = (A(1,1), A(1,2), ... , A(2,1), A(2,2), ..., A(m,n)) (3)[Equation 3]               U = (A (1,1), A (1,2), ..., A (2,1), A (2,2), ..., A (m, n))                           (3)

【数4】 V = (B(1,1), B(1,2), ... , B(2,1), B(2,2), ..., B(m,n)) (4) また、U・V はベクトルUとVの内積を表し、|U|は
ベクトルUの大きさを表す。相関係数rは、ベクトルU
とVの平均値を引いていない点が通常の統計学の相関係
数と異なるが、直流成分を含めて2つの画像の一致度を
評価する場合は、上式(2)が好ましい。なお、もし残
差の2乗平均を評価関数に用いる場合は、あらかじめ |
U|= |V|= 1 としておけばよい。こうしないと、互い
にスケールが異なる画像の間で画素の差分を評価するこ
とになり、意味が見出せない。
V = (B (1,1), B (1,2), ..., B (2,1), B (2,2), ..., B (m, n)) (4) U · V represents the inner product of the vectors U and V, and | U | represents the magnitude of the vector U. The correlation coefficient r is the vector U
Although the average value of V and V is not subtracted from the normal correlation coefficient, the above equation (2) is preferable when evaluating the degree of coincidence between two images including the DC component. If the root mean square of residuals is used for the evaluation function,
It is sufficient to set U | = | V | = 1. If this is not done, pixel differences between images with different scales will be evaluated, and no meaning can be found.

【0034】ところで、仮想内視鏡画像と本物の内視鏡
画像では、互いに異種画像であるために、画素強度は互
いに比例していないことが一般的である。相関係数を計
算するために、2種類の画像では対応する画素強度は、
互いに比例すると相関が最大になるので、比例させるよ
うに前処理をする必要がある。このような問題は、患者
ごと、部位ごとに経験的な方法で対処することが可能で
ある。
By the way, since the virtual endoscopic image and the real endoscopic image are different images, the pixel intensities are generally not proportional to each other. To calculate the correlation coefficient, the corresponding pixel intensities in the two images are
If they are proportional to each other, the correlation becomes maximum, so it is necessary to perform preprocessing so as to make them proportional. Such problems can be dealt with by an empirical method for each patient and each site.

【0035】図6は、最も一致する仮想内視鏡画像デー
タベース内に蓄積された画像を決定した処理の一例を示
す。左側が、現時点の内視鏡画像30であり、右側がデ
ータベース内の最も一致する仮想内視鏡画像32であ
る。
FIG. 6 shows an example of the process of determining the image stored in the virtual endoscopic image database that best matches. The left side is the current endoscopic image 30 and the right side is the best matching virtual endoscopic image 32 in the database.

【0036】図7は、表示ステップ(図2、S14)
で、得られた現時点の内視鏡先端部の3次元位置および
カメラの向きを、直交3平面画像40a,40b,40c上
に矢印として重畳して表示した結果である。矢印の大き
さは3平面への投影長さで表示する。たとえば、矢印4
2a,42b,42cの出発点に内視鏡先端位置を対応さ
せ、矢印のベクトルをカメラの方向ベクトルとする。こ
の結果、治療医は内視鏡先端位置を正しく認識し、正確
な位置で内視鏡手術を実施できる。図8は、同様の表示
を3次元レンダリング画像に重畳して表示した場合を示
す。3次元レンダリング画像としては、ボリュームレン
ダリングまたはサーフェスレンダリングを用いることが
できる。ボリュームレンダリングを用いた場合は、組織
ごとの輪郭抽出が不要であるという利点を有する。
FIG. 7 shows the display step (FIG. 2, S14).
3 is a result of superimposing the obtained three-dimensional position of the endoscope distal end portion and the orientation of the camera at the present time on the orthogonal three-plane images 40a, 40b, 40c as an arrow. The size of the arrow is indicated by the projection length on three planes. For example, arrow 4
The position of the endoscope tip is made to correspond to the starting points of 2a, 42b, and 42c, and the arrow vector is taken as the direction vector of the camera. As a result, the treating doctor can correctly recognize the position of the distal end of the endoscope and can perform endoscopic surgery at the correct position. FIG. 8 shows a case where the same display is superimposed and displayed on the three-dimensional rendering image. Volume rendering or surface rendering can be used as the three-dimensional rendering image. The use of volume rendering has an advantage that contour extraction for each tissue is unnecessary.

【0037】発明の実施の形態2.図9は、発明の実施
の形態2における内視鏡誘導プログラムを示す。ここ
で、図2の処理の後で、さらに、内視鏡では見えない体
内表層下の患部(腫瘍など)を仮想内視鏡画像上でボリ
ュームレンダリングにより表層を半透明表示し、内視鏡
との位置合わせをおこなう(S16)。この結果、内視
鏡画像にも体内表層下の患部(腫瘍など)を追加表示で
き、正確な内視鏡下での手術を実施できる。このような
体内の腫瘍をボリュームレンダリングで表示することが
できる条件は、正常組織と腫瘍組織のMRI画像強度が
大きく異なることであるが、この条件は多くの場合に成
立することが知られている。
Embodiment 2 of the Invention FIG. 9 shows an endoscope guidance program according to the second embodiment of the invention. Here, after the process of FIG. 2, the affected area (tumor, etc.) under the surface layer of the body that cannot be seen by the endoscope is further displayed on the virtual endoscopic image by volume rendering, and the surface layer is semi-transparently displayed. Is aligned (S16). As a result, the affected area (tumor, etc.) under the surface layer of the body can be additionally displayed on the endoscopic image, and accurate surgery can be performed under the endoscope. The condition for displaying such a tumor in the body by volume rendering is that the MRI image intensities of the normal tissue and the tumor tissue are greatly different, and it is known that this condition is satisfied in many cases. .

【0038】1例として、図10に、図6に示した画像
に体内表層下の患部(ここでは腫瘍)の位置を重畳して
表示した例を示す。体内表層下の患部を、仮想内視鏡画
像32上でボリュームレンダリングにより表層を半透明
に表示して重畳して表示している。また、内視鏡画像3
0に、体内表層下の患部34を追加表示している。
As an example, FIG. 10 shows an example in which the position of the affected area (here, tumor) under the surface layer in the body is superimposed on the image shown in FIG. The affected area under the surface layer of the body is displayed on the virtual endoscopic image 32 by volume rendering so that the surface layer is displayed semitransparently and is superimposed. In addition, endoscopic image 3
The affected part 34 under the surface layer of the body is additionally displayed at 0.

【0039】発明の実施の形態3.前述の実施の形態1
では、仮想内視鏡像をグレースケール化していた(図
5、S120)。ところで、実内視鏡画像のグレースケ
ール表示は組織表層の色(R,G,Bの比率およびスケ
ーリング値つまり明度)で決まり、患者の組織表層の血
流状態と代謝状態で色が決まる。一方、CTまたはMR
I画像から仮想内視鏡画像を構成した場合の色は、CT
値またはMRI強度と表示色の対応関数で決まる。この
対応関数は任意に設定できる。このことから、患者が変
わった場合は、組織表層の色は個体差があるので、発明
の実施の形態3で説明した方法で、別の患者のオフライ
ン測定結果を用いることは一般には不適切であることが
わかる。また、同一患者でも組織が異なれば、組織表層
の血流状態と代謝状態が変化するため、同一患者の別組
織のオフライン測定結果を用いることは一般には不適切
であることも理解できる。
Third Embodiment of the Invention First Embodiment
Then, the virtual endoscopic image was converted into gray scale (FIG. 5, S120). By the way, the gray scale display of the real endoscopic image is determined by the color of the tissue surface layer (ratio of R, G, B and the scaling value, that is, brightness), and the color is determined by the blood flow state and metabolic state of the tissue surface layer of the patient. On the other hand, CT or MR
The color when a virtual endoscopic image is constructed from the I image is CT
It is determined by the corresponding function of the value or MRI intensity and the display color. This correspondence function can be set arbitrarily. From this, when the patient is changed, the color of the tissue surface layer has individual differences. Therefore, it is generally inappropriate to use the offline measurement result of another patient by the method described in the third embodiment of the invention. I know there is. It can also be understood that it is generally inappropriate to use the offline measurement result of another tissue of the same patient because the blood flow state and the metabolic state of the tissue surface layer change if the tissue is different even in the same patient.

【0040】このような事情があるので、実内視鏡画像
と仮想内視鏡画像のグレースケールの濃淡合わせまたは
色合わせは、理想的には、適応的に画像ごとに自動計算
する必要がある。しかし、これは煩雑であるので、これ
を避ける本実施の形態の処理を説明する。ここでは、ジ
ョイントヒストグラムまたは2次元ヒストグラムと呼ば
れる図を用いるが、この方法は異種画像の位置合わせ手
法として公知である。たとえば 2001年にCRC Press
社から刊行された単行本、Medical Image Registratio
n, 57〜59ページ、に記載されている。
Because of such circumstances, ideally, the grayscale shading or color matching of the real endoscopic image and the virtual endoscopic image should be adaptively and automatically calculated for each image. . However, since this is complicated, the processing of the present embodiment that avoids this will be described. Here, a diagram called a joint histogram or a two-dimensional histogram is used, but this method is known as a method for aligning different types of images. CRC Press in 2001
Book, Medical Image Registratio
n, pages 57-59.

【0041】図11は、この実施形態における画像比較
処理を示す。具体的には、図12の(a)のように、画素
位置(i,j)における実内視鏡画像の画素値A(i,j)と仮想
内視鏡画像の画素値B(i,j)を用いて、点(A(i,j)、B
(i,j))としてグラフに2次元プロットしていき(S1
31)、最も少ない面積上に分布する仮想内視鏡画像を
データベースから探索する(S133)。そして、求ま
った仮想内視鏡画像に対応するカメラの位置と姿勢の情
報を出力する(S134)。最も少ない面積の判定に
は、対話的に操作者が行う方法、プロットされた点を含
む閉曲線を描く方法および発明の実施の形態1で説明し
たベクトルの内積演算による相関係数の計算などがあ
る。なお、最も少ない面積上に分布するということは、
実内視鏡画像で表示された画素値と仮想内視鏡画像で表
示された画素値の強い関連性があることを示している。
強い関連性とは、いわゆる正の相関が強い場合や負の相
関が強い場合を含むが、もっと複雑な場合も含む(図1
2の(b)参照)。このような複雑な関連性が強い場合で
も、発明の実施の形態1で説明したベクトルの内積演算
による相関係数の計算が有効である。いずれの場合で
も、最も少ない面積上に分布することは、2つの画像が
同一カメラ位置から見た同一組織である可能性が非常に
高いことを意味している。
FIG. 11 shows the image comparison process in this embodiment. Specifically, as shown in FIG. 12A, the pixel value A (i, j) of the real endoscopic image and the pixel value B (i, j of the virtual endoscopic image at the pixel position (i, j). j), the point (A (i, j), B
(i, j)) and then two-dimensionally plot on the graph (S1
31), a virtual endoscopic image distributed on the smallest area is searched from the database (S133). Then, information on the position and orientation of the camera corresponding to the obtained virtual endoscopic image is output (S134). The method of determining the smallest area includes a method of interactively performed by an operator, a method of drawing a closed curve including plotted points, and a calculation of a correlation coefficient by an inner product operation of vectors described in the first embodiment of the invention. . The distribution on the smallest area means that
It shows that there is a strong correlation between the pixel value displayed in the real endoscopic image and the pixel value displayed in the virtual endoscopic image.
Strong association includes so-called positive correlation and strong negative correlation, but also includes more complex cases (Fig. 1).
2 (b)). Even if such a complicated relationship is strong, the calculation of the correlation coefficient by the vector inner product operation described in the first embodiment of the invention is effective. In any case, distribution on the smallest area means that the two images are very likely to be the same tissue viewed from the same camera position.

【0042】発明の実施の形態4.発明の実施の形態3
の対応関数を用いた処理をさらに拡張した方法として、
画像比較処理に相互情報量を評価する手法を用いること
が考えられる。図13にその流れ図を示す。相互情報量
を用いた異種画像のレジストレーション(位置合わせ)
については、発明の実施の形態3であげた文献の60〜
61ページに記載されている。まず、画素位置(i,j)に
おける実内視鏡画像A(i,j)と仮想内視鏡画像B(i,j)の
画素値を用いて相互情報量を計算する(S131')。
相互情報量は定性的には一方の画像情報が他方の画像情
報をどれだけうまく説明できるかを与えるものであり、
たとえば次の式(5)で与えられる相互情報量I(A,
B)が最大になったときに、2つの画像は位置合わせで
きたと判断する。
Fourth Embodiment of the Invention Embodiment 3 of the invention
As a method that further expands the processing using the correspondence function of
It is conceivable to use a method of evaluating the mutual information amount in the image comparison processing. The flow chart is shown in FIG. Registration of different images using mutual information (registration)
With regard to 60 to 60 of the documents cited in the third embodiment of the invention,
It is described on page 61. First, the mutual information amount is calculated using the pixel values of the real endoscopic image A (i, j) and the virtual endoscopic image B (i, j) at the pixel position (i, j) (S131 ').
Mutual information qualitatively gives how well one image information can explain the other image information,
For example, the mutual information I (A,
When B) becomes maximum, it is determined that the two images can be aligned.

【数5】 (5)ここで、pT AB(a, b)は画像Aと画像Bのジョイ
ント確率分布関数であり、pT A(a)およびpT B(b)はマー
ジナル確率分布関数である。相互情報量の定義は、上記
に限らず、他にも種々提案されているので、それらを用
いてもよい。次に、相互情報量が最大になる仮想内視鏡
画像を仮想内視鏡画像データベースから探索する(S1
33')。そして、求まった仮想内視鏡画像に対応する
カメラの位置と姿勢の情報を出力する(S134)。
[Equation 5] (5) Here, p T AB (a, b) is a joint probability distribution function of images A and B, and p T A (a) and p T B (b) are marginal probability distribution functions. The definition of the mutual information is not limited to the above, and various other proposals have been made, and thus they may be used. Next, a virtual endoscopic image having the maximum mutual information amount is searched from the virtual endoscopic image database (S1).
33 '). Then, information on the position and orientation of the camera corresponding to the obtained virtual endoscopic image is output (S134).

【0043】発明の実施の形態5.これまで述べてきた
ような類似度評価に相関係数、2乗誤差、相互情報量な
どを用いる場合、類似度が最大になる仮想内視鏡画像が
仮想内視鏡画像データベース内に存在する必要があるの
で、データベースの大規模化は避けられない。一般にこ
のような処理はオフラインで計算しておく必要があり、
緊急手術が必要な救急患者に対しては適用が難しい場合
も考えられる。さらに、内視鏡画像に雑音が混入してい
る場合に最適な仮想内視鏡画像の推定に失敗することも
考えられる。そこで、この発明の実施の形態では、脳機
能の1つである連想処理の採用によりデータベースの小
規模化および対ノイズ性能向上を図る。内視鏡で得られ
た画像から連想処理によりその位置を検出するために
は、内視鏡は挿入の間、任意の角度で回転することが予
想されるため、回転操作に不変な連想処理システムを実
現することが要求される。
Fifth Embodiment of the Invention When the correlation coefficient, squared error, mutual information, etc. are used for the similarity evaluation as described above, the virtual endoscopic image having the maximum similarity must exist in the virtual endoscopic image database. Therefore, the scale of the database is unavoidable. Generally, such processing needs to be calculated off-line,
It may be difficult to apply to emergency patients who require emergency surgery. Further, it is possible that the estimation of the optimum virtual endoscopic image may fail when noise is mixed in the endoscopic image. Therefore, in the embodiment of the present invention, by adopting the associative processing which is one of the brain functions, the database is downsized and the noise resistance performance is improved. In order to detect its position from the image obtained by the endoscope by associative processing, the endoscope is expected to rotate at an arbitrary angle during insertion. Is required to be realized.

【0044】以下に、2001年6月に青木らにより発
表されたRotation-Invariant ImageAssociation for En
doscopic Positional Identification Using Complex-V
alued Associative Memories (Springer, Proceedings
of the 6th InternationalWork-Conference on Artifi
cial and Natural Neural Networks Granada, PartI
I,pp.369-376)に記載された、複素数型連想メモリを
用いた内視鏡位置検出のための回転に不変な画像連想処
理の概要を述べる。連想記憶を用いた処理は、必要なパ
ターンをあらかじめ記憶させる記銘処理(フェーズ1)
と、その後で記憶パターンの不完全パターン(ノイズの
混入や、パターンの一部の情報が欠落しているようなパ
ターン)を与えると、その不完全パターンより完全な記
憶パターンを連想し出力する想起処理(フェーズ2)の
2段階の処理に分けられる。
The following is the Rotation-Invariant Image Association for En published by Aoki et al. In June 2001.
doscopic Positional Identification Using Complex-V
alued Associative Memories (Springer, Proceedings
of the 6th International Work-Conference on Artifi
cial and Natural Neural Networks Granada, Part I
I, pp.369-376), the outline of the rotation-invariant image associative processing for endoscope position detection using a complex number type associative memory is described. The process using associative memory is an inscription process that stores necessary patterns in advance (Phase 1)
And an incomplete pattern of the memory pattern (a pattern in which noise is mixed or some information of the pattern is missing) is given after that, the memory pattern that is more complete than the incomplete pattern is associated and output. The processing is divided into two processing steps (phase 2).

【0045】フェーズ1の記銘処理は、記憶しようとす
るパターンよりニューロン間の結合荷重を決定するプロ
セスであり、記憶パターンの情報はニューロン間の結合
荷重に多重分散的に記憶される。また、フェーズ2の想
起処理では、各ニューロンはあらかじめ定められた状態
遷移規則に従って次々と状態を更新していく。実数型を
拡張した複素数型連想記憶モデルを応用することによ
り、容易に多値のパターン情報を扱うことが可能とな
る。特に、複素数型連想記憶モデル(CAMM)と2次元
離散フーリエ変換処理(2-D DFT)とを組み合わせること
により、濃淡画像の連想システムが実現される。
The phase 1 inscription process is a process of determining the connection weight between neurons from the pattern to be stored, and the information of the storage pattern is stored in the connection weight between neurons in a multi-distributed manner. In the recall process of phase 2, each neuron updates its state one after another according to a predetermined state transition rule. It is possible to easily handle multi-valued pattern information by applying a complex number type associative memory model that is an extension of the real number type. In particular, a grayscale image associative system is realized by combining a complex number type associative memory model (CAMM) and two-dimensional discrete Fourier transform processing (2-D DFT).

【0046】図14により、回転操作に不変な画像連想
システムの実現方法の概要を説明する。本システムで
は、図14の(a)に示すように円形画像を扱うものとす
る。なお、以下の説明は、記銘処理と想起処理に共通で
ある。
With reference to FIG. 14, an outline of a method of realizing an image associative system that is invariant to a rotating operation will be described. This system handles a circular image as shown in FIG. The following description is common to the inscription process and the recall process.

【0047】(A) まず図14の(a)に示す円形画像を
図14の(b)に示すような長方形画像に変換する。する
と、円形画像における0を中心とするθ方向への回転操
作は、長方形画像においてはn方向(横方向)のみへの
シフト操作に置き換えられる。
(A) First, the circular image shown in FIG. 14 (a) is converted into a rectangular image as shown in FIG. 14 (b). Then, the rotation operation in the θ direction around 0 in the circular image is replaced with the shift operation only in the n direction (horizontal direction) in the rectangular image.

【0048】(B) 図14の(b)の形式に変換された図
形について2次元離散フーリエ変換処理(2-D DFT)をす
る。フーリエ変換された結果は図14の(c)のように与
えられる。ここで、四隅の部分が低周波の空間周波数成
分を表わし、中央部分が高周波の空間周波数成分を表
す。
(B) Two-dimensional discrete Fourier transform processing (2-D DFT) is performed on the figure converted into the format shown in (b) of FIG. The result of the Fourier transform is given as shown in FIG. Here, the four corner portions represent low frequency spatial frequency components, and the central portion represents high frequency spatial frequency components.

【0049】(C) 図14の(c)のフーリエ変換の各成
分をν(m',n')とし、ν(m',n') = |ν(m',n')|exp(α
(m',n')) と表わせるものとする。以下の式(6)、
(7)を用いてν(m',n')の振幅情報を位相情報に多重
化させる処理を行い、位相情報のみにより表現される行
列 {χphase(m',n')} を生成する。式(6)で、|νmax
(m',n')|は各要素|ν(m',n')|の中での最大値を表す。
また、式(7)はχphase(m',n')を定義する。こうして
画像情報をχphase(m',n')の形式に変換することによ
り、画像情報は図14の(d)の複素ニューロンにより表
現することが可能となる。
(C) Let each component of the Fourier transform of (c) of FIG. 14 be ν (m ', n'), ν (m ', n') = | ν (m ', n') | exp ( α
It can be represented as (m ', n')). The following formula (6),
Generate the matrix {χ phase (m ', n')} represented by only the phase information by performing the process of multiplexing the amplitude information of ν (m ', n') with the phase information using (7). . In equation (6), | ν max
(m ', n') | represents the maximum value in each element | ν (m ', n') |.
Equation (7) defines χ phase (m ', n'). Thus, by converting the image information into the χ phase (m ', n') format, the image information can be expressed by the complex neuron shown in FIG.

【数6】 γ(m',n') = cos-1(|ν(m',n')|/|νmax(m',n')|) (6)Γ (m ', n') = cos -1 (| ν (m ', n') | / | ν max (m ', n') |) (6)

【数7】 χphase(m',n') = exp {i(α(m',n')+γ(m',n'))} (7)(7) χ phase (m ', n') = exp {i (α (m ', n') + γ (m ', n'))} (7)

【0050】(D) このように画像の情報は上記χ
phase(m',n')の形式に変換して、複素数型連想記憶モデ
ル(CAMM)に与える。
(D) As described above, the information of the image is χ above.
It is converted into the form of phase (m ', n') and given to the complex number type associative memory model (CAMM).

【0051】(E) 次に、χphase(m',n') を位相量子
化する。
(E) Next, phase quantization of χ phase (m ', n') is performed.

【0052】(F) 通常、χphase(m',n')の全ての成分
を用いてCAMMを構成するとニューロン数が非常に多
くなってしまうため、画質の劣化が目立たない範囲で図
14の(c)に示すように高周波領域の成分を無視してC
AMMを構成する。その際CAMMはχphase(m',n')の
低周波領域の各列毎に構成する。例えば、行列{χphase
(m',n')}の0からXおよびN−XからN−1までの各列
を利用すると、作られるCAMMの数は2X+1個とな
る。CAMMのニューロンの間の結合荷重の決定を行な
う。
(F) Normally, if the CAMM is constructed using all the components of χ phase (m ', n'), the number of neurons becomes very large, so that the deterioration of the image quality is not noticeable as shown in FIG. As shown in (c), C
Configure the AMM. At that time, the CAMM is constructed for each column in the low frequency region of χ phase (m ', n'). For example, the matrix {χ phase
If the columns 0 to X and N−X to N−1 of (m ′, n ′)} are used, the number of CAMMs created is 2X + 1. The connection weight between the neurons of the CAMM is determined.

【0053】以下は、想起処理における説明である。 (G) ここで、2次元離散フーリエ変換(2-D DFT)の
次の性質に注目する。n方向のみにqだけシフトした画
像の2次元離散フーリエ変換は次のように表される。
The following is a description of the recall process. (G) Here, pay attention to the following property of the two-dimensional discrete Fourier transform (2-D DFT). The two-dimensional discrete Fourier transform of the image shifted by q in the n direction only is expressed as follows.

【数8】ν(m',n') = DFT{u(m, n)} とおけば、u(m, n)をn方向のみにqだけシフトした画
像u(m, n-q)の2次元離散フーリエ変換は次のように与
えられる。
## EQU00008 ## If ν (m ', n') = DFT {u (m, n)}, u (m, n) is shifted by q in the n direction only. The dimensional discrete Fourier transform is given by

【数9】 DFT{u(m,n-q)} = ν(m',n')exp(-iθNn'q) ここにθN = 2π/N つまり、複素領域側でみるとexp(-isθNn'q)の項が付加
されるだけである。 (H) (F)で述べた通り、行列{χphase(m',n')}の各列
ごとにCAMMを構成すると、ひとつのCAMMの中で
はn'の値は等しいから、回転による影響項exp(-iθNn'
q)の値は各ニューロンでは皆等しくなる。すなわち、各
CAMMに対しては画像の回転操作による影響はexp(-i
N)の項が付加されるだけとなる。
Equation 9] DFT {u (m, nq) } = ν (m ', n') exp (-iθ N n'q) Here θ N = 2π / N In other words, when viewed in the complex region side exp (- The term is θ N n'q) is only added. (H) As described in (F), if a CAMM is constructed for each column of the matrix {χ phase (m ', n')}, the value of n'is the same in one CAMM, so the effect of rotation Term exp (-i θ N n '
The value of q) is the same in each neuron. That is, the influence of the image rotation operation is exp (-i
N ) terms are only added.

【0054】(I) 一方、CAMMは、exp(-isθN)の
影響を吸収する性質(位相シフトに対して不変な性質)
をもつ。すなわち、状態パターンx1をCAMMの平衡状
態として記銘させると、状態x1をsθN(sは任意の整
数)だけ位相をシフトした状態exp(-isθN)x1もまたC
AMMの平衡状態となる。(ただし、この場合、複素ニ
ューロンの量子化数KはNの整数倍に設定しておくもの
とする。)言い換えると、CAMMはx1もexp(-isθN)x
1も区別なく平等に記憶する。こうして、(H)と(I)の
性質を用いることにより回転に不変な連想記憶システム
を実現できる。
(I) On the other hand, CAMM has a property of absorbing the influence of exp (-isθ N ) (a property that is invariant with respect to phase shift).
With. That is, when the memorization of the state pattern x 1 as equilibrium CAMM, the state x 1 S.theta N (s is an arbitrary integer) states exp (-isθ N) obtained by shifting only the phase x 1 also C
The AMM is in equilibrium. (However, in this case, the quantized number K of the complex neuron is set to be an integral multiple of N.) In other words, in CAMM, x 1 is also exp (-is θ N ) x.
Even 1 is memorized equally. Thus, a rotation-invariant associative memory system can be realized by using the properties (H) and (I).

【0055】(J) 残る問題は、各CAMMが想起した
結果からどのようにして想起画像を再構成するかであ
る。各CAMMが想起した結果をそのまま逆2次元離散
フーリエ変換(2-D IDFT)をして実数領域に変換しても
正しい想起画像は得られない。各CAMMが想起した結
果より、回転による影響項exp(-isθN)の位相分を補正
する必要がある。
(J) The remaining problem is how to reconstruct the recalled image from the results recalled by each CAMM. Even if the result recalled by each CAMM is directly converted into the real number domain by performing the inverse two-dimensional discrete Fourier transform (2-D IDFT), a correct recalled image cannot be obtained. From the result recalled by each CAMM, it is necessary to correct the phase component of the influence term exp (-isθ N ) due to rotation.

【0056】そこで、各CAMMの中に上記補正量を検
出するためのニューロンを新たに埋め込んでおく(これ
により各CAMMのニューロン数はR+1個となる)。
このニューロンはあらかじめ決められた位相(これを基
準位相とする)でCAMMに記憶させておき、毎回想起
処理が完了した時にこのニューロンの位相を調べ、基準
位相とのズレから上記補正量を検出するものとする。
Therefore, a neuron for detecting the above correction amount is newly embedded in each CAMM (thereby the number of neurons in each CAMM becomes R + 1).
This neuron is stored in the CAMM at a predetermined phase (this is the reference phase), the phase of this neuron is checked each time the recall process is completed, and the correction amount is detected from the deviation from the reference phase. I shall.

【0057】(K) CAMMの補正処理された想起結果
より、下図の形式の行列νa(m',n')を作成する。ν
a(m',X+1)からνa(m',N-X-1)の各列には0を補う。 (L) この行列{νa(m',n')}から次式(10)を用いて
想起画像{ua(m,n)}が得られる。
(K) A matrix ν a (m ′, n ′) of the form shown in the figure below is created from the result of the CAMM-corrected recall. ν
0 is added to each column from a (m ', X + 1) to v a (m', NX-1). (L) From this matrix {ν a (m ', n')}, the recalled image {u a (m, n)} is obtained using the following equation (10).

【数10】 [Equation 10]

【0058】発明の実施の形態1では、仮想内視鏡デー
タベースに格納すべき画像として、カメラ画像の回転を
5度おきに設定するというステップを用いた。しかし、
上述の処理を用いることにより、この回転が不要にな
る。結果的に、データベースのサイズが、5度おきの回
転の場合で、5/360=1/72になる効果がある。
これは、類似度評価の計算時間が1/72になることを
意味する。さらに、画像に雑音が混入した場合でも正し
く推定が可能になる効果もある。
In the first embodiment of the invention, the step of setting the rotation of the camera image every 5 degrees as the image to be stored in the virtual endoscope database is used. But,
By using the process described above, this rotation becomes unnecessary. As a result, there is an effect that the size of the database becomes 5/360 = 1/72 when the database is rotated every 5 degrees.
This means that the calculation time for similarity evaluation is 1/72. Furthermore, there is an effect that even if noise is mixed in the image, the estimation can be correctly performed.

【0059】発明の実施の形態6.この実施の形態のハ
イブリッドシステムでは、検査対象のMRI、CTなど
の3次元画像データに基づく仮想内視鏡画像を用いず
に、硬性内視鏡像をMRレンダリング像で補間する。硬
性内視鏡像の場合は、従来の技術として説明した機械方
式(例えば、Kosugi et al, An Articulated Neurosurg
ical Navigation System Using MRI and CT Images (IE
EE Transactions on Biomedical Engineering,Vol. 35,
No. 2, February 1988)、および、米国特許50506
08号 (E. Watanabe, Y. Kosugi, and S. Manaka: Sys
tem for indicating a position to beoperated in a p
atient's body)に相当する。図15に示すように、ロ
ータリーエンコーダを有する多関節アームナビゲーショ
ン装置により硬性内視鏡先端の位置座標および姿勢を求
めることができる。図16にハイブリッドシステムでの
処理の流れ図を示す。まず、ランドマークとなりそうな
場所の硬性内視鏡画像と硬性内視鏡先端の3次元位置と
姿勢を複数地点で手術準備のために取得して、データベ
ース化する(S20)。続いて、光ファイバー方式のや
わらかい内視鏡に交換して、手術を行う(図17参
照)。ここで、光ファイバー内視鏡を進行させながら得
られた光ファイバー内視鏡画像と類似度が高い硬性内視
鏡画像をデータベースから選ぶ(S22)。そして、類
似度が高く画像が選ばれた地点の近傍においては、異種
画像の類似度評価により局所的な探索を行う(S2
4)。この場合、硬性内視鏡と光ファイバー方式の内視
鏡画像は同種画像であり、データベースによる類似度の
評価は容易である。したがって、ランドマークとなる要
所要所では、精度良く光ファイバー方式の内視鏡先端位
置を知ることができる。また、これらのランドマーク近
傍においては、異種画像の類似度評価になるが、局所的
な探索で良いので、似たような別の場所の誤認知の確率
を低減でき、安全なナビゲーションが実行できる。そも
そも似たような場所を間違えないようにするための道具
なので、ミスは許されないため、本手法は有用である。
そして、求まった仮想内視鏡画像に対するカメラの位置
と姿勢の情報を出力する(S26)。そして、この結果
に基いて、図2や図9で説明したように重畳して表示を
行う。
Sixth Embodiment of the Invention In the hybrid system of this embodiment, the rigid endoscopic image is interpolated by the MR rendering image without using the virtual endoscopic image based on the three-dimensional image data such as the MRI or CT of the examination target. In the case of a rigid endoscopic image, the mechanical method described as the conventional technique (for example, Kosugi et al, An Articulated Neurosurg
ical Navigation System Using MRI and CT Images (IE
EE Transactions on Biomedical Engineering, Vol. 35,
No. 2, February 1988), and US Pat.
Issue 08 (E. Watanabe, Y. Kosugi, and S. Manaka: Sys
tem for indicating a position to beoperated in ap
Atient's body). As shown in FIG. 15, the position coordinates and posture of the tip of the rigid endoscope can be obtained by a multi-joint arm navigation device having a rotary encoder. FIG. 16 shows a flow chart of processing in the hybrid system. First, a rigid endoscopic image of a place that is likely to become a landmark and three-dimensional positions and postures of the distal end of the rigid endoscope are acquired at a plurality of points in preparation for surgery and stored in a database (S20). Then, the operation is performed by replacing the endoscope with a soft optical fiber system (see FIG. 17). Here, a rigid endoscopic image having a high degree of similarity to the optical fiber endoscopic image obtained while advancing the optical fiber endoscope is selected from the database (S22). Then, in the vicinity of the point where the image having a high degree of similarity is selected, a local search is performed by evaluating the degree of similarity of different images (S2).
4). In this case, the rigid endoscope and the optical fiber type endoscopic image are the same type of image, and the similarity evaluation by the database is easy. Therefore, it is possible to accurately know the position of the tip of the optical fiber type endoscope at a required place as a landmark. Also, in the vicinity of these landmarks, similarity evaluation of different images is performed, but since local search is sufficient, the probability of false recognition of another similar place can be reduced, and safe navigation can be performed. . This method is useful because it is a tool to prevent mistakes in similar places in the first place, so mistakes cannot be tolerated.
Then, information on the position and orientation of the camera with respect to the obtained virtual endoscopic image is output (S26). Then, based on this result, the images are displayed in a superimposed manner as described with reference to FIGS.

【0060】発明の実施の形態7.また、類似性につい
ては、適応的非線形写像実施後の最終マッチングスコア
による類似度評価を用いる方法も考えられる。この処理
が有効な場合は、これまで述べてきた方法のいずれかで
類似度を評価しても、十分高い類似度が得られなかった
場合である。もし内視鏡挿入に伴い組織が局所的に歪ん
だ場合、実内視鏡画像に含まれる空間的な非線形ひずみ
を考慮して類似度を評価する必要がある。具体的には、
内視鏡画像または計算した仮想内視鏡画像を空間的に弾
性変形のようなひずみを与えて変形させながら、類似度
が上昇する変形パターンを探索する。このような適応的
非線形写像の詳細は、特許公報第2860048号「非
線形画像変換装置および標準画像計算方法」に記載され
ているので、詳細は省略するが、図18と図19で簡単
に説明する。
Seventh Embodiment of the Invention As for the similarity, a method of using the similarity evaluation based on the final matching score after implementation of the adaptive non-linear mapping can be considered. The case where this processing is effective is the case where a sufficiently high degree of similarity cannot be obtained even if the degree of similarity is evaluated by any of the methods described above. If the tissue is locally distorted due to the insertion of the endoscope, it is necessary to evaluate the similarity by considering the spatial non-linear distortion included in the real endoscopic image. In particular,
While deforming the endoscopic image or the calculated virtual endoscopic image spatially by applying strain such as elastic deformation, a deformation pattern in which the degree of similarity increases is searched for. The details of such an adaptive non-linear mapping are described in Japanese Patent Publication No. 2860048 "Non-linear image conversion device and standard image calculation method", so that details will be omitted, but a brief description will be given with reference to FIGS. 18 and 19. .

【0061】図18は、適応的非線形写像実施後の最終
マッチングスコアによる類似度評価を用いる処理の流れ
図である。まず、第1画像のデータから、第1画像を所
定の数に分割して小エリアのデータを生成し、第1画像
層のデータとして保存する(S30)。例えば、図19
に示すように4×4 個(16個)の小エリアに分割さ
れる。次に、第2画像のデータを保存する(S32)。
たとえば、第1画像が実内視鏡画像で、第2画像が仮想
内視鏡画像である。
FIG. 18 is a flow chart of a process using the similarity evaluation by the final matching score after implementation of the adaptive non-linear mapping. First, from the data of the first image, the first image is divided into a predetermined number to generate the data of the small area, and the data is stored as the data of the first image layer (S30). For example, in FIG.
It is divided into 4 × 4 (16) small areas as shown in FIG. Next, the data of the second image is saved (S32).
For example, the first image is a real endoscopic image and the second image is a virtual endoscopic image.

【0062】そして、第1画像の各小エリアのデータに
対して、各小エリアの位置を示す位置ベクトルに移動ベ
クトルを加算して、位置をスライドさせる(S34)。
なお、各小エリアに対応する移動ベクトルDの初期値は
いずれも0ベクトルである。次に、スライド後の第1画
像の各小エリアと第2画像の各小エリアとの類似度が最
も高い移動量(増分ベクトル)を各小エリアごとに探索
する(S36)。類似度の評価はこれまで述べてきた方
法のいずれかを用いる。すなわち、相関係数、2乗誤差
などである。
Then, with respect to the data of each small area of the first image, the movement vector is added to the position vector indicating the position of each small area, and the position is slid (S34).
The initial value of the movement vector D corresponding to each small area is 0 vector. Next, the movement amount (increment vector) having the highest similarity between each small area of the first image and each small area of the second image after the slide is searched for for each small area (S36). One of the methods described so far is used to evaluate the similarity. That is, a correlation coefficient, a squared error, or the like.

【0063】次に、小エリアごとにばらばらに計算した
移動ベクトルを平滑化する(S38)。これは隣接する
小エリアごとの移動ベクトルの変化を滑らかにするため
である。ただし、滑らかにする度合はステップS34な
いしS38の処理を反復する反復ループの周回回数によ
り変化させる。このように、ループの周回回数により平
滑化の度合を変化させるので、この処理は適応的非線形
写像と呼ばれる。ここで、最初はあまり平滑化せずに、
個々の小エリアごとの特性を重視し、だいたい局所的に
は類似度が向上したら、最後に周囲との連続性を考慮し
て、移動ベクトルを滑らかに変化させる。このように、
反復するため、反復ループ内では移動ベクトルの計算は
前回の移動後の画像から始める。すなわち、移動量の増
分ベクトルをループを反復するたびに計算していく。し
たがって、反復2回目以降は増分ベクトルを計算後に、
全体的な移動ベクトルを求める計算(ステップS40)
が必要になる。類似度が十分向上すれば、すなわち、マ
ッチングが成功すれば(S42でYES)、全画素に対
する移動ベクトルを計算する(S44)。これにより、
操作者は画面上で移動ベクトルを考慮して表示された実
内視鏡画像と仮想内視鏡画像を観察できる。
Next, the movement vector calculated separately for each small area is smoothed (S38). This is to smooth the change of the movement vector for each adjacent small area. However, the degree of smoothing is changed by the number of revolutions of an iterative loop that repeats the processing of steps S34 to S38. In this way, since the degree of smoothing is changed depending on the number of loop turns, this process is called adaptive non-linear mapping. Here, without smoothing much at first,
When the characteristics of each small area are emphasized and the degree of similarity improves locally, finally, the movement vector is smoothly changed in consideration of the continuity with the surroundings. in this way,
Due to the iteration, the calculation of the motion vector begins with the image after the previous motion within the iterative loop. That is, the increment vector of the movement amount is calculated every time the loop is repeated. Therefore, after the second iteration, after calculating the increment vector,
Calculation for obtaining the overall movement vector (step S40)
Will be required. If the similarity is sufficiently improved, that is, if the matching is successful (YES in S42), the movement vector for all pixels is calculated (S44). This allows
The operator can observe the real endoscopic image and the virtual endoscopic image displayed on the screen in consideration of the movement vector.

【0064】発明の実施の形態8.発明の実施の形態1
でも説明したように、実内視鏡画像と仮想内視鏡画像
は、互いに回転の自由度があるので、カメラを5度おき
に回転して仮想内視鏡画像を生成してデータベースを構
築する。次に、類似度が最大の仮想内視鏡画像を検索す
るために、データベース内のすべての画像を評価する必
要がある。これは、カメラの回転角と実内視鏡画像と仮
想内視鏡画像の類似度との関係があらかじめ不明である
ためやむをえない。図6の実内視鏡画像と仮想内視鏡画
像の類似度と回転角の関係を計算した1例を以下に示
す。回転は仮想内視鏡画像に対して行った。
Eighth Embodiment of the Invention First Embodiment of the Invention
However, as described above, since the real endoscopic image and the virtual endoscopic image have a degree of freedom of rotation with respect to each other, the camera is rotated every 5 degrees to generate the virtual endoscopic image and construct the database. . Next, all the images in the database need to be evaluated in order to retrieve the virtual endoscopic image with the highest similarity. This is unavoidable because the relationship between the rotation angle of the camera and the degree of similarity between the real endoscopic image and the virtual endoscopic image is unknown in advance. An example of calculating the relationship between the degree of similarity and the rotation angle between the real endoscopic image and the virtual endoscopic image in FIG. 6 is shown below. The rotation was performed on the virtual endoscopic image.

【0065】図20は、直交座標系で類似度を評価した
結果のグラフである。類似度としては、あらかじめ実内
視鏡画像と仮想内視鏡画像の各画像の最大値を1に規格
化した後で、対応する画素ごとの強度差の2乗和(Erro
r)を用いた。もちろん、段落0031で説明した相関値
を用いてもよい。類似度が画素強度値の2乗和(縦軸で
はErrorと表記)で与えているので、その最小値を与え
るときに最大の類似度となる。角度(Rotation)を変化
させた場合に、最大の類似度は角度0〜30度で与えら
れるが、130度付近にも極小値が存在し、通常の分割
法、2次補間法などの最適化手法を用いて探索を高速化
した場合に、真の角度が求められない可能性を示してい
る。また、回転角が0〜30度とかなりあいまいな解に
なっている。
FIG. 20 is a graph showing the result of evaluation of the degree of similarity in the Cartesian coordinate system. As the similarity, the maximum value of each image of the real endoscopic image and the virtual endoscopic image is standardized to 1 in advance, and then the sum of squares of the intensity difference (Erro
r) was used. Of course, the correlation value described in paragraph 0031 may be used. Since the degree of similarity is given by the sum of squares of pixel intensity values (denoted by Error on the vertical axis), the maximum degree of similarity is obtained when the minimum value is given. When the angle (Rotation) is changed, the maximum degree of similarity is given at an angle of 0 to 30 degrees, but there is a minimum value near 130 degrees, and optimizations such as normal division method and quadratic interpolation method are performed. It shows that the true angle may not be obtained when the search is speeded up using the method. In addition, the rotation angle is 0 to 30 degrees, which is a rather vague solution.

【0066】ところが、上記2つの画像を極座標に変換
した後、類似度を評価すると、図21のグラフのよう
に、誤差(Error)の最小値は、他の極小値もなく、回
転角(Rotation)0度として明確に与えられることが分
かった。このため、通常の分割法、2次補間法などの最
適化手法を用いて探索を最適化した場合に、真の角度を
求めることができることを示している。なお、変換前の
画像(直交座標系)をA(x,y)、極座標系に変換後の
画像をA(r、theta)とすると、 r=(X+Y1/2、 theta=tan
−1(y/x) により、極座標系に変換後の画像A(r、theta)の各
成分を計算できる。以上から、あらかじめ画像を極座標
系に変換した後に類似度を評価すると、評価が高速化で
きる効果があることがわかった。
However, when the above two images are converted into polar coordinates and then the similarity is evaluated, the minimum value of the error (Error) does not have other local minimum values and the rotation angle (Rotation) as shown in the graph of FIG. ) It was found that it was clearly given as 0 degree. Therefore, it is shown that the true angle can be obtained when the search is optimized by using an optimization method such as a normal division method or a quadratic interpolation method. When the image before conversion (orthogonal coordinate system) is A (x, y) and the image after conversion to polar coordinate system is A * (r, theta), r = (X 2 + Y 2 ) 1/2 , theta = Tan
Each component of the image A * (r, theta) after conversion into the polar coordinate system can be calculated from −1 (y / x). From the above, it was found that the evaluation can be speeded up by evaluating the similarity after converting the image into the polar coordinate system in advance.

【0067】発明の実施の形態9.次に、仮想内視鏡画
像データベースの探索を高速化する方法を説明する。こ
こで、内視鏡を体内に導入した初期位置情報を用いて、
仮想内視鏡画像データベースを十分絞り込んで探索す
る。図22は、その処理の流れ図を示す。すなわち、M
RI画像またはCT画像を取得するときに、内視鏡を体
内に導入する初期位置を液体を封入した微小球マーカを
体表に貼り付けることにより、仮想内視鏡画像の初期カ
メラ位置を決定する(S50)。さらに内視鏡を前進さ
せた場合に、探索範囲を常に前回の探査位置の近傍とす
る(S52)。このとき、前回と今回の内視鏡の挿入距
離の差分に相当する探索半径を基に、仮想内視鏡データ
ベース内の探索を実施する(S54)。これにより探索
を高速化・高精度化できる。
Ninth Embodiment of the Invention Next, a method of speeding up the search of the virtual endoscopic image database will be described. Here, using the initial position information that introduced the endoscope into the body,
The virtual endoscopic image database is sufficiently narrowed down and searched. FIG. 22 shows a flow chart of the processing. That is, M
When acquiring the RI image or the CT image, the initial position of introducing the endoscope into the body is pasted with a microsphere marker containing a liquid on the body surface to determine the initial camera position of the virtual endoscopic image. (S50). When the endoscope is further advanced, the search range is always set near the previous search position (S52). At this time, the search in the virtual endoscope database is executed based on the search radius corresponding to the difference between the insertion distances of the endoscopes of the previous time and this time (S54). This makes the search faster and more accurate.

【0068】発明の実施の形態10.上述の各種処理に
より内視鏡先端位置が推定される。ここで、好ましく
は、過去に推定した内視鏡先端位置を時系列で並べたと
きに外挿される現在の予測位値から著しく逸脱した位置
を解としようとした場合に、その解をリジェクトする。
図23は、その処理の流れ図を示す。内視鏡位置の推定
値を入力する(S60)。一方、過去に推定した内視鏡
先端位置を時系列で並べたときに外挿される現在の予測
位値を計算し(S62)、内視鏡位置の推定値と比較す
る(S64)。2つの値の差が所定の値より小さければ
採用するが、2つの値の差が所定の値以上であれば、推
定値を採用しない。これにより、探索の誤りを防止す
る。
Tenth Embodiment of the Invention The endoscope tip position is estimated by the above-described various processes. Here, it is preferable to reject the solution when a position which is significantly deviated from the current predicted position value extrapolated when the endoscope tip positions estimated in the past are arranged in time series is tried. .
FIG. 23 shows a flow chart of the processing. The estimated value of the endoscope position is input (S60). On the other hand, the current predicted position value extrapolated when the endoscope tip positions estimated in the past are arranged in time series is calculated (S62) and compared with the estimated value of the endoscope position (S64). If the difference between the two values is smaller than the predetermined value, it is adopted, but if the difference between the two values is equal to or larger than the predetermined value, the estimated value is not adopted. This prevents a search error.

【0069】[0069]

【発明の効果】本発明による内視鏡誘導装置および方法
によれば、検査対象の仮想内視鏡画像と内視鏡先端の位
置および姿勢の情報からなるデータベースと実内視鏡画
像を実時間で比較することにより、高度な画像診断技術
によって与えられた患部へ、迅速かつ正確に内視鏡を誘
導することが可能になる。たとえば、腫瘍摘出手術にあ
っては、残存する腫瘍組織を最低限に抑え、かつ短時間
で、また患者への侵襲を最小限にとどめた形で手術を実
施することが可能になり、ひいては患者の延命、早期退
院を実現することが可能になる。
According to the endoscopic guidance device and method according to the present invention, a virtual endoscopic image of an examination object and a database consisting of information on the position and orientation of the endoscope tip and a real endoscopic image are displayed in real time. By making a comparison with, it becomes possible to quickly and accurately guide the endoscope to the affected area given by the advanced image diagnostic technique. For example, in tumor resection surgery, it is possible to perform surgery with minimal residual tumor tissue, in a short time, and with minimal invasion to the patient. It is possible to prolong life and discharge earlier.

【0070】また、検査対象の3次元画像データ(CT
画像、MRI画像などの診断画像)に基づいて仮想内視
鏡画像と比較するので、実内視鏡画像との比較が容易に
なる。
Further, three-dimensional image data (CT
Since the image is compared with the virtual endoscopic image based on the image, the diagnostic image such as the MRI image), the comparison with the real endoscopic image becomes easy.

【0071】また、硬性内視鏡により得られた画像と、
その画像を得たときの硬性内視鏡先端の位置および姿勢
の情報を用いるので、硬性内視鏡と光ファイバー方式の
内視鏡画像は同種画像であるため、データベースによる
類似度の評価は容易になる。
Further, an image obtained by a rigid endoscope,
Since the position and orientation information of the tip of the rigid endoscope when the image is obtained is used, since the rigid endoscope and the optical fiber type endoscope image are the same type of image, it is easy to evaluate the degree of similarity using the database. Become.

【0072】また、内視鏡先端部の位置と姿勢を、2次
元断面表示または3次元表示された検査対象の画像に重
畳して表示するので、内視鏡手術従事者は、位置と方向
の判断を誤ることなく複雑な手術を続行できる。
Further, since the position and posture of the endoscope distal end portion are displayed by being superimposed on the image of the inspection object displayed in the two-dimensional sectional view or the three-dimensional display, the endoscopic surgery worker can check the position and the direction. You can continue complicated surgery without making a mistake.

【0073】また、内視鏡画像にも体内表層下の患部
(腫瘍など)を重畳して表示できるので、正確な内視鏡
下での手術を実施できる。
Further, since the affected area (tumor, etc.) under the surface layer of the body can be superimposed and displayed also on the endoscopic image, it is possible to carry out an accurate operation under the endoscope.

【0074】また、さらに、検査対象の3次元画像デー
タに基づいて仮想内視鏡画像を計算する画像生成手段を
備えるので、多数の内視鏡先端の位置と姿勢での仮想内
視鏡画像からなるデータベースを構築できる。
Further, since the image generating means for calculating the virtual endoscopic image based on the three-dimensional image data of the inspection object is provided, the virtual endoscopic image at the positions and postures of a large number of endoscope tips is obtained. You can build a database.

【0075】また、ジョイントヒストグラムまたは2次
元ヒストグラムと呼ばれる図を用いて異種画像の位置合
わせを行うので、最も類似度が高い仮想内視鏡画像を容
易に決定できる。
Further, since the images of different types are aligned using a diagram called a joint histogram or a two-dimensional histogram, the virtual endoscopic image having the highest degree of similarity can be easily determined.

【0076】また、前記の比較手段は相互情報量を用い
るので、最も類似度が高い仮想内視鏡画像を容易に決定
できる。
Further, since the comparing means uses mutual information, the virtual endoscopic image having the highest degree of similarity can be easily determined.

【0077】また、回転操作に不変な複素数連想処理を
採用するので、仮想内視鏡画像のデータベースの小規模
化および対ノイズ性能の向上が図れる。
Further, since the invariant complex number associative processing is adopted for the rotation operation, the database of the virtual endoscopic image can be downsized and the noise resistance performance can be improved.

【0078】また、前記の比較手段は適応的非線形写像
実施後の最終マッチングスコアによる類似度を用いるの
で、最も類似度が高い仮想内視鏡画像を容易に決定でき
る。
Further, since the comparing means uses the similarity based on the final matching score after the adaptive non-linear mapping, the virtual endoscopic image having the highest similarity can be easily determined.

【0079】また、前記の比較手段は画像を極座標系に
変換した後に類似度を評価するので、評価が高速化でき
る。
Further, since the comparison means evaluates the degree of similarity after converting the image into the polar coordinate system, the evaluation can be speeded up.

【0080】また、内視鏡を前進させた場合に、探索範
囲を前回の探索範囲の近くとして仮想内視鏡画像のデー
タベース内の探索を実施するので、探索を高速化でき
る。
Further, when the endoscope is moved forward, the search range is set close to the previous search range, and the search is performed in the database of virtual endoscopic images, so that the search can be sped up.

【0081】また、好ましくは、内視鏡先端の推定位置
が予測位値から著しく逸脱した位置である場合にその推
定位置を採用しないので、誤った推定を防止できる。
Further, preferably, when the estimated position of the endoscope tip is a position which deviates significantly from the predicted position value, the estimated position is not adopted, so that an incorrect estimation can be prevented.

【図面の簡単な説明】[Brief description of drawings]

【図1】 内視鏡誘導装置のブロック図FIG. 1 is a block diagram of an endoscope guidance device.

【図2】 内視鏡誘導プログラムの流れ図[Fig. 2] Flow chart of the endoscope guidance program

【図3】 仮想内視鏡画像データベース計算の流れ図[Fig. 3] Flow chart of virtual endoscopic image database calculation

【図4】 仮想内視鏡画像データベースの生成における
視点情報の設定処理の流れ図
FIG. 4 is a flowchart of viewpoint information setting processing in generating a virtual endoscopic image database.

【図5】 内視鏡画像のグレースケール化を用いた探索
処理の流れ図
FIG. 5 is a flow chart of search processing using grayscale conversion of an endoscopic image.

【図6】 最も一致する仮想内視鏡画像データベース内
に蓄積された画像を決定した処理の一例を示す図
FIG. 6 is a diagram showing an example of processing in which an image stored in a virtual endoscopic image database that best matches is determined.

【図7】 現時点の内視鏡先端部の3次元位置およびカ
メラの向きを直交3平面画像上に矢印として重畳して表
示した図
FIG. 7 is a diagram in which the three-dimensional position of the endoscope distal end portion and the orientation of the camera at the present time are displayed as arrows on an orthogonal three-plane image in an overlapping manner.

【図8】 現時点の内視鏡先端部の3次元位置およびカ
メラの向きを直交3平面画像上に矢印として重畳して表
示した図
FIG. 8 is a diagram in which the three-dimensional position of the endoscope distal end portion and the direction of the camera at the current time are displayed as an arrow superimposed on an orthogonal three-plane image.

【図9】 内視鏡誘導プログラムの流れ図FIG. 9 is a flow chart of an endoscope guidance program.

【図10】 腫瘍位置を重畳して表示した図FIG. 10 is a diagram in which tumor positions are superimposed and displayed.

【図11】 画像比較処理の流れ図FIG. 11 is a flowchart of image comparison processing.

【図12】 実内視鏡画素値と仮想内視鏡画素値の2次
元グラフ
FIG. 12: Two-dimensional graph of real endoscope pixel value and virtual endoscope pixel value

【図13】 相互情報量を用いる画像比較処理の流れ図FIG. 13 is a flowchart of image comparison processing using mutual information.

【図14】 回転に不変な連想記憶システムの基本的な
考え方を説明するための図
FIG. 14 is a diagram for explaining the basic idea of a rotation-invariant associative memory system.

【図15】 硬質内視鏡を用いて内視鏡画像とその姿勢
情報を得ることを示す図
FIG. 15 is a diagram showing how to obtain an endoscopic image and its posture information using a rigid endoscope.

【図16】 ハイブリッドシステムでの処理の流れ図FIG. 16 is a flow chart of processing in a hybrid system

【図17】 光ファイバー方式の軟内視鏡に交換して手
術を行う状況を示す図
FIG. 17 is a diagram showing a situation in which an operation is performed by replacing with a fiber optic type soft endoscope.

【図18】 適応的非線形写像実施後の最終マッチング
スコアによる類似度評価を用いる処理の流れ図
FIG. 18 is a flowchart of a process using similarity evaluation based on a final matching score after implementation of the adaptive nonlinear mapping.

【図19】 小エリアへの分割を示す図FIG. 19 is a diagram showing division into small areas.

【図20】 直交座標系における実内視鏡画像と仮想内
視鏡画像の類似度と回転角の関係のグラフ
FIG. 20 is a graph of the relationship between the degree of similarity and the rotation angle between the real endoscopic image and the virtual endoscopic image in the orthogonal coordinate system.

【図21】 極座標系における実内視鏡画像と仮想内視
鏡画像の類似度と回転角の関係のグラフ
FIG. 21 is a graph of the relationship between the degree of similarity and the rotation angle between the real endoscopic image and the virtual endoscopic image in the polar coordinate system.

【図22】 仮想内視鏡画像データベースの探索を高速
化する処理の流れ図
FIG. 22 is a flowchart of processing for speeding up the search of the virtual endoscopic image database.

【図23】 現在の予測位値から著しく逸脱した位置を
採用しない処理の流れ図
FIG. 23 is a flowchart of processing that does not adopt a position that deviates significantly from the current predicted value.

【符号の説明】[Explanation of symbols]

10 ネットワークコントローラ、 12 ハードデ
ィスク、 14 CPU、 16 入力装置、
18 メモリ、 22 モニター。
10 network controller, 12 hard disk, 14 CPU, 16 input device,
18 memories, 22 monitors.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) A61B 6/03 377 A61B 6/12 6/12 G02B 23/26 C G01R 33/28 D G02B 23/26 H04N 7/18 M A61B 5/05 390 H04N 7/18 G01N 24/02 Y (72)発明者 永田 敦 神奈川県横浜市旭区若葉台4−8−1402 (72)発明者 小杉 幸夫 神奈川県横浜市緑区長津田町4259 東京工 業大学大学院総合理工学研究科内 (72)発明者 渡辺 英寿 東京都文京区本郷5−29−12−1001 (72)発明者 青木 宏之 東京都八王子市椚田町1220−2 東京工業 高等専門学校内 Fターム(参考) 2H040 BA04 BA14 BA21 CA11 DA03 DA12 DA14 GA02 GA11 4C061 AA23 BB02 CC06 HH51 JJ11 JJ17 LL01 NN05 NN07 SS21 TT06 TT07 WW03 WW04 WW06 WW13 YY03 YY12 YY13 YY14 4C093 AA22 CA17 CA18 CA50 EE30 FD07 FD20 FF12 FF17 FF33 FF43 FG01 4C096 AA18 AA20 AB50 AD14 AD15 AD19 AD23 DC14 DC18 DC28 DC31 DC36 DC37 DD08 DE02 DE06 DE08 FC20 5C054 AA01 EA05 FC11 FD01 FE12 GB04 HA12 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) A61B 6/03 377 A61B 6/12 6/12 G02B 23/26 C G01R 33/28 D G02B 23/26 H04N 7/18 M A61B 5/05 390 H04N 7/18 G01N 24/02 Y (72) Inventor Atsushi Nagata 4-8-1402 Wakabadai, Asahi-ku, Yokohama-shi, Kanagawa Prefecture (72) Yukio Kosugi Midori-ku, Yokohama-shi, Kanagawa Prefecture 4259 Nagatsutacho Graduate School of Science and Engineering, Tokyo Institute of Technology (72) Inventor Hidetoshi Watanabe 5-29-12-1001 Hongo, Bunkyo-ku, Tokyo (72) Inventor Hiroyuki Aoki 1220-2, Kusadacho, Hachioji, Tokyo F-term in technical college (reference) 2H040 BA04 BA14 BA21 CA11 DA03 DA12 DA14 GA02 GA11 4C061 AA23 BB02 CC06 HH51 JJ11 JJ17 LL01 NN05 NN07 SS21 TT06 TT07 WW03 WW04 WW06 W W13 YY03 YY12 YY13 YY14 4C093 AA22 CA17 CA18 CA50 EE30 FD07 FD20 FF12 FF17 FF33 FF43 FG01 4C096 AA18 AA20 AB50 AD14 AD15 AD19 AD23 DC14 DC18 DC28 DC31 DC36 DC37 DD08 DE02 DE06 DE08A 04FD01 A05 FC01 5C054

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】 検査対象の仮想内視鏡画像と内視鏡先端
の位置および姿勢の情報からなるデータベースを記憶す
る記憶手段と、 検査対象の実軟性内視鏡画像を取得する入力手段と、 前記実内視鏡画像を前記データベース内の仮想内視鏡画
像と比較して、前記内視鏡画像と最も類似度が高い仮想
内視鏡画像を決定する比較手段と、 決定された仮想内視鏡画像の情報から、前記実内視鏡画
像に対応する軟性内視鏡先端部の位置と姿勢を決定する
決定手段とを有する内視鏡誘導装置。
1. A storage unit for storing a database including a virtual endoscopic image of an inspection target and information on the position and orientation of the endoscope tip, and an input unit for acquiring a real flexible endoscopic image of the inspection target, Comparing means for comparing the real endoscopic image with the virtual endoscopic image in the database to determine a virtual endoscopic image having the highest degree of similarity to the endoscopic image; and the determined virtual endoscopic image An endoscopic guidance device comprising: a determining unit that determines the position and orientation of the tip portion of the flexible endoscope corresponding to the real endoscopic image from information of the mirror image.
【請求項2】 前記の仮想内視鏡画像は、検査対象の3
次元画像データに基づいて生成された画像であることを
特徴とする請求項1に記載された内視鏡誘導装置。
2. The virtual endoscopic image is a 3
The endoscopic guidance device according to claim 1, wherein the endoscopic guidance device is an image generated based on three-dimensional image data.
【請求項3】 前記の仮想内視鏡画像と内視鏡先端の位
置および姿勢の情報は、硬性内視鏡により得られた画像
と、その画像を得たときの硬性内視鏡先端の位置および
姿勢の情報であることを特徴とする請求項1に記載され
た内視鏡誘導装置。
3. The virtual endoscopic image and the position and posture information of the endoscope tip are the image obtained by a rigid endoscope and the position of the tip of the rigid endoscope when the image is obtained. The endoscope guidance device according to claim 1, wherein the endoscope guidance device is information regarding the position and the posture.
【請求項4】 さらに、決定手段により決定された内視
鏡先端部の位置と姿勢を、2次元断面表示または3次元
表示された検査対象の画像に重畳して表示装置の画面に
表示する表示手段とを備えることを特徴とする請求項1
ないし請求項3のいずれかに記載の内視鏡誘導装置。
4. A display for superimposing the position and orientation of the endoscope distal end portion determined by the determination means on the image of the inspection object displayed in a two-dimensional sectional view or three-dimensional display on the screen of the display device. And means.
The endoscope guiding device according to claim 3.
【請求項5】 前記の表示手段は、さらに、実内視鏡画
像またはそれと最も類似度が高い仮想内視鏡画像に、当
該画像では表示されていない体内の患部を重畳して表示
することを特徴とする請求項1ないし請求項4のいずれ
かに記載の内視鏡誘導装置。
5. The display means further displays an actual endoscopic image or a virtual endoscopic image having the highest degree of similarity with the real endoscopic image by superimposing an affected part in the body which is not displayed in the image. The endoscope guiding apparatus according to any one of claims 1 to 4, which is characterized.
【請求項6】 さらに、検査対象の3次元画像データに
基づいて仮想内視鏡画像を計算する画像生成手段を備
え、この画像生成手段は、設定された内視鏡先端の位置
と姿勢ごとに、それに基いて3次元画像データの補間演
算とレンダリング演算を実行して仮想内視鏡画像を取得
することを特徴とする請求項1ないし請求項5のいずれ
かに記載の内視鏡誘導装置。
6. An image generating means for calculating a virtual endoscopic image based on three-dimensional image data of an inspection object is provided, and the image generating means is for each set position and orientation of the endoscope distal end. The endoscopic guidance device according to any one of claims 1 to 5, wherein the virtual endoscopic image is acquired by executing interpolation calculation and rendering calculation of the three-dimensional image data based on the above.
【請求項7】 前記の比較手段は、画素位置(i,j)にお
ける実内視鏡画像の画素値と仮想内視鏡画像の画素値
を、実内視鏡画像の画素値と仮想内視鏡画像の画素位置
を座標軸とする2次元グラフにプロットしたときに最も
少ない面積上に分布する仮想内視鏡画像をデータベース
から探索し、最も類似度が高い仮想内視鏡画像とするこ
とを特徴とする請求項1ないし請求項6のいずれかに記
載の内視鏡誘導装置。
7. The comparing means compares the pixel value of the real endoscopic image and the pixel value of the virtual endoscopic image at the pixel position (i, j) with the pixel value of the real endoscopic image and the virtual endoscopic image. A characteristic is that a virtual endoscopic image distributed over the smallest area when it is plotted in a two-dimensional graph with the pixel position of the mirror image as the coordinate axis is searched from the database and the virtual endoscopic image with the highest degree of similarity is made. The endoscope guiding apparatus according to any one of claims 1 to 6.
【請求項8】 前記の比較手段は、相互情報量が最大の
仮想内視鏡画像を仮想内視鏡画像データベースから探索
し、最も類似度が高い仮想内視鏡画像とすることを特徴
とする請求項1ないし請求項7のいずれかに記載の内視
鏡誘導装置。
8. The comparison means searches the virtual endoscopic image database for a virtual endoscopic image having the maximum mutual information amount, and sets it as the virtual endoscopic image having the highest degree of similarity. The endoscopic guidance device according to any one of claims 1 to 7.
【請求項9】 前記の比較手段は、回転に不変な複素数
画像連想処理を用いることを特徴とする請求項1ないし
請求項8記載の内視鏡誘導装置。
9. The endoscope guiding apparatus according to claim 1, wherein said comparing means uses rotation-invariant complex image associative processing.
【請求項10】 前記の比較手段は、適応的非線形写像
を実施した後の最終マッチングスコアによる類似度を用
いることを特徴とする請求項1ないし請求項9のいずれ
かに記載の内視鏡誘導装置。
10. The endoscopic guidance according to claim 1, wherein the comparing means uses the degree of similarity based on the final matching score after performing the adaptive non-linear mapping. apparatus.
【請求項11】 前記の比較手段は、内視鏡を前進させ
た場合に、探索範囲を常に前回の探索範囲の近傍とし、
前回と今回の内視鏡の挿入距離の差分に相当する探索半
径を基に、仮想内視鏡画像のデータベース内の探索を実
施することを特徴とする請求項1ないし請求項10いず
れかに記載の内視鏡誘導装置。
11. The comparison means, when the endoscope is advanced, the search range is always near the previous search range,
11. The search in the database of virtual endoscopic images is performed based on the search radius corresponding to the difference between the insertion distances of the endoscopes of the previous time and this time. Endoscope guidance device.
【請求項12】 前記の比較手段は、実内視鏡画像と仮
想内視鏡画像をそれぞれ極座標系に変換した後、最も類
似度が高い仮想内視鏡画像を選ぶことを特徴とする請求
項1ないし請求項11のいずれかに記載の内視鏡誘導装
置。
12. The comparison means selects the virtual endoscopic image having the highest degree of similarity after converting the real endoscopic image and the virtual endoscopic image into polar coordinate systems, respectively. The endoscope guiding device according to any one of claims 1 to 11.
【請求項13】 前記の比較手段は、類似度の評価にお
いて、あらかじめ実内視鏡画像と仮想内視鏡画像の各画
像の画素強度の最大値を1に規格化した後、対応する画
素後との強度差の2乗和を用いたことを特徴とする請求
項1ないし請求項12のいずれかに記載の内視鏡誘導装
置。
13. The comparing means normalizes the maximum value of the pixel intensities of the images of the real endoscopic image and the virtual endoscopic image to 1 in advance in the similarity evaluation, and then, The endoscope guidance device according to any one of claims 1 to 12, wherein the sum of squares of the intensity difference between and is used.
【請求項14】 前記の決定手段は、前記の比較手段に
より得られた内視鏡先端の推定位置が、過去に推定した
内視鏡先端位置を時系列で並べたときに外挿される現在
の予測位値から著しく逸脱した位置である場合にその推
定位置を採用しないことを特徴とする請求項1ないし請
求項13のいずれかに記載の内視鏡誘導装置。
14. The present determination means extrapolates the estimated position of the endoscope tip obtained by the comparison means when the estimated endoscope tip positions are arranged in time series. The endoscope guiding apparatus according to any one of claims 1 to 13, wherein the estimated position is not adopted when the position is significantly deviated from the predicted position value.
【請求項15】 検査対象の仮想内視鏡画像と内視鏡先
端の位置および姿勢の情報をデータベースに記憶してお
き、 検査対象の実軟性内視鏡画像を取得し、 前記実内視鏡画像を前記データベース内の仮想内視鏡画
像と比較して、前記内視鏡画像と最も類似度が高い仮想
内視鏡画像を決定し、 決定された仮想内視鏡画像の情報から、前記実内視鏡画
像に対応する軟性内視鏡先端部の位置と姿勢を決定する
内視鏡誘導方法。
15. A virtual endoscopic image to be inspected and information on the position and orientation of the tip of the endoscope are stored in a database to obtain a real flexible endoscopic image to be inspected, and the real endoscope. The image is compared with the virtual endoscopic image in the database to determine the virtual endoscopic image having the highest degree of similarity with the endoscopic image, and from the information of the determined virtual endoscopic image, the real An endoscope guidance method for determining the position and orientation of the tip portion of a flexible endoscope corresponding to an endoscopic image.
【請求項16】 さらに、決定された内視鏡先端部の位
置と姿勢を、2次元断面表示または3次元表示された検
査対象の画像に重畳して表示装置の画面に表示すること
を特徴とする請求項15に記載された内視鏡誘導方法。
16. The position and posture of the endoscope distal end portion that has been determined are displayed on the screen of the display device by being superimposed on the image of the inspection object that is displayed in a two-dimensional sectional view or a three-dimensional display. The method for guiding an endoscope according to claim 15.
【請求項17】 さらに、実内視鏡画像またはそれと最
も類似度が高い仮想内視鏡画像に、当該画像では表示さ
れていない体内の患部を重畳して表示することを特徴と
する請求項15または請求項16に記載された内視鏡誘
導方法。内視鏡誘導方法。
17. The diseased part in the body which is not displayed in the image is superimposed and displayed on the real endoscopic image or the virtual endoscopic image having the highest degree of similarity. Alternatively, the endoscope guiding method according to claim 16. Endoscope guidance method.
JP2002075882A 2002-03-19 2002-03-19 Endoscope guidance device and method Expired - Fee Related JP4171833B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002075882A JP4171833B2 (en) 2002-03-19 2002-03-19 Endoscope guidance device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002075882A JP4171833B2 (en) 2002-03-19 2002-03-19 Endoscope guidance device and method

Publications (2)

Publication Number Publication Date
JP2003265408A true JP2003265408A (en) 2003-09-24
JP4171833B2 JP4171833B2 (en) 2008-10-29

Family

ID=29204839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002075882A Expired - Fee Related JP4171833B2 (en) 2002-03-19 2002-03-19 Endoscope guidance device and method

Country Status (1)

Country Link
JP (1) JP4171833B2 (en)

Cited By (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004089484A (en) * 2002-08-30 2004-03-25 Olympus Corp Endoscope
JP2005077831A (en) * 2003-09-01 2005-03-24 Olympus Corp Industrial endoscope and inspection method using same
JP2005111081A (en) * 2003-10-09 2005-04-28 Olympus Corp Endoscopic image display processor
JP2005131318A (en) * 2003-10-31 2005-05-26 Olympus Corp Insertion simulation device
JP2005131043A (en) * 2003-10-29 2005-05-26 Olympus Corp Insertion supporting system
JP2005131319A (en) * 2003-10-31 2005-05-26 Olympus Corp Insertion support system
JP2005202791A (en) * 2004-01-16 2005-07-28 Med Solution Kk Method, device, and program for forming image
JP2005207237A (en) * 2004-01-20 2005-08-04 Honda Motor Co Ltd Leak detection device of exhaust gas recirculating device
JP2005278888A (en) * 2004-03-29 2005-10-13 Olympus Corp Procedure support system
JP2006129454A (en) * 2004-09-13 2006-05-18 Canon Inc Method for modifying digital document
JP2007159933A (en) * 2005-12-15 2007-06-28 Hitachi Medical Corp Image display method, program and apparatus
WO2007129493A1 (en) * 2006-05-02 2007-11-15 National University Corporation Nagoya University Medical image observation support device
JP2008541859A (en) * 2005-05-23 2008-11-27 ザ ペン ステイト リサーチ ファンデーション 3D-CT registration with guidance method based on 3D-2D pose estimation and application to raw bronchoscopy
JP2008302100A (en) * 2007-06-11 2008-12-18 Hitachi Medical Corp Medical image displaying apparatus, and program
EP2109391A1 (en) * 2007-01-31 2009-10-21 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
EP2123216A1 (en) * 2008-05-23 2009-11-25 Olympus Medical Systems Corporation Bronchoscope
JP2009279249A (en) * 2008-05-23 2009-12-03 Olympus Medical Systems Corp Medical device
JP2009279251A (en) * 2008-05-23 2009-12-03 Olympus Medical Systems Corp Medical apparatus
JP2010253058A (en) * 2009-04-24 2010-11-11 Tokyo Metropolitan Univ Medical image processing device and method
JP2011000173A (en) * 2009-06-16 2011-01-06 Toshiba Corp Endoscopic examination supporting system
WO2012101888A1 (en) 2011-01-24 2012-08-02 オリンパスメディカルシステムズ株式会社 Medical device
US20120203067A1 (en) * 2011-02-04 2012-08-09 The Penn State Research Foundation Method and device for determining the location of an endoscope
WO2012108085A1 (en) * 2011-02-08 2012-08-16 オリンパスメディカルシステムズ株式会社 Medical device
JP2012165838A (en) * 2011-02-10 2012-09-06 Nagoya Univ Endoscope insertion support device
JP2012527286A (en) * 2009-05-18 2012-11-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Markerless tracking alignment and calibration for electromagnetic tracking endoscope system
JP2013517909A (en) * 2010-01-28 2013-05-20 ザ ペン ステイト リサーチ ファンデーション Image-based global registration applied to bronchoscopy guidance
JP5418952B1 (en) * 2013-03-22 2014-02-19 株式会社国際電気通信基礎技術研究所 Brain activity measuring device and brain activity measuring method
JP2014131551A (en) * 2013-01-07 2014-07-17 Akira Takebayashi Navigation device for endoscope
WO2014141968A1 (en) * 2013-03-12 2014-09-18 オリンパスメディカルシステムズ株式会社 Endoscopic system
WO2014132090A3 (en) * 2013-03-01 2014-10-23 Michael Paul Alexander Geissler Optical navigation & positioning system
WO2014171391A1 (en) * 2013-04-15 2014-10-23 オリンパスメディカルシステムズ株式会社 Endoscope system
JP2014226430A (en) * 2013-05-24 2014-12-08 富士フイルム株式会社 Image display device, method and program
US20150085092A1 (en) * 2012-03-29 2015-03-26 Panasonic Healthcare Co., Ltd. Surgery assistance device and surgery assistance program
JP2017055954A (en) * 2015-09-16 2017-03-23 富士フイルム株式会社 Endoscope position locating apparatus, method, and program
JP2017086917A (en) * 2015-11-16 2017-05-25 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. Locally applied transparency for ct image
JP2017205582A (en) * 2011-12-03 2017-11-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Planning system and method
CN109223177A (en) * 2018-07-30 2019-01-18 艾瑞迈迪医疗科技(北京)有限公司 Image display method, device, computer equipment and storage medium
KR20190024194A (en) * 2017-08-31 2019-03-08 (주)레벨소프트 Medical Image Processing Apparatus Using Augmented Reality and Medical Image Processing Method Using The Same
CN109934934A (en) * 2019-03-15 2019-06-25 广州九三致新科技有限公司 A kind of medical image display methods and device based on augmented reality
WO2019130868A1 (en) * 2017-12-25 2019-07-04 富士フイルム株式会社 Image processing device, processor device, endoscope system, image processing method, and program
JP2020014711A (en) * 2018-07-26 2020-01-30 富士フイルム株式会社 Inspection support device, method, and program
WO2020059377A1 (en) * 2018-09-20 2020-03-26 日本電気株式会社 Position estimation device, position estimation method, and computer-readable recording medium
JPWO2019053935A1 (en) * 2017-09-14 2020-04-02 株式会社島津製作所 Radiography equipment
CN111278344A (en) * 2017-11-01 2020-06-12 索尼公司 Surgical arm system and surgical arm control system
JP2020524579A (en) * 2017-06-23 2020-08-20 オーリス ヘルス インコーポレイテッド Robot system for identifying the posture of a medical device in a lumen network
CN112315582A (en) * 2019-08-05 2021-02-05 罗雄彪 Positioning method, system and device of surgical instrument
WO2021054360A1 (en) * 2019-09-20 2021-03-25 Hoya株式会社 Endoscope processor, program, information processing method, and information processing device
US10970875B2 (en) 2018-07-13 2021-04-06 Fujifilm Corporation Examination support device, examination support method, and examination support program
CN112641514A (en) * 2020-12-17 2021-04-13 罗雄彪 Minimally invasive interventional navigation system and method
US11003946B2 (en) 2018-07-13 2021-05-11 Fujifilm Corporation Examination support device, examination support method, and examination support program
US11183295B2 (en) 2017-08-31 2021-11-23 Gmeditec Co., Ltd. Medical image processing apparatus and medical image processing method which are for medical navigation device
WO2021250951A1 (en) * 2020-06-08 2021-12-16 Hoya株式会社 Program, information processing method, and information processing device
US20210393109A1 (en) * 2019-07-18 2021-12-23 Hoya Corporation Computer program and endoscope processor
CN115024679A (en) * 2022-04-14 2022-09-09 中山大学孙逸仙纪念医院 Visual trachea cannula endoscope guide wire structure and management method of intelligent module thereof

Cited By (106)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004089484A (en) * 2002-08-30 2004-03-25 Olympus Corp Endoscope
JP2005077831A (en) * 2003-09-01 2005-03-24 Olympus Corp Industrial endoscope and inspection method using same
JP4615842B2 (en) * 2003-10-09 2011-01-19 オリンパス株式会社 Endoscope system and endoscope image processing apparatus
JP2005111081A (en) * 2003-10-09 2005-04-28 Olympus Corp Endoscopic image display processor
JP2005131043A (en) * 2003-10-29 2005-05-26 Olympus Corp Insertion supporting system
JP4573517B2 (en) * 2003-10-29 2010-11-04 オリンパス株式会社 Insertion support system
JP2005131319A (en) * 2003-10-31 2005-05-26 Olympus Corp Insertion support system
JP2005131318A (en) * 2003-10-31 2005-05-26 Olympus Corp Insertion simulation device
JP4546064B2 (en) * 2003-10-31 2010-09-15 オリンパス株式会社 Insertion simulation device
JP2005202791A (en) * 2004-01-16 2005-07-28 Med Solution Kk Method, device, and program for forming image
JP2005207237A (en) * 2004-01-20 2005-08-04 Honda Motor Co Ltd Leak detection device of exhaust gas recirculating device
JP2005278888A (en) * 2004-03-29 2005-10-13 Olympus Corp Procedure support system
US7940967B2 (en) 2004-03-29 2011-05-10 Olympus Corporation Medical procedure support system and method
JP4698966B2 (en) * 2004-03-29 2011-06-08 オリンパス株式会社 Procedure support system
JP2006129454A (en) * 2004-09-13 2006-05-18 Canon Inc Method for modifying digital document
JP4630777B2 (en) * 2004-09-13 2011-02-09 キヤノン株式会社 Method, apparatus, computer program and storage medium for changing digital document
JP2008541859A (en) * 2005-05-23 2008-11-27 ザ ペン ステイト リサーチ ファンデーション 3D-CT registration with guidance method based on 3D-2D pose estimation and application to raw bronchoscopy
JP2007159933A (en) * 2005-12-15 2007-06-28 Hitachi Medical Corp Image display method, program and apparatus
US8199984B2 (en) 2006-05-02 2012-06-12 National University Corporation Nagoya University System that assists in observing a luminal organ using the structure of the luminal organ
JP4899068B2 (en) * 2006-05-02 2012-03-21 国立大学法人名古屋大学 Medical image observation support device
JPWO2007129493A1 (en) * 2006-05-02 2009-09-17 国立大学法人名古屋大学 Medical image observation support device
WO2007129493A1 (en) * 2006-05-02 2007-11-15 National University Corporation Nagoya University Medical image observation support device
EP2109391A4 (en) * 2007-01-31 2012-10-31 Penn State Res Found Method and apparatus for continuous guidance of endoscopy
EP2109391A1 (en) * 2007-01-31 2009-10-21 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
US8672836B2 (en) 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
JP2008302100A (en) * 2007-06-11 2008-12-18 Hitachi Medical Corp Medical image displaying apparatus, and program
WO2008152938A1 (en) * 2007-06-11 2008-12-18 Hitachi Medical Corporation Medical image displaying apparatus, medical image displaying method, and medical image displaying program
US8447082B2 (en) 2007-06-11 2013-05-21 Hitachi Medical Corporation Medical image displaying apparatus, medical image displaying method, and medical image displaying program
JP2009279250A (en) * 2008-05-23 2009-12-03 Olympus Medical Systems Corp Medical device
JP2009279249A (en) * 2008-05-23 2009-12-03 Olympus Medical Systems Corp Medical device
US8202213B2 (en) * 2008-05-23 2012-06-19 Olympus Medical Systems Corp. Medical device
JP2009279251A (en) * 2008-05-23 2009-12-03 Olympus Medical Systems Corp Medical apparatus
US8298135B2 (en) 2008-05-23 2012-10-30 Olympus Medical Systems Corp. Medical device with endoscope and insertable instrument
EP2123216A1 (en) * 2008-05-23 2009-11-25 Olympus Medical Systems Corporation Bronchoscope
JP2010253058A (en) * 2009-04-24 2010-11-11 Tokyo Metropolitan Univ Medical image processing device and method
EP2433262B1 (en) * 2009-05-18 2016-07-27 Koninklijke Philips N.V. Marker-free tracking registration and calibration for em-tracked endoscopic system
JP2012527286A (en) * 2009-05-18 2012-11-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Markerless tracking alignment and calibration for electromagnetic tracking endoscope system
JP2011000173A (en) * 2009-06-16 2011-01-06 Toshiba Corp Endoscopic examination supporting system
JP2013517909A (en) * 2010-01-28 2013-05-20 ザ ペン ステイト リサーチ ファンデーション Image-based global registration applied to bronchoscopy guidance
WO2012101888A1 (en) 2011-01-24 2012-08-02 オリンパスメディカルシステムズ株式会社 Medical device
US20120203067A1 (en) * 2011-02-04 2012-08-09 The Penn State Research Foundation Method and device for determining the location of an endoscope
WO2012108085A1 (en) * 2011-02-08 2012-08-16 オリンパスメディカルシステムズ株式会社 Medical device
JPWO2012108085A1 (en) * 2011-02-08 2014-07-03 オリンパスメディカルシステムズ株式会社 Medical equipment
JP2012165838A (en) * 2011-02-10 2012-09-06 Nagoya Univ Endoscope insertion support device
US10758212B2 (en) 2011-12-03 2020-09-01 Koninklijke Philips N.V. Automatic depth scrolling and orientation adjustment for semi-automated path planning
JP2017205582A (en) * 2011-12-03 2017-11-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Planning system and method
US20150085092A1 (en) * 2012-03-29 2015-03-26 Panasonic Healthcare Co., Ltd. Surgery assistance device and surgery assistance program
JP2014131551A (en) * 2013-01-07 2014-07-17 Akira Takebayashi Navigation device for endoscope
US10580153B2 (en) 2013-03-01 2020-03-03 Mo-Sys Engineering Limited Optical navigation and positioning system
US10275899B2 (en) 2013-03-01 2019-04-30 Mo-Sys Engineering Limited Optical navigation and positioning system
WO2014132090A3 (en) * 2013-03-01 2014-10-23 Michael Paul Alexander Geissler Optical navigation & positioning system
EP3376250A1 (en) * 2013-03-01 2018-09-19 Mo-Sys Engineering Limited Optical navigation & positioning system
CN104780826A (en) * 2013-03-12 2015-07-15 奥林巴斯株式会社 Endoscope system
US9326660B2 (en) 2013-03-12 2016-05-03 Olympus Corporation Endoscope system with insertion support apparatus
JP5718537B2 (en) * 2013-03-12 2015-05-13 オリンパスメディカルシステムズ株式会社 Endoscope system
WO2014141968A1 (en) * 2013-03-12 2014-09-18 オリンパスメディカルシステムズ株式会社 Endoscopic system
JP2014183924A (en) * 2013-03-22 2014-10-02 Advanced Telecommunication Research Institute International Brain activity measuring device and brain activity measurement method
JP5418952B1 (en) * 2013-03-22 2014-02-19 株式会社国際電気通信基礎技術研究所 Brain activity measuring device and brain activity measuring method
WO2014171391A1 (en) * 2013-04-15 2014-10-23 オリンパスメディカルシステムズ株式会社 Endoscope system
CN104755009A (en) * 2013-04-15 2015-07-01 奥林巴斯医疗株式会社 Endoscope system
US9357945B2 (en) 2013-04-15 2016-06-07 Olympus Corporation Endoscope system having a position and posture calculating portion
JP2014226430A (en) * 2013-05-24 2014-12-08 富士フイルム株式会社 Image display device, method and program
JP2017055954A (en) * 2015-09-16 2017-03-23 富士フイルム株式会社 Endoscope position locating apparatus, method, and program
JP7051286B2 (en) 2015-11-16 2022-04-11 バイオセンス・ウエブスター・(イスラエル)・リミテッド Transparency method applied locally to CT images
JP2017086917A (en) * 2015-11-16 2017-05-25 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. Locally applied transparency for ct image
JP2022141792A (en) * 2017-06-23 2022-09-29 オーリス ヘルス インコーポレイテッド Robotic systems for determining posture of medical device in luminal networks
JP2020524579A (en) * 2017-06-23 2020-08-20 オーリス ヘルス インコーポレイテッド Robot system for identifying the posture of a medical device in a lumen network
US11759266B2 (en) 2017-06-23 2023-09-19 Auris Health, Inc. Robotic systems for determining a roll of a medical device in luminal networks
US11183295B2 (en) 2017-08-31 2021-11-23 Gmeditec Co., Ltd. Medical image processing apparatus and medical image processing method which are for medical navigation device
KR20190024194A (en) * 2017-08-31 2019-03-08 (주)레벨소프트 Medical Image Processing Apparatus Using Augmented Reality and Medical Image Processing Method Using The Same
US11676706B2 (en) 2017-08-31 2023-06-13 Gmeditec Co., Ltd. Medical image processing apparatus and medical image processing method which are for medical navigation device
KR101977650B1 (en) * 2017-08-31 2019-05-13 (주)레벨소프트 Medical Image Processing Apparatus Using Augmented Reality and Medical Image Processing Method Using The Same
JPWO2019053935A1 (en) * 2017-09-14 2020-04-02 株式会社島津製作所 Radiography equipment
CN111050648A (en) * 2017-09-14 2020-04-21 株式会社岛津制作所 Radiographic apparatus
CN111050648B (en) * 2017-09-14 2024-02-20 株式会社岛津制作所 Radiographic apparatus
US11751835B2 (en) 2017-09-14 2023-09-12 Shimadzu Corporation Radiographic imaging apparatus
CN111278344A (en) * 2017-11-01 2020-06-12 索尼公司 Surgical arm system and surgical arm control system
CN111278344B (en) * 2017-11-01 2023-09-05 索尼公司 Surgical Arm System and Surgical Arm Control System
JPWO2019130868A1 (en) * 2017-12-25 2020-12-10 富士フイルム株式会社 Image processing equipment, processor equipment, endoscopic systems, image processing methods, and programs
WO2019130868A1 (en) * 2017-12-25 2019-07-04 富士フイルム株式会社 Image processing device, processor device, endoscope system, image processing method, and program
JP7050817B2 (en) 2017-12-25 2022-04-08 富士フイルム株式会社 Image processing device, processor device, endoscope system, operation method and program of image processing device
US10970875B2 (en) 2018-07-13 2021-04-06 Fujifilm Corporation Examination support device, examination support method, and examination support program
US11003946B2 (en) 2018-07-13 2021-05-11 Fujifilm Corporation Examination support device, examination support method, and examination support program
JP7071240B2 (en) 2018-07-26 2022-05-18 富士フイルム株式会社 Inspection support equipment, methods and programs
US10939800B2 (en) 2018-07-26 2021-03-09 Fujifilm Corporation Examination support device, examination support method, and examination support program
JP2020014711A (en) * 2018-07-26 2020-01-30 富士フイルム株式会社 Inspection support device, method, and program
CN109223177A (en) * 2018-07-30 2019-01-18 艾瑞迈迪医疗科技(北京)有限公司 Image display method, device, computer equipment and storage medium
JP7040630B2 (en) 2018-09-20 2022-03-23 日本電気株式会社 Position estimation device, position estimation method, and program
JPWO2020059377A1 (en) * 2018-09-20 2021-08-30 日本電気株式会社 Position estimation device, position estimation method, and program
WO2020059377A1 (en) * 2018-09-20 2020-03-26 日本電気株式会社 Position estimation device, position estimation method, and computer-readable recording medium
CN109934934B (en) * 2019-03-15 2023-09-29 广州九三致新科技有限公司 Medical image display method and device based on augmented reality
CN109934934A (en) * 2019-03-15 2019-06-25 广州九三致新科技有限公司 A kind of medical image display methods and device based on augmented reality
US11937767B2 (en) * 2019-07-18 2024-03-26 Hoya Corporation Endoscope
US20210393109A1 (en) * 2019-07-18 2021-12-23 Hoya Corporation Computer program and endoscope processor
CN112315582B (en) * 2019-08-05 2022-03-25 罗雄彪 Positioning method, system and device of surgical instrument
CN112315582A (en) * 2019-08-05 2021-02-05 罗雄彪 Positioning method, system and device of surgical instrument
JP7313512B2 (en) 2019-09-20 2023-07-24 Hoya株式会社 Endoscope processor, program, information processing method and information processing apparatus
JP7096445B2 (en) 2019-09-20 2022-07-05 Hoya株式会社 Endoscope processor, program, information processing method and information processing device
WO2021054360A1 (en) * 2019-09-20 2021-03-25 Hoya株式会社 Endoscope processor, program, information processing method, and information processing device
CN113544743A (en) * 2019-09-20 2021-10-22 Hoya株式会社 Processor for endoscope, program, information processing method, and information processing apparatus
JPWO2021054360A1 (en) * 2019-09-20 2021-12-23 Hoya株式会社 Endoscope processor, program, information processing method and information processing device
CN113544743B (en) * 2019-09-20 2024-03-12 Hoya株式会社 Endoscope processor, program, information processing method, and information processing device
JP7377769B2 (en) 2020-06-08 2023-11-10 Hoya株式会社 Program, information processing method, and information processing device
WO2021250951A1 (en) * 2020-06-08 2021-12-16 Hoya株式会社 Program, information processing method, and information processing device
CN112641514A (en) * 2020-12-17 2021-04-13 罗雄彪 Minimally invasive interventional navigation system and method
CN115024679A (en) * 2022-04-14 2022-09-09 中山大学孙逸仙纪念医院 Visual trachea cannula endoscope guide wire structure and management method of intelligent module thereof

Also Published As

Publication number Publication date
JP4171833B2 (en) 2008-10-29

Similar Documents

Publication Publication Date Title
JP4171833B2 (en) Endoscope guidance device and method
US9498132B2 (en) Visualization of anatomical data by augmented reality
US10881353B2 (en) Machine-guided imaging techniques
EP2950735B1 (en) Registration correction based on shift detection in image data
Li et al. Image-guided navigation of a robotic ultrasound probe for autonomous spinal sonography using a shadow-aware dual-agent framework
CN110464462B (en) Image navigation registration system for abdominal surgical intervention and related device
US10078906B2 (en) Device and method for image registration, and non-transitory recording medium
CN111588467B (en) Method for converting three-dimensional space coordinates into two-dimensional image coordinates based on medical images
WO2001057805A2 (en) Image data processing method and apparatus
CN109350059B (en) Combined steering engine and landmark engine for elbow auto-alignment
WO2020141021A1 (en) Determining a target position of an x-ray device
US7010175B2 (en) Method and apparatus for matching at least one visualized medical measured result with at least one further dataset containing spatial information
JP6215963B2 (en) Navigation using pre-acquired images
KR20160057024A (en) Markerless 3D Object Tracking Apparatus and Method therefor
JP6967983B2 (en) Image processing equipment, image processing methods, and programs
JP6476125B2 (en) Image processing apparatus and surgical microscope system
US20220249174A1 (en) Surgical navigation system, information processing device and information processing method
CN111743628A (en) Automatic puncture mechanical arm path planning method based on computer vision
CN114930390A (en) Method and apparatus for registering a medical image of a living subject with an anatomical model
Lin et al. Optimization model for the distribution of fiducial markers in liver intervention
US20230240755A1 (en) Systems and methods for registering one or more anatomical elements
US20220096165A1 (en) Interventional device tracking
CN116831729A (en) Instrument prompting method and system under surgical robot endoscope vision
Chemaly Multimodality image registration for visualization in robotic assisted breast biopsy
CN116457831A (en) System and method for generating virtual images

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20020416

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20020319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20020416

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20020416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050316

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080415

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080612

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080708

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20080627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080725

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees