JPH09131339A - Three-dimensional image processing device - Google Patents

Three-dimensional image processing device

Info

Publication number
JPH09131339A
JPH09131339A JP7294100A JP29410095A JPH09131339A JP H09131339 A JPH09131339 A JP H09131339A JP 7294100 A JP7294100 A JP 7294100A JP 29410095 A JP29410095 A JP 29410095A JP H09131339 A JPH09131339 A JP H09131339A
Authority
JP
Japan
Prior art keywords
viewpoint
organ
dimensional image
moving
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7294100A
Other languages
Japanese (ja)
Other versions
JP3654977B2 (en
Inventor
Kentarou Furuhata
賢太郎 古旗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Engineering Co Ltd filed Critical Toshiba Corp
Priority to JP29410095A priority Critical patent/JP3654977B2/en
Publication of JPH09131339A publication Critical patent/JPH09131339A/en
Application granted granted Critical
Publication of JP3654977B2 publication Critical patent/JP3654977B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve operability relating to move of a view point in a cavity of an internal organ for correctly and speedily grasp a three-dimensional structure inside the organ in a display image of three-dimensional image data. SOLUTION: A device is provided with a cross sectional data inputting device 1, a three-dimensional image composing unit 2, and a three-dimensional image observing device 3. The unit 2 is provided with a view point position moving part 9 at a required part in addition to specified parts 4-8. The view point position moving part 9 is provided with a minimum proximity distance designator 13 to hold a set distance value (minimum proximity distance Lmin) between a view point and an internal organ cavity surface SF, a view point moving direction designator 11 and a view point moving quantity designator 12 to designate data (moving direction M and moving quantity L) relating to a moving way of the view point while viewing a display image in a three-dimensional image, and a view point position calculator 15 to determine an operated distance value between the view point in the moving way and the internal organ cavity surface SF, and correct data relating to the moving way for maintaining the condition in which the operated distance value in the moving direction M is a set distance value or more.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、医用画像等を画
像処理する三次元画像処理装置に係り、特に臓器内腔の
三次元画像データを臓器内腔で定めた視点から見たとき
の立体画像作成と視点の移動位置補正に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional image processing apparatus for image processing medical images and the like, and more particularly to a three-dimensional image when three-dimensional image data of an organ lumen is viewed from a viewpoint defined by the organ lumen. Creation and correction of moving position of viewpoint.

【0002】[0002]

【従来の技術】従来、被検者の医用検査で生成されたX
線CT画像やMR画像等の二次元スライス画像(断層
像)データから三次元画像データを構築し、これを二次
元画面上に立体表示することにより、人体内の各臓器の
形状や大きさ等をその各臓器の外部から観察できる画像
処理装置が知られている。
2. Description of the Related Art Conventionally, an X generated by a medical examination of a subject.
By constructing three-dimensional image data from two-dimensional slice image (tomographic image) data such as line CT images and MR images and displaying this three-dimensionally on a two-dimensional screen, the shape and size of each organ in the human body, etc. There is known an image processing apparatus capable of observing the outside of each organ.

【0003】この画像処理装置には、特に近年、内部が
空洞である血管や胃等の臓器を対象とし、その臓器の内
部に視点を置き、その視点で定めた視線に沿った三次元
画像を構築し、これを電子内視鏡装置で観察される内視
鏡画像の如く、二次元画面上に立体表示させることによ
り、臓器内腔を観察できるものも知られている。
In particular, in recent years, this image processing apparatus targets an organ such as a blood vessel or a stomach whose interior is hollow, places a viewpoint inside the organ, and produces a three-dimensional image along a line of sight defined by the viewpoint. It is also known that the internal cavity of an organ can be observed by constructing it and displaying it stereoscopically on a two-dimensional screen like an endoscopic image observed by an electronic endoscope apparatus.

【0004】このように臓器内腔の様子を立体画像とし
て内視鏡的に表示させる画像処理装置の処理方法の一例
を説明する。
An example of the processing method of the image processing apparatus that endoscopically displays the state of the internal organ cavity as a stereoscopic image will be described.

【0005】まず、第1のステップで三次元画像データ
を構築する。即ち、複数枚の二次元スライス画像を用意
し、これら二次元スライス画像から対象部位の臓器及び
その輪郭部を個別に抽出し、この抽出データと元の二次
元スライス画像とから補間データを作成し、三次元画像
データ(ボリュームデータ)を構築する。
First, in the first step, three-dimensional image data is constructed. That is, a plurality of two-dimensional slice images are prepared, the organ of the target site and its contour portion are individually extracted from these two-dimensional slice images, and interpolation data is created from this extracted data and the original two-dimensional slice image. , 3D image data (volume data) is constructed.

【0006】次いで、第2のステップで三次元画像デー
タの立体画像を画面に表示する。即ち、三次元画像デー
タ上の臓器内腔に視点を置き、その視点の視線方向を設
定し、設定されている視点を中心として魚眼レンズ方式
で放射状方向に臓器表面までの距離を算出し、同様の距
離算出を投影対象の二次元投影面の全体で行い、算出し
た距離値を二次元投影面のデータとして格納する。この
距離値と、臓器表面における原画像の濃度勾配値とを用
いて、臓器表面の法線ベクトルを算出し、その算出した
法線ベクトルに基づいて投影像の陰影づけを行い、これ
をモニタの画面に表示する。
Then, in the second step, the stereoscopic image of the three-dimensional image data is displayed on the screen. That is, a viewpoint is placed in the organ lumen on the three-dimensional image data, the line-of-sight direction of the viewpoint is set, and the distance to the organ surface is calculated in the radial direction by the fisheye lens method with the set viewpoint as the center. The distance calculation is performed on the entire two-dimensional projection surface of the projection target, and the calculated distance value is stored as data of the two-dimensional projection surface. Using this distance value and the density gradient value of the original image on the organ surface, the normal vector of the organ surface is calculated, and the projected image is shaded based on the calculated normal vector, and this is displayed on the monitor. Display on screen.

【0007】次いで、第3のステップで臓器内腔で視点
を移動させたときの立体画像を画面に表示する。即ち、
視点の位置を視線方向に沿って平行に前後移動させ、モ
ニタの画面に相当する投影面を視線方向に対し垂直に前
後移動させると共に、移動後の視点から見たときの立体
画像を作成し、これら視点移動とその移動後の立体画像
作成とを交互に繰り返すことで、移動している視点から
見た臓器内腔の様子を立体画像として観察できるように
なっている。
Then, in the third step, a stereoscopic image obtained when the viewpoint is moved in the internal cavity of the organ is displayed on the screen. That is,
The position of the viewpoint is moved back and forth in parallel along the line-of-sight direction, the projection surface corresponding to the screen of the monitor is moved back and forth vertically to the direction of the line-of-sight, and a stereoscopic image when viewed from the moved viewpoint is created By alternately repeating the movement of the viewpoint and the creation of the stereoscopic image after the movement, the state of the organ lumen seen from the moving viewpoint can be observed as a stereoscopic image.

【0008】[0008]

【発明が解決しようとする課題】しかしながら、従来の
三次元画像処理装置にあっては、臓器内腔に視点を置い
た立体画像から内腔部分の情報のみを取得する構成であ
ったため、例えば血管内に置いた視点を前方または後方
に移動させようとすると、血管の凹凸部、湾曲部、分岐
部などの臓器内腔の位置によっては、視点そのものが内
壁中に入り込んでしまうことがあった。
However, in the conventional three-dimensional image processing apparatus, since only the information of the lumen portion is acquired from the stereoscopic image with the viewpoint of the organ lumen, for example, a blood vessel When the viewpoint placed inside is moved forward or backward, the viewpoint itself may get into the inner wall depending on the position of the internal cavity of the organ such as the uneven portion of the blood vessel, the curved portion, or the branch portion.

【0009】このように視点が内壁中に入り込んでいる
にもかかわらず、三次元画像処理装置にはこれを認識す
る機構がなかったため、操作者は視点の位置や視点の向
いている方向(操作者が見ている方向)の判断が困難と
なって、特に小さい臓器や細い管状の臓器については内
部の立体構造を正確に且つ素早く(操作性がよく)把握
できないことがあった。
As described above, even though the viewpoint has entered the inner wall, the operator does not have a mechanism for recognizing the viewpoint, so that the operator can detect the position of the viewpoint or the direction in which the viewpoint is facing (operation). It may be difficult to determine the direction in which a person is looking), and it may not be possible to accurately and quickly (with good operability) grasp the internal three-dimensional structure of a small organ or a thin tubular organ.

【0010】本発明は、上述した従来技術の問題を考慮
してなされたもので、臓器内腔における視点移動に関す
る操作性を改善し、三次元画像データの表示像上で臓器
内部の立体構造を正確に且つ迅速に把握できる三次元画
像処理装置を提供することを、目的とする。
The present invention has been made in consideration of the above-mentioned problems of the prior art, and improves the operability regarding the movement of the viewpoint in the internal cavity of the organ, and shows the three-dimensional structure inside the organ on the display image of the three-dimensional image data. It is an object to provide a three-dimensional image processing device that can be grasped accurately and quickly.

【0011】[0011]

【課題を解決するための手段】上記目的を達成させるた
め、請求項1記載の発明に係る三次元画像処理装置は、
被検体の対象部位に関する複数枚のスライス画像データ
から臓器内腔の表面形状データを含む三次元画像データ
を構築し且つその構築した三次元画像データを上記臓器
内腔で定めた視点から見たときの当該臓器内腔の立体画
像として表示するように形成した構成で、上記視点と上
記臓器内腔の表面との間の距離の設定値を保持する保持
手段と、上記立体画像の表示像を見ながら、上記視点の
移動方向を含む移動経路に関するデータを指定する指定
手段と、この指定手段が指定した上記移動経路に関する
データ及び上記表面形状データに基づいて上記移動方向
における上記視点と上記臓器内腔の表面との間の距離の
演算値を求める演算手段と、上記移動方向に従う移動経
路における上記距離の演算値が上記距離の設定値以上に
なる状態を維持するように上記移動経路に関するデータ
を補正する補正手段と、この補正手段が補正した上記移
動経路に沿って上記視点を移動させながら、その移動し
ている視点から見たときの上記臓器内腔の立体画像をリ
アルタイムにモニタに表示させる表示手段とを備えてい
る。
In order to achieve the above object, a three-dimensional image processing apparatus according to the invention of claim 1 is
When three-dimensional image data including the surface shape data of the organ lumen is constructed from a plurality of slice image data related to the target site of the subject and the constructed three-dimensional image data is viewed from the viewpoint defined by the organ lumen The display unit is configured to display a stereoscopic image of the internal organ lumen, and holds the set value of the distance between the viewpoint and the surface of the internal organ lumen. However, designating means for designating data regarding a moving path including the moving direction of the viewpoint, and the viewpoint and the organ lumen in the moving direction based on the data concerning the moving path and the surface shape data designated by the designating means. And a state in which the calculated value of the distance on the movement route along the movement direction is equal to or greater than the set value of the distance. As described above, the correction means for correcting the data relating to the movement path, and the three-dimensional shape of the organ lumen seen from the moving viewpoint while moving the viewpoint along the movement path corrected by the correction means. Display means for displaying an image on a monitor in real time.

【0012】請求項2記載の発明では、前記指定手段は
前記移動経路に関するデータを手動又は自動で指定する
手段である。
According to the second aspect of the invention, the designating means is means for manually or automatically designating the data relating to the movement route.

【0013】請求項3記載の発明では、前記距離の演算
値は前記移動方向における距離の演算値及び当該移動方
向に直交する方向における距離の演算値の内の少なくと
も1つを含んでいる。
In the invention according to claim 3, the calculated value of the distance includes at least one of a calculated value of the distance in the moving direction and a calculated value of the distance in a direction orthogonal to the moving direction.

【0014】請求項4記載の発明では、前記指定手段は
前記視点における視線方向の情報を指定する手段を備
え、前記補正手段は前記表面形状データに基づいて上記
視線方向の情報を補正する手段を備えている。
According to a fourth aspect of the invention, the designating means comprises means for designating the information on the line-of-sight direction at the viewpoint, and the correcting means comprises means for correcting the information on the line-of-sight direction based on the surface shape data. I have it.

【0015】請求項5記載の発明では、前記臓器内腔の
立体画像上に前記臓器内腔に隣接する別の臓器をカラー
合成する手段を更に備えている。
According to a fifth aspect of the invention, there is further provided means for color-synthesizing another organ adjacent to the organ lumen on the three-dimensional image of the organ lumen.

【0016】請求項6記載の発明では、前記臓器内腔の
立体画像における当該臓器内腔の表面の内の少なくとも
一部を削る手段を更に備えている。
According to a sixth aspect of the present invention, there is further provided means for shaving at least a part of the surface of the organ lumen in the stereoscopic image of the organ lumen.

【0017】請求項7記載の発明では、前記臓器内腔の
立体画像上に任意形状の三次元物体を配置する手段を更
に備えている。
According to a seventh aspect of the present invention, there is further provided means for arranging a three-dimensional object having an arbitrary shape on the three-dimensional image of the internal cavity of the organ.

【0018】請求項8記載の発明では、前記臓器内腔に
おける視点の位置を当該臓器の外部から見た立体画像上
にマーキング表示する手段を更に備えている。
The invention according to claim 8 further comprises means for displaying the position of the viewpoint in the internal cavity of the organ on a stereoscopic image viewed from the outside of the organ.

【0019】請求項9記載の発明では、前記臓器内腔に
おける前記視点の移動経路に関する概略位置を臓器外部
から見た立体画像上で指定する手段を更に備えている。
According to a ninth aspect of the present invention, there is further provided a means for designating a rough position of the movement path of the viewpoint in the internal organ space on a stereoscopic image viewed from outside the internal organ.

【0020】[0020]

【発明の実施の形態】以下、この発明の一実施形態を図
1〜図8に基づいて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below with reference to FIGS.

【0021】図1に示す三次元画像処理装置は、X線C
TスキャナやMRI等の断層撮影装置(医用画像診断装
置)で収集された人体の断層画像データを入力するため
の断層データ入力装置1と、この断層データ入力装置1
に入力された断層画像データに基づいて三次元画像デー
タを構築する三次元画像構築ユニット2と、この三次元
画像構築ユニット2で構築された三次元画像データに基
づく立体画像を表示するモニタ等の三次元画像観察装置
3とを備えている。
The three-dimensional image processing apparatus shown in FIG.
A tomographic data input device 1 for inputting tomographic image data of a human body collected by a tomographic imaging device (medical image diagnostic device) such as a T scanner or MRI, and this tomographic data input device 1
A three-dimensional image construction unit 2 that constructs three-dimensional image data based on the tomographic image data input to the monitor, and a monitor that displays a stereoscopic image based on the three-dimensional image data constructed by the three-dimensional image construction unit 2. The three-dimensional image observation device 3 is provided.

【0022】断層データ入力装置1は、例えば図示しな
い所定のコントローラの管理の元で動作する、断層画像
データを一時保管する画像メモリ、この画像メモリと医
用画像診断装置とを所定の通信回線を介してオンライン
で接続可能な画像データ用のインタフェース又は記録媒
体の画像データを所定のディスク駆動機構等で読取可能
な画像読取装置等を一体に搭載して成り、画像メモリに
入力された断層画像データを三次元画像構築ユニット2
に供給する。
The tomographic data input device 1 operates, for example, under the control of a predetermined controller (not shown), an image memory for temporarily storing tomographic image data, and the image memory and the medical image diagnostic device via a predetermined communication line. The interface for image data that can be connected online or the image reading device that can read the image data of the recording medium by a predetermined disk drive mechanism is integrally mounted, and the tomographic image data input to the image memory is stored. 3D image construction unit 2
To supply.

【0023】三次元画像構築ユニット2は、予め設定し
た画像処理に関する複数のアルゴリズムを個別に又は同
時並列的に実行可能なプロセッサを要部とした構成で、
例えば少なくとも1つのCPUを有するプロセッサ(図
示しない)、このプロセッサに対しオペレータが三次元
画像観察装置3の画面を見ながら操作指令を与えるため
のマウスやキーボード等の入力デバイス(図示しない)
等を備えている。
The three-dimensional image construction unit 2 has a main part of a processor capable of executing a plurality of preset image processing algorithms individually or simultaneously in parallel.
For example, a processor (not shown) having at least one CPU, and an input device (not shown) such as a mouse or a keyboard for an operator to give an operation command to the processor while looking at the screen of the three-dimensional image observation apparatus 3.
Etc. are provided.

【0024】この三次元画像構築ユニット2は、複数の
アルゴリズムがプログラムされるソフトウェア構成上、
断層データ補間部4、画像二値化・領域抽出部5、三次
元画像作成部6、視点位置指定部7、視線方向指定部
8、及び視点位置移動部9を備えている。これら各部4
〜9は、ハード構成上、必ずしも別体のプロセッサとし
て装備する必要はなく、例えば所定のプロセッサに一体
に搭載してもよい。
The three-dimensional image construction unit 2 has a software configuration in which a plurality of algorithms are programmed.
The tomographic data interpolation unit 4, the image binarization / region extraction unit 5, the three-dimensional image creation unit 6, the viewpoint position designation unit 7, the line-of-sight direction designation unit 8, and the viewpoint position movement unit 9 are provided. Each of these parts 4
Due to the hardware configuration, 9 to 9 do not necessarily have to be installed as separate processors, and may be integrated in a predetermined processor, for example.

【0025】断層データ補間部4は、断層データ入力装
置1に入力された複数枚の断層画像から三次元空間内に
おけるボリュームデータ(補間データ)を作成し、その
ボリュームデータを画像二値化・領域抽出部5に供給す
る。
The tomographic data interpolating unit 4 creates volume data (interpolation data) in a three-dimensional space from a plurality of tomographic images input to the tomographic data input device 1, and uses the volume data as an image binarization / region. It is supplied to the extraction unit 5.

【0026】画像二値化・領域抽出部5は、例えばCT
画像やMR画像などの医用画像の種類に応じた臓器の特
徴、例えば臓器の位置、大きさ、しきい値、エッジ、画
素値の分布統計量等に基づいて、ボリュームデータから
臓器内腔を二値化画像として抽出し、その二値化画像を
原画像と共に三次元画像作成部6に供給する。
The image binarization / region extraction unit 5 is, for example, a CT.
Based on the features of the organ corresponding to the type of medical image such as an image or an MR image, for example, the position, size, threshold value, edge, distribution statistic of pixel value of the organ, etc. It is extracted as a binarized image, and the binarized image is supplied to the three-dimensional image creation unit 6 together with the original image.

【0027】三次元画像作成部6は、画像二値化・領域
抽出部5からの臓器の二値化画像及び原画像(臓器の3
Dデータ)やオペレータからの指令(視点位置、視線方
向)を受け取るインタフェース等の入力部6aと、この
入力部6aのデータに投影・陰影処理(「レンダリン
グ」ともいう)を施す投影・陰影処理部6bと、この投
影・陰影処理部6bで処理されたデータを一時格納する
画像メモリ等の画像格納部6cとを備えている。
The three-dimensional image creating section 6 is a binarized image of the organ and the original image (3 of the organ) from the image binarizing / region extracting section 5.
D data) and an input unit 6a such as an interface for receiving a command (viewpoint position, line-of-sight direction) from an operator, and a projection / shadow processing unit that performs projection / shadow processing (also referred to as "rendering") on the data of the input unit 6a. 6b, and an image storage unit 6c such as an image memory for temporarily storing the data processed by the projection / shadow processing unit 6b.

【0028】投影・陰影処理部6aは、入力部6aから
入力されるデータに基づいて、臓器内腔で指示された視
点位置から魚眼レンズ方式で放射状に見たときの投影像
を作成し、この投影像に対し所定の陰影法(ボクセル法
など)により陰影づけを行い、その立体画像を画像格納
部6cを介して三次元画像観察装置3に供給する。
The projection / shadow processing unit 6a creates a projection image when viewed radially by the fisheye lens system from the viewpoint position designated by the internal organ cavity, based on the data input from the input unit 6a, and this projection The image is shaded by a predetermined shading method (voxel method or the like), and the stereoscopic image is supplied to the three-dimensional image observation apparatus 3 via the image storage unit 6c.

【0029】視点位置指定部7は、オペレータによりマ
ニュアルで又は視点位置移動部6により指示された視点
位置Pxの座標を設定し、その視点位置Pxの座標を三
次元画像作成部6に供給する。
The viewpoint position designating unit 7 sets the coordinates of the viewpoint position Px designated by the operator manually or by the viewpoint position moving unit 6, and supplies the coordinates of the viewpoint position Px to the three-dimensional image creating unit 6.

【0030】視線方向指定部8は、例えば図2に示す処
理を実行して、オペレータにより指示された視点位置P
xにおける視線方向ベクトルDを設定し、その視線方向
ベクトルDを三次元画像作成部6に供給する。
The line-of-sight direction designating section 8 executes, for example, the processing shown in FIG. 2 and the viewpoint position P designated by the operator.
The line-of-sight direction vector D at x is set, and the line-of-sight direction vector D is supplied to the three-dimensional image creation unit 6.

【0031】視点位置移動部9は、データ入力部10の
ほか、視点移動方向指定器11、視点移動量指定器1
2、最小接近距離指定器13、視点移動方法指定器1
4、及び視点位置算出器15を備えている。これら各指
定器11〜14及び算出器15は、ハード構成上、必ず
しも別体のプロセッサとして装備する必要はなく、例え
ば所定のプロセッサに一体に搭載してもよい。
The viewpoint position moving unit 9 includes a data input unit 10, a viewpoint moving direction designator 11, and a viewpoint moving amount designator 1.
2, minimum approach distance designator 13, viewpoint movement method designator 1
4 and the viewpoint position calculator 15. Each of the designators 11 to 14 and the calculator 15 does not necessarily have to be equipped as a separate processor because of the hardware configuration, and may be integrated in a predetermined processor, for example.

【0032】ここで、上記各指定器11〜14及び算出
器15の各処理例を中心として、この実施形態の全体の
作用を図2〜図8に基づき説明する。
Here, the overall operation of this embodiment will be described with reference to FIGS. 2 to 8, focusing on the respective processing examples of the designators 11 to 14 and the calculator 15.

【0033】最初に、三次元画像処理装置が起動して、
断層データ入力部1に入力された複数枚の断層画像デー
タが三次元画像構築システム2(断層データ補間部4、
画像二値化・領域抽出部5、三次元画像作成部6)を介
して臓器内腔の三次元画像データが構築され、その三次
元画像データが予め設定された視点及びその視線に沿っ
た臓器内腔の立体画像として三次元画像観察装置3に表
示されたとする。
First, the three-dimensional image processing apparatus is activated,
The three-dimensional image construction system 2 (the tomographic data interpolating unit 4,
3D image data of the organ lumen is constructed via the image binarization / region extraction section 5 and 3D image creation section 6), and the 3D image data is an organ along a preset viewpoint and its line of sight. It is assumed that it is displayed on the three-dimensional image observation device 3 as a stereoscopic image of the lumen.

【0034】ここで、立体画像の視点位置及びその視線
方向は、視点位置指定部7及び視線方向指定部8により
予め設定されている。
Here, the viewpoint position and the line-of-sight direction of the stereoscopic image are preset by the viewpoint position designating unit 7 and the line-of-sight direction designating unit 8.

【0035】図2は、視線方向指定部9による視線方向
設定例を説明するものである。即ち、ステップS1で臓
器内腔の三次元画像データ(3Dデータ)と視点位置の
データを入力すると、ステップS2にて臓器内腔の画像
上に視点位置を基準とした視線方向を示す矢印パターン
(図2中のパターン参照)を設定し、これを三次元画像
観察装置3に表示させる。
FIG. 2 illustrates an example of the line-of-sight direction setting by the line-of-sight direction designation unit 9. That is, when the three-dimensional image data (3D data) of the internal organ lumen and the viewpoint position data are input in step S1, the arrow pattern (indicated by the visual axis direction based on the viewpoint position on the image of the internal organ lumen) is input in step S2. 2) is set and displayed on the three-dimensional image observation apparatus 3.

【0036】次いで、ステップS3でオペレータによる
視線方向の指示を受け取る。例えば、オペレータが三次
元画像観察装置3の画面を見ながら、マウス(入力デバ
イス)を操作して矢印パターン上でカーソル位置を所望
の視線方向に合わせ、そのカーソル位置でマウスボタン
をクリックすることで視線方向の指示を受け取る。
Then, in step S3, an instruction of the line-of-sight direction from the operator is received. For example, while the operator looks at the screen of the three-dimensional image observing device 3, he / she operates the mouse (input device) to align the cursor position with a desired line-of-sight direction on the arrow pattern, and clicks the mouse button at the cursor position. Receives gaze direction instructions.

【0037】次いで、ステップS4で視点位置とカーソ
ル位置との距離演算値を求めると、ステップS5にてそ
の距離演算値分、カーソル位置の座標値を画面に垂直な
方向に移動させ、ステップS6で視点位置Pxから移動
後のカーソル位置に向かう視線方向ベクトルDを算出
し、その算出した視線方向ベクトルDをステップS7の
処理で三次元画像作成部6に供給する。
Next, when the distance calculation value between the viewpoint position and the cursor position is obtained in step S4, the coordinate value of the cursor position is moved by the distance calculation value in the direction perpendicular to the screen in step S5, and in step S6. The line-of-sight direction vector D from the viewpoint position Px toward the moved cursor position is calculated, and the calculated line-of-sight direction vector D is supplied to the three-dimensional image creation unit 6 in the process of step S7.

【0038】次いで、上記の立体画像が表示されている
状態において視点位置を移動させることを考える。この
視点位置移動に際して、視点位置移動部6が図3〜図8
に示す処理を実行する。
Next, consider moving the viewpoint position in the state where the stereoscopic image is displayed. At the time of moving the viewpoint position, the viewpoint position moving unit 6 is moved to the position shown in FIGS.
The processing shown in is performed.

【0039】図3は、視点移動方向指定器11の処理例
を説明するものである。即ち、視点移動方向指定器11
は、ステップS11にて臓器内部の立体画像及び視点位
置のデータを入力すると、ステップS12で臓器内腔の
立体画像上に視点の移動方向を示す矢印パターンを設定
し、これを三次元画像観察装置3に表示させる。
FIG. 3 illustrates an example of processing of the viewpoint moving direction designator 11. That is, the viewpoint movement direction designator 11
When the stereoscopic image of the inside of the organ and the data of the viewpoint position are input in step S11, an arrow pattern indicating the moving direction of the viewpoint is set on the stereoscopic image of the organ lumen in step S12, and this is set in the three-dimensional image observation apparatus. Display in 3.

【0040】この状態で、「マニュアル指定」が指示さ
れた場合にはステップS13に移行し、「自動指定」が
指示された場合にはステップS16に移行する。
In this state, if "manual designation" is instructed, the process proceeds to step S13, and if "automatic designation" is instructed, the process proceeds to step S16.

【0041】ここで、「マニュアル指定」の場合には、
ステップS13で視点移動方向の指示を受け取る。例え
ば、オペレータが三次元画像観察装置3の画面を見なが
ら、マウスを操作して画面上の矢印パターンに沿ってカ
ーソル位置を所望の移動方向に合わせ、そのカーソル位
置でマウスボタンをクリックすることで視点移動方向に
指示を受け取る。
Here, in the case of "manual designation",
In step S13, the instruction of the viewpoint moving direction is received. For example, while looking at the screen of the three-dimensional image observation device 3, the operator operates the mouse to align the cursor position with a desired moving direction along the arrow pattern on the screen, and clicks the mouse button at the cursor position. Receives an instruction in the direction of viewpoint movement.

【0042】次いで、ステップS14で視点位置とカー
ソル位置との距離演算値を求めると、ステップS15に
て移動方向ベクトルMを算出する。即ち、ステップS1
51で距離演算値分、カーソル位置の座標を画面に垂直
な方向に移動させ、ステップS152にて現在の視点位
置からカーソル位置に相当する移動後の視点位置に向け
た移動方向ベクトルMを算出する。
Next, when the distance calculation value between the viewpoint position and the cursor position is obtained in step S14, the moving direction vector M is calculated in step S15. That is, step S1
In 51, the coordinates of the cursor position are moved in the direction perpendicular to the screen by the distance calculation value, and in step S152, the moving direction vector M from the current viewpoint position to the moved viewpoint position corresponding to the cursor position is calculated. .

【0043】また、「自動指定」の場合には、ステップ
S16にて視点の前方又は後方の移動指示を受ける。こ
の前方又は後方の移動指示は、例えばオペレータが三次
元画像観察装置3の画面を見ながら、マウスを操作して
カーソル位置を画面上に表示された「前方移動」又は
「後方移動」の意味を示すソフトウェアキーのいずれか
一方に合わせ、そのカーソル位置でマウスボタンをクリ
ックすることで与えられる。
In the case of "automatic designation", the instruction to move the viewpoint forward or backward is received in step S16. This forward or backward movement instruction means, for example, that the operator operates the mouse while looking at the screen of the three-dimensional image observation apparatus 3 to move the cursor to the "forward movement" or "backward movement" displayed on the screen. It is given by aligning with one of the software keys shown and clicking the mouse button at the cursor position.

【0044】次いで、ステップS17で視点位置を画面
に垂直な方向に移動し、移動後の視点位置の座標を求め
ると、ステップS18にて移動前の視点位置の座標と移
動後の視点位置の座標とを結ぶ移動方向ベクトルMを算
出する。
Next, in step S17, the viewpoint position is moved in the direction perpendicular to the screen, and the coordinates of the viewpoint position after the movement are obtained. In step S18, the coordinates of the viewpoint position before the movement and the coordinates of the viewpoint position after the movement are calculated. A moving direction vector M connecting with and is calculated.

【0045】次いで、ステップS19にて上記ステップ
S15又はS18で算出した移動方向ベクトルMを視点
移動方法指定器14に供給する。
Then, in step S19, the moving direction vector M calculated in step S15 or S18 is supplied to the viewpoint moving method designator 14.

【0046】図4は、視点移動量指定器12による処理
例を説明するものである。即ち、ステップS21で1回
の操作で移動させる距離の入力モードを選択する。入力
モードには、「マニュアル入力」と「自動入力」とがあ
る。
FIG. 4 illustrates an example of processing by the viewpoint movement amount designator 12. That is, in step S21, the input mode of the distance to be moved by one operation is selected. The input mode includes “manual input” and “automatic input”.

【0047】「マニュアル入力」の場合は、例えば視点
移動量Lの入力モードを更に「mm単位」又は「ピクセ
ル単位」で選択可能となっており、その入力モードが選
択されると、ステップS22に移行し、選択された入力
モードで指定された視点移動量Lをシステム2内のソフ
トウェア上に予め設定された数値入力用領域(メモリ)
に入力する。
In the case of "manual input", for example, the input mode of the viewpoint movement amount L can be further selected in "mm unit" or "pixel unit". When the input mode is selected, the process proceeds to step S22. An area (memory) for shifting the viewpoint movement amount L specified in the selected input mode and preset in the software in the system 2
To enter.

【0048】また、「自動入力」の場合は、視点の移動
方向ベクトルの延長線上に存在する臓器表面SFの手前
で最小接近距離Lminだけ離れた位置まで移動可能と
なっており、ステップS23で視点移動方向の延長線上
に存在する臓器表面SFの点を求めると、ステップS2
4にて視点と臓器表面SFの点を結ぶ直線距離から最小
接近距離Lminを減算し、その減算値を視点移動量L
とする。
In the case of "automatic input", it is possible to move to a position separated by the minimum approach distance Lmin before the organ surface SF existing on the extension line of the moving direction vector of the viewpoint, and in step S23, the viewpoint is moved. When the point of the organ surface SF existing on the extension line of the moving direction is obtained, step S2
At 4, the minimum approach distance Lmin is subtracted from the straight line distance connecting the viewpoint and the point on the organ surface SF, and the subtracted value is the viewpoint movement amount L.
And

【0049】次いで、ステップS25にて上記ステップ
S22又はS24で設定された視点移動量Lを視点移動
方法指定器14に供給する。
Next, in step S25, the viewpoint moving amount L set in step S22 or S24 is supplied to the viewpoint moving method designator 14.

【0050】図5は、最小接近距離指定器13の処理例
を説明するものである。即ち、最小接近距離指定器13
は、ステップS31で視点Pxと臓器内腔の表面SFと
の間の最小接近距離Lmin(距離の設定値)の入力モ
ード、即ち「mm単位」又は「ピクセル単位」を選択す
る。ステップS32にて指示された最小接近距離Lmi
nをシステム2内のソフトウェア上に予め設定された数
値入力用領域(メモリ)に入力し、この最小接近距離L
minをステップS33にて出力する。
FIG. 5 illustrates an example of processing of the minimum approach distance designator 13. That is, the minimum approach distance designator 13
In step S31, the input mode of the minimum approach distance Lmin (set value of distance) between the viewpoint Px and the surface SF of the organ lumen, that is, "mm unit" or "pixel unit" is selected. Minimum approach distance Lmi instructed in step S32
n is input to a numerical value input area (memory) preset on the software in the system 2, and the minimum approach distance L
min is output in step S33.

【0051】図6は、視点移動方法指定器14の処理例
を説明するものである。即ち、視点移動方法指定器14
は、ステップS41で臓器の3Dデータ、視点位置P
x、視点移動方向M、視点移動量L、最小接近距離Lm
inの各データを上記各指定器から入力すると、ステッ
プS42にてオペレータからの視点移動モード、即ち
「指定方向移動」又は「内壁追従移動」の選択指示を受
ける。このステップS42で「指定方向移動」が選択さ
れるとステップS43に移行し、「内壁追従移動」が選
択されるとステップS44に移行し、両ステップS43
及びS44で夫々、上記各データを出力する。
FIG. 6 illustrates an example of processing of the viewpoint moving method designator 14. That is, the viewpoint movement method designator 14
Is the 3D data of the organ and the viewpoint position P in step S41.
x, viewpoint moving direction M, viewpoint moving amount L, minimum approach distance Lm
When each data of in is input from each of the above-mentioned designating devices, in step S42, the operator receives an instruction to select a viewpoint moving mode, that is, "designated direction movement" or "inner wall following movement". When "move in the designated direction" is selected in step S42, the process proceeds to step S43, and when "move inner wall following motion" is selected, the process proceeds to step S44 and both steps S43.
And S44, each of the above data is output.

【0052】図7及び図8は、視点位置算出器15の処
理例を説明するものである。この視点位置算出器15で
は、視点移動方法指定器14で指定された視点移動モー
ド、即ち「指定方向移動」及び「内壁追従移動」に応じ
た処理を実行する。
FIGS. 7 and 8 explain an example of processing of the viewpoint position calculator 15. The viewpoint position calculator 15 executes processing in accordance with the viewpoint movement mode designated by the viewpoint movement method designator 14, that is, "designated direction movement" and "inner wall following movement".

【0053】図7は、「指定方向移動」の場合の処理を
説明するものである。この場合にはは、指定位置算出器
15は、ステップS51にて視点移動方法指定器14か
ら臓器の3Dデータ、視点位置Px、視点移動方向ベク
トルM、視点移動量L、最小接近距離Lminの各デー
タを入力すると、ステップS52におけるステップS5
21及びS522にて視点の移動方向及びその移動方向
に直交する方向に対する視点接近距離計測と視点位置移
動に関する処理を実行する。
FIG. 7 is a flow chart for explaining the process in the case of "movement in the designated direction". In this case, the designated position calculator 15 receives the 3D data of the organ, the viewpoint position Px, the viewpoint movement direction vector M, the viewpoint movement amount L, and the minimum approach distance Lmin from the viewpoint movement method designator 14 in step S51. When data is input, step S5 in step S52
In S21 and S522, the processing for measuring the viewpoint approach distance and the viewpoint position movement in the moving direction of the viewpoint and the direction orthogonal to the moving direction is executed.

【0054】まず、ステップS521にてステップS1
00〜S102の各処理を実行して視点移動方向におけ
る視点接近距離を算出する。即ち、ステップS100に
て視点の移動方向ベクトルMに沿って現在の視点位置P
0を視点移動量L分だけ移動させ、その移動位置におけ
る新たな視点位置P1の三次元座標値を算出すると、ス
テップS101にて新たな視点位置P1と視点移動方向
に存在する臓器表面上の点aとの距離Lxを計測する。
First, in step S521, step S1
The viewpoint approach distance in the viewpoint moving direction is calculated by executing each processing of 00 to S102. That is, in step S100, the current viewpoint position P is calculated along the viewpoint moving direction vector M.
When 0 is moved by the amount of viewpoint movement L and the three-dimensional coordinate value of the new viewpoint position P1 at the moving position is calculated, the new viewpoint position P1 and a point on the surface of the organ existing in the viewpoint moving direction are calculated in step S101. The distance Lx from a is measured.

【0055】次いで、ステップS102にて距離Lxと
最小接近距離Lminとを比較し、その比較結果に応じ
て視点位置移動の有無を決定する。即ち、このステップ
S102の処理で距離演算値Lxが最小接近距離Lmi
nよりも小さい(Lx<Lmin)と判断した場合は、
新たな視点位置P1が点aに対して最小接近距離Lmi
nよりも接近した位置に存在しているため、新たな視点
位置P1への移動を回避し、現在の視点位置P0の座標
値を変更しない。従って、移動方向ベクトルMに沿う視
点移動を中止する(最小接近距離Lmin と等しくなる位
置まで位置を移動する(補正して移動))。
Next, in step S102, the distance Lx is compared with the minimum approach distance Lmin, and the presence or absence of the viewpoint position movement is determined according to the comparison result. That is, in the process of step S102, the distance calculation value Lx is the minimum approach distance Lmi.
When it is determined that it is smaller than n (Lx <Lmin),
The new viewpoint position P1 is the minimum approach distance Lmi to the point a.
Since it exists at a position closer than n, movement to a new viewpoint position P1 is avoided and the coordinate value of the current viewpoint position P0 is not changed. Therefore, the viewpoint movement along the movement direction vector M is stopped (the position is moved (corrected and moved) to a position equal to the minimum approach distance Lmin).

【0056】これとは逆に、ステップS102の処理で
距離Lxが最小接近距離Lmin以上(Lx≧Lmi
n)と判断した場合は、新たな視点位置P1が点aに対
して最小接近距離Lmin以上となる位置に存在してい
るため、新たな視点位置P1への移動を許容し、現在の
視点位置P0の座標値を新たに求めた視点位置P1の三
次元座標値に変更する。従って、移動方向ベクトルMに
沿う視点移動を実行する。
On the contrary, in the process of step S102, the distance Lx is the minimum approach distance Lmin or more (Lx ≧ Lmi
n), the new viewpoint position P1 is present at a position that is at least the minimum approach distance Lmin with respect to the point a, so movement to the new viewpoint position P1 is permitted, and the current viewpoint position P1 is allowed. The coordinate value of P0 is changed to the newly obtained three-dimensional coordinate value of the viewpoint position P1. Therefore, the viewpoint movement along the movement direction vector M is executed.

【0057】上記ステップS521の処理(S100〜
S102の各処理)が終了すると、ステップS522の
処理に移行し、ここでステップS103〜S105の各
処理を実行して視点の移動方向に直交する方向における
視点接近距離を算出する。
Processing of step S521 (S100-
When each process of S102) is completed, the process proceeds to step S522, where each process of steps S103 to S105 is executed to calculate the viewpoint approach distance in the direction orthogonal to the viewpoint moving direction.

【0058】即ち、ステップS103にて移動方向ベク
トルに直交する面内の視点位置Pxを中心とする放射方
向における最小接近距離Lminの範囲内に臓器表面S
F上の点bが存在するか否かを判断する。このステップ
S103で点bが存在すると判断した場合には、ステッ
プS104の処理に移行し、視点位置と臓器表面SF上
の点bとを結ぶベクトル上の最小接近距離Lminに相
当する位置に視点を移動させ、この移動位置における新
たな視点位置の三次元座標値を求め、更新する。
That is, in step S103, the organ surface S is within the range of the minimum approach distance Lmin in the radial direction centered on the viewpoint position Px in the plane orthogonal to the movement direction vector.
It is determined whether or not the point b on F exists. When it is determined in step S103 that the point b exists, the process proceeds to step S104, and the viewpoint is set at a position corresponding to the minimum approach distance Lmin on the vector connecting the viewpoint position and the point b on the organ surface SF. After moving, the three-dimensional coordinate value of the new viewpoint position at this moving position is obtained and updated.

【0059】ステップS105にて同様に視点を中心と
する放射方向の最小接近距離Lminの範囲内に存在す
る臓器表面SF上の点に対しても最小接近距離Lmin
となるように視点位置を移動させ、その移動位置におけ
る新たな視点位置の三次元座標値を求める。
Similarly, in step S105, the minimum approach distance Lmin is also applied to the point on the organ surface SF existing within the range of the minimum approach distance Lmin in the radial direction with the viewpoint as the center.
The viewpoint position is moved so that the three-dimensional coordinate value of the new viewpoint position at the moved position is obtained.

【0060】上記ステップS52(S521及びS52
2)の処理が終了すると、ステップS53に移行し、視
点位置の座標値を視点位置指定部7を介して三次元画像
作成部6に出力する。
Step S52 (S521 and S52)
When the process of 2) ends, the process proceeds to step S53, and the coordinate value of the viewpoint position is output to the three-dimensional image creation unit 6 via the viewpoint position designation unit 7.

【0061】図8は、「内壁追従移動」の場合の処理を
説明するものである。この場合には、指定位置算出器1
5は、ステップS61で視点移動方法指定器14から臓
器の3Dデータ、視点位置P、視点移動方向ベクトル
M、視点移動量L、最小接近距離Lminの各データを
入力すると、ステップS62にてステップS110〜S
118の各処理を実行する。
FIG. 8 illustrates the processing in the case of "inner wall following movement". In this case, the designated position calculator 1
In step S61, 5 inputs the 3D data of the organ, the viewpoint position P, the viewpoint moving direction vector M, the viewpoint moving amount L, and the minimum approach distance Lmin from the viewpoint moving method designator 14, and then in step S62, step S110. ~ S
Each processing of 118 is performed.

【0062】即ち、ステップS110にて視点の移動方
向ベクトルMに直交する面MP内の視点位置Pxを中心
とする放射方向R…Rのおける視点Pxと臓器表面SF
上の点bとの間の各距離の演算値を求めると、ステップ
S111にて求めた各距離の演算値の内の最も小さい演
算値Lb(設定値)をもつ点b、即ち視点から最も近い
点bを調べる。
That is, in step S110, the viewpoint Px and the organ surface SF in the radial direction R ... R centering on the viewpoint position Px in the plane MP orthogonal to the viewpoint moving direction vector M are examined.
When the calculated value of each distance to the upper point b is obtained, the point b having the smallest calculated value Lb (set value) among the calculated values of each distance obtained in step S111, that is, the closest point from the viewpoint. Examine point b.

【0063】次いで、ステップS112にて臓器の3D
データに基づいて、点bの位置における臓器表面SFの
法線ベクトルを算出すると、ステップS113にて視点
位置を法線ベクトル上の上記ステップS111で求めた
距離値Lbに相当する位置に移動させ、その移動位置の
三次元座標値を算出する。
Then, in step S112, 3D of the organ
When the normal vector of the organ surface SF at the position of the point b is calculated based on the data, the viewpoint position is moved to a position on the normal vector corresponding to the distance value Lb obtained in the above step S111 in step S113, The three-dimensional coordinate value of the moving position is calculated.

【0064】次いで、ステップS114にて臓器の3D
データ上で点bの近傍位置を調べ、立体画像の表示され
ている画面に垂直な方向に存在する臓器表面SF上の点
を調べる。ステップS115にて臓器表面SF上の点の
中から、視点の移動方向ベクトル上に存在する点で最も
近い点を調べる。
Next, in step S114, 3D of the organ
The position near the point b is checked on the data, and the point on the organ surface SF existing in the direction perpendicular to the screen on which the stereoscopic image is displayed is checked. In step S115, the point closest to the point existing on the moving direction vector of the viewpoint is examined from the points on the organ surface SF.

【0065】次いで、ステップS116にて臓器の3D
データに基づいて、臓器表面SFの法線ベクトルを算出
する。ステップS117にて求めた法線ベクトル上に存
在し、表面と視点の間の距離が上記ステップS111で
求めた距離Lbと等しくなる位置に視点位置を移動す
る。
Next, in step S116, 3D of the organ
The normal vector of the organ surface SF is calculated based on the data. The viewpoint position is moved to a position that exists on the normal vector obtained in step S117 and the distance between the surface and the viewpoint is equal to the distance Lb obtained in step S111.

【0066】次いで、ステップS118にて上記ステッ
プS114〜S117までの各処理を移動前と移動後の
視点の間の距離(表面距離)が入力された視点移動量L
と等しくなるまで、繰り返し行う。
Then, in step S118, the distance L between the viewpoints (surface distance) between the viewpoints before and after the steps S114 to S117 is input.
Repeat until it is equal to.

【0067】上記ステップS62(S110〜S11
8)の処理が終了すると、ステップS63の処理に移行
し、視点位置の座標値を視点位置指定部7を介して三次
元画像作成部6に出力する。
Step S62 (S110 to S11)
When the process of 8) ends, the process moves to the process of step S63, and the coordinate value of the viewpoint position is output to the three-dimensional image creating unit 6 via the viewpoint position specifying unit 7.

【0068】このように「指定方向移動」又は「内壁追
従移動」のいずれの移動モードにおいても、三次元画像
作成部6では、臓器内腔の形状に応じて上記の如く新た
に設定された視点位置から見た立体画像を作成し、これ
を三次元画像観察装置3に供給する。
In this way, in any of the movement modes of "specified direction movement" and "inner wall following movement", the three-dimensional image creating section 6 newly sets the viewpoint as described above according to the shape of the internal organ cavity. A three-dimensional image viewed from the position is created and supplied to the three-dimensional image observation device 3.

【0069】従って、この実施形態に係る三次元画像処
理装置にあっては、視点移動時には臓器内腔の表面まで
の距離を視点の位置からチェックし、視点の進もうとす
る方向の一定距離内に表面が存在する場合には、視点位
置がそれ以上臓器に近づかないよう移動範囲を制御した
ため、臓器内腔の内壁形状に沿って視点を自動的に移動
させることができ、従来のように視点が内壁の内に入り
込む事態を殆ど回避できる。
Therefore, in the three-dimensional image processing apparatus according to this embodiment, when the viewpoint is moved, the distance to the surface of the organ lumen is checked from the position of the viewpoint, and within a certain distance in the direction in which the viewpoint is going to advance. When there is a surface on the inside of the organ, the movement range is controlled so that the viewpoint position does not approach the organ anymore, so the viewpoint can be automatically moved along the inner wall shape of the organ lumen. It is possible to almost avoid the situation where the car gets inside the inner wall.

【0070】これにより、オペレータは、視点移動時に
視点位置及びその視線方向の指定に関する比較的難しい
操作をわざわざその都度、行わなくても、例えば視点の
前後動の指定等の比較的簡単な操作を行うだけで、所望
の視点位置から見た立体画像を内視鏡画像を見る如く観
察できるため、電子内視鏡と同等の操作感を比較的簡単
な操作で実現でき、臓器内腔の形態情報を正確に把握で
きる。
As a result, the operator does not have to perform a relatively difficult operation regarding the viewpoint position and the direction of the line of sight when moving the viewpoint, but can perform a relatively simple operation such as specifying the forward and backward movement of the viewpoint. Just by doing, you can observe the stereoscopic image seen from the desired viewpoint position as if you were looking at the endoscopic image, so you can achieve the same operational feeling as an electronic endoscope with a relatively simple operation, and the morphological information of the organ lumen Can be grasped accurately.

【0071】なお、上記実施形態に係る三次元画像処理
装置は、視点位置の移動経路を制御する構成としたが、
視点位置だけでなく視線方向についても臓器内腔の内壁
形状に沿って制御してもよい。
Although the three-dimensional image processing apparatus according to the above embodiment is configured to control the moving path of the viewpoint position,
Not only the viewpoint position but also the line-of-sight direction may be controlled along the shape of the inner wall of the organ lumen.

【0072】この場合には、例えば視点の移動経路に存
在する物体表面の法線ベクトルを求め、その物体表面か
らの法線ベクトルと平行な二次元平面を求め、その二次
元平面と直交するベクトルを算出するアルゴリズムを実
行する手段を設けることで、視点移動時における視点の
視線方向を臓器内腔の内壁形状に沿った所望の角度に補
正できる。これにより、上記効果に加え、視点移動時に
常に臓器内腔の内壁形状に沿った見やすい方向から臓器
内腔の形態情報を観察できる利点がある。
In this case, for example, a normal vector of the object surface existing in the movement path of the viewpoint is obtained, a two-dimensional plane parallel to the normal vector from the object surface is obtained, and a vector orthogonal to the two-dimensional plane is obtained. By providing a means for executing the algorithm for calculating, it is possible to correct the line-of-sight direction of the viewpoint at the time of moving the viewpoint to a desired angle along the inner wall shape of the organ lumen. As a result, in addition to the above effects, there is an advantage that the morphological information of the organ lumen can always be observed from the easy-to-see direction along the inner wall shape of the organ lumen when moving the viewpoint.

【0073】次に、この発明の応用例を図9に基づいて
説明する。この応用例は、上記構成に加え、治療計画支
援用の各種ツールを搭載したものである。
Next, an application example of the present invention will be described with reference to FIG. In this application example, in addition to the above configuration, various tools for supporting a treatment plan are installed.

【0074】図9に示す三次元画像処理装置は、上記と
同等の断層データ入力装置20と、治療計画支援用ツー
ル(臓器表面形状加工部及び物体挿入配置部)を更に搭
載した三次元画像構築ユニット30と、上記三次元画像
観察装置と同等の構成に加え治療計画支援用ツール(カ
ラー合成部)を一体に搭載した三次元画像合成観察装置
40とを備えている。
The three-dimensional image processing apparatus shown in FIG. 9 further comprises a tomographic data input apparatus 20 equivalent to the above, and a three-dimensional image construction further equipped with a treatment planning support tool (organ surface shape processing section and object insertion placement section). A unit 30 and a three-dimensional image synthesizing and observing device 40 in which a treatment plan support tool (color synthesizing unit) is integrally mounted in addition to the same configuration as the above three-dimensional image observing device are provided.

【0075】三次元画像構築ユニット30は、上記と同
等の構成(断層データ補間部31、画像二値化・領域抽
出部32、三次元画像作成部33、視点位置指定部(図
示しない)、視線方向指定部34、視点位置移動部3
5)に加え、治療計画支援用ツールとしての臓器表面形
状加工部36及び物体挿入配置部37を装備している。
The three-dimensional image construction unit 30 has the same configuration as that described above (a tomographic data interpolation unit 31, an image binarization / region extraction unit 32, a three-dimensional image creation unit 33, a viewpoint position designation unit (not shown), and a line of sight). Direction designation unit 34, viewpoint position movement unit 3
In addition to 5), it is equipped with an organ surface shape processing unit 36 and an object insertion placement unit 37 as a treatment planning support tool.

【0076】この内、臓器表面形状加工部36は、立体
画像上で関心部位の臓器表面を削るアルゴリズムを実行
可能なプロセッサ等から成り、例えば指示された内壁表
面の一部を削り、その削った位置に例えば三次元画像合
成観察装置40により病巣部をカラー合成するようにな
っている。従って、オペレータは臓器内腔における病巣
部の位置関係を容易に把握できる。
Of these, the organ surface shape processing unit 36 is composed of a processor capable of executing an algorithm for shaving an organ surface of a region of interest on a three-dimensional image. For example, a part of the instructed inner wall surface is shaving and the shaving is performed. At the position, for example, the lesion area is color-synthesized by the three-dimensional image synthesis observation device 40. Therefore, the operator can easily grasp the positional relationship of the lesion in the internal organ cavity.

【0077】三次元物体挿入配置部38は、臓器内腔に
任意形状の三次元物体を配置するアルゴリズムを実行可
能なプロセッサ等から成り、例えば動脈瘤などの内腔に
対して球状の詰め物を挿入配置するようになっている
(この処理を「エンボライゼーション」とも呼ぶ)。
The three-dimensional object insertion / arrangement unit 38 is composed of a processor capable of executing an algorithm for arranging a three-dimensional object having an arbitrary shape in the internal cavity of an organ, and inserts a spherical filler into the internal cavity such as an aneurysm. It is arranged (this process is also referred to as “emvolution”).

【0078】三次元画像合成観察装置40は、複数の三
次元画像を互いにカラー合成するアルゴリズムを実行可
能なプロセッサ等から成るカラー合成部(図示しない)
を一体に搭載し、対象臓器の内腔に存在する腫瘍などの
他の臓器を不透明又は半透明のカラー画像として合成表
示させる。
The three-dimensional image synthesizing and observing device 40 is a color synthesizing unit (not shown) including a processor capable of executing an algorithm for color synthesizing a plurality of three-dimensional images with each other.
Is integrally mounted, and other organs such as a tumor existing in the lumen of the target organ are compositely displayed as an opaque or translucent color image.

【0079】従って、この応用例に係る三次元画像処理
装置では、上記の臓器内腔の形態情報を観察する利点に
加え、他の臓器との位置関係、カラー合成表示、治療計
画等の実際の処置に適した処理などが可能となり、診断
・治療の分野における応用範囲をより一層拡大させるこ
とができる。
Therefore, in addition to the advantage of observing the morphological information of the internal organ cavity described above, the three-dimensional image processing apparatus according to this application example has a real relationship with other organs such as a positional relationship with other organs, color composite display, and treatment planning. It becomes possible to perform a treatment suitable for treatment, and the range of application in the fields of diagnosis and treatment can be further expanded.

【0080】なお、治療計画支援用ツールは、上記構成
に限定されるものでなく、例えば臓器内腔を移動してい
る視点の位置を臓器外部から見た立体画像、例えば頭蓋
骨と脳血管との半透明合成画像上に球等のマーキングと
して合成表示(半透明合成表示)するためのツールや、
臓器内腔を移動させるための視点の大まかな位置(概略
位置)を臓器外部から見た立体画像、例えば血管表面の
立体画像上で直接指定するためのツールを加えてもよ
い。
Note that the treatment planning support tool is not limited to the above-mentioned configuration, and for example, a stereoscopic image of the position of the viewpoint moving in the organ lumen from the outside of the organ, for example, a skull and a cerebral blood vessel. A tool for composite display (semi-transparent composite display) as markings of spheres etc. on the semi-transparent composite image,
A tool for directly designating a rough position (general position) of the viewpoint for moving the internal organ cavity on a stereoscopic image viewed from the outside of the organ, for example, a stereoscopic image of the blood vessel surface may be added.

【0081】[0081]

【発明の効果】以上説明したように、本発明に係る三次
元画像処理装置によると、視点と臓器内腔の表面との間
の距離の設定値を保持し、立体画像の表示像を見なが
ら、視点の移動方向を含む移動経路に関するデータを指
定し、移動経路に関するデータ及び臓器内腔の表面形状
データに基づいて移動方向における視点と臓器内腔の表
面との間の距離の演算値を求め、移動方向に従う移動経
路における距離の演算値が距離の設定値以上になる状態
を維持するように移動経路に関するデータを補正し、そ
の補正した移動経路に沿って視点を移動させながら、そ
の移動している視点から見たときの臓器内腔の立体画像
をリアルタイムにモニタに表示させたため、臓器内腔の
表面形状に沿って視点を移動させることができ、これに
より、従来のように視点が内壁の内に入り込む事態を殆
ど回避できると共、臓器内腔における視点移動に関する
操作性を大幅に高め、臓器内腔の形態情報を比較的簡単
に且つ容易に取得できる。
As described above, according to the three-dimensional image processing apparatus of the present invention, the set value of the distance between the viewpoint and the surface of the organ lumen is held and the stereoscopic image is displayed while being viewed. , Specify the data related to the moving path including the moving direction of the viewpoint, and calculate the calculated value of the distance between the viewpoint and the surface of the internal organ lumen in the moving direction based on the data about the moving path and the surface shape data of the organ lumen. , Correct the data related to the moving route so that the calculated value of the distance on the moving route according to the moving direction becomes equal to or larger than the set value of the distance, and move the viewpoint while moving the viewpoint along the corrected moving route. Since the stereoscopic image of the internal organ lumen when viewed from the viewpoint is displayed on the monitor in real time, it is possible to move the viewpoint along the surface shape of the internal organ lumen. When the points can be avoided almost a situation from entering within the inner wall co, greatly enhances the operability related to the viewpoint moving in organ lumen, it can be relatively simple and easy to obtain the form information of an organ lumen.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施形態に係る三次元画像処理装置
の全体構成を示す概略ブロック図。
FIG. 1 is a schematic block diagram showing the overall configuration of a three-dimensional image processing apparatus according to an embodiment of the present invention.

【図2】視線方向指定部の処理概念を示す概略フローチ
ャート。
FIG. 2 is a schematic flowchart showing a processing concept of a line-of-sight direction designating unit.

【図3】視点移動方向指定器の処理概念を示す概略フロ
ーチャート。
FIG. 3 is a schematic flowchart showing a processing concept of a viewpoint movement direction designator.

【図4】視点移動量指定器の処理概念を示す概略フロー
チャート。
FIG. 4 is a schematic flowchart showing a processing concept of a viewpoint movement amount designator.

【図5】最小接近距離指定器の処理概念を示す概略フロ
ーチャート。
FIG. 5 is a schematic flowchart showing a processing concept of a minimum approach distance designator.

【図6】視点移動方法指定器の処理概念を示す概略フロ
ーチャート。
FIG. 6 is a schematic flowchart showing a processing concept of a viewpoint movement method designator.

【図7】視点位置算出器の「指定方向移動」の場合の処
理概念を示す概略フローチャート。
FIG. 7 is a schematic flowchart showing a processing concept in the case of “movement in a designated direction” of the viewpoint position calculator.

【図8】視点位置算出器の「内壁追従移動」の場合の処
理概念を示す概略フローチャート。
FIG. 8 is a schematic flowchart showing a processing concept in the case of “inner wall following movement” of the viewpoint position calculator.

【図9】応用例に係る三次元画像処理装置の全体構成を
示す概略ブロック図。
FIG. 9 is a schematic block diagram showing the overall configuration of a three-dimensional image processing apparatus according to an application example.

【符号の説明】[Explanation of symbols]

1 断層データ入力装置 2 三次元画像構築システム 3 三次元画像観察システム 4 断層データ補間部 5 画像二値化・領域抽出部 6 三次元画像作成部 7 視点位置指定部 8 視線方向指定部 9 視点位置移動部 10 データ入力部 11 視点移動方向指定器 12 視点移動量指定器 13 最小接近距離指定器 14 視点移動方法指定器 15 視点位置算出器 1 tomographic data input device 2 3D image construction system 3 3D image observation system 4 tomographic data interpolation unit 5 image binarization / region extraction unit 6 3D image creation unit 7 viewpoint position designation unit 8 gaze direction designation unit 9 viewpoint position Moving part 10 Data input part 11 Viewpoint moving direction designator 12 Viewpoint moving amount designator 13 Minimum approach distance designator 14 Viewpoint moving method designator 15 Viewpoint position calculator

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06F 15/66 B ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location G06F 15/66 B

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 被検体の対象部位に関する複数枚のスラ
イス画像データから臓器内腔の表面形状データを含む三
次元画像データを構築し且つその構築した三次元画像デ
ータを上記臓器内腔で定めた視点から見たときの当該臓
器内腔の立体画像として表示するように形成した三次元
画像処理装置において、 上記視点と上記臓器内腔の表面との間の距離の設定値を
保持する保持手段と、上記立体画像の表示像を見なが
ら、上記視点の移動方向を含む移動経路に関するデータ
を指定する指定手段と、この指定手段が指定した上記移
動経路に関するデータ及び上記表面形状データに基づい
て上記移動方向における上記視点と上記臓器内腔の表面
との間の距離の演算値を求める演算手段と、上記移動方
向に従う移動経路における上記距離の演算値が上記距離
の設定値以上になる状態を維持するように上記移動経路
に関するデータを補正する補正手段と、この補正手段が
補正した上記移動経路に沿って上記視点を移動させなが
ら、その移動している視点から見たときの上記臓器内腔
の立体画像をリアルタイムにモニタに表示させる表示手
段とを備えたことを特徴とする三次元画像処理装置。
1. Constructing three-dimensional image data including surface shape data of an organ lumen from a plurality of slice image data relating to a target region of a subject, and defining the constructed three-dimensional image data in the organ lumen. In a three-dimensional image processing device formed so as to be displayed as a stereoscopic image of the organ lumen when viewed from a viewpoint, a holding unit that holds a set value of a distance between the viewpoint and the surface of the organ lumen. , A designation means for designating data relating to a movement route including a movement direction of the viewpoint while looking at the display image of the stereoscopic image, and the movement based on the data relating to the movement route designated by the designation means and the surface shape data. And a calculation means for calculating a calculation value of a distance between the viewpoint and the surface of the organ lumen in a direction, and a calculation value of the distance in a movement path according to the movement direction is Correcting means for correcting the data relating to the moving route so as to maintain the state of being equal to or larger than the set value of the distance, and the moving viewpoint while moving the viewpoint along the moving route corrected by the correcting means. A three-dimensional image processing apparatus, comprising: a display unit that displays a three-dimensional image of the internal organ lumen when viewed from above on a monitor in real time.
【請求項2】 前記指定手段は、前記移動経路に関する
データを手動又は自動で指定する手段である請求項1記
載の三次元画像処理装置。
2. The three-dimensional image processing apparatus according to claim 1, wherein the designation unit is a unit that manually or automatically designates the data regarding the movement route.
【請求項3】 前記距離の演算値は、前記移動方向にお
ける距離の演算値及び当該移動方向に直交する方向にお
ける距離の演算値の内の少なくとも1つを含む請求項2
記載の三次元画像処理装置。
3. The calculated value of the distance includes at least one of a calculated value of the distance in the moving direction and a calculated value of the distance in a direction orthogonal to the moving direction.
The three-dimensional image processing device described.
【請求項4】 前記指定手段は前記視点における視線方
向の情報を指定する手段を備え、前記補正手段は前記表
面形状データに基づいて上記視線方向の情報を補正する
手段を備えた請求項1記載の三次元画像処理装置。
4. The designating means comprises means for designating information on the line-of-sight direction at the viewpoint, and the correcting means comprises means for correcting the line-of-sight direction information based on the surface shape data. 3D image processing device.
【請求項5】 前記臓器内腔の立体画像上に前記臓器内
腔に隣接する別の臓器をカラー合成する手段を更に備え
た請求項1記載の三次元画像処理装置。
5. The three-dimensional image processing apparatus according to claim 1, further comprising means for color-synthesizing another organ adjacent to the organ lumen on the three-dimensional image of the organ lumen.
【請求項6】 前記臓器内腔の立体画像における当該臓
器内腔の表面の内の少なくとも一部を削る手段を更に備
えた請求項1記載の三次元画像処理装置。
6. The three-dimensional image processing apparatus according to claim 1, further comprising means for shaving at least a part of the surface of the organ lumen in the stereoscopic image of the organ lumen.
【請求項7】 前記臓器内腔の立体画像上に任意形状の
三次元物体を配置する手段を更に備えた請求項1記載の
三次元画像処理装置。
7. The three-dimensional image processing apparatus according to claim 1, further comprising means for arranging a three-dimensional object having an arbitrary shape on the three-dimensional image of the internal cavity of the organ.
【請求項8】 前記臓器内腔における視点の位置を当該
臓器の外部から見た立体画像上にマーキング表示する手
段を更に備えた請求項1記載の三次元画像処理装置。
8. The three-dimensional image processing apparatus according to claim 1, further comprising means for marking and displaying a position of a viewpoint in the internal cavity of the organ on a stereoscopic image viewed from the outside of the organ.
【請求項9】 前記臓器内腔における前記視点の移動経
路に関する概略位置を臓器外部から見た立体画像上で指
定する手段を更に備えた請求項1記載の三次元画像処理
装置。
9. The three-dimensional image processing apparatus according to claim 1, further comprising means for designating a rough position of the movement path of the viewpoint in the internal organ cavity on a stereoscopic image viewed from outside the organ.
JP29410095A 1995-11-13 1995-11-13 3D image processing device Expired - Lifetime JP3654977B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29410095A JP3654977B2 (en) 1995-11-13 1995-11-13 3D image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29410095A JP3654977B2 (en) 1995-11-13 1995-11-13 3D image processing device

Publications (2)

Publication Number Publication Date
JPH09131339A true JPH09131339A (en) 1997-05-20
JP3654977B2 JP3654977B2 (en) 2005-06-02

Family

ID=17803293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29410095A Expired - Lifetime JP3654977B2 (en) 1995-11-13 1995-11-13 3D image processing device

Country Status (1)

Country Link
JP (1) JP3654977B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120327A (en) * 1997-10-17 1999-04-30 Toshiba Iyou System Engineering Kk Image processor
JP2002183759A (en) * 2000-12-11 2002-06-28 Toshiba Corp Three-dimensional image recording/reproducing system and three-dimensional image recording method
JP2004180715A (en) * 2002-11-29 2004-07-02 Toshiba Corp X-ray computed tomography apparatus
JP2005514086A (en) * 2001-12-20 2005-05-19 シーメンス コーポレイト リサーチ インコーポレイテツド Automatic navigation for virtual endoscopy
JP2006288495A (en) * 2005-04-06 2006-10-26 Toshiba Corp Image processor
JP2009078161A (en) * 2008-11-21 2009-04-16 Hitachi Medical Corp Image diagnosis supporting device
JP2010507150A (en) * 2006-10-11 2010-03-04 ダッソー システムズ 3D image tracking method
JP2013090937A (en) * 2012-12-27 2013-05-16 Toshiba Corp Image processing apparatus
JP2014100215A (en) * 2012-11-19 2014-06-05 Toshiba Corp Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing program
JP6737542B1 (en) * 2019-10-07 2020-08-12 三菱電機株式会社 Virtual camera control device, virtual camera control method, and virtual camera control program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120327A (en) * 1997-10-17 1999-04-30 Toshiba Iyou System Engineering Kk Image processor
JP2002183759A (en) * 2000-12-11 2002-06-28 Toshiba Corp Three-dimensional image recording/reproducing system and three-dimensional image recording method
JP4664485B2 (en) * 2000-12-11 2011-04-06 株式会社東芝 3D image recording system and 3D image recording method
JP2005514086A (en) * 2001-12-20 2005-05-19 シーメンス コーポレイト リサーチ インコーポレイテツド Automatic navigation for virtual endoscopy
CN1312639C (en) * 2001-12-20 2007-04-25 美国西门子医疗解决公司 Automatic navigation for virtual endoscopy
JP2004180715A (en) * 2002-11-29 2004-07-02 Toshiba Corp X-ray computed tomography apparatus
JP2006288495A (en) * 2005-04-06 2006-10-26 Toshiba Corp Image processor
JP4653542B2 (en) * 2005-04-06 2011-03-16 株式会社東芝 Image processing device
JP2010507150A (en) * 2006-10-11 2010-03-04 ダッソー システムズ 3D image tracking method
JP2009078161A (en) * 2008-11-21 2009-04-16 Hitachi Medical Corp Image diagnosis supporting device
JP2014100215A (en) * 2012-11-19 2014-06-05 Toshiba Corp Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing program
JP2013090937A (en) * 2012-12-27 2013-05-16 Toshiba Corp Image processing apparatus
JP6737542B1 (en) * 2019-10-07 2020-08-12 三菱電機株式会社 Virtual camera control device, virtual camera control method, and virtual camera control program
WO2021070226A1 (en) * 2019-10-07 2021-04-15 三菱電機株式会社 Virtual camera control device, virtual camera control method, and virtual camera control program

Also Published As

Publication number Publication date
JP3654977B2 (en) 2005-06-02

Similar Documents

Publication Publication Date Title
US11547499B2 (en) Dynamic and interactive navigation in a surgical environment
EP1643444B1 (en) Registration of a medical ultrasound image with an image data from a 3D-scan, e.g. from Computed Tomography (CT) or Magnetic Resonance Imaging (MR)
JP5551957B2 (en) Projection image generation apparatus, operation method thereof, and projection image generation program
JP5224451B2 (en) Projection image creation apparatus, method and program
CN108836478B (en) Endoscopic view of invasive surgery in narrow channels
CN107067398B (en) Completion method and device for missing blood vessels in three-dimensional medical model
EP2785270A1 (en) Automatic depth scrolling and orientation adjustment for semi-automated path planning
US8965072B2 (en) Image display apparatus and image display system
JPH11318884A (en) Image display device
JP4845566B2 (en) Image display device
US7860282B2 (en) Method for supporting an interventional medical operation
CN105956395A (en) Medical image processing method, device and system
JP2007135843A (en) Image processor, image processing program and image processing method
US20080084415A1 (en) Orientation of 3-dimensional displays as a function of the regions to be examined
US20210353361A1 (en) Surgical planning, surgical navigation and imaging system
JP3654977B2 (en) 3D image processing device
JP2001149366A (en) Three-dimensional image processing device
JP2009022411A (en) Medical image processor
JP2010284405A (en) Medical image processor, medical image diagnostic device and medical image processing program
EP3629932B1 (en) Device and a corresponding method for providing spatial information of an interventional device in a live 2d x-ray image
CN112888395A (en) Method and system for real-time updating of cross-camera placement
JPH03231643A (en) Image display device
EP4258216A1 (en) Method for displaying a 3d model of a patient
JP7301573B2 (en) How to place a static virtual camera
US20240112395A1 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050302

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080311

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090311

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100311

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110311

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120311

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130311

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140311

Year of fee payment: 9

EXPY Cancellation because of completion of term