JP2011212242A - Virtual endoscope apparatus with entire sphere type visual field - Google Patents

Virtual endoscope apparatus with entire sphere type visual field Download PDF

Info

Publication number
JP2011212242A
JP2011212242A JP2010083569A JP2010083569A JP2011212242A JP 2011212242 A JP2011212242 A JP 2011212242A JP 2010083569 A JP2010083569 A JP 2010083569A JP 2010083569 A JP2010083569 A JP 2010083569A JP 2011212242 A JP2011212242 A JP 2011212242A
Authority
JP
Japan
Prior art keywords
virtual
endoscopic image
virtual endoscopic
image
global
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010083569A
Other languages
Japanese (ja)
Other versions
JP5435360B2 (en
Inventor
Kensaku Mori
健策 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Original Assignee
Nagoya University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC filed Critical Nagoya University NUC
Priority to JP2010083569A priority Critical patent/JP5435360B2/en
Publication of JP2011212242A publication Critical patent/JP2011212242A/en
Application granted granted Critical
Publication of JP5435360B2 publication Critical patent/JP5435360B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a virtual endoscope apparatus forming a virtual endoscope image with a maximum view angle of 90° or more.SOLUTION: An entire sphere type virtual endoscope image having a visual field that surrounds a visual point position spherically is formed by an entire sphere type image forming means 58 of a virtual endoscope image forming means 56, and the entire sphere type virtual endoscope image is displayed on an output device 26 by a display means 64 to obtain the entire sphere type endoscope image having a wide visual field that surrounds the visual point position spherically by the virtual endoscope apparatus 10.

Description

本発明は、被検体の3次元画像データに基づきその被検体の内視鏡画像を仮想的に生成する仮想内視鏡装置に関するものであり、特に、視点位置を球状に取り囲む視野を有する全球型仮想内視鏡画像を生成することのできる仮想内視鏡装置に関するものである。   The present invention relates to a virtual endoscope apparatus that virtually generates an endoscopic image of a subject based on three-dimensional image data of the subject, and in particular, a global type having a visual field surrounding a viewpoint position in a spherical shape. The present invention relates to a virtual endoscope apparatus capable of generating a virtual endoscopic image.

近年、医療分野において、X線CT(computed tomography)装置や磁気共鳴(MRI;magnetic resonance imaging)装置などによって得られる被検体の画像を用いた診断や検査が広く行なわれている。前記CT装置においては、X線照射器・検出器を連続的に回転させつつ被検体を体軸方向に連続送りすることにより、その被検体の3次元領域についてらせん状の連続スキャン(ヘリカルスキャン)が行なわれる。このようにして得られる3次元領域における濃淡画像データ(3次元画像データ)は、例えば、3次元濃淡画像の濃度値の空間的な分布状態を3次元画像の各サンプル点に対して与える不透明度および色情報から描画する方法であるボリュームレンダリングと呼ばれる手法により、3次元画像として可視化される。   In recent years, in the medical field, diagnosis and examination using an image of a subject obtained by an X-ray CT (computed tomography) apparatus, a magnetic resonance imaging (MRI) apparatus, or the like has been widely performed. In the CT apparatus, by continuously feeding the subject in the body axis direction while continuously rotating the X-ray irradiator / detector, a spiral continuous scan (helical scan) is performed on the three-dimensional region of the subject. Is done. The grayscale image data (three-dimensional image data) in the three-dimensional region thus obtained is, for example, an opacity that gives a spatial distribution state of density values of the three-dimensional grayscale image to each sample point of the three-dimensional image. The image is visualized as a three-dimensional image by a technique called volume rendering, which is a method of drawing from color information.

3次元画像によれば、前記X線CT装置によって得られる3次元画像データに基づき、被検体の内視鏡画像を仮想的に生成することが可能となる。このような仮想内視鏡画像を生成することのできる仮想内視鏡装置が提案されている。例えば非特許文献1に記載の仮想内視鏡装置がそれである。かかる仮想内視鏡装置によれば、実際に被検体に内視鏡を挿入することなく内視鏡画像が得られるため、被検体の負担が軽減される。一方検査を行なう医師等においては、内視鏡と同様の画像が得られるため、従来内視鏡を用いて行なっていた場合と同様の感覚や技能により検査などを行なうことができる。   According to the three-dimensional image, it is possible to virtually generate an endoscope image of the subject based on the three-dimensional image data obtained by the X-ray CT apparatus. A virtual endoscope apparatus capable of generating such a virtual endoscopic image has been proposed. For example, this is the virtual endoscope apparatus described in Non-Patent Document 1. According to such a virtual endoscope apparatus, since an endoscopic image can be obtained without actually inserting an endoscope into the subject, the burden on the subject is reduced. On the other hand, a doctor or the like who performs an examination can obtain an image similar to that of an endoscope, and thus can perform an examination or the like with the same senses and skills as those conventionally performed using an endoscope.

Kensaku Mori, Akihiro Urano, Jun-ichi Hasegawa, Jun-ichiro Toriwaki, Hirofumi Anno and Kazuhiro Katada、“Virtualized endoscope system - an application of virtual reality technology to diagnostic aid,”、IEICE Transactions Information and Systems、1996年6月、Vol.E79-D、No.6、p.809-819Kensaku Mori, Akihiro Urano, Jun-ichi Hasegawa, Jun-ichiro Toriwaki, Hirofumi Anno and Kazuhiro Katada, “Virtualized circular system-an application of virtual reality technology to diagnostic aid,” IEICE Transactions Information and Systems, June 1996. Vol.E79-D, No.6, p.809-819 Masahiro Oda, Takayuki Kitasaka, Yuichiro Hayashi, Kensaku Mori, Yasuhito Suenaga, and Jun-ichiro Toriwaki, “Development of a Navigation-Based CAD System for Colon,”、8th International Conference on Medical Image Computing and Computer Assisted Intervention (MICCAI 2005), Palm Springs, CA, USA, October 26-30, 2005, Proceedings Part I, LNCS 3749, Gerhard Goos, Juris Hartmanis, and Jan van Leeuwen (Eds.)、2005年10月、pp.696-703Masahiro Oda, Takayuki Kitasaka, Yuichiro Hayashi, Kensaku Mori, Yasuhito Suenaga, and Jun-ichiro Toriwaki, “Development of a Navigation-Based CAD System for Colon,”, 8th International Conference on Medical Image Computing and Computer Assisted Intervention (MICCAI 2005) , Palm Springs, CA, USA, October 26-30, 2005, Proceedings Part I, LNCS 3749, Gerhard Goos, Juris Hartmanis, and Jan van Leeuwen (Eds.), October 2005, pp.696-703 森 健策, 末永 康仁, 鳥脇 純一郎, 橋爪 誠、“腹腔鏡下手術支援のための仮想腹腔鏡像作成に関する検討,”、日本コンピュータ外科学会誌,、2005年9月、Vol.7, No.2, pp.95-104Kensaku Mori, Yasuhito Suenaga, Junichiro Toriwaki, Makoto Hashizume, “Study on virtual laparoscopic image creation for laparoscopic surgery support,” Japan Society for Computer Aided Surgery, September 2005, Vol. 7, No. 2, pp.95-104

ところで、従来の仮想内視鏡装置の多くにおいては、最大視野角が例えば100度乃至130度程度の透視法(透視投影法)を用いたものであった。このようにすれば実際の内視鏡を用いて光学的に得られる内視鏡画像と近似した仮想内視鏡画像が得られる。一方、非特許文献2に記載のように、仮想内視鏡装置が大腸ポリープ診断システムに適用される場合においては、たとえば被検体の一部位である大腸などにおいて多くのひだが存在しており、視点から見た場合にひだの影に隠れた位置に存在する病変などを見落とす可能性があった。また、非特許文献3に記載のように、仮想内視鏡装置が仮想腹腔鏡として用いられる場合においては、鉗子等の挿入位置の決定などの施術支援においては、視野角が狭く得られる仮想内視鏡画像が不十分であった。   By the way, in many conventional virtual endoscope apparatuses, a fluoroscopic method (perspective projection method) having a maximum viewing angle of, for example, about 100 degrees to 130 degrees is used. In this way, a virtual endoscopic image approximate to an endoscopic image optically obtained using an actual endoscope can be obtained. On the other hand, as described in Non-Patent Document 2, when the virtual endoscope apparatus is applied to a colon polyp diagnosis system, for example, there are many folds in the large intestine, which is one part of the subject, When viewed from the viewpoint, there is a possibility that a lesion existing in a position hidden behind the folds may be overlooked. In addition, as described in Non-Patent Document 3, when the virtual endoscope apparatus is used as a virtual laparoscope, in the operation support such as determination of the insertion position of a forceps or the like, a virtual view with a narrow viewing angle can be obtained. The endoscopic image was insufficient.

しかしながら、一度に観察できる範囲を広げるために視野角を広げようとすると、仮想内視鏡画像における歪みが非常に大きくなり、その仮想内視鏡画像は検査や手術支援のために用いることができないものとなるという問題があった。また、前記透視法によれば、最大視野角を180度以上とすることは理論的に不可能であった。   However, if the viewing angle is increased in order to widen the range that can be observed at one time, the distortion in the virtual endoscopic image becomes very large, and the virtual endoscopic image cannot be used for examination or surgery support. There was a problem of becoming something. Further, according to the fluoroscopic method, it was theoretically impossible to set the maximum viewing angle to 180 degrees or more.

本発明は以上の事情を背景として為されたもので、その目的とするところは、最大視野角が180度以上である仮想内視鏡画像を生成可能な仮想内視鏡装置を提供することにある。   The present invention has been made against the background of the above circumstances, and an object of the present invention is to provide a virtual endoscope apparatus capable of generating a virtual endoscope image having a maximum viewing angle of 180 degrees or more. is there.

かかる目的を達成するための請求項1にかかる発明は、被検体の3次元画像データに基づき、内視鏡が該被検体内に挿入された場合に得られる仮想内視鏡画像を仮想的に生成する仮想内視鏡画像生成手段と、少なくとも該仮想内視鏡画像生成手段により生成された仮想内視鏡画像を表示する表示手段とを有する仮想内視鏡装置であって、前記仮想内視鏡画像生成手段は、視点位置を球状に取り囲む視野を有する全球型仮想内視鏡画像を生成するものであること、を特徴とする。   In order to achieve this object, the invention according to claim 1 is based on the three-dimensional image data of the subject, and virtually stores a virtual endoscopic image obtained when the endoscope is inserted into the subject. A virtual endoscopic apparatus comprising: a virtual endoscopic image generating means for generating; and a display means for displaying at least a virtual endoscopic image generated by the virtual endoscopic image generating means, wherein the virtual endoscope The mirror image generation means generates a global virtual endoscopic image having a field of view surrounding the viewpoint position in a spherical shape.

請求項2にかかる発明は、請求項1の仮想内視鏡装置において、前記仮想内視鏡画像生成手段は、視点位置から前記視野に対しレイを発生させることによりボリュームレンダリング法を用いて前記全球型仮想内視鏡画像を生成すること、を特徴とする。   According to a second aspect of the present invention, in the virtual endoscope device according to the first aspect, the virtual endoscopic image generation means generates the ray from the viewpoint position to the field of view and uses the volume rendering method to generate the global Generating a type virtual endoscopic image.

請求項3にかかる発明は、請求項1または2の仮想内視鏡装置において、前記仮想内視鏡画像生成手段は、予め設定された最大視野角の全球型仮想内視鏡画像を生成すること、を特徴とする。   According to a third aspect of the present invention, in the virtual endoscopic device according to the first or second aspect, the virtual endoscopic image generating means generates a global virtual endoscopic image having a preset maximum viewing angle. It is characterized by.

請求項4にかかる発明は、請求項1乃至3のいずれか1の仮想内視鏡装置において、前記仮想内視鏡画像生成手段は、前記視野角において、特定の角度領域を伸長あるいは圧縮した前記全球型仮想内視鏡画像を生成すること、を特徴とする。   According to a fourth aspect of the present invention, in the virtual endoscopic device according to any one of the first to third aspects, the virtual endoscopic image generating means expands or compresses a specific angular region at the viewing angle. A global virtual endoscopic image is generated.

請求項5にかかる発明は、請求項4の仮想内視鏡装置において、前記特定の角度領域の位置及び範囲は変更可能であること、を特徴とする。   The invention according to claim 5 is the virtual endoscope apparatus according to claim 4, characterized in that the position and range of the specific angle region can be changed.

請求項6にかかる発明は、請求項4または5の仮想内視鏡装置において、前記被検体の3次元画像データから、予め設定された特徴を含む特徴部位を抽出する特徴部位抽出手段と、前記全球型仮想内視鏡画像に該特徴部位検出手段によって抽出された特徴部位が含まれる場合に、該特徴部位を含むように前記特定の角度領域を設定する特定領域設定手段とをさらに有し、前記仮想内視鏡画像生成手段は、該特定領域設定手段によって設定された前記特定の角度領域を拡大して表示すること、を特徴とする。   According to a sixth aspect of the present invention, in the virtual endoscope device according to the fourth or fifth aspect, the characteristic part extracting means for extracting a characteristic part including a preset characteristic from the three-dimensional image data of the subject, A specific region setting means for setting the specific angle region so as to include the feature portion when the feature portion extracted by the feature portion detection means is included in the global virtual endoscopic image; The virtual endoscopic image generation means enlarges and displays the specific angle area set by the specific area setting means.

請求項7にかかる発明は、請求項1乃至6のいずれか1の仮想内視鏡装置において、前記仮想内視鏡画像生成手段は、前記視点位置を連続的に変化させることに対応して前記全球型仮想内視鏡画像を連続的に生成可能であることを特徴とする。   According to a seventh aspect of the present invention, in the virtual endoscope apparatus according to any one of the first to sixth aspects, the virtual endoscopic image generating means corresponds to the fact that the viewpoint position is continuously changed. A global virtual endoscopic image can be continuously generated.

請求項8にかかる発明は、請求項1乃至7のいずれか1の仮想内視鏡装置において、前記表示手段は、前記全球型仮想内視鏡画像と、視野角を表示する記号とを重ね合わせて表示すること、を特徴とする。   According to an eighth aspect of the present invention, in the virtual endoscope device according to any one of the first to seventh aspects, the display means superimposes the global virtual endoscopic image and a symbol for displaying a viewing angle. Display.

請求項9にかかる発明は、請求項1乃至8のいずれか1の仮想内視鏡装置において、前記仮想内視鏡画像生成手段は、前記全球型仮想内視鏡画像に加え、前記視点位置から透視法によって生成される透視型仮想内視鏡画像を生成可能であり、前記表示手段は、前記全球型仮想内視鏡画像と、前記透視型仮想内視鏡画像とを切り換えて表示すること、を特徴とする。   According to a ninth aspect of the present invention, in the virtual endoscope device according to any one of the first to eighth aspects, the virtual endoscopic image generation means is configured to add the global virtual endoscopic image from the viewpoint position. A fluoroscopic virtual endoscopic image generated by a fluoroscopic method can be generated, and the display means switches between the global virtual endoscopic image and the fluoroscopic virtual endoscopic image for display; It is characterized by.

請求項10にかかる発明は、前記仮想内視鏡画像生成手段は、前記全球型仮想内視鏡画像に加え、前記視点位置から透視法によって生成される透視型仮想内視鏡画像を生成可能であり、前記表示手段は、前記全球型仮想内視鏡画像と、前記透視型仮想内視鏡画像とを対比可能に表示すること、を特徴とする。   According to a tenth aspect of the present invention, the virtual endoscopic image generating means can generate a fluoroscopic virtual endoscopic image generated by a fluoroscopy method from the viewpoint position in addition to the global virtual endoscopic image. And the display means displays the global virtual endoscopic image and the fluoroscopic virtual endoscopic image in a comparable manner.

請求項1にかかる発明によれば、前記仮想内視鏡画像生成手段により、視点位置を球状に取り囲む視野を有する全球型仮想内視鏡画像が生成され、前記表示手段によってその全球型仮想内視鏡画像が表示されるので、前記仮想内視鏡装置により視点位置を球状に取り囲む広い視野を有する全球型仮想内視鏡画像を得ることができる。   According to the first aspect of the present invention, a global virtual endoscopic image having a field of view surrounding the viewpoint position in a spherical shape is generated by the virtual endoscopic image generating means, and the global virtual endoscopic image is generated by the display means. Since a mirror image is displayed, a global virtual endoscopic image having a wide field of view that surrounds the viewpoint position in a spherical shape can be obtained by the virtual endoscopic device.

請求項2にかかる発明によれば、前記仮想内視鏡画像生成手段は、視点位置から前記視野に対しレイを発生させることによりボリュームレンダリング法を用いて前記全球型仮想内視鏡画像を生成するので、3次元画像データに基づいて視点位置を球状に取り囲む広い視野を有する全球型仮想内視鏡画像を生成することができる。   According to the invention of claim 2, the virtual endoscopic image generating means generates the global virtual endoscopic image using a volume rendering method by generating a ray from the viewpoint position to the visual field. Therefore, a global virtual endoscopic image having a wide field of view that surrounds the viewpoint position in a spherical shape can be generated based on the three-dimensional image data.

請求項3にかかる発明によれば、前記仮想内視鏡画像生成手段は、予め設定された視野角の全球型仮想内視鏡画像を生成するので、視点位置を球状に取り囲む視界について、予め設定された広い視野角の全球型仮想内視鏡画像を得ることができる。   According to the invention of claim 3, the virtual endoscopic image generating means generates a global virtual endoscopic image with a preset viewing angle, so that a field of view surrounding the viewpoint position in a spherical shape is set in advance. A global virtual endoscopic image with a wide viewing angle can be obtained.

請求項4にかかる発明によれば、前記仮想内視鏡画像生成手段は、前記視野角において、特定の角度領域を伸長あるいは圧縮した前記全球型仮想内視鏡画像を生成するので、視点位置を球状に取り囲む広い視野を有するとともに、特定の視野角の角度範囲について拡大あるいは縮小した前記全球型仮想内視鏡画像を得ることができる。   According to the invention of claim 4, the virtual endoscopic image generation means generates the global virtual endoscopic image obtained by expanding or compressing a specific angular region at the viewing angle, so the viewpoint position is determined. It is possible to obtain the global virtual endoscopic image that has a wide field of view surrounding a sphere and is enlarged or reduced with respect to an angle range of a specific viewing angle.

請求項5にかかる発明によれば、前記特定の角度領域の位置及び範囲は変更可能であるので、例えば操作者が拡大表示させたい特定の角度領域を指定することによりその角度領域を拡大した全球型仮想内視鏡画像を得ることができる。   According to the fifth aspect of the present invention, the position and range of the specific angle area can be changed. For example, the global area in which the angle area is enlarged by designating the specific angle area that the operator wants to enlarge and display. Type virtual endoscopic images can be obtained.

請求項6にかかる発明によれば、前記特徴部位抽出手段により前記被検体の3次元画像データから、予め設定された特徴を含む特徴部位が抽出され、前記全球型仮想内視鏡画像にその抽出された特徴部位が含まれる場合には前記特定領域設定手段によりその特徴部位を含むように前記特定の角度領域が設定されるとともに、前記仮想内視鏡画像生成手段により、特定領域設定手段によって設定された前記特定の角度領域が拡大して表示されるので、視点位置を球状に取り囲む広い視野を有するとともに、予め設定された特徴を含む特徴部位が拡大して表示される前記全球型仮想内視鏡画像を得ることができる。   According to the sixth aspect of the present invention, a feature portion including a preset feature is extracted from the three-dimensional image data of the subject by the feature portion extraction means, and the feature portion is extracted into the global virtual endoscopic image. If the specified feature region is included, the specific region setting unit sets the specific angle region so as to include the feature region, and the virtual endoscope image generation unit sets the specific region by the specific region setting unit. Since the specific angle area is enlarged and displayed, the global virtual endoscope has a wide field of view that surrounds the viewpoint position in a spherical shape, and a feature portion including a preset feature is enlarged and displayed. A mirror image can be obtained.

請求項7にかかる発明によれば、前記仮想内視鏡画像生成手段により、前記視点位置を連続的に変化させることに対応して前記全球型仮想内視鏡画像を連続的に生成されるので、連続して変化させる視点位置に対応した、その視点位置を球状に取り囲む広い視野を有する前記全球型仮想内視鏡画像を得ることができる。   According to the seventh aspect of the invention, since the virtual endoscopic image generation means continuously generates the global virtual endoscopic image in response to continuously changing the viewpoint position. The global virtual endoscopic image corresponding to the continuously changing viewpoint position and having a wide field of view surrounding the viewpoint position in a spherical shape can be obtained.

請求項8にかかる発明によれば、前記表示手段により、前記全球型仮想内視鏡画像と、視野角を表示する記号とが重ね合わせて表示されるので、視点位置を球状に取り囲む広い視野を有する前記全球型仮想内視鏡画像において視野角を把握することができる。   According to the invention of claim 8, the display means displays the global virtual endoscopic image and the symbol for displaying the viewing angle so as to overlap each other, so that a wide field of view that surrounds the viewpoint position in a spherical shape is displayed. The viewing angle can be grasped in the global virtual endoscopic image.

請求項9にかかる発明によれば、前記仮想内視鏡画像生成手段により、前記全球型仮想内視鏡画像に加えて、前記視点位置から透視法によって生成される透視型仮想内視鏡画像が生成され、前記表示手段により、前記全球型仮想内視鏡画像と前記透視型仮想内視鏡画像とが切り換えて表示されるので、同一の視点位置において視点位置を球状に取り囲む広い視野を有する前記全球型仮想内視鏡画像と、実際の内視鏡画像に近い前記透視型仮想内視鏡画像とを切り換えて観察することができる。   According to the invention according to claim 9, in addition to the global virtual endoscopic image, the virtual endoscopic image generation unit generates a fluoroscopic virtual endoscopic image generated by the fluoroscopy from the viewpoint position. Since the global virtual endoscopic image and the perspective virtual endoscopic image are switched and displayed by the display means, the display means has a wide field of view that surrounds the viewpoint position in a spherical shape at the same viewpoint position. It is possible to switch between a global virtual endoscopic image and the fluoroscopic virtual endoscopic image close to an actual endoscopic image for observation.

請求項10にかかる発明によれば、前記仮想内視鏡画像生成手段により、前記全球型仮想内視鏡画像に加えて、前記視点位置から透視法によって生成される透視型仮想内視鏡画像を生成され、前記表示手段により、前記全球型仮想内視鏡画像と、前記透視型仮想内視鏡画像とが対比可能に表示されるので、共通する視点位置から異なる方法により生成された仮想内視鏡画像を同時に参照することができ、仮想内視鏡画像の観察における利便性が向上する。   According to the tenth aspect of the present invention, in addition to the global virtual endoscopic image, the virtual endoscopic image generation unit generates a fluoroscopic virtual endoscopic image generated by the fluoroscopy from the viewpoint position. Since the global virtual endoscopic image and the fluoroscopic virtual endoscopic image are generated and displayed by the display means in a comparable manner, the virtual endoscopic image generated by a different method from a common viewpoint position is generated. The mirror image can be referred to at the same time, and convenience in observation of the virtual endoscopic image is improved.

好適には、前記全球型仮想内視鏡の視野角は連続的に変更が可能であることを特徴とする。このようにすれば同一の視点位置において視野角が連続的に変化する仮想内視鏡画像が順次得られる。   Preferably, the viewing angle of the global virtual endoscope can be continuously changed. In this way, virtual endoscopic images whose viewing angles continuously change at the same viewpoint position are sequentially obtained.

また好適には、前記表示手段は、前記視野角に応じて視野角に応じて全球型仮想内視鏡画像と透視型仮想内視鏡画像と切り換えて表示することを特徴とする。このようにすれば、視野角に応じた仮想内視鏡画像を自動的に切り換えて表示することができる。   Preferably, the display means switches between a global virtual endoscopic image and a perspective virtual endoscopic image according to the viewing angle and displays the switched virtual endoscopic image. In this way, the virtual endoscopic image corresponding to the viewing angle can be automatically switched and displayed.

また好適には、前記表示手段は、特徴部位が抽出された場合に透視型仮想内視鏡画像から全球型仮想内視鏡画像に切り換えて表示することを特徴とする。このようにすれば、前記特徴部位が表示される場合に、その特徴部位が拡大表示されることが可能な前記全球型仮想内視鏡画像に切り換えて表示される。   Preferably, the display means switches from a fluoroscopic virtual endoscopic image to a global virtual endoscopic image when a characteristic part is extracted, and displays it. In this way, when the feature portion is displayed, the feature portion is switched to the global virtual endoscopic image that can be enlarged and displayed.

また好適には、前記表示手段は、生成する全球型仮想内視鏡画像の視野角が予め設定された境界角度以上である場合に、視野角がその境界角度以上の領域については、視野角が境界角度未満である領域と色相を異ならせて全球型仮想内視鏡画像を表示することを特徴とする。このようにすれば、視野角が境界角度以上の領域、すなわち全球型仮想内視鏡画像において視点位置よりも後方に対応する領域の色相が、視野角が境界角度未満の領域、すなわち全球型仮想内視鏡画像において視点位置よりも前方に対応する領域の色相と異ならせて表示されるので、実際の内視鏡画像や従来広く用いられていた透視法による透視型仮想内視鏡においては見ることのできなかった視点位置よりも後方に対応する領域を全球型仮想内視鏡画像において区別することができる。   Further preferably, when the viewing angle of the generated global virtual endoscopic image is equal to or larger than a preset boundary angle, the display means has a viewing angle for a region where the viewing angle is equal to or larger than the boundary angle. A global virtual endoscopic image is displayed with a hue different from that of an area less than the boundary angle. In this way, the hue of the region whose viewing angle is equal to or larger than the boundary angle, that is, the region corresponding to the rear of the viewpoint position in the global virtual endoscopic image, is the region whose viewing angle is less than the boundary angle, that is, the global virtual Since it is displayed differently from the hue of the region corresponding to the front of the viewpoint position in the endoscopic image, it is viewed in an actual endoscopic image or a perspective type virtual endoscope that has been widely used in the past. A region corresponding to the rear of the viewpoint position that could not be identified can be distinguished in the global virtual endoscopic image.

本発明の一実施例である仮想内視鏡装置の構成を説明する図である。It is a figure explaining the structure of the virtual endoscope apparatus which is one Example of this invention. 図1の仮想内視鏡装置の有する機能の概要を説明するブロック図である。It is a block diagram explaining the outline | summary of the function which the virtual endoscope apparatus of FIG. 1 has. 全球型仮想内視鏡画像の概念を説明する図である。It is a figure explaining the concept of a global virtual endoscopic image. 最大視野角Φが360度の全球型仮想内視鏡画像の生成を説明する図である。It is a figure explaining the production | generation of the global virtual endoscopic image whose maximum viewing angle (PHI) is 360 degree | times. 透視型仮想内視鏡画像の概念を説明する図である。It is a figure explaining the concept of a perspective type virtual endoscopic image. 実施例における仮想内視鏡装置による全球型仮想内視鏡画像の制御作動の概要を説明するフローチャートである。It is a flowchart explaining the outline | summary of the control action of the global type | mold virtual endoscope image by the virtual endoscope apparatus in an Example. 投影面と各座標の定義を説明する図である。It is a figure explaining the definition of a projection surface and each coordinate. レイ方向計算サブルーチンにおける制御作動の概要を説明するフローチャートである。It is a flowchart explaining the outline | summary of the control action in a ray direction calculation subroutine. θ1算出サブルーチンにおける制御作動の概要を説明するフローチャートである。It is a flowchart explaining the outline | summary of the control action in (theta) 1 calculation subroutine. θ2算出サブルーチンにおける制御作動の概要を説明するフローチャートである。It is a flowchart explaining the outline | summary of the control action | operation in (theta) 2 calculation subroutine. 陰影値計算サブルーチンにおける制御作動の概要を説明するフローチャートである。It is a flowchart explaining the outline | summary of the control action | operation in a shadow value calculation subroutine. 規格化座標系の例を説明する図である。It is a figure explaining the example of a normalization coordinate system. 規格化座標系における座標位置と原点との距離lに対する回転角度θ1の関係を表わす関数f(l)の一例を説明する図である。It is a figure explaining an example of the function f (l) showing the relationship of rotation angle (theta) 1 with respect to the distance l of the coordinate position in a normalization coordinate system, and an origin. レイと3次元画像との重なりを説明する図である。It is a figure explaining the overlap of a ray and a three-dimensional image. サンプル点とそれを囲む8点の座標の関係を説明する図であって、不透明度の算出、あるいは陰影値の算出を説明する図である。It is a figure explaining the relationship between the coordinate of a sample point and eight points surrounding it, Comprising: It is a figure explaining calculation of opacity, or calculation of a shadow value. 全球型仮想内視鏡画像と視野角を表わす表示とが重ねて表示される例を説明する図である。It is a figure explaining the example by which a global virtual endoscopic image and the display showing a viewing angle are superimposed and displayed. 本発明の仮想内視鏡装置によって得られる仮想内視鏡画像の一例である仮想腹腔鏡画像を複数の視野角について示した図である。It is the figure which showed the virtual laparoscopic image which is an example of the virtual endoscopic image obtained by the virtual endoscopic apparatus of this invention about several viewing angles. 本発明の仮想内視鏡装置によって得られる仮想内視鏡画像の一例である大腸内視鏡画像を複数の視野角について示した図である。It is the figure which showed the colon endoscope image which is an example of the virtual endoscopic image obtained by the virtual endoscopic apparatus of this invention about several viewing angles. 対比表示手段により透視型仮想内視鏡画像と全球型仮想内視鏡画像とが対比可能に表示された場合を説明する図である。It is a figure explaining the case where a perspective type virtual endoscopy image and a global type virtual endoscopy image are displayed by contrast display means so that contrast is possible. 視野角表示手段による視野角を表わす記号の表示における制御作動の一例を説明するフローチャートである。It is a flowchart explaining an example of the control action | operation in the display of the symbol showing the viewing angle by a viewing angle display means. 表示切換手段における制御作動の一例を説明するフローチャートである。It is a flowchart explaining an example of the control action in a display switching means. 本発明の別の実施例における規格化座標系の例を説明する図であって、図12に対応する図である。It is a figure explaining the example of the normalization coordinate system in another Example of this invention, Comprising: It is a figure corresponding to FIG. 本発明の別の実施例における関数f(l)の例を説明する図であって、図13に対応する図である。It is a figure explaining the example of the function f (l) in another Example of this invention, Comprising: It is a figure corresponding to FIG. 本発明の別の実施例における関数f(l)を任意に設定する例を説明する図である。It is a figure explaining the example which sets the function f (l) arbitrarily in another Example of this invention. 視野角表示手段によって、前記境界角度の大きさを上回る領域の色相と、その境界角度を下回る領域の色相とが異ならされた仮想内視鏡画像の一例を示す図である。It is a figure which shows an example of the virtual endoscopic image from which the hue of the area | region exceeding the magnitude | size of the said boundary angle and the hue of the area | region less than the boundary angle differed by the viewing angle display means.

以下、本発明の一実施例について、図面を参照しつつ詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

図1に示すように、本実施例の仮想内視鏡装置10は、予め記憶させられた情報を読み出し可能に格納するROM14、必要に応じて情報を読み書き可能に記憶するRAM16、これらの情報を演算するCPU(中央演算装置)18などによって構成され、予め記憶されたプログラムに従って演算制御可能ないわゆるコンピュータ12などによって構成される。このコンピュータ12においては、入力インタフェース20を介してキーボードやマウスなどの入力装置24が接続され、そのコンピュータ12に対する入力操作を行なうことができる。また、出力インタフェース22を介して接続されたディスプレイ装置などの出力装置26が接続され、コンピュータ12の出力を視覚により出力することができる。例えばその内部に、情報を記憶可能なハードディスクドライブなどの記憶装置28が備えられている。記憶装置28には、たとえばCT装置により得られた被検体の3次元濃淡画像f、言い換えれば、被検体の単位体積であるボクセルごとの画素値(濃度値)が記憶されている。   As shown in FIG. 1, the virtual endoscope apparatus 10 of the present embodiment includes a ROM 14 that stores information stored in a readable manner, a RAM 16 that stores information in a readable and writable manner as necessary, and stores these information. It is constituted by a CPU (central processing unit) 18 or the like that performs computation, and is constituted by a so-called computer 12 that can perform computation control according to a program stored in advance. In the computer 12, an input device 24 such as a keyboard and a mouse is connected via the input interface 20, and an input operation on the computer 12 can be performed. Further, an output device 26 such as a display device connected via the output interface 22 is connected, and the output of the computer 12 can be output visually. For example, a storage device 28 such as a hard disk drive capable of storing information is provided therein. The storage device 28 stores, for example, a three-dimensional gray image f of a subject obtained by a CT device, in other words, a pixel value (density value) for each voxel that is a unit volume of the subject.

図2は、前記仮想内視鏡装置10における制御機能の概要、すなわち、CPU18を含むコンピュータ12において所定のプログラムを実行することにより得られる制御機能の概要を説明するブロック図である。このうち、視点位置設定手段50は、仮想内視鏡装置10によって得られる仮想内視鏡画像の視点位置pおよび視線方向Lを操作者の入力装置24を用いた操作に基づいて設定する。この視線方向Lは、たとえば視野の中心として定義される。また、視点位置設定手段50は、入力装置24を介して行われる操作に基づいて、動的に変化するように視点位置pおよび視線方向Lを変化させることができる。   FIG. 2 is a block diagram for explaining the outline of the control function in the virtual endoscope apparatus 10, that is, the outline of the control function obtained by executing a predetermined program in the computer 12 including the CPU 18. Among these, the viewpoint position setting means 50 sets the viewpoint position p and the line-of-sight direction L of the virtual endoscopic image obtained by the virtual endoscope apparatus 10 based on an operation using the operator's input device 24. This line-of-sight direction L is defined as the center of the visual field, for example. In addition, the viewpoint position setting unit 50 can change the viewpoint position p and the line-of-sight direction L so as to dynamically change based on an operation performed via the input device 24.

視野設定手段52は、仮想内視鏡装置10によって得られる仮想内視鏡画像の最大視野角Φを、操作者の入力装置24を用いた操作に基づいて設定する。最大視野角Φは、後述する図3あるいは図5のΦに対応するもので、仮想内視鏡画像において、前記視点位置設定手段50によって定められる視線方向Lに対して最も離れた一対の方向がなす角である。したがって、仮想内視鏡画像における視野角は前記視線方向Lと仮想内視鏡画像内のその視線方向から最も離れた方向とのなす角の2倍の角度に対応する。なお、視野角設定手段52は、入力装置24を介して行われる操作に基づいて、動的に変化するように最大視野角Φを設定することができる。なお、後述する仮想内視鏡画像生成手段56の全球型画像生成手段58によって生成される全球型仮想内視鏡画像においては、最大視野角Φの大きさは特に限定されない。一方、透視型画像生成手段62によって生成される透視型可塑内視鏡画像においては、一般に最大視野角Φが90度を超えると画像の歪みが大きくなり、最大視野角Φが180度に近づくにつれて画像が発散する。また、最大視野角Φが180度以上となることは理論的に不可能である。   The visual field setting unit 52 sets the maximum visual field angle Φ of the virtual endoscopic image obtained by the virtual endoscope device 10 based on an operation using the operator's input device 24. The maximum viewing angle Φ corresponds to Φ in FIG. 3 or FIG. 5 described later, and in the virtual endoscopic image, a pair of directions farthest from the line-of-sight direction L determined by the viewpoint position setting unit 50 is present. It is an angle to make. Therefore, the viewing angle in the virtual endoscopic image corresponds to an angle twice as large as the angle formed between the viewing direction L and the direction farthest from the viewing direction in the virtual endoscopic image. The viewing angle setting means 52 can set the maximum viewing angle Φ so as to dynamically change based on an operation performed via the input device 24. In the global virtual endoscopic image generated by the global image generating means 58 of the virtual endoscopic image generating means 56 described later, the size of the maximum viewing angle Φ is not particularly limited. On the other hand, in a fluoroscopic endoscope image generated by the fluoroscopic image generating means 62, generally, when the maximum viewing angle Φ exceeds 90 degrees, image distortion increases, and as the maximum viewing angle Φ approaches 180 degrees. The image diverges. Also, it is theoretically impossible for the maximum viewing angle Φ to be 180 degrees or more.

特定領域設定手段54は、仮想内視鏡画像における視野角のうち、特定の角度範囲を特定領域SRとして設定する。具体的にはたとえば視野角が179度である場合において、特定領域SRを表す特定の角度範囲を、180度≦θ≦220度度のように設定する。θは前記視線方向からの角度である。特定領域設定手段54による特定領域SRの設定は、操作者の入力装置24を用いた操作に基づいて行われる。あるいは後述する特徴部位抽出手段72を含むように自動的に設定することもできる。具体的には、たとえば後述する特徴部位抽出手段72によって抽出された特徴部位とあらかじめ定められた所定のマージンが含まれるように、特定領域SRを設定する。より具体的には、特徴部位が仮想内視鏡画像においてθが188度ないし192度の範囲に抽出された場合において、前記所定のマージンが4度と定められている場合、特徴部位抽出手段72は特定領域SRを、前記θを用いて184度≦θ≦196度の角度範囲のように設定する。なお前記所定のマージンは、前記特徴部位が仮想内視鏡画像において良好に認識しうるように表示されるように決定される値であって、上述のように予め定められる一方、その定められた値に固定されてもよいし、その後の仮想内視鏡画像の生成が行われるにつれて可変とされてもよい。この特定領域設定手段54によって設定される特定領域SRが本発明の特定の角度範囲に対応する。   The specific area setting unit 54 sets a specific angle range as the specific area SR among the viewing angles in the virtual endoscopic image. Specifically, for example, when the viewing angle is 179 degrees, a specific angle range representing the specific region SR is set such that 180 degrees ≦ θ ≦ 220 degrees. θ is an angle from the viewing direction. The setting of the specific area SR by the specific area setting means 54 is performed based on an operation using the input device 24 by the operator. Or it can also set automatically so that the feature part extraction means 72 mentioned later may be included. Specifically, for example, the specific region SR is set so as to include a feature part extracted by a feature part extraction unit 72 described later and a predetermined margin. More specifically, when the feature part is extracted in the range of 188 degrees to 192 degrees in the virtual endoscopic image, if the predetermined margin is determined to be 4 degrees, the feature part extraction means 72 Sets the specific region SR using the θ as in an angle range of 184 degrees ≦ θ ≦ 196 degrees. The predetermined margin is a value determined so that the feature part is displayed so as to be recognized well in the virtual endoscopic image, and is determined in advance as described above. The value may be fixed, or may be variable as the subsequent generation of the virtual endoscopic image is performed. The specific area SR set by the specific area setting means 54 corresponds to a specific angle range of the present invention.

仮想内視鏡画像生成手段56は、前記記憶手段28に記憶された被検体の三次元画像データ、前記視点位置設定手段72によって設定された視点位置および視線方向、前記視野設定手段52によって設定された最大視野角Φに基づいて、その被検体の仮想内視鏡画像を生成する。すなわち、仮想内視鏡画像生成手段56は、前記被検体の前記視点位置に前記視線方向となるように内視鏡が挿入された場合に得られる内視鏡画像を前記三次元画像データに基づいて仮想的に生成する。本実施例においては、仮想内視鏡画像生成手段56は、全球型仮想内視鏡画像を生成する全球型画像生成手段58と、透視法を用いた透視型仮想内視鏡画像を生成する透視型画像生成手段62とを機能的に有している。   The virtual endoscopic image generation unit 56 is set by the three-dimensional image data of the subject stored in the storage unit 28, the viewpoint position and the line-of-sight direction set by the viewpoint position setting unit 72, and the visual field setting unit 52. Based on the maximum viewing angle Φ, a virtual endoscopic image of the subject is generated. That is, the virtual endoscopic image generation means 56 generates an endoscopic image obtained when an endoscope is inserted so as to be in the visual line direction at the viewpoint position of the subject based on the three-dimensional image data. To generate virtually. In the present embodiment, the virtual endoscope image generating means 56 includes a global image generating means 58 that generates a global virtual endoscopic image and a fluoroscopic image that generates a perspective virtual endoscopic image using a perspective method. The mold image generating means 62 is functionally included.

このうち全球形画像生成手段58は、全球投影法により全球型仮想内視鏡画像を生成する。全球型仮想内視鏡画像は、視点位置設定手段72によって設定される視点位置を、球状に取り囲む視野を有する仮想内視鏡画像である。この全球型仮想内視鏡画像における最大視野角Φは、前記視野設定手段52によって設定される。   Among these, the global image generation means 58 generates a global virtual endoscopic image by the global projection method. The global virtual endoscopic image is a virtual endoscopic image having a field of view that surrounds the viewpoint position set by the viewpoint position setting means 72 in a spherical shape. The maximum viewing angle Φ in this global virtual endoscopic image is set by the visual field setting means 52.

図3は全球型仮想内視鏡画像の生成の概要を説明した図であって、視点位置pを含む一平面における視野と投影面上の画素との関係を示す図である。図3に示すように視点位置pおよび視線方向Lが設定される場合において、視点位置pを中心としてその視点位置pを球状に取り囲む仮想投影面102を仮想的に設定する。このとき、視線方向Lは投影面102の中央を向くように設定されている。そして、視点位置pから仮想投影面102上に配置された所定の個数の画素のそれぞれの方向に対しレイ(Ray)を向けて、そのレイ上の各サンプル点の陰影値に不透明度を乗じながら積算することにより、前記画素のそれぞれにおける画素値を計算するいわゆるレイキャスティング法を実行する。このレイキャスティング法は、いわゆるボリュームレンダリング法の一手法である。   FIG. 3 is a diagram illustrating an outline of generation of a global virtual endoscopic image, and is a diagram illustrating a relationship between a field of view in one plane including the viewpoint position p and pixels on the projection plane. When the viewpoint position p and the line-of-sight direction L are set as shown in FIG. 3, a virtual projection plane 102 that surrounds the viewpoint position p in a spherical shape with the viewpoint position p as the center is virtually set. At this time, the line-of-sight direction L is set to face the center of the projection plane 102. Then, a ray is directed from the viewpoint position p to each direction of a predetermined number of pixels arranged on the virtual projection plane 102, and the shadow value of each sample point on the ray is multiplied by opacity. A so-called ray casting method for calculating a pixel value in each of the pixels is performed by accumulating. This ray casting method is one method of a so-called volume rendering method.

全球形画像生成手段58は、図3に示すような視点位置pを含む一平面について前記レイキャスティング法の実行が完了すると、前記視点位置pを含む平面を視線方向Lを中心として所定の角度だけ回転させる。そして、その回転された平面について同様にレイキャスティング法を実行する。これを前記平面が視線方向Lを中心にπだけ回転するまで繰り返すことにより、全球型仮想内視鏡画像が得られる。なお、前記所定の角度は、例えば投影面における画素数に応じて適宜決定される。   When the execution of the ray casting method is completed for one plane including the viewpoint position p as shown in FIG. 3, the global image generation unit 58 sets the plane including the viewpoint position p at a predetermined angle about the line-of-sight direction L. Rotate. Then, the ray casting method is similarly executed on the rotated plane. By repeating this until the plane is rotated by π around the line-of-sight direction L, a global virtual endoscopic image is obtained. The predetermined angle is appropriately determined according to the number of pixels on the projection surface, for example.

図4は、最大視野角Φが360度である場合の全球型仮想内視鏡画像の生成を説明する別の図である。図4(a)は、前記平面の視線方向Lを中心とした回転を説明する図であり、図4(b)は、その回転される平面と全球型仮想内視鏡画像上の画素との関係を説明する図である。図4(a)においては3つの直交する方向V、UおよびRが設定されている。なお、この方向V、UおよびRは、例えば、後述する視軸方向ベクトルd_v、上向き方向ベクトルd_u、および右向き方向ベクトルd_rの向き(図7参照)と同じに設定される。   FIG. 4 is another diagram for explaining the generation of a global virtual endoscopic image when the maximum viewing angle Φ is 360 degrees. FIG. 4A is a diagram for explaining the rotation of the plane around the line-of-sight direction L, and FIG. 4B shows the rotation plane and the pixels on the global virtual endoscopic image. It is a figure explaining a relationship. In FIG. 4A, three orthogonal directions V, U, and R are set. The directions V, U, and R are set to be the same as, for example, directions of a visual axis direction vector d_v, an upward direction vector d_u, and a rightward direction vector d_r described later (see FIG. 7).

図4においては、前記図3に対応する視点位置pを含む平面の例として、3つのF1乃至F3が記載されている。平面Fn(n=1,2,…)内におけるレイの向きを表わす角度θ1は、レイと、視線方向LであるV方向とがなす角として定義される。すなわち、レイと視線方向Lとが一致する場合をθ1=0度として、U方向と逆向きに見た場合、すなわち図4(a)において上方からみた場合に時計回りに回転する方向を正として定義されている。また、各平面Fnの視線方向回り、すなわちV方向回りの回転角度θ2は、図4に示すように、平面Fnと、V方向とR方向とを含む平面(以下、「VR平面」。)とがなす角として定義される。すなわち、平面FnがVR平面内にある場合をθ2=0度として、V方向を中心として反時計回りに回転する方向を正として定義されている。   In FIG. 4, three F1 to F3 are described as an example of a plane including the viewpoint position p corresponding to FIG. An angle θ1 representing the direction of the ray in the plane Fn (n = 1, 2,...) Is defined as an angle formed by the ray and the V direction that is the line-of-sight direction L. That is, when the ray and the line-of-sight direction L coincide with each other, θ1 = 0 degree, and when viewed in the direction opposite to the U direction, that is, when viewed from above in FIG. Is defined. Further, as shown in FIG. 4, the rotation angle θ2 around the viewing direction of each plane Fn, that is, around the V direction, is a plane Fn, a plane including the V direction and the R direction (hereinafter referred to as “VR plane”). Is defined as the angle formed by. That is, the case where the plane Fn is in the VR plane is defined as θ2 = 0 degrees, and the direction rotating counterclockwise around the V direction is defined as positive.

図4(a)において太線で示されたように、レイの向きは前述のように定義されるθ1およびθ2を用いて表わすことができる。図4(a)において、視点位置pを含む平面Fnがθ2の正方向に所定の角度だけ回転させられて決定されると、その平面内においてθ1が例えば−πからπまでの間で所定の間隔でレイの方向が順次決定され、その方向について画素値の算出が前記レイキャスティング法により実行される。そして、平面が再びθ2の正方向に所定の角度だけ回転させられて、同様にその平面内におけるレイの方向のそれぞれについて画素値の算出が実行される。これをθ2が0度から360度まで繰り返すことにより、視点位置pを球状に取り囲む視野、すなわち最大視野角Φが360度に対応する画素値が得られる。すなわち、平面がF1とされる場合(θ2=0度の場合)、視点位置pから平面F1上の三角形で表わされた各点へ向かう方向のそれぞれにレイの方向が設定される。また、平面がF2とされる場合は視点位置pから平面F2上の丸で表わされた各点へ向かう方向のそれぞれに、平面がF3とされる場合は視点位置pから平面F3上の四角形で表わされた各点へ向かう方向のそれぞれに、同様にレイの方向が設定される。   As indicated by a bold line in FIG. 4A, the direction of the ray can be expressed using θ1 and θ2 defined as described above. In FIG. 4A, when the plane Fn including the viewpoint position p is determined by being rotated by a predetermined angle in the positive direction of θ2, θ1 is set to a predetermined value between −π and π in the plane, for example. Ray directions are sequentially determined at intervals, and pixel values are calculated for the directions by the ray casting method. Then, the plane is again rotated by a predetermined angle in the positive direction of θ2, and similarly, pixel values are calculated for each of the ray directions in the plane. By repeating this from θ2 to 0 ° to 360 °, a field of view that surrounds the viewpoint position p in a spherical shape, that is, a pixel value corresponding to a maximum viewing angle Φ of 360 ° is obtained. That is, when the plane is F1 (when θ2 = 0 degrees), the ray direction is set to each of the directions from the viewpoint position p toward each point represented by a triangle on the plane F1. Further, when the plane is F2, the direction from the viewpoint position p to each point represented by a circle on the plane F2 is represented by a rectangle on the plane F3 from the viewpoint position p when the plane is F3. Similarly, the direction of the ray is set for each of the directions toward each point.

なお、この手順は−πからπまでの間で所定の間隔で設定されるレイの方向θ1の1つについて、θ2が0度から360度まで変化させられるようにレイキャスティング法が実行された後、θ1が更新されて再度θ2が0度から360度まで変化させられるようにしてもよい。すなわち、視点位置pから設定された最大視野角Φの視野において所定の間隔でレイの方向を向けた場合の画素値の算出が行なうことができれば順序を問わない。   This procedure is performed after the ray casting method is executed so that θ2 is changed from 0 degree to 360 degrees with respect to one of the ray directions θ1 set at a predetermined interval between −π and π. , Θ1 may be updated and θ2 may be changed from 0 degree to 360 degrees again. In other words, the order of the pixel values is not limited as long as the pixel values can be calculated when the ray direction is directed at a predetermined interval in the field of view with the maximum viewing angle Φ set from the viewpoint position p.

図4(a)に示すように、平面Fn内に、視点位置pを中心とし適当な半径の円が設定される。この円が図3の仮想投影面102に対応する。また、平面FnがV方向に順次回転させられると、前記円が回転することにより球が形成される。この球が本発明における視点位置を球状に取り囲む視野に対応する。この視点位置を球状に取り囲む視野のうち、視線方向Lを中心とした最大視野角Φ内の領域が全球型仮想内視鏡画像として投影面104に変換される。   As shown in FIG. 4A, a circle with an appropriate radius centered on the viewpoint position p is set in the plane Fn. This circle corresponds to the virtual projection plane 102 in FIG. Further, when the plane Fn is sequentially rotated in the V direction, a sphere is formed by the rotation of the circle. This sphere corresponds to a visual field that surrounds the viewpoint position in the present invention in a spherical shape. Of the field of view that surrounds this viewpoint position in a spherical shape, a region within the maximum viewing angle Φ centered on the line-of-sight direction L is converted to the projection plane 104 as a global virtual endoscopic image.

仮想投影面102上の各画素について画素値の算出が完了すると、全球型仮想内視鏡画像生成手段58は、所定の方法によって仮想投影面102を平面状に設けられた投影面104に変換し、全球型仮想内視鏡画像を得る。このとき、仮想投影面上の各画素は、それぞれ予め定められた関係などによって平面状の投影面104上の各画素に変換されるが、この変換においては、投影面104における歪みが少なくなるような変換が行なわれる。   When the calculation of the pixel value for each pixel on the virtual projection plane 102 is completed, the global virtual endoscope image generation means 58 converts the virtual projection plane 102 into a projection plane 104 provided in a planar shape by a predetermined method. A global virtual endoscopic image is obtained. At this time, each pixel on the virtual projection plane is converted into each pixel on the planar projection plane 104 according to a predetermined relationship or the like. In this conversion, distortion on the projection plane 104 is reduced. Conversion is performed.

図4(b)は、全球型仮想内視鏡画像の投影面104を示しており、図4(a)におけるレイの方向と、全球型仮想内視鏡画像上における画素の位置との関係の一例を説明する図である。図4(a)において丸、三角形、および四角形で表わされたレイの方向と、図4(b)において丸、三角形、および四角形で表わされた画素の位置とは、それぞれ相互に対応している。具体的には、全球型仮想内視鏡画像の投影面104における原点を通る直線Qn(n=1,2,…)上の画素のそれぞれが、図4(a)における各平面Fn上にあるレイのそれぞれに対応している。このとき、図4(b)の投影面104における原点を通る直線Qnの軸方向から原点回りの回転角度θ2が図4(a)における視線方向回り、すなわちV方向回りの回転角度θ2と対応している。また、図4(b)の投影面104における原点を通る直線Qn上の各画素は、それら各画素と投影面の原点との距離が、図4(a)における平面Fn上の各レイの方向θ1と所定の関係を満たすようにされている。この所定の関係とは、後述する図13、図23、あるいは図24などに示す関係である。具体的にはθ1が90度の場合に投影面104における座標原点に対応する。そしてθ1が負の場合にはx軸方向において負の領域に、また、θ1が正の場合にはx軸方向において正の領域にそれぞれ対応して前記所定の関係により対応づけられている。   FIG. 4B shows the projection surface 104 of the global virtual endoscopic image, and the relationship between the ray direction in FIG. 4A and the pixel position on the global virtual endoscopic image is shown. It is a figure explaining an example. The ray directions represented by circles, triangles, and squares in FIG. 4A correspond to the pixel positions represented by circles, triangles, and squares in FIG. 4B, respectively. ing. Specifically, each pixel on a straight line Qn (n = 1, 2,...) Passing through the origin on the projection surface 104 of the global virtual endoscopic image is on each plane Fn in FIG. It corresponds to each of Ray. At this time, the rotation angle θ2 around the origin from the axial direction of the straight line Qn passing through the origin on the projection plane 104 in FIG. 4B corresponds to the rotation angle θ2 around the visual line in FIG. 4A, that is, around the V direction. ing. Also, each pixel on the straight line Qn passing through the origin on the projection plane 104 in FIG. 4B has a distance between each pixel and the origin of the projection plane in the direction of each ray on the plane Fn in FIG. A predetermined relationship with θ1 is satisfied. This predetermined relationship is a relationship shown in FIG. 13, FIG. 23, or FIG. 24 described later. Specifically, when θ1 is 90 degrees, this corresponds to the coordinate origin on the projection plane 104. When θ1 is negative, they correspond to the negative region in the x-axis direction, and when θ1 is positive, they correspond to the positive region in the x-axis direction according to the predetermined relationship.

図2に戻って、特定領域処理手段60は、特定領域SR、すなわち特定の角度範囲が特定領域設定手段54によって設定された場合において、その特定領域SRが全球型仮想画像において拡大(伸長)あるいは縮小(圧縮)されて表示させるように全球型画像生成手段58を制御する。具体的には例えば、特定領域SRを全球型仮想画像において拡大(伸長)させる場合には、前述のように全球型可画像生成手段58が仮想投影面102上の各画素を平面状の投影面104の各画素に変換する際において、前記特定領域SRに対応する特定の角度範囲内にある画素の間隔が、その特定の角度範囲外にある画素の間隔に比べて広くなるように変換を行なう。より具体的には、仮想投影面102上の各画素の平面状の投影面104の各画素への変換の際に、前記特定の角度範囲内にある画素の間隔をその特定の角度範囲外にある画素の間隔に比べて広げる、前記特定の角度範囲外にある画素の間隔をその特定の角度範囲内にある画素の間隔に比べて狭める、あるいはそれらの両方を行なう。また、特定領域SRを全球型仮想画像において縮小(圧縮)させる場合には、前述のように全球型可画像生成手段58が仮想投影面102上の各画素を平面状の投影面104の各画素に変換する際において、前記特定領域に対応する特定の角度範囲内にある画素の間隔が、その特定の角度範囲外にある画素の間隔に比べて狭くなるように変換を行なう。より具体的には、仮想投影面102上の各画素の平面状の投影面104の各画素への変換の際に、前記特定の角度範囲内にある画素の間隔をその特定の角度範囲外にある画素の間隔に比べて狭める、前記特定の角度範囲外にある画素の間隔をその特定の角度範囲内にある画素の間隔に比べて広げる、あるいはそれらの両方を行なう。   Returning to FIG. 2, when the specific area SR, that is, the specific angle range is set by the specific area setting means 54, the specific area processing unit 60 expands (extends) the specific area SR in the global virtual image. The global image generation means 58 is controlled so as to be reduced (compressed) and displayed. Specifically, for example, when the specific region SR is enlarged (expanded) in the global virtual image, the global image generation unit 58 converts each pixel on the virtual projection surface 102 into a planar projection surface as described above. In the conversion to the 104 pixels, the conversion is performed so that the interval between the pixels within the specific angle range corresponding to the specific region SR is wider than the interval between the pixels outside the specific angle range. . More specifically, when converting each pixel on the virtual projection plane 102 to each pixel on the planar projection plane 104, the interval between the pixels within the specific angle range is out of the specific angle range. The interval between the pixels is increased compared with the interval between the pixels, the interval between the pixels outside the specific angle range is decreased as compared with the interval between the pixels within the specific angle range, or both. When the specific area SR is reduced (compressed) in the global virtual image, the global image generation unit 58 converts each pixel on the virtual projection plane 102 to each pixel on the planar projection plane 104 as described above. In the conversion, the conversion is performed so that the interval between the pixels within the specific angle range corresponding to the specific region is narrower than the interval between the pixels outside the specific angle range. More specifically, when converting each pixel on the virtual projection plane 102 to each pixel on the planar projection plane 104, the interval between the pixels within the specific angle range is out of the specific angle range. The interval between the pixels is narrowed compared with the interval between the pixels, the interval between the pixels outside the specific angle range is increased compared with the interval between the pixels within the specific angle range, or both.

透視型画像生成手段62は、透視型仮想内視鏡画像を生成する。透視型仮想内視鏡画像は、視点位置設定手段72によって設定される視点位置pから、視野設定手段52によって設定される最大視野角Φとした場合に透視投影法によって得られる仮想内視鏡画像に対応する。図5は透視型仮想内視鏡画像の概要を説明した図である。図5に示すように視点位置pおよび視線方向Lが設定される場合において、視点位置pから視線方向Lに所定の距離だけ離れた位置に、その視線方向Lと直交する平面上に投影面106を設ける。この投影面106の大きさは前記最大視野角Φによって決定される。そして、視点位置pから投影面106上に配置された所定の個数の画素のそれぞれの方向に対しレイ(Ray)を向けて、そのレイ上の各サンプル点の陰影値を不透明度として積算することにより、前記画素のそれぞれにおける画素値を計算するいわゆるレイキャスティング法を実行する。このようにして投影面106上の各画素について画素値の算出が完了すると、投影面106上における透視型仮想内視鏡画像が得られる。具体的には前記全球型画像生成手段58による全球型仮想内視鏡画像の生成に比べ、レイ方向が常に視点位置pと投影面106上の着目する画素とを結ぶ直線とされる(すなわち、図6のフローチャートにおいてステップS4が存在しない)点において異なる。なお、この透視型仮想内視鏡画像においては、視野の一定角度に対する投影面106上の画素の間隔は、最大視野角Φが広くなるほど画像の端部において広くなることから、画像の歪みが顕著なものとなる。   The fluoroscopic image generating means 62 generates a fluoroscopic virtual endoscope image. The perspective virtual endoscopic image is a virtual endoscopic image obtained by a perspective projection method when the maximum viewing angle Φ set by the visual field setting unit 52 is set from the viewpoint position p set by the visual point position setting unit 72. Corresponding to FIG. 5 is a diagram illustrating an outline of a perspective virtual endoscopic image. When the viewpoint position p and the line-of-sight direction L are set as shown in FIG. 5, the projection plane 106 is placed on a plane orthogonal to the line-of-sight direction L at a position away from the viewpoint position p in the line-of-sight direction L by a predetermined distance. Is provided. The size of the projection surface 106 is determined by the maximum viewing angle Φ. Then, a ray is directed to each direction of a predetermined number of pixels arranged on the projection plane 106 from the viewpoint position p, and the shadow value of each sample point on the ray is integrated as opacity. Thus, a so-called ray casting method for calculating a pixel value in each of the pixels is executed. When the calculation of the pixel value for each pixel on the projection plane 106 is completed in this way, a perspective virtual endoscopic image on the projection plane 106 is obtained. Specifically, the ray direction is always a straight line connecting the viewpoint position p and the pixel of interest on the projection plane 106 as compared to the generation of the global virtual endoscopic image by the global image generation means 58 (that is, This is different in that step S4 does not exist in the flowchart of FIG. In this perspective virtual endoscopic image, the interval between the pixels on the projection surface 106 with respect to a certain angle of the field of view becomes wider at the edge of the image as the maximum viewing angle Φ becomes wider, and thus image distortion is remarkable. It will be something.

表示手段64は、前記仮想内視鏡画像生成手段56によって生成された仮想内視鏡画像を出力装置26に表示することなどによって出力する。表示手段64は視野角表示手段66、表示切換手段68および対比表示手段70を機能的に有しており、前記仮想内視鏡画像生成手段56の全球型画像生成手段58によって生成される全球型仮想内視鏡画像、あるいは前記仮想内視鏡画像生成主案56の透視型画像生成手段62によって生成される透視型仮想内視鏡画像をそのまま表示するのみならず、これら各手段によって表示の態様を切り換えることができる。   The display means 64 outputs the virtual endoscopic image generated by the virtual endoscopic image generation means 56 by displaying it on the output device 26. The display means 64 functionally includes a viewing angle display means 66, a display switching means 68, and a contrast display means 70, and the global type generated by the global image generation means 58 of the virtual endoscope image generation means 56. The virtual endoscope image or the perspective virtual endoscope image generated by the perspective image generation means 62 of the virtual endoscope image generation draft 56 is displayed as it is, and the display mode is displayed by each of these means. Can be switched.

視野角表示手段66は、前記仮想内視鏡画像生成手段56によって生成された仮想内視鏡画像を出力装置26に表示する際に、その画像中に視野角を表示する記号を前記仮想内視鏡画像に重ね合わせて表示する。   When the virtual endoscopic image generated by the virtual endoscopic image generating unit 56 is displayed on the output device 26, the viewing angle display unit 66 displays a symbol for displaying the viewing angle in the image. It is displayed superimposed on the mirror image.

図16は、前記仮想内視鏡画像生成手段56の全球型画像生成手段58によて生成された全球型仮想内視鏡画像の例を示したものであり、さらにその全球型仮想内視鏡画像と、前記視野角表示手段66により表示される視野角を表示する記号とを重ね合わられた場合の例でもある。この画像は、出力装置26に表示される。図16の全球型仮想内視鏡画像は最大視野角Φが360度とされているので、図16において長方形状に表わされた全球型仮想内視鏡画像において、4つの各頂点は、視野角が360度に対応する。図16の例においては、全球型内視鏡画像上に、視野角が180度である点を結んだ円と、視野角が320度である点を結んだ円の2つがそれぞれ視野角を表示する記号として表示されている。また、それら二つの円を識別するために、それらの円に対応する方向と視軸方向とのなす角の大きさ、すなわち視野角の1/2の大きさが数字によりそれらの円の近傍に表示されている。   FIG. 16 shows an example of a global virtual endoscopic image generated by the global image generating means 58 of the virtual endoscopic image generating means 56, and further the global virtual endoscope It is also an example when the image and the symbol for displaying the viewing angle displayed by the viewing angle display means 66 are superimposed. This image is displayed on the output device 26. Since the maximum viewing angle Φ is 360 degrees in the global virtual endoscopic image of FIG. 16, in the global virtual endoscopic image represented in a rectangular shape in FIG. The angle corresponds to 360 degrees. In the example of FIG. 16, two viewing angles are displayed on the global endoscope image: a circle connecting points with a viewing angle of 180 degrees and a circle connecting points with a viewing angle of 320 degrees. It is displayed as a symbol. In addition, in order to identify these two circles, the angle between the direction corresponding to the circles and the visual axis direction, that is, the half of the viewing angle is indicated by a number in the vicinity of the circles. It is displayed.

表示切換手段68は、仮想内視鏡画像生成手段56の全球型画像生成手段58によって生成される全球型仮想内視鏡画像と、透視型画像生成手段62によって生成される透視型仮想内視鏡画像とを切り換えて表示する。この切換表示は、例えば入力装置24によるユーザの指示に基づいて切換を行なうものであっても良いし、後述するように、仮想内視鏡画像の最大視野角Φに基づくなど自動的に行なわれてもよい。   The display switching means 68 includes a global virtual endoscope image generated by the global image generation means 58 of the virtual endoscope image generation means 56 and a perspective virtual endoscope generated by the perspective image generation means 62. Switch between images. This switching display may be performed based on, for example, a user instruction from the input device 24, or automatically performed based on the maximum viewing angle Φ of the virtual endoscopic image, as will be described later. May be.

図17は起腹した(腹部に空気等を入れて膨らませた)腹部に挿入した腹腔鏡の画像を本発明の仮想内視鏡装置によって生成させた場合に得られる仮想内視鏡画像を示した図であって、図17(a)は最大視野角Φを130度とした場合の透視型仮想内視鏡画像、図17(b)は最大視野角Φを179度とした場合の透視型仮想内視鏡画像、図17(c)は最大視野角Φを360度とした場合の全球型仮想内視鏡画像をそれぞれ示している。また、図18は被検体の大腸に挿入した内視鏡の画像を本発明の仮想内視鏡装置によって生成させた場合に得られる仮想内視鏡画像を示した図であって、図18(a)は最大視野角Φを112度とした場合の透視型仮想内視鏡画像、図18(b)は最大視野角Φを179度とした場合の透視型仮想内視鏡画像、図17(c)は最大視野角Φを360度とした場合の全球型仮想内視鏡画像をそれぞれ示している。   FIG. 17 shows a virtual endoscopic image obtained when an image of a laparoscope inserted into the abdomen that has been ablated (inflated with air or the like) is generated by the virtual endoscopic device of the present invention. FIG. 17A is a perspective virtual endoscope image when the maximum viewing angle Φ is 130 degrees, and FIG. 17B is a perspective virtual endoscope when the maximum viewing angle Φ is 179 degrees. Endoscopic image, FIG. 17C shows a global virtual endoscopic image when the maximum viewing angle Φ is 360 degrees. FIG. 18 is a diagram showing a virtual endoscopic image obtained when an endoscope image inserted into the large intestine of a subject is generated by the virtual endoscopic device of the present invention. FIG. 18A is a perspective virtual endoscope image when the maximum viewing angle Φ is 112 degrees, and FIG. 18B is a perspective virtual endoscope image when the maximum viewing angle Φ is 179 degrees. c) shows a global virtual endoscopic image when the maximum viewing angle Φ is 360 degrees.

これら図17(a)および図18(a)の各図に示すように、最大視野角Φが180度未満の場合には理論的に透視型仮想内視鏡画像を生成することができるが、画面の端に近づく程、画像のゆがみが大きくなっている。また、図17(b)および図18(b)の各図に最大視野角Φが179度の例で示したように、最大視野角Φが180度近づくと、画面が発散してしまい、透視型仮想内視鏡画像においては写っているものを判別することが用意ではない。一方図17(c)および図18(c)の各図に示すように、全球型仮想内視鏡画像においては、最大視野角Φが180度を超える場合においても、画像が歪みなく表示され、例えば図17(c)において球状のポリープが視認できるなど、画像上に写っているものを好適に識別できる。そのため、前記表示手段68は、例えば仮想内視鏡画像の最大視野角Φが連続的に変化させられる場合において、最大視野角Φが予め設定された閾値を超える場合には透視型仮想内視鏡画像から全球型仮想内視鏡画像に表示を変更する。この閾値は、透視型仮想内視鏡画像において歪みが大きく画面上の表示が識別できなくなる程度を表わす値であり、予め実験的に設定されることができる。   As shown in FIGS. 17 (a) and 18 (a), when the maximum viewing angle Φ is less than 180 degrees, a fluoroscopic virtual endoscope image can be theoretically generated. The closer to the edge of the screen, the greater the distortion of the image. Further, as shown in the examples of FIGS. 17B and 18B in which the maximum viewing angle Φ is 179 degrees, when the maximum viewing angle Φ approaches 180 degrees, the screen diverges, and the fluoroscopy In the type virtual endoscopic image, it is not ready to discriminate what is shown. On the other hand, as shown in FIGS. 17C and 18C, in the global virtual endoscopic image, even when the maximum viewing angle Φ exceeds 180 degrees, the image is displayed without distortion. For example, a spherical polyp can be visually recognized in FIG. Therefore, for example, when the maximum viewing angle Φ of the virtual endoscopic image is continuously changed, the display means 68 is a fluoroscopic virtual endoscope when the maximum viewing angle Φ exceeds a preset threshold value. The display is changed from an image to a global virtual endoscopic image. This threshold value is a value representing the degree of distortion in a fluoroscopic virtual endoscope image and the display on the screen cannot be identified, and can be set experimentally in advance.

また、図17および図18に示したように、表示手段64が出力装置26に仮想内視鏡画像を表示する際に、予め記憶装置28に記憶されている三次元画像データfから生成される被検体の断層画像とともに関連づけられて表示されている。この関連付けは、例えば断層画像における断面に仮想内視鏡画像の視線方向Lが含まれるように表示されるなどとすることができる。このようにすれば、被検体の共通する部位を複数の方法によって表示される異なる画像により同時に視認することができる。   Further, as shown in FIGS. 17 and 18, when the display unit 64 displays a virtual endoscopic image on the output device 26, it is generated from the three-dimensional image data f stored in the storage device 28 in advance. It is displayed in association with the tomographic image of the subject. This association can be displayed, for example, so that the cross section in the tomographic image includes the line-of-sight direction L of the virtual endoscopic image. In this way, a common part of the subject can be visually recognized simultaneously by different images displayed by a plurality of methods.

図2に戻って、対比表示手段70は、前記仮想内視鏡画像生成手段56の全球型画像生成手段58によって生成される全球型仮想内視鏡画像と、透視型画像生成手段62によって生成される透視型仮想内視鏡画像とを対比可能に表示する。このとき、全球型仮想内視鏡画像と透視型仮想内視鏡画像とは、ともに共通する視点位置pからの仮想内視鏡画像とすることができる。このようにすれば、共通する視点位置から異なる方法により生成された仮想内視鏡画像を同時に参照することができる。すなわち、実際の内視鏡画像に近い透視型仮想内視鏡画像と、その透視型仮想内視鏡画像と同じ視点位置pにおいて最大視野角を広げたり、あるいは特定の角度範囲SRを拡大表示した全球型仮想内視鏡画像とを対比可能に同時に参照することができる。   Returning to FIG. 2, the contrast display means 70 is generated by the global virtual endoscope image generated by the global image generation means 58 of the virtual endoscope image generation means 56 and the perspective image generation means 62. The perspective virtual endoscopic image is displayed in a comparable manner. At this time, the global virtual endoscopic image and the perspective virtual endoscopic image can both be virtual endoscopic images from a common viewpoint position p. In this way, it is possible to simultaneously refer to virtual endoscopic images generated by different methods from a common viewpoint position. That is, a perspective virtual endoscopic image close to an actual endoscopic image and the maximum viewing angle at the same viewpoint position p as the perspective virtual endoscopic image or a specific angle range SR is enlarged and displayed. The global virtual endoscopic image can be referred to at the same time so as to be comparable.

図19は、出力装置26に表示される仮想内視鏡画像の一例を説明する図であって、表示手段64の対比表示手段70により透視型仮想内視鏡画像と全球型仮想内視鏡画像とが対比可能に表示された場合を説明する図である。図19の画像において、第1仮想内視鏡画像表示領域114と第2仮想内視鏡画像表示領域116が設けられており、第1仮想内視鏡画像表示領域114には透視型仮想内視鏡画像が表示され、第2仮想内視鏡画像表示領域116には全球型仮想内視鏡画像が表示されている。図19の例においては、これらの透視型仮想内視鏡画像と全球型仮想内視鏡画像とは共通する視点位置pにおける画像であり、最大視野角Φは相互に異なったものとされているが、このような条件に限られない。   FIG. 19 is a diagram illustrating an example of a virtual endoscopic image displayed on the output device 26, and a perspective virtual endoscopic image and a global virtual endoscopic image are displayed by the contrast display unit 70 of the display unit 64. It is a figure explaining the case where and are displayed so that contrast is possible. In the image of FIG. 19, a first virtual endoscopic image display area 114 and a second virtual endoscopic image display area 116 are provided, and the first virtual endoscopic image display area 114 has a fluoroscopic virtual endoscope. A mirror image is displayed, and a global virtual endoscopic image is displayed in the second virtual endoscopic image display area 116. In the example of FIG. 19, the fluoroscopic virtual endoscope image and the global virtual endoscopic image are images at a common viewpoint position p, and the maximum viewing angle Φ is different from each other. However, it is not limited to such conditions.

なお図19の例においては、第1仮想内視鏡画像表示領域114と第2仮想内視鏡画像表示領域116に加え、第3の表示領域118が設けられており、第1仮想内視鏡画像表示領域114および第2仮想内視鏡画像表示領域116に表示される仮想内視鏡画像の視点位置pに対応する複数種類の断層画像が表示されている。このようにすれば、仮想内視鏡画像の視点位置pや視線方向Lと3次元画像データfに基づいて生成される断層画像とを対応づけて表示することができる。しかしながら、この第3の表示領域118は必須ではない。   In the example of FIG. 19, a third display area 118 is provided in addition to the first virtual endoscope image display area 114 and the second virtual endoscope image display area 116, and the first virtual endoscope image display area 116 is provided. A plurality of types of tomographic images corresponding to the viewpoint position p of the virtual endoscopic image displayed in the image display area 114 and the second virtual endoscopic image display area 116 are displayed. In this way, the viewpoint position p and line-of-sight direction L of the virtual endoscopic image and the tomographic image generated based on the three-dimensional image data f can be displayed in association with each other. However, the third display area 118 is not essential.

図6は、仮想内視鏡画像生成手段56の全球型画像生成手段58における制御作動の要部について説明するフローチャートである。図6のフローチャートは所定の間隔により繰り返し実行される。まず記憶手段28に対応するステップ(以下「ステップ」を省略する。)S1においては、被検体の三次元画像データfが読み出される。   FIG. 6 is a flowchart for explaining a main part of the control operation in the global image generation means 58 of the virtual endoscope image generation means 56. The flowchart of FIG. 6 is repeatedly executed at predetermined intervals. First, in a step (hereinafter, “step” is omitted) S1 corresponding to the storage means 28, the three-dimensional image data f of the subject is read.

続いて視点位置設定手段50、視野設定手段52などに対応するS2においては、視点位置p、視線方向L、最大視野角Φの値が設定されるとともに、以降の処理において方向の基準となる視軸方向ベクトルd_v、右向き方向ベクトルd_r、および上向き方向ベクトルd_uが設定される。仮想内視鏡画像の生成の際に、ボリュームレンダリング法において、ボクセルの不透明度を表わすための不透明度テーブルの設定が行なわれる。この不透明度テーブルは、S1で取り込まれた例えばCT値である3次元画像データfについて、ボリュームレンダリングにおける不透明度との関連付けを行なうものである。なお、この不透明度テーブルは予め設定されて記憶されたものが用いられても良いし、ユーザによりコントラストや透明度を変更することが可能となるように、その都度設定されるようにしてもよい。   Subsequently, in S2 corresponding to the viewpoint position setting means 50, the visual field setting means 52, and the like, the values of the viewpoint position p, the line-of-sight direction L, and the maximum visual field angle Φ are set, and the view that becomes the reference of the direction in the subsequent processing. An axial direction vector d_v, a rightward direction vector d_r, and an upward direction vector d_u are set. At the time of generating a virtual endoscopic image, an opacity table is set for representing the opacity of a voxel in the volume rendering method. This opacity table associates, for example, the three-dimensional image data f, which is a CT value taken in S1, with the opacity in volume rendering. This opacity table may be set and stored in advance, or may be set each time so that the user can change contrast and transparency.

図7を用いて、前記視軸方向ベクトルd_v、右向き方向ベクトルd_r、および上向き方向ベクトルd_uについて説明する。図7に示すように、視軸方向ベクトルd_vは、投影面104の中央をその投影面104に垂直に交差する方向ベクトルであり、前記視点位置設定手段50において設定される視線方向Lに対応する。また、右向き方向ベクトルd_r、および上向き方向ベクトルd_uは、投影面104における右向きおよび上向きの方向を定義づけるものであって、それぞれ投影面104内において直交するベクトルである。具体的には本実施例においては、右向き方向ベクトルd_rは投影面104の長辺方向に、また、上向き方向ベクトルd_uは投影面104の短辺方向にそれぞれ平行なベクトルとして定義されている。なお、投影面104は、図7において視軸方向ベクトルd_vと交差する周辺においては、仮想投影面102の接面となっている。   The visual axis direction vector d_v, the rightward direction vector d_r, and the upward direction vector d_u will be described with reference to FIG. As shown in FIG. 7, the visual axis direction vector d_v is a direction vector that intersects the center of the projection plane 104 perpendicularly to the projection plane 104, and corresponds to the line-of-sight direction L set by the viewpoint position setting means 50. . Further, the right direction vector d_r and the upward direction vector d_u define the right direction and the upward direction on the projection plane 104, and are vectors orthogonal to each other in the projection plane 104. Specifically, in this embodiment, the right direction vector d_r is defined as a vector parallel to the long side direction of the projection plane 104 and the upward direction vector d_u is defined as a vector parallel to the short side direction of the projection plane 104. Note that the projection plane 104 is a contact surface of the virtual projection plane 102 in the periphery intersecting the visual axis direction vector d_v in FIG.

図6に戻って、S3においては、投影面104における画像上の位置を表わす座標(x,y)が初期化され、(x,y)=(0.0)とされる。本実施例においては、投影面104における座標(x,y)は、投影面104の中心、すなわち視軸方向ベクトルd_v(視線方向L)と座標(x,y)面104との交点が座標原点とされる。また、投影面104の長辺の正方向の長さおよび負方向の長さ、また、短辺の正方向の長さおよび負方向の長さをそれぞれ1に規格化した規格化座標系が用いられる。従って、座標(x,y)は、−1≦x,y≦1である。この規格化座標系の例を図12に示す。この座標(x,y)は、投影面104における各画素を表わす。   Returning to FIG. 6, in S <b> 3, coordinates (x, y) representing the position on the projection plane 104 on the image are initialized to (x, y) = (0.0). In the present embodiment, the coordinate (x, y) on the projection plane 104 is the center of the projection plane 104, that is, the intersection of the visual axis direction vector d_v (gaze direction L) and the coordinate (x, y) plane 104 is the coordinate origin. It is said. Further, a standardized coordinate system is used in which the length of the long side of the projection surface 104 in the positive direction and the length in the negative direction, and the length of the short side in the positive direction and the length in the negative direction are normalized to 1, respectively. It is done. Therefore, the coordinates (x, y) are −1 ≦ x, y ≦ 1. An example of this normalized coordinate system is shown in FIG. This coordinate (x, y) represents each pixel on the projection plane 104.

S4においては、投影面104における画素の1つについて、その画素に対応するレイの方向を計算するためのレイ方向計算サブルーチンが実行される。図8はこのレイ方向計算サブルーチンにおける制御作動の概要を説明するフローチャートである。まずSA1においては、投影面104における座標(x,y)、およびS2で設定された視軸方向ベクトルd_v、右向き方向ベクトルd_r、および上向き方向ベクトルd_uが読み込まれる。   In S4, a ray direction calculation subroutine for calculating the ray direction corresponding to the pixel on one of the pixels on the projection plane 104 is executed. FIG. 8 is a flowchart for explaining the outline of the control operation in this ray direction calculation subroutine. First, in SA1, the coordinates (x, y) on the projection plane 104, the visual axis direction vector d_v, the rightward direction vector d_r, and the upward direction vector d_u set in S2 are read.

続くSA2においては、座標(x,y)における画素に対応するレイの上向き方向ベクトルd_u周りの回転角度θ1を算出するためのθ1算出サブルーチンが実行される。図9はこのθ1算出サブルーチンにおける制御作動の概要を説明するフローチャートである。まずSB1においては、投影面104における座標(x,y)が設定される。続いて、SB2において、SB1で設定された座標(x,y)と原点との距離lが算出される。この距離lは幾何学的な距離であり、l=x+yに基づいて算出される。 In SA2, the θ1 calculation subroutine for calculating the rotation angle θ1 around the upward direction vector d_u of the ray corresponding to the pixel at the coordinates (x, y) is executed. FIG. 9 is a flowchart for explaining the outline of the control operation in the θ1 calculation subroutine. First, in SB1, coordinates (x, y) on the projection plane 104 are set. Subsequently, in SB2, the distance l between the coordinates (x, y) set in SB1 and the origin is calculated. This distance l is a geometric distance and is calculated based on l 2 = x 2 + y 2 .

続いてSB3においては、SB2で算出された距離lと座標(x,y)における上向き方向ベクトルd_u周りの回転角度θ1とを関連づけるための関係f(l)が設定される。本実施例においては、f(l)は図13に示すように距離lと回転角度θ1とは線形の関係を有するように設定されている。このようにf(l)が設定される場合において、規格化座標系で表わされた投影面104において、各回転角度θ1に対応する座標(x,y)を示したのが図12の点線である。図12の点線は、それぞれ、回転角度θ1がπ/4、π/2、3π/4、πとなる座標(x,y)を結んだ線である。   Subsequently, in SB3, the relationship f (l) for associating the distance l calculated in SB2 with the rotation angle θ1 around the upward vector d_u at the coordinates (x, y) is set. In this embodiment, f (l) is set so that the distance l and the rotation angle θ1 have a linear relationship as shown in FIG. When f (l) is set in this way, the coordinates (x, y) corresponding to each rotation angle θ1 on the projection plane 104 expressed in the standardized coordinate system are shown in FIG. It is. The dotted lines in FIG. 12 are lines connecting coordinates (x, y) at which the rotation angles θ1 are π / 4, π / 2, 3π / 4, and π, respectively.

SB4においては、SB2で算出された距離l、およびSB3で設定された距離lと回転角度θ1との関係f(l)に基づいて上向き方向ベクトルd_u周りの回転角度θ1が算出される。   In SB4, the rotation angle θ1 around the upward direction vector d_u is calculated based on the distance l calculated in SB2 and the relationship f (l) between the distance l set in SB3 and the rotation angle θ1.

図8に戻って、SA3においては、座標(x,y)における画素に対応するレイの右向き方向ベクトルd_r周りの回転角度θ2を算出するためのθ2算出サブルーチンが実行される。図10はこのθ2算出サブルーチンにおける制御作動の概要を説明するフローチャートである。まずSC1においては、投影面104における座標(x,y)が設定される。続いて、SC2においては、x座標の値が0であるか否かが判断される。x座標の値が0である場合には本ステップの判断が肯定されて、SC3が実行される。また、x座標の値が0でない場合には本ステップの判断が否定されて、SC7が実行される。   Returning to FIG. 8, in SA3, a θ2 calculation subroutine for calculating the rotation angle θ2 around the rightward direction vector d_r of the ray corresponding to the pixel at the coordinates (x, y) is executed. FIG. 10 is a flowchart for explaining the outline of the control operation in the θ2 calculation subroutine. First, in SC1, coordinates (x, y) on the projection plane 104 are set. Subsequently, in SC2, it is determined whether or not the value of the x coordinate is zero. If the value of the x coordinate is 0, the determination in this step is affirmed and SC3 is executed. If the value of the x coordinate is not 0, the determination at this step is denied and SC7 is executed.

x座標の値が0である場合に実行されるSC3においては、回転角度θ2がいったん0とされる。続いてSC4においてはy座標が0より大きい値であるか否かが判断される。y座標が0より大きい場合には本ステップの判断が肯定され、SC5が実行される。また、y座標の値が0以下である場合にはステップSC4の判断は否定され、SC6が実行される。SC5においてはSC3で0とされた回転角度θ2の値がπ/2とされる。また、SC6においてはSC3で0とされた回転角度θ2の値は−π/2とされる。   In SC3 executed when the value of the x coordinate is 0, the rotation angle θ2 is once set to 0. Subsequently, in SC4, it is determined whether or not the y coordinate is a value greater than zero. If the y coordinate is greater than 0, the determination in this step is affirmed and SC5 is executed. If the y-coordinate value is 0 or less, the determination at step SC4 is negative and SC6 is executed. In SC5, the value of the rotation angle θ2 that was set to 0 in SC3 is set to π / 2. In SC6, the value of the rotation angle θ2 that was set to 0 in SC3 is set to −π / 2.

x座標の値が0でない場合に実行されるSC7においては、回転角度θ2の値はy座標の値に対するx座標の値の逆正接、すなわちθ2=atan(y/x)のように設定される。   In SC7 executed when the value of the x coordinate is not 0, the value of the rotation angle θ2 is set as an arctangent of the value of the x coordinate with respect to the value of the y coordinate, that is, θ2 = atan (y / x). .

SC8においては、x座標の値が0未満であって、かつy座標の値が0より大きいか否かが判断される。この判断が肯定される場合には、SC9が実行される。SC9においては、SC7で算出された回転角度θ2の値にπが加算される。   In SC8, it is determined whether or not the value of the x coordinate is less than 0 and the value of the y coordinate is greater than 0. If this determination is affirmative, SC9 is executed. In SC9, π is added to the value of the rotation angle θ2 calculated in SC7.

また、SC10においては、x座標の値が0以下であって、かつy座標の値が0以下であるか否かが判断される。この判断が肯定される場合には、SC10が実行される。SC10においては、SC7で算出された回転角度θ2の値にπが加算される。   In SC10, it is determined whether or not the value of the x coordinate is 0 or less and the value of the y coordinate is 0 or less. If this determination is affirmative, SC10 is executed. In SC10, π is added to the value of the rotation angle θ2 calculated in SC7.

SC12においては、SC1乃至SC11の実行において得られたθ2の値が、右向き方向ベクトルd_r周りの回転角度θ2とされる。なお、このように設定されるθ2は、図12に示されたように、座標(x,y)と原点とを結ぶ直線とx軸とのなす角に対応している。   In SC12, the value of θ2 obtained in the execution of SC1 to SC11 is set as the rotation angle θ2 around the rightward direction vector d_r. Note that θ2 set in this way corresponds to an angle formed by a straight line connecting the coordinates (x, y) and the origin and the x axis, as shown in FIG.

図8に戻ってSA4においては、視軸方向ベクトルd_vが、上向き方向ベクトルd_u周りにθ1だけ回転されてd’_rayとさせられる。また、SA5においては、SA4で算出されたベクトルd’_rayが右向き方向ベクトルd_r周りにθ2だけ回転されてd’’_rayとさせられる。SA6において、SA5で算出されたベクトルd’’_rayが、座標(x,y)における画素に対応するレイの方向を示すベクトルd_rayとして決定される。   Returning to FIG. 8, in SA4, the visual axis direction vector d_v is rotated around the upward direction vector d_u by θ1 to be d′ _ray. In SA5, the vector d′ _ray calculated in SA4 is rotated by θ2 around the rightward direction vector d_r to be d ″ _ray. In SA6, the vector d ″ _ray calculated in SA5 is determined as a vector d_ray indicating the direction of the ray corresponding to the pixel at the coordinates (x, y).

図6に戻って、S5においては、座標(x,y)に対応する画素の陰影値を計算するための陰影値計算サブルーチンが実行される。図11は、この陰影値計算サブルーチンにおける制御作動の概要を説明するフローチャートである。   Returning to FIG. 6, in S5, a shadow value calculation subroutine for calculating the shadow value of the pixel corresponding to the coordinates (x, y) is executed. FIG. 11 is a flowchart for explaining the outline of the control operation in this shadow value calculation subroutine.

まず、SD1においては、3次元画像データf、視点位置p、レイ方向ベクトルd_ray、および不透明度テーブルが設定される。このうち、3次元画像データfは前記図6のS1において取り込まれたものであり、視点位置p、不透明度テーブルはS2において設定されたものである。また、レイ方向ベクトルd_rayはS4において算出されたものである。   First, in SD1, three-dimensional image data f, a viewpoint position p, a ray direction vector d_ray, and an opacity table are set. Among these, the three-dimensional image data f is taken in in S1 of FIG. 6, and the viewpoint position p and the opacity table are set in S2. The ray direction vector d_ray is calculated in S4.

SD2においては、レイと3次元画像とが交わる位置について、そのレイが3次元画像との交わりを開始する交わり開始位置指標k_beginおよびレイが3次元画像との交わりを終了する交わり終了位置指標k_endがそれぞれ算出される。このレイと3次元画像との交わりとは、レイがその進行方向であるレイ方向ベクトルd_rayに向かって進んだ場合に、3次元画像において被検体の体積領域に入り込むことを示している。具体的には、レイ上の点が、視点位置p、単位長さのレイ方向ベクトルd_ray、および任意の実数である位置指標kを用いて、p+k*d_rayで表わされる場合に、そのレイが3次元画像との交わりを開始する際の前記位置指標kの値が交わり開始位置指標k_beginであり、交わりを終了する際の前記位置指標kの値が交わり終了位置指標k_endである。   In SD2, the intersection start position index k_begin at which the ray starts to intersect with the three-dimensional image and the intersection end position index k_end at which the ray ends the intersection with the three-dimensional image are determined for the position where the ray and the three-dimensional image intersect. Each is calculated. The intersection of the ray and the three-dimensional image indicates that the ray enters the volume region of the subject in the three-dimensional image when the ray advances toward the ray direction vector d_ray that is the traveling direction. Specifically, when a point on a ray is represented by p + k * d_ray using a viewpoint position p, a unit length ray direction vector d_ray, and an arbitrary real position index k, the ray is 3 The value of the position index k at the start of the intersection with the dimensional image is the intersection start position index k_begin, and the value of the position index k at the end of the intersection is the intersection end position index k_end.

図14は、これら交わり開始位置および交わり終了位置を説明する図である。図14において視点位置pから投影面上のある画素に対応するレイに着目している。このレイは、点Aにおいて立方体状に表わされた被検体に対応する3次元画像の内部に入り、点Bにおいて3次元画像の外に出る。この点Aが前記交わり開始位置に対応し、点Bが交わり終了位置に対応する。   FIG. 14 is a diagram for explaining the intersection start position and the intersection end position. In FIG. 14, attention is paid to a ray corresponding to a certain pixel on the projection plane from the viewpoint position p. This ray enters the inside of the three-dimensional image corresponding to the subject represented in a cubic shape at point A, and goes out of the three-dimensional image at point B. This point A corresponds to the intersection start position, and point B corresponds to the intersection end position.

SD3においては、レイ上の位置を表わすための位置指標kの値が、前記交わり開始位置k_beginとされる。   In SD3, the value of the position index k for representing the position on the ray is set as the intersection start position k_begin.

SD4においては、被検体を含む3次元画像において注目する位置を表わす注目3次元画素位置vが算出される。この注目3次元画素位置vはSD3で設定された位置指標kを用いて、v=p+k*d_rayで表わされる。   In SD4, a target three-dimensional pixel position v representing a target position in a three-dimensional image including the subject is calculated. The target three-dimensional pixel position v is represented by v = p + k * d_ray using the position index k set in SD3.

SD5においては、SD4で算出された注目3次元画素位置vにおける不透明度が算出される。本実施例においては、この不透明度は具体的には3次元画像データfとして記憶手段28に記憶された画素値から前記不透明度テーブルを用いて変換される。具体的には例えば、被検体内において、予め相互に直交する3軸方向にそれぞれ所定の間隔を有する各点の画素値が3次元画像データfとして予め記憶されている。この場合には、前記注目3次元画素位置vを囲む近傍8点の画素値を抽出し、それら近傍8点のそれぞれの画素値から得られる不透明度を、それら8点のそれぞれと前記注目3次元画素位置vとの距離に応じた線形補間を行ない、前記注目三次元画素位置vにおける不透明度として算出する。なお、前述の図14の例においては、交わり開始位置である点Aから交わり終了位置である点Bの間における三角形で表わされた点のそれぞれが注目3次元画素位置vに対応する。   In SD5, the opacity at the target three-dimensional pixel position v calculated in SD4 is calculated. In this embodiment, the opacity is specifically converted from the pixel value stored in the storage means 28 as the three-dimensional image data f using the opacity table. Specifically, for example, pixel values of points having predetermined intervals in three axial directions orthogonal to each other in advance in the subject are stored in advance as three-dimensional image data f. In this case, pixel values of eight neighboring points surrounding the target three-dimensional pixel position v are extracted, and the opacity obtained from the pixel values of the eight neighboring points is set as the opacity of each of the eight points and the target three-dimensional pixel value. Linear interpolation according to the distance from the pixel position v is performed, and the opacity at the target three-dimensional pixel position v is calculated. In the example of FIG. 14 described above, each point represented by a triangle between the point A as the intersection start position and the point B as the intersection end position corresponds to the target three-dimensional pixel position v.

不透明度の算出について、図15を用いて詳しく説明する。なお、図15におけるXYZ座標系は説明のために便宜的に表わしたものであり、前述の実施例における座標系とは異なってもよい。図15においてサンプル点S(p,q,r)は不透明度を算出しようとする注目3次元画素位置vに対応する。また格子点Piは、3次元画像中fにおいて予め不透明度が得られている点を表わしている。図15におけるサンプル点S(p,q,r)での不透明度αはSの近傍格子点8点Piでの不透明度αPi(i=1,2,…,8)からそれぞれ次の線形補完によって算出される。
α=ω*αP1+ω*αP2+…ω*αP8
ここでωは係数を表わし、次式で定義される。
ω={1−(p−x)}{1−(q−y)}{1−(r−z)}
ω=(p−x){1−(q−y)}{1−(r−z)}
ω={1−(p−x)}(q−y){1−(r−z)}
ω=(p−x)(q−y){1−(r−z)}
ω={1−(p−x)}{1−(q−y)}(r−z)
ω=(p−x){1−(q−y)}(r−z)
ω={1−(p−x)}(q−y)(r−z)
ω=(p−x)(q−y)(r−z)
The calculation of the opacity will be described in detail with reference to FIG. The XYZ coordinate system in FIG. 15 is shown for convenience of explanation, and may be different from the coordinate system in the above-described embodiment. In FIG. 15, sample points S (p, q, r) correspond to the target three-dimensional pixel position v for which opacity is to be calculated. The lattice point Pi represents a point where opacity is obtained in advance in f in the three-dimensional image. The opacity α S at the sample point S (p, q, r) in FIG. 15 is the following linearity from the opacity α Pi (i = 1, 2,. Calculated by complementation.
α s = ω 1 * α P1 + ω 2 * α P2 + ... ω 8 * α P8
Here, ω i represents a coefficient and is defined by the following equation.
ω 1 = {1− (p−x)} {1− (q−y)} {1− (r−z)}
ω 2 = (p−x) {1− (q−y)} {1− (r−z)}
ω 3 = {1− (p−x)} (q−y) {1− (r−z)}
ω 4 = (p−x) (q−y) {1− (r−z)}
ω 5 = {1− (p−x)} {1− (q−y)} (r−z)
ω 6 = (p−x) {1− (q−y)} (r−z)
ω 7 = {1- (p−x)} (q−y) (r−z)
ω 8 = (p−x) (q−y) (r−z)

SD6においては、注目3次元画素位置vを囲む近傍8点におけるグラディエントベクトル(勾配ベクトル)grad(v)が算出される。この勾配ベクトルgrad(v)は、注目3次元画素位置vを囲む近傍8点のそれぞれについて、視線方向ベクトルd_v、上向き方向ベクトルd_u、右向き方向ベクトルd_r方向にそれぞれ隣接する画素に対する画素値 u,v,r の変化を表わすものであって、視線方向ベクトルd_v、上向き方向ベクトルd_u、右向き方向ベクトルd_rの各方向の変化量を成分とするベクトルとして表わされる。具体的には例えば、
grad(v)=(fv,u,r−fv−1,u,r, fv,u,r−fv,u−1,r, fv,u,r−fv,u,r−1
のように表わされる。ここでfv,u,rは注目3次元画素位置vにおける画素値を表わしており、fv−1,u,rはその注目3次元画素位置vよりもd_v方向において手前に位置する画素位置の画素値を表わしている。上向き方向、右向き方向についても同様である。
In SD6, a gradient vector (gradient vector) grad (v) is calculated at eight neighboring points surrounding the target three-dimensional pixel position v. This gradient vector grad (v) is a pixel value f u for pixels adjacent in the direction of the line-of-sight vector d_v, the upward direction vector d_u, and the rightward direction vector d_r for each of the eight neighboring points surrounding the target three-dimensional pixel position v . It represents changes in v and r , and is expressed as a vector whose component is the amount of change in each direction of the line-of-sight direction vector d_v, the upward direction vector d_u, and the rightward direction vector d_r. Specifically, for example,
grad (v) = ( fv, u, r- fv -1, u, r , fv, u, r- fv , u-1, r , fv, u, r- fv , u, r-1 )
It is expressed as Here, f v, u, r represents a pixel value at the target three-dimensional pixel position v, and f v-1, u, r is a pixel position positioned in the d_v direction before the target three-dimensional pixel position v. Represents the pixel value. The same applies to the upward direction and the right direction.

SD7においては、注目3次元画素位置vにおける陰影値の算出が行なわれる。陰影値の算出においても、前述のSD5における不透明度の算出と同様に、注目3次元画素位置vを囲む近傍8点の陰影値を算出し、それら近傍8点のそれぞれの陰影値を、それら8点のそれぞれと前記注目3次元画素位置vとの距離に応じた線形補完を行なうことにより、前記注目三次元画素位置vにおける陰影値として算出する。   In SD7, a shadow value at the target three-dimensional pixel position v is calculated. Also in the calculation of the shadow value, similarly to the calculation of the opacity in SD5 described above, the shadow values of the eight neighboring points surrounding the target three-dimensional pixel position v are calculated, and the respective shadow values of the eight neighboring points are calculated as 8 By performing linear interpolation according to the distance between each of the points and the target 3D pixel position v, a shadow value at the target 3D pixel position v is calculated.

陰影値の算出についても、図15を用いて説明する。図15においてサンプル点S(p,q,r)は陰影値を算出しようとする注目3次元画素位置vに対応する。また格子点Piは、3次元画像中fにおいて予め不透明度が得られている点を表わしている。図15におけるサンプル点S(p,q,r)での陰影値c (k=R,G,Bのそれぞれ)はSの近傍格子点8点Piでの陰影値cPi (i=1,2,…,8)からそれぞれ次の線形保管によって算出される。
=ω*cP1 +ω*cP2 +…+ω*cP8
なお、ωiは前述の係数と同様である。ここで、PiにおけるcPi は次式のように視軸方向ベクトルd_vと法線方向ベクトルNPiとの内積値にPiでの色情報IPi を乗算することにより求められる。すなわち、
Pi =(I・NPi)・IPi
である。ここで、NPiはSD6において算出された、注目3次元画素位置vを囲む近傍8点Piにおける勾配ベクトルgrad(Pi)を正規化したものであり、次式によって得られる。
NPi=grad(Pi)/||grad(Pi)||
The calculation of the shadow value will also be described with reference to FIG. In FIG. 15, a sample point S (p, q, r) corresponds to a target three-dimensional pixel position v for which a shadow value is to be calculated. The lattice point Pi represents a point where opacity is obtained in advance in f in the three-dimensional image. The shadow value c s k (k = R, G, B, respectively) at the sample point S (p, q, r) in FIG. 15 is the shadow value c Pi k (i = 1, 2, ...) are calculated by the following linear storage.
c s k = ω 1 * c P1 k + ω 2 * c P2 k +... + ω 8 * c P8 k
Note that ωi is the same as the aforementioned coefficient. Here, c Pi k in Pi is obtained by multiplying the color information I Pi k at Pi in the inner product value of the visual axis direction vector d_v the normal vector N Pi as follows. That is,
c Pi k = (I · N Pi ) · I Pi k
It is. Here, N Pi is obtained by normalizing the gradient vector grad (Pi) at the eight neighboring points Pi surrounding the target three-dimensional pixel position v calculated in SD6, and is obtained by the following equation.
NPi = grad (Pi) / || grad (Pi) ||

続いてSD8においては陰影値の積算が行なわれる。すなわち、交わり開始位置指標に対応するk=k_beginから、レイと重なる3次元画像の陰影値が積算される。Ckをサンプル点kまでの陰影値の積算値とすると、Ckは次式で表わされる。
Ck=Ck−1+βk*αk*ck
ここで、ckはサンプル点kにおける陰影値、αkはサンプル点kにおける不透明度である。またβkはサンプル点kまでの透明度の積算値であり、次式で定義される。
βk=βk−1*(1−αk)
なお、βの初期値であるβ0は、β0=1としている。
Subsequently, in SD8, shading values are accumulated. That is, from k = k_begin corresponding to the intersection start position index, the shadow value of the three-dimensional image overlapping the ray is integrated. When Ck is an integrated value of the shadow value up to the sample point k, Ck is expressed by the following equation.
Ck = Ck-1 + βk * αk * ck
Here, ck is the shadow value at the sample point k, and αk is the opacity at the sample point k. Βk is an integrated value of transparency up to the sample point k and is defined by the following equation.
βk = βk-1 * (1-αk)
Note that β0 which is an initial value of β is set to β0 = 1.

SD9においては、注目3次元画素位置vをレイ上のレイ方向ベクトルd_ray方向に所定方向だけ先のものするため、位置指標kの値が所定値stepだけ大きくされる。   In SD9, since the target three-dimensional pixel position v is advanced by a predetermined direction in the ray direction vector d_ray direction on the ray, the value of the position index k is increased by a predetermined value step.

SD10においては、本サブルーチンが終了するための所定の打ち切り条件が成立したか、あるいは位置指標の値が交わり終了点k_end以上となったか否かが判断される。このうち、所定の打ち切り条件は、例えば、SD8において算出される陰影値の積算値が不透明に対応する所定値を上回ることである。このようにすれば、レイキャスティングを投影面上の画素について順次実行する際に、投影面に近いサンプル点が不透明の場合、そのサンプル点から奥にあるサンプル点の陰影値は投影面に影響しないため、計算を省略することができるという利点がある。また、位置指標の値が交わり終了点k_end以上となった場合には、レイはすでに3次元画像と重なっていないため、陰影値の積算を必要としないためである。このように、所定の打ち切り条件が成立したか、あるいは位置指標の値が交わり終了点k_end以上となった場合には、本ステップの判断が肯定されて、直前のSD8において算出された陰影値の積算値が出力されて、本フローチャートが終了させられる。このように算出された陰影値の積算値が、投影面104の各画素に対応する陰影値とされる。一方、SD10の判断が否定された場合には、SD9で新たに設定された注目3次元画素位置vについて、SD4乃至SD10の処理が繰り返し実行される。   In SD10, it is determined whether a predetermined stop condition for ending this subroutine is satisfied, or whether the value of the position index is greater than or equal to the intersection end point k_end. Among these, the predetermined cutoff condition is, for example, that the integrated value of the shadow value calculated in SD8 exceeds a predetermined value corresponding to opaqueness. In this way, when the ray casting is sequentially performed on the pixels on the projection plane and the sample point close to the projection plane is opaque, the shadow value of the sample point behind the sample point does not affect the projection plane. Therefore, there is an advantage that the calculation can be omitted. In addition, when the position index value is equal to or greater than the intersection end point k_end, the ray has not already overlapped with the three-dimensional image, so that it is not necessary to accumulate shadow values. As described above, when the predetermined stop condition is satisfied or the value of the position index crosses the end point k_end or more, the determination of this step is affirmed and the shadow value calculated in the immediately preceding SD8 is determined. The integrated value is output and this flowchart is terminated. The integrated value of the shadow values calculated in this way is used as a shadow value corresponding to each pixel on the projection plane 104. On the other hand, when the determination of SD10 is negative, the processes of SD4 to SD10 are repeatedly executed for the target three-dimensional pixel position v newly set in SD9.

図6に戻ってS6においては、投影面104の別の画素について陰影値の算出を行なうため、投影面104における画素に対応する座標(x,y)が更新される。具体的には例えば、一つ右に位置する画素について着目し、それ以上右に画素が存在しない場合には、1つ下で最も左に位置する画素について着目するように座標(x,y)が更新される。   Returning to FIG. 6, in S <b> 6, the coordinates (x, y) corresponding to the pixel on the projection plane 104 are updated in order to calculate the shadow value for another pixel on the projection plane 104. Specifically, for example, the coordinates (x, y) are set so as to focus on the pixel located one right, and in the case where there is no further pixel on the right, focus on the pixel located on the leftmost one below. Is updated.

S7においては、投影面104における全ての画素について陰影値の算出が終了したか否かが判断される。投影面104における全ての画素について陰影値の算出が終了した場合には本ステップの判断が肯定され、S8が実行される。また、投影面104において陰影値の算出が終了していない画素が存在する場合には本ステップの判断が否定され、S6で更新された座標(x,y)に対応する画素について陰影値の算出が行なわれる。   In S7, it is determined whether or not the calculation of the shadow value has been completed for all the pixels on the projection plane 104. When the calculation of the shadow value has been completed for all the pixels on the projection plane 104, the determination in this step is affirmed and S8 is executed. If there is a pixel whose shadow value has not been calculated on the projection plane 104, the determination in this step is denied, and the shadow value is calculated for the pixel corresponding to the coordinate (x, y) updated in S6. Is done.

S7の判断が肯定された場合に実行されるS8においては、全球型仮想内視鏡画像が生成される。具体的には、投影面104上の各画素の色調が、S4乃至S7が繰り返し実行されて得られた陰影値とされることにより、全球型仮想内視鏡画像が生成される。また、S8に続いて実行されるS9は、表示手段64に対応するものであって、生成された仮想内視鏡画像の出力装置26への出力、すなわち表示が行なわれる。   In S8 executed when the determination in S7 is affirmed, a global virtual endoscopic image is generated. Specifically, the color tone of each pixel on the projection surface 104 is a shadow value obtained by repeatedly executing S4 to S7, thereby generating a global virtual endoscope image. S9 executed subsequent to S8 corresponds to the display means 64, and the generated virtual endoscopic image is output to the output device 26, that is, displayed.

図20は、S8において仮想内視鏡画像が出力装置26に表示される際に、その画像中に視野角を表示する記号が前記仮想内視鏡画像に重ね合わせて表示する視野角表示制御の制御作動を説明するフローチャートである。このフローチャートにおける制御作動は表示制御手段68に対応する。   FIG. 20 shows a view angle display control in which when a virtual endoscopic image is displayed on the output device 26 in S8, a symbol for displaying a view angle in the image is superimposed on the virtual endoscopic image. It is a flowchart explaining a control action. The control operation in this flowchart corresponds to the display control means 68.

まずSE1においては、ユーザにより視野角を表示する記号の重ね合わせ表示を行なう旨が設定されたか否かが判断される。ユーザにより表示を行なう旨の入力が行なわれた場合には本ステップの判断が肯定され、SE2以降が実行される。また、ユーザにより表示を行なう旨の入力が行なわれなかった場合には、本ステップの判断は否定され、フローチャートが終了させられる。   First, in SE1, it is determined whether or not it is set by the user to superimpose symbols for displaying the viewing angle. If the user inputs to display, the determination in this step is affirmed, and SE2 and subsequent steps are executed. If the user does not input to display, the determination in this step is denied and the flowchart is terminated.

SE2においては、仮想内視鏡画像の投影面104、106において、表示を行なおうとする視野角に対応する画素を結ぶ線が算出される。前述の図16の例においては、例えば視野角が180度に対応する画素を結ぶ円と視野角が320度に対応する画素を結ぶ円が算出される。   In SE2, on the projection planes 104 and 106 of the virtual endoscopic image, a line connecting pixels corresponding to the viewing angle to be displayed is calculated. In the example of FIG. 16 described above, for example, a circle connecting pixels corresponding to a viewing angle of 180 degrees and a circle connecting pixels corresponding to a viewing angle of 320 degrees are calculated.

SE3においては、SE2で算出された線が仮想内視鏡画像と重ね合わせて表示が行なわれる。具体的には、SE2で算出された線が仮想内視鏡画像において識別可能な色で表示される。図16の例では白い線により表示されている。   In SE3, the display is performed with the line calculated in SE2 superimposed on the virtual endoscopic image. Specifically, the line calculated in SE2 is displayed in a color that can be identified in the virtual endoscopic image. In the example of FIG. 16, it is displayed by a white line.

図21は、S8において仮想内視鏡画像生成手段56の全球型画像生成手段58によって生成される全球型仮想内視鏡画像と、透視型画像生成手段62によって生成される透視型仮想内視鏡画像とを切り換えて表示するための表示切換制御における制御作動を説明するフローチャートである。このフローチャートにおける制御作動は表示切換手段68に対応する。   FIG. 21 shows a global virtual endoscope image generated by the global image generation means 58 of the virtual endoscope image generation means 56 in S8 and a perspective virtual endoscope generated by the perspective image generation means 62. It is a flowchart explaining the control action | operation in the display switching control for switching and displaying an image. The control operation in this flowchart corresponds to the display switching means 68.

まずSF1において、表示している仮想内視鏡画像が透視型仮想内視鏡画像であるか否かが判断される。表示している仮想内視鏡画像が透視型仮想内視鏡画像である場合には本ステップの判断が肯定され、SF2が実行される。一方、表示している仮想内視鏡画像が全球型仮想内視鏡画像である場合には、本ステップの判断が否定され、SF5が実行される。   First, in SF1, it is determined whether or not the displayed virtual endoscopic image is a fluoroscopic virtual endoscopic image. When the displayed virtual endoscopic image is a fluoroscopic virtual endoscopic image, the determination in this step is affirmed and SF2 is executed. On the other hand, if the displayed virtual endoscopic image is a global virtual endoscopic image, the determination in this step is denied and SF5 is executed.

SF2においては、ユーザにより表示切換を行なう旨の操作が行なわれたか否かが判断される。ユーザにより表示切換を行なう旨の操作が行なわれた場合には本ステップの判断が肯定され、SF4が実行される。ユーザにより表示切換を行なう旨の操作が行なわれなかった場合には、本ステップの判断は否定され、SF3が実行される。   In SF2, it is determined whether or not an operation for switching the display has been performed by the user. When the user performs an operation for switching the display, the determination in this step is affirmed and SF4 is executed. If the user has not performed an operation for switching the display, the determination at this step is denied and SF3 is executed.

SF3においては、表示している透視型仮想内視鏡画像の視野角Φが、予め定められた閾値を上回っているか否かが判断される。この視野角の閾値は、透視型仮想内視鏡画像を用いた場合に、画像に表示されているものが識別することができなくなる程度にゆがむ角度とされる。視野角Φが、予め定められた閾値を上回っている場合には、本ステップの判断が肯定されて、SF4が実行される。一方、視野角Φが、予め定められた閾値を上回っていない場合には、表示の切換を行なうことなく本フローチャートが終了される。   In SF3, it is determined whether or not the viewing angle Φ of the displayed perspective virtual endoscope image exceeds a predetermined threshold value. The threshold value of the viewing angle is an angle that is distorted to such an extent that an object displayed in the image cannot be identified when a perspective virtual endoscopic image is used. If the viewing angle Φ exceeds a predetermined threshold, the determination in this step is affirmed and SF4 is executed. On the other hand, when the viewing angle Φ does not exceed a predetermined threshold value, this flowchart is terminated without switching the display.

SF2の判断が肯定された場合、およびSF3の判断が肯定された場合に実行されるSF4においては、表示手段64により表示される仮想内視鏡画像を透視型仮想内視鏡画像から全球型仮想内視鏡画像に切り換える。   In SF4 executed when the determination of SF2 is affirmed and when the determination of SF3 is affirmed, the virtual endoscopic image displayed by the display unit 64 is changed from the fluoroscopic virtual endoscopic image to the global virtual image. Switch to endoscopic image.

SF5においては、ユーザにより表示切換を行なう旨の操作が行なわれたか否かが判断される。ユーザにより表示切換を行なう旨の操作が行なわれた場合には本ステップの判断が肯定され、SF6が実行される。ユーザにより表示切換を行なう旨の操作が行なわれなかった場合には、本ステップの判断は否定され、表示の切換を行なうことなく本フローチャートが終了される。   In SF5, it is determined whether or not an operation for switching the display has been performed by the user. If the user performs an operation for switching the display, the determination in this step is affirmed and SF6 is executed. If the user has not performed an operation for switching the display, the determination in this step is denied, and the flowchart is terminated without switching the display.

SF5の判断が肯定された場合に実行されるSF6においては、表示手段64により表示される仮想内視鏡画像を全球型仮想内視鏡画像から透視型仮想内視鏡画像に切り換える。   In SF6 executed when the determination in SF5 is affirmed, the virtual endoscopic image displayed by the display unit 64 is switched from the global virtual endoscopic image to the perspective virtual endoscopic image.

前述の実施例によれば、仮想内視鏡画像生成手段56の全球型画像生成手段58により、視点位置pを球状に取り囲む視野を有する全球型仮想内視鏡画像が生成され、表示手段64によってその全球型仮想内視鏡画像が出力装置26に表示されるので、仮想内視鏡装置10により視点位置pを球状に取り囲む広い視野を有する全球型仮想内視鏡画像を得ることができる。   According to the above-described embodiment, a global virtual endoscopic image having a field of view surrounding the viewpoint position p in a spherical shape is generated by the global image generating unit 58 of the virtual endoscopic image generating unit 56, and is displayed by the display unit 64. Since the global virtual endoscopic image is displayed on the output device 26, the virtual endoscopic device 10 can obtain a global virtual endoscopic image having a wide field of view surrounding the viewpoint position p in a spherical shape.

前述の実施例によれば、仮想内視鏡画像生成手段56の全球型画像生成手段58は、視点位置pから視野に対しレイを発生させることによりボリュームレンダリング法を用いて前記全球型仮想内視鏡画像を生成するので、3次元画像データfに基づいて視点位置pを球状に取り囲む広い視野を有する全球型仮想内視鏡画像を生成することができる。   According to the above-described embodiment, the global image generation unit 58 of the virtual endoscopic image generation unit 56 generates the ray from the viewpoint position p to the field of view and uses the volume rendering method to generate the global virtual endoscope. Since the mirror image is generated, a global virtual endoscopic image having a wide field of view surrounding the viewpoint position p in a spherical shape can be generated based on the three-dimensional image data f.

前述の実施例によれば、仮想内視鏡画像生成手段56の全球型画像生成手段58は、予め設定された最大視野角Φの全球型仮想内視鏡画像を生成するので、視点位置pを球状に取り囲む視野について、操作者によって予め自由に設定された広い視野角の全球型仮想内視鏡画像を得ることができる。特に実際の内視鏡装置や透視法によっては実現できない、最大視野角Φが180度を上回る全球型仮想内視鏡画像を生成することができる。また、最大視野角Φが180度未満であっても透視型仮想内視鏡画像においては画像が発散して判読が困難となる最大視野角Φに対応した全球型仮想内視鏡画像を生成することができる。   According to the above-described embodiment, the global image generating unit 58 of the virtual endoscopic image generating unit 56 generates a global virtual endoscopic image having a preset maximum viewing angle Φ. A spherical virtual endoscopic image having a wide viewing angle that is freely set in advance by the operator can be obtained with respect to the spherically surrounding visual field. In particular, it is possible to generate a global virtual endoscopic image having a maximum viewing angle Φ exceeding 180 degrees, which cannot be realized by an actual endoscope apparatus or fluoroscopy. In addition, even if the maximum viewing angle Φ is less than 180 degrees, a global virtual endoscopic image corresponding to the maximum viewing angle Φ that diverges and is difficult to interpret in a fluoroscopic virtual endoscopic image is generated. be able to.

前述の実施例によれば、表示手段64により、全球型仮想内視鏡画像と、視野角を表示する記号とが重ね合わせて出力装置26に表示されるので、視点位置pを球状に取り囲む広い視野を有する全球型仮想内視鏡画像において視野角を把握することができる。   According to the above-described embodiment, the display unit 64 superimposes the global virtual endoscopic image and the symbol for displaying the viewing angle on the output device 26 so that the viewpoint position p is spherically surrounded. A viewing angle can be grasped in a global virtual endoscopic image having a visual field.

前述の実施例によれば、仮想内視鏡画像生成手段56においては、全球型画像生成手段58により生成される全球型仮想内視鏡画像に加えて、透視型画像生成手段62により視点位置pから透視法によって生成される透視型仮想内視鏡画像が生成され、表示手段64の表示切換手段68により、前記全球型仮想内視鏡画像と前記透視型仮想内視鏡画像とが切り換えて表示されるので、同一の視点位置pにおいて視点位置を球状に取り囲む広い視野を有する前記全球型仮想内視鏡画像と、実際の内視鏡画像に近い前記透視型仮想内視鏡画像とを切り換えて観察することができる。   According to the above-described embodiment, in the virtual endoscopic image generation unit 56, in addition to the global virtual endoscopic image generated by the global image generation unit 58, the viewpoint position p is generated by the perspective image generation unit 62. A fluoroscopic virtual endoscopic image generated by fluoroscopy is generated from the image, and the global virtual endoscopic image and the fluoroscopic virtual endoscopic image are switched and displayed by the display switching unit 68 of the display unit 64. Therefore, by switching between the global virtual endoscopic image having a wide field of view that surrounds the viewpoint position spherically at the same viewpoint position p, and the perspective virtual endoscopic image close to the actual endoscopic image. Can be observed.

また前述の実施例によれば、表示手段64は、最大視野角Φに応じて全球型仮想内視鏡画像と透視型仮想内視鏡画像と切り換えて出力装置26に表示するので、最大視野角Φに応じて仮想内視鏡画像を自動的に切り換えて表示することができる。   Further, according to the above-described embodiment, the display means 64 switches between the global virtual endoscopic image and the fluoroscopic virtual endoscopic image in accordance with the maximum viewing angle Φ and displays them on the output device 26, so the maximum viewing angle. The virtual endoscopic image can be automatically switched and displayed according to Φ.

前述の実施例によれば、仮想内視鏡画像生成手段56においては、全球型画像生成手段58により生成される全球型仮想内視鏡画像に加えて、透視型画像生成手段62により視点位置pから透視法によって生成される透視型仮想内視鏡画像が生成され、表示手段64の対比表示手段70により、前記全球型仮想内視鏡画像と、前記透視型仮想内視鏡画像とが対比可能に表示されるので、共通する視点位置から異なる方法により生成された仮想内視鏡画像を同時に参照することができ、仮想内視鏡画像の観察における利便性が向上する。   According to the above-described embodiment, in the virtual endoscopic image generation unit 56, in addition to the global virtual endoscopic image generated by the global image generation unit 58, the viewpoint position p is generated by the perspective image generation unit 62. A perspective virtual endoscopic image generated by a fluoroscopy method is generated from the image, and the global virtual endoscopic image can be compared with the fluoroscopic virtual endoscopic image by the contrast display means 70 of the display means 64 Therefore, the virtual endoscopic image generated by a different method from the common viewpoint position can be referred to at the same time, and the convenience in observing the virtual endoscopic image is improved.

続いて、本発明の別の実施例について説明する。以下の説明において、実施例相互に共通する部分については、同一の符号を付して説明を省略する。   Subsequently, another embodiment of the present invention will be described. In the following description, portions common to the embodiments are denoted by the same reference numerals and description thereof is omitted.

本実施例は、前述の実施例において、仮想内視鏡画像生成手段56の全球型画像生成手段58が全球型仮想内視鏡画像を生成する際の別の態様に関するものである。全球型画像生成手段58が全球型仮想内視鏡画像を生成する際において、レイの方向が算出されたが(図6のS4)、その際に、上向き方向ベクトルd_u周りの回転角度θ1が算出された(図8のSA2、図9)。ここで、回転角度θ1の算出は、投影面104上の座標(x,y)と座標原点の距離lと予め定められた関数θ1=f(l)に基づいて行なわれた。そして、前述の実施例においては、f(l)はlに関して線形の関数とされていた(図13参照)。かかる態様によれば、図12に示したように、規格化された投影面104上の各画素について、原点からの距離とその画素に対応する視野角とは線形の関係を有する。   This embodiment relates to another aspect in the case where the global image generation means 58 of the virtual endoscope image generation means 56 generates a global virtual endoscope image in the above-described embodiment. When the global image generation unit 58 generates the global virtual endoscopic image, the ray direction is calculated (S4 in FIG. 6). At this time, the rotation angle θ1 around the upward direction vector d_u is calculated. (SA2 in FIG. 8, FIG. 9). Here, the rotation angle θ1 is calculated based on the coordinate (x, y) on the projection plane 104, the distance l between the coordinate origins, and a predetermined function θ1 = f (l). In the above-described embodiment, f (l) is a linear function with respect to l (see FIG. 13). According to this aspect, as shown in FIG. 12, for each pixel on the standardized projection plane 104, the distance from the origin and the viewing angle corresponding to the pixel have a linear relationship.

一方、本実施例においては、f(l)はたとえば図23に示すようなlに対して非線形の関数が用いられる。このf(l)は、lが大きくなるほどlの増分に対するf(l)すなわちθ1の増分が小さくなる関数である。従って画像の端部に近い、すなわちlが大きい状態において、lの増分に対するθ1の増分が小さくされる。図22は前述の実施例の図12に対応する図であって、投影面104上の各画素のうち、同じ視野角に対応する画素を結んだ線が点線により表示されている。すなわち、画像の中央部ほど伸長して表示される一方、画像の端部、すなわち視野角が大きくなるほど圧縮して表示される。   On the other hand, in this embodiment, f (l) is a non-linear function with respect to l as shown in FIG. This f (l) is a function in which f (l) with respect to the increment of l, that is, the increment of θ1, decreases as l increases. Therefore, in the state close to the edge of the image, that is, when l is large, the increment of θ1 with respect to the increment of l is decreased. FIG. 22 is a diagram corresponding to FIG. 12 of the above-described embodiment, and among the pixels on the projection surface 104, a line connecting pixels corresponding to the same viewing angle is displayed by a dotted line. In other words, the center portion of the image is expanded and displayed, while the end portion of the image, that is, the viewing angle, is compressed and displayed.

このように、本実施例の全球型画像生成手段58によれば、投影面104上の各画素について、その画素に対応する視野角を、規格化された投影面104上の各画素と原点との距離に対して非線形の関係とすることができる。なお、このとき、関数f(l)は図23に示したものに限定されない。すなわち、このように、関数f(l)は線形のものに限られず、その選択により生成される全球型仮想内視鏡画像を変化させることができる。また、f(l)をユーザの入力装置24の操作などに基づいて切り換えることも可能である。   As described above, according to the global image generation unit 58 of the present embodiment, for each pixel on the projection surface 104, the viewing angle corresponding to the pixel is set to each pixel on the standardized projection surface 104 and the origin. It is possible to have a non-linear relationship with respect to the distance. At this time, the function f (l) is not limited to that shown in FIG. That is, in this way, the function f (l) is not limited to a linear one, and the global virtual endoscopic image generated by the selection can be changed. It is also possible to switch f (l) based on the user's operation of the input device 24 or the like.

本実施例においては、仮想内視鏡装置10は、特定領域設定手段54を有しており、また、仮想内視鏡画像生成手段56の全球型画像生成手段58は、特定領域処理手段60を有している。   In the present embodiment, the virtual endoscope apparatus 10 includes a specific area setting unit 54, and the global image generation unit 58 of the virtual endoscopic image generation unit 56 includes the specific area processing unit 60. Have.

特定領域設定手段54は、例えばユーザによる入力装置24の操作に基づいて、所定の視野角の領域を特定領域として設定するとともに、その特定領域の表示方法、すなわち特定領域を拡大表示すべきものであるか縮小表示すべきものであるかを設定する。   The specific area setting unit 54 sets an area having a predetermined viewing angle as the specific area based on, for example, an operation of the input device 24 by the user, and should display the specific area, that is, the specific area should be enlarged. Set whether to display in a reduced size.

また、特定領域処理手段60は、前記特定領域設定手段54により特定領域とされた視野角の領域を、設定された特定領域の表示方法により表示するための処理を行なう。具体的には、前記特定領域設定手段54により特定領域とされた視野角の領域を、設定された特定領域の表示方法により表示することのできる関数f(l)の選定を行なう。前述の実施例2で示したように、f(l)のlに対する勾配が急であるほど全球型仮想内視鏡画像においては拡大表示され、勾配が緩やかであるほど縮小表示される。従って、特定領域設定手段54により例えば「60度乃至80度の範囲」のように、特定の視野角の領域を拡大(伸長)表示する旨が設定された場合には、その視野角の領域に対応するlの範囲において、lに対するf(l)の勾配が、前記特定の視野角以外の領域に対応するlの範囲よりも急になるようなf(l)を設定する。また、特定領域設定手段54により特定の視野角の領域を縮小(圧縮)表示する旨が設定された場合には、その視野角の領域に対応するlの範囲において、lに対するf(l)の勾配が、前記特定の視野角以外の領域に対応するlの範囲よりも緩やかになるようなf(l)を設定する。この設定は、予め用意された複数種類の関数f(l)の候補から、特定領域設定手段54における設定を実現するのに最も適した関数を選択するようにしても良いし、特定領域設定手段54における設定を実現するのに適した関数f(l)を生成してもよい。   Further, the specific area processing means 60 performs processing for displaying the area of the viewing angle that has been set as the specific area by the specific area setting means 54 by the set display method of the specific area. Specifically, the function f (l) that can display the region of the viewing angle that has been set as the specific region by the specific region setting means 54 by the display method of the set specific region is selected. As shown in the above-described second embodiment, the steeper gradient of f (l) with respect to l is enlarged in the global virtual endoscopic image, and is reduced and displayed as the gradient is gentler. Therefore, when it is set by the specific area setting unit 54 to display an enlarged (expanded) area of a specific viewing angle, for example, “range of 60 to 80 degrees”, the area of the viewing angle is displayed. In the corresponding l range, f (l) is set such that the gradient of f (l) with respect to l becomes steeper than the l range corresponding to the region other than the specific viewing angle. Further, when it is set by the specific region setting means 54 that the region of the specific viewing angle is to be reduced (compressed), the f (l) with respect to l in the range of l corresponding to the region of the viewing angle. F (l) is set such that the gradient is gentler than the range of l corresponding to the region other than the specific viewing angle. For this setting, a function most suitable for realizing the setting in the specific area setting means 54 may be selected from a plurality of types of functions f (l) prepared in advance, or the specific area setting means A function f (l) suitable for realizing the setting in 54 may be generated.

また、特定領域設定手段54として拡大もしくは縮小表示される視野角の領域を指定するのに代えて、ユーザにより関数f(l)を生成することも可能である。   Further, instead of designating the region of the viewing angle to be enlarged or reduced as the specific region setting means 54, the function f (l) can be generated by the user.

図24は、ユーザによるf(l)の生成に際して提供されるインタフェースの一例を示した図である。このインタフェースは例えば出力装置26に表示され、入力装置24による入力に対応してその表示が変化させられる。図24のインタフェースにおいては、前述の実施例の図13あるいは図23に対応するグラフが表示されており、そのグラフ上に四角で表わされた複数のハンドル90が設けられている。このハンドルを例えば入力装置24としてのマウスにより移動させることで、関数f(l)の形状を変化させることができるようにされている。このようにすれば、規格化投影面における座標(x,y)と原点との距離lに対する回転角度θ1(=f(l))を直感的に、あるいは試行錯誤的に設定することができる。   FIG. 24 is a diagram illustrating an example of an interface provided when f (l) is generated by the user. This interface is displayed on the output device 26, for example, and the display is changed corresponding to the input by the input device 24. In the interface of FIG. 24, a graph corresponding to FIG. 13 or FIG. 23 of the above-described embodiment is displayed, and a plurality of handles 90 represented by squares are provided on the graph. The shape of the function f (l) can be changed by moving the handle with a mouse as the input device 24, for example. In this way, the rotation angle θ1 (= f (l)) with respect to the distance l between the coordinate (x, y) on the standardized projection plane and the origin can be set intuitively or by trial and error.

前述の実施例3によれば、仮想内視鏡画像生成手段56の全球型画像生成手段58は、前記視野角において、特定の角度領域を伸長あるいは圧縮した全球型仮想内視鏡画像を生成するので、視点位置pを球状に取り囲む広い視野を有するとともに、特定の視野角の角度範囲について拡大あるいは縮小した全球型仮想内視鏡画像を得ることができる。   According to the above-described third embodiment, the global image generation unit 58 of the virtual endoscope image generation unit 56 generates a global virtual endoscope image in which a specific angle region is expanded or compressed at the viewing angle. Therefore, it is possible to obtain a global virtual endoscopic image that has a wide field of view that surrounds the viewpoint position p in a spherical shape and that is enlarged or reduced with respect to a specific viewing angle range.

前述の実施例3によれば、特定領域設定手段54により、特定の角度領域の位置及び範囲は変更可能であるので、例えば操作者が拡大表示させたい特定の角度領域を指定することによりその角度領域を拡大した全球型仮想内視鏡画像を得ることができる。   According to the third embodiment described above, the position and range of the specific angle area can be changed by the specific area setting unit 54. For example, the angle can be specified by designating a specific angle area that the operator wants to enlarge and display. A global virtual endoscopic image with an enlarged region can be obtained.

本実施例においては、仮想内視鏡装置10は、特徴部位抽出手段72を有している。この特徴部位抽出手段72は、仮想内視鏡装置10が撮像しようとする被検体において、着目すべき部位を特徴部位として抽出する。この着目すべき部位とは、例えば、仮想内視鏡装置が大腸の仮想内視鏡画像に用いられる場合の腫瘍などに対応する。具体的には特徴部位抽出手段72は、予め記憶装置28に記憶された3次元画像データfに基づいて、前記着目すべき部位の位置を検出する。この検出は、例えば前記着目すべき部位に対応して3次元画像データに現れる特徴を予め記憶しておき、3次元画像データfがその特徴を含む、すなわち3次元画像データfにおいてその特徴と一致あるいは類似する部位が存在する場合にその部位を特徴部位として検出する、いわゆるモデルマッチングなどによって行なわれ得る。   In the present embodiment, the virtual endoscope apparatus 10 includes a feature part extraction unit 72. The feature part extraction unit 72 extracts a part to be noted as a feature part in the subject to be imaged by the virtual endoscope apparatus 10. The site to be noted corresponds to, for example, a tumor when the virtual endoscope device is used for a virtual endoscopic image of the large intestine. Specifically, the feature part extraction unit 72 detects the position of the part to be noted based on the three-dimensional image data f stored in the storage device 28 in advance. For this detection, for example, a feature appearing in the three-dimensional image data corresponding to the region to be noted is stored in advance, and the three-dimensional image data f includes the feature, that is, matches the feature in the three-dimensional image data f. Alternatively, it may be performed by so-called model matching in which, when a similar part exists, the part is detected as a characteristic part.

一方、本実施例において特定領域設定手段54は、特徴部位抽出手段72によって抽出された特徴部位が全球型画像生成手段58によって生成される全球型仮想内視鏡画像に含まれる場合において、その特徴部位を含む視野角の範囲が拡大して表示されるように特定領域を設定する。   On the other hand, in the present embodiment, the specific region setting unit 54 includes the feature when the feature part extracted by the feature part extraction unit 72 is included in the global virtual endoscopic image generated by the global image generation unit 58. The specific area is set so that the range of the viewing angle including the part is enlarged and displayed.

前述の実施例によれば、特徴部位抽出手段72により前記被検体の3次元画像データfから、予め設定された特徴を含む特徴部位が抽出され、全球型仮想内視鏡画像にその抽出された特徴部位が含まれる場合には特定領域設定手段によりその特徴部位を含むように前記特定の角度領域が設定されるとともに、前記仮想内視鏡画像生成手段により、特定域設定手段54によって設定された前記特定の角度領域が、特定領域処理手段60により拡大して表示されるので、視点位置を球状に取り囲む広い視野を有するとともに、予め設定された特徴を含む特徴部位が拡大して表示される全球型仮想内視鏡画像を得ることができる。   According to the above-described embodiment, the feature part including the preset feature is extracted from the three-dimensional image data f of the subject by the feature part extraction unit 72 and extracted to the global virtual endoscopic image. When a characteristic part is included, the specific angle area is set so as to include the characteristic part by the specific area setting unit, and set by the specific area setting unit 54 by the virtual endoscope image generation unit Since the specific angle region is enlarged and displayed by the specific region processing means 60, the whole globe has a wide field of view that surrounds the viewpoint position in a spherical shape, and a feature portion including a preset feature is enlarged and displayed. Type virtual endoscopic images can be obtained.

このとき、表示手段64の表示切換手段68において、特徴部位抽出手段72によって抽出された特徴部位が仮想内視鏡画像に表示される場合に、透視型仮想内視鏡画像から全球型仮想内視鏡画像に切り換えて表示することができる。このようにすれば、前記特徴部位が表示される場合に、その特徴部位が拡大表示されることが可能な前記全球型仮想内視鏡画像に切り換えて表示される。   At this time, when the feature part extracted by the feature part extraction means 72 is displayed on the virtual endoscopic image in the display switching means 68 of the display means 64, the global virtual endoscopic image is converted from the perspective virtual endoscopic image. You can switch to a mirror image for display. In this way, when the feature portion is displayed, the feature portion is switched to the global virtual endoscopic image that can be enlarged and displayed.

前述の実施例においては、表示手段64の視野角表示手段66は仮想内視鏡画像内において視野角を表示する記号を仮想内視鏡画像に重ね合わせることにより、仮想内視鏡画像において視野角を視認可能とした。本実施例においては、視野角表示手段66は、仮想内視鏡画像において、予め設定された視野角である境界角度の大きさを上回る領域と、その境界角度を下回る領域とで色相を異ならせることにより、仮想内視鏡画像において視野角を表示する。   In the above-described embodiment, the viewing angle display means 66 of the display means 64 superimposes a symbol for displaying the viewing angle in the virtual endoscopic image on the virtual endoscopic image, so that the viewing angle in the virtual endoscopic image is displayed. Was made visible. In the present embodiment, the viewing angle display means 66 makes the hue different between a region that exceeds the boundary angle that is a preset viewing angle and a region that falls below the boundary angle in the virtual endoscopic image. Thus, the viewing angle is displayed in the virtual endoscopic image.

図25は、前記視野角表示手段66によって、前記境界角度の大きさを上回る領域の色相と、その境界角度を下回る領域の色相とが異ならされた仮想内視鏡画像の一例を示す画像である。この図25は例えば出力装置26に表示される画面の一例である。この図25の例においては、前記境界角度は例えば視野角が180度とされている。そして、視野角が前記境界角度である180度を上回る領域110においては、視野角が前記境界角度である180度を下回る領域111よりもその色相が暗くなるように表示されている。このとき領域110と領域111との境界112が前記境界角度である視野角が180度に対応する。   FIG. 25 is an image showing an example of a virtual endoscopic image in which the hue of the region exceeding the size of the boundary angle and the hue of the region below the boundary angle are made different by the viewing angle display unit 66. . FIG. 25 shows an example of a screen displayed on the output device 26, for example. In the example of FIG. 25, the boundary angle is, for example, a viewing angle of 180 degrees. In the region 110 where the viewing angle exceeds 180 degrees which is the boundary angle, the hue is displayed darker than in the region 111 where the viewing angle is less than 180 degrees which is the boundary angle. At this time, the viewing angle at which the boundary 112 between the region 110 and the region 111 is the boundary angle corresponds to 180 degrees.

上述の実施例によれば、視野角が前記境界角度である180度以上の領域110の色相が、視野角が前記境界角度である180度未満の領域の色相111と異なり、暗くなるように表示されるので、仮想内視鏡画像において、予め設定された境界角度よりも視野角が狭い領域と、境界角度よりも視野角が広い領域とを区別することができる。また、仮想内視鏡画像において前記領域110と領域111の境界112により前記境界角度を視認することができる。   According to the above-described embodiment, the hue of the region 110 whose viewing angle is 180 degrees or more, which is the boundary angle, is different from the hue 111 of the region whose viewing angle is less than 180 degrees, which is the boundary angle, and is displayed so as to be dark. Therefore, in the virtual endoscopic image, it is possible to distinguish between a region having a viewing angle narrower than a preset boundary angle and a region having a viewing angle wider than the boundary angle. In addition, the boundary angle can be visually recognized by the boundary 112 between the region 110 and the region 111 in the virtual endoscopic image.

また、上述の実施例によれば、前記境界角度は視野角が180度とされていたので、視野角が境界角度である180度以上の領域110は全球型仮想内視鏡画像において視点位置よりも後方に対応し、視野角が180度未満の領域111は全球型仮想内視鏡画像において視点位置よりも前方に対応する。そして、領域110の色相と領域111の色相とが異ならせて表示される。そのため、実際の内視鏡画像や従来広く用いられていた透視法による透視型仮想内視鏡においては見ることのできなかった視点位置よりも後方に対応する領域を全球型仮想内視鏡画像において区別することができる   Further, according to the above-described embodiment, since the boundary angle is set to a viewing angle of 180 degrees, the region 110 having a viewing angle of 180 degrees or more, which is the boundary angle, is determined from the viewpoint position in the global virtual endoscopic image. Corresponds to the rear, and the region 111 having a viewing angle of less than 180 degrees corresponds to the front of the viewpoint position in the global virtual endoscopic image. Then, the hue of the area 110 and the hue of the area 111 are displayed differently. Therefore, in the global virtual endoscopic image, an area corresponding to the rear of the viewpoint position that could not be seen in an actual endoscopic image or in a fluoroscopic endoscopic endoscope that has been widely used in the past has been used. Can be distinguished

以上、本発明の実施例を図面に基づいて詳細に説明したが、本発明はその他の態様においても適用される。   As mentioned above, although the Example of this invention was described in detail based on drawing, this invention is applied also in another aspect.

例えば、前述の実施例に加え、入力装置24によるユーザの操作等に基づいて、視点位置pを連続的に変化させることができる。具体的には、仮想内視鏡画像生成手段56において、図6のフローチャートを繰り返し実行することにより視点位置pを連続的に変化させる際に、S2において設定される視点位置pが変化させられて全球型仮想内視鏡画像を連続的に生成されるので、連続して変化させる視点位置に対応した、その視点位置を球状に取り囲む広い視野を有する全球型仮想内視鏡画像を得ることができる。すなわち、仮想内視鏡を被検体内に進入あるいは退出させることに対応した仮想内視鏡画像が得られる。   For example, in addition to the above-described embodiment, the viewpoint position p can be continuously changed based on a user operation or the like by the input device 24. Specifically, when the virtual endoscopic image generation unit 56 continuously changes the viewpoint position p by repeatedly executing the flowchart of FIG. 6, the viewpoint position p set in S2 is changed. Since a global virtual endoscopic image is continuously generated, it is possible to obtain a global virtual endoscopic image having a wide field of view that surrounds the viewpoint position in a spherical shape corresponding to the viewpoint position that is continuously changed. . That is, a virtual endoscopic image corresponding to the entry or exit of the virtual endoscope into the subject is obtained.

また、前述の実施例に加え、入力装置24によるユーザの操作などに基づいて、全球型仮想内視鏡の最大視野角Φを連続的に変化させることができる。具体的には、仮想内視鏡画像生成手段56において、最大視野角Φが連続的に変化させられるのに伴って、仮想投影面102の形状が変化させられて全球型仮想内視鏡画像を連続的に生成されるので、連続して変化させる視点位置に対応した、その視点位置を球状に取り囲む広い視野を有する全球型仮想内視鏡画像を得ることができる。このようにすれば同一の視点位置において最大視野角が連続的に変化する仮想内視鏡画像が順次得られる。   In addition to the above-described embodiment, the maximum viewing angle Φ of the global virtual endoscope can be continuously changed based on the user's operation using the input device 24. Specifically, in the virtual endoscopic image generation means 56, as the maximum viewing angle Φ is continuously changed, the shape of the virtual projection plane 102 is changed so that a global virtual endoscopic image is obtained. Since it is continuously generated, it is possible to obtain a global virtual endoscopic image having a wide field of view surrounding the viewpoint position in a spherical shape corresponding to the viewpoint position that is continuously changed. In this way, virtual endoscopic images in which the maximum viewing angle continuously changes at the same viewpoint position are sequentially obtained.

また前述の実施例5において、表示手段64の視野角表示手段66は、生成する全球型仮想内視鏡画像の最大視野角Φが180度以上である場合に、視野角が境界角度である180度以上の領域については、視野角が境界角度未満である領域と色相を異ならせた、具体的には明度を暗くした全球型仮想内視鏡画像を生成したが、このような態様に限られない。例えば視野角が境界角度内の領域をカラー(色付き)で表示する一方、視野角が境界角度よりも大きい領域を白黒で表示することができる。また、境界角度は180度に限定されるものではなく、全球型仮想内視鏡画像において任意の角度に設定することができる。   In the fifth embodiment described above, the viewing angle display means 66 of the display means 64 has a viewing angle 180 that is a boundary angle when the maximum viewing angle Φ of the generated global virtual endoscopic image is 180 degrees or more. For the area above the degree, a global virtual endoscopic image having a hue different from that of the area where the viewing angle is less than the boundary angle, specifically, the lightness of darkness, was generated. Absent. For example, a region where the viewing angle is within the boundary angle is displayed in color (colored), while a region where the viewing angle is larger than the boundary angle can be displayed in black and white. The boundary angle is not limited to 180 degrees, and can be set to an arbitrary angle in the global virtual endoscopic image.

また、仮想内視鏡画像生成手段56の全球型画像生成手段58による全球型仮想内視鏡画像の生成において、レイキャスティング法の実行の際におけるレイの方向の設定は、前述の実施例に記載の方法に限られない。例えば、投影面104上の画素のそれぞれに対応するレイを、そのレイを定義づけるレイと視線方向Lとのなす角θ1およびレイの視線方向L回りの回転角θ2によりそれぞれ予め算出しておき、算出されたレイのそれぞれについてレイキャスティングを実行するようにしてもよい。   In the generation of the global virtual endoscope image by the global image generation means 58 of the virtual endoscope image generation means 56, the setting of the direction of the ray at the time of executing the ray casting method is described in the above embodiment. It is not limited to the method. For example, the ray corresponding to each pixel on the projection plane 104 is calculated in advance by an angle θ1 formed by the ray defining the ray and the line-of-sight direction L and a rotation angle θ2 around the line-of-sight direction L of the ray, Ray casting may be executed for each of the calculated rays.

また、前述の実施例においては、仮想内視鏡画像生成手段56の全球型画像生成手段58によって生成される全球型仮想内視鏡画像の最大視野角Φは360度以下であったが、最大視野角Φは360度を超えてもよい。最大視野角Φを360度と設定した場合においても、仮想内視鏡画像が出力装置26において長方形等の四角形状に表示される場合においては、視点位置を球状に取り囲む仮想内視鏡画像の一部が欠けて表示されない場合がある。かかる場合において、最大視野角Φを360度を上回る値に設定することにより、視点位置を球状に取り囲む仮想内視鏡画像の全てを出力装置26に表示することができる。なお、最大視野角Φを360度を上回る値とした場合、仮想内視鏡画像の中心(視線方向L)について対称である仮想内視鏡画像の一対の端部において、共通する領域が表示されることとなる。   In the above-described embodiment, the maximum viewing angle Φ of the global virtual endoscopic image generated by the global image generating unit 58 of the virtual endoscopic image generating unit 56 is 360 degrees or less. The viewing angle Φ may exceed 360 degrees. Even when the maximum viewing angle Φ is set to 360 degrees, when the virtual endoscopic image is displayed in a square shape such as a rectangle on the output device 26, one virtual endoscopic image surrounding the viewpoint position in a spherical shape is displayed. The part may be missing and not displayed. In such a case, by setting the maximum viewing angle Φ to a value exceeding 360 degrees, all of the virtual endoscopic images that surround the viewpoint position in a spherical shape can be displayed on the output device 26. When the maximum viewing angle Φ is set to a value exceeding 360 degrees, a common region is displayed at a pair of end portions of the virtual endoscopic image that is symmetric about the center of the virtual endoscopic image (gaze direction L). The Rukoto.

また前述の実施例においては、全球型仮想内視鏡画像として最大視野角Φが180度以上である場合の例が示されたが、これに限定されない。すなわち本発明の仮想内視鏡装置は、最大視野角Φが0度より大きい場合には全球型仮想内視鏡画像を生成可能であり、かかる場合であっても前述の実施例における全球型仮想内視鏡画像の効果は同様に得られる。   In the above-described embodiment, an example in which the maximum viewing angle Φ is 180 degrees or more is shown as the global virtual endoscopic image, but the present invention is not limited to this. That is, the virtual endoscopic apparatus of the present invention can generate a global virtual endoscopic image when the maximum viewing angle Φ is greater than 0 degrees, and even in such a case, the global virtual endoscope in the above-described embodiment can be used. The effect of the endoscopic image can be obtained similarly.

その他、一々例示はしないが、本発明はその趣旨を逸脱しない範囲内において種々の変更が加えられて実施されるものである。   In addition, although not illustrated one by one, the present invention is implemented with various modifications within a range not departing from the gist thereof.

10:仮想内視鏡装置
54:特定領域設定手段
56:仮想内視鏡画像生成手段
58:全球型画像生成手段
62:透視型画像生成手段
64:表示手段
72:特徴部位抽出手段
f:3次元画像データ
p:視点位置
10: Virtual endoscope device 54: Specific region setting means 56: Virtual endoscope image generating means 58: Global image generating means 62: Perspective image generating means 64: Display means 72: Feature part extracting means f: Three-dimensional Image data p: viewpoint position

Claims (10)

被検体の3次元画像データに基づき、内視鏡が該被検体内に挿入された場合に得られる仮想内視鏡画像を仮想的に生成する仮想内視鏡画像生成手段と、少なくとも該仮想内視鏡画像生成手段により生成された仮想内視鏡画像を表示する表示手段とを有する仮想内視鏡装置であって、
前記仮想内視鏡画像生成手段は、視点位置を球状に取り囲む視野を有する全球型仮想内視鏡画像を生成するものであること、を特徴とする仮想内視鏡装置。
Virtual endoscopic image generation means for virtually generating a virtual endoscopic image obtained when an endoscope is inserted into the subject based on three-dimensional image data of the subject, and at least the virtual interior A virtual endoscopic device having display means for displaying a virtual endoscopic image generated by an endoscopic image generation means,
The virtual endoscopic image generating means generates a global virtual endoscopic image having a field of view surrounding a viewpoint position in a spherical shape.
前記仮想内視鏡画像生成手段は、視点位置から前記視野に対しレイを発生させることによりボリュームレンダリング法を用いて前記全球型仮想内視鏡画像を生成すること、を特徴とする請求項1に記載の仮想内視鏡装置   2. The virtual endoscopic image generation unit generates the global virtual endoscopic image using a volume rendering method by generating a ray from the viewpoint position to the visual field. The virtual endoscopic device described 前記仮想内視鏡画像生成手段は、予め設定された最大視野角の全球型仮想内視鏡画像を生成すること、を特徴とする請求項1または2に記載の仮想内視鏡装置。   The virtual endoscope apparatus according to claim 1, wherein the virtual endoscope image generation unit generates a global virtual endoscope image having a preset maximum viewing angle. 前記仮想内視鏡画像生成手段は、前記視野角において、特定の角度領域を伸長あるいは圧縮した前記全球型仮想内視鏡画像を生成すること、を特徴とする請求項1乃至3のいずれか1に記載の仮想内視鏡装置。   4. The virtual endoscopic image generation unit generates the global virtual endoscopic image obtained by expanding or compressing a specific angular region at the viewing angle. The virtual endoscope apparatus described in 1. 前記特定の角度領域の位置及び範囲は変更可能であること、を特徴とする請求項4に記載の仮想内視鏡装置。   The virtual endoscope apparatus according to claim 4, wherein a position and a range of the specific angle region can be changed. 前記被検体の3次元画像データから、予め設定された特徴を含む特徴部位を抽出する特徴部位抽出手段と、
前記全球型仮想内視鏡画像に該特徴部位検出手段によって抽出された特徴部位が含まれる場合に、該特徴部位を含むように前記特定の角度領域を設定する特定領域設定手段とをさらに有し、
前記仮想内視鏡画像生成手段は、該特定領域設定手段によって設定された前記特定の角度領域を拡大して表示すること、を特徴とする請求項4または5に記載の仮想内視鏡装置。
Feature part extraction means for extracting a feature part including a preset feature from the three-dimensional image data of the subject;
A specific region setting unit configured to set the specific angle region so as to include the feature part when the feature part extracted by the feature part detection unit is included in the global virtual endoscopic image; ,
The virtual endoscope apparatus according to claim 4 or 5, wherein the virtual endoscopic image generation means enlarges and displays the specific angle area set by the specific area setting means.
前記仮想内視鏡画像生成手段は、前記視点位置を連続的に変化させることに対応して前記全球型仮想内視鏡画像を連続的に生成可能である、請求項1乃至6のいずれか1に記載の仮想内視鏡装置。   The virtual endoscopic image generation means can continuously generate the global virtual endoscopic image in response to continuously changing the viewpoint position. The virtual endoscope apparatus described in 1. 前記表示手段は、前記全球型仮想内視鏡画像と、視野角を表示する記号とを重ね合わせて表示すること、を特徴とする請求項1乃至7のいずれか1に記載の仮想内視鏡装置。   The virtual endoscope according to any one of claims 1 to 7, wherein the display unit displays the global virtual endoscopic image and a symbol for displaying a viewing angle in an overlapping manner. apparatus. 前記仮想内視鏡画像生成手段は、前記全球型仮想内視鏡画像に加え、前記視点位置から透視法によって生成される透視型仮想内視鏡画像を生成可能であり、
前記表示手段は、前記全球型仮想内視鏡画像と、前記透視型仮想内視鏡画像とを切り換えて表示すること、を特徴とする請求項1乃至8のいずれか1に記載の仮想内視鏡装置。
The virtual endoscope image generation means can generate a perspective virtual endoscope image generated by a perspective method from the viewpoint position in addition to the global virtual endoscope image,
9. The virtual endoscope according to claim 1, wherein the display unit switches between the global virtual endoscopic image and the fluoroscopic virtual endoscopic image for display. 10. Mirror device.
前記仮想内視鏡画像生成手段は、前記全球型仮想内視鏡画像に加え、前記視点位置から透視法によって生成される透視型仮想内視鏡画像を生成可能であり、
前記表示手段は、前記全球型仮想内視鏡画像と、前記透視型仮想内視鏡画像とを対比可能に表示すること、を特徴とする請求項1乃至8のいずれか1に記載の仮想内視鏡装置。
The virtual endoscope image generation means can generate a perspective virtual endoscope image generated by a perspective method from the viewpoint position in addition to the global virtual endoscope image,
The virtual display according to any one of claims 1 to 8, wherein the display means displays the global virtual endoscopic image and the fluoroscopic virtual endoscopic image in a comparable manner. Endoscopic device.
JP2010083569A 2010-03-31 2010-03-31 Virtual endoscopic device with global view Active JP5435360B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010083569A JP5435360B2 (en) 2010-03-31 2010-03-31 Virtual endoscopic device with global view

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010083569A JP5435360B2 (en) 2010-03-31 2010-03-31 Virtual endoscopic device with global view

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2013246797A Division JP5736620B2 (en) 2013-11-28 2013-11-28 Virtual endoscopic device with global view

Publications (2)

Publication Number Publication Date
JP2011212242A true JP2011212242A (en) 2011-10-27
JP5435360B2 JP5435360B2 (en) 2014-03-05

Family

ID=44942627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010083569A Active JP5435360B2 (en) 2010-03-31 2010-03-31 Virtual endoscopic device with global view

Country Status (1)

Country Link
JP (1) JP5435360B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014230612A (en) * 2013-05-28 2014-12-11 国立大学法人名古屋大学 Endoscopic observation support device
WO2015194242A1 (en) * 2014-06-18 2015-12-23 オリンパス株式会社 Image-processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11313816A (en) * 1997-11-26 1999-11-16 Picker Internatl Inc Image display device
JP2007532202A (en) * 2004-04-09 2007-11-15 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド System and method for creating panoramic view image of volume image
JP2009022411A (en) * 2007-07-18 2009-02-05 Hitachi Medical Corp Medical image processor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11313816A (en) * 1997-11-26 1999-11-16 Picker Internatl Inc Image display device
JP2007532202A (en) * 2004-04-09 2007-11-15 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッド System and method for creating panoramic view image of volume image
JP2009022411A (en) * 2007-07-18 2009-02-05 Hitachi Medical Corp Medical image processor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6008055564; Shenchang Eric Chen: 'QuickTime VR: an image-based approach to virtual environment navigation' Proceedings of the 22nd annual conference on Computer graphics and interactive techniques , 19950806, pp.29-38, ACM *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014230612A (en) * 2013-05-28 2014-12-11 国立大学法人名古屋大学 Endoscopic observation support device
WO2015194242A1 (en) * 2014-06-18 2015-12-23 オリンパス株式会社 Image-processing device
JP5977900B2 (en) * 2014-06-18 2016-08-24 オリンパス株式会社 Image processing device
CN106231986A (en) * 2014-06-18 2016-12-14 奥林巴斯株式会社 Image processing apparatus
US9824445B2 (en) 2014-06-18 2017-11-21 Olympus Corporation Endoscope system

Also Published As

Publication number Publication date
JP5435360B2 (en) 2014-03-05

Similar Documents

Publication Publication Date Title
Chen et al. SLAM-based dense surface reconstruction in monocular minimally invasive surgery and its application to augmented reality
US8149236B2 (en) Information processing apparatus and program
JP4676021B2 (en) Diagnosis support apparatus, diagnosis support program, and diagnosis support method
US8150111B2 (en) Methods, systems, and computer program products for processing three-dimensional image data to render an image from a viewpoint within or beyond an occluding region of the image data
US7424140B2 (en) Method, computer program product, and apparatus for performing rendering
CN108475436A (en) Use the registration of the surgical operation image capture device of profile mark
JP2006346022A (en) Image display method and image display program
US7310095B2 (en) Method, computer program product, and device for projecting an exfoliated picture
CN102883661B (en) Image processing device and image processing method
JPWO2009016927A1 (en) Medical image display apparatus and medical image display method
JP4188900B2 (en) Medical image processing program
Bozorgi et al. GPU-based multi-volume ray casting within VTK for medical applications
JP5435360B2 (en) Virtual endoscopic device with global view
JP5943287B2 (en) Virtual endoscopic device with global view
JP2010075549A (en) Image processor
EP2734982A2 (en) Method and system for performing rendering
US9585569B2 (en) Virtual endoscopic projection image generating device, method and program
JP5736620B2 (en) Virtual endoscopic device with global view
Jayarathne et al. Real-time 3D ultrasound reconstruction and visualization in the context of laparoscopy
JP2021157108A (en) Training system, image processing device, image processing method and image processing program
JP7022554B2 (en) Image processing equipment and its control method, program
JP7172086B2 (en) Surgery simulation device and surgery simulation program
CN108113690B (en) Improved visualization of anatomical cavities
Dubrovin et al. Preoperative planning and intraoperative navigation, based on 3D modeling for retroperitoneal procedures
JP6702751B2 (en) Medical image display device, medical image display system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131128

R150 Certificate of patent or registration of utility model

Ref document number: 5435360

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250