JP2006061274A - Program and endoscope system - Google Patents

Program and endoscope system Download PDF

Info

Publication number
JP2006061274A
JP2006061274A JP2004245326A JP2004245326A JP2006061274A JP 2006061274 A JP2006061274 A JP 2006061274A JP 2004245326 A JP2004245326 A JP 2004245326A JP 2004245326 A JP2004245326 A JP 2004245326A JP 2006061274 A JP2006061274 A JP 2006061274A
Authority
JP
Japan
Prior art keywords
image
dimensional
region
endoscope
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004245326A
Other languages
Japanese (ja)
Inventor
Koichi Fujiwara
浩一 藤原
Osamu Toyama
修 遠山
Yoshiyuki Ishimitsu
義幸 石光
Hitoshi Nomoto
仁史 野本
Yoichi Ono
陽一 小野
Takanori Ando
貴則 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Medical and Graphic Inc
Original Assignee
Konica Minolta Medical and Graphic Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Medical and Graphic Inc filed Critical Konica Minolta Medical and Graphic Inc
Priority to JP2004245326A priority Critical patent/JP2006061274A/en
Publication of JP2006061274A publication Critical patent/JP2006061274A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Signal Processing (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)
  • Endoscopes (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique capable of displaying an image concerning a medical endoscope in a mode in which an affected part is found easily. <P>SOLUTION: A control part 20 sets an image generation condition of volume rendering according to information on the relative position and posture of the endoscope 6 in a three-dimensional area equivalent to the body of a patient. Then, according to the image generation condition, a virtual endoscopic image is generated based on volume data TD. Next, edges are extracted about the virtual endoscopic image, and an image area surrounded by edges whose curvature is larger than a prescribed value among the edges is detected as a first image area satisfying a prescribed shape condition. Then, about a color endoscopic real image obtained by the endoscope 6, an image for display in which the display modes of the respective pixels in a second image area corresponding to the first image area and a surrounding image area are differentiated from each other is generated. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、医療分野において、3次元データに基づいて表示用画像を生成する技術に関する。   The present invention relates to a technique for generating a display image based on three-dimensional data in the medical field.

3次元の構造を示すデータ(3次元データ)を視覚化して表示する手法として、ボリュームレンダリング(Volume Rendering)やサーフェースレンダリング(Surface Rendering)等といった手法が知られている。これらの手法は、例えば、医療分野において診断等を行う目的で、医療用の画像である3次元画像を表示する際に利用される。   As a technique for visualizing and displaying data indicating a three-dimensional structure (three-dimensional data), a technique such as volume rendering or surface rendering is known. These techniques are used, for example, when displaying a three-dimensional image that is a medical image for the purpose of making a diagnosis in the medical field.

ところで、最近、内視鏡を使った手術において、予めCTスキャン(Computed Tomography Scan)等により、患者の身体に係る3次元データを取得しておき、当該3次元データに基づく仮想的な内視鏡の画像と、実際の内視鏡の画像との両方を画面上に並べて表示させた状態で手術をすることが研究されている。   Recently, in surgery using an endoscope, three-dimensional data related to the patient's body is acquired in advance by CT scan (Computed Tomography Scan) or the like, and a virtual endoscope based on the three-dimensional data is acquired. Research has been conducted to perform surgery in a state where both the image of the above and the image of the actual endoscope are displayed side by side on the screen.

そして、この仮想的な内視鏡の画像では、仮想的な色を付与されるのが一般的である(例えば、非特許文献1)。   In this virtual endoscope image, a virtual color is generally given (for example, Non-Patent Document 1).

このような技術に関する先行技術文献としては、以下のようなものがある。   Prior art documents relating to such technology include the following.

”いつでもどこでも3D Real INTAGE basic edition”[online]、住商エレクトロニクス株式会社、[平成16年7月8日検索]、インターネット<http://www.netscience.ne.jp/banners/real_intage/>。"Anytime, anywhere 3D Real INTAGE basic edition" [online], Sumisho Electronics Co., Ltd. [searched July 8, 2004], Internet <http://www.netscience.ne.jp/banners/real_intage/>.

しかしながら、仮想的な内視鏡の画像では実際の内視鏡の画像とは異なる仮想的な色が付与されているため、両画像の対比が難しく、手術の対象等となる患部を見つけ難い。   However, since the virtual endoscopic image is given a virtual color different from that of the actual endoscopic image, it is difficult to compare the two images, and it is difficult to find the affected part that is the target of surgery.

本発明は、上記課題に鑑みてなされたものであり、医療用の内視鏡に係る画像を、患部を見つけ易い態様で表示可能な技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of displaying an image related to a medical endoscope in an aspect in which an affected part can be easily found.

上記の課題を解決するために、請求項1の発明は、コンピュータにおいて実行されることにより、3次元データに基づいて表示用画像を生成する画像処理装置として前記コンピュータを機能させるプログラムであって、前記画像処理装置が、患者の身体に相当する3次元領域に係る3次元データと、所定の内視鏡によって取得された前記3次元領域に係る実画像と、所定の位置姿勢検出手段によって検出された前記3次元領域における前記所定の内視鏡の位置及び姿勢に係る位置姿勢情報とを所定の記憶手段に読み込む読込手段と、前記位置姿勢情報に応じた画像生成条件を設定する条件設定手段と、前記画像生成条件に従い、前記3次元データに基づいたサーフェースレンダリングにより3次元表面画像を生成する表面画像生成手段と、テクスチャーマッピングにより前記実画像を前記3次元表面画像に対してマッピングすることで、表示用画像を生成する表示用画像生成手段とを備えることを特徴とする。   In order to solve the above problems, the invention of claim 1 is a program that, when executed in a computer, causes the computer to function as an image processing device that generates a display image based on three-dimensional data. The image processing apparatus detects three-dimensional data related to a three-dimensional region corresponding to a patient's body, a real image related to the three-dimensional region acquired by a predetermined endoscope, and a predetermined position and orientation detection unit. Reading means for reading position and orientation information related to the position and orientation of the predetermined endoscope in the three-dimensional region into predetermined storage means; and condition setting means for setting image generation conditions according to the position and orientation information; A surface image generation means for generating a three-dimensional surface image by surface rendering based on the three-dimensional data according to the image generation conditions; Wherein the scan char mapping by mapping the real image to said three-dimensional surface image, characterized in that it comprises a display image generating means for generating a display image.

また、請求項2の発明は、コンピュータにおいて実行されることにより、3次元データに基づいて表示用画像を生成する画像処理装置として前記コンピュータを機能させるプログラムであって、前記画像処理装置が、患者の身体に相当する3次元領域に係る3次元データと、所定の内視鏡によって取得された前記3次元領域に係る実画像と、所定の位置姿勢検出手段によって検出された前記3次元領域における前記所定の内視鏡の位置及び姿勢に係る位置姿勢情報とを所定の記憶手段に読み込む読込手段と、前記位置姿勢情報に応じた画像生成条件を設定する条件設定手段と、前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、前記3次元画像のうち所定の形状条件を満たす第1の画像領域を検出する領域検出手段と、前記実画像について、前記第1の画像領域に対応する第2の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成する表示用画像生成手段とを備えることを特徴とする。   The invention of claim 2 is a program for causing a computer to function as an image processing device that generates an image for display based on three-dimensional data by being executed in the computer, wherein the image processing device is a patient The three-dimensional data relating to the three-dimensional region corresponding to the body, the actual image relating to the three-dimensional region acquired by a predetermined endoscope, and the three-dimensional region detected by the predetermined position and orientation detection means. In accordance with the image generation condition, a reading unit that reads position and orientation information related to a predetermined endoscope position and orientation into a predetermined storage unit, a condition setting unit that sets an image generation condition according to the position and orientation information, A three-dimensional image generating means for generating a three-dimensional image based on the three-dimensional data, and a first image area satisfying a predetermined shape among the three-dimensional images An area detection means for detecting, and for the real image, a display image for generating a display image by setting a second image area corresponding to the first image area to a visual expression format different from the surrounding image area And an image generation means.

また、請求項3の発明は、コンピュータにおいて実行されることにより、3次元データに基づいて表示用画像を生成する画像処理装置として前記コンピュータを機能させるプログラムであって、前記画像処理装置が、患者の身体に相当する3次元領域のうち所定の形状条件を満たす所定形状領域に所定のデータが付与された前記3次元領域に係る3次元データと、所定の内視鏡によって取得された前記3次元領域に係る実画像と、所定の位置姿勢検出手段によって検出された前記3次元領域における前記所定の内視鏡の位置及び姿勢に係る位置姿勢情報とを所定の記憶手段に読み込む読込手段と、前記位置姿勢情報に応じて、画像生成条件を設定する条件設定手段と、前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、前記3次元画像のうち前記所定形状領域に対応する第1の画像領域を検出する領域検出手段と、前記実画像について、前記第1の画像領域に対応する第2の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成する表示用画像生成手段とを備えることを特徴とする。   The invention of claim 3 is a program that, when executed on a computer, causes the computer to function as an image processing device that generates a display image based on three-dimensional data. The three-dimensional data related to the three-dimensional region in which predetermined data is given to a predetermined shape region that satisfies a predetermined shape condition among the three-dimensional regions corresponding to the body of the user, and the three-dimensional data acquired by a predetermined endoscope A reading unit that reads, into a predetermined storage unit, an actual image related to the region and position and orientation information related to the position and orientation of the predetermined endoscope in the three-dimensional region detected by the predetermined position and orientation detection unit; Condition setting means for setting an image generation condition according to position and orientation information, and generation of a three-dimensional image based on the three-dimensional data according to the image generation condition A three-dimensional image generating means, an area detecting means for detecting a first image area corresponding to the predetermined shape area of the three-dimensional image, and a second corresponding to the first image area for the real image. Display image generating means for generating a display image by changing the image area of the image area to a visual expression format different from that of the surrounding image areas.

また、請求項4の発明は、請求項2または請求項3に記載されたプログラムであって、前記表示用画像生成手段は、前記表示用画像として、前記第2の画像領域と前記周囲の画像領域とのそれぞれの画素の表示態様を相互に異ならせた画像を生成することを特徴とする。   The invention according to claim 4 is the program according to claim 2 or claim 3, wherein the display image generation means uses the second image region and the surrounding image as the display image. An image in which the display mode of each pixel with respect to the region is different from each other is generated.

また、請求項5の発明は、請求項4に記載されたプログラムであって、前記表示用画像生成手段は、前記表示用画像として、前記第2の画像領域と前記周囲の画像領域とのそれぞれの画素を相互に異なる色表現で表示したカラー画像を生成することを特徴とする。   The invention according to claim 5 is the program according to claim 4, wherein the display image generation means includes the second image area and the surrounding image area as the display image. A color image in which the pixels are displayed in different color representations is generated.

また、請求項6の発明は、請求項2または請求項3に記載されたプログラムであって、前記表示用画像生成手段は、前記第2の画像領域を指示するマーキングを前記実画像に付加して前記表示用画像を生成することを特徴とする。   The invention according to claim 6 is the program according to claim 2 or claim 3, wherein the display image generating means adds a marking indicating the second image area to the actual image. Generating the display image.

また、請求項7の発明は、コンピュータにおいて実行されることにより、3次元データに基づいて表示用画像を生成する画像処理装置として前記コンピュータを機能させるプログラムであって、前記画像処理装置が、患者の身体に相当する3次元領域に係る3次元データと、所定の内視鏡によって取得された前記3次元領域に係る実画像と、所定の位置姿勢検出手段によって検出された前記3次元領域における前記所定の内視鏡の位置及び姿勢に係る位置姿勢情報とを所定の記憶手段に読み込む読込手段と、前記位置姿勢情報に応じた画像生成条件を設定する条件設定手段と、前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、前記3次元画像のうち所定の形状条件を満たす第1の画像領域を検出する領域検出手段と、前記3次元画像を基礎として、前記実画像の各画素値を、前記実画像の各画素に対応する前記3次元画像の各画素に割り当てつつ、前記第1の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成する表示用画像生成手段とを備えることを特徴とする。   The invention according to claim 7 is a program for causing a computer to function as an image processing apparatus that generates an image for display based on three-dimensional data by being executed in the computer, wherein the image processing apparatus is a patient The three-dimensional data relating to the three-dimensional region corresponding to the body, the actual image relating to the three-dimensional region acquired by a predetermined endoscope, and the three-dimensional region detected by the predetermined position and orientation detection means. In accordance with the image generation condition, a reading unit that reads position and orientation information related to a predetermined endoscope position and orientation into a predetermined storage unit, a condition setting unit that sets an image generation condition according to the position and orientation information, A three-dimensional image generating means for generating a three-dimensional image based on the three-dimensional data, and a first image area satisfying a predetermined shape among the three-dimensional images The first image area while assigning each pixel value of the real image to each pixel of the three-dimensional image corresponding to each pixel of the real image, based on the area detection means for detecting and the three-dimensional image And a display image generating means for generating a display image by using a visual expression format different from that of the surrounding image area.

また、請求項8の発明は、コンピュータにおいて実行されることにより、3次元データに基づいて表示用画像を生成する画像処理装置として前記コンピュータを機能させるプログラムであって、前記画像処理装置が、患者の身体に相当する3次元領域のうち所定の形状条件を満たす所定形状領域に所定のデータが付与された前記3次元領域に係る3次元データと、所定の内視鏡によって取得された前記3次元領域に係る実画像と、所定の位置姿勢検出手段によって検出された前記3次元領域における前記所定の内視鏡の位置及び姿勢に係る位置姿勢情報とを所定の記憶手段に読み込む読込手段と、前記位置姿勢情報に応じて、画像生成条件を設定する条件設定手段と、前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、前記3次元画像のうち前記所定形状領域に対応する第1の画像領域を検出する領域検出手段と、前記3次元画像を基礎として、前記実画像の各画素値を、前記実画像の各画素に対応する前記3次元画像の各画素に割り当てつつ、前記第1の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成する表示用画像生成手段とを備えることを特徴とする。   The invention of claim 8 is a program for causing a computer to function as an image processing apparatus that generates an image for display based on three-dimensional data by being executed in the computer, wherein the image processing apparatus is a patient The three-dimensional data related to the three-dimensional region in which predetermined data is given to a predetermined shape region that satisfies a predetermined shape condition among the three-dimensional regions corresponding to the body of the user, and the three-dimensional data acquired by a predetermined endoscope A reading unit that reads, into a predetermined storage unit, an actual image related to the region and position and orientation information related to the position and orientation of the predetermined endoscope in the three-dimensional region detected by the predetermined position and orientation detection unit; Condition setting means for setting an image generation condition according to position and orientation information, and generation of a three-dimensional image based on the three-dimensional data according to the image generation condition Three-dimensional image generation means, area detection means for detecting a first image area corresponding to the predetermined shape area in the three-dimensional image, and based on the three-dimensional image, each pixel value of the real image is obtained. A display for generating a display image by assigning the first image region to a different visual representation format from the surrounding image region while assigning it to each pixel of the three-dimensional image corresponding to each pixel of the real image Image generating means.

また、請求項9の発明は、請求項7または請求項8に記載されたプログラムであって、前記表示用画像生成手段は、前記表示用画像として、前記第1の画像領域と前記周囲の画像領域とのそれぞれの画素の表示態様を相互に異ならせた画像を生成することを特徴とする。   The invention according to claim 9 is the program according to claim 7 or claim 8, wherein the display image generation means uses the first image region and the surrounding image as the display image. An image in which the display mode of each pixel with respect to the region is different from each other is generated.

また、請求項10の発明は、請求項9に記載されたプログラムであって、前記表示用画像生成手段は、前記表示用画像として、前記第1の画像領域と前記周囲の画像領域とのそれぞれの画素を相互に異なる色表現で表示したカラー画像を生成することを特徴とする。   The invention according to claim 10 is the program according to claim 9, wherein the display image generation means includes the first image region and the surrounding image region as the display image. A color image in which the pixels are displayed in different color representations is generated.

また、請求項11の発明は、請求項7または請求項8に記載されたプログラムであって、前記表示用画像生成手段は、前記第1の画像領域を指示するマーキングを前記3次元画像に付加して前記表示用画像を生成することを特徴とする。   The invention according to an eleventh aspect is the program according to the seventh or eighth aspect, wherein the display image generating means adds a marking indicating the first image area to the three-dimensional image. Then, the display image is generated.

また、請求項12の発明は、請求項2から請求項11のいずれかに記載されたプログラムであって、前記所定の形状条件が、判断対象となる画像領域の輪郭の曲率が所定値よりも大きいという条件であることを特徴とする。   The invention according to claim 12 is the program according to any one of claims 2 to 11, wherein the predetermined shape condition is that the curvature of the contour of the image region to be determined is greater than a predetermined value. It is the condition that it is large.

また、請求項13の発明は、コンピュータにおいて実行されることにより、3次元データに基づいて表示用画像を生成する画像処理装置として前記コンピュータを機能させるプログラムであって、前記画像処理装置が、患者の身体に相当する3次元領域に係る3次元データと、所定の内視鏡によって取得された前記3次元領域に係る実画像と、所定の位置姿勢検出手段によって検出された前記3次元領域における前記所定の内視鏡の位置及び姿勢に係る位置姿勢情報とを所定の記憶手段に読み込む読込手段と、前記位置姿勢情報に応じた画像生成条件を設定する条件設定手段と、前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、前記実画像と前記3次元画像との位置合わせを行いつつ、当該実画像と当該3次元画像とを重畳させた表示用画像を生成する表示用画像生成手段とを備えることを特徴とする。   The invention of claim 13 is a program for causing a computer to function as an image processing device that generates an image for display based on three-dimensional data by being executed in the computer, wherein the image processing device is a patient. The three-dimensional data relating to the three-dimensional region corresponding to the body, the actual image relating to the three-dimensional region acquired by a predetermined endoscope, and the three-dimensional region detected by the predetermined position and orientation detection means. In accordance with the image generation condition, a reading unit that reads position and orientation information related to a predetermined endoscope position and orientation into a predetermined storage unit, a condition setting unit that sets an image generation condition according to the position and orientation information, The three-dimensional image generating means for generating a three-dimensional image based on the three-dimensional data, and aligning the real image and the three-dimensional image, Characterized in that it comprises a display image generating means for generating a display image obtained by superimposing the actual image and the three-dimensional image.

また、請求項14の発明は、内視鏡システムであって、患者の身体に相当する3次元領域に係る実画像を取得する内視鏡と、前記3次元領域における前記内視鏡の位置及び姿勢に係る位置姿勢情報を取得する位置姿勢情報取得装置と、前記3次元領域に係る3次元データに基づいて表示用画像を生成する画像処理装置と、前記表示用画像を可視的に出力する画像出力装置とを備え、前記画像処理装置が、前記3次元データと、前記実画像と、前記位置姿勢情報とを所定の記憶手段に読み込む読込手段と、前記位置姿勢情報に応じた画像生成条件を設定する条件設定手段と、前記画像生成条件に従い、前記3次元データに基づいたサーフェースレンダリングにより3次元表面画像を生成する表面画像生成手段と、テクスチャーマッピングにより前記実画像を前記3次元表面画像に対してマッピングすることで、表示用画像を生成する表示用画像生成手段と、前記表示用画像を前記画像出力装置に対して出力する出力手段とを有することを特徴とする。   The invention of claim 14 is an endoscope system, which is an endoscope that acquires a real image relating to a three-dimensional region corresponding to a patient's body, and the position of the endoscope in the three-dimensional region; A position / orientation information acquisition apparatus that acquires position / orientation information related to an attitude, an image processing apparatus that generates a display image based on three-dimensional data related to the three-dimensional region, and an image that visually outputs the display image An output device, wherein the image processing device reads the three-dimensional data, the actual image, and the position / orientation information into a predetermined storage unit; and an image generation condition corresponding to the position / orientation information. Condition setting means for setting, surface image generation means for generating a three-dimensional surface image by surface rendering based on the three-dimensional data according to the image generation conditions, and texture mapping Mapping a real image to the three-dimensional surface image to have a display image generating means for generating a display image, and an output means for outputting the display image to the image output device It is characterized by.

また、請求項15の発明は、内視鏡システムであって、患者の身体に相当する3次元領域に係る実画像を取得する内視鏡と、前記3次元領域における前記内視鏡の位置及び姿勢に係る位置姿勢情報を取得する位置姿勢情報取得装置と、前記3次元領域に係る3次元データに基づいて表示用画像を生成する画像処理装置と、前記表示用画像を可視的に出力する画像出力装置とを備え、前記画像処理装置が、前記3次元データと、前記実画像と、前記位置姿勢情報とを所定の記憶手段に読み込む読込手段と、前記位置姿勢情報に応じた画像生成条件を設定する条件設定手段と、前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、前記3次元画像のうち所定の形状条件を満たす第1の画像領域を検出する領域検出手段と、前記実画像について、前記第1の画像領域に対応する第2の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成する表示用画像生成手段と、前記表示用画像を前記画像出力装置に対して出力する出力手段とを有することを特徴とする。   The invention of claim 15 is an endoscope system, wherein an endoscope that acquires a real image relating to a three-dimensional region corresponding to a patient's body, the position of the endoscope in the three-dimensional region, and A position / orientation information acquisition apparatus that acquires position / orientation information related to an attitude, an image processing apparatus that generates a display image based on three-dimensional data related to the three-dimensional region, and an image that visually outputs the display image An output device, wherein the image processing device reads the three-dimensional data, the actual image, and the position / orientation information into a predetermined storage unit; and an image generation condition corresponding to the position / orientation information. Condition setting means for setting, three-dimensional image generation means for generating a three-dimensional image based on the three-dimensional data in accordance with the image generation conditions, and a first image region that satisfies a predetermined shape condition among the three-dimensional images Inspect And a display image for generating a display image by setting a second image area corresponding to the first image area to a visual expression format different from the surrounding image areas. It has a generation means and an output means for outputting the display image to the image output device.

また、請求項16の発明は、内視鏡システムであって、患者の身体に相当する3次元領域に係る実画像を取得する内視鏡と、前記3次元領域における前記内視鏡の位置及び姿勢に係る位置姿勢情報を取得する位置姿勢情報取得装置と、前記3次元領域に係る3次元データに基づいて表示用画像を生成する画像処理装置と、前記表示用画像を可視的に出力する画像出力装置とを備え、前記3次元データが、前記3次元領域のうち所定の形状条件を満たす所定形状領域に所定のデータが付与された前記3次元領域に係る3次元データであり、前記画像処理装置が、前記3次元データと、前記実画像と、前記位置姿勢情報とを所定の記憶手段に読み込む読込手段と、前記位置姿勢情報に応じて、画像生成条件を設定する条件設定手段と、前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、前記3次元画像のうち前記所定形状領域に対応する第1の画像領域を検出する領域検出手段と、前記実画像について、前記第1の画像領域に対応する第2の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成する表示用画像生成手段と、前記表示用画像を前記画像出力装置に対して出力する出力手段とを有することを特徴とする。   The invention of claim 16 is an endoscope system, wherein an endoscope that acquires a real image relating to a three-dimensional region corresponding to a patient's body, the position of the endoscope in the three-dimensional region, and A position / orientation information acquisition apparatus that acquires position / orientation information related to an attitude, an image processing apparatus that generates a display image based on three-dimensional data related to the three-dimensional region, and an image that visually outputs the display image An output device, wherein the three-dimensional data is three-dimensional data relating to the three-dimensional region in which predetermined data is given to a predetermined shape region that satisfies a predetermined shape condition among the three-dimensional regions, and the image processing A device that reads the three-dimensional data, the real image, and the position and orientation information into a predetermined storage unit; a condition setting unit that sets an image generation condition according to the position and orientation information; and Raw image In accordance with conditions, a three-dimensional image generation unit that generates a three-dimensional image based on the three-dimensional data, a region detection unit that detects a first image region corresponding to the predetermined shape region in the three-dimensional image, Display image generating means for generating a display image by setting a second image region corresponding to the first image region to a visual representation format different from the surrounding image region for the real image, and the display Output means for outputting an image to the image output device.

また、請求項17の発明は、内視鏡システムであって、患者の身体に相当する3次元領域に係る実画像を取得する内視鏡と、前記3次元領域における前記内視鏡の位置及び姿勢に係る位置姿勢情報を取得する位置姿勢情報取得装置と、前記3次元領域に係る3次元データに基づいて表示用画像を生成する画像処理装置と、前記表示用画像を可視的に出力する画像出力装置とを備え、前記画像処理装置が、前記3次元データと、前記実画像と、前記位置姿勢情報とを所定の記憶手段に読み込む読込手段と、前記位置姿勢情報に応じた画像生成条件を設定する条件設定手段と、前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、前記3次元画像のうち所定の形状条件を満たす第1の画像領域を検出する領域検出手段と、前記3次元画像を基礎として、前記実画像の各画素値を、前記実画像の各画素に対応する前記3次元画像の各画素に割り当てつつ、前記第1の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成する表示用画像生成手段と、前記表示用画像を前記画像出力装置に対して出力する出力手段とを有することを特徴とする。   The invention of claim 17 is an endoscope system, wherein an endoscope that acquires a real image relating to a three-dimensional region corresponding to a patient's body, the position of the endoscope in the three-dimensional region, and A position / orientation information acquisition apparatus that acquires position / orientation information related to an attitude, an image processing apparatus that generates a display image based on three-dimensional data related to the three-dimensional region, and an image that visually outputs the display image An output device, wherein the image processing device reads the three-dimensional data, the actual image, and the position / orientation information into a predetermined storage unit; and an image generation condition corresponding to the position / orientation information. Condition setting means for setting, three-dimensional image generation means for generating a three-dimensional image based on the three-dimensional data in accordance with the image generation conditions, and a first image region that satisfies a predetermined shape condition among the three-dimensional images Inspect The first image area is assigned to each pixel of the three-dimensional image corresponding to each pixel of the real image, while assigning each pixel value of the real image to each pixel of the real image based on the three-dimensional image. A display image generating unit configured to generate a display image by using a visual expression format different from that of a surrounding image region; and an output unit configured to output the display image to the image output device. And

また、請求項18の発明は、内視鏡システムであって、患者の身体に相当する3次元領域に係る実画像を取得する内視鏡と、前記3次元領域における前記内視鏡の位置及び姿勢に係る位置姿勢情報を取得する位置姿勢情報取得装置と、前記3次元領域に係る3次元データに基づいて表示用画像を生成する画像処理装置と、前記表示用画像を可視的に出力する画像出力装置とを備え、前記3次元データが、前記3次元領域のうち所定の形状条件を満たす所定形状領域に所定のデータが付与された前記3次元領域に係る3次元データであり、前記画像処理装置が、前記3次元データと、前記実画像と、前記位置姿勢情報とを所定の記憶手段に読み込む読込手段と、前記位置姿勢情報に応じて、画像生成条件を設定する条件設定手段と、前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、前記3次元画像のうち前記所定形状領域に対応する第1の画像領域を検出する領域検出手段と、前記3次元画像を基礎として、前記実画像の各画素値を、前記実画像の各画素に対応する前記3次元画像の各画素に割り当てつつ、前記第1の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成する表示用画像生成手段と、前記表示用画像を前記画像出力装置に対して出力する出力手段とを有することを特徴とする。   The invention of claim 18 is an endoscope system, wherein an endoscope that acquires a real image relating to a three-dimensional region corresponding to a patient's body, a position of the endoscope in the three-dimensional region, and A position / orientation information acquisition apparatus that acquires position / orientation information related to an attitude, an image processing apparatus that generates a display image based on three-dimensional data related to the three-dimensional region, and an image that visually outputs the display image An output device, wherein the three-dimensional data is three-dimensional data relating to the three-dimensional region in which predetermined data is given to a predetermined shape region that satisfies a predetermined shape condition among the three-dimensional regions, and the image processing A device that reads the three-dimensional data, the real image, and the position and orientation information into a predetermined storage unit; a condition setting unit that sets an image generation condition according to the position and orientation information; and Raw image In accordance with conditions, a three-dimensional image generation unit that generates a three-dimensional image based on the three-dimensional data, a region detection unit that detects a first image region corresponding to the predetermined shape region in the three-dimensional image, Based on a three-dimensional image, the first image region is different from the surrounding image regions while assigning each pixel value of the real image to each pixel of the three-dimensional image corresponding to each pixel of the real image. The image processing apparatus includes display image generation means for generating a display image by using a visual expression format, and output means for outputting the display image to the image output apparatus.

また、請求項19の発明は、内視鏡システムであって、患者の身体に相当する3次元領域に係る実画像を取得する内視鏡と、前記3次元領域における前記内視鏡の位置及び姿勢に係る位置姿勢情報を取得する位置姿勢情報取得装置と、前記3次元領域に係る3次元データに基づいて表示用画像を生成する画像処理装置と、前記表示用画像を可視的に出力する画像出力装置とを備え、前記画像処理装置が、前記3次元データと、前記実画像と、前記位置姿勢情報とを所定の記憶手段に読み込む読込手段と、前記位置姿勢情報に応じた画像生成条件を設定する条件設定手段と、前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、前記実画像と前記3次元画像との位置合わせを行いつつ、当該実画像と当該3次元画像とを重畳させた表示用画像を生成する表示用画像生成手段と、前記表示用画像を前記画像出力装置に対して出力する出力手段とを有することを特徴とする。   The invention of claim 19 is an endoscope system, which is an endoscope for acquiring a real image relating to a three-dimensional region corresponding to a patient's body, the position of the endoscope in the three-dimensional region, and A position / orientation information acquisition apparatus that acquires position / orientation information related to an attitude, an image processing apparatus that generates a display image based on three-dimensional data related to the three-dimensional region, and an image that visually outputs the display image An output device, wherein the image processing device reads the three-dimensional data, the actual image, and the position / orientation information into a predetermined storage unit; and an image generation condition corresponding to the position / orientation information. Condition setting means for setting, three-dimensional image generation means for generating a three-dimensional image based on the three-dimensional data according to the image generation conditions, and positioning the real image and the three-dimensional image, Actual picture Characterized in that it has a display image generating means for generating a display image obtained by superimposing the corresponding three-dimensional image, and output means for outputting the display image to the image output device.

請求項1に記載の発明によれば、患者の身体に相当する3次元領域における内視鏡の位置及び姿勢に係る情報に応じた画像生成条件を設定し、当該画像生成条件に従い、上記3次元領域に係る3次元データに基づいたサーフェースレンダリングにより3次元表面画像を生成して、当該3次元表面画像に対して内視鏡によって取得された実画像をテクスチャマッピングすることで、表示用画像を生成するような構成により、3次元データから生成された仮想的な画像を、内視鏡で実際に取得された実画像と同様な色で表示することができるため、例えば、仮想的な画像と実画像との対比が容易となる。したがって、医療用の内視鏡に係る画像を、患部を見つけ易い態様で表示させることができる。   According to the first aspect of the present invention, an image generation condition is set in accordance with information related to the position and posture of the endoscope in a three-dimensional region corresponding to the patient's body, and the three-dimensional image is set according to the image generation condition. A three-dimensional surface image is generated by surface rendering based on the three-dimensional data relating to the region, and the real image acquired by the endoscope is texture-mapped to the three-dimensional surface image, thereby displaying the display image. Since the virtual image generated from the three-dimensional data can be displayed in the same color as the actual image actually acquired by the endoscope, the virtual image generated from the three-dimensional data can be displayed, for example, Comparison with a real image becomes easy. Therefore, an image related to a medical endoscope can be displayed in a manner that makes it easy to find the affected area.

また、請求項2に記載の発明によれば、患者の身体に相当する3次元領域における内視鏡の位置及び姿勢に係る情報に応じた画像生成条件に従い、上記3次元領域に係る3次元データに基づいて3次元画像を生成して、当該3次元画像のうち、所定の形状条件を満たす第1の画像領域を検出し、実画像について、第1の画像領域に対応する第2の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成するような構成により、患部に相当する所定の形状条件を満たす領域が可視的に見つけ易い態様となる。すなわち、医療用の内視鏡に係る画像を、患部を見つけ易い態様で表示させることができる。   According to the second aspect of the present invention, the three-dimensional data related to the three-dimensional region is obtained in accordance with the image generation condition according to the information related to the position and posture of the endoscope in the three-dimensional region corresponding to the patient's body. A three-dimensional image is generated based on the first image region, a first image region that satisfies a predetermined shape condition is detected from the three-dimensional image, and a second image region corresponding to the first image region is detected for the real image With a configuration in which a display image is generated by adopting a visual expression format different from that of the surrounding image area, an area that satisfies a predetermined shape condition corresponding to the affected area can be easily found visually. That is, an image related to a medical endoscope can be displayed in a manner that makes it easy to find the affected area.

また、請求項3に記載の発明によれば、患者の身体に相当する3次元領域のうち所定の形状条件を満たす所定形状領域に所定のデータが付与された3次元データを読み込み、上記3次元領域における内視鏡の位置及び姿勢に係る情報に応じた画像生成条件に従い、上記3次元データに基づいて3次元画像を生成して、当該3次元画像のうち、上記所定形状領域に対応する第1の画像領域を検出し、実画像について、第1の画像領域に対応する第2の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成するような構成により、患部に相当する所定の形状条件を満たす領域が可視的に見つけ易い態様となる。すなわち、医療用の内視鏡に係る画像を、患部を見つけ易い態様で表示させることができる。   According to a third aspect of the present invention, three-dimensional data in which predetermined data is given to a predetermined shape region that satisfies a predetermined shape condition among three-dimensional regions corresponding to a patient's body is read, and the three-dimensional A three-dimensional image is generated based on the three-dimensional data in accordance with an image generation condition corresponding to information related to the position and orientation of the endoscope in the region, and the third shape image corresponding to the predetermined shape region in the three-dimensional image. A configuration in which one image area is detected and a display image is generated for a real image by setting a second image area corresponding to the first image area to a visual representation format different from that of the surrounding image areas. Thus, an area in which a predetermined shape condition corresponding to the affected part is satisfied can be easily found visually. That is, an image related to a medical endoscope can be displayed in a manner that makes it easy to find the affected area.

また、請求項4に記載の発明によれば、実画像について、第2の画像領域と周囲の画像領域とのそれぞれの画素の表示態様を相互に異ならせた表示用画像を生成するような構成により、患部に相当する所定の形状条件を満たす領域が確実に視覚的に見つけ易くなる。   According to the fourth aspect of the present invention, a configuration for generating a display image in which the display modes of the respective pixels of the second image region and the surrounding image region are different from each other is generated for the actual image. This makes it easy to visually find a region that satisfies a predetermined shape condition corresponding to the affected area.

また、請求項5に記載の発明によれば、実画像について、第2の画像領域と周囲の画像領域とのそれぞれの画素を相互に異なる色表現で表示したカラー画像を、表示用画像として生成するような構成により、患部に相当する所定の形状条件を満たす領域が更に視覚的に見つけ易くなる。   According to the invention described in claim 5, a color image in which the pixels of the second image region and the surrounding image region are displayed with different color representations is generated as a display image for the actual image. With such a configuration, it becomes easier to visually find a region that satisfies a predetermined shape condition corresponding to the affected part.

また、請求項6に記載の発明によれば、第2の画像領域を指示するマーキングを実画像に付加して表示用画像を生成するような構成により、患部に相当する所定の形状条件を満たす領域が確実に視覚的に見つけ易くなる。   According to the sixth aspect of the present invention, a predetermined shape condition corresponding to the affected area is satisfied by a configuration in which a marking for indicating the second image region is added to the actual image to generate a display image. The area is surely easy to find visually.

また、請求項7に記載の発明によれば、患者の身体に相当する3次元領域における内視鏡の位置及び姿勢に係る情報に応じた画像生成条件に従い、上記3次元領域に係る3次元データに基づいて3次元画像を生成して、当該3次元画像のうち、所定の形状条件を満たす第1の画像領域を検出し、3次元画像を基礎として、内視鏡によって取得される実画像の各画素値を、実画像の各画素に対応する3次元画像の各画素に割り当てつつ、第1の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成するような構成により、患部に相当する所定の形状条件を満たす領域が可視的に見つけ易い態様となる。すなわち、医療用の内視鏡に係る画像を、患部を見つけ易い態様で表示させることができる。   According to the seventh aspect of the present invention, the three-dimensional data related to the three-dimensional region according to the image generation condition according to the information related to the position and posture of the endoscope in the three-dimensional region corresponding to the body of the patient. A three-dimensional image is generated based on the three-dimensional image, a first image region satisfying a predetermined shape condition is detected from the three-dimensional image, and an actual image acquired by the endoscope is based on the three-dimensional image. A display image is generated by assigning each pixel value to each pixel of the three-dimensional image corresponding to each pixel of the actual image, and making the first image region a different visual representation format from the surrounding image region. With such a configuration, an area that satisfies a predetermined shape condition corresponding to the affected part is easily visually found. That is, an image related to a medical endoscope can be displayed in a manner that makes it easy to find the affected area.

また、請求項8に記載の発明によれば、患者の身体に相当する3次元領域のうち所定の形状条件を満たす所定形状領域に所定のデータが付与された3次元データを読み込み、上記3次元領域における内視鏡の位置及び姿勢に係る情報に応じた画像生成条件に従い、上記3次元データに基づいて3次元画像を生成して、当該3次元画像のうち、上記所定形状領域に対応する第1の画像領域を検出し、3次元画像を基礎として、内視鏡によって取得される実画像の各画素値を、実画像の各画素に対応する3次元画像の各画素に割り当てつつ、第1の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成するような構成により、患部に相当する所定の形状条件を満たす領域が可視的に見つけ易い態様となる。すなわち、医療用の内視鏡に係る画像を、患部を見つけ易い態様で表示させることができる。   According to the invention described in claim 8, three-dimensional data in which predetermined data is given to a predetermined shape region that satisfies a predetermined shape condition among three-dimensional regions corresponding to the body of a patient is read, and the three-dimensional A three-dimensional image is generated based on the three-dimensional data in accordance with an image generation condition corresponding to information related to the position and orientation of the endoscope in the region, and the third shape image corresponding to the predetermined shape region in the three-dimensional image. The first image area is detected, and each pixel value of the real image acquired by the endoscope is assigned to each pixel of the three-dimensional image corresponding to each pixel of the real image on the basis of the three-dimensional image. By forming the image area into a visual representation format different from that of the surrounding image areas, the display image is generated, so that an area that satisfies the predetermined shape condition corresponding to the affected area can be easily found visually. . That is, an image related to a medical endoscope can be displayed in a manner that makes it easy to find the affected area.

また、請求項9に記載の発明によれば、3次元画像を基礎として、第1の画像領域と周囲の画像領域とのそれぞれの画素の表示態様を相互に異ならせた表示用画像を生成するような構成により、患部に相当する所定の形状条件を満たす領域が確実に視覚的に見つけ易くなる。   According to the ninth aspect of the present invention, based on the three-dimensional image, a display image in which the display modes of the respective pixels of the first image region and the surrounding image region are made different from each other is generated. With such a configuration, it becomes easy to visually find a region that satisfies a predetermined shape condition corresponding to the affected part.

また、請求項10に記載の発明によれば、3次元画像を基礎として、第1の画像領域と周囲の画像領域とのそれぞれの画素を相互に異なる色表現で表示したカラー画像を、表示用画像として生成するような構成により、患部に相当する所定の形状条件を満たす領域が更に視覚的に見つけ易くなる。   According to the tenth aspect of the present invention, on the basis of a three-dimensional image, a color image in which the pixels of the first image area and the surrounding image area are displayed in mutually different color representations is displayed. A configuration that generates as an image makes it easier to visually find a region that satisfies a predetermined shape condition corresponding to an affected area.

また、請求項11に記載の発明によれば、第1の画像領域を指示するマーキングを3次元画像に付加して表示用画像を生成するような構成により、患部に相当する所定の形状条件を満たす領域が確実に視覚的に見つけ易くなる。   According to the eleventh aspect of the present invention, a predetermined shape condition corresponding to the affected area is obtained by a configuration in which a marking for indicating the first image region is added to the three-dimensional image to generate a display image. The filled area is surely easy to find visually.

また、請求項12に記載の発明によれば、第1の画像領域を検出するための所定の形状条件を、判断対象となる画像領域の輪郭の曲率が所定値よりも大きいという条件とすることで、例えば、曲率が大きな表面形状を有する患部を可視的に見つけ易い態様とすること等ができる。   According to the twelfth aspect of the present invention, the predetermined shape condition for detecting the first image area is a condition that the curvature of the contour of the image area to be determined is larger than a predetermined value. Thus, for example, it is possible to make it easy to visually find an affected part having a surface shape with a large curvature.

また、請求項13に記載の発明によれば、患者の身体に相当する3次元領域における内視鏡の位置及び姿勢に係る情報に応じた画像生成条件に従い、上記3次元領域に係る3次元データに基づいて3次元画像を生成して、当該3次元画像と内視鏡によって取得された実画像とを重畳させた表示用画像を生成するような構成により、表示用画像において各部の表面形状が認識し易い態様となる。その結果、医療用の内視鏡に係る画像を、患部を見つけ易い態様で表示させることができる。   According to the invention described in claim 13, the three-dimensional data related to the three-dimensional area according to the image generation condition according to the information related to the position and posture of the endoscope in the three-dimensional area corresponding to the body of the patient. The surface shape of each part in the display image is generated by generating a three-dimensional image based on the image and generating a display image in which the three-dimensional image and the actual image acquired by the endoscope are superimposed. It becomes an aspect that is easy to recognize. As a result, the image related to the medical endoscope can be displayed in a manner that makes it easy to find the affected area.

また、請求項14に記載の発明によれば、請求項1と同様な効果を奏する。   Further, according to the invention described in claim 14, the same effect as in claim 1 is obtained.

また、請求項15に記載の発明によれば、請求項2と同様な効果を奏する。   According to the invention described in claim 15, the same effect as in claim 2 is obtained.

また、請求項16に記載の発明によれば、請求項3と同様な効果を奏する。   According to the sixteenth aspect of the invention, the same effect as in the third aspect of the invention can be achieved.

また、請求項17に記載の発明によれば、請求項7と同様な効果を奏する。   According to the seventeenth aspect, the same effect as in the seventh aspect is obtained.

また、請求項18に記載の発明によれば、請求項8と同様な効果を奏する。   According to the eighteenth aspect of the invention, the same effect as in the eighth aspect of the invention can be achieved.

また、請求項19に記載の発明によれば、請求項13と同様な効果を奏する。   According to the nineteenth aspect, the same effect as in the thirteenth aspect is obtained.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1実施形態>
<内視鏡システムの概要>
図1は、本発明の実施形態に係る内視鏡システム1の概要を例示する図である。
<First Embodiment>
<Outline of endoscope system>
FIG. 1 is a diagram illustrating an overview of an endoscope system 1 according to an embodiment of the present invention.

内視鏡システム1は、パーソナルコンピュータ(以下単に「パソコン」と称する)2と、モニター3と、操作部4と、装着部5と、内視鏡6と、位置姿勢検出器7とを備えて構成される。   The endoscope system 1 includes a personal computer (hereinafter simply referred to as “personal computer”) 2, a monitor 3, an operation unit 4, a mounting unit 5, an endoscope 6, and a position and orientation detector 7. Composed.

パソコン2は、制御部20と、入出力I/F21と、記憶部22とを備えている。   The personal computer 2 includes a control unit 20, an input / output I / F 21, and a storage unit 22.

入出力I/F21は、パソコン2と、パソコン2の各周辺機器(モニター3、操作部4、装着部5、内視鏡6、及び位置姿勢検出器7)との間でそれぞれデータの送受信を行うためのインターフェース(I/F)である。また、入出力I/F21は、制御部20との間でデータの送受信を行うため、制御部20とパソコン2の周辺機器との間でデータの送受信が可能である。   The input / output I / F 21 transmits / receives data between the personal computer 2 and each peripheral device of the personal computer 2 (the monitor 3, the operation unit 4, the mounting unit 5, the endoscope 6, and the position and orientation detector 7). It is an interface (I / F) for performing. Further, since the input / output I / F 21 transmits / receives data to / from the control unit 20, data can be transmitted / received between the control unit 20 and peripheral devices of the personal computer 2.

記憶部22は、例えばハードディスク等で構成されており、CTスキャン(Computed Tomography Scan)等によって検出された患者の3次元の体内構造(例えば、食道や胃の内部構造等)を含む身体に係るデータ(「3次元データ」とも称する)TDや、当該3次元データTDに基づいて、あたかも内視鏡で撮影されたかのような仮想的な3次元画像データ(「仮想内視鏡画像」とも称する)を生成したり、その他画像処理等を行う画像処理プログラムPG等を格納している。なお、本実施形態では、一般的なボリュームレンダリング(Volume Rendering)の手法により、3次元データに基づいて仮想内視鏡画像を生成する。   The storage unit 22 is composed of, for example, a hard disk or the like, and data relating to the body including a three-dimensional internal structure of the patient (for example, internal structure of the esophagus and stomach) detected by CT scan (Computed Tomography Scan) or the like TD (also referred to as “three-dimensional data”) or virtual three-dimensional image data (also referred to as “virtual endoscopic image”) as if it were taken with an endoscope based on the three-dimensional data TD. An image processing program PG for generating or performing other image processing or the like is stored. In the present embodiment, a virtual endoscopic image is generated based on three-dimensional data by a general volume rendering technique.

ここで、3次元データは、例えば、いわゆる「ボリュームデータ」と呼ばれるものである。このボリュームデータを得る際には、対象となる物体を非常に小さい立方体(又は直方体)を要素とする集合により表現するボクセル表現と呼ばれる手法が用いられる。そして、この要素としての立方体(又は直方体)がボクセルと呼ばれる。   Here, the three-dimensional data is, for example, so-called “volume data”. When obtaining this volume data, a technique called voxel expression is used in which a target object is expressed by a set having very small cubes (or rectangular parallelepipeds) as elements. And the cube (or rectangular parallelepiped) as this element is called a voxel.

一般に、X線を利用したCTスキャン(Computed Tomography Scan)等を使用することにより、人体を輪切りにした時の映像を得ることができる。そして、この輪切りの位置をずらすことにより、また切断方向を上下、前後、左右とすることにより、ボクセルデータ内にX線の吸収量を蓄えたデータが得られる。このように3次元空間内の濃度や密度の分布を表したデータが「ボリュームデータ」と呼ばれる。このボリュームデータは、ボリュームデータが表現する物体(ここでは、患者の身体)の3次元領域が複数のボクセルに分割されて、各ボクセルに対して1つのボクセル値(ここでは、X線の吸収量を示す値)が与えられたデータとなっている。そして、このボリュームデータに係る3次元領域が、ボリュームレンダリングにおける演算処理の対象となる。ここでは、ボリュームデータに係る3次元領域が、患者の身体(体内構造を含む)に相当する3次元領域であるものとする。   In general, by using a CT scan (Computed Tomography Scan) using X-rays or the like, it is possible to obtain an image when a human body is cut into circles. Then, by shifting the position of this ring cutting, and by setting the cutting direction to up and down, front and back, and left and right, data in which the amount of X-ray absorption is stored in the voxel data is obtained. Data representing the density and density distribution in the three-dimensional space is called “volume data”. This volume data is obtained by dividing a three-dimensional region of an object (here, a patient's body) represented by the volume data into a plurality of voxels, and one voxel value (here, an X-ray absorption amount) for each voxel. Is a given data. Then, the three-dimensional area related to the volume data is a target of calculation processing in volume rendering. Here, it is assumed that the three-dimensional region related to the volume data is a three-dimensional region corresponding to the patient's body (including the internal structure).

制御部20は、主にCPU、ROM20a、及びRAM20b等を有し、パソコン2の各部を統括制御する部位である。そして、この制御部20は、記憶部22に格納されるボリュームデータTDをRAM20bに読み込むとともに、画像処理プログラムPGを読み込んでCPUで実行することにより、ボリュームデータに基づく仮想内視鏡画像の作成や、その他の画像処理等を行ったり、各種画像データを入出力I/F21を介してモニター3に出力する。なお、ボリュームデータTDは、後述するメモリカード51の記憶媒体に格納されていても良い。このように、パソコン2は、3次元データに基づいて、モニター3に可視的に出力するための表示用の画像データ(「表示用画像」とも称する)を生成したり、その他の画像処理等を実行する画像処理装置として働く。   The control unit 20 mainly includes a CPU, a ROM 20a, a RAM 20b, and the like, and is a part that performs overall control of each unit of the personal computer 2. The control unit 20 reads the volume data TD stored in the storage unit 22 into the RAM 20b, reads the image processing program PG, and executes it on the CPU, thereby creating a virtual endoscopic image based on the volume data. Other image processing is performed, and various image data are output to the monitor 3 via the input / output I / F 21. The volume data TD may be stored in a storage medium of the memory card 51 described later. As described above, the personal computer 2 generates display image data (also referred to as “display image”) for visual output to the monitor 3 based on the three-dimensional data, and performs other image processing and the like. Works as an image processing device to execute.

モニター3は、例えばCRTで構成され、制御部20で生成される各種画像を可視的に出力する。   The monitor 3 is configured by a CRT, for example, and visually outputs various images generated by the control unit 20.

操作部4は、キーボードやマウス等から構成され、ユーザーの各種操作にしたがって各種電気信号を入出力I/F21に送信する。また、装着部5は、メモリカード51等の記憶媒体を着脱自在に装着することができる。そして、装着部5に装着されたメモリカード51に格納される各種データやプログラム等を入出力I/F21を介して制御部20や記憶部22に取り込むことができる。   The operation unit 4 includes a keyboard, a mouse, and the like, and transmits various electrical signals to the input / output I / F 21 in accordance with various user operations. The mounting unit 5 can detachably mount a storage medium such as the memory card 51. Various data, programs, and the like stored in the memory card 51 attached to the attachment unit 5 can be taken into the control unit 20 and the storage unit 22 via the input / output I / F 21.

内視鏡6は、患者の身体の内部(例えば、食道や胃の内部等)を撮影することで、体内の各部位における内壁の構造等についてのカラー画像データ(「カラー内視鏡実画像」とも称する)を取得するものである。内視鏡6では、例えば毎秒30フレームのカラー内視鏡実画像を取得することで、体内の各部位における内壁の構造等に係る動画を得ることができる。内視鏡6によって取得されたカラー内視鏡実画像は、入出力I/F21を介して、制御部20のRAM20bに読み込まれて一時的に記憶され、後述する画像処理が施されてモニター3において可視的に出力される。   The endoscope 6 images the inside of the patient's body (for example, the inside of the esophagus and the stomach), so that color image data (“color endoscope actual image”) about the structure of the inner wall in each part of the body. (Also called). In the endoscope 6, for example, by acquiring a color endoscope real image at 30 frames per second, it is possible to obtain a moving image related to the structure of the inner wall in each part of the body. The actual color endoscope image acquired by the endoscope 6 is read and temporarily stored in the RAM 20b of the control unit 20 via the input / output I / F 21 and subjected to image processing to be described later, and then the monitor 3 Is output visually at.

また、内視鏡6は、図2に示すように、光ファイバー、又はリレーレンズ系を用いた管体6aの先端に結合光学系6bを備えている。また、内視鏡6は、管体6aの先端部側面に、体内の組織(例えば、腫瘍部の組織)を挟み込んで切除するハサミ部6cが設けられている。更に、光源60は、管体6aを介して観察対象物(例えば、食道や胃の内部等)を照射するための光源である。   Further, as shown in FIG. 2, the endoscope 6 includes a coupling optical system 6b at the tip of a tube body 6a using an optical fiber or a relay lens system. In addition, the endoscope 6 is provided with a scissor portion 6c that sandwiches and removes a tissue in the body (for example, a tissue of a tumor portion) on the side surface of the distal end portion of the tube body 6a. Furthermore, the light source 60 is a light source for irradiating an observation target (for example, the inside of the esophagus or stomach) through the tubular body 6a.

位置姿勢検出器7は、患者の身体内における内視鏡6の先端部に設けられる結合光学系6bの位置や角度等を検出するものであり、例えば、超音波等を利用した一般的なエコー装置等で構成される。この位置姿勢検出器7では、例えば、エコー装置本体が上下左右方向に自在に移動させることができ、所定の位置を基準点とした所定の3次元座標系(XYZ直交座標系)において、エコー装置本体の座標位置を検出することができる。例えば、所定の固定点から延設されるアームの先端にエコー装置本体が設置され、アームを電動式で駆動させることでエコー装置本体の位置を変更させ、その際に電動式のアームの駆動量を計測可能なものとすることで、エコー装置本体の座標位置及び向き等を検出することができる。   The position / orientation detector 7 detects the position and angle of the coupling optical system 6b provided at the distal end of the endoscope 6 in the patient's body. For example, a general echo using ultrasonic waves or the like is used. It consists of devices. In this position / orientation detector 7, for example, the echo device main body can be freely moved in the vertical and horizontal directions, and in the predetermined three-dimensional coordinate system (XYZ orthogonal coordinate system) with a predetermined position as a reference point, the echo device The coordinate position of the main body can be detected. For example, the echo device main body is installed at the tip of an arm extending from a predetermined fixed point, and the position of the echo device main body is changed by driving the arm electrically. Can be measured, the coordinate position and orientation of the echo device body can be detected.

また、エコー装置本体は、内視鏡6の特徴的な先端の形状を検出することで、エコーによる検出領域における結合光学系6bの占める位置と、結合光学系6bの向きや角度とを検出することができる。そして、3次元座標系の基準点を、例えば、患者の特定の部位の位置に設定することで、患者の身体に相当する3次元領域(以下「身体3次元領域」とも称する)における結合光学系6bの相対的な位置に係る情報(位置情報)、及び結合光学系6bの向きや角度等といった姿勢に係る情報(姿勢情報)等を取得することができる。その結果、ボリュームデータに係る3次元領域と、内視鏡6との相対的な位置関係及び角度関係等といったパラメータ(「外部パラメータ」とも称する)を検出することができる。つまり、身体3次元領域における内視鏡6の相対的な位置及び姿勢を検出することができる。   Further, the echo device main body detects the position occupied by the coupling optical system 6b in the detection area by the echo and the direction and angle of the coupling optical system 6b by detecting the shape of the characteristic tip of the endoscope 6. be able to. Then, by setting the reference point of the three-dimensional coordinate system, for example, at the position of a specific part of the patient, a coupled optical system in a three-dimensional region corresponding to the patient's body (hereinafter also referred to as “body three-dimensional region”) Information related to the relative position of 6b (position information), information related to the posture such as the direction and angle of the coupling optical system 6b (posture information), and the like can be acquired. As a result, it is possible to detect parameters (also referred to as “external parameters”) such as a relative positional relationship and an angular relationship between the three-dimensional region related to the volume data and the endoscope 6. That is, the relative position and posture of the endoscope 6 in the three-dimensional body region can be detected.

なお、内視鏡6の外部パラメータを検出する位置姿勢検出器7としては、内視鏡6の先端等にジャイロ等のセンサを設けるものも考えられる。   As the position / orientation detector 7 for detecting an external parameter of the endoscope 6, a sensor such as a gyroscope provided at the distal end of the endoscope 6 may be considered.

上述ようにして位置姿勢検出器7によって検出された身体3次元領域における内視鏡6の相対的な位置及び姿勢に係る情報(「位置姿勢情報」とも称する)は、入出力I/F21を介して、制御部20のRAM20bに読み込まれて一時的に記憶される。   Information relating to the relative position and posture of the endoscope 6 in the three-dimensional body region detected by the position and posture detector 7 as described above (also referred to as “position and posture information”) is input via the input / output I / F 21. Thus, it is read into the RAM 20b of the control unit 20 and temporarily stored.

また、焦点距離、画素サイズ、画素の縦ラインと横ラインとがなす角度、画像の中心などといった内視鏡6の内部的なパラメータ(「内部パラメータ」とも称する)は、内視鏡6の設計によって決まる。   The internal parameters (also referred to as “internal parameters”) of the endoscope 6 such as the focal length, the pixel size, the angle formed by the vertical and horizontal lines of the pixel, the center of the image, and the like are the design of the endoscope 6. It depends on.

よって、制御部20が、位置姿勢検出器7で取得された外部パラメータに係る情報すなわち位置姿勢情報と、内部パラメータとに合わせた条件下で、ボリュームレンダリングによるボリュームデータに基づいて3次元画像(仮想内視鏡画像)を生成すると、内視鏡6で取得されるカラー内視鏡実画像と、仮想内視鏡画像の構図が全く同様となる。   Therefore, the control unit 20 performs a three-dimensional image (virtual image) based on the volume data obtained by volume rendering under the conditions according to the external parameters acquired by the position / orientation detector 7, that is, the position / orientation information and the internal parameters. When the endoscope image is generated, the composition of the color endoscope real image acquired by the endoscope 6 and the virtual endoscope image are exactly the same.

ここで、内部パラメータは固定のものであるとともに、既知であるとすると、制御部20は、時間を経る毎に変化する外部パラメータ(すなわち位置姿勢情報)に応じて、カラー内視鏡実画像と仮想内視鏡画像との構図(すなわち相対的な被写体の位置関係)が合致するように、仮想内視鏡画像を生成する条件(「画像生成条件」とも称する)を設定することができる。そして、制御部20が、設定した画像生成条件に従い、ボリュームデータに基づいたボリュームレンダリングにより仮想内視鏡画像を生成する。   Here, if the internal parameters are fixed and are known, the control unit 20 determines whether the color endoscope actual image and the color endoscope real image are changed according to the external parameters (that is, position and orientation information) that change every time. Conditions (also referred to as “image generation conditions”) for generating a virtual endoscopic image can be set so that the composition (that is, the relative positional relationship of the subject) with the virtual endoscopic image matches. Then, the control unit 20 generates a virtual endoscope image by volume rendering based on the volume data in accordance with the set image generation conditions.

なお、カラー内視鏡実画像を取得する際の内視鏡6の内部パラメータおよび外部パラメータより、カラー内視鏡実画像の射影行列を求めることができる。この射影行列は、所定のカメラの座標系をワールド座標系(基準となる座標系)に変換する3行×4列からなる変換行列である。そして、この変換行列が入力されることで、画像生成条件が自動的に決定されるものもあり、このような方式によって、画像生成条件を決定するようにしても良い。   Note that the projection matrix of the actual color endoscope image can be obtained from the internal parameters and the external parameters of the endoscope 6 when acquiring the actual color endoscope image. This projection matrix is a transformation matrix composed of 3 rows × 4 columns for transforming a predetermined camera coordinate system into a world coordinate system (reference coordinate system). Some image generation conditions are automatically determined by inputting this conversion matrix, and the image generation conditions may be determined by such a method.

<表示用画像の生成および出力>
モニター3に出力するための画像データ(表示用画像)の生成及び出力について説明する。
<Generation and output of display image>
Generation and output of image data (display image) to be output to the monitor 3 will be described.

本実施形態に係る内視鏡システム1では、ボリュームデータに基づいて患部に相当する表面形状の曲率が所定値よりも大きな箇所を検出し、カラー内視鏡実画像のうち、検出された曲率が所定値よりも大きな箇所に対応する画像領域が周囲の画像領域とは相互に異なる表示態様となるような表示用画像を生成して、モニター3において可視的に出力させることで、患部を見つけ易くする。   In the endoscope system 1 according to the present embodiment, a portion where the curvature of the surface shape corresponding to the affected part is larger than a predetermined value is detected based on the volume data, and the detected curvature is detected among the color endoscope real images. It is easy to find an affected part by generating a display image in which an image region corresponding to a location larger than a predetermined value is different from the surrounding image region and outputting it on the monitor 3 visually. To do.

以下、表示用画像の生成および出力に係る動作について、具体的に説明する。   Hereinafter, operations related to generation and output of a display image will be specifically described.

図3は、表示用画像の生成及び出力に係る動作フローを示すフローチャートである。本動作フローは、制御部20に画像処理プログラムPGが読み込まれて実行されることで実現される。まず、ユーザーが操作部4を適宜操作することで、内視鏡6による撮影、及びボリュームデータTDに基づくボリュームレンダリングの開始が指示されると、図3のステップS1に進む。   FIG. 3 is a flowchart showing an operation flow relating to generation and output of a display image. This operation flow is realized by the image processing program PG being read and executed by the control unit 20. First, when the user appropriately operates the operation unit 4 to instruct to start photographing with the endoscope 6 and volume rendering based on the volume data TD, the process proceeds to step S1 in FIG.

ステップS1では、記憶部22に格納されるボリュームデータTDが制御部20によって読み出されて取得され、ステップS2に進む。   In step S1, the volume data TD stored in the storage unit 22 is read and acquired by the control unit 20, and the process proceeds to step S2.

ステップS2では、記憶部22が、内視鏡6から1フレームのカラー内視鏡実画像を取得し、ステップS3に進む。図4は、ステップS2で取得されるカラー内視鏡実画像の一例を示す模式図である。内視鏡6による撮影対象としては、胃や腸の内壁等の体内の各部の内壁面が考えられるが、図4及び図4以降では、一例として内視鏡6によって腸の内壁を撮影している様子を示している。   In step S2, the storage unit 22 acquires a color endoscope real image of one frame from the endoscope 6, and proceeds to step S3. FIG. 4 is a schematic diagram illustrating an example of a color endoscope real image acquired in step S2. As an object to be imaged by the endoscope 6, the inner wall surface of each part in the body such as the stomach and the inner wall of the intestine can be considered. In FIG. 4 and FIG. It shows how it is.

ステップS3では、位置姿勢検出器7により、内視鏡6の位置及び姿勢を検出し、ステップS4に進む。ここでは、ステップS2においてカラー内視鏡実画像を取得した時点における内視鏡6の位置及び姿勢として、内視鏡6の位置及び姿勢が検出される。そして、内視鏡6の位置及び姿勢に係る情報(位置姿勢情報)が制御部20に出力される。   In step S3, the position and orientation detector 7 detects the position and orientation of the endoscope 6, and the process proceeds to step S4. Here, the position and posture of the endoscope 6 are detected as the position and posture of the endoscope 6 at the time when the color endoscope real image is acquired in step S2. Information related to the position and orientation of the endoscope 6 (position and orientation information) is output to the control unit 20.

ステップS4では、ステップS3において得られた位置姿勢情報すなわち内視鏡6の位置及び姿勢に従って、ボリュームレンダリングの条件(視点や投影面の位置、視点から投影面上の複数点を通過する視線等の条件等)が設定され、ステップS5に進む。ここでは、ステップS2で取得されたカラー内視鏡実画像と同一の構図となる仮想内視鏡画像が生成されるようなボリュームレンダリングの条件が設定される。なお、ここでは、腸の内壁等の状態を正確に表示させるために、一般的なボリュームレンダリングにおいて与えられる不透明度としては1に極めて近い値を与える。   In step S4, according to the position and orientation information obtained in step S3, that is, the position and orientation of the endoscope 6, the volume rendering conditions (the viewpoint, the position of the projection plane, the line of sight passing through a plurality of points on the projection plane from the viewpoint, etc.) Conditions) is set, and the process proceeds to step S5. Here, a volume rendering condition is set such that a virtual endoscopic image having the same composition as the actual color endoscope image acquired in step S2 is generated. Here, in order to accurately display the state of the inner wall of the intestine and the like, a value very close to 1 is given as the opacity given in general volume rendering.

ステップS5では、一般的なボリュームレンダリングの手法によりステップS1で取得したボリュームデータに基づいて仮想内視鏡画像を生成し、ステップS6に進む。ここで生成される仮想内視鏡画像には、仮想的な色が付される。図5は、ステップS6で生成される仮想内視鏡画像の一例を示す模式図である。図5に示すように、ここでは、ステップS2で取得された図4に示すカラー内視鏡実画像と同一の構図を有する仮想内視鏡画像が生成される。なお、図5では図示を省略するが、仮想内視鏡画像には、仮想的な色が付されている。そして、図5で示す仮想内視鏡画像では、腫瘍に相当する突起物が腸の内壁に形成されている様子が示されている。   In step S5, a virtual endoscopic image is generated based on the volume data acquired in step S1 by a general volume rendering method, and the process proceeds to step S6. The virtual endoscopic image generated here is given a virtual color. FIG. 5 is a schematic diagram illustrating an example of a virtual endoscopic image generated in step S6. As shown in FIG. 5, here, a virtual endoscopic image having the same composition as the actual color endoscope image shown in FIG. 4 acquired in step S2 is generated. Although not shown in FIG. 5, the virtual endoscopic image is given a virtual color. The virtual endoscopic image shown in FIG. 5 shows a state in which a protrusion corresponding to a tumor is formed on the inner wall of the intestine.

ステップS6では、ステップS5で生成された仮想内視鏡画像のうち所定の形状に係る条件(所定の形状条件)を満たす特徴的な形状を検出し、ステップS7に進む。ここでは、例えば、仮想内視鏡画像についてエッジ抽出を行い、曲率が所定値よりも大きなエッジ(輪郭)を検出して、当該エッジで囲まれる画像領域(「第1の画像領域」とも称する)R1を所定の形状条件を満たす特徴的な形状として検出することができる。ここでは、腫瘍が形成されている患部は、一般に表面形状の曲率が周囲の表面形状よりも大きなことを利用して、第1の画像領域R1が、腫瘍が形成されている患部に相当する画像領域として検出される。つまり、判断対象となる画像領域の輪郭の曲率が所定値よりも大きいか否かにより、第1の画像領域R1か否かを判断して検出する。なお、上述した所定の形状条件については、種々のものが考えられるが、医療分野等で、形状に基づいて患部を検出する種々の方法を採用することができる。   In step S6, a characteristic shape satisfying a condition related to a predetermined shape (predetermined shape condition) is detected from the virtual endoscopic image generated in step S5, and the process proceeds to step S7. Here, for example, edge extraction is performed on the virtual endoscopic image, an edge (contour) having a curvature larger than a predetermined value is detected, and an image region (also referred to as “first image region”) surrounded by the edge is detected. R1 can be detected as a characteristic shape that satisfies a predetermined shape condition. Here, the affected area where the tumor is formed generally uses the fact that the curvature of the surface shape is larger than the surrounding surface shape, and the first image region R1 is an image corresponding to the affected area where the tumor is formed. Detected as a region. That is, it is determined whether or not the image area is the first image area R1 by detecting whether or not the curvature of the contour of the image area to be determined is larger than a predetermined value. In addition, although various things can be considered about the predetermined shape conditions mentioned above, the various methods of detecting an affected part based on a shape are employable in a medical field etc.

ステップS7では、カラー内視鏡実画像のうち、ステップS6で検出された特徴的な形状に相当する第1の画像領域R1に対応する画像領域の画素値を変更して、カラー内視鏡実画像を基礎とした表示用の画像データ(「表示用実画像」とも称する)を生成し、ステップS8に進む。図6は、表示用実画像の一例を示す模式図である。このステップS7では、カラー内視鏡実画像のうち、第1の画像領域R1に対応する画像領域(図6中の斜線ハッチング部、「第2の画像領域」とも称する)R2を、例えば、緑色で示したり、輝度を上げる等して、画素値を変更する。つまり、第2の画像領域R2と周囲の画像領域とのそれぞれの画素の表示態様が相互に異なるように、第2の画像領域R2に係る画素値を変更する。なお、ここで、第2の画像領域R2を緑色とする例を挙げたのは、人間の体内の種々の器官は、通常赤色に近い色を呈する場合が多く、緑色を呈するものはほとんどないため、緑色で画像領域R2を表示することで、周囲の他の画像領域とは区別可能な表示態様とすることができるためである。   In step S7, the pixel value of the image region corresponding to the first image region R1 corresponding to the characteristic shape detected in step S6 in the color endoscope actual image is changed, and the color endoscope actual image is changed. Image data for display based on the image (also referred to as “real image for display”) is generated, and the process proceeds to step S8. FIG. 6 is a schematic diagram illustrating an example of a real display image. In this step S7, an image area R2 corresponding to the first image area R1 (also referred to as a hatched portion in FIG. 6, “second image area”) R2 of the actual color endoscope image is, for example, green. The pixel value is changed, for example, by increasing the brightness. That is, the pixel value related to the second image region R2 is changed so that the display modes of the respective pixels in the second image region R2 and the surrounding image region are different from each other. Note that the example in which the second image region R2 is green is given here because various organs in the human body usually exhibit a color close to red, and there are few that exhibit green. This is because, by displaying the image region R2 in green, it is possible to obtain a display mode that is distinguishable from other surrounding image regions.

ステップS8では、ステップS5において生成された仮想内視鏡画像のうち、ステップS6で検出された特徴的な形状に相当する画像領域(ここでは、図5中の第1の画像領域R1)に係る画素値を、所定の色(例えば、緑色等)を示す画素値に変更する。そして、第1の画像領域R1以外の周囲の画像領域(ここでは、図5中の画像領域R11)については、当該画像領域(「周辺画像領域」とも称する)R11の各画素に対して、対応するカラー内視鏡実画像の各画素に係る画素値(色値)を割り当てる。そうすることで、仮想内視鏡画像を基礎とした表示用の画像データ(「表示用仮想画像」とも称する)を生成し、ステップS9に進む。図7は、表示用仮想画像の一例を示す模式図である。図7に示すように、図5で示した仮想内視鏡画像の第1の画像領域R1については、所定の色とするとともに(図7中の斜線ハッチング部)、その他の周囲の第2の画像領域R11については、図4に示すカラー内視鏡実画像の画素値が割り当てられて(図7中の砂地ハッチング部)、表示用仮想画像が生成される。   In step S8, the virtual endoscopic image generated in step S5 relates to an image region (here, the first image region R1 in FIG. 5) corresponding to the characteristic shape detected in step S6. The pixel value is changed to a pixel value indicating a predetermined color (for example, green). Then, surrounding image regions other than the first image region R1 (here, the image region R11 in FIG. 5) correspond to each pixel of the image region (also referred to as “peripheral image region”) R11. A pixel value (color value) relating to each pixel of the actual color endoscope image is assigned. By doing so, display image data (also referred to as “display virtual image”) based on the virtual endoscopic image is generated, and the process proceeds to step S9. FIG. 7 is a schematic diagram illustrating an example of a display virtual image. As shown in FIG. 7, the first image region R1 of the virtual endoscopic image shown in FIG. 5 has a predetermined color (the hatched portion in FIG. 7) and other surrounding second For the image region R11, the pixel values of the color endoscope real image shown in FIG. 4 are assigned (sand hatching portion in FIG. 7), and a display virtual image is generated.

このようにすることで、仮想内視鏡画像に対して実際の色を付与した表示用仮想画像を生成することができる。   By doing so, it is possible to generate a display virtual image in which an actual color is given to the virtual endoscopic image.

ステップS9では、ステップS7とステップS8とにおいてそれぞれ生成された表示用実画像と表示用仮想画像とを同時にモニター3において可視的に出力させて、ステップS2に戻る。このステップS9では、例えば、図8に示すように、表示用実画像に基づく表示画像と表示用仮想画像に基づく表示画像とが空間的に横に並べられたような画面がモニター3に表示される。なお、図8では、表示用実画像に基づく表示画像が図8中左方に、表示用仮想画像に基づく表示画像が図8中右方に配置された画面が例示されている。   In step S9, the display real image and the display virtual image respectively generated in step S7 and step S8 are simultaneously visually output on the monitor 3, and the process returns to step S2. In this step S9, for example, as shown in FIG. 8, a screen in which a display image based on the display actual image and a display image based on the display virtual image are spatially arranged horizontally is displayed on the monitor 3. The 8 illustrates a screen in which the display image based on the display real image is arranged on the left side in FIG. 8 and the display image based on the display virtual image is arranged on the right side in FIG.

また、ステップS9からステップS2に戻るため、ステップS2からステップS9の処理が繰り返されることとなる。そして、ここで、毎秒30フレームのカラー内視鏡実画像が得られるとすると、1/30秒毎にステップS2からステップS9の処理が行われ、表示用画像(ここでは、表示用実画像および表示用仮想画像)が1/30秒毎に新たに作成されて、モニター3において可視的に出力される。   Further, since the process returns from step S9 to step S2, the process from step S2 to step S9 is repeated. Here, assuming that a color endoscope real image of 30 frames per second is obtained, the processing from step S2 to step S9 is performed every 1/30 seconds to obtain a display image (in this case, the display real image and the display real image). A display virtual image) is newly created every 1/30 seconds, and is visually output on the monitor 3.

以上のように、第1実施形態に係る内視鏡システム1では、制御部20において、ボリュームデータに係る3次元領域(身体3次元領域)における内視鏡6の相対的な位置及び姿勢の情報(位置姿勢情報)に応じて、ボリュームレンダリングの画像生成条件を設定する。そして、当該画像生成条件に従って、ボリュームデータに基づいて3次元画像(ここでは、仮想内視鏡画像)を生成する。次に、仮想内視鏡画像について、エッジを抽出して、当該エッジのうち曲率が所定値よりも大きいエッジに囲まれた画像領域を、所定の形状条件を満たす第1の画像領域R1として検出する。そして、内視鏡6によって取得されたカラー内視鏡実画像について、第1の画像領域R1に対応する第2の画像領域R2と周囲の画像領域とのそれぞれの画素の表示態様を相互に異ならせた表示用実画像(すなわち表示用画像)を生成する。このような構成により、患部に相当する箇所の表示態様が周囲とは異なるため、患部に相当する所定の形状条件を満たす領域が可視的に見つけ易い態様となる。すなわち、医療用の内視鏡に係る画像を、患部を見つけ易い態様で表示させることができる。   As described above, in the endoscope system 1 according to the first embodiment, in the control unit 20, information on the relative position and posture of the endoscope 6 in the three-dimensional region (the three-dimensional body region) related to the volume data. Volume rendering image generation conditions are set according to (position and orientation information). Then, a three-dimensional image (here, a virtual endoscopic image) is generated based on the volume data in accordance with the image generation conditions. Next, an edge is extracted from the virtual endoscopic image, and an image region surrounded by an edge having a curvature larger than a predetermined value is detected as a first image region R1 that satisfies a predetermined shape condition. To do. Then, regarding the color endoscope actual image acquired by the endoscope 6, the display modes of the respective pixels of the second image region R2 corresponding to the first image region R1 and the surrounding image regions are different from each other. An actual display image (that is, a display image) is generated. With such a configuration, since the display mode of the part corresponding to the affected part is different from the surroundings, an area that satisfies a predetermined shape condition corresponding to the affected part can be easily found visually. That is, an image related to a medical endoscope can be displayed in a manner that makes it easy to find the affected area.

また、第2の画像領域R2の画素値を緑色等の色表現に係る画素値に変更することで、第2の画像領域R2と周囲の画像領域とのそれぞれの画素を相互に異なる色表現で表示したカラー画像(すなわち表示用画像)を生成する。このような構成により、患部に相当する所定の形状条件を満たす領域が更に見つけ易くなる。   In addition, by changing the pixel value of the second image region R2 to a pixel value related to a color expression such as green, the pixels of the second image region R2 and the surrounding image regions can be expressed in different colors. A displayed color image (that is, a display image) is generated. Such a configuration makes it easier to find a region that satisfies a predetermined shape condition corresponding to the affected area.

また、患部に相当する第1の画像領域R1を検出するための所定の形状条件を、判断対象となる画像領域の輪郭の曲率が所定値よりも大きいという条件とすることで、例えば、曲率が大きな表面形状を有する患部を可視的に見つけ易い態様とすること等ができる。その結果として、医療用の内視鏡に係る画像を、患部を見つけ易い態様で表示させることができる。   Further, by setting the predetermined shape condition for detecting the first image region R1 corresponding to the affected area as a condition that the curvature of the contour of the image region to be determined is larger than a predetermined value, for example, the curvature is For example, the affected part having a large surface shape can be easily found visually. As a result, an image related to a medical endoscope can be displayed in a manner that makes it easy to find the affected area.

<第2実施形態>
第1実施形態に係る内視鏡システム1では、ボリュームレンダリングによりボリュームデータに基づいて仮想内視鏡画像を作成し、患部に相当する第1の画像領域を検出して、カラー内視鏡実画像について、当該検出された第1の画像領域に対応する第2の画像領域の表示態様を周囲の画像領域とは相互に異ならせるように画素値を変更した。これに対して、第2実施形態に係る内視鏡システム1Aでは、サーフェースレンダリングによりボリュームデータに基づいてポリゴンで構成される3次元画像すなわち仮想内視鏡画像(「3次元表面画像」とも称する)を生成し、カラー内視鏡実画像と重畳させた表示用画像を生成して、可視的に出力することで、患部が見つけ易くなるようにする。
Second Embodiment
In the endoscope system 1 according to the first embodiment, a virtual endoscopic image is created based on volume data by volume rendering, a first image region corresponding to an affected area is detected, and a color endoscope real image is detected. The pixel value was changed so that the display mode of the second image area corresponding to the detected first image area is different from that of the surrounding image areas. In contrast, in the endoscope system 1A according to the second embodiment, a three-dimensional image composed of polygons based on volume data by surface rendering, that is, a virtual endoscopic image (also referred to as a “three-dimensional surface image”). ), And a display image superimposed with the color endoscope actual image is generated and visually output, thereby making it easier to find the affected area.

なお、第2実施形態に係る内視鏡システム1Aは、ボリュームデータに基づく仮想内視鏡画像の作成方式がサーフェースレンダリングである点や、表示用画像の作成等といった画像処理に係る内容が、第1実施形態に係る内視鏡システム1と異なるのみで、その他の部分については同様となる。そのため、同様となる構成等については同じ符合を付して説明を省略し、以下、内視鏡システム1とは異なる画像処理の内容にあたる、内視鏡システム1Aに係る表示用画像の生成及び出力について説明する。   In the endoscope system 1A according to the second embodiment, the contents related to the image processing such as the point that the creation method of the virtual endoscope image based on the volume data is surface rendering, the creation of the display image, and the like. It is only different from the endoscope system 1 according to the first embodiment, and the other parts are the same. Therefore, the same reference numerals are given to the same components and the like, and the description thereof will be omitted. Hereinafter, the generation and output of the display image related to the endoscope system 1A corresponding to the contents of the image processing different from the endoscope system 1 will be described. Will be described.

<表示用画像の生成および出力>
図9は、第2実施形態に係る表示用画像の生成と出力に係る動作フローを示すフローチャートである。本動作フローは、制御部20に画像処理プログラムPGが読み込まれて実行されることで実現される。まず、ユーザーが操作部4を適宜操作することで、内視鏡6による撮影、及びボリュームデータTDに基づくボリュームレンダリングの開始が指示されると、図9のステップS21に進む。
<Generation and output of display image>
FIG. 9 is a flowchart showing an operation flow relating to generation and output of a display image according to the second embodiment. This operation flow is realized by the image processing program PG being read and executed by the control unit 20. First, when the user appropriately operates the operation unit 4 to instruct to start photographing with the endoscope 6 and volume rendering based on the volume data TD, the process proceeds to step S21 in FIG.

ステップS21では、記憶部22に格納されるボリュームデータTDが制御部20によって読み出されて取得され、ステップS22に進む。   In step S21, the volume data TD stored in the storage unit 22 is read and acquired by the control unit 20, and the process proceeds to step S22.

ステップS22では、制御部20が、ボリュームデータTDに係るボクセル値を2値化して、ステップS23に進む。ここでは、ボリュームデータTDに係るボクセル値を所定の値域範囲に含まれるものと、そうでないものとで二値化することで、ボリュームデータTDに係る3次元領域を観察対象となる物体が存在する領域と、そうでない領域との2つの領域に区別する。このような処理を予め実行しておくことで、後述するサーフェースレンダリングが容易に実行することができる。   In step S22, the control unit 20 binarizes the voxel value related to the volume data TD, and proceeds to step S23. Here, by binarizing the voxel values related to the volume data TD into those that are included in the predetermined range and those that are not, there is an object that becomes the observation target of the three-dimensional region related to the volume data TD. A distinction is made between two areas: areas and areas that are not. By executing such processing in advance, surface rendering described later can be easily executed.

ステップS23では、図3のステップS2と同様に、制御部20が、内視鏡6から1フレームのカラー内視鏡実画像を取得し、ステップS24に進む。ここでも、例えば、図4で示したようなカラー内視鏡実画像を取得することができる。   In step S23, as in step S2 of FIG. 3, the control unit 20 acquires a color endoscope real image of one frame from the endoscope 6, and proceeds to step S24. Here, for example, a color endoscope real image as shown in FIG. 4 can be acquired.

ステップS24では、図3のステップS3と同様に、位置姿勢検出器7によって、内視鏡6の位置及び姿勢を検出し、ステップS25に進む。つまり、制御部20が、内視鏡6に係る位置姿勢情報を取得する。   In step S24, as in step S3 of FIG. 3, the position and orientation detector 7 detects the position and orientation of the endoscope 6, and the process proceeds to step S25. That is, the control unit 20 acquires position and orientation information related to the endoscope 6.

ステップS25では、ステップS24において得られた位置姿勢情報すなわち内視鏡6の位置及び姿勢に従って、サーフェースレンダリングの条件(視点や画角や視線の方向等の条件)が設定され、ステップS26に進む。ここでは、ステップS23で取得されたカラー内視鏡実画像と同一の構図となる仮想内視鏡画像が生成されるようなサーフェースレンダリングの条件が設定される。   In step S25, surface rendering conditions (conditions such as viewpoint, angle of view, and line of sight) are set according to the position and orientation information obtained in step S24, that is, the position and orientation of the endoscope 6, and the process proceeds to step S26. . Here, surface rendering conditions are set such that a virtual endoscopic image having the same composition as the actual color endoscope image acquired in step S23 is generated.

ステップS26では、一般的なサーフェースレンダリングの手法によりステップS21で取得したボリュームデータに基づいて仮想内視鏡画像を生成し、ステップS27に進む。ここで生成される仮想内視鏡画像には、一般的なサーフェースレンダリングのシェーディングにより、図5で示した仮想内視鏡画像と同様に仮想的な色が付される。以下、ここでは、図5で示したような仮想内視鏡画像が取得されたものと仮定して、説明を続ける。   In step S26, a virtual endoscopic image is generated based on the volume data acquired in step S21 by a general surface rendering method, and the process proceeds to step S27. The virtual endoscopic image generated here is given a virtual color similarly to the virtual endoscopic image shown in FIG. 5 by shading of general surface rendering. Hereinafter, the description will be continued assuming that a virtual endoscopic image as shown in FIG. 5 has been acquired.

ステップS27では、ステップS26で生成された仮想内視鏡画像に対して、ステップS23で取得されたカラー内視鏡実画像を一般的なテクスチャーマッピングの手法によってマッピングすることで、表示用仮想画像を生成し、ステップS28に進む。   In step S27, the virtual endoscopic image generated in step S26 is mapped to the virtual endoscopic image acquired in step S23 by a general texture mapping method, so that the display virtual image is displayed. Generate and proceed to step S28.

図10は、ステップS27におけるテクスチャーマッピングについて説明する図である。図10(a)は、ステップS26において生成された仮想内視鏡画像を例示しており、図10(b)は、ステップS23において取得されたカラー内視鏡実画像を例示している。そして、図10に示すように、仮想内視鏡画像(図10(a))を構成する各ポリゴンに対して、カラー内視鏡実画像(図10(b))をマッピングすることで、表示用仮想画像(図10(c))を生成することができる。このテクスチャーマッピングの手法としては、公知の方法を用いることができる。   FIG. 10 is a diagram for explaining the texture mapping in step S27. FIG. 10A illustrates the virtual endoscope image generated in step S26, and FIG. 10B illustrates the color endoscope real image acquired in step S23. Then, as shown in FIG. 10, a color endoscope real image (FIG. 10 (b)) is mapped to each polygon constituting the virtual endoscopic image (FIG. 10 (a)). A virtual image for use (FIG. 10C) can be generated. As the texture mapping method, a known method can be used.

ステップS28では、ステップS23において取得されたカラー内視鏡実画像と、ステップS27で生成された表示用仮想画像とをモニター3において可視的に出力して、ステップS23に戻る。このステップS28では、例えば、図11に示すように、カラー内視鏡実画像に基づく表示画像と表示用仮想画像に基づく表示画像とが空間的に横に並べられたような画面がモニター3に表示される。なお、図11では、カラー内視鏡画像に基づく表示画像が図11中左方に、表示用仮想画像に基づく表示画像が図11中右方に配置された画面が例示されている。   In step S28, the color endoscope real image acquired in step S23 and the display virtual image generated in step S27 are visually output on the monitor 3, and the process returns to step S23. In step S28, for example, as shown in FIG. 11, a screen on which the display image based on the color endoscope real image and the display image based on the display virtual image are spatially arranged horizontally is displayed on the monitor 3. Is displayed. 11 illustrates a screen in which the display image based on the color endoscope image is arranged on the left side in FIG. 11 and the display image based on the display virtual image is arranged on the right side in FIG.

また、ステップS28からステップS23に戻るため、ステップS23からステップS28の処理が繰り返されることとなる。そして、ここで、毎秒30フレームのカラー内視鏡実画像が得られるとすると、1/30秒毎にステップS23からステップS28の処理が行われ、表示用画像(ここでは、カラー内視鏡実画像および表示用仮想画像)が1/30秒毎に新たに作成されて、モニター3において可視的に出力される。   Further, since the process returns from step S28 to step S23, the processes from step S23 to step S28 are repeated. If a color endoscope real image of 30 frames per second is obtained here, the processing from step S23 to step S28 is performed every 1/30 seconds to obtain a display image (in this case, a color endoscope real image). An image and a virtual image for display) are newly created every 1/30 seconds and are visually output on the monitor 3.

以上のように、第2実施形態に係る内視鏡システム1Aでは、制御部20において、ボリュームデータに係る3次元領域(身体3次元領域)における内視鏡6の相対的な位置及び姿勢の情報(位置姿勢情報)に応じて、サーフェースレンダリングの画像生成条件を設定し、当該画像生成条件に従って、ボリュームデータに基づいて3次元画像(ここでは、仮想内視鏡画像)を生成する。次に、ポリゴンで構成されて、体内の構造(ここでは、腸の内壁の表面構造)の凹凸を精度良く表す仮想内視鏡画像に対して、カラー内視鏡実画像がテクスチャーマッピングの手法によってマッピングされて表示用仮想画像が生成される。更に、カラー内視鏡実画像に基づく表示画像と表示用実画像に基づく表示画像とが同時に空間的に横に並べられた画面がモニター3に表示される。このような構成により、ボリュームデータから生成された仮想内視鏡画像に基づく表示画像が、内視鏡で実際に取得された実画像と同様な色で表示されつつ、凹凸(特に、表面形状の曲率が大きな部位の形状)も明確に示される。そのため、例えば、表示用仮想画像に基づく表示画像とカラー内視鏡実画像に基づく表示画像との対比がし易くなる。その結果、医療用の内視鏡に係る画像を、患部を見つけ易い態様で表示させることができる。   As described above, in the endoscope system 1A according to the second embodiment, in the control unit 20, information on the relative position and posture of the endoscope 6 in the three-dimensional region (three-dimensional body region) related to the volume data. A surface rendering image generation condition is set according to (position and orientation information), and a three-dimensional image (here, a virtual endoscopic image) is generated based on the volume data in accordance with the image generation condition. Next, a virtual endoscopic image composed of polygons and accurately representing the unevenness of the internal structure (here, the surface structure of the inner wall of the intestine) is accurately reproduced by a texture mapping technique. The virtual image for display is generated by mapping. Furthermore, a screen in which a display image based on the color endoscope actual image and a display image based on the display actual image are simultaneously arranged horizontally is displayed on the monitor 3. With such a configuration, the display image based on the virtual endoscopic image generated from the volume data is displayed in the same color as the actual image actually acquired by the endoscope, while the unevenness (particularly the surface shape) is displayed. The shape of the part having a large curvature is also clearly shown. Therefore, for example, it becomes easy to compare a display image based on a display virtual image with a display image based on a color endoscope real image. As a result, the image related to the medical endoscope can be displayed in a manner that makes it easy to find the affected area.

<変形例>
以上、この発明の実施形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
<Modification>
As mentioned above, although embodiment of this invention was described, this invention is not limited to the thing of the content demonstrated above.

◎例えば、上述した第1実施形態では、図8に示すように、カラー内視鏡実画像を基礎とした表示用実画像に基づく表示画像と、仮想内視鏡画像を基礎とした表示用仮想画像に基づく表示画像とを空間的に横に並べたような画面を表示したが、これに限られず、例えば、図6に示すような表示用実画像に基づく表示画像、又は、図7に示すような仮想内視鏡画像に基づく表示画像のみをモニター3に表示させるようにしても良い。このような構成としても、双方の表示画像とも、患部に相当する所定の形状条件を満たす領域が可視的に見つけ易い態様のものとなっているため、第1実施形態と同様な効果を得ることができる。更に、実際の色を有効に利用した、患部を明確に示す表示態様となった1つの画像を大きくモニター3に表示させることができるため、更に、患部が見つけ易くなる。   For example, in the first embodiment described above, as shown in FIG. 8, a display image based on a real image for display based on a color endoscope real image and a display virtual based on a virtual endoscope image Although a screen in which the display image based on the image is spatially arranged side by side is displayed, the present invention is not limited to this. For example, the display image based on the display actual image as shown in FIG. 6 or shown in FIG. Only a display image based on such a virtual endoscopic image may be displayed on the monitor 3. Even in such a configuration, both display images have an aspect in which it is easy to visually find a region that satisfies a predetermined shape condition corresponding to the affected part, and thus the same effect as that of the first embodiment can be obtained. Can do. Furthermore, since one image having a display mode that clearly uses the actual color and clearly showing the affected part can be displayed on the monitor 3 in a larger manner, the affected part can be found more easily.

◎また、上述した第1実施形態では、カラー内視鏡実画像について、患部にあたる所定の形状条件を満たす第2の画像領域を周囲の画像領域とは色を変える等して表示態様を変更したが、これに限られず、例えば、図12に示すように、仮想内視鏡画像およびカラー内視鏡実画像に対して第1及び第2の画像領域それぞれを指示するマーキング(例えば、緑色の矢印等)MGを付加して表示用仮想画像及び表示用実画像をそれぞれ生成するようにしても良い。すなわち、仮想内視鏡画像およびカラー内視鏡画像のそれぞれについて、第1及び第2の画像領域を周囲の画像領域とは異なる視覚的表現形式とするようにしても良い。このような構成によっても、第1実施形態と同様に、マーキングの存在により、患部に相当する所定の形状条件を満たす領域が確実に見つけ易くなる。すなわち、医療用の内視鏡に係る画像を、患部を見つけ易い態様で表示させることができる。   In the first embodiment described above, the display mode of the color endoscope real image is changed by changing the color of the second image area that satisfies the predetermined shape corresponding to the affected area from the surrounding image area. However, the present invention is not limited to this. For example, as shown in FIG. 12, markings (for example, green arrows) indicating the first and second image regions with respect to the virtual endoscope image and the color endoscope real image, respectively. Etc.) A virtual image for display and a real image for display may be generated by adding MG, respectively. That is, for each of the virtual endoscopic image and the color endoscopic image, the first and second image areas may be set to a visual expression format different from the surrounding image areas. Even with such a configuration, similarly to the first embodiment, the presence of marking makes it easy to reliably find a region that satisfies a predetermined shape condition corresponding to the affected part. That is, an image related to a medical endoscope can be displayed in a manner that makes it easy to find the affected area.

◎また、上述した第1実施形態では、カラー内視鏡実画像及び仮想内視鏡画像について、患部に相当する画像領域を周囲の画像領域とは色を変える等して表示態様を変更したが、これに限られず、例えば、カラー内視鏡実画像及び仮想内視鏡画像のうち、患部にあたる画像領域の輪郭を緑色等の所定の色で強調するように画素値を変更させて良い。つまり、例えば、仮想内視鏡画像のうち、所定の形状条件を満たすエッジ(輪郭)を第1の画像領域とし、カラー内視鏡実画像のうち、当該第1の画像領域に対応する画像領域を第2の画像領域としても良い。このような構成によっても、第1実施形態と同様な効果を得ることができる。   In the first embodiment described above, the display mode of the color endoscopic image and the virtual endoscopic image is changed by changing the color of the image area corresponding to the affected area from the surrounding image area. However, the present invention is not limited to this, and for example, the pixel value may be changed so that the outline of the image area corresponding to the affected part of the color endoscope real image and the virtual endoscope image is emphasized with a predetermined color such as green. That is, for example, an edge (contour) that satisfies a predetermined shape condition in a virtual endoscopic image is set as a first image area, and an image area corresponding to the first image area in a color endoscope real image. May be the second image region. Even with such a configuration, the same effect as in the first embodiment can be obtained.

◎また、上述した第1実施形態では、仮想内視鏡画像のうち患部に相当する第1の画像領域以外の周囲の周辺画像領域については、各画素に対して、カラー内視鏡実画像の対応する各画素に係る画素値を割り当てた。しなしながら、このような構成に限られず、例えば、周辺画像領域については、仮想内視鏡画像を生成した際に仮に与えられた色のままとして、表示用仮想画像を生成し、図13に示すように、モニター3において可視的に出力しても良い。このような構成としても、カラー内視鏡画像及び表示用仮想画像の双方において、患部に相当する画像領域と周囲の画像領域とのそれぞれの画素の表示態様を相互に異ならせているため、患部を見つけ易い態様でモニター3に表示画像を表示させることができる。   In the first embodiment described above, for the surrounding peripheral image areas other than the first image area corresponding to the affected part of the virtual endoscopic image, the color endoscope real image is displayed for each pixel. A pixel value for each corresponding pixel was assigned. However, the present invention is not limited to such a configuration. For example, for the peripheral image region, a virtual image for display is generated while maintaining the color temporarily given when the virtual endoscopic image is generated. As shown, it may be output visually on the monitor 3. Even in such a configuration, in both the color endoscopic image and the display virtual image, the display modes of the respective pixels of the image area corresponding to the affected area and the surrounding image area are different from each other. The display image can be displayed on the monitor 3 in an easy-to-find manner.

◎また、上述した第2実施形態では、ポリゴンで形成された仮想内視鏡画像に対してカラー内視鏡実画像をマッピングすることで表示用仮想画像を生成したが、これに限られず、例えば、図14に示すように、仮想内視鏡画像を半透明化させたもの(図14(a))を、カラー内視鏡実画像(図14(b))に対して位置合わせをしつつ、重畳させて表示用画像(図14(c))を生成するようにしても良い。なお、逆に、カラー内視鏡画像を半透明化させたものを仮想内視鏡画像に対して重畳させることで表示用画像を生成しても良い。また、仮想内視鏡画像については、各ポリゴンの輪郭だけを線で描いた線画として、仮想的な色を付さないようにしても良い。   In the second embodiment described above, the display virtual image is generated by mapping the color endoscope real image to the virtual endoscopic image formed by the polygon. However, the present invention is not limited to this. As shown in FIG. 14, the virtual endoscopic image made translucent (FIG. 14 (a)) is aligned with the color endoscope real image (FIG. 14 (b)). The display image (FIG. 14C) may be generated by superimposing the images. Conversely, a display image may be generated by superimposing a semi-transparent color endoscopic image on a virtual endoscopic image. Further, the virtual endoscopic image may not be given a virtual color as a line drawing in which only the outline of each polygon is drawn with a line.

このような構成により、表面の凹凸状態が明確な仮想内視鏡画像がカラー内視鏡実画像に対して重畳された表示用画像を、モニター3において可視的に出力することで、表面構造の曲率が大きな患部に相当する箇所を強調した表示画像を表示することができる。すなわち、表示用画像において各部の表面形状が認識し易い態様となる。その結果、医療用の内視鏡に係る画像を、患部を見つけ易い態様で表示させることができる。   With such a configuration, a display image in which a virtual endoscopic image with a clear surface unevenness state is superimposed on a color endoscope real image is visually output on the monitor 3, so that the surface structure A display image in which a portion corresponding to an affected part with a large curvature is emphasized can be displayed. That is, the surface shape of each part is easily recognized in the display image. As a result, the image related to the medical endoscope can be displayed in a manner that makes it easy to find the affected area.

◎また、上述した第1実施形態では、図8に示すように、カラー内視鏡実画像を基礎とした表示用実画像と、仮想内視鏡画像を基礎とした表示用仮想画像とを隣に並べたような表示用画像を作成した。しかしながら、この構成に限られず、例えば、ボリュームレンダリングによって生成された仮想内視鏡画像及びカラー内視鏡実画像のうちの一方を半透明化させつつ、位置合わせを行って両画像を重畳させることで表示用画像を生成するようにしても良い。このように構成により、表面の凹凸状態が明確な仮想内視鏡画像がカラー内視鏡実画像に対して重畳された表示用画像を、モニター3において可視的に出力することで、表面構造の曲率が大きい患部に相当する箇所を強調した表示態様とすることができる。すなわち、医療用の内視鏡に係る画像を、患部を見つけ易い態様で表示させることができる。   In the first embodiment described above, as shown in FIG. 8, the display real image based on the color endoscope real image and the display virtual image based on the virtual endoscopic image are adjacent to each other. A display image like that arranged in the above was created. However, the present invention is not limited to this configuration. For example, one of a virtual endoscopic image and a color endoscopic image generated by volume rendering is made translucent, and alignment is performed to superimpose both images. A display image may be generated by the above. With this configuration, the monitor 3 visually outputs a display image in which a virtual endoscopic image with a clear surface irregularity state is superimposed on a color endoscope real image. It can be set as the display mode which emphasized the location corresponding to the affected part with a large curvature. That is, an image related to a medical endoscope can be displayed in a manner that makes it easy to find the affected area.

◎また、上述した第1実施形態では、仮想内視鏡画像を生成した後に、仮想内視鏡画像についてエッジ抽出及びエッジの形状認識等の手法を用いて、所定の形状条件を満たす第1の画像領域を検出した。しかしながら、これに限られず、例えば、ボリュームデータに係る3次元領域から、ボリュームデータのボクセル値に基づいて、体内の構造のうち所定の形状条件を満たす領域(「第1検出領域」とも称する)を検出して、当該第1検出領域を他の領域とは区別して示すことができるように、第1検出領域に係るデータを変更した3次元データ(「変更後3次元データ」とも称する)を生成し、当該変更後3次元データを読み込んで、ボリュームレンダリングを行い、第1検出領域に係る画像領域と周囲の画像領域とのそれぞれの画素を相互に異なる色表現とする等して、患部に相当する第1検出領域に係る画像領域と周囲の画像領域とのそれぞれの画素の表示態様を相互に異ならせて仮想内視鏡画像を生成するようにしても良い。つまり、元々のボリュームデータから、患者の身体に相当する3次元領域のうち所定の形状条件を満たす領域(「所定形状領域」とも称する)に対して所定のデータを付与した形に、ボリュームデータ(3次元データ)を変更して、一旦、RAM20bに読み込んで一時的に記憶し、その後、仮想内視鏡画像を生成するようにしても良い。   In the above-described first embodiment, after generating a virtual endoscopic image, the first endoscopic condition is satisfied using a technique such as edge extraction and edge shape recognition for the virtual endoscopic image. An image area was detected. However, the present invention is not limited to this. For example, a region (also referred to as a “first detection region”) that satisfies a predetermined shape condition in the body structure based on a voxel value of the volume data from a three-dimensional region related to the volume data. Detect and generate three-dimensional data (also referred to as “modified three-dimensional data”) in which the data related to the first detection area is changed so that the first detection area can be distinguished from other areas. Then, after reading the changed three-dimensional data, volume rendering is performed, and each pixel of the image area related to the first detection area and the surrounding image area are expressed in different colors, so that it corresponds to the affected area. The virtual endoscope image may be generated by changing the display modes of the respective pixels of the image region related to the first detection region and the surrounding image region. That is, the volume data (in the form in which the predetermined data is given to the area satisfying the predetermined shape (also referred to as “predetermined shape area”) in the three-dimensional area corresponding to the patient's body from the original volume data. (Three-dimensional data) may be changed, temporarily read into the RAM 20b and temporarily stored, and then a virtual endoscopic image may be generated.

具体的には、ボリュームデータに係る3次元領域から、ボリュームデータのボクセル値に基づいて、体内の各種内面構造のうち曲率が所定値よりも大きな領域を第1検出領域として検出し、当該第1検出領域に係るボクセルに対して所定の色値(例えば、緑色を示す画素値)を割り当てることで、変更後3次元データを生成し、変更後3次元データに基づくボリュームレンダリングによって生成される仮想内視鏡画像が、第1検出領域に対応する画像領域に対して所定の色値が割り当てられて、周囲の画像領域とは相互に異なる表示態様となるようにしても良い。   Specifically, based on the voxel value of the volume data, a region having a curvature larger than a predetermined value is detected as a first detection region based on the voxel value of the volume data. By assigning a predetermined color value (for example, a pixel value indicating green) to the voxel related to the detection region, the changed three-dimensional data is generated, and the virtual interior generated by the volume rendering based on the changed three-dimensional data A predetermined color value may be assigned to the image area corresponding to the first detection area so that the endoscopic image has a display mode different from the surrounding image area.

そして、仮想内視鏡画像における第1の画像領域(所定形状領域に対応する画像領域)は、周囲の画像領域とは相互に異なる表示態様となっている箇所を抽出することで、検出することができる。また、第1検出領域に係るボクセルに与えられた所定のデータを直接的に検出することで、第1の画像領域を検出することもできる。   Then, the first image region (image region corresponding to the predetermined shape region) in the virtual endoscopic image is detected by extracting a portion having a display mode different from the surrounding image region. Can do. The first image area can also be detected by directly detecting predetermined data given to the voxels related to the first detection area.

このような構成によっても、第1実施形態と同様な効果を得ることができる。   Even with such a configuration, the same effect as in the first embodiment can be obtained.

また、このような構成を採用する場合であっても、勿論、図12に示すように、カラー内視鏡実画像及び仮想内視鏡画像について、所定形状領域に対応する第1及び第2の画像領域をそれぞれ指示するマーキングが付加された表示状態となるように画素値を変更するようにしても良い。   Further, even when such a configuration is employed, as shown in FIG. 12, the first and second color endoscope real images and virtual endoscopic images corresponding to the predetermined shape regions are of course shown in FIG. You may make it change a pixel value so that it may become the display state to which the marking which each designates an image area | region was added.

◎なお、上述した実施形態における「患者」には、人間だけでなく、各種動物等も含まれる。   Note that the “patient” in the above-described embodiment includes not only humans but also various animals.

本発明の実施形態に係る内視鏡システムの概要を例示する図である。It is a figure which illustrates the outline | summary of the endoscope system which concerns on embodiment of this invention. 内視鏡の構成を示す模式図である。It is a schematic diagram which shows the structure of an endoscope. 表示用画像の生成と出力に係る動作フローを示すフローチャートである。It is a flowchart which shows the operation | movement flow which concerns on the production | generation and output of a display image. カラー内視鏡実画像の一例を示す模式図である。It is a schematic diagram which shows an example of a color endoscope real image. 仮想内視鏡画像の一例を示す模式図である。It is a schematic diagram which shows an example of a virtual endoscopic image. 表示用実画像の一例を示す模式図である。It is a schematic diagram which shows an example of the real image for a display. 表示用仮想画像の一例を示す模式図である。It is a schematic diagram which shows an example of the virtual image for a display. 表示画像の一例を示す模式図である。It is a schematic diagram which shows an example of a display image. 第2実施形態に係る表示用画像の生成と出力に係る動作フローを示すフローチャートである。It is a flowchart which shows the operation | movement flow which concerns on the production | generation and output of the display image which concerns on 2nd Embodiment. テクスチャーマッピングについて説明する図である。It is a figure explaining a texture mapping. 表示画像の一例を示す模式図である。It is a schematic diagram which shows an example of a display image. 変形例に係る表示画像の一例を示す模式図である。It is a schematic diagram which shows an example of the display image which concerns on a modification. 変形例に係る表示画像の一例を示す模式図である。It is a schematic diagram which shows an example of the display image which concerns on a modification. 変形例に係る表示用画像の生成を説明するための図である。It is a figure for demonstrating the production | generation of the image for a display which concerns on a modification.

符号の説明Explanation of symbols

1,1A 内視鏡システム
2 パソコン
3 モニター
6 内視鏡
6a 管体
6b 結合光学系
6c ハサミ部
7 位置姿勢検出器
20 制御部
20a ROM
20b RAM
22 記憶部
51 メモリカード
MG マーキング
PG 画像処理プログラム
R1 第1の画像領域
R2 第2の画像領域
TD ボリュームデータ
DESCRIPTION OF SYMBOLS 1,1A Endoscope system 2 Personal computer 3 Monitor 6 Endoscope 6a Tubing 6b Coupling optical system 6c Scissor part 7 Position and orientation detector 20 Control part 20a ROM
20b RAM
22 storage unit 51 memory card MG marking PG image processing program R1 first image area R2 second image area TD volume data

Claims (19)

コンピュータにおいて実行されることにより、3次元データに基づいて表示用画像を生成する画像処理装置として前記コンピュータを機能させるプログラムであって、
前記画像処理装置が、
患者の身体に相当する3次元領域に係る3次元データと、所定の内視鏡によって取得された前記3次元領域に係る実画像と、所定の位置姿勢検出手段によって検出された前記3次元領域における前記所定の内視鏡の位置及び姿勢に係る位置姿勢情報とを所定の記憶手段に読み込む読込手段と、
前記位置姿勢情報に応じた画像生成条件を設定する条件設定手段と、
前記画像生成条件に従い、前記3次元データに基づいたサーフェースレンダリングにより3次元表面画像を生成する表面画像生成手段と、
テクスチャーマッピングにより前記実画像を前記3次元表面画像に対してマッピングすることで、表示用画像を生成する表示用画像生成手段と、
を備えることを特徴とするプログラム。
A program that causes a computer to function as an image processing device that generates a display image based on three-dimensional data by being executed in a computer,
The image processing apparatus is
3D data related to a 3D area corresponding to the patient's body, an actual image related to the 3D area acquired by a predetermined endoscope, and the 3D area detected by a predetermined position and orientation detection means Reading means for reading position and orientation information related to the position and orientation of the predetermined endoscope into predetermined storage means;
Condition setting means for setting image generation conditions according to the position and orientation information;
Surface image generation means for generating a three-dimensional surface image by surface rendering based on the three-dimensional data in accordance with the image generation conditions;
Display image generation means for generating a display image by mapping the real image to the three-dimensional surface image by texture mapping;
A program comprising:
コンピュータにおいて実行されることにより、3次元データに基づいて表示用画像を生成する画像処理装置として前記コンピュータを機能させるプログラムであって、
前記画像処理装置が、
患者の身体に相当する3次元領域に係る3次元データと、所定の内視鏡によって取得された前記3次元領域に係る実画像と、所定の位置姿勢検出手段によって検出された前記3次元領域における前記所定の内視鏡の位置及び姿勢に係る位置姿勢情報とを所定の記憶手段に読み込む読込手段と、
前記位置姿勢情報に応じた画像生成条件を設定する条件設定手段と、
前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、
前記3次元画像のうち所定の形状条件を満たす第1の画像領域を検出する領域検出手段と、
前記実画像について、前記第1の画像領域に対応する第2の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成する表示用画像生成手段と、
を備えることを特徴とするプログラム。
A program that causes a computer to function as an image processing device that generates a display image based on three-dimensional data by being executed in a computer,
The image processing apparatus is
3D data related to a 3D area corresponding to the patient's body, an actual image related to the 3D area acquired by a predetermined endoscope, and the 3D area detected by a predetermined position and orientation detection means Reading means for reading position and orientation information related to the position and orientation of the predetermined endoscope into predetermined storage means;
Condition setting means for setting image generation conditions according to the position and orientation information;
Three-dimensional image generation means for generating a three-dimensional image based on the three-dimensional data according to the image generation conditions;
Area detecting means for detecting a first image area satisfying a predetermined shape among the three-dimensional images;
Display image generation means for generating a display image by setting a second image area corresponding to the first image area to a visual expression format different from the surrounding image area for the real image;
A program comprising:
コンピュータにおいて実行されることにより、3次元データに基づいて表示用画像を生成する画像処理装置として前記コンピュータを機能させるプログラムであって、
前記画像処理装置が、
患者の身体に相当する3次元領域のうち所定の形状条件を満たす所定形状領域に所定のデータが付与された前記3次元領域に係る3次元データと、所定の内視鏡によって取得された前記3次元領域に係る実画像と、所定の位置姿勢検出手段によって検出された前記3次元領域における前記所定の内視鏡の位置及び姿勢に係る位置姿勢情報とを所定の記憶手段に読み込む読込手段と、
前記位置姿勢情報に応じて、画像生成条件を設定する条件設定手段と、
前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、
前記3次元画像のうち前記所定形状領域に対応する第1の画像領域を検出する領域検出手段と、
前記実画像について、前記第1の画像領域に対応する第2の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成する表示用画像生成手段と、
を備えることを特徴とするプログラム。
A program that causes a computer to function as an image processing device that generates a display image based on three-dimensional data by being executed in a computer,
The image processing apparatus is
Of the three-dimensional region corresponding to the patient's body, the three-dimensional data related to the three-dimensional region in which predetermined data is given to a predetermined shape region that satisfies a predetermined shape condition, and the three-dimensional data acquired by a predetermined endoscope Reading means for reading a real image related to the three-dimensional area and position and orientation information related to the position and orientation of the predetermined endoscope in the three-dimensional area detected by the predetermined position and orientation detection means;
Condition setting means for setting image generation conditions according to the position and orientation information;
Three-dimensional image generation means for generating a three-dimensional image based on the three-dimensional data according to the image generation conditions;
A region detecting means for detecting a first image region corresponding to the predetermined shape region in the three-dimensional image;
Display image generation means for generating a display image by setting a second image area corresponding to the first image area to a visual expression format different from the surrounding image area for the real image;
A program comprising:
請求項2または請求項3に記載されたプログラムであって、
前記表示用画像生成手段は、
前記表示用画像として、前記第2の画像領域と前記周囲の画像領域とのそれぞれの画素の表示態様を相互に異ならせた画像を生成することを特徴とするプログラム。
A program according to claim 2 or claim 3, wherein
The display image generating means includes
A program that generates, as the display image, an image in which display modes of pixels of the second image region and the surrounding image region are different from each other.
請求項4に記載されたプログラムであって、
前記表示用画像生成手段は、
前記表示用画像として、前記第2の画像領域と前記周囲の画像領域とのそれぞれの画素を相互に異なる色表現で表示したカラー画像を生成することを特徴とするプログラム。
A program according to claim 4, wherein
The display image generating means includes
A program that generates a color image in which the pixels of the second image region and the surrounding image region are displayed in different color representations as the display image.
請求項2または請求項3に記載されたプログラムであって、
前記表示用画像生成手段は、
前記第2の画像領域を指示するマーキングを前記実画像に付加して前記表示用画像を生成することを特徴とするプログラム。
A program according to claim 2 or claim 3, wherein
The display image generating means includes
A program for generating a display image by adding a marking indicating the second image area to the actual image.
コンピュータにおいて実行されることにより、3次元データに基づいて表示用画像を生成する画像処理装置として前記コンピュータを機能させるプログラムであって、
前記画像処理装置が、
患者の身体に相当する3次元領域に係る3次元データと、所定の内視鏡によって取得された前記3次元領域に係る実画像と、所定の位置姿勢検出手段によって検出された前記3次元領域における前記所定の内視鏡の位置及び姿勢に係る位置姿勢情報とを所定の記憶手段に読み込む読込手段と、
前記位置姿勢情報に応じた画像生成条件を設定する条件設定手段と、
前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、
前記3次元画像のうち所定の形状条件を満たす第1の画像領域を検出する領域検出手段と、
前記3次元画像を基礎として、前記実画像の各画素値を、前記実画像の各画素に対応する前記3次元画像の各画素に割り当てつつ、前記第1の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成する表示用画像生成手段と、
を備えることを特徴とするプログラム。
A program that causes a computer to function as an image processing device that generates a display image based on three-dimensional data by being executed in a computer,
The image processing apparatus is
3D data related to a 3D area corresponding to the patient's body, an actual image related to the 3D area acquired by a predetermined endoscope, and the 3D area detected by a predetermined position and orientation detection means Reading means for reading position and orientation information related to the position and orientation of the predetermined endoscope into predetermined storage means;
Condition setting means for setting image generation conditions according to the position and orientation information;
Three-dimensional image generation means for generating a three-dimensional image based on the three-dimensional data according to the image generation conditions;
Area detecting means for detecting a first image area satisfying a predetermined shape among the three-dimensional images;
Based on the three-dimensional image, assigning each pixel value of the real image to each pixel of the three-dimensional image corresponding to each pixel of the real image, the first image region as a surrounding image region Display image generation means for generating a display image by using different visual expression formats;
A program comprising:
コンピュータにおいて実行されることにより、3次元データに基づいて表示用画像を生成する画像処理装置として前記コンピュータを機能させるプログラムであって、
前記画像処理装置が、
患者の身体に相当する3次元領域のうち所定の形状条件を満たす所定形状領域に所定のデータが付与された前記3次元領域に係る3次元データと、所定の内視鏡によって取得された前記3次元領域に係る実画像と、所定の位置姿勢検出手段によって検出された前記3次元領域における前記所定の内視鏡の位置及び姿勢に係る位置姿勢情報とを所定の記憶手段に読み込む読込手段と、
前記位置姿勢情報に応じて、画像生成条件を設定する条件設定手段と、
前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、
前記3次元画像のうち前記所定形状領域に対応する第1の画像領域を検出する領域検出手段と、
前記3次元画像を基礎として、前記実画像の各画素値を、前記実画像の各画素に対応する前記3次元画像の各画素に割り当てつつ、前記第1の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成する表示用画像生成手段と、
を備えることを特徴とするプログラム。
A program that causes a computer to function as an image processing device that generates a display image based on three-dimensional data by being executed in a computer,
The image processing apparatus is
Of the three-dimensional region corresponding to the patient's body, the three-dimensional data related to the three-dimensional region in which predetermined data is given to a predetermined shape region that satisfies a predetermined shape condition, and the three-dimensional data acquired by a predetermined endoscope Reading means for reading a real image related to the three-dimensional area and position and orientation information related to the position and orientation of the predetermined endoscope in the three-dimensional area detected by the predetermined position and orientation detection means;
Condition setting means for setting image generation conditions according to the position and orientation information;
Three-dimensional image generation means for generating a three-dimensional image based on the three-dimensional data according to the image generation conditions;
A region detecting means for detecting a first image region corresponding to the predetermined shape region in the three-dimensional image;
Based on the three-dimensional image, assigning each pixel value of the real image to each pixel of the three-dimensional image corresponding to each pixel of the real image, the first image region as a surrounding image region Display image generation means for generating a display image by using different visual expression formats;
A program comprising:
請求項7または請求項8に記載されたプログラムであって、
前記表示用画像生成手段は、
前記表示用画像として、前記第1の画像領域と前記周囲の画像領域とのそれぞれの画素の表示態様を相互に異ならせた画像を生成することを特徴とするプログラム。
A program according to claim 7 or claim 8, wherein
The display image generating means includes
A program that generates, as the display image, an image in which display modes of pixels in the first image region and the surrounding image region are different from each other.
請求項9に記載されたプログラムであって、
前記表示用画像生成手段は、
前記表示用画像として、前記第1の画像領域と前記周囲の画像領域とのそれぞれの画素を相互に異なる色表現で表示したカラー画像を生成することを特徴とするプログラム。
A program according to claim 9, wherein
The display image generating means includes
A program that generates a color image in which the pixels of the first image area and the surrounding image area are displayed in different color representations as the display image.
請求項7または請求項8に記載されたプログラムであって、
前記表示用画像生成手段は、
前記第1の画像領域を指示するマーキングを前記3次元画像に付加して前記表示用画像を生成することを特徴とするプログラム。
A program according to claim 7 or claim 8, wherein
The display image generating means includes
A program for generating a display image by adding a marking indicating the first image area to the three-dimensional image.
請求項2から請求項11のいずれかに記載されたプログラムであって、
前記所定の形状条件が、
判断対象となる画像領域の輪郭の曲率が所定値よりも大きいという条件であることを特徴とするプログラム。
A program according to any one of claims 2 to 11,
The predetermined shape condition is:
A program characterized in that the condition is that the curvature of the contour of the image area to be determined is larger than a predetermined value.
コンピュータにおいて実行されることにより、3次元データに基づいて表示用画像を生成する画像処理装置として前記コンピュータを機能させるプログラムであって、
前記画像処理装置が、
患者の身体に相当する3次元領域に係る3次元データと、所定の内視鏡によって取得された前記3次元領域に係る実画像と、所定の位置姿勢検出手段によって検出された前記3次元領域における前記所定の内視鏡の位置及び姿勢に係る位置姿勢情報とを所定の記憶手段に読み込む読込手段と、
前記位置姿勢情報に応じた画像生成条件を設定する条件設定手段と、
前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、
前記実画像と前記3次元画像との位置合わせを行いつつ、当該実画像と当該3次元画像とを重畳させた表示用画像を生成する表示用画像生成手段と、
を備えることを特徴とするプログラム。
A program that causes a computer to function as an image processing device that generates a display image based on three-dimensional data by being executed in a computer,
The image processing apparatus is
3D data related to a 3D area corresponding to the patient's body, an actual image related to the 3D area acquired by a predetermined endoscope, and the 3D area detected by a predetermined position and orientation detection means Reading means for reading position and orientation information related to the position and orientation of the predetermined endoscope into predetermined storage means;
Condition setting means for setting image generation conditions according to the position and orientation information;
Three-dimensional image generation means for generating a three-dimensional image based on the three-dimensional data according to the image generation conditions;
Display image generation means for generating a display image in which the real image and the three-dimensional image are superimposed while aligning the real image and the three-dimensional image;
A program comprising:
内視鏡システムであって、
患者の身体に相当する3次元領域に係る実画像を取得する内視鏡と、
前記3次元領域における前記内視鏡の位置及び姿勢に係る位置姿勢情報を取得する位置姿勢情報取得装置と、
前記3次元領域に係る3次元データに基づいて表示用画像を生成する画像処理装置と、
前記表示用画像を可視的に出力する画像出力装置と、
を備え、
前記画像処理装置が、
前記3次元データと、前記実画像と、前記位置姿勢情報とを所定の記憶手段に読み込む読込手段と、
前記位置姿勢情報に応じた画像生成条件を設定する条件設定手段と、
前記画像生成条件に従い、前記3次元データに基づいたサーフェースレンダリングにより3次元表面画像を生成する表面画像生成手段と、
テクスチャーマッピングにより前記実画像を前記3次元表面画像に対してマッピングすることで、表示用画像を生成する表示用画像生成手段と、
前記表示用画像を前記画像出力装置に対して出力する出力手段と、
を有することを特徴とする内視鏡システム。
An endoscope system,
An endoscope for acquiring a real image relating to a three-dimensional region corresponding to a patient's body;
A position and orientation information acquisition device for acquiring position and orientation information related to the position and orientation of the endoscope in the three-dimensional region;
An image processing device for generating a display image based on the three-dimensional data relating to the three-dimensional region;
An image output device for visually outputting the display image;
With
The image processing apparatus is
Reading means for reading the three-dimensional data, the actual image, and the position and orientation information into a predetermined storage means;
Condition setting means for setting image generation conditions according to the position and orientation information;
Surface image generation means for generating a three-dimensional surface image by surface rendering based on the three-dimensional data in accordance with the image generation conditions;
Display image generation means for generating a display image by mapping the real image to the three-dimensional surface image by texture mapping;
Output means for outputting the display image to the image output device;
An endoscope system comprising:
内視鏡システムであって、
患者の身体に相当する3次元領域に係る実画像を取得する内視鏡と、
前記3次元領域における前記内視鏡の位置及び姿勢に係る位置姿勢情報を取得する位置姿勢情報取得装置と、
前記3次元領域に係る3次元データに基づいて表示用画像を生成する画像処理装置と、
前記表示用画像を可視的に出力する画像出力装置と、
を備え、
前記画像処理装置が、
前記3次元データと、前記実画像と、前記位置姿勢情報とを所定の記憶手段に読み込む読込手段と、
前記位置姿勢情報に応じた画像生成条件を設定する条件設定手段と、
前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、
前記3次元画像のうち所定の形状条件を満たす第1の画像領域を検出する領域検出手段と、
前記実画像について、前記第1の画像領域に対応する第2の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成する表示用画像生成手段と、
前記表示用画像を前記画像出力装置に対して出力する出力手段と、
を有することを特徴とする内視鏡システム。
An endoscope system,
An endoscope for acquiring a real image relating to a three-dimensional region corresponding to a patient's body;
A position and orientation information acquisition device for acquiring position and orientation information related to the position and orientation of the endoscope in the three-dimensional region;
An image processing device for generating a display image based on the three-dimensional data relating to the three-dimensional region;
An image output device for visually outputting the display image;
With
The image processing apparatus is
Reading means for reading the three-dimensional data, the actual image, and the position and orientation information into a predetermined storage means;
Condition setting means for setting image generation conditions according to the position and orientation information;
Three-dimensional image generation means for generating a three-dimensional image based on the three-dimensional data according to the image generation conditions;
Area detecting means for detecting a first image area satisfying a predetermined shape among the three-dimensional images;
Display image generation means for generating a display image by setting a second image area corresponding to the first image area to a visual expression format different from the surrounding image area for the real image;
Output means for outputting the display image to the image output device;
An endoscope system comprising:
内視鏡システムであって、
患者の身体に相当する3次元領域に係る実画像を取得する内視鏡と、
前記3次元領域における前記内視鏡の位置及び姿勢に係る位置姿勢情報を取得する位置姿勢情報取得装置と、
前記3次元領域に係る3次元データに基づいて表示用画像を生成する画像処理装置と、
前記表示用画像を可視的に出力する画像出力装置と、
を備え、
前記3次元データが、
前記3次元領域のうち所定の形状条件を満たす所定形状領域に所定のデータが付与された前記3次元領域に係る3次元データであり、
前記画像処理装置が、
前記3次元データと、前記実画像と、前記位置姿勢情報とを所定の記憶手段に読み込む読込手段と、
前記位置姿勢情報に応じて、画像生成条件を設定する条件設定手段と、
前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、
前記3次元画像のうち前記所定形状領域に対応する第1の画像領域を検出する領域検出手段と、
前記実画像について、前記第1の画像領域に対応する第2の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成する表示用画像生成手段と、
前記表示用画像を前記画像出力装置に対して出力する出力手段と、
を有することを特徴とする内視鏡システム。
An endoscope system,
An endoscope for acquiring a real image relating to a three-dimensional region corresponding to a patient's body;
A position and orientation information acquisition device for acquiring position and orientation information related to the position and orientation of the endoscope in the three-dimensional region;
An image processing device for generating a display image based on the three-dimensional data relating to the three-dimensional region;
An image output device for visually outputting the display image;
With
The three-dimensional data is
The three-dimensional data relating to the three-dimensional region in which predetermined data is given to a predetermined shape region that satisfies a predetermined shape condition in the three-dimensional region,
The image processing apparatus is
Reading means for reading the three-dimensional data, the actual image, and the position and orientation information into a predetermined storage means;
Condition setting means for setting image generation conditions according to the position and orientation information;
Three-dimensional image generation means for generating a three-dimensional image based on the three-dimensional data according to the image generation conditions;
A region detecting means for detecting a first image region corresponding to the predetermined shape region in the three-dimensional image;
Display image generation means for generating a display image by setting a second image area corresponding to the first image area to a visual expression format different from the surrounding image area for the real image;
Output means for outputting the display image to the image output device;
An endoscope system comprising:
内視鏡システムであって、
患者の身体に相当する3次元領域に係る実画像を取得する内視鏡と、
前記3次元領域における前記内視鏡の位置及び姿勢に係る位置姿勢情報を取得する位置姿勢情報取得装置と、
前記3次元領域に係る3次元データに基づいて表示用画像を生成する画像処理装置と、
前記表示用画像を可視的に出力する画像出力装置と、
を備え、
前記画像処理装置が、
前記3次元データと、前記実画像と、前記位置姿勢情報とを所定の記憶手段に読み込む読込手段と、
前記位置姿勢情報に応じた画像生成条件を設定する条件設定手段と、
前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、
前記3次元画像のうち所定の形状条件を満たす第1の画像領域を検出する領域検出手段と、
前記3次元画像を基礎として、前記実画像の各画素値を、前記実画像の各画素に対応する前記3次元画像の各画素に割り当てつつ、前記第1の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成する表示用画像生成手段と、
前記表示用画像を前記画像出力装置に対して出力する出力手段と、
を有することを特徴とする内視鏡システム。
An endoscope system,
An endoscope for acquiring a real image relating to a three-dimensional region corresponding to a patient's body;
A position and orientation information acquisition device for acquiring position and orientation information related to the position and orientation of the endoscope in the three-dimensional region;
An image processing device for generating a display image based on the three-dimensional data relating to the three-dimensional region;
An image output device for visually outputting the display image;
With
The image processing apparatus is
Reading means for reading the three-dimensional data, the actual image, and the position and orientation information into a predetermined storage means;
Condition setting means for setting image generation conditions according to the position and orientation information;
Three-dimensional image generation means for generating a three-dimensional image based on the three-dimensional data according to the image generation conditions;
Area detecting means for detecting a first image area satisfying a predetermined shape among the three-dimensional images;
Based on the three-dimensional image, assigning each pixel value of the real image to each pixel of the three-dimensional image corresponding to each pixel of the real image, the first image region as a surrounding image region Display image generation means for generating a display image by using different visual expression formats;
Output means for outputting the display image to the image output device;
An endoscope system comprising:
内視鏡システムであって、
患者の身体に相当する3次元領域に係る実画像を取得する内視鏡と、
前記3次元領域における前記内視鏡の位置及び姿勢に係る位置姿勢情報を取得する位置姿勢情報取得装置と、
前記3次元領域に係る3次元データに基づいて表示用画像を生成する画像処理装置と、
前記表示用画像を可視的に出力する画像出力装置と、
を備え、
前記3次元データが、
前記3次元領域のうち所定の形状条件を満たす所定形状領域に所定のデータが付与された前記3次元領域に係る3次元データであり、
前記画像処理装置が、
前記3次元データと、前記実画像と、前記位置姿勢情報とを所定の記憶手段に読み込む読込手段と、
前記位置姿勢情報に応じて、画像生成条件を設定する条件設定手段と、
前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、
前記3次元画像のうち前記所定形状領域に対応する第1の画像領域を検出する領域検出手段と、
前記3次元画像を基礎として、前記実画像の各画素値を、前記実画像の各画素に対応する前記3次元画像の各画素に割り当てつつ、前記第1の画像領域を周囲の画像領域とは異なる視覚的表現形式とすることによって表示用画像を生成する表示用画像生成手段と、
前記表示用画像を前記画像出力装置に対して出力する出力手段と、
を有することを特徴とする内視鏡システム。
An endoscope system,
An endoscope for acquiring a real image relating to a three-dimensional region corresponding to a patient's body;
A position and orientation information acquisition device for acquiring position and orientation information related to the position and orientation of the endoscope in the three-dimensional region;
An image processing device for generating a display image based on the three-dimensional data relating to the three-dimensional region;
An image output device for visually outputting the display image;
With
The three-dimensional data is
The three-dimensional data relating to the three-dimensional region in which predetermined data is given to a predetermined shape region that satisfies a predetermined shape condition in the three-dimensional region,
The image processing apparatus is
Reading means for reading the three-dimensional data, the actual image, and the position and orientation information into a predetermined storage means;
Condition setting means for setting image generation conditions according to the position and orientation information;
Three-dimensional image generation means for generating a three-dimensional image based on the three-dimensional data according to the image generation conditions;
A region detecting means for detecting a first image region corresponding to the predetermined shape region in the three-dimensional image;
Based on the three-dimensional image, assigning each pixel value of the real image to each pixel of the three-dimensional image corresponding to each pixel of the real image, the first image region as a surrounding image region Display image generation means for generating a display image by using different visual expression formats;
Output means for outputting the display image to the image output device;
An endoscope system comprising:
内視鏡システムであって、
患者の身体に相当する3次元領域に係る実画像を取得する内視鏡と、
前記3次元領域における前記内視鏡の位置及び姿勢に係る位置姿勢情報を取得する位置姿勢情報取得装置と、
前記3次元領域に係る3次元データに基づいて表示用画像を生成する画像処理装置と、
前記表示用画像を可視的に出力する画像出力装置と、
を備え、
前記画像処理装置が、
前記3次元データと、前記実画像と、前記位置姿勢情報とを所定の記憶手段に読み込む読込手段と、
前記位置姿勢情報に応じた画像生成条件を設定する条件設定手段と、
前記画像生成条件に従い、前記3次元データに基づいて3次元画像を生成する3次元画像生成手段と、
前記実画像と前記3次元画像との位置合わせを行いつつ、当該実画像と当該3次元画像とを重畳させた表示用画像を生成する表示用画像生成手段と、
前記表示用画像を前記画像出力装置に対して出力する出力手段と、
を有することを特徴とする内視鏡システム。
An endoscope system,
An endoscope for acquiring a real image relating to a three-dimensional region corresponding to a patient's body;
A position and orientation information acquisition device for acquiring position and orientation information related to the position and orientation of the endoscope in the three-dimensional region;
An image processing device for generating a display image based on the three-dimensional data relating to the three-dimensional region;
An image output device for visually outputting the display image;
With
The image processing apparatus is
Reading means for reading the three-dimensional data, the actual image, and the position and orientation information into a predetermined storage means;
Condition setting means for setting image generation conditions according to the position and orientation information;
Three-dimensional image generation means for generating a three-dimensional image based on the three-dimensional data according to the image generation conditions;
Display image generation means for generating a display image in which the real image and the three-dimensional image are superimposed while aligning the real image and the three-dimensional image;
Output means for outputting the display image to the image output device;
An endoscope system comprising:
JP2004245326A 2004-08-25 2004-08-25 Program and endoscope system Pending JP2006061274A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004245326A JP2006061274A (en) 2004-08-25 2004-08-25 Program and endoscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004245326A JP2006061274A (en) 2004-08-25 2004-08-25 Program and endoscope system

Publications (1)

Publication Number Publication Date
JP2006061274A true JP2006061274A (en) 2006-03-09

Family

ID=36108254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004245326A Pending JP2006061274A (en) 2004-08-25 2004-08-25 Program and endoscope system

Country Status (1)

Country Link
JP (1) JP2006061274A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008104875A (en) * 2006-10-25 2008-05-08 General Electric Co <Ge> Cartoon-like exaggeration of medical image to enhance abnormality
WO2009013922A1 (en) * 2007-07-26 2009-01-29 Olympus Medical Systems Corp. Medical image processing device and medical image processing method
JP2011000173A (en) * 2009-06-16 2011-01-06 Toshiba Corp Endoscopic examination supporting system
WO2012014437A1 (en) 2010-07-28 2012-02-02 富士フイルム株式会社 Image processor, image processing method and image processing program
JP2012045057A (en) * 2010-08-24 2012-03-08 Olympus Corp Image processing apparatus, image processing method, and image processing program
JP2012050606A (en) * 2010-08-31 2012-03-15 Fujifilm Corp Endoscopic image processing device, method and program
WO2012165572A1 (en) * 2011-06-01 2012-12-06 株式会社 東芝 Medical image display apparatus and medical image diagnostic apparatus
JP2012235983A (en) * 2011-05-13 2012-12-06 Olympus Medical Systems Corp Medical image display system
CN102821671A (en) * 2010-03-31 2012-12-12 富士胶片株式会社 Oscope observation supporting system and method, and device and programme
WO2013027773A1 (en) * 2011-08-24 2013-02-28 国立大学法人奈良先端科学技術大学院大学 Image processing device, image processing method, and recording medium
EP2702924A4 (en) * 2012-02-10 2015-07-15 Olympus Medical Systems Corp Control device, biological optical measurement device and endoscope system
WO2017212653A1 (en) * 2016-06-10 2017-12-14 オリンパス株式会社 Image processing device, image processing method, and image processing program
WO2019088008A1 (en) * 2017-10-31 2019-05-09 富士フイルム株式会社 Image processing apparatus, image processing method, program, and endoscope system
CN114612483A (en) * 2022-03-04 2022-06-10 北京理工大学 Hard tube endoscope visual field area segmentation method and device

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008104875A (en) * 2006-10-25 2008-05-08 General Electric Co <Ge> Cartoon-like exaggeration of medical image to enhance abnormality
US8121369B2 (en) 2007-07-26 2012-02-21 Olympus Medical Systems Corp. Medical image processing apparatus and medical image processing method
WO2009013922A1 (en) * 2007-07-26 2009-01-29 Olympus Medical Systems Corp. Medical image processing device and medical image processing method
JP2009028248A (en) * 2007-07-26 2009-02-12 Olympus Medical Systems Corp Medical image processing apparatus and medical image processing method
JP2011000173A (en) * 2009-06-16 2011-01-06 Toshiba Corp Endoscopic examination supporting system
CN102821671A (en) * 2010-03-31 2012-12-12 富士胶片株式会社 Oscope observation supporting system and method, and device and programme
WO2012014437A1 (en) 2010-07-28 2012-02-02 富士フイルム株式会社 Image processor, image processing method and image processing program
JP2012024509A (en) * 2010-07-28 2012-02-09 Fujifilm Corp Image processor, method, and program
CN103025227A (en) * 2010-07-28 2013-04-03 富士胶片株式会社 Image processor, image processing method and image processing program
US9723971B2 (en) 2010-07-28 2017-08-08 Fujifilm Corporation Image processing apparatus, method, and program
JP2012045057A (en) * 2010-08-24 2012-03-08 Olympus Corp Image processing apparatus, image processing method, and image processing program
JP2012050606A (en) * 2010-08-31 2012-03-15 Fujifilm Corp Endoscopic image processing device, method and program
US8939892B2 (en) 2010-08-31 2015-01-27 Fujifilm Corporation Endoscopic image processing device, method and program
JP2012235983A (en) * 2011-05-13 2012-12-06 Olympus Medical Systems Corp Medical image display system
WO2012165572A1 (en) * 2011-06-01 2012-12-06 株式会社 東芝 Medical image display apparatus and medical image diagnostic apparatus
US9655498B2 (en) 2011-06-01 2017-05-23 Toshiba Medical Systems Corporation Medical image displaying apparatus and a medical image diagnostic apparatus
WO2013027773A1 (en) * 2011-08-24 2013-02-28 国立大学法人奈良先端科学技術大学院大学 Image processing device, image processing method, and recording medium
EP2702924A4 (en) * 2012-02-10 2015-07-15 Olympus Medical Systems Corp Control device, biological optical measurement device and endoscope system
WO2017212653A1 (en) * 2016-06-10 2017-12-14 オリンパス株式会社 Image processing device, image processing method, and image processing program
US10561300B2 (en) 2016-06-10 2020-02-18 Olympus Corporation Image processing apparatus, image processing method, and image processing program
WO2019088008A1 (en) * 2017-10-31 2019-05-09 富士フイルム株式会社 Image processing apparatus, image processing method, program, and endoscope system
JPWO2019088008A1 (en) * 2017-10-31 2020-11-12 富士フイルム株式会社 Image processing equipment, image processing methods, programs, and endoscopic systems
JP7148534B2 (en) 2017-10-31 2022-10-05 富士フイルム株式会社 Image processing device, program, and endoscope system
CN114612483A (en) * 2022-03-04 2022-06-10 北京理工大学 Hard tube endoscope visual field area segmentation method and device

Similar Documents

Publication Publication Date Title
US8939892B2 (en) Endoscopic image processing device, method and program
KR100439756B1 (en) Apparatus and method for displaying virtual endoscopy diaplay
JP4676021B2 (en) Diagnosis support apparatus, diagnosis support program, and diagnosis support method
US8611988B2 (en) Projection image generation apparatus and method, and computer readable recording medium on which is recorded program for the same
JP5208495B2 (en) Medical system
JP4401727B2 (en) Image display apparatus and method
CN107016717A (en) System and method for the see-through view of patient
JP2006061274A (en) Program and endoscope system
JP2007233971A (en) Image compositing method and device
JP5934070B2 (en) Virtual endoscopic image generating apparatus, operating method thereof, and program
JP3891442B2 (en) 3D image processing method
JP2011206435A (en) Imaging device, imaging method, imaging program and endoscope
JP5114121B2 (en) Medical image processing device
US20220215539A1 (en) Composite medical imaging systems and methods
JP2024028512A (en) Program, information processing method and endoscope system
US10951837B2 (en) Generating a stereoscopic representation
WO2016054775A1 (en) Ultrasonic virtual endoscopic imaging system and method, and apparatus thereof
JPH1176228A (en) Three-dimensional image construction apparatus
US10631948B2 (en) Image alignment device, method, and program
JP6422597B2 (en) Image processing apparatus, image processing system, and operation method of image processing apparatus
JP4159396B2 (en) Endoscope shape detection device
CN114830638A (en) System and method for telestration with spatial memory
IL278536B2 (en) Improved visualization of anatomical cavities
JP2023004884A (en) Rendering device for displaying graphical representation of augmented reality