JP5354494B2 - 3D image generation apparatus, 3D image generation method, and program - Google Patents

3D image generation apparatus, 3D image generation method, and program Download PDF

Info

Publication number
JP5354494B2
JP5354494B2 JP2009103217A JP2009103217A JP5354494B2 JP 5354494 B2 JP5354494 B2 JP 5354494B2 JP 2009103217 A JP2009103217 A JP 2009103217A JP 2009103217 A JP2009103217 A JP 2009103217A JP 5354494 B2 JP5354494 B2 JP 5354494B2
Authority
JP
Japan
Prior art keywords
image
dimensional image
dimensional
coordinates
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009103217A
Other languages
Japanese (ja)
Other versions
JP2010256988A (en
Inventor
辰男 五十嵐
琢郎 石井
聡樹 前佛
雅 関根
俊哉 中口
Original Assignee
国立大学法人 千葉大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人 千葉大学 filed Critical 国立大学法人 千葉大学
Priority to JP2009103217A priority Critical patent/JP5354494B2/en
Publication of JP2010256988A publication Critical patent/JP2010256988A/en
Application granted granted Critical
Publication of JP5354494B2 publication Critical patent/JP5354494B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Description

本発明は、2次元画像から3次元画像を生成する3次元画像生成装置、3次元画像生成方法、及びその方法をコンピュータに実行させるプログラムに関する。   The present invention relates to a three-dimensional image generation apparatus that generates a three-dimensional image from a two-dimensional image, a three-dimensional image generation method, and a program that causes a computer to execute the method.

従来から、内視鏡により撮像された画像が医療分野などで利用されている。内視鏡により撮像された画像は、視点が固定されているため、視野が狭い。   Conventionally, an image captured by an endoscope has been used in the medical field or the like. The image captured by the endoscope has a narrow field of view because the viewpoint is fixed.

一方、呼吸器・消化器・脳外科などの臨床現場では、CTやMRIで取得した連続画像を用いて、3次元画像(「仮想内視鏡画像」と言う。)が生成されている。仮想内視鏡画像は、視点が自由で、死角を無効にできるという利点がある。   On the other hand, in clinical sites such as respiratory organs, digestive organs, and brain surgery, three-dimensional images (referred to as “virtual endoscopic images”) are generated using continuous images acquired by CT or MRI. The virtual endoscopic image has an advantage that the viewpoint is free and the blind spot can be invalidated.

国際公開WO2007/139187パンフレットInternational Publication WO2007 / 139187 Pamphlet

仮想内視鏡画像の解像度はCTやMRIの空間解像度に依存しているため、CTやMRIから生成された仮想内視鏡画像は実画像に比べると劣る。そのため、例えば、仮想内視鏡画像を見ても、5mm以下の病変を検出することができない。また、CTやMRIから生成された仮想内視鏡画像の場合、色情報がない。そのため、例えば、CTやMRIから生成された仮想内視鏡画像を用いて、上皮内癌や浸潤癌の診断をすることは難しい。このように、従来の仮想内視鏡画像は、解像度が低く、色情報もないため、有用性が低いという問題があった。   Since the resolution of the virtual endoscopic image depends on the spatial resolution of CT or MRI, the virtual endoscopic image generated from CT or MRI is inferior to the actual image. Therefore, for example, even if a virtual endoscopic image is viewed, a lesion of 5 mm or less cannot be detected. In the case of a virtual endoscopic image generated from CT or MRI, there is no color information. Therefore, it is difficult to diagnose intraepithelial cancer and invasive cancer using, for example, virtual endoscopic images generated from CT or MRI. As described above, the conventional virtual endoscopic image has a problem of low usefulness because it has low resolution and no color information.

本発明は、上記問題を解決するものであって、解像度が高く且つ色情報を備えた有用性の高い3次元画像(例えば、仮想内視鏡画像)を生成する3次元画像生成装置、3次元画像生成方法、及びその方法をコンピュータに実行させるプログラムを提供することを目的とする。   The present invention solves the above-described problem, and is a three-dimensional image generation apparatus that generates a highly useful three-dimensional image (for example, a virtual endoscopic image) having high resolution and color information. An object is to provide an image generation method and a program for causing a computer to execute the method.

本発明に係る第2の3次元画像生成装置は、3次元形状を有する被写体の2次元画像を入力する入力手段と、入力された2次元画像を格納する記憶手段と、記憶手段から2次元画像を読み出し、読み出した2次元画像から被写体の3次元画像を生成する制御手段とを有する。制御手段は、2次元画像内の各画素について、青の輝度情報と緑の輝度情報との差分を求め、その差分に基づき各画素の第3の座標軸上の座標を算出して3次元座標を求め、3次元座標に基づいて被写体の3次元画像を生成する。   A second 3D image generation apparatus according to the present invention includes an input unit that inputs a 2D image of a subject having a 3D shape, a storage unit that stores the input 2D image, and a 2D image from the storage unit. And a control means for generating a three-dimensional image of the subject from the read two-dimensional image. The control means obtains a difference between the blue luminance information and the green luminance information for each pixel in the two-dimensional image, calculates a coordinate on the third coordinate axis of each pixel based on the difference, and obtains the three-dimensional coordinate. A three-dimensional image of the subject is generated based on the three-dimensional coordinates.

本発明に係る第2の3次元画像生成方法は、情報処理装置を用いて3次元形状を有する被写体の2次元画像から3次元画像を生成する方法である。その方法は、情報処理装置の制御手段が、被写体を撮像した2次元画像内の各画素について、青の輝度情報と緑の輝度情報との差分を求め、差分に基づき各画素の第3の座標軸上の座標を算出して、3次元座標を求めるステップと、2次元画像内の各画素の3次元座標に基づいて被写体の3次元画像を生成するステップとを含む。   The second three-dimensional image generation method according to the present invention is a method for generating a three-dimensional image from a two-dimensional image of a subject having a three-dimensional shape using an information processing apparatus. In the method, the control means of the information processing apparatus obtains a difference between the blue luminance information and the green luminance information for each pixel in the two-dimensional image obtained by imaging the subject, and based on the difference, the third coordinate axis of each pixel. Calculating upper coordinates to obtain three-dimensional coordinates; and generating a three-dimensional image of the subject based on the three-dimensional coordinates of each pixel in the two-dimensional image.

本発明によれば、2次元画像の輝度情報を用いて3次元座標を算出し、算出した3次元座標に基づいて3次元モデルを生成して、その3次元モデルに2次元画像のテクスチャを貼り付けている。よって、2次元画像の解像度及び色情報がそのまま3次元画像に適用される。具体的には、例えば、内視鏡を用いて撮像した画像から得られる解像度及び色情報がそのまま3次元画像に適用される。そのため、解像度が高く且つ色情報を備えた有用性の高い3次元画像を生成することができる。   According to the present invention, three-dimensional coordinates are calculated using luminance information of a two-dimensional image, a three-dimensional model is generated based on the calculated three-dimensional coordinates, and a texture of the two-dimensional image is pasted on the three-dimensional model. Attached. Therefore, the resolution and color information of the two-dimensional image are applied to the three-dimensional image as they are. Specifically, for example, resolution and color information obtained from an image captured using an endoscope is applied to a three-dimensional image as it is. Therefore, a highly useful three-dimensional image having high resolution and color information can be generated.

本発明の実施形態1及び2の3次元画像生成装置の構成を示すブロック図The block diagram which shows the structure of the three-dimensional image generation apparatus of Embodiment 1 and 2 of this invention. 本発明の実施形態1において、管状構造物を撮影して得られた内視鏡画像を平面的に展開することにより2次元画像を生成する方法を説明するための図The figure for demonstrating the method to produce | generate a two-dimensional image by expand | deploying planarly the endoscopic image obtained by image | photographing a tubular structure in Embodiment 1 of this invention. 本発明の実施形態1及び2の3次元画像生成装置による3次元画像の生成方法を示すフローチャート3 is a flowchart showing a method for generating a three-dimensional image by the three-dimensional image generating apparatus according to the first and second embodiments of the present invention. 図3の方法を用いて行われる、実施形態1における2次元画像から3次元画像への変換を示す概略図FIG. 3 is a schematic diagram illustrating conversion from a two-dimensional image to a three-dimensional image in the first embodiment performed using the method of FIG. 3. 本発明の実施形態1における3次元座標の算出方法を示すフローチャートThe flowchart which shows the calculation method of the three-dimensional coordinate in Embodiment 1 of this invention. 図5において、3次元座標を求める際に用いられる要素を説明するための図FIG. 5 is a diagram for explaining elements used when obtaining three-dimensional coordinates. 本発明の実施形態1に示す方法の実行において、使用された2次元画像または生成された3次元画像の例を示す図The figure which shows the example of the two-dimensional image used or the produced | generated three-dimensional image in execution of the method shown in Embodiment 1 of this invention. 本発明の実施形態2における3次元座標の算出方法を示すフローチャートThe flowchart which shows the calculation method of the three-dimensional coordinate in Embodiment 2 of this invention. 本発明の実施形態2に示す方法の実行において、使用された2次元画像または生成された3次元画像の例を示す図The figure which shows the example of the two-dimensional image used in execution of the method shown in Embodiment 2 of this invention, or the produced | generated three-dimensional image.

《実施形態1》
本発明の実施形態1の3次元画像生成装置は、2次元画像から3次元画像を生成する。具体的には、本実施形態においては、内視鏡を用いて撮影された映像(「内視鏡画像」と言う。)を平面的に展開することにより2次元画像を生成し、その2次元画像を用いて元の内視鏡画像を再現した画像である仮想内視鏡画像(3次元画像)を生成する。より具体的には、本実施形態においては、2次元画像の被写体の形状が事前に分かっており、その被写体に応じた計算式を用いて、3次元形状を復元する。
Embodiment 1
The three-dimensional image generation apparatus according to the first embodiment of the present invention generates a three-dimensional image from a two-dimensional image. Specifically, in the present embodiment, a two-dimensional image is generated by planarly developing a video imaged using an endoscope (referred to as an “endoscopic image”), and the two-dimensional image is generated. A virtual endoscopic image (three-dimensional image) that is an image obtained by reproducing the original endoscopic image is generated using the image. More specifically, in this embodiment, the shape of the subject of the two-dimensional image is known in advance, and the three-dimensional shape is restored using a calculation formula corresponding to the subject.

1.構成
図1に、本発明の実施形態1の3次元画像生成装置の構成を示す。本実施形態の3次元画像生成装置は、内視鏡スコープにより撮影された画像から内視鏡画像データを生成する内視鏡装置200と、内視鏡画像データから2次元展開画像を生成するとともに、その2次元展開画像から3次元画像を生成する情報処理装置100と、を有する。
1. Configuration FIG. 1 shows a configuration of a three-dimensional image generation apparatus according to Embodiment 1 of the present invention. The three-dimensional image generation apparatus according to the present embodiment generates an endoscope apparatus 200 that generates endoscope image data from an image captured by an endoscope scope, and generates a two-dimensional developed image from the endoscope image data. And an information processing apparatus 100 that generates a three-dimensional image from the two-dimensional developed image.

情報処理装置100は、例えば、パーソナルコンピュータである。情報処理装置100は、内視鏡装置200から画像データを受けて2次元展開画像を生成するとともに、2次元展開画像から3次元画像を生成する情報処理部11と、2次元画像や3次元画像を表示する表示部(例えば、ディスプレイ)12と、ユーザからの情報処理部11や表示部12に対する指令を入力する操作部(マウス13a及びキーボード13b)と、を備える。   The information processing apparatus 100 is, for example, a personal computer. The information processing apparatus 100 receives the image data from the endoscope apparatus 200, generates a two-dimensional developed image, and generates an information processing unit 11 that generates a three-dimensional image from the two-dimensional developed image, and the two-dimensional image or the three-dimensional image. Display unit (for example, display) 12 and an operation unit (mouse 13a and keyboard 13b) for inputting commands to the information processing unit 11 and the display unit 12 from the user.

情報処理部11は、2次元画像や3次元画像のデータの送受信を外部と行う入出力インターフェース(I/F)11aと、2次元画像及び2次元画像から変換して生成した3次元画像を記憶する記憶部11bと、記憶部11bに記憶されている2次元画像や入出力インターフェース11aを介して外部から読み込んだ2次元画像から3次元画像を生成する制御部11cと、を有する。   The information processing section 11 stores an input / output interface (I / F) 11a that externally transmits and receives 2D images and 3D image data, and 3D images generated by converting 2D images and 2D images. And a control unit 11c that generates a three-dimensional image from the two-dimensional image stored in the storage unit 11b and the two-dimensional image read from the outside via the input / output interface 11a.

内視鏡装置200は、管状構造物内に挿入されて管内面を撮像する内視鏡スコープ21と、内視鏡スコープ21を制御するとともに、内視鏡スコープ21を介して入力される信号に基づきビデオファイル(内視鏡画像)を作成する制御ユニット22と、を有している。内視鏡装置200は、体内の腔所を観察するための光学系を組み込んだ医療機器である。   The endoscope apparatus 200 is inserted into a tubular structure to control the endoscope scope 21 that images the inner surface of the tube, and signals input via the endoscope scope 21. And a control unit 22 for creating a video file (endoscopic image) based on the control unit 22. The endoscope apparatus 200 is a medical device that incorporates an optical system for observing a cavity in the body.

制御ユニット22は、そのユニット22内の各構成を制御する制御部22aと、内視鏡スコープ21を介して入力される信号に基づき管状構造物内面のビデオファイルを作成する信号処理部22bと、内視鏡スコープ21の先端部から観察対象に対して照射される照明光の光源である光源部22cと、を備えている。制御部22aは、ユーザの操作に応じて、内視鏡スコープ21による撮像や照明のオンオフ切換えを制御したり、光源部22cから内視鏡スコープ21に供給される光量を調節したりする。   The control unit 22 includes a control unit 22a that controls each component in the unit 22, a signal processing unit 22b that creates a video file on the inner surface of the tubular structure based on a signal input via the endoscope scope 21, and A light source unit 22c that is a light source of illumination light emitted from the distal end portion of the endoscope scope 21 to the observation target. The control unit 22a controls imaging and lighting on / off switching by the endoscope scope 21 and adjusts the amount of light supplied from the light source unit 22c to the endoscope scope 21 in accordance with a user operation.

内視鏡スコープ21は、対物レンズと、一対の照明用の光ファイバと、鉗子チャンネルや吸引チャンネル等の操作チャンネルと、を含み、それらが内視鏡スコープ21の先端部においてそれぞれ露出するように設けられている。なお、かかる構成は、従来周知であり、また、内視鏡スコープ21はこの構成に限定されることなく、例えば、単一の又は3つ以上の照明用の光ファイバが設けられたものが採用されてもよい。   The endoscope scope 21 includes an objective lens, a pair of illumination optical fibers, and an operation channel such as a forceps channel and a suction channel, so that they are respectively exposed at the distal end portion of the endoscope scope 21. Is provided. Such a configuration is well known in the art, and the endoscope scope 21 is not limited to this configuration. For example, a configuration in which a single or three or more illumination optical fibers are provided is adopted. May be.

上記のように構成される情報処理装置100及び内視鏡装置200は協働して、国際公開WO2007/139187パンフレットに開示された画像構築技術に記載の動作を行って、管状構造物の内面を撮像し、複数フレーム画像から構成される2次元画像を生成する。   The information processing apparatus 100 and the endoscope apparatus 200 configured as described above cooperate to perform the operation described in the image construction technique disclosed in the international publication WO2007 / 139187 pamphlet, and thereby the inner surface of the tubular structure is formed. An image is taken and a two-dimensional image composed of a plurality of frame images is generated.

情報処理装置100と内視鏡装置200は、例えばUSBケーブル等のケーブル50を介して接続される。情報処理装置100と内視鏡装置200との間では、内視鏡装置200により生成された2次元画像を情報処理装置100に伝送したり、情報処理装置100から内視鏡装置200へコマンド信号を伝送したりすることができる。情報処理装置100と内視鏡装置200との間にビデオキャプチャボードを介在させてもよい。   The information processing apparatus 100 and the endoscope apparatus 200 are connected via a cable 50 such as a USB cable. Between the information processing apparatus 100 and the endoscope apparatus 200, a two-dimensional image generated by the endoscope apparatus 200 is transmitted to the information processing apparatus 100, or a command signal is transmitted from the information processing apparatus 100 to the endoscope apparatus 200. Can be transmitted. A video capture board may be interposed between the information processing apparatus 100 and the endoscope apparatus 200.

なお、本実施形態においては、内視鏡装置200により撮影される内視鏡画像から3次元画像を生成する場合を例示しているため、3次元画像生成装置は内視鏡装置200を含んでいるが、2次元画像から3次元画像の生成は情報処理装置100だけで実行できるため、3次元画像生成装置は内視鏡装置200を必ずしも備える必要はない。   Note that, in the present embodiment, a case where a three-dimensional image is generated from an endoscopic image photographed by the endoscope apparatus 200 is illustrated, and thus the three-dimensional image generation apparatus includes the endoscope apparatus 200. However, since the generation of a three-dimensional image from a two-dimensional image can be executed only by the information processing apparatus 100, the three-dimensional image generation apparatus does not necessarily include the endoscope apparatus 200.

2.動作
2−1.2次元画像の生成
情報処理装置100による2次元展開画像の生成処理は、国際公開WO2007/139187パンフレットに開示された画像構築技術を利用する。この画像構築技術について説明する。情報処理装置100は、内視鏡装置200から内視鏡スコープ21によって撮影された管状構造物内壁の内視鏡画像(動画または複数の静止画)を取得し、管状構造物内壁を平面的に展開した2次元展開画像を生成する。具体的には、図2(a)に示すように、動画または複数の静止画を構成する各画像F1、F2、F3、・・・上に試験線Rを設定し、その試験線R上の画素のみを抽出し、各画像について抽出した画素を一次元的に展開した画素列データ画像R1、R2、R3、・・・を生成する。その後、図2(b)に示すように、一次元的に展開した画素列データ画像R1、R2、R3、・・・を、連続する複数画像分合成することで管状構造物内壁を平面的に展開した2次元画像Pを生成する。図2(c)は、図2(a)に示すような連続した内視鏡画像から生成される、管状構造物内壁を平面的に展開した画像Pの一例を示した図である。このように、国際公開WO2007/139187パンフレットには、管状構造物内壁を平面的に展開した2次元画像Pを生成する技術が開示されている。本実施形態の情報処理装置100は上記の機能を有する。
2. Operation 2-1.2 Generation of Two-Dimensional Image The processing for generating a two-dimensional developed image by the information processing apparatus 100 uses the image construction technique disclosed in the international publication WO2007 / 139187 pamphlet. This image construction technique will be described. The information processing apparatus 100 acquires an endoscopic image (moving image or a plurality of still images) of the inner wall of the tubular structure captured by the endoscope scope 21 from the endoscope apparatus 200, and planarly displays the inner wall of the tubular structure. A developed two-dimensional developed image is generated. Specifically, as shown in FIG. 2A, a test line R is set on each of the images F1, F2, F3,... Constituting a moving image or a plurality of still images, and on the test line R Only pixels are extracted, and pixel column data images R1, R2, R3,... Are generated by one-dimensionally developing the extracted pixels for each image. Thereafter, as shown in FIG. 2B, the inner wall of the tubular structure is planarized by synthesizing a plurality of consecutive pixel row data images R1, R2, R3,. A developed two-dimensional image P is generated. FIG. 2C is a diagram showing an example of an image P that is generated from a continuous endoscopic image as shown in FIG. Thus, the international publication WO2007 / 139187 pamphlet discloses a technique for generating a two-dimensional image P in which a tubular structure inner wall is developed in a plane. The information processing apparatus 100 of this embodiment has the above function.

内視鏡装置200により生成された2次元画像(2次元展開画像)は、情報処理装置100に送信され、記憶部11bに格納される。   The two-dimensional image (two-dimensional developed image) generated by the endoscope apparatus 200 is transmitted to the information processing apparatus 100 and stored in the storage unit 11b.

2−2.2次元画像から3次元画像への変換
図3及び図4を用いて、2次元画像から3次元画像を生成する方法について説明する。図3は、情報処理装置100の制御部11cによる3次元画像の生成方法を示すフローチャートである。図4は、2次元画像の被写体が管状構造物である場合の、2次元画像から3次元画像への変換方法を説明するための図である。図3を参照し、まず、生成する3次元画像(図4(b))に対し、ユーザが任意に指定する頂点数を制御部11cへ設定することにより、2次元画像の頂点数(すなわち、空間解像度)を設定する制御部11cは、設定された頂点数を入力する(S301)。ここでは、2次元画像の水平方向(図4(a)のU軸方向)と垂直方向(図4(a)のV軸方向)のそれぞれについての分割数が同時に設定される。制御部11cは、設定された頂点数(分割数)に基づいて、図4(a)に示すように、2次元画像を格子状に分割する(S302)。制御部11cは、格子状に分割された2次元画像の2次元座標(u,v)(テクスチャ座標)を設定する(S303)。制御部11cは、2次元画像における、各座標上の輝度情報を算出し、その輝度情報に基づいて、3次元座標(x、y、z)(モデル空間座標)を算出する(S304)。制御部11cは、3次元座標に基づいて、3次元モデルを生成する(S305)。「3次元モデル」は、図4(b)に示すように、近接3頂点で構成される三角形を連続した構成(TRIANGLE-STRIP)を備えた仮想3次元空間上に生成される物体のことである。制御部11cは、2次元座標と3次元座標に基づいて、3次元モデルに2次元画像のテクスチャを貼り付ける(S306)。図4(a)(b)においては、U軸をZ方向、V軸をX−Y平面の円周方向に割り当てることにより、2次元画像のテクスチャを3次元モデルに貼り付ける。
2-2.2 Conversion from a Two-Dimensional Image to a Three-Dimensional Image A method for generating a three-dimensional image from a two-dimensional image will be described with reference to FIGS. 3 and 4. FIG. 3 is a flowchart illustrating a method for generating a three-dimensional image by the control unit 11 c of the information processing apparatus 100. FIG. 4 is a diagram for explaining a conversion method from a two-dimensional image to a three-dimensional image when the subject of the two-dimensional image is a tubular structure. Referring to FIG. 3, first, for the generated three-dimensional image (FIG. 4B), the number of vertices of the two-dimensional image (ie, the number of vertices specified by the user is set in the control unit 11 c (that is, The control unit 11c for setting (spatial resolution) inputs the set number of vertices (S301). Here, the number of divisions in the horizontal direction (U-axis direction in FIG. 4A) and the vertical direction (V-axis direction in FIG. 4A) of the two-dimensional image are set simultaneously. Based on the set number of vertices (number of divisions), the control unit 11c divides the two-dimensional image into a lattice shape as shown in FIG. 4A (S302). The control unit 11c sets the two-dimensional coordinates (u, v) (texture coordinates) of the two-dimensional image divided in a lattice shape (S303). The control unit 11c calculates luminance information on each coordinate in the two-dimensional image, and calculates three-dimensional coordinates (x, y, z) (model space coordinates) based on the luminance information (S304). The control unit 11c generates a three-dimensional model based on the three-dimensional coordinates (S305). As shown in FIG. 4 (b), the “three-dimensional model” is an object generated on a virtual three-dimensional space having a configuration (TRIANGLE-STRIP) in which triangles composed of three adjacent vertices are continuous. is there. The control unit 11c pastes the texture of the two-dimensional image on the three-dimensional model based on the two-dimensional coordinates and the three-dimensional coordinates (S306). 4A and 4B, the texture of the two-dimensional image is pasted on the three-dimensional model by assigning the U axis to the Z direction and the V axis to the circumferential direction of the XY plane.

以上のように、本実施形態では、2次元画像の輝度情報に基づいて2次元画像から3次元画像を生成する。   As described above, in the present embodiment, a three-dimensional image is generated from a two-dimensional image based on the luminance information of the two-dimensional image.

次に、図5及び図6を用いて、2次元画像の輝度情報から3次元座標を算出するステップ(S304)について、さらに詳細に説明する。図5は、情報処置装置100の制御部11cにより行われる、2次元画像の輝度情報に基づく3次元座標の算出方法を示すフローチャートである。図6は、3次元座標を求める際に使用される要素(引数)を説明するための図である。図5による3次元座標の算出方法と図6の説明図では、3次元画像の生成元となる2次元画像の被写体が管状構造物である場合、すなわち、内視鏡装置200により、管腔などの管状形状の画像が撮影され、その撮影された画像から生成された2次元画像を用いた場合を示している。   Next, the step (S304) of calculating the three-dimensional coordinates from the luminance information of the two-dimensional image will be described in more detail with reference to FIGS. FIG. 5 is a flowchart illustrating a method for calculating three-dimensional coordinates based on luminance information of a two-dimensional image, which is performed by the control unit 11c of the information processing apparatus 100. FIG. 6 is a diagram for explaining elements (arguments) used when obtaining three-dimensional coordinates. In the three-dimensional coordinate calculation method according to FIG. 5 and the explanatory diagram of FIG. 6, when the subject of the two-dimensional image from which the three-dimensional image is generated is a tubular structure, that is, by the endoscope apparatus 200, a lumen or the like. This shows a case where an image having a tubular shape is photographed and a two-dimensional image generated from the photographed image is used.

図5を参照し、情報処理装置100の制御部11cは、2次元画像の各座標の輝度値Lを算出する(S501)。具体的には、輝度値Lは、NTSC係数による加重平均法を用いて、下記式(1)により算出される。
L=0.298912×R+0.586611×G+0.114478×B・・・(1)
(R:赤色の輝度値、G:緑色の輝度値、B:青色の輝度値)
Referring to FIG. 5, the control unit 11c of the information processing apparatus 100 calculates the luminance value L of each coordinate of the two-dimensional image (S501). Specifically, the luminance value L is calculated by the following formula (1) using a weighted average method using NTSC coefficients.
L = 0.298912 × R + 0.586611 × G + 0.114478 × B (1)
(R: red luminance value, G: green luminance value, B: blue luminance value)

制御部11cは、算出した輝度値Lに基づいて、内視鏡スコープ21の中心軸から観測点(組織)までの距離R’を算出する(S502)。このとき、図6に示すように、内視鏡スコープ21の中心軸から観測点までの距離R’は、内視鏡スコープ21の光ファイバ先端(以下、「光源」とも言う。)から観測点までの距離Rと比例関係にある。このため、内視鏡スコープ21の光ファイバの先端から観測点までの距離Rを頂点の輝度値Lを用いて算出して、算出した距離Rを、内視鏡スコープ21の中心軸から観測点までの距離R’の値として用いる。具体的には、以下の計算を行う。   Based on the calculated luminance value L, the control unit 11c calculates a distance R ′ from the central axis of the endoscope scope 21 to the observation point (tissue) (S502). At this time, as shown in FIG. 6, the distance R ′ from the central axis of the endoscope scope 21 to the observation point is the observation point from the tip of the optical fiber of the endoscope scope 21 (hereinafter also referred to as “light source”). Is proportional to the distance R. Therefore, the distance R from the tip of the optical fiber of the endoscope scope 21 to the observation point is calculated using the luminance value L of the vertex, and the calculated distance R is measured from the central axis of the endoscope scope 21 to the observation point. Is used as the value of the distance R ′. Specifically, the following calculation is performed.

頂点の輝度値Lと内視鏡スコープ21の光ファイバ先端から観測点までの距離Rとの関係は、下記式(2)で表される。

Figure 0005354494

(k:物体の拡散反射率、I:光源光度、θ:光線の入射角、γ:表示部のガンマ特性)
上記式(2)で示すように、本実施形態においては、内視鏡装置200のガンマ特性を考慮して、非線形な信号を線形な信号に補正するために、2次元画像の各画素の輝度値に対して、ガンマ補正を行っている。 The relationship between the luminance value L of the vertex and the distance R from the tip of the optical fiber of the endoscope scope 21 to the observation point is expressed by the following formula (2).
Figure 0005354494

(K d : diffuse reflectance of object, I q : luminous intensity of light source, θ: incident angle of light, γ: gamma characteristic of display unit)
As shown by the above equation (2), in this embodiment, in order to correct a nonlinear signal to a linear signal in consideration of the gamma characteristics of the endoscope apparatus 200, the luminance of each pixel of the two-dimensional image is corrected. Gamma correction is performed on the value.

上記式(2)において、光源光度Iと物体の拡散反射率kと光線の入射角θが未知であることから、これらの値を一定であると仮定すると、内視鏡スコープ21の中心軸から観測点までの距離R’は、以下の式(3)で表される。式(3)により、内視鏡スコープ21の中心軸から観測点までの距離R’を求める。

Figure 0005354494
In the above formula (2), since the light source luminous intensity I q , the diffuse reflectance k d of the object, and the incident angle θ of the light ray are unknown, assuming that these values are constant, the center of the endoscope scope 21 The distance R ′ from the axis to the observation point is expressed by the following equation (3). A distance R ′ from the central axis of the endoscope scope 21 to the observation point is obtained by Expression (3).
Figure 0005354494

輝度値Lのとりうる値の範囲は、「0.0〜1.0」である。上記式(3)により、距離R’を求めると、距離R’のとりうる範囲は「1.0〜∞」になる。これは、内視鏡スコープの光源から観測点までの距離Rが0.0以上であることに相反する。そこで、上記式(3)により距離R’を求めた後、制御部11cは、距離R’を補正して相対距離R”を算出する(S503)。相対距離R”は、具体的には、以下の処理(1)〜処理(3)を行うことにより求める。   The range of values that the luminance value L can take is “0.0 to 1.0”. When the distance R ′ is obtained by the above equation (3), the range that the distance R ′ can take is “1.0 to ∞”. This is contrary to the fact that the distance R from the light source of the endoscope scope to the observation point is 0.0 or more. Therefore, after obtaining the distance R ′ by the above equation (3), the control unit 11c calculates the relative distance R ″ by correcting the distance R ′ (S503). It calculates | requires by performing the following processes (1) -process (3).

処理1:「R’」を「R’−1.0」にシフトする。
(R’のとりうる範囲:「0.0〜∞」)
処理2:「R’−1.0」をR’値全体の最大値で割る。
(R’のとりうる範囲:「0.0〜1.0」)
処理3:「所定の最小値min(>0.0)〜1.0」の範囲内に圧縮する。
(R’のとりうる範囲:「min〜1.0」)
Process 1: “R ′” is shifted to “R′−1.0”.
(R ′ can take a range of “0.0 to ∞”)
Process 2: “R′−1.0” is divided by the maximum value of the entire R ′ value.
(R ′ can take a range of “0.0 to 1.0”)
Process 3: Compression is performed within a range of “predetermined minimum value min (> 0.0) to 1.0”.
(Range of R ′: “min to 1.0”)

このように、まず、輝度値L=1.0に対応する点(内視鏡に最も近い点)を、光源から距離「0」の地点に補正するため、距離R’値の集合全体を1.0シフトする(処理1)。これにより、R’のとりうる範囲は「0.0〜∞」になる。次に、距離R’の値をそれぞれR’値全体の最大値で割り、正規化する(処理2)。これにより、距離R’のとりうる範囲は「0.0〜1.0」になる。正規化した値R’では、光軸に最も近い点は「0」、すなわち、光軸と同じ位置に物体が存在することになる。しかし、内視鏡スコープ21には太さがあるため、光軸と同じ位置に物体が存在すること(すなわち、内視鏡スコープ径内に物体が侵入すること)は、不可能である。そこで、対象組織と内視鏡スコープ直径の比から、管腔中央部をスコープの進行領域として設定し、距離「0」の点をR’のとりうる範囲から除外する。これにより、R’のとりうる範囲は、所定の最小値min(>0.0)〜1.0」になる。このように補正された距離R’を、相対距離R”とする。なお、本実施形態において、距離R、R’、R”は、全て、絶対値ではなく相対的な距離を示している。   Thus, first, in order to correct the point corresponding to the luminance value L = 1.0 (the point closest to the endoscope) to a point at a distance “0” from the light source, the entire set of distance R ′ values is set to 1. .0 shift (process 1). As a result, the range that R ′ can take becomes “0.0 to ∞”. Next, each value of the distance R ′ is divided by the maximum value of the entire R ′ value and normalized (process 2). Thereby, the range which distance R 'can take becomes "0.0-1.0". In the normalized value R ′, the point closest to the optical axis is “0”, that is, the object exists at the same position as the optical axis. However, since the endoscope scope 21 has a thickness, it is impossible for an object to exist at the same position as the optical axis (that is, an object enters the endoscope scope diameter). Therefore, based on the ratio between the target tissue and the endoscope scope diameter, the central portion of the lumen is set as the scope progress region, and the point of distance “0” is excluded from the range that R ′ can take. Thereby, the range that R ′ can take becomes a predetermined minimum value min (> 0.0) to 1.0 ”. The distance R ′ corrected in this way is defined as a relative distance R ″. In this embodiment, the distances R, R ′, and R ″ all indicate relative distances rather than absolute values.

次に、制御部11cは、円周方向の頂点数(円周方向空間分解能)から角度radを算出する(S504)。その後、所定の重みw1を用いて、制御部11cは、「R”×w1×sin(rad)」によりx座標を算出する(S505)。また、所定の重みw2を用いて、「R”×w2×cos(rad)」によりy座標を算出する(S506)。ここで、x座標の算出とy座標の算出で用いられる、重みw1,w2は、それぞれ任意に設定された値である。なお、重みw1,w2は同一の値であってもよい。最後に、長さ方向の頂点数(長さ方向空間分解能)からz座標を算出する(S507)。制御部11cは、全頂点について、3次元座標(x、y、z)を算出したかどうかを判断する(S508)。全頂点について、3次元座標を算出していなければ、ステップS501に戻り、全頂点について3次元座標を算出するまで、上記の処理S501〜507を繰り返す。   Next, the control unit 11c calculates the angle rad from the number of vertices in the circumferential direction (circumferential spatial resolution) (S504). Thereafter, using the predetermined weight w1, the control unit 11c calculates the x coordinate by “R” × w1 × sin (rad) ”(S505). Further, the y-coordinate is calculated by “R” × w2 × cos (rad) ”using the predetermined weight w2 (S506). Here, the weights w1 and w2 used in the calculation of the x coordinate and the calculation of the y coordinate are values set arbitrarily. The weights w1 and w2 may be the same value. Finally, the z coordinate is calculated from the number of vertices in the length direction (length direction spatial resolution) (S507). The controller 11c determines whether or not the three-dimensional coordinates (x, y, z) have been calculated for all vertices (S508). If the three-dimensional coordinates have not been calculated for all the vertices, the process returns to step S501, and the above processing S501 to 507 is repeated until the three-dimensional coordinates are calculated for all the vertices.

上記のようにして求められた3次元座標に基づいて3次元モデルが生成され、テクスチャが貼り付けられる。   A three-dimensional model is generated based on the three-dimensional coordinates obtained as described above, and a texture is pasted.

図7に、本実施形態の3次元画像生成装置により得られた3次元画像の一例を示す。図7(a)は、ヒトの大腸を内視鏡スコープ21によって撮像して得られた画像を示す。図7(b)は、情報処理装置100によって生成された2次元展開画像を示す。図7(c)は、情報処理装置100によって、2次元展開画像から生成された3次元画像(仮想内視鏡画像)を示す。図7(d)は、仮想内視鏡画像を回転させて表示した例(右方向から内腔左側面を観察する画像)を示す。図7(d)は、カリングモードの設定をオンにすることにより、手前の壁を自動的に消去し(表示しないようにし)、後方の壁面のみを表示させるようにしたものである。ここで、「カリングモード」は、3次元モデルにおいて個々のポリゴンが有する、表・裏の情報を読み取り、カメラに対して特定の側の表面を見せているポリゴンのみを描画するモードである。本実施形態の情報処理装置100により生成された3次元モデルでは、各ポリゴンは、管腔の中心軸に向いている面を表側と定義する。「カリングモード」を表面だけ描画させる設定下でオンにすることにより、カメラに裏側を見せているポリゴンを消し、後方の壁面を描画させることを可能とする。本実施形態の情報処理装置100により生成された3次元画像は、任意に回転させたり、任意の断面を表示させたりすることができる。   FIG. 7 shows an example of a three-dimensional image obtained by the three-dimensional image generation apparatus of this embodiment. FIG. 7A shows an image obtained by imaging the human large intestine with the endoscope scope 21. FIG. 7B shows a two-dimensional developed image generated by the information processing apparatus 100. FIG. 7C shows a three-dimensional image (virtual endoscopic image) generated from the two-dimensional developed image by the information processing apparatus 100. FIG. 7D shows an example in which the virtual endoscopic image is rotated and displayed (an image in which the left side surface of the lumen is observed from the right direction). FIG. 7D shows a case in which the front wall is automatically erased (not displayed) by turning on the setting of the culling mode, and only the rear wall surface is displayed. Here, the “culling mode” is a mode in which the front / back information of each polygon in the three-dimensional model is read, and only the polygon showing the surface on the specific side with respect to the camera is drawn. In the three-dimensional model generated by the information processing apparatus 100 according to this embodiment, each polygon defines a surface facing the central axis of the lumen as the front side. By turning on the “culling mode” under the setting to draw only the front surface, the polygon showing the back side can be erased and the rear wall surface can be drawn. The three-dimensional image generated by the information processing apparatus 100 according to the present embodiment can be arbitrarily rotated or an arbitrary cross section can be displayed.

3.まとめ
本実施形態によれば、内視鏡画像から得られた2次元画像のテクスチャを用いて3次元画像を生成しているため、元のテクスチャの色情報が得られると共に高い解像度が得られる。そのため、本実施形態により生成された3次元画像は有用性が高い。よって、本実施形態により生成された3次元画像を用いて、組織全体の性状や立体的な組織間の位置関係などの把握を行うことが可能となる。また、任意の断面で画像を表示したり、対象臓器を任意に回転させながら全体を眺めたりすることにより、病変の検出精度が向上する。
3. Summary According to the present embodiment, since the three-dimensional image is generated using the texture of the two-dimensional image obtained from the endoscope image, the color information of the original texture can be obtained and high resolution can be obtained. Therefore, the three-dimensional image generated by the present embodiment is highly useful. Therefore, it is possible to grasp the properties of the entire tissue, the positional relationship between the three-dimensional tissues, and the like using the three-dimensional image generated according to the present embodiment. Moreover, the accuracy of detecting a lesion is improved by displaying an image with an arbitrary cross section or viewing the whole while arbitrarily rotating the target organ.

また、本実施形態によれば、輝度情報を用いて、元の形状を復元した3次元画像を生成している。すなわち、2次元画像の被写体の形状が事前に分かっている場合は、輝度情報に基づき計算式を用いて第3の座標(z軸座標)を算出することで、その3次元の形状に復元することができる。例えば、本実施形態のように、内視鏡スコープ21により撮像された実画像(内視鏡画像)から直接、3次元画像(仮想内視鏡画像)を生成することが可能となる。内視鏡スコープ21により撮像される実画像では視点が固定されており、視野が狭く、また関心領域の場所の特定が難しい。しかし、本実施形態によれば、視点の自由が利く3次元画像を生成できるため、視野が広くなり、且つ関心領域の場所を特定することが容易になる。これにより、医師等が、関心領域を自由な視点から観察することが可能になる。   Further, according to the present embodiment, a three-dimensional image in which the original shape is restored is generated using luminance information. That is, when the shape of the subject of the two-dimensional image is known in advance, the third coordinate (z-axis coordinate) is calculated using the calculation formula based on the luminance information, and the three-dimensional shape is restored. be able to. For example, as in this embodiment, a three-dimensional image (virtual endoscopic image) can be generated directly from a real image (endoscopic image) captured by the endoscope scope 21. In the actual image captured by the endoscope scope 21, the viewpoint is fixed, the field of view is narrow, and it is difficult to specify the location of the region of interest. However, according to the present embodiment, since a three-dimensional image with free viewpoint can be generated, the field of view is widened and it is easy to specify the location of the region of interest. Thereby, a doctor or the like can observe the region of interest from a free viewpoint.

なお、本実施形態において、図5のステップ(S505〜S507)に示す3次元座標の計算式「(x,y,z)=(R”×w1×sin(rad),R”×w2×cos(rad),z)」は、管状形状のものに適用されるものである。よって、他の形状の場合は他の計算式を用いて3次元座標を算出すればよい。すなわち、2次元画像の被写体の形状が事前に分かっている場合は、その被写体の形状に応じた計算式を用いることにより、3次元座標を算出し、3次元画像を生成することができる。   In this embodiment, the three-dimensional coordinate calculation formula “(x, y, z) = (R ″ × w1 × sin (rad), R ″ × w2 × cos” shown in steps (S505 to S507) in FIG. (Rad), z) "is applied to a tubular shape. Therefore, in the case of other shapes, the three-dimensional coordinates may be calculated using other calculation formulas. That is, when the shape of the subject of the two-dimensional image is known in advance, the three-dimensional image can be generated by calculating the three-dimensional coordinates by using a calculation formula corresponding to the shape of the subject.

《実施形態2》
本実施形態では、3次元座標の算出(S304)の別の方法を説明する。本実施形態の構成は、実施形態1と同様である。本実施形態では、2次元画像の被写体の形状が知られていない場合でも、画像の輝度情報に基づきz座標を算出する場合について説明する。具体的には、2次元画像に奥行き(z方向)を持たせることにより、2次元画像から3次元画像を生成する。より具体的には、3次元座標(x、y、z)を算出する際に、x座標及びy座標については、元の2次元座標の値(u,v)を用い、z座標のみを輝度値から算出する。なお、本実施形態において、3次元画像生成装置の構成は実施形態1と同一であるが、内視鏡画像200はなくてもよい。
<< Embodiment 2 >>
In the present embodiment, another method of calculating three-dimensional coordinates (S304) will be described. The configuration of this embodiment is the same as that of the first embodiment. In the present embodiment, a case where the z coordinate is calculated based on the luminance information of the image even when the shape of the subject of the two-dimensional image is not known will be described. Specifically, a three-dimensional image is generated from a two-dimensional image by giving a depth (z direction) to the two-dimensional image. More specifically, when calculating the three-dimensional coordinates (x, y, z), the values of the original two-dimensional coordinates (u, v) are used for the x-coordinate and y-coordinate, and only the z-coordinate is luminance. Calculate from the value. In the present embodiment, the configuration of the three-dimensional image generation apparatus is the same as that in the first embodiment, but the endoscope image 200 may not be provided.

図8に、本実施形態における3次元座標の算出のフローチャートを示す。情報処理装置100の制御部11cは、2次元画像の頂点の画素の青の輝度値を算出する(S801)。制御部11cは、2次元画像の頂点の画素の緑の輝度値を算出する(S802)。制御部11cは、2次元座標の値(u,v)を3次元座標のx座標及びy座標に割り当てると共に、青の輝度値と緑の輝度値に基づいて、その頂点の画素のz座標を算出する(S803)。具体的には、青の輝度値から緑の輝度値を減算し、減算して得られた差分の値が大きいほどz軸座標が大きく(または小さく)なるようにz座標を算出する。制御部11cは、全頂点について、3次元座標(x、y、z)を算出したかどうかを判断する(S804)。全頂点についての3次元座標を算出するまで、ステップS801〜803を繰り返す。   FIG. 8 shows a flowchart of the calculation of the three-dimensional coordinates in this embodiment. The control unit 11c of the information processing apparatus 100 calculates the blue luminance value of the pixel at the vertex of the two-dimensional image (S801). The control unit 11c calculates the green luminance value of the pixel at the vertex of the two-dimensional image (S802). The control unit 11c assigns the two-dimensional coordinate values (u, v) to the x- and y-coordinates of the three-dimensional coordinates, and sets the z-coordinate of the pixel at the vertex based on the blue luminance value and the green luminance value. Calculate (S803). Specifically, the z-coordinate is calculated so that the z-axis coordinate becomes larger (or smaller) as the difference value obtained by subtracting the green luminance value from the blue luminance value is larger. The control unit 11c determines whether or not the three-dimensional coordinates (x, y, z) have been calculated for all vertices (S804). Steps S801 to S803 are repeated until the three-dimensional coordinates for all vertices are calculated.

上記のように求めた3次元座標に対して、図3のフローに従ってテクスチャを貼り付けた例を図9に示す。図9は、図8の方法を用いてz座標を算出して3次元画像を生成した場合であって、眼底で実験した結果を示している。図9(a)は元の2次元画像を示し、図9(b)は本実施形態の画像生成方法で3次元に変換した画像を示し、図9(c)〜(e)は図9(b)の3次元画像を回転させ且つ任意の断面で切断した状態を示す図である。本実施形態の画像生成方法により作成された画像より、青の輝度値から緑の輝度値を減算することにより、実際により近いz座標を得られることが確かめられた。   FIG. 9 shows an example in which a texture is pasted on the three-dimensional coordinates obtained as described above according to the flow of FIG. FIG. 9 shows a result of an experiment performed on the fundus oculi when a three-dimensional image is generated by calculating the z-coordinate using the method of FIG. 9A shows an original two-dimensional image, FIG. 9B shows an image converted into three dimensions by the image generation method of the present embodiment, and FIGS. 9C to 9E show FIGS. It is a figure which shows the state which rotated the three-dimensional image of b) and cut | disconnected by arbitrary cross sections. It was confirmed that the z coordinate closer to the actual value can be obtained by subtracting the green luminance value from the blue luminance value from the image created by the image generation method of the present embodiment.

本実施形態によれば、2次元画像の被写体の形状に関わらず、3次元画像を生成することができる。その際、特に、緑の輝度値と青の輝度値の差分に基づいてz座標を算出することにより、3次元画像の精度が向上する。   According to this embodiment, a three-dimensional image can be generated regardless of the shape of the subject of the two-dimensional image. At this time, in particular, the accuracy of the three-dimensional image is improved by calculating the z-coordinate based on the difference between the green luminance value and the blue luminance value.

なお、上記実施形態1、2の3次元画像の生成方法を、プログラムによりコンピュータに実行させてもよい。   In addition, you may make a computer perform the generation method of the three-dimensional image of the said Embodiment 1, 2 by a program.

なお、本発明は、医療用途に限らず、土管や種々の配管、エンジンなどの配管の傷の検査等の工業用途にも使用でき、検査装置としての汎用性が広い。   In addition, this invention can be used not only for a medical use but for industrial uses, such as a test | inspection of the cracks of piping, such as a clay pipe, various piping, and an engine, and its versatility as an inspection apparatus is wide.

本発明によれば、解像度が高く且つ色情報を備えた有用性の高い3次元画像を生成することができるという効果を有し、医療用途や工業用途等に有用である。   The present invention has an effect that a highly useful three-dimensional image having high resolution and color information can be generated, and is useful for medical use, industrial use, and the like.

11 情報処理部
11a 入出力インターフェース
11b 記憶部
11c 制御部
12 表示部
13 操作部
13a マウス
13b キーボード
21 内視鏡スコープ
22 制御ユニット
22a 制御部
22b 信号処理部
22c 光源部
100 情報処理装置
200 内視鏡装置
DESCRIPTION OF SYMBOLS 11 Information processing part 11a Input / output interface 11b Storage part 11c Control part 12 Display part 13 Operation part 13a Mouse 13b Keyboard 21 Endoscope 22 Control unit 22a Control part 22b Signal processing part 22c Light source part 100 Information processing apparatus 200 Endoscope apparatus

Claims (6)

3次元形状を有する被写体の2次元画像を入力する入力手段と、
前記入力された2次元画像を格納する記憶手段と、
前記記憶手段から前記2次元画像を読み出し、読み出した2次元画像から前記被写体の3次元画像を生成する制御手段とを有し、
前記制御手段は、前記2次元画像内の各画素について、青の輝度情報と緑の輝度情報との差分を求め、その差分に基づき各画素の第3の座標軸上の座標を算出して3次元座標を求め、前記3次元座標に基づいて前記被写体の3次元画像を生成する、
3次元画像生成装置。
Input means for inputting a two-dimensional image of a subject having a three-dimensional shape;
Storage means for storing the input two-dimensional image;
Control means for reading the two-dimensional image from the storage means and generating a three-dimensional image of the subject from the read two-dimensional image;
The control means obtains a difference between the blue luminance information and the green luminance information for each pixel in the two-dimensional image, calculates a coordinate on the third coordinate axis of each pixel based on the difference, and calculates the three-dimensional Obtaining coordinates and generating a three-dimensional image of the subject based on the three-dimensional coordinates;
3D image generation device.
前記2次元画像は、内視鏡により撮影された画像を平面的に展開することにより生成された画像である、請求項1に記載の3次元画像生成装置。 The 2-dimensional image is an image generated by developing the image captured by the endoscope in a plane, the three-dimensional image generating apparatus of the mounting serial to claim 1. 情報処理装置を用いて3次元形状を有する被写体の2次元画像から3次元画像を生成する方法であって、
前記情報処理装置の制御手段が、
被写体を撮像した2次元画像内の各画素について、青の輝度情報と緑の輝度情報との差分を求め、前記差分に基づき各画素の第3の座標軸上の座標を算出して、3次元座標を求めるステップと、
前記2次元画像内の各画素の3次元座標に基づいて前記被写体の3次元画像を生成するステップと
を含む、
3次元画像生成方法。
A method of generating a 3D image from a 2D image of a subject having a 3D shape using an information processing device,
The control means of the information processing apparatus
For each pixel in the two-dimensional image in which the subject is imaged, the difference between the blue luminance information and the green luminance information is obtained, and the coordinates on the third coordinate axis of each pixel are calculated based on the difference to obtain the three-dimensional coordinates. A step of seeking
Generating a three-dimensional image of the subject based on a three-dimensional coordinate of each pixel in the two-dimensional image.
3D image generation method.
前記2次元画像は、内視鏡により撮影された画像を平面的に展開することにより生成された画像である、請求項3に記載の3次元画像生成方法。The three-dimensional image generation method according to claim 3, wherein the two-dimensional image is an image generated by planarly developing an image photographed by an endoscope. 情報処理装置に、3次元形状を有する被写体の2次元画像から3次元画像を生成させるためのプログラムであって、
前記情報処理装置の制御手段に、
被写体を撮像した2次元画像内の各画素について、青の輝度情報と緑の輝度情報との差分を求め、前記差分に基づき各画素の第3の座標軸上の座標を算出して、3次元座標を求めるステップと、
前記2次元画像内の各画素の3次元座標に基づいて前記被写体の3次元画像を生成するステップと
を実行させる、3次元画像生成プログラム。
A program for causing an information processing device to generate a three-dimensional image from a two-dimensional image of a subject having a three-dimensional shape,
In the control means of the information processing apparatus,
For each pixel in the two-dimensional image in which the subject is imaged, the difference between the blue luminance information and the green luminance information is obtained, and the coordinates on the third coordinate axis of each pixel are calculated based on the difference to obtain the three-dimensional coordinates. A step of seeking
Generating a three-dimensional image of the subject based on the three-dimensional coordinates of each pixel in the two-dimensional image.
前記2次元画像は、内視鏡により撮影された画像を平面的に展開することにより生成された画像である、請求項5に記載の3次元画像生成プログラム。The three-dimensional image generation program according to claim 5, wherein the two-dimensional image is an image generated by expanding an image captured by an endoscope in a planar manner.
JP2009103217A 2009-04-21 2009-04-21 3D image generation apparatus, 3D image generation method, and program Expired - Fee Related JP5354494B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009103217A JP5354494B2 (en) 2009-04-21 2009-04-21 3D image generation apparatus, 3D image generation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009103217A JP5354494B2 (en) 2009-04-21 2009-04-21 3D image generation apparatus, 3D image generation method, and program

Publications (2)

Publication Number Publication Date
JP2010256988A JP2010256988A (en) 2010-11-11
JP5354494B2 true JP5354494B2 (en) 2013-11-27

Family

ID=43317866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009103217A Expired - Fee Related JP5354494B2 (en) 2009-04-21 2009-04-21 3D image generation apparatus, 3D image generation method, and program

Country Status (1)

Country Link
JP (1) JP5354494B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018230099A1 (en) * 2017-06-15 2018-12-20 オリンパス株式会社 Endoscope system, and method for operating endoscope system
US10354436B2 (en) 2016-03-15 2019-07-16 Olympus Corporation Image processing apparatus, image processing system and image processing apparatus operation method
WO2021176664A1 (en) * 2020-03-05 2021-09-10 オリンパス株式会社 Inspection support system, inspection support method, and program

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5810248B2 (en) 2013-10-02 2015-11-11 オリンパス株式会社 Endoscope system
CN108135453B (en) * 2015-09-28 2021-03-23 奥林巴斯株式会社 Endoscope system and image processing method
JP7472914B2 (en) 2019-10-25 2024-04-23 株式会社ニコン IMAGE PROCESSING METHOD, IMAGE PROCESSING APPARATUS, AND PROGRAM

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000111635A (en) * 1998-08-04 2000-04-21 Japan Radio Co Ltd Three-dimensional radar device
JP2007029460A (en) * 2005-07-27 2007-02-08 Topcon Corp Ophthalmic image processor and ophthalmic image processing program
US7612773B2 (en) * 2006-05-22 2009-11-03 Magnin Paul A Apparatus and method for rendering for display forward-looking image data
US9247865B2 (en) * 2006-05-31 2016-02-02 National University Corporation Chiba University Three-dimensional-image forming device, three dimensional-image forming method and program
JP5478103B2 (en) * 2009-04-15 2014-04-23 興和株式会社 Image processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10354436B2 (en) 2016-03-15 2019-07-16 Olympus Corporation Image processing apparatus, image processing system and image processing apparatus operation method
WO2018230099A1 (en) * 2017-06-15 2018-12-20 オリンパス株式会社 Endoscope system, and method for operating endoscope system
CN110769731A (en) * 2017-06-15 2020-02-07 奥林巴斯株式会社 Endoscope system and method for operating endoscope system
US11432707B2 (en) 2017-06-15 2022-09-06 Olympus Corporation Endoscope system, processor for endoscope and operation method for endoscope system for determining an erroneous estimation portion
WO2021176664A1 (en) * 2020-03-05 2021-09-10 オリンパス株式会社 Inspection support system, inspection support method, and program

Also Published As

Publication number Publication date
JP2010256988A (en) 2010-11-11

Similar Documents

Publication Publication Date Title
KR102087595B1 (en) Endoscope system and control method thereof
JP5354494B2 (en) 3D image generation apparatus, 3D image generation method, and program
US9157728B2 (en) Endoscope apparatus and method
JP4994737B2 (en) Medical image processing apparatus and medical image processing method
JP5771757B2 (en) Endoscope system and method for operating endoscope system
US9723971B2 (en) Image processing apparatus, method, and program
US20110221877A1 (en) Endoscope apparatus and measurement method
US20190051039A1 (en) Image processing apparatus, image processing method, program, and surgical system
US20110187824A1 (en) Endoscope apparatus and measurement method
JPWO2009116465A1 (en) Medical image display device and medical image display method
JP6206869B2 (en) Endoscopic observation support device
JP6141559B1 (en) Medical device, medical image generation method, and medical image generation program
JP7125479B2 (en) MEDICAL IMAGE PROCESSING APPARATUS, METHOD OF OPERATION OF MEDICAL IMAGE PROCESSING APPARATUS, AND ENDOSCOPE SYSTEM
US20190104921A1 (en) Endoscopic system
JP7385731B2 (en) Endoscope system, image processing device operating method, and endoscope
JP2017225700A (en) Observation support device and endoscope system
US20220409030A1 (en) Processing device, endoscope system, and method for processing captured image
JP5624336B2 (en) Medical image processing apparatus and medical image processing program
WO2018230099A1 (en) Endoscope system, and method for operating endoscope system
JP2017205343A (en) Endoscope device and method for operating endoscope device
JP2006061274A (en) Program and endoscope system
JP2011170276A (en) Endoscope device and program
CN106028943A (en) Ultrasonic virtual endoscopic imaging system and method, and apparatus thereof
EP4177664A1 (en) Program, information processing method, and endoscope system
JP5177668B2 (en) Stereoscopic image creating apparatus and method, and endoscopy system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130219

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130514

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130819

R150 Certificate of patent or registration of utility model

Ref document number: 5354494

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees