JP2006305332A - Image processor and endoscope using the same - Google Patents

Image processor and endoscope using the same Download PDF

Info

Publication number
JP2006305332A
JP2006305332A JP2006084425A JP2006084425A JP2006305332A JP 2006305332 A JP2006305332 A JP 2006305332A JP 2006084425 A JP2006084425 A JP 2006084425A JP 2006084425 A JP2006084425 A JP 2006084425A JP 2006305332 A JP2006305332 A JP 2006305332A
Authority
JP
Japan
Prior art keywords
image
dimensional
dimensional images
endoscope
dimensional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006084425A
Other languages
Japanese (ja)
Inventor
Kenji Yamada
憲嗣 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hiroshima Industrial Promotion Organization
Original Assignee
Hiroshima Industrial Promotion Organization
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hiroshima Industrial Promotion Organization filed Critical Hiroshima Industrial Promotion Organization
Priority to JP2006084425A priority Critical patent/JP2006305332A/en
Publication of JP2006305332A publication Critical patent/JP2006305332A/en
Pending legal-status Critical Current

Links

Landscapes

  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To form a clear three-dimensional image from a plurality of two-dimensional images. <P>SOLUTION: The image processor 10 is equipped with an image pickup means 11 for picking up two-dimensional images and an image forming means 12 forming a three-dimensional image 16 from a plurality of two-dimensional images 15. Since the image forming means 12 is equipped with units U each comprising a plurality of lenses disposed in a matrix, the image forming means 12 can acquire two-dimensional images corresponding to the number of the units U. Since relative positions of units U can be extremely accurately grasped in advance, the calculation for calculating the three-dimensional positions can be accurately and easily carried out. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は画像処理装置およびそれを用いた内視鏡に関し、特に、複数の2次元画像から3次元画像を高精度に生成する画像処理装置およびそれを用いた内視鏡に関する。   The present invention relates to an image processing apparatus and an endoscope using the same, and more particularly to an image processing apparatus that generates a three-dimensional image from a plurality of two-dimensional images with high accuracy and an endoscope using the same.

3次元の画像を得る方法として、2つ以上の視点に配置されたカメラから2次元画像を撮影し、これらの画像の視差を用いて3次元の画像を生成する方法がある(下記非特許文献1を参照。)。この方法では、3次元の画像を生成するために、2次元画像の複数の対応点を対応づけする必要がある。   As a method of obtaining a three-dimensional image, there is a method of taking a two-dimensional image from cameras arranged at two or more viewpoints and generating a three-dimensional image using parallax of these images (the following non-patent document). 1). In this method, in order to generate a three-dimensional image, it is necessary to associate a plurality of corresponding points of the two-dimensional image.

上記対応付けの具体的な方法としては、相関法による方法と、評価関数による方法とがある。   Specific methods of the association include a correlation method and an evaluation function method.

相関法による対応付けの方法では、2次元画像の局所的なパターンを比較することにより、対応付けを行う。具体的には、先ず、一方の2次元画像の一点に付き所定の画素数から成るウィンドウを設定する。そして、他方の2次元画像の中のウィンドウの類似度を計測して、最も類似度が高いウィンドウに対応する一点を対応とする。   In the association method using the correlation method, association is performed by comparing local patterns of two-dimensional images. Specifically, first, a window having a predetermined number of pixels per one point of one two-dimensional image is set. Then, the degree of similarity of the windows in the other two-dimensional image is measured, and one point corresponding to the window with the highest degree of similarity is made to correspond.

評価関数による対応づけの方法は、相関法により対応が見つからない画素について適用させることができる。この方法では、評価関数を定義して、この関数を最小化することにより視差を得ることができる。評価関数を用いることにより、明るさのパターンだけでは対応が決まらない画素についても、視差を与えることができる。   The association method using the evaluation function can be applied to pixels for which no correspondence is found by the correlation method. In this method, parallax can be obtained by defining an evaluation function and minimizing this function. By using the evaluation function, parallax can be given to pixels whose correspondence is not determined only by the brightness pattern.

一方、医療の分野では内視鏡が多用されており、特に近年では、患者に負担の少ない内視鏡外科手術が行われるようになってきた。内視鏡の先端部にはCCDカメラ等の撮像手段が設けられており、CCDカメラにより取得された画像データは、モニタに映し出される。使用者である医師は、モニタに映し出される画像を確認しつつ、内視鏡を操作していた。
徐 剛、3次元ビジョン、共立出版、p95−p103
On the other hand, endoscopes are frequently used in the medical field. Particularly, in recent years, endoscopic surgical operations with less burden on patients have been performed. Imaging means such as a CCD camera is provided at the distal end of the endoscope, and image data acquired by the CCD camera is displayed on a monitor. A doctor who is a user has operated the endoscope while confirming an image displayed on the monitor.
Tsuyoshi Tsuyoshi, 3D Vision, Kyoritsu Publishing, p95-p103

しかしながら、上述した3次元画像の生成方法では、基となる2次元画像の画素数が十分でなく粗い画像である場合、画素の対応が発見困難になることがあった。従って、生成される3次元画像の位置精度が低下し、鮮明な3次元画像を得るのが困難である問題があった。また、異なる位置に配置されたカメラを用いて撮影していたので、カメラの位置を正確に把握することが困難であり、再現性の高い3次元画像を得るのが困難である問題もあった。   However, in the above-described 3D image generation method, when the number of pixels of the base 2D image is not sufficient and the image is rough, it may be difficult to find the correspondence between the pixels. Accordingly, there is a problem that the positional accuracy of the generated three-dimensional image is lowered and it is difficult to obtain a clear three-dimensional image. In addition, since shooting was performed using cameras arranged at different positions, it was difficult to accurately grasp the position of the camera, and it was difficult to obtain a highly reproducible three-dimensional image. .

また、従来の内視鏡により取得される画像は2次元の画像であり、更に画像が粗く視野が狭い。従って、内視鏡により得られる画像から、人体内部の状況を詳細に知ることは困難であった。このことにより、内視鏡を使用する医師が過度に疲労したり、医療事故を発生させる原因となっていた。ここで、内視鏡の先端部に複数のカメラを設けると、3次元の画像を取得することが可能である。しかしながら、直径が1cm程度の細い内視鏡の先端部に、多数個の高性能なカメラを設けることは非常に困難であった。   An image acquired by a conventional endoscope is a two-dimensional image, and the image is coarser and the field of view is narrow. Therefore, it is difficult to know in detail the situation inside the human body from the image obtained by the endoscope. As a result, doctors who use the endoscope are excessively fatigued or cause medical accidents. Here, if a plurality of cameras are provided at the distal end portion of the endoscope, a three-dimensional image can be acquired. However, it is very difficult to provide a large number of high-performance cameras at the distal end of a thin endoscope having a diameter of about 1 cm.

本発明は、上記問題を鑑みて成されたものである。本発明の主たる目的は、複数の2次元の画像から鮮明な3次元画像を取得可能な画像処理装置およびそれを用いた内視鏡を提供することにある。   The present invention has been made in view of the above problems. A main object of the present invention is to provide an image processing apparatus capable of acquiring a clear three-dimensional image from a plurality of two-dimensional images and an endoscope using the same.

本発明の画像処理装置は、同一平面上の異なる位置にマトリックス状に配置された複数のユニットを具備し、複数の2次元画像を取得する撮像手段と、前記複数の2次元画像を統合して3次元画像を生成する画像生成手段とを具備することを特徴とする。   An image processing apparatus according to the present invention includes a plurality of units arranged in a matrix at different positions on the same plane, and integrates the plurality of two-dimensional images with imaging means for acquiring a plurality of two-dimensional images. Image generating means for generating a three-dimensional image.

更に、本発明の画像処理装置では、前記画像生成手段では、照度差ステレオ法により前記3次元画像を生成することを特徴とする。   Furthermore, in the image processing apparatus of the present invention, the image generation means generates the three-dimensional image by an illuminance difference stereo method.

更に、本発明の画像処理装置では、前記画像生成手段では、相互相関係数を算出することにより前記2次元画像どうしの対応点を検出することを特徴とする。   Furthermore, in the image processing apparatus of the present invention, the image generation means detects a corresponding point between the two-dimensional images by calculating a cross-correlation coefficient.

更に、本発明の画像処理装置では、前記ユニットは、1つのレンズと、前記レンズの下方に配置された撮像素子から成ることを特徴とする。   Furthermore, in the image processing apparatus of the present invention, the unit is composed of one lens and an image sensor disposed below the lens.

本発明の内視鏡は、体腔内に挿入される細長い挿入部を有する内視鏡に於いて、前記挿入部に設けられて、同一平面上の異なる位置にマトリックス状に配置された複数のユニットを具備し、複数の2次元画像を取得する撮像手段と、前記複数の2次元画像を統合して3次元画像を生成する画像生成手段とを具備することを特徴とする。   The endoscope of the present invention is an endoscope having an elongated insertion portion that is inserted into a body cavity, and is provided with the insertion portion, and a plurality of units arranged in a matrix at different positions on the same plane And imaging means for acquiring a plurality of two-dimensional images, and image generation means for generating a three-dimensional image by integrating the plurality of two-dimensional images.

更に、本発明の内視鏡では、前記画像生成手段では、照度差ステレオ法により前記3次元画像を生成することを特徴とする。   Furthermore, in the endoscope of the present invention, the image generation means generates the three-dimensional image by an illuminance difference stereo method.

更に、本発明の内視鏡では、前記画像生成手段では、相互相関係数を算出することにより前記2次元画像どうしの対応点を検出することを特徴とする。   Furthermore, in the endoscope of the present invention, the image generation means detects a corresponding point between the two-dimensional images by calculating a cross-correlation coefficient.

更に、本発明の内視鏡では、前記ユニットは、1つのレンズと、前記レンズの下方に配置された撮像素子から成ることを特徴とする。   Furthermore, in the endoscope of the present invention, the unit includes one lens and an image pickup device disposed below the lens.

本発明の画像処理装置に依れば、平面的に多数のユニットが配置された撮像手段により得られた2次元画像を基に、3次元画像を生成している。従って、各ユニットの相対的な位置関係を極めて正確に把握できることから、生成される3次元画像を精密化させることができる。   According to the image processing apparatus of the present invention, a three-dimensional image is generated based on a two-dimensional image obtained by an imaging means in which a large number of units are arranged in a plane. Therefore, since the relative positional relationship of each unit can be grasped very accurately, the generated three-dimensional image can be refined.

また、本発明の内視鏡に依れば、より鮮明な3次元の画像を得られるので、内視鏡を使用する医師へ与える負担を軽減させ、更に、医療事故の発生を防ぐことができる。   In addition, according to the endoscope of the present invention, a clearer three-dimensional image can be obtained, so that the burden on the doctor who uses the endoscope can be reduced and the occurrence of a medical accident can be prevented. .

以下、図を参照して本発明の実施の形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

<第1の実施の形態>
ここでは、画像処理装置およびそれを用いた内視鏡の構成および動作を説明する。
<First Embodiment>
Here, the configuration and operation of an image processing apparatus and an endoscope using the same will be described.

図1を参照して、本発明の画像処理装置10は、複数の2次元画像を取得する撮像手段11と、複数の2次元画像から3次元画像を生成する画像生成手段12を具備する。   Referring to FIG. 1, an image processing apparatus 10 according to the present invention includes an imaging unit 11 that acquires a plurality of two-dimensional images and an image generation unit 12 that generates a three-dimensional image from the plurality of two-dimensional images.

撮像手段11は、CCD(Charged Coupled Device)等の個体撮像素子を採用することができる。ここでは、複数のユニットを具備する撮像手段11が用意され、複数(例えば数百個)の2次元画像15A、15B、15Cが取得される。撮像手段11は、平面的にマトリックス状にユニットが配置されている。従って、同一の被写体を同時に撮像手段11にて撮影すると、個々のユニットにより得られる2次元画像は図柄が若干異なっている(ずれている)。ユニットの詳細は後述する。   The imaging unit 11 can employ an individual imaging device such as a CCD (Charged Coupled Device). Here, imaging means 11 having a plurality of units is prepared, and a plurality of (for example, several hundred) two-dimensional images 15A, 15B, and 15C are acquired. The imaging means 11 has units arranged in a matrix on a plane. Therefore, when the same subject is simultaneously photographed by the imaging means 11, the two-dimensional images obtained by the individual units have slightly different (shifted) designs. Details of the unit will be described later.

画像生成手段12は、撮像手段11により撮影された複数の2次元画像から3次元画像16を生成する。上記したように、平面的に異なる位置に配置された複数のユニットを有する撮像手段11にて撮影された個々の2次元画像は、各々の図柄が若干異なっている。本実施の形態では、この性質を利用して複数の2次元画像から3次元画像16を生成している。撮像手段11により得られる2次元画像の画素数が十分でない場合、3次元画像の3次元位置精度が十分で無い場合もある。本実施の形態では、1つの基板上に規則性を持って配設されたユニットを用いることで、3次元画像の位置の算出を容易にし、更に、計算精度を高くしている。ここでは、3次元モデルとして3角形のメッシュ格子を用いる。   The image generation unit 12 generates a three-dimensional image 16 from a plurality of two-dimensional images photographed by the imaging unit 11. As described above, the individual two-dimensional images photographed by the imaging means 11 having a plurality of units arranged at different positions in a plan are slightly different in each symbol. In the present embodiment, this property is used to generate a three-dimensional image 16 from a plurality of two-dimensional images. When the number of pixels of the two-dimensional image obtained by the imaging unit 11 is not sufficient, the three-dimensional position accuracy of the three-dimensional image may not be sufficient. In the present embodiment, by using a unit arranged with regularity on one substrate, the calculation of the position of the three-dimensional image is facilitated and the calculation accuracy is increased. Here, a triangular mesh lattice is used as the three-dimensional model.

本形態では、画像生成手段12等の画像を処理する手段は、例えばLSI等の半導体素子またはソフトウェアにより実現される。   In this embodiment, the image processing means such as the image generating means 12 is realized by a semiconductor element such as an LSI or software.

ここで、複数の2次元画像から3次元画像を生成する方法としては、例えば照度差ステレオ法やマルチベースラインステレオ法が挙げられる。本形態では、照度差ステレオ法を採用し、この方法を用いたシミュレーション結果は後述する。また、2次元の画像同士の相対的な位置を検出する方法として、本形態では相互相関係数を算出する手法を採用しているが、この手法の詳細に関しても詳述する。   Here, examples of a method for generating a three-dimensional image from a plurality of two-dimensional images include an illuminance difference stereo method and a multi-baseline stereo method. In this embodiment, an illuminance difference stereo method is adopted, and a simulation result using this method will be described later. Further, as a method for detecting the relative positions of two-dimensional images, a method for calculating a cross-correlation coefficient is adopted in the present embodiment, but details of this method will be described in detail.

図2(A)を参照して、本実施の形態にて撮像手段として利用可能な画像入力装置20の構成を説明する。画像入力装置20は、受光素子アレイ23と、この受光素子アレイ23の上部に配置された隔壁層26およびレンズアレイ21とから成る。   With reference to FIG. 2 (A), the structure of the image input device 20 which can be used as an imaging means in this Embodiment is demonstrated. The image input device 20 includes a light receiving element array 23, a partition wall layer 26 and a lens array 21 disposed on the light receiving element array 23.

受光素子アレイ23の表面は、CCDまたはCMOSから成る受光素子27がマトリックス状に配置されている。   On the surface of the light receiving element array 23, light receiving elements 27 made of CCD or CMOS are arranged in a matrix.

隔壁層26は、格子状に組み合わされた隔壁25からなり、受光素子にノイズが侵入することを防止する機能を有する。隔壁25は、受光素子アレイ23からレンズアレイ21に至るまで形成されている。   The partition layer 26 includes partition walls 25 combined in a lattice shape, and has a function of preventing noise from entering the light receiving element. The partition wall 25 is formed from the light receiving element array 23 to the lens array 21.

レンズアレイ21は、マトリックス状に配置された複数個のレンズ24からなり、各レンズ24は、隔壁層26の上部に固着されている。   The lens array 21 includes a plurality of lenses 24 arranged in a matrix, and each lens 24 is fixed to the upper part of the partition wall layer 26.

レンズアレイ21の微小なレンズ24に対して、受光素子アレイ23の複数の受光素子27が対応している。更に、隔壁層26の1格子部分は1つのレンズ24に対応している。そして、鎖線による角柱で示すように、1つのレンズ24、1格子部分の隔壁25およびその下方に位置する受光素子27により、1つの信号処理単位であるユニットUが構成されている。1つのユニットUにより1つの2次元画像が取得可能である。画像入力装置20では、例えば600個程度のユニットUが形成される。従って、画像入力装置20は、同時に例えば600個の2次元画像が取得可能である。また、1つのユニットU当たり、400個程度のCCD素子を有する。   A plurality of light receiving elements 27 of the light receiving element array 23 correspond to the minute lens 24 of the lens array 21. Further, one lattice portion of the partition wall layer 26 corresponds to one lens 24. As indicated by a prismatic line with a chain line, one lens 24, one partition wall 25 and a light receiving element 27 positioned below constitute a unit U which is one signal processing unit. One unit U can obtain one two-dimensional image. In the image input device 20, for example, about 600 units U are formed. Therefore, the image input device 20 can simultaneously acquire, for example, 600 two-dimensional images. Each unit U has about 400 CCD elements.

画像入力装置20の具体的な平面的大きさは、例えば8mm×7mm程度である。そして、ユニットUは、約200μmピッチにて600個程度が配置される。   The specific planar size of the image input device 20 is, for example, about 8 mm × 7 mm. And about 600 units U are arranged at a pitch of about 200 μm.

本実施の形態では、非常に高いレンズ24(ユニットU)同士の相対的な位置精度を用いている。従って、位置精度に優れた3次元画像を得ることができる。   In the present embodiment, a very high relative positional accuracy between the lenses 24 (units U) is used. Therefore, a three-dimensional image with excellent positional accuracy can be obtained.

従来に於いては、例えば、スタジオ内に配置された2〜3台程度のカメラを用いて3次元の画像が生成されていた。しかしながら、この方法であると、3次元画像を算出するために、カメラ同士の位置やカメラの角度等を計測する必要があり、更に、3次元画像の位置の算出も煩雑であった。本形態では、上述したように各ユニットUの撮像素子は、半導体製造工程により、極めて高い位置精度で作り込まれている。従って、各ユニットの相対的な位置関係は基本的に不変であり、個別に計測する必要がない。各要素の設計値をそのまま、3次元位置の算出に用いることができる。このことが、得られる3次元画像を鮮明なものとし、計算にかかるコストを低減させている。   Conventionally, for example, a three-dimensional image is generated by using about 2 to 3 cameras arranged in a studio. However, with this method, in order to calculate a three-dimensional image, it is necessary to measure the position of the cameras, the angle of the camera, and the like, and the calculation of the position of the three-dimensional image is also complicated. In this embodiment, as described above, the image sensor of each unit U is built with extremely high positional accuracy by a semiconductor manufacturing process. Therefore, the relative positional relationship between the units is basically unchanged, and there is no need to measure them individually. The design value of each element can be used as it is for the calculation of the three-dimensional position. This makes the obtained three-dimensional image clear and reduces the cost for calculation.

図2(B)を参照して、上記した画像入力装置20が組み込まれた内視鏡の構成を説明する。ここでは、人体の体膣内に挿入される細長い挿入部28の先端部側面に画像入力装置20が設けられている。具体的には、挿入部28の先端部の側面に、多数個のユニットが平面的に設けられた画像入力装置20が固着されている。また、挿入部28の先端部の他の部分には、画像入力装置20に接近して、LED等の発光素子から成る発光部29が設けられている。   With reference to FIG. 2B, a configuration of an endoscope in which the image input device 20 described above is incorporated will be described. Here, the image input device 20 is provided on the side surface of the distal end of the elongated insertion portion 28 to be inserted into the body vagina of the human body. Specifically, the image input device 20 provided with a large number of units in a plane is fixed to the side surface of the distal end portion of the insertion portion 28. In addition, a light-emitting unit 29 made of a light-emitting element such as an LED is provided at the other part of the distal end of the insertion unit 28 in proximity to the image input device 20.

上記構成の内視鏡の使用方法は例えば次の通りである。先ず、使用者である医者が、内視鏡の細長い挿入部28を、患者の食道等の体膣内に挿入する。次に、発光部29から体膣内に光を照射し、体膣の内壁により反射した光を画像入力装置20で撮影する。画像入力装置20に備えられた多数個のユニットUにより、数百個の2次元画像が取得され、これらの2次元画像を組み合わせて精密な3次元画像が生成される。この3次元の画像は、外部に配置されたテレビ等のモニタにほぼリアルタイム(同時)に映し出される。使用者である医者は、映し出される3次元画像により、患者の体膣の状態を正確に知ることができる。更に、この3次元画像を確認しつつ、手術を行うこともできる。   For example, the endoscope having the above-described configuration is used as follows. First, a doctor who is a user inserts an elongated insertion portion 28 of an endoscope into a body vagina such as a patient's esophagus. Next, light is emitted from the light emitting unit 29 into the body vagina, and the light reflected by the inner wall of the body vagina is photographed by the image input device 20. Hundreds of two-dimensional images are acquired by a large number of units U provided in the image input device 20, and these two-dimensional images are combined to generate a precise three-dimensional image. This three-dimensional image is displayed almost in real time (simultaneously) on a monitor such as a television set arranged outside. A doctor who is a user can accurately know the state of the patient's body and vagina from the projected three-dimensional image. Furthermore, it is possible to perform an operation while confirming the three-dimensional image.

次に、図3および図4を参照して、上述した構成の画像処理装置10を用いて生成された3次元画像を紹介する。   Next, with reference to FIGS. 3 and 4, a three-dimensional image generated using the image processing apparatus 10 having the above-described configuration will be introduced.

図3には、異なる視点から撮影された2次元画像15A、15B、15Cが示されている。ここでは、地表を上空から撮影した2次元画像が一例として表示されている。各々の2次元画像15は、異なる視点から撮影されているので、それらの図柄は若干異なっている。本実施の形態では、図2(A)に構造を示した数百個のユニットUの各々から、2次元画像15を得ることができる。   FIG. 3 shows two-dimensional images 15A, 15B, and 15C taken from different viewpoints. Here, a two-dimensional image obtained by photographing the ground surface from the sky is displayed as an example. Since the two-dimensional images 15 are taken from different viewpoints, their designs are slightly different. In the present embodiment, a two-dimensional image 15 can be obtained from each of several hundred units U whose structure is shown in FIG.

図4を参照して、上記した多数個の2次元画像15を元に、3次元画像16を生成する。ここでは、2次元画像の特徴点を抽出して対応づけを行い、照度差ステレオ法等により被写体の3次元的な位置を算出する方法により、3次元画像16を生成することができる。上述したように、本形態では、一平面上にユニットを密集して配置させた撮像手段を用いるので、比較的高精度な3次元の画像を生成することができる。3次元画像の生成方法は、上述したように、照度差ステレオ法やマルチベースラインステレオ法が考えられるが、本形態では照度差ステレオ法を用いている。この方法の詳細およびシミュレーション結果は、後述する。   With reference to FIG. 4, a three-dimensional image 16 is generated based on the above-described many two-dimensional images 15. Here, the feature points of the two-dimensional image are extracted and matched, and the three-dimensional image 16 can be generated by a method of calculating the three-dimensional position of the subject by the illuminance difference stereo method or the like. As described above, in this embodiment, since the image pickup unit in which the units are densely arranged on one plane is used, it is possible to generate a three-dimensional image with relatively high accuracy. As described above, the illuminance difference stereo method and the multi-baseline stereo method can be considered as a method for generating a three-dimensional image. In this embodiment, the illuminance difference stereo method is used. Details of this method and simulation results will be described later.

本実施の形態では、図4に示すように、3次元画像の表面形状モデルとして、3角形のメッシュ格子を用いる。3角形のメッシュ格子では、メッシュの頂点の値が高さ方向の情報となり、3次元座標位置を表現している。   In the present embodiment, as shown in FIG. 4, a triangular mesh lattice is used as a surface shape model of a three-dimensional image. In the triangular mesh grid, the value of the vertex of the mesh is information in the height direction, and expresses a three-dimensional coordinate position.

<第2の実施の形態>
本形態では、照度差ステレオ法を用いて複数の2次元画像から3次元画像を生成する方法を、シミュレーション結果と共に説明する。
<Second Embodiment>
In this embodiment, a method for generating a three-dimensional image from a plurality of two-dimensional images using the illuminance difference stereo method will be described together with a simulation result.

先ず、図5を参照して、本実施の形態では、物体の表面特性モデルとしてランベルトモデルを採用している。ランベルトモデルとは、凹凸のない滑らかな表面を持つ物体に於ける拡散反射を表面するために記述されたものである。   First, referring to FIG. 5, in the present embodiment, a Lambert model is employed as a surface characteristic model of an object. The Lambert model is described to surface diffuse reflection on an object having a smooth surface without unevenness.

ここで、被写体である物体表面の高さをz=h(x、y)とすると、被写体である物体表面の法線ベクトルn=(a、b、c)は下記式(1)で与えられる。 Here, when the height of the object surface that is the subject is z = h (x, y), the normal vector n v = ( av , b v , c v ) of the object surface that is the subject is expressed by the following equation (1). ).

また、光源から被写体32の表面に向かう入射光量をΘ、入射光ベクトルをn=(a、b、c)とすると、被写体32の表面が完全拡散特性を持つ場合のレンズ24Aへの入射光量Θは、下記式(2)で与えられる。 Further, if the incident light amount from the light source toward the surface of the subject 32 is Θ 0 and the incident light vector is n 1 = (a 1 , b 1 , c 1 ), the lens 24A when the surface of the subject 32 has a complete diffusion characteristic. The incident light quantity Θ 1 is given by the following equation (2).

同様に、レンズ24Aに隣接するレンズ24Bへの入射光量Θは、入射ベクトルをn=(a、b、c)とすると、下記式(3)で与えられる。 Similarly, the incident light quantity Θ 2 to the lens 24B adjacent to the lens 24A is given by the following formula (3), where n 2 = (a 2 , b 2 , c 2 ).

上記式(2)および式(3)により、被写体の法線ベクトルaおよびbを求めることができ、高さ方向のデータを得ることができる。 The above formula (2) and (3), it is possible to obtain the normal vector a v and b v of the object, it is possible to obtain a height direction of the data.

即ち、本形態では、隣接する2つのレンズ24Aおよび24Bに入射する入射光から、被写体32の表面の法線ベクトル(高さ方向のデータ)が得られる。従って、2次元画像の個数に応じて、高さ方向のデータを得ることができる。このことから、ユニットの個数に応じた数百個の3次元画像を取得して、これらを用いて精度を高めることが可能である。   That is, in this embodiment, the normal vector (the data in the height direction) of the surface of the subject 32 is obtained from the incident light incident on the two adjacent lenses 24A and 24B. Therefore, data in the height direction can be obtained according to the number of two-dimensional images. From this, it is possible to obtain several hundreds of three-dimensional images corresponding to the number of units and use them to improve accuracy.

ここで、被写体32の3次元的な位置を算出するためには、隣接するレンズ同士の相対的な位置が正確に把握されることが好ましい。本形態では、図2を参照して、1枚の半導体基板上に、隔壁層26およびレンズ24を作り込むことにより画像入力装置を構成している。従って、隣接するレンズ同士の相対的な位置は、極めて高精度に算出可能であり、不変であるので、被写体の3次元位置を極めて正確に算出することができる。   Here, in order to calculate the three-dimensional position of the subject 32, it is preferable to accurately grasp the relative positions of adjacent lenses. In this embodiment, referring to FIG. 2, an image input device is configured by forming a partition wall layer 26 and a lens 24 on a single semiconductor substrate. Accordingly, the relative positions of the adjacent lenses can be calculated with extremely high accuracy and are invariant, so that the three-dimensional position of the subject can be calculated with high accuracy.

次に、図6を参照して、2枚の2次元画像の位置合わせを行う方法(相関解析法)を説明する。2枚の2次元画像から3次元画像を生成するためには、画像同士の対応している箇所を特定する必要がある。この方法としては数々の方法が提案されているが、本形態では精度が高い相関解析法を用いている。   Next, a method (correlation analysis method) for aligning two two-dimensional images will be described with reference to FIG. In order to generate a three-dimensional image from two two-dimensional images, it is necessary to specify a corresponding part between the images. A number of methods have been proposed as this method, but this embodiment uses a highly accurate correlation analysis method.

図6に示すように、相関解析法(ステレオ画像法)では、2枚の2次元画像の中のある限定した範囲(nx×ny)を設定し、この範囲に於いて下記式(4)に示す相互相関係数ρを求める。   As shown in FIG. 6, in the correlation analysis method (stereo image method), a certain limited range (nx × ny) in two two-dimensional images is set, and in this range, the following equation (4) is set. The cross-correlation coefficient ρ shown is obtained.

次に、片方の画像を1画素移動させて、再度、相互相関係数ρを求める。これを縦横方向に行い、得られた相関係数が最大となる点を求めれば、これが2枚の画像で同一場所を示す対応点となる。上記式4を全ての画素について計算することにより、2枚の画像の各画素の対応点を求めることができる。 Next, one image is moved by one pixel, and the cross-correlation coefficient ρ is obtained again. If this is performed in the vertical and horizontal directions and the point where the obtained correlation coefficient is maximized is obtained, this becomes the corresponding point indicating the same place in the two images. By calculating Equation 4 for all pixels, the corresponding points of each pixel of the two images can be obtained.

<第3の実施の形態>
図7および図8を参照して、次に、上記した照度差ステレオ法を用いて生成された3次元画像の精度を確認するために行った実験結果を説明する。図7は実験の概要を示す図であり、図8(A)は実験結果を示す表であり、図8(B)は実験結果を示すグラフである。本実験では、球状のボールを被写体32として、この被写体32の形状が本発明の画像装置によりどの程度再現されるかを確認した。
<Third Embodiment>
Next, with reference to FIG. 7 and FIG. 8, the result of an experiment conducted to confirm the accuracy of a three-dimensional image generated using the above-described illuminance difference stereo method will be described. FIG. 7 is a diagram showing an outline of the experiment, FIG. 8A is a table showing the experimental results, and FIG. 8B is a graph showing the experimental results. In this experiment, a spherical ball was used as the subject 32, and it was confirmed how much the shape of the subject 32 was reproduced by the image apparatus of the present invention.

図7を参照して、先ず、実験の条件を説明する。ボールである被写体32は、原点(0、0、0)に載置した。そして、撮像モジュール30(上記した画像撮像装置20)は、不図示のレンズを被写体32に向けた状態で(0、0、20)に載置した。更に、光源であるライト31は、(10、2.5、20)に配置される。   First, the conditions of the experiment will be described with reference to FIG. The subject 32 as a ball was placed at the origin (0, 0, 0). The image pickup module 30 (the image pickup device 20 described above) was placed on (0, 0, 20) with a lens (not shown) facing the subject 32. Furthermore, the light 31 which is a light source is arrange | positioned at (10, 2.5, 20).

上記のように各装置を配置した後は、ライト31により照射された被写体32を撮像モジュール30により撮影する。このことにより、撮像モジュール30により例えば数百個の2次元の画像が得られる。本実験では、先ず、多数個の2次元の画像から、隣接するユニットにより得られた2つの2次元の画像を取りだす。次に、取り出した2つの画像をモノクロ化した後に、形状抽出点の輝度を測定する。更に、照度差ステレオ法を用いて3次元形状を抽出する。   After each device is arranged as described above, the imaging module 30 captures an image of the subject 32 irradiated with the light 31. Thus, for example, several hundred two-dimensional images are obtained by the imaging module 30. In this experiment, first, two two-dimensional images obtained by adjacent units are taken out from a large number of two-dimensional images. Next, after the two extracted images are converted into monochrome, the luminance of the shape extraction point is measured. Furthermore, a three-dimensional shape is extracted using the illuminance difference stereo method.

図8(A)に形状抽出結果の一部を示す。この結果から、傾斜の急な部分(例えば、X座標が0であり、Y座標が1.875である地点)で、誤差率が大きくなっている。この原因は、急な斜面では画像が粗く、輝度が高精度で得られないのが原因であると思われる。   FIG. 8A shows a part of the shape extraction result. From this result, the error rate is large at a steep portion (for example, a point where the X coordinate is 0 and the Y coordinate is 1.875). The cause seems to be that the image is rough on a steep slope and the brightness cannot be obtained with high accuracy.

図8(B)は形状抽出データをグラフ化したものである。線の交わっている点が、今回の形状抽出を行った点である。形状抽出により算出された点同士は、直線により補われている。点同士の間の距離が長いため、粗い形状となっているが、ボールの立体感が見える。このグラフが略半球形状と成っているのは、被写体であるボールの半球のみが撮影されるからである。   FIG. 8B is a graph of shape extraction data. The point where the lines intersect is the point where the shape was extracted this time. The points calculated by shape extraction are supplemented by straight lines. Since the distance between the points is long, the shape is rough, but the three-dimensional effect of the ball is visible. This graph has a substantially hemispherical shape because only the hemisphere of the ball that is the subject is photographed.

以上の実験から、本形態の撮像モジュール30を用いることにより、被写体の3次元形状が忠実に再現された3次元画像を生成可能なことが明らかになった。   From the above experiments, it has been clarified that by using the imaging module 30 of the present embodiment, a three-dimensional image in which the three-dimensional shape of the subject is faithfully reproduced can be generated.

<その他の実施の形態>
3次元画像を生成する本形態の画像処理装置には、例えば以下の手段を付加しても良い。
<Other embodiments>
For example, the following means may be added to the image processing apparatus of the present embodiment that generates a three-dimensional image.

例えば、画像生成手段12により得られた3次元画像を補正する画像補正手段を付加しても良い。この画像補正手段では、先ず、画像生成手段12により得られた3次元画像16を、個々の2次元画像15A、15B、15Cに投影する。次に、ランベルトモデル等を用いて、2次元画像15A、15B、15Cの画素情報(輝度)を基に法線ベクトルを算出し、3次元画像16の3次元位置を補正して、補正された複数の3次元画像を生成する。ここでは、2次元画像の数(例えば数百個)と同じ数の補正された3次元画像が生成される。   For example, an image correction unit that corrects a three-dimensional image obtained by the image generation unit 12 may be added. In this image correction unit, first, the three-dimensional image 16 obtained by the image generation unit 12 is projected onto each two-dimensional image 15A, 15B, 15C. Next, a normal vector is calculated based on the pixel information (luminance) of the two-dimensional images 15A, 15B, and 15C using a Lambert model, and the three-dimensional position of the three-dimensional image 16 is corrected. A plurality of three-dimensional images are generated. Here, the same number of corrected three-dimensional images as the number of two-dimensional images (for example, several hundreds) is generated.

更に、上記のように補正された3次元画像を統合する手段を設けても良い。具体的には、補正された複数の3次元画像を統合して、1つの3次元画像を生成する。更に、この統合を行う際に、最適化手段(ベイズ推定)により3次元位置情報の最適化を行うと、得られる3次元画像の位置精度を更に向上させることができる。   Furthermore, a means for integrating the three-dimensional images corrected as described above may be provided. Specifically, a plurality of corrected three-dimensional images are integrated to generate one three-dimensional image. Furthermore, when this integration is performed, if the three-dimensional position information is optimized by the optimization means (Bayesian estimation), the position accuracy of the obtained three-dimensional image can be further improved.

本発明の画像処理装置は、例えば、立体映像装置、画像入力装置、立体内視鏡等の医療装置、小型ロボットの目等のロボット等に適用することが可能である。   The image processing apparatus of the present invention can be applied to, for example, a stereoscopic video apparatus, an image input apparatus, a medical apparatus such as a stereoscopic endoscope, and a robot such as an eye of a small robot.

本発明の画像処理装置の構成を示す図である。It is a figure which shows the structure of the image processing apparatus of this invention. (A)は本発明の画像処理装置に適用可能な画像入力装置を示す斜視図であり、(B)は本発明の内視鏡を示す斜視図である。(A) is a perspective view showing an image input device applicable to the image processing device of the present invention, and (B) is a perspective view showing an endoscope of the present invention. 本発明の画像処理装置にて処理される2次元画像を示す図である。It is a figure which shows the two-dimensional image processed with the image processing apparatus of this invention. 本発明の画像処理装置にて、複数の2次元画像を用いて生成された3次元画像を示す図である。It is a figure which shows the three-dimensional image produced | generated using the some two-dimensional image in the image processing apparatus of this invention. 本発明の画像処理装置にて画像を処理する方法を示す図であり、被写体の3次元位置を求める原理を示す図である。It is a figure which shows the method of processing an image with the image processing apparatus of this invention, and is a figure which shows the principle which calculates | requires the three-dimensional position of a to-be-photographed object. 本発明の2次元画像の対応点検索方法を示す図である。It is a figure which shows the corresponding point search method of the two-dimensional image of this invention. 本発明の画像処理装置を用いて行った実験の概要を示す図である。It is a figure which shows the outline | summary of the experiment conducted using the image processing apparatus of this invention. 本発明の画像処理装置を用いて行った実験の結果を示す図であり、(A)は結果を示す表であり、(B)はそれをグラフ化したものである。It is a figure which shows the result of the experiment conducted using the image processing apparatus of this invention, (A) is a table | surface which shows a result, (B) makes it a graph.

符号の説明Explanation of symbols

10 画像処理装置
11 撮像手段
12 画像生成手段
15A〜15C 2次元画像
16 3次元画像
20 画像入力装置
21 レンズアレイ
23 受光素子アレイ
24 レンズ
24A、24B レンズ
25 隔壁
26 隔壁層
27 受光素子
28 挿入部
29 発光部
30 撮像モジュール
31 ライト
32 被写体
U ユニット
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 11 Imaging means 12 Image generation means 15A-15C Two-dimensional image 16 Three-dimensional image 20 Image input device 21 Lens array 23 Light receiving element array 24 Lens 24A, 24B Lens 25 Partition 26 Partition wall 27 Light receiving element 28 Insertion part 29 Light emitting unit 30 Imaging module 31 Light 32 Subject U unit

Claims (8)

同一平面上の異なる位置にマトリックス状に配置された複数のユニットを具備し、複数の2次元画像を取得する撮像手段と、
前記複数の2次元画像を統合して3次元画像を生成する画像生成手段とを具備することを特徴とする画像処理装置。
An imaging means comprising a plurality of units arranged in a matrix at different positions on the same plane, and acquiring a plurality of two-dimensional images;
An image processing apparatus comprising: an image generating unit that generates a three-dimensional image by integrating the plurality of two-dimensional images.
前記画像生成手段では、照度差ステレオ法により前記3次元画像を生成することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image generation unit generates the three-dimensional image by an illuminance difference stereo method. 前記画像生成手段では、相互相関係数を算出することにより前記2次元画像どうしの対応点を検出することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image generation unit detects a corresponding point between the two-dimensional images by calculating a cross-correlation coefficient. 前記ユニットは、1つのレンズと、前記レンズの下方に配置された撮像素子から成ることを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the unit includes one lens and an image sensor disposed below the lens. 体腔内に挿入される細長い挿入部を有する内視鏡に於いて、
前記挿入部に設けられて、同一平面上の異なる位置にマトリックス状に配置された複数のユニットを具備し、複数の2次元画像を取得する撮像手段と、
前記複数の2次元画像を統合して3次元画像を生成する画像生成手段とを具備することを特徴とする内視鏡。
In an endoscope having an elongated insertion portion to be inserted into a body cavity,
An imaging unit provided in the insertion unit, including a plurality of units arranged in a matrix at different positions on the same plane, and acquiring a plurality of two-dimensional images;
An endoscope comprising: an image generating unit that generates a three-dimensional image by integrating the plurality of two-dimensional images.
前記画像生成手段では、照度差ステレオ法により前記3次元画像を生成することを特徴とする請求項5記載の内視鏡。   The endoscope according to claim 5, wherein the image generation unit generates the three-dimensional image by an illuminance difference stereo method. 前記画像生成手段では、相互相関係数を算出することにより前記2次元画像どうしの対応点を検出することを特徴とする請求項5記載の内視鏡。   6. The endoscope according to claim 5, wherein the image generation means detects a corresponding point between the two-dimensional images by calculating a cross-correlation coefficient. 前記ユニットは、1つのレンズと、前記レンズの下方に配置された撮像素子から成ることを特徴とする請求項5記載の内視鏡。   The endoscope according to claim 5, wherein the unit includes one lens and an image pickup device disposed below the lens.
JP2006084425A 2005-03-28 2006-03-27 Image processor and endoscope using the same Pending JP2006305332A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006084425A JP2006305332A (en) 2005-03-28 2006-03-27 Image processor and endoscope using the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005091260 2005-03-28
JP2006084425A JP2006305332A (en) 2005-03-28 2006-03-27 Image processor and endoscope using the same

Publications (1)

Publication Number Publication Date
JP2006305332A true JP2006305332A (en) 2006-11-09

Family

ID=37472875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006084425A Pending JP2006305332A (en) 2005-03-28 2006-03-27 Image processor and endoscope using the same

Country Status (1)

Country Link
JP (1) JP2006305332A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014108193A (en) * 2012-11-30 2014-06-12 Panasonic Corp Image processing device and endoscope
KR20160138232A (en) * 2014-03-28 2016-12-02 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 Quantitative three-dimensional imaging of surgical scenes
JP2017510409A (en) * 2014-03-28 2017-04-13 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Surgical system using haptic feedback based on quantitative three-dimensional imaging
JP2017517355A (en) * 2014-03-28 2017-06-29 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Quantitative 3D imaging and surgical implant printing
US10334227B2 (en) 2014-03-28 2019-06-25 Intuitive Surgical Operations, Inc. Quantitative three-dimensional imaging of surgical scenes from multiport perspectives
US11266465B2 (en) 2014-03-28 2022-03-08 Intuitive Surgical Operations, Inc. Quantitative three-dimensional visualization of instruments in a field of view

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014108193A (en) * 2012-11-30 2014-06-12 Panasonic Corp Image processing device and endoscope
KR20160138232A (en) * 2014-03-28 2016-12-02 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 Quantitative three-dimensional imaging of surgical scenes
CN106456252A (en) * 2014-03-28 2017-02-22 直观外科手术操作公司 Quantitative three-dimensional imaging of surgical scenes
JP2017510409A (en) * 2014-03-28 2017-04-13 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Surgical system using haptic feedback based on quantitative three-dimensional imaging
JP2017517355A (en) * 2014-03-28 2017-06-29 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Quantitative 3D imaging and surgical implant printing
JP2017518147A (en) * 2014-03-28 2017-07-06 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Quantitative three-dimensional imaging of surgical scenes
US10334227B2 (en) 2014-03-28 2019-06-25 Intuitive Surgical Operations, Inc. Quantitative three-dimensional imaging of surgical scenes from multiport perspectives
US10350009B2 (en) 2014-03-28 2019-07-16 Intuitive Surgical Operations, Inc. Quantitative three-dimensional imaging and printing of surgical implants
US10368054B2 (en) 2014-03-28 2019-07-30 Intuitive Surgical Operations, Inc. Quantitative three-dimensional imaging of surgical scenes
US10555788B2 (en) 2014-03-28 2020-02-11 Intuitive Surgical Operations, Inc. Surgical system with haptic feedback based upon quantitative three-dimensional imaging
CN110897590A (en) * 2014-03-28 2020-03-24 直观外科手术操作公司 Surgical system with haptic feedback based on quantitative three-dimensional imaging
JP2020054832A (en) * 2014-03-28 2020-04-09 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Quantitative three-dimensional imaging of surgical scenes
JP2020073001A (en) * 2014-03-28 2020-05-14 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Quantitative three-dimensional imaging and printing of surgical implants
EP3125809B1 (en) * 2014-03-28 2020-09-09 Intuitive Surgical Operations, Inc. Surgical system with haptic feedback based upon quantitative three-dimensional imaging
CN110897590B (en) * 2014-03-28 2021-11-16 直观外科手术操作公司 Surgical system with haptic feedback based on quantitative three-dimensional imaging
US11266465B2 (en) 2014-03-28 2022-03-08 Intuitive Surgical Operations, Inc. Quantitative three-dimensional visualization of instruments in a field of view
US11304771B2 (en) 2014-03-28 2022-04-19 Intuitive Surgical Operations, Inc. Surgical system with haptic feedback based upon quantitative three-dimensional imaging
KR102397254B1 (en) * 2014-03-28 2022-05-12 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 Quantitative three-dimensional imaging of surgical scenes
EP3125806B1 (en) * 2014-03-28 2023-06-14 Intuitive Surgical Operations, Inc. Quantitative three-dimensional imaging of surgical scenes
JP7321916B2 (en) 2014-03-28 2023-08-07 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Quantitative 3D imaging of surgical scenes
JP7433932B2 (en) 2014-03-28 2024-02-20 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Quantitative 3D imaging and printing of surgical implants

Similar Documents

Publication Publication Date Title
US10368054B2 (en) Quantitative three-dimensional imaging of surgical scenes
JP6609616B2 (en) Quantitative 3D imaging of surgical scenes from a multiport perspective
US11019327B2 (en) Endoscope employing structured light providing physiological feature size measurement
US11145077B2 (en) Device and method for obtaining depth information from a scene
US9427137B2 (en) Imaging a patient&#39;s interior
US7995798B2 (en) Device, system and method for estimating the size of an object in a body lumen
JP5858433B2 (en) Gaze point detection method and gaze point detection device
JP4343341B2 (en) Endoscope device
US20170181809A1 (en) Alignment of q3d models with 3d images
JP6475311B1 (en) Optical tracking system and optical tracking method
CN108351523A (en) Stereocamera and the depth map of structure light are used using head-mounted display
JP6454489B2 (en) Observation system
RU2018136770A (en) SYSTEMS AND METHODS OF SCANNING FACES
WO2004044522A1 (en) Three-dimensional shape measuring method and its device
JP2009529824A (en) CMOS stereo camera for 3D image acquisition
JP2006305332A (en) Image processor and endoscope using the same
WO2019182623A1 (en) Endoscope employing structured light providing physiological feature size measurement
JP6768933B2 (en) Information processing equipment, information processing system, and image processing method
Decker et al. Performance evaluation and clinical applications of 3D plenoptic cameras
TW202036468A (en) Apparatus and method for dental image registration
JP2007017180A (en) Marker identification method and apparatus optical motion capture
Chan et al. Miniaturized 3D endoscopic imaging system