JP2012065851A - Multi-view auto-stereoscopic endoscope system - Google Patents

Multi-view auto-stereoscopic endoscope system Download PDF

Info

Publication number
JP2012065851A
JP2012065851A JP2010213209A JP2010213209A JP2012065851A JP 2012065851 A JP2012065851 A JP 2012065851A JP 2010213209 A JP2010213209 A JP 2010213209A JP 2010213209 A JP2010213209 A JP 2010213209A JP 2012065851 A JP2012065851 A JP 2012065851A
Authority
JP
Japan
Prior art keywords
pixel
parallax
pixels
stereo
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010213209A
Other languages
Japanese (ja)
Inventor
Hisashi Suzuki
寿 鈴木
Shuichi Utsugi
修一 宇都木
Hitoshi Katai
均 片井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chuo University
Original Assignee
Chuo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chuo University filed Critical Chuo University
Priority to JP2010213209A priority Critical patent/JP2012065851A/en
Publication of JP2012065851A publication Critical patent/JP2012065851A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a novel three-dimensional endoscope system which releases surgery staff from stresses specific to three-dimensional endoscope systems and supports achievement of a high-quality operation.SOLUTION: A stereoscopic camera for the three-dimensional endoscope acquires a stereoscopic image. Three-dimensional data associating a depth value of an imaging object with RGB values of the imaging object are formed on the basis of the stereoscopic image. A multi-view stereoscopic image is formed by integrating a plurality of stereoscopic images corresponding to a plurality of virtual viewpoints drawn on the basis of the three-dimensional data. By displaying the multi-view stereoscopic image on a multi-view auto-stereoscopic display device, multi-view auto-stereoscopic live image of an affected area is achieved.

Description

本発明は、立体内視鏡システムに関し、より詳細には、多視点裸眼立体内視鏡システムに関する。   The present invention relates to a stereoscopic endoscope system, and more particularly to a multi-view autostereoscopic endoscope system.

近年、外科分野において内視鏡手術が急速に普及している。内視鏡手術によれば、鉗子などの手術器具と内視鏡スコープを挿入するための小さな切開だけで済むため、従来の開腹手術に比べて手術創を格段に小さくすることができ、患者の身体的負担を軽減することができる。現在、一般に多く行われている内視鏡手術においては、患部の画像が手術台に設置された大型モニターに映し出され、執刀医とその助手をはじめ、麻酔医や看護師などから構成される手術スタッフは、当該モニターを見ながら手術を行う。しかしながら、モニターに映し出される2D画像から患部の「奥行き」を正確に感じとることは難しく、空間認識の点から見れば、直接的に患部を目視することができる開腹手術に劣るといわざるを得なかった。   In recent years, endoscopic surgery is rapidly spreading in the surgical field. Endoscopic surgery requires only a small incision to insert a surgical instrument such as forceps and an endoscopic scope, so that the surgical wound can be significantly reduced compared to conventional open surgery, The physical burden can be reduced. In endoscopic surgery that is commonly performed at present, an image of the affected area is displayed on a large monitor installed on the operating table, and is composed of a surgeon and assistant, anesthesiologists and nurses. The staff operates while looking at the monitor. However, it is difficult to accurately sense the “depth” of the affected area from the 2D image displayed on the monitor. From the viewpoint of spatial recognition, it is inferior to laparotomy where the affected area can be directly observed. It was.

この点につき、最近、3D画像システムを適用した立体内視鏡システムが種々検討されている。立体内視鏡システムにおいて、手術スタッフは、患部の3D画像を見ながら手術することができる。特開2007−044153号公報(特許文献1)は、そのような立体内視鏡装置を開示する。   In this regard, various stereoscopic endoscope systems to which a 3D image system is applied have been recently studied. In the stereoscopic endoscope system, the operation staff can perform an operation while viewing a 3D image of the affected area. Japanese Patent Laying-Open No. 2007-041453 (Patent Document 1) discloses such a stereoscopic endoscope apparatus.

ここで、現在最も多く用いられている眼鏡式立体内視鏡システムの原理について説明する。図20は、眼鏡式立体内視鏡システム200を示す。眼鏡式立体内視鏡システム200は、内視鏡スコープの先端にステレオカメラ201を備え、配置された2つのCCDカメラ(左目用カメラ202・右目用カメラ204)が対象物の左目用画像および右目用画像をそれぞれ撮像して画像出力制御部206に送信する。画像出力制御部206においては、画像切替部208がフレームシーケンシャル方式に則って左目用画像と右目用画像を交互に出力し、ディスプレイ210が左目用画像と右目用画像を交互に表示する。一方、手術スタッフは、専用の3Dメガネ212を装着した状態で、ディスプレイ210に表示される画像を見る。ここで、3Dメガネ212は、左目用画像と右目用画像の切り替えに同期して左右の視界を交互に遮断する液晶シャッターを備えているため、左目用画像は左目だけに見え、右目用画像は右目だけに見える。その結果、手術スタッフは、その脳内で左右の画像を合成し、対象物の立体イメージを得る。   Here, the principle of the eyeglass-type stereoscopic endoscope system that is most frequently used at present will be described. FIG. 20 shows a spectacle-type stereoscopic endoscope system 200. The glasses-type stereoscopic endoscope system 200 includes a stereo camera 201 at the distal end of an endoscope scope, and two arranged CCD cameras (a left-eye camera 202 and a right-eye camera 204) are used for an image for a left eye and a right eye of an object. Each image is captured and transmitted to the image output control unit 206. In the image output control unit 206, the image switching unit 208 alternately outputs the left-eye image and the right-eye image in accordance with the frame sequential method, and the display 210 displays the left-eye image and the right-eye image alternately. On the other hand, the surgical staff sees an image displayed on the display 210 with the dedicated 3D glasses 212 attached. Here, since the 3D glasses 212 include a liquid crystal shutter that alternately blocks the left and right fields of view in synchronization with the switching between the left-eye image and the right-eye image, the left-eye image appears only to the left eye, and the right-eye image Visible only to the right eye. As a result, the surgical staff combines the left and right images in the brain to obtain a three-dimensional image of the object.

しかしながら、上述した眼鏡式立体内視鏡システムを用いる手術スタッフについて、専用の3Dメガネに起因する肉体的・精神的ストレスが報告されている。アクティブシャッター特有のフリッカー現象に伴う眼精疲労や重量のある特殊なメガネを長時間装着することに伴う精神的ストレスなどはその一例である。さらに、眼鏡式立体内視鏡システムにおいて、単一視点のステレオ画像が映し出されることに起因する問題がある。すなわち、複数の手術スタッフがディスプレイ210を見ながら手術を行う場合、ディスプレイ210を正面から見る手術スタッフにおいては、実際の視点と画像の視点が一致するので問題はないが、ディスプレイ210を左側あるいは右側から見る手術スタッフにおいては、実際の患部の奥行きと画像から感受される奥行き感が一致せず、このことがバーチャルリアリティ酔い(VR酔い)の原因となっていた。外科手術においては、長時間にわたり細心の注意力と高度な集中力が要求されるため、手術環境からストレスの原因を出来る限り排除しなければならない。   However, physical and mental stress due to dedicated 3D glasses has been reported for surgical staff using the above-described glasses-type stereoscopic endoscope system. Examples include eyestrain associated with the flicker phenomenon peculiar to active shutters and mental stress associated with wearing heavy special glasses for a long time. Furthermore, there is a problem due to the fact that a single viewpoint stereo image is projected in the glasses-type stereoscopic endoscope system. That is, when a plurality of surgical staff members perform an operation while viewing the display 210, there is no problem in the surgical staff members who are viewing the display 210 from the front because the actual viewpoint matches the viewpoint of the image. In the surgical staff seen from the above, the actual depth of the affected area and the sense of depth perceived from the images do not match, which causes virtual reality sickness (VR sickness). In surgery, since careful attention and high concentration are required for a long time, the cause of stress must be eliminated from the surgical environment as much as possible.

上述した点に関し、近年、マルチビューの裸眼立体ディスプレイ装置の実用化が進んでいる。特開2005−86414号公報(特許文献2)は、そのような多視点裸眼立体ディスプレイ装置を開示する。図21は、多視点裸眼立体ディスプレイ装置の機構を説明するための概念図である。多視点裸眼立体ディスプレイ装置300は、多眼方式やインテグラルフォトグラフィー方式などの古くから知られる立体写真技術を応用したものであり、レンチキュラーレンズアレイ302を用いることによって、裸眼による立体視と多視点を同時に実現している。   With regard to the above points, in recent years, multi-view autostereoscopic display devices have been put into practical use. Japanese Patent Laying-Open No. 2005-86414 (Patent Document 2) discloses such a multi-viewpoint autostereoscopic display device. FIG. 21 is a conceptual diagram for explaining the mechanism of the multi-viewpoint autostereoscopic display device. The multi-view autostereoscopic display device 300 is an application of stereo photography technology such as a multi-view method and an integral photography method, which has been known for a long time. Is realized at the same time.

図21の右側に破線で囲んで示すように、多視点裸眼立体ディスプレイ装置300においては、複数のピクセル(図21に示す例においては7つのピクセル)が1単位として1つのレンチキュラーレンズ内に収められている。なお、各ピクセルは、縦方向(紙面に垂直方向)に並んだ図示しない3つのサブピクセル(RGB)からなる。各ピクセルの光はレンチキュラーレンズによって屈折し、別々の方向に放射線状に出射する。この多重化されたピクセルとレンチキュラーレンズを組み合わせることによって、複数の異なる視点に対応付けられた複数のステレオ画像を集約してディスプレイ上に同時に表示することができる。   In the multi-view autostereoscopic display device 300, a plurality of pixels (seven pixels in the example shown in FIG. 21) are stored as one unit in one lenticular lens, as shown by being surrounded by a broken line on the right side of FIG. ing. Each pixel is composed of three sub-pixels (RGB) (not shown) arranged in the vertical direction (perpendicular to the paper surface). The light of each pixel is refracted by a lenticular lens and emitted radially in different directions. By combining this multiplexed pixel and lenticular lens, a plurality of stereo images associated with a plurality of different viewpoints can be aggregated and simultaneously displayed on the display.

なお、多視点裸眼立体ディスプレイ装置300に表示させるための多視点ステレオ画像は、3次元コンピュータグラフィックス(3DCG)によって作成することができる。たとえば、7つの視点に対応する7組のステレオ画像(左目用画像および右目用画像の組)を3DCGによって作成する場合、予め形状データを定義したオブジェクトを仮想3次元空間に配置した上で、7組の仮想的なカメラ視点を設定し、各カメラ視点を原点とする仮想スクリーンに透視投影した場合のオブジェクトの2次元画像を計算によって求めて生成する(レンダリング)。なお、1視点に対応するステレオ画像は、左目視点に対応する画像と右目視点に対応する画像からなるので、都合、7×2=14の2次元画像を算出する必要がある。   Note that a multi-view stereo image to be displayed on the multi-view autostereoscopic display apparatus 300 can be created by three-dimensional computer graphics (3DCG). For example, when seven sets of stereo images corresponding to seven viewpoints (a group of left-eye images and right-eye images) are created by 3DCG, an object in which shape data is defined in advance is arranged in a virtual three-dimensional space. A set of virtual camera viewpoints is set, and a two-dimensional image of the object when perspectively projected on a virtual screen with each camera viewpoint as the origin is calculated and generated (rendering). Since a stereo image corresponding to one viewpoint includes an image corresponding to the left eye viewpoint and an image corresponding to the right eye viewpoint, it is necessary to calculate a 7 × 2 = 14 two-dimensional image for convenience.

上述した手順で生成された14の2次元画像を構成する各画素データは、左目用画像および右目用画像が適切な視差を持つように、且つ、それぞれが予め定義された視点で結像するように、適切なピクセル座標が計算され割り当てられる。その結果、各視点に対応付けられたステレオ画像が当該視点に位置するユーザの左右の目に振り分けられて結像し、且つ、ユーザの視点移動に合わせてユーザの左右の目に結像するステレオ画像が遷移する。上述した機構によって裸眼による多視点立体視が実現される。   Each pixel data constituting the 14 two-dimensional image generated by the above-described procedure is formed so that the left-eye image and the right-eye image have appropriate parallaxes, and each image is formed at a predefined viewpoint. The appropriate pixel coordinates are calculated and assigned. As a result, a stereo image associated with each viewpoint is formed by being distributed to the left and right eyes of the user located at the viewpoint, and is also formed in accordance with the movement of the viewpoint of the user. The image transitions. Multi-viewpoint stereoscopic vision with the naked eye is realized by the mechanism described above.

特開2007−044153号公報JP 2007-041453 A 特開2005−86414号公報JP 2005-84414 A

本発明は、上記従来技術における課題に鑑みてなされたものであり、本発明は、立体内視鏡システムに特有のストレスから手術スタッフを解放するとともに、質の高い施術を支援することができる新規な立体内視鏡システムを提供することを目的とする。   The present invention has been made in view of the above-described problems in the prior art. The present invention is a novel technique that can release surgical staff from stress peculiar to a stereoscopic endoscope system and can support high-quality treatment. An object of the present invention is to provide a simple stereoscopic endoscope system.

本発明者は、立体内視鏡システムに特有のストレスから手術スタッフを解放するとともに、質の高い施術を支援することができる立体内視鏡システムにつき鋭意検討した結果、撮像対象の奥行値とRGB値を関連付けた3Dデータに基づいて、複数の仮想的な視点に対応する複数のステレオ画像をリアルタイムに生成し、これを既存の多視点裸眼立体ディスプレイ装置に表示させることによって、患部の実写映像の多視点裸眼立体視が可能になることを見出し、本発明に至ったのである。   As a result of earnestly examining the stereoscopic endoscope system that can release the surgical staff from the stress peculiar to the stereoscopic endoscope system and support high-quality treatment, the inventor determined that the depth value of the imaging target and the RGB Based on the 3D data associated with the values, a plurality of stereo images corresponding to a plurality of virtual viewpoints are generated in real time and displayed on an existing multi-view autostereoscopic display device. The inventors have found that multi-view autostereoscopic viewing is possible, and have reached the present invention.

すなわち、本発明によれば、ステレオカメラと、該ステレオカメラによって取得されたステレオ画像に基づいて多視点ステレオ画像を生成する多視点ステレオ画像生成部と、該多視点ステレオ画像を表示するための多視点裸眼立体ディスプレイとを含む立体内視鏡システムであって、多視点ステレオ画像生成部は、前記ステレオカメラによって取得されたステレオ画像の画素毎の奥行値とRGB値を対応付けた3Dデータを生成する3Dデータ生成部と、前記3Dデータに基づいて複数の仮想的な視点に対応する複数のステレオ画像が集約してなる多視点ステレオ画像を描画するレンダリング部とを含む立体内視鏡システムが提供される。   That is, according to the present invention, a stereo camera, a multi-view stereo image generating unit that generates a multi-view stereo image based on a stereo image acquired by the stereo camera, and a multi-view stereo image for displaying the multi-view stereo image are displayed. A stereoscopic endoscope system including a viewpoint autostereoscopic display, wherein a multi-viewpoint stereo image generation unit generates 3D data in which a depth value and an RGB value for each pixel of a stereo image acquired by the stereo camera are associated with each other A stereoscopic endoscope system including a 3D data generating unit that renders and a rendering unit that renders a multi-view stereo image formed by aggregating a plurality of stereo images corresponding to a plurality of virtual viewpoints based on the 3D data. Is done.

さらに、本発明によれば、ステレオ画像の各画素について視差を取得するために動的計画法に基づいてステレオマッチングを行う方法であって、注目画素を含んで縦方向に連続する複数の画素を輝度値取得領域として定義し、該複数の画素の各画素について算出した輝度距離の平均値またはその累乗根を前記ステレオマッチングにおけるコストとして定義することを特徴とする方法が提供される。本発明においては、前記輝度値取得領域をエッジにまたがって延在しないように動的に定義し、前記ステレオマッチングにおける斜め経路選択の重み係数が前記輝度距離の平均値の大きさに応じて大きくなるように設定することを好ましい。さらに、本発明においては、前記ステレオ画像において対象となる走査線を所定間隔毎に定義して該走査線上の各画素の視差を前記ステレオマッチングによって取得した上で、縦方向に存在する視差取得済みの2つの画素の間に位置する画素について、前記2つの画素の視差が変化しない場合には、前記2つの画素の間に位置する画素に前記2つの画素の視差を承継させ、前記2つの画素の視差が変化する場合には、前記2つの画素の間に位置する画素についてのみ新たに前記ステレオマッチングを行って視差を取得するといった一連の処理を実行することが好ましく、前記一連の処理を前記ステレオ画像の全画素の視差が取得されるまで再帰的に繰り返すことが好ましい。   Furthermore, according to the present invention, there is provided a method of performing stereo matching based on dynamic programming in order to obtain a parallax for each pixel of a stereo image, wherein a plurality of pixels that include a pixel of interest and are continuous in a vertical direction are obtained. A method is provided which is defined as a luminance value acquisition region, and an average value or a power root of the luminance distance calculated for each of the plurality of pixels is defined as a cost in the stereo matching. In the present invention, the luminance value acquisition region is dynamically defined so as not to extend across an edge, and a weighting factor for oblique path selection in the stereo matching is increased according to the average value of the luminance distance. It is preferable to set so as to be. Further, in the present invention, the target scan line in the stereo image is defined at predetermined intervals, and the parallax of each pixel on the scan line is acquired by the stereo matching, and the parallax existing in the vertical direction has been acquired. If the parallax between the two pixels does not change with respect to the pixel located between the two pixels, the pixel located between the two pixels inherits the parallax between the two pixels, and the two pixels When the parallax changes, it is preferable to execute a series of processes such as newly performing the stereo matching only for the pixel located between the two pixels to obtain the parallax, It is preferable to repeat recursively until the parallax of all the pixels of the stereo image is acquired.

上述したように、本発明によれば、立体内視鏡システムに特有のストレスから手術スタッフを解放するとともに、質の高い施術を支援することができる新規な立体内視鏡システムが提供される。本発明によれば、開放的な環境において、一斉に多人数が特別な観察道具に接触することなく、対象について連続的多視点から奥行感をつかむことができる。   As described above, according to the present invention, a novel stereoscopic endoscope system capable of releasing surgical staff from stress peculiar to a stereoscopic endoscope system and supporting high-quality treatment is provided. According to the present invention, in an open environment, it is possible to grasp a sense of depth from a continuous multi-viewpoint with respect to an object without a large number of people contacting a special observation tool all at once.

本実施形態の多視点裸眼立体内視鏡システムの機能ブロック図。The functional block diagram of the multiview autostereoscopic endoscope system of this embodiment. ステレオ視計測の基本原理を説明するための概念図。The conceptual diagram for demonstrating the basic principle of a stereo vision measurement. ステレオ視計測の基本原理を説明するための概念図。The conceptual diagram for demonstrating the basic principle of a stereo vision measurement. ステレオ視計測の基本原理を説明するための概念図。The conceptual diagram for demonstrating the basic principle of a stereo vision measurement. 単一画素の輝度距離をコストとする従来のDPマッチングの概念図。The conceptual diagram of the conventional DP matching which uses the luminance distance of a single pixel as a cost. 本実施形態における輝度値取得領域を説明するための概念図。The conceptual diagram for demonstrating the luminance value acquisition area | region in this embodiment. 本実施形態における輝度値取得領域を説明するための概念図。The conceptual diagram for demonstrating the luminance value acquisition area | region in this embodiment. 本実施形態における輝度値取得領域を説明するための概念図。The conceptual diagram for demonstrating the luminance value acquisition area | region in this embodiment. 本実施形態における輝度値取得領域を決定する処理を示すフローチャート。The flowchart which shows the process which determines the luminance value acquisition area in this embodiment. 大きな色の差の影響を低減する処理を説明するための概念図。The conceptual diagram for demonstrating the process which reduces the influence of a big color difference. 本実施形態における視差承継処理を説明するための概念図。The conceptual diagram for demonstrating the parallax inheritance process in this embodiment. 本実施形態における視差承継処理を示すフローチャート。The flowchart which shows the parallax inheritance process in this embodiment. 視差計測実験に用いた4組のステレオ画像を示す図。The figure which shows four sets of stereo images used for the parallax measurement experiment. ステレオ画像「Cones」について得られた結果を示す図。The figure which shows the result obtained about stereo image "Cones". ステレオ画像「Teddy」について得られた結果を示す図。The figure which shows the result obtained about stereo image "Teddy". ステレオ画像「Tsukuba」について得られた結果を示す図。The figure which shows the result obtained about stereo image "Tsukuba". ステレオ画像「Venus」について得られた結果を示す図。The figure which shows the result obtained about stereo image "Venus". パラメータαとMDE/Sの平均値との関係を示す図。The figure which shows the relationship between parameter (alpha) and the average value of MDE / S. パラメータαと正解率[%]の平均値との関係を示す図。The figure which shows the relationship between parameter (alpha) and the average value of correct answer rate [%]. 従来の眼鏡式立体内視鏡システム示す図。The figure which shows the conventional spectacles type | mold stereoscopic endoscope system. 多視点裸眼立体ディスプレイ装置の機構を説明するための概念図。The conceptual diagram for demonstrating the mechanism of a multiview autostereoscopic display apparatus.

以下、本発明を図面に示した実施の形態をもって説明するが、本発明は、図面に示した実施の形態に限定されるものではない。なお、以下に参照する各図においては、共通する要素について同じ符号を用い、適宜、その説明を省略するものとする。   Hereinafter, the present invention will be described with reference to embodiments shown in the drawings, but the present invention is not limited to the embodiments shown in the drawings. In the drawings referred to below, the same reference numerals are used for common elements, and the description thereof is omitted as appropriate.

図1は、本発明の実施形態である多視点裸眼立体内視鏡システム100の機能ブロック図を示す。本実施形態の多視点裸眼立体内視鏡システム100は、ステレオカメラ201と、多視点ステレオ画像生成部102と、多視点裸眼立体ディスプレイ300とを含んで構成されている。   FIG. 1 shows a functional block diagram of a multi-view autostereoscopic system 100 according to an embodiment of the present invention. The multi-view autostereoscopic endoscope system 100 according to the present embodiment includes a stereo camera 201, a multi-view stereo image generating unit 102, and a multi-view autostereoscopic display 300.

ステレオカメラ201は、既存の立体内視鏡用カメラとして参照することができる。2つのCCDカメラ(左目用カメラ202・右目用カメラ204)がそれぞれ撮像した対象物の左目用画像および右目用画像は、多視点ステレオ画像生成部102の3Dデータ生成部104に送信される。3Dデータ生成部104においては、受信した左目用画像および右目用画像に基づいて3Dデータが生成される。なお、本発明における3Dデータとは、画素毎に定義される情報であって、奥行値とRGB値を対応付けた情報をいう。   The stereo camera 201 can be referred to as an existing stereoscopic endoscope camera. The left-eye image and the right-eye image of the object captured by the two CCD cameras (the left-eye camera 202 and the right-eye camera 204) are transmitted to the 3D data generation unit 104 of the multi-viewpoint stereo image generation unit 102. The 3D data generation unit 104 generates 3D data based on the received left-eye image and right-eye image. Note that the 3D data in the present invention is information defined for each pixel and refers to information in which a depth value is associated with an RGB value.

レンダリング部106は、3Dデータ生成部104が生成した3Dデータに基づいて、複数の仮想的な視点に対応する複数のステレオ画像をレンダリングする。具体的には、レンダリング部106は、3Dデータに含まれる奥行値に基づいて、実空間上の座標系の対象物(患部)の3次元座標値を計算により取得する。さらに、取得した3次元座標値に基づいて複数の仮想的な視点に対応する複数のステレオ画像をレンダリングし、レンダリングした各画像について適切なピクセル座標を割り当てて集約する。その結果、複数の仮想的な視点に対応する複数のステレオ画像が集約した1枚の多視点ステレオ画像が描画される。レンダリング部106が生成した多視点ステレオ画像は、多視点裸眼立体ディスプレイ300に送信され表示される。   The rendering unit 106 renders a plurality of stereo images corresponding to a plurality of virtual viewpoints based on the 3D data generated by the 3D data generation unit 104. Specifically, the rendering unit 106 obtains the three-dimensional coordinate value of the object (affected part) in the coordinate system in the real space by calculation based on the depth value included in the 3D data. Furthermore, a plurality of stereo images corresponding to a plurality of virtual viewpoints are rendered based on the acquired three-dimensional coordinate values, and appropriate pixel coordinates are assigned to the rendered images and aggregated. As a result, one multi-view stereo image in which a plurality of stereo images corresponding to a plurality of virtual viewpoints are aggregated is rendered. The multi-view stereo image generated by the rendering unit 106 is transmitted to the multi-view autostereoscopic display 300 and displayed.

本実施形態の多視点裸眼立体内視鏡システム100によれば、手術スタッフは専用のメガネを装着する必要がないため、開放的な環境下で施術することができる。また、本システムにおいては、どの方向からディスプレイ300を見た場合でも、実際の対象の奥行きと画像から感受される奥行き感が一致するので、複数の手術スタッフが施術する場合であってもVR酔いになることがない。また、視点を左右上下に少しずつ変えることによって運動視差が得られるため、単一視点の立体映像を観察する場合に比較して、対象物(患部)についてより自然な奥行き感を感受することが可能になる。このことは、施術の精度の向上に少なからず寄与するであろう。   According to the multi-viewpoint autostereoscopic system 100 of the present embodiment, the surgical staff does not need to wear dedicated glasses, and can perform treatment in an open environment. Also, in this system, the actual depth of the subject and the sense of depth perceived from the image coincide with each other when viewing the display 300 from any direction. Never become. In addition, since motion parallax can be obtained by changing the viewpoint little by little from left to right and up and down, it is possible to perceive a more natural sense of depth with respect to the object (affected part) than when observing a single viewpoint stereoscopic image. It becomes possible. This will contribute to the improvement of the accuracy of the treatment.

以上、説明したように、従来の眼鏡式立体内視鏡システムにおいては、対象物(患部)について取得した単一視点のステレオ画像(左目用画像および右目用画像)をそのままの形で交互にディスプレイに表示することによって、単一視点の立体視を実現していたのに対し、本実施形態の多視点裸眼立体内視鏡システム100においては、対象物(患部)について取得した単一視点のステレオ画像から、一旦、計算によって3Dデータを生成した上で、当該3Dデータに基づいて複数の仮想的な視点に対応する複数のステレオ画像を再構築し、当該複数のステレオ画像を集約した1枚の多視点ステレオ画像として表示させることによって、患部の実写映像の多視点裸眼立体視を実現することを特徴とする。   As described above, in a conventional spectacle-type stereoscopic endoscope system, a single viewpoint stereo image (left-eye image and right-eye image) acquired for an object (affected part) is alternately displayed as it is. In the multi-view autostereoscopic system 100 of the present embodiment, the single-view stereo acquired for the object (affected part) is realized. Once 3D data is generated from an image by calculation, a plurality of stereo images corresponding to a plurality of virtual viewpoints are reconstructed based on the 3D data, and one piece of the plurality of stereo images is aggregated. By displaying as a multi-viewpoint stereo image, multi-viewpoint autostereoscopic viewing of a live-action image of the affected area is realized.

ここで、本システムの実用化のためには、まず第1に、複数の仮想的な視点に対応する複数のステレオ画像を再構築する際の根拠となる3Dデータにおける奥行値を高精度に算出する必要がある。誤った奥行値からは正しい奥行き感を反映したステレオ画像を再現できず、結果的に患部の観察精度が低下するからである。第2に、患部の実写動画をリアルタイムで表示する必要があるため、奥行値の算出処理速度のリアルタイム性を担保しなければならない。本発明においては、上述した2つの課題をクリアするための手段が3Dデータ生成部104の奥行値算出部108に実装される。以下、本実施形態の多視点裸眼立体内視鏡システム100における特徴的な構成である奥行値算出部108の構成について、順を追って詳細に説明する。   Here, in order to put this system into practical use, first of all, the depth value in 3D data, which is the basis for reconstructing a plurality of stereo images corresponding to a plurality of virtual viewpoints, is calculated with high accuracy. There is a need to. This is because an erroneous depth value cannot reproduce a stereo image that reflects the correct sense of depth, resulting in a decrease in observation accuracy of the affected area. Secondly, since it is necessary to display a live-action moving image of the affected part in real time, it is necessary to ensure the real-time property of the depth value calculation processing speed. In the present invention, means for clearing the above two problems is implemented in the depth value calculation unit 108 of the 3D data generation unit 104. Hereinafter, the configuration of the depth value calculation unit 108, which is a characteristic configuration of the multi-viewpoint autostereoscopic system 100 according to the present embodiment, will be described in detail step by step.

本実施形態における奥行値算出部108の説明に入る前に、ステレオ画像から奥行値を取得する際に用いるステレオ視計測の基本原理を説明しておく。なお、以降の説明において、上述した「左目用カメラ」および「右目用カメラ」を「主カメラ」および「副カメラ」として参照する。図2は、ステレオ視計測の基本原理を説明するための概念図である。図2においては、実空間上の座標系(ワールド座標系)の3次元座標(x,y,z)に対して、主カメラ画像上の2次元座標(i,h)および副カメラ画像上の2次元座標(j,h)が定義されており、カメラをピンホールカメラとしてモデル化したうえで、主カメラの焦点をP、副カメラの焦点をP’、両カメラの焦点間の距離(基線長)をb、焦点からスクリーン(各カメラ画像)までの距離(焦点距離)をfとして示している。なお、焦点距離fは、カメラをピンホールカメラとしてモデル化した場合に適切な値となるように、事前のカメラ校正で求めておく。   Prior to the description of the depth value calculation unit 108 in the present embodiment, the basic principle of stereo vision measurement used when acquiring a depth value from a stereo image will be described. In the following description, the aforementioned “left-eye camera” and “right-eye camera” are referred to as “main camera” and “sub-camera”. FIG. 2 is a conceptual diagram for explaining the basic principle of stereo vision measurement. In FIG. 2, the two-dimensional coordinates (i, h) on the main camera image and the sub-camera image are compared with the three-dimensional coordinates (x, y, z) in the coordinate system in the real space (world coordinate system). Two-dimensional coordinates (j, h) are defined. After the camera is modeled as a pinhole camera, the focal point of the main camera is P, the focal point of the secondary camera is P ', and the distance between the focal points of both cameras (baseline) The length (long) is shown as b, and the distance (focal length) from the focus to the screen (each camera image) is shown as f. Note that the focal length f is obtained by prior camera calibration so as to have an appropriate value when the camera is modeled as a pinhole camera.

ここで、図2(a)に示すように、対象物上の任意の点Aの主カメラ画像上の投影点をM,点Aの副カメラ画像上の投影点をSとし、副カメラの焦点P’および副カメラ画像をx軸方向に平行移動して、主カメラの焦点Pおよび主カメラ画像に完全に重ねると、図2(b)に示す位置関係が得られる。ここで、ステレオ視計測における視差は、主カメラ画像上の投影点M(i,h)と副カメラ画像上の投影点S(j,h)の離間距離(i-j)として求めることができる。ここで、図2(b)に示す三角形PAA’と三角形PSMは相似の関係にあるので、下記式(1)が成立する。   Here, as shown in FIG. 2A, the projection point on the main camera image of an arbitrary point A on the object is M, the projection point on the sub camera image of point A is S, and the focus of the sub camera. When P ′ and the sub camera image are translated in the x-axis direction and completely overlapped with the focal point P of the main camera and the main camera image, the positional relationship shown in FIG. 2B is obtained. Here, the parallax in stereo vision measurement can be obtained as a separation distance (i−j) between the projection point M (i, h) on the main camera image and the projection point S (j, h) on the sub camera image. Here, since the triangle PAA ′ and the triangle PSM shown in FIG. 2B are similar to each other, the following expression (1) is established.

上記式(1)を変形すると、下記式(2)が得られる。   When the above formula (1) is modified, the following formula (2) is obtained.

上記式(2)によれば、視差(i-j)を求めることによって、対象物上の任意の点Aまでの距離Z(すなわち、奥行値)を導出できることが理解され、その結果、奥行値の算出処理の速度が視差(i-j)の算出処理の速度に依存することが理解されるであろう。ここで、カメラの取得画像がRGBデジタル画像である場合、投影点Mおよび投影点Sは、RGBデジタル画像の画素Mおよび画素Sに置き換えることができるので、視差(i-j)の算出処理は、実質的に、画素Mおよび画素Sの座標値を求める処理と等価であるということができる。   According to the above formula (2), it is understood that the distance Z (that is, the depth value) to an arbitrary point A on the object can be derived by obtaining the parallax (ij), and as a result, the depth value is calculated. It will be understood that the speed of the process depends on the speed of the parallax (ij) calculation process. Here, when the acquired image of the camera is an RGB digital image, the projection point M and the projection point S can be replaced with the pixel M and the pixel S of the RGB digital image. In particular, it can be said that this is equivalent to the process of obtaining the coordinate values of the pixel M and the pixel S.

図3(a)は、対象物を撮像した際の主カメラ画像および副カメラ画像を示す。ステレオ視計測装置においては、主カメラおよび副カメラが平行等位に配置されているので、主カメラ画像上の画素(以下、主画素という)に対応する副カメラ画像上の画素(以下、副画素という)は、同じ高さにある走査線上に存在するはずである。したがって、対象物上の任意の点に対応する主カメラ画像上の画素Mおよび副カメラ画像上の画素Sの正しい組み合わせを取得することは、図3(b)に示すように、同じ高さの(すなわち、h座標値が等しい)走査線上の2つの画素群のマッチング問題(いわゆるステレオマッチング)に帰着することが理解されるであろう。   FIG. 3A shows a main camera image and a sub camera image when an object is imaged. In the stereo vision measuring device, the main camera and the sub camera are arranged in parallel equiposition, so that the pixel on the sub camera image (hereinafter referred to as the sub pixel) corresponding to the pixel on the main camera image (hereinafter referred to as the main pixel). ) Should be on a scan line at the same height. Therefore, obtaining the correct combination of the pixel M on the main camera image and the pixel S on the sub camera image corresponding to an arbitrary point on the object is the same height as shown in FIG. It will be understood that this results in a matching problem (so-called stereo matching) of two groups of pixels on the scan line (ie h coordinate values are equal).

図4(a)は、図3(b)に示した主カメラ走査線と副カメラ走査線との間でステレオマッチングを行った結果を示す。図4(a)においては、主画素と副画素のマッチング結果を矢線で示している。   FIG. 4A shows the result of stereo matching between the main camera scanning line and the sub camera scanning line shown in FIG. In FIG. 4A, the matching result of the main pixel and the sub-pixel is indicated by an arrow line.

また、図4(b)は、主カメラ走査線上の画素群と副カメラ走査線上の画素群の間のマッチング問題を解くためのマトリックスを示す。マトリックスの縦軸および横軸は、それぞれ、副カメラ画像のj座標軸および主カメラ画像のi座標軸に対応しており、マトリックスの各交点は、主画素と副画素の組に対応している。   FIG. 4B shows a matrix for solving a matching problem between a pixel group on the main camera scanning line and a pixel group on the sub camera scanning line. The vertical axis and horizontal axis of the matrix correspond to the j coordinate axis of the sub camera image and the i coordinate axis of the main camera image, respectively, and each intersection of the matrix corresponds to a set of main pixels and sub pixels.

マトリックスの各交点には、マッチングにおけるコストとして、当該交点に対応する主画素と副画素の間の輝度値の差の絶対値(以下、輝度距離という)が付与されている。ここで、同一の対象点Aが写り込んだ正しい画素の組み合わせ(すなわち、画素Mおよび画素S)は、輝度値の差が最も小さい画素の組み合わせと考えることができる。したがって、上述したマッチング問題は、図4(b)に示したマトリックスにおいて、左下の始点から右上の終点に至るパスのうち、パス上の各交点に付与されたコスト(輝度距離)の総和が最も小さくなる最適パスの探索問題に置き換えることができる。この探索問題は、以下の理由により、動的計画法に基づくステレオマッチング(以下、DPマッチングという)によって処理することができる。   Each intersection of the matrix is given an absolute value of a difference in luminance value between the main pixel and the sub-pixel corresponding to the intersection (hereinafter referred to as luminance distance) as a cost for matching. Here, a correct pixel combination (that is, the pixel M and the pixel S) in which the same target point A is reflected can be considered as a pixel combination having the smallest difference in luminance values. Therefore, in the above-described matching problem, in the matrix shown in FIG. 4B, among the paths from the lower left start point to the upper right end point, the sum of the costs (luminance distance) given to each intersection point on the path is the highest. It can be replaced by a search problem of a smaller optimal path. This search problem can be handled by stereo matching based on dynamic programming (hereinafter referred to as DP matching) for the following reasons.

すなわち、図4(a)に示されるように、仮に、画素Mと画素Sを正しい組み合わせとすれば、その余の正しい組み合わせにおいて、画素Mよりも左側に存在する画素は、画素Sよりも左側に存在する画素と組み合うはずである。このことを図4(b)に示すマトリックスに照らして考えれば、画素Mと画素Sの組み合わせの直前の正しい組み合わせ(交点)は、必ず画素Mと画素Sの交点から見て、左、下、斜め左下の3つのうちのいずれかに存在することを意味する。つまり、画素Mと画素Sの正しい組み合わせに至るまでの最適な組み合わせの列として、画素Mと画素Sの交点から見て、左、下、斜め左下の3つの各交点に至る3つの組み合わせの列の中から最適なものを選べばよいことになる。   That is, as shown in FIG. 4A, if the pixel M and the pixel S are correctly combined, the pixel existing on the left side of the pixel M in the other correct combination is on the left side of the pixel S. Should be combined with the pixels present in. Considering this in the light of the matrix shown in FIG. 4B, the correct combination (intersection) immediately before the combination of the pixel M and the pixel S is always left, below, It means that it exists in one of the three diagonally lower left. In other words, as a column of the optimum combination up to the correct combination of the pixel M and the pixel S, as viewed from the intersection of the pixel M and the pixel S, a column of three combinations reaching the three intersections of left, lower, and diagonally lower left Choose the best one from the list.

図4(b)に示すマトリックスを用いたDPマッチングにおいて、マトリックスの交点(i,j)に至る最適パスの総コストD(i,j)は、下記式(3)で表すことができる。なお、下記式(3)において、d(i,j)は、マトリックスの交点(i,j)に付与された輝度距離(コスト)を示し、D(i-1,j)、D(i-1,j-1)、D(i,j-1)は、交点(i,j)の直前の交点(i-1,j)、交点(i-1,j-1)、交点(i,j-1)に至るそれぞれの最適パスの総コストを示し、λは、斜めの経路を選択する重み係数を示す。   In DP matching using the matrix shown in FIG. 4B, the total cost D (i, j) of the optimum path reaching the matrix intersection (i, j) can be expressed by the following equation (3). In the following formula (3), d (i, j) represents the luminance distance (cost) given to the intersection (i, j) of the matrix, and D (i-1, j), D (i− 1, j-1) and D (i, j-1) are the intersection (i-1, j), intersection (i-1, j-1), intersection (i, j-1) just before the intersection (i, j) j-1) represents the total cost of each optimum path, and λ represents a weighting factor for selecting an oblique route.

DPマッチングにおいては、図4(c)に示すように、直前に求められたD(i-1,j)、D(i-1,j-1)、D(i,j-1)と、d(i,j)と、重み係数λを上記式(3)に代入し、最小値minを与えるものを最適パスとして選択するといった処理を図4(b)に示すマトリックスの始点から終点に至るまで繰り返すことによって、始点から終点に至るパスのうち、パス上の各交点に付与されたコスト(輝度距離)の総和が最も小さくなる最適パスを決定することができる。   In DP matching, as shown in FIG. 4 (c), D (i-1, j), D (i-1, j-1), D (i, j-1) obtained immediately before, The process of substituting d (i, j) and the weighting factor λ into the above equation (3) and selecting the one that gives the minimum value min as the optimum path reaches from the start point to the end point of the matrix shown in FIG. By repeating the above, it is possible to determine the optimum path that minimizes the sum of the costs (luminance distance) given to each intersection on the path among the paths from the start point to the end point.

以上、DPマッチングを用いたステレオ視計測の原理について説明してきたが、次に、本実施形態の多視点裸眼立体内視鏡システム100における奥行値算出部108が備える特徴的な構成について説明する。本実施形態における奥行値算出部108の特徴は、上述した従来のステレオ視計測におけるDPマッチング方法を改良した新規なDPマッチング方法を採用する点にある。すなわち、本実施形態における新規なDPマッチング方法においては、まず第1に、正解率の向上のために、DPマッチングにおけるコストを新たに定義する。第2に、DPマッチングの正解率の向上のために、斜め経路選択の重み係数λを適応的に決定する構成を採用する。さらに、本実施形態における奥行値算出部108は、第3に、処理の高速化のために、マッチング処理の省略化のための構成を採用する。以下、上述した第1〜第3の各内容につき、順を追って詳細に説明する。   The principle of stereo vision measurement using DP matching has been described above. Next, a characteristic configuration included in the depth value calculation unit 108 in the multi-viewpoint autostereoscopic system 100 of the present embodiment will be described. The feature of the depth value calculation unit 108 in the present embodiment is that a new DP matching method obtained by improving the DP matching method in the conventional stereo vision measurement described above is employed. That is, in the new DP matching method in the present embodiment, first, a cost for DP matching is newly defined in order to improve the accuracy rate. Second, in order to improve the DP matching accuracy rate, a configuration is adopted in which the weighting factor λ for diagonal path selection is adaptively determined. Furthermore, the depth value calculation unit 108 in the present embodiment thirdly employs a configuration for omitting the matching process in order to speed up the process. Hereinafter, the first to third contents described above will be described in detail in order.

(DPマッチングにおける新たなコスト定義の導入について)
従来のステレオ視計測におけるDPマッチングにおいては、図5(a)に示すように、注目する主画素(i,h)の輝度値m(i,h)と、これと照合する副画素(j,h)の輝度値s(j,h)の差の絶対値を輝度距離d(i,j)とし、この輝度距離d(i,j)をDPマッチングにおけるコストとして定義するものであった。しかしながら、このような単一の画素についての輝度距離をコストとする方法では、ノイズの影響を大きく受けざるを得ず、このことがマッチング正解率を低下させていた。さらに、単一の画素についての輝度距離をコストとする方法では、走査線上に同じ色(すなわち、同じ輝度値)の画素が続く領域において曖昧さを排除することができず、マッチング正解率の向上に限界があった。この点について、図5(b)を参照して説明する。
(About introduction of new cost definition in DP matching)
In DP matching in the conventional stereo vision measurement, as shown in FIG. 5A, the luminance value m (i, h) of the main pixel (i, h) of interest and the sub-pixel (j, The absolute value of the difference between the luminance values s (j, h) of h) is defined as the luminance distance d (i, j), and this luminance distance d (i, j) is defined as the cost in DP matching. However, in such a method that uses the luminance distance for a single pixel as a cost, it is inevitably affected by noise, and this reduces the matching accuracy rate. Furthermore, in the method that uses the luminance distance for a single pixel as a cost, ambiguity cannot be eliminated in a region where pixels of the same color (that is, the same luminance value) continue on the scanning line, and the matching accuracy rate is improved. There was a limit. This point will be described with reference to FIG.

図5(b)は、単一の画素の輝度距離に基づくマッチングを示す。ここで、副カメラ画像上の画素(ロ)および画素(ハ)の輝度値が等しい場合、主カメラ画像の注目画素(イ)と副カメラ画像上の画素(ロ)の輝度距離は、主カメラ画像の注目画素(イ)と副カメラ画像上の画素(ハ)の輝度距離と等しくなって曖昧さが残る。このような従来法の問題点につき、本発明は、注目画素を含む複数の画素の輝度値を利用してコストを定義することによってこれを解決する。以下、この点について、図6を参照して説明する。   FIG. 5B shows matching based on the luminance distance of a single pixel. Here, when the luminance values of the pixel (b) and the pixel (c) on the sub camera image are equal, the luminance distance between the target pixel (b) of the main camera image and the pixel (b) on the sub camera image is the main camera. The ambiguity remains because it is equal to the luminance distance between the target pixel (A) of the image and the pixel (C) on the sub camera image. With respect to the problems of the conventional method, the present invention solves this by defining the cost using the luminance values of a plurality of pixels including the pixel of interest. Hereinafter, this point will be described with reference to FIG.

本発明においては、注目画素を含んで縦方向(h軸方向)に連続する複数の画素を輝度値取得領域として定義する。具体的には、図6(a)の左側に太線で囲んで示すように、注目する主画素(i,h)を基準(0)として、走査線に対して垂直なh座標軸の正方向ε番目の画素を上端画素とし、h座標軸の負方向ε番目(εは負の値とする)の画素を下端画素とする画素群を特定し、これらを輝度値取得領域Gとして定義する。同様に、マッチング対象となる副画素(j,h)を基準(0)として、h座標軸の正方向にε番目の画素を上端画素とし、h座標軸の負方向にε番目の画素を下端画素とする画素群を特定し、これらを輝度値取得領域Gとして定義する。すなわち、輝度値取得領域Gは輝度値取得領域Gと同じ大きさに定義される。 In the present invention, a plurality of pixels including the target pixel and continuing in the vertical direction (h-axis direction) are defined as the luminance value acquisition region. Specifically, as indicated by a thick line on the left side of FIG. 6A, the positive direction ε of the h coordinate axis perpendicular to the scanning line with the main pixel (i, h) of interest as the reference (0) A pixel group having a U- th pixel as an upper end pixel and a negative direction ε L- th pixel (ε L is a negative value) in the h coordinate axis is specified as a lower end pixel, and these are defined as a luminance value acquisition region G m To do. Similarly, with the sub-pixel (j, h) to be matched as a reference (0), the ε U- th pixel in the positive direction of the h coordinate axis is the top pixel, and the ε L- th pixel is in the negative direction of the h coordinate axis identify the group of pixels as a pixel, it defines them as luminance value acquisition region G s. That is, the luminance value acquisition region G s is defined to have the same size as the luminance value acquisition region G m .

本発明においては、輝度値取得領域Gに含まれる各画素について算出した輝度距離の平均値を領域平均輝度距離dAVE.とし、この領域平均輝度距離dAVE.をDPマッチングにおけるコストとして定義する。領域平均輝度距離dAVE.を下記式(4)に示す。なお、下記式(4)において、εはh座標の加算値を示し、Nは輝度値取得領域Gを構成する画素数(ε−ε+1)を示し、mは主画素の輝度値を示し、sは副画素の輝度値を示す。 In the present invention, the average value of the luminance range calculated for each pixel included in the luminance value acquisition region G m and area average luminance distance d AVE., To define this area average luminance distance d AVE. As the cost in DP matching . The area average luminance distance d AVE. Is shown in the following formula (4). In the following formula (4), ε represents the added value of the h coordinate, N represents the number of pixels constituting the luminance value acquisition region G (ε U −ε L + 1), and m represents the luminance value of the main pixel. S indicates the luminance value of the sub-pixel.

本発明がDPマッチングにおけるコストとして領域平均輝度距離dAVE.を採用することには以下の利点がある。まず第1に、本発明は、注目画素に対して当該注目画素を含む複数の画素について算出した輝度距離の平均値を値として持たせる構成を採用するので、仮に、左右のカメラの受光量の差異やCCD素子の感度の違いに起因するノイズが当該注目画素に含まれていたとしても、輝度距離の平均化によってノイズの影響が平準化され、その結果、ノイズに起因するマッチング正解率の低下が抑止される。第2に、領域平均輝度距離dAVEを求める際の輝度値取得領域Gを規定するεおよびεの値は、対象の形状に応じて動的に決定されるため、このような領域平均輝度距離dAVEを用いたマッチングは、実質的に、注目画素近傍の空間情報を利用するものとなり、その結果、単一画素を用いる場合に比較してマッチング正解率が格段に向上する。以下、この点について、図6(b)を参照して説明する。 The present invention adopts the area average luminance distance d AVE. As the cost in DP matching has the following advantages. First, the present invention employs a configuration in which an average value of luminance distances calculated for a plurality of pixels including the target pixel is given as a value with respect to the target pixel. Even if noise due to differences or differences in sensitivity of CCD elements is included in the pixel of interest, the influence of noise is leveled by averaging the luminance distance, and as a result, the matching accuracy rate is reduced due to noise. Is suppressed. Second, since the values of ε U and ε L that define the luminance value acquisition region G when determining the region average luminance distance d AVE are dynamically determined according to the shape of the object, such a region average The matching using the luminance distance d AVE substantially uses spatial information in the vicinity of the target pixel, and as a result, the matching accuracy rate is significantly improved as compared with the case where a single pixel is used. Hereinafter, this point will be described with reference to FIG.

図6(b)は、領域平均輝度距離dAVEをコストとするマッチングを示す。図6(b)に示す例においては、副画素(ロ)を含む輝度値取得領域Gは、副画素(ロ)の上に副画素(ロ)と色の異なる画素を含んでいるため、注目画素(イ)と副画素(ロ)の領域平均輝度距離dAVEは、注目画素(イ)と副画素(ハ)の領域平均輝度距離dAVEよりも大きくなる。その結果、副カメラ画像の画素(ハ)を正解として選出することが可能になる。なお、図6(b)は、理解の容易のため、輝度値取得領域G内の色が大きく異なる例を示したが、仮に、輝度値取得領域G内の画素の色が同色であったとしても、領域内の画素の輝度値にはある程度の分散が見込めるため、上述した効果を得ることができる。 FIG. 6B shows matching using the area average luminance distance d AVE as a cost. In the example shown in FIG. 6B, the luminance value acquisition region G s including the sub-pixel (b) includes a pixel having a color different from that of the sub-pixel (b) on the sub-pixel (b). The area average luminance distance d AVE between the target pixel (A) and the sub-pixel (B) is larger than the area average luminance distance d AVE between the target pixel (A) and the sub-pixel (C). As a result, it becomes possible to select the pixel (c) of the sub camera image as the correct answer. Incidentally, FIG. 6 (b), for ease of understanding, the color brightness value acquisition region G s showed significantly different example, if the color of the pixel of the luminance value acquisition region G was the same color However, since a certain degree of dispersion can be expected in the luminance values of the pixels in the region, the above-described effect can be obtained.

次に、本発明において、最適な輝度値取得領域Gを動的に設定する構成を採用することによって、マッチング正解率をさらに向上させることができる点について説明する。   Next, in the present invention, a description will be given of the fact that the matching accuracy rate can be further improved by adopting a configuration in which the optimum luminance value acquisition region G is dynamically set.

図7(a)は、2つの対象物を撮像した際の主カメラ画像および副カメラ画像を示す。図7(a)に示す例においては、輝度値取得領域Gの大きさは固定されているものとする。ここで、四角形の対象物が写り込んだ主画素(ア)を注目画素とした場合、輝度値取得領域G内の画素(イ)には、背後の三角形の対象物が写り込む一方で、主画素(イ)に対応する輝度値取得領域G内の副画素(ウ)には、背後の三角形の対象物が写り込まず、背景が写り込むといったことが起こる。このような場合、主画素(ア)と副画素(ア’)の領域平均輝度距離dAVEが大きくなり、その結果、両者の組み合わせが正解として判断されない虞が生じる。つまり、輝度値取得領域Gの大きさの設定如何によっては、返ってノイズを拾ってしまうことになり、マッチング正解率を低下させてしまうことになりかねない。この点につき、本発明は、図7(b)に概念的に示すように、主カメラ画像に写り込んだ対象物のエッジを基準にして、当該エッジにまたがって延在しないような輝度値取得領域Gを動的に設定することによって、ノイズを拾うことを防止してマッチング正解率を向上させる。以下、輝度値取得領域Gの動的設定について詳細に説明する。 FIG. 7A shows a main camera image and a sub camera image when two objects are imaged. In the example shown in FIG. 7 (a), the magnitude of the luminance value acquisition region G m is assumed to be fixed. Here, when the main pixels fancy-through is the object of the quadrangular (a) the target pixel, the pixel (i) of the luminance value acquisition region G m, while the object behind the triangle bleeds through, the sub-pixels in the luminance value acquisition region G s corresponding to the main pixel (i) (c) is not incorporated-through is the object behind the triangle, it happens such background visible on captured. In such a case, the area average luminance distance d AVE of the main pixel (A) and the sub-pixel (A ′) becomes large, and as a result, there is a possibility that the combination of both is not determined as the correct answer. That is, depending on the settings how the magnitude of the luminance value acquisition region G m, will be noise pickup returned, it could lead to thereby reduce the matching accuracy rate. In this regard, as conceptually shown in FIG. 7B, the present invention obtains a luminance value that does not extend across the edge of the object reflected in the main camera image as a reference. by dynamically setting the region G m, it is possible to prevent noise pickup improve matching accuracy rate. Hereinafter, dynamic setting of the luminance value acquisition region G will be described in detail.

本発明において、輝度値取得領域Gを設定することは、すなわち、輝度値取得領域Gの上端画素および下端画素を決定することと同義である。以下、輝度値取得領域Gの上端画素を決定する場合を例にとって説明する。本発明においては、注目画素(i,h)から見てh座標軸上方向のエッジ領域上にある画素を上端画素として決定する。注目画素(i,h)から見て、h座標軸上方向に存在する画素およびエッジ領域上が図8(a)に示されるような態様である場合、エッジ領域上の画素であって、注目画素(i,h)から見て色が大きく変化しない最上位の画素(i,h+3)が上端画素として決定される。また、注目画素(i,h)から見てh座標軸上方向に存在する画素およびエッジ領域上が図8(b)に示されるような態様である場合、色の変化よりもエッジが優先され、エッジ領域内の最上位の画素(i,h+4)が上端画素として決定される。なお、図8(c)に示すように、注目画素(i,h)近傍にエッジ領域が存在しない場合には、予め定められた最大画素数E(h座標の最大加算値E)をもって上端画素を決定する。図8(c)に示す例においては、E=5と定められているので、画素(i,h+5)が上端画素として決定される。   In the present invention, setting the luminance value acquisition region G is synonymous with determining the upper end pixel and the lower end pixel of the luminance value acquisition region G. Hereinafter, a case where the upper end pixel of the luminance value acquisition region G is determined will be described as an example. In the present invention, the pixel located on the edge region in the upper direction of the h coordinate axis when viewed from the target pixel (i, h) is determined as the upper end pixel. When the pixel existing on the h coordinate axis and the edge region are as shown in FIG. 8A when viewed from the pixel of interest (i, h), the pixel on the edge region is the pixel of interest. The highest pixel (i, h + 3) whose color does not change greatly as viewed from (i, h) is determined as the upper end pixel. In addition, when the pixel existing on the h coordinate axis as viewed from the target pixel (i, h) and the edge region are in the form as shown in FIG. 8B, the edge has priority over the color change, The uppermost pixel (i, h + 4) in the edge region is determined as the upper end pixel. As shown in FIG. 8C, when there is no edge region in the vicinity of the target pixel (i, h), the upper end pixel has a predetermined maximum number of pixels E (maximum addition value E of h coordinates). To decide. In the example shown in FIG. 8C, since E = 5, the pixel (i, h + 5) is determined as the upper end pixel.

上述した輝度値取得領域Gの上端画素を決定する処理を図9に示したフローチャートに基づいて説明する。まず、注目する主画素の座標値(i,h)をセットし(ステップ101)、h座標の加算値εを「1」とする(ステップ102)。次に、画素(i,h+ε)がエッジ領域上にあるか否かを判断する(ステップ103)。ここで、画素(i,h+ε)がエッジ領域上にあるか否かの判断は、以下の手順で実行することができる。   The process of determining the upper end pixel of the luminance value acquisition region G will be described based on the flowchart shown in FIG. First, the coordinate value (i, h) of the main pixel of interest is set (step 101), and the addition value ε of the h coordinate is set to “1” (step 102). Next, it is determined whether or not the pixel (i, h + ε) is on the edge region (step 103). Here, the determination of whether or not the pixel (i, h + ε) is on the edge region can be executed by the following procedure.

まず、画素(i,h+ε)を基準として、下記式(5)に示す、i軸方向の輝度変化量ηおよびh軸方向の輝度変化量ζをSobelフィルタを用いて求める。なお、下記式(5)において、mは主画素の輝度値を示す。   First, with the pixel (i, h + ε) as a reference, the luminance change amount η in the i-axis direction and the luminance change amount ζ in the h-axis direction shown in the following equation (5) are obtained using a Sobel filter. In the following formula (5), m represents the luminance value of the main pixel.

次に、画素(i,h+ε)について求めたηおよびζを下記式(6)に代入して求まる値を画素(i,h+ε)における輝度変化量kとし、輝度変化量kが予め定めた閾値Keを超える場合に、当該画素(i,h+ε)がエッジ領域上にあると判断する。
Next, a value obtained by substituting η and ζ obtained for the pixel (i, h + ε) into the following equation (6) is a luminance change amount k in the pixel (i, h + ε), and the luminance change amount k is When the predetermined threshold value Ke is exceeded, it is determined that the pixel (i, h + ε) is on the edge region.

画素(i,h+ε)がエッジ領域上にあると判断される場合には(ステップ103,Yes)、ステップ104に進んでエッジフラグfeを立てた後に、注目画素(i,h)の輝度値m(i,h)と画素(i,h+ε)の輝度値の差の絶対値(輝度距離)が予め定めた閾値KCを超えるか否かを判断する(ステップ105)。輝度距離が閾値KCを超えない場合には(ステップ105,No)、ステップ106に進んでh座標の加算値εを「1」インクリメントした後に、加算値εが予め定められたh座標の最大加算値E(最大画素数E)を超えたか否かが判断される(ステップ107)。加算値εが最大加算値Eを超えている場合(ステップ107,Yes)、画素(i,h+E)を上端画素として定義して処理を終了する(ステップ108)。 When it is determined that the pixel (i, h + ε) is on the edge region (step 103, Yes), after proceeding to step 104 and setting the edge flag fe , the pixel (i, h) of the pixel of interest It is determined whether or not the absolute value (luminance distance) of the difference between the luminance value m (i, h) and the luminance value of the pixel (i, h + ε) exceeds a predetermined threshold value K C (step 105). If the luminance distance does not exceed the threshold value K C (No at Step 105), the process proceeds to Step 106, where the addition value ε of the h coordinate is incremented by “1”, and then the addition value ε is the maximum of the predetermined h coordinate. It is determined whether or not the added value E (maximum number of pixels E) has been exceeded (step 107). When the addition value ε exceeds the maximum addition value E (step 107, Yes), the pixel (i, h + E) is defined as the upper end pixel, and the process ends (step 108).

加算値εが最大加算値Eを超えていない場合(ステップ107,No)、ステップ103に戻り、前回判断した画素の一つ上の画素(i,h+ε)がエッジ領域上にあるか否かを判断する。以降、ステップ104→ステップ105→ステップ106→ステップ107→ステップ103の処理が繰り返されるごとに、判断対象となる画素のh座標が1ずつ繰り上がる。   When the addition value ε does not exceed the maximum addition value E (No at Step 107), the process returns to Step 103, and whether or not the pixel (i, h + ε) that is one pixel above the previously determined pixel is on the edge region. Determine whether. Thereafter, each time the process of Step 104 → Step 105 → Step 106 → Step 107 → Step 103 is repeated, the h coordinate of the pixel to be determined is incremented by one.

その間、ステップ105において、輝度距離が閾値KCを超えた場合には(ステップ105,Yes)、現在の画素(i,h+ε)の1つ手前の画素(i,h+ε-1)を上端画素として定義し(ステップ109)、処理を終了する。一方、画素(i,h+ε)がエッジ領域上に無い場合には(ステップ103,No)、エッジフラグが立っているか否かを判断する(ステップ110)。エッジフラグが立っている場合(ステップ110,Yes)、エッジ領域を超えたと判断し、現在の画素(i,h+ε)の1つ手前の画素(i,h+ε-1)を上端画素として定義して処理を終了する(ステップ109)。エッジフラグが立っていない場合(ステップ110,No)、ステップ106に進んで、先に説明したようにh座標の加算値εが「1」インクリメントされ、以降の処理が繰り返される。 Meanwhile, if the luminance distance exceeds the threshold value K C in step 105 (step 105, Yes), the pixel (i, h + ε-1) immediately before the current pixel (i, h + ε). Is defined as the top pixel (step 109), and the process is terminated. On the other hand, when the pixel (i, h + ε) is not on the edge region (No in Step 103), it is determined whether or not an edge flag is set (Step 110). If the edge flag is set (step 110, Yes), it is determined that the edge region has been exceeded, and the pixel (i, h + ε-1) immediately before the current pixel (i, h + ε) is set as the upper end pixel. And the process ends (step 109). When the edge flag is not raised (No at Step 110), the process proceeds to Step 106, where the added value ε of the h coordinate is incremented by “1” as described above, and the subsequent processing is repeated.

本発明においては、上述したのと同様の手順で輝度値取得領域Gの下端画素を決定した上で、上端画素から下端画素に至る複数の画素群を輝度値取得領域Gとして動的に設定する。以上、本発明におけるDPマッチングのコストについて説明してきたが、本発明においては、領域平均輝度距離dAVE.をマッチングコストとする構成に代えて、領域平均輝度距離dAVE.の累乗根をマッチングコストとする構成を採用することによって、マッチング正解率をさらに向上させることができる。以下、この点について説明する。なお、以下の説明において、単一の画素について言及する部分は、輝度値取得領域Gについて言及するものとして置き換えて参照されたい。 In the present invention, after determining the lower end pixel of the luminance value acquisition region G in the same procedure as described above, a plurality of pixel groups from the upper end pixel to the lower end pixel are dynamically set as the luminance value acquisition region G. . Having thus described the cost of the DP matching in the present invention, in the present invention, instead of the area average luminance distance d AVE. In configuration to matching cost, matching power root of area average luminance distance d AVE. Cost By adopting the configuration, the matching accuracy rate can be further improved. Hereinafter, this point will be described. In the following description, the part referring to a single pixel should be referred to as referring to the luminance value acquisition region G.

図10(a)は、色の異なる3つの対象物を撮像した際の主カメラ画像および副カメラ画像を示す。図10(a)に示す例においては、主カメラ画像には、赤色、緑色、および黄色の3つの対象物が写っているが、副カメラ画像においては、赤色の対象物が緑色の対象物の背後に隠れてしまっている。この場合、赤色の対象物が写り込んだ主画素(ア)を注目画素としたマッチングにおいては、副カメラ画像の走査線上に正解は存在せず、誤った組み合わせを決定せざるを得ない。すなわち、ステレオ視計測におけるDPマッチングは、その原理上、不適切なマッチングを完全に排除することはできないのである。   FIG. 10A shows a main camera image and a sub camera image when three objects having different colors are imaged. In the example shown in FIG. 10A, the main camera image includes three objects, red, green, and yellow. In the sub camera image, the red object is a green object. It is hidden behind. In this case, in the matching using the main pixel (A) in which the red object is reflected as the target pixel, there is no correct answer on the scanning line of the sub camera image, and an incorrect combination must be determined. In other words, DP matching in stereo vision measurement cannot completely eliminate inappropriate matching in principle.

このような場合、副カメラ画像の走査線上にある全ての副画素は、マッチングコストの観点から見て等価であることが望ましいが実際にはそうはならない。なぜならば、RGBデジタル画像の画素の輝度値は、R値、G値、B値からなる3次元ベクトル情報であるため、特に、補色の関係にある色の組み合わせの場合、各値の差分の総和である輝度距離が大きくなるからである。   In such a case, it is desirable that all the sub-pixels on the scanning line of the sub-camera image are equivalent from the viewpoint of matching cost, but this is not the case. This is because the luminance value of the pixel of the RGB digital image is three-dimensional vector information consisting of the R value, G value, and B value, and in particular, in the case of a combination of colors having a complementary color relationship, the sum of the differences between the values. This is because the luminance distance is larger.

たとえば、赤色の対象物上の主画素(ア)の輝度値は、[R=255,G=0,B=0]であり、緑色の対象物上の副画素(イ)の輝度値は、[R=0,G=255,B=0]であり、黄色の対象物上の副画素(ウ)の輝度値は、[R=255,G=255,B=0]である。その結果、主画素(ア)と副画素(イ)の組に付与されるコスト(輝度距離=510)が主画素(ア)と副画素(ウ)の組に付与されるコスト(輝度距離=255)の2倍になるといったことが生じる。このような大きな色の違いに起因して生じるコストの大きな差は、最適パスの探索に悪影響を及ぼす場合がある。   For example, the luminance value of the main pixel (A) on the red object is [R = 255, G = 0, B = 0], and the luminance value of the sub-pixel (A) on the green object is [R = 0, G = 255, B = 0], and the luminance value of the sub-pixel (c) on the yellow object is [R = 255, G = 255, B = 0]. As a result, the cost (luminance distance = 510) given to the set of the main pixel (a) and the sub-pixel (b) is given to the cost (luminance distance = 510) given to the set of the main pixel (a) and the sub-pixel (c). 255). A large difference in cost caused by such a large color difference may adversely affect the search for the optimum path.

ここで、説明の便宜上、10個の画素からなる画素群のマッチングを想定する。第1のパスにおいては、10組の画素組のうち、7組の画素組が正解(コスト=1)であり、残りの3組の画素組が誤った組み合わせであって、誤った組み合わせのコストがそれぞれ「10」であったとする。一方、第2のパスにおいては、10組の画素組のうち、9組の画素組が正解(コスト=1)であり、残りの1組の画素組が誤った組み合わせであって、この誤った組み合わせに大きな色の違いがあったため、そのコストが「50」であったとする。この例の場合、第1のパスのコストの総和は「59」となり、第2のパスのコストの総和は「37」となる。その結果、正答率の高い第2のパスではなく、正答率の低い第1のパスが最適マッチングとして決定されるといったことが生じる。   Here, for convenience of explanation, it is assumed that a pixel group consisting of 10 pixels is matched. In the first pass, out of 10 pixel groups, 7 pixel groups are correct (cost = 1), the remaining 3 pixel groups are incorrect combinations, and the cost of the incorrect combination is the same. Are each “10”. On the other hand, in the second pass, out of 10 pixel groups, 9 pixel groups are correct (cost = 1), and the remaining 1 pixel group is an incorrect combination. It is assumed that the cost is “50” because there is a large color difference in the combination. In this example, the total cost of the first path is “59”, and the total cost of the second path is “37”. As a result, not the second path with a high correct answer rate but the first path with a low correct answer rate may be determined as the optimum matching.

上述した問題点につき、本発明においては、先に説明した領域平均輝度距離dAVE.の累乗根をDPマッチングにおけるコストとして定義する。下記式(7)にコストc(i,j)を示す。なお、下記式(7)において、根rは固定値であり、適切な値を設定する。たとえば、本発明においては、根r=512〜1024とすることができる。 Regarding the above-described problems, in the present invention, the power root of the area average luminance distance d AVE. Described above is defined as the cost in DP matching. The cost c (i, j) is shown in the following formula (7). In the following formula (7), the root r is a fixed value, and an appropriate value is set. For example, in the present invention, the root r can be 512 to 1024.

図10(b)は、領域平均輝度距離dAVE.とコストc(i,j)の関係を示す図である。図10(b)に示されるように、領域平均輝度距離dAVE.をそのままコストc(i,j)として定義する場合には、当然のごとく領域平均輝度距離dAVE.に正比例してコストc(i,j)が増大するが、領域平均輝度距離dAVE.の累乗根をコストc(i,j)として定義する場合には、領域平均輝度距離dAVE.の値が小さい範囲においては、領域平均輝度距離dAVE.の増加に応じてコストc(i,j)が増大するが、領域平均輝度距離dAVE.の値が大きい範囲においては、コストc(i,j)の増加率が徐々に低下する。すなわち、領域平均輝度距離dAVE.の累乗根をDPマッチングにおけるコストとして定義することによって、不適切なマッチングを含むパスの総コストを適切に見積もることが可能になり、その結果、マッチング正解率をさらに向上させることができる。以上、本実施形態における奥行値算出部108が採用するDPマッチングにおけるコストの詳細について説明してきたが、続いて、奥行値算出部108の第2の特徴である、斜め経路選択の重み係数λを適応的に決定する構成について説明する。 FIG. 10B is a diagram showing the relationship between the area average luminance distance d AVE. And the cost c (i, j). As shown in FIG. 10B, when the area average luminance distance d AVE. Is defined as the cost c (i, j) as it is, the cost c is directly proportional to the area average luminance distance d AVE. (i, j) but increases, area average luminance distance d AVE. cost c (i, j) the power roots when defined as, in the area average luminance distance d AVE. value is less range, area average luminance distance d AVE. cost c (i, j) in accordance with an increase in it is increased in the area average luminance distance d AVE. value is large range, the rate of increase in the cost c (i, j) Decrease gradually. That is, by defining the power root of the region average luminance distance d AVE. As the cost in DP matching, it is possible to appropriately estimate the total cost of the path including inappropriate matching, and as a result, the matching accuracy rate is calculated. Further improvement can be achieved. As described above, the details of the cost in DP matching employed by the depth value calculation unit 108 in the present embodiment have been described. Subsequently, the weighting factor λ for oblique path selection, which is the second feature of the depth value calculation unit 108, has been described. A configuration that is adaptively determined will be described.

(斜め経路選択の重み係数λを適応的に決定する構成について)
本発明におけるDPマッチングにおいて、図4(b)に示したマトリックスの交点(i,j)に至る最適パスの総コストC(i,j)は、下記式(8)で表すことができる。なお、下記式(8)において、c(i,j)は、マトリックスの交点(i,j)に付与されたコスト(すなわち、上記式(7)に示した領域平均輝度距離dAVE.の累乗根)を示し、C(i-1,j)、C(i-1,j-1)、C(i,j-1)は、交点(i,j)の直前の交点(i-1,j)、交点(i-1,j-1)、交点(i,j-1)に至るそれぞれの最適パスの総コストを示し、λは、斜めの経路を選択する重み係数を示す。
(Regarding the configuration for adaptively determining the weighting factor λ for oblique route selection)
In the DP matching according to the present invention, the total cost C (i, j) of the optimum path to the intersection (i, j) of the matrix shown in FIG. 4B can be expressed by the following equation (8). In the following equation (8), c (i, j) is the cost given to the intersection (i, j) of the matrix (that is, the power of the area average luminance distance d AVE. Shown in the above equation (7)) . C (i-1, j), C (i-1, j-1), and C (i, j-1) are the intersection points (i-1, j) immediately before the intersection point (i, j). j), the total cost of each optimum path to the intersection (i-1, j-1) and the intersection (i, j-1), and λ represents a weighting factor for selecting an oblique route.

ここで、上記式(8)における斜め経路選択の重み係数λの値を大きく設定すれば、斜めの経路を採り難くなり、重み係数λの値を小さく設定すれば、斜めの経路を採り易くなる。従来のDPマッチングにおいては、この重み係数λを固定値としていたが、本発明においては、この重み係数λをマトリックスの交点(i,j)における領域平均輝度距離dAVE.の大きさに応じて適応的に変化させる。すなわち、本発明においては、上記式(8)における斜め経路選択の重み係数λ(固定値)に代えて、下記式(9)に示す重み係数λ(i,j)を採用する。なお、下記式(9)におけるwは固定値であり、適切な値を設定する。本発明においては、w=0.15〜0.35とすることができる。 Here, if the value of the weighting factor λ for selecting the oblique route in the above equation (8) is set large, it becomes difficult to adopt the oblique route, and if the value of the weighting factor λ is set small, it becomes easy to adopt the oblique route. . In the conventional DP matching, the weighting factor λ is a fixed value. In the present invention, the weighting factor λ is set according to the size of the area average luminance distance d AVE. At the intersection (i, j) of the matrix . Change adaptively. That is, in the present invention, the weighting factor λ (i, j) shown in the following equation (9 ) is employed instead of the weighting factor λ (fixed value) for the oblique path selection in the above equation (8). In the following formula (9), w is a fixed value, and an appropriate value is set. In the present invention, w = 0.15 to 0.35.

DPマッチングにおいては、注目画素に対して適切なマッチング対象が存在しない場合であっても、縦または横の経路を採ることによって、一つの画素に二つ以上の画素を対応させることで適切に処理することができるので、そのための追加的な処理をおこなう必要がない。ここで、パスが斜めの経路を取るか、あるいは、縦または横の経路を取るのかは、重み係数λ(i,j)の値に大きく依存する。したがって、本発明においては、この重み係数λ(i,j)を適応的に変化させることによって、マッチング正解率をさらに向上させるものである。すなわち、本発明においては、マトリックスの交点(i,j)に付与されたコストc(i,j)が大きいほど(つまり、注目画素に対して適切なマッチング対象が存在しない可能性が大きいほど)、重み係数λ(i,j)の値が大きくなるので、パスが縦または横の経路を採りやすくなるように構成されている。以上、斜め経路選択の重み係数λを適応的に決定する構成について説明してきたが、続いて、奥行値算出部108の第3の特徴である、マッチング処理の省略化について説明する。 In DP matching, even when there is no appropriate matching target for the pixel of interest, it is possible to appropriately process two or more pixels by associating one pixel with a vertical or horizontal path. Therefore, there is no need to perform additional processing for that purpose. Here, whether the path takes an oblique path or a vertical or horizontal path largely depends on the value of the weighting factor λ (i, j) . Therefore, in the present invention, the matching accuracy rate is further improved by adaptively changing the weighting factor λ (i, j) . That is, in the present invention, the larger the cost c (i, j) given to the matrix intersection (i, j) (that is, the greater the possibility that there is no appropriate matching target for the pixel of interest). Since the value of the weighting factor λ (i, j) increases, the path is configured to easily take a vertical or horizontal path. The configuration for adaptively determining the weighting coefficient λ for diagonal route selection has been described above. Next, the third feature of the depth value calculation unit 108, that is, the omission of matching processing will be described.

(マッチング処理の省略化について)
先に図3を参照して説明したように、ステレオ視計測におけるDPマッチングは、走査線ごとに独立して行われる。従来のステレオ視計測においては、たとえば、主カメラ画像の縦幅が300ピクセルの場合、全画素の視差を取得するために300回のDPマッチングが必要であった。この点につき、本発明は、視差に変化が無い画素領域が画像のh軸方向に多く存在する点に着目し、視差に変化が無いと推定される画素領域については、既に取得した視差を継承することによって処理量を大幅に削減することで処理時間のリアルタイム性を実現する。以下、その具体的な内容について図11および図12に示すフローチャートに基づいて説明する。
(About omission of matching process)
As described above with reference to FIG. 3, DP matching in stereo vision measurement is performed independently for each scanning line. In conventional stereo vision measurement, for example, when the vertical width of the main camera image is 300 pixels, 300 times of DP matching is necessary to obtain the parallax of all the pixels. In this regard, the present invention pays attention to the fact that there are many pixel areas in which the parallax does not change in the h-axis direction of the image, and the already acquired parallax is inherited for the pixel area that is assumed to have no change in the parallax. As a result, the processing amount is greatly reduced, thereby realizing real-time processing time. The specific contents will be described below based on the flowcharts shown in FIGS.

以下の説明は、図11(a)に示す主カメラ画像を例にとって説明する。なお、図11(a)に示す主カメラ画像は、25本(0〜24)の走査線を有しているものとする。   The following description will be made taking the main camera image shown in FIG. 11A as an example. Note that the main camera image shown in FIG. 11A has 25 (0 to 24) scanning lines.

まず、ステップ201において、一番下の走査線(h座標値=0)について通常のマッチング処理を実行し、画素毎の視差を取得する。視差の取得が完了した走査線は「視差取得済」とマークされる(以下、同様)。その後、ステップ202において、パラメータεが「0」にセットされる。   First, in step 201, a normal matching process is executed for the bottom scanning line (h coordinate value = 0), and parallax for each pixel is acquired. A scanning line for which parallax acquisition has been completed is marked as “parallax acquired” (hereinafter the same). Thereafter, in step 202, the parameter ε is set to “0”.

次に、ステップ203において、視差取得済の走査線(この場合、h座標値=0の走査線)から所定間隔離れた走査線のh座標値(=ε+α)を指定して、当該走査線について通常のマッチング処理を実行し、画素毎の視差を取得する。本発明において、「α」は視差の継承範囲を規定するためのパラメータであり、2の倍数として定義される適切な大きさの固定値であり、図11に示す例においては、α=8に設定されている。したがって、h座標値=ε+α=0+8=8が指定され、h座標値=8の走査線について通常のマッチング処理を実行し視差を取得する。   Next, in step 203, the h coordinate value (= ε + α) of the scanning line that is separated from the scanning line for which the parallax has been acquired (in this case, the scanning line with h coordinate value = 0) is specified, and the scanning is performed. A normal matching process is performed on the line to obtain a parallax for each pixel. In the present invention, “α” is a parameter for defining the inheritance range of parallax, and is a fixed value of an appropriate size defined as a multiple of 2. In the example shown in FIG. 11, α = 8. Is set. Therefore, h coordinate value = ε + α = 0 + 8 = 8 is designated, and a normal matching process is executed for the scanning line with h coordinate value = 8 to obtain parallax.

次に、ステップ204においては、「視差取得済」とマークされた走査線が探索され、その中で隣接する走査線の中間に存在する走査線(以下、中間走査線という)のh座標値を指定する。なお、中間走査線のh座標値は、隣接する走査線のうち上側の走査線のh座標値=hとその下側の走査線のh座標値=hを加算しこれを2で除算することによって求めることができる。この場合、下側の走査線のh座標値=0と上側の走査線のh座標値=8を加算しこれを2で除算して得られる値「4」が中間走査線のh座標値となる。中間走査線(h座標値=4)が指定されると、ステップ205に進み、指定した中間走査線の各画素(i,h)について「視差承継処理」が実行される。以下、図11(b)を参照して、本発明における「視差承継処理」について説明する。 Next, in step 204, a scanning line marked as “parallax has been acquired” is searched, and an h coordinate value of a scanning line (hereinafter referred to as an intermediate scanning line) existing in the middle of adjacent scanning lines is determined. specify. The h coordinate value of the intermediate scanning line is calculated by adding h coordinate value = h U of the upper scanning line and h coordinate value = h L of the lower scanning line of adjacent scanning lines and dividing this by 2. You can ask for it. In this case, h coordinate value = 0 of the lower scanning line and h coordinate value = 8 of the upper scanning line are added and divided by 2 to obtain a value “4” as the h coordinate value of the intermediate scanning line. Become. When the intermediate scanning line (h coordinate value = 4) is designated, the process proceeds to step 205, and “parallax inheritance processing” is executed for each pixel (i, h) of the designated intermediate scanning line. Hereinafter, the “parallax inheritance process” in the present invention will be described with reference to FIG.

「視差承継処理」においては、指定した中間走査線の画素(i,h)と同じi座標値を持つ、上側の走査線上の画素(i,h+n)の視差と下側の走査線上の画素(i,h-n)の視差が比較される。その結果、2つの視差が等しい場合には、中間走査線の画素(i,h)に当該視差を承継させ、2つの視差が異なる場合には、中間走査線の画素(i,h)を「要処理」とマークする。   In the “parallax inheritance process”, the parallax of the pixel (i, h + n) on the upper scanning line having the same i coordinate value as the pixel (i, h) of the designated intermediate scanning line and the lower scanning line The parallax of the pixel (i, h-n) is compared. As a result, when the two parallaxes are equal, the parallax is inherited by the pixel (i, h) of the intermediate scanning line, and when the two parallaxes are different, the pixel (i, h) of the intermediate scanning line is changed to “ Mark "Needs Action".

図11(b)に示す例においては、中間走査線(h座標値=4)の画素(0,4)に着目すると、画素(0,4)と同じi座標を持つ、下側の走査線(h座標値=0)の画素(0,0)の視差(=5)と上側の走査線(h座標値=8)の画素(0,8)の視差(=5)は等しい。この場合、その間に挟まれる画素(0,4)に視差の変化がないと推定し、画素(0,4)に視差=5を承継させる。また、中間走査線の画素(7,4)に着目すると、下側の走査線の画素(7,0)の視差(=4)と上側の走査線の画素(7,8)の視差(=4)は等しいので、同様に、画素(7,4)に視差=5を承継させる。このように、本発明の方法によれば、中間走査線上の一部の領域について、マッチング処理を要することなく視差を取得することができるので、処理量を大幅に削減することができ、その結果、処理速度を格段に高速化することができる。   In the example shown in FIG. 11B, when attention is paid to the pixel (0, 4) of the intermediate scanning line (h coordinate value = 4), the lower scanning line having the same i coordinate as the pixel (0, 4). The parallax (= 5) of the pixel (0,0) at (h coordinate value = 0) is equal to the parallax (= 5) of the pixel (0,8) of the upper scanning line (h coordinate value = 8). In this case, it is estimated that there is no parallax change in the pixel (0, 4) sandwiched between them, and the parallax = 5 is inherited by the pixel (0, 4). Focusing on the pixel (7, 4) of the intermediate scanning line, the parallax (= 4) of the pixel (7, 0) of the lower scanning line and the parallax (=) of the pixel (7, 8) of the upper scanning line Since 4) is equal, similarly, the parallax = 5 is inherited by the pixel (7, 4). As described above, according to the method of the present invention, the parallax can be acquired without requiring the matching process for a part of the region on the intermediate scanning line, so that the processing amount can be greatly reduced. The processing speed can be significantly increased.

一方、中間走査線の画素(3,4)に着目すると、画素(3,4)の下側の走査線上の画素(3,0)の視差(=5)と上側の走査線上の画素(3,8)の視差(=3)は異なる。この場合、その間に挟まれる画素(3,4)について改めて視差を取得する必要があると判断し、画素(3,4)を「要処理」とマークする。   On the other hand, focusing on the pixel (3,4) of the intermediate scanning line, the parallax (= 5) of the pixel (3,0) on the lower scanning line of the pixel (3,4) and the pixel (3 on the upper scanning line) , 8) have different parallax (= 3). In this case, it is determined that the parallax needs to be acquired again for the pixel (3,4) sandwiched between them, and the pixel (3,4) is marked as “necessary processing”.

上述した処理が中間走査線(h座標値=4)の全ての画素について実行される結果、中間走査線(h座標値=4)の画素(0,4)、画素(1,4)、画素(2,4)、画素(7,4)、画素(8,4)、画素(9,4)については既に計算された視差が承継され、画素(3,4)、画素(4,4)、画素(5,4)、画素(6,4)については「要処理」とマークされる。その後、「要処理」とマークされた画素領域についてのみ、通常のマッチング処理が実行される。その結果、中間走査線(h座標値=4)の全画素について視差が取得され、中間走査線(h座標値=4)が「視差取得済」とマークされる。   As a result of the above-described processing being executed for all pixels of the intermediate scanning line (h coordinate value = 4), pixel (0,4), pixel (1,4), pixel of the intermediate scanning line (h coordinate value = 4) For (2,4), pixel (7,4), pixel (8,4), pixel (9,4), the already calculated parallax is inherited, pixel (3,4), pixel (4,4) Pixel (5, 4) and pixel (6, 4) are marked as “required processing”. Thereafter, the normal matching process is executed only for the pixel area marked as “necessary processing”. As a result, parallax is acquired for all the pixels of the intermediate scanning line (h coordinate value = 4), and the intermediate scanning line (h coordinate value = 4) is marked as “parallax already acquired”.

次に、ステップ206において、「視差取得済」とマークされた複数の走査線間のh座標値の差の最大値=1であるか否かを判断する。走査線間のh座標値の差の最大値=1でない場合(ステップ206、No)、2つの視差取得済走査線に挟まれた視差を取得していない領域が残っていることになるので、ステップ204〜ステップ205の処理を再度実行する。   Next, in step 206, it is determined whether or not the maximum value of h coordinate value differences between a plurality of scanning lines marked “parallax already acquired” = 1. When the maximum value of the difference of the h coordinate values between the scanning lines is not 1 (No at Step 206), an area where the parallax between the two parallax-acquired scanning lines is not acquired remains. The processing from step 204 to step 205 is executed again.

図11(b)に示す例の場合、「視差取得済」とマークされた走査線は、走査線(h座標値=0)、走査線(h座標値=4)、走査線(h座標値=8)であり、視差取得済走査線間のh座標値の差の最大値=4であるので(ステップ206、No)、処理は、ステップ204に戻って新たな中間走査線が指定される。具体的には、視差取得済走査線(h座標値=0)と視差取得済走査線(h座標値=4)に対する中間走査線(h座標値=2)が指定され、視差取得済走査線(h座標値=4)と視差取得済走査線(h座標値=8)に対する中間走査線(h座標値=6)が指定される。その後、ステップ205に進んで、新たに指定された中間走査線(h座標値=2)および中間走査線(h座標値=6)について、上述した視差承継処理が実行される。   In the case of the example shown in FIG. 11B, the scanning lines marked “Parallax acquired” are scanning lines (h coordinate value = 0), scanning lines (h coordinate value = 4), scanning lines (h coordinate value). = 8) and the maximum value of the difference of the h coordinate values between the parallax-acquired scanning lines is 4 (No at Step 206), the process returns to Step 204 to specify a new intermediate scanning line. . Specifically, a parallax-acquired scanning line (h-coordinate value = 0) and an intermediate scanning line (h-coordinate value = 2) with respect to the parallax-acquired scanning line (h-coordinate value = 4) are designated, and the parallax-acquired scanning line An intermediate scanning line (h coordinate value = 6) with respect to (h coordinate value = 4) and a parallax-acquired scanning line (h coordinate value = 8) is designated. Thereafter, the process proceeds to step 205, and the above-described parallax inheritance processing is executed for the newly designated intermediate scanning line (h coordinate value = 2) and intermediate scanning line (h coordinate value = 6).

その後、再び、ステップ206において、「視差取得済」とマークされた複数の走査線間のh座標値の差の最大値=1であるか否かを判断され、この場合、視差取得済走査線間のh座標値の差の最大値=2であるので(ステップ206、No)、もう一度、ステップ204〜205の処理が繰り返される。その結果、視差取得済走査線間のh座標値の差の最大値=1となる(ステップ206、Yes)。走査線間の座標値の差の最大値=1であるということは、2つの視差取得済走査線に挟まれた未処理領域がないことを意味するので、処理回数カウントCをインクリメントし(ステップ207)、ステップ208に進む。ステップ208においては、予め定められた目標処理回数が達成された否かが判断される。ここで、目標処理回数は、主カメラ画像の全走査線数−1をパラメータα(2の倍数)で除算した値が設定される。図11(a)に示す例の場合、主カメラ画像の全走査線数は「25」あり、パラメータα=8であるので、(25−1)÷8=3回が目標処理回数となる。   Thereafter, in step 206 again, it is determined whether or not the maximum value of the difference of h coordinate values between a plurality of scanning lines marked as “parallax already acquired” = 1, in this case, the parallax acquired scanning line Since the maximum value of the difference in the h coordinate value is 2 (step 206, No), the processing of steps 204 to 205 is repeated once again. As a result, the maximum value of the difference of h coordinate values between the parallax-acquired scanning lines is 1 (step 206, Yes). Since the maximum value of the coordinate value difference between the scanning lines = 1 means that there is no unprocessed area sandwiched between the two parallax-acquired scanning lines, the processing count C is incremented (step 207), the process proceeds to Step 208. In step 208, it is determined whether or not a predetermined target processing count has been achieved. Here, the target processing times is set to a value obtained by dividing the total number of scanning lines of the main camera image minus 1 by the parameter α (a multiple of 2). In the example shown in FIG. 11A, since the total number of scanning lines of the main camera image is “25” and the parameter α = 8, (25−1) ÷ 8 = 3 times is the target processing number.

この場合、処理回数カウントC=1であるので(ステップ208、No)、ステップ209に進む。ステップ209においては、パラメータεにパラメータαを加算した値を新たなパラメータε(0+8=8)とし、ステップ203に進む。ステップ203においては、h座標値(=ε+α=8+8=16)の走査線が指定され、当該走査線について通常のマッチング処理を実行し視差を取得する。その後、視差取得済走査線(h座標値=8)と視差取得済走査線(h座標値=16)の間に存在する7本の走査線について、上述したのと同様の処理が実行した後、ステップ209においては、パラメータεがさらに更新され(8+8=16)、さらに、視差取得済走査線(h座標値=16)と視差取得済走査線(h座標値=24)の間に存在する7本の走査線について、上述したのと同様の処理を実行する。その結果、処理回数カウントC=3となり(ステップ208、Yes)、全走査線(25本)上の全画素の視差の取得を完了して処理を終了する。   In this case, since the processing count C = 1 (step 208, No), the process proceeds to step 209. In step 209, a value obtained by adding the parameter α to the parameter ε is set as a new parameter ε (0 + 8 = 8), and the process proceeds to step 203. In step 203, a scanning line having an h coordinate value (= ε + α = 8 + 8 = 16) is designated, and a normal matching process is executed for the scanning line to obtain parallax. Thereafter, the same processing as described above is executed for the seven scanning lines existing between the parallax-acquired scanning line (h coordinate value = 8) and the parallax-acquired scanning line (h coordinate value = 16). In step 209, the parameter ε is further updated (8 + 8 = 16), and further, between the parallax acquired scanning line (h coordinate value = 16) and the parallax acquired scanning line (h coordinate value = 24). The same processing as described above is executed for the existing seven scanning lines. As a result, the processing count C = 3 (step 208, Yes), the acquisition of the parallax of all the pixels on all the scanning lines (25) is completed, and the processing ends.

以上、説明したように、本発明が採用する奥行値算出部108の構成によれば、3Dデータにおける奥行値を高精度に算出することが可能になり、且つ、奥行値の算出処理速度のリアルタイム性が担保される。その結果、裸眼の手術スタッフに対して、患部の実写映像の立体視画像を、多視点で、且つ、リアルタイムに提供することが可能な立体内視鏡システムが実現される。   As described above, according to the configuration of the depth value calculation unit 108 employed by the present invention, the depth value in 3D data can be calculated with high accuracy, and the depth value calculation processing speed can be calculated in real time. Sex is guaranteed. As a result, a stereoscopic endoscope system capable of providing a stereoscopic image of a live-action image of an affected area in multiple viewpoints in real time to a naked eye surgical staff is realized.

以上、本発明について実施形態をもって説明してきたが、本発明は上述した実施形態に限定されるものではなく、その他、当業者が推考しうる実施態様の範囲内において、本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。なお、上述した本発明における奥行値算出部が採用する視差の算出手法は、立体内視鏡に化限らず、ステレオ視計測を用いる技術全般に適用することができるのは言うまでもない。   As described above, the present invention has been described with the embodiments. However, the present invention is not limited to the above-described embodiments, and other functions and effects of the present invention are within the scope of embodiments that can be considered by those skilled in the art. As long as it plays, it is included in the scope of the present invention. Needless to say, the parallax calculation method employed by the depth value calculation unit of the present invention described above is not limited to a stereoscopic endoscope, and can be applied to all techniques using stereo vision measurement.

以下、本発明の多視点裸眼立体内視鏡システムについて、実施例を用いてより具体的に説明を行なうが、本発明は、後述する実施例に限定されるものではない。   Hereinafter, the multi-view autostereoscopic system of the present invention will be described more specifically with reference to examples. However, the present invention is not limited to the examples described later.

本発明の多視点裸眼立体内視鏡システムの奥行値算出部が採用する新規なDPマッチング手法を実装した計算機(CPU : Intel Core2 Quad Q9300/メモリ : 3GB / OS : Windows(登録商標) XP (32bit))による視差計測実験を実施した。なお、本実験においては、http://vision.middlebury.edu/stereo/から入手した、図13(a)〜(d)に示す4組のステレオ画像(「Cones」「Teddy」「Tsukuba」「Venus」)を用いた。   A computer (CPU: Intel Core2 Quad Q9300 / memory: 3GB / OS: Windows (registered trademark) XP (32bit) with a new DP matching method adopted by the depth value calculation unit of the multi-view autostereoscopic system of the present invention )) Parallax measurement experiment was conducted. In this experiment, four sets of stereo images ("Cones", "Teddy", "Tsukuba", "") obtained from http://vision.middlebury.edu/stereo/ shown in FIGS. Venus ") was used.

本実験においては、実施例1の計算機を下の条件で動作させた。すなわち、輝度取得領域Gの動的設定については、(1)最大画素数E=3(上側),-3(下側)、(2)注目画素(i,h)に対する輝度距離の閾値KC=10、(3)輝度変化量kの閾値Ke=400とした。 In this experiment, the computer of Example 1 was operated under the following conditions. That is, for dynamic setting of the luminance acquisition region G, (1) the maximum number of pixels E = 3 (upper side), −3 (lower side), (2) the threshold value K C of the luminance distance for the pixel of interest (i, h) = 10, (3) The threshold value K e of the luminance change amount k was set to 400.

また、斜め経路先端の重み係数λ(i,j)については、下記式(9)におけるw=0.25とした。 The weighting factor λ (i, j) at the tip of the oblique path is set to w = 0.25 in the following equation (9).

さらに、コストc(i,j)については、下記式(7)における根r=512とした。   Further, for the cost c (i, j), the root r = 512 in the following formula (7) is used.

一方、比較例として、従来のステレオ視計測方法を実装した計算機(実施例1と同じスペックのもの)による視差計測実験を実施した。すなわち、単一画素の輝度距離をコストとして定義し、斜め経路選択の重み係数λ=0.4(固定値)とした。   On the other hand, as a comparative example, a parallax measurement experiment using a computer (with the same specifications as in Example 1) on which a conventional stereo vision measurement method was implemented was performed. That is, the luminance distance of a single pixel is defined as a cost, and the weighting coefficient λ = 0.4 (fixed value) for oblique path selection.

<正解率の検証>
図14〜図17は、それぞれ、4つのステレオ画像対(「Cones」「Teddy」「Tsukuba」「Venus」)について得られた結果を示す。なお、図14(a)は、予め用意された正解の視差を示し、図14(b)は、比較例の視差を示し、図14(c)は、実施例1の視差を示す(図15および図16についても同様)。
<Verification of accuracy rate>
FIGS. 14-17 each show the results obtained for four stereo image pairs (“Cones”, “Teddy”, “Tsukuba”, “Venus”). 14A shows the correct parallax prepared in advance, FIG. 14B shows the parallax of the comparative example, and FIG. 14C shows the parallax of the first embodiment (FIG. 15). The same applies to FIG. 16).

また、下記表1は、実施例1および比較例について、4組のステレオ画像(「Cones」「Teddy」「Tsukuba」「Venus」)における正解率[%]を示す。なお、本実験においては「正解」=正解の視差に対するずれが1画素以内のものとし、正解率[%]=正解画素の数/視差の算出が可能な全画素数×100とした。   Table 1 below shows the correct answer rate [%] in four sets of stereo images (“Cones”, “Teddy”, “Tsukuba”, “Venus”) for Example 1 and the comparative example. In this experiment, it is assumed that “correct answer” = deviation with respect to the correct parallax is within one pixel, and the correct answer rate [%] = the number of correct pixels / the total number of pixels capable of calculating the parallax × 100.

上記表1に示されるように、実施例1の正解率は、比較例のそれに比べて10ポイント以上高い値を示した。   As shown in Table 1 above, the accuracy rate of Example 1 was 10 points or more higher than that of the comparative example.

<処理の高速化の検証>
上述した実施例1の構成に対して、さらに、視差継承処理の機能を実装させた計算機により、同じく、図13(a)〜(d)に示す4組のステレオ画像(「Cones」「Teddy」「Tsukuba」「Venus」)を用いて視差計測実験を実施した。なお、本実験においては、計測対象画像をX軸方向に4分割した並列処理により視差を計測した。また、本実験においては、視差の継承範囲を規定するためのパラメータαについて、5つの条件(パラメータα=2、4、8、16、32)を設定し、それぞれの実験を実施例2〜6とした。下記表2は、実施例1〜6について、4つのステレオ画像対(「Cones」「Teddy」「Tsukuba」「Venus」)におけるMDE/S (Million Disparity Estimations per second)を示す。また、図18は、パラメータαとMDE/Sの平均値との関係を示す。なお、MDE/Sは、(視差の最大値)×(画像の総画素数)×(1秒間に処理した画像の枚数)×10として定義される画像の大きさに依存しない計算速度の指標である。
<Verification of high-speed processing>
In addition to the configuration of the first embodiment described above, four sets of stereo images (“Cones”, “Teddy”) shown in FIGS. The parallax measurement experiment was conducted using "Tsukuba" and "Venus". In this experiment, the parallax was measured by parallel processing in which the measurement target image was divided into four in the X-axis direction. In this experiment, five conditions (parameter α = 2, 4, 8, 16, 32) are set for the parameter α for defining the inheritance range of the parallax. It was. Table 2 below shows MDE / S (Million Disparity Estimations per second) for four pairs of stereo images (“Cones”, “Teddy”, “Tsukuba”, “Venus”) for Examples 1 to 6. FIG. 18 shows the relationship between the parameter α and the average value of MDE / S. MDE / S is an index of calculation speed that does not depend on the size of an image defined as (maximum parallax) × (total number of pixels of image) × (number of images processed per second) × 10 6 It is.

上記表2および図18に示されるように、MDE/Sの値は、パラメータαの値にほぼ比例して増加した。さらに、下記表3は、実施例1〜6の4組のステレオ画像(「Cones」「Teddy」「Tsukuba」「Venus」)における正解率[%]を示す。また、図19は、パラメータαと正解率[%]の平均値との関係を示す。   As shown in Table 2 and FIG. 18, the value of MDE / S increased almost in proportion to the value of parameter α. Further, Table 3 below shows the accuracy rate [%] in the four sets of stereo images (“Cones”, “Teddy”, “Tsukuba”, “Venus”) of Examples 1 to 6. FIG. 19 shows the relationship between the parameter α and the average value of the correct answer rate [%].

上記表3および図19に示されるように、正解率[%]は、パラメータαの値が大きくなるにつれ若干低くなる傾向が見られたが、それでも、比較例に比べてかなり高い値を維持した。   As shown in Table 3 and FIG. 19, the correct answer rate [%] tended to decrease slightly as the value of the parameter α increased, but still maintained a considerably high value as compared with the comparative example. .

以上、説明したように、本発明によれば、立体内視鏡システムに特有のストレスから手術スタッフを解放するとともに、質の高い施術を支援することができる新規な立体内視鏡システムが提供される。本発明の多視点裸眼立体内視鏡システムの普及により、外科手術がより高度な発展を遂げ、その結果、一人でも多くの命が救われることを期待する。   As described above, according to the present invention, a novel stereoscopic endoscope system capable of releasing surgical staff from stress peculiar to a stereoscopic endoscope system and supporting high-quality treatment is provided. The With the widespread use of the multi-view autostereoscopic system of the present invention, it is expected that the surgical operation will be further advanced, and as a result, even one person will be saved many lives.

100…多視点裸眼立体内視鏡システム
102…多視点ステレオ画像生成部
104…3Dデータ生成部
106…レンダリング部
108…奥行値算出部
200…眼鏡式立体内視鏡システム
201…ステレオカメラ
202…左目用カメラ
204…右目用カメラ
206…画像出力制御部
208…画像切替部
210…ディスプレイ
212…3Dメガネ
300…多視点裸眼立体ディスプレイ装置
302…レンチキュラーレンズアレイ
DESCRIPTION OF SYMBOLS 100 ... Multi viewpoint autostereoscopic system 102 ... Multi viewpoint stereo image generation part 104 ... 3D data generation part 106 ... Rendering part 108 ... Depth value calculation part 200 ... Glasses type | mold stereoscopic endoscope system 201 ... Stereo camera 202 ... Left eye Camera 204 ... Right-eye camera 206 ... Image output control unit 208 ... Image switching unit 210 ... Display 212 ... 3D glasses 300 ... Multi-viewpoint autostereoscopic display device 302 ... Lenticular lens array

Claims (14)

ステレオカメラと、該ステレオカメラによって取得されたステレオ画像に基づいて多視点ステレオ画像を生成する多視点ステレオ画像生成部と、該多視点ステレオ画像を表示するための多視点裸眼立体ディスプレイとを含む立体内視鏡システムであって、
多視点ステレオ画像生成部は、
前記ステレオカメラによって取得されたステレオ画像の画素毎の奥行値とRGB値を対応付けた3Dデータを生成する3Dデータ生成部と、
前記3Dデータに基づいて複数の仮想的な視点に対応する複数のステレオ画像が集約してなる多視点ステレオ画像を描画するレンダリング部と
を含む、
立体内視鏡システム。
A stereo including a stereo camera, a multi-view stereo image generating unit that generates a multi-view stereo image based on a stereo image acquired by the stereo camera, and a multi-view autostereoscopic display for displaying the multi-view stereo image An endoscope system,
The multi-viewpoint stereo image generation unit
A 3D data generation unit that generates 3D data in which a depth value and an RGB value for each pixel of a stereo image acquired by the stereo camera are associated;
A rendering unit that draws a multi-view stereo image formed by aggregating a plurality of stereo images corresponding to a plurality of virtual viewpoints based on the 3D data,
Stereoscopic endoscope system.
前記3Dデータ生成部は、奥行値算出部を含み、
前記奥行値算出部は、
前記ステレオ画像について動的計画法に基づくステレオマッチングを実行することにより画素毎の視差を取得し、該視差に基づいて画素毎の奥行値を算出する、
請求項1に記載の立体内視鏡システム。
The 3D data generation unit includes a depth value calculation unit,
The depth value calculation unit
Obtaining a parallax for each pixel by performing stereo matching based on dynamic programming for the stereo image, and calculating a depth value for each pixel based on the parallax,
The stereoscopic endoscope system according to claim 1.
前記奥行値算出部は、
注目画素を含んで縦方向に連続する複数の画素を輝度値取得領域として定義し、該複数の画素の各画素について算出した輝度距離の平均値を前記ステレオマッチングにおけるコストとして定義する、
請求項1または2に記載の立体内視鏡システム。
The depth value calculation unit
Defining a plurality of pixels including the target pixel in the vertical direction as a luminance value acquisition region, and defining an average value of luminance distances calculated for each pixel of the plurality of pixels as a cost in the stereo matching;
The stereoscopic endoscope system according to claim 1 or 2.
前記奥行値算出部は、
注目画素を含んで縦方向に連続する複数の画素を輝度値取得領域として定義し、該複数の画素の各画素について算出した輝度距離の平均値の累乗根を前記ステレオマッチングにおけるコストとして定義する、
請求項1または2に記載の立体内視鏡システム。
The depth value calculation unit
Defining a plurality of pixels including the target pixel in the vertical direction as a luminance value acquisition region, and defining a power root of an average value of luminance distances calculated for each pixel of the plurality of pixels as a cost in the stereo matching;
The stereoscopic endoscope system according to claim 1 or 2.
前記奥行値算出部は、
エッジにまたがって延在しない前記輝度値取得領域を動的に定義する、
請求項3または4に記載の立体内視鏡システム。
The depth value calculation unit
Dynamically defining the luminance value acquisition region that does not extend across an edge;
The stereoscopic endoscope system according to claim 3 or 4.
前記奥行値算出部は、
前記ステレオマッチングにおける斜め経路選択の重み係数が前記輝度距離の平均値の大きさに応じて大きくなるように設定する、
請求項3〜5のいずれか一項に記載の立体内視鏡システム。
The depth value calculation unit
A weighting factor for oblique path selection in the stereo matching is set so as to increase according to the average value of the luminance distances.
The three-dimensional endoscope system according to any one of claims 3 to 5.
前記奥行値算出部は、
前記ステレオ画像において対象となる走査線を所定間隔毎に定義して該走査線上の各画素の視差を前記ステレオマッチングによって取得した上で、縦方向に存在する視差取得済みの2つの画素の間に位置する画素について、前記2つの画素の視差が変化しない場合には、前記2つの画素の間に位置する画素に前記2つの画素の視差を承継させ、前記2つの画素の視差が変化する場合には、前記2つの画素の間に位置する画素についてのみ新たに前記ステレオマッチングを行って視差を取得するといった一連の処理を実行する、
請求項2〜6のいずれか一項に記載の立体内視鏡システム。
The depth value calculation unit
The target scanning line in the stereo image is defined at predetermined intervals, and the parallax of each pixel on the scanning line is acquired by the stereo matching, and then between the two pixels that have acquired the parallax in the vertical direction. When the parallax between the two pixels does not change with respect to the pixel located, when the parallax between the two pixels is inherited by the pixel located between the two pixels, and the parallax between the two pixels changes Performs a series of processes such as newly obtaining the parallax by performing the stereo matching only for the pixel located between the two pixels,
The stereoscopic endoscope system according to any one of claims 2 to 6.
前記奥行値算出部は、
前記一連の処理を前記ステレオ画像の全画素の視差が取得されるまで再帰的に繰り返す、
請求項7に記載の立体内視鏡システム。
The depth value calculation unit
Recursively repeating the series of processes until the parallax of all the pixels of the stereo image is acquired,
The stereoscopic endoscope system according to claim 7.
ステレオ画像の各画素について視差を取得するために動的計画法に基づいてステレオマッチングを行う方法であって、
注目画素を含んで縦方向に連続する複数の画素を輝度値取得領域として定義し、該複数の画素の各画素について算出した輝度距離の平均値を前記ステレオマッチングにおけるコストとして定義することを特徴とする方法。
A method of performing stereo matching based on dynamic programming to obtain parallax for each pixel of a stereo image,
A plurality of pixels including the target pixel that are continuous in the vertical direction are defined as a luminance value acquisition region, and an average value of luminance distances calculated for each pixel of the plurality of pixels is defined as a cost in the stereo matching, how to.
ステレオ画像の各画素について視差を取得するために動的計画法に基づいてステレオマッチングを行う方法であって、
注目画素を含んで縦方向に連続する複数の画素を輝度値取得領域として定義し、該複数の画素の各画素について算出した輝度距離の平均値の累乗根を前記ステレオマッチングにおけるコストとして定義することを特徴とする方法。
A method of performing stereo matching based on dynamic programming to obtain parallax for each pixel of a stereo image,
A plurality of pixels including the target pixel that are continuous in the vertical direction are defined as a luminance value acquisition region, and a power root of an average value of luminance distances calculated for each pixel of the plurality of pixels is defined as a cost in the stereo matching. A method characterized by.
前記輝度値取得領域をエッジにまたがって延在しないように動的に定義することを特徴とする、請求項9または10に記載の方法。   The method according to claim 9 or 10, wherein the luminance value acquisition region is dynamically defined so as not to extend across an edge. 前記ステレオマッチングにおける斜め経路選択の重み係数が前記輝度距離の平均値の大きさに応じて大きくなるように設定することを特徴とする、請求項9〜11のいずれか一項に記載の方法。   The method according to any one of claims 9 to 11, wherein a weighting coefficient for selecting an oblique path in the stereo matching is set so as to increase in accordance with an average value of the luminance distance. 前記ステレオ画像において対象となる走査線を所定間隔毎に定義して該走査線上の各画素の視差を前記ステレオマッチングによって取得した上で、縦方向に存在する視差取得済みの2つの画素の間に位置する画素について、前記2つの画素の視差が変化しない場合には、前記2つの画素の間に位置する画素に前記2つの画素の視差を承継させ、前記2つの画素の視差が変化する場合には、前記2つの画素の間に位置する画素についてのみ新たに前記ステレオマッチングを行って視差を取得するといった一連の処理を実行することを特徴とする、請求項9〜12のいずれか一項に記載の方法。   The target scanning line in the stereo image is defined at predetermined intervals, and the parallax of each pixel on the scanning line is acquired by the stereo matching, and then between the two pixels that have acquired the parallax in the vertical direction. When the parallax between the two pixels does not change with respect to the pixel located, when the parallax between the two pixels is inherited by the pixel located between the two pixels, and the parallax between the two pixels changes The method according to any one of claims 9 to 12, wherein a series of processing is performed such that only a pixel located between the two pixels is newly subjected to the stereo matching to obtain parallax. The method described. 前記一連の処理を前記ステレオ画像の全画素の視差が取得されるまで再帰的に繰り返すことを特徴とする、請求項13に記載の方法。   The method according to claim 13, wherein the series of processes is recursively repeated until parallax of all pixels of the stereo image is acquired.
JP2010213209A 2010-09-24 2010-09-24 Multi-view auto-stereoscopic endoscope system Pending JP2012065851A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010213209A JP2012065851A (en) 2010-09-24 2010-09-24 Multi-view auto-stereoscopic endoscope system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010213209A JP2012065851A (en) 2010-09-24 2010-09-24 Multi-view auto-stereoscopic endoscope system

Publications (1)

Publication Number Publication Date
JP2012065851A true JP2012065851A (en) 2012-04-05

Family

ID=46163842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010213209A Pending JP2012065851A (en) 2010-09-24 2010-09-24 Multi-view auto-stereoscopic endoscope system

Country Status (1)

Country Link
JP (1) JP2012065851A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9213884B2 (en) 2013-04-15 2015-12-15 Sony Corporation Image processing apparatus, image processing method, and program
US9449389B2 (en) 2014-02-03 2016-09-20 Sony Corporation Image processing device, image processing method, and program
WO2022201933A1 (en) * 2021-03-25 2022-09-29 ソニーグループ株式会社 Intravital observation system, observation system, intravital observation method, and intravital observation device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9213884B2 (en) 2013-04-15 2015-12-15 Sony Corporation Image processing apparatus, image processing method, and program
US9569691B2 (en) 2013-04-15 2017-02-14 Sony Corporation Image processing apparatus, image processing method, and program
US10430944B2 (en) 2013-04-15 2019-10-01 Sony Corporation Image processing apparatus, image processing method, and program
US9449389B2 (en) 2014-02-03 2016-09-20 Sony Corporation Image processing device, image processing method, and program
US9747690B2 (en) 2014-02-03 2017-08-29 Sony Corporation Image processing device, image processing method, and program
WO2022201933A1 (en) * 2021-03-25 2022-09-29 ソニーグループ株式会社 Intravital observation system, observation system, intravital observation method, and intravital observation device

Similar Documents

Publication Publication Date Title
JP4649219B2 (en) Stereo image generator
JP5631329B2 (en) 3D image display apparatus and 3D image display method
JP5426785B2 (en) Image processing apparatus and image processing method
JP6308513B2 (en) Stereoscopic image display apparatus, image processing apparatus, and stereoscopic image processing method
US20160295194A1 (en) Stereoscopic vision system generatng stereoscopic images with a monoscopic endoscope and an external adapter lens and method using the same to generate stereoscopic images
KR101675961B1 (en) Apparatus and Method for Rendering Subpixel Adaptively
KR20110049039A (en) High density multi-view display system and method based on the active sub-pixel rendering
JP2014131266A (en) Method of obtaining depth information and display apparatus
JP6128442B2 (en) Method and apparatus for stereo-based expansion of stereoscopic images and image sequences {METHOD AND DEVICE FOR STREEO BASE EXTENSION OF STREOSSCOPIC IMAGES AND IMAGE SEQUENCES}
TW201206151A (en) Method and system for generating images of a plurality of views for 3D image reconstruction
JP6585938B2 (en) Stereoscopic image depth conversion apparatus and program thereof
KR20140073584A (en) Image processing device, three-dimensional image display device, image processing method and image processing program
CN109310278A (en) Image processing apparatus, image processing method, program and image processing system
EP3001681B1 (en) Device, method and computer program for 3d rendering
JP2012205169A (en) Image processing apparatus and image processing method
JP5752638B2 (en) Image processing apparatus, method, program, and stereoscopic image display apparatus
TWI589150B (en) Three-dimensional auto-focusing method and the system thereof
JP2012065851A (en) Multi-view auto-stereoscopic endoscope system
JP2015050482A (en) Image processing device, stereoscopic image display device, image processing method, and program
JP2013009864A (en) Three-dimensional image processing device
US20140354774A1 (en) Image processing device, image processing method, stereoscopic image display device, and assistant system
TWI536832B (en) System, methods and software product for embedding stereo imagery
US9020219B2 (en) Medical image processing apparatus
KR101192121B1 (en) Method and apparatus for generating anaglyph image using binocular disparity and depth information
JP5888062B2 (en) Stereoscopic image processing apparatus and stereoscopic image processing method