JP2005165969A - Image processor and method - Google Patents

Image processor and method Download PDF

Info

Publication number
JP2005165969A
JP2005165969A JP2003407742A JP2003407742A JP2005165969A JP 2005165969 A JP2005165969 A JP 2005165969A JP 2003407742 A JP2003407742 A JP 2003407742A JP 2003407742 A JP2003407742 A JP 2003407742A JP 2005165969 A JP2005165969 A JP 2005165969A
Authority
JP
Japan
Prior art keywords
parallax amount
region
frequency distribution
parallax
small region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003407742A
Other languages
Japanese (ja)
Inventor
Yukio Kamoshita
幸生 鴨志田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003407742A priority Critical patent/JP2005165969A/en
Publication of JP2005165969A publication Critical patent/JP2005165969A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method and a device which perform highly precise three-dimensional information estimation and perform image division closer to the original shape of an object. <P>SOLUTION: The method of three-dimensional information estimation and the device for performing the same divide an image used as reference into small areas, estimate parallax of boundary lines of the small areas by a stereo method of area base, analyze frequency distribution of the parallax of the boundary lines estimated in each area and estimate the parallax of the areas. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、異なる視点から撮影された複数の画像間の対応関係に基づき被写体の三次元情報を推定する画像処理方法および装置に関するものであり、また、推定された三次元情報と画像の色情報に基づき画像分割を行う画像処理方法および装置に関するものである。   The present invention relates to an image processing method and apparatus for estimating three-dimensional information of a subject based on the correspondence between a plurality of images taken from different viewpoints, and the estimated three-dimensional information and image color information. The present invention relates to an image processing method and apparatus for performing image division based on the above.

従来より、対象物体の三次元情報を推定する方法として、異なる視点から撮影された複数の画像間の対応関係から視差を推定し、その視差情報から三角測量の原理に基づいて三次元情報を推定するステレオ法が知られている。ステレオ法として一般的に特徴ベースのステレオ法と領域ベースのステレオ法が知られている。   Conventionally, as a method for estimating 3D information of a target object, parallax is estimated from the correspondence between multiple images taken from different viewpoints, and 3D information is estimated from the parallax information based on the principle of triangulation Stereo methods are known. As the stereo method, a feature-based stereo method and a region-based stereo method are generally known.

特徴ベースのステレオ法は、複数の画像からエッジなどの特徴を抽出し、その特徴同士の対応関係を求める方法である。用いられる特徴にはエッジ点やエッジセグメントなどがある。この方法では画像間の輝度変動に比較的強いという特長がある反面、画像の濃淡が複雑な場合に類似した特徴が多数発生し誤対応が生じやすいことや、対応を求める複数の画像間において特徴が等しく抽出されない場合に対応探索の精度が低下してしまうという問題がある。また、特徴同士の対応のみが求められるため、画像全体の三次元情報が必要な場合、視差が推定された特徴からそれ以外の他の領域に視差を補間する必要がある。三次元情報を復元するために必要な特徴を抽出するためには特徴抽出処理の厳密な設定を必要とすることも課題として挙げられる。   The feature-based stereo method is a method of extracting features such as edges from a plurality of images and obtaining the correspondence between the features. Features used include edge points and edge segments. While this method has the advantage of being relatively resistant to luminance fluctuations between images, many similar features are likely to occur when the image density is complex, and miscorrespondence is likely to occur, or features between multiple images that require correspondence There is a problem that the accuracy of the correspondence search is reduced when are not extracted equally. In addition, since only correspondence between features is required, when 3D information of the entire image is required, it is necessary to interpolate the parallax from the feature where the parallax is estimated to other regions. In order to extract features necessary for restoring the three-dimensional information, it is also necessary to strictly set the feature extraction processing.

特徴ベースのステレオ法の一例に、特許第2843034号公報がある。この方法では複雑で多くのテクスチャを有する物体の画像中での領域をテクスチャ領域として検出し、テクスチャ領域の境界線を構成するセグメントの対応付けにより視差を推定し、その境界線の視差に基づいて領域内の視差を求めている。この方法を用いた場合、特徴ベースのステレオ法では困難であった複雑で多くのテクスチャを持つ領域に対しても精度よく視差を推定することができる。しかし領域の境界線が異なる距離の物体によって生じている場合については、異なる物体の視差が領域内に伝播され視差推定の精度が低下してしまう。また、滑らかに濃淡が変化する領域において視差推定が疎になるという特徴ベースのステレオ法における課題は依然として存在する。   One example of a feature-based stereo method is Japanese Patent No. 2843034. In this method, a region in an image of a complex object having many textures is detected as a texture region, and the disparity is estimated by associating segments constituting the boundary of the texture region. Based on the disparity of the boundary The parallax within the area is obtained. When this method is used, it is possible to accurately estimate the parallax even for a complex region having many textures, which is difficult with the feature-based stereo method. However, in the case where the boundary line of the region is generated by an object having a different distance, the parallax of the different object is propagated in the region, and the accuracy of the parallax estimation is lowered. In addition, there remains a problem in the feature-based stereo method in which the parallax estimation is sparse in a region where the density changes smoothly.

領域ベースのステレオ法は、基準とする画像内の小領域に最も類似した領域を対象とする画像内で探索し対応関係を求める方法である。特徴ベースのステレオ法に比べて、画像の濃淡値が滑らかに変化する領域での視差推定が可能であり、密な三次元情報が得ることができる。しかし、画像の濃淡値がほとんど変化しない領域に対しては対応関係を求めることができず誤対応が生じやすい。また、距離の異なる物体の境界において推定された視差の境界と物体の輪郭にずれが生じてしまうことやオクルージョンにより物体の輪郭部における三次元情報が推定できない問題がある。   The region-based stereo method is a method of searching for an area most similar to a small area in a reference image in an image and obtaining a correspondence relationship. Compared with the feature-based stereo method, the parallax can be estimated in a region where the gray value of the image changes smoothly, and dense three-dimensional information can be obtained. However, a correspondence relationship cannot be obtained for a region where the gray value of the image hardly changes, and erroneous correspondence is likely to occur. In addition, there is a problem that the estimated parallax boundary and the contour of the object are shifted at the boundary of the object at different distances, and the three-dimensional information in the contour portion of the object cannot be estimated due to occlusion.

従来の領域ベースのステレオ法の問題を改善する方法の一つに特開平10−191396号公報がある。この方法では、画像のクラスタリング結果を用いて、視差推定が不安定となる画像特徴の少ない部分やオクルージョン領域など視差推定の信頼性の低い部分を検出し、その部分の視差を周囲の同一クラスタの画素における視差から補間し物体輪郭線と視差の境界とのずれを改善している。しかし、視差推定を行ったあとに信頼性の低い領域を検出しているため計算が冗長であり、また、背景領域に画像特徴が少ない場合、物体輪郭部において必ずしも視差推定の信頼性が低くなるとは限らないため視差の補間が行えず物体輪郭線と視差の境界にずれが生じてしまう場合があるなどの問題がある。   One method for improving the problems of the conventional region-based stereo method is Japanese Patent Laid-Open No. 10-191396. In this method, the clustering result of the image is used to detect a part with less image features where the parallax estimation becomes unstable or a part with low reliability of the parallax estimation such as an occlusion area, and the parallax of that part is detected by the surrounding same cluster. Interpolation is performed from the parallax in the pixel to improve the deviation between the object outline and the parallax boundary. However, the calculation is redundant because an unreliable area is detected after the parallax estimation is performed, and when the background area has few image features, the reliability of the parallax estimation is not necessarily reduced in the object contour portion. However, there is a problem that the parallax cannot be interpolated and there is a case where the boundary between the object outline and the parallax may be shifted.

本発明は、従来の領域ベースのステレオ法における、画像の濃淡の変化が極端に小さい領域における誤対応の発生、オクルージョン領域で視差が推定できない、および、距離の異なる物体の境界で物体輪郭線と視差の境界がずれる、という問題を改善するために、基準となる画像を小領域に分割し、その小領域の境界線の視差を領域ベースのステレオ法により推定し、各領域において推定された境界線の視差の頻度分布を解析して領域の視差を推定することで、高精度な三次元情報推定が可能な画像処理方法及び装置を提供する。また、本発明は画像を初期領域分割し、分割された小領域を順次統合していく画像分割統合方法において、前記方法で推定された三次元情報を統合のための特徴量に用いることで、被写体本来の形状により近い画像分割が可能な画像処理方法および装置を提供する。   In the conventional region-based stereo method, an erroneous correspondence occurs in an area where the change in image density is extremely small, the parallax cannot be estimated in the occlusion area, and the object contour line at the boundary between objects with different distances. In order to improve the problem that the parallax boundary is shifted, the reference image is divided into small areas, and the parallax of the boundary line of the small area is estimated by the area-based stereo method, and the boundary estimated in each area Disclosed is an image processing method and apparatus capable of estimating three-dimensional information with high accuracy by analyzing a frequency distribution of parallax of a line and estimating a parallax of a region. Further, the present invention is an image division and integration method in which an image is divided into initial regions and the divided small regions are sequentially integrated, and the three-dimensional information estimated by the method is used as a feature amount for integration. An image processing method and apparatus capable of dividing an image closer to the original shape of the subject are provided.

上述の目的を達成するための本発明の第1の三次元情報抽出装置は、異なる視点位置で撮影された複数の画像データを入力する画像入力手段と、該画像入力手段により入力された画像データのうちの一つの基準画像データを小領域に分割する領域分割手段と、該領域分割手段により分割された各小領域の境界線を検出する領域境界線検出手段と、前記画像入力手段により入力された複数の画像のうちの基準画像と他の画像間において、少なくとも前記領域境界線検出手段により検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定手段と、該視差量推定手段により推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成手段と、該視差量頻度分布作成手段により作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析手段と、該視差量頻度分布解析手段により解析された結果に基づいて各小領域の視差量を推定する領域視差量推定手段と、該領域視差量推定手段により推定された各小領域の視差量に基づいて三次元情報を算出する三次元情報算出手段とを備えることを特徴とする。   In order to achieve the above object, a first three-dimensional information extraction apparatus of the present invention includes an image input means for inputting a plurality of image data taken at different viewpoint positions, and image data input by the image input means. Input by the image input means, area dividing means for dividing one reference image data into small areas, area boundary detecting means for detecting a boundary line of each small area divided by the area dividing means, The correspondence between a plurality of points on the boundary line of each small region detected by the region boundary line detection means is determined at least between the reference image of the plurality of images and another image, and a plurality of points on the boundary line of each small region are obtained. Parallax amount estimation means for estimating the amount of parallax at the point, and parallax amount frequency distribution creation means for creating a frequency distribution of the amount of parallax at a plurality of points on the boundary estimated by the parallax amount estimation means, for each small region, The The disparity amount frequency distribution analyzing means for analyzing the frequency distribution of the disparity amount of each small area created by the difference amount frequency distribution creating means, and the disparity of each small area based on the result analyzed by the disparity amount frequency distribution analyzing means It comprises an area parallax amount estimation means for estimating an amount, and a three-dimensional information calculation means for calculating three-dimensional information based on the parallax amount of each small area estimated by the area parallax amount estimation means.

また、本発明の第2の三次元情報抽出装置は、異なる視点位置で撮影された複数の画像データを入力する画像入力手段と、該画像入力手段により入力された画像データのうちの一つの基準画像データを小領域に分割する領域分割手段と、該領域分割手段により分割された各小領域の境界線を検出する領域境界線検出手段と、前記画像入力手段により入力された複数の画像のうちの基準画像と他の画像間において、少なくとも前記領域境界線検出手段により検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定手段と、前記視差量推定手段により推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成手段と、該視差量頻度分布作成手段により作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析手段と、該視差量頻度分布解析手段により解析された結果に基づいて各小領域の視差量を推定する領域視差量推定手段と、該領域視差量推定手段により視差量が推定された小領域と境界線が重複する小領域の視差量の頻度分布を修正する視差量頻度分布修正手段と、前記領域視差量推定手段により推定された視差量に基づいて三次元情報を算出する三次元情報算出手段とを備えること特徴とする。   The second three-dimensional information extraction apparatus of the present invention includes an image input means for inputting a plurality of image data photographed at different viewpoint positions, and one reference among the image data input by the image input means. Area dividing means for dividing the image data into small areas; area boundary detecting means for detecting the boundary lines of the respective small areas divided by the area dividing means; and a plurality of images input by the image input means The correspondence between a plurality of points on the boundary line of each small region detected by at least the region boundary line detection means between the reference image and the other image is obtained, and the parallax amounts of the plurality of points on the boundary line of each small region are calculated. A parallax amount estimating means for estimating, a parallax amount frequency distribution creating means for creating a frequency distribution of parallax amounts of a plurality of points on a boundary line estimated by the parallax amount estimating means for each small region, and the parallax amount frequency distribution creating A parallax amount frequency distribution analyzing unit for analyzing the frequency distribution of the parallax amount of each small region created by the stage, and a region for estimating the parallax amount of each small region based on the result analyzed by the parallax amount frequency distribution analyzing unit A parallax amount estimating unit; a parallax amount frequency distribution correcting unit that corrects a frequency distribution of a parallax amount of a small region where a boundary line overlaps a small region whose parallax amount is estimated by the region parallax amount estimating unit; 3D information calculating means for calculating 3D information based on the amount of parallax estimated by the estimating means.

また、本発明の第1の領域分割統合装置は異なる視点位置で撮影された複数の画像データを入力する画像入力手段と、該画像入力手段により入力された画像データのうちの一つの基準画像データを小領域に分割する領域分割手段と、該領域分割手段により分割された各小領域の境界線を検出する領域境界線検出手段と、前記画像入力手段により入力された複数の画像のうちの基準画像と他の画像間において、少なくとも前記領域境界線検出手段により検出された境界線上の複数の点の対応を求め、該境界線上の複数の点の視差量を推定する視差量推定手段と、前記視差量推定手段により推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成手段と、該視差量頻度分布作成手段により作成された視差量の頻度分布を解析する視差量頻度分布解析手段と、該視差量頻度分布解析手段により解析された結果に基づいて各小領域の視差量を推定する領域視差量推定手段と、該領域視差量推定手段により推定された各小領域の視差量と各小領域の色情報に基づく類似度に応じて小領域を統合する領域統合手段とを備えることを特徴とする。   In addition, the first area dividing and integrating device of the present invention includes an image input unit that inputs a plurality of image data captured at different viewpoint positions, and one reference image data among the image data input by the image input unit. An area dividing means for dividing the image into small areas, an area boundary detecting means for detecting a boundary line of each small area divided by the area dividing means, and a reference among a plurality of images input by the image input means A parallax amount estimation unit that obtains correspondence between a plurality of points on a boundary line detected by at least the region boundary line detection unit between an image and another image, and estimates a parallax amount of the plurality of points on the boundary line; A parallax amount frequency distribution creating unit that creates a frequency distribution of parallax amounts at a plurality of points on the boundary estimated by the parallax amount estimating unit for each small region, and a parallax created by the parallax amount frequency distribution creating unit A parallax amount frequency distribution analyzing unit for analyzing the frequency distribution of the amount, a region parallax amount estimating unit for estimating a parallax amount of each small region based on a result analyzed by the parallax amount frequency distribution analyzing unit, and the region parallax amount And a region integration unit that integrates the small regions according to the similarity based on the amount of parallax of each small region estimated by the estimation unit and the color information of each small region.

また、本発明の第2の領域統合装置は異なる視点位置で撮影された複数の画像データを入力する画像入力手段と、該画像入力手段により入力された画像データのうちの一つの基準画像データを小領域に分割する領域分割手段と、該領域分割手段により分割された各小領域の境界線を検出する領域境界線検出手段と、前記画像入力手段により入力された複数の画像のうちの基準画像と他の画像間において、少なくとも前記領域境界線検出手段により検出された境界線上の複数の点の対応を求め、該境界線上の複数の点の視差量を推定する視差量推定手段と、前記視差量推定手段により推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成手段と、該視差量頻度分布作成手段により作成された視差量の頻度分布を解析する視差量頻度分布解析手段と、該視差量頻度分布解析手段により解析された結果に基づいて各小領域の視差量を推定する領域視差量推定手段と、前記領域視差量推定手段により視差量が推定された小領域と境界線が重複する小領域の視差量の頻度分布を修正する視差量頻度分布修正手段と、該領域視差量推定手段により推定された各小領域の視差量と各小領域の色情報に基づく類似度に応じて小領域を統合する領域統合手段とを備えることを特徴とする。   The second region integration device of the present invention also includes an image input means for inputting a plurality of image data shot at different viewpoint positions, and one reference image data among the image data input by the image input means. Area dividing means for dividing into small areas, area boundary detecting means for detecting the boundary lines of the respective small areas divided by the area dividing means, and a reference image among a plurality of images input by the image input means A parallax amount estimation unit that obtains at least correspondence between a plurality of points on the boundary line detected by the region boundary line detection unit and estimates a parallax amount of the plurality of points on the boundary line between the image and another image, and the parallax A parallax amount frequency distribution creating unit that creates a frequency distribution of parallax amounts at a plurality of points on the boundary estimated by the amount estimating unit for each small region, and a parallax amount created by the parallax amount frequency distribution creating unit Parallax amount frequency distribution analyzing means for analyzing the frequency distribution, regional parallax amount estimating means for estimating the parallax amount of each small area based on the result analyzed by the parallax amount frequency distribution analyzing means, and the regional parallax amount estimating means Parallax amount frequency distribution correcting means for correcting the frequency distribution of the parallax amount in the small area where the boundary line overlaps with the small area in which the parallax amount is estimated, and the parallax amount of each small area estimated by the area parallax amount estimating means And region integration means for integrating the small regions according to the similarity based on the color information of each small region.

また、本発明の第1の三次元情報抽出方法は、異なる視点位置で撮影された複数の画像データのうちの一つの画像データを基準画像、他の画像データを探索画像とし、前記基準画像を画像特徴に応じて小領域に分割する領域分割ステップと、該領域分割ステップにより分割された各小領域の境界線を検出する領域境界線検出ステップと、前記基準画像と前記探索画像間において、少なくとも前記領域境界線検出ステップにより検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定ステップと、該視差量推定ステップにより推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成ステップと、該視差量頻度分布作成ステップにより作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析ステップと、該視差量頻度分布解析ステップにより解析された結果に基づいて各小領域の視差量を推定する領域視差量推定ステップと、該領域視差量推定ステップにより推定された各小領域の視差量に基づいて三次元情報を算出する三次元情報算出ステップとを有することを特徴とする。   In the first three-dimensional information extraction method of the present invention, one image data of a plurality of image data photographed at different viewpoint positions is used as a reference image, and the other image data is used as a search image. At least at least between the reference image and the search image, an area dividing step for dividing into small areas according to image features, an area boundary detecting step for detecting a boundary line of each small area divided by the area dividing step, A parallax amount estimation step for obtaining correspondence between a plurality of points on the boundary line of each small region detected by the region boundary line detection step, and estimating a parallax amount of the plurality of points on the boundary line of each small region; A parallax amount frequency distribution creating step for creating a frequency distribution of parallax amounts at a plurality of points on the boundary line estimated by the estimating step for each small region, and a parallax amount frequency distribution creating step A parallax amount frequency distribution analysis step for analyzing the frequency distribution of the parallax amount of each small region, and region parallax amount estimation for estimating the parallax amount of each small region based on the result analyzed by the parallax amount frequency distribution analysis step And a three-dimensional information calculation step of calculating three-dimensional information based on the parallax amount of each small region estimated in the region parallax amount estimation step.

また、本発明の第2の三次元情報抽出方法は、異なる視点位置で撮影された複数の画像データのうちの一つの画像データを基準画像、他の画像データを探索画像とし、前記基準画像を画像特徴に応じて小領域に分割する領域分割ステップと、該領域分割ステップにより分割された各小領域の境界線を検出する領域境界線検出ステップと、前記基準画像と前記探索画像間において、少なくとも前記領域境界線検出ステップにより検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定ステップと、該視差量推定ステップにより推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成ステップと、該視差量頻度分布作成ステップにより作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析ステップと、該視差量頻度分布解析ステップにより解析された結果に基づいて各小領域の視差量を推定する領域視差量推定ステップと、該領域視差量推定ステップにより視差量が推定された小領域と境界線が重複する小領域の視差量の頻度分布を修正する視差量頻度分布修正ステップと、前記領域視差量推定ステップにより推定された視差量に基づいて三次元情報を算出する三次元情報算出ステップとを有することを特徴とする。   In the second three-dimensional information extraction method of the present invention, one image data of a plurality of image data photographed at different viewpoint positions is used as a reference image, and the other image data is used as a search image. At least at least between the reference image and the search image, an area dividing step for dividing into small areas according to image features, an area boundary detecting step for detecting a boundary line of each small area divided by the area dividing step, A parallax amount estimation step for obtaining correspondence between a plurality of points on the boundary line of each small region detected by the region boundary line detection step, and estimating a parallax amount of the plurality of points on the boundary line of each small region; A parallax amount frequency distribution creating step for creating a frequency distribution of parallax amounts at a plurality of points on the boundary line estimated by the estimating step for each small region, and a parallax amount frequency distribution creating step A parallax amount frequency distribution analysis step for analyzing the frequency distribution of the parallax amount of each small region, and region parallax amount estimation for estimating the parallax amount of each small region based on the result analyzed by the parallax amount frequency distribution analysis step A parallax amount frequency distribution correcting step for correcting a frequency distribution of a parallax amount in a small region where a boundary overlaps with a small region in which the parallax amount is estimated in the region parallax amount estimating step, and the region parallax amount estimating step And a three-dimensional information calculation step of calculating three-dimensional information based on the estimated amount of parallax.

また、本発明の第1の領域分割統合方法は、異なる視点位置で撮影された複数の画像データのうちの一つの画像データを基準画像、他の画像データを探索画像とし、前記基準画像を画像特徴に応じて小領域に分割する領域分割ステップと、該領域分割ステップにより分割された各小領域の境界線を検出する領域境界線検出ステップと、前記基準画像と前記探索画像間において、少なくとも前記領域境界線検出ステップにより検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定ステップと、該視差量推定ステップにより推定された境界線上にある複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成ステップと、該視差量頻度分布作成ステップにより作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析ステップと、該視差量頻度分布解析ステップにより解析された結果に基づいて各小領域の視差量を推定する領域視差量推定ステップと、該領域視差量推定ステップにより推定された各小領域の視差量と各小領域の色情報に基づく類似度に応じて小領域を統合する領域統合ステップとを有することを特徴とする。   In the first region division integration method of the present invention, one image data of a plurality of image data photographed at different viewpoint positions is used as a reference image, and the other image data is used as a search image, and the reference image is used as an image. An area dividing step for dividing into small areas according to features, an area boundary detecting step for detecting a boundary line of each of the small areas divided by the area dividing step, and at least between the reference image and the search image A parallax estimation step for obtaining a correspondence between a plurality of points on the boundary line of each small region detected by the region boundary line detection step, and estimating a parallax amount of the plurality of points on the boundary line of each small region; A parallax amount frequency distribution creating step of creating a frequency distribution of parallax amounts of a plurality of points on the boundary estimated in the step for each small region, and the parallax amount frequency distribution creating step A parallax amount frequency distribution analyzing step for analyzing the frequency distribution of the parallax amount of each small region formed, and a region parallax amount for estimating the parallax amount of each small region based on a result analyzed by the parallax amount frequency distribution analyzing step An estimation step; and a region integration step of integrating the small regions according to the degree of similarity based on the amount of parallax of each small region estimated by the region parallax amount estimation step and the color information of each small region. .

また、本発明の第2の領域分割統合方法は、異なる視点位置で撮影された複数の画像データのうちの一つの画像データを基準画像、他の画像データを探索画像とし、前記基準画像を画像特徴に応じて小領域に分割する領域分割ステップと、該領域分割ステップにより分割された各小領域の境界線を検出する領域境界線検出ステップと、前記基準画像と前記探索画像間において、少なくとも前記領域境界線検出ステップにより検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定ステップと、該視差量推定ステップにより推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成ステップと、該視差量頻度分布作成ステップにより作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析ステップと、該視差量頻度分布解析ステップにより解析された結果に基づいて各小領域の視差量を推定する領域視差量推定ステップと、該領域視差量推定ステップにより視差量が推定された小領域と境界線が重複する小領域の視差量の頻度分布を修正する視差量頻度分布修正ステップと、該領域視差量推定ステップにより推定された各小領域の視差量と各小領域の色情報に基づく類似度に応じて小領域を統合する領域統合ステップとを有することを特徴とする。   In the second region division integration method of the present invention, one image data among a plurality of image data photographed at different viewpoint positions is used as a reference image, and the other image data is used as a search image, and the reference image is used as an image. An area dividing step for dividing into small areas according to features, an area boundary detecting step for detecting a boundary line of each of the small areas divided by the area dividing step, and at least between the reference image and the search image A parallax estimation step for obtaining a correspondence between a plurality of points on the boundary line of each small region detected by the region boundary line detection step, and estimating a parallax amount of the plurality of points on the boundary line of each small region; A parallax amount frequency distribution creating step for creating a parallax amount frequency distribution of a plurality of points on the boundary line estimated by the step for each small region, and the parallax amount frequency distribution creating step A parallax amount frequency distribution analyzing step for analyzing the frequency distribution of the parallax amount of each small region, and region parallax amount estimation for estimating the parallax amount of each small region based on the result analyzed by the parallax amount frequency distribution analyzing step A parallax amount frequency distribution correcting step for correcting the frequency distribution of the parallax amount in a small region where the boundary line overlaps with the small region in which the parallax amount has been estimated in the region parallax amount estimating step, and the region parallax amount estimating step And a region integration step of integrating the small regions in accordance with the estimated disparity amount of each small region and the similarity based on the color information of each small region.

また、本発明の第1の記憶媒体は、異なる視点位置で撮影された複数の画像データのうちの一つの画像データを基準画像、他の画像データを探索画像とし、前記基準画像を画像特徴に応じて小領域に分割する領域分割ステップと、該領域分割ステップにより分割された各小領域の境界線を検出する領域境界線検出ステップと、前記基準画像と前記探索画像間において、少なくとも前記領域境界線検出ステップにより検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定ステップと、該視差量推定ステップにより推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成ステップと、該視差量頻度分布作成ステップにより作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析ステップと、該視差量頻度分布解析ステップにより解析された結果に基づいて各小領域の視差量を推定する領域視差量推定ステップと、該領域視差量推定ステップにより推定された各小領域の視差量に基づいて三次元情報を算出する三次元情報算出ステップとを有することを特徴とする三次元情報抽出方法を実行するコンピュータプログラムを外部読出し可能に記憶する。   Further, the first storage medium of the present invention uses one image data of a plurality of image data photographed at different viewpoint positions as a reference image, another image data as a search image, and the reference image as an image feature. And a region dividing step for dividing the region into small regions, a region boundary detecting step for detecting a boundary line of each small region divided by the region dividing step, and at least the region boundary between the reference image and the search image. By obtaining correspondence between a plurality of points on the boundary line of each small region detected by the line detection step and estimating a parallax amount of the plurality of points on the boundary line of each small region, the parallax amount estimating step A disparity amount frequency distribution creating step for creating a disparity amount frequency distribution of a plurality of points on the estimated boundary line for each small region, and each disparity amount frequency distribution creating step A parallax amount frequency distribution analyzing step for analyzing the frequency distribution of the parallax amount of the region, an area parallax amount estimating step for estimating the parallax amount of each small region based on the result analyzed by the parallax amount frequency distribution analyzing step, A computer program for executing a three-dimensional information extraction method, comprising: a three-dimensional information calculation step for calculating three-dimensional information based on the parallax amount of each small region estimated by the region parallax amount estimation step Remember as much as possible.

また、本発明の第2の記憶媒体は、異なる視点位置で撮影された複数の画像データのうちの一つの画像データを基準画像、他の画像データを探索画像とし、前記基準画像を画像特徴に応じて小領域に分割する領域分割ステップと、該領域分割ステップにより分割された各小領域の境界線を検出する領域境界線検出ステップと、前記基準画像と前記探索画像間において、少なくとも前記領域境界線検出ステップにより検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定ステップと、該視差量推定ステップにより推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成ステップと、該視差量頻度分布作成ステップにより作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析ステップと、該視差量頻度分布解析ステップにより解析された結果に基づいて各小領域の視差量を推定する領域視差量推定ステップと、該領域視差量推定ステップにより視差量が推定された小領域と境界線が重複する小領域の視差量の頻度分布を修正する視差量頻度分布修正ステップと、前記領域視差量推定ステップにより推定された視差量に基づいて三次元情報を算出する三次元情報算出ステップとを有することを特徴とする三次元情報抽出方法を実行するコンピュータプログラムを外部読出し可能に記憶する。   Further, the second storage medium of the present invention uses one image data of a plurality of image data photographed at different viewpoint positions as a reference image, another image data as a search image, and the reference image as an image feature. And a region dividing step for dividing the region into small regions, a region boundary detecting step for detecting a boundary line of each small region divided by the region dividing step, and at least the region boundary between the reference image and the search image. By obtaining correspondence between a plurality of points on the boundary line of each small region detected by the line detection step and estimating a parallax amount of the plurality of points on the boundary line of each small region, the parallax amount estimating step A disparity amount frequency distribution creating step for creating a disparity amount frequency distribution of a plurality of points on the estimated boundary line for each small region, and each disparity amount frequency distribution creating step A parallax amount frequency distribution analyzing step for analyzing the frequency distribution of the parallax amount of the region, an area parallax amount estimating step for estimating the parallax amount of each small region based on the result analyzed by the parallax amount frequency distribution analyzing step, A parallax amount frequency distribution correcting step for correcting a frequency distribution of a parallax amount in a small region where the boundary overlaps with a small region in which the parallax amount is estimated in the region parallax amount estimating step, and the parallax estimated in the region parallax amount estimating step A computer program for executing a three-dimensional information extraction method, characterized by comprising a three-dimensional information calculation step for calculating three-dimensional information based on a quantity, is stored so as to be externally readable.

また、本発明の第3の記憶媒体は、異なる視点位置で撮影された複数の画像データのうちの一つの画像データを基準画像、他の画像データを探索画像とし、前記基準画像を画像特徴に応じて小領域に分割する領域分割ステップと、該領域分割ステップにより分割された各小領域の境界線を検出する領域境界線検出ステップと、前記基準画像と前記探索画像間において、少なくとも前記領域境界線検出ステップにより検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定ステップと、該視差量推定ステップにより推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成ステップと、該視差量頻度分布作成ステップにより作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析ステップと、該視差量頻度分布解析ステップにより解析された結果に基づいて各小領域の視差量を推定する領域視差量推定ステップと、該領域視差量推定ステップにより推定された各小領域の視差量と各小領域の色情報に基づく類似度に応じて小領域を統合する領域統合ステップとを有することを特徴とする領域分割統合方法を実行するコンピュータプログラムを外部読出し可能に記憶する。   Further, the third storage medium of the present invention uses one image data of a plurality of image data photographed at different viewpoint positions as a reference image, another image data as a search image, and uses the reference image as an image feature. And a region dividing step for dividing the region into small regions, a region boundary detecting step for detecting a boundary line of each small region divided by the region dividing step, and at least the region boundary between the reference image and the search image. By obtaining correspondence between a plurality of points on the boundary line of each small region detected by the line detection step and estimating a parallax amount of the plurality of points on the boundary line of each small region, the parallax amount estimating step A disparity amount frequency distribution creating step for creating a disparity amount frequency distribution of a plurality of points on the estimated boundary line for each small region, and each disparity amount frequency distribution creating step A parallax amount frequency distribution analyzing step for analyzing the frequency distribution of the parallax amount of the region, an area parallax amount estimating step for estimating the parallax amount of each small region based on the result analyzed by the parallax amount frequency distribution analyzing step, A region division integration method comprising: a region integration step of integrating small regions according to the degree of similarity based on the amount of parallax of each small region estimated by the region parallax amount estimation step and the color information of each small region A computer program to be executed is stored so as to be externally readable.

また、本発明の第4の記憶媒体は、異なる視点位置で撮影された複数の画像データのうちの一つの画像データを基準画像、他の画像データを探索画像とし、前記基準画像を画像特徴に応じて小領域に分割する領域分割ステップと、該領域分割ステップにより分割された各小領域の境界線を検出する領域境界線検出ステップと、前記基準画像と前記探索画像間において、少なくとも前記領域境界線検出ステップにより検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定ステップと、該視差量推定ステップにより推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成ステップと、該視差量頻度分布作成ステップにより作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析ステップと、該視差量頻度分布解析ステップにより解析された結果に基づいて各小領域の視差量を推定する領域視差量推定ステップと、該領域視差量推定ステップにより視差量が推定された小領域と境界線が重複する小領域の視差量の頻度分布を修正する視差量頻度分布修正ステップと、該領域視差量推定ステップにより推定された各小領域の視差量と各小領域の色情報に基づく類似度に応じて小領域を統合する領域統合ステップとを有することを特徴とする領域分割統合方法を実行するコンピュータプログラムを外部読出し可能に記憶する。   Further, the fourth storage medium of the present invention uses one image data of a plurality of image data photographed at different viewpoint positions as a reference image, another image data as a search image, and the reference image as an image feature. And a region dividing step for dividing the region into small regions, a region boundary detecting step for detecting a boundary line of each small region divided by the region dividing step, and at least the region boundary between the reference image and the search image. By obtaining correspondence between a plurality of points on the boundary line of each small region detected by the line detection step and estimating a parallax amount of the plurality of points on the boundary line of each small region, the parallax amount estimating step A disparity amount frequency distribution creating step for creating a disparity amount frequency distribution of a plurality of points on the estimated boundary line for each small region, and each disparity amount frequency distribution creating step A parallax amount frequency distribution analyzing step for analyzing the frequency distribution of the parallax amount of the region, an area parallax amount estimating step for estimating the parallax amount of each small region based on the result analyzed by the parallax amount frequency distribution analyzing step, A parallax amount frequency distribution correcting step for correcting the frequency distribution of the parallax amount of a small region where the boundary line overlaps with the small region where the parallax amount is estimated by the region parallax amount estimating step, and each of the regions estimated by the region parallax amount estimating step A computer program for executing an area division integration method, comprising: an area integration step for integrating the small areas in accordance with the degree of parallax of the small areas and the similarity based on the color information of each of the small areas. To do.

上述したように、本発明によれば、基準となる画像を小領域に分割し、その小領域の境界線の視差を領域ベースのステレオ法により推定し、各領域において推定された境界線の視差の頻度分布を解析して領域の視差を推定することで、従来の領域ベースのステレオ法における、画像の濃淡の変化が極端に小さい領域における誤対応の発生、オクルージョン領域で視差が推定できない、および、距離の異なる物体の境界で物体輪郭線と視差の境界がずれる、という問題が改善された三次元情報推定が可能である。また、推定された三次元情報を分割された領域の統合のための特徴量に用いることで、被写体本来の形状により近い画像分割統合結果を得ることが可能である。   As described above, according to the present invention, the reference image is divided into small regions, the parallax of the boundary line of the small region is estimated by the region-based stereo method, and the parallax of the boundary line estimated in each region By analyzing the frequency distribution and estimating the parallax of the region, in the conventional region-based stereo method, the occurrence of miscorrespondence in the region where the change in the shade of the image is extremely small, the parallax cannot be estimated in the occlusion region, and It is possible to estimate three-dimensional information in which the problem that the boundary between the object outline and the parallax is shifted at the boundary between objects with different distances is improved. Further, by using the estimated three-dimensional information as a feature amount for integrating divided areas, it is possible to obtain an image division integration result that is closer to the original shape of the subject.

以下、本発明の各実施の形態を図面に基づき詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
まず、本発明の第1の実施の形態を図1〜図2を参照して説明する。
(First embodiment)
First, a first embodiment of the present invention will be described with reference to FIGS.

図1は、本実施の形態における三次元情報抽出装置の構成を示すブロック図である。同図において、100は本実施の形態における三次元情報抽出装置である。101は視点の異なる位置で撮影された複数枚の画像データを入力する画像入力部である。102は入力された複数の画像の一枚を基準画像とし、それを小領域に分割する初期領域分割部である。103は102により分割された基準画像の初期領域を、色情報および領域面積を基に統合する初期領域統合部である。104は初期領域統合により形成された領域の境界線を検出する領域境界線検出部である。105は104により検出された領域境界線上の画素について、領域ベースのステレオ法を用いて対応点を探索し、視差を推定する領域境界線の視差推定部である。106は、領域境界線上の各画素の視差から領域の境界線の視差の頻度分布を作成する領域境界線の視差頻度分布作成部である。107は各領域の領域境界線の視差頻度分布を解析し、各領域において頻度が最も高い視差の値を演算する領域境界線の視差頻度分布解析部である。108は107により演算された各領域の頻度が最も高い視差の値を領域内の各画素に補間する領域の視差推定部である。109は、三角測量の原理に基づいて視差値を距離情報に変換する距離推定部である。   FIG. 1 is a block diagram showing the configuration of the three-dimensional information extraction apparatus in the present embodiment. In the figure, reference numeral 100 denotes a three-dimensional information extraction apparatus in the present embodiment. Reference numeral 101 denotes an image input unit that inputs a plurality of pieces of image data taken at different viewpoints. Reference numeral 102 denotes an initial region dividing unit that divides a plurality of inputted images into reference regions and divides them into small regions. An initial region integration unit 103 integrates the initial region of the reference image divided by 102 based on the color information and the region area. Reference numeral 104 denotes an area boundary detection unit that detects an area boundary formed by initial area integration. Reference numeral 105 denotes a region boundary line parallax estimation unit that searches for corresponding points of the pixels on the region boundary detected by 104 using a region-based stereo method and estimates parallax. Reference numeral 106 denotes a region boundary line parallax frequency distribution creation unit that creates a parallax frequency distribution of a region boundary line from the parallax of each pixel on the region boundary line. Reference numeral 107 denotes a region boundary line parallax frequency distribution analysis unit that analyzes the parallax frequency distribution of the region boundary line of each region and calculates the parallax value having the highest frequency in each region. Reference numeral 108 denotes an area parallax estimation unit that interpolates the parallax value calculated by 107 at the highest frequency in each area to each pixel in the area. Reference numeral 109 denotes a distance estimation unit that converts parallax values into distance information based on the principle of triangulation.

図1の装置の動作について説明する。各部の演算処理の詳細は処理手順の説明において述べる。図1の装置の各部の処理と図2の処理ステップは対応しており、101〜109の処理は、101とS201、102とS202、・・・、109とS209のように順に対応している。まず、画像入力部101から視点の異なる位置で撮影された複数枚の画像が入力される。初期領域分割部102において、その入力された画像のうちの一枚を基準画像とし、基準画像が画像の濃淡に基づいて小領域に分割される。そして初期領域統合部103において分割された小領域に対して色情報が類似する隣接領域が順次統合され、また、面積が小さい領域が隣接する面積の大きい領域に統合される。領域境界線検出部104では、異なる領域が隣接している画素を境界線として各領域の境界線が検出される。領域境界線の視差推定部105では各領域の境界線上の各画素に対して領域ベースのステレオ法により対応点探索が行われ視差が推定される。領域境界線の視差頻度分布作成部106では、各領域ごとに境界線上の画素の視差から視差の頻度分布が作成される。領域境界線の視差頻度分布解析部107では各領域の視差の頻度分布の解析により各領域ごとに頻度が最も高い視差が演算され、領域の視差推定部に入力される。領域の視差推定部108では、107から入力された視差値を領域の視差として領域内の全画素に補間する。距離推定部109では、三角測量の原理に基づいて各画素の視差を被写体までの距離情報に変換し、出力する。   The operation of the apparatus shown in FIG. 1 will be described. Details of the arithmetic processing of each part will be described in the description of the processing procedure. The processing of each part of the apparatus of FIG. 1 and the processing steps of FIG. 2 correspond, and the processing of 101 to 109 corresponds in order as 101 and S201, 102 and S202,..., 109 and S209. . First, a plurality of images taken at different viewpoints are input from the image input unit 101. In the initial region dividing unit 102, one of the input images is used as a reference image, and the reference image is divided into small regions based on the density of the image. Then, adjacent regions having similar color information to the small regions divided by the initial region integration unit 103 are sequentially integrated, and regions having a small area are integrated into adjacent regions having a large area. In the region boundary line detection unit 104, the boundary line of each region is detected using a pixel in which different regions are adjacent as a boundary line. The region boundary line parallax estimation unit 105 performs a corresponding point search for each pixel on the boundary line of each region by a region-based stereo method to estimate the parallax. The region boundary line parallax frequency distribution creating unit 106 creates a parallax frequency distribution from the parallax of pixels on the boundary line for each region. The parallax frequency distribution analysis unit 107 of the region boundary line calculates the parallax having the highest frequency for each region by analyzing the parallax frequency distribution of each region, and inputs the parallax to the region parallax estimation unit. The area parallax estimation unit 108 interpolates the parallax value input from 107 to all pixels in the area as the area parallax. The distance estimation unit 109 converts the parallax of each pixel into distance information to the subject based on the principle of triangulation and outputs the information.

次に本実施の形態における三次元情報抽出方法の処理手順を図2のフローチャートを用いて詳細に説明する。   Next, the processing procedure of the three-dimensional information extraction method in the present embodiment will be described in detail with reference to the flowchart of FIG.

ステップS201で視点の異なる位置で撮影された基準画像と探索画像が入力される。S202では、基準画像を面積の小さい初期領域に分割する。ここではWatershedアルゴリズム(L.Vincent and P.Soille,”Watersheds in Digital Spaces:An Efficient Algorithm Based on Immersion Simulations”, IEEE Transactions Pattern Analysis and Machine Intelligence, vol.13, no.6, pp.583-598, June 1991)を用いて領域分割を行う。Watershedアルゴリズムは、画像の濃淡を地形的な高低とみなして、この地形に水がみたされていく様子を模した領域分割法である。地形に水が注がれたときに高度の低い盆地から水が満たされていき水位があがると水を蓄えた盆地をわける分水嶺が現れる。これを模して、画像の濃淡レベルの低い画素から近傍の画素の濃淡レベルの低い画素に領域を広げていき、異なる領域が交わる位置を境界線として画像を領域分割する方法である。閉じた境界線が得られることが特徴である。本実施の形態では、上記のWatershedアルゴリズムを明度値のエッジ画像に適用して領域分割を行う。   In step S201, a reference image and a search image taken at different viewpoints are input. In S202, the reference image is divided into initial regions having a small area. Here, Watershed algorithm (L. Vincent and P. Soille, “Watersheds in Digital Spaces: An Efficient Algorithm Based on Immersion Simulations”, IEEE Transactions Pattern Analysis and Machine Intelligence, vol.13, no.6, pp.583-598, (June 1991). The Watershed algorithm is an area segmentation method that imitates the appearance of water on the topography, considering the shade of the image as topographical elevation. When water is poured into the terrain, water is filled from the low altitude basin, and when the water level rises, a watershed that separates the basin that stores the water appears. Simulating this, this is a method in which an area is expanded from a pixel having a low shading level of an image to a pixel having a low shading level of a neighboring pixel, and the image is divided into regions using a position where different regions meet as a boundary. It is characterized in that a closed boundary line can be obtained. In the present embodiment, the above-described Watershed algorithm is applied to the edge image of the brightness value to perform region division.

エッジ画像はRobinsonオペレータを用いて作成する。Robinsonオペレータは図3に示されるフィルタを45度ずつ回転させた8つのフィルタを用いてエッジを検出するものであり、本実施の形態では、これらのフィルタの出力の最大値をエッジ強度として用いる。   Edge images are created using the Robinson operator. The Robinson operator detects edges using eight filters obtained by rotating the filters shown in FIG. 3 by 45 degrees. In this embodiment, the maximum value of the outputs of these filters is used as the edge strength.

本実施の形態で用いるwatershedアルゴリズムに基づく領域分割法について説明する。Robinsonオペレータを用いて作成されたエッジ画像において、まず画像を複数の区画に分け、各区画内でエッジが極小値となる画素にラベルを付与する。次に、これらのラベルの近傍画素のうち画像中で相対的にエッジ強度の低い画素に隣接する画素のラベルを伝播する。ただし、異なるラベルが付与された画素への伝播は行わない。この処理を繰り返し各ラベルを伝播し、画像中の全画素にラベルを付与する。これにより、被写体の輪郭などエッジ強度が大きい箇所に境界線をもつ領域分割を行うことができる。本実施の形態では、画像中で領域分割を均等に行うために、画像を区画に分け初期ラベルを付与している。   A region division method based on the watershed algorithm used in the present embodiment will be described. In the edge image created using the Robinson operator, first, the image is divided into a plurality of sections, and a label is given to a pixel in which the edge has a minimum value in each section. Next, among the neighboring pixels of these labels, the labels of the pixels adjacent to the pixels having relatively low edge strength in the image are propagated. However, propagation to pixels with different labels is not performed. This process is repeated to propagate each label, and labels are assigned to all pixels in the image. As a result, it is possible to perform region division having a boundary line at a portion where the edge strength is large, such as the contour of the subject. In the present embodiment, in order to equally divide the region in the image, the image is divided into sections and given initial labels.

ステップS203では、ステップS202で分割された小さな小領域を各領域の隣接領域との類似度を基に統合していく。まず、分割された各領域について領域内の画素値の平均から平均色の明度、色相、彩度を算出する。そして各小領域の隣接関係を求める。次に隣接する領域との各色成分に関する類似度を数式(1)、数式(2)、数式(3)で求める。   In step S203, the small small areas divided in step S202 are integrated based on the similarity with the adjacent areas of each area. First, the brightness, hue, and saturation of the average color are calculated from the average of the pixel values in each divided area. Then, the adjacent relationship between each small area is obtained. Next, the similarity with respect to each color component with the adjacent region is obtained by Equation (1), Equation (2), and Equation (3).

Figure 2005165969
ここで
Figure 2005165969
here

Figure 2005165969
はそれぞれ注目する領域nと隣接する領域mの色相、明度、彩度に関する類似度である。
Figure 2005165969
Are similarities regarding the hue, brightness, and saturation of the region n adjacent to the region of interest.

Figure 2005165969
は注目領域nの平均色の色相、明度、彩度であり、
Figure 2005165969
Is the hue, brightness, and saturation of the average color of the region of interest n,

Figure 2005165969
は隣接領域mの平均色の色相、明度、彩度である。Hthは注目領域と隣接領域の色相の角度の差に対する閾値であり、色相の差が閾値より大きい場合は
Figure 2005165969
Is the hue, brightness, and saturation of the average color of the adjacent region m. H th is a threshold for the difference in hue angle between the attention area and the adjacent area, and when the difference in hue is larger than the threshold,

Figure 2005165969
は1となる。Lmax、Smaxは明度、彩度の最大値である。これらの類似度を統合し、隣接領域の類似度
Figure 2005165969
Becomes 1. L max and S max are the maximum values of lightness and saturation. By integrating these similarities, the similarity of adjacent areas

Figure 2005165969
を数式(4)で計算する。
Figure 2005165969
Is calculated by Equation (4).

Figure 2005165969
ここで、wH、wL、wSはそれぞれ色相、明度、彩度の類似度に対する重みである。
Figure 2005165969
Here, w H , w L , and w S are weights for the similarity of hue, lightness, and saturation, respectively.

画像中の隣接するすべての小領域の組について上記の領域間の類似度を算出し、類似度が最も小さい隣接領域の組から統合を行っていく。この隣接領域の統合は領域間の類似度が閾値以下の場合に行われる。次に、各領域の面積を計数し、対応点探索に用いられるブロックサイズより面積が小さい領域を、領域の類似度が最も小さい隣接領域に統合する。この処理により、対応点探索に用いられるブロックサイズより面積が大きく、画像の特徴に応じた境界線をもつ領域に分割される。これは領域の面積に対するブロックサイズの割合を低くし、領域の局所的な特徴の対応点を多数求めることで、視差の解析に十分な視差データを得るためである。図4は初期領域統合の処理結果を模式的に示す図である。図4(a)は入力された基準画像、図4(b)は初期領域統合の結果を示す。図示されているように初期領域統合では、被写体に対して過分割された状態である。ここで行われる領域統合は対応点探索に用いられるブロックサイズより大きくする程度であるため、類似度の閾値設定は厳密なものでなくてよく、領域が過剰に統合されないように設定すればよい。本実施の形態では、隣接領域間の類似度を領域内の平均色の明度、色相、彩度の差に基づく類似度としたが他の領域統合手法を用いてもよい。   The similarity between the above regions is calculated for a set of all adjacent small regions in the image, and integration is performed from the set of adjacent regions having the smallest similarity. This integration of adjacent regions is performed when the similarity between the regions is equal to or less than a threshold value. Next, the area of each region is counted, and regions having an area smaller than the block size used for the corresponding point search are integrated into adjacent regions having the smallest region similarity. By this processing, the area is larger than the block size used for the corresponding point search, and the image is divided into regions having boundary lines according to the image characteristics. This is because the ratio of the block size to the area of the region is reduced, and a large number of corresponding points of the local features of the region are obtained to obtain disparity data sufficient for the analysis of the disparity. FIG. 4 is a diagram schematically showing the processing result of the initial area integration. 4A shows the input reference image, and FIG. 4B shows the result of the initial region integration. As shown in the drawing, in the initial region integration, the subject is overdivided. Since the region integration performed here is only to be larger than the block size used for the corresponding point search, the threshold value setting of the similarity may not be strict and may be set so that the regions are not excessively integrated. In the present embodiment, the similarity between adjacent regions is set as the similarity based on the difference in lightness, hue, and saturation of the average color in the region, but other region integration methods may be used.

次にステップS204において領域の境界線が検出される。隣接する画素が異なる領域である画素を境界線を構成する画素として各領域に対して境界線検出を行う。   In step S204, the boundary line of the area is detected. Boundary line detection is performed for each area, with pixels that are adjacent areas being different pixels as pixels constituting the boundary line.

ステップS205では、検出された境界線を構成する各画素について、画素を中心としたX×Y画素の領域Bをブロックとして探索画像中で対応点探索を行う。ブロックの類似度は、数式(5)で示される残差絶対値和SSADを用いる。   In step S205, for each pixel constituting the detected boundary line, a corresponding point search is performed in the search image using an area B of X × Y pixels centered on the pixel as a block. The residual similarity sum SSAD shown by Equation (5) is used for the similarity of the blocks.

Figure 2005165969
ここでT(i,j)は基準画像中の画像ブロック内の画素の画素値を、I(i,j)は画像ブロックと比較される探索画像中の小領域内の画素の画素値を示している。E(x,y)は探索画像中を(x,y)だけ移動した位置における画素値の差の絶対値和を表している。探索範囲中で上記のSSADの値が最小となる領域の中心を対応点として決定し、基準画像の注目点と対応点の座標のずれを視差として算出する。これを検出された境界線を構成する全画素について行う。本実施の形態では、対応点探索に用いるブロックのサイズは画像中で一定とし領域統合における領域の面積をブロックサイズを考慮して設定しているが、領域統合の結果から領域の面積に応じてブロックのサイズを適応的に変更することも可能である。また、対応点探索に用いるブロックの類似度には、残差二乗和や正規化相関係数を用いてもよい。
Figure 2005165969
Here, T (i, j) indicates the pixel value of the pixel in the image block in the reference image, and I (i, j) indicates the pixel value of the pixel in the small area in the search image compared with the image block. ing. E (x, y) represents the sum of absolute values of pixel value differences at positions moved by (x, y) in the search image. The center of the region where the SSAD value is minimum in the search range is determined as a corresponding point, and a shift in coordinates between the target point of the reference image and the corresponding point is calculated as parallax. This is performed for all the pixels constituting the detected boundary line. In this embodiment, the size of the block used for the corresponding point search is constant in the image, and the area area in the area integration is set in consideration of the block size. It is also possible to adaptively change the block size. Further, a residual sum of squares or a normalized correlation coefficient may be used for the similarity of blocks used for corresponding point search.

ステップS206では、ステップS205で推定された境界線上の画素の視差値から、各領域ごとに境界線上の各画素の視差値の頻度分布を作成する。視差値の頻度分布は視差値ごとにその視差値をもつ画素の数を計数することで作成する。図5は領域境界線上の画素の視差値の頻度分布を模式的に示すグラフである。視差値には誤対応による誤った視差値が含まれている可能性があり、そのような場合、図5のように被写体本来の視差値に頻度のピークが生じるとともに誤対応によって生じる視差値が散在する頻度分布となる。   In step S206, the frequency distribution of the parallax values of the pixels on the boundary line is created for each region from the parallax values of the pixels on the boundary line estimated in step S205. The frequency distribution of the parallax values is created by counting the number of pixels having the parallax value for each parallax value. FIG. 5 is a graph schematically showing the frequency distribution of the parallax values of the pixels on the region boundary line. The parallax value may include an erroneous parallax value due to incorrect correspondence. In such a case, a frequency peak occurs in the original parallax value of the subject as shown in FIG. The frequency distribution is scattered.

ステップS207では、ステップS206で作成された各領域ごとの境界線の視差値の頻度分布から最大頻度を示す視差値を抽出する。この値がその領域の視差値となる。ステレオ法においては、誤対応により誤った視差値が生じる可能性があり、これらの視差値を用いると三次元情報抽出の精度が劣化してしまう。そのため、本実施の形態では領域境界線上の画素の視差値のうち最大頻度を示す視差値を領域の視差値として設定することにより、誤対応による視差値の影響を除去し三次元情報抽出の精度劣化の問題を改善することが可能である。   In step S207, the parallax value indicating the maximum frequency is extracted from the frequency distribution of the parallax values of the boundary lines for each region created in step S206. This value becomes the parallax value of the area. In the stereo method, there is a possibility that an erroneous parallax value is generated due to an incorrect correspondence. If these parallax values are used, the accuracy of three-dimensional information extraction is deteriorated. Therefore, in this embodiment, the parallax value indicating the maximum frequency among the parallax values of the pixels on the region boundary line is set as the parallax value of the region, thereby removing the influence of the parallax value due to incorrect correspondence and the accuracy of the three-dimensional information extraction. It is possible to improve the problem of deterioration.

ステップS208では、ステップS207で算出された各領域の視差値を領域内のすべての画素に補間する。これにより、画像中の全ての画素に視差の補間が行われる。   In step S208, the parallax value of each area calculated in step S207 is interpolated to all pixels in the area. Thereby, the parallax interpolation is performed on all the pixels in the image.

ステップS209では、各画素の視差を三角測量の原理に基づき撮像装置から被写体までの距離を算出する。   In step S209, the distance from the imaging device to the subject is calculated based on the principle of triangulation for the parallax of each pixel.

以上、詳細に説明したように、被写体の輪郭を反映した領域分割により画像に特徴のある境界線を抽出しその境界線についてのみ領域ベースのステレオ法を用いることで、画像特徴が極端に少ない領域における誤対応の発生を抑制し、誤対応の影響などを除去するための統計的な解析に用いる視差データを画像に応じて得ることができるため、全画像内で誤りの少ない視差を簡易な処理で求めることができる。基準画像のみ領域分割が必要とされるため、従来の特徴ベースのステレオ法のように基準画像、探索画像で等しく特徴を抽出する必要はなく、簡便な処理で信頼性の高い対応点探索が可能である。領域の視差の頻度分布の最も高い値を領域の視差値として用いるため、オクルージョン領域および物体の輪郭部での誤対応の影響を軽減することができる。これらにより、視差のばらつきが少なく、被写体の輪郭部においても精度のよい三次元情報の抽出が可能である。また、画像に応じた処理が可能であり、各処理の設定も容易かつ許容範囲が広いため、複雑な画像や自然シーンに対して頑強な処理を実現できる。   As described above in detail, an area with extremely few image features can be obtained by extracting a boundary line having an image characteristic by area division reflecting the contour of the subject and using the area-based stereo method only for the boundary line. Because it is possible to obtain parallax data for statistical analysis to suppress the occurrence of miscorrespondence and eliminate the effects of miscorrespondence according to the image, easy processing of disparity with few errors in all images Can be obtained. Since only the reference image needs to be divided into regions, there is no need to extract the features equally between the reference image and the search image as in the conventional feature-based stereo method, and it is possible to search for corresponding points with high reliability through simple processing. It is. Since the highest value of the frequency distribution of the parallax of the area is used as the parallax value of the area, it is possible to reduce the influence of erroneous correspondence in the occlusion area and the contour portion of the object. As a result, the parallax variation is small, and the three-dimensional information can be extracted with high accuracy even in the contour portion of the subject. In addition, processing according to the image is possible, and setting of each processing is easy and has a wide allowable range, so that robust processing can be realized for complex images and natural scenes.

(第2の実施の形態)
本発明の第2の実施の形態を図6〜図7を参照して説明する。
(Second embodiment)
A second embodiment of the present invention will be described with reference to FIGS.

図6は、本実施の形態における三次元情報抽出装置の構成を示すブロック図である。同図において、600は本実施の形態における三次元情報抽出装置である。601は視点の異なる位置で撮影された複数枚の画像データを入力する画像入力部である。602は入力された複数の画像の一枚を基準画像としそれを小領域に分割する初期領域分割部である。603は602により分割された基準画像の初期領域を、色情報および領域面積を基に統合する初期領域統合部である。604は初期領域統合により形成された領域の境界線を検出する領域境界線検出部である。605は604により検出された領域境界線上の画素について、領域ベースのステレオ法を用いて対応点を探索し視差を推定する領域境界線の視差推定部である。606は、領域境界線上の各画素の視差から領域の境界線の視差の頻度分布を作成する領域境界線の視差頻度分布作成部である。607は各領域の領域境界線の視差頻度分布を解析し、各領域における視差の平均値、分散、及び頻度が最も高い視差の値を演算する領域境界線の視差頻度分布解析部である。608は607により算出された視差の平均値、分散を判定することにより視差推定を行う領域を決定し、最大頻度の視差を用いて領域の視差を推定する領域視差推定部である。609は視差推定が行われた領域と隣接する領域の視差頻度分布を修正する領域境界線の視差頻度分布修正部である。610は視差推定の行えない領域の視差を隣接する領域の視差から補間する領域視差補間部である。611は三角測量の原理に基づいて視差値を距離情報に変換する距離推定部である。   FIG. 6 is a block diagram showing a configuration of the three-dimensional information extraction apparatus in the present embodiment. In the figure, reference numeral 600 denotes a three-dimensional information extraction apparatus in the present embodiment. Reference numeral 601 denotes an image input unit for inputting a plurality of pieces of image data taken at different viewpoints. Reference numeral 602 denotes an initial region dividing unit that divides one of a plurality of input images as a reference image and divides it into small regions. Reference numeral 603 denotes an initial region integration unit that integrates the initial region of the reference image divided by 602 based on the color information and the region area. An area boundary detection unit 604 detects an area boundary formed by initial area integration. A region boundary line parallax estimation unit 605 searches for corresponding points using a region-based stereo method and estimates parallax for pixels on the region boundary line detected by 604. A region boundary line parallax frequency distribution creating unit 606 creates a parallax frequency distribution of the region boundary line from the parallax of each pixel on the region boundary line. Reference numeral 607 denotes a parallax frequency distribution analysis unit for the region boundary line that analyzes the parallax frequency distribution of the region boundary line of each region and calculates the parallax average value, variance, and parallax value having the highest frequency in each region. Reference numeral 608 denotes an area parallax estimation unit that determines the parallax estimation area by determining the average value and variance of the parallax calculated in 607 and estimates the parallax of the area using the maximum frequency parallax. Reference numeral 609 denotes a region boundary line parallax frequency distribution correction unit that corrects the parallax frequency distribution of a region adjacent to the region where the parallax estimation is performed. Reference numeral 610 denotes an area parallax interpolation unit that interpolates the parallax of an area where parallax estimation cannot be performed from the parallax of an adjacent area. Reference numeral 611 denotes a distance estimation unit that converts parallax values into distance information based on the principle of triangulation.

図6の装置の動作について説明する。各部の演算処理の詳細は処理手順の説明において述べる。図6の装置の各部の処理と図7の処理ステップは対応しており、601〜611における処理は、601とS701、602とS702、・・・、611とS711のように順に対応している。601〜605は第1の実施の形態における101〜105と同様な動作であり、説明を省略する。領域境界線の視差頻度分布作成部606では、各領域ごとに境界線上の各画素の視差から視差の頻度分布が作成される。このとき各画素のエッジ強度により各画素の視差の頻度分布への寄与の重みが変更される。領域境界線の視差頻度分布解析部607では、各領域の視差の頻度分布が解析され、各領域の視差の平均値、分散、及び、最大頻度の視差値が演算され、領域の視差推定部に入力される。領域の視差推定部608では、607から入力された各領域の視差の平均値および分散を判定し、平均値が高く、分散の小さい領域から順に、607から入力された最大頻度の視差値を領域の視差として領域内の全画素に補間する。領域境界線の視差頻度分布修正部609では、視差推定された領域と境界が重複する領域の視差の頻度分布から境界線の重複部分の視差を除去する。領域の視差推定と頻度分布の修正を繰り返し行い、順に領域の視差を推定する。領域視差補間部610では、視差推定を行うことができなかった領域の視差を推定がすでに行われ平均色が類似した隣接領域の視差を用いて補間する。距離推定部611では、三角測量の原理に基づいて各画素の視差を被写体までの距離情報に変換し出力する。   The operation of the apparatus shown in FIG. 6 will be described. Details of the arithmetic processing of each part will be described in the description of the processing procedure. The processing of each part of the apparatus of FIG. 6 and the processing steps of FIG. 7 correspond to each other, and the processing in 601 to 611 sequentially corresponds to 601 and S701, 602 and S702,... 611 and S711. . Reference numerals 601 to 605 denote the same operations as 101 to 105 in the first embodiment, and a description thereof will be omitted. In the region boundary line parallax frequency distribution creating unit 606, a parallax frequency distribution is created from the parallax of each pixel on the boundary line for each region. At this time, the weight of the contribution to the frequency distribution of the parallax of each pixel is changed according to the edge strength of each pixel. The region boundary parallax frequency distribution analysis unit 607 analyzes the parallax frequency distribution of each region, calculates the parallax average value, variance, and maximum frequency parallax value of each region, and sends them to the region parallax estimation unit. Entered. The area parallax estimation unit 608 determines the average value and variance of the parallax of each area input from 607, and calculates the parallax value of the maximum frequency input from 607 in order from the area where the average value is high and the variance is small. Are interpolated to all pixels in the region as the parallax. The region boundary line parallax frequency distribution correction unit 609 removes the parallax of the overlapping portion of the boundary line from the parallax frequency distribution of the region where the boundary overlaps with the estimated parallax region. The parallax estimation of the area and the correction of the frequency distribution are repeatedly performed, and the parallax of the area is estimated in order. In the area parallax interpolation unit 610, the parallax of the area where the parallax cannot be estimated has already been estimated, and is interpolated using the parallax of the adjacent area having a similar average color. The distance estimation unit 611 converts the parallax of each pixel into distance information to the subject based on the principle of triangulation and outputs the information.

次に本実施の形態における三次元情報抽出方法の処理手順を図7のフローチャートを用いて詳細に説明する。   Next, the processing procedure of the three-dimensional information extraction method in the present embodiment will be described in detail with reference to the flowchart of FIG.

ステップS701〜S705までの処理は第1の実施の形態のステップS201〜S205と同様であり、ここでは説明を省略する。ステップS706では、ステップS705で推定された各領域ごとの境界線上の各画素の視差から、視差の頻度分布を作成する。ここで、第1の実施の形態とは異なり、境界線上の画素のエッジ強度により各画素の視差の頻度分布への寄与を次式のように変更する。   The processes from step S701 to S705 are the same as steps S201 to S205 in the first embodiment, and the description thereof is omitted here. In step S706, a parallax frequency distribution is created from the parallax of each pixel on the boundary line for each region estimated in step S705. Here, unlike the first embodiment, the contribution of each pixel to the frequency distribution of parallax is changed according to the edge strength of the pixel on the boundary line as follows.

n(i,j)=D(i,j)/Dmax …(6)
ここで、Cn(i,j)は領域nの座標(i,j)の境界線上の画素の視差の頻度分布への寄与であり、D(i,j)は座標(i,j)のエッジ強度、Dmaxはエッジ強度の最大値である。エッジ強度が強いほど視差の頻度分布への寄与が大きくなり、画像の特徴が強く領域ベースのステレオ法で信頼性の高い視差を推定する可能性の高い画素からの寄与を大きくすることで、より精度よく領域の視差推定が可能となる。視差の頻度分布への寄与の変更は数式(6)に限ったわけではなく、エッジ強度が強いほど視差の頻度分布への寄与を大きくすればよい。
C n (i, j) = D (i, j) / D max (6)
Here, C n (i, j) is a contribution to the frequency distribution of the parallax of the pixels on the boundary line of the coordinate (i, j) of the region n, and D (i, j) is the coordinate (i, j) The edge strength, D max is the maximum value of the edge strength. The stronger the edge strength, the greater the contribution to the frequency distribution of the parallax, and the greater the contribution from the pixels where the image features are strong and the region-based stereo method is more likely to estimate the parallax more reliable. It is possible to estimate the parallax of the region with high accuracy. The change in the contribution to the frequency distribution of the parallax is not limited to the equation (6), and the contribution to the frequency distribution of the parallax may be increased as the edge strength increases.

ステップS707では、各領域ごとに境界線上の視差の頻度分布の解析を行う。ステップS707−1では、各領域ごとに境界線上の視差の頻度分布を解析し視差の平均値および分散を算出し、ステップS707−2では視差の頻度分布から最大頻度の視差値を求める。本実施の形態では最大頻度の視差値を求めているが、その視差値を中心とした所定の範囲内の頻度が最大となる視差値を用いてもよい。   In step S707, the frequency distribution of the parallax on the boundary line is analyzed for each region. In step S707-1, the parallax frequency distribution on the boundary line is analyzed for each region to calculate the parallax average value and variance. In step S707-2, the parallax value having the maximum frequency is obtained from the parallax frequency distribution. Although the parallax value having the maximum frequency is obtained in the present embodiment, the parallax value having the maximum frequency within a predetermined range centered on the parallax value may be used.

ステップS708では、各領域の視差の推定を行う。ステップS708−1では、各領域の境界線上の視差の平均値および分散から視差推定を行う領域を決定する。ここでは、平均値が高く、分散の小さい順に視差推定を行う領域を決定する。図8は領域境界線上の画素の視差の頻度分布を模式的に示すグラフである。画像中で距離の異なる物体の輪郭により領域の境界線が形成される場合、図8(a)のように境界線上の視差の頻度分布は多峰性を示し、視差の分散は高くなる。また、分散が小さいということは誤対応などの誤った視差の影響が少ないということがいえる。このため分散が小さい領域ほどその領域は一様な視差を有し信頼性の高い視差推定が行われている可能性が高く、そのような領域から優先的に視差を決定していく。画像中で距離の異なる物体の輪郭により形成される境界線は距離の近い物体により遮へいされて生じるものであり、境界線の一部は距離の近い物体の輪郭を反映しており、その部分の視差は距離の近い物体の視差である。そのため、距離の近い物体から領域を推定していき、その領域と境界線が重複する隣接領域の視差の頻度分布からその領域の境界線との重複部分の視差を除去することで、距離の近い物体の視差に影響されず領域の視差の推定ができる。このことから、視差の平均値が高い領域を優先して領域の視差を推定していく。このような領域の境界線の視差の特性から、平均値が高く、分散の小さい領域から順に視差を推定していくことで、より高精度な視差推定が可能となる。本実施の形態では、平均値及び分散により、距離が近く、かつ、一様な視差をもつ領域であるかどうかを判断したが、その他の評価尺度を用いてもよい。ステップS708−2では、領域境界線上の視差の平均および分散から視差推定を行うことが決定した領域について、その領域の最大頻度の視差値で領域内の全画素に対して視差の補間を行う。ステップS708−3では、全ての領域境界線が視差推定に用いられたかか否かを判断し、全ての領域境界線が視差推定に用いられた場合には、ステップS710に進む。視差推定に用いられていない領域境界線が存在する場合、ステップS709に進む。   In step S708, the parallax of each area is estimated. In step S708-1, an area for which parallax estimation is performed is determined from the average value and variance of parallax on the boundary line of each area. Here, a region where parallax estimation is performed in the order of higher average value and smaller variance is determined. FIG. 8 is a graph schematically showing the frequency distribution of parallax of pixels on the region boundary line. When the boundary line of an area is formed by the contours of objects with different distances in the image, the parallax frequency distribution on the boundary line is multimodal as shown in FIG. 8A, and the parallax variance is high. Moreover, it can be said that the fact that the variance is small has little influence of erroneous parallax such as erroneous correspondence. For this reason, the smaller the variance, the higher the possibility that the region has uniform parallax and highly reliable parallax estimation is performed, and the parallax is preferentially determined from such a region. The boundary line formed by the contours of objects with different distances in the image is generated by being shielded by objects with close distances, and part of the boundary lines reflect the contours of objects with close distances. Parallax is the parallax of an object with a short distance. Therefore, by estimating the area from objects that are close to each other and removing the parallax of the overlapping area with the boundary line of the area from the frequency distribution of the parallax of the adjacent area where the area and the boundary line overlap, the distance is close The parallax of the region can be estimated without being affected by the parallax of the object. For this reason, the parallax of the area is preferentially given to the area having a high average parallax value. Based on the parallax characteristics of the boundary line of such an area, parallax can be estimated with higher accuracy by estimating the parallax in order from an area having a high average value and a small variance. In the present embodiment, it is determined whether or not the region has a close distance and a uniform parallax based on the average value and the variance. However, other evaluation measures may be used. In step S708-2, for an area determined to be subjected to parallax estimation from the average and variance of parallax on the area boundary line, parallax interpolation is performed on all pixels in the area with the parallax value of the maximum frequency of the area. In step S708-3, it is determined whether or not all region boundary lines are used for parallax estimation. If all region boundary lines are used for parallax estimation, the process proceeds to step S710. If there is an area boundary line that is not used for parallax estimation, the process proceeds to step S709.

ステップS709では、視差推定がなされた領域と境界線が重複する隣接領域の視差の頻度分布から重複部分の視差を除去する。図8(b)は図8(a)の頻度分布の修正を行った結果を模式的に示すグラフである。撮像装置からの距離が小さい物体により形成される境界線部分の視差が除去され、領域本来の視差値に単峰性のピークを有する頻度分布に修正されている。撮像装置からの距離が小さい領域から視差を推定し、推定された領域の境界線の視差を隣接する領域の境界線の視差から除去することで、距離が異なる複数の物体の輪郭によって画像中で境界線が形成されている領域に対して、距離の小さい物体の輪郭の視差を用いることなく精度よく領域の視差を推定することができる。この処理が終了した後、ステップS707に戻り、S707〜S708の処理を繰り返し、順次、領域の視差を推定していく。   In step S709, the disparity of the overlapping portion is removed from the disparity frequency distribution of the adjacent region where the boundary line overlaps with the region where the disparity estimation has been performed. FIG. 8B is a graph schematically showing the result of correcting the frequency distribution of FIG. The parallax of the boundary line portion formed by the object having a small distance from the imaging device is removed, and the frequency distribution having a unimodal peak in the original parallax value of the region is corrected. By estimating the parallax from an area with a small distance from the imaging device and removing the parallax of the estimated boundary line from the parallax of the boundary line of the adjacent area, the contours of multiple objects with different distances The parallax of the region can be accurately estimated without using the parallax of the contour of the object with a small distance with respect to the region where the boundary line is formed. After this process is completed, the process returns to step S707, the processes of S707 to S708 are repeated, and the parallax of the region is sequentially estimated.

ステップS710では、ステップS710−1により全ての領域の視差が推定されたか否かを判断し、全ての領域の視差が推定されている場合には、ステップS711に進む。視差が推定されていない領域が存在する場合は、ステップS710−2に進み、初期領域統合と同様の類似度を用い隣接領域間の類似度が最も小さい隣接領域の視差を領域の視差として領域内の画素に視差を補間する。   In step S710, it is determined whether or not the parallax of all the regions has been estimated in step S710-1, and if the parallax of all the regions has been estimated, the process proceeds to step S711. If there is an area where the parallax has not been estimated, the process proceeds to step S710-2, where the same degree of similarity as in the initial area integration is used and the parallax of the adjacent area having the smallest degree of similarity between adjacent areas is used as the area parallax. The parallax is interpolated to the pixels.

ステップS711では、第1の実施の形態と同様に三角測量の原理に基づき撮像装置から被写体までの距離を算出する。   In step S711, the distance from the imaging device to the subject is calculated based on the principle of triangulation as in the first embodiment.

以上、詳細に説明したように、領域境界線の視差の頻度分布の解析により算出された視差の平均値および分散から視差推定を行う順番を決定し視差推定が行われた領域と境界線が重複する隣接領域の視差の頻度分布から重複部分の視差を除去することで、被写体の輪郭部など異なる距離の複数の物体によって境界線が形成される領域において手前側の被写体に遮へいされることによって生じる境界線の視差を除去することができ、被写体の輪郭部と視差の境界のずれのない精度のよい三次元情報の抽出が可能である。また、視差の頻度分布を作成する際に、エッジ強度に応じて境界線上の各画素の視差の寄与を変更し、特徴が強く信頼の高い視差推定が行える画素の視差の寄与を重くし、特徴が少なく誤対応が生じやすい画素の視差の寄与を小さくすることで、更に領域の視差推定の精度の向上が可能である。   As described in detail above, the order of parallax estimation is determined from the parallax average value and variance calculated by analyzing the parallax frequency distribution of the area boundary, and the area where the parallax estimation is performed overlaps with the boundary This is caused by removing the parallax of the overlapping part from the frequency distribution of the parallax in the adjacent area, and by blocking the near-side subject in the region where the boundary line is formed by a plurality of objects at different distances such as the contour portion of the subject. The parallax of the boundary line can be removed, and accurate three-dimensional information can be extracted without any deviation between the contour of the subject and the parallax boundary. Also, when creating the disparity frequency distribution, the contribution of the disparity of each pixel on the boundary line is changed according to the edge strength, the contribution of the disparity of the pixel that has a strong feature and reliable disparity estimation is increased, It is possible to further improve the accuracy of the parallax estimation of the region by reducing the contribution of the parallax of the pixel that is less likely to cause an erroneous response.

(第3の実施の形態)
まず、本発明の第3の実施の形態を図9〜図10を参照して説明する。
(Third embodiment)
First, a third embodiment of the present invention will be described with reference to FIGS.

図9は、本実施の形態における領域分割統合装置の構成を示すブロック図である。同図において、900は本実施の形態における領域分割統合装置である。901は視点の異なる位置で撮影された複数枚の画像データを入力する画像入力部である。902は入力された複数の画像の一枚を基準画像とし、それを小領域に分割する初期領域分割部である。903は902により分割された基準画像の初期領域を、色情報および領域面積を基に統合する初期領域統合部である。904は初期領域統合により形成された領域の境界線を検出する領域境界線検出部である。905は904により検出された領域境界線上の画素について、領域ベースのステレオ法を用いて対応点を探索し、視差を推定する領域境界線の視差推定部である。906は、領域境界線上の各画素の視差から領域の境界線の視差の頻度分布を作成する領域境界線の視差頻度分布作成部である。907は各領域の領域境界線の視差頻度分布を解析し、各領域において頻度が最も高い視差の値を演算する領域境界線の視差頻度分布解析部である。908は907により演算された各領域の頻度が最も高い視差の値を領域内の各画素に補間する領域の視差推定部である。909は、色情報および視差情報を基に領域を統合する領域統合部である。   FIG. 9 is a block diagram showing a configuration of the area division and integration device according to the present embodiment. In the figure, reference numeral 900 denotes an area division integration apparatus according to the present embodiment. Reference numeral 901 denotes an image input unit that inputs a plurality of pieces of image data taken at different viewpoints. Reference numeral 902 denotes an initial region dividing unit that divides one of a plurality of input images as a reference image and divides it into small regions. Reference numeral 903 denotes an initial region integration unit that integrates the initial region of the reference image divided by 902 based on the color information and the region area. An area boundary detection unit 904 detects an area boundary formed by initial area integration. Reference numeral 905 denotes a region boundary line parallax estimation unit that searches for corresponding points of the pixels on the region boundary line detected by 904 using a region-based stereo method and estimates parallax. A region boundary line parallax frequency distribution creating unit 906 creates a parallax frequency distribution of the region boundary line from the parallax of each pixel on the region boundary line. Reference numeral 907 denotes a region boundary line parallax frequency distribution analysis unit that analyzes the parallax frequency distribution of the region boundary line of each region and calculates the parallax value having the highest frequency in each region. Reference numeral 908 denotes an area parallax estimation unit that interpolates the parallax value calculated by 907 with the highest frequency in each area to each pixel in the area. Reference numeral 909 denotes an area integration unit that integrates areas based on color information and parallax information.

図9の装置の動作について説明する。各部の演算処理の詳細は処理手順の説明において述べる。図9の装置の各部の処理と図10の処理ステップは対応しており、901〜909における処理は、901とS1001、902とS1002、・・・、909とS1009のように順に対応している。901〜908は第1の実施の形態と同様な動作であり、説明を省略する。領域統合部909では、初期領域統合部903で統合された各領域の平均色の類似度と908までに推定された各領域の視差値の類似度に基づいて領域統合を行い、領域分割統合結果を出力する。   The operation of the apparatus shown in FIG. 9 will be described. Details of the arithmetic processing of each part will be described in the description of the processing procedure. The processing of each part of the apparatus of FIG. 9 and the processing steps of FIG. 10 correspond to each other, and the processing in 901 to 909 sequentially corresponds to 901 and S1001, 902 and S1002,... 909 and S1009. . Reference numerals 901 to 908 denote the same operations as those in the first embodiment, and a description thereof will be omitted. The region integration unit 909 performs region integration based on the similarity of the average color of each region integrated by the initial region integration unit 903 and the similarity of the parallax values of each region estimated up to 908, and results of region division integration Is output.

次に本実施の形態における領域分割統合方法の処理手順を図10のフローチャートを用いて詳細に説明する。   Next, the processing procedure of the region division integration method according to the present embodiment will be described in detail with reference to the flowchart of FIG.

ステップS1001〜S1008までの処理手順は第1の実施の形態と同様である。ステップS1009では各領域の平均色の類似度と視差値の類似度に基づいて領域統合を行う。平均色の類似度は第1の実施の形態と同様に数式(4)で示される類似度   The processing procedure from step S1001 to S1008 is the same as that of the first embodiment. In step S1009, region integration is performed based on the average color similarity and the disparity value similarity of each region. Similar to the first embodiment, the average color similarity is represented by the equation (4).

Figure 2005165969
を用いる。視差値の類似度は数式(7)を用いて算出する。
Figure 2005165969
Is used. The similarity between the parallax values is calculated using Equation (7).

Figure 2005165969
ここで、
Figure 2005165969
here,

Figure 2005165969
は注目する領域nと隣接する領域mの視差値の類似度である。
Figure 2005165969
Is the degree of similarity of the parallax values between the region n of interest and the adjacent region m.

Figure 2005165969
はそれぞれ注目領域の視差値、隣接領域の視差値である。Pmaxは画像中の視差値の最大値である。これらの各類似度から隣接領域間の類似度ΔSimmnを数式(8)で算出する。
Figure 2005165969
Are the parallax value of the attention area and the parallax value of the adjacent area, respectively. P max is the maximum parallax value in the image. From these similarities, the similarity ΔSim mn between adjacent regions is calculated by Equation (8).

Figure 2005165969
ここでwV、wPはそれぞれ平均色および視差の類似度に対する重みである。画像中の隣接するすべての領域の組について上記の領域間の類似度を算出し、類似度が最も小さい隣接領域の組から統合を行っていく。この隣接領域の統合は領域間の類似度が閾値以下の場合に行われる。本実施の形態では、平均色の類似度および視差の類似度を用いたが、色に関する他の類似度や、視差を変換することにより得られる距離情報などを用いてもよい。
Figure 2005165969
Here, w V and w P are weights for the similarity between the average color and the parallax, respectively. The similarity between the above regions is calculated for a set of all adjacent regions in the image, and integration is performed from the set of adjacent regions having the smallest similarity. This integration of adjacent regions is performed when the similarity between the regions is equal to or less than a threshold value. In this embodiment, the similarity of the average color and the similarity of the parallax are used, but other similarities regarding the color, distance information obtained by converting the parallax, and the like may be used.

以上、詳細に説明したように、物体輪郭と視差の境界にずれが生じない視差情報を領域統合に用いることで、多数の異なる色を持つ被写体に対しても領域統合が容易でかつ、被写体輪郭が正確に反映された画像に応じた領域分割統合結果を得ることができる。   As described above in detail, by using the parallax information that does not cause a deviation between the boundary between the object contour and the parallax for the region integration, the region integration can be easily performed even for subjects having many different colors, and the subject contour As a result, it is possible to obtain a region division integration result corresponding to an image in which is accurately reflected.

本実施の形態では、領域分割をWatershedアルゴリズムにより行なっているが、例えば、領域成長法など用いてもよい。   In the present embodiment, the region division is performed by the Watershed algorithm. However, for example, a region growing method or the like may be used.

また、本実施の形態では、視差を三角測量の原理に基づき撮像装置からの距離に変換し出力しているが、三次元情報の出力の形態としては、変換を行わずに視差値を出力してもよい。また、視差値あるいは撮像装置からの距離を変換した他の形態の出力をする場合も本発明に含まれる。   In this embodiment, the parallax is converted into a distance from the imaging device based on the principle of triangulation and output. However, as a form of output of the three-dimensional information, the parallax value is output without conversion. May be. Further, the present invention includes the case of outputting in another form in which the parallax value or the distance from the imaging device is converted.

また、本発明は、上記説明した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することにも適用できる。   Further, the present invention supplies a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus stores the storage medium. It can also be applied to reading and executing the program code stored in.

この場合、記憶媒体から読み出されたプログラムコード自体が、上記説明した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

プログラムコードを供給するための記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。   As a storage medium for supplying the program code, for example, a floppy (registered trademark) disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like is used. be able to.

また、コンピュータが読み出したプログラムコードを実行することにより、上記説明した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって、上記説明した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code. Needless to say, the present invention includes a case where the functions of the embodiment described above are realized by performing part or all of the actual processing.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって上記説明した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

本発明の第1の実施の形態における三次元情報抽出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional information extraction apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態における三次元情報抽出方法の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the three-dimensional information extraction method in the 1st Embodiment of this invention. 本発明の第1の実施の形態におけるエッジ画像を作成する際に用いるRobinsonオペレータを示す図である。It is a figure which shows the Robinson operator used when producing the edge image in the 1st Embodiment of this invention. 本発明の第1の実施の形態における初期領域統合結果を模式的に示す図である。FIG. 6 is a diagram schematically showing an initial region integration result in the first exemplary embodiment of the present invention. 本発明の第1の実施の形態における領域境界線の視差頻度分布の作成結果を模式的に示すグラフである。It is a graph which shows typically the creation result of the parallax frequency distribution of the region boundary in the 1st embodiment of the present invention. 本発明の第2の実施の形態における三次元情報抽出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the three-dimensional information extraction apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における三次元情報抽出方法の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the three-dimensional information extraction method in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における領域境界線の視差頻度分布の作成結果を模式的に示すグラフである。It is a graph which shows typically the creation result of the parallax frequency distribution of the region boundary in the 2nd embodiment of the present invention. 本発明の第3の実施の形態における領域分割統合装置の構成を示すブロック図である。It is a block diagram which shows the structure of the area division integration apparatus in the 3rd Embodiment of this invention. 本発明の第3の実施の形態における領域分割統合方法の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the area division | segmentation integration method in the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

100 三次元情報抽出装置
101 画像入力部
102 初期領域分割部
103 初期領域統合部
104 領域境界線検出部
105 領域境界線の視差推定部
106 領域境界線の視差頻度分布作成部
107 領域境界線の視差頻度分布解析部
108 領域の視差推定部
109 距離推定部
600 三次元情報抽出装置
601 画像入力部
602 初期領域分割部
603 初期領域統合部
604 領域境界線検出部
605 領域境界線の視差推定部
606 領域境界線の視差頻度分布作成部
607 領域境界線の視差頻度分布解析部
608 領域視差推定部
609 領域境界線の視差頻度分布修正部
610 領域視差補間部
611 距離推定部
900 領域分割統合装置
901 画像入力部
902 初期領域分割部
903 初期領域統合部
904 領域境界線検出部
905 領域境界線の視差推定部
906 領域境界線の視差頻度分布作成部
907 領域境界線の視差頻度分布解析部
908 領域の視差推定部
909 領域統合部
DESCRIPTION OF SYMBOLS 100 3D information extraction apparatus 101 Image input part 102 Initial area division part 103 Initial area integration part 104 Area boundary line detection part 105 Area boundary line parallax estimation part 106 Area boundary line parallax frequency distribution creation part 107 Area boundary line parallax Frequency distribution analysis unit 108 Region parallax estimation unit 109 Distance estimation unit 600 Three-dimensional information extraction device 601 Image input unit 602 Initial region division unit 603 Initial region integration unit 604 Region boundary line detection unit 605 Region boundary line parallax estimation unit 606 region Boundary line parallax frequency distribution creation unit 607 Region boundary line parallax frequency distribution analysis unit 608 Region parallax estimation unit 609 Region boundary line parallax frequency distribution correction unit 610 Region parallax interpolation unit 611 Distance estimation unit 900 Region division integration device 901 Image input Part 902 initial area dividing part 903 initial area integrating part 904 area boundary line inspection Part 905 regions border parallax frequency distribution analysis unit 908 regional disparity estimator 909 region integrating part of the parallax frequency distribution creation unit 907 region boundary line of the parallax estimation unit 906 regions border

Claims (30)

異なる視点位置で撮影された複数の画像データを入力する画像入力手段と、
該画像入力手段により入力された画像データのうちの一つの基準画像データを小領域に分割する領域分割手段と、
該領域分割手段により分割された各小領域の境界線を検出する領域境界線検出手段と、
前記画像入力手段により入力された複数の画像のうちの基準画像と他の画像間において、少なくとも前記領域境界線検出手段により検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定手段と、
該視差量推定手段により推定された境界線上にある複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成手段と、
該視差量頻度分布作成手段により作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析手段と、
該視差量頻度分布解析手段により解析された結果に基づいて各小領域の視差量を推定する領域視差量推定手段と、
該領域視差量推定手段により推定された各小領域の視差量に基づいて三次元情報を算出する三次元情報算出手段と、
を備えることを特徴とする三次元情報抽出装置。
Image input means for inputting a plurality of image data shot at different viewpoint positions;
Area dividing means for dividing one reference image data of the image data input by the image input means into small areas;
Area boundary detection means for detecting a boundary line of each small area divided by the area dividing means;
Between at least a reference image of the plurality of images input by the image input means and another image, and at least correspondence of a plurality of points on the boundary line of each small region detected by the region boundary line detection unit; Parallax amount estimation means for estimating the parallax amount of a plurality of points on the boundary line of the small region;
A parallax amount frequency distribution creating unit that creates a frequency distribution of the parallax amount of a plurality of points on the boundary estimated by the parallax amount estimating unit for each small region;
A parallax amount frequency distribution analyzing unit that analyzes the frequency distribution of the parallax amount of each small region created by the parallax amount frequency distribution creating unit;
Area parallax amount estimating means for estimating the amount of parallax of each small area based on the result analyzed by the parallax amount frequency distribution analyzing means;
Three-dimensional information calculation means for calculating three-dimensional information based on the parallax amount of each small area estimated by the area parallax amount estimation means;
A three-dimensional information extraction apparatus comprising:
前記視差量頻度分布解析手段が、各小領域の視差量の頻度分布から各小領域について最大頻度の視差量を算出し、
前記領域視差量推定手段が、各小領域の前記最大頻度の視差量を小領域の視差量として各小領域の視差量を推定することを特徴とする請求項1に記載の三次元情報抽出装置。
The parallax amount frequency distribution analyzing means calculates the parallax amount of the maximum frequency for each small region from the frequency distribution of the parallax amount of each small region,
2. The three-dimensional information extraction device according to claim 1, wherein the region parallax amount estimation unit estimates the parallax amount of each small region using the parallax amount of the maximum frequency of each small region as the parallax amount of the small region. .
異なる視点位置で撮影された複数の画像データを入力する画像入力手段と、
該画像入力手段により入力された画像データのうちの一つの基準画像データを小領域に分割する領域分割手段と、
該領域分割手段により分割された各小領域の境界線を検出する領域境界線検出手段と、
前記画像入力手段により入力された複数の画像のうちの基準画像と他の画像間において、少なくとも前記領域境界線検出手段により検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定手段と、
前記視差量推定手段により推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成手段と、
該視差量頻度分布作成手段により作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析手段と、
該視差量頻度分布解析手段により解析された結果に基づいて各小領域の視差量を推定する領域視差量推定手段と、
該領域視差量推定手段により視差量が推定された小領域と境界線が重複する小領域の視差量の頻度分布を修正する視差量頻度分布修正手段と、
前記領域視差量推定手段により推定された視差量に基づいて三次元情報を算出する三次元情報算出手段と、
を備えることを特徴とする三次元情報抽出装置。
Image input means for inputting a plurality of image data shot at different viewpoint positions;
Area dividing means for dividing one reference image data of the image data input by the image input means into small areas;
Area boundary detection means for detecting a boundary line of each small area divided by the area dividing means;
Between at least a reference image of the plurality of images input by the image input means and another image, and at least correspondence of a plurality of points on the boundary line of each small region detected by the region boundary line detection unit; Parallax amount estimation means for estimating the parallax amount of a plurality of points on the boundary line of the small region;
A parallax amount frequency distribution creating unit that creates a frequency distribution of the parallax amount of a plurality of points on a boundary line estimated by the parallax amount estimating unit for each small region;
A parallax amount frequency distribution analyzing unit that analyzes the frequency distribution of the parallax amount of each small region created by the parallax amount frequency distribution creating unit;
Area parallax amount estimating means for estimating the amount of parallax of each small area based on the result analyzed by the parallax amount frequency distribution analyzing means;
A parallax amount frequency distribution correcting unit that corrects the frequency distribution of the parallax amount in a small region where the boundary line overlaps with the small region in which the parallax amount is estimated by the region parallax amount estimating unit;
Three-dimensional information calculation means for calculating three-dimensional information based on the amount of parallax estimated by the area parallax amount estimation means;
A three-dimensional information extraction apparatus comprising:
前記視差量頻度分布解析手段が、各小領域の視差量の頻度分布から各小領域について視差量の平均値、分散および最大頻度の視差量を算出し、
前記領域視差量推定手段が、前記視差量の平均値が画像中の小領域の中で相対的に高く、前記視差量の分散が画像中の小領域の中で相対的に小さい小領域から順に、各小領域の前記最大頻度の視差量を小領域の視差量として各小領域の視差量を推定し、
前記視差量頻度分布修正手段が、前記領域視差量推定手段により視差量が推定された小領域と境界線が重複する小領域の視差量頻度分布から境界線が重複する部分の視差量を除去することを特徴とする請求項3に記載の三次元情報抽出装置。
The parallax amount frequency distribution analysis means calculates an average value of the parallax amount, a variance and a parallax amount of the maximum frequency for each small region from the frequency distribution of the parallax amount of each small region,
The region parallax amount estimation means is configured so that the average value of the parallax amount is relatively high in the small regions in the image, and the variance of the parallax amount is in order from the relatively small regions in the small regions in the image. , Estimating the amount of parallax of each small region by using the parallax amount of the maximum frequency of each small region as the amount of parallax of the small region,
The parallax amount frequency distribution correcting unit removes the parallax amount of the portion where the boundary line overlaps from the parallax amount frequency distribution of the small region where the boundary line overlaps with the small region where the parallax amount is estimated by the region parallax amount estimating unit. The three-dimensional information extraction apparatus according to claim 3.
前記視差量頻度分布作成手段が、各小領域の境界線上の各点の画像特徴量に応じて該各点の視差量の頻度分布への寄与を変更して頻度分布を作成することを特徴とする請求項1から4にいずれか記載の三次元情報抽出装置。   The parallax amount frequency distribution creating means creates the frequency distribution by changing the contribution of the parallax amount of each point to the frequency distribution according to the image feature amount of each point on the boundary line of each small region. The three-dimensional information extraction device according to any one of claims 1 to 4. 異なる視点位置で撮影された複数の画像データを入力する画像入力手段と、
該画像入力手段により入力された画像データのうちの一つの基準画像データを小領域に分割する領域分割手段と、
該領域分割手段により分割された各小領域の境界線を検出する領域境界線検出手段と、
前記画像入力手段により入力された複数の画像のうちの基準画像と他の画像間において、少なくとも前記領域境界線検出手段により検出された境界線上の複数の点の対応を求め、該境界線上の複数の点の視差量を推定する視差量推定手段と、
前記視差量推定手段により推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成手段と、
該視差量頻度分布作成手段により作成された視差量の頻度分布を解析する視差量頻度分布解析手段と、
該視差量頻度分布解析手段により解析された結果に基づいて各小領域の視差量を推定する領域視差量推定手段と、
該領域視差量推定手段により推定された各小領域の視差量と各小領域の色情報に基づく類似度に応じて小領域を統合する領域統合手段と、
を備えることを特徴とする領域分割統合装置。
Image input means for inputting a plurality of image data shot at different viewpoint positions;
Area dividing means for dividing one reference image data of the image data input by the image input means into small areas;
Area boundary detection means for detecting a boundary line of each small area divided by the area dividing means;
A correspondence between at least a plurality of points on the boundary line detected by the region boundary line detection unit is obtained between a reference image of the plurality of images input by the image input unit and another image, and a plurality of points on the boundary line are obtained. Parallax amount estimation means for estimating the parallax amount of the point;
A parallax amount frequency distribution creating unit that creates a frequency distribution of the parallax amount of a plurality of points on a boundary line estimated by the parallax amount estimating unit for each small region;
A parallax amount frequency distribution analyzing means for analyzing the frequency distribution of the parallax amount created by the parallax amount frequency distribution creating means;
Area parallax amount estimating means for estimating the amount of parallax of each small area based on the result analyzed by the parallax amount frequency distribution analyzing means;
Area integration means for integrating the small areas according to the similarity based on the parallax amount of each small area estimated by the area parallax amount estimation means and the color information of each small area;
An area division and integration device comprising:
前記視差量頻度分布解析手段が、各小領域の視差量の頻度分布から各小領域について最大頻度の視差量を算出し、
前記領域視差量推定手段が、各小領域の前記最大頻度の視差量を小領域の視差量として各小領域の視差量を推定することを特徴とする請求項6に記載の領域分割統合装置。
The parallax amount frequency distribution analyzing means calculates the parallax amount of the maximum frequency for each small region from the frequency distribution of the parallax amount of each small region,
7. The area division integration apparatus according to claim 6, wherein the area parallax amount estimation unit estimates the parallax amount of each small area using the parallax amount of the maximum frequency of each small area as the parallax amount of the small area.
異なる視点位置で撮影された複数の画像データを入力する画像入力手段と、
該画像入力手段により入力された画像データのうちの一つの基準画像データを小領域に分割する領域分割手段と、
該領域分割手段により分割された各小領域の境界線を検出する領域境界線検出手段と、
前記画像入力手段により入力された複数の画像のうちの基準画像と他の画像間において、少なくとも前記領域境界線検出手段により検出された境界線上の複数の点の対応を求め、該境界線上の複数の点の視差量を推定する視差量推定手段と、
前記視差量推定手段により推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成手段と、
該視差量頻度分布作成手段により作成された視差量の頻度分布を解析する視差量頻度分布解析手段と、
該視差量頻度分布解析手段により解析された結果に基づいて各小領域の視差量を推定する領域視差量推定手段と、
前記領域視差量推定手段により視差量が推定された小領域と境界線が重複する小領域の視差量の頻度分布を修正する視差量頻度分布修正手段と、
該領域視差量推定手段により推定された各小領域の視差量と各小領域の色情報に基づく類似度に応じて小領域を統合する領域統合手段と、
を備えることを特徴とする領域分割統合装置。
Image input means for inputting a plurality of image data shot at different viewpoint positions;
Area dividing means for dividing one reference image data of the image data input by the image input means into small areas;
Area boundary detection means for detecting a boundary line of each small area divided by the area dividing means;
A correspondence between at least a plurality of points on the boundary line detected by the region boundary line detection unit is obtained between a reference image of the plurality of images input by the image input unit and another image, and a plurality of points on the boundary line are obtained. Parallax amount estimation means for estimating the parallax amount of the point;
A parallax amount frequency distribution creating unit that creates a frequency distribution of the parallax amount of a plurality of points on a boundary line estimated by the parallax amount estimating unit for each small region;
A parallax amount frequency distribution analyzing means for analyzing the frequency distribution of the parallax amount created by the parallax amount frequency distribution creating means;
Area parallax amount estimating means for estimating the amount of parallax of each small area based on the result analyzed by the parallax amount frequency distribution analyzing means;
A parallax amount frequency distribution correcting unit that corrects the frequency distribution of the parallax amount of the small region where the boundary line overlaps with the small region of which the parallax amount is estimated by the region parallax amount estimating unit;
Area integration means for integrating the small areas according to the similarity based on the parallax amount of each small area estimated by the area parallax amount estimation means and the color information of each small area;
An area division and integration device comprising:
前記視差量頻度分布解析手段が、各小領域の視差量の頻度分布から各小領域について視差量の平均値、分散および最大頻度の視差量を算出し、
前記領域視差量推定手段が、前記視差量の平均値が画像中の小領域の中で相対的に高く、前記視差量の分散が画像中の小領域の中で相対的に小さい小領域から順に、各小領域の前記最大頻度の視差量を小領域の視差量として各小領域の視差量を推定し、
前記視差量頻度分布修正手段が、前記領域視差量推定手段により視差量が推定された小領域と境界線が重複する小領域の視差量頻度分布から境界線が重複する部分の視差量を除去することを特徴とする請求項8に記載の領域分割統合装置。
The parallax amount frequency distribution analysis means calculates an average value of the parallax amount, a variance and a parallax amount of the maximum frequency for each small region from the frequency distribution of the parallax amount of each small region,
The region parallax amount estimation means is configured so that the average value of the parallax amount is relatively high in the small regions in the image, and the variance of the parallax amount is in order from the relatively small regions in the small regions in the image. , Estimating the amount of parallax of each small region by using the parallax amount of the maximum frequency of each small region as the amount of parallax of the small region,
The parallax amount frequency distribution correcting unit removes the parallax amount of the portion where the boundary line overlaps from the parallax amount frequency distribution of the small region where the boundary line overlaps with the small region where the parallax amount is estimated by the region parallax amount estimating unit. The area division integration apparatus according to claim 8.
前記視差量頻度分布作成手段が、各小領域の境界線上の各点の画像特徴量に応じて該各点の視差量の頻度分布への寄与を変更して頻度分布を作成することを特徴とする請求項5から9にいずれか記載の領域分割統合装置。   The parallax amount frequency distribution creating means creates the frequency distribution by changing the contribution of the parallax amount of each point to the frequency distribution according to the image feature amount of each point on the boundary line of each small region. The area division integration apparatus according to any one of claims 5 to 9. 異なる視点位置で撮影された複数の画像データのうちの一つの画像データを基準画像、他の画像データを探索画像とし、
前記基準画像を画像特徴に応じて小領域に分割する領域分割ステップと、
該領域分割ステップにより分割された各小領域の境界線を検出する領域境界線検出ステップと、
前記基準画像と前記探索画像間において、少なくとも前記領域境界線検出ステップにより検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定ステップと、
該視差量推定ステップにより推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成ステップと、
該視差量頻度分布作成ステップにより作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析ステップと、
該視差量頻度分布解析ステップにより解析された結果に基づいて各小領域の視差量を推定する領域視差量推定ステップと、
該領域視差量推定ステップにより推定された各小領域の視差量に基づいて三次元情報を算出する三次元情報算出ステップと、
を有することを特徴とする三次元情報抽出方法。
Of the plurality of image data taken at different viewpoint positions, one image data is a reference image, and the other image data is a search image.
An area dividing step of dividing the reference image into small areas according to image characteristics;
A region boundary detection step for detecting a boundary line of each small region divided by the region division step;
A correspondence between a plurality of points on the boundary line of each small region detected by at least the region boundary line detection step between the reference image and the search image is obtained, and a parallax amount of the plurality of points on the boundary line of each small region is obtained. A parallax amount estimation step to be estimated;
A parallax amount frequency distribution creating step for creating a frequency distribution of parallax amounts at a plurality of points on the boundary estimated by the parallax amount estimating step for each small region;
A parallax amount frequency distribution analyzing step of analyzing the frequency distribution of the parallax amount of each small region created by the parallax amount frequency distribution creating step;
A region parallax amount estimation step for estimating a parallax amount of each small region based on the result analyzed by the parallax amount frequency distribution analysis step;
A three-dimensional information calculation step for calculating three-dimensional information based on the parallax amount of each small region estimated by the region parallax amount estimation step;
A three-dimensional information extraction method characterized by comprising:
前記視差量頻度分布解析ステップが、各小領域の視差量の頻度分布から各小領域について最大頻度の視差量を算出し、
前記領域視差量推定ステップが、各小領域の前記最大頻度の視差量を小領域の視差量として各小領域の視差量を推定することを特徴とする請求項11に記載の三次元情報抽出方法。
The parallax amount frequency distribution analysis step calculates the parallax amount of the maximum frequency for each small region from the frequency distribution of the parallax amount of each small region,
12. The three-dimensional information extraction method according to claim 11, wherein the region parallax amount estimating step estimates the parallax amount of each small region using the parallax amount of the maximum frequency of each small region as the parallax amount of the small region. .
異なる視点位置で撮影された複数の画像データのうちの一つの画像データを基準画像、他の画像データを探索画像とし、
前記基準画像を画像特徴に応じて小領域に分割する領域分割ステップと、
該領域分割ステップにより分割された各小領域の境界線を検出する領域境界線検出ステップと、
前記基準画像と前記探索画像間において、少なくとも前記領域境界線検出ステップにより検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定ステップと、
該視差量推定ステップにより推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成ステップと、
該視差量頻度分布作成ステップにより作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析ステップと、
該視差量頻度分布解析ステップにより解析された結果に基づいて各小領域の視差量を推定する領域視差量推定ステップと、
該領域視差量推定ステップにより視差量が推定された小領域と境界線が重複する小領域の視差量の頻度分布を修正する視差量頻度分布修正ステップと、
前記領域視差量推定ステップにより推定された視差量に基づいて三次元情報を算出する三次元情報算出ステップと、
を有することを特徴とする三次元情報抽出方法。
Of the plurality of image data taken at different viewpoint positions, one image data is a reference image, and the other image data is a search image.
An area dividing step of dividing the reference image into small areas according to image characteristics;
A region boundary detection step for detecting a boundary line of each small region divided by the region division step;
A correspondence between a plurality of points on the boundary line of each small region detected by at least the region boundary line detection step between the reference image and the search image is obtained, and a parallax amount of the plurality of points on the boundary line of each small region is obtained. A parallax amount estimation step to be estimated;
A parallax amount frequency distribution creating step for creating a frequency distribution of parallax amounts at a plurality of points on the boundary estimated by the parallax amount estimating step for each small region;
A parallax amount frequency distribution analyzing step of analyzing the frequency distribution of the parallax amount of each small region created by the parallax amount frequency distribution creating step;
A region parallax amount estimation step for estimating a parallax amount of each small region based on the result analyzed by the parallax amount frequency distribution analysis step;
A parallax amount frequency distribution correction step for correcting the frequency distribution of the parallax amount of a small region where the boundary line overlaps with the small region whose parallax amount is estimated by the region parallax amount estimation step;
A three-dimensional information calculation step for calculating three-dimensional information based on the amount of parallax estimated by the region parallax amount estimation step;
A three-dimensional information extraction method characterized by comprising:
前記視差量頻度分布解析ステップが、各小領域の視差量の頻度分布から各小領域について視差量の平均値、分散および最大頻度の視差量を算出し、
前記領域視差量推定ステップが、前記視差量の平均値が画像中の小領域の中で相対的に高く、前記視差量の分散が画像中の小領域の中で相対的に小さい小領域から順に、各小領域の前記最大頻度の視差量を小領域の視差量として各小領域の視差量を推定し、
前記視差量頻度分布修正ステップが、前記領域視差量推定ステップにより視差量が推定された小領域と境界線が重複する小領域の視差量頻度分布から境界線が重複する部分の視差量を除去することを特徴とする請求項13に記載の三次元情報抽出方法。
The parallax amount frequency distribution analysis step calculates a parallax amount average value, variance, and maximum frequency parallax amount for each small region from the frequency distribution of the parallax amount of each small region;
The region parallax amount estimation step is performed in order from a small region in which the average value of the parallax amount is relatively high in the small region in the image and the variance of the parallax amount is relatively small in the small region in the image. , Estimating the amount of parallax of each small region by using the parallax amount of the maximum frequency of each small region as the amount of parallax of the small region,
The parallax amount frequency distribution correcting step removes the parallax amount of the portion where the boundary line overlaps from the parallax amount frequency distribution of the small region where the boundary line overlaps with the small region where the parallax amount is estimated by the region parallax amount estimating step. The three-dimensional information extraction method according to claim 13.
前記視差量頻度分布作成ステップが、各小領域の境界線上の各点の画像特徴量に応じて該各点の視差量の頻度分布への寄与を変更して頻度分布を作成することを特徴とする請求項11から14にいずれか記載の三次元情報抽出方法。   The parallax amount frequency distribution creating step creates the frequency distribution by changing the contribution of the parallax amount of each point to the frequency distribution according to the image feature amount of each point on the boundary line of each small region. The three-dimensional information extraction method according to claim 11. 異なる視点位置で撮影された複数の画像データのうちの一つの画像データを基準画像、他の画像データを探索画像とし、
前記基準画像を画像特徴に応じて小領域に分割する領域分割ステップと、
該領域分割ステップにより分割された各小領域の境界線を検出する領域境界線検出ステップと、
前記基準画像と前記探索画像間において、少なくとも前記領域境界線検出ステップにより検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定ステップと、
該視差量推定ステップにより推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成ステップと、
該視差量頻度分布作成ステップにより作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析ステップと、
該視差量頻度分布解析ステップにより解析された結果に基づいて各小領域の視差量を推定する領域視差量推定ステップと、
該領域視差量推定ステップにより推定された各小領域の視差量と各小領域の色情報に基づく類似度に応じて小領域を統合する領域統合ステップと、
を有することを特徴とする領域分割統合方法。
Of the plurality of image data taken at different viewpoint positions, one image data is a reference image, and the other image data is a search image.
An area dividing step of dividing the reference image into small areas according to image characteristics;
A region boundary detection step for detecting a boundary line of each small region divided by the region division step;
A correspondence between a plurality of points on the boundary line of each small region detected by at least the region boundary line detection step between the reference image and the search image is obtained, and a parallax amount of the plurality of points on the boundary line of each small region is obtained. A parallax amount estimation step to be estimated;
A parallax amount frequency distribution creating step for creating a frequency distribution of parallax amounts at a plurality of points on the boundary estimated by the parallax amount estimating step for each small region;
A parallax amount frequency distribution analyzing step of analyzing the frequency distribution of the parallax amount of each small region created by the parallax amount frequency distribution creating step;
A region parallax amount estimation step for estimating a parallax amount of each small region based on the result analyzed by the parallax amount frequency distribution analysis step;
A region integration step of integrating the small regions according to the degree of similarity based on the parallax amount of each small region estimated by the region parallax amount estimation step and the color information of each small region;
An area dividing and integrating method characterized by comprising:
前記視差量頻度分布解析ステップが、各小領域の視差量の頻度分布から各小領域について最大頻度の視差量を算出し、
前記領域視差量推定ステップが、各小領域の前記最大頻度の視差量を小領域の視差量として各小領域の視差量を推定することを特徴とする請求項16に記載の領域分割統合方法。
The parallax amount frequency distribution analysis step calculates the parallax amount of the maximum frequency for each small region from the frequency distribution of the parallax amount of each small region,
The region division integration method according to claim 16, wherein the region parallax amount estimating step estimates the parallax amount of each small region by using the parallax amount of the maximum frequency of each small region as the parallax amount of the small region.
異なる視点位置で撮影された複数の画像データのうちの一つの画像データを基準画像、他の画像データを探索画像とし、
前記基準画像を画像特徴に応じて小領域に分割する領域分割ステップと、
該領域分割ステップにより分割された各小領域の境界線を検出する領域境界線検出ステップと、
前記基準画像と前記探索画像間において、少なくとも前記領域境界線検出ステップにより検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定ステップと、
該視差量推定ステップにより推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成ステップと、
該視差量頻度分布作成ステップにより作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析ステップと、
該視差量頻度分布解析ステップにより解析された結果に基づいて各小領域の視差量を推定する領域視差量推定ステップと、
該領域視差量推定ステップにより視差量が推定された小領域と境界線が重複する小領域の視差量の頻度分布を修正する視差量頻度分布修正ステップと、
該領域視差量推定ステップにより推定された各小領域の視差量と各小領域の色情報に基づく類似度に応じて小領域を統合する領域統合ステップと、
を有することを特徴とする領域分割統合方法。
Of the plurality of image data taken at different viewpoint positions, one image data is a reference image, and the other image data is a search image.
An area dividing step of dividing the reference image into small areas according to image characteristics;
A region boundary detection step for detecting a boundary line of each small region divided by the region division step;
A correspondence between a plurality of points on the boundary line of each small region detected by at least the region boundary line detection step between the reference image and the search image is obtained, and a parallax amount of the plurality of points on the boundary line of each small region is obtained. A parallax amount estimation step to be estimated;
A parallax amount frequency distribution creating step for creating a frequency distribution of parallax amounts at a plurality of points on the boundary estimated by the parallax amount estimating step for each small region;
A parallax amount frequency distribution analyzing step of analyzing the frequency distribution of the parallax amount of each small region created by the parallax amount frequency distribution creating step;
A region parallax amount estimation step for estimating a parallax amount of each small region based on the result analyzed by the parallax amount frequency distribution analysis step;
A parallax amount frequency distribution correction step for correcting the frequency distribution of the parallax amount of a small region where the boundary line overlaps with the small region whose parallax amount is estimated by the region parallax amount estimation step;
A region integration step of integrating the small regions according to the degree of similarity based on the parallax amount of each small region estimated by the region parallax amount estimation step and the color information of each small region;
An area dividing and integrating method characterized by comprising:
前記視差量頻度分布解析ステップが、各小領域の視差量の頻度分布から各小領域について視差量の平均値、分散および最大頻度の視差量を算出し、
前記領域視差量推定ステップが、前記視差量の平均値が画像中の小領域の中で相対的に高く、前記視差量の分散が画像中の小領域の中で相対的に小さい小領域から順に、各小領域の前記最大頻度の視差量を小領域の視差量として各小領域の視差量を推定し、
前記視差量頻度分布修正ステップが、前記領域視差量推定ステップにより視差量が推定された小領域と境界線が重複する小領域の視差量頻度分布から境界線が重複する部分の視差量を除去することを特徴とする請求項18に記載の領域分割統合方法。
The parallax amount frequency distribution analysis step calculates a parallax amount average value, variance, and maximum frequency parallax amount for each small region from the frequency distribution of the parallax amount of each small region;
The region parallax amount estimation step is performed in order from a small region in which the average value of the parallax amount is relatively high in the small region in the image and the variance of the parallax amount is relatively small in the small region in the image. , Estimating the amount of parallax of each small region by using the parallax amount of the maximum frequency of each small region as the amount of parallax of the small region,
The parallax amount frequency distribution correcting step removes the parallax amount of the portion where the boundary line overlaps from the parallax amount frequency distribution of the small region where the boundary line overlaps with the small region where the parallax amount is estimated by the region parallax amount estimating step. The area division integration method according to claim 18.
前記視差量頻度分布作成ステップが、各小領域の境界線上の各点の画像特徴量に応じて該各点の視差量の頻度分布への寄与を変更して頻度分布を作成することを特徴とする請求項16から19にいずれか記載の領域分割統合方法。   The parallax amount frequency distribution creating step creates the frequency distribution by changing the contribution of the parallax amount of each point to the frequency distribution according to the image feature amount of each point on the boundary line of each small region. The area division integration method according to any one of claims 16 to 19. 異なる視点位置で撮影された複数の画像データのうちの一つの画像データを基準画像、他の画像データを探索画像とし、
前記基準画像を画像特徴に応じて小領域に分割する領域分割ステップと、
該領域分割ステップにより分割された各小領域の境界線を検出する領域境界線検出ステップと、
前記基準画像と前記探索画像間において、少なくとも前記領域境界線検出ステップにより検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定ステップと、
該視差量推定ステップにより推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成ステップと、
該視差量頻度分布作成ステップにより作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析ステップと、
該視差量頻度分布解析ステップにより解析された結果に基づいて各小領域の視差量を推定する領域視差量推定ステップと、
該領域視差量推定ステップにより推定された各小領域の視差量に基づいて三次元情報を算出する三次元情報算出ステップと、
を有することを特徴とする三次元情報抽出方法を実行するコンピュータプログラムを外部読出し可能に記憶する記憶媒体。
Of the plurality of image data taken at different viewpoint positions, one image data is a reference image, and the other image data is a search image.
An area dividing step of dividing the reference image into small areas according to image characteristics;
A region boundary detection step for detecting a boundary line of each small region divided by the region division step;
A correspondence between a plurality of points on the boundary line of each small region detected by at least the region boundary line detection step between the reference image and the search image is obtained, and a parallax amount of the plurality of points on the boundary line of each small region is obtained. A parallax amount estimation step to be estimated;
A parallax amount frequency distribution creating step for creating a frequency distribution of parallax amounts at a plurality of points on the boundary estimated by the parallax amount estimating step for each small region;
A parallax amount frequency distribution analyzing step of analyzing the frequency distribution of the parallax amount of each small region created by the parallax amount frequency distribution creating step;
A region parallax amount estimation step for estimating a parallax amount of each small region based on the result analyzed by the parallax amount frequency distribution analysis step;
A three-dimensional information calculation step for calculating three-dimensional information based on the parallax amount of each small region estimated by the region parallax amount estimation step;
A storage medium for storing a computer program for executing a three-dimensional information extraction method characterized by comprising:
前記視差量頻度分布解析ステップが、各小領域の視差量の頻度分布から各小領域について最大頻度の視差量を算出し、
前記領域視差量推定ステップが、各小領域の前記最大頻度の視差量を小領域の視差量として各小領域の視差量を推定することを特徴とする請求項21に記載の記憶媒体。
The parallax amount frequency distribution analysis step calculates the parallax amount of the maximum frequency for each small region from the frequency distribution of the parallax amount of each small region,
The storage medium according to claim 21, wherein the regional parallax amount estimation step estimates the parallax amount of each small region using the parallax amount of the maximum frequency of each small region as the parallax amount of the small region.
異なる視点位置で撮影された複数の画像データのうちの一つの画像データを基準画像、他の画像データを探索画像とし、
前記基準画像を画像特徴に応じて小領域に分割する領域分割ステップと、
該領域分割ステップにより分割された各小領域の境界線を検出する領域境界線検出ステップと、
前記基準画像と前記探索画像間において、少なくとも前記領域境界線検出ステップにより検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定ステップと、
該視差量推定ステップにより推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成ステップと、
該視差量頻度分布作成ステップにより作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析ステップと、
該視差量頻度分布解析ステップにより解析された結果に基づいて各小領域の視差量を推定する領域視差量推定ステップと、
該領域視差量推定ステップにより視差量が推定された小領域と境界線が重複する小領域の視差量の頻度分布を修正する視差量頻度分布修正ステップと、
前記領域視差量推定ステップにより推定された視差量に基づいて三次元情報を算出する三次元情報算出ステップと、
を有することを特徴とする三次元情報抽出方法を実行するコンピュータプログラムを外部読出し可能に記憶する記憶媒体。
Of the plurality of image data taken at different viewpoint positions, one image data is a reference image, and the other image data is a search image.
An area dividing step of dividing the reference image into small areas according to image characteristics;
A region boundary detection step for detecting a boundary line of each small region divided by the region division step;
A correspondence between a plurality of points on the boundary line of each small region detected by at least the region boundary line detection step between the reference image and the search image is obtained, and a parallax amount of the plurality of points on the boundary line of each small region is obtained. A parallax amount estimation step to be estimated;
A parallax amount frequency distribution creating step for creating a frequency distribution of parallax amounts at a plurality of points on the boundary estimated by the parallax amount estimating step for each small region;
A parallax amount frequency distribution analyzing step of analyzing the frequency distribution of the parallax amount of each small region created by the parallax amount frequency distribution creating step;
A region parallax amount estimation step for estimating a parallax amount of each small region based on the result analyzed by the parallax amount frequency distribution analysis step;
A parallax amount frequency distribution correction step for correcting the frequency distribution of the parallax amount of a small region where the boundary line overlaps with the small region whose parallax amount is estimated by the region parallax amount estimation step;
A three-dimensional information calculation step for calculating three-dimensional information based on the amount of parallax estimated by the region parallax amount estimation step;
A storage medium for storing a computer program for executing a three-dimensional information extraction method characterized by comprising:
前記視差量頻度分布解析ステップが、各小領域の視差量の頻度分布から各小領域について視差量の平均値、分散および最大頻度の視差量を算出し、
前記領域視差量推定ステップが、前記視差量の平均値が画像中の小領域の中で相対的に高く、前記視差量の分散が画像中の小領域の中で相対的に小さい小領域から順に、各小領域の前記最大頻度の視差量を小領域の視差量として各小領域の視差量を推定し、
前記視差量頻度分布修正ステップが、前記領域視差量推定ステップにより視差量が推定された小領域と境界線が重複する小領域の視差量頻度分布から境界線が重複する部分の視差量を除去することを特徴とする請求項23に記載の記憶媒体。
The parallax amount frequency distribution analysis step calculates a parallax amount average value, variance, and maximum frequency parallax amount for each small region from the frequency distribution of the parallax amount of each small region;
The region parallax amount estimation step is performed in order from a small region in which the average value of the parallax amount is relatively high in the small region in the image and the variance of the parallax amount is relatively small in the small region in the image. , Estimating the amount of parallax of each small region by using the parallax amount of the maximum frequency of each small region as the amount of parallax of the small region,
The parallax amount frequency distribution correcting step removes the parallax amount of the portion where the boundary line overlaps from the parallax amount frequency distribution of the small region where the boundary line overlaps with the small region where the parallax amount is estimated by the region parallax amount estimating step. 24. The storage medium according to claim 23.
前記視差量頻度分布作成ステップが、各小領域の境界線上の各点の画像特徴量に応じて該各点の視差量の頻度分布への寄与を変更して頻度分布を作成することを特徴とする請求項21から24にいずれか記載の記憶媒体。   The parallax amount frequency distribution creating step creates the frequency distribution by changing the contribution of the parallax amount of each point to the frequency distribution according to the image feature amount of each point on the boundary line of each small region. The storage medium according to any one of claims 21 to 24. 異なる視点位置で撮影された複数の画像データのうちの一つの画像データを基準画像、他の画像データを探索画像とし、
前記基準画像を画像特徴に応じて小領域に分割する領域分割ステップと、
該領域分割ステップにより分割された各小領域の境界線を検出する領域境界線検出ステップと、
前記基準画像と前記探索画像間において、少なくとも前記領域境界線検出ステップにより検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定ステップと、
該視差量推定ステップにより推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成ステップと、
該視差量頻度分布作成ステップにより作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析ステップと、
該視差量頻度分布解析ステップにより解析された結果に基づいて各小領域の視差量を推定する領域視差量推定ステップと、
該領域視差量推定ステップにより推定された各小領域の視差量と各小領域の色情報に基づく類似度に応じて小領域を統合する領域統合ステップと、
を有することを特徴とする領域分割統合方法を実行するコンピュータプログラムを外部読出し可能に記憶する記憶媒体。
Of the plurality of image data taken at different viewpoint positions, one image data is a reference image, and the other image data is a search image.
An area dividing step of dividing the reference image into small areas according to image characteristics;
A region boundary detection step for detecting a boundary line of each small region divided by the region division step;
A correspondence between a plurality of points on the boundary line of each small region detected by at least the region boundary line detection step between the reference image and the search image is obtained, and a parallax amount of the plurality of points on the boundary line of each small region is obtained. A parallax amount estimation step to be estimated;
A parallax amount frequency distribution creating step for creating a frequency distribution of parallax amounts at a plurality of points on the boundary estimated by the parallax amount estimating step for each small region;
A parallax amount frequency distribution analyzing step of analyzing the frequency distribution of the parallax amount of each small region created by the parallax amount frequency distribution creating step;
A region parallax amount estimation step for estimating a parallax amount of each small region based on the result analyzed by the parallax amount frequency distribution analysis step;
A region integration step of integrating the small regions according to the degree of similarity based on the parallax amount of each small region estimated by the region parallax amount estimation step and the color information of each small region;
A storage medium for storing a computer program for executing an area division integration method characterized by comprising:
前記視差量頻度分布解析ステップが、各小領域の視差量の頻度分布から各小領域について最大頻度の視差量を算出し、
前記領域視差量推定ステップが、各小領域の前記最大頻度の視差量を小領域の視差量として各小領域の視差量を推定することを特徴とする請求項26に記載の記憶媒体。
The parallax amount frequency distribution analysis step calculates the parallax amount of the maximum frequency for each small region from the frequency distribution of the parallax amount of each small region,
27. The storage medium according to claim 26, wherein the regional parallax amount estimating step estimates the parallax amount of each small region using the parallax amount of the maximum frequency of each small region as the parallax amount of the small region.
異なる視点位置で撮影された複数の画像データのうちの一つの画像データを基準画像、他の画像データを探索画像とし、
前記基準画像を画像特徴に応じて小領域に分割する領域分割ステップと、
該領域分割ステップにより分割された各小領域の境界線を検出する領域境界線検出ステップと、
前記基準画像と前記探索画像間において、少なくとも前記領域境界線検出ステップにより検出された各小領域の境界線上の複数の点の対応を求め、各小領域の境界線上の複数の点の視差量を推定する視差量推定ステップと、
該視差量推定ステップにより推定された境界線上の複数の点の視差量の頻度分布を各小領域について作成する視差量頻度分布作成ステップと、
該視差量頻度分布作成ステップにより作成された各小領域の視差量の頻度分布を解析する視差量頻度分布解析ステップと、
該視差量頻度分布解析ステップにより解析された結果に基づいて各小領域の視差量を推定する領域視差量推定ステップと、
該領域視差量推定ステップにより視差量が推定された小領域と境界線が重複する小領域の視差量の頻度分布を修正する視差量頻度分布修正ステップと、
該領域視差量推定ステップにより推定された各小領域の視差量と各小領域の色情報に基づく類似度に応じて小領域を統合する領域統合ステップと、
を有することを特徴とする領域分割統合方法を実行するコンピュータプログラムを外部読出し可能に記憶する記憶媒体。
Of the plurality of image data taken at different viewpoint positions, one image data is a reference image, and the other image data is a search image.
An area dividing step of dividing the reference image into small areas according to image characteristics;
A region boundary detection step for detecting a boundary line of each small region divided by the region division step;
A correspondence between a plurality of points on the boundary line of each small region detected by at least the region boundary line detection step between the reference image and the search image is obtained, and a parallax amount of the plurality of points on the boundary line of each small region is obtained. A parallax amount estimation step to be estimated;
A parallax amount frequency distribution creating step for creating a frequency distribution of parallax amounts at a plurality of points on the boundary estimated by the parallax amount estimating step for each small region;
A parallax amount frequency distribution analyzing step of analyzing the frequency distribution of the parallax amount of each small region created by the parallax amount frequency distribution creating step;
A region parallax amount estimation step for estimating a parallax amount of each small region based on the result analyzed by the parallax amount frequency distribution analysis step;
A parallax amount frequency distribution correction step for correcting the frequency distribution of the parallax amount of a small region where the boundary line overlaps with the small region whose parallax amount is estimated by the region parallax amount estimation step;
A region integration step of integrating the small regions according to the degree of similarity based on the parallax amount of each small region estimated by the region parallax amount estimation step and the color information of each small region;
A storage medium for storing a computer program for executing an area division integration method characterized by comprising:
前記視差量頻度分布解析ステップが、各小領域の視差量の頻度分布から各小領域について視差量の平均値、分散および最大頻度の視差量を算出し、
前記領域視差量推定ステップが、前記視差量の平均値が画像中の小領域の中で相対的に高く、前記視差量の分散が画像中の小領域の中で相対的に小さい小領域から順に、各小領域の前記最大頻度の視差量を小領域の視差量として各小領域の視差量を推定し、
前記視差量頻度分布修正ステップが、前記領域視差量推定ステップにより視差量が推定された小領域と境界線が重複する小領域の視差量頻度分布から境界線が重複する部分の視差量を除去することを特徴とする請求項28に記載の記憶媒体。
The parallax amount frequency distribution analysis step calculates a parallax amount average value, variance, and maximum frequency parallax amount for each small region from the frequency distribution of the parallax amount of each small region;
The region parallax amount estimation step is performed in order from a small region in which the average value of the parallax amount is relatively high in the small region in the image and the variance of the parallax amount is relatively small in the small region in the image. , Estimating the amount of parallax of each small region by using the parallax amount of the maximum frequency of each small region as the amount of parallax of the small region,
The parallax amount frequency distribution correcting step removes the parallax amount of the portion where the boundary line overlaps from the parallax amount frequency distribution of the small region where the boundary line overlaps with the small region where the parallax amount is estimated by the region parallax amount estimating step. The storage medium according to claim 28.
前記視差量頻度分布作成ステップが、各小領域の境界線上の各点の画像特徴量に応じて該各点の視差量の頻度分布への寄与を変更して頻度分布を作成することを特徴とする請求項26から29にいずれか記載の記憶媒体。
The parallax amount frequency distribution creating step creates the frequency distribution by changing the contribution of the parallax amount of each point to the frequency distribution according to the image feature amount of each point on the boundary line of each small region. The storage medium according to any one of claims 26 to 29.
JP2003407742A 2003-12-05 2003-12-05 Image processor and method Withdrawn JP2005165969A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003407742A JP2005165969A (en) 2003-12-05 2003-12-05 Image processor and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003407742A JP2005165969A (en) 2003-12-05 2003-12-05 Image processor and method

Publications (1)

Publication Number Publication Date
JP2005165969A true JP2005165969A (en) 2005-06-23

Family

ID=34729694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003407742A Withdrawn JP2005165969A (en) 2003-12-05 2003-12-05 Image processor and method

Country Status (1)

Country Link
JP (1) JP2005165969A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100756034B1 (en) * 2006-01-26 2007-09-07 삼성전자주식회사 Apparatus and method for compensator of disparity vector
JP2008065803A (en) * 2006-08-08 2008-03-21 Fuji Xerox Co Ltd Image processor and image processing program
JP2008107290A (en) * 2006-10-27 2008-05-08 Konica Minolta Holdings Inc Distance image generator, distance image generation method, and program
WO2009104325A1 (en) * 2008-02-21 2009-08-27 大日本スクリーン製造株式会社 Line drawing processing device, program, and line drawing processing method
WO2011074671A1 (en) * 2009-12-18 2011-06-23 株式会社日立ハイテクノロジーズ Image processing device, measuring/testing system, and program
JP2013077882A (en) * 2011-09-29 2013-04-25 Dainippon Printing Co Ltd Image generation device, image generation method, and program for image generation device
WO2013073167A1 (en) * 2011-11-17 2013-05-23 パナソニック株式会社 Image processing device, imaging device, and image processing method
US8903164B2 (en) 2012-04-17 2014-12-02 Panasonic Corporation Disparity calculating apparatus and disparity calculating method
DE102009004626B4 (en) * 2008-01-18 2015-09-10 Fuji Jukogyo K.K. Device for monitoring the environment of a vehicle
KR20170070148A (en) * 2014-10-14 2017-06-21 코닌클리케 필립스 엔.브이. Processing of disparity of a three dimensional image

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100756034B1 (en) * 2006-01-26 2007-09-07 삼성전자주식회사 Apparatus and method for compensator of disparity vector
JP2008065803A (en) * 2006-08-08 2008-03-21 Fuji Xerox Co Ltd Image processor and image processing program
JP2008107290A (en) * 2006-10-27 2008-05-08 Konica Minolta Holdings Inc Distance image generator, distance image generation method, and program
DE102009004626B4 (en) * 2008-01-18 2015-09-10 Fuji Jukogyo K.K. Device for monitoring the environment of a vehicle
JP2009199308A (en) * 2008-02-21 2009-09-03 Dainippon Screen Mfg Co Ltd Line art processor, program, and line art processing method
WO2009104325A1 (en) * 2008-02-21 2009-08-27 大日本スクリーン製造株式会社 Line drawing processing device, program, and line drawing processing method
WO2011074671A1 (en) * 2009-12-18 2011-06-23 株式会社日立ハイテクノロジーズ Image processing device, measuring/testing system, and program
JP2011128070A (en) * 2009-12-18 2011-06-30 Hitachi High-Technologies Corp Image processing device, measuring/testing system, and program
US9013571B2 (en) 2009-12-18 2015-04-21 Hitachi High-Technologies Corporation Image processing device, measuring/testing system, and program
JP2013077882A (en) * 2011-09-29 2013-04-25 Dainippon Printing Co Ltd Image generation device, image generation method, and program for image generation device
WO2013073167A1 (en) * 2011-11-17 2013-05-23 パナソニック株式会社 Image processing device, imaging device, and image processing method
JPWO2013073167A1 (en) * 2011-11-17 2015-04-02 パナソニックIpマネジメント株式会社 Image processing apparatus, imaging apparatus, and image processing method
US9153066B2 (en) 2011-11-17 2015-10-06 Panasonic Intellectual Property Management Co. Ltd. Image processing device, imaging device, and image processing method
US8903164B2 (en) 2012-04-17 2014-12-02 Panasonic Corporation Disparity calculating apparatus and disparity calculating method
KR20170070148A (en) * 2014-10-14 2017-06-21 코닌클리케 필립스 엔.브이. Processing of disparity of a three dimensional image
KR102161785B1 (en) * 2014-10-14 2020-10-06 코닌클리케 필립스 엔.브이. Processing of disparity of a three dimensional image

Similar Documents

Publication Publication Date Title
CN109658515B (en) Point cloud meshing method, device, equipment and computer storage medium
KR101899866B1 (en) Apparatus and method for detecting error of lesion contour, apparatus and method for correcting error of lesion contour and, apparatus for insecting error of lesion contour
Tao et al. A global matching framework for stereo computation
US9754377B2 (en) Multi-resolution depth estimation using modified census transform for advanced driver assistance systems
US7379583B2 (en) Color segmentation-based stereo 3D reconstruction system and process employing overlapping images of a scene captured from viewpoints forming either a line or a grid
CN107437060B (en) Object recognition apparatus, object recognition method, and program
KR100953076B1 (en) Multi-view matching method and device using foreground/background separation
US20100315419A1 (en) Systems and Methods for Estimating a Parameter for a 3D model
US7456831B2 (en) Method for generating 3D mesh based on unorganized sparse 3D points
US20180122097A1 (en) Apparatus, method, and non-transitory computer-readable storage medium for storing program for position and orientation estimation
Yogeswaran et al. 3d surface analysis for automated detection of deformations on automotive body panels
JP2005165969A (en) Image processor and method
Ikonen et al. Distance and nearest neighbor transforms on gray-level surfaces
Zhou et al. 3D building change detection between current VHR images and past lidar data
Mukherjee et al. A hybrid algorithm for disparity calculation from sparse disparity estimates based on stereo vision
Gallego et al. Joint multi-view foreground segmentation and 3d reconstruction with tolerance loop
Zhang et al. Alignment of 3d building models with satellite images using extended chamfer matching
CN107808160B (en) Three-dimensional building extraction method and device
JP4998905B2 (en) 3D terrain data high accuracy apparatus, 3D terrain data high accuracy method and program
Lindblad et al. Exact linear time euclidean distance transforms of grid line sampled shapes
JP5470529B2 (en) Motion detection device, motion detection method, and motion detection program
Turetken et al. Temporally consistent layer depth ordering via pixel voting for pseudo 3D representation
KR101717381B1 (en) Apparatus and method for stereo camera-based free space estimation, recording medium thereof
Mattoccia Accurate dense stereo by constraining local consistency on superpixels
CN111476821B (en) Target tracking method based on online learning

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070206