JP2009048516A - Information processor, information processing method and computer program - Google Patents

Information processor, information processing method and computer program Download PDF

Info

Publication number
JP2009048516A
JP2009048516A JP2007215479A JP2007215479A JP2009048516A JP 2009048516 A JP2009048516 A JP 2009048516A JP 2007215479 A JP2007215479 A JP 2007215479A JP 2007215479 A JP2007215479 A JP 2007215479A JP 2009048516 A JP2009048516 A JP 2009048516A
Authority
JP
Japan
Prior art keywords
parallax offset
feature point
parallax
information processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007215479A
Other languages
Japanese (ja)
Inventor
Steven Goodman
ステフェン グットマン
Kenichiro Oi
堅一郎 多井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007215479A priority Critical patent/JP2009048516A/en
Publication of JP2009048516A publication Critical patent/JP2009048516A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To input images photographed by two cameras arranged at different positions almost in parallel and calculate a parallax offset based on the photographed images. <P>SOLUTION: Feature point pairs included in images photographed by two cameras are detected and a parallax offset in the photographed images of the two cameras is calculated by analyzing the feature point pairs. At first, a feature point pair determined to be highly reliable is selected by filtering the feature point pairs, a histogram of parallax offset data corresponding to the selected feature point pair is generated, a constraint in parallax offset values is set by using the histogram, and a parallax offset optimum value is calculated on the basis of the set constraint. In this configuration, even when a part of parameters of one camera is unknown, an optimum parallax offset can be calculated on the basis of the photographed images of respective cameras and a three-dimensional map can be generated. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、情報処理装置、および情報処理方法、並びにコンピュータ・プログラムに関する。さらに詳細には、2つのカメラによる撮影画像を用いた視差オフセットの算出や、3次元マップの作成処理を実行する情報処理装置、および情報処理方法、並びにコンピュータ・プログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a computer program. More specifically, the present invention relates to an information processing apparatus, an information processing method, and a computer program that perform a parallax offset calculation using images captured by two cameras and a three-dimensional map creation process.

異なる方向から2台のカメラにより画像を撮影し、撮影画像の解析に基づいて3次元マップを作成する技術がある。この手法はステレオ法と呼ばれ、撮影に用いるカメラはステレオカメラと呼ばれる。   There is a technique in which images are taken by two cameras from different directions and a three-dimensional map is created based on analysis of the taken images. This method is called a stereo method, and a camera used for photographing is called a stereo camera.

ステレオ法により3次元マップを作成するためには、カメラの撮影画像の各画素(ピクセル)と、実空間における3次元位置の対応関係を求める処理いわゆるカメラキャリブレーションが必要であり、このカメラキャリブレーションにはステレオカメラ各々のパラメータを適用した計算が必要となる。   In order to create a three-dimensional map by the stereo method, a process for obtaining a correspondence relationship between each pixel (pixel) of a photographed image of a camera and a three-dimensional position in a real space is necessary. This camera calibration is necessary. For this, a calculation applying the parameters of each stereo camera is required.

カメラキャリブレーションに使用するカメラパラメータとしては、例えば、各ステレオカメラのレンズ焦点距離、レンズによって生じる歪み(distortion)パラメータ、画像中心位置などのカメラ内部パラメータや、さらにカメラの位置姿勢情報などの外部パラメータがある。これらのパラメータを入力した計算によりカメラキャリブレーションが行われ3次元マップが作成される。なおステレオ法に基づく3次元マップの作成技術について開示した従来技術としては、例えば特許文献1(US特許6009359)、特許文献2(US公開特許2005/0237385)、特許文献3(US特許6606404)、特許文献4(US公開特許2003/0156751)などがある。   As camera parameters used for camera calibration, for example, the lens focal length of each stereo camera, distortion parameters caused by the lens, camera internal parameters such as the image center position, and external parameters such as camera position and orientation information There is. A camera calibration is performed by calculation using these parameters, and a three-dimensional map is created. For example, Patent Document 1 (US Patent No. 6009359), Patent Document 2 (US Patent Publication No. 2005/0237385), Patent Document 3 (US Patent No. 6606404), which are disclosed as techniques for creating a three-dimensional map based on the stereo method. There exists patent document 4 (US Published Patent 2003/0156751) etc.

使用するカメラの内部パラメータおよび外部パラメータが既知である場合、これらのパラメータを用いたカメラキャリブレーションおよび3次元マップの作成が可能であるが、そのためには、ステレオカメラに利用する2台のカメラは、全てのパラメータが既知であるステレオカメラの使用が必須となり、ステレオカメラの変更が許容されるだけでなく、2台のカメラの位置姿勢も完全に固定しておく必要がある。カメラの変更や、カメラのセット位置や姿勢のずれが発生した場合には、既知のパラメータの利用は不可能となる。
US特許6009359 US公開特許2005/0237385 US特許6606404 US公開特許2003/0156751
If the internal parameters and external parameters of the camera to be used are known, camera calibration using these parameters and creation of a three-dimensional map are possible. For that purpose, the two cameras used for the stereo camera are Therefore, it is essential to use a stereo camera in which all parameters are known, and not only the change of the stereo camera is allowed, but also the positions and orientations of the two cameras must be completely fixed. When the camera is changed or when the camera setting position or posture is deviated, the known parameters cannot be used.
US Patent 6009359 US Published Patent 2005/0237385 US Pat. No. 6,606,404 US published patent 2003/0156751

本発明は、上述の問題点に鑑みてなされたものであり、例えば、ステレオ法に基づく3次元マップヘの作成に利用する画像を撮影するカメラのパラメータの少なくとも一部のパラメータが未知である場合でも、カメラの撮影画像から効率的にパラメータを算出してカメラキャリブレーションを行ない、3次元マップを作成することを可能とした情報処理装置、および情報処理方法、並びにコンピュータ・プログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems. For example, even when at least a part of parameters of a camera that captures an image used to create a three-dimensional map based on the stereo method is unknown. An object of the present invention is to provide an information processing apparatus, an information processing method, and a computer program capable of efficiently calculating parameters from a photographed image of a camera and performing camera calibration to create a three-dimensional map And

本発明の第1の側面は、
異なる位置にほぼ平行に設置された2つのカメラによって撮影された画像を入力し、撮影画像に基づく視差オフセットの算出を実行する情報処理装置であり、
前記2つのカメラの撮影画像に含まれる特徴点を抽出する特徴点抽出部と、
前記2つのカメラの撮影画像から抽出された特徴点の比較処理により、類似する特徴点の組み合わせからなる特徴点ペアを検出する特徴点マッチング処理部と、
前記特徴点ペアの解析により、前記2つのカメラの撮影画像における視差オフセットを算出する視差オフセット算出部を有し、
前記視差オフセット算出部は、
前記特徴点ペアのフィルタリングにより信頼度の高いと判断される特徴点ペアを選択し、選択特徴点ペアに対応する視差オフセットデータの発生頻度分布情報としてのヒストグラムを生成し、生成したヒストグラムを利用して視差オフセットの許容値の拘束条件を設定し、設定した拘束条件に基づいて視差オフセットの最適値を算出する構成であることを特徴とする情報処理装置にある。
The first aspect of the present invention is:
An information processing apparatus that inputs images captured by two cameras installed substantially in parallel at different positions, and calculates a parallax offset based on the captured images.
A feature point extraction unit for extracting feature points included in the captured images of the two cameras;
A feature point matching processing unit that detects a feature point pair composed of a combination of similar feature points by comparison processing of feature points extracted from the captured images of the two cameras;
A parallax offset calculating unit that calculates a parallax offset in the captured images of the two cameras by analyzing the feature point pair;
The parallax offset calculation unit includes:
A feature point pair determined to have high reliability by filtering the feature point pair is selected, a histogram is generated as occurrence frequency distribution information of parallax offset data corresponding to the selected feature point pair, and the generated histogram is used. The information processing apparatus is characterized in that a constraint condition for an allowable value of parallax offset is set and an optimum value of the parallax offset is calculated based on the set constraint condition.

さらに、本発明の情報処理装置の一実施態様において、前記視差オフセット算出部は、前記選択特徴点ペアに対応する視差オフセットとして、水平方向(X)と垂直方向(Y)に対応する視差オフセット(dx,dy)の、[dx]のヒストグラムと[dy]のヒストグラムを生成し、生成したヒストグラムを利用して視差オフセットの許容値の拘束条件を設定し、設定した拘束条件に基づいて視差オフセットの最適値を算出する構成であることを特徴とする。   Furthermore, in an embodiment of the information processing apparatus of the present invention, the parallax offset calculation unit includes a parallax offset corresponding to a horizontal direction (X) and a vertical direction (Y) as a parallax offset corresponding to the selected feature point pair ( dx, dy) [dx] histogram and [dy] histogram are generated, and the constraint condition of the parallax offset allowable value is set using the generated histogram, and the parallax offset of the parallax offset is set based on the set constraint condition It is the structure which calculates an optimal value, It is characterized by the above-mentioned.

さらに、本発明の情報処理装置の一実施態様において、前記視差オフセット算出部は、垂直方向(Y)の視差オフセットを規定する[dy]のヒストグラムのピーク位置を、垂直方向(Y)に対応する視差オフセット(dy)の最適値として決定する処理を実行することを特徴とする。   Furthermore, in an embodiment of the information processing apparatus of the present invention, the parallax offset calculation unit corresponds to a peak position of a [dy] histogram that defines a parallax offset in the vertical direction (Y) in the vertical direction (Y). A process for determining the optimum value of the parallax offset (dy) is executed.

さらに、本発明の情報処理装置の一実施態様において、前記視差オフセット算出部は、水平方向(X)の視差オフセットを規定する[dx]のヒストグラムにおいて、予め設定した出現頻度率に応じて[dx]の最小許容値[dx,min]と、最大許容値[dx,max]を視差オフセットの許容値の拘束条件として設定し、設定した拘束条件に基づいて、水平方向(X)の視差オフセットの最適値を算出する構成であることを特徴とする。   Furthermore, in an embodiment of the information processing apparatus of the present invention, the parallax offset calculation unit may select [dx] according to a preset appearance frequency rate in a histogram of [dx] that defines the parallax offset in the horizontal direction (X). ] Is set as a constraint condition for the parallax offset tolerance value, and based on the set constraint condition, the parallax offset of the horizontal direction (X) is set. It is the structure which calculates an optimal value, It is characterized by the above-mentioned.

さらに、本発明の情報処理装置の一実施態様において、前記視差オフセット算出部は、前記最小許容値[dx,min]と、最大許容値[dx,max]の間において設定した複数の[dx]の値を適用した場合の特徴点のエラーおよび遊離(Outliers)データ数を検証し、エラーおよび遊離(Outliers)データ数が最小となる[dx]の値を水平方向(X)の視差オフセットの最適値として決定する処理を実行することを特徴とする。   Furthermore, in an embodiment of the information processing apparatus of the present invention, the parallax offset calculation unit includes a plurality of [dx] set between the minimum allowable value [dx, min] and the maximum allowable value [dx, max]. The error and free (Outliers) data number of the feature point when the value is applied is verified, and the value of [dx] that minimizes the number of error and free data is the optimal parallax offset in the horizontal direction (X) A process for determining a value is executed.

さらに、本発明の情報処理装置の一実施態様において、前記視差オフセット算出部は、信頼度の高いと判断される特徴点ペアを選択するフィルタリング処理として、前記特徴点ペアに対応する視差オフセットとして、水平方向(X)と垂直方向(Y)に対応する視差オフセット(dx,dy)の値について、
(a)dyが、予め設定した範囲にあることを条件とするエピポーラ拘束(Epipolar constraint)
(b)dxが、予め設定した範囲にあることを条件とする視差拘束(Disparity constraint)、
(c)上記(a),(b)の両者を満足する複数のペア(1対多)がある場合、これらのペアは、あいまい性が高い特徴点ペアであると判定して排除する固有対応拘束、
上記(a)〜(c)の少なくともいずれかの拘束条件を満足するか否かの定を実行して、拘束条件を満足するもののみを残存させるフィルタリング処理を実行する構成であることを特徴とする。
Furthermore, in one embodiment of the information processing apparatus of the present invention, the parallax offset calculation unit is configured as a parallax offset corresponding to the feature point pair as a filtering process for selecting a feature point pair determined to have high reliability. About the value of the parallax offset (dx, dy) corresponding to the horizontal direction (X) and the vertical direction (Y),
(A) Epipolar constraint on condition that dy is in a preset range
(B) Disparity constraint on condition that dx is in a preset range,
(C) When there are a plurality of pairs (one-to-many) satisfying both of the above (a) and (b), these pairs are determined to be feature points pairs with high ambiguity and eliminated. Restraint,
The present invention is characterized in that it is configured to execute a filtering process that executes determination of whether or not at least one of the constraint conditions (a) to (c) is satisfied, and leaves only those that satisfy the constraint condition. To do.

さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は、さらに、前記視差オフセット算出部の算出した視差オフセットの最適値を適用したカメラキャリブレーションおよび3次元マップの生成処理を実行する3次元マップ生成部を有することを特徴とする。   Furthermore, in an embodiment of the information processing apparatus of the present invention, the information processing apparatus further executes a camera calibration and a three-dimensional map generation process to which the optimum value of the parallax offset calculated by the parallax offset calculation unit is applied. And a three-dimensional map generating unit.

さらに、本発明の第2の側面は、
情報処理装置において、異なる位置にほぼ平行に設置された2つのカメラによって撮影された画像を入力し、撮影画像に基づく視差オフセットの算出を実行する情報処理方法であり、
特徴点抽出部が、前記2つのカメラの撮影画像に含まれる特徴点を抽出する特徴点抽出ステップと、
特徴点マッチング処理部が、前記2つのカメラの撮影画像から抽出された特徴点の比較処理により、類似する特徴点の組み合わせからなる特徴点ペアを検出する特徴点マッチング処理ステップと、
視差オフセット算出部が、前記特徴点ペアの解析により、前記2つのカメラの撮影画像における視差オフセットを算出する視差オフセット算出ステップを有し、
前記視差オフセット算出ステップは、
前記特徴点ペアのフィルタリングにより信頼度の高いと判断される特徴点ペアを選択し、選択特徴点ペアに対応する視差オフセットデータの発生頻度分布情報としてのヒストグラムを生成し、生成したヒストグラムを利用して視差オフセットの許容値の拘束条件を設定し、設定した拘束条件に基づいて視差オフセットの最適値を算出するステップであることを特徴とする情報処理方法にある。
Furthermore, the second aspect of the present invention provides
In the information processing apparatus, an information processing method for inputting images captured by two cameras installed substantially in parallel at different positions and calculating a parallax offset based on the captured image,
A feature point extracting unit for extracting a feature point included in the captured images of the two cameras;
A feature point matching processing step in which a feature point matching processing unit detects a feature point pair consisting of a combination of similar feature points by a comparison process of feature points extracted from the captured images of the two cameras;
A parallax offset calculating unit includes a parallax offset calculating step of calculating a parallax offset in the captured images of the two cameras by analyzing the feature point pair;
The parallax offset calculating step includes:
A feature point pair determined to have high reliability by filtering the feature point pair is selected, a histogram is generated as occurrence frequency distribution information of parallax offset data corresponding to the selected feature point pair, and the generated histogram is used. In this information processing method, a constraint condition for the allowable value of the parallax offset is set, and an optimum value of the parallax offset is calculated based on the set constraint condition.

さらに、本発明の情報処理方法の一実施態様において、前記視差オフセット算出ステップは、前記選択特徴点ペアに対応する視差オフセットとして、水平方向(X)と垂直方向(Y)に対応する視差オフセット(dx,dy)の、[dx]のヒストグラムと[dy]のヒストグラムを生成し、生成したヒストグラムを利用して視差オフセットの許容値の拘束条件を設定し、設定した拘束条件に基づいて視差オフセットの最適値を算出するステップであることを特徴とする。   Furthermore, in one embodiment of the information processing method of the present invention, the parallax offset calculating step includes a parallax offset (corresponding to a horizontal direction (X) and a vertical direction (Y) as a parallax offset corresponding to the selected feature point pair ( dx, dy) [dx] histogram and [dy] histogram are generated, and the constraint condition of the parallax offset allowable value is set using the generated histogram, and the parallax offset of the parallax offset is set based on the set constraint condition It is a step of calculating an optimum value.

さらに、本発明の情報処理方法の一実施態様において、前記視差オフセット算出ステップは、垂直方向(Y)の視差オフセットを規定する[dy]のヒストグラムのピーク位置を、垂直方向(Y)に対応する視差オフセット(dy)の最適値として決定する処理を実行するステップであることを特徴とする。   Furthermore, in an embodiment of the information processing method of the present invention, the parallax offset calculating step corresponds to a peak position of a [dy] histogram defining the parallax offset in the vertical direction (Y) in the vertical direction (Y). It is a step that executes a process for determining the optimum value of the parallax offset (dy).

さらに、本発明の情報処理方法の一実施態様において、前記視差オフセット算出ステップは、水平方向(X)の視差オフセットを規定する[dx]のヒストグラムにおいて、予め設定した出現頻度率に応じて[dx]の最小許容値[dx,min]と、最大許容値[dx,max]を視差オフセットの許容値の拘束条件として設定し、設定した拘束条件に基づいて、水平方向(X)の視差オフセットの最適値を算出するステップであることを特徴とする。   Furthermore, in an embodiment of the information processing method of the present invention, the parallax offset calculating step may perform [dx] according to a preset appearance frequency rate in a histogram of [dx] that defines the parallax offset in the horizontal direction (X). ] Is set as a constraint condition for the parallax offset tolerance value, and based on the set constraint condition, the parallax offset of the horizontal direction (X) is set. It is a step of calculating an optimum value.

さらに、本発明の情報処理方法の一実施態様において、前記視差オフセット算出ステップは、前記最小許容値[dx,min]と、最大許容値[dx,max]の間において設定した複数の[dx]の値を適用した場合の特徴点のエラーおよび遊離(Outliers)データ数を検証し、エラーおよび遊離(Outliers)データ数が最小となる[dx]の値を水平方向(X)の視差オフセットの最適値として決定する処理を実行するステップであることを特徴とする。   Furthermore, in an embodiment of the information processing method of the present invention, the parallax offset calculation step includes a plurality of [dx] set between the minimum allowable value [dx, min] and the maximum allowable value [dx, max]. The error and free (Outliers) data number of the feature point when the value is applied is verified, and the value of [dx] that minimizes the number of error and free data is the optimal parallax offset in the horizontal direction (X) It is a step which performs the process determined as a value, It is characterized by the above-mentioned.

さらに、本発明の情報処理方法の一実施態様において、前記視差オフセット算出ステップは、信頼度の高いと判断される特徴点ペアを選択するフィルタリング処理として、前記特徴点ペアに対応する視差オフセットとして、水平方向(X)と垂直方向(Y)に対応する視差オフセット(dx,dy)の値について、
(a)dyが、予め設定した範囲にあることを条件とするエピポーラ拘束(Epipolar constraint)
(b)dxが、予め設定した範囲にあることを条件とする視差拘束(Disparity constraint)、
(c)上記(a),(b)の両者を満足する複数のペア(1対多)がある場合、これらのペアは、あいまい性が高い特徴点ペアであると判定して排除する固有対応拘束、
上記(a)〜(c)の少なくともいずれかの拘束条件を満足するか否かの定を実行して、拘束条件を満足するもののみを残存させるフィルタリング処理を実行するステップであることを特徴とする。
Furthermore, in an embodiment of the information processing method of the present invention, the parallax offset calculating step includes a filtering process for selecting a feature point pair determined to be highly reliable, as a parallax offset corresponding to the feature point pair, About the value of the parallax offset (dx, dy) corresponding to the horizontal direction (X) and the vertical direction (Y),
(A) Epipolar constraint on condition that dy is in a preset range
(B) Disparity constraint on condition that dx is in a preset range,
(C) When there are a plurality of pairs (one-to-many) satisfying both of the above (a) and (b), these pairs are determined to be feature points pairs with high ambiguity and eliminated. Restraint,
It is a step of executing a filtering process that executes determination of whether or not at least one of the constraint conditions (a) to (c) is satisfied, and leaves only those that satisfy the constraint condition. To do.

さらに、本発明の情報処理方法の一実施態様において、前記情報処理方法は、さらに、3次元マップ生成部が、前記視差オフセット算出ステップにおいて算出した視差オフセットの最適値を適用したカメラキャリブレーションおよび3次元マップの生成処理を実行する3次元マップ生成ステップを有することを特徴とする。   Furthermore, in one embodiment of the information processing method of the present invention, the information processing method further includes camera calibration in which a three-dimensional map generation unit applies the optimum value of the parallax offset calculated in the parallax offset calculating step, and 3 A three-dimensional map generation step for executing a generation process of the three-dimensional map is provided.

さらに、本発明の第3の側面は、
情報処理装置において、異なる位置にほぼ平行に設置された2つのカメラによって撮影された画像を入力し、撮影画像に基づく視差オフセットの算出を実行させるコンピュータ・プログラムであり、
特徴点抽出部に、前記2つのカメラの撮影画像に含まれる特徴点を抽出させる特徴点抽出ステップと、
特徴点マッチング処理部に、前記2つのカメラの撮影画像から抽出された特徴点の比較処理により、類似する特徴点の組み合わせからなる特徴点ペアを検出させる特徴点マッチング処理ステップと、
視差オフセット算出部に、前記特徴点ペアの解析により、前記2つのカメラの撮影画像における視差オフセットを算出させる視差オフセット算出ステップを有し、
前記視差オフセット算出ステップは、
前記特徴点ペアのフィルタリングにより信頼度の高いと判断される特徴点ペアを選択し、選択特徴点ペアに対応する視差オフセットデータの発生頻度分布情報としてのヒストグラムを生成し、生成したヒストグラムを利用して視差オフセットの許容値の拘束条件を設定し、設定した拘束条件に基づいて視差オフセットの最適値を算出させるステップであることを特徴とするコンピュータ・プログラムにある。
Furthermore, the third aspect of the present invention provides
In the information processing apparatus, a computer program that inputs images taken by two cameras installed substantially in parallel at different positions and calculates a parallax offset based on the taken images,
A feature point extracting step for causing the feature point extracting unit to extract feature points included in the captured images of the two cameras;
A feature point matching processing step for causing the feature point matching processing unit to detect a feature point pair composed of a combination of similar feature points by comparison processing of feature points extracted from the captured images of the two cameras;
A parallax offset calculating step for causing the parallax offset calculating unit to calculate a parallax offset in the captured images of the two cameras by analyzing the feature point pair;
The parallax offset calculating step includes:
A feature point pair determined to have high reliability by filtering the feature point pair is selected, a histogram is generated as occurrence frequency distribution information of parallax offset data corresponding to the selected feature point pair, and the generated histogram is used. The computer program is characterized in that a constraint condition for an allowable value of parallax offset is set and an optimum value of the parallax offset is calculated based on the set constraint condition.

なお、本発明のコンピュータ・プログラムは、例えば、様々なプログラム・コードを実行可能な汎用コンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なコンピュータ・プログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ・システム上でプログラムに応じた処理が実現される。   The computer program of the present invention is, for example, a computer program that can be provided by a storage medium or a communication medium provided in a computer-readable format to a general-purpose computer system that can execute various program codes. . By providing such a program in a computer-readable format, processing corresponding to the program is realized on the computer system.

本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Other objects, features, and advantages of the present invention will become apparent from a more detailed description based on embodiments of the present invention described later and the accompanying drawings. In this specification, the system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.

本発明の一実施例の構成によれば、異なる位置に設置された2つのカメラによって撮影された画像を入力し、撮影画像に基づく最適な視差オフセットの算出を実行する構成において、2つのカメラの撮影画像から特徴点ペアを検出し、特徴点ペアの解析により2つのカメラの撮影画像における視差オフセットを算出する。視差オフセット算出処理においては、特徴点ペアのフィルタリングにより信頼度の高いと判断される特徴点ペアを選択し、選択した特徴点ペアに対応する視差オフセットデータの発生頻度分布情報としてのヒストグラムを生成し、生成したヒストグラムを利用して視差オフセットの許容値の拘束条件を規定し、規定した拘束条件に基づいて視差オフセットの最適値を算出する。本構成によれば、一方のカメラについてのパラメータの一部が不明である場合にも、各カメラの撮影画像に基づいて最適な視差オフセット(dx,dy)を算出可能となり、全てのパラメータが既知であるカメラを用いなくても3次元マップを生成することができる。   According to the configuration of one embodiment of the present invention, in the configuration in which images taken by two cameras installed at different positions are input and calculation of the optimum parallax offset based on the taken image is performed, the two cameras A feature point pair is detected from the captured image, and a parallax offset between the captured images of the two cameras is calculated by analyzing the feature point pair. In the parallax offset calculation process, a feature point pair that is determined to have high reliability by filtering the feature point pair is selected, and a histogram is generated as occurrence frequency distribution information of the parallax offset data corresponding to the selected feature point pair. Then, a constraint condition for the allowable value of the parallax offset is defined using the generated histogram, and an optimum value of the parallax offset is calculated based on the defined constraint condition. According to this configuration, even when some of the parameters for one camera are unknown, the optimum parallax offset (dx, dy) can be calculated based on the captured image of each camera, and all parameters are known. A three-dimensional map can be generated without using a camera.

以下、図面を参照しながら本発明の実施形態に係る情報処理装置、および情報処理方法、並びにコンピュータ・プログラムの詳細について説明する。   Details of an information processing apparatus, an information processing method, and a computer program according to embodiments of the present invention will be described below with reference to the drawings.

本発明の一実施例に係る情報処理装置は、撮影画像に基づく3次元マップ(3Dmap)の作成処理を行う。具体的には撮影画像に基づいて、視差オフセットを算出し、算出した視差オフセットによってパラメータを取得し、取得パラメータによるカメラキャリブレーションを実行して3次元マップ(3Dmap)を作成する。以下この処理の詳細について説明する。図1は、本発明の情報処理装置の一実施例構成を示図である。   An information processing apparatus according to an embodiment of the present invention performs a process of creating a three-dimensional map (3Dmap) based on a captured image. Specifically, a parallax offset is calculated based on the captured image, a parameter is acquired based on the calculated parallax offset, and camera calibration is performed using the acquired parameter to create a three-dimensional map (3Dmap). Details of this processing will be described below. FIG. 1 is a diagram showing a configuration of an embodiment of an information processing apparatus according to the present invention.

まず、図1を参照して本発明の情報処理装置の実行する処理の概要について説明する。個々の構成部の処理の詳細については後述する。2つのカメラ101a,101b、異なる位置に設定され、画像を異なる方向から撮影する。なお、これらのカメラ101a,101bのパラメータは、少なくとも一方のカメラについては、一部のみが取得済みであり一部が不明である。具体的には、例えば、
(a)内部パラメータ
イメージサイズ、ピクセルサイズ、焦点距離、歪曲収差、
(b)外部パラメータ
ステレオベースライン
これらのパラメータが2つのカメラ101a,101bの双方において既知であり、
(a)内部パラメータ
画像中心(principal point)
(b)外部パラメータ
カメラ位置姿勢(homographies)
これらのパラメータが2つのカメラ101a,101の一方において既知であり他方において未知である。
First, an outline of processing executed by the information processing apparatus of the present invention will be described with reference to FIG. Details of the processing of each component will be described later. Two cameras 101a and 101b are set at different positions, and images are taken from different directions. Note that at least one of the parameters of the cameras 101a and 101b has already been acquired and some of the parameters are unknown. Specifically, for example,
(A) Internal parameters Image size, pixel size, focal length, distortion,
(B) External parameters Stereo baseline These parameters are known in both the two cameras 101a, 101b,
(A) Internal parameters Image point (principal point)
(B) External parameters Camera position and orientation (homography)
These parameters are known in one of the two cameras 101a, 101 and unknown in the other.

特徴点抽出部102は、2つのカメラ101a,101bの撮影画像を解析し、特徴点の抽出処理を行う。特徴点マッチング処理部103は、特徴点抽出部102の抽出した2つのカメラ101a,101bの撮影画像の各々の特徴点のマッチング処理を実行する。視差オフセット算出部104は、特徴点マッチング処理部103の生成した特徴点のマッチング情報を入力して、2つのカメラ101a,101bの視差オフセット(Disparity Offset)を算出する。   The feature point extraction unit 102 analyzes the captured images of the two cameras 101a and 101b, and performs feature point extraction processing. The feature point matching processing unit 103 executes a matching process for each feature point of the captured images of the two cameras 101a and 101b extracted by the feature point extraction unit 102. The parallax offset calculation unit 104 receives the feature point matching information generated by the feature point matching processing unit 103 and calculates the parallax offsets (Disparity Offset) of the two cameras 101a and 101b.

キャリブレーション&3Dマップ生成部105は、視差オフセット算出部104が算出した2つのカメラ101a,101bの視差オフセット(Disparity Offset)を適用してカメラキャリブレーションを実行し、撮影画像に基づく3次元マップ(3Dmap)の作成処理を行う。   The calibration & 3D map generation unit 105 applies the parallax offsets (Disparity Offset) of the two cameras 101a and 101b calculated by the parallax offset calculation unit 104 to execute camera calibration, and performs a three-dimensional map (3Dmap) based on the captured image. ).

図2に示すフローチャートは、本発明の一実施例に係る情報処理装置において実行する3次元マップ(3Dmap)の作成処理の全体シーケンスである。本発明の情報処理装置では、図1に示すフローチャートに従った処理によって3次元マップの作成を行う。   The flowchart shown in FIG. 2 is an overall sequence of a three-dimensional map (3Dmap) creation process executed in the information processing apparatus according to an embodiment of the present invention. In the information processing apparatus of the present invention, a three-dimensional map is created by processing according to the flowchart shown in FIG.

まず、ステップS101において、2台のカメラによる撮影画像取得処理を実行する。図1に示す異なる位置に設定され、画像を異なる方向から撮影するカメラ101a,101bによって画像の撮影を行う。   First, in step S101, captured image acquisition processing by two cameras is executed. Images are taken by cameras 101a and 101b which are set at different positions shown in FIG. 1 and take images from different directions.

次に、ステップS102において、2台のカメラによる撮影画像からの特徴点抽出を実行する。これは、図1に示す特徴点抽出部102において実行され、特徴点抽出部102は、2つのカメラ101a,101bの撮影画像を解析し、特徴点の抽出処理を行う。   Next, in step S102, feature point extraction from images captured by the two cameras is executed. This is executed in the feature point extraction unit 102 shown in FIG. 1, and the feature point extraction unit 102 analyzes the captured images of the two cameras 101a and 101b, and performs feature point extraction processing.

特徴点抽出処理の一例として、ハリスコーナーディテクター(Harris Corner Detector)を用いた処理例について図3を参照して説明する。情報処理装置のデータ処理部は、特徴点抽出に際して図3に示すようにカメラによって撮影された画像200から複数のハリスコーナーイメージ210〜212と、ラプラシアンイメージ220〜222を生成する。   As an example of the feature point extraction processing, a processing example using a Harris corner detector will be described with reference to FIG. The data processing unit of the information processing apparatus generates a plurality of Harris corner images 210 to 212 and Laplacian images 220 to 222 from an image 200 photographed by a camera as shown in FIG.

ハリスコーナーイメージは、取得イメージに対してハリスコーナーディテクター(Harris Corner Detector)を適用して生成されるイメージデータである。これらのハリスコーナーイメージ210〜212から、例えば周囲8画素に比較して値の高い画素ポイント(maxima point)215を検出点として抽出する。さらに、取得イメージ200に対して、LoG(Laplacian of Gaussian)フィルタを適用して複数レベル(解像度)のラプラシアンイメージ220〜222を生成する。LoG(Laplacian of Gaussian)フィルタは、画像の輪郭強調のために用いられる2次微分フィルタの一種であり、人間の視覚系で網膜からの情報が外側膝状体で中継されるまでに行われている処理の近似モデルとして用いられるものである。   A Harris corner image is image data generated by applying a Harris Corner Detector to an acquired image. From these Harris corner images 210 to 212, for example, a pixel point (maxima point) 215 having a higher value than the surrounding eight pixels is extracted as a detection point. Further, a LoG (Laplacian of Gaussian) filter is applied to the acquired image 200 to generate multi-level (resolution) Laplacian images 220 to 222. The LoG (Laplacian of Gaussian) filter is a kind of second-order differential filter used for image edge enhancement, and is performed until information from the retina is relayed by the outer knee in the human visual system. It is used as an approximate model of the processing.

特徴点抽出処理は、LoGフィルタ出力画像であるラプラシアンイメージ220〜222の所定のレベル範囲内の解像度変化によって位置の変化がないかハリスコーナーイメージ210〜212から得られた検出点の位置に対応する箇所に対して調べ、変化がない点を特徴点とする。これにより、画像の拡大縮小操作に対してロバストな特徴点間のマッチングが実現できる。なお、これらの特徴点抽出処理の詳細については、例えば、特開2004−326693号公報(特願2003−124225)に記載されており、特徴点抽出部102における本発明における特徴点抽出処理としてこの手法の適用が可能である。   The feature point extraction processing corresponds to the position of the detection point obtained from the Harris corner images 210 to 212 whether there is a change in position due to a change in resolution within a predetermined level range of the Laplacian images 220 to 222 that are LoG filter output images. A point is examined, and a point having no change is defined as a feature point. Thereby, it is possible to realize matching between feature points that is robust to an enlargement / reduction operation of an image. Details of these feature point extraction processes are described in, for example, Japanese Patent Application Laid-Open No. 2004-326693 (Japanese Patent Application No. 2003-124225), and this feature point extraction process in the present invention in the feature point extraction unit 102 is described in this document. The method can be applied.

この特徴点の検出は、画像を異なる方向から撮影する図1に示すカメラ101a,101bによって撮影された画像の各々について実行され、検出された特徴点情報が、図1に示す特徴点マッチング処理部103に入力され、図2に示すフローのステップS103の処理、すなわち、各カメラの撮影画像の特徴点マッチング処理が実行される。   This feature point detection is executed for each of the images taken by the cameras 101a and 101b shown in FIG. 1 that take images from different directions, and the detected feature point information is the feature point matching processing unit shown in FIG. 2, the process of step S103 of the flow shown in FIG. 2, that is, the feature point matching process of the captured image of each camera is executed.

この特徴点マッチング処理の詳細シーケンスについて、図4に示すフローチャートを参照して説明する。ステップS201において第1カメラの特徴点を抽出し、ステップS202において第2カメラの特徴点を抽出する。これらの特徴点は、特徴点抽出部102において抽出された特徴点である。   A detailed sequence of this feature point matching process will be described with reference to the flowchart shown in FIG. In step S201, feature points of the first camera are extracted, and in step S202, feature points of the second camera are extracted. These feature points are feature points extracted by the feature point extraction unit 102.

次に、ステップS203において特徴点ペアを検出する。特徴点ペアの検出は、第1カメラの特徴点と第2カメラの特徴点との対応付け処理である。具体的には、例えば先に紹介した特開2004−326693号公報(特願2003−124225)に記載された手法を適用することができる。   Next, a feature point pair is detected in step S203. The feature point pair detection is an association process between the feature points of the first camera and the feature points of the second camera. Specifically, for example, the technique described in Japanese Patent Application Laid-Open No. 2004-326693 (Japanese Patent Application No. 2003-124225) introduced earlier can be applied.

この特開2004−326693号公報(特願2003−124225)に記載された特徴点ペアの検出手法の概要について説明する。まず、抽出された各特徴点について特徴量を抽出し保持する。特徴量としては、特徴点の近傍領域各点の濃度勾配情報(勾配強度及び勾配方向)を用いる。特徴量を算出する特徴点近傍領域としては、回転変化に対して構造の変わらないような、特徴点に関して対称なものを選択することが好ましい。これにより、回転変化に対するロバスト性を実現することができる。例えば、(i)特徴点から半径rピクセルの範囲内を特徴点近傍領域とする手法や、(ii)特徴点を中心に幅σの特徴点に関して対称な2次元ガウス重みを濃度勾配に掛ける手法を用いることができる。また、特徴点近傍の勾配方向に関するヒストグラム(方向ヒストグラム)も特徴量として取得する。   An outline of the feature point pair detection method described in Japanese Patent Application Laid-Open No. 2004-326693 (Japanese Patent Application No. 2003-124225) will be described. First, feature quantities are extracted and stored for each extracted feature point. As the feature amount, density gradient information (gradient strength and gradient direction) at each point in the vicinity region of the feature point is used. As the feature point vicinity region for calculating the feature amount, it is preferable to select a region that is symmetrical with respect to the feature point so that the structure does not change with respect to the rotation change. Thereby, the robustness with respect to a rotation change is realizable. For example, (i) a method in which a region within a radius r pixel from a feature point is used as a feature point neighboring region, or (ii) a method of applying a two-dimensional Gaussian weight symmetric about a feature point having a width σ around the feature point to the density gradient. Can be used. Further, a histogram (direction histogram) regarding the gradient direction in the vicinity of the feature point is also acquired as a feature amount.

次に、2つのカメラから取得された特徴点に対応する特徴量を比較して、類似する特徴量を有する特徴点のペア(候補対応特徴点ペア)を選択する。例えば、第1のカメラの撮影画像から選択した1つの特徴点の特徴量(方向ヒストグラム)と相違度の小さいK個の特徴点を第2のカメラの撮影画像から選択し、k個の特徴点ペア候補を選択し、予め定めた閾値以上の誤差を有する特徴点ペア候補を除去する処理を行い、確からしい特徴点ペアのみを残存させる。   Next, feature amounts corresponding to feature points acquired from two cameras are compared, and a feature point pair (candidate corresponding feature point pair) having similar feature amounts is selected. For example, K feature points having a small difference from the feature amount (direction histogram) of one feature point selected from the photographed image of the first camera are selected from the photographed image of the second camera, and k feature points are selected. A pair candidate is selected, and a feature point pair candidate having an error equal to or greater than a predetermined threshold value is removed to leave only a probable feature point pair.

図1に示す特徴点マッチング処理部103は、このような処理によって、各カメラの撮影画像の特徴点マッチング処理を実行する。なお、この特徴点マッチング処理の詳細は、前述したように特開2004−326693号公報(特願2003−124225)に記載されている。   The feature point matching processing unit 103 illustrated in FIG. 1 performs feature point matching processing of the captured image of each camera through such processing. The details of the feature point matching processing are described in Japanese Patent Application Laid-Open No. 2004-326693 (Japanese Patent Application No. 2003-124225) as described above.

上述の特徴点マッチングが終了すると、次に、図2に示すフローのステップS104の処理を実行する。ステップS104の処理は視差オフセット算出のための第1段階処理であり、具体的には、視差拘束(Disparity constraint)の算出処理である。その後、ステップS105において、ステップS104で算出した視差拘束(Disparity constraint)を適用して、視差オフセットの算出処理が行われる。これらの処理は、図1に示す視差オフセット算出部104において実行される。   When the above feature point matching is completed, the process of step S104 in the flow shown in FIG. 2 is executed. The process of step S104 is a first stage process for calculating a parallax offset, and specifically, a process for calculating a disparity constraint. Thereafter, in step S105, the parallax offset calculation process is performed by applying the disparity constraint calculated in step S104. These processes are executed in the parallax offset calculation unit 104 shown in FIG.

まず、視差オフセットについて、図5、図6を参照して説明する。視差オフセットは、2台のカメラ、すなわち図1に示すカメラ101aと、カメラ101bの対応する特徴点の物理的位置関係および測定誤差を含む画素ずれに対応する値である。   First, the parallax offset will be described with reference to FIGS. The parallax offset is a value corresponding to a pixel shift including a physical positional relationship between two cameras, that is, the camera 101a illustrated in FIG. 1 and corresponding feature points of the camera 101b and a measurement error.

図5を用いて平行化画像について述べる。例えば任意の姿勢に配置された2台のカメラで撮影された画像は、図5(a)に示す画像211,212のように異なる方向からの画像データとなる。この撮影画像をそのまま利用しても、撮影画像上に設定されるエピポーラ線は平行なラインにならず、例えば対応点探索を、エピポーラ線を探索ラインとして行う場合、計算量が膨大となってしまう。そこで、図5(a)に示す画像211,212を変換して、平行な配置にあるカメラで撮影したと同様の画像、すなわち平行化画像215,216を生成し、この平行化画像215上に設定したエピホーララインでの対応点探索を行う。   The parallelized image will be described with reference to FIG. For example, images taken by two cameras arranged in an arbitrary posture are image data from different directions as images 211 and 212 shown in FIG. Even if this captured image is used as it is, the epipolar line set on the captured image does not become a parallel line. For example, when the corresponding point search is performed using the epipolar line as a search line, the amount of calculation becomes enormous. . Therefore, the images 211 and 212 shown in FIG. 5A are converted to generate images similar to those taken by the cameras in parallel arrangement, that is, the parallelized images 215 and 216, and the parallelized images 215 are displayed on the parallelized images 215. Search for corresponding points in the set epiphora line.

平行化画像データの例が、図5(b)に示すようなデータであり、図5(b)に示す画像211,212のように異なる方向からの画像データを変換して、平行な配置にあるカメラで撮影したと同様の画像、すなわち平行化画像215,216を生成し、この平行化画像215上に設定したエピホーララインでの対応点探索を行うことで容易な対応点抽出が可能となる。   An example of the parallelized image data is data as shown in FIG. 5B, and image data from different directions are converted into parallel arrangements like images 211 and 212 shown in FIG. 5B. It is possible to easily extract corresponding points by generating the same images taken by a certain camera, that is, parallelized images 215 and 216 and searching for corresponding points on the epiphora line set on the parallelized image 215. Become.

この平行化処理に適用する変換行列は、平面間変換行列と呼ばれる。図5(b)に示す撮影画像211に対して平面間変換行列Hを適用した画像変換を行うことで、平行化画像215が取得され、図5(b)に示す撮影画像212に対して平面間変換行列Hを適用した画像変換を行うことで、平行化画像216が取得される。これらの平行化画像215,216に設定されたエピポーララインは平行に設定され、対応点(特徴点ペア)探索が容易に実行できる。平面間変換行列を適用した画像変換処理はステレオ画像の並行化処理と呼ばれる。 A transformation matrix applied to this parallelization process is called an interplane transformation matrix. By performing the image conversion according to the plane between the transformation matrix H 1 relative to the captured image 211 shown in FIG. 5 (b), collimating the image 215 is acquired with respect to the captured image 212 shown in FIG. 5 (b) by performing the image conversion according to the plane between the transformation matrix H 2, collimated image 216 is acquired. The epipolar lines set in these parallel images 215 and 216 are set in parallel, and the corresponding point (feature point pair) search can be easily executed. Image conversion processing using an inter-plane conversion matrix is called stereo image parallelization processing.

図6には、互いの姿勢がほぼ平行に設置された2つのカメラによって生成した2つの画像215,216を示し、それぞれの画像215,216に平行化画像の撮影画像中心(principal point)231、232を示している。カメラの位置・姿勢は厳密に平行化されていないため、平行化画像の撮影画像中心(principal point)231、232は、互いにずれた位置にある。   FIG. 6 shows two images 215 and 216 generated by two cameras whose postures are set substantially parallel to each other, and a captured image center 231 of the parallelized image is displayed on each of the images 215 and 216, respectively. 232 is shown. Since the position and orientation of the camera are not strictly collimated, the captured image centers (primary points) 231 and 232 of the collimated image are shifted from each other.

第1画像215の平行化画像の撮影画像中心(ex1,ey1)は、第1画像215の中心(画像中心(Image Center))からの座標として示される。横方向がx、縦方向をyとして示している。同様に、第2画像216の平行化画像の撮影画像中心(ex2,ey2)は、第2画像216の中心(画像中心(Image Center))からの座標として示される。 The captured image center (e x1 , e y1 ) of the parallelized image of the first image 215 is indicated as a coordinate from the center of the first image 215 (image center). The horizontal direction is indicated by x and the vertical direction is indicated by y. Similarly, the captured image center (e x2 , e y2 ) of the parallelized image of the second image 216 is indicated as a coordinate from the center of the second image 216 (image center).

このような平行化画像の撮影画像中心(principal point)231、232を有し、且つ互いの姿勢がほぼ平行となるように設置された2つのカメラによって撮影された2つの画像215,216に基づいて、視差オフセット(Disparity Offset)の算出が行われる。視差オフセットは、2つの画像の対応画素各々について算出され、対応画素各々のx方向のずれ(dx)とy方向のずれ(dy)との組データ(dx,dy)として表すことができる。互いの姿勢がほぼ平行に設置されているという前提条件を用いると、視差オフセット(dx,dy)は、
第1画像の平面間変換行列:H=(tx1,ty1
第2画像の平面間変換行列:H=(tx2,ty2
第1画像の画像中心:(ex1,ey1
第2画像の画像中心:(ex2,ey2
と近似することができ、
視差オフセット(dx,dy)=(ex1+tx1−ex2−tx2,ey1+ty1−ey2−ty2
として表現することができる。
Based on two images 215 and 216 captured by two cameras having such captured image centers (parallel points) 231 and 232 and arranged so that their postures are substantially parallel to each other. Thus, the calculation of the disparity offset (Disparity Offset) is performed. The parallax offset is calculated for each of the corresponding pixels of the two images, and can be expressed as set data (dx, dy) of a shift (dx) in the x direction and a shift (dy) in the y direction of each corresponding pixel. Using the precondition that the postures of each other are installed almost in parallel, the parallax offset (dx, dy) is
Interplane transformation matrix of the first image: H 1 = (t x1 , t y1 )
Interplane transformation matrix of the second image: H 2 = (t x2 , t y2 )
Image center of first image: (e x1 , e y1 )
Image center of second image: (e x2 , e y2 )
And can be approximated with
Parallax offset (dx, dy) = (e x1 + t x1 -e x2 -t x2, e y1 + t y1 -e y2 -t y2)
Can be expressed as

この視差オフセットを算出することができれば、カメラキャリブレーションが可能となる。すなわち、例えば一方のカメラ(第1カメラ)を固定して、第1画像の平行化画像の撮影画像中心:(ex1,ey1)を平行化画像の画像中心(イメージ中心(Image Center))に設定(0,0)するような構成とすれば、他方のカメラ(第2カメラ)について、
(a)内部パラメータ
画像中心(principal point)
(b)外部パラメータ
カメラ位置姿勢(homographies)
これらのパラメータが未知である場合でも、第1カメラの撮影画像に基づく平行化画像である第1画像の画像中心データ:(ex1,ey1)を利用して、各カメラの撮影画像における対応点(特徴点ペア)について、視差オフセットを算出することが可能となり、カメラキャリブレーションが可能となる。
If this parallax offset can be calculated, camera calibration is possible. That is, for example, one camera (first camera) is fixed, and the image center of the parallelized image of the first image: (e x1 , e y1 ) is the image center of the parallelized image (image center). If the configuration is set to (0, 0), the other camera (second camera)
(A) Internal parameters Image point (principal point)
(B) External parameters Camera position and orientation (homography)
Even when these parameters are unknown, the correspondence between the captured images of the respective cameras is obtained using the image center data of the first image that is a parallelized image based on the captured image of the first camera: (e x1 , e y1 ). With respect to points (feature point pairs), parallax offsets can be calculated, and camera calibration can be performed.

図2に示すフローのステップS104の処理、すなわち、視差オフセット算出のための第1段階処理として行われる視差拘束(Disparity constraint)等の算出処理の詳細シーケンスについて、図7のフローチャートを参照して説明する。この処理は、図1に示す視差オフセット算出部104において実行される。   A detailed sequence of the process of step S104 in the flow shown in FIG. 2, that is, a calculation process such as disparity constraint performed as the first stage process for calculating the parallax offset will be described with reference to the flowchart of FIG. To do. This process is executed in the parallax offset calculation unit 104 shown in FIG.

この視差オフセット算出のための第1段階処理として行われる視差拘束(Disparity constraint)の算出処理は、視差オフセットの拘束条件を設定する処理であり、2つの平行化画像の対応画素各々のx方向のずれ(dx)とy方向のずれ(dy)との組データである視差オフセット(dx,dy)の許容範囲を設定する処理である。具体的には、視差オフセット(dx,dy)のy方向の最適値(dy,best)の算出、および、x方向の最小許容値(dx,min)、最大許容値(dx,max)の算出が実行される。   The disparity constraint calculation process performed as the first stage process for calculating the parallax offset is a process of setting a constraint condition of the parallax offset, and is performed in the x direction of each of the corresponding pixels of the two parallelized images. This is a process of setting an allowable range of a parallax offset (dx, dy) that is a set data of a deviation (dx) and a deviation in the y direction (dy). Specifically, calculation of the optimum value (dy, best) in the y direction of the parallax offset (dx, dy), and calculation of the minimum allowable value (dx, min) and the maximum allowable value (dx, max) in the x direction. Is executed.

まず、図7に示すフローチャートのステップS301において、視差オフセットの拘束条件としての視差拘束の初期設定を行う。この初期値は、おおよそのカメラの設定位置データや撮影画像に基づいて決定することができる。   First, in step S301 of the flowchart shown in FIG. 7, the initial setting of the parallax constraint is performed as the parallax offset constraint condition. This initial value can be determined based on approximate camera setting position data or a captured image.

例えば、視差オフセット(dx,dy)の許容範囲を示す視差拘束の初期設定例として、視差オフセット(dx,dy)のdx,dy各々についての許容範囲を、最小許容値:d'x,min,d'y,minと、最大許容値:d'x,max,d'y,maxを用いて、
d'x,min<d<d'x,max
d'y,min<d<d'y,max
上記のように表現した場合、
d'x,min=−50、
d'x,max=50、
d'y,min=−50、
d'y,max=50、
このような初期設定とする。
なお、−50、50の単位は、例えば画素(pixel)数である。なお単位は、画素数に限らず、画像上の実距離や、実空間の距離などを利用してもよい。
For example, as an initial setting example of the parallax constraint indicating the allowable range of the parallax offset (dx, dy), the allowable range for each of the dx and dy of the parallax offset (dx, dy) is set to the minimum allowable value: d ′ x, min , Using d ′ y, min and the maximum allowable values: d ′ x, max , d ′ y, max ,
d ′ x, min <d x <d ′ x, max ,
d ′ y, min <d y <d ′ y, max ,
When expressed as above,
d ′ x, min = −50,
d ′ x, max = 50,
d ′ y, min = −50,
d ′ y, max = 50,
Such an initial setting is used.
Note that the unit of −50 and 50 is, for example, the number of pixels. The unit is not limited to the number of pixels, and an actual distance on the image, a distance in real space, or the like may be used.

ステップS301では、視差オフセット(dx,dy)の許容範囲を示す視差拘束の初期設定例として、視差オフセット(dx,dy)のdx,dy各々について、例えば、
−50<d<50、
−50<d<50、
このような初期設定を行う。
In step S301, as an initial setting example of the parallax constraint indicating the allowable range of the parallax offset (dx, dy), for each of dx and dy of the parallax offset (dx, dy), for example,
−50 <d x <50,
−50 <d y <50,
Such initial setting is performed.

次に、ステップS302において、互いの姿勢がほぼ平行に設置された2つのカメラによって撮影された画像に対して、ステレオフィルタを適用し、ステップS301で設定した視差拘束等を満足しない特徴点ペア(対応点)を削除する。   Next, in step S302, a feature point pair that does not satisfy the parallax constraint or the like set in step S301 by applying a stereo filter to images captured by two cameras whose postures are set substantially parallel to each other (step S302). (Corresponding point) is deleted.

この処理は、図2に示すフローのステップS101、S102において抽出した特徴点ペア、すなわち、先に図4のフローを参照して説明した特徴点ペア抽出処理によって抽出した特徴点ペアの各々について、ステップS301で設定した視差拘束を満足しない特徴点ペアを削除する処理である。   This process is performed for each of the feature point pairs extracted in steps S101 and S102 of the flow shown in FIG. 2, that is, the feature point pairs extracted by the feature point pair extraction process described above with reference to the flow of FIG. This is a process of deleting feature point pairs that do not satisfy the parallax constraint set in step S301.

視差拘束等の拘束条件を満足しない特徴点ペアを削除するためのフィルタを、ここではステレオフィルタと呼ぶ。ステレオフィルタは、以下の処理を行う。
(入力)
(1)特徴点ペア:(f,f)=(x,y),(x,y)、
(2)視差オフセット(dx,dy)のdx,dy各々についての最小許容値:d'x,min,d'y,minと、最大許容値:d'x,max,d'y,max
とする。なお、(f,f)=(x,y),(x,y)は、図2に示すフローのステップS101、S102において抽出した2台のカメラの撮影画像から取得した特徴点ペアの平行化画像における座標位置を示している。
特徴点ペア中、左側のカメラ(カメラL)の特徴点の座標位置をf=(x,y)とし、右側のカメラ(カメラR)の特徴点の座標位置をf=(x,y)として表現している。
A filter for deleting a feature point pair that does not satisfy constraint conditions such as parallax constraint is referred to as a stereo filter here. The stereo filter performs the following processing.
(input)
(1) Feature point pairs: (f 1 , f r ) = (x 1 , y 1 ), (x r , y r ),
(2) Minimum allowable values for each of dx and dy of the parallax offset (dx, dy): d ′ x, min , d ′ y, min , and maximum allowable values: d ′ x, max , d ′ y, max ,
And Note that (f 1 , f r ) = (x 1 , y 1 ), (x r , y r ) are obtained from the captured images of the two cameras extracted in steps S101 and S102 of the flow shown in FIG. The coordinate position in the parallelized image of the feature point pair is shown.
In the feature point pair, the coordinate position of the feature point of the left camera (camera L) is f 1 = (x 1 , y 1 ), and the coordinate position of the feature point of the right camera (camera R) is f r = (x r , y r ).

これらの入力情報に基づいて、各特徴点ペアが、以下の条件を満足するか否かを判定する。
(判定処理)
(f,f)=(x,y),(x,y
が、
(a)エピポーラ拘束(Epipolar constraint)
y,min−δ<y−y<dy,max+δ
なお、δは、予め設定されたエピポーララインの設定誤差である。
(b)視差拘束(Disparity constraint)
x,min<x−x
(c)固有対応拘束(Unique match constraint)
上記(a),(b)の両者を満足する複数のペア(1対多)がある場合、これらのペアは、あいまい性が高い特徴点ペアであると判定して排除、
Based on these input information, it is determined whether each feature point pair satisfies the following conditions.
(Determination process)
(F 1 , f r ) = (x 1 , y 1 ), (x r , y r )
But,
(A) Epipolar constraint
d y, min -δ y <y l -y r <d y, max + δ y,
Here, δ y is a preset epipolar line setting error.
(B) Disparity constraint
d x, min <x 1 −x r ,
(C) Unique match constraint
When there are a plurality of pairs (one-to-many) satisfying both of the above (a) and (b), these pairs are determined to be feature points pairs with high ambiguity, and are excluded.

(出力)
上記(a)〜(c)の拘束条件を全て満足する特徴点ペアのみを選択して出力する。
(output)
Only feature point pairs that satisfy all of the constraint conditions (a) to (c) are selected and output.

ステップS302では、平行化画像に対するステレオフィルタを適用し、上記の処理を実行して、視差拘束等を満足しない特徴点ペアを削除し信頼性の高い特徴点ペアのみを残存させる特徴点ペア選択処理を行う。   In step S302, a stereo filter is applied to the parallelized image, and the above processing is executed to delete a feature point pair that does not satisfy the parallax constraint or the like and to leave only a highly reliable feature point pair. I do.

上記(a)〜(c)のフィルタリング処理の具体例について、図8〜図10を参照して説明する。
図8(A)は、
(a)エピポーラ拘束(Epipolar constraint)
y,min−δ<y−y<dy,max+δ
この拘束条件を適用した特徴点ペアの削除、選択処理例を示す図である。
Specific examples of the filtering processes (a) to (c) will be described with reference to FIGS.
FIG. 8 (A)
(A) Epipolar constraint
d y, min -δ y <y l -y r <d y, max + δ y,
It is a figure which shows the example of a deletion and selection process of the feature point pair to which this constraint condition is applied.

図8(A)において、第1カメラ画像(L)から選択された特徴点[fl1=(xl1,yl1)]に対応する特徴点ペアとして、第2カメラ画像(R)から2つの特徴点[fr1a=(xr1a,yr1a)]と、[fr1b=(xr1b,yr1b)]が選択されている場合、
第1の特徴点ペア:[fl1=(xl1,yl1)]と[fr1a=(xr1a,yr1a)]
この第1の特徴点ペアのy座標データは、
エピポーラ拘束条件:dy,min−δ<y−y<dy,max+δ
を満足しないが、
第2の特徴点ペア:[fl1=(xl1,yl1)]と[fr1b=(xr1b,yr1b)]
この第2の特徴点ペアのy座標データは、
エピポーラ拘束条件:dy,min−δ<y−y<dy,max+δ
を満足する。
この場合、
第1の特徴点ペア:[fl1=(xl1,yl1)]と[fr1a=(xr1a,yr1a)]は、削除され、
第2の特徴点ペア:[fl1=(xl1,yl1)]と[fr1b=(xr1b,yr1b)]
この特徴点ペアが、エピポーラ拘束(Epipolar constraint)を満足する特徴点ペアとして選択される。
In FIG. 8A, two feature points corresponding to the feature point [f 11 = (x 11 , y 11 )] selected from the first camera image (L) are extracted from the second camera image (R). When the feature points [f r1a = (x r1a , y r1a )] and [f r1b = (x r1b , y r1b )] are selected,
First feature point pair: [f l1 = (x l1 , y l1 )] and [f r1a = (x r1a , y r1a )]
The y coordinate data of the first feature point pair is
Epipolar constraint: d y, min -δ y < y l -y r <d y, max + δ y,
Not satisfied
Second feature point pair: [f l1 = (x l1 , y l1 )] and [f r1b = (x r1b , y r1b )]
The y coordinate data of this second feature point pair is
Epipolar constraint: d y, min -δ y < y l -y r <d y, max + δ y,
Satisfied.
in this case,
The first feature point pair: [f l1 = (x l1 , y l1 )] and [f r1a = (x r1a , y r1a )] are deleted,
Second feature point pair: [f l1 = (x l1 , y l1 )] and [f r1b = (x r1b , y r1b )]
This feature point pair is selected as a feature point pair that satisfies the epipolar constraint.

図8(B)は、
(b)視差拘束(Disparity constraint)
x,min<x−x
この拘束条件を適用した特徴点ペアの削除、選択処理例を示す図である。
FIG. 8 (B)
(B) Disparity constraint
d x, min <x 1 −x r ,
It is a figure which shows the example of a deletion and selection process of the feature point pair to which this constraint condition is applied.

図8(B)において、第2カメラ画像(R)から選択された1つの特徴点[fr2a=(xr2a,yr2a)]に対応する特徴点ペアとして第1カメラ画像(L)から選択された特徴点[fl2a=(xl2a,yl2a)]と、[fl2b=(xl2b,yl2b)]が選択されている場合、
第1の特徴点ペア:[fl2a=(xl2a,yl2a)]と[fr2a=(xr2a,yr2a)]
この第1の特徴点ペアのx座標データは、
視差拘束:dx,min<x−x
を満足しないが、
第2の特徴点ペア:[fl2b=(xl2b,yl2b)]と[fr2a=(xr2a,yr2a)]
この第2の特徴点ペアのx座標データは、
視差拘束:dx,min<x−x
を満足する。
この場合、
第1の特徴点ペア:[fl2a=(xl2a,yl2a)]と[fr2a=(xr2a,yr2a)]は、削除され、
第2の特徴点ペア:[fl2b=(xl2b,yl2b)]と[fr2a=(xr2a,yr2a)]この特徴点ペアが、視差拘束(Disparity constraint)を満足する特徴点ペアとして選択される。
In FIG. 8B, a feature point pair corresponding to one feature point [f r2a = (x r2a , y r2a )] selected from the second camera image (R) is selected from the first camera image (L). Selected feature points [f l2a = (x l2a , y l2a )] and [f l2b = (x l2b , y l2b )] are selected,
First feature point pair: [f l2a = (x l2a , y l2a )] and [f r2a = (x r2a , y r2a )]
The x-coordinate data of this first feature point pair is
Parallax constraint: d x, min <x 1 −x r ,
Not satisfied
Second feature point pair: [f l2b = (x l2b , y l2b )] and [f r2a = (x r2a , y r2a )]
The x-coordinate data of this second feature point pair is
Parallax constraint: d x, min <x 1 −x r ,
Satisfied.
in this case,
The first feature point pair: [f l2a = (x l2a , y l2a )] and [f r2a = (x r2a , y r2a )] are deleted,
Second feature point pair: [f l2b = (x l2b , y l2b )] and [f r2a = (x r2a , y r2a )] This feature point pair satisfies the disparity constraint (Disparity constraint) Selected as.

図9は、(c)固有対応拘束(Unique match constraint)の非適合例と適合例を示している。固有対応拘束は、上記のエピポーラ拘束と、視差拘束の両者を満足する複数のペア(1対多)がある場合、これらのペアは、あいまい性が高い特徴点ペアであると判定して排除する拘束条件である。   FIG. 9 illustrates a non-conforming example and a conforming example of (c) unique match constraint. When there are a plurality of pairs (one-to-many) satisfying both the above-described epipolar constraint and parallax constraint, the unique correspondence constraint is determined as a feature point pair with high ambiguity and is excluded. It is a constraint condition.

図9(A)は、固有対応拘束の非適合例を示している。第1カメラ画像(L)から選択された特徴点[fl1a=(xl1a,yl1a)]と、第2カメラ画像(R)の特徴点[fr1a=(xr1a,yr1a)]とは特徴点ペアとして選択され、かつ、この特徴点ペアはエピポーラ拘束と、視差拘束の両者を満足する。
しかし、この第1カメラ画像(L)から選択された特徴点[fl1a=(xl1a,yl1a)]は、第2カメラ画像(R)の他の特徴点[fr1b=(xr1b,yr1b)]とも特徴点ペアとして選択され、かつ、この特徴点ペアも、エピポーラ拘束と、視差拘束の両者を満足する。
FIG. 9A shows a non-conforming example of the inherent correspondence constraint. Feature points [f l1a = (x l1a , y l1a )] selected from the first camera image (L), and feature points [f r1a = (x r1a , y r1a )] of the second camera image (R) Is selected as a feature point pair, and this feature point pair satisfies both epipolar constraint and parallax constraint.
However, the feature point [f l1a = (x l1a , y l1a )] selected from the first camera image (L) is another feature point [f r1b = (x r1b , y r1b )] is selected as a feature point pair, and this feature point pair also satisfies both epipolar constraint and parallax constraint.

さらに、図9(A)に示す第1カメラ画像(L)から選択されたもう1つの特徴点[fl1b=(xl1b,yl1b)]についても、第2カメラ画像(R)の2つの特徴点[fr1a=(xr1a,yr1a)]、[fr1b=(xr1b,yr1b)]のいずれとも、エピポーラ拘束と、視差拘束の両者を満足する特徴点ペアとして選択されている。 Further, another feature point [f l1b = (x l1b , y l1b )] selected from the first camera image (L) shown in FIG. Both feature points [f r1a = (x r1a , y r1a )] and [f r1b = (x r1b , y r1b )] are selected as feature point pairs that satisfy both epipolar constraint and parallax constraint .

このように、エピポーラ拘束と、視差拘束の両者を満足する複数のペア(1対多)がある場合、これらのペアは、あいまい性が高い特徴点ペアであると判定して排除する。   As described above, when there are a plurality of pairs (one-to-many) satisfying both the epipolar constraint and the parallax constraint, these pairs are determined to be feature point pairs with high ambiguity and are excluded.

図9(B)は、固有対応拘束の適合例を示している。第1カメラ画像(L)(平行化画像)から選択された特徴点[fl1a=(xl1a,yl1a)]と、第2カメラ画像(R)(平行化画像)の特徴点[fr1a=(xr1a,yr1a)]とは特徴点ペアとして選択され、かつ、この特徴点ペアはエピポーラ拘束と、視差拘束の両者を満足する。 FIG. 9B shows an example of adaptation of the inherent correspondence constraint. The first camera image (L) (collimated image) is selected from the feature points [f l1a = (x l1a, y l1a)] and, feature points of the second camera image (R) (collimated image) [f r1a = (X r1a , y r1a )] is selected as a feature point pair, and this feature point pair satisfies both epipolar constraint and parallax constraint.

この第1カメラ画像(L)から選択された特徴点[fl1a=(xl1a,yl1a)]は、第2カメラ画像(R)の他の特徴点[fr1b=(xr1b,yr1b)]とも特徴点ペアとして選択されているが、この特徴点ペアは、エピポーラ拘束と、視差拘束の両者を満足しない。 The first selected feature points from the camera image (L) [f l1a = ( x l1a, y l1a)] , in addition to feature points of the second camera image (R) [f r1b = ( x r1b, y r1b )] Is selected as a feature point pair, but this feature point pair does not satisfy both epipolar constraint and parallax constraint.

この場合は、第1カメラ画像(L)の特徴点[fl1a=(xl1a,yl1a)]と、第2カメラ画像(R)の特徴点[fr1a=(xr1a,yr1a)]からなる特徴点ペアは、固有対応拘束の適合条件を満足する特徴点ペアとして選択される。 In this case, the feature point [f l1a = (x l1a , y l1a )] of the first camera image (L) and the feature point [f r1a = (x r1a , y r1a )] of the second camera image (R) The feature point pair consisting of is selected as a feature point pair that satisfies the matching condition of the unique correspondence constraint.

同様に、図9(B)に示す第1カメラ画像(L)から選択された特徴点[fl1b=(xl1b,yl1b)]と、第2カメラ画像(R)の特徴点[fr1b=(xr1b,yr1b)]とは特徴点ペアとして選択され、かつ、この特徴点ペアはエピポーラ拘束と、視差拘束の両者を満足する。 Similarly, and FIG. 9 (B) selected from the first camera image (L) shown in the characteristic point [f l1b = (x l1b, y l1b)] and, feature points of the second camera image (R) [f r1b = (X r1b , y r1b )] is selected as a feature point pair, and this feature point pair satisfies both epipolar constraint and parallax constraint.

この第1カメラ画像(L)から選択された特徴点[fl1b=(xl1b,yl1b)]は、第2カメラ画像(R)の他の特徴点[fr1a=(xr1a,yr1a)]とも特徴点ペアとして選択されているが、この特徴点ペアは、エピポーラ拘束と、視差拘束の両者を満足しない。 The feature point [f l1b = (x l1b , y l1b )] selected from the first camera image (L) is the other feature point [f r1a = (x r1a , y r1a ) of the second camera image (R). )] Is selected as a feature point pair, but this feature point pair does not satisfy both epipolar constraint and parallax constraint.

この場合は、第1カメラ画像(L)の特徴点[fl1b=(xl1b,yl1b)]と、第2カメラ画像(R)の特徴点[fr1b=(xr1b,yr1b)]からなる特徴点ペアは、固有対応拘束の適合条件を満足する特徴点ペアとして選択される。 In this case, the feature point of the first camera image (L) [f l1b = ( x l1b, y l1b)] and, feature points of the second camera image (R) [f r1b = ( x r1b, y r1b)] The feature point pair consisting of is selected as a feature point pair that satisfies the matching condition of the unique correspondence constraint.

上述したように、図7に示すフローのステップS302では、互いの姿勢がほぼ平行となるように設置された2つのカメラによって撮影された画像対して、ステレオフィルタを適用し、ステップS301で設定した視差拘束等を満足しない特徴点ペア(対応点)を削除する。具体的には、上述したように、
(a)エピポーラ拘束(Epipolar constraint)
(b)視差拘束(Disparity constraint)
(c)固有対応拘束(Unique match constraint)
これらの拘束条件を満足しない特徴点ペアを、信頼性の低い特徴点ペアであると判断して削除する。
As described above, in step S302 of the flow shown in FIG. 7, a stereo filter is applied to images taken by two cameras installed so that their postures are substantially parallel to each other, and the setting is made in step S301. A feature point pair (corresponding point) that does not satisfy the parallax constraint or the like is deleted. Specifically, as described above,
(A) Epipolar constraint
(B) Disparity constraint
(C) Unique match constraint
A feature point pair that does not satisfy these constraint conditions is determined to be a feature point pair with low reliability and is deleted.

このように信頼性の低い特徴点ペアの排除処理による特徴点ペアの削減例を図10に示す。図10(A)は、図2のフローにおけるステップS102,S103の処理、さらに図4に示すフローに従った特徴点ペア抽出処理によって抽出された特徴点ペアの抽出例を示している。第1カメラ画像(L)、第2カメラ画像(R)に示す黒の矩形枠が特徴点ペアとして選択された領域である。   FIG. 10 shows an example of reducing feature point pairs by eliminating feature point pairs with low reliability in this way. FIG. 10A shows an example of extraction of feature point pairs extracted by the processing of steps S102 and S103 in the flow of FIG. 2 and the feature point pair extraction processing according to the flow shown in FIG. A black rectangular frame shown in the first camera image (L) and the second camera image (R) is an area selected as a feature point pair.

この図10(A)に示すデータに対して、ステレオフィルタを適用して、
(a)エピポーラ拘束(Epipolar constraint)
(b)視差拘束(Disparity constraint)
(c)固有対応拘束(Unique match constraint)
これらの拘束条件を満足しない特徴点ペアを、信頼性の低い特徴点ペアであると判断して削除することで、図10(B)に示すように信頼性の高い特徴点ペアのみが選択される。
A stereo filter is applied to the data shown in FIG.
(A) Epipolar constraint
(B) Disparity constraint
(C) Unique match constraint
By determining that feature point pairs that do not satisfy these constraint conditions are feature point pairs with low reliability and deleting them, only feature point pairs with high reliability are selected as shown in FIG. The

図10(B)に示す第1カメラ画像(L)、第2カメラ画像(R)に示す黒の矩形枠がステレオフィルタの適用後に残存した特徴点ペアであり、信頼性の高い特徴点ペアとして選択された領域である。   The black rectangular frames shown in the first camera image (L) and the second camera image (R) shown in FIG. 10B are feature point pairs remaining after applying the stereo filter, and are feature points pairs with high reliability. The selected area.

次に、図7に示すフローのステップS303に進み、残存する特徴点ペアに基づく、視差オフセット・ヒストグラムを生成する。すなわち、ステレオフィルタを適用して、
(a)エピポーラ拘束(Epipolar constraint)
(b)視差拘束(Disparity constraint)
(c)固有対応拘束(Unique match constraint)
これらの拘束条件を満足する特徴点ペア、具体的には、図10(B)に示すような信頼性の高い特徴点ペアに基づく、視差オフセット・ヒストグラムを生成する。
Next, the process proceeds to step S303 in the flow shown in FIG. 7 to generate a parallax offset histogram based on the remaining feature point pairs. That is, apply a stereo filter,
(A) Epipolar constraint
(B) Disparity constraint
(C) Unique match constraint
A parallax offset histogram is generated based on a feature point pair satisfying these constraint conditions, specifically, a highly reliable feature point pair as shown in FIG.

視差オフセットは前述したように、互いの姿勢がほぼ平行に設置された2つカメラ画像の特徴点ペアである対応画素各々について算出され、対応画素各々の水平方向(x方向)のずれ(dx)と、垂直方向(y方向)のずれ(dy)との組データ(dx,dy)、すなわち、
視差オフセット(dx,dy)=(ex1+tx1−ex2−tx2,ey1+ty1−ey2−ty2
として表すことができる。ただし、
第1画像の平面間変換行列:H=(tx1,ty1
第2画像の平面間変換行列:H=(tx2,ty2
第1画像の画像中心:(ex1,ey1
第2画像の画像中心:(ex2,ey2
と近似している。
As described above, the parallax offset is calculated for each of the corresponding pixels that are the feature point pairs of the two camera images arranged in parallel with each other, and the horizontal shift (x direction) of each corresponding pixel (dx) And set data (dx, dy) of the deviation (dy) in the vertical direction (y direction), that is,
Parallax offset (dx, dy) = (e x1 + t x1 -e x2 -t x2, e y1 + t y1 -e y2 -t y2)
Can be expressed as However,
Interplane transformation matrix of the first image: H 1 = (t x1 , t y1 )
Interplane transformation matrix of the second image: H 2 = (t x2 , t y2 )
Image center of first image: (e x1 , e y1 )
Image center of second image: (e x2 , e y2 )
And approximate.

ステップS303では、ステレオフィルタの適用によって残された信頼性の高い特徴点ペアについての視差オフセット(dx,dy)の各値[dx]、[dy]のヒストグラム(頻度分布)を生成する。すなほち、水平方向(X)と垂直方向(Y)に対応する[dx]のヒストグラムと[dy]のヒストグラムを生成する。   In step S303, a histogram (frequency distribution) of each value [dx] and [dy] of the parallax offset (dx, dy) for the highly reliable feature point pair left by the application of the stereo filter is generated. That is, a [dx] histogram and a [dy] histogram corresponding to the horizontal direction (X) and the vertical direction (Y) are generated.

例えば、図11、図12に示すヒストグラムが生成される。図11は、ステレオフィルタの適用によって残された信頼性の高い特徴点ペアについての視差オフセット(dx,dy)の値[dy]のヒストグラム(頻度分布)であり、図12は、[dx]のヒストグラム(頻度分布)である。   For example, the histograms shown in FIGS. 11 and 12 are generated. FIG. 11 is a histogram (frequency distribution) of values [dy] of parallax offsets (dx, dy) for highly reliable feature point pairs left by applying the stereo filter, and FIG. 12 is a graph of [dx]. It is a histogram (frequency distribution).

次にステップS304において、視差オフセット・ヒストグラムに基づいて、新たな視差拘束(Disparity conxtraint)を設定する。この新たな視差拘束の設定は、
視差オフセット(dx,dy)の各値[dx]、[dy]について、
dx:許容最小値[dx,min]と許容最大値[dx,max
dy:最適値[dy,best
これらの値を決定する処理として行われる。
Next, in step S304, a new disparity constraint is set based on the disparity offset histogram. This new parallax constraint setting is
For each value [dx], [dy] of the parallax offset (dx, dy),
dx: Allowable minimum value [d x, min ] and allowable maximum value [d x, max ]
dy: optimal value [dy , best ]
This process is performed to determine these values.

まず、図11に示すステレオフィルタの適用によって残された信頼性の高い特徴点ペアについての視差オフセット(dx,dy)の値[dy]のヒストグラム(頻度分布)からdyの最適値[dy,best]を決定する処理について説明する。 First, from the histogram (frequency distribution) of the value [dy] of the parallax offset (dx, dy) for the highly reliable feature point pair left by the application of the stereo filter shown in FIG. 11, the optimum value [dy , The process for determining “ best ” will be described.

dyは、左右の画像にあるエピポーラ線のY軸方向のずれを表している。dyは全てのマッチングペアに共通するパラメータであるので、dyの最適値[dy,best]は、dyのヒストグラムのピーク位置となるdyの値に設定する。図11に示すように、dyのヒストグラムのピーク位置となるdyの値をdyの最適値[dy,best]として決定する。 dy represents a shift in the Y-axis direction of the epipolar line in the left and right images. Since dy is a parameter common to all matching pairs, the optimal value [dy , best ] of dy is set to the value of dy that is the peak position of the dy histogram. As shown in FIG. 11, the value of dy that is the peak position of the dy histogram is determined as the optimum value of dy [dy , best ].

次に、図12に示すステレオフィルタの適用によって残された信頼性の高い特徴点ペアについての視差オフセット(dx,dy)の値[dx]のヒストグラム(頻度分布)からdxの許容最小値[dx,min]と許容最大値[dx,max]を決定する処理について説明する。 Next, from the histogram (frequency distribution) of the value [dx] of the parallax offset (dx, dy) for the highly reliable feature point pair left by the application of the stereo filter shown in FIG. The process for determining x, min ] and the allowable maximum value [d x, max ] will be described.

dxの許容最小値[dx,min]と許容最大値[dx,max]は、予め設定した閾値[thout]、[thinf]に基づいて決定する。
閾値[thout]は、dxの許容最小値[dx,min]を決定する閾値であり、例えば、dxの最小値からスタートして出現頻度が1%に達する視差オフセット[dx=xl−xr]のポイントに設定する。
これは、出現頻度が1%以下のデータは誤り(outlier)である可能性が高いという前提に基づいている。
The allowable minimum value [d x, min ] and the allowable maximum value [d x, max ] of dx are determined based on preset threshold values [thout] and [thinf].
The threshold value [thout] is a threshold value that determines the allowable minimum value [d x, min ] of dx. For example, the parallax offset [dx = xl−xr] at which the appearance frequency reaches 1% starting from the minimum value of dx. Set to the point.
This is based on the assumption that data having an appearance frequency of 1% or less is likely to be an error.

一方、閾値[thin]は、dxの許容最大値[dx,max]を決定する閾値であり、例えば、dxの最小値からスタートして出現頻度が10%となるx方向の視差オフセット[dx=xl−xr]のポイントに設定する。
これは、想定される最大の遊離点(Outlier)出現頻度が10%であるという前提に基づいている。この遊離点には視差が0の無限遠点も含む。
撮影画像に含まれる画素の多くの部分は、2つのカメラ間の視差に比較して十分に遠い位置にある被写体(Object)の撮影画像であり、この場合これらの画素は無限遠点として仮定することができる。このような無限遠点の特徴点ペア(対応点)は、正しい視差データを算出する要素とはなり得ないデータであり、閾値[thin]は、これらのデータを排除する閾値である。
On the other hand, the threshold value [thin] is a threshold value that determines the allowable maximum value [d x, max ] of dx. For example, the parallax offset [dx in the x direction that starts from the minimum value of dx and has an appearance frequency of 10%. = Xl-xr].
This is based on the assumption that the maximum frequency of appearance of the assumed free point (Outlier) is 10%. This free point includes an infinite point where parallax is zero.
Many portions of the pixels included in the captured image are captured images of an object (Object) located far enough compared to the parallax between the two cameras. In this case, these pixels are assumed to be infinity points. be able to. Such a feature point pair (corresponding point) at an infinite point is data that cannot be an element for calculating correct parallax data, and the threshold [thin] is a threshold for excluding these data.

図12に示す視差オフセット(dx,dy)の値[dx]のヒストグラム(頻度分布)において示すdx,maxのポイントで、ヒストグラムの急激な立ち上がりが発生しているが、このような急激な立ち上がりは、無限遠点の被写体に対応するデータがカウントされていることを示している。このようなデータを排除するため、閾値[thin]に基づいて、dxの許容最大値[dx,max]を決定する。 A sharp rise of the histogram occurs at a point d x, max shown in the histogram (frequency distribution) of the value [dx] of the parallax offset (dx, dy) shown in FIG. Indicates that data corresponding to a subject at infinity is counted. In order to eliminate such data, an allowable maximum value [d x, max ] of dx is determined based on the threshold value [thin].

以上の処理により、図7に示すフローのステップS304において、視差オフセット・ヒストグラムに基づいて、新たな視差拘束(Disparity conxtraint)の設定、すなわち、
視差オフセット(dx,dy)の各値[dx]、[dy]について、
dx:許容最小値[dx,min]と許容最大値[dx,max
dy:最適値[dy,best
これらの値が決定される。
Through the above processing, in step S304 of the flow shown in FIG. 7, the setting of a new disparity constraint (Disparity constraint) based on the disparity offset histogram, that is,
For each value [dx], [dy] of the parallax offset (dx, dy),
dx: Allowable minimum value [d x, min ] and allowable maximum value [d x, max ]
dy: optimal value [dy , best ]
These values are determined.

これらの処理により、図2に示すフローのステップS104の処理、すなわち、視差オフセット算出のための第1段階処理として行われる視差拘束(Disparity constraint)の算出処理が終了し、その後、ステップS105において、ステップS104で算出した視差拘束(Disparity constraint)を適用して、視差オフセットの算出処理を実行する。この処理は、図1に示す視差オフセット算出部104において実行される。   With these processes, the process of step S104 in the flow shown in FIG. 2, that is, the process of calculating the disparity constraint performed as the first stage process for calculating the parallax offset is completed, and then, in step S105, The parallax offset calculation process is executed by applying the disparity constraint calculated in step S104. This process is executed in the parallax offset calculation unit 104 shown in FIG.

ステップS105の視差オフセットの算出処理の詳細シーケンスについて、図13に示すフローチャートを参照して説明する。   A detailed sequence of the parallax offset calculation processing in step S105 will be described with reference to the flowchart shown in FIG.

まず、ステップS351において、図7の処理フローの結果として設定したx方向の視差オフセットdxの許容最小値[dx,min]と許容最大値[dx,max]間から、視差オフセット[dx]を選択する。図13に示すフローでは、x方向の視差オフセットdxの許容最小値[dx,min]と許容最大値[dx,max]間で、例えば等間隔に一定数(n個)の視差オフセット値dx1〜dxnを選択し、ステップS351〜353を実行する。 First, in step S351, the parallax offset [dx] between the allowable minimum value [d x, min ] and the allowable maximum value [d x, max ] of the parallax offset dx in the x direction set as a result of the processing flow of FIG. Select. In the flow illustrated in FIG. 13, for example, a fixed number (n) of parallax offset values at equal intervals between the allowable minimum value [d x, min ] and the allowable maximum value [d x, max ] of the parallax offset dx in the x direction. dx1 to dxn are selected, and Steps S351 to S353 are executed.

ステップS352では、ステップS351で選択した特徴点ペアのx方向の視差オフセット[dx]を適用した場合のエラーおよび遊離データ(Outlier)の発生状況を検証する。この処理の詳細シーケンスについて、図14のフローを参照して説明する。   In step S352, the occurrence state of error and free data (Outlier) when the parallax offset [dx] in the x direction of the feature point pair selected in step S351 is applied is verified. A detailed sequence of this process will be described with reference to the flow of FIG.

まず、ステップS381において、ステレオフィルタを適用し、視差拘束等を満足しない特徴点ペアを削除する。この処理は、先に説明した図7のフローのステップS302において適用したステレオフィルタと同様のフィルタリング処理であり、
(a)エピポーラ拘束(Epipolar constraint)
y,min−δ<y−y<dy,max+δ
δは、予め設定されたエピポーララインの設定誤差である。
(b)視差拘束(Disparity constraint)
x,min<x−x
(c)固有対応拘束(Unique match constraint)
上記(a),(b)の両者を満足する複数のペア(1対多)がある場合、これらのペアは、あいまい性が高い特徴点ペアであると判定して排除、
これらの少なくともいずれかの判定処理を実行して、各拘束条件を満足するもののみを残存させる処理である。
First, in step S381, a stereo filter is applied to delete feature point pairs that do not satisfy the parallax constraint or the like. This process is the same filtering process as the stereo filter applied in step S302 of the flow of FIG.
(A) Epipolar constraint
d y, min -δ y <y l -y r <d y, max + δ y,
δ y is a preset epipolar line setting error.
(B) Disparity constraint
d x, min <x 1 −x r ,
(C) Unique match constraint
When there are a plurality of pairs (one-to-many) satisfying both of the above (a) and (b), these pairs are determined to be feature points pairs with high ambiguity, and are excluded.
This is a process in which at least one of these determination processes is executed and only those satisfying each constraint condition remain.

ただし、このステップS352の処理では、
判定条件に適用する視差オフセット(dx,dy)のdyについての最小許容値と最大許容値:d'y,min,d'y,maxを、図2のステップS104の処理で算出したdy:最適値[dy,best]とする。すなわち、
d'y,min=d'y,min=dy,best
とする。
また、判定条件に適用する視差オフセット(dx,dy)のdxについての最小許容値と最大許容値:d'x,min,d'x,maxについては、
最大許容値d'x,maxは、図2のステップS104の処理で算出した最大値[dx,max]として、一方、最小許容値d'x,minは、図13のフローのステップS351で選択したdxとする。すなわち、
d'x,min=dx
とする。
However, in the process of step S352,
The minimum allowable value and the maximum allowable value for dy of the parallax offset (dx, dy) applied to the determination condition: d ′ y, min , d ′ y, max calculated in the process of step S104 in FIG. 2 dy: optimal Let it be the value [d y, best ]. That is,
d' y, min = d' y, min = dy, best
And
Further, regarding the minimum allowable value and the maximum allowable value for dx of the parallax offset (dx, dy) applied to the determination condition: d ′ x, min , d ′ x, max ,
The maximum permissible value d ′ x, max is the maximum value [d x, max ] calculated in the process of step S104 of FIG. 2, while the minimum permissible value d ′ x, min is determined in step S351 of the flow of FIG. The selected dx. That is,
d ′ x, min = dx
And

この条件で、
(入力)
(1)特徴点ペア:(f,f)=(x,y),(x,y)、
(2)視差オフセット(dx,dy)のdx,dy各々についての最小許容値:d'x,min,d'y,minと、最大許容値:d'x,max,d'y,max
(判定処理)
(f,f)=(x,y),(x,y
が、
(a)エピポーラ拘束(Epipolar constraint)
y,min−δ<y−y<dy,max+δ
なお、δは、予め設定されたエピポーララインの設定誤差である。
(b)視差拘束(Disparity constraint)
x,min<x−x
(c)固有対応拘束(Unique match constraint)
上記(a),(b)の両者を満足する複数のペア(1対多)がある場合、これらのペアは、あいまい性が高い特徴点ペアであると判定して排除、
(出力)
上記(a)〜(c)の拘束条件を全て満足する特徴点ペアのみを選択して出力する。
これらのステレオフィルタリング処理を実行する。
Under this condition,
(input)
(1) Feature point pairs: (f 1 , f r ) = (x 1 , y 1 ), (x r , y r ),
(2) Minimum allowable values for each of dx and dy of the parallax offset (dx, dy): d ′ x, min , d ′ y, min , and maximum allowable values: d ′ x, max , d ′ y, max ,
(Determination process)
(F 1 , f r ) = (x 1 , y 1 ), (x r , y r )
But,
(A) Epipolar constraint
d y, min -δ y <y l -y r <d y, max + δ y,
Here, δ y is a preset epipolar line setting error.
(B) Disparity constraint
d x, min <x 1 −x r ,
(C) Unique match constraint
When there are a plurality of pairs (one-to-many) satisfying both of the above (a) and (b), these pairs are determined to be feature points pairs with high ambiguity, and are excluded.
(output)
Only feature point pairs that satisfy all of the constraint conditions (a) to (c) are selected and output.
These stereo filtering processes are executed.

ここで選択された特徴点ペアのみを対象として、次のステップS382の処理を実行する。ステップS382では、処理対象とする検証画像とモデル画像データとの照合処理を実行し、検証画像に含まれる特徴点ペアからエラーおよび遊離(Outlier)データ数を検証することである。モデル画像とは、信頼度の高い特徴点ペア情報を有するステレオ画像であり、例えば検証対象画像の1フレーム前のステレオ画像があげられる。
ステップS382の処理について図15を参照して説明する。
The process of the next step S382 is executed only for the feature point pair selected here. In step S382, verification processing of the verification image to be processed and model image data is executed to verify the number of errors and free data from feature point pairs included in the verification image. The model image is a stereo image having highly reliable feature point pair information, and includes, for example, a stereo image one frame before the verification target image.
The process of step S382 will be described with reference to FIG.

図15(B)は、検証対象画像とする第1カメラ画像(L)と、第2カメラ画像(R)を示している。これらの画像中に示す黒の矩形枠は、ステップS381のステレオフィルタリング処理において選択された信頼度の高い特徴点ペアである。   FIG. 15B shows a first camera image (L) and a second camera image (R) as verification target images. The black rectangular frames shown in these images are feature point pairs with high reliability selected in the stereo filtering process of step S381.

図15(A)は、モデル画像であり、例えば検証対象画像の1フレーム前の先行画像が利用される。このモデル画像にも、検証画像と同様、第1カメラ画像(L)と、第2カメラ画像(R)の画像中にステレオフィルタリング処理において選択された信頼度の高い特徴点ペアを示している。   FIG. 15A shows a model image. For example, a preceding image one frame before the verification target image is used. This model image also shows highly reliable feature point pairs selected in the stereo filtering process in the images of the first camera image (L) and the second camera image (R), as in the verification image.

ステップS382の処理の手順を述べる。まず、検証画像とモデル画像データとの照合処理により、両者に含まれない特徴点ペアを削除する。例えば検証対象画像とする第1カメラ画像(L)と、モデル画像の第1カメラ画像(L)を比較して、両者に共通に含まれない特徴点ペアのデータを検証画像から削除する。   The procedure of the process in step S382 will be described. First, feature point pairs that are not included in the verification image and the model image data are deleted. For example, the first camera image (L) as the verification target image is compared with the first camera image (L) of the model image, and feature point pair data not included in both is deleted from the verification image.

次に、検証対象画像とモデル画像両者に含まれる特徴点ペア情報を用いて、検証対象画像の特徴点ペアに含まれるエラーおよび遊離(Outlier)データ数を検証する。この処理について説明する。   Next, using the feature point pair information included in both the verification target image and the model image, the number of errors and free data included in the feature point pair of the verification target image is verified. This process will be described.

モデル画像および検証画像のどちらか一方の画像、例えば第1カメラ画像(L)を用いて処理を行う。
モデル画像の第1カメラ画像(L)の特徴点の3次元位置の集合データを、
P={p1,p2,・・・pn}
検証画像の第1カメラ画像(L)の特徴点の3次元位置の集合データ集合を、
Q={q1,q2,・・・qn}
とする。p1〜pnとq1〜qnはそれぞれ3次元データにおける位置情報を有する。
Processing is performed using one of the model image and the verification image, for example, the first camera image (L).
The set data of the three-dimensional positions of the feature points of the first camera image (L) of the model image is
P = {p1, p2,... Pn}
A set data set of three-dimensional positions of feature points of the first camera image (L) of the verification image,
Q = {q1, q2,... Qn}
And Each of p1 to pn and q1 to qn has position information in three-dimensional data.

また、第1カメラ画像(L)を撮影したカメラのモデル画像と検証画像の撮影時における位置姿勢変化を、
ξ=(R,T)
とする。
ただし、Rはカメラの姿勢変化情報であり、x,y,z軸に対応するオイラー角、
R=rot(α,z)・rot(β,y)・rot(γ,x)
である。
また、Tは、カメラの3次元位置変化である並進ベクトルを示し、
T=(tx,ty,yz)
である。
In addition, the position and orientation change at the time of shooting the model image and verification image of the camera that shot the first camera image (L),
ξ = (R, T)
And
Where R is camera posture change information, Euler angles corresponding to the x, y and z axes,
R = rot (α, z) · rot (β, y) · rot (γ, x)
It is.
T represents a translation vector that is a three-dimensional position change of the camera,
T = (tx, ty, yz)
It is.

ここで、モデル画像の第1カメラ画像(L)の特徴点集合、
P={p1,p2,・・・pn}
検証画像の第1カメラ画像(L)の特徴点集合を、
Q={q1,q2,・・・qn}
これらのデータを適用して、ユークリッド距離(Euclid distance)、
を算出する。
Here, the feature point set of the first camera image (L) of the model image,
P = {p1, p2,... Pn}
The feature point set of the first camera image (L) of the verification image is
Q = {q1, q2,... Qn}
Applying these data, Euclidean distance (Euclidean distance),
Is calculated.

モデル画像と検証画像から抽出した特徴点集合[P]、[Q]に正しくないデータ、例えば遊離点やエラーが含まれる場合、上記のユークリッド距離は大きな値となり、遊離点やエラーが少ない場合には小さな値が算出される。   When the feature point sets [P] and [Q] extracted from the model image and the verification image include incorrect data, for example, free points and errors, the Euclidean distance becomes a large value, and there are few free points and errors. A small value is calculated.

なお、カメラの位置姿勢変化を、
ξ=(R,T)
としているが、カメラの姿勢変化[R]が小さい場合は、
x,y,z軸に対する回転角:α,β,γ≒0と仮定することが可能であり、この場合、
cos(α)≒1、
sin(α)≒α、
sin(α)sin(β)≒0
と近似することができる。以上の近似式を用いることで、カメラの姿勢変化[R]は以下のように近似することができる。
In addition, change of camera position and orientation
ξ = (R, T)
However, if the camera posture change [R] is small,
It is possible to assume that the rotation angles with respect to the x, y and z axes: α, β, γ≈0,
cos (α) ≈1,
sin (α) ≈α,
sin (α) sin (β) ≈0
And can be approximated. By using the above approximate expression, the camera posture change [R] can be approximated as follows.

ここでの処理は、検証対象画像の特徴点ペアに含まれるエラーデータまたは遊離点(Outlier)データの数を検出することが目的である。まず、証対象画像の特徴点ペアに含まれる遊離点(Outlier)の数は、以下のようにして求める。   The purpose of the processing here is to detect the number of error data or free point (Outlier) data included in the feature point pair of the verification target image. First, the number of free points (Outlier) included in the feature point pair of the test subject image is obtained as follows.

モデル画像の第1カメラ画像(L)の特徴点集合、
P={p1,p2,・・・pn}
検証画像の第1カメラ画像(L)の特徴点集合を、
Q={q1,q2,・・・qn}
これらの検証対象画像の特徴点と、モデル画像における対応する特徴点データを利用してハフ変換(Hough transformation)を適用したヒストグラムフィルタリングにより、証対象画像の特徴点ペアに含まれる遊離点(Outlier)を検出する。
A set of feature points of the first camera image (L) of the model image;
P = {p1, p2,... Pn}
The feature point set of the first camera image (L) of the verification image is
Q = {q1, q2,... Qn}
The free points (Outliers) included in the feature point pairs of the test target image are obtained by histogram filtering using the Hough transform using the feature points of the verification target image and the corresponding feature point data in the model image. Is detected.

ハフ空間(Hough space)はカメラの位置姿勢変化を定義するξ=(R,T)を構成する6次元(α,β,γ,tx,ty,tz)である。
モデル画像の第1カメラ画像(L)の特徴点集合、
P={p1,p2,・・・pn}
検証画像の第1カメラ画像(L)の特徴点集合を、
Q={q1,q2,・・・qn}
これらの対応する特徴点のペアの各々の組のデータによって、ハフドメインにおける4次元カーブが定義され、この4次元カーブを適用して上述のカメラの位置姿勢変化を定義するξ=(R,T)を構成する6次元データ(α,β,γ,tx,ty,tz)を求めることができる。
The Hough space is six dimensions (α, β, γ, tx, ty, tz) constituting ξ = (R, T) that defines the position and orientation change of the camera.
A set of feature points of the first camera image (L) of the model image;
P = {p1, p2,... Pn}
The feature point set of the first camera image (L) of the verification image is
Q = {q1, q2,... Qn}
A four-dimensional curve in the Hough domain is defined by the data of each pair of these corresponding feature point pairs, and the above-described camera position and orientation change is defined by applying this four-dimensional curve ξ = (R, T 6-dimensional data (α, β, γ, tx, ty, tz) that constitutes) can be obtained.

ここでは、β=0,γ=0,tz=0として、3次元のハフ空間(α,tx,ty)とした実験データ例について、図16、図17を参照して説明する。   Here, an example of experimental data in which β = 0, γ = 0, tz = 0 and a three-dimensional Hough space (α, tx, ty) will be described with reference to FIGS. 16 and 17.

図16は、第1カメラ(L)のモデル画像の特徴点集合[P]と、検証画像の特徴点集合[Q]の対応点によって生成した、回転角[α]のヒストグラムの例であり、図17は、並進ベクトル[tx,ty][tx,ty]のヒストグラムの例を示す図である。   FIG. 16 is an example of a histogram of the rotation angle [α] generated by the corresponding points of the feature point set [P] of the model image of the first camera (L) and the feature point set [Q] of the verification image. FIG. 17 is a diagram illustrating an example of a histogram of translation vectors [tx, ty] [tx, ty].

図16(a)は、第1カメラ(L)のモデル画像であり、特徴点集合:P={p1,p2,・・・pn}が含まれる画像である。図16(b)は、第1カメラ(L)の検証画像であり、特徴点集合:Q={q1,q2,・・・qn}が含まれる画像である。   FIG. 16A is a model image of the first camera (L), and is an image including a feature point set: P = {p1, p2,... Pn}. FIG. 16B is a verification image of the first camera (L), which is an image including a feature point set: Q = {q1, q2,... Qn}.

図16(c)は、図16(a)のモデル画像と、図16(b)の検証画像のそれぞれの対応特徴点(p1,q1)〜(pn,qn)に基づいて算出されるn個の回転角(α)データの度数分布としてのヒストグラムである。このヒストグラムにおいて、ピーク位置を中心とした予め設定した閾値以内の領域をサポート領域(Support region)とし、このサポート領域に含まれる回転角(α)を算出した特徴点を正しい特徴点とし、このサポート領域以外の回転角を算出した特徴点を遊離点(outlier)とする。   FIG. 16C shows n pieces calculated based on the corresponding feature points (p1, q1) to (pn, qn) of the model image of FIG. 16A and the verification image of FIG. Is a histogram as a frequency distribution of rotation angle (α) data. In this histogram, an area within a preset threshold centered on the peak position is defined as a support area, and a feature point obtained by calculating a rotation angle (α) included in the support area is defined as a correct feature point. A feature point for which a rotation angle other than the region is calculated is defined as a free point (outlier).

図17は、並進ベクトル[tx,ty]のヒストグラムの例を示す図である。図17(a)は、第1カメラ(L)のモデル画像であり、特徴点集合:P={p1,p2,・・・pn}が含まれる画像である。図17(b)は、第1カメラ(L)の検証画像であり、特徴点集合:Q={q1,q2,・・・qn}が含まれる画像である。   FIG. 17 is a diagram illustrating an example of a histogram of the translation vector [tx, ty]. FIG. 17A is a model image of the first camera (L), and is an image including a feature point set: P = {p1, p2,... Pn}. FIG. 17B is a verification image of the first camera (L), and is an image including a feature point set: Q = {q1, q2,... Qn}.

図17(c)は、図17(a)のモデル画像と、図17(b)の検証画像のそれぞれの対応特徴点(p1,q1)〜(pn,qn)に基づいて算出されるn個の並進ベクトル[tx,ty]データの度数分布としてのヒストグラムである。このヒストグラムにおいて、ピーク位置を中心とした予め設定した閾値以内の領域をサポート領域(Support region)とし、このサポート領域に含まれる並進ベクトル[tx,ty]を算出した特徴点を正しい特徴点とし、このサポート領域以外の並進ベクトル[tx,ty]を算出した特徴点を遊離点(outlier)とする。   FIG. 17 (c) shows n pieces calculated based on the corresponding feature points (p1, q1) to (pn, qn) of the model image of FIG. 17 (a) and the verification image of FIG. 17 (b). Is a histogram as a frequency distribution of the translation vector [tx, ty] data. In this histogram, a region within a preset threshold centered on the peak position is defined as a support region, and a feature point obtained by calculating a translation vector [tx, ty] included in the support region is defined as a correct feature point. The feature point for which the translation vector [tx, ty] other than the support region is calculated is set as a free point (outlier).

このようにして、検証画像に含まれる特徴点[Q={q1,q2,・・・qn}]から、遊離点(outlier)を判別してその数をカウントする。このカウント数が遊離点数とされる。   In this manner, free points (outliers) are discriminated from the feature points [Q = {q1, q2,... Qn}] included in the verification image, and the number thereof is counted. This count number is the number of free points.

また、検証対象画像の特徴点ペアに含まれるエラーデータの数の算出には、前述のユークリッド距離(Euclid distance)の算出式を用いる。
モデル画像の第1カメラ画像(L)の特徴点集合、
P={p1,p2,・・・pn}
検証画像の第1カメラ画像(L)の特徴点集合を、
Q={q1,q2,・・・qn}
これらのデータを適用して、ユークリッド距離(Euclid distance)、
を算出する。
Further, the calculation formula for the Euclidean distance is used to calculate the number of error data included in the feature point pair of the verification target image.
A set of feature points of the first camera image (L) of the model image;
P = {p1, p2,... Pn}
The feature point set of the first camera image (L) of the verification image is
Q = {q1, q2,... Qn}
Applying these data, Euclidean distance (Euclidean distance),
Is calculated.

前述したように、モデル画像と検証画像から抽出した特徴点集合[P]、[Q]に正しくないデータ、例えば遊離点やエラーが含まれる場合、上記のユークリッド距離は大きな値となり、遊離点やエラーが少ない場合には小さな値が算出される。そこで、エラー指標値を上記式の算出値とする。   As described above, when the feature point sets [P] and [Q] extracted from the model image and the verification image include incorrect data, for example, free points and errors, the Euclidean distance becomes a large value, and free points and When there are few errors, a small value is calculated. Therefore, the error index value is the calculated value of the above formula.

この処理によって、図14に示すフローチャートのステップS382の処理が終了する。ステップS383では、ステップS382において求めた特徴点のエラー指標値および遊離点(Outlier)データ数を、図13に示すフローのステップS351で選択したx方向の視差オフセット[dx]に対応するエラー指標値および遊離点(Outlier)データ数として設定する。   With this process, the process of step S382 in the flowchart shown in FIG. In step S383, the error index value of the feature point obtained in step S382 and the number of free point (Outlier) data are the error index values corresponding to the parallax offset [dx] in the x direction selected in step S351 of the flow shown in FIG. And set as the number of free point (Outlier) data.

この処理の後、図13のフローのステップS353に進み、ステップS352において算出したエラー指標値および遊離点(Outlier)のカウント数を、図13に示すフローのステップS351で選択したx方向の視差オフセット[dx]に対応するエラー指標値および遊離点(Outlier)数として記録する。   After this processing, the process proceeds to step S353 in the flow of FIG. 13, and the error index value calculated in step S352 and the number of free points (Outlier) are set to the parallax offset in the x direction selected in step S351 of the flow shown in FIG. An error index value corresponding to [dx] and the number of free points (Outlier) are recorded.

次に、ステップS354に進み、未処理の[dx]データの有無を判定する。先にステップS351の処理の説明において説明したように、ステップS351〜S353の処理は、図7の処理フローの結果として設定したx方向の視差オフセットdxの許容最小値[dx,min]と許容最大値[dx,max]間から、例えば等間隔に一定数(n個)の視差オフセット値dx1〜dxnを検証対象データとして設定して、繰り返し実行する。 Next, the process proceeds to step S354, and it is determined whether there is unprocessed [dx] data. As described above in the description of the processing in step S351, the processing in steps S351 to S353 is performed with the allowable minimum value [d x, min ] of the parallax offset dx in the x direction set as a result of the processing flow in FIG. A predetermined number (n) of parallax offset values dx1 to dxn are set as verification target data, for example, at regular intervals from the maximum value [d x, max ], and are repeatedly executed.

ステップS354では、全ての検証対象データdx1〜dxnについての検証が終了したか否かを判定する。終了していない場合は、未処理データについて、ステップS351〜S353の処理を実行する。すべての検証対象データについてステップS351〜S354の処理が終了すると、ステップS355に進む。   In step S354, it is determined whether or not the verification for all the verification target data dx1 to dxn has been completed. If not completed, the processes of steps S351 to S353 are executed for the unprocessed data. When the processes in steps S351 to S354 are completed for all the verification target data, the process proceeds to step S355.

ステップS355では、エラー、遊離データ(Outlier)数が最小となる視差オフセット[dx]を、最適視差オフセット[dx,best]として決定する。ステップS354の判定がYesとなる段階において、全ての検証対象データdx1〜dxnに対応するエラー指標値および遊離点(Outlier)の数が算出されている。すなわち、例えば、
dx1:エラー指標値=Xa、遊離データ(Outlier)数=Ya個
dx2:エラー指標値=Xb、遊離データ(Outlier)数=Yb個
dx3:エラー指標値=Xc、遊離データ(Outlier)数=Yc個

dxn:エラー指標値=Xp、遊離データ(Outlier)数=Yp個
これらのデータが算出済みである。
In step S355, the parallax offset [dx] that minimizes the number of errors and free data (Outlier) is determined as the optimum parallax offset [dx, best]. At the stage where the determination in step S354 is Yes, the error index values and the number of free points (Outliers) corresponding to all the verification target data dx1 to dxn are calculated. That is, for example,
dx1: Error index value = Xa, number of free data (Outlier) = Ya dx2: error index value = Xb, number of free data (Outlier) = Yb dx3: error index value = Xc, number of free data (Outlier) = Yc Pieces
:
dxn: Error index value = Xp, number of free data (Outlier) = Yp These data have been calculated.

ステップS355では、これらの算出データから、エラー、遊離データ(Outlier)数が最小となる視差オフセット[dx]を、最適視差オフセット[dx,best]として決定する。この処理によって、ステップS355の処理が終了し、最適視差オフセット[dx,best]が決定される。   In step S355, the parallax offset [dx] that minimizes the number of errors and free data (Outlier) is determined as the optimum parallax offset [dx, best] from these calculated data. With this process, the process of step S355 ends, and the optimum parallax offset [dx, best] is determined.

この処理によって、図2に示すフローのステップS105の処理が終了する。この結果、視差オフセット(dx,dy)のx方向、y方向の最適値[dx,best],[dy,best]が算出されたことになる。   By this process, the process of step S105 of the flow shown in FIG. As a result, the optimum values [dx, best] and [dy, best] of the parallax offset (dx, dy) in the x and y directions are calculated.

ステップS106では、この視差オフセットの最適値[dx,best],[dy,best]を図1に示す2つのカメラ101a,101bの視差オフセットであるとして、カメラキャリブレーションおよび3次元マップ生成処理を実行する。   In step S106, the optimal values [dx, best], [dy, best] of the parallax offset are assumed to be the parallax offsets of the two cameras 101a and 101b shown in FIG. To do.

先に、図6を参照して説明したように、異なる位置にほぼ平行に設置された2つのカメラによって撮影された画像を用いて視差オフセットを算出することができれば、カメラキャリブレーションが可能となり、3次元マップの生成が可能となる。すなわち、先に図6を参照して説明したように、視差オフセットは、2つの平行化画像の対応画素各々について算出され、対応画素各々のx方向のずれ(dx)とy方向のずれ(dy)との組データ(dx,dy)として表すことができるデータであり、視差オフセット(dx,dy)は、
第1画像の平面間変換行列:H=(tx1,ty1
第2画像の平面間変換行列:H=(tx2,ty2
第1画像の画像中心:(ex1,ey1
第2画像の画像中心:(ex2,ey2
と近似したとき、
視差オフセット(dx,dy)=(ex1+tx1−ex2−tx2,ey1+ty1−ey2−ty2
として表現できる。
As described above with reference to FIG. 6, if the parallax offset can be calculated using images taken by two cameras installed almost in parallel at different positions, camera calibration becomes possible. A three-dimensional map can be generated. That is, as described above with reference to FIG. 6, the parallax offset is calculated for each of the corresponding pixels of the two parallelized images, and the shift in the x direction (dx) and the shift in the y direction (dy ) And data that can be expressed as pair data (dx, dy), and the parallax offset (dx, dy) is
Interplane transformation matrix of the first image: H 1 = (t x1 , t y1 )
Interplane transformation matrix of the second image: H 2 = (t x2 , t y2 )
Image center of first image: (e x1 , e y1 )
Image center of second image: (e x2 , e y2 )
And approximating
Parallax offset (dx, dy) = (e x1 + t x1 -e x2 -t x2, e y1 + t y1 -e y2 -t y2)
Can be expressed as

この視差オフセット(dx,dy)を算出できれば、例えば、第1画像の画像中心:(ex1,ey1)このデータを利用してカメラキャリブレーションが可能となる。すなわち、例えば一方のカメラ(第1カメラ)を固定して、第1画像の画像中心:(ex1,ey1)を平行化画像の中心(イメージ中心(Image Center))に設定(0,0)するような構成とすれば、他方のカメラ(第2カメラ)について、
(a)内部パラメータ
画像中心(principal point)
(b)外部パラメータ
カメラ位置姿勢(homographies)
これらのパラメータが未知である場合でも、第1カメラの撮影画像に基づく平行化画像である第1画像の画像中心データ:(ex1,ey1)を利用して、各カメラの撮影画像における対応点(特徴点ペア)について、視差オフセットを算出することが可能となり、カメラキャリブレーションが可能となる。
If this parallax offset (dx, dy) can be calculated, for example, the image center of the first image: (e x1 , e y1 ) Camera calibration can be performed using this data. That is, for example, one camera (first camera) is fixed, and the image center of the first image: (e x1 , e y1 ) is set to the center of the parallelized image (image center (Image Center)) (0, 0). ), The other camera (second camera)
(A) Internal parameters Image point (principal point)
(B) External parameters Camera position and orientation (homography)
Even when these parameters are unknown, the correspondence between the captured images of the respective cameras is obtained using the image center data of the first image that is a parallelized image based on the captured image of the first camera: (e x1 , e y1 ). With respect to points (feature point pairs), parallax offsets can be calculated, and camera calibration can be performed.

本発明の構成では、図2に示すフローのステップS104において算出したy方向の視差オフセット最適値[dy,best]と、ステップS105において算出したx方向の視差オフセット最適値[dx,best]を適用してカメラキャリブレーションを実行し、3次元マップを生成する。   In the configuration of the present invention, the parallax offset optimum value [dy, best] in the y direction calculated in step S104 of the flow shown in FIG. 2 and the parallax offset optimum value [dx, best] in x direction calculated in step S105 are applied. Then, camera calibration is executed to generate a three-dimensional map.

上述した処理によれば、一方のカメラについてのパラメータの一部が不明である場合にも、各カメラの撮影画像に基づいて最適な視差オフセット(dx,dy)を算出することが可能となり、3次元マップを生成することができる。   According to the above-described processing, it is possible to calculate the optimum parallax offset (dx, dy) based on the captured image of each camera even when some of the parameters for one camera are unknown. A dimensional map can be generated.

以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。   The present invention has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the gist of the present invention. In other words, the present invention has been disclosed in the form of exemplification, and should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims should be taken into consideration.

また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。   The series of processing described in the specification can be executed by hardware, software, or a combined configuration of both. When executing processing by software, the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run. For example, the program can be recorded in advance on a recording medium. In addition to being installed on a computer from a recording medium, the program can be received via a network such as a LAN (Local Area Network) or the Internet, and installed on a recording medium such as a built-in hard disk.

なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Note that the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary. Further, in this specification, the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.

以上、説明したように、本発明の一実施例の構成によれば、異なる位置にほぼ平行に設置された2つのカメラによって撮影された画像を入力し、撮影画像に基づく視差オフセットの算出を実行する構成において、2つのカメラの撮影画像からペアを検出し、特徴点ペアの解析により2つのカメラの撮影画像における視差オフセットを算出する。視差オフセット算出処理においては、特徴点ペアのフィルタリングにより信頼度の高いと判断される特徴点ペアを選択し、選択した特徴点ペアに対応する視差オフセットデータの発生頻度分布情報としてのヒストグラムを生成し、生成したヒストグラムを利用して視差オフセットの許容値の拘束条件を規定し、規定した拘束条件に基づいて視差オフセットの最適値を算出する。本構成によれば、一方のカメラについてのパラメータの一部が不明である場合にも、各カメラの撮影画像に基づいて最適な視差オフセット(dx,dy)を算出可能となり、全てのパラメータが既知であるカメラを用いなくても3次元マップを生成することができる。   As described above, according to the configuration of an embodiment of the present invention, images taken by two cameras installed substantially in parallel at different positions are input and a parallax offset is calculated based on the taken images. In this configuration, a pair is detected from the images captured by the two cameras, and a parallax offset between the images captured by the two cameras is calculated by analyzing the feature point pair. In the parallax offset calculation process, a feature point pair that is determined to have high reliability by filtering the feature point pair is selected, and a histogram is generated as occurrence frequency distribution information of the parallax offset data corresponding to the selected feature point pair. Then, a constraint condition for the allowable value of the parallax offset is defined using the generated histogram, and an optimum value of the parallax offset is calculated based on the defined constraint condition. According to this configuration, even when some of the parameters for one camera are unknown, the optimum parallax offset (dx, dy) can be calculated based on the captured image of each camera, and all parameters are known. A three-dimensional map can be generated without using a camera.

本発明の一実施例の情報処理装置構成例を示す図である。It is a figure which shows the information processing apparatus structural example of one Example of this invention. 本発明の情報処理装置において実行する処理シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the process sequence performed in the information processing apparatus of this invention. ハリスコーナー(Harris Corner)イメージを用いた特徴点抽出処理例について説明する図である。It is a figure explaining the example of a feature point extraction process using a Harris corner (Harris Corner) image. 特徴点マッチング処理のシーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the sequence of a feature point matching process. 視差オフセットについて説明する図である。It is a figure explaining parallax offset. 視差オフセットについて説明する図である。It is a figure explaining parallax offset. 視差拘束(Disparity constraint)の算出処理の詳細シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the detailed sequence of the calculation process of a parallax constraint (Disparity constraint). ステレオフィルタを適用したるフィルタリング処理の具体的な処理例について説明する図である。It is a figure explaining the specific process example of the filtering process to which a stereo filter is applied. ステレオフィルタを適用したるフィルタリング処理の具体的な処理例について説明する図である。It is a figure explaining the specific process example of the filtering process to which a stereo filter is applied. ステレオフィルタを適用したるフィルタリング処理の具体的な処理例について説明する図である。It is a figure explaining the specific process example of the filtering process to which a stereo filter is applied. ステレオフィルタの適用によって残された信頼性の高い特徴点ペアについての視差オフセット(dx,dy)の値[dy]のヒストグラム(頻度分布)を示す図である。It is a figure which shows the histogram (frequency distribution) of the value [dy] of parallax offset (dx, dy) about the reliable feature point pair left by application of a stereo filter. ステレオフィルタの適用によって残された信頼性の高い特徴点ペアについての視差オフセット(dx,dy)の値[dx]のヒストグラム(頻度分布)を示す図である。It is a figure which shows the histogram (frequency distribution) of the value [dx] of parallax offset (dx, dy) about the reliable feature point pair left by application of a stereo filter. 視差オフセットの算出処理の詳細シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the detailed sequence of the calculation process of parallax offset. 特徴点ペアのx方向の視差オフセット[dx]を適用した場合のエラーおよび遊離データ(Outlier)の発生状況を検証する処理シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the process sequence which verifies the generation | occurrence | production condition of the error and free data (Outlier) at the time of applying the parallax offset [dx] of the x direction of a feature point pair. 検証画像に含まれる特徴点ペアからエラーおよび遊離データ(Outlier)と判断されるデータ数をカウントする処理について説明する図である。It is a figure explaining the process which counts the data number judged to be an error and free data (Outlier) from the feature point pair contained in a verification image. 第1カメラ(L)のモデル画像の特徴点集合[P]と、検証画像の特徴点集合[Q]の対応点によって生成した回転角[α]のヒストグラムの例を示す図である。It is a figure which shows the example of the histogram of rotation angle [(alpha)] produced | generated by the feature point set [P] of the model image of a 1st camera (L), and the feature point set [Q] of a verification image. 第1カメラ(L)のモデル画像の特徴点集合[P]と、検証画像の特徴点集合[Q]の対応点によって生成した、並進ベクトル[tx,ty][tx,ty]のヒストグラムの例を示す図である。Example of translation vector [tx, ty] [tx, ty] generated by corresponding points of feature point set [P] of model image of first camera (L) and feature point set [Q] of verification image FIG.

符号の説明Explanation of symbols

101 カメラ
102 特徴点抽出部
103 特徴点マッチング処理部
104 視差オフセット算出部
105 キャリブレーション&3Dマップ生成部
200 画像
210〜212 ハリスコーナーイメージ
220〜222 ラプラシアンイメージ
DESCRIPTION OF SYMBOLS 101 Camera 102 Feature point extraction part 103 Feature point matching process part 104 Parallax offset calculation part 105 Calibration & 3D map generation part 200 Image 210-212 Harris corner image 220-222 Laplacian image

Claims (15)

異なる位置にほぼ平行に設置された2つのカメラによって撮影された画像を入力し、撮影画像に基づく視差オフセットの算出を実行する情報処理装置であり、
前記2つのカメラの撮影画像に含まれる特徴点を抽出する特徴点抽出部と、
前記2つのカメラの撮影画像から抽出された特徴点の比較処理により、類似する特徴点の組み合わせからなる特徴点ペアを検出する特徴点マッチング処理部と、
前記特徴点ペアの解析により、前記2つのカメラの撮影画像における視差オフセットを算出する視差オフセット算出部を有し、
前記視差オフセット算出部は、
前記特徴点ペアのフィルタリングにより信頼度の高いと判断される特徴点ペアを選択し、選択特徴点ペアに対応する視差オフセットデータの発生頻度分布情報としてのヒストグラムを生成し、生成したヒストグラムを利用して視差オフセットの許容値の拘束条件を設定し、設定した拘束条件に基づいて視差オフセットの最適値を算出する構成であることを特徴とする情報処理装置。
An information processing apparatus that inputs images captured by two cameras installed substantially in parallel at different positions, and calculates a parallax offset based on the captured images.
A feature point extraction unit for extracting feature points included in the captured images of the two cameras;
A feature point matching processing unit that detects a feature point pair composed of a combination of similar feature points by comparison processing of feature points extracted from the captured images of the two cameras;
A parallax offset calculating unit that calculates a parallax offset in the captured images of the two cameras by analyzing the feature point pair;
The parallax offset calculation unit includes:
A feature point pair determined to have high reliability by filtering the feature point pair is selected, a histogram is generated as occurrence frequency distribution information of parallax offset data corresponding to the selected feature point pair, and the generated histogram is used. An information processing apparatus having a configuration in which a constraint condition for an allowable value of parallax offset is set and an optimum value of the parallax offset is calculated based on the set constraint condition.
前記視差オフセット算出部は、
前記選択特徴点ペアに対応する視差オフセットとして、水平方向(X)と垂直方向(Y)に対応する視差オフセット(dx,dy)の、[dx]のヒストグラムと[dy]のヒストグラムを生成し、生成したヒストグラムを利用して視差オフセットの許容値の拘束条件を設定し、設定した拘束条件に基づいて視差オフセットの最適値を算出する構成であることを特徴とする請求項1に記載の情報処理装置。
The parallax offset calculation unit includes:
Generating a [dx] histogram and a [dy] histogram of parallax offsets (dx, dy) corresponding to the horizontal direction (X) and the vertical direction (Y) as the parallax offset corresponding to the selected feature point pair; 2. The information processing according to claim 1, wherein a constraint condition for an allowable value of parallax offset is set using the generated histogram, and an optimum value of the parallax offset is calculated based on the set constraint condition. apparatus.
前記視差オフセット算出部は、
垂直方向(Y)の視差オフセットを規定する[dy]のヒストグラムのピーク位置を、垂直方向(Y)に対応する視差オフセット(dy)の最適値として決定する処理を実行することを特徴とする請求項2に記載の情報処理装置。
The parallax offset calculation unit includes:
A process of determining a peak position of a [dy] histogram that defines a parallax offset in the vertical direction (Y) as an optimum value of the parallax offset (dy) corresponding to the vertical direction (Y) is executed. Item 3. The information processing device according to Item 2.
前記視差オフセット算出部は、
水平方向(X)の視差オフセットを規定する[dx]のヒストグラムにおいて、予め設定した出現頻度率に応じて[dx]の最小許容値[dx,min]と、最大許容値[dx,max]を視差オフセットの許容値の拘束条件として設定し、設定した拘束条件に基づいて、水平方向(X)の視差オフセットの最適値を算出する構成であることを特徴とする請求項2に記載の情報処理装置。
The parallax offset calculation unit includes:
In the [dx] histogram that defines the parallax offset in the horizontal direction (X), the minimum allowable value [dx, min] and the maximum allowable value [dx, max] of [dx] are set according to a preset appearance frequency rate. 3. The information processing according to claim 2, wherein the information processing unit is configured to set as a constraint condition of an allowable value of the parallax offset, and to calculate an optimal value of the parallax offset in the horizontal direction (X) based on the set constraint condition. apparatus.
前記視差オフセット算出部は、
前記最小許容値[dx,min]と、最大許容値[dx,max]の間において設定した複数の[dx]の値を適用した場合の特徴点のエラーおよび遊離(Outliers)データ数を検証し、エラーおよび遊離(Outliers)データ数が最小となる[dx]の値を水平方向(X)の視差オフセットの最適値として決定する処理を実行することを特徴とする請求項4に記載の情報処理装置。
The parallax offset calculation unit includes:
The error of the feature point and the number of independent (Outliers) data are verified when a plurality of [dx] values set between the minimum allowable value [dx, min] and the maximum allowable value [dx, max] are applied. 5. The information processing according to claim 4, wherein a process of determining a value of [dx] that minimizes the number of errors and free data as an optimum value of the parallax offset in the horizontal direction (X) is performed. apparatus.
前記視差オフセット算出部は、
信頼度の高いと判断される特徴点ペアを選択するフィルタリング処理として、
前記特徴点ペアに対応する視差オフセットとして、水平方向(X)と垂直方向(Y)に対応する視差オフセット(dx,dy)の値について、
(a)dyが、予め設定した範囲にあることを条件とするエピポーラ拘束(Epipolar constraint)
(b)dxが、予め設定した範囲にあることを条件とする視差拘束(Disparity constraint)、
(c)上記(a),(b)の両者を満足する複数のペア(1対多)がある場合、これらのペアは、あいまい性が高い特徴点ペアであると判定して排除する固有対応拘束、
上記(a)〜(c)の少なくともいずれかの拘束条件を満足するか否かの定を実行して、拘束条件を満足するもののみを残存させるフィルタリング処理を実行する構成であることを特徴とする請求項1に記載の情報処理装置。
The parallax offset calculation unit includes:
As a filtering process to select feature point pairs judged to be highly reliable,
As the parallax offset corresponding to the feature point pair, the values of the parallax offset (dx, dy) corresponding to the horizontal direction (X) and the vertical direction (Y),
(A) Epipolar constraint on condition that dy is in a preset range
(B) Disparity constraint on condition that dx is in a preset range,
(C) When there are a plurality of pairs (one-to-many) satisfying both of the above (a) and (b), these pairs are determined to be feature points pairs with high ambiguity and eliminated. Restraint,
The present invention is characterized in that it is configured to execute a filtering process that executes determination of whether or not at least one of the constraint conditions (a) to (c) is satisfied, and leaves only those that satisfy the constraint condition. The information processing apparatus according to claim 1.
前記情報処理装置は、さらに、
前記視差オフセット算出部の算出した視差オフセットの最適値を適用したカメラキャリブレーションおよび3次元マップの生成処理を実行する3次元マップ生成部を有することを特徴とする請求項1〜6いずれかに記載の情報処理装置。
The information processing apparatus further includes:
The apparatus according to any one of claims 1 to 6, further comprising a three-dimensional map generation unit that executes camera calibration and a three-dimensional map generation process to which an optimum value of the parallax offset calculated by the parallax offset calculation unit is applied. Information processing device.
情報処理装置において、異なる位置にほぼ平行に設置された2つのカメラによって撮影された画像を入力し、撮影画像に基づく視差オフセットの算出を実行する情報処理方法であり、
特徴点抽出部が、前記2つのカメラの撮影画像に含まれる特徴点を抽出する特徴点抽出ステップと、
特徴点マッチング処理部が、前記2つのカメラの撮影画像から抽出された特徴点の比較処理により、類似する特徴点の組み合わせからなる特徴点ペアを検出する特徴点マッチング処理ステップと、
視差オフセット算出部が、前記特徴点ペアの解析により、前記2つのカメラの撮影画像における視差オフセットを算出する視差オフセット算出ステップを有し、
前記視差オフセット算出ステップは、
前記特徴点ペアのフィルタリングにより信頼度の高いと判断される特徴点ペアを選択し、選択特徴点ペアに対応する視差オフセットデータの発生頻度分布情報としてのヒストグラムを生成し、生成したヒストグラムを利用して視差オフセットの許容値の拘束条件を設定し、設定した拘束条件に基づいて視差オフセットの最適値を算出するステップであることを特徴とする情報処理方法。
In the information processing apparatus, an information processing method for inputting images captured by two cameras installed substantially in parallel at different positions and calculating a parallax offset based on the captured image,
A feature point extracting unit for extracting a feature point included in the captured images of the two cameras;
A feature point matching processing step in which a feature point matching processing unit detects a feature point pair consisting of a combination of similar feature points by a comparison process of feature points extracted from the captured images of the two cameras;
A parallax offset calculating unit includes a parallax offset calculating step of calculating a parallax offset in the captured images of the two cameras by analyzing the feature point pair;
The parallax offset calculating step includes:
A feature point pair determined to have high reliability by filtering the feature point pair is selected, a histogram is generated as occurrence frequency distribution information of parallax offset data corresponding to the selected feature point pair, and the generated histogram is used. An information processing method comprising: setting a constraint condition for an allowable value of parallax offset and calculating an optimum value of the parallax offset based on the set constraint condition.
前記視差オフセット算出ステップは、
前記選択特徴点ペアに対応する視差オフセットとして、水平方向(X)と垂直方向(Y)に対応する視差オフセット(dx,dy)の、[dx]のヒストグラムと[dy]のヒストグラムを生成し、生成したヒストグラムを利用して視差オフセットの許容値の拘束条件を設定し、設定した拘束条件に基づいて視差オフセットの最適値を算出するステップであることを特徴とする請求項8に記載の情報処理方法。
The parallax offset calculating step includes:
Generating a [dx] histogram and a [dy] histogram of parallax offsets (dx, dy) corresponding to the horizontal direction (X) and the vertical direction (Y) as the parallax offset corresponding to the selected feature point pair; The information processing according to claim 8, wherein a constraint condition of an allowable value of parallax offset is set using the generated histogram, and an optimal value of the parallax offset is calculated based on the set constraint condition. Method.
前記視差オフセット算出ステップは、
垂直方向(Y)の視差オフセットを規定する[dy]のヒストグラムのピーク位置を、垂直方向(Y)に対応する視差オフセット(dy)の最適値として決定する処理を実行するステップであることを特徴とする請求項9に記載の情報処理方法。
The parallax offset calculating step includes:
A step of executing a process of determining a peak position of a histogram of [dy] that defines a parallax offset in the vertical direction (Y) as an optimum value of the parallax offset (dy) corresponding to the vertical direction (Y). The information processing method according to claim 9.
前記視差オフセット算出ステップは、
水平方向(X)の視差オフセットを規定する[dx]のヒストグラムにおいて、予め設定した出現頻度率に応じて[dx]の最小許容値[dx,min]と、最大許容値[dx,max]を視差オフセットの許容値の拘束条件として設定し、設定した拘束条件に基づいて、水平方向(X)の視差オフセットの最適値を算出するステップであることを特徴とする請求項9に記載の情報処理方法。
The parallax offset calculating step includes:
In the [dx] histogram that defines the parallax offset in the horizontal direction (X), the minimum allowable value [dx, min] and the maximum allowable value [dx, max] of [dx] are set according to a preset appearance frequency rate. 10. The information processing according to claim 9, wherein the information processing step is a step of setting as an allowable value of the parallax offset allowable value and calculating an optimal value of the horizontal direction (X) parallax offset based on the set limiting condition. Method.
前記視差オフセット算出ステップは、
前記最小許容値[dx,min]と、最大許容値[dx,max]の間において設定した複数の[dx]の値を適用した場合の特徴点のエラーおよび遊離(Outliers)データ数を検証し、エラーおよび遊離(Outliers)データ数が最小となる[dx]の値を水平方向(X)の視差オフセットの最適値として決定する処理を実行するステップであることを特徴とする請求項11に記載の情報処理方法。
The parallax offset calculating step includes:
The error of the feature point and the number of independent (Outliers) data are verified when a plurality of [dx] values set between the minimum allowable value [dx, min] and the maximum allowable value [dx, max] are applied. 12. The step of executing a process of determining a value of [dx] that minimizes the number of errors and outliers as an optimal value of a parallax offset in a horizontal direction (X). Information processing method.
前記視差オフセット算出ステップは、
信頼度の高いと判断される特徴点ペアを選択するフィルタリング処理として、
前記特徴点ペアに対応する視差オフセットとして、水平方向(X)と垂直方向(Y)に対応する視差オフセット(dx,dy)の値について、
(a)dyが、予め設定した範囲にあることを条件とするエピポーラ拘束(Epipolar constraint)
(b)dxが、予め設定した範囲にあることを条件とする視差拘束(Disparity constraint)、
(c)上記(a),(b)の両者を満足する複数のペア(1対多)がある場合、これらのペアは、あいまい性が高い特徴点ペアであると判定して排除する固有対応拘束、
上記(a)〜(c)の少なくともいずれかの拘束条件を満足するか否かの定を実行して、拘束条件を満足するもののみを残存させるフィルタリング処理を実行するステップであることを特徴とする請求項8に記載の情報処理方法。
The parallax offset calculating step includes:
As a filtering process to select feature point pairs judged to be highly reliable,
As the parallax offset corresponding to the feature point pair, the values of the parallax offset (dx, dy) corresponding to the horizontal direction (X) and the vertical direction (Y),
(A) Epipolar constraint on condition that dy is in a preset range
(B) Disparity constraint on condition that dx is in a preset range,
(C) When there are a plurality of pairs (one-to-many) satisfying both of the above (a) and (b), these pairs are determined to be feature points pairs with high ambiguity and eliminated. Restraint,
It is a step of executing a filtering process that executes determination of whether or not at least one of the constraint conditions (a) to (c) is satisfied, and leaves only those that satisfy the constraint condition. The information processing method according to claim 8.
前記情報処理方法は、さらに、
3次元マップ生成部が、前記視差オフセット算出ステップにおいて算出した視差オフセットの最適値を適用したカメラキャリブレーションおよび3次元マップの生成処理を実行する3次元マップ生成ステップを有することを特徴とする請求項8〜13いずれかに記載の情報処理方法。
The information processing method further includes:
The three-dimensional map generation unit includes a three-dimensional map generation step for executing camera calibration and a three-dimensional map generation process to which an optimum value of the parallax offset calculated in the parallax offset calculation step is applied. The information processing method in any one of 8-13.
情報処理装置において、異なる位置にほぼ平行に設置された2つのカメラによって撮影された画像を入力し、撮影画像に基づく視差オフセットの算出を実行させるコンピュータ・プログラムであり、
特徴点抽出部に、前記2つのカメラの撮影画像に含まれる特徴点を抽出させる特徴点抽出ステップと、
特徴点マッチング処理部に、前記2つのカメラの撮影画像から抽出された特徴点の比較処理により、類似する特徴点の組み合わせからなる特徴点ペアを検出させる特徴点マッチング処理ステップと、
視差オフセット算出部に、前記特徴点ペアの解析により、前記2つのカメラの撮影画像における視差オフセットを算出させる視差オフセット算出ステップを有し、
前記視差オフセット算出ステップは、
前記特徴点ペアのフィルタリングにより信頼度の高いと判断される特徴点ペアを選択し、選択特徴点ペアに対応する視差オフセットデータの発生頻度分布情報としてのヒストグラムを生成し、生成したヒストグラムを利用して視差オフセットの許容値の拘束条件を設定し、設定した拘束条件に基づいて視差オフセットの最適値を算出させるステップであることを特徴とするコンピュータ・プログラム。
In the information processing apparatus, a computer program that inputs images taken by two cameras installed substantially in parallel at different positions and calculates a parallax offset based on the taken images,
A feature point extracting step for causing the feature point extracting unit to extract feature points included in the captured images of the two cameras;
A feature point matching processing step for causing the feature point matching processing unit to detect a feature point pair composed of a combination of similar feature points by comparison processing of feature points extracted from the captured images of the two cameras;
A parallax offset calculating step for causing the parallax offset calculating unit to calculate a parallax offset in the captured images of the two cameras by analyzing the feature point pair;
The parallax offset calculating step includes:
A feature point pair determined to have high reliability by filtering the feature point pair is selected, a histogram is generated as occurrence frequency distribution information of parallax offset data corresponding to the selected feature point pair, and the generated histogram is used. A computer program characterized in that it sets a constraint condition for an allowable value of parallax offset and calculates an optimum value of the parallax offset based on the set constraint condition.
JP2007215479A 2007-08-22 2007-08-22 Information processor, information processing method and computer program Pending JP2009048516A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007215479A JP2009048516A (en) 2007-08-22 2007-08-22 Information processor, information processing method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007215479A JP2009048516A (en) 2007-08-22 2007-08-22 Information processor, information processing method and computer program

Publications (1)

Publication Number Publication Date
JP2009048516A true JP2009048516A (en) 2009-03-05

Family

ID=40500650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007215479A Pending JP2009048516A (en) 2007-08-22 2007-08-22 Information processor, information processing method and computer program

Country Status (1)

Country Link
JP (1) JP2009048516A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5002066B1 (en) * 2011-04-06 2012-08-15 シャープ株式会社 Image processing apparatus, image processing method, computer program, and recording medium
WO2016113429A3 (en) * 2015-01-16 2016-09-09 Imra Europe S.A.S. Self-rectification of stereo camera
US9892516B2 (en) 2014-09-26 2018-02-13 Fujitsu Limited Three-dimensional coordinate computing apparatus, three-dimensional coordinate computing method, and non-transitory computer readable recording medium having therein program for three-dimensional coordinate computing
CN109584308A (en) * 2018-11-08 2019-04-05 杭州叙简科技股份有限公司 A kind of position calibration method based on space live-action map
CN110070610A (en) * 2019-04-17 2019-07-30 精伦电子股份有限公司 The characteristic point matching method and device of characteristic point matching method, three-dimensionalreconstruction process
KR20200118073A (en) * 2019-03-09 2020-10-14 코어포토닉스 리미티드 System and method for dynamic three-dimensional calibration
US20200327695A1 (en) * 2018-04-27 2020-10-15 Tencent Technology (Shenzhen) Company Limited Relocalization method and apparatus in camera pose tracking process, device, and storage medium

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5002066B1 (en) * 2011-04-06 2012-08-15 シャープ株式会社 Image processing apparatus, image processing method, computer program, and recording medium
WO2012137520A1 (en) * 2011-04-06 2012-10-11 シャープ株式会社 Image processing device, image processing method, computer program, and recording medium
US9892516B2 (en) 2014-09-26 2018-02-13 Fujitsu Limited Three-dimensional coordinate computing apparatus, three-dimensional coordinate computing method, and non-transitory computer readable recording medium having therein program for three-dimensional coordinate computing
WO2016113429A3 (en) * 2015-01-16 2016-09-09 Imra Europe S.A.S. Self-rectification of stereo camera
US20180007345A1 (en) * 2015-01-16 2018-01-04 Imra Europe S.A.S. Self-rectification of stereo camera
JP2018508853A (en) * 2015-01-16 2018-03-29 イムラ ウーロプ ソシエテ・パ・アクシオンス・シンプリフィエ Stereo camera self-adjustment
US11481923B2 (en) * 2018-04-27 2022-10-25 Tencent Technology (Shenzhen) Company Limited Relocalization method and apparatus in camera pose tracking process, device, and storage medium
US20200327695A1 (en) * 2018-04-27 2020-10-15 Tencent Technology (Shenzhen) Company Limited Relocalization method and apparatus in camera pose tracking process, device, and storage medium
CN109584308A (en) * 2018-11-08 2019-04-05 杭州叙简科技股份有限公司 A kind of position calibration method based on space live-action map
CN109584308B (en) * 2018-11-08 2023-04-28 杭州叙简科技股份有限公司 Position calibration method based on space live-action map
KR20200118073A (en) * 2019-03-09 2020-10-14 코어포토닉스 리미티드 System and method for dynamic three-dimensional calibration
KR102268094B1 (en) 2019-03-09 2021-06-22 코어포토닉스 리미티드 System and method for dynamic stereoscopic calibration
KR20210077792A (en) * 2019-03-09 2021-06-25 코어포토닉스 리미티드 System and method for dynamic stereoscopic calibration
KR102494006B1 (en) 2019-03-09 2023-01-30 코어포토닉스 리미티드 System and method for dynamic stereoscopic calibration
CN110070610A (en) * 2019-04-17 2019-07-30 精伦电子股份有限公司 The characteristic point matching method and device of characteristic point matching method, three-dimensionalreconstruction process
CN110070610B (en) * 2019-04-17 2023-04-18 精伦电子股份有限公司 Feature point matching method, and feature point matching method and device in three-dimensional reconstruction process

Similar Documents

Publication Publication Date Title
US10334168B2 (en) Threshold determination in a RANSAC algorithm
US8447099B2 (en) Forming 3D models using two images
US8452081B2 (en) Forming 3D models using multiple images
US8755630B2 (en) Object pose recognition apparatus and object pose recognition method using the same
JP6426968B2 (en) INFORMATION PROCESSING APPARATUS AND METHOD THEREOF
US10311595B2 (en) Image processing device and its control method, imaging apparatus, and storage medium
KR101333871B1 (en) Method and arrangement for multi-camera calibration
US20110043610A1 (en) Three-dimensional face capturing apparatus and method and computer-readable medium thereof
JP2009048516A (en) Information processor, information processing method and computer program
JP2018045309A (en) Feature quantity extraction device and authentication system
JP2005326247A (en) Calibrator, calibration method, and calibration program
US10460461B2 (en) Image processing apparatus and method of controlling the same
JP6172432B2 (en) Subject identification device, subject identification method, and subject identification program
US20120162387A1 (en) Imaging parameter acquisition apparatus, imaging parameter acquisition method and storage medium
US20160245641A1 (en) Projection transformations for depth estimation
GB2565354A (en) Method and corresponding device for generating a point cloud representing a 3D object
US10252417B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
KR20150097251A (en) Camera alignment method using correspondences between multi-images
JP6086491B2 (en) Image processing apparatus and database construction apparatus thereof
JP2006113832A (en) Stereoscopic image processor and program
JP7312026B2 (en) Image processing device, image processing method and program
GB2561525A (en) Method and corresponding device for digital 3D reconstruction
JP6156922B2 (en) Three-dimensional data generation apparatus, three-dimensional data generation method, and program
JP2018059767A (en) Image processing device, image processing method and program
JP2018049396A (en) Shape estimation method, shape estimation device and shape estimation program