JP2011170519A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2011170519A
JP2011170519A JP2010032465A JP2010032465A JP2011170519A JP 2011170519 A JP2011170519 A JP 2011170519A JP 2010032465 A JP2010032465 A JP 2010032465A JP 2010032465 A JP2010032465 A JP 2010032465A JP 2011170519 A JP2011170519 A JP 2011170519A
Authority
JP
Japan
Prior art keywords
image
frequency component
region
component information
correlation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010032465A
Other languages
Japanese (ja)
Other versions
JP5310594B2 (en
Inventor
Takehiko Sashida
岳彦 指田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2010032465A priority Critical patent/JP5310594B2/en
Publication of JP2011170519A publication Critical patent/JP2011170519A/en
Application granted granted Critical
Publication of JP5310594B2 publication Critical patent/JP5310594B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a corresponding point search technology which can make compatible both the maintenance of accuracy and an increase in speed in corresponding point search processing with a plurality of images as objects. <P>SOLUTION: An image processing method comprises steps of: converting a first region of a first image to first frequency component information and converting a second region of a second image to second frequency component information; calculating a first correlation value indicating correlation between the first region and the second region on the basis of the first and second frequency component information; setting a use limit range of frequencies where the use of the frequency component information in calculation in a correlation calculation part should be limited on the basis of the first correlation value; converting a third region of a third image corresponding to the first image to third frequency component information and converting a fourth region of a fourth image corresponding to the second image to fourth frequency component information; and calculating a second correlation value indicating a correlation between the third region and the fourth region on the basis of frequency component information concerning frequencies outside the use limit range out of third and fourth frequency component information. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理技術に関する。   The present invention relates to an image processing technique.

ステレオカメラを用いて異なる視点から撮像された2つの画像を対象として、一方の画像の各画素に対し、2つの画像の間における相関(すなわち類似の度合い)が求められ、該相関に基づいて同一の部分が捉えられた点(以下「対応点」と称する)が他方の画像から検出される技術(以下「対応点探索技術」と称する)が知られている。   For two images taken from different viewpoints using a stereo camera, for each pixel of one image, a correlation (that is, a degree of similarity) between the two images is obtained, and the same based on the correlation There is known a technique (hereinafter, referred to as “corresponding point search technique”) in which a point (hereinafter referred to as “corresponding point”) in which this portion is captured is detected from the other image.

この対応点探索技術については、一方の画像の各画素に対し、2つの画像の間における各周波数の正弦波の位相差の成分に基づいて投票空間上に投票が行われることで、他方の画像上の対応点が求められる技術が提案されている(例えば、特許文献1等)。また、投票時に重み付けが加えられる技術も提案されている(例えば、非特許文献1等)。更に、エピポーララインに沿った1次元の画像領域を用いた位相限定相関法による対応点の探索処理が実行されることで、演算量の低減が図られる技術も提案されている(例えば、特許文献2)。   With respect to the corresponding point search technique, each pixel of one image is voted on the voting space based on the phase difference component of the sine wave of each frequency between the two images, so that the other image A technique that requires the above corresponding point has been proposed (for example, Patent Document 1). Further, a technique in which weighting is added at the time of voting has been proposed (for example, Non-Patent Document 1). Furthermore, a technique has been proposed in which the amount of calculation is reduced by executing a corresponding point search process using a phase-only correlation method using a one-dimensional image region along an epipolar line (for example, Patent Documents). 2).

特許第3468182号公報Japanese Patent No. 3468182 特開2008−123141号公報JP 2008-123141 A

IEICE transactions on information and systems E87-D(1) pp.58-65(2004), KOUZUKI I(Kogakuin Univ., Tokyo, Jpn) KANEKO T(Kogakuin Univ., Tokyo, Jpn) ITO M(Kogakuin Univ., Tokyo, Jpn) "Precise and Reliable Image Shift Detection by a New Phase-Difference Spectrum Analysis (PSA) Method"IEICE transactions on information and systems E87-D (1) pp.58-65 (2004), KOUZUKI I (Kogakuin Univ., Tokyo, Jpn) KANEKO T (Kogakuin Univ., Tokyo, Jpn) ITO M (Kogakuin Univ., Tokyo, Jpn) "Precise and Reliable Image Shift Detection by a New Phase-Difference Spectrum Analysis (PSA) Method"

しかしながら、上記特許文献1および非特許文献1の各技術では、演算量が膨大となるため、演算に長時間を要する。また、上記特許文献2の技術では、エピポーララインに沿った一次元の画像領域には含まれない領域に対しては該技術を適用することが不可能である上に、各対応点の探索に用いられる領域(すなわちデータ量)が少な過ぎるため、対応点の探索処理における精度の低下を招く。   However, each technique of the above-mentioned Patent Literature 1 and Non-Patent Literature 1 requires a long time for computation because the computation amount is enormous. In the technique of Patent Document 2, it is impossible to apply the technique to an area that is not included in the one-dimensional image area along the epipolar line, and to search for each corresponding point. Since the area used (that is, the amount of data) is too small, the accuracy in the corresponding point search process is reduced.

本発明は、上記課題に鑑みてなされたものであり、複数の画像を対象とした対応点の探索処理における精度の維持と速度の向上とを両立させることが可能な対応点探索技術を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a corresponding point search technique capable of both maintaining accuracy and improving speed in corresponding point search processing for a plurality of images. For the purpose.

上記課題を解決するために、第1の態様に係る画像処理装置は、第1画像の第1領域を第1周波数成分情報に変換するとともに、第2画像の第2領域を第2周波数成分情報に変換する変換部と、前記第1および第2周波数成分情報に基づいて、前記第1領域と前記第2領域との相関を示す第1相関値を算出する相関演算部と、前記第1相関値に基づいて、前記相関演算部での演算における周波数成分情報の使用が制限される周波数の使用制限範囲を設定する制限部と、を備える。そして、該画像処理装置では、前記変換部が、前記第1画像に対応する第3画像の第3領域を第3周波数成分情報に変換するとともに、前記第2画像に対応する第4画像の第4領域を第4周波数成分情報に変換し、前記相関演算部が、前記第3および第4周波数成分情報のうちの前記使用制限範囲外の周波数に係る周波数成分情報に基づいて、前記第3領域と前記第4領域との相関を示す第2相関値を算出する。   In order to solve the above problem, an image processing apparatus according to a first aspect converts a first region of a first image into first frequency component information and converts a second region of the second image into second frequency component information. A conversion unit for converting to a first correlation value, a correlation calculation unit for calculating a first correlation value indicating a correlation between the first region and the second region based on the first and second frequency component information, and the first correlation And a restriction unit that sets a frequency use restriction range in which use of frequency component information in the calculation in the correlation calculation part is restricted based on the value. In the image processing device, the conversion unit converts the third region of the third image corresponding to the first image into third frequency component information, and the fourth image of the fourth image corresponding to the second image. Four regions are converted into fourth frequency component information, and the correlation calculation unit is configured to generate the third region based on frequency component information relating to a frequency outside the use restriction range in the third and fourth frequency component information. And a second correlation value indicating a correlation between the first region and the fourth region.

第2の態様に係る画像処理装置は、第1の態様に係る画像処理装置であって、前記第3画像から所定ルールに従って画素数を低減することで前記第1画像を生成するとともに、前記第4画像から前記所定ルールに従って画素数を低減することで前記第2画像を生成する生成部、を更に備える。   An image processing device according to a second aspect is the image processing device according to the first aspect, wherein the first image is generated by reducing the number of pixels from the third image according to a predetermined rule, and the first image A generation unit that generates the second image by reducing the number of pixels from the four images according to the predetermined rule.

第3の態様に係る画像処理装置は、第1または第2の態様に係る画像処理装置であって、前記第3および第4画像が、同一の被写体を異なる視点から捉えた複数の画像である。   An image processing apparatus according to a third aspect is the image processing apparatus according to the first or second aspect, wherein the third and fourth images are a plurality of images obtained by capturing the same subject from different viewpoints. .

第4の態様に係る画像処理装置は、第1画像の第1領域を第1周波数成分情報に変換するとともに、第2画像の第2領域を第2周波数成分情報に変換し、前記第2画像の第3領域を第3周波数成分情報に変換するとともに、第3画像の第4領域を第4周波数成分情報に変換する変換部と、前記第1および第2周波数成分情報に基づいて、前記第1領域と前記第2領域との相関を示す第1相関値を算出する相関演算部と、前記第1相関値に基づいて、前記相関演算部での演算における周波数成分情報の使用が制限される周波数の使用制限範囲を設定する制限部と、を備える。そして、該画像処理装置では、前記相関演算部が、前記第3および第4周波数成分情報のうちの前記使用制限範囲外の周波数に係る周波数成分情報に基づいて、前記第3領域と前記第4領域との相関を示す第2相関値を算出する。   The image processing apparatus according to the fourth aspect converts the first region of the first image into first frequency component information, converts the second region of the second image into second frequency component information, and converts the second image into the second frequency component information. Based on the first and second frequency component information, and a conversion unit that converts the third region of the third image into third frequency component information, and converts the fourth region of the third image into fourth frequency component information. A correlation calculation unit that calculates a first correlation value indicating a correlation between one region and the second region, and the use of frequency component information in the calculation by the correlation calculation unit is limited based on the first correlation value. And a limiting unit that sets a frequency use limiting range. Then, in the image processing device, the correlation calculation unit is configured to use the third region and the fourth region based on frequency component information relating to a frequency outside the use restriction range in the third and fourth frequency component information. A second correlation value indicating the correlation with the region is calculated.

第5の態様に係る画像処理装置は、第4の態様に係る画像処理装置であって、前記第1から第3画像が、同一の視点から同一の被写体の時間的な変化を捉えた複数の画像である。   An image processing apparatus according to a fifth aspect is the image processing apparatus according to the fourth aspect, wherein the first to third images have a plurality of time-lapse changes of the same subject from the same viewpoint. It is an image.

第6の態様に係る画像処理装置は、第1から第5の何れか1つの態様に係る画像処理装置であって、前記制限部が、前記第1相関値が大きくなるに従って、前記変換部で得られる各前記周波数成分情報のうちの最も低周波側からより広範囲の周波数に係る周波数成分情報の使用が制限されるように、前記使用制限範囲を設定する。   An image processing device according to a sixth aspect is the image processing device according to any one of the first to fifth aspects, wherein the limiting unit is configured to change the conversion unit as the first correlation value increases. The use restriction range is set so that use of frequency component information relating to a wider range of frequencies from the lowest frequency side among the obtained frequency component information is restricted.

第7の態様に係る画像処理装置は、第1から第6の何れか1つの態様に係る画像処理装置であって、前記制限部が、前記第1相関値が小さくなるに従って、前記変換部で得られる各前記周波数成分情報のうちの最も高周波側からより広範囲の周波数に係る周波数成分情報の使用が制限されるように、前記使用制限範囲を設定する。   An image processing device according to a seventh aspect is the image processing device according to any one of the first to sixth aspects, wherein the limiting unit is configured to change the conversion unit as the first correlation value decreases. The use restriction range is set so that use of frequency component information relating to a wider range of frequencies from the highest frequency side among the obtained frequency component information is restricted.

第8の態様に係る画像処理方法は、第1画像の第1領域を第1周波数成分情報に変換するとともに、第2画像の第2領域を第2周波数成分情報に変換する第1変換ステップと、前記第1および第2周波数成分情報に基づいて、前記第1領域と前記第2領域との相関を示す第1相関値を算出する第1演算ステップと、前記第1相関値に基づいて、前記相関演算部での演算における周波数成分情報の使用が制限される周波数の使用制限範囲を設定する設定ステップと、前記第1画像に対応する第3画像の第3領域を第3周波数成分情報に変換するとともに、前記第2画像に対応する第4画像の第4領域を第4周波数成分情報に変換する第2変換ステップと、前記第3および第4周波数成分情報のうちの前記使用制限範囲外の周波数に係る周波数成分情報に基づいて、前記第3領域と前記第4領域との相関を示す第2相関値を算出する第2演算ステップと、を備える。   An image processing method according to an eighth aspect includes a first conversion step of converting a first region of a first image into first frequency component information and converting a second region of the second image into second frequency component information; Based on the first and second frequency component information, a first calculation step for calculating a first correlation value indicating a correlation between the first region and the second region, and based on the first correlation value, A setting step for setting a frequency use restriction range in which the use of frequency component information in the calculation in the correlation calculation unit is restricted, and a third region of the third image corresponding to the first image as third frequency component information A second conversion step of converting the fourth region of the fourth image corresponding to the second image into fourth frequency component information, and out of the use restriction range of the third and fourth frequency component information Frequency Based on the information, and a second calculation step of calculating a second correlation value indicating a correlation between the third region and the fourth region.

第9の態様に係る画像処理方法は、第1画像の第1領域を第1周波数成分情報に変換するとともに、第2画像の第2領域を第2周波数成分情報に変換する第1変換ステップと、前記第1周波数成分情報と前記第2周波数成分情報とに基づいて、前記第1領域と前記第2領域との相関を示す第1相関値を算出する第1演算ステップと、前記第1相関値に基づいて、相関演算における周波数成分情報の使用が制限される周波数の使用制限範囲を設定する設定ステップと、前記第2画像の第3領域を第3周波数成分情報に変換するとともに、第3画像の第4領域を第4周波数成分情報に変換する第2変換ステップと、前記第3および第4周波数成分情報のうちの前記使用制限範囲外の周波数の周波数成分情報に基づいて、前記第3領域と前記第4領域との相関を示す第2相関値を算出する第2演算ステップと、を備える。   An image processing method according to a ninth aspect includes a first conversion step of converting a first region of a first image into first frequency component information and converting a second region of the second image into second frequency component information; A first calculation step of calculating a first correlation value indicating a correlation between the first region and the second region based on the first frequency component information and the second frequency component information; and the first correlation A setting step for setting a use restriction range of a frequency in which use of frequency component information in the correlation calculation is restricted based on the value; a third region of the second image is converted into third frequency component information; A second conversion step of converting a fourth region of the image into fourth frequency component information; and the third component based on frequency component information of a frequency outside the use restriction range of the third and fourth frequency component information. Region and the fourth region And a second calculation step of calculating a second correlation value indicating the correlation between.

第10の態様に係るプログラムは、情報処理装置に含まれる制御部において実行されることにより、前記情報処理装置を、第1から第7の何れか1つの態様に係る画像処理装置として機能させるプログラムである。   A program according to a tenth aspect is executed by a control unit included in the information processing apparatus, thereby causing the information processing apparatus to function as the image processing apparatus according to any one of the first to seventh aspects. It is.

第1から第3の何れの態様に係る画像処理装置によっても、複数の画像の間における類似の度合いを示す相関値に基づいて、該複数の画像に対応する別の複数の画像の間における類似の度合いを示す相関値を算出する際の演算量が低減されるため、複数の画像を対象とした対応点の探索処理における精度の維持と速度の向上とが両立する。   The image processing apparatus according to any one of the first to third aspects also uses the correlation value indicating the degree of similarity between the plurality of images to determine the similarity between the plurality of images corresponding to the plurality of images. Since the amount of calculation when calculating the correlation value indicating the degree of the reduction is reduced, both the maintenance of accuracy and the improvement of the speed in the corresponding point search process for a plurality of images are compatible.

第4および第5の何れの態様に係る画像処理装置によっても、第1画像と第2画像との間における類似の度合いを示す相関値に基づいて、第2画像と第3画像との間における類似の度合いを示す相関値を算出する際の演算量が低減されるため、複数の画像を対象とした対応点の探索処理における精度の維持と速度の向上とが両立する。   Even with the image processing device according to any of the fourth and fifth aspects, the correlation between the second image and the third image is based on the correlation value indicating the degree of similarity between the first image and the second image. Since the amount of calculation when calculating the correlation value indicating the degree of similarity is reduced, both maintaining accuracy and improving speed in the corresponding point search processing for a plurality of images are compatible.

第6および第7の何れの態様に係る画像処理装置によっても、演算量の低減による探索速度の向上が図られる。   With the image processing apparatus according to any of the sixth and seventh aspects, the search speed can be improved by reducing the amount of calculation.

第8の態様に係る画像処理方法によれば、第1の態様に係る画像処理装置と同様な効果が得られる。   According to the image processing method according to the eighth aspect, the same effect as the image processing apparatus according to the first aspect can be obtained.

第9の態様に係る画像処理方法によれば、第4の態様に係る画像処理装置と同様な効果が得られる。   According to the image processing method of the ninth aspect, the same effect as that of the image processing apparatus according to the fourth aspect can be obtained.

第10の態様に係るプログラムによれば、第1から第7の何れか1つの態様に係る画像処理装置と同様な効果が得られる。   According to the program according to the tenth aspect, an effect similar to that of the image processing apparatus according to any one of the first to seventh aspects can be obtained.

一実施形態に係る情報処理システムの概略構成を示す図である。It is a figure showing a schematic structure of an information processing system concerning one embodiment. 一実施形態に係る情報処理システムの要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the information processing system which concerns on one Embodiment. 一実施形態に係る制御部の機能的な構成例を示す図である。It is a figure which shows the functional structural example of the control part which concerns on one Embodiment. 基準画像および参照画像を例示する模式図である。It is a schematic diagram which illustrates a standard image and a reference image. 第1縮小基準画像および第1縮小参照画像を例示する模式図である。It is a schematic diagram which illustrates the 1st reduction standard image and the 1st reduction reference image. 第2縮小基準画像および第2縮小参照画像を例示する模式図である。It is a schematic diagram which illustrates the 2nd reduction standard image and the 2nd reduction reference image. 第3縮小基準画像および第3縮小参照画像を例示する模式図である。It is a schematic diagram which illustrates the 3rd reduction standard image and the 3rd reduction reference image. 基準画像に対する基準点の設定態様を模式的に示す図である。It is a figure which shows typically the setting aspect of the reference point with respect to a reference image. 3層目に係る基準点および処理対象点の設定例を示す模式図である。It is a schematic diagram which shows the example of a setting of the reference point and process target point which concern on the 3rd layer. 2層目に係る基準点および処理対象点の設定例を示す模式図である。It is a schematic diagram which shows the example of a setting of the reference point and process target point which concern on the 2nd layer. 1層目に係る基準点の設定例を示す模式図である。It is a schematic diagram which shows the example of a setting of the reference point which concerns on the 1st layer. 1層目に係る処理対象点の設定例を示す模式図である。It is a schematic diagram which shows the example of a setting of the process target point which concerns on the 1st layer. 基準画像における基準点の設定例を示す模式図である。It is a schematic diagram which shows the example of a setting of the reference point in a reference image. 参照画像における処理対象点の設定例を示す模式図である。It is a schematic diagram which shows the example of a setting of the process target point in a reference image. 3層目に係る基準領域および比較領域の設定例を示す模式図である。It is a schematic diagram which shows the example of a setting of the reference | standard area | region and comparison area | region which concerns on the 3rd layer. 2層目に係る基準領域および比較領域の設定例を示す模式図である。It is a schematic diagram which shows the example of a setting of the reference | standard area | region and comparison area | region which concerns on the 2nd layer. 1層目に係る基準領域の設定例を示す模式図である。It is a schematic diagram which shows the example of a setting of the reference area | region which concerns on the 1st layer. 1層目に係る比較領域の設定例を示す模式図である。It is a schematic diagram which shows the example of a setting of the comparison area | region which concerns on the 1st layer. 基準画像に対する基準領域の設定例を示す模式図である。It is a schematic diagram which shows the example of a setting of the reference | standard area | region with respect to a reference | standard image. 参照画像に対する比較領域の設定例を示す模式図である。It is a schematic diagram which shows the example of a setting of the comparison area with respect to a reference image. 周波数と重み付け係数との関係を例示する図である。It is a figure which illustrates the relationship between a frequency and a weighting coefficient. 周波数と重み付け係数との関係を例示する図である。It is a figure which illustrates the relationship between a frequency and a weighting coefficient. 相関値と重み付け係数との関係を例示する模式図である。It is a schematic diagram which illustrates the relationship between a correlation value and a weighting coefficient. 相関値と重み付け係数との関係を例示する模式図である。It is a schematic diagram which illustrates the relationship between a correlation value and a weighting coefficient. 相関値と重み付け係数との関係を例示する模式図である。It is a schematic diagram which illustrates the relationship between a correlation value and a weighting coefficient. 相関演算で使用される投票空間を例示する図である。It is a figure which illustrates the voting space used by correlation calculation. 相関演算における投票方法を説明するための図である。It is a figure for demonstrating the voting method in correlation calculation. 相関演算における投票方法を説明するための図である。It is a figure for demonstrating the voting method in correlation calculation. 一実施形態に係る対応点探索動作のフローを示すフローチャートである。It is a flowchart which shows the flow of the corresponding point search operation | movement which concerns on one Embodiment. 一実施形態に係る対応点探索動作のフローを示すフローチャートである。It is a flowchart which shows the flow of the corresponding point search operation | movement which concerns on one Embodiment. 一実施形態に係る対応点探索動作のフローを示すフローチャートである。It is a flowchart which shows the flow of the corresponding point search operation | movement which concerns on one Embodiment. 一変形例に係る情報処理システムの概略構成を示す図である。It is a figure which shows schematic structure of the information processing system which concerns on one modification. 一変形例に係る情報処理システムの要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the information processing system which concerns on one modification. T1フレーム画像を例示する模式図である。It is a schematic diagram which illustrates a T1 frame image. T2フレーム画像を例示する模式図である。It is a schematic diagram which illustrates a T2 frame image. T3フレーム画像を例示する模式図である。It is a schematic diagram which illustrates a T3 frame image. 一変形例に係る制御部の機能的な構成例を示す図である。It is a figure which shows the functional structural example of the control part which concerns on one modification. 一変形例に係る対応点探索動作のフローを示すフローチャートである。It is a flowchart which shows the flow of the corresponding point search operation | movement which concerns on one modification. 一変形例に係る対応点探索動作のフローを示すフローチャートである。It is a flowchart which shows the flow of the corresponding point search operation | movement which concerns on one modification. 一変形例に係る対応点探索動作のフローを示すフローチャートである。It is a flowchart which shows the flow of the corresponding point search operation | movement which concerns on one modification.

以下、本発明の一実施形態を図面に基づいて説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

<(1)情報処理システムの構成>
図1は、本発明の一実施形態に係る情報処理システム1Aの概略構成を示す図であり、図2は、情報処理システム1Aの要部構成を示すブロック図である。
<(1) Configuration of information processing system>
FIG. 1 is a diagram showing a schematic configuration of an information processing system 1A according to an embodiment of the present invention, and FIG. 2 is a block diagram showing a main configuration of the information processing system 1A.

情報処理システム1Aは、2眼のステレオカメラ2と、ステレオカメラ2に対してデータの送受信が可能に接続される情報処理装置3とを備える。   The information processing system 1A includes a two-lens stereo camera 2 and an information processing apparatus 3 connected to the stereo camera 2 so as to be able to transmit and receive data.

2眼のステレオカメラ2には、それぞれ撮像素子を有する2つの撮像系21,22が設けられる。撮像系21,22は、所定方向に沿って離隔配置され、カメラ正面の被写体OBを、同じタイミングで異なる視点から撮像するように構成される。撮像系21,22による同じタイミングの撮像によって得られる2つの画像データ(以下「画像」と略称する)は、いわゆるステレオ画像であり、データ線CBを介して情報処理装置3に送信される。   The two-lens stereo camera 2 is provided with two imaging systems 21 and 22 each having an imaging device. The imaging systems 21 and 22 are spaced apart along a predetermined direction, and are configured to capture the subject OB in front of the camera from different viewpoints at the same timing. Two image data (hereinafter abbreviated as “image”) obtained by imaging at the same timing by the imaging systems 21 and 22 are so-called stereo images, and are transmitted to the information processing device 3 via the data line CB.

以下では、撮像系21の撮像によって取得される画像を「第1撮像画像」G1と称し、撮像系22の撮像によって取得される画像を「第2撮像画像」G2と称する。つまり、第1および第2撮像画像G1,G2は、同一の被写体OBが異なる視点からそれぞれ捉えられた画像の組を成す。   Hereinafter, an image acquired by the imaging system 21 is referred to as a “first captured image” G1, and an image acquired by the imaging system 22 is referred to as a “second captured image” G2. That is, the first and second captured images G1 and G2 form a set of images in which the same subject OB is captured from different viewpoints.

ここでは、説明の複雑化を避けるために、第1撮像画像G1において被写体の或る部分が捉えられた画素の座標と、第2撮像画像G2において被写体の同一部分が捉えられた画素の座標とが、縦方向(Y方向)には略同一で且つ横方向(X方向)に異なるように撮像系21と撮像系22とが設置されているものとして説明する。   Here, in order to avoid complication of explanation, the coordinates of a pixel in which a certain part of the subject is captured in the first captured image G1, and the coordinates of a pixel in which the same part of the subject is captured in the second captured image G2. However, description will be made assuming that the imaging system 21 and the imaging system 22 are installed so as to be substantially the same in the vertical direction (Y direction) and different in the horizontal direction (X direction).

また、説明を簡素化するために、ステレオカメラ2の収差は良好に補正されており、且つ撮像系21,22は、略平行(好ましくは完全に平行)に設定される。つまり、撮像系21,22の光軸が略平行(好ましくは完全に平行)に設定される。なお、実際のステレオカメラ2の構成が、このような条件にない場合は、第1および第2撮像画像G1,G2に対する画像処理により、同等の条件下で撮像されたステレオ画像に変換されても良い。   In order to simplify the explanation, the aberration of the stereo camera 2 is corrected well, and the imaging systems 21 and 22 are set to be substantially parallel (preferably completely parallel). That is, the optical axes of the imaging systems 21 and 22 are set to be substantially parallel (preferably completely parallel). If the actual configuration of the stereo camera 2 does not meet such conditions, the image processing for the first and second captured images G1 and G2 may be converted into a stereo image captured under equivalent conditions. good.

情報処理装置3は、例えばパーソナルコンピュータ(パソコン)で構成され、マウスやキーボード等を含む操作部31と、液晶ディスプレイ等で構成される表示部32と、ステレオカメラ2からのデータを受信するインターフェース(I/F)部33とを備える。また、情報処理装置3は、記憶部34と入出力部35と制御部36とを有する。   The information processing apparatus 3 is configured by, for example, a personal computer (personal computer), an operation unit 31 including a mouse and a keyboard, a display unit 32 including a liquid crystal display, and an interface for receiving data from the stereo camera 2 ( I / F) unit 33. In addition, the information processing device 3 includes a storage unit 34, an input / output unit 35, and a control unit 36.

記憶部34は、例えばハードディスク等で構成され、ステレオカメラ2の撮像によって得られる第1および第2撮像画像G1,G2を記憶する。また、記憶部34には、後述される対応点探索動作を行うためのプログラムPGa等が格納される。   The storage unit 34 is configured by, for example, a hard disk or the like, and stores first and second captured images G1 and G2 obtained by imaging with the stereo camera 2. The storage unit 34 stores a program PGa for performing a corresponding point search operation described later.

入出力部35は、例えばディスクドライブを備えて構成され、光ディスク等の記憶媒体9を受け付け、制御部36との間でデータの授受を行う。   The input / output unit 35 includes, for example, a disk drive, receives the storage medium 9 such as an optical disk, and exchanges data with the control unit 36.

制御部36は、プロセッサーとして働くCPU36aと、情報を一時的に記憶するメモリ36bとを有し、情報処理装置3の各部を統括的に制御する。制御部36では、記憶部34内のプログラムPGaが読み込まれて実行されることで、各種機能や各種情報処理等が実現される。なお、メモリ36bには、記憶媒体9に記憶されているプログラムデータを入出力部35を介して格納させることができる。この格納されたプログラムは、情報処理装置3の動作に適宜反映可能である。   The control unit 36 includes a CPU 36 a that functions as a processor and a memory 36 b that temporarily stores information, and comprehensively controls each unit of the information processing apparatus 3. The control unit 36 reads and executes the program PGa in the storage unit 34, thereby realizing various functions and various information processing. The program data stored in the storage medium 9 can be stored in the memory 36b via the input / output unit 35. This stored program can be appropriately reflected in the operation of the information processing apparatus 3.

また、制御部36は、ステレオカメラ2で取得されたステレオ画像を構成する第1および第2撮像画像G1,G2の間において被写体の同じ部分を捉えた点を探索する一連の動作(以下「対応点探索動作」とも称する)を行う。   Further, the control unit 36 performs a series of operations (hereinafter referred to as “corresponding”) for searching for a point where the same part of the subject is captured between the first and second captured images G1 and G2 constituting the stereo image acquired by the stereo camera 2. Also referred to as “point search operation”.

更に、制御部36は、対応点探索動作によって得られる情報を用いた三角測量の原理に基づき、被写体OBの3次元空間における位置(以下「3次元位置」とも称する)を算出する。そして、表示部32では、制御部36で算出された被写体OBの3次元位置に基づいて、被写体OBを3次元的に表した画像(以下「3次元画像」とも称する)が可視的に出力される。   Further, the control unit 36 calculates the position of the subject OB in the three-dimensional space (hereinafter also referred to as “three-dimensional position”) based on the principle of triangulation using information obtained by the corresponding point search operation. The display unit 32 visually outputs an image (hereinafter, also referred to as “three-dimensional image”) representing the subject OB three-dimensionally based on the three-dimensional position of the subject OB calculated by the control unit 36. The

<(2)対応点探索動作>
本実施形態に係る対応点探索動作では、次の2つの工程(I)(II)がこの順番で順次に行われる。
<(2) Corresponding point search operation>
In the corresponding point search operation according to the present embodiment, the following two steps (I) and (II) are sequentially performed in this order.

(I)ステレオ画像を構成する第1撮像画像G1と第2撮像画像G2との組がベースとされて、解像度が複数段階に低減された画像の組が生成される。   (I) Based on a set of the first captured image G1 and the second captured image G2 constituting a stereo image, a set of images with a resolution reduced in a plurality of stages is generated.

(II)第1撮像画像G1の各画素について、解像度が低い画像の組から順に、一方の画像の基準となる点(以下「基準点」と称する)と同じ被写体の部分を捉えた点(以下「対応点」と称する)を他方の画像から探索する処理(以下「対応点探索処理」とも称する)が行われる。各対応点探索処理では、2つの画像の間における類似の度合い(以下「相関」とも称する)が周波数成分を用いて求められ、該相関に応じて基準点に対応する対応点が検出される。なお、ここで言う「周波数成分」には、画像上における画素値の空間的な変化を表す各周波数の正弦波についての振幅と位相とが含まれる。   (II) For each pixel of the first captured image G1, in order from the set of images having a low resolution, a point of the same subject as a reference point (hereinafter referred to as “reference point”) of one image (hereinafter referred to as “reference point”) A process of searching for “corresponding point” from the other image (hereinafter also referred to as “corresponding point search process”) is performed. In each corresponding point search process, a degree of similarity (hereinafter also referred to as “correlation”) between two images is obtained using a frequency component, and a corresponding point corresponding to a reference point is detected according to the correlation. The “frequency component” referred to here includes the amplitude and phase of a sine wave of each frequency representing a spatial change in pixel values on the image.

工程(II)では、或る解像度の画像の組を対象とした対応点探索処理において、この或る解像度の画像の組よりも解像度が1段階低い画像の組を対象とした対応点探索処理の結果が利用される。   In step (II), in the corresponding point search process for a set of images with a certain resolution, the corresponding point search process for a set of images whose resolution is one step lower than the set of images with a certain resolution is performed. The result is used.

更に、工程(II)では、対応点探索処理における精度の維持と速度の向上とを両立させることを目的として、或る解像度の画像の組を対象とした対応点探索処理では、この或る解像度の画像の組よりも解像度が1段階低い画像の組を対象とした対応点探索処理で求められる画像間の相関を示す値(以下「相関値」とも称する)の高低に応じて、演算に使用される周波数成分が制限される。ここでは、周波数成分の制限が、振幅に対して後述される重み付け係数が乗ぜられることで実現される。   Furthermore, in the step (II), in the corresponding point search process for a set of images of a certain resolution, the certain resolution is used in order to achieve both the maintenance of the accuracy and the speed improvement in the corresponding point search process. Used for calculation according to the level of the correlation value (hereinafter also referred to as “correlation value”) obtained by the corresponding point search processing for a set of images whose resolution is one step lower than the set of images The frequency component to be performed is limited. Here, the restriction of the frequency component is realized by multiplying the amplitude by a weighting coefficient described later.

なお、本実施形態では、演算に使用される周波数成分の制限に資する相関値として、後述されるピーク相関値Cmaxが採用されている例を挙げて説明する。 In the present embodiment, an example in which a peak correlation value C max described later is employed as a correlation value that contributes to the limitation of the frequency component used for the calculation will be described.

以下、対応点探索動作を実現するための機能的な構成、および対応点探索動作のフローについて順次に説明する。   Hereinafter, a functional configuration for realizing the corresponding point search operation and a flow of the corresponding point search operation will be sequentially described.

<(2-1)対応点探索動作に係る機能的な構成>
図3は、対応点探索動作を実行するために制御部36で実現される機能的な構成を示す図である。なお、ここでは、制御部36の機能的な構成が、プログラムPGaの実行によって実現されるものとして説明するが、専用のハードウエア構成で実現されても良い。
<(2-1) Functional configuration related to corresponding point search operation>
FIG. 3 is a diagram illustrating a functional configuration realized by the control unit 36 in order to execute the corresponding point search operation. Here, the functional configuration of the control unit 36 is described as being realized by executing the program PGa, but may be realized by a dedicated hardware configuration.

図3で示されるように、制御部36は、機能的な構成として、画像取得部361、解像度変換部362、探索基準点設定部363、画像指定部364、基準視差設定部365、ウインドウ設定部366、周波数解析部367、周波数成分制限部368、相関演算部369、および対応点決定部370を有する。   As illustrated in FIG. 3, the control unit 36 includes an image acquisition unit 361, a resolution conversion unit 362, a search reference point setting unit 363, an image designation unit 364, a reference parallax setting unit 365, a window setting unit as functional configurations. 366, a frequency analysis unit 367, a frequency component restriction unit 368, a correlation calculation unit 369, and a corresponding point determination unit 370.

<(2-1-1)画像取得部>
画像取得部361は、同一の被写体を略同一のタイミングで撮像することで得られる第1撮像画像G1と第2撮像画像G2とを記憶部34から取得する。
<(2-1-1) Image acquisition unit>
The image acquisition unit 361 acquires from the storage unit 34 the first captured image G1 and the second captured image G2 obtained by capturing the same subject at approximately the same timing.

図4は、第1および第2撮像画像G1,G2の形態をそれぞれ例示する模式図である。第1および第2撮像画像G1,G2では、多数の画素がマトリックス状に配列される。具体的には、縦方向(Y方向)に第1所定数(ここでは480個)の画素が配列されるとともに、横方向(X方向)に第2所定数(ここでは640個)の画素が配列される。   FIG. 4 is a schematic view illustrating the forms of the first and second captured images G1 and G2. In the first and second captured images G1, G2, a large number of pixels are arranged in a matrix. Specifically, a first predetermined number (here, 480) of pixels are arranged in the vertical direction (Y direction), and a second predetermined number (here, 640) of pixels are arranged in the horizontal direction (X direction). Arranged.

ここで、第1および第2撮像画像G1,G2では、左上の位置が原点とされ、第1および第2撮像画像G1,G2の各画素における横方向の位置がX座標で示され、縦方向の位置がY座標で示される。つまり、第1および第2撮像画像G1,G2では、各画素の位置がXYの座標(x,y)で示され、例えば、右方向(X方向)に1画素ずれるとX座標の値が1つ増加し、下方向(Y方向)に1画素ずれるとY座標の値が1つ増加する。   Here, in the first and second captured images G1 and G2, the upper left position is the origin, the horizontal position in each pixel of the first and second captured images G1 and G2 is indicated by the X coordinate, and the vertical direction Is indicated by the Y coordinate. That is, in the first and second captured images G1 and G2, the position of each pixel is indicated by XY coordinates (x, y). For example, if the pixel is shifted rightward (X direction) by one pixel, the value of the X coordinate is 1. The value of the Y coordinate increases by one when it is shifted by one pixel in the downward direction (Y direction).

また、対応点探索動作では、第1撮像画像G1が基準となる画像(以下「基準画像」とも称する)とされ、第2撮像画像G2が参照される画像(以下「参照画像」とも称する)とされる。そこで、第1撮像画像G1を基準画像G1と称し、第2撮像画像G2を参照画像G2と称する。   In the corresponding point search operation, the first captured image G1 is used as a reference image (hereinafter also referred to as “reference image”), and the second captured image G2 is referred to as an image (hereinafter also referred to as “reference image”). Is done. Therefore, the first captured image G1 is referred to as a standard image G1, and the second captured image G2 is referred to as a reference image G2.

なお、画像取得部361では、厳密には、基準画像G1および参照画像G2を示すデータが取得されるが、本明細書では、基準画像G1を示すデータと該データに基づいて表示される基準画像G1そのものとを「基準画像G1」と総称し、参照画像G2を示すデータと該データに基づいて表示される参照画像G2そのものとを参照画像G2と総称する。   Strictly speaking, the image acquisition unit 361 acquires data indicating the standard image G1 and the reference image G2. However, in this specification, the data indicating the standard image G1 and the standard image displayed based on the data are displayed. G1 itself is collectively referred to as “standard image G1”, and data indicating the reference image G2 and the reference image G2 itself displayed based on the data are collectively referred to as a reference image G2.

<(2-1-2)解像度変換部>
解像度変換部362は、基準画像G1を基準として、該基準画像G1に対して解像度を段階的に低下させた関係にある画像(以下「低解像度基準画像」とも称する)を生成する。また、解像度変換部362は、参照画像G2を基準として、該参照画像G2に対して解像度を段階的に低下させた関係にある画像(以下「低解像度参照画像」とも称する)を生成する。
<(2-1-2) Resolution converter>
The resolution conversion unit 362 generates an image (hereinafter, also referred to as “low-resolution reference image”) having a relationship in which the resolution is gradually reduced with respect to the reference image G1 with the reference image G1 as a reference. Further, the resolution conversion unit 362 generates an image (hereinafter, also referred to as “low-resolution reference image”) having a relationship in which the resolution is gradually reduced with respect to the reference image G2 with the reference image G2 as a reference.

ここでは、基準画像G1および参照画像G2を対象として、それぞれ、複数の縦方向(Y方向)の画素の列(以下「垂直ライン」と称する)および複数の横方向(X方向)の画素の行(以下「水平ライン」と称する)のうち、所定の間引きルールに従って、垂直ラインおよび水平ラインが間引かれることで、低解像度基準画像および低解像度参照画像が生成される。   Here, for the base image G1 and the reference image G2, a plurality of columns of pixels in the vertical direction (Y direction) (hereinafter referred to as “vertical lines”) and a plurality of rows of pixels in the horizontal direction (X direction), respectively. (Hereinafter, referred to as “horizontal line”), the low resolution standard image and the low resolution reference image are generated by thinning out the vertical line and the horizontal line according to a predetermined thinning rule.

ここで、所定の間引きルールとは、間引かれる垂直ラインを決定するための規則性、および/または間引かれる水平ラインを決定するための規則性を示すルールである。例えば、所定の間引きルールには、所定数の垂直ライン毎に1列の垂直ラインが間引かれる規則や、所定数の水平ライン毎に1行の水平ラインが間引かれる規則などを示すルールが含まれる。   Here, the predetermined thinning rule is a rule indicating regularity for determining vertical lines to be thinned out and / or regularity for determining horizontal lines to be thinned out. For example, the predetermined thinning rule includes a rule indicating that one vertical line is thinned out for every predetermined number of vertical lines, and a rule indicating that one horizontal line is thinned out for every predetermined number of horizontal lines. included.

以下では、垂直ラインおよび水平ラインの双方が間引かれる例が示されているが、垂直ラインおよび水平ラインのうちの少なくとも一方の複数の画素からなるライン(以下「画素ライン」とも称する)が間引かれれば良い。   In the following, an example in which both vertical lines and horizontal lines are thinned out is shown, but a line composed of a plurality of pixels of at least one of the vertical lines and horizontal lines (hereinafter also referred to as “pixel lines”) is omitted. It only has to be drawn.

基準画像G1については、まず、基準画像G1を構成する複数の垂直ラインおよび複数の水平ラインから、1列おきの垂直ラインおよび1行おきの水平ラインがそれぞれ間引かれる。このとき、縮小された低解像度の基準画像(以下「第1縮小基準画像」とも称する)G11(図5)が生成される。第1縮小基準画像G11では、縦方向に240個および横方向に320個の画素がマトリックス状に配列される。   For the reference image G1, first, every other vertical line and every other horizontal line are thinned out from a plurality of vertical lines and a plurality of horizontal lines constituting the reference image G1. At this time, a reduced low-resolution reference image (hereinafter also referred to as “first reduced reference image”) G11 (FIG. 5) is generated. In the first reduced reference image G11, 240 pixels in the vertical direction and 320 pixels in the horizontal direction are arranged in a matrix.

次に、第1縮小基準画像G11から、1列おきの垂直ラインおよび1行おきの水平ラインがそれぞれ間引かれることで、更に縮小された低解像度の基準画像(以下「第2縮小基準画像」とも称する)G12(図6)が生成される。第2縮小基準画像G12では、縦方向に120個および横方向に160個の画素がマトリックス状に配列される。   Next, the vertical line every other column and the horizontal line every other row are thinned out from the first reduced reference image G11 to further reduce the low-resolution reference image (hereinafter, “second reduced reference image”). G12 (FIG. 6) is also generated. In the second reduced reference image G12, 120 pixels in the vertical direction and 160 pixels in the horizontal direction are arranged in a matrix.

その次に、第2縮小基準画像G12から、1列おきの垂直ラインおよび1行おきの水平ラインがそれぞれ間引かれることで、更に縮小された低解像度の基準画像(以下「第3縮小基準画像」とも称する)G13(図7)が生成される。第3縮小基準画像G13では、縦方向に60個および横方向に80個の画素がマトリックス状に配列される。   Next, every other vertical line and every other horizontal line are thinned out from the second reduced reference image G12 to further reduce the low-resolution reference image (hereinafter referred to as “third reduced reference image”). G13 (FIG. 7) is generated. In the third reduced reference image G13, 60 pixels in the vertical direction and 80 pixels in the horizontal direction are arranged in a matrix.

このようにして、基準画像G1に基づいて、該基準画像G1に対応する第1〜3縮小基準画像G11〜G13が生成される。   In this way, the first to third reduced reference images G11 to G13 corresponding to the reference image G1 are generated based on the reference image G1.

一方、参照画像G2については、まず、参照画像G2を構成する複数の垂直ラインおよび複数の水平ラインから、1列おきの垂直ラインおよび1行おきの水平ラインがそれぞれ間引かれる。このとき、縮小された低解像度の参照画像(以下「第1縮小参照画像」とも称する)G21(図5)が生成される。第1縮小参照画像G21では、縦方向に240個および横方向に320個の画素がマトリックス状に配列される。   On the other hand, for the reference image G2, first, every other vertical line and every other horizontal line are thinned out from a plurality of vertical lines and a plurality of horizontal lines constituting the reference image G2. At this time, a reduced low-resolution reference image (hereinafter also referred to as “first reduced reference image”) G21 (FIG. 5) is generated. In the first reduced reference image G21, 240 pixels in the vertical direction and 320 pixels in the horizontal direction are arranged in a matrix.

次に、第1縮小参照画像G21から、1列おきの垂直ラインおよび1行おきの水平ラインがそれぞれ間引かれることで、更に縮小された低解像度の参照画像(以下「第2縮小参照画像」とも称する)G22(図6)が生成される。第2縮小参照画像G22では、縦方向に120個および横方向に160個の画素がマトリックス状に配列される。   Next, every other vertical line and every other horizontal line are thinned out from the first reduced reference image G21 to further reduce the low resolution reference image (hereinafter “second reduced reference image”). G22 (FIG. 6) is also generated. In the second reduced reference image G22, 120 pixels in the vertical direction and 160 pixels in the horizontal direction are arranged in a matrix.

その次に、第2縮小参照画像G22から、1列おきの垂直ラインおよび1行おきの水平ラインがそれぞれ間引かれることで、更に縮小された低解像度の参照画像(以下「第3縮小参照画像」とも称する)G23(図7)が生成される。第3縮小参照画像G23では、縦方向に60個および横方向に80個の画素がマトリックス状に配列される。   Next, every other vertical line and every other horizontal line are thinned out from the second reduced reference image G22, thereby further reducing the low-resolution reference image (hereinafter referred to as “third reduced reference image”). G23 (FIG. 7) is generated. In the third reduced reference image G23, 60 pixels in the vertical direction and 80 pixels in the horizontal direction are arranged in a matrix.

このようにして、参照画像G2に基づいて、該参照画像G2に対応する第1〜3縮小参照画像G21〜23が生成される。   In this way, the first to third reduced reference images G21 to 23 corresponding to the reference image G2 are generated based on the reference image G2.

換言すれば、解像度変換部362では、基準画像G1と参照画像G2との組から、第1縮小基準画像G11と第1縮小参照画像G21との組(以下「1層目の低解像度の画像の組」とも称する)、第2縮小基準画像G12と第2縮小参照画像G22との組(以下「2層目の低解像度の画像の組」とも称する)、および第3縮小基準画像G13と第3縮小参照画像G23との組(以下「3層目(最下層)の低解像度の画像の組」とも称する)が生成される。   In other words, in the resolution conversion unit 362, a set of the first reduced reference image G11 and the first reduced reference image G21 (hereinafter referred to as “the first layer low resolution image of the first resolution image) from the set of the reference image G1 and the reference image G2. A set of the second reduced reference image G12 and the second reduced reference image G22 (hereinafter, also referred to as a “second set of low-resolution images”), and the third reduced reference image G13 and the third reduced reference image G22. A set with the reduced reference image G23 (hereinafter also referred to as “a set of low-resolution images in the third layer (lowermost layer)”) is generated.

すなわち、解像度変換部362では、基準画像G1と参照画像G2との組が基準とされて、解像度が1段階低減された1層目の低解像度の画像の組、解像度が2段階低減された2層目の低解像度の画像の組、解像度が3段階低減された3層目(最下層)の低解像度の画像の組が生成される。   That is, in the resolution conversion unit 362, a set of the base image G1 and the reference image G2 is used as a reference, and a set of low-resolution images in the first layer in which the resolution is reduced by one step, and the resolution is reduced by two steps. A set of low-resolution images in the layer and a set of low-resolution images in the third layer (lowermost layer) with the resolution reduced by three levels are generated.

<(2-1-3)探索基準点設定部>
探索基準点設定部363は、基準画像G1に対して、対応点探索の基準となる点(基準点)Sp1(図8)を設定する。
<(2-1-3) Search reference point setting section>
The search reference point setting unit 363 sets a reference point (reference point) Sp1 (FIG. 8) as a reference for the corresponding point search for the reference image G1.

例えば、まず、基準画像G1のうちの左上の画素が基準点Sp1として設定される。そして、基準点Sp1に対して参照画像G2から対応点が検出される度に、新たな基準点Sp1が設定される。   For example, first, the upper left pixel in the reference image G1 is set as the reference point Sp1. Each time a corresponding point is detected from the reference image G2 with respect to the reference point Sp1, a new reference point Sp1 is set.

詳細には、基準画像G1に対して、図8の矢印で示されるように、基準点Sp1が、上方向(+Y方向)から順に、左から右方向(X方向)に沿って所定画素(ここでは1画素)ずつずらされながら時間順次に設定され、各基準点Sp1に対応する対応点が、参照画像G2上で順次に検出される。   Specifically, as shown by the arrow in FIG. 8, the reference point Sp1 is a predetermined pixel (here, from left to right (X direction) sequentially from the upper direction (+ Y direction) with respect to the reference image G1. In this case, the corresponding points corresponding to the reference points Sp1 are sequentially detected on the reference image G2.

換言すれば、基準画像G1に対し、−Y側から+Y側に向けて並ぶX軸に平行な各水平ラインに沿って、−X側から+X側に向けて基準点Sp1が時間順次に設定される。そして、1つの水平ラインに沿った基準点Sp1の設定が完了すると、1画素分+Y側に位置する次の水平ラインに沿って基準点Sp1が時間順次に設定される。   In other words, with respect to the reference image G1, the reference point Sp1 is set sequentially in time from the −X side to the + X side along each horizontal line parallel to the X axis lined from the −Y side to the + Y side. The When the setting of the reference point Sp1 along one horizontal line is completed, the reference point Sp1 is sequentially set along the next horizontal line located on the + Y side for one pixel.

<(2-1-4)画像指定部>
画像指定部364は、対応点の探索処理を行う対象となる画像の組(以下「処理対象画像ペア」と称する)を指定する。ここでは、或る低解像度の処理対象画像ペアについて対応点が認識される度に、この対応点が認識された或る低解像度の画像の組よりも一段階解像度が高い画像の組が、次の処理対象画像ペアとして指定される。
<(2-1-4) Image designation part>
The image designating unit 364 designates a set of images (hereinafter referred to as “processing target image pair”) to be subjected to corresponding point search processing. Here, each time a corresponding point is recognized for a certain low-resolution processing target image pair, an image set having a one-step resolution higher than a certain low-resolution image set in which the corresponding point is recognized is Specified as a processing target image pair.

例えば、まず、最下層(3層目)の低解像度の画像の組(具体的には、第3縮小基準画像G13と第3縮小参照画像G23)が、処理対象画像ペアとして指定される。次に、2層目の低解像度の画像の組(具体的には、第2縮小基準画像G12と第3縮小参照画像G22)が、処理対象画像ペアとして指定される。その次に、1層目の低解像度の画像の組(具体的には、第1縮小基準画像G11と第1縮小参照画像G21)が、処理対象画像ペアとして指定される。更にその次に、基準画像G1と参照画像G2とが、処理対象画像ペアとして指定される。   For example, first, a set of low-resolution images (specifically, the third reduced reference image G13 and the third reduced reference image G23) in the lowermost layer (third layer) is designated as a processing target image pair. Next, a set of low-resolution images in the second layer (specifically, the second reduced reference image G12 and the third reduced reference image G22) is designated as a processing target image pair. Next, a set of low-resolution images in the first layer (specifically, the first reduced reference image G11 and the first reduced reference image G21) is designated as a processing target image pair. Next, the standard image G1 and the reference image G2 are designated as a processing target image pair.

<(2-1-5)基準視差設定部>
基準視差設定部365は、各処理対象画像ペアに対して、対応点の探索の基準となる視差(以下「基準視差」とも称する)を仮に設定する。
<(2-1-5) Reference parallax setting unit>
The reference parallax setting unit 365 temporarily sets parallax (hereinafter also referred to as “reference parallax”) as a reference for searching for corresponding points for each processing target image pair.

具体的には、最下層(3層目)の低解像度の画像の組に対し、基準視差の初期値が仮に設定される。基準視差の初期値としては、例えば、XおよびY方向の所定値(例えばゼロ等)に設定される。   Specifically, an initial value of the reference parallax is provisionally set for a set of low resolution images in the lowest layer (third layer). As an initial value of the reference parallax, for example, a predetermined value (for example, zero) in the X and Y directions is set.

例えば、図9で示されるように、第3縮小基準画像G13に対して、探索基準点設定部363によって設定された基準点Sp1に対応する基準点Sp13が設定されるとともに、第3縮小参照画像G23に対して演算処理の対象となる点(以下「処理対象点」とも称する)Pp23が設定される。ここでは、第3縮小基準画像G13における基準点Sp13の座標と、第3縮小参照画像G23における処理対象点Pp23の座標とのズレ量が、基準視差の初期値に相当する。   For example, as shown in FIG. 9, a reference point Sp13 corresponding to the reference point Sp1 set by the search reference point setting unit 363 is set for the third reduced reference image G13, and the third reduced reference image is displayed. A point (hereinafter also referred to as a “processing target point”) Pp23 to be subjected to arithmetic processing is set for G23. Here, the amount of deviation between the coordinates of the reference point Sp13 in the third reduced reference image G13 and the coordinates of the processing target point Pp23 in the third reduced reference image G23 corresponds to the initial value of the reference parallax.

次に、3層目の低解像度の画像の組を処理対象画像ペアとした対応点探索処理によって得られる視差が、次の処理対象画像ペアとしての2層目の低解像度の画像の組に対し、基準視差として仮に設定される。ここでは、2層目の解像度が3層目の解像度の2倍であるため、仮に視差を画素の座標のズレ量として取り扱えば、3層目に係る対応点探索処理で得られる視差に相当する画素の座標のズレ量の2倍が、2層目に設定される基準視差に相当する画素の座標のズレ量となる。   Next, the parallax obtained by the corresponding point search processing using the pair of low-resolution images in the third layer as the processing target image pair is compared with the pair of low-resolution images in the second layer as the next processing target image pair. , Temporarily set as the reference parallax. Here, since the resolution of the second layer is twice the resolution of the third layer, if the parallax is handled as a shift amount of the coordinate of the pixel, it corresponds to the parallax obtained by the corresponding point search process for the third layer. Twice the pixel coordinate shift amount is the pixel coordinate shift amount corresponding to the reference parallax set in the second layer.

例えば、図10で示されるように、第2縮小基準画像G12に対して、基準点Sp1に対応する基準点Sp12が設定されるとともに、第2縮小参照画像G22に対して処理対象点Pp22が設定される。ここでは、第2縮小基準画像G12における基準点Sp12の座標と、第2縮小参照画像G22における処理対象点Pp22の座標とのズレ量が、3層目の低解像度の画像の組を処理対象画像ペアとした対応点探索処理によって得られる視差に相当する。   For example, as shown in FIG. 10, a reference point Sp12 corresponding to the reference point Sp1 is set for the second reduced reference image G12, and a processing point Pp22 is set for the second reduced reference image G22. Is done. Here, a set of low-resolution images in the third layer whose amount of deviation between the coordinates of the reference point Sp12 in the second reduced reference image G12 and the coordinates of the processing target point Pp22 in the second reduced reference image G22 is the processing target image This corresponds to the parallax obtained by the paired corresponding point search process.

その次に、2層目の低解像度の画像の組を処理対象画像ペアとした対応点探索処理によって得られる視差が、次の処理対象画像ペアとしての1層目の低解像度の画像の組に対し、基準視差として仮に設定される。ここでは、1層目の解像度が2層目の解像度の2倍であるため、仮に視差を画素の座標のズレ量として取り扱えば、2層目に係る対応点探索処理で得られる視差に相当する画素の座標のズレ量の2倍が、1層目に設定される基準視差に相当する画素の座標のズレ量となる。   Next, the parallax obtained by the corresponding point search process using the pair of low-resolution images in the second layer as the processing target image pair becomes the pair of low-resolution images in the first layer as the next processing target image pair. On the other hand, it is temporarily set as the reference parallax. Here, since the resolution of the first layer is twice the resolution of the second layer, if the parallax is handled as a shift amount of the coordinate of the pixel, it corresponds to the parallax obtained by the corresponding point search process for the second layer. Twice the pixel coordinate shift amount is the pixel coordinate shift amount corresponding to the reference parallax set in the first layer.

例えば、図11で示されるように、第1縮小基準画像G11に対して基準点Sp1に対応する基準点Sp11が設定されるとともに、図12で示されるように、第1縮小参照画像G21に対して処理対象点Pp21が設定される。ここでは、第1縮小基準画像G11における基準点Sp11の座標と、第1縮小参照画像G21における処理対象点Pp21の座標とのズレ量が、2層目の低解像度の画像の組を処理対象画像ペアとした対応点探索処理によって得られる視差に相当する。   For example, as shown in FIG. 11, a reference point Sp11 corresponding to the reference point Sp1 is set for the first reduced reference image G11, and as shown in FIG. 12, for the first reduced reference image G21. The processing target point Pp21 is set. Here, a set of low-resolution images of the second layer in which the amount of deviation between the coordinates of the reference point Sp11 in the first reduced reference image G11 and the coordinates of the processing target point Pp21 in the first reduced reference image G21 is a processing target image. This corresponds to the parallax obtained by the paired corresponding point search process.

更にその次に、1層目の低解像度の画像の組を処理対象画像ペアとした対応点探索処理によって得られる視差が、次の処理対象画像ペアとしての基準画像G1と参照画像G2の組に対し、基準視差として仮に設定される。ここでは、基準画像G1と参照画像G2の解像度が1層目の解像度の2倍であるため、仮に視差を画素の座標のズレ量として取り扱えば、1層目に係る対応点探索処理で得られる視差に相当する画素の座標のズレ量の2倍が、基準画像G1と参照画像G2に設定される基準視差に相当する画素の座標のズレ量となる。   Further, the parallax obtained by the corresponding point search processing using the pair of low-resolution images in the first layer as the processing target image pair becomes the pair of the reference image G1 and the reference image G2 as the next processing target image pair. On the other hand, it is temporarily set as the reference parallax. Here, since the resolution of the standard image G1 and the reference image G2 is twice the resolution of the first layer, if the parallax is handled as a shift amount of the coordinate of the pixel, it can be obtained by the corresponding point search process for the first layer. Twice the displacement amount of the pixel coordinates corresponding to the parallax is the displacement amount of the pixel coordinates corresponding to the reference parallax set in the reference image G1 and the reference image G2.

例えば、図13で示されるように、基準画像G1に対して基準点Sp1が設定されるとともに、図14で示されるように、参照画像G2に対して処理対象点Pp2が設定される。ここでは、基準画像G1における基準点Sp1の座標と、参照画像G2における処理対象点Pp2の位置の座標とのズレ量が、1層目の低解像度の画像の組を処理対象画像ペアとした対応点探索処理によって得られる視差に相当する。   For example, as shown in FIG. 13, a reference point Sp1 is set for the reference image G1, and a processing target point Pp2 is set for the reference image G2, as shown in FIG. Here, the amount of deviation between the coordinates of the reference point Sp1 in the reference image G1 and the coordinates of the position of the processing target point Pp2 in the reference image G2 corresponds to a pair of low resolution images in the first layer as a processing target image pair. This corresponds to the parallax obtained by the point search process.

なお、ここでは、基準点Sp11,Sp12,Sp13が、基準点Sp1に対応する点であるとして説明したが、これは、基準点Sp1と、基準点Sp11,Sp12,Sp13とが、同じ被写体の部分を捉えた点であることを意味している。   Here, the reference points Sp11, Sp12, Sp13 have been described as corresponding to the reference point Sp1, but this is because the reference point Sp1 and the reference points Sp11, Sp12, Sp13 are portions of the same subject. It means that it is a point that captures.

具体的には、基準画像G1の外縁と基準点Sp1との相対的な位置関係と、第1縮小基準画像G11の外縁と基準点Sp11との相対的な位置関係と、第2縮小基準画像G12の外縁と基準点Sp12との相対的な位置関係と、第3縮小基準画像G13の外縁と基準点Sp13との相対的な位置関係とが略同一(好ましくは完全同一)であることを意味している。   Specifically, the relative positional relationship between the outer edge of the reference image G1 and the reference point Sp1, the relative positional relationship between the outer edge of the first reduced reference image G11 and the reference point Sp11, and the second reduced reference image G12. This means that the relative positional relationship between the outer edge of the third reference image Sp12 and the reference point Sp13 and the relative positional relationship between the outer edge of the third reduced reference image G13 and the reference point Sp13 are substantially the same (preferably completely the same). ing.

<(2-1-6)ウインドウ設定部>
ウインドウ設定部366は、各基準点Sp1,Sp11〜Sp13を中心として包含するウインドウ(以下「基準領域」とも称する)W1,W11〜W13をそれぞれ設定するとともに、各処理対象点Pp2,Pp21〜Pp23を中心として包含するウインドウ(以下「比較領域」とも称する)W2,W21〜W23をそれぞれ設定する。基準領域W1,W11〜W13および比較領域W2,W21〜W23は、同一サイズの正方形の画像領域であり、例えば、縦方向および横方向にそれぞれ32画素が配列されて構成される。
<(2-1-6) Window setting section>
The window setting unit 366 sets windows (hereinafter also referred to as “reference areas”) W1, W11 to W13 including the respective reference points Sp1, Sp11 to Sp13 as centers, and sets the processing target points Pp2, Pp21 to Pp23. Windows (hereinafter also referred to as “comparison areas”) W2, W21 to W23 included as centers are set. The reference areas W1, W11 to W13 and the comparison areas W2, W21 to W23 are square image areas of the same size, and are configured, for example, by arranging 32 pixels in the vertical direction and the horizontal direction, respectively.

具体的には、図15で示されるように、第3縮小基準画像G13に対して、基準点Sp13を中心として包含する基準領域W13が設定されるとともに、第3縮小参照画像G23に対して、処理対象点Pp23を中心として包含する比較領域W23が設定される。   Specifically, as shown in FIG. 15, a reference region W13 including the reference point Sp13 as a center is set for the third reduced reference image G13, and for the third reduced reference image G23, A comparison area W23 including the processing target point Pp23 as a center is set.

また、図16で示されるように、第2縮小基準画像G12に対して、基準点Sp12を中心として包含する基準領域W12が設定されるとともに、第2縮小参照画像G22に対して、処理対象点Pp22を中心として包含する比較領域W22が設定される。   Also, as shown in FIG. 16, a reference region W12 that includes the reference point Sp12 as a center is set for the second reduced reference image G12, and a processing target point for the second reduced reference image G22. A comparison area W22 including Pp22 as the center is set.

また、図17で示されるように、第1縮小基準画像G11に対して、基準点Sp11を中心として包含する基準領域W11が設定されるとともに、図18で示されるように、第1縮小参照画像G21に対して、処理対象点Pp21を中心として包含する比較領域W21が設定される。   In addition, as shown in FIG. 17, a reference region W11 including the reference point Sp11 as a center is set for the first reduced reference image G11, and as shown in FIG. 18, the first reduced reference image is set. For G21, a comparison region W21 including the processing target point Pp21 as a center is set.

更に、図19で示されるように、基準画像G1に対して、基準点Sp1を中心として包含する基準領域W1が設定されるとともに、図20で示されるように、参照画像G2に対して、処理対象点Pp2を中心として包含する比較領域W2が設定される。   Further, as shown in FIG. 19, a reference area W1 including the reference point Sp1 as a center is set for the reference image G1, and the reference image G2 is processed for the reference image G2 as shown in FIG. A comparison region W2 including the target point Pp2 as a center is set.

<(2-1-7)周波数解析部>
周波数解析部367は、画像を正弦波に係る周波数成分を示す情報に変換する処理(以下「変換処理」とも称する)を実行する。この変換処理は、各基準領域W1,W11〜W13に対して行われるとともに、各比較領域W2,W21〜W23に対して行われる。
<(2-1-7) Frequency analysis section>
The frequency analysis unit 367 performs a process of converting an image into information indicating a frequency component related to a sine wave (hereinafter also referred to as “conversion process”). This conversion process is performed for each of the reference areas W1, W11 to W13, and for each of the comparison areas W2, W21 to W23.

ここでは、周波数解析部367における変換処理が、各画像領域を対象とした公知のフーリエ変換によって実行されるものとする。ここでは、各基準領域W1,W11〜W13および各比較領域W2,W21〜W23ともに離散的に配列される各座標に対して画素値が与えられている離散関数を示すため、離散フーリエ変換が行われる。   Here, it is assumed that the conversion process in the frequency analysis unit 367 is executed by a known Fourier transform for each image region. Here, the discrete areas where the reference values W1, W11 to W13 and the comparison areas W2, W21 to W23 are discretely arranged are given discrete pixel functions, and the discrete Fourier transform is performed. Is called.

具体的には、変換部としての周波数解析部367によって、基準領域W13を対象とした2次元のフーリエ変換によって基準領域W13に係る正弦波の周波数成分を示す情報(以下「周波数成分情報」とも称する)が得られ、比較領域W23を対象とした2次元のフーリエ変換によって比較領域W23に係る周波数成分情報が得られる。また、基準領域W12を対象とした2次元のフーリエ変換によって基準領域W12に係る周波数成分情報が得られ、比較領域W22を対象とした2次元のフーリエ変換によって比較領域W22に係る周波数成分情報が得られる。   Specifically, information (hereinafter also referred to as “frequency component information”) indicating the frequency component of the sine wave related to the reference region W13 by two-dimensional Fourier transform for the reference region W13 by the frequency analysis unit 367 as a conversion unit. ) Is obtained, and frequency component information related to the comparison region W23 is obtained by two-dimensional Fourier transform for the comparison region W23. Further, the frequency component information related to the reference region W12 is obtained by the two-dimensional Fourier transform for the reference region W12, and the frequency component information related to the comparison region W22 is obtained by the two-dimensional Fourier transform for the comparison region W22. It is done.

また、基準領域W11を対象とした2次元のフーリエ変換によって基準領域W11に係る周波数成分情報が得られ、比較領域W21を対象とした2次元のフーリエ変換によって比較領域W21に係る周波数成分情報が得られる。更に、基準領域W1を対象とした2次元のフーリエ変換によって基準領域W1に係る周波数成分情報が得られ、比較領域W2を対象とした2次元のフーリエ変換によって比較領域W2に係る周波数成分情報が得られる。   Further, the frequency component information related to the reference region W11 is obtained by the two-dimensional Fourier transform for the reference region W11, and the frequency component information related to the comparison region W21 is obtained by the two-dimensional Fourier transform for the comparison region W21. It is done. Furthermore, frequency component information related to the reference region W1 is obtained by two-dimensional Fourier transform for the reference region W1, and frequency component information related to the comparison region W2 is obtained by two-dimensional Fourier transform for the comparison region W2. It is done.

なお、本実施形態では、2次元画像の周波数成分を取り扱うため、各周波数は、例えば、x方向に係る周波数uと、x方向に直交するy方向に係る周波数vとが合成された周波数となる。この合成された周波数は、周波数(u,v)で示される。また、周波数解析部367における変換処理については、所謂ウェーブレット変換等、その他の方法によって実行されても良い。   In the present embodiment, since the frequency component of the two-dimensional image is handled, each frequency is, for example, a frequency obtained by combining the frequency u in the x direction and the frequency v in the y direction orthogonal to the x direction. . This synthesized frequency is indicated by frequency (u, v). Further, the conversion processing in the frequency analysis unit 367 may be executed by other methods such as so-called wavelet conversion.

<(2-1-8)周波数成分制限部>
<(2-1-8-1)周波数成分の制限の概要>
周波数成分制限部368は、周波数解析部367で生成された周波数成分情報を所定の制限ルールに従って制限した上で、相関演算部369に対して出力する。これにより、相関演算部369における基準領域と比較領域との間における相関値を求める演算(以下「相関演算」とも称する)においては、周波数解析部367で生成された周波数成分情報のうちの一部の周波数成分情報については使用されず、残余の一部の周波数成分情報が選択的に使用されることになる。
<(2-1-8) Frequency component limiter>
<(2-1-8-1) Overview of frequency component restriction>
The frequency component restriction unit 368 restricts the frequency component information generated by the frequency analysis unit 367 according to a predetermined restriction rule, and then outputs the information to the correlation calculation unit 369. Thereby, in the calculation (hereinafter also referred to as “correlation calculation”) for obtaining the correlation value between the reference region and the comparison region in the correlation calculation unit 369, a part of the frequency component information generated by the frequency analysis unit 367. The remaining frequency component information is not used, and the remaining part of the frequency component information is selectively used.

具体的には、1つの基準点Sp1に対して、或る処理対象画像ペアを対象とした対応点探索処理の相関演算で得られる相関値の高低に応じて、該或る処理対象画像ペアよりも解像度が1段階高い処理対象画像ペアを対象とした対応点探索処理の相関演算で使用される周波数成分情報が制限される。   Specifically, with respect to one reference point Sp1, depending on the level of the correlation value obtained by the correlation calculation of the corresponding point search process for a certain processing target image pair, the certain processing target image pair However, the frequency component information used in the correlation calculation of the corresponding point search process for the processing target image pair whose resolution is one step higher is limited.

例えば、まず、第3層の基準領域W13と比較領域W23とに係る周波数成分情報に基づいて得られる基準領域W13と比較領域W23との間における相関値の高低に応じて、第2層の基準領域W12と比較領域W22とを対象とした相関演算において使用される周波数成分情報が制限される。   For example, first, according to the level of the correlation value between the reference region W13 and the comparison region W23 obtained based on the frequency component information related to the reference region W13 and the comparison region W23 of the third layer, the reference of the second layer Frequency component information used in the correlation calculation for the region W12 and the comparison region W22 is limited.

次に、第2層の基準領域W12と比較領域W22とに係る周波数成分情報に基づいて得られる基準領域W12と比較領域W22との間における相関値の高低に応じて、第1層の基準領域W11と比較領域W21とを対象とした相関演算において使用される周波数成分情報が制限される。   Next, according to the level of the correlation value between the reference region W12 and the comparison region W22 obtained based on the frequency component information related to the reference region W12 and the comparison region W22 of the second layer, the reference region of the first layer Frequency component information used in the correlation calculation for W11 and comparison region W21 is limited.

その次に、第1層の基準領域W11と比較領域W21とに係る周波数成分情報に基づいて得られる基準領域W11と比較領域W21との間における相関値の高低に応じて、基準領域W1と比較領域W2とを対象とした相関演算において使用される周波数成分情報が制限される。   Next, in comparison with the reference region W1 according to the level of the correlation value between the reference region W11 and the comparison region W21 obtained based on the frequency component information relating to the reference region W11 and the comparison region W21 of the first layer. Frequency component information used in the correlation calculation for the region W2 is limited.

詳細には、以下で説明される重み付け係数の決定により、相関演算部369における相関演算での使用が制限される周波数成分情報の周波数の範囲(以下「使用制限周波数範囲」とも称する)が設定される。   Specifically, by determining the weighting coefficient described below, a frequency range (hereinafter also referred to as “usage limited frequency range”) of frequency component information that is restricted for use in correlation calculation in the correlation calculation unit 369 is set. The

なお、以下では、或る解像度の処理対象画像ペアを基準として、解像度が1段階低い処理対象画像ペアを対象とした対応点探索処理を「前段の対応点探索処理」とも称する。また、或る解像度の処理対象画像ペアを基準として、解像度が1段階高い処理対象画像ペアを対象とした対応点探索処理を「次段の対応点探索処理」とも称する。   In the following description, the corresponding point search process for a processing target image pair whose resolution is lower by one level on the basis of a processing target image pair having a certain resolution is also referred to as a “preceding point corresponding point search process”. In addition, the corresponding point search process for a processing target image pair whose resolution is one step higher than a processing target image pair having a certain resolution is also referred to as a “next-stage corresponding point search process”.

ここで、重み付け係数の決定による使用制限周波数範囲の設定について説明する。   Here, the setting of the use limited frequency range by determining the weighting coefficient will be described.

或る対応点探索処理で得られる相関値が高い場合、次段の対応点探索処理における処理対象点の近傍に基準点に対応する対応点があると予測される。このような場合、この次段の対応点探索処理では、処理対象点からある程度離れた位置について対応点を探索する必要がない。   When the correlation value obtained by a certain corresponding point search process is high, it is predicted that there is a corresponding point corresponding to the reference point in the vicinity of the processing target point in the next corresponding point search process. In such a case, in the corresponding point search process in the next stage, there is no need to search for a corresponding point at a position that is somewhat distant from the processing target point.

なお、1つの処理対象画像ペアを成す基準領域と比較領域との間における画像のパターンの差が微小な場合、相対的に高い周波数(以下「高周波」と称する)の周波数成分よりも、相対的に低い周波数(以下「低周波」と称する)の周波数成分の方が、基準領域の周波数成分と比較領域の周波数成分との差が小さくなる。   Note that when the difference in image pattern between the reference region and the comparison region forming one processing target image pair is small, the relative frequency is higher than the frequency component of a relatively high frequency (hereinafter referred to as “high frequency”). The difference between the frequency component in the reference region and the frequency component in the comparison region is smaller for a frequency component having a lower frequency (hereinafter referred to as “low frequency”).

上記のことから、或る対応点探索処理の相関演算で得られる相関値が高い場合には、次段の対応点探索処理では処理対象点の近傍での対応点探索処理が高精度に行われれば良い。換言すれば、或る対応点探索処理で得られる相関値が高ければ高いほど、その次段の対応点探索処理における探索精度の確保に対する低周波の周波数成分の寄与度が低くなる。逆に、或る対応点探索処理で得られる相関値が低ければ低いほど、その次段の対応点探索処理における探索精度の確保に対する高周波の周波数成分の寄与度が低い。   From the above, when the correlation value obtained by the correlation calculation of a corresponding point search process is high, the corresponding point search process in the vicinity of the processing target point is performed with high accuracy in the next corresponding point search process. It ’s fine. In other words, the higher the correlation value obtained in a corresponding point search process, the lower the contribution of the low frequency frequency component to ensuring the search accuracy in the corresponding point search process at the next stage. Conversely, the lower the correlation value obtained in a corresponding point search process, the lower the contribution of high frequency frequency components to ensuring the search accuracy in the corresponding point search process at the next stage.

そこで、或る対応点探索処理では、その前段の対応点探索処理で得られる相関値が高ければ、周波数成分制限部368によって、低周波の周波数成分に対する重み付けが低減される。逆に、その前段の対応点探索処理で得られる相関値が低ければ、周波数成分制限部368によって、高周波の周波数成分に対する重み付けが低減される。   Therefore, in a corresponding point search process, if the correlation value obtained in the preceding corresponding point search process is high, the frequency component limiting unit 368 reduces the weighting of the low frequency frequency component. Conversely, if the correlation value obtained by the corresponding point search process in the preceding stage is low, the frequency component limiting unit 368 reduces the weighting for the high frequency component.

詳細には、前段の対応点探索処理で得られる相関値が大きくなるに従って、周波数解析部367で得られる各周波数に係る周波数成分情報のうちの最も低周波側からより広範囲の周波数に係る周波数成分情報の使用が制限されるように使用制限周波数範囲が設定される。これにより、演算量の低減による探索速度の向上が図られ、対応点探索処理における精度の維持と速度の向上とが両立する。   Specifically, as the correlation value obtained in the corresponding point search process in the previous stage increases, the frequency component related to a wider range of frequencies from the lowest frequency side among the frequency component information related to each frequency obtained by the frequency analysis unit 367. The use restricted frequency range is set so that the use of information is restricted. As a result, the search speed is improved by reducing the amount of calculation, and both the maintenance of accuracy and the speed improvement in the corresponding point search process are achieved.

一方、前段の対応点探索処理で得られた相関値が小さくなるに従って、周波数解析部367で得られる各周波数に係る周波数成分情報のうちの最も高周波側からより広範囲の周波数に係る周波数成分情報の使用が制限されるように使用制限周波数範囲が設定される。これにより、演算量の低減による探索速度の向上が図られ、対応点探索処理における精度の維持と速度の向上とが両立する。   On the other hand, as the correlation value obtained in the corresponding point search process in the previous stage becomes smaller, the frequency component information related to a wider range of frequencies from the highest frequency side among the frequency component information related to each frequency obtained by the frequency analysis unit 367. The limited use frequency range is set so that the use is limited. As a result, the search speed is improved by reducing the amount of calculation, and both the maintenance of accuracy and the speed improvement in the corresponding point search process are achieved.

<(2-1-8-2)周波数成分の制限方法の具体例>
次に、周波数成分制限部368における周波数成分の制限方法の具体例を説明する。
<(2-1-8-2) Specific example of frequency component limiting method>
Next, a specific example of the frequency component limiting method in the frequency component limiting unit 368 will be described.

ここでは、前段の対応点の探索処理で得られる相関値の最大値(以下「ピーク相関値」とも称する)Cmaxごとに、周波数と重み付け係数との関係(すなわち重み付けルール)を示す情報が、記憶部34等に予め記憶されている。そして、この情報が参照されつつ、周波数成分制限部368における処理が実施される。 Here, for each maximum value of correlation values (hereinafter also referred to as “peak correlation values”) C max obtained by the corresponding point search process in the preceding stage, information indicating the relationship between the frequency and the weighting coefficient (that is, the weighting rule) is: Prestored in the storage unit 34 or the like. Then, the processing in the frequency component limiter 368 is performed while referring to this information.

周波数成分制限部368では、次の処理(i)〜(iii)がこの順番で行われる。   In the frequency component limiting unit 368, the following processes (i) to (iii) are performed in this order.

(i)相関演算部369における前段の対応点探索処理で得られるピーク相関値Cmaxに応じて、該ピーク相関値Cmaxに対応する重み付けルールが採用される。 (i) A weighting rule corresponding to the peak correlation value C max is adopted according to the peak correlation value C max obtained by the corresponding point search processing in the preceding stage in the correlation calculation unit 369.

(ii)処理(i)で採用された重み付けルールに従って各周波数に係る周波数成分(具体的には振幅情報)に対して重み付け係数が乗じられる。   (ii) A frequency coefficient (specifically amplitude information) related to each frequency is multiplied by a weighting coefficient in accordance with the weighting rule adopted in the process (i).

(iii)処理(ii)で振幅情報に対して重み付け係数が乗ぜられた後の各周波数に係る周波数成分を示す周波数成分情報が、相関演算部369に対して出力される。   (iii) Frequency component information indicating the frequency component related to each frequency after the weighting coefficient is multiplied to the amplitude information in the process (ii) is output to the correlation calculation unit 369.

このような流れで、周波数成分制限部368では、周波数解析部367で生成された周波数成分情報が、前段の相関演算で得られるピーク相関値Cmaxに応じた重み付けルールに従って制限される。 In such a flow, the frequency component restriction unit 368 restricts the frequency component information generated by the frequency analysis unit 367 according to the weighting rule according to the peak correlation value C max obtained by the previous correlation calculation.

図21は、或るピーク相関値Cmaxに対して設定される周波数と重み付け係数との関係(すなわち、重み付けルール)を例示する図である。 FIG. 21 is a diagram illustrating the relationship between the frequency set for a certain peak correlation value C max and the weighting coefficient (that is, the weighting rule).

図21では、縦軸が重み付け係数の大小を示し、横軸が周波数の大小を示す。また、太い破線の曲線LL1が、低周波の周波数成分が重視される重み付けのルール(以下「低周波重視型ルール」とも称する)についての周波数と重み付け係数との関係を示す。更に、太線で示される階段状の複数の線分LH1が、高周波の周波数成分が重視される重み付けのルール(以下「高周波重視型ルール」とも称する)についての周波数と重み付け係数との関係を示す。   In FIG. 21, the vertical axis indicates the weighting coefficient, and the horizontal axis indicates the frequency. A thick dashed curve LL1 indicates the relationship between the frequency and the weighting coefficient for a weighting rule (hereinafter also referred to as “low frequency emphasis type rule”) in which low frequency frequency components are emphasized. Furthermore, a plurality of step-like line segments LH1 indicated by bold lines indicate the relationship between the frequency and the weighting coefficient for a weighting rule in which high frequency components are important (hereinafter also referred to as “high frequency priority rule”).

図21で示されるような重み付けルールに従った周波数成分に対する重み付けの処理では、離散的な各周波数に対して、低周波重視型ルールの重み付け係数WLOWと高周波重視型ルールの重み付け係数WHIGHのうち、相対的に低い重み付け係数が採用される。 In the weighting process for the frequency component according to the weighting rule as shown in FIG. 21, the weighting coefficient W LOW of the low frequency emphasis type rule and the weighting coefficient W HIGH of the high frequency emphasis type rule are set for each discrete frequency. Of these, a relatively low weighting factor is employed.

例えば、ここで、離散的な周波数をi(i=0〜imax)、ピーク相関値Cmaxと周波数iとの双方に対応する低周波重視型ルールの重み付け係数をWLOW(i,Cmax)、ピーク相関値Cmaxと周波数iとの双方に対応する高周波重視型ルールの重み付け係数をWHIGH(i,Cmax)とする。また、周波数iの振幅をfiとする。 For example, here, the discrete frequency is i (i = 0 to i max ), and the low-frequency weighted rule weighting coefficient corresponding to both the peak correlation value C max and the frequency i is W LOW (i, C max ), And let W HIGH (i, C max ) be the weighting coefficient of the high-frequency emphasis type rule corresponding to both the peak correlation value C max and the frequency i. In addition, the amplitude of the frequency i and f i.

この場合、下式(1)の関係を満たす周波数iに対して、低周波重視型ルールの重み付け係数WLOW(i,Cmax)が採用され、下式(2)で示されるように、振幅fiに低周波重視型ルールの重み付け係数WLOW(i,Cmax)が乗ぜられた値が、重み付け後の振幅fiAFTERとなる。 In this case, the weighting coefficient W LOW (i, C max ) of the low-frequency emphasis type rule is adopted for the frequency i satisfying the relationship of the following equation (1), and the amplitude is expressed as shown in the following equation (2). A value obtained by multiplying f i by the weighting coefficient W LOW (i, C max ) of the low frequency emphasis type rule becomes the weighted amplitude f iAFTER .

LOW(i,Cmax)<WHIGH(i,Cmax) ・・・(1)
iAFTER=WLOW(i,Cmax)×fi ・・・(2)
W LOW (i, C max ) <W HIGH (i, C max ) (1)
f iAFTER = W LOW (i, C max ) × f i (2)

一方、上式(1)の関係を満たさない周波数iに対しては、高周波重視型ルールの重み付け係数WHIGH(i,Cmax)が採用され、下式(3)で示されるように、振幅fiに高周波重視型ルールの重み付け係数WHIGH(i,Cmax)が乗ぜられた値が、重み付け後の振幅fiAFTERとなる。 On the other hand, for the frequency i that does not satisfy the relationship of the above formula (1), the weighting coefficient W HIGH (i, C max ) of the high frequency emphasis type rule is adopted, and as shown by the following formula (3), the amplitude A value obtained by multiplying f i by the weighting coefficient W HIGH (i, C max ) of the high-frequency-oriented rule is the weighted amplitude f iAFTER .

iAFTER=WHIGH(i,Cmax)×fi ・・・(3) f iAFTER = W HIGH (i, C max ) × f i (3)

ここでは、図21で示されるように、最も低周波側からある程度の周波数の範囲(以下「低周波側制限範囲」とも称する)RL1において、重み付け係数がゼロになるとともに、最も高周波側からある程度の周波数の範囲(以下「高周波側制限範囲」とも称する)RH1において、重み付け係数がゼロになる。そして、振幅fiにゼロの重み付け係数が乗ぜられれば、振幅fiAFTERがゼロになるため、その振幅fiAFTERを含む周波数成分は、実体を失うことになる。 Here, as shown in FIG. 21, the weighting coefficient becomes zero and a certain amount from the highest frequency side in a certain frequency range from the lowest frequency side (hereinafter also referred to as “low frequency side limited range”) RL1. In the frequency range (hereinafter also referred to as “high frequency side limited range”) RH1, the weighting coefficient becomes zero. Then, if the amplitude f i is multiplied by a zero weighting coefficient, the amplitude f iAFTER becomes zero, and the frequency component including the amplitude f iAFTER loses its substance.

このため、重み付け係数によって、低周波側制限範囲RL1の周波数に係る周波数成分情報を相関演算で使用することが制限されるとともに、高周波側制限範囲RH1の周波数に係る周波数成分情報を相関演算で使用することが制限される。よって、ここでは、低周波側制限範囲RL1および高周波側制限範囲RH1が、使用制限周波数範囲に相当する。   For this reason, the use of the frequency component information related to the frequency in the low frequency side restriction range RL1 in the correlation calculation is restricted by the weighting coefficient, and the frequency component information related to the frequency in the high frequency side restriction range RH1 is used in the correlation calculation. To be restricted. Therefore, here, the low frequency side limit range RL1 and the high frequency side limit range RH1 correspond to the use limit frequency range.

また、ここでは、前段の相関演算で得られるピーク相関値Cmaxが大ければ大きいほど、低周波側制限範囲RL1が拡げられ、該ピーク相関値Cmaxが小さければ小さいほど、高周波側制限範囲RH1が拡げられるように使用制限周波数範囲が設定される。 Further, here, the larger the peak correlation value C max obtained by the correlation calculation in the previous stage is, the wider the low frequency side limit range RL1 is. The smaller the peak correlation value C max is, the higher the frequency side limit range is. The limited use frequency range is set so that RH1 is expanded.

図22は、図21で示される重み付けルールと比較して、低周波側制限範囲RL1が拡げられるとともに高周波側制限範囲RH1が狭められた重み付けルールを示す図である。図22で示される重み付けルールは、図21で示される重み付けルールよりも、前段の相関演算で得られるピーク相関値Cmaxが大きい場合の重み付けルールに相当する。 FIG. 22 is a diagram showing a weighting rule in which the low frequency side limit range RL1 is expanded and the high frequency side limit range RH1 is narrowed compared to the weighting rule shown in FIG. The weighting rule shown in FIG. 22 corresponds to the weighting rule in the case where the peak correlation value C max obtained by the previous correlation calculation is larger than the weighting rule shown in FIG.

なお、重み付け係数WLOW(i,Cmax),WHIGH(i,Cmax)とピーク相関値Cmaxとの関係は、テーブルの形式や定式化された関係式の形式で記憶部34に記憶されるような態様が考えられる。 Note that the relationship between the weighting factors W LOW (i, C max ), W HIGH (i, C max ) and the peak correlation value C max is stored in the storage unit 34 in the form of a table or a formulated relational expression. Such an embodiment is conceivable.

また、周波数iと重み付け係数WLOW(i,Cmax),WHIGH(i,Cmax)との関係については、図21の太い破線で描かれる曲線LL1のように、周波数iの変化とともに重み付け係数WLOW(i,Cmax),WHIGH(i,Cmax)が連続的に変化するものであっても良いし、図21の太線で描かれる階段状の複数の線分LH1のように、周波数iの変化ととともに、離散的な閾値を超える度に重み付け係数WLOW(i,Cmax),WHIGH(i,Cmax)が段階的に変化するような関係であっても良い。 Further, the relationship between the frequency i and the weighting factors W LOW (i, C max ), W HIGH (i, C max ) is weighted with the change of the frequency i as shown by the curve LL1 drawn by the thick broken line in FIG. The coefficients W LOW (i, C max ) and W HIGH (i, C max ) may be continuously changed, or like a plurality of step-like line segments LH 1 drawn by bold lines in FIG. A relationship in which the weighting coefficients W LOW (i, C max ) and W HIGH (i, C max ) change stepwise every time the discrete threshold value is exceeded along with the change in the frequency i may be used.

また、各周波数iについて、相関値(ここでは、ピーク相関値Cmax)と重み付け係数との関係が設定されており、前段で求められる相関値(ここでは、ピーク相関値Cmax)に応じて、各周波数iに対する重み付け係数が一義的に決まっても良い。なお、相関値と重み付け係数との関係としては、直線的な関係(図23)、曲線的な関係(図24)、相関値が閾値に到達する度に重み付け係数が段階的に切り替わるような関係(図25)のうちの何れであっても良い。 For each frequency i, the relationship between the correlation value (here, the peak correlation value C max ) and the weighting coefficient is set, and according to the correlation value (here, the peak correlation value C max ) obtained in the previous stage. The weighting coefficient for each frequency i may be uniquely determined. The relationship between the correlation value and the weighting coefficient includes a linear relationship (FIG. 23), a curvilinear relationship (FIG. 24), and a relationship in which the weighting coefficient is switched step by step every time the correlation value reaches the threshold value. Any of (FIG. 25) may be sufficient.

<(2-1-8-3)周波数成分制限部からの出力>
周波数成分制限部368では、周波数解析部367で算出された周波数成分について、周波数iごとに設定される重み付け係数が振幅に乗ぜられ、重み付け後の周波数成分を示す周波数成分情報が、相関演算部369に対して出力される。つまり、周波数iごとに、上式(2),(3)で示されるような重み付け後の振幅fiAFTERの振幅情報を含む周波数成分情報が出力される。
<(2-1-8-3) Output from frequency component limiter>
In the frequency component limiting unit 368, the frequency component calculated by the frequency analysis unit 367 is multiplied by the weighting coefficient set for each frequency i, and the frequency component information indicating the weighted frequency component is obtained as the correlation calculation unit 369. Is output for. That is, for each frequency i, frequency component information including amplitude information of the weighted amplitude fiAFTER as represented by the above equations (2) and (3) is output.

このとき、周波数iの振幅fiに対してゼロの重み付け係数が乗ぜられていれば、振幅fiAFTERがゼロとなり、周波数成分の実体が失われるため、その周波数iについての周波数成分情報は出力されないことになる。 At this time, if a zero weighting coefficient is multiplied to the amplitude f i of the frequency i, the amplitude f iAFTER becomes zero, and the substance of the frequency component is lost, so the frequency component information for the frequency i is not output. It will be.

これにより、周波数解析部367で生成される周波数成分情報のうちの一部の周波数成分情報が相関演算部369における相関演算で使用されないように、周波数成分情報が制限される。   As a result, the frequency component information is limited so that part of the frequency component information generated by the frequency analysis unit 367 is not used in the correlation calculation in the correlation calculation unit 369.

なお、前段の相関値が得られていない場合、すなわち最下層(3層目)の低解像度の画像の組(具体的には、第3縮小基準画像G13と第3縮小参照画像G23)が、処理対象画像ペアとして指定されている場合には、周波数成分制限部368における周波数成分情報の制限は行われない。つまり、周波数解析部367における変換処理によって得られた周波数成分情報が、相関演算部369に対してそのまま出力される。   When the correlation value of the previous stage is not obtained, that is, a set of low resolution images (specifically, the third reduced reference image G13 and the third reduced reference image G23) in the lowest layer (third layer) When the processing target image pair is designated, the frequency component restriction unit 368 does not restrict the frequency component information. That is, the frequency component information obtained by the conversion process in the frequency analysis unit 367 is output to the correlation calculation unit 369 as it is.

<(2-1-9)相関演算部>
相関演算部369は、周波数成分制限部368から出力される基準領域に係る周波数成分情報と比較領域に係る周波数成分情報とに基づいて、基準領域と比較領域との間における相関値を算出する。つまり、相関演算部369では、周波数成分制限部368において重み付け係数の乗算によって制限された周波数成分情報が用いられて、基準領域と比較領域との間における相関値が算出される。
<(2-1-9) Correlation calculator>
The correlation calculation unit 369 calculates a correlation value between the reference region and the comparison region based on the frequency component information related to the reference region and the frequency component information related to the comparison region output from the frequency component restriction unit 368. That is, in the correlation calculation unit 369, the correlation value between the reference region and the comparison region is calculated using the frequency component information limited by the multiplication of the weighting coefficient in the frequency component limiting unit 368.

そして、相関演算部369では、各基準点Sp1について、第3層の基準領域W13と比較領域W23との間における相関値、第2層の基準領域W12と比較領域W22との間における相関値、第1層の基準領域W11と比較領域W21との間における相関値、および基準領域W1と比較領域W2との間における相関値が順次に算出される。   Then, in the correlation calculation unit 369, for each reference point Sp1, the correlation value between the reference region W13 of the third layer and the comparison region W23, the correlation value between the reference region W12 of the second layer and the comparison region W22, A correlation value between the reference region W11 and the comparison region W21 of the first layer and a correlation value between the reference region W1 and the comparison region W2 are sequentially calculated.

相関演算部369における相関値を算出する相関演算の方法としては、例えば、上記非特許文献1で提案されている方法「Phase-Differnce Spectrum Analysis(PSA法)」の採用が可能である。   As a correlation calculation method for calculating a correlation value in the correlation calculation unit 369, for example, the method “Phase-Differnce Spectrum Analysis (PSA method)” proposed in Non-Patent Document 1 can be adopted.

以下、PSA法を用いた相関演算の方法について説明する。   Hereinafter, a correlation calculation method using the PSA method will be described.

ここでは、相関演算の対象となっている基準領域と比較領域との組について、該基準領域と比較領域との間における周波数(u,v)の正弦波についての位相の差(位相差)がΔθ(u,v)とされ、基準領域における基準点の位置と比較領域における対応点の位置との間におけるX方向およびY方向におけるズレ量(視差)がdxおよびdyとされる。そして、相関演算の対象となっている矩形状の基準領域と比較領域を構成するX方向およびY方向の画素数がそれぞれMおよびNとされると、下式(4)の関係が成立する。   Here, with respect to the set of the reference region and the comparison region that are the objects of the correlation calculation, the phase difference (phase difference) of the sine wave of the frequency (u, v) between the reference region and the comparison region is Δθ (u, v) is set, and the amounts of shift (parallax) in the X direction and Y direction between the position of the reference point in the reference area and the position of the corresponding point in the comparison area are dx and dy. Then, when the number of pixels in the X direction and the Y direction constituting the rectangular reference region and the comparison region that are subject to correlation calculation is M and N, respectively, the relationship of the following expression (4) is established.

dy=−(N/M)×(u/v)×dx+(N/2π)×Δθ(u,v)/v ・・・(4)     dy = − (N / M) × (u / v) × dx + (N / 2π) × Δθ (u, v) / v (4)

上式(4)のうち、基準領域と比較領域のサイズを示す値M,Nは設計によって定まり、各周波数(u,v)に対する位相差Δθ(u,v)は、周波数成分制限部368から入力される周波数成分情報によって得られる。このため、上式(4)に対して、設計値である値M,Nが代入されるとともに、周波数(u,v)毎に位相差Δθ(u,v)が代入されることで、各周波数(u,v)についての視差dxと視差dyとの関係を示す一次関数(以下「視差一次関数」とも称する)が得られる。   In the above equation (4), values M and N indicating the sizes of the reference region and the comparison region are determined by design, and the phase difference Δθ (u, v) for each frequency (u, v) is obtained from the frequency component limiter 368. It is obtained from input frequency component information. For this reason, design values M and N are substituted into the above equation (4), and the phase difference Δθ (u, v) is substituted for each frequency (u, v). A linear function (hereinafter also referred to as “parallax linear function”) indicating the relationship between the parallax dx and the parallax dy with respect to the frequency (u, v) is obtained.

このため、PSA法を用いた相関演算では、次の工程(A),(B)がこの順番で順次に行われることで、基準領域と比較領域との間における相関値(ここでは、ピーク相関値Cmax)が得られる。 For this reason, in the correlation calculation using the PSA method, the following steps (A) and (B) are sequentially performed in this order, so that a correlation value (here, peak correlation) between the reference region and the comparison region is obtained. Value C max ) is obtained.

(A)上式(4)に従って、周波数(u,v)毎に、位相差Δθ(u,v)が、基準点と対応点とに係る視差(dx,dy)に変換されて、視差一次関数が得られる。   (A) According to the above equation (4), for each frequency (u, v), the phase difference Δθ (u, v) is converted into the parallax (dx, dy) related to the reference point and the corresponding point, and the parallax primary A function is obtained.

(B)工程(A)で得られる各周波数(u,v)の視差一次関数に基づいて、視差dxを横軸、視差dyを縦軸とする所定サイズの空間(以下「投票空間」とも称する)の各座標に対する投票が行われる。これにより、投票空間の各座標に対する投票数の積算値の分布が得られる。このとき、投票数の積算値の最大値がピーク相関値Cmaxとして得られる。 (B) Based on the parallax linear function of each frequency (u, v) obtained in step (A), a space of a predetermined size (hereinafter also referred to as “voting space”) with parallax dx as the horizontal axis and parallax dy as the vertical axis. ) Is voted for each coordinate. Thereby, the distribution of the integrated value of the number of votes for each coordinate of the voting space is obtained. At this time, the maximum value of the integrated value of the number of votes is obtained as the peak correlation value Cmax .

ここで、投票空間の各座標に対する投票について説明する。   Here, voting for each coordinate in the voting space will be described.

図26は、投票空間D369を例示する模式図である。   FIG. 26 is a schematic diagram illustrating a voting space D369.

図26で示されるように、投票空間D369は、縦軸と横軸とが直交する2次元の空間座標系によって構成され、その横軸は視差dxを示し、縦軸は視差dyを示す。投票空間D369のサイズは、扱われる周波数(u,v)の数や対応点を探索する対象となる領域の大きさに応じて決められれば良い。   As illustrated in FIG. 26, the voting space D369 is configured by a two-dimensional spatial coordinate system in which the vertical axis and the horizontal axis are orthogonal to each other, the horizontal axis indicates the parallax dx, and the vertical axis indicates the parallax dy. The size of the voting space D369 may be determined according to the number of frequencies (u, v) to be handled and the size of the area to be searched for corresponding points.

また、例えば、視差(dx,dy)を±1画素の範囲で0.1画素刻みで探索する場合、投票空間D369には、原点(0,0)を含む0.1画素刻みの投票可能な座標のポイント(以下「投票可能座標ポイント」とも称する)が設定される。具体的には、図26で示されるように、縦方向(dy方向)に21箇所および横方向(dx方向)に21箇所の投票可能座標ポイントがマトリックス状に設けられる。なお、図26では、各投票可能座標ポイントが、模式的に正方形の領域で示されている。   Further, for example, when searching for parallax (dx, dy) within a range of ± 1 pixel in increments of 0.1 pixels, the voting space D369 can be voted in increments of 0.1 pixels including the origin (0, 0). A coordinate point (hereinafter also referred to as “votable coordinate point”) is set. Specifically, as shown in FIG. 26, 21 voting possible coordinate points are provided in a matrix in the vertical direction (dy direction) and 21 in the horizontal direction (dx direction). In FIG. 26, each voteable coordinate point is schematically shown as a square area.

図27および図28は、投票空間D369への投票方法を説明するための図である。   27 and 28 are diagrams for explaining a voting method for the voting space D369.

図27で示されるように、各周波数(u,v)について、投票空間D369に、視差一次関数で示される直線(図中太線)が引かれる。そして、各周波数(u,v)について、投票空間D369を構成する多数の投票可能座標ポイントのうち、視差一次関数に係る直線が通る全ての投票可能座標ポイントに対して、投票値が与えられる。例えば、図27で示される視差一次関数に係る直線に対しては、図28で示されるような複数の投票可能座標ポイントに対して投票値が与えられる。   As shown in FIG. 27, for each frequency (u, v), a straight line (thick line in the figure) indicated by the parallax linear function is drawn in the voting space D369. For each frequency (u, v), voting values are given to all voting possible coordinate points through which a straight line related to the parallax linear function passes among a large number of voting possible coordinate points constituting the voting space D369. For example, for a straight line related to the parallax linear function shown in FIG. 27, voting values are given to a plurality of voting possible coordinate points as shown in FIG.

各周波数(u,v)について、投票可能座標ポイントに対して投票値が与えられる際には、振幅の大小に応じた投票値が与えられる。具体的には、振幅の増大に応じて、投票値が大きくなるようにすれば良い。例えば、振幅が増大すれば増大するほど、投票値が大きくなるような態様であっても良いし、振幅に対して1以上の閾値を設け、振幅が増大する際に閾値を超える度に投票値が、1、2、3、・・・と段階的に増加するような態様であっても良い。   For each frequency (u, v), when a voting value is given to a voting possible coordinate point, a voting value corresponding to the magnitude of the amplitude is given. Specifically, the vote value may be increased as the amplitude increases. For example, the voting value may be increased as the amplitude increases, or a threshold value of 1 or more is provided for the amplitude, and the voting value every time the threshold is exceeded when the amplitude increases. However, the aspect which increases in steps with 1, 2, 3, ... may be sufficient.

そして、各周波数(u,v)について、投票空間D369への投票値の付与(すなわち投票)が順次に行われることで、投票可能座標ポイント毎に、投票値が積算される。このとき、重み付けによって振幅がゼロとなった周波数(u,v)に係る周波数成分情報については、投票空間D369への投票値の付与には利用されない。つまり、或る解像度の基準領域と比較領域との間における相関を示す相関値の算出は、その解像度の基準領域と比較領域の周波数成分情報のうち、前段のピーク相関値Cmaxに応じて設定される使用制限周波数範囲に属しない周波数の周波数成分情報に基づいて行われる。 Then, for each frequency (u, v), voting values are added to the voting space D369 (ie, voting) sequentially, so that the voting values are integrated for each voteable coordinate point. At this time, the frequency component information related to the frequency (u, v) whose amplitude becomes zero by weighting is not used for assigning a vote value to the vote space D369. That is, the calculation of the correlation value indicating the correlation between the reference area and the comparison area of a certain resolution is set according to the peak correlation value C max in the previous stage among the frequency component information of the reference area and the comparison area of the resolution. This is performed based on frequency component information of a frequency that does not belong to the use limited frequency range.

このような投票値の付与によって、投票空間D369における投票値の積算値(以下「投票積算値」とも称する)の分布が得られる。ここで得られる投票積算値の分布が、基準画像と参照画像との間における相関を示しており、最大の投票積算値が、ピーク相関値Cmaxとなる。なお、視差一次関数に係る直線が頻繁に交わる点の近傍の投票可能座標ポイントに付与される投票積算値が、ピーク相関値Cmaxとなる。 By providing such voting values, a distribution of voting value integrated values (hereinafter also referred to as “voting integrated values”) in the voting space D369 is obtained. The distribution of vote integrated values obtained here indicates the correlation between the base image and the reference image, and the maximum vote integrated value is the peak correlation value C max . In addition, the voting integrated value given to the voteable coordinate point near the point where the straight lines related to the parallax linear function frequently intersect is the peak correlation value Cmax .

相関演算部369では、投票空間D369における投票積算値の分布を示す情報が、対応点決定部370に対して出力されるとともに、ピーク相関値Cmaxを示す情報が、周波数成分制限部368に対して出力される。 In the correlation calculation unit 369, information indicating the distribution of vote integrated values in the voting space D369 is output to the corresponding point determination unit 370, and information indicating the peak correlation value C max is output to the frequency component restriction unit 368. Is output.

<(2-1-10)対応点決定部>
対応点決定部370は、各解像度の基準領域と比較領域の組に対し、相関演算部369で得られた投票積算値の分布を示す情報に基づいて、基準領域における基準点と比較領域における対応点とのズレ量(視差)を導出する。具体的には、投票積算値の分布のうち、最大の投票積算値すなわちピーク相関値Cmaxに対応する視差(dx,dy)が導出される。そして、対応点決定部370は、各基準点Sp11〜Sp13に対応する対応点を認識するとともに、基準領域W1と比較領域W2との間における視差(dx,dy)に基づいて、各基準点Sp1に対応する参照画像G2上の対応点を決定する。
<(2-1-10) Corresponding point determination unit>
Corresponding point determination unit 370 corresponds to the reference point in the reference region and the comparison region based on the information indicating the distribution of vote integrated values obtained by correlation calculation unit 369 for the pair of the reference region and the comparison region of each resolution. The amount of deviation (parallax) from the point is derived. Specifically, the parallax (dx, dy) corresponding to the maximum vote integrated value, that is, the peak correlation value C max in the distribution of vote integrated values is derived. Then, the corresponding point determination unit 370 recognizes corresponding points corresponding to the respective reference points Sp11 to Sp13, and each reference point Sp1 based on the parallax (dx, dy) between the reference region W1 and the comparison region W2. The corresponding point on the reference image G2 corresponding to is determined.

例えば、3層目(最下層)の低解像度に係る基準領域W13と比較領域W23との間における視差が導出される。また、2層目の低解像度に係る基準領域W12と比較領域W22との間における視差が導出される。更に、1層目の低解像度に係る基準領域W11と比較領域W21との間における視差が導出される。そして、基準領域W1と比較領域W2との間における視差が導出される。このとき、基準点Sp1に対応する参照画像G2上の対応点が決定される。   For example, the parallax between the reference area W13 and the comparison area W23 related to the low resolution of the third layer (lowermost layer) is derived. Further, the parallax between the reference area W12 and the comparison area W22 related to the low resolution of the second layer is derived. Further, the parallax between the reference area W11 and the comparison area W21 related to the low resolution of the first layer is derived. Then, the parallax between the reference area W1 and the comparison area W2 is derived. At this time, a corresponding point on the reference image G2 corresponding to the reference point Sp1 is determined.

そして、ここでは、ピーク相関値Cmaxは、各解像度について、基準点とピーク相関値Cmaxが得られた対応点との相関を示す相関値に相当する。 Here, the peak correlation value C max corresponds to a correlation value indicating the correlation between the reference point and the corresponding point from which the peak correlation value C max is obtained for each resolution.

なお、対応点決定部370で導出される視差は、次段の基準視差を設定するために基準視差設定部365に対して適宜出力される。また、対応点決定部370において視差が導出されたことに応答して、画像指定部364および探索基準点設定部363に対して信号が送出される。   Note that the parallax derived by the corresponding point determination unit 370 is appropriately output to the reference parallax setting unit 365 in order to set the next-stage reference parallax. Further, in response to the parallax being derived by the corresponding point determination unit 370, a signal is transmitted to the image designation unit 364 and the search reference point setting unit 363.

<(3)対応点探索動作のフロー>
図29から図31は、情報処理システム1Aにおいて実現される対応点探索動作のフローを例示するフローチャートである。例えば、ユーザーによる操作部31に対する操作に応じて、本動作フローが開始されて、図29のステップST1に進む。
<(3) Corresponding point search operation flow>
FIGS. 29 to 31 are flowcharts illustrating the flow of corresponding point search operations realized in the information processing system 1A. For example, this operation flow is started in response to an operation on the operation unit 31 by the user, and the process proceeds to step ST1 in FIG.

ステップST1では、画像取得部361によって、基準画像G1と参照画像G2とからなるステレオ画像が取得される。   In step ST1, the image acquisition unit 361 acquires a stereo image composed of the base image G1 and the reference image G2.

ステップST2では、解像度変換部362によって、基準画像G1と参照画像G2とに対して解像度の変換処理が行われる。具体的には、基準画像G1から解像度を低下させた第1〜3縮小基準画像G11〜G13が生成されるとともに、参照画像G2から解像度を低下させた第1〜3縮小参照画像G21〜G23が生成される。   In step ST2, the resolution conversion unit 362 performs resolution conversion processing on the standard image G1 and the reference image G2. Specifically, first to third reduced reference images G11 to G13 with a reduced resolution are generated from the reference image G1, and first to third reduced reference images G21 to G23 with a reduced resolution are generated from the reference image G2. Generated.

ステップST3では、探索基準点設定部363によって、基準画像G1に対して基準点Sp1が設定される。なお、ステップST3では、1つの基準点Sp1に対して参照画像G2から対応点が検出される度に、後述される図31のステップST22から戻って来て、新たな基準点Sp1が設定される。   In step ST3, the reference point Sp1 is set for the reference image G1 by the search reference point setting unit 363. In step ST3, every time a corresponding point is detected from the reference image G2 for one reference point Sp1, the process returns from step ST22 of FIG. 31 described later, and a new reference point Sp1 is set. .

ステップST4では、画像指定部364によって、最下層(3層目)の低解像度の画像の組(具体的には、第3縮小基準画像G13と第3縮小参照画像G23)が、処理対象画像ペアとして指定される。   In step ST4, the image specifying unit 364 converts the lower-layer (third layer) low-resolution image set (specifically, the third reduced reference image G13 and the third reduced reference image G23) into a processing target image pair. Specified as

ステップST5では、基準視差設定部365によって、第3縮小基準画像G13上に基準点Sp1に対応する基準点Sp13が設定されるとともに、第3縮小参照画像G23上に処理対象点Pp23が設定される。すなわち、ステップST4で指定された処理対象画像ペアに対して、基準視差の初期値が設定される。   In step ST5, the reference parallax setting unit 365 sets a reference point Sp13 corresponding to the reference point Sp1 on the third reduced reference image G13, and sets a processing target point Pp23 on the third reduced reference image G23. . That is, the initial value of the reference parallax is set for the processing target image pair specified in step ST4.

ステップST6では、ウインドウ設定部366によって、第3縮小基準画像G13に対して、基準点Sp13を中心として包含する基準領域W13が設定されるとともに、第3縮小参照画像G23に対して、処理対象点Pp23を中心として包含する比較領域W23が設定される。   In step ST6, the window setting unit 366 sets a reference area W13 including the reference point Sp13 as a center for the third reduced reference image G13, and also sets a processing target point for the third reduced reference image G23. A comparison area W23 including Pp23 as a center is set.

ステップST7では、周波数解析部367によって、ステップST6で設定された基準領域W13が周波数成分情報に変換されるとともに、ステップST6で設定された比較領域W23が周波数成分情報に変換される。ここで得られる周波数成分情報は、周波数成分制限部368を介して、そのまま相関演算部369に対して出力される。   In step ST7, the frequency analysis unit 367 converts the reference region W13 set in step ST6 into frequency component information and the comparison region W23 set in step ST6 into frequency component information. The frequency component information obtained here is directly output to the correlation calculation unit 369 via the frequency component limiting unit 368.

ステップST8では、相関演算部369によって、ステップST7で得られた基準領域W13に係る周波数成分情報と比較領域W23に係る周波数成分情報とに基づく相関演算が行われる。この相関演算によって、投票積算値の分布が得られるとともに、基準領域W13と比較領域W23との間の相関を示すピーク相関値Cmaxが算出される。 In step ST8, the correlation calculation unit 369 performs a correlation calculation based on the frequency component information related to the reference region W13 and the frequency component information related to the comparison region W23 obtained in step ST7. By this correlation calculation, a distribution of vote integrated values is obtained, and a peak correlation value C max indicating a correlation between the reference region W13 and the comparison region W23 is calculated.

ステップST9では、対応点決定部370によって、ステップST8で得られた投票積算値の分布に基づいて、ピーク相関値Cmaxに対応する視差(dx,dy)が導出されるとともに、基準点Sp13に対応する第3縮小参照画像G23上の対応点が認識される。このステップST9の処理が終了されると、図30のステップST11に進む。 In step ST9, the corresponding point determination unit 370 derives the parallax (dx, dy) corresponding to the peak correlation value Cmax based on the distribution of the vote integrated values obtained in step ST8, and the reference point Sp13. Corresponding points on the corresponding third reduced reference image G23 are recognized. When the process of step ST9 is completed, the process proceeds to step ST11 of FIG.

図30のステップST11では、画像指定部364によって、前段の処理対象画像ペアよりも1つ解像度が高い層に属する画像の組が、処理対象画像ペアとして指定される。   In step ST11 of FIG. 30, the image designation unit 364 designates a set of images belonging to a layer having a resolution higher than that of the previous processing target image pair as the processing target image pair.

例えば、前段の処理対象画像ペアが、3層目の解像度の画像の組である第3縮小基準画像G13と第3縮小参照画像G23であれば、2層目の解像度の画像の組である第2縮小基準画像G12と第2縮小参照画像G22とが指定される。また、前段の処理対象画像ペアが、2層目の解像度の画像の組である第2縮小基準画像G12と第2縮小参照画像G22であれば、1層目の解像度の画像の組である第1縮小基準画像G11と第1縮小参照画像G21とが指定される。更に、前段の処理対象画像ペアが、1層目の解像度の画像の組である第1縮小基準画像G11と第1縮小参照画像G21であれば、基準画像G1と参照画像G2とが指定される。   For example, if the processing target image pair in the previous stage is a third reduced standard image G13 and a third reduced reference image G23 that are a set of images with a third layer resolution, the second set of images with a resolution of the second layer. A 2 reduced standard image G12 and a second reduced reference image G22 are designated. Further, if the processing target image pair in the previous stage is the second reduced reference image G12 and the second reduced reference image G22 that are a set of images of the second layer resolution, the first set of images of the resolution of the first layer. One reduced standard image G11 and a first reduced reference image G21 are designated. Furthermore, if the first-stage processing target image pair is the first reduced standard image G11 and the first reduced reference image G21 that are sets of images of the first layer resolution, the standard image G1 and the reference image G2 are designated. .

ステップST12では、基準視差設定部365によって、直近のステップST11で指定された処理対象画像ペアに対し、基準視差が設定される。ここでは、ステップST9またはステップST17で認識される前段の視差に応じた基準視差が設定される。   In step ST12, the reference parallax setting unit 365 sets the reference parallax for the processing target image pair specified in the latest step ST11. Here, the reference parallax corresponding to the previous stage parallax recognized in step ST9 or step ST17 is set.

例えば、前段である3層目の解像度について認識された視差に応じて、第2縮小基準画像G12に対して、基準点Sp1に対応する基準点Sp12が設定されるとともに、第2縮小参照画像G22に対して処理対象点Pp22が設定される。また、前段である2層目の解像度について認識された視差に応じて、第1縮小基準画像G11に対して、基準点Sp1に対応する基準点Sp11が設定されるとともに、第1縮小参照画像G21に対して処理対象点Pp21が設定される。更に、前段である1層目の解像度について認識された視差に応じて、基準画像G1の基準点Sp1を基準とした処理対象点Pp2が参照画像G2上に設定される。   For example, a reference point Sp12 corresponding to the reference point Sp1 is set for the second reduced reference image G12 according to the parallax recognized for the resolution of the third layer, which is the previous stage, and the second reduced reference image G22. The processing target point Pp22 is set for. In addition, a reference point Sp11 corresponding to the reference point Sp1 is set for the first reduced reference image G11 according to the parallax recognized for the resolution of the second layer, which is the previous stage, and the first reduced reference image G21. The processing target point Pp21 is set for. Furthermore, a processing target point Pp2 based on the reference point Sp1 of the reference image G1 is set on the reference image G2 according to the parallax recognized for the resolution of the first layer, which is the previous stage.

ステップST13では、ウインドウ設定部366によって、直近のステップST11で指定された処理対象画像ペアに対し、直近のステップST12で設定された基準点と処理対象点とが基準とされて、基準領域と比較領域とが設定される。   In step ST13, the window setting unit 366 uses the reference point set in the latest step ST12 and the processing target point as a reference for the processing target image pair specified in the latest step ST11, and compares it with the reference region. The area is set.

例えば、直近のステップST11で指定された処理対象画像ペアが、第2縮小基準画像G12と第2縮小参照画像G22との組であれば、直近のステップST12で設定された基準点Sp12と処理対象点Pp22とが基準とされて、第2縮小基準画像G12に対して基準領域W12が設定されるとともに、第2縮小参照画像G22に対して比較領域W22が設定される。また、直近のステップST11で指定された処理対象画像ペアが、第1縮小基準画像G11と第1縮小参照画像G21との組であれば、直近のステップST12で設定された基準点Sp11と処理対象点Pp21とが基準とされて、第1縮小基準画像G11に対して基準領域W11が設定されるとともに、第1縮小参照画像G21に対して比較領域W21が設定される。また、直近のステップST11で指定された処理対象画像ペアが、基準画像G1と参照画像G2との組であれば、基準点Sp1と直近のステップST12で設定された処理対象点Pp2とが基準とされて、基準画像G1に対して基準領域W1が設定されるとともに、参照画像G2に対して比較領域W2が設定される。   For example, if the processing target image pair specified in the latest step ST11 is a set of the second reduced reference image G12 and the second reduced reference image G22, the reference point Sp12 set in the latest step ST12 and the processing target The reference area W12 is set for the second reduced reference image G12 and the comparison area W22 is set for the second reduced reference image G22 with the point Pp22 as a reference. Further, if the processing target image pair designated in the latest step ST11 is a set of the first reduced reference image G11 and the first reduced reference image G21, the reference point Sp11 set in the latest step ST12 and the processing target are set. Using the point Pp21 as a reference, a reference area W11 is set for the first reduced reference image G11, and a comparison area W21 is set for the first reduced reference image G21. Further, if the processing target image pair specified in the latest step ST11 is a set of the standard image G1 and the reference image G2, the reference point Sp1 and the processing target point Pp2 set in the latest step ST12 are used as the reference. Thus, the reference area W1 is set for the reference image G1, and the comparison area W2 is set for the reference image G2.

ステップST14では、周波数解析部367によって、直近のステップST13で設定された基準領域が周波数成分情報に変換されるとともに、直近のステップST13で設定された比較領域が周波数成分情報に変換される。   In step ST14, the frequency analysis unit 367 converts the reference region set in the latest step ST13 into frequency component information, and converts the comparison region set in the latest step ST13 into frequency component information.

例えば、直近のステップST13で設定された基準領域W12が周波数成分情報に変換されるとともに、直近のステップST13で設定された比較領域W22が周波数成分情報に変換される。また、直近のステップST13で設定された基準領域W11が周波数成分情報に変換されるとともに、直近のステップST13で設定された比較領域W21が周波数成分情報に変換される。また、直近のステップST13で設定された基準領域W1が周波数成分情報に変換されるとともに、直近のステップST13で設定された比較領域W2が周波数成分情報に変換される。   For example, the reference region W12 set in the latest step ST13 is converted into frequency component information, and the comparison region W22 set in the latest step ST13 is converted into frequency component information. Further, the reference region W11 set in the latest step ST13 is converted into frequency component information, and the comparison region W21 set in the latest step ST13 is converted into frequency component information. Further, the reference region W1 set in the latest step ST13 is converted into frequency component information, and the comparison region W2 set in the latest step ST13 is converted into frequency component information.

ステップST15では、周波数成分制限部368によって、直近のステップST14で生成された周波数成分情報が、前段の相関演算で得られたピーク相関値Cmaxに応じた重み付けルールに従って制限される。ここでは、前段の相関演算で得られるピーク相関値Cmaxに基づいて、相関演算における周波数成分情報の使用が制限される使用制限周波数範囲(例えば、低周波側制限範囲RL1や高周波側制限範囲RH1など)が設定される。そして、この使用制限周波数範囲に応じて、直近のステップST14で生成された周波数成分情報が制限された上で、相関演算部369に対して出力される。 In step ST15, the frequency component restriction unit 368 restricts the frequency component information generated in the latest step ST14 according to a weighting rule corresponding to the peak correlation value Cmax obtained in the previous correlation calculation. Here, based on the peak correlation value C max obtained in the previous correlation calculation, the use limited frequency range in which the use of the frequency component information in the correlation calculation is limited (for example, the low frequency side limited range RL1 and the high frequency side limited range RH1). Etc.) is set. Then, the frequency component information generated in the latest step ST14 is limited in accordance with the use limited frequency range, and then output to the correlation calculation unit 369.

例えば、直近のステップST13で基準領域W12と比較領域W22とが設定されておれば、基準領域W12に係る周波数成分情報と比較領域W22に係る周波数成分情報とが使用制限周波数範囲に応じて制限された上で出力される。また、直近のステップST13で基準領域W11と比較領域W21とが設定されておれば、基準領域W11に係る周波数成分情報と比較領域W21に係る周波数成分情報とが使用制限周波数範囲に応じて制限された上で出力される。直近のステップST13で基準領域W1と比較領域W2とが設定されておれば、基準領域W1に係る周波数成分情報と比較領域W2に係る周波数成分情報とが使用制限周波数範囲に応じて制限された上で出力される。   For example, if the reference region W12 and the comparison region W22 are set in the latest step ST13, the frequency component information related to the reference region W12 and the frequency component information related to the comparison region W22 are limited according to the use limited frequency range. It is output after. Further, if the reference region W11 and the comparison region W21 are set in the most recent step ST13, the frequency component information related to the reference region W11 and the frequency component information related to the comparison region W21 are limited according to the use restricted frequency range. It is output after. If the reference region W1 and the comparison region W2 are set in the most recent step ST13, the frequency component information related to the reference region W1 and the frequency component information related to the comparison region W2 are limited according to the use limited frequency range. Is output.

ステップST16では、相関演算部369によって、ステップST15で周波数成分制限部368から出力された使用制限周波数範囲外の周波数の周波数成分情報に基づいて、直近のステップST13で設定された基準領域と比較領域との間における相関演算が行われる。この相関演算によって、投票積算値の分布が得られるとともに、基準領域と比較領域との間における相関を示すピーク相関値Cmaxが算出される。 In step ST16, based on the frequency component information of the frequency outside the use limited frequency range output from the frequency component limiting unit 368 in step ST15 by the correlation calculation unit 369, the reference region and the comparison region set in the most recent step ST13 The correlation calculation is performed. By this correlation calculation, a distribution of vote integrated values is obtained, and a peak correlation value C max indicating a correlation between the reference region and the comparison region is calculated.

例えば、直近のステップST15で周波数成分制限部368から基準領域W12と比較領域W22とに係る使用制限周波数範囲外の周波数の周波数成分情報が出力されていれば、基準領域W12と比較領域W22との間における、投票積算値の分布とピーク相関値Cmaxとが得られる。また、直近のステップST15で周波数成分制限部368から基準領域W11と比較領域W21とに係る使用制限周波数範囲外の周波数の周波数成分情報が出力されていれば、基準領域W11と比較領域W21との間における、投票積算値の分布とピーク相関値Cmaxとが得られる。また、直近のステップST15で周波数成分制限部368から基準領域W1と比較領域W2とに係る使用制限周波数範囲外の周波数の周波数成分情報が出力されていれば、基準領域W1と比較領域W2との間における、投票積算値の分布とピーク相関値Cmaxとが得られる。 For example, if frequency component information of frequencies outside the use restriction frequency range related to the reference region W12 and the comparison region W22 is output from the frequency component restriction unit 368 in the most recent step ST15, the reference region W12 and the comparison region W22 The distribution of vote integrated values and the peak correlation value C max are obtained. In addition, if frequency component information of frequencies outside the use restriction frequency range related to the reference region W11 and the comparison region W21 is output from the frequency component restriction unit 368 in the latest step ST15, the reference region W11 and the comparison region W21 are output. The distribution of vote integrated values and the peak correlation value C max are obtained. Further, if frequency component information of frequencies outside the use restriction frequency range related to the reference region W1 and the comparison region W2 is output from the frequency component restriction unit 368 in the most recent step ST15, the reference region W1 and the comparison region W2 are output. The distribution of vote integrated values and the peak correlation value C max are obtained.

ステップST17では、対応点決定部370によって、ステップST16で得られた投票積算値の分布に基づいて、ピーク相関値Cmaxに対応する視差(dx,dy)が導出されるとともに、直近のステップST11で指定された処理対象画像ペアについて、基準点に対応する対応点が認識される。 In step ST17, the corresponding point determination unit 370 derives the parallax (dx, dy) corresponding to the peak correlation value Cmax based on the distribution of vote integrated values obtained in step ST16, and the latest step ST11. Corresponding points corresponding to the reference points are recognized for the processing target image pair specified in step (b).

例えば、直近のステップST11で指定された処理対象画像ペアが、第2縮小基準画像G12と第2縮小参照画像G22との組であれば、第2縮小基準画像G12上の基準点Sp12に対応する第2縮小参照画像G22上の対応点が認識される。また、直近のステップST11で指定された処理対象画像ペアが、第1縮小基準画像G11と第1縮小参照画像G21との組であれば、第1縮小基準画像G11上の基準点Sp11に対応する第1縮小参照画像G21上の対応点が認識される。また、直近のステップST11で指定された処理対象画像ペアが、基準画像G1と参照画像G2との組であれば、基準画像G1上の基準点Sp1に対応する参照画像G2上の対応点が認識される。   For example, if the processing target image pair designated in the most recent step ST11 is a set of the second reduced reference image G12 and the second reduced reference image G22, it corresponds to the reference point Sp12 on the second reduced reference image G12. Corresponding points on the second reduced reference image G22 are recognized. Further, if the processing target image pair specified in the most recent step ST11 is a set of the first reduced reference image G11 and the first reduced reference image G21, it corresponds to the reference point Sp11 on the first reduced reference image G11. Corresponding points on the first reduced reference image G21 are recognized. If the processing target image pair specified in the most recent step ST11 is a set of the standard image G1 and the reference image G2, the corresponding point on the reference image G2 corresponding to the standard point Sp1 on the standard image G1 is recognized. Is done.

ステップST18では、対応点決定部370によって、直近のステップST11で指定された処理対象画像ペアよりも解像度が1段階上の層の画像の組があるか否か判定される。ここでは、解像度が1段階上の層の画像の組があれば、ステップST11に進み、解像度が1段階上の層の画像の組がなければ、ステップST19に進む。   In step ST18, the corresponding point determination unit 370 determines whether or not there is a set of image layers whose resolution is one level higher than the processing target image pair specified in the most recent step ST11. Here, if there is a set of images of the layer one level higher than the resolution, the process proceeds to step ST11, and if there is no set of images of the layer one level higher than the resolution, the process proceeds to step ST19.

例えば、直近のステップST11で指定された処理対象画像ペアが、第2縮小基準画像G12と第2縮小参照画像G22との組であれば、解像度が1段階上の層の画像の組に相当する第1縮小基準画像G11と第1縮小参照画像G21との組が存在する。また、直近のステップST11で指定された処理対象画像ペアが、第1縮小基準画像G11と第1縮小参照画像G21との組であれば、解像度が1段階上の層の画像の組に相当する基準画像G1と参照画像G2との組が存在する。一方、直近のステップST11で指定された処理対象画像ペアが、基準画像G1と参照画像G2との組であれば、解像度が1段階上の層の画像の組が存在していない。   For example, if the processing target image pair designated in the most recent step ST11 is a set of the second reduced reference image G12 and the second reduced reference image G22, the resolution corresponds to a set of images in the layer one level higher. There is a set of the first reduced standard image G11 and the first reduced reference image G21. In addition, if the processing target image pair designated in the most recent step ST11 is a set of the first reduced reference image G11 and the first reduced reference image G21, the resolution corresponds to a set of images in the layer one level higher. There is a set of a reference image G1 and a reference image G2. On the other hand, if the processing target image pair specified in the most recent step ST11 is a set of the standard image G1 and the reference image G2, there is no set of images of the layer whose resolution is one level higher.

ステップST19では、対応点決定部370によって、直近のステップST17で認識された参照画像G2上の対応点が、直近のステップST3で設定された基準点Sp1に対応する対応点として決定される。このステップST19の処理が終了されると、図31のステップST21に進む。   In step ST19, the corresponding point determination unit 370 determines the corresponding point on the reference image G2 recognized in the latest step ST17 as the corresponding point corresponding to the reference point Sp1 set in the latest step ST3. When the process of step ST19 is completed, the process proceeds to step ST21 of FIG.

図31のステップST21では、制御部36によって、直近のステップST3で設定された基準点Sp1と、直近のステップST19(図30)で決定された対応点とが関連付けられて、記憶部34に記憶される。   In step ST21 of FIG. 31, the control unit 36 associates the reference point Sp1 set in the most recent step ST3 with the corresponding point determined in the most recent step ST19 (FIG. 30) and stores it in the storage unit 34. Is done.

ステップST22では、探索基準点設定部363によって、ステップST3において基準画像G1の全画素が基準点Sp1として既に設定されたか否かが判定される。ここで、未だに基準画像G1の全画素が基準点Sp1として設定されていなければ、図29のステップST3に進み、次の基準点Sp1の設定が行われる。一方、既に基準画像G1の全画素が基準点Sp1として設定されていれば、本動作フローが終了される。   In step ST22, the search reference point setting unit 363 determines whether all the pixels of the reference image G1 have already been set as the reference points Sp1 in step ST3. If all the pixels of the reference image G1 have not been set as the reference point Sp1, the process proceeds to step ST3 in FIG. 29, and the next reference point Sp1 is set. On the other hand, if all the pixels of the reference image G1 have already been set as the reference point Sp1, this operation flow is ended.

<(4)一実施形態のまとめ>
以上のように、一実施形態に係る情報処理システム1Aによれば、複数の画像の間における類似の度合いを示す相関値に基づいて、該複数の画像にそれぞれ対応する解像度の異なる別の複数の画像の間における相関演算の演算量が低減される。このため、複数の画像を対象とした対応点探索処理における精度の維持と速度の向上とが両立する。
<(4) Summary of one embodiment>
As described above, according to the information processing system 1A according to the embodiment, based on the correlation value indicating the degree of similarity between the plurality of images, the plurality of different resolutions respectively corresponding to the plurality of images. The amount of correlation calculation between images is reduced. For this reason, both maintaining accuracy and improving speed in the corresponding point search processing for a plurality of images are compatible.

ここで言う「別の複数の画像」としては、上述したように、複数の画像の組からそれぞれ解像度を異ならせた複数の画像の組などが挙げられる。しかしながら、これに限られない。「別の複数の画像」としては、例えば、ステレオカメラ2によって、元の複数の画像とは少し異なる時刻に撮影されたステレオ画像であっても良い。   As used herein, “another plurality of images” includes, for example, a plurality of image sets in which the resolutions are different from the plurality of image sets. However, it is not limited to this. The “different plural images” may be, for example, stereo images taken by the stereo camera 2 at slightly different times from the original plural images.

<(5)変形例>
なお、本発明は上述の実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更、改良等が可能である。
<(5) Modification>
It should be noted that the present invention is not limited to the above-described embodiment, and various changes and improvements can be made without departing from the gist of the present invention.

<(5-1)第1変形例>
例えば、上記一実施形態では、ステレオカメラ2による撮像によって得られる基準画像G1と参照画像G2との間における対応点探索動作を挙げて説明したが、これに限られない。例えば、本願発明の技術的思想は、単眼視のカメラ、すなわち1つの視点からの撮像によって時間的に連続して得られる複数の画像の間における対応点探索動作にも適用可能である。以下、具体例を示して説明する。
<(5-1) First modification>
For example, in the above-described embodiment, the corresponding point search operation between the standard image G1 obtained by imaging with the stereo camera 2 and the reference image G2 has been described, but the present invention is not limited thereto. For example, the technical idea of the present invention can also be applied to a single-eye camera, that is, a corresponding point search operation between a plurality of images that are continuously obtained in time by imaging from one viewpoint. Hereinafter, a specific example will be described.

<(5-1-1)第1変形例に係る情報処理システムの構成>
図32は、第1変形例に係る情報処理システム1Bの概略構成を示す図であり、図33は、情報処理システム1Bの要部構成を示すブロック図である。
<(5-1-1) Configuration of information processing system according to first modification>
FIG. 32 is a diagram illustrating a schematic configuration of an information processing system 1B according to the first modification, and FIG. 33 is a block diagram illustrating a main configuration of the information processing system 1B.

情報処理システム1Bは、上記一実施形態に係る情報処理システム1Aと比較して、ステレオカメラ2が単眼のカメラ2Bに置換されたものであり、その他については同様な構成を有する。   In the information processing system 1B, the stereo camera 2 is replaced with a monocular camera 2B as compared with the information processing system 1A according to the above-described embodiment, and the other configuration is the same.

但し、情報処理システム1Bでは、カメラ2Bによる順次の撮像によって、n個(nは3以上の自然数)の撮像時刻の異なる画像GB1〜GBnが取得される。そして、このn個の画像GB1〜GBnの間で対応点探索処理が行われる。このため、制御部36で実現される各種機能や各種情報処理等が上記一実施形態に係る制御部36で実行される各種機能や各種情報処理等とは若干異なる。   However, in the information processing system 1B, n (GB is a natural number of 3 or more) images GB1 to GBn having different imaging times are acquired by sequential imaging by the camera 2B. Then, corresponding point search processing is performed between the n images GB1 to GBn. For this reason, various functions, various information processing, and the like realized by the control unit 36 are slightly different from the various functions, various information processing, and the like that are executed by the control unit 36 according to the embodiment.

具体的には、図33で示されるように、情報処理システム1Bでは、上記一実施形態に係るプログラムPGaとは異なるプログラムPGbが記憶部34に記憶されている。そして、このプログラムPGbが制御部36によって読み込まれて実行されることで、本変形例に係る対応点探索動作の各種機能や各種情報処理が実現される。   Specifically, as illustrated in FIG. 33, in the information processing system 1B, a program PGb different from the program PGa according to the above-described embodiment is stored in the storage unit 34. The program PGb is read and executed by the control unit 36, thereby realizing various functions and various information processing of the corresponding point search operation according to the present modification.

カメラ2Bは、例えば、地面に対して位置および姿勢が固定され、時間順次のn回の撮像を行うことで、同一の視点から同一の被写体OBBの時間的な変化を捉えたn個の画像GB1〜GBnを取得する。   The camera 2B, for example, has a fixed position and orientation with respect to the ground, and performs n time-sequential imaging to capture n images GB1 that capture temporal changes in the same subject OBB from the same viewpoint. Obtain ~ GBn.

例えば、カメラ2Bが、いわゆるハイスピードカメラ等で構成されていれば、短時間で多数のフレーム画像を得ることができる。このとき、被写体OBBが動いていても、時間的に連続して得られたフレーム画像の間においては、同一の被写体OBBを捉えた部分は少ししかズレない。   For example, if the camera 2B is constituted by a so-called high speed camera or the like, a large number of frame images can be obtained in a short time. At this time, even if the subject OBB is moving, a portion where the same subject OBB is captured is slightly shifted between temporally obtained frame images.

なお、このカメラ2Bで時間順次に取得されるn個の画像GB1〜GBnは、いわゆる時系列の画像であり、データ線CBを介して情報処理装置3に送信され、記憶部34に記憶される。   The n images GB1 to GBn acquired in time sequence by the camera 2B are so-called time-series images, which are transmitted to the information processing device 3 via the data line CB and stored in the storage unit 34. .

以下では、カメラ2Bで時刻T1、時刻T2、時刻T3、・・・、時刻Tnの撮像によってそれぞれ得られる画像を、「T1フレーム画像」GB1、「T2フレーム画像」GB2、「T3フレーム画像」GB3、・・・、「Tnフレーム画像」GBnと称する。   In the following, images obtained by imaging at time T1, time T2, time T3,..., Time Tn with the camera 2B are respectively referred to as “T1 frame image” GB1, “T2 frame image” GB2, and “T3 frame image” GB3. , ..., referred to as “Tn frame image” GBn.

図34は、T1フレーム画像GB1の形態を例示する模式図であり、図35は、T2フレーム画像GB2の形態を例示する模式図であり、図36は、T3フレーム画像GB3の形態を例示する模式図である。図34から図36では、被写体OBBを捉えた画像領域(図中で斜線のハッチングが付された領域)が、少しずつ右方にシフトしている様子が示されている。   FIG. 34 is a schematic view illustrating the form of the T1 frame image GB1, FIG. 35 is a schematic view illustrating the form of the T2 frame image GB2, and FIG. 36 is a schematic view illustrating the form of the T3 frame image GB3. FIG. FIG. 34 to FIG. 36 show a state in which the image area (the hatched area in the figure) capturing the subject OBB is gradually shifted to the right.

また、図4で示されるように、T1〜Tnフレーム画像GB1〜GBnは、上記一実施形態に係る第1および第2撮像画像G1,G2と同様に、例えば、多数の画素がマトリックス状に配列されて構成される。具体的には、縦方向(Y方向)に第1所定数(ここでは480個)の画素が配列されるとともに、横方向(X方向)に第2所定数(ここでは640個)の画素が配列される。   Further, as shown in FIG. 4, the T1 to Tn frame images GB1 to GBn are, for example, a large number of pixels arranged in a matrix form, similarly to the first and second captured images G1 and G2 according to the one embodiment. Configured. Specifically, a first predetermined number (here, 480) of pixels are arranged in the vertical direction (Y direction), and a second predetermined number (here, 640) of pixels are arranged in the horizontal direction (X direction). Arranged.

ここで、T1〜Tnフレーム画像GB1〜GBnでは、上記一実施形態に係る第1および第2撮像画像G1,G2と同様に、左上の位置が原点とされ、T1〜Tnフレーム画像GB1〜GBnの各画素における横方向の位置がX座標で示され、縦方向の位置がY座標で示される。つまり、T1〜Tnフレーム画像GB1〜GBnでは、上記一実施形態に係る第1および第2撮像画像G1,G2と同様に、各画素の位置がXYの座標(x,y)で示され、例えば、右方向(X方向)に1画素ずれるとX座標の値が1つ増加し、下方向(Y方向)に1画素ずれるとY座標の値が1つ増加する。   Here, in the T1 to Tn frame images GB1 to GBn, as in the first and second captured images G1 and G2 according to the above-described embodiment, the upper left position is the origin, and the T1 to Tn frame images GB1 to GBn The horizontal position of each pixel is indicated by the X coordinate, and the vertical position is indicated by the Y coordinate. That is, in the T1 to Tn frame images GB1 to GBn, as in the first and second captured images G1 and G2 according to the one embodiment, the position of each pixel is indicated by XY coordinates (x, y). When the pixel shifts in the right direction (X direction), the value of the X coordinate increases by one, and when the pixel shifts by one pixel in the downward direction (Y direction), the value of the Y coordinate increases by one.

<(5-1-2)第1変形例に係る対応点探索動作に係る機能的な構成>
図37は、本変形例の対応点探索動作を実行するために制御部36で実現される機能的な構成を示す図である。なお、ここでは、制御部36の機能的な構成が、プログラムPGbの実行によって実現されるものとして説明するが、専用のハードウエア構成で実現されても良い。
<(5-1-2) Functional configuration related to corresponding point search operation according to first modification>
FIG. 37 is a diagram illustrating a functional configuration realized by the control unit 36 in order to execute the corresponding point search operation of the present modification. Here, the functional configuration of the control unit 36 is described as being realized by executing the program PGb, but may be realized by a dedicated hardware configuration.

図37で示されるように、制御部36は、機能的な構成として、画像取得部361B、探索基準点設定部363B、基準視差設定部365B、ウインドウ設定部366B、周波数解析部367B、周波数成分制限部368B、相関演算部369B、および対応点決定部370Bを有する。   As shown in FIG. 37, the control unit 36 has an image acquisition unit 361B, a search reference point setting unit 363B, a reference parallax setting unit 365B, a window setting unit 366B, a frequency analysis unit 367B, a frequency component restriction, as a functional configuration. Unit 368B, correlation calculation unit 369B, and corresponding point determination unit 370B.

<(5-1-2-1)第1変形例に係る画像取得部>
画像取得部361Bは、カメラ2Bによって時間順次に取得されて記憶部34に記憶されているT1〜Tnフレーム画像GB1〜GBnから、対応点の探索処理を行う対象となる画像の組(処理対象画像ペア)を取得する。ここでは、mを自然数とすると、Tmフレーム画像GBmとT(m+1)フレーム画像GB(m+1)とからなる処理対象画像ペアについて対応点が認識されると、T(m+1)フレーム画像GB(m+1)とT(m+2)フレーム画像GB(m+2)との組が、次の処理対象画像ペアとして取得される。
<(5-1-2-1) Image Acquisition Unit According to First Modification>
The image acquisition unit 361B obtains a set of images (processing target image) to be searched for corresponding points from the T1 to Tn frame images GB1 to GBn acquired sequentially by the camera 2B and stored in the storage unit 34. Get a pair). Here, assuming that m is a natural number, when a corresponding point is recognized for the processing target image pair including the Tm frame image GBm and the T (m + 1) frame image GB (m + 1), the T (m + 1) frame image GB (m + 1) And a T (m + 2) frame image GB (m + 2) is acquired as the next processing target image pair.

例えば、まず、T1フレーム画像GB1とT2フレーム画像GB2との組が、処理対象画像ペアとして取得される。次に、T2フレーム画像GB2とT3フレーム画像GB3との組が、処理対象画像ペアとして取得される。その次に、T3フレーム画像GB3とT4フレーム画像GB4との組が、処理対象画像ペアとして取得される。   For example, first, a set of a T1 frame image GB1 and a T2 frame image GB2 is acquired as a processing target image pair. Next, a set of the T2 frame image GB2 and the T3 frame image GB3 is acquired as a processing target image pair. Next, a set of the T3 frame image GB3 and the T4 frame image GB4 is acquired as a processing target image pair.

なお、以下では、T(m+1)フレーム画像GB(m+1)とT(m+2)フレーム画像GB(m+2)とからなる処理対象画像ペアを対象とした対応点探索処理を基準として、Tmフレーム画像GBmとT(m+1)フレーム画像GB(m+1)とからなる処理対象画像ペアを対象とした対応点探索処理を、前段の対応点探索処理と称する。逆に、Tmフレーム画像GBmとT(m+1)フレーム画像GB(m+1)とからなる処理対象画像ペアを対象とした対応点探索処理を基準として、T(m+1)フレーム画像GB(m+1)とT(m+2)フレーム画像GB(m+2)とからなる処理対象画像ペアを対象とした対応点探索処理を、次段の対応点探索処理と称する。   In the following description, the Tm frame image GBm and the Tm frame image GBm are defined with reference to the corresponding point search processing for the processing target image pair including the T (m + 1) frame image GB (m + 1) and the T (m + 2) frame image GB (m + 2). The corresponding point search process for the processing target image pair including the T (m + 1) frame image GB (m + 1) is referred to as a previous corresponding point search process. On the contrary, T (m + 1) frame image GB (m + 1) and T (m) are used with reference to the corresponding point search processing for the processing target image pair consisting of Tm frame image GBm and T (m + 1) frame image GB (m + 1). m + 2) Corresponding point search processing for a processing target image pair including the frame image GB (m + 2) is referred to as next-step corresponding point search processing.

また、対応点探索動作では、T1フレーム画像GB1とT2フレーム画像GB2との間における対応点探索処理が行われる場合には、T1フレーム画像GB1が基準となる画像(基準画像)GB1とされ、T2フレーム画像GB2が参照される画像(参照画像)GB2とされる。また、T2フレーム画像GB2とT3フレーム画像GB3との間における対応点探索処理が行われる場合には、T2フレーム画像GB2が基準となる画像(基準画像)GB2とされ、T3フレーム画像GB3が参照される画像(参照画像)GB3とされる。   In the corresponding point search operation, when the corresponding point search process is performed between the T1 frame image GB1 and the T2 frame image GB2, the T1 frame image GB1 is used as a reference image (reference image) GB1, and T2 The frame image GB2 is referred to as an image (reference image) GB2. When the corresponding point search process is performed between the T2 frame image GB2 and the T3 frame image GB3, the T2 frame image GB2 is used as a reference image (reference image) GB2, and the T3 frame image GB3 is referred to. Image (reference image) GB3.

つまり、Tmフレーム画像GBmとT(m+1)フレーム画像GB(m+1)との間における対応点探索処理が行われる場合には、Tmフレーム画像GBmが基準となる画像(基準画像)GBmとされ、T(m+1)フレーム画像GB(m+1)が参照される画像(参照画像)GB(m+1)とされる。   That is, when the corresponding point search process is performed between the Tm frame image GBm and the T (m + 1) frame image GB (m + 1), the Tm frame image GBm is set as a reference image (reference image) GBm. The (m + 1) frame image GB (m + 1) is referred to as an image (reference image) GB (m + 1).

<(5-1-2-2)第1変形例に係る探索基準点設定部>
探索基準点設定部363Bは、上記一実施形態に係る探索基準点設定部363と同様に、T1フレーム画像GB1に対して、対応点探索の基準となる点(基準点)SpB1(図8)を設定する。
<(5-1-2-2) Search Reference Point Setting Unit According to First Modification>
Similarly to the search reference point setting unit 363 according to the above-described embodiment, the search reference point setting unit 363B sets a point (reference point) SpB1 (FIG. 8) serving as a reference for the corresponding point search for the T1 frame image GB1. Set.

例えば、まず、T1フレーム画像GB1のうちの左上の画素が基準点SpB1として設定される。次に、基準画像GB1と参照画像GB2との間、基準画像GB2と参照画像GB3との間、基準画像GB3と参照画像GB4との間、・・・、基準画像GB(n−1)と参照画像GBnとの間における対応点探索処理が順次に行われることで、基準点SpB1に対応する対応点が、各T2〜Tnフレーム画像GB2〜GBnからこの順番で検出される。そして、Tnフレーム画像GBnから対応点が検出される度に、T1フレーム画像GB1上に新たな基準点SpB1が設定される。   For example, first, the upper left pixel in the T1 frame image GB1 is set as the reference point SpB1. Next, the reference image GB1 and the reference image GB2, the reference image GB2 and the reference image GB3, the reference image GB3 and the reference image GB4,..., The reference image GB (n−1) and the reference. Corresponding points corresponding to the reference point SpB1 are detected from the T2 to Tn frame images GB2 to GBn in this order by sequentially performing the corresponding point searching process with the image GBn. Each time a corresponding point is detected from the Tn frame image GBn, a new reference point SpB1 is set on the T1 frame image GB1.

<(5-1-2-3)第1変形例に係る基準視差設定部>
基準視差設定部365Bは、上記一実施形態に係る基準視差設定部365と同様に、各処理対象画像ペアに対して、対応点の探索の基準となる視差(基準視差)を仮に設定する。
<(5-1-2-3) Reference Parallax Setting Unit According to First Modification>
Similarly to the reference parallax setting unit 365 according to the above-described embodiment, the reference parallax setting unit 365B temporarily sets a parallax (reference parallax) serving as a reference for searching for corresponding points for each processing target image pair.

具体的には、T1フレーム画像(基準画像)GB1とT2フレーム画像(参照画像)GB2との組に対し、基準視差の初期値が仮に設定される。基準視差の初期値としては、例えば、XおよびY方向の所定値(例えばゼロ等)に設定される。   Specifically, an initial value of the standard parallax is provisionally set for a set of a T1 frame image (standard image) GB1 and a T2 frame image (reference image) GB2. As an initial value of the reference parallax, for example, a predetermined value (for example, zero) in the X and Y directions is set.

例えば、T1フレーム画像(基準画像)GB1に対して基準点SpB1(図13)が設定されるとともに、T2フレーム画像(参照画像)GB2に対して処理対象点PpB2(図14)が設定される。ここでは、T1フレーム画像(基準画像)GB1における基準点SpB1の座標と、T2フレーム画像(参照画像)GB2における処理対象点PpB2の座標とのズレ量が、基準視差の初期値に相当する。   For example, a reference point SpB1 (FIG. 13) is set for the T1 frame image (reference image) GB1, and a processing target point PpB2 (FIG. 14) is set for the T2 frame image (reference image) GB2. Here, the amount of deviation between the coordinates of the reference point SpB1 in the T1 frame image (reference image) GB1 and the coordinates of the processing point PpB2 in the T2 frame image (reference image) GB2 corresponds to the initial value of the reference parallax.

次に、T1フレーム画像(基準画像)GB1とT2フレーム画像(参照画像)GB2の組を処理対象画像ペアとした対応点探索処理によって得られる視差が、次の処理対象画像ペアとしてのT2フレーム画像(基準画像)GB2とT3フレーム画像(参照画像)GB3との組に対し、基準視差として仮に設定される。   Next, the parallax obtained by the corresponding point search process using the pair of the T1 frame image (reference image) GB1 and the T2 frame image (reference image) GB2 as the processing target image pair is the T2 frame image as the next processing target image pair. A (standard image) GB2 and a T3 frame image (reference image) GB3 are set temporarily as a standard parallax.

例えば、T2フレーム画像(基準画像)GB2に対して、前段の対応点探索処理で得られた対応点が、基準点SpB2(図13)として設定されるとともに、T3フレーム画像(参照画像)GB3に対して処理対象点PpB3(図14)が設定される。ここでは、T2フレーム画像(基準画像)GB2における基準点SpB2の座標と、T3フレーム画像(参照画像)GB3における処理対象点PpB3の座標とのズレ量が、前段の対応点探索処理によって得られる視差に相当する。   For example, with respect to the T2 frame image (reference image) GB2, the corresponding points obtained by the corresponding point search process in the previous stage are set as the reference point SpB2 (FIG. 13), and the T3 frame image (reference image) GB3 is set. On the other hand, the processing target point PpB3 (FIG. 14) is set. Here, the disparity between the coordinates of the reference point SpB2 in the T2 frame image (reference image) GB2 and the coordinates of the processing target point PpB3 in the T3 frame image (reference image) GB3 is obtained by the corresponding point search process in the previous stage. It corresponds to.

そして、T(m−1)フレーム画像(基準画像)GB(m−1)とTmフレーム画像(参照画像)GBmの組を処理対象画像ペアとした対応点探索処理によって得られる視差が、次の処理対象画像ペアとしてのTmフレーム画像(基準画像)GBmとT(m+1)フレーム画像(参照画像)GB(m+1)との組に対し、基準視差として仮に設定される。   Then, the parallax obtained by the corresponding point search processing using the set of the T (m−1) frame image (reference image) GB (m−1) and the Tm frame image (reference image) GBm as the processing target image pair is A reference parallax is temporarily set for a set of a Tm frame image (reference image) GBm and a T (m + 1) frame image (reference image) GB (m + 1) as a processing target image pair.

例えば、Tmフレーム画像(基準画像)GBmに対して、前段の対応点探索処理で得られた対応点が、基準点SpBm(図13)として設定されるとともに、T(m+1)フレーム画像(参照画像)GB(m+1)に対して処理対象点PpB(m+1)(図14)が設定される。ここでは、Tmフレーム画像(基準画像)GBmにおける基準点SpBmの座標と、T(m+1)フレーム画像(参照画像)GB(m+1)における処理対象点PpB(m+1)の座標とのズレ量が、前段の対応点探索処理によって得られる視差に相当する。   For example, with respect to the Tm frame image (reference image) GBm, the corresponding point obtained by the corresponding point search process in the previous stage is set as the reference point SpBm (FIG. 13) and the T (m + 1) frame image (reference image). ) A processing target point PpB (m + 1) (FIG. 14) is set for GB (m + 1). Here, the amount of deviation between the coordinates of the reference point SpBm in the Tm frame image (reference image) GBm and the coordinates of the processing target point PpB (m + 1) in the T (m + 1) frame image (reference image) GB (m + 1) is This corresponds to the parallax obtained by the corresponding point search process.

<(5-1-2-4)第1変形例に係るウインドウ設定部>
ウインドウ設定部366Bは、上記一実施形態に係るウインドウ設定部366と同様に、Tmフレーム画像(基準画像)GBmにおいて基準点SpBmを中心として包含するウインドウ(基準領域)WBmを設定するとともに、T(m+1)フレーム画像(参照画像)GB(m+1)において処理対象点Pp(m+1)を中心として包含するウインドウ(比較領域)WB(m+1)を設定する。基準領域WBmおよび比較領域WB(m+1)は、同一サイズの正方形の画像領域であり、例えば、縦方向および横方向にそれぞれ32画素が配列されて構成される。
<(5-1-2-4) Window Setting Unit According to First Modification>
Similarly to the window setting unit 366 according to the above-described embodiment, the window setting unit 366B sets a window (reference region) WBm including the reference point SpBm as a center in the Tm frame image (reference image) GBm, and T ( m + 1) A window (comparison area) WB (m + 1) including the processing target point Pp (m + 1) as a center in the frame image (reference image) GB (m + 1) is set. The reference area WBm and the comparison area WB (m + 1) are square image areas of the same size, and are configured, for example, by arranging 32 pixels in the vertical direction and the horizontal direction, respectively.

<(5-1-2-5)第1変形例に係る周波数解析部>
周波数解析部367Bは、上記一実施形態に係る周波数解析部367と同様に、画像を正弦波に係る周波数成分を示す情報に変換する処理(変換処理)を実行する。この変換処理は、各基準領域WBmに対して行われるとともに、各比較領域WB(m+1)に対して行われる。なお、周波数解析部367Bにおける変換処理は、上記一実施形態に係る周波数解析部367における変換処理と同様な処理であるため、ここでは説明を省略する。
<(5-1-2-5) Frequency analysis unit according to first modification>
Similar to the frequency analysis unit 367 according to the above-described embodiment, the frequency analysis unit 367B executes processing (conversion processing) for converting an image into information indicating a frequency component related to a sine wave. This conversion process is performed for each reference area WBm and also for each comparison area WB (m + 1). Note that the conversion process in the frequency analysis unit 367B is the same process as the conversion process in the frequency analysis unit 367 according to the above-described embodiment, and thus the description thereof is omitted here.

<(5-1-2-6)第1変形例に係る周波数成分制限部>
周波数成分制限部368Bは、上記一実施形態に係る周波数成分制限部368と同様に、周波数解析部367Bで生成された周波数成分情報を所定の制限ルールに従って制限した上で、相関演算部369Bに対して出力する。これにより、相関演算部369Bにおける基準領域WBmと比較領域WB(m+1)との間における相関値を求める相関演算においては、周波数解析部367Bで生成された周波数成分情報のうちの一部の周波数成分情報については使用されず、残余の一部の周波数成分情報が選択的に使用される。
<(5-1-2-6) Frequency Component Limiting Unit According to First Modification>
Similarly to the frequency component limiting unit 368 according to the above embodiment, the frequency component limiting unit 368B limits the frequency component information generated by the frequency analyzing unit 367B according to a predetermined limiting rule, and then performs a correlation operation on the correlation calculation unit 369B. Output. Thereby, in the correlation calculation for obtaining the correlation value between the reference region WBm and the comparison region WB (m + 1) in the correlation calculation unit 369B, a part of the frequency components in the frequency component information generated by the frequency analysis unit 367B. Information is not used, and the remaining part of the frequency component information is selectively used.

具体的には、周波数成分制限部368Bでは、上記一実施形態に係る周波数成分制限部368と同様に、周波数解析部367Bで生成された周波数成分情報が、前段の相関演算で得られるピーク相関値Cmaxに応じた重み付けルールに従って制限される。また、周波数成分制限部368Bでは、重き付けルールに従った周波数ごとの重み付け係数の決定により、相関演算部369Bにおける相関演算での使用が制限される周波数成分情報の周波数の範囲(使用制限周波数範囲)が設定される。 Specifically, in the frequency component limiting unit 368B, as in the frequency component limiting unit 368 according to the above-described embodiment, the frequency component information generated by the frequency analyzing unit 367B is the peak correlation value obtained by the previous correlation calculation. It is limited according to a weighting rule according to Cmax . Further, the frequency component restriction unit 368B determines the frequency range of the frequency component information (use limited frequency range) that is restricted in use in the correlation calculation in the correlation calculation unit 369B by determining the weighting coefficient for each frequency according to the weighting rule. ) Is set.

なお、周波数成分制限部368Bにおける詳細な周波数成分の制限方法および該制限方法に従った処理は、上記一実施形態に係る周波数成分制限部368における詳細な周波数成分の制限方法および該制限方法に従った処理と同様であるため、ここでは説明を省略する。   The detailed frequency component limiting method and the processing according to the limiting method in the frequency component limiting unit 368B are the same as the detailed frequency component limiting method and the limiting method in the frequency component limiting unit 368 according to the above embodiment. Since the processing is the same as that described above, description thereof is omitted here.

<(5-1-2-7)第1変形例に係る相関演算部>
相関演算部369Bは、上記一実施形態に係る相関演算部369と同様に、周波数成分制限部368Bから出力される基準領域WBmに係る周波数成分情報と比較領域WB(m+1)に係る周波数成分情報とに基づいて、基準領域WBmと比較領域WB(m+1)とに係る投票積算値の分布を示す情報を得るとともに、基準領域WBmと比較領域WB(m+1)との間における相関値を算出する。つまり、相関演算部369Bでは、周波数解析部367Bで生成された周波数成分情報のうち、周波数成分制限部368Bにおいて重み付け係数の乗算によって制限されることで得られた一部の周波数成分情報が用いられて、基準領域WBmと比較領域WB(m+1)との間における相関値が算出される。
<(5-1-2-7) Correlation Calculation Unit According to First Modification>
Correlation calculation unit 369B, similarly to correlation calculation unit 369 according to the above embodiment, frequency component information related to reference region WBm and frequency component information related to comparison region WB (m + 1) output from frequency component limiting unit 368B Based on the above, information indicating the distribution of vote integrated values for the reference area WBm and the comparison area WB (m + 1) is obtained, and a correlation value between the reference area WBm and the comparison area WB (m + 1) is calculated. That is, the correlation calculation unit 369B uses a part of the frequency component information obtained by being limited by multiplication of the weighting coefficient in the frequency component limiting unit 368B among the frequency component information generated by the frequency analysis unit 367B. Thus, a correlation value between the reference area WBm and the comparison area WB (m + 1) is calculated.

なお、相関演算部369Bにおける演算処理は、上記一実施形態に係る相関演算部369における演算処理と同様なものであるため、ここでは説明を省略する。   Note that the calculation processing in the correlation calculation unit 369B is the same as the calculation processing in the correlation calculation unit 369 according to the above-described embodiment, and thus description thereof is omitted here.

<(5-1-2-8)第1変形例に係る対応点決定部>
対応点決定部370Bは、上記一実施形態に係る対応点決定部370と同様に、基準領域WBmと比較領域WB(m+1)との組に対し、相関演算部369Bで得られた投票積算値の分布を示す情報に基づいて、基準領域WBmにおける基準点SpBmと比較領域WB(m+1)における対応点とのズレ量(視差)を導出する。そして、対応点決定部370Bは、導出した視差に基づいて、T1フレーム画像GB1の基準点SpB1に対応する対応点を各フレーム画像GB2〜GBnからそれぞれ決定する。
<(5-1-2-8) Corresponding point determination unit according to first modification>
Corresponding point determination unit 370B, similarly to corresponding point determination unit 370 according to the above-described embodiment, for the set of reference region WBm and comparison region WB (m + 1), the voting integrated value obtained by correlation calculation unit 369B Based on the information indicating the distribution, a deviation amount (parallax) between the reference point SpBm in the reference region WBm and the corresponding point in the comparison region WB (m + 1) is derived. Then, the corresponding point determination unit 370B determines the corresponding point corresponding to the reference point SpB1 of the T1 frame image GB1 from each of the frame images GB2 to GBn based on the derived parallax.

なお、対応点決定部370Bにおける具体的な処理は、上記一実施形態に係る対応点決定部370における処理と同様であるため、ここでは説明を省略する。   In addition, since the specific process in the corresponding point determination part 370B is the same as the process in the corresponding point determination part 370 which concerns on the said one Embodiment, description is abbreviate | omitted here.

<(5-1-3)第1変形例に係る対応点探索動作のフロー>
図38から図40は、情報処理システム1Bにおいて実現される対応点探索動作のフローを例示するフローチャートである。例えば、ユーザーによる操作部31に対する操作に応じて、本動作フローが開始されて、図38のステップSS1に進む。
<(5-1-3) Corresponding point search operation flow according to the first modification>
38 to 40 are flowcharts illustrating the flow of corresponding point search operations realized in the information processing system 1B. For example, this operation flow is started in response to an operation on the operation unit 31 by the user, and the process proceeds to Step SS1 in FIG.

ステップSS1では、探索基準点設定部363Bによって、基準点が設定される際に基準となる数値jが1に設定される。   In step SS1, the search reference point setting unit 363B sets a reference value j to 1 when the reference point is set.

ステップSS2では、画像取得部361Bによって、処理対象画像ペアが指定される際に基準となる数値mが1に設定される。   In step SS2, the image acquisition unit 361B sets 1 as a reference value m when a processing target image pair is designated.

ステップSS3では、画像取得部361Bによって、ステップSS2で設定された数値m(=1)に従い、T1フレーム画像GB1とT2フレーム画像GB2とが処理対象画像ペアとして記憶部34から取得される。このとき、T1フレーム画像GB1が基準画像GB1とされるとともに、T2フレーム画像GB2が基準画像GB2とされる。   In step SS3, the image acquisition unit 361B acquires the T1 frame image GB1 and the T2 frame image GB2 from the storage unit 34 as a processing target image pair according to the numerical value m (= 1) set in step SS2. At this time, the T1 frame image GB1 is set as the reference image GB1, and the T2 frame image GB2 is set as the reference image GB2.

ステップSS4では、探索基準点設定部363Bによって、ステップSS1またはステップSS23(図40)で直近に設定された数値jに従い、ステップSS3で取得されたT1フレーム画像(基準画像)GB1に対してj番目の基準点SpB1が設定される。   In step SS4, the search reference point setting unit 363B performs the jth operation on the T1 frame image (reference image) GB1 acquired in step SS3 according to the numerical value j most recently set in step SS1 or step SS23 (FIG. 40). The reference point SpB1 is set.

ステップSS5では、基準視差設定部365Bによって、ステップSS3で取得されたT2フレーム画像(参照画像)GB2に対して、処理対象点PpB2が設定される。すなわち、基準視差が初期値に設定される。   In step SS5, the reference parallax setting unit 365B sets the processing point PpB2 for the T2 frame image (reference image) GB2 acquired in step SS3. That is, the reference parallax is set to the initial value.

ステップSS6では、ウインドウ設定部366Bによって、T1フレーム画像(基準画像)GB1に対して、基準点SpB1を中心として包含する基準領域WB1が設定されるとともに、T2フレーム画像(参照画像)GB2に対して、処理対象点PpB2を中心として包含する比較領域WB2が設定される。   In step SS6, the window setting unit 366B sets a reference area WB1 including the reference point SpB1 as a center for the T1 frame image (reference image) GB1, and also sets the T2 frame image (reference image) GB2. A comparison area WB2 including the processing target point PpB2 as a center is set.

ステップSS7では、周波数解析部367Bによって、T1フレーム画像(基準画像)GB1の基準領域WB1が周波数成分情報に変換されるとともに、T2フレーム画像(参照画像)GB2の比較領域WB2が周波数成分情報に変換される。   In step SS7, the frequency analysis unit 367B converts the reference region WB1 of the T1 frame image (reference image) GB1 into frequency component information, and converts the comparison region WB2 of the T2 frame image (reference image) GB2 into frequency component information. Is done.

ステップSS8では、相関演算部369Bによって、ステップSS7で得られた基準領域WB1に係る周波数成分情報と比較領域WB2に係る周波数成分情報とに基づく相関演算が行われる。この相関演算によって、投票積算値の分布が得られるとともに、基準領域WB1と比較領域WB2との間の相関を示すピーク相関値Cmaxが算出される。 In step SS8, the correlation calculation unit 369B performs a correlation calculation based on the frequency component information related to the reference region WB1 and the frequency component information related to the comparison region WB2 obtained in step SS7. By this correlation calculation, a distribution of vote integrated values is obtained, and a peak correlation value C max indicating a correlation between the reference area WB1 and the comparison area WB2 is calculated.

ステップSS9では、対応点決定部370Bによって、ステップSS8で得られた投票積算値の分布に基づいて、ピーク相関値Cmaxに対応する視差(dx,dy)が導出されるとともに、基準点SpB1に対応する参照画像GB2上の対応点が認識される。このステップSS9の処理が終了されると、図39のステップSS11に進む。 In step SS9, the corresponding point determination unit 370B derives the parallax (dx, dy) corresponding to the peak correlation value C max based on the distribution of the vote integrated values obtained in step SS8, and also determines the reference point SpB1. Corresponding points on the corresponding reference image GB2 are recognized. When the process of step SS9 is completed, the process proceeds to step SS11 of FIG.

図39のステップSS11では、画像取得部361Bによって、処理対象画像ペアを指定する際に基準となる数値mが1つ増加される。   In step SS11 of FIG. 39, the image acquisition unit 361B increments the numerical value m that is a reference when specifying the processing target image pair by one.

ステップSS12では、画像取得部361Bによって、ステップSS11で設定された数値mに従い、Tmフレーム画像GBmとT(m+1)フレーム画像GB(m+1)とが処理対象画像ペアとして記憶部34から取得される。このとき、Tmフレーム画像GBmが基準画像GBmとされるとともに、T(m+1)フレーム画像GB(m+1)が基準画像GB(m+1)とされる。なお、Tmフレーム画像GBmについては、前段の相関演算で使用するために既に記憶部34から取得されているものが、そのまま利用されても良い。   In step SS12, the image acquisition unit 361B acquires the Tm frame image GBm and the T (m + 1) frame image GB (m + 1) from the storage unit 34 as a processing target image pair according to the numerical value m set in step SS11. At this time, the Tm frame image GBm is set as the reference image GBm, and the T (m + 1) frame image GB (m + 1) is set as the reference image GB (m + 1). Note that the Tm frame image GBm that has already been acquired from the storage unit 34 for use in the previous correlation calculation may be used as it is.

ステップSS13では、探索基準点設定部363Bによって、ステップSS9(図38)またはステップSS19(図39)で直近に決定されたTmフレーム画像GBm上の対応点が、基準点SpBmとして設定される。   In step SS13, the search reference point setting unit 363B sets the corresponding point on the Tm frame image GBm most recently determined in step SS9 (FIG. 38) or step SS19 (FIG. 39) as the reference point SpBm.

ステップSS14では、基準視差設定部365Bによって、ステップSS12で取得されたT(m+1)フレーム画像(参照画像)GB(m+1)に対して、処理対象点PpB(m+1)が設定される。すなわち、基準視差が設定される。   In step SS14, the reference parallax setting unit 365B sets the processing target point PpB (m + 1) for the T (m + 1) frame image (reference image) GB (m + 1) acquired in step SS12. That is, the reference parallax is set.

ステップSS15では、ウインドウ設定部366Bによって、Tmフレーム画像(基準画像)GBmに対して、基準点SpBmを中心として包含する基準領域WBmが設定されるとともに、T(m+1)フレーム画像(参照画像)GB(m+1)に対して、処理対象点PpB(m+1)を中心として包含する比較領域WB(m+1)が設定される。   In step SS15, the window setting unit 366B sets a reference area WBm that includes the reference point SpBm as a center for the Tm frame image (reference image) GBm, and a T (m + 1) frame image (reference image) GB. A comparison area WB (m + 1) including the processing target point PpB (m + 1) as a center is set for (m + 1).

ステップSS16では、周波数解析部367Bによって、Tmフレーム画像(基準画像)GBmの基準領域WBmが周波数成分情報に変換されるとともに、T(m+1)フレーム画像(参照画像)GB(m+1)の比較領域WB(m+1)が周波数成分情報に変換される。   In step SS16, the frequency analysis unit 367B converts the reference area WBm of the Tm frame image (reference image) GBm into frequency component information, and also compares the comparison area WB of the T (m + 1) frame image (reference image) GB (m + 1). (m + 1) is converted into frequency component information.

ステップSS17では、周波数成分制限部368Bによって、直近のステップSS16で生成された周波数成分情報が、前段の相関演算で得られたピーク相関値Cmaxに応じた重み付けルールに従って制限される。ここでは、前段の相関演算で得られるピーク相関値Cmaxに基づいて、相関演算における周波数成分情報の使用が制限される使用制限周波数範囲(例えば、低周波側制限範囲RL1や高周波側制限範囲RH1など)が設定される。そして、この使用制限周波数範囲に応じて、直近のステップSS16で生成された周波数成分情報が制限された上で、相関演算部369Bに対して出力される。 In step SS17, the frequency component restriction unit 368B restricts the frequency component information generated in the latest step SS16 according to a weighting rule corresponding to the peak correlation value Cmax obtained in the previous correlation calculation. Here, based on the peak correlation value C max obtained in the previous correlation calculation, the use limited frequency range in which the use of the frequency component information in the correlation calculation is limited (for example, the low frequency side limited range RL1 and the high frequency side limited range RH1). Etc.) is set. Then, the frequency component information generated in the latest step SS16 is limited according to the use limited frequency range, and then output to the correlation calculation unit 369B.

ステップSS18では、相関演算部369Bによって、ステップSS17で一部の情報が制限された、基準領域WBmに係る周波数成分情報と比較領域WB(m+1)に係る周波数成分情報とに基づく相関演算が行われる。この相関演算によって、投票積算値の分布が得られるとともに、基準領域WBmと比較領域WB(m+1)との間の相関を示すピーク相関値Cmaxが算出される。 In step SS18, the correlation calculation unit 369B performs a correlation calculation based on the frequency component information related to the reference region WBm and the frequency component information related to the comparison region WB (m + 1), a part of which is limited in step SS17. . By this correlation calculation, a distribution of vote integrated values is obtained, and a peak correlation value C max indicating a correlation between the reference area WBm and the comparison area WB (m + 1) is calculated.

ステップSS19では、対応点決定部370Bによって、ステップSS18で得られた投票積算値の分布に基づいて、ピーク相関値Cmaxに対応する視差(dx,dy)が導出されるとともに、基準点SpBmに対応する参照画像GB(m+1)上の対応点が決定される。 In step SS19, the corresponding point determination unit 370B derives the parallax (dx, dy) corresponding to the peak correlation value C max based on the distribution of the vote integrated values obtained in step SS18, and the reference point SpBm. Corresponding points on the corresponding reference image GB (m + 1) are determined.

ステップSS20では、画像取得部361Bによって、数値(m+1)が、対応点探索処理の対象となるフレーム画像の数nに到達しているか否かが判定される。ここで、数値(m+1)が、数nに到達していなければ、ステップSS11に進み、数値(m+1)が、数nに到達するまで、ステップSS11〜SS20の処理が繰り返される。これにより、ステップSS4で設定された1つの基準点Sp1に対応する対応点が、各T2〜Tnフレーム画像GB2〜GBn上でそれぞれ決定される。一方、数値(m+1)が、数nに到達していれば、図40のステップSS21に進む。   In step SS20, the image acquisition unit 361B determines whether or not the numerical value (m + 1) has reached the number n of frame images to be subjected to corresponding point search processing. Here, if the numerical value (m + 1) does not reach the number n, the process proceeds to step SS11, and the processes of steps SS11 to SS20 are repeated until the numerical value (m + 1) reaches the number n. Thereby, the corresponding points corresponding to one reference point Sp1 set in step SS4 are determined on each of the T2 to Tn frame images GB2 to GBn. On the other hand, if the numerical value (m + 1) has reached the number n, the process proceeds to step SS21 in FIG.

図40のステップSS21では、制御部36によって、直近のステップSS4で設定された基準点Sp1と、ステップSS19(図39)で決定された各対応点とが関連付けられて、記憶部34に記憶される。   In step SS21 of FIG. 40, the control unit 36 associates the reference point Sp1 set in the most recent step SS4 with each corresponding point determined in step SS19 (FIG. 39) and stores it in the storage unit 34. The

ステップSS22では、探索基準点設定部363Bによって、ステップSS4においてT1フレーム画像(基準画像)GB1の全画素が基準点SpB1として既に設定されたか否かが判定される。ここで、未だにT1フレーム画像(基準画像)GB1の全画素が基準点SpB1として設定されていなければ、ステップSS23に進む。一方、既にT1フレーム画像(基準画像)GB1の全画素が基準点SpB1として設定されていれば、本動作フローが終了される。   In step SS22, the search reference point setting unit 363B determines whether all pixels of the T1 frame image (reference image) GB1 have already been set as the reference point SpB1 in step SS4. If all the pixels of the T1 frame image (reference image) GB1 have not yet been set as the reference point SpB1, the process proceeds to step SS23. On the other hand, if all the pixels of the T1 frame image (reference image) GB1 have already been set as the reference point SpB1, this operation flow ends.

ステップSS23では、探索基準点設定部363Bによって、基準点を設定する際に基準となる数値jが1つ増加されて、図38のステップSS2に進む。これにより、T1フレーム画像GB1上に設定される各基準点SpB1に対応する対応点が、各T2〜Tnフレーム画像GB2〜GBn上でそれぞれ決定される。   In step SS23, the search reference point setting unit 363B increments the reference value j when setting the reference point by one, and proceeds to step SS2 in FIG. Thereby, the corresponding points corresponding to the reference points SpB1 set on the T1 frame image GB1 are determined on the T2 to Tn frame images GB2 to GBn, respectively.

<(5-1-4)第1変形例のまとめ>
以上のように、第1変形例に係る情報処理システム1Bによれば、処理対象画像ペアとしてのT(m−1)フレーム画像GB(m−1)とTmフレーム画像GBmとの間における類似の度合いを示す相関値に基づいて、次の処理対象画像ペアとしてのTmフレーム画像GBmとT(m+1)フレーム画像GB(m+1)との間における相関演算の演算量が低減される。このため、複数の画像を対象とした対応点探索処理における精度の維持と速度の向上とが両立する。
<(5-1-4) Summary of the first modification>
As described above, according to the information processing system 1B according to the first modification, the similarity between the T (m−1) frame image GB (m−1) and the Tm frame image GBm as the processing target image pair is similar. Based on the correlation value indicating the degree, the amount of correlation calculation between the Tm frame image GBm and the T (m + 1) frame image GB (m + 1) as the next processing target image pair is reduced. For this reason, both maintaining accuracy and improving speed in the corresponding point search processing for a plurality of images are compatible.

なお、本変形例では、カメラ2Bで時間順次に取得される時系列の画像(具体的には、T1〜Tnフレーム画像GB1〜GBn)を対象とした対応点探索動作を例示して説明したが、これに限られない。例えば、同種の被写体を捉えた3以上の画像を対象として対応点探索動作が行われても良い。但し、基準視差の設定の容易さなどを考慮すると、時系列の画像を対応点探索動作の対象とする方が、各画像間における類似の度合いが高いため、好ましい。   In the present modification, the corresponding point search operation for time series images (specifically, T1 to Tn frame images GB1 to GBn) acquired sequentially in time by the camera 2B has been described as an example. Not limited to this. For example, the corresponding point search operation may be performed on three or more images capturing the same type of subject. However, considering the ease of setting the reference parallax and the like, it is preferable to use a time-series image for the corresponding point search operation because the degree of similarity between the images is high.

また、本変形例では、単純に処理対象画像ペアを構成する2つの画像の間における対応点探索処理が行われたが、これに限られない。例えば、時系列の画像(具体的には、T1〜Tnフレーム画像GB1〜GBn)で捉えられた被写体の動きが大きな場合やその動きが規則的でないような場合には、各処理対象画像ペアについて、上記一実施形態と同様に、解像度を段階的に低下させた画像の組を生成して、低解像度の画像の組から順次に対応点探索処理が行われる方が、対応点探索処理における精度の維持を図る上で好ましい。   Further, in the present modification, the corresponding point search process between the two images constituting the processing target image pair is simply performed, but the present invention is not limited to this. For example, when the movement of the subject captured in the time-series images (specifically, the T1 to Tn frame images GB1 to GBn) is large or the movement is not regular, each processing target image pair As in the above-described embodiment, it is more accurate to generate a set of images whose resolution is gradually reduced and perform the corresponding point search process sequentially from the low-resolution image set. It is preferable for maintaining the above.

<(5-2)その他の変形例>
◎また、上記一実施形態では、前段の対応点の探索処理で求められた相関値(例えば、ピーク相関値Cmax)に応じて、周波数ごとの重み付け係数や使用制限周波数範囲が設定されたが、これに限られない。例えば、或る対応点の探索処理を基準として、前段よりも更に1段以上前段(例えば、前々段)の対応点の探索処理で求められる相関値も用いられて、周波数ごとの重み付け係数や使用制限周波数範囲が設定されても良い。
<(5-2) Other variations>
In the above-described embodiment, the weighting coefficient for each frequency and the use-restricted frequency range are set according to the correlation value (for example, peak correlation value C max ) obtained in the corresponding point search process in the previous stage. Not limited to this. For example, on the basis of a search process for a certain corresponding point, a correlation value obtained by a search process for corresponding points at one or more stages before the previous stage (for example, the previous stage) is also used, and a weighting coefficient for each frequency or A limited use frequency range may be set.

具体例としては、2回以上連続して相関値(例えば、ピーク相関値Cmax)が所定値よりも高い値に維持されれば、対応点探索処理に用いられる処理対象画像ペアについては、処理対象点と対応点とのズレが少ないものと推定される。そこで、このような場合には、自動的に低周波の周波数成分に対する重み付け係数がより低減されて、低周波側制限範囲RL1が拡大されるような態様が考えられる。 As a specific example, if the correlation value (for example, the peak correlation value C max ) is continuously maintained at a value higher than a predetermined value two or more times, the processing target image pair used in the corresponding point search process is processed. It is estimated that the difference between the target point and the corresponding point is small. Therefore, in such a case, a mode is conceivable in which the weighting coefficient for the low frequency frequency component is automatically reduced and the low frequency side limit range RL1 is expanded.

また、例えば、相関演算で使用される周波数成分情報を制限するための前段の相関値は、投票積算値の確率密度であっても良いし、投票積算値の分布において、最大投票値を示す視差(dx,dy)の周辺の1以上の視差に係る投票積算値と最大投票値との総和であっても良い。また、基準領域と比較領域との間において求められる相関値の総和に占めるピーク相関値Cmaxの割合が採用されても良い。すなわち、相関演算で使用される周波数成分情報を制限するための前段の相関値として、前段の相関演算で得られる複数の画像間の相関を示す種々の値が採用されても良い。このように、より多くの情報が加味されることで、ノイズ等の影響に拘わらず、対応点探索処理における精度の向上が図られる。 Further, for example, the correlation value in the previous stage for limiting the frequency component information used in the correlation calculation may be a probability density of vote integrated values, or a disparity indicating a maximum vote value in the distribution of vote integrated values. It may be the sum of the vote integrated value and the maximum vote value related to one or more parallax around (dx, dy). In addition, the ratio of the peak correlation value C max to the total sum of correlation values obtained between the reference area and the comparison area may be employed. That is, various values indicating correlation between a plurality of images obtained by the preceding correlation calculation may be adopted as the preceding correlation value for limiting the frequency component information used in the correlation calculation. Thus, by adding more information, the accuracy in the corresponding point search process can be improved regardless of the influence of noise or the like.

◎また、上記一実施形態では、周波数iごとに、低周波重視型ルールの重み付け係数WLOWと高周波重視型ルールの重み付け係数WHIGHのうち、相対的に低い重み付け係数が採用されたが、これに限られない。例えば、周波数iごとに、3種類以上の重み付けルールの重み付け係数から、1つの重み付けルールに係る重み付け係数が選択されても良い。 In the above-described embodiment, for each frequency i, a relatively low weighting factor is adopted among the weighting factor W LOW of the low frequency emphasis type rule and the weighting factor W HIGH of the high frequency emphasis type rule. Not limited to. For example, for each frequency i, the weighting coefficient according to one weighting rule may be selected from the weighting coefficients of three or more types of weighting rules.

具体例としては、低周波重視型ルールの重み付け係数WLOWと、高周波重視型ルールの重み付け係数WHIGHとに加えて、更に、別の重み付けルールに係る重み付け係数Weが設定されても良い。この場合、周波数iごとに、低周波重視型ルールの重み付け係数WLOW、高周波重視型ルールの重み付け係数WHIGH、および別の重み付けルールに係る重み付け係数Weのうち、相対的に最も低い重み付け係数が採用される態様が考えられる。 As a specific example, the weighting coefficient W LOW of the low frequency-oriented rules, in addition to the weighting factor W HIGH high frequency-oriented rules, further weighting factor W e in accordance with another weighting rule may be set. In this case, for each frequency i, the weighting factor W LOW of the low frequency-oriented rule, the weighting coefficient W HIGH high frequency-oriented rules and of the weighting factors W e according to another weighting rule, relatively lowest weighting factor A mode in which is adopted is conceivable.

例えば、下式(4)の関係を満たす場合には、We(i,Cmax)が重み付け係数として採用され、下式(5)で示されるように、振幅fiにWe(i,Cmax)が乗ぜられた値が、重み付け後の振幅fiAFTERとなるような態様が考えられる。 For example, if satisfying the relation of the following equation (4) is, W e (i, C max) is adopted as weighting coefficients, as represented by the following formula (5), the amplitude f i W e (i, A mode is conceivable in which the value multiplied by C max ) becomes the weighted amplitude f iAFTER .

e(i,Cmax)<WLOW(i,Cmax)<WHIGH(i,Cmax) ・・・(4)
iAFTER=We(i,Cmax)×fi ・・・(5)
W e (i, C max) <W LOW (i, C max) <W HIGH (i, C max) ··· (4)
f iAFTER = W e (i, C max ) × f i (5)

また、重み付け係数の採用に係る別の態様として、周波数iごとに、低周波重視型ルールの重み付け係数WLOWと高周波重視型ルールの重み付け係数WHIGHとの積が重み付け係数として採用される態様も考えられる。 Further, as another aspect relating to the adoption of the weighting coefficient, there is also an aspect in which, for each frequency i, the product of the weighting coefficient W LOW of the low frequency emphasis type rule and the weighting coefficient W HIGH of the high frequency emphasis type rule is adopted as the weighting coefficient. Conceivable.

◎また、上記一実施形態では、周波数iごとに、相関値に応じた使用制限周波数範囲が設定されたが、この使用制限周波数範囲には、相関値の大小に拘わらず、所定の周波数の範囲が含まれるようにしても良い。例えば、極端な低周波や高周波は、対応点探索処理の精度を向上させる上での寄与度が小さい場合が想定される。このような場合には、相関値の大小に拘わらず、所定の周波数の範囲が使用制限周波数範囲に含まれても良い。   In the above-described embodiment, the use restriction frequency range corresponding to the correlation value is set for each frequency i. However, the use restriction frequency range includes a predetermined frequency range regardless of the correlation value. May be included. For example, it is assumed that an extremely low frequency or high frequency has a small contribution in improving the accuracy of the corresponding point search process. In such a case, a predetermined frequency range may be included in the use limited frequency range regardless of the correlation value.

例えば、上記一実施形態では、3層目(最下層)の低解像度の画像の組については、前段の相関値が得られていないため、周波数成分情報に対する重み付けおよび制限が行われなかったが、これに限られない。例えば、周波数成分情報のうち、極端な低周波や高周波に係る周波数成分情報については制限されるようにしても良い。つまり、3層目(最下層)の低解像度の画像の組を対象とした相関演算において、極端な低周波や高周波に係る周波数成分情報が使用されないようにしても良い。これにより、対応点探索処理における演算速度の更なる向上が図られる。   For example, in the above-described embodiment, for the set of low-resolution images in the third layer (lowermost layer), since the correlation value of the previous stage is not obtained, weighting and restriction on the frequency component information were not performed. It is not limited to this. For example, frequency component information related to extremely low frequencies and high frequencies among the frequency component information may be limited. That is, frequency component information related to extremely low frequencies and high frequencies may not be used in the correlation calculation for the set of low resolution images in the third layer (lowermost layer). Thereby, the calculation speed in the corresponding point search process can be further improved.

◎また、上記一実施形態では、重み付け係数が乗ぜられた振幅に応じた投票値の積算が行われたが、これに限られない。例えば、ゼロ以外の重み付け係数が周波数成分情報に付され、相関演算において、重み付け係数の大きさに応じた投票値が積算されるような構成が採用されても良い。   In the embodiment described above, the vote values are integrated according to the amplitude multiplied by the weighting coefficient, but the present invention is not limited to this. For example, a configuration may be employed in which a weighting coefficient other than zero is attached to the frequency component information, and voting values corresponding to the magnitude of the weighting coefficient are integrated in the correlation calculation.

◎また、上記一実施形態では、2つの画像の間で対応点探索が行われたが、これに限られない。本願発明の技術的思想は、3以上の複数の画像の間における対応点探索に対しても適用可能である。   In the above embodiment, the corresponding point search is performed between the two images, but the present invention is not limited to this. The technical idea of the present invention can also be applied to search for corresponding points between three or more images.

◎また、上記一実施形態では、相関演算として、PSA法が採用された例を示して説明したが、これに限られない。例えば、周波数成分制限部368から出力される周波数成分情報を用いた相関演算としては、他の投票方法や位相限定相関法(POC法)などの種々の相関演算が採用されても良い。なお、POC法が採用された場合、相関演算で使用される周波数成分情報を制限するための前段の相関値としては、例えば、前段の相関演算で得られたPOC値のピーク値等となる。   In the embodiment described above, the example in which the PSA method is adopted as the correlation calculation has been described. However, the present invention is not limited to this. For example, as the correlation calculation using the frequency component information output from the frequency component limiter 368, various correlation calculations such as other voting methods and a phase only correlation method (POC method) may be employed. When the POC method is adopted, the upstream correlation value for limiting the frequency component information used in the correlation calculation is, for example, the peak value of the POC value obtained by the upstream correlation calculation.

◎また、上記一実施形態では、基準画像G1および参照画像G2から、所定の間引きルールに従って、垂直ラインおよび水平ラインが間引かれることで、第1〜3縮小基準画像G11〜G13および第1〜3縮小参照画像G21〜G23がそれぞれ生成されたが、これに限られない。例えば、所定数(例えば、4つ)の隣接画素の塊について画素値の平均値が求められて1画素とされる処理が画像全体にわたって行われることで、第1〜3縮小基準画像G11〜G13および第1〜3縮小参照画像G21〜G23がそれぞれ生成される方法も考えられる。すなわち、公知の縮小や倍率の変更等といった種々の方法によって、基準画像G1および参照画像G2から所定ルールに従って画素数が低減されることで、第1〜3縮小基準画像G11〜G13および第1〜3縮小参照画像G21〜G23が生成されても良い。   In the above embodiment, the vertical lines and the horizontal lines are thinned out from the standard image G1 and the reference image G2 according to a predetermined thinning rule, so that the first to third reduced standard images G11 to G13 and the first to first images are displayed. Although the three reduced reference images G21 to G23 are respectively generated, the present invention is not limited to this. For example, an average value of pixel values is obtained for a predetermined number (for example, four) of adjacent pixel clusters and processed as one pixel, and the first to third reduced reference images G11 to G13 are performed over the entire image. A method in which the first to third reduced reference images G21 to G23 are generated is also conceivable. That is, the number of pixels is reduced according to a predetermined rule from the standard image G1 and the reference image G2 by various methods such as known reduction and magnification change, and thus the first to third reduced standard images G11 to G13 and the first to first images. Three reduced reference images G21 to G23 may be generated.

◎また、2次元のフーリエ変換については、x方向についての一次元のフーリエ変換の結果と、y方向についてのフーリエ変換の結果とを利用して、2次元のフーリエ変換の結果を得る方法も考えられる。このような方法が採用される場合には、x方向に係る周波数成分とy方向に係る周波数成分とが別々に制限されるような構成が採用されても良い。   ◎ Regarding the two-dimensional Fourier transform, a method of obtaining the result of the two-dimensional Fourier transform using the result of the one-dimensional Fourier transform in the x direction and the result of the Fourier transform in the y direction is also considered. It is done. When such a method is employed, a configuration in which the frequency component in the x direction and the frequency component in the y direction are separately limited may be employed.

◎なお、上記一実施形態および各種変形例をそれぞれ構成する全部または一部を、適宜、矛盾しない範囲で組み合わせ可能であることは、言うまでもない。   It goes without saying that all or a part of each of the above-described embodiment and various modifications can be appropriately combined within a consistent range.

例えば、時系列のステレオ画像が取得され、各フレームのステレオ画像を構成する基準画像と参照画像とを対象とした対応点探索動作については、上記一実施形態と同様に、解像度が段階的に低減された画像の組が生成されて、低解像度の画像の組から順次に対応点探索処理が行われ、更に、上記第1変形例と同様に、時系列の基準画像(または参照画像)を対象とした対応点探索動作が行われるような構成が考えられる。   For example, for a corresponding point search operation for a base image and a reference image that constitute a stereo image of each frame after obtaining a time-series stereo image, the resolution is reduced stepwise as in the above embodiment. A set of images is generated, and corresponding point search processing is sequentially performed from the set of low-resolution images. Further, as in the first modified example, a time-series reference image (or reference image) is targeted. The corresponding point search operation can be considered.

1A,1B 情報処理システム
2 ステレオカメラ
2B カメラ
3 情報処理装置
34 記憶部
36 制御部
361,361B 画像取得部
362 解像度変換部
363,363B 探索基準点設定部
364 画像指定部
365,365B 基準視差設定部
366,366B ウインドウ設定部
367,367B 周波数解析部
368,368B 周波数成分制限部
369,369B 相関演算部
370,370B 対応点決定部
PGa,PGb プログラム
1A, 1B Information processing system 2 Stereo camera 2B Camera 3 Information processing device 34 Storage unit 36 Control unit 361, 361B Image acquisition unit 362 Resolution conversion unit 363, 363B Search reference point setting unit 364 Image specifying unit 365, 365B Reference parallax setting unit 366, 366B Window setting unit 367, 367B Frequency analysis unit 368, 368B Frequency component limiting unit 369, 369B Correlation calculation unit 370, 370B Corresponding point determination unit PGa, PGb program

Claims (10)

第1画像の第1領域を第1周波数成分情報に変換するとともに、第2画像の第2領域を第2周波数成分情報に変換する変換部と、
前記第1および第2周波数成分情報に基づいて、前記第1領域と前記第2領域との相関を示す第1相関値を算出する相関演算部と、
前記第1相関値に基づいて、前記相関演算部での演算における周波数成分情報の使用が制限される周波数の使用制限範囲を設定する制限部と、
を備え、
前記変換部が、
前記第1画像に対応する第3画像の第3領域を第3周波数成分情報に変換するとともに、前記第2画像に対応する第4画像の第4領域を第4周波数成分情報に変換し、
前記相関演算部が、
前記第3および第4周波数成分情報のうちの前記使用制限範囲外の周波数に係る周波数成分情報に基づいて、前記第3領域と前記第4領域との相関を示す第2相関値を算出することを特徴とする画像処理装置。
A converter that converts the first region of the first image into first frequency component information and converts the second region of the second image into second frequency component information;
A correlation calculating unit that calculates a first correlation value indicating a correlation between the first region and the second region based on the first and second frequency component information;
Based on the first correlation value, a restriction unit that sets a use restriction range of frequencies in which use of frequency component information in the calculation in the correlation calculation unit is restricted;
With
The conversion unit is
Converting the third region of the third image corresponding to the first image into third frequency component information, and converting the fourth region of the fourth image corresponding to the second image into fourth frequency component information;
The correlation calculation unit is
Calculating a second correlation value indicating a correlation between the third region and the fourth region based on frequency component information relating to a frequency outside the use restriction range in the third and fourth frequency component information. An image processing apparatus.
請求項1に記載の画像処理装置であって、
前記第3画像から所定ルールに従って画素数を低減することで前記第1画像を生成するとともに、前記第4画像から前記所定ルールに従って画素数を低減することで前記第2画像を生成する生成部、
を更に備えることを特徴とする画像処理装置。
The image processing apparatus according to claim 1,
A generating unit that generates the first image by reducing the number of pixels from the third image according to a predetermined rule, and generates the second image by reducing the number of pixels from the fourth image according to the predetermined rule;
An image processing apparatus further comprising:
請求項1または請求項2に記載の画像処理装置であって、
前記第3および第4画像が、
同一の被写体を異なる視点から捉えた複数の画像であることを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2,
The third and fourth images are
An image processing apparatus comprising a plurality of images obtained by capturing the same subject from different viewpoints.
第1画像の第1領域を第1周波数成分情報に変換するとともに、第2画像の第2領域を第2周波数成分情報に変換し、前記第2画像の第3領域を第3周波数成分情報に変換するとともに、第3画像の第4領域を第4周波数成分情報に変換する変換部と、
前記第1および第2周波数成分情報に基づいて、前記第1領域と前記第2領域との相関を示す第1相関値を算出する相関演算部と、
前記第1相関値に基づいて、前記相関演算部での演算における周波数成分情報の使用が制限される周波数の使用制限範囲を設定する制限部と、
を備え、
前記相関演算部が、
前記第3および第4周波数成分情報のうちの前記使用制限範囲外の周波数に係る周波数成分情報に基づいて、前記第3領域と前記第4領域との相関を示す第2相関値を算出することを特徴とする画像処理装置。
The first region of the first image is converted into the first frequency component information, the second region of the second image is converted into the second frequency component information, and the third region of the second image is converted into the third frequency component information. A conversion unit for converting and converting the fourth region of the third image into fourth frequency component information;
A correlation calculating unit that calculates a first correlation value indicating a correlation between the first region and the second region based on the first and second frequency component information;
Based on the first correlation value, a restriction unit that sets a use restriction range of frequencies in which use of frequency component information in the calculation in the correlation calculation unit is restricted;
With
The correlation calculation unit is
Calculating a second correlation value indicating a correlation between the third region and the fourth region based on frequency component information relating to a frequency outside the use restriction range in the third and fourth frequency component information. An image processing apparatus.
請求項4に記載の画像処理装置であって、
前記第1から第3画像が、
同一の視点から同一の被写体の時間的な変化を捉えた複数の画像であることを特徴とする画像処理装置。
The image processing apparatus according to claim 4,
The first to third images are
An image processing apparatus comprising a plurality of images capturing temporal changes of the same subject from the same viewpoint.
請求項1から請求項5の何れか1つの請求項に記載の画像処理装置であって、
前記制限部が、
前記第1相関値が大きくなるに従って、前記変換部で得られる各前記周波数成分情報のうちの最も低周波側からより広範囲の周波数に係る周波数成分情報の使用が制限されるように、前記使用制限範囲を設定することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 5, wherein:
The restriction unit is
As the first correlation value increases, the use restriction is such that use of frequency component information relating to a wider range of frequencies from the lowest frequency side among the frequency component information obtained by the conversion unit is restricted. An image processing apparatus that sets a range.
請求項1から請求項6の何れか1つの請求項に記載の画像処理装置であって、
前記制限部が、
前記第1相関値が小さくなるに従って、前記変換部で得られる各前記周波数成分情報のうちの最も高周波側からより広範囲の周波数に係る周波数成分情報の使用が制限されるように、前記使用制限範囲を設定することを特徴とする画像処理装置。
The image processing apparatus according to any one of claims 1 to 6, wherein
The restriction unit is
As the first correlation value decreases, the use restriction range is such that use of frequency component information relating to a wider range of frequencies from the highest frequency side among the frequency component information obtained by the conversion unit is restricted. An image processing apparatus characterized by setting the value.
第1画像の第1領域を第1周波数成分情報に変換するとともに、第2画像の第2領域を第2周波数成分情報に変換する第1変換ステップと、
前記第1および第2周波数成分情報に基づいて、前記第1領域と前記第2領域との相関を示す第1相関値を算出する第1演算ステップと、
前記第1相関値に基づいて、前記相関演算部での演算における周波数成分情報の使用が制限される周波数の使用制限範囲を設定する設定ステップと、
前記第1画像に対応する第3画像の第3領域を第3周波数成分情報に変換するとともに、前記第2画像に対応する第4画像の第4領域を第4周波数成分情報に変換する第2変換ステップと、
前記第3および第4周波数成分情報のうちの前記使用制限範囲外の周波数に係る周波数成分情報に基づいて、前記第3領域と前記第4領域との相関を示す第2相関値を算出する第2演算ステップと、
を備えることを特徴とする画像処理方法。
A first conversion step of converting a first region of the first image into first frequency component information and converting a second region of the second image into second frequency component information;
A first calculation step of calculating a first correlation value indicating a correlation between the first region and the second region based on the first and second frequency component information;
Based on the first correlation value, a setting step for setting a frequency use restriction range in which use of frequency component information in the calculation in the correlation calculation unit is restricted;
A second region that converts the third region of the third image corresponding to the first image into third frequency component information and converts the fourth region of the fourth image corresponding to the second image into fourth frequency component information. A conversion step;
A second correlation value indicating a correlation between the third region and the fourth region is calculated based on frequency component information relating to a frequency outside the use restriction range in the third and fourth frequency component information. Two computation steps;
An image processing method comprising:
第1画像の第1領域を第1周波数成分情報に変換するとともに、第2画像の第2領域を第2周波数成分情報に変換する第1変換ステップと、
前記第1周波数成分情報と前記第2周波数成分情報とに基づいて、前記第1領域と前記第2領域との相関を示す第1相関値を算出する第1演算ステップと、
前記第1相関値に基づいて、相関演算における周波数成分情報の使用が制限される周波数の使用制限範囲を設定する設定ステップと、
前記第2画像の第3領域を第3周波数成分情報に変換するとともに、第3画像の第4領域を第4周波数成分情報に変換する第2変換ステップと、
前記第3および第4周波数成分情報のうちの前記使用制限範囲外の周波数の周波数成分情報に基づいて、前記第3領域と前記第4領域との相関を示す第2相関値を算出する第2演算ステップと、
を備えることを特徴とする画像処理方法。
A first conversion step of converting a first region of the first image into first frequency component information and converting a second region of the second image into second frequency component information;
A first calculation step of calculating a first correlation value indicating a correlation between the first region and the second region based on the first frequency component information and the second frequency component information;
A setting step of setting a frequency use restriction range in which use of frequency component information in the correlation calculation is restricted based on the first correlation value;
A second conversion step of converting the third region of the second image into third frequency component information and converting the fourth region of the third image into fourth frequency component information;
A second correlation value indicating a correlation between the third region and the fourth region based on frequency component information of a frequency outside the use restriction range in the third and fourth frequency component information; A calculation step;
An image processing method comprising:
情報処理装置に含まれる制御部において実行されることにより、前記情報処理装置を、請求項1から請求項7の何れか1つの請求項に記載の画像処理装置として機能させるプログラム。   A program that causes the information processing apparatus to function as the image processing apparatus according to any one of claims 1 to 7 by being executed by a control unit included in the information processing apparatus.
JP2010032465A 2010-02-17 2010-02-17 Image processing apparatus, image processing method, and program Expired - Fee Related JP5310594B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010032465A JP5310594B2 (en) 2010-02-17 2010-02-17 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010032465A JP5310594B2 (en) 2010-02-17 2010-02-17 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2011170519A true JP2011170519A (en) 2011-09-01
JP5310594B2 JP5310594B2 (en) 2013-10-09

Family

ID=44684602

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010032465A Expired - Fee Related JP5310594B2 (en) 2010-02-17 2010-02-17 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5310594B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013108554A1 (en) * 2012-01-17 2013-07-25 コニカミノルタ株式会社 Image processing apparatus, image processing method, and image processing program
WO2019171413A1 (en) * 2018-03-05 2019-09-12 日本電気株式会社 Image comparison device
CN112602117A (en) * 2019-03-14 2021-04-02 欧姆龙株式会社 Image processing apparatus and three-dimensional measurement system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08161497A (en) * 1994-12-05 1996-06-21 Ibm Japan Ltd Image recognition method and its device
JP2005157534A (en) * 2003-11-21 2005-06-16 Yamatake Corp Pattern-matching apparatus
JP2008090601A (en) * 2006-10-02 2008-04-17 Konica Minolta Holdings Inc Image processing apparatus, control method of image processing apparatus, control program of image processing apparatus
JP2008216126A (en) * 2007-03-06 2008-09-18 Konica Minolta Holdings Inc Distance image generating device, distance image generation method, and program
JP2009282762A (en) * 2008-05-22 2009-12-03 Konica Minolta Holdings Inc Corresponding point retrieval device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08161497A (en) * 1994-12-05 1996-06-21 Ibm Japan Ltd Image recognition method and its device
JP2005157534A (en) * 2003-11-21 2005-06-16 Yamatake Corp Pattern-matching apparatus
JP2008090601A (en) * 2006-10-02 2008-04-17 Konica Minolta Holdings Inc Image processing apparatus, control method of image processing apparatus, control program of image processing apparatus
JP2008216126A (en) * 2007-03-06 2008-09-18 Konica Minolta Holdings Inc Distance image generating device, distance image generation method, and program
JP2009282762A (en) * 2008-05-22 2009-12-03 Konica Minolta Holdings Inc Corresponding point retrieval device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013108554A1 (en) * 2012-01-17 2013-07-25 コニカミノルタ株式会社 Image processing apparatus, image processing method, and image processing program
CN104054109A (en) * 2012-01-17 2014-09-17 柯尼卡美能达株式会社 Image processing apparatus, image processing method, and image processing program
JPWO2013108554A1 (en) * 2012-01-17 2015-05-11 コニカミノルタ株式会社 Image processing apparatus, image processing method, and image processing program
US9495611B2 (en) 2012-01-17 2016-11-15 Konica Minolta, Inc. Image processing apparatus, image processing method, and image processing program
WO2019171413A1 (en) * 2018-03-05 2019-09-12 日本電気株式会社 Image comparison device
US11468661B2 (en) 2018-03-05 2022-10-11 Nec Corporation Image matching device
CN112602117A (en) * 2019-03-14 2021-04-02 欧姆龙株式会社 Image processing apparatus and three-dimensional measurement system

Also Published As

Publication number Publication date
JP5310594B2 (en) 2013-10-09

Similar Documents

Publication Publication Date Title
US6801653B1 (en) Information processing apparatus and method as well as medium
JP3944647B2 (en) Object measuring apparatus, object measuring method, and program
JP5682065B2 (en) Stereo image processing apparatus and stereo image processing method
JP4613994B2 (en) Dynamic estimation device, dynamic estimation method, program
TW201514867A (en) Optical flow tracking method and apparatus
WO2021072710A1 (en) Point cloud fusion method and system for moving object, and computer storage medium
JP6245330B2 (en) Object division method, object division apparatus, and object division program
JP2008185375A (en) 3d shape calculation device of sar image, and distortion correction device of sar image
US8538137B2 (en) Image processing apparatus, information processing system, and image processing method
JP2015036123A (en) Medical image processor, medical image processing method and classifier training method
US20140105475A1 (en) Image processing apparatus and image processing method
JP2009163744A (en) Method and system for swipe sensor image alignment using fourier phase analysis
JP5110235B1 (en) Image processing apparatus, image processing method, and program
JP7219561B2 (en) In-vehicle environment recognition device
JP5310594B2 (en) Image processing apparatus, image processing method, and program
JP2015108837A (en) Image processing apparatus and image processing method
JP2006285952A (en) Image processing method, image processor, program, and recording medium
KR100930286B1 (en) Cost function calculation method and hidden region processing method for variance estimation
JP2010005251A (en) Ultrasonic diagnostic apparatus
JP4708740B2 (en) Image processing apparatus and image processing method
US9323999B2 (en) Image recoginition device, image recognition method, and image recognition program
JP5170005B2 (en) Image processing apparatus, image processing method, and program
JP5316309B2 (en) Image processing apparatus and image processing method
CN108955562B (en) Digital extension method and system for microscopic depth of field of microscopic vision system
CN114972882B (en) Wear surface damage depth estimation method and system based on multi-attention mechanism

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130617

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees