JP4877243B2 - Corresponding point search apparatus and method - Google Patents

Corresponding point search apparatus and method Download PDF

Info

Publication number
JP4877243B2
JP4877243B2 JP2008026951A JP2008026951A JP4877243B2 JP 4877243 B2 JP4877243 B2 JP 4877243B2 JP 2008026951 A JP2008026951 A JP 2008026951A JP 2008026951 A JP2008026951 A JP 2008026951A JP 4877243 B2 JP4877243 B2 JP 4877243B2
Authority
JP
Japan
Prior art keywords
image
corresponding point
point search
time point
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008026951A
Other languages
Japanese (ja)
Other versions
JP2009187316A (en
Inventor
宏 大和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2008026951A priority Critical patent/JP4877243B2/en
Publication of JP2009187316A publication Critical patent/JP2009187316A/en
Application granted granted Critical
Publication of JP4877243B2 publication Critical patent/JP4877243B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、2つの画像間における互いに対応する点を探索するための対応点探索装置および対応点探索方法に関する。   The present invention relates to a corresponding point search apparatus and a corresponding point search method for searching for points corresponding to each other between two images.

従来、2つの画像のうちの一方を基準画像とすると共に他方を参照画像とした場合に、前記基準画像における注目点に対応する前記参照画像の対応点を探索するための対応点探索方法が知られている。この対応点探索方法は、画像マッチングとも呼ばれ、コンピュータによる画像の解析、認識および理解等の様々な分野における基本技術として重要である。   Conventionally, there is known a corresponding point search method for searching for a corresponding point of the reference image corresponding to a point of interest in the reference image when one of the two images is a reference image and the other is a reference image. It has been. This corresponding point search method is also called image matching, and is important as a basic technique in various fields such as image analysis, recognition and understanding by a computer.

例えば、この対応点探索方法は、FA(Factory automation)におけるロボットの3次元的な視覚、および、車両等の移動体における先行物体の認識や先行物体までの距離計測等において、一組のステレオ画像を用いた対応点探索処理に利用される。また例えば、対応点探索方法は、セキュリティシステムにおける移動体の追尾や顔部位のトラッキング(追跡)等において、一組の動画像を用いた動きベクトル探索処理に利用される。また例えば、バイオメトリクス認証における顔認証や指紋認証および画像検索等において、登録画像と照会画像との比較処理に利用される。   For example, this corresponding point search method uses a set of stereo images in three-dimensional vision of a robot in FA (Factory Automation) and recognition of a preceding object in a moving body such as a vehicle and measurement of a distance to the preceding object. It is used for corresponding point search processing using. Further, for example, the corresponding point search method is used for motion vector search processing using a set of moving images in tracking of a moving object, tracking of a face part (tracking), and the like in a security system. Also, for example, it is used for comparison processing between a registered image and a reference image in face authentication, fingerprint authentication, image search, and the like in biometric authentication.

この対応点探索方法は、研究、開発され、様々な手法が提案されているが、例えば、図17に示すように、基準画像I1における対応点探索の演算領域となるテンプレートTPのサイズ(領域の大きさ)によっては、テンプレートTPが基準画像I1の縁部(端部)近傍位置に設定される場合があり、画像領域を外れた、画像ではない領域(画像外領域)がテンプレートTP内に含まれ、誤対応するおそれが生じる。すなわち、基準画像I1に対して水平方向にN画素ずれた参照画像I2について対応点探索を行う場合、図17に示すように、基準画像I1の注目点Aに対応する参照画像I2の対応点は、本来、N画素ずれた位置である点A’が求まるべきである。しかしながら、基準画像I1の注目点Aに対して設定されたテンプレートTP内に画像外領域が含まれると、画像として本来無いエッジが画像領域の輝度値と画像外領域の輝度値との差によって画像領域と画像外領域との境界に生じてしまう。このため、このエッジを含んだ状態で対応点探索が行われることになる。この結果、このエッジの影響、すなわち、画像領域と画像外領域とにおける画像の不連続性の影響によって、基準画像I1の注目点Aに対応する参照画像I2の対応点が参照画像I2における基準画像I1と同じ位置である点A”で類似度(相関)が高くなる場合が生じ、誤対応してしまう。   This corresponding point search method has been researched and developed, and various methods have been proposed. For example, as shown in FIG. 17, the size (area of the template TP) serving as the calculation area for the corresponding point search in the reference image I1. Depending on the size, the template TP may be set in the vicinity of the edge (end) of the reference image I1, and a non-image area (outside image area) outside the image area is included in the template TP. There is a risk of mishandling. That is, when the corresponding point search is performed for the reference image I2 shifted by N pixels in the horizontal direction with respect to the standard image I1, the corresponding points of the reference image I2 corresponding to the attention point A of the standard image I1 are as shown in FIG. Originally, a point A ′ that is a position shifted by N pixels should be obtained. However, when an outside image area is included in the template TP set with respect to the target point A of the reference image I1, an edge that does not exist as an image is caused by the difference between the brightness value of the image area and the brightness value of the outside image area. This occurs at the boundary between the region and the region outside the image. Therefore, the corresponding point search is performed in a state including this edge. As a result, due to the influence of the edge, that is, the influence of the discontinuity of the image in the image area and the non-image area, the corresponding point of the reference image I2 corresponding to the attention point A of the reference image I1 becomes the reference image in the reference image I2. There is a case where the similarity (correlation) becomes high at the point A ″ at the same position as I1, which causes an erroneous correspondence.

また、対応点探索を行う2つの画像が時系列画像である場合には、さらに、次の誤対応も生じ得る。1フレーム前の画像を基準画像I1とし、現フレームの画像を参照画像I2とした場合に、例えば、図18に示すように、移動体が直進前進運動している場合では、参照画像I2における対応点探索の演算領域となるウィンドウWDが参照画像I2の縁部(端部)近傍位置に設定される場合があり、画像外領域がウィンドウWD内に含まれ、誤対応するおそれが生じる。すなわち、基準画像I1の注目点Aが移動体の直進前進運動によって参照画像I2の縁部(端部)付近に移動した場合では、図18に示すように、基準画像I1の注目点Aに対応する参照画像I2の対応点は、本来、直進前進運動の移動速度に応じた位置である点A’が求まるべきである。しかしながら、基準画像I2に設定されたウィンドウWD内に画像外領域が含まれると、画像として本来無いエッジが画像領域の輝度値と画像外領域の輝度値との差によって画像領域と画像外領域との境界に生じてしまう。このため、このエッジを含んだ状態で対応点探索が行われることになる。この結果、このエッジの影響、すなわち、画像領域と画像外領域とにおける画像の不連続性の影響によって、基準画像I1の注目点Aに対応する参照画像I2の対応点が参照画像I2における基準画像I1と同じ位置である点A”で類似度(相関)が高くなる場合が生じ、誤対応してしまう。   Further, when the two images for which the corresponding point search is performed are time-series images, the following incorrect correspondence may also occur. When the image one frame before is the reference image I1 and the current frame image is the reference image I2, for example, as shown in FIG. 18, when the moving body is moving straight forward, the correspondence in the reference image I2 The window WD serving as a point search calculation area may be set near the edge (end) of the reference image I2, and an out-of-image area is included in the window WD, which may cause a correspondence error. That is, when the attention point A of the standard image I1 moves to the vicinity of the edge (end) of the reference image I2 by the straight forward movement of the moving body, as shown in FIG. 18, it corresponds to the attention point A of the standard image I1. The corresponding point of the reference image I2 to be obtained should be a point A ′ that is originally a position corresponding to the moving speed of the straight forward movement. However, if an outside image area is included in the window WD set in the reference image I2, an edge that is not originally an image has an image area and an outside image area due to the difference between the luminance value of the image area and the luminance value of the outside image area. Will occur at the boundary. Therefore, the corresponding point search is performed in a state including this edge. As a result, due to the influence of the edge, that is, the influence of the discontinuity of the image in the image area and the non-image area, the corresponding point of the reference image I2 corresponding to the attention point A of the reference image I1 becomes the reference image in the reference image I2. There is a case where the similarity (correlation) becomes high at the point A ″ at the same position as I1, which causes an erroneous correspondence.

このようなケースに類似する場合として、基準画像に写し出された対象物が参照画像に写し出されていない場合があり、このような場合にこの対象物を特徴点とすると、対応点を探索することが困難となる。そこで、例えば、特許文献1に開示の手法では、相関元の画像領域と相関先の候補となる画像領域との相関関係を評価する場合に、オクルージョン(occlusion)の発生の有無が判断され、オクルージョンが発生しているエリアでは、画像領域の画素に対応付けて設定されている重み係数が非オクルージョンエリアよりも小さくされる。これによって、特許文献1に開示の手法は、或る対象物が他の対象物に隠れてしまって一方の画像に写し出された対象物が他方の画像に写し出されていないオクルージョンが発生している撮像画像であっても、マッチングの確実性を図っている。また、特許文献1では、4×4画素領域を周囲へ拡幅することで8×8画素領域を演算対象ブロックとしているが、その[0026]段落に「撮像画像の四辺の縁部では、演算対象ブロックの周辺領域が有効画素領域からはみ出してしまう事態が生じ得る。この場合は、有効画素領域外の画素を用いて演算対象ブロックを定義するか、或いは、4×4画素の画素ブロックのまま相関性を評価する。」と記載されている。このように、特許文献1では、画像外領域がテンプレートに含まれないように設定されている。このため、特許文献1に開示の手法では、画像領域と画像外領域との間に生じるエッジの影響による誤対応が考慮されておらず、このような誤対応に対処することができない。   As a case similar to such a case, there is a case where the target object projected in the standard image is not projected in the reference image. In such a case, if this target object is a feature point, the corresponding point is searched. It becomes difficult. Therefore, for example, in the technique disclosed in Patent Document 1, when evaluating the correlation between the correlation source image area and the correlation destination candidate image area, it is determined whether or not occlusion has occurred, and the occlusion occurs. In the area where the occurrence occurs, the weighting coefficient set in association with the pixels in the image area is made smaller than that in the non-occlusion area. As a result, the technique disclosed in Patent Document 1 causes an occlusion in which a certain object is hidden behind another object and the object projected on one image is not projected on the other image. Even in the case of a captured image, the certainty of matching is achieved. In Patent Document 1, the 4 × 4 pixel region is widened to the periphery to make the 8 × 8 pixel region the calculation target block. However, in the [0026] paragraph, “at the edges of the four sides of the captured image, the calculation target A situation may occur in which the peripheral area of the block protrudes from the effective pixel area, in which case the calculation target block is defined using pixels outside the effective pixel area, or the pixel block of 4 × 4 pixels is correlated. Is evaluated. " Thus, in patent document 1, it sets so that the area outside an image may not be included in a template. For this reason, the technique disclosed in Patent Document 1 does not take into account the erroneous correspondence due to the influence of the edge that occurs between the image region and the non-image region, and cannot deal with such erroneous correspondence.

また、このようなケースにおける対応点探索方法としては、注目点の周囲にテンプレートを設定した場合にこのテンプレート内に画像外領域を含む場合は、画像領域外を含まない他のテンプレートについて対応点探索を行った結果からこの注目点の対応点を求める手法がある。しかしながら、この手法では、注目点の周囲にテンプレートを設定した場合におけるこの注目点の対応点を実際に求めていないため、誤対応するおそれが生じる。   In addition, as a corresponding point search method in such a case, when a template is set around an attention point and this template includes a region outside the image, a corresponding point search is performed for other templates that do not include the outside of the image region. There is a method for obtaining a corresponding point of this attention point from the result of performing the above. However, with this method, since a corresponding point of this attention point is not actually obtained when a template is set around the attention point, there is a risk of erroneous correspondence.

また、このようなケースにおける対応点探索方法としては、画像領域と画像外領域との境界で画像領域を画像外領域へ折り返してミラー処理を行うことによって、画像外領域を画像領域のデータで埋める手法がある。この手法は、画像領域と画像外領域とにおける不連続性を解消している。しかしながら、この手法は、ミラー処理によって画像領域のデータで埋めた画像外領域の部分において、当然、パターンが逆になるので、反対位相が現れてしまう。このため、対応点が反対側に現れてしまう結果、誤対応するおそれが生じる。
特開2004−102323号公報
As a corresponding point search method in such a case, the image area is folded back to the image outside area at the boundary between the image area and the image outside area, and mirror processing is performed to fill the image outside area with the data of the image area. There is a technique. This technique eliminates the discontinuity between the image area and the non-image area. However, in this method, since the pattern is naturally reversed in the area outside the image that is filled with the data of the image area by mirror processing, an opposite phase appears. For this reason, as a result of corresponding points appearing on the opposite side, there is a risk of erroneous correspondence.
JP 2004-102323 A

本発明は、上述の事情に鑑みて為された発明であり、その目的は、対応点探索の演算領域が画像領域と画像外領域とに亘って設定される場合でも誤対応を低減することができる対応点探索装置および対応点探索方法を提供することである。   The present invention has been made in view of the above-described circumstances, and the object thereof is to reduce miscorrespondence even when the calculation area of the corresponding point search is set over the image area and the non-image area. It is to provide a corresponding point search device and a corresponding point search method.

本発明者は、種々検討した結果、上記目的は、以下の本発明により達成されることを見出した。本発明に対応点探索装置および対応点探索方法では、予測画像が生成され、予測画像に基づいて合成画像が生成され、合成画像を用いることによって対応点探索が行われる。すなわち、本発明に係る一態様では、2つの画像間における互いに対応する点を探索するための対応点探索装置において、前記2つの画像のうちの一方を基準画像とすると共に他方を参照画像とし、前記基準画像の注目点に対応する前記参照画像の対応点を探索する対応点探索部と、所定の時点に取得された前記基準画像または前記参照画像について、前記所定の時点と異なる予測時点における画像を予測画像として生成する画像予測部と、前記予測画像における前記予測時点に取得された画像に対応する領域を、当該予測時点に取得された画像に置き換えることにより前記予測時点の合成後画像を生成する画像合成部とを備え、前記対応点探索部は、前記基準画像または前記参照画像の一方に、前記画像合成部で合成された合成後画像を用いることを特徴とする。そして、本発明に係る他の一態様では、2つの画像間における互いに対応する点を探索するための対応点探索方法において、前記2つの画像のうちの一方を基準画像とすると共に他方を参照画像とし、前記基準画像の注目点に対応する前記参照画像の対応点を探索する対応点探索工程と、所定の時点に取得された前記基準画像または前記参照画像について、前記所定の時点と異なる予測時点における画像を予測画像として生成する画像予測工程と、前記予測画像における前記予測時点に取得された画像に対応する領域を、当該予測時点に取得された画像に置き換えることにより前記予測時点の合成後画像を生成する画像合成工程とを備え、前記対応点探索工程は、前記基準画像または前記参照画像の一方に、前記画像合成工程で合成された合成後画像を用いることを特徴とする。
As a result of various studies, the present inventor has found that the above object is achieved by the present invention described below. In the corresponding point searching apparatus and the corresponding point searching method according to the present invention, a predicted image is generated, a synthesized image is generated based on the predicted image, and a corresponding point search is performed by using the synthesized image. That is, in one aspect according to the present invention, in a corresponding point search device for searching for points corresponding to each other between two images, one of the two images is a reference image and the other is a reference image. A corresponding point search unit that searches for a corresponding point of the reference image corresponding to a point of interest of the reference image, and an image at a prediction time point different from the predetermined time point for the reference image or the reference image acquired at a predetermined time point An image prediction unit for generating a prediction image, and generating a combined image at the prediction time by replacing a region corresponding to the image acquired at the prediction time in the prediction image with an image acquired at the prediction time And the corresponding point search unit uses the synthesized image synthesized by the image synthesizing unit as one of the base image and the reference image. And wherein the Rukoto. In another aspect of the present invention, in a corresponding point search method for searching for points corresponding to each other between two images, one of the two images is used as a reference image and the other is a reference image. And a corresponding point search step of searching for a corresponding point of the reference image corresponding to the target point of the reference image, and a prediction time point different from the predetermined time point for the reference image or the reference image acquired at a predetermined time point an image prediction step of generating an image as a prediction image in the area corresponding to the image acquired in said predicted time in the prediction image, the synthesis image after the predicted time by replacing the obtained image to the predicted time And the corresponding point search step includes a step of combining the synthesized image in one of the base image and the reference image in the image synthesis step. Characterized by using the post-image.

このような構成の対応点探索装置および対応点探索方法では、所定の時点に取得された画像に基づいて前記所定の時点と異なる予測時点における画像が予測画像として生成され、前記予測画像と前記予測時点に取得された画像とを合成することによって合成画像が生成される。そして、2つの画像のうちの一方が基準画像とされると共に他方が参照画像とされる場合に、基準画像の注目点に対応する参照画像の対応点が探索される際に、基準画像に対応する合成画像の合成基準画像がある場合には基準画像に代えて合成基準画像が用いられると共に、参照画像に対応する合成画像の合成参照画像がある場合には参照画像に代えて合成参照画像が用いられる。したがって、対応点探索を行う場合に、演算領域が画像外領域を含まないように、予測画像によって合成画像を生成することが可能となる。このため、対応点探索の演算領域が画像領域と画像外領域とに亘って設定される場合でも、誤対応の低減が可能となる。   In the corresponding point search device and the corresponding point search method configured as described above, an image at a prediction time point different from the predetermined time point is generated as a prediction image based on an image acquired at a predetermined time point, and the prediction image and the prediction A composite image is generated by combining the image obtained at the time. When one of the two images is a standard image and the other is a reference image, the corresponding point of the reference image corresponding to the target point of the standard image is searched for. If there is a composite standard image of the composite image to be used, the composite standard image is used instead of the standard image, and if there is a composite reference image of the composite image corresponding to the reference image, the composite reference image is used instead of the reference image. Used. Therefore, when the corresponding point search is performed, it is possible to generate a composite image using the predicted image so that the calculation region does not include the non-image region. For this reason, even when the calculation area of the corresponding point search is set over the image area and the non-image area, it is possible to reduce erroneous correspondence.

また、上述の対応点探索装置において、前記画像予測部は、前記予測画像の生成にアフィン変換を用いることを特徴とする。   In the above-described corresponding point search device, the image prediction unit uses affine transformation for generation of the predicted image.

このような構成の対応点探索装置では、予測画像の生成にアフィン変換が用いられるので、所定の時点に取得した画像に対し、拡大縮小(スケーリング)、回転移動および平行移動を適宜に実行することができ、前記所定の時点と異なる予測時点における最適な予測画像の生成が可能となる。   In the corresponding point search apparatus having such a configuration, affine transformation is used for generating a predicted image, and accordingly, enlargement / reduction (scaling), rotational movement, and parallel movement are appropriately performed on an image acquired at a predetermined time point. It is possible to generate an optimal prediction image at a prediction time point different from the predetermined time point.

また、上述の対応点探索装置において、前記アフィン変換のアフィン係数は、前記所定の時点に取得された画像と前記所定の時点と異なる時点に取得された画像に基づいて求められたオプティカルフローに基づいて求められることを特徴とする。   In the corresponding point search apparatus, the affine coefficient of the affine transformation is based on an optical flow obtained based on an image acquired at the predetermined time point and an image acquired at a time point different from the predetermined time point. It is characterized by being required.

このような構成の対応点探索装置では、アフィン変換のアフィン係数が取得時点の異なる2つの画像に基づいて求められたオプティカルフローに基づいて求められるので、他の外部機器を用いることなく、画像のみからアフィン変換のアフィン係数を求めることが可能となる。   In the corresponding point search device having such a configuration, the affine coefficient of the affine transformation is obtained based on the optical flow obtained based on the two images having different acquisition points, so that only the image is used without using another external device. Thus, the affine coefficient of the affine transformation can be obtained.

また、上述の対応点探索装置において、前記画像は、移動体に取り付けられた撮影カメラによって取得され、前記アフィン変換のアフィン係数は、前記移動体の操舵による回転角度に関する操舵情報および自走速度に関する速度情報に基づいて求められたオプティカルフローに基づいて求められることを特徴とする。そして、好ましくは、前記操舵情報は、前記移動体に取り付けられた前記移動体の操舵による回転角度を検出する舵角センサによって取得され、前記速度情報は、前記移動体に取り付けられた前記移動体の速度を検出する速度センサによって取得される。   Further, in the corresponding point search device described above, the image is acquired by a photographing camera attached to a moving body, and the affine coefficient of the affine transformation relates to steering information relating to a rotation angle by steering of the moving body and a self-running speed. It is calculated | required based on the optical flow calculated | required based on speed information. Preferably, the steering information is acquired by a steering angle sensor that detects a rotation angle by steering of the moving body attached to the moving body, and the speed information is acquired by the moving body attached to the moving body. It is acquired by a speed sensor that detects the speed of.

このような構成の対応点探索装置では、操舵情報および速度情報が他の外部機器、例えば舵角センサや速度センサから取得されるので、演算時間の短縮化や演算処理装置の簡単化を図ることができ、また、精度よくアフィン変換のアフィン係数を求めることが可能となる。   In the corresponding point search device having such a configuration, since the steering information and the speed information are acquired from other external devices such as a steering angle sensor and a speed sensor, the calculation time can be shortened and the arithmetic processing device can be simplified. In addition, the affine coefficient of the affine transformation can be obtained with high accuracy.

また、上述の対応点探索装置において、前記2つの画像は、ステレオカメラによって前記予測時点に撮影された1組の画像から成るステレオ画像であることを特徴とする。
In the corresponding point search apparatus described above, the two images are stereo images including a set of images taken at the prediction time point by a stereo camera.

この構成によれば、画像領域の縁部(端部)まで精度よく対応点探索を行うことができるステレオ画像の対応点探索装置の提供が可能となる。   According to this configuration, it is possible to provide a stereo image corresponding point search apparatus that can perform a corresponding point search to the edge (end) of the image region with high accuracy.

また、上述の対応点探索装置において、前記画像合成部は、前記ステレオ画像における1組の画像のそれぞれに対し各合成画像を生成することを特徴とする。   In the corresponding point search apparatus described above, the image composition unit generates each composite image for each of a set of images in the stereo image.

このような構成の対応点探索装置では、ステレオ画像の両画像に対し合成画像が生成されるので、画像領域の縁部(端部)までより精度よく対応点探索を行うことが可能となる。   In the corresponding point search device having such a configuration, a composite image is generated for both images of a stereo image, and therefore it is possible to perform corresponding point search more accurately up to the edge (end) of the image region.

また、上述の対応点探索装置において、前記2つの画像は、時系列画像のうちの互いに異なる時点に取得された各画像であることを特徴とする。   In the corresponding point search apparatus described above, the two images are images acquired at different points in time of the time-series images.

この構成によれば、画像領域の縁部(端部)まで精度よく対応点探索を行うことができる時系列画像の対応点探索装置の提供が可能となる。   According to this configuration, it is possible to provide a corresponding point search device for time-series images that can perform a corresponding point search with high accuracy up to the edge (end) of the image region.

また、上述の対応点探索装置において、前記画像合成部は、前記時系列画像に基づいて得られたオプティカルフローに応じて前記予測画像および前記予測時点に取得された画像を決定することを特徴とする。   Further, in the corresponding point search device described above, the image synthesis unit determines the predicted image and an image acquired at the predicted time according to an optical flow obtained based on the time-series image. To do.

このような構成の対応点探索装置では、時系列画像に基づいて得られたオプティカルフローに応じて予測画像および予測時点に取得された画像が決定される。したがって、合成画像の合成対象を適宜に変更することができ、効果的に対応点探索を行うことができる。   In the corresponding point search device having such a configuration, the predicted image and the image acquired at the predicted time point are determined according to the optical flow obtained based on the time-series image. Therefore, the synthesis target of the synthesized image can be changed as appropriate, and the corresponding point search can be performed effectively.

また、上述の対応点探索装置において、前記画像予測部は、第1時点よりも過去の時点に取得された画像に基づいて前記第1時点の予測画像を生成し、前記画像合成部は、前記時系列画像に基づいて得られたオプティカルフローが消失点から放射状に伸びているときは、前記第1時点の予測画像と前記第1時点に取得された第1時点の画像とを合成することを特徴とする。
Further, in the corresponding point search device described above, the image prediction unit, than the first time point to generate a prediction image of the first point on the basis of the image acquired in the past time, the image synthesizing unit, the When the optical flow obtained based on the time-series image extends radially from the vanishing point , combining the predicted image at the first time point with the image at the first time point acquired at the first time point Features.

このような構成の対応点探索装置では、第1時点よりも過去の時点に取得した画像に基づいて第1時点の予測画像が生成され、この第1時点の予測画像と第1時点に取得された第1時点の画像とが合成される。このため、対応点探索が行われる画像が移動体に取り付けられた撮影カメラによって得られた画像である場合に、移動体が前進運動している場合に、より精度よく対応点探索を行うことが可能となる。   In the corresponding point search device having such a configuration, a predicted image at the first time point is generated based on an image acquired at a time point earlier than the first time point, and is acquired at the predicted image at the first time point and the first time point. The first time point image is synthesized. For this reason, when the image on which the corresponding point search is performed is an image obtained by the photographing camera attached to the moving body, the corresponding point search can be performed more accurately when the moving body is moving forward. It becomes possible.

また、上述の対応点探索装置において、前記画像予測部は、第1時点に取得された画像に基づいて前記第1時点よりも過去の時点における予測画像を生成し、前記画像合成部は、前記時系列画像に基づいて得られたオプティカルフローが消失点に向かって伸びているときは、前記過去の時点における予測画像と前記過去の時点に取得された過去の時点における画像とを合成することを特徴とする。 Further, in the corresponding point search device described above, the image prediction unit, based on said acquired image to the first point than the first time point to generate a predicted image at a past time, the image synthesizing unit, the When the optical flow obtained based on the time series image extends toward the vanishing point, the predicted image at the past time point and the image at the past time point acquired at the past time point are combined. Features.

このような構成の対応点探索装置では、第1時点に取得した画像に基づいて第1時点よりも過去の時点における予測画像が生成され、この過去の予測画像と過去の時点に取得された過去の時点における画像とが合成される。このため、対応点探索が行われる画像が移動体に取り付けられた撮影カメラによって得られた画像である場合に、移動体が後進(後退)運動している場合に、より精度よく対応点探索を行うことが可能となる。   In the corresponding point search device having such a configuration, a predicted image at a time point earlier than the first time point is generated based on the image acquired at the first time point, and the past predicted image and the past acquired at the past time point are generated. And the image at the time of. For this reason, when the image on which the corresponding point search is performed is an image obtained by a photographing camera attached to the moving body, the corresponding point search is performed more accurately when the moving body is moving backward (backward). Can be done.

また、上述の対応点探索装置において、前記対応点探索部は、前記基準画像と前記参照画像との相関演算によって行われることを特徴とする。   In the above-described corresponding point search device, the corresponding point search unit is performed by a correlation calculation between the standard image and the reference image.

この構成によれば、前記基準画像と前記参照画像との相関演算によって対応点探索が行われる対応点探索装置が提供される。   According to this configuration, there is provided a corresponding point search device in which corresponding point search is performed by correlation calculation between the standard image and the reference image.

また、上述の対応点探索装置において、前記対応点探索部は、演算領域内のパターンを周波数分解し、振幅成分を抑制した信号の類似度に基づいて対応位置を演算することを特徴とする。   In the above-described corresponding point search device, the corresponding point search unit calculates a corresponding position based on the similarity of signals in which the pattern in the calculation region is frequency-resolved and the amplitude component is suppressed.

このような構成の対応点探索装置では、演算領域内のパターンが周波数分解され、振幅成分を抑制した信号の類似度に基づいて対応位置が演算される。このため、2つの画像間における輝度差やノイズの影響を受けにくいロバストな対応点探索が可能となる。   In the corresponding point search apparatus having such a configuration, the pattern in the calculation area is frequency-resolved, and the corresponding position is calculated based on the similarity of the signals with the amplitude component suppressed. For this reason, it is possible to perform a robust corresponding point search that is not easily affected by a luminance difference or noise between two images.

また、上述の対応点探索装置において、前記周波数分解の手法は、高速フーリエ変換、離散フーリエ変換、離散コサイン変換、離散サイン変換、ウエーブレット変換およびアダマール変換のうちのいずれかであることを特徴とする。   In the corresponding point search apparatus described above, the frequency decomposition method is any one of fast Fourier transform, discrete Fourier transform, discrete cosine transform, discrete sine transform, wavelet transform, and Hadamard transform. To do.

このような構成の対応点探索装置では、周波数分解の手法として、高速フーリエ変換(FFT)、離散フーリエ変換(DFT)、離散コサイン変換(DCT)、離散サイン変換(DST)、ウエーブレット変換およびアダマール変換のうちのいずれかが用いられる。したがって、既に確立されている手法が用いられるので、確実に周波数分解を行うことが可能となる。   In the corresponding point search apparatus having such a configuration, fast Fourier transform (FFT), discrete Fourier transform (DFT), discrete cosine transform (DCT), discrete sine transform (DST), wavelet transform, and Hadamard are used as frequency resolution techniques. Any of the transformations are used. Therefore, since an already established method is used, it is possible to reliably perform frequency decomposition.

また、上述の対応点探索装置において、前記対応点探索部における対応位置の演算処理は、位相限定相関法であることを特徴とする。   In the corresponding point search apparatus described above, the calculation processing of the corresponding position in the corresponding point search unit is a phase-only correlation method.

このような構成の対応点探索装置では、対応位置の演算処理に、位相限定相関法(POC)が用いられる。このため、より精度よく対応点探索を行うことが可能となる。   In the corresponding point search apparatus having such a configuration, the phase-only correlation method (POC) is used for the calculation processing of the corresponding position. For this reason, it is possible to search for corresponding points with higher accuracy.

また、上述の対応点探索装置において、前記対応点探索部は、多重解像度戦略を用いることを特徴とする。   In the corresponding point search apparatus described above, the corresponding point search unit uses a multi-resolution strategy.

多重化解像度戦略を用いる対応点探索では、演算領域に画像外領域が含まれるケースが多い。したがって、この構成によれば、より精度よく対応点探索を行うことができる多重解像度戦略の対応点探索装置の提供が可能となる。   In the corresponding point search using the multiplexed resolution strategy, there are many cases where the calculation area includes an area outside the image. Therefore, according to this configuration, it is possible to provide a multi-resolution strategy corresponding point search device capable of performing corresponding point search with higher accuracy.

本発明に係る対応点探索装置および対応点探索方法では、対応点探索の演算領域が画像領域と画像外領域とに亘って設定される場合でも、誤対応の低減が可能となる。   With the corresponding point search device and the corresponding point search method according to the present invention, it is possible to reduce miscorrespondence even when the calculation area of the corresponding point search is set over the image area and the non-image area.

以下、本発明に係る実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、その説明を省略する。
(第1の実施形態)
図1は、第1の実施形態における対応点探索システムの概略構成を示す図である。図2は、実施形態の対応点探索システムにおける対応点探索装置の構成を示すブロック図である。
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, an embodiment of the invention will be described with reference to the drawings. In addition, the structure which attached | subjected the same code | symbol in each figure shows that it is the same structure, The description is abbreviate | omitted.
(First embodiment)
FIG. 1 is a diagram showing a schematic configuration of a corresponding point search system according to the first embodiment. FIG. 2 is a block diagram illustrating a configuration of a corresponding point search apparatus in the corresponding point search system according to the embodiment.

対応点探索システムSは、2つの画像を撮影すると共に、これら2つの画像間における互いに対応する点を探索するための装置であり、例えば、図1に示すように、1または複数の撮影カメラ2と、対応点探索装置1とを備えて構成される。図1に示す例では、対応点探索システムSは、1組(1対)の画像から成るステレオ画像を得るべく、1組(2台)の撮影カメラ2−1、2−2から成るステレオカメラを備えている。   The corresponding point search system S is an apparatus for capturing two images and searching for corresponding points between the two images. For example, as shown in FIG. And the corresponding point search device 1. In the example shown in FIG. 1, the corresponding point search system S is a stereo camera composed of a pair (two) of photographing cameras 2-1 and 2-2 to obtain a stereo image composed of a pair (one pair) of images. It has.

なお、本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。   In the present specification, when referring generically, it is indicated by a reference symbol without a suffix, and when referring to an individual configuration, it is indicated by a reference symbol with a suffix.

撮影カメラ2は、対応点探索を行うための画像を取得する装置である。対応点探索方法は、背景技術で上述したように様々な用途の装置に適用されており、撮影カメラ2は、当該装置の用途等に応じて適宜に配設される。例えば、図1に示すように、先行物体Obの認識や距離計測を行うべく、撮影カメラ2が車両やロボット等の移動体に搭載されるステレオカメラである場合には、撮影カメラ2−1、2−2は、予め定める基線間隔だけ離間して、かつそれらの各光軸が互いに平行となるように、移動体に配設される。このように撮影カメラ2−1、2−2は、互いに異なる位置から先行物体Obを撮影できるように配置されている。なお、図1に示す例では、被写体である先行物体Obとして、自動車Ob−1、Ob−2が図1に図示されている。   The photographing camera 2 is a device that acquires an image for searching for corresponding points. The corresponding point search method is applied to apparatuses for various uses as described above in the background art, and the photographing camera 2 is appropriately arranged according to the use of the apparatus. For example, as shown in FIG. 1, when the photographing camera 2 is a stereo camera mounted on a moving body such as a vehicle or a robot in order to recognize the preceding object Ob and measure the distance, the photographing camera 2-1, 2-2 is disposed on the moving body so as to be separated by a predetermined baseline interval and so that their optical axes are parallel to each other. As described above, the photographing cameras 2-1 and 2-2 are arranged so that the preceding object Ob can be photographed from different positions. In the example shown in FIG. 1, automobiles Ob-1 and Ob-2 are shown in FIG. 1 as the preceding object Ob that is a subject.

撮影カメラ2は、先行物体Obを撮影し、画像を取得すると、この撮影された画像(画像データ)を対応点探索装置1へ伝送路を介して送信する。なお、その通信方式は、有線方式であっても無線方式あってもよい。図1に示すように、撮影カメラ2がステレオカメラである場合には、撮影カメラ2−1、2−2は、対応点探索装置1の制御によって、あるいは、撮影カメラ2−1、2−2間の制御によって、先行物体Obを同じタイミングで(同期して)撮影し、これら同じタイミングで撮影された左右一組(左右一対)の画像(ステレオ画像)を対応点探索装置1へ出力する。これら左右一組の画像のうちの一方が対応点探索を行うための基準画像とされ、他方がその参照画像とされる。例えば、撮影カメラ2−1で撮影された画像が基準画像とされ、撮影カメラ2−2で撮影された画像が参照画像とされる。   When the imaging camera 2 captures the preceding object Ob and acquires an image, the imaging camera 2 transmits the captured image (image data) to the corresponding point search device 1 via the transmission path. The communication method may be a wired method or a wireless method. As shown in FIG. 1, when the photographing camera 2 is a stereo camera, the photographing cameras 2-1 and 2-2 are controlled by the corresponding point search device 1 or the photographing cameras 2-1 and 2-2. With the control in between, the preceding object Ob is photographed at the same timing (synchronously), and a pair of left and right (a pair of left and right) images (stereo images) photographed at the same timing is output to the corresponding point search device 1. One of the left and right set of images is used as a reference image for searching for corresponding points, and the other is used as the reference image. For example, an image photographed by the photographing camera 2-1 is used as a reference image, and an image photographed by the photographing camera 2-2 is used as a reference image.

なお、撮影カメラ2は、3台以上であっても良く、また1台であっても良い。撮影カメラ2が3台以上である場合では、そのうちの1台の撮影カメラ2によって撮影された画像が基準画像とされ、他の撮影カメラ2によって撮影された画像が参照画像とされる。また撮影カメラ2が1台である場合では、その撮影カメラ2によって撮影された時系列画像のうち所定のタイミング(時点)で撮影された画像が基準画像とされ、前記所定のタイミングと異なるタイミングで撮影された画像が参照画像とされる。例えば、前記所定のタイミングから所定の時間経過後のタイミングで撮影された画像が参照画像とされる。また例えば、前記所定のタイミングから所定の時間経過前のタイミングで撮影された画像が参照画像とされる。   Note that the number of the photographing cameras 2 may be three or more, or may be one. When there are three or more photographic cameras 2, an image photographed by one of the photographic cameras 2 is used as a reference image, and an image photographed by another photographic camera 2 is used as a reference image. In addition, when there is one photographing camera 2, an image photographed at a predetermined timing (time) among time-series images photographed by the photographing camera 2 is used as a reference image, and at a timing different from the predetermined timing. The taken image is used as a reference image. For example, an image taken at a timing after a predetermined time has elapsed from the predetermined timing is set as a reference image. Further, for example, an image taken at a timing before a predetermined time has elapsed from the predetermined timing is set as a reference image.

対応点探索装置1は、撮影カメラ2によって取得された2つの画像間における互いに対応する点を探索する装置である。対応点探索装置1は、例えば、本実施形態では、図2に示すように、本発明の一実施形態にかかる対応点探索プログラムを実装することによってコンピュータ等の情報処理装置によって実現される。対応点探索プログラムは、本発明の一実施形態にかかる対応点探索方法をプログラミングすることによって作成される。なお、対応点探索装置1は、後述の諸機能を備えた、対応点探索システムS用に製作された専用の装置であってもよい。対応点探索装置1は、図2に示すように、例えば、中央処理部(CPU、Central Processing Unit)12と、記憶部13と、例えば液晶ディスプレイや有機ELディスプレイ等の表示部15と、例えば起動指示やデータ入力を行うための入力部16と、例えばインターフェースカード等の通信部17とを備えて構成される。   The corresponding point searching device 1 is a device that searches for corresponding points between two images acquired by the photographing camera 2. For example, in the present embodiment, the corresponding point search apparatus 1 is realized by an information processing apparatus such as a computer by installing a corresponding point search program according to an embodiment of the present invention, as shown in FIG. The corresponding point search program is created by programming the corresponding point searching method according to the embodiment of the present invention. The corresponding point search device 1 may be a dedicated device manufactured for the corresponding point search system S having various functions to be described later. As illustrated in FIG. 2, the corresponding point search device 1 includes, for example, a central processing unit (CPU) 12, a storage unit 13, a display unit 15 such as a liquid crystal display or an organic EL display, and a startup, for example. An input unit 16 for inputting instructions and data and a communication unit 17 such as an interface card are configured.

記憶部13は、例えば、ハードディスクドライブ(HDD、Hard Disk Drive)13aおよびRAM(Random Access Memory)やROM(Read Only Memory)等の半導体メモリ13b等の複数の記憶媒体を備えている。また、破線で示すように、対応点探索装置1は、必要に応じてメディアドライブ14を備えてもよい。メディアドライブ14は、例えば、CD−ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disk)、フレキシブルディスクおよびメモリカード等の可搬性の記録媒体からその中に記録されている情報(データ)を読み出すことができる。なお、この対応点探索部1に対して供給される情報は、前記記録媒体を介して供給される場合に限定されず、ローカルエリアネットワーク(LAN、Local Area Network)やインターネット等のネットワークを介して供給されてもよい。したがって、上述では、対応点探索装置1に伝送路(ネットワークを含む)を介して接続された撮影カメラ2によって撮影された画像が対応点探索装置1へ供給されたが、撮影カメラによって撮影された画像が記録媒体等に記憶され、この記録媒体から画像が対応点探索装置1へ供給されてもよい。   The storage unit 13 includes a plurality of storage media such as a hard disk drive (HDD) 13a and a semiconductor memory 13b such as a RAM (Random Access Memory) and a ROM (Read Only Memory). Further, as indicated by a broken line, the corresponding point search device 1 may include a media drive 14 as necessary. The media drive 14 stores information (data) recorded in a portable recording medium such as a CD-ROM (Compact Disc Read Only Memory), a DVD (Digital Versatile Disk), a flexible disk, and a memory card. Can be read. The information supplied to the corresponding point search unit 1 is not limited to the case of being supplied via the recording medium, but via a network such as a local area network (LAN) or the Internet. It may be supplied. Therefore, in the above description, an image photographed by the photographing camera 2 connected to the corresponding point searching device 1 via a transmission path (including a network) is supplied to the corresponding point searching device 1, but was photographed by the photographing camera. An image may be stored in a recording medium or the like, and the image may be supplied from the recording medium to the corresponding point search device 1.

図1および図2に示す例では、撮影カメラ2は、通信部17に通信可能に接続されており、撮影カメラ2で撮影された画像(画像データ)は、通信部17を介してCPU12に入力される。   In the example shown in FIGS. 1 and 2, the photographing camera 2 is connected to the communication unit 17 so as to be communicable, and an image (image data) photographed by the photographing camera 2 is input to the CPU 12 via the communication unit 17. Is done.

CPU12は、これら記憶部13、表示部15、入力部16および通信部17を当該機能に応じて制御することによって、対応点探索装置10全体を制御するものである。CPU12は、図2に示すように、機能的に、画像予測部21と、画像合成部22と、対応点探索部23とを備えて構成される。   The CPU 12 controls the entire corresponding point search apparatus 10 by controlling the storage unit 13, the display unit 15, the input unit 16, and the communication unit 17 according to the function. As shown in FIG. 2, the CPU 12 is functionally configured to include an image prediction unit 21, an image synthesis unit 22, and a corresponding point search unit 23.

画像予測部21は、所定の時点に取得された画像に基づいてこの所定の時点と異なる予測時点における画像を予測によって予測画像として生成するものである。本実施形態では、データ取得部211と、係数演算部212と、予測画像生成部213とを備えて構成される。データ取得部211は、撮影カメラ2で撮影された画像から係数演算部212で用いるデータを取得するものである。係数演算部212は、データ取得部211で取得されたデータを用いてアフィン変換のアフィン係数を算出するものである。予測画像生成部213は、所定の時点に取得された画像に基づいてこの所定の時点と異なる予測時点における画像を、係数演算部212で算出したアフィン係数を持つアフィン変換を用いることによって予測し、予測画像として生成するものである。   The image predicting unit 21 generates an image at a prediction time point different from the predetermined time point as a predicted image based on an image acquired at the predetermined time point. In the present embodiment, the data acquisition unit 211, the coefficient calculation unit 212, and the predicted image generation unit 213 are configured. The data acquisition unit 211 acquires data used by the coefficient calculation unit 212 from an image captured by the imaging camera 2. The coefficient calculation unit 212 calculates an affine coefficient for affine transformation using the data acquired by the data acquisition unit 211. The prediction image generation unit 213 predicts an image at a prediction time point different from the predetermined time point based on an image acquired at a predetermined time point by using an affine transformation having an affine coefficient calculated by the coefficient calculation unit 212, It is generated as a predicted image.

画像合成部22は、画像予測部21で生成された予測画像とこの予測時点に取得された画像とを合成することによって合成画像を生成するものである。より具体的には、画像合成部22は、本実施形態では、第1時点(例えば現時点)に撮影カメラ2−1によって撮影された第1時点の画像と、第1時点よりも過去の時点に撮影カメラ2−1によって撮影された過去の時点における画像に基づいて画像予測部21で予測された第1時点の予測画像とを合成する。そして、画像合成部22は、第1時点(例えば現時点)に撮影カメラ2−2によって撮影された第1時点の画像と、第1時点よりも過去の時点に撮影カメラ2−2によって撮影された過去の時点における画像に基づいて画像予測部21で予測された第1時点の予測画像とを合成する。このように本実施形態では、画像合成部22は、撮影カメラ2−1、2−2によってそれぞれ撮影されたステレオ画像における1組の画像のそれぞれに対し各合成画像を生成する。   The image synthesizing unit 22 generates a synthesized image by synthesizing the predicted image generated by the image predicting unit 21 and the image acquired at the prediction time point. More specifically, in the present embodiment, the image compositing unit 22 is configured to display an image at the first time point captured by the camera 2-1 at the first time point (for example, the current time point) and a time point earlier than the first time point. The predicted image at the first time point predicted by the image prediction unit 21 is synthesized based on the image at the past time point captured by the photographing camera 2-1. Then, the image composition unit 22 captures the image at the first time point captured by the photographing camera 2-2 at the first time point (for example, the current time point) and the image capturing camera 2-2 at a time point before the first time point. Based on the image at the past time point, the predicted image at the first time point predicted by the image prediction unit 21 is synthesized. As described above, in the present embodiment, the image composition unit 22 generates each composite image for each of a set of images in a stereo image photographed by each of the photographing cameras 2-1 and 2-2.

本実施形態では、このように画像合成部22によって第1時点の画像と第1時点の予測画像とが合成される。このため、予測画像生成部213は、より具体的には、第1時点よりも過去の時点に取得した画像にアフィン変換を用いることで第1時点における画像を予測し、第1時点の予測画像を生成する。したがって、データ取得部211は、より具体的には、第1時点よりも過去の時点において撮影カメラ2によって撮影された画像から係数演算部212で用いるデータを取得する。   In the present embodiment, the image synthesizing unit 22 synthesizes the first time point image and the first time point predicted image in this manner. Therefore, more specifically, the predicted image generation unit 213 predicts an image at the first time point by using affine transformation on an image acquired at a time point earlier than the first time point, and the predicted image at the first time point. Is generated. Therefore, more specifically, the data acquisition unit 211 acquires data used by the coefficient calculation unit 212 from images captured by the imaging camera 2 at a time point earlier than the first time point.

対応点探索部23は、撮影カメラ2で撮影された2つの画像のうちの一方を基準画像とすると共に他方を参照画像とする場合に、基準画像の注目点に対応する参照画像の対応点を探索するものである。そして、対応点探索部23は、この対応点探索において、基準画像に対応する、画像予測部21と画像合成部22とによって生成された合成基準画像がある場合には、基準画像に代えて合成基準画像を用いると共に、参照画像に対応する、画像予測部21および画像合成部22によって生成された合成参照画像がある場合には、参照画像に代えて合成参照画像を用いる。   The corresponding point search unit 23 selects the corresponding point of the reference image corresponding to the attention point of the standard image when one of the two images captured by the imaging camera 2 is the standard image and the other is the reference image. To explore. Then, in the corresponding point search, if there is a combined reference image generated by the image predicting unit 21 and the image combining unit 22 corresponding to the reference image in the corresponding point search, the corresponding point searching unit 23 replaces the reference image with the combined reference image. When the reference image is used and there is a combined reference image generated by the image predicting unit 21 and the image combining unit 22 corresponding to the reference image, the combined reference image is used instead of the reference image.

次に、本実施形態の動作について説明する。図3は、第1の実施形態の対応点探索システムにおける対応点探索装置の動作を示すフローチャートである。   Next, the operation of this embodiment will be described. FIG. 3 is a flowchart showing the operation of the corresponding point search device in the corresponding point search system of the first embodiment.

対応点探索システムSが起動され、その動作が開始されると、撮影カメラ2−1、2−2によってタイミングを合わせて(同期して)先行物体Obが所定の時間間隔で順次にそれぞれ撮影される。したがって、撮影カメラ2−1によって所定のフレーム周期で順次に撮影された先行物体Obの時系列画像(時系列画像データ)が取得されると共に、撮影カメラ2−2によって所定のフレーム周期で順次に撮影された先行物体Obの時系列画像(時系列画像データ)が取得される。そして、それぞれ撮影された各画像(各画像データ)は、順次に、通信部17から対応点探索装置1に入力され、対応点探索装置1のCPU12に通知され、CPU12によって各画像間の対応点探索処理が開始される。   When the corresponding point search system S is activated and its operation is started, the preceding objects Ob are sequentially photographed at predetermined time intervals by the photographing cameras 2-1 and 2-2 at the same timing (synchronously). The Therefore, a time-series image (time-series image data) of the preceding object Ob sequentially captured at a predetermined frame period by the imaging camera 2-1 is acquired, and sequentially at a predetermined frame period by the imaging camera 2-2. A time-series image (time-series image data) of the captured preceding object Ob is acquired. Each captured image (each image data) is sequentially input from the communication unit 17 to the corresponding point search device 1, notified to the CPU 12 of the corresponding point search device 1, and the CPU 12 corresponds to the corresponding point between the images. The search process is started.

このステレオ画像の対応点探索処理において、まず、図3に示すように、ステップS11では、画像予測部21のデータ取得部211は、撮影カメラ2−1、2−2で撮影された各画像から係数演算部212で用いるデータを取得する。予測画像生成部213が第1時点の予測画像を第1時点よりも過去の時点に取得した画像にアフィン変換を作用させることによって生成することから、係数演算部212は、このアフィン変換のアフィン係数を算出する必要がある。このため、データ取得部211は、より具体的には、第1時点よりも過去の時点に取得した2つの画像間の対応点を少なくとも3つ探索する。すなわち、時点tにおいて撮影カメラ2−1によって撮影された画像をI とし、時点tにおいて撮影カメラ2−2によって撮影された画像をI とする場合に、データ取得部211は、撮影カメラ2−1の画像Iについて、例えば、現時点(現フレームの時点)t0より1フレーム前の時点t−1および2フレーム前の時点t−2の画像I t−1、I t−2間における対応点探索を行って、少なくとも3つの対応点を含む対応点探索結果OF t(21)(少なくとも3つの注目点にそれぞれ対応する少なくとも3つの対応点を含む対応点探索結果OF t(21))を取得すると共に(S11−1)、撮影カメラ2−2の画像Iについて、例えば、現時点(現フレームの時点)t0より1フレーム前の時点t−1および2フレーム前の時点t−2の画像I t−1、I t−2間における対応点探索を行って、少なくとも3つの対応点を含む対応点探索結果OF t(21)(少なくとも3つの注目点にそれぞれ対応する少なくとも3つの対応点を含む対応点探索結果OF t(21))を取得する(S11−2)。なお、OF t(21)は、撮影カメラ2−1によって撮影された1フレーム前の画像I t−1と2フレーム前の画像I t−2との間における対応点探索結果であり、OF t(21)は、撮影カメラ2−2によって撮影された2フレーム前の画像I t−1と2フレーム前の画像I t−2との間における対応点探索結果である。 In the corresponding point search process of the stereo image, first, as shown in FIG. 3, in step S11, the data acquisition unit 211 of the image prediction unit 21 uses each image captured by the imaging cameras 2-1 and 2-2. Data used in the coefficient calculation unit 212 is acquired. Since the predicted image generation unit 213 generates a predicted image at the first time point by applying affine transformation to an image acquired at a time point earlier than the first time point, the coefficient calculation unit 212 has an affine coefficient of this affine transformation. Need to be calculated. Therefore, more specifically, the data acquisition unit 211 searches for at least three corresponding points between two images acquired at a time point earlier than the first time point. That is, when the image captured by the imaging camera 2-1 at time t is I 1 t and the image captured by the imaging camera 2-2 at time t is I 2 t , the data acquisition unit 211 captures the image. the image I 1 of the camera 2-1, for example, current image I 1 t-1 of the (in the current frame time) t0 than one frame before the time t-1 and two frames before the time t-2, I 1 t- performing corresponding point search between 2 and the corresponding point searching results oF 1 comprising at least three corresponding points corresponding point searching results oF 1 t (21) (at least three of the target point corresponding to at least three corresponding points t (21)) to acquire the (S11-1), the image I 2 of the photographic camera 2-2, for example, current time (in the current frame time) t0 than one frame before the time t- And performing corresponding point search in two frames before the image I 2 t-1 time t-2 of, I 2 t-2 between the corresponding point searching results OF 2 t (21) comprising at least three corresponding points (at least Corresponding point search result OF 2 t (21) ) including at least three corresponding points respectively corresponding to the three attention points is acquired (S11-2). Incidentally, OF 1 t (21) is located at the corresponding point search result between captured frame preceding image I 1 t-1 and the two frames before the image I 1 t-2 by the photographing camera 2-1 , OF 2 t (21) is a corresponding point search result between the image I 2 t-1 two frames before and the image I 2 t-2 two frames before captured by the camera 2-2.

ここで、1フレーム前の画像It−1および2フレーム前の画像It−2のうちの一方、例えば、2フレーム前の画像It−2を基準画像I1とすると共に、1フレーム前の画像It−1を参照画像I2とする場合に、基準画像I1の注目点に対応する参照画像I2の対応点の対応点探索は、次のように実行される。まず、基準画像I1で、注目点を中心とする縦横方向にそれぞれP画素×Q画素の大きさを持つテンプレートTPが設定され、同様に、参照画像I2にも同じ大きさを持つウィンドウWDが設定される。この場合に、ウィンドウWDは、参照画像I2において、基準画像I1におけるテンプレートTPと同じ位置から始めて、所定の方向(例えばステレオ画像では基線長方向(エピポーラ線方向)に或る範囲(0<p<pmax))で位置を変えながら、それぞれの位置において相関演算が行われる。その相関演算には、例えば、SAD、SSDおよびNCC等を用いることができる。そして、相関演算の結果から類似度への変換は、パターン間距離が近いほど類似度が高いので、例えば、(類似度)=1/((相関演算の結果)+1)の変換式が用いられる。なお、一般に、基準画像I1に設定されるテンプレートTPもウィンドウと呼ばれることがあるが、ここでは、対応点探索を実行すべく、基準画像I1に設定される演算領域をテンプレートTPと呼び、参照画像I2に設定される演算領域をウィンドウと呼ぶこととする。 Here, one of the image I t-1 one frame before and the image I t-2 two frames before, for example, the image I t-2 two frames before is set as the reference image I1, and one frame before When the image It -1 is used as the reference image I2, the corresponding point search for the corresponding point of the reference image I2 corresponding to the target point of the standard image I1 is executed as follows. First, in the standard image I1, a template TP having a size of P pixels × Q pixels is set in the vertical and horizontal directions around the target point, and similarly, a window WD having the same size is also set in the reference image I2. Is done. In this case, the window WD starts from the same position as the template TP in the reference image I1 in the reference image I2, and is in a certain range (0 <p <) in a predetermined direction (for example, the baseline length direction (epipolar line direction in a stereo image)). pmax)), the correlation calculation is performed at each position while changing the position. For the correlation calculation, for example, SAD, SSD, NCC, and the like can be used. In the conversion from the correlation calculation result to the similarity, the similarity is higher as the distance between the patterns is shorter. For example, the conversion formula of (similarity) = 1 / ((result of correlation calculation) +1) is used. . In general, the template TP set in the reference image I1 may also be referred to as a window. Here, in order to perform the corresponding point search, the calculation region set in the reference image I1 is referred to as a template TP, and is referred to as a reference image. The calculation area set to I2 is called a window.

SAD(Sum of Absolute Difference)は、式1に示すように、基準画像I1のテンプレートTPにおける画素の輝度値と、前記テンプレートTPの画素位置に対応する位置の、参照画像I2のウィンドウWDにおける画素の輝度値と、の差の絶対値を求めることによって、相関演算を行う手法である。SADは、式1に示すように、テンプレートTPとウィンドウWDとで同じ位置に対応する画素同士における各輝度値の差の絶対値をそれぞれ求めてそれがウィンドウWD内の全画素に亘って加算されることで求められるので、その演算量が少なく、したがって、短時間で対応点探索を行うことができる。   As shown in Equation 1, SAD (Sum of Absolute Difference) is the luminance value of the pixel in the template TP of the standard image I1 and the pixel in the window WD of the reference image I2 at the position corresponding to the pixel position of the template TP. This is a technique for performing a correlation calculation by obtaining an absolute value of a difference between the luminance value. As shown in Equation 1, the SAD calculates the absolute value of the difference between the luminance values of pixels corresponding to the same position in the template TP and the window WD, and adds them over all the pixels in the window WD. Therefore, the amount of calculation is small, and therefore the corresponding point search can be performed in a short time.

ここで、M(i,j)は、基準画像I1のテンプレートTPにおける画素位置(i,j)の輝度値であり、M(i,j)は、参照画像I2のウィンドウWDにおける画素位置(i,j)の輝度値である。PおよびQは、テンプレートTPおよびウィンドウWDのサイズ(領域の大きさ)を表し、Pは、縦の画素数であり、Qは、横の画素数である。 Here, M L (i, j) is the luminance value of the pixel position (i, j) in the template TP of the standard image I1, and M R (i, j) is the pixel position in the window WD of the reference image I2. The luminance value of (i, j). P and Q represent the sizes (area sizes) of the template TP and the window WD, P is the number of vertical pixels, and Q is the number of horizontal pixels.

そして、このような処理が1画素ずつずらしながら行われ、最も類似度の高いウィンドウ位置にテンプレートTPと等しい画像があると判断される。   Such processing is performed while shifting one pixel at a time, and it is determined that there is an image equal to the template TP at the window position with the highest similarity.

また、SSD(Sum of Squared intensity Difference、2乗残差法)は、式2に示すように、基準画像I1のテンプレートTPにおける画素の輝度値と、前記テンプレートTPの画素位置に対応する位置の、参照画像I2のウィンドウWDにおける画素の輝度値と、の差の2乗を求めることによって、相関演算を行う手法である。SSDは、上述のように画素間の輝度値の差を2乗しているため、比較的サイズの小さいテンプレートTPおよびウィンドウWDを用いる場合でも、テンプレートTPとウィンドウWDとの相関をより明確に表すことができる。   In addition, SSD (Sum of Squared Intensity Difference), as shown in Equation 2, is a pixel intensity value in the template TP of the reference image I1 and a position corresponding to the pixel position of the template TP. This is a technique for performing a correlation calculation by obtaining the square of the difference between the luminance value of the pixel in the window WD of the reference image I2. Since the SSD squares the difference in luminance value between pixels as described above, the correlation between the template TP and the window WD is more clearly expressed even when the template TP and the window WD having a relatively small size are used. be able to.

また、NCC(Normalized Cross Correlation、正規化相互相関法)は、式3に示すように、基準画像I1のテンプレートTPおよび参照画像I2のウィンドウWDのそれぞれにおいて、各点の輝度値から輝度値の平均値を減算し、分散値の類似度で相関演算を行う手法である。NCCでは、線形な明るさの変化の影響、すなわち、画像の輝度値およびコントラストの線形変化とノイズの影響が低減される。相関値は、−1〜+1の範囲の値であり、その値が大きい程、テンプレートTPとウィンドウWDとが類似していることを表している。このため、NCCでは、式3の最大値を求める処理となる。   Further, as shown in Equation 3, NCC (Normalized Cross Correlation) is an average of luminance values from luminance values at each point in the template TP of the standard image I1 and the window WD of the reference image I2. This is a method of subtracting values and performing correlation calculation with the similarity of variance values. In NCC, the influence of a linear brightness change, that is, the influence of noise and the linear change of the luminance value and contrast of an image is reduced. The correlation value is a value in the range of −1 to +1, and the larger the value, the more similar the template TP and the window WD are. For this reason, in NCC, it is the process which calculates | requires the maximum value of Formula 3.

ここで、μMは、基準画像I1のテンプレートTPにおける平均値であり、μMは、参照画像I2のウィンドウWDにおける平均値である。 Here, μM L is an average value in the template TP of the standard image I1, and μM R is an average value in the window WD of the reference image I2.

また、ロバストな対応点探索手法として、振幅成分を抑制した相関法が知られている。この相関法は、基準画像I1および参照画像I2にそれぞれ設定したテンプレートTPおよびウィンドウWD内のパターンを周波数分関し、その周波数分解信号から振幅成分を抑制した位相成分のみの信号を用いて類似度演算を行う手法である。このため、この対応点探索手法は、輝度変動やノイズの影響を受け難く、高精度に画像間の対応点を探索することができる。   As a robust corresponding point search method, a correlation method in which an amplitude component is suppressed is known. In this correlation method, the template TP and the pattern in the window WD set for the standard image I1 and the reference image I2 are frequency-divided, and the similarity calculation is performed using only the phase component signal whose amplitude component is suppressed from the frequency resolution signal. It is a technique to do. For this reason, this corresponding point search method is less susceptible to luminance fluctuations and noise, and can search for corresponding points between images with high accuracy.

このパターンの周波数分解信号を算出する手法として、高速フーリエ変換(FFT)、離散フーリエ変換(DFT)、離散コサイン変換(DCT)、離散サイン変換(DST)、ウエーブレット変換およびアダマール変換等が一般的に広く用いられる。これら手法は、既に確立されているので、確実に周波数分解を行うことができ、好適である。これらのうちで、変換にフーリエ変換を用いた位相限定相関法(POC)は、フーリエ級数の振幅成分を抑制した位相成分のみの相関演算を行う。また、DCT符号限定相関法では、変換に離散コサイン変換を用い、コサイン変換結果の振幅成分を抑制した符合成分のみの相関演算を行う。   As a method for calculating the frequency-resolved signal of this pattern, Fast Fourier Transform (FFT), Discrete Fourier Transform (DFT), Discrete Cosine Transform (DCT), Discrete Sine Transform (DST), Wavelet Transform, Hadamard Transform, etc. are common. Widely used in Since these methods have already been established, frequency decomposition can be reliably performed, which is preferable. Among these, the phase-only correlation method (POC) using Fourier transform for conversion performs correlation calculation of only the phase component in which the amplitude component of the Fourier series is suppressed. In the DCT code-only correlation method, discrete cosine transform is used for conversion, and correlation calculation is performed only for the code synthesis with the amplitude component of the cosine transform result suppressed.

以下に、位相限定相関法を例に詳細を説明する。図4は、位相限定相関法のブロック図である。この位相限定相関法では、まず、基準画像I1と参照画像I2とに、テンプレートTPとウィンドウWD(候補領域)とのペア(組、対)が設定され、それらの間の相関が計算され、その類似度から、正しい領域ペアであるか否かが判定される。図4において、位相限定相関法によって対応点探索を行う装置は、画像に対しフーリエ変換を行うフーリエ変換部31、32と、フーリエ変換部31、32で得られたフーリエ級数の振幅成分について規格化を行う規格化部33、34と、各規格化部33、34で得られた各規格結果について合成を行う合成部35と、合成部35で得られた合成結果について逆フーリエ変換を行う逆フーリエ変換部36とを備えて構成される。このような構成の装置において、基準画像I1のテンプレートTPおよび参照画像I2のウィンドウWDは、フーリエ変換部31およびフーリエ変換部32にそれぞれ入力され、それぞれフーリエ変換される。これらフーリエ変換された基準画像I1のテンプレートTPおよび参照画像I2のウィンドウWDは、規格化部33および規格化部34にそれぞれ入力され、それぞれ規格化される。これら規格化された基準画像I1のテンプレートTPおよび参照画像I2のウィンドウWDは、それぞれ合成部35に入力され、合成され、逆フーリエ変換部36において逆フーリエ変換される。数式で表すと、以下のとおりである。   Details will be described below by taking the phase-only correlation method as an example. FIG. 4 is a block diagram of the phase only correlation method. In this phase-only correlation method, first, a pair of a template TP and a window WD (candidate region) is set for the base image I1 and the reference image I2, and a correlation between them is calculated. It is determined from the degree of similarity whether the pair is a correct region. In FIG. 4, an apparatus for searching for corresponding points by the phase-only correlation method normalizes Fourier transform units 31 and 32 that perform Fourier transform on an image, and amplitude components of Fourier series obtained by the Fourier transform units 31 and 32. Normalization units 33 and 34, a synthesis unit 35 that synthesizes each standard result obtained by each normalization unit 33 and 34, and an inverse Fourier that performs inverse Fourier transform on the synthesis result obtained by the synthesis unit 35 And a conversion unit 36. In the apparatus having such a configuration, the template TP of the standard image I1 and the window WD of the reference image I2 are input to the Fourier transform unit 31 and the Fourier transform unit 32, respectively, and subjected to Fourier transform. The Fourier transformed standard image I1 template TP and reference image I2 window WD are input to the normalization unit 33 and the normalization unit 34, respectively, and are normalized. The standardized template TP of the standard image I1 and the window WD of the reference image I2 are respectively input to the synthesis unit 35, synthesized, and subjected to inverse Fourier transform in the inverse Fourier transform unit 36. It is as follows when expressed in mathematical formulas.

このように位相限定相関法は、2つのフーリエ変換された画像をスペクトルごとに規格化してから合成し、逆フーリエ変換する手法である。   As described above, the phase only correlation method is a technique in which two Fourier-transformed images are normalized for each spectrum and then synthesized and inverse Fourier transformed.

この位相限定相関法で得られるPOC値は、図5に示すように、画像間(基準画像I1のテンプレートTPと参照画像I2のウィンドウWD)の移動量の座標に急峻な類似度ピークを持つことが知られており、画像マッチングにおけるロバスト性が高い。このため、より精度よく対応点探索を行うことが可能となる。   As shown in FIG. 5, the POC value obtained by this phase-only correlation method has a steep similarity peak in the coordinates of the amount of movement between images (the template TP of the standard image I1 and the window WD of the reference image I2). Is known and has high robustness in image matching. For this reason, it is possible to search for corresponding points with higher accuracy.

図3に戻って、データ取得部211は、データが取得されると、そのデータを係数演算部212へ通知する。次に、ステップS12では、画像予測部21の係数演算部212は、データ取得部211で取得されたデータを用いてアフィン変換のアフィン係数を算出する。すなわち、係数演算部212は、撮影カメラ2−1の画像Iについて、データ取得部211で対応点探索を行って取得された、少なくとも3つの対応点を含む対応点探索結果OF t(21)を用いてアフィン変換のアフィン係数P A(21)を算出すると共に(S12−1)、撮影カメラ2−2の画像Iについて、データ取得部211で対応点探索を行って取得された、少なくとも3つの対応点を含む対応点探索結果OF t(21)を用いてアフィン変換のアフィン係数P A(21)を算出する(S12−2)。なお、P A(21)は、撮影カメラ2−1によって撮影された1フレーム前の画像I t−1と2フレーム前の画像I t−2とに基づいて算出されたアフィン係数(アフィンパラメータ)であり、P A(21)は、撮影カメラ2−2によって撮影された1フレーム前の画像I t−1と2フレーム前の画像I t−2とに基づいて算出されたアフィン係数(アフィンパラメータ)である。 Returning to FIG. 3, when data is acquired, the data acquisition unit 211 notifies the coefficient calculation unit 212 of the data. Next, in step S <b> 12, the coefficient calculation unit 212 of the image prediction unit 21 calculates the affine coefficient of the affine transformation using the data acquired by the data acquisition unit 211. That is, the coefficient calculation unit 212 performs the corresponding point search result OF 1 t (21 including at least three corresponding points acquired by performing the corresponding point search on the image I 1 of the photographing camera 2-1 by the data acquisition unit 211. ) Is used to calculate the affine coefficient P 1 A (21) of the affine transformation (S12-1), and the image I 2 of the photographing camera 2-2 is acquired by searching for corresponding points in the data acquisition unit 211. Then, the affine coefficient P 2 A (21) of the affine transformation is calculated using the corresponding point search result OF 2 t (21) including at least three corresponding points (S12-2). Incidentally, P 1 A (21), the affine coefficients calculated on the basis of the previous frame image I 1 t-1 and 2-frame and the previous image I 1 t-2 photographed by the photographing camera 2-1 ( an affine parameter), P 2 a (21) is calculated based on the image I 2 t-2 of the previous frame preceding image I 2 t-1 and 2 frames taken by the photographing camera 2-2 The affine coefficient (affine parameter).

より具体的には、係数演算部212において、次のように演算処理することによって各対応点探索結果OF t(21)、OF t(21)から各アフィン係数P A(21)、P A(21)がそれぞれ求められる。なお、以下の説明では、対応点探索結果OF t(21)からアフィン係数P A(21)を求める演算処理について説明するが、対応点探索結果OF t(21)からアフィン係数P A(21)を求める演算処理も同様に説明することができる。 More specifically, the coefficient calculation unit 212 performs calculation processing as follows, and each affine coefficient P 1 A (21) , from each corresponding point search result OF 1 t (21) , OF 2 t (21) , P 2 A (21) is obtained respectively. In the following description, calculation processing for obtaining the affine coefficient P 1 A (21) from the corresponding point search result OF 1 t (21) will be described, but the affine coefficient P 2 from the corresponding point search result OF 2 t (21) will be described. The calculation process for obtaining A (21) can be similarly described.

アフィン変換は、或る座標系から他の座標系へ変換する座標変換をいい、或る座標系から他の座標系へ移行する際に、拡大縮小(スケーリング)、回転移動および平行移動が行われる。ここで、基準画像I1における注目点の座標を(x、y)とし、前記注目点に対応する参照画像I2の対応点の座標を(X、Y)とし、アフィン係数Pをa,b,c,d,e,fとする場合に、アフィン変換は、式5−1および式5−2によって表される。 Affine transformation refers to coordinate transformation for transforming from one coordinate system to another, and scaling (rotation), rotational movement, and parallel movement are performed when moving from one coordinate system to another. . Here, the coordinates of the target point in the reference image I1 to as (x, y), the coordinates of the corresponding point of the reference image I2 corresponding to the point of interest and (X, Y), affine coefficients P A and a, b, When c, d, e, and f are used, the affine transformation is expressed by Equation 5-1 and Equation 5-2.

上述のように、座標変換では、拡大縮小(スケーリング)、回転移動および平行移動が行われ、これら各変換は、同次座標で表現すると、それぞれ式6のように表される。そして、拡大縮小、回転移動および平行移動の関係は、それぞれ式7、式8および式9のように表される。   As described above, in the coordinate conversion, enlargement / reduction (scaling), rotational movement, and parallel movement are performed, and each of these conversions is expressed by Equation 6 when expressed in homogeneous coordinates. The relationship between enlargement / reduction, rotational movement, and parallel movement is expressed as Expression 7, Expression 8, and Expression 9, respectively.

ここで、SおよびSは、拡大縮小におけるxの倍率およびyの倍率である。θは、回転移動における回転角である。そして、xおよびyは、平行移動におけるx方向の移動量およびy方向の移動量である。 Here, S x and S y are the magnification of x and the magnification of y in enlargement / reduction. θ is a rotation angle in the rotational movement. X 0 and y 0 are a movement amount in the x direction and a movement amount in the y direction in the parallel movement.

なお、点[x、y]は、同次座標では[x、y、1]と表現される一方、同次座標における点[X、Y、W]は、通常の座標では[X/W、Y/W]となる点を表している。このWは、倍率を意味し、W=0は、無限遠点を表現している。   The point [x, y] is expressed as [x, y, 1] in the homogeneous coordinates, while the point [X, Y, W] in the homogeneous coordinates is [X / W, Y / W]. W means a magnification, and W = 0 expresses an infinite point.

したがって、対応点探索結果OF t(21)における少なくとも3組の注目点と対応点との関係を式6に代入してa、b、c、d、e、fについて解くことによってアフィン係数P A(21)(a、b、c、d、e、f)が求められる。 Accordingly, the relationship between at least three sets of attention points and corresponding points in the corresponding point search result OF 1 t (21) is substituted into Equation 6 and solved for a, b, c, d, e, and f to solve the affine coefficient P. 1 A (21) (a, b, c, d, e, f) is determined.

また、3つ以上の対応点探索結果が存在する場合は、例えば、最小二乗法が用いられる。対応点探索結果OF t(21)における基準画像I1の3つ以上の注目点(x、y)、(x、y)、・・・、(x、y)に対応する参照画像I2の3つ以上の対応点が(X、Y)、(X、Y)、・・・、(X、Y)であるとすると、アフィン係数P A(21)(a、b、c、d、e、f)のa、b、c、d、e、fは、式10−1および式10−2を計算することによって求められる。 When there are three or more corresponding point search results, for example, the least square method is used. Corresponding to three or more attention points (x 1 , y 1 ), (x 2 , y 2 ),..., (X n , y n ) of the reference image I1 in the corresponding point search result OF 1 t (21) . Assuming that three or more corresponding points of the reference image I2 are (X 1 , Y 1 ), (X 2 , Y 2 ),..., (X n , Y n ), the affine coefficient P 1 A ( 21) a, b, c, d, e, and f of (a, b, c, d, e, f) are obtained by calculating Equations 10-1 and 10-2.

なお、アフィン係数Pを求めるための少なくとも3組の注目点と対応点とは、誤対応することなく、信頼のある安定的な対応点を得るべく、画像外領域を含まない領域について対応点探索を実行することが好ましい。 Note that the at least three sets of the target point and the corresponding point for obtaining the affine coefficients P A, without erroneous corresponding, to obtain a stable corresponding points a trusted, corresponding points for the area not including the image area outside It is preferable to perform a search.

係数演算部212は、アフィン係数P A(21)、P A(21)が算出されると、そのアフィン係数P A(21)、P A(21)を予測画像生成部213へ通知する。次に、ステップS13では、画像予測部21の予測画像生成部213は、所定の時点に取得された画像に基づいてこの所定の時点と異なる予測時点における画像を、係数演算部212で算出したアフィン係数Pを持つアフィン変換を用いることによって予測し、予測画像として生成する。図6は、予測画像の生成方法を説明するための図である。すなわち、予測画像生成部213は、撮影カメラ2−1の画像Iについて、1フレーム前に取得した1フレーム前の画像I t−1(図6(A))に、係数演算部212で算出したアフィン係数P A(21)を持つアフィン変換を作用させることによって、現時点(現フレーム)の予測画像Ipre1 t−1(図6(B))を生成すると共に(S13−1)、撮影カメラ2−2の画像Iについて、1フレーム前に取得した1フレーム前の画像I t−1に、係数演算部212で算出したアフィン係数P A(21)を持つアフィン変換を作用させることによって、現時点(現フレーム)の予測画像Ipre2 t−1を生成する(S13−2)。 When the affine coefficients P 1 A (21) and P 2 A (21) are calculated, the coefficient calculation unit 212 calculates the affine coefficients P 1 A (21) and P 2 A (21) to the predicted image generation unit 213. Notice. Next, in step S13, the prediction image generation unit 213 of the image prediction unit 21 calculates an image at a prediction time point different from the predetermined time point based on the image acquired at the predetermined time point by the coefficient calculation unit 212. It predicted by using the affine transformation having coefficients P a, and generates a prediction image. FIG. 6 is a diagram for explaining a predicted image generation method. That is, the predicted image generation unit 213 uses the coefficient calculation unit 212 to convert the image I 1 t-1 (FIG. 6A) acquired one frame before with respect to the image I 1 of the photographing camera 2-1. By applying an affine transformation having the calculated affine coefficient P 1 A (21) , a predicted image I pre1 t-1 (FIG. 6B ) at the present time (current frame) is generated (S13-1), The affine transformation having the affine coefficient P 2 A (21) calculated by the coefficient calculation unit 212 is applied to the image I 2 t−1 acquired one frame before the image I 2 of the photographing camera 2-2. By doing so, the prediction image Ipre2 t-1 at the present time (current frame) is generated (S13-2).

なお、予測画像Ipre1 t−1は、画像合成部22の画像合成を容易に行うために、図6(C)に示すように、撮影カメラ2−1によって撮影される画像領域に対応する領域DMが抜き取られてものであっても良い。例えば、領域DMにおける輝度値を0とすることによって、撮影カメラ2によって撮影される画像領域に対応する領域DMが抜き取られる。同様に、予測画像Ipre2 t−1は、画像合成部22の画像合成を容易に行うために、撮影カメラ2−2によって撮影される画像領域に対応する領域が抜き取られてものであっても良い。 Note that the predicted image I pre1 t-1 is an area corresponding to an image area photographed by the photographing camera 2-1, as illustrated in FIG. 6C, in order to easily perform image composition by the image composition unit 22. The DM may be extracted. For example, by setting the luminance value in the region DM to 0, the region DM corresponding to the image region photographed by the photographing camera 2 is extracted. Similarly, the predicted image I pre2 t-1 may be obtained by extracting an area corresponding to an image area photographed by the photographing camera 2-2 in order to easily perform image composition by the image composition unit 22. good.

画像予測部21の予測画像生成部213は、予測画像Ipre t−1(予測画像Ipre1 t−1、予測画像Ipre2 t−1)が生成されると、その予測画像Ipre t−1を画像合成部22へ通知する。次に、ステップS14では、画像合成部22は、画像予測部21で生成された予測画像Ipre t−1とこの予測時点に取得された画像It0(画像I t0、画像I t0)とを合成することによって合成画像I’t0を生成する。すなわち、画像合成部22は、撮影カメラ2−1の画像Iについて、1フレーム前に取得した1フレーム前の画像I t−1にアフィン変換を作用させることによって生成した現時点(現フレーム)の予測画像Ipre1 t−1に、現時点の画像I t0を嵌め込むことによって、現時点の予測画像Ipre1 t−1と現時点の画像I t0とを合成し、合成画像It0を生成すると共に(S14−1)、撮影カメラ2−2の画像Iについて、1フレーム前に取得した1フレーム前の画像I t−1にアフィン変換を作用させることによって生成した現時点の予測画像Ipre2 t−1に、現時点の画像I t0を嵌め込むことによって、現時点の予測画像Ipre2 t−1と現時点の画像I t0とを合成し、合成画像It0を生成する(S14−2)。現時点の予測画像Ipre1 t−1に現時点の画像It0を嵌め込む処理は、現時点の予測画像Ipre1 t−1における現時点の画像It0に対応する領域の画素値(輝度値)を、現時点の画像It0における画素値(輝度値)に置き換えることによって実行される。すなわち、この嵌め込み処理は、図6(C)に示す、現時点の予測画像Ipre1 t−1における撮影カメラ2−1によって撮影される画像領域に対応する領域DMに、現時点の画像It0を嵌め込むことによって実行される。 When a predicted image I pre t−1 (predicted image I pre1 t−1 , predicted image I pre2 t−1 ) is generated, the predicted image generating unit 213 of the image predicting unit 21 generates the predicted image I pre t−1. Is sent to the image composition unit 22. Next, in step S <b> 14, the image synthesis unit 22 and the predicted image I pre t−1 generated by the image prediction unit 21 and the image I t0 (image I 1 t0 , image I 2 t0 ) acquired at this prediction time point. Are combined to generate a composite image I ′ t0 . That is, for the image I 1 of the photographing camera 2-1, the image composition unit 22 generates the current time (current frame) generated by applying affine transformation to the image I 1 t−1 one frame before acquired one frame before. of the predicted image I pre1 t-1, by fitting the image I 1 t0 of time, combines the predicted image I pre1 t-1 and the image I 1 t0 of the current time, the composite image I 1 't0 generated thereby (S14-1), the image I 2 of the photographic camera 2-2, the moment of the predicted image generated by the action of the affine transformation to one frame image I 2 t-1 of one frame before the previously obtained the I pre2 t-1, by fitting the image I 2 t0 of time, combines the predicted image I pre2 t-1 and the image I 2 t0 of the current time, if Generating an image I 2 't0 (S14-2). Process fitting the predicted image I pre1 t-1 picture I t0 the current in the current, the pixel value of the region corresponding to the image I t0 the current in the prediction image I pre1 t-1 of the current (luminance value), the present time This is executed by replacing the pixel value (luminance value) in the image It0 . That is, the fitting process is shown in FIG. 6 (C), in the region DM corresponding to the image area to be captured by the photographing camera 2-1 in the prediction image I pre1 t-1 at the present time, fit the image I t0 the moment To be executed.

画像合成部22は、合成画像I’t0(合成画像It0、合成画像It0)が生成されると、その合成画像I’t0を対応点探索部23へ通知する。そして、ステップS15では、対応点探索部23は、撮影カメラ2−1、2−2で撮影された2つの画像のうちの一方を基準画像I1とすると共に他方を参照画像I2とする場合に、基準画像I1の注目点に対応する参照画像I2の対応点を探索する。そして、対応点探索部23は、この対応点探索において、基準画像I1に対応する、画像予測部21と画像合成部22とによって生成された合成基準画像I1’がある場合には、基準画像I1に代えて合成基準画像I1’を用いると共に、参照画像I2に対応する、画像予測部21および画像合成部22によって生成された合成参照画像I2’がある場合には、参照画像I2に代えて合成参照画像I2’を用いる。すなわち、本実施形態では、撮影カメラ2−1について合成画像It0が生成されると共に、撮影カメラ2−2について合成画像It0が生成されているので、対応点探索部23は、例えば、合成画像It0を基準画像I1とすると共に合成画像It0を参照画像I2として、基準画像I1の注目点に対応する参照画像I2の対応点を探索する。ここで、対応点探索部23は、ステップS11で説明した各対応点探索手法のいずれかの手法を用いることによって、対応点探索を実行する。そして、対応点探索部23は、対応点探索システムSの用途に応じた所定値、例えば、ステレオ画像間の視差dt0を算出する。 When the composite image I ′ t0 (composite image I 1t0 , composite image I 2t0 ) is generated, the image composition unit 22 notifies the corresponding point search unit 23 of the composite image I ′ t0 . In step S15, the corresponding point search unit 23 sets one of the two images captured by the imaging cameras 2-1 and 2-2 as the standard image I1 and the other as the reference image I2. The corresponding point of the reference image I2 corresponding to the attention point of the reference image I1 is searched. Then, in the corresponding point search, if there is a combined reference image I1 ′ generated by the image predicting unit 21 and the image combining unit 22 corresponding to the reference image I1, the corresponding point searching unit 23 performs the reference image I1. Is used instead of the reference image I2 ′, and if there is a composite reference image I2 ′ generated by the image prediction unit 21 and the image synthesis unit 22 corresponding to the reference image I2, the composite image is replaced with the reference image I2. A reference image I2 ′ is used. That is, in this embodiment, 'with t0 is generated, the photographing camera 2-2 composite image I 2' composite image I 1 for photographing camera 2-1 since t0 are generated, the corresponding point searching unit 23 For example, the composite image I 1t0 is set as the base image I1 and the composite image I 2t0 is set as the reference image I2, and the corresponding point of the reference image I2 corresponding to the attention point of the base image I1 is searched. Here, the corresponding point search unit 23 executes the corresponding point search by using any one of the corresponding point searching methods described in step S11. Then, the corresponding point search unit 23 calculates a predetermined value according to the use of the corresponding point search system S, for example, a parallax d t0 between stereo images.

そして、処理がステップS15からステップS11に戻され、ステップS11からステップS15までの各処理が繰り返し実行されることによって、各フレームについて、上述の処理が実行される。   And a process is returned from step S15 to step S11, and the above-mentioned process is performed about each flame | frame by repeatedly performing each process from step S11 to step S15.

以上説明したように、本実施形態における対応点探索システムSおよび対応点探索装置1は、2つの画像のうちの一方を基準画像I1(例えば撮影カメラ2−1によって撮影された画像I)とすると共に他方を参照画像I2(例えば撮影カメラ2−2によって撮影された画像I)とした場合に、基準画像Iを取得した第1時点t0よりも過去の時点t−1、t−2に取得された2つの画像I t−1、I t−2に基づいて予測された前記第1時点t0の予測基準画像Ipre1 t−1を生成すると共に、参照画像Iを取得した第2時点(本実施形態ではステレオ画像なので第2時点は第1時点と同じ)t0よりも過去の時点t−1、t−2に取得された2つの画像I t−1、I t−2に基づいて予測された第2時点(=第1時点)t0の予測基準画像Ipre2 t−1を生成する画像予測部21と、第1時点t0の予測基準画像Ipre1 t−1と第1時点の画像I t0とを合成することによって合成基準画像It0を生成すると共に、第2時点(=第1時点)t0の予測参照画像Ipre2 t−1と第2時点(=第1時点)t0の画像I t0とを合成することによって合成参照画像It0を生成する画像合成部22と、合成基準画像It0の注目点に対応する合成参照画像It0の対応点を探索する対応点探索部23とを備えている。そして、本実施形態における対応点探索システムSおよび対応点探索装置1は、上述のように動作するので、対応点探索を行う場合に、例えば、図7に示すように、演算領域(TP、WD)が画像外領域を含まないように、予測画像Ipreによって合成画像I’を生成することが可能となる。このため、対応点探索の演算領域が画像領域と画像外領域とに亘って設定される場合でも、誤対応の低減が可能となる。なお、図7において、斜線で表示されている領域が画像予測部21の予測画像生成部213によって生成された予測画像Ipreの部分を示している。 As described above, the corresponding point search system S and the corresponding point search device 1 according to the present embodiment uses one of the two images as the reference image I1 (for example, the image I 1 photographed by the photographing camera 2-1). when the other reference image I2 (e.g. photographing camera 2-2 image I 2 captured by) the reference image I 1 than the first time point t0 obtaining the time in the past t-1 as well as, t-2 Generating the prediction standard image I pre1 t-1 at the first time point t0 predicted based on the two images I 1 t-1 and I 1 t-2 acquired at the same time, and acquiring the reference image I 2 Two images I 2 t-1 and I 2 t acquired at time points t-1 and t-2 that are past the second time point (in this embodiment, the second time point is the same as the first time point because it is a stereo image) second time predicted based -2 (= The first time point) combined with the image prediction unit 21 for generating, the predictive reference image I pre1 t-1 and the image I 1 t0 of the first time of the first time point t0 the prediction reference image I pre2 t-1 of t0 In this way, the composite reference image I 1t0 is generated, and the predicted reference image I pre2 t−1 at the second time point (= first time point) t0 and the image I 2 t0 at the second time point (= first time point) t0 are generated. corresponding point searching 'and the image synthesis unit 22 for generating t0, synthetic reference image I 1' synthetic reference image I 2 corresponding points of the synthetic reference image I 2 't0 corresponding to the current point of t0 by synthesizing bets And a search unit 23. Since the corresponding point search system S and the corresponding point search device 1 according to the present embodiment operate as described above, when the corresponding point search is performed, for example, as illustrated in FIG. ) Can generate the synthesized image I ′ by the predicted image I pre so that the region outside the image is not included. For this reason, even when the calculation area of the corresponding point search is set over the image area and the non-image area, it is possible to reduce erroneous correspondence. In FIG. 7, a region indicated by diagonal lines indicates a portion of the predicted image I pre generated by the predicted image generation unit 213 of the image prediction unit 21.

ここで、図7から分かるように、対応点探索される予測画像Ipreの大きさが撮影カメラ2によって撮影される画像Iの周囲に演算領域(テンプレートTP、ウィンドウWD)の大きさに相当する領域を並べた場合における大きさを超えると、演算領域(TP、WD)が画像外領域にのみ設定される場合(実際の対応点探索ではこのような演算領域は設定されない)を含むことととなり、無駄な予測画像Ipreの領域が存在することとなる。したがって、予測画像Ipreの大きさは、演算領域の大きさに応じて設定されることが好ましい。予測画像Ipreの大きさは、撮影カメラ2によって撮影される画像Iの周囲に演算領域の大きさに相当する領域を並べた場合における大きさ以下に設定することが好ましい。 Here, as can be seen from FIG. 7, the size of the predicted image I pre searched for corresponding points corresponds to the size of the calculation area (template TP, window WD) around the image I shot by the shooting camera 2. Exceeding the size in the case where the regions are arranged will include the case where the calculation region (TP, WD) is set only in the region outside the image (such a calculation region is not set in the actual corresponding point search). Thus, there is a useless region of the predicted image I pre . Therefore, the size of the predicted image I pre is preferably set according to the size of the calculation area. The size of the predicted image I pre is preferably set to be equal to or smaller than the size when the region corresponding to the size of the calculation region is arranged around the image I photographed by the photographing camera 2.

また、本実施形態における対応点探索システムSおよび対応点探索装置1では、画像予測部21は、予測画像Ipreの生成にアフィン変換を用いている。このため、所定の時点に取得した画像に対し拡大縮小(スケーリング)、回転移動および平行移動を適宜に実行することができ、予測時点における最適な予測画像Ipreの生成が可能となる。 Further, in the corresponding point search system S and the corresponding point search device 1 in the present embodiment, the image prediction unit 21 uses affine transformation to generate the predicted image I pre . Therefore, enlargement / reduction (scaling), rotational movement, and parallel movement can be appropriately performed on an image acquired at a predetermined time point, and an optimal predicted image I pre at the prediction time point can be generated.

また、本実施形態における対応点探索システムSおよび対応点探索装置1では、対応点探索を行う対象の2つの画像は、ステレオカメラである撮影カメラ2によって撮影された1組の画像I,Iから成るステレオ画像である。このため、画像領域の縁部(端部)まで精度よく対応点探索を行うことができるステレオ画像の対応点探索システムおよび対応点探索装置1の提供が可能となる。 Further, in the corresponding point search system S and the corresponding point search device 1 in the present embodiment, the two images to be subjected to the corresponding point search are a set of images I 1 and I taken by the photographing camera 2 that is a stereo camera. It is a stereo image consisting of two . For this reason, it is possible to provide a corresponding point search system and a corresponding point search apparatus 1 for a stereo image that can perform corresponding point search with high accuracy up to the edge (end) of the image region.

また、本実施形態における対応点探索システムSおよび対応点探索装置1では、画像合成部22は、ステレオ画像における1組の画像I t0,I t0のそれぞれに対し各合成画像It0、It0を生成している。このため、ステレオ画像の両画像I t0,I t0に対し合成画像It0、It0が生成されるので、例えば、図7(A)に示すように、演算領域であるテンプレートTPが画像外領域を含まないように、予測画像Ipre1 t−1によって合成画像It0を生成することが可能となると共に、図7(B)に示すように、演算領域であるウィンドウWDが画像外領域を含まないように、予測画像Ipre2 t−1によって合成画像It0を生成することも可能となる。したがって、画像領域の縁部(端部)までより精度よく対応点探索を行うことが可能となる。 Further, in the corresponding point search system S and the corresponding point search device 1 in the present embodiment, the image composition unit 22 performs each composite image I 1t0 for each of the pair of images I 1 t0 and I 2 t0 in the stereo image. , I 2t0 is generated. For this reason, composite images I 1t0 and I 2t0 are generated for both images I 1 t0 and I 2 t0 of the stereo image. For example, as shown in FIG. The composite image I 1t0 can be generated by the predicted image I pre1 t−1 so that the template TP does not include the region outside the image, and is a calculation region as shown in FIG. 7B. It is also possible to generate the synthesized image I 2t0 by the predicted image I pre2 t−1 so that the window WD does not include the region outside the image. Therefore, it is possible to perform the corresponding point search more accurately up to the edge (end) of the image area.

なお、本実施形態では、このように基準画像I1および参照画像I2となるステレオ画像の両画像I t0,I t0に対し合成画像It0、It0が生成されたが、基準画像I1となる画像I t0に対し合成画像It0のみが生成されてもよい。あるいは、参照画像I2となる画像I t0に対し合成画像It0のみが生成されてもよい。このように構成することによって情報処理が省略され、演算時間の短縮化や演算処理装置の簡単化を図ることが可能となる。 In the present embodiment, the composite images I 1t0 and I 2t0 are generated with respect to both the stereo images I 1 t0 and I 2 t0 as the standard image I1 and the reference image I2, as described above. Only the composite image I 1t0 may be generated with respect to the image I 1 t0 serving as the reference image I1. Alternatively, only the composite image I 2t0 may be generated for the image I 2 t0 to be the reference image I2. With this configuration, information processing is omitted, and it is possible to shorten the calculation time and simplify the calculation processing device.

また、本実施形態における対応点探索システムSおよび対応点探索装置1では、対応点探索部23は、基準画像I1と参照画像I2との相関演算によって行われる。このため、この構成によれば、前記基準画像と前記参照画像との相関演算によって対応点探索が行われる対応点探索システムSおよび対応点探索装置の提供が可能となる。   Further, in the corresponding point search system S and the corresponding point search device 1 in the present embodiment, the corresponding point search unit 23 is performed by a correlation calculation between the standard image I1 and the reference image I2. For this reason, according to this configuration, it is possible to provide the corresponding point search system S and the corresponding point search device in which the corresponding point search is performed by the correlation calculation between the reference image and the reference image.

また、本実施形態における対応点探索システムSおよび対応点探索装置1では、対応点探索部23は、演算領域(テンプレートTPおよびウィンドウWD)内のパターンを周波数分解し、振幅成分を抑制した信号の類似度に基づいて対応位置を演算している。このため、2つの画像間における輝度差やノイズの影響を受けにくいロバストな対応点探索が可能となる。   In the corresponding point search system S and the corresponding point search device 1 according to the present embodiment, the corresponding point search unit 23 frequency-decomposes the pattern in the calculation area (template TP and window WD), and suppresses the amplitude component. The corresponding position is calculated based on the similarity. For this reason, it is possible to perform a robust corresponding point search that is not easily affected by a luminance difference or noise between two images.

また、本実施形態における対応点探索システムSおよび対応点探索装置1では、前記周波数分解の手法は、高速フーリエ変換、離散フーリエ変換、離散コサイン変換、離散サイン変換、ウエーブレット変換およびアダマール変換のうちのいずれかである。したがって、既に確立されている手法が用いられるので、確実に周波数分解を行うことが可能となる。   Further, in the corresponding point search system S and the corresponding point search device 1 in the present embodiment, the frequency decomposition method is fast Fourier transform, discrete Fourier transform, discrete cosine transform, discrete sine transform, wavelet transform, and Hadamard transform. One of them. Therefore, since an already established method is used, it is possible to reliably perform frequency decomposition.

また、本実施形態における対応点探索システムSおよび対応点探索装置1では、対応点探索部23における対応位置の演算処理は、位相限定相関法(POC)である。このため、より精度よく対応点探索を行うことが可能となる。   In the corresponding point search system S and the corresponding point searching apparatus 1 according to the present embodiment, the corresponding point calculation processing in the corresponding point search unit 23 is a phase-only correlation method (POC). For this reason, it is possible to search for corresponding points with higher accuracy.

また、本実施形態における対応点探索システムSおよび対応点探索装置1では、上述したように、ステップS11からステップS15までの各処理が繰り返し実行される。したがって、上述の実施形態において、最初の合成画像I’t0は、その1フレーム前の画像It−1に2フレーム前の画像It−2および1フレーム前の画像It−1から得られるアフィン変換を作用させることによって生成される予測画像Ipre t−1と現フレームの画像It0とから合成される一方で、次の合成画像I’t+1は、この合成画像I’t0に1フレーム前の画像It−1および現時点(現フレーム)の画像It0から得られるアフィン変換を作用させることによって生成される予測画像Ipre t+1と現フレームの画像It+1とから合成されてもよい。例えば、図8(A)に示すように、最初の合成画像I’t−3は、その3フレーム前の画像It−3に4フレーム前の画像It−4および3フレーム前の画像It−3から得られるアフィン変換PA(43)を作用させることによって生成される予測画像Ipre t−3と2フレーム前の画像It−2とから合成され、次の合成画像I’t−2は、図8(B)に示すように、この合成画像I’t−3に3フレーム前の画像It−3および2フレーム前の画像It−2から得られるアフィン変換PA(32)を作用させることによって生成される予測画像Ipre t−2と1フレームの画像It−1とから合成され、さらに次の合成画像I’t−1は、図8(C)に示すように、この合成画像I’t−2に2フレーム前の画像It−2および1フレーム前の画像It−1から得られるアフィン変換PA(21)を作用させることによって生成される予測画像Ipre t−1と現フレームの画像It0とから合成される。 Further, in the corresponding point search system S and the corresponding point search device 1 in the present embodiment, as described above, each process from step S11 to step S15 is repeatedly executed. Accordingly, in the above embodiment, the first composite image I 't0, obtained from the image I t-2 and 1-frame preceding image I t-1 two frames before the image I t-1 of one frame before While the predicted image I pre t−1 generated by applying the affine transformation and the current frame image I t0 are combined, the next combined image I ′ t + 1 is one frame in the combined image I ′ t0. The prediction image I pre t + 1 generated by applying the affine transformation obtained from the previous image I t-1 and the current image (current frame) I t0 and the current frame image I t + 1 may be combined. For example, as shown in FIG. 8 (A), the first composite image I 't-3, the three frames before the image I t-3 to 4 frames before the image I t-4 and 3 frame preceding image I The predicted image I pre t-3 generated by applying the affine transformation PA (43) obtained from t-3 and the image I t-2 two frames before are combined, and the next combined image I ′ t -2 is an affine transformation P A (A) obtained from the image I t-3 three frames before and the image It -2 of two frames before the synthesized image I ′ t-3 , as shown in FIG. 32) is synthesized from the predicted image I pre t-2 generated by applying the above and the image I t-1 of one frame, and the next synthesized image I ′ t-1 is shown in FIG. 8C. as such, our composite image I 't-2 two frames before the image I t-2 Is synthesized from the predicted image I pre t-1 and the current frame image I t0 Metropolitan generated by the action of affine transformation P A (21) obtained from the image I t-1 beauty preceding frame.

次に、別の実施形態について説明する。
(第2の実施形態)
第1の実施形態では、対応点探索システムSおよび対応点探索装置1は、ステレオカメラによって撮影された1組の画像I、Iから成るステレオ画像について対応点探索を行ったが、第2の実施形態では、対応点探索システムSおよび対応点探索装置1は、撮影カメラによって所定の時間間隔(フレーム周期)で順次に撮影された時系列画像のうちの互いに異なる時点に取得された各画像について対応点探索を行うものである。
Next, another embodiment will be described.
(Second Embodiment)
In the first embodiment, the corresponding point search system S and the corresponding point search apparatus 1 perform corresponding point search on a stereo image composed of a pair of images I 1 and I 2 photographed by a stereo camera. In the embodiment, the corresponding point search system S and the corresponding point search apparatus 1 are images acquired at different time points among time-series images sequentially captured at predetermined time intervals (frame periods) by a photographing camera. The corresponding points are searched for.

このため、第2の実施形態における対応点探索システムSおよび対応点探索装置1は、撮影カメラ2が1台の撮影カメラ、例えば、撮影カメラ2−1によって構成され、CPU12に機能的に構成される画像予測部21(データ取得部211、係数演算部212および予測画像生成部213)、画像合成部22および対応点探索部23が後述のように機能する点を除き、第1の実施形態における対応点探索システムSおよび対応点探索装置1と同様である。   For this reason, in the corresponding point search system S and the corresponding point search device 1 in the second embodiment, the photographing camera 2 is configured by one photographing camera, for example, the photographing camera 2-1, and is functionally configured by the CPU 12. In the first embodiment, except that the image prediction unit 21 (the data acquisition unit 211, the coefficient calculation unit 212, and the predicted image generation unit 213), the image synthesis unit 22, and the corresponding point search unit 23 function as described later. This is the same as the corresponding point search system S and the corresponding point search device 1.

なお、本実施形態では、撮影カメラ2−1によって撮影された時系列画像について対応点探索が実行されるが、撮影カメラ2−2も備え、撮影カメラ2−2によって撮影された時系列画像についても、本実施形態における対応点探索が実行されてもよい。   In the present embodiment, the corresponding point search is executed for the time-series image captured by the imaging camera 2-1, but the time-series image captured by the imaging camera 2-2 is also provided. Alternatively, the corresponding point search in this embodiment may be executed.

図9は、第2の実施形態の対応点探索システムにおける対応点探索装置の動作を示すフローチャートである。   FIG. 9 is a flowchart showing the operation of the corresponding point search device in the corresponding point search system of the second embodiment.

対応点探索システムSが起動され、その動作が開始されると、1台の撮影カメラ2によって所定のフレーム周期で順次に撮影された先行物体Obの時系列画像(時系列画像データ)が取得される。そして、各時系列画像(各時系列画像データ)は、順次に、通信部17から対応点探索装置1に入力され、対応点探索装置1のCPU12に通知され、CPU12によって各時系列画像間の対応点探索処理が開始される。   When the corresponding point search system S is activated and its operation is started, a time-series image (time-series image data) of the preceding object Ob sequentially captured at a predetermined frame period by one imaging camera 2 is acquired. The Then, each time-series image (each time-series image data) is sequentially input from the communication unit 17 to the corresponding point search device 1 and notified to the CPU 12 of the corresponding point search device 1, and the CPU 12 determines between the time-series images. Corresponding point search processing is started.

この各時系列画像間の対応点探索処理において、図9に示すように、まず、ステップS21では、画像予測部21のデータ取得部211は、撮影カメラ2で撮影された各時系列画像から係数演算部212で用いるデータを取得する。予測画像生成部213が所定の時点に取得された画像に基づいてこの所定の時点と異なる予測時点における画像をアフィン変換によって予測することで予測画像として生成することから、係数演算部212は、このアフィン変換のアフィン係数を算出する必要がある。このため、データ取得部211は、より具体的には、時系列画像のうちの2つの画像間の対応点を少なくとも3つ探索する。本実施形態では、例えば、時点tにおいて撮影カメラ2によって撮影された画像をIとする場合に、データ取得部211は、例えば、現時点(現フレームの時点)t0より1フレーム前の時点t−1および2フレーム前の時点t−2の画像It−1、It−2間における対応点探索を行って、少なくとも3つの対応点を含む対応点探索結果OFt(21)(少なくとも3つの注目点にそれぞれ対応する少なくとも3つの対応点を含む対応点探索結果OFt(21))を取得する。なお、OFt(21)は、撮影カメラ2によって撮影された1フレーム前の画像It−1と2フレーム前の画像It−2との間における対応点探索結果である。データ取得部211は、この2つの画像It−1、It−2間における対応点探索を、第1の実施形態におけるステップS11で説明した各対応点探索手法のいずれかの手法を用いることによって、実行する。 In the corresponding point search process between the time series images, as shown in FIG. 9, first, in step S21, the data acquisition unit 211 of the image prediction unit 21 calculates coefficients from the time series images taken by the photographing camera 2. Data used by the calculation unit 212 is acquired. Since the prediction image generation unit 213 generates an image at a prediction time point different from the predetermined time point based on an image acquired at a predetermined time point by using affine transformation, the coefficient calculation unit 212 generates the prediction image. It is necessary to calculate the affine coefficient of the affine transformation. Therefore, more specifically, the data acquisition unit 211 searches for at least three corresponding points between two images of the time-series images. In the present embodiment, for example, an image photographed by the photographing camera 2 at time t in the case of a I t, the data acquisition unit 211, for example, current time (in the current frame time) t0 than one frame before the time t- Corresponding point search between images I t-1 and I t-2 at time t-2 one and two frames before is performed, and corresponding point search result OF t (21) including at least three corresponding points (at least three Corresponding point search result OF t (21) ) including at least three corresponding points respectively corresponding to the attention point is acquired. OF t (21) is a corresponding point search result between the image It -1 of one frame before and the image It -2 of two frames before taken by the photographing camera 2. The data acquisition unit 211 uses any one of the corresponding point search methods described in step S11 in the first embodiment for the corresponding point search between the two images It -1 and It -2. Execute by.

データ取得部211は、データが取得されると、そのデータを係数演算部212へ通知する。次に、ステップS22では、画像予測部21の係数演算部212は、第1の実施形態におけるステップS12と同様の処理によって、データ取得部211で取得されたデータを用いてアフィン変換のアフィン係数を算出する。すなわち、係数演算部212は、データ取得部211で対応点探索を行って取得された、少なくとも3つの対応点を含む対応点探索結果OFt(21)を用いてアフィン変換のアフィン係数PA(21)を算出する。なお、PA(21)は、撮影カメラ2によって撮影された1フレーム前の画像It−1と2フレーム前の画像It−2とに基づいて算出されたアフィン係数(アフィンパラメータ)である。 When data is acquired, the data acquisition unit 211 notifies the coefficient calculation unit 212 of the data. Next, in step S22, the coefficient calculation unit 212 of the image prediction unit 21 uses the data acquired by the data acquisition unit 211 to perform the affine coefficient of affine transformation by the same processing as step S12 in the first embodiment. calculate. That is, the coefficient calculation unit 212 uses the corresponding point search result OF t (21) including at least three corresponding points acquired by performing the corresponding point search in the data acquisition unit 211, and uses the affine coefficient PA ( 21) is calculated. Note that PA (21) is an affine coefficient (affine parameter) calculated based on the image I t-1 one frame before and the image It t-2 two frames before captured by the photographing camera 2. .

係数演算部212は、アフィン係数PA(21)が算出されると、そのアフィン係数PA(21)を予測画像生成部213へ通知する。次に、ステップS23では、画像予測部21の予測画像生成部213は、所定の時点に取得した画像に基づいてこの所定の時点と異なる予測時点における画像を、係数演算部212で算出したアフィン係数PA(21)を持つアフィン変換を用いることによって予測し、予測画像として生成する。 When the affine coefficient PA (21) is calculated, the coefficient calculation unit 212 notifies the prediction image generation unit 213 of the affine coefficient PA (21) . Next, in step S23, the prediction image generation unit 213 of the image prediction unit 21 calculates an image at a prediction time point different from the predetermined time point based on the image acquired at the predetermined time point by the coefficient calculation unit 212. Prediction is performed by using an affine transformation having PA (21), and a prediction image is generated.

より具体的には、第1に、予測時点が現時点である場合には、予測画像生成部213は、現時点よりも過去の時点に取得した画像に対し現時点の画像をアフィン変換によって予測することで予測画像を生成する。例えば、予測画像生成部213は、現時点(現フレーム)t0よりも1フレーム前の時点t−1に取得した画像It−1にアフィン係数PA(21)のアフィン変換を作用させることよって現時点t0の予測画像Ipre t−1を生成する(S23−1)。 More specifically, first, when the prediction time is the current time, the predicted image generation unit 213 predicts the current image by affine transformation with respect to images acquired at a time earlier than the current time. A prediction image is generated. For example, the prediction image generator 213, current I by exerting an affine transformation of current (current frame) image was acquired at time t-1 of one frame before t0 I t-1 to the affine coefficients P A (21) A predicted image I pre t-1 of t0 is generated (S23-1).

そして、第2に、予測時点が過去の時点である場合には、予測画像生成部213は、現時点に取得した画像に対し過去の時点の画像をアフィン変換によって予測することで予測画像を生成する。例えば、予測画像生成部213は、現時点(現フレーム)t0に取得した画像It0にアフィン係数P−1 A(21)のアフィン変換を作用させることよって1フレーム前の時点t−1の予測画像Ipre t0を生成する(S23−2)。なお、ステップS22の処理によって求めたアフィン係数PA(21)は、2フレーム前の画像It−2を基準画像I1とすると共に1フレーム前の画像It−1を参照画像I2として求めたものである。したがって、現時点t0の画像It0から過去の時点t−1の予測画像Ipre t0を生成するステップS23−2の場合では、アフィン変換は、アフィン係数PA(21)の逆行列であるアフィン係数P−1 A(21)とする必要がある。 Second, when the prediction time point is a past time point, the prediction image generation unit 213 generates a prediction image by predicting an image at a past time point by affine transformation with respect to the image acquired at the current time point. . For example, the predicted image generation unit 213 applies the affine transformation of the affine coefficient P −1 A (21) to the image It0 acquired at the current time (current frame) t0 to thereby predict the predicted image at the time t−1 one frame before. I pre t0 is generated (S23-2). The affine coefficient PA (21) obtained by the process of step S22 is obtained by using the image It -2 that is two frames before as the standard image I1 and the image It -1 that is one frame before as the reference image I2. Is. Therefore, affine coefficients in the case of step S23-2 to generate a prediction image I pre t0 of past time t-1 from the image I t0 the moment t0, the affine transformation is the inverse matrix of the affine coefficients P A (21) P - 1A (21) is required.

画像予測部21の予測画像生成部213は、予測画像Ipre t−1、Ipre t0が生成されると、その予測画像Ipre t−1、Ipre t0を画像合成部22へ通知する。次に、ステップS24では、画像合成部22は、画像予測部21で生成された予測画像Ipre t−1、Ipre t0とこの予測画像Ipre t−1、Ipre t0に対応する画像It0、It−1とを合成することによって合成画像I’t0、I’t−1を生成する。すなわち、画像合成部22は、予測画像Ipre t−1では、オプティカルフローが消失点から放射状に伸びていることから、この現時点の予測画像Ipre t−1に、現時点の画像It0を嵌め込むことによって、現時点の予測画像Ipre t−1と現時点の画像It0とを合成し、合成画像I’t0を生成すると共に(S24−1)、画像合成部22は、予測画像Ipre t0では、オプティカルフローが消失点へ向かって伸びていることから、この1フレーム前の予測画像Ipre t0に、1フレーム前の画像It−1を嵌め込むことによって、1フレーム前の予測画像Ipre t0と1フレーム前の画像It−1とを合成し、合成画像I’t−1を生成する(S24−2)。 When the predicted images I pre t−1 and I pre t0 are generated, the predicted image generating unit 213 of the image predicting unit 21 notifies the image combining unit 22 of the predicted images I pre t−1 and I pre t0 . Next, in step S24, the image synthesis unit 22 predicts the images I pre t-1 and I pre t0 generated by the image prediction unit 21 and the images I corresponding to the prediction images I pre t-1 and I pre t0. t0, I t-1 and the combined image I by the synthesizing 't0, I' to generate a t-1. That is, since the optical flow extends radially from the vanishing point in the predicted image I pret −1 , the image composition unit 22 fits the current image It0 in the current predicted image I pret −1. by writing, by combining the predicted image I pre t-1 and the current image I t0 of time, to generate a composite image I 't0 (S24-1), the image combining unit 22, the predicted image I pre t0 Then, since the optical flow extends toward the vanishing point, the predicted image I one frame before is inserted by inserting the image I t-1 one frame before in the predicted image I pre t0 one frame before. Pre t0 and the image I t-1 of the previous frame are combined to generate a combined image I ′ t-1 (S24-2).

ここで、このステップS24において、画像合成部22は、撮影カメラ2と被写体(例えば本実施形態では先行物体Ob)との相対運動の態様に応じて、合成すべき予測画像Ipreと予測時点に取得された画像Iとを判定するように構成されてもよい。このように構成されることによって、合成画像の合成対象を適宜に変更することができ、効果的に対応点探索を行うことができる。 Here, in this step S24, the image composition unit 22 determines the predicted image I pre to be synthesized and the prediction time point according to the mode of relative motion between the photographing camera 2 and the subject (for example, the preceding object Ob in the present embodiment). The acquired image I may be determined. By being configured in this way, the composition target of the composite image can be changed as appropriate, and the corresponding point search can be performed effectively.

図10は、オプティカルフローが消失点から放射状に伸びる場合における予測画像の生成および合成画像の生成を説明するための図である。図10(A)は、予測画像の生成の態様を示し、図10(B)は、オプティカルフローを示す。図11は、オプティカルフローが消失点へ向かって伸びる場合における予測画像の生成および合成画像の生成を説明するための図である。図11(A)は、予測画像の生成の態様を示し、図11(B)は、オプティカルフローを示す。   FIG. 10 is a diagram for explaining generation of a predicted image and generation of a composite image when the optical flow extends radially from the vanishing point. FIG. 10A shows a mode of generating a predicted image, and FIG. 10B shows an optical flow. FIG. 11 is a diagram for explaining generation of a predicted image and generation of a composite image when the optical flow extends toward the vanishing point. FIG. 11A shows a manner of generating a predicted image, and FIG. 11B shows an optical flow.

撮影カメラ2と被写体との相対運動の態様は、例えば、時系列画像から得られるオプティカルフローによって求めることができる。オプティカルフローは、物体の3次元運動に伴って生じる画像上の2次元速度ベクトルの分布であり、例えば、第1時点よりも過去の時点における画像を基準画像I1とすると共に第1時点の画像を参照画像I2とした場合に、基準画像I1の注目点に対応する参照画像I2の対応点を対応点探索によって探索することで、注目点から対応点へのベクトルとして求められる。より具体的には、オプティカルフローは、例えば、1フレーム前の画像It−1を基準画像I1とすると共に現時点(現フレーム)の画像It0を参照画像I2とした場合に、基準画像I1の注目点に対応する参照画像I2の対応点を対応点探索によって探索することで、注目点から対応点へのベクトルとして求められる。 The mode of relative motion between the photographing camera 2 and the subject can be obtained, for example, by an optical flow obtained from a time-series image. The optical flow is a distribution of a two-dimensional velocity vector on an image generated by a three-dimensional movement of an object. For example, an image at a time point earlier than the first time point is set as a reference image I1, and an image at the first time point is changed. In the case of the reference image I2, the corresponding point of the reference image I2 corresponding to the target point of the standard image I1 is searched by the corresponding point search to obtain a vector from the target point to the corresponding point. More specifically, for example, when the image It -1 of the previous frame is set as the reference image I1 and the current image (current frame) It0 is set as the reference image I2, the optical flow of the reference image I1 is determined. By searching the corresponding point of the reference image I2 corresponding to the target point by the corresponding point search, it is obtained as a vector from the target point to the corresponding point.

このように求めたオプティカルフローが例えば図10(B)に示すように消失点NPから放射状に伸びている場合には、撮影カメラ2が被写体に近づくように運動、すなわち、前進運動している場合であるから、図10(A)に示すように、予測画像生成部213は、1フレーム前の画像It−1にアフィン係数PA(21)のアフィン変換を作用させることよって現時点t0の予測画像Ipre t−1を生成し(S23−1)、画像合成部22は、現時点t0の予測画像Ipre t−1と現時点t0の画像It0とを合成し、合成画像I’t0を生成する(S24−1)。画像合成部22は、この現時点t0の予測画像Ipre t−1における、撮影カメラ2によって撮影される画像領域に対応する領域DMに、現時点t0の画像It0を嵌め込むことによって両画像Ipre t−1、It0を合成する。消失点NPは、例えば、オプティカルフローの交点として与えられる。 When the optical flow obtained in this way extends radially from the vanishing point NP as shown in FIG. 10B, for example, the photographing camera 2 moves so as to approach the subject, that is, moves forward. Therefore, as shown in FIG. 10A, the predicted image generation unit 213 predicts the current t0 by applying the affine transformation of the affine coefficient PA (21) to the image I t-1 one frame before. generating an image I pre t-1 (S23-1) , the image synthesizing unit 22 synthesizes the image I t0 predicted image I pre t-1 and the current t0 the current t0, generating a composite image I 't0 (S24-1). Image synthesizing unit 22, the predicted image I pre t-1 of the current t0, the region DM corresponding to the image area to be captured by the photographing camera 2, both images by fitting the images I t0 the moment t0 I pre t-1 and It0 are synthesized. The vanishing point NP is given as an intersection of optical flows, for example.

一方、この求めたオプティカルフローが例えば図11(B)に示すように消失点NPへ向かって伸びている場合には、撮影カメラ2が被写体から離れるように運動、すなわち、後進運動している場合であるから、図11(A)に示すように、予測画像生成部213は、1フレーム前の画像It−1にアフィン係数PA(21)のアフィン変換を作用させることよって現時点t0の予測画像Ipre t−1を生成し(S23−1)、画像合成部22は、現時点t0の予測画像Ipre t−1と現時点t0の画像It0とを合成し、合成画像I’t0を生成する(S24−1)。画像合成部22は、この現時点t0の予測画像Ipre t−1における、撮影カメラ2によって撮影される画像領域に対応する領域DMに、現時点t0の画像It0を嵌め込むことによって両画像Ipre t−1、It0を合成する。ただし、この場合(後進時)に、現時点t0の画像It0は、現時点の予測画像Ipre t−1より大きいために、合成後の予測画像Ipre t−1は、現時点t0の下に隠れてしまい、実質的には現時点t0の画像It0となる。 On the other hand, when the obtained optical flow extends toward the vanishing point NP as shown in FIG. 11B, for example, the photographing camera 2 moves away from the subject, that is, moves backward. Therefore, as shown in FIG. 11A, the predicted image generation unit 213 predicts the current t0 by applying the affine transformation of the affine coefficient PA (21) to the image I t-1 one frame before. generating an image I pre t-1 (S23-1) , the image synthesizing unit 22 synthesizes the image I t0 predicted image I pre t-1 and the current t0 the current t0, generating a composite image I 't0 (S24-1). Image synthesizing unit 22, the predicted image I pre t-1 of the current t0, the region DM corresponding to the image area to be captured by the photographing camera 2, both images by fitting the images I t0 the moment t0 I pre t-1 and It0 are synthesized. However, in this case (during backward movement), since the image It0 at the current time t0 is larger than the current predicted image Ipret -1 , the combined predicted image Ipret -1 is hidden under the current time t0. would be, becomes an image I t0 at the present time t0 is substantially.

以上の説明では、過去の画像をベースに予測画像が作成され、そこへ現在の画像を嵌め込むことによって合成画像が作成されたが、図9で説明したように、現在の画像をベースに過去の予測画像が作成され、そこへ過去の画像を嵌め込むことによって合成画像が作成されてもよい。   In the above description, a predicted image is created based on a past image, and a composite image is created by fitting the current image therein. However, as described in FIG. 9, the past image is created based on the current image. A predicted image may be created, and a composite image may be created by inserting a past image therein.

なお、上述では、撮影カメラ2が前進運動している場合では、図10に示すように、1フレーム前の画像It−1にアフィン係数PA(21)のアフィン変換を作用させることよって現時点t0の予測画像Ipre t−1が生成され、現時点t0の予測画像Ipre t−1と現時点t0の画像It0とを合成することによって合成画像I’t0が生成されたが、図12に示すように、撮影カメラ2が前進運動している場合に、合成画像I’t0が生成されるだけでなく、さらに、現時点の画像It0にアフィン係数P−1 A(21)のアフィン変換を作用させることよって1フレーム前の予測画像Ipre t0も生成され、1フレーム前の予測画像Ipre t0と1フレーム前に取得された画像It−1とを合成することによって合成画像I’t−1も生成されてもよい。同様に、上述では、撮影カメラ2が後進運動している場合では、図11に示すように、現時点の画像It0にアフィン係数P−1 A(21)のアフィン変換を作用させることよって1フレーム前の予測画像Ipre t0が生成され、1フレーム前の予測画像Ipre t0と1フレーム前に取得された画像It−1とを合成することによって合成画像I’t−1が生成されたが、図13に示すように、撮影カメラ2が後進運動している場合に、合成画像I’t−1が生成されるだけでなく、さらに、1フレーム前の画像It−1にアフィン係数PA(21)のアフィン変換を作用させることよって現時点t0の予測画像Ipre t−1も生成され、現時点t0の予測画像Ipre t−1と現時点t0の画像It0とを合成することによって合成画像I’t0も生成されてもよい。このように構成されることによって、運動方向が変更された場合に、運動方向を判定することによって切り換える必要がなくなり、かつ運動方向が変更された時点から予測画像で対応点探索を行うことが可能となる。 In the above description, when the photographing camera 2 is moving forward, as shown in FIG. 10, the affine transformation of the affine coefficient PA (21) is applied to the image It -1 before one frame as shown in FIG. A prediction image I pre t-1 at t0 is generated, and a composite image I ′ t0 is generated by combining the prediction image I pre t-1 at the current time t0 and the image I t0 at the current time t0. as shown, when the photographing camera 2 is forward movement, the synthetic image I 'not only t0 is generated, further, an affine transformation of the affine coefficients P -1 a (21) in the image I t0 the moment As a result, a predicted image I pre t0 one frame before is also generated, and the predicted image I pre t0 one frame before and the image I t-1 acquired one frame before are combined. The composite image I ′ t−1 may also be generated. Similarly, in the above description, in the case where photographing camera 2 is backward movement, as shown in FIG. 11, one frame I by exerting an affine transformation of the affine coefficients P -1 A (21) in the image I t0 the moment A previous predicted image I pre t0 is generated, and a synthesized image I ′ t-1 is generated by synthesizing the predicted image I pre t0 one frame before and the image I t−1 acquired one frame before However, as shown in FIG. 13, when the photographing camera 2 is moving backward, not only the composite image I ′ t−1 is generated, but also the affine coefficient is added to the image I t−1 one frame before. By applying the affine transformation of PA (21) , a predicted image I pre t-1 at the current time t0 is also generated, and the predicted image I pre t-1 at the current time t0 and the image I t0 at the current time t0 are synthesized. Yo Thus, the composite image I ′ t0 may also be generated. By being configured in this way, when the motion direction is changed, it is not necessary to switch by determining the motion direction, and it is possible to perform a corresponding point search with a predicted image from the time when the motion direction is changed. It becomes.

なお、合成画像I’の生成において、予測画像Ipreの大きさが、撮影カメラ2によって撮影される画像領域に対応する領域DMよりも小さい場合には、実測画像Iの下に予測画像Ipreが隠れてしまい、合成画像I’が実質的に実測画像Iとなる場合がある。 Note that, in the generation of the composite image I ′, when the size of the predicted image I pre is smaller than the region DM corresponding to the image region photographed by the photographing camera 2, the predicted image I pre below the measured image I. May be hidden and the composite image I ′ may be substantially the actual measurement image I.

画像合成部22は、これら合成画像I’t0、I’t−1が生成されると、これら合成画像I’t0、I’t−1を対応点探索部23へ通知する。そして、ステップS25では、対応点探索部23は、影カメラ2で撮影された2つの画像のうちの一方を基準画像I1とすると共に他方を参照画像I2とする場合に、基準画像I1の注目点に対応する参照画像I2の対応点を探索する。そして、対応点探索部23は、この対応点探索において、基準画像I1に対応する、画像予測部21と画像合成部22とによって生成された合成基準画像I1’がある場合には、基準画像I1に代えて合成基準画像I1’を用いると共に、参照画像I2に対応する、画像予測部21および画像合成部22によって生成された合成参照画像I2’がある場合には、参照画像I2に代えて合成参照画像I2’を用いる。すなわち、本実施形態では、これら合成画像I’t0、I’t−1が生成されるので、対応点探索部23は、例えば、合成画像I’t−1を基準画像I1とすると共に合成画像I’t0を参照画像I2として、基準画像I1の注目点に対応する参照画像I2の対応点を探索する。ここで、対応点探索部23は、ステップS11で説明した各対応点探索手法のいずれかの手法を用いることによって、対応点探索を実行する。そして、対応点探索部23は、対応点探索システムSの用途に応じた所定値を算出する。 When the composite images I ′ t0 and I ′ t−1 are generated, the image composition unit 22 notifies the corresponding point search unit 23 of the composite images I ′ t0 and I ′ t−1 . In step S25, the corresponding point search unit 23 sets the attention point of the standard image I1 when one of the two images captured by the shadow camera 2 is the standard image I1 and the other is the reference image I2. The corresponding point of the reference image I2 corresponding to is searched. Then, in the corresponding point search, if there is a combined reference image I1 ′ generated by the image predicting unit 21 and the image combining unit 22 corresponding to the reference image I1, the corresponding point searching unit 23 performs the reference image I1. Is used instead of the reference image I2 ′, and if there is a composite reference image I2 ′ generated by the image prediction unit 21 and the image synthesis unit 22 corresponding to the reference image I2, the composite image is replaced with the reference image I2. A reference image I2 ′ is used. That is, in the present embodiment, since these composite images I ′ t0 and I ′ t−1 are generated, the corresponding point search unit 23 uses, for example, the composite image I ′ t−1 as the reference image I1 and the composite image. Using I ′ t0 as the reference image I2, the corresponding point of the reference image I2 corresponding to the target point of the base image I1 is searched. Here, the corresponding point search unit 23 executes the corresponding point search by using any one of the corresponding point searching methods described in step S11. Then, the corresponding point search unit 23 calculates a predetermined value according to the use of the corresponding point search system S.

そして、処理がステップS25からステップS22に戻され、ステップS21からステップS25までの各処理が繰り返し実行されることによって、各フレームについて、上述の処理が実行される。   Then, the process returns from step S25 to step S22, and the processes described above are executed for each frame by repeatedly executing the processes from step S21 to step S25.

このように動作するので、本実施形態における対応点探索システムSおよび対応点探索装置1は、対応点探索を行う場合に、例えば、図14に示すように、演算領域(TP、WD)が画像外領域を含まないように、予測画像Ipreによって合成画像I’を生成することが可能となる。このため、対応点探索の演算領域が画像領域と画像外領域とに亘って設定される場合でも、誤対応の低減が可能となる。 Since the corresponding point search system S and the corresponding point search device 1 according to this embodiment perform the corresponding point search, for example, as illustrated in FIG. 14, the calculation area (TP, WD) is an image. The synthesized image I ′ can be generated by the predicted image I pre so as not to include the outer region. For this reason, even when the calculation area of the corresponding point search is set over the image area and the non-image area, it is possible to reduce erroneous correspondence.

また、本実施形態における対応点探索システムSおよび対応点探索装置1では、画像合成部22は、時系列画像に基づいて得られたオプティカルフローに応じて予測画像Ipreおよび予測時点に取得された画像Iを決定している。このため、合成画像の合成対象を適宜に変更することができ、効果的に対応点探索を行うことができる。 Further, in the corresponding point search system S and the corresponding point search device 1 in the present embodiment, the image synthesis unit 22 is acquired at the predicted image I pre and the predicted time according to the optical flow obtained based on the time-series image. Image I is determined. For this reason, the synthesis target of the synthesized image can be changed as appropriate, and the corresponding point search can be performed effectively.

また、本実施形態における対応点探索システムSおよび対応点探索装置1では、画像予測部21は、現時点t0よりも1フレーム前に取得された画像It−1に基づいて現時点の予測画像Ipre t−1を生成し、画像合成部22は、現時点の予測画像Ipre t−1と現時点に取得された現時点t0の画像It0とを合成している。このため、対応点探索が行われる画像が移動体に取り付けられた撮影カメラによって得られた画像である場合に、移動体が前進運動している場合に、より精度よく対応点探索を行うことが可能となる。 Further, in the corresponding point search system S and the corresponding point search device 1 in the present embodiment, the image prediction unit 21 is based on the image It -1 obtained one frame before the current time t0, and the current predicted image Ipre. It generates a t-1, the image synthesizing unit 22 synthesizes the image I t0 predicted image I pre t-1 and the current t0 obtained in the present time of the current. For this reason, when the image on which the corresponding point search is performed is an image obtained by the photographing camera attached to the moving body, the corresponding point search can be performed more accurately when the moving body is moving forward. It becomes possible.

また、本実施形態における対応点探索システムSおよび対応点探索装置1では、画像予測部21は、現時点t0に取得された画像It0に基づいて現時点t0よりも1フレーム前の予測画像Ipre t0を生成し、画像合成部22は、1フレーム前の予測画像Ipre t0と1フレーム前に取得された1フレーム前の画像It−1とを合成している。このため、対応点探索が行われる画像が移動体に取り付けられた撮影カメラによって得られた画像である場合に、移動体が後進(後退)運動している場合に、より精度よく対応点探索を行うことが可能となる。 Further, in the corresponding point search system S and the corresponding point search device 1 in the present embodiment, the image prediction unit 21 predicts the predicted image I pre t0 one frame before the current t0 based on the image I t0 acquired at the current time t0. The image composition unit 22 synthesizes the predicted image I pre t0 one frame before and the image I t-1 one frame before acquired one frame before. For this reason, when the image on which the corresponding point search is performed is an image obtained by a photographing camera attached to the moving body, the corresponding point search is performed more accurately when the moving body is moving backward (backward). Can be done.

図14は、撮影カメラの位置と撮影条件との関係を説明するための図である。なお、上述の第1および第2の実施形態では、アフィン変換のアフィン係数Pは、互いに取得時間の異なる2つの画像間において対応点探索を実行することによって取得された、少なくとも3つの対応点を含む対応点探索結果OFに基づいて求められたが、互いに取得時間の異なる2つの画像に基づいて求められたオプティカルフローに基づいて求められても良い。例えば、対応点探索結果OFにおける注目点および対応点として、オプティカルフローを表すベクトルの始点および終点をそれぞれ用いることによって、アフィン変換のアフィン係数Pが求められる。この構成によれば、他の外部機器を用いることなく、画像のみからアフィン変換のアフィン係数を求めることが可能となる。 FIG. 14 is a diagram for explaining the relationship between the position of the photographing camera and the photographing conditions. In the first and second embodiments described above, the affine coefficients P A of the affine transformation was obtained by performing the corresponding point search between the two images different from each other acquisition times, at least three corresponding points Although it was calculated | required based on the corresponding point search result OF containing, it may be calculated | required based on the optical flow calculated | required based on two images from which acquisition time differs mutually. For example, the target point and the corresponding point in the corresponding point search results OF, by using the start and end points of a vector representing the optical flow, respectively, affine coefficients P A of the affine transformation is determined. According to this configuration, it is possible to obtain the affine coefficient of the affine transformation from only the image without using another external device.

一方、この場合において、画像は、移動体に取り付けられた撮影カメラ2によって取得され、アフィン変換のアフィン係数Pは、移動体の操舵による回転角度に関する操舵情報および自走速度に関する速度情報に基づいて求められたオプティカルフローに基づいて求められても良い。そして、この操舵情報は、移動体に取り付けられた移動体の操舵による回転角度を検出する舵角センサによって取得されることが好ましく、この速度情報は、移動体に取り付けられた移動体の速度を検出する速度センサによって取得されることが好ましい。この構成によれば、操舵情報および速度情報が他の外部機器、例えば舵角センサや速度センサから取得されるので、演算時間の短縮化や演算処理装置の簡単化を図ることができ、また、精度よくアフィン変換のアフィン係数Pを求めることが可能となる。 On the other hand, in this case, the image is acquired by the photographing camera 2 mounted on the movable body, affine coefficients P A of the affine transformation, based on the steering information and velocity information about the free-running speed relating to rotation angle according to the steering of the mobile May be obtained based on the optical flow obtained in the above. The steering information is preferably acquired by a rudder angle sensor that detects a rotation angle by steering of the moving body attached to the moving body, and the speed information indicates the speed of the moving body attached to the moving body. It is preferably acquired by a speed sensor to detect. According to this configuration, since the steering information and the speed information are acquired from other external devices such as a rudder angle sensor and a speed sensor, the calculation time can be shortened and the arithmetic processing device can be simplified. it is possible to obtain the affine coefficients P a accurately affine transformation.

ここで、図14に示すように、焦点距離fで画角θである撮影カメラ2が、路面から高さhの位置に、前進方向Zに対しピッチ方向の傾きφで移動体に取り付けられ、パン方向およびロール方向の傾きが実質的に0であるとする。このような場合では、オプティカルフローの水平成分△xおよび垂直成分△yは、式11−1および式11−2によって表される。
△x=(vt(y+αφ)x/(αh))−(α+vt(y+αφ)/(2h))σt
・・・(11−1)
△y=(vt(y+αφ)/(αh)) ・・・(11−2)
ここで、vは、移動体の速度であり、tは、2つの画像間の撮影時間間隔であり、yは、撮影カメラ2からZ方向に離れた路面上の点Aを表す画像上の点の垂直成分であり、xは、撮影カメラ2からZ方向に離れた路面上の点Aを表す画像上の点の水平成分であり、αは、画素ピッチをpとし画素数をNとすると、α=f/p=N/(2θ)であり、σtは、操舵による回転角度(σは角速度)である。
Here, as shown in FIG. 14, the photographing camera 2 having a focal length f and an angle of view θ is attached to the moving body at a height h from the road surface with an inclination φ in the pitch direction with respect to the forward direction Z. It is assumed that the inclination in the pan direction and the roll direction is substantially zero. In such a case, the horizontal component Δx and the vertical component Δy of the optical flow are expressed by Expression 11-1 and Expression 11-2.
Δx = (vt (y + αφ) x / (αh)) − (α + vt (y + αφ) / (2h)) σt
... (11-1)
Δy = (vt (y + αφ) 2 / (αh)) (11-2)
Here, v is the speed of the moving body, t is the shooting time interval between the two images, and y is a point on the image representing the point A on the road surface away from the shooting camera 2 in the Z direction. X is a horizontal component of a point on the image representing a point A on the road surface away from the photographing camera 2 in the Z direction, and α is a pixel pitch p and the number of pixels is N. α = f / p = N / (2θ), and σt is a rotation angle by steering (σ is an angular velocity).

図15は、予測画像の他の生成方法を説明するための図である。また、上述の第1および第2の実施形態では、予測画像生成部213によって生成される予測画像Ipre t−1は、予測前の元の画像It−1を一括に扱って生成されたが、図15に示すように、元の画像It−1を複数の画像に分割し(図15(A))、これら各分割した分割画像ごとにアフィン係数P A(21)(nはn番目の分割領域であることを示す)を求め、これら各分割した分割画像I t−1ごとに予測画像Ipren t−1を求め、予測前後で位置関係を維持するようにこれらをつなぎ合わせて合成することで、予測画像Ipre t−1が生成されても良い(図15(B))。各分割画像I t−1の大きさ(サイズ)は、正方形でも良く、また矩形であっても良く、さらに必ずしも同一である必要はなく異なっていても良い。このように元の画像It−1を分割してから予測画像Ipre t−1を生成することによって、1フレームの間で移動量が大きく変動する領域と小さく変動する領域を分割することが可能となり、より正確に予測画像Ipre t−1を生成することができる。 FIG. 15 is a diagram for explaining another method for generating a predicted image. In the first and second embodiments described above, the predicted image I pre t-1 generated by the predicted image generation unit 213 is generated by collectively handling the original image It -1 before prediction. However, as shown in FIG. 15, the original image It -1 is divided into a plurality of images (FIG. 15 (A)), and the affine coefficient P n A (21) (n is divided into each of these divided divided images. for each of the divided divided images I n t−1 , and the predicted image I pren t−1 is obtained for each divided divided image I n t−1 , and these are connected to maintain the positional relationship before and after the prediction. The predicted image I pre t-1 may be generated by combining them together (FIG. 15B). Each divided image I n t-1 size (size) may be square, also may be rectangular, or may be different not need more necessarily identical. In this way, by dividing the original image I t-1 and then generating the predicted image I pre t-1 , it is possible to divide the region where the movement amount varies greatly and the region where the movement amount varies slightly during one frame. Therefore, the predicted image I pre t-1 can be generated more accurately.

なお、この場合においても上述の実施形態と同様に、予測画像Ipre t−1は、画像合成部22の画像合成を容易に行うために、図15(C)に示すように、撮影カメラ2によって撮影される画像領域に対応する領域DMが抜き取られてものであっても良い。 Also in this case, as in the above-described embodiment, the predicted image I pre t-1 is obtained by the camera 2 as shown in FIG. The area DM corresponding to the image area to be photographed may be extracted.

図16は、多重解像度戦略を説明するための図である。また、上述の第1および第2の実施形態において、対応点探索部23は、多重解像度戦略を用いて対応点探索を実行しても良い。多重解像度戦略を用いた対応点探索は、図16に示すように、基準画像I1および参照画像I2の解像度を低解像度化し、この低解像度の基準画像I1および参照画像I2を用いて対応点探索を行い、その解(対応点探索結果)を伝播させながら解像度を元の解像度まで順次に上げる手法である。より具体的には、まず、第1処理として、例えば画素を間引く間引き処理によって基準画像I1および参照画像I2の各縮小画像が作成される(低解像度化)。次に、第2処理として、これら基準画像I1および参照画像I2の各縮小画像を用いて対応点探索が行われる。次に、第3処理として、この対応点探索によって探索された対応点を含む所定の範囲で参照画像I2の縮小画像が所定の倍率で拡大されると共に、注目点を含む前記所定の範囲で基準画像I1の縮小画像が所定の倍率で拡大される(解の伝播)。次に、第4処理として、この拡大された基準画像I1および参照画像I2を用いて対応点探索が行われる。次に、第5処理として、元の大きさ(サイズ、解像度)となるまで、第3処理および第4処理を繰り返す。   FIG. 16 is a diagram for explaining the multi-resolution strategy. In the first and second embodiments described above, the corresponding point search unit 23 may execute a corresponding point search using a multi-resolution strategy. In the corresponding point search using the multi-resolution strategy, as shown in FIG. 16, the resolution of the base image I1 and the reference image I2 is reduced, and the corresponding point search is performed using the low-resolution base image I1 and the reference image I2. This is a technique for sequentially increasing the resolution to the original resolution while propagating the solution (corresponding point search result). More specifically, first, as the first process, each reduced image of the standard image I1 and the reference image I2 is created by, for example, a thinning process for thinning out pixels (reduction in resolution). Next, as a second process, a corresponding point search is performed using the reduced images of the standard image I1 and the reference image I2. Next, as a third process, the reduced image of the reference image I2 is enlarged at a predetermined magnification in a predetermined range including the corresponding points searched by the corresponding point search, and the reference image is used in the predetermined range including the attention point. The reduced image of the image I1 is enlarged at a predetermined magnification (propagation of the solution). Next, as a fourth process, a corresponding point search is performed using the enlarged standard image I1 and reference image I2. Next, as the fifth process, the third process and the fourth process are repeated until the original size (size, resolution) is reached.

多重化解像度戦略を用いる対応点探索では、演算領域に画像外領域が含まれるケースが多い。本発明の一実施態様では、上述したように、予測画像が生成され、予測画像に基づいて合成画像が生成され、合成画像を用いることによって対応点探索が行われるので、このような構成の対応点探索システムSおよび対応点探索装置1では、多重解像度戦略による対応点探索を行う場合に、より精度よく対応点探索を行うことができる。   In the corresponding point search using the multiplexed resolution strategy, there are many cases where the calculation area includes an area outside the image. In one embodiment of the present invention, as described above, a predicted image is generated, a synthesized image is generated based on the predicted image, and a corresponding point search is performed by using the synthesized image. The point search system S and the corresponding point search device 1 can perform the corresponding point search with higher accuracy when performing the corresponding point search by the multi-resolution strategy.

本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。   In order to express the present invention, the present invention has been properly and fully described through the embodiments with reference to the drawings. However, those skilled in the art can easily change and / or improve the above-described embodiments. It should be recognized that this is possible. Therefore, unless the modifications or improvements implemented by those skilled in the art are at a level that departs from the scope of the claims recited in the claims, the modifications or improvements are not covered by the claims. To be construed as inclusive.

第1の実施形態における対応点探索システムの概略構成を示す図である。It is a figure which shows schematic structure of the corresponding point search system in 1st Embodiment. 実施形態の対応点探索システムにおける対応点探索装置の構成を示すブロック図である。It is a block diagram which shows the structure of the corresponding point search apparatus in the corresponding point search system of embodiment. 第1の実施形態の対応点探索システムにおける対応点探索装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the corresponding point search apparatus in the corresponding point search system of 1st Embodiment. 位相限定相関法のブロック図である。It is a block diagram of a phase only correlation method. POC値の一例を示すグラフである。It is a graph which shows an example of a POC value. 予測画像の生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of an estimated image. 予測画像の大きさを説明するための図である。(A)は、基準画像の場合であり、(B)は、参照画像の場合である。It is a figure for demonstrating the magnitude | size of an estimated image. (A) is a case of a standard image, and (B) is a case of a reference image. 合成画像の生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of a synthesized image. 第2の実施形態の対応点探索システムにおける対応点探索装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the corresponding point search apparatus in the corresponding point search system of 2nd Embodiment. オプティカルフローが消失点から放射状に伸びる場合における予測画像の生成および合成画像の生成を説明するための図である。It is a figure for demonstrating the production | generation of a prediction image and the production | generation of a synthesized image in case an optical flow is extended radially from a vanishing point. オプティカルフローが消失点へ向かって伸びる場合における予測画像の生成および合成画像の生成を説明するための図である。It is a figure for demonstrating the production | generation of a prediction image and the production | generation of a synthesized image in case an optical flow is extended toward a vanishing point. オプティカルフローが消失点から放射状に伸びる場合における他の予測画像の生成および合成画像の生成を説明するための図である。It is a figure for demonstrating the production | generation of the other estimated image in the case where an optical flow is extended radially from a vanishing point, and the production | generation of a synthesized image. オプティカルフローが消失点へ向かって伸びる場合における他の予測画像の生成および合成画像の生成を説明するための図である。It is a figure for demonstrating the production | generation of another prediction image and the production | generation of a synthesized image in case an optical flow is extended toward a vanishing point. 他の合成画像の生成方法を説明するための図である。It is a figure for demonstrating the production | generation method of another composite image. 撮影カメラの位置と撮影条件との関係を説明するための図である。It is a figure for demonstrating the relationship between the position of an imaging camera, and imaging conditions. 予測画像の他の生成方法を説明するための図である。It is a figure for demonstrating the other production | generation method of an estimated image. 多重解像度戦略を説明するための図である。It is a figure for demonstrating a multi-resolution strategy. 2つの画像間において対応点探索を行った場合における誤対応を説明するための図である。It is a figure for demonstrating the miscorrespondence at the time of performing a corresponding point search between two images. 時系列画像の2つの画像間において対応点探索を行った場合における誤対応を説明するための図である。It is a figure for demonstrating the miscorrespondence at the time of performing a corresponding point search between two images of a time series image.

符号の説明Explanation of symbols

S 対応点探索システム
1 対応点探索装置
2 撮影カメラ
12 CPU
21 画像予測部
22 画像合成部
23 対応点探索部
211 データ取得部
212 係数演算部
213 予測画像生成部
S Corresponding Point Search System 1 Corresponding Point Search Device 2 Shooting Camera 12 CPU
21 image prediction unit 22 image synthesis unit 23 corresponding point search unit 211 data acquisition unit 212 coefficient calculation unit 213 prediction image generation unit

Claims (16)

2つの画像間における互いに対応する点を探索するための対応点探索装置において、
前記2つの画像のうちの一方を基準画像とすると共に他方を参照画像とし、前記基準画像の注目点に対応する前記参照画像の対応点を探索する対応点探索部と、
所定の時点に取得された前記基準画像または前記参照画像について、前記所定の時点と異なる予測時点における画像を予測画像として生成する画像予測部と、
前記予測画像における前記予測時点に取得された画像に対応する領域を、当該予測時点に取得された画像に置き換えることにより前記予測時点の合成後画像を生成する画像合成部とを備え、
前記対応点探索部は、前記基準画像または前記参照画像の一方に、前記画像合成部で合成された合成後画像を用いること
を特徴とする対応点探索装置。
In a corresponding point search device for searching for points corresponding to each other between two images,
A corresponding point search unit that searches one of the two images as a reference image and the other as a reference image, and searching for a corresponding point in the reference image corresponding to a point of interest in the reference image;
An image prediction unit that generates, as a predicted image, an image at a prediction time point different from the predetermined time point for the standard image or the reference image acquired at a predetermined time point;
An image synthesizing unit that generates a synthesized image at the prediction time point by replacing a region corresponding to the image obtained at the prediction time point in the prediction image with an image obtained at the prediction time point;
The corresponding point searching unit uses the synthesized image synthesized by the image synthesizing unit as one of the standard image or the reference image.
前記画像予測部は、前記予測画像の生成にアフィン変換を用いること
を特徴とする請求項1に記載の対応点探索装置。
The corresponding point search apparatus according to claim 1, wherein the image prediction unit uses affine transformation to generate the predicted image.
前記アフィン変換のアフィン係数は、前記所定の時点に取得された画像と前記所定の時点と異なる時点に取得された画像に基づいて求められたオプティカルフローに基づいて求められること
を特徴とする請求項2に記載の対応点探索装置。
The affine coefficient of the affine transformation is obtained based on an optical flow obtained based on an image obtained at the predetermined time point and an image obtained at a time point different from the predetermined time point. 2. The corresponding point search device according to 2.
前記画像は、移動体に取り付けられた撮影カメラによって取得され、
前記アフィン変換のアフィン係数は、前記移動体の操舵による回転角度に関する操舵情報および自走速度に関する速度情報に基づいて求められたオプティカルフローに基づいて求められること
を特徴とする請求項2に記載の対応点探索装置。
The image is acquired by a photographing camera attached to a moving body,
The affine coefficient of the affine transformation is obtained based on an optical flow obtained based on steering information related to a rotation angle by steering of the moving body and speed information related to a self-running speed. Corresponding point search device.
前記操舵情報は、前記移動体に取り付けられた前記移動体の操舵による回転角度を検出する舵角センサによって取得され、
前記速度情報は、前記移動体に取り付けられた前記移動体の速度を検出する速度センサによって取得されること
を特徴とする請求項4に記載の対応点探索装置。
The steering information is acquired by a steering angle sensor that detects a rotation angle by steering of the mobile body attached to the mobile body,
The corresponding point search apparatus according to claim 4, wherein the speed information is acquired by a speed sensor that detects a speed of the moving body attached to the moving body.
前記2つの画像は、ステレオカメラによって前記予測時点に撮影された1組の画像から成るステレオ画像であること
を特徴とする請求項1に記載の対応点探索装置。
The corresponding point search device according to claim 1, wherein the two images are stereo images including a set of images taken at the prediction time point by a stereo camera.
前記画像合成部は、前記ステレオ画像における1組の画像のそれぞれに対し各合成画像を生成すること
を特徴とする請求項6に記載の対応点探索装置。
The corresponding point search apparatus according to claim 6, wherein the image composition unit generates each composite image for each of a set of images in the stereo image.
前記2つの画像は、時系列画像のうちの互いに異なる時点に取得された各画像であること
を特徴とする請求項1に記載の対応点探索装置。
The corresponding point search device according to claim 1, wherein the two images are images acquired at different points in time in the time-series images.
前記画像予測部は、第1時点よりも過去の時点に取得された画像に基づいて前記第1時点の予測画像を生成し、
前記画像合成部は、前記時系列画像に基づいて得られたオプティカルフローが消失点から放射状に伸びているときは、前記第1時点の予測画像と前記第1時点に取得された第1時点の画像とを合成すること
を特徴とする請求項8に記載の対応点探索装置。
The image prediction unit generates a predicted image at the first time point based on images acquired at a time point earlier than the first time point,
When the optical flow obtained based on the time-series image extends radially from the vanishing point, the image composition unit and the predicted image at the first time point and the first time point obtained at the first time point The corresponding point search apparatus according to claim 8, wherein the corresponding point is synthesized with an image.
前記画像予測部は、第1時点に取得された画像に基づいて前記第1時点よりも過去の時点における予測画像を生成し、
前記画像合成部は、前記時系列画像に基づいて得られたオプティカルフローが消失点に向かって伸びているときは、前記過去の時点における予測画像と前記過去の時点に取得された過去の時点における画像とを合成すること
を特徴とする請求項8に記載の対応点探索装置。
The image prediction unit generates a predicted image at a time point earlier than the first time point based on the image acquired at the first time point,
When the optical flow obtained based on the time-series image extends toward the vanishing point, the image composition unit is configured to predict the predicted image at the past time point and the past time point acquired at the past time point. The corresponding point search apparatus according to claim 8, wherein the corresponding point is synthesized with an image.
前記対応点探索部は、前記基準画像と前記参照画像との相関演算によって行われること
を特徴とする請求項1に記載の対応点探索装置。
The corresponding point search apparatus according to claim 1, wherein the corresponding point search unit is performed by a correlation calculation between the base image and the reference image.
前記対応点探索部は、演算領域内のパターンを周波数分解し、振幅成分を抑制した信号の類似度に基づいて対応位置を演算すること
を特徴とする請求項1に記載の対応点探索装置。
The corresponding point search device according to claim 1, wherein the corresponding point search unit calculates a corresponding position based on a similarity of signals in which a pattern in a calculation region is frequency-resolved and an amplitude component is suppressed.
前記周波数分解の手法は、高速フーリエ変換、離散フーリエ変換、離散コサイン変換、離散サイン変換、ウエーブレット変換およびアダマール変換のうちのいずれかであること
を特徴とする請求項12に記載の対応点探索装置。
The corresponding point search according to claim 12, wherein the frequency decomposition method is any one of fast Fourier transform, discrete Fourier transform, discrete cosine transform, discrete sine transform, wavelet transform, and Hadamard transform. apparatus.
前記対応点探索部における対応位置の演算処理は、位相限定相関法であること
を特徴とする請求項13に記載の対応点探索装置。
The corresponding point search apparatus according to claim 13, wherein the corresponding point calculation processing in the corresponding point search unit is a phase-only correlation method.
前記対応点探索部は、多重解像度戦略を用いること
を特徴とする請求項14に記載の対応点探索装置。
The corresponding point search apparatus according to claim 14, wherein the corresponding point search unit uses a multi-resolution strategy.
2つの画像間における互いに対応する点を探索するための対応点探索方法において、
前記2つの画像のうちの一方を基準画像とすると共に他方を参照画像とし、前記基準画像の注目点に対応する前記参照画像の対応点を探索する対応点探索工程と、
所定の時点に取得された前記基準画像または前記参照画像について、前記所定の時点と異なる予測時点における画像を予測画像として生成する画像予測工程と、
前記予測画像における前記予測時点に取得された画像に対応する領域を、当該予測時点に取得された画像に置き換えることにより前記予測時点の合成後画像を生成する画像合成工程とを備え、
前記対応点探索工程は、前記基準画像または前記参照画像の一方に、前記画像合成工程で合成された合成後画像を用いること
を特徴とする対応点探索方法。
In a corresponding point search method for searching for points corresponding to each other between two images,
A corresponding point search step of searching for a corresponding point of the reference image corresponding to a target point of the reference image, with one of the two images being a reference image and the other being a reference image;
An image prediction step of generating an image at a prediction time point different from the predetermined time point as a prediction image for the standard image or the reference image acquired at a predetermined time point;
An image synthesis step for generating a post-combination image at the prediction time point by replacing a region corresponding to the image obtained at the prediction time point in the prediction image with an image obtained at the prediction time point,
In the corresponding point searching step, the combined image synthesized in the image synthesizing step is used for one of the base image or the reference image.
JP2008026951A 2008-02-06 2008-02-06 Corresponding point search apparatus and method Expired - Fee Related JP4877243B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008026951A JP4877243B2 (en) 2008-02-06 2008-02-06 Corresponding point search apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008026951A JP4877243B2 (en) 2008-02-06 2008-02-06 Corresponding point search apparatus and method

Publications (2)

Publication Number Publication Date
JP2009187316A JP2009187316A (en) 2009-08-20
JP4877243B2 true JP4877243B2 (en) 2012-02-15

Family

ID=41070483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008026951A Expired - Fee Related JP4877243B2 (en) 2008-02-06 2008-02-06 Corresponding point search apparatus and method

Country Status (1)

Country Link
JP (1) JP4877243B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4831084B2 (en) * 2008-02-04 2011-12-07 コニカミノルタホールディングス株式会社 Corresponding point search device
JP5769248B2 (en) * 2011-09-20 2015-08-26 Necソリューションイノベータ株式会社 Stereo matching processing device, stereo matching processing method, and program
WO2014024655A1 (en) * 2012-08-09 2014-02-13 コニカミノルタ株式会社 Image processing device, image processing method, and image processing program
WO2014192487A1 (en) * 2013-05-29 2014-12-04 日本電気株式会社 Multi-eye imaging system, acquired image synthesis method, and program
KR101742490B1 (en) 2015-05-29 2017-06-01 송민호 System for inspecting vehicle in violation by intervention and the method thereof
JP6988860B2 (en) * 2016-02-09 2022-01-05 株式会社リコー Information processing system, information processing method and information processing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4507896B2 (en) * 2005-01-27 2010-07-21 パナソニック株式会社 Moving picture compression apparatus and moving picture compression processing method
JP2007249814A (en) * 2006-03-17 2007-09-27 Denso Corp Image-processing device and image-processing program
JP4831084B2 (en) * 2008-02-04 2011-12-07 コニカミノルタホールディングス株式会社 Corresponding point search device

Also Published As

Publication number Publication date
JP2009187316A (en) 2009-08-20

Similar Documents

Publication Publication Date Title
JP4883223B2 (en) Motion vector generation apparatus and motion vector generation method
US7565029B2 (en) Method for determining camera position from two-dimensional images that form a panorama
JP4382797B2 (en) Corresponding point search method and three-dimensional position measurement method
JP3944647B2 (en) Object measuring apparatus, object measuring method, and program
JP4467838B2 (en) Image recognition apparatus and image recognition method
JP4877243B2 (en) Corresponding point search apparatus and method
JP4851239B2 (en) Image processing apparatus and processing method thereof
JP4941565B2 (en) Corresponding point search apparatus and corresponding point searching method
US10977765B2 (en) Hierarchical neural network image registration
US8098963B2 (en) Resolution conversion apparatus, method and program
JP2013005258A (en) Blur correction apparatus, blur correction method, and business form
US9495611B2 (en) Image processing apparatus, image processing method, and image processing program
JP2022089839A (en) Information processing apparatus, information processing method, and program
JP5062531B2 (en) Image processing apparatus and image processing method
JP2019012360A (en) Information processor, program, and method for information processing
JP4851240B2 (en) Image processing apparatus and processing method thereof
JP4985542B2 (en) Corresponding point search device
WO2019186984A1 (en) Vibration measurement system, vibration measurement device, vibration measurement method, and computer-readable recording medium
JP2007322404A (en) Image processing device and its processing method
JP4250237B2 (en) Image processing apparatus, method, and computer-readable storage medium
WO2020255728A1 (en) Vibration measurement device, vibration measurement method, and computer-readable storage medium
JP6954452B2 (en) Vibration measurement system, vibration measurement device, vibration measurement method, and program
JP3452188B2 (en) Tracking method of feature points in 2D video
JP2006020937A (en) Method and device of positioning medical image
JP2006003276A (en) Three dimensional geometry measurement system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111114

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees