JPH0944677A - Correspondent point extracting device - Google Patents

Correspondent point extracting device

Info

Publication number
JPH0944677A
JPH0944677A JP7198322A JP19832295A JPH0944677A JP H0944677 A JPH0944677 A JP H0944677A JP 7198322 A JP7198322 A JP 7198322A JP 19832295 A JP19832295 A JP 19832295A JP H0944677 A JPH0944677 A JP H0944677A
Authority
JP
Japan
Prior art keywords
subject
pattern
corresponding point
point extracting
good
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7198322A
Other languages
Japanese (ja)
Inventor
Katsuhiko Mori
克彦 森
Masakazu Matsugi
優和 真継
Toshiaki Kondo
俊明 近藤
Motohiro Ishikawa
基博 石川
Kotaro Yano
光太郎 矢野
Katsumi Iijima
克己 飯島
Sunao Kurahashi
直 倉橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP7198322A priority Critical patent/JPH0944677A/en
Publication of JPH0944677A publication Critical patent/JPH0944677A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To extract correspondent points between plural images picked up from plural positions with high accuracy regardlessly of the state of the surface of a subject. SOLUTION: The correspondent points of images A and B provided by picking up the image of a subject 11 at two positions while moving a camera 12 are found by a correspondent point extracting part 15. Based on the correlative value of images A and B provided at such a time, a difficult subject judging part 16 judges whether the subject is difficult to extract the correspondent points such as the surface of the subject 11 is flat or has repeated patterns or not, and when it is difficult one, the pattern suitable for correspondent point extraction is projected onto the subject 11 by a projector 13. While using the images A and B provided by picking up the image of the subject 11, on which the pattern is projected, by the camera 12, the correspondent point extraction part 15 extracts the correspondent points corresponding to the projected pattern.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は同一被写体を異る視
点で撮像した複数の画像間の対応点を求める対応点抽出
装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a corresponding point extracting apparatus for finding corresponding points between a plurality of images of the same subject taken from different viewpoints.

【0002】[0002]

【従来の技術】従来より、同一被写体を複数の異る視点
にカメラを置いて撮像して得られる複数の画像間の対応
点を抽出して被写体までの距離マップを求め、この距離
マップに基づいて被写体の3次元形状を求めるようにし
た技術が知られている。上記複数枚の画像間の対応を明
らかにする対応点抽出方法の代表的な手法として、従来
よりテンプレートマッチング法が知られている。このテ
ンプレートマッチング法は、基準となる画像中の対応を
とりたい1つの点を囲むテンプレートを考え、そのテン
プレートを、探索される画像上の領域との類似度を計算
することにより、対応点を決定する方式である。
2. Description of the Related Art Conventionally, a distance map to an object is obtained by extracting corresponding points between a plurality of images obtained by placing a camera on a plurality of different viewpoints of the same object, and based on this distance map. There is known a technique for obtaining a three-dimensional shape of a subject. A template matching method has been conventionally known as a representative method of the corresponding point extracting method for clarifying the correspondence between the plurality of images. This template matching method determines a corresponding point by considering a template that surrounds one point in the reference image to be matched and calculating the similarity between the template and the area on the searched image. It is a method to do.

【0003】次に、図10を用いて、このテンプレート
マッチング法を概念的に説明する。図10において、基
準画像100内の人物の右耳上の1点Pが探索される画
像101内でどこに対応するか求めるものとする。ま
ず、点Pを中心としてある大きさのテンプレート102
を作成する。次にそのテンプレート102を探索される
画像101内で移動させ、探索される画像101内の各
点で類似度を計算し、その類似度が最も高くなった点を
基準画像100の点Pの対応点とする。
Next, the template matching method will be conceptually described with reference to FIG. In FIG. 10, it is assumed that one point P on the right ear of the person in the reference image 100 corresponds to the searched image 101. First, the template 102 of a certain size centered on the point P
Create Next, the template 102 is moved in the searched image 101, the similarity is calculated at each point in the searched image 101, and the point having the highest similarity is associated with the point P of the reference image 100. It is a point.

【0004】類似度を求める計算は、下記の(1)式の
ように画素値の差分を使用する方法や、(2)式のよう
に画素値の相関値を使用する方法などがある。
The calculation of the degree of similarity includes a method of using the pixel value difference as in the following equation (1) and a method of using the pixel value correlation value as in the equation (2).

【0005】[0005]

【数1】 [Equation 1]

【0006】上記式(1)(2)において、F(i、
j)は探索される画像101を表わし、またA(i、
j)はテンプレート102を表わしている。即ち、上記
各式は、テンプレート102の位置を(x、y)だけ移
動させた時の類似度を示す。なお、上記(1)式で計算
すると、対応点はE(x、y)が最小となった点であ
り、理論上E(x、y)の最小値は0となる。また、上
記(2)式で計算すると、対応点はσ(x、y)が最大
になった点であり理論上σ(x、y)の最大値は1とな
る。
In the above equations (1) and (2), F (i,
j) represents the image 101 to be searched, and A (i,
j) represents the template 102. That is, each of the above equations indicates the degree of similarity when the position of the template 102 is moved by (x, y). In addition, when calculated by the above formula (1), the corresponding point is the point where E (x, y) is the minimum, and the theoretical minimum value of E (x, y) is 0. Further, when calculated by the above formula (2), the corresponding point is the point where σ (x, y) is maximum, and theoretically the maximum value of σ (x, y) is 1.

【0007】次に図11は複数枚の画像から被写体の距
離マップを求める従来のシステムを示す。図において、
110は被写体、111はカメラ、112はコンピュー
タを示す。カメラ111を複数の位置に移動させてそれ
ぞれ撮像した複数枚の画像を用い前述したテンプレート
マッチング法により対応点を求め、三角測量の原理に基
づき被写体110の距離マップを求める。これらの計算
は、コンピュータ112で行われる。この求められた距
離マップにより被写体110の3次元形状を求めること
ができる。
Next, FIG. 11 shows a conventional system for obtaining a distance map of a subject from a plurality of images. In the figure,
110 is a subject, 111 is a camera, and 112 is a computer. The corresponding points are obtained by the template matching method described above using a plurality of images captured by moving the camera 111 to a plurality of positions, and the distance map of the subject 110 is obtained based on the principle of triangulation. These calculations are performed by the computer 112. The three-dimensional shape of the subject 110 can be obtained from the obtained distance map.

【0008】[0008]

【発明が解決しようとする課題】しかしながら、対応点
抽出に用いられる前述したテンプレートマッチング法は
模様のない一様な表面を持った被写体に対しては、表面
全体の対応点抽出精度が低くなる。同様にコントラスト
が低い画像上の点の対応点抽出精度も低くなる。また、
繰り返し模様のある表面上の点の対応点抽出精度も低く
なる。このように、テンプレートマッチング法には、対
応点を求めるのが苦手な被写体が存在し、どのような被
写体でも高精度に対応点抽出が行えるわけではないとい
う問題があった。
However, the above-described template matching method used for extracting corresponding points has a low accuracy of extracting corresponding points on the entire surface of an object having a uniform surface without a pattern. Similarly, the corresponding point extraction accuracy of points on the image with low contrast is also low. Also,
The corresponding point extraction accuracy of points on the surface having a repetitive pattern also becomes low. As described above, the template matching method has a problem that some subjects are not good at finding corresponding points, and it is not possible to extract corresponding points with high accuracy for any subject.

【0009】また、従来より、対応点抽出の能動的な方
法として、スボット光を被写体に投影するスポット光投
影法や、スリット光を投影するスリット光投影法、など
があるが、スポット光投影法は1点の計測に1組の画像
が必要で、処理時間が長くかかり、スリット光投影法も
N本のスリット画像を得るためにN回の画像入力処理が
必要で、処理時間が長くかかる。このように従来の能動
的な方法では、1つの被写体の距離マップを得るのに光
を複数回投影する必要があり、その分処理時間が長くか
かるという問題があった。
Conventionally, there have been active spot extraction methods for corresponding points, such as a spot light projection method for projecting Sbot light onto a subject and a slit light projection method for projecting slit light. Requires a set of images to measure one point and requires a long processing time. The slit light projection method also requires N times of image input processing to obtain N slit images, which requires a long processing time. As described above, the conventional active method has a problem that it is necessary to project light a plurality of times to obtain a distance map of one subject, and the processing time is correspondingly long.

【0010】そこで本発明の目的は、どのような被写体
を撮像した時でも高精度な対応点抽出を行なえるように
することである。また、能動的に光を投影する時の回数
を減らすことである。
Therefore, an object of the present invention is to make it possible to perform highly accurate extraction of corresponding points when picking up an image of any subject. In addition, the number of times of actively projecting light is reduced.

【0011】[0011]

【課題を解決するための手段】本発明においては同一の
被写体を複数の異る視点から撮像して得られる複数の画
像の対応点を抽出する対応点抽出手段と、上記被写体が
対応点抽出を苦手とする被写体であるか否かを判別する
苦手被写体判別手段と、上記苦手被写体判別手段が上記
被写体が苦手であることを判別したとき上記被写体に対
して所定のパターンを投影するパターン投影手段とを設
けている。
According to the present invention, corresponding point extracting means for extracting corresponding points of a plurality of images obtained by imaging the same subject from a plurality of different viewpoints, and the subject performing the corresponding point extraction. A weak subject discriminating means for discriminating whether or not the subject is weak, and a pattern projecting means for projecting a predetermined pattern onto the subject when the weak subject discriminating means discriminates that the subject is weak Is provided.

【0012】[0012]

【作用】本発明によれば、被写体が苦手被写体であるこ
とを苦手被写体判別手段が判別した時に、パターン投影
手段が被写体に投影パターンを投影する。対応点抽出手
段はパターンが投影された被写体の画像を用い、そのパ
ターンに基づいて対応点を抽出することができる。
According to the present invention, the pattern projecting means projects the projection pattern on the subject when the subject determining means determines that the subject is a poor subject. The corresponding point extracting means can use the image of the subject on which the pattern is projected and extract the corresponding points based on the pattern.

【0013】[0013]

【発明の実施の形態】図1は本発明の第1の実施の形態
による被写体の距離マップを求めるシステムの構成を示
す。図において、11は被写体、12は被写体11を撮
像するカメラ、13は被写体11に光を投影する投影装
置、14はカメラ12を移動させるカメラ移動機構、1
5はカメラ12から得られた複数の画像間の対応点を求
める対応点抽出部、16は苦手被写体判別部である。な
お、対応点抽出部15と苦手被写体判別部16とは1つ
のコンピュータ17で構成されることもある。
1 shows the configuration of a system for obtaining a distance map of an object according to a first embodiment of the present invention. In the figure, 11 is a subject, 12 is a camera that images the subject 11, 13 is a projection device that projects light onto the subject 11, 14 is a camera movement mechanism that moves the camera 12, 1
Reference numeral 5 is a corresponding point extraction unit that obtains corresponding points between a plurality of images obtained from the camera 12, and reference numeral 16 is a weak subject determination unit. Note that the corresponding point extraction unit 15 and the weak subject determination unit 16 may be configured by one computer 17.

【0014】図2は、図1のシステム構成により被写体
11の距離マップを求める動作を示すフローチャートで
ある。
FIG. 2 is a flow chart showing the operation of obtaining the distance map of the object 11 by the system configuration of FIG.

【0015】次に図1、図2を用いて被写体11の距離
マップを求める処理について説明する。まず、画像A入
力ステップS1では、ある位置でカメラ12により被写
体11を撮像し、その画像Aを対応点抽部15に入力す
る。次に、カメラ移動ステップS2でカメラ移動機構1
4によりカメラ12を別の位置まで移動させる。この時
カメラ移動機構14を用いることによりカメラ12の移
動量及び位置が計測可能である。また、手でカメラ移動
させる場合などでは、シャイロなどによりカメラ12の
移動量、位置が計測可能である。
Next, the process of obtaining the distance map of the object 11 will be described with reference to FIGS. First, in the image A input step S1, the subject 11 is imaged by the camera 12 at a certain position, and the image A is input to the corresponding point extraction unit 15. Next, in the camera moving step S2, the camera moving mechanism 1
4, the camera 12 is moved to another position. At this time, the movement amount and position of the camera 12 can be measured by using the camera moving mechanism 14. Also, when the camera is moved by hand, the movement amount and position of the camera 12 can be measured by a gyro or the like.

【0016】次に、画像B入力ステップS3で、移動後
の位置でカメラ12により再び被写体11を撮像してそ
の画像Bを対応点抽出部15に入力する。上記ステップ
S2、S3で得られた2枚の画像A、Bは、対応点抽出
処理ステップS4で、対応点抽出部15によって両画像
A、B間の対応点が求められる。この対応点抽出処理ス
テップS4では、テンプレートマッチング法により対応
点を求めるが、出力は対応点だけではなく、テンプレー
トマッチングの計算で得られる相関値も出力される。
Next, in the image B input step S3, the subject 11 is imaged again by the camera 12 at the position after the movement, and the image B is input to the corresponding point extracting unit 15. With respect to the two images A and B obtained in the above steps S2 and S3, the corresponding point extracting unit 15 obtains corresponding points between the images A and B in a corresponding point extracting step S4. In the corresponding point extraction processing step S4, the corresponding points are obtained by the template matching method, but not only the corresponding points are output but also the correlation value obtained by the template matching calculation is output.

【0017】次に苦手被写体判別ステップS5におい
て、対応点抽出処理ステップS4で得られた相関値に基
づいて画像中の被写体11が苦手被写体であるか否かを
後述する方法により判別する。被写体11が苦手被写体
でないと判断されると、対応点とカメラ位置とを用い
て、三角測量の原理に基づき、被写体11の距離マップ
が求められる。
Next, in a weak subject discriminating step S5, it is discriminated based on the correlation value obtained in the corresponding point extraction processing step S4 whether or not the subject 11 in the image is a poor subject by a method described later. When it is determined that the subject 11 is not a weak subject, a distance map of the subject 11 is obtained based on the principle of triangulation using the corresponding points and the camera position.

【0018】被写体11が苦手被写体であると判断され
ると、投影ステップS6で投影装置13により所定のパ
ターンを被写体11へ投影する。この投影により被写体
11にテンプレートマッチングが可能となる模様が得ら
れるので、被写体の表面の状態に依存せずに高精度の対
応点抽出が可能となり、精度の高い距離マップが得られ
る。
When the subject 11 is determined to be a poor subject, the projection device 13 projects a predetermined pattern onto the subject 11 in the projection step S6. By this projection, a pattern that allows template matching to the subject 11 is obtained, so that it is possible to extract corresponding points with high accuracy without depending on the state of the surface of the object, and to obtain a highly accurate distance map.

【0019】続いて異なる複数の位置にカメラ12を移
動させ、各位置でパターンが投影されている被写体11
を撮像し、得られた複数の画像からテンプレートマッチ
ング法により対応点を求める。そして三角測量に基づ
き、対応点とカメラ12の位置の情報とを用いて被写体
11の距離マップを得る。
Subsequently, the camera 12 is moved to a plurality of different positions, and the subject 11 on which the pattern is projected at each position.
Is imaged, and corresponding points are obtained from the obtained images by the template matching method. Then, based on the triangulation, the distance map of the subject 11 is obtained using the corresponding points and the information on the position of the camera 12.

【0020】なお、パターンが投影された被写体11を
撮像した画像を用いて対応点抽出処理を行った時は、パ
ターンにより対応点を求めることができるので、苦手被
写体判別を行わずに距離マップを求めることができる。
しかし、複数のパターンを用意しておき、パターンが投
影された状況であっても苦手被写体判別処理を行い、も
し苦手と判別されたらパターンを交換するという方法も
考えられる。
When the corresponding point extraction processing is performed using the image of the subject 11 on which the pattern is projected, the corresponding points can be obtained from the pattern. You can ask.
However, a method is also conceivable in which a plurality of patterns are prepared, the subject determination process which is not good even in a situation where the patterns are projected is performed, and if the patterns are bad, the patterns are exchanged.

【0021】なお、ここで用いるパターンはレーザのス
ポット光ではなく、1回の投影だけでテンプレートマッ
チングが可能となるパターンであり、コントラストが明
確なパターンである。このようなパターンを用いること
により、スリット光などのように精度向上のために何回
も投影を行なわれなければならないという問題を回避で
きる。図3はパターンの一例を示すもので、これはパタ
ーンの中心が最も明るく周囲に行くにつれて同心円状に
輝度値が下がっていくパターンである。
The pattern used here is not a laser spot light but a pattern that allows template matching only by one projection and has a clear contrast. By using such a pattern, it is possible to avoid a problem such as slit light in which projection must be performed many times to improve accuracy. FIG. 3 shows an example of a pattern. This is a pattern in which the center of the pattern is brightest and the brightness values are concentrically lowered toward the periphery.

【0022】次に苦手被写体の判別法について説明す
る。対応点抽出に用いるテンプレートマッチング法で得
られる相関値の分布例を図4に示す。なお、分布は2次
元に現われるが、ここでは見易くするため1次元にして
いる。図4(a)は、一般的な被写体を使用した時で、
対応点の所に鋭いピークが立つ。図4(b)は、模様の
ない白壁などのコントラストの小さな被写体を使用した
時の分布で、細かいピークが複数存在する。図4(c)
は、繰り返しの模様の存在する被写体を使用した時の分
布で、ある程度強いピークが複数現われる。このように
図4(b)(c)の場合は、対応点の検出にあいまいさ
が残る。
Next, a method of discriminating an unfavorable subject will be described. FIG. 4 shows an example of distribution of correlation values obtained by the template matching method used for extracting corresponding points. The distribution appears two-dimensional, but here it is one-dimensional for easy viewing. FIG. 4A shows the case of using a general subject,
A sharp peak appears at the corresponding point. FIG. 4B shows a distribution when a subject having a small contrast such as a white wall without a pattern is used, and there are a plurality of fine peaks. Figure 4 (c)
Is a distribution when a subject having a repeating pattern is used, and a plurality of somewhat strong peaks appear. Thus, in the case of FIGS. 4B and 4C, ambiguity remains in the detection of corresponding points.

【0023】そこで本実施例では相関値の分布に基づき
苦手被写体の判別を行うようにしている。つまり、相関
値の分布が図4(a)以外の時は被写体が苦手被写体で
あると判断する。
Therefore, in the present embodiment, the subject that is not good at is discriminated based on the distribution of the correlation value. That is, when the distribution of the correlation values is other than that shown in FIG. 4A, it is determined that the subject is a poor subject.

【0024】上記説明したように本実施例によれば、従
来は精度の高い対応点が求められないために、精度の高
い距離マップが得られなかったコントラストの低いのっ
ぺりした被写体や、繰り返し模様の存在する被写体に対
しても、相関値の分布に基づいて判別し、テンプレート
マッチングが行えるパターンを投影することにより、ど
んな被写体でも対応点抽出が行うことができ、精度の高
い距離マップが少数の組の画像対から得ることができ
る。
As described above, according to the present embodiment, since a highly accurate corresponding point cannot be conventionally obtained, a low-contrast flat object or a repetitive pattern in which a highly accurate distance map cannot be obtained. Even for existing subjects, corresponding points can be extracted for any subject by discriminating based on the distribution of correlation values and projecting a pattern that can be template-matched. Can be obtained from the image pair.

【0025】図5は第2の実施の形態を示し、図6はそ
の動作フローを示す。第1の実施の形態では、苦手被写
体の判断を対応点抽出処理部15で得られる相関値の分
布に基づいて行ているが、この第2の実施形態では、被
写体11の距離マップを求めるための構成及び処理を図
5、図6のようにして、対応点抽出を行なう前に苦手被
写体の判別を行うようにしている。
FIG. 5 shows the second embodiment, and FIG. 6 shows the operation flow. In the first embodiment, the determination of the poor subject is made based on the distribution of the correlation values obtained by the corresponding point extraction processing unit 15. However, in the second embodiment, the distance map of the subject 11 is obtained. The configuration and processing described in FIG. 5 and FIG. 6 are performed so that the subject that is not good at the discrimination is determined before the corresponding points are extracted.

【0026】図1、図2と図5、図6とでは、苦手被写
体判別部16の処理(ステップS5)と対応点抽出部1
5の処理(ステップS4)とを入れ替えただけなのでこ
の部分だけの説明を行う。第2の実施の形態による苦手
判別は、画像の周波数成分を利用して行う。具体的には
得られた複数の画像にSobelフィルタなどのマスク
処理を行い、その後フーリエ変換を行う。これを対数表
示させると、コントラストのある一般的な画像であれば
図7(a)のように各周波数域で非常に細かい変化を示
す分布を得る。なお使用する画像は2次元であるが判り
やすくするため1次元で示している。しかし被写体が模
様のないものであると、図7(b)のようにエッジ抽出
のフィルタリングをしたあとの画像に対してフーリエ変
換をかけると、直流成分が極端に小さくなる。また周期
的な模様を有するものであると、図7(c)のように振
幅スペクトルの大きなピークが複数現われる。
In FIGS. 1, 2 and 5 and 6, the processing of the poor subject discriminating unit 16 (step S5) and the corresponding point extracting unit 1 are performed.
Since only the processing of step 5 (step S4) is replaced, only this part will be described. The weakness discrimination according to the second embodiment is performed by using the frequency component of the image. Specifically, a mask process such as a Sobel filter is performed on the obtained plurality of images, and then Fourier transform is performed. When this is displayed logarithmically, in the case of a general image with contrast, a distribution showing very minute changes in each frequency range is obtained as shown in FIG. 7A. Although the image used is two-dimensional, it is shown in one dimension for easy understanding. However, if the subject has no pattern, the DC component becomes extremely small when Fourier transform is applied to the image after filtering for edge extraction as shown in FIG. 7B. Further, if it has a periodic pattern, a plurality of large peaks of the amplitude spectrum appear as shown in FIG. 7 (c).

【0027】そこで本実施形態では、このように周波数
軸で見た時の分布を利用して苦手被写体を判別するよう
にしている。なお、この判別結果、以降の処理は第1の
実施の形態と同様なので説明を省略する。
Therefore, in the present embodiment, the subject which is not good at is discriminated by utilizing the distribution as seen on the frequency axis. Note that, as a result of this determination, the subsequent processing is the same as that of the first embodiment, and therefore its explanation is omitted.

【0028】この第2の実施の形態によれば、第1の実
施の形態のように相関値の分布ではなく、画像の周波数
成分を利用して苦手被写体の判別を行うため、対応点抽
出処理の前に苦手被写体の判別を行うことができる。そ
の結果、対応点抽出処理はどのような被写体であっても
1回で済み、処理時間を短縮することができる。
According to the second embodiment, not the distribution of the correlation value as in the first embodiment but the frequency component of the image is used to discriminate the weak subject, so that the corresponding point extraction processing is performed. It is possible to discriminate the subject which is not good before the. As a result, the corresponding point extraction process is performed once for any subject, and the processing time can be shortened.

【0029】図8は第3の実施の形態を示すもので、図
1の第1の実施の形態に、パターン選択部18を付加し
たものである。図8において、苦手被写体判別部16が
苦手被写体と判断すると共に、被写体11がどのような
種類の苦手被写体か判断し、その種類に応じてパターン
選択部18が投影すべきパターンを選択する。投影装置
13には複数のパターンが用意されており、パターン選
択部18で選択されたパターンを被写体11に投影す
る。その他の処理は第1の実施の形態と同様である。な
お、パターン選択部18は、図5の第2の実施の形態に
も用いてよいのは勿論である。
FIG. 8 shows a third embodiment, in which a pattern selection section 18 is added to the first embodiment of FIG. In FIG. 8, the weak subject determination unit 16 determines that the subject is a poor subject, the subject 11 determines what type of poor subject, and the pattern selection unit 18 selects a pattern to be projected according to the type. A plurality of patterns are prepared in the projection device 13, and the pattern selected by the pattern selection unit 18 is projected onto the subject 11. Other processes are the same as in the first embodiment. It goes without saying that the pattern selection unit 18 may also be used in the second embodiment shown in FIG.

【0030】次に、苦手被写体の種類の判別方法につい
て説明する。第1の実施の形態に関する図4(b)
(c)及び第2の実施の形態に関する図7(b)(c)
のように、被写体によって相関値の分布や、エッジの分
布が大きく異っている。そこで、この分布の違いに着目
し、この分布に基づいて苦手被写体の種類を判別する。
Next, a method of discriminating the type of subject that is not good will be described. FIG. 4B for the first embodiment
FIGS. 7B and 7C relating to FIG. 7C and the second embodiment.
As described above, the distribution of correlation values and the distribution of edges are greatly different depending on the subject. Therefore, focusing on the difference in this distribution, the type of subject that is not good is determined based on this distribution.

【0031】次に、苦手被写体の種類に適したパターン
について説明する。まず模様のないかつコントラストの
低い被写体に対しては、コントラストを重視し、コント
ラストのあるパターンを投影する。例えば、図3のよう
なパターンである。また、くり返し模様が存在する被写
体に対しては、コントラストよりもくり返し模様とまっ
たく異る模様を重視し、そのようなパターンを投影す
る。例えば図9(a)のようなパターンを投影する。ま
た、相関分布やエッジ分布から横方向のしま模様と判断
されたら、図9(b)のように画像中心を中心とする同
心円のパターンを投影する。
Next, a pattern suitable for the type of subject which is not good will be described. First, for a subject with no pattern and low contrast, the contrast is emphasized and a pattern with contrast is projected. For example, the pattern is as shown in FIG. Further, for a subject having a repeating pattern, a pattern completely different from the repeating pattern is emphasized rather than the contrast, and such a pattern is projected. For example, a pattern as shown in FIG. 9A is projected. Further, if it is determined from the correlation distribution or the edge distribution that a horizontal stripe pattern is formed, a concentric pattern centered on the image center is projected as shown in FIG. 9B.

【0032】このように投影することにより、苦手被写
体に適したパターンが投影された被写体が撮像されて、
精度の良い対応点抽出を行なうことができ、精度の良い
距離マップを得ることができる。なお、これ以降の処理
は第1、2の実施の形態と同様であるので説明を省略す
る。
By projecting in this way, a subject on which a pattern suitable for a subject that is not good is projected is imaged,
Corresponding points can be extracted with high accuracy, and a distance map with high accuracy can be obtained. Since the subsequent processing is the same as in the first and second embodiments, the description thereof will be omitted.

【0033】本実施の形態によれば、距離マップを得た
い被写体が苦手被写体かどうか、さらに苦手被写体であ
る場合には、どのような苦手被写体かも判別し、その種
類に適したパターンを被写体に投影することにより、精
度の高い対応点抽出ができ、精度の高い距離マップを得
ることができる。
According to the present embodiment, whether or not the subject for which the distance map is to be obtained is a poor subject, and if it is a poor subject, it is also determined what kind of poor subject, and a pattern suitable for the type is set as the subject. By projecting, the corresponding points can be extracted with high accuracy, and a distance map with high accuracy can be obtained.

【0034】[0034]

【発明の効果】以上説明したように、本発明によれば、
複数の画像間の対応点を求める対応点抽出装置におい
て、従来は精度の高い対応点が得られなかった苦手被写
体に対しても高精度に対応点抽出を行うことができる。
また、少数回のパターンの投影のみで精度の高い対応点
抽出を短い処理時間で行うことができる。また、苦手被
写体を判別し苦手被写体にだけパターンを投影すること
により毎回投影する時と比較して電力の節約ができる。
As described above, according to the present invention,
In the corresponding point extracting apparatus that obtains corresponding points between a plurality of images, it is possible to extract corresponding points with high accuracy even for a subject that is difficult to obtain with high accuracy.
Further, highly accurate corresponding point extraction can be performed in a short processing time only by projecting the pattern a few times. In addition, it is possible to save electric power as compared with the case of projecting each time by discriminating the subject that is not good and projecting the pattern only on the subject that is poor.

【0035】また、苦手被写体の種類を判別することに
より、被写体に適したパターンを投影することができ、
さらに高精度の対応点抽出ができる。
Further, by discriminating the type of the subject that is not good at, it is possible to project a pattern suitable for the subject,
It is possible to extract corresponding points with higher accuracy.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施の形態を示す構成図であ
る。
FIG. 1 is a configuration diagram showing a first embodiment of the present invention.

【図2】第1の実施の形態の動作を示すフローチャート
である。
FIG. 2 is a flowchart showing an operation of the first embodiment.

【図3】第1の実施の形態に用いられる被写体に投影さ
れるパターンの一例を示す構成図である。
FIG. 3 is a configuration diagram showing an example of a pattern projected on a subject used in the first embodiment.

【図4】テンプレートマッチング法で得られる相関値の
分布例を示す特性図である。
FIG. 4 is a characteristic diagram showing a distribution example of correlation values obtained by a template matching method.

【図5】本発明の第2の実施の形態を示す構成図であ
る。
FIG. 5 is a configuration diagram showing a second embodiment of the present invention.

【図6】第2の実施の形態の動作を示すフローチャート
である。
FIG. 6 is a flowchart showing an operation of the second embodiment.

【図7】画像の周波数スペクトルの例を示す特性図であ
る。
FIG. 7 is a characteristic diagram showing an example of a frequency spectrum of an image.

【図8】本発明の第3の実施の形態を示す構成図であ
る。
FIG. 8 is a configuration diagram showing a third embodiment of the present invention.

【図9】被写体に投影されるパターン例を示す構成図で
ある。
FIG. 9 is a configuration diagram showing an example of a pattern projected on a subject.

【図10】テンプレートマッチングを説明するための構
成図である。
FIG. 10 is a configuration diagram for explaining template matching.

【図11】従来の距離マップを求めるシステムの構成図
である。
FIG. 11 is a configuration diagram of a conventional system for obtaining a distance map.

【符号の説明】[Explanation of symbols]

11 被写体 12 カメラ 12 投影装置 15 対応点抽出部 16 苦手被写体判別部 18 パターン選択部 11 Subject 12 Camera 12 Projection Device 15 Corresponding Point Extraction Unit 16 Poor Subject Discrimination Unit 18 Pattern Selection Unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 石川 基博 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 (72)発明者 矢野 光太郎 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 (72)発明者 飯島 克己 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 (72)発明者 倉橋 直 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内 ─────────────────────────────────────────────────── ─── Continued Front Page (72) Inventor Motohiro Ishikawa 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. (72) Inventor Kotaro Yano 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Incorporated (72) Inventor Katsumi Iijima 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. (72) Inventor Nao Kurahashi 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 同一の被写体を複数の異る視点から撮像
して得られる複数の画像の対応点を抽出する対応点抽出
手段と、 上記被写体が対応点抽出を苦手とする被写体であるか否
かを判別する苦手被写体判別手段と、 上記苦手被写体判別手段が上記被写体が苦手であること
を判別したとき上記被写体に対して所定のパターンを投
影するパターン投影手段とを備えた対応点抽出装置。
1. A corresponding point extracting means for extracting corresponding points of a plurality of images obtained by picking up the same subject from a plurality of different viewpoints, and whether or not the subject is a subject who is not good at extracting the corresponding points. A corresponding point extraction device comprising: a subject which is not good at determining whether or not, and a pattern projecting means which projects a predetermined pattern onto the subject when the subject is weak at the subject.
【請求項2】 上記苦手被写体判別手段による判別を、
上記対応点抽出手段から得られる上記複数の画像の相関
値に基づいて行うようにした請求項1記載の対応点抽出
装置。
2. The discrimination by the subject discriminating means which is not good at
The corresponding point extracting device according to claim 1, wherein the corresponding point extracting device is configured to carry out based on correlation values of the plurality of images obtained from the corresponding point extracting means.
【請求項3】 上記苦手被写体判別手段による判別を、
入力される画像の周波数成分に基づいて行うようにした
請求項1記載の対応点抽出装置。
3. The discrimination by the subject discriminating means, which is not good,
The corresponding point extracting device according to claim 1, wherein the corresponding point extracting device is performed based on a frequency component of an input image.
【請求項4】 上記パターン投影手段は複数のパターン
を選択的に投影するように成されると共に、上記苦手被
写体判別手段は、上記対応点抽出手段から得られる相関
値又は入力される画像の周波数成分に基づいて苦手被写
体の種類を判別するように成され、 上記判別された苦手被写体の種類に応じて上記パターン
投影手段が投影するパターンを選択するパターン選択手
段を備えた請求項1記載の対応点抽出装置。
4. The pattern projecting means is configured to selectively project a plurality of patterns, and the weak subject discriminating means is characterized in that the correlation value obtained from the corresponding point extracting means or the frequency of the input image. The correspondence according to claim 1, further comprising: a pattern selecting unit configured to determine a type of the subject which is not good on the basis of the component, and which selects a pattern projected by the pattern projecting unit according to the determined type of the poor subject. Point extractor.
JP7198322A 1995-08-03 1995-08-03 Correspondent point extracting device Pending JPH0944677A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7198322A JPH0944677A (en) 1995-08-03 1995-08-03 Correspondent point extracting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7198322A JPH0944677A (en) 1995-08-03 1995-08-03 Correspondent point extracting device

Publications (1)

Publication Number Publication Date
JPH0944677A true JPH0944677A (en) 1997-02-14

Family

ID=16389192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7198322A Pending JPH0944677A (en) 1995-08-03 1995-08-03 Correspondent point extracting device

Country Status (1)

Country Link
JP (1) JPH0944677A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6996266B2 (en) 2000-08-11 2006-02-07 Minolta Co., Ltd. Method and apparatus for generating three-dimensional data of an object by selecting the method for detecting corresponding points that is suitable to the object

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6996266B2 (en) 2000-08-11 2006-02-07 Minolta Co., Ltd. Method and apparatus for generating three-dimensional data of an object by selecting the method for detecting corresponding points that is suitable to the object

Similar Documents

Publication Publication Date Title
US11629955B2 (en) Dual-resolution 3D scanner and method of using
JP3539788B2 (en) Image matching method
EP1958149B1 (en) Stereoscopic image display method and apparatus, method for generating 3d image data from a 2d image data input and an apparatus for generating 3d image data from a 2d image data input
CN103649674B (en) Measuring equipment and messaging device
JP2696044B2 (en) Focus detection method, non-contact displacement measuring method and apparatus using the same
CN107084680B (en) A kind of target depth measurement method based on machine monocular vision
TW201131512A (en) Distance evaluation methods and apparatuses, and machine readable medium thereof
KR20190033037A (en) Method for determining a point spread function of an imaging system
JPH0997342A (en) Tree interval distance measurement system
JP4203279B2 (en) Attention determination device
JP3516118B2 (en) Object recognition method and object recognition device
JP2002117403A (en) Image processor and image processing method
JPH0944677A (en) Correspondent point extracting device
JPH08329110A (en) Method for processing picture
JPH0875454A (en) Range finding device
JP4524616B2 (en) Imaging apparatus, image processing method and program for captured image
JP4062100B2 (en) Shape measuring device
WO2002077922A1 (en) Image detection method, image detection apparatus, and wafer treatment apparatus
WO2002067198A1 (en) Image matching method, image matching apparatus, and wafer processor
JPH0443204B2 (en)
JP2002116008A (en) Distance-measuring device and image-monitoring device
EP0373614A2 (en) Method for direct volume measurement of three dimensional features in binocular stereo images
JP2001264017A (en) Three-dimensional image photographing apparatus
JP3635327B2 (en) High-precision three-dimensional measurement method using focus adjustment mechanism and zoom mechanism and high-precision three-dimensional measurement apparatus therefor
JP3525712B2 (en) Three-dimensional image capturing method and three-dimensional image capturing device