JP2007272578A - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP2007272578A
JP2007272578A JP2006097597A JP2006097597A JP2007272578A JP 2007272578 A JP2007272578 A JP 2007272578A JP 2006097597 A JP2006097597 A JP 2006097597A JP 2006097597 A JP2006097597 A JP 2006097597A JP 2007272578 A JP2007272578 A JP 2007272578A
Authority
JP
Japan
Prior art keywords
image
depth
feature point
tracking
candidate pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006097597A
Other languages
Japanese (ja)
Other versions
JP4830585B2 (en
Inventor
Masamichi Osugi
雅道 大杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006097597A priority Critical patent/JP4830585B2/en
Publication of JP2007272578A publication Critical patent/JP2007272578A/en
Application granted granted Critical
Publication of JP4830585B2 publication Critical patent/JP4830585B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus and method to increase the accuracy of tracking a feature point and the accuracy of estimating a three-dimensional position. <P>SOLUTION: Based on a feature point stored in a feature point image storing means 2 and an image of periphery and on a depth-candidate pair showing the positional relationship of feature points, created by a depth candidate pair creating means 3, a tracking means 4 tracks the position of the feature point in an image acquired by an image acquisition means 1. The tracking may be performed by e.g. searching for an image similar to an image of an area around the feature point (preferably an image converted according to the position and the direction of the feature point). The result of the tracking is evaluated by a tracking condition evaluating means 5. The feature point can be tracked more accurately as the accuracy of the depths of the depth-candidate pair created by the depth candidate pair creating means 3 is higher, and high evaluations can be obtained from the tracking condition evaluating means 5. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、単眼カメラ等で取得した対象物の画像列を基にして対象上の点の3次元的な奥行きを推定する画像処理装置および画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for estimating a three-dimensional depth of a point on an object based on an image sequence of an object acquired by a monocular camera or the like.

対象物の3次元的位置を取得する手法としてステレオカメラによる両眼視を用いた技術のほかに単眼カメラで取得した画像から対象物の3次元座標を求める技術が提案されている(非特許文献1参照)。この文献に記載されている技術は、単眼カメラで取得した画像列内に写っている対象上の複数の特徴点の2次元座標を推定し、その変化に基づいて特徴点の3次元座標を推定しようとするものである。
J. Costeira and T. Kanade著「A Multi-bodyFactorization Method for Motion Analysis」technical report CMU-CS-TR-94-220、米国カーネギーメロン大学コンピュータ科学部、1994年9月
In addition to the technique using binocular vision by a stereo camera as a technique for acquiring the three-dimensional position of the object, a technique for obtaining the three-dimensional coordinates of the object from an image acquired by a monocular camera has been proposed (non-patent document). 1). The technique described in this document estimates the two-dimensional coordinates of a plurality of feature points on an object shown in an image sequence acquired by a monocular camera, and estimates the three-dimensional coordinates of the feature points based on the change. It is something to try.
J. Costeira and T. Kanade, "A Multi-bodyFactorization Method for Motion Analysis" technical report CMU-CS-TR-94-220, Carnegie Mellon University, USA, September 1994

この技術において特徴点の3次元座標を精度よく推定するためには、画像列における対象上の特徴点を精度よく追跡する必要がある。しかしながら、実際の環境においては、特徴点を高精度に追跡することは困難であるため、追跡精度の低下が3次元座標の推定精度の低下をもたらしてしまう。   In this technique, in order to accurately estimate the three-dimensional coordinates of the feature points, it is necessary to accurately track the feature points on the object in the image sequence. However, in an actual environment, it is difficult to track feature points with high accuracy, so that a decrease in tracking accuracy causes a decrease in estimation accuracy of three-dimensional coordinates.

そこで本発明は、特徴点の追跡精度の向上と3次元位置の推定精度を高めることを可能とした画像処理装置および画像処理方法を提供することを課題とする。   Therefore, an object of the present invention is to provide an image processing apparatus and an image processing method capable of improving the tracking accuracy of feature points and increasing the estimation accuracy of a three-dimensional position.

上記課題を解決するため、本発明にかかる画像処理装置は、(1)奥行きを推定したい対象物上の3点以上の特徴点を含む画像複数枚を取得する手段と、(2)所定の視点からの各特徴点およびその周辺画像を保持する特徴点画像保持手段と、(3)特徴点に対する奥行き候補値の組である奥行き候補対を生成する奥行き候補対生成手段と、(4)特徴点画像保持手段が保持する画像および生成した奥行き候補対を用いて、取得した画像中の特徴点の位置を追跡する追跡手段と、(5)追跡手段による追跡状況を評価する追跡状況評価手段と、を備えていることを特徴とする。   In order to solve the above problems, an image processing apparatus according to the present invention includes (1) means for acquiring a plurality of images including three or more feature points on an object whose depth is to be estimated, and (2) a predetermined viewpoint. (3) a depth candidate pair generating unit that generates a depth candidate pair that is a set of depth candidate values for the feature points; and (4) a feature point. A tracking unit that tracks the position of the feature point in the acquired image using the image held by the image holding unit and the generated depth candidate pair; and (5) a tracking state evaluation unit that evaluates a tracking state by the tracking unit; It is characterized by having.

一方、本発明にかかる画像処理方法は、(1)奥行きを推定したい対象物上の3点以上の特徴点を含む画像複数枚を取得し、(2)所定の視点からの各特徴点およびその周辺画像である特徴点画像を保持し、(3)特徴点に対する奥行き候補値の組である奥行き候補対を生成し、(4)保持している特徴点画像および生成した奥行き候補対を用いて、取得した画像中の特徴点の位置を追跡し、追跡状況を評価する工程を備えていることを特徴とする。   On the other hand, the image processing method according to the present invention (1) obtains a plurality of images including three or more feature points on an object whose depth is to be estimated, and (2) each feature point from a predetermined viewpoint and its feature point A feature point image that is a peripheral image is stored, (3) a depth candidate pair that is a set of depth candidate values for the feature point is generated, and (4) a stored feature point image and the generated depth candidate pair are used. The method further comprises a step of tracking the position of the feature point in the acquired image and evaluating the tracking state.

本発明によれば、奥行きを推定したい対象物上の3点以上の特徴点が写っている2枚以上の画像からなる画像列から特徴点の位置関係を表す奥行きを推定する。この際、特徴点およびその周辺の所定の視点、例えば正面から見た画像を保持しておき、これと奥行き候補値の組である奥行き候補対を基にして特徴点の位置追跡を行い、その追跡状況を評価する。個々の画像における追跡状況の評価結果は追跡精度を表すが、奥行き候補対の精度が高いほど画像列に対する追跡精度は全体として向上する関係にある。この関係を基に確からしい奥行き候補対を求める。   According to the present invention, a depth representing a positional relationship between feature points is estimated from an image sequence including two or more images in which three or more feature points on an object whose depth is to be estimated are captured. At this time, the feature point and a predetermined viewpoint around the feature point, for example, an image viewed from the front, are stored, and the position of the feature point is tracked based on the depth candidate pair that is a set of the depth candidate value and the feature point. Evaluate tracking status. Although the evaluation result of the tracking situation in each image represents the tracking accuracy, the tracking accuracy for the image sequence is improved as a whole as the accuracy of the depth candidate pair is higher. Based on this relationship, a probable depth candidate pair is obtained.

追跡手段は、特徴点画像保持手段が保持する画像および生成した奥行き候補対から対象物の位置・姿勢変更時の特徴点周辺画像候補を生成し、取得した画像から生成した特徴点周辺画像候補を探索することで追跡を行うとよい。追跡工程は、保持している特徴点画像および生成した奥行き候補対から対象物の位置・姿勢変更時の特徴点周辺画像候補を生成し、取得した画像から生成した特徴点周辺画像候補を探索することで追跡を行うとよい。   The tracking unit generates a feature point peripheral image candidate at the time of position / posture change of the object from the image held by the feature point image holding unit and the generated depth candidate pair, and the feature point peripheral image candidate generated from the acquired image It is good to track by searching. In the tracking step, a feature point peripheral image candidate at the time of changing the position / posture of the target object is generated from the retained feature point image and the generated depth candidate pair, and the generated feature point peripheral image candidate is searched from the acquired image. It is good to track.


本発明にかかる画像処理装置は、追跡状況評価手段による評価結果に基づいて適切な奥行き候補対を選定する奥行き候補対選定手段をさらに備えており、追跡手段は、特徴点画像保持手段が保持する画像および生成した複数の奥行き候補対から対象物の位置・姿勢変更時の特徴点周辺画像候補を生成し、取得した画像から生成した特徴点周辺画像候補を探索することで追跡を行うとよい。すなわち、対象物の位置・姿勢変更に対応した特徴点周辺画像候補を生成しておき、当該画像候補とのパターンマッチング等により取得した画像内から特徴点を探索することにより、特徴点の追跡を実行する。

The image processing apparatus according to the present invention further includes depth candidate pair selection means for selecting an appropriate depth candidate pair based on the evaluation result by the tracking situation evaluation means, and the tracking means is held by the feature point image holding means. Tracking may be performed by generating feature point peripheral image candidates at the time of position / posture change of the object from the image and a plurality of generated depth candidate pairs, and searching for the generated feature point peripheral image candidates from the acquired image. In other words, feature point peripheral image candidates corresponding to the position / posture change of the object are generated, and feature points are tracked by searching for feature points from images obtained by pattern matching with the image candidates. Execute.

奥行き候補対生成手段は、複数組の奥行き候補対を生成するとともに、追跡状況評価手段による評価結果に基づいて適切な奥行き候補対を選定する奥行き候補対選定手段をさらに備えているとよい。奥行き候補対を複数組生成して追跡を行うとともに、追跡状況の評価結果に基づいて適切な奥行き候補対を選定する工程を備えているとよい。すなわち、奥行き候補対を複数生成し、それぞれの奥行き候補対に対する追跡状況の評価結果に基づいて複数の奥行き候補対中から適切な奥行き候補対を選定するのである。   The depth candidate pair generation unit may further include a depth candidate pair selection unit that generates a plurality of sets of depth candidate pairs and selects an appropriate depth candidate pair based on the evaluation result by the tracking state evaluation unit. It is preferable to provide a step of generating a plurality of pairs of depth candidates and performing tracking and selecting an appropriate depth candidate pair based on the evaluation result of the tracking situation. That is, a plurality of depth candidate pairs are generated, and an appropriate depth candidate pair is selected from the plurality of depth candidate pairs based on the evaluation result of the tracking situation for each depth candidate pair.

奥行き候補対生成手段または奥行き候補対の生成工程は、生成済みの奥行き候補対に対する追跡状況評価手段による、あるいは、評価工程における評価結果を基に、該候補対の各要素の値を変化させて新たな奥行き候補対を生成するとよい。   In the depth candidate pair generation means or the depth candidate pair generation process, the value of each element of the candidate pair is changed by the tracking state evaluation means for the generated depth candidate pair or based on the evaluation result in the evaluation process. A new depth candidate pair may be generated.

奥行き候補対の評価結果を基にして、元の奥行き候補対を修正して新たな奥行き候補対を生成し、再評価を行う。これにより、奥行き候補対の最適化を行う。   Based on the evaluation result of the depth candidate pair, the original depth candidate pair is corrected to generate a new depth candidate pair, and re-evaluation is performed. This optimizes the depth candidate pair.

奥行き候補対生成手段、または、奥行き候補対の生成工程は、各特徴点の奥行きを設定した範囲から所定の条件で抽出することで複数の奥行き候補対を生成するとよい。   In the depth candidate pair generation means or the depth candidate pair generation step, a plurality of depth candidate pairs may be generated by extracting the depth of each feature point from a set range under a predetermined condition.

奥行き候補対を複数設定する場合に、各特徴点の奥行きを所定の範囲内に設定し、その際に、等間隔や予め設定した分布(例えば、正規分布)に基づいて各候補対の奥行き位置を設定する。   When multiple depth candidate pairs are set, the depth of each feature point is set within a predetermined range, and at that time, the depth position of each candidate pair based on an equal interval or a preset distribution (for example, a normal distribution) Set.

奥行き候補対生成手段、または、奥行き候補対の生成工程で生成した奥行き候補対から選定した奥行き候補対を基にしてさらに各奥行きの範囲、抽出条件を厳しくして奥行き候補対を生成し、追跡手段、追跡状況評価手段、奥行き候補対選定手段による追跡、評価、選定を再実行してもよい。   Based on the depth candidate pair selected from the depth candidate pair generation means or the depth candidate pair generated in the depth candidate pair generation process, the depth candidate pair is generated with further strict depth range and extraction conditions, and tracked The tracking, evaluation, and selection by the means, the tracking status evaluation means, and the depth candidate pair selection means may be re-executed.

初期設定の奥行き候補対の中から選定した奥行き候補対を基にしてさらに設定範囲を絞り込んで奥行き候補対を生成し、選定を行うことで、奥行き候補対生成時の奥行き間隔を細分化する。このとき、順次絞り込みを行うことで、評価を行う奥行き候補対の数の適正化を図る。   A depth candidate pair is generated by further narrowing down the setting range based on the depth candidate pair selected from the initial set of depth candidate pairs, and the depth interval when the depth candidate pair is generated is subdivided. At this time, the number of depth candidate pairs to be evaluated is optimized by sequentially narrowing down.

本発明にかかる画像処理装置は、特徴点の存在位置の推定情報を取得する手段をさらに備えており、奥行き候補対生成手段は、取得した特徴点の位置推定情報に基づいて奥行き候補対を生成してもよい。一方、本発明にかかる画像処理方法は、特徴点の存在位置の推定情報を取得し、取得した特徴点の位置推定情報に基づいて奥行き候補対を生成してもよい。   The image processing apparatus according to the present invention further includes means for acquiring estimated information of the position where the feature point exists, and the depth candidate pair generating means generates a depth candidate pair based on the acquired position estimation information of the feature point. May be. On the other hand, the image processing method according to the present invention may acquire estimation information of the presence position of a feature point and generate a depth candidate pair based on the acquired position estimation information of the feature point.

特徴点の存在位置の推定情報としては、例えば、対象物の種別に応じた標準的な特徴点の位置関係情報や画像取得手段から得られた情報(ピント位置)から得られる特徴点の位置情報、さらには、画像中の対象物の大きさや画像内の特徴点間の距離を基に画像取得手段と対象物との距離を推定するとよい。これらの情報を基にして特徴点の位置関係を推定し、初期奥行き候補対を生成する。   As the estimation information of the existence position of the feature point, for example, the positional information of the feature point obtained from the standard positional relation information of the feature point according to the type of the object or the information (focus position) obtained from the image acquisition unit Furthermore, the distance between the image acquisition means and the object may be estimated based on the size of the object in the image and the distance between the feature points in the image. Based on these pieces of information, the positional relationship between feature points is estimated, and an initial depth candidate pair is generated.

追跡状況評価手段による、あるいは、評価工程における評価結果が所定値以下の場合には、当該奥行き候補対に対する追跡を終了するとよい。評価結果が所定値以下、つまり、好ましい評価が得られていない場合には、当該奥行き候補対の精度が低いと想定されることから、画像列全てに対する追跡処理を行うことなく、処理を中止することで、処理の高速化を図る。   When the evaluation result by the tracking state evaluation means or in the evaluation process is equal to or less than a predetermined value, the tracking for the depth candidate pair may be terminated. If the evaluation result is equal to or less than a predetermined value, that is, a favorable evaluation is not obtained, it is assumed that the accuracy of the depth candidate pair is low, so the processing is stopped without performing the tracking processing for all the image sequences. In this way, the processing speed is increased.

追跡状況評価手段は、特徴点画像保持手段が保持する特徴点画像と追跡位置付近の画像の類似度に基づき判定を行うとよく、評価工程においては、保持する特徴点画像と追跡位置付近の画像の類似度に基づき追跡状況の評価を行うとよい。つまり、特徴点と追跡位置を狭い当該点部分ではなく周辺画像を含めたより広い範囲で総合的に評価する。   The tracking status evaluation unit may perform the determination based on the similarity between the feature point image held by the feature point image holding unit and the image near the tracking position. In the evaluation step, the held feature point image and the image near the tracking position The tracking status should be evaluated based on the degree of similarity. That is, the feature point and the tracking position are comprehensively evaluated in a wider range including the peripheral image instead of the narrow point portion.

追跡状況評価手段、あるいは、工程は、複数の特徴点の追跡状況を統合して評価を行うとよい。例えば、特徴点ごとに算出した類似度を加算して評価を行ったり、特徴点ごとに算出した類似度のうち、所定値以上の類似度により評価を行うとよい。また、単純な加算ではなく、二乗和や重みづけをして算出を行ってよい。   The tracking state evaluation means or process may perform evaluation by integrating the tracking states of a plurality of feature points. For example, the evaluation may be performed by adding the similarities calculated for each feature point, or the evaluation may be performed based on the similarities that are equal to or greater than a predetermined value among the similarities calculated for each feature point. Further, calculation may be performed by using a sum of squares or weighting instead of simple addition.

追跡状況の評価は、取得した画像と画像候補との類似度に基づいて評価を行ってもよい。追跡状況の評価に際しては、複数の画像の追跡状況を統合して行うとよい。例えば、個々の追跡状況の評価結果を加算して算出を行ったり、個々の特徴点の複数の画像に対する評価結果を加算して評価を行う。   The tracking status may be evaluated based on the similarity between the acquired image and the image candidate. When evaluating the tracking status, it is preferable to integrate the tracking status of a plurality of images. For example, calculation is performed by adding evaluation results of individual tracking situations, or evaluation is performed by adding evaluation results for a plurality of images of individual feature points.

追跡手段は、特徴点画像保持手段の画像と奥行き候補対をもとに位置・姿勢に応じた画像列を作成し、当該画像列と取得した画像とを比較することで追跡を行い、追跡状況評価手段は、奥行き候補対に対して所定以上の評価結果が得られた画像列の評価結果を統合して評価を行ってもよい。追跡工程においては、保持している特徴点画像と奥行き候補対をもとに位置・姿勢に応じた画像列を作成し、当該画像列と取得した画像とを比較することで追跡を行い、奥行き候補対に対して所定以上の評価結果が得られた画像列の評価結果を統合して評価を行ってもよい。例えば、類似度の高い複数の画像の評価結果を統合して評価を行うとよい。   The tracking unit creates an image sequence corresponding to the position and orientation based on the image of the feature point image holding unit and the depth candidate pair, and performs tracking by comparing the acquired image sequence with the acquired image. The evaluation unit may perform the evaluation by integrating the evaluation results of the image sequences from which a predetermined or higher evaluation result is obtained for the depth candidate pair. In the tracking process, an image sequence corresponding to the position and orientation is created based on the retained feature point image and the depth candidate pair, and tracking is performed by comparing the acquired image sequence with the acquired image. The evaluation may be performed by integrating the evaluation results of the image sequences in which the evaluation results of a predetermined value or more are obtained for the candidate pair. For example, evaluation may be performed by integrating evaluation results of a plurality of images with high similarity.

画像処理装置は、特徴点の中から奥行き推定を行う特徴点を選択する特徴点選択手段をさらに備え、奥行き候補対選定手段は、選択した特徴点について奥行き候補対を生成して奥行き推定を行うとよい。一方、画像処理方法においては、特徴点の中から奥行き推定を行う特徴点を選択し、選択した特徴点について奥行き候補対を生成して奥行き推定を行うとよい。選択した特徴点について奥行き推定が完了したら、奥行き推定が未了の他の特徴点を追加して奥行き推定を実行するとよい。   The image processing apparatus further includes a feature point selection unit that selects a feature point for depth estimation from among the feature points, and the depth candidate pair selection unit generates a depth candidate pair for the selected feature point and performs depth estimation. Good. On the other hand, in the image processing method, it is preferable to select a feature point for depth estimation from among the feature points, generate a depth candidate pair for the selected feature point, and perform depth estimation. When depth estimation is completed for the selected feature point, depth estimation may be performed by adding another feature point for which depth estimation has not been completed.

特徴点が多数存在する場合に、全特徴点について同時に奥行き候補対を生成すると、必要な候補対の数が膨大になり、適切な奥行き候補対を選定するのが困難になる。特徴点の中から選択した少数の特徴点について奥行き候補対を生成し、当該特徴点についての奥行き候補対を選定した後に、順次、特徴点を追加することで、選定までに生成が必要な奥行き候補対の数が削減できる。   If there are many feature points and depth candidate pairs are generated for all feature points simultaneously, the number of necessary candidate pairs becomes enormous, making it difficult to select an appropriate depth candidate pair. Depths that need to be generated before selection by generating depth candidate pairs for a small number of feature points selected from the feature points, selecting depth candidate pairs for the feature points, and then adding feature points sequentially The number of candidate pairs can be reduced.

本発明にかかる画像処理装置および画像処理方法によれば、特徴点の位置関係を表す奥行きを推定し、この奥行き候補値の組み合わせである奥行き候補対と特定の視点から見た画像を基にして特徴点の位置追跡を行うので、対象物の位置・姿勢の変動に対しても特徴点を精度よく追跡することができる。この追跡精度は奥行き候補対の精度によるため、追跡精度を評価することで、奥行き候補対の精度も向上する。   According to the image processing apparatus and the image processing method of the present invention, the depth representing the positional relationship between the feature points is estimated, and based on the depth candidate pair that is a combination of the depth candidate values and the image viewed from a specific viewpoint. Since the position of the feature point is tracked, the feature point can be accurately tracked even with respect to the change in the position / posture of the object. Since the tracking accuracy depends on the accuracy of the depth candidate pair, the accuracy of the depth candidate pair is also improved by evaluating the tracking accuracy.

対象物の位置・姿勢変更に対応した特徴点の周辺画像を予め求めておき、取得した画像内から求めておいた周辺画像を探索することで、追跡を行うことで、特徴点の追跡が容易になる。   It is easy to track feature points by pre-determining peripheral images of feature points corresponding to changes in the position and orientation of the target object, and searching for the peripheral images found from the acquired images. become.

この奥行き候補対を予め複数組生成しておき、最も確からしい候補対を選定することで、適切な候補対を選択することができる。あるいは、評価状況に応じて候補対を変更し、修正することで奥行き候補対を最適化できる。さらに、奥行き候補対の設定に際しては、設定した範囲から抽出を行い、さらには、この抽出条件を修正することで、最適解を求めるまでの計算量を減らし、演算時間の短縮化を図れる。特に、存在位置の推定情報を用いることで、初期推定値の精度を高めることができる。このとき、評価結果の低い候補対に対しては、追跡処理を中止することにより、無駄な追跡を行わずに処理時間を短縮する。追跡状況の評価において、画像の類似度等から判定を行うことで追跡と評価を一元的に行うことができる。   By generating a plurality of depth candidate pairs in advance and selecting the most probable candidate pair, an appropriate candidate pair can be selected. Alternatively, the depth candidate pair can be optimized by changing and correcting the candidate pair according to the evaluation situation. Furthermore, when setting the depth candidate pair, extraction is performed from the set range, and furthermore, by correcting this extraction condition, it is possible to reduce the amount of calculation until the optimum solution is obtained and shorten the calculation time. In particular, the accuracy of the initial estimated value can be increased by using the estimation information of the existing position. At this time, for the candidate pair with a low evaluation result, the processing time is shortened without performing unnecessary tracking by stopping the tracking processing. In the evaluation of the tracking status, tracking and evaluation can be performed in a unified manner by making a determination based on the similarity of images.

奥行き候補対を特徴点の一部に対して設定し、順次追加していくことで絞り込みを実行することで、特徴点が多数ある場合でも迅速に奥行きの推定が可能となる。   A depth candidate pair is set for a part of feature points, and is sequentially added to perform narrowing down, so that depth estimation can be performed quickly even when there are many feature points.

以下、添付図面を参照して本発明の好適な実施の形態について詳細に説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の参照番号を附し、重複する説明は省略する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the description, the same reference numerals are given to the same components in the drawings as much as possible, and duplicate descriptions are omitted.

図1は、本発明にかかる画像処理装置の第1の実施形態を示すブロック構成図である。この画像処理装置は、認識対象物を撮影した画像列(動画等)を取得する画像取得手段1と、特徴点とその周辺画像を保持する特徴点画像保持手段2と、奥行き候補対を生成する奥行き候補対生成手段3と、画像列中の各画像中の特徴点を追跡する追跡手段4と、追跡手段による追跡状況の評価を行う追跡状況評価手段5をを備えている。   FIG. 1 is a block configuration diagram showing a first embodiment of an image processing apparatus according to the present invention. The image processing apparatus generates an image acquisition unit 1 that acquires an image sequence (moving image or the like) obtained by capturing a recognition target, a feature point image holding unit 2 that holds a feature point and its peripheral image, and a depth candidate pair. Depth candidate pair generating means 3, tracking means 4 for tracking feature points in each image in the image sequence, and tracking situation evaluation means 5 for evaluating the tracking situation by the tracking means.

画像取得手段1は、例えば、テレビカメラ等の動画を撮像して画像列として取り込む装置である。そのほかに、ビデオレコーダ等に保持されている動画データ中から画像列を取り込むビデオキャプチャー装置等であってもよい。   The image acquisition unit 1 is a device that captures a moving image such as a television camera and captures it as an image sequence. In addition, a video capture device or the like that captures an image sequence from moving image data held in a video recorder or the like may be used.

特徴点画像保持手段2は、メモリや磁気ディスク等の記憶手段を備えている。ここでは、さらに、参照画像から特徴点を検出する検出手段と、その周辺画像を抽出する抽出手段とを備えている場合を例に説明する。これらの検出手段、抽出手段は、CPU、ROM、RAM等によって構成されており、ハードウェア的に記憶手段とは別に個別に構成されていてもよいし、ハードウェアの一部または全部を共有し、ソフトウェア的に実現されていてもよい。   The feature point image holding unit 2 includes a storage unit such as a memory or a magnetic disk. Here, an example will be described in which a detection unit that detects a feature point from a reference image and an extraction unit that extracts a peripheral image thereof are provided. These detection means and extraction means are constituted by a CPU, a ROM, a RAM, etc., and may be constituted separately from the storage means in terms of hardware, or share a part or all of the hardware. It may be realized as software.

奥行き候補対生成手段3、追跡手段4、追跡状況評価手段5は、いずれもCPU、ROM、RAM等によって構成される。これらの各手段と特徴点画像保持手段2内の各手段とは、独立した別々のハードウェアとして構成されていてもよいが、一部または全部のハードウェアを共有し、ソフトウェアにより個々の手段が実現されていてもよい。なお、この場合に、各手段を構成するソフトウェアは別個独立していてもよいが、ソフトウェアの一部を共有してもよく、1つのソフトウェアの内部に複数の手段が組み込まれる構成であってもよい。   The depth candidate pair generation unit 3, the tracking unit 4, and the tracking state evaluation unit 5 are all configured by a CPU, a ROM, a RAM, and the like. Each of these means and each means in the feature point image holding means 2 may be configured as independent and independent hardware, but share some or all of the hardware, and each means can be shared by software. It may be realized. In this case, the software constituting each means may be independent, but a part of the software may be shared, or a plurality of means may be incorporated in one software. Good.

続いて、本実施形態の動作である本発明にかかる画像処理方法の第1の実施形態について図2のフローチャートを参照しつつ、具体的に説明する。ここでは、車両の車室内、例えば、ステアリングコラム上に配置されたカメラにより運転者の顔画像を取得して、運転者の顔向き、顔の位置を検出するための前処理として顔の特徴部分の3次元的な位置関係、つまり、奥行きを取得する場合を例に説明する。   Next, the first embodiment of the image processing method according to the present invention, which is the operation of the present embodiment, will be specifically described with reference to the flowchart of FIG. Here, a facial feature portion is obtained as a pre-process for acquiring a driver's face image by a camera disposed in a vehicle interior of the vehicle, for example, on a steering column, and detecting the driver's face orientation and face position. An example of acquiring the three-dimensional positional relationship, that is, the depth will be described.

まず、画像取得手段1に画像列(動画像)が入力される(ステップS1)。取り込んだ画像列(図3参照)は、例えば、図示していない一時記憶手段に格納されるとよい。次に、特徴点画像保持手段2により、初期画像I中の顔特徴点を検出する(ステップS3)。ここで、初期画像としては、運転者が真正面を向いている時の顔画像を用いればよい。特徴点検出は、取得した画像を図示していない表示装置に表示して、表示画像内の特徴点位置を運転者が指定することで、その位置を検出するようにすればよい。あるいは、事前に抽出したい特徴点の典型的な輝度パターンからなる参照画像を格納しておき、これと入力画像の部分とを比較して類似度の高い箇所を抽出することで特徴点を検出してもよい。類似度の指標としては、例えば、以下の式を用いるとよい。 First, an image sequence (moving image) is input to the image acquisition means 1 (step S1). The captured image sequence (see FIG. 3) may be stored, for example, in temporary storage means (not shown). Next, the feature point image holding unit 2, detects a face feature point in the initial image I 0 (step S3). Here, as the initial image, a face image when the driver is facing directly in front may be used. In the feature point detection, the acquired image is displayed on a display device (not shown), and the feature point position in the display image is designated by the driver so that the position is detected. Alternatively, a reference image consisting of a typical luminance pattern of the feature points to be extracted in advance is stored, and the feature points are detected by comparing this with the portion of the input image and extracting portions with high similarity. May be. For example, the following formula may be used as an index of similarity.

Figure 2007272578
Figure 2007272578

ここで、f(x,y)は、入力画像上の(x,y)における輝度値を、g(u,v)は、参照輝度パターンの画素位置(u,v)における輝度値を、上に横線を引いたfは、入力画像上の(x,y)を中心とする参照輝度パターンと同じ大きさの領域の平均輝度を、上に横線を引いたgは、参照輝度パターンの平均輝度を、U、Vは、それぞれ参照輝度パターンの水平、垂直方向のとりうる座標を要素とする集合をそれぞれ表している。 Here, f (x, y) is the luminance value at (x, y) on the input image, and g (u, v) is the luminance value at the pixel position (u, v) of the reference luminance pattern. F with a horizontal line drawn is the average luminance of an area having the same size as the reference luminance pattern centered on (x, y) on the input image, and g with a horizontal line drawn on it is the average luminance of the reference luminance pattern. , U and V respectively represent a set whose elements are horizontal and vertical coordinates of the reference luminance pattern.

こうして特徴点位置を検出したら、その周辺の所定の大きさの画像とともに、特徴点画像保持手段2内の記憶手段に格納する。図4(a)に入力画像I中での特徴点位置を十字で示す。これらの特徴点周辺を切り出した画像群Is〜Isを図4(b)に示す。ここでは、両眼のそれぞれの端と口の端を切り出した例を示している。 When the feature point position is detected in this way, it is stored in the storage means in the feature point image holding means 2 together with the surrounding image of a predetermined size. 4 the feature point position in the input image I 0 in (a) are shown by crisscross. FIG. 4B shows an image group Is 0 to Is 5 cut out around these feature points. Here, an example in which the ends of both eyes and the ends of the mouth are cut out is shown.

次に奥行き候補対を生成する(ステップS5)。ここでは、各特徴点の奥行きの候補値を生成することで、その組み合わせである奥行き候補対を生成する。ここでは、奥行き候補対を1つ作成する場合を例に述べる。対象が顔の場合には、カメラに映し出された顔の大きさや顔内の部位(例えば、目の大きさ)とカメラの諸元データからカメラと顔の位置関係が把握でき、特徴点の概略的な位置が把握できる。   Next, a depth candidate pair is generated (step S5). Here, by generating candidate values of the depths of the feature points, depth candidate pairs that are combinations thereof are generated. Here, a case where one depth candidate pair is created will be described as an example. When the target is a face, the positional relationship between the camera and the face can be ascertained from the size of the face projected on the camera, the part within the face (for example, the size of the eyes), and the camera specification data. Can grasp the actual position.

生成した奥行き候補対と特徴点の周辺画像から顔モデルを構築する(ステップS7)。図5は、この顔モデルを説明する図である。初期画像におけるi番目の特徴点の画像上での座標を(u,v)とする。この点の3次元空間内でのカメラ座標系による表現をM =(Xi,Yi,Zi)とすると、以下の関係式が成り立つ。 A face model is constructed from the generated depth candidate pair and the peripheral image of the feature point (step S7). FIG. 5 is a diagram for explaining the face model. The coordinates on the image of the i-th feature point in the initial image are (u i , v i ). If the representation of this point in the three-dimensional space by the camera coordinate system is M i 0 = (Xi, Yi, Zi), the following relational expression is established.

Figure 2007272578
Figure 2007272578

ここで、sは設定した奥行き、P、A、R、tは、それぞれ射影行列、カメラ内部行列、カメラ外部回転行列、カメラ外部並進行列を示している。カメラ内部行列は既知であり、カメラ座標系を世界座標系とすると、(2)式は以下のように書き換えられる。 Here, s i represents the set depth, and P, A, R, and t represent a projection matrix, a camera internal matrix, a camera external rotation matrix, and a camera external parallel progression, respectively. The camera internal matrix is known. If the camera coordinate system is the world coordinate system, equation (2) can be rewritten as follows.

Figure 2007272578
Figure 2007272578

したがって、 Therefore,

Figure 2007272578
Figure 2007272578

が成立し、奥行き候補対と初期画像から各特徴点の空間位置を算出することができる。この空間位置の対応と特徴点周辺画像の組み合わせが顔モデルMfであり、図5(a)に示されるように特徴点周辺画像を各特徴点の空間位置に配置したモデルである。図5(b)に示されるような実際の顔の立体形状を模したモデルMf’に比較してモデルを単純化することができる。 Is established, and the spatial position of each feature point can be calculated from the depth candidate pair and the initial image. The combination of the correspondence between the spatial position and the feature point peripheral image is the face model Mf, and the feature point peripheral image is arranged at the spatial position of each feature point as shown in FIG. The model can be simplified as compared with the model Mf ′ imitating the actual three-dimensional shape of the face as shown in FIG.

続くステップS9では、この顔モデルに基づいて、顔が様々な位置・姿勢にあるときのカメラで取得できる特徴点周辺画像を生成しておき、これを位置・姿勢と関連づけたデータベースとして記憶する。ここで、顔が位置tにおいてXYZ各軸に対してw、w、w回転した場合の変化量を表すi番目の特徴点の見え方の変化を表す変化行列Hは以下の式により求めることができる。 In subsequent step S9, feature point peripheral images that can be acquired by the camera when the face is in various positions and postures are generated based on the face model, and stored as a database associated with the positions and postures. Here, the change matrix H i representing the change in the appearance of the i-th feature point representing the amount of change when the face is rotated by w x , w y , and w z with respect to the XYZ axes at the position t is expressed by the following equation: It can ask for.

Figure 2007272578
Figure 2007272578

ここで、Aは、カメラ内部パラメータ、Rは顔運動の回転行列、tは顔運動の並進ベクトル、Mは参照画像撮影時の基準座標系におけるi番目の特徴点の3次元座標である。そして、nは、行列(0 0 1)である。i番目の特徴点の参照画像上での位置を上述したように(u,v)、上記運動後の画素位置を(u',v')とすると、以下の関係が成立する。 Here, A 1 is a camera internal parameter, R is a rotation matrix of face motion, t is a translation vector of face motion, M i is the three-dimensional coordinate of the i-th feature point in the reference coordinate system at the time of reference image shooting. . N i is a matrix (0 0 1) T. As described above, when the position of the i-th feature point on the reference image is (u i , v i ) and the pixel position after the motion is (u ′ i , v ′ i ), the following relationship is established. .

Figure 2007272578
Figure 2007272578

ここで、αはスカラー値である。 Here, α is a scalar value.

ここで、運動後の特徴点周辺画像を矩形領域で表すものとする。図6は、初期画像(同図(a)参照)とこれに対応する運動後の画像(同図(b)参照)との関係を示している。図6(b)に示されるように、運動後の特徴点の周辺画像のサイズを幅2w+1、高さ2h+1とする。矩形領域の端点a’、b’、c’、d’の位置は、以下の式で表される。   Here, the peripheral image of the feature point after exercise is represented by a rectangular area. FIG. 6 shows a relationship between an initial image (see FIG. 6A) and an image after exercise corresponding to the initial image (see FIG. 6B). As shown in FIG. 6B, the size of the peripheral image of the feature point after exercise is assumed to be width 2w + 1 and height 2h + 1. The positions of the end points a ′, b ′, c ′, d ′ of the rectangular area are represented by the following equations.

Figure 2007272578
Figure 2007272578

これら4点で囲まれる矩形領域内の画素(u',v')に対応する初期画像中の画素位置(u,v)は、式(6)の関係を満たすからこれを変形した次式により求めることができる。 Since the pixel position (u, v) in the initial image corresponding to the pixel (u ′, v ′) in the rectangular area surrounded by these four points satisfies the relationship of Equation (6), Can be sought.

Figure 2007272578
Figure 2007272578

(8)式で求めた画素位置(u,v)の輝度値を運動後の(u',v')位置の輝度値とする。ここで、(8)式で求めた画素位置(u,v)は整数値ではない、つまり、画素の中間位置を表すことがあるが、この場合は、周囲の画素の輝度値を基にして補間により当該中間位置の輝度値を求めればよい。こうして生成された特徴点周辺画像は、顔の位置・向きと関連づけられたデータベース(図7参照)として特徴点画像保持手段2内の記憶手段に格納される。 The luminance value at the pixel position (u, v) obtained by the equation (8) is set as the luminance value at the (u ′, v ′) position after exercise. Here, the pixel position (u, v) obtained by the equation (8) is not an integer value, that is, it may represent an intermediate position of the pixel. In this case, however, the pixel position is based on the luminance value of the surrounding pixels. What is necessary is just to obtain | require the luminance value of the said intermediate position by interpolation. The feature point peripheral image generated in this way is stored in the storage means in the feature point image holding means 2 as a database (see FIG. 7) associated with the face position / orientation.

続いて照合フェーズに入る。ここでは、検証用画像列(図8参照)I〜Iからi番目の画像を取り出し、照合を行う。まず、追跡手段4は、1番目の画像を取り出し(ステップS11)、この画像と顔画像データベースとを比較することで、類似度が最大となる顔画像データおよびその画像との類似度を算出する(ステップS13)。 Next, the verification phase is entered. Here, the verification image sequence taken out the i-th image from (see FIG. 8) I i ~I n, performs verification. First, the tracking unit 4 takes out the first image (step S11), compares the image with the face image database, and calculates the face image data having the maximum similarity and the similarity with the image. (Step S13).

入力画像をI、データベース内の画像をTとすると、類似度は、次の式(9)で求めることができる。   When the input image is I and the image in the database is T, the similarity can be obtained by the following equation (9).

Figure 2007272578
Figure 2007272578

なお、顔画像データベースは、特徴点付近のみについて輝度値を有しているので、この領域以外については(9)式は演算対象としないよう設定される。ここでは、各特徴点周辺を同じ重みづけにより計算したが、特徴点によって重みづけを変えてもよい。この重みづけ情報は、顔画像データベース内に個々の位置・姿勢情報と関連づけて格納するとよい。例えば、右向きの顔においては、右側の特徴点は隠れやすいので、右側の特徴点周辺の画像については重みづけを低くし、左側の特徴点周辺の画像についての重みづけを大きく設定するとよい。 Since the face image database has luminance values only in the vicinity of the feature points, the expression (9) is set not to be subject to calculation for areas other than this area. Here, the periphery of each feature point is calculated with the same weight, but the weight may be changed depending on the feature point. This weighting information may be stored in the face image database in association with individual position / posture information. For example, in a right-facing face, the right feature point is likely to be hidden. Therefore, the weight for the image around the right feature point may be set low, and the weight for the image around the left feature point may be set large.

追跡状況評価手段5は、こうして計算した類似度を加算し(ステップS15)、検証用画像列が終了したかを判定する(ステップS17)。検証用画像列全部との照合が未了の場合には、ステップS21へと移行し、次の検証用画像を選択して、ステップS13へと戻ることで、全ての画像列に対する照合を行う。ステップS17で照合が終了したと判定した場合には、ステップS19へと移行し、追跡状況評価手段5は、評価結果である累積値を出力して処理を終了する。   The tracking state evaluation means 5 adds the similarity calculated in this way (step S15), and determines whether the verification image sequence is completed (step S17). If collation with the entire verification image sequence has not been completed, the process proceeds to step S21, the next verification image is selected, and the flow returns to step S13 to perform verification for all the image sequences. If it is determined in step S17 that the collation has been completed, the process proceeds to step S19, and the tracking state evaluation unit 5 outputs the accumulated value as the evaluation result and ends the process.

生成された奥行き候補対の確度が高いほど、これを利用して生成される顔モデルの確度も向上し、検証用画像列中の特徴点周辺画像と顔画像データベース内の画像とが一致する確率も高くなる。この結果、評価結果である累積値自体も奥行き候補対の確度が高いほど高い数値をとる。言い換えれば、奥行き候補対の精度を累積値により評価できる。   The higher the accuracy of the generated depth candidate pair, the higher the accuracy of the face model generated using this, and the probability that the feature point peripheral image in the verification image sequence matches the image in the face image database. Also gets higher. As a result, the cumulative value itself as the evaluation result also takes a higher numerical value as the accuracy of the depth candidate pair is higher. In other words, the accuracy of the depth candidate pair can be evaluated by the accumulated value.

ここでは、奥行き候補対を1つ生成し、それに対する評価値を出力するだけの構成としたが、評価値を基にして奥行き候補対の修正・選択を行うようにするとさらに好ましい。この修正・選択は、操作者(本実施形態では運転者)が評価結果を基にして手動で別の値を設定することで行ってもよいが、自動的に修正・選択を行うような形態も可能である。図9にブロック構成を示す第2の実施形態においては、奥行き候補対を複数生成し、生成した奥行き候補対群の中から適切な奥行き候補対を選定するものである。   Here, the configuration is such that one depth candidate pair is generated and an evaluation value corresponding to the depth candidate pair is generated. However, it is more preferable that the depth candidate pair is corrected and selected based on the evaluation value. This correction / selection may be performed by the operator (in this embodiment, the driver) manually setting another value based on the evaluation result. However, the correction / selection is automatically performed. Is also possible. In the second embodiment having a block configuration shown in FIG. 9, a plurality of depth candidate pairs are generated, and an appropriate depth candidate pair is selected from the generated depth candidate pair group.

この第2の実施形態は、図1に示される第1の実施形態に奥行き候補対選定手段6を追加したものである。この奥行き候補対選定手段6は、CPU、ROM、RAM等で構成される独立のハードウェアであってもよいが、他の手段1〜6とハードウェアの一部または全部を共有し、ソフトウェアにより実現されていてもよい。   In the second embodiment, depth candidate pair selection means 6 is added to the first embodiment shown in FIG. This depth candidate pair selection means 6 may be independent hardware composed of a CPU, ROM, RAM, etc., but shares some or all of the hardware with other means 1 to 6 and is implemented by software. It may be realized.

この実施形態の動作、すなわち、本発明にかかる画像処理方法の第2の実施形態を図10のフローチャートを参照して説明する。画像列入力(ステップS1)、顔特徴点の検出(ステップS3)は、図2に示される第1の実施形態とほぼ同様である。続いて、第1の実施形態におけるステップS5の奥行き候補対の生成に変えて、複数の奥行き候補対である奥行き候補群を生成する(ステップS5a)。この奥行き候補群の生成に際しては、例えば、i番目の特徴点の奥行きの上限値と下限値をそれぞれhigh、lowとし、奥行きの種類数をnとすると、k番目の奥行きstepi,kは、以下の式で表せる。 The operation of this embodiment, that is, the second embodiment of the image processing method according to the present invention will be described with reference to the flowchart of FIG. Image sequence input (step S1) and face feature point detection (step S3) are substantially the same as in the first embodiment shown in FIG. Subsequently, in place of the generation of depth candidate pairs in step S5 in the first embodiment, a depth candidate group that is a plurality of depth candidate pairs is generated (step S5a). In generating the depth candidate group, for example, if the upper limit value and the lower limit value of the depth of the i-th feature point are high i and low i , respectively, and the number of types of depth is n, the k-th depth step i, k Can be expressed by the following equation.

Figure 2007272578
Figure 2007272578

ここでは、等間隔としたが、各特徴点の奥行き範囲を正規分布や他の分布を基にして不等間隔で設定してもよい。また、特定の特徴点を基準位置に設定し、これに対する関係で他の特徴点の奥行きを設定してもよい。特に顔のように凹凸の関係が明らかな場合に、現実とかけ離れた不合理な奥行き設定を排除する効果がある。このとき奥行き範囲の設定に際して、撮像手段におけるピント位置情報や運転席シートの位置情報等を基にして可能な奥行き範囲を推定すると初期奥行き推定精度の向上が図れる。 Here, the interval is equal, but the depth range of each feature point may be set at unequal intervals based on the normal distribution or other distributions. Also, a specific feature point may be set as a reference position, and the depth of another feature point may be set in relation to this. In particular, when the relationship between irregularities is clear like a face, there is an effect of eliminating an irrational depth setting far from the reality. At this time, when setting the depth range, if the possible depth range is estimated based on the focus position information in the imaging means, the position information of the driver's seat, etc., the initial depth estimation accuracy can be improved.

複数個の奥行き候補対(奥行き候補群)を設定したら、その中から1番目の候補対を選択し(ステップS6)、第1の実施形態と同様に顔モデルの構築(ステップS7)、顔画像データベースの構築(ステップS9)を行い、照合プロセスの類似度評価結果の蓄積まで(ステップS11〜S15)の処理を実行する。   When a plurality of depth candidate pairs (depth candidate group) are set, the first candidate pair is selected from them (step S6), and a face model is constructed (step S7), as in the first embodiment, and a face image is selected. A database is constructed (step S9), and the processing up to accumulation of similarity evaluation results of the collation process (steps S11 to S15) is executed.

続くステップS16の処理は、実際には、2番目以降の候補対について実行される。前述したように類似度評価結果の累積値は奥行き候補対の確からしさに応じた値をとる。そこで、現在累積中の評価結果をそれ以前に算出した最も評価結果の累積値が良好な結果における当該画像までの累積値(図11におけるd番目の奥行き候補対)との比較を行う。これが遜色ない値であれば、さらに確度の高い奥行き候補対である可能性があるが、良好でなく、かつ、その差が大きい場合(例えば、図11に示されるm+1個目の奥行き候補対)には、その奥行き候補対は確度が低いことが明らかであるといえる。このような場合に、全ての画像列について追跡・検証を行う必要はない。そこで、このように確度が低いと判定した場合には、後述するステップS18へと移行することで後続画像列における当該奥行き候補対を用いた追跡を中止する。   The subsequent step S16 is actually executed for the second and subsequent candidate pairs. As described above, the cumulative value of the similarity evaluation result takes a value corresponding to the probability of the depth candidate pair. Therefore, the currently accumulated evaluation result is compared with the accumulated value up to the image (d-th depth candidate pair in FIG. 11) in the result of the most favorable accumulated value of the evaluation result calculated before that time. If this is an inferior value, there is a possibility that the depth candidate pair has a higher accuracy, but it is not good and the difference is large (for example, the (m + 1) th depth candidate pair shown in FIG. 11). It is clear that the depth candidate pair has low accuracy. In such a case, it is not necessary to track and verify all image sequences. Therefore, when it is determined that the accuracy is low as described above, the process using the depth candidate pair in the subsequent image sequence is stopped by moving to step S18 described later.

確度が十分な場合には、ステップS17へと移行し、検証用画像列全ての追跡が終了したか否かの判定を行い(ステップS17)、終了していない場合には、次画像列を選択して(ステップS21)、ステップS13へと戻ることで、追跡を続行する。   If the accuracy is sufficient, the process proceeds to step S17, where it is determined whether or not all the verification image sequences have been tracked (step S17). If not, the next image sequence is selected. Then, the tracking is continued by returning to step S13 (step S21).

一方、検証用画像列全ての追跡が終了したか、確度が低いとして中止された場合には、ステップS18へと移行し、候補対群が全て終了したか否かの判定が行われる(ステップS18)。そして、候補対群が終了していない場合には、ステップS22へと移行して次の奥行き候補対を選択し、ステップS7へと戻ることで、設定した奥行き候補対群全てについて追跡・評価を行う。   On the other hand, if the tracking of all the verification image sequences has been completed or has been stopped because the accuracy is low, the process proceeds to step S18, and it is determined whether or not all candidate pair groups have been completed (step S18). ). If the candidate pair group has not ended, the process proceeds to step S22, the next depth candidate pair is selected, and the process returns to step S7 to track and evaluate all the set depth candidate pair groups. Do.

ステップS18で全候補対群の評価が終了したと判定した場合には、ステップS20へと移行し、類似度が最も高い候補対を選択することにより、適切な奥行き候補対を選択することができる。   If it is determined in step S18 that all candidate pairs have been evaluated, the process proceeds to step S20, and an appropriate depth candidate pair can be selected by selecting a candidate pair having the highest similarity. .

ここでは、複数の奥行き候補群設定→選択の処理を一度行う場合を説明したが、この場合、候補群の精度を挙げるには、細かい間隔で奥行き候補を設定する必要が生じる。このため、奥行き候補の範囲が広いと膨大な計算を行う必要が生ずる。これを避けるため、例えば、最初は、広い奥行き範囲中で粗い間隔で設定した奥行き候補群に対して評価を行い、その中で評価結果が優秀な候補対を含む狭い範囲を奥行き範囲として間隔を細分化して再度評価を行うようにするとよい。必要ならば、これを複数回繰り返すことで、少ない演算量で高精度に奥行き候補対を求めることができる。また、2回目以降の評価処理にあたっては、構築する顔画像データベースの範囲も限定可能であり、これによりさらに演算量を減らすこともできる。   Here, the case where a plurality of depth candidate group setting → selection processes are performed once has been described, but in this case, it is necessary to set depth candidates at fine intervals in order to increase the accuracy of the candidate group. For this reason, if the range of depth candidates is wide, it is necessary to perform enormous calculation. In order to avoid this, for example, evaluation is first performed on a depth candidate group set at a rough interval in a wide depth range, and a narrow range including a candidate pair having an excellent evaluation result is defined as a depth range. It is better to subdivide and perform the evaluation again. If necessary, the depth candidate pair can be obtained with high accuracy with a small amount of calculation by repeating this several times. In addition, in the second and subsequent evaluation processes, the range of the face image database to be constructed can be limited, thereby further reducing the amount of calculation.

このように奥行き候補対の候補を複数設定する手法に限らず、奥行き候補対の評価結果に応じて適宜修正を行う手法を用いてもよい。図12はこのような修正を行う第3の実施形態の画像処理装置の構成を示すブロック図である。この実施形態は、図1に示される第1の実施形態と基本的に同一の構成要素から構成されるが、奥行き候補対生成手段3に追跡状況評価手段5の評価結果が入力される点が異なっている。   Thus, not only a method of setting a plurality of depth candidate pairs, but also a method of appropriately correcting according to the evaluation result of the depth candidate pair may be used. FIG. 12 is a block diagram showing the configuration of the image processing apparatus according to the third embodiment for performing such correction. This embodiment is basically composed of the same components as those of the first embodiment shown in FIG. 1, except that the evaluation result of the tracking situation evaluation unit 5 is input to the depth candidate pair generation unit 3. Is different.

この実施形態の動作、すなわち、本発明にかかる画像処理方法の第3の実施形態を図13に示されるフローチャートを参照して説明する。この処理は、予め複数の候補を生成しない点を除けば、図9に示される第2の実施形態の処理と略共通の処理を実行する。   The operation of this embodiment, that is, the third embodiment of the image processing method according to the present invention will be described with reference to the flowchart shown in FIG. This process is substantially the same as the process of the second embodiment shown in FIG. 9 except that a plurality of candidates are not generated in advance.

候補対を予め複数生成する代わりに、初期奥行き候補対を生成し(ステップS5b)、それについてモデル・データベースを構築し(ステップS7、S9)照合プロセス(ステップS11〜S17)を実行する。照合後、候補対群の結果が収束しているか否かを評価し、未収束の場合には、ステップS28へと戻り次の奥行き候補対を設定して、ステップS7〜S17の処理を繰り返す。ステップS28における奥行き候補対の設定手法としては、各種の変数探索アルゴリズムを用いることができる。   Instead of generating a plurality of candidate pairs in advance, an initial depth candidate pair is generated (step S5b), a model database is constructed (steps S7 and S9), and a matching process (steps S11 to S17) is executed. After the collation, it is evaluated whether or not the result of the candidate pair group has converged. If it has not converged, the process returns to step S28, the next depth candidate pair is set, and the processes of steps S7 to S17 are repeated. Various variable search algorithms can be used as the depth candidate pair setting method in step S28.

なお、以上の計算においては画像列内の全ての評価結果を統合して評価を行ったが、顔の位置・向きに応じて代表的な画像を抽出し、それらに対する評価結果を累積するようにしてもよい。また、個々の特徴点についての類似度を全て合算して評価するのではなく、各特徴点について個別に評価してもよい。このように各特徴点を個別に取り扱うと、一部の特徴点についての奥行き評価のみが誤っている場合に、他の特徴点の評価に影響を及ぼすことがない。なお、同等の奥行きと推定される特徴点をグループ化して当該グループごとに評価を行うようにしてもよい。   In the above calculation, evaluation was performed by integrating all evaluation results in the image sequence. However, representative images are extracted according to the position and orientation of the face, and the evaluation results for them are accumulated. May be. Further, instead of adding together and evaluating all the similarities for individual feature points, each feature point may be evaluated individually. When each feature point is handled individually in this way, when only the depth evaluation for some of the feature points is incorrect, the evaluation of other feature points is not affected. Note that feature points estimated to have the same depth may be grouped and evaluated for each group.

対象物上に特徴点が多数存在する場合、第2、第3の実施形態による処理を全ての特徴点について同時に行おうとすると奥行き候補対の数が膨大になり、演算処理に時間を要することになる。10個の特徴点について、各特徴点の奥行き候補が3つにすぎない場合でも、ありうる奥行き候補対の数は310通り=59049通りに達する。そこで、最初に追跡を行う特徴点の数を絞り込んでおき、それらの特徴点について奥行き候補対を求めた後、残りの特徴点について順次奥行き候補対を求めるという動作を繰り返すことで、処理時間の短縮を図ることが好ましい。 If there are many feature points on the object, the number of depth candidate pairs becomes enormous when the processing according to the second and third embodiments is performed on all feature points at the same time. Become. About 10 pieces of feature points, even if the depth candidates of the feature points is only three, the number of depth candidates pairs which may reach in triplicate 10 types = 59049. Therefore, by narrowing down the number of feature points to be tracked first, obtaining depth candidate pairs for those feature points, and then repeatedly obtaining depth candidate pairs for the remaining feature points, the processing time can be reduced. It is preferable to shorten.

図14はこの処理(第4の実施形態)を示すフローチャートである。画像列入力(ステップS1)と、顔特徴点の検出(ステップS3)は、第1〜第3の実施形態と同様である。次に、特徴点のうち、最初に奥行き候補対を設定し、奥行きを求める特徴点を決定する(ステップS4)。そして、当該特徴点についてモデル・データベースの構築と照合プロセスからなる奥行き候補対算定処理(ステップS30)を実行する。これは、第2の実施形態におけるステップS5〜S19の処理、第3の実施形態におけるステップS5b〜S26の処理に対応する。   FIG. 14 is a flowchart showing this processing (fourth embodiment). Image sequence input (step S1) and face feature point detection (step S3) are the same as in the first to third embodiments. Next, among the feature points, a depth candidate pair is set first, and the feature points for which the depth is to be determined are determined (step S4). Then, a depth candidate pair calculation process (step S30) including a model database construction and a matching process is executed for the feature point. This corresponds to the processing in steps S5 to S19 in the second embodiment and the processing in steps S5b to S26 in the third embodiment.

当該特徴点について奥行きを算定したら、ステップS32へと移行して、奥行きを求めていない特徴点が残存しているかを判定し、残存している場合には、ステップS36へと移行し、残りの特徴点のうち、所定個数の特徴点を追加して(ステップS36)、再びステップS30へと戻ることで順次、特徴点の奥行きを算出する。ステップS32で全特徴点の奥行きが求まったと判定した場合には、ステップS34へと移行し、最終候補対を出力して処理を終了する。これにより、上述した例においても最小の場合で、3通り×10回=30回の計算を行うことで、特徴点の奥行きを求めることが可能となり、演算時間を大幅に短縮することが可能となる。   When the depth is calculated for the feature point, the process proceeds to step S32, where it is determined whether or not the feature point for which the depth is not obtained remains. Of the feature points, a predetermined number of feature points are added (step S36), and the process returns to step S30 to calculate the depth of the feature points sequentially. If it is determined in step S32 that the depths of all feature points have been obtained, the process proceeds to step S34, the final candidate pair is output, and the process ends. As a result, in the above-described example, the depth of the feature point can be obtained by performing 3 types × 10 times = 30 times in the minimum case, and the calculation time can be greatly shortened. Become.

以上の説明では、車載の顔認識カメラに適用した場合を例に説明したが、本発明はこれに限られるものではなく、例えば、ロボットや監視装置等における物体認識等においても適用することが可能である。   In the above description, the case where the present invention is applied to an in-vehicle face recognition camera has been described as an example. However, the present invention is not limited to this, and can be applied to, for example, object recognition in a robot or a monitoring device. It is.

本発明にかかる画像処理装置の第1の実施形態の構成を示すブロック図である。1 is a block diagram showing a configuration of a first embodiment of an image processing apparatus according to the present invention. 本発明にかかる画像処理方法の第1の実施形態の処理を示すフローチャートである。It is a flowchart which shows the process of 1st Embodiment of the image processing method concerning this invention. 入力される画像列を説明する図である。It is a figure explaining the image sequence input. 入力画像中での特徴点位置を示す図(図4(a))と、抽出した特徴点周辺画像例(図4(b))である。The figure which shows the feature point position in an input image (Fig.4 (a)), and the example of the extracted feature point periphery image (FIG.4 (b)). 本発明で用いられる顔モデルを説明する図である。It is a figure explaining the face model used by this invention. 初期画像とこれに対応する運動後の画像との関係を示す図である。It is a figure which shows the relationship between an initial image and the image after the exercise | movement corresponding to this. 顔画像データベースの一例を示す図である。It is a figure which shows an example of a face image database. 検証用画像列の一例を占め鈴である。An example of the verification image sequence is a bell. 本発明にかかる画像処理装置の第2の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 2nd Embodiment of the image processing apparatus concerning this invention. 本発明にかかる画像処理方法の第2の実施形態の処理を示すフローチャートである。It is a flowchart which shows the process of 2nd Embodiment of the image processing method concerning this invention. 評価結果の累積値の変化を示すグラフである。It is a graph which shows the change of the cumulative value of an evaluation result. 本発明にかかる画像処理装置の第3の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 3rd Embodiment of the image processing apparatus concerning this invention. 本発明にかかる画像処理方法の第3の実施形態の処理を示すフローチャートである。It is a flowchart which shows the process of 3rd Embodiment of the image processing method concerning this invention. 本発明にかかる画像処理方法の第4の実施形態の処理を示すフローチャートである。It is a flowchart which shows the process of 4th Embodiment of the image processing method concerning this invention.

符号の説明Explanation of symbols

1…画像取得手段、2…特徴点画像保持手段、3…奥行き候補対生成手段、4…追跡手段、5…追跡状況評価手段、6…奥行き候補対選定手段。   DESCRIPTION OF SYMBOLS 1 ... Image acquisition means, 2 ... Feature point image holding means, 3 ... Depth candidate pair production | generation means, 4 ... Tracking means, 5 ... Tracking condition evaluation means, 6 ... Depth candidate pair selection means

Claims (32)

奥行きを推定したい対象物上の3点以上の特徴点を含む画像複数枚を取得する手段と、
所定の視点からの各特徴点およびその周辺画像を保持する特徴点画像保持手段と、
特徴点に対する奥行き候補値の組である奥行き候補対を生成する奥行き候補対生成手段と、
特徴点画像保持手段が保持する画像および生成した奥行き候補対を用いて、取得した画像中の特徴点の位置を追跡する追跡手段と、
前記追跡手段による追跡状況を評価する追跡状況評価手段と、
を備えていることを特徴とする画像処理装置。
Means for acquiring a plurality of images including three or more feature points on an object whose depth is to be estimated;
Feature point image holding means for holding each feature point from a predetermined viewpoint and its peripheral image;
Depth candidate pair generation means for generating a depth candidate pair that is a set of depth candidate values for feature points;
Tracking means for tracking the position of the feature point in the acquired image using the image held by the feature point image holding means and the generated depth candidate pair;
Tracking status evaluation means for evaluating the tracking status by the tracking means;
An image processing apparatus comprising:
前記追跡手段は、前記特徴点画像保持手段が保持する画像および生成した奥行き候補対から対象物の位置・姿勢変更時の特徴点周辺画像候補を生成し、取得した画像から生成した特徴点周辺画像候補を探索することで追跡を行うことを特徴とする請求項1記載の画像処理装置。   The tracking unit generates a feature point peripheral image candidate when the position / posture of the object is changed from the image held by the feature point image holding unit and the generated depth candidate pair, and the feature point peripheral image generated from the acquired image The image processing apparatus according to claim 1, wherein tracking is performed by searching for a candidate. 前記奥行き候補対生成手段は、複数組の奥行き候補対を生成するとともに、前記追跡状況評価手段による評価結果に基づいて適切な奥行き候補対を選定する奥行き候補対選定手段をさらに備えていることを特徴とする請求項1記載の画像処理装置。   The depth candidate pair generation means further includes a depth candidate pair selection means for generating a plurality of sets of depth candidate pairs and selecting an appropriate depth candidate pair based on an evaluation result by the tracking situation evaluation means. The image processing apparatus according to claim 1, wherein: 前記奥行き候補対生成手段は、生成済みの奥行き候補対に対する前記追跡状況評価手段による評価結果を基に、該候補対の各要素の値を変化させて新たな奥行き候補対を生成することを特徴とする請求項1記載の画像処理装置。   The depth candidate pair generation unit generates a new depth candidate pair by changing the value of each element of the candidate pair based on the evaluation result by the tracking state evaluation unit for the generated depth candidate pair. The image processing apparatus according to claim 1. 前記奥行き候補対生成手段は、各特徴点の奥行きを設定した範囲から所定の条件で抽出することで複数の奥行き候補対を生成することを特徴とする請求項2記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the depth candidate pair generation unit generates a plurality of depth candidate pairs by extracting the depth of each feature point from a set range under a predetermined condition. 前記奥行き候補対生成手段で生成した奥行き候補対から選定した奥行き候補対を基にしてさらに各奥行きの範囲、抽出条件を厳しくして奥行き候補対を生成し、追跡手段、追跡状況評価手段、奥行き候補対選定手段による追跡、評価、選定を再実行することを特徴とする請求項5記載の画像処理装置。   Based on the depth candidate pair selected from the depth candidate pair generated by the depth candidate pair generation means, the depth candidate pair is generated by further restricting the range and extraction conditions of each depth, and the tracking means, tracking status evaluation means, depth 6. The image processing apparatus according to claim 5, wherein tracking, evaluation, and selection by the candidate pair selection unit are re-executed. 前記特徴点の存在位置の推定情報を取得する手段をさらに備えており、
前記奥行き候補対生成手段は、取得した特徴点の位置推定情報に基づいて奥行き候補対を生成することを特徴とする請求項1記載の画像処理装置。
Further comprising means for obtaining estimated information of the location of the feature point;
The image processing apparatus according to claim 1, wherein the depth candidate pair generation unit generates a depth candidate pair based on the acquired position estimation information of feature points.
前記追跡状況評価手段による評価結果が所定値以下の場合には、当該奥行き候補対に対する追跡を終了することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein when the evaluation result by the tracking state evaluation unit is equal to or less than a predetermined value, tracking for the depth candidate pair is terminated. 前記追跡状況評価手段は、複数の画像の追跡状況を統合して評価を行うことを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the tracking state evaluation unit performs evaluation by integrating tracking states of a plurality of images. 前記追跡状況評価手段は、特徴点画像保持手段が保持する特徴点画像と追跡位置付近の画像の類似度に基づき判定を行うことを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the tracking state evaluation unit performs determination based on a similarity between a feature point image held by the feature point image holding unit and an image near the tracking position. 前記追跡状況評価手段は、特徴点ごとに算出した類似度を加算して評価を行うことを特徴とする請求項10記載の画像処理装置。   The image processing apparatus according to claim 10, wherein the tracking state evaluation unit performs evaluation by adding similarity calculated for each feature point. 前記追跡状況評価手段は、特徴点ごとに算出した類似度のうち、所定値以上の類似度により評価を行うことを特徴とする請求項10記載の画像処理装置。   The image processing apparatus according to claim 10, wherein the tracking state evaluation unit performs evaluation based on a similarity greater than or equal to a predetermined value among similarities calculated for each feature point. 前記追跡手段は、特徴点画像保持手段の画像と奥行き候補対をもとに位置・姿勢に応じた画像列を作成し、当該画像列と取得した画像とを比較することで追跡を行い、前記追跡状況評価手段は、当該画像列と取得した画像との類似度に基づいて評価を行うことを特徴とする請求項1記載の画像処理装置。   The tracking unit creates an image sequence according to the position and orientation based on the image of the feature point image holding unit and the depth candidate pair, and performs tracking by comparing the image sequence with the acquired image, The image processing apparatus according to claim 1, wherein the tracking state evaluation unit performs the evaluation based on a similarity between the image sequence and the acquired image. 前記追跡手段は、特徴点画像保持手段の画像と奥行き候補対をもとに位置・姿勢に応じた画像列を作成し、当該画像列と取得した画像とを比較することで追跡を行い、前記追跡状況評価手段は、奥行き候補対に対して所定以上の評価結果が得られた画像列の評価結果を統合して評価を行うことを特徴とする請求項1記載の画像処理装置。   The tracking unit creates an image sequence according to the position and orientation based on the image of the feature point image holding unit and the depth candidate pair, and performs tracking by comparing the image sequence with the acquired image, The image processing apparatus according to claim 1, wherein the tracking state evaluation unit performs evaluation by integrating evaluation results of image sequences in which a predetermined or higher evaluation result is obtained for the depth candidate pair. 特徴点の中から奥行き推定を行う特徴点を選択する特徴点選択手段をさらに備え、前記奥行き候補対選定手段は、選択した特徴点について奥行き候補対を生成して奥行き推定を行うことを特徴とする請求項1記載の画像処理装置。   A feature point selecting unit that selects a feature point for depth estimation from among the feature points, wherein the depth candidate pair selecting unit generates a depth candidate pair for the selected feature point and performs depth estimation; The image processing apparatus according to claim 1. 選択した特徴点について奥行き推定が完了したら、奥行き推定が未了の他の特徴点を追加して奥行き推定を実行することを特徴とする請求項15記載の画像処理装置。   16. The image processing apparatus according to claim 15, wherein when depth estimation is completed for the selected feature point, depth estimation is executed by adding another feature point for which depth estimation has not been completed. 奥行きを推定したい対象物上の3点以上の特徴点を含む画像複数枚を取得し、
所定の視点からの各特徴点およびその周辺画像である特徴点画像を保持し、
特徴点に対する奥行き候補値の組である奥行き候補対を生成し、
保持している特徴点画像および生成した奥行き候補対を用いて、取得した画像中の特徴点の位置を追跡し、追跡状況を評価する工程を備えていることを特徴とする画像処理方法。
Acquire multiple images including 3 or more feature points on the object whose depth is to be estimated,
Each feature point from a predetermined viewpoint and a feature point image that is a peripheral image thereof are retained,
Generate depth candidate pairs that are pairs of depth candidate values for feature points;
An image processing method comprising: a step of tracking a position of a feature point in an acquired image using a feature point image held and a generated depth candidate pair, and evaluating a tracking state.
保持している特徴点画像および生成した奥行き候補対から対象物の位置・姿勢変更時の特徴点周辺画像候補を生成し、取得した画像から生成した特徴点周辺画像候補を探索することで追跡を行うことを特徴とする請求項17記載の画像処理方法。   A feature point peripheral image candidate at the time of changing the position / orientation of the target object is generated from the retained feature point image and the generated depth candidate pair, and tracking is performed by searching the generated feature point peripheral image candidate from the acquired image. The image processing method according to claim 17, wherein the image processing method is performed. 奥行き候補対を複数組生成して追跡を行うとともに、追跡状況の評価結果に基づいて適切な奥行き候補対を選定する工程を備えていることを特徴とする請求項17記載の画像処理方法。   18. The image processing method according to claim 17, further comprising a step of generating a plurality of pairs of depth candidate pairs and performing tracking, and selecting an appropriate depth candidate pair based on the evaluation result of the tracking state. 生成済みの奥行き候補対に対する評価結果を基に、該候補対の各要素の値を変化させて新たな奥行き候補対を生成することを特徴とする請求項17記載の画像処理方法。   18. The image processing method according to claim 17, wherein a new depth candidate pair is generated by changing a value of each element of the candidate pair based on an evaluation result for the generated depth candidate pair. 各特徴点の奥行きを設定した範囲から所定の条件で抽出することで複数の奥行き候補対を生成することを特徴とする請求項17記載の画像処理方法。   The image processing method according to claim 17, wherein a plurality of depth candidate pairs are generated by extracting the depth of each feature point from a set range under a predetermined condition. 選定した奥行き候補対を基にしてさらに各奥行きの範囲、抽出条件を厳しくして奥行き候補対を生成し、追跡、評価、選定を再実行することを特徴とする請求項21記載の画像処理方法。   22. The image processing method according to claim 21, wherein a depth candidate pair is generated based on the selected depth candidate pair, and the depth range and extraction conditions are further tightened, and tracking, evaluation, and selection are performed again. . 特徴点の存在位置の推定情報を取得し、取得した特徴点の位置推定情報に基づいて奥行き候補対を生成することを特徴とする請求項17記載の画像処理方法。   18. The image processing method according to claim 17, further comprising: obtaining estimation information of feature point existence positions, and generating depth candidate pairs based on the obtained feature point position estimation information. 追跡状況の評価結果が所定値以下の場合には、当該奥行き候補対に対する追跡を終了することを特徴とする請求項17記載の画像処理方法。   18. The image processing method according to claim 17, wherein when the tracking state evaluation result is equal to or less than a predetermined value, tracking for the depth candidate pair is terminated. 追跡状況の評価を複数の画像の追跡状況を統合して行うことを特徴とする請求項17記載の画像処理方法。   18. The image processing method according to claim 17, wherein the tracking status is evaluated by integrating tracking statuses of a plurality of images. 保持する特徴点画像と追跡位置付近の画像の類似度に基づき追跡状況の評価を行うことを特徴とする請求項17記載の画像処理方法。   18. The image processing method according to claim 17, wherein the tracking state is evaluated based on the similarity between the feature point image held and the image near the tracking position. 追跡状況の評価は、特徴点ごとに算出した類似度を加算して行うことを特徴とする請求項26記載の画像処理方法。   27. The image processing method according to claim 26, wherein the tracking status is evaluated by adding the similarity calculated for each feature point. 追跡状況の評価は、特徴点ごとに算出した類似度のうち、所定値以上の類似度により行うことを特徴とする請求項26記載の画像処理方法。   27. The image processing method according to claim 26, wherein the tracking status is evaluated based on a similarity greater than or equal to a predetermined value among the similarities calculated for each feature point. 保持している特徴点画像と奥行き候補対をもとに位置・姿勢に応じた画像列を作成し、当該画像列と取得した画像とを比較することで追跡を行い、当該画像列と取得した画像との類似度に基づいて追跡状況の評価を行うことを特徴とする請求項17記載の画像処理方法。   An image sequence corresponding to the position and orientation is created based on the stored feature point image and depth candidate pair, and tracking is performed by comparing the acquired image sequence with the acquired image sequence. 18. The image processing method according to claim 17, wherein the tracking status is evaluated based on a similarity with the image. 保持している特徴点画像と奥行き候補対をもとに位置・姿勢に応じた画像列を作成し、当該画像列と取得した画像とを比較することで追跡を行い、奥行き候補対に対して所定以上の評価結果が得られた画像列の評価結果を統合して評価を行うことを特徴とする請求項17記載の画像処理方法。   Create an image sequence according to the position and orientation based on the stored feature point image and depth candidate pair, and perform tracking by comparing the image sequence with the acquired image. 18. The image processing method according to claim 17, wherein the evaluation is performed by integrating the evaluation results of the image sequences from which a predetermined or higher evaluation result is obtained. 特徴点の中から奥行き推定を行う特徴点を選択し、選択した特徴点について奥行き候補対を生成して奥行き推定を行うことを特徴とする請求項17記載の画像処理方法。   18. The image processing method according to claim 17, wherein a feature point for depth estimation is selected from the feature points, and a depth candidate pair is generated for the selected feature point to perform depth estimation. 選択した特徴点について奥行き推定が完了したら、奥行き推定が未了の他の特徴点を追加して奥行き推定を実行することを特徴とする請求項31記載の画像処理方法。   32. The image processing method according to claim 31, wherein, when depth estimation is completed for the selected feature point, depth estimation is executed by adding another feature point for which depth estimation has not been completed.
JP2006097597A 2006-03-31 2006-03-31 Image processing apparatus and image processing method Expired - Fee Related JP4830585B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006097597A JP4830585B2 (en) 2006-03-31 2006-03-31 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006097597A JP4830585B2 (en) 2006-03-31 2006-03-31 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2007272578A true JP2007272578A (en) 2007-10-18
JP4830585B2 JP4830585B2 (en) 2011-12-07

Family

ID=38675320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006097597A Expired - Fee Related JP4830585B2 (en) 2006-03-31 2006-03-31 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4830585B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009116242A1 (en) * 2008-03-18 2009-09-24 パナソニック株式会社 Driver monitoring apparatus, driver monitoring method, and vehicle
JP2011517817A (en) * 2008-04-09 2011-06-16 コグネックス・コーポレイション Method and system for dynamic feature detection
JP2017016192A (en) * 2015-06-26 2017-01-19 株式会社東芝 Three-dimensional object detection apparatus and three-dimensional object authentication apparatus

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06168317A (en) * 1992-11-30 1994-06-14 Matsushita Electric Ind Co Ltd Personal identification device
JP2000194859A (en) * 1998-12-25 2000-07-14 Canon Inc Object shape extraction method, object shape extraction device and recording medium
JP2000322577A (en) * 1999-05-12 2000-11-24 Nec Corp Device and method for collating image and recording medium with its control program recorded thereon
JP2002032743A (en) * 2000-07-13 2002-01-31 Sony Corp System and method for three-dimensional image generation and program providing medium
JP2003044841A (en) * 2002-06-20 2003-02-14 Sharp Corp Device and method for generating model and recording medium with model generation program recorded thereon
WO2004008392A1 (en) * 2002-07-10 2004-01-22 Nec Corporation Image matching system using 3-dimensional object model, image matching method, and image matching program
JP2004094491A (en) * 2002-08-30 2004-03-25 Nec Corp Face orientation estimation device and method and its program
WO2005006251A1 (en) * 2003-07-11 2005-01-20 Toyota Jidosha Kabushiki Kaisha Image processing device, image processing method, image processing program, and recording medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06168317A (en) * 1992-11-30 1994-06-14 Matsushita Electric Ind Co Ltd Personal identification device
JP2000194859A (en) * 1998-12-25 2000-07-14 Canon Inc Object shape extraction method, object shape extraction device and recording medium
JP2000322577A (en) * 1999-05-12 2000-11-24 Nec Corp Device and method for collating image and recording medium with its control program recorded thereon
JP2002032743A (en) * 2000-07-13 2002-01-31 Sony Corp System and method for three-dimensional image generation and program providing medium
JP2003044841A (en) * 2002-06-20 2003-02-14 Sharp Corp Device and method for generating model and recording medium with model generation program recorded thereon
WO2004008392A1 (en) * 2002-07-10 2004-01-22 Nec Corporation Image matching system using 3-dimensional object model, image matching method, and image matching program
JP2004094491A (en) * 2002-08-30 2004-03-25 Nec Corp Face orientation estimation device and method and its program
WO2005006251A1 (en) * 2003-07-11 2005-01-20 Toyota Jidosha Kabushiki Kaisha Image processing device, image processing method, image processing program, and recording medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009116242A1 (en) * 2008-03-18 2009-09-24 パナソニック株式会社 Driver monitoring apparatus, driver monitoring method, and vehicle
JPWO2009116242A1 (en) * 2008-03-18 2011-07-21 パナソニック株式会社 Driver monitoring device, driver monitoring method, and vehicle
JP2011154721A (en) * 2008-03-18 2011-08-11 Panasonic Corp Driver monitoring apparatus, driver monitoring method, and vehicle
JP2011517817A (en) * 2008-04-09 2011-06-16 コグネックス・コーポレイション Method and system for dynamic feature detection
JP2017016192A (en) * 2015-06-26 2017-01-19 株式会社東芝 Three-dimensional object detection apparatus and three-dimensional object authentication apparatus

Also Published As

Publication number Publication date
JP4830585B2 (en) 2011-12-07

Similar Documents

Publication Publication Date Title
JP6573354B2 (en) Image processing apparatus, image processing method, and program
US10789765B2 (en) Three-dimensional reconstruction method
JP4349367B2 (en) Estimation system, estimation method, and estimation program for estimating the position and orientation of an object
JP5812599B2 (en) Information processing method and apparatus
US8452081B2 (en) Forming 3D models using multiple images
JP4851239B2 (en) Image processing apparatus and processing method thereof
JP5251987B2 (en) Person determination device, method and program
JP2007000205A (en) Image processing apparatus, image processing method, and image processing program
KR101544021B1 (en) Apparatus and method for generating 3d map
US20120320162A1 (en) Video object localization method using multiple cameras
JP7116262B2 (en) Image depth estimation method and apparatus, electronic device, and storage medium
EP3185212B1 (en) Dynamic particle filter parameterization
KR20110089299A (en) Stereo matching process system, stereo matching process method, and recording medium
JP6429466B2 (en) Image processing apparatus, control method therefor, imaging apparatus, and program
JP4830585B2 (en) Image processing apparatus and image processing method
JP2007025863A (en) Photographing system, photographing method, and image processing program
WO2015198592A1 (en) Information processing device, information processing method, and information processing program
JP2015019346A (en) Parallax image generator
JP2007323616A (en) Image processor and processing method therefor
JP2007322404A (en) Image processing device and its processing method
JP2022551885A (en) Methods and systems for determining three-dimensional positions of object grip points, local frames of reference and grip patterns
CN113436264B (en) Pose calculation method and system based on monocular and monocular hybrid positioning
CN111882601B (en) Positioning method, device and equipment
JP2009048305A (en) Shape analysis program and shape analysis apparatus
WO2019058487A1 (en) Three-dimensional reconstructed image processing device, three-dimensional reconstructed image processing method, and computer-readable storage medium having three-dimensional reconstructed image processing program stored thereon

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110215

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110419

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110905

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees