JP4866793B2 - Object recognition apparatus and object recognition method - Google Patents

Object recognition apparatus and object recognition method Download PDF

Info

Publication number
JP4866793B2
JP4866793B2 JP2007150226A JP2007150226A JP4866793B2 JP 4866793 B2 JP4866793 B2 JP 4866793B2 JP 2007150226 A JP2007150226 A JP 2007150226A JP 2007150226 A JP2007150226 A JP 2007150226A JP 4866793 B2 JP4866793 B2 JP 4866793B2
Authority
JP
Japan
Prior art keywords
image
eigenvector
vector
cut
state estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007150226A
Other languages
Japanese (ja)
Other versions
JP2008305059A (en
Inventor
昌之 小畑
Original Assignee
安川情報システム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 安川情報システム株式会社 filed Critical 安川情報システム株式会社
Priority to JP2007150226A priority Critical patent/JP4866793B2/en
Publication of JP2008305059A publication Critical patent/JP2008305059A/en
Application granted granted Critical
Publication of JP4866793B2 publication Critical patent/JP4866793B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、ビデオカメラなどで撮影した監視対象物の位置をリアルタイムで高速認識するための物体認識装置および物体認識方法に関する。   The present invention relates to an object recognition apparatus and an object recognition method for quickly recognizing the position of a monitoring object photographed with a video camera or the like in real time.

ビデオカメラなどで撮影された動画像中から、任意の形状を持つ3次元物体を画像処理して、特定の監視対象物をリアルタイムで認識させる場合、カメラと物体(監視対象物)の位置関係によって、カメラで撮影された監視対象物の見かけの画像が様々に変化するという問題に対応しなければならない。このような認識方法は、大きく分けて幾何モデルとの比較を行う方法と、テンプレートマッチングに基づく方法に分類することができる。   When a three-dimensional object having an arbitrary shape is image-processed from moving images taken by a video camera or the like to recognize a specific monitoring target in real time, depending on the positional relationship between the camera and the object (monitoring target) The problem that the apparent image of the monitored object photographed by the camera changes variously must be dealt with. Such recognition methods can be broadly classified into a method for comparing with a geometric model and a method based on template matching.

幾何モデルとの比較に基づく方法は、監視対象物の幾何モデルをあらかじめ記憶し、取得した画像中の物体の構造を解析し、記憶された幾何モデルとの比較を行うことで監視対象物を認識する。幾何モデルとの比較は、画像中における監視対象物の形状が複雑な場合に、その監視対象物を正確にモデリングすることが困難であり、さらに幾何モデルの複雑さが画像処理等における計算コストを増加させるという問題を有する。   The method based on comparison with the geometric model stores the geometric model of the monitored object in advance, analyzes the structure of the object in the acquired image, and recognizes the monitored object by comparing with the stored geometric model To do. In comparison with a geometric model, it is difficult to accurately model the monitoring target when the shape of the monitoring target in the image is complicated. Further, the complexity of the geometric model reduces the calculation cost in image processing. Has the problem of increasing.

一方、テンプレートマッチングに基づく方法は、監視対象物の様々に変化する見かけ画像をテンプレート画像としてあらかじめ記憶し、取得した画像と記憶されたテンプレート画像をマッチングさせるので、監視対象物の形状の複雑さに依存しないという利点を有する。しかしながら、この方法はマッチング処理のために多様な画像をテンプレート画像として大量に記憶しておかなければならないので、必要とされる記憶容量が増加するとともに、マッチングのための画像処理等に要する時間が長いという問題点がある。このため、このような問題点を解決するためのさまざまなアプローチが試みられてきた。   On the other hand, in the method based on template matching, apparent images that change variously of the monitoring target are stored in advance as template images, and the acquired image is matched with the stored template image. It has the advantage of not relying on it. However, since this method has to store a large amount of various images as template images for matching processing, the required storage capacity increases and the time required for image processing for matching, etc. There is a problem that it is long. For this reason, various approaches have been tried to solve such problems.

このようなアプローチの一つとして、主成分分析を利用してマッチング処理を行う方法がある。主成分分析とは、多変量の計測値から、その特性を少数の合成変数で説明するといった多変量データ解析による手法であり、画像圧縮等の情報圧縮やパターン認識のための特徴抽出等の多くの分野で利用されている。マッチング処理による物体認識において主成分分析を利用する場合には、マッチング処理のためのテンプレート画像を低次元の固有ベクトルとして圧縮し、これを辞書データとして保持することで、記憶すべきデータ容量を低減することができる。   As one of such approaches, there is a method of performing matching processing using principal component analysis. Principal component analysis is a method based on multivariate data analysis, in which the characteristics of a multivariate measurement are explained by a small number of synthetic variables. Many methods such as information compression such as image compression and feature extraction for pattern recognition are used. It is used in the field of When using principal component analysis in object recognition by matching processing, the template image for matching processing is compressed as a low-dimensional eigenvector and stored as dictionary data to reduce the data volume to be stored. be able to.

また、主成分分析を用いた物体認識においては、非特許文献1に記載された技術が知られている。テンプレート画像から主成分分析を用いて低次元の固有ベクトルとして圧縮し辞書データを作成しておき、辞書データを用いて動画像中から3次元物体の認識を行うという方法が開示されている。   In object recognition using principal component analysis, a technique described in Non-Patent Document 1 is known. A method of compressing a template image as a low-dimensional eigenvector using principal component analysis to create dictionary data and recognizing a three-dimensional object from a moving image using the dictionary data is disclosed.

すなわち、非特許文献1では、特定の物体たる監視対象物の位置や姿勢を認識するために、あらかじめ、回転等により変化する見かけ画像をテンプレートとして複数枚撮影して、各画像について画像の固有ベクトルを求めておき、物体認識の段階では、リアルタイムで取得した画像を切り出して、切り出した画像を固有ベクトルで張られた空間に投影したときに求められる特性値を算出して、切り出した画像内に特定の物体が含まれているか否かを判断するとともに、特定の物体が含まれていない場合には、取得した画像の切り出しをやり直し、特定の物体が含まれている場合には、切り出した画像がどのテンプレート画像に類似しているかを判別するという固有空間法によるパターンマッチングに関する技術が開示されている。   That is, in Non-Patent Document 1, in order to recognize the position and orientation of a monitoring object that is a specific object, a plurality of apparent images that change due to rotation or the like are captured in advance as templates, and the eigenvectors of the images for each image are obtained. In the object recognition stage, an image acquired in real time is cut out, a characteristic value obtained when the cut out image is projected onto a space spanned by eigenvectors, and a specific value is calculated in the cut out image. It is determined whether or not an object is included, and if a specific object is not included, the obtained image is cut out again. If a specific object is included, which one is cut out A technique related to pattern matching by an eigenspace method of determining whether or not a template image is similar is disclosed.

村瀬ら:「2次元照合による3次元物体認識―パラメトリック固有空間法―」(信学論,Vol.J77-D-II,No.11,pp.2179-2187,1994)Murase et al: "3D object recognition by 2D collation-parametric eigenspace method" (Science Theory, Vol.J77-D-II, No.11, pp.2179-2187,1994)

このように、パラメトリック固有空間法によれば、テンプレート画像の画像情報が固有ベクトルを用いることによって低次元化できるので、学習させておくために必要な情報量を抑えることができる。   As described above, according to the parametric eigenspace method, the image information of the template image can be reduced in dimension by using the eigenvector, so that the amount of information necessary for learning can be suppressed.

そして、非特許文献2では、各時刻における状態ベクトルを逐次的に推定する手法としてパーティクルフィルタに関する技術が開示されている。
パーティクルフィルタでは、独立な実現値とみなせる多数のパーティクル(=状態ベクトル)を発生させ、各パーティクルについて、次の状態を近似によって推定し(手順a)、 更に次の状態として残すべきパーティクルを、そのパーティクルを確率分布に従ってリサンプリングし(手順b)、この手順a, 手順bを繰り返すことで、各時刻における状態ベクトルが逐次的に推定される。
And in the nonpatent literature 2, the technique regarding a particle filter is disclosed as a method of estimating the state vector in each time sequentially.
The particle filter generates a large number of particles (= state vectors) that can be regarded as independent realization values, estimates the next state for each particle by approximation (step a), and further determines the particles that should remain as the next state. The state vector at each time is sequentially estimated by resampling the particles according to the probability distribution (procedure b) and repeating steps a and b.

樋口:「解説 粒子フィルタ」(信学論,Vol.88,No.12,pp.989-994,2005)Higuchi: "Explanation Particle Filter" (Science Theory, Vol.88, No.12, pp.989-994,2005)

パーティクルフィルタによって推定されたパーティクルが有する状態ベクトルと実際に撮影した監視対象物が有する特性ベクトルの両者を比較することで、比較させる対象を少なくすることができ、パラメトリック固有空間法よりも少ない計算量で、監視対象物の位置を推定できる。   By comparing both the state vector of the particle estimated by the particle filter and the characteristic vector of the actual captured object, the number of objects to be compared can be reduced, and the amount of calculation is less than that of the parametric eigenspace method. Thus, the position of the monitoring object can be estimated.

ところが、前述した技術では次のような問題がある。
非特許文献1の固有空間法によって、特定の物体を認識させようとすると、撮影した画像とテンプレート画像を比較しなければならず、撮影された画像のどの範囲に監視対象物が存在するかを確認する作業(たとえば、撮影した画像から監視対象物の中心位置を求めるといった作業等)が必要となってくる。監視対象物の中心位置が判らない場合には、撮影した画像を複数切り出して、その切り出した画像のそれぞれについてテンプレート画像との比較を行わなければならず、画像処理における計算量を増大させてしまう。
However, the above-described technique has the following problems.
When a specific object is to be recognized by the eigenspace method of Non-Patent Document 1, the captured image must be compared with the template image, and in which range of the captured image the monitoring target exists. An operation to confirm (for example, an operation to obtain the center position of the monitoring object from the captured image) is required. If the center position of the monitoring object is not known, a plurality of captured images must be cut out, and each of the cut out images must be compared with a template image, which increases the amount of calculation in image processing. .

また、非特許文献2のパーティクルフィルタでも、監視対象物の中心位置が判らない場合には、その監視対象物の次タイミングにおける位置についてパーティクルを以って推定することが出来ず、監視対象物に追跡させることが困難となる。特に、動きのある監視対象物に対しては、これをリアルタイムで追跡することが困難であるという問題があった。   In addition, even in the particle filter of Non-Patent Document 2, when the center position of the monitoring target is not known, the position at the next timing of the monitoring target cannot be estimated with particles, and the monitoring target It will be difficult to track. In particular, there is a problem that it is difficult to track a moving object to be monitored in real time.

そこで、本発明は、ビデオカメラなどで撮影した監視対象物の位置を高速認識し、特に動きのある監視対象物をリアルタイムで追従することができる物体認識装置および物体認識方法を提供する。   Therefore, the present invention provides an object recognition apparatus and an object recognition method that can rapidly recognize the position of a monitoring object photographed by a video camera or the like and can follow a moving monitoring object in real time.

本発明は、監視対象物またはその三次元モデルを回転させて得た複数のテンプレート画像の画像情報からテンプレート画像固有ベクトルを求めて、テンプレート画像固有ベクトル記憶部11にあらかじめ記憶させておき、実画像情報を所定の時間間隔で記憶する画像情報記憶部12と、実画像情報とテンプレート画像固有ベクトルとを比較して監視対象物の位置を特定する固有空間法状態推定部13と、パーティクルフィルタ法によって監視対象物の位置を特定するパーティクルフィルタ法状態推定部14と、固有空間法状態推定部13とパーティクルフィルタ法状態推定部14の切り替えを行う推定方法切替部15とにより、監視対象物の位置をリアルタイムで認識するものである。   The present invention obtains a template image eigenvector from image information of a plurality of template images obtained by rotating a monitoring object or a three-dimensional model thereof, and stores the template image eigenvector in advance in the template image eigenvector storage unit 11 so that actual image information is stored. An image information storage unit 12 that stores at a predetermined time interval, an eigenspace method state estimation unit 13 that compares the real image information and the template image eigenvector to identify the position of the monitoring object, and a monitoring object by the particle filter method The position of the monitoring object is recognized in real time by the particle filter method state estimation unit 14 that identifies the position of the object and the estimation method switching unit 15 that switches between the eigenspace method state estimation unit 13 and the particle filter method state estimation unit 14 To do.

すなわち、第1の発明にかかる物体認識装置は、監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出しておき、前記固有ベクトルを記憶するテンプレート画像固有ベクトル記憶部11と、所定の時間間隔で撮影された画像を実画像情報として記憶する実画像情報記憶部12と、前記実画像情報を所定の大きさで複数切り出して、切り出された画像の画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えて、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定する固有空間法状態推定部13と、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成し、前記実画像情報を前記位置候補に基づいてそれぞれ切り出して、その画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えて、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定するパーティクルフィルタ法状態推定部14と、前記固有空間法状態推定部13により該監視対象物の位置を特定できた場合には、次のタイミングで撮影される該監視対象物の位置の特定を前記パーティクルフィルタ法状態推定部14で行わせるようにし、前記パーティクルフィルタ法状態推定部14により該監視対象物の位置を特定できなかった場合には、次のタイミングで撮影される監視対象物の位置の特定を前記固有空間法状態推定部13で行わせる推定方法切替部15と、を備えるものである。   That is, the object recognition apparatus according to the first aspect of the present invention captures or displays a monitored object or a three-dimensional model thereof from a plurality of angles, replaces the image information displayed or captured with a matrix display, and converts an eigenvector for the matrix. A template image eigenvector storage unit 11 that stores the eigenvector in advance, stores an image taken at a predetermined time interval as real image information, and stores the real image information in a predetermined format. A plurality of sizes are cut out, the image information of the cut out image is replaced with a vector display as a cut-out image vector, and the cut-out image vector is compared with the eigenvector, respectively. A set of an output image vector and the eigenvector is obtained, and the actual image information corresponding to the extracted image vector is extracted. Based on the position, the eigenspace method state estimation unit 13 that identifies the position of the monitoring object and a particle filter method generate a plurality of particles that are position candidates of the monitoring object, and the real image information is based on the position candidates. Each of the image information is replaced with a vector display as a cut-out image vector, the cut-out image vector and the eigenvector are respectively compared, and the cut-out image vector and the eigenvector having the highest similarity are compared. The particle filter method state estimating unit 14 for specifying the position of the monitoring object from the position candidates corresponding to the cut-out image vector and the eigenspace method state estimating unit 13 determine the position of the monitoring object. When the position can be specified, the position of the monitoring object photographed at the next timing is specified by the particle filter. The state estimation unit 14 is configured to perform the identification, and when the particle filter method state estimation unit 14 cannot identify the position of the monitoring object, the position of the monitoring object to be photographed at the next timing is specified. And an estimation method switching unit 15 to be performed by the eigenspace method state estimation unit 13.

また、第2の発明に係る物体認識装置は、第1の発明の構成に加え、前記パーティクルフィルタ法状態推定部14は、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成したあとで、各パーティクルを(T(t+1)-T(t))・V(t) (ただし、V(t)は特定された該監視対象物の位置から算出した速度ベクトル、T(t+1)-T(t)は次のタイミングで撮影されるまでの撮影時間間隔)だけ平行移動させることを特徴とするものである。   In addition to the configuration of the first invention, the object recognizing device according to the second invention generates a plurality of particles that are candidate positions of the monitoring object by the particle filter method, using the particle filter method state estimation unit 14 Later, each particle is expressed as (T (t + 1) -T (t)) · V (t) (where V (t) is a velocity vector calculated from the position of the specified monitoring object, T (t +1) -T (t) is characterized by being translated by an imaging time interval until imaging is performed at the next timing.

また、第3の発明に係る物体認識装置は、第1の発明または第2の発明の構成に加え、監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出するほか、前記画像情報を拡大または縮小した、拡大画像情報または縮小画像情報を行列表示に置き換え、その行列に対する拡大画像固有ベクトルまたは縮小画像固有ベクトルをあらかじめ算出しておき、前記テンプレート画像固有ベクトル記憶部11では、前記固有ベクトルのほか、前記拡大画像固有ベクトルまたは前記縮小画像固有ベクトルがあわせて記憶され、前記固有空間法状態推定部13では、前記切出画像ベクトルの切出し位置に応じて、(1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、(2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、もしくは、(3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、のいずれかを選択し、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定し、前記パーティクルフィルタ法状態推定部14では、前記切出画像ベクトルの切出し位置に応じて、(1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、(2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、もしくは、(3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、のいずれかを選択し、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定することを特徴とするものである。   In addition to the configuration of the first invention or the second invention, the object recognition device according to the third invention is photographed or displayed by photographing or displaying the monitoring object or its three-dimensional model from a plurality of angles. In addition to calculating the eigenvector for the matrix in advance, the enlarged image information or reduced image information obtained by enlarging or reducing the image information is replaced with the matrix display, and the enlarged image eigenvector or reduced image for the matrix is replaced with the matrix display. An eigenvector is calculated in advance, and the template image eigenvector storage unit 11 stores the enlarged image eigenvector or the reduced image eigenvector together with the eigenvector, and the eigenspace method state estimation unit 13 stores the cutout eigenvector. According to the cutout position of the image vector, (1) the cutout image vector Each of the extracted image vector and the eigenvector is compared to obtain a set of the extracted image vector and the eigenvector having the highest similarity, or (2) the extracted image vector and the enlarged image eigenvector are respectively compared. Determining a set of the cutout image vector and the enlarged image eigenvector having the highest similarity, or (3) comparing the cutout image vector and the reduced image eigenvector, respectively, Select either a high set of the cutout image vector and the reduced image eigenvector, and specify the position of the monitoring object from the cutout position of the real image information corresponding to the cutout image vector. In the particle filter method state estimation unit 14, (1) each of the cut-out image vector and the eigenvector is set in accordance with the cut-out position of the cut-out image vector. In comparison, the combination of the cutout image vector and the eigenvector having the highest similarity is obtained, or (2) the cutout image vector and the enlarged image eigenvector are respectively compared, and the similarity is highest. Obtaining a set of the cut-out image vector and the enlarged image eigenvector, or (3) comparing the cut-out image vector and the reduced image eigenvector, respectively, One of whether to obtain a set of reduced image eigenvectors is selected, and the position of the monitoring object is specified from the position candidates corresponding to the cut-out image vector.

また、第4の発明に係る物体認識装置は、第1の発明ないし第3の発明の構成に加え、前記固有空間法状態推定部13は、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定し、前記パーティクルフィルタ法状態推定部14は、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記位置候補から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定することを特徴とするものである。   Further, in the object recognition device according to a fourth aspect of the invention, in addition to the configurations of the first to third aspects, the eigenspace method state estimation unit 13 includes the cut-out image vector having the highest similarity and the A set of eigenvectors is obtained, the position of the monitoring object is specified from the cut-out position of the real image information corresponding to the cut-out image vector, and the monitoring object is determined from the shooting angle or display angle of the image information corresponding to the eigenvector The angle of the object is specified, and the particle filter state estimation unit 14 obtains a set of the extracted image vector and the eigenvector having the highest similarity, and performs the monitoring from the position candidates corresponding to the extracted image vector. The position of the object is specified, and the angle of the monitoring object is specified from the shooting angle or display angle of the image information corresponding to the eigenvector. It is.

また、第5の発明に係る物体認識装置は、第4の発明の構成に加え、前記パーティクルフィルタ法状態推定部14は、パーティクルフィルタ法により監視対象物の位置候補となるパーティクルを複数生成するにあたり、特定された監視対象物の角度に応じて該監視対象物の進行方向を予測し、特定された監視対象物の位置を中心にして前記進行方向を長軸とする楕円の範囲内で前記パーティクルを移動させることを特徴とするものである。   In addition to the configuration of the fourth invention, in addition to the configuration of the fourth invention, the object recognizing device according to the fifth invention is such that the particle filter method state estimation unit 14 generates a plurality of particles that are position candidates for the monitoring object by the particle filter method. Predicting the traveling direction of the monitored object according to the angle of the identified monitored object, and the particles within an ellipse range centering on the position of the identified monitored object and having the traveling direction as a major axis It is characterized by moving.

また、第6の発明に係る物体認識方法は、監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルを記憶するテンプレート画像固有ベクトル記憶ステップS11と、所定の時間間隔で撮影された画像を実画像情報として記憶する実画像情報記憶ステップS12と、前記実画像情報を所定の大きさで複数切り出すステップS13a、切り出された画像の画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えるステップS13b、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定するステップS13c、を含んだ固有空間法状態推定ステップS13と、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成するステップS14a、前記実画像情報を前記位置候補に基づいてそれぞれ切り出して、その画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えるステップS14b、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるステップS14c、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定するステップS14d、を含んだパーティクルフィルタ法状態推定ステップS14と、固有空間法状態推定ステップS13により該監視対象物の位置を特定できた場合には、次のタイミングで撮影される該監視対象物の位置の特定をパーティクルフィルタ法状態推定ステップS14で行わせるように切り替えるステップS15a、パーティクルフィルタ法状態推定ステップS14により該監視対象物の位置を特定できなかった場合には、次のタイミングで撮影される該監視対象物の位置の特定を固有空間法状態推定ステップS13で行わせるように切り替えるステップS15b、を含んだ推定方法切替ステップS15と、によって、監視対象物の位置を特定させるものである。   In addition, the object recognition method according to the sixth aspect of the present invention is to capture or display a monitoring object or a three-dimensional model thereof from a plurality of angles, replace the image information captured or displayed with a matrix display, and change an eigenvector for the matrix. A template image eigenvector storage step S11 to be stored, a real image information storage step S12 to store images taken at predetermined time intervals as real image information, a step S13a for cutting out a plurality of the real image information in a predetermined size, and cut out In step S13b, the image information of the extracted image is replaced with a vector display as a cut-out image vector, and the cut-out image vector and the eigenvector are compared with each other by comparing the cut-out image vector with the eigenvector. Finding a set and cutting out the actual image information corresponding to the cut-out image vector A step S13c including an eigenspace method state estimation step S13c for identifying the position of the monitoring object from the position, a step S14a for generating a plurality of particles as position candidates for the monitoring object by the particle filter method, Step S14b in which image information is cut out based on the position candidates, and the image information is replaced with a vector display as a cut-out image vector. The cut-out image vector is compared with the eigenvector, and the similarity is the highest. Particle filter method state estimation step including step S14c for obtaining a set of the high cut-out image vector and the eigenvector, and step S14d for specifying the position of the monitoring object from the position candidates corresponding to the cut-out image vector. S14 and eigenspace method state estimation step S13 If the position of the monitoring object can be identified more, step S15a for switching the position of the monitoring object to be imaged at the next timing to be performed in the particle filter method state estimation step S14, the particle filter method If the position of the monitoring object cannot be specified in the state estimation step S14, the switching is performed so that the position of the monitoring object captured at the next timing is specified in the eigenspace method state estimation step S13. The position of the monitoring object is specified by the estimation method switching step S15 including S15b.

また、第7の発明に係る物体認識方法は、第6の発明の手順に加え、前記パーティクルフィルタ法状態推定ステップS14のステップS14aでは、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成したあとで、各パーティクルを(T(t+1)-T(t))・V(t) (ただし、V(t)は特定された該監視対象物の位置から算出した速度ベクトル、T(t+1)-T(t)は次のタイミングで撮影されるまでの撮影時間間隔)だけ平行移動させることを特徴とするものである。   Further, in the object recognition method according to the seventh invention, in addition to the procedure of the sixth invention, in step S14a of the particle filter method state estimation step S14, particles serving as position candidates for the monitoring object are detected by the particle filter method. After generating a plurality of particles, each particle is represented by (T (t + 1) -T (t)) / V (t) (where V (t) is a velocity vector calculated from the position of the identified monitoring object, T (t + 1) −T (t) is characterized in that it is moved in parallel by an imaging time interval until imaging is performed at the next timing.

また、第8の発明に係る物体認識方法は、第6の発明または第7の発明の手順に加え、前記テンプレート画像固有ベクトル記憶ステップS11では、監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出するほか、前記画像情報を拡大または縮小した、拡大画像情報または縮小画像情報を行列表示に置き換え、その行列に対する拡大画像固有ベクトルまたは縮小画像固有ベクトルをあらかじめ算出して、前記固有ベクトルのほか、前記拡大画像固有ベクトルまたは前記縮小画像固有ベクトルをあわせて記憶し、前記固有空間法状態推定ステップS13のステップS13cでは、前記切出画像ベクトルの切出し位置に応じて、(1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、(2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、もしくは、(3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、のいずれかを選択し、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定し、前記パーティクルフィルタ法状態推定ステップS14のステップS14cでは、前記切出画像ベクトルの切出し位置に応じて、(1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、(2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、もしくは、(3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、のいずれかを選択し、前記パーティクルフィルタ法状態推定ステップS14のステップS14dでは、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定することを特徴とするものである。   Further, in the object recognition method according to the eighth invention, in addition to the procedure of the sixth invention or the seventh invention, in the template image eigenvector storage step S11, the monitoring object or its three-dimensional model is photographed from a plurality of angles. Or, display and replace the image information captured or displayed with a matrix display, calculate the eigenvector for the matrix in advance, expand or reduce the image information, replace the enlarged image information or reduced image information with a matrix display, An enlarged image eigenvector or reduced image eigenvector for the matrix is calculated in advance, and the enlarged image eigenvector or the reduced image eigenvector is stored together with the eigenvector. In step S13c of the eigenspace method state estimation step S13, At the cutout position of the cutout image vector Then, (1) each of the cutout image vector and the eigenvector is compared to obtain a set of the cutout image vector and the eigenvector having the highest similarity, or (2) the cutout image vector and Each of the enlarged image eigenvectors is compared to obtain a set of the extracted image vector and the enlarged image eigenvector having the highest similarity, or (3) the extracted image vector and the reduced image eigenvector Each of the comparisons is to select a set of the cutout image vector and the reduced image eigenvector having the highest similarity, and from the cutout position of the real image information corresponding to the cutout image vector The position of the monitoring object is specified, and in step S14c of the particle filter method state estimation step S14, the position of the cut-out image vector is determined according to the cut-out position of the cut-out image vector. (1) The clipped image vector and the eigenvector are respectively compared to obtain a set of the clipped image vector and the eigenvector having the highest similarity, or (2) the clipped image vector and the enlarged image Each image eigenvector is compared with each other to obtain a set of the extracted image vector and the enlarged image eigenvector having the highest similarity, or (3) each of the extracted image vector and the reduced image eigenvector is compared. Then, it is selected whether to obtain a set of the cutout image vector and the reduced image eigenvector having the highest similarity. In step S14d of the particle filter method state estimation step S14, the cutout image vector is selected. The position of the monitoring object is specified from the position candidates corresponding to the above.

また、第9の発明に係る物体認識方法は、第6の発明ないし第8の発明の手順に加え、前記固有空間法状態推定ステップS13のステップS13cでは、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定し、前記パーティクルフィルタ法状態推定ステップS14のステップS14dでは、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記位置候補から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定することによって、監視対象物の位置および角度を特定させることを特徴とするものである。   Further, the object recognition method according to the ninth invention is the cut-out image having the highest similarity in step S13c of the eigenspace method state estimation step S13 in addition to the procedures of the sixth invention to the eighth invention. A set of a vector and the eigenvector is obtained, the position of the monitoring object is specified from the cut-out position of the real image information corresponding to the cut-out image vector, and from the shooting angle or display angle of the image information corresponding to the eigenvector The angle of the monitoring object is specified, and in step S14d of the particle filter method state estimation step S14, a set of the cutout image vector and the eigenvector having the highest similarity is obtained, and the cutout image vector corresponds to the cutout image vector. The position of the monitoring object is specified from the position candidates, and the shooting angle or table of image information corresponding to the eigenvector is displayed. By identifying the angle of the monitoring target object from an angle, and is characterized in that to identify the position and angle of the monitored object.

また、第10の発明に係る物体認識方法は、第9の発明の手順に加え、前記パーティクルフィルタ法状態推定ステップS14のステップS14aでは、パーティクルフィルタ法により監視対象物の位置候補となるパーティクルを複数生成するにあたり、特定された監視対象物の角度に応じて該監視対象物の進行方向を予測し、特定された監視対象物の位置を中心にして前記進行方向を長軸とする楕円の範囲内で前記パーティクルを移動させることによって、監視対象物の位置および角度を特定させることを特徴とするものである。   Further, in the object recognition method according to the tenth invention, in addition to the procedure of the ninth invention, in step S14a of the particle filter method state estimation step S14, a plurality of particles that are position candidates of the monitoring object are detected by the particle filter method. In the generation, the traveling direction of the monitoring object is predicted according to the angle of the identified monitoring object, and is within the range of an ellipse having the traveling direction as a major axis centering on the position of the identified monitoring object. The position and angle of the monitoring object are specified by moving the particles.

本発明第1の構成による物体認識装置(または本発明第6の手順による物体認識方法)によれば、固有空間法状態推定部13(または固有空間法状態推定ステップS13)とパーティクルフィルタ法状態推定部14(またはパーティクルフィルタ法状態推定ステップS14)の二つを設けると共に、これらを切り替える推定方法切替部15(または推定方法切替ステップS15)を設けることで、最初の段階あるいはパーティクルフィルタ法状態推定部14(またはパーティクルフィルタ法状態推定ステップS14)での位置推定が失敗したときには、固有空間法状態推定部13(または固有空間法状態推定ステップS13)によって、撮影された画像の広い範囲からの位置推定を行うと共に、位置推定が出来た後は、パーティクルフィルタ法状態推定部14(またはパーティクルフィルタ法状態推定ステップS14)によって、高速の位置推定(監視対象物のリアルタイム認識)を継続させることが出来る。   According to the object recognition device according to the first configuration of the present invention (or the object recognition method according to the sixth procedure of the present invention), the eigenspace method state estimation unit 13 (or eigenspace method state estimation step S13) and the particle filter method state estimation. Two parts 14 (or particle filter method state estimation step S14) and an estimation method switching unit 15 (or estimation method switching step S15) for switching between them are provided, so that the first stage or the particle filter method state estimation unit 14 (or particle filter method state estimation step S14), if the position estimation fails, the eigenspace method state estimation unit 13 (or eigenspace method state estimation step S13) estimates the position of the captured image from a wide range. After the position is estimated, the particle filter By the state estimation unit 14 (or particle filter method state estimating step S14), (Real-time recognition of the monitored object) Fast location estimate can be continued.

また、本発明第2の構成による物体認識装置(または本発明第7の手順による物体認識方法)によれば、特定された監視対象物の位置から速度を算出し、その速度に応じて各パーティクルを平行移動させることで、動きのある測定対象物の位置追従を高い精度で行わせることが出来る。   Further, according to the object recognition apparatus (or the object recognition method according to the seventh procedure of the present invention) of the second configuration of the present invention, the velocity is calculated from the position of the specified monitoring target, and each particle is determined according to the velocity. Can be moved with high accuracy by moving the measurement object in motion.

また、本発明第3の構成による物体認識装置(または本発明第8の手順による物体認識方法)によれば、撮影された位置によって見かけ上の大きさが異なる監視対象物に対して、大きさの異なるテンプレート画像を用意し、これらの固有ベクトルをそれぞれ記憶させておき、固有空間法状態推定部13(または固有空間法状態推定ステップS13)やパーティクルフィルタ法状態推定部14(パーティクルフィルタ法状態推定ステップS14)で類似性を比較するにあたり実画像情報を切り出した位置に対応する大きさのテンプレート画像の固有ベクトルを用いることで広い範囲を対象とした監視対象物の位置認識が実現される。   In addition, according to the object recognition device according to the third configuration of the present invention (or the object recognition method according to the eighth procedure of the present invention), the size of the monitoring object whose apparent size varies depending on the captured position. Template images with different eigenvectors are prepared and these eigenvectors are stored respectively, and the eigenspace method state estimation unit 13 (or eigenspace method state estimation step S13) or the particle filter method state estimation unit 14 (particle filter method state estimation step). In comparing the similarities in S14), the position recognition of the monitoring object for a wide range is realized by using the eigenvector of the template image having a size corresponding to the position where the actual image information is cut out.

また、本発明第4の構成による物体認識装置(または本発明第9の手順による物体認識方法)によれば、固有空間法状態推定部13(固有空間法状態推定ステップS13)やパーティクルフィルタ法状態推定部14(パーティクルフィルタ法状態推定ステップS14)で、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その固有ベクトルに対応する画像情報の撮影角度または表示角度を求めることで、該監視対象物の角度を特定することが出来る。   Further, according to the object recognition apparatus (or the object recognition method according to the ninth procedure of the present invention) according to the fourth configuration of the present invention, the eigenspace method state estimation unit 13 (eigenspace method state estimation step S13) and the particle filter method state In the estimation unit 14 (particle filter method state estimation step S14), a pair of a cutout image vector and an eigenvector having the highest similarity is obtained, and a shooting angle or a display angle of image information corresponding to the eigenvector is obtained. The angle of the monitoring object can be specified.

また、本発明第5の構成による物体認識装置(または本発明第10の手順による物体認識方法)によれば、監視対象物の位置と角度を特定して、監視対象物の移動方向を予測し、パーティクルフィルタ法において次タイミングにおけるパーティクルを、監視対象物の移動方向を長軸とする楕円の範囲内で移動させることで、パーティクルフィルタ法による粒子の数を抑える(または粒子を高密度化させる)ことができ、監視対象物の位置推定の高速化(または高精度化)が実現される。   In addition, according to the object recognition device (or the object recognition method according to the tenth procedure of the present invention) of the fifth configuration of the present invention, the movement direction of the monitoring target is predicted by specifying the position and angle of the monitoring target. In the particle filter method, the number of particles by the particle filter method is reduced (or the particles are densified) by moving particles at the next timing within an ellipse range whose major axis is the moving direction of the monitored object. Thus, the speed (or accuracy) of the position estimation of the monitoring object is realized.

本発明を実施するための形態を実施例1および実施例2にて説明する。   Embodiments for carrying out the present invention will be described in Embodiment 1 and Embodiment 2.

本発明の実施例1について図1〜図5に基づいて説明する。
図1は実施例1による物体認識装置の構成を示す説明図である。物体認識装置1は、撮影装置(ビデオカメラ)10と接続され、撮影装置10が撮影した監視対象物の位置をリアルタイムにて特定する。内部にはテンプレート画像固有ベクトル記憶部11、実画像情報記憶部12、固有空間法状態推定部13、パーティクルフィルタ法状態推定部14および推定方法切替部15を備える。
A first embodiment of the present invention will be described with reference to FIGS.
FIG. 1 is an explanatory diagram illustrating the configuration of the object recognition apparatus according to the first embodiment. The object recognition device 1 is connected to a photographing device (video camera) 10 and specifies the position of a monitoring object photographed by the photographing device 10 in real time. A template image eigenvector storage unit 11, a real image information storage unit 12, an eigenspace method state estimation unit 13, a particle filter method state estimation unit 14, and an estimation method switching unit 15 are provided inside.

図示による説明は省略するが、物体認識装置1を実現するハードウエア構成の一例としては、メモリ、中央演算装置(CPU)、キャプチャボードを供えたパーソナルコンピュータが考えられる。撮影装置10で撮影された画像はキャプチャボードによりパーソナルコンピュータ上に取り込まれる。メモリには、テンプレート画像固有ベクトル記憶部11および実画像情報記憶部12に相当する記憶領域があり、さらに、固有空間法状態推定部13、パーティクルフィルタ法状態推定部14および推定方法切替部15の演算用メモリ・プログラムなどが記憶されている。固有空間法状態推定部13、パーティクルフィルタ法状態推定部14および推定方法切替部15の演算処理はCPUにて行い、メモリに記憶されたプログラムに基づいて行われる。   Although description by illustration is abbreviate | omitted, as an example of the hardware constitutions which implement | achieve the object recognition apparatus 1, the personal computer provided with memory, central processing unit (CPU), and the capture board can be considered. An image photographed by the photographing apparatus 10 is captured on a personal computer by a capture board. The memory has storage areas corresponding to the template image eigenvector storage unit 11 and the real image information storage unit 12, and further, operations of the eigenspace method state estimation unit 13, the particle filter method state estimation unit 14, and the estimation method switching unit 15. Memory programs and so on are stored. The arithmetic processing of the eigenspace method state estimation unit 13, the particle filter method state estimation unit 14, and the estimation method switching unit 15 is performed by the CPU, and is performed based on a program stored in the memory.

実施例1により監視対象物の位置を特定させるためには、監視対象物を複数の角度から撮影して、撮影された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出しておき、テンプレート画像固有ベクトル記憶部11に、その算出された固有ベクトルを記憶させておく。なお、画像情報は、監視対象物の三次元モデルを複数の角度から表示して、表示された画像情報を用いることによって作成しても良い。   In order to specify the position of the monitoring object according to the first embodiment, the monitoring object is captured from a plurality of angles, the captured image information is replaced with a matrix display, and an eigenvector for the matrix is calculated in advance. The template image eigenvector storage unit 11 stores the calculated eigenvector. Note that the image information may be created by displaying a three-dimensional model of the monitoring object from a plurality of angles and using the displayed image information.

テンプレート画像の固有ベクトルの求め方は次の通りである。すなわち、監視対象物(または監視対象物の三次元モデル)をあらかじめ色々な角度から撮影(または表示)し、その画像データをPi (1≦i≦d)とする。ここで、dは撮影したテンプレート画像の枚数、Piはm×n画素の画像データであって、xij(1≦j≦J=m×n)を画像データPiのj番目の画素値としたときに、xi=(xi1,xi2,…,xiJ)Tとおくと、xiはJ次元ベクトルとなる。なお、xiは、その大きさが|xi|=1となるように、正規化の処理を行っておき、各成分xij(1≦i≦d,1≦j≦J)の平均値をmとおく。 The method for obtaining the eigenvector of the template image is as follows. That is, a monitoring object (or a three-dimensional model of the monitoring object) is photographed (or displayed) from various angles in advance, and the image data is defined as P i (1 ≦ i ≦ d). Here, the number of template image d is taken, P i is an image data of m × n pixels, x ij (1 ≦ j ≦ J = m × n) a j-th pixel value of the image data P i X i = (x i1 , x i2 ,..., X iJ ) T , x i becomes a J-dimensional vector. Note that x i is subjected to normalization processing so that the magnitude is | x i | = 1, and the average value of each component x ij (1 ≦ i ≦ d, 1 ≦ j ≦ J) Let m be.

そして、Mをすべての成分がmであるベクトルとし、S=(x1−M,x2−M,…,xd−M)(x1−M,x2−M,…,xd−M) T で定義される共分散行列Sに対して、Sujj ujなる固有値と固有ベクトルの組(λj ,uj)(ただし、λj≧λj+1)を算出し、固有値が大きい順に、固有値と固有ベクトルの組(λj ,uj)をk組(ただし、kはd以下)選び、k個の固有ベクトルから、行列E=(u1,u2,…,uk)を定め、ベクトルgi=ET(xi−M) (1≦i≦d)および行列Eをテンプレート画像固有ベクトルとして、テンプレート画像固有ベクトル記憶部11に記憶させる。 Then, let M be a vector whose components are m, and S = (x 1 −M, x 2 −M,..., X d −M) (x 1 −M, x 2 −M,..., X d − M) For the covariance matrix S defined by T , calculate a pair (λ j , u j ) of eigenvalues and eigenvectors with Su j = λ j u j (where λ j ≧ λ j + 1 ), Choose eigenvalue and eigenvector pairs (λ j , u j ) in the descending order of eigenvalues (where k is less than or equal to d), and matrix E = (u 1 , u 2 ,..., U k from k eigenvectors. ) And the vector g i = E T (x i −M) (1 ≦ i ≦ d) and the matrix E are stored in the template image eigenvector storage unit 11 as template image eigenvectors.

図2は、テンプレート画像の一例を示したものである。監視対象物を10degreeずつ回転させて、36枚の画像を撮影し、そのうち16枚の画像を図2で表示している。図3は、図2と同じテンプレート画像について、共分散行列Sを求め、その固有ベクトルをu1,u2,u3として3つ選び、その固有ベクトルから求まるベクトルgi(1≦i≦36)を三次元表示させたものである。回転などで連続的に変化するテンプレート画像は、連続する2枚の画像間の相関が一般的に強いことから、テンプレート画像を固有空間上に投影すると、図3に示すように滑らかな閉曲線を描く。これは、相関が強い2枚の画像に対応する固有空間上の2点は距離が近くなるという性質のためである。 FIG. 2 shows an example of a template image. The monitored object is rotated by 10 degrees to take 36 images, of which 16 images are displayed in FIG. 3 obtains a covariance matrix S for the same template image as FIG. 2, selects three eigenvectors as u 1 , u 2 , u 3 , and obtains a vector g i (1 ≦ i ≦ 36) obtained from the eigenvectors. Three-dimensional display. A template image that continuously changes due to rotation or the like generally has a strong correlation between two consecutive images. Therefore, when a template image is projected onto an eigenspace, a smooth closed curve is drawn as shown in FIG. . This is because two points on the eigenspace corresponding to two images having strong correlation are close in distance.

実画像情報記憶部12は、所定の時間間隔で撮影された画像を実画像情報として記憶するものである。すなわち、撮影装置10から撮影した画像情報が所定の時間間隔で記録される。   The real image information storage unit 12 stores images taken at predetermined time intervals as real image information. That is, the image information captured from the imaging device 10 is recorded at predetermined time intervals.

固有空間法状態推定部13は、実画像情報を所定の大きさで複数切り出して、切り出された画像の画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えて、その切出画像ベクトルと固有ベクトルとを各々比較して、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その切出画像ベクトルに対応する実画像情報の切出し位置から、該監視対象物の位置を特定するものである。
なお、固有空間法状態推定部13は、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その切出画像ベクトルに対応する実画像情報の切出し位置から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定するようにしてもよい。
The eigenspace method state estimation unit 13 cuts out a plurality of pieces of real image information with a predetermined size, replaces the image information of the cut-out images as cut-out image vectors with vector displays, and extracts the cut-out image vector and the eigenvector. Are compared to each other to obtain a pair of cutout image vectors and eigenvectors having the highest similarity, and the position of the monitoring object is specified from the cutout positions of the real image information corresponding to the cutout image vectors. is there.
The eigenspace method state estimation unit 13 obtains a pair of a cutout image vector and an eigenvector having the highest similarity, and determines the position of the monitoring object from the cutout position of the real image information corresponding to the cutout image vector. In addition to specifying, the angle of the monitoring object may be specified from the imaging angle or display angle of the image information corresponding to the eigenvector.

パーティクルフィルタ法状態推定部14は、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成し、実画像情報を位置候補に基づいてそれぞれ切り出して、その画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えて、切出画像ベクトルと固有ベクトルとを各々比較して、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その切出画像ベクトルに対応する位置候補から、該監視対象物の位置を特定するものである。
なお、パーティクルフィルタ法状態推定部14は、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その切出画像ベクトルに対応する位置候補から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定するようにしてもよい。
The particle filter method state estimation unit 14 generates a plurality of particles as position candidates for the monitoring target by the particle filter method, cuts out the actual image information based on the position candidates, and uses the image information as a cut image vector. Each is replaced with a vector display, and the clipped image vector and the eigenvector are respectively compared to obtain a pair of the clipped image vector and the eigenvector having the highest similarity, and from the position candidates corresponding to the clipped image vector, The position of the monitoring object is specified.
The particle filter method state estimation unit 14 obtains a pair of a cutout image vector and an eigenvector having the highest similarity, specifies the position of the monitoring object from position candidates corresponding to the cutout image vector, You may make it specify the angle of this monitoring target object from the imaging | photography angle or display angle of the image information corresponding to the eigenvector.

推定方法切替部15は、固有空間法状態推定部13により該監視対象物の位置を特定できた場合には、次のタイミングで撮影される該監視対象物の位置の特定をパーティクルフィルタ法状態推定部14で行わせるようにし、パーティクルフィルタ法状態推定部14により該監視対象物の位置を特定できなかった場合には、次のタイミングで撮影される監視対象物の位置の特定を固有空間法状態推定部13で行わせるものである。   When the eigenspace method state estimation unit 13 can identify the position of the monitoring object, the estimation method switching unit 15 determines the position of the monitoring object to be imaged at the next timing using the particle filter method state estimation. If the position of the monitoring object cannot be specified by the particle filter method state estimation unit 14, the position of the monitoring object to be photographed at the next timing is specified in the eigenspace method state. This is performed by the estimation unit 13.

続いて、実施例1による物体認識方法の手順を、図4のフローチャートに従って説明する。   Next, the procedure of the object recognition method according to the first embodiment will be described with reference to the flowchart of FIG.

テンプレート画像固有ベクトル記憶ステップS11では、前述した方法により、監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルを記憶する。
撮影装置10により撮影された画像情報は、実画像情報記憶部12に送られ、実画像情報記憶ステップS12では、所定の時間間隔で撮影された画像を実画像情報として記憶する。
In the template image eigenvector storage step S11, the object to be monitored or its three-dimensional model is photographed or displayed from a plurality of angles by the method described above, the photographed or displayed image information is replaced with a matrix display, and an eigenvector for the matrix is obtained. Remember.
Image information photographed by the photographing apparatus 10 is sent to the real image information storage unit 12, and in the real image information storage step S12, images photographed at predetermined time intervals are stored as real image information.

固有空間法状態推定ステップS13は、実画像情報を所定の大きさで複数切り出すステップS13a、切り出された画像の画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えるステップS13b、切出画像ベクトルと固有ベクトルとを各々比較して、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その切出画像ベクトルに対応する実画像情報の切出し位置から、該監視対象物の位置を特定するステップS13cからなる。なお、図4では、ステップS13cによる処理をステップS13c−1、ステップS13c−2およびステップS13c−3に分けて説明している。   The eigenspace method state estimation step S13 includes a step S13a for cutting out a plurality of real image information with a predetermined size, a step S13b for replacing the image information of the cut out image as a cut image vector, and a cut image vector and an eigenvector. And determining the position of the monitoring target object from the cut-out position of the real image information corresponding to the cut-out image vector. Consists of S13c. In FIG. 4, the process in step S13c is described by dividing it into step S13c-1, step S13c-2, and step S13c-3.

詳説すると、固有空間法状態推定部13では、実画像情報記憶部12から実画像情報を読み込んで、テンプレート画像と同じ大きさになる画像を複数枚切り出し(ステップS13a)、切り出された画像情報をそれぞれベクトル表示に置き換える(ステップS13b)。ここで、例としてテンプレート画像の大きさを30×50ピクセル、撮影装置で撮影した画像の大きさを60×100ピクセルとした場合、撮影装置10で撮影した実画像情報から1ピクセルずつシフトさせて画像を切り出すと、その切り出し画像の枚数は31×51枚となる。そこで、切り出した各画像に番号r(1≦r≦31×51)を付与し、画像rとテンプレート画像との相関を次のように求める。すなわち、切り出した画像rについて、yj(1≦j≦J=m×n)を画像rのj番目の画素値として、切出画像ベクトルをy(r)=(y1,y2,…,yJ)Tとおくと、y(r)はJ次元ベクトルとなる。ここで、y(r)はその大きさが|y(r)|=1となるように、正規化の処理を行っておく。 More specifically, the eigenspace method state estimation unit 13 reads the real image information from the real image information storage unit 12, cuts out a plurality of images having the same size as the template image (step S13a), and extracts the cut image information. Each is replaced with a vector display (step S13b). Here, as an example, when the size of the template image is 30 × 50 pixels and the size of the image photographed by the photographing device is 60 × 100 pixels, the template image is shifted pixel by pixel from the actual image information photographed by the photographing device 10. When an image is cut out, the number of cut-out images is 31 × 51. Therefore, a number r (1 ≦ r ≦ 31 × 51) is assigned to each cut out image, and a correlation between the image r and the template image is obtained as follows. That is, for the clipped image r, y j (1 ≦ j ≦ J = m × n) is the j-th pixel value of the image r, and the clipped image vector is y (r) = (y 1 , y 2 ,. , y J ) T , y (r) is a J-dimensional vector. Here, normalization processing is performed so that y (r) has a magnitude of | y (r) | = 1.

ステップS13c−1では、テンプレート画像固有ベクトル記憶部11から固有ベクトルを参照し(ステップS13c−2)、切出画像ベクトルと固有ベクトルの類似性をそれぞれ評価する。すなわち、ベクトルgi (1≦i≦36)と行列Eを参照し、具体的には、|gi−ET(y(r)−M)|を各r (1≦r≦31×51)と各i(1≦i≦36)について算出することとなる。 In step S13c-1, the eigenvector is referenced from the template image eigenvector storage unit 11 (step S13c-2), and the similarity between the cut-out image vector and the eigenvector is evaluated. That is, referring to the vector g i (1 ≦ i ≦ 36) and the matrix E, specifically, | g i −E T (y (r) −M) | is replaced by each r (1 ≦ r ≦ 31 × 51 ) And each i (1 ≦ i ≦ 36).

ステップS13c−3では、|gi−ET (y(r)−M)|の値を最小とする(r’,i')の組み合わせを求め、切出画像ベクトルy(r’)に対応する実画像情報の切り出し位置から監視対象物の位置を特定する。ここで、|gi’−ET(y(r’)−M)|の値が一定の値を超えた場合には、固有空間法状態推定ステップS13における該監視対象物の位置が特定できなかったものとしてステップS13aに戻り(ステップS13c−3でNO)、次の撮影タイミングにおける該監視対象物の位置の特定を再び固有空間法状態推定ステップS13で行わせるようにする。
本実施例では、監視対象物が一つの場合を例にとって説明しているが、監視対象物が複数ある場合には、ステップS13c−3にて|gi−ET (y(r)−M)|の値を最小とする(r’,i')の組み合わせを求めたあとで、切り出した画像r’およびその周辺以外で切り出した画像を対象にステップS13c−3と同様の処理を行い、以降、監視対象物の個数分だけ(または|gi−ET(y(r)−M)|の最小値が一定値以下である限り)同じ処理を繰り返せばよい。
In step S13c-3, a combination of (r ′, i ′) that minimizes the value of | g i −E T (y (r) −M) | is obtained and corresponds to the cut-out image vector y (r ′). The position of the monitoring object is specified from the cutout position of the real image information to be performed. Here, if the value of | g i ′ −E T (y (r ′) − M) | exceeds a certain value, the position of the monitoring object in the eigenspace method state estimation step S13 can be specified. Returning to step S13a as having not been made (NO in step S13c-3), the position of the monitoring object at the next imaging timing is specified again in eigenspace method state estimation step S13.
In the present embodiment, the case where there is one monitoring object is described as an example. However, when there are a plurality of monitoring objects, | g i −E T (y (r) −M) in step S13c-3. ) |, After obtaining the combination of (r ′, i ′) that minimizes the value, the same processing as step S13c-3 is performed on the clipped image r ′ and the clipped image other than its periphery. Thereafter, the same processing may be repeated as many times as the number of monitoring objects (or as long as the minimum value of | g i −E T (y (r) −M) | is equal to or smaller than a certain value).

なお、ステップS13c−3では、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その切出画像ベクトルに対応する実画像情報の切出し位置から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定するようにしてもよい。つまり、|gi−ET (y(r)−M)|の値を最小とする(r’,i')の組み合わせを求め、ベクトルgiに対応するテンプレート画像iの撮影角度または表示角度を特定するようにすれば良い。
このように、固有空間法状態推定部13(固有空間法状態推定ステップS13)で、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その固有ベクトルに対応する画像情報の撮影角度または表示角度を求めることで、該監視対象物の角度を特定することが出来る。
In step S13c-3, a set of a cutout image vector and an eigenvector having the highest similarity is obtained, and the position of the monitoring target is specified from the cutout position of the real image information corresponding to the cutout image vector. The angle of the monitoring object may be specified from the shooting angle or display angle of the image information corresponding to the eigenvector. That is, a combination of (r ′, i ′) that minimizes the value of | g i −E T (y (r) −M) | is obtained, and the shooting angle or display angle of the template image i corresponding to the vector g i Should be specified.
In this way, the eigenspace method state estimation unit 13 (eigenspace method state estimation step S13) obtains a pair of a cutout image vector and an eigenvector having the highest similarity, and obtains a shooting angle of image information corresponding to the eigenvector or By obtaining the display angle, the angle of the monitoring object can be specified.

ステップS13c−3で、|gi’−ET (y(r’)−M)|の値が一定の値を超えなかった場合には、その結果をディスプレイ等の出力装置(図示省略)に表示すると共に、次のステップS15aに進む(ステップS13c−3でYES)。 If the value of | g i ′ −E T (y (r ′) − M) | does not exceed a certain value in step S13c-3, the result is output to an output device (not shown) such as a display. At the same time, the process proceeds to the next step S15a (YES in step S13c-3).

パーティクルフィルタ法状態推定ステップS14では、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成し(ステップS14a)、実画像情報を位置候補に基づいてそれぞれ切り出して、その画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えて(ステップS14b)、切出画像ベクトルと固有ベクトルとを各々比較して、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め(ステップS14c)、その切出画像ベクトルに対応する位置候補から、該監視対象物の位置を特定する(ステップS14d)。なお、図4では、ステップS14aによる処理をステップS14a−1、ステップS14a−2およびステップS14a−3に分けて説明し、ステップS14bによる処理をステップS14b−1およびステップS14b−2に分けて説明し、ステップS14cによる処理をステップS14c−1およびステップS14c−2に分けて説明している。   In the particle filter method state estimation step S14, a plurality of particles to be monitored object position candidates are generated by the particle filter method (step S14a), the actual image information is cut out based on the position candidates, and the image information is cut. Each vector is replaced with a vector display as an output image vector (step S14b), and the cut image vector and eigenvector are respectively compared to obtain a set of the cutout image vector and eigenvector having the highest similarity (step S14c). The position of the monitoring object is specified from the position candidates corresponding to the cut-out image vector (step S14d). In FIG. 4, the process in step S14a will be described in steps S14a-1, S14a-2, and step S14a-3, and the process in step S14b will be described in steps S14b-1 and S14b-2. The process in step S14c is divided into step S14c-1 and step S14c-2.

パーティクルフィルタは、多数(本実施例では100個とする)のパーティクルを発生させ、そのパーティクルを所定の方法によって逐次ランダム移動させて、その移動させたパーティクルのどこかに監視対象物があるものと仮定して、監視対象物の位置を推定するものである。   The particle filter generates a large number (100 in this embodiment) of particles, sequentially moves the particles randomly by a predetermined method, and there is a monitoring target somewhere in the moved particles. Assuming that the position of the monitoring object is estimated.

詳説すると、パーティクルフィルタ法状態推定ステップS14は、ステップS15aにより固有空間法状態推定ステップS13からパーティクルフィルタ法状態推定ステップS14への切替が行われた後に起動し、初期パーティクルの生成を行う(ステップS14a−1)。ここでは、ステップS13c−3によって、監視対象物の位置がわかっていることから、初期パーティクルのすべてを監視対象物の位置で生成させる。   Specifically, the particle filter method state estimation step S14 is activated after the switching from the eigenspace method state estimation step S13 to the particle filter method state estimation step S14 in step S15a, and generates initial particles (step S14a). -1). Here, since the position of the monitoring target is known in step S13c-3, all of the initial particles are generated at the position of the monitoring target.

ステップS14a−2では、次タイミングでの監視対象物の位置を予測するために、生成された各パーティクルをランダムに移動させる。すなわち、パーティクルn(1≦n≦100)のタイミングtにおける位置をP(n)(t)=(Px (n)(t),Py (n)(t))としたときに、P(n)(t+1)=(Px (n)(t)+Randx,Py (n)(t)+ Randy) により、次タイミングt+1におけるパーティクルの位置を決定する。ただし、Randx、Randは、0を中心値として一定の範囲で発生する乱数であって、|Randx|、|Rand|≦maxdistance(正の一定値)である。 In step S14a-2, the generated particles are randomly moved in order to predict the position of the monitoring target at the next timing. That is, when the position of the particle n (1 ≦ n ≦ 100) at the timing t is P (n) (t) = (P x (n) (t), P y (n) (t)), P the (n) (t + 1) = (P x (n) (t) + Rand x, P y (n) (t) + Rand y), determines the position of the particle at the next timing t + 1. Here, Rand x and Rand y are random numbers generated within a certain range with 0 as the central value, and are | Rand x |, | Rand y | ≦ maxdistance (positive constant value).

また、こういった方法のほか、ステップS14aでは、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成したあとで、各パーティクルを(T(t+1)-T(t))・V(t) (ただし、V(t)は特定された該監視対象物の位置から算出した速度ベクトル、T(t+1)-T(t)は次のタイミングで撮影されるまでの撮影時間間隔)だけ平行移動させるようにしてもよい。
すなわち、ステップS14a−2では、P(n)(t+1)=(Px (n)(t)+ (T(t+1)-T(t))×Vx(t)+Randx, Py (n)(t)+ (T(t+1)-T(t))×Vy(t)+ Randy)により、次タイミングt+1におけるパーティクルの位置を決定させるようにする。
このように、特定された監視対象物の位置から速度を算出し、その速度に応じて各パーティクルを平行移動させることで、動きのある測定対象物の位置追従を高い精度で行わせることが出来る。
In addition to these methods, in Step S14a, after generating a plurality of particles as position candidates for the monitoring object by the particle filter method, each particle is (T (t + 1) -T (t)).・ V (t) (However, V (t) is the velocity vector calculated from the specified position of the monitored object, and T (t + 1) -T (t) is taken until the next timing. You may make it move parallel only (time interval).
That is, in step S14a-2, P (n) (t + 1) = (P x (n) (t) + (T (t + 1) -T (t)) × V x (t) + Rand x , P y (n) (t) + (T (t + 1) −T (t)) × V y (t) + Rand y ), the particle position at the next timing t + 1 is determined.
In this way, by calculating the speed from the position of the specified monitoring object and translating each particle in accordance with the speed, the position of the moving measurement object can be tracked with high accuracy. .

ステップS14b−1では、次のタイミングで撮影され実画像情報記憶部12に記憶された実画像情報を参照し、各パーティクルの位置に基づいて実画像情報をそれぞれ切り出す。具体的には、パーティクルnの位置がP(n)(t+1)=(Px (n)(t+1), Py (n)(t+1))であるから、座標P(n)(t+1)を中心とし、大きさがテンプレート画像と同じ大きさになる切り出し画像を各n(1≦n≦100)について作成し、切り出した各画像に番号n(1≦n≦100)を付与する。 In step S <b> 14 b-1, the actual image information is cut out based on the position of each particle with reference to the actual image information captured at the next timing and stored in the actual image information storage unit 12. Specifically, since the position of the particle n is P (n) (t + 1) = (P x (n) (t + 1), P y (n) (t + 1)), the coordinate P ( n) A clipped image centered on (t + 1) and having the same size as the template image is created for each n (1 ≦ n ≦ 100), and each clipped image is assigned a number n (1 ≦ n ≦ 100). 100).

ステップS14b−2では、切り出された画像の画像情報をそれぞれベクトル表示に置き換える。すなわち、切り出した画像nについて、yj (1≦j≦J=m×n)を画像nのj番目の画素値として、切出画像ベクトルをy(n)=(y1,y2,…,yJ)Tとおくと、y(n)はJ次元ベクトルとなる。ここで、y(n)はその大きさが|y(n)|=1となるように、正規化の処理を行っておく。 In step S14b-2, the image information of the clipped image is replaced with a vector display. That is, for the cut image n, y j (1 ≦ j ≦ J = m × n) is the j-th pixel value of the image n, and the cut image vector is y (n) = (y 1 , y 2 ,. , y J ) T , y (n) is a J-dimensional vector. Here, normalization processing is performed so that y (n) has a magnitude of | y (n) | = 1.

ステップS14c−1では、テンプレート画像固有ベクトル記憶部11から固有ベクトルを参照し(ステップS14c−2)、切出画像ベクトルと固有ベクトルの類似性をそれぞれ評価する。すなわち、ベクトルgi (1≦i≦36)と行列Eを参照し、具体的には、|gi−ET(y(n)−M)|を各n (1≦n≦100)と各i(1≦i≦36)について算出することとなる。 In step S14c-1, the eigenvector is referred from the template image eigenvector storage unit 11 (step S14c-2), and the similarity between the cut-out image vector and the eigenvector is evaluated. That is, referring to the vector g i (1 ≦ i ≦ 36) and the matrix E, specifically, | g i −E T (y (n) −M) | is each n (1 ≦ n ≦ 100) and It is calculated for each i (1 ≦ i ≦ 36).

ステップS14dでは、|gi−ET (y(n)−M)|の値を最小とする(n’,i')の組み合わせを求め、切出画像ベクトルy(n’)に対応するパーティクルnの位置から監視対象物の位置を特定する。ここで、|gi’−ET(y(n’)−M)|の値が一定の値を超えた場合には、パーティクルフィルタ法状態推定ステップS14における該監視対象物の位置が特定できなかったものとしてステップS15bに進み(ステップS14dでNO)、次の撮影タイミングにおける該監視対象物の位置の特定を固有空間法状態推定ステップS13で行わせるようにする。
本実施例では、監視対象物が一つの場合を例にとって説明しているが、監視対象物が複数ある場合には、ステップS14dにて|gi−ET (y(n)−M)|の値を最小とする(n’,i')の組み合わせを求めたあとで、切り出した画像n’およびその周辺以外で切り出した画像を対象にステップS14dと同様の処理を行い、以降、監視対象物の個数分だけ(または|gi−ET(y(n)−M)|の最小値が一定値以下である限り)同じ処理を繰り返せばよい。
In step S14d, a combination of (n ′, i ′) that minimizes the value of | g i −E T (y (n) −M) | is obtained, and the particle corresponding to the cut-out image vector y (n ′) is obtained. The position of the monitoring object is specified from the position of n. Here, if the value of | g i ′ −E T (y (n ′) − M) | exceeds a certain value, the position of the monitoring object in the particle filter method state estimation step S14 can be specified. If not, the process proceeds to step S15b (NO in step S14d), and the position of the monitoring object at the next imaging timing is specified in the eigenspace method state estimation step S13.
In this embodiment, the case where there is one monitoring object has been described as an example. However, when there are a plurality of monitoring objects, | g i −E T (y (n) −M) | After obtaining the combination of (n ′, i ′) that minimizes the value of, the same processing as step S14d is performed on the clipped image n ′ and the clipped image other than the periphery thereof. The same process may be repeated for the number of objects (or as long as the minimum value of | g i −E T (y (n) −M) | is equal to or smaller than a certain value).

なお、ステップS14dでは、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その切出画像ベクトルに対応する位置候補から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定するようにしてもよい。つまり、|gi−ET (y(n)−M)|の値を最小とする(n’,i')の組み合わせを求め、ベクトルgiに対応するテンプレート画像iの撮影角度または表示角度を特定するようにすれば良い。
このように、パーティクルフィルタ法状態推定部14(パーティクルフィルタ法状態推定ステップS14)で、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求め、その固有ベクトルに対応する画像情報の撮影角度または表示角度を求めることで、該監視対象物の角度を特定することが出来る。
In step S14d, a pair of the cutout image vector and the eigenvector having the highest similarity is obtained, the position of the monitoring target is specified from the position candidates corresponding to the cutout image vector, and the eigenvector is supported. You may make it specify the angle of this monitoring target object from the imaging | photography angle or display angle of image information. That is, a combination of (n ′, i ′) that minimizes the value of | g i −E T (y (n) −M) | is obtained, and the shooting angle or display angle of the template image i corresponding to the vector g i Should be specified.
As described above, the particle filter method state estimation unit 14 (particle filter method state estimation step S14) obtains a pair of the cutout image vector and the eigenvector having the highest similarity, and the imaging angle of the image information corresponding to the eigenvector or By obtaining the display angle, the angle of the monitoring object can be specified.

ステップS14dで、|gi’−ET (y(n’)−M)|の値が一定の値を超えなかった場合には、その結果をディスプレイ等の出力装置(図示省略)に表示すると共に、次のステップS14a−3に進む(ステップS14dでYES)。 If the value of | g i ′ −E T (y (n ′) − M) | does not exceed a certain value in step S14d, the result is displayed on an output device (not shown) such as a display. At the same time, the process proceeds to the next step S14a-3 (YES in step S14d).

ステップS14a−3では、次タイミングt+1で撮影された監視対象物の位置を推定するために、次タイミングt+1でのパーティクルを再発生させる。その発生方法としては、タイミングtにおける各パーティクルnについて|gi−ET (y(n)−M)|の最小値|gi’−ET(y(n)−M)|を求め、各パーティクルnについて、評価の指標として尤度を用い、|gi’−ET (y(n)−M)|の値が小さいときは尤度が高いものとし、逆に|gi’−ET(y(n)−M)|の値が大きいときは尤度が低いものとし、尤度の高いパーティクルが次タイミングにおける候補に採用されやすいような方法で再発生させる。 In step S14a-3, particles at the next timing t + 1 are regenerated in order to estimate the position of the monitored object photographed at the next timing t + 1. As the generation method, for each particle n at the timing t | g i -E T (y (n) -M) | minimum value of | g i '-E T (y (n) -M) | asking, Likelihood is used as an evaluation index for each particle n. When the value of | g i ′ −E T (y (n) −M) | is small, the likelihood is high, and conversely, | g i ′ − When the value of E T (y (n) −M) | is large, the likelihood is assumed to be low, and the particles having high likelihood are regenerated by a method that is likely to be adopted as a candidate at the next timing.

図5は、パーティクルフィルタ法によるパーティクルの発生方法を示したものであり、タイミングtにて尤度が高いパーティクル51や尤度が普通のパーティクル52は、複数個または1個のパーティクルとして残し、逆に尤度が小さいパーティクル53は、タイミングtにて消滅・淘汰される。そうすることで、次タイミングt+1では、タイミングtにおける同じ数のパーティクルが発生すると共に、次タイミングt+1でも引き続き高い精度での位置推定が期待される。   FIG. 5 shows a particle generation method based on the particle filter method, and particles 51 having a high likelihood and particles 52 having a normal likelihood are left as a plurality of particles or one particle at the timing t. The particles 53 having a small likelihood are disappeared / discolored at timing t. By doing so, at the next timing t + 1, the same number of particles are generated at the timing t, and position estimation with high accuracy is expected at the next timing t + 1.

次タイミングt+1でのパーティクルを再発生させた後は、ステップS14a−2に移り、次タイミング以降に撮影された画像の位置推定を、引き続きパーティクルフィルタ状態推定ステップS14により行わせる。   After the particles are regenerated at the next timing t + 1, the process proceeds to step S14a-2, and the position estimation of images taken after the next timing is continuously performed by the particle filter state estimation step S14.

推定方法切替ステップS15は、固有空間法状態推定ステップS13により該監視対象物の位置を特定できた場合には、次のタイミングで撮影される該監視対象物の位置の特定をパーティクルフィルタ法状態推定ステップS14で行わせるように切り替えるステップS15a、パーティクルフィルタ法状態推定ステップS14により該監視対象物の位置の特定を特定できなかった場合には、次のタイミングで撮影される該監視対象物の位置の特定を固有空間法状態推定ステップS13で行わせるように切り替えるステップS15bからなる。   In the estimation method switching step S15, when the position of the monitoring object can be specified by the eigenspace method state estimation step S13, the position of the monitoring object photographed at the next timing is specified by the particle filter method state estimation. If it is not possible to specify the position of the monitoring object in step S15a, which is switched to be performed in step S14, and the particle filter method state estimation step S14, the position of the monitoring object captured at the next timing is determined. It consists of step S15b which switches so that identification may be performed in eigenspace method state estimation step S13.

詳説すると、ステップS15aは、ステップS13c−3でYESとなったときに、次のタイミングで撮影される該監視対象物の位置の特定をパーティクルフィルタ法状態推定ステップS14で行わせるように切り替えを行って、ステップS14a−1に進む。また、ステップS15bは、ステップS14dでNOとなったときに、次のタイミングで撮影される該監視対象物の位置の特定を固有空間法状態推定ステップS13で行わせるように切り替えを行って、ステップS13aに進む。   Specifically, in step S15a, when YES is determined in step S13c-3, switching is performed so that the position of the monitoring target imaged at the next timing is specified in the particle filter method state estimation step S14. Then, the process proceeds to step S14a-1. Further, step S15b performs switching so that the position of the monitoring object to be photographed at the next timing is specified in eigenspace method state estimation step S13 when NO in step S14d. Proceed to S13a.

このように、固有空間法状態推定部13(または固有空間法状態推定ステップS13)とパーティクルフィルタ法状態推定部14(またはパーティクルフィルタ法状態推定ステップS14)の二つを設けると共に、これらを切り替える推定方法切替部15(または推定方法切替ステップS15)を設けることで、最初の段階あるいはパーティクルフィルタ法状態推定部14(またはパーティクルフィルタ法状態推定ステップS14)での位置推定が失敗したときには、固有空間法状態推定部13(または固有空間法状態推定ステップS13)によって、撮影された画像の広い範囲からの位置推定を行うと共に、位置推定が出来た後は、パーティクルフィルタ法状態推定部14(またはパーティクルフィルタ法状態推定ステップS14)によって、高速の位置推定(監視対象物のリアルタイム認識)を継続させることが出来る。   As described above, the eigenspace method state estimation unit 13 (or eigenspace method state estimation step S13) and the particle filter method state estimation unit 14 (or particle filter method state estimation step S14) are provided, and estimation is performed for switching between them. By providing the method switching unit 15 (or estimation method switching step S15), when the position estimation at the first stage or the particle filter method state estimation unit 14 (or particle filter method state estimation step S14) fails, the eigenspace method is used. The state estimation unit 13 (or eigenspace method state estimation step S13) performs position estimation from a wide range of the photographed image, and after the position estimation is completed, the particle filter method state estimation unit 14 (or particle filter) By legal state estimation step S14) , It is possible to continue the high-speed position estimate (real-time recognition of the monitored object).

本発明の実施例2について図6〜図10に基づいて説明する。なお、実施例1と同じ構成や方法となる部分については同一の符号を使用し、詳細の説明については省略する。   A second embodiment of the present invention will be described with reference to FIGS. In addition, the same code | symbol is used about the part used as the same structure and method as Example 1, and detailed description is abbreviate | omitted.

実施例2では、図6に示す自動車の模型を監視対象物とし、物体認識装置1はその自動車の模型の位置を認識させる。
図7は、監視対象物である自動車の模型について、その角度を変えて複数撮影したテンプレート画像であり、自動車の角度を10degreeずつ回転させて撮影を行った36枚のうち、12枚を抜き出して表示させている。なお、テンプレート画像は、図7に示すように実際に撮影した画像情報から、監視対象物以外の背景を取り除いてから処理することが好ましい。
図8は、自動車の模型の回転角度が30degreeであるときのテンプレート画像について、その固有ベクトルを求め、それを画像表示させたものである。このように、固有ベクトルを画像表示させると、監視対象物たる自動車模型の輪郭等が現れる。
In the second embodiment, the model of the automobile shown in FIG. 6 is set as a monitoring target, and the object recognition apparatus 1 recognizes the position of the model of the automobile.
FIG. 7 is a template image obtained by photographing a car model, which is an object to be monitored, at different angles. Twelve out of 36 pictures taken by rotating the car angle by 10 degrees are extracted. It is displayed. In addition, it is preferable to process a template image after removing backgrounds other than the monitoring target object from image information actually taken as shown in FIG.
FIG. 8 shows the eigenvector of the template image when the rotation angle of the model of the automobile is 30 degrees, and displays it as an image. As described above, when the eigenvector is displayed as an image, the outline of the car model as the monitoring object appears.

ここで、監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出するほか、画像情報を拡大または縮小した、拡大画像情報または縮小画像情報を行列表示に置き換え、その行列に対する拡大画像固有ベクトルまたは縮小画像固有ベクトルをあらかじめ算出しておき、テンプレート画像固有ベクトル記憶部11では、固有ベクトルのほか、拡大画像固有ベクトルまたは縮小画像固有ベクトルがあわせて記憶させるようにすると好ましい。   Here, the object to be monitored or its three-dimensional model is photographed or displayed from a plurality of angles, the captured or displayed image information is replaced with a matrix display, eigenvectors for the matrix are calculated in advance, and the image information is expanded or The reduced enlarged image information or reduced image information is replaced with a matrix display, and an enlarged image eigenvector or reduced image eigenvector for the matrix is calculated in advance. In the template image eigenvector storage unit 11, in addition to the eigenvector, an enlarged image eigenvector or reduced image It is preferable to store the image eigenvector together.

図9は、実画像情報と拡大画像情報または縮小画像情報の関係を示す説明図である。すなわち、テンプレート画像92のほか、監視対象物たる自動車模型を拡大表示した拡大画像情報93、縮小表示した縮小画像情報91を各回転角度に応じて作成し、拡大画像情報93や縮小画像情報91についても、拡大画像の固有ベクトル、縮小画像の固有ベクトルを作成し、監視対象物の見かけ画像の変化の度合いによって、異なる大きさで求めた固有ベクトルを用意しておく。   FIG. 9 is an explanatory diagram showing the relationship between real image information and enlarged image information or reduced image information. That is, in addition to the template image 92, enlarged image information 93 in which a car model as a monitoring target is enlarged and reduced image information 91 in reduced size are created according to each rotation angle, and the enlarged image information 93 and the reduced image information 91 are obtained. Also, the eigenvector of the enlarged image and the eigenvector of the reduced image are created, and eigenvectors obtained with different sizes are prepared according to the degree of change in the apparent image of the monitoring target.

そして、固有空間法状態推定部13(固有空間法状態推定ステップS13のステップS13c)やパーティクルフィルタ法状態推定部14(パーティクルフィルタ法状態推定ステップS14のステップS14c)では、切出画像ベクトルの切出し位置に応じて、
(1)切出画像ベクトルと固有ベクトルとを各々比較して、類似性が一番高い切出画像ベクトルと固有ベクトルの組を求めるか、
(2)切出画像ベクトルと拡大画像固有ベクトルとを各々比較して、類似性が一番高い切出画像ベクトルと拡大画像固有ベクトルの組を求めるか、
もしくは、
(3)切出画像ベクトルと縮小画像固有ベクトルとを各々比較して、類似性が一番高い切出画像ベクトルと縮小画像固有ベクトルの組を求めるか、
のいずれかを選択し、その切出画像ベクトルに対応する実画像情報の切出し位置や切出画像ベクトルに対応する位置候補から、該監視対象物の位置を特定するようにする。
つまり、実画像情報94のうち、遠くの位置として撮影される部分94aでは監視対象物が見かけ上で小さく見え、近くの位置として撮影される部分94bでは監視対象物が見かけ上で大きく見えることから、遠くの位置に対応する切出し画像に対しては縮小画像固有ベクトルとの比較を行い、近くの位置に対応する切出し画像に対しては拡大画像固有ベクトルとの比較を行うようにする。
The eigenspace method state estimation unit 13 (step S13c of eigenspace method state estimation step S13) and the particle filter method state estimation unit 14 (step S14c of particle filter method state estimation step S14) extract the extracted image vector. In response to the,
(1) Each of the cutout image vector and the eigenvector is compared to obtain a pair of the cutout image vector and the eigenvector having the highest similarity.
(2) By comparing each of the cutout image vector and the enlarged image eigenvector to obtain a set of the cutout image vector and the enlarged image eigenvector having the highest similarity,
Or
(3) each of the cut image vector and the reduced image eigenvector is compared to obtain a set of the cut image vector and the reduced image eigenvector having the highest similarity;
Is selected, and the position of the monitoring object is specified from the cut position of the real image information corresponding to the cut image vector or the position candidate corresponding to the cut image vector.
That is, in the real image information 94, the monitored object looks small in the portion 94a photographed as a distant position, and the monitored object appears large in the portion 94b photographed as a close position. The cutout image corresponding to the far position is compared with the reduced image eigenvector, and the cutout image corresponding to the near position is compared with the enlarged image eigenvector.

このように、撮影された位置によって見かけ上の大きさが異なる監視対象物に対して、大きさの異なるテンプレート画像を用意し、これらの固有ベクトルをそれぞれ記憶させておき、固有空間法状態推定部13(または固有空間法状態推定ステップS13)やパーティクルフィルタ法状態推定部14(パーティクルフィルタ法状態推定ステップS14)で類似性を比較するにあたり実画像情報を切り出した位置に対応する大きさのテンプレート画像の固有ベクトルを用いることで広い範囲を対象とした監視対象物の位置認識が実現される。   In this way, template images having different sizes are prepared for the monitoring objects having different apparent sizes depending on the captured positions, and these eigenvectors are stored respectively, and the eigenspace method state estimating unit 13 (Or eigenspace method state estimation step S13) and the particle filter method state estimation unit 14 (particle filter method state estimation step S14) compare the similarity of the template image having a size corresponding to the position where the actual image information is cut out. By using the eigenvector, the position recognition of the monitoring target for a wide range is realized.

続いて、パーティクルフィルタ法の処理について説明する。実施例2では、パーティクルフィルタ法状態推定部14(パーティクルフィルタ法状態推定ステップS14のステップS14a)の処理で、パーティクルフィルタ法により監視対象物の位置候補となるパーティクルを複数生成するにあたり、特定された監視対象物の角度に応じて該監視対象物の進行方向を予測し、特定された監視対象物の位置を中心にしてその進行方向を長軸とする楕円の範囲内でパーティクルを移動させる。   Subsequently, processing of the particle filter method will be described. In the second embodiment, the particle filter method state estimation unit 14 (step S14a of the particle filter method state estimation step S14) is identified when generating a plurality of particles that are candidates for the position of the monitoring target by the particle filter method. The traveling direction of the monitored object is predicted in accordance with the angle of the monitored object, and the particles are moved within an ellipse range whose major axis is the traveling direction with the position of the identified monitored object as the center.

たとえば、自動車などのように、見かけの回転角度から移動する方向がある程度予測できる監視対象物について、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成する場合には、各パーティクルをランダムに移動させるよりも、その監視対象物の移動方向に応じて各パーティクルを偏在させることが効果的である。   For example, for a monitoring object that can predict the direction of movement from the apparent rotation angle to some extent, such as an automobile, when generating multiple particles that are candidates for the position of the monitoring object by the particle filter method, Rather than randomly moving, it is more effective to make each particle unevenly distributed according to the moving direction of the monitoring object.

すなわち、次タイミングでの監視対象物の位置を予測にあたっては、図10のように、監視対象物101の位置を中心として、その進行方向102(θ)を長軸とした楕円の範囲内103で、生成された各パーティクルをランダムに移動させる。楕円の長半径をa、短半径をb、rRandを[0,1]の範囲で発生する乱数、θRandを[0,2π]の範囲で発生する乱数としたときに、P(n)(t+1)=(Px (n)(t)+Δx,Py (n)(t)+Δy) により、次タイミングt+1におけるパーティクルの位置を決定する。ただし、Δx=c×(cosθcosθRand−sinθsinθRand),Δy=c×(sinθcosθRand+cosθsinθRand),c=rRand×{(ab)2÷(b2cos2θRand+a2sin2θRand)}1/2である。 That is, in predicting the position of the monitoring object at the next timing, as shown in FIG. 10, the position of the monitoring object 101 is the center and the moving direction 102 (θ) is within the ellipse range 103 as the major axis. , Move each generated particle randomly. P (n) where the major radius of the ellipse is a, the minor radius is b, r Rand is a random number generated in the range [0,1], and θ Rand is a random number generated in the range [0,2π]. (t + 1) = (P x (n) (t) + Δx, P y (n) (t) + Δy) The position of the particle at the next timing t + 1 is determined. However, Δx = c × (cosθcosθ Rand −sinθsinθ Rand ), Δy = c × (sinθcosθ Rand + cosθsinθ Rand ), c = r Rand × {(ab) 2 ÷ (b 2 cos 2 θ Rand + a 2 sin 2 θ Rand )} 1/2 .

このように、監視対象物の位置と角度を特定して、監視対象物の移動方向を予測し、パーティクルフィルタ法において次タイミングにおけるパーティクルを、監視対象物の移動方向を長軸とする楕円の範囲内で移動させることで、パーティクルフィルタ法による粒子の数を抑える(または粒子を高密度化させる)ことができ、監視対象物の位置推定の高速化(または高精度化)が実現される。   In this way, the position and angle of the monitoring object are specified, the movement direction of the monitoring object is predicted, particles in the next timing in the particle filter method, and the elliptical range with the movement direction of the monitoring object as the major axis The number of particles by the particle filter method can be suppressed (or the density of the particles can be increased), and the speed of the position estimation of the monitoring target (or higher accuracy) can be realized.

本発明は、産業用ロボットに取り付けられたワークの位置や姿勢を監視する用途、人や物の移動を監視する用途などで利用されることが考えられる。   The present invention may be used in applications such as monitoring the position and posture of a workpiece attached to an industrial robot, and monitoring the movement of a person or an object.

実施例1による物体認識装置の構成を示す説明図Explanatory drawing which shows the structure of the object recognition apparatus by Example 1. FIG. テンプレート画像の一例を示した説明図An explanatory diagram showing an example of a template image テンプレート画像を固有空間上に現した三次元投影図Three-dimensional projection diagram showing template image in eigenspace 実施例1による物体認識方法の手順を示すフローチャートFlowchart showing the procedure of the object recognition method according to the first embodiment. パーティクルフィルタ法によるパーティクルの発生方法を示す説明図Explanatory diagram showing how particles are generated by the particle filter method 実施例2における監視対象物(自動車の模型)の写真Photograph of monitoring object (model of car) in Example 2 実施例2における監視対象物(自動車の模型)のテンプレート画像Template image of the monitoring object (car model) in Example 2 テンプレート画像から固有ベクトルを求めて画像表示させたイメージ図Image diagram of eigenvectors obtained from template images and displayed. 実画像情報と拡大画像情報または縮小画像情報の関係を示す説明図Explanatory drawing which shows the relationship between real image information and enlarged image information or reduced image information 次タイミングで監視対象物の位置を予測する範囲を示す説明図Explanatory drawing which shows the range which estimates the position of the monitoring target object at the next timing

符号の説明Explanation of symbols

1 物体認識装置
10 撮影装置
11 テンプレート画像固有ベクトル記憶部
12 実画像情報記憶部
13 固有空間法状態推定部
14 パーティクルフィルタ法状態推定部
15 推定方法切替部
51,52,53 パーティクル
91 監視対象物たる自動車模型を縮小表示した縮小画像情報
92 テンプレート画像
93 監視対象物たる自動車模型を拡大表示した拡大画像情報
94 実画像情報
94a 実画像情報のうち遠くの位置として撮影される部分
94b 実画像情報のうち近くの位置として撮影される部分
101 監視対象物
102 進行方向
103 パーティクルの発生範囲
DESCRIPTION OF SYMBOLS 1 Object recognition apparatus 10 Imaging device 11 Template image eigenvector storage part 12 Real image information storage part 13 Eigenspace method state estimation part 14 Particle filter method state estimation part 15 Estimation method switching part 51,52,53 Particle 91 Automobile which is a monitoring object Reduced image information obtained by reducing a model 92 Template image 93 Enlarged image information obtained by enlarging an automobile model as a monitoring target 94 Real image information 94a A portion of the real image information that is photographed as a distant position 94b Near the real image information A portion 101 to be photographed as the position of the monitoring object 102 Advancing direction 103 Particle generation range

Claims (10)

監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出しておき、
前記固有ベクトルを記憶するテンプレート画像固有ベクトル記憶部11と、
所定の時間間隔で撮影された画像を実画像情報として記憶する実画像情報記憶部12と、
前記実画像情報を所定の大きさで複数切り出して、切り出された画像の画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えて、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定する固有空間法状態推定部13と、
パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成し、前記実画像情報を前記位置候補に基づいてそれぞれ切り出して、その画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えて、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定するパーティクルフィルタ法状態推定部14と、
前記固有空間法状態推定部13により該監視対象物の位置を特定できた場合には、次のタイミングで撮影される該監視対象物の位置の特定を前記パーティクルフィルタ法状態推定部14で行わせるようにし、前記パーティクルフィルタ法状態推定部14により該監視対象物の位置を特定できなかった場合には、次のタイミングで撮影される監視対象物の位置の特定を前記固有空間法状態推定部13で行わせる推定方法切替部15と、
を備える物体認識装置。
Capture or display the monitoring object or its three-dimensional model from a plurality of angles, replace the captured or displayed image information with a matrix display, calculate the eigenvector for that matrix in advance,
A template image eigenvector storage unit 11 for storing the eigenvector;
A real image information storage unit 12 that stores images taken at predetermined time intervals as real image information;
A plurality of the actual image information is cut out at a predetermined size, the image information of the cut-out image is replaced with a vector display as a cut-out image vector, and the cut-out image vector and the eigenvector are respectively compared and similar An eigenspace method state estimation unit for obtaining a set of the cutout image vector and the eigenvector having the highest performance and specifying the position of the monitoring object from the cutout position of the real image information corresponding to the cutout image vector 13 and
By generating a plurality of particles that are candidate positions of the monitoring object by the particle filter method, each of the actual image information is cut out based on the position candidates, and the image information is replaced with a vector display as a cut-out image vector, The clipped image vector and the eigenvector are respectively compared to obtain a set of the clipped image vector and the eigenvector having the highest similarity, and the monitoring target is determined from the position candidates corresponding to the clipped image vector. A particle filter method state estimation unit 14 for specifying the position of an object;
If the position of the monitoring object can be specified by the eigenspace method state estimation unit 13, the particle filter method state estimation unit 14 specifies the position of the monitoring object captured at the next timing. Thus, if the position of the monitoring object cannot be specified by the particle filter method state estimation unit 14, the eigenspace method state estimation unit 13 specifies the position of the monitoring object to be photographed at the next timing. An estimation method switching unit 15 to be performed in
An object recognition apparatus comprising:
前記パーティクルフィルタ法状態推定部14は、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成したあとで、各パーティクルを(T(t+1)-T(t))・V(t) (ただし、V(t)は特定された該監視対象物の位置から算出した速度ベクトル、T(t+1)-T(t)は次のタイミングで撮影されるまでの撮影時間間隔)だけ平行移動させることを特徴とする請求項1に記載の物体認識装置。   The particle filter method state estimation unit 14 generates a plurality of particles that are candidates for the position of the object to be monitored by the particle filter method, and then converts each particle to (T (t + 1) −T (t)) · V ( t) (where V (t) is the velocity vector calculated from the specified position of the monitored object, and T (t + 1) -T (t) is the shooting time interval until shooting at the next timing) The object recognition apparatus according to claim 1, wherein the object recognition apparatus is translated only by the parallel movement. 監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出するほか、前記画像情報を拡大または縮小した、拡大画像情報または縮小画像情報を行列表示に置き換え、その行列に対する拡大画像固有ベクトルまたは縮小画像固有ベクトルをあらかじめ算出しておき、
前記テンプレート画像固有ベクトル記憶部11では、前記固有ベクトルのほか、前記拡大画像固有ベクトルまたは前記縮小画像固有ベクトルがあわせて記憶され、
前記固有空間法状態推定部13では、前記切出画像ベクトルの切出し位置に応じて、
(1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、
(2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、
もしくは、
(3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、
のいずれかを選択し、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定し、
前記パーティクルフィルタ法状態推定部14では、前記切出画像ベクトルの切出し位置に応じて、
(1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、
(2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、
もしくは、
(3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、
のいずれかを選択し、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定することを特徴とする請求項1または請求項2に記載の物体認識装置。
The object to be monitored or its three-dimensional model is photographed or displayed from a plurality of angles, the photographed or displayed image information is replaced with a matrix display, eigenvectors for the matrix are calculated in advance, and the image information is enlarged or reduced. The enlarged image information or the reduced image information is replaced with a matrix display, and an enlarged image eigenvector or reduced image eigenvector for the matrix is calculated in advance,
In the template image eigenvector storage unit 11, in addition to the eigenvector, the enlarged image eigenvector or the reduced image eigenvector is stored together,
In the eigenspace method state estimation unit 13, according to the cutout position of the cutout image vector,
(1) Each of the cutout image vector and the eigenvector is compared to determine a set of the cutout image vector and the eigenvector having the highest similarity,
(2) Each of the extracted image vector and the enlarged image eigenvector is compared to obtain a set of the extracted image vector and the enlarged image eigenvector having the highest similarity,
Or
(3) Each of the cut-out image vector and the reduced image eigenvector is compared to obtain a set of the cut-out image vector and the reduced image eigenvector having the highest similarity.
Is selected, and the position of the monitoring object is specified from the cut-out position of the real image information corresponding to the cut-out image vector,
In the particle filter method state estimation unit 14, according to the cutout position of the cutout image vector,
(1) Each of the cutout image vector and the eigenvector is compared to determine a set of the cutout image vector and the eigenvector having the highest similarity,
(2) Each of the extracted image vector and the enlarged image eigenvector is compared to obtain a set of the extracted image vector and the enlarged image eigenvector having the highest similarity,
Or
(3) Each of the cut-out image vector and the reduced image eigenvector is compared to obtain a set of the cut-out image vector and the reduced image eigenvector having the highest similarity.
The object recognition apparatus according to claim 1, wherein the position of the monitoring target is specified from the position candidates corresponding to the cut-out image vector.
前記固有空間法状態推定部13は、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定し、
前記パーティクルフィルタ法状態推定部14は、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記位置候補から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定することを特徴とする請求項1ないし請求項3のいずれかに記載の物体認識装置。
The eigenspace method state estimation unit 13 obtains a set of the cutout image vector and the eigenvector having the highest similarity, and determines the monitoring target object from the cutout position of the real image information corresponding to the cutout image vector. Specify the position, and specify the angle of the monitoring object from the shooting angle or display angle of the image information corresponding to the eigenvector,
The particle filter method state estimation unit 14 obtains a set of the extracted image vector and the eigenvector having the highest similarity, and specifies the position of the monitoring object from the position candidates corresponding to the extracted image vector. The object recognition apparatus according to any one of claims 1 to 3, wherein an angle of the monitoring object is specified from a shooting angle or a display angle of image information corresponding to the eigenvector.
前記パーティクルフィルタ法状態推定部14は、パーティクルフィルタ法により監視対象物の位置候補となるパーティクルを複数生成するにあたり、特定された監視対象物の角度に応じて該監視対象物の進行方向を予測し、特定された監視対象物の位置を中心にして前記進行方向を長軸とする楕円の範囲内で前記パーティクルを移動させることを特徴とする請求項4に記載の物体認識装置。   The particle filter method state estimation unit 14 predicts the traveling direction of the monitoring target object according to the angle of the specified monitoring target object when generating a plurality of particles that are candidates for the position of the monitoring target object by the particle filter method. The object recognition apparatus according to claim 4, wherein the particle is moved within an ellipse range with the traveling direction as a major axis around the position of the identified monitoring target. 監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルを記憶するテンプレート画像固有ベクトル記憶ステップS11と、
所定の時間間隔で撮影された画像を実画像情報として記憶する実画像情報記憶ステップS12と、
前記実画像情報を所定の大きさで複数切り出すステップS13a、切り出された画像の画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えるステップS13b、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定するステップS13c、を含んだ固有空間法状態推定ステップS13と、
パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成するステップS14a、前記実画像情報を前記位置候補に基づいてそれぞれ切り出して、その画像情報を切出画像ベクトルとしてそれぞれベクトル表示に置き換えるステップS14b、前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるステップS14c、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定するステップS14d、を含んだパーティクルフィルタ法状態推定ステップS14と、
固有空間法状態推定ステップS13により該監視対象物の位置を特定できた場合には、次のタイミングで撮影される該監視対象物の位置の特定をパーティクルフィルタ法状態推定ステップS14で行わせるように切り替えるステップS15a、パーティクルフィルタ法状態推定ステップS14により該監視対象物の位置を特定できなかった場合には、次のタイミングで撮影される該監視対象物の位置の特定を固有空間法状態推定ステップS13で行わせるように切り替えるステップS15b、を含んだ推定方法切替ステップS15と、
によって、監視対象物の位置を特定させる物体認識方法。
A template image eigenvector storage step S11 for capturing or displaying the monitoring object or its three-dimensional model from a plurality of angles, replacing the image information captured or displayed with a matrix display, and storing eigenvectors for the matrix;
Real image information storage step S12 for storing images taken at predetermined time intervals as real image information;
Step S13a for cutting out a plurality of the actual image information with a predetermined size, Step S13b for replacing the image information of the cut-out image with a vector display as a cut-out image vector, and comparing the cut-out image vector with the eigenvector, respectively. Step S13c for obtaining a set of the cutout image vector and the eigenvector having the highest similarity and specifying the position of the monitoring object from the cutout position of the real image information corresponding to the cutout image vector. Including the eigenspace method state estimation step S13;
Step S14a for generating a plurality of particles as position candidates for the monitoring object by the particle filter method, cutting out the actual image information based on the position candidates, and replacing the image information with a vector display as a cut-out image vector, respectively. Step S14b, comparing the cut-out image vector and the eigenvector, respectively, to obtain a set of the cut-out image vector and the eigenvector having the highest similarity, and the position candidate corresponding to the cut-out image vector From the step S14d including the step S14d for specifying the position of the monitoring object,
When the position of the monitoring object can be specified by the eigenspace method state estimation step S13, the position of the monitoring object captured at the next timing is specified in the particle filter method state estimation step S14. If the position of the monitoring object cannot be specified by the switching step S15a and the particle filter method state estimation step S14, the eigenspace method state estimation step S13 specifies the position of the monitoring object to be photographed at the next timing. An estimation method switching step S15 including a step S15b of switching so as to be performed at
An object recognition method for identifying the position of a monitoring object by
前記パーティクルフィルタ法状態推定ステップS14のステップS14aでは、パーティクルフィルタ法により、監視対象物の位置候補となるパーティクルを複数生成したあとで、各パーティクルを(T(t+1)-T(t))・V(t) (ただし、V(t)は特定された該監視対象物の位置から算出した速度ベクトル、T(t+1)-T(t)は次のタイミングで撮影されるまでの撮影時間間隔)だけ平行移動させることを特徴とする請求項6に記載の物体認識方法。   In step S14a of the particle filter method state estimation step S14, a plurality of particles that are candidates for the position of the monitoring object are generated by the particle filter method, and then each particle is (T (t + 1) -T (t)).・ V (t) (However, V (t) is the velocity vector calculated from the specified position of the monitored object, and T (t + 1) -T (t) is taken until the next timing. The object recognition method according to claim 6, wherein the object is translated by a time interval. 前記テンプレート画像固有ベクトル記憶ステップS11では、監視対象物またはその三次元モデルを複数の角度から撮影または表示して、撮影または表示された画像情報を行列表示に置き換え、その行列に対する固有ベクトルをあらかじめ算出するほか、前記画像情報を拡大または縮小した、拡大画像情報または縮小画像情報を行列表示に置き換え、その行列に対する拡大画像固有ベクトルまたは縮小画像固有ベクトルをあらかじめ算出して、前記固有ベクトルのほか、前記拡大画像固有ベクトルまたは前記縮小画像固有ベクトルをあわせて記憶し、
前記固有空間法状態推定ステップS13のステップS13cでは、前記切出画像ベクトルの切出し位置に応じて、
(1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、
(2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、
もしくは、
(3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、
のいずれかを選択し、その切出画像ベクトルに対応する前記実画像情報の切出し位置から、該監視対象物の位置を特定し、
前記パーティクルフィルタ法状態推定ステップS14のステップS14cでは、前記切出画像ベクトルの切出し位置に応じて、
(1)前記切出画像ベクトルと前記固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求めるか、
(2)前記切出画像ベクトルと前記拡大画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記拡大画像固有ベクトルの組を求めるか、
もしくは、
(3)前記切出画像ベクトルと前記縮小画像固有ベクトルとを各々比較して、類似性が一番高い前記切出画像ベクトルと前記縮小画像固有ベクトルの組を求めるか、
のいずれかを選択し、
前記パーティクルフィルタ法状態推定ステップS14のステップS14dでは、その切出画像ベクトルに対応する前記位置候補から、該監視対象物の位置を特定することを特徴とする請求項6または請求項7に記載の物体認識方法。
In the template image eigenvector storage step S11, the monitored object or its three-dimensional model is photographed or displayed from a plurality of angles, the photographed or displayed image information is replaced with a matrix display, and eigenvectors for the matrix are calculated in advance. The enlarged image information or reduced image information obtained by enlarging or reducing the image information is replaced with a matrix display, and an enlarged image eigenvector or reduced image eigenvector for the matrix is calculated in advance, in addition to the eigenvector, the enlarged image eigenvector or the Store the reduced image eigenvector together,
In step S13c of the eigenspace method state estimation step S13, according to the cutout position of the cutout image vector,
(1) Each of the cutout image vector and the eigenvector is compared to determine a set of the cutout image vector and the eigenvector having the highest similarity,
(2) Each of the extracted image vector and the enlarged image eigenvector is compared to obtain a set of the extracted image vector and the enlarged image eigenvector having the highest similarity,
Or
(3) Each of the cut-out image vector and the reduced image eigenvector is compared to obtain a set of the cut-out image vector and the reduced image eigenvector having the highest similarity.
Is selected, and the position of the monitoring object is specified from the cut-out position of the real image information corresponding to the cut-out image vector,
In step S14c of the particle filter method state estimation step S14, according to the cutout position of the cutout image vector,
(1) Each of the cutout image vector and the eigenvector is compared to determine a set of the cutout image vector and the eigenvector having the highest similarity,
(2) Each of the extracted image vector and the enlarged image eigenvector is compared to obtain a set of the extracted image vector and the enlarged image eigenvector having the highest similarity,
Or
(3) Each of the cut-out image vector and the reduced image eigenvector is compared to obtain a set of the cut-out image vector and the reduced image eigenvector having the highest similarity.
Select one of the
The position of the monitoring target is specified from the position candidates corresponding to the cut-out image vector in step S14d of the particle filter method state estimation step S14. Object recognition method.
前記固有空間法状態推定ステップS13のステップS13cでは、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記実画像情報の切出し位置から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定し、
前記パーティクルフィルタ法状態推定ステップS14のステップS14dでは、類似性が一番高い前記切出画像ベクトルと前記固有ベクトルの組を求め、その切出画像ベクトルに対応する前記位置候補から該監視対象物の位置を特定するとともに、その固有ベクトルに対応する画像情報の撮影角度または表示角度から該監視対象物の角度を特定することによって、監視対象物の位置および角度を特定させることを特徴とする請求項6ないし請求項8のいずれかに記載の物体認識方法。
In step S13c of the eigenspace method state estimation step S13, a set of the cutout image vector and the eigenvector having the highest similarity is obtained, and the monitoring is performed from the cutout position of the real image information corresponding to the cutout image vector. While specifying the position of the object, specify the angle of the monitoring object from the imaging angle or display angle of the image information corresponding to the eigenvector,
In step S14d of the particle filter method state estimation step S14, a set of the cutout image vector and the eigenvector having the highest similarity is obtained, and the position of the monitoring object is determined from the position candidates corresponding to the cutout image vector. The position and angle of the monitoring object are specified by specifying the angle of the monitoring object from the imaging angle or display angle of the image information corresponding to the eigenvector. The object recognition method according to claim 8.
前記パーティクルフィルタ法状態推定ステップS14のステップS14aでは、パーティクルフィルタ法により監視対象物の位置候補となるパーティクルを複数生成するにあたり、特定された監視対象物の角度に応じて該監視対象物の進行方向を予測し、特定された監視対象物の位置を中心にして前記進行方向を長軸とする楕円の範囲内で前記パーティクルを移動させることによって、監視対象物の位置および角度を特定させることを特徴とする請求項9に記載の物体認識方法。   In step S14a of the particle filter method state estimation step S14, when generating a plurality of particles that are candidates for the position of the monitoring object by the particle filtering method, the traveling direction of the monitoring object according to the angle of the specified monitoring object And the position and angle of the monitoring object are specified by moving the particles within an ellipse whose major axis is the traveling direction around the position of the specified monitoring object. The object recognition method according to claim 9.
JP2007150226A 2007-06-06 2007-06-06 Object recognition apparatus and object recognition method Expired - Fee Related JP4866793B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007150226A JP4866793B2 (en) 2007-06-06 2007-06-06 Object recognition apparatus and object recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007150226A JP4866793B2 (en) 2007-06-06 2007-06-06 Object recognition apparatus and object recognition method

Publications (2)

Publication Number Publication Date
JP2008305059A JP2008305059A (en) 2008-12-18
JP4866793B2 true JP4866793B2 (en) 2012-02-01

Family

ID=40233755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007150226A Expired - Fee Related JP4866793B2 (en) 2007-06-06 2007-06-06 Object recognition apparatus and object recognition method

Country Status (1)

Country Link
JP (1) JP4866793B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2999847A1 (en) 2012-12-17 2014-06-20 Thomson Licensing METHOD FOR ACTIVATING A MOBILE DEVICE IN A NETWORK, DISPLAY DEVICE AND SYSTEM THEREOF
WO2018139301A1 (en) * 2017-01-24 2018-08-02 日本電気株式会社 Information processing device, information processing method, and recording medium having information processing program recorded thereon
JP6684475B2 (en) * 2017-03-13 2020-04-22 オムロン株式会社 Image processing apparatus, image processing method and program
JP2018197945A (en) * 2017-05-23 2018-12-13 株式会社デンソーテン Obstacle detection apparatus and obstacle detection method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0863602A (en) * 1994-08-19 1996-03-08 Fuji Electric Co Ltd Object tracking device
JP4373828B2 (en) * 2004-03-22 2009-11-25 富士フイルム株式会社 Specific area detection method, specific area detection apparatus, and program
KR100624481B1 (en) * 2004-11-17 2006-09-18 삼성전자주식회사 Template-based Face Detection Method
GB2431717A (en) * 2005-10-31 2007-05-02 Sony Uk Ltd Scene analysis

Also Published As

Publication number Publication date
JP2008305059A (en) 2008-12-18

Similar Documents

Publication Publication Date Title
EP2088535B1 (en) Image processing apparatus and method, and program
US9177404B2 (en) Systems and methods of merging multiple maps for computer vision based tracking
Cootes et al. Robust and accurate shape model fitting using random forest regression voting
EP1835446B1 (en) Feature point detecting device, feature point detecting method, and feature point detecting program
Liu et al. Joint subspace learning for view-invariant gait recognition
JP5940453B2 (en) Method, computer program, and apparatus for hybrid tracking of real-time representations of objects in a sequence of images
WO2011080900A1 (en) Moving object detection device and moving object detection method
KR100714724B1 (en) Face Pose Estimation Apparatus, Estimation Method and Face Recognition System
Chu et al. Posture and gesture recognition using 3D body shapes decomposition
JP2011086265A (en) Image processing apparatus and method, program, and storage medium
Sedai et al. A Gaussian process guided particle filter for tracking 3D human pose in video
JP2014048962A (en) Image processor, image processing method and program
TW201832182A (en) Movement learning device, skill discrimination device, and skill discrimination system
US7224835B2 (en) Three-dimensional object recognizing apparatus, method and computer program product
JP4866793B2 (en) Object recognition apparatus and object recognition method
Bhuyan et al. Trajectory guided recognition of hand gestures having only global motions
JP2013206458A (en) Object classification based on external appearance and context in image
JPWO2018235219A1 (en) Self-location estimation method, self-location estimation device, and self-location estimation program
EP2672424A1 (en) Method and apparatus using adaptive face registration method with constrained local models and dynamic model switching
Verlekar et al. View-invariant gait recognition exploiting spatio-temporal information and a dissimilarity metric
JP6393495B2 (en) Image processing apparatus and object recognition method
Joshi et al. Meta-Learning, Fast Adaptation, and Latent Representation for Head Pose Estimation
CN114743264A (en) Shooting behavior detection method, device, equipment and storage medium
Verlekar et al. Walking direction identification using perceptual hashing
JP5643147B2 (en) Motion vector detection apparatus, motion vector detection method, and motion vector detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100603

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111114

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141118

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees