JP6628494B2 - Apparatus, program, and method for tracking object using discriminator learning based on real space information - Google Patents
Apparatus, program, and method for tracking object using discriminator learning based on real space information Download PDFInfo
- Publication number
- JP6628494B2 JP6628494B2 JP2015085269A JP2015085269A JP6628494B2 JP 6628494 B2 JP6628494 B2 JP 6628494B2 JP 2015085269 A JP2015085269 A JP 2015085269A JP 2015085269 A JP2015085269 A JP 2015085269A JP 6628494 B2 JP6628494 B2 JP 6628494B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- motion information
- real space
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、物体を撮影可能なカメラから取得される時系列画像群を解析して当該物体を追跡する物体追跡技術に関する。 The present invention relates to an object tracking technique for analyzing a time-series image group acquired from a camera capable of photographing an object and tracking the object.
監視やマーケティング等の目的をもって、カメラで撮影され生成された時系列の画像群を用いて、移動する物体の実空間での位置を追跡する技術が開発されている。追跡する物体としては、人物や乗り物等、撮影可能な様々なものが対象となる。 2. Description of the Related Art For the purpose of surveillance, marketing, and the like, a technology for tracking a position of a moving object in a real space using a time-series image group captured and generated by a camera has been developed. As the object to be tracked, various objects that can be photographed, such as a person and a vehicle, are targeted.
このような物体追跡技術では、一般に、追跡対象物体の映っている画像における対象となる画像領域を追跡し、この画像領域を実空間での位置に変換することにより、実空間での物体の位置追跡を実現する。ここで、2次元の画像領域内の1つの点を3次元の実空間に投影する場合、この点に対応する実空間での点については、その高さ、即ちz座標値を所定値に固定する必要がある。 In such an object tracking technique, in general, a target image area in an image in which a tracking target object is reflected is tracked, and the image area is converted into a position in a real space, so that the position of the object in the real space is obtained. Achieve tracking. Here, when one point in the two-dimensional image area is projected onto the three-dimensional real space, the height of the point in the real space corresponding to this point, that is, the z coordinate value is fixed to a predetermined value. There is a need to.
例えば、画像内での領域の追跡結果からして、足元位置のように画像内で物体が床や地面に接していることが明らかな箇所は、高さをゼロとして実空間の床面の位置に投影することができる。しかしながら、実際には、画像内で物体が床や地面に接している箇所を特定し続けることは容易ではない。一般に、撮影画像において、物体が床や地面に接している箇所は、例えば、机、テーブル、人物や車といった他の物体の背後に回り隠れてしまうことも少なくない。 For example, based on the result of tracking the area in the image, the place where it is clear that the object is in contact with the floor or the ground in the image, such as the foot position, is assumed to have a height of zero and is positioned on the floor of the real space. Can be projected. However, in practice, it is not easy to continue to specify the location where the object is in contact with the floor or the ground in the image. In general, in a captured image, a place where an object is in contact with a floor or the ground is often hidden behind another object such as a desk, a table, a person, or a car.
このような実空間への投影の問題に対し、例えば特許文献1には、人物の頭部が足元に比べて画像内で隠れ難い事情を利用し、人物の足元位置が画像内で不明な場合に頭部の検出を行って、画像内の頭部の位置を示す点を、高さとして予め設定した平均身長値を当てはめて実空間に投影する技術が開示されている。
For such a problem of projection into a real space, for example,
また、特許文献2には、複数の視点から物体を撮影し、視点の異なる複数の画像に基づいて、物体が路面に接する箇所を推定する技術が開示されている。
Further,
しかしながら、特許文献1及び特許文献2に記載されたような従来技術では、実空間における高い位置精度を維持しつつ物体を追跡し続けることは困難であるという問題が生じていた。
However, in the related arts described in
例えば、特許文献1に記載されたような物体の平均的な高さを予め設定して用いる手法では、追跡対象物体の高さと平均的な高さとの乖離が大きい場合や、当該物体の形状が変化する場合、実空間での推定位置が正しい位置から大きくずれてしまう。例えば、子供を追跡する場合、この子供の実際の身長と予め設定された平均身長との差が大きくなって、画像内の頭部位置を実空間に投影した際に、本来の頭部位置から見て大きなずれが生じてしまう。さらに、高さを平均身長に設定することは、追跡する人物が直立している場合のみを想定していることになる。その結果、追跡対象人物において座る、お辞儀する等の形状変化が生じた場合、推定位置に大きなズレが生じてしまう。
For example, in the method described in
また、特許文献2に記載されたような複数視点による画像を用いた手法では、確かに、単眼カメラに比べて床や地面に接した箇所がいずれかの画像に映っている可能性は高くなる。しかしながら、例えば、他の移動物体に囲まれてしまっていずれのカメラからも当該箇所が撮影されなくなる状況は容易に発生し得る。即ち、複数視点によっても床や地面に接した箇所がいずれかのカメラに映ることは何ら保証されない。また、カメラを必ず複数台使用しなければならないので、導入・運用コストが単眼カメラに比べて高くなってしまうとの問題も生じる。
Further, in the method using an image from a plurality of viewpoints as described in
さらに、特許文献1及び特許文献2に記載された技術はいずれも、画像内での物体相当の領域の移動量を考慮して追跡を行っており、従って、実空間における移動量は考慮していない。その結果、画像内で推定位置に誤差が生じた場合に、画像内での移動量が僅かであったとしても、実空間での移動量が、現実にはほとんどあり得ないような急激な変化を示すものになってしまうという問題が生じ得る。
Furthermore, the techniques described in
そこで、本発明は、取得される画像群を用いて、実空間における高い位置精度を維持しつつ物体を追跡することができる装置、プログラム及び方法を提供することを目的とする。 Therefore, an object of the present invention is to provide an apparatus, a program, and a method capable of tracking an object while maintaining high positional accuracy in a real space by using an acquired image group.
本発明によれば、追跡対象の物体を撮影可能な1つ以上のカメラから取得される時系列の画像群を用いて当該物体を追跡可能な装置であって、
1つの時点における当該物体の実空間での位置に係る位置情報を含む情報である物体動き情報として、少なくとも当該物体の実空間での位置における前時点からの変化分を採用し、当該1つの時点における互いに変化分の異なる物体動き情報である複数の候補物体動き情報を算出する候補情報算出手段と、
取得された画像に係る画像情報と、正解とされる当該物体動き情報とを含むデータセットによって学習する識別器であって、当該物体の実空間での位置の変化分を変数とする確率密度関数に係る項と、当該物体に係る画像領域に対する当該候補物体動き情報から算出される画像領域の見かけ(appearance)の近さを評価する項とを有する評価関数に対し、入力された当該複数の候補物体動き情報及び当該1つの時点での画像に係る画像情報を適用し、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時点における当該物体の実空間での位置に係る正解の位置情報として出力する識別器によって、当該物体の実空間での刻々の位置情報を取得する物体追跡手段と
を有する物体追跡装置が提供される。
According to the present invention, an apparatus capable of tracking an object to be tracked using a time-series image group acquired from one or more cameras capable of capturing the object,
As the object motion information which is information including the position information on the position of the object in the real space at one time, at least the change from the previous time in the position of the object in the real space is adopted, and the one time Candidate information calculation means for calculating a plurality of candidate object motion information that is object motion information different in the amount of change from each other,
And image information according to the acquired image, a classifier to learn the data set comprising a the object motion information that is the correct answer, the probability that a change in the position of the real space of the object a variable density For the evaluation function having a term relating to the function and a term for evaluating the closeness of the appearance (appearance) of the image area calculated from the candidate object motion information with respect to the image area relating to the object, Applying the candidate object motion information and the image information related to the image at the one time point, the candidate object motion information that maximizes the score of the evaluation function is calculated based on the position of the object in the real space at the one time point. An object tracking unit that obtains instantaneous position information of the object in real space by a discriminator that outputs the position information as a correct answer ;
Object tracking apparatus having is provided.
また、本発明による物体追跡装置の他の実施形態として、候補情報算出手段は、当該1つの時点での当該物体動き情報として、当該物体の実空間での位置における前時点からの変化分と、当該物体の高さにおける前時点からの変化分とを採用して、当該1つの時点における少なくとも変化分の1つが異なる複数の候補物体動き情報を算出し、
物体追跡手段の識別器は、
(a)当該物体の実空間での位置の変化分を変数とする確率密度関数に係る項と、
(b)当該物体の高さの変化分を変数とする確率密度関数に係る項と、
(c)当該物体に係る画像領域に対する当該候補物体動き情報から算出される画像領域の見かけの近さを評価する項と
を有する評価関数に対し、入力された当該複数の候補物体動き情報及び当該1つの時点での画像に係る画像情報を適用し、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時点における当該物体の実空間での位置及び当該物体の高さに係る正解の情報として出力することも好ましい。
Further, as another embodiment of the object tracking device according to the present invention, the candidate information calculating means includes, as the object motion information at the one time point , a change in the position of the object in the real space from the previous time point , adopted and change from the previous point in the height of the object, at least one of the variation in the single point in time is to calculate a plurality of candidate object motion information different,
The classifier of the object tracking means is
(A) a term relating to a probability density function having a change in the position of the object in real space as a variable,
(B) a term relating to the probability density function having a change in the height of the object as a variable;
And (c) a term for evaluating the apparent proximity of the image area calculated from the candidate object motion information to the image area of the object. Applying the image information of the image at one point in time , the candidate object motion information that maximizes the score of the evaluation function is calculated based on the position of the object in the real space and the height of the object at the one point in time . It is also preferable to output the information as correct information.
さらに、本発明による物体追跡装置の更なる他の実施形態として、候補情報算出手段は、当該1つの時点での当該物体動き情報として、当該物体の実空間での位置における前時点からの変化分と、当該物体の高さにおける前時点からの変化分とを採用して、当該1つの時点における少なくとも変化分の1つが異なる複数の候補物体動き情報を算出し、
物体追跡手段の識別器は、
(a)当該物体の実空間での位置の変化分を変数とする確率密度関数に係る項と、
(b)当該物体の高さの変化分を変数とする確率密度関数に係る項と、
(c)当該物体に係る画像領域における当該物体の動き(motion)による変化と当該物体動き情報に係る変化分とが合致する度合いを評価する項と、
(d)当該物体に係る画像領域に対する当該候補物体動き情報から算出される画像領域の見かけの近さを評価する項と
を有する評価関数に対し、入力された当該複数の候補物体動き情報及び当該1つの時点での画像に係る画像情報を適用し、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時点における当該物体の実空間での位置及び当該物体の高さに係る正解の情報として出力することも好ましい。
Furthermore, as still another embodiment of the object tracking device according to the present invention, the candidate information calculating means includes, as the object motion information at the one time point , a change in the position of the object in the real space from the previous time point. If, adopts a change from the previous point in the height of the object, at least one of the variation in the single point in time is to calculate a plurality of candidate object motion information different,
The classifier of the object tracking means is
(A) a term relating to a probability density function having a change in the position of the object in real space as a variable,
(B) a term relating to the probability density function having a change in the height of the object as a variable;
(C) a term that evaluates the degree to which a change due to the motion of the object in the image area related to the object matches a change amount related to the object motion information;
(D) a term for evaluating the apparent proximity of the image area calculated from the candidate object motion information to the image area relating to the object, to the input plurality of candidate object motion information and the Applying the image information of the image at one point in time , the candidate object motion information that maximizes the score of the evaluation function is calculated based on the position of the object in the real space and the height of the object at the one point in time . It is also preferable to output the information as correct information.
また、以上に述べた各実施形態において、候補情報算出手段は、当該1つの時点での当該物体動き情報として、当該物体の傾きにおける前時点からの変化分を更に採用し、
物体追跡手段の識別器は、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時点における当該物体の傾きに係る正解の情報をも含む情報として出力することも好ましい。
Further, in each of the embodiments described above, the candidate information calculation unit further employs a change in the inclination of the object from the previous time as the object motion information at the one time ,
It is also preferable that the discriminator of the object tracking means outputs candidate object motion information that maximizes the score of the evaluation function as information including information on the correct answer related to the tilt of the object at the one point in time .
さらに、以上に述べた各実施形態において、取得された画像に基づいて当該物体を検出し、検出された当該物体に係る画像領域の最下位置に基づいて、当該物体の実空間での位置としての当該物体の接地位置を算出し、検出された当該物体に係る画像領域の最上位置に基づいて算出された実空間での位置と、算出された接地位置とに基づいて、当該物体の高さを算出する物体検出部を更に有することも好ましい。 Further, in each of the embodiments described above, the object is detected based on the acquired image, and the position of the object in the real space is determined based on the lowest position of the detected image area of the object. The ground position of the object is calculated, the position in the real space calculated based on the detected top position of the image area of the object, and the height of the object based on the calculated ground position It is preferable to further include an object detection unit that calculates
さらに、以上に述べた各実施形態において、物体追跡手段の識別器は、学習によって当該評価関数の各項の重み係数を決定し、決定された重み係数を有する評価関数を用いて、入力した当該画像に係る画像情報を処理して、出力する物体動き情報を算出することも好ましい。 Further, in each of the embodiments described above, the discriminator of the object tracking means determines the weight coefficient of each term of the evaluation function by learning, and uses the evaluation function having the determined weight coefficient to input the weight coefficient. It is also preferable that the image information relating to the image is processed to calculate the object motion information to be output.
また、本発明による物体追跡装置において、物体追跡手段の識別器は、1つの時点の前時点において、正解として出力された物体動き情報を用いて生成されたデータセットによって学習を行い、当該1つの時点における当該画像に係る画像情報を入力して、当該画像情報を、当該学習によって決定されたパラメータを用いて処理し、当該1つの時点における正解となる物体動き情報を出力することも好ましい。
さらに、本発明による物体追跡装置において、物体追跡手段の識別器は、当該物体に係る画像領域として、実空間における当該物体の上端から当該物体の高さの所定割合だけ下方となる位置までの物体部分を座標変換して算出された画像領域を採用することも好ましい。
Further, the object tracking apparatus according to the present invention, the identifier of the object tracking means, before the time of one time point, the data set generated by using the object motion information outputted as the correct learns, the one It is also preferable that image information relating to the image at the time is input, the image information is processed using the parameters determined by the learning, and the correct object motion information at the one time is output.
Further, in the object tracking device according to the present invention, the discriminator of the object tracking means may include, as an image area of the object, the object from the upper end of the object in the real space to a position lower by a predetermined ratio of the height of the object. It is also preferable to adopt an image area calculated by performing coordinate conversion on a portion.
さらにまた、本発明による物体追跡装置において、物体追跡手段の識別器は、構造化SVM(Structured Support Vector Machine)のアルゴリズムによって構築されることも好ましい。 Furthermore, in the object tracking device according to the present invention, it is preferable that the discriminator of the object tracking means is constructed by a structured SVM (Structured Support Vector Machine) algorithm.
本発明によれば、さらに、追跡対象の物体を撮影可能な1つ以上のカメラから取得される時系列の画像群を用いて当該物体を追跡可能な装置に搭載されたコンピュータを機能させるプログラムであって、
1つの時点における当該物体の実空間での位置に係る位置情報を含む情報である物体動き情報として、少なくとも当該物体の実空間での位置における前時点からの変化分を採用し、当該1つの時点における互いに変化分の異なる物体動き情報である複数の候補物体動き情報を算出する候補情報算出手段と、
取得された画像に係る画像情報と、正解とされる当該物体動き情報とを含むデータセットによって学習する識別器であって、当該物体の実空間での位置の変化分を変数とする確率密度関数に係る項と、当該物体に係る画像領域に対する当該候補物体動き情報から算出される画像領域の見かけ(appearance)の近さを評価する項とを有する評価関数に対し、入力された当該複数の候補物体動き情報及び当該1つの時点での画像に係る画像情報を適用し、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時点における当該物体の実空間での位置に係る正解の位置情報として出力する識別器によって、当該物体の実空間での刻々の位置情報を取得する物体追跡手段と
としてコンピュータを機能させる物体追跡プログラムが提供される。
According to the present invention, a program for causing a computer mounted on a device capable of tracking an object to be tracked by using a time-series image group acquired from one or more cameras capable of capturing the object to be tracked is provided. So,
As the object motion information which is information including the position information on the position of the object in the real space at one time, at least the change from the previous time in the position of the object in the real space is adopted, and the one time Candidate information calculation means for calculating a plurality of candidate object motion information that is object motion information different in the amount of change from each other,
And image information according to the acquired image, a classifier to learn the data set comprising a the object motion information that is the correct answer, the probability that a change in the position of the real space of the object a variable density For the evaluation function having a term relating to the function and a term for evaluating the closeness of the appearance (appearance) of the image area calculated from the candidate object motion information with respect to the image area relating to the object, Applying the candidate object motion information and the image information related to the image at the one time point, the candidate object motion information that maximizes the score of the evaluation function is calculated based on the position of the object in the real space at the one time point. the discriminator to output as the position information of the correct, object tracking program for causing a computer to function as <br/> the object tracking means for acquiring every moment the position information of the real space of the object is provided is It is.
本発明によれば、さらにまた、追跡対象の物体を撮影可能な1つ以上のカメラから取得される時系列の画像群を用い、コンピュータによって当該物体を追跡する方法であって、
1つの時点における当該物体の実空間での位置に係る位置情報を含む情報である物体動き情報として、少なくとも当該物体の実空間での位置における前時点からの変化分を採用し、当該1つの時点における互いに変化分の異なる物体動き情報である複数の候補物体動き情報を算出するステップと、
取得された画像に係る画像情報と、正解とされる当該物体動き情報とを含むデータセットによって学習する識別器であって、当該物体の実空間での位置の変化分を変数とする確率密度関数に係る項と、当該物体に係る画像領域に対する当該候補物体動き情報から算出される画像領域の見かけ(appearance)の近さを評価する項とを有する評価関数に対し、入力された当該複数の候補物体動き情報及び当該1つの時点での画像に係る画像情報を適用し、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時点における当該物体の実空間での位置に係る正解の位置情報として出力する識別器によって、当該物体の実空間での当該1つの時点における位置情報を決定するステップと
を繰り返し、当該物体の実空間での刻々の位置情報を取得する物体追跡方法が提供される。
According to the present invention, there is further provided a method of tracking an object to be tracked by a computer using a time-series image group acquired from one or more cameras capable of capturing the object to be tracked,
As the object motion information which is information including the position information on the position of the object in the real space at one time, at least the change from the previous time in the position of the object in the real space is adopted, and the one time Calculating a plurality of candidate object motion information, which are different object motion information from each other,
A probability classifier that learns from a data set including image information of an acquired image and the object motion information that is regarded as a correct answer, and uses a change in position of the object in real space as a variable. , And a term for evaluating the closeness of the appearance (appearance) of the image region calculated from the candidate object motion information with respect to the image region of the object, The candidate object motion information that maximizes the score of the evaluation function is obtained by applying the object motion information and the image information of the image at the one time point to the correct answer based on the position of the object in the real space at the one time point. Repeating the step of determining the position information of the object in the real space at the one point in time by the discriminator that outputs the position information of the object. An object tracking method for acquiring is provided.
本発明の物体追跡装置、プログラム及び方法によれば、取得される画像群を用いて、実空間における高い位置精度を維持しつつ物体を追跡することができる。 ADVANTAGE OF THE INVENTION According to the object tracking apparatus, program, and method of this invention, an object can be tracked using an acquired image group, maintaining high positional accuracy in real space.
以下、本発明の実施形態について、図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[物体追跡システム]
図1は、本発明による物体追跡装置を含む物体追跡システムの一実施形態を示す模式図である。
[Object tracking system]
FIG. 1 is a schematic diagram showing an embodiment of an object tracking system including an object tracking device according to the present invention.
図1に示した本実施形態の物体追跡システムは、
(a)追跡対象の物体を撮影可能であり、撮影した画像の情報を、通信ネットワークを介して時系列で送信可能な1つ又は複数のカメラ2と、
(b)カメラ2から通信ネットワークを介して取得される時系列の画像群を用いて当該物体を追跡可能な物体追跡装置1と
を備えている。
The object tracking system of the present embodiment shown in FIG.
(A) one or
(B) an
ここで、追跡対象となる物体には、人物、動物、乗り物や、その他移動可能な物理対象等、撮影可能であれば様々なものが該当する。特に、本実施形態では、立ったり座ったり屈んだりしてその全体の形状が変化し得る人物や動物等であってもよい。さらに、撮影される場所も、特に限定されるものではなく、例えば、観客、通勤者、買い物客、歩行者や、ランナー等が映り得る屋外であってもよいが、着席したりお辞儀をしたりする場面が想定されるような会社、学校、家庭や、店舗の内部といった屋内であることも好ましい。 Here, the object to be tracked includes various objects that can be photographed, such as a person, an animal, a vehicle, and other movable physical objects. In particular, in the present embodiment, a person, an animal, or the like that can change its overall shape by standing, sitting, or bending may be used. Further, the place where the image is taken is not particularly limited, and may be, for example, an outdoor where spectators, commuters, shoppers, pedestrians, runners, etc. can be seen, but may take a seat or bow. It is also preferable to be indoors, such as inside a company, school, home, or store where such situations are expected.
また、画像情報の伝送路である通信ネットワークは、例えばWi−Fi(登録商標)等の無線LAN(Local Area Network)とすることができる。または、LTE(Long Term Evolution)、WiMAX(Worldwide Interoperability for Microwave Access)又は3G(3rd Generation)等の無線系アクセスネットワークを介し、インターネットを経由してカメラ2と物体追跡装置1とを通信接続させるものであってもよい。
In addition, a communication network that is a transmission path of image information can be a wireless LAN (Local Area Network) such as Wi-Fi (registered trademark). Alternatively, the
さらに、光ファイバ網若しくはADSL(Asymmetric Digital Subscriber Line)等の固定系アクセスネットワークを介しインターネットを経由して、又はプライベートネットワークを介してカメラ2と物体追跡装置1とが通信接続されてもよい。また、変更態様として、カメラ2と物体追跡装置1とは直接有線で接続されてもよい。さらに、複数のカメラ2から出力される画像情報を取りまとめて物体追跡装置1に送信可能な(図示していない)カメラ制御装置が設けられていてもよい。
Further, the
同じく図1に示すように、物体追跡装置1は、刻々と取得される物体追跡対象の画像毎に、
(A1)この画像に係る画像情報を入力することによって少なくとも追跡対象物体の実空間での正解とされる位置情報を出力する追跡用識別器114aによって、少なくとも追跡対象物体の実空間での刻々の位置情報を取得する物体追跡部114
を有する。
Similarly, as shown in FIG. 1, the
(A1) The
Having.
ここで、この追跡用識別器114aは、
(A2)取得された画像に係る画像情報と、追跡対象物体の実空間での位置に係る位置情報を含む正解とされる「物体動き情報」とを含むデータセットによって学習する
ことによって構築され更新される。この「物体動き情報」は、後に詳細に説明するが、少なくとも追跡対象物体の実空間での位置における前時刻からの変化分Δpx t及びΔpy tを要素として含む量である。
Here, the
(A2) It is constructed and updated by learning with a data set including image information on an acquired image and “correct object movement information” including position information on the position of the tracking target object in the real space. Is done. The "object motion information" is described later in detail, is an amount containing a variation Delta] p x t and Delta] p y t from the previous time at the location in the real space of at least tracked object as an element.
このように、物体追跡装置1は、取得された画像に係る画像情報のみならず、実空間(観測対象空間)での追跡対象物体の位置情報を含む「物体動き情報」をも考慮して追跡を行っている。例えば、画像内での物体相当の画像領域の変化だけではなく、実空間における物体相当領域の変化をも考慮して、即ち実空間上での制約も取り入れて、追跡対象物体の実空間での刻々の位置情報を推定しているのである。その結果、画像内で推定位置に誤差が生じた場合に、画像内での移動量が僅かであったとしても、実空間での移動量が、現実にはほとんどあり得ないような急激な変化を示すものになってしまうといった事態を回避することができる。即ち、実空間を考慮した「物体動き情報」を取り入れることによって、取得される画像群を用いながらも、実空間における高い位置精度を維持しつつ物体を追跡することが可能となるのである。
As described above, the
因みに、「物体動き情報」における追跡対象物体の実空間での位置の前時刻からの変化分Δpx t及びΔpy t等を算出するには、画像での位置情報を実空間での位置情報に変換しなければならない。物体追跡装置1では、画像内に張られた画像座標系u-vでの位置座標(u, v)を、実空間に張られた世界座標系Gx-Gy-Gzでの位置座標(gx, gy, gz)へ変換する座標変換操作を用いて、追跡対象物体の映った画像情報から、実空間での位置の変化分等の位置情報を算出している。
Incidentally, in calculating the change in Delta] p x t and Delta] p y t like from the previous time position in the real space of the tracking target object in the "object motion information", the position information of the position information of the image in real space Must be converted to In the
例えば、追跡対象物体の画像内における前時刻(t−1)での位置(u, v)が、現時刻tでの位置(u', v')へ変化した場合、この物体は、実空間(観測対象空間)において前時刻(t−1)での位置(gx, gy, gz)から現時刻tでの位置(gx', gy', gz')へ移動したことが推定され、実空間での位置の前時刻(t−1)からの変化分を取得することができる。 For example, if the position (u, v) at the previous time (t−1) in the image of the tracking target object changes to the position (u ′, v ′) at the current time t, this object is in real space. Moved from the position (g x , g y , g z ) at the previous time (t−1) to the position (g x ′, g y ′, g z ′) at the current time t in (observation target space) Is estimated, and the change in the position in the real space from the previous time (t−1) can be obtained.
ここで、使用する時刻は、単位時間を1としてこの単位時間経過毎に設定される時刻であり、時刻tの1つ前となる前時刻はt-1となる。また、上記のような画像座標系から世界座標系への座標変換は、予めキャリブレーションにより各カメラ2についての設置位置及び撮影向きに係る外部パラメータを設定しておくことによって決定することが可能である。尚、複数のカメラ2のそれぞれから画像が取得される場合でも、これらの画像を統合して1つの画像空間を構築し、この画像空間に画像座標系を適用することができる。
Here, the time to be used is a time set every time the unit time elapses with the unit time set to 1, and the time immediately before the time t is t-1. Further, the coordinate conversion from the image coordinate system to the world coordinate system as described above can be determined by setting external parameters relating to the installation position and the shooting direction of each
さらに、物体追跡装置1では、追跡用識別器114aに対し、カメラ2から取得した時系列の各画像を用いて即座に、即ちオンラインで学習させることができる。その結果、追跡対象物体の位置を即座に把握して追跡を行うことが可能となるのである。さらに、刻々と学習する追跡用識別器114aを用いて追跡を行うので、対象物体の見え方が刻々と変化しても、同一の物体であると認識することができ、例えば当該物体に固有の識別子IDを付与し続けながら、適切な追跡を続行することが容易になる。
Further, in the
因みに、上記(A1)に示したように、物体追跡部114の追跡用識別器114aが入出力する画像情報、及び実空間での位置情報(「物体動き情報」)は、共に内部に構造をもったデータである。即ち、追跡用識別器114aは構造学習に基づいて実空間での正解とされる情報を出力可能となっている。このように、物体追跡装置1は、実空間とカメラ画像との間の構造関係を考慮した構造学習に基づき物体の識別を行うことによって、例えば後に詳述するように追跡対象物体における高さや形状の変化が起こった場合にも、例えば固有の識別子IDを付与し続けながら、正確な実空間での位置をもって追跡することを可能にするのである。
Incidentally, as shown in the above (A1), the image information input / output by the
[装置機能概要]
図2は、本発明による物体追跡装置の一実施形態における処理の流れを概略的に示すフローチャートである。
[Device Function Overview]
FIG. 2 is a flowchart schematically showing a flow of processing in an embodiment of the object tracking device according to the present invention.
図2によれば、本実施形態の物体追跡装置1は、カメラ2から解析対象の画像を取得した際、追跡対象の物体に対応した学習済みの追跡用識別器114a(図1)に対して当該画像を入力し、正解としての「物体動き情報」を出力させて当該物体を追跡する。ここで、追跡対象物体の数だけの追跡用識別器114aが使用される。この際、各物体には当該物体固有の識別子IDが継続して付与されることになる。
According to FIG. 2, when the
さらに、物体追跡装置1は、追跡用識別器114aから出力された正解の「物体動き情報」と、取得した画像とを教師データセットとして用い、追跡用識別器114aにオンライン学習を行わせる。
Further, the
また、物体追跡装置1は、上記の追跡処理と並行して、検出処理を行う。具体的には、新規の又は追跡されていない可能性のある物体が、取得された画像上に写っていないか否かを学習済みの検出用識別器を用いて判定し、このような物体の領域が当該画像上に出現した際に当該物体を検出したとする。
The
物体が検出された際、物体追跡装置1は、新規に追跡を開始する前に、検出された物体と過去に追跡していた物体との類似度を算出し、この類似度が所定値以上である場合に、一旦追跡が終了した物体が撮影可能な空間内に復帰したとみなす。この場合、類似度の高い過去の物体と同一の識別子IDを検出物体に付与して、即ち識別子IDを統合して追跡を再開する。一方、算出した類似度が所定値よりも小さい場合、新規の物体が撮影可能な空間内に出現したとみなし、新規の識別子IDを検出物体に付与する。
When an object is detected, the
物体追跡装置1は、次いで、時系列で再び新たな画像を取得して、図2に示したような処理のサイクルを繰り返す。
Next, the
以上に説明したように、物体追跡装置1は、1つ以上のカメラ2からの時系列画像群を用いて追跡と同時に検出処理も行っているので、物体における様々の状況に合わせて、的確な且つ統合的な追跡を実施することができる。
As described above, the
[装置構成、物体追跡方法]
図3は、本発明による物体追跡装置の一実施形態における機能構成を示す機能ブロック図である。
[Device configuration, object tracking method]
FIG. 3 is a functional block diagram showing a functional configuration in an embodiment of the object tracking device according to the present invention.
図3によれば、物体追跡装置1は、1つ又は複数のカメラ2と通信接続可能な通信インタフェース101と、画像蓄積部102と、ID蓄積部103と、追跡物体管理部104と、プロセッサ・メモリとを有する。ここで、プロセッサ・メモリは、物体追跡装置1のコンピュータを機能させるプログラムを実行することによって、物体追跡機能を実現させる。
According to FIG. 3, the
さらに、プロセッサ・メモリは、機能構成部として、物体検出部111と、ID(識別子)管理部112と、候補情報算出部113と、物体追跡部114と、物体位置・形状推定部115と、通信制御部121とを有する。ここで、物体検出部111は、検出用識別器111aと、高さ算出部111bとを有することも好ましい。さらに、ID管理部112は、物体統合部112aと、物体登録部112bとを有することも好ましい。さらにまた、物体追跡部114は、追跡用識別器114aと、教師データセット生成部114bとを有することも好ましい。尚、図3における物体追跡装置1の機能構成部間を矢印で接続して示した処理の流れは、本発明による物体追跡方法の一実施形態としても理解される。
Further, the processor memory includes, as functional components, an object detection unit 111, an ID (identifier)
カメラ2は、例えば、CCDイメージセンサ、CMOSイメージセンサ等の固体撮像素子を備えた可視光、近赤外線又は赤外線対応の撮影デバイスである。また、カメラ2又は(図示していない)カメラ制御装置は、カメラ2で撮影された物体の画像を含む撮影画像データを生成し、当該データを時系列に又はバッチで物体追跡装置1に送信する機能を有する。また、カメラ2は、可動であって設置位置、撮影向きや高さを変更することができ、この変更のための制御信号を受信し処理する機能を有していることも好ましい。
The
通信インタフェース101は、カメラ2又はカメラ制御装置から時系列の画像群である撮影画像データを、通信ネットワークを介して受信する。通信インタフェース101を使用した送受信及び通信データ処理の制御は、通信制御部121によって行われ、取得された撮影画像データは、画像蓄積部102に蓄積される。ここで、この撮影画像データは、カメラ2又はカメラ制御装置から時系列順に呼び出されて取得されたものであってもよく、リアルタイムに一定時間間隔でキャプチャされた画像を順に取得したものであってもよい。
The
物体検出部111は、所定の特徴量を用いて学習を行った検出用識別器111aによって、物体識別対象の画像における出現した又は追跡されていない物体を検出可能な機能部である。具体的には、画像蓄積部102に蓄積された画像において、追跡対象となる物体に対応する画像領域を検出する。ここで、人物を追跡対象とする場合、学習には人物検出に適した特徴量を用いる。物体検出のための特徴量としては、例えばHOG特徴量を使用することも好ましい。HOG特徴量は、画像の局所領域における輝度の勾配方向をヒストグラム化し、各度数を成分としたベクトル量である。HOG特徴量を用いた人物検出技術については、例えば、非特許文献であるDalal. N及びTriggs. B、「Histograms of Oriented Gradients for Human Detection」、proceedings of IEEE Computer Vision and Pattern Recognition (CVPR)、pp.886-893、2005年に記載されている。
The object detection unit 111 is a functional unit that can detect an object that has appeared or has not been tracked in the image of the object identification target by the
物体検出部111は、また、画像蓄積部102から入力した画像から物体を検出した際、新規登録の可能性がある検出した物体の情報をID管理部112へ通知し、登録を依頼する。
Further, when detecting an object from the image input from the
さらに、物体検出部111は高さ算出部111bを有する。高さ算出部111bは、検出された追跡対象物体に係る画像領域の最下位置(例えば最下ピクセル位置)に基づいて、この物体の実空間での位置としての接地位置を算出し、検出された物体に係る画像領域の最上位置(例えば最上ピクセル位置)に基づいて算出された実空間での位置と、算出された接地位置とに基づいて、この物体の高さh0を算出する。次に、高さh0の算出の一実施形態を詳しく説明する。
Further, the object detection unit 111 has a
図4は、高さ算出部111bにおける物体の高さh0を算出する方法の一実施形態を示す模式図である。尚、本実施形態では、最初に、物体の検出は、物体が標準的な形状であり、且つ画像内において床や地面に接している箇所(接地位置)が明らかな場合に行われる。例えば、人物であれば直立していて足元が映っている人物のみを検出する。画像内で物体を検出した際、実空間における標準形状でのこの物体の高さを推定する。
FIG. 4 is a schematic diagram illustrating an embodiment of a method for calculating the height h 0 of the object in the
ここで、図1に示したような画像に張られた画像座標系での座標(u, v)と、実空間(観察対象空間)に張られた世界座標系での座標(gx, gy, gz)との間には、次式
上式(1)を用いて、2次元の画像座標系での座標から3次元の世界座標系での座標を求める際、画像座標系での座標(u, v)及び透視投影行列Pが定まっているだけでは、未知パラメータの数(4つ)が観測方程式の数(3つ)よりも多いので、世界座標系での座標(gx, gy, gz)を一意に決定することはできない。 When the coordinates in the three-dimensional world coordinate system are obtained from the coordinates in the two-dimensional image coordinate system using the above equation (1), the coordinates (u, v) in the image coordinate system and the perspective projection matrix P are determined. , The number of unknown parameters (4) is greater than the number of observation equations (3), so it is not possible to uniquely determine the coordinates (g x , g y , g z ) in the world coordinate system. Can not.
しかしながら、本実施形態では、図4に示したように、検出された物体について画像内で床や地面に接している接地位置(ub 0, vb 0)が取得される。従って、この接地位置(ub 0, vb 0)及びgz=0を式(1)に代入することによって、接地位置(ub 0, vb 0)に対応する実空間上の位置(gx 0, gy 0, 0)を一意に取得することができる。ここで、実空間での物体の高さをh0とすると、取得された実空間の床面又は地面での位置座標gx 0及びgy 0と、画面座標系での物体の最上部の点(uh 0, vh 0)との間に、次式の関係が成立する。
以上説明したように、物体検出部111の高さ算出部111bは、例えば、1.人物を画像内で検出(抽出)した際、2.人物モデルを実空間に投影して足元の世界座標系での座標を決定し、3.人物の身長、即ち標準的な形状での高さh0を算出することができるのである。
As described above, the
図3に戻って、ID管理部112は、物体統合部112aと、物体登録部112bとを有する。このうち物体統合部112aは、物体検出部111から通知のあった検出された物体と、過去に識別子IDを付与された既知物体とを比較し、検出された物体に対し、同一物体であると判定された既知物体に付与された識別子IDを付与する旨を決定する。
Returning to FIG. 3, the
物体統合部112aは、具体的に、
(a)(例えば複数のカメラ2から取得された)物体識別対象の画像から算出される両物体間の実空間での距離dが、既知物体の移動速度vを考慮した現時点での両物体間の推定距離未満であって、且つ検出された物体の領域と既知物体の領域とから決定される類似度が所定閾値よりも大きい場合、この既知物体が現在追跡されていないならば、検出された物体に対し、既知物体に付与されたものと同一の識別子IDを付与することを決定する。
(b)一方、上記(a)において、この既知物体が現在追跡されているならば、物体検出部111からの通知を無視し、新規登録は行わない。
(c)上記(a)及び(b)以外の場合、検出された物体に対し、新たな識別子IDを付与することを決定する。
The
(A) The distance d in the real space between the two objects calculated from the image of the object identification target (for example, obtained from the plurality of cameras 2) is the distance between the two objects at the present time in consideration of the moving speed v of the known object. Is less than the estimated distance, and if the similarity determined from the detected object region and the known object region is greater than a predetermined threshold, if the known object is not currently tracked, it is detected. It is determined that the same identifier ID as that assigned to the known object is assigned to the object.
(B) On the other hand, in (a), if the known object is currently being tracked, the notification from the object detection unit 111 is ignored, and no new registration is performed.
(C) In cases other than the above (a) and (b), it is determined to assign a new identifier ID to the detected object.
一方、物体登録部112bは、識別子ID付与の決定された物体に識別子IDを付与し、当該物体を登録し管理する。ここで、検出された物体の画像領域に係る情報と、付与された識別子IDとが対応付けられてID蓄積部103に保存されることも好ましい。尚、上記(a)における類似度は、追跡中に学習された各物体に対応する識別器を用いて算出されてもよい。また、後に詳細に説明するものではあるが、各物体に対応する評価関数Fのうち見かけ(appearance)の近さをスコア化する関数Ψ(xt|yt)の値を用いて算出されることも好ましい。
On the other hand, the
候補情報算出部113は、1つの時刻tでの「物体動き情報」として、少なくとも
(a)追跡対象物体の実空間での位置における前時刻(t−1)からの変化分Δpx t及びΔpy t
を採用し、この1つの時刻tにおける互いに変化分の異なる複数の「候補物体動き情報」を算出する。ここで、追跡用識別器114aを用いてこの複数の「候補物体動き情報」の中から最適な1つを決定することによって、当該1つの時刻tでの追跡対象物体の位置を推定することができるのである。
The candidate
To calculate a plurality of “candidate object motion information” having different amounts of change at one time t. Here, it is possible to estimate the position of the tracking target object at the one time t by determining an optimum one from the plurality of “candidate object motion information” using the
また、変更態様として、候補情報算出部113は、1つの時刻tでの「物体動き情報」として、
(b)上記(a)の変化分Δpx t及びΔpy tと、追跡対象物体の高さにおける前時刻(t−1)からの変化分Δhtと
を採用して、この1つの時刻tにおける少なくとも変化分の1つが異なる複数の「候補物体動き情報」を算出してもよい。さらに、
(c)上記(a)の変化分Δpx t及びΔpy tと、上記(b)の変化分Δhtと、追跡対象物体の傾きにおける前時刻(t−1)からの変化分Δatとからの変化分と
を採用して、この1つの時刻tにおける少なくとも変化分の1つが異なる複数の「候補物体動き情報」を算出することも好ましい。尚、「物体動き情報」及び「候補物体動き情報」の具体例については、後に図8〜10を用いて詳細に説明する。
In addition, as a change mode, the candidate
(B) the a variation Delta] p x t and Delta] p y t of (a), employs a variation Delta] h t from the previous time (t-1) at the height of the tracking target object, the one at time t A plurality of “candidate object motion information” in which at least one of the changes in may be calculated. further,
A variation Delta] p x t and Delta] p y t of (c) above (a), the change in Delta] h t of the (b), the variation .DELTA.a t from the previous time (t-1) in the slope of the tracked object It is also preferable to calculate a plurality of “candidate object motion information” in which at least one of the changes at this one time t is different by adopting the change from. Specific examples of the “object motion information” and the “candidate object motion information” will be described later in detail with reference to FIGS.
同じく図3において、物体追跡部114は、追跡用識別器114aを用いて、追跡対象物体の実空間での刻々の位置情報を取得する。具体的には、取得された画像中のある領域に追跡対象物体が映っているか否かを例えば2値判定する追跡用識別器114aを用い、未知の画像中に追跡対象物体が映っていると認識される領域を推定していくことで物体追跡を行う。
Similarly, in FIG. 3, the
ここで、追跡用識別器114aは、
(a)取得された画像に係る画像情報と、当該物体の実空間での位置に係る位置情報を含む物体動き情報であって正解とされる情報とを含む教師データセットによってオンライン学習を行い、
(b)物体追跡対象の画像毎に、当該画像に係る画像情報を入力することによって少なくとも追跡対象物体の実空間での正解とされる位置情報を出力する。
尚、上記(a)の教師データセットは、教師データセット生成部114bによって生成される。
Here, the
(A) online learning is performed by a teacher data set including image information relating to the acquired image and object motion information including position information relating to the position of the object in the real space, which is regarded as the correct answer;
(B) For each image of the object to be tracked, by inputting image information related to the image, at least position information that is a correct answer in the real space of the tracked object is output.
The teacher data set (a) is generated by the teacher data
このように、追跡用識別器114aは、上記(a)及び(b)を繰り返し実行することによって、新たに画像が読み込まれる毎に、オンラインで学習しつつこの読み込み時刻での物体の位置情報を出力することを可能にする。
In this way, the
図5は、取得される時系列の画像と追跡用識別器114aでの識別機能との関係を概略的に示す模式図である。
FIG. 5 is a schematic diagram schematically showing the relationship between the acquired time-series images and the identification function of the tracking
図5によれば、追跡用識別器114aは、取得される時系列の各画像を用いて刻々に学習を行う。追跡用識別器は、構造データの取り扱いが可能な教師あり機械学習であれば種々のもので構築可能であるが、例えば構造化サポートベクタマシン(SVM,Structured Support Vector Machine)のアルゴリズムによって構築されていることも好ましい。
According to FIG. 5, the
具体的に学習の内容としては、追跡対象物体の領域に対応付けられる特徴量としての「物体動き情報」に正のラベルを付与し、それ以外の領域に対応付けられる「物体動き情報」に負のラベルを付与して、これらの特徴量を特徴空間内に配置する。次いで、特徴空間内においてラベルの正負を区分けする識別超平面を算出する。このように学習によって取得した識別超平面を基準として、以後、判定を実施することができる。例えば、時刻tにおける画像領域の判定は、時刻ゼロから時刻(t-1)までの間オンライン学習を行ってきた追跡用識別器114aを用いて実施される。
Specifically, the contents of the learning include adding a positive label to “object motion information” as a feature amount associated with the area of the tracking target object, and adding a negative label to “object motion information” associated with the other areas. And the feature amounts are arranged in the feature space. Next, an identification hyperplane that separates the sign of the label in the feature space is calculated. Thereafter, the determination can be performed with reference to the identification hyperplane acquired by the learning. For example, the determination of the image area at time t is performed using the
ここで、特徴空間内における当該特徴量と識別超平面との距離dは、後に詳細に説明する評価関数Fの値(スコア)に相当する。次に、上記の「物体動き情報」yについて説明する。 Here, the distance d between the feature amount and the discrimination hyperplane in the feature space corresponds to a value (score) of an evaluation function F described later in detail. Next, the “object motion information” y will be described.
最初に、推定関数y=f(x)として、
(3) f(x)=argmaxy∈YF(x, y)
を採用する。これにより、画像xが与えられると、推定関数fはyを出力する。ここで、F(x, y)は、上述した評価関数であるが、本実施形態におけるその具体的な形は、後に式(6)に示す。
First, as an estimation function y = f (x),
(3) f (x) = argmax y∈Y F (x, y)
Is adopted. Thus, when the image x is given, the estimation function f outputs y. Here, F (x, y) is the above-described evaluation function, and a specific form in the present embodiment is shown later in Expression (6).
本実施形態では、時刻tにおける画像をxtとした際に、この時刻tでの物体動き情報ytを、
(4) yt=(Δpx t, Δpy t, Δht, Δat)
と定義する。上式(4)において、パラメータΔpx tは、追跡対象物体における世界座標系のGx軸方向での前時刻(t−1)からの位置の変化分であり、パラメータΔpy tは、追跡対象物体における世界座標系のGy軸方向での前時刻(t−1)からの位置の変化分である。また、パラメータΔhtは、追跡対象物体における(世界座標系のGz軸方向での)高さの変化分である。さらに、パラメータΔatは、追跡対象物体の傾きの角度における前時刻(t−1)からの変化分である。この傾きの角度は、例えば人物でいえばお辞儀の際の傾き角に相当し、世界座標系で言えばGz軸を含む面内での角度となる。
In the present embodiment, an image at time t upon the x t, the object motion information y t at this time t,
(4) y t = (Δp x t, Δp y t, Δh t, Δa t)
Is defined. In the above equation (4), the parameter Delta] p x t is the change in position from the previous time (t-1) in G x-axis direction of the global coordinate system in the tracking target object, the parameter Delta] p y t is tracked This is a change in position of the target object in the world y- axis direction of the world coordinate system from the previous time (t−1). The parameter Delta] h t is (at G z-axis direction of the global coordinate system) in the tracked object is a change in the height. Furthermore, the parameter .DELTA.a t is the change from the previous time (t-1) at an angle of inclination of the tracking target object. The angle of the tilt corresponds to, for example, the tilt angle when bowing in the case of a person, and is an angle in a plane including the Gz axis in the world coordinate system.
尚、パラメータΔatについても、他のパラメータと同じく実空間(世界座標系)での値を用いてもよいが、以下の実施形態では、画像内(画像座標系)での値を用いるものとする。即ち、Δatは、追跡対象物体が画像座標系に投影された際の角度値の変化分となる。このように、Δatとして画像内(画像座標系)での値を採用することによって、角度変化分を1次元で考えることができるので、物体動き情報ytの推定の際の候補数が極端に増大するのを回避し、計算量を抑えることが可能となる。また、パラメータΔhtも、Δatと同じく、追跡対象物体が画像座標系に投影された際の画像上での高さの変化分とすることも可能である。 Incidentally, for the parameter .DELTA.a t, it may be used the values of the other parameters as well the real space (world coordinate system), but in the following embodiments, and those using the values in the image (image coordinate system) I do. That, .DELTA.a t is a change in the angle value when the tracking target object projected on the image coordinate system. Thus, by adopting the values in the image as .DELTA.a t (image coordinate system), it is possible to consider the angular variation in one dimension, extremes number of candidates during the estimation of the object motion information y t Can be avoided, and the amount of calculation can be suppressed. The parameter Delta] h t also, as with .DELTA.a t, can be tracked object is the height variation of the on the image when projected on the image coordinate system.
次に、これらのパラメータ(物体動き情報)と画像座標系での対応する画像領域との関係について説明する。 Next, the relationship between these parameters (object motion information) and the corresponding image area in the image coordinate system will be described.
図6は、追跡対象物体を画像座標系へ投影する一実施形態を説明するための模式図である。 FIG. 6 is a schematic diagram for explaining an embodiment in which a tracking target object is projected on an image coordinate system.
ある時刻tにおける候補となるパラメータベクトルである候補物体動き情報ytと、取得された画像xtとは、図6に示したような関係を有する。ここで、前時刻(t−1)において決定(出力)された物体動き情報の最適解をyt-1*=(Δpx t-1*, Δpy t-1*, Δht-1*, Δat-1*)とする。 A candidate object motion information y t is a parameter vectors, which are candidates at a certain time t, and the acquired image x t, having a relationship as shown in FIG. Here, the preceding time (t-1) determined in (output) is the object of the optimal solution of the motion information y t-1 * = (Δp x t-1 *, Δp y t-1 *, Δh t-1 * , Δa t-1 * ).
図6に示すように、最初に、追跡対象物体については、床又は地面への接地位置である物体位置に、対応する3次元の物体モデルが存在するものとしている。この物体モデルは、予め定められた標準的なおおよその物体の形を表したものであり、モデル表面を表す3次元空間内の点の集合となっている。この物体モデルの初期の(時刻ゼロでの)高さはh0であり、この物体の時刻(t−1)における高さht-1*は、
(5) ht-1*=h0+ΣΔhk*
となる。ここで、Σはkについての1からt−2までの総和である。時刻tにおける物体モデルの高さhtは、ht-1*からΔhtだけ変化した値(ht-1*−Δht)となっている。
As shown in FIG. 6, it is assumed that a three-dimensional object model corresponding to an object position to be tracked first exists at an object position that is a ground contact position with the floor or the ground. This object model represents a predetermined standard approximate shape of an object, and is a set of points in a three-dimensional space representing the model surface. The initial height (at time zero) of this object model is h 0 , and the height h t-1 * of this object at time (t−1) is
(5) h t-1 * = h 0 + ΣΔh k *
Becomes Here, Σ is a sum of k from 1 to t−2. The height h t of the object model at time t has a h t-1 * from Delta] h t only changed values (h t-1 * -Δh t ).
本実施形態では、この物体モデルのうち、上端から長さαh0の範囲となる上部を画像座標系へ投影する。αは予め定められた1以下の正の((0, 1]の範囲内の)定数である。ここで、物体モデル(部分)を画像座標系へ投影するとは、物体モデル(の部分)の表面に相当する点集合を画像座標系へ変換することである。さらに、物体モデル(部分)を画像座標系へ投影した結果の画像領域とは、物体モデル(の部分)の表面の点集合に対応する変換された画面上の点集合によって囲われる画像内の領域のことである。 In the present embodiment, the upper part of the object model, which is within a range of the length αh 0 from the upper end, is projected onto the image coordinate system. α is a predetermined positive constant (within the range of (0, 1)) equal to or less than 1. Here, projecting the object model (portion) onto the image coordinate system means that the object model (portion) is Further, the point set corresponding to the surface is transformed into the image coordinate system, and the image area resulting from projecting the object model (part) onto the image coordinate system is defined as a point set on the surface of (part of) the object model A region in an image that is surrounded by a corresponding transformed point set on the screen.
即ち、追跡用識別器114a(図3)は、学習及び判定の際の追跡対象物体に係る画像領域として、実空間における当該物体の上端から高さh0の所定割合αだけ下方となる位置までの物体部分を座標変換して算出された画像領域を採用するのである。一般に、撮影画像においては、物体が床や地面に接している箇所は、例えば、机、テーブル、人物や車といった他の物体の背後に回り隠れてしまうことも少なくない。しかしながら、本実施形態によれば、接地位置が隠れて見えない状況でも追跡対象物体の上部を追跡するので、当該物体の位置や高さを継続して認識し続けることが可能となる。
That is, tracing
ここで、物体モデルにおける画像座標系へ投影された上部に相当する時刻(t−1)での画像領域を、ある基準点を中心にΔatだけ画像上で回転させた領域を、以下、xt|ytと表す。即ち、xt|ytは、画像xtにおいて物体動き情報がyt=(Δpx t, Δpy t, Δht, Δat)である場合に、画像内に映る物体モデルの上部に相当する画像領域である。 Here, the image area at time (t-1) corresponding to the upper projected into the image coordinate system in the object model, the area is rotated on the image just .DELTA.a t mainly a certain reference point, or less, x t | yt . That, x t | yt is the object motion information in the image x t is y t = (Δp x t, Δp y t, Δh t, Δa t) If it is, corresponds to the upper part of the object model appearing in the image This is an image area.
次に、複数の候補物体動き情報を生成して時刻tにおける最適解yt*を決定するための探索方法について説明する。 Next, a search method for generating a plurality of pieces of candidate object motion information and determining an optimal solution y t * at time t will be described.
図7は、物体動き情報における実空間での変化分に係る要素と物体モデルとの関係を示す模式図である。 FIG. 7 is a schematic diagram illustrating a relationship between an element related to a change in the real space in the object motion information and the object model.
物体動き情報ytにおけるΔpx t、Δpy t及びΔhtは、既に説明したように、前時刻(t−1)から時刻tまでの間における物体位置及び高さの変化分であるが、図7に示すように、それぞれ床又は地面上のGx軸方向での変化分、床又は地面上のGy軸方向での変化分、Gz軸方向での変化分に相当する。 Delta] p x t in the object motion information y t, Delta] p y t and Delta] h t, as already described, it is a change in object position and height between the previous time (t-1) to time t, as shown in FIG. 7, each variation in G x-axis direction on the floor or ground, the variation in G y-axis direction on the floor or ground, corresponding to the variation in G z-axis direction.
図8は、実空間での位置に係るサンプリングによる候補物体動き情報の取得の一実施形態を示す模式図である。因みに、以下に(図8〜10で)示す複数の候補物体動き情報のうち、上式(3)f(x)=argmaxy∈YF(x, y)を満たすものが最適解(正解)となる。 FIG. 8 is a schematic diagram showing an embodiment of obtaining candidate object motion information by sampling a position in a real space. Incidentally, among a plurality of candidate object motion information shown below (FIGS. 8 to 10), one that satisfies the above equation (3) f (x) = argmax y∈Y F (x, y) is the optimal solution (correct answer). It becomes.
図8によれば、実空間での位置変化分Δpx t及びΔpy tの互いに異なる複数の候補物体動き情報ytが、円形状のグリッドサンプリングによって取得されている。 According to FIG. 8, a plurality of different candidate object motion information y t position variation Delta] p x t and Delta] p y t in the real space have been acquired by the circular grid sampling.
具体的に、Δpx t及びΔpy tの組は、前時刻(t−1)での床又は地面上の位置を中心に構成された円形グリッドにおいて、所定範囲内にある格子点に相当する値の組として複数決定される。例えば、半径rが3、4又は5(所定単位)であって方位角θが0から10°刻みで350°までの値をとるとした場合の円形グリッド格子点(r, θ)に相当する値の組(Δpx t, Δpy t)を有するytを候補物体動き情報としてもよい。因みに変更態様として、候補物体動き情報ytにおける実空間での位置変化分を極座標表示で、即ちΔrt及びΔθtとして表示してもよい。尚、半径rについてどのような範囲の値をとるかについては、前時刻(t−1)での物体モデルの移動速度を算出し、この値に基づいて時刻tであり得る値範囲を設定して決定することも好ましい。例えば、移動速度がゼロであったならば、半径rはゼロから始まる値の組をとるものとする。 Specifically, the set of Delta] p x t and Delta] p y t is the circular grid built around a position on the floor or ground at the previous time (t-1), corresponding to the lattice point is within a predetermined range A plurality of values are determined. For example, when the radius r is 3, 4, or 5 (predetermined unit) and the azimuth angle θ takes a value from 0 to 350 ° in increments of 10 °, it corresponds to a circular grid lattice point (r, θ). value pairs (Δp x t, Δp y t ) may be the candidate object motion information y t with. Incidentally As modifications, the position change of the real space in a candidate object motion information y t in polar coordinates, i.e. may be displayed as [Delta] r t and [Delta] [theta] t. Regarding the value of the range of the radius r, the moving speed of the object model at the previous time (t−1) is calculated, and a value range that can be the time t is set based on this value. It is also preferable to determine it. For example, if the moving speed is zero, the radius r takes a set of values starting from zero.
以上説明したように、候補となる位置変化分の決定した人物モデルは、図8に示すように、上部αh0の部分のみが画像座標系に投影される。このように投影された複数の画像領域が、画像xtでの複数の候補領域となる。 As described above, in the human model determined as the candidate position change, only the upper αh 0 portion is projected on the image coordinate system as shown in FIG. Such projected plurality of image areas in becomes the plurality of candidate areas in the image x t.
図9は、実空間での高さに係るサンプリングによる候補物体動き情報の取得の一実施形態を示す模式図である。 FIG. 9 is a schematic diagram illustrating an embodiment of obtaining candidate object motion information by sampling the height in the real space.
図9によれば、実空間での高さ変化分Δhtの互いに異なる複数の候補物体動き情報ytが取得されている。 According to FIG. 9, a plurality of different candidate object motion information y t of the height variation Delta] h t in the real space is acquired.
具体的に、Δhtは、前時刻(t−1)での高さht-1*からの高さ変化分であり、複数のバリエーションの高さ変化分として複数の候補値をとる。例えば、固定変化分Δhを予め設定しておき、Δhのプラス・マイナス係数倍を高さ変化分の複数候補とすることができる。この際、係数値も所定範囲内で変化させる。尚、候補となる高さ変化分の決定した人物モデルは、図9に示すように、上部αh0の部分のみが画像座標系に投影される。このように投影された複数の画像領域が、画像xtでの複数の候補領域となる。 Specifically, Delta] h t is before the time (t-1) is the height change from the height h t-1 * in, taking a plurality of candidate values as the height variation of the multiple variations. For example, the fixed change Δh may be set in advance, and a plus / minus coefficient times Δh may be set as a plurality of candidates for the height change. At this time, the coefficient value is also changed within a predetermined range. As shown in FIG. 9, only the upper αh 0 portion of the human model determined as the candidate height change is projected onto the image coordinate system. Such projected plurality of image areas in becomes the plurality of candidate areas in the image x t.
図10は、画像座標系での傾きに係るサンプリングによる候補物体動き情報の取得の一実施形態を示す模式図である。 FIG. 10 is a schematic diagram illustrating an embodiment of acquiring candidate object motion information by sampling the inclination in the image coordinate system.
図10によれば、画像座標系に投影された物体モデルの上部の画像領域xt|ytについて、傾きの変化分Δatの互いに異なる複数の候補物体動き情報ytが取得されている。このような候補物体動き情報を考慮することにより、例えば、追跡対象物体が人物である場合に、体を腰から傾けるような形状変化にも対応して追跡を行うことができる。 According to FIG. 10, the upper portion of the image area x t of the object model projected on the image coordinate system | About yt, different plurality of candidate object motion information y t of the slope of the variation .DELTA.a t are acquired. By considering such candidate object motion information, for example, when the tracking target object is a person, tracking can be performed in response to a shape change such as tilting the body from the waist.
具体的に、Δatは、前時刻(t−1)での画像領域xt|ytの向きからの傾き変化分であり、複数のバリエーションの傾き変化分として複数の候補値をとる。例えば、固定変化分Δaを予め設定しておき、Δaのプラス・マイナス係数倍を傾き変化分の複数候補とすることができる。この際、係数値も所定範囲内で変化させる。尚、候補となる傾き変化分の決定した人物モデルは、上部αh0の部分のみが画像座標系に投影される。このように投影された複数の画像領域が、画像xtでの複数の候補領域となる。 Specifically, .DELTA.a t is the image region x t at the previous time (t-1) | is the slope change from the orientation of yt, taking a plurality of candidate values as the slope variation of the multiple variations. For example, the fixed change Δa can be set in advance, and a plus or minus coefficient times Δa can be set as a plurality of candidates for the slope change. At this time, the coefficient value is also changed within a predetermined range. It should be noted that only the upper αh 0 part of the human model determined as the candidate inclination change is projected on the image coordinate system. Such projected plurality of image areas in becomes the plurality of candidate areas in the image x t.
以上、図8〜10を用いて候補物体動き情報ytの生成を説明したが、上式(3)f(x)=argmaxy∈YF(x, y)を満たす最適解yt*を得るための探索では、上述したような変化分Δpx t, Δpy t, Δht及びΔatの候補値における全ての組合せであるy(∈Y)に関して評価関数Fの値、即ちスコアを算出し、算出されたスコアのうち最大のものを導出するyを最適解yt*とすることになる。 The generation of the candidate object motion information y t has been described above with reference to FIGS. 8 to 10. The optimal solution y t * that satisfies the above equation (3) f (x) = argmax y∈Y F (x, y) in the search for obtaining, variation Delta] p x t as described above, Delta] p y t, Delta] h t and Δa value of the evaluation function F with respect to y (∈Y) are all combined in a candidate value of t, i.e. calculate the scores Then, y that derives the largest one of the calculated scores is set as the optimal solution yt * .
尚、このスコア算出においては、候補が多数になると計算コストが増大するため、予め所定の前提を設けて変化分の組合せ数を限定し、計算コストを軽減させることも好ましい。例えば、観察対象空間での状況から人物の形状変化は着席によるものであると前提することができる場合、着席する際には歩行を停止するとの事前知識に基づき、着席に伴う高さ変化分や傾き変化分の候補を設定するのは、床や地面における位置に変化がない場合に限定することができる。即ち、この場合、(Δpx t, Δpy t)の候補に限って、Δht及びΔatに複数の候補値を設定するので、候補y(∈Y)の全数を減少させることができる。 In this score calculation, the calculation cost increases as the number of candidates increases. Therefore, it is preferable to reduce the calculation cost by setting a predetermined premise in advance to limit the number of combinations of changes. For example, if it can be assumed that the shape change of the person is due to sitting from the situation in the observation target space, the height change due to seating and The setting of the inclination change candidate can be limited to the case where there is no change in the position on the floor or the ground. That is, in this case, (Δp x t, Δp y t) only candidate, since setting a plurality of candidate values on Delta] h t and .DELTA.a t, it is possible to reduce the total number of candidate y (∈Y).
以下、評価関数Fを用いた追跡対象物体の追跡について説明する。 Hereinafter, tracking of the tracking target object using the evaluation function F will be described.
図3に戻って、物体追跡部114の追跡用識別器114aは、1つの実施形態として、
(a)追跡対象物体の実空間での位置の変化分Δpx t及びΔpy tを変数とする確率密度関数Ppに係る項と、
(b)追跡対象物体に係る画像領域に対する候補物体動き情報から算出される画像領域xt|ytの見かけ(appearance)の近さを評価する項と
を有する評価関数Fに対し、入力された複数の候補物体動き情報(Δpx t, Δpy t)及び時刻tでの画像に係る画像情報を適用し、評価関数Fのスコアを最大にする候補物体動き情報を、時刻tにおける当該物体の実空間での位置に係る正解の位置情報Δpx t*及びΔpy t*として出力してもよい。
Returning to FIG. 3, the
(A) the term of the probability density function P p for a variation Delta] p x t and Delta] p y t position in the real space of the tracking target object as a variable,
(B) a term for evaluating the closeness of the appearance (appearance) of the image area x t | yt calculated from the candidate object motion information with respect to the image area relating to the tracking target object; candidate object motion information (Δp x t, Δp y t ) and applies the image information relating to an image at time t, evaluating candidate object motion information that maximizes the score function F, the real of the object at time t it may be output as position information of the correct Delta] p x t * and Delta] p y t * according to the position in space.
また、変更態様として、評価関数Fに適用される候補物体動き情報を(Δpx t, Δpy t, Δat)とし、追跡用識別器114aが、時刻tにおける追跡対象物体の傾きに係る正解の情報Δat*をも含む情報を出力することも好ましい。
Further, the correct answer as a modification, the candidate object motion information that applies to the evaluation function F as (Δp x t, Δp y t , Δa t), tracing
さらに、追跡用識別器114aは、他の実施形態として、上記(a)の項と、上記(b)の項と、さらに、
(c)追跡対象物体の高さの変化分Δhtを変数とする確率密度関数Phに係る項と
を有する評価関数Fに対し、入力された複数の候補物体動き情報(Δpx t, Δpy t, Δht)及び時刻tでの画像に係る画像情報を適用し、評価関数Fのスコアを最大にする候補物体動き情報を、時刻tにおける当該物体の実空間での位置及び高さに係る正解の情報Δpx t*、Δpy t*及びΔht*として出力してもよい。
Further, as another embodiment, the
(C) with respect to the evaluation function F and a term relating to the probability density function P h to the variable height of the change in Delta] h t of the tracking target object, a plurality of candidate object motion information input (Δp x t, Δp y t , Δh t ) and the image information of the image at time t, applying the candidate object motion information that maximizes the score of the evaluation function F to the position and height of the object in the real space at time t. according correct answer information Δp x t *, may be output as Delta] p y t * and Delta] h t *.
また、変更態様として、評価関数Fに適用される候補物体動き情報を(Δpx t, Δpy t, Δht, Δat)とし、追跡用識別器114aが、時刻tにおける追跡対象物体の傾きに係る正解の情報Δat*をも含む情報を出力することも好ましい。
Further, as a modification, the candidate object motion information that applies to the evaluation function F (Δp x t, Δp y t, Δh t, Δa t) and, tracing
さらに、追跡用識別器114aは、更なる他の実施形態として、上記(a)の項と、上記(b)の項と、上記(c)の項と、さらに、
(d)追跡対象物体に係る画像領域における当該物体の動き(motion)による変化と物体動き情報に係る変化分とが合致する度合いを評価する項と
を有する評価関数Fに対し、入力された複数の候補物体動き情報(Δpx t, Δpy t, Δht)及び時刻tでの画像に係る画像情報を適用し、評価関数Fのスコアを最大にする候補物体動き情報を、時刻tにおける当該物体の実空間での位置及び高さsに係る正解の情報Δpx t*、Δpy t*及びΔht*として出力してもよい。
Further, as another embodiment, the
(D) For an evaluation function F having a term that evaluates the degree to which the change due to the motion of the object in the image area of the object to be tracked matches the amount of change related to the object motion information, candidate object motion information (Δp x t, Δp y t , Δh t) and applies the image information relating to an image at time t, the candidate object motion information that maximizes the score of the evaluation function F, the at time t * object in the real space at the position and height information of correct answers according to the s Δp x t, may be output as Delta] p y t * and Delta] h t *.
また、変更態様として、評価関数Fに適用される候補物体動き情報を(Δpx t, Δpy t, Δht, Δat)とし、追跡用識別器114aが、時刻tにおける追跡対象物体の傾きに係る正解の情報Δat*をも含む情報を出力することも好ましい。
Further, as a modification, the candidate object motion information that applies to the evaluation function F (Δp x t, Δp y t, Δh t, Δa t) and, tracing
ここで、以下に説明する実施形態では、評価関数Fとして、上記(a)〜(d)の全ての項を備えた次式
(6) F(xt, yt)=wpPp(Δpt-1*, Δpx t, Δpy t)+whPh(Δht-1*, Δht)
+wbΦ(xt-1|yt-1, xt|yt)+wsΨ(xt|yt)
を採用する。係数wp、wh、wb及びwsは学習によって決定される重みパラメータである。この関数値(スコア)が大きいほど、ytはより適した解(より正解に近い解)となる。次に、上式(6)右辺の各項を順次説明する。
Here, in the embodiment described below, as the evaluation function F, the following equation (6) including all of the terms (a) to (d) is given by F (x t , y t ) = w p P p ( Δp t-1 * , Δp x t , Δp y t ) + w h P h (Δh t-1 * , Δh t )
+ W b Φ (x t-1 | yt-1 , x t | yt ) + w s Ψ (x t | yt )
Is adopted. The coefficients w p , w h , w b, and w s are weight parameters determined by learning. As this function value (score) is large, y t is the more suitable solutions (solutions closer to the correct answer). Next, the terms on the right side of the above equation (6) will be sequentially described.
図11は、評価関数Fにおける位置変化分の確率密度関数Ppの一実施例を示すグラフである。 FIG. 11 is a graph showing an example of the probability density function P p for the position change in the evaluation function F.
上式(6)の評価関数Fの第1項におけるPp(Δpt-1*, Δpx t, Δpy t)は、図11に示すように、前時刻(t−1)での位置の変化分Δpt-1*=(Δpx t-1*, Δpy t-1*)から算出された時刻tでの位置変化分Δpx t及びΔpy tに関する確率密度関数である。具体的には、予め定められた分散共分散行列Σを用いてΔpx t-1*を平均とした2変量正規分布N(Δpx t-1*, Σ)として確率密度関数Ppを定義することができる。 P p in the first term of the evaluation function F of the equation (6) (Δp t-1 *, Δp x t, Δp y t) , as shown in FIG. 11, the position at the previous time (t-1) the variation Δp t-1 * = (Δp x t-1 *, Δp y t-1 *) is the probability density function for the position change amount Delta] p in is calculated from the time t x t and Delta] p y t. Specifically, a probability density function P p is defined as a bivariate normal distribution N (Δp x t-1 * , Σ) using Δp x t-1 * as an average using a predetermined variance-covariance matrix -1. can do.
このような所定の確率モデルに基づく確率密度関数Ppを評価関数Fに採用することによって、前時刻(t−1)での移動量から見て、起こり得る確率の十分に高い時刻tでの移動量を推測することが可能となっている。 By adopting the probability density function P p based on such a predetermined probability model as the evaluation function F, the time at the time t at which the probability that can occur is sufficiently high when viewed from the movement amount at the previous time (t−1) is considered. It is possible to estimate the moving amount.
図12は、評価関数Fにおける高さ変化分の確率密度関数Phの一実施例を示すグラフである。 Figure 12 is a graph showing an example of a probability density function P h height variation in the evaluation function F.
上式(6)の評価関数Fの第2項におけるPh(Δht-1*, Δht)は、図12に示すように、前時刻(t−1)での高さの変化分Δht-1*から算出された時刻tでの高さ変化分Δhtに関する確率密度関数である。具体的には、予め定められた分散σを用いてΔht-1*を平均とした2変量正規分布N(Δht-1*, σ)として確率密度関数Phを定義することができる。 P h (Δh t-1 * , Δh t) in the second term of the evaluation function F of the equation (6), as shown in FIG. 12, the previous time (t-1) at the height of the change in Delta] h it is the probability density function for the height variation Delta] h t at t-1 * is calculated from the time t. Specifically, it is possible to define a probability density function P h as using a dispersion sigma predetermined Δh t-1 * Average and the bivariate normal distribution N (Δh t-1 *, σ).
このような所定の確率モデルに基づく確率密度関数Phを評価関数Fに採用することによって、前時刻(t−1)での高さ変化量から見て、起こり得る確率の十分に高い時刻tでの高さ変化量を推測することが可能となっている。 By adopting a probability density function P h based on such a predetermined probability model in the evaluation function F, the previous time as viewed from the height variation in the (t-1), possible sufficiently high time t probability It is possible to estimate the amount of change in height at.
次に、上式(6)の評価関数Fの第3項におけるΦ(xt-1|yt-1, xt|yt)は、パラメータΔpx t、Δpy t及びΔhtで定義される3次元の物体モデルを画像座標系に投影した結果としての領域をΔatだけ回転させた画像領域xt|ytに対し、評価を行う関数であり、差分画像を用いて画像内での移動を評価する関数である。 Next, [Phi in the third term of the evaluation function F of the equation (6) (x t-1 | yt-1, x t | yt) is defined by the parameter Δp x t, Δp y t and Delta] h t the three-dimensional object model image region x t is rotated by .DELTA.a t the region as a result projected on the image coordinate system | to yt, a function to evaluate the movement in the image by using a differential image The function to evaluate.
ここで、差分画像とは、画像xt-1上の点と画像xt上の対応する点との間の輝度値の差に相当する輝度値を有する点から構成される画像である。時刻tでの画像xtにおける点(u, v)の輝度値をxt(u, v)とすると、画像xt-1と画像xtの差分画像における各点(u, v)の輝度値xbg t-1,tは、次式
(7) xbg t-1,t(u, v)=|xt-1(u, v)−xt(u, v)|
で定義される。多くの場合に画像の輝度値はゼロから255までの範囲([0,255])内の値をとるように定義されることから、差分画像の各点の輝度値を、255で割り算することによってゼロから1までの範囲([0,1])に正規化した値としてもよい。
Here, the difference image is an image composed of points having a brightness value corresponding to the difference in luminance value between the corresponding point on the image x t-1 on the point and the image x t. Point in the image x t at time t (u, v) the luminance value x t (u, v) and when the brightness of each point in the difference image of the image x t-1 and the image x t (u, v) The value x bg t-1, t is given by the following equation (7): x bg t-1, t (u, v) = | x t-1 (u, v) −x t (u, v) |
Is defined by Since the luminance value of an image is often defined to be in the range of 0 to 255 ([0,255]), dividing the luminance value of each point in the difference image by 255 It may be a value normalized to the range ([0,1]) from to.
図13は、差分画像の一実施例を示すイメージ図である。図13に示したように、差分画像では、取得される画像上での物体の動きが反映された輝度分布が観察される。 FIG. 13 is an image diagram showing one embodiment of the difference image. As shown in FIG. 13, in the difference image, a luminance distribution reflecting the movement of the object on the acquired image is observed.
このような差分画像に関係するΦ(xt-1|yt-1, xt|yt)は、次式
最後に、上式(6)の評価関数Fの第4項におけるΨ(xt|yt)は、パラメータΔpx t、Δpy t及びΔhtで定義される3次元の物体モデルを画像座標系に投影した結果としての領域をΔatだけ回転させた画像領域xt|ytに対し、評価を行う関数であり、追跡対象物体に係る画像領域に対する画像領域xt|ytの見かけ(appearance)の近さを評価する関数である。 Finally, [psi in the fourth term of the evaluation function F of the equation (6) (x t | yt ) , the parameter Δp x t, Δp y t and the image coordinate system a three-dimensional object model defined by Delta] h t to yt, a function for evaluating the image area x t for the image area of the tracking target object | | the image area x t which is rotated by .DELTA.a t the region as a result of the projection of yt apparent (appearance) It is a function that evaluates closeness.
画像領域xt|ytから算出される見かけのモデル化には、例えば領域内の色ヒストグラムやHaar-Like特徴を用いることができる。この際、領域内の見かけを特徴ベクトル化し、その近さを評価する。尚、Haar-Like特徴については、例えば非特許文献であるViola, P及びJones, M、「Rapid object detection using a boosted cascade of simple features」、proceedings of IEEE Computer Vision and Pattern Recognition (CVPR)、vol.1、pp.511-518、2001年に記載されている。 Image region x t | A model of apparent calculated from yt, can be used, for example color histograms or Haar-Like features in the region. At this time, the appearance in the region is converted into a feature vector, and the closeness is evaluated. For Haar-Like features, for example, Non-Patent Documents Viola, P and Jones, M, `` Rapid object detection using a boosted cascade of simple features '', proceedings of IEEE Computer Vision and Pattern Recognition (CVPR), vol. 1, pp. 511-518, 2001.
図14は、画像領域xt|ytの見かけの特徴ベクトル化の一実施例を示す模式図である。 14, the image region x t | is a schematic diagram showing an embodiment of a feature vector of the apparent yt.
図14によれば、画像領域xt|ytに対し、当該領域内のピクセルについての輝度ヒストグラムが生成されている。本実施例において生成された輝度ヒストグラムは、輝度値0〜255の範囲を複数の区間に分け、各区間に属する輝度値を有するピクセルの数(度数)を柱状グラフで示したものである。図14には、輝度範囲を6つの区間に分けた場合の例を示している。
According to FIG 14, the image region x t | to yt, luminance histogram for pixels of the region is generated. The luminance histogram generated in the present embodiment is obtained by dividing the range of
ここで、特徴ベクトルは、各輝度区間の度数(ピクセル数)を成分としたベクトルで表される。図14の例では、6次元の特徴量ベクトルが生成される。尚、当然に、特徴ベクトルの内容及び次元は、この例に限定されるものではない。画像領域xt|ytの特徴を表す量ならば、種々のものが特徴ベクトルの成分として採用可能である。 Here, the feature vector is represented by a vector having the frequency (pixel number) of each luminance section as a component. In the example of FIG. 14, a six-dimensional feature amount vector is generated. Note that, naturally, the contents and dimensions of the feature vector are not limited to this example. Image region x t | if the amount representing the feature of yt, it is possible to employ various ones as components of a feature vector.
次に、物体追跡部114の追跡用識別器114aにおける学習処理について説明する。
Next, a learning process in the
図3に戻って、物体追跡部114の追跡用識別器114aは、教師データセット生成部114bで生成される教師データセットを用いて、オンラインで学習する。具体的に、追跡用識別器114aは、検出時刻をゼロとした場合、物体追跡対象の画像xtを取得した時刻tにおいて、それ以前の時刻1、2、・・・及びt-1での正解データを時刻毎に毎回用いて学習を行って更新を繰り返した状態となっている。
Returning to FIG. 3, the
具体的に、学習には構造学習のアプローチを用いる。構造学習とは、機械学習の一種であり、未知の入力から適切な構造関係(依存関係)を有するデータを出力する関数について学習を行う。追跡用識別器114aは、追跡対象物体について、実空間での位置・高さ情報と当該物体を画像内に投影した際の画像領域との構造関係を学習するものとなっている。本実施形態では、上式(3)f(x)=argmaxy∈YF(x, y)の評価関数F(x, y)による変換F:X→Yを学習するアルゴリズムとして構造化(Structured)SVMを用いる。尚、構造化SVMについては、例えば非特許文献であるIoannis Tsochantaridis、Thorsten Joachims、Thomas Hofmann及びYasemin Altun、「Large Margin Methods for Structured and Interdependent Output Variables」、Journal of Machine Learning Research 6、pp.1453-1484、2005年に記載されている。
Specifically, a learning approach is used for learning. Structural learning is a type of machine learning in which learning is performed on a function that outputs data having an appropriate structural relationship (dependency) from an unknown input. The
学習用の教師データセットとしては、例えば、
(a)画像xjと、評価関数Fの値を最大とする正解物体動き情報yj*と、正解としての正のラベルである1との組(xj, yj*, 1)、及び
(b)画像xkと、評価関数Fの値を最小とする正解ではない物体動き情報ykと、正解ではない解としての負のラベルである−1との組(xk, yk, −1)
を用いることができる。ここで、組(xj, yj*, 1)及び組(xk, yk, −1)の総数、即ち、教師データセットの数はn個とし、以下、(xj, yj*)及び(xk, yk)を通して(xi, yi)(i=1, 2,・・・, n)と表現する。尚、上記(b)において、正解ではない物体動き情報ykとして、F値を最大にはしないykを用いることも可能である。
As a training data set for learning, for example,
(A) A set ( xj , yj * , 1) of an image xj , correct object motion information yj * that maximizes the value of the evaluation function F, and 1 that is a positive label as a correct answer, and (B) A pair (x k , y k , y k , y k , y k , y k , y k ) of an image x k , non-correct object motion information y k that minimizes the value of the evaluation function F, and a negative label −1 as a non-correct solution -1)
Can be used. Here, the total number of sets (x j , y j * , 1) and sets (x k , y k , −1), that is, the number of training data sets is n, and (x j , y j *) ) And (x k , y k ) are represented as (x i , y i ) (i = 1, 2,..., N). In the above (b), as the object motion information y k is not a correct answer, it is also possible to use a y k which are not the maximum F value.
ここで、評価関数Fの重みパラメータw=(wp, wh, wb, ws)は、次式
このように、追跡用識別器114aは、オンラインでの構造学習によって評価関数Fの各項の重みパラメータw=(wp, wh, wb, ws)を決定し、決定された重みパラメータwを有する評価関数Fを用いて、入力した画像xtを処理して、出力する物体動き情報yt*を算出する。因みに、学習によって決定された重みパラメータwが、図5に示した識別超平面を規定する。
In this way, the
以上説明した学習及び判定をまとめると、本実施形態の追跡用識別器114aは、前時刻(t−1)において、正解として出力された物体動き情報yt-1*を用いて生成されたデータセットによって学習を行い、時刻tにおいて取得した画像xtを入力して、この画像xtを、評価関数Fの構造学習によって決定されたパラメータw=(wp, wh, wb, ws)を用いて処理し、時刻tにおける正解となる物体動き情報yt*を出力する。これにより、画像内で追跡対象物体が床や地面に接する箇所が特定できない場合や、物体の形状が変化したり物体の高さが変化したりする場合でも、取得される画像群を用いて、実空間における高い位置精度を維持しつつ、固有の識別子IDを付与し続けながら物体を追跡することができるのである。
To summarize the learning and determination described above, the
物体位置・形状推定部115は、物体追跡部114から入力した物体動き情報yt*、又は追跡対象物体の実空間での刻々の位置、高さ及び/又は傾き情報に基づいて、所定の時間範囲における追跡対象物体の実空間での位置、高さ及び/又は傾きの変化を決定する。これらの情報や、追跡対象物体の動線、さらには動線上での着席、お辞儀等のイベントを決定して追跡物体管理部104に保存することも好ましい。また、このような物体位置・形状推定結果は、例えば外部の情報処理装置からの要求に応じ、通信制御部121及び通信インタフェース101を介して、当該外部の情報処理装置宛てに送信されることも好ましい。
The object position / shape estimating unit 115 performs a predetermined time based on the object motion information y t * input from the
以上詳細に説明したように、本発明によれば、取得された画像に係る画像情報のみならず、実空間での制約を含む「物体動き情報」をも考慮して追跡を行う。その結果、取得される画像群を用いながらも、実空間における高い位置精度を維持しつつ物体を追跡することができる。 As described above in detail, according to the present invention, tracking is performed in consideration of not only image information relating to an acquired image but also “object motion information” including a restriction in a real space. As a result, the object can be tracked while maintaining high positional accuracy in the real space while using the acquired image group.
また、「物体動き情報」に追跡対象物体の位置変化分のみならず高さ変化分や傾き変化分を取り入れることによって、物体の形状が変化したり物体の高さが変化したりする場合でも、実空間における高い位置精度を維持しつつ物体を追跡することができる。さらに、物体の刻々の位置だけでなく、刻々の高さや形状を推定することも可能となる。 In addition, even when the shape of the object changes or the height of the object changes by incorporating the height change and the tilt change as well as the position change of the tracking target object into the "object motion information", The object can be tracked while maintaining high position accuracy in the real space. Further, it is possible to estimate not only the instantaneous position of the object but also the instantaneous height and shape.
また、本発明の構成及び方法は、例えば、人物が移動したり座ったり屈んだりする場を監視する監視システム、及び商店街や商業・サービス施設内での人物の入店、休憩、観戦・イベント参加や、移動の状況を調査するためのマーケティング調査システム等、様々な系に適用可能である。 In addition, the configuration and method of the present invention include, for example, a monitoring system for monitoring a place where a person moves, sits, and bends, and enters, breaks, watches, and events of a person in a shopping street or a commercial / service facility. The present invention is applicable to various systems such as a marketing research system for investigating participation and movement situations.
以上に述べた本発明の種々の実施形態において、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。 In the above-described various embodiments of the present invention, various changes, modifications, and omissions of the scope of the technical idea and viewpoint of the present invention can be easily performed by those skilled in the art. The above description is merely an example and is not intended to be limiting. The invention is limited only as defined by the following claims and equivalents thereof.
1 物体追跡装置
101 通信インタフェース
102 画像蓄積部
103 ID蓄積部
104 追跡物体管理部
111 物体検出部
111a 検出用識別器
111b 高さ算出部
112 ID管理部
112a 物体統合部
112b 物体登録部
113 候補情報算出部
114 物体追跡部
114a 追跡用識別器
114b 教師データセット生成部
115 物体位置・形状推定部
121 通信制御部
2 カメラ
Claims (11)
1つの時点における当該物体の実空間での位置に係る位置情報を含む情報である物体動き情報として、少なくとも当該物体の実空間での位置における前時点からの変化分を採用し、当該1つの時点における互いに変化分の異なる物体動き情報である複数の候補物体動き情報を算出する候補情報算出手段と、
取得された画像に係る画像情報と、正解とされる当該物体動き情報とを含むデータセットによって学習する識別器であって、当該物体の実空間での位置の変化分を変数とする確率密度関数に係る項と、当該物体に係る画像領域に対する当該候補物体動き情報から算出される画像領域の見かけ(appearance)の近さを評価する項とを有する評価関数に対し、入力された当該複数の候補物体動き情報及び当該1つの時点での画像に係る画像情報を適用し、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時点における当該物体の実空間での位置に係る正解の位置情報として出力する識別器によって、当該物体の実空間での刻々の位置情報を取得する物体追跡手段と
を有することを特徴とする物体追跡装置。 An apparatus capable of tracking an object to be tracked using a time-series image group obtained from one or more cameras capable of capturing the object,
As the object motion information which is information including the position information on the position of the object in the real space at one time, at least the change from the previous time in the position of the object in the real space is adopted, and the one time Candidate information calculation means for calculating a plurality of candidate object motion information that is object motion information different in the amount of change from each other,
And image information according to the acquired image, a classifier to learn the data set comprising a the object motion information that is the correct answer, the probability that a change in the position of the real space of the object a variable density For the evaluation function having a term relating to the function and a term for evaluating the closeness of the appearance (appearance) of the image area calculated from the candidate object motion information with respect to the image area relating to the object, Applying the candidate object motion information and the image information related to the image at the one time point, the candidate object motion information that maximizes the score of the evaluation function is calculated based on the position of the object in the real space at the one time point. An object tracking device, comprising: an object tracking unit configured to acquire instantaneous position information of the object in a real space by a discriminator that outputs the position information as a correct answer.
前記物体追跡手段の識別器は、当該物体の実空間での位置の変化分を変数とする確率密度関数に係る項と、当該物体の高さの変化分を変数とする確率密度関数に係る項と、当該物体に係る画像領域に対する当該候補物体動き情報から算出される画像領域の見かけの近さを評価する項とを有する評価関数に対し、入力された当該複数の候補物体動き情報及び当該1つの時点での画像に係る画像情報を適用し、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時点における当該物体の実空間での位置及び当該物体の高さに係る正解の情報として出力する
ことを特徴とする請求項1に記載の物体追跡装置。 The candidate information calculating means includes, as the object motion information at the one time point , a change amount of the position of the object in the real space from the previous time point and a change amount of the height of the object from the previous time point. And calculating a plurality of candidate object motion information in which at least one of the changes at the one time point is different,
The discriminator of the object tracking means includes a term relating to a probability density function having a change in the position of the object in real space as a variable, and a term relating to a probability density function having a change in the height of the object as a variable. And a term for evaluating the apparent proximity of the image area calculated from the candidate object motion information with respect to the image area of the object, the input plurality of candidate object motion information and the 1 Applying the image information relating to the image at one point in time , the candidate object motion information for maximizing the score of the evaluation function is converted to the correct answer relating to the position of the object in real space and the height of the object at the one point in time 2. The object tracking device according to claim 1 , wherein the object tracking device outputs the information.
前記物体追跡手段の識別器は、当該物体の実空間での位置の変化分を変数とする確率密度関数に係る項と、当該物体の高さの変化分を変数とする確率密度関数に係る項と、当該物体に係る画像領域における当該物体の動き(motion)による変化と当該物体動き情報に係る変化分とが合致する度合いを評価する項と、当該物体に係る画像領域に対する当該候補物体動き情報から算出される画像領域の見かけの近さを評価する項とを有する評価関数に対し、入力された当該複数の候補物体動き情報及び当該1つの時点での画像に係る画像情報を適用し、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時点における当該物体の実空間での位置及び当該物体の高さに係る正解の情報として出力する
ことを特徴とする請求項1又は2に記載の物体追跡装置。 The candidate information calculating means includes, as the object motion information at the one time point , a change amount of the position of the object in the real space from the previous time point and a change amount of the height of the object from the previous time point. And calculating a plurality of candidate object motion information in which at least one of the changes at the one time point is different,
The discriminator of the object tracking means includes a term relating to a probability density function having a change in the position of the object in real space as a variable, and a term relating to a probability density function having a change in the height of the object as a variable. And a term for evaluating the degree to which a change due to the motion of the object in the image area related to the object matches a change amount related to the object motion information, and the candidate object motion information for the image area related to the object. Applying the input plurality of candidate object motion information and the image information of the image at the one point in time to an evaluation function having a term for evaluating the apparent proximity of the image area calculated from the candidate object motion information that maximizes the score of the evaluation function according to claim 1, and outputs as information correct answers according to the position and height of the object in the real space of the object in the one time or 2 Object tracking apparatus according.
前記物体追跡手段の識別器は、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時点における当該物体の傾きに係る正解の情報をも含む情報として出力する
ことを特徴とする請求項1から3のいずれか1項に記載の物体追跡装置。 The candidate information calculation means further employs, as the object motion information at the one time point , a change in inclination of the object from a previous time point ,
The discriminator of the object tracking means outputs the candidate object motion information that maximizes the score of the evaluation function as information including information on the correct answer related to the tilt of the object at the one point in time . object tracking apparatus according to any one of claims 1 to 3.
1つの時点における当該物体の実空間での位置に係る位置情報を含む情報である物体動き情報として、少なくとも当該物体の実空間での位置における前時点からの変化分を採用し、当該1つの時点における互いに変化分の異なる物体動き情報である複数の候補物体動き情報を算出する候補情報算出手段と、
取得された画像に係る画像情報と、正解とされる当該物体動き情報とを含むデータセットによって学習する識別器であって、当該物体の実空間での位置の変化分を変数とする確率密度関数に係る項と、当該物体に係る画像領域に対する当該候補物体動き情報から算出される画像領域の見かけ(appearance)の近さを評価する項とを有する評価関数に対し、入力された当該複数の候補物体動き情報及び当該1つの時点での画像に係る画像情報を適用し、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時点における当該物体の実空間での位置に係る正解の位置情報として出力する識別器によって、当該物体の実空間での刻々の位置情報を取得する物体追跡手段と
としてコンピュータを機能させることを特徴とする物体追跡プログラム。 A program that causes a computer mounted on a device capable of tracking an object to be tracked using a time-series image group obtained from one or more cameras capable of capturing the object to be tracked,
As the object motion information which is information including the position information on the position of the object in the real space at one time, at least the change from the previous time in the position of the object in the real space is adopted, and the one time Candidate information calculation means for calculating a plurality of candidate object motion information that is object motion information different in the amount of change from each other,
And image information according to the acquired image, a classifier to learn the data set comprising a the object motion information that is the correct answer, the probability that a change in the position of the real space of the object a variable density For the evaluation function having a term relating to the function and a term for evaluating the closeness of the appearance (appearance) of the image area calculated from the candidate object motion information with respect to the image area relating to the object, Applying the candidate object motion information and the image information related to the image at the one time point, the candidate object motion information that maximizes the score of the evaluation function is calculated based on the position of the object in the real space at the one time point. the discriminator to output as the position information of the correct, object tracking flop for causing a computer to function as <br/> the object tracking means for acquiring every moment the position information of the real space of the object Program.
1つの時点における当該物体の実空間での位置に係る位置情報を含む情報である物体動き情報として、少なくとも当該物体の実空間での位置における前時点からの変化分を採用し、当該1つの時点における互いに変化分の異なる物体動き情報である複数の候補物体動き情報を算出するステップと、
取得された画像に係る画像情報と、正解とされる当該物体動き情報とを含むデータセットによって学習する識別器であって、当該物体の実空間での位置の変化分を変数とする確率密度関数に係る項と、当該物体に係る画像領域に対する当該候補物体動き情報から算出される画像領域の見かけ(appearance)の近さを評価する項とを有する評価関数に対し、入力された当該複数の候補物体動き情報及び当該1つの時点での画像に係る画像情報を適用し、当該評価関数のスコアを最大にする候補物体動き情報を、当該1つの時点における当該物体の実空間での位置に係る正解の位置情報として出力する識別器によって、当該物体の実空間での当該1つの時点における位置情報を決定するステップと
を繰り返し、当該物体の実空間での刻々の位置情報を取得する
ことを特徴とする物体追跡方法。 A method of tracking an object to be tracked by a computer using a time-series image group obtained from one or more cameras capable of capturing the object to be tracked,
As the object motion information which is information including the position information on the position of the object in the real space at one time, at least the change from the previous time in the position of the object in the real space is adopted, and the one time Calculating a plurality of candidate object motion information, which are different object motion information from each other,
A probability classifier that learns from a data set including image information of an acquired image and the object motion information that is regarded as a correct answer, and uses a change in position of the object in real space as a variable. , And a term for evaluating the closeness of the appearance (appearance) of the image region calculated from the candidate object motion information with respect to the image region of the object, The candidate object motion information that maximizes the score of the evaluation function is obtained by applying the object motion information and the image information of the image at the one time point to the correct answer based on the position of the object in the real space at the one time point. Repeating the step of determining the position information of the object in the real space at the one point in time by the discriminator that outputs the position information of the object. An object tracking method characterized by acquiring.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015085269A JP6628494B2 (en) | 2015-04-17 | 2015-04-17 | Apparatus, program, and method for tracking object using discriminator learning based on real space information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015085269A JP6628494B2 (en) | 2015-04-17 | 2015-04-17 | Apparatus, program, and method for tracking object using discriminator learning based on real space information |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016206795A JP2016206795A (en) | 2016-12-08 |
JP6628494B2 true JP6628494B2 (en) | 2020-01-08 |
Family
ID=57489892
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015085269A Active JP6628494B2 (en) | 2015-04-17 | 2015-04-17 | Apparatus, program, and method for tracking object using discriminator learning based on real space information |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6628494B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11797641B2 (en) | 2015-02-03 | 2023-10-24 | 1Qb Information Technologies Inc. | Method and system for solving the lagrangian dual of a constrained binary quadratic programming problem using a quantum annealer |
JP6851241B2 (en) * | 2017-03-31 | 2021-03-31 | セコム株式会社 | Image analyzer |
JP6851246B2 (en) * | 2017-04-25 | 2021-03-31 | セコム株式会社 | Object detector |
US10769448B2 (en) | 2017-05-31 | 2020-09-08 | Panasonic I-Pro Sensing Solutions Co., Ltd. | Surveillance system and surveillance method |
WO2018235777A1 (en) * | 2017-06-20 | 2018-12-27 | 国立大学法人静岡大学 | Image data processing device, plant cultivation system, and image data processing method |
JP6412998B1 (en) * | 2017-09-29 | 2018-10-24 | 株式会社Qoncept | Moving object tracking device, moving object tracking method, moving object tracking program |
JP7288905B2 (en) * | 2017-12-01 | 2023-06-08 | 1キュービー インフォメーション テクノロジーズ インコーポレイテッド | Systems and methods for stochastic optimization of robust estimation problems |
WO2020255076A1 (en) | 2019-06-19 | 2020-12-24 | 1Qb Information Technologies Inc. | Method and system for mapping a dataset from a hilbert space of a given dimension to a hilbert space of a different dimension |
CN117252867B (en) * | 2023-11-14 | 2024-02-27 | 广州市品众电子科技有限公司 | VR equipment production product quality monitoring analysis method based on image recognition |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7778446B2 (en) * | 2006-12-06 | 2010-08-17 | Honda Motor Co., Ltd | Fast human pose estimation using appearance and motion via multi-dimensional boosting regression |
JP4923000B2 (en) * | 2008-06-11 | 2012-04-25 | 日本電信電話株式会社 | MULTI-OBJECT TRACKING METHOD, MULTI-OBJECT TRACKING DEVICE, MULTI-OBJECT TRACKING PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM |
US8706663B2 (en) * | 2009-02-04 | 2014-04-22 | Honeywell International Inc. | Detection of people in real world videos and images |
JP5687082B2 (en) * | 2011-01-31 | 2015-03-18 | セコム株式会社 | Moving object tracking device |
JP5555193B2 (en) * | 2011-03-01 | 2014-07-23 | 株式会社メガチップス | Data processing apparatus, data processing system, and program |
JP2014093023A (en) * | 2012-11-06 | 2014-05-19 | Canon Inc | Object detection device, object detection method and program |
-
2015
- 2015-04-17 JP JP2015085269A patent/JP6628494B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016206795A (en) | 2016-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6628494B2 (en) | Apparatus, program, and method for tracking object using discriminator learning based on real space information | |
JP6288221B2 (en) | Enhanced layer-based object detection by deep convolutional neural networks | |
JP6614611B2 (en) | Apparatus, program, and method for tracking object in consideration of similarity between images | |
JP6618395B2 (en) | Apparatus, program, and method for predicting position of survey object by action value | |
CN106709449B (en) | Pedestrian re-identification method and system based on deep learning and reinforcement learning | |
EP3191989B1 (en) | Video processing for motor task analysis | |
US7831087B2 (en) | Method for visual-based recognition of an object | |
Choi et al. | A general framework for tracking multiple people from a moving camera | |
JP6598746B2 (en) | Apparatus, program, and method for tracking an object in consideration of an image area of another object | |
US20180129873A1 (en) | Event detection and summarisation | |
US20090296989A1 (en) | Method for Automatic Detection and Tracking of Multiple Objects | |
JP6719497B2 (en) | Image generation method, image generation device, and image generation system | |
WO2019064375A1 (en) | Information processing device, control method, and program | |
JP2017059945A (en) | Device and method for image analysis | |
Chan et al. | A 3-D-point-cloud system for human-pose estimation | |
JP2019082959A (en) | Information processing apparatus, information processing method, and program | |
Meena et al. | A robust face recognition system for one sample problem | |
US11544926B2 (en) | Image processing apparatus, method of processing image, and storage medium | |
WO2021250808A1 (en) | Image processing device, image processing method, and program | |
JP2021149687A (en) | Device, method and program for object recognition | |
JP6893812B2 (en) | Object detector | |
JP2017097549A (en) | Image processing apparatus, method, and program | |
Cielniak | People tracking by mobile robots using thermal and colour vision | |
JP7374632B2 (en) | Information processing device, information processing method and program | |
JP2014186496A (en) | Object attitude estimation device, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190510 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190627 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6628494 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |