JP2011059897A - Image analysis apparatus and method, and program - Google Patents
Image analysis apparatus and method, and program Download PDFInfo
- Publication number
- JP2011059897A JP2011059897A JP2009207487A JP2009207487A JP2011059897A JP 2011059897 A JP2011059897 A JP 2011059897A JP 2009207487 A JP2009207487 A JP 2009207487A JP 2009207487 A JP2009207487 A JP 2009207487A JP 2011059897 A JP2011059897 A JP 2011059897A
- Authority
- JP
- Japan
- Prior art keywords
- reference feature
- feature amount
- image
- extracted
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像解析装置、画像解析方法およびプログラムに関する。 The present invention relates to an image analysis device, an image analysis method, and a program.
画像データ等の対象データが特定内容のデータであるか否かを識別する識別処理に用いる特徴量の種類と識別条件を決定できるとする装置が知られている(例えば、特許文献1参照。)。また、動画像中の被写体を高精度で認識する技術が知られている(例えば、特許文献2参照。)。
特徴量の種類と識別条件とを規定した参照データを用いると、特徴量が変化するような被写体を識別することが容易ではない。また、特徴量が大きく変化した場合には、違う被写体として検出してしまい、特定オブジェクトを追跡することができない場合がある。このように、オブジェクトの検出処理と特定オブジェクトの追跡処理とを効率的にすることができないという課題があった。 If reference data that defines the type of feature quantity and the identification condition is used, it is not easy to identify a subject whose feature quantity changes. In addition, when the feature amount changes greatly, it may be detected as a different subject and the specific object may not be tracked. Thus, there has been a problem that the object detection process and the specific object tracking process cannot be made efficient.
上記課題を解決するために、本発明の第1の態様においては、動画から特定被写体のオブジェクトを抽出する画像解析装置であって、被写体の向きに対応づけて複数の基準特徴量を記憶する特徴量記憶部と、動画に含まれる複数の動画構成画像のそれぞれから、複数の特徴量を抽出する特徴量抽出部と、被写体の向きに対応づけて記憶された複数の基準特徴量に対する抽出された複数の特徴量の適合度に基づいて、動画構成画像から特定被写体のオブジェクトを抽出するオブジェクト抽出部と、特定被写体の向きを特定する向き特定部と、特徴量記憶部が記憶している基準特徴量より、抽出されたオブジェクトの特徴量に適応させた基準特徴量を算出する基準特徴量算出部と、特徴量記憶部が特定された向きに対応づけて記憶している基準特徴量を、基準特徴量算出部が算出した基準特徴量で更新する特徴量更新部とを備える。 In order to solve the above-described problem, in the first aspect of the present invention, an image analysis apparatus that extracts an object of a specific subject from a moving image, and stores a plurality of reference feature amounts in association with the orientation of the subject. A quantity storage unit, a feature quantity extraction unit that extracts a plurality of feature quantities from each of a plurality of movie constituent images included in the movie, and a plurality of reference feature quantities that are stored in association with the orientation of the subject. An object extraction unit that extracts an object of a specific subject from a moving image composition image based on the degree of matching of a plurality of feature amounts, a direction specification unit that specifies the orientation of the specific subject, and a reference feature stored in the feature amount storage unit A reference feature amount calculation unit that calculates a reference feature amount adapted to the extracted feature amount of the object, and a reference feature stored in the feature amount storage unit in association with the specified direction. Comprising an amount, the feature amount updating unit which reference feature amount calculating unit updates the reference feature quantity calculated.
基準特徴量算出部は、適合度がより大きい種類ほど、抽出されたオブジェクトの特徴量により大きい強度で適応させた複数の基準特徴量を算出してよい。 The reference feature amount calculation unit may calculate a plurality of reference feature amounts that are adapted to the feature amount of the extracted object with higher strength as the degree of matching is larger.
基準特徴量算出部は、抽出されたオブジェクトの特徴量に、特徴量の種類に応じた頻度で適応させた複数の基準特徴量を算出してよい。 The reference feature quantity calculation unit may calculate a plurality of reference feature quantities adapted to the extracted feature quantity of the object at a frequency corresponding to the type of feature quantity.
特徴量抽出部は、異なる解像度の画像から複数の特徴量を抽出し、特徴量記憶部は、異なる解像度の画像から抽出された複数の特徴量に対応する複数の基準特徴量を記憶しており、基準特徴量算出部は、抽出されたオブジェクトの特徴量に、解像度に応じた強度で適応させた複数の基準特徴量を算出してよい。 The feature amount extraction unit extracts a plurality of feature amounts from images with different resolutions, and the feature amount storage unit stores a plurality of reference feature amounts corresponding to the plurality of feature amounts extracted from images with different resolutions. The reference feature amount calculation unit may calculate a plurality of reference feature amounts adapted to the extracted feature amount of the object with an intensity corresponding to the resolution.
基準特徴量算出部は、抽出されたオブジェクトの特徴量に、解像度が大きいほどより大きい強度で適応させた複数の基準特徴量を算出してよい。 The reference feature quantity calculation unit may calculate a plurality of reference feature quantities adapted to the extracted feature quantity of the object with greater intensity as the resolution is higher.
基準特徴量算出部は、抽出されたオブジェクトの特徴量に適応させた、予め定められた値より大きい解像度に対応する複数の基準特徴量を算出してよい。 The reference feature amount calculation unit may calculate a plurality of reference feature amounts corresponding to a resolution larger than a predetermined value, adapted to the extracted feature amount of the object.
基準特徴量算出部は、オブジェクト抽出部が動画構成画像からオブジェクトを抽出する場合に用いた、所定の条件に適合する1以上の種類の基準特徴量を、適応させた基準特徴量とする非更新特徴量選択部を有してよい。 The reference feature amount calculation unit is not updated with one or more types of reference feature amounts that meet a predetermined condition used when the object extraction unit extracts an object from the moving image composition image as an adapted reference feature amount. You may have a feature-value selection part.
非更新特徴量選択部は、オブジェクト抽出部が動画構成画像からオブジェクトを抽出する場合に用いた、適合度が予め定められた値以上である1以上の種類の基準特徴量を、適応させた基準特徴量としてよい。 The non-updated feature quantity selection unit is a standard obtained by adapting one or more types of reference feature quantities having a matching degree equal to or greater than a predetermined value used when the object extraction unit extracts an object from the moving image composition image. It may be a feature amount.
基準特徴量算出部は、抽出されたオブジェクトを含む領域の画像を正解画像として学習して得られた基準特徴量を、適応させた基準特徴量として算出してよい。 The reference feature value calculation unit may calculate a reference feature value obtained by learning an image of a region including the extracted object as a correct image as an adapted reference feature value.
基準特徴量算出部は、抽出されたオブジェクト以外の領域を領域の画像を不正解画像として学習して得られた基準特徴量を、適応させた基準特徴量として算出してよい。 The reference feature quantity calculation unit may calculate a reference feature quantity obtained by learning an area image other than the extracted object as an incorrect image, as an adapted reference feature quantity.
特徴量記憶部は、異なる解像度の画像から抽出された複数の特徴量に対応する複数の基準特徴量を被写体の向きに対応づけて記憶しており、向き特定部は、予め定められた解像度より小さい解像度の画像から特徴量抽出部が抽出した特徴量を、同解像度の基準特徴量とそれぞれ比較することにより、被写体の向きのそれぞれについて適合度を算出し、より大きい適合度が算出された基準特徴量に対応づけられた被写体の向きを、特定被写体の向きとして特定してよい。 The feature amount storage unit stores a plurality of reference feature amounts corresponding to a plurality of feature amounts extracted from images of different resolutions in association with the direction of the subject, and the direction specifying unit has a predetermined resolution. By comparing the feature quantity extracted by the feature quantity extraction unit from an image with a small resolution with the reference feature quantity with the same resolution, the fitness is calculated for each orientation of the subject, and the criterion with a higher fitness is calculated. The direction of the subject associated with the feature amount may be specified as the direction of the specific subject.
本発明の第2の態様においては、動画から特定被写体のオブジェクトを抽出する画像解析方法であって、被写体の向きに対応づけて複数の基準特徴量を記憶する特徴量記憶段階と、動画に含まれる複数の動画構成画像のそれぞれから、複数の特徴量を抽出する特徴量抽出段階と、被写体の向きに対応づけて記憶された複数の基準特徴量に対する抽出された複数の特徴量の適合度に基づいて、動画構成画像から特定被写体のオブジェクトを抽出するオブジェクト抽出段階と、特定被写体の向きを特定する向き特定段階と、特徴量記憶段階において記憶された基準特徴量より、抽出されたオブジェクトの特徴量に適応させた基準特徴量を算出する基準特徴量算出段階と、特徴量記憶段階において特定された向きに対応づけて記憶された基準特徴量を、基準特徴量算出段階において算出された基準特徴量で更新する特徴量更新段階とを備える。 According to a second aspect of the present invention, there is provided an image analysis method for extracting an object of a specific subject from a moving image, a feature amount storing step for storing a plurality of reference feature amounts in association with the direction of the subject, A feature amount extraction stage for extracting a plurality of feature amounts from each of the plurality of moving image constituent images, and a degree of fitness of the extracted feature amounts with respect to a plurality of reference feature amounts stored in association with the orientation of the subject. Based on the object extraction stage for extracting the object of the specific subject from the moving image composition image, the orientation specifying stage for specifying the orientation of the specific subject, and the reference feature quantity stored in the feature quantity storage stage, the feature of the extracted object A reference feature amount calculation step for calculating a reference feature amount adapted to the amount, and a reference feature amount stored in association with the orientation specified in the feature amount storage step , And a characteristic value update step of updating the reference feature amount calculated in the reference feature value calculation step.
本発明の第3の態様においては、動画から特定被写体のオブジェクトを抽出する画像解析装置用のプログラムであって、コンピュータを、被写体の向きに対応づけて複数の基準特徴量を記憶する特徴量記憶部、動画に含まれる複数の動画構成画像のそれぞれから、複数の特徴量を抽出する特徴量抽出部、被写体の向きに対応づけて記憶された複数の基準特徴量に対する抽出された複数の特徴量の適合度に基づいて、動画構成画像から特定被写体のオブジェクトを抽出するオブジェクト抽出部、特定被写体の向きを特定する向き特定部、特徴量記憶部が記憶している基準特徴量より、抽出されたオブジェクトの特徴量に適応させた基準特徴量を算出する基準特徴量算出部、特徴量記憶部が特定された向きに対応づけて記憶している基準特徴量を、基準特徴量算出部が算出した基準特徴量で更新する特徴量更新部として機能させる。 According to a third aspect of the present invention, there is provided a program for an image analysis apparatus for extracting an object of a specific subject from a moving image, wherein the computer stores a plurality of reference feature amounts in association with the direction of the subject. A feature amount extraction unit that extracts a plurality of feature amounts from each of a plurality of movie constituent images included in the movie, and a plurality of feature amounts extracted with respect to a plurality of reference feature amounts stored in association with the orientation of the subject Extracted based on the reference feature value stored in the object extraction unit that extracts the object of the specific subject from the moving image composition image, the direction specification unit that specifies the direction of the specific subject, and the feature storage unit A reference feature quantity calculation unit that calculates a reference feature quantity adapted to the feature quantity of the object, and a reference feature quantity stored in association with the specified direction by the feature quantity storage unit Reference feature value calculating part to function as a characteristic value update section for updating the reference feature quantity calculated.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The above summary of the invention does not enumerate all necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、一実施形態における画像処理システム10の一例を示す。以下に説明するように、画像処理システム10は、一実施形態において店舗用の画像処理システムとして機能することができる。
FIG. 1 shows an example of an
画像処理システム10は、店舗空間160を撮像する複数の撮像装置100a−b、店舗サーバ170、通信ネットワーク150、画像解析装置110、解析結果データベース112、および端末装置180を備える。なお、以下の説明において、撮像装置100aおよび撮像装置100bを、撮像装置100と総称する場合がある。同様に、以後の説明においては、末尾の英文字など、数字符号に続く文字を省略することで、数字符号が指し示すものを総称することがある。
The
撮像装置100aは店舗空間160を撮像する。撮像装置100aは、店舗空間160内の人物164aおよび人物164bを、店舗空間160内の商品棚162a、商品棚162bなどとともに撮像して、動画を生成する。撮像装置100aは、店舗空間160を撮像して得られた動画を、店舗サーバ170に供給する。なお、撮像装置100bは、撮像装置100aと異なる位置に設けられる。その他の点では、撮像装置100bの機能および動作は撮像装置100aの機能および動作と略同一であるので、撮像装置100については説明を省略する。
The
店舗サーバ170は、撮像装置100aおよび撮像装置100bから供給された動画を、画像解析装置110に向けて通信ネットワーク150に送出する。通信ネットワーク150としては、インターネットなどの電気通信回線を例示することができる。店舗サーバ170は、例えば撮像装置100の近傍に設けられる。他の形態において、店舗サーバ170は店舗空間160内に設けられてもよい。
The
また、店舗サーバ170は、撮像装置100の撮像動作を制御する。例えば、店舗サーバ170は、撮像装置100の撮像機能のオン/オフ、撮像レートなどを制御する。撮像装置100がズーム撮影できる場合には、店舗サーバ170は撮像装置100のズーム値を制御してもよい。また、撮像装置100の撮像方向が可変である場合には、店舗サーバ170は撮像装置100の撮像方向を制御してもよい。
Further, the
画像解析装置110は、店舗空間160とは異なる空間に設けられ、撮像装置100がそれぞれ撮像した動画を、通信ネットワーク150を通じて店舗サーバ170から取得する。画像解析装置110は、動画を解析して、解析結果を端末装置180に向けて通信ネットワーク150に送出する。
The
なお、画像解析装置110は、解析結果を解析結果データベース112に出力してもよい。画像解析装置110は、解析結果を解析結果データベース112から読み出して、読み出した解析結果を端末装置180に送信してもよい。なお、解析結果データベース112は、画像解析装置110が有してもよい。他にも、解析結果データベース112は、画像解析装置110が設けられた空間とは異なる空間に設けられてよい。この場合、画像解析装置110は、通信ネットワーク150を介して解析結果データベース112に解析結果を送信してもよい。
Note that the
端末装置180は、画像解析装置110による解析結果を、通信ネットワーク150を通じて画像解析装置110から取得する。端末装置180は、解析結果をユーザの指示に応じて加工して表示する。端末装置180は、画像解析装置110が設けられた空間とは異なる空間に設けられてよい。端末装置180は、店舗空間160の近傍または店舗空間160内に設けられてもよい。
The
以下に、画像解析装置110の動作の一例を概略的に説明する。画像解析装置110は、撮像装置100が撮像した動画に含まれる複数のフレーム画像のそれぞれから、人物164などの移動体が撮像されたオブジェクトを検出するとともに、同じ被写体のオブジェクトを画像内において追跡する。このとき、画像解析装置110は、複数の弱識別器を利用してオブジェクトを検出および追跡する。
Below, an example of operation | movement of the
具体的には、画像解析装置110は、低解像度画像から識別結果を算出する複数の弱識別器、中解像度画像から識別結果を算出する複数の弱識別器、高解像度画像から識別結果を算出する複数の弱識別器を有している。これらの弱識別器は、画像から抽出した特徴量に基づき、識別結果を算出する。
Specifically, the
低解像度画像用の弱識別器は、人物など特定種類の被写体のオブジェクトを抽出するための弱識別器であり、低解像度画像から多様な種類の特徴量を抽出して識別結果を算出する。これにより、高いロバスト性で人物のオブジェクトを検出することができる。なお、低解像度画像用の弱識別器は、追跡対象のオブジェクトに適応されずに用いられる。低解像度画像用の弱識別器は、例えば事前学習等によって高いロバスト性で人物のオブジェクトを検出できるよう構築されている。 The weak classifier for a low resolution image is a weak classifier for extracting an object of a specific type of subject such as a person, and various types of feature amounts are extracted from the low resolution image to calculate a discrimination result. Thereby, a human object can be detected with high robustness. Note that the weak classifier for low-resolution images is used without being adapted to the object to be tracked. The weak classifier for low-resolution images is constructed so that it can detect a human object with high robustness by, for example, prior learning.
中解像度画像用の弱識別器も同様に、多様な種類の特徴量を抽出して識別結果を算出する。中解像度画像用の弱識別器は、人物など特定種類の被写体のオブジェクトを抽出するための複数の弱識別器と、追跡対象のオブジェクトに対して適応化されていく複数の弱識別器とにより構築される。特定種類の被写体のオブジェクトを抽出するための弱識別器は、低解像度画像用の弱識別器と同様に、事前学習等によって構築され、追跡対象のオブジェクトに適応されずに用いられる。また、中解像度画像用の弱識別器のうち、追跡対象の人物に対して適応化される弱識別器は、例えばオンライン学習によりフレーム毎に学習されていく。 Similarly, the weak classifier for the medium resolution image extracts various types of feature amounts and calculates the identification result. Weak classifiers for medium-resolution images are constructed with multiple weak classifiers for extracting objects of a specific type of subject, such as a person, and multiple weak classifiers that are adapted to tracked objects Is done. A weak classifier for extracting an object of a specific type of subject is constructed by prior learning or the like, similarly to the weak classifier for low-resolution images, and is used without being adapted to the object to be tracked. Of the weak classifiers for medium resolution images, weak classifiers that are adapted to the person to be tracked are learned for each frame, for example, by online learning.
高解像度画像用の弱識別器も、多様な種類の特徴量を抽出して識別結果を算出する。高解像度画像用の弱識別器は追跡対象のオブジェクトに対して、オンライン学習によりフレーム毎に適応化されていく。 The weak classifier for high-resolution images also extracts various types of feature amounts and calculates the identification result. The weak classifier for high-resolution images is adapted to the tracking target object for each frame by online learning.
事前学習で弱識別器を構築する場合、教師画像を用いた強化学習の手法を用いることができる。また、弱識別器群は、Adaboost等のブースティングを用いた集団学習により構築されてよい。また、オンライン学習としては、オンラインブースティングの手法を用いることができる。 When a weak classifier is constructed by prior learning, a reinforcement learning method using a teacher image can be used. Further, the weak classifier group may be constructed by group learning using boosting such as Adaboost. As online learning, an online boosting technique can be used.
画像解析装置110は、フレーム画像毎に異なる組み合わせの弱識別器を用いてオブジェクトを抽出したり、フレーム画像毎に異なる組み合わせの弱識別器を適応化して得られた弱識別器を用いてオブジェクトを抽出したりする。このように、画像解析装置110は、特定種類のオブジェクトをロバストに検出する弱識別器と、被写体に適応化することができる追跡処理とを組み合わせた識別器を用いて、オブジェクトを抽出する。このため、画像解析装置110は、特定種類のオブジェクトをロバストに検出でき、かつ高精度に追跡することができる。
The
なお、本実施形態において、"オブジェクトを抽出する"とは、画像領域から特定のオブジェクトを検出および追跡することを指す。また、画像解析装置110は、抽出したオブジェクトが存在する領域を識別する座標情報などの位置情報を解析結果として出力してよい。他にも画像解析装置110は、オブジェクトが存在する領域を切り出したオブジェクト画像を出力してもよい。
In the present embodiment, “extracting an object” refers to detecting and tracking a specific object from an image region. Further, the
このように、画像解析装置110は、新しいオブジェクトを見つけるべく、クラス識別器を用いてフレーム画像内をグローバルに探索する。そして、画像解析装置110は、追跡対象オブジェクトの以前のフレーム画像および現在のフレーム画像の双方の観察情報を利用して、オブジェクト位置の予測、オブジェクトの識別、および弱識別器の更新の各プロセスを行なって、オブジェクトを追跡していく。
As described above, the
特定種類のオブジェクト検出用の識別器としては、クラス識別器を用いることができる。この場合のクラス識別器は、いわば種を識別する識別器といえる。一方で、オブジェクト追跡用の識別器は、追跡するオブジェクトの環境に応じて、種の識別とその種に属する各個体の識別との双方をする能力が要求される。 As a classifier for detecting a specific type of object, a class classifier can be used. In this case, the class discriminator can be said to be a discriminator for discriminating species. On the other hand, an identifier for tracking an object is required to have the ability to both identify a species and identify each individual belonging to the species according to the environment of the object to be tracked.
例えば、追跡対象の人物の周囲に他の人物がいないときには、追跡用の識別器として要求される識別能力は比較的に低くよい。例えば、背景などの非人物のオブジェクトと人物のオブジェクトとが区別できればよい。つまり、種レベルを識別することができればよい。しかし、複数の人物が行き違うタイミングおよび当該タイミングの前後のタイミングにおいて動線を正しく取得するためには、追跡用の識別器に要求される識別能力は比較的に高くなる。具体的には、複数の人物を区別する能力が要求される。 For example, when there is no other person around the person to be tracked, the identification ability required as a classifier for tracking may be relatively low. For example, it is only necessary to distinguish a non-human object such as a background from a human object. That is, it is only necessary to identify the seed level. However, in order to correctly acquire a flow line at a timing when a plurality of persons cross each other and at timings before and after the timing, the discrimination capability required for the tracking discriminator is relatively high. Specifically, the ability to distinguish a plurality of persons is required.
上述したように、画像解析装置110によると、識別器は追跡オブジェクトに柔軟に適応されるので、識別器の識別能力は周囲の環境変動(例えば、背景変動、混雑度の変動など)により自動的に調整されていく。すなわち、画像解析装置110が有する識別器は、ポリモーフィズム特長を有する。したがって、画像解析装置110が有する識別器は、状況に応じて種レベルの識別器にも、個別オブジェクトの識別器にもなり得る。
As described above, according to the
このように、画像解析装置110によると、識別器は環境の変動に応じて調整されるので柔軟性が著しく高い。また、画像解析装置110によると、オブジェクトの追跡に従って識別器が構築されていくので、既に検出されたオブジェクトについて、初期状態の識別器を適用することなく抽出できる。このように、画像解析装置110によると、検出処理と追跡処理とが独立していないので、環境の激しい変動に対応することができる。
As described above, according to the
なお、記憶媒体90は、画像解析装置110用のプログラムを記憶している。記憶媒体90が記憶しているプログラムは、本実施形態に係る画像解析装置110として機能するコンピュータなどの電子情報処理装置に提供される。当該コンピュータが有するCPUは、当該プログラムの内容に応じて動作して、当該コンピュータの各部を制御する。CPUが実行するプログラムは、本図および以後の図に関連して説明される画像解析装置110などとして当該コンピュータを機能させる。
Note that the
記憶媒体90としては、CD−ROMの他に、DVDまたはPD等の光学記録媒体、MOまたはMDなどの光磁気記録媒体、テープ媒体またはハードディスク装置などの磁気記録媒体、半導体メモリ、磁気メモリなどを例示することができる。また、専用通信ネットワークあるいはインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置が記憶媒体90として機能することもできる。
Examples of the
また、記憶媒体90は、画像処理システム10用のプログラムを記憶してよい。画像処理システム10用のプログラムは、画像解析装置110の他に、本図および以後の図に関連して説明される解析結果データベース112、店舗サーバ170、端末装置180、および撮像装置100の少なくともいずれかとして、コンピュータを機能させることができる。
The
図2は、画像解析装置110のブロック構成の一例を示す。画像解析装置110は、画像取得部200、特徴量抽出部210、適合度算出部220、オブジェクト抽出部230、基準特徴量算出部240、オブジェクト領域推定部250、向き特定部260、特徴量更新部270、特徴量記憶部280、および出力部290を有する。基準特徴量算出部240は、更新特徴量選択部242、更新特徴量算出部244、および非更新特徴量選択部246を含む。
FIG. 2 shows an example of a block configuration of the
画像取得部200は、撮像装置100が撮像した動画を、通信ネットワーク150を通じて店舗サーバ170から取得する。画像取得部200が取得した動画は、特徴量抽出部210およびオブジェクト抽出部230に供給される。
The
特徴量抽出部210は、動画に含まれるフレーム画像から特徴量を抽出する。特徴量としては、輝度分布などの輝度特徴量、種々のウェーブレット特徴量、Haar−like特徴量、Edgelet特徴量、EOH特徴量、HOG特徴量などを例示することができる。
The feature
適合度算出部220は、基準特徴量に対する、特徴量抽出部210が抽出した特徴量の適合度を出力する。具体的には、特徴量記憶部280が基準特徴量を記憶していて、適合度算出部220は、特徴量記憶部280が記憶している基準特徴量に対する適合度を出力する。
The fitness
なお、特徴量抽出部210は、異なる特徴量の種類毎に特徴量を抽出する。また、特徴量記憶部280は、異なる種類のそれぞれについて基準特徴量を記憶している。そして、適合度算出部220は、種類毎に適合度を算出する。
Note that the feature
なお、異なる種類の特徴量としては、上記したようにHaar−like特徴量、Edgelet特徴量など、特徴量の種類そのものが異なる特徴量であってよい。他にも、異なる種類の特徴量としては、異なる算出方法で算出した特徴量を含むことができる。異なる算出方法としては、異なる解像度の画像から抽出することを含む。つまり、特徴量の種類そのものが同じあっても、異なる解像度の画像から抽出された特徴量を、本実施形態においては異なる種類の特徴量とみなすことができる。 The different types of feature quantities may be feature quantities having different types of feature quantities such as Haar-like feature quantities and Edgelet feature quantities as described above. In addition, the different types of feature amounts can include feature amounts calculated by different calculation methods. Different calculation methods include extracting from images of different resolutions. That is, even if the types of feature quantities themselves are the same, feature quantities extracted from images with different resolutions can be regarded as different types of feature quantities in this embodiment.
オブジェクト抽出部230は、適合度算出部220が算出した各種類についての適合度に基づき、対象とした画像が特定のオブジェクトの画像であるか否かを判断する。つまり、オブジェクト抽出部230は、抽出することができる。
The
なお、特徴量抽出部210、適合度算出部220、特徴量記憶部280、およびオブジェクト抽出部230は、識別器の処理として実装され得る。例えば、特徴量の1つの種類に着目すれば、特徴量抽出部210が特徴量を抽出してから適合度算出部220が適合度を出力するまでの処理を、一の弱識別器による処理とみなすことができる。そして、複数の種類についての適合度からオブジェクトの画像であるか否かを判断するオブジェクト抽出部230の処理までを含めると、オブジェクトを抽出するための一の識別器の処理とみなすことができる。
Note that the feature
オブジェクト抽出部230は、オブジェクトの画像として判断した場合には、オブジェクトを含む所定の領域の画像であるオブジェクト周辺画像をフレーム画像から切り出して、基準特徴量算出部240に供給される。基準特徴量算出部240は、オブジェクト抽出部230から供給された画像を用いて、次のフレーム画像からオブジェクトを抽出するための基準特徴量を算出する。基準特徴量算出部240が算出した基準特徴量は、特徴量更新部270によって特徴量記憶部280に記憶される。これにより、特徴量記憶部280が記憶している基準特徴量は、基準特徴量算出部240が算出した基準特徴量で更新される。
If the
そして、次のフレーム画像から、上述した特徴量抽出部210、適合度算出部220、およびオブジェクト抽出部230における処理により、オブジェクトが抽出される。この動作を繰り返すことによって、複数のフレーム画像のそれぞれから、オブジェクトが抽出される。
Then, an object is extracted from the next frame image by the processes in the feature
なお、基準特徴量算出部240は、オブジェクト周辺画像を用いて学習することで、オブジェクト周辺画像に適応した基準特徴量を算出する。このように基準特徴量算出部240は、現フレームのオブジェクトの画像に適応した特徴量を算出することができる。このため、基準特徴量算出部240は、特定のオブジェクトの追跡に適した基準特徴量を算出することができる。
Note that the reference feature
なお、基準特徴量算出部240によってオブジェクト周辺画像に適応した基準特徴量が算出されるが、一の基準特徴量を更新することは、上述した弱識別器の処理が適応化されることを意味する。つまり、基準特徴量算出部240により基準特徴量が算出されて特徴量記憶部280に記憶されるまでの特徴量更新処理は、適応した弱識別器を構築する処理とみなすことができる。基準特徴量算出部240における基準特徴量の算出処理が学習に基づく場合、特徴量更新処理は、上述した識別器のオンライン学習処理とみなすことができる。
Note that the reference feature value adapted to the object peripheral image is calculated by the reference feature
なお、基準特徴量算出部240は、抽出されたオブジェクトとして撮像された被写体の向きに応じて基準特徴量を更新することができる。例えば、基準特徴量算出部240は、特徴量記憶部280が被写体の向き毎に、オブジェクトを抽出するための基準特徴量を記憶してよい。この場合に、基準特徴量算出部240は、抽出されたオブジェクトとして撮像された被写体の向きに対応する基準特徴量を選択して更新することができる。
Note that the reference feature
なお、向き特定部260は、オブジェクトとして撮像された被写体の向きを特定する。特徴量記憶部280が向き毎に基準特徴量を記憶している場合、向き特定部260は、最も適合する基準特徴量に対応づけて特徴量記憶部280が記憶している向きを、被写体の向きとすることができる。基準特徴量算出部240は、向き特定部260が特定した向きに基づき、上述の基準特徴量の更新処理をすることができる。
Note that the
また、基準特徴量算出部240は、適合度算出部220が算出した適合度に基づき、基準特徴量を算出してよい。例えば、次フレーム画像からオブジェクトを抽出するための基準特徴量として、適合度が低い基準特徴量を除外して、適合度がより高い基準特徴量を組み入れることができる。言い換えると、弱識別器の組み合わせを替えることができる。このため、特定の被写体のオブジェクトを追跡する追跡処理の精度を向上することができる。
In addition, the reference feature
また、基準特徴量算出部240は、各フレームにおけるオブジェクトの位置に基づき基準特徴量を算出することができる。例えば、基準特徴量算出部240は、現フレームにおけるオブジェクトの画像を正解画像として用いて学習したり、現フレームにおけるオブジェクトの領域以外の領域の画像を不正解画像として用いて学習したりすることで、基準特徴量を算出することができる。
Further, the reference feature
なお、オブジェクト領域推定部250は、次のフレーム画像上におけるオブジェクトの位置を推定する。具体的には、動画におけるオブジェクトの動き速度と、現フレーム画像におけるオブジェクトの位置とに基づき、次のフレーム画像上におけるオブジェクトの位置を推定することができる。オブジェクト領域推定部250は、現フレーム画像から、当該推定した位置を含む領域の画像を切り出して、基準特徴量算出部240に供給してよい。
The object
この場合に、基準特徴量算出部240は、オブジェクト領域推定部250から供給された画像を不正解画像として学習することにより、基準特徴量を算出することができる。これにより、特徴量記憶部280が記憶している基準特徴量セットは、次のフレーム画像におけるオブジェクトの周辺の画像が検出されにくいものに強化されているので、次フレーム画像からのオブジェクトの検出確率を高めることができる。
In this case, the reference feature
ここで、基準特徴量算出部240における各部の動作について概略説明すると、更新特徴量選択部242は、更新すべき種類を特定する。例えば、更新特徴量選択部242による処理としては、上述したような適合度の低い種類の基準特徴量を除外して、新たな基準特徴量を導入したりすることができる。そして、更新特徴量算出部244は、更新特徴量選択部242が選択した種類の特徴量を、学習等によって適応化する。また、非更新特徴量選択部246は、適応化せずに次フレーム画像においてもオブジェクト抽出に使用する種類の特徴量を選択してよい。なお、基準特徴量算出部240における各部の動作については後に詳述する。
Here, the operation of each unit in the reference feature
また、出力部290は、オブジェクト抽出部230が抽出したオブジェクトの情報を、外部に出力する。例えば、出力部290は、抽出されたオブジェクトの位置、抽出されたオブジェクトの画像そのものを、解析結果データベース112、端末装置180などに出力してよい。以上説明したように、画像解析装置110によると、オブジェクトの検出処理とオブジェクトの追跡処理とを一体的に行うことができ、オブジェクトを追跡するための演算量を低減することができる。
Further, the
図3は、画像解析装置110における処理内容の一例を模式的に示す。以下に、画像解析装置110の機能および動作を、識別器あるいは弱識別器による処理を例に挙げて説明する。
FIG. 3 schematically shows an example of processing contents in the
識別器セット404は、画像解析装置110がオブジェクト抽出処理に用いることができる複数の識別器402a〜cを有している。識別器402a〜cは、それぞれ被写体の異なる向きに対応している。具体的には、識別器402aは、人物の正面顔を検出するのに適した複数の弱識別器400a〜cにより形成される。
The classifier set 404 includes a plurality of
ここで弱識別器400aは、低解像度画像に対する1以上の弱識別器400により形成される。例えば、弱識別器400aは、8×8画素の解像度の画像に対する1以上の弱識別器400により形成される。以後の図において、1つの弱識別器400は1つの横長の矩形で示される。弱識別器400bは、中解像度画像に対する1以上の弱識別器400により形成され、弱識別器400cは、高解像度画像に対する1以上の弱識別器400により形成される。例えば、弱識別器400bは、16×16画素の解像度の画像に対する1以上の弱識別器400により形成され、弱識別器400cは、32×32画素の解像度の画像に対する1以上の弱識別器400により形成される。弱識別器400aのように解像度が比較的に低い弱識別器は種を検出する識別器部分として機能するとともに、弱識別器400c(または弱識別器400b)のように解像度が比較的に高い弱識別器は個別オブジェクトを識別する識別器部分として機能することができる。後述するように、解像度が比較的に高い弱識別器400は、オンライン学習により個別オブジェクトに適応される。このように解像度に応じた階層的な弱識別器構成とすることで、個別オブジェクトを高速に検出・追跡することができる。
Here, the
また、識別器402bは、人物の右横顔を右横顔を検出するのに適した複数の弱識別器400により形成され、識別器402cは、人物の左横顔を右横顔を検出するのに適した複数の弱識別器400により形成される。この点を除いて、識別器402bおよび識別器402cは識別器402aと略同一の構成を有するので、説明を省略する。
The classifier 402b is formed by a plurality of weak classifiers 400 suitable for detecting a right profile of a person, and the
以下に、本図を用いて、画像解析装置110が、識別器セット404から、オブジェクト抽出に用いる識別器セット464を生成する処理を説明する。ここでは、説明の都合上、オブジェクト抽出部230は、処理480において、前のフレーム画像から特定のオブジェクトを既に抽出しているものとする。オブジェクト抽出部230は、オブジェクトの領域を示す情報を基準特徴量算出部240に供給する。
Hereinafter, a process in which the
なお、オブジェクトが抽出された段階においては、適合度算出部220は識別器セット464に含まれる識別器を用いて適合度を算出している。適合度算出部220が算出した適合度は、基準特徴量算出部240に供給される。また、オブジェクトが抽出された段階においては、向き特定部260は、オブジェクトが示す被写体の向きを特定しており、特定した向きも基準特徴量算出部240に供給される。また、オブジェクトが抽出された段階においては、オブジェクト領域推定部250は、次フレーム画像におけるオブジェクトが存在する領域を推定しており、推定した領域を示す情報は基準特徴量算出部240に供給されている。
At the stage where the object is extracted, the fitness
更新特徴量算出部244は、オブジェクトの領域を示す情報に基づき、オブジェクトの周辺の画像であるオブジェクト周辺画像412を生成する(処理410)。ここでいうオブジェクト周辺画像とは、オブジェクトの領域と、オブジェクトの周囲の領域とを含む。そして、更新特徴量算出部244は、オブジェクト周辺画像412を用いて、所定の画素数の教師画像422を複数生成する(処理420)。
The update feature
教師画像422は、正解画像および不正解画像を含む。更新特徴量算出部244は、オブジェクト周辺画像412中のオブジェクトの領域の画像から、複数の正解画像を生成する。また、更新特徴量算出部244は、オブジェクト周辺画像412中のオブジェクト以外の領域を含む領域の画像から、複数の不正解画像を生成する。
The
処理430において、非更新特徴量選択部246により、識別器402が有する弱識別器の中から、次のフレーム画像においてオブジェクトを抽出するためにオブジェクト抽出部230が使用する識別器が選択される。処理430において選択された識別器は、オブジェクト周辺画像に適応されずに、オブジェクト抽出に用いられる。
In
なお、以後の説明では、向き特定部260により人物の正面顔のオブジェクトが抽出されたとする。この場合、処理430で選択される弱識別器400、および、処理450で適応される弱識別器400は、いずれも識別器402aを形成する弱識別器400から選択される。もちろん、右横顔のオブジェクトが抽出された場合には識別器402bから選択され、左横顔のオブジェクトが抽出された場合には識別器402cから選択されることは言うまでもない。
In the following description, it is assumed that the object of the front face of the person is extracted by the
このとき、オブジェクトへの適合度が高い弱識別器400が選択されてよい。また、低解像度画像用の弱識別器400aの中から所定数の弱識別器400が選択されてよい。また、低解像度画像用の弱識別器400aに加えて、中解像度画像用の弱識別器400aの中から、所定数の弱識別器400が選択されてよい。
At this time, the weak classifier 400 having a high degree of fitness for the object may be selected. A predetermined number of weak classifiers 400 may be selected from the
このように、種検出用の弱識別器として機能することができる弱識別器を全てを複製(例えば、弱識別器400aの全てを複製)または部分的に複製(例えば、弱識別器400bの一部を複製)することにより、個別オブジェクトの検出用の弱識別器が形成される。いわば種検出用の弱識別器の完全継承および部分継承により、検出・追跡用の弱識別器の一部が形成される。これにより、完全継承および部分継承される弱識別器で検出されるオブジェクトは、当該弱識別器で検出される種に属していると判定されたことになる。これらの継承される弱識別器は、オフライン学習で事前に構築されていてよい。
In this way, all weak classifiers that can function as weak classifiers for species detection are replicated (for example, all
一方、個別オブジェクトを識別すべく、各個体の特徴(例えば、目、口などの特徴)を検出する能力を持つ弱識別器が、弱識別器400bの一部および弱識別器400cにより生成される。具体的には、弱識別器400bの一部および弱識別器400cを、個体の特徴を反映すべくオンライン学習(例えば、AdaBoostの手法)により進化させる。進化させられた弱識別器400cには、追跡している複数の個別オブジェクト(例えば、同じ種に属する個別オブジェクト)のそれぞれを識別する能力が、オンライン学習で組み込まれる。
On the other hand, in order to identify individual objects, a weak classifier having the ability to detect the characteristics of each individual (for example, characteristics of eyes, mouth, etc.) is generated by a part of the
このように、解像度に対応する階層的構造に応じて、弱識別器の継承および進化がなされる。また、識別器の進化の処理は、弱識別器の選択、除外、更新の処理を含む。特に更新処理においては、オンライン機械学習手法で個別オブジェクトの新しい特徴が識別器に組み込まれる。したがって、種の検出用の弱識別器と個別オブジェクト検出用の弱識別器とが連携されるので、個別オブジェクトを高速かつ高精度に検出・追跡することができる。 In this way, the weak classifier is inherited and evolved according to the hierarchical structure corresponding to the resolution. The process of classifier evolution includes the process of selecting, excluding, and updating weak classifiers. In particular, in the update process, new features of individual objects are incorporated into the classifier by online machine learning techniques. Accordingly, since the weak classifier for detecting the species and the weak classifier for detecting the individual object are linked, the individual object can be detected and tracked at high speed and with high accuracy.
この進化の処理を画像解析装置110の機能ブロックを用いて説明すると、更新特徴量選択部242の処理により、オブジェクト周辺画像に適応させる弱識別器400を選択する。具体的には、処理440において、識別器セット404に含まれる弱識別器400のそれぞれによりオブジェクト周辺画像に対する判定処理がなされ、識別結果442が算出される。そして、処理450において、識別結果442に基づき、識別器セット464を生成する。
This evolution process will be described using the functional blocks of the
例えば、更新特徴量選択部242による処理により、適応させるべき弱識別器400が選択される。選択された識別器は、オブジェクト周辺画像に適応されてオブジェクト抽出に用いられる。このとき、オブジェクトへの適合度がより低い弱識別器400が、適応させるべき弱識別器としてより優先的に選択されてよい。また、中解像度画像用の弱識別器400bから、所定数の弱識別器400が選択されてよい。また、弱識別器400bからの弱識別器400に加えて、高解像度画像用の弱識別器400cの中から、所定数の弱識別器400が選択されてよい。
For example, the weak classifier 400 to be adapted is selected by the processing by the update feature
ここで、更新特徴量選択部242により選択された弱識別器400は、更新特徴量算出部244による処理により、オブジェクト周辺画像412に適応される。ここでは、教師画像422を用いたオンラインブースティングの手法により、弱識別器400を適応させてよい。そして、特徴量更新部270による処理により、適応された弱識別器460を生成する。
Here, the weak classifier 400 selected by the update feature
処理450で適応された弱識別器460と、処理430で選択された弱識別器400により、識別器セット464が構築される。なお、処理430で選択された弱識別器400は適応されていないが、次のフレーム画像からのオブジェクト抽出に用いられる弱識別器であるので、便宜上、符号を変えて弱識別器460として示している。
A
上述したように、弱識別器460aは、いずれも弱識別器400aと同じ識別処理をする弱識別器となる。そして、弱識別器460aのうちの所定数の弱識別器460が、次のフレーム画像からのオブジェクト抽出処理に用いられる。
As described above, each of the
また、弱識別器460bのうちの一部の弱識別器460は、いずれも弱識別器400bのうちの対応する弱識別器400と同じ識別処理をする弱識別器であってよい。このうちの一部の弱識別器460が、次のフレーム画像からのオブジェクト抽出処理に用いられる。そして、それ以外の弱識別器460は、弱識別器400bのうちの対応する弱識別器400が処理450において適応された弱識別器であってよい。適応された弱識別器は、次のフレーム画像からのオブジェクト抽出処理に用いられる。
Also, some of the weak classifiers 460 of the
また、弱識別器460cのうち更新する弱識別器として選択された弱識別器460は、弱識別器400cのうちの対応する弱識別器400が処理450において適応された弱識別器であって、これらの弱識別器がオブジェクト抽出処理に用いられる。
The weak classifier 460 selected as the weak classifier to be updated among the
処理480において、オブジェクト抽出部230は、識別器セット464のうち、オブジェクト抽出処理に用いられるべき弱識別器460を用いて、次のフレーム画像からオブジェクトを抽出する。なお、処理470は、オブジェクト領域推定部250が次のフレーム画像上においてオブジェクトが存在する領域を推定する処理を示している。処理480においては、オブジェクト抽出部230は、処理470において推定された領域の画像である推定領域画像472に対して、識別器セット464に含まれる弱識別器を用いて、オブジェクトの探索・認識処理をする。
In the
以上説明したように、画像解析装置110によると、個別オブジェクトを検出・追跡する識別器を構築する場合に、親の弱識別器から一部を継承する。そして、オンライン学習手法により、他の一部の弱識別器に、個別オブジェクトの特徴を検出する能力が組み込まれる。このように継承と進化の処理をすることにより、種の検出能力を維持しつつ、初期状態の弱識別器からオンライン学習する場合に比べて高い識別能力を持たせることができる。
As described above, according to the
上述したように、画像解析装置110が有する識別器は、粗い画像からの特徴量に対応する弱識別器および細かい画像からの特徴量に対応する弱識別器が階層的に形成される。また、粗い画像からの特徴量に対応する、種の属性を十分に表すことができる弱識別器を含む形で識別器が形成される。このため、画像解析装置110が有する識別器は、種を検出する識別器として機能することができる。さらに、画像解析装置110によると、追跡の対象となる個別オブジェクトを識別する弱識別器をオンライン学習により進化させることで、識別器に個別オブジェクトの独自の特徴を検出する能力を持たせることができる。これにより、映像シーンにおいて複数のオブジェクトを追跡すべく、個別オブジェクトを検出・識別することができる識別器を構築することができる。
As described above, the classifier included in the
画像解析装置110によると、既に検出されたオブジェクトについては初期状態の弱識別器を用いずに、継承・進化された弱識別器を用いて検出・追跡処理を行う。このため、追跡処理と検出処理とを分離せずに追跡処理と検出処理との間の密接な依存関係を利用することができ、効率的に検出・追跡をすることができる。このため、画像解析装置110によると、識別器の環境への適応能力を高めることができる。
According to the
図4は、処理450に関連する処理内容の一例を模式的に示す。識別器502aは、特定のオブジェクトの検出処理に用いられる識別器であるとする。本図を参照して、次のフレーム画像に対するオブジェクト抽出処理に用いられる新たな識別器を構築する場合の処理を説明する。ここでは特に、オブジェクト周辺画像に適応させる弱識別器を構築する処理を中心に説明する。なお、正面顔に対する識別器462aに対する処理が以下に説明されるが、識別器462b、識別器462cに対する処理も同様であることは言うまでもない。
FIG. 4 schematically shows an example of processing contents related to the
識別器502aは、識別器462aのうち、オブジェクト抽出に実際に用いられる識別器を示す。識別器502aは、弱識別器500aおよび弱識別器500bに分けられる。弱識別器500aは、弱識別器460aのうちのオブジェクト抽出に用いられる弱識別器460と、弱識別器460bのうちオブジェクト抽出に用いられ、オブジェクト周辺画像に適応され得ない弱識別器460とを示している。弱識別器500bは、オブジェクト周辺画像に適応され得る弱識別器を示している。
The classifier 502a indicates a classifier actually used for object extraction among the
弱識別器500aは、高解像度用の弱識別器460aの一部と、中解像度用の弱識別器460bの一部とを含む。特定のオブジェクトが抽出された場合、オブジェクト抽出部230は、弱識別器500aを用いて、後続の1以上のフレーム画像から特定のオブジェクトを抽出する。なお、撮像された人物の顔の向きが大きく変わった場合には、識別器462bなど、顔の向きに対応する他の識別器462が用いられる。この場合においても、特定の顔向きのオブジェクトが抽出された後は、後続の1以上のフレーム画像から特定の顔向き用に構築された識別器が用いられてよい。
The
このように、人物検出用の弱識別器400aから選択された、特定のオブジェクトを抽出するのに適した組み合わせの低解像度用および一部の中解像度用の弱識別器500aが、後続の1以上のフレーム画像からのオブジェクト抽出処理に用いられる。このため、他のオブジェクトを誤検出する確率を低減しつつ、演算量を低減することができる。
In this manner, a combination of low resolution and some medium resolution
続いて、弱識別器500bに対する処理を説明する。弱識別器500bは、P個の弱識別器500により形成される。このP個の弱識別器500により、個別オブジェクトを識別する能力が識別器に与えられる。処理510において、更新特徴量選択部242による処理により、除外するN個の弱識別器が選択される。具体的には、オブジェクトの画像に対する適合度が小さいものから順に、N個の弱識別器が除外する弱識別器として選択されてよい。弱識別器500bに示されるように、弱識別器500bは、(P−N)個の弱識別器520Aと、N個の弱識別器520Bとに分けられる。処理530における除外処理で弱識別器520Bが除外することにより、(P−N)個の弱識別器520Aが残る。
Next, processing for the
このように、P個の特徴量に対応する弱識別器について、個別オブジェクトで識別性能が評価される。評価結果に基づきP個の弱識別器の識別性能がランク付けされ、その中から識別性能がより低いN個の弱識別器が除外される。 As described above, the classification performance of the weak classifiers corresponding to the P feature amounts is evaluated by the individual objects. Based on the evaluation results, the discrimination performance of the P weak discriminators is ranked, and N weak discriminators having lower discrimination performance are excluded.
次に、次のフレーム画像からのオブジェクト抽出処理に用いられる弱識別器562を識別器402aから生成する処理を説明する。処理550において、更新特徴量算出部244による処理により、追加するM個の弱識別器の候補を、識別器402aに含まれる弱識別器400の中から選択する。この場合、オブジェクトの画像への適合度が高い順にM個の弱識別器400が選択されてよい。選択された弱識別器は、弱識別器552として示されている。
Next, a process for generating the
このように、現フレーム画像における個別オブジェクトを評価データとして用いて、M個の特徴量に対応する弱識別器を、識別器402aに含まれる弱識別器400の中から選択する。なお、継承される弱識別器400aまたは弱識別器400bの中から、識別性能の評価値が高いM個の特徴量を選択して、選択したM個の特徴量に対応するM個の弱識別器を弱識別器400cの中から選択してもよい。ここで、他の種のオブジェクトを検出すべく用いられる弱識別器を含めて評価して、他の種のオブジェクトを検出すべく用いられる弱識別器を少なくとも含むM個の弱識別器を選択してもよい。
In this way, using the individual object in the current frame image as the evaluation data, the weak classifiers corresponding to the M feature quantities are selected from the weak classifiers 400 included in the
処理560においては、選択された弱識別器552と、教師画像422とを用いて、オンラインブースティングの手法により、次のフレーム画像からのオブジェクト抽出処理に用いられる弱識別器としてN個の弱識別器562が決定される。
In
具体的には、特定の弱識別器552において、教師画像422のそれぞれから特徴量がそれぞれ抽出される。抽出された特徴量と基準特徴量とを比較することにより、教師画像422が正解画像であるか否かを特定の弱識別器552で判定した判定値が、教師画像422のそれぞれについて定まる。また、教師画像422が正解画像であるか否かを示す教師信号と当該判定値との間の誤差値が、教師画像422のそれぞれについて定まる。そして、基準特徴量算出部240は、教師画像422についてそれぞれ定まる誤差値を重み付け加重した値を最小化する基準特徴量を算出する。算出された基準特徴量を、特定の弱識別器552で判定に用いる基準特徴量とすることで、特定の弱識別器552を教師画像に適応させることができる。
Specifically, in a specific
同様にして、複数の弱識別器552のそれぞれについて上記重み付き誤差値を最小化する基準特徴量を算出することで、複数の弱識別器552をそれぞれ教師画像422に適応させることができる。更新特徴量選択部242は、重み付き誤差がより小さいN個の弱識別器552を、次のフレーム画像からのオブジェクト抽出処理に用いられる弱識別器562として、より優先して選択する。このように、抽出対象のオブジェクトの周辺画像を教師画像としてオンライン学習することにより、M個の弱識別器552の中からN個の有効な弱識別器562が選択される。
Similarly, by calculating a reference feature amount that minimizes the weighted error value for each of a plurality of
更新特徴量算出部244による処理により、(P−N)個の弱識別器520Aと、N個の弱識別器562とが結合されて、P個の弱識別器が形成される。形成された弱識別器と、弱識別器500aとにより、次のフレーム画像からのオブジェクト抽出処理に実際に用いられる識別器が構築される。これにより、個別オブジェクトの検出・追跡に有効な識別器が形成される。オブジェクト抽出部230は、構築された識別器を用いて次のフレーム画像からオブジェクトを抽出する。
By the processing by the update feature
そして、更なる次のフレーム画像からオブジェクトを抽出するための識別器は、現在のフレーム画像で構築された識別器を本図の識別器502とみなして本図で説明した処理をすることで構築される。そしてこのような処理を繰り返すことで、動画に含まれる複数のフレーム画像から特定のオブジェクトを検出・追跡することができる。
Then, the classifier for extracting an object from a further next frame image is constructed by regarding the classifier constructed in the current frame image as the
図5は、正解画像および不正解画像の画像領域の一例を示す。フレーム画像600上の領域610は、フレーム画像600から抽出されたオブジェクトが存在する領域を示す。領域620は、抽出されたオブジェクトの周囲の領域を示す。領域610および領域620の領域の画像は、図3および図4に関連して説明したオブジェクト周辺画像に該当する。
FIG. 5 shows an example of image areas of correct and incorrect images. An
教師画像422を生成する場合、更新特徴量算出部244は、領域610に対応する画像から、複数の正解画像を生成する。また、更新特徴量算出部244は、領域620に対応する画像から、複数の不正解画像を生成する。複数の正解画像および複数の不正解画像を用いた学習により、識別器をフレーム周辺画像に適応させることができる。
When generating the
図6は、正解画像および不正解画像の画像領域の他の一例を示す。フレーム画像700−1、フレーム画像700−2、フレーム画像700−3は、この順で撮像された連続するフレーム画像であるとする。更新特徴量算出部244は、フレーム画像700−1上およびフレーム画像700−2上に、フレーム画像700−3からオブジェクトを抽出するための教師画像422を生成する。
FIG. 6 shows another example of the image areas of the correct image and the incorrect image. Assume that the frame image 700-1, the frame image 700-2, and the frame image 700-3 are continuous frame images captured in this order. The update feature
フレーム画像700−2上の領域710bは、図5で説明した領域610に該当しており、領域710bから複数の正解画像が生成される。領域710bは、抽出されたオブジェクトの周辺領域(例えば、抽出されたオブジェクトの領域より2〜3画素広い領域)を含んでよい。周辺領域を含む画像も正解画像の画像領域とすることで、追跡しているオブジェクトの変動に対応することができる。
An
フレーム画像700−2上の領域720aは、図5で説明した領域620に該当しており、領域720aから複数の不正解画像が生成される。領域720aは、オブジェクト周辺の背景となる画像領域となる。不正解画像の画像領域は、追跡しているオブジェクトをフレーム画像700−2において検出する領域に設定されてよい。
An
フレーム画像700−1上の領域710aは、フレーム画像700−1から抽出されたオブジェクトの領域であり、更新特徴量算出部244における処理において、領域710aから複数の正解画像が生成される。なお、フレーム画像700−1上の領域710aから抽出されたオブジェクトと、フレーム画像700−2上の領域710bから抽出されたオブジェクトは、ともに同じ被写体のオブジェクトであるとする。
An
また、フレーム画像700−2上の領域720bは、フレーム画像700−2において他のオブジェクトが抽出された領域であり、更新特徴量算出部244における処理において、領域720bから複数の不正解画像が生成される。追跡しているオブジェクトの近くの他のオブジェクトの領域720bから不正解画像が生成されてよい。このように他のオブジェクトの領域から不正解画像を生成することにより、他のオブジェクトを特定のオブジェクトとして検出してしまう確率を低減することができる。
An
また、領域720cは、領域720aに存在しているオブジェクトが、次のフレーム画像700−3において存在すると予測される領域を示している。領域720cは、オブジェクト領域推定部250により、オブジェクトの動きに基づき推定される。更新特徴量算出部244における処理により、フレーム画像700−2上の領域720cから、複数の不正解画像が生成される。
An
フレーム画像700−2上の領域720cには、フレーム画像700−3における特定のオブジェクトの周囲に存在する被写体が撮像されている確率が高い。したがって、フレーム画像700−2上の領域720cを不正解画像とすることで、フレーム画像700−3から、追跡対象のオブジェクトの近傍に存在する他の被写体のオブジェクトを追跡対象のオブジェクトとして検出してしまう確率を低減することができる。
In the
なお、オブジェクト抽出部230は、フレーム画像700−3の領域720cから、オブジェクトを抽出してもよい。つまり、オブジェクト抽出部230がオブジェクトを抽出する抽出対象の領域と、不正解画像を生成する対象の領域とは、画像領域上の同じ領域であってよい。なお、不正解画像を生成する対象の領域は、抽出対象の領域より小さくてもよい。
Note that the
図5および図6に関連して説明したように、現フレームにおけるオブジェクト画像だけでなく、前フレームにおけるオブジェクトの画像も正解画像として用いる。また、不正解画像としては、オブジェクトの周辺領域の背景画像だけでなく、次のフレームのタイミングでのオブジェクトの位置近傍の背景画像、および、追跡対象のオブジェクトの近傍に位置する他のオブジェクトの画像をも用いる。また、画像解析装置110によると、フレーム単位での学習ではなく、オブジェクトの移動、オブジェクトパターンの変化も含めてオンライン学習に組み込むことができる。このため、環境変動に対する識別器の対応能力を高めることができる。
As described with reference to FIGS. 5 and 6, not only the object image in the current frame but also the image of the object in the previous frame is used as the correct image. In addition, the incorrect image is not only the background image of the peripheral area of the object, but also the background image near the position of the object at the timing of the next frame, and the image of another object positioned near the object to be tracked Is also used. Further, according to the
なお、個別オブジェクトの識別用の弱識別器を生成するオンライン学習処理は、毎フレーム行わなくてよい。動画像における追跡は高速でリアルタイム性が要求される。リアルタイム性を確保することを目的として、オンライン学習の頻度も適切に変えてもよい。 The online learning process for generating a weak classifier for identifying an individual object does not have to be performed every frame. Tracking in moving images requires high speed and real-time performance. For the purpose of ensuring real-time performance, the frequency of online learning may be appropriately changed.
例えば、オブジェクトが静止している場合、または、オブジェクトの動き量(変化量)が予め定められた値より小さい場合には、オンライン学習をしなくてよい。周囲の環境が実質的に変化していなかったり、オブジェクトが実質的に変化していない場合には、オンライン学習せずともオブジェクトを検出・追跡することができる。 For example, when the object is stationary or when the amount of movement (change amount) of the object is smaller than a predetermined value, online learning is not necessary. If the surrounding environment has not changed substantially or the object has not changed substantially, the object can be detected and tracked without online learning.
他にも、個別オブジェクトの識別用の弱識別器で識別して得られたオブジェクトの類似度が予め定められた第1の値より高い場合には、オンライン学習をしなくてよい。現在の識別器により十分に高い類似度が判定された場合には、個別オブジェクトの特徴はすでに弱識別器に組み込まれていることを意味しているので、オンライン学習しなくても個別オブジェクトを十分に検出・追跡することができる。他にも、上記類似度が予め定められた第2の値(第1の値より小さい値とする)より低い場合にも、オンライン学習をしなくてもよい。類似度が著しく低いということは、オブジェクトがオクルージョンされていたり、誤検出されている可能性が高いことを意味している。この場合にオンライン学習すると、オクルージョンされなくなったオブジェクトを検出・追跡することができなくなってしまう場合がある。このため、類似度が著しく低い場合には、インスタンス識別器の安定性から考えて、学習を行わないことが望ましいといえる。 In addition, when the similarity of the object obtained by identifying with the weak classifier for identifying the individual object is higher than a predetermined first value, online learning is not necessary. If the current classifier determines a sufficiently high degree of similarity, it means that the characteristics of the individual object are already built into the weak classifier, so that the individual object is sufficient even without online learning. Can be detected and tracked. In addition, online learning may not be performed when the similarity is lower than a predetermined second value (a value smaller than the first value). A remarkably low degree of similarity means that the object is likely to be occluded or misdetected. If online learning is performed in this case, it may become impossible to detect and track an object that is no longer occluded. For this reason, when the degree of similarity is extremely low, it can be said that it is desirable not to perform learning in view of the stability of the instance discriminator.
以上説明したように、画像解析装置110によると、オブジェクトの検出処理とオブジェクトの認識処理とを一括して行うことができる識別器を構築することができる。このため、これらの処理に要する演算量を著しく低減することができる。
As described above, according to the
なお、図4から図6などにおいては、画像解析装置110の機能および動作を、識別器あるいは弱識別器による処理を例に挙げて説明した。上述のように、特徴量抽出部210、適合度算出部220、特徴量記憶部280、およびオブジェクト抽出部230の機能および動作は、弱識別器の機能および動作とみなすことができる。そして、基準特徴量を適応および更新は、識別器の選択および適応とみなすことができる。したがって、画像解析装置110の各構成要素が、基準特徴量に関して以下のように動作することで、図4から図6などにおいて識別器に関連して具体的に説明した機能と等価な機能を実現することができる。
In FIG. 4 to FIG. 6 and the like, the function and operation of the
すなわち、以下に説明する動作により、画像解析装置110は、動画から特定のオブジェクトを抽出することができる。オブジェクトの抽出とは、オブジェクト毎に位置を特定することにより追跡することを含む。特徴量記憶部280は、種類が異なる複数の基準特徴量を記憶している。特徴量抽出部210は、動画に含まれる複数のフレーム画像のそれぞれから、種類が異なる複数の特徴量を抽出する。オブジェクト抽出部230は、特徴量記憶部280が記憶している複数の基準特徴量に対する抽出された複数の特徴量の適合度に基づき、フレーム画像からオブジェクトを抽出する。
That is, the
基準特徴量算出部240は、特徴量記憶部280が記憶している基準特徴量より、抽出されたオブジェクトの特徴量に種類に応じて予め定められた強度で適応させた複数の基準特徴量を算出する。そして、特徴量更新部270は、特徴量記憶部280が記憶している複数の基準特徴量を、基準特徴量算出部240が算出した基準特徴量で更新する。
Based on the reference feature quantity stored in the feature
なお、基準特徴量算出部240は、適合度がより大きい種類ほど、抽出されたオブジェクトの特徴量により大きい強度で適応させた複数の基準特徴量を算出してよい。また、基準特徴量算出部240は、抽出されたオブジェクトの特徴量に、種類に応じた頻度で適応させた複数の基準特徴量を算出してよい。
Note that the reference feature
特徴量記憶部280は、異なる解像度の画像から抽出された複数の特徴量に対応する複数の基準特徴量を記憶している。そして、特徴量抽出部210は、異なる解像度の画像から複数の特徴量を抽出する。基準特徴量算出部240は、抽出されたオブジェクトの特徴量に、解像度に応じた強度で適応させた複数の基準特徴量を算出する。基準特徴量算出部240は、抽出されたオブジェクトの特徴量に、解像度が大きいほどより大きい強度で適応させた複数の基準特徴量を算出してよい。なお、基準特徴量算出部240は、抽出されたオブジェクトの特徴量に適応させた、予め定められた値より大きい解像度に対応する複数の基準特徴量を算出してよい。
The feature
基準特徴量算出部240の動作について、更新特徴量選択部242は、非更新特徴量選択部246が選択した基準特徴量の種類以外の種類のうち、適合度がより大きい種類をより優先して選択する。更新特徴量算出部244は、更新特徴量選択部242が選択した種類について、抽出されたオブジェクトの特徴量に適応させた1以上の基準特徴量を算出する。更新特徴量算出部244は、適応させた複数の基準特徴量のうち、抽出されたオブジェクトの特徴量への適応度がより大きい基準特徴量を、適応させた基準特徴量としてより優先して選択する。なお、適応度としては、学習処理における学習誤差を例示することができる。
Regarding the operation of the reference feature
なお、オブジェクト抽出部230は、更新され得る予め定められたP種類の基準特徴量を少なくとも用いて、オブジェクトを抽出してよい。そして、更新特徴量算出部244は、適応度がより大きいN種類の基準特徴量を、適応させた基準特徴量としてより優先して選択してよい。そして、非更新特徴量選択部246は、オブジェクト抽出部230がフレーム画像からオブジェクトを抽出する場合に用いた、適合度が予め定められた値以上である(P−N)種類の基準特徴量を、適応させた基準特徴量とする。この場合に、適応度の順に選択したN種類の特徴量を、基準特徴量としてよい。
Note that the
そして、更新特徴量選択部242は、適合度がより大きい、Nより多いM種類の特徴量の種類を選択する。このとき、適合度が高い順にM種類の特徴量が選択されてよい。基準特徴量算出部240は、更新特徴量選択部242が選択したM種類について、抽出されたオブジェクトの特徴量に適応させた基準特徴量を算出する。そして基準特徴量算出部240は、算出したM種類の基準特徴量のうち、適応度がより大きいN種類の基準特徴量を、適応させた基準特徴量としてより優先して選択してよい。
Then, the update feature
なお、非更新特徴量選択部246は、オブジェクト抽出部230がフレーム画像からオブジェクトを抽出する場合に用いた、所定の条件に適合する1以上の種類の基準特徴量を、適応させた基準特徴量としてよい。つまり、所定の条件に適合する1以上の種類の基準特徴量は更新されずに、オブジェクト抽出部230により次のフレーム画像におけるオブジェクト抽出処理に用いられる。
The non-updated feature
更新しない特徴量を選択する場合には、非更新特徴量選択部246は、オブジェクト抽出部230がフレーム画像からオブジェクトを抽出する場合に用いた、適合度が予め定められた値以上である1以上の種類の基準特徴量を、適応させた基準特徴量としてよい。また、非更新特徴量選択部246は、教師画像422に基づき、適応させた基準特徴量を選択してよい。具体的には、非更新特徴量選択部246は、教師画像422に基づく学習により、正解画像に対して正解を判定することができる確率が予め定められた値より高い組み合わせの基準特徴量を選択してよい。また、非更新特徴量選択部246は、さらに、教師画像422に基づく学習により、不正解画像に対して不正解を判定することができる確率が予め定められた値より高い組み合わせの基準特徴量を選択してもよい。
When selecting a feature quantity that is not to be updated, the non-update feature
特徴量を適応させる処理においては、基準特徴量算出部240は、抽出されたオブジェクトを含む領域の画像を正解画像として学習して得られた基準特徴量を、適応させた基準特徴量として算出してよい。また、基準特徴量算出部240は、抽出されたオブジェクト以外の領域を領域の画像を不正解画像として学習して得られた基準特徴量を、適応させた基準特徴量として算出してよい。
In the process of adapting the feature amount, the reference feature
なお、基準特徴量算出部240は、フレーム画像における抽出された特定のオブジェクトを含む領域の画像を正解画像とすることにより、基準特徴量を算出してよい。基準特徴量算出部240は、フレーム画像の前のフレーム画像から抽出された特定のオブジェクトを含む領域の画像を正解画像とすることにより、基準特徴量を算出する。ここで、オブジェクト抽出部230は、特徴量抽出部210が次のフレーム画像から抽出した特徴量の、基準特徴量に対する適合度に基づき、次のフレーム画像から特定のオブジェクトを抽出してよい。
Note that the reference feature
基準特徴量算出部240は、フレーム画像における抽出された特定のオブジェクトを含まない領域の画像を不正解画像とすることにより、基準特徴量を算出してよい。また、基準特徴量算出部240は、フレーム画像において抽出された特定のオブジェクトから予め定められた距離離れた領域の画像を不正解画像とすることにより、基準特徴量を算出してよい。また、基準特徴量算出部240は、フレーム画像から抽出された他のオブジェクトを含む領域の画像を不正解画像とすることにより、基準特徴量を算出してよい。
The reference feature
オブジェクト領域推定部250は、動画から抽出された特定のオブジェクトの移動量に基づき、他のフレーム画像において特定のオブジェクトが存在すべき領域を推定する。基準特徴量算出部240は、他のフレーム画像におけるオブジェクト領域推定部250が推定した領域を含む画像を不正解画像とすることにより、基準特徴量を算出してよい。
The object
なお、適合度算出部220は、基準特徴量に対する特徴量抽出部210が抽出した特徴量の適合度を、種類毎に算出する。そして、オブジェクト抽出部230は、種類毎に算出された適合度に基づき、複数のフレーム画像のそれぞれからオブジェクトを抽出する。この場合に、オブジェクト抽出部230は、予め定められた適合度より大きい適合度が算出された特徴量の数が予め定められた値より多い場合に、特定のオブジェクトとして抽出してよい。他にも、オブジェクト抽出部230は、適合度を所定の重みづけで重みづけした合計値が予め定められた値より大きい場合に、特定のオブジェクトとして抽出してもよい。
The degree-of-
なお、特徴量記憶部280は、被写体の向きに対応づけて複数の基準特徴量を記憶している。特徴量抽出部210が動画に含まれる複数のフレーム画像のそれぞれから複数の特徴量を抽出する。オブジェクト抽出部230は、被写体の向きに対応づけて記憶された複数の基準特徴量に対する抽出された複数の特徴量の適合度に基づき、フレーム画像から特定被写体のオブジェクトを抽出する。
Note that the feature
向き特定部260は、特定被写体の向きを特定する。このとき、基準特徴量に対する適合度に基づき、向きを特定してよい。例えば、向き特定部260は、特徴量記憶部280が記憶している複数の特徴量のうち、予め定められた値より大きい適合度が算出された基準特徴量に対応づけて特徴量記憶部280が記憶している被写体の向きを特定被写体の向きとして特定してよい。
The
このように、向き特定部260は、予め定められた解像度より小さい解像度の画像から特徴量抽出部210が抽出した特徴量を、同解像度の基準特徴量とそれぞれ比較することにより、被写体の向きのそれぞれについて適合度を算出してよい。そして、向き特定部260は、より大きい適合度が算出された基準特徴量に対応づけられた被写体の向きを、特定被写体の向きとして特定してよい。
As described above, the
そして、基準特徴量算出部240は、特徴量記憶部280が記憶している基準特徴量より、抽出されたオブジェクトに適応させた基準特徴量を算出する。特徴量更新部270は、特徴量記憶部280が特定された向きに対応づけて記憶している基準特徴量を、基準特徴量算出部240が算出した基準特徴量で更新してよい。これにより、被写体の向きに応じた適切な組み合わせの基準特徴量を、学習により強化していくことができる。
Then, the reference feature
以上説明したように、画像解析装置110においては、検出処理と追跡処理との密接な関連性を利用して、クラス識別器に継承および進化の概念を導入することにより、種を検出する検出器としてのクラス識別器からオブジェクト追跡用のクラス識別器が構築される。進化を実現するオンライン学習により、環境変動への対応能力を識別器に動的に組み込むことができる。このため、画像解析装置110により実現される識別器によると、人物同士を識別したり、環境変動に対応することができる。
As described above, in the
例えば、画像解析装置110によると、被写体の姿勢などが変動することによるオブジェクトの形状の変動、照明変動および背景変動を含む被写体が存在する環境の変動、撮像性能の変動(例えば、コントラストの変動、ぶれなどの解像性能の変動)に対しても、適切に検出・追跡をすることができる。また、オブジェクト同士が重なったり、周囲物により遮蔽されるなどオクルージョンが生じ得る環境においても、適切に検出・追跡をすることができる。また、撮像装置100自身が移動する場合にも適切に検出・追跡することができる。また、複数のオブジェクトを追跡する場合においても各オブジェクトを適切に区別することができる。また、個別オブジェクトを容易に検出することができるので、複数の撮像装置100間における協調・連携も容易となる。また、オブジェクトの移動の規則性が比較的に低い場合であったり、オブジェクトの移動を推測する情報が不足している場合においても、適切に検出・追跡することができる。また、映像ノイズが生じた場合であっても適切に検出・追跡することができる。このように、画像解析装置110によると、このような環境変動に対して安定かつ高精度に個別オブジェクトの抽出を行うことができる。
For example, according to the
以上図1から図6に関連して説明したように、画像処理システム10によると、特定の顧客を正確に追跡することができるので、顧客情報を正確に分析したり、当該顧客が興味を持った商品を正確に分析したりすることができる。このように、画像処理システム10は、店舗用の画像処理システムとして機能することができる。
As described above with reference to FIGS. 1 to 6, according to the
その他、画像処理システム10は多様な用途に適用することができる。例えば、画像処理システム10によると、顧客が興味を持った商品の情報に基づき広告コンテンツを顧客に提供することもでき、この場合、画像処理システム10はサイネージシステムとして機能することができる。また、画像処理システム10は、不審者が注目したものを特定する監視システムあるいは防犯システムとして機能することもできる。また、画像処理システム10は、特定の被写体を認証する認証システムとして機能することができる。
In addition, the
また、画像解析装置110は、異なる店舗空間160の動画を取得して、解析してもよい。これにより、顧客の動向などを店舗間で比較することができる。また、上記においては店舗用のシステムとして画像処理システム10の機能および動作を説明したが、画像処理システム10の用途としては、店舗用以外にも種々の用途に利用することができる。
Further, the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.
10 画像処理システム
90 記憶媒体
100 撮像装置
110 画像解析装置
112 解析結果データベース
150 通信ネットワーク
160 店舗空間
162 商品棚
164 人物
170 店舗サーバ
180 端末装置
200 画像取得部
210 特徴量抽出部
220 適合度算出部
230 オブジェクト抽出部
240 基準特徴量算出部
242 更新特徴量選択部
244 更新特徴量算出部
246 非更新特徴量選択部
250 オブジェクト領域推定部
260 向き特定部
270 特徴量更新部
280 特徴量記憶部
290 出力部
400 弱識別器
402 識別器
404 識別器セット
410、420、430、440、450、470、480、510、530、550、560 処理
412 オブジェクト周辺画像
422 教師画像
442 識別結果
460 弱識別器
462 識別器
464 識別器セット
472 推定領域画像
500、520、552、562 弱識別器
502 識別器
600、700 フレーム画像
610、620、710、720 領域
10
Claims (13)
被写体の向きに対応づけて複数の基準特徴量を記憶する特徴量記憶部と、
動画に含まれる複数の動画構成画像のそれぞれから、複数の特徴量を抽出する特徴量抽出部と、
被写体の向きに対応づけて記憶された複数の基準特徴量に対する前記抽出された複数の特徴量の適合度に基づいて、前記動画構成画像から前記特定被写体のオブジェクトを抽出するオブジェクト抽出部と、
前記特定被写体の向きを特定する向き特定部と、
前記特徴量記憶部が記憶している基準特徴量より、前記抽出されたオブジェクトの特徴量に適応させた基準特徴量を算出する基準特徴量算出部と、
前記特徴量記憶部が前記特定された向きに対応づけて記憶している基準特徴量を、前記基準特徴量算出部が算出した基準特徴量で更新する特徴量更新部と
を備える画像解析装置。 An image analysis device that extracts an object of a specific subject from a video,
A feature amount storage unit that stores a plurality of reference feature amounts in association with the direction of the subject;
A feature amount extraction unit that extracts a plurality of feature amounts from each of a plurality of movie constituent images included in the movie;
An object extraction unit that extracts an object of the specific subject from the moving image composition image based on the degree of matching of the plurality of extracted feature amounts with respect to a plurality of reference feature amounts stored in association with the direction of the subject;
An orientation identifying unit that identifies the orientation of the specific subject;
A reference feature value calculation unit that calculates a reference feature value adapted to the feature value of the extracted object from the reference feature value stored in the feature value storage unit;
An image analysis apparatus comprising: a feature amount update unit that updates a reference feature amount stored in the feature amount storage unit in association with the specified orientation with a reference feature amount calculated by the reference feature amount calculation unit.
請求項1に記載の画像解析装置。 The image analysis device according to claim 1, wherein the reference feature amount calculation unit calculates a plurality of reference feature amounts adapted to the extracted feature amount of the object with higher strength as the degree of matching is higher.
請求項1から2のいずれかに記載の画像解析装置。 3. The image according to claim 1, wherein the reference feature amount calculating unit calculates a plurality of reference feature amounts adapted to the extracted feature amount of the object at a frequency according to a feature amount type. Analysis device.
前記特徴量記憶部は、異なる解像度の画像から抽出された複数の特徴量に対応する複数の基準特徴量を記憶しており、
前記基準特徴量算出部は、前記抽出されたオブジェクトの特徴量に、前記解像度に応じた強度で適応させた複数の基準特徴量を算出する
請求項1から3のいずれかに記載の画像解析装置。 The feature amount extraction unit extracts a plurality of feature amounts from images of different resolutions,
The feature amount storage unit stores a plurality of reference feature amounts corresponding to a plurality of feature amounts extracted from images of different resolutions,
The image analysis apparatus according to claim 1, wherein the reference feature amount calculation unit calculates a plurality of reference feature amounts adapted to the extracted feature amount of the object with an intensity corresponding to the resolution. .
請求項4に記載の画像解析装置。 The image analysis apparatus according to claim 4, wherein the reference feature amount calculation unit calculates a plurality of reference feature amounts adapted to the extracted feature amount of the object with greater intensity as the resolution is larger.
請求項5に記載の画像解析装置。 The image analysis apparatus according to claim 5, wherein the reference feature amount calculation unit calculates a plurality of reference feature amounts corresponding to a resolution larger than a predetermined value, adapted to the extracted feature amount of the object.
前記オブジェクト抽出部が前記動画構成画像からオブジェクトを抽出する場合に用いた、所定の条件に適合する1以上の種類の基準特徴量を、前記適応させた基準特徴量とする非更新特徴量選択部
を有する請求項1から5のいずれかに記載の画像解析装置。 The reference feature amount calculation unit includes:
A non-updated feature quantity selection unit that uses one or more types of reference feature values that meet a predetermined condition used when the object extraction unit extracts an object from the moving image constituent image as the adapted reference feature value The image analysis apparatus according to claim 1, comprising:
請求項7に記載の画像解析装置。 The non-update feature quantity selection unit uses one or more types of reference feature quantities that are used when the object extraction unit extracts an object from the moving image constituent image and the degree of fitness is a predetermined value or more. The image analysis apparatus according to claim 7, wherein the adapted reference feature amount is used.
請求項1から8のいずれかに記載の画像解析装置。 9. The reference feature amount calculation unit according to claim 1, wherein the reference feature amount calculation unit calculates a reference feature amount obtained by learning an image of a region including the extracted object as a correct image as the adapted reference feature amount. An image analyzing apparatus according to claim 1.
請求項1から9のいずれかに記載の画像解析装置。 The reference feature amount calculation unit calculates, as the adapted reference feature amount, a reference feature amount obtained by learning an image of the region other than the extracted object as an incorrect image. The image analysis apparatus according to any one of 9.
前記向き特定部は、予め定められた解像度より小さい解像度の画像から前記特徴量抽出部が抽出した特徴量を、同解像度の基準特徴量とそれぞれ比較することにより、被写体の向きのそれぞれについて適合度を算出し、より大きい適合度が算出された基準特徴量に対応づけられた被写体の向きを、特定被写体の向きとして特定する
請求項1から10のいずれかに記載の画像解析装置。 The feature amount storage unit stores a plurality of reference feature amounts corresponding to a plurality of feature amounts extracted from images with different resolutions in association with the direction of the subject,
The orientation specifying unit compares the feature amount extracted by the feature amount extraction unit from an image having a resolution smaller than a predetermined resolution with a reference feature amount having the same resolution, thereby matching the degree of fitness for each direction of the subject. The image analysis apparatus according to any one of claims 1 to 10, wherein the orientation of the subject associated with the reference feature amount for which a greater degree of fitness is calculated is identified as the orientation of the specific subject.
被写体の向きに対応づけて複数の基準特徴量を記憶する特徴量記憶段階と、
動画に含まれる複数の動画構成画像のそれぞれから、複数の特徴量を抽出する特徴量抽出段階と、
被写体の向きに対応づけて記憶された複数の基準特徴量に対する前記抽出された複数の特徴量の適合度に基づいて、前記動画構成画像から前記特定被写体のオブジェクトを抽出するオブジェクト抽出段階と、
前記特定被写体の向きを特定する向き特定段階と、
前記特徴量記憶段階において記憶された基準特徴量より、前記抽出されたオブジェクトの特徴量に適応させた基準特徴量を算出する基準特徴量算出段階と、
前記特徴量記憶段階において前記特定された向きに対応づけて記憶された基準特徴量を、前記基準特徴量算出段階において算出された基準特徴量で更新する特徴量更新段階と
を備える画像解析方法。 An image analysis method for extracting an object of a specific subject from a video,
A feature amount storing step for storing a plurality of reference feature amounts in association with the direction of the subject;
A feature amount extraction stage for extracting a plurality of feature amounts from each of a plurality of movie constituent images included in the movie;
An object extraction step of extracting the object of the specific subject from the moving image composition image based on the degree of matching of the plurality of extracted feature amounts with respect to a plurality of reference feature amounts stored in association with the direction of the subject;
A direction identifying step of identifying a direction of the specific subject;
A reference feature amount calculating step of calculating a reference feature amount adapted to the extracted feature amount of the object from the reference feature amount stored in the feature amount storage step;
An image analysis method comprising: a feature amount update step of updating the reference feature amount stored in association with the specified orientation in the feature amount storage step with the reference feature amount calculated in the reference feature amount calculation step.
被写体の向きに対応づけて複数の基準特徴量を記憶する特徴量記憶部、
動画に含まれる複数の動画構成画像のそれぞれから、複数の特徴量を抽出する特徴量抽出部、
被写体の向きに対応づけて記憶された複数の基準特徴量に対する前記抽出された複数の特徴量の適合度に基づいて、前記動画構成画像から前記特定被写体のオブジェクトを抽出するオブジェクト抽出部、
前記特定被写体の向きを特定する向き特定部、
前記特徴量記憶部が記憶している基準特徴量より、前記抽出されたオブジェクトの特徴量に適応させた基準特徴量を算出する基準特徴量算出部、
前記特徴量記憶部が前記特定された向きに対応づけて記憶している基準特徴量を、前記基準特徴量算出部が算出した基準特徴量で更新する特徴量更新部
として機能させるプログラム。 A program for an image analysis device that extracts an object of a specific subject from a video, the computer
A feature amount storage unit that stores a plurality of reference feature amounts in association with the direction of the subject;
A feature amount extraction unit that extracts a plurality of feature amounts from each of a plurality of movie constituent images included in the movie,
An object extraction unit that extracts the object of the specific subject from the moving image composition image based on the degree of matching of the plurality of extracted feature amounts with respect to the plurality of reference feature amounts stored in association with the direction of the subject;
A direction identifying unit that identifies a direction of the specific subject;
A reference feature value calculation unit that calculates a reference feature value adapted to the feature value of the extracted object from the reference feature value stored in the feature value storage unit;
A program that causes a reference feature value stored in the feature value storage unit in association with the specified direction to function as a feature value update unit that updates the reference feature value calculated by the reference feature value calculation unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009207487A JP2011059897A (en) | 2009-09-08 | 2009-09-08 | Image analysis apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009207487A JP2011059897A (en) | 2009-09-08 | 2009-09-08 | Image analysis apparatus and method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011059897A true JP2011059897A (en) | 2011-03-24 |
Family
ID=43947464
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009207487A Abandoned JP2011059897A (en) | 2009-09-08 | 2009-09-08 | Image analysis apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011059897A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019075051A (en) * | 2017-10-19 | 2019-05-16 | セコム株式会社 | Image processor |
JPWO2021186494A1 (en) * | 2020-03-16 | 2021-09-23 | ||
JP2022050565A (en) * | 2018-07-03 | 2022-03-30 | ナノトロニクス イメージング インコーポレイテッド | System, device, and method for providing feedback on and improving accuracy of super-resolution imaging |
WO2023219008A1 (en) * | 2022-05-12 | 2023-11-16 | オムロン株式会社 | Evaluation method, program, and evaluation system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007193404A (en) * | 2006-01-17 | 2007-08-02 | Fujifilm Corp | Method for detecting face, system and program |
-
2009
- 2009-09-08 JP JP2009207487A patent/JP2011059897A/en not_active Abandoned
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007193404A (en) * | 2006-01-17 | 2007-08-02 | Fujifilm Corp | Method for detecting face, system and program |
Non-Patent Citations (2)
Title |
---|
CSNG200900042005; 山下隆義 外2名: 'Online Real Boostingによる人物追跡' 情報処理学会論文誌 コンピュータビジョンとイメージメディア 第1巻 第1号, 20081115, 第73〜82頁, 社団法人情報処理学会 * |
JPN6012061137; 山下隆義 外2名: 'Online Real Boostingによる人物追跡' 情報処理学会論文誌 コンピュータビジョンとイメージメディア 第1巻 第1号, 20081115, 第73〜82頁, 社団法人情報処理学会 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019075051A (en) * | 2017-10-19 | 2019-05-16 | セコム株式会社 | Image processor |
JP2022050565A (en) * | 2018-07-03 | 2022-03-30 | ナノトロニクス イメージング インコーポレイテッド | System, device, and method for providing feedback on and improving accuracy of super-resolution imaging |
JP7431458B2 (en) | 2018-07-03 | 2024-02-15 | ナノトロニクス イメージング インコーポレイテッド | Systems, devices, and methods for providing feedback on and improving the accuracy of super-resolution imaging |
US11948270B2 (en) | 2018-07-03 | 2024-04-02 | Nanotronics Imaging , Inc. | Systems, devices, and methods for providing feedback on and improving the accuracy of super-resolution imaging |
JPWO2021186494A1 (en) * | 2020-03-16 | 2021-09-23 | ||
WO2021186494A1 (en) * | 2020-03-16 | 2021-09-23 | 日本電気株式会社 | Object tracking device, object tracking method, and recording medium |
JP7364041B2 (en) | 2020-03-16 | 2023-10-18 | 日本電気株式会社 | Object tracking device, object tracking method, and program |
WO2023219008A1 (en) * | 2022-05-12 | 2023-11-16 | オムロン株式会社 | Evaluation method, program, and evaluation system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5261312B2 (en) | Image analysis apparatus, image analysis method, and program | |
JP2011059898A (en) | Image analysis apparatus and method, and program | |
US8374393B2 (en) | Foreground object tracking | |
US8218819B2 (en) | Foreground object detection in a video surveillance system | |
US6502082B1 (en) | Modality fusion for object tracking with training system and method | |
US8270733B2 (en) | Identifying anomalous object types during classification | |
Du et al. | Online deformable object tracking based on structure-aware hyper-graph | |
KR101653278B1 (en) | Face tracking system using colar-based face detection method | |
Wei et al. | Face detection for image annotation | |
JP2010231254A (en) | Image analyzing device, method of analyzing image, and program | |
JP2006209755A (en) | Method for tracing moving object inside frame sequence acquired from scene | |
Ghrab et al. | Abnormal events detection based on trajectory clustering | |
Roy et al. | Foreground segmentation using adaptive 3 phase background model | |
Liu et al. | Smoke-detection framework for high-definition video using fused spatial-and frequency-domain features | |
JP2011059897A (en) | Image analysis apparatus and method, and program | |
Vhatkar et al. | Design issues and challenges in hierarchical routing protocols for wireless sensor networks | |
EP4399689A1 (en) | Object detection systems and methods including an object detection model using a tailored training dataset | |
JP5241687B2 (en) | Object detection apparatus and object detection program | |
Gao et al. | A fast eyelash detection algorithm based on morphological operation | |
Spinello et al. | Scene in the loop: Towards adaptation-by-tracking in RGB-D data | |
CN117152826B (en) | Real-time cross-mirror tracking method based on target tracking and anomaly detection | |
US20230186611A1 (en) | System, method, and computer program for retraining a pre-trained object classifier | |
Fan | Towards Robust Visual Tracking: Creating Reliable Observations from Videos | |
Patras et al. | Regression tracking with data relevance determination | |
Gangaputra et al. | The trace model for object detection and tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121127 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20130122 |