JP2011059897A - Image analysis apparatus and method, and program - Google Patents

Image analysis apparatus and method, and program Download PDF

Info

Publication number
JP2011059897A
JP2011059897A JP2009207487A JP2009207487A JP2011059897A JP 2011059897 A JP2011059897 A JP 2011059897A JP 2009207487 A JP2009207487 A JP 2009207487A JP 2009207487 A JP2009207487 A JP 2009207487A JP 2011059897 A JP2011059897 A JP 2011059897A
Authority
JP
Japan
Prior art keywords
reference feature
feature amount
image
extracted
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2009207487A
Other languages
Japanese (ja)
Inventor
Yi Hu
軼 胡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009207487A priority Critical patent/JP2011059897A/en
Publication of JP2011059897A publication Critical patent/JP2011059897A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image analysis apparatus capable of efficiently performing the detection processing of an object and the tracking processing of a specific object. <P>SOLUTION: The image analysis apparatus includes: a feature value memory for storing a plurality of reference feature values in association with the direction of an object; a feature value extraction unit for extracting a plurality of feature values from each of a plurality of moving image configuring images included in a moving image; an object extraction unit for extracting the object of a specific object from the moving image configuring image based on the adaptation of the plurality of extracted feature values corresponding to the plurality of reference feature values stored so as to be associated with the direction of the object; a direction specification part for specifying the direction of the specific object; a reference feature value calculation part for calculating the reference feature value adapted to the feature value of the extracted object based on the reference feature value stored in the feature value memory; and a feature value updating part for updating the reference feature value stored so as to be associated with the specified direction by the feature value memory with the reference feature value calculated by the reference feature value calculation part. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像解析装置、画像解析方法およびプログラムに関する。   The present invention relates to an image analysis device, an image analysis method, and a program.

画像データ等の対象データが特定内容のデータであるか否かを識別する識別処理に用いる特徴量の種類と識別条件を決定できるとする装置が知られている(例えば、特許文献1参照。)。また、動画像中の被写体を高精度で認識する技術が知られている(例えば、特許文献2参照。)。
特開2005−115525号公報 特開2001−34756号公報 Jacky S.C. Yuk, Kwan−Yee K. Wong, Ronald H.Y.Chung, F.Y.L.Chin and K.P.Chow, "Real−time multiple head shape detection and tracking system with decentralized trackers", Proceedings of the Sixth International Conference on Intelligent Systems Design and Application (ISDA'06), vol.02, pp.384−389, 2006 Shai Aviaden, Ensemble Tracking, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.29, issue.2, pp.261−271, Feb.,2007 Helmut Grabner, Michael Grabner, "Real−time tracking via on−line boosting", vol.1, pp.47−57, BMVC2006
An apparatus is known that can determine the type of feature quantity and identification conditions used for identification processing for identifying whether target data such as image data is data of a specific content (see, for example, Patent Document 1). . In addition, a technique for recognizing a subject in a moving image with high accuracy is known (for example, see Patent Document 2).
JP 2005-115525 A JP 2001-34756 A Jacky S. C. Yuk, Kwan-Yee K.K. Wong, Ronald H. Y. Chung, F.A. Y. L. Chin and K. P. Chow, "Real-time multiple head shape detection and tracking system with decently tracked". Proceedings of the ensembles in the world. 02, pp. 384-389, 2006 Shai Aviaden, Ensemble Tracking, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 29, issue. 2, pp. 261-271, Feb. , 2007 Helmut Grabner, Michael Grabner, “Real-time tracking via on-line boosting”, vol. 1, pp. 47-57, BMVC2006

特徴量の種類と識別条件とを規定した参照データを用いると、特徴量が変化するような被写体を識別することが容易ではない。また、特徴量が大きく変化した場合には、違う被写体として検出してしまい、特定オブジェクトを追跡することができない場合がある。このように、オブジェクトの検出処理と特定オブジェクトの追跡処理とを効率的にすることができないという課題があった。   If reference data that defines the type of feature quantity and the identification condition is used, it is not easy to identify a subject whose feature quantity changes. In addition, when the feature amount changes greatly, it may be detected as a different subject and the specific object may not be tracked. Thus, there has been a problem that the object detection process and the specific object tracking process cannot be made efficient.

上記課題を解決するために、本発明の第1の態様においては、動画から特定被写体のオブジェクトを抽出する画像解析装置であって、被写体の向きに対応づけて複数の基準特徴量を記憶する特徴量記憶部と、動画に含まれる複数の動画構成画像のそれぞれから、複数の特徴量を抽出する特徴量抽出部と、被写体の向きに対応づけて記憶された複数の基準特徴量に対する抽出された複数の特徴量の適合度に基づいて、動画構成画像から特定被写体のオブジェクトを抽出するオブジェクト抽出部と、特定被写体の向きを特定する向き特定部と、特徴量記憶部が記憶している基準特徴量より、抽出されたオブジェクトの特徴量に適応させた基準特徴量を算出する基準特徴量算出部と、特徴量記憶部が特定された向きに対応づけて記憶している基準特徴量を、基準特徴量算出部が算出した基準特徴量で更新する特徴量更新部とを備える。   In order to solve the above-described problem, in the first aspect of the present invention, an image analysis apparatus that extracts an object of a specific subject from a moving image, and stores a plurality of reference feature amounts in association with the orientation of the subject. A quantity storage unit, a feature quantity extraction unit that extracts a plurality of feature quantities from each of a plurality of movie constituent images included in the movie, and a plurality of reference feature quantities that are stored in association with the orientation of the subject. An object extraction unit that extracts an object of a specific subject from a moving image composition image based on the degree of matching of a plurality of feature amounts, a direction specification unit that specifies the orientation of the specific subject, and a reference feature stored in the feature amount storage unit A reference feature amount calculation unit that calculates a reference feature amount adapted to the extracted feature amount of the object, and a reference feature stored in the feature amount storage unit in association with the specified direction. Comprising an amount, the feature amount updating unit which reference feature amount calculating unit updates the reference feature quantity calculated.

基準特徴量算出部は、適合度がより大きい種類ほど、抽出されたオブジェクトの特徴量により大きい強度で適応させた複数の基準特徴量を算出してよい。   The reference feature amount calculation unit may calculate a plurality of reference feature amounts that are adapted to the feature amount of the extracted object with higher strength as the degree of matching is larger.

基準特徴量算出部は、抽出されたオブジェクトの特徴量に、特徴量の種類に応じた頻度で適応させた複数の基準特徴量を算出してよい。   The reference feature quantity calculation unit may calculate a plurality of reference feature quantities adapted to the extracted feature quantity of the object at a frequency corresponding to the type of feature quantity.

特徴量抽出部は、異なる解像度の画像から複数の特徴量を抽出し、特徴量記憶部は、異なる解像度の画像から抽出された複数の特徴量に対応する複数の基準特徴量を記憶しており、基準特徴量算出部は、抽出されたオブジェクトの特徴量に、解像度に応じた強度で適応させた複数の基準特徴量を算出してよい。   The feature amount extraction unit extracts a plurality of feature amounts from images with different resolutions, and the feature amount storage unit stores a plurality of reference feature amounts corresponding to the plurality of feature amounts extracted from images with different resolutions. The reference feature amount calculation unit may calculate a plurality of reference feature amounts adapted to the extracted feature amount of the object with an intensity corresponding to the resolution.

基準特徴量算出部は、抽出されたオブジェクトの特徴量に、解像度が大きいほどより大きい強度で適応させた複数の基準特徴量を算出してよい。   The reference feature quantity calculation unit may calculate a plurality of reference feature quantities adapted to the extracted feature quantity of the object with greater intensity as the resolution is higher.

基準特徴量算出部は、抽出されたオブジェクトの特徴量に適応させた、予め定められた値より大きい解像度に対応する複数の基準特徴量を算出してよい。   The reference feature amount calculation unit may calculate a plurality of reference feature amounts corresponding to a resolution larger than a predetermined value, adapted to the extracted feature amount of the object.

基準特徴量算出部は、オブジェクト抽出部が動画構成画像からオブジェクトを抽出する場合に用いた、所定の条件に適合する1以上の種類の基準特徴量を、適応させた基準特徴量とする非更新特徴量選択部を有してよい。   The reference feature amount calculation unit is not updated with one or more types of reference feature amounts that meet a predetermined condition used when the object extraction unit extracts an object from the moving image composition image as an adapted reference feature amount. You may have a feature-value selection part.

非更新特徴量選択部は、オブジェクト抽出部が動画構成画像からオブジェクトを抽出する場合に用いた、適合度が予め定められた値以上である1以上の種類の基準特徴量を、適応させた基準特徴量としてよい。   The non-updated feature quantity selection unit is a standard obtained by adapting one or more types of reference feature quantities having a matching degree equal to or greater than a predetermined value used when the object extraction unit extracts an object from the moving image composition image. It may be a feature amount.

基準特徴量算出部は、抽出されたオブジェクトを含む領域の画像を正解画像として学習して得られた基準特徴量を、適応させた基準特徴量として算出してよい。   The reference feature value calculation unit may calculate a reference feature value obtained by learning an image of a region including the extracted object as a correct image as an adapted reference feature value.

基準特徴量算出部は、抽出されたオブジェクト以外の領域を領域の画像を不正解画像として学習して得られた基準特徴量を、適応させた基準特徴量として算出してよい。   The reference feature quantity calculation unit may calculate a reference feature quantity obtained by learning an area image other than the extracted object as an incorrect image, as an adapted reference feature quantity.

特徴量記憶部は、異なる解像度の画像から抽出された複数の特徴量に対応する複数の基準特徴量を被写体の向きに対応づけて記憶しており、向き特定部は、予め定められた解像度より小さい解像度の画像から特徴量抽出部が抽出した特徴量を、同解像度の基準特徴量とそれぞれ比較することにより、被写体の向きのそれぞれについて適合度を算出し、より大きい適合度が算出された基準特徴量に対応づけられた被写体の向きを、特定被写体の向きとして特定してよい。   The feature amount storage unit stores a plurality of reference feature amounts corresponding to a plurality of feature amounts extracted from images of different resolutions in association with the direction of the subject, and the direction specifying unit has a predetermined resolution. By comparing the feature quantity extracted by the feature quantity extraction unit from an image with a small resolution with the reference feature quantity with the same resolution, the fitness is calculated for each orientation of the subject, and the criterion with a higher fitness is calculated. The direction of the subject associated with the feature amount may be specified as the direction of the specific subject.

本発明の第2の態様においては、動画から特定被写体のオブジェクトを抽出する画像解析方法であって、被写体の向きに対応づけて複数の基準特徴量を記憶する特徴量記憶段階と、動画に含まれる複数の動画構成画像のそれぞれから、複数の特徴量を抽出する特徴量抽出段階と、被写体の向きに対応づけて記憶された複数の基準特徴量に対する抽出された複数の特徴量の適合度に基づいて、動画構成画像から特定被写体のオブジェクトを抽出するオブジェクト抽出段階と、特定被写体の向きを特定する向き特定段階と、特徴量記憶段階において記憶された基準特徴量より、抽出されたオブジェクトの特徴量に適応させた基準特徴量を算出する基準特徴量算出段階と、特徴量記憶段階において特定された向きに対応づけて記憶された基準特徴量を、基準特徴量算出段階において算出された基準特徴量で更新する特徴量更新段階とを備える。   According to a second aspect of the present invention, there is provided an image analysis method for extracting an object of a specific subject from a moving image, a feature amount storing step for storing a plurality of reference feature amounts in association with the direction of the subject, A feature amount extraction stage for extracting a plurality of feature amounts from each of the plurality of moving image constituent images, and a degree of fitness of the extracted feature amounts with respect to a plurality of reference feature amounts stored in association with the orientation of the subject. Based on the object extraction stage for extracting the object of the specific subject from the moving image composition image, the orientation specifying stage for specifying the orientation of the specific subject, and the reference feature quantity stored in the feature quantity storage stage, the feature of the extracted object A reference feature amount calculation step for calculating a reference feature amount adapted to the amount, and a reference feature amount stored in association with the orientation specified in the feature amount storage step , And a characteristic value update step of updating the reference feature amount calculated in the reference feature value calculation step.

本発明の第3の態様においては、動画から特定被写体のオブジェクトを抽出する画像解析装置用のプログラムであって、コンピュータを、被写体の向きに対応づけて複数の基準特徴量を記憶する特徴量記憶部、動画に含まれる複数の動画構成画像のそれぞれから、複数の特徴量を抽出する特徴量抽出部、被写体の向きに対応づけて記憶された複数の基準特徴量に対する抽出された複数の特徴量の適合度に基づいて、動画構成画像から特定被写体のオブジェクトを抽出するオブジェクト抽出部、特定被写体の向きを特定する向き特定部、特徴量記憶部が記憶している基準特徴量より、抽出されたオブジェクトの特徴量に適応させた基準特徴量を算出する基準特徴量算出部、特徴量記憶部が特定された向きに対応づけて記憶している基準特徴量を、基準特徴量算出部が算出した基準特徴量で更新する特徴量更新部として機能させる。   According to a third aspect of the present invention, there is provided a program for an image analysis apparatus for extracting an object of a specific subject from a moving image, wherein the computer stores a plurality of reference feature amounts in association with the direction of the subject. A feature amount extraction unit that extracts a plurality of feature amounts from each of a plurality of movie constituent images included in the movie, and a plurality of feature amounts extracted with respect to a plurality of reference feature amounts stored in association with the orientation of the subject Extracted based on the reference feature value stored in the object extraction unit that extracts the object of the specific subject from the moving image composition image, the direction specification unit that specifies the direction of the specific subject, and the feature storage unit A reference feature quantity calculation unit that calculates a reference feature quantity adapted to the feature quantity of the object, and a reference feature quantity stored in association with the specified direction by the feature quantity storage unit Reference feature value calculating part to function as a characteristic value update section for updating the reference feature quantity calculated.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   The above summary of the invention does not enumerate all necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、一実施形態における画像処理システム10の一例を示す。以下に説明するように、画像処理システム10は、一実施形態において店舗用の画像処理システムとして機能することができる。   FIG. 1 shows an example of an image processing system 10 according to an embodiment. As described below, the image processing system 10 can function as an image processing system for a store in one embodiment.

画像処理システム10は、店舗空間160を撮像する複数の撮像装置100a−b、店舗サーバ170、通信ネットワーク150、画像解析装置110、解析結果データベース112、および端末装置180を備える。なお、以下の説明において、撮像装置100aおよび撮像装置100bを、撮像装置100と総称する場合がある。同様に、以後の説明においては、末尾の英文字など、数字符号に続く文字を省略することで、数字符号が指し示すものを総称することがある。   The image processing system 10 includes a plurality of imaging devices 100a-b that images the store space 160, a store server 170, a communication network 150, an image analysis device 110, an analysis result database 112, and a terminal device 180. In the following description, the imaging device 100a and the imaging device 100b may be collectively referred to as the imaging device 100. Similarly, in the following description, a character indicated by a numerical code may be generically named by omitting a character following the numerical code, such as an English letter at the end.

撮像装置100aは店舗空間160を撮像する。撮像装置100aは、店舗空間160内の人物164aおよび人物164bを、店舗空間160内の商品棚162a、商品棚162bなどとともに撮像して、動画を生成する。撮像装置100aは、店舗空間160を撮像して得られた動画を、店舗サーバ170に供給する。なお、撮像装置100bは、撮像装置100aと異なる位置に設けられる。その他の点では、撮像装置100bの機能および動作は撮像装置100aの機能および動作と略同一であるので、撮像装置100については説明を省略する。   The imaging device 100a images the store space 160. The imaging device 100a images the person 164a and the person 164b in the store space 160 together with the product shelf 162a, the product shelf 162b, and the like in the store space 160, and generates a moving image. The imaging device 100 a supplies the moving image obtained by imaging the store space 160 to the store server 170. Note that the imaging device 100b is provided at a different position from the imaging device 100a. In other respects, the function and operation of the imaging device 100b are substantially the same as the function and operation of the imaging device 100a, and thus the description of the imaging device 100 is omitted.

店舗サーバ170は、撮像装置100aおよび撮像装置100bから供給された動画を、画像解析装置110に向けて通信ネットワーク150に送出する。通信ネットワーク150としては、インターネットなどの電気通信回線を例示することができる。店舗サーバ170は、例えば撮像装置100の近傍に設けられる。他の形態において、店舗サーバ170は店舗空間160内に設けられてもよい。   The store server 170 sends the moving images supplied from the imaging device 100 a and the imaging device 100 b to the communication network 150 toward the image analysis device 110. The communication network 150 can be exemplified by a telecommunication line such as the Internet. The store server 170 is provided in the vicinity of the imaging device 100, for example. In another form, the store server 170 may be provided in the store space 160.

また、店舗サーバ170は、撮像装置100の撮像動作を制御する。例えば、店舗サーバ170は、撮像装置100の撮像機能のオン/オフ、撮像レートなどを制御する。撮像装置100がズーム撮影できる場合には、店舗サーバ170は撮像装置100のズーム値を制御してもよい。また、撮像装置100の撮像方向が可変である場合には、店舗サーバ170は撮像装置100の撮像方向を制御してもよい。   Further, the store server 170 controls the imaging operation of the imaging device 100. For example, the store server 170 controls on / off of the imaging function of the imaging device 100, the imaging rate, and the like. When the imaging device 100 can perform zoom shooting, the store server 170 may control the zoom value of the imaging device 100. Further, when the imaging direction of the imaging device 100 is variable, the store server 170 may control the imaging direction of the imaging device 100.

画像解析装置110は、店舗空間160とは異なる空間に設けられ、撮像装置100がそれぞれ撮像した動画を、通信ネットワーク150を通じて店舗サーバ170から取得する。画像解析装置110は、動画を解析して、解析結果を端末装置180に向けて通信ネットワーク150に送出する。   The image analysis device 110 is provided in a space different from the store space 160, and acquires the moving images captured by the imaging device 100 from the store server 170 through the communication network 150. The image analysis device 110 analyzes the moving image and sends the analysis result to the communication network 150 toward the terminal device 180.

なお、画像解析装置110は、解析結果を解析結果データベース112に出力してもよい。画像解析装置110は、解析結果を解析結果データベース112から読み出して、読み出した解析結果を端末装置180に送信してもよい。なお、解析結果データベース112は、画像解析装置110が有してもよい。他にも、解析結果データベース112は、画像解析装置110が設けられた空間とは異なる空間に設けられてよい。この場合、画像解析装置110は、通信ネットワーク150を介して解析結果データベース112に解析結果を送信してもよい。   Note that the image analysis device 110 may output the analysis result to the analysis result database 112. The image analysis device 110 may read the analysis result from the analysis result database 112 and transmit the read analysis result to the terminal device 180. The analysis result database 112 may be included in the image analysis device 110. In addition, the analysis result database 112 may be provided in a space different from the space in which the image analysis device 110 is provided. In this case, the image analysis apparatus 110 may transmit the analysis result to the analysis result database 112 via the communication network 150.

端末装置180は、画像解析装置110による解析結果を、通信ネットワーク150を通じて画像解析装置110から取得する。端末装置180は、解析結果をユーザの指示に応じて加工して表示する。端末装置180は、画像解析装置110が設けられた空間とは異なる空間に設けられてよい。端末装置180は、店舗空間160の近傍または店舗空間160内に設けられてもよい。   The terminal device 180 acquires the analysis result from the image analysis device 110 from the image analysis device 110 through the communication network 150. The terminal device 180 processes and displays the analysis result according to a user instruction. The terminal device 180 may be provided in a space different from the space in which the image analysis device 110 is provided. The terminal device 180 may be provided in the vicinity of the store space 160 or in the store space 160.

以下に、画像解析装置110の動作の一例を概略的に説明する。画像解析装置110は、撮像装置100が撮像した動画に含まれる複数のフレーム画像のそれぞれから、人物164などの移動体が撮像されたオブジェクトを検出するとともに、同じ被写体のオブジェクトを画像内において追跡する。このとき、画像解析装置110は、複数の弱識別器を利用してオブジェクトを検出および追跡する。   Below, an example of operation | movement of the image analysis apparatus 110 is demonstrated roughly. The image analysis apparatus 110 detects an object in which a moving body such as a person 164 is captured from each of a plurality of frame images included in a moving image captured by the imaging apparatus 100, and tracks an object of the same subject in the image. . At this time, the image analysis apparatus 110 detects and tracks an object using a plurality of weak classifiers.

具体的には、画像解析装置110は、低解像度画像から識別結果を算出する複数の弱識別器、中解像度画像から識別結果を算出する複数の弱識別器、高解像度画像から識別結果を算出する複数の弱識別器を有している。これらの弱識別器は、画像から抽出した特徴量に基づき、識別結果を算出する。   Specifically, the image analysis apparatus 110 calculates a discrimination result from a plurality of weak classifiers that calculate a discrimination result from a low resolution image, a plurality of weak classifiers that calculate a discrimination result from a medium resolution image, and a high resolution image. It has a plurality of weak classifiers. These weak classifiers calculate a discrimination result based on the feature amount extracted from the image.

低解像度画像用の弱識別器は、人物など特定種類の被写体のオブジェクトを抽出するための弱識別器であり、低解像度画像から多様な種類の特徴量を抽出して識別結果を算出する。これにより、高いロバスト性で人物のオブジェクトを検出することができる。なお、低解像度画像用の弱識別器は、追跡対象のオブジェクトに適応されずに用いられる。低解像度画像用の弱識別器は、例えば事前学習等によって高いロバスト性で人物のオブジェクトを検出できるよう構築されている。   The weak classifier for a low resolution image is a weak classifier for extracting an object of a specific type of subject such as a person, and various types of feature amounts are extracted from the low resolution image to calculate a discrimination result. Thereby, a human object can be detected with high robustness. Note that the weak classifier for low-resolution images is used without being adapted to the object to be tracked. The weak classifier for low-resolution images is constructed so that it can detect a human object with high robustness by, for example, prior learning.

中解像度画像用の弱識別器も同様に、多様な種類の特徴量を抽出して識別結果を算出する。中解像度画像用の弱識別器は、人物など特定種類の被写体のオブジェクトを抽出するための複数の弱識別器と、追跡対象のオブジェクトに対して適応化されていく複数の弱識別器とにより構築される。特定種類の被写体のオブジェクトを抽出するための弱識別器は、低解像度画像用の弱識別器と同様に、事前学習等によって構築され、追跡対象のオブジェクトに適応されずに用いられる。また、中解像度画像用の弱識別器のうち、追跡対象の人物に対して適応化される弱識別器は、例えばオンライン学習によりフレーム毎に学習されていく。   Similarly, the weak classifier for the medium resolution image extracts various types of feature amounts and calculates the identification result. Weak classifiers for medium-resolution images are constructed with multiple weak classifiers for extracting objects of a specific type of subject, such as a person, and multiple weak classifiers that are adapted to tracked objects Is done. A weak classifier for extracting an object of a specific type of subject is constructed by prior learning or the like, similarly to the weak classifier for low-resolution images, and is used without being adapted to the object to be tracked. Of the weak classifiers for medium resolution images, weak classifiers that are adapted to the person to be tracked are learned for each frame, for example, by online learning.

高解像度画像用の弱識別器も、多様な種類の特徴量を抽出して識別結果を算出する。高解像度画像用の弱識別器は追跡対象のオブジェクトに対して、オンライン学習によりフレーム毎に適応化されていく。   The weak classifier for high-resolution images also extracts various types of feature amounts and calculates the identification result. The weak classifier for high-resolution images is adapted to the tracking target object for each frame by online learning.

事前学習で弱識別器を構築する場合、教師画像を用いた強化学習の手法を用いることができる。また、弱識別器群は、Adaboost等のブースティングを用いた集団学習により構築されてよい。また、オンライン学習としては、オンラインブースティングの手法を用いることができる。   When a weak classifier is constructed by prior learning, a reinforcement learning method using a teacher image can be used. Further, the weak classifier group may be constructed by group learning using boosting such as Adaboost. As online learning, an online boosting technique can be used.

画像解析装置110は、フレーム画像毎に異なる組み合わせの弱識別器を用いてオブジェクトを抽出したり、フレーム画像毎に異なる組み合わせの弱識別器を適応化して得られた弱識別器を用いてオブジェクトを抽出したりする。このように、画像解析装置110は、特定種類のオブジェクトをロバストに検出する弱識別器と、被写体に適応化することができる追跡処理とを組み合わせた識別器を用いて、オブジェクトを抽出する。このため、画像解析装置110は、特定種類のオブジェクトをロバストに検出でき、かつ高精度に追跡することができる。   The image analysis apparatus 110 extracts an object using a weak classifier having a different combination for each frame image, or extracts an object using a weak classifier obtained by adapting a weak classifier having a different combination for each frame image. Or extract. As described above, the image analysis apparatus 110 extracts an object using a classifier that combines a weak classifier that robustly detects a specific type of object and a tracking process that can be adapted to a subject. Therefore, the image analysis apparatus 110 can robustly detect a specific type of object and can track it with high accuracy.

なお、本実施形態において、"オブジェクトを抽出する"とは、画像領域から特定のオブジェクトを検出および追跡することを指す。また、画像解析装置110は、抽出したオブジェクトが存在する領域を識別する座標情報などの位置情報を解析結果として出力してよい。他にも画像解析装置110は、オブジェクトが存在する領域を切り出したオブジェクト画像を出力してもよい。   In the present embodiment, “extracting an object” refers to detecting and tracking a specific object from an image region. Further, the image analysis apparatus 110 may output position information such as coordinate information for identifying an area where the extracted object exists as an analysis result. In addition, the image analysis apparatus 110 may output an object image obtained by cutting out a region where an object exists.

このように、画像解析装置110は、新しいオブジェクトを見つけるべく、クラス識別器を用いてフレーム画像内をグローバルに探索する。そして、画像解析装置110は、追跡対象オブジェクトの以前のフレーム画像および現在のフレーム画像の双方の観察情報を利用して、オブジェクト位置の予測、オブジェクトの識別、および弱識別器の更新の各プロセスを行なって、オブジェクトを追跡していく。   As described above, the image analysis apparatus 110 searches globally in the frame image using the class identifier in order to find a new object. Then, the image analysis apparatus 110 uses the observation information of both the previous frame image and the current frame image of the tracking target object to perform each process of object position prediction, object identification, and weak classifier update. Line up and keep track of objects.

特定種類のオブジェクト検出用の識別器としては、クラス識別器を用いることができる。この場合のクラス識別器は、いわば種を識別する識別器といえる。一方で、オブジェクト追跡用の識別器は、追跡するオブジェクトの環境に応じて、種の識別とその種に属する各個体の識別との双方をする能力が要求される。   As a classifier for detecting a specific type of object, a class classifier can be used. In this case, the class discriminator can be said to be a discriminator for discriminating species. On the other hand, an identifier for tracking an object is required to have the ability to both identify a species and identify each individual belonging to the species according to the environment of the object to be tracked.

例えば、追跡対象の人物の周囲に他の人物がいないときには、追跡用の識別器として要求される識別能力は比較的に低くよい。例えば、背景などの非人物のオブジェクトと人物のオブジェクトとが区別できればよい。つまり、種レベルを識別することができればよい。しかし、複数の人物が行き違うタイミングおよび当該タイミングの前後のタイミングにおいて動線を正しく取得するためには、追跡用の識別器に要求される識別能力は比較的に高くなる。具体的には、複数の人物を区別する能力が要求される。   For example, when there is no other person around the person to be tracked, the identification ability required as a classifier for tracking may be relatively low. For example, it is only necessary to distinguish a non-human object such as a background from a human object. That is, it is only necessary to identify the seed level. However, in order to correctly acquire a flow line at a timing when a plurality of persons cross each other and at timings before and after the timing, the discrimination capability required for the tracking discriminator is relatively high. Specifically, the ability to distinguish a plurality of persons is required.

上述したように、画像解析装置110によると、識別器は追跡オブジェクトに柔軟に適応されるので、識別器の識別能力は周囲の環境変動(例えば、背景変動、混雑度の変動など)により自動的に調整されていく。すなわち、画像解析装置110が有する識別器は、ポリモーフィズム特長を有する。したがって、画像解析装置110が有する識別器は、状況に応じて種レベルの識別器にも、個別オブジェクトの識別器にもなり得る。   As described above, according to the image analysis apparatus 110, the discriminator is flexibly adapted to the tracking object, so that the discriminating ability of the discriminator is automatically changed according to surrounding environmental changes (for example, background fluctuations, congestion fluctuations, etc.) It will be adjusted to. That is, the classifier included in the image analysis device 110 has a polymorphic feature. Accordingly, the classifier included in the image analysis apparatus 110 can be a class level classifier or an individual object classifier depending on the situation.

このように、画像解析装置110によると、識別器は環境の変動に応じて調整されるので柔軟性が著しく高い。また、画像解析装置110によると、オブジェクトの追跡に従って識別器が構築されていくので、既に検出されたオブジェクトについて、初期状態の識別器を適用することなく抽出できる。このように、画像解析装置110によると、検出処理と追跡処理とが独立していないので、環境の激しい変動に対応することができる。   As described above, according to the image analysis apparatus 110, the discriminator is adjusted in accordance with the change in the environment, so that the flexibility is extremely high. Further, according to the image analysis apparatus 110, the classifier is constructed according to the tracking of the object, so that the already detected object can be extracted without applying the classifier in the initial state. As described above, according to the image analysis apparatus 110, since the detection process and the tracking process are not independent, it is possible to cope with a severe change in the environment.

なお、記憶媒体90は、画像解析装置110用のプログラムを記憶している。記憶媒体90が記憶しているプログラムは、本実施形態に係る画像解析装置110として機能するコンピュータなどの電子情報処理装置に提供される。当該コンピュータが有するCPUは、当該プログラムの内容に応じて動作して、当該コンピュータの各部を制御する。CPUが実行するプログラムは、本図および以後の図に関連して説明される画像解析装置110などとして当該コンピュータを機能させる。   Note that the storage medium 90 stores a program for the image analysis apparatus 110. The program stored in the storage medium 90 is provided to an electronic information processing apparatus such as a computer that functions as the image analysis apparatus 110 according to the present embodiment. The CPU included in the computer operates according to the contents of the program and controls each unit of the computer. The program executed by the CPU causes the computer to function as the image analysis apparatus 110 described with reference to this figure and subsequent figures.

記憶媒体90としては、CD−ROMの他に、DVDまたはPD等の光学記録媒体、MOまたはMDなどの光磁気記録媒体、テープ媒体またはハードディスク装置などの磁気記録媒体、半導体メモリ、磁気メモリなどを例示することができる。また、専用通信ネットワークあるいはインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置が記憶媒体90として機能することもできる。   Examples of the storage medium 90 include an optical recording medium such as a DVD or PD, a magneto-optical recording medium such as an MO or MD, a magnetic recording medium such as a tape medium or a hard disk device, a semiconductor memory, a magnetic memory, etc. It can be illustrated. Further, a storage device such as a hard disk or a RAM provided in a server system connected to a dedicated communication network or the Internet can function as the storage medium 90.

また、記憶媒体90は、画像処理システム10用のプログラムを記憶してよい。画像処理システム10用のプログラムは、画像解析装置110の他に、本図および以後の図に関連して説明される解析結果データベース112、店舗サーバ170、端末装置180、および撮像装置100の少なくともいずれかとして、コンピュータを機能させることができる。   The storage medium 90 may store a program for the image processing system 10. The program for the image processing system 10 includes at least one of the analysis result database 112, the store server 170, the terminal device 180, and the imaging device 100 described with reference to this figure and the following drawings, in addition to the image analysis device 110. As such, the computer can function.

図2は、画像解析装置110のブロック構成の一例を示す。画像解析装置110は、画像取得部200、特徴量抽出部210、適合度算出部220、オブジェクト抽出部230、基準特徴量算出部240、オブジェクト領域推定部250、向き特定部260、特徴量更新部270、特徴量記憶部280、および出力部290を有する。基準特徴量算出部240は、更新特徴量選択部242、更新特徴量算出部244、および非更新特徴量選択部246を含む。   FIG. 2 shows an example of a block configuration of the image analysis apparatus 110. The image analysis apparatus 110 includes an image acquisition unit 200, a feature amount extraction unit 210, a fitness calculation unit 220, an object extraction unit 230, a reference feature amount calculation unit 240, an object region estimation unit 250, a direction identification unit 260, and a feature amount update unit. 270, a feature amount storage unit 280, and an output unit 290. The reference feature value calculation unit 240 includes an update feature value selection unit 242, an update feature value calculation unit 244, and a non-update feature value selection unit 246.

画像取得部200は、撮像装置100が撮像した動画を、通信ネットワーク150を通じて店舗サーバ170から取得する。画像取得部200が取得した動画は、特徴量抽出部210およびオブジェクト抽出部230に供給される。   The image acquisition unit 200 acquires the moving image captured by the imaging apparatus 100 from the store server 170 through the communication network 150. The moving image acquired by the image acquisition unit 200 is supplied to the feature amount extraction unit 210 and the object extraction unit 230.

特徴量抽出部210は、動画に含まれるフレーム画像から特徴量を抽出する。特徴量としては、輝度分布などの輝度特徴量、種々のウェーブレット特徴量、Haar−like特徴量、Edgelet特徴量、EOH特徴量、HOG特徴量などを例示することができる。   The feature amount extraction unit 210 extracts a feature amount from the frame image included in the moving image. Examples of the feature quantity include a brightness feature quantity such as a brightness distribution, various wavelet feature quantities, Haar-like feature quantities, Edgelet feature quantities, EOH feature quantities, HOG feature quantities, and the like.

適合度算出部220は、基準特徴量に対する、特徴量抽出部210が抽出した特徴量の適合度を出力する。具体的には、特徴量記憶部280が基準特徴量を記憶していて、適合度算出部220は、特徴量記憶部280が記憶している基準特徴量に対する適合度を出力する。   The fitness level calculation unit 220 outputs the fitness level of the feature value extracted by the feature value extraction unit 210 with respect to the reference feature value. Specifically, the feature quantity storage unit 280 stores the reference feature quantity, and the matching degree calculation unit 220 outputs the matching degree with respect to the reference feature quantity stored in the feature quantity storage unit 280.

なお、特徴量抽出部210は、異なる特徴量の種類毎に特徴量を抽出する。また、特徴量記憶部280は、異なる種類のそれぞれについて基準特徴量を記憶している。そして、適合度算出部220は、種類毎に適合度を算出する。   Note that the feature quantity extraction unit 210 extracts a feature quantity for each type of different feature quantities. The feature amount storage unit 280 stores reference feature amounts for different types. The fitness level calculation unit 220 calculates the fitness level for each type.

なお、異なる種類の特徴量としては、上記したようにHaar−like特徴量、Edgelet特徴量など、特徴量の種類そのものが異なる特徴量であってよい。他にも、異なる種類の特徴量としては、異なる算出方法で算出した特徴量を含むことができる。異なる算出方法としては、異なる解像度の画像から抽出することを含む。つまり、特徴量の種類そのものが同じあっても、異なる解像度の画像から抽出された特徴量を、本実施形態においては異なる種類の特徴量とみなすことができる。   The different types of feature quantities may be feature quantities having different types of feature quantities such as Haar-like feature quantities and Edgelet feature quantities as described above. In addition, the different types of feature amounts can include feature amounts calculated by different calculation methods. Different calculation methods include extracting from images of different resolutions. That is, even if the types of feature quantities themselves are the same, feature quantities extracted from images with different resolutions can be regarded as different types of feature quantities in this embodiment.

オブジェクト抽出部230は、適合度算出部220が算出した各種類についての適合度に基づき、対象とした画像が特定のオブジェクトの画像であるか否かを判断する。つまり、オブジェクト抽出部230は、抽出することができる。   The object extraction unit 230 determines whether the target image is an image of a specific object based on the fitness for each type calculated by the fitness calculation unit 220. That is, the object extraction unit 230 can perform extraction.

なお、特徴量抽出部210、適合度算出部220、特徴量記憶部280、およびオブジェクト抽出部230は、識別器の処理として実装され得る。例えば、特徴量の1つの種類に着目すれば、特徴量抽出部210が特徴量を抽出してから適合度算出部220が適合度を出力するまでの処理を、一の弱識別器による処理とみなすことができる。そして、複数の種類についての適合度からオブジェクトの画像であるか否かを判断するオブジェクト抽出部230の処理までを含めると、オブジェクトを抽出するための一の識別器の処理とみなすことができる。   Note that the feature quantity extraction unit 210, the fitness level calculation unit 220, the feature quantity storage unit 280, and the object extraction unit 230 may be implemented as a process of a classifier. For example, focusing on one type of feature quantity, the process from when the feature quantity extraction unit 210 extracts a feature quantity until the fitness level calculation unit 220 outputs the fitness level is referred to as processing by one weak classifier. Can be considered. Including the processing of the object extraction unit 230 that determines whether or not the image is an object image based on the fitness for a plurality of types, it can be regarded as a process of one classifier for extracting an object.

オブジェクト抽出部230は、オブジェクトの画像として判断した場合には、オブジェクトを含む所定の領域の画像であるオブジェクト周辺画像をフレーム画像から切り出して、基準特徴量算出部240に供給される。基準特徴量算出部240は、オブジェクト抽出部230から供給された画像を用いて、次のフレーム画像からオブジェクトを抽出するための基準特徴量を算出する。基準特徴量算出部240が算出した基準特徴量は、特徴量更新部270によって特徴量記憶部280に記憶される。これにより、特徴量記憶部280が記憶している基準特徴量は、基準特徴量算出部240が算出した基準特徴量で更新される。   If the object extraction unit 230 determines that the image is an object image, the object peripheral image, which is an image of a predetermined area including the object, is cut out from the frame image and supplied to the reference feature value calculation unit 240. The reference feature amount calculation unit 240 uses the image supplied from the object extraction unit 230 to calculate a reference feature amount for extracting an object from the next frame image. The reference feature amount calculated by the reference feature amount calculation unit 240 is stored in the feature amount storage unit 280 by the feature amount update unit 270. As a result, the reference feature value stored in the feature value storage unit 280 is updated with the reference feature value calculated by the reference feature value calculation unit 240.

そして、次のフレーム画像から、上述した特徴量抽出部210、適合度算出部220、およびオブジェクト抽出部230における処理により、オブジェクトが抽出される。この動作を繰り返すことによって、複数のフレーム画像のそれぞれから、オブジェクトが抽出される。   Then, an object is extracted from the next frame image by the processes in the feature amount extraction unit 210, the fitness calculation unit 220, and the object extraction unit 230 described above. By repeating this operation, an object is extracted from each of the plurality of frame images.

なお、基準特徴量算出部240は、オブジェクト周辺画像を用いて学習することで、オブジェクト周辺画像に適応した基準特徴量を算出する。このように基準特徴量算出部240は、現フレームのオブジェクトの画像に適応した特徴量を算出することができる。このため、基準特徴量算出部240は、特定のオブジェクトの追跡に適した基準特徴量を算出することができる。   Note that the reference feature amount calculation unit 240 calculates a reference feature amount adapted to the object peripheral image by learning using the object peripheral image. As described above, the reference feature value calculation unit 240 can calculate a feature value adapted to the object image of the current frame. Therefore, the reference feature value calculation unit 240 can calculate a reference feature value suitable for tracking a specific object.

なお、基準特徴量算出部240によってオブジェクト周辺画像に適応した基準特徴量が算出されるが、一の基準特徴量を更新することは、上述した弱識別器の処理が適応化されることを意味する。つまり、基準特徴量算出部240により基準特徴量が算出されて特徴量記憶部280に記憶されるまでの特徴量更新処理は、適応した弱識別器を構築する処理とみなすことができる。基準特徴量算出部240における基準特徴量の算出処理が学習に基づく場合、特徴量更新処理は、上述した識別器のオンライン学習処理とみなすことができる。   Note that the reference feature value adapted to the object peripheral image is calculated by the reference feature value calculation unit 240. Updating one reference feature value means that the processing of the weak classifier described above is adapted. To do. That is, the feature amount update processing from when the reference feature amount is calculated by the reference feature amount calculation unit 240 until it is stored in the feature amount storage unit 280 can be regarded as processing for constructing an adaptive weak classifier. When the reference feature value calculation process in the reference feature value calculation unit 240 is based on learning, the feature value update process can be regarded as the online learning process of the classifier described above.

なお、基準特徴量算出部240は、抽出されたオブジェクトとして撮像された被写体の向きに応じて基準特徴量を更新することができる。例えば、基準特徴量算出部240は、特徴量記憶部280が被写体の向き毎に、オブジェクトを抽出するための基準特徴量を記憶してよい。この場合に、基準特徴量算出部240は、抽出されたオブジェクトとして撮像された被写体の向きに対応する基準特徴量を選択して更新することができる。   Note that the reference feature value calculation unit 240 can update the reference feature value according to the orientation of the subject imaged as the extracted object. For example, the reference feature amount calculation unit 240 may store a reference feature amount for the feature amount storage unit 280 to extract an object for each direction of the subject. In this case, the reference feature amount calculation unit 240 can select and update the reference feature amount corresponding to the orientation of the subject imaged as the extracted object.

なお、向き特定部260は、オブジェクトとして撮像された被写体の向きを特定する。特徴量記憶部280が向き毎に基準特徴量を記憶している場合、向き特定部260は、最も適合する基準特徴量に対応づけて特徴量記憶部280が記憶している向きを、被写体の向きとすることができる。基準特徴量算出部240は、向き特定部260が特定した向きに基づき、上述の基準特徴量の更新処理をすることができる。   Note that the orientation specifying unit 260 specifies the orientation of a subject imaged as an object. When the feature amount storage unit 280 stores the reference feature amount for each orientation, the orientation specifying unit 260 determines the orientation stored in the feature amount storage unit 280 in association with the most suitable reference feature amount, for the subject. Can be oriented. The reference feature value calculation unit 240 can perform the above-described reference feature value update process based on the direction specified by the direction specification unit 260.

また、基準特徴量算出部240は、適合度算出部220が算出した適合度に基づき、基準特徴量を算出してよい。例えば、次フレーム画像からオブジェクトを抽出するための基準特徴量として、適合度が低い基準特徴量を除外して、適合度がより高い基準特徴量を組み入れることができる。言い換えると、弱識別器の組み合わせを替えることができる。このため、特定の被写体のオブジェクトを追跡する追跡処理の精度を向上することができる。   In addition, the reference feature value calculation unit 240 may calculate the reference feature value based on the fitness level calculated by the fitness level calculation unit 220. For example, as a reference feature value for extracting an object from the next frame image, a reference feature value having a higher fitness can be incorporated by excluding a reference feature value having a lower fitness. In other words, the combination of weak classifiers can be changed. For this reason, it is possible to improve the accuracy of tracking processing for tracking an object of a specific subject.

また、基準特徴量算出部240は、各フレームにおけるオブジェクトの位置に基づき基準特徴量を算出することができる。例えば、基準特徴量算出部240は、現フレームにおけるオブジェクトの画像を正解画像として用いて学習したり、現フレームにおけるオブジェクトの領域以外の領域の画像を不正解画像として用いて学習したりすることで、基準特徴量を算出することができる。   Further, the reference feature value calculation unit 240 can calculate the reference feature value based on the position of the object in each frame. For example, the reference feature amount calculation unit 240 learns by using an object image in the current frame as a correct image, or learns by using an image in an area other than the object area in the current frame as an incorrect image. The reference feature amount can be calculated.

なお、オブジェクト領域推定部250は、次のフレーム画像上におけるオブジェクトの位置を推定する。具体的には、動画におけるオブジェクトの動き速度と、現フレーム画像におけるオブジェクトの位置とに基づき、次のフレーム画像上におけるオブジェクトの位置を推定することができる。オブジェクト領域推定部250は、現フレーム画像から、当該推定した位置を含む領域の画像を切り出して、基準特徴量算出部240に供給してよい。   The object area estimation unit 250 estimates the position of the object on the next frame image. Specifically, the position of the object on the next frame image can be estimated based on the moving speed of the object in the moving image and the position of the object in the current frame image. The object region estimation unit 250 may cut out an image of a region including the estimated position from the current frame image and supply the image to the reference feature value calculation unit 240.

この場合に、基準特徴量算出部240は、オブジェクト領域推定部250から供給された画像を不正解画像として学習することにより、基準特徴量を算出することができる。これにより、特徴量記憶部280が記憶している基準特徴量セットは、次のフレーム画像におけるオブジェクトの周辺の画像が検出されにくいものに強化されているので、次フレーム画像からのオブジェクトの検出確率を高めることができる。   In this case, the reference feature value calculation unit 240 can calculate the reference feature value by learning the image supplied from the object region estimation unit 250 as an incorrect image. As a result, the reference feature value set stored in the feature value storage unit 280 is strengthened so that the image around the object in the next frame image is difficult to detect, so the detection probability of the object from the next frame image Can be increased.

ここで、基準特徴量算出部240における各部の動作について概略説明すると、更新特徴量選択部242は、更新すべき種類を特定する。例えば、更新特徴量選択部242による処理としては、上述したような適合度の低い種類の基準特徴量を除外して、新たな基準特徴量を導入したりすることができる。そして、更新特徴量算出部244は、更新特徴量選択部242が選択した種類の特徴量を、学習等によって適応化する。また、非更新特徴量選択部246は、適応化せずに次フレーム画像においてもオブジェクト抽出に使用する種類の特徴量を選択してよい。なお、基準特徴量算出部240における各部の動作については後に詳述する。   Here, the operation of each unit in the reference feature quantity calculation unit 240 will be briefly described. The update feature quantity selection unit 242 specifies the type to be updated. For example, as the processing by the update feature quantity selection unit 242, a new reference feature quantity can be introduced by excluding the kind of reference feature quantity having a low fitness as described above. Then, the update feature quantity calculation unit 244 adapts the type of feature quantity selected by the update feature quantity selection unit 242 by learning or the like. Further, the non-update feature quantity selection unit 246 may select a feature quantity of a type used for object extraction even in the next frame image without adaptation. The operation of each unit in the reference feature quantity calculation unit 240 will be described in detail later.

また、出力部290は、オブジェクト抽出部230が抽出したオブジェクトの情報を、外部に出力する。例えば、出力部290は、抽出されたオブジェクトの位置、抽出されたオブジェクトの画像そのものを、解析結果データベース112、端末装置180などに出力してよい。以上説明したように、画像解析装置110によると、オブジェクトの検出処理とオブジェクトの追跡処理とを一体的に行うことができ、オブジェクトを追跡するための演算量を低減することができる。   Further, the output unit 290 outputs information on the object extracted by the object extraction unit 230 to the outside. For example, the output unit 290 may output the position of the extracted object and the image of the extracted object itself to the analysis result database 112, the terminal device 180, and the like. As described above, according to the image analysis device 110, the object detection process and the object tracking process can be performed integrally, and the amount of calculation for tracking the object can be reduced.

図3は、画像解析装置110における処理内容の一例を模式的に示す。以下に、画像解析装置110の機能および動作を、識別器あるいは弱識別器による処理を例に挙げて説明する。   FIG. 3 schematically shows an example of processing contents in the image analysis apparatus 110. Hereinafter, functions and operations of the image analysis apparatus 110 will be described by taking processing by a classifier or weak classifier as an example.

識別器セット404は、画像解析装置110がオブジェクト抽出処理に用いることができる複数の識別器402a〜cを有している。識別器402a〜cは、それぞれ被写体の異なる向きに対応している。具体的には、識別器402aは、人物の正面顔を検出するのに適した複数の弱識別器400a〜cにより形成される。   The classifier set 404 includes a plurality of classifiers 402a to 402c that can be used by the image analysis apparatus 110 for object extraction processing. Each of the discriminators 402a to 402c corresponds to a different direction of the subject. Specifically, the classifier 402a is formed by a plurality of weak classifiers 400a to 400c suitable for detecting the front face of a person.

ここで弱識別器400aは、低解像度画像に対する1以上の弱識別器400により形成される。例えば、弱識別器400aは、8×8画素の解像度の画像に対する1以上の弱識別器400により形成される。以後の図において、1つの弱識別器400は1つの横長の矩形で示される。弱識別器400bは、中解像度画像に対する1以上の弱識別器400により形成され、弱識別器400cは、高解像度画像に対する1以上の弱識別器400により形成される。例えば、弱識別器400bは、16×16画素の解像度の画像に対する1以上の弱識別器400により形成され、弱識別器400cは、32×32画素の解像度の画像に対する1以上の弱識別器400により形成される。弱識別器400aのように解像度が比較的に低い弱識別器は種を検出する識別器部分として機能するとともに、弱識別器400c(または弱識別器400b)のように解像度が比較的に高い弱識別器は個別オブジェクトを識別する識別器部分として機能することができる。後述するように、解像度が比較的に高い弱識別器400は、オンライン学習により個別オブジェクトに適応される。このように解像度に応じた階層的な弱識別器構成とすることで、個別オブジェクトを高速に検出・追跡することができる。   Here, the weak classifier 400a is formed by one or more weak classifiers 400 for low-resolution images. For example, the weak classifier 400a is formed by one or more weak classifiers 400 for an image having a resolution of 8 × 8 pixels. In the following drawings, one weak classifier 400 is indicated by one horizontally long rectangle. The weak classifier 400b is formed by one or more weak classifiers 400 for the medium resolution image, and the weak classifier 400c is formed by one or more weak classifiers 400 for the high resolution image. For example, the weak classifier 400b is formed by one or more weak classifiers 400 for an image having a resolution of 16 × 16 pixels, and the weak classifier 400c is one or more weak classifiers 400 for an image having a resolution of 32 × 32 pixels. It is formed by. A weak classifier having a relatively low resolution such as the weak classifier 400a functions as a classifier part for detecting a species, and a weak class having a relatively high resolution such as the weak classifier 400c (or the weak classifier 400b). The classifier can function as a classifier part that identifies individual objects. As will be described later, the weak classifier 400 having a relatively high resolution is adapted to an individual object by online learning. In this way, by using a hierarchical weak classifier configuration corresponding to the resolution, individual objects can be detected and tracked at high speed.

また、識別器402bは、人物の右横顔を右横顔を検出するのに適した複数の弱識別器400により形成され、識別器402cは、人物の左横顔を右横顔を検出するのに適した複数の弱識別器400により形成される。この点を除いて、識別器402bおよび識別器402cは識別器402aと略同一の構成を有するので、説明を省略する。   The classifier 402b is formed by a plurality of weak classifiers 400 suitable for detecting a right profile of a person, and the classifier 402c is suitable for detecting a profile of a person's left profile. A plurality of weak classifiers 400 are formed. Except for this point, the discriminator 402b and the discriminator 402c have substantially the same configuration as the discriminator 402a, and thus description thereof is omitted.

以下に、本図を用いて、画像解析装置110が、識別器セット404から、オブジェクト抽出に用いる識別器セット464を生成する処理を説明する。ここでは、説明の都合上、オブジェクト抽出部230は、処理480において、前のフレーム画像から特定のオブジェクトを既に抽出しているものとする。オブジェクト抽出部230は、オブジェクトの領域を示す情報を基準特徴量算出部240に供給する。   Hereinafter, a process in which the image analysis apparatus 110 generates the classifier set 464 used for object extraction from the classifier set 404 will be described with reference to FIG. Here, for convenience of explanation, it is assumed that the object extraction unit 230 has already extracted a specific object from the previous frame image in the process 480. The object extraction unit 230 supplies information indicating the object region to the reference feature amount calculation unit 240.

なお、オブジェクトが抽出された段階においては、適合度算出部220は識別器セット464に含まれる識別器を用いて適合度を算出している。適合度算出部220が算出した適合度は、基準特徴量算出部240に供給される。また、オブジェクトが抽出された段階においては、向き特定部260は、オブジェクトが示す被写体の向きを特定しており、特定した向きも基準特徴量算出部240に供給される。また、オブジェクトが抽出された段階においては、オブジェクト領域推定部250は、次フレーム画像におけるオブジェクトが存在する領域を推定しており、推定した領域を示す情報は基準特徴量算出部240に供給されている。   At the stage where the object is extracted, the fitness level calculation unit 220 calculates the fitness level using the classifiers included in the classifier set 464. The fitness calculated by the fitness calculation unit 220 is supplied to the reference feature value calculation unit 240. At the stage where the object is extracted, the orientation specifying unit 260 specifies the orientation of the subject indicated by the object, and the specified orientation is also supplied to the reference feature value calculating unit 240. At the stage where the object is extracted, the object region estimation unit 250 estimates the region where the object exists in the next frame image, and information indicating the estimated region is supplied to the reference feature value calculation unit 240. Yes.

更新特徴量算出部244は、オブジェクトの領域を示す情報に基づき、オブジェクトの周辺の画像であるオブジェクト周辺画像412を生成する(処理410)。ここでいうオブジェクト周辺画像とは、オブジェクトの領域と、オブジェクトの周囲の領域とを含む。そして、更新特徴量算出部244は、オブジェクト周辺画像412を用いて、所定の画素数の教師画像422を複数生成する(処理420)。   The update feature amount calculation unit 244 generates an object peripheral image 412 that is an image around the object based on the information indicating the object region (processing 410). The object peripheral image here includes an object region and a region around the object. Then, the update feature quantity calculation unit 244 generates a plurality of teacher images 422 having a predetermined number of pixels using the object peripheral image 412 (processing 420).

教師画像422は、正解画像および不正解画像を含む。更新特徴量算出部244は、オブジェクト周辺画像412中のオブジェクトの領域の画像から、複数の正解画像を生成する。また、更新特徴量算出部244は、オブジェクト周辺画像412中のオブジェクト以外の領域を含む領域の画像から、複数の不正解画像を生成する。   The teacher image 422 includes a correct image and an incorrect image. The update feature amount calculation unit 244 generates a plurality of correct images from the image of the object area in the object peripheral image 412. In addition, the update feature amount calculation unit 244 generates a plurality of incorrect images from an image of a region including a region other than the object in the object peripheral image 412.

処理430において、非更新特徴量選択部246により、識別器402が有する弱識別器の中から、次のフレーム画像においてオブジェクトを抽出するためにオブジェクト抽出部230が使用する識別器が選択される。処理430において選択された識別器は、オブジェクト周辺画像に適応されずに、オブジェクト抽出に用いられる。   In process 430, the non-updated feature quantity selection unit 246 selects a classifier used by the object extraction unit 230 to extract an object in the next frame image from the weak classifiers included in the classifier 402. The discriminator selected in the process 430 is used for object extraction without being applied to the object peripheral image.

なお、以後の説明では、向き特定部260により人物の正面顔のオブジェクトが抽出されたとする。この場合、処理430で選択される弱識別器400、および、処理450で適応される弱識別器400は、いずれも識別器402aを形成する弱識別器400から選択される。もちろん、右横顔のオブジェクトが抽出された場合には識別器402bから選択され、左横顔のオブジェクトが抽出された場合には識別器402cから選択されることは言うまでもない。   In the following description, it is assumed that the object of the front face of the person is extracted by the orientation specifying unit 260. In this case, the weak classifier 400 selected in the process 430 and the weak classifier 400 adapted in the process 450 are both selected from the weak classifiers 400 forming the classifier 402a. Of course, when the right side profile object is extracted, it is selected from the classifier 402b, and when the left side profile object is extracted, it is needless to say that the classifier 402c is selected.

このとき、オブジェクトへの適合度が高い弱識別器400が選択されてよい。また、低解像度画像用の弱識別器400aの中から所定数の弱識別器400が選択されてよい。また、低解像度画像用の弱識別器400aに加えて、中解像度画像用の弱識別器400aの中から、所定数の弱識別器400が選択されてよい。   At this time, the weak classifier 400 having a high degree of fitness for the object may be selected. A predetermined number of weak classifiers 400 may be selected from the weak classifiers 400a for low-resolution images. In addition to the weak classifiers 400a for low resolution images, a predetermined number of weak classifiers 400 may be selected from the weak classifiers 400a for medium resolution images.

このように、種検出用の弱識別器として機能することができる弱識別器を全てを複製(例えば、弱識別器400aの全てを複製)または部分的に複製(例えば、弱識別器400bの一部を複製)することにより、個別オブジェクトの検出用の弱識別器が形成される。いわば種検出用の弱識別器の完全継承および部分継承により、検出・追跡用の弱識別器の一部が形成される。これにより、完全継承および部分継承される弱識別器で検出されるオブジェクトは、当該弱識別器で検出される種に属していると判定されたことになる。これらの継承される弱識別器は、オフライン学習で事前に構築されていてよい。   In this way, all weak classifiers that can function as weak classifiers for species detection are replicated (for example, all weak classifiers 400a are replicated) or partially replicated (for example, one of the weak classifiers 400b). A weak classifier for detecting an individual object is formed. In other words, a part of the weak classifier for detection and tracking is formed by complete inheritance and partial inheritance of the weak classifier for species detection. Thereby, it is determined that the object detected by the weak classifier that is completely inherited and partially inherited belongs to the species detected by the weak classifier. These inherited weak classifiers may be constructed in advance by offline learning.

一方、個別オブジェクトを識別すべく、各個体の特徴(例えば、目、口などの特徴)を検出する能力を持つ弱識別器が、弱識別器400bの一部および弱識別器400cにより生成される。具体的には、弱識別器400bの一部および弱識別器400cを、個体の特徴を反映すべくオンライン学習(例えば、AdaBoostの手法)により進化させる。進化させられた弱識別器400cには、追跡している複数の個別オブジェクト(例えば、同じ種に属する個別オブジェクト)のそれぞれを識別する能力が、オンライン学習で組み込まれる。   On the other hand, in order to identify individual objects, a weak classifier having the ability to detect the characteristics of each individual (for example, characteristics of eyes, mouth, etc.) is generated by a part of the weak classifier 400b and the weak classifier 400c. . Specifically, a part of the weak classifier 400b and the weak classifier 400c are evolved by online learning (for example, the AdaBoost method) to reflect the individual characteristics. The advanced weak classifier 400c incorporates the ability to identify each of a plurality of individual objects being tracked (for example, individual objects belonging to the same species) through online learning.

このように、解像度に対応する階層的構造に応じて、弱識別器の継承および進化がなされる。また、識別器の進化の処理は、弱識別器の選択、除外、更新の処理を含む。特に更新処理においては、オンライン機械学習手法で個別オブジェクトの新しい特徴が識別器に組み込まれる。したがって、種の検出用の弱識別器と個別オブジェクト検出用の弱識別器とが連携されるので、個別オブジェクトを高速かつ高精度に検出・追跡することができる。   In this way, the weak classifier is inherited and evolved according to the hierarchical structure corresponding to the resolution. The process of classifier evolution includes the process of selecting, excluding, and updating weak classifiers. In particular, in the update process, new features of individual objects are incorporated into the classifier by online machine learning techniques. Accordingly, since the weak classifier for detecting the species and the weak classifier for detecting the individual object are linked, the individual object can be detected and tracked at high speed and with high accuracy.

この進化の処理を画像解析装置110の機能ブロックを用いて説明すると、更新特徴量選択部242の処理により、オブジェクト周辺画像に適応させる弱識別器400を選択する。具体的には、処理440において、識別器セット404に含まれる弱識別器400のそれぞれによりオブジェクト周辺画像に対する判定処理がなされ、識別結果442が算出される。そして、処理450において、識別結果442に基づき、識別器セット464を生成する。   This evolution process will be described using the functional blocks of the image analysis apparatus 110. The weak classifier 400 to be adapted to the object peripheral image is selected by the process of the update feature amount selection unit 242. Specifically, in process 440, each weak classifier 400 included in the classifier set 404 performs determination processing on the object peripheral image, and the identification result 442 is calculated. In a process 450, a classifier set 464 is generated based on the identification result 442.

例えば、更新特徴量選択部242による処理により、適応させるべき弱識別器400が選択される。選択された識別器は、オブジェクト周辺画像に適応されてオブジェクト抽出に用いられる。このとき、オブジェクトへの適合度がより低い弱識別器400が、適応させるべき弱識別器としてより優先的に選択されてよい。また、中解像度画像用の弱識別器400bから、所定数の弱識別器400が選択されてよい。また、弱識別器400bからの弱識別器400に加えて、高解像度画像用の弱識別器400cの中から、所定数の弱識別器400が選択されてよい。   For example, the weak classifier 400 to be adapted is selected by the processing by the update feature value selection unit 242. The selected classifier is applied to the object peripheral image and used for object extraction. At this time, the weak classifier 400 having a lower fitness to the object may be preferentially selected as the weak classifier to be adapted. A predetermined number of weak classifiers 400 may be selected from the weak classifiers 400b for medium resolution images. In addition to the weak classifiers 400 from the weak classifiers 400b, a predetermined number of weak classifiers 400 may be selected from the weak classifiers 400c for high resolution images.

ここで、更新特徴量選択部242により選択された弱識別器400は、更新特徴量算出部244による処理により、オブジェクト周辺画像412に適応される。ここでは、教師画像422を用いたオンラインブースティングの手法により、弱識別器400を適応させてよい。そして、特徴量更新部270による処理により、適応された弱識別器460を生成する。   Here, the weak classifier 400 selected by the update feature quantity selection unit 242 is applied to the object peripheral image 412 by the processing by the update feature quantity calculation unit 244. Here, the weak classifier 400 may be adapted by an online boosting method using the teacher image 422. Then, an adapted weak classifier 460 is generated by the processing by the feature amount updating unit 270.

処理450で適応された弱識別器460と、処理430で選択された弱識別器400により、識別器セット464が構築される。なお、処理430で選択された弱識別器400は適応されていないが、次のフレーム画像からのオブジェクト抽出に用いられる弱識別器であるので、便宜上、符号を変えて弱識別器460として示している。   A classifier set 464 is constructed by the weak classifier 460 adapted in the process 450 and the weak classifier 400 selected in the process 430. Although the weak classifier 400 selected in the process 430 is not adapted, it is a weak classifier used for extracting an object from the next frame image. Yes.

上述したように、弱識別器460aは、いずれも弱識別器400aと同じ識別処理をする弱識別器となる。そして、弱識別器460aのうちの所定数の弱識別器460が、次のフレーム画像からのオブジェクト抽出処理に用いられる。   As described above, each of the weak classifiers 460a is a weak classifier that performs the same classification process as the weak classifier 400a. A predetermined number of weak classifiers 460 among the weak classifiers 460a are used for object extraction processing from the next frame image.

また、弱識別器460bのうちの一部の弱識別器460は、いずれも弱識別器400bのうちの対応する弱識別器400と同じ識別処理をする弱識別器であってよい。このうちの一部の弱識別器460が、次のフレーム画像からのオブジェクト抽出処理に用いられる。そして、それ以外の弱識別器460は、弱識別器400bのうちの対応する弱識別器400が処理450において適応された弱識別器であってよい。適応された弱識別器は、次のフレーム画像からのオブジェクト抽出処理に用いられる。   Also, some of the weak classifiers 460 of the weak classifiers 460b may be weak classifiers that perform the same classification process as the corresponding weak classifiers 400 of the weak classifiers 400b. Some of these weak classifiers 460 are used for object extraction processing from the next frame image. The other weak classifiers 460 may be weak classifiers to which the corresponding weak classifiers 400 of the weak classifiers 400 b are adapted in the process 450. The adapted weak classifier is used for object extraction processing from the next frame image.

また、弱識別器460cのうち更新する弱識別器として選択された弱識別器460は、弱識別器400cのうちの対応する弱識別器400が処理450において適応された弱識別器であって、これらの弱識別器がオブジェクト抽出処理に用いられる。   The weak classifier 460 selected as the weak classifier to be updated among the weak classifiers 460c is a weak classifier to which the corresponding weak classifier 400 of the weak classifiers 400c is adapted in the process 450, These weak classifiers are used for object extraction processing.

処理480において、オブジェクト抽出部230は、識別器セット464のうち、オブジェクト抽出処理に用いられるべき弱識別器460を用いて、次のフレーム画像からオブジェクトを抽出する。なお、処理470は、オブジェクト領域推定部250が次のフレーム画像上においてオブジェクトが存在する領域を推定する処理を示している。処理480においては、オブジェクト抽出部230は、処理470において推定された領域の画像である推定領域画像472に対して、識別器セット464に含まれる弱識別器を用いて、オブジェクトの探索・認識処理をする。   In the process 480, the object extraction unit 230 extracts an object from the next frame image using the weak classifier 460 to be used for the object extraction process in the classifier set 464. Processing 470 indicates processing in which the object region estimation unit 250 estimates a region where an object exists on the next frame image. In the process 480, the object extraction unit 230 uses the weak classifier included in the classifier set 464 for the estimated area image 472 that is the image of the area estimated in the process 470 to perform object search / recognition processing. do.

以上説明したように、画像解析装置110によると、個別オブジェクトを検出・追跡する識別器を構築する場合に、親の弱識別器から一部を継承する。そして、オンライン学習手法により、他の一部の弱識別器に、個別オブジェクトの特徴を検出する能力が組み込まれる。このように継承と進化の処理をすることにより、種の検出能力を維持しつつ、初期状態の弱識別器からオンライン学習する場合に比べて高い識別能力を持たせることができる。   As described above, according to the image analysis apparatus 110, when constructing a classifier that detects and tracks an individual object, a part is inherited from the parent weak classifier. And the ability to detect the feature of an individual object is built into some other weak classifiers by an online learning method. By performing the inheritance and evolution processing in this way, it is possible to provide a higher discrimination ability than when performing online learning from the weak classifier in the initial state while maintaining the species detection ability.

上述したように、画像解析装置110が有する識別器は、粗い画像からの特徴量に対応する弱識別器および細かい画像からの特徴量に対応する弱識別器が階層的に形成される。また、粗い画像からの特徴量に対応する、種の属性を十分に表すことができる弱識別器を含む形で識別器が形成される。このため、画像解析装置110が有する識別器は、種を検出する識別器として機能することができる。さらに、画像解析装置110によると、追跡の対象となる個別オブジェクトを識別する弱識別器をオンライン学習により進化させることで、識別器に個別オブジェクトの独自の特徴を検出する能力を持たせることができる。これにより、映像シーンにおいて複数のオブジェクトを追跡すべく、個別オブジェクトを検出・識別することができる識別器を構築することができる。   As described above, the classifier included in the image analysis apparatus 110 includes a weak classifier corresponding to a feature amount from a coarse image and a weak classifier corresponding to a feature amount from a fine image formed in a hierarchy. Further, the discriminator is formed in a form including a weak discriminator that can sufficiently represent the attributes of the species corresponding to the feature amount from the rough image. Therefore, the classifier included in the image analysis apparatus 110 can function as a classifier that detects the seed. Furthermore, according to the image analysis apparatus 110, the weak classifier that identifies the individual object to be tracked is evolved by online learning, so that the classifier can have the ability to detect the unique feature of the individual object. . Accordingly, it is possible to construct a discriminator that can detect and identify individual objects in order to track a plurality of objects in a video scene.

画像解析装置110によると、既に検出されたオブジェクトについては初期状態の弱識別器を用いずに、継承・進化された弱識別器を用いて検出・追跡処理を行う。このため、追跡処理と検出処理とを分離せずに追跡処理と検出処理との間の密接な依存関係を利用することができ、効率的に検出・追跡をすることができる。このため、画像解析装置110によると、識別器の環境への適応能力を高めることができる。   According to the image analysis apparatus 110, detection / tracking processing is performed on an already detected object using the inherited and evolved weak classifier without using the weak classifier in the initial state. Therefore, the close dependency between the tracking process and the detection process can be used without separating the tracking process and the detection process, and the detection and tracking can be performed efficiently. For this reason, according to the image analysis apparatus 110, the adaptability of the classifier to the environment can be enhanced.

図4は、処理450に関連する処理内容の一例を模式的に示す。識別器502aは、特定のオブジェクトの検出処理に用いられる識別器であるとする。本図を参照して、次のフレーム画像に対するオブジェクト抽出処理に用いられる新たな識別器を構築する場合の処理を説明する。ここでは特に、オブジェクト周辺画像に適応させる弱識別器を構築する処理を中心に説明する。なお、正面顔に対する識別器462aに対する処理が以下に説明されるが、識別器462b、識別器462cに対する処理も同様であることは言うまでもない。   FIG. 4 schematically shows an example of processing contents related to the processing 450. Assume that the classifier 502a is a classifier used for detection processing of a specific object. With reference to this figure, the process in the case of constructing a new discriminator used for the object extraction process for the next frame image will be described. Here, in particular, a description will be given centering on processing for constructing a weak classifier adapted to an object peripheral image. In addition, although the process with respect to the discrimination device 462a with respect to a front face is demonstrated below, it cannot be overemphasized that the process with respect to the discrimination device 462b and the discrimination device 462c is also the same.

識別器502aは、識別器462aのうち、オブジェクト抽出に実際に用いられる識別器を示す。識別器502aは、弱識別器500aおよび弱識別器500bに分けられる。弱識別器500aは、弱識別器460aのうちのオブジェクト抽出に用いられる弱識別器460と、弱識別器460bのうちオブジェクト抽出に用いられ、オブジェクト周辺画像に適応され得ない弱識別器460とを示している。弱識別器500bは、オブジェクト周辺画像に適応され得る弱識別器を示している。   The classifier 502a indicates a classifier actually used for object extraction among the classifiers 462a. The classifier 502a is divided into a weak classifier 500a and a weak classifier 500b. The weak classifier 500a includes a weak classifier 460 used for object extraction in the weak classifier 460a and a weak classifier 460 used for object extraction in the weak classifier 460b and cannot be applied to the object peripheral image. Show. The weak classifier 500b is a weak classifier that can be applied to an object peripheral image.

弱識別器500aは、高解像度用の弱識別器460aの一部と、中解像度用の弱識別器460bの一部とを含む。特定のオブジェクトが抽出された場合、オブジェクト抽出部230は、弱識別器500aを用いて、後続の1以上のフレーム画像から特定のオブジェクトを抽出する。なお、撮像された人物の顔の向きが大きく変わった場合には、識別器462bなど、顔の向きに対応する他の識別器462が用いられる。この場合においても、特定の顔向きのオブジェクトが抽出された後は、後続の1以上のフレーム画像から特定の顔向き用に構築された識別器が用いられてよい。   The weak classifier 500a includes a part of the high resolution weak classifier 460a and a part of the medium resolution weak classifier 460b. When a specific object is extracted, the object extraction unit 230 uses the weak classifier 500a to extract the specific object from one or more subsequent frame images. In addition, when the orientation of the face of the imaged person changes significantly, another discriminator 462 corresponding to the face orientation, such as the discriminator 462b, is used. Also in this case, after an object having a specific face orientation is extracted, a discriminator constructed for the specific face orientation from one or more subsequent frame images may be used.

このように、人物検出用の弱識別器400aから選択された、特定のオブジェクトを抽出するのに適した組み合わせの低解像度用および一部の中解像度用の弱識別器500aが、後続の1以上のフレーム画像からのオブジェクト抽出処理に用いられる。このため、他のオブジェクトを誤検出する確率を低減しつつ、演算量を低減することができる。   In this manner, a combination of low resolution and some medium resolution weak classifiers 500a selected from the weak classifiers 400a for human detection, which are suitable for extracting a specific object, include one or more subsequent classifiers. It is used for object extraction processing from the frame image. For this reason, it is possible to reduce the amount of calculation while reducing the probability of erroneous detection of other objects.

続いて、弱識別器500bに対する処理を説明する。弱識別器500bは、P個の弱識別器500により形成される。このP個の弱識別器500により、個別オブジェクトを識別する能力が識別器に与えられる。処理510において、更新特徴量選択部242による処理により、除外するN個の弱識別器が選択される。具体的には、オブジェクトの画像に対する適合度が小さいものから順に、N個の弱識別器が除外する弱識別器として選択されてよい。弱識別器500bに示されるように、弱識別器500bは、(P−N)個の弱識別器520Aと、N個の弱識別器520Bとに分けられる。処理530における除外処理で弱識別器520Bが除外することにより、(P−N)個の弱識別器520Aが残る。   Next, processing for the weak classifier 500b will be described. The weak classifier 500b is formed by P weak classifiers 500. The P weak classifiers 500 give the classifiers the ability to identify individual objects. In process 510, N weak discriminators to be excluded are selected by the process by the update feature value selection unit 242. Specifically, the N weak classifiers may be selected as the weak classifiers that are excluded in order from the one having the lowest degree of matching with the image of the object. As shown in the weak classifier 500b, the weak classifier 500b is divided into (PN) weak classifiers 520A and N weak classifiers 520B. When the weak classifier 520B is excluded in the exclusion process in the process 530, (PN) weak classifiers 520A remain.

このように、P個の特徴量に対応する弱識別器について、個別オブジェクトで識別性能が評価される。評価結果に基づきP個の弱識別器の識別性能がランク付けされ、その中から識別性能がより低いN個の弱識別器が除外される。   As described above, the classification performance of the weak classifiers corresponding to the P feature amounts is evaluated by the individual objects. Based on the evaluation results, the discrimination performance of the P weak discriminators is ranked, and N weak discriminators having lower discrimination performance are excluded.

次に、次のフレーム画像からのオブジェクト抽出処理に用いられる弱識別器562を識別器402aから生成する処理を説明する。処理550において、更新特徴量算出部244による処理により、追加するM個の弱識別器の候補を、識別器402aに含まれる弱識別器400の中から選択する。この場合、オブジェクトの画像への適合度が高い順にM個の弱識別器400が選択されてよい。選択された弱識別器は、弱識別器552として示されている。   Next, a process for generating the weak classifier 562 used for the object extraction process from the next frame image from the classifier 402a will be described. In process 550, the candidate of M weak classifiers to be added is selected from the weak classifiers 400 included in the classifier 402a by the process by the update feature quantity calculation unit 244. In this case, M weak classifiers 400 may be selected in descending order of the degree of fitness of the object to the image. The selected weak classifier is shown as weak classifier 552.

このように、現フレーム画像における個別オブジェクトを評価データとして用いて、M個の特徴量に対応する弱識別器を、識別器402aに含まれる弱識別器400の中から選択する。なお、継承される弱識別器400aまたは弱識別器400bの中から、識別性能の評価値が高いM個の特徴量を選択して、選択したM個の特徴量に対応するM個の弱識別器を弱識別器400cの中から選択してもよい。ここで、他の種のオブジェクトを検出すべく用いられる弱識別器を含めて評価して、他の種のオブジェクトを検出すべく用いられる弱識別器を少なくとも含むM個の弱識別器を選択してもよい。   In this way, using the individual object in the current frame image as the evaluation data, the weak classifiers corresponding to the M feature quantities are selected from the weak classifiers 400 included in the classifier 402a. It should be noted that M feature values having a high evaluation value of discrimination performance are selected from the inherited weak classifier 400a or weak classifier 400b, and M weak classifications corresponding to the selected M feature quantities are selected. The classifier may be selected from the weak classifier 400c. Here, evaluation is performed including weak classifiers used to detect other kinds of objects, and M weak classifiers including at least weak classifiers used to detect other kinds of objects are selected. May be.

処理560においては、選択された弱識別器552と、教師画像422とを用いて、オンラインブースティングの手法により、次のフレーム画像からのオブジェクト抽出処理に用いられる弱識別器としてN個の弱識別器562が決定される。   In process 560, N weak classifiers are used as weak classifiers used for object extraction processing from the next frame image by the online boosting technique using the selected weak classifier 552 and the teacher image 422. A device 562 is determined.

具体的には、特定の弱識別器552において、教師画像422のそれぞれから特徴量がそれぞれ抽出される。抽出された特徴量と基準特徴量とを比較することにより、教師画像422が正解画像であるか否かを特定の弱識別器552で判定した判定値が、教師画像422のそれぞれについて定まる。また、教師画像422が正解画像であるか否かを示す教師信号と当該判定値との間の誤差値が、教師画像422のそれぞれについて定まる。そして、基準特徴量算出部240は、教師画像422についてそれぞれ定まる誤差値を重み付け加重した値を最小化する基準特徴量を算出する。算出された基準特徴量を、特定の弱識別器552で判定に用いる基準特徴量とすることで、特定の弱識別器552を教師画像に適応させることができる。   Specifically, in a specific weak classifier 552, feature amounts are extracted from each of the teacher images 422. By comparing the extracted feature value and the reference feature value, a determination value for determining whether or not the teacher image 422 is a correct image by the specific weak classifier 552 is determined for each teacher image 422. Further, an error value between the teacher signal indicating whether or not the teacher image 422 is a correct image and the determination value is determined for each teacher image 422. Then, the reference feature amount calculation unit 240 calculates a reference feature amount that minimizes a value obtained by weighting the error value determined for each of the teacher images 422. By using the calculated reference feature amount as a reference feature amount used for determination by the specific weak classifier 552, the specific weak classifier 552 can be adapted to the teacher image.

同様にして、複数の弱識別器552のそれぞれについて上記重み付き誤差値を最小化する基準特徴量を算出することで、複数の弱識別器552をそれぞれ教師画像422に適応させることができる。更新特徴量選択部242は、重み付き誤差がより小さいN個の弱識別器552を、次のフレーム画像からのオブジェクト抽出処理に用いられる弱識別器562として、より優先して選択する。このように、抽出対象のオブジェクトの周辺画像を教師画像としてオンライン学習することにより、M個の弱識別器552の中からN個の有効な弱識別器562が選択される。   Similarly, by calculating a reference feature amount that minimizes the weighted error value for each of a plurality of weak classifiers 552, each of the plurality of weak classifiers 552 can be adapted to the teacher image 422. The update feature quantity selection unit 242 selects the N weak classifiers 552 with smaller weighted errors as the weak classifiers 562 used for the object extraction process from the next frame image with higher priority. As described above, N effective weak classifiers 562 are selected from the M weak classifiers 552 by performing online learning using the peripheral image of the object to be extracted as a teacher image.

更新特徴量算出部244による処理により、(P−N)個の弱識別器520Aと、N個の弱識別器562とが結合されて、P個の弱識別器が形成される。形成された弱識別器と、弱識別器500aとにより、次のフレーム画像からのオブジェクト抽出処理に実際に用いられる識別器が構築される。これにより、個別オブジェクトの検出・追跡に有効な識別器が形成される。オブジェクト抽出部230は、構築された識別器を用いて次のフレーム画像からオブジェクトを抽出する。   By the processing by the update feature quantity calculation unit 244, (P−N) weak classifiers 520A and N weak classifiers 562 are combined to form P weak classifiers. A classifier that is actually used for object extraction processing from the next frame image is constructed by the formed weak classifier and the weak classifier 500a. Thereby, an effective classifier for detecting / tracking the individual object is formed. The object extraction unit 230 extracts an object from the next frame image using the constructed discriminator.

そして、更なる次のフレーム画像からオブジェクトを抽出するための識別器は、現在のフレーム画像で構築された識別器を本図の識別器502とみなして本図で説明した処理をすることで構築される。そしてこのような処理を繰り返すことで、動画に含まれる複数のフレーム画像から特定のオブジェクトを検出・追跡することができる。   Then, the classifier for extracting an object from a further next frame image is constructed by regarding the classifier constructed in the current frame image as the classifier 502 in this figure and performing the processing described in this figure. Is done. By repeating such processing, a specific object can be detected and tracked from a plurality of frame images included in the moving image.

図5は、正解画像および不正解画像の画像領域の一例を示す。フレーム画像600上の領域610は、フレーム画像600から抽出されたオブジェクトが存在する領域を示す。領域620は、抽出されたオブジェクトの周囲の領域を示す。領域610および領域620の領域の画像は、図3および図4に関連して説明したオブジェクト周辺画像に該当する。   FIG. 5 shows an example of image areas of correct and incorrect images. An area 610 on the frame image 600 indicates an area where an object extracted from the frame image 600 exists. A region 620 indicates a region around the extracted object. The images of the areas 610 and 620 correspond to the object peripheral images described with reference to FIGS. 3 and 4.

教師画像422を生成する場合、更新特徴量算出部244は、領域610に対応する画像から、複数の正解画像を生成する。また、更新特徴量算出部244は、領域620に対応する画像から、複数の不正解画像を生成する。複数の正解画像および複数の不正解画像を用いた学習により、識別器をフレーム周辺画像に適応させることができる。   When generating the teacher image 422, the updated feature amount calculation unit 244 generates a plurality of correct images from the image corresponding to the region 610. In addition, the update feature quantity calculation unit 244 generates a plurality of incorrect images from the image corresponding to the region 620. The classifier can be adapted to the frame peripheral image by learning using a plurality of correct images and a plurality of incorrect images.

図6は、正解画像および不正解画像の画像領域の他の一例を示す。フレーム画像700−1、フレーム画像700−2、フレーム画像700−3は、この順で撮像された連続するフレーム画像であるとする。更新特徴量算出部244は、フレーム画像700−1上およびフレーム画像700−2上に、フレーム画像700−3からオブジェクトを抽出するための教師画像422を生成する。   FIG. 6 shows another example of the image areas of the correct image and the incorrect image. Assume that the frame image 700-1, the frame image 700-2, and the frame image 700-3 are continuous frame images captured in this order. The update feature amount calculation unit 244 generates a teacher image 422 for extracting an object from the frame image 700-3 on the frame image 700-1 and the frame image 700-2.

フレーム画像700−2上の領域710bは、図5で説明した領域610に該当しており、領域710bから複数の正解画像が生成される。領域710bは、抽出されたオブジェクトの周辺領域(例えば、抽出されたオブジェクトの領域より2〜3画素広い領域)を含んでよい。周辺領域を含む画像も正解画像の画像領域とすることで、追跡しているオブジェクトの変動に対応することができる。   An area 710b on the frame image 700-2 corresponds to the area 610 described in FIG. 5, and a plurality of correct images are generated from the area 710b. The area 710b may include a peripheral area of the extracted object (for example, an area that is two to three pixels wider than the extracted object area). The image including the peripheral region is also set as the image region of the correct image, so that it is possible to cope with the variation of the tracked object.

フレーム画像700−2上の領域720aは、図5で説明した領域620に該当しており、領域720aから複数の不正解画像が生成される。領域720aは、オブジェクト周辺の背景となる画像領域となる。不正解画像の画像領域は、追跡しているオブジェクトをフレーム画像700−2において検出する領域に設定されてよい。   An area 720a on the frame image 700-2 corresponds to the area 620 described with reference to FIG. 5, and a plurality of incorrect images are generated from the area 720a. The area 720a is an image area serving as a background around the object. The image area of the incorrect image may be set to an area where the tracked object is detected in the frame image 700-2.

フレーム画像700−1上の領域710aは、フレーム画像700−1から抽出されたオブジェクトの領域であり、更新特徴量算出部244における処理において、領域710aから複数の正解画像が生成される。なお、フレーム画像700−1上の領域710aから抽出されたオブジェクトと、フレーム画像700−2上の領域710bから抽出されたオブジェクトは、ともに同じ被写体のオブジェクトであるとする。   An area 710 a on the frame image 700-1 is an object area extracted from the frame image 700-1, and a plurality of correct images are generated from the area 710 a in the processing in the update feature amount calculation unit 244. Note that the object extracted from the area 710a on the frame image 700-1 and the object extracted from the area 710b on the frame image 700-2 are both objects of the same subject.

また、フレーム画像700−2上の領域720bは、フレーム画像700−2において他のオブジェクトが抽出された領域であり、更新特徴量算出部244における処理において、領域720bから複数の不正解画像が生成される。追跡しているオブジェクトの近くの他のオブジェクトの領域720bから不正解画像が生成されてよい。このように他のオブジェクトの領域から不正解画像を生成することにより、他のオブジェクトを特定のオブジェクトとして検出してしまう確率を低減することができる。   An area 720b on the frame image 700-2 is an area from which another object is extracted from the frame image 700-2, and a plurality of incorrect images are generated from the area 720b in the process in the update feature amount calculation unit 244. Is done. An incorrect image may be generated from the area 720b of another object near the object being tracked. Thus, by generating an incorrect image from the area of another object, the probability of detecting the other object as a specific object can be reduced.

また、領域720cは、領域720aに存在しているオブジェクトが、次のフレーム画像700−3において存在すると予測される領域を示している。領域720cは、オブジェクト領域推定部250により、オブジェクトの動きに基づき推定される。更新特徴量算出部244における処理により、フレーム画像700−2上の領域720cから、複数の不正解画像が生成される。   An area 720c indicates an area where an object existing in the area 720a is predicted to exist in the next frame image 700-3. The region 720c is estimated by the object region estimation unit 250 based on the motion of the object. A plurality of incorrect images are generated from the region 720c on the frame image 700-2 by the processing in the update feature amount calculation unit 244.

フレーム画像700−2上の領域720cには、フレーム画像700−3における特定のオブジェクトの周囲に存在する被写体が撮像されている確率が高い。したがって、フレーム画像700−2上の領域720cを不正解画像とすることで、フレーム画像700−3から、追跡対象のオブジェクトの近傍に存在する他の被写体のオブジェクトを追跡対象のオブジェクトとして検出してしまう確率を低減することができる。   In the region 720c on the frame image 700-2, there is a high probability that a subject existing around a specific object in the frame image 700-3 is captured. Therefore, by setting the area 720c on the frame image 700-2 as an incorrect image, another object in the vicinity of the tracking target object is detected as the tracking target object from the frame image 700-3. The probability that it will end up can be reduced.

なお、オブジェクト抽出部230は、フレーム画像700−3の領域720cから、オブジェクトを抽出してもよい。つまり、オブジェクト抽出部230がオブジェクトを抽出する抽出対象の領域と、不正解画像を生成する対象の領域とは、画像領域上の同じ領域であってよい。なお、不正解画像を生成する対象の領域は、抽出対象の領域より小さくてもよい。   Note that the object extraction unit 230 may extract an object from the region 720c of the frame image 700-3. That is, the extraction target region from which the object extraction unit 230 extracts an object and the target region for generating an incorrect image may be the same region on the image region. Note that the target area for generating the incorrect image may be smaller than the extraction target area.

図5および図6に関連して説明したように、現フレームにおけるオブジェクト画像だけでなく、前フレームにおけるオブジェクトの画像も正解画像として用いる。また、不正解画像としては、オブジェクトの周辺領域の背景画像だけでなく、次のフレームのタイミングでのオブジェクトの位置近傍の背景画像、および、追跡対象のオブジェクトの近傍に位置する他のオブジェクトの画像をも用いる。また、画像解析装置110によると、フレーム単位での学習ではなく、オブジェクトの移動、オブジェクトパターンの変化も含めてオンライン学習に組み込むことができる。このため、環境変動に対する識別器の対応能力を高めることができる。   As described with reference to FIGS. 5 and 6, not only the object image in the current frame but also the image of the object in the previous frame is used as the correct image. In addition, the incorrect image is not only the background image of the peripheral area of the object, but also the background image near the position of the object at the timing of the next frame, and the image of another object positioned near the object to be tracked Is also used. Further, according to the image analysis apparatus 110, it is possible to incorporate not only learning in frame units but also online learning including object movement and object pattern change. For this reason, the capability of the discriminator to cope with environmental changes can be enhanced.

なお、個別オブジェクトの識別用の弱識別器を生成するオンライン学習処理は、毎フレーム行わなくてよい。動画像における追跡は高速でリアルタイム性が要求される。リアルタイム性を確保することを目的として、オンライン学習の頻度も適切に変えてもよい。   The online learning process for generating a weak classifier for identifying an individual object does not have to be performed every frame. Tracking in moving images requires high speed and real-time performance. For the purpose of ensuring real-time performance, the frequency of online learning may be appropriately changed.

例えば、オブジェクトが静止している場合、または、オブジェクトの動き量(変化量)が予め定められた値より小さい場合には、オンライン学習をしなくてよい。周囲の環境が実質的に変化していなかったり、オブジェクトが実質的に変化していない場合には、オンライン学習せずともオブジェクトを検出・追跡することができる。   For example, when the object is stationary or when the amount of movement (change amount) of the object is smaller than a predetermined value, online learning is not necessary. If the surrounding environment has not changed substantially or the object has not changed substantially, the object can be detected and tracked without online learning.

他にも、個別オブジェクトの識別用の弱識別器で識別して得られたオブジェクトの類似度が予め定められた第1の値より高い場合には、オンライン学習をしなくてよい。現在の識別器により十分に高い類似度が判定された場合には、個別オブジェクトの特徴はすでに弱識別器に組み込まれていることを意味しているので、オンライン学習しなくても個別オブジェクトを十分に検出・追跡することができる。他にも、上記類似度が予め定められた第2の値(第1の値より小さい値とする)より低い場合にも、オンライン学習をしなくてもよい。類似度が著しく低いということは、オブジェクトがオクルージョンされていたり、誤検出されている可能性が高いことを意味している。この場合にオンライン学習すると、オクルージョンされなくなったオブジェクトを検出・追跡することができなくなってしまう場合がある。このため、類似度が著しく低い場合には、インスタンス識別器の安定性から考えて、学習を行わないことが望ましいといえる。   In addition, when the similarity of the object obtained by identifying with the weak classifier for identifying the individual object is higher than a predetermined first value, online learning is not necessary. If the current classifier determines a sufficiently high degree of similarity, it means that the characteristics of the individual object are already built into the weak classifier, so that the individual object is sufficient even without online learning. Can be detected and tracked. In addition, online learning may not be performed when the similarity is lower than a predetermined second value (a value smaller than the first value). A remarkably low degree of similarity means that the object is likely to be occluded or misdetected. If online learning is performed in this case, it may become impossible to detect and track an object that is no longer occluded. For this reason, when the degree of similarity is extremely low, it can be said that it is desirable not to perform learning in view of the stability of the instance discriminator.

以上説明したように、画像解析装置110によると、オブジェクトの検出処理とオブジェクトの認識処理とを一括して行うことができる識別器を構築することができる。このため、これらの処理に要する演算量を著しく低減することができる。   As described above, according to the image analysis apparatus 110, it is possible to construct a discriminator that can perform the object detection process and the object recognition process in a lump. For this reason, the amount of calculation required for these processes can be remarkably reduced.

なお、図4から図6などにおいては、画像解析装置110の機能および動作を、識別器あるいは弱識別器による処理を例に挙げて説明した。上述のように、特徴量抽出部210、適合度算出部220、特徴量記憶部280、およびオブジェクト抽出部230の機能および動作は、弱識別器の機能および動作とみなすことができる。そして、基準特徴量を適応および更新は、識別器の選択および適応とみなすことができる。したがって、画像解析装置110の各構成要素が、基準特徴量に関して以下のように動作することで、図4から図6などにおいて識別器に関連して具体的に説明した機能と等価な機能を実現することができる。   In FIG. 4 to FIG. 6 and the like, the function and operation of the image analysis apparatus 110 have been described by taking processing by the classifier or weak classifier as an example. As described above, the functions and operations of the feature amount extraction unit 210, the fitness calculation unit 220, the feature amount storage unit 280, and the object extraction unit 230 can be regarded as functions and operations of a weak classifier. The adaptation and update of the reference feature amount can be regarded as the selection and adaptation of the discriminator. Therefore, each component of the image analysis device 110 operates as follows with respect to the reference feature amount, thereby realizing a function equivalent to the function specifically described in connection with the classifier in FIGS. 4 to 6 and the like. can do.

すなわち、以下に説明する動作により、画像解析装置110は、動画から特定のオブジェクトを抽出することができる。オブジェクトの抽出とは、オブジェクト毎に位置を特定することにより追跡することを含む。特徴量記憶部280は、種類が異なる複数の基準特徴量を記憶している。特徴量抽出部210は、動画に含まれる複数のフレーム画像のそれぞれから、種類が異なる複数の特徴量を抽出する。オブジェクト抽出部230は、特徴量記憶部280が記憶している複数の基準特徴量に対する抽出された複数の特徴量の適合度に基づき、フレーム画像からオブジェクトを抽出する。   That is, the image analysis apparatus 110 can extract a specific object from a moving image by the operation described below. Object extraction includes tracking by specifying a position for each object. The feature amount storage unit 280 stores a plurality of reference feature amounts of different types. The feature amount extraction unit 210 extracts a plurality of feature amounts of different types from each of a plurality of frame images included in the moving image. The object extraction unit 230 extracts an object from the frame image based on the degree of matching of the plurality of extracted feature amounts with respect to the plurality of reference feature amounts stored in the feature amount storage unit 280.

基準特徴量算出部240は、特徴量記憶部280が記憶している基準特徴量より、抽出されたオブジェクトの特徴量に種類に応じて予め定められた強度で適応させた複数の基準特徴量を算出する。そして、特徴量更新部270は、特徴量記憶部280が記憶している複数の基準特徴量を、基準特徴量算出部240が算出した基準特徴量で更新する。   Based on the reference feature quantity stored in the feature quantity storage unit 280, the reference feature quantity calculation unit 240 applies a plurality of reference feature quantities adapted to the extracted feature quantity of the object with a predetermined strength according to the type. calculate. Then, the feature amount update unit 270 updates the plurality of reference feature amounts stored in the feature amount storage unit 280 with the reference feature amounts calculated by the reference feature amount calculation unit 240.

なお、基準特徴量算出部240は、適合度がより大きい種類ほど、抽出されたオブジェクトの特徴量により大きい強度で適応させた複数の基準特徴量を算出してよい。また、基準特徴量算出部240は、抽出されたオブジェクトの特徴量に、種類に応じた頻度で適応させた複数の基準特徴量を算出してよい。   Note that the reference feature amount calculation unit 240 may calculate a plurality of reference feature amounts that are adapted to the feature amount of the extracted object with higher strength as the degree of matching is higher. Further, the reference feature value calculation unit 240 may calculate a plurality of reference feature values adapted to the extracted feature value of the object at a frequency according to the type.

特徴量記憶部280は、異なる解像度の画像から抽出された複数の特徴量に対応する複数の基準特徴量を記憶している。そして、特徴量抽出部210は、異なる解像度の画像から複数の特徴量を抽出する。基準特徴量算出部240は、抽出されたオブジェクトの特徴量に、解像度に応じた強度で適応させた複数の基準特徴量を算出する。基準特徴量算出部240は、抽出されたオブジェクトの特徴量に、解像度が大きいほどより大きい強度で適応させた複数の基準特徴量を算出してよい。なお、基準特徴量算出部240は、抽出されたオブジェクトの特徴量に適応させた、予め定められた値より大きい解像度に対応する複数の基準特徴量を算出してよい。   The feature amount storage unit 280 stores a plurality of reference feature amounts corresponding to a plurality of feature amounts extracted from images with different resolutions. Then, the feature amount extraction unit 210 extracts a plurality of feature amounts from images with different resolutions. The reference feature value calculation unit 240 calculates a plurality of reference feature values that are adapted to the extracted feature value of the object with an intensity corresponding to the resolution. The reference feature amount calculation unit 240 may calculate a plurality of reference feature amounts that are adapted to the extracted object feature amount with greater intensity as the resolution is higher. Note that the reference feature value calculation unit 240 may calculate a plurality of reference feature values corresponding to a resolution larger than a predetermined value, adapted to the extracted feature value of the object.

基準特徴量算出部240の動作について、更新特徴量選択部242は、非更新特徴量選択部246が選択した基準特徴量の種類以外の種類のうち、適合度がより大きい種類をより優先して選択する。更新特徴量算出部244は、更新特徴量選択部242が選択した種類について、抽出されたオブジェクトの特徴量に適応させた1以上の基準特徴量を算出する。更新特徴量算出部244は、適応させた複数の基準特徴量のうち、抽出されたオブジェクトの特徴量への適応度がより大きい基準特徴量を、適応させた基準特徴量としてより優先して選択する。なお、適応度としては、学習処理における学習誤差を例示することができる。   Regarding the operation of the reference feature quantity calculation unit 240, the update feature quantity selection unit 242 gives priority to the type having a higher degree of matching among the types other than the type of the reference feature quantity selected by the non-update feature quantity selection unit 246. select. The update feature value calculation unit 244 calculates one or more reference feature values adapted to the feature value of the extracted object for the type selected by the update feature value selection unit 242. The update feature quantity calculation unit 244 selects, with higher priority, a reference feature quantity having a higher degree of adaptability to the extracted feature quantity of the extracted object from among the plurality of adapted reference feature quantities. To do. As the fitness, a learning error in the learning process can be exemplified.

なお、オブジェクト抽出部230は、更新され得る予め定められたP種類の基準特徴量を少なくとも用いて、オブジェクトを抽出してよい。そして、更新特徴量算出部244は、適応度がより大きいN種類の基準特徴量を、適応させた基準特徴量としてより優先して選択してよい。そして、非更新特徴量選択部246は、オブジェクト抽出部230がフレーム画像からオブジェクトを抽出する場合に用いた、適合度が予め定められた値以上である(P−N)種類の基準特徴量を、適応させた基準特徴量とする。この場合に、適応度の順に選択したN種類の特徴量を、基準特徴量としてよい。   Note that the object extraction unit 230 may extract an object using at least P predetermined reference feature amounts that can be updated. Then, the update feature quantity calculation unit 244 may select the N types of reference feature quantities having higher fitness levels with higher priority as the adapted reference feature quantities. Then, the non-updated feature quantity selection unit 246 selects (PN) types of reference feature quantities whose matching level is equal to or greater than a predetermined value used when the object extraction unit 230 extracts an object from the frame image. The adapted reference feature value is used. In this case, N types of feature values selected in the order of fitness may be used as reference feature values.

そして、更新特徴量選択部242は、適合度がより大きい、Nより多いM種類の特徴量の種類を選択する。このとき、適合度が高い順にM種類の特徴量が選択されてよい。基準特徴量算出部240は、更新特徴量選択部242が選択したM種類について、抽出されたオブジェクトの特徴量に適応させた基準特徴量を算出する。そして基準特徴量算出部240は、算出したM種類の基準特徴量のうち、適応度がより大きいN種類の基準特徴量を、適応させた基準特徴量としてより優先して選択してよい。   Then, the update feature quantity selection unit 242 selects M types of feature quantities having a higher degree of matching and greater than N. At this time, M types of feature quantities may be selected in descending order of fitness. The reference feature value calculation unit 240 calculates a reference feature value adapted to the feature value of the extracted object for the M types selected by the update feature value selection unit 242. Then, the reference feature quantity calculation unit 240 may preferentially select N types of reference feature quantities having a higher fitness among the calculated M types of reference feature quantities as the adapted reference feature quantities.

なお、非更新特徴量選択部246は、オブジェクト抽出部230がフレーム画像からオブジェクトを抽出する場合に用いた、所定の条件に適合する1以上の種類の基準特徴量を、適応させた基準特徴量としてよい。つまり、所定の条件に適合する1以上の種類の基準特徴量は更新されずに、オブジェクト抽出部230により次のフレーム画像におけるオブジェクト抽出処理に用いられる。   The non-updated feature quantity selection unit 246 is a reference feature quantity obtained by adapting one or more types of reference feature quantities that meet a predetermined condition used when the object extraction unit 230 extracts an object from a frame image. As good as That is, one or more types of reference feature values that meet a predetermined condition are not updated and are used by the object extraction unit 230 for object extraction processing in the next frame image.

更新しない特徴量を選択する場合には、非更新特徴量選択部246は、オブジェクト抽出部230がフレーム画像からオブジェクトを抽出する場合に用いた、適合度が予め定められた値以上である1以上の種類の基準特徴量を、適応させた基準特徴量としてよい。また、非更新特徴量選択部246は、教師画像422に基づき、適応させた基準特徴量を選択してよい。具体的には、非更新特徴量選択部246は、教師画像422に基づく学習により、正解画像に対して正解を判定することができる確率が予め定められた値より高い組み合わせの基準特徴量を選択してよい。また、非更新特徴量選択部246は、さらに、教師画像422に基づく学習により、不正解画像に対して不正解を判定することができる確率が予め定められた値より高い組み合わせの基準特徴量を選択してもよい。   When selecting a feature quantity that is not to be updated, the non-update feature quantity selection unit 246 has one or more matching degrees that are used when the object extraction unit 230 extracts an object from the frame image and that has a predetermined value or more. These types of reference feature values may be used as the adapted reference feature values. Further, the non-updated feature quantity selection unit 246 may select the adapted reference feature quantity based on the teacher image 422. Specifically, the non-updated feature quantity selection unit 246 selects a reference feature quantity with a combination that has a probability that the correct answer can be determined with respect to the correct image by learning based on the teacher image 422 higher than a predetermined value. You can do it. Further, the non-updated feature quantity selection unit 246 further selects a reference feature quantity having a combination in which the probability that an incorrect answer can be determined for an incorrect answer image is higher than a predetermined value by learning based on the teacher image 422. You may choose.

特徴量を適応させる処理においては、基準特徴量算出部240は、抽出されたオブジェクトを含む領域の画像を正解画像として学習して得られた基準特徴量を、適応させた基準特徴量として算出してよい。また、基準特徴量算出部240は、抽出されたオブジェクト以外の領域を領域の画像を不正解画像として学習して得られた基準特徴量を、適応させた基準特徴量として算出してよい。   In the process of adapting the feature amount, the reference feature amount calculation unit 240 calculates the reference feature amount obtained by learning the image of the region including the extracted object as the correct image as the adapted reference feature amount. It's okay. In addition, the reference feature value calculation unit 240 may calculate a reference feature value obtained by learning an image of a region other than the extracted object as an incorrect image as an adapted reference feature value.

なお、基準特徴量算出部240は、フレーム画像における抽出された特定のオブジェクトを含む領域の画像を正解画像とすることにより、基準特徴量を算出してよい。基準特徴量算出部240は、フレーム画像の前のフレーム画像から抽出された特定のオブジェクトを含む領域の画像を正解画像とすることにより、基準特徴量を算出する。ここで、オブジェクト抽出部230は、特徴量抽出部210が次のフレーム画像から抽出した特徴量の、基準特徴量に対する適合度に基づき、次のフレーム画像から特定のオブジェクトを抽出してよい。   Note that the reference feature value calculation unit 240 may calculate the reference feature value by using an image of a region including a specific object extracted from the frame image as a correct image. The reference feature amount calculation unit 240 calculates the reference feature amount by setting an image of a region including a specific object extracted from the frame image before the frame image as a correct image. Here, the object extraction unit 230 may extract a specific object from the next frame image based on the degree of matching of the feature amount extracted from the next frame image by the feature amount extraction unit 210 with respect to the reference feature amount.

基準特徴量算出部240は、フレーム画像における抽出された特定のオブジェクトを含まない領域の画像を不正解画像とすることにより、基準特徴量を算出してよい。また、基準特徴量算出部240は、フレーム画像において抽出された特定のオブジェクトから予め定められた距離離れた領域の画像を不正解画像とすることにより、基準特徴量を算出してよい。また、基準特徴量算出部240は、フレーム画像から抽出された他のオブジェクトを含む領域の画像を不正解画像とすることにより、基準特徴量を算出してよい。   The reference feature quantity calculation unit 240 may calculate the reference feature quantity by setting an image of a region that does not include the extracted specific object in the frame image as an incorrect image. Further, the reference feature value calculation unit 240 may calculate the reference feature value by setting an image of a region that is a predetermined distance away from a specific object extracted from the frame image as an incorrect answer image. Further, the reference feature value calculation unit 240 may calculate the reference feature value by using an image of a region including another object extracted from the frame image as an incorrect image.

オブジェクト領域推定部250は、動画から抽出された特定のオブジェクトの移動量に基づき、他のフレーム画像において特定のオブジェクトが存在すべき領域を推定する。基準特徴量算出部240は、他のフレーム画像におけるオブジェクト領域推定部250が推定した領域を含む画像を不正解画像とすることにより、基準特徴量を算出してよい。   The object region estimation unit 250 estimates a region where a specific object should exist in another frame image based on the movement amount of the specific object extracted from the moving image. The reference feature amount calculation unit 240 may calculate the reference feature amount by using an image including the region estimated by the object region estimation unit 250 in another frame image as an incorrect image.

なお、適合度算出部220は、基準特徴量に対する特徴量抽出部210が抽出した特徴量の適合度を、種類毎に算出する。そして、オブジェクト抽出部230は、種類毎に算出された適合度に基づき、複数のフレーム画像のそれぞれからオブジェクトを抽出する。この場合に、オブジェクト抽出部230は、予め定められた適合度より大きい適合度が算出された特徴量の数が予め定められた値より多い場合に、特定のオブジェクトとして抽出してよい。他にも、オブジェクト抽出部230は、適合度を所定の重みづけで重みづけした合計値が予め定められた値より大きい場合に、特定のオブジェクトとして抽出してもよい。   The degree-of-fit calculation unit 220 calculates the degree of match of the feature amount extracted by the feature amount extraction unit 210 with respect to the reference feature amount for each type. Then, the object extraction unit 230 extracts an object from each of the plurality of frame images based on the degree of matching calculated for each type. In this case, the object extraction unit 230 may extract a specific object when the number of feature amounts for which a fitness level greater than a predetermined fitness level is calculated is greater than a predetermined value. In addition, the object extraction unit 230 may extract a specific object when the total value obtained by weighting the fitness with a predetermined weight is larger than a predetermined value.

なお、特徴量記憶部280は、被写体の向きに対応づけて複数の基準特徴量を記憶している。特徴量抽出部210が動画に含まれる複数のフレーム画像のそれぞれから複数の特徴量を抽出する。オブジェクト抽出部230は、被写体の向きに対応づけて記憶された複数の基準特徴量に対する抽出された複数の特徴量の適合度に基づき、フレーム画像から特定被写体のオブジェクトを抽出する。   Note that the feature amount storage unit 280 stores a plurality of reference feature amounts in association with the direction of the subject. The feature amount extraction unit 210 extracts a plurality of feature amounts from each of a plurality of frame images included in the moving image. The object extraction unit 230 extracts the object of the specific subject from the frame image based on the degree of matching of the plurality of feature amounts extracted with respect to the plurality of reference feature amounts stored in association with the direction of the subject.

向き特定部260は、特定被写体の向きを特定する。このとき、基準特徴量に対する適合度に基づき、向きを特定してよい。例えば、向き特定部260は、特徴量記憶部280が記憶している複数の特徴量のうち、予め定められた値より大きい適合度が算出された基準特徴量に対応づけて特徴量記憶部280が記憶している被写体の向きを特定被写体の向きとして特定してよい。   The direction specifying unit 260 specifies the direction of the specific subject. At this time, the orientation may be specified based on the degree of matching with the reference feature amount. For example, the orientation specifying unit 260 associates the feature amount storage unit 280 with a reference feature amount in which a degree of fitness greater than a predetermined value is calculated among a plurality of feature amounts stored in the feature amount storage unit 280. May be specified as the orientation of the specific subject.

このように、向き特定部260は、予め定められた解像度より小さい解像度の画像から特徴量抽出部210が抽出した特徴量を、同解像度の基準特徴量とそれぞれ比較することにより、被写体の向きのそれぞれについて適合度を算出してよい。そして、向き特定部260は、より大きい適合度が算出された基準特徴量に対応づけられた被写体の向きを、特定被写体の向きとして特定してよい。   As described above, the orientation specifying unit 260 compares the feature amount extracted by the feature amount extraction unit 210 from an image having a resolution smaller than a predetermined resolution with the reference feature amount having the same resolution, thereby determining the orientation of the subject. A goodness of fit may be calculated for each. Then, the orientation specifying unit 260 may specify the orientation of the subject associated with the reference feature amount for which a greater matching degree is calculated as the orientation of the specific subject.

そして、基準特徴量算出部240は、特徴量記憶部280が記憶している基準特徴量より、抽出されたオブジェクトに適応させた基準特徴量を算出する。特徴量更新部270は、特徴量記憶部280が特定された向きに対応づけて記憶している基準特徴量を、基準特徴量算出部240が算出した基準特徴量で更新してよい。これにより、被写体の向きに応じた適切な組み合わせの基準特徴量を、学習により強化していくことができる。   Then, the reference feature value calculation unit 240 calculates a reference feature value adapted to the extracted object from the reference feature values stored in the feature value storage unit 280. The feature amount update unit 270 may update the reference feature amount stored in association with the specified direction in the feature amount storage unit 280 with the reference feature amount calculated by the reference feature amount calculation unit 240. Thereby, it is possible to strengthen the reference feature amount of an appropriate combination according to the direction of the subject by learning.

以上説明したように、画像解析装置110においては、検出処理と追跡処理との密接な関連性を利用して、クラス識別器に継承および進化の概念を導入することにより、種を検出する検出器としてのクラス識別器からオブジェクト追跡用のクラス識別器が構築される。進化を実現するオンライン学習により、環境変動への対応能力を識別器に動的に組み込むことができる。このため、画像解析装置110により実現される識別器によると、人物同士を識別したり、環境変動に対応することができる。   As described above, in the image analysis apparatus 110, a detector that detects a species by introducing the concept of inheritance and evolution into a class discriminator using the close relationship between detection processing and tracking processing. A class classifier for object tracking is constructed from the class classifier. Through online learning that realizes evolution, the ability to respond to environmental changes can be dynamically incorporated into the classifier. For this reason, according to the discriminator realized by the image analysis apparatus 110, it is possible to discriminate between persons and cope with environmental fluctuations.

例えば、画像解析装置110によると、被写体の姿勢などが変動することによるオブジェクトの形状の変動、照明変動および背景変動を含む被写体が存在する環境の変動、撮像性能の変動(例えば、コントラストの変動、ぶれなどの解像性能の変動)に対しても、適切に検出・追跡をすることができる。また、オブジェクト同士が重なったり、周囲物により遮蔽されるなどオクルージョンが生じ得る環境においても、適切に検出・追跡をすることができる。また、撮像装置100自身が移動する場合にも適切に検出・追跡することができる。また、複数のオブジェクトを追跡する場合においても各オブジェクトを適切に区別することができる。また、個別オブジェクトを容易に検出することができるので、複数の撮像装置100間における協調・連携も容易となる。また、オブジェクトの移動の規則性が比較的に低い場合であったり、オブジェクトの移動を推測する情報が不足している場合においても、適切に検出・追跡することができる。また、映像ノイズが生じた場合であっても適切に検出・追跡することができる。このように、画像解析装置110によると、このような環境変動に対して安定かつ高精度に個別オブジェクトの抽出を行うことができる。   For example, according to the image analysis apparatus 110, a change in the shape of the object due to a change in the posture of the subject, a change in the environment in which the subject exists, including a lighting change and a background change, a change in imaging performance (for example, a change in contrast, It is possible to appropriately detect and track the fluctuation in resolution performance such as blurring. In addition, even in an environment where occlusion may occur, such as objects overlapping each other or being shielded by surrounding objects, detection and tracking can be performed appropriately. Further, even when the imaging apparatus 100 itself moves, it can be appropriately detected and tracked. Also, when tracking a plurality of objects, each object can be appropriately distinguished. In addition, since the individual object can be easily detected, the cooperation and cooperation between the plurality of imaging devices 100 is facilitated. Further, even when the regularity of the movement of the object is relatively low or when the information for estimating the movement of the object is insufficient, the detection and tracking can be appropriately performed. Even when video noise occurs, it can be detected and tracked appropriately. Thus, according to the image analysis apparatus 110, it is possible to extract individual objects stably and with high accuracy against such environmental fluctuations.

以上図1から図6に関連して説明したように、画像処理システム10によると、特定の顧客を正確に追跡することができるので、顧客情報を正確に分析したり、当該顧客が興味を持った商品を正確に分析したりすることができる。このように、画像処理システム10は、店舗用の画像処理システムとして機能することができる。   As described above with reference to FIGS. 1 to 6, according to the image processing system 10, a specific customer can be accurately tracked, so that customer information can be accurately analyzed or the customer is interested. You can accurately analyze the products. Thus, the image processing system 10 can function as an image processing system for a store.

その他、画像処理システム10は多様な用途に適用することができる。例えば、画像処理システム10によると、顧客が興味を持った商品の情報に基づき広告コンテンツを顧客に提供することもでき、この場合、画像処理システム10はサイネージシステムとして機能することができる。また、画像処理システム10は、不審者が注目したものを特定する監視システムあるいは防犯システムとして機能することもできる。また、画像処理システム10は、特定の被写体を認証する認証システムとして機能することができる。   In addition, the image processing system 10 can be applied to various uses. For example, according to the image processing system 10, advertisement content can be provided to the customer based on information on products that the customer is interested in. In this case, the image processing system 10 can function as a signage system. The image processing system 10 can also function as a monitoring system or a crime prevention system that identifies what the suspicious person has noticed. The image processing system 10 can function as an authentication system that authenticates a specific subject.

また、画像解析装置110は、異なる店舗空間160の動画を取得して、解析してもよい。これにより、顧客の動向などを店舗間で比較することができる。また、上記においては店舗用のシステムとして画像処理システム10の機能および動作を説明したが、画像処理システム10の用途としては、店舗用以外にも種々の用途に利用することができる。   Further, the image analysis device 110 may acquire and analyze moving images of different store spaces 160. Thereby, a customer's trend etc. can be compared between stores. In the above description, the functions and operations of the image processing system 10 have been described as a store system. However, the image processing system 10 can be used for various purposes other than for a store.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

一実施形態における画像処理システム10の一例を示す図である。1 is a diagram illustrating an example of an image processing system 10 according to an embodiment. 画像解析装置110のブロック構成の一例を示す図である。2 is a diagram illustrating an example of a block configuration of an image analysis device 110. FIG. 画像解析装置110における処理内容の一例を模式的に示す図である。It is a figure which shows typically an example of the processing content in the image analysis apparatus. 処理450における処理内容の一例を模式的に示す図である。It is a figure which shows an example of the processing content in the process 450 typically. 正解画像および不正解画像の画像領域の一例を示す図である。It is a figure which shows an example of the image area | region of a correct image and an incorrect image. 正解画像および不正解画像の画像領域の他の一例を示す図である。It is a figure which shows another example of the image area | region of a correct image and an incorrect image.

10 画像処理システム
90 記憶媒体
100 撮像装置
110 画像解析装置
112 解析結果データベース
150 通信ネットワーク
160 店舗空間
162 商品棚
164 人物
170 店舗サーバ
180 端末装置
200 画像取得部
210 特徴量抽出部
220 適合度算出部
230 オブジェクト抽出部
240 基準特徴量算出部
242 更新特徴量選択部
244 更新特徴量算出部
246 非更新特徴量選択部
250 オブジェクト領域推定部
260 向き特定部
270 特徴量更新部
280 特徴量記憶部
290 出力部
400 弱識別器
402 識別器
404 識別器セット
410、420、430、440、450、470、480、510、530、550、560 処理
412 オブジェクト周辺画像
422 教師画像
442 識別結果
460 弱識別器
462 識別器
464 識別器セット
472 推定領域画像
500、520、552、562 弱識別器
502 識別器
600、700 フレーム画像
610、620、710、720 領域
10 image processing system 90 storage medium 100 imaging device 110 image analysis device 112 analysis result database 150 communication network 160 store space 162 product shelf 164 person 170 store server 180 terminal device 200 image acquisition unit 210 feature amount extraction unit 220 fitness calculation unit 230 Object extraction unit 240 Reference feature amount calculation unit 242 Update feature amount selection unit 244 Update feature amount calculation unit 246 Non-update feature amount selection unit 250 Object region estimation unit 260 Orientation specification unit 270 Feature amount update unit 280 Feature amount storage unit 290 Output unit 400 weak classifier 402 classifier 404 classifier set 410, 420, 430, 440, 450, 470, 480, 510, 530, 550, 560 processing 412 object peripheral image 422 teacher image 442 identification result 460 weak classifier 462 Another 464 classifier set 472 estimated area image 500,520,552,562 weak classifier 502 classifier 600, 700 frame images 610,620,710,720 area

Claims (13)

動画から特定被写体のオブジェクトを抽出する画像解析装置であって、
被写体の向きに対応づけて複数の基準特徴量を記憶する特徴量記憶部と、
動画に含まれる複数の動画構成画像のそれぞれから、複数の特徴量を抽出する特徴量抽出部と、
被写体の向きに対応づけて記憶された複数の基準特徴量に対する前記抽出された複数の特徴量の適合度に基づいて、前記動画構成画像から前記特定被写体のオブジェクトを抽出するオブジェクト抽出部と、
前記特定被写体の向きを特定する向き特定部と、
前記特徴量記憶部が記憶している基準特徴量より、前記抽出されたオブジェクトの特徴量に適応させた基準特徴量を算出する基準特徴量算出部と、
前記特徴量記憶部が前記特定された向きに対応づけて記憶している基準特徴量を、前記基準特徴量算出部が算出した基準特徴量で更新する特徴量更新部と
を備える画像解析装置。
An image analysis device that extracts an object of a specific subject from a video,
A feature amount storage unit that stores a plurality of reference feature amounts in association with the direction of the subject;
A feature amount extraction unit that extracts a plurality of feature amounts from each of a plurality of movie constituent images included in the movie;
An object extraction unit that extracts an object of the specific subject from the moving image composition image based on the degree of matching of the plurality of extracted feature amounts with respect to a plurality of reference feature amounts stored in association with the direction of the subject;
An orientation identifying unit that identifies the orientation of the specific subject;
A reference feature value calculation unit that calculates a reference feature value adapted to the feature value of the extracted object from the reference feature value stored in the feature value storage unit;
An image analysis apparatus comprising: a feature amount update unit that updates a reference feature amount stored in the feature amount storage unit in association with the specified orientation with a reference feature amount calculated by the reference feature amount calculation unit.
前記基準特徴量算出部は、前記適合度がより大きい種類ほど、前記抽出されたオブジェクトの特徴量により大きい強度で適応させた複数の基準特徴量を算出する
請求項1に記載の画像解析装置。
The image analysis device according to claim 1, wherein the reference feature amount calculation unit calculates a plurality of reference feature amounts adapted to the extracted feature amount of the object with higher strength as the degree of matching is higher.
前記基準特徴量算出部は、前記抽出されたオブジェクトの特徴量に、特徴量の種類に応じた頻度で適応させた複数の基準特徴量を算出する
請求項1から2のいずれかに記載の画像解析装置。
3. The image according to claim 1, wherein the reference feature amount calculating unit calculates a plurality of reference feature amounts adapted to the extracted feature amount of the object at a frequency according to a feature amount type. Analysis device.
前記特徴量抽出部は、異なる解像度の画像から複数の特徴量を抽出し、
前記特徴量記憶部は、異なる解像度の画像から抽出された複数の特徴量に対応する複数の基準特徴量を記憶しており、
前記基準特徴量算出部は、前記抽出されたオブジェクトの特徴量に、前記解像度に応じた強度で適応させた複数の基準特徴量を算出する
請求項1から3のいずれかに記載の画像解析装置。
The feature amount extraction unit extracts a plurality of feature amounts from images of different resolutions,
The feature amount storage unit stores a plurality of reference feature amounts corresponding to a plurality of feature amounts extracted from images of different resolutions,
The image analysis apparatus according to claim 1, wherein the reference feature amount calculation unit calculates a plurality of reference feature amounts adapted to the extracted feature amount of the object with an intensity corresponding to the resolution. .
前記基準特徴量算出部は、前記抽出されたオブジェクトの特徴量に、前記解像度が大きいほどより大きい強度で適応させた複数の基準特徴量を算出する
請求項4に記載の画像解析装置。
The image analysis apparatus according to claim 4, wherein the reference feature amount calculation unit calculates a plurality of reference feature amounts adapted to the extracted feature amount of the object with greater intensity as the resolution is larger.
前記基準特徴量算出部は、前記抽出されたオブジェクトの特徴量に適応させた、予め定められた値より大きい解像度に対応する複数の基準特徴量を算出する
請求項5に記載の画像解析装置。
The image analysis apparatus according to claim 5, wherein the reference feature amount calculation unit calculates a plurality of reference feature amounts corresponding to a resolution larger than a predetermined value, adapted to the extracted feature amount of the object.
前記基準特徴量算出部は、
前記オブジェクト抽出部が前記動画構成画像からオブジェクトを抽出する場合に用いた、所定の条件に適合する1以上の種類の基準特徴量を、前記適応させた基準特徴量とする非更新特徴量選択部
を有する請求項1から5のいずれかに記載の画像解析装置。
The reference feature amount calculation unit includes:
A non-updated feature quantity selection unit that uses one or more types of reference feature values that meet a predetermined condition used when the object extraction unit extracts an object from the moving image constituent image as the adapted reference feature value The image analysis apparatus according to claim 1, comprising:
前記非更新特徴量選択部は、前記オブジェクト抽出部が前記動画構成画像からオブジェクトを抽出する場合に用いた、前記適合度が予め定められた値以上である1以上の種類の基準特徴量を、前記適応させた基準特徴量とする
請求項7に記載の画像解析装置。
The non-update feature quantity selection unit uses one or more types of reference feature quantities that are used when the object extraction unit extracts an object from the moving image constituent image and the degree of fitness is a predetermined value or more. The image analysis apparatus according to claim 7, wherein the adapted reference feature amount is used.
前記基準特徴量算出部は、前記抽出されたオブジェクトを含む領域の画像を正解画像として学習して得られた基準特徴量を、前記適応させた基準特徴量として算出する
請求項1から8のいずれかに記載の画像解析装置。
9. The reference feature amount calculation unit according to claim 1, wherein the reference feature amount calculation unit calculates a reference feature amount obtained by learning an image of a region including the extracted object as a correct image as the adapted reference feature amount. An image analyzing apparatus according to claim 1.
前記基準特徴量算出部は、前記抽出されたオブジェクト以外の領域を領域の画像を不正解画像として学習して得られた基準特徴量を、前記適応させた基準特徴量として算出する
請求項1から9のいずれかに記載の画像解析装置。
The reference feature amount calculation unit calculates, as the adapted reference feature amount, a reference feature amount obtained by learning an image of the region other than the extracted object as an incorrect image. The image analysis apparatus according to any one of 9.
前記特徴量記憶部は、異なる解像度の画像から抽出された複数の特徴量に対応する複数の基準特徴量を被写体の向きに対応づけて記憶しており、
前記向き特定部は、予め定められた解像度より小さい解像度の画像から前記特徴量抽出部が抽出した特徴量を、同解像度の基準特徴量とそれぞれ比較することにより、被写体の向きのそれぞれについて適合度を算出し、より大きい適合度が算出された基準特徴量に対応づけられた被写体の向きを、特定被写体の向きとして特定する
請求項1から10のいずれかに記載の画像解析装置。
The feature amount storage unit stores a plurality of reference feature amounts corresponding to a plurality of feature amounts extracted from images with different resolutions in association with the direction of the subject,
The orientation specifying unit compares the feature amount extracted by the feature amount extraction unit from an image having a resolution smaller than a predetermined resolution with a reference feature amount having the same resolution, thereby matching the degree of fitness for each direction of the subject. The image analysis apparatus according to any one of claims 1 to 10, wherein the orientation of the subject associated with the reference feature amount for which a greater degree of fitness is calculated is identified as the orientation of the specific subject.
動画から特定被写体のオブジェクトを抽出する画像解析方法であって、
被写体の向きに対応づけて複数の基準特徴量を記憶する特徴量記憶段階と、
動画に含まれる複数の動画構成画像のそれぞれから、複数の特徴量を抽出する特徴量抽出段階と、
被写体の向きに対応づけて記憶された複数の基準特徴量に対する前記抽出された複数の特徴量の適合度に基づいて、前記動画構成画像から前記特定被写体のオブジェクトを抽出するオブジェクト抽出段階と、
前記特定被写体の向きを特定する向き特定段階と、
前記特徴量記憶段階において記憶された基準特徴量より、前記抽出されたオブジェクトの特徴量に適応させた基準特徴量を算出する基準特徴量算出段階と、
前記特徴量記憶段階において前記特定された向きに対応づけて記憶された基準特徴量を、前記基準特徴量算出段階において算出された基準特徴量で更新する特徴量更新段階と
を備える画像解析方法。
An image analysis method for extracting an object of a specific subject from a video,
A feature amount storing step for storing a plurality of reference feature amounts in association with the direction of the subject;
A feature amount extraction stage for extracting a plurality of feature amounts from each of a plurality of movie constituent images included in the movie;
An object extraction step of extracting the object of the specific subject from the moving image composition image based on the degree of matching of the plurality of extracted feature amounts with respect to a plurality of reference feature amounts stored in association with the direction of the subject;
A direction identifying step of identifying a direction of the specific subject;
A reference feature amount calculating step of calculating a reference feature amount adapted to the extracted feature amount of the object from the reference feature amount stored in the feature amount storage step;
An image analysis method comprising: a feature amount update step of updating the reference feature amount stored in association with the specified orientation in the feature amount storage step with the reference feature amount calculated in the reference feature amount calculation step.
動画から特定被写体のオブジェクトを抽出する画像解析装置用のプログラムであって、コンピュータを、
被写体の向きに対応づけて複数の基準特徴量を記憶する特徴量記憶部、
動画に含まれる複数の動画構成画像のそれぞれから、複数の特徴量を抽出する特徴量抽出部、
被写体の向きに対応づけて記憶された複数の基準特徴量に対する前記抽出された複数の特徴量の適合度に基づいて、前記動画構成画像から前記特定被写体のオブジェクトを抽出するオブジェクト抽出部、
前記特定被写体の向きを特定する向き特定部、
前記特徴量記憶部が記憶している基準特徴量より、前記抽出されたオブジェクトの特徴量に適応させた基準特徴量を算出する基準特徴量算出部、
前記特徴量記憶部が前記特定された向きに対応づけて記憶している基準特徴量を、前記基準特徴量算出部が算出した基準特徴量で更新する特徴量更新部
として機能させるプログラム。
A program for an image analysis device that extracts an object of a specific subject from a video, the computer
A feature amount storage unit that stores a plurality of reference feature amounts in association with the direction of the subject;
A feature amount extraction unit that extracts a plurality of feature amounts from each of a plurality of movie constituent images included in the movie,
An object extraction unit that extracts the object of the specific subject from the moving image composition image based on the degree of matching of the plurality of extracted feature amounts with respect to the plurality of reference feature amounts stored in association with the direction of the subject;
A direction identifying unit that identifies a direction of the specific subject;
A reference feature value calculation unit that calculates a reference feature value adapted to the feature value of the extracted object from the reference feature value stored in the feature value storage unit;
A program that causes a reference feature value stored in the feature value storage unit in association with the specified direction to function as a feature value update unit that updates the reference feature value calculated by the reference feature value calculation unit.
JP2009207487A 2009-09-08 2009-09-08 Image analysis apparatus and method, and program Abandoned JP2011059897A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009207487A JP2011059897A (en) 2009-09-08 2009-09-08 Image analysis apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009207487A JP2011059897A (en) 2009-09-08 2009-09-08 Image analysis apparatus and method, and program

Publications (1)

Publication Number Publication Date
JP2011059897A true JP2011059897A (en) 2011-03-24

Family

ID=43947464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009207487A Abandoned JP2011059897A (en) 2009-09-08 2009-09-08 Image analysis apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP2011059897A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019075051A (en) * 2017-10-19 2019-05-16 セコム株式会社 Image processor
JPWO2021186494A1 (en) * 2020-03-16 2021-09-23
JP2022050565A (en) * 2018-07-03 2022-03-30 ナノトロニクス イメージング インコーポレイテッド System, device, and method for providing feedback on and improving accuracy of super-resolution imaging
WO2023219008A1 (en) * 2022-05-12 2023-11-16 オムロン株式会社 Evaluation method, program, and evaluation system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193404A (en) * 2006-01-17 2007-08-02 Fujifilm Corp Method for detecting face, system and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007193404A (en) * 2006-01-17 2007-08-02 Fujifilm Corp Method for detecting face, system and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200900042005; 山下隆義 外2名: 'Online Real Boostingによる人物追跡' 情報処理学会論文誌 コンピュータビジョンとイメージメディア 第1巻 第1号, 20081115, 第73〜82頁, 社団法人情報処理学会 *
JPN6012061137; 山下隆義 外2名: 'Online Real Boostingによる人物追跡' 情報処理学会論文誌 コンピュータビジョンとイメージメディア 第1巻 第1号, 20081115, 第73〜82頁, 社団法人情報処理学会 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019075051A (en) * 2017-10-19 2019-05-16 セコム株式会社 Image processor
JP2022050565A (en) * 2018-07-03 2022-03-30 ナノトロニクス イメージング インコーポレイテッド System, device, and method for providing feedback on and improving accuracy of super-resolution imaging
JP7431458B2 (en) 2018-07-03 2024-02-15 ナノトロニクス イメージング インコーポレイテッド Systems, devices, and methods for providing feedback on and improving the accuracy of super-resolution imaging
US11948270B2 (en) 2018-07-03 2024-04-02 Nanotronics Imaging , Inc. Systems, devices, and methods for providing feedback on and improving the accuracy of super-resolution imaging
JPWO2021186494A1 (en) * 2020-03-16 2021-09-23
WO2021186494A1 (en) * 2020-03-16 2021-09-23 日本電気株式会社 Object tracking device, object tracking method, and recording medium
JP7364041B2 (en) 2020-03-16 2023-10-18 日本電気株式会社 Object tracking device, object tracking method, and program
WO2023219008A1 (en) * 2022-05-12 2023-11-16 オムロン株式会社 Evaluation method, program, and evaluation system

Similar Documents

Publication Publication Date Title
JP5261312B2 (en) Image analysis apparatus, image analysis method, and program
JP2011059898A (en) Image analysis apparatus and method, and program
US8374393B2 (en) Foreground object tracking
US8218819B2 (en) Foreground object detection in a video surveillance system
US6502082B1 (en) Modality fusion for object tracking with training system and method
US8270733B2 (en) Identifying anomalous object types during classification
Du et al. Online deformable object tracking based on structure-aware hyper-graph
KR101653278B1 (en) Face tracking system using colar-based face detection method
Wei et al. Face detection for image annotation
JP2010231254A (en) Image analyzing device, method of analyzing image, and program
JP2006209755A (en) Method for tracing moving object inside frame sequence acquired from scene
Ghrab et al. Abnormal events detection based on trajectory clustering
Roy et al. Foreground segmentation using adaptive 3 phase background model
Liu et al. Smoke-detection framework for high-definition video using fused spatial-and frequency-domain features
JP2011059897A (en) Image analysis apparatus and method, and program
Vhatkar et al. Design issues and challenges in hierarchical routing protocols for wireless sensor networks
EP4399689A1 (en) Object detection systems and methods including an object detection model using a tailored training dataset
JP5241687B2 (en) Object detection apparatus and object detection program
Gao et al. A fast eyelash detection algorithm based on morphological operation
Spinello et al. Scene in the loop: Towards adaptation-by-tracking in RGB-D data
CN117152826B (en) Real-time cross-mirror tracking method based on target tracking and anomaly detection
US20230186611A1 (en) System, method, and computer program for retraining a pre-trained object classifier
Fan Towards Robust Visual Tracking: Creating Reliable Observations from Videos
Patras et al. Regression tracking with data relevance determination
Gangaputra et al. The trace model for object detection and tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20130122