JP5261312B2 - 画像解析装置、画像解析方法およびプログラム - Google Patents

画像解析装置、画像解析方法およびプログラム Download PDF

Info

Publication number
JP5261312B2
JP5261312B2 JP2009178442A JP2009178442A JP5261312B2 JP 5261312 B2 JP5261312 B2 JP 5261312B2 JP 2009178442 A JP2009178442 A JP 2009178442A JP 2009178442 A JP2009178442 A JP 2009178442A JP 5261312 B2 JP5261312 B2 JP 5261312B2
Authority
JP
Japan
Prior art keywords
reference feature
feature amount
image
feature
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009178442A
Other languages
English (en)
Other versions
JP2011034244A (ja
Inventor
軼 胡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009178442A priority Critical patent/JP5261312B2/ja
Priority to US12/838,238 priority patent/US8472668B2/en
Priority to CN201010243310.8A priority patent/CN101989327B/zh
Publication of JP2011034244A publication Critical patent/JP2011034244A/ja
Application granted granted Critical
Publication of JP5261312B2 publication Critical patent/JP5261312B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19147Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries

Description

本発明は、画像解析装置、画像解析方法およびプログラムに関する。
画像データ等の対象データが特定内容のデータであるか否かを識別する識別処理に用いる特徴量の種類と識別条件を決定できるとする装置が知られている(例えば、特許文献1参照。)。また、動画像中の被写体を高精度で認識する技術が知られている(例えば、特許文献2参照。)。
特開2005−115525号公報 特開2001−34756号公報 Jacky S.C. Yuk, Kwan−Yee K. Wong, Ronald H.Y.Chung, F.Y.L.Chin and K.P.Chow, "Real−time multiple head shape detection and tracking system with decentralized trackers", Proceedings of the Sixth International Conference on Intelligent Systems Design and Application (ISDA'06), vol.02, pp.384−389, 2006 Shai Aviaden, Ensemble Tracking, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.29, issue.2, pp.261−271, Feb.,2007 Helmut Grabner, Michael Grabner, "Real−time tracking via on−line boosting", vol.1, pp.47−57, BMVC2006
特徴量の種類と識別条件とを規定した参照データを用いると、特徴量が変化するような被写体を識別することが容易ではない。また、特徴量が大きく変化した場合には、違う被写体として検出してしまい、特定オブジェクトを追跡することができない場合がある。このように、オブジェクトの検出処理と特定オブジェクトの追跡処理とを効率的にすることができないという課題があった。
上記課題を解決するために、本発明の第1の態様においては、動画から特定のオブジェクトを抽出する画像解析装置であって、種類が異なる複数の基準特徴量を記憶する特徴量記憶部と、動画に含まれる複数の動画構成画像のそれぞれから、種類が異なる複数の特徴量を抽出する特徴量抽出部と、特徴量記憶部が記憶している複数の基準特徴量に対する抽出された複数の特徴量の適合度に基づいて、動画構成画像からオブジェクトを抽出するオブジェクト抽出部と、特徴量記憶部が記憶している基準特徴量より、抽出されたオブジェクトの特徴量に種類に応じて予め定められた強度で適応させた複数の基準特徴量を算出する基準特徴量算出部と、特徴量記憶部が記憶している複数の基準特徴量を、基準特徴量算出部が算出した基準特徴量で更新する特徴量更新部とを備える。
適合度がより大きい種類ほど、抽出されたオブジェクトの特徴量により大きい強度で適応させた複数の基準特徴量を算出してよい。
基準特徴量算出部は、抽出されたオブジェクトの特徴量に、種類に応じた頻度で適応させた複数の基準特徴量を算出してよい。
特徴量抽出部は、異なる解像度の画像から複数の特徴量を抽出し、特徴量記憶部は、異なる解像度の画像から抽出された複数の特徴量に対応する複数の基準特徴量を記憶しており、基準特徴量算出部は、抽出されたオブジェクトの特徴量に、解像度に応じた強度で適応させた複数の基準特徴量を算出してよい。
基準特徴量算出部は、抽出されたオブジェクトの特徴量に、解像度が大きいほどより大きい強度で適応させた複数の基準特徴量を算出してよい。
基準特徴量算出部は、抽出されたオブジェクトの特徴量に適応させた、予め定められた値より大きい解像度に対応する複数の基準特徴量を算出してよい。
基準特徴量算出部は、オブジェクト抽出部が動画構成画像からオブジェクトを抽出する場合に用いた、所定の条件に適合する1以上の種類の基準特徴量を、適応させた基準特徴量とする非更新特徴量選択部を有してよい。
非更新特徴量選択部は、オブジェクト抽出部が動画構成画像からオブジェクトを抽出する場合に用いた、適合度が予め定められた値以上である1以上の種類の基準特徴量を、適応させた基準特徴量としてよい。
基準特徴量算出部は、非更新特徴量選択部が選択した基準特徴量の種類以外の種類のうち、適合度がより大きい種類をより優先して選択する更新特徴量選択部と、更新特徴量選択部が選択した種類について、抽出されたオブジェクトの特徴量に適応させた1以上の基準特徴量を算出する更新特徴量算出部とをさらに有してよい。
更新特徴量算出部は、適応させた複数の基準特徴量のうち、抽出されたオブジェクトの特徴量への適応度がより大きい基準特徴量を、適応させた基準特徴量としてより優先して選択してよい。
オブジェクト抽出部は、更新され得る予め定められたP種類の基準特徴量を少なくとも用いて、オブジェクトを抽出し、更新特徴量算出部は、適応度がより大きいN種類の基準特徴量を、適応させた基準特徴量としてより優先して選択し、非更新特徴量選択部は、オブジェクト抽出部が動画構成画像からオブジェクトを抽出する場合に用いた、適合度が予め定められた値以上である類の基準特徴量を、適応させた基準特徴量としてよい。
更新特徴量選択部は、適合度がより大きい、Nより多いM種類の特徴量の種類を選択し、基準特徴量算出部は、更新特徴量選択部が選択したM種類について、抽出されたオブジェクトの特徴量に適応させた基準特徴量を算出し、算出したM種類の基準特徴量のうち、適応度がより大きいN種類の基準特徴量を、適応させた基準特徴量としてより優先して選択してよい。
基準特徴量算出部は、抽出されたオブジェクトを含む領域の画像を正解画像として学習して得られた基準特徴量を、適応させた基準特徴量として算出してよい。
基準特徴量算出部は、抽出されたオブジェクト以外の領域を領域の画像を不正解画像として学習して得られた基準特徴量を、適応させた基準特徴量として算出してよい。
基準特徴量に対する特徴量抽出部が抽出した特徴量の適合度を、種類毎に算出する適合度算出部をさらに備え、オブジェクト抽出部は、種類毎に算出された適合度に基づいて、複数の動画構成画像のそれぞれからオブジェクトを抽出してよい。
本発明の第2の態様においては、動画から特定のオブジェクトを抽出する画像解析装置であって、種類が異なる複数の基準特徴量を記憶する特徴量記憶部と、動画に含まれる複数の動画構成画像のそれぞれから、種類が異なる複数の特徴量を抽出する特徴量抽出部と、特徴量記憶部が記憶している複数の基準特徴量に対する抽出された複数の特徴量の適合度に基づいて、動画構成画像からオブジェクトを抽出するオブジェクト抽出部と、特徴量記憶部が記憶している基準特徴量より、抽出されたオブジェクトの特徴量に種類に応じて予め定められた強度で適応させた複数の基準特徴量を算出する基準特徴量算出部と、特徴量記憶部が記憶している複数の基準特徴量を、基準特徴量算出部が算出した基準特徴量で更新する特徴量更新段階とを備える。
本発明の第3の態様においては、動画から特定のオブジェクトを抽出する画像解析装置用のプログラムであって、コンピュータを、種類が異なる複数の基準特徴量を記憶する特徴量記憶部、動画に含まれる複数の動画構成画像のそれぞれから、種類が異なる複数の特徴量を抽出する特徴量抽出部、特徴量記憶部が記憶している複数の基準特徴量に対する抽出された複数の特徴量の適合度に基づいて、動画構成画像からオブジェクトを抽出するオブジェクト抽出部、特徴量記憶部が記憶している基準特徴量より、抽出されたオブジェクトの特徴量に種類に応じて予め定められた強度で適応させた複数の基準特徴量を算出する基準特徴量算出部、特徴量記憶部が記憶している複数の基準特徴量を、基準特徴量算出部が算出した基準特徴量で更新する特徴量更新部として機能させる。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、一実施形態における画像処理システム10の一例を示す。以下に説明するように、画像処理システム10は、一実施形態において店舗用の画像処理システムとして機能することができる。
画像処理システム10は、店舗空間160を撮像する複数の撮像装置100a−b、店舗サーバ170、通信ネットワーク150、画像解析装置110、解析結果データベース112、および端末装置180を備える。なお、以下の説明において、撮像装置100aおよび撮像装置100bを、撮像装置100と総称する場合がある。同様に、以後の説明においては、末尾の英文字など、数字符号に続く文字を省略することで、数字符号が指し示すものを総称することがある。
撮像装置100aは店舗空間160を撮像する。撮像装置100aは、店舗空間160内の人物164aおよび人物164bを、店舗空間160内の商品棚162a、商品棚162bなどとともに撮像して、動画を生成する。撮像装置100aは、店舗空間160を撮像して得られた動画を、店舗サーバ170に供給する。なお、撮像装置100bは、撮像装置100aと異なる位置に設けられる。その他の点では、撮像装置100bの機能および動作は撮像装置100aの機能および動作と略同一であるので、撮像装置100については説明を省略する。
店舗サーバ170は、撮像装置100aおよび撮像装置100bから供給された動画を、画像解析装置110に向けて通信ネットワーク150に送出する。通信ネットワーク150としては、インターネットなどの電気通信回線を例示することができる。店舗サーバ170は、例えば撮像装置100の近傍に設けられる。他の形態において、店舗サーバ170は店舗空間160内に設けられてもよい。
また、店舗サーバ170は、撮像装置100の撮像動作を制御する。例えば、店舗サーバ170は、撮像装置100の撮像機能のオン/オフ、撮像レートなどを制御する。撮像装置100がズーム撮影できる場合には、店舗サーバ170は撮像装置100のズーム値を制御してもよい。また、撮像装置100の撮像方向が可変である場合には、店舗サーバ170は撮像装置100の撮像方向を制御してもよい。
画像解析装置110は、店舗空間160とは異なる空間に設けられ、撮像装置100がそれぞれ撮像した動画を、通信ネットワーク150を通じて店舗サーバ170から取得する。画像解析装置110は、動画を解析して、解析結果を端末装置180に向けて通信ネットワーク150に送出する。
なお、画像解析装置110は、解析結果を解析結果データベース112に出力してもよい。画像解析装置110は、解析結果を解析結果データベース112から読み出して、読み出した解析結果を端末装置180に送信してもよい。なお、解析結果データベース112は、画像解析装置110が有してもよい。他にも、解析結果データベース112は、画像解析装置110が設けられた空間とは異なる空間に設けられてよい。この場合、画像解析装置110は、通信ネットワーク150を介して解析結果データベース112に解析結果を送信してもよい。
端末装置180は、画像解析装置110による解析結果を、通信ネットワーク150を通じて画像解析装置110から取得する。端末装置180は、解析結果をユーザの指示に応じて加工して表示する。端末装置180は、画像解析装置110が設けられた空間とは異なる空間に設けられてよい。端末装置180は、店舗空間160の近傍または店舗空間160内に設けられてもよい。
以下に、画像解析装置110の動作の一例を概略的に説明する。画像解析装置110は、撮像装置100が撮像した動画に含まれる複数のフレーム画像のそれぞれから、人物164などの移動体が撮像されたオブジェクトを検出するとともに、同じ被写体のオブジェクトを画像内において追跡する。このとき、画像解析装置110は、複数の弱識別器を利用してオブジェクトを検出および追跡する。
具体的には、画像解析装置110は、低解像度画像から識別結果を算出する複数の弱識別器、中解像度画像から識別結果を算出する複数の弱識別器、高解像度画像から識別結果を算出する複数の弱識別器を有している。これらの弱識別器は、画像から抽出した特徴量に基づき、識別結果を算出する。
低解像度画像用の弱識別器は、人物など特定種類の被写体のオブジェクトを抽出するための弱識別器であり、低解像度画像から多様な種類の特徴量を抽出して識別結果を算出する。これにより、高いロバスト性で人物のオブジェクトを検出することができる。なお、低解像度画像用の弱識別器は、追跡対象のオブジェクトに適応されずに用いられる。低解像度画像用の弱識別器は、例えば事前学習等によって高いロバスト性で人物のオブジェクトを検出できるよう構築されている。
中解像度画像用の弱識別器も同様に、多様な種類の特徴量を抽出して識別結果を算出する。中解像度画像用の弱識別器は、人物など特定種類の被写体のオブジェクトを抽出するための複数の弱識別器と、追跡対象のオブジェクトに対して適応化されていく複数の弱識別器とにより構築される。特定種類の被写体のオブジェクトを抽出するための弱識別器は、低解像度画像用の弱識別器と同様に、事前学習等によって構築され、追跡対象のオブジェクトに適応されずに用いられる。また、中解像度画像用の弱識別器のうち、追跡対象の人物に対して適応化される弱識別器は、例えばオンライン学習によりフレーム毎に学習されていく。
高解像度画像用の弱識別器も、多様な種類の特徴量を抽出して識別結果を算出する。高解像度画像用の弱識別器は追跡対象のオブジェクトに対して、オンライン学習によりフレーム毎に適応化されていく。
事前学習で弱識別器を構築する場合、教師画像を用いた強化学習の手法を用いることができる。また、弱識別器群は、Adaboost等のブースティングを用いた集団学習により構築されてよい。また、オンライン学習としては、オンラインブースティングの手法を用いることができる。
画像解析装置110は、フレーム画像毎に異なる組み合わせの弱識別器を用いてオブジェクトを抽出したり、フレーム画像毎に異なる組み合わせの弱識別器を適応化して得られた弱識別器を用いてオブジェクトを抽出したりする。このように、画像解析装置110は、特定種類のオブジェクトをロバストに検出する弱識別器と、被写体に適応化することができる追跡処理とを組み合わせた識別器を用いて、オブジェクトを抽出する。このため、画像解析装置110は、特定種類のオブジェクトをロバストに検出でき、かつ高精度に追跡することができる。
なお、本実施形態において、"オブジェクトを抽出する"とは、画像領域から特定のオブジェクトを検出および追跡することを指す。また、画像解析装置110は、抽出したオブジェクトが存在する領域を識別する座標情報などの位置情報を解析結果として出力してよい。他にも画像解析装置110は、オブジェクトが存在する領域を切り出したオブジェクト画像を出力してもよい。
このように、画像解析装置110は、新しいオブジェクトを見つけるべく、クラス識別器を用いてフレーム画像内をグローバルに探索する。そして、画像解析装置110は、追跡対象オブジェクトの以前のフレーム画像および現在のフレーム画像の双方の観察情報を利用して、オブジェクト位置の予測、オブジェクトの識別、および弱識別器の更新の各プロセスを行なって、オブジェクトを追跡していく。
特定種類のオブジェクト検出用の識別器としては、クラス識別器を用いることができる。この場合のクラス識別器は、いわば種を識別する識別器といえる。一方で、オブジェクト追跡用の識別器は、追跡するオブジェクトの環境に応じて、種の識別とその種に属する各個体の識別との双方をする能力が要求される。
例えば、追跡対象の人物の周囲に他の人物がいないときには、追跡用の識別器として要求される識別能力は比較的に低くよい。例えば、背景などの非人物のオブジェクトと人物のオブジェクトとが区別できればよい。つまり、種レベルを識別することができればよい。しかし、複数の人物が行き違うタイミングおよび当該タイミングの前後のタイミングにおいて動線を正しく取得するためには、追跡用の識別器に要求される識別能力は比較的に高くなる。具体的には、複数の人物を区別する能力が要求される。
上述したように、画像解析装置110によると、識別器は追跡オブジェクトに柔軟に適応されるので、識別器の識別能力は周囲の環境変動(例えば、背景変動、混雑度の変動など)により自動的に調整されていく。すなわち、画像解析装置110が有する識別器は、ポリモーフィズム特長を有する。したがって、画像解析装置110が有する識別器は、状況に応じて種レベルの識別器にも、個別オブジェクトの識別器にもなり得る。
このように、画像解析装置110によると、識別器は環境の変動に応じて調整されるので柔軟性が著しく高い。また、画像解析装置110によると、オブジェクトの追跡に従って識別器が構築されていくので、既に検出されたオブジェクトについて、初期状態の識別器を適用することなく抽出できる。このように、画像解析装置110によると、検出処理と追跡処理とが独立していないので、環境の激しい変動に対応することができる。
なお、記憶媒体90は、画像解析装置110用のプログラムを記憶している。記憶媒体90が記憶しているプログラムは、本実施形態に係る画像解析装置110として機能するコンピュータなどの電子情報処理装置に提供される。当該コンピュータが有するCPUは、当該プログラムの内容に応じて動作して、当該コンピュータの各部を制御する。CPUが実行するプログラムは、本図および以後の図に関連して説明される画像解析装置110などとして当該コンピュータを機能させる。
記憶媒体90としては、CD−ROMの他に、DVDまたはPD等の光学記録媒体、MOまたはMDなどの光磁気記録媒体、テープ媒体またはハードディスク装置などの磁気記録媒体、半導体メモリ、磁気メモリなどを例示することができる。また、専用通信ネットワークあるいはインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置が記憶媒体90として機能することもできる。
また、記憶媒体90は、画像処理システム10用のプログラムを記憶してよい。画像処理システム10用のプログラムは、画像解析装置110の他に、本図および以後の図に関連して説明される解析結果データベース112、店舗サーバ170、端末装置180、および撮像装置100の少なくともいずれかとして、コンピュータを機能させることができる。
図2は、画像解析装置110のブロック構成の一例を示す。画像解析装置110は、画像取得部200、特徴量抽出部210、適合度算出部220、オブジェクト抽出部230、基準特徴量算出部240、オブジェクト領域推定部250、向き特定部260、特徴量更新部270、特徴量記憶部280、および出力部290を有する。基準特徴量算出部240は、更新特徴量選択部242、更新特徴量算出部244、および非更新特徴量選択部246を含む。
画像取得部200は、撮像装置100が撮像した動画を、通信ネットワーク150を通じて店舗サーバ170から取得する。画像取得部200が取得した動画は、特徴量抽出部210およびオブジェクト抽出部230に供給される。
特徴量抽出部210は、動画に含まれるフレーム画像から特徴量を抽出する。特徴量としては、輝度分布などの輝度特徴量、種々のウェーブレット特徴量、Haar−like特徴量、Edgelet特徴量、EOH特徴量、HOG特徴量などを例示することができる。
適合度算出部220は、基準特徴量に対する、特徴量抽出部210が抽出した特徴量の適合度を出力する。具体的には、特徴量記憶部280が基準特徴量を記憶していて、適合度算出部220は、特徴量記憶部280が記憶している基準特徴量に対する適合度を出力する。
なお、特徴量抽出部210は、異なる特徴量の種類毎に特徴量を抽出する。また、特徴量記憶部280は、異なる種類のそれぞれについて基準特徴量を記憶している。そして、適合度算出部220は、種類毎に適合度を算出する。
なお、異なる種類の特徴量としては、上記したようにHaar−like特徴量、Edgelet特徴量など、特徴量の種類そのものが異なる特徴量であってよい。他にも、異なる種類の特徴量としては、異なる算出方法で算出した特徴量を含むことができる。異なる算出方法としては、異なる解像度の画像から抽出することを含む。つまり、特徴量の種類そのものが同じあっても、異なる解像度の画像から抽出された特徴量を、本実施形態においては異なる種類の特徴量とみなすことができる。
オブジェクト抽出部230は、適合度算出部220が算出した各種類についての適合度に基づき、対象とした画像が特定のオブジェクトの画像であるか否かを判断する。つまり、オブジェクト抽出部230は、オブジェクトを抽出することができる。
なお、特徴量抽出部210、適合度算出部220、特徴量記憶部280、およびオブジェクト抽出部230は、識別器の処理として実装され得る。例えば、特徴量の1つの種類に着目すれば、特徴量抽出部210が特徴量を抽出してから適合度算出部220が適合度を出力するまでの処理を、一の弱識別器による処理とみなすことができる。そして、複数の種類についての適合度からオブジェクトの画像であるか否かを判断するオブジェクト抽出部230の処理までを含めると、オブジェクトを抽出するための一の識別器の処理とみなすことができる。
オブジェクト抽出部230は、オブジェクトの画像として判断した場合には、オブジェクトを含む所定の領域の画像であるオブジェクト周辺画像をフレーム画像から切り出して、基準特徴量算出部240に供給される。基準特徴量算出部240は、オブジェクト抽出部230から供給された画像を用いて、次のフレーム画像からオブジェクトを抽出するための基準特徴量を算出する。基準特徴量算出部240が算出した基準特徴量は、特徴量更新部270によって特徴量記憶部280に記憶される。これにより、特徴量記憶部280が記憶している基準特徴量は、基準特徴量算出部240が算出した基準特徴量で更新される。
そして、次のフレーム画像から、上述した特徴量抽出部210、適合度算出部220、およびオブジェクト抽出部230における処理により、オブジェクトが抽出される。この動作を繰り返すことによって、複数のフレーム画像のそれぞれから、オブジェクトが抽出される。
なお、基準特徴量算出部240は、オブジェクト周辺画像を用いて学習することで、オブジェクト周辺画像に適応した基準特徴量を算出する。このように基準特徴量算出部240は、現フレームのオブジェクトの画像に適応した特徴量を算出することができる。このため、基準特徴量算出部240は、特定のオブジェクトの追跡に適した基準特徴量を算出することができる。
なお、基準特徴量算出部240によってオブジェクト周辺画像に適応した基準特徴量が算出されるが、一の基準特徴量を更新することは、上述した弱識別器の処理が適応化されることを意味する。つまり、基準特徴量算出部240により基準特徴量が算出されて特徴量記憶部280に記憶されるまでの特徴量更新処理は、適応した弱識別器を構築する処理とみなすことができる。基準特徴量算出部240における基準特徴量の算出処理が学習に基づく場合、特徴量更新処理は、上述した識別器のオンライン学習処理とみなすことができる。
なお、基準特徴量算出部240は、抽出されたオブジェクトとして撮像された被写体の向きに応じて基準特徴量を更新することができる。例えば、基準特徴量算出部240は、特徴量記憶部280が被写体の向き毎に、オブジェクトを抽出するための基準特徴量を記憶してよい。この場合に、基準特徴量算出部240は、抽出されたオブジェクトとして撮像された被写体の向きに対応する基準特徴量を選択して更新することができる。
なお、向き特定部260は、オブジェクトとして撮像された被写体の向きを特定する。特徴量記憶部280が向き毎に基準特徴量を記憶している場合、向き特定部260は、最も適合する基準特徴量に対応づけて特徴量記憶部280が記憶している向きを、被写体の向きとすることができる。基準特徴量算出部240は、向き特定部260が特定した向きに基づき、上述の基準特徴量の更新処理をすることができる。
また、基準特徴量算出部240は、適合度算出部220が算出した適合度に基づき、基準特徴量を算出してよい。例えば、次フレーム画像からオブジェクトを抽出するための基準特徴量として、適合度が低い基準特徴量を除外して、適合度がより高い基準特徴量を組み入れることができる。言い換えると、弱識別器の組み合わせを替えることができる。このため、特定の被写体のオブジェクトを追跡する追跡処理の精度を向上することができる。
また、基準特徴量算出部240は、各フレームにおけるオブジェクトの位置に基づき基準特徴量を算出することができる。例えば、基準特徴量算出部240は、現フレームにおけるオブジェクトの画像を正解画像として用いて学習したり、現フレームにおけるオブジェクトの領域以外の領域の画像を不正解画像として用いて学習したりすることで、基準特徴量を算出することができる。
なお、オブジェクト領域推定部250は、次のフレーム画像上におけるオブジェクトの位置を推定する。具体的には、動画におけるオブジェクトの動き速度と、現フレーム画像におけるオブジェクトの位置とに基づき、次のフレーム画像上におけるオブジェクトの位置を推定することができる。オブジェクト領域推定部250は、現フレーム画像から、当該推定した位置を含む領域の画像を切り出して、基準特徴量算出部240に供給してよい。
この場合に、基準特徴量算出部240は、オブジェクト領域推定部250から供給された画像を不正解画像として学習することにより、基準特徴量を算出することができる。これにより、特徴量記憶部280が記憶している基準特徴量セットは、次のフレーム画像におけるオブジェクトの周辺の画像が検出されにくいものに強化されているので、次フレーム画像からのオブジェクトの検出確率を高めることができる。
ここで、基準特徴量算出部240における各部の動作について概略説明すると、更新特徴量選択部242は、更新すべき種類を特定する。例えば、更新特徴量選択部242による処理としては、上述したような適合度の低い種類の基準特徴量を除外して、新たな基準特徴量を導入したりすることができる。そして、更新特徴量算出部244は、更新特徴量選択部242が選択した種類の特徴量を、学習等によって適応化する。また、非更新特徴量選択部246は、適応化せずに次フレーム画像においてもオブジェクト抽出に使用する種類の特徴量を選択してよい。なお、基準特徴量算出部240における各部の動作については後に詳述する。
また、出力部290は、オブジェクト抽出部230が抽出したオブジェクトの情報を、外部に出力する。例えば、出力部290は、抽出されたオブジェクトの位置、抽出されたオブジェクトの画像そのものを、解析結果データベース112、端末装置180などに出力してよい。以上説明したように、画像解析装置110によると、オブジェクトの検出処理とオブジェクトの追跡処理とを一体的に行うことができ、オブジェクトを追跡するための演算量を低減することができる。
図3は、画像解析装置110における処理内容の一例を模式的に示す。以下に、画像解析装置110の機能および動作を、識別器あるいは弱識別器による処理を例に挙げて説明する。
識別器セット404は、画像解析装置110がオブジェクト抽出処理に用いることができる複数の識別器402a〜cを有している。識別器402a〜cは、それぞれ被写体の異なる向きに対応している。具体的には、識別器402aは、人物の正面顔を検出するのに適した複数の弱識別器400a〜cにより形成される。
ここで弱識別器400aは、低解像度画像に対する1以上の弱識別器400により形成される。例えば、弱識別器400aは、8×8画素の解像度の画像に対する1以上の弱識別器400により形成される。以後の図において、1つの弱識別器400は1つの横長の矩形で示される。弱識別器400bは、中解像度画像に対する1以上の弱識別器400により形成され、弱識別器400cは、高解像度画像に対する1以上の弱識別器400により形成される。例えば、弱識別器400bは、16×16画素の解像度の画像に対する1以上の弱識別器400により形成され、弱識別器400cは、32×32画素の解像度の画像に対する1以上の弱識別器400により形成される。弱識別器400aのように解像度が比較的に低い弱識別器は種を検出する識別器部分として機能するとともに、弱識別器400c(または弱識別器400b)のように解像度が比較的に高い弱識別器は個別オブジェクトを識別する識別器部分として機能することができる。後述するように、解像度が比較的に高い弱識別器400は、オンライン学習により個別オブジェクトに適応される。このように解像度に応じた階層的な弱識別器構成とすることで、個別オブジェクトを高速に検出・追跡することができる。
また、識別器402bは、人物の右横顔を検出するのに適した複数の弱識別器400により形成され、識別器402cは、人物の左横顔を検出するのに適した複数の弱識別器400により形成される。この点を除いて、識別器402bおよび識別器402cは識別器402aと略同一の構成を有するので、説明を省略する。
以下に、本図を用いて、画像解析装置110が、識別器セット404から、オブジェクト抽出に用いる識別器セット464を生成する処理を説明する。ここでは、説明の都合上、オブジェクト抽出部230は、処理480において、前のフレーム画像から特定のオブジェクトを既に抽出しているものとする。オブジェクト抽出部230は、オブジェクトの領域を示す情報を基準特徴量算出部240に供給する。
なお、オブジェクトが抽出された段階においては、適合度算出部220は識別器セット464に含まれる識別器を用いて適合度を算出している。適合度算出部220が算出した適合度は、基準特徴量算出部240に供給される。また、オブジェクトが抽出された段階においては、向き特定部260は、オブジェクトが示す被写体の向きを特定しており、特定した向きも基準特徴量算出部240に供給される。また、オブジェクトが抽出された段階においては、オブジェクト領域推定部250は、次フレーム画像におけるオブジェクトが存在する領域を推定しており、推定した領域を示す情報は基準特徴量算出部240に供給されている。
更新特徴量算出部244は、オブジェクトの領域を示す情報に基づき、オブジェクトの周辺の画像であるオブジェクト周辺画像412を生成する(処理410)。ここでいうオブジェクト周辺画像とは、オブジェクトの領域と、オブジェクトの周囲の領域とを含む領域の画像とする。そして、更新特徴量算出部244は、オブジェクト周辺画像412を用いて、所定の画素数の教師画像422を複数生成する(処理420)。
教師画像422は、正解画像および不正解画像を含む。更新特徴量算出部244は、オブジェクト周辺画像412中のオブジェクトの領域の画像から、複数の正解画像を生成する。また、更新特徴量算出部244は、オブジェクト周辺画像412中のオブジェクト以外の領域を含む領域の画像から、複数の不正解画像を生成する。
処理430において、非更新特徴量選択部246により、識別器402が有する弱識別器の中から、次のフレーム画像においてオブジェクトを抽出するためにオブジェクト抽出部230が使用する識別器が選択される。処理430において選択された識別器は、オブジェクト周辺画像に適応されずに、オブジェクト抽出に用いられる。
なお、以後の説明では、向き特定部260により人物の正面顔のオブジェクトが抽出されたとする。この場合、処理430で選択される弱識別器400、および、処理450で適応される弱識別器400は、いずれも識別器402aを形成する弱識別器400から選択される。もちろん、右横顔のオブジェクトが抽出された場合には識別器402bから選択され、左横顔のオブジェクトが抽出された場合には識別器402cから選択されることは言うまでもない。
このとき、オブジェクトへの適合度が高い弱識別器400が選択されてよい。また、低解像度画像用の弱識別器400aの中から所定数の弱識別器400が選択されてよい。また、低解像度画像用の弱識別器400aに加えて、中解像度画像用の弱識別器400aの中から、所定数の弱識別器400が選択されてよい。
このように、種検出用の弱識別器として機能することができる弱識別器を全てを複製(例えば、弱識別器400aの全てを複製)または部分的に複製(例えば、弱識別器400bの一部を複製)することにより、個別オブジェクトの検出用の弱識別器が形成される。いわば種検出用の弱識別器の完全継承および部分継承により、検出・追跡用の弱識別器の一部が形成される。これにより、完全継承および部分継承される弱識別器で検出されるオブジェクトは、当該弱識別器で検出される種に属していると判定されたことになる。これらの継承される弱識別器は、オフライン学習で事前に構築されていてよい。
一方、個別オブジェクトを識別すべく、各個体の特徴(例えば、目、口などの特徴)を検出する能力を持つ弱識別器が、弱識別器400bの一部および弱識別器400cにより生成される。具体的には、弱識別器400bの一部および弱識別器400cを、個体の特徴を反映すべくオンライン学習(例えば、AdaBoostの手法)により進化させる。進化させられた弱識別器400cには、追跡している複数の個別オブジェクト(例えば、同じ種に属する個別オブジェクト)のそれぞれを識別する能力が、オンライン学習で組み込まれる。
このように、解像度に対応する階層的構造に応じて、弱識別器の継承および進化がなされる。また、識別器の進化の処理は、弱識別器の選択、除外、更新の処理を含む。特に更新処理においては、オンライン機械学習手法で個別オブジェクトの新しい特徴が識別器に組み込まれる。したがって、種の検出用の弱識別器と個別オブジェクト検出用の弱識別器とが連携されるので、個別オブジェクトを高速かつ高精度に検出・追跡することができる。
この進化の処理を画像解析装置110の機能ブロックを用いて説明すると、更新特徴量選択部242の処理により、オブジェクト周辺画像に適応させる弱識別器400を選択する。具体的には、処理440において、識別器セット404に含まれる弱識別器400のそれぞれによりオブジェクト周辺画像に対する判定処理がなされ、識別結果442が算出される。そして、処理450において、識別結果442に基づき、識別器セット464を生成する。
例えば、更新特徴量選択部242による処理により、適応させるべき弱識別器400が選択される。選択された識別器は、オブジェクト周辺画像に適応されてオブジェクト抽出に用いられる。このとき、オブジェクトへの適合度がより低い弱識別器400が、適応させるべき弱識別器としてより優先的に選択されてよい。また、中解像度画像用の弱識別器400bから、所定数の弱識別器400が選択されてよい。また、弱識別器400bからの弱識別器400に加えて、高解像度画像用の弱識別器400cの中から、所定数の弱識別器400が選択されてよい。
ここで、更新特徴量選択部242により選択された弱識別器400は、更新特徴量算出部244による処理により、オブジェクト周辺画像412に適応される。ここでは、教師画像422を用いたオンラインブースティングの手法により、弱識別器400を適応させてよい。そして、特徴量更新部270による処理により、適応された弱識別器460を生成する。
処理450で適応された弱識別器460と、処理430で選択された弱識別器400により、識別器セット464が構築される。なお、処理430で選択された弱識別器400は適応されていないが、次のフレーム画像からのオブジェクト抽出に用いられる弱識別器であるので、便宜上、符号を変えて弱識別器460として示している。
上述したように、弱識別器460aは、いずれも弱識別器400aと同じ識別処理をする弱識別器となる。そして、弱識別器460aのうちの所定数の弱識別器460が、次のフレーム画像からのオブジェクト抽出処理に用いられる。
また、弱識別器460bのうちの一部の弱識別器460は、いずれも弱識別器400bのうちの対応する弱識別器400と同じ識別処理をする弱識別器であってよい。このうちの一部の弱識別器460が、次のフレーム画像からのオブジェクト抽出処理に用いられる。そして、それ以外の弱識別器460は、弱識別器400bのうちの対応する弱識別器400が処理450において適応された弱識別器であってよい。適応された弱識別器は、次のフレーム画像からのオブジェクト抽出処理に用いられる。
また、弱識別器460cのうち更新する弱識別器として選択された弱識別器460は、弱識別器400cのうちの対応する弱識別器400が処理450において適応された弱識別器であって、これらの弱識別器がオブジェクト抽出処理に用いられる。
処理480において、オブジェクト抽出部230は、識別器セット464のうち、オブジェクト抽出処理に用いられるべき弱識別器460を用いて、次のフレーム画像からオブジェクトを抽出する。なお、処理470は、オブジェクト領域推定部250が次のフレーム画像上においてオブジェクトが存在する領域を推定する処理を示している。処理480においては、オブジェクト抽出部230は、処理470において推定された領域の画像である推定領域画像472に対して、識別器セット464に含まれる弱識別器を用いて、オブジェクトの探索・認識処理をする。
以上説明したように、画像解析装置110によると、個別オブジェクトを検出・追跡する識別器を構築する場合に、親の弱識別器から一部を継承する。そして、オンライン学習手法により、他の一部の弱識別器に、個別オブジェクトの特徴を検出する能力が組み込まれる。このように継承と進化の処理をすることにより、種の検出能力を維持しつつ、初期状態の弱識別器からオンライン学習する場合に比べて高い識別能力を持たせることができる。
上述したように、画像解析装置110が有する識別器は、粗い画像からの特徴量に対応する弱識別器および細かい画像からの特徴量に対応する弱識別器が階層的に形成される。また、粗い画像からの特徴量に対応する、種の属性を十分に表すことができる弱識別器を含む形で識別器が形成される。このため、画像解析装置110が有する識別器は、種を検出する識別器として機能することができる。さらに、画像解析装置110によると、追跡の対象となる個別オブジェクトを識別する弱識別器をオンライン学習により進化させることで、識別器に個別オブジェクトの独自の特徴を検出する能力を持たせることができる。これにより、映像シーンにおいて複数のオブジェクトを追跡すべく、個別オブジェクトを検出・識別することができる識別器を構築することができる。
画像解析装置110によると、既に検出されたオブジェクトについては初期状態の弱識別器を用いずに、継承・進化された弱識別器を用いて検出・追跡処理を行う。このため、追跡処理と検出処理とを分離せずに追跡処理と検出処理との間の密接な依存関係を利用することができ、効率的に検出・追跡をすることができる。このため、画像解析装置110によると、識別器の環境への適応能力を高めることができる。
図4は、処理450に関連する処理内容の一例を模式的に示す。識別器502aは、特定のオブジェクトの検出処理に用いられる識別器であるとする。本図を参照して、次のフレーム画像に対するオブジェクト抽出処理に用いられる新たな識別器を構築する場合の処理を説明する。ここでは特に、オブジェクト周辺画像に適応させる弱識別器を構築する処理を中心に説明する。なお、正面顔に対する識別器462aに対する処理が以下に説明されるが、識別器462b、識別器462cに対する処理も同様であることは言うまでもない。
識別器502aは、識別器462aのうち、オブジェクト抽出に実際に用いられる識別器を示す。識別器502aは、弱識別器500aおよび弱識別器500bに分けられる。弱識別器500aは、弱識別器460aのうちのオブジェクト抽出に用いられる弱識別器460と、弱識別器460bのうちオブジェクト抽出に用いられ、オブジェクト周辺画像に適応され得ない弱識別器460とを示している。弱識別器500bは、オブジェクト周辺画像に適応され得る弱識別器を示している。
弱識別器500aは、高解像度用の弱識別器460aの一部と、中解像度用の弱識別器460bの一部とを含む。特定のオブジェクトが抽出された場合、オブジェクト抽出部230は、弱識別器500aを用いて、後続の1以上のフレーム画像から特定のオブジェクトを抽出する。なお、撮像された人物の顔の向きが大きく変わった場合には、識別器462bなど、顔の向きに対応する他の識別器462が用いられる。この場合においても、特定の顔向きのオブジェクトが抽出された後は、後続の1以上のフレーム画像から特定の顔向き用に構築された識別器が用いられてよい。
このように、人物検出用の弱識別器400aから選択された、特定のオブジェクトを抽出するのに適した組み合わせの低解像度用および一部の中解像度用の弱識別器500aが、後続の1以上のフレーム画像からのオブジェクト抽出処理に用いられる。このため、他のオブジェクトを誤検出する確率を低減しつつ、演算量を低減することができる。
続いて、弱識別器500bに対する処理を説明する。弱識別器500bは、P個の弱識別器500により形成される。このP個の弱識別器500により、個別オブジェクトを識別する能力が識別器に与えられる。処理510において、更新特徴量選択部242による処理により、除外するN個の弱識別器が選択される。具体的には、オブジェクトの画像に対する適合度が小さいものから順に、N個の弱識別器が除外する弱識別器として選択されてよい。弱識別器500bに示されるように、弱識別器500bは、(P−N)個の弱識別器520Aと、N個の弱識別器520Bとに分けられる。処理530における除外処理で弱識別器520Bが除外することにより、(P−N)個の弱識別器520Aが残る。
このように、P個の特徴量に対応する弱識別器について、個別オブジェクトで識別性能が評価される。評価結果に基づきP個の弱識別器の識別性能がランク付けされ、その中から識別性能がより低いN個の弱識別器が除外される。
次に、次のフレーム画像からのオブジェクト抽出処理に用いられる弱識別器562を識別器402aから生成する処理を説明する。処理550において、更新特徴量算出部244による処理により、追加するM個の弱識別器の候補を、識別器402aに含まれる弱識別器400の中から選択する。この場合、オブジェクトの画像への適合度が高い順にM個の弱識別器400が選択されてよい。選択された弱識別器は、弱識別器552として示されている。
このように、現フレーム画像における個別オブジェクトを評価データとして用いて、M個の特徴量に対応する弱識別器を、識別器402aに含まれる弱識別器400の中から選択する。なお、継承される弱識別器400aまたは弱識別器400bの中から、識別性能の評価値が高いM個の特徴量を選択して、選択したM個の特徴量に対応するM個の弱識別器を弱識別器400cの中から選択してもよい。ここで、他の種のオブジェクトを検出すべく用いられる弱識別器を含めて評価して、他の種のオブジェクトを検出すべく用いられる弱識別器を少なくとも含むM個の弱識別器を選択してもよい。
処理560においては、選択された弱識別器552と、教師画像422とを用いて、オンラインブースティングの手法により、次のフレーム画像からのオブジェクト抽出処理に用いられる弱識別器としてN個の弱識別器562が決定される。
具体的には、特定の弱識別器552において、教師画像422のそれぞれから特徴量がそれぞれ抽出される。抽出された特徴量と基準特徴量とを比較することにより、教師画像422が正解画像であるか否かを特定の弱識別器552で判定した判定値が、教師画像422のそれぞれについて定まる。また、教師画像422が正解画像であるか否かを示す教師信号と当該判定値との間の誤差値が、教師画像422のそれぞれについて定まる。そして、基準特徴量算出部240は、教師画像422についてそれぞれ定まる誤差値を重み付け加重した値を最小化する基準特徴量を算出する。算出された基準特徴量を、特定の弱識別器552で判定に用いる基準特徴量とすることで、特定の弱識別器552を教師画像に適応させることができる。
同様にして、複数の弱識別器552のそれぞれについて上記重み付き誤差値を最小化する基準特徴量を算出することで、複数の弱識別器552をそれぞれ教師画像422に適応させることができる。更新特徴量選択部242は、重み付き誤差がより小さいN個の弱識別器552を、次のフレーム画像からのオブジェクト抽出処理に用いられる弱識別器562として、より優先して選択する。このように、抽出対象のオブジェクトの周辺画像を教師画像としてオンライン学習することにより、M個の弱識別器552の中からN個の有効な弱識別器562が選択される。
更新特徴量算出部244による処理により、(P−N)個の弱識別器520Aと、N個の弱識別器562とが結合されて、P個の弱識別器が形成される。形成された弱識別器と、弱識別器500aとにより、次のフレーム画像からのオブジェクト抽出処理に実際に用いられる識別器が構築される。これにより、個別オブジェクトの検出・追跡に有効な識別器が形成される。オブジェクト抽出部230は、構築された識別器を用いて次のフレーム画像からオブジェクトを抽出する。
そして、更なる次のフレーム画像からオブジェクトを抽出するための識別器は、現在のフレーム画像で構築された識別器を本図の識別器502とみなして本図で説明した処理をすることで構築される。そしてこのような処理を繰り返すことで、動画に含まれる複数のフレーム画像から特定のオブジェクトを検出・追跡することができる。
図5は、正解画像および不正解画像の画像領域の一例を示す。フレーム画像600上の領域610は、フレーム画像600から抽出されたオブジェクトが存在する領域を示す。領域620は、抽出されたオブジェクトの周囲の領域を示す。領域610および領域620の領域の画像は、図3および図4に関連して説明したオブジェクト周辺画像に該当する。
教師画像422を生成する場合、更新特徴量算出部244は、領域610に対応する画像から、複数の正解画像を生成する。また、更新特徴量算出部244は、領域620に対応する画像から、複数の不正解画像を生成する。複数の正解画像および複数の不正解画像を用いた学習により、識別器をフレーム周辺画像に適応させることができる。
図6は、正解画像および不正解画像の画像領域の他の一例を示す。フレーム画像700−1、フレーム画像700−2、フレーム画像700−3は、この順で撮像された連続するフレーム画像であるとする。更新特徴量算出部244は、フレーム画像700−1上およびフレーム画像700−2上に、フレーム画像700−3からオブジェクトを抽出するための教師画像422を生成する。
フレーム画像700−2上の領域710bは、図5で説明した領域610に該当しており、領域710bから複数の正解画像が生成される。領域710bは、抽出されたオブジェクトの周辺領域(例えば、抽出されたオブジェクトの領域より2〜3画素広い領域)を含んでよい。周辺領域を含む画像も正解画像の画像領域とすることで、追跡しているオブジェクトの変動に対応することができる。
フレーム画像700−2上の領域720aは、図5で説明した領域620に該当しており、領域720aから複数の不正解画像が生成される。領域720aは、オブジェクト周辺の背景となる画像領域となる。不正解画像の画像領域は、追跡しているオブジェクトをフレーム画像700−2において検出する領域に設定されてよい。
フレーム画像700−1上の領域710aは、フレーム画像700−1から抽出されたオブジェクトの領域であり、更新特徴量算出部244における処理において、領域710aから複数の正解画像が生成される。なお、フレーム画像700−1上の領域710aから抽出されたオブジェクトと、フレーム画像700−2上の領域710bから抽出されたオブジェクトは、ともに同じ被写体のオブジェクトであるとする。
また、フレーム画像700−2上の領域720bは、フレーム画像700−2において他のオブジェクトが抽出された領域であり、更新特徴量算出部244における処理において、領域720bから複数の不正解画像が生成される。追跡しているオブジェクトの近くの他のオブジェクトの領域720bから不正解画像が生成されてよい。このように他のオブジェクトの領域から不正解画像を生成することにより、他のオブジェクトを特定のオブジェクトとして検出してしまう確率を低減することができる。
また、領域720cは、領域720aに存在しているオブジェクトが、次のフレーム画像700−3において存在すると予測される領域を示している。領域720cは、オブジェクト領域推定部250により、オブジェクトの動きに基づき推定される。更新特徴量算出部244における処理により、フレーム画像700−2上の領域720cから、複数の不正解画像が生成される。
フレーム画像700−2上の領域720cには、フレーム画像700−3における特定のオブジェクトの周囲に存在する被写体が撮像されている確率が高い。したがって、フレーム画像700−2上の領域720cを不正解画像とすることで、フレーム画像700−3から、追跡対象のオブジェクトの近傍に存在する他の被写体のオブジェクトを追跡対象のオブジェクトとして検出してしまう確率を低減することができる。
なお、オブジェクト抽出部230は、フレーム画像700−3の領域720cから、オブジェクトを抽出してもよい。つまり、オブジェクト抽出部230がオブジェクトを抽出する抽出対象の領域と、不正解画像を生成する対象の領域とは、画像領域上の同じ領域であってよい。なお、不正解画像を生成する対象の領域は、抽出対象の領域より小さくてもよい。
図5および図6に関連して説明したように、現フレームにおけるオブジェクト画像だけでなく、前フレームにおけるオブジェクトの画像も正解画像として用いる。また、不正解画像としては、オブジェクトの周辺領域の背景画像だけでなく、次のフレームのタイミングでのオブジェクトの位置近傍の背景画像、および、追跡対象のオブジェクトの近傍に位置する他のオブジェクトの画像をも用いる。また、画像解析装置110によると、フレーム単位での学習ではなく、オブジェクトの移動、オブジェクトパターンの変化も含めてオンライン学習に組み込むことができる。このため、環境変動に対する識別器の対応能力を高めることができる。
なお、個別オブジェクトの識別用の弱識別器を生成するオンライン学習処理は、毎フレーム行わなくてよい。動画像における追跡は高速でリアルタイム性が要求される。リアルタイム性を確保することを目的として、オンライン学習の頻度も適切に変えてもよい。
例えば、オブジェクトが静止している場合、または、オブジェクトの動き量(変化量)が予め定められた値より小さい場合には、オンライン学習をしなくてよい。周囲の環境が実質的に変化していなかったり、オブジェクトが実質的に変化していない場合には、オンライン学習せずともオブジェクトを検出・追跡することができる。
他にも、個別オブジェクトの識別用の弱識別器で識別して得られたオブジェクトの類似度が予め定められた第1の値より高い場合には、オンライン学習をしなくてよい。現在の識別器により十分に高い類似度が判定された場合には、個別オブジェクトの特徴はすでに弱識別器に組み込まれていることを意味しているので、オンライン学習しなくても個別オブジェクトを十分に検出・追跡することができる。他にも、上記類似度が予め定められた第2の値(第1の値より小さい値とする)より低い場合にも、オンライン学習をしなくてもよい。類似度が著しく低いということは、オブジェクトがオクルージョンされていたり、誤検出されている可能性が高いことを意味している。この場合にオンライン学習すると、オクルージョンされなくなったオブジェクトを検出・追跡することができなくなってしまう場合がある。このため、類似度が著しく低い場合には、インスタンス識別器の安定性から考えて、学習を行わないことが望ましいといえる。
以上説明したように、画像解析装置110によると、オブジェクトの検出処理とオブジェクトの認識処理とを一括して行うことができる識別器を構築することができる。このため、これらの処理に要する演算量を著しく低減することができる。
なお、図4から図6などにおいては、画像解析装置110の機能および動作を、識別器あるいは弱識別器による処理を例に挙げて説明した。上述のように、特徴量抽出部210、適合度算出部220、特徴量記憶部280、およびオブジェクト抽出部230の機能および動作は、弱識別器の機能および動作とみなすことができる。そして、基準特徴量を適応および更新は、識別器の選択および適応とみなすことができる。したがって、画像解析装置110の各構成要素が、基準特徴量に関して以下のように動作することで、図4から図6などにおいて識別器に関連して具体的に説明した機能と等価な機能を実現することができる。
すなわち、以下に説明する動作により、画像解析装置110は、動画から特定のオブジェクトを抽出することができる。オブジェクトの抽出とは、オブジェクト毎に位置を特定することにより追跡することを含む。特徴量記憶部280は、種類が異なる複数の基準特徴量を記憶している。特徴量抽出部210は、動画に含まれる複数のフレーム画像のそれぞれから、種類が異なる複数の特徴量を抽出する。オブジェクト抽出部230は、特徴量記憶部280が記憶している複数の基準特徴量に対する抽出された複数の特徴量の適合度に基づき、フレーム画像からオブジェクトを抽出する。
基準特徴量算出部240は、特徴量記憶部280が記憶している基準特徴量より、抽出されたオブジェクトの特徴量に種類に応じて予め定められた強度で適応させた複数の基準特徴量を算出する。そして、特徴量更新部270は、特徴量記憶部280が記憶している複数の基準特徴量を、基準特徴量算出部240が算出した基準特徴量で更新する。
なお、基準特徴量算出部240は、適合度がより大きい種類ほど、抽出されたオブジェクトの特徴量により大きい強度で適応させた複数の基準特徴量を算出してよい。また、基準特徴量算出部240は、抽出されたオブジェクトの特徴量に、種類に応じた頻度で適応させた複数の基準特徴量を算出してよい。
特徴量記憶部280は、異なる解像度の画像から抽出された複数の特徴量に対応する複数の基準特徴量を記憶している。そして、特徴量抽出部210は、異なる解像度の画像から複数の特徴量を抽出する。基準特徴量算出部240は、抽出されたオブジェクトの特徴量に、解像度に応じた強度で適応させた複数の基準特徴量を算出する。基準特徴量算出部240は、抽出されたオブジェクトの特徴量に、解像度が大きいほどより大きい強度で適応させた複数の基準特徴量を算出してよい。なお、基準特徴量算出部240は、抽出されたオブジェクトの特徴量に適応させた、予め定められた値より大きい解像度に対応する複数の基準特徴量を算出してよい。
基準特徴量算出部240の動作について、更新特徴量選択部242は、非更新特徴量選択部246が選択した基準特徴量の種類以外の種類のうち、適合度がより大きい種類をより優先して選択する。更新特徴量算出部244は、更新特徴量選択部242が選択した種類について、抽出されたオブジェクトの特徴量に適応させた1以上の基準特徴量を算出する。更新特徴量算出部244は、適応させた複数の基準特徴量のうち、抽出されたオブジェクトの特徴量への適応度がより大きい基準特徴量を、適応させた基準特徴量としてより優先して選択する。なお、適応度としては、学習処理における学習誤差を例示することができる。
なお、オブジェクト抽出部230は、更新され得る予め定められたP種類の基準特徴量を少なくとも用いて、オブジェクトを抽出してよい。そして、更新特徴量算出部244は、適応度がより大きいN種類の基準特徴量を、適応させた基準特徴量としてより優先して選択してよい。そして、非更新特徴量選択部246は、オブジェクト抽出部230がフレーム画像からオブジェクトを抽出する場合に用いた、適合度が予め定められた値以上である(P−N)種類の基準特徴量を、適応させた基準特徴量とする。この場合に、適応度の順に選択したN種類の特徴量を、基準特徴量としてよい。
そして、更新特徴量選択部242は、適合度がより大きい、Nより多いM種類の特徴量の種類を選択する。このとき、適合度が高い順にM種類の特徴量が選択されてよい。基準特徴量算出部240は、更新特徴量選択部242が選択したM種類について、抽出されたオブジェクトの特徴量に適応させた基準特徴量を算出する。そして基準特徴量算出部240は、算出したM種類の基準特徴量のうち、適応度がより大きいN種類の基準特徴量を、適応させた基準特徴量としてより優先して選択してよい。
なお、非更新特徴量選択部246は、オブジェクト抽出部230がフレーム画像からオブジェクトを抽出する場合に用いた、所定の条件に適合する1以上の種類の基準特徴量を、適応させた基準特徴量としてよい。つまり、所定の条件に適合する1以上の種類の基準特徴量は更新されずに、オブジェクト抽出部230により次のフレーム画像におけるオブジェクト抽出処理に用いられる。
更新しない特徴量を選択する場合には、非更新特徴量選択部246は、オブジェクト抽出部230がフレーム画像からオブジェクトを抽出する場合に用いた、適合度が予め定められた値以上である1以上の種類の基準特徴量を、適応させた基準特徴量としてよい。また、非更新特徴量選択部246は、教師画像422に基づき、適応させた基準特徴量を選択してよい。具体的には、非更新特徴量選択部246は、教師画像422に基づく学習により、正解画像に対して正解を判定することができる確率が予め定められた値より高い組み合わせの基準特徴量を選択してよい。また、非更新特徴量選択部246は、さらに、教師画像422に基づく学習により、不正解画像に対して不正解を判定することができる確率が予め定められた値より高い組み合わせの基準特徴量を選択してもよい。
特徴量を適応させる処理においては、基準特徴量算出部240は、抽出されたオブジェクトを含む領域の画像を正解画像として学習して得られた基準特徴量を、適応させた基準特徴量として算出してよい。また、基準特徴量算出部240は、抽出されたオブジェクト以外の領域を領域の画像を不正解画像として学習して得られた基準特徴量を、適応させた基準特徴量として算出してよい。
なお、基準特徴量算出部240は、フレーム画像における抽出された特定のオブジェクトを含む領域の画像を正解画像とすることにより、基準特徴量を算出してよい。基準特徴量算出部240は、フレーム画像の前のフレーム画像から抽出された特定のオブジェクトを含む領域の画像を正解画像とすることにより、基準特徴量を算出する。ここで、オブジェクト抽出部230は、特徴量抽出部210が次のフレーム画像から抽出した特徴量の、基準特徴量に対する適合度に基づき、次のフレーム画像から特定のオブジェクトを抽出してよい。
基準特徴量算出部240は、フレーム画像における抽出された特定のオブジェクトを含まない領域の画像を不正解画像とすることにより、基準特徴量を算出してよい。また、基準特徴量算出部240は、フレーム画像において抽出された特定のオブジェクトから予め定められた距離離れた領域の画像を不正解画像とすることにより、基準特徴量を算出してよい。また、基準特徴量算出部240は、フレーム画像から抽出された他のオブジェクトを含む領域の画像を不正解画像とすることにより、基準特徴量を算出してよい。
オブジェクト領域推定部250は、動画から抽出された特定のオブジェクトの移動量に基づき、他のフレーム画像において特定のオブジェクトが存在すべき領域を推定する。基準特徴量算出部240は、他のフレーム画像におけるオブジェクト領域推定部250が推定した領域を含む画像を不正解画像とすることにより、基準特徴量を算出してよい。
なお、適合度算出部220は、基準特徴量に対する特徴量抽出部210が抽出した特徴量の適合度を、種類毎に算出する。そして、オブジェクト抽出部230は、種類毎に算出された適合度に基づき、複数のフレーム画像のそれぞれからオブジェクトを抽出する。この場合に、オブジェクト抽出部230は、予め定められた適合度より大きい適合度が算出された特徴量の数が予め定められた値より多い場合に、特定のオブジェクトとして抽出してよい。他にも、オブジェクト抽出部230は、適合度を所定の重みづけで重みづけした合計値が予め定められた値より大きい場合に、特定のオブジェクトとして抽出してもよい。
なお、特徴量記憶部280は、被写体の向きに対応づけて複数の基準特徴量を記憶している。特徴量抽出部210が動画に含まれる複数のフレーム画像のそれぞれから複数の特徴量を抽出する。オブジェクト抽出部230は、被写体の向きに対応づけて記憶された複数の基準特徴量に対する抽出された複数の特徴量の適合度に基づき、フレーム画像から特定被写体のオブジェクトを抽出する。
向き特定部260は、特定被写体の向きを特定する。このとき、基準特徴量に対する適合度に基づき、向きを特定してよい。例えば、向き特定部260は、特徴量記憶部280が記憶している複数の特徴量のうち、予め定められた値より大きい適合度が算出された基準特徴量に対応づけて特徴量記憶部280が記憶している被写体の向きを特定被写体の向きとして特定してよい。
このように、向き特定部260は、予め定められた解像度より小さい解像度の画像から特徴量抽出部210が抽出した特徴量を、同解像度の基準特徴量とそれぞれ比較することにより、被写体の向きのそれぞれについて適合度を算出してよい。そして、向き特定部260は、より大きい適合度が算出された基準特徴量に対応づけられた被写体の向きを、特定被写体の向きとして特定してよい。
そして、基準特徴量算出部240は、特徴量記憶部280が記憶している基準特徴量より、抽出されたオブジェクトに適応させた基準特徴量を算出する。特徴量更新部270は、特徴量記憶部280が特定された向きに対応づけて記憶している基準特徴量を、基準特徴量算出部240が算出した基準特徴量で更新してよい。これにより、被写体の向きに応じた適切な組み合わせの基準特徴量を、学習により強化していくことができる。
以上説明したように、画像解析装置110においては、検出処理と追跡処理との密接な関連性を利用して、クラス識別器に継承および進化の概念を導入することにより、種を検出する検出器としてのクラス識別器からオブジェクト追跡用のクラス識別器が構築される。進化を実現するオンライン学習により、環境変動への対応能力を識別器に動的に組み込むことができる。このため、画像解析装置110により実現される識別器によると、人物同士を識別したり、環境変動に対応することができる。
例えば、画像解析装置110によると、被写体の姿勢などが変動することによるオブジェクトの形状の変動、照明変動および背景変動を含む被写体が存在する環境の変動、撮像性能の変動(例えば、コントラストの変動、ぶれなどの解像性能の変動)に対しても、適切に検出・追跡をすることができる。また、オブジェクト同士が重なったり、周囲物により遮蔽されるなどオクルージョンが生じ得る環境においても、適切に検出・追跡をすることができる。また、撮像装置100自身が移動する場合にも適切に検出・追跡することができる。また、複数のオブジェクトを追跡する場合においても各オブジェクトを適切に区別することができる。また、個別オブジェクトを容易に検出することができるので、複数の撮像装置100間における協調・連携も容易となる。また、オブジェクトの移動の規則性が比較的に低い場合であったり、オブジェクトの移動を推測する情報が不足している場合においても、適切に検出・追跡することができる。また、映像ノイズが生じた場合であっても適切に検出・追跡することができる。このように、画像解析装置110によると、このような環境変動に対して安定かつ高精度に個別オブジェクトの抽出を行うことができる。
以上図1から図6に関連して説明したように、画像処理システム10によると、特定の顧客を正確に追跡することができるので、顧客情報を正確に分析したり、当該顧客が興味を持った商品を正確に分析したりすることができる。このように、画像処理システム10は、店舗用の画像処理システムとして機能することができる。
その他、画像処理システム10は多様な用途に適用することができる。例えば、画像処理システム10によると、顧客が興味を持った商品の情報に基づき広告コンテンツを顧客に提供することもでき、この場合、画像処理システム10はサイネージシステムとして機能することができる。また、画像処理システム10は、不審者が注目したものを特定する監視システムあるいは防犯システムとして機能することもできる。また、画像処理システム10は、特定の被写体を認証する認証システムとして機能することができる。
また、画像解析装置110は、異なる店舗空間160の動画を取得して、解析してもよい。これにより、顧客の動向などを店舗間で比較することができる。また、上記においては店舗用のシステムとして画像処理システム10の機能および動作を説明したが、画像処理システム10の用途としては、店舗用以外にも種々の用途に利用することができる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
一実施形態における画像処理システム10の一例を示す図である。 画像解析装置110のブロック構成の一例を示す図である。 画像解析装置110における処理内容の一例を模式的に示す図である。 処理450における処理内容の一例を模式的に示す図である。 正解画像および不正解画像の画像領域の一例を示す図である。 正解画像および不正解画像の画像領域の他の一例を示す図である。
10 画像処理システム
90 記憶媒体
100 撮像装置
110 画像解析装置
112 解析結果データベース
150 通信ネットワーク
160 店舗空間
162 商品棚
164 人物
170 店舗サーバ
180 端末装置
200 画像取得部
210 特徴量抽出部
220 適合度算出部
230 オブジェクト抽出部
240 基準特徴量算出部
242 更新特徴量選択部
244 更新特徴量算出部
246 非更新特徴量選択部
250 オブジェクト領域推定部
260 向き特定部
270 特徴量更新部
280 特徴量記憶部
290 出力部
400 弱識別器
402 識別器
404 識別器セット
410、420、430、440、450、470、480、510、530、550、560 処理
412 オブジェクト周辺画像
422 教師画像
442 識別結果
460 弱識別器
462 識別器
464 識別器セット
472 推定領域画像
500、520、552、562 弱識別器
502 識別器
600、700 フレーム画像
610、620、710、720 領域

Claims (17)

  1. 動画から特定のオブジェクトを抽出する画像解析装置であって、
    種類が異なる複数の基準特徴量を記憶する特徴量記憶部と、
    動画に含まれる複数の動画構成画像のそれぞれから、種類が異なる複数の特徴量を抽出する特徴量抽出部と、
    前記特徴量記憶部が記憶している複数の基準特徴量に対する前記抽出された複数の特徴量の適合度に基づいて、前記動画構成画像からオブジェクトを抽出するオブジェクト抽出部と、
    前記特徴量記憶部が記憶している基準特徴量より、前記抽出されたオブジェクトの特徴量に前記種類に応じて予め定められた強度で適応させた複数の基準特徴量を算出する基準特徴量算出部と、
    前記特徴量記憶部が記憶している複数の基準特徴量を、前記基準特徴量算出部が算出した基準特徴量で更新する特徴量更新部と
    を備え、
    前記特徴量抽出部は、異なる解像度の画像から複数の特徴量を抽出し、
    前記特徴量記憶部は、異なる解像度の画像から抽出された複数の特徴量に対応する複数の基準特徴量を記憶しており、
    前記基準特徴量算出部は、前記抽出されたオブジェクトの特徴量に、前記解像度に応じた強度で適応させた複数の基準特徴量を算出する
    画像解析装置。
  2. 前記基準特徴量算出部は、前記適合度がより大きい種類ほど、前記抽出されたオブジェクトの特徴量により大きい強度で適応させた複数の基準特徴量を算出する
    請求項1に記載の画像解析装置。
  3. 前記基準特徴量算出部は、前記抽出されたオブジェクトの特徴量に、前記種類に応じた頻度で適応させた複数の基準特徴量を算出する
    請求項1または2に記載の画像解析装置。
  4. 前記基準特徴量算出部は、前記抽出されたオブジェクトの特徴量に、前記解像度が大きいほどより大きい強度で適応させた複数の基準特徴量を算出する
    請求項1から3のいずれか一項に記載の画像解析装置。
  5. 前記基準特徴量算出部は、前記抽出されたオブジェクトの特徴量に適応させた、予め定められた値より大きい解像度に対応する複数の基準特徴量を算出する
    請求項に記載の画像解析装置。
  6. 前記基準特徴量算出部は、
    前記オブジェクト抽出部が前記動画構成画像からオブジェクトを抽出する場合に用いた、所定の条件に適合する1以上の種類の基準特徴量を、前記適応させた基準特徴量とする非更新特徴量選択部
    を有する請求項1からのいずれか一項に記載の画像解析装置。
  7. 動画から特定のオブジェクトを抽出する画像解析装置であって、
    種類が異なる複数の基準特徴量を記憶する特徴量記憶部と、
    動画に含まれる複数の動画構成画像のそれぞれから、種類が異なる複数の特徴量を抽出する特徴量抽出部と、
    前記特徴量記憶部が記憶している複数の基準特徴量に対する前記抽出された複数の特徴量の適合度に基づいて、前記動画構成画像からオブジェクトを抽出するオブジェクト抽出部と、
    前記特徴量記憶部が記憶している基準特徴量より、前記抽出されたオブジェクトの特徴量に前記種類に応じて予め定められた強度で適応させた複数の基準特徴量を算出する基準特徴量算出部と、
    前記特徴量記憶部が記憶している複数の基準特徴量を、前記基準特徴量算出部が算出した基準特徴量で更新する特徴量更新部と
    を備え、
    前記基準特徴量算出部は、
    前記オブジェクト抽出部が前記動画構成画像からオブジェクトを抽出する場合に用いた、所定の条件に適合する1以上の種類の基準特徴量を、前記適応させた基準特徴量とする非更新特徴量選択部と、
    前記非更新特徴量選択部が選択した基準特徴量の種類以外の種類のうち、前記適合度がより大きい種類をより優先して選択する更新特徴量選択部と、
    前記更新特徴量選択部が選択した種類について、前記抽出されたオブジェクトの特徴量に適応させた1以上の基準特徴量を算出する更新特徴量算出部と
    を有する画像解析装置。
  8. 前記非更新特徴量選択部は、前記オブジェクト抽出部が前記動画構成画像からオブジェクトを抽出する場合に用いた、前記適合度が予め定められた値以上である1以上の種類の基準特徴量を、前記適応させた基準特徴量とする
    請求項6または7に記載の画像解析装置。
  9. 前記更新特徴量算出部は、前記適応させた複数の基準特徴量のうち、抽出されたオブジェクトの特徴量への適応度がより大きい基準特徴量を、前記適応させた基準特徴量としてより優先して選択する
    請求項に記載の画像解析装置。
  10. 前記オブジェクト抽出部は、更新され得る予め定められたP種類の基準特徴量を少なくとも用いて、オブジェクトを抽出し、
    前記更新特徴量算出部は、前記適応度がより大きいN種類の基準特徴量を、前記適応させた基準特徴量としてより優先して選択し、
    前記非更新特徴量選択部は、前記オブジェクト抽出部が前記動画構成画像からオブジェクトを抽出する場合に用いた、前記適合度が予め定められた値以上である(P−N)種類の基準特徴量を、前記適応させた基準特徴量とする
    請求項に記載の画像解析装置。
  11. 前記更新特徴量選択部は、前記適合度がより大きい、Nより多いM種類の特徴量の種類を選択し、
    前記基準特徴量算出部は、前記更新特徴量選択部が選択したM種類について、前記抽出されたオブジェクトの特徴量に適応させた基準特徴量を算出し、算出したM種類の基準特徴量のうち、前記適応度がより大きいN種類の基準特徴量を、前記適応させた基準特徴量としてより優先して選択する
    請求項10に記載の画像解析装置。
  12. 前記基準特徴量算出部は、前記抽出されたオブジェクトを含む領域の画像を正解画像として学習して得られた基準特徴量を、前記適応させた基準特徴量として算出する
    請求項1から11のいずれか一項に記載の画像解析装置。
  13. 前記基準特徴量算出部は、前記抽出されたオブジェクト以外の領域を領域の画像を不正解画像として学習して得られた基準特徴量を、前記適応させた基準特徴量として算出する
    請求項1から12のいずれか一項に記載の画像解析装置。
  14. 前記基準特徴量に対する前記特徴量抽出部が抽出した特徴量の適合度を、前記種類毎に算出する適合度算出部
    をさらに備え、
    前記オブジェクト抽出部は、前記種類毎に算出された適合度に基づいて、複数の動画構成画像のそれぞれからオブジェクトを抽出する
    請求項1から11のいずれか一項に記載の画像解析装置。
  15. コンピュータを、請求項1から14のいずれか一項に記載の画像解析装置として機能させるためのプログラム。
  16. 動画から特定のオブジェクトを抽出する画像解析方法であって、
    種類が異なる複数の基準特徴量を記憶する特徴量記憶段階と、
    動画に含まれる複数の動画構成画像のそれぞれから、種類が異なる複数の特徴量を抽出する特徴量抽出段階と、
    前記特徴量記憶段階において記憶された複数の基準特徴量に対する前記抽出された複数の特徴量の適合度に基づいて、前記動画構成画像からオブジェクトを抽出するオブジェクト抽出段階と、
    前記特徴量記憶段階において記憶された基準特徴量より、前記抽出されたオブジェクトの特徴量に前記種類に応じて予め定められた強度で適応させた複数の基準特徴量を算出する基準特徴量算出段階と、
    前記特徴量記憶段階において記憶された複数の基準特徴量を、前記基準特徴量算出段階において算出された基準特徴量で更新する特徴量更新段階と
    を備え
    前記特徴量抽出段階は、異なる解像度の画像から複数の特徴量を抽出し、
    前記特徴量記憶段階は、異なる解像度の画像から抽出された複数の特徴量に対応する複数の基準特徴量を記憶しており、
    前記基準特徴量算出段階は、前記抽出されたオブジェクトの特徴量に、前記解像度に応じた強度で適応させた複数の基準特徴量を算出する
    画像解析方法。
  17. 動画から特定のオブジェクトを抽出する画像解析方法であって、
    種類が異なる複数の基準特徴量を記憶する特徴量記憶段階と、
    動画に含まれる複数の動画構成画像のそれぞれから、種類が異なる複数の特徴量を抽出する特徴量抽出段階と、
    前記特徴量記憶段階において記憶された複数の基準特徴量に対する前記抽出された複数の特徴量の適合度に基づいて、前記動画構成画像からオブジェクトを抽出するオブジェクト抽出段階と、
    前記特徴量記憶段階において記憶された基準特徴量より、前記抽出されたオブジェクトの特徴量に前記種類に応じて予め定められた強度で適応させた複数の基準特徴量を算出する基準特徴量算出段階と、
    前記特徴量記憶段階において記憶された複数の基準特徴量を、前記基準特徴量算出段階において算出された基準特徴量で更新する特徴量更新段階と
    を備え、
    前記基準特徴量算出段階は、
    前記オブジェクト抽出段階において前記動画構成画像からオブジェクトを抽出する場合に用いた、所定の条件に適合する1以上の種類の基準特徴量を、前記適応させた基準特徴量とする非更新特徴量選択段階と、
    前記非更新特徴量選択段階において選択された基準特徴量の種類以外の種類のうち、前記適合度がより大きい種類をより優先して選択する更新特徴量選択段階と、
    前記更新特徴量選択段階において選択された種類について、前記抽出されたオブジェクトの特徴量に適応させた1以上の基準特徴量を算出する更新特徴量算出段階と
    を有する画像解析方法。
JP2009178442A 2009-07-30 2009-07-30 画像解析装置、画像解析方法およびプログラム Active JP5261312B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009178442A JP5261312B2 (ja) 2009-07-30 2009-07-30 画像解析装置、画像解析方法およびプログラム
US12/838,238 US8472668B2 (en) 2009-07-30 2010-07-16 Image analyzing apparatus, image analyzing method, and computer readable medium
CN201010243310.8A CN101989327B (zh) 2009-07-30 2010-07-30 图像分析装置及图像分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009178442A JP5261312B2 (ja) 2009-07-30 2009-07-30 画像解析装置、画像解析方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2011034244A JP2011034244A (ja) 2011-02-17
JP5261312B2 true JP5261312B2 (ja) 2013-08-14

Family

ID=43527062

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009178442A Active JP5261312B2 (ja) 2009-07-30 2009-07-30 画像解析装置、画像解析方法およびプログラム

Country Status (3)

Country Link
US (1) US8472668B2 (ja)
JP (1) JP5261312B2 (ja)
CN (1) CN101989327B (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5789128B2 (ja) * 2011-05-26 2015-10-07 キヤノン株式会社 画像処理装置、画像データの処理方法およびプログラム
JP5485954B2 (ja) * 2011-09-06 2014-05-07 東芝テック株式会社 店舗システム及びプログラム
JP5895629B2 (ja) * 2012-03-15 2016-03-30 オムロン株式会社 画像処理装置、画像処理方法、制御プログラムおよび記録媒体
JP5612645B2 (ja) * 2012-09-06 2014-10-22 東芝テック株式会社 情報処理装置及びプログラム
RU2615164C2 (ru) * 2013-02-26 2017-04-04 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ и устройство для передачи сигнала обнаружения для связи от устройства к устройству в системе беспроводной связи
JP6160196B2 (ja) * 2013-04-15 2017-07-12 オムロン株式会社 識別器更新装置、識別器更新プログラム、情報処理装置、および識別器更新方法
US10083368B2 (en) * 2014-01-28 2018-09-25 Qualcomm Incorporated Incremental learning for dynamic feature database management in an object recognition system
JP6320112B2 (ja) * 2014-03-27 2018-05-09 キヤノン株式会社 情報処理装置、情報処理方法
JP6626319B2 (ja) * 2015-11-18 2019-12-25 キヤノン株式会社 符号化装置、撮像装置、符号化方法、及びプログラム
JP6976270B2 (ja) 2016-04-08 2021-12-08 オービタル インサイト インコーポレイテッド 地理的領域におけるコンテナ内に格納された量の遠隔決定
CN107305636A (zh) * 2016-04-22 2017-10-31 株式会社日立制作所 目标识别方法、目标识别装置、终端设备和目标识别系统
US10726573B2 (en) 2016-08-26 2020-07-28 Pixart Imaging Inc. Object detection method and system based on machine learning
CN107786867A (zh) * 2016-08-26 2018-03-09 原相科技股份有限公司 基于深度学习架构的图像辨识方法及系统
JP6792195B2 (ja) * 2016-09-12 2020-11-25 日本電気株式会社 画像処理装置
US10706561B2 (en) * 2017-12-21 2020-07-07 612 Authentic Media Systems and methods to track objects in video
JP6760318B2 (ja) * 2018-03-14 2020-09-23 オムロン株式会社 顔画像識別システム、識別器生成装置、識別装置、画像識別システム、及び識別システム
JP2023046978A (ja) * 2021-09-24 2023-04-05 富士フイルムビジネスイノベーション株式会社 照合装置及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6393137B1 (en) * 1999-06-17 2002-05-21 Raytheon Company Multi-resolution object classification method employing kinematic features and system therefor
US6618490B1 (en) * 1999-09-16 2003-09-09 Hewlett-Packard Development Company, L.P. Method for efficiently registering object models in images via dynamic ordering of features
JP4599509B2 (ja) * 2004-09-08 2010-12-15 独立行政法人理化学研究所 自己進化型パターン認識システム
WO2007091243A2 (en) * 2006-02-07 2007-08-16 Mobixell Networks Ltd. Matching of modified visual and audio media

Also Published As

Publication number Publication date
US20110026810A1 (en) 2011-02-03
CN101989327B (zh) 2015-04-01
US8472668B2 (en) 2013-06-25
CN101989327A (zh) 2011-03-23
JP2011034244A (ja) 2011-02-17

Similar Documents

Publication Publication Date Title
JP5261312B2 (ja) 画像解析装置、画像解析方法およびプログラム
JP2011059898A (ja) 画像解析装置、画像解析方法およびプログラム
US8374393B2 (en) Foreground object tracking
US8218819B2 (en) Foreground object detection in a video surveillance system
Nguyen et al. Human detection from images and videos: A survey
US6502082B1 (en) Modality fusion for object tracking with training system and method
US8139817B2 (en) Face image log creation
CN102722698B (zh) 多姿态人脸检测与跟踪方法及系统
CN106846355B (zh) 基于提升直觉模糊树的目标跟踪方法及装置
US7957560B2 (en) Unusual action detector and abnormal action detecting method
KR101653278B1 (ko) 색상 기반 얼굴 검출을 통한 실시간 얼굴 추적 시스템
CN111932583A (zh) 一种基于复杂背景下的时空信息一体化智能跟踪方法
JP2010231254A (ja) 画像解析装置、画像解析方法およびプログラム
Wei et al. Face detection for image annotation
Ghrab et al. Abnormal events detection based on trajectory clustering
García-Martín et al. Robust real time moving people detection in surveillance scenarios
Roy et al. Foreground segmentation using adaptive 3 phase background model
JP2011059897A (ja) 画像解析装置、画像解析方法およびプログラム
Vhatkar et al. Design issues and challenges in hierarchical routing protocols for wireless sensor networks
Bai et al. A hierarchical face recognition method based on local binary pattern
WO2023039331A1 (en) Object detection systems and methods including an object detection model using a tailored training dataset
Gao et al. A fast eyelash detection algorithm based on morphological operation
Spinello et al. Scene in the loop: Towards adaptation-by-tracking in RGB-D data
CN117152826B (zh) 基于目标跟踪和异常检测的实时跨镜追踪方法
Brauer Camera based human localization and recognition in smart environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130426

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160502

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5261312

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250