JP7215569B2 - オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及びプログラム - Google Patents

オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及びプログラム Download PDF

Info

Publication number
JP7215569B2
JP7215569B2 JP2021515398A JP2021515398A JP7215569B2 JP 7215569 B2 JP7215569 B2 JP 7215569B2 JP 2021515398 A JP2021515398 A JP 2021515398A JP 2021515398 A JP2021515398 A JP 2021515398A JP 7215569 B2 JP7215569 B2 JP 7215569B2
Authority
JP
Japan
Prior art keywords
image
detection result
storage means
tracking
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021515398A
Other languages
English (en)
Other versions
JPWO2020217369A5 (ja
JPWO2020217369A1 (ja
Inventor
亮磨 大網
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2020217369A1 publication Critical patent/JPWO2020217369A1/ja
Publication of JPWO2020217369A5 publication Critical patent/JPWO2020217369A5/ja
Application granted granted Critical
Publication of JP7215569B2 publication Critical patent/JP7215569B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像装置によって取得した映像からオブジェクトを検出し、その特徴量を抽出するオブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び非一時的なコンピュータ可読媒体に関する。
カメラを用いて物体や人物(以下、オブジェクトと呼ぶ)を検出し、特徴量を抽出する方式が提案されている。この特徴量は、異なるカメラ間で検出されたオブジェクトの照合や、以前に撮影され、蓄積された映像から、同一あるいは類似するオブジェクトを検索するのに用いられる。
この特徴量としては様々なものが用いられるが、近年では深層学習の技術の進展により、深層学習に基づいて抽出された特徴量を用いることが増えてきている。深層学習に基づいて抽出される特徴量は、高精度な照合に寄与する一方、抽出処理に時間がかかるものが多く、画面に同時に映る特徴抽出対象となるオブジェクトが多い場合には、特徴量抽出にかかる時間が無視できなくなる。特に、計算リソースの制約が厳しい場合に動画像の各フレームに対して処理を行う場合には、実時間での処理が困難になる。
この点を鑑み、画面に映る全オブジェクトから特徴を抽出するのではなく、特徴量抽出を行うオブジェクトを選択し、選択されたオブジェクトのみから特徴量を抽出する方式が提案されている。例えば、特許文献1では、人物の特徴量を抽出する方式が開示されており、画面上での人物のサイズと過去の特徴量抽出頻度に基づいて、画面内で検出された、どの人物の特徴量を抽出するかをサイズに応じて優先度をつけて決定している。また、乱数により、特徴量を抽出する人物を選択する網羅的選択手段も設け、優先的処理と網羅的処理を交互に行い、人物を選択して特徴量を抽出する方式が記載されている。さらに、特徴量を抽出する人物の選択では、向きを考慮してもよいといったことも記載されている。
また、特許文献2では、斜め上から撮影する通常の監視カメラ設置の場合、画面の下方の方がカメラに近くなり、人物が大きく映るにも関わらず、画面上での人物の動きも大きくなるため、画面の下の方の領域ほど、人物の特徴量を抽出する頻度を高める方式が開示されている。また、人物の動きの大きさも考慮し、動きが大きい人物ほど特徴量抽出の頻度を上げることについても記載されている。
国際公開第2017/006749号 国際公開第2014/045479号
しかしながら、特許文献1に記載の方式では、人物の大きさしか考慮していないため、大きさが大きくても動きがある場合に、動きブレが生じる可能性を考慮しておらず、照合に適さない特徴量を抽出してしまう可能性がある。また、それ以外の特徴量の劣化要因についても考慮されていない。
一方、特許文献2では、人物を追跡しているわけではないため、人物ごとに過去のどの程度特徴量が抽出されたかといった履歴情報を保持しておらず、人物間で特徴量の抽出回数に大きなばらつきが出る可能性がある。
さらに、特許文献1、特許文献2ともに、人物間の重なりや他の障害物による隠ぺいについては考慮されておらず、選択した人物から照合に適した特徴量が抽出できるとは限らないという問題がある。また、ぼけや照明条件等に基づく大きさ以外の特徴量の劣化要因についても考慮されていない。
本発明の目的は、上述した課題を鑑み、特徴量抽出に時間を要する特徴量であっても、動画像の各フレームにおいて特徴抽出するオブジェクトを適応的に選択し、オブジェクト全体として、高精度な照合が可能になるオブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び非一時的なコンピュータ可読媒体を提供することにある。
一実施の形態に係るオブジェクト特徴量抽出装置は、映像を取得し、取得した前記映像を画像列として生成する映像取得手段と、生成された前記画像からオブジェクトを検出し、検出結果を生成するオブジェクト検出手段と、生成された前記画像と前記検出結果とに基づいて前記オブジェクトを追跡し、追跡結果を生成するオブジェクト追跡手段と、前記画像を記憶する画像記憶手段と、前記検出結果を記憶する検出結果記憶手段と、前記追跡結果を記憶する追跡結果記憶手段と、前記検出結果記憶手段に記憶された前記検出結果と前記追跡結果記憶手段に記憶された前記追跡結果とに基づいて、現時刻より1フレーム以上前である抽出時刻において検出された前記オブジェクトの特徴量の質を予測するクオリティ指標を算出し、前記クオリティ指標に基づいて前記抽出時刻において特徴抽出する前記オブジェクトを選択し、オブジェクト選択情報を生成するオブジェクト選択手段と、前記画像記憶手段に記録された前記抽出時刻の前記画像と、前記検出結果記憶手段に記憶された前記抽出時刻の前記検出結果と、前記オブジェクト選択情報と、に基づいて、前記抽出時刻のフレームから検出された前記オブジェクトの特徴量を抽出するオブジェクト特徴抽出手段と、を有することを特徴とする。
また、一実施の形態に係るオブジェクト特徴量抽出方法は、映像を取得し、取得した前記映像を画像列として生成するステップと、生成された前記画像からオブジェクトを検出し、検出結果を生成するステップと、生成された前記画像と前記検出結果とに基づいて前記オブジェクトを追跡し、追跡結果を生成するステップと、前記画像を画像記憶手段に記憶させるステップと、前記検出結果を検出結果記憶手段に記憶させるステップと、前記追跡結果を追跡結果記憶手段に記憶させるステップと、前記検出結果記憶手段に記憶された前記検出結果と前記追跡結果記憶手段に記憶された前記追跡結果とに基づいて、現時刻より1フレーム以上前である抽出時刻において検出された前記オブジェクトの特徴量の質を予測するクオリティ指標を算出し、前記クオリティ指標に基づいて前記抽出時刻において特徴抽出する前記オブジェクトを選択し、オブジェクト選択情報を生成するステップと、前記画像記憶手段に記憶された前記抽出時刻の前記画像と、前記検出結果記憶手段に記憶された前記抽出時刻の前記検出結果と、前記オブジェクト選択情報とに基づいて、前記抽出時刻のフレームから検出された前記オブジェクトの特徴量を抽出するステップと、を有することを特徴とする。
さらに、一実施の形態に係るプログラムは、映像を取得し、取得した前記映像を画像列として生成させ、生成された前記画像からオブジェクトを検出し、検出結果を生成させ、生成された前記画像と前記検出結果とに基づいて前記オブジェクトを追跡し、追跡結果を生成させ、前記画像を画像記憶手段に記憶させ、前記検出結果を検出結果記憶手段に記憶させ、前記追跡結果を追跡結果記憶手段に記憶させ、前記検出結果記憶手段に記憶された前記検出結果と前記追跡結果記憶手段に記憶された前記追跡結果とに基づいて、現時刻より1フレーム以上前である抽出時刻において検出された前記オブジェクトの特徴量の質を予測するクオリティ指標を算出させ、前記クオリティ指標に基づいて前記抽出時刻において特徴抽出する前記オブジェクトを選択させ、オブジェクト選択情報を生成させ、前記画像記憶手段に記憶された前記抽出時刻の前記画像と、前記検出結果記憶手段に記憶された前記抽出時刻の前記検出結果と、前記オブジェクト選択情報とに基づいて、前記抽出時刻のフレームから検出された前記オブジェクトの特徴量を抽出させる、ことをコンピュータに実行させる。
一実施の形態によれば、特定のオブジェクトに偏らずに、オブジェクト全体で万遍なく照合に適した特徴量を抽出することが可能となるため、高精度な照合が可能になるオブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び非一時的なコンピュータ可読媒体を提供する。
第1実施形態に係るオブジェクト特徴量抽出装置の構成を例示したブロック図である。 第1実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択手段の構成を例示したブロック図である。 第1実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択手段のクオリティ判定部を例示したブロック図である。 第1実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択手段の別のクオリティ判定部を例示したブロック図である。 第1実施形態に係るオブジェクト特徴量抽出装置において、別のオブジェクト選択手段を例示したブロック図である。 第1実施形態に係るオブジェクト特徴量抽出装置において、別のオブジェクト選択手段のバリエーション判定部を例示したブロック図である。 第1実施形態に係るオブジェクト特徴量抽出装置において、別のバリエーション判定部を例示したブロック図である。 第1実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択を行う映像区間と、オブジェクト選択を行うタイミングの時間的な関係を図示した図である。 第2実施形態に係るオブジェクト特徴量抽出装置の構成を例示したブロック図である。 第2実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択手段の構成を例示したブロック図である。 第2実施形態に係るオブジェクト特徴量抽出装置において、別のオブジェクト選択手段の構成を例示したブロック図である。 第3実施形態に係るオブジェクト特徴量抽出装置の構成を例示したブロック図である。 第3実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択手段の構成を例示したブロック図である。 第3実施形態に係るオブジェクト特徴量抽出装置において、別のオブジェクト選択手段の構成を例示したブロック図である。 第4実施形態に係るオブジェクト特徴量抽出装置の構成を例示したブロック図である。 第4実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択手段の構成を例示したブロック図である。 第4実施形態に係るオブジェクト特徴量抽出装置において、別のオブジェクト選択手段の構成を例示したブロック図である。 クオリティ指標を表す関数を例示した図である。 クオリティ指標を表す関数を例示した図である。 クオリティ指標を表す関数を例示した図である。 クオリティ指標を表す関数を例示した図である。 オブジェクトが人物のときに人物領域の分割例を例示した図である。 バリエーション指標を表す関数を例示した図である。 バリエーション指標を表す関数を例示した図である。 バリエーション指標を表す関数を例示した図である。 第1~第4実施形態に係るオブジェクト特徴量抽出装置を実現するための計算機、ネットワーク、カメラを例示した図である。
次に、発明を実施するための最良の形態について図面を参照して詳細に説明する。
(第1実施形態)
図1は、第1実施形態に係るオブジェクト特徴量抽出装置の構成を例示したブロック図である。図1に示すように、オブジェクト特徴量抽出装置100は、映像取得手段101と、オブジェクト検出手段102と、オブジェクト追跡手段103と、オブジェクト選択手段105と、オブジェクト特徴抽出手段106と、画像記憶手段107と、検出結果記憶手段108と、追跡結果記憶手段109とを備えている。
映像取得手段101は、映像を取得し、取得した映像をオブジェクト検出手段102と、オブジェクト追跡手段103と、画像記憶手段107とに出力する。
オブジェクト検出手段102は、映像取得手段101から出力される画像に対して、オブジェクト検出を行い、オブジェクト検出結果をオブジェクト追跡手段103と、検出結果記憶手段108とに出力する。
オブジェクト追跡手段103は、オブジェクト検出手段102から出力されるオブジェクト検出結果に基づいて、映像取得手段101から出力される画像を用いてオブジェクトの追跡処理を行い、オブジェクト追跡結果を追跡結果記憶手段109に出力する。
オブジェクト選択手段105は、検出結果記憶手段108から出力される過去画像追跡結果と、追跡結果記憶手段109から出力される追跡結果履歴情報とに基づいて、特徴抽出を行うオブジェクトを選択し、選択オブジェクト情報をオブジェクト特徴抽出手段106に出力する。
オブジェクト特徴抽出手段106は、オブジェクト選択手段105から出力される選択オブジェクト情報に含まれるオブジェクトの特徴量を、検出結果記憶手段108から出力されるオブジェクト検出結果に基づいて、画像記憶手段107から出力される画像から抽出する。
次に、図1のオブジェクト特徴量抽出装置100の動作について説明する。映像取得手段101では、監視対象となるエリアや物体の映像を撮影する。ここで、映像取得手段としては、映像を撮影できるものであれば、どのようなものでもよい。例えば、固定の監視カメラやWebカメラであってもよいし、UAVや車両のように、移動体に装着されたカメラであってもよい。あるいは、警察官や警備員が装着するウェアラブルカメラであってもよいし、ユーザが撮影するビデオカメラであってもよい。映像取得手段101で撮影された映像は、画像列として出力される。この画像列は、オブジェクト検出手段102、オブジェクト追跡手段103に出力されるとともに、画像記憶手段107に出力され、格納される。
オブジェクト検出手段102では、映像取得手段101から入力される画像に対してオブジェクト検出を行い、結果をオブジェクト検出結果として出力する。オブジェクトが人物の場合、人物の画像特徴を学習した検出器を用いて、人物領域を検出する。例えば、HOG(Histograms of Oriented Gradients)特徴に基づいて検出する検出器や、CNN(Convolutional Neural Network)を用いて画像から直接検出する検出器を用いてもよい。
あるいは、人全体ではなく、人の一部の領域(例えば頭部など)を学習させた検出器を用いて人物を検出するようにしてもよい。例えば、頭部や足下を学習させた検出器を用い、頭部位置と足下位置が検出できれば、人物領域を特定できる。その他にも例えば、背景差分によって求まるシルエット情報(背景モデルと差分がある領域の情報)と頭部検出情報を組み合わせることにより、人物領域を求めるように構成されていてもよい。
オブジェクトが車の場合も、同様に車両の画像特徴を学習させた検出器を用いて検出することが可能である。オブジェクトがそれ以外の特定物体の場合も、その特定物体の画像特徴を学習させた検出器を構築し、用いるようにすればよい。
そして、検出されたオブジェクトの情報をまとめ、オブジェクト検出結果情報として生成する。ここで、オブジェクト検出結果情報は、検出を行ったフレームの時刻情報(あるいはフレーム番号など、フレームを特定するための情報)と検出されたオブジェクトの情報を含んでおり、オブジェクトの情報は、オブジェクトの検出位置や大きさを含む。
ここで、オブジェクトの位置は、画面上の位置で表されていてもよいし、カメラのキャリブレーションによって求まるカメラの位置や姿勢を表すパラメータを用いて、実世界座標に変換して位置を表すようにしてもよい。例えば、画面上の位置で表す場合には、オブジェクトを囲う矩形の頂点の座標(例えば左上と右下の頂点)で表せばよい。
あるいは、1つの頂点と矩形の幅、高さの情報で表してもよい。また、複数のオブジェクトが検出された場合には、オブジェクト検出結果情報は、検出された複数のオブジェクトの情報を含むことになる。また、検出オブジェクトを同一フレーム内で区別するID情報も含む。ただし、このID情報は、同一フレームで検出された複数のオブジェクトを区別するために振られるID情報であり、追跡対象オブジェクトに振られるID情報とは異なる。生成されたオブジェクト検出結果情報は、オブジェクト追跡手段103へ出力される。また、検出結果記憶手段108へも出力され、格納される。
オブジェクト追跡手段103では、Tracking by Detectionと呼ばれる、検出結果に基づいた追跡処理を行う。すなわち、一つ前の時刻までのオブジェクト追跡結果に含まれ、追跡対象となっている各オブジェクトが、現時刻のオブジェクト検出結果に含まれる、どの検出オブジェクトと対応づくかを求め、追跡結果を更新する。
この際、追跡対象となっている各オブジェクトの位置をカルマンフィルタやパーティクルフィルタによって予測してから、現時刻の検出オブジェクトと対応付けるようにしてもよい。追跡対象オブジェクトと検出オブジェクトとが対応づいた場合には、対応づいた検出オブジェクトの情報とその時刻の画像を用いて追跡対象オブジェクトの情報を更新する。
一方、どの追跡対象オブジェクトとも対応づかなかった場合には、新たに表れたオブジェクトである可能性が高いため、その検出オブジェクトに対応する追跡対象オブジェクトを新たに生成し、オブジェクト追跡結果に追加する。逆に、どの検出オブジェクトとも対応づかない追跡対象オブジェクトが存在する場合には、その追跡対象オブジェクトが画面外に出た等の理由により、消失したと考えられる。よって、その追跡対象オブジェクトを追跡結果から削除する処理を行う。
ただし、一度の未対応で削除するのではなく、数回未対応が続いたら削除するようにしてもよい。この制御のために、追跡対象オブジェクトの確からしさを表す尤度を定義しておき、新規生成時から、検出オブジェクトとの対応づけられた場合には尤度を上げ、対応がつかなかったら尤度を下げるようにし、尤度が一定値を下回った時点で削除するようにしてもよい。
なお、この尤度の計算では、検出結果と対応づいたかどうかという情報だけでなく、対応づいた際の確からしさも合わせて考慮してもよい。このようにして、現時刻におけるオブジェクト追跡結果を生成し、出力する。
ここで、オブジェクト追跡結果情報は、画像上でのオブジェクトの位置、大きさ、および追跡対象オブジェクトごとに付与されたID情報、対応づいた検出オブジェクトのID情報(対応づかなかった場合には未対応であることを表す情報)を含む。なお、位置情報の記述方法は任意であり、追跡オブジェクトの外接矩形情報で示してもよいし、追跡オブジェクト領域中の一点の座標を求め、その点に基づく相対的な情報で大きさ情報を表すようにしてもよい。
例えば、画面上の位置で表す場合には、オブジェクトを囲う矩形の頂点の座標(例えば左上と右下の頂点)で表せばよい。あるいは、1つの頂点と矩形の幅、高さの情報で表してもよい。あるいは、実空間上の座標に変換し、出力するようになっていてもよい。生成されたオブジェクト追跡結果情報は、追跡結果記憶手段109へ出力され、格納される。
画像記憶手段107では、映像取得手段101で取得した画像が、現時刻(これをTcurとする)より一定時間前の分まで格納されている。後述するオブジェクトの特徴抽出は、現時刻より少し前の時刻の画像に対して行うため、この時刻が最低限含まれる時間分だけ画像を格納しておく。そして、後述するオブジェクト特徴抽出手段106から読み出された際、指定された時刻の画像を出力する。
検出結果記憶手段108では、オブジェクト検出結果が現時刻Tcurより一定時間前の分まで格納されている。これも、画像記憶手段107の画像と同じ時間分だけ格納されていればよい。そして、後述するオブジェクト選択手段105やオブジェクト特徴抽出手段106から読み出された際、指定された時刻の検出結果を出力する。
追跡結果記憶手段109では、オブジェクト追跡結果が格納されている。そして、後述するオブジェクト選択手段105から読み出された際、指定された時間区間の追跡結果履歴を出力する。
オブジェクト選択手段105では、後述するオブジェクト特徴抽出手段106で特徴抽出の対象となる時刻における、特徴抽出を行うオブジェクトを選択する。オブジェクト特徴抽出手段106では、現在より少し前の時刻の画像に対してオブジェクトの特徴抽出を行うが、その時刻(以後抽出時刻と呼ぶ)でのオブジェクト選択を行う。抽出時刻を現時刻Tcurより時間τ(>0)だけ前の時刻Tcur-τとすると、オブジェクト選択手段105では、抽出時刻Tcur-τの画像に対するオブジェクト検出結果を過去検出結果として検出結果記憶手段108から読み出す。
また、追跡結果記憶手段109から、時刻Tcur-τ-ΔTから現時刻Tcurまでの追跡結果を読み出す。ここで、ΔT(>0)は、追跡結果からオブジェクトの状態や動きを推定するのに必要な時間区間を表す。そして、追跡対象オブジェクトのどのオブジェクトに対して特徴抽出処理を行うかを判定し、特徴抽出を行うオブジェクトを選択する情報である、選択オブジェクト情報を生成する。選択オブジェクト情報には、抽出時刻Tcur-τと、特徴抽出を行う追跡対象オブジェクトのID情報と、それと対応づいた検出オブジェクトのID情報を含む。
オブジェクト選択手段105の動作の詳細は後述する。生成された選択オブジェクト情報は、オブジェクト特徴抽出手段106に出力される。
オブジェクト特徴抽出手段106では、選択オブジェクト情報と、抽出時刻Tcur-τのオブジェクト検出結果情報に基づいて、抽出時刻Tcur-τの画像からオブジェクト特徴量を抽出する。すなわち、選択オブジェクト情報に含まれる追跡オブジェクトIDと対応づいた検出オブジェクトIDによって、この検出オブジェクトの位置情報をオブジェクト検出結果情報から求め、該当する画像領域の特徴量を、その追跡オブジェクトIDのオブジェクトの特徴量として抽出する。
抽出する特徴はオブジェクトの色や形状、模様などを表す視覚特徴量であり、オブジェクトの識別に利用可能な特徴量であればどのようなものでもよい。例えば、色や輝度勾配特徴のヒストグラムであったり、SIFTやSURFのような局所特徴であったり、ガボールウェーブレットのような模様を記述する特徴量であってもよい。あるいは、深層学習によって求まったオブジェクト識別用の特徴量であってもよい。
以上述べた構成により、多数のオブジェクトが画面に映る状況であっても、特徴抽出を行うオブジェクトを適切に選択し、特徴抽出処理にかかるコストを抑えつつ、オブジェクト全体として高精度な照合が可能となる特徴抽出を実現できる。特に、特徴抽出を少し遅らせることで、特徴量を抽出するオブジェクトの選択がより適切にできるようになる。
次に、図1のオブジェクト選択手段105について、より詳細に説明する。図2は、第1実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択手段の構成を例示したブロック図である。図2に示すように、オブジェクト選択手段105は、クオリティ判定部120とオブジェクト選択部121とを有している。
クオリティ判定部120は、入力されるオブジェクト追跡結果履歴と過去画像オブジェクト検出結果とに基づいてクオリティ指標を求め、オブジェクト選択部121へ出力する。オブジェクト選択部121は、クオリティ判定部120から出力されるクオリティ指標に基づいて、特徴量を抽出するオブジェクトを選択し、選択オブジェクト情報を出力する。
次に、オブジェクト選択手段105の動作について説明する。過去画像オブジェクト検出結果、オブジェクト追跡結果履歴は、クオリティ判定部120へ入力される。ここで、過去画像オブジェクト検出結果は、抽出時刻Tcur-τの画像に対するオブジェクトの検出結果である。また、オブジェクト追跡結果履歴は、時刻Tcur-τ-ΔTから現時刻Tcurまでのオブジェクトの追跡結果である。
クオリティ判定部120では、入力されるオブジェクト追跡結果履歴、過去画像オブジェクト検出結果に基づいて、抽出時刻Tcur-τの画像における各追跡対象オブジェクトに対してクオリティ指標を算出する。
クオリティ指標は、抽出する特徴量の質を特徴抽出する以前に予測する指標であり、オブジェクトから高品質な特徴量が抽出されると予測される場合には高い値をとり、そうでない場合に低い値となる指標である。クオリティ指標の取り得るレンジは任意であるが、以下では、クオリティ指標は[0、1]の区間の値をとるものとする。
クオリティ判定部120の詳細については後述する。算出されたクオリティ指標は、追跡対象オブジェクトのIDとそれに対応づいた検出オブジェクトIDの情報と対応付けてオブジェクト選択部121へ出力される。
オブジェクト選択部121では、入力されるクオリティ指標の値が大きい追跡対象オブジェクトを選択する。具体的には、例えばクオリティ指標の値が一定値よりも大きいものを選択する。あるいは、クオリティ指標の値でソートしたときに、大きいほうから一定数の追跡対象オブジェクト(もし、オブジェクト数が一定数より少ない場合には全て)を選択する。あるいは、両者の基準を組み合わせてオブジェクトを選択(例えば、クオリティ指標の値が一定値以上の中で、大きいほうから一定数選択)してもよい。選択された追跡対象オブジェクトのIDと、それと対応づいた検出オブジェクトのID、および抽出時刻情報を組み合わせて、選択オブジェクト情報として出力する。
次に、図2のクオリティ判定部120の詳細について述べる。図3は、第1実施形態に係る特徴量抽出装置において、オブジェクト選択手段のクオリティ判定部120を例示したブロック図である。図3に示すように、クオリティ判定部120は、クオリティ指標算出部130を含んでいる。クオリティ指標算出部130は、過去画像オブジェクト検出結果とオブジェクト追跡結果履歴とに基づいてクオリティ指標を算出し、出力する。
次に、図3のクオリティ判定部120の動作について述べる。クオリティ指標算出部130では、オブジェクト追跡結果履歴における、抽出時刻Tcur-τでの追跡結果に含まれる各追跡対象オブジェクトに対して、様々な要因に対するクオリティ指標を算出する。検出されたオブジェクトの大きさが大きいほど、オブジェクトの細かな特徴まで抽出可能となるため、一般的にオブジェクトの大きさ(解像度)が大きいほど、特徴量のクオリティは上がると考えられる。よって、オブジェクト検出結果から求まるオブジェクト領域のサイズS(例えば領域の面積や領域の幅や高さなど)を用いて、解像度に基づくクオリティ指標qResの値を数式(1)によって求めることができる。
Figure 0007215569000001
ここで、fRes(S)は、[0、1]を値域としてもつ単調非減少関数であり、例えば、図17Bのように表される。この関数は、例えばサイズSと照合精度の関係を求め、fRes(S)として用いるようにすればよい。
また、オブジェクトの画面上での動きが大きい場合には、オブジェクト表面の細かな模様(例えばオブジェクトが人物の場合は服の模様など)は動きボケの影響で正しく抽出できなくなる可能性が高まる。よって、オブジェクトの画面上での動きが大きいほど、特徴量のクオリティは下がると考えられる。よって、オブジェクトの画面上での動き量をvとすると、動きに基づくクオリティ指標qMotの値を数式(2)によって求めることができる。
Figure 0007215569000002
ここで、fMot(v)は、[0、1]を値域としてもつ単調非増加関数であり、例えば、図17Cのように表される。この関数は、例えば画面上での動き量vと照合精度の関係を求め、fMot(v)として用いるようにすればよい。また、動き量vは、追跡対象オブジェクトの移動履歴から求めることができる。例えば、抽出時刻Tcur-τ前後の複数の時刻における位置情報を用いて、抽出時刻Tcur-τにおける画面上での動き量vを求めることができる。
また、オブジェクトの姿勢や向きが、特徴抽出で想定している姿勢や向きから大きくずれている場合は、抽出された特徴量が想定からずれてくる可能性がある。よって、オブジェクトの姿勢や向きの、想定姿勢や向きからのずれが大きくなるほど、特徴量のクオリティは下がると考えられる。例えば、オブジェクトが人物の場合には、特徴抽出で想定される姿勢が直立姿勢の場合、しゃがんだり、かがんだりすると、想定姿勢からのずれが大きくなる。この程度を表す値を姿勢変化度(想定姿勢からのずれが大きいほど値が大きくなる指標)と呼ぶことにし、姿勢変化度をrPosで表すことにすると、姿勢や向きに基づくクオリティ指標qPosの値は、数式(3)で表される。
Figure 0007215569000003
ここで、fPos(rPos)は、[0、1]を値域としてもつ単調非増加関数であり、例えば、図17Dのように表される。この関数は、例えば姿勢変化度r Posと照合精度の関係を求め、fPos(rPos)として用いるようにすればよい。
また、姿勢変化度rPosは、例えばオブジェクト検出矩形のアスペクト比が、想定される姿勢の場合のオブジェクト外接矩形のアスペクト比からどれだけずれているかで定義することができる。例えば、検出矩形のアスペクト比と想定姿勢に対するオブジェクト外接矩形のアスペクト比の差分の絶対値を求め、姿勢変化度とすることができる。あるいは、固定カメラの場合でキャリブレーション情報が利用できる場合には、画面の矩形の大きさから、実空間上でのオブジェクトの大きさを求めることができるようになる。よって、オブジェクトの追跡結果からオブジェクトの実空間上での大きさ(例えば、人物の場合には人物の高さ)を求めておき、抽出時刻Tcur-τにおける、その時系列変化をチェックすることで、姿勢変動を検出することができる。すなわち、実空間上での大きさの変化の度合いに応じて、姿勢変化度を定義するようにすればよい。さらに、オブジェクトの向きも考慮してもよい。オブジェクトの向きの求め方としては種々の方法があるが、例えば、オブジェクトの移動方向と向きが一致すると仮定すると、追跡結果の位置の履歴からオブジェクトの移動方向を特定し、向きを推定することができる。そして、推定された向きと特徴抽出の想定向き(例えば正面など)とのずれの大きさで、姿勢変化度を定義するようにしてもよい。
このようにして求めた各要因に対するクオリティ指標から全体のクオリティ指標を算出する。各要因に対するクオリティ指標と全体のクオリティ指標Qの関係を表す関数gを数式(4)のように定義し、用いるようにする。
Figure 0007215569000004
数式(4)の関数としては、例えば数式(5)に示す関数を用いることができる。
Figure 0007215569000005
なお、今までは様々な要因について記してきたが、この全部を考慮する必要はなく、一部のみを考慮するようになっていてもよい。この場合は、考慮しない要因に対するクオリティ指標の値を1とみなして、数式(4)に従ってクオリティ指標を算出するようにすればよい。
上述のクオリティ指標は抽出時刻Tcur-τのオブジェクト追跡結果に含まれる各追跡対象オブジェクトに対して算出される。そして、算出されたクオリティ指標は、追跡対象オブジェクトのIDとそれに対応づいた検出オブジェクトIDの情報と対応付けて出力される。
このようにすることで、解像度、動き、姿勢によって特徴量のクオリティが低下することを予測し、特徴抽出を行うべきオブジェクトを選択できるようになる。特に、特徴抽出の時刻を少し遅らせることで、特徴抽出時点から見ると、未来の追跡結果情報も用いることができるようになるため、より正確なオブジェクトの状態判定ができるようになり、適切なオブジェクト選択が可能となる。
次に、図2のクオリティ判定部120の別の実施形態について述べる。図4は、第1実施形態に係る特徴量抽出装置において、オブジェクト選択手段の別のクオリティ判定部を例示したブロック図である。図4に示すように、クオリティ判定部120の別の例は、クオリティ指標算出部131と環境要因記憶部132とを有している。クオリティ指標算出部131は、オブジェクト検出結果とオブジェクト追跡結果とに基づいてクオリティ指標を算出し、出力する。
次に、図4のクオリティ判定部120の動作について述べる。環境要因記憶部132には、環境要因によって生じる特徴量のクオリティ低下に対するクオリティ指標の値が格納されている。特徴量のクオリティに影響を与える環境要因としては、環境に配置されている障害物(棚や机など)による隠蔽、不適切な照明・日照条件による劣化、カメラの焦点が合っていないことによって生じるぼけによる劣化などが挙げられる。固定カメラの場合、これらの劣化要因は画面上の特定の場所で生じることになる。よって、画面上の各位置にオブジェクトが来た時に生じるクオリティ劣化の度合いを推定し、その程度を表すクオリティ指標の値を位置と対応付けて環境要因記憶部132に記憶しておく。すなわち、数式(6)に示す、環境要因に基づくクオリティ指標の値を画面上の各座標(x、y)について求めておき、記憶しておけばよい。
Figure 0007215569000006
ここで、fEnv(x、y)は、[0、1]を値域としてもつ関数である。また、x、yは、オブジェクトの基準点の位置座標であり、例えば、オブジェクトの接地点の中心座標を用いることができる。関数fEnv(x、y)の値は、例えばオブジェクトが画面上の位置(x、y)に来た時に生じる環境要因によって、どの程度照合精度が落ちるかを求め、その結果に基づいて決めるようにすればよい。
なお、環境要因ではないが、カメラの画面の周辺領域では、オブジェクトの一部が画面外となり、一部が隠ぺいされたのと同等の状況が生じる。よって画面周辺領域も、障害物による隠ぺいと同様に扱ってもよい。また、特徴量のクオリティに影響を与える上述の要因のうち、解像度については、環境要因と合わせて考慮することもできる。このため、解像度に基づくクオリティ指標は、環境要因に基づくクオリティ指標に含めるようにしてもよい。
なお、上述の位置情報(x、y)は画面上ではなく、実世界座標や、それを地図画像の座標に変換した値であってもよい。この場合は、オブジェクトの位置情報を該当する座標系に変換した上で、数式(6)に示すクオリティ指標を求める。
また、照明や日照条件については、昼と夜で異なる等、時間帯によって変化が生じ得る。よって、各時間帯に対するクオリティ指標の値を環境要因記憶部132に記憶しておき、処理する映像の時間帯に応じて情報を切り替えて用いるようにしてもよい。あるいは、環境条件が遷移する状況下では、その前後の時間帯のクオリティ指標の値から、内挿によりクオリティ指標の値を求めて用いてもよい。
クオリティ指標算出部131では、クオリティ指標算出部130の動作の説明で述べた要因に加え、環境要因も考慮して全体のクオリティ指標を算出する。具体的には、オブジェクト追跡結果に含まれる追跡対象オブジェクトの位置情報から現時刻におけるオブジェクトの位置(x、y)を求め、環境要因記憶部132から、その位置における環境要因に基づくクオリティ指標qEnvの値を求める。そして、各要因に対するクオリティ指標と全体のクオリティ指標Qの関係を表す関数gを数式(7)のように定義し、用いるようにする。
Figure 0007215569000007
数式(7)の関数としては、例えば、数式(8)に示す関数を用いることができる。
Figure 0007215569000008
このようにすることで、特定の位置にオブジェクトが来た時に決まったクオリティ劣化が生じる場合であっても、特徴量のクオリティの低下を適切に予測できるようになる。
このようにすることで、解像度、動き、姿勢による要因に加え、環境に基づいて生じる特徴量のクオリティ低下を予測できるようになり、特徴抽出を行うべきオブジェクトを、より適切に選択できるようになる。また、時間帯に応じて環境要因に基づくクオリティ指標を切り替えることにより、時間によって抽出される特徴量のクオリティが変化する場合であっても、適切に対応できるようになる。
次に、図1のオブジェクト選択手段105の別の実施形態について説明する。図5は、第1実施形態に係る特徴量抽出装置において、別のオブジェクト選択手段を例示したブロック図である。図5に示すように、別のオブジェクト選択手段105は、クオリティ判定部120と、バリエーション判定部140と、オブジェクト選択部141とを有している。
クオリティ判定部120は、入力されるオブジェクト追跡結果履歴と過去画像オブジェクト検出結果とに基づいてクオリティ指標を求め、オブジェクト選択部141へ出力する。バリエーション判定部140は、入力されるオブジェクト追跡結果履歴とオブジェクト選択部141からフィードバックされる選択オブジェクト情報に基づいてバリエーション指標を求め、オブジェクト選択部141へ出力する。オブジェクト選択部141は、クオリティ判定部120から出力されるクオリティ指標と、バリエーション判定部140から出力されるバリエーション指標とに基づいて特徴量を抽出するオブジェクトを選択し、選択オブジェクト情報を出力する。この選択オブジェクト情報は、後の時刻でのバリエーション判定のため、バリエーション判定部140にも出力される。
次に、図5に示すオブジェクト選択手段105の動作について説明する。クオリティ判定部120の動作は、図2のものと同じであり、求めたクオリティ指標をオブジェクト選択部141へ出力する。
一方、バリエーション判定部140では、以前の時刻で出力されたオブジェクト選択情報を記憶しており、入力されるオブジェクト追跡結果履歴に含まれる、抽出時刻Tcur-τの画像における各追跡対象オブジェクトに対するバリエーション指標を算出する。
バリエーション指標は、取得特徴量のバリエーション(多様性)の改善の度合いを表す指標である。オブジェクトの特徴量はオブジェクトの状態によって変化し得るため、オブジェクト照合での漏れを少なくするためには、同一オブジェクトの様々な状態での特徴量を抽出しておくことが望ましい。一方、オブジェクトの状態がほとんど変わっていない状況で何度も特徴抽出を行っても、ほぼ同じ特徴量が繰り返し取得されるのみであり、漏れの低減には寄与しない。すなわち、時系列でのオブジェクトの特徴取得においては、冗長な特徴量取得をなるべく避けつつ、取得特徴量のバリエーションを増やしていくことが重要となる。バリエーション指標は、それまでに取得した特徴量群に加えて、今回特徴量取得を行うことで、特徴量のバリエーションを増やすことができるかどうか、すなわち取得特徴量のバリエーションを改善できるかどうかを特徴量抽出前に予測し、指標化したものである。よって、バリエーション指標が大きいオブジェクトほど優先的に特徴量を抽出することが望ましく、オブジェクト選択の基準として用いることができる。
バリエーション判定部140の詳細については後述する。算出されたバリエーション指標は、追跡対象オブジェクトのIDと対応付けてオブジェクト選択部141へ出力される。
オブジェクト選択部141では、入力されるクオリティ指標Qとバリエーション指標Vとに基づいて、両方を合わせた選択指標Iを算出する。この関数をFとすると、数式(9)のように定式化できる。
Figure 0007215569000009
数式(9)の関数としては、例えば、数式(10)の関数を用いることができる。
Figure 0007215569000010
そして、選択指標Iの値が大きい追跡対象オブジェクトを選択する。具体的には、選択指標の値が一定値よりも大きいものを選択する。あるいは、選択指標の値でソートしたときに、大きいほうから一定数の追跡対象オブジェクト(もし、オブジェクト数が一定数より少ない場合には全て)を選択する。あるいは、両者の基準を組み合わせてオブジェクトを選択(例えば、選択指標の値が一定値以上の中で、大きいほうから一定数選択)してもよい。
選択された追跡対象オブジェクトのIDは、それと対応づいた検出オブジェクトのID、および抽出時刻情報を組み合わせて選択オブジェクト情報として出力される。また、選択オブジェクト情報は、バリエーション判定部140へも出力され、後の時刻におけるバリエーション指標の算出に用いられる。
次に、バリエーション判定部140の詳細について述べる。図6は、第1実施形態に係る特徴量抽出装置において、別のオブジェクト選択手段のバリエーション判定部を例示したブロック図である。図6に示すように、バリエーション判定部140は、バリエーション指標算出部150と、抽出履歴記憶部151とを有している。
抽出履歴記憶部151は、入力される選択オブジェクト情報に基づいて、各オブジェクトの特徴量抽出履歴を更新、格納しており、特徴量抽出履歴情報をバリエーション指標算出部150へ出力する。バリエーション指標算出部150は、入力されるオブジェクト追跡結果履歴と、抽出履歴記憶部151から出力される特徴量抽出履歴情報に基づいて、バリエーション指標を算出し、出力する。
次に、図6に示すバリエーション判定部140の動作について説明する。抽出履歴記憶部151では、各追跡対象オブジェクトのIDに対して、特徴量を抽出するオブジェクトとして選択された時刻の情報を格納している。選択オブジェクト情報が抽出履歴記憶部151に入力されると、選択オブジェクト情報に含まれる追跡対象オブジェクトのIDに対して、そのオブジェクトが選択された時刻の情報を追加する。抽出履歴記憶部151では、さらに、各追跡対象オブジェクトのIDに対して過去に何回特徴抽出が行われたかといった情報を記録していてもよい。この場合には、選択オブジェクト情報に含まれる追跡対象オブジェクトの特徴抽出回数を1つ増やす。
バリエーション指標算出部150では、入力されるオブジェクト追跡結果履歴に含まれる、抽出時刻Tcur-τの画像における各追跡対象オブジェクトに対してバリエーション指標を算出する。上述のように、照合時の漏れを少なくするには、特徴量のバリエーションを増やすことが重要となる。これは、それまでの特徴量の取得履歴に依存する。前回特徴量を取得してから、ある程度時間が経過すると、オブジェクトの状態が変化し、バリエーション改善につながる特徴量が抽出できる可能性が高まる。よって、数式(11)のようにバリエーション指標を定式化できる。
Figure 0007215569000011
ここで、関数h(t)は[0、1]を値域としてもち、前回の特徴抽出から今回の特徴抽出対象時刻である抽出時刻Tcur-τまでの経過時間tに対する単調非減少関数である。この関数としては、例えば、図19Aに示すような関数を用いることができる。なお、まだ一度も特徴抽出していない場合には、前回の特徴抽出時刻をt=-∞とし、バリエーション指標の値はh(∞)と定義する。
上述の例では、単に前回の特徴抽出からの経過時間のみを考慮したが、これまでの特徴抽出の回数も考慮するようにしてもよい。特徴量の抽出回数が増えるにつれ、取得済みの特徴量のバリエーションも増加すると考えられるため、特徴抽出の回数が多くなれば、特徴抽出の頻度を下げてもよいと考えられる。よって、特徴抽出回数が増えるにつれてバリエーション指標の値が下がる関数を定義して、用いればよい。すなわち、バリエーション指標を経過時間tと特徴量抽出回数nの関数として、数式(12)のように定式化する。
Figure 0007215569000012
ここで、関数h(t、n)は、[0、1]を値域としてもち、nを固定したときにはtの単調非減少関数となり、tを固定したときにはnの単調非増加関数となる関数である。例えば、図19Bに示すような関数を用いることができる。
上述の例では、特徴抽出の履歴のみを用いたが、追跡結果の履歴情報も用いるようにしてもよい。前回の特徴抽出から時間が経過しているオブジェクトであっても、同じところにとどまり続けている場合には、状態があまり変化していない可能性が高く、特徴抽出を行っても、前回とほぼ同じ特徴量が得られるのみになる可能性が高い。一方、動いているオブジェクトの場合は、前回の特徴抽出からの経過時間が短くても、状態が大きく変化している可能性が高い。よって、オブジェクトの追跡結果履歴情報を用いて、オブジェクトがどれだけ移動しているかを求め、求まった移動量に応じてバリエーション指標の値を変化させるようにする。
例えば、オブジェクト追跡結果履歴情報に含まれる、抽出時刻Tcur-τ前後のオブジェクトの位置情報から、この時点におけるオブジェクトの移動量を算出する。例えば、時刻Tcur-τ-ΔTと時刻Tcur-τ+ΔTの位置の差分を移動量dとして求める。この移動量は画面上での移動量として求めてもよいし、実世界座標系に変換して実世界上での移動量として求めてもよい。そして、バリエーション指標を経過時間tと特徴量抽出回数n、移動量dの関数として、数式(13)のように定式化する。
Figure 0007215569000013
ここで、関数h(t、n、d)は[0、1]を値域として持ち、n、dを固定したときにはtの単調非減少関数となり、t、dを固定したときにはnの単調非増加関数となり、t、nを固定した時にはdの単調非減少関数となる関数である。例えば、図19Cに示すような関数を用いることができる。
オブジェクト追跡結果履歴情報を用いる場合には、さらに、オブジェクトの向き等、オブジェクトの状態に関する他の情報も得ることができる。オブジェクトの状態に応じて特徴量が変化し得る場合には、その状態ごとに特徴量を抽出して保持しておき、照合に用いるようにすると、より漏れを低減できる。よって、オブジェクトの状態ごとに分類して特徴抽出の履歴を求め、そのときのオブジェクトの状態に応じてバリエーション指標を算出するようにすればよい。
オブジェクトの状態を表すカテゴリをc=1、・・・、Cとする。このカテゴリは、例えば、正面、右、背面、左といったオブジェクトの向きに関するカテゴリである。それぞれのカテゴリcに対して、バリエーション指標を数式(14)のように定式化する。
Figure 0007215569000014
ここで、関数h3、cは、数式(13)の関数hをカテゴリcごとに求める関数である。まず、オブジェクト追跡結果に基づいて、現在のオブジェクトの状態がどのカテゴリに当てはまるかを推定し、推定したカテゴリの関数を用いてバリエーション指標を算出する。例えば、カテゴリが向きの場合には、オブジェクトの追跡履歴からオブジェクトの移動方向を求め、移動方向に基づいて、向きを推定するようにすればよい。もし、向きが求まらない場合には、向き不明というカテゴリを設けておき、バリエーション指標を算出するようにしてもよい。
なお、このカテゴリは必ずしも向きによるものでなくてもよく、オブジェクトの状態を反映した様々なカテゴリを用いることができる。もし、追跡情報のみでカテゴリ分類が難しい場合には、他の情報も含めてオブジェクトの状態のカテゴリ分類を行うようになっていてもよい。
上述のバリエーション指標Vは、オブジェクト追跡結果履歴に含まれる、抽出時刻Tcur-τの画像における各追跡対象オブジェクトに対して算出される。そして、算出されたバリエーション指標は、追跡対象オブジェクトのIDと対応付けて出力される。
このようにすることで、特徴量抽出履歴から、クオリティだけでなく、取得特徴量のバリエーションも考慮して、特徴抽出を行うべきオブジェクトを適切に選択できるようになる。
次に、バリエーション判定部140の別の実施形態について述べる。図7は、第1実施形態に係る特徴量抽出装置において、別のバリエーション判定部を例示したブロック図である。図7に示すように、別のバリエーション判定部140は、バリエーション指標算出部155と、抽出履歴記憶部151と、オブジェクト状態変化傾向記憶部154とを有している。
抽出履歴記憶部151は、入力される選択オブジェクト情報に基づいて、各オブジェクトの特徴量抽出履歴を更新、格納しており、特徴量抽出履歴情報をバリエーション指標算出部155へ出力する。オブジェクト状態変化傾向記憶部154は、場所に応じたオブジェクト状態の傾向を表す情報を格納しており、オブジェクト状態変化傾向情報をバリエーション指標算出部155へ出力する。バリエーション指標算出部155は、入力されるオブジェクト追跡結果と、抽出履歴記憶部151から出力される特徴量抽出履歴情報と、オブジェクト状態変化傾向記憶部154から出力されるオブジェクト状態変化傾向情報とに基づいて、バリエーション指標を算出し、出力する。
次に、図7に示すバリエーション判定部140の動作について説明する。抽出履歴記憶部151の動作は、図6のものと同様である。
オブジェクト状態変化傾向記憶部154では、画面内の場所に応じて変化し得る、オブジェクトの状態変化の傾向を表す情報を格納している。オブジェクトがどういう状態を取りやすいかといった傾向は、オブジェクトが存在する場所によって異なる場合がある。例えば、オブジェクトが人物の場合、通路の曲がり角に設置され、人が歩行時に曲がる様子をとらえることができるカメラの場合には、曲がり角においては、曲がる際に、人物の様々な方向の特徴を抽出することが可能となる。一方、それ以外の位置では、人物の方向とカメラの向きの関係が変化しにくいため、特定の方向のみの特徴が抽出される可能性が高い。このように、場所によってオブジェクトの状態変化の度合いが異なる場合には、状態変化が起こりやすい場所では、そうでない場所よりも頻度を上げて特徴抽出を行えば、様々なバリエーションの特徴を効率的に抽出できるようになる。よって、数式(15)で示されるような状態変化の起こりやすさを反映した乗数αを場所(x、y)ごとに定義し、オブジェクト状態変化傾向記憶部154に記憶しておく。
Figure 0007215569000015
ここで、関数hLocは、[0、1]の値域を持つ関数であり、画面上でオブジェクトの状態変化が起こりやすいところほど値が大きくなる関数である。
バリエーション指標算出部155では、バリエーション指標算出部150の動作の説明で述べた方法によって求まるバリエーション指標Vに、数式(15)の乗数αを乗じた値をバリエーション指標Vとして算出する。より具体的には、追跡対象オブジェクトの位置(x、y)をオブジェクト追跡結果情報から求め、この値に基づいて、オブジェクト状態変化傾向情報として乗数αの値を読み出して、バリエーション指標Vの値に乗じるようにする。算出されたバリエーション指標は、追跡対象オブジェクトのIDと対応付けて出力される。
このように、場所に応じたオブジェクト状態の変化の傾向まで考慮することで、オブジェクトの特徴量の変化の有無を、より正確にバリエーション指標に反映でき、より適切なオブジェクト選択が可能となる。
今までは抽出時刻Tcur-τの画像に対するオブジェクト選択について述べてきたが、この選択は、必ずしも画像1枚ずつ行う必要はなく、複数の画像に対してまとめて行うようにしてもよい。例えば、映像の時間区間Dごとに、オブジェクト選択をまとめて行うようになっていてもよい。
図8は、第1実施形態に係る特徴量抽出装置において、オブジェクト選択を行う映像区間と、オブジェクト選択を行うタイミングの時間的な関係を図示した図である。ここでは、映像区間[(n-1)D、nD)(nは自然数)のオブジェクト選択が時刻nD+τの時点で行われ、その結果が出力されることを示している。例えば、[0、D)の映像区間でのオブジェクト選択、およびその結果の出力は、時刻D+τの時点で行われる。以下では、図1に示すオブジェクト選択手段105が、図2に示すようにクオリティ指標のみを用いてオブジェクト選択を行う場合についてまず述べ、次に、図5に示すようにクオリティ指標とバリエーション指標の両方を用いてオブジェクト選択を行う場合について述べる。
クオリティ指標のみを用いてにおけるオブジェクト選択を行う場合には、オブジェクト選択手段105は、現時刻Tcurがオブジェクト選択タイミングTcur=nD+τになった時点で、映像区間[(n-1)D、nD)に含まれるフレームに含まれるオブジェクトの選択をまとめて行う。
このために、まず、クオリティ判定部120は、該当区間の過去画像検出結果と、[(n-1)D-ΔT、Tcur]の追跡結果履歴を読みだす。そして、映像区間[(n-1)D、nD)に含まれるフレームで検出されたオブジェクトそれぞれに対するクオリティ指標を算出し、追跡対象オブジェクトのIDと時刻情報、およびそれに対応づいた検出オブジェクトIDの情報と対応付けてオブジェクト選択部121へ出力する。
オブジェクト選択部121では、基本的にはクオリティ指標が高いオブジェクトを選択する。ただし、選択されるオブジェクトが特定の追跡対象オブジェクトIDに偏ってしまう場合には、なるべく多くの追跡対象オブジェクトIDが選択されるようにしてもよい。例えば、各追跡対象オブジェクトIDに対して、クオリティ指標が最大のものを選択したうえで、残りの分を、クオリティが高いオブジェクトを選択するようにしてもよい。
選択するオブジェクト数は、各フレームで一定数である必要はなく、フレームごとに異なっていてもよい。例えば、該当映像区間内のフレーム数NFrmであり、特徴量抽出処理の時間制約から、一フレーム当たりの選択オブジェクト数の平均をNObj以内に抑える必要がある場合、選択オブジェクト数Nが数式(16)を満たす限りにおいては、フレームごとの選択数は同じでなくてもよい。
Figure 0007215569000016
よって、選択オブジェクト数のターゲット数をNFrmObjとし、この数以下のオブジェクトを選択するようにする。
この際、選択オブジェクト数がターゲット数に達せず、余裕がある場合には、その分、次のオブジェクト選択区間[nD、(n+1)D)でのターゲット数を増やすようにしてもよい。
このようにして選択されたオブジェクトの情報は、選択オブジェクト情報として、オブジェクト特徴抽出手段106へ出力される。選択オブジェクト情報は、選択された追跡対象オブジェクトのIDと時刻情報、およびそれと対応づいた検出オブジェクトのIDとを組み合わせた情報である。
オブジェクト特徴抽出手段106では、映像区間[(n-1)D、nD)に対する選択オブジェクト情報が入力されると、該当するフレームの画像とオブジェクト検出結果を、それぞれ画像記憶手段107と検出結果記憶手段108から読み出し、オブジェクトの特徴を抽出する。オブジェクト抽出の動作自体は、上述の通りである。
なお、上述の例では、映像を一定の時間長Dに区切ってオブジェクト選択を行う場合について述べたが、Dは必ずしも固定である必要はなく、可変にして、適応的に制御するようになっていてもよい。例えば、検出オブジェクト数が少ない場合には、Dを1フレーム間隔とし、遅延を最小限に抑えるようにしておき、オブジェクト数が多くなった時点でDを増やして数フレーム分まとめてオブジェクト選択を行うようになっていてもよい。これにより、遅延を抑えつつ、複数フレームを跨って最適なオブジェクト選択が可能となる。
次に、クオリティ指標とバリエーション指標の両方を用いてオブジェクト選択を行う場合について述べる。
クオリティ判定部120については、上述の通りであり、映像区間[(n-1)D、nD)に含まれるフレームで検出されたオブジェクトに対するクオリティ指標を算出し、オブジェクト選択部141へ出力する。
バリエーション判定部140では、映像区間[(n-1)D-ΔT、Tcur]に含まれるフレームの追跡結果履歴を読みだす。これと、内部に保持しているそれ以前の時刻のオブジェクト選択情報とに基づいて、映像区間[(n-1)D、nD)に含まれるフレームで検出されたオブジェクトそれぞれに対するバリエーション指標を算出する。バリエーション指標の算出方法は、1フレーム単位でオブジェクトを選択する場合と同様であるが、経過時間tと特徴量抽出回数nの値は、映像区間の開始時点(n-1)Dでの値となる。算出されたバリエーション指標は、追跡対象オブジェクトIDと対応付けてオブジェクト選択部141へ出力する。
オブジェクト選択部141では、クオリティ指標Qとバリエーション指標Vとから両方を合わせた選択指標Iを算出し、選択指標が高いオブジェクトを選択する。選択するオブジェクト数については、数式(16)を満たす限りにおいては、フレームごとの選択数は同じでなくてもよい。これ以降の処理は、上述のクオリティ指標のみを用いてオブジェクト選択を行う場合と同様である。
ただし、厳密には、あるオブジェクトがオブジェクト選択部141で選択されると、そのオブジェクトに対するバリエーション指標Vは変化する。次に、この点を考慮してオブジェクト選択を行う場合の動作について説明する。
この場合、オブジェクト選択部141では、まず、選択指標Iが最大となるオブジェクトを選択する。すると、選択されたオブジェクト情報を選択オブジェクト情報として出力する。この情報は、バリエーション判定部140にもフィードバックされる。バリエーション判定部140では、フィードバックされた時点で選択オブジェクトのオブジェクト選択履歴が変化するため、その追跡対象オブジェクトIDに対するバリエーション指標Vを計算しなおし、オブジェクト選択部141に出力する。オブジェクト選択部141では、計算しなおされたバリエーション指標Vを用いて再度選択指標を計算し、選択指標が最大となるオブジェクトを選択し、選択されたオブジェクト情報を出力する。これを、選択オブジェクト数がターゲット数に達する、あるいは、他の条件(例えば選択指標Iが一定値を下回るなど)を満たすまで繰り返す。このように、1つオブジェクトを選択する度にそのオブジェクトのバリエーション指標を計算しなおし、選択していくことで、より適したオブジェクト選択が可能となる。
この場合、オブジェクト特徴抽出手段106では、選択オブジェクト情報が出そろった時点でオブジェクトの特徴抽出を行ってもよいし、あるいは、選択オブジェクト情報が出力されるたびに逐次特徴量を抽出するようになっていてもよい。
このように、複数フレームのオブジェクト選択をまとめて行うことにより、フレームごとに選択する場合に比べ、オブジェクト選択の柔軟性が増し、より適切なオブジェクト選択が可能となる。
(第2実施形態)
第2実施形態について説明する。図9は、第2実施形態に係るオブジェクト特徴量抽出装置の構成を例示したブロック図である。
図9に示すように、本実施形態のオブジェクト特徴量抽出装置100は、図1のオブジェクト特徴量抽出装置100と比較すると、オブジェクト位置関係解析手段204が新たに追加され、オブジェクト選択手段105の代わりにオブジェクト選択手段205が設けられている点が図1のオブジェクト特徴量抽出装置100と異なる。
映像取得手段101、オブジェクト検出手段102、オブジェクト追跡手段103と、画像記憶手段107と、検出結果記憶手段108の接続関係は、図1の場合と同様である。追跡結果記憶手段109も同様であるが、出力は、オブジェクト位置関係解析手段204へも接続される。オブジェクト位置関係解析手段204は、追跡結果記憶手段109から出力される追跡結果履歴情報に基づいて、オブジェクトの位置関係を求め、オブジェクト位置関係情報をオブジェクト選択手段205へ出力する。オブジェクト選択手段205は、検出結果記憶手段108から出力される過去画像追跡結果と、追跡結果記憶手段109から出力される追跡結果履歴情報と、オブジェクト位置関係解析手段204から出力されるオブジェクト位置関係情報とに基づいて、特徴抽出を行うオブジェクトを選択し、選択オブジェクト情報をオブジェクト特徴抽出手段106に出力する。オブジェクト特徴抽出手段106は、オブジェクト選択手段205から出力される選択オブジェクト情報に含まれるオブジェクトの特徴量を、検出結果記憶手段108から出力されるオブジェクト検出結果に基づいて、画像記憶手段107から出力される画像から抽出する。
次に、図9のオブジェクト特徴量抽出装置100の動作について説明する。
映像取得手段101、オブジェクト検出手段102、オブジェクト追跡手段103と、画像記憶手段107と、検出結果記憶手段108と、追跡結果記憶手段109の動作は、図1の場合と同様である。
オブジェクト位置関係解析手段204では、追跡結果記憶手段109から出力される追跡結果履歴情報に含まれる各オブジェクトの位置情報を比較し、フレームごとに追跡対象オブジェクト間の位置関係を解析する。具体的には、オブジェクト同士が重なっているかどうか、重なっている場合には、どのオブジェクトが最も手前であるかを判定し、オブジェクト位置関係情報を生成する。
重なり判定には、例えば、各追跡対象オブジェクトの外接矩形同士に重なりがあるかどうかを調べればよい。この際、重なっているかどうかという情報だけでなく、重なりの度合いを表す重なり率も合わせて求めてもよい。
手前かどうかの判定は、通常の斜め上から撮影する監視カメラの画角の場合、より下側に映るオブジェクトの方が手前にあると見做せる。よって、重なりが判定された場合には、画面上の外接矩形や位置情報から、最も下側に位置するオブジェクトが手前にあるオブジェクトと判定し、それ以外は隠されていると判定する。あるいは、オブジェクトの位置情報を実世界座標に変換し、最もカメラに近いオブジェクトを手前にあるオブジェクトとして判定してもよい。
さらに、重なりの判定は、オブジェクト全体ではなく、オブジェクトの各部位に対して行ってもよい。例えば、オブジェクトの外接矩形を複数の領域に分割し、分割した領域ごとに重なりを判定してもよい。この場合も、分割した領域ごとに重なり率も算出してもよい。
生成されたオブジェクト位置関係情報は、オブジェクト選択手段205へ出力される。
オブジェクト選択手段205の動作の詳細は後述する。生成された選択オブジェクト情報は、オブジェクト特徴抽出手段106に出力される。オブジェクト特徴抽出手段106の動作は、図1のものと同様である。
次に、オブジェクト選択手段205について詳細に説明する。図10は、第2実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択手段の構成を例示したブロック図である。
図10に示すように、オブジェクト選択手段205は、クオリティ判定部220とオブジェクト選択部121とを有している。
クオリティ判定部220は、入力されるオブジェクト追跡結果履歴情報と過去画像オブジェクト検出結果とオブジェクト位置関係情報とに基づいてクオリティ指標を求め、オブジェクト選択部121へ出力する。オブジェクト選択部121は、クオリティ判定部220から出力されるクオリティ指標に基づいて、特徴量を抽出するオブジェクトを選択し、選択オブジェクト情報を出力する。
次に、オブジェクト選択手段205の動作について説明する。オブジェクト追跡結果履歴情報、過去画像オブジェクト検出結果、およびオブジェクト位置関係情報は、クオリティ判定部220へ入力される。
クオリティ判定部220も図2のクオリティ判定部120と同様に、各オブジェクトのクオリティ指標を算出する。ただし、この場合、オブジェクト位置関係情報も用いてクオリティ指標を算出する点が異なる。
まず、オブジェクト追跡結果履歴情報に含まれる各追跡対象オブジェクトに対して、オブジェクト位置関係情報を参照し、他のオブジェクトとの重なりによる隠ぺいが生じていないかどうかを判定する。隠ぺいが生じている場合には、特徴量抽出の対象となる画像領域の一部、あるいは全部がそのオブジェクトに帰属しなくなるため、その領域から抽出される特徴量は、本来の特徴量とは異なる値になり、特徴量のクオリティが低下する。この低下の程度は、隠蔽の度合い(以降隠蔽度と呼ぶ)によって変化するため、クオリティ指標が隠蔽度に応じて下がるように定義すればよい。ここで、隠蔽度は、例えばオブジェクト領域の中で手前のオブジェクトに隠されている領域の比率(隠蔽率)として定義できる。隠蔽度をrOcc、隠蔽度に基づくクオリティ指標をqOccとすると、数式(17)のように定式化できる。
Figure 0007215569000017
ここで、fOcc(rOcc)は、[0、1]を値域としてもつ単調非増加関数であり、例えば、図17Aのように表される。この関数は、例えば隠蔽度と照合精度の関係を求め、fOcc(rOcc)として用いるようにすればよい。
なお、隠蔽度を求める際、オブジェクト領域全体の隠蔽率をそのまま用いるのではなく、オブジェクト領域内でどの部分が隠蔽されているかも考慮して隠蔽度を算出するようにしてもよい。例えば、オブジェクトが人物の場合、足下に近い領域が少し隠されても照合精度の影響は小さいが、頭部領域に近い領域が隠された場合には、照合精度の影響が大きくなる場合がある。このように、隠蔽部位によって照合に与える影響度が異なる場合には、部位ごとに隠蔽率を算出し、それらを重みづけ加算して隠蔽度を算出するようにすればよい。例えば、オブジェクトが人物の場合、図18に示すように、水平な線で鉛直方向に複数の領域R、R、・・・、R(図18は、M=5の場合に相当)に分割し、それぞれの領域ごとに、隠蔽率を算出し、数式(18)に示すように重みづけ加算して隠蔽度を算出する。
Figure 0007215569000018
ここで、r、wはそれぞれ領域Rに対する隠蔽率と重み係数である。重み係数は、照合に対する影響が大きい領域ほど大きな値をとる係数であり、総和が1になるように正規化されているものとする。このようにオブジェクトの部位ごとに重みづけして算出した隠蔽度を用いて、隠蔽度に基づくクオリティ指標を算出するようにすればよい。
そして、その他の解像度や動き、姿勢・向きに対するクオリティ指標は、上述の通り算出し、各要因に対するクオリティ指標と全体のクオリティ指標Qの関係を表す関数gを数式(19)のように定義し、用いるようにする。
Figure 0007215569000019
数式(19)の関数としては、例えば数式(20)に示す関数を用いることができる。
Figure 0007215569000020
さらに、環境要因に基づくクオリティ指標も用いる場合には、各要因に対するクオリティ指標と全体のクオリティ指標Qの関係を表す関数gを数式(21)のように定義し、用いるようにする。
Figure 0007215569000021
数式(21)の関数としては、例えば数式(22)に示す関数を用いることができる。
Figure 0007215569000022
このようにすることで、オブジェクト同士の隠ぺいによる特徴量のクオリティの低下も予測し、特徴抽出を行うべきオブジェクトを選択できるようになる。
次に、図9のオブジェクト選択手段205の別の実施の形態について説明する。図11は、第2実施形態に係るオブジェクト特徴量抽出装置において、別のオブジェクト選択手段を例示したブロック図である。
図11に示すように、別のオブジェクト選択手段205は、クオリティ判定部220とバリエーション判定部140とオブジェクト選択部141とを有している。
図5のオブジェクト選択手段105と比較すると、クオリティ判定部120の代わりにクオリティ判定部220が設けられている点を除けば、図5のオブジェクト選択手段105と同様である。
次に、図11のオブジェクト選択手段205の動作について説明する。クオリティ判定部220の動作は、図10のクオリティ判定部220と同様である。また、バリエーション判定部140とオブジェクト選択部141の動作は、図5のものと同様である。
このようにして、クオリティ指標とバリエーション指標の両方を考慮してオブジェクトを選択できるようになる。なお、第2実施形態の場合も、第1実施形態で述べたように複数フレームまとめてオブジェクトを選択するようにしてもよいことは言うまでもない。
(第3実施形態)
次に、本発明の第3実施形態について説明する。図12は、第3実施形態に係るオブジェクト特徴量抽出装置の構成を例示したブロック図である。図12に示すように、第3実施形態のオブジェクト特徴量抽出装置100は、図1のオブジェクト特徴量抽出装置100と比較すると、オブジェクト検出傾向解析手段310が新たに追加され、オブジェクト選択手段105の代わりにオブジェクト選択手段305が設けられている点が図1のオブジェクト特徴量抽出装置100と異なる。
映像取得手段101、オブジェクト検出手段102、オブジェクト追跡手段103と、画像記憶手段107と、追跡結果記憶手段109の接続関係は、図1の場合と同様である。検出結果記憶手段108も同様であるが、出力は、オブジェクト検出傾向解析手段310へも接続される。
オブジェクト検出傾向解析手段310は、検出結果記憶手段108から出力される過去画像追跡結果に基づいて、オブジェクトの検出傾向を分析し、オブジェクト検出傾向情報をオブジェクト選択手段305へ出力する。オブジェクト選択手段305は、検出結果記憶手段108から出力される過去画像追跡結果と、追跡結果記憶手段109から出力される追跡結果履歴情報と、オブジェクト検出傾向解析手段310から出力されるオブジェクト検出傾向情報とに基づいて、特徴抽出を行うオブジェクトを選択し、選択オブジェクト情報をオブジェクト特徴抽出手段106に出力する。オブジェクト特徴抽出手段106は、オブジェクト選択手段305から出力される選択オブジェクト情報に含まれるオブジェクトの特徴量を、検出結果記憶手段108から出力されるオブジェクト検出結果に基づいて、画像記憶手段107から出力される画像から抽出する。
次に、図12のオブジェクト特徴量抽出装置100の動作について説明する。映像取得手段101、オブジェクト検出手段102、オブジェクト追跡手段103と、画像記憶手段107と、検出結果記憶手段108と、追跡結果記憶手段109の動作は、図1の場合と同様である。
オブジェクト検出傾向解析手段310では、入力されるオブジェクト検出結果情報を分析し、画像の場所ごとのオブジェクト検出傾向を求める。棚などの障害物がある場所では、オブジェクトが隠蔽され、検出されないケースが増える。オブジェクト全体が隠されている場合は全く検出されないが、一部が隠された場合には、検出されたりされなかったりする。このため、ある一定時間内におけるオブジェクトの検出回数を場所ごとに集計すると、障害物等がない場所であれば頻度が高くなるのに対し、障害物等で隠される場所では、オブジェクトの検出頻度が低くなる。このような場所ごとの頻度情報をオブジェクト検出傾向情報として生成する。
あるいは、オブジェクト検出手段102が、オブジェクトの複数の部位を検出する手段である場合には、ある一定時間内におけるオブジェクトの部位の検出回数を場所ごとに集計するようにしてもよい。この際、合わせて、複数の部位が同時に検出されたかどうかといった同時検出の傾向も場所ごとに集計し、オブジェクト検出傾向情報に含めるようにしてもよい。
例えば、オブジェクトが人物であり、オブジェクト検出手段102が人物の頭部と人体を同時に検出する検出手段である場合、頭部と人体それぞれに対して、検出頻度を場所ごとに集計する。同時に、頭部と人体の両方が同時に検出された回数についても、場所ごとに集計する。同時検出の傾向は、その場所での部分的な隠蔽の傾向の把握に用いることができる。頭部と人体を同時検出する例で、頭部が検出されているにも関わらず、人体が検出されない場合が多い場合は、人物が存在するにも関わらず、人体が検出されない状況が想定される。これは、その場所では、人体領域の頭部よりも下側の領域が隠されている可能性が高いことを示しているといえる。このように、複数の部位の検出結果を合わせて分析することで、場所ごとのオブジェクト隠蔽の傾向をより詳しく把握できるようになる。
このようにして生成されたオブジェクト検出傾向情報は、オブジェクト選択手段305へ出力される。
オブジェクト選択手段305では、図1のオブジェクト選択手段105での動作に加え、さらに、オブジェクト検出傾向情報を用いて選択オブジェクト情報を生成する。オブジェクト選択手段305の詳細については後述する。生成された選択オブジェクト情報は、オブジェクト特徴抽出手段106へ出力される。オブジェクト特徴抽出手段106の動作も、図1のものと同様であり、オブジェクト特徴量が抽出され、出力される。
このようにすることで、オブジェクトの検出結果から、場所に依存するオブジェクトの隠ぺいの度合いを自動的に判定し、特徴量を抽出するオブジェクトの選択に用いることができるようになる。
次に、オブジェクト選択手段305の実施の形態について説明する。図13は、第3実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択手段の構成を例示したブロック図である。図13に示すように、オブジェクト選択手段305は、クオリティ判定部320とオブジェクト選択部121とを有している。
クオリティ判定部320は、入力されるオブジェクト追跡結果履歴と過去画像オブジェクト検出結果とオブジェクト検出傾向情報とに基づいてクオリティ指標を求め、オブジェクト選択部121へ出力する。オブジェクト選択部121は、クオリティ判定部320から出力されるクオリティ指標に基づいて、特徴量を抽出するオブジェクトを選択し、選択オブジェクト情報を出力する。
次に、オブジェクト選択手段305の動作について説明する。クオリティ判定部320には、過去画像オブジェクト検出結果、オブジェクト追跡結果履歴に加え、オブジェクト検出傾向情報が入力される。過去画像オブジェクト検出結果、オブジェクト追跡結果履歴からクオリティ指標を算出する動作は、図2のクオリティ判定部120と同様である。クオリティ判定部320では、さらにオブジェクト検出傾向情報も用いる。
上述の通り、場所ごとの検出結果の頻度を表すオブジェクト検出傾向情報から、障害物によるオブジェクトの隠蔽の状況を把握することができる。よって、場所(x、y)におけるオブジェクトの検出頻度をFreq(x、y)とすると、数式(23)によって求まる乗数βを、過去画像オブジェクト検出結果、オブジェクト追跡結果履歴から求まるクオリティ指標に乗じ、最終的なクオリティ指標を算出する。
Figure 0007215569000023
ここで、関数qLocは、頻度Freq(x、y)に対する単調非減少関数である。もし、複数部位の同時検出の頻度を含む場合には、同時検出の頻度を最も検出された部位の頻度で除した比率を検出頻度の代わりに用いるようにしてもよい。求まったクオリティ指標は、オブジェクト選択部121へ出力される。
オブジェクト選択部121の動作は図2のものと同様であり、選択オブジェクト情報が生成され、出力される。
このようにすることで、場所によるオブジェクトの隠ぺい発生傾向を自動的に判定し、クオリティ指標に反映させることができる。
次に、オブジェクト選択手段305の別の実施の形態について説明する。図14は、第3実施形態に係るオブジェクト特徴量抽出装置において、別のオブジェクト選択手段の構成を例示したブロック図である。図14に示すように、別のオブジェクト選択手段305は、クオリティ判定部320とバリエーション判定部140とオブジェクト選択部141とを有している。
別のオブジェクト選択手段305は、図5のオブジェクト選択手段105と比較すると、クオリティ判定部120の代わりに、クオリティ判定部320が設けられている以外は、接続関係は、図5のオブジェクト選択手段105と同様である。
次に、図14に示すオブジェクト選択手段305の動作について説明する。クオリティ判定部320の動作は図13のものと同様であり、オブジェクト選択部141にクオリティ指標を出力する。バリエーション判定部140とオブジェクト選択部141の動作は図5のオブジェクト選択手段105と同様である。
このようにすることで、場所によるオブジェクトの隠ぺい発生傾向を自動的に判定し、クオリティ指標に反映させ、かつバリエーション指標も考慮してオブジェクトを選択できるようになる。なお、第3の実施の形態の場合も、第1の実施の形態で述べたように複数フレームまとめてオブジェクトを選択するようにしてもよいことは言うまでもない。
(第4実施形態)
次に、本発明の第4の実施の形態について説明する。図15は、第4実施形態に係るオブジェクト特徴量抽出装置の構成を例示したブロック図である。図15に示すように、第4実施形態のオブジェクト特徴量抽出装置100は、図9のオブジェクト特徴量抽出装置100と比較すると、オブジェクト選択手段205の代わりにオブジェクト選択手段405が設けられ、さらにオブジェクト検出傾向解析手段310が追加されている点が異なる。
オブジェクト検出傾向解析手段310は、検出結果記憶手段108から出力される過去画像オブジェクト検出結果に基づいて、オブジェクトの検出傾向を分析し、オブジェクト検出傾向情報をオブジェクト選択手段405へ出力する。オブジェクト選択手段405は、検出結果記憶手段108から出力される過去画像オブジェクト検出結果と、追跡結果記憶手段109から出力されるオブジェクト追跡結果履歴と、オブジェクト位置関係解析手段204から出力されるオブジェクト位置関係情報と、オブジェクト検出傾向解析手段310から出力されるオブジェクト検出傾向情報とに基づいて、特徴抽出を行うオブジェクトを選択し、選択オブジェクト情報をオブジェクト特徴抽出手段106に出力する。それ以外の接続関係は、図9のものと同じである。
次に、図15のオブジェクト特徴量抽出装置100の動作について説明する。映像取得手段101、オブジェクト検出手段102、オブジェクト追跡手段103、画像記憶手段107、検出結果記憶手段108、追跡結果記憶手段109、オブジェクト位置関係解析手段204の動作は、図9のものと同様である。オブジェクト検出傾向解析手段310の動作も図12のものと同様である。
オブジェクト選択手段405では、図9のオブジェクト選択手段205での動作に加え、さらに、オブジェクト検出傾向情報を用いて選択オブジェクト情報を生成する。オブジェクト選択手段405の詳細については後述する。生成された選択オブジェクト情報は、オブジェクト特徴抽出手段106へ出力される。
オブジェクト特徴抽出手段106の動作も、図1のものと同様であり、オブジェクト特徴量が抽出され、出力される。
このようにすることで、オブジェクト位置関係情報に加え、オブジェクト検出傾向も用いてオブジェクトを選択するため、より適切な選択ができるようになる。
次に、オブジェクト選択手段405の実施の形態について説明する。図16Aは、第4実施形態に係るオブジェクト特徴量抽出装置において、オブジェクト選択手段の構成を例示したブロック図である。図16Aに示すように、オブジェクト選択手段405は、クオリティ判定部420とオブジェクト選択部121とを有している。
オブジェクト選択手段405は、図10のオブジェクト選択手段205と比較すると、クオリティ判定部220の代わりにクオリティ判定部420が設けられている点が異なる。
クオリティ判定部420は、入力されるオブジェクト追跡結果履歴と過去画像オブジェクト検出結果とオブジェクト検出傾向情報とオブジェクト位置関係情報とに基づいてクオリティ指標を求め、オブジェクト選択部121へ出力する。オブジェクト選択部121は、クオリティ判定部420から出力されるクオリティ指標に基づいて、特徴量を抽出するオブジェクトを選択し、選択オブジェクト情報を出力する。
次に、オブジェクト選択手段405の動作について説明する。クオリティ判定部420には、過去画像オブジェクト検出結果、オブジェクト追跡結果履歴、オブジェクト位置関係情報に加え、オブジェクト検出傾向情報が入力される。過去画像オブジェクト検出結果、オブジェクト追跡結果履歴、オブジェクト位置関係情報からクオリティ指標を算出する動作は、図10のクオリティ判定部220と同様である。クオリティ判定部420では、さらにオブジェクト検出傾向情報も用いる。
すなわち、図13のクオリティ判定部320と同様に、場所ごとの検出結果の頻度を表すオブジェクト検出傾向情報から、数式(23)で示される乗数βを求め、過去画像オブジェクト検出結果、オブジェクト追跡結果履歴、オブジェクト位置関係情報から求まるクオリティ指標に乗じ、最終的なクオリティ指標を算出する。求まったクオリティ指標は、オブジェクト選択部121へ出力される。
オブジェクト選択部121の動作は図10のものと同様であり、選択オブジェクト情報が生成され、出力される。
このようにすることで、オブジェクト位置関係だけでなく、オブジェクト検出傾向もクオリティ指標に反映できるようになる。
次に、オブジェクト選択手段405の別の実施の形態について説明する。図16Bは、第4実施形態に係るオブジェクト特徴量抽出装置において、別のオブジェクト選択手段の構成を例示したブロック図である。図16Bに示すように、別のオブジェクト選択手段405は、クオリティ判定部420とバリエーション判定部140とオブジェクト選択部141とを有している。
別のオブジェクト選択手段405は、図11のオブジェクト選択手段205と比較すると、クオリティ判定部220の代わりに、クオリティ判定部420が設けられている以外は、接続関係は、図11のオブジェクト選択手段205と同様である。
次に、図16Bに示すオブジェクト選択手段405の動作について説明する。クオリティ判定部420の動作は図16Aのものと同様であり、オブジェクト選択部141にクオリティ指標を出力する。バリエーション判定部140とオブジェクト選択部141の動作は図5のオブジェクト選択手段105と同様である。
このようにすることで、オブジェクト位置関係だけでなく、オブジェクト検出傾向もクオリティ指標に反映でき、さらにバリエーション指標も考慮してオブジェクトを選択できるようになる。なお、第4の実施の形態の場合も、第1の実施の形態で述べたように複数フレームまとめてオブジェクトを選択するようにしてもよいことは言うまでもない。
<ハードウエアの構成例>
ここで、オブジェクト特徴量抽出装置100のハードウエア構成について以下に説明する。オブジェクト特徴量抽出装置100の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、オブジェクト特徴量抽出装置100の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図20は、第1~第4実施形態に係るオブジェクト特徴量抽出装置を実現するための計算機、ネットワーク、カメラを例示した図である。計算機1000は任意の計算機である。例えば計算機1000は、Personal Computer(PC)、サーバマシン、タブレット端末、又はスマートフォンなどである。計算機1000は、オブジェクト特徴量抽出装置100を実現するために設計された専用の計算機であってもよいし、汎用の計算機であってもよい。
計算機1000は、バス1020、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120を有する。バス1020は、プロセッサ1040、メモリ1060、ストレージデバイス1080、入出力インタフェース1100、及びネットワークインタフェース1120が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1040などを互いに接続する方法は、バス接続に限定されない。プロセッサ1040は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又はFPGA(Field-Programmable Gate Array)などの種々のプロセッサである。メモリ1060は、RAM(Random Access Memory)などを用いて実現される主記憶装置である。ストレージデバイス1080は、ハードディスク、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などを用いて実現される補助記憶装置である。
入出力インタフェース1100は、計算機1000と入出力デバイスとを接続するためのインタフェースである。例えば入出力インタフェース1100には、キーボードなどの入力装置や、ディスプレイ装置などの出力装置が接続される。
ネットワークインタフェース1120は、計算機1000をネットワーク1300に接続するためのインタフェースである。このネットワークは、例えばLAN(Local Area Network)やWAN(Wide Area Network)である。ネットワークインタフェース1120がネットワークに接続する方法は、無線接続であってもよいし、有線接続であってもよい。
さらに、ネットワーク1300にはカメラ1500が接続されており、計算機1000とカメラ1500とはネットワーク1300を介してデータを通信できるようになっている。カメラ1500は、オブジェクト特徴量抽出装置100の映像取得手段101に該当する。
ストレージデバイス1080は、オブジェクト特徴量抽出装置100の各手段を実現するプログラムモジュールを記憶している。プロセッサ1040は、これら各プログラムモジュールをメモリ1060に読み出して実行することで、各プログラムモジュールに対応する機能を実現する。
なお、オブジェクト特徴量抽出装置100の一部の機能はカメラ1500側で実行されていてもよい。すなわち、カメラ1500の内部にプロセッサやストレージデバイス、メモリが格納されており、オブジェクト特徴量抽出装置100の各手段の処理の全部、あるいは一部をこれらのコンポーネントを用いて実行するようになっていてもよい。例えば、映像取得手段101、オブジェクト検出手段102、オブジェクト追跡手段103の処理をカメラ1500側で実行し、それ以外の処理を計算機1000側で実行するようになっていてもよい。あるいは、オブジェクト特徴抽出手段106以外の処理をカメラ側で実行するようになっており、オブジェクト特徴抽出手段106については、計算機1000側で実行するようになっていてもよい。
また、映像取得手段101は、カメラで撮影された映像を蓄積する、ハードディスクレコーダのような映像記録装置であってもよい。この場合は、映像取得手段101は、映像記録装置で蓄積された映像を読み出して再生することで、映像を取得し、ネットワーク1300を介して計算機1000側に送信する。そして、その後の処理を計算機1000側で実行する。
以上、本発明を、上述した模範的な実施の形態に適用した例として説明した。しかしながら、本発明の技術的範囲は、上述した各実施の形態に記載した範囲には限定されない。当業者には、係る実施の形態に対して多様な変更または改良を加えることが可能であることは明らかである。そのような場合、係る変更または改良を加えた新たな実施の形態も、本発明の技術的範囲に含まれ得る。そしてこのことは、特許請求の範囲に記載した事項から明らかである。上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
映像を取得する映像取得手段と、
前記映像からオブジェクトを検出し,検出結果を生成するオブジェクト検出手段と、
前記映像と前記検出結果に基づいてオブジェクトを追跡し,追跡結果を生成するオブジェクト追跡手段と、
前記映像を記憶する映像記憶手段と、
前記検出結果を記憶する検出結果記憶手段と、
前記追跡結果を記憶する追跡結果記憶手段と、
前記検出結果記憶手段に記憶された検出結果と前記追跡結果記憶手段に記憶された追跡結果とに基づいて、現時刻より1フレーム以上前である抽出時刻において検出されたオブジェクトの特徴量の質を予測するクオリティ指標を求め、クオリティ指標に基づいて前記抽出時刻において特徴抽出するオブジェクトを選択し、オブジェクト選択情報を生成するオブジェクト選択手段と、
前記映像記憶手段に蓄えられた前記抽出時刻の映像と前記検出結果記憶手段に蓄えられた前記抽出時刻の検出結果と前記オブジェクト選択情報に基づいて、前記抽出時刻のフレームから検出されたオブジェクトの特徴量を抽出するオブジェクト特徴抽出手段と
を有することを特徴とする、オブジェクト特徴量抽出装置。
(付記2)
前記オブジェクト選択手段は、前記検出結果を用いて判定されるオブジェクトの解像度か、前記追跡結果を用いて判定されるオブジェクトの動き量か、オブジェクトの姿勢や向きのいずれか少なくとも1つに基づくクオリティ指標を算出し、それらに基づいて全体のクオリティ指標を算出すること
を特徴とする付記1に記載のオブジェクト特徴抽出装置。
(付記3)
前記オブジェクト選択手段は、オブジェクトの位置に応じて定まる環境要因に基づくクオリティ指標を記憶しており、前記追跡結果から求まるオブジェクトの位置情報に基づいて、環境要因に基づくクオリティ指標を求め、求まった値も用いて全体のクオリティ指標を算出すること
を特徴とする付記1または2に記載のオブジェクト特徴抽出装置。
(付記4)
前記オブジェクト選択手段は、前記クオリティ指標に加え、取得特徴量のバリエーション改善の度合いを予測するバリエーション指標も求め、前記クオリティ指標と前記バリエーション指標との両方に基づいて特徴抽出するオブジェクトを選択し、オブジェクト選択情報を生成すること
を特徴とする付記1から3のいずれか1項に記載のオブジェクト特徴抽出装置。
(付記5)
前記バリエーション指標は、前回の特徴抽出からの経過時間に基づいて決定され、経過時間が大きいほど大きな値となること
を特徴とする付記4に記載のオブジェクト特徴抽出装置。
(付記6)
前記バリエーション指標は、前回の特徴抽出からの経過時間とそれまでの特徴量の抽出回数に基づいて決定され、経過時間が大きいほど、または、特徴量の抽出回数が少ないほど大きな値となること
を特徴とする付記4に記載のオブジェクト特徴抽出装置。
(付記7)
前記バリエーション指標は、前記追跡結果に基づいて決定されるオブジェクトの移動量も用いて決定され、移動量が大きいほど大きな値となること
を特徴とする付記4~6のいずれか1項に記載のオブジェクト特徴抽出装置。
(付記8)
前記バリエーション指標は、オブジェクトの状態に応じて定まるカテゴリも考慮して定まる値であり、前記追跡結果に基づいてカテゴリを判定し、バリエーション指標を求めること
を特徴とする付記4~7のいずれか1項に記載のオブジェクト特徴抽出装置。
(付記9)
前記バリエーション指標は、オブジェクトの位置に応じて定まるオブジェクトの状態変化の傾向を表す情報も用いて定めること
を特徴とする付記4~8のいずれか1項に記載のオブジェクト特徴抽出装置。
(付記10)
前記追跡結果記憶手段に記憶された追跡結果に基づいてオブジェクトの位置関係を解析し,オブジェクト位置関係情報を生成するオブジェクト位置関係解析手段をさらに有し、
前記オブジェクト選択手段は、前記オブジェクト位置関係情報も用いてクオリティ指標を算出すること
を特徴とする付記1~9のいずれか1項に記載のオブジェクト特徴抽出装置。
(付記11)
前記オブジェクト選択手段は、前記オブジェクト位置関係情報からオブジェクトが他のオブジェクトによって隠されている度合を表す隠蔽度を求め、隠蔽度の単調非増加関数によってクオリティ指標を算出し、求まった値も用いて全体のクオリティ指標を算出すること
を特徴とする付記10に記載のオブジェクト特徴抽出装置。
(付記12)
前記検出結果記憶手段に記憶された検出結果に基づいてオブジェクト検出の場所ごとの傾向を分析し、オブジェクト検出傾向情報を生成するオブジェクト検出傾向解析手段をさらに有し、
前記オブジェクト選択手段は、前記オブジェクト検出傾向情報も用いてクオリティ指標を算出すること
を特徴とする付記1~11のいずれか1項に記載のオブジェクト特徴抽出装置。
(付記13)
前記オブジェクト選択手段は、現時刻より1フレーム以上前である複数の抽出時刻において検出されたオブジェクトの特徴量の質を予測するクオリティ指標を求め、クオリティ指標に基づいて前記複数の抽出時刻において特徴抽出するオブジェクトをまとめて選択してオブジェクト選択情報を生成し、
前記オブジェクト特徴抽出手段は、前記複数の抽出時刻に対して選択されたオブジェクトの特徴量を抽出すること
を特徴とする付記1~12のいずれか1項に記載のオブジェクト特徴抽出装置。
(付記14)
前記複数の抽出時刻に含まれる時刻の数は、検出されたオブジェクト数に応じて動的に変化すること
を特徴とする付記13に記載のオブジェクト特徴抽出装置。
(付記15)
前記複数の抽出時刻に対してオブジェクト選択を行う際に、選択されるオブジェクト数が、所定の平均オブジェクト選択数に前記抽出時刻の数を乗じた数をオブジェクト選択のターゲット数とし、選択されるオブジェクトの数がターゲット数以下になるように制御すること
を特徴とする付記13または14に記載のオブジェクト特徴抽出装置。
(付記16)
前記制御において、選択されたオブジェクト数がターゲット数に満たない場合は、次のオブジェクト選択では、前記ターゲット数と選択されたオブジェクト数の差分を加算してターゲット数を設定すること
を特徴とする付記15に記載のオブジェクト特徴抽出装置。
100 オブジェクト特徴量抽出装置
101 映像取得手段
102 オブジェクト検出手段
103 オブジェクト追跡手段
105 オブジェクト選択手段
106 オブジェクト特徴抽出手段
107 画像記憶手段
108 検出結果記憶手段
109 追跡結果記憶手段
120 クオリティ判定部
121 オブジェクト選択部
130 クオリティ指標算出部
131 クオリティ指標算出部
132 環境要因記憶部
140 バリエーション判定部
141 オブジェクト選択部
150 バリエーション指標算出部
151 抽出履歴記憶部
154 オブジェクト状態変化傾向記憶部
155 バリエーション指標算出部
204 オブジェクト位置関係解析手段
205 オブジェクト選択手段
220 クオリティ判定部
305 オブジェクト選択手段
310 オブジェクト検出傾向解析手段
320 クオリティ判定部
405 オブジェクト選択手段
420 クオリティ判定部

Claims (10)

  1. 映像を取得し、取得した前記映像を画像列として生成する映像取得手段と、
    生成された前記画像からオブジェクトを検出し、検出結果を生成するオブジェクト検出手段と、
    生成された前記画像と前記検出結果とに基づいて前記オブジェクトを追跡し、追跡結果を生成するオブジェクト追跡手段と、
    前記画像を記憶する画像記憶手段と、
    前記検出結果を記憶する検出結果記憶手段と、
    前記追跡結果を記憶する追跡結果記憶手段と、
    前記検出結果記憶手段に記憶された前記検出結果と前記追跡結果記憶手段に記憶された前記追跡結果とに基づいて、現時刻より1フレーム以上前である抽出時刻において検出された前記オブジェクトの特徴量の質を予測するクオリティ指標を算出し、前記クオリティ指標に基づいて前記抽出時刻において特徴抽出する前記オブジェクトを選択し、オブジェクト選択情報を生成するオブジェクト選択手段と、
    前記画像記憶手段に記録された前記抽出時刻の前記画像と、前記検出結果記憶手段に記憶された前記抽出時刻の前記検出結果と、前記オブジェクト選択情報とに基づいて、前記抽出時刻のフレームから検出された前記オブジェクトの特徴量を抽出するオブジェクト特徴抽出手段と、
    を有することを特徴とするオブジェクト特徴量抽出装置。
  2. 前記オブジェクト選択手段は、前記検出結果を用いて判定される前記オブジェクトの解像度、並びに、前記追跡結果を用いて判定される前記オブジェクトの動き量、前記オブジェクトの姿勢、及び、前記オブジェクトの向きのうち少なくともいずれか1つの前記クオリティ指標を算出する、
    ことを特徴とする請求項1に記載のオブジェクト特徴量抽出装置。
  3. 前記オブジェクト選択手段は、前記オブジェクトの位置に応じて定まる環境要因に基づく前記クオリティ指標を記憶しており、前記追跡結果から求まる前記オブジェクトの位置情報に基づいて、前記環境要因に基づく前記クオリティ指標を算出する、
    ことを特徴とする請求項2に記載のオブジェクト特徴量抽出装置。
  4. 前記オブジェクト選択手段は、前記クオリティ指標に加え、取得特徴量のバリエーション改善の度合いを予測するバリエーション指標も算出し、前記クオリティ指標と前記バリエーション指標との両方に基づいて特徴抽出する前記オブジェクトを選択し、前記オブジェクト選択情報を生成する、
    ことを特徴とする請求項1~3のいずれか1項に記載のオブジェクト特徴量抽出装置。
  5. 前記バリエーション指標は、前回の特徴抽出からの経過時間に基づいて決定され、前記経過時間が大きいほど大きな値となる、
    ことを特徴とする請求項4に記載のオブジェクト特徴量抽出装置。
  6. 前記バリエーション指標は、前回の特徴抽出からの経過時間とそれまでの特徴量の抽出回数に基づいて決定され、前記経過時間が大きいほど、または、前記特徴量の抽出回数が少ないほど大きな値となる、
    ことを特徴とする請求項4に記載のオブジェクト特徴量抽出装置。
  7. 前記バリエーション指標は、前記追跡結果に基づいて決定される前記オブジェクトの移動量も用いて決定され、前記移動量が大きいほど大きな値となる、
    ことを特徴とする請求項4~6のいずれか1項に記載のオブジェクト特徴量抽出装置。
  8. 前記バリエーション指標は、前記オブジェクトの状態に応じて定まるカテゴリも考慮して定まる値であり、前記追跡結果に基づいて前記カテゴリを判定し、前記バリエーション指標を算出する、
    ことを特徴とする請求項4~7のいずれか1項に記載のオブジェクト特徴量抽出装置。
  9. 映像を取得し、取得した前記映像を画像列として生成するステップと、
    生成された前記画像からオブジェクトを検出し、検出結果を生成するステップと、
    生成された前記画像と前記検出結果とに基づいて前記オブジェクトを追跡し、追跡結果を生成するステップと、
    前記画像を画像記憶手段に記憶させるステップと、
    前記検出結果を検出結果記憶手段に記憶させるステップと、
    前記追跡結果を追跡結果記憶手段に記憶させるステップと、
    前記検出結果記憶手段に記憶された前記検出結果と前記追跡結果記憶手段に記憶された前記追跡結果とに基づいて、現時刻より1フレーム以上前である抽出時刻において検出された前記オブジェクトの特徴量の質を予測するクオリティ指標を算出し、前記クオリティ指標に基づいて前記抽出時刻において特徴抽出する前記オブジェクトを選択し、オブジェクト選択情報を生成するステップと、
    前記画像記憶手段に記憶された前記抽出時刻の前記画像と、前記検出結果記憶手段に記憶された前記抽出時刻の前記検出結果と、前記オブジェクト選択情報とに基づいて、前記抽出時刻のフレームから検出された前記オブジェクトの特徴量を抽出するステップと、
    を有することを特徴とするオブジェクト特徴量抽出方法。
  10. 映像を取得し、取得した前記映像を画像列として生成させ、
    生成された前記画像からオブジェクトを検出し、検出結果を生成させ、
    生成された前記画像と前記検出結果とに基づいて前記オブジェクトを追跡し、追跡結果を生成させ、
    前記画像を画像記憶手段に記憶させ、
    前記検出結果を検出結果記憶手段に記憶させ、
    前記追跡結果を追跡結果記憶手段に記憶させ、
    前記検出結果記憶手段に記憶された前記検出結果と前記追跡結果記憶手段に記憶された前記追跡結果とに基づいて、現時刻より1フレーム以上前である抽出時刻において検出された前記オブジェクトの特徴量の質を予測するクオリティ指標を算出させ、前記クオリティ指標に基づいて前記抽出時刻において特徴抽出する前記オブジェクトを選択させ、オブジェクト選択情報を生成させ、
    前記画像記憶手段に記憶された前記抽出時刻の前記画像と、前記検出結果記憶手段に記憶された前記抽出時刻の前記検出結果と、前記オブジェクト選択情報とに基づいて、前記抽出時刻のフレームから検出された前記オブジェクトの特徴量を抽出させる、
    ことをコンピュータに実行させるプログラム。
JP2021515398A 2019-04-25 2019-04-25 オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及びプログラム Active JP7215569B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/017572 WO2020217369A1 (ja) 2019-04-25 2019-04-25 オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び非一時的なコンピュータ可読媒体

Publications (3)

Publication Number Publication Date
JPWO2020217369A1 JPWO2020217369A1 (ja) 2020-10-29
JPWO2020217369A5 JPWO2020217369A5 (ja) 2022-01-19
JP7215569B2 true JP7215569B2 (ja) 2023-01-31

Family

ID=72941178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021515398A Active JP7215569B2 (ja) 2019-04-25 2019-04-25 オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及びプログラム

Country Status (3)

Country Link
US (2) US11875518B2 (ja)
JP (1) JP7215569B2 (ja)
WO (1) WO2020217369A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102653342B1 (ko) * 2019-05-20 2024-04-02 현대모비스 주식회사 자율 주행 장치 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015103103A (ja) 2013-11-26 2015-06-04 キヤノン株式会社 画像処理装置、画像処理方法
WO2018173848A1 (ja) 2017-03-22 2018-09-27 日本電気株式会社 オブジェクト追跡システム、インテリジェント撮像装置、オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び記憶媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5077164B2 (ja) * 2008-09-16 2012-11-21 オムロン株式会社 追跡装置及び追跡方法
JP6292122B2 (ja) 2012-09-24 2018-03-14 日本電気株式会社 オブジェクト情報抽出装置、オブジェクト情報抽出プログラム、及びオブジェクト情報抽出方法
JP6485978B2 (ja) 2015-07-03 2019-03-20 株式会社日立国際電気 画像処理装置および画像処理システム
WO2018111287A1 (en) * 2016-12-15 2018-06-21 Hewlett-Packard Development Company, L.P. Image storage
US11132778B2 (en) * 2017-03-29 2021-09-28 Nec Corporation Image analysis apparatus, image analysis method, and recording medium
JP7171471B2 (ja) * 2019-03-05 2022-11-15 株式会社日立製作所 学習モデル生成支援装置、及び学習モデル生成支援方法
KR20210158261A (ko) * 2020-06-23 2021-12-30 삼성전자주식회사 비디오 품질 평가 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015103103A (ja) 2013-11-26 2015-06-04 キヤノン株式会社 画像処理装置、画像処理方法
WO2018173848A1 (ja) 2017-03-22 2018-09-27 日本電気株式会社 オブジェクト追跡システム、インテリジェント撮像装置、オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及び記憶媒体

Also Published As

Publication number Publication date
US20220180533A1 (en) 2022-06-09
JPWO2020217369A1 (ja) 2020-10-29
US20240135552A1 (en) 2024-04-25
WO2020217369A1 (ja) 2020-10-29
US11875518B2 (en) 2024-01-16

Similar Documents

Publication Publication Date Title
US11450146B2 (en) Gesture recognition method, apparatus, and device
US9092662B2 (en) Pattern recognition method and pattern recognition apparatus
JP2014505952A (ja) 画像品質の評価
US20230394792A1 (en) Information processing device, information processing method, and program recording medium
JP2014093023A (ja) 物体検出装置、物体検出方法及びプログラム
JP4373840B2 (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
KR101652261B1 (ko) 카메라를 이용한 오브젝트 검출 방법
CN113723190A (zh) 一种面向同步移动目标的多目标跟踪方法
JP7438684B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US20240135552A1 (en) Object feature extraction device, object feature extraction method, and non-transitory computer-readable medium
US20220366570A1 (en) Object tracking device and object tracking method
US11749004B2 (en) Event detector and method of generating textural image based on event count decay factor and net polarity
JP7115579B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN111382606A (zh) 摔倒检测方法、摔倒检测装置和电子设备
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
WO2012153868A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP6851246B2 (ja) 物体検出装置
US20070223818A1 (en) Method and apparatus for predicting the accuracy of virtual Scene based on incomplete information in video
WO2022049704A1 (ja) 情報処理システム、情報処理方法、及びコンピュータプログラム
TWI695326B (zh) 物件屬性分析方法及其相關物件屬性分析裝置
JP5419925B2 (ja) 通過物体数計測方法、通過物体数計測装置、及びプログラム
CN112529786A (zh) 图像处理设备及方法和非暂时性计算机可读存储介质
JP2012226403A (ja) 画像領域追跡装置、画像領域追跡方法、および、コンピュータ・プログラム
JP7488673B2 (ja) 移動物体追跡装置、移動物体追跡方法及び移動物体追跡プログラム
WO2022049820A1 (ja) 骨格検出システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211013

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230102

R151 Written notification of patent or utility model registration

Ref document number: 7215569

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151