JP2020095757A - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2020095757A JP2020095757A JP2020050408A JP2020050408A JP2020095757A JP 2020095757 A JP2020095757 A JP 2020095757A JP 2020050408 A JP2020050408 A JP 2020050408A JP 2020050408 A JP2020050408 A JP 2020050408A JP 2020095757 A JP2020095757 A JP 2020095757A
- Authority
- JP
- Japan
- Prior art keywords
- target
- unit
- feature amount
- feature
- elements
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】撮像対象を同定する精度を向上させる技術を提供することを目的とする。【解決手段】取得手段は、画像を取得する。検出手段は、取得手段が取得した画像から物体を検出する。抽出手段は、検出手段が検出した物体の複数の要素の各々に対応する特徴量を抽出する。導出手段は、抽出手段により抽出した特徴量に対応する信頼度を導出する。決定手段は、取得手段が取得した画像に対して行われるユーザ操作に基づいて、検索対象の物体を決定する。出力手段は、決定手段により決定した前記物体における複数の要素と、該複数の要素の各々の特徴量に対応する信頼度とを関連付けた情報を出力する。選択手段は、出力手段が出力した情報において、複数の要素から少なくとも一つの要素を選択する。同定手段は、選択手段により選択した要素に対応する特徴量と該特徴量に対応する信頼度とに基づいて、取得手段が取得した複数の画像から物体を同定する。【選択図】図3
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。
従来から、ショッピングモール、空港等の広域に設置された複数のカメラ映像を、ネットワークを介して受信し、映像解析することにより不審人物を追跡する技術が開示されている。あるカメラによって撮像した人物と、他のカメラによって撮像した人物とを同定するには、あるカメラで映った人物の特徴量を記録し、他のカメラで映った人物の特徴量と、既に記録されている特徴量とを比較し、類似度が高い場合には同じ人物であると判断する方法が多く用いられている。特許文献1では、人物の移動方向から人の向きを推定し、観測できた範囲の特徴のみを比較範囲とすることにより、人物の同定精度を向上している。これにより、各カメラの人物の追尾結果を対応付けることができるようになり、複数のカメラに跨る人物の追跡が実現できる。
あるカメラによって撮像した人物と、他のカメラによって撮像した人物とを同定する際、カメラの設置位置によって対象の見え方が変化する。例えば人物の写る向きが大きく変化するため、見え方の変化に対して影響が少ない情報を記憶しておく必要がある。一般的には、見え方の変化に対して影響が少ない特徴量を定義し、あるカメラに映った人物の一連の画像特徴から、特徴量を学習する方法がある。しかし、1つの特徴量にすべての見え方の情報を含むため、同定精度が低下する。また、同じカメラで撮像した人物であっても、人物の移動によって、追尾対象の人物の見え方が変化してしまう。
特許文献1には、人物の向きを判定し、向き別に特徴量を計算、記憶する技術が開示されている。この技術により、人物の見え方が同じ状態で記憶された特徴量を比較することで、人物の同定精度を向上している。しかし、人物が、一連の動きの中で、一時的に向いた方向であっても特徴量が存在すると判定されてしまう場合がある。このような場合、得られる特徴量が少なく、不安定であるため、違う人物と同定され、誤対応を引き起こす場合がある。
そこで、本発明の目的は、撮像対象を同定する精度を向上させる技術を提供することである。
特許文献1には、人物の向きを判定し、向き別に特徴量を計算、記憶する技術が開示されている。この技術により、人物の見え方が同じ状態で記憶された特徴量を比較することで、人物の同定精度を向上している。しかし、人物が、一連の動きの中で、一時的に向いた方向であっても特徴量が存在すると判定されてしまう場合がある。このような場合、得られる特徴量が少なく、不安定であるため、違う人物と同定され、誤対応を引き起こす場合がある。
そこで、本発明の目的は、撮像対象を同定する精度を向上させる技術を提供することである。
そこで、本発明の情報処理装置は、画像を取得する取得手段と、前記取得手段が取得した画像から物体を検出する検出手段と、前記検出手段が検出した物体の複数の要素の各々に対応する特徴量を抽出する抽出手段と、前記抽出手段により抽出した前記特徴量に対応する信頼度を導出する導出手段と、前記取得手段が取得した画像に対して行われるユーザ操作に基づいて、検索対象の物体を決定する決定手段と、前記決定手段により決定した前記物体における複数の要素と、該複数の要素の各々の特徴量に対応する信頼度とを関連付けた情報を出力する出力手段と、前記出力手段が出力した前記情報において、前記複数の要素から少なくとも一つの要素を選択する選択手段と、前記選択手段により選択した前記要素に対応する特徴量と該特徴量に対応する信頼度とに基づいて、前記取得手段が取得した複数の画像から前記物体を同定する同定手段と、を有する。
本発明によれば、撮像対象を同定する精度を向上させる技術を提供することができる。
以下、本発明の実施形態について図面に基づいて説明する。なお、一例として、撮像された画像から人物を検出して、その検出された人物を追跡することを例として説明するが、人物以外にも自動車や動物等であってもよい。以下、このように、検出して追跡する対象の物体のことを単に対象と称する。
<実施形態1>
実施形態1では、対象の特徴量を向き又は部位別に記録し、それぞれの特徴量について信頼度を計算し、対象を同定する方法について説明をする。なお、対象を同定するとは、ある撮像装置によって撮像した対象と、他の撮像装置によって撮像した対象とを対応づけることや、ある撮像装置によって所定の時点に撮像した対象と、その撮像装置によって前述の所定の時点より後に撮像した対象とを対応づけることである。
図1は、情報処理システムのシステム構成の一例を示す図である。
情報処理システムは、複数の撮像装置(カメラ)101、102、103と、対象同定装置105と、を含む。
撮像装置101、102、103は、ネットワーク104を介して撮像した映像データを送信する。対象同定装置105は、ネットワーク104を介して受信した各撮像装置で撮像した映像データを基に撮像装置間に出現した対象を同定する装置である。
実施形態1では、対象の特徴量を向き又は部位別に記録し、それぞれの特徴量について信頼度を計算し、対象を同定する方法について説明をする。なお、対象を同定するとは、ある撮像装置によって撮像した対象と、他の撮像装置によって撮像した対象とを対応づけることや、ある撮像装置によって所定の時点に撮像した対象と、その撮像装置によって前述の所定の時点より後に撮像した対象とを対応づけることである。
図1は、情報処理システムのシステム構成の一例を示す図である。
情報処理システムは、複数の撮像装置(カメラ)101、102、103と、対象同定装置105と、を含む。
撮像装置101、102、103は、ネットワーク104を介して撮像した映像データを送信する。対象同定装置105は、ネットワーク104を介して受信した各撮像装置で撮像した映像データを基に撮像装置間に出現した対象を同定する装置である。
図2は、対象同定装置105のハードウェア構成の一例を示す図である。対象同定装置105は、ハードウェア構成として、CPU201、ROM202、RAM203、2次記憶装置204、入力装置205、表示装置206、ネットワークI/F207、バス208を含む。
CPU201は、ROM202やRAM203に格納されたプログラムに従って命令を実行する。
ROM202は、不揮発性メモリであり、プログラムやCPU201がプログラムに基づき処理を実行する際に必要なデータ等を格納する。
RAM203は、揮発性メモリであり、フレーム画像データやパターン判別結果等の一時的なデータを記憶する。
2次記憶装置204は、ハードディスクドライブやフラッシュメモリー等の書き換え可能な2次記憶装置であり、画像情報や画像処理プログラムや、各種設定内容等を記憶する。これらの情報はRAM203に転送され、CPU201がプログラムの基づき処理を実行する際に利用される。
入力装置205は、キーボードやマウス等であり、ユーザからの入力をCPU201に通知する。
表示装置206は、ブラウン管CRTや液晶ディスプレイ等であり、ユーザに対してCPU201の処理結果等を表示する。
ネットワークI/F207は、インターネットやイントラネット等のネットワークと接続を行うモデムやLAN等である。
バス208は、これらを接続して相互にデータの入出力を行う。
CPU201が、ROM202又は2次記憶装置204に記憶されたプログラムに基づき処理を実行することにより、後述する図3に示されるソフトウェア構成及び後述する図7に示すフローチャートの処理が実現される。
CPU201は、ROM202やRAM203に格納されたプログラムに従って命令を実行する。
ROM202は、不揮発性メモリであり、プログラムやCPU201がプログラムに基づき処理を実行する際に必要なデータ等を格納する。
RAM203は、揮発性メモリであり、フレーム画像データやパターン判別結果等の一時的なデータを記憶する。
2次記憶装置204は、ハードディスクドライブやフラッシュメモリー等の書き換え可能な2次記憶装置であり、画像情報や画像処理プログラムや、各種設定内容等を記憶する。これらの情報はRAM203に転送され、CPU201がプログラムの基づき処理を実行する際に利用される。
入力装置205は、キーボードやマウス等であり、ユーザからの入力をCPU201に通知する。
表示装置206は、ブラウン管CRTや液晶ディスプレイ等であり、ユーザに対してCPU201の処理結果等を表示する。
ネットワークI/F207は、インターネットやイントラネット等のネットワークと接続を行うモデムやLAN等である。
バス208は、これらを接続して相互にデータの入出力を行う。
CPU201が、ROM202又は2次記憶装置204に記憶されたプログラムに基づき処理を実行することにより、後述する図3に示されるソフトウェア構成及び後述する図7に示すフローチャートの処理が実現される。
図3は、対象同定装置105を示すブロック図である。対象同定装置105は、画像取得部301、対象検出追尾部302、特徴量抽出部303、向き判定部304、部位判定部305、カテゴリ判定部306、特徴量更新部307、特徴量管理部308を含む。また、対象同定装置105は、更に、信頼度算出部309、対象同定部310、出力部311を含む。
画像取得部301は、レンズや撮像センサ等を備えた撮像装置101〜103が撮像した画像(画像データ)を所定の時間間隔で順次取得して、対象検出追尾部302に提供する。
対象検出追尾部302は、画像取得部301から取得した画像から対象の検出処理を行う。対象検出追尾部302は、Support Vector Machine(SVM)等の機械学習を利用して、対象の画像特徴を学習した識別器を作成する。対象検出追尾部302は、この識別器を利用して、画像取得部301から取得した画像での対象の位置座標とサイズ情報を求めることで、検出処理を行う。対象検出追尾部302は、同一の処理によって、対象の部位の位置とサイズとを検出してもよい。例えば、対象が人物であれば、対象検出追尾部302は、頭部、胴体、腕、足等の部位を検出する。また、対象検出追尾部302は、各部位の位置、向きを総じて姿勢情報として検出してもよい。なお、対象検出追尾部302による対象の検出方法は、識別器による検出方法に限定されるものではなく、画像から対象を検出する処理であればよい。例えば、パターンマッチングによって、画像から対象を検出してもよい。
そして、対象検出追尾部302は、検出した対象の情報を基に追尾処理を行う。追尾処理は、一つの撮像装置において、あるフレームの画像において検出した対象と、別のフレームの画像において検出した対象とを、画像の特徴と、画像間での位置関係とから対応付ける処理である。但し、対象の検出に失敗し、現在の画像に、別のフレームの画像において検出した対象と対応付けられる対象がない場合、対象検出追尾部302は、Kalman Filter等の移動予測を用いて対応付けの結果を補完する。また、所定期間以上、対応付けられる対象がない場合は、対象検出追尾部302は、追尾処理を終了する。対象検出追尾部302は、対応付けた対象にはそれぞれ一意のIDを付与する。対象検出追尾部302は、処理の結果得られた対象のID、位置座標、サイズ情報、画像の取得時刻、及び撮像装置を示す情報を含む対象情報を、特徴量抽出部303と向き判定部304と部位判定部305とに提供する。
なお、対象検出追尾部302における、検出機能と、追尾機能とは一体であってもよいし、別体であってもよい。
画像取得部301は、レンズや撮像センサ等を備えた撮像装置101〜103が撮像した画像(画像データ)を所定の時間間隔で順次取得して、対象検出追尾部302に提供する。
対象検出追尾部302は、画像取得部301から取得した画像から対象の検出処理を行う。対象検出追尾部302は、Support Vector Machine(SVM)等の機械学習を利用して、対象の画像特徴を学習した識別器を作成する。対象検出追尾部302は、この識別器を利用して、画像取得部301から取得した画像での対象の位置座標とサイズ情報を求めることで、検出処理を行う。対象検出追尾部302は、同一の処理によって、対象の部位の位置とサイズとを検出してもよい。例えば、対象が人物であれば、対象検出追尾部302は、頭部、胴体、腕、足等の部位を検出する。また、対象検出追尾部302は、各部位の位置、向きを総じて姿勢情報として検出してもよい。なお、対象検出追尾部302による対象の検出方法は、識別器による検出方法に限定されるものではなく、画像から対象を検出する処理であればよい。例えば、パターンマッチングによって、画像から対象を検出してもよい。
そして、対象検出追尾部302は、検出した対象の情報を基に追尾処理を行う。追尾処理は、一つの撮像装置において、あるフレームの画像において検出した対象と、別のフレームの画像において検出した対象とを、画像の特徴と、画像間での位置関係とから対応付ける処理である。但し、対象の検出に失敗し、現在の画像に、別のフレームの画像において検出した対象と対応付けられる対象がない場合、対象検出追尾部302は、Kalman Filter等の移動予測を用いて対応付けの結果を補完する。また、所定期間以上、対応付けられる対象がない場合は、対象検出追尾部302は、追尾処理を終了する。対象検出追尾部302は、対応付けた対象にはそれぞれ一意のIDを付与する。対象検出追尾部302は、処理の結果得られた対象のID、位置座標、サイズ情報、画像の取得時刻、及び撮像装置を示す情報を含む対象情報を、特徴量抽出部303と向き判定部304と部位判定部305とに提供する。
なお、対象検出追尾部302における、検出機能と、追尾機能とは一体であってもよいし、別体であってもよい。
特徴量抽出部303は、対象情報に含まれる対象の位置座標に基づいて、画像における対象の領域から対象の特徴量を抽出する。対象の特徴量としては、対象領域内から抽出された色、輝度、エッジ等があげられる。特徴量抽出部303は、色、輝度、及びエッジのうちの少なくともいずれかを特徴量としてもよいし、これらを任意に組み合わせたものを特徴量としてもよい。また、特徴量抽出部303によって抽出する特徴量は、色、輝度、エッジ等をヒストグラムとして表したものであってもよい。また、特徴量抽出部303は、対象の特徴量を、対象検出追尾部302によって求められた、対象の部位ごとに抽出してもよい。対象の部位とは、頭部、胴体、腕、足等である。
また、特徴量抽出部303は、対象が鞄を持っているか否か、対象がサングラスをかけているか、対象が髭を生やしているか等を示す対象の特徴を抽出してもよい。これらの特徴は0から1までの範囲の値で示される。例えば、鞄の有無であれば、0は鞄が無いことを示し、1は鞄が有ることを示す。画像のみから有無をはっきりと断定できない場合もあるため、0.5等、中間の値も取り得る。また、特徴量抽出部303は、年齢、性別、身長、服装、体型等を示す特徴を抽出してもよい。以下、鞄、サングラス、髭の有無、年齢、性別、身長、服装、体型を総じて、特徴判別カテゴリ(カテゴリ)と呼ぶ。この特徴判別カテゴリは、物体の特徴を判別するためのカテゴリである。
特徴量抽出部303は、形状特徴であるLBP特徴量やHOG特徴量、或いは、GaborフィルタやSchmidフィルタを用いて抽出したテクスチャ特徴を用いて特徴量を抽出する。識別器としてはサポートベクターマシーン(SVM)等の手法が挙げられる。そして、特徴量抽出部303は、得られた対象の特徴量と利用した識別器の種類情報とを、対象検出追尾部302で得られている対象のIDに関連付け、部位判定部305、カテゴリ判定部306、特徴量更新部307に提供する。
また、特徴量抽出部303は、対象が鞄を持っているか否か、対象がサングラスをかけているか、対象が髭を生やしているか等を示す対象の特徴を抽出してもよい。これらの特徴は0から1までの範囲の値で示される。例えば、鞄の有無であれば、0は鞄が無いことを示し、1は鞄が有ることを示す。画像のみから有無をはっきりと断定できない場合もあるため、0.5等、中間の値も取り得る。また、特徴量抽出部303は、年齢、性別、身長、服装、体型等を示す特徴を抽出してもよい。以下、鞄、サングラス、髭の有無、年齢、性別、身長、服装、体型を総じて、特徴判別カテゴリ(カテゴリ)と呼ぶ。この特徴判別カテゴリは、物体の特徴を判別するためのカテゴリである。
特徴量抽出部303は、形状特徴であるLBP特徴量やHOG特徴量、或いは、GaborフィルタやSchmidフィルタを用いて抽出したテクスチャ特徴を用いて特徴量を抽出する。識別器としてはサポートベクターマシーン(SVM)等の手法が挙げられる。そして、特徴量抽出部303は、得られた対象の特徴量と利用した識別器の種類情報とを、対象検出追尾部302で得られている対象のIDに関連付け、部位判定部305、カテゴリ判定部306、特徴量更新部307に提供する。
向き判定部304は、対象検出追尾部302における識別器を対象の向き別に作成することで、最も高い信頼度が得られる識別器の情報から対象の向きを判定する。又は、向き判定部304は、フレーム間の対象の動きから移動方向を推定し、対象が移動する方向を正面方向とすることで、画面における対象の向きを判定してもよい。例えば、対象が右に移動している場合、対象の正面は右を向いていると判断し、画面における対象の向きは右向きであると判定できる。そして、向き判定部304は、得られた対象の向きを特徴量更新部307に提供する。
部位判定部305は、対象検出追尾部302によって得られる対象部位の検出結果と、特徴量抽出部303が抽出した部位の特徴量とを対応付ける。この際、特徴量に基づいて、対象検出追尾部302が検出した部位が正確であるか判定してもよい。特徴量も用いて部位を判定することでより正確な部位判定を行うことができる。そして、部位判定部305は、部位と、部位の特徴量とを対応付けた情報である部位情報を特徴量更新部307に提供する。
カテゴリ判定部306は、特徴量抽出部303によって利用された識別器の種類から特徴判別カテゴリを判定する。例えば、カテゴリ判定部306は、髭の有無を検出する識別器が利用された場合は、特徴判別カテゴリは髭の有無である、と判定する。そして、カテゴリ判定部306は、得られた特徴判別カテゴリの判定結果を特徴量更新部307に提供する。なお、特徴判別カテゴリの判定方法はこれに限らず、種々の方法を用いることができる。例えば、特徴判別カテゴリを示すメタデータを用いてもよい。
特徴量更新部307は、特徴量抽出部303から得られる特徴量と、向き判定部304から得られる対象の向きと、部位判定部305から得られる部位情報と、カテゴリ判定部306から得られる特徴判別カテゴリとを基に、対象の特徴量を更新する。以下、対象の向き、部位、特徴判別カテゴリをまとめて属性と呼ぶ。また、属性を構成する要素を属性要素と呼ぶ。例えば、向きであればその角度、部位であればそれぞれの部位、特徴判別カテゴリであればそれぞれのカテゴリが属性要素(要素)である。特徴量更新部307は、対象検出追尾部302によって同一の対象の情報が得られるごとに、後に説明する特徴量管理部308で管理されている、同じ対象の特徴量に対して更新処理を行う。特徴量更新部307は、もし、対象の特徴量が過去に得られていない場合は、得られている特徴量を対象のIDと関連付けて、特徴量管理部308に提供する。また、特徴量更新部307は、特徴量を、属性要素別に更新する。例えば、特徴量更新部307は、対象向きが正面で得られた特徴量を、正面方向の特徴量として更新し、右向きで得られた特徴量を、右方向の特徴量として更新する。特徴量更新部307は、部位情報に対しても同じように、部位別に更新する。更新の方法は、特徴量を累積計算してもよいし、特徴量が得られるたびに追加で記憶してもよい。また、属性要素別に特徴量が更新された回数を、特徴量が得られたフレーム数として、特徴量管理部308に提供する。
部位判定部305は、対象検出追尾部302によって得られる対象部位の検出結果と、特徴量抽出部303が抽出した部位の特徴量とを対応付ける。この際、特徴量に基づいて、対象検出追尾部302が検出した部位が正確であるか判定してもよい。特徴量も用いて部位を判定することでより正確な部位判定を行うことができる。そして、部位判定部305は、部位と、部位の特徴量とを対応付けた情報である部位情報を特徴量更新部307に提供する。
カテゴリ判定部306は、特徴量抽出部303によって利用された識別器の種類から特徴判別カテゴリを判定する。例えば、カテゴリ判定部306は、髭の有無を検出する識別器が利用された場合は、特徴判別カテゴリは髭の有無である、と判定する。そして、カテゴリ判定部306は、得られた特徴判別カテゴリの判定結果を特徴量更新部307に提供する。なお、特徴判別カテゴリの判定方法はこれに限らず、種々の方法を用いることができる。例えば、特徴判別カテゴリを示すメタデータを用いてもよい。
特徴量更新部307は、特徴量抽出部303から得られる特徴量と、向き判定部304から得られる対象の向きと、部位判定部305から得られる部位情報と、カテゴリ判定部306から得られる特徴判別カテゴリとを基に、対象の特徴量を更新する。以下、対象の向き、部位、特徴判別カテゴリをまとめて属性と呼ぶ。また、属性を構成する要素を属性要素と呼ぶ。例えば、向きであればその角度、部位であればそれぞれの部位、特徴判別カテゴリであればそれぞれのカテゴリが属性要素(要素)である。特徴量更新部307は、対象検出追尾部302によって同一の対象の情報が得られるごとに、後に説明する特徴量管理部308で管理されている、同じ対象の特徴量に対して更新処理を行う。特徴量更新部307は、もし、対象の特徴量が過去に得られていない場合は、得られている特徴量を対象のIDと関連付けて、特徴量管理部308に提供する。また、特徴量更新部307は、特徴量を、属性要素別に更新する。例えば、特徴量更新部307は、対象向きが正面で得られた特徴量を、正面方向の特徴量として更新し、右向きで得られた特徴量を、右方向の特徴量として更新する。特徴量更新部307は、部位情報に対しても同じように、部位別に更新する。更新の方法は、特徴量を累積計算してもよいし、特徴量が得られるたびに追加で記憶してもよい。また、属性要素別に特徴量が更新された回数を、特徴量が得られたフレーム数として、特徴量管理部308に提供する。
特徴量管理部308は、特徴量更新部307の更新処理によって更新された特徴量を属性要素別に管理する(記録する)。例えば、特徴量管理部308は、対象向きが正面で得られた特徴量は、正面方向の特徴量として管理し、右向きで得られた特徴量は、右方向の特徴量として管理する。特徴量管理部308は、部位情報に対しても同じように、部位別に管理する。
信頼度算出部309は、特徴量管理部308で管理されている特徴量に対して、信頼度を計算する(導出する)。信頼度とは、更新した特徴量が、対象を特定する処理において、対象の特定を成功する確率表した数値である。言い換えると、対象の特定を成功する確度を表した数値であり、値が大きいほど成功確率が高いことを示す。信頼度算出部309は、信頼度を、属性要素別に定義し、特徴量を算出したフレームの総数(又はフレーム数)、又は、特徴量を抽出した対象の領域(対象領域)の解像度に基づいて計算する。信頼度算出部309は、特徴量を算出したフレームの総数(又はフレーム数)と、対象領域の解像度との両方に基づいて信頼度を計算してもよい。対象領域とは、例えば、向きであれば左向きの人物全体である、部位であれば頭部や胴体等の各部位であり、カテゴリであれば髭の部分である。
例えば、対象が正面方向で長時間撮像された場合、正面方向の特徴量が連続して得られ、特徴量が安定するので、正面方向の特徴量の信頼度が他の特徴量の信頼度より高くする。また、右向きの人物がカメラに接近して、大きく撮像された場合、右向きの特徴量が高解像度で得られ、特徴量の質がよいので、右向きの信頼度を他の特徴量の信頼度より高くする。逆に、対象が瞬間的に後ろ向きになった場合やカメラから遠い位置で後ろ向きになった場合は、特徴量が不安定であることや、特徴量の質が低いため、後ろ向きの信頼度を他の特徴量の信頼度より低くする。信頼度算出部309は、信頼度を、累積計算をすることで、徐々に信頼度が高まるよう計算してもよいし、毎回、再計算して、得られる信頼度が毎回、低い場合は、信頼度が低いまま保たれるようにしてもよい。ここで、フレーム数が多いほど情報が集まるので信頼度が高くなる。また、解像度が高いほど信頼度が高くなる。
信頼度算出部309は、特徴量管理部308で管理されている特徴量に対して、信頼度を計算する(導出する)。信頼度とは、更新した特徴量が、対象を特定する処理において、対象の特定を成功する確率表した数値である。言い換えると、対象の特定を成功する確度を表した数値であり、値が大きいほど成功確率が高いことを示す。信頼度算出部309は、信頼度を、属性要素別に定義し、特徴量を算出したフレームの総数(又はフレーム数)、又は、特徴量を抽出した対象の領域(対象領域)の解像度に基づいて計算する。信頼度算出部309は、特徴量を算出したフレームの総数(又はフレーム数)と、対象領域の解像度との両方に基づいて信頼度を計算してもよい。対象領域とは、例えば、向きであれば左向きの人物全体である、部位であれば頭部や胴体等の各部位であり、カテゴリであれば髭の部分である。
例えば、対象が正面方向で長時間撮像された場合、正面方向の特徴量が連続して得られ、特徴量が安定するので、正面方向の特徴量の信頼度が他の特徴量の信頼度より高くする。また、右向きの人物がカメラに接近して、大きく撮像された場合、右向きの特徴量が高解像度で得られ、特徴量の質がよいので、右向きの信頼度を他の特徴量の信頼度より高くする。逆に、対象が瞬間的に後ろ向きになった場合やカメラから遠い位置で後ろ向きになった場合は、特徴量が不安定であることや、特徴量の質が低いため、後ろ向きの信頼度を他の特徴量の信頼度より低くする。信頼度算出部309は、信頼度を、累積計算をすることで、徐々に信頼度が高まるよう計算してもよいし、毎回、再計算して、得られる信頼度が毎回、低い場合は、信頼度が低いまま保たれるようにしてもよい。ここで、フレーム数が多いほど情報が集まるので信頼度が高くなる。また、解像度が高いほど信頼度が高くなる。
図4は、特徴量管理部308が記録する対象の特徴量の一例を示した図である。対象1の画像群401と、対象2の画像群402とは、対象検出追尾部302の一連の追跡結果から求めることができる。画像群401と画像群402とから対象の特徴量が算出され、属性要素ごとに特徴量が更新されることで、向き別特徴量403と部位別特徴量404と特徴判別カテゴリ別の特徴量405とが得られる。向き別特徴量403は、各向きの情報と対応する特徴量を、角度別に管理している。この場合、正面方向を0度として定義し、右を90度、後ろを180度、左を270度と360度方向を均等に区切って対象の向きを表している。対象の向きの角度が、これらの角度のうちの最も近い角度に対応付けられて管理されている。図4では、45度区切りで向きを定義しているが、より細かく定義してもよいし、前後左右のみで定義してもよい。図4の例では、対象1の向き別特徴量403の、向き0度にはA,Bの特徴量が保存され、信頼度は90であることを表している。同じく、対象2の向き別特徴量403の向き270度には、d,eの特徴量が保存され、信頼度が85であることを表している。部位別特徴量404は、対象の部位と対応する特徴量を、対象の部位別に管理している。部位の粒度は、より細かく定義してもよい。なお、特徴量管理部308が管理する特徴量は、向き別特徴量403及び部位別特徴量404においては、前述のように、特徴量抽出部303によって抽出された色、輝度、エッジ等を示す情報である。
また、特徴判別カテゴリ別の特徴量405は、特徴判別カテゴリ毎に、特徴量を管理している。そして、信頼度算出部309は、更新した特徴量と、その特徴量に対する信頼度とを、特徴量管理部308に提供する。なお、特徴量管理部308が管理する特徴量は、特徴判別カテゴリ別の特徴量405においては、前述のように、特徴量抽出部303によって抽出された0から1までの範囲の値で示されるものである。
また、特徴判別カテゴリ別の特徴量405は、特徴判別カテゴリ毎に、特徴量を管理している。そして、信頼度算出部309は、更新した特徴量と、その特徴量に対する信頼度とを、特徴量管理部308に提供する。なお、特徴量管理部308が管理する特徴量は、特徴判別カテゴリ別の特徴量405においては、前述のように、特徴量抽出部303によって抽出された0から1までの範囲の値で示されるものである。
対象同定部310は、特徴量を特徴量管理部308から読み出し、対象間距離を算出することにより類似性を算出し、その類似性に基づいて同定を行う。対象間距離を算出する方法としては、ユークリッド距離や、マハラノビス距離を予め学習しておく等の方法が挙げられる。また、対象同定部310は、対象間距離以外にも対象間の類似性を示す種々の値を用いて同定してもよい。
対象同定部310は、対象間の距離を計算する際、特徴量の比較は記憶されている属性要素毎に行う。属性は、大きく分けて3つの種類があり、それぞれの比較方法について以下で説明する。
1つめの属性は、対象の向きである。向き別の特徴量の比較方法について、図4の向き別特徴量403を例に説明する。まず、向き別の特徴量の比較は、定義した向きに従い、同じ向きに属する特徴量同士を比較する。図4において、0度の特徴量は、対象1がA,Bを保持し、対象2がaを保持しているので、対象同定部310は、特徴の比較をAとa、Bとaにおいて実施し、特徴量間の距離を求める。特徴量間の距離が近いほど、対象間の類似性が高いことを表す。又は、対象同定部310は、AとBを統合したうえでaと比較してもよい。つまり、各対象の向き0度に属する特徴量の比較であれば、特定の方法に限らない。続いて、向き45度については、対象1がC,Dの特徴量を保持し、対象2は特徴量を保持していない。この場合、対象同定部310は、特徴の比較を実施せず、向き45度において特徴量の類似性は無いと判断し、対象間距離の計算から除外する。対象同定部310は、この処理をすべての向きに対して実施し、最終的に対象間距離を統合(例えば平均)することで、向き別特徴量の比較結果とする。また、各向きの比較については、対象同定部310は、向き45度に属する特徴量に対して、隣接する向き0度及び90度の特徴量と比較してもよい。つまり、比較の範囲は一例であり、向きを考慮した計算方法であれば、特定の方法に限るものではない。
対象同定部310は、対象間の距離を計算する際、特徴量の比較は記憶されている属性要素毎に行う。属性は、大きく分けて3つの種類があり、それぞれの比較方法について以下で説明する。
1つめの属性は、対象の向きである。向き別の特徴量の比較方法について、図4の向き別特徴量403を例に説明する。まず、向き別の特徴量の比較は、定義した向きに従い、同じ向きに属する特徴量同士を比較する。図4において、0度の特徴量は、対象1がA,Bを保持し、対象2がaを保持しているので、対象同定部310は、特徴の比較をAとa、Bとaにおいて実施し、特徴量間の距離を求める。特徴量間の距離が近いほど、対象間の類似性が高いことを表す。又は、対象同定部310は、AとBを統合したうえでaと比較してもよい。つまり、各対象の向き0度に属する特徴量の比較であれば、特定の方法に限らない。続いて、向き45度については、対象1がC,Dの特徴量を保持し、対象2は特徴量を保持していない。この場合、対象同定部310は、特徴の比較を実施せず、向き45度において特徴量の類似性は無いと判断し、対象間距離の計算から除外する。対象同定部310は、この処理をすべての向きに対して実施し、最終的に対象間距離を統合(例えば平均)することで、向き別特徴量の比較結果とする。また、各向きの比較については、対象同定部310は、向き45度に属する特徴量に対して、隣接する向き0度及び90度の特徴量と比較してもよい。つまり、比較の範囲は一例であり、向きを考慮した計算方法であれば、特定の方法に限るものではない。
2つ目の属性は、対象の部位である。対象の部位別特徴量の比較についても、向き別の特徴量比較と同じような方法で求めることが可能である。つまり、部位別の特徴量の比較は、同じ部位に属する特徴量同士を比較する。図4において、頭部の特徴量は、対象1がH,I,Jを保持し、対象2がg,hを保持しているので、対象同定部310は、これらの特徴の比較を実施し、特徴量間の距離を求める。他の部位についても同様である。また、対象同定部310は、向き別の特徴量比較と同様に、特徴量を統合したうえで比較してもよい。特徴量を比較して距離を求める処理をすべての向きに対して実施し、最終的に対象間距離を統合(例えば平均)することで、部位別特徴量の比較結果とする。部位を考慮した計算方法であれば、特定の方法に限るものではない。
3つ目の属性は、特徴判別カテゴリである。特徴判別カテゴリ別の特徴量の比較では、対象同定部310は、特徴判別カテゴリ毎に比較を実施する。図4において、髭の特徴量は、対象1が0.1を保持し、対象2が0.8を保持しているので、対象同定部310は、0.1と0.8とを比較する。この場合、対象同定部310は、特徴量の値が近いほど、対象間距離が近くなるように、値を求める。対象同定部310は、同じ計算を年齢、身長等にも適用し、求めた各対象間距離を統合することで特徴判別カテゴリ別の特徴量比較結果とする。
なお、各属性における特徴量の比較において、対象同定部310は、信頼度が所定の閾値に満たない特徴量については比較の対象外としてもよい。つまり、対象同定部310は、各属性要素の特徴量比較の際、信頼度が閾値以上の特徴量について比較の対象とするようにしてもよい。例えば、図4の向き別特徴量の比較の際、向き180度の特徴量は対象1がFの特徴量を保持し、対象2がbの特徴量を保持しているが、信頼度が10と低い。そのため、対象同定部310は、この特徴量を特徴量比較の対象外とする。この例では、どちらの対象も信頼度が低い値であるが、対象同定部310は、一方の特徴量の信頼度が所定の閾値より低ければ、対象外としてもよい。特徴量の比較の際、信頼度が閾値に満たない特徴量を対象外とすることにより、同定の精度を向上させることができる。
最後に、対象同定部310は、算出した対象間距離を所定の閾値と比較し、閾値以内の対象距離であれば(類似性が高ければ)、同一対象と判断する。そして、対象同定部310は、対象間の距離又は対象の同定情報を出力部311に提供する。
3つ目の属性は、特徴判別カテゴリである。特徴判別カテゴリ別の特徴量の比較では、対象同定部310は、特徴判別カテゴリ毎に比較を実施する。図4において、髭の特徴量は、対象1が0.1を保持し、対象2が0.8を保持しているので、対象同定部310は、0.1と0.8とを比較する。この場合、対象同定部310は、特徴量の値が近いほど、対象間距離が近くなるように、値を求める。対象同定部310は、同じ計算を年齢、身長等にも適用し、求めた各対象間距離を統合することで特徴判別カテゴリ別の特徴量比較結果とする。
なお、各属性における特徴量の比較において、対象同定部310は、信頼度が所定の閾値に満たない特徴量については比較の対象外としてもよい。つまり、対象同定部310は、各属性要素の特徴量比較の際、信頼度が閾値以上の特徴量について比較の対象とするようにしてもよい。例えば、図4の向き別特徴量の比較の際、向き180度の特徴量は対象1がFの特徴量を保持し、対象2がbの特徴量を保持しているが、信頼度が10と低い。そのため、対象同定部310は、この特徴量を特徴量比較の対象外とする。この例では、どちらの対象も信頼度が低い値であるが、対象同定部310は、一方の特徴量の信頼度が所定の閾値より低ければ、対象外としてもよい。特徴量の比較の際、信頼度が閾値に満たない特徴量を対象外とすることにより、同定の精度を向上させることができる。
最後に、対象同定部310は、算出した対象間距離を所定の閾値と比較し、閾値以内の対象距離であれば(類似性が高ければ)、同一対象と判断する。そして、対象同定部310は、対象間の距離又は対象の同定情報を出力部311に提供する。
出力部311は、対象が同定された結果を表示装置206に表示することでユーザに表示する。出力部311は、表示の一例として、入力装置205を介して表示装置206に表示されている対象のうち、ユーザが選択した対象に対して、対象同定部310によって同定された対象を、対象間距離が一番近い順に左から並べて表示するようにしてもよい。なお、左から並べる等は一例であり、画面の構成等に応じて、一番右から順に並べてもよいし、一番上から順に並べてもよい。また、出力部311は、ユーザへの参考情報として、属性別の信頼度をレーダーチャート等のグラフを含む画面を表示装置206に表示してもよい。更に、前記画面に含まれる検索領域等に、入力装置205を介してユーザが属性要素をより絞り込むことで、出力部311は、選択された属性要素に基づいて対象同定部310の対象間距離を再計算した結果を表示する。
図5は、表示の一例を示す図である。図5に示される画面は、検索の基準となる対象を選択する選択領域501と、検索結果を表示する検索結果表示領域502と検索条件を設定する設定領域503と、を含む。選択領域501には、検索対象のクエリ画像と、ID等の対象情報とを表す検索対象情報510とが含まれると共に、選択の入力を受け付ける参照ボタン511が含まれる。
ユーザが入力装置205を介して表示装置206に表示されている参照ボタン511を選択することにより、対象同定部310は、対象の選択処理を実施する。つまり、対象同定部310は、対象が選択されると、検索対象情報510に選択された対象の情報を出力部311に表示させる。検索結果表示領域502には、対象間の距離が一番近い順に一番左から同定対象520が一覧表示される。なお、ユーザが、この検索結果をみて、検索対象と一致する対象を指定することができるようにしてもよい。設定領域503には、向き別信頼度グラフ530と、部位別信頼度グラフ531と、特徴判別カテゴリ別信頼度グラフ532と、再検索ボタン533と、検索条件設定ボタン534とが、含まれる。ユーザは、検索結果表示領域502の表示と信頼度グラフ530〜532とに基づいて、検索の絞り込み条件を決定する。そして、ユーザは、決定した検索条件に基づいて、検索条件設定ボタン534の選択等によって検索条件の変更を対象同定装置105に指示する。対象同定部310は、再検索ボタン533が選択されると、前記指示に応じて変更した検索条件で再検索を実施する。例えば、ユーザによって、対象の向きは「正面」、部位は「頭部」、特徴判別カテゴリは「髭」が、絞り込み条件として選択されたとする。そうすると、対象同定部310は、その選択された条件を対象にして、同定処理を再度行うこととなる。
ユーザが入力装置205を介して表示装置206に表示されている参照ボタン511を選択することにより、対象同定部310は、対象の選択処理を実施する。つまり、対象同定部310は、対象が選択されると、検索対象情報510に選択された対象の情報を出力部311に表示させる。検索結果表示領域502には、対象間の距離が一番近い順に一番左から同定対象520が一覧表示される。なお、ユーザが、この検索結果をみて、検索対象と一致する対象を指定することができるようにしてもよい。設定領域503には、向き別信頼度グラフ530と、部位別信頼度グラフ531と、特徴判別カテゴリ別信頼度グラフ532と、再検索ボタン533と、検索条件設定ボタン534とが、含まれる。ユーザは、検索結果表示領域502の表示と信頼度グラフ530〜532とに基づいて、検索の絞り込み条件を決定する。そして、ユーザは、決定した検索条件に基づいて、検索条件設定ボタン534の選択等によって検索条件の変更を対象同定装置105に指示する。対象同定部310は、再検索ボタン533が選択されると、前記指示に応じて変更した検索条件で再検索を実施する。例えば、ユーザによって、対象の向きは「正面」、部位は「頭部」、特徴判別カテゴリは「髭」が、絞り込み条件として選択されたとする。そうすると、対象同定部310は、その選択された条件を対象にして、同定処理を再度行うこととなる。
ここで、図5及び後述する図6のtrackIDは、一つの物体(又は一人の人物)に対して付加された識別情報である。例えば、対象検出追尾部302は、検出した対象ごとに識別情報を付加する。また、cameraIDは、撮像装置を識別する識別情報である。また、scoreは、対象間の類似性である。
また、図5では、1つの画面に、選択領域501、検索結果表示領域502、設定領域503が含まれる例を示したが、これに限定されるものではない。例えば、選択領域501、検索結果表示領域502、設定領域503は、別々の画面に表示されてもよいし、任意の組み合わせで同一の画面に表示されるようにしてもよい。後述する図6、図8等においても同様である。
また、図5では、1つの画面に、選択領域501、検索結果表示領域502、設定領域503が含まれる例を示したが、これに限定されるものではない。例えば、選択領域501、検索結果表示領域502、設定領域503は、別々の画面に表示されてもよいし、任意の組み合わせで同一の画面に表示されるようにしてもよい。後述する図6、図8等においても同様である。
図6は、検索条件を変更して再検索が実施された場合の表示の一例を示す図である。図6の例は、向きについて、正面、正右が選択され、部位について、頭部、胴体、右足が選択され、特徴判別カテゴリについて、身長、性別が選択されている。以上の条件で再検索が実施されることで、検索結果表示領域502に表示される結果が変わる。
ここで、出力部311は、向き別信頼度グラフ530、部位別信頼度グラフ531、特徴判別カテゴリ別の信頼度グラフ532において、選択領域501で選択された検索の基準となる対象の各信頼度を表示している。このような構成とすることにより、例えば、ユーザは、設定領域の各グラフに表示されている対象の各信頼度に応じて、信頼度が他の信頼度より高いものを検索条件として選択することができる。
画像取得部301の画像の取得は、撮像装置101〜103からの入力に限定されるものではなく、録画映像の読み込みやネットワークを介したストリーミング入力等、画像を入力する方法であればよい。
対象検出追尾部302の追尾は、前記画像から検出した対象を画像内で追尾する処理であればよく、上述した記載の方法に限定されるものではない。
対象同定部310の比較は、同定した対象の情報を管理する対象情報管理部に対して、対象のIDを同定したIDに書き換えることで同じ対象として情報を管理してもよい。このとき、出力部311は、画像取得部301で取得した画像上に、対象の位置とサイズとを表す図形、例えば対象に外接する矩形、と、対象のIDとを描画して表示してもよい。
ここで、出力部311は、向き別信頼度グラフ530、部位別信頼度グラフ531、特徴判別カテゴリ別の信頼度グラフ532において、選択領域501で選択された検索の基準となる対象の各信頼度を表示している。このような構成とすることにより、例えば、ユーザは、設定領域の各グラフに表示されている対象の各信頼度に応じて、信頼度が他の信頼度より高いものを検索条件として選択することができる。
画像取得部301の画像の取得は、撮像装置101〜103からの入力に限定されるものではなく、録画映像の読み込みやネットワークを介したストリーミング入力等、画像を入力する方法であればよい。
対象検出追尾部302の追尾は、前記画像から検出した対象を画像内で追尾する処理であればよく、上述した記載の方法に限定されるものではない。
対象同定部310の比較は、同定した対象の情報を管理する対象情報管理部に対して、対象のIDを同定したIDに書き換えることで同じ対象として情報を管理してもよい。このとき、出力部311は、画像取得部301で取得した画像上に、対象の位置とサイズとを表す図形、例えば対象に外接する矩形、と、対象のIDとを描画して表示してもよい。
図7は、連続して入力される画像に対して、対象の特徴量を記憶し、選択した対象の同定を行う情報処理の一例を示すフローチャートである。
S101において、画像取得部301は、画像を取得する。
S102において、対象検出追尾部302は、取得した画像から対象の検出処理を実施する。
次に、S103において、対象検出追尾部302は、得られた対象情報を基に、追尾処理を実行し、対象を追跡する。
次に、S104において、特徴量抽出部303は、得られた対象情報を基に、対象の特徴量を抽出する。
同時に、S105において、向き判定部304と、部位判定部305と、カテゴリ判定部306とは、対象の属性要素を判定する。
向き判定部304と、部位判定部305と、カテゴリ判定部306と、の処理が終了した後、S106において、特徴量更新部307は、以下の処理を実行する。即ち、特徴量更新部307は、抽出された特徴量と、判定された属性要素と、に基づいて、特徴量管理部308で管理されている、対象の特徴量を更新する。
特徴量更新部307の処理が終了した後、S107において、信頼度算出部309は、特徴量管理部308で管理されている、特徴量の属性要素別の信頼度を計算する。S107の処理は、物体を同定できる確率を表わす信頼度を求める制御の処理の一例である。
S101において、画像取得部301は、画像を取得する。
S102において、対象検出追尾部302は、取得した画像から対象の検出処理を実施する。
次に、S103において、対象検出追尾部302は、得られた対象情報を基に、追尾処理を実行し、対象を追跡する。
次に、S104において、特徴量抽出部303は、得られた対象情報を基に、対象の特徴量を抽出する。
同時に、S105において、向き判定部304と、部位判定部305と、カテゴリ判定部306とは、対象の属性要素を判定する。
向き判定部304と、部位判定部305と、カテゴリ判定部306と、の処理が終了した後、S106において、特徴量更新部307は、以下の処理を実行する。即ち、特徴量更新部307は、抽出された特徴量と、判定された属性要素と、に基づいて、特徴量管理部308で管理されている、対象の特徴量を更新する。
特徴量更新部307の処理が終了した後、S107において、信頼度算出部309は、特徴量管理部308で管理されている、特徴量の属性要素別の信頼度を計算する。S107の処理は、物体を同定できる確率を表わす信頼度を求める制御の処理の一例である。
S108において、対象同定部310は、選択領域501で対象が選択されたか否かを判定する。対象同定部310は、選択領域501で対象が選択されたと判定した場合(S108においてYes)、S109に処理を進め、対象が選択されていないと判定した場合(S108においてNo)、S101に処理を戻す。
S109において、対象同定部310は、対象間の距離の算出と対象同定処理とを行う。
対象同定部310の処理が終了した後、S110において、出力部311は、結果を表示装置206等に出力する。
S111において、対象同定部310は、設定領域503で検索条件の設定変更がされたか否かを判定する。対象同定部310は、設定領域503で検索条件の設定変更がされたと判定した場合(S111においてYes)、S112に処理を進める。一方、対象同定部310は、設定領域503で検索条件の設定変更がされていないと判定した場合(S111においてNo)、図7に示すフローチャートの処理を終了させる。
S112において、対象同定部310は、変更された設定に応じて、検索条件を変更する。対象同定部310は、S112の処理の後、処理をS109に戻す。
なお、画像の取得から特徴量の更新の処理の実行タイミングは、対象選択の有無に関わらず、常時であってもよいし、何れの時点であってもよい。
以上説明の通り、本実施形態の処理によれば、対象同定装置105は、連続して入力される画像に対して、対象の特徴量を記憶し、選択された対象の同定をすることができる。
S109において、対象同定部310は、対象間の距離の算出と対象同定処理とを行う。
対象同定部310の処理が終了した後、S110において、出力部311は、結果を表示装置206等に出力する。
S111において、対象同定部310は、設定領域503で検索条件の設定変更がされたか否かを判定する。対象同定部310は、設定領域503で検索条件の設定変更がされたと判定した場合(S111においてYes)、S112に処理を進める。一方、対象同定部310は、設定領域503で検索条件の設定変更がされていないと判定した場合(S111においてNo)、図7に示すフローチャートの処理を終了させる。
S112において、対象同定部310は、変更された設定に応じて、検索条件を変更する。対象同定部310は、S112の処理の後、処理をS109に戻す。
なお、画像の取得から特徴量の更新の処理の実行タイミングは、対象選択の有無に関わらず、常時であってもよいし、何れの時点であってもよい。
以上説明の通り、本実施形態の処理によれば、対象同定装置105は、連続して入力される画像に対して、対象の特徴量を記憶し、選択された対象の同定をすることができる。
<実施形態2>
実施形態1では、出力部311等が、入力装置205等を介したユーザ操作に応じて、検索対象として既に特徴量管理部308において特徴量等が管理されている、登録された対象(物体)を図5や図6等のように選択領域501に表示する例を示した。しかし、出力部311等は、入力装置205等を介したユーザ操作に応じて、検索対象として、撮像装置101〜103で撮像中の未登録の対象を選択領域501に表示するようにしてもよい。図8は、検索対象の選択の他の例を示す図である。ユーザは、入力装置205等を操作し図8の選択領域501に表示されている撮像装置101〜103で撮像中の未登録の対象を検索対象として選択することができる。
検索対象が選択されると、本実施形態の対象同定装置105は、選択された撮像中の画像の対象の検出処理及び追尾処理を行い、特徴量を抽出すると共に、対象の向き判定、部位判定、特徴判別カテゴリの判定を行い、特徴量の登録、信頼度の算出を行う。そして、本実施形態の対象同定装置105は、選択された対象と、登録済みの他の対象との同定処理を行い、処理結果を出力する。
本実施形態の処理によっても、対象同定装置105は、選択された対象の同定をすることができる。
実施形態1では、出力部311等が、入力装置205等を介したユーザ操作に応じて、検索対象として既に特徴量管理部308において特徴量等が管理されている、登録された対象(物体)を図5や図6等のように選択領域501に表示する例を示した。しかし、出力部311等は、入力装置205等を介したユーザ操作に応じて、検索対象として、撮像装置101〜103で撮像中の未登録の対象を選択領域501に表示するようにしてもよい。図8は、検索対象の選択の他の例を示す図である。ユーザは、入力装置205等を操作し図8の選択領域501に表示されている撮像装置101〜103で撮像中の未登録の対象を検索対象として選択することができる。
検索対象が選択されると、本実施形態の対象同定装置105は、選択された撮像中の画像の対象の検出処理及び追尾処理を行い、特徴量を抽出すると共に、対象の向き判定、部位判定、特徴判別カテゴリの判定を行い、特徴量の登録、信頼度の算出を行う。そして、本実施形態の対象同定装置105は、選択された対象と、登録済みの他の対象との同定処理を行い、処理結果を出力する。
本実施形態の処理によっても、対象同定装置105は、選択された対象の同定をすることができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。上述した各実施形態では、属性の例として、物体の向きと、物体の部位と、特徴量のカテゴリと、を例に説明を行ったが、物体の向きと、物体の部位と、特徴量のカテゴリと、の何れか、又はこれらの任意の組み合せであってもよい。
以上、上述した各実施形態の処理によれば、対象の向き、部位の種類、特徴量のカテゴリ別に特徴量を記憶、更新する際に、それぞれの特徴量の信頼度を求め、信頼度の高い特徴同士を比較することで、同定精度を向上させることができる。
よって、上述した各実施形態の処理によれば、対象の同定精度を向上させる技術を提供することができる。
よって、上述した各実施形態の処理によれば、対象の同定精度を向上させる技術を提供することができる。
105 対象同定装置
201 CPU
201 CPU
Claims (12)
- 画像を取得する取得手段と、
前記取得手段が取得した画像から物体を検出する検出手段と、
前記検出手段が検出した物体の複数の要素の各々に対応する特徴量を抽出する抽出手段と、
前記抽出手段により抽出した前記特徴量に対応する信頼度を導出する導出手段と、
前記取得手段が取得した画像に対して行われるユーザ操作に基づいて、検索対象の物体を決定する決定手段と、
前記決定手段により決定した前記物体における複数の要素と、該複数の要素の各々の特徴量に対応する信頼度とを関連付けた情報を出力する出力手段と、
前記出力手段が出力した前記情報において、前記複数の要素から少なくとも一つの要素を選択する選択手段と、
前記選択手段により選択した前記要素に対応する特徴量と該特徴量に対応する信頼度とに基づいて、前記取得手段が取得した複数の画像から前記物体を同定する同定手段と、
を有することを特徴とする情報処理装置。 - 前記選択手段は、前記情報に対して行われるユーザ操作に基づいて、前記要素を選択することを特徴とする請求項1に記載の情報処理装置。
- 前記決定手段は、前記検出手段により検出された物体を示す領域を選択するユーザ操作に基づいて、前記物体を決定することを特徴とする請求項1又は2に記載の情報処理装置。
- 前記出力手段は、前記同定手段による同定結果を出力することを特徴とする請求項1から3のいずれか一項に記載の情報処理装置。
- 前記導出手段は、前記決定手段が前記物体を決定するのに用いた画像のフレーム数に基づいて前記信頼度を導出することを特徴とする請求項1から4のいずれか一項に記載の情報処理装置。
- 前記導出手段は、前記決定手段が前記物体を決定するのに用いた画像の解像度に基づいて前記信頼度を導出することを特徴とする請求項1から5のいずれか一項に記載の情報処理装置。
- 前記要素とは、前記物体の向き、部位、及び、特徴を判別するためのカテゴリのいずれか、又はこれらの任意の組み合わせである請求項1から6のいずれか一項に記載の情報処理装置。
- 前記カテゴリは、鞄、サングラス、髭の有無、年齢、性別、身長、服装、及び体型のうちの少なくとも一つである請求項7に記載の情報処理装置。
- 前記抽出手段は、前記物体における色、輝度、又はエッジに基づいて前記特徴量を抽出する請求項1から8のいずれか一項に記載の情報処理装置。
- 複数の画像から検索対象の物体を同定するための情報処理方法であって、
画像を取得する取得ステップと、
前記取得ステップが取得した画像から物体を検出する検出ステップと、
前記検出ステップが検出した物体の複数の要素の各々に対応する特徴量を抽出する抽出ステップと、
前記抽出ステップにより抽出した前記特徴量に対応する信頼度を導出する導出ステップと、
前記取得ステップが取得した画像に対して行われるユーザ操作に基づいて、検索対象の物体を決定する決定ステップと、
前記決定ステップにより決定した前記物体における複数の要素と、該複数の要素の各々の特徴量に対応する信頼度とを関連付けた情報を出力する出力ステップと、
前記出力ステップが出力した前記情報において、前記複数の要素から少なくとも一つの要素を選択する選択ステップと、
前記選択ステップにより選択した前記要素に対応する特徴量と該特徴量に対応する信頼度とに基づいて、前記取得ステップが取得した複数の画像から前記物体を同定する同定ステップと、
を有することを特徴とする情報処理方法。 - コンピュータに、複数の画像から検索対象の物体を同定するための情報処理方法を実行させるためのプログラムであって、
前記情報処理方法は、
画像を取得する取得ステップと、
前記取得ステップが取得した画像から物体を検出する検出ステップと、
前記検出ステップが検出した物体の複数の要素の各々に対応する特徴量を抽出する抽出ステップと、
前記抽出ステップにより抽出した前記特徴量に対応する信頼度を導出する導出ステップと、
前記取得ステップが取得した画像に対して行われるユーザ操作に基づいて、検索対象の物体を決定する決定ステップと、
前記決定ステップにより決定した前記物体における複数の要素と、該複数の要素の各々の特徴量に対応する信頼度とを関連付けた情報を出力する出力ステップと、
前記出力ステップが出力した前記情報において、前記複数の要素から少なくとも一つの要素を選択する選択ステップと、
前記選択ステップにより選択した前記要素に対応する特徴量と該特徴量に対応する信頼度とに基づいて、前記取得ステップが取得した複数の画像から前記物体を同定する同定ステップと、
を有することを特徴とするプログラム。 - 請求項11に記載されたプログラムが記憶されたコンピュータで読み取り可能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020050408A JP2020095757A (ja) | 2020-03-23 | 2020-03-23 | 情報処理装置、情報処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020050408A JP2020095757A (ja) | 2020-03-23 | 2020-03-23 | 情報処理装置、情報処理方法及びプログラム |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015161265A Division JP2017041022A (ja) | 2015-08-18 | 2015-08-18 | 情報処理装置、情報処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020095757A true JP2020095757A (ja) | 2020-06-18 |
Family
ID=71085051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020050408A Pending JP2020095757A (ja) | 2020-03-23 | 2020-03-23 | 情報処理装置、情報処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020095757A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022134143A (ja) * | 2021-03-03 | 2022-09-15 | 三菱電機インフォメーションシステムズ株式会社 | 検知装置、検知方法、検知プログラム及び検知システム |
WO2023282033A1 (ja) * | 2021-07-09 | 2023-01-12 | パナソニックIpマネジメント株式会社 | 画像処理装置、画像処理方法、及びプログラム |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11258359A (ja) * | 1998-03-13 | 1999-09-24 | Nippon Telegr & Teleph Corp <Ntt> | 気象予報支援方法、装置、および気象予報支援プログラムを記録した記録媒体 |
WO2004047026A1 (ja) * | 2002-11-20 | 2004-06-03 | Fujitsu Limited | 画像検索プログラム |
JP2006293644A (ja) * | 2005-04-08 | 2006-10-26 | Canon Inc | 情報処理装置、情報処理方法 |
WO2007142227A1 (ja) * | 2006-06-07 | 2007-12-13 | Nec Corporation | 画像方向判定装置、画像方向判定方法、および画像方向判定用プログラム |
JP2010520542A (ja) * | 2007-03-05 | 2010-06-10 | フォトネーション ビジョン リミテッド | 分類器チェーンを用いた照明検出 |
JP2011060024A (ja) * | 2009-09-10 | 2011-03-24 | Toshiba Corp | 画像認識処理に適用する特徴情報選択装置及び画像認識処理装置 |
JP2011090427A (ja) * | 2009-10-21 | 2011-05-06 | Fujifilm Corp | ドキュメント閲覧システム及びその制御方法 |
JP2013210845A (ja) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | 移動物体照合装置 |
-
2020
- 2020-03-23 JP JP2020050408A patent/JP2020095757A/ja active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11258359A (ja) * | 1998-03-13 | 1999-09-24 | Nippon Telegr & Teleph Corp <Ntt> | 気象予報支援方法、装置、および気象予報支援プログラムを記録した記録媒体 |
WO2004047026A1 (ja) * | 2002-11-20 | 2004-06-03 | Fujitsu Limited | 画像検索プログラム |
JP2006293644A (ja) * | 2005-04-08 | 2006-10-26 | Canon Inc | 情報処理装置、情報処理方法 |
WO2007142227A1 (ja) * | 2006-06-07 | 2007-12-13 | Nec Corporation | 画像方向判定装置、画像方向判定方法、および画像方向判定用プログラム |
JP2010520542A (ja) * | 2007-03-05 | 2010-06-10 | フォトネーション ビジョン リミテッド | 分類器チェーンを用いた照明検出 |
JP2011060024A (ja) * | 2009-09-10 | 2011-03-24 | Toshiba Corp | 画像認識処理に適用する特徴情報選択装置及び画像認識処理装置 |
JP2011090427A (ja) * | 2009-10-21 | 2011-05-06 | Fujifilm Corp | ドキュメント閲覧システム及びその制御方法 |
JP2013210845A (ja) * | 2012-03-30 | 2013-10-10 | Secom Co Ltd | 移動物体照合装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022134143A (ja) * | 2021-03-03 | 2022-09-15 | 三菱電機インフォメーションシステムズ株式会社 | 検知装置、検知方法、検知プログラム及び検知システム |
JP7200279B2 (ja) | 2021-03-03 | 2023-01-06 | 三菱電機インフォメーションシステムズ株式会社 | 検知装置、検知方法、検知プログラム及び検知システム |
WO2023282033A1 (ja) * | 2021-07-09 | 2023-01-12 | パナソニックIpマネジメント株式会社 | 画像処理装置、画像処理方法、及びプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10860846B2 (en) | Information processing apparatus, information processing method and program | |
JP7282851B2 (ja) | 装置、方法及びプログラム | |
KR20210090139A (ko) | 정보처리장치, 정보처리방법 및 기억매체 | |
WO2020017190A1 (ja) | 映像解析装置、人物検索システムおよび人物検索方法 | |
JP2017033547A (ja) | 情報処理装置及びその制御方法及びプログラム | |
WO2019064375A1 (ja) | 情報処理装置、制御方法、及びプログラム | |
US10762372B2 (en) | Image processing apparatus and control method therefor | |
JP2020095757A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2016099835A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2017054493A (ja) | 情報処理装置及びその制御方法及びプログラム | |
JP6649232B2 (ja) | 検索装置、表示装置および検索方法 | |
CN107231519B (zh) | 视频处理装置及控制方法 | |
JP6752122B2 (ja) | 画像処理装置、画像処理方法 | |
JP2019185205A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
US20230131717A1 (en) | Search processing device, search processing method, and computer program product | |
JP7235820B2 (ja) | 類似画像検索による人流分析方法および装置 | |
JP2012027617A (ja) | パターン識別装置、パターン識別方法及びプログラム | |
US11716448B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2019075051A (ja) | 画像処理装置 | |
JP2014203133A (ja) | 画像処理装置、画像処理方法 | |
JP6539720B1 (ja) | 画像処理装置 | |
JP2018036901A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP2018195872A (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
JP2019146087A (ja) | 情報処理装置、撮像装置の制御方法、コンピュータプログラム、及び記憶媒体 | |
Bakliwal et al. | Collaborative Contributions for Better Annotations. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210511 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210706 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211026 |