JP2019185205A - 情報処理装置、情報処理方法、及びプログラム - Google Patents
情報処理装置、情報処理方法、及びプログラム Download PDFInfo
- Publication number
- JP2019185205A JP2019185205A JP2018072216A JP2018072216A JP2019185205A JP 2019185205 A JP2019185205 A JP 2019185205A JP 2018072216 A JP2018072216 A JP 2018072216A JP 2018072216 A JP2018072216 A JP 2018072216A JP 2019185205 A JP2019185205 A JP 2019185205A
- Authority
- JP
- Japan
- Prior art keywords
- change
- appearance
- information processing
- feature amount
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】正しい検索結果を得られるようにすることを課題とする。【解決手段】情報処理装置は、画像から特定の物体の領域を検出する物体検出手段(202)と、物体の領域から第一の特徴量を抽出する第一の抽出手段(204)と、物体の領域から第一の特徴量とは異なる第二の特徴量を抽出する第二の抽出手段(205)と、第一の特徴量と第二の特徴量とを基に、物体の外見の変化を検知する変化検知手段(208)と、物体の外見の変化の検知結果を基に、物体の外見に関するフィルタ条件を提示する提示工程(212)とを有する。【選択図】図2
Description
本発明は、カメラなどから取得された画像を解析する技術に関する。
近年、ネットワークに接続されてコンピュータからの制御が可能なカメラが多数市販されている。これらのカメラは、事務所や店舗、街中に広く設置され、セキュリティの向上に役立っている。一方、カメラ台数が増えるにつれ、目視による画像確認にコストがかかるようになり、このため、画像解析・認識技術を用いた効率化の取り組みが進んでいる。これらを実現する技術は非特許文献1に開示されている。この実用例として、顔認識技術を用いた、特定人物や迷子を捜すことができる人物検索システムがある。この人物検索システムでは、カメラの画像を解析して人物を検出し、人物の顔・人体領域から被写体の特徴を表す特徴量を抽出して、撮影したカメラ、時刻情報、画像といった情報と特徴量を関連付けて登録する。そして、検索時には、特徴量の類似性をもとに、類似度が高いと判断した登録情報を人物検索の結果として返す。しかし、実際に人物を検索した場合、検索対象でない人物が検索結果に含まれてしまうことが多い。この場合、外見特徴(属性)をフィルタ条件としたフィルタリングが必要になる。外見特徴を用いたフィルタリングでは、服装や鞄等の所持物といった被写体の外見に関する特徴や属性が、画像認識技術を用いて推定され、人物検索システムに登録する際に関連付けられて記録される。そして、フィルタリングの際にはそれら外見に関する特性がフィルタ条件として利用される。また例えば、特許文献1には、多層化された検索結果の表示に加えて、フィルタリングを実施する技術が開示されている。
コンピュータビジョン -アルゴリズムと応用- Richard Szeliski, 共立出版 2013
ところで、実際のユースケースでは、ある時間の画像から検索対象を指定することが多く、その時点の服装・鞄等の所持物がフィルタ条件となされて検索結果のフィルタリングが行われることになる。その結果、服装や鞄等の所持物が変化した時刻の照合結果が除外されてしまい、正しい検索結果が得られない場合がある。
そこで、本発明は、正しい検索結果を得られるようにすることを目的とする。
本発明に係る情報処理装置は、画像から特定の物体の領域を検出する物体検出手段と、前記物体の領域から第一の特徴量を抽出する第一の抽出手段と、前記物体の領域から前記第一の特徴量とは異なる第二の特徴量を抽出する第二の抽出手段と、第一の特徴量と第二の特徴量とを基に、前記物体の外見の変化を検知する変化検知手段と、前記物体の外見の変化の検知結果を基に、前記物体の外見に関するフィルタ条件を提示する提示手段と、を有することを特徴とする。
本発明によれば、正しい検索結果を得られるようになる。
以下、本発明の好ましい実施形態を、添付の図面に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
図1(a)は、本実施形態の情報処理システムの動作環境の一例を示したネットワーク接続構成図である。本実施形態の情報処理システムは、例えば、複数の撮像装置101、画像解析装置102、データ解析装置103、ストレージ装置104、入力装置105、表示装置106が、ネットワーク回線であるLAN107を介してそれぞれ接続されて構成されている。
図1(a)は、本実施形態の情報処理システムの動作環境の一例を示したネットワーク接続構成図である。本実施形態の情報処理システムは、例えば、複数の撮像装置101、画像解析装置102、データ解析装置103、ストレージ装置104、入力装置105、表示装置106が、ネットワーク回線であるLAN107を介してそれぞれ接続されて構成されている。
複数の撮像装置101は、それぞれが例えばネットワークカメラであり、撮影した画像を記録しておく機能、画像に対して各種画像処理を行う機能、画像データを圧縮等して送信する機能、外部装置から受けた各種命令に応じた処理を行う機能などを有する。また、各撮像装置101は、例えば撮影光学系のレンズの焦点距離、焦点位置、撮影方向等を、自動若しくは外部からの指示に応じて変更する機能を備えていても良い。
画像解析装置102は、撮像装置101(ネットワークカメラ)にて撮影された画像を収集して画像解析処理を行う。例えば、画像解析装置102は、解析の対象となる特定の物体が例えば人物である場合、画像内から人物の領域を検出し、その検出した人物の顔領域や全身領域、さらには鞄等の所持物の領域等を解析して特徴量を抽出するような画像解析機能を有する。画像解析装置102は、画像内に複数の人物が写っている場合にはそれら各人物について特徴量抽出を行う。画像解析装置102における画像解析処理の詳細は後述する。
データ解析装置103は、画像解析装置102が抽出した特徴量のデータを収集および管理し、データ解析処理を行う。例えば画像解析装置102にて人物の特徴量抽出が行われた場合、データ解析装置103は、抽出された人物の特徴量を照合して人物同定を行うようなデータ解析機能を有する。また、データ解析装置103は、例えば複数の撮像装置101から撮影光学系のレンズの焦点距離、焦点位置、撮影方向、設置位置(カメラ座標)、撮影範囲等の情報を収集して解析する機能を有していても良い。データ解析装置103におけるデータ管理やデータ解析処理の詳細は後述する。
ストレージ装置104は大容量の記録媒体を備えた装置である。ストレージ装置104は、複数の撮像装置101からの撮像画像、画像解析装置102の画像解析処理により抽出された特徴量、データ解析装置103のデータ解析処理による解析結果(人物照合の照合結果)等の各データを記録する。
入力装置105は、例えばマウスやキーボード、タッチパネルのようにユーザからの操作入力を取得する機能を有した装置である。本実施形態においては、入力装置105を介したユーザからの入力により、複数の撮像装置101の設定や操作、画像解析装置102の設定や操作、データ解析装置103の設定や操作等が可能であるとする。
表示装置106は、画像やユーザインターフェース(UI)画面を表示可能な装置である。本実施形態の場合、表示装置106は、UIを介して、例えばストレージ装置104に記録された画像データに画像解析処理やデータ解析処理の結果の解析データを重畳して表示する機能をも有している。表示装置106におけるデータ表示やUI画面の詳細は後述する。
なお、入力装置105および表示装置106は、クライアントのパーソナルコンピュータ(PC)などを想定している。画像解析装置102とデータ解析装置103はサーバ装置を想定しており、これらについてもそれぞれPCにより実現されてもよい。本実施形態において、複数の撮像装置101は、少なくとも2台以上であれば何台でも良い。LAN107に接続される画像解析装置102、データ解析装置103、ストレージ装置104、入力装置105、表示装置106は、図1のようにそれぞれ一台に限定されるものではなく、アドレスなどで識別可能であれば多数存在していてもよい。また図1(a)の情報処理システムでは、画像解析装置102とデータ解析装置103とストレージ装置104と入力装置105と表示装置106が別個の装置となされているが、これら全て若しくは幾つかが一台の情報処理装置として構成されていてもよい。その他、LAN107への物理的な接続形態としては、有線だけでなく、無線接続されていても良く、プロトコル的に接続可能であれば、物理的な接続形態は限定されない。また、無線接続がなされる場合、本実施形態に係る情報処理装置は、例えばタブレット端末のような携帯型の情報処理装置であっても良い。
図1(b)は、撮像装置101の概略的な構成例を示した図である。図1(b)に示した撮像装置101は、撮像部121、操作部122、通信部123、ROM124、CPU125、RAM126、記録部127を有している。撮像部121は、ズームレンズ、フォーカスレンズ、絞り等からなる撮像光学系と、その撮像光学系による光学像を撮像して画像データを生成する撮像センサとを少なくとも有する。なお、撮像部121には、遠隔操作によるパンニングやチルティングを行える雲台および駆動機構等が含まれていても良いし、現像処理や各種補正処理等を行う画像処理回路が含まれていても良い。操作部122は、設置者等が撮像装置101に各種設定等を行う際に操作されるスイッチやボタン等である。なお、撮像装置101が例えば監視カメラのように遠隔操作される装置である場合、操作部122は必ずしも備えられていなくても良い。ROM124は、書き換え可能な不揮発性メモリであり、撮像装置101の制御プログラムや各種の設定情報、撮像光学系のレンズ特性情報、撮像装置101が設置された場所の設置位置(カメラ座標)情報等の各種情報を格納している。RAM126は、ROM124から読み出されたプログラムが展開され、またワークメモリとして一時的にデータを記憶する。記録部127は、撮影した画像データの記録や、通信部123を介して受信した各種データ、情報等を記録する。なお、プログラムは記録部127に記録されていても良い。CPU125は、ROM124から読み出されてRAM126に展開されたプログラムを実行して、撮像装置101の全体の制御や各種演算、各種処理を行う。またCPU125は、撮像装置101の撮影時における撮像光学系の焦点距離、焦点位置、撮影方向、設置位置(カメラ座標)等の情報を生成する処理を行っても良い。通信部123は、LAN107等を介して、画像データや、撮影時における撮像光学系の焦点距離、焦点位置、撮影方向、設置位置(カメラ座標)等の情報を送信し、また外部装置からの制御コマンドの受信等を行う。
図1(c)は、例えば入力装置105および表示装置106、画像解析装置102やデータ解析装置103等が例えばPCにより構成されている場合の情報処理装置130の概略的な構成例を示した図である。情報処理装置130は、表示部131、操作部132、通信部133、ROM134、CPU135、RAM136、記録部137を有している。表示部131は、画像やユーザインターフェース(UI)画面を表示する。操作部132は例えばマウスやキーボード、タッチパネルを有する。通信部133は、LAN107等を介して、他の装置や撮像装置101等と通信する。ROM134は、書き換え可能な不揮発性メモリであり、情報処理装置130のプログラムや各種の設定情報等を格納している。RAM136は、ROM134から読み出されたプログラムが展開され、またワークメモリとして一時的にデータを記憶する。記録部137は、撮像装置101から取得した画像データや、通信部133を介して他の装置から受信した各種データ、情報等を記録する。CPU135は、ROM134から読み出されてRAM136に展開されたプログラムを実行して、情報処理装置130の全体の制御や各種演算、各種処理を行う。なお、プログラムは記録部137に記録されていても良い。
図2は、本実施形態の情報処理システムを機能ブロック構成により表した図である。
図2に示すように、情報処理システムの画像解析装置102は、画像取得部201、物体検出部202、切り出し部203、第一抽出部204、第二抽出部205の各機能を有する。また、データ解析装置103は、情報管理部206、クエリ抽出部207、変化検知部208、検索部209、フィルタ部210の各機能を有する。また、図2では、入力装置105を入力部211の機能ブロックとして表し、表示装置106を表示部212の各機能ブロックとして表している。本実施形態の情報処理システムでは、これら画像解析装置102の各機能ブロック、データ解析装置103の各機能ブロック、入力部211、表示部212が、LAN107を介して接続されている。なお、画像解析装置102とデータ解析装置103における各機能の切り分けは、図2の例に限定されるものではない。例えば、情報管理部206とクエリ抽出部207と変化検知部208と検索部209とフィルタ部210は、画像解析装置102に含まれる機能となされてもよい。
図2に示すように、情報処理システムの画像解析装置102は、画像取得部201、物体検出部202、切り出し部203、第一抽出部204、第二抽出部205の各機能を有する。また、データ解析装置103は、情報管理部206、クエリ抽出部207、変化検知部208、検索部209、フィルタ部210の各機能を有する。また、図2では、入力装置105を入力部211の機能ブロックとして表し、表示装置106を表示部212の各機能ブロックとして表している。本実施形態の情報処理システムでは、これら画像解析装置102の各機能ブロック、データ解析装置103の各機能ブロック、入力部211、表示部212が、LAN107を介して接続されている。なお、画像解析装置102とデータ解析装置103における各機能の切り分けは、図2の例に限定されるものではない。例えば、情報管理部206とクエリ抽出部207と変化検知部208と検索部209とフィルタ部210は、画像解析装置102に含まれる機能となされてもよい。
画像取得部201は、LAN107を介して、撮像装置101から所定の時間間隔で画像を順次取得し、その画像と撮像装置101に関連付けられたカメラID(例えばIPアドレス)と撮影時刻とを、物体検出部202及び切り出し部203に提供する。なお、画像取得部201による画像の取得は、撮像装置101からの撮像画像の取得に限定されるものではない。例えば、画像取得部201は、ストレージ装置104からの画像データ(録画画像)の読み込みやネットワークを介したストリーミング入力などによって画像を取得しても良い。
物体検出部202は、画像取得部201により取得された画像から、対象物体を検出する検出処理を実行する。物体検出部202は、カメラIDと、検出した対象物体を一意に特定する識別子 (以下、物体IDとする。)と、対象物体の検出矩形(矩形の位置及び、サイズを表す情報)と、検出時刻とをまとめて検出情報として、切り出し部203に提供する。検出時刻としては、画像取得部201が撮像装置101から撮影画像を取得した場合にはその撮影時刻を用いる。同様に、例えば画像取得部201がストレージ装置104からの録画画像を読み込んだ場合や、ネットワークを介したストリーミング入力などにより画像を取得した場合にも、それらの画像が撮影された際の撮影時刻が検出時刻となされる。なお、画像からの対象物体の検出は、周知の技術を用いて実現することができる。例えば以下の参考文献1に記載された勾配方向ヒストグラム特徴(Histograms of Oriented Gradients)を抽出して、人の全身を検出する方法を利用することができる。参考文献1:「N.Dalal, B.Triggs, Histograms of Oriented Gradients for Human Detection, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2005.」
切り出し部203は、物体検出部202の検出情報に含まれる検出矩形に基づいて、画像取得部201にて取得された画像から対象物体の画像領域のみを切り出す処理を実行する。以下、この切り出し処理により得られた画像領域をサムネイルと呼ぶ。切り出し部203は、切り出したサムネイルを検出情報と対応付けて、第一抽出部204と第二抽出部205に提供する。
第一抽出部204は、切り出し部203の切り出し処理により作成されたサムネイルの画像つまり対象物体の画像領域から、第一の特徴量を抽出する第一の特徴量抽出処理を実行する。本実施形態では、対象物体が人物である場合を例に挙げているため、第一の特徴量抽出処理では、第一の特徴量として人物の顔の特徴量を抽出する。そして、第一抽出部204は、検出情報、サムネイル、第一の特徴量をまとめて物体情報とし、情報管理部206に提供する。なお、第一の特徴量抽出処理は周知の技術を用いて実現することができる。例えば以下の参考文献2に記載された顔の特徴算出方法を利用することができる。参考文献2:「F.Schroff, D.Kalenichenko, J.Philbi, Facenet: A unified embedding for face recognition and clustering, IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2015.」
第二抽出部205は、切り出し部203にて切り出されたサムネイルの画像から、前述の第一の特徴量とは異なる第二の特徴量を抽出する第二の特徴量抽出処理を抽出する処理を実行する。本実施形態では対象物体が人物である場合を例に挙げているため、第二の特徴量抽出処理では第二の特徴量として例えば人物の身体における全身の特徴量を抽出する。また、第二の特徴量抽出処理では、対象物体に付随した物体の特徴量を、当該対象物体の外見に関する特徴量として抽出することも行う。第二抽出部205は、対象物体である人物の外見に関する特徴量の一例として、人物が着ている服の色を抽出する。なお、人物の外見に関する特徴には、例えば人物が把持或いは肩に掛けている鞄などのような所持物に関する特徴が含まれていても良い。そして、第二抽出部205は、検出情報、サムネイル、第二の特徴量(少なくとも人物の全身の特徴と服の色とを含む特徴等)をまとめて物体情報として、情報管理部206に提供する。なお、第二の特徴量抽出処理における全身の特徴量抽出は周知の技術を用いて実現することができる。例えば以下の参考文献3に記載された全身の特徴算出方法を利用することができる。参考文献3:「S.Paisitkriangkrai, Learning to rank in person re-identification with metric ensembles. IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR), 2015.」
また、服の色の抽出処理については例えば以下のような手順により行うことができる。先ず、第二抽出部205は、対象物体(人物)における物体情報のサムネイルについて、上半身領域と下半身領域を推定する。次に、第二抽出部205は、上半身領域と下半身領域についてそれぞれの色ヒストグラムを算出する。更に第二抽出部205は、各色ヒストグラムについて、所定の基準色ヒストグラム(赤、青などの色を表す色ヒストグラムのサンプル)との比較を行い、類似度の最も高い基準色ヒストグラムが示す色を、服の色として求める。なお、この例では、人物の全身の特徴量を抽出する処理と服の色を抽出する処理を別々に行っているが、これらの処理を同時に行う手法を用いてもよい。また、服の色だけでなく、柄,模様のパターンや服の種類を特徴に含めて求めるようにしても良い。鞄等の所持物に関する特徴は、一例として、所持物の形状や使用形態に応じた特徴、服の場合と同様に色ヒストグラムに基づく色などを用いることができる。勿論、所持物の特徴はこれらの例に限定されるものではなく、他の特徴であっても良い。
情報管理部206は、第一抽出部204と第二抽出部205から物体情報を取得して管理する。情報管理部206は、管理している物体情報を変化検知部208と検索部209とに提供する。なお、情報管理部206は、物体情報に含まれる物体IDに基づいて、第一の特徴量と第二の特徴量を紐づけて管理する。また、情報管理部206は、複数の撮像装置101から取得した撮像光学系の焦点距離、焦点位置、撮影方向、設置位置(カメラ座標)、撮影範囲等の情報についても管理する。
クエリ抽出部207は、入力部211からクエリ画像を取得し、クエリ画像から第一の特徴量と第二の特徴量(全身の特徴と少なくとも服の色を含む特徴量)を抽出する。クエリ画像は、例えば表示部212に表示された画像の中から、ユーザが入力部211を介して指定した対象物体の画像である。クエリ抽出部207は、クエリ画像から抽出した第一の特徴量と第二の特徴量をまとめてクエリ特徴量とし、変化検知部208と検索部209に提供する。クエリ画像から第一の特徴量と第二の特徴量(服の色等の特徴量も含む)を抽出する処理は、第一抽出部204と第二抽出部205と同様の処理で行うことができる。
変化検知部208は、情報管理部206から少なくとも一つ以上の物体情報を取得し、クエリ抽出部207からクエリ特徴量を取得し、それらを基に、クエリ画像により指定された対象物体の外見の変化を検出する処理を実行する。本実施形態では、人物が着ている服の色等の変化を基に人物の服装の変化を検出するような服装変化検知処理を実行する。そして、変化検知部208は、対象物体における服装変化を検知したとき、服の色リスト情報を、外見の変化の検知結果に含めて表示部212に提供する。なお、服装変化検知処理では、人物の所持物である鞄等の変化を検知する処理を行っても良く、この場合、服の色リスト情報と共に、或いは色リスト情報とは別に、所持物リスト情報を表示部212に提供するようにしても良い。
変化検知部208は、クエリ画像により指定された対象物体における服装変化検知処理を以下のような手順で行う。先ず、変化検知部208は、クエリ特徴量に含まれる第一の特徴量Xq1を基準とし、その他の物体情報に含まれる第一の特徴量Xi1を照合して、それらの特徴量の類似度を表す第一の照合スコアSi1を求める。次に、変化検知部208は、第一の照合スコアSi1が所定の第一の閾値以上(閾値Th1以上)の物体情報の集合R1を求める。また、変化検知部208は、クエリ特徴量に含まれる第二の特徴量Xq2を基準とし、集合R1の物体情報に含まれる第二の特徴量Xj2を照合して、それらの特徴量の類似度を表す第二の照合スコアSj2を求める。次に、変化検知部208は、第二の照合スコアSj2が所定の第二の閾値未満(閾値Th2未満)の物体情報の集合R2を求める。そして、変化検知部208は、集合R2が少なくとも一つ以上ある場合には、クエリ画像により指定された対象物体の服装が変化したと判定する。その後、変化検知部208は、集合R2の物体情報を用いて、クエリ画像で指定された対象物体の服の色リスト情報を作成する。
また変化検知部208は、クエリ画像で指定された対象物体における服の色リスト情報の作成処理を以下の手順により行う。先ず、変化検知部208は、集合R2に含まれる上半身、下半身それぞれの服の色について、出現回数をカウントする。そして、変化検知部208は、カウント数が0以上の予め決めた所定の回数閾値以上であれば、外見としての服の色が変化し易いと判定し、服の色リスト情報に、服の色が変化する場合に推定される服の色とサムネイルを追加する。服の色リスト情報は、一例として{[上半身:赤、下半身:黒、サムネイル1]、[上半身:緑、下半身:黒、サムネイル2]、[上半身:黒、下半身:黒、サムネイル3]}のような情報となされる。また、色リスト情報には、服の色の情報に加えて、位置や時刻情報がリストの要素として加えられても良い。なお、所持物リスト情報についても、色リスト情報の場合と概ね同様にして作成可能である。例えば、所持物の出現回数をカウントして、そのカウント数が所定の回数閾値以上であれば、所持物が変化し易いと判定し、所持物リスト情報に、所持物が変化する場合に推定される所持物(鞄等)とサムネイルを追加する。
また変化検知部208は、情報管理部206から少なくとも一つ以上の物体情報を取得して対象物体における服装変化検知処理を実行した際に、その対象物体において服装が変化したエリア(以下、服装変化エリアとする。)を求める。そして、変化検知部208は、その服装変化エリアを表示部212に提供する。
変化検知部208は、服装の変化が検知された服装変化エリアの生成処理を以下のような手順で行う。先ず、変化検知部208は、物体情報からランダムに複数の人物のサムネイルを選択し、それらを疑似クエリの集合とする。次に、変化検知部208は、それぞれの疑似クエリの特徴量に含まれる第一の特徴量Xq'1を基準とし、その他の物体情報に含まれる第一の特徴量Xi1を照合して、第一の照合スコアSi'1を求める。また変化検知部208は、第一の照合スコアSi'1が所定の第1の閾値以上(閾値Th1以上)の物体情報の集合R'1を求める。また変化検知部208は、疑似クエリの特徴量に含まれる第二の特徴量Xq'2を基準とし、集合R'1の物体情報に含まれる第二の特徴量Xj2を照合して、第二の照合スコアSj'2を求める。次に、変化検知部208は、第二の照合スコアSj'2が所定の第二の閾値未満(閾値Th2未満)の物体情報の集合R'2を求める。さらに変化検知部208は、集合R'2が少なくとも一つ以上ある場合には、疑似クエリで指定された物体の服装が変化したと判定する。そして、変化検知部208は、全ての疑似クエリに対して同様の処理を行うことで、服装が変化したと判定された物体(人物)の集合R'を求める。最後に、変化検知部208は、集合R'の物体情報を用いて服装変化エリアを作成する。例えば、変化検知部208は、集合R'の物体情報からカメラIDを抽出し、各カメラIDの出現頻度を求め、この出現頻度が所定の値以上であれば服装変化エリアと判定し、その服装変化エリアにカメラIDを追加する。すなわち、服装変化エリアは、カメラIDに対応した撮像装置101により撮影されている撮影範囲のエリアとして作成される。なお、所持物の変化エリアについても同様にして作成可能である。
検索部209は、情報管理部206から少なくとも一つ以上の物体情報を取得し、クエリ抽出部207からクエリ特徴量を取得し、それらを基に検索処理を実施する。そして、検索部209は、一部の物体情報の集合を検索結果として求め、その検索結果をフィルタ部210に提供する。
検索部209は、検索処理を以下のような手順で行う。先ず、検索部209は、クエリ特徴量に含まれる第一の特徴量Xq1を基準とし、その他の物体情報に含まれる第一の特徴量Xi1を照合して、第一の照合スコアSi1を求める。更に検索部209は、クエリ特徴量に含まれる第二の特徴量Xq2を基準とし、集合R1の物体情報に含まれる第二の特徴量Xj2を照合して、第二の照合スコアSj2を求める。そして、検索部209は、第一の照合スコアSi1が所定の第一の閾値Th1以上でかつ、第二の照合スコアSj2が所定の第二の閾値Th2以上の物体情報の集合Rshを、検索結果として求める。
フィルタ部210は、検索部209から検索結果を取得し、入力部211からフィルタ条件を取得して、それらを基にフィルタリングを実行する。例えば、フィルタ部210は、フィルタ条件に含まれる服の色情報と、検索結果の物体情報に含まれる服の色情報とが一致する物体情報の集合を、フィルタリングによるフィルタ検索結果として取得する。フィルタ条件は、例えば表示部212にUI表示された各種のフィルタ条件の中から、ユーザが入力部211を介して指定した条件である。そして、フィルタ部210は、そのフィルタ条件に応じた検索結果を、表示部212に提供する。
入力部211は、ユーザからの指示入力を取得することでクエリ画像を指定し、その指定されたクリエ画像をクエリ抽出部207に提供する。また、入力部211は、ユーザからの指示入力を取得することでフィルタ条件を設定し、その設定したフィルタ条件をフィルタ部210に提供する。
表示部212は、例えば、検索部209による検索結果、フィルタ部210で用いるフィルタ条件の設定画面、推奨されるフィルタ条件を求めてメッセージとして表す画面、人物の服装変化を時系列に並べた服装遷移画面、服装変化エリアの画面等を適宜表示する。
図3は表示部212による画面表示の一例であり、検索結果の一覧が表示される検索結果画面301とフィルタ条件の設定に用いられる条件設定画面303とが同一画面上に表示された例を示している。表示部212は、検索結果画面301上に、照合された物体としての人物のサムネイル画像302を、検索結果の一覧のリストとして並べて表示する。条件設定画面303は、ユーザがフィルタ条件を指定する際のUI画面である。表示部212は、条件設定画面303上に、ユーザがフィルタ条件の指定や変更を指示する際に選択(入力部211を介したクリック等によって選択)される各種の条件設定ボタン304を配置する。条件設定ボタン304は、図3に示すように、年齢や性別、上着の色、ズボンやスカートの色などをそれぞれ指定可能なボタンとなされている。また表示部212は、条件設定画面303のUIとして、条件設定ボタン304の選択により設定されたフィルタ条件を適用するための適用ボタン305をも表示する。表示部212は、ユーザが入力部211を介し、条件設定ボタン304を指示してフィルタ条件を設定した上で、さらに適用ボタン305へのクリック等の指示を行った場合、その指示された条件設定ボタン304により設定されたフィルタ条件を適用する。これにより、検索部209では、その適用されたフィルタ条件に基づくフィルタリングが行われることになる。なお、図3には図示していないが、前述の条件設定ボタン304に加えて、鞄等の所持物に関するフィルタ条件を設定するための条件設定ボタンを表示しても良い。
図4は、表示部212による画面表示の一例であり、検索結果画面301と条件設定画面303に加えて、服装変化の検出結果に基づいて推奨されるフィルタ条件をユーザに提示するためのメッセージ画面401が表示された例を示している。この図4の例の場合、表示部212は、変化検知部208から服の色リスト情報を取得し、その色リスト情報を基にフィルタ条件を解析することにより、推奨するフィルタ条件を求める。例えば、表示部212は、色リスト情報を基に、同一人物において変化した服装の一覧を生成し、その変化した服装の一覧を基に、条件設定画面303の中のフィルタ条件の中で、検索の際に用いることを推奨するフィルタ条件を求める。そして、表示部212は、その推奨するフィルタ条件を表すメッセージ画面401を表示することによってユーザに提示する。本実施形態の場合、このような推奨フィルタ条件を表すメッセージ画面401を、条件設定画面303のUIに含めて表示させることで、ユーザに対し、フィルタ条件の変更を促すことができる。なお、図4の検索結果画面301には、同一人物において服装が変化した人物のサムネイル画像302の一覧を表示しても良い。また、図4の例においても同様に、鞄等の所持物について推奨するフィルタ条件のメッセージを表示しても良い。
図5は、表示部212による画面表示の一例であり、検索結果画面301と人物の服装の変化を時系列順に並べた遷移画面501とが同一画面上に表示された例を示している。図5の例の場合、表示部212は、変化検知部208から服の色リスト情報を取得し、その情報を基に、同一人物について服装が変化したサムネイル画像302とその撮影時刻の情報を情報管理部206から取得する。そして、表示部212は、それら同一人物について服装が変化したサムネイル画像302と、各服装の色とを、服装の色が変化した時刻に合わせて時系列順に並べた遷移画面501を表示する。これにより、本実施形態によれば、ユーザに対し、同一人物において服装が変化する時間的な推移を提示することができる。なお、図5の例においても同様に、鞄等の所持物が変化した時間的な推移を提示しても良い。
図6は、表示部212による画面表示の一例であり、服装変化エリア画面601の例を示している。図6の例の場合、表示部212は、変化検知部208から服装変化エリアと情報管理部206から各カメラIDに対応した設置位置(カメラ座標)と撮影範囲の情報を取得し、それらの情報を基に、服装変化エリア画面601を表示する。例えば、表示部212は、地図画像602上に、各カメラIDに対応した設置位置と撮影方向をそれぞれ表現したカメラアイコン603を配置した服装変化エリア画面601を表示する。そして、表示部212は、人物の服装が変化した服装変化エリアが存在する場合、その服装変化エリアを撮影する撮像装置101のカメラIDに対応したカメラアイコン603の撮影範囲を、服装変化があったエリア604として表示する。なお図6の例は服装変化があったエリア604を表示したが、例えば服装変化があったエリアを撮影した撮像装置101のカメラIDに対応したエリア名をリスト形式により表示しても良い。また、図6の例は、服装変化があったエリア604のみを表示しているが、エリア604と共に図3同様の検索結果画面301をも併せて表示してもよい。さらに、図6の例においても同様に、鞄等の所持物が変化したエリアを提示しても良い。
なお物体検出部202では、参考文献1に記載の画像から勾配方向ヒストグラム特徴を抽出し、その特徴量をサポートベクターマシンで学習したモデルを用いて人か否かを識別しているが、他の方法を用いても良い。例えば、抽出する特徴量は勾配方向ヒストグラム特徴に限らず、Haar-like特徴、LBPH(Local Binary Pattern Histogram)特徴等を用いても良いし、それらを組み合せても良い。抽出した特徴量は人物の検出のために共用される。また、人物を識別するモデルはサポートベクターマシンに限らず、アダブースト識別器、ランダム分類木(Randomized Tree)等を用いても良い。人物の検出結果は、それぞれ画像中の人物を囲む矩形を表す四つの頂点の位置座標として出力される。また、位置座標と共に検出結果を表す尤度を出力しても良い。尤度は、抽出した特徴量と人物を識別するモデルとを照合した結果であり、モデルとの一致度を表す。また、対象物体の位置をより高精度に特定するために、以下の参考文献4の人体を追尾する方法を併用しても良い。参考文献4:「B.Benfold, Stable multi-target tracking in real-time surveillance video. Computer Vision and Pattern Recognition (CVPR), 2011.」
この人体追尾の方法を用い、検出処理により検出した人物を、後のフレームで追尾することによって、1枚の画像で検出できない人物の位置を特定し、対象の位置を高精度に特定することが可能となる。また、追尾の方法についても、対象物体の位置を特定する処理であれば良く、前述の追尾方法に限定されるものではない。例えば、追尾処理として、Mean-shift tracking、Kalman Filter、on-line boosting等を用いても良い。
また第一抽出部204及び第二抽出部205における特徴量抽出は、対象物体の特徴を抽出する処理であり、特定の特徴量に限定されるものではなく、対象物体を表す情報を抽出する処理であれば良い。例えば、特徴量の種類として、SIFT特徴や色ヒストグラム等を用いても良いし、それらを組み合わせても良い。また、抽出されるのは顔や全身の特徴、服の色、所持物に限るものではなく、例えば髪の色、年齢、性別、体型、靴、装身具、人物の動作の癖など、人物の外見上における他の特徴が含まれていても良い。フィルタ部210は、検索結果を絞り込む機能を有するものであり、特定の検索条件に限定するものではない。例えば、鞄等の所持物の有無や、年齢、性別、体型、靴、装身具、人物の動作の癖といった人物の属性に基づくフィルタリングが行われても良い。
図7は、本実施形態の情報処理装置おける物体の特徴量を取得する処理の流れを示したフローチャートである。図7のフローチャートの処理は、ハードウェア構成により実現されても良いし、ソフトウェア構成により実現されても良く、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェア構成により処理が実行される場合、例えば図1(c)に示したROM134に記憶されている本実施形態に係るプログラムがRAM136に展開されてCPU135が実行することにより実現される。本実施形態に係るプログラムは、ROM134に予め用意されていてもよく、また着脱可能な半導体メモリ等から読み出されたり、通信部133を介してインターネット等のネットワークからダウンロードされたりしてもよい。なお、以下の説明では、図7のフローチャートの各処理ステップS701〜ステップS706をS701〜S706と略記する。これらは、後述する図8のフローチャートにおいても同様であるとする。
以下、図7のフローチャートに示した物体の特徴量を求める処理の流れを、図2に示した機能ブロックを参照しながら説明する。図7のフローチャートの処理は、画像取得部201、物体検出部202、第一抽出部204、第二抽出部205、情報管理部206により実行される。
先ず、画像取得部201は、S701の処理として例えば撮像装置101から画像を取得し、次のS702の処理として例えば撮像された画像が存在するか否かを判定する。そして、S702において撮像された画像が存在していないと判定された場合には図7のフローチャートの処理を終了し、一方、画像が存在していると判定した場合にはS703に処理が進む。
S703に進むと、物体検出部202は、取得画像の中に存在する例えば複数の物体のそれぞれに対して検出処理を実行する。そして、物体検出部202は、前述したようにカメラIDと、検出された物体を一意に特定する物体IDと、物体の検出矩形と、検出時刻とをまとめて検出情報として切り出し部203に送る。切り出し部203は、前述したように、検出情報の検出矩形に基づき、取得画像から物体の画像領域のみを切り出す処理を実行してサムネイルを作成し、そのサムネイルを検出情報と対応付けて第一抽出部204と第二抽出部205に送る。
第一抽出部204は、S704の処理として、S703の処理で作成されたサムネイルから、前述した第一の特徴量を抽出する処理を実行する。また、第二抽出部205は、S705の処理として、サムネイルから、前述した第二の特徴量を抽出(服の色の抽出も含む)する処理を実行する。
その後、S706の処理として、S703で得られた検出情報、S704で得られた第一の特徴量、S705で得られた第二の特徴量および服の色の各情報がまとめて物体情報としてデータ解析装置103に送られ、情報管理部206により管理・保存される。このS706の後、処理はS701に戻り、例えば次のフレームの画像が取得されて、S701以降の処理が行われる。
その後、S706の処理として、S703で得られた検出情報、S704で得られた第一の特徴量、S705で得られた第二の特徴量および服の色の各情報がまとめて物体情報としてデータ解析装置103に送られ、情報管理部206により管理・保存される。このS706の後、処理はS701に戻り、例えば次のフレームの画像が取得されて、S701以降の処理が行われる。
図8は、本実施形態の情報処理装置における物体の検索処理の流れを示したフローチャートである。以下、図8のフローチャートに示した物体の検索処理の流れを、図2に示した機能ブロックを参照しながら説明する。図8のフローチャートの処理は、入力部211、クエリ抽出部207、検索部209、変化検知部208、表示部212、フィルタ部210により実行される。
先ず、S801において、入力部211はユーザから指示されたクエリ画像を取得し、クエリ抽出部207はクエリ画像から前述したクエリ特徴量を取得して、検索部209と変化検知部208入力する。
次にS802において、検索部209は、前述したように、クエリ特徴量を基に第一の照合スコアSi1と第二の照合スコアSj2とを求め、それら第一,第二の照合スコアSi1,j2を基に物体情報の集合Rshを検索結果として求める。
次にS802において、検索部209は、前述したように、クエリ特徴量を基に第一の照合スコアSi1と第二の照合スコアSj2とを求め、それら第一,第二の照合スコアSi1,j2を基に物体情報の集合Rshを検索結果として求める。
またS803において、変化検知部208は、前述した第一,第二の照合スコアSi1,Sj2を基にクエリ画像により指定された対象物体の服装変化の検知を行う。さらに変化検知部208は、前述したようにクエリ画像で指定された対象物体における服の色リスト情報を作成し、服装変化エリアについても検知する。
次にS804において、表示部212は、前述したように推奨されるフィルタ条件をユーザに提示する。そしてS805において、入力部211は、ユーザによりフィルタ条件が設定されると、そのフィルタ条件をフィルタ部210に送る。これにより、S806において、フィルタ部210は、設定されたフィルタ条件に基づくフィルタリングを行い、表示部212は、そのフィルタ検索結果を表示する。
以上説明したように、本実施形態の情報処理システムにおいては、例えば街中に設置された複数の撮像装置101から取得した画像から物体としての人物の特徴量を解析し、また人物の服装変化から検索の推奨フィルタ条件を掲示する。これにより、本実施形態では、ユーザが想定していない服装の変化を含めて検索結果をフィルタリングすることができ、ユーザは検索結果の絞り込みを効率的に行うことができるようになる。したがって、本実施形態によれば、正しい検索結果を得られるようになる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
101:撮像装置、102:画像解析装置、103:データ解析装置、104:ストレージ装置、105:入力装置、106:表示装置、107:LAN、201:画像取得部、202:物体検出部、203:切り出し部、204:第一抽出部、205:第二抽出部、206:情報管理部、207:クエリ抽出部、208:変化検知部、209:検索部、210:フィルタ部、211:入力部、212:表示部
Claims (16)
- 画像から特定の物体の領域を検出する物体検出手段と、
前記物体の領域から第一の特徴量を抽出する第一の抽出手段と、
前記物体の領域から前記第一の特徴量とは異なる第二の特徴量を抽出する第二の抽出手段と、
第一の特徴量と第二の特徴量とを基に、前記物体の外見の変化を検知する変化検知手段と、
前記外見の変化の検知結果を基に、前記物体の外見に関するフィルタ条件を提示する提示手段と、
を有することを特徴とする情報処理装置。 - 前記提示手段は、前記物体の外見の変化の検知結果を基に、前記物体の外見に関する検索で推奨するフィルタ条件を求めて前記提示することを特徴とする請求項1に記載の情報処理装置。
- 前記提示手段は、前記外見の変化の検知結果を基に前記物体の変化する前記外見の一覧を生成し、前記物体の変化する前記外見の一覧を基に前記推奨するフィルタ条件を求めることを特徴とする請求項2に記載の情報処理装置。
- 画像から特定の物体の領域を検出する物体検出手段と、
前記物体の領域から第一の特徴量を抽出する第一の抽出手段と、
前記物体の領域から前記第一の特徴量とは異なる第二の特徴量を抽出する第二の抽出手段と、
第一の特徴量と第二の特徴量とを基に、前記物体の外見の変化を検知する変化検知手段と、
前記外見の変化の検知結果を基に、前記物体の変化した前記外見の一覧を提示する提示手段と、
を有することを特徴とする情報処理装置。 - 前記提示手段は、前記物体の外見が変化した時系列の順に前記変化した外見の前記一覧を提示することを特徴とする請求項4に記載の情報処理装置。
- 画像から特定の物体の領域を検出する物体検出手段と、
前記物体の領域から第一の特徴量を抽出する第一の抽出手段と、
前記物体の領域から前記第一の特徴量とは異なる第二の特徴量を抽出する第二の抽出手段と、
第一の特徴量と第二の特徴量とを基に、前記物体の外見の変化を検知する変化検知手段と、
前記物体の外見の変化の検知結果を基に、前記物体の外見が変化するエリアを提示する提示手段と、
を有することを特徴とする情報処理装置。 - 前記変化検知手段は、前記エリアごとに外見の変化を検知した回数をカウントし、前記外見の変化をカウントした回数が所定の回数閾値以上であれば、当該エリアを前記外見が変化するエリアであると検知することを特徴とする請求項6に記載の情報処理装置。
- 前記エリアは、前記画像を撮影する撮像装置の撮影範囲であることを特徴とする請求項6または7に記載の情報処理装置。
- 前記変化検知手段は、前記第一の特徴量の類似度が所定の第一の閾値以上であり、前記第二の特徴量の類似度が所定の第二の閾値未満である場合、前記外見が変化したと検知することを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。
- 前記特定の物体の領域は人物を含む矩形の領域であり、
前記第一の特徴量は前記人物の顔の特徴量であり、
前記第二の特徴量は前記人物の全身の特徴量と前記人物の少なくとも服の色を表す特徴量とを含むことを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。 - 前記第二の抽出手段は、前記人物の上半身領域および下半身領域の色ヒストグラムを算出し、前記上半身領域と下半身領域との各色ヒストグラムについて所定の基準色ヒストグラムとの比較を行い、類似度の最も高い基準色ヒストグラムが示す色を、前記服の色を表す特徴量として抽出することを特徴とする請求項10に記載の情報処理装置。
- 前記第二の特徴量は、前記人物の所持物、人物の髪の色、年齢、性別、体型の、少なくともいずれかを表す特徴量を含むことを特徴とする請求項10または11に記載の情報処理装置。
- 情報処理装置が実行する情報処理方法であって、
画像から特定の物体の領域を検出する物体検出工程と、
前記物体の領域から第一の特徴量を抽出する第一の抽出工程と、
前記物体の領域から前記第一の特徴量とは異なる第二の特徴量を抽出する第二の抽出工程と、
第一の特徴量と第二の特徴量とを基に、前記物体の外見の変化を検知する変化検知工程と、
前記物体の外見の変化の検知結果を基に、前記物体の外見に関するフィルタ条件を提示する提示工程と、
を有することを特徴とする情報処理方法。 - 情報処理装置が実行する情報処理方法であって、
画像から特定の物体の領域を検出する物体検出工程と、
前記物体の領域から第一の特徴量を抽出する第一の抽出工程と、
前記物体の領域から前記第一の特徴量とは異なる第二の特徴量を抽出する第二の抽出工程と、
第一の特徴量と第二の特徴量とを基に、前記物体の外見の変化を検知する変化検知工程と、
前記物体の外見の変化の検知結果を基に、前記物体の変化した前記外見の一覧を提示する提示工程と、
を有することを特徴とする情報処理方法。 - 情報処理装置が実行する情報処理方法であって、
画像から特定の物体の領域を検出する物体検出工程と、
前記物体の領域から第一の特徴量を抽出する第一の抽出工程と、
前記物体の領域から前記第一の特徴量とは異なる第二の特徴量を抽出する第二の抽出工程と、
第一の特徴量と第二の特徴量とを基に、前記物体の外見の変化を検知する変化検知工程と、
前記物体の外見の変化の検知結果を基に、前記物体の外見が変化するエリアを提示する提示工程と、
を有することを特徴とする情報処理方法。 - コンピュータを、請求項1から12のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018072216A JP2019185205A (ja) | 2018-04-04 | 2018-04-04 | 情報処理装置、情報処理方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018072216A JP2019185205A (ja) | 2018-04-04 | 2018-04-04 | 情報処理装置、情報処理方法、及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019185205A true JP2019185205A (ja) | 2019-10-24 |
Family
ID=68341214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018072216A Pending JP2019185205A (ja) | 2018-04-04 | 2018-04-04 | 情報処理装置、情報処理方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019185205A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021058456A (ja) * | 2019-10-08 | 2021-04-15 | サミー株式会社 | 遊技機 |
JP2021058457A (ja) * | 2019-10-08 | 2021-04-15 | サミー株式会社 | 遊技機 |
WO2022254787A1 (ja) * | 2021-06-04 | 2022-12-08 | 三菱電機株式会社 | 人物検索装置、人物検索システム、人物検索方法、および、人物検索プログラム |
-
2018
- 2018-04-04 JP JP2018072216A patent/JP2019185205A/ja active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021058456A (ja) * | 2019-10-08 | 2021-04-15 | サミー株式会社 | 遊技機 |
JP2021058457A (ja) * | 2019-10-08 | 2021-04-15 | サミー株式会社 | 遊技機 |
WO2022254787A1 (ja) * | 2021-06-04 | 2022-12-08 | 三菱電機株式会社 | 人物検索装置、人物検索システム、人物検索方法、および、人物検索プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7317919B2 (ja) | 外観検索のシステムおよび方法 | |
JP7282851B2 (ja) | 装置、方法及びプログラム | |
JP6172551B1 (ja) | 画像検索装置、画像検索システム及び画像検索方法 | |
JP6470503B2 (ja) | 画像照合装置、画像検索システム、画像照合方法、画像検索方法およびプログラム | |
JP2022093550A (ja) | 情報処理装置、情報処理方法及びプログラム | |
US11625835B2 (en) | Alias capture to support searching for an object-of-interest | |
JP6254836B2 (ja) | 画像検索装置、画像検索装置の制御方法およびプログラム | |
WO2020017190A1 (ja) | 映像解析装置、人物検索システムおよび人物検索方法 | |
KR20120064581A (ko) | 영상 분류 방법 및 이를 위한 장치 | |
JP2014016968A (ja) | 人物検索装置及びデータ収集装置 | |
JP7238902B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2019185205A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN107231519B (zh) | 视频处理装置及控制方法 | |
JP7435837B2 (ja) | 情報処理システム、情報処理装置、情報処理方法、およびプログラム | |
JP2020095757A (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2020115910A1 (ja) | 情報処理システム、情報処理装置、情報処理方法、およびプログラム | |
JP2023065024A (ja) | 検索処理装置、検索処理方法及びプログラム | |
US20200242155A1 (en) | Search apparatus, search method, and non-transitory storage medium | |
JP2020187531A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7371806B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2024045460A (ja) | 情報処理システム、情報処理装置、情報処理方法、およびプログラム | |
Salánki et al. | Development of a Gait RecoGnition SyStem in ni labvieW pRoGRamminG lanGuaGe |