JP2019016098A - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP2019016098A JP2019016098A JP2017131970A JP2017131970A JP2019016098A JP 2019016098 A JP2019016098 A JP 2019016098A JP 2017131970 A JP2017131970 A JP 2017131970A JP 2017131970 A JP2017131970 A JP 2017131970A JP 2019016098 A JP2019016098 A JP 2019016098A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- person
- processing apparatus
- feature
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
【課題】撮像の環境や状況の変化にかかわらず、オブジェクトの追跡における精度の低下を抑制して適切にオブジェクトを追跡する。【解決手段】情報処理装置は、撮像装置により撮像された画像からオブジェクトを検出する検出手段と、前記検出手段により検出された前記オブジェクトから複数の特徴量を抽出する抽出手段と、前記抽出手段により抽出された前記オブジェクトの前記複数の特徴量と、検索対象のオブジェクトの複数の特徴量とをそれぞれ照合する照合手段と、前記照合手段による複数のオブジェクトについての照合結果に基づいて、前記照合手段が特徴量を照合するのに用いられるべき、前記複数の特徴量の間の重み付けを導出する導出手段と、を備える。【選択図】図3
Description
本発明は、情報処理装置、情報処理方法およびプログラムに関する。
従来、街角や空港などの広域に設置された複数のカメラで撮像された映像を、ネットワーク経由で受信して映像中の人物を追跡する各種システムが提案されている。これらのシステムにおいて、複数のカメラに亘って映像中の人物を追跡するため、あるカメラで撮像された画像中の人物を他のカメラで撮像された画像中でも同定する技術がある。
それぞれのカメラの画像から取得された人物の特徴量を抽出し、抽出された特徴量同士を照合して、類似度が高い人物を同一人物と見做すことにより、画像中の人物を同定することができる。
それぞれのカメラの画像から取得された人物の特徴量を抽出し、抽出された特徴量同士を照合して、類似度が高い人物を同一人物と見做すことにより、画像中の人物を同定することができる。
特許文献1は、追跡対象人物の第一の特徴データと、複数の監視カメラのいずれかで撮像された画像中の人物の第二の特徴データとを照合し、この照合結果に基づいて画像中の人物が追跡対象人物である確度を計算する人物追跡システムを開示する。具体的には、この人物追跡システムは、追跡対象人物の複数の特徴(肌の色、服装の色、体型等)から、重視すべき特徴を、表示画面を介してユーザに選択指定させて、人物の照合処理を起動する。特許文献1記載の技術によれば、この照合処理の結果、確度の閾値を超えた人物を画面上に強調表示し、表示された人物が追跡対象人物であるか否かをユーザに判断させることにより、追跡対象人物の位置情報を記憶装置に記憶して人物の同定処理を実行する。
特許文献2は、検索対象画像と、録画された画像との間で、画像に撮像された人物の同一性を判断する監視システムを開示する。具体的には、この監視システムは、録画された複数の画像から求められる人物の特徴として、撮影時刻情報、撮影位置情報、顔特徴量、および着衣情報(着衣特徴量)をそれぞれ算出して記憶する。人物の同一性判断において、これら撮影時刻情報、撮影位置情報、および着衣情報のうち、いずれに対応する重み値を用いるかを、ユーザに選択入力させる。特許文献2記載の技術によれば、ユーザが入力した複数の特徴の組み合わせ(時刻+着衣、時刻+位置等)に対応して予め設定された重み設定値が、検索対象画像と録画された画像との間での顔特徴量の差分に与えられることにより、人物の同一性が判断される。
このような人物の同定処理においては、顔の特徴量の他、服装、歩容、体型などの特徴を数値化した特徴量を使用することができる。
しかしながら、このような人物の複数の特徴量は、常に一定の値が期待できるとは限らない。すなわち、空港、駅、展示会などの環境や、早朝、昼間、夜間などの状況等の変化によって、人物の同定処理に用いられるべき人物の特徴量に偏りが生じる場合がある。その具体例を以下に説明する。
例えば、人物の服装の特徴量を用いる場合、早朝の駅ではスーツ姿の人物が多いが、昼間の駅になるとスーツ姿の人物は少なくなるといった服装の偏りが、状況(時間帯)の変化により生じる。
しかしながら、このような人物の複数の特徴量は、常に一定の値が期待できるとは限らない。すなわち、空港、駅、展示会などの環境や、早朝、昼間、夜間などの状況等の変化によって、人物の同定処理に用いられるべき人物の特徴量に偏りが生じる場合がある。その具体例を以下に説明する。
例えば、人物の服装の特徴量を用いる場合、早朝の駅ではスーツ姿の人物が多いが、昼間の駅になるとスーツ姿の人物は少なくなるといった服装の偏りが、状況(時間帯)の変化により生じる。
また、人物の歩容の特徴量を用いる場合、駅の周辺ならば人物の歩容が早くなる傾向があるが、繁華街になると人物の歩容が遅くなる傾向があり、環境(撮像領域)の変化により歩容の傾向も変化する。
このように、環境や状況の変化により人物の特徴量に偏りが生じると、これらの特徴量を重み付けに用いて実行される人物等のオブジェクトの同定処理の精度を低下させてしまうおそれがある。
本発明は上記課題に鑑みてなされたものであり、その目的は、撮像の環境や状況の変化にかかわらず、オブジェクトの追跡における精度の低下を抑制して適切にオブジェクトを追跡することの可能な情報処理装置、情報処理方法を提供することにある。
このように、環境や状況の変化により人物の特徴量に偏りが生じると、これらの特徴量を重み付けに用いて実行される人物等のオブジェクトの同定処理の精度を低下させてしまうおそれがある。
本発明は上記課題に鑑みてなされたものであり、その目的は、撮像の環境や状況の変化にかかわらず、オブジェクトの追跡における精度の低下を抑制して適切にオブジェクトを追跡することの可能な情報処理装置、情報処理方法を提供することにある。
上記課題を解決するため、本発明に係る情報処理装置のある態様によれば、撮像装置により撮像された画像からオブジェクトを検出する検出手段と、前記検出手段により検出された前記オブジェクトから複数の特徴量を抽出する抽出手段と、前記抽出手段により抽出された前記オブジェクトの前記複数の特徴量と、検索対象のオブジェクトの複数の特徴量とをそれぞれ照合する照合手段と、前記照合手段による複数のオブジェクトについての照合結果に基づいて、前記照合手段が特徴量を照合するのに用いられるべき、前記複数の特徴量の間の重み付けを導出する導出手段と、を備える情報処理装置が提供される。
本発明によれば、撮像の環境や状況の変化にかかわらず、オブジェクトの追跡における精度の低下を抑制して適切にオブジェクトを追跡することができる。
以下、添付図面を参照して、本発明を実施するための実施形態について詳細に説明する。なお、以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
(実施形態1)
本実施形態においては、監視カメラ等の撮像装置により撮像された画像から人物を検出し、検出された人物の複数の特徴量を記憶し、それぞれの特徴量について、当該特徴量に対応する重み付け値に基づき特徴量を算出することにより、人物を同定する。
具体的には、本実施形態では、画像から検出された人物について記憶された複数の特徴量と、検索対象人物の複数の特徴量とをそれぞれ照合する。さらに、複数の人物についての照合結果に基づいて、特徴量を照合するのに用いられるべき、複数の特徴量の間の重み付けを導出する。この重み付けは、複数の特徴量の間で最適化された重み付けであり、本実施形態において人物を同定する際に使用される初期値として設定する。これにより、撮像の環境や状況の変化にかかわらず、オブジェクトの追跡における精度の低下を抑制して適切にオブジェクトを追跡することができる。
本実施形態においては、監視カメラ等の撮像装置により撮像された画像から人物を検出し、検出された人物の複数の特徴量を記憶し、それぞれの特徴量について、当該特徴量に対応する重み付け値に基づき特徴量を算出することにより、人物を同定する。
具体的には、本実施形態では、画像から検出された人物について記憶された複数の特徴量と、検索対象人物の複数の特徴量とをそれぞれ照合する。さらに、複数の人物についての照合結果に基づいて、特徴量を照合するのに用いられるべき、複数の特徴量の間の重み付けを導出する。この重み付けは、複数の特徴量の間で最適化された重み付けであり、本実施形態において人物を同定する際に使用される初期値として設定する。これにより、撮像の環境や状況の変化にかかわらず、オブジェクトの追跡における精度の低下を抑制して適切にオブジェクトを追跡することができる。
本実施形態において、「人物を同定する」とは、ある監視カメラによって撮像された人物と、他の監視カメラによって撮像された人物とを対応付けて同一人物と見做すことを含む。また、「人物を同定する」とは、ある監視カメラによって所定の時点に撮像された人物と、当該監視カメラによって所定の時点より後に撮像された人物とを対応付けて同一人物と見做すことも含む。
また、本実施形態において、「追尾」とは、1つの監視カメラにおいて、あるフレームの画像において検出した人物と、別のフレームの画像において検出した人物とを、画像の特徴と画像間での位置関係とから対応付ける処理をいう。また、「追跡」とは、追尾の他、ある監視カメラの画像において検出した人物と、他の監視カメラの画像において検出した人物とを、画像の特徴と画像間での位置関係とから対応付ける処理を含むものとする。
なお、以下、本実施形態では、撮像された画像から人物を検出し、検出された人物を追尾する場合を例として説明するが、本実施形態はこの場合に限定されず、他のオブジェクト、例えば、自動車等の車両、動物等の移動体等に適用することが可能である。
なお、以下、本実施形態では、撮像された画像から人物を検出し、検出された人物を追尾する場合を例として説明するが、本実施形態はこの場合に限定されず、他のオブジェクト、例えば、自動車等の車両、動物等の移動体等に適用することが可能である。
<本実施形態のシステム構成>
図1は、本実施形態に係るオブジェクト追尾システムのシステム構成の一例を示す図である。
図1において、オブジェクト追尾システム1は、情報処理装置2と、監視カメラ3、監視カメラ4、および監視カメラ5とを備える。情報処理装置2と、監視カメラ3〜5のそれぞれとは、ネットワーク6を介して接続され、相互に情報の授受を行う。
監視カメラ3〜5は、それぞれ、例えば街角や空港などで壁面や天井等に設置される撮像装置であり、撮像画像を取得して、ネットワーク6を介して情報処理装置2へ撮像画像を送信する。
情報処理装置2は、各監視カメラ3〜5で撮像された撮像画像に基づいて、複数の監視カメラ間あるいは1台の監視カメラ内に出現した人物を同定する装置として機能する。
なお、図1には監視カメラ3〜5が図示されているが、本実施形態における監視カメラの数は任意であり、3台に限定されるものではない。また、情報処理装置2の機能の一部または全部が、監視カメラ3〜5のいずれかに実装されてもよい。
図1は、本実施形態に係るオブジェクト追尾システムのシステム構成の一例を示す図である。
図1において、オブジェクト追尾システム1は、情報処理装置2と、監視カメラ3、監視カメラ4、および監視カメラ5とを備える。情報処理装置2と、監視カメラ3〜5のそれぞれとは、ネットワーク6を介して接続され、相互に情報の授受を行う。
監視カメラ3〜5は、それぞれ、例えば街角や空港などで壁面や天井等に設置される撮像装置であり、撮像画像を取得して、ネットワーク6を介して情報処理装置2へ撮像画像を送信する。
情報処理装置2は、各監視カメラ3〜5で撮像された撮像画像に基づいて、複数の監視カメラ間あるいは1台の監視カメラ内に出現した人物を同定する装置として機能する。
なお、図1には監視カメラ3〜5が図示されているが、本実施形態における監視カメラの数は任意であり、3台に限定されるものではない。また、情報処理装置2の機能の一部または全部が、監視カメラ3〜5のいずれかに実装されてもよい。
図2は、情報処理装置2のハードウエア構成の一例を示すブロック図である。
図2において、情報処理装置2は、CPU21、ROM22、RAM23、HDD24、入力装置25、表示装置26、ネットワークI/F27、およびバス28を備える。
CPU21は、情報処理装置2の各部における演算や論理判断等の処理を行う演算処理部であり、バス28を介して情報処理装置2の各構成部を制御する。情報処理装置2の機能や処理は、CPU21が、ROM22やRAM23に格納されているプログラムを読み出し、このプログラムを実行することにより実現されてよい。これにより、後述する図3に示されるソフトウエア構成および図8に示されるフローチャートの処理等が実現される。
図2において、情報処理装置2は、CPU21、ROM22、RAM23、HDD24、入力装置25、表示装置26、ネットワークI/F27、およびバス28を備える。
CPU21は、情報処理装置2の各部における演算や論理判断等の処理を行う演算処理部であり、バス28を介して情報処理装置2の各構成部を制御する。情報処理装置2の機能や処理は、CPU21が、ROM22やRAM23に格納されているプログラムを読み出し、このプログラムを実行することにより実現されてよい。これにより、後述する図3に示されるソフトウエア構成および図8に示されるフローチャートの処理等が実現される。
ROM22は、例えばEEPROM(Electrically Erasable Programmable Read Only Memory)等の電気的に消去可能な不揮発性メモリで構成され、プログラムを実行するのに必要なデータを格納する。
RAM23は、CPU21の主メモリとして機能する揮発性メモリであり、一時的なデータを記憶する。
HDD24は、ハードディスクドライブ(HDD)等の書き換え可能な二次記憶装置である。このHDD24には、監視カメラ3〜5により撮像された画像情報、各種設定情報等が記憶される。これらの情報は、RAM23に転送され、CPU21がプログラムを実行する際に利用される。
入力装置25は、マウス入力、キーボード入力、タッチ入力等の各種ユーザインタフェースを介して、ユーザからの入力を司るデバイスである。
表示装置26は、例えばディスプレイであり、ユーザに対してオブジェクト追跡処理の実行結果等を表示出力する。
RAM23は、CPU21の主メモリとして機能する揮発性メモリであり、一時的なデータを記憶する。
HDD24は、ハードディスクドライブ(HDD)等の書き換え可能な二次記憶装置である。このHDD24には、監視カメラ3〜5により撮像された画像情報、各種設定情報等が記憶される。これらの情報は、RAM23に転送され、CPU21がプログラムを実行する際に利用される。
入力装置25は、マウス入力、キーボード入力、タッチ入力等の各種ユーザインタフェースを介して、ユーザからの入力を司るデバイスである。
表示装置26は、例えばディスプレイであり、ユーザに対してオブジェクト追跡処理の実行結果等を表示出力する。
ネットワークI/F27は、情報処理装置2と、監視カメラ3〜5を含む外部機器との間の無線または有線の通信インタフェースを提供する。この無線通信は、Bluetooth(登録商標)、ZigBee(登録商標)、UWB(Ultra Wide Band)等の無線PAN(Personal Area Network)を含む。また、Wi−Fi(Wireless Fidelity)(登録商標)等の無線LAN(Local Area Network)や、WiMAX(登録商標)等の無線MAN(Metropolitan Area Network)を含む。さらに、LTE/3G等の無線WAN(Wide Area Network)を含む。
また、ネットワークI/F27は、有線のLANで監視カメラ3〜5等の外部機器と通信してもよい。この有線LANとしては、例えば、Ethernet(登録商標)等の通信規格に準拠する複数のルータ、スイッチ、ケーブル等の構成が挙げられる。なお、ネットワークI/F27は、外部機器と通信可能であればよく、通信の規格、規模、構成は上記に限定されない。
バス28は、CPU21、ROM22、RAM23、HDD24、入力装置25、表示装置26、およびネットワークI/F27を相互に接続して各種情報の入出力を行う。
バス28は、CPU21、ROM22、RAM23、HDD24、入力装置25、表示装置26、およびネットワークI/F27を相互に接続して各種情報の入出力を行う。
一方、監視カメラ3〜5は、それぞれ、撮像部、ネットワークI/F、CPU、および記憶部を備える。
撮像部は、撮像光学系を構成するレンズ群及び撮像素子を備える。レンズ群は、入射光を結像するための光学レンズを有し、入射光を撮像素子に集光させる。撮像素子は、光をアナログ画像信号に変換する素子であり、例えば、CCD、CMOS(Complementary Metal Oxide Semiconductor)等で構成することができる。撮像部101は、撮像素子から得られるアナログ画像信号に画像処理を施し、信号を符号化して符号化画像信号を出力する。
撮像部は、撮像光学系を構成するレンズ群及び撮像素子を備える。レンズ群は、入射光を結像するための光学レンズを有し、入射光を撮像素子に集光させる。撮像素子は、光をアナログ画像信号に変換する素子であり、例えば、CCD、CMOS(Complementary Metal Oxide Semiconductor)等で構成することができる。撮像部101は、撮像素子から得られるアナログ画像信号に画像処理を施し、信号を符号化して符号化画像信号を出力する。
ネットワークI/Fは、図2に示す情報処理装置2のネットワークI/F27と同様の構成を備え、監視カメラ3〜5のそれぞれと、情報処理装置2を含む外部機器との間の無線または有線の通信インタフェースを提供する。
CPUは、図2に示す情報処理装置2のCPU21と同様の構成を備え、監視カメラ3〜5の各部における演算や論理判断等の処理を行う演算処理部である。
記憶部は、図2に示すROM21、RAM23、およびHDD24の一部または全部と同様の構成を備え、CPUが使用する各種情報、および撮像部により撮像された撮像画像を記憶する。
CPUは、図2に示す情報処理装置2のCPU21と同様の構成を備え、監視カメラ3〜5の各部における演算や論理判断等の処理を行う演算処理部である。
記憶部は、図2に示すROM21、RAM23、およびHDD24の一部または全部と同様の構成を備え、CPUが使用する各種情報、および撮像部により撮像された撮像画像を記憶する。
<本実施形態の機能モジュール構成>
図3は、本実施形態に係る情報処理装置2の機能モジュール構成の一例を示すブロック図である。
図3において、情報処理装置2は、画像取得部301、人物検出追尾部302、識別器303、特徴量抽出部304、顔特徴量判定部305、服装特徴量判定部306、歩容特徴量判定部307、および体型特徴量判定部308を備える。情報処理装置2はさらに、特徴量更新部309、特徴量管理部310、信頼度算出部311、人物同定部312、および出力部313を備える。
図3は、本実施形態に係る情報処理装置2の機能モジュール構成の一例を示すブロック図である。
図3において、情報処理装置2は、画像取得部301、人物検出追尾部302、識別器303、特徴量抽出部304、顔特徴量判定部305、服装特徴量判定部306、歩容特徴量判定部307、および体型特徴量判定部308を備える。情報処理装置2はさらに、特徴量更新部309、特徴量管理部310、信頼度算出部311、人物同定部312、および出力部313を備える。
図3に示す各機能モジュールは、ソフトウエアまたはハードウエアによって実現される。ソフトウエアによって実現される場合、後述する各機能モジュールの機能を提供するためのプログラムがROM等のメモリに記憶され、RAMに読み出してCPU21が実行することにより、それら機能モジュールの機能が実現される。一方、ハードウエアにより実現される場合、例えば、所定のコンパイラを用いることで、各機能モジュールの機能を実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。FPGAとは、Field Programmable Gate Arrayの略である。また、FPGAと同様にしてGate Array回路を形成し、ハードウエアとして実現するようにしてもよい。また、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。なお、図3に示した機能ブロックの構成は一例であり、複数の機能ブロックが1つの機能ブロックを構成するようにしてもよいし、いずれかの機能ブロックが複数の機能を行うブロックに分かれてもよい。
画像取得部301は、ネットワークI/F27を介して、監視カメラ3〜5から撮像画像を取得し、取得した撮像画像を人物検出追尾部302に供給する。
人物検出追尾部302は、画像取得部301により取得された撮像画像から、人物を検出する。具体的には、人物検出追尾部302は、識別器303を使用して、撮像画像中の人物の位置座標およびサイズ情報を求めることにより、人物を検出する。
識別器303は、例えばSupport Vector Machine(SVM)などの機械学習を使用して人物の画像特徴を学習した識別器である。
なお、人物検出追尾部302および識別器303による人物の検出処理はSVMを用いるものに限定されるものではなく、例えば、パターンマッチングなどにより撮像画像から人物を検出してもよい。
人物検出追尾部302は、画像取得部301により取得された撮像画像から、人物を検出する。具体的には、人物検出追尾部302は、識別器303を使用して、撮像画像中の人物の位置座標およびサイズ情報を求めることにより、人物を検出する。
識別器303は、例えばSupport Vector Machine(SVM)などの機械学習を使用して人物の画像特徴を学習した識別器である。
なお、人物検出追尾部302および識別器303による人物の検出処理はSVMを用いるものに限定されるものではなく、例えば、パターンマッチングなどにより撮像画像から人物を検出してもよい。
人物検出追尾部302は、さらに、識別器303を使用して検出された人物の情報に基づいて、検出された人物を追尾する。
ここで、人物の検出に失敗して、現在の画像に別フレームの画像において検出した人物を対応付けられない場合、人物検出追尾部302は、カルマンフィルタ(Kalman Filter)等の移動予測を用いて、対応付けの結果を補完することができる。なお、所定期間以上や、対応付け可能な人物がいない場合、人物検出追尾部302は、追尾処理を終了する。
追尾処理において、人物検出追尾部302は、複数フレームの間で対応付けた人物に、それぞれ一意の識別子(ID)を付与する。そして、人物検出追尾部302は、人物検出および追尾処理の結果得られた対象人物のID、位置座標、サイズ情報、画像取得時刻、監視カメラを示す情報を含む情報を、人物情報として、特徴量抽出部304に供給する。対応付けられた人物の人物情報は、図7で示す人物情報テーブル(後述する)として、HDD24に保存される。
ここで、人物の検出に失敗して、現在の画像に別フレームの画像において検出した人物を対応付けられない場合、人物検出追尾部302は、カルマンフィルタ(Kalman Filter)等の移動予測を用いて、対応付けの結果を補完することができる。なお、所定期間以上や、対応付け可能な人物がいない場合、人物検出追尾部302は、追尾処理を終了する。
追尾処理において、人物検出追尾部302は、複数フレームの間で対応付けた人物に、それぞれ一意の識別子(ID)を付与する。そして、人物検出追尾部302は、人物検出および追尾処理の結果得られた対象人物のID、位置座標、サイズ情報、画像取得時刻、監視カメラを示す情報を含む情報を、人物情報として、特徴量抽出部304に供給する。対応付けられた人物の人物情報は、図7で示す人物情報テーブル(後述する)として、HDD24に保存される。
特徴量抽出部304は、人物検出追尾部302から供給される人物情報に含まれる人物の位置座標に基づいて、画像における人物領域から特徴量を抽出する。ここで抽出される人物の特徴量は、撮像画像中から人物として検出された人物領域内から抽出された色、輝度、エッジ等を含む。特徴量抽出部304は、これら色、輝度、及びエッジのうちの少なくともいずれかを特徴量としてもよいし、これらを任意に組み合わせたものを特徴量としてもよい。また、特徴量抽出部304によって抽出される特徴量は、色、輝度、エッジ等をヒストグラムとして表したものであってよい。
本実施形態において、特徴量抽出部304は、人物領域全体の特徴量の他、1の人物についての複数の特徴量として、人物検出追尾部302によって検出された人物の複数の部位ないし要素の特徴量を抽出してもよい。ここで、特徴量が抽出されるべき人物の部位は、顔、服装、歩容、体型等を含む。それぞれの部位の特徴量を抽出するには、特徴量抽出部304は、後述する顔特徴量判定部305、服装特徴量判定部306、歩容特徴量判定部307、および体型特徴量判定部308と協働してもよい。
特徴量を抽出するには、形状特徴であるLocal Binary Pattern(LBP)特徴量やHistgram of Oriented Gradients(HOG)特徴量を用いることができる。あるいは、ガボール(Gabor)フィルタやシュミット(Schmid)フィルタを用いて抽出したテクスチャ特徴を用いることもできる。特徴量抽出部304は、識別器として、サポートベクタマシーン(SVM)等の手法を用いた識別器303を使用して特徴量を抽出することができる。
特徴量抽出部304は、抽出された人物の特徴量と使用した識別器303の出力情報とを、人物検出追尾部302で得られている人物のIDに関連付ける。さらに、特徴量抽出部304は、これら関連付けられた人物のID、人物の特徴量、および使用された識別器303の情報とを、顔特徴量判定部305、服装特徴量判定部306、歩容特徴量判定部307、および体型特徴量判定部308へそれぞれ供給する。
顔特徴量判定部305は、人物検出追尾部302における識別器303を使用して、人物検出追尾部302により検出された人物の顔の検出結果と、特徴量抽出部304を介して抽出された人物の顔の特徴量とを対応付け、人物の顔を判定する。
服装特徴量判定部306は、人物検出追尾部302における識別器303を使用して、人物検出追尾部302により検出された人物の服装の検出結果と、特徴量抽出部304を介して抽出された人物の服装の特徴量とを対応付け、人物の服装を判定する。
服装特徴量判定部306は、人物検出追尾部302における識別器303を使用して、人物検出追尾部302により検出された人物の服装の検出結果と、特徴量抽出部304を介して抽出された人物の服装の特徴量とを対応付け、人物の服装を判定する。
歩容特徴量判定部307は、人物検出追尾部302における識別器303を使用して、人物検出追尾部302により検出された人物の歩容の検出結果と、特徴量抽出部304を介して抽出した人物の歩容の特徴量とを対応付け、人物の歩容を判定する。
ここで、歩容とは、人物の姿勢および四肢の歩行や走行における運動形態をいう。
体型特徴量判定部308は、人物検出追尾部302における識別器303を使用して、人物検出追尾部302により検出された人物の体型の検出結果と、特徴量抽出部304を介して抽出した人物の体型の特徴量とを対応付け、人物の体型を判定する。
ここで、歩容とは、人物の姿勢および四肢の歩行や走行における運動形態をいう。
体型特徴量判定部308は、人物検出追尾部302における識別器303を使用して、人物検出追尾部302により検出された人物の体型の検出結果と、特徴量抽出部304を介して抽出した人物の体型の特徴量とを対応付け、人物の体型を判定する。
これら人物の特徴量、人物の顔の特徴量、人物の服装の特徴量、人物の歩容の特徴量、および人物の体型の特徴量は、それぞれ特徴量更新部309へ供給される。
特徴量更新部309は、特徴量抽出部304により抽出された人物の特徴量を更新する。具体的には、特徴量抽出部304からの特徴量、顔特徴量判定部305からの顔特徴量、服装特徴量判定部306からの服装特徴量、歩容特徴量判定部307からの歩容特徴量、および体型特徴量判定部308からの体型特徴量により、人物の特徴量を更新する。
特徴量更新部309は、特徴量抽出部304により抽出された人物の特徴量を更新する。具体的には、特徴量抽出部304からの特徴量、顔特徴量判定部305からの顔特徴量、服装特徴量判定部306からの服装特徴量、歩容特徴量判定部307からの歩容特徴量、および体型特徴量判定部308からの体型特徴量により、人物の特徴量を更新する。
特徴量更新部308は、人物の特徴量が過去に得られていない場合、現在得られている特徴量を人物のIDと関連付けて、特徴量管理部310に供給する。一方、特徴量更新部308は、人物の特徴量が過去に得られている場合、同一IDの人物について過去に得られた人物の特徴量を現在得られている特徴量で更新する。
特徴量管理部310は、特徴量更新部309による更新処理によって更新された人物の特徴量を、顔特徴量、服装特徴量、歩容特徴量、体型特徴量等の特徴量ごとに、HDD24等の記憶装置に記憶して管理する。
特徴量管理部310は、特徴量更新部309による更新処理によって更新された人物の特徴量を、顔特徴量、服装特徴量、歩容特徴量、体型特徴量等の特徴量ごとに、HDD24等の記憶装置に記憶して管理する。
信頼度算出部310は、特徴量管理部309により管理されている特徴量のそれぞれに対して、信頼度を計算する。本実施形態において、「信頼度」とは、特徴量更新部308により更新された特徴量により人物を同定する処理において、当該人物の同定に成功する確率を示す数値である。言い換えると、人物の同定に成功する確度を表した数値であり、値が大きいほど同定する成功確率が高いことを示す。
例えば、服装特徴量については、色のカラーマッチングで人物の服装の判定をしており、抽出された色の輝度精度が高いほど信頼度は高く算出される。
例えば、服装特徴量については、色のカラーマッチングで人物の服装の判定をしており、抽出された色の輝度精度が高いほど信頼度は高く算出される。
人物同定部312は、人物検出追尾部302により検出された人物の特徴量を、追尾(検索)対象の人物の特徴量と照合することにより、人物を同定する。
本実施形態において、人物同定部312は、人物の複数の特徴量、すなわち顔特徴量、服装特徴量、歩容特徴量、および体型特徴量を、検索対象の人物の複数の特徴量とをそれぞれ照合することにより、照合結果を出力部を介して表示装置26に出力させる。人物同定部312は、表示装置26に出力された照合結果から、ユーザにより選択入力された1または複数の人物を追尾(検索)対象人物として同定する。具体的には、人物同定部312は、人物の特徴量を特徴量管理部310から読み出し、検出された人物と検索対象の人物との人物間距離を算出することにより両者の類似性を算出し、算出された類似性に基づいて人物を同定する。
本実施形態において、人物同定部312は、人物の複数の特徴量、すなわち顔特徴量、服装特徴量、歩容特徴量、および体型特徴量を、検索対象の人物の複数の特徴量とをそれぞれ照合することにより、照合結果を出力部を介して表示装置26に出力させる。人物同定部312は、表示装置26に出力された照合結果から、ユーザにより選択入力された1または複数の人物を追尾(検索)対象人物として同定する。具体的には、人物同定部312は、人物の特徴量を特徴量管理部310から読み出し、検出された人物と検索対象の人物との人物間距離を算出することにより両者の類似性を算出し、算出された類似性に基づいて人物を同定する。
この人物間距離を算出するには、ユークリッド(Euclidean)距離や、マハラノビス(Mahalanobis)距離を予め学習しておく等の方法を使用することができる。あるいは、人物同定部312は、人物間距離以外にも人物間の類似性を示す種々の値を用いて人物を同定してもよい。
人物同定部312は、特徴量の値が近いほど人物間距離が近くなるように、人物間距離の値を求める。人物同定部312は、算出された人物間距離を所定の閾値と比較し、閾値以内の人物間距離であれば、同一人物と判断する。そして、人物同定部312は、算出された人物間距離および人物の同定情報を出力部313に供給する。
出力部313は、人物が同定された結果を表示装置26に表示させるよう表示制御することでユーザへ提示する。
人物同定部312は、特徴量の値が近いほど人物間距離が近くなるように、人物間距離の値を求める。人物同定部312は、算出された人物間距離を所定の閾値と比較し、閾値以内の人物間距離であれば、同一人物と判断する。そして、人物同定部312は、算出された人物間距離および人物の同定情報を出力部313に供給する。
出力部313は、人物が同定された結果を表示装置26に表示させるよう表示制御することでユーザへ提示する。
<人物検索処理および重み付け算出処理>
ここで、図4ないし図6を参照して、本実施形態における追尾対象の人物検索のGUIを介した人物検索処理およびこれに使用される複数の特徴量の重み付けの算出処理の詳細を説明する。
図4は、情報処理装置2の表示装置26に表示出力される人物検索のGUIの一例を示す図である。
図4において、人物検索画面401は、複数の監視カメラ3〜5からのライブ映像を表示するとともに、追尾すべき人物の検索のため、特徴量の重み付けを設定する画面の一例を示す。
ここで、図4ないし図6を参照して、本実施形態における追尾対象の人物検索のGUIを介した人物検索処理およびこれに使用される複数の特徴量の重み付けの算出処理の詳細を説明する。
図4は、情報処理装置2の表示装置26に表示出力される人物検索のGUIの一例を示す図である。
図4において、人物検索画面401は、複数の監視カメラ3〜5からのライブ映像を表示するとともに、追尾すべき人物の検索のため、特徴量の重み付けを設定する画面の一例を示す。
具体的には、図4の人物検索画面401中の監視カメラ映像402、403、および404は、情報処理装置2に接続される監視カメラ3〜5からのライブ映像をそれぞれ表示している。監視カメラ3〜5は、それぞれ情報処理装置2に接続されるとともに、その動きを画面上で確認可能である。
なお、図4において、監視カメラ映像404が監視カメラ映像402および403に対して大きく表示されているが、これはユーザが注視すべき映像を見やすくするためであり、各カメラの映像の出力先や表示サイズはユーザが自由に切り替え可能である。
なお、図4において、監視カメラ映像404が監視カメラ映像402および403に対して大きく表示されているが、これはユーザが注視すべき映像を見やすくするためであり、各カメラの映像の出力先や表示サイズはユーザが自由に切り替え可能である。
図4右上の重みづけ設定ウィンドウ405は、人物に現在設定されている各特徴量の重み付けを表している。具体的には、顔特徴量重み付け値406は、顔の特徴量の重み付け値を示し、現在は0.2に設定されている。服装特徴量重み付け値407は、服装の特徴量の重み付け値を示し、現在は0.2に設定されている。
歩容特徴量重み付け値408は、歩容の特徴量の重み付け値を示し、現在は0.3に設定されている。体型特徴量重み付け値409は、体型の特徴量の重み付け値を示し、現在は0.3に設定されている。
歩容特徴量重み付け値408は、歩容の特徴量の重み付け値を示し、現在は0.3に設定されている。体型特徴量重み付け値409は、体型の特徴量の重み付け値を示し、現在は0.3に設定されている。
なお、これら複数の特徴量の重み付け値は、全てを足すと1になっているように設定されている。このため、例えば、顔特徴量重み付け値406は、情報処理装置2が、同定処理のために20%の重み付けで顔特徴量を使用することを示す。
すなわち、重み付け設定ウィンドウ405に表示されている各重み付け値は以下の式から求めることができ、各特徴量の重み付け値の和が一定の値となるよう求められる。
重み付け値=顔特徴量の重み付け値+服装特徴量の重み付け値+歩容特徴量の重み付け値+体型特徴量の重み付け値=1 (式1)
すなわち、重み付け設定ウィンドウ405に表示されている各重み付け値は以下の式から求めることができ、各特徴量の重み付け値の和が一定の値となるよう求められる。
重み付け値=顔特徴量の重み付け値+服装特徴量の重み付け値+歩容特徴量の重み付け値+体型特徴量の重み付け値=1 (式1)
図4右下の検索対象画像410は、ユーザが設定した検索対象の人物の画像を示す。この検索対象画像410には、人物同定のための検索対象となる人物の画像が表示される。
参照ボタン411は、検索の対象となる入力画像をユーザに指定させる。情報処理装置2は、検索対象画像410のデータについて、顔、服装、歩容、体型の特徴量を特徴量抽出部304を介してそれぞれ抽出する。歩容の特徴量を抽出する場合は、静止画では特徴量を計算できないため、歩容特徴量抽出のための動画を参照ボタン411経由でユーザに指定させればよい。
検索ボタン412は、検索対象画像410のデータに基づいて、人物検索処理を実行させる。この人物検索処理の詳細は後述する。
参照ボタン411は、検索の対象となる入力画像をユーザに指定させる。情報処理装置2は、検索対象画像410のデータについて、顔、服装、歩容、体型の特徴量を特徴量抽出部304を介してそれぞれ抽出する。歩容の特徴量を抽出する場合は、静止画では特徴量を計算できないため、歩容特徴量抽出のための動画を参照ボタン411経由でユーザに指定させればよい。
検索ボタン412は、検索対象画像410のデータに基づいて、人物検索処理を実行させる。この人物検索処理の詳細は後述する。
図5は、図4の人物検索画面401において検索が指示された人物の検索結果画面の一例を示す。この検索結果画面501は、情報処理装置2による人物の検索結果、すなわち、検索対象人物の複数の特徴量と、特徴量管理部310から供給される複数の特徴量との照合結果を示す。検索ボタン412を押下することで図4の人物検索画面から図5の検索結果画面501へ画面遷移する。
図5右上の検索対象画像502は、検索対象人物の画像と当該検索対象人物の各特徴量を示す。図5の検索対象画像502は図4の検索対象画像410と同一である。この検索対象画像502の人物の各特徴量は、図4で検索ボタン412を押下したタイミングで、特徴量管理部310により管理されている各特徴量の算出結果を表示している。具体的には、顔特徴量503は顔特徴量判定部305により、服装特徴量504は服装特徴量判定部306により、それぞれ特徴量抽出部304を介して算出された結果を表示する。同様に、歩容特徴量505は歩容特徴量判定部306により、体型特徴量506は体型特徴量判定部308により、それぞれ特徴量抽出部304を介して算出された結果を表示する。
図5右上の検索対象画像502は、検索対象人物の画像と当該検索対象人物の各特徴量を示す。図5の検索対象画像502は図4の検索対象画像410と同一である。この検索対象画像502の人物の各特徴量は、図4で検索ボタン412を押下したタイミングで、特徴量管理部310により管理されている各特徴量の算出結果を表示している。具体的には、顔特徴量503は顔特徴量判定部305により、服装特徴量504は服装特徴量判定部306により、それぞれ特徴量抽出部304を介して算出された結果を表示する。同様に、歩容特徴量505は歩容特徴量判定部306により、体型特徴量506は体型特徴量判定部308により、それぞれ特徴量抽出部304を介して算出された結果を表示する。
さらに、検索結果画面は、総合特徴量507を表示する。この総合特徴量507は、特徴量更新部309により、重み付け設定ウインドウ405の各重み付け値406〜409を対応する各特徴量503〜506にそれぞれ乗算して加算することにより計算される。
すなわち、総合特徴量507は、各特徴量503〜506に各重み付け値406〜409をそれぞれ付加して、人物ごと総合(統合)して得られるものであり、例えば以下の式から求めることができる。
総合特徴量=顔特徴量×顔重み付け値+服装特徴量×服装重み付け値+歩容特徴量×歩容重み付け値+体型特徴量×体型重み付け値 (式2)
すなわち、総合特徴量507は、各特徴量503〜506に各重み付け値406〜409をそれぞれ付加して、人物ごと総合(統合)して得られるものであり、例えば以下の式から求めることができる。
総合特徴量=顔特徴量×顔重み付け値+服装特徴量×服装重み付け値+歩容特徴量×歩容重み付け値+体型特徴量×体型重み付け値 (式2)
順位508は、複数の人物検索結果中の特徴量によるスコア順位を示す。図5では、特徴量のスコアの一番高いものを左として、1〜5までのスコアの順位を示しており、検索された人物画像の下に特徴量のスコアを表示している。
なお、本実施形態では特徴量をスカラとして扱うものとする。この特徴量のスコアは、検索対象画像502に対するそれぞれの検索結果の人物画像の類似度を示すものであり、図5では、最大値を1000とする指標で示されている。
顔順位509は、顔の特徴量で、検索対象画像502の人物と検出された人物とを比較した結果を示す。具体的には、顔順位509では、検索対象画像の顔特徴量503と近似する顔特徴量を有する複数の人物画像を順位順に並べている。
なお、本実施形態では特徴量をスカラとして扱うものとする。この特徴量のスコアは、検索対象画像502に対するそれぞれの検索結果の人物画像の類似度を示すものであり、図5では、最大値を1000とする指標で示されている。
顔順位509は、顔の特徴量で、検索対象画像502の人物と検出された人物とを比較した結果を示す。具体的には、顔順位509では、検索対象画像の顔特徴量503と近似する顔特徴量を有する複数の人物画像を順位順に並べている。
服装順位510は、服装の特徴量で、検索対象画像502の人物と検出された人物とを比較した結果を示す。具体的には、服装順位510では、検索対象画像の服装特徴量504と近似する服装特徴量を有する複数の人物画像を順位順に並べている。
歩容順位511は、歩容の特徴量で、検索対象画像502の人物と検出された人物とを比較した結果を示す。具体的には、歩容順位511では、検索対象画像の歩容特徴量505と近似する歩容特徴量を有する複数の人物画像を順位順に並べている。
同様に、体型順位512は、体型の特徴量で、検索対象画像502の人物と検出された人物とを比較した結果を示す。具体的には、体型順位512では、検索対象画像の体型特徴量506と近似する体型特徴量を有する複数の人物画像を順位順に並べている。
歩容順位511は、歩容の特徴量で、検索対象画像502の人物と検出された人物とを比較した結果を示す。具体的には、歩容順位511では、検索対象画像の歩容特徴量505と近似する歩容特徴量を有する複数の人物画像を順位順に並べている。
同様に、体型順位512は、体型の特徴量で、検索対象画像502の人物と検出された人物とを比較した結果を示す。具体的には、体型順位512では、検索対象画像の体型特徴量506と近似する体型特徴量を有する複数の人物画像を順位順に並べている。
さらに、総合順位513は、顔順位509、服装順位510、歩容順位511、および体型順位512を総合して得られる総合特徴量で、検索対象画像の人物と検出された人物とを比較した結果を示す。具体的には、総合順位513では、検索対象画像の総合特徴量507と近似する総合特徴量を有する人物画像を順位順に並べている。
図5において、各特徴量の順位順にリスト表示された検索結果の人物画像のうち、ユーザ選択画像514が選択されている。
ユーザ選択画像514は、顔順位509にリスト表示された5つの検索結果画像から、ユーザが視認により、検索対象画像502と同一人物であると確認した状態を示している。例えば、マウスなどのポインティングデバイスを用いて、画面上から視認した画像を選択入力することができる。図5では、ユーザにより選択されたユーザ選択画像514には、楕円形の画像が重畳表示され、選択されたことの視認性を高めている。
図5において、各特徴量の順位順にリスト表示された検索結果の人物画像のうち、ユーザ選択画像514が選択されている。
ユーザ選択画像514は、顔順位509にリスト表示された5つの検索結果画像から、ユーザが視認により、検索対象画像502と同一人物であると確認した状態を示している。例えば、マウスなどのポインティングデバイスを用いて、画面上から視認した画像を選択入力することができる。図5では、ユーザにより選択されたユーザ選択画像514には、楕円形の画像が重畳表示され、選択されたことの視認性を高めている。
ユーザ選択画像515〜518は、ユーザ選択画像514がユーザにより選択されたことと連動して、ユーザ選択画像514と同じ人物を表示する画像であることを出力部313が判断して、対応する画像上に楕円形の画像が重畳表示されている状態を示す。出力部313は、特徴量抽出部303により抽出される画像にそれぞれIDが付与されていることから、ユーザ選択画像514と、画像515〜518がそれぞれ同一人物の画像であることを判断することができる。
<重み付け補正処理詳細>
図5において、総合順位513にリスト表示された5つの検索結果画像のうち、検索結果画像518(総合特徴量スコア:670)は、総合順位513で3位になっている。すなわち、重み付け設定ウィンドウ405の設定値では、監視カメラ3〜5で撮像された人物の中で、検索結果画像518は、3番目の総合特徴量スコアを有する候補として検出されていることが分かる。
ここで、人物同定処理の精度をより高めるためには、現在設定されている重み付け設定値405を、より最適な重み付け設定値になるように補正する必要がある。すなわち、総合特徴量のスコアを最適化するような重み付けを、顔特徴量、服装特徴量、歩容特徴量、および体型特徴量について、再計算する必要がある。
図5において、検索結果画像518の総合特徴量のスコアは670であり、検索結果画像514〜517における顔特徴量のスコアは700、服装特徴量のスコアは820、歩容特徴量のスコアは620、体型特徴量のスコアは600であることが分かる。なお、ユーザが選択した検索結果画像518の総合特徴量は上述した式2を用いて求めることが可能である。
図5において、総合順位513にリスト表示された5つの検索結果画像のうち、検索結果画像518(総合特徴量スコア:670)は、総合順位513で3位になっている。すなわち、重み付け設定ウィンドウ405の設定値では、監視カメラ3〜5で撮像された人物の中で、検索結果画像518は、3番目の総合特徴量スコアを有する候補として検出されていることが分かる。
ここで、人物同定処理の精度をより高めるためには、現在設定されている重み付け設定値405を、より最適な重み付け設定値になるように補正する必要がある。すなわち、総合特徴量のスコアを最適化するような重み付けを、顔特徴量、服装特徴量、歩容特徴量、および体型特徴量について、再計算する必要がある。
図5において、検索結果画像518の総合特徴量のスコアは670であり、検索結果画像514〜517における顔特徴量のスコアは700、服装特徴量のスコアは820、歩容特徴量のスコアは620、体型特徴量のスコアは600であることが分かる。なお、ユーザが選択した検索結果画像518の総合特徴量は上述した式2を用いて求めることが可能である。
以下、本実施形態において、ユーザが検索対象画像と一致すると確認し同定された検索結果画像518の総合特徴量(スコア:670)を最適値にする重み付け補正(導出)処理を詳述する。
本実施形態では、主成分分析を用いて総合特徴量を計算する場合を例として説明する。
検索結果画像518の総合特徴量をZ、顔特徴量をx1、服装特徴量をx2、顔重み付け値をa1、服装重み付け値をa2とすると以下の式が成り立つ。
Z=a1x1+a2x2 (式3)
なお、上記式3では、説明のため、総合特徴量Zの要素が顔特徴量と服装特徴量のみに単純化されているが、実際には歩容特徴量と体型特徴量等他の特徴量も含むものであってよい。
本実施形態では、主成分分析を用いて総合特徴量を計算する場合を例として説明する。
検索結果画像518の総合特徴量をZ、顔特徴量をx1、服装特徴量をx2、顔重み付け値をa1、服装重み付け値をa2とすると以下の式が成り立つ。
Z=a1x1+a2x2 (式3)
なお、上記式3では、説明のため、総合特徴量Zの要素が顔特徴量と服装特徴量のみに単純化されているが、実際には歩容特徴量と体型特徴量等他の特徴量も含むものであってよい。
本実施形態では、Zで総合的な特徴量を判断したいため、総合特徴量Zの分散を最大化するように顔重み付け値a1、服装重み付け値a2を決定する。
そのため、まず、総合特徴量の平均を以下の式4で求める。
求めるべき平均をμ、図5で示されるように情報処理装置2で算出された複数の人物の総合特徴量をz、認識された人物数をnとすると、zi=a1x1i+a2x2iから、平均値μを求める以下の式4が成り立つ。
そのため、まず、総合特徴量の平均を以下の式4で求める。
求めるべき平均をμ、図5で示されるように情報処理装置2で算出された複数の人物の総合特徴量をz、認識された人物数をnとすると、zi=a1x1i+a2x2iから、平均値μを求める以下の式4が成り立つ。
次に、式5のZの分散と式7の制約条件式を、ラグランジュ(Lagrange)の乗数法を使用した極値計算を行って解く。
上記の式10の行列式を解くことで、顔重み付け値a1をF、服装重み付け値a2をGとして、以下の式11のとおり求まる。歩容重み付け値および体型重み付け値についても、上記と同様の手順により算出することができる。
以上説明したように、本実施形態では、主成分分析を用いて、ある人物についての複数の特徴量の重み付けを補正して、最適な総合特徴量を算出する。
なお、上述したように人物同定部312での同定処理では、人物間距離情報を用いて同定処理を行うが、この人物間距離情報自体も、上記で説明した主成分分析による重み付けの一要素として使用してもよい。例えば、抽出された人物と検索対象の人物との間で算出される人物間距離を参照し、この人物間距離が小さいほど、主成分分析における重み付けの比率を大きくしてもよい。
図5に戻り、検索対象追加ボタン519は、検索対象の人物を追加するためのボタンである。この検索対象追加ボタン519を押下することで、人物検索画面401の画面に遷移して、新たな検索対象の人物を追加することが可能となる。
なお、上述したように人物同定部312での同定処理では、人物間距離情報を用いて同定処理を行うが、この人物間距離情報自体も、上記で説明した主成分分析による重み付けの一要素として使用してもよい。例えば、抽出された人物と検索対象の人物との間で算出される人物間距離を参照し、この人物間距離が小さいほど、主成分分析における重み付けの比率を大きくしてもよい。
図5に戻り、検索対象追加ボタン519は、検索対象の人物を追加するためのボタンである。この検索対象追加ボタン519を押下することで、人物検索画面401の画面に遷移して、新たな検索対象の人物を追加することが可能となる。
一方、重み付け補正結果確認ボタン520は、検索結果画面501の結果を踏まえて重み付け補正結果をユーザに確認させるためのボタンである。この重み付け補正結果確認ボタン520を押下することで、後述する図6の確認画面に遷移して、各特徴量の重み付けを補正した結果を表示装置26に表示する。
図6は、重み付け補正結果画面601を示す図であり、図4および図5の画面でサンプリングされた人物の同定処理結果に基づいて、各特徴量に対する重み付けをそれぞれ補正した結果を表示している。
図6は、重み付け補正結果画面601を示す図であり、図4および図5の画面でサンプリングされた人物の同定処理結果に基づいて、各特徴量に対する重み付けをそれぞれ補正した結果を表示している。
図6の重み付け補正結果画面601の上方に表示される画面メッセージ602は、図4および図5の画面において、X人で集計して補正した結果が重み付け補正結果603に表示されるとおりとなる旨を表示する。さらに、画面メッセージ602は、重み付け補正結果603に表示される設定値を、追尾すべき人物の検索処理の初期値として使用するか否かを、ユーザに確認させるメッセージを表示している。
なお、画面メッセージ602で「X人」と表記しているのは、情報処理装置2では、任意の複数人の被写体の重み付けを補正した補正結果を集計することが可能だからである。
なお、画面メッセージ602で「X人」と表記しているのは、情報処理装置2では、任意の複数人の被写体の重み付けを補正した補正結果を集計することが可能だからである。
図6において、重み付け補正結果603は、各特徴量の重み付けを補正した結果を示している。具体的には、顔特徴量の重み付け補正結果604が0.26、服装特徴量のお重み付け補正結果605が0.3、歩容特徴量の重み付け補正結果606が0.22、体型特徴量の重み付け補正結果607が0.22と、それぞれ補正されている。
この重み付け補正結果603に示される各特徴量の重み付け補正結果604〜607は、上述した式3〜式10を、サンプリングした人物ごとに計算し、得られた複数の計算結果の平均値を表示している。
なお、平均値を取得する方法は、相加平均、相乗平均など一般的な平均値取得方法でもよいし、あるいは、2乗平均、3乗平均などのその他の方法を用いてもよい。
この重み付け補正結果603に示される各特徴量の重み付け補正結果604〜607は、上述した式3〜式10を、サンプリングした人物ごとに計算し、得られた複数の計算結果の平均値を表示している。
なお、平均値を取得する方法は、相加平均、相乗平均など一般的な平均値取得方法でもよいし、あるいは、2乗平均、3乗平均などのその他の方法を用いてもよい。
初期値設定ボタン608は、重み付け補正結果603で示される各特徴量の重み付け補正結果604〜607を、追尾すべき人物の検索処理の初期値としてユーザに設定させる。
図7は、監視カメラ3〜5から得られた画像から特定された人物の人物情報テーブルの一例を示す。人物同定部312は、この人物情報テーブルを参照して、人物を同定する。
監視カメラフィールド71は、監視カメラ3〜5の名称を示す。各監視カメラ3〜5には、それぞれ固有のカメラIDが付与されている。トラックIDフィールド72は、人物に割り当てて追跡(追尾)を行うために付与されるIDを示し、これらをトラック(Track)IDと呼ぶ。このトラックID72は、人物として検出された対象に対して割り当てられる。位置情報73は、人物を特定した際のGPSの座標位置情報を示し、緯度情報および経度情報を含む。座標情報74は、人物を特定した際の空間上の座標を縦、横、および高さで示す。
図7は、監視カメラ3〜5から得られた画像から特定された人物の人物情報テーブルの一例を示す。人物同定部312は、この人物情報テーブルを参照して、人物を同定する。
監視カメラフィールド71は、監視カメラ3〜5の名称を示す。各監視カメラ3〜5には、それぞれ固有のカメラIDが付与されている。トラックIDフィールド72は、人物に割り当てて追跡(追尾)を行うために付与されるIDを示し、これらをトラック(Track)IDと呼ぶ。このトラックID72は、人物として検出された対象に対して割り当てられる。位置情報73は、人物を特定した際のGPSの座標位置情報を示し、緯度情報および経度情報を含む。座標情報74は、人物を特定した際の空間上の座標を縦、横、および高さで示す。
人物情報75は、特定された人物の人物情報を示す。この人物情報75は、少なくとも、検索対象画像を登録する際に特徴量管理部310によって割り当てられるIDを含む。
信頼度76は、人物の同定に成功する確度である信頼度を示す。この信頼度の値は、当該人物についての総合特徴量と同一であり、図7に示す人物情報テーブルでは、総合特徴量をパーセンテージで表した値となっている。
信頼度76は、人物の同定に成功する確度である信頼度を示す。この信頼度の値は、当該人物についての総合特徴量と同一であり、図7に示す人物情報テーブルでは、総合特徴量をパーセンテージで表した値となっている。
<本実施形態における特徴量の重み付け初期設定処理の処理フロー>
図8は、本実施形態に係るオブジェクト追跡システム1の情報処理装置2が実行する特徴量の重み付け初期設定処理の一例を示すフローチャートである。本実施形態において、オブジェクト追跡システム1は、空港、駅、展示会などの特定環境で、追跡すべきオブジェクトの特徴量の重み付けを初期設定する機能を持つ。
図8に示す処理は、例えば、情報処理装置2および監視カメラ3〜5により構成されるオブジェクト追跡システム1が起動された時点から開始されるが、図8に示す処理の開始タイミングは上記に限定されない。情報処理装置2は、CPU21が必要なプログラムを記憶部から読み出して実行することにより、図8に示す処理を実行することができる。
図8は、本実施形態に係るオブジェクト追跡システム1の情報処理装置2が実行する特徴量の重み付け初期設定処理の一例を示すフローチャートである。本実施形態において、オブジェクト追跡システム1は、空港、駅、展示会などの特定環境で、追跡すべきオブジェクトの特徴量の重み付けを初期設定する機能を持つ。
図8に示す処理は、例えば、情報処理装置2および監視カメラ3〜5により構成されるオブジェクト追跡システム1が起動された時点から開始されるが、図8に示す処理の開始タイミングは上記に限定されない。情報処理装置2は、CPU21が必要なプログラムを記憶部から読み出して実行することにより、図8に示す処理を実行することができる。
ただし、図3に示す各要素のうち少なくとも一部が専用のハードウエアとして動作することで図8の処理が実現されるようにしてもよい。この場合、専用のハードウエアは、CPU21の制御に基づいて動作する。
S1において、特徴量管理部310は、ユーザによって検索対象の人物データ(人物の画像データ、各特徴量を含む)が、人物検索画面401中で、検索対象画像410として登録されたことを検知する。その際に、静止画像データとともに歩容の特徴量を算出するための動画データも登録される。
S1において、特徴量管理部310は、ユーザによって検索対象の人物データ(人物の画像データ、各特徴量を含む)が、人物検索画面401中で、検索対象画像410として登録されたことを検知する。その際に、静止画像データとともに歩容の特徴量を算出するための動画データも登録される。
S2において、画像取得部301は、監視カメラ3〜5からそれぞれ画像を取得する。そして、取得された画像から、人物検出追尾部302が人物を検出し、特徴量抽出部304が、検出された人物の特徴量を抽出する。
ここで、特徴量抽出部304により抽出された特徴量は、顔特徴量判定部305、服装特徴量判定部306、歩容特徴量判定部307、体型特徴量判定部308によりそれぞれ使用される識別器303を介して、特徴量更新部309により更新される。すなわち、特徴量更新部309は、撮像画像から検出された人物の顔特徴量、服装特徴量、歩容特徴量、および体型特徴量をそれぞれ更新する。
ここで、特徴量抽出部304により抽出された特徴量は、顔特徴量判定部305、服装特徴量判定部306、歩容特徴量判定部307、体型特徴量判定部308によりそれぞれ使用される識別器303を介して、特徴量更新部309により更新される。すなわち、特徴量更新部309は、撮像画像から検出された人物の顔特徴量、服装特徴量、歩容特徴量、および体型特徴量をそれぞれ更新する。
S3において、特徴量管理部310は、特徴量更新部309で更新された各特徴量を、人物同定部312へ供給する。人物同定部312は、特徴量更新部309により更新された人物の各特徴量と検索対象として登録された人物とを照合し、検索対象の人物と照合すべき人物のデータ(人物照合データ)があるか否かを判定する。検索対象の人物と照合すべき人物照合データがある場合(S3:Yes)はS4に進み、ない場合(S3:No)はS2に戻る。
S4において、特徴量管理部310は、S2で人物検出追尾部302により検出された人物の顔特徴量、服装特徴量、歩容特徴量、および体型特徴量を含む複数の特徴量をそれぞれ算出し、人物同定部312は、人物を同定するための照合処理を行う。具体的には、人物同定部312は、特徴量更新部309により更新された人物の各特徴量と、検索対象画像410として登録された人物の各特徴量との間の人物間距離を算出する。この算出された人物間距離が所定の閾値内であれば、人物同定部312は、両者が同一人物であると判断して、S2で人物検出追尾部302により検出された人物を検索結果のリストに追加する。
S5において、出力部313は、顔特徴量、服装特徴量、歩容特徴量、および体型特徴量を含む複数の特徴量の確度(スコア)の順位を、対応する人物画像とともに、図5に示す人物の検索結果画面501にリスト表示する。
S6において、特徴量管理部310は、検索結果画面501に対して、検索対象画像502を登録したユーザにより視認された上で、リスト表示された検索結果候補からある人物が選択されたことを検知する。S6で選択された人物画像が、検索対象画像502に同定される。
S6において、特徴量管理部310は、検索結果画面501に対して、検索対象画像502を登録したユーザにより視認された上で、リスト表示された検索結果候補からある人物が選択されたことを検知する。S6で選択された人物画像が、検索対象画像502に同定される。
S7において、特徴量管理部310は、S6で選択された人物の顔特徴量、服装特徴量、歩容特徴量、および体型特徴量を含む複数の特徴量を、HDD24に保存する。
S8において、特徴量管理部310は、次の検索対象があるか否かを判断する。具体的には、特徴量管理部310は、ユーザの操作によって検索対象追加ボタン519が押下されたことを検知する。検索対象追加ボタン519が押下された場合(S8:Yes)、S101に戻り、次の人の検索対象人物データを受け付ける。一方、検索対象追加ボタン519が押下されず(S8:No)、重みづけ補正結果確認ボタン520が押下されたことを検知した場合、S9に進む。
なお、本実施形態に係るオブジェクト追跡システムは、空港などの特定環境において、複数の人物を対象として最適な特徴量の重み付けの平均値を出力する。このため、サンプリングされる人数が多いほど、監視カメラ3〜5が設置される環境や状況に適した重み付けを導出することが可能となる。
S8において、特徴量管理部310は、次の検索対象があるか否かを判断する。具体的には、特徴量管理部310は、ユーザの操作によって検索対象追加ボタン519が押下されたことを検知する。検索対象追加ボタン519が押下された場合(S8:Yes)、S101に戻り、次の人の検索対象人物データを受け付ける。一方、検索対象追加ボタン519が押下されず(S8:No)、重みづけ補正結果確認ボタン520が押下されたことを検知した場合、S9に進む。
なお、本実施形態に係るオブジェクト追跡システムは、空港などの特定環境において、複数の人物を対象として最適な特徴量の重み付けの平均値を出力する。このため、サンプリングされる人数が多いほど、監視カメラ3〜5が設置される環境や状況に適した重み付けを導出することが可能となる。
S9において、特徴量管理部310は、サンプリングした検索対象の人物の各特徴量の算出結果に基づいて、上記各式を用いて、複数の検索対象の算出結果の平均値を算出して、人物ごとの最適な重み付け値を算出する。
S10において、特徴量管理部310は、S9で算出された各特徴量の重み付け値を、監視カメラ3〜5を設定する特定環境においての人物追尾の重み付けの初期値として設定する。以上のS1〜S9の手順を実行することにより、例えば、監視カメラ3〜5を空港に設置する場合の最適な特徴量の重み付け値を算出して初期値として設定することが可能となる。
なお、特徴量管理部310は、S9で算出された各特徴量の重み付け値を、監視カメラを設置する際の初期値として設定する。さらに、特徴量管理部310は、例えば、通勤時間帯と夜間などの状況の変化に応じて、任意のタイミングで各特徴量の重み付け値を補正して、追尾すべき人物の検索処理により参照させることができる。
S10において、特徴量管理部310は、S9で算出された各特徴量の重み付け値を、監視カメラ3〜5を設定する特定環境においての人物追尾の重み付けの初期値として設定する。以上のS1〜S9の手順を実行することにより、例えば、監視カメラ3〜5を空港に設置する場合の最適な特徴量の重み付け値を算出して初期値として設定することが可能となる。
なお、特徴量管理部310は、S9で算出された各特徴量の重み付け値を、監視カメラを設置する際の初期値として設定する。さらに、特徴量管理部310は、例えば、通勤時間帯と夜間などの状況の変化に応じて、任意のタイミングで各特徴量の重み付け値を補正して、追尾すべき人物の検索処理により参照させることができる。
以上説明したように、本実施形態によれば、特徴量管理部310は、サンプリングした検索対象の複数のオブジェクトの各特徴量の算出結果に基づいて、オブジェクトの特徴量の重み付け値を補正する。このオブジェクトごとに抽出される複数の特徴量に対応する重み付け値の補正値は、例えば、あるオブジェクトについての総合特徴量の分散を最大化するよう、求めることができる。
このように動作することにより、本実施形態によれば、環境や状況の変化によりオブジェクトの特徴量に偏りが生じる場合であっても、その偏りに応じて各特徴量の重み付け値(複数の特徴量の間の重み付け)が補正される。このため、この補正された各特徴量の重み付け値を用いて実行されるオブジェクトの同定処理において、同定処理の精度が低下することが有効に防止される。
したがって、撮像の環境や状況の変化にかかわらず、オブジェクトの同定処理の精度の低下を抑制して適切にオブジェクトを追跡することができる。
したがって、撮像の環境や状況の変化にかかわらず、オブジェクトの同定処理の精度の低下を抑制して適切にオブジェクトを追跡することができる。
(実施形態2)
以下、図9を参照して、情報処理装置、情報処理方法およびプログラムの実施形態2を、上記の実施形態1と異なる点についてのみ詳細に説明する。
上記の実施形態1では、空港などの特定環境において、オブジェクトの各特徴量の重み付けを初期値として設定する例を説明した。本実施形態は、実施形態1の各特徴量の重み付け補正結果を使用して、複数の監視カメラ3〜5の間で、実際に人物を追跡して同定しながら、さらに各特徴量の重み付けを調整して最適化していく例を説明する。
これにより、例えば、監視カメラ3〜5の間での特徴量も加味して重み付けを調整することができ、オブジェクトの同定処理の精度をさらに向上させることができる。
図9は、本実施形態において、オブジェクト追跡システム1の情報処理装置2が実行する特徴量の重み付け補正処理の一例を示すフローチャートである。具体的には、本実施形態に係るオブジェクト追跡システム1の情報処理装置2は、図8に示すS1からS10の処理に続いて、図9に示す各処理を実行する。
以下、図9を参照して、情報処理装置、情報処理方法およびプログラムの実施形態2を、上記の実施形態1と異なる点についてのみ詳細に説明する。
上記の実施形態1では、空港などの特定環境において、オブジェクトの各特徴量の重み付けを初期値として設定する例を説明した。本実施形態は、実施形態1の各特徴量の重み付け補正結果を使用して、複数の監視カメラ3〜5の間で、実際に人物を追跡して同定しながら、さらに各特徴量の重み付けを調整して最適化していく例を説明する。
これにより、例えば、監視カメラ3〜5の間での特徴量も加味して重み付けを調整することができ、オブジェクトの同定処理の精度をさらに向上させることができる。
図9は、本実施形態において、オブジェクト追跡システム1の情報処理装置2が実行する特徴量の重み付け補正処理の一例を示すフローチャートである。具体的には、本実施形態に係るオブジェクト追跡システム1の情報処理装置2は、図8に示すS1からS10の処理に続いて、図9に示す各処理を実行する。
図8のS10に続き、S11において、情報処理装置2は、S12〜S20の処理をループさせるための追尾ループ処理を開始する。
S12において、人物検出追尾部302は、ユーザによって検索対象画像410に設定された人物を検索対象とし、この検索対象の人物を同定するために人物追尾を開始する。S12において、次に、特徴量抽出部304が、図8のS2で検索された人物の特徴量を抽出する。特徴量抽出部304により抽出された特徴量は、顔特徴量判定部305、服装特徴量判定部306、歩容特徴量判定部307、および体型特徴量判定部308で使用される識別器303を介して、特徴量更新部309により更新される。すなわち、特徴量更新部309は、撮像画像から検出された人物の顔特徴量、服装特徴量、歩容特徴量、および体型特徴量をそれぞれ更新する。
S12において、人物検出追尾部302は、ユーザによって検索対象画像410に設定された人物を検索対象とし、この検索対象の人物を同定するために人物追尾を開始する。S12において、次に、特徴量抽出部304が、図8のS2で検索された人物の特徴量を抽出する。特徴量抽出部304により抽出された特徴量は、顔特徴量判定部305、服装特徴量判定部306、歩容特徴量判定部307、および体型特徴量判定部308で使用される識別器303を介して、特徴量更新部309により更新される。すなわち、特徴量更新部309は、撮像画像から検出された人物の顔特徴量、服装特徴量、歩容特徴量、および体型特徴量をそれぞれ更新する。
特徴量管理部310は、特徴量更新部309により更新された各特徴量を、人物同定部312へ供給する。
S13において、人物同定部312は、検索対象の人物が他の監視カメラの撮像領域内に移動したか否かを判定する。検索対象の人物が他のカメラの撮像領域内へ移動した場合(S13:Yes)はS14に進み、そうでない場合(S13:No)はS12に戻り待機する。
なお、実施形態1では人物の監視カメラ間の移動は加味していなかったが、実施形態2ではS13で監視カメラ間の移動を検知する。
S14において、特徴量管理部310は、S2で人物検出追尾部302により検出された人物の顔特徴量、服装特徴量、歩容特徴量、および体型特徴量を含む複数の特徴量をそれぞれ算出し、人物同定部312は、人物を同定するための照合処理を行う。具体的には、人物同定部312は、特徴量更新部309により更新された人物の各特徴量と、検索対象画像410として登録された人物の各特徴量との間の人物間距離を算出する。この算出された人物間距離が所定の閾値内であれば、人物同定部312は、両者が同一人物であると判断して、人物検出追尾部302により検出された人物を検索結果のリストに追加する。
S13において、人物同定部312は、検索対象の人物が他の監視カメラの撮像領域内に移動したか否かを判定する。検索対象の人物が他のカメラの撮像領域内へ移動した場合(S13:Yes)はS14に進み、そうでない場合(S13:No)はS12に戻り待機する。
なお、実施形態1では人物の監視カメラ間の移動は加味していなかったが、実施形態2ではS13で監視カメラ間の移動を検知する。
S14において、特徴量管理部310は、S2で人物検出追尾部302により検出された人物の顔特徴量、服装特徴量、歩容特徴量、および体型特徴量を含む複数の特徴量をそれぞれ算出し、人物同定部312は、人物を同定するための照合処理を行う。具体的には、人物同定部312は、特徴量更新部309により更新された人物の各特徴量と、検索対象画像410として登録された人物の各特徴量との間の人物間距離を算出する。この算出された人物間距離が所定の閾値内であれば、人物同定部312は、両者が同一人物であると判断して、人物検出追尾部302により検出された人物を検索結果のリストに追加する。
S15において、出力部313は、顔特徴量、服装特徴量、歩容特徴量、および体型特徴量を含む複数の特徴量の確度(スコア)の順位を、対応する人物画像とともに、図5に示す人物の検索結果画面501に、リスト状に更新表示する。
S16において、特徴量管理部310は、検索結果画面501に対して、検索対象画像502を登録したユーザにより視認された上で、リスト表示された検索結果候補からある人物が選択されたことを検知する。S16で選択された人物画像が、検索対象画像502に同定される。
S17において、特徴量管理部310は、S16で選択された人物の顔特徴量、服装特徴量、歩容特徴量、および体型特徴量を含む複数の特徴量を、HDD24に保存する。
S18において、特徴量管理部310は、サンプリングした検索対象の人物の各特徴量の算出結果に基づいて、上記各式を用いて、複数の検索対象の算出結果の平均値を算出して、人物ごとの最適な重み付け値を算出する。
S16において、特徴量管理部310は、検索結果画面501に対して、検索対象画像502を登録したユーザにより視認された上で、リスト表示された検索結果候補からある人物が選択されたことを検知する。S16で選択された人物画像が、検索対象画像502に同定される。
S17において、特徴量管理部310は、S16で選択された人物の顔特徴量、服装特徴量、歩容特徴量、および体型特徴量を含む複数の特徴量を、HDD24に保存する。
S18において、特徴量管理部310は、サンプリングした検索対象の人物の各特徴量の算出結果に基づいて、上記各式を用いて、複数の検索対象の算出結果の平均値を算出して、人物ごとの最適な重み付け値を算出する。
本実施形態では、S11〜S21の追尾ループ処理のループ回数が増える度に複数の検索対象の結果が平均化されることになる。
S19において、特徴量管理部310は、S9で算出された各特徴量の重み付け値を、監視カメラ3〜5を設定する特定環境においての人物追跡の重み付けの初期値として設定する。
S20において、特徴量管理部308は、ユーザに対して重み付け値の補正処理を終了するか否かを、ポップアップ等の表示(不図示)により判断させる。特徴量の重み付け値の補正処理を終了する場合(S20:Yes)には、図9に示す処理を終了する。一方、特徴量の重み付け値の補正処理を終了しない場合(S20:No)には、S11からS21の追尾ループ処理を継続する。
以上説明したように、実施形態2によれば、実施形態1で1の監視カメラ内で特徴量の重み付け値を補正した後に、さらに、監視カメラ間の特徴量も加味して重み付けを調整する。これにより、複数の監視カメラ3〜5の間で、より人物の同定処理の精度を向上させることが可能となる。
S19において、特徴量管理部310は、S9で算出された各特徴量の重み付け値を、監視カメラ3〜5を設定する特定環境においての人物追跡の重み付けの初期値として設定する。
S20において、特徴量管理部308は、ユーザに対して重み付け値の補正処理を終了するか否かを、ポップアップ等の表示(不図示)により判断させる。特徴量の重み付け値の補正処理を終了する場合(S20:Yes)には、図9に示す処理を終了する。一方、特徴量の重み付け値の補正処理を終了しない場合(S20:No)には、S11からS21の追尾ループ処理を継続する。
以上説明したように、実施形態2によれば、実施形態1で1の監視カメラ内で特徴量の重み付け値を補正した後に、さらに、監視カメラ間の特徴量も加味して重み付けを調整する。これにより、複数の監視カメラ3〜5の間で、より人物の同定処理の精度を向上させることが可能となる。
<変形例>
なお、図3に示した機能ブロックの構成は一例であり、複数の機能ブロックが1つの機能ブロックを構成するようにしてもよいし、いずれかの機能ブロックが複数の機能を行うブロックに分かれてもよい。また、図3に示す機能ブロックの少なくとも一部がハードウエアとして実装されてもよい。ハードウエアにより実装する場合、例えば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA(Field-Programmable Gate Array)上に自動的に専用回路を生成すればよい。また、FPGAと同様にして、Gate Array回路を形成し、ハードウエアとして実装されるようにしてもよく、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。
なお、図3に示した機能ブロックの構成は一例であり、複数の機能ブロックが1つの機能ブロックを構成するようにしてもよいし、いずれかの機能ブロックが複数の機能を行うブロックに分かれてもよい。また、図3に示す機能ブロックの少なくとも一部がハードウエアとして実装されてもよい。ハードウエアにより実装する場合、例えば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA(Field-Programmable Gate Array)上に自動的に専用回路を生成すればよい。また、FPGAと同様にして、Gate Array回路を形成し、ハードウエアとして実装されるようにしてもよく、ASIC(Application Specific Integrated Circuit)により実現するようにしてもよい。
<他の実施形態>
なお、上述した各実施形態は、その複数を組み合わせて実現することが可能である。
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムによっても実現可能である。すなわち、そのプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータ(またはCPUやMPU等)における1つ以上のプロセッサーがプログラムを読出し実行する処理により実現可能である。また、そのプログラムをコンピュータ可読な記録媒体に記録して提供してもよい。
また、コンピュータが読みだしたプログラムを実行することにより、実施形態の機能が実現されるものに限定されない。例えば、プログラムの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって上記した実施形態の機能が実現されてもよい。
なお、上述した各実施形態は、その複数を組み合わせて実現することが可能である。
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムによっても実現可能である。すなわち、そのプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータ(またはCPUやMPU等)における1つ以上のプロセッサーがプログラムを読出し実行する処理により実現可能である。また、そのプログラムをコンピュータ可読な記録媒体に記録して提供してもよい。
また、コンピュータが読みだしたプログラムを実行することにより、実施形態の機能が実現されるものに限定されない。例えば、プログラムの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって上記した実施形態の機能が実現されてもよい。
1…オブジェクト追跡システム、2…情報処理装置、3〜5…監視カメラ、6…ネットワーク、301…画像取得部、302…人物検出追尾部、303…識別器、304…特徴量抽出部、305…顔特徴量判定部、306…服装特徴量判定部、307…歩容特徴量判定部、308…体型特徴量判定部、309…特徴量更新部、310…特徴量管理部、311…信頼度算出部、312…人物同定部、313…出力部
Claims (13)
- 撮像装置により撮像された画像からオブジェクトを検出する検出手段と、
前記検出手段により検出された前記オブジェクトから複数の特徴量を抽出する抽出手段と、
前記抽出手段により抽出された前記オブジェクトの前記複数の特徴量と、検索対象のオブジェクトの複数の特徴量とをそれぞれ照合する照合手段と、
前記照合手段による複数のオブジェクトについての照合結果に基づいて、前記照合手段が特徴量を照合するのに用いられるべき、前記複数の特徴量の間の重み付けを導出する導出手段と、
を備えることを特徴とする情報処理装置。 - 前記情報処理装置は、さらに、
前記抽出手段により抽出された前記複数の特徴量を、前記検出手段により検出された前記オブジェクトの識別子に対応付けて、特徴量ごとに記憶する記憶手段と、
前記記憶手段により記憶された前記複数の特徴量を、前記抽出手段により抽出された前記複数の特徴量で、特徴量ごとに更新する更新手段と、
を備えることを特徴とする請求項1に記載の情報処理装置。 - 前記導出手段は、前記複数のオブジェクトの間で、前記抽出手段により抽出された前記複数の特徴量を前記オブジェクトについて総合して得られる総合特徴量の分散が最大化するよう、前記重み付けを導出する、
ことを特徴とする請求項1または2に記載の情報処理装置。 - 前記導出手段は、前記複数の特徴量を主成分分析することにより、前記重み付けを導出する、
ことを特徴とする請求項1から3のいずれか1項に記載の情報処理装置。 - 前記導出手段は、極値計算を実行することにより、前記複数の特徴量が最大値となるよう、前記重み付けを導出する、
ことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。 - 前記導出手段は、1つのオブジェクトについて、前記複数の特徴量のそれぞれに付与される重み付け値の和が一定になるよう、前記重み付けを導出する、
ことを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。 - 前記情報処理装置は、さらに、
前記照合手段による照合結果を表示装置に表示させ、表示された照合結果から、1または複数のオブジェクトの選択入力を受け付ける表示制御手段と、
前記選択入力されたオブジェクトを、前記検索対象のオブジェクトに同定する同定手段と、
を備えることを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。 - 前記表示制御手段は、前記照合結果を、特徴量ごとに、前記特徴量のスコアの順に前記表示装置にリスト表示させる、
ことを特徴とする請求項7に記載の情報処理装置。 - 前記抽出手段は、前記複数の特徴量として、顔特徴量、服装特徴量、歩容特徴量、体型特徴量の少なくとも2つ以上を抽出する、
ことを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。 - 前記導出手段は、前記抽出手段により抽出された前記オブジェクトと前記検索対象のオブジェクトとの間で算出される距離を参照し、前記距離が小さいほど、前記重み付けの比率を大きくする、
ことを特徴とする請求項4から9のいずれか1項に記載の情報処理装置。 - 前記情報処理装置は、さらに、
検索対象のオブジェクトを複数の撮像装置に亘って追跡するとともに、前記検索対象のオブジェクトが前記複数の撮像装置の間を移動したことを検知する検知手段を備え、
前記表示制御手段は、前記検知手段により、前記検索対象のオブジェクトが前記複数の撮像装置の間を移動したことが検知された際に、前記照合結果を表示装置に更新表示させるとともに、前記選択入力を受け付ける、
ことを特徴とする請求項7から10のいずれか1項に記載の情報処理装置。 - 撮像装置により撮像された画像からオブジェクトを検出するステップと、
検出された前記オブジェクトから複数の特徴量を抽出するステップと、
抽出された前記オブジェクトの前記複数の特徴量と、検索対象のオブジェクトの複数の特徴量とをそれぞれ照合するステップと、
複数のオブジェクトについての照合結果に基づいて、特徴量を照合するのに用いられるべき、前記複数の特徴量の間の重み付けを導出するステップと、
を有することを特徴とする情報処理方法。 - コンピュータを、請求項1から11のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017131970A JP2019016098A (ja) | 2017-07-05 | 2017-07-05 | 情報処理装置、情報処理方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017131970A JP2019016098A (ja) | 2017-07-05 | 2017-07-05 | 情報処理装置、情報処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019016098A true JP2019016098A (ja) | 2019-01-31 |
Family
ID=65358533
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017131970A Pending JP2019016098A (ja) | 2017-07-05 | 2017-07-05 | 情報処理装置、情報処理方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019016098A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020175085A1 (ja) * | 2019-02-26 | 2020-09-03 | コニカミノルタ株式会社 | 画像処理装置、及び画像処理方法 |
JP2020149641A (ja) * | 2019-03-15 | 2020-09-17 | オムロン株式会社 | 物体追跡装置および物体追跡方法 |
WO2020195376A1 (ja) * | 2019-03-27 | 2020-10-01 | 日本電気株式会社 | 監視装置、不審オブジェクト検出方法、および記録媒体 |
JPWO2020255307A1 (ja) * | 2019-06-19 | 2020-12-24 | ||
JP2021060691A (ja) * | 2019-10-03 | 2021-04-15 | 株式会社クリューシステムズ | プログラム、映像処理装置及び認証方法 |
JP2021099603A (ja) * | 2019-12-20 | 2021-07-01 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 情報処理装置、情報処理方法およびプログラム |
WO2022190652A1 (ja) * | 2021-03-09 | 2022-09-15 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置、追跡システム、および撮像方法 |
JP2022546880A (ja) * | 2020-08-01 | 2022-11-10 | センスタイム インターナショナル プライベート リミテッド | オブジェクト関連付け方法及び装置、システム、電子機器、記憶媒体及びコンピュータプログラム |
WO2023176103A1 (ja) * | 2022-03-16 | 2023-09-21 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP7497188B2 (ja) | 2020-03-27 | 2024-06-10 | 株式会社国際電気通信基礎技術研究所 | 校正装置、訓練装置、及びコンピュータ・プログラム |
-
2017
- 2017-07-05 JP JP2017131970A patent/JP2019016098A/ja active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020175085A1 (ja) * | 2019-02-26 | 2020-09-03 | コニカミノルタ株式会社 | 画像処理装置、及び画像処理方法 |
JP7375806B2 (ja) | 2019-02-26 | 2023-11-08 | コニカミノルタ株式会社 | 画像処理装置、及び画像処理方法 |
JPWO2020175085A1 (ja) * | 2019-02-26 | 2021-12-23 | コニカミノルタ株式会社 | 画像処理装置、及び画像処理方法 |
JP2020149641A (ja) * | 2019-03-15 | 2020-09-17 | オムロン株式会社 | 物体追跡装置および物体追跡方法 |
JP7334432B2 (ja) | 2019-03-15 | 2023-08-29 | オムロン株式会社 | 物体追跡装置、監視システムおよび物体追跡方法 |
JP7201072B2 (ja) | 2019-03-27 | 2023-01-10 | 日本電気株式会社 | 監視装置、不審オブジェクト検出方法、およびプログラム |
WO2020195376A1 (ja) * | 2019-03-27 | 2020-10-01 | 日本電気株式会社 | 監視装置、不審オブジェクト検出方法、および記録媒体 |
JPWO2020195376A1 (ja) * | 2019-03-27 | 2021-12-02 | 日本電気株式会社 | 監視装置、不審オブジェクト検出方法、およびプログラム |
JPWO2020255307A1 (ja) * | 2019-06-19 | 2020-12-24 | ||
JP2021060691A (ja) * | 2019-10-03 | 2021-04-15 | 株式会社クリューシステムズ | プログラム、映像処理装置及び認証方法 |
JP2021099603A (ja) * | 2019-12-20 | 2021-07-01 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP7383470B2 (ja) | 2019-12-20 | 2023-11-20 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP7497188B2 (ja) | 2020-03-27 | 2024-06-10 | 株式会社国際電気通信基礎技術研究所 | 校正装置、訓練装置、及びコンピュータ・プログラム |
JP2022546880A (ja) * | 2020-08-01 | 2022-11-10 | センスタイム インターナショナル プライベート リミテッド | オブジェクト関連付け方法及び装置、システム、電子機器、記憶媒体及びコンピュータプログラム |
US11605215B2 (en) | 2020-08-01 | 2023-03-14 | Sensetime International Pte. Ltd. | Object association method, apparatus and system, and storage medium |
WO2022190652A1 (ja) * | 2021-03-09 | 2022-09-15 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置、追跡システム、および撮像方法 |
WO2023176103A1 (ja) * | 2022-03-16 | 2023-09-21 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019016098A (ja) | 情報処理装置、情報処理方法およびプログラム | |
US10860846B2 (en) | Information processing apparatus, information processing method and program | |
JP4594945B2 (ja) | 人物検索装置および人物検索方法 | |
US10893207B2 (en) | Object tracking apparatus, object tracking method, and non-transitory computer-readable storage medium for storing program | |
US10789454B2 (en) | Image processing device, image processing method, and computer program product | |
JP6659524B2 (ja) | 移動体追跡装置、表示装置および移動体追跡方法 | |
EP2797019B1 (en) | Biometric authentication device and method | |
US20140300746A1 (en) | Image analysis method, camera apparatus, control apparatus, control method and storage medium | |
JP5674465B2 (ja) | 画像処理装置、カメラ、画像処理方法およびプログラム | |
KR101139930B1 (ko) | 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법 | |
JP7484985B2 (ja) | 認証システム、認証方法、及び、プログラム | |
JP2013210844A (ja) | 画像照合装置 | |
WO2016158811A1 (ja) | 画像処理装置、画像処理方法および画像処理システム | |
JP4969291B2 (ja) | 移動物体追跡装置 | |
JP2008250746A (ja) | 移動物体追跡装置 | |
JP2013210845A (ja) | 移動物体照合装置 | |
US9886761B2 (en) | Information processing to display existing position of object on map | |
JP6739200B2 (ja) | 映像処理装置、映像処理システムおよび制御方法 | |
JP7188566B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US20230131717A1 (en) | Search processing device, search processing method, and computer program product | |
JP2009289230A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
US11216969B2 (en) | System, method, and computer-readable medium for managing position of target | |
US20210012149A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2018195872A (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
JP6265370B2 (ja) | 対象物追跡方法及び対象物追跡システム |