JP6308011B2 - 同一対象検出装置、同一対象検出方法、及び同一対象検出プログラム - Google Patents
同一対象検出装置、同一対象検出方法、及び同一対象検出プログラム Download PDFInfo
- Publication number
- JP6308011B2 JP6308011B2 JP2014102635A JP2014102635A JP6308011B2 JP 6308011 B2 JP6308011 B2 JP 6308011B2 JP 2014102635 A JP2014102635 A JP 2014102635A JP 2014102635 A JP2014102635 A JP 2014102635A JP 6308011 B2 JP6308011 B2 JP 6308011B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- determination
- same
- information
- color information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本件は、同一対象検出装置、同一対象検出方法、及び同一対象検出プログラムに関する。
監視範囲が重複しない複数のカメラによる映像を利用して、同一人物を検出するシステムが知られている(例えば特許文献1〜5参照)。例えば、映像から取得した画像を複数の領域に分割し、色ヒストグラムを利用して各領域の特徴量を抽出することで、映像に含まれる人物の姿勢の変化に依存せずに、対象人物を検索する技術がある(例えば特許文献6参照)。
しかしながら、上述した技術では各領域内における姿勢の変化には依存しないものの、領域を跨って姿勢が変化した場合には、対象人物の検索精度が低下する。この場合、同一人物を異なる人物として検出するおそれがある。
そこで、1つの側面では、本件は、同一人物の誤検出を抑える同一対象検出装置、同一対象検出方法、及び同一対象検出プログラムを提供することを目的とする。
本明細書に開示の同一対象検出装置は、時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出する対象検出部と、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する同異判断部と、を有する同一対象検出装置である。
本明細書に開示の同一対象検出方法は、時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出し、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、処理をコンピュータが実行する同一対象検出方法である。
本明細書に開示の同一対象検出プログラムは、時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出し、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、処理をコンピュータに実行させるための同一対象検出プログラムである。
本明細書に開示の同一人物の誤検出を抑える同一対象検出装置、同一対象検出方法、及び同一対象検出プログラムによれば、同一対象の誤検出を抑えることができる。
以下、本件を実施するための形態について図面を参照して説明する。
図1は、同一対象検出システムSの一例を説明するための図である。図1に示すように、同一対象検出システムSは、複数の撮像装置100,200,300と同一対象検出装置400を含んでいる。
撮像装置100,200,300は、それぞれ自己の撮像範囲内を撮像する。撮像装置100,200,300としては、例えばビデオカメラといった動画像や映像を撮像する装置がある。各撮像装置100,200,300は、人物Mが通る通路の壁や天井に撮像範囲が重複しないように設けられている。したがって、図1では、撮像装置100は、壁に掛けられた時計10を含む撮像範囲内を撮像する。撮像装置200は、壁に掛けられた絵画20を含む撮像範囲内を撮像する。ここで、鞄Bを所持する人物Mが撮像装置100の撮像範囲内に入ると、鞄Bを所持する人物Mと時計10を含む映像が撮像装置100に入力される。映像の一部にはある時刻における瞬間的な撮像画像30が含まれる。また、人物Mが撮像装置100の撮像範囲内から直進移動して通路を左折し、撮像装置200の撮像範囲内に入ると、人物Mと絵画20を含む映像が撮像装置200に入力される。映像の一部には別の時刻における瞬間的な撮像画像31が含まれる。撮像装置100は連続して撮像しているため、撮像画像30を含む時系列の撮像画像が映像として撮像装置100に入力される。撮像装置200についても同様である。
同一対象検出装置400は、各撮像装置100,200,300と接続されている。同一対象検出装置400としては例えばサーバ装置がある。同一対象検出装置400は、撮像装置100,200,300に入力された各映像を取得して、いずれかの映像に含まれる人物と別の映像に含まれる人物が同一か否かを判断する。尚、同一対象検出装置400による判断対象は人物に限定されず、例えば体の一部を動かして姿勢を変えながら移動する動物やロボットといった移動体であってもよい。
次に、図2を参照して、上述した同一対象検出装置400の概略的な機能構成を説明する。
図2は、同一対象検出装置400のブロック図の一例である。
図2に示すように、同一対象検出装置400は、映像取得部410、対象検出部420、色情報生成部430、情報登録部440及び情報記憶部450を含んでいる。また、同一対象検出装置400は、情報抽出部460、同異判断部470及び情報更新部480を含んでいる。尚、情報記憶部450は、同一対象検出装置400の外部にあってもよい。
図2に示すように、同一対象検出装置400は、映像取得部410、対象検出部420、色情報生成部430、情報登録部440及び情報記憶部450を含んでいる。また、同一対象検出装置400は、情報抽出部460、同異判断部470及び情報更新部480を含んでいる。尚、情報記憶部450は、同一対象検出装置400の外部にあってもよい。
映像取得部410は、撮像装置100,200,300に入力された映像を取得する。映像取得部410は、取得した映像を1フレーム毎に画像に変換する。これにより、撮像装置100や撮像装置200による時系列な複数の画像(撮像画像)が生成される。映像取得部410は、時系列な複数の画像を対象検出部420に出力する。
対象検出部420は、時系列な複数の画像から判断対象としての人物を画像毎に検出する。これにより、時刻の経過に従って姿勢が変化する複数の人物が検出される。対象検出部420は、複数の人物を検出した後、時間的に連続した画像間で同一人物を追跡する。対象検出部420は、追跡した人物を色情報生成部430に出力する。
対象検出部420は、時系列な複数の画像から判断対象としての人物を画像毎に検出する。これにより、時刻の経過に従って姿勢が変化する複数の人物が検出される。対象検出部420は、複数の人物を検出した後、時間的に連続した画像間で同一人物を追跡する。対象検出部420は、追跡した人物を色情報生成部430に出力する。
色情報生成部430は、対象検出部420により追跡された人物から色情報を抽出する。色情報生成部430は、抽出した色情報を利用して色テーブルを更新することにより色テーブルを生成する。色情報生成部430は、生成した色テーブルを情報登録部440に出力する。
情報登録部440は、色テーブルにより特徴付けられる人物の人物特徴量を人物情報に含め、その人物情報を情報記憶部450に登録する。この結果、情報記憶部450には人物情報が記憶される。
情報登録部440は、色テーブルにより特徴付けられる人物の人物特徴量を人物情報に含め、その人物情報を情報記憶部450に登録する。この結果、情報記憶部450には人物情報が記憶される。
情報抽出部460は、情報記憶部450から比較元の人物情報と比較先の人物情報を抽出する。情報抽出部460は、抽出した比較元の人物情報と比較先の人物情報を同異判断部470に出力する。
同異判断部470は、比較元の人物情報を比較先の人物情報と比較して人物情報が同一であるか否かを判断する。同異判断部470は、判断結果を情報更新部480に出力する。
同異判断部470は、比較元の人物情報を比較先の人物情報と比較して人物情報が同一であるか否かを判断する。同異判断部470は、判断結果を情報更新部480に出力する。
情報更新部480は、判断結果に応じて情報記憶部450に記憶された比較元の人物情報を更新する。例えば、情報更新部480は、比較元の人物情報と比較先の人物情報が同一であると判断された場合には、比較先の人物情報に付与されたラベルと同じラベルを比較元の人物情報に付与する。逆に、情報更新部480は、比較元の人物情報と比較先の人物情報が異なると判断された場合には、比較先の人物情報に付与されたラベルと異なるラベルを比較元の人物情報に付与する。これにより、情報記憶部450には、様々なラベルが付与された人物情報が記憶される。例えば2つの人物情報に同じラベルが付与されていれば、それぞれの人物情報により特定される人物は同一の人物である判断することができる。
次に、図3を参照して、同一対象検出装置400のハードウェア構成について説明する。
図3は、同一対象検出装置400のハードウェア構成の一例である。
図3に示すように、同一対象検出装置400は、少なくともCentral Processing Unit(CPU)400A、Random Access Memory(RAM)400B、Read Only Memory(ROM)400C及びネットワークI/F(インタフェース)400Dを含んでいる。同一対象検出装置400は、必要に応じて、Hard Disk Drive(HDD)400E、入力I/F400F、出力I/F400G、入出力I/F400H、ドライブ装置400Iの少なくとも1つを含んでいてもよい。CPU400A,・・・,ドライブ装置400Iは、内部バス400Jによって互いに接続されている。少なくともCPU400AとRAM400Bとが協働することによってコンピュータが実現される。
図3に示すように、同一対象検出装置400は、少なくともCentral Processing Unit(CPU)400A、Random Access Memory(RAM)400B、Read Only Memory(ROM)400C及びネットワークI/F(インタフェース)400Dを含んでいる。同一対象検出装置400は、必要に応じて、Hard Disk Drive(HDD)400E、入力I/F400F、出力I/F400G、入出力I/F400H、ドライブ装置400Iの少なくとも1つを含んでいてもよい。CPU400A,・・・,ドライブ装置400Iは、内部バス400Jによって互いに接続されている。少なくともCPU400AとRAM400Bとが協働することによってコンピュータが実現される。
入力I/F400Fには、入力装置510が接続される。入力装置510としては、例えばキーボードやマウスなどがある。
出力I/F400Gには、表示装置520が接続される。表示装置520としては、例えば液晶ディスプレイがある。
入出力I/F400Hには、半導体メモリ530が接続される。半導体メモリ530としては、例えばUniversal Serial Bus(USB)メモリやフラッシュメモリなどがある。入出力I/F400Hは、半導体メモリ530に記憶されたプログラムやデータを読み取る。
入力I/F400F及び入出力I/F400Hは、例えばUSBポートを備えている。出力I/F400Gは、例えばディスプレイポートを備えている。
出力I/F400Gには、表示装置520が接続される。表示装置520としては、例えば液晶ディスプレイがある。
入出力I/F400Hには、半導体メモリ530が接続される。半導体メモリ530としては、例えばUniversal Serial Bus(USB)メモリやフラッシュメモリなどがある。入出力I/F400Hは、半導体メモリ530に記憶されたプログラムやデータを読み取る。
入力I/F400F及び入出力I/F400Hは、例えばUSBポートを備えている。出力I/F400Gは、例えばディスプレイポートを備えている。
ドライブ装置400Iには、可搬型記録媒体540が挿入される。可搬型記録媒体540としては、例えばCompact Disc(CD)−ROM、Digital Versatile Disc(DVD)といったリムーバブルディスクがある。ドライブ装置400Iは、可搬型記録媒体540に記録されたプログラムやデータを読み込む。
ネットワークI/F400Dは、例えばポートとPhysical Layer Chip(PHYチップ)とを備えている。同一対象検出装置400は、ネットワークI/F400Dを介してネットワークと接続される。
ネットワークI/F400Dは、例えばポートとPhysical Layer Chip(PHYチップ)とを備えている。同一対象検出装置400は、ネットワークI/F400Dを介してネットワークと接続される。
上述したRAM400Bには、ROM400CやHDD400Eに記憶されたプログラムがCPU400Aによって格納される。RAM400Bには、可搬型記録媒体540に記録されたプログラムがCPU400Aによって格納される。格納されたプログラムをCPU400Aが実行することにより、後述する各種の動作が実行される。尚、プログラムは後述するフローチャートに応じたものとすればよい。
次に、図4乃至図9を参照して、同一対象検出装置400の動作について説明する。
図4は、同一対象検出装置400で実行される人物情報登録処理の一例を示すフローチャートである。図5は、色テーブルの一例である。図6は、人物画像の姿勢の変化の一例を説明するための図である。図7は、人物画像の向きの一例を説明するための図である。図8は、重み係数が登録された色テーブルの一例である。図9は、人物テーブルの一例である。
まず、映像取得部410は、撮像装置100,200,300のいずれかに入力された映像を取得し、取得した映像を1フレーム毎に画像に変換する(ステップS101)。例えば撮像装置200に入力された映像を取得した場合には、撮像装置200による時系列な複数の画像が生成される。次いで、対象検出部420は、各画像中からそれぞれ人物を検出し、それぞれの人物特徴量を抽出する(ステップS102)。より詳しくは、対象検出部420は、予め定めた検出手法により、時系列な複数の画像から判断対象としての人物を画像毎に検出する。検出手法には、例えば背景差分法、動的2値化法、テンプレートマッチングなどがある(特開2002−157599号公報参照)。対象検出部420は、人物を検出すると、検出した人物の特徴量を表す人物特徴量を抽出する。人物特徴量としては、例えば、検出位置における色や時間的に連続した人物に応じた移動ベクトルなどがある。
次いで、対象検出部420は、同一人物を追跡する(ステップS103)。より詳しくは、対象検出部420は、前の画像(処理済の画像)から検出した人物の人物特徴量と現画像(処理中の画像)から検出した人物の人物特徴量を判定基準に基づいて対応付けることにより同一人物を追跡する。この結果、撮像装置100や撮像装置200に入力された各映像内で移動する人物が検出されて追跡される。尚、人物の追跡手法には以下の技術を利用してもよい。追跡対象の形状変化(見え変化)については、色ヒストグラムを用いる手法により追跡できる。物体の移動(動き変化)については、追跡対象の存在する領域を、尤度をもとにサンプリングするパーティクルフィルタを導入した手法により追跡できる(山下隆義、藤吉弘亘、「追跡対象と周辺領域の関係性を利用した協調的な物体追跡」、画像認識シンポジウム(MIRU2011)、pp.56−63、2011年7月参照)。
次いで、色情報生成部430は、色テーブル更新処理を実行する(ステップS104)。色テーブル更新処理は、追跡中の人物から色の特徴を表す色情報を抽出し、抽出した色情報を予めフォーマットが定められた色テーブルに書き込んで更新する処理である。これにより、色情報を含む色テーブルが生成される。色テーブルは、人物の画像を表す人物画像が複数の領域(例えば矩形領域)に分割された場合に、各領域がどのような色を有するかを纏めたテーブルである。領域は画素単位でもよいし複数画素で構成されたものでもよい。色テーブルは、図5に示すように、各領域の位置を表す領域位置、各領域における時刻毎の色情報、及び後述する重み係数を構成要素として含んでいる。領域位置は、図6に示すように、人物画像が複数の領域に分割された場合における各領域の位置を表している。領域位置の先頭(0,0)は左上隅に仮想的に設定されている。例えば、時刻t0における領域位置(80,10)の色情報欄には、図5に示すように、皮膚の色を表す色情報(220,165,110)が登録されている。色情報は、例えば領域内の代表値やヒストグラムなどで表すことができる。
また、色テーブルは人物の向き毎に定められている。例えば図7に示すように、4方向に人物の向きを分けた場合、右方向を向く0°方向、正面方向を向く90°方向、左方向を向く180°方向及び背面方向を向く270°方向の4つの色テーブルが定められる。上述した図5では0°方向の色テーブルが示されている。尚、このような90°刻みに代えて45°刻みが利用されてもよい。この場合、8つの色テーブルが定められる。色テーブル更新処理の詳細は後述するが、色テーブル更新処理により時刻t0における色情報を含む色テーブルが人物の向き毎に生成される。
色情報生成部430は、色テーブル更新処理が終了すると、追跡終了か否かを判断する(ステップS105)。例えば、図1において人物Mが撮像装置200の撮像範囲外へ出た場合、撮像装置200には人物Mが入力されないため、色情報生成部430は追跡終了と判断する(ステップS105:YES)。逆に、人物Mが撮像装置200の撮像範囲外へ出ていない場合、撮像装置200には人物Mが入力されるため、色情報生成部430は追跡終了でないと判断する(ステップS105:NO)。色情報生成部430は追跡終了でないと判断する限り、映像取得部410は映像を取得する。この結果、図5に示すように、時刻t0,t1,・・・,t6の色情報が順に抽出されて色テーブルにおける対応する色情報欄に登録される。
色情報生成部430は追跡終了と判断した場合、次いで、情報登録部440は重み係数を算出する(ステップS106)。重み係数は、互いに異なる色テーブルにおける同じ領域同士を比較して類似度を判断する場合における、類似度の信頼性を表す係数である。重み係数が小さいほど人物画像全体の同異判断に及ぼす影響が小さくなり、人物画像全体の同異判断において同一であると判断され易くなる。重み係数は、各領域における時系列の色情報に基づいて算出される。
例えば、図6に示すように、人物Mの顔の一部を含む領域位置(80,10)では、図5に示すように、時刻t0から時刻t6まで色情報(220,165,110)は変化していない。すなわち、腕の動きにより姿勢が変化しても色情報は変化しにくい領域であり、類似度を求める際に信頼性が高いため、相対的に大きな重み係数を算出する。逆に、図6に示すように、人物Mの脚の一部を含む領域位置(50,100)では、図5に示すように、時刻t0から時刻t6まで色情報(168,168,168)や色情報(1,63,101)に変化する。すなわち、腕の動きにより鞄Bの位置が変化すると、領域位置(50,100)には、鞄Bの色を表す色情報(168,168,168)と人物Mの被服の色を表す色情報(1,63,101)が現れるため色情報は変化し易い領域であり、類似度を求める際の信頼性が低いため、相対的に小さな重み係数を算出する。人物Mの腕の一部を含む領域位置(40,70)では、図5に示すように、時刻t0から時刻t6まで色情報(1,63,101)や色情報(60,60,60)に変化するが、腕の動きによる陰の影響を受けているため領域位置(50,100)ほど色情報は変化していない。したがって、領域位置(80,10)に対して算出された重み係数と領域位置(50,100)に対して算出された重み係数の間に属する重み係数が算出される。
重み係数の具体的な算出方法としては、例えば色情報をRGB軸の3次元グラフ上にプロットして、その色情報の分布や分散を調べて重み係数を算出する方法がある。分布や分散が小さい場合には、姿勢が変化しても色情報はあまり変化しないため、情報登録部440は予め定められた小さな分布に応じた大きな重み係数を算出する。逆に、分布や分散が大きい場合には、姿勢が変化すると様々な色情報が現れ、色情報は大きく変化するため、情報登録部440は予め定められた大きな分布に応じた小さな重み係数を算出する。
この結果、図8に示すように、情報登録部440は領域位置(80,10)に対して算出された重み係数「2.0」を色テーブルにおける対応する重み係数欄に登録する。同様に、情報登録部440は領域位置(40,70)に対して算出された重み係数「1.0」を色テーブルにおける対応する重み係数欄に登録する。情報登録部440は領域位置(50,100)に対して算出された重み係数「0.3」を色テーブルにおける対応する重み係数欄に登録する。
情報登録部440は、重み係数を算出すると、次いで、人物情報を登録する(ステップS107)。人物情報は、図9に示すように、人物情報を識別する人物ID、同一人物には同一のラベルが付与される人物ラベル及び人物特徴を含んでいる。人物情報は人物テーブルに登録される。人物IDは、情報記憶部450にカウントアップして付与される番号である。人物IDには文字や記号が含まれていてもよい。人物特徴は、0°方向、90°方向、180°方向及び270°方向の4つの色テーブルを含んでいる。図8では、色テーブルのテーブル名が示されている。尚、人物ID「06」の人物情報は、人物ラベルが付与されていないが、処理対象の人物情報であるため、人物ID「01」〜「05」の人物情報と対応付けが完了していない。後述する対応付け処理により、人物ID「06」の人物情報に適切な人物ラベルが付与される。情報登録部440がステップS107の処理を終了すると、映像取得部410はステップS101の処理を開始する。このように、人物の特徴を表す人物情報が順に情報記憶部450に登録される。
次に、図10を参照して、上述した色テーブル更新処理について説明する。
図10は、色テーブル更新処理の一例を示すフローチャートである。
色情報生成部430は、まず、画像から判断対象としての人物画像を切り出す(ステップS201)。例えば、色情報生成部430は、背景差分処理を利用して画像から人物Mの領域である人物画像と背景を分離する。次いで、色情報生成部430は、人物画像を正規化する(ステップS202)。例えば、色情報生成部430は、頭頂部から靴底までの長さが予め定めた長さになるように人物画像の寸法を変更する。
色情報生成部430は、まず、画像から判断対象としての人物画像を切り出す(ステップS201)。例えば、色情報生成部430は、背景差分処理を利用して画像から人物Mの領域である人物画像と背景を分離する。次いで、色情報生成部430は、人物画像を正規化する(ステップS202)。例えば、色情報生成部430は、頭頂部から靴底までの長さが予め定めた長さになるように人物画像の寸法を変更する。
次いで、色情報生成部430は、人物の向いている方向を特定する(ステップS203)。例えば、色情報生成部430は、人物画像における人物Mの移動方向や顔の向き、頭部の頭髪と皮膚の割合やこれらの位置関係などを利用して、人物の向きを特定する。特定された人物の向きに最も近い方向の色テーブルが更新対象と色テーブルになる。次いで、色情報生成部430は、方向毎に各領域の色情報を抽出し、色テーブルを更新する(ステップS204)。具体的には、人物画像の中心位置が所定の位置(例えば原点)に配置されるように合わされて、左上の領域から順番に色情報が抽出され、抽出された色情報色テーブルに登録される。これにより、図5に示すように、色テーブルにおける対応する色情報欄に色情報が登録される。
次に、図11乃至図13を参照して、同一対象検出装置400の動作について説明する。
図11は、同一対象検出装置400で実行される対応付け処理の一例を示すフローチャートである。
まず、情報抽出部460は、新たな人物情報が登録されたか否かを判断する(ステップS301)。例えば、情報抽出部460は、情報記憶部450を定期的に監視し、前回と異なる人物情報が登録されているか否かを判断する。情報抽出部460は、新たな人物情報が登録されたと判断した場合(ステップS301:YES)、登録された人物情報を比較元として抽出する(ステップS302)。一方、情報抽出部460は、新たな人物情報が登録されていないと判断した場合(ステップS301:NO)、ステップS301の処理に戻る。
まず、情報抽出部460は、新たな人物情報が登録されたか否かを判断する(ステップS301)。例えば、情報抽出部460は、情報記憶部450を定期的に監視し、前回と異なる人物情報が登録されているか否かを判断する。情報抽出部460は、新たな人物情報が登録されたと判断した場合(ステップS301:YES)、登録された人物情報を比較元として抽出する(ステップS302)。一方、情報抽出部460は、新たな人物情報が登録されていないと判断した場合(ステップS301:NO)、ステップS301の処理に戻る。
情報抽出部460は、比較元の人物情報を抽出後、その人物情報と比較する人物情報を比較先として抽出する(ステップS303)。比較先の人物情報は、情報記憶部450に記憶されているすべての人物情報であってもよいし、時間や移動経路といった情報を人物情報に加えて、例えば所定の時間以内に登録された人物情報を比較先として抽出するようにしてもよい。
次いで、同異判断部470は、類似度算出処理を実行する(ステップS304)。詳細は後述するが、類似度算出処理は、比較元の人物情報と比較先の人物情報のいずれか1つとの類似度を算出する処理である。類似度算出処理により、比較元の人物情報と比較先の人物情報のいずれか1つとの類似度が算出される。類似度算出処理が完了すると、次いで、同異判断部470は、全ての比較先との類似度を算出したか否かを判断する(ステップS305)。同異判断部470は、全ての比較先との類似度を算出していないと判断した場合(ステップS305:NO)、再び類似度算出処理を実行する。これにより、比較元の人物情報と比較先の人物情報すべてとの類似度が算出される。
同異判断部470は、すべての比較先との類似度を算出したと判断した場合(ステップS305:YES)、最大の類似度が所定の閾値以上であるか否かを判断する(ステップS306)。同異判断部470は、最大の類似度が所定の閾値以上であると判断した場合(ステップS306:YES)、情報更新部480は、最大類似度となった人物情報のラベルと同じラベルを比較元の人物情報に書き込む(ステップS307)。すなわち、比較元の人物情報は、最大類似度となった比較先の人物情報と同一人物を表していると判断される。一方、同異判断部470は、最大の類似度が所定の閾値以上でないと判断した場合(ステップS306:NO)、情報更新部480は、新たなラベルを比較元の人物情報に書き込む(ステップS308)。すなわち、比較元の人物情報は、最大類似度となった比較先の人物情報とは別の人物を表していると判断される。情報更新部480がステップS307又はS308の処理を終えると、情報抽出部460はステップS301の処理を実行する。
次に、図12及び図13を参照して、上述した類似度算出処理について説明する。
図12は、類似度算出処理の一例を示すフローチャートである。図13は、類似度算出処理の一例を説明するための図である。
まず、図12に示すように、同異判断部470は、同一方向の色テーブルを取得する(ステップS401)。具体的には、同異判断部470は、比較元の人物情報と比較先の人物情報のそれぞれに含まれる方向毎の色テーブルの中から、いずれか1つの方向を選択し、選択した方向の色テーブルを取得する。図8を参照して説明したように、人物情報には人物の向き毎に異なる複数の色テーブルが含まれているため、同異判断部470はいずれかの色テーブルを選択する。選択する向きに関しては、予め向き毎に優先順位を決めておいて優先順位の高い向きの色テーブルを選択する。尚、同異判断部470は、すべての向きを選択するようにしてもよい。この場合、全ての向きに関して類似度を求めて平均化することで、最終的な類似度が算出される。
まず、図12に示すように、同異判断部470は、同一方向の色テーブルを取得する(ステップS401)。具体的には、同異判断部470は、比較元の人物情報と比較先の人物情報のそれぞれに含まれる方向毎の色テーブルの中から、いずれか1つの方向を選択し、選択した方向の色テーブルを取得する。図8を参照して説明したように、人物情報には人物の向き毎に異なる複数の色テーブルが含まれているため、同異判断部470はいずれかの色テーブルを選択する。選択する向きに関しては、予め向き毎に優先順位を決めておいて優先順位の高い向きの色テーブルを選択する。尚、同異判断部470は、すべての向きを選択するようにしてもよい。この場合、全ての向きに関して類似度を求めて平均化することで、最終的な類似度が算出される。
同異判断部470は、次いで、各領域の色情報の類似度を領域毎に算出する(ステップS402)。色テーブルは、図8を参照して説明したように、1つの領域に対して時系列な複数の色情報を有しているため、比較方法としては、例えば、全ての色情報の平均値同士を比較して色情報の類似度を求める方法や、全ての色情報の全組み合わせの類似度を求め、その中で最も高い類似度を採用する方法、時系列な複数の色情報同士が類似しているか調べる方向などがある。また、類似度の算出には、例えばRGB空間上の2点のユークリッド距離を利用する方法がある。色情報(R1,G1,B1)と色情報(R2,G2,B2)の2点間のユークリッド距離disは、以下の数式(1)により表される。
同異判断部470は、次いで、重み係数を利用して、全体の類似度を算出する(ステップS403)。具体的には、同異判断部470は、各領域で求めた類似度に、各領域に対応した重み係数をかけて足し合わせ、平均化することで人物画像全体の類似度を求める。例えば、図13に示すように、撮像装置100に基づく比較先である人物ID「01」の色テーブルと、撮像装置200に基づく比較元である人物ID「06」の色テーブルを比較する場合、以下の数式(3)により人物画像全体の類似度cor_allを求めることができる。尚、i,jはそれぞれ領域位置のx,yに対応する。wai,j、wbi,jの一方は比較元の重み係数に対応し、wai,j、wbi,jの他方は比較先の重み係数に対応する。例えば、人物ID「01」と人物ID「06」の類似度cor_allが残りの類似度cor_allと比べて最大であり、人物ID「01」と人物ID「06」の類似度cor_allが所定の閾値以上であれば、図9における人物ID「06」の人物ラベルには「人物A」が登録される。
以上説明したように、本実施形態によれば、判断対象としての人物Mを含む人物画像を複数の領域に分割し、各領域が有する時系列の色情報同士を比べる際、他の領域と比べて変化が大きい領域には類似度の信頼性を表す重み係数を下げて、判断対象同士が同一か否か判断する。これにより、変化が大きい領域では、同異判断に及ぼす影響が小さくなり、人物画像全体の同異判断において同一であると判断され易くなる。したがって、変化が大きい領域に対して類似度の信頼性を表す重み係数を下げない場合と比べて、同一対象の誤検出を抑えることができる。換言すれば、同一対象の検出精度を向上することができる。
特に、大きな姿勢変動にも対応させるために、人物の体全体を含む大きな領域が設定された場合、ヒストグラムによって色情報を表現すると、上半身と下半身の色が逆であることにより異なる人物であっても同一人物と誤って検出されるおそれがある。しかしながら、本実施形態によれば、このような誤った検出を抑えることができる。
以上、本発明の好ましい実施形態について詳述したが、本発明に係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
なお、以上の説明に関して更に以下の付記を開示する。
(付記1)時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出する対象検出部と、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する同異判断部と、を有する同一対象検出装置。
(付記2)前記第1の判断対象と前記第2の判断対象のそれぞれの移動方向に対し移動方向毎に前記色情報を生成する色情報生成部を有し、前記同異判断部は、同一の移動方向の前記色情報同士を比較する場合に、前記第1の判断対象と前記第2の判断対象が同一か否かを判断することを特徴とする付記1に記載の同一対象検出装置。
(付記3)前記同異判断部は、前記色情報同士の第1の類似度を領域毎に算出し、領域毎の前記第1の類似度に各領域に対応する前記第1の重み係数又は前記第2の重み係数を掛けて足し合わせて平均化することにより、前記第1の判断対象と前記第2の判断対象の第2の類似度を算出し、前記第2の類似度が同一と判断する閾値以上である場合に、前記第1の判断対象と前記第2の判断対象が同一であると判断することを特徴とする付記1又は2に記載の同一対象検出装置。
(付記4)時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出し、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、処理をコンピュータが実行する同一対象検出方法。
(付記5)前記第1の判断対象と前記第2の判断対象のそれぞれの移動方向に対し移動方向毎に前記色情報を生成する処理を有し、前記判断する処理は、同一の移動方向の前記色情報同士を比較する場合に、前記第1の判断対象と前記第2の判断対象が同一か否かを判断することを特徴とする付記4に記載の同一対象検出方法。
(付記6)前記判断する処理は、前記色情報同士の第1の類似度を領域毎に算出し、領域毎の前記第1の類似度に各領域に対応する前記第1の重み係数又は前記第2の重み係数を掛けて足し合わせて平均化することにより、前記第1の判断対象と前記第2の判断対象の第2の類似度を算出し、前記第2の類似度が同一と判断する閾値以上である場合に、前記第1の判断対象と前記第2の判断対象が同一であると判断することを特徴とする付記4又は5に記載の同一対象検出方法。
(付記7)時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出し、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、処理をコンピュータに実行させるための同一対象検出プログラム。
(付記1)時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出する対象検出部と、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する同異判断部と、を有する同一対象検出装置。
(付記2)前記第1の判断対象と前記第2の判断対象のそれぞれの移動方向に対し移動方向毎に前記色情報を生成する色情報生成部を有し、前記同異判断部は、同一の移動方向の前記色情報同士を比較する場合に、前記第1の判断対象と前記第2の判断対象が同一か否かを判断することを特徴とする付記1に記載の同一対象検出装置。
(付記3)前記同異判断部は、前記色情報同士の第1の類似度を領域毎に算出し、領域毎の前記第1の類似度に各領域に対応する前記第1の重み係数又は前記第2の重み係数を掛けて足し合わせて平均化することにより、前記第1の判断対象と前記第2の判断対象の第2の類似度を算出し、前記第2の類似度が同一と判断する閾値以上である場合に、前記第1の判断対象と前記第2の判断対象が同一であると判断することを特徴とする付記1又は2に記載の同一対象検出装置。
(付記4)時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出し、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、処理をコンピュータが実行する同一対象検出方法。
(付記5)前記第1の判断対象と前記第2の判断対象のそれぞれの移動方向に対し移動方向毎に前記色情報を生成する処理を有し、前記判断する処理は、同一の移動方向の前記色情報同士を比較する場合に、前記第1の判断対象と前記第2の判断対象が同一か否かを判断することを特徴とする付記4に記載の同一対象検出方法。
(付記6)前記判断する処理は、前記色情報同士の第1の類似度を領域毎に算出し、領域毎の前記第1の類似度に各領域に対応する前記第1の重み係数又は前記第2の重み係数を掛けて足し合わせて平均化することにより、前記第1の判断対象と前記第2の判断対象の第2の類似度を算出し、前記第2の類似度が同一と判断する閾値以上である場合に、前記第1の判断対象と前記第2の判断対象が同一であると判断することを特徴とする付記4又は5に記載の同一対象検出方法。
(付記7)時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出し、前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、処理をコンピュータに実行させるための同一対象検出プログラム。
S 同一対象検出システム
100,200,300 撮像装置
400 同一対象検出装置
420 対象検出部
430 色情報生成部
470 同異判断部
100,200,300 撮像装置
400 同一対象検出装置
420 対象検出部
430 色情報生成部
470 同異判断部
Claims (5)
- 時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出する対象検出部と、
前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する同異判断部と、
を有する同一対象検出装置。 - 前記第1の判断対象と前記第2の判断対象のそれぞれの移動方向に対し移動方向毎に前記色情報を生成する色情報生成部を有し、
前記同異判断部は、同一の移動方向の前記色情報同士を比較する場合に、前記第1の判断対象と前記第2の判断対象が同一か否かを判断することを特徴とする請求項1に記載の同一対象検出装置。 - 前記同異判断部は、前記色情報同士の第1の類似度を領域毎に算出し、領域毎の前記第1の類似度に各領域に対応する前記第1の重み係数又は前記第2の重み係数を掛けて足し合わせて平均化することにより、前記第1の判断対象と前記第2の判断対象の第2の類似度を算出し、前記第2の類似度が同一と判断する閾値以上である場合に、前記第1の判断対象と前記第2の判断対象が同一であると判断することを特徴とする請求項1又は2に記載の同一対象検出装置。
- 時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出し、
前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、
処理をコンピュータが実行する同一対象検出方法。 - 時系列に撮像された第1の撮像画像と時系列に撮像された第2の撮像画像のそれぞれから第1の判断対象と第2の判断対象を検出し、
前記第1の判断対象と前記第2の判断対象がそれぞれ複数の領域に分割されて、対応する領域がそれぞれ有する色情報同士を比較する場合に、比較する領域の時系列での前記色情報の変化がいずれかの領域と比べて大きい領域に、前記いずれかの領域に対して利用する第1の重み係数より小さな第2の重み係数を利用して、前記第1の判断対象と前記第2の判断対象が同一か否かを判断する、
処理をコンピュータに実行させるための同一対象検出プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014102635A JP6308011B2 (ja) | 2014-05-16 | 2014-05-16 | 同一対象検出装置、同一対象検出方法、及び同一対象検出プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014102635A JP6308011B2 (ja) | 2014-05-16 | 2014-05-16 | 同一対象検出装置、同一対象検出方法、及び同一対象検出プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015219712A JP2015219712A (ja) | 2015-12-07 |
JP6308011B2 true JP6308011B2 (ja) | 2018-04-11 |
Family
ID=54779028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014102635A Active JP6308011B2 (ja) | 2014-05-16 | 2014-05-16 | 同一対象検出装置、同一対象検出方法、及び同一対象検出プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6308011B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6776719B2 (ja) * | 2016-08-17 | 2020-10-28 | 富士通株式会社 | 移動体群検出プログラム、移動体群検出装置、及び移動体群検出方法 |
TWI718823B (zh) * | 2019-12-23 | 2021-02-11 | 晶睿通訊股份有限公司 | 物件識別方法及其相關監控攝影設備 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003087772A (ja) * | 2001-09-10 | 2003-03-20 | Fujitsu Ltd | 画像制御装置 |
JP5180922B2 (ja) * | 2009-07-09 | 2013-04-10 | 株式会社日立製作所 | 画像検索システム及び画像検索方法 |
-
2014
- 2014-05-16 JP JP2014102635A patent/JP6308011B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015219712A (ja) | 2015-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5554984B2 (ja) | パターン認識方法およびパターン認識装置 | |
JP6339579B2 (ja) | コンピュータビジョンベースの追跡のために複数のマップをマージするシステムおよび方法 | |
US20170154424A1 (en) | Position detection device, position detection method, and storage medium | |
US20160260226A1 (en) | Method and apparatus for detecting object in moving image and storage medium storing program thereof | |
US20160292533A1 (en) | Image processing apparatus for estimating three-dimensional position of object and method therefor | |
CN107784282A (zh) | 对象属性的识别方法、装置及系统 | |
WO2016085667A1 (en) | Fast object tracking framework for sports video recognition | |
US10748294B2 (en) | Method, system, and computer-readable recording medium for image object tracking | |
WO2019064375A1 (ja) | 情報処理装置、制御方法、及びプログラム | |
KR101551576B1 (ko) | 로봇 청소기, 제스쳐 인식 장치 및 방법 | |
JP6362085B2 (ja) | 画像認識システム、画像認識方法およびプログラム | |
WO2013005815A1 (ja) | 物体検出装置、物体検出方法及びプログラム | |
JP6351243B2 (ja) | 画像処理装置、画像処理方法 | |
JP6500500B2 (ja) | 画像判定装置、画像判定方法、及びプログラム | |
JP6776719B2 (ja) | 移動体群検出プログラム、移動体群検出装置、及び移動体群検出方法 | |
Chamveha et al. | Head direction estimation from low resolution images with scene adaptation | |
JP2016201105A (ja) | 情報処理装置及び情報処理方法 | |
Bouachir et al. | Structure-aware keypoint tracking for partial occlusion handling | |
JP5248236B2 (ja) | 画像処理装置および画像処理方法 | |
US11182636B2 (en) | Method and computing device for adjusting region of interest | |
JP6308011B2 (ja) | 同一対象検出装置、同一対象検出方法、及び同一対象検出プログラム | |
JP7383435B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2016021097A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP6289027B2 (ja) | 人物検出装置及びプログラム | |
KR20220098314A (ko) | 뉴럴 네트워크의 트레이닝 방법과 장치 및 관련 대상 검출 방법과 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6308011 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |