JP6589321B2 - システム、検索方法およびプログラム - Google Patents

システム、検索方法およびプログラム Download PDF

Info

Publication number
JP6589321B2
JP6589321B2 JP2015061454A JP2015061454A JP6589321B2 JP 6589321 B2 JP6589321 B2 JP 6589321B2 JP 2015061454 A JP2015061454 A JP 2015061454A JP 2015061454 A JP2015061454 A JP 2015061454A JP 6589321 B2 JP6589321 B2 JP 6589321B2
Authority
JP
Japan
Prior art keywords
image
person
area
information
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015061454A
Other languages
English (en)
Other versions
JP2016181159A (ja
Inventor
松田 裕司
裕司 松田
健太郎 辻
健太郎 辻
明燮 鄭
明燮 鄭
信浩 宮▲崎▼
信浩 宮▲崎▼
明洋 皆川
明洋 皆川
上原 祐介
祐介 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015061454A priority Critical patent/JP6589321B2/ja
Priority to US15/049,809 priority patent/US10127310B2/en
Publication of JP2016181159A publication Critical patent/JP2016181159A/ja
Application granted granted Critical
Publication of JP6589321B2 publication Critical patent/JP6589321B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/247Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids

Description

本発明は、監視カメラ等のカメラで撮影された映像を検索する技術に関する。
従来、監視カメラが撮影した映像から、特定の人物が写った画像を検索するためのシステムが知られている。このようなシステムは、例えば、迷子や行方不明者の検索や、人物追跡による消費者の行動パターンの解析などに活用される。
例えば、特許文献1に開示されたシステムは、蓄積された映像から、特定の人物が写る画像を検索することが可能である。当該システムは、映像を録画する際に、人物の顔の特徴情報および服装の特徴情報(色ヒストグラム等)を抽出して、データベースに格納する。そして、システムは、クエリ画像内の人物と類似する人物が映った画像を、データベースから抽出する。
具体的には、システムは、データベースに格納された顔の特徴情報および服装の特徴情報と、クエリ画像から抽出された顔の特徴情報および服装の特徴情報とを比較して、類似度が閾値以上である画像をデータベースから検索する。なお、特許文献1に開示されたシステムは、顔領域を抽出して、抽出された顔領域から特徴を抽出する顔特徴抽出部と、着衣領域を抽出して、抽出された着衣領域から特徴を抽出する着衣特徴抽出部とを有する。
ここで、特徴情報としては、色情報(色ヒストグラムなど)が利用されることが一般的である。なぜなら、監視カメラの映像は画質が悪く、詳細な特徴は把握しにくく、色による判別が効果的であるためである。また、色の特徴は他の特徴と比較して、より安定しており、人物の向きや外光の影響を受けにくいというメリットもある。よって、色情報同士を比較し、類似する服装をした人物が写った画像を、監視カメラの映像から検索することが行われる。
クエリ画像内の人物の着衣領域“全体”の色情報と、データベースに登録された画像内の人物の着衣領域の色情報とを比較した場合に、クエリ画像内の人物とは異なる服装の人物であっても、検索結果としてデータベースから検索される可能性がある。具体的には、白いジャケットに黒いズボンを着用した人物が写っているクエリ画像に対して、黒いジャケットに白いズボンの人物が写った画像がデータベースから検索される可能性がある。これは、類似するか否かの判定の際に、完全に2つの色情報が一致する場合以外にも、一定の幅を許容し、閾値以上の類似度を有する画像を検索するためである。
そこで、検索結果をより絞り込むために、着衣領域を分割し、分割された各々の領域から、特徴情報を抽出する技術がある(例えば、特許文献2)。特許文献2に開示されたシステムは、映像から人物領域を抽出した後、人物の着衣領域を複数の部位に分離する。具体的には、当該システムは、着衣領域の縦方向の輝度変化から着衣の切れ目(分離位置)を決定し、当該分離位置よりも上方の領域と、当該分離位置よりも下方の領域との各々から、色情報を抽出する。そして、抽出された各領域の色情報は、データベースに蓄積される。なお、当該システムは、クエリとして、クエリテキスト(例えば、「白い上着に青いズボン」)を受け付けることで、クエリテキストに対応する服装の人物が写った画像を検索する。
特開2009−199322号公報 国際公開第2011/046128号
例えば、特許文献1と特許文献2の技術を組み合わせた場合に、予め着衣領域を複数に分割することで作成されたデータベースを用いて、クエリ画像に写る人物と類似する服装の人物が写った画像を検索することが可能となることが予測される。
具体的には、クエリ画像を含む検索要求が受信されると、クエリ画像における人物の着衣領域における服の切れ目が特定される。切れ目より上方の領域から抽出した特徴情報と、切れ目より下方の領域から抽出した特徴情報とを用いて、データベースが検索される。
しかし、服の切れ目を唯一の指標とした場合、次のような問題が発生する。図1A、1B、および図2は、従来技術の問題点を説明するための図である。特許文献2の技術を利用する事で、図1Aに示す画像1に写る人物10の着衣領域は、上方領域11と下方領域12とに分割される。そして、上方領域11から抽出された色情報と、下方領域12から抽出された色情報とが、各々データベースに登録される。なお、人物10は、白色のTシャツと、黒色のズボンを着用しているものとする。ここで、図1Aおよび図1Bにおいては、白色部分をストライプ柄で図示し、黒色部分をドット柄で図示している。
また、図1Bに示すように、画像2に写る人物20の着衣領域は、上方領域21と下方領域22に分割される。そして、上方領域21から抽出された色情報と、下方領域22から抽出された色情報とが、各々データベースに登録される。なお、人物20は、白色のワンピースと、黒色のタイツを着用しているものとする。一般的に、色情報(例えば色ヒストグラム)は、人物領域の大きさ(画素数)によらず、比較可能となるように、正規化された状態で、データベースに登録される。
次に、図2はクエリ画像の例である。なお、人物30は、白色のTシャツと、黒色のズボンを着用しているものとする。画像3をクエリ画像として受け付けた場合に、クエリ画像における人物30の着衣領域は、上方領域31と下方領域32とに分割される。そして、上方領域31から抽出された色情報と、下方領域32から抽出された色情報とを用いて、データベースから類似する人物が写る画像が検索される。
このとき、図1Aに示した画像1に写る人物10の服装(白色のTシャツに黒色のズボン)と、図1Bに示した画像2に写る人物20の服装(白色のワンピースに黒色のタイツ)は、ともに人物30の服装(白色のTシャツに黒色のズボン)に類似するとして、データベースから画像1および画像2が抽出される可能性がある。このように、従来技術の組み合わせでは、人物10の服装と人物20の服装とを区別することができず、結果的に、検索結果を絞り込むということができない。
そこで、一つの側面では、本発明は、カメラが撮影した映像から、物体を検索する際に、検索結果をより絞り込むことを目的とする。
上記課題を解決する為に、ひとつの実施態様においては、システムは、撮影装置により撮影された画像情報より、注目すべき物体を検出する検出部と、前記撮影装置が設置されている高さ、該撮影装置の俯角および該撮影装置から前記注目すべき物体までの距離による撮影された該注目すべき物体の見え方を考慮したパラメータを決定する決定部と、所定の比率を前記パラメータに応じて補正した分割比率により、前記注目すべき物体が写る画像領域を少なくとも2つの画像領域に分割する分割部と、前記少なくとも2つの画像領域それぞれの特徴情報に基づいて、物体を特定する特定部とを含む。
本発明の一観点によれば、カメラが撮影した映像から、特定の物体(特定の服装の人物)を検索する際に、検索結果をより絞り込むことができる。
図1Aおよび1Bは、従来技術の問題点を説明するための図(その1)である。 図2は、従来技術の問題点を説明するための図(その2)である。 図3Aおよび3Bは、図1Aおよび1Bに示した画像における人物領域を一定の割合で分割した例である。 図4Aおよび4Bは、カメラと人物との位置関係によって生じる問題を説明するための図(その1)である。 図5A、5B、5Cおよび5Dは、カメラと人物との位置関係によって生じる問題を説明するための図(その2)である。 図6は、本実施例に係る監視システムの構成図である。 図7は、検索装置の機能ブロック図である。 図8は、検索装置の処理フロー(その1)である。 図9は、映像記憶部のデータ構成例である。 図10は、人物領域およびその位置を説明するための図である。 図11Aおよび11Bは、分割情報を説明するための図である。 図12A、12B、12Cおよび12Dは、分割比率と見え方との関係を説明するための図である。 図13は、特徴情報記憶部のデータ構成例である。 図14は、検索装置の処理フロー(その2)である。 図15A、15B、15Cおよび15Dは、分割情報の生成方法(その1)を説明するための図である。 図16は、分割情報の生成方法(その1)の処理フローである。 図17は、学習用テーブル記憶部のデータ構成例(その1)である。 図18は、分割情報の生成方法(その2)の変形例1の処理フローである。 図19Aおよび19Bは、信頼度を説明するための図である。 図20は、学習用テーブル記憶部のデータ構成例(その2)である。 図21は、信頼度で重みづけされた分割比率のヒストグラムである。 図22は、実施例2に係る検索装置の機能ブロック図である。 図23Aおよび23Bは、第二の実施例に係る、分割比率を反映した分割位置を決定する方法を説明するための図である。 図24は、本発明に関する検索装置のハードウェア構成例である。
以下詳細な本発明の実施例に関して説明する。なお、以下の各実施例は、処理の内容を矛盾させない範囲で適宜組み合わせることが可能である。以下、図面に基づいて各実施例について説明する。
本実施例に開示する技術は、検索結果を絞り込むために、より有効な比率で複数の画像領域に分割することが可能である。本実施例は、例えば、図1Aに示した画像1に写る人物10の服装(白色のTシャツに黒色のズボン)と、図1Bに示した画像2に写る人物20の服装(白色のワンピースに黒色のタイツ)とを区別し、人物30が写る(白色のTシャツに黒色のズボン)クエリ画像3を受け付けた場合に、より絞り込んだ検索結果を出力する。以下の説明では、本実施例に開示の技術は、クエリ画像3に関して画像1のみをデータベースから抽出する。
ここで、服の切れ目に依存することなく、人物領域を分割する単純な方法として、一定の比率で、人物領域を分割することが考えられる。なお、以下、人物領域を分割する例を説明するが、頭部領域を除外した着衣領域を分割する場合においても結果は同様である。
図3Aおよび3Bは、図1Aおよび1Bに示した画像における人物領域を一定の割合で分割した例である。図3Aおよび図3Bは、水平方向をx座標、高さ方向をy座標としている。図3Aは、図1Aに示した画像1における人物10の人物領域13を、高さd1にて上下に分割した例である。なお、高さd1は、人物領域13のy方向の長さ(高さ)に、一定の割合を乗算することで算出される。この場合、画像1における人物領域13は、この高さd1の位置において上方領域14と下方領域15に分割される。
一方、図3Bは、図1Bに示した画像2における人物20の人物領域23を高さd2で分割した例である。なお、高さd2は、人物領域23のy方向の長さ(高さ)に、一定の割合を乗算することで算出される。画像2における人物領域23は、この高さd2の位置において上方領域24と下方領域25に分割される。
この場合、例えば、画像1における下方領域15から生成される色情報(色ヒストグラム)と画像2における下方領域25から生成される色情報(色ヒストグラム)は、従来技術と比較して、より大きく異なる。よって、クエリ画像3における人物と類似する服装の人物が写る画像を検索する際、画像1と画像2とが区別された上で、検索結果が生成される可能性が高い。
監視カメラのようにカメラによって広範囲を撮影した映像(画像)を対象にクエリ画像を用いて検索する例を説明する。通常、監視カメラは、施設の上方に取り付けられ、上方から下方の道や廊下などを撮影することが多い。つまり、監視カメラは、撮影対象における所定の水平面に対して俯角が設定された状態で撮影をし、監視カメラが、監視カメラと正対した人物を撮影することはまれである。このようなカメラで撮影された画像を対象に、人物領域を一定の割合で分割すると、次のような問題が発生する。
図4A、4B、5A、5B、5Cおよび5Dは、カメラと人物との位置関係によって生じる問題を説明するための図である。図4Aは、カメラが、カメラの近くに存在する人物を撮影した場合の例である。一方、図4Bは、同様のカメラが、カメラから遠くに存在する図4Aと同一の人物を撮影した場合の例である。
また、図5Aは、図4Aの状態で撮影された画像を示し、図5Bは、図4Bの状態で撮影された画像を示す。図5Aの人物41と図5Bの人物51は同一人物であるとする。図5Aの画像4では、人物41の上半身の割合が、下半身に比べて大きい。一方、図5Bの画像5では、図5Aと比較して、人物51の下半身の割合が大きくなる。
これは、透視投影の影響によるものである。つまり、図4Aおよび図4Bに示すとおり、遠くの人物は平行投影に近くなるため、画像上の人物の上半身と下半身の割合は、現実世界の人物の上半身と下半身の割合に近くなる。一方、カメラと人物が近い場合には、平行投影とはならず、投影された際に、カメラに近い部分(上半身)がカメラに遠い部分(下半身)よりも大きな割合を占める。
図5Cは、図5Aにおける人物に対応する人物領域の拡大図である。図5Dは、図5Bにおける人物に対応する人物領域の拡大図である。図5Cおよび図5Dは、図5Aおよび図5B同様、水平方向をx座標、高さ方向をy座標としている。なお、図5Cと図5Dは、比較のために、高さ方向を基準に正規化し、人物領域のy方向の長さをそろえている。
図5Cおよび図5Dに示すとおり、人物領域の下端から一定割合で人物領域を分割した場合、図5Cにおける人物領域は、高さd3の位置で、上方領域42と下方領域43に分割される。同様に高さd3の位置で、図5Dにおける人物領域は、上方領域52と下方領域53に分割される。
この図5Cおよび図5Dに示すように、一定の割合となる高さd3で、人物領域を分割すると、例え同一人物であっても、カメラと人物との位置関係によって、上方領域および下方領域それぞれから抽出される特徴情報(色情報)が、画像間で異なる。よって、いずれか一方をクエリ画像として受け付けた場合に、同様の服装の人物(同一人物)を映像から検索することができない可能性が大きい。
以上のように、カメラが人物を正対した状態で撮影しない限り、一定の割合で人物領域の分割位置を決定するだけでは、従来技術の問題は解消できるが、検索結果から目的の画像が漏れてしまうという可能性がある。
そこで、本実施例に開示の技術は、カメラと被写体との位置関係によって生じる被写体の見え方の違いを考慮して、被写体の画像領域を分割する割合(比率)を決定する。より具体的には、上記見え方の違いは、カメラの設置高さ、カメラの傾き(俯角)、カメラと被写体との距離に応じて生じることに着目し、カメラと被写体との位置関係に応じて、適応的に、被写体の画像領域を分割する比率を決定する。
[実施例1]
図6は、本実施例に係る監視システムの構成図である。監視システムは、検索装置100、カメラ200、通信装置300を含む。各装置はネットワークNを介して接続される。ネットワークNは、例えば、インターネットである。なお、検索装置100とカメラ200とは専用回線で接続されていてもよい。
カメラ200は、例えば、街中や施設に設置された監視カメラであって、一定期間の映像を撮影する。カメラ200が撮影した映像は、検索装置100に、リアルタイムまたは所定時間ごとに送信される。また、カメラ200は、複数台であってもよい。なお、カメラは撮影装置の一例である。
通信装置300は、ユーザが操作するコンピュータである。ユーザは通信装置300を操作して、検索対象の人物が写る画像(以下、クエリ画像)を指定し、検索装置100に対して、検索対象の人物が写る可能性の高い画像の検索を要求する。なお、クエリ画像は、例えばカメラ200が撮影した映像中の一つの画像であっても良いし、他のカメラが撮影した画像であってもよい。通信装置300は、パーソナルコンピュータ(以下、PC)、携帯電話、スマートフォン、タブレットPCなどである。
検索装置100は、カメラ200から取得した映像を管理したり、映像中から所望の画像を検索するためのコンピュータである。例えば、検索装置100はサーバーである。検索装置100は、カメラ200から取得した映像を解析し、各画像における人物領域を少なくとも2つの画像領域に分割する。そして、検索装置100は、各画像領域から、色情報(色ヒストグラム)などの特徴情報を生成する。そして、検索装置100は、画像領域ごとに、特徴情報をデータベースに格納する。
そして、検索装置100は、通信装置300から、検索対象となる人物が写ったクエリ画像を含む検索要求を受信した場合には、クエリ画像における人物領域を少なくとも2つの画像領域に分割する。そして、検索装置100は、クエリ画像の各々の画像領域から生成した特徴情報と、データベースに格納された特徴情報を照合する事で、クエリ画像に写った人物と類似する服装の人物が写った画像を検索する。なお、上記のように予めデータベースを作成しておくことに限られず、検索装置100は、検索要求を受信した後に、カメラから受信した映像を対象に、リアルタイムで、検索対象の人物と類似する服装の人物が写る画像の検索を行ってもよい。
このように、検索装置100は、検索要求に含まれるクエリ画像の人物領域を少なくとも2つの画像領域に分割し、各々の画像領域の特徴情報を生成する。そして、検索装置100は、随時カメラ200から受信した映像から特徴情報を生成し、クエリ画像から生成された特徴情報と照合する。したがって、検索装置100は、リアルタイムで人物の捜索や追跡を行う事も可能である。
図7は、検索装置の機能ブロック図である。検索装置100は、通信部101、制御部110、映像記憶部111、分割情報記憶部112、特徴情報記憶部113を有する。
通信部101は、ネットワークNを介して、カメラ200や通信装置300と情報の送受信を行う。例えば、カメラ200から複数の画像(画像情報)からなる映像(映像情報)を受信する。また、通信部101は、通信装置300から検索要求を受信し、検索要求に対する検索結果を通信装置300に送信する。
制御部110は、検索装置100の各種処理を制御する。さらに、制御部110は、検出部102、決定部103、分割部104、生成部105、特定部106を含む。
検出部102は、画像から注目すべき物体を検出する。本実施例においては、検出部102は、画像から人物を検出する技術を用いて、画像から特に人物を検出し、当該人物を含む人物領域を設定する。なお、画像は、カメラから受信した映像における各フレーム画像や、検索要求に含まれるクエリ画像である。
決定部103は、撮影画像における被写体の見え方を考慮したパラメータを決定する。さらに、決定部103は、所定の比率を当該パラメータで補正した分割比率を決定する。なお、本実施例においては、予め、当該パラメータにより補正された分割比率を予め準備する事で、決定部103は、準備された分割比率の中から、適当な分割比率を決定する。
撮影画像における被写体の見え方の違いは、先に述べたとおり、カメラ200が設置された高さ、カメラ200の傾き、およびカメラ200から被写体(人物)までの距離により生じる。例えば、決定部103は、当該見え方を考慮することで、第一の位置関係で撮影された被写体と第二の位置関係で撮影された該被写体を、各画像において、上半身と下半身に各々分割することができる。
決定部103によって決定された分割比率にて人物領域を分割する事で、図4Aや図4Bに示した、人物とカメラとの位置関係が異なるような場合でも、分割後の画像領域各々は、被写体(人物)の概ね同じ範囲を含むようになる。詳細については後述する。
分割部104は、前記パラメータに応じた分割比率により、人物領域を少なくとも2つの画像領域に分割する。なお、本実施例においては、分割部104は、人物領域(頭部と体部分を含む)を、分割比率に応じて、2つの画像領域(上部領域および下部領域)に分割するとして説明する。しかし、人物領域から頭部部分を除外して、少なくとも2つの画像領域に分割するとしてもよい。
生成部105は、分割された画像領域各々について、特徴情報を生成する。なお、本実施例では、特徴情報は、色情報であって、特に色ヒストグラムとして説明する。よって、生成部105は、各画像領域に含まれる各画素のRGBの値を用いて、各画像領域の色ヒストグラムを生成する。ここで、処理対象の画像が、カメラ200から取得した画像である場合には、生成された特徴情報は、各画像領域の情報とともに、特徴情報記憶部113に格納される。一方、処理対象の画像が、クエリ画像である場合には、生成された特徴情報は、各画像領域の情報とともに、特定部106に出力される。
特定部106は、各画像領域についての特徴情報に基づいて、映像の中から、注目すべき物体と類似する物体が写った画像を特定する。具体的には、特定部106は、クエリ画像における各画像領域(上方領域および下方領域)の色ヒストグラムと、特徴情報記憶部113の格納情報とを照合する。そして、特定部106は、クエリ画像における上方領域の色ヒストグラムと一定以上の類似度を有する上方領域、かつ、クエリ画像における下方領域の色ヒストグラムと一定以上の類似度を有する下方領域を含む画像を特定する。つまり、特定部106は、当該画像に、クエリ画像によって示される検索対象の人物と類似する服装の人物が写っていることを特定する。
映像情報記憶部111は、カメラ200から取得した映像にかかる映像情報を記憶する。例えば、映像情報記憶部111は、映像を構成する各画像について、画像情報を記憶する。
分割情報記憶部112は、分割位置を決定する際に参照される分割情報を記憶する。詳細は後述する。なお、カメラ200が複数台存在する場合には、設置条件(高さや俯角)が異なるカメラ200毎に分割情報が記憶される。
特徴情報記憶部113は、各画像における人物領域を分割した画像領域ごとに、当該画像領域の特徴情報を記憶する。詳細は後述する。
図8は、検索装置の処理フロー(その1)である。図8に示す処理は、特徴情報記憶部113への登録処理である。
通信部101がカメラ200から映像(映像情報)を受信する(Op.1)と、制御部110は以下の処理を実行する。また、制御部110は、受信した映像を構成する複数のフレーム(画像)各々の画像情報を、映像記憶部111に記憶する。なお、制御部110は、全ての画像情報を格納するのではなく、一定フレーム間隔ごとに、画像情報を映像記憶部111に格納するとしてもよい。
図9は、映像記憶部のデータ構成例である。映像記憶部111は、画像を識別する画像識別情報と、画像情報とを対応付けて記憶する。さらに、映像記憶部111は、当該画像情報の撮影時刻や、撮影したカメラの識別情報なども併せて記憶してもよい。
次に、検出部102は、処理対象の画像(画像情報)から、人物領域を検出する(Op.2)。検出部102は、例えば、特開2014−93023号公報に開示された手法を利用して人物領域を検出する。具体的には、検出部102は、AdaBoostやサポートベクタマシーン等の識別器を用いて、画像から人物を検出して、当該人物を含む領域を人物領域に設定する。
また、画像から人物を検出する手法としては、他に、Navneet Dalal、 and Bill Triggs、 “Histograms of oriented gradients for human detection”、IEEE Conf. on Computer Vision and Pattern Recognition、Vol.1、pp.886−893、2005や、山内悠嗣ら、「画像からの統計的学習手法に基づく人検出」電子情報通信学会論文誌、vol.J96−D、No.9、pp.2017−2040に開示された手法を利用してもよい。
図10は、人物領域およびその位置を説明するための図である。図10において、水平方向をx座標、縦方向(高さ方向)をy座標としている。領域60が、画像6から検出された人物領域である。人物領域60は、例えば、左上の座標P1(x1,y1)と右下の座標P2(x2,y2)とで表される矩形領域となる。なお、画像6においては、左上端の画素が、原点O(0,0)となる。
図8に戻り、検出部102は、人物の全身が写っているかを判定する(Op.3)。当該処理によって、一部分がカメラ200により撮影されていない人物や、他者や他の物体の陰に存在する人物を、処理の対象から除外する(Op.3No)。なお、特開2014−93023号公報に開示の手法のように、予め人物の全身の特徴を学習した識別器を利用する場合には、Op.2の時点で全身が写る人物の人物領域のみが検出される。よって、その場合には、Op.3は割愛される。
次に、人物の全身が写っている場合(Op.3Yes)、決定部103は、人物領域の分割比率を決定する(Op.4)。本実施例においては、決定部103は、事前に準備された分割情報の中から、処理対象の画像(図10の場合は画像6)における人物領域の位置に応じた分割位置を決定する。なお、人物領域の位置は、例えば、図10に示す、人物領域60の右下の座標P2(x2、y2)である。
図11Aおよび11Bは、分割情報を説明するための図である。図11Aは、分割情報記憶部のデータ構成例である。なお、図11Aは、人物領域を2つの画像領域に分割する場合の分割情報記憶部112の例である。
分割情報記憶部112は、セグメント識別情報、座標1、座標2および分割比率を対応付けた分割情報を記憶する。カメラ200が複数台存在する場合、分割情報記憶部112は、カメラ200毎にこのような分割情報を記憶する。この場合、各分割比率には、カメラ識別情報が記憶される。このカメラ識別情報は、上述したように複数台のカメラ200のなかで設置条件が同一であるカメラを示す情報である。分割情報記憶部112は、カメラ識別情報に対応付けて分割比率の値を別途記憶する。なお、カメラ200が複数台の場合であっても、分割情報記憶部112は、分割比率の値が記憶された図11Aに示す分割情報をカメラごとに記憶するようにしてもよい。
セグメント識別情報は、画像を複数のセグメントに分割した場合の各セグメントを識別する情報である。座標1は、セグメント識別情報で示されるセグメントの左上の座標である。座標2は、セグメント識別情報で示されるセグメントの右下の座標である。これら座標1および座標2の各座標値は、所定点(例えば、画像の左上端の画素)を原点とした画像全体における絶対座標値によって示される。図11Bは、セグメントを説明するための図である。セグメントは、画像7の全体を等サイズで分割した単位領域である。図11Bの例では、セグメント71、セグメント72、セグメント73を含む12個の単位領域が設定されている。単位領域への分割数は、例えば、カメラの設置条件やカメラの仕様によって決まる撮影範囲に応じて適宜設定すればよい。
図11Aの例では、セグメント71を識別するセグメント識別情報「1_1」に対応付けて、当該セグメントの左上の座標(0,0)と右下の座標(xs1,ys1)が、各々座標1および座標2として、記憶されている。さらに、セグメント73を識別するセグメント識別情報「3_3」に対応付けて、当該セグメントの左上の座標(xs2,ys2)と右下の座標(xs3,ys3)が、各々座標1および座標2として、記憶されている。
次に、分割比率は、当該セグメントに人物領域の位置(例えば、右下座標P2)が含まれる場合に、当該人物領域の分割に利用される比率である。分割比率「0.50」とは、人物領域のy方向の長さを1としたときの、人物領域の下端から0.50に相当する高さdy(y方向の位置)で分割されることを示している。なお、人物領域を3つの画像領域に分割する場合には、比率情報は、a:b:cとなる。分割情報の生成方法については、後述する。
このように、セグメントごとに分割比率を定義する事で、カメラ200と被写体(人物)との位置関係による被写体の見え方を考慮して、分割比率を決定することができる。図11Aに示す通り、図11Bに示すセグメント71については、分割比率は0.50であり、これは、人物領域の位置がセグメント71に含まれる場合には、当該人物領域を50(上方):50(下方)の比率で、上下に分割することを示す。また、セグメント73については、分割比率は0.34であり、これは、人物領域の位置がセグメント73に含まれる場合には、当該人物領域を66(上方):34(下方)の比率で、上下に分割することを示す。
図12A、12B、12Cおよび12Dは、分割比率と見え方との関係を説明するための図である。図12Aは、図5Aに示す画像4と図11Bで示すセグメントを重畳して示した図であり、図12Bは、図5Bに示す画像5と図11Bで示すセグメントを重畳して示した図である。なお、図12Aおよび図12Bでは、セグメントの境界を点線で示している。図12Cは、図12Aの画像における人物領域の拡大図である。図12Dは、図12Bの画像における人物領域の拡大図である。
図12Aに示す通り、画像4においては、人物領域はセグメント73に含まれる。よって、セグメント73の分割比率「0.34」を利用して、図12Cに示すように、66(上方):34(下方)の比率で、人物領域は、2つの画像領域81、82に分割される。
一方、図12Bに示す通り、画像5においては、人物領域はセグメント71の位置に検出される。よって、セグメント71の分割比率を利用して、図12Dに示すように、50(上方):50(下方)の比率で、人物領域は、2つの画像領域83、84に分割される。
このように分割されることで、同一人物が、異なる位置で撮影された場合でも、各画像における人物領域の、上方領域に含まれる人物の範囲と、下方領域に含まれる人物の範囲が概ね同様となる。よって、各々の画像から、上方領域および下方領域各々について色ヒストグラムを生成した場合、同一人物であれば、一方の画像をクエリ画像としたときに、他方の画像を検索することが可能となる。
図8に戻り、人物領域の位置に応じて決定された分割比率を用いて、分割部104は、人物領域を少なくとも2つの画像領域に分割する(Op.5)。例えば、分割比率を用いて、分割位置(y座標)を決定し、分割位置にて人物領域を2つの画像領域に分割する。なお、分割比率zに基づき決定される分割位置ydは、以下の式1によって求められる。図10に示した通り、y1は人物領域のy座標の最小値、y2は人物領域のy座標の最大値である。

Figure 0006589321
そして、生成部105は、各画像領域の色情報を用いて、色ヒストグラムを生成する(Op.6)。色ヒストグラムは、R,G,Bごとについて生成されてもよいし、RGBの組み合わせごとに、該当する画素数を計上してもよい。なお、生成部105は、画像領域の画素数を固定の値に正規化した色ヒストグラムを生成する。
そして、生成部105は、特徴情報記憶部113に、画像領域ごとの色ヒストグラムを記憶する(Op.7)。図13は、特徴情報記憶部113のデータ構成例である。特徴情報記憶部113は、画像識別情報、人物領域識別情報、画像領域識別情報、座標1、座標2、色ヒストグラム(特徴情報)を対応付けて記憶する。
画像識別情報は、映像を構成する画像を識別する情報である。なお、当該画像識別情報をキーに映像記憶部111を検索する事で、特定の画像の画像データを取得することができる。人物領域識別情報は、1つの画像に写った人物を互いに識別する情報である。例えば、一つの画像に複数の人物領域が検出された場合には、各人物領域を一意に識別するために内容が異なる人物領域識別情報が検出部102によって付与される。
画像領域識別情報は、人物領域を少なくとも2つの画像領域に分割した場合に、各画像領域を識別するための情報である。本実施例においては、上方領域には画像領域識別情報「1」が付与され、下方領域には画像領域識別情報「2」が付与される。よって、人物領域識別情報と画像領域識別情報を組み合わせることで、1つの画像におけるどの人物領域のどの画像領域であるのかが特定される。
座標1および座標2は、各画像領域の位置を示す情報であって、例えば、各画像領域の左上と右下の座標である。この座標1および座標2は、上述した図11Aの座標1および座標2と同様の座標系での座標値とすればよい。例えば、図13には、左上座標(x1,y1)と右下座標(x2,y2)で表される人物領域が、y座標「yd1」の位置で上方領域と下方領域の2つの画像領域に分割された場合の例が示されている。
色ヒストグラムは、各画像領域の色ヒストグラムの情報である。このように、各画像における人物領域の画像領域ごとに、特徴情報である色ヒストグラムが対応付けて記憶される。
以上の処理によって、映像(それに含まれる画像)から特徴情報が生成され、特徴情報は特徴情報記憶部113に格納される。よって、本実施例においては、特徴情報記憶部113を検索する事で、検索対象の人物と類似する服装の人物が写った画像を検索することができる。
なお、カメラ200から随時取得した映像を対象に検索を行う場合には、図8に示す処理のうち、Op.7が実行されない。その代わりに、クエリ画像から生成された特徴情報と、随時取得した映像から生成された特徴情報との照合が実施される。
次に、図14は、検索装置の処理フロー(その2)である。図14に示す処理は、検索処理である。通信部101は、通信装置300から、クエリ画像を含む検索要求を受信する(Op.11)。なお、クエリ画像はカメラ200から取得した映像のうちの一枚であってもよいし、他のカメラで撮影された画像であってもよい。前者の場合は、特定の人物の追跡が可能となる。また後者の場合は特定の人物の検索が可能となる。
そして、検出部102は、クエリ画像から、人物領域を検出する(Op.12)。検出部102による人物領域の検出手法については、Op.2と同様である。決定部103は、人物領域の分割比率を決定する(Op.13)。決定部103による分割比率の決定手法は、Op.4と同様である。つまり、決定部103は、人物領域の右下の座標が含まれるセグメントに対応する分割比率を、分割情報記憶部112から取得する。
決定された分割比率を用いて、分割部104は、人物領域を少なくとも2つの画像領域に分割する(Op.14)。分割部104による分割処理は、Op.5と同様である。生成部105は、各画像領域の画像情報を用いて、色ヒストグラムを生成する(Op.15)。生成部105による色ヒストグラムの生成処理は、Op.6と同様である。
次に、特定部106は、Op.6にて、クエリ画像から生成された、各画像領域の色ヒストグラムを用いて、特徴情報記憶部113を検索する(Op.16)。この際、特定部106は、分割部104によってクエリ画像から分割生成された各画像領域である上方領域と下方領域とを区別して検索を行う。具体的には、上方領域については、特徴情報記憶部113において画像領域識別情報「1」に対応付けられた色ヒストグラムを対象に、上方領域の色ヒストグラムを用いた照合が行われる。一方、下方領域については、特徴情報記憶部113において画像領域識別情報「2」に対応付けられた色ヒストグラムを対象に、下方領域の色ヒストグラムを用いた照合が行われる。
クエリ画像由来の色ヒストグラムと特徴情報記憶部113に記憶された色ヒストグラムとの間の類似度が一定以上であれば、特定部106は、クエリ画像に写った人物の服装と類似する人物が写った画像であると判定される。なお、色ヒストグラム間の類似度の算出においては、例えば、特開2009−199322号公報などに開示された手法が利用される。
特徴情報記憶部113において、複数の画像領域全てにおいて、クエリ画像の各画像領域との類似度が一定以上である人物領域が特定された場合、特定部106は、対応する画像識別情報をキーに、映像記憶部111から、対応する画像情報を取得する。
そして、特定部106は当該画像情報を含む検索結果を生成し、通信部101は、検索結果を通信装置300へ送信する(Op.17)。なお、複数の画像領域全てにおいて、クエリ画像の各画像領域と類似する人物領域が特定されなかった場合、特定部106は、検索対象の人物と類似する服装の人物が写った画像はないとして、その旨を示す検索結果を、通信部101に送信させる。
以上の通り、検索装置100は、クエリ画像に対しても、カメラ200と被写体との位置関係を考慮して、人物領域を分割することができる。言い換えると、本実施例の分割比率を用いることで、カメラと被写体との位置関係によって生じる被写体の見え方の違いを考慮して、被写体における概ね同じ範囲が含まれるように人物領域が分割される。
よって、従来の技術と比較して、より絞り込まれた検索結果をユーザに提示できるとともに、同一人物が撮影されているにもかかわらず、その画像が検索結果から漏れてしまうことを防ぐことができる。クエリ画像は、カメラ200またはカメラ200と同様の設置状況のカメラにより撮影されていることが好ましい。なお、カメラ200とは多少異なる設置状況で設置されたカメラにより撮影された画像がクエリ画像として使用されてもよい。それによっても、検索結果としては一定の効果が得られる。
[実施例1における分割情報の生成方法(その1)]
次に、第一の実施例における分割情報について、その生成方法を幾つか説明する。まずは、ある人物(同一人物)が特定のカメラ200と様々な位置関係で撮影されたときの、ある人物の各位置に応じた、当該人物の見え方の相対関係を学習することで、分割情報を生成する方法について、説明する。
カメラを設置した作業者や当該監視システムの管理者などは、カメラ200の撮影範囲を動き回る。このとき、カメラ200は、カメラ200と作業者(もしくは管理者)との位置関係が様々である複数の画像を含む映像を撮影する。そして、検索装置100は、複数の画像各々において、同一人物の位置ごとに、当該人物がどのように見えるかを、画像の輝度変化から推測し、推測した結果を利用して分割情報を生成する。なお、当該学習処理は、検索装置100の制御部110により実行される。
図15A、15B、15Cおよび15Dは、分割情報の生成方法(その1)を説明するための図である。図15Aに示す画像90と図15Bに示す画像92には、同一人物91および93が写っている。ただし、これら2枚の画像は、図5Aおよび図5Bと同様に、カメラ200と被写体(人物91および93)との位置関係が異なった状態で撮影されたものである。また、図15Aおよび図15Bは、水平方向をx座標、高さ方向をy座標としている。
図15Cは、画像90における人物領域の拡大図と、y方向の輝度変化を示す図である。図15Dは、画像92における人物領域の拡大図と、y方向の輝度変化を示す図である。なお、人物領域は、先に説明した手法により検出されているものとする。また、図15Cおよび図15Dにおいては、輝度変化を示す線を簡略化して示してある。
y方向の輝度変化は、各y座標のx方向に配列した複数画素の輝度値の和について、隣接するy座標間での差分を求める事で得られる。そして、制御部110は、輝度変化が最大となるy座標を特定する。例えば、頭部と身体との境目(94および96)や、Tシャツとズボンの間である腰の位置(95および97)が特定されることが予測される。具体的に、まず、制御部110は、以下の式2および式3により、輝度変化が大きい位置ymaxを求める。
Figure 0006589321
Figure 0006589321
F(y)は、あるy座標における、水平方向(x方向)に配列した画素の輝度値の和である。x,xはそれぞれ人物領域の左端および右端のx座標、I(x,y)は座標(x,y)における画素、M(x,y)は、人物領域のマスク情報を表す。Aは集計範囲を示しており、例えば、10ピクセルなど所定の値が代入される。M(x,y)は、座標(x,y)が人物領域の中で、人物の相当する画素には「1」となり、背景に相当する画素の場合には「0」に設定される。
本実施例においては、同一人物が撮影された複数の画像のうちの第一の画像において輝度変化が最大となるy座標ymaxは、同一人物が同じ服装をしている限り、第二の画像において輝度変化が最大となるy座標ymax’と本来対応することが予測される。よって、カメラ200と人物の位置関係を反映した人物領域の位置ごとに、特徴的な位置を求めることで、カメラと人物との位置関係によって生じる人物の見え方の違いを考慮した、各画像における人物の特徴的な位置の相対関係が把握される。なお、特徴的な位置の一例は、輝度変化が最大となるy座標である。
次に、制御部110は、以下の式4にymaxを代入することで、分割比率zを算出する。また、y2は人物領域のy座標のうち最大値、y1は人物領域のy座標のうちの最小値である。このように、カメラと被写体との位置関係によって生じる被写体の見え方の違いを考慮した特徴的な位置を利用して、位置関係毎に、被写体の画像領域を当該特徴的な位置で分割するための比率zを求めることができる。
Figure 0006589321
ここで、図15Cや図15Dに示した通り、輝度変化が大きくなる位置としては、服の切れ目(95および97)のほかに、頭部と身体との間(94および96)も挙げられる。よって、頭部と身体の間ではなく、服の切れ目(95および97)に基づき分割比率zが算出されるように、制御部110は、輝度変化が大きな2つのy座標を特定し、そのうち、より大きなy座標(より下に存在するy座標)を、ymaxとして採用するとしてもよい。また、予め頭部部分を除外した状態で身体部分のみを含む人物領域が検出されている場合には、制御部110は、輝度変化が最大となるymaxを求める。
さらに、足首(靴とズボン等との間)の部分でも輝度変化が大きくなることが予測されるので、制御部110は、輝度変化が大きな3つのy座標を特定し、その中で中間に存在するy座標を、ymaxとして採用してしてもよい。また、予め頭部部分を除外した状態で身体部分のみを含む人物領域が検出されている場合には、制御部110は、輝度変化が大きな2つのy座標を特定し、そのうち、より小さなy座標(画像上でより上に存在するy座標)を、ymaxとして採用するとしてもよい。
そして、制御部110は、人物領域の位置(例えば、右下の座標)が当てはまるセグメントを特定し、分割情報記憶部112に、当該セグメントと対応付けて、分割比率zを格納する。なお、同一セグメントに当てはまる人物領域が複数の画像において検出された場合、各画像から算出された分割比率zの平均値を求め、最終的な分割比率zとしてもよい。
このように、カメラ200と被写体との位置関係ごと、言い換えると、画像における人物領域の位置ごとに、制御部110は、輝度変化が大きい位置(y座標)を求める。これらは各画像間で、同一人物の身体における同じ位置に対応すると推測することができる。よって、例えば、着衣の境目に相当する腰の位置は、ある人物がある位置に存在する場合には、ある高さに投影され、ある人物が他の位置に存在する場合には、他の高さに投影されることが分かる。画像における人物領域の位置ごとに、輝度変化の大きな位置を取得する事で、カメラ200と被写体との位置関係によって生じる見え方の違いを、相対的に把握し、これを反映した分割比率zを決定することができる。なお、人物領域を3以上の画像領域に分割する場合には、制御部110は、上記手法にて、輝度変化が閾値以上となる位置(y座標)を2以上特定するとしてもよい。そして、制御部110は、特定された2以上の位置に基づき、分割比率a:b:cを、人物領域の位置毎に算出する。
なお、映像を構成する複数の画像やクエリ画像から検出した人物領域を、分割情報を用いて分割する場合には、学習段階の人物(作業者)と異なる人物が写った画像を対象に処理を行う事になる。この場合に、作業者とは身体的な特徴が異なることから、必ずしも腰の位置で分割されるとは限らない。しかし、これは問題ではない。
つまり、カメラ200と被写体との位置関係によって生じる被写体の見え方の違いを考慮した分割比率zが予め学習されているので、作業者とは異なる人物であっても、同じ人物であれば、位置関係によらず、当該人物におけるある位置で分割されるためである。よって、本実施例に係る検索装置100は、図5A乃至Dを用いて説明した問題を解消して、同一人物が検索結果から除外されることを防ぐことができる。
次に、分割情報の生成方法(その1)についての処理フローを説明する。図16は、分割情報の生成方法(その1)の処理フローである。
制御部110は、カメラ200から映像を取得する(Op.21)。そして、制御部110は、映像中の一つの画像を処理対象に設定し、処理対象の画像から人物領域を検出する(Op.22)。なお、Op.22の処理は、制御部110の中の検出部102によって実行され、Op.2と同様の処理である。
次に、制御部110は、上記の式3および式4を用いて、y方向で、人物領域の輝度変化が大きな位置ymaxを特定する(Op.23)。そして、制御部110は、各画像について、処理対象の画像における人物領域の分割比率zを算出する(Op.24)。なお、Op.22乃至Op.24は、画像各々を処理対象として、それぞれ実行される。
ここで、算出された各画像の分割比率zは、一時的に、学習用テーブル記憶部に記憶される。なお、本実施例における検索装置100は、さらに学習用テーブル記憶部(図7に不図示)を有する。図17は、学習用テーブル記憶部のデータ構成例(その1)である。学習用テーブル記憶部には、画像識別情報、人物領域識別情報、座標1、座標2、分割比率zが対応付けて記憶される。そのような対応情報が学習用テーブル記憶部における1つのレコードとなり、対応情報が複数個存在すれば学習用テーブル記憶部にはそれらに対応する複数のレコードが記憶される。制御部110は、映像に含まれる各画像の各人物領域について、人物領域の位置を示す情報(座標1および座標2)と、分割比率zを格納する。
画像識別情報は、映像に含まれる複数の画像を互いに識別する情報である。人物領域識別情報は、1つの画像に含まれる1以上の人物領域を互いに識別する情報である。座標1は、人物領域の左上の座標である。座標2は、人物領域の右下の座標である。これら座標1および座標2の各座標値は、画像の左上端の画素を原点とした画像全体における絶対座標値によって示される。分割比率zは、対応する人物領域全体に対する、輝度変化が最大となる位置ymaxまでの長さの比率である。
図16に戻り、制御部110は、すべての画像各々について、分割比率zを算出した後、セグメントごとに分割比率zを決定する(Op.25)。例えば、制御部110は、学習用テーブル記憶部から、図11Aおよび11Bに示した各セグメントの範囲に人物領域の右下(座標2)が含まれるすべてのレコードを特定する。そして、特定したすべてのレコードに記憶されている分割比率を対象にその平均を算出する事で、制御部110は、当該セグメントに適用する分割比率zを決定する。
そして、制御部110は、当該セグメントのセグメント識別情報と分割比率zを含む分割情報を生成する(Op.26)。そして、制御部110は、分割情報記憶部112に、分割情報を格納する(Op.27)。
以上の通り、監視システムの運用前などの段階で、作業者の映像を用いて分割情報が生成される。検索装置100は、人物検索時やカメラから映像を取得したタイミングで、人物領域の位置に応じて適応的に分割比率zを決定し、人物領域を、人物検索に適した位置で、少なくとも2つの画像領域に分割することができる。
[実施例1における分割情報の生成方法(その2)]
次に、分割情報の生成方法(その2)について、説明する。第一の実施例における分割情報の生成方法(その2)では、制御部110は、カメラ200の設置が終了した後の一定期間に撮影された映像であって、かつ、複数の通行人が写った映像を用いて、分割情報を生成する。
分割情報の生成方法(その2)においては、学習に利用する映像に複数の人物が写っているという点のみが、分割情報の生成方法(その1)と異なる。よって、様々な服装の人物が写った映像を取得し、この映像(複数の画像)を対象に、各セグメントにおける平均的な分割比率zを決定する。
[実施例1における分割情報の生成方法(その2)の変形例1]
分割情報の生成方法(その2)においては、種々の変更も可能である。まず、セグメントごとの分割比率zを決定する際に、信頼度を利用する変形例1について説明する。図18は、分割情報の生成方法(その2)の変形例1の処理フローである。分割情報の生成方法(その1)と同様の処理については、図16と同様の符号を付し、説明を省略する。
処理対象の画像に対して分割比率zを算出した後に、制御部110は、当該分割比率zの信頼度Rを算出する(Op.31)。信頼度Rは、輝度変化が最大となる位置ymaxにおける、F(y)の変化量を用いて、以下の式5により得られる。
Figure 0006589321
式5のとおり、位置ymaxの付近でy方向により大きな輝度変化があるほど、信頼度Rは大きな値となる。信頼度Rは、その値が大きいほど信頼度が高いことを示す。なお、Rは0から1の範囲の値をとる。また、Vmaxは、輝度変化の変化量の最大値を表す。例えば、RGBが0から255までを取る3次元ベクトルの場合には、集計範囲Aに対して、Vmaxは255A・3(1/2)となる。
図19Aおよび19Bは、信頼度を説明するための図である。図19Aには、白色のTシャツに黒色のズボンを着用した人の人物領域と、当該人物領域におけるy方向の輝度変化が示されている。図19Aでは、上半身と下半身の間に大きな輝度変化D1が生じていることがわかる。一方、図19Bには、白色のTシャツにベージュ色のズボンを着用した人の人物領域と、当該人物領域におけるy方向の輝度変化D2が示されている。この場合、白色の上半身とベージュ色の下半身の間に生じる輝度変化D2は、図19Aにおける輝度変化D1と比較して小さい。
図19Bのような場合には、上半身や下半身の境目以外にも、服の模様や陰影によって生じた輝度変化の方が、上半身や下半身の境目よりも大きくなる可能性がる。この場合に得られたymaxを用いて分割比率zを決定すると、最終的なセグメントごとの分割比率zの精度が低下する恐れがある。
そこで、制御部110は、図19Bのような場合には、図19Aと比較して小さな信頼度を与える。よって、各セグメントの分割比率zを決定する際に、信頼度Rによる重みづけを行う事で、信頼性の高い情報をより大きく反映して、分割比率zを決定することができる。
図20は、学習用テーブル記憶部のデータ構成例(その2)である。変形例1においては、図17に示した学習用テーブル記憶部の対応情報に、さらに信頼度Rの情報が対応付けて記憶される。
そして、図18に戻り、制御部110は、各セグメントの分割比率zを決定する(Op.32)。制御部110は、信頼度Rも加味して、セグメントごとの分割比率zを決定する。
例えば、制御部110は、各セグメントに対応するレコードを学習用テーブル記憶部から抽出し、抽出されたレコードの分割比率zと信頼度Rとを乗算した上で、平均値を算出する。また、制御部110は、図21のように、重みづけされた分割比率zの頻度を計測し、ヒストグラムを生成してもよい。そして、制御部110は、頻度が最大となる分割比率zを、当該セグメントの分割比率zとして決定する。図21は、信頼度で重みづけされた分割比率のヒストグラムである。通常、ある分割比率zに当てはまるような事象が1つ存在すると、ヒストグラムにおいて、当該分割比率zのビンには1票の投票が実施される。一方、本実施例においては、信頼度Rに応じた重みづけ投票が行われるため、信頼度R分の票数(実際は0から1)が当該分割比率zのビンに投票されることになる。
さらに、制御部110は、信頼度Rをばらつきとして利用し、分散付投票を行う事で、投票の最大値を取る比率を分割比率zとしてもよい。例えば、制御部110は、以下の式6を用いて、分散付投票を行ったうえで、ヒストグラムを生成する。そして、ヒストグラムにおいて、頻度が最大となる分割比率zを、当該セグメントの分割比率zとして決定する。

Figure 0006589321

Figure 0006589321

Figure 0006589321

Figure 0006589321
なお、rは、ヒストグラムの投票位置であって、0から1までの値である。なお、ヒストグラムの幅は、0.05や0.1など適切な値が設定される。また、μは、各人物領域から得られた分割比率である。さらに、σは、投票の分散具合を示す値であって、信頼度Rを用いて、例えば式7、式8および式9などから得られる。
[実施例1における分割情報の生成方法(その2)の変形例2]
さらに、制御部110は、分割情報の生成方法(その2)においては、以下の変形例2を採用して、分割情報を生成してもよい。制御部110は、例えば季節や時間帯、曜日などごとに、複数の分割情報を生成する。この場合、制御部110は、図8や図14に示す各種処理を実行する際に、処理対象となる画像(映像中の画像またはクエリ画像)が撮影された季節や時間帯、曜日などに応じて、参照する分割情報を適応的に切り替える。
また、制御部110は、人物の身長に応じて、複数の分割情報を生成するとしてもよい。この場合、制御部110は、学習用テーブル記憶部から、あるセグメントに人物領域の位置(右下座標)が含まれるレコードを抽出する。そして、抽出したレコードを対象に、セグメントごとに、人物領域の高さのクラスタリングを実行する。人物領域の高さは、座標1と座標2のy座標の差分である。
そして、制御部110は、クラスタリングされたグループごとに、分割比率zを決定する。身長によって、身体的な特徴が変わる可能性があるので、身長ごとに、分割情報を生成することで、より検索の精度を向上させることができる。
なお、クラスタリングにより生成された各クラスの情報は、別途、分割情報記憶部112に記憶される。そして、図8や図14の処理においても、制御部110は、当該人物領域の高さに応じて、人物領域が含まれるセグメントごとにおけるクラスを特定し、当該クラスに対応する分割情報を利用する。
[実施例2]
実施例1における検索装置100は、事前に学習した分割情報を利用して、分割比率zを決定する。一方、実施例2における検索装置400は、カメラの高さや俯角などをパラメータとする式を用いて、人物とカメラの位置関係によって生じる人物の見え方を考慮した分割比率zを決定する。
図22は、実施例2に係る検索装置の機能ブロック図である。検索装置400は、通信部101、制御部410、映像記憶部111、特徴情報記憶部113を有する。実施例1に係る検索装置100と同様の処理を行う処理部については、同様の符号を付し、説明を省略する。なお、本実施例においては、分割情報を事前に学習することはないため、分割情報記憶部112は不要となる。
制御部410は、実施例1とは異なる手法で分割比率を決定する決定部403を有する。決定部403による分割比率の決定方法について、以下説明する。ただし、より詳細には、本実施例に係る決定部403は、カメラ200と被写体との位置関係を考慮した分割比率を反映した分割位置を適応的に決定する。
図23Aおよび23Bは、第二の実施例に係る、分割比率を反映した分割位置を決定する方法を説明するための図である。図23Aは、カメラの設置条件と地上座標系を説明するための図である。カメラ200は、地上から高さHに、俯角θで設置されている。なお、当該カメラ200の焦点距離はfである。
地上座標系は、カメラから見て、奥行き方向(紙面左右方向)にZ軸、上下方向(紙面上下方向)にY軸、左右方向(紙面奥行き方向)にX軸が設定された3次元空間である。よって、人物500は、地上座標系における位置P(X1,Y1,Z1)で表される。なお、位置Pは人物500の足元の位置であって、Y1は0であるとする。
つぎに、図23Bは、図10と同様の画像6を示す。ただし、人物領域60は、人物500に対応する。なお、図10と同様、人物領域60は、左上の座標P1(x1,y1)およびP2(x2,y2)で表される。
実施例2に係る分割比率z’は、式4と同様に、以下の式10により得られる。なお、y1、y2は、画像6から人物領域60を検出する事で得られる。また、ydivは、カメラ200と被写体との位置関係を考慮して、地上座標系の人物500を一定の割合(1−r:r)で分割するための分割位置(y座標)である。つまり、ydivの位置で人物領域60を分割すると、カメラ200と被写体(人物500)との位置関係の違いを吸収して、人物500が1−r:rの割合で分割されたように、人物領域60が分割される。
Figure 0006589321
ここで、実施例1では、人物領域の位置に応じて決定した分割比率zを用いて、式1から、分割比率zで分割するような高さ(yd)を決定した。一方、実施例2では、直接的に、分割位置ydivを求めることができる。以下、ydivを求めるための手法を説明する。
まず、地上座標系における座標(X,Y,Z)から画像上での投影位置(x,y)への変換式は、以下の式11および式12で表される。
Figure 0006589321
Figure 0006589321
したがって、式12に基づき、ydivは以下の式13で表される。なお、人物500の身長hは、以下の式14により求めることができる。また、rは、適宜設定される。例えば、地上座標系に存在する人物500を上下に0.5:0.5で分割したように、画像における人物領域60を分割したい場合には、rは0.5となる。
Figure 0006589321
Figure 0006589321
なお、地面の高さ(Y座標)を0とする地上座標系においては、人物500の足元の位置PのY1が0となる。そして、図23Aにおける人物500の位置Pは、図23Bにおける画像6上のP2(x2,y2)に対応するとする。この場合、式12にY=Y1=0、y=y2、Z=Z1を代入して、Z1について解くことで、以下の式15が得られる。
Figure 0006589321
式14および式15を、式13に代入する事で、決定部403は、分割位置ydivを得ることができる。このようにして得られたydivにより、カメラと人物との位置関係によらず、地上座標系に存在する人物を1−r:rで分けるように、人物領域を分割することができる。
よって、実施例2の検索装置400は、事前に分割比率を学習することなく、カメラの設置情報(俯角θや高さH)が入力されると、取得した画像から検出した人物領域の位置に基づき、適応的に分割比率を反映した分割位置を決定することができる。
[特徴情報記憶部への特徴情報登録処理の変形例]
次に、特徴情報登録処理の変形例について説明する。なお、以下の変形例は、実施例1および実施例2のいずれにも適用可能である。また、生成された特徴情報が予め特徴情報記憶部に登録される場合にも、カメラ200から受信した映像から検索対象の人物をリアルタイムで検索する場合にも、以下の変形例は適用可能である。
変形例にかかる検索装置100または検索装置400(以下、検索装置100)は、既知の人物追跡技術を利用して、カメラ200から受信した映像に含まれる複数の画像間で、同一人物である可能性の高い人物の人物領域を対応付ける。例えば、オプティカルフローによる追跡や、各々の画像における人物領域の色ヒストグラムの類似性から、複数画像間での人物領域の対応付けが実施される。
そして、検索装置100は、同一人物である可能性の高い人物が、カメラ200の手前側に存在する時の色ヒストグラムを利用して、クエリ画像から生成された特徴情報との照合に利用される特徴情報を生成する。例えば、カメラ200と被写体(人物)との距離が一定以上大きい場合には、人物が全体的に暗く撮影されることがあるためである。本変形例は、このような事象を考慮し、人物の服装の色などがより把握しやすい画像から特徴情報(色ヒストグラム)を生成することができる。
また、検索装置100は、同一人物である可能性の高い人物領域の各々から生成された特徴情報を平均化した平均特徴情報を、クエリ画像から生成された特徴情報と照合してもよい。平均特徴情報を利用する事で、より安定的な特徴情報を生成することができる。本変形例によれば、例えば、照明が当たりにくい場所に存在する人物が撮影された場合でも、当該人物の特徴を安定的に把握することができる。
[その他の変形例]
上記実施例においては、色情報(色ヒストグラム)を特徴情報として利用する例を説明した。しかし、これに限らず、他の特徴情報を用いてもよい。例えば、検索装置100や検索装置400は、エッジ情報やテクスチャ情報を、特徴情報として利用してもよい。
また、検索装置100および検索装置400は、服装に基づき人物検索を行った後、さらに、検索された画像を対象に、顔の特徴を用いて、同一人物の検索を行ってもよい。このようにすることで、同一人物の人物検索を行う前に、照合対象を、本実施例に開示の技術により、絞り込むことができる。
[ハードウェア構成例]
次に、図24は、本発明に関する検索装置のハードウェア構成例である。コンピュータ1000は、各実施例に係る登録処理および検索処理を実行し、検索装置100または検索装置400(以下、検索装置100)として機能する。コンピュータ1000はCentral Processing Unit(CPU)1001、Read Only Memory(ROM)1002、Random Access Memory(RAM)1003、通信装置1004、Hard Disk Drive(HDD)1005、入力装置1006、表示装置1007、媒体読取装置1008を有しており、各部はバス1009を介して相互に接続されている。そしてCPU1001による制御下で相互にデータの送受を行うことができる。
各実施例のフローチャートに示した登録処理、検索処理、学習処理等が記述されたプログラムは、コンピュータ1000が読み取り可能な記録媒体に記録される。コンピュータ1000が読み取り可能な記録媒体には、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録装置には、HDD、フレキシブルディスク(FD)、磁気テープ(MT)などがある。
光ディスクには、Digital Versatile Disc(DVD)、DVD−RAM、Compact Disc − Read Only Memory(CD−ROM)、Compact Disc − Recordable/ReWritable(CD−R/RW)などがある。光磁気記録媒体には、Magneto − OPtical disk(MO)などがある。各実施例に係る処理が記述されたプログラムを流通させる場合には、例えば、当該プログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売されることが考えられる。
そして各実施例に係るプログラムを実行するコンピュータ1000の媒体読取装置1008が、当該プログラムを記録した記録媒体から、該プログラムを読み出す。CPU1001は、読み出されたプログラムをHDD1005若しくはROM1002、RAM1003に格納する。
CPU1001は、検索装置100全体の動作制御を司る中央処理装置である。そして、CPU1001が、各実施例に関わる処理が記述されたプログラムをHDD1005から読み出して実行する。CPU1001は、検索装置100における制御部110(または制御部410)として機能するようになる。先に述べたとおり、プログラムはCPU1001とアクセス可能なROM1002またはRAM1003に格納されていても良い。
通信装置1004は、CPU1001の制御の下、通信部101として機能する。
HDD1005は、CPU1001の制御下で、各種情報を記憶し、記憶部として機能する。各種情報は、プログラム同様、CPU1001とアクセス可能なROM1002またはRAM1003に格納されても良い。さらに、処理の過程で一時的に生成および保持される各種情報は、例えば、RAM1003に格納される。つまり、RAM1003が記憶部として機能する場合もある。
入力装置1006は、各種入力を受け付ける。入力装置1006は、例えばキーボードやマウスである。表示装置1007は、各種情報を表示する。表示装置1007は、例えばディスプレイである。
100、400 検索装置
200 カメラ
300 通信装置
101 通信部
102 検出部
103、403 決定部
104 分割部
105 生成部
106 特定部
110、410 制御部
111 映像記憶部
112 分割情報記憶部
113 特徴情報記憶部
1000 コンピュータ
1001 CPU
1002 ROM
1003 RAM
1004 通信装置
1005 HDD
1006 入力装置
1007 表示装置
1008 媒体読取装置
1009 バス

Claims (10)

  1. 撮影装置により撮影された画像情報から被写体を検出する検出部と、
    前記撮影装置と前記被写体との位置関係に応じて分割比率を決定する決定部と、
    前記決定した分割比率により、前記被写体が写る画像領域を少なくとも2つの画像領域に分割する分割部と、
    前記少なくとも2つの画像領域それぞれの特徴情報を特定する特定部と
    を含むことを特徴とするシステム。
  2. 前記特定部は、検索要求で指定された検索対象の情報と前記特徴情報に基づき、前記被写体が前記検索対象に類似する被写体であることを特定することを特徴とする請求項1に記載のシステム。
  3. 前記決定部は、前記位置関係ごとに、前記分割比率を記憶する記憶部を参照し、前記被写体が写る画像領域に適用する分割比率を決定することを特徴とする請求項1または2に記載のシステム。
  4. 学習用画像情報から、被写体が写る被写体領域を検出し、前記被写体領域の検出位置毎に、前記分割比率を決定し、該検出位置と対応付けて該分割比率を前記記憶部に記憶する制御部を有することを特徴とする請求項3に記載のシステム。
  5. 前記制御部は、前記被写体領域における輝度変化を算出し、当該輝度変化に基づき、前記分割比率を決定することを特徴とする請求項4に記載のシステム。
  6. 前記被写体は人物であることを特徴とする請求項1乃至5のいずれか一項に記載のシステム。
  7. 前記特徴情報は、色情報であることを特徴とする請求項1乃至6のいずれか一項に記載のシステム。
  8. 前記色情報は、色ヒストグラムであることを特徴とする請求項7に記載のシステム。
  9. 撮影装置により撮影された画像情報から被写体を検出し、
    前記撮影装置と前記被写体との位置関係に応じて分割比率を決定し、
    前記決定した分割比率により、前記被写体が写る領域を少なくとも2つの画像領域に分割し、
    前記少なくとも2つの画像領域それぞれの色情報に基づいて、複数の画像情報の中から、前記検出された被写体と類似する特徴を有する被写体が写る画像情報を特定する
    処理をコンピュータが実行することを特徴とする検索方法。
  10. 撮影装置により撮影された画像情報から被写体を検出し、
    前記撮影装置と前記被写体との位置関係に応じて分割比率を決定し、
    前記決定した分割比率により、前記被写体が写る領域を少なくとも2つの画像領域に分割し、
    前記少なくとも2つの画像領域それぞれの色情報に基づいて、複数の画像情報の中から、前記検出した被写体と類似する特徴を有する被写体が写る画像情報を特定する
    処理をコンピュータに実行させることを特徴とするプログラム。
JP2015061454A 2015-03-24 2015-03-24 システム、検索方法およびプログラム Active JP6589321B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015061454A JP6589321B2 (ja) 2015-03-24 2015-03-24 システム、検索方法およびプログラム
US15/049,809 US10127310B2 (en) 2015-03-24 2016-02-22 Search method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015061454A JP6589321B2 (ja) 2015-03-24 2015-03-24 システム、検索方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2016181159A JP2016181159A (ja) 2016-10-13
JP6589321B2 true JP6589321B2 (ja) 2019-10-16

Family

ID=56974152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015061454A Active JP6589321B2 (ja) 2015-03-24 2015-03-24 システム、検索方法およびプログラム

Country Status (2)

Country Link
US (1) US10127310B2 (ja)
JP (1) JP6589321B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014085953A1 (en) * 2012-12-03 2014-06-12 Harman International Industries, Incorporated System and method for detecting pedestrians using a single normal camera
US10592742B1 (en) * 2015-09-28 2020-03-17 Amazon Technologies, Inc. Agent re-identification
JP2019114821A (ja) * 2016-03-23 2019-07-11 日本電気株式会社 監視システム、装置、方法およびプログラム
IL246387A (en) * 2016-06-22 2017-05-29 Pointgrab Ltd METHOD AND SYSTEM FOR DETERMINING A BODY POSITION OF PRESENT
JP6752122B2 (ja) * 2016-11-15 2020-09-09 キヤノン株式会社 画像処理装置、画像処理方法
JP6721122B2 (ja) * 2017-05-30 2020-07-08 三菱電機株式会社 管理区域利用者の管理システム
US10511808B2 (en) * 2018-04-10 2019-12-17 Facebook, Inc. Automated cinematic decisions based on descriptive models
WO2023135726A1 (ja) * 2022-01-14 2023-07-20 日本電気株式会社 情報処理装置、情報処理方法、及びコンピュータ可読媒体
JP2024008196A (ja) * 2022-07-07 2024-01-19 オムロン株式会社 情報処理装置および情報処理方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003087771A (ja) * 2001-09-07 2003-03-20 Oki Electric Ind Co Ltd 監視システム及び方法
JP2005202938A (ja) 2003-12-19 2005-07-28 Matsushita Electric Ind Co Ltd 映像検索装置及び映像検索方法
US20060159370A1 (en) 2004-12-10 2006-07-20 Matsushita Electric Industrial Co., Ltd. Video retrieval system and video retrieval method
US7596241B2 (en) * 2005-06-30 2009-09-29 General Electric Company System and method for automatic person counting and detection of specific events
WO2008065717A1 (fr) * 2006-11-29 2008-06-05 Fujitsu Limited Système et procédé de détection de piéton
JP5055092B2 (ja) * 2007-11-02 2012-10-24 株式会社日立国際電気 映像処理装置及び映像処理方法
JP4945477B2 (ja) 2008-02-21 2012-06-06 株式会社日立国際電気 監視システム、人物検索方法
JP2010165003A (ja) * 2009-01-13 2010-07-29 Toyota Central R&D Labs Inc 歩行者認識支援装置および歩行者認識支援方法
US8706663B2 (en) * 2009-02-04 2014-04-22 Honeywell International Inc. Detection of people in real world videos and images
WO2011046128A1 (ja) 2009-10-16 2011-04-21 日本電気株式会社 人物服装特徴抽出装置、人物検索装置、及びその処理方法
JP6090162B2 (ja) 2011-05-20 2017-03-08 日本電気株式会社 部位分離位置抽出装置、プログラム、方法
JP5848551B2 (ja) * 2011-08-26 2016-01-27 キヤノン株式会社 学習装置、学習装置の制御方法、検出装置、検出装置の制御方法、およびプログラム
US9111147B2 (en) * 2011-11-14 2015-08-18 Massachusetts Institute Of Technology Assisted video surveillance of persons-of-interest
JP5999105B2 (ja) * 2012-01-17 2016-09-28 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP5959093B2 (ja) * 2012-03-06 2016-08-02 学校法人東京電機大学 人物検索システム
JP2014093023A (ja) 2012-11-06 2014-05-19 Canon Inc 物体検出装置、物体検出方法及びプログラム
JP5961123B2 (ja) * 2013-01-30 2016-08-02 パナソニック株式会社 人物検出追跡装置、人物検出追跡方法、および人物検出追跡プログラム
JP6155032B2 (ja) * 2013-01-31 2017-06-28 セコム株式会社 撮影システム
EP2804128A3 (en) * 2013-03-22 2015-04-08 MegaChips Corporation Human detection device
US9471849B2 (en) * 2013-05-05 2016-10-18 Qognify Ltd. System and method for suspect search
JP6428144B2 (ja) * 2014-10-17 2018-11-28 オムロン株式会社 エリア情報推定装置、エリア情報推定方法、および空気調和装置

Also Published As

Publication number Publication date
JP2016181159A (ja) 2016-10-13
US20160283590A1 (en) 2016-09-29
US10127310B2 (en) 2018-11-13

Similar Documents

Publication Publication Date Title
JP6589321B2 (ja) システム、検索方法およびプログラム
US11749053B2 (en) Systems, methods and devices for monitoring betting activities
US11335092B2 (en) Item identification method, system and electronic device
US9235751B2 (en) Method and apparatus for image detection and correction
JP6655878B2 (ja) 画像認識方法及び装置、プログラム
JP5476955B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
US8934734B1 (en) Video identification through detection of proprietary rights logos in media
US11132559B2 (en) Abnormality detection method, apparatus, and device for unmanned checkout
CN108416902B (zh) 基于差异识别的实时物体识别方法和装置
US10074029B2 (en) Image processing system, image processing method, and storage medium for correcting color
US20120219180A1 (en) Automatic Detection of Vertical Gaze Using an Embedded Imaging Device
US10795928B2 (en) Image search apparatus, system, and method
JP2014182480A (ja) 人物認識装置、及び方法
US20140099028A1 (en) System and method for video recognition based on visual image matching
JP7197485B2 (ja) 検出システム、検出装置およびその方法
JP2014016968A (ja) 人物検索装置及びデータ収集装置
CA3033833A1 (en) Systems, methods and devices for monitoring betting activities
JP6289308B2 (ja) 情報処理装置およびプログラム
KR102250712B1 (ko) 전자 장치 및 제어 방법
Mahmood et al. Action recognition in poor-quality spectator crowd videos using head distribution-based person segmentation
KR102579610B1 (ko) Atm 이상행동감지 장치 및 그 장치의 구동방법
CAULFIELD Mean-Shift Tracking for Surveillance: Evaluations and Enhancements
JP6183209B2 (ja) 映像処理装置、映像処理方法、及び映像処理プログラム
CN115482486A (zh) 一种客流识别方法以及装置

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180115

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20180528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190902

R150 Certificate of patent or registration of utility model

Ref document number: 6589321

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150