JP7085812B2 - 画像処理装置およびその制御方法 - Google Patents

画像処理装置およびその制御方法 Download PDF

Info

Publication number
JP7085812B2
JP7085812B2 JP2017150083A JP2017150083A JP7085812B2 JP 7085812 B2 JP7085812 B2 JP 7085812B2 JP 2017150083 A JP2017150083 A JP 2017150083A JP 2017150083 A JP2017150083 A JP 2017150083A JP 7085812 B2 JP7085812 B2 JP 7085812B2
Authority
JP
Japan
Prior art keywords
image
captured image
attribute value
attribute
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017150083A
Other languages
English (en)
Other versions
JP2019029935A (ja
Inventor
洋 東條
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017150083A priority Critical patent/JP7085812B2/ja
Priority to EP18180715.7A priority patent/EP3438875A1/en
Priority to US16/042,650 priority patent/US10762372B2/en
Publication of JP2019029935A publication Critical patent/JP2019029935A/ja
Application granted granted Critical
Publication of JP7085812B2 publication Critical patent/JP7085812B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Description

本発明は、複数の映像から被写体を同定する技術に関するものである。
従来から、カメラ映像から人物の領域を検出し、人物領域から服装の色や輝度といった属性に関する情報(属性情報)を取得し、属性情報の比較により映像中の人物が同一であるかどうかなどを判定する(すなわち同定する)技術が開示されている。例えば、非特許文献1では、複数のカメラの映像中の人物から属性情報を抽出しておき、カメラ間の被写体の属性情報同士を比較することにより、同一人物かどうかを判定している。同定できたカメラ間の人物を関連付けることで、複数のカメラに跨る人物の追跡が実現できる。また、複数のカメラで撮像された映像と属性情報を関連付けて記憶部に蓄積しておくことで、過去に撮影された映像からユーザが指定した人物を検索することも可能になる。
Y. Cai and M. Pietik: "Person Re-identification Based on Global Color Context", The Tenth International Workshop on Visual Surveillance (2010)
しかしながら、カメラで撮影を行う場合、照明条件や機種の違いなどにより、同一の被写体であっても撮影された映像において色や輝度などの属性情報が異なることがある。そのため、複数のカメラで撮影を行う場合や異なる条件で撮影を行う場合において、被写体を同定する精度が低下するという問題があった。
本発明はこのような問題を鑑みてなされたものであり、複数の映像に関してより高い精度で被写体の同定を可能とする技術を提供することを目的とする。
上述の問題点を解決するため、本発明に係る画像処理装置は以下の構成を備える。すなわち、画像処理装置は、
画像における物体の色、輝度、高さ、幅の少なくとも何れか1つを表す値である属性値であって、第1の撮像画像及び第2の撮像画像に共通して含まれる背景物体について、前記第1の撮像画像に含まれる前記背景物体の前記属性値と、前記第2の撮像画像に含まれる前記背景物体の前記属性値と、を抽出する第1の抽出手段と、
前記第1の撮像画像から検出された第1の物体について前記第1の撮像画像から前記第1の物体の前記属性値と、前記第2の撮像画像から検出された第2の物体について前記第2の撮像画像から前記第2の物体の前記属性値と、を抽出する第2の抽出手段と、
前記第1の撮像画像に含まれる前記背景物体の前記属性値と前記第1の物体の前記属性値との相対距離を示す第1の指標と、前記第2の撮像画像に含まれる前記背景物体の前記属性値と前記第2の物体の前記属性値との相対距離を示す第2の指標と、を導出する導出手段と、
前記第1の指標と、前記第2の指標と、の距離が所定の閾値未満である場合に、前記第1の物体と前記第2の物体とが同一物体であると判定する検出手段と、
を有する。
本発明によれば、複数の撮像映像に関してより高い精度で被写体の同定を可能とする技術を提供することができる。
第1実施形態に係る画像処理システムの構成を示す図である。 被写体同定装置のハードウェア構成を示す図である。 被写体同定装置の機能構成を示す図である。 属性指定部の詳細構成を示す図である。 相対指標算出部の詳細構成を示す図である。 被写体同定部の詳細構成を示す図である。 共通背景物の属性を指定するフローチャートである。 共通背景物の属性を指定する際の表示の例を示す図である。 共通背景物の領域を指定する際の表示の例を示す図である。 相対指標の算出処理を示すフローチャートである。 被写体の同定処理を示すフローチャートである。 同定処理の処理結果の表示の例を示す図である。
以下に、図面を参照して、この発明の実施の形態の一例を詳しく説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。
(第1実施形態)
本発明に係る画像処理装置の第1実施形態として、カメラにより取得された映像から被写体を同定する画像処理システムを例に挙げて以下に説明する。
<システム構成>
図1は、第1実施形態に係る画像処理システムの構成を示す図である。画像処理システムは、ネットワーク104を介して相互に通信可能に接続された撮像装置(カメラ)101~103及び被写体同定装置105を含んでいる。
撮像装置101~103は、それぞれ、撮像レンズ、および、CCD、CMOSなどの撮像センサから構成され映像を撮像する装置である。撮像装置101~103は、撮像した映像をネットワーク104を介して被写体同定装置105に送信する。被写体同定装置105は、ネットワークを介して受信した映像に基づいて、各撮像装置の撮像範囲に出現した被写体を同定する装置である。
図2は、被写体同定装置105のハードウェア構成を示す図である。CPU201は、ROM202やRAM203に格納されたプログラムやデータに従って命令を実行する。ROM202は、不揮発性メモリであり、以下で説明する各種機能を実現するプログラムやその他の制御に必要なプログラムやデータを格納する。RAM203は、揮発性メモリであり、フレーム画像データやパターン判別結果などの一時的なデータを記憶する。
2次記憶装置204は、ハードディスクドライブやフラッシュメモリーなどの書き換え可能な記憶装置であり、画像情報や画像処理プログラムや、各種設定内容などを記憶する。CPU201は、これらの情報をRAM203に転送してプログラムを実行する。
入力装置205は、キーボードやマウスなどであり、ユーザからの入力を可能とするものである。表示装置206は、ブラウン管CRTや液晶ディスプレイなどであり、ユーザに対して処理結果などを表示するものである。ネットワークI/F207は、インターネットやイントラネットなどのネットワークと接続を行うモデムやLANなどである。バス208は、これらを接続して相互にデータの入出力を行う。
図3は、被写体同定装置105の機能構成を示す図である。ここでは、被写体同定装置105の各機能部は、オペレーティングシステムの上で動作するアプリケーションとして実装されることを想定する。映像取得部301は、撮像装置101~103で撮影された撮像映像をネットワーク104を介して受信し、処理対象の映像として取得する。
属性指定部302は、カメラ間に共通する背景物(以下、共通背景物と呼ぶ)の属性を指定する。共通背景物としては、例えば、床、壁、ドア、棚などが挙げられる。また、属性としては、色、輝度、高さ、幅などが挙げられる。属性記憶部303は、RAM203や2次記憶装置204から構成され、属性指定部302で指定された共通背景物の属性をカメラ毎に記憶する。属性指定部302の詳細については図4、図7を参照して後述する。
相対指標算出部304は、映像取得部301で取得された撮像映像中の被写体から抽出した属性情報と共通背景物から抽出した属性情報より相対指標を導出する。相対指標記憶部305は、RAM203や2次記憶装置204から構成され、相対指標算出部304で算出された相対指標を、算出したカメラ及び被写体に対応付けて記憶するものである。相対指標算出部304の詳細については図5、図10を参照して後述する。被写体同定部306は、相対指標に基づいてカメラ間の被写体の同定を行う。被写体同定部306の詳細については図6、図11を参照して後述する。
図4は、属性指定部302の詳細構成を示す図である。なお、データの流れを明瞭にするため、図3に示した一部の機能部を再掲している。具体的には、映像取得部405は、図3の映像取得部301と同じ機能部である。属性記憶部406は、図3の属性記憶部303と同じ機能部である。
カメラ選択部401は、共通背景物を指定する対象となるカメラを、入力装置205を介したユーザの指示などにより選択する。カメラレイアウト情報記憶部402は、カメラレイアウト情報(地図上のカメラの配置情報)を記憶する。カメラレイアウト情報記憶部402は、RAM203や2次記憶装置204から構成される。
属性指定部403は、共通背景物の属性を、入力装置205を介したユーザの指示などにより指定する。領域指定部404は、カメラ選択部401で選択された各カメラの画面内の共通背景物の画像領域を、入力装置205を介したユーザ指示などを受け付けて指定する。
図5は、相対指標算出部304の詳細構成を示す図である。なお、データの流れを明瞭にするため、図3に示した一部の機能部を再掲している。具体的には、映像取得部501は、図3の映像取得部301と同じ機能部である。属性記憶部505は、図3の属性記憶部303と同じ機能部である。相対指標記憶部508は、図3の相対指標記憶部305と同じ機能部である。
被写体検出部502は、映像取得部501で取得した映像から被写体の画像領域を検出する。被写体追尾部503は、被写体検出部502で検出された現在のフレーム画像における被写体領域を、先行するフレーム画像において検出された被写体の画像領域と関連付けることにより、検出された所定の被写体を映像中で追尾する。
属性量抽出部504は、映像から被写体の属性量を抽出する。具体的には、被写体検出部502で検出された被写体の画像領域から属性情報を抽出し、数値として示される属性量(属性値)を算出する。属性情報には、被写体の平均色・最頻色・平均輝度・最頻輝度・高さ・幅などといった情報がある。なお、各カメラで取得する属性は、後述の属性記憶部505を参照することにより決定される。
属性量抽出部506は、映像から共通背景物の属性量を抽出する。具体的には、被写体の画面内の位置に応じて共通背景物の属性情報を抽出し、数値として示される属性量(属性値)を算出する。各カメラで取得する属性の種別は、属性量抽出部504と同様に、属性記憶部505を参照することにより決定される。
相対指標算出部507は、カメラ映像内の被写体毎に、被写体の属性量と当該被写体近傍の共通背景物の属性量とに基づいて相対的な指標(以下、相対指標と呼ぶ)を導出する。
図6は、被写体同定部306の詳細構成を示す図である。なお、データの流れを明瞭にするため、図3に示した一部の機能部を再掲している。具体的には、属性記憶部603は、図3の属性記憶部303と同じ機能部である。相対指標記憶部604は、図3の相対指標記憶部305と同じ機能部である。
対象指定部601は、被写体同定処理を行う対象となる被写体を、入力装置205を介したユーザからの指示などにより指定する。距離算出部602は、対象指定部601で指定された被写体の相対指標と、現在のカメラ映像中の被写体の相対指標との距離を算出する。
同定判定部605は、算出した相対指標間距離に基づいて被写体を同定する。出力部606は、表示装置206から構成され、被写体の同定結果を表示し、ユーザに提示する。
<システムの動作>
まず、被写体同定システムを運用する前のカメラ設置時などに行われる処理について説明する。具体的には、複数のカメラ間に共通する背景物の属性を指定する処理である。
図7は、共通背景物の属性を指定するフローチャートである。
ステップS701では、カメラ選択部401は、カメラレイアウト情報記憶部402からカメラレイアウト情報を読み込む。ここでカメラレイアウト情報とは、監視対象となる所与の領域(エリア)において複数のカメラがどのように配置されているかを示す情報である。具体的には、カメラID、エリア(地図)上の座標、撮影方向を含む。
ステップS702では、カメラ選択部401は、読み込んだカメラレイアウト情報を、ユーザに対して表示する。図8は、共通背景物の属性を指定する際の表示の例を示す図である。
表示画面801は、カメラレイアウトを表示する画面802と、後述の属性種別リストを表示する画面803とを含む。具体的には、画面802にはカメラが配置されているエリアの地図が表示されている。ここでは、部屋(矩形804~807)と廊下(それ以外の領域)が表示されている。アイコン808~814はカメラを表している。各カメラの位置・向きはカメラレイアウト情報を基に表現されている。例えば、アイコン808は、カメラが部屋804の右上の隅に設置されており左下方向へ向いていることを示している(上方が北の場合、部屋804の北東の角に設置され南西方向へ向いている)。
ステップS703では、カメラ選択部401は、ユーザからの入力により背景物の属性を指定する対象となるカメラの選択を行う。ユーザは、入力装置205であるマウスの操作によってカーソル816を移動させ、各カメラアイコンを指定できる。
表示画面817は、4つのカメラが選択された状態の表示例を示している。矩形804~807で示される部屋の床が全て同じ色であることがわかっているときは、部屋内に設置された4台のカメラ(アイコン808~811)を選択する。アイコンが黒で塗りつぶされることで、当該アイコンに対応するカメラが選択された状態であることを示している。
なお、カメラレイアウト情報は電子化され記憶部に記憶されているものとして説明したが、これに限るものではない。例えば、入力装置205を介してユーザから受け付けるよう構成してもよい。例えば、ユーザは、手持ちの紙の図面を参照し、記載されているカメラIDのみを入力するようにしてもよい。以上のように選択されたカメラIDはRAM203に一時記憶される。
ステップS704では、属性指定部403は、ユーザからの入力により共通背景物の属性を指定する。画面803は共通背景物の属性の指定ウィンドウになっており、予めシステムに記憶されている共通背景物の属性を読み込み、リスト815として表示している。表示画面817では、カーソル816を介して「床の色」を指定した(太線818で囲まれている)状態を示している。これは、S703で選択された全てのカメラに対して「床の色」という属性が指示されることを示している。選択されたカメラIDに予め設定されている属性IDを関連付け、改めてRAM203に一時記憶する。
ステップS705では、領域指定部404は、ユーザからの入力により、画面内の共通背景物の画像領域の指定を受付けるために、対象となるカメラを選択する。ユーザは、表示画面817で黒塗り表示された4つのアイコン(S703で選択されたカメラ)の中から、カーソル816を使って1つ選択する。
ステップS706では、映像取得部405は、S705で選択されたアイコンに関連付けられたカメラIDを基に、ネットワーク104を介して当該のカメラの映像を取得する。取得されたカメラ映像902は、表示装置206の画面に表示される。図9は、共通背景物の領域を指定する際の表示の例を示す図である。
ステップS707では、領域指定部404は、画面内の共通背景物の領域指定をユーザから受け付ける。図9では点線の四角形903が指定領域を示しており、当該指定領域は”床”を指定する様子を示している。なお、ここでは領域を多角形として指定したが、床が均一な色であれば、床の領域の1点で指定する方法であってもよい。この場合は、指定された点から連続する近傍の画素を探索し、色が類似する画素の塊を床領域として使用すればよい。
ステップS708では、領域指定部404は、カメラ毎の共通背景物の属性情報として属性記憶部406に記憶する。具体的には、S707で指定された領域情報と対応するカメラのカメラID、及び、背景物体の属性IDを関連付けて記憶する。
ステップS709では、S703で指定された全カメラについて、S705~S708の処理を完了したかを判断し、完了していない場合はS705に戻る。ステップS710では、共通背景物の指定処理が完了したか否かを判断する。例えば、共通背景物として指定する他の属性が存在するか否かを判断し、存在する場合はS703に戻る。共通背景物の指定処理が完了した場合は処理を終了する。
以上の処理によって、複数のカメラに共通する背景物について、関連するカメラ、背景物の属性、画面内の背景物領域の対応関係が記憶される。
次に、被写体同定システムの運用時に行われる処理について説明する。具体的には、相対指標を算出する処理(図10)及び被写体を同定する処理(図11)である。
図10は、相対指標の算出処理を示すフローチャートである。なお、図10はひとつのカメラに対する処理を示したものであるが、同様の処理はネットワーク上の全てのカメラ(ここでは、撮像装置101~103)に対して行われるものとする。
ステップS1001では、映像取得部501は、現在の対象となるカメラの映像をフレーム画像の単位で取得する。なお、各撮像装置は撮像装置に固有なカメラIDを保有しており、フレーム画像には時間情報としてフレームIDを付与される。
ステップS1002では、被写体検出部502は、フレーム画像内から被写体の検出を行う。被写体検出の具体的な方法としては、予め背景のみが撮像された映像より背景モデルを生成しておき、これと入力映像との差分により検出する背景差分による方法がある。例えば、「Stauffer C, Grimson W. E. L. Adaptive background mixture models for real-time tracking. In Proceedings. 1999 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (Cat. No PR00149). IEEE Comput. Soc. Part Vol. 2, 1999」で開示される手法が利用可能である。
また、被写体検出の他の手法としては、例えば米国特許出願公開2007/0237387号に記載される手法が利用可能である。これは、所定の大きさの検出ウィンドウを入力画像上で走査させ、検出ウィンドウ内の画像を切り出したパターン画像に対し人物であるか否かの2クラス判別を行う。この判別においては、アダブースト(AdaBoost)を使って多くの弱判別器を有効に組み合わせて判別器を構成し、判別精度を向上させるとよい。また、この判別器を直列に繋ぎ、カスケード型の検出器を構成するようにしている。弱判別器はHOG(Histograms of Oriented Gradients)特徴量で構成されている。そして、カスケード型の検出器は、まず前段の単純な判別器を使って明らかに被写体でないパターンの候補をその場で除去する。それ以外の候補に対してのみ、より高い識別性能を持つ後段の複雑な判別器を使って人物かどうかの判別を行う。なお、本実施例における説明では、被写体は人物であるとしているが、他の被写体(例えば、車両)についても適用可能である。
上述の方法によって、映像から被写体領域を検出することができる。被写体領域は、例えば、フレーム画像の左上を原点とし、人物を囲む矩形の左上と右下の2点のx座標、y座標で表す。更に、これに加えて、人物に対応する画素を”1”、それ以外の画素を”0”で表したマスク画像を付与してもよい。マスク画像を利用することで、矩形で表現することによって含まれてしまう人物以外の画素と人物の画素とを区別することができる。
ステップS1003では、被写体追尾部503は、現在フレームで検出された被写体が、前フレームで検出されたどの被写体と対応するかを求める追尾処理を行う。追尾処理には様々な手法があるが、例えば前フレームに含まれる被写体領域の中心位置と現在フレームに含まれる被写体領域の中心位置が最短のものを対応付ける方法がある。この他にも前フレームの被写体領域を照合パターンとしたパターンマッチングによる手法など、フレーム間の被写体を対応付けることができればどのような手法であっても良い。そして、フレーム間で対応付けられた被写体には同じ被写体IDが付与される。
ステップS1004では、属性量抽出部504は、属性記憶部505を参照し、処理対象のカメラに関連付けられた背景物領域情報を基に、被写体が背景物領域の内部、或いは近傍に存在しているかどうかを判定する。これは例えば、被写体領域の重心が、背景物領域内または所定の距離以内にあるかどうかで判断できる。或いは、被写体領域と背景物領域の重なりがあるかどうかで判断する方法もある。
本判定は、例えば、部屋の中で色温度が異なる複数の照明が使用されている場合に有効である。ドアの色が属性として指定されていた場合、被写体がドア付近に立っている時は、ドアと同じ照明条件下にあると想定できる。ドアの色を基に被写体の色の相対指標を算出するためには、同じ照明条件であることが条件となるため、本判定を行う。
ステップS1005では、属性量抽出部504は、S1004で被写体が背景物領域の内部または近傍にあると判定された時は、被写体領域から、カメラ毎の共通背景物の属性情報に指定された属性の属性量を抽出する。
ステップS1006では、属性量抽出部506は、被写体領域の近傍にある背景物領域から、カメラ毎の共通背景物の属性情報に指定された属性の属性量を抽出する。ここで被写体領域の近傍とは、例えば、被写体領域を示す矩形の下端から下方向に所定の距離にある位置から所定の大きさの矩形として定義できる。下端では背景物領域がからはみ出す場合は、上端・右端・左端から所定の距離離れた矩形を利用すればよい。また、スーパーピクセルとして知られている予め画像全体を各画素の輝度・色が近い物同士でまとめた小領域に分割し、被写体領域に最も近い小領域を使用するようにしてもよい。
なお、背景物が床である場合は、被写体の下端に常に存在すると想定できる。この場合は、常に被写体の下端の近傍から共通背景物の属性量を抽出するようしておけばよい。また、背景物として床のみを利用するのであれば、S707の領域指定処理(領域指定部404)、及び、S1004の判定処理を省略しても構わない。
また、本実施例で共通背景物の属性を背景物領域全体からではなく、被写体領域の近傍から取得するのは、前述したように場所に応じて照明環境が異なるなど、抽出できる属性が一定でない場合を考慮するためである。このような状況を考慮する必要がなければ、常に背景物領域全体から取得するようにしても構わない。
また、被写体を検出するたびに背景物の属性量を取得するのは、例えば、屋外で昼から夜になるなど、時間に応じた照明の変化に対応するためである。もちろん、屋内で常に照明条件が一定な場合や、棚の高さのように時間的な変化が起こらない場合は、毎回取得する必要はない。例えば、カメラ設置時などに予め取得し、カメラ毎の共通背景物の属性情報と関連付けて記憶しておく構成にしても構わない。
ステップS1007では、相対指標算出部507は、被写体属性量と共通背景物属性量から相対指標を算出する。共通背景物の属性情報を基準として被写体の属性情報を相対的に表現した値が相対指標である。例として、属性として床の色が指定されている場合で説明する。ここでは各画素がRGBの3チャンネルで規定され、各チャンネルが8ビット値(0~255)で表現され、属性量は所定領域の平均色で表現されているとする。
ここで、床の色が(R,G,B)=(125,200,100)、被写体の色が(R,G,B)=(135,180,150)であるとする。相対指標として床の色を基準として差分値で表現すると、(R,G,B)=(+10,-20,+50)となる。一方、他のカメラで撮像されたときに、例えばRチャンネルが強調されて写るときは床の色が(R,G,B)=(175,200,100)などとなる。ただし、被写体の色も同様にRチャンネルが強調されるので(R,G,B)=(185,180,150)となり、相対指標は(R,G,B)=(+10,-20,+50)となるため、変化しない。なお、ここでは各チャンネルの値の範囲が0~255であるので相対指標は-255~+255となる。ただし、他の属性の値の範囲は異なるのが一般的であるので、最大値である255で正規化する(値の範囲が-1~+1となるようにする)。これにより、後述する被写体同定処理において、複数の属性に対応する相対指標を組み合わせた判定が可能になる。
また、上述の説明では差分値を相対指標として用いたが、被写体属性量の共通背景物属性量に対する相対的な値であれば良く、他の値を相対指標として用いることも可能である。例えば、被写体の色の共通背景物の色に対する比を相対指標として用いてもよい。上述の差分値の場合と同様に、床の色が(R,G,B)=(125,200,100)、被写体の色が(R,G,B)=(135,180,150)であるとする。このとき、比を用いた相対指標は、(R,G,B)=(135/125,180/200,150/100)=(1.08,0.9,1.5)と表現することが出来る。また、他のカメラで撮像されたときに、床の色が(R,G,B)=(175,200,100)、被写体の色が(R,G,B)=(185,180,150)であるとする。このとき、比を用いた相対指標は、(R,G,B)=(185/175,180/200,150/100)=(1.06,0.9,1.5)となる。すなわち、属性値である色(Rの値)は大きく変化しているものの、相対指標の変化はわずかな量(Rで0.02)にとどまる。
また、例えば共通背景物として棚の高さが指定されている場合を説明する。属性量はフレーム画像中の座標間の距離で表現されているとする。フレーム画像中の距離はカメラの画角や撮影角度などによって変化する。しかし、被写体の高さも、同一のカメラ内であれば同じように変化するため、相対指標で示せば、カメラ間では同一の値になる。
以上のように相対指標を用いるとカメラ間で照明条件が異なるなどの理由により、被写体の属性量が変化する場合であっても、同一の被写体から常に一定の値を得ることができる。従って、予めカメラ間で輝度や色の厳密なキャリブレーションを行ったり、フレーム画像中の位置と実空間での位置を対応付けたりする作業を行っておく必要もない。
ステップS1008では、相対指標算出部507は、相対指標記憶部508に記憶されている相対指標を今回計算した相対指標に更新する。相対指標が初めて計算されたときは、相対指標記憶部508にカメラID、被写体ID、属性IDと関連付けて今回の相対指標を相対指標情報として記憶する。
次フレームで計算したときに同じカメラID、被写体ID、属性IDを持つ相対指標があった場合は、今回計算された相対指標の値と重み平均を取るなどして更新を行う。これはフレーム単位に取得した相対指標はノイズの影響を受けることがあるので、過去に取得した相対指標に徐々に反映することで安定した相対指標を得るためである。もちろんこの目的のためならば、複数フレーム分の相対指標を一時記憶しておいて最頻値を取るなど、他の手法を用いても良い。
ステップS1009では、現在対象としているカメラに対して指定された全ての背景物属性について、S1004~S1008の処理を完了したかを判断し、完了していない場合はS1004に戻る。なお、同じ被写体に複数の背景物属性の相対指標値が算出された時は、相対指標情報中の同一の(カメラIDと)被写体IDに関連付けて複数記憶される。
ステップS1010では、現在のフレーム画面中の全ての被写体について、S1004~S1009の処理を完了したかを判断し、完了していない場合はS1004に戻る。なお、画面内に複数の被写体から相対指標値が算出されたときは、相対指標情報中の同一のカメラIDと関連付けて複数記憶される。
以上の処理により、各カメラで撮像された複数の被写体のそれぞれについて、相対指標が算出され記憶されることになる。
図11は、被写体の同定処理を示すフローチャートである。同定処理は、上述の算出処理により算出された相対指標を用いて、被写体の同定を行う処理である。
ステップS1101では、対象指定部601は、被写体同定処理を行う対象の被写体を、ユーザからの指示により指定する。ユーザからの指定は例えば、カメラ映像を表示装置206に表示し、入力装置205のマウスなどを使って指示をする。そして、指示された被写体IDを基に相対指標記憶部604中の相対指標情報から対象被写体の属性ID、相対指標値を読み込みRAM203に一時記憶する。
次に、距離算出部602は、対象被写体が指定された以外のカメラについて同定処理(S1102~S1107)を行う。なお、対象被写体を指定した直後は、まだ、指定を行ったカメラ内に映っている可能性が高いので、対象被写体がカメラの撮影範囲から出た後から同定処理を行うようにしても構わない。なお、S1102~S1106はカメラ単位に行われる処理である。
ステップS1102では、距離算出部602は、属性記憶部603を参照して、対象被写体が指定されたカメラとそれ以外の現在着目しているカメラとの2つのカメラ間に共通する背景物属性を特定する。例えば、対象被写体が指定されたカメラ(カメラID=1)、当該カメラの共通背景物属性が壁の色(種別ID=1)、床の色(種別ID=2)、ドアの色(種別ID=4)であったとする。また、現在着目するカメラ(カメラID=2)は、共通背景物属性が床の色(種別ID=2)、ドアの色(種別ID=4)であったとする。種別IDが共通する床の色(種別ID=2)、ドアの色(種別ID=4)の2つが共通の背景物属性と特定できる。
ステップS1103では、距離算出部602は、対象被写体と対象被写体が指定された以外のカメラ中の被写体との相対指標間距離を算出する。S1102で述べた例では2カメラ間に共通する背景物属性の種別は床の色(種別ID=2)、ドアの色(種別ID=4)の2つであったので、それぞれの相対指標から距離を算出する。距離の算出方法として、例えば以下の方法がある。各属性について相対指標の差分の絶対値を求め、全属性の差分値の総和を、共通する背景物属性の数で割り算する。共通する背景物属性の数で割るのは、他の2カメラ間では共通する背景物属性が異なるためである。これにより、どの組み合わせのカメラ間で算出された相対指標距離も一定の値の範囲となり、比較が容易になる。
ステップS1104では、同定判定部605は、相対指標間距離が所定の閾値未満であるか否かを判定する。所定の閾値未満であればS1105に進み、所定の閾値以上であればS1106に進む。
ステップS1105では、同定判定部605は、対象被写体との相対指標間距離が所定の閾値未満である被写体を同じ被写体と同定し、出力部606は、当該同定結果をユーザに対して表示する。
図12は、同定処理の処理結果の表示の例を示す図である。画面1201と画面1202は、それぞれ、カメラIDが”1”と”2”に対応する画面であり、カメラID表示1203、1204がそれぞれ重畳表示されている。
画面1201は、フレームIDが1000の時の映像を例示的に示しており、当該映像には被写体1205が含まれている。画面1201の下部にはフレームID表示1206が表示されている。また、画面1202は、フレームIDが1300の時の映像を例示的に示しており、当該映像には被写体1207が含まれている。画面1202の下部にはフレームID表示1208が表示されている。
被写体1205と被写体1207とが同一被写体であると同定されたとき、例えば、被写体ID表示1209、1210のように同一の被写体IDが付加的に表示される。あるいは、同じ色のついた矩形1211、1212で表示してもよい。同一の被写体がどのカメラ映像のどこに含まれているかをユーザが認識できる方法であれば任意の表示方法が利用可能である。
ステップS1106では、現在着目としているカメラの映像中に含まれる全ての被写体について、S1102~S1105の処理を完了したかを判断し、完了していない場合はS1102に戻る。ステップS1107では、処理すべき全てのカメラについて、S1102~S1106の処理を完了したかを判断し、完了していない場合はS1102に戻る。
以上説明したとおり第1実施形態によれば、背景物属性を基準とした被写体属性の相対的な指標(相対指標)を用いて被写体の同定処理を行う。この構成により、複数のカメラ間における撮影条件(照明、カメラ機種、画角など)の違いによる影響が低減され、精度の高い被写体同定を行うことが可能となる。
なお、上述の説明では被写体として「人物」を指定しているが、「車両」など他の被写体にも適用可能である。また、上述の説明では、撮像機器、被写体同定装置を2つの機器に処理を分散する構成としたが、任意の構成が利用可能である。例えば、撮像のみを撮像機器で行い、映像をネットワーク経由でPCに送信し、被写体の検出以降の処理をPCで行うように構成しても良い。また、上述の説明では、複数の撮像装置により得られた複数の映像を対象として被写体を同定する形態について説明したが、1台の撮像装置による異なる時刻に得られた複数の映像を対象として被写体の同定を行う形態にも適用可能である。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101~103 撮像装置; 104 ネットワーク; 105 被写体同定装置; 301 映像取得部; 302 属性指定部; 303 属性記憶部; 304 相対指標算出部; 305 相対指標記憶部; 306 被写体同定部

Claims (9)

  1. 画像における物体の色、輝度、高さ、幅の少なくとも何れか1つを表す値である属性値であって、第1の撮像画像及び第2の撮像画像に共通して含まれる背景物体について、前記第1の撮像画像に含まれる前記背景物体の前記属性値と、前記第2の撮像画像に含まれる前記背景物体の前記属性値と、を抽出する第1の抽出手段と、
    前記第1の撮像画像から検出された第1の物体について前記第1の撮像画像から前記第1の物体の前記属性値と、前記第2の撮像画像から検出された第2の物体について前記第2の撮像画像から前記第2の物体の前記属性値と、を抽出する第2の抽出手段と、
    前記第1の撮像画像に含まれる前記背景物体の前記属性値と前記第1の物体の前記属性値との相対距離を示す第1の指標と、前記第2の撮像画像に含まれる前記背景物体の前記属性値と前記第2の物体の前記属性値との相対距離を示す第2の指標と、を導出する導出手段と、
    前記第1の指標と、前記第2の指標と、の距離が所定の閾値未満である場合に、前記第1の物体と前記第2の物体とが同一物体であると判定する検出手段と、
    を有することを特徴とする画像処理装置。
  2. 前記第1の撮像画像及び前記第2の撮像画像は、1台の撮像装置により異なる時刻に得られた撮像画像である
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1の撮像画像及び前記第2の撮像画像は、異なる撮像装置により得られた撮像画像である
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記第1の撮像画像及び前記第2の撮像画像は、撮像装置によって撮像された映像に含まれるフレームであって、
    前記第2の抽出手段は、前記映像のうち、前記第1の物体または前記第2の物体が前記背景物体の内部又は近傍にあるフレームから、前記第1の物体または前記第2の物体の属性値を抽出する
    ことを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  5. 前記第1の抽出手段は、前記第1の撮像画像及び前記第2の撮像画像において、前記第1の物体または前記第2の物体の近傍の領域である前記背景物体を含む撮像画像から前記属性値を抽出する
    ことを特徴とする請求項に記載の画像処理装置。
  6. 前記第1の撮像画像及び前記第2の撮像画像における前記背景物体の指定を受け付ける受付手段を更に有する
    ことを特徴とする請求項1乃至の何れか1項に記載の画像処理装置。
  7. 所与の領域を撮像する複数の撮像装置から、前記第1の撮像画像及び前記第2の撮像画像を撮像する撮像装置を選択する第1の選択手段と、
    前記属性値が複数種類ある場合、前記背景物体の属性値を選択する第2の選択手段と、
    を更に有し、
    前記受付手段は、前記第1の選択手段で選択した撮像装置それぞれで撮像された撮像画像に対して前記第2の選択手段で選択された前記属性値を抽出する対象となる前記背景物体の指定を受け付ける
    ことを特徴とする請求項に記載の画像処理装置。
  8. 画像における物体の色、輝度、高さ、幅の少なくとも何れか1つを表す値である属性値であって、第1の撮像画像及び第2の撮像画像に共通して含まれる背景物体について、前記第1の撮像画像に含まれる前記背景物体の前記属性値と、前記第2の撮像画像に含まれる前記背景物体の前記属性値と、を抽出する第1の抽出工程と、
    前記第1の撮像画像から検出された第1の物体について前記第1の撮像画像から前記第1の物体の前記属性値と、前記第2の撮像画像から検出された第2の物体について前記第2の撮像画像から前記第2の物体の前記属性値と、を抽出する第2の抽出工程と、
    前記第1の撮像画像に含まれる前記背景物体の前記属性値と前記第1の物体の前記属性値との相対距離を示す第1の指標と、前記第2の撮像画像に含まれる前記背景物体の前記属性値と前記第2の物体の前記属性値との相対距離を示す第2の指標と、を導出する導出工程と、
    前記第1の指標と、前記第2の指標と、の距離が所定の閾値未満である場合に、前記第1の物体と前記第2の物体とが同一物体であると判定する検出工程と、
    を含むことを特徴とする画像処理装置の制御方法。
  9. コンピュータを、請求項1乃至の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2017150083A 2017-08-02 2017-08-02 画像処理装置およびその制御方法 Active JP7085812B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017150083A JP7085812B2 (ja) 2017-08-02 2017-08-02 画像処理装置およびその制御方法
EP18180715.7A EP3438875A1 (en) 2017-08-02 2018-06-29 Image processing apparatus and control method therefor
US16/042,650 US10762372B2 (en) 2017-08-02 2018-07-23 Image processing apparatus and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017150083A JP7085812B2 (ja) 2017-08-02 2017-08-02 画像処理装置およびその制御方法

Publications (2)

Publication Number Publication Date
JP2019029935A JP2019029935A (ja) 2019-02-21
JP7085812B2 true JP7085812B2 (ja) 2022-06-17

Family

ID=62951823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017150083A Active JP7085812B2 (ja) 2017-08-02 2017-08-02 画像処理装置およびその制御方法

Country Status (3)

Country Link
US (1) US10762372B2 (ja)
EP (1) EP3438875A1 (ja)
JP (1) JP7085812B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10825479B2 (en) * 2018-05-11 2020-11-03 Axon Enterprise, Inc. Systems and methods for cross-redaction
US20200361452A1 (en) * 2019-05-13 2020-11-19 Toyota Research Institute, Inc. Vehicles and methods for performing tasks based on confidence in accuracy of module output
KR20210128736A (ko) 2020-04-17 2021-10-27 삼성전자주식회사 멀티 카메라를 포함하는 전자 장치 및 촬영 방법
CN111931624B (zh) * 2020-08-03 2023-02-07 重庆邮电大学 基于注意力机制的轻量级多分支行人重识别方法及系统
CN114299442A (zh) * 2021-11-15 2022-04-08 苏州浪潮智能科技有限公司 一种行人重识别方法、系统、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004152127A (ja) 2002-10-31 2004-05-27 Toshiba Corp 顔照合装置及び顔照合方法
JP2007183872A (ja) 2006-01-10 2007-07-19 Matsushita Electric Ind Co Ltd 動的なカメラ色補正装置およびそれを用いた映像検索装置
JP2007312271A (ja) 2006-05-22 2007-11-29 Nec Corp 監視システム
JP2010045501A (ja) 2008-08-11 2010-02-25 Secom Co Ltd 画像監視装置
JP2016025522A (ja) 2014-07-22 2016-02-08 キヤノン株式会社 画像処理装置および画像処理装置の制御方法
JP2016134803A (ja) 2015-01-20 2016-07-25 キヤノン株式会社 画像処理装置及び画像処理方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4378261B2 (ja) 2004-10-27 2009-12-02 キヤノン株式会社 画像処理方法、画像処理装置
US20070237387A1 (en) 2006-04-11 2007-10-11 Shmuel Avidan Method for detecting humans in images
KR101180160B1 (ko) * 2006-05-22 2012-09-10 엑시스 에이비 비디오 감시 카메라에 의해 검출되는 물체의 특성을 식별하는 방법 및 장치
JP5675233B2 (ja) 2010-09-09 2015-02-25 キヤノン株式会社 情報処理装置、その認識方法及びプログラム
JP5701005B2 (ja) * 2010-10-15 2015-04-15 キヤノン株式会社 物体検知装置、物体検知方法、監視カメラシステム、およびプログラム
JP5755012B2 (ja) 2011-04-21 2015-07-29 キヤノン株式会社 情報処理装置、その処理方法、プログラム及び撮像装置
JP5719230B2 (ja) 2011-05-10 2015-05-13 キヤノン株式会社 物体認識装置、物体認識装置の制御方法、およびプログラム
JP5801601B2 (ja) 2011-05-10 2015-10-28 キヤノン株式会社 画像認識装置、画像認識装置の制御方法、およびプログラム
JP5907593B2 (ja) 2011-09-13 2016-04-26 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
JP5913940B2 (ja) 2011-12-01 2016-05-11 キヤノン株式会社 画像認識装置、画像認識装置の制御方法、およびプログラム
JP5836095B2 (ja) * 2011-12-05 2015-12-24 キヤノン株式会社 画像処理装置、画像処理方法
JP6041515B2 (ja) 2012-04-11 2016-12-07 キヤノン株式会社 画像処理装置および画像処理方法
JP6046948B2 (ja) 2012-08-22 2016-12-21 キヤノン株式会社 物体検知装置及びその制御方法、プログラム、並びに記憶媒体
WO2014171258A1 (ja) * 2013-04-16 2014-10-23 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP6351240B2 (ja) 2013-11-20 2018-07-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6254836B2 (ja) 2013-11-29 2017-12-27 キヤノン株式会社 画像検索装置、画像検索装置の制御方法およびプログラム
JP6532190B2 (ja) 2014-03-26 2019-06-19 キヤノン株式会社 画像検索装置、画像検索方法
KR101946019B1 (ko) * 2014-08-18 2019-04-22 삼성전자주식회사 파노라믹 동영상을 생성하는 동영상 처리 장치 및 그 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004152127A (ja) 2002-10-31 2004-05-27 Toshiba Corp 顔照合装置及び顔照合方法
JP2007183872A (ja) 2006-01-10 2007-07-19 Matsushita Electric Ind Co Ltd 動的なカメラ色補正装置およびそれを用いた映像検索装置
JP2007312271A (ja) 2006-05-22 2007-11-29 Nec Corp 監視システム
JP2010045501A (ja) 2008-08-11 2010-02-25 Secom Co Ltd 画像監視装置
JP2016025522A (ja) 2014-07-22 2016-02-08 キヤノン株式会社 画像処理装置および画像処理装置の制御方法
JP2016134803A (ja) 2015-01-20 2016-07-25 キヤノン株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
US20190042869A1 (en) 2019-02-07
JP2019029935A (ja) 2019-02-21
US10762372B2 (en) 2020-09-01
EP3438875A1 (en) 2019-02-06

Similar Documents

Publication Publication Date Title
JP7085812B2 (ja) 画像処理装置およびその制御方法
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
US9213896B2 (en) Method for detecting and tracking objects in image sequences of scenes acquired by a stationary camera
JP5713790B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5763965B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6184271B2 (ja) 撮像管理装置、撮像管理システムの制御方法およびプログラム
JP4575829B2 (ja) 表示画面上位置解析装置及び表示画面上位置解析プログラム
JP6847254B2 (ja) 歩行者追跡の方法および電子デバイス
US20180121739A1 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP2017041022A (ja) 情報処理装置、情報処理方法及びプログラム
JP2019109765A (ja) 物体追跡プログラム、物体追跡装置、及び物体追跡方法
WO2020017190A1 (ja) 映像解析装置、人物検索システムおよび人物検索方法
EP2570992A1 (en) Image processing apparatus, image processing method, and program
Nyaruhuma et al. Verification of 2D building outlines using oblique airborne images
JP2016085487A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
JP2017076288A (ja) 情報処理装置、情報処理方法及びプログラム
US11037014B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
KR20110035662A (ko) 감시 카메라를 이용한 지능형 영상 검색 방법 및 시스템
CN114416244A (zh) 信息的显示方法、装置、电子设备及存储介质
JP6331761B2 (ja) 判定装置、判定方法及び判定プログラム
US20200311438A1 (en) Representative image generation device and representative image generation method
JP6698058B2 (ja) 画像処理装置
JP2020095757A (ja) 情報処理装置、情報処理方法及びプログラム
CN112541403B (zh) 一种利用红外摄像头的室内人员跌倒检测方法
JP6540445B2 (ja) 同一判定プログラム、同一判定装置、および同一判定方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200707

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220607

R151 Written notification of patent or utility model registration

Ref document number: 7085812

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151