JP5253102B2 - 物体判別方法および物体判別装置 - Google Patents

物体判別方法および物体判別装置 Download PDF

Info

Publication number
JP5253102B2
JP5253102B2 JP2008291554A JP2008291554A JP5253102B2 JP 5253102 B2 JP5253102 B2 JP 5253102B2 JP 2008291554 A JP2008291554 A JP 2008291554A JP 2008291554 A JP2008291554 A JP 2008291554A JP 5253102 B2 JP5253102 B2 JP 5253102B2
Authority
JP
Japan
Prior art keywords
search block
tracking
determination
search
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008291554A
Other languages
English (en)
Other versions
JP2010117952A (ja
Inventor
将文 萩原
哲平 猪俣
晃治 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koito Electric IndustriesLtd
Original Assignee
Koito Electric IndustriesLtd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koito Electric IndustriesLtd filed Critical Koito Electric IndustriesLtd
Priority to JP2008291554A priority Critical patent/JP5253102B2/ja
Publication of JP2010117952A publication Critical patent/JP2010117952A/ja
Application granted granted Critical
Publication of JP5253102B2 publication Critical patent/JP5253102B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、カメラから入力された画像内の移動物体の種類を判別する物体判別方法および物体判別装置に関する。
監視カメラシステムなどでは、カメラで撮影した画像内から移動する物体を抽出し、その物体が人か否かを、形、大きさなどから判定することが行われる(たとえば、特許文献1参照。)。
また、駐車場などの監視対象領域における移動物体の移動パターンからその移動物体が不審人物か否かを判定する技術(特許文献2、3、4)がある。たとえば、監視対象領域をカメラで撮影し、その画像を複数のブロックに分割し、ブロック内での物体の動き量(動きベクトル)が最大のブロックを求め、この最大ブロックの位置が隣接ブロックへと連続して移動するパターンを検出し、このパターンがルール違反の異常行動パターンか否かを判定する映像監視方法がある(特許文献4参照。)。
特開2003−259337号公報 特開2004−328622号公報 特開2005−354594号公報 特開2005−284652号公報
人は、車両などに比べて動作の自由度が高く、人の形や大きさなど、カメラからの「見え方」が様々に変化するので、物体を検出した直後の画像における形や大きさなどの特徴情報のみに基づいてその物体が人か否かの判別を行う方法では判別を誤る可能性があった。
また、行動パターンに基づいて不審人物か否かを判定する方法では、監視領域内に不審人物が侵入していることを、その人が不審な行動パターンをとる前に検出して監視員に通知し注意を喚起することはできない。また、追尾している物体同士が交差したり障害物の背後に一時的に隠れたりすると、その物体のカメラからの「見え方」が変動するので、交差や隠れの前後で同一物体を同一物体として追尾することが難しく、行動パターンや移動パターンに基づく判定に支障が生じるという問題があった。なお、人に限らず、形の変化の自由度が高いなど「見え方」の変化し易い物体を対象とする場合には同様の問題を生じる。
本発明は、上記の問題を解決しようとするものであり、カメラ画像から検出される物体の種類を的確に判別することのできる物体判別方法および物体判別装置を提供することを目的としている。
かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。
[1]カメラから入力される画像内の物体を追尾すると共に、その物体の特徴情報を抽出して該特徴情報を示す特徴量データを記憶部に記憶することを追尾中に複数回行い、
前記記憶部に記憶されている複数回分の前記特徴量データに基づいて前記物体の種類を判別すると共に、
前記判別において、前記記憶部に記憶されている複数回分の物体の特徴量データを一部回数ずつのN(Nは2以上の整数)区間に区分し、区間毎にその区間に属する特徴量データを使用して物体の種類を判別する一次判別を行い、前記物体が特定種類である信頼度を前記Nに対する前記一次判別で前記特定種類と判別された回数の比として求め、前記信頼度が閾値以上であって前記記憶部に記憶されている前記物体の特徴量データが所定回数以上の場合に前記物体を前記特定種類の物体であると判別する
ことを特徴とする物体判別方法。
]カメラから入力される画像内の物体を追尾する追尾部と、
記憶部と、
前記追尾部による前記物体の追尾中に、その物体の特徴情報を抽出し該特徴情報を示す特徴量データを前記記憶部に記憶することを複数回行う蓄積制御部と、
前記記憶部に記憶されている複数回分の前記特徴量データに基づいて前記物体の種類を判別する判別部と、
を有し、
前記判別部は、前記記憶部に記憶されている複数回分の物体の特徴量データを一部回数ずつのN(Nは2以上の整数)区間に区分し、区間毎にその区間に属する特徴量データを使用して物体の種類を判別する一次判別を行い、前記物体が特定種類である信頼度を前記Nに対する前記一次判別で前記特定種類と判別された回数の比として求め、前記信頼度が閾値以上であって前記記憶部に記憶されている前記物体の特徴量データが所定回数以上の場合に前記物体を前記特定種類の物体であると判別する
ことを特徴とする物体判別装置。
上記[1]、[]に係る発明によれば、画像内の物体を追尾し、追尾中にその物体の特徴情報を示す特徴量データを時系列に複数回サンプリングして記憶し、この複数回分の特徴量データに基づいてその物体の種類(たとえば人であるか車両であるか)を判別するので、物体を検出した直後にその物体の種類を判別する場合に比べて、高い信頼性で判別することができる。
また、記憶部に記憶されている複数回分の物体の特徴量データをN区間に区分し、区間毎にその区間の特徴量データを使用して物体の種類を一次判別し、その物体が特定種類である信頼度を、一次判別で特定種類と判別された回数/N、として求めるので、記憶部に記憶されている物体の特徴量データの回数が変動しても、同じ尺度で信頼度を求めることができる。また、N区間に分割することで、各回の特徴量データを単位に一次判別を行う場合に比べて、演算が簡略化される。また信頼度が閾値以上であってこの信頼度の導出に使用された特徴量データが所定回数以上の場合にその物体を特定種類の物体であると判別するので、サンプリング回数の少ない特徴量データ(所定回数未満の特徴量データ)によって誤判別されることが防止され、判別の信頼性が確保される。なお、記憶部に記憶されている物体の特徴量データの回数はN以上である必要がある。
]前記判別において、前記物体が第1種類の物体か否かを判別する第1判別と、前記物体が第2種類の物体か否かを判別する第2判別とを行い、前記第1判別が真で前記第2判別が真でない場合に前記物体は第1種類の物体であると判別する
ことを特徴とする[1]に記載の物体判別方法。
]前記判別部は、前記物体が第1種類の物体か否かを判別する第1判別部と、前記物体が第2種類の物体か否かを判別する第2判別部とを有し、前記第1判別部の判別結果が真で前記第2判別部の判別結果が真でない場合に前記物体は第1種類の物体であると判別する
ことを特徴とする[4]に記載の物体判別装置。
上記[2]、[5]に係る発明によれば、正しく判別が行われれば、物体が第1種類の物体か否かを判別する第1判別の判別結果と第2種類の物体か否かを判別する第2判別の判別結果とが排他的関係になることを利用して、判別の信頼性を高めている。すなわち、第1判別で第1種類と判別された物体が第2判別でも第2種類と判別されているような場合に、第1判別で第1種類と判別されていてもその物体が第1種類であると最終判別されることが防止される。
]前記物体の追尾は、
前記画像内で新規に追尾対象の物体を検出した場合は、その物体を追尾対象とする所定サイズの探索ブロックを複数発生させると共に各探索ブロックに前記物体の特徴情報を対応付けて記憶し、
前記各探索ブロックをその追尾対象の物体を追尾するように移動させ、
物体の追尾に失敗した場合は、その物体を追尾対象とする探索ブロックを所定の移動ルールに従って移動させると共に前記探索ブロックの存在領域に存在する物体の特徴情報と前記探索ブロックに対応付けて記憶されている前記特徴情報との比較に基づいて前記物体が当該探索ブロックの追尾対象の物体であるか否かを判断し、前記物体が当該探索ブロックの追尾対象の物体であると判断した場合は該物体を当該探索ブロックの追尾対象の物体であると認定して追尾する
方法により行う
ことを特徴とする[1]または[2]に記載の物体判別方法。
]前記追尾部は、
前記画像内で新規に追尾対象の物体を検出した場合は、その物体を追尾対象とする所定サイズの探索ブロックを複数発生させると共に各探索ブロックに前記物体の特徴情報を対応付けて記憶し、
前記各探索ブロックをその追尾対象の物体を追尾するように移動させ、
物体の追尾に失敗した場合は、その物体を追尾対象とする探索ブロックを所定の移動ルールに従って移動させると共に前記探索ブロックの存在領域に存在する物体の特徴情報と前記探索ブロックに対応付けて記憶されている前記特徴情報との比較に基づいて前記物体が当該探索ブロックの追尾対象の物体であるか否かを判断し、前記物体が当該探索ブロックの追尾対象の物体であると判断した場合は該物体を当該探索ブロックの追尾対象の物体であると認定して追尾する
ことを特徴とする[4]または[5]に記載の物体判別装置。
上記[3]、[6]に係る発明によれば、物体同士の交差や物体の障害物の背後への隠れにより物体の追尾に失敗した場合でも、交差や隠れの前後で同一物体を同一物体として認識して追尾することができる。
本発明に係わる物体判別方法および物体判別装置によれば、カメラから入力される画像内の物体を追尾すると共に、その物体の特徴情報を抽出しその特徴量データを記憶部に記憶することを追尾中に複数回行い、これら追尾中に蓄積した複数回分の特徴量データに基づいてその物体の種類を判別するので、人や車両などの物体の種類を的確に判別することができる。
以下、図面に基づき本発明の実施の形態を説明する。
図1は、本発明の実施の形態に係る物体判別方法を適用した物体判別装置10の概略構成を示している。本実施の形態では、物体判別装置10は、複数種類の物体が存在する広いエリア内を移動する物体の種類の判別を行うカメラシステムである。たとえば、広い駐車場内で不審人物の監視を行う監視カメラシステムとして使用される場合は、カメラ画像内から検出された移動物体が人か車両かを判別し、人であると判別した場合に監視員に対して注意喚起する等の機能を果たす。カメラは広い範囲を撮影しており、その撮影領域内を通過する人の「見え方」は様々に変化し得る。
物体判別装置10は、処理対象の画像を取り込むためのカメラ部11と、カメラ部11によって取り込まれた画像を解析して物体を検出し、その物体の追尾・探索および物体の種類の判別などの処理を行う処理部12と、処理部12の処理結果を出力する出力部13と、当該物体判別装置10に対する各種の設定や動作に関する指示を入力するための入力部14を備えて構成される。以後、画像データにおいて認識された物体はオブジェクトと呼ぶ。
カメラ部11は動画を撮影する。カメラ部11は、フレーム毎の画像(1画面分の静止画像)を1秒間に数十フレーム取り込むことで動画を撮影する機能を果たす。処理部12は、CPU(Central Processing Unit)と、このCPUが実行するプログラムや固定データが記憶されたROM(Read Only Memory)と、RAM(Random Access Memory)などを主要部として構成される。
処理部12は、カメラ部11から入力される画像内のオブジェクトを追尾・探索する追尾部21と、記憶部22と、追尾部21によるオブジェクトの追尾中に、そのオブジェクトの特徴情報を抽出し、該特徴情報を示す特徴量データを記憶部22に記憶することを複数回行う蓄積制御部23と、記憶部22に記憶されている複数回分のオブジェクトの特徴量データに基づいてオブジェクトの種類を判別する判別部24の機能を備えている。特徴量データは、たとえば、オブジェクトの形状、動き、テクスチャ等である。特徴量データは時系列に記憶部22に記憶される。蓄積制御部23は、オブジェクトの追尾中は所定の時間間隔で特徴量データを記憶する。ここでは、フレーム毎に行う。
判別部24は、追尾対象のオブジェクトが人(第1種類の物体)か否かを判別する人判別部25と、追尾対象のオブジェクトが車両(第2種類の物体)か否かを判別する車両判別部26と、人判別部25と車両判別部26の判別結果に基づいてそのオブジェクトが人であるか車両であるかを判別する総合判別部27の機能を果たす。総合判別部27は、人判別部25の判別結果が真(人と判別)かつ車両判別部26の判別結果が真でない(車両ではないと判別)場合にそのオブジェクトを人と判別し、人判別部25の判別結果が真でない(人ではないと判別)かつ車両判別部26の判別結果が真(車両と判別)の場合はそのオブジェクトを車両と判別する。
出力部13は、処理結果のデータ信号を外部に出力するためのインターフェース回路、各種設定画面や操作画面、処理結果等を視覚的に表示するためのディスプレイ装置などで構成される。入力部14は、各種の設定や動作に関する指示に係る信号を入力するためのインターフェース回路のほか、各種の操作スイッチなどで構成される。
物体判別装置10は、追尾対象のオブジェクト同士の交差や追尾対象のオブジェクトの障害物の背後への一時的な隠れといった現象が発生した場合でも、その前後で同一オブジェクトを同一のオブジェクトとして追尾する機能を備えている。
図2は、物体判別装置10の処理部12の追尾部21が追尾するオブジェクトの状態遷移を表している。オブジェクトの状態は、未検出であるUNDETECTEDと、UNDETECTEDの状態で検出されたオブジェクトが追尾対象たり得るオブジェクトか否かを判定中のPENDING、追尾対象のオブジェクトと認定されかつ追尾成功中のACTIVE、追尾対象のオブジェクトであるが追尾失敗中(消失中あるいは探索中)のLOST、の4状態で管理される。
オブジェクト未検出の間はUNDETECTED状態が継続する(図中のE1)。UNDETECTED状態でオブジェクトが検出されるとPENDING状態に移行する(E2)。PENDING状態ではその継続時間を計時しており(E4)、PENDING状態で所定時間(PENDING_TIME)が経過するとそのオブジェクトはACTIVE状態に遷移する(E5)。PENDING状態からACTIVE状態に遷移する前に画像から消滅したオブジェクトはUNDETECTED状態に遷移し(E3)、追尾対象から外される。
ACTIVE状態ではその継続時間を計時している(E6)。ACTIVE状態のオブジェクトの追尾に失敗(当該オブジェクトが消失)するとそのオブジェクトはLOST状態に遷移し、ACTIVE状態の継続時間はリセットされる(E7)。LOST状態でもその継続時間を計時しており(E9)、継続時間が所定時間(LOST_TIME)経過すると、該オブジェクトは追尾対象から外されUNDETECTED状態になる(E10)。LOST状態になってから所定時間(LOST_TIME)内に探索ブロックによる探索によって見出(検出)されたオブジェクトはACTIVE状態に戻る(E8)。
図3は、物体判別装置10の処理部12が行う物体判別処理における各処理フェーズを示している。また、図4は物体判別処理の流れを示している。図3に示すように、物体判別処理は、オブジェクト検出フェーズP1と、追尾・探索フェーズP2と、人・車両判別フェーズP3と、注意喚起フェーズP4で構成される。オブジェクト検出フェーズP1は図4の流れ図のステップS1〜S4が対応し、追尾・探索フェーズP2はステップS5〜S10が対応し、人・車両判別フェーズP3はステップS11、S12が対応し、注意喚起フェーズP4はステップS13が対応する。
<オブジェクト検出フェーズP1>
まず、フレーム時刻tを0に初期化し(図4;ステップS1)、続いて、カメラ部11によって取り込まれた処理対象の画像内からオブジェクト候補領域を検出する(ステップS2)。オブジェクト候補領域の検出は、フレーム間の差分処理、二値化処理など公知の手法により行う。
次に、処理対象の画像内においてオブジェクト候補領域が1つ以上検出されたかどうかを確認する(ステップS3)。1つ以上のオブジェクト候補領域が検出された場合は(ステップS3;Yes)、ステップS5へ移行する。オブジェクト候補領域が1つも検出されなかった場合は(ステップS3;No)、状態がLOSTのオブジェクト(以後、これをLOSTオブジェクトと呼ぶ。)が存在するか否かを確認する(ステップS4)。LOSTオブジェクトは、過去に追尾対象として検出されたオブジェクトが消失(追尾失敗)し、消失状態の継続時間が所定時間(LOST_TIME)未満のオブジェクトであり、後述する探索ブロックによって探索中のオブジェクトである。
LOSTオブジェクトが存在しない場合は(ステップS4;No)、フレーム時刻t=t+1として(ステップS14)、ステップS2に戻り、カメラ部11によって取り込まれる次のフレームの画像に対して同様の処理を行う。このように、オブジェクト検出フェーズP1は、オブジェクト候補領域が1つ以上存在するか否かを確認し、存在しない場合はオブジェクト候補領域が検出されるのを待つ状態である。
<追尾・探索フェーズP2>
ステップS5では、オブジェクト検出フェーズP1にて検出されたオブジェクト候補領域に対する追尾・探索処理を行う。オブジェクト追尾・探索処理では、前時刻の画像内のオブジェクトと現在時刻の画像内のオブジェクトとの対応付けを行う追尾処理と、隠れや交差により消失したオブジェクトを探索する探索処理とが行われる。追尾処理は動きベクトルなど公知の手法により、前時刻の画像内のオブジェクトと現在時刻の画像内のオブジェクトとの対応付けにより行う。
消失したオブジェクトを探索するための探索処理は、新規に検出した追尾対象のオブジェクトに対して、その重心周辺に複数の探索ブロックを発生させ、その後は各探索ブロックを追尾対象のオブジェクトに追従させて移動させ、オブジェクト領域内の局所領域(ここでは、探索ブロック単位の領域)に着目して追尾を行う。探索ブロックは、オブジェクトを追尾・探索する際の単位領域である。消失したオブジェクトの探索が所定時間(LOST_TIME)内に成功しなかった場合は、探索しているオブジェクトは消滅したものとみなしてUNDETECTEDの状態にし、追尾対象から外す。オブジェクト追尾・探索処理の詳細は後述する。
オブジェクト追尾・探索処理にて追尾・探索に成功したオブジェクト(ACTIVE状態のオブジェクト)については、形状、動き、テクスチャ等の特徴情報を抽出(算出)する(ステップS6)。形状や動きなどオブジェクトの特徴情報の抽出は公知の任意の手法で行えばよい。抽出したオブジェクトの特徴情報を示す特徴量データは順次、記憶部22に蓄積し、時系列データとして更新あるいは新規に生成する(ステップS7)。オブジェクト毎の時系列に蓄積された特徴量データは、そのオブジェクトが人か車両かの判別に利用される。
その後、追尾対象のオブジェクトが既に車両と判別済みのオブジェクトであれば(ステップS8;Yes)、フレーム時刻t=t+1として(ステップS14)、ステップS2に戻り、カメラ部11によって取り込まれる次のフレームの画像について同様の処理を行う。追尾対象のオブジェクトが既に人と判別されており、かつそのオブジェクトが画像内に存在している(追尾・探索に成功している)場合は(ステップS9;Yes)、ステップS13の注意喚起処理へ移行する。
追尾しているオブジェクトが車両、人のいずれにも判別されていない場合は(ステップS9;No)、追尾オブジェクトに関して、オブジェクト継続時間obj_timeをインクリメントすると共に、図2の状態遷移に従って各オブジェクトの状態(ステータス)を更新し(ステップS10)、人・車両判別処理(ステップS11)に移行する。
<人・車両判別フェーズP3>
人・車両判別処理では、オブジェクト追尾・探索フェーズP2により蓄積記憶された追尾対象のオブジェクトの時系列の特徴量データ(特徴量時系列データとも呼ぶ)をもとに、人・車両に対する信頼度(人らしさ、車両らしさの度合い)を導出し、追尾対象オブジェクトが人であるか、車両であるか、あるいはそれ以外(人とも車両とも判別できない)かの判別を行う(ステップS11)。人・車両判別処理の詳細は後述する。
追尾対象のオブジェクトが人であると判別した場合は(ステップS12;Yes)、注意喚起フェーズP4(ステップS13)に移行し、人と判別できなかった場合は(ステップS12;No)、フレーム時刻tをインクリメント更新し(ステップS14)、ステップS2に戻り、カメラ部11によって取り込まれる次のフレームの画像に対して同様の処理を行う。
<注意喚起フェーズP4>
注意喚起処理では、監視員にその人物の所在位置を分かりやすい形式で伝え、監視注意を促す(ステップS13)。たとえば、カメラ部11からの画像を出力部13のディスプレイ装置に表示する際に、検出した人物の箇所を赤枠で囲って表示する等を行う。また、該表示に合わせて警告音を発するようにしてもよい。その後、フレーム時刻tをインクリメント更新し(ステップS14)、ステップS2に戻って処理を継続する。
次に、図4のステップS5のオブジェクト追尾・探索処理の詳細を説明する。
オブジェクト追尾・探索処理では、公知の手法によりオブジェクトの追尾と、追尾に失敗(消失)したオブジェクト(LOSTオブジェクト)の探索が行われる。探索は、消失した追尾対象のオブジェクトを追尾するように移動する複数の探索ブロックによって行われる。
図5は、探索ブロックによる探索の概略を示している。新規に検出された追尾対象のオブジェクトA(図5の例では人物A)に対して、そのオブジェクトAを追尾対象とする所定サイズの探索ブロックDを複数発生させると共にこれらの各探索ブロックDにその追尾対象のオブジェクトAの特徴情報を対応付けて記憶する(t1)。図5では、斜線を施した各矩形領域が探索ブロックDである。なお、追尾対象の各オブジェクトにはそのオブジェクトを一意に特定する識別情報として固有のオブジェクトIDを割り当ててあり、各探索ブロックにその追尾対象のオブジェクトのオブジェクトIDを登録することで、追尾対象のオブジェクトと探索ブロックとを関連付けする。
その後は、前時刻のフレームの画像と現在時刻のフレームの画像とのマッチング等の既存の手法によりオブジェクトの追尾を行うと共に、各探索ブロックDをその追尾対象のオブジェクトを追尾するように(オブジェクトの動きベクトルに追従するように)移動させる(図5;t2)。
交差や隠れによってオブジェクトの追尾に失敗した場合(消失した場合)は(図5;t3)、そのオブジェクトを追尾対象とする探索ブロックDの移動を所定の移動ルールに従って継続させる。たとえば、ランダムに移動させる、あるいは消失前のオブジェクトの動きにランダムな動きを合成した動きで移動を継続させる。図5では、時刻t3においてオブジェクトAが障害物61の背後に隠れており、各探索ブロックDは、現在時刻までのオブジェクトAの動きとランダムな動きとを合成した動きで移動している。オブジェクトAの消失前の動きの影響は次第に少なくなりランダムな動きが支配的になり、探索ブロックは次第に広い範囲に分散するように移動する(t4)。なお、図5では、時刻t3における各探索ブロックに「t3」の文字を、時刻t4における各探索ブロックに「t4」の文字を付してある。
このように、消失したオブジェクトを探索するように継続的に移動させている探索ブロックの位置(存在領域)にオブジェクトが存在する場合は、そのオブジェクトの特徴情報と各探索ブロックに対応付けて記憶されている追尾対象のオブジェクトの特徴情報とを比較し、該比較結果に基づいて、その探索ブロックの位置に存在するオブジェクトがその探索ブロックの追尾対象のオブジェクトであるか否かを判断する。追尾対象のオブジェクトであればそのオブジェクトに当該探索ブロックに登録されている追尾対象のオブジェクトのオブジェクトIDを割り当てる。これにより、消失の前後で同一オブジェクトを同一オブジェクトとして追尾するようになる。
図5の例では時刻t4に探索ブロックD1によってオブジェクトAが見出(検出)される。追尾対象のオブジェクトが消失した後は、各探索ブロックはランダムな動きが支配的となって移動し拡散しているので、仮にオブジェクトAが破線で示したA’の位置に現れた場合は、その位置に移動していた探索ブロックD2によって発見されることになる。こうして、交差や障害物の背後への一時的な隠れが発生してもその前後で同一のオブジェクトを同一オブジェクトとして(同じオブジェクトIDで)追尾するようになっている。
本実施の形態では、図6に示すように、処理対象の画像(1フレーム分の画像)を複数の小領域(分割ブロックBk)に分割し、オブジェクトを分割ブロック単位で捉える。これにより、追尾に係る計算量が軽減される。ここでは、各分割ブロックBkが矩形となるように処理対象の画像を格子状の境界線で分割している。
図6の例では、オブジェクトAは、斜線を施した33個の矩形の分割ブロックBkに分けられる。オブジェクトAの追尾・探索は分割ブロックBk単位に行われる。これら33個の分割ブロックBkの集合体としてオブジェクトAは認識され、オブジェクトA全体としての形状や重心位置、動きなどの特徴情報が把握される。ここでは、分割ブロックBkの中に占めるオブジェクトの面積が所定の占有率以上(たとえば、50パーセント以上)の場合に、その分割ブロックをオブジェクトの存在する分割ブロックとみなしている。
図7は、オブジェクト追尾・探索処理(図4;ステップS5)の流れを示している。オブジェクト追尾(図7;ステップS21)では、新規に検出されたオブジェクトについてオブジェクトIDを割り当てると共に図8に示すようなオブジェクトデータテーブル30を生成する。
過去時刻において検出済みで既にオブジェクトIDが割り当てられているオブジェクトについては、動きベクトルなど公知の手法により、前時刻の画像内のオブジェクトと現在時刻の画像内のオブジェクトとの対応付け等の手法により追尾する。
次に、新たに追尾対象となったオブジェクトについて探索ブロックを発生させる探索ブロック発生処理を行う(ステップS22)。探索ブロック発生処理の詳細は図9に示してある。処理対象の画像内に存在する、状態(ステータス)がACTIVEであって(ステップS42;Yes)当該オブジェクトを追尾対象とする探索ブロックが0個のオブジェクト(ステップS43;Yes)について、そのオブジェクト領域の重心周辺に複数の探索ブロックを発生させる(ステップS44〜S55)。
探索ブロックは、追尾対象のオブジェクトを追尾・探索する際の単位領域であり、探索ブロックを単位として、その探索ブロックの存在領域に存在するオブジェクトがその探索ブロックが追尾対象としているオブジェクトか否かが判断される。探索ブロックは、追尾対象のオブジェクトが存在する分割ブロック毎に所定(BLOCKFACTOR)個ずつ発生させる。すなわち、追尾対象のオブジェクトのサイズに応じた数の探索ブロックを発生させる。BLOCKFACTOR個は1個以上で任意に設定変更可能な数であり、分割ブロックの領域サイズと探索ブロックの領域サイズとの比率等に基づいて適宜の個数に設定すればよい。たとえば、BLOCKFACTOR個は2〜5個に設定される。図10は、探索ブロックの原点(px0,py0)と中心位置(px,py)との関係を示している。探索ブロックはBLOCK_SIZE×BLOCK_SIZEの画素領域となっている(図10の例では5×5画素の領域)。ここでは、探索ブロックを矩形としたが、探索ブロックの形状はこれに限定されず、円など他の形状であってもかまわない。
また、発生させた探索ブロック毎に図11に示すような探索ブロックデータテーブル40を生成する。探索ブロックデータテーブル40には、対応する探索ブロックの属性を示す情報が登録される。発生時に初期値として以下の値等を探索ブロックデータテーブル40に登録する。
・オブジェクトID:obj_id → 追尾対象のオブジェクトID
・探索ブロックの状態(ステータス):stateobj_id n_block → ON
・探索ブロック位置(x座標):bxobj_id n_block → x
・探索ブロック位置(y座標):byobj_id n_block → y
・探索ブロックの動きベクトル(水平方向):dxobj_id n_block → dx(gx, gy)
・探索ブロックの動きベクトル(垂直方向):dyobj_id n_block → dy(gx, gy)
・探索ブロックの適合度:corobj_id n_block → 1.0
また、探索ブロックの存在領域内の各画素のHSV値(HSV色空間で表現した画素値)から図12に示すようなHSV色空間累積ヒストグラムを生成する。この累積ヒストグラムは、探索ブロック領域を画素単位で走査して導出する。画素値iの場合、j≧iであれば、
histH,S,V(t, j)obj_id n_block = histH,S,V(t, j)obj_id n_block + 1
とする。すなわち、画素値の取り得る値を所定数の階級に区分し、当該画素の画素値がiであれば、iが属する階級以上の各階級の累積値をそれぞれ「1」加算する。この処理を探索ブロック内の全画素に対して行う。
なお、HSV色空間は色相(Hue)、彩度(Saturation・Chroma)、明度(Brightness・Lightness・Value)の三つの成分からなる色空間であり、HSV色空間累積ヒストグラムは、H(色相)成分、S(彩度)成分、V(明度)成分のそれぞれについて生成される。これらのHSV色空間累積ヒストグラムに係る各値は、探索ブロックの位置(存在領域)におけるオブジェクト(画像)の特徴情報としてその探索ブロックに対応付けて記憶される。
次に、全探索ブロックに関する適合度を更新する(図7:ステップS23、詳細は図13に示す)。適合度を更新する処理では、探索ブロックの状態(ステータス)がONとなっている(図13;ステップS63;Yes)すべての探索ブロックに関して、適合度の更新(ステップS64〜S67)を行う。適合度は、探索ブロックの位置(存在領域)に存在するオブジェクトと当該探索ブロックの追尾対象のオブジェクトとの一致度を示す指標である。適合度は、探索ブロックの存在領域に存在するオブジェクトの特徴情報(色など画像としての特徴情報と重心位置に係る特徴情報)とその探索ブロックに対応付けて記憶されているオブジェクトの特徴情報(当該探索ブロックの前時刻の位置に存在していたオブジェクトの特徴情報)との比較に基づいて算出する。本実施の形態では、HSV色空間累積ヒストグラムを用いた場合について記述する。具体的には、探索ブロックの存在領域におけるHSV色空間累積ヒストグラムの時間差分と、当該探索ブロックが追尾対象とするオブジェクトの重心位置と該探索ブロックの中心との距離に基づく距離係数との積により導出する。適合度は1〜0の範囲をとる。具体的には以下の式の通りである。
HSV色空間累積ヒストグラムの時間差分total_diffについては、たとえば下記の式で表わされる。
距離係数に関しては、たとえば下記の式で表わされる。
従って、探索ブロックの中心とオブジェクト領域の重心との距離が近い程、探索ブロックの適合度は高くなる。なお、消失中のオブジェクト(LOSTオブジェクト)についてはLOST状態になる直前のフレーム時刻における重心位置をオブジェクトの重心位置として距離係数を求める。
図14は、探索ブロックの中心とその追尾対象のオブジェクトの重心との距離と適合度との関係を例示したものである。探索ブロックD1、D2は、追尾対象のオブジェクト上にないので、オブジェクト重心との距離が大きく(距離係数(dist_factor)→小)、かつオブジェクト(画像)の特徴情報の一致度(HSV色空間累積ヒストグラムの一致度)も低い(total_diff→小)ので、適合度は低くなる(0に近づく)。探索ブロックD3、D4は追尾対象のオブジェクト上にあるので、オブジェクト重心との距離が小さく(距離係数(dist_factor)→大)、かつオブジェクト(画像)の特徴情報の一致度(HSV色空間累積ヒストグラムの一致度)も高い(total_diff→大)ので、適合度は高くなる(1に近づく)。
次に、分割ブロック領域ID割り当て処理を行う(図7:ステップS24、詳細は図15に示す)。当該処理では、分割ブロック領域内に何らかのオブジェクトが存在しかつ1個以上の探索ブロックが存在している分割ブロックBkに対して、それらの探索ブロックの中で最も優位な(最高適合度を有する)探索ブロックに登録されている追尾対象のオブジェクトIDを割り当てることでその分割ブロックBkに該オブジェクトIDを付与し、該オブジェクトIDのオブジェクトをACTIVE状態にする、ことを行う。元々ACTIVE状態であったオブジェクトはACTIVE状態が継続される。
上記処理により、LOSTオブジェクトを追尾対象とする探索ブロックに登録されているオブジェクトIDがいずれかの分割ブロックBkに割り当てられた場合、LOST状態であったその追尾対象のオブジェクトが見出された(検出された)ことになる。なお、追尾対象のオブジェクトであるがいずれの分割ブロックBkにもオブジェクトIDが付与されなかったオブジェクトは、図4のオブジェクト状態更新処理(S10)においてLOSTオブジェクトと判定されて状態が保持あるいは更新される。
次に、探索ブロック消去処理を行う(図7:ステップS25、詳細は図16に示す)。オブジェクトの状態(ステータス)がUNDETECTEDである場合、あるいは状態がLOSTでありかつオブジェクトの継続時間obj_timeがLOST_TIME以上である(LOST状態がLOST_TIME以上継続した)場合に、当該オブジェクトに属する(当該オブジェクトを追尾対象とする)すべての探索ブロックを削除する。削除は、当該オブジェクトに属するすべての探索ブロックデータテーブルをクリアすることで行う。
次に、探索ブロックリサンプリング処理を行う(図7:ステップS28、詳細は図17に示す)。探索ブロックリサンプリング処理は、ACTIVE状態のオブジェクトに属するすべての探索ブロックについて行われる(図7;ステップS27;Yes)。探索ブロックリサンプリング処理では、追尾対象のオブジェクトが同一の複数の探索ブロック間で、適合度の低い探索ブロックを適合度の高い探索ブロックに確率的に置き換えることが行われる。
ここでは、同一オブジェクト(たとえば、オブジェクトA)を追尾対象とするすべての探索ブロックの適合度の和に対する個々の探索ブロックの適合度の比率をその探索ブロックの出現確率とするルーレットを生成し、該オブジェクトを追尾対象とする探索ブロック毎に前記ルーレットに基づく乱数抽選を行い、その探索ブロックをその抽選結果の出目に対応する探索ブロックに置き換える。すなわち、当該オブジェクトを追尾対象とする全探索ブロックの個数と同じ回数の乱数抽選を前記ルーレットに基づいて行い、抽選毎にその当たりとなった出目に対応する探索ブロックに置き換えることによって、適合度の低い探索ブロックを適合度の高い探索ブロックに置き換わりやすいようにしている。
より詳細には、処理対象の画像内に存在するオブジェクトの中で、状態(ステータス)がACTIVEであるオブジェクト毎に以下の処理を行う。まず、注目しているオブジェクトobj_idに関して、そのオブジェクトに属する探索ブロックn_blockの適合度cor obj_id n_blockを基に、下記の通りルーレットを生成する。
探索ブロックn_blockの状態(ステータス)stateobj_id n_blockがONであるならば、
rouletteobj_id n_block = rouletteobj_id n_block-1 + cor obj_id n_block
探索ブロックn_blockの状態(ステータス)stateobj_id n_blockがOFFであるならば、
rouletteobj_id n_block = rouletteobj_id n_block-1
次に、注目しているオブジェクトobj_idに属する探索ブロック毎に乱数データを生成し、その乱数データをもとにその探索ブロックに関するルーレットの出目を決定した後、当該探索ブロックをその出目に対応する探索ブロックに置き換える。
図18は、任意のオブジェクトについて生成したルーレットの一例を示している。このオブジェクトを追尾対象とする探索ブロックは全部でM個存在する。探索ブロック1からMまでの全探索ブロックの適合度の合計を360度としたルーレット上に、個々の探索ブロックの出目をその適合度の比率に応じた占有角度で配置してある。たとえば、探索ブロック1の出目の占有角度は、((探索ブロック1の適合度)/(全探索ブロックの適合度の合計))×360度となる。
適合度の高い探索ブロックは出目の占有角度も大きいので、その分、乱数抽選で当たりになる確率は高い。一方、適合度の低い探索ブロックは出目の占有角度は小さく、当たりになる確率も低い。したがって、適合度の低い探索ブロックが適合度の高い探索ブロックに置き換えられ易くなる。
ここで、探索ブロックを置き換えるとは、探索ブロックデータテーブル40の内容を、探索ブロックIDを除く項目についてコピーすることである。
先に説明したように、探索ブロックの適合度はその探索ブロックが追尾対象のオブジェクト上に存在する場合は高く、追尾対象のオブジェクト上から外れた位置にある場合は低くなる。したがって、図19(a)に示すように、ACTIVEオブジェクトについて探索ブロックの置き換え(探索ブロックリサンプリング)を行うと、追尾対象のオブジェクトA上にある探索ブロックD5〜D7とオブジェクトA上にない探索ブロックD1〜D4との間で適合度に大きな差が生じる。したがって、探索ブロックリサンプリングにより生成されるルーレットは図19(b)のように(D1〜D4については占有角度が小さく、D5〜D7は占有角度が大きく)なる。
このルーレットを使用して探索ブロック個数回分(ここでは7回)の乱数抽選を行った場合、その結果は、たとえば同図(c)に示すようになり、適合度の低い探索ブロックが適合度の高い探索ブロックに確率的に置き換えられる。図19(d)に示すように、追尾対象のオブジェクト上になかった探索ブロックの多くが追尾対象のオブジェクト上の探索ブロックに置き換えられ、探索ブロックが追尾対象のオブジェクト上に集約されやすくなる。
次に、探索ブロック更新処理を行う(図7:ステップS29、詳細は図20に示す)。探索ブロック更新処理は、各探索ブロックの移動と各探索ブロックに対応付けて記憶してある追尾対象のオブジェクトに関する特徴情報の更新とを行う。画像内に存在するすべての探索ブロックについて、その位置情報、動きベクトルの情報が更新される(ステップS147、S148)。さらに状態(ステータス)がACTIVEであるオブジェクトに属する(当該オブジェクトを追尾対象とする)探索ブロックであって、ステータスがON状態であり、かつ追尾対象のオブジェクトのIDと当該探索ブロックの存在位置の分割ブロックに付与されているオブジェクトのIDとが一致する探索ブロックについては、HSV色空間累積ヒストグラムについても更新する(ステップS146)。
位置情報の更新は以下の通りである。
ここで、rnd_x、rnd_yはそれぞれx、y方向に関する乱数を示す。乱数を加えることで、探索ブロックにランダムな動きを加えることになる。
動きベクトル情報の更新は以下の通りであり、前時刻の探索ブロックの動きベクトルと現在の探索ブロック存在位置の分割ブロックにおける動きベクトルの線形荷重和となっている。
ここで、kは更新割合(慣性定数)を表す。kの値は設定変更可能となっている。追尾に成功している場合はオブジェクトの動きベクトルが支配的になり、追尾に失敗している(追尾対象のオブジェクトが消失している(LOST状態))場合は、乱数による移動が支配的になる。
上記のようにしてオブジェクトの追尾・探索を行うことにより、図5に示すように追尾対象のオブジェクトが障害物61に一時的に隠れた場合でも、障害物61に隠れる前後で同一オブジェクトを同一オブジェクトとして、すなわち、障害物61に隠れる前後の同一オブジェクトに対して同一のオブジェクトIDを割り当てて、追尾することができる。
同様に追尾対象のオブジェクト同士が交差した場合にも、交差の前後で同一のオブジェクトに対して同一のオブジェクトIDを付与して追尾することができる(図21(a)〜(d))。交差領域においては、適合度の高い探索ブロックに優位性がある。図21(b)では、オブジェクトAがオブジェクトBの背後を通過するので前面側のオブジェクトBを追尾している探索ブロックが優位となる。同図(c)に示すように、交差状態からオブジェクトAとBが互いに離れる際には、オブジェクトAに属する探索ブロックはオブジェクトAに追従し、オブジェクトBに属する探索ブロックはオブジェクトBを追従するように移動する(同図(d))。
このように、本実施の形態に係るオブジェクト追尾・探索方法では、新規に追尾対象のオブジェクトを検出した場合に、そのオブジェクトの重心付近に複数の探索ブロックを生成しかつ各探索ブロックにその探索ブロックの存在領域における追尾対象オブジェクトの特徴情報を対応付けて記憶し、その後は、探索ブロックを追尾対象のオブジェクトに追従するように移動させると共に探索ブロックに記憶している追尾対象のオブジェクトの特徴情報の更新を行い、追尾に失敗した後はランダムな動きが支配的となるように探索ブロックの移動を継続させ、探索ブロックという局所領域を単位に適合度を判断して消失した追尾対象のオブジェクトを探索することで、交差や隠れの前後で同一オブジェクトを同一オブジェクトとして追尾する。
なお、追尾しているオブジェクトから図4のステップS6で抽出した形状、動き、テクスチャ等のオブジェクトの特徴情報を示す特徴量データは、図22に示すような、FIFO(First in First out)形式の記憶部22に、時系列データとして保存される(図4、ステップS7)。図22の記憶部22は現在時刻から最大でLmax回前まで時系列に特徴量データを保存するようになっている。図22(a)は記憶部22の途中まで特徴量データを蓄積(L回分蓄積:LはLmax未満の任意の正整数)した状態で、図22(b)はLmax回分の特徴量データで記憶部22が埋まった状態を示している。記憶部22に時系列に記憶された特徴量データは、図4の人・車両判別処理で各追尾対象オブジェクトが人か車両かを判別する際に使用される。
次に、人・車両判別処理(図4のS11)について詳細に説明する。
図23は、人・車両判別処理の流れを示している。人・車両判別処理は追尾対象のオブジェクト毎に行われる。まず、追尾対象のオブジェクトの状態がACTIVE(追尾成功中)であるかどうかを確認し、ACTIVEでない場合は(ステップS201;No)、その追尾対象のオブジェクトに対する人・車両判別処理を終了する。
ACTIVEの場合は(ステップS201;Yes)、その追尾対象のオブジェクトに係る特徴量データが記憶部22に時系列に記憶されている回数(L回とする)が、所定回数(T回とする)以上か否かを確認する(ステップS202)。T回は記憶部22に記憶可能なLmax回以下の任意の複数回数に設定することができる。たとえば、TはLmaxの2分の1に設定される。
L回がT回未満の場合は(ステップS202;No)、その追尾対象のオブジェクトに対する人・車両判別処理を終了する。
L回がT回以上の場合は(ステップS202;Yes)、記憶部22に記憶されているL回分の時系列の特徴量データを判別部24に入力し(ステップS203)、判別部24において、人である信頼度と車両である信頼度とをそれぞれ求める人・車両信頼度導出処理が行われる(ステップS204)。人・車両信頼度導出処理の詳細は図24に示す。
図25は、判別部24が有する人判別部25の構成を示している。人判別部25は、複数個(ここではM個)の判別器51からなる判別器群50と、これらM個の判別器51の出力値にそれぞれ重み係数を乗じた値を加算(荷重和)する加算器52を備えている。判別器51はそれぞれ、人か否かの判別に寄与するいずれかの特徴量データセットについて人らしさを判定した結果を数値として出力する。ここでは、判別器51は、オブジェクトの形状、大きさ、移動速度、移動パターン、テクスチャなどの特徴量データセット毎に設けられ、各判別器51はその判別器51が担当する特徴量データセットに関して人らしさを判定する。人判別部25は、人に関するサンプルと人でないサンプルとによりあらかじめチューニング(重み係数α〜αを調整)し、例えば、人である場合に判別器群50(M個の判別器51)の出力の荷重和Rが正の値、そうでない場合には負の値を出力するように設定される。
車両判別部26も人判別部25と同様の構成であり、判別器群50と加算器52とを備えている。車両判別部26は、車両に関するサンプルと車両でないサンプルとによりあらかじめチューニング(重み係数α〜αを調整)し、例えば、車両である場合に判別器群50の出力の荷重和Rが正の値、そうでない場合には負の値を出力するように設定されている。
人・車両信頼度導出処理においてデータ長L(L回分)の時系列の特徴量データを判別器群50に入力する際には、図26に示すように、データ長L(L回分)の時系列の特徴量データを、所定長TSEGずつ(TSEG回ずつ)のN_DIV個の区間に区切り、時系列データ区間毎にその区間に属する特徴量データに対して、例えば平均等の処理を行って代表値in_aveを求め(図24、ステップS225)、時系列データ区間毎にその区間の代表値in_aveを人判別部25および車両判別部26に入力し、区間毎に荷重和Rを求める。
時系列データ区間j(jは区間番号を示す任意の整数)の入力に対する、M個の特徴量データセットに対応する判別器群50の荷重和Rは下記の通りとなる。
αは判別器mに関する荷重(重み係数)、out は時系列データ区間jの入力に対する判別器mの出力を表す。
人および車両に対する信頼度はそれぞれ、N_DIV個の時系列データ区間に対して、例えば判別器群の荷重和が正の値となる回数の割合により定義する。判別器群の荷重和が正の値となる回数がN_COUNT回であるとすると、人および車両に対する信頼度SCOREは下記の通りとなる。
SCORE = N_COUNT / N_DIV
総合判別部27は、このようにして導出された人に対する信頼度(人信頼度)と、車両に対する信頼度(車両信頼度)と、予め設定された人信頼度閾値および車両信頼度閾値との比較により、追尾対象のオブジェクトが人であるか、車両であるか、人とも車両とも判別できない不確定であるかを判別する(図23、ステップS205〜S209)。
詳細には、人に対する信頼度が人信頼度閾値以上であり(ステップS205;Yes)かつ車両に対する信頼度が車両信頼度閾値未満の場合(ステップS206;No)は、その追尾対象のオブジェクトを人と判別する(ステップS207)。また、人に対する信頼度が人信頼度閾値未満であり(ステップS205;No)かつ車両に対する信頼度が車両信頼度閾値以上の場合(ステップS208;Yes)は、その追尾対象のオブジェクトを車両と判別する(ステップS209)。その他の場合はそのオブジェクトを人、車両いずれにも判別せず、不確定となって処理を終了する。
このように、オブジェクトを追尾し、追尾中にそのオブジェクトの特徴情報を示す特徴量データを時系列に複数回サンプリングして蓄積記憶し、所定期間以上に渡る(T回以上の)時系列の特徴量データに基づいてそのオブジェクトが人であるか車両であるかを判別するので、オブジェクトを検出した直後に人・車両を判別する場合に比べて、高い信頼性で人・車両を判別することができる。すなわち、人は動きの自由度が高くその「見え方」が様々となるので、ある時刻の画像のみに基づく判断では誤りが生じ易いが、本実施の形態の物体判別装置10は所定期間のオブジェクト追尾中に時系列に収集した複数回分の特徴量データに基づいて判別するので、高い信頼性で人・車両を判別することができる。
また交差や隠れがあっても同一オブジェクトを同一オブジェクトとして追尾できるので、追尾中に交差や隠れがあってもその前後をつなげて同一オブジェクトの時系列の特徴量データを収集することができる。
また、人判別部25や車両判別部26では、形状、動き、テクスチャなど複数の特徴量データセットによる総合判断(M個の判別器51の出力の荷重和)により人らしさ、車両らしさを評価するので、より高い信頼性で評価値(荷重和R)を得ることができる。
また、時系列に蓄積記憶されたL回分の特徴量データをN_DIV個の区間に分割し、時系列データ区間毎に人であるか車両であるかを判別(一次判別)し、一次判別で人(あるいは車両)と判別された回数N_COUNT/N_DIV、として信頼度を求めるようにしたので、記憶部22に記憶されているL回の回数が変動しても、同じ尺度やアルゴリズムで信頼度を求めることができる。すなわち、蓄積回数LがTを超えてからLmaxに至る間はL回が次第に増大するが、この間も同じ尺度・アルゴリズムで信頼度を求めることができ、人・車両を適切に判別することができる。また、N_DIV個の区間に分割することでLmaxを大きな値にした場合でも、各回につき一次判別を行うように構成する場合に比べて、演算が簡略化され、信頼度の導出に要する時間が長くなることが防止される。
また、信頼度の導出に使用する特徴量データが所定回数(T回)未満の場合には追尾対象オブジェクトの種類を判別しないので、サンプリング回数の少ない特徴量データによって誤判別されることが防止され、判別の信頼性が確保される。
また、人信頼度と車両信頼度とをそれぞれ求め、人信頼度に基づいて人と判別され、車両信頼度に基づいて車両ではないと判別された場合に最終的に人であると判別し、車両信頼度に基づいて車両と判別され、人信頼度に基づいて人ではないと判別された場合に最終的に車両であると判別するので、より高い信頼性で人・車両の判別が行われる。すなわち、正しく判別が行われれば、人であるか否かを判別する人判別部25の判別結果と車両であるか否かを判別する車両判別部26の判別結果とが排他的関係になることを利用して、判別の信頼性を高めている。
以上、本発明の実施の形態を図面によって説明してきたが、具体的な構成は実施の形態に示したものに限られるものではなく、本発明の要旨を逸脱しない範囲における変更や追加があっても本発明に含まれる。
たとえば、実施の形態では、人、車両を判別する場合を例に説明したが、判別対象の物体の種類はこれらに限定されるものではない。
判別結果の利用方法は、実施の形態で例示した「注意喚起」に限定されるものではない。
特徴量データは、形、大きさなど実施の形態で例示した項目に限定されるものではなく、判別対象の種類の物体か否かを判別するために有効となる特徴量データであれば任意に設定できる。
3種類以上の物体を判別する場合には、種類毎にその種類の物体か否かを判別し、目的の種類の物体であるとの判別結果が真であり、他の種類の物体にかかわる判別結果がすべて真でない場合に、その目的の種類の物体であると最終的に判別するように構成すればよい。
また、実施の形態ではオブジェクトの追尾方法として、消失したオブジェクトを探索ブロックによって追尾・探索する方法を例示したが、これに限定されるものではなく任意の方法で追尾すればよい。交差や隠れの前後で同一オブジェクトを同一オブジェクトとして追尾可能な方法が好ましいが、このような機能のない追尾方法でもかまわない。
実施の形態に示した追尾・探索では、分割ブロック単位にオブジェクトを追尾・探索するようにしたが、オブジェクト単位に追尾を行っても構わない。また実施の形態では、追尾対象のオブジェクトの動きとランダムな動き(乱数に基づく位置変更…数4)との合成によって探索ブロックを移動させることと、ACTIVEオブジェクトに属する探索ブロックを対象にした探索ブロックリサンプリング処理(適合度の低い探索ブロックを適合度の高い探索ブロックに確率的に置き換える処理)との組み合わせにより、追尾に成功している間は探索ブロックを追尾対象のオブジェクトを追尾するように移動させ、消失中はランダムな動きが支配的となるように探索ブロックを移動させたが、探索ブロックの移動方法は実施の形態に例示した方法に限定されない。すなわち、追尾成功中は追尾対象のオブジェクトを追尾し、消失中はランダムな動きが支配的となるという移動ルールで移動すればよく、たとえば、追尾成功中はランダム要素なしに追尾対象の動きベクトルに従って移動させ、消失中は慣性的な動きを排除しランダムな動きのみで移動させるように構成されてもかまわない。
消失中の移動のルールは、消失直前のオブジェクトの動きにランダムな動きを加えることが好ましく、さらには時間の経過と共にランダムな動きがより支配的になるとよい。
実施の形態では、HSV色空間累積ヒストグラムの時間差分とオブジェクトと探索ブロックとの間の距離による距離係数とに基づいて各探索ブロックの適合度を決定するようにしたが、他の基準で適合度を定めてもよい。適合度は、画像としての一致度と、オブジェクトと探索ブロックとの位置関係とを要素として決定されることが好ましい。
本発明の実施の形態に係る物体判別装置のシステム構成を示すブロック図である。 オブジェクトの状態遷移図である。 本発明の実施の形態に係る物体判別装置が行う物体判別処理における処理フェーズを示す説明図である。 発明の実施の形態に係る物体判別装置が行う物体判別処理を示す流れ図である。 探索ブロックによる探索の概略を示す説明図である。 処理対象の画像(1フレーム分の画像)を複数の分割ブロックに分割した状態の一例を示す説明図である。 オブジェクト追尾・探索処理(図4;ステップS5)を示す流れ図である。 オブジェクトデータテーブルを示す説明図である。 探索ブロック発生処理(図7;ステップS22)を示す流れ図である。 探索ブロックの原点(px0,py0)と中心位置(px,py)との関係を示す説明図である。 探索ブロックデータテーブルを示す説明図である。 HSV色空間累積ヒストグラムの一例を示す説明図である。 適合度更新処理(図7:ステップS23)の詳細を示す流れ図である。 探索ブロック中心・追尾対象のオブジェクト重心間の距離と適合度との関係を示す説明図である。 分割ブロック領域ID割り当て処理(図7:ステップS24)の詳細を示す流れ図である。 探索ブロック消去処理(図7:ステップS25)の詳細を示す流れ図である。 探索ブロックリサンプリング処理(図7:ステップS28)の詳細を示す流れ図である。 探索ブロックリサンプリング処理で生成されるルーレットの一例を示す説明図である。 探索ブロックリサンプリング処理による探索ブロックの置き換え状況の一例を示す説明図である。 探索ブロック更新処理(図7:ステップS29)の詳細を示す流れ図である。 交差の前後での探索ブロックによるオブジェクトの追尾・探索状況の一例を示す説明図である。 オブジェクトの特徴量データを時系列に記憶する記憶部の一例を示す説明図である。 人・車両判別処理(図4:ステップS11)の詳細を示す流れ図である。 人・車両信頼度導出処理(図23:ステップS204)を示す流れ図である。 人判別部、車両判別部の構成を示すブロック図である。 データ長L(L回分)の時系列の特徴量データをN_DIV個の区間に分割した状態を示す説明図である。
符号の説明
10…物体判別装置
11…カメラ部
12…処理部
13…出力部
14…入力部
21…追尾部
22…記憶部
23…蓄積制御部
24…判別部
25…人判別部
26…車両判別部
27…総合判別部
30…オブジェクトデータテーブル
40…探索ブロックデータテーブル
50…判別器群
51…判別器
52…加算器
61…障害物
P1…オブジェクト検出フェーズ
P2…追尾・探索フェーズ
P3…人・車両判別フェーズ
P4…注意喚起フェーズ

Claims (6)

  1. カメラから入力される画像内の物体を追尾すると共に、その物体の特徴情報を抽出して該特徴情報を示す特徴量データを記憶部に記憶することを追尾中に複数回行い、
    前記記憶部に記憶されている複数回分の前記特徴量データに基づいて前記物体の種類を判別すると共に、
    前記判別において、前記記憶部に記憶されている複数回分の物体の特徴量データを一部回数ずつのN(Nは2以上の整数)区間に区分し、区間毎にその区間に属する特徴量データを使用して物体の種類を判別する一次判別を行い、前記物体が特定種類である信頼度を前記Nに対する前記一次判別で前記特定種類と判別された回数の比として求め、前記信頼度が閾値以上であって前記記憶部に記憶されている前記物体の特徴量データが所定回数以上の場合に前記物体を前記特定種類の物体であると判別する
    ことを特徴とする物体判別方法。
  2. 前記判別において、前記物体が第1種類の物体か否かを判別する第1判別と、前記物体が第2種類の物体か否かを判別する第2判別とを行い、前記第1判別が真で前記第2判別が真でない場合に前記物体は第1種類の物体であると判別する
    ことを特徴とする請求項1に記載の物体判別方法。
  3. 前記物体の追尾は、
    前記画像内で新規に追尾対象の物体を検出した場合は、その物体を追尾対象とする所定サイズの探索ブロックを複数発生させると共に各探索ブロックに前記物体の特徴情報を対応付けて記憶し、
    前記各探索ブロックをその追尾対象の物体を追尾するように移動させ、
    物体の追尾に失敗した場合は、その物体を追尾対象とする探索ブロックを所定の移動ルールに従って移動させると共に前記探索ブロックの存在領域に存在する物体の特徴情報と前記探索ブロックに対応付けて記憶されている前記特徴情報との比較に基づいて前記物体が当該探索ブロックの追尾対象の物体であるか否かを判断し、前記物体が当該探索ブロックの追尾対象の物体であると判断した場合は該物体を当該探索ブロックの追尾対象の物体であると認定して追尾する、
    方法により行う
    ことを特徴とする請求項1または2に記載の物体判別方法。
  4. カメラから入力される画像内の物体を追尾する追尾部と、
    記憶部と、
    前記追尾部による前記物体の追尾中に、その物体の特徴情報を抽出し該特徴情報を示す特徴量データを前記記憶部に記憶することを複数回行う蓄積制御部と、
    前記記憶部に記憶されている複数回分の前記特徴量データに基づいて前記物体の種類を判別する判別部と、
    を有し、
    前記判別部は、前記記憶部に記憶されている複数回分の物体の特徴量データを一部回数ずつのN(Nは2以上の整数)区間に区分し、区間毎にその区間に属する特徴量データを使用して物体の種類を判別する一次判別を行い、前記物体が特定種類である信頼度を前記Nに対する前記一次判別で前記特定種類と判別された回数の比として求め、前記信頼度が閾値以上であって前記記憶部に記憶されている前記物体の特徴量データが所定回数以上の場合に前記物体を前記特定種類の物体であると判別する
    ことを特徴とする物体判別装置。
  5. 前記判別部は、前記物体が第1種類の物体か否かを判別する第1判別部と、前記物体が第2種類の物体か否かを判別する第2判別部とを有し、前記第1判別部の判別結果が真で前記第2判別部の判別結果が真でない場合に前記物体は第1種類の物体であると判別する
    ことを特徴とする請求項4に記載の物体判別装置。
  6. 前記追尾部は、
    前記画像内で新規に追尾対象の物体を検出した場合は、その物体を追尾対象とする所定サイズの探索ブロックを複数発生させると共に各探索ブロックに前記物体の特徴情報を対応付けて記憶し、
    前記各探索ブロックをその追尾対象の物体を追尾するように移動させ、
    物体の追尾に失敗した場合は、その物体を追尾対象とする探索ブロックを所定の移動ルールに従って移動させると共に前記探索ブロックの存在領域に存在する物体の特徴情報と前記探索ブロックに対応付けて記憶されている前記特徴情報との比較に基づいて前記物体が当該探索ブロックの追尾対象の物体であるか否かを判断し、前記物体が当該探索ブロックの追尾対象の物体であると判断した場合は該物体を当該探索ブロックの追尾対象の物体であると認定して追尾する
    ことを特徴とする請求項4または5に記載の物体判別装置。
JP2008291554A 2008-11-13 2008-11-13 物体判別方法および物体判別装置 Active JP5253102B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008291554A JP5253102B2 (ja) 2008-11-13 2008-11-13 物体判別方法および物体判別装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008291554A JP5253102B2 (ja) 2008-11-13 2008-11-13 物体判別方法および物体判別装置

Publications (2)

Publication Number Publication Date
JP2010117952A JP2010117952A (ja) 2010-05-27
JP5253102B2 true JP5253102B2 (ja) 2013-07-31

Family

ID=42305581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008291554A Active JP5253102B2 (ja) 2008-11-13 2008-11-13 物体判別方法および物体判別装置

Country Status (1)

Country Link
JP (1) JP5253102B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5999105B2 (ja) * 2012-01-17 2016-09-28 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP6000809B2 (ja) * 2012-11-06 2016-10-05 キヤノン株式会社 追尾装置、追尾方法及びプログラム
JP6340957B2 (ja) * 2014-07-02 2018-06-13 株式会社デンソー 物体検出装置および物体検出プログラム
JP6168022B2 (ja) 2014-09-30 2017-07-26 株式会社デンソー 画像認識装置
RU2695888C2 (ru) * 2017-03-24 2019-07-29 Общество С Ограниченной Ответственностью "Многопрофильное Предприятие "Элсис" Способ оценки психофизиологического состояния человека
JP2020177409A (ja) * 2019-04-17 2020-10-29 淳 宮▲崎▼ 情報処理装置、情報処理方法及び情報処理プログラム
CN113950702A (zh) * 2019-06-03 2022-01-18 辉达公司 在视频分析应用中使用相关滤波器的多对象跟踪

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3307354B2 (ja) * 1999-01-29 2002-07-24 日本電気株式会社 人物識別方法及び装置と人物識別プログラムを記録した記録媒体
JP2002157599A (ja) * 2000-11-17 2002-05-31 Nippon Telegr & Teleph Corp <Ntt> 物体検出認識方法,物体検出認識プログラムを記録した記録媒体および物体監視追跡装置
JP4174279B2 (ja) * 2002-09-19 2008-10-29 日本放送協会 映像オブジェクト識別・追跡装置、その方法及びそのプログラム
KR100506095B1 (ko) * 2003-11-17 2005-08-03 삼성전자주식회사 지능형 시스템에 있어서 표식검출방법 및 장치

Also Published As

Publication number Publication date
JP2010117952A (ja) 2010-05-27

Similar Documents

Publication Publication Date Title
JP5253102B2 (ja) 物体判別方法および物体判別装置
US8588466B2 (en) Object area detection system, device, method, and program for detecting an object
JP4541316B2 (ja) 映像監視検索システム
KR101788269B1 (ko) 이상 상황을 감지하는 장치 및 방법
JP5218906B2 (ja) 煙検出装置及び煙検出方法
JP6904346B2 (ja) 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
JP5496566B2 (ja) 不審行動検知方法および不審行動検知装置
JP5358851B2 (ja) 不審行動検知方法および不審行動検知装置
JP5180922B2 (ja) 画像検索システム及び画像検索方法
JPWO2014050518A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
KR102628413B1 (ko) 객체 검출 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
JP5388829B2 (ja) 侵入物体検知装置
US10762372B2 (en) Image processing apparatus and control method therefor
WO2019220589A1 (ja) 映像解析装置、映像解析方法、及びプログラム
KR20110074107A (ko) 카메라를 이용한 오브젝트 검출 방법
US20170053172A1 (en) Image processing apparatus, and image processing method
JP2010028594A (ja) 移動物体監視装置
JP6283008B2 (ja) 追跡装置
JP5253101B2 (ja) オブジェクト追尾方法および画像処理装置
CN103049748A (zh) 行为监测方法及装置
JP2018142173A (ja) 画像監視装置
CN113920585A (zh) 行为识别方法及装置、设备和存储介质
JP4789223B2 (ja) 侵入者監視システム
CN106504282A (zh) 一种视频遮挡检测方法和装置
Zhu et al. Detection and recognition of abnormal running behavior in surveillance video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130416

R150 Certificate of patent or registration of utility model

Ref document number: 5253102

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160426

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250