JP4020982B2 - Moving image processing device - Google Patents
Moving image processing device Download PDFInfo
- Publication number
- JP4020982B2 JP4020982B2 JP05159595A JP5159595A JP4020982B2 JP 4020982 B2 JP4020982 B2 JP 4020982B2 JP 05159595 A JP05159595 A JP 05159595A JP 5159595 A JP5159595 A JP 5159595A JP 4020982 B2 JP4020982 B2 JP 4020982B2
- Authority
- JP
- Japan
- Prior art keywords
- moving
- feature amount
- moving object
- unit
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Emergency Alarm Devices (AREA)
Description
【0001】
【産業上の利用分野】
本発明は、動画像入力装置から入力された画像データを連続的に処理し、そこから得られた情報から移動物体の検出及び移動経路追跡を行うことにより人物や自動車といった移動物体の動作監視を行う動画像処理装置に関するものである。
【0002】
【従来の技術】
動画像を連続的に処理して移動物体を検出するシステムは、既に研究開発が行われており、いくつか実用化されている。これら動画像処理装置における移動物体検出処理を図8を用いて説明する。図8は従来の動画像処理装置のブロック結線図である。図8において、81は画像入力部、82は画像格納部、83は画像前処理部、84は動領域整形部、85は移動物体追跡部である。
【0003】
以下、上記従来の動画像処理装置の動作について説明する。画像入力部81から入力された動画像は、画像格納部82に格納され、画像前処理部83によって前処理が行われる。前処理としては、Kフレーム前(Kは正の整数)の画像と現画像との差分処理を行うフレーム間差分処理や背景画像を作成して現画像との差分処理を行う背景差分処理、或いは単一画像の空間微分処理が用いられる。前処理によって検出された動領域は、動領域整形部84においてノイズ除去等の領域整形処理が行われ、動領域が確定する。動領域が確定すると、移動物体追跡部85において、動領域情報及びその履歴情報を用いて以前に検出された動領域との同定を行い、同一移動物体を追跡する。これらの処理を動画像に対して連続的に行うことで、移動物体を検出し、追跡して行くことができる。
【0004】
画像前処理部83の前処理においては閾値処理が行われる。また、動領域整形部84のノイズ除去や領域統合等の処理においても、その判定パラメータを用いる。従来、これらのパラメータは、視野範囲や俯角等の撮像条件に整合した最適値が予め画像処理装置に提供されていた。屋外の明るさのように変化する環境条件に適応させる必要のある差分閾値のような動的パラメータについては、画像処理によって処理画像内の輝度変化を検出する方法もしくは他センサを用いて環境変化を検出する方法が行われ、この結果によって画像処理装置が最適パラメータを選択していた。
【0005】
【発明が解決しようとする課題】
しかしながら、このような従来の動画像処理システムにおいては、以下の問題点が指摘されていた。まず、フレーム間差分処理においては移動物体が静止した際には差分が検出されず、追跡が困難になることである。また、背景差分処理においては、常に最適な背景画像を作成することが必要であり、環境変化の急峻な屋外等では、背景画像作成及び更新が大きな問題になる。空間微分処理は、動領域のみが検出される処理ではないので、移動物体検出に用いる場合は、物体の存在領域を予め設定する必要がある。或いは空間微分画像の差分処理によって動領域を検出する、もしくは静止物体も含めて認識し移動物体を検出する、といった手法が考えられるが、空間微分画像の単純な差分処理では、動領域を正確に検出することは難しく、また上記フレーム間差分処理及び背景差分処理と同様の問題点が存在する。一方、静止物体認識は、認識対象物体が特定できる環境でなければ実現は難しく、適応できる範囲は限定せざるを得ない。したがって、これら前処理法を用いて正確な移動物体を検出し、追跡するためには、以上に対する解決策が必要であった。
【0006】
また画像前処理部83及び動領域整形部84においては、パラメータが用いられるが、予め与えられたパラメータが十分ではないため、移動物体がうまく検出できない場合や、ノイズや影の除去処理がうまく行かない場合が、また環境条件をうまく検出できずに適したパラメータを選択することができない場合が存在した。或いは環境条件がうまく検出できても、その環境条件のみで最適パラメータが決定できない場合も存在していた。
【0007】
本発明は、上記従来の問題点を解決するもので、移動物体の特徴量を検出し、評価判定することで、フレーム間差分処理を用いても移動物体の静止状態も含めた追跡を実現し、かつ環境条件により決定されたパラメータが不十分であった場合に、即座に最適なパラメータに変更して正確な移動物体検出を実現することのできる動画像処理装置を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記目的を達成するために、本発明の動画像処理装置は、動画像を入力する画像入力部と、前記画像入力部からの画像データをフレーム単位で格納する画像格納部と、前記画像格納部に格納されているフレーム画像データに対してフレーム間差分演算処理を行う画像間演算処理部と、前記画像間演算処理部によって検出された動領域に対し移動物体の存在している領域のみを検出する動領域整形部と、前記動領域整形部によって検出された動領域内の画像データを処理して移動物体の特徴量を検出する特徴量検出部と、前記動領域整形部によって検出された動領域情報を基に移動物体の位置の特徴量を検出する位置検出部と、現フレームの前記移動物体の特徴量と前フレーム時に算出した時系列特徴量とから現フレームにおける新たな時系列特徴量を算出して更新する時系列処理部と、前記特徴量検出部及び位置検出部で検出された特徴量と前記時系列処理部で算出された時系列特徴量の結果を統合して移動物体の識別を行う移動物体識別部を備え、前記移動物体識別部が、前記特徴量検出部、位置検出部及び時系列処理部から送られてきた情報を統合して移動物体の特徴量の評価を行い、特徴量の評価結果が不十分である場合には、前記画像間演算処理部、動領域整形部、特徴量検出部、位置検出部に対しパラメータ変更指令を指示することを特徴としている。
【0009】
【作用】
上記構成によって、本発明の動画像処理装置は、移動物体の特徴量を検出し、評価判定することにより、移動物体を同定し追跡することができる。また、フレーム間差分処理を用いた場合に、移動物体が静止して動領域が検出不可能な場合でも、再度動作を開始して動領域が検出されたときに、移動物体を特徴量によって同定することにより、同一物体と識別して追跡することができる。また、移動物体識別部は、特徴量それ自体と時系列特徴量を用いて移動物体検出の評価を行い、結果が不十分であった場合は、その特徴量検出に相当する処理部に対して処理条件の変更を指令することができ、ある程度十分な結果が得られた特徴量については、その特徴量を基にその移動物体を検出する最適条件を検出し、それを画像間演算処理部、動領域整形部、特徴量検出部、位置検出部に伝達することもできる。
【0010】
【実施例】
(実施例1)
(全体の構成)
以下、本発明の第1の実施例について、図1を参照して説明する。図1は動画像処理装置のブロック結線図である。図1において、1は画像入力部、2は画像格納部、3は画像間演算処理部、4は動領域整形部、5は特徴量検出部、6は位置検出部、7は時系列処理部、8は移動物体識別部である。
【0011】
次に上記実施例の動作について説明する。画像入力部1から入力された動画像は、画像格納部2に格納される。画像格納部2は、Nフレーム分(Nは正の整数)の画像が格納可能である。画像間演算処理部3は、これらN枚の画像を用いて、設定されている時間間隔によるフレーム間差分演算が行われ、ある閾値以上の差が検出された画素を抽出する。これは、Nフレームを累積加算した背景画像と現フレームとの差分演算処理であってもよい。動領域整形部4は、この差分結果を基に、ノイズや影の除去処理及び領域統合処理を行って動領域を決定する。特徴量検出部5は、動領域整形部4によって決定された動領域内の画像データを処理し、特徴量を検出する。位置検出部6は、動領域検出情報から画面上の位置座標の特徴量を移動物体位置情報として算出する。特徴量検出部5及び位置検出部6によって検出された情報は、時系列処理部7に送られ、履歴情報に基づいて時系列特徴量が算出される(後述する実施例29参照)。特徴量検出部5、位置検出部6及び時系列処理部7の出力情報は、移動物体識別部8へと送られ、移動物体識別部8は、これら送られてきた情報を統合処理し、移動物体を識別する。識別処理は、特徴量の評価と判定処理により行われる。特徴量評価は、検出対象に基づく特徴量それ自体の評価、現フレーム特徴量と前フレーム特徴量との距離による評価、時系列特徴量の評価、そして位置情報を用いた複数の移動物体が画面上で交差したというような特殊事象認識による評価を行う。次に、これら評価結果を用いた判定処理を行う。この判定処理では、複数の移動物体交差という特殊事象の発生により特徴量評価結果が判定条件を満たさないという結果を許容する。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0012】
以上のように、本実施例によれば、画像間演算処理部3によって検出され、動領域整形部4によって領域整形された動領域から特徴量検出部5及び位置検出部6によって移動物体の特徴量を検出し、この特徴量及び時系列処理部7によって作成された時系列特徴量を移動物体識別部8によって統合して処理することにより、移動物体を識別し追跡することができるという点で優れた効果が得られる。
【0013】
(実施例2)
(動領域整形部)
次に、本発明の第2の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは動領域整形部4以降における動作である。以下、本実施例の動作について説明する。
【0014】
図1において、入力部1から画像間演算処理部3迄の処理の流れは、実施例1における説明と同様である。画像間演算処理部3によって検出された動領域に対し、動領域整形部4は、動領域内画像データの輝度に対する空間微分処理を行い、エッジ特徴点を検出する。空間微分処理は、勾配オペレータを用いることも可能であり、また二次差分法を用いて零交差点を検出する方法でも可能である。エッジ特徴点を輪郭と見なして動領域を補正する。以下、この処理を図2を用いて説明する。
【0015】
図2において、21は画像間演算処理部3によって検出された動領域、22は検出対象移動物体領域である。画像間演算処理部3によって検出された動領域21内のエッジ特徴点データを走査線方向に加算処理し、輪郭上限A及び下限Bを検出する。AからBの間を処理領域とする。まず動領域左側輪郭線L1上から右方向にエッジ特徴点を検索する。特徴点が検出されたら輪郭候補点として登録する。右側輪郭線L2も同様にして左方向に検索する。次に動領域21内のエッジ特徴点データを走査線に垂直方向に加算処理し、輪郭左限C及び右限Dを検出する。CからDの間を処理領域とし上下輪郭線を検出する。L3上を下方向にエッジ特徴点を検索して上輪郭線を、L4上を上方向にエッジ特徴点を検索して下輪郭線を検出する。これら輪郭抽出処理においては、ノイズやエッジの欠落が発生すると正しい輪郭点は検出されないので、輪郭抽出処理の前にノイズ除去処理や平滑化処理を行っても良い。こうして検出された輪郭線を動領域として、以下、実施例1と同様にして同一移動物体を追跡する。
【0016】
以上のように、本実施例によれば、動領域整形部4によって移動物体の正確な輪郭抽出を実現することにより、移動物体の的確な特徴量の検出が可能な動領域を決定することができるという点で優れた効果が得られる。
【0017】
(実施例3)
次に、本発明の第3の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは動領域整形部4以降における動作である。以下、本実施例の動作について説明する。
【0018】
図1において、入力部1から画像間演算処理部3迄の処理の流れは、実施例1における説明と同様である。画像間演算処理部3によって検出された動領域に対し、動領域整形部4は、動領域整形処理を行う。以下、この処理を図3を用いて説明する。
【0019】
図3において、31はNフレーム(Nは正の整数)前の動領域及び外接長方形、32及び33は現フレームの動領域及び外接長方形、34はこれら外接長方形を統合したもの、35は全ての外接長方形34を包含する統合外接長方形内に現フレーム動領域をプロットしたもの、そして36は統合外接長方形35を現フレーム動領域に外接するように新たに整形した外接長方形を示したものである。動領域整形部4は、現フレームにおける動領域に対する外接長方形32、33とNフレーム前の外接長方形31を34のように統合し、その全てを包含する外接長方形35を作成する。そして外接長方形35の中から現フレーム動領域に外接する唯一の外接長方形36を検出する。これを現フレームにおける外接長方形と決定し、この外接長方形内の動領域を同一移動物体の動領域とする。
【0020】
以上のように、本実施例によれば、動領域整形部4によって移動物体を包含する正確な外接長方形の検出を実現することにより、移動物体を的確に識別し追跡して行くことができるという点で優れた効果が得られる。
【0021】
(実施例4)
(特徴量検出部)
以下、本発明の第4の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0022】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、動領域内画像データの輝度情報を処理し、動領域内の輝度平均値及び分散値を算出する。これを移動物体の特徴量として時系列処理部7及び移動物体識別部8に送出する。時系列処理部7は、履歴情報に基づいて時系列特徴量を算出する。移動物体識別部8は、これら送られてきた特徴量の評価を行う。特徴量評価は、現フレーム平均値及び分散値と前フレーム平均値及び分散値の差の評価、時系列処理部7において算出された平均値及び分散値との差の評価、移動物体の画面上での交差等特殊事象認識による評価を行う。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0023】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として輝度平均値及び分散値を検出し、これら特徴量及びその時系列特徴量を用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0024】
(実施例5)
以下、本発明の第5の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0025】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、動領域内画像データの輝度情報を処理し、動領域内の輝度の度数分布を算出する。度数分布は、256階調のデータの場合、8階調、16階調もしくは32階調毎に度数を計算し分布を求める。求められた度数分布には、動領域全画素数もしくは最頻度度数を基に正規化処理を行う。これを移動物体の特徴量として移動物体識別部8に送出する。移動物体識別部8は、前フレームの輝度度数分布を保持しており、これと現フレームの度数分布との距離を算出する。距離算出方法としては、市街地距離(city block distance 、各度数の差の絶対値の総和、実施例16参照のこと。)やユークリッド距離(各度数の差の自乗の総和)を用いても良いが、ここではDPマッチング法を用いる。現フレームの度数分布列をci 、前フレームの度数分布列をpj (i,j=1〜N、Nは正の整数)としたとき,距離Dは下記式(1)により算出される。
【0026】
【数1】
ここで、この距離算出の際には整合窓の制約条件として下記式(2)を課すものとする。
【0027】
|i−j|≦r(rは予め設定されていた正の整数) ・・・(2)
距離Dが予め設定されていた閾値以下となったとき、これらの動領域を同一の移動物体のものとする。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0028】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として輝度の度数分布を算出し、これを特徴量として用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0029】
(実施例6)
以下、本発明の第6の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0030】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、動領域内画像データの輝度情報を処理し、動領域内の輝度をM個(Mは正の整数)に分割する。M=2の場合、閾値として平均値を用いることができる。その他にクラス間分散が最大となる閾値を用いる方法が考えられ、この場合は、Mが2以上であっても分割数が決定できれば用いることが可能である。さらに、度数分布を用いて分割数を決定し、分割する方法も考えられる。以下、この処理を図4を用いて説明する。
【0031】
図4は度数分布である。度数分布は、256階調のデータの場合、8階調、16階調もしくは32階調毎に度数を計算し分布を求める。このような度数分布となった場合、極大極小点検出により度数分布の分割を行う。ここでは度数分布に対して微分処理を行う。ここで微係数が正から負に変化した数を領域分割数と考えることができる。図4では点A、点B、点Cの3極大点が存在するため、分割数は3である。更に微係数が負から正に変化した時の階調値が領域分割閾値と考えることができる。図4では点D及び点Eが相当する。但し輝度分布の主成分を検出するために、微分処理の際には必要であれば平滑化処理を行う。こうして領域分割数M及び分割閾値が決定したならばこれら閾値を用いて領域分割を行い、M個の分割領域におけるそれぞれの輝度の代表値を求める。代表値としては、各分割領域毎の輝度の平均値でも良いし、また各分割領域における最頻度となる輝度値でも良い。これらを特徴量として、時系列処理部7及び移動物体識別部8に送出する。時系列処理部7は、履歴情報に基づいて時系列特徴量を算出する。移動物体識別部8は、これら送られてきた特徴量の評価を行う。特徴量評価は、現フレームと前フレームの領域分割数Mの比較、各代表値の差の評価、時系列処理部7において算出された分割数及び代表値との差の評価、移動物体の画面上での交差等特殊事象認識による評価を行う。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0032】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として動領域を輝度分布を基にM個に分割し、各分割領域の代表値となる輝度を検出し、これら特徴量及びその時系列特徴量を用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0033】
(実施例7)
以下、本発明の第7の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0034】
図1において、入力部1から動領域整形部4までの処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は実施例6と同様に、輝度の度数分布を算出して輝度分割閾値を検出し、この閾値を基に度数分布をM個(Mは正の整数)に分割する。そして各分割領域の大きさの比率を検出する。領域の大きさとしては、各分割領域に属する全画素数でも良いし、各分割領域における最頻度の度数を用いても良い。これらを特徴量として、時系列処理部7及び移動物体識別部8に送出する。時系列処理部7は、履歴情報に基づいて時系列特徴量を算出する。移動物体識別部8は、これら送られてきた特徴量の評価を行う。特徴量評価は、現フレームと前フレームにおけるこの特徴量の差の評価、時系列処理部7において算出された評価値との差の評価、移動物体の画面上での交差等特殊事象認識による評価を行う。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0035】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として動領域を輝度分布を基にM個に分割し、その分割領域の大きさの比率を検出し、これを特徴量として用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0036】
(実施例8)
以下、本発明の第8の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0037】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、実施例6で示したように動領域内画像データを輝度情報を基にM個(Mは正の整数)に分割する。更に分割された各分割領域の位置情報を検出する。以下、この処理を図5を用いて説明する。
【0038】
図5において、51〜53は分割領域であり、この中から領域51の位置情報を検出する。まず動領域の中から分割領域51に属する画像データを検出する。このとき各画素の輝度情報は検出する必要なく、各画素の位置情報のみ検出すれば良い。次にこの検出した画像データを走査線に対して垂直及び水平方向に加算処理して分割領域の上限座標yU 、下限座標yL 、左限座標xL 、右限座標xR を検出する。これらの座標決定の際には、ノイズを除去するために閾値以上の加算値が得られた点を求める座標として判定する。これらを位置情報としても良いが、上限と下限の中点yC 及び左限と右限の中点xC の座標Pを計算し、それをこの分割領域の位置情報とする。図5においては1個の領域として検出されたが、2個以上の領域に分割された場合はその全体の中心の座標を位置情報としても良いし、予め設定してある閾値以上の大きさとなる領域についてそれぞれの中心座標を位置情報として検出しても良い。この処理を全ての分割領域について行う。これらを特徴量として時系列処理部7及び移動物体識別部8に送出する。時系列処理部7は、履歴情報に基づいて時系列特徴量を算出する。移動物体識別部8は,これら送られてきた特徴量の評価を行う。特徴量評価は、実施例6の評価に加えて、各分割領域の位置情報から対応する現フレームと前フレームの分割領域間の距離を算出し、その総和値を全分割領域の差として評価する。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0039】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として動領域を輝度分布を基にM個に分割し、各分割領域の位置を検出してそれら特徴量及びその時系列特徴量を用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0040】
(実施例9)
以下、本発明の第9の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0041】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、動領域内画像データの色情報として彩度を処理し、動領域内の彩度の平均値を算出する。これを移動物体の特徴量として、時系列処理部7及び移動物体識別部8に送出する。時系列処理部7は、履歴情報に基づいて時系列特徴量を算出する。移動物体識別部8は、これら送られてきた特徴量の評価を行う。特徴量評価は、現フレーム平均値と前フレーム平均値の差の評価、時系列処理部7において算出された平均値との差、移動物体の画面上での交差等特殊事象認識による評価を行う。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0042】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として彩度の平均値を検出し、これら特徴量及びその時系列特徴量を用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0043】
(実施例10)
以下、本発明の第10の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0044】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、動領域内画像データの色情報として彩度を処理し、動領域内の彩度の度数分布を算出する。度数分布は、彩度の値を基に8分割、16分割もしくは32分割し、その分割毎に度数を計算して分布を求める。求められた度数分布には、動領域全画素数もしくは最頻度度数を基に正規化処理を行う。これを移動物体の特徴量として移動物体識別部8に送出する。移動物体識別部8は、前フレームの彩度度数分布を保持しており、これと現フレームの度数分布との距離を算出する。距離算出方法としては、市街地距離やユークリッド距離を用いても良いが、ここではDPマッチング法を用いる。現フレームの度数分布列をci 、前フレームの度数分布列をpj (i,j=1〜N、Nは正の整数)としたとき,距離Dは前記式(1)により算出される。ここでこの距離算出の際には、整合窓の制約条件として前記式(2)を課すものとする。距離Dが予め設定されていた閾値以下となったとき、これらの動領域を同一の移動物体のものとする。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0045】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として彩度の度数分布を算出し、これを特徴量として用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0046】
(実施例11)
以下、本発明の第11の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0047】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、動領域内画像データの色情報として彩度を処理し、彩度が予め与えられた閾値未満になる画素数を計測し、その動領域全体に占める割合を低彩度率として算出する。これを移動物体の特徴量として、時系列処理部7及び移動物体識別部8に送出する。時系列処理部7は、履歴情報に基づいて時系列特徴量を算出する。移動物体識別部8は、これら送られてきた特徴量の評価を行う。特徴量評価は、現フレーム低彩度率と前フレーム低彩度率の差の評価、時系列処理部7において算出された低彩度率との差の評価、移動物体の画面上での交差等特殊事象認識による評価を行う。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0048】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として低彩度の画素の全体に占める割合を検出し、これら特徴量及びその時系列特徴量を用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0049】
(実施例12)
以下、本発明の第12の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0050】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、動領域内画像データの色情報として彩度と色相を処理し、彩度が予め与えられた閾値以上になる画素の色相値の度数分布を算出する。度数分布を求める色相幅は、10度、20度もしくは30度毎とする。求められた度数分布には、動領域全画素数もしくは最頻度度数を基に正規化処理を行う。これを移動物体の特徴量として移動物体識別部8に送出する。移動物体識別部8は、前フレームの色相度数分布を保持しており、これと現フレームの度数分布との距離を算出する。距離算出方法としては、市街地距離やユークリッド距離を用いても良いが、ここではDPマッチング法を用いる。現フレームの度数分布列をci 、前フレームの度数分布列をpj (i,j=1〜N、Nは正の整数)としたとき、距離Dは前記式(1)により算出される。ここでこの距離算出の際には、整合窓の制約条件として前記式(2)を課すものとする。距離Dが予め設定されていた閾値以下となったとき、これらの動領域を同一の移動物体のものとする。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0051】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として色相の度数分布を算出し、これを特徴量として用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0052】
(実施例13)
以下、本発明の第13の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0053】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、動領域内画像データの色情報として彩度と色相を処理し、彩度が予め与えられた閾値以上になる画素の色相値の度数分布を算出する。度数分布を求める色相幅は、10度、20度もしくは30度毎とする。そしてその度数分布を、実施例6と同様に、M個(Mは正の整数)に領域分割し、各分割領域毎の色相値の代表値を求める。代表値としては各分割領域毎の平均値でも良いし、また各分割領域における最頻度となる色相値でも良い。これを移動物体の特徴量として、時系列処理部7及び移動物体識別部8に送出する。時系列処理部7は、履歴情報に基づいて時系列特徴量を算出する。移動物体識別部8は、これら送られてきた特徴量の評価を行う。特徴量評価は、現フレームと前フレームの領域分割数Mの比較、各代表値の差の評価、時系列処理部7において算出された分割数及び代表値との差の評価、移動物体の画面上での交差等特殊事象認識による評価を行う。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0054】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として動領域を色相値の度数分布を基にM個に分割し、各分割領域の代表値となる色相値を検出し、これを特徴量として用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0055】
(実施例14)
以下、本発明の第14の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0056】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、実施例13と同様に、色相値の度数分布を算出して色相分割閾値を検出し、この閾値を基に度数分布をM個(Mは正の整数)に分割する。そして各分割領域の大きさの比率を検出する。領域の大きさとしては、各分割領域に属する全画素数でも良いし、各分割領域における最頻度の度数を用いても良い。これを移動物体の特徴量として、時系列処理部7及び移動物体識別部8に送出する。時系列処理部7は、履歴情報に基づいて時系列特徴量を算出する。移動物体識別部8は、これら送られてきた特徴量の評価を行う。特徴量評価は、現フレームと前フレームにおけるこの特徴量の差の評価、時系列処理部7において算出された評価値との差の評価、移動物体の画面上での交差等特殊事象認識による評価を行う。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0057】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として、動領域を色相値の度数分布を基にM個に分割し、その分割領域の大きさの比率を検出し、これを特徴量として用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0058】
(実施例15)
以下、本発明の第15の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0059】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、実施例13と同様に、色相値の度数分布を算出して色相分割閾値を検出し、この閾値を基に度数分布をM個(Mは正の整数)に分割する。そして各分割領域に属する画像データを検出する。検出した画像データから位置情報を検出する方法は、実施例8と同様に行う。これを移動物体の特徴量として、時系列処理部7及び移動物体識別部8に送出する。時系列処理部7は、履歴情報に基づいて時系列特徴量を算出する。移動物体識別部8は、これら送られてきた特徴量の評価を行う。特徴量評価は、実施例13の評価に加えて、各分割領域の位置情報より対応する現フレームと前フレームの分割領域間の距離を算出し、その総和値を全分割領域の差として評価する。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0060】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として、動領域を色相値の度数分布を基にM個に分割し、各分割領域の位置を検出し、これら特徴量及びその時系列特徴量を用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0061】
(実施例16)
以下、本発明の第16の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0062】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、動領域内画像データから輝度及び色情報を検出する。情報はRGB座標系或いはYUV座標系を用いて検出する方法が考えられるが、ここでは輝度、彩度及び色相という3つの物理量によって検出する。そしてこれら3つの物理量を成分とする3次元のベクトル空間を定義し、この空間における動領域内画像データの度数分布を求める。度数分布を求める際には、各成分を8分割、16分割もしくは32分割し、その分割されたベクトル空間毎に度数を計算する。こうして求められた3次元ベクトル空間における度数分布は、動領域全画素数もしくは最頻度度数を基に正規化処理を行う。これを移動物体の特徴量として、移動物体識別部8に送出する。移動物体識別部8は、前フレームの3次元ベクトル空間における度数分布を保持しており、これと現フレームの度数分布との距離を算出する。距離算出方法としては、DPマッチング法を用いる方法も考えられるが、データ量が多いことを考慮し、簡略化した手法として市街地距離を用いる。もちろんこれ以外にユークリッド距離を用いて距離を算出する方法も考えられる。現フレームの度数分布をci 、前フレームの度数分布をpi (i=1〜N、Nは正の整数)としたとき、距離Dは下記式(3)により算出される。
【0063】
【数2】
距離Dが予め設定されていた閾値以下となったとき、これらの動領域を同一の移動物体のものする。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0064】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として、輝度、彩度及び色相の3つの物理量を成分とする3次元ベクトル空間の度数分布を算出し、これを特徴量として用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0065】
(実施例17)
以下、本発明の第17の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0066】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、動領域内画像データの形状情報として動領域を包含する外接長方形を作成し、この縦横の辺の長さを検出する。更に縦横比率を算出し、これらを移動物体の特徴量として、時系列処理部7及び移動物体識別部8に送出する。時系列処理部7は、履歴情報に基づいて時系列特徴量を算出する。移動物体識別部8は、これら送られてきた特徴量の評価を行う。特徴量評価は、現フレームの辺の長さと前フレームの辺の長さの差及び縦横比率の差の評価、時系列処理部7において算出された辺の長さ及び縦横比率との差の評価、移動物体の画面上での交差等特殊事象認識による評価を行う。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0067】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として、動領域外接長方形の縦横辺の長さ及びその比率を検出し、これら特徴量及びその時系列特徴量を用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0068】
(実施例18)
以下、本発明の第18の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0069】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、その動領域を形成する画素数を計測する。これを移動物体の特徴量として、時系列処理部7及び移動物体識別部8に送出する。時系列処理部7は、履歴情報に基づいて時系列特徴量を算出する。移動物体識別部8は、これら送られてきた特徴量の評価を行う。特徴量評価は、現フレームの動領域画素数と前フレームの動領域画素数の差の評価、時系列処理部7において算出された動領域画素数との差の評価、移動物体の画面上での交差等特殊事象認識による評価を行う。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0070】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として、動領域を形成する画素数を検出し、この特徴量及びその時系列特徴量を用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0071】
(実施例19)
以下、本発明の第19の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0072】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、その動領域を形成する画素数を計測し、その動領域の外接長方形を作成する。そして動領域の画素数の外接長方形の画素数に占める割合を算出する。これを移動物体の特徴量として、時系列処理部7及び移動物体識別部8に送出する。時系列処理部7は、履歴情報に基づいて時系列特徴量を算出する。移動物体識別部8は、これら送られてきた特徴量の評価を行う。特徴量評価は、現フレームの特徴量と前フレームの特徴量の差の評価、時系列処理部7において算出された時系列特徴量との差の評価、移動物体の画面上での交差等特殊事象認識による評価を行う。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0073】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として、動領域を形成する画素数の外接長方形の画素数に占める割合を検出し、この特徴量及びその時系列特徴量を用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0074】
(実施例20)
以下、本発明の第20の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0075】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、その動領域内の画像データの輝度に対する空間微分処理を行い、輝度変化値を検出する。そして全輝度変化値の平均値を求め、画像データのテクスチャ情報とする。これを移動物体の特徴量として、時系列処理部7及び移動物体識別部8に送出する。時系列処理部7は、履歴情報に基づいて時系列特徴量を算出する。移動物体識別部8は、これら送られてきた特徴量の評価を行う。特徴量評価は、現フレームのテクスチャ情報と前フレームのテクスチャ情報の差の評価、時系列処理部7において算出されたテクスチャ情報との差の評価、移動物体の画面上での交差等特殊事象認識による評価を行う。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0076】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として、動領域内輝度変化値の平均値をテクスチャ情報として検出し、この特徴量及びその時系列特徴量を用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0077】
(実施例21)
以下、本発明の第21の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0078】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、実施例20と同様に、その動領域内の輝度変化値をテクスチャ情報として検出する。そしてその度数分布をテクスチャ度数分布として算出する。求められた度数分布には、動領域全画素数もしくは最頻度度数を基に正規化処理を行う。これを移動物体の特徴量として、移動物体識別部8に送出する。移動物体識別部8は、前フレームのテクスチャ度数分布を保持しており、これと現フレームの度数分布との距離を算出する。距離算出方法としては、市街地距離やユークリッド距離を用いても良いが、ここではDPマッチング法を用いる。現フレームの度数分布列をci 、前フレームの度数分布列をpj (i,j=1〜N、Nは正の整数)としたとき、距離Dは前記式(1)により算出される。ここでこの距離算出の際には、整合窓の制約条件として前記式(2)を課すものとする。距離Dが予め設定されていた閾値以下となったとき、これらの動領域を同一の移動物体のものとする。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0079】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として、動領域内輝度変化値の度数分布をテクスチャ度数分布として検出し、この特徴量及びその時系列特徴量を用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0080】
(実施例22)
以下、本発明の第22の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0081】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、実施例20と同様に、その動領域内の輝度変化値をテクスチャ情報として検出し、その度数分布をテクスチャ度数分布として算出する。そしてその度数分布を、実施例6と同様に、M個(Mは正の整数)に領域分割し、各分割領域毎の輝度変化値の代表値を求める。代表値としては、各分割領域毎の輝度変化値の平均値でも良いし、また各分割領域における最頻度となる輝度変化値でも良い。これらを移動物体の特徴量として、時系列処理部7及び移動物体識別部8に送出する。時系列処理部7は、履歴情報に基づいて時系列特徴量を算出する。移動物体識別部8は、これら送られてきた特徴量の評価を行う。特徴量評価は、現フレームと前フレームの領域分割数Mの比較、各代表値の差の評価、時系列処理部7において算出された分割数及び代表値との差の評価、移動物体の画面上での交差等特殊事象認識による評価を行う。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0082】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として、動領域をテクスチャ度数分布を基にM個に分割し各分割領域のテクスチャの代表値を検出し、これら特徴量及びその時系列特徴量を用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0083】
(実施例23)
以下、本発明の第23の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0084】
図1において、入力部1から動領域整形部4までの処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は実施例22と同様に、輝度変化値をテクスチャ情報としてその度数分布を算出して分割閾値を検出し、この閾値を基に度数分布をM個(Mは正の整数)に分割する。そして各分割領域の大きさの比率を検出する。領域の大きさとしては、各分割領域に属する全画素数でも良いし、各分割領域における最頻度の度数を用いても良い。これらを特徴量として、時系列処理部7及び移動物体識別部8に送出する。時系列処理部7は、履歴情報に基づいて時系列特徴量を算出する。移動物体識別部8は、これら送られてきた特徴量の評価を行う。特徴量評価は、現フレームと前フレームにおけるこの特徴量の差の評価、時系列処理部7において算出された評価値との差の評価、移動物体の画面上での交差等特殊事象認識による評価を行う。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0085】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として、動領域をテクスチャ度数分布を基にM個に分割しその分割領域の大きさの比率を検出し、これを特徴量として用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0086】
(実施例24)
以下、本発明の第24の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0087】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、実施例22と同様に、輝度変化値をテクスチャ情報としてその度数分布を算出して分割閾値を検出し、この閾値を基に度数分布を分割し、M個(Mは正の整数)の分割領域を検出する。そして各分割領域に属する画像データを検出する。検出した画像データから位置情報を検出する方法は、実施例8と同様に行う。これを移動物体の特徴量として時系列処理部7及び移動物体識別部8に送出する。時系列処理部7は、履歴情報に基づいて時系列特徴量を算出する。移動物体識別部8は、これら送られてきた特徴量の評価を行う。特徴量評価は、実施例22の評価に加えて、各分割領域の位置情報より対応する現フレームと前フレームの分割領域間の距離を算出し、その総和値を全分割領域の差として評価する。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0088】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として、動領域をテクスチャ度数分布を基にM個に分割し、各分割領域の位置を検出し、これら特徴量及びその時系列特徴量を用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0089】
(実施例25)
以下、本発明の第25の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは特徴量検出部5以降における動作である。以下、本実施例の動作について説明する。
【0090】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、動領域内画像データの輪郭線を検出する。輪郭線検出の際にはノイズの影響を除去するためにノイズ除去処理や平滑化処理を行っても良い。以下、輪郭線検出処理を図6を用いて説明する。
【0091】
図6(a)において、輪郭線検出処理は、A点から開始して動領域を一回りしてA点に戻ってくる。A点の決定方法は、一番最初に動領域を検出した時点において、その動領域の最左上点をA点とする。次の処理からは、直前に検出されたA点の近傍領域E内に存在する動領域を検出し、その最左上点を処理開始点Aとする。輪郭線が検出されたならば、その輪郭線から輪郭線ベクトルを検出する。いま、輪郭線ベクトルを検出したいi個目の輪郭線座標をPi (xi ,yi )、そのk個後(i,kは1以上の整数)の輪郭線座標をPi+k (xi+k ,yi+k )とすると、その点の輪郭線ベクトルは、下記式(4)として算出される。
【0092】
Vi (vxi,vyi)=Vi (xi+k −xi ,yi+k −yi ) ・・・(4)
次に、この輪郭線ベクトルの特徴点を検出するため、下記式(5)を用いて評価値Rとして算出する。
R=(vxi−vxi-1)2 +(vyi−vyi-1)2 ・・・(5)
但し、Vi-i (vxi-1,vyi-1)はi−1番目の輪郭線ベクトル
【0093】
図6(a)におけるRの度数分布を図6(b)に示す。直線部分の輪郭ベクトルの評価値Rは、原点付近に集まるため、それ以外の度数分布が集積した部分を輪郭線における特徴点とし、その座標を輪郭線の特徴点座標とする。図6(c)のような端点は唯一の特徴点として検出される。また、図6(d)のように複数の特徴点が連続して検出された場合は評価値R最大の一点のみを特徴点とする。図6(a)においては、点A、点B、点C、点Dが特徴点として検出される。こうして検出された特徴点は、Nフレーム前(Nは正の整数)の特徴点と対応付け処理を行い、移動ベクトルとして検出する。対応付け処理では、特徴点座標及び輪郭線ベクトルの類似度より対応点を検索し、該当する特徴点が存在しない場合は、その特徴点における輪郭線ベクトルは検出しないものとする。移動ベクトルのx及びy方向成分分布を図6(e)及び図6(f)に示す。このそれぞれの最頻度値xv 及びyv を成分とするベクトルV(xv ,yv )を現在着目している移動物体の移動ベクトルとして算出する。但し、移動物体の形状よっては特徴点が余り検出されない場合があり、十分な移動ベクトルの成分分布が得られない。このときは、各移動ベクトル成分の平均値やメジアンを成分とする移動ベクトルを算出し、移動物体の移動ベクトルとする。これを移動物体の特徴量として、時系列処理部7及び移動物体識別部8に送出する。時系列処理部7は、履歴情報に基づいて時系列特徴量を算出する。移動物体識別部8は、これら送られてきた特徴量の評価を行う。特徴量評価は、現フレームの特徴量と前フレームの特徴量の差の評価、時系列処理部7において算出された時系列特徴量との差の評価、移動物体の画面上での交差等特殊事象認識による評価を行う。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0094】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として移動物体の移動ベクトルを検出し、この特徴量及びその時系列特徴量を用いることにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0095】
(実施例26)
(位置検出部)
以下、本発明の第26の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは位置検出部6以降における動作である。以下、本実施例の動作について説明する。
【0096】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって検出された動領域を包含する外接長方形を図7に示す。
【0097】
図7において、Wは外接長方形の幅である。位置検出部6は移動物体の運動平面との接点の最上点の画像上の座標Qを算出し、これを位置情報とする。点Pの画像上位置座標をP(x,y)とすると、点Qの位置座標は下記式(6)として算出される。
Q=(x+W/2,y) ・・・(6)
【0098】
こうして算出された移動物体位置情報は、時系列処理部7及び移動物体識別部8へと送られる。時系列処理部7は、履歴情報に基づいて時系列処理された位置情報を算出する。移動物体識別部8は、これら送られてきた位置情報の評価を行う。評価は、現フレームと前フレームの位置情報の差の比較、時系列処理部7において算出された位置情報との差の比較により行う。またこの位置情報と動領域の大きさから、複数の移動物体が画面上で交差したというような特殊事象認識を行う。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0099】
以上のように、本実施例によれば、位置検出部6によって移動物体の位置の特徴量として移動物体の運動平面との接点の最上点の座標を検出し、この特徴量及びその時系列特徴量を用いることにより、移動物体を識別し追跡することができるという点で優れた効果が得られる。
【0100】
(実施例27)
以下、本発明の第27の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは位置検出部6以降における動作である。以下、本実施例の動作について説明する。
【0101】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって検出された動領域を包含する外接長方形を図7に示す。
【0102】
図7において、Hは外接長方形の高さである。位置検出部6は、移動物体の運動平面との接点の画像上の座標Rを算出し、これを位置情報とする。点Pの画像上位置座標をP(x,y)とすると、点Rの位置座標は下記式(7)として算出される。
R=(x+W/2,y+H) ・・・(7)
【0103】
こうして算出された移動物体位置情報は、時系列処理部7及び移動物体識別部8へと送られる。時系列処理部7は、履歴情報に基づいて時系列処理された位置情報を算出する。移動物体識別部8は、これら送られてきた位置情報の評価を行う。評価は、現フレームと前フレームの位置情報の差の比較、時系列処理部7において算出された位置情報との差の比較により行う。またこの位置情報と動領域の大きさから、複数の移動物体が画面上で交差したというような特殊事象認識を行う。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0104】
以上のように、本実施例によれば、位置検出部6によって移動物体の位置の特徴量として移動物体の運動平面との接点座標を検出し、この特徴量及びその時系列特徴量を用いることにより、移動物体を識別し追跡することができるという点で優れた効果が得られる。
【0105】
(実施例28)
以下、本発明の第28の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは位置検出部6以降における動作である。以下、本実施例の動作について説明する。
【0106】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって検出された動領域を包含する外接長方形を図7に示す。
【0107】
位置検出部6は、移動物体の運動平面との接点の最上点の画像上の座標Q及び運動平面との接点の画像上の座標Rを算出し、これらを位置情報とする。点Pの画像上位置座標をP(x,y)とすると、点Qの位置座標は上記式(6)、点Rの位置座標は上記式(7)として算出される。こうして算出された移動物体位置情報は時系列処理部7及び移動物体識別部8へと送られる。時系列処理部7は、履歴情報に基づいて時系列処理された位置情報を算出する。移動物体の運動平面との接点が障害物によって遮蔽された場合、移動物体識別部8は、これら位置情報において座標Qとその時系列処理によって算出された座標Q’との差、座標Rとその時系列処理によって算出された座標R’との差、外接長方形等の特徴量及び移動物体の画面上での交差等特殊事象認識による評価結果を基に総合的に判断し、移動物体の運動平面との接点が障害物によって遮蔽されているものと判断する。この判断がなされたならば、移動物体識別部8は、座標Q及び移動物体の推定高He を用いて推定座標Re を下記式(8)として算出し、移動物体の運動平面との接点座標とする。
Re (x+W/2,y+He ) ・・・(8)
【0108】
移動物体推定高He は、動領域外接長方形の前フレーム特徴量及びその時系列特徴量を用いて算出する。移動物体識別部8は、こうして求められた運動平面との接点座標を特徴量として、移動物体の識別追跡のために用いる。
【0109】
以上のように、本実施例によれば、位置検出部6によって検出された移動物体の特徴量として、検出された移動物体の運動平面との接点及びその最上点の座標を用いて、移動物体の運動平面との接点が障害物によって遮蔽されていることを検出し、移動物体の運動平面との接点座標を特徴量として推定算出することにより、移動物体を識別し追跡することができるという点で優れた効果が得られる。
【0110】
(実施例29)
(時系列処理部)
以下、本発明の第29の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは時系列処理部7以降における動作である。以下、本実施例の動作について説明する。
【0111】
図1において、入力部1から特徴量検出部5及び位置検出部6迄の処理の流れは、実施例1における説明と同様である。特徴量検出部5及び位置検出部6によって検出された情報は、時系列処理部7に送られる。時系列処理部7は、現フレーム処理において検出された特徴量Tc とそれ以前のフレーム処理において算出されていた時系列特徴量Tp に対し、下記式(9)を用いて現フレームにおける時系列特徴量として算出する。
【0112】
処理開始の一番最初は、現フレーム処理において検出された特徴量を時系列特徴量として登録し、時間が経過するにつれて更新して行く。算出された時系列特徴量は、移動物体識別部8へと送出され、実施例1と同様に、特徴量と統合されて識別処理が行われる。識別処理は、現フレーム特徴量と前フレーム特徴量との差、時系列特徴量との差、移動物体の画面上での交差等特殊事象認識による評価を行う。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0113】
以上のように、本実施例によれば、時系列処理部7によって移動物体の特徴量の時系列特徴量を算出し、これを特徴量として用いることにより、ノイズ等の影響による特徴量の急峻な変化を吸収し、時間的に変化している特徴量については追従して行く特徴量を算出することにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0114】
(実施例30)
以下、本発明の第30の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは時系列処理部7以降における動作である。以下、本実施例の動作について説明する。
【0115】
図1において、入力部1から特徴量検出部5及び位置検出部6迄の処理の流れは、実施例1における説明と同様である。特徴量検出部5及び位置検出部6によって検出された情報は、時系列処理部7に送られる。時系列処理部7は、現フレーム処理において検出された特徴量とKフレーム前(Kは正の整数)の処理に検出された特徴量との差の絶対値dTc と、それ以前のフレーム処理において算出されていたKフレーム間の差の絶対値の時系列特徴量dTp に対し、下記式(10)を用いて現フレームにおける時系列特徴量として算出する。
【0116】
この処理は、Kフレーム経過する迄実行されない。処理開始の一番最初は現フレーム処理において検出された特徴量の差を時系列特徴量として登録し、時間が経過するにつれて更新して行く。算出された時系列特徴量は、移動物体識別部8へと送出され、実施例1と同様に、特徴量と統合されて識別処理が行われる。識別処理は、現フレーム特徴量とKフレーム前の特徴量の差と、この時系列特徴量との差を評価して行う。この処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0117】
以上のように、本実施例によれば、時系列処理部7によって移動物体の特徴量のKフレーム間の差の絶対値及びその時系列特徴量を算出し、これを特徴量として用いることにより、時間的に一定の変化をしている特徴量の特性を検出することができると共に、ノイズ等の影響による特徴量の急峻な変化を吸収しながら、時間的に変化している特徴量については追従して行く特徴量を算出することにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0118】
(実施例31)
(移動物体識別部)
以下、本発明の第31の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは主に移動物体識別部8における動作である。以下、本実施例の動作について説明する。
【0119】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、実施例25と同様に、移動物体の移動ベクトルを検出する。そして最頻度値xv 及びyv を成分とするベクトルV(xv ,yv )を現在着目している移動物体の移動ベクトルとして算出する。ここでベクトル群Vg(xv ±dx,yv ±dy)に属する移動ベクトルを生成する特徴点の数の、全特徴点数に占める割合を移動ベクトルが検出できなかった特徴点も含めて算出する。dx及びdyは予め設定しておく。そしてこの割合が予め与えられた閾値以上の場合に剛体、未満の場合に非剛体として判定する。この判定結果を移動物体識別部8に送出し、移動物体識別部8は、その判定結果を移動物体の属性として、移動物体追跡処理に用いる。
【0120】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として移動物体の移動ベクトルを検出し、この特徴量を用いて移動物体が剛体であるか非剛体であるかを判定することにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0121】
(実施例32)
以下、本発明の第32の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは主に移動物体識別部8における動作である。以下、本実施例の動作について説明する。
【0122】
図1において、入力部1から動領域整形部4迄の処理の流れは、実施例1における説明と同様である。動領域整形部4によって整形された動領域に対し、特徴量検出部5は、実施例25と同様に、移動物体の移動ベクトルを検出する。そして実施例31と同様の方法により、その移動物体が剛体であるか非剛体であるかを判定し、その判定結果を時系列処理部7及び移動物体識別部8に送出する。非剛体と判定された場合、時系列処理部7は、履歴情報に基づいて移動物体の形状特徴量の時間変化の固有周期を求める。2×Nフレーム(Nは正の整数)の特徴量の数列を格納しておき、そのうち手前のNフレームの特徴量数列を0からN−1フレーム迄シフトさせて各特徴量毎の差の自乗を計算し、その総和の最小値を相関値Rとして下記式(11)を用いて算出する。
【0123】
【数3】
【0124】
処理の簡単化を図るために、特徴量の差の絶対値の総和を相関値Rとしても良い。導かれた相関値Rが予め設定されていた閾値に比べて小さいときは、特徴量に周期性があったと判定し、そのときのシフト数Kを特徴量の固有周期とする。この判定結果を移動物体識別部8に送り、移動物体識別部8は、この判定結果を移動物体の属性として、移動物体追跡処理に用いる。
【0125】
以上のように、本実施例によれば、特徴量検出部5によって移動物体の特徴量として移動物体の移動ベクトルを検出し、この特徴量を用いて移動物体が剛体であるか非剛体であるかを判定し、非剛体であると判定された場合に、その移動物体の形状特徴量の時間的変化の固有周期を検出することにより、移動物体の識別を実現することができるという点で優れた効果が得られる。
【0126】
(実施例33)
以下、本発明の第33の実施例について説明する。本実施例における動画像処理装置は、図1に示した第1の実施例と同じ構成を備え、異なるのは移動物体識別部8以降における動作である。以下、本実施例の動作について説明する。
【0127】
図1において、入力部1から特徴量検出部5、位置検出部6及び時系列処理部7迄の処理の流れは、実施例1における説明と同様である。これらの処理結果は移動物体識別部8へと送られ、移動物体識別部8は、これら送られてきた情報を統合処理し、移動物体を識別する。識別処理は、特徴量の評価と判定処理により行われる。特徴量評価は、検出対象に基づく特徴量それ自体の評価、現フレーム特徴量と前フレーム特徴量との距離による評価、時系列特徴量の評価、そして位置情報を用いた複数の移動物体が画面上で交差したというような特殊事象認識による評価を行う。例えば現フレーム処理において検出された特徴量をTc 、時系列特徴量をTp 、判定閾値をαとした時、下記式(12)が満足されない場合、移動物体識別部8は特徴量の信頼度が低いと判断する。
|Tc −Tp |≦α ・・・(12)
【0128】
次に、これら評価結果を用いた判定処理を行う。この判定処理では、複数の移動物体交差という特殊事象の発生により、特徴量評価結果が判定条件を満たさないという結果を許容する。特殊事象の発生が検出されず、特徴量評価結果が不十分である場合は、その特徴量検出に相当する特徴量検出部5或いは位置検出部6にパラメータ変更指令を与える。更に移動物体識別部8は、ある程度十分な結果が得られた特徴量については、その特徴量を基にその移動物体を検出する最適パラメータを検出し、それを前記画像間演算処理部3、動領域整形部4、特徴量検出部5、位置検出部6に伝達することもできる。例えば、特徴量を統合することによって移動物体の移動速度及び方向が算出されたならば、その条件を画像間演算処理部3及び動領域整形部4に送り、これらの処理部は、この条件に最も適した時間間隔で画像間演算処理や動領域整形処理を行うことが可能である。また移動物体の大きさからノイズ除去処理の最適パラメータを動的に決定し、動領域整形部4に送出することも可能である。或いは高信頼度の時系列特徴量Tp を特徴量検出部5及び位置検出部6に送出し、各検出部はこの情報を自分自身の処理に反映させることも可能である。これらの処理を動画像に対して連続的に行い、前処理画面と同一移動物体と判断された動領域を同一動領域と決定することにより、同一移動物体を追跡する。
【0129】
以上のように、本実施例によれば、移動物体識別部8が、特徴量検出部5、位置検出部6及び時系列処理部7から送られてきた情報を統合して移動物体を識別し、評価結果が不十分である場合は、それを画像間演算処理部3、動領域整形部4、特徴量検出部5、位置検出部6に伝達することによってパラメータの最適化を図り、正確な移動物体の識別を実現することができるという点で優れた効果が得られる。
【0130】
【発明の効果】
以上のように、本発明は、移動物体の特徴量を検出する特徴量検出部を設けることにより、移動物体を特徴量により評価判定することで移動物体を識別し追跡することができる。また、フレーム間差分処理を用いた場合に、移動物体が静止して動領域が検出不可能な場合においても、再度動作を開始して動領域が検出された時に、移動物体を特徴量によって同定することにより、同一物体と識別して追跡することができる。さらに、移動物体識別部は、特徴量それ自体と時系列特徴量を用いて移動物体検出の評価を行うため、特徴量のノイズ等による急峻な変化を吸収して正確な移動物体の追跡を実現することができ、また移動物体の識別結果が不十分であった場合は、その特徴量検出に相当する処理部に対して処理条件の変更を指令することができ、ある程度十分な結果が得られた特徴量については、その特徴量を基にその移動物体を検出する最適条件を検出し、それを画像間演算処理部、動領域整形部、特徴量検出部、位置検出部に伝達することにより、優れた動画像処理装置を実現できるものである。
【図面の簡単な説明】
【図1】本発明の第1から第33の実施例における動画像処理装置のブロック結線図
【図2】本発明の第2の実施例における動領域内からの移動物体検出を示す概念図
【図3】本発明の第3の実施例における動領域整形法を示す概念図
【図4】本発明の第6の実施例における度数分布図
【図5】本発明の第8の実施例における分割領域の位置座標決定法を示す概念図
【図6】(a)本発明の第25の実施例における輪郭線検出法を示す概念図
(b)本発明の第25の実施例における輪郭ベクトル評価値の度数分布
(c)本発明の第25の実施例における輪郭線特徴点
(d)本発明の第25の実施例における輪郭線特徴点
(e)本発明の第25の実施例における移動ベクトルx成分分布
(f)本発明の第25の実施例における移動ベクトルy成分分布
【図7】本発明の第26〜第28の実施例における動領域位置情報を示す概念図
【図8】従来の実施例における動画像処理装置のブロック結線図
【符号の説明】
1 画像入力部
2 画像格納部
3 画像間演算処理部
4 動領域整形部
5 特徴量検出部
6 位置検出部
7 時系列処理部
8 移動物体識別部
21 画像間演算処理部によって検出された動領域
22 検出対象移動物体領域
31 Nフレーム(Nは正の整数)前の動領域及び外接長方形
32 現フレームの動領域
33 現フレームの動領域
34 31〜33の外接長方形を統合した状態
35 34を包含する外接長方形に現フレーム動領域をプロットした状態
36 整形された外接長方形
51 動領域の分割領域
52 動領域の分割領域
53 動領域の分割領域
81 画像入力部
82 画像格納部
83 画像前処理部
84 動領域整形部
85 移動物体追跡部[0001]
[Industrial application fields]
The present invention continuously processes the image data input from the moving image input device, detects the moving object from the information obtained from it, and tracks the moving path, thereby monitoring the operation of the moving object such as a person or a car. The present invention relates to a moving image processing apparatus.
[0002]
[Prior art]
Research and development has already been conducted on a system for detecting moving objects by continuously processing moving images, and several systems have been put into practical use. The moving object detection process in these moving image processing apparatuses will be described with reference to FIG. FIG. 8 is a block connection diagram of a conventional moving image processing apparatus. In FIG. 8, 81 is an image input unit, 82 is an image storage unit, 83 is an image preprocessing unit, 84 is a moving area shaping unit, and 85 is a moving object tracking unit.
[0003]
The operation of the conventional moving image processing apparatus will be described below. The moving image input from the
[0004]
In the preprocessing of the
[0005]
[Problems to be solved by the invention]
However, in such a conventional moving image processing system, the following problems have been pointed out. First, in the inter-frame difference processing, when the moving object is stationary, the difference is not detected, and tracking becomes difficult. In addition, in background difference processing, it is necessary to always create an optimal background image, and the creation and updating of a background image is a big problem in the outdoors where the environment changes rapidly. Since the spatial differentiation process is not a process in which only a moving region is detected, it is necessary to set an object existing region in advance when used for detecting a moving object. Alternatively, a method of detecting a moving area by differential processing of a spatial differential image or recognizing a moving object including a stationary object can be considered, but a simple differential processing of a spatial differential image can accurately It is difficult to detect, and there are the same problems as the inter-frame difference process and the background difference process. On the other hand, static object recognition is difficult to implement unless it is an environment in which a recognition target object can be specified, and the applicable range must be limited. Therefore, in order to detect and track an accurate moving object using these preprocessing methods, a solution to the above is required.
[0006]
In the image pre-processing
[0007]
The present invention solves the above-described conventional problems, and realizes tracking including the stationary state of the moving object even if inter-frame difference processing is used by detecting and evaluating the feature amount of the moving object. An object of the present invention is to provide a moving image processing apparatus capable of realizing accurate moving object detection by immediately changing to an optimum parameter when parameters determined by environmental conditions are insufficient. .
[0008]
[Means for Solving the Problems]
To achieve the above object, a moving image processing apparatus according to the present invention includes an image input unit that inputs a moving image, an image storage unit that stores image data from the image input unit in units of frames, and the image storage unit. An inter-image calculation processing unit that performs inter-frame difference calculation processing on the frame image data stored in the image, and detects only a region where a moving object exists in the moving region detected by the inter-image calculation processing unit. A moving region shaping unit, a feature amount detecting unit that detects the feature amount of a moving object by processing image data in the moving region detected by the moving region shaping unit, and a moving region detected by the moving region shaping unit. A new time series in the current frame from the position detection unit that detects the feature quantity of the position of the moving object based on the region information, and the feature quantity of the moving object in the current frame and the time series feature quantity calculated in the previous frame The time series processing unit that calculates and updates the collected amount, the feature amount detected by the feature amount detection unit and the position detection unit, and the result of the time series feature amount calculated by the time series processing unit are integrated and moved Equipped with a moving object identification unit that identifies objects The moving object identification unit integrates the information sent from the feature amount detection unit, the position detection unit, and the time series processing unit to evaluate the feature amount of the moving object, and the evaluation result of the feature amount is insufficient If it is, a parameter change command is instructed to the inter-image calculation processing unit, the moving region shaping unit, the feature amount detection unit, and the position detection unit. is doing.
[0009]
[Action]
With the above-described configuration, the moving image processing apparatus of the present invention can identify and track a moving object by detecting a feature amount of the moving object and performing an evaluation determination. In addition, when using the inter-frame difference processing, even if the moving object is stationary and the moving area cannot be detected, the moving object is identified by the feature amount when the moving area is detected after the operation is started again. By doing so, it is possible to identify and track the same object. In addition, the moving object identification unit evaluates the moving object detection using the feature quantity itself and the time series feature quantity, and if the result is insufficient, the moving object identification section performs the processing corresponding to the feature quantity detection. For feature quantities that can be commanded to change the processing conditions, and that have obtained a sufficiently satisfactory result, an optimum condition for detecting the moving object is detected based on the feature quantities, and the inter-image calculation processing unit is detected. It can also be transmitted to the moving region shaping unit, the feature amount detection unit, and the position detection unit.
[0010]
【Example】
Example 1
(Overall configuration)
A first embodiment of the present invention will be described below with reference to FIG. FIG. 1 is a block connection diagram of the moving image processing apparatus. In FIG. 1, 1 is an image input unit, 2 is an image storage unit, 3 is an inter-image calculation processing unit, 4 is a moving region shaping unit, 5 is a feature amount detection unit, 6 is a position detection unit, and 7 is a time-series processing unit. , 8 are moving object identification units.
[0011]
Next, the operation of the above embodiment will be described. The moving image input from the image input unit 1 is stored in the
[0012]
As described above, according to the present embodiment, the feature of the moving object is detected by the feature
[0013]
(Example 2)
(Moving area shaping part)
Next, a second embodiment of the present invention will be described. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. 1, and the difference is the operation after the moving area shaping unit 4. Hereinafter, the operation of this embodiment will be described.
[0014]
In FIG. 1, the flow of processing from the input unit 1 to the inter-image arithmetic processing unit 3 is the same as that described in the first embodiment. For the moving area detected by the inter-image arithmetic processing unit 3, the moving area shaping unit 4 performs a spatial differentiation process on the luminance of the image data in the moving area to detect edge feature points. Spatial differentiation processing can be performed by using a gradient operator, or by a method of detecting a zero crossing point using a second-order difference method. The moving region is corrected by regarding the edge feature point as a contour. Hereinafter, this process will be described with reference to FIG.
[0015]
In FIG. 2, 21 is a moving area detected by the inter-image arithmetic processing unit 3, and 22 is a detection target moving object area. Edge feature point data in the moving region 21 detected by the inter-image arithmetic processing unit 3 is added in the scanning line direction to detect the contour upper limit A and lower limit B. A region between A and B is a processing region. First, an edge feature point is searched in the right direction from the moving region left outline L1. If a feature point is detected, it is registered as a contour candidate point. Similarly, the right contour line L2 is searched in the left direction. Next, edge feature point data in the moving region 21 is added in the direction perpendicular to the scanning line, and the contour left limit C and right limit D are detected. The upper and lower contour lines are detected using the region between C and D as a processing region. Edge feature points are searched in the downward direction on L3 to detect the upper contour line, and edge feature points are searched in the upward direction on L4 to detect the lower contour line. In these contour extraction processes, a correct contour point is not detected when noise or edge loss occurs, and therefore noise removal processing and smoothing processing may be performed before the contour extraction processing. Using the contour line thus detected as a moving area, the same moving object is tracked in the same manner as in the first embodiment.
[0016]
As described above, according to the present embodiment, the moving region shaping unit 4 realizes accurate contour extraction of a moving object, thereby determining a moving region in which an accurate feature amount of the moving object can be detected. An excellent effect is obtained in that it can be performed.
[0017]
(Example 3)
Next, a third embodiment of the present invention will be described. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. 1, and the difference is the operation after the moving area shaping unit 4. Hereinafter, the operation of this embodiment will be described.
[0018]
In FIG. 1, the flow of processing from the input unit 1 to the inter-image arithmetic processing unit 3 is the same as that described in the first embodiment. The moving area shaping unit 4 performs moving area shaping processing on the moving area detected by the inter-image arithmetic processing unit 3. Hereinafter, this process will be described with reference to FIG.
[0019]
In FIG. 3, 31 is a moving area and circumscribed rectangle of N frames (N is a positive integer), 32 and 33 are moving areas and circumscribed rectangles of the current frame, 34 is a combination of these circumscribed rectangles, and 35 is all A plot of the current frame moving area within the integrated circumscribed rectangle including the circumscribed
[0020]
As described above, according to the present embodiment, it is possible to accurately identify and track the moving object by realizing the accurate detection of the circumscribed rectangle including the moving object by the moving area shaping unit 4. An excellent effect is obtained in terms of points.
[0021]
(Example 4)
(Feature amount detector)
The fourth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0022]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving area shaped by the moving area shaping unit 4, the feature
[0023]
As described above, according to the present embodiment, the feature
[0024]
(Example 5)
The fifth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0025]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving area shaped by the moving area shaping unit 4, the feature
[0026]
[Expression 1]
Here, when calculating the distance, the following equation (2) is imposed as a constraint condition of the matching window.
[0027]
| I−j | ≦ r (r is a positive integer set in advance) (2)
When the distance D is equal to or less than a preset threshold value, these moving areas are those of the same moving object. These processes are continuously performed on the moving image, and the same moving object is traced by determining the moving area determined to be the same moving object as the pre-processing screen as the same moving area.
[0028]
As described above, according to the present embodiment, the
[0029]
(Example 6)
The sixth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0030]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving area shaped by the moving area shaping unit 4, the feature
[0031]
FIG. 4 shows a frequency distribution. In the case of data of 256 gradations, the frequency distribution is obtained by calculating the frequency for every 8 gradations, 16 gradations, or 32 gradations. When such a frequency distribution is obtained, the frequency distribution is divided by maximum / minimum point detection. Here, differential processing is performed on the frequency distribution. Here, the number in which the derivative has changed from positive to negative can be considered as the number of area divisions. In FIG. 4, since there are three local maximum points, point A, point B, and point C, the number of divisions is three. Furthermore, the gradation value when the differential coefficient changes from negative to positive can be considered as the region division threshold. In FIG. 4, point D and point E correspond. However, in order to detect the main component of the luminance distribution, a smoothing process is performed if necessary in the differentiation process. When the area division number M and the division threshold are determined in this manner, area division is performed using these thresholds, and a representative value of each luminance in the M division areas is obtained. The representative value may be an average value of luminance for each divided region, or a luminance value that is the most frequent in each divided region. These are sent as feature quantities to the time-
[0032]
As described above, according to the present embodiment, the feature
[0033]
(Example 7)
The seventh embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0034]
In FIG. 1, the flow of processing from the input unit 1 to the moving region shaping unit 4 is the same as that described in the first embodiment. For the moving area shaped by the moving area shaping unit 4, the feature
[0035]
As described above, according to the present embodiment, the feature
[0036]
(Example 8)
The eighth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0037]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving area shaped by the moving area shaping unit 4, the feature
[0038]
In FIG. 5,
[0039]
As described above, according to the present embodiment, the feature
[0040]
Example 9
The ninth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0041]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving area shaped by the moving area shaping unit 4, the feature
[0042]
As described above, according to the present embodiment, the feature
[0043]
(Example 10)
The tenth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0044]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving area shaped by the moving area shaping unit 4, the feature
[0045]
As described above, according to the present embodiment, the feature
[0046]
(Example 11)
The eleventh embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0047]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving area shaped by the moving area shaping unit 4, the feature
[0048]
As described above, according to the present embodiment, the feature
[0049]
(Example 12)
The twelfth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0050]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving region shaped by the moving region shaping unit 4, the feature
[0051]
As described above, according to the present embodiment, the feature
[0052]
(Example 13)
The thirteenth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0053]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving region shaped by the moving region shaping unit 4, the feature
[0054]
As described above, according to the present embodiment, the feature
[0055]
(Example 14)
The fourteenth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0056]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving region shaped by the moving region shaping unit 4, the feature
[0057]
As described above, according to the present embodiment, the moving region is divided into M pieces based on the frequency distribution of the hue value as the feature amount of the moving object by the feature
[0058]
(Example 15)
The fifteenth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0059]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving region shaped by the moving region shaping unit 4, the feature
[0060]
As described above, according to the present embodiment, the feature
[0061]
(Example 16)
The sixteenth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0062]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving area shaped by the moving area shaping unit 4, the feature
[0063]
[Expression 2]
When the distance D is less than or equal to a preset threshold value, these moving areas are those of the same moving object. These processes are continuously performed on the moving image, and the same moving object is traced by determining the moving area determined to be the same moving object as the pre-processing screen as the same moving area.
[0064]
As described above, according to the present embodiment, the feature
[0065]
(Example 17)
The seventeenth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0066]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving area shaped by the moving area shaping unit 4, the feature
[0067]
As described above, according to the present embodiment, the feature
[0068]
(Example 18)
The eighteenth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0069]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving area shaped by the moving area shaping unit 4, the feature
[0070]
As described above, according to the present embodiment, the feature
[0071]
Example 19
The nineteenth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0072]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving area shaped by the moving area shaping unit 4, the feature
[0073]
As described above, according to the present embodiment, the feature
[0074]
(Example 20)
The twentieth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0075]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving area shaped by the moving area shaping unit 4, the feature
[0076]
As described above, according to the present embodiment, the feature
[0077]
(Example 21)
The twenty-first embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0078]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving area shaped by the moving area shaping unit 4, the feature
[0079]
As described above, according to the present embodiment, the feature
[0080]
(Example 22)
The twenty-second embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0081]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving area shaped by the moving area shaping unit 4, the feature
[0082]
As described above, according to the present embodiment, the feature
[0083]
(Example 23)
The twenty-third embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0084]
In FIG. 1, the flow of processing from the input unit 1 to the moving region shaping unit 4 is the same as that described in the first embodiment. For the moving region shaped by the moving region shaping unit 4, the feature
[0085]
As described above, according to this embodiment, the feature
[0086]
(Example 24)
The twenty-fourth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0087]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving region shaped by the moving region shaping unit 4, the feature
[0088]
As described above, according to the present embodiment, the feature
[0089]
(Example 25)
The twenty-fifth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0090]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving area shaped by the moving area shaping unit 4, the feature
[0091]
In FIG. 6A, the contour line detection process starts from point A and goes around the moving region and returns to point A. In the determination method of the point A, when the moving area is first detected, the upper left point of the moving area is set as the A point. From the next processing, a moving region existing in the vicinity region E of the point A detected immediately before is detected, and the upper left point is set as the processing start point A. If a contour line is detected, a contour line vector is detected from the contour line. Now, the i-th contour coordinate whose contour vector is to be detected is P i (X i , Y i ), The contour coordinates after k (i and k are integers of 1 or more) i + k (X i + k , Y i + k ), The contour vector of the point is calculated as the following equation (4).
[0092]
V i (V xi , V yi ) = V i (X i + k -X i , Y i + k -Y i (4)
Next, in order to detect the feature point of the contour line vector, the evaluation value R is calculated using the following equation (5).
R = (v xi -V xi-1 ) 2 + (V yi -V yi-1 ) 2 ... (5)
However, V ii (V xi-1 , V yi-1 ) Is the i-1th contour vector
[0093]
The frequency distribution of R in FIG. 6A is shown in FIG. Since the evaluation value R of the contour vector of the straight line portion gathers in the vicinity of the origin, other portions where the frequency distribution is accumulated are used as feature points in the contour line, and the coordinates are used as the feature point coordinates of the contour line. The end points as shown in FIG. 6C are detected as the only feature points. In addition, when a plurality of feature points are continuously detected as shown in FIG. 6D, only one point having the maximum evaluation value R is set as a feature point. In FIG. 6A, points A, B, C, and D are detected as feature points. The feature points thus detected are associated with the feature points N frames before (N is a positive integer), and detected as a movement vector. In the associating process, a corresponding point is searched based on the similarity between the feature point coordinates and the contour line vector, and when there is no corresponding feature point, the contour line vector at the feature point is not detected. The x and y direction component distribution of the movement vector is shown in FIG. 6 (e) and FIG. 6 (f). Each of the most frequent values x v And y v V (x v , Y v ) As a movement vector of the moving object currently focused on. However, depending on the shape of the moving object, feature points may not be detected so much, and a sufficient movement vector component distribution cannot be obtained. At this time, a movement vector having an average value or median of each movement vector component as a component is calculated and set as a movement vector of the moving object. This is sent to the time-
[0094]
As described above, according to the present embodiment, the feature
[0095]
(Example 26)
(Position detector)
The twenty-sixth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0096]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. A circumscribed rectangle including the moving area detected by the moving area shaping unit 4 is shown in FIG.
[0097]
In FIG. 7, W is the width of the circumscribed rectangle. The
Q = (x + W / 2, y) (6)
[0098]
The moving object position information thus calculated is sent to the time-
[0099]
As described above, according to the present embodiment, the
[0100]
(Example 27)
The twenty-seventh embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0101]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. A circumscribed rectangle including the moving area detected by the moving area shaping unit 4 is shown in FIG.
[0102]
In FIG. 7, H is the height of the circumscribed rectangle. The
R = (x + W / 2, y + H) (7)
[0103]
The moving object position information thus calculated is sent to the time-
[0104]
As described above, according to the present embodiment, the
[0105]
(Example 28)
The twenty-eighth embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. Hereinafter, the operation of this embodiment will be described.
[0106]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. A circumscribed rectangle including the moving area detected by the moving area shaping unit 4 is shown in FIG.
[0107]
The
R e (X + W / 2, y + H e (8)
[0108]
Estimated moving object height H e Is calculated using the previous frame feature amount and its time series feature amount of the moving region circumscribed rectangle. The moving
[0109]
As described above, according to the present embodiment, the moving object is detected by using the contact point of the detected moving object with the motion plane and the coordinates of the uppermost point as the feature amount of the moving object detected by the
[0110]
(Example 29)
(Time series processing section)
The 29th embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. 1, and the difference is the operation after the time
[0111]
In FIG. 1, the flow of processing from the input unit 1 to the feature
[0112]
At the very beginning of the process, the feature quantity detected in the current frame process is registered as a time-series feature quantity and updated as time passes. The calculated time-series feature amount is sent to the moving
[0113]
As described above, according to the present embodiment, the time-
[0114]
(Example 30)
The 30th embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. 1, and the difference is the operation after the time
[0115]
In FIG. 1, the flow of processing from the input unit 1 to the feature
[0116]
This process is not executed until K frames have elapsed. At the very beginning of processing, the difference between the feature amounts detected in the current frame processing is registered as a time-series feature amount, and is updated as time passes. The calculated time-series feature amount is sent to the moving
[0117]
As described above, according to the present embodiment, the time
[0118]
(Example 31)
(Moving object identification part)
The 31st embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. 1, and the main difference is the operation in the moving
[0119]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving region shaped by the moving region shaping unit 4, the feature
[0120]
As described above, according to the present embodiment, the feature
[0121]
(Example 32)
The thirty-second embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. 1, and the main difference is the operation in the moving
[0122]
In FIG. 1, the flow of processing from the input unit 1 to the moving area shaping unit 4 is the same as that described in the first embodiment. For the moving region shaped by the moving region shaping unit 4, the feature
[0123]
[Equation 3]
[0124]
In order to simplify the processing, the correlation value R may be the sum of the absolute values of the feature value differences. When the derived correlation value R is smaller than a preset threshold value, it is determined that the feature quantity has periodicity, and the shift number K at that time is set as the characteristic period of the feature quantity. The determination result is sent to the moving
[0125]
As described above, according to the present embodiment, the feature
[0126]
(Example 33)
The thirty-third embodiment of the present invention will be described below. The moving image processing apparatus according to the present embodiment has the same configuration as that of the first embodiment shown in FIG. 1, and the difference is the operation after the moving
[0127]
In FIG. 1, the processing flow from the input unit 1 to the feature
| T c -T p | ≦ α (12)
[0128]
Next, determination processing using these evaluation results is performed. In this determination processing, a result that the characteristic amount evaluation result does not satisfy the determination condition due to occurrence of a special event such as a plurality of moving object intersections is allowed. When the occurrence of a special event is not detected and the feature quantity evaluation result is insufficient, a parameter change command is given to the feature
[0129]
As described above, according to the present embodiment, the moving
[0130]
【The invention's effect】
As described above, according to the present invention, by providing a feature amount detection unit that detects a feature amount of a moving object, the moving object can be identified and tracked by evaluating and determining the moving object based on the feature amount. In addition, when using the inter-frame difference processing, even when the moving object is stationary and the moving area cannot be detected, the moving object is identified by the feature amount when the moving area is detected after the operation is started again. By doing so, it is possible to identify and track the same object. Furthermore, since the moving object identification unit evaluates moving object detection using the feature value itself and the time-series feature value, it realizes accurate tracking of the moving object by absorbing steep changes due to noise in the feature value. If the moving object identification result is insufficient, the processing unit corresponding to the feature amount detection can be instructed to change the processing condition, and a sufficiently satisfactory result can be obtained. By detecting the optimum condition for detecting the moving object based on the feature amount, and transmitting it to the inter-image calculation processing unit, moving region shaping unit, feature amount detection unit, and position detection unit, An excellent moving image processing apparatus can be realized.
[Brief description of the drawings]
FIG. 1 is a block connection diagram of a moving image processing apparatus according to first to thirty-third embodiments of the present invention.
FIG. 2 is a conceptual diagram showing detection of a moving object from within a moving area in a second embodiment of the present invention.
FIG. 3 is a conceptual diagram showing a moving area shaping method according to a third embodiment of the present invention.
FIG. 4 is a frequency distribution diagram in the sixth embodiment of the present invention.
FIG. 5 is a conceptual diagram showing a method for determining position coordinates of a divided region in an eighth embodiment of the present invention.
FIG. 6A is a conceptual diagram showing a contour detection method in a twenty-fifth embodiment of the present invention.
(B) Frequency distribution of contour vector evaluation values in the 25th embodiment of the present invention
(C) Outline feature points in the twenty-fifth embodiment of the present invention
(D) Outline feature points in the twenty-fifth embodiment of the present invention
(E) Movement vector x component distribution in the twenty-fifth embodiment of the present invention
(F) Movement vector y component distribution in the twenty-fifth embodiment of the present invention
FIG. 7 is a conceptual diagram showing moving region position information in the twenty-sixth to twenty-eighth embodiments of the present invention.
FIG. 8 is a block connection diagram of a moving image processing apparatus according to a conventional embodiment.
[Explanation of symbols]
1 Image input section
2 Image storage
3 Image processing unit
4 dynamic area shaping part
5 Feature detection unit
6 Position detector
7 Time series processing section
8 Moving object identification unit
21 Moving region detected by the inter-image arithmetic processing unit
22 Detection target moving object area
31 Moving area and circumscribed rectangle before N frames (N is a positive integer)
32 Moving area of the current frame
33 Current frame motion area
34 31-33 circumscribed rectangles integrated
A state in which the current frame moving area is plotted in a circumscribed rectangle including 35 34
36 Shaped circumscribed rectangle
51 Dividing area of moving area
52 Dividing area of moving area
53 Dividing area of moving area
81 Image input unit
82 Image storage
83 Image pre-processing unit
84 Moving area shaping part
85 Moving object tracking unit
Claims (27)
前記移動物体識別部が、前記特徴量検出部、位置検出部及び時系列処理部から送られてきた情報を統合して移動物体の特徴量の評価を行い、特徴量の評価結果が判定閾値を満たさない場合には、当該特徴量検出に相当する前記特徴量検出部あるいは前記位置検出部に対しパラメータ変更指令を指示し、また判定閾値を満たす結果が得られた特徴量については、その特徴量を基にその移動物体を検出する最適パラメータを検出し、それを前記画像間演算処理部、動領域整形部、特徴量検出部、位置検出部に伝達することを特徴とする動画像処理装置。An image input unit for inputting a moving image, an image storage unit for storing image data from the image input unit in units of frames, and inter-frame difference calculation processing for frame image data stored in the image storage unit An inter-image arithmetic processing unit to be performed; a moving region shaping unit that detects only a region where a moving object is present with respect to the moving region detected by the inter-image arithmetic processing unit; and a motion detected by the moving region shaping unit A feature amount detection unit that processes image data in a region to detect a feature amount of the moving object, and a position detection that detects a feature amount of the position of the moving object based on the moving region information detected by the moving region shaping unit A time series processing unit that calculates and updates a new time series feature quantity in the current frame from the feature quantity of the moving object in the current frame and the time series feature quantity calculated in the previous frame, and the feature quantity detection Parts and integrates the results of the time series feature amount calculated in the time-series processing section and the detected feature amounts by the position detecting unit and a moving object identification unit that performs identification of moving objects,
The moving object identification unit evaluates the feature amount of the moving object by integrating the information sent from the feature amount detection unit, the position detection unit, and the time series processing unit, and the evaluation result of the feature amount sets the determination threshold value. If not satisfied, a parameter change command is instructed to the feature value detection unit or the position detection unit corresponding to the feature value detection, and a feature value for which a result satisfying the determination threshold is obtained is the feature value. A moving image processing apparatus that detects an optimal parameter for detecting the moving object based on the image and transmits the detected parameter to the inter-image arithmetic processing unit, the moving region shaping unit, the feature amount detecting unit, and the position detecting unit .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP05159595A JP4020982B2 (en) | 1995-03-10 | 1995-03-10 | Moving image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP05159595A JP4020982B2 (en) | 1995-03-10 | 1995-03-10 | Moving image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08249471A JPH08249471A (en) | 1996-09-27 |
JP4020982B2 true JP4020982B2 (en) | 2007-12-12 |
Family
ID=12891271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP05159595A Expired - Lifetime JP4020982B2 (en) | 1995-03-10 | 1995-03-10 | Moving image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4020982B2 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3444160B2 (en) * | 1997-10-09 | 2003-09-08 | 松下電器産業株式会社 | Moving object detection method |
JP3880759B2 (en) | 1999-12-20 | 2007-02-14 | 富士通株式会社 | Moving object detection method |
JP4565738B2 (en) * | 2000-12-06 | 2010-10-20 | セコム株式会社 | Image sensor |
JP4635663B2 (en) * | 2005-03-15 | 2011-02-23 | オムロン株式会社 | Image processing system, image processing apparatus and method, recording medium, and program |
ATE486332T1 (en) * | 2005-03-17 | 2010-11-15 | British Telecomm | METHOD FOR TRACKING OBJECTS IN A VIDEO SEQUENCE |
KR101870902B1 (en) * | 2011-12-12 | 2018-06-26 | 삼성전자주식회사 | Image processing apparatus and image processing method |
JP5893400B2 (en) * | 2011-12-28 | 2016-03-23 | セコム株式会社 | Image monitoring device |
KR101617068B1 (en) | 2012-10-11 | 2016-05-02 | 이문기 | Image processing system using polarization difference camera |
WO2014065544A1 (en) | 2012-10-22 | 2014-05-01 | Lee Moon Key | Image processing apparatus using differential camera |
JP6261190B2 (en) * | 2013-05-31 | 2018-01-17 | キヤノン株式会社 | Setting device and setting method |
JP6331761B2 (en) * | 2014-06-26 | 2018-05-30 | 富士通株式会社 | Determination device, determination method, and determination program |
-
1995
- 1995-03-10 JP JP05159595A patent/JP4020982B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH08249471A (en) | 1996-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2915894B2 (en) | Target tracking method and device | |
US5757287A (en) | Object recognition system and abnormality detection system using image processing | |
Dailey et al. | An algorithm to estimate mean traffic speed using uncalibrated cameras | |
US6441846B1 (en) | Method and apparatus for deriving novel sports statistics from real time tracking of sporting events | |
Zhu et al. | VISATRAM: A real-time vision system for automatic traffic monitoring | |
US6141041A (en) | Method and apparatus for determination and visualization of player field coverage in a sporting event | |
CA2692424C (en) | System and process for detecting, tracking and counting human objects of interest | |
US7787656B2 (en) | Method for counting people passing through a gate | |
US20130077870A1 (en) | Evaluation of edge direction information | |
CN109086724B (en) | Accelerated human face detection method and storage medium | |
JP4020982B2 (en) | Moving image processing device | |
WO2005081792A2 (en) | Method, apparatus and program for detecting an object | |
JP4156084B2 (en) | Moving object tracking device | |
CN108876820A (en) | A kind of obstruction conditions based on average drifting move down object tracking method | |
CN113763427B (en) | Multi-target tracking method based on coarse-to-fine shielding processing | |
Kanhere et al. | Vehicle segmentation and tracking in the presence of occlusions | |
Dailey et al. | An algorithm to estimate vehicle speed using uncalibrated cameras | |
Kanhere et al. | Real-time detection and tracking of vehicle base fronts for measuring traffic counts and speeds on highways | |
El Ansari et al. | Temporal consistent fast stereo matching for advanced driver assistance systems (ADAS) | |
Badenas et al. | Motion and intensity-based segmentation and its application to traffice monitoring | |
CN107067411B (en) | Mean-shift tracking method combined with dense features | |
CN115683109A (en) | Visual dynamic barrier detection method based on CUDA and three-dimensional grid map | |
JP4787424B2 (en) | Video object detection and tracking device | |
Lu et al. | A synchronous detection of the road boundary and lane marking for intelligent vehicles | |
Jaijing et al. | Object detection and modeling algorithm for automatic visual people counting system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040316 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040510 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20041214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050301 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20050304 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20050422 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070823 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070926 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101005 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101005 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101005 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111005 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121005 Year of fee payment: 5 |