JP2006053692A - 動画像における画像処理装置、画像処理方法、画像処理プログラム、および該プログラムを記録した記録媒体 - Google Patents
動画像における画像処理装置、画像処理方法、画像処理プログラム、および該プログラムを記録した記録媒体 Download PDFInfo
- Publication number
- JP2006053692A JP2006053692A JP2004233835A JP2004233835A JP2006053692A JP 2006053692 A JP2006053692 A JP 2006053692A JP 2004233835 A JP2004233835 A JP 2004233835A JP 2004233835 A JP2004233835 A JP 2004233835A JP 2006053692 A JP2006053692 A JP 2006053692A
- Authority
- JP
- Japan
- Prior art keywords
- image
- local
- image processing
- motion vector
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】 動画像中において、照明の強度が変化した場合にも物体の動きを正確に検出することのできる画像処理を実現する。
【解決手段】 本発明の画像処理装置10は、撮像装置20によって撮影された動画像中の物体の動きベクトルを、局所相関演算法を用いて検出するものである。この画像処理装置には、背景領域検出部11、動きベクトル検出部13、動領域ラベリング部12を有する動画像処理部が備えられている。この画像処理装置10では、撮像装置10から送られた画像データを複数の局所領域に分割し、この局所領域におけるエッジ情報および/または色彩情報を用いて動きベクトルを検出するという画像処理を行う。これによって、照明の強度変化が激しい環境下においても、物体の動きを精度良く追跡することができる。
【選択図】 図1
【解決手段】 本発明の画像処理装置10は、撮像装置20によって撮影された動画像中の物体の動きベクトルを、局所相関演算法を用いて検出するものである。この画像処理装置には、背景領域検出部11、動きベクトル検出部13、動領域ラベリング部12を有する動画像処理部が備えられている。この画像処理装置10では、撮像装置10から送られた画像データを複数の局所領域に分割し、この局所領域におけるエッジ情報および/または色彩情報を用いて動きベクトルを検出するという画像処理を行う。これによって、照明の強度変化が激しい環境下においても、物体の動きを精度良く追跡することができる。
【選択図】 図1
Description
本発明は、動画像から物体の動きを解析(ないし追跡)するための画像処理方法および画像処理システムに関するものである。
時間的に連続する画像(動画像)から物体の動きを解析して、自動追跡を行うなどの処理は動画像解析の最も重要な処理の一つであり、ITSや自動監視システムなどの技術に用いられている。動画像中から物体を検出するためには画像間の何らかの特徴量を利用して照合する必要があり、その特徴量として形状情報、色彩情報、輝度情報などが挙げられる。形状情報を特徴量に用いた追跡手法では、主に物体の輪郭、大きさ、形状の情報から物体の追跡を行う。
形状情報を用いた最も単純な追跡手法として、追跡対象のオブジェクト領域を1つのテンプレートとしてテンプレートマッチングを行う方法が挙げられる。この方法は実装が簡単であるが物体を大局的に見ているため、物体の大きさが変化したり回転したりする場合には追跡精度が落ちる。また、対象物体表面の傾きによって、局所的な部分に強く光の反射が起こり、局所的に色が変化する場合には、追跡ができなくなる。そのため、輝度情報、色彩情報を用いて物体の局所領域情報から物体を推定する手法が提案されている。ここで言う局所領域とは、ある大きさを持った領域のことである。
その有力な手法として、アクティブ探索法、オプティカルフロー推定法(非特許文献1,2参照)が挙げられる。
アクティブ探索法は局所領域の色彩情報を用いて、画像中の物体を検出する手法である。アクティブ探索法では、まず、参照画像の色ヒストグラムを生成する。そして、画像中の局所領域の色ヒストグラムと一致する部分を探索する。この手法は物体が大小、変形したりしても、精度良く追跡することができるが、参照画像を更新しない場合、時間が経つにつれて追跡精度が低下する。特に、物体が回転して、見え方が変わった場合には追跡が困難となる。
また、参照画像と同じような物体が存在した場合にも追跡が困難となる。一方、オプティカルフロー推定手法は、局所領域の輝度情報を用いて動画像中の動き(フロー)を知る手法である。この手法は、フレーム間の情報を用いているため、上記に示したアクティブ探索法での問題点が見られない。
オプティカルフロー推定手法には大きく分けて2種類の手法がある。一つは勾配法を用いた手法、もう一つは局所相関演算法を用いた手法である。勾配法は画像の時空間微分の拘束方程式による条件から移動ベクトルを推定する手法である。この手法では、計算量が少ないという利点がある。しかし、雑音に弱く、輝度値が急激に変化するところでの誤差が大きいという欠点がある。さらに、拘束方程式だけでは移動ベクトルの解が求まらないため、隣接する移動ベクトルが似ているなどの条件を付け加える必要がある。そのため、通常は密に移動ベクトルを求める際に用いられている。
一方、局所相関演算法は、画像中のブロック領域をテンプレートとし、次フレームの画像を探索してテンプレートブロックとの相関値を最大にするブロックを対応点とする手法である。この手法は、輝度値が急激に変化するところでも誤差が少なく、雑音にも強いという利点がある。
「ロボットビジョン −機械は世界をどう視るか−」、発行日:1993年2月25日、著者:Berthold K. P. Horn 、訳者:NTTヒューマンインタフェース研究所プロジェクトRVT、発行者:朝倉邦造、305-328頁 「コンピュータビジョン 技術評論と将来展望」、発行日:1998年6月15日、編者:松山隆司、久野義徳、井宮淳、発行者:松下要、発行所:株式会社 新技術コミュニケーションズ、著者:NTTデータ通信(株)、武川直樹、宮島耕治、138-148頁
「ロボットビジョン −機械は世界をどう視るか−」、発行日:1993年2月25日、著者:Berthold K. P. Horn 、訳者:NTTヒューマンインタフェース研究所プロジェクトRVT、発行者:朝倉邦造、305-328頁 「コンピュータビジョン 技術評論と将来展望」、発行日:1998年6月15日、編者:松山隆司、久野義徳、井宮淳、発行者:松下要、発行所:株式会社 新技術コミュニケーションズ、著者:NTTデータ通信(株)、武川直樹、宮島耕治、138-148頁
しかしながら、上述の局所相関演算法は、探索に膨大な計算量が必要となること、ブロックが大きいと並進以外の拡大・縮小・回転などの運動に弱いこと、はずれ値(誤差モデルからはほとんど生じる可能性がないような大きな誤差)が生じることなどの欠点がある。計算量の理由より、近年までは処理量の少ない勾配法がよく用いられてきたが、勾配法で求めた動きベクトルはノイズに弱く不安定であり、実用に用いることは容易ではない。しかし、近年のハードウェア技術の向上により、処理量の問題は解決できる。
よって、局所相関演算法の方が実用的な手法と考えられる。このような、局所領域の情報から対象物体を追跡する手法では、局所的な情報を得ることにより、局所的に色輝度が変化している部分のみを追跡することができる。また、局所領域を用いることで輝度情報、色彩情報に現れやすいノイズを軽減することができる。
そこで、本願では光源からの光の情報と画像のノイズの影響を考慮に入れた局所相関演算法を用いて動物体を追跡する方法を提供する。しかし、一般にオプティカルフロー推定法は、フレーム間の対応点の輝度値が等しいと仮定してオプティカルフロー推定を行うために、照明環境の変化によって起こる陰影、光の強度変化などによって、フレーム間の対応点の輝度値が変化すると、フローの推定精度が著しく低下するという問題点がある。
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、動画像中において、照明の強度が変化した場合にも物体の動きを正確に検出することのできる画像処理装置および画像処理方法を提供することにある。
本願発明者は、上記の問題点をふまえ、局所相関演算から得られた局所領域の相関値分布から動きベクトルを求める手法について検討した。その結果、照明の強度変化によっておこるグラデーション領域での動きベクトルの誤検出、輝度の変化がない部分での動きベクトルの未検出などを防ぐため、濃淡画像から得られるエッジ情報、照明の強度変化に強い特徴量である色彩情報を用いた局所相関演算が有効であることを見出し、本発明を完成させるに至った。なお、ここで言う色彩情報とは、照明の影響を受けない物体の本来持つ色の情報のことである。
すなわち、本発明にかかる画像処理装置は、撮像装置によって撮影された動画像中の物体の動きベクトルを、局所相関演算法を用いて検出する画像処理装置であって、画像中のエッジ情報、または、画像中の色彩情報の少なくとも一つを用いて動きベクトルを検出する動画像処理部を備えることを特徴とするものである。
本発明の画像処理装置は、局所相関演算法を用いて動画像中の現フレームと次フレームとの間の動物体(動いている物体)の動きベクトルを検出するものである。局所相関演算法では、画像を複数の局所領域に分割して、局所領域の画像情報から検出対象となる動物体の動きベクトルを検出するため、局所的に色、輝度が変化している部分のみを追跡することができる。また、局所領域を用いることで輝度情報、色彩情報に現れやすいノイズを軽減することができる。
しかし、従来の局所相関演算法を用いた動きベクトルの検出は、フレーム間で対応している各各局所領域の輝度値が等しいと仮定して実施される。そのため、照明環境の変化によって起こる陰影、光の強度変化などによって、フレーム間で対応する各局所領域の輝度地が変化すると、動きベクトルの検出精度が著しく低下するという問題点がある。
この問題を解決するために、本願発明の画像処理装置においては、動きベクトルの検出に、濃淡画像から得られるエッジ情報および/または照明の強度変化に強い特徴量である色彩情報を用いている。なお、ここで言う色彩情報とは、照明の影響を受けない物体が本体持つ色の情報のことである。
これによって、照明の強度変化によって起こるグラデーション領域での動きベクトルの誤検出、輝度の変化がない部分での動きベクトルの未検出などを防止することができる。そのため、動画像中において、照明の強度が変化した場合にも物体の動きを正確に検出することができる。
本発明の画像処理装置において、上記動画像処理部では、エッジ情報と色彩情報の両方を用いて動きベクトルを検出することが好ましい。
上記の構成によれば、無彩色となる部分や、輝度値が最小値あるいは最大値に近い場所においては、エッジ情報を用いた局所相関演算を行い、局所領域内全体が単色で色のみが変化した場合には、色彩情報を用いた局所相関演算を行うというに、それぞれの弱点を補完し合うことによって、動きベクトルの誤検出を防止することができる。これによって、物体の動きをより正確に検出することができる。
本発明の画像処理装置において、上記動画像処理部は、上記撮像装置から送られた画像データを複数の局所領域に分割する局所領域分割手段と、各局所領域におけるエッジ情報および/または色彩情報を抽出する画像情報抽出手段と、上記エッジ情報および/または色彩情報を用いて局所相関演算を行い、動画像中の現フレームにおける所定の局所領域に対応する次フレームの局所領域を求め、これら2つの局所領域の移動量と移動方向とを動きベクトルとして検出する動きベクトル検出手段と、を備えるものであってもよい。
上記の構成によれば、画像情報抽出手段が局所領域におけるエッジ情報および/または色彩情報を抽出し、動きベクトル検出手段がこれらの画像情報をそれぞれ単独で、あるいは、両方を組み合わせて用いて動きベクトルを検出することができる。これによって、照明の強度変化によって起こるグラデーション領域での動きベクトルの誤検出、輝度の変化がない部分での動きベクトルの未検出などを防止することができる。そのため、動画像中において、照明の強度が変化した場合にも物体の動きを正確に検出することができる。
本発明の画像処理装置は、動画像中の現フレームにおける所定の局所領域と、次フレームの上記所定の局所領域およびその周辺の局所領域との間において、上記エッジ情報および/または上記色彩情報の各局所領域間の差分を求め、この差分から背景領域を検出する背景領域検出手段をさらに備え、上記動きベクトル検出手段では、背景領域検出手段で背景領域と検出された部分以外の領域に含まれる局所領域について、局所相関演算を行うことが好ましい。
上記の構成によれば、動物体が存在すると推定される背景領域以外の部分に含まれる局所領域についてのみ局所相関演算を行えばよいため、動きベクトル検出手段における演算量を減らすことができる。
本発明の画像処理装置において、上記動きベクトル検出手段では、上記色彩情報から色ヒストグラムを作成し、現フレームの局所領域における色ヒストグラムと、次フレームの局所領域における色ヒストグラムとの類似度を求め、上記類似度を用いて、上記所定の局所領域に対応する局所領域を求め、これら2つの局所領域の移動量と移動方向とを動きベクトルとして検出することが好ましい。
色ヒストグラムを作成すれば、同じ輝度平面上において異なる色を検出することができる。よって照明の強度変化に左右されずに動物体を追跡することができ、動物体をより正確に検出することができる。
本発明の画像処理装置において、上記動きベクトル検出手段では、上記エッジ情報から得られるエッジの強さを示す濃淡画像を用いた局所相関演算を行って動きベクトルを検出してもよい。
上記の構成によれば、色彩情報によって検出することのできない物体の動きを検出することができる。例えば、白い壁の前を白いシャツを着た人物が移動する場合、色彩情報では検出精度が悪いが、エッジの強さを示す濃淡画像を用いれば、精度良く検出できるか能性がある。すなわち、色彩情報が顕著でない環境における物体追跡精度を向上させるという効果を得ることができる。
また、上記画像情報抽出手段において、上記色彩情報の抽出はマンセル表色系を用いて行われることが好ましい。
マンセル表色系は、L*a*b*、L*u*v*表色系に比べ、非常に精度の良い均等色空間を生成することができる。したがって、上記の構成によれば、色彩情報を精度良く抽出することができる。
また、上記画像情報抽出手段において、上記エッジ情報の抽出はSobelフィルタを用いて行われることが好ましい。Sobelフィルタを用いることによって、正確なエッジ情報を抽出することができる。
本発明にかかる画像処理方法は、局所相関演算法を用いて、動画像中の物体の動きベクトルを検出する画像処理方法であって、上記局所相関演算法では、画像中のエッジ情報、または、画像中の色彩情報の少なくとも一つを用いて動きベクトルを検出することを特徴とするものである。
本発明の画像処理方法は、局所相関演算法を用いて動画像中の現フレームと次フレームとの間の動物体(動いている物体)の動きベクトルを検出するというものである。従来の局所相関演算法を用いた動きベクトルの検出は、フレーム間で対応している各各局所領域の輝度値が等しいと仮定して実施される。そのため、照明環境の変化によって起こる陰影、光の強度変化などによって、フレーム間で対応する各局所領域の輝度地が変化すると、動きベクトルの検出精度が著しく低下するという問題点がある。
この問題を解決するために、本願発明の画像処理方法においては、動きベクトルの検出に、濃淡画像から得られるエッジ情報および/または照明の強度変化に強い特徴量である色彩情報を用いている。なお、ここで言う色彩情報とは、照明の影響を受けない物体が本体持つ色の情報のことである。
これによって、照明の強度変化によって起こるグラデーション領域での動きベクトルの誤検出、輝度の変化がない部分での動きベクトルの未検出などを防止することができる。そのため、動画像中において、照明の強度が変化した場合にも物体の動きを正確に検出することができる。
本発明の画像処理方法において、上記局所相関演算法では、画像中のエッジ情報および画像中の色彩情報の両方を用いて動きベクトルを検出することが好ましい。
本発明の画像処理方法においては、エッジ情報または色彩情報単独でも、従来の画像処理と比較して良好な効果を得ることができる。しかし、エッジ情報と色彩情報の両方を組み合わせて画像処理を行えば(実施の形態では組み合わせた場合について記載)、互いに検出しにくい場合を補い合うため、より効果的である。
また、本発明の画像処理方法は、画像を局所領域に分割する工程と、各局所領域におけるエッジ情報および/または色彩情報を抽出する画像情報抽出工程と、上記エッジ情報および/または色彩情報を用いて局所相関演算を行い、動画像中の現フレームにおける所定の局所領域に対応する次フレームの局所領域を求め、これら2つの局所領域の移動量と移動方向とを動きベクトルとして検出する工程と、を含むものであってもよい。
上記の画像処理方法によれば、画像情報抽出工程で、局所領域におけるエッジ情報および/または色彩情報を抽出し、動きベクトル検出工程において、これらの画像情報をそれぞれ単独で、あるいは、両方を組み合わせて用いて動きベクトルを検出することができる。これによって、照明の強度変化によって起こるグラデーション領域での動きベクトルの誤検出、輝度の変化がない部分での動きベクトルの未検出などを防止することができる。そのため、動画像中において、照明の強度が変化した場合にも物体の動きを正確に検出することができる。
なお、上記画像形成装置における上記各手段を、本発明の画像処理プログラムによりコンピュータ上で実行させることができる。さらに、上記画像処理プログラムをコンピュータ読取り可能な記録媒体に記憶させることにより、任意のコンピュータ上で上記画像処理プログラムを実行させることができる。
つまり、本発明にかかる画像処理プログラムは、上述の何れかの画像処理装置を動作させるための画像処理プログラムであって、コンピュータを上記各手段として機能させるためのものである。また、本発明の記録媒体は、上記の画像処理プログラムが記録されたコンピュータ読取り可能な記録媒体である。
本発明にかかる画像処理装置は、以上のように、画像中のエッジ情報、または、画像中の色彩情報の少なくとも一つを用いて動きベクトルを検出する動画像処理部を備えている。
上記の構成によれば、照明の強度変化によって起こるグラデーション領域での動きベクトルの誤検出、輝度の変化がない部分での動きベクトルの未検出などを防止することができる。そのため、動画像中において、照明の強度が変化した場合にも物体の動きを正確に検出することができるという効果を奏する。
本発明にかかる画像処理方法は、以上のように、局所相関演算法を用いて、動画像中の物体の動きベクトルを検出するものであって、局所相関演算法では、画像中のエッジ情報、または、画像中の色彩情報の少なくとも一つを用いて動きベクトルを検出するというものである。
この画像処理方法によれば、照明の強度変化によって起こるグラデーション領域での動きベクトルの誤検出、輝度の変化がない部分での動きベクトルの未検出などを防止することができる。そのため、動画像中において、照明の強度が変化した場合にも物体の動きを正確に検出することができるという効果を奏する。
以下、本発明の一実施形態について説明するが、本発明はこの記載に限定されるものではない。
本実施の形態では、ITSや自動監視システムなどに備えられ、動画像中における動物体の動きを追跡する画像処理装置について説明する。
図1には、本実施の形態にかかる画像処理装置の内部構成を示す。図1は、画像処理装置内部に存在する種々の構成のうち、特に、動画像中の動物体の追跡を行うための動画像処理部の内部構成を示すものである。本実施の形態にかかる画像処理装置10は、図1に示すように、CCDカメラなどのような一般的な撮像装置20、一般的な表示装置20と接続されている。本実施の形態では、画像処理装置20と表示装置30とが別体となった構成であるが、本発明はこれに限定されることなく、表示装置と画像処理装置が一体型となった構成であってもよい。
撮像装置20によって撮影された画像データは、画像処理装置10に送られ、動物体追跡のための画像処理が施される。このような画像処理が施された画像データは、表示装置30に送られる。表示装置30に送られた画像データは、画面上に映し出されるが、このとき、画面上における動物体領域は、例えば、四角の枠で囲んだ状態で示される。このように、本実施の形態にかかる画像処理装置10によって画像処理の施された画像データにおいては、動物体が認識された状態となっている。
なお、本実施の形態にかかる画像処理装置10は、撮像装置20によって得られた画像データを表示装置に映し出すための通常の画像処理を行う機能も有している。このような通常の画像処理は図示しない画像処理部で実施される。この画像処理部の構成については、従来から一般に使用されているものを採用することができる。
続いて、画像処理装置10のより具体的な内部構成を説明する。本実施の形態にかかる画像処理装置10には、局所相関演算法を用いて動画像中の物体の動きベクトルを検出するための動画像処理部が設けられている。この動画像処理部では、画像中のエッジ情報、および、画像中の色彩情報を動きベクトルの検出のためのパラメーターとして用いている。
動画像処理部には、背景領域検出部11、動きベクトル検出部13、動領域ラベリング部12が備えられている。
背景領域検出部11は、各フレームの画像データを複数の局所領域に分割して、画像中のエッジ情報および色彩情報を抽出した後、現フレームと次フレーム間における各局所領域の差分を算出することによって、背景領域を検出するというものである。
この背景領域検出部11には、撮像装置20から送られた画像データを複数の局所領域に分割する局所領域分割部(局所領域分割部)1、各局所領域におけるエッジ情報を抽出するエッジ情報抽出部(画像情報抽出手段)2、各局所領域における色彩情報を抽出する色彩情報抽出部(画像情報抽出手段)3、動画像中の現フレームにおける参照ブロック(所定の局所領域)と、次フレームの注目ブロック(上記所定の局所領域およびその周辺の局所領域)との間において、上記エッジ情報および上記色彩情報の各局所領域間の差分を求め、この差分から背景領域を検出する差分算出・背景領域検出部(背景領域検出手段)4が設けられている。
エッジ情報抽出部2では、例えば、Sobelフィルタを用いてエッジ情報の抽出が行われる。色彩情報抽出部3では、例えば、マンセル表色系を用いて色彩情報の抽出が行われる。
動きベクトル検出部(動きベクトル検出手段)12は、上記のエッジ情報および/または色彩情報を用いて局所相関演算を行い、次フレームの注目ブロックの中から、動画像中の現フレームにおける参照ブロック(所定の局所領域)に対応するブロックを求め、これら2つの局所領域の移動量と移動方向とを動きベクトルとして検出するものである。
ここで、注目ブロックとは、次フレームにおいて、現フレームの参照ブロック(所定の局所領域)に対応する所定の局所領域、および、その周辺の局所領域のうちの何れかの局所領域のことを意味する。なお、上記周辺の局所領域とは、具体的には、参照ブロックを中心として(−10〜10ブロック)×(−10〜10ブロック)の範囲に存在する局所領域のことである。つまり、参照ブロックを中心として縦横それぞれ20ブロックの範囲内に存在する局所領域が探索範囲となる。それゆえ、この探索範囲内には、200×200[pixel]の画素が存在する。
動きベクトル検出部12には、動きベクトル検知ブロック内の動きベクトル検出部5、移動ブロック内の動きベクトル検出部6、動物体領域検出部7が設けられている。
動きベクトル検知ブロック内の動きベクトル検出部5は、比較的小さなブロック(例えば、10×10[pixel])を動きベクトル検知ブロックとし、この領域で局所相関演算を行い、動いている領域を検出するというものである。
移動ブロック内の動きベクトル検出部6は、上記動きベクトル検知ブロックを複数組み合わせた比較的大きなブロックを移動ブロックとし、この領域内で局所相関演算を行い、動物体の動いている方向を検出するというものである。
動物体領域検出部7は、上記動きベクトル検知ブロック内の動きベクトル検出部5、および、上記移動ブロック内の動きベクトル検出部6によって得られた動きベクトルに基づいて、画像中の動物体領域を検出するものである。なお、本実施の形態では、この動物体領域検出部7に動領域ラベリング13によって動領域がラベリングされた画像データも送られ、このラベリングされた画像データと動きベクトルとを用いて、より精度の高い動物体領域の検出が行われる。
動領域ラベリング部13は、差分算出・背景領域検出部4において背景領域に分類された領域以外の領域を動物体領域としてラベリングするものである。
次に、画像処理装置10で行われる画像処理方法について説明する。
本実施の形態にかかる画像処理方法は、局所相関演算法を用いて、動画像中の物体の動きベクトルを検出するものである。この画像処理方法における動きベクトルの検出工程では、エッジ情報抽出部2で抽出されたエッジ情報、および、色彩情報抽出部3で抽出された色彩情報を用いて局所相関演算を行い、動画像中の現フレームにおける参照ブロック(所定の局所領域)に対応する次フレームのブロック(局所領域)を求め、これら2つのブロック間の移動量と移動方向とを動きベクトルとして検出する。
局所相関演算法とは、分割された局所領域(ブロック)内の対応する画素(ピクセル)間で差分(引き算)を行い、それらの差の総和D(u,v)を求める方法である。この総和は、図10において右方向にu画素、下方向にv画素移動して求めた差分の総和を示している。すなわち、D(u,v)をあらかじめ決めた探索範囲内全てに対して求める。
色彩情報を用いて動きベクトルを検出する場合には、総和D(u,v)は、下記式(1)
によって求められる。
例えば、探索範囲が(−10≦u≦10,−10≦v≦10)の範囲内ならば、D(u,v)は100個決まる。この100個算出される総和のうち、D(u,v)の値が最小となる移動ベクトル(u,v)がブロックの動きベクトルである。動きベクトルの算出方法については、後述の〔2〕において詳細に説明する。
上記探索範囲は、任意に決定すればよいが、演算量や検出精度を考慮すると、参照ブロック(現フレームにおける所定の局所領域)を中心として、(−10〜10ブロック)×(−10〜10ブロック)のような範囲に設定することが好ましい。
本実施の形態では、色彩情報を用いて動きベクトルを検出する場合には、動きベクトル検出部12では、上記色彩情報から色ヒストグラムを作成し、現フレームのブロックにおける色ヒストグラムと、次フレームのブロックにおける色ヒストグラムとの類似度を求め、上記類似度を用いて、上記所定の局所領域に対応する局所領域を求め、これら2つの局所領域の移動量と移動方向とを動きベクトルとして検出するという処理が行われる。
このように、色ヒストグラムを作成すれば、同じ輝度平面上において異なる色を検出することができる。よって照明の強度変化に左右されずに動物体を追跡することができ、動物体をより正確に検出することができる。
また、エッジ情報を用いて動きベクトルを検出する場合には、動きベクトル検出部12では、上記エッジ情報から得られるエッジの強さを示す濃淡画像を用いた局所相関演算を行って動きベクトルを検出するという処理が行われる。
このような処理を行うことによって、色彩情報とエッジ情報を用いた照明の強度変化に頑健な動物体追跡が可能となる。
以下に、本実施の形態にかかる画像処理の流れを、図2を用いて説明する。
先ず、撮像装置20から、現フレームの画像データ、および、次フレームの画像データがそれぞれ局所領域分割部1に送られ、局所領域分割工程が実施される(S11)。次に、各局所領域に分割された画像データは、エッジ情報抽出部2あるいは色彩情報抽出部3に送られ、それぞれの局所領域について画像情報の抽出が行われる(エッジ情報・色彩情報抽出工程:S12)。
次に、エッジ情報・色彩情報の抽出が行われた画像データは、差分算出・背景領域検出部4に送られ、ここで、背景領域検出工程が実施される(S13)。この工程で、局所領域は背景領域であるか否かの検出が行われ、背景領域でない(S13でNo)と認識された局所領域の画像データについては、動きベクトル検出部12および動領域ラベリング部13に送られ、動きベクトル検出部12では、動きベクトル検出工程が実施される(S14)。また、動領域ラベリング部13では、動領域のラベリングが実施される(ラベリング工程:S15)。なお、背景領域である(S13でYes)と認識された局所領域の画像データについては、S16の動物体領域検出処理にそのまま利用される。
そして、動きベクトルの検出、および、動領域のラベリングが行われた画像データは、動物体領域検出部7において、動物体領域検出のための処理が施され、これによって、動物体の追跡が実行される。
上記の画像処理は、一定の時間間隔で現フレームおよび次フレームの画像データが撮像装置20より送信されることによって、繰り返し実施される。
以上のように、本実施の形態にかかる画像処理方法は、画像中のエッジ情報および色彩情報を用いて局所相関演算を行い、動きベクトルの検出を行っている。それゆえ、照明の強度変化が激しい環境下においても、物体の動きを精度良く追跡することができる。
なお、本実施の形態にかかる画像処理では、画像中のエッジ情報および色彩情報の両方を組み合わせて、動きベクトルの検出を行うものであるが、本発明はこれに限定されるものではない。つまり、画像中のエッジ情報あるいは色彩情報の何れか一方のみを用いて動きベクトルの検出を行うという画像処理の形態についても本発明の範囲内に含まれる。
また、本実施の形態にかかる画像処理装置10には、背景領域と動物体領域を含むそれ以外の領域とを識別するための差分算出・背景領域検出部(背景領域検出手段)4、および、この差分算出・背景領域検出部4で背景領域以外の領域と判定された局所領域にラベリングを行う動領域ラベリング部13が設けられている。しかしながら、本発明は必ずしもこの構成を含む必要はない。つまり、本発明の画像処理装置には、局所領域分割部1、画像情報抽出部(エッジ情報抽出部2および/または色彩情報抽出部3)、動きベクトル検出部12という3つ構成要素が含まれていれば、照明の強度変化の激しい環境下においても、動物体領域を精度良く検出することができる。
但し、差分算出・背景領域検出部(背景領域検出手段)4がさらに設けられていることによって、動きベクトル検出手段における演算量を減らすことができる。また、動領域ラベリング部13が設けられていることによって、動きベクトル検出部12における動物体領域の検出をより精度良く行うことができる。
また、本実施の形態の画像処理装置に接続されている撮像装置が、当該画像処理装置によって追跡される物体の動きに連動して、撮影対象領域をある程度移動させることができるような機能を有していれば、より広範囲にわたって物体の動きを監視することができる。
なお、上記実施形態の画像処理装置の各部や各処理工程は、CPUなどの演算手段が、ROM(Read Only Memory)やRAMなどの記憶手段に記憶されたプログラムを実行し、キーボードなどの入力手段、ディスプレイなどの出力手段、あるいは、インターフェース回路などの通信手段を制御することにより実現することができる。したがって、これらの手段を有するコンピュータが、上記プログラムを記録した記録媒体を読み取り、当該プログラムを実行するだけで、本実施形態の画像処理装置の各種機能および各種処理を実現することができる。また、上記プログラムをリムーバブルな記録媒体に記録することにより、任意のコンピュータ上で上記の各種機能および各種処理を実現することができる。
この記録媒体としては、マイクロコンピュータで処理を行うために図示しないメモリ、例えばROMのようなものがプログラムメディアであっても良いし、また、図示していないが外部記憶装置としてプログラム読取り装置が設けられ、そこに記録媒体を挿入することにより読取り可能なプログラムメディアであっても良い。
また、何れの場合でも、格納されているプログラムは、マイクロプロセッサがアクセスして実行される構成であることが好ましい。さらに、プログラムを読み出し、読み出されたプログラムは、マイクロコンピュータのプログラム記憶エリアにダウンロードされて、そのプログラムが実行される方式であることが好ましい。なお、このダウンロード用のプログラムは予め本体装置に格納されているものとする。
また、上記プログラムメディアとしては、本体と分離可能に構成される記録媒体であり、磁気テープやカセットテープ等のテープ系、フレキシブルディスクやハードディスク等の磁気ディスクやCD/MO/MD/DVD等のディスクのディスク系、ICカード(メモリカードを含む)等のカード系、あるいはマスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュROM等による半導体メモリを含めた固定的にプログラムを担持する記録媒体等がある。
また、インターネットを含む通信ネットワークを接続可能なシステム構成であれば、通信ネットワークからプログラムをダウンロードするように流動的にプログラムを担持する記録媒体であることが好ましい。
さらに、このように通信ネットワークからプログラムをダウンロードする場合には、そのダウンロード用のプログラムは予め本体装置に格納しておくか、あるいは別な記録媒体からインストールされるものであることが好ましい。
以下、本発明の画像処理について、従来技術を踏まえた上でより詳細に説明する。
〔1〕照明の強度変化に左右されない色彩情報の抽出方法について
1.1表色系
色を定量的に表示することを表色といい、表色のための一連の規定と定義からなる体系を表色系という。表色系は大きく分類すると混色系と顕色系の2つに分類することができる。
1.1表色系
色を定量的に表示することを表色といい、表色のための一連の規定と定義からなる体系を表色系という。表色系は大きく分類すると混色系と顕色系の2つに分類することができる。
1.1.1混色系
混色系とは、色光の三原色の混色や回転混色の方法で混色の割合より色を表す表色系である。混色系にはRGB表色系およびXYZ表色系が挙げられる。
混色系とは、色光の三原色の混色や回転混色の方法で混色の割合より色を表す表色系である。混色系にはRGB表色系およびXYZ表色系が挙げられる。
RGB表色系は、CIE表色系の一つであり、R,G,Bの3刺激値の混色によって表した表色系である。任意の色刺激Qを3種類の原刺激[R]、[G]、[B]の適当な混色で等色にした場合、色刺激Qは次式(2)で表される。
Q=RQ[R]+GQ[G]+BQ[B] …(2)
RGB表色系では、この原刺激として、700.0[nm]、546.1[nm]、435.8[nm]の単色光を用いている。また、原刺激の割合を表す量RQ、GQ、BQを3刺激値と呼ぶ。この3刺激値は、色刺激と等色にするために必要な原刺激の量である。そして、3刺激値の単位は、等エネルギー白色E(E=RE[R]+GE[G]+BE[B])等色にした時に、それらの3刺激値が等しくなるように定められている。つまり、次式(3)
RE=GE=BE …(3)
となる。したがって、このように決められた3刺激値の単位は輝度ともエネルギーとも一致しない。
RGB表色系では、この原刺激として、700.0[nm]、546.1[nm]、435.8[nm]の単色光を用いている。また、原刺激の割合を表す量RQ、GQ、BQを3刺激値と呼ぶ。この3刺激値は、色刺激と等色にするために必要な原刺激の量である。そして、3刺激値の単位は、等エネルギー白色E(E=RE[R]+GE[G]+BE[B])等色にした時に、それらの3刺激値が等しくなるように定められている。つまり、次式(3)
RE=GE=BE …(3)
となる。したがって、このように決められた3刺激値の単位は輝度ともエネルギーとも一致しない。
上記のようにに定義されるRGB表色系には以下の(1)〜(3)ような欠点がある。
(1)負の3刺激値が存在する
RGB表色系は3種類の色光の混色により色を実現している。このため、負の刺激値が存在することは、負の量を混合することを意味する。つまり、この表色系では全ての色を表すことが不可能である。
RGB表色系は3種類の色光の混色により色を実現している。このため、負の刺激値が存在することは、負の量を混合することを意味する。つまり、この表色系では全ての色を表すことが不可能である。
(2)色度図における色の分布に偏りがある
RGB色空間で輝度が0の面である無輝面は、R+4.5907θ+O.0601B=0で定義されている。つまり、R+G+B=0で定義されている色度図と等輝度面が一致しない。このため、色度図上に色の分布の偏りができてしまう。
RGB色空間で輝度が0の面である無輝面は、R+4.5907θ+O.0601B=0で定義されている。つまり、R+G+B=0で定義されている色度図と等輝度面が一致しない。このため、色度図上に色の分布の偏りができてしまう。
(3)輝度を3刺激値の総和で表している
輝度を表す属性値は、色を表す属性値と同様独立した属性値である。しかし、RGB表色系は、3属性値の線形和で表しているため、輝度の属性値の独立性がない。
輝度を表す属性値は、色を表す属性値と同様独立した属性値である。しかし、RGB表色系は、3属性値の線形和で表しているため、輝度の属性値の独立性がない。
また、XYZ表色系は、RGB表色系の欠点を修正するために考案された表色系である。つまり、RGB表色系の問題点の一つである負の3刺激値の存在をなくすために、RGB表色系とは異なる原刺激の組み合わせを持つ。さらに、輝度は3刺激値の線形和ではなく、3刺激値のYの値だけで表される。
RGB表色系からXYZ表色系への変換式を下記式(4)に示す。
1.1.2顕色系
顕色系とは、色の三属性を視覚的に等歩度間隔(均等な間隔)になるように配列した表色系である。顕色系にはマンセル表色系、CIE1976(L*a*b*)表色系、CIE1976(L*u*v*)表色系が挙げられる。
顕色系とは、色の三属性を視覚的に等歩度間隔(均等な間隔)になるように配列した表色系である。顕色系にはマンセル表色系、CIE1976(L*a*b*)表色系、CIE1976(L*u*v*)表色系が挙げられる。
マンセル表色系は、顕色系の代表的な表色系である。そして、物体表面の知覚式が色知覚に基づいている心理的な色の属性である、明るさ、色相、飽和度からなる。この明るさの属性値を明度と呼び、尺度目盛をV(Value)で表す。同様に飽和度の属性値をクロマと呼び、その尺度目盛をC(Chroma)で表す。そして、色相の属性値はそのまま色相と呼び、尺度目盛をH(Hue)で表す。
この3属性値のうちのクロマは、物体色の中に含まれる色みの量を表す尺度である。これに対して彩度は、色の鮮やかさを表す。よって、彩度は色みの量と明度との比と定義される。つまり、彩度は図3のように、色みの量が同じでも明度の値が増大すると彩度の値はどんどん小さくなる。しかし、クロマは図4のように、明度が変化しても値は変化しない。この明度、色相、クロマからなるマンセル色空間は、図4のような円筒座標系を用いて表示し、色相を円周方向、クロマをその円周の放射状方向にとり、明度を上下方向にとる。
RGB表色系からマンセル表色系への近似的変換方法には、CIE1976(L*a*b*)色空間を用いる変換色がある。しかし、この変換方法は変換精度が充分でない。そこで、より精度の高い数学的変換方法MTM法が提案されている。以下にMTM法を用いたHVC変換方法を示す。
感覚Levelにおける刺激量Xc、Y、Zc、と、知覚Levelにおける刺激量h1、h2、h3を以下のように定義する。
Xc=1.020X
Zc=0.847Z
h1=11.6Xc 1/3−11.6Y1/3
h2=11.6Zc 1/3−11.6Y1/3
h3=11.6Y1/3−1.6
さらに、新たな座標軸、S1、S2、M3を以下のように導く。
Zc=0.847Z
h1=11.6Xc 1/3−11.6Y1/3
h2=11.6Zc 1/3−11.6Y1/3
h3=11.6Y1/3−1.6
さらに、新たな座標軸、S1、S2、M3を以下のように導く。
M1=h1
M2=0.4h2
M3=0.23h3
S1={8.88+0.966cos(θ)}・M1
S2={8.025+2.558sin(θ)}・M2
但し、θ=tan−1(M2/M1)
この座標軸上で、次式(5)の推定量H、C、Vが定義される。
M2=0.4h2
M3=0.23h3
S1={8.88+0.966cos(θ)}・M1
S2={8.025+2.558sin(θ)}・M2
但し、θ=tan−1(M2/M1)
この座標軸上で、次式(5)の推定量H、C、Vが定義される。
また、CIE1976(L*a*b*)表色系は、CIELAB表色系やL*a*b*表色系と呼ばれているCIE表色系の1つである。そして、この表色系により作られる色空間は、CIELAB色空間と呼ばれることもある。ここでは表色系をL*a*b*色空間、L*が明度の属性値を表し、a*b*が色相、彩度といった知覚の属性値からなる平面を表す3次元直行座標系の色空間である。
さらに、L*a*b*表色系は空間中の任意の2つの色刺激間の距離が知覚的に等しい差となっているため、均等色空間とよばれている。以下の式(6)に、L*a*b*変換式を示す。
CIE1976(L*u*v*)表色系は、CIE1976(L*a*b*)表色系と同じCIEの表色系であり、その色空間は3次元直交座標系である。この表色系により作られる色空間はCIELUV色空間と呼ばれる。この表色系もL*a*b*表色系同様、均等色空間を構成する表色系である。一般に、カメラから得られた画像データを圧縮してモニターなどに送るときによく用いられる色空間である。
1.1.3表色系の選択
混色系は、網膜の錘状細胞の応答を記述するには有効な表色系であるが、大脳の応答である四角形の応答を記述する表色系ではない。すなわち、スムージングなどの画像変換や画像強調のような一般に前処理と呼ばれる処理には、混色系を用いて処理を行うことに妥当性がある。しかし、物体認識や画像認識などのような処理の場合は、人間の視覚特性に沿っている顕色系を用いる方が適している。顕色系の中でも、MTM法から得られるマンセル表色系はL*a*b*、L*u*v*表色系に比べて、非常に精度の良い均等色空間を生成することができる。したがって本節では、色彩情報の抽出にマンセル表色系を用いることにする。但し、色補正などの前処理では、混色系を用いる。
混色系は、網膜の錘状細胞の応答を記述するには有効な表色系であるが、大脳の応答である四角形の応答を記述する表色系ではない。すなわち、スムージングなどの画像変換や画像強調のような一般に前処理と呼ばれる処理には、混色系を用いて処理を行うことに妥当性がある。しかし、物体認識や画像認識などのような処理の場合は、人間の視覚特性に沿っている顕色系を用いる方が適している。顕色系の中でも、MTM法から得られるマンセル表色系はL*a*b*、L*u*v*表色系に比べて、非常に精度の良い均等色空間を生成することができる。したがって本節では、色彩情報の抽出にマンセル表色系を用いることにする。但し、色補正などの前処理では、混色系を用いる。
1.2色彩情報の抽出
1.2.1照明条件に対する色彩情報の変化
上記1.1.3節で色の表現には、MTM表色系を用いると述べた。しかし、一般に色空間には、色彩情報に加えて明度情報が含まれている。このため、画像中の色が、処理対象となる画像の入力時の照明条件に左右されてしまう。
1.2.1照明条件に対する色彩情報の変化
上記1.1.3節で色の表現には、MTM表色系を用いると述べた。しかし、一般に色空間には、色彩情報に加えて明度情報が含まれている。このため、画像中の色が、処理対象となる画像の入力時の照明条件に左右されてしまう。
図7、8、9は、MTM法を用いて得られたHVC色空間での単色の彩度変化を示したグラフである。明度の属性値が完全に独立ならば、明度の値の変化を空間中で表した場合、図5にあるように他の属性値に左右されずに、明度軸Vに平行な分布になる。しかし、実際は図7、8、9が示すように、明度の属性値の変化に伴い、飽和度の属性値も変化している。すなわち、明度軸に垂直な方向にデータを写像して色彩情報を抽出することは明度に独立した色彩情報を抽出したことにならない。
そこで、色空間から飽和度の属性値の変化を考慮に入れた色彩情報の抽出を行う手法を確立する必要がある。以下に、その手法について述べる。
上記1.2.2彩度変化を考慮に入れた色彩情報の変換
上記1.2.1では、明度情報が変化すると、それに応じて彩度に相当する属性値が変化することを示した。よって、色空間中から色彩情報を抽出するための空間から平面への写像を行う際に、彩度変化を考慮に入れた写像を行う必要がある。すなわち、色空間中における明度が変化した時の彩度の変化の割合を導かなければならない。以下にMTM色空間における彩度変化の割合の導出方法について述べる。
上記1.2.1では、明度情報が変化すると、それに応じて彩度に相当する属性値が変化することを示した。よって、色空間中から色彩情報を抽出するための空間から平面への写像を行う際に、彩度変化を考慮に入れた写像を行う必要がある。すなわち、色空間中における明度が変化した時の彩度の変化の割合を導かなければならない。以下にMTM色空間における彩度変化の割合の導出方法について述べる。
ここで、図6は、MTM法HVC色空間での単一色の変化を示したグラフである。HVC色空間では図6に示すように、明度がある一定値Va以下であれば明度が大きくなるのに比例して彩度の値が大きくなる。そして、一定値Vaを超えると逆に彩度の値が小さくなる。よって、白色の点から飽和度が最大となる点、飽和度が最大となる点から黒色の点までの彩度の変化を回帰直線で表すことができるため、明度情報の変化に対する彩度の変化をその直線の傾きとして表すことができる。
そこで、画像から得られた明度をV、明度の最大値をVmaxとして、明度が変化しても、彩度の値が明度V’(0<V’<Va)時の値(C’)となるように、次式で彩度Cを再定義する。
(1)V≦Vaの場合
明度V’となる時のS1S2平面へ、彩度Cの値を写像する。明度V’の時の彩度をC’とすると、
C’=C・(V’+0.368)/(V+0.368) …(7)
(2)V>Vaの場合
まず、明度Vaとなる時のS1S2平面へ、彩度Cを写像する。明度Vaの時の彩度をCaとすると、
Ca=C・(Vmax−Va)/(Vmax−V) …(8)
そして、明度V’となる時のS1S2平面へ、Caの値を写像する。明度V’の時の彩度をC’とすると、
C’=Ca・(V’+0.368)/(Va+0.368)
=C・(V’+0.368)・(Vmax−Va)/(Va+0.368)・(Vmax−V) …(9)
上式(7)、(9)より再定義されたS1’、S2’は、下記式(10)のようになる。
(1)V≦Vaの場合
明度V’となる時のS1S2平面へ、彩度Cの値を写像する。明度V’の時の彩度をC’とすると、
C’=C・(V’+0.368)/(V+0.368) …(7)
(2)V>Vaの場合
まず、明度Vaとなる時のS1S2平面へ、彩度Cを写像する。明度Vaの時の彩度をCaとすると、
Ca=C・(Vmax−Va)/(Vmax−V) …(8)
そして、明度V’となる時のS1S2平面へ、Caの値を写像する。明度V’の時の彩度をC’とすると、
C’=Ca・(V’+0.368)/(Va+0.368)
=C・(V’+0.368)・(Vmax−Va)/(Va+0.368)・(Vmax−V) …(9)
上式(7)、(9)より再定義されたS1’、S2’は、下記式(10)のようになる。
〔2〕局所相関演算法を用いた動きベクトルの検出
映像中の動き検知・対象物体の追跡では、画像中の対応点を見つけ、画像上の見かけの動きを抽出することによって、検知・追跡を行う。この画像上の見かけの動きをオプティカルフローと呼ぶ。オプティカルフローを用いた追跡では、輝度値の情報を元に、連続する複数のフレーム間で、現フレームのある部分(所定の局所領域)が次フレーム中のどの部分に対応するかを決定する。
映像中の動き検知・対象物体の追跡では、画像中の対応点を見つけ、画像上の見かけの動きを抽出することによって、検知・追跡を行う。この画像上の見かけの動きをオプティカルフローと呼ぶ。オプティカルフローを用いた追跡では、輝度値の情報を元に、連続する複数のフレーム間で、現フレームのある部分(所定の局所領域)が次フレーム中のどの部分に対応するかを決定する。
ここでは、オプティカルフロー推定手法の1つである局所相関演算法を用いて動きベクトルを求める方法について述べる。
2.1従来の局所相関演算法と動きベクトル検出の問題点
2.1.1局所相関演算法
局所相関演算法は、画像中のある大きさの領域をテンプレートのブロック(局所領域)とし、次フレームの画像中を全探索し、現フレームの参照ブロック(所定の局所領域)と次フレームの注目ブロックとの差分評価関数Dの値を最小とする点を対応点(対応する局所領域)とする手法である(図10参照)。
2.1.1局所相関演算法
局所相関演算法は、画像中のある大きさの領域をテンプレートのブロック(局所領域)とし、次フレームの画像中を全探索し、現フレームの参照ブロック(所定の局所領域)と次フレームの注目ブロックとの差分評価関数Dの値を最小とする点を対応点(対応する局所領域)とする手法である(図10参照)。
ここで、Ic(i,j)は、それぞれ現フレームと次フレームでN×Mのブロック領域内の点(i,j)での明度を表している。また、相関値Dの2次元配列は参照ブロック領域内の相関値の分布図となる。局所相関演算法を用いた手法は、輝度値が急激に変化する所でも動きベクトルの誤差が少なく雑音にも強いが、全探索を行うので計算時間が膨大となる。
2.1.2問題点
オプティカルフロー推定手法は、フレーム間の対応点の輝度値が等しいと仮定してオプティカルフロー推定を行う。そのため、以下のような問題が発生する。
1.輝度勾配が平坦な場所ではオプティカルフローが求めることができない。
2.輝度勾配が一方向だけにしか存在しない場合では、一意に動きベクトルを決定できない。
3.輝度パターンに周期性がある場合、フレーム間のサンプリング間隔が大きいと、対応するパターンを超えてしまう場合がある。
4.物体の境界などで生じる動きが不連続である領域には誤差が生じる。
5.同じ輝度値である異なる色の判断が行えない。
オプティカルフロー推定手法は、フレーム間の対応点の輝度値が等しいと仮定してオプティカルフロー推定を行う。そのため、以下のような問題が発生する。
1.輝度勾配が平坦な場所ではオプティカルフローが求めることができない。
2.輝度勾配が一方向だけにしか存在しない場合では、一意に動きベクトルを決定できない。
3.輝度パターンに周期性がある場合、フレーム間のサンプリング間隔が大きいと、対応するパターンを超えてしまう場合がある。
4.物体の境界などで生じる動きが不連続である領域には誤差が生じる。
5.同じ輝度値である異なる色の判断が行えない。
このような問題が発生するため、対応点を探索することにおいて、ロバストでないと考えられる。特に、上記1、2の問題は、単色かつ光の当たり方が同じ領域でのオプティカルフローの検出中に顕著に表れる。そのような部分では、前フレームと次フレームで輝度値が近似している部分が多すぎて、どの部分が一致している部分なのか判別するのが非常に難しくなる。そのため、単色かつ光の当たり方が同じ領域では乱雑な動きベクトル(ロバストでない動きベクトル)が現れやすい。また、上記3の問題より、照明条件の変化によって、フレーム間の対応点の輝度値が変化すると、動きベクトルの推定精度が著しく低下する。
上記の問題より、従来の局所相関演算手法によって差分評価関数の値を最小とする点を対応点とする手法では動きを検出することは難しい。この問題点を解決する手法について次節2.3、2.4節で述べる。また、上記3、5の問題点から輝度値のみの情報を用いて対象物体の動きベクトルを検出することは難しい。そこで、照明環境の変化に強く、輝度の値によって変化しない特徴量である色彩特徴を用いた追跡を次節2.5で述べる。
2.2動き検知
局所相関演算で動きの有無を検知するためには、動きベクトルの大きさが0より大きい時に動きがあるとみなせばよい。しかし、図11に示すように、参照領域内に直線パターンを強く含む部分や濃淡変化がほとんどない部分では、相関値の分布図が図12、13のようになるため、正確な動きベクトルを求めることができない。そのため、最小相関位置から動きベクトルを求めると、動きのない場所でも動きがあると誤認識してしまうことがある。これを避けるために、最小相関値がある閾値以上であれば動きありと判断する方法が考えられる。しかし、この方法では、局所画像内に直線パターンを含む場合、局所画像内の輝度が大きく変化する場合において、図12や図13のような相関値の分布図になるため、対象の正確な動きを検知することが難しい。
局所相関演算で動きの有無を検知するためには、動きベクトルの大きさが0より大きい時に動きがあるとみなせばよい。しかし、図11に示すように、参照領域内に直線パターンを強く含む部分や濃淡変化がほとんどない部分では、相関値の分布図が図12、13のようになるため、正確な動きベクトルを求めることができない。そのため、最小相関位置から動きベクトルを求めると、動きのない場所でも動きがあると誤認識してしまうことがある。これを避けるために、最小相関値がある閾値以上であれば動きありと判断する方法が考えられる。しかし、この方法では、局所画像内に直線パターンを含む場合、局所画像内の輝度が大きく変化する場合において、図12や図13のような相関値の分布図になるため、対象の正確な動きを検知することが難しい。
そこで、本節では、局所画像内の相関値の分布図の中心の相関値D0と、最小の相関値Dminを比較することにより、上記の2つの問題を解決する。下記の条件のうち、2の場合であればブロック中心からDminの座標までの動きベクトルを引く。そして、動きベクトルが検出されたブロックを動きが検知されたブロックと見なす。
・ D0−Dmin<Vであれば動きベクトルの検出を行わない。
・ ‖D0−Dmin‖≧Vであれば動きベクトルの検出を行う。
・ D0−Dmin<Vであれば動きベクトルの検出を行わない。
・ ‖D0−Dmin‖≧Vであれば動きベクトルの検出を行う。
2.3動きベクトル検出のための閾値の考察
局所相関演算を用いて動きベクトルを検出するためには、適切な閾値を設定する必要がある。前節で説明した手法も例外なく適切な閾値Vが必要となる。本節では適切な閾値を得る方法について考える。前節の手法では、最小相関値とブロック中心の相関値の差が大きいか小さいかで動きベクトル検出の有無を行う。これは、動きベクトルが検出されない場合は最小相関値とブロック中心の相関値が等しいと考えているからである。
局所相関演算を用いて動きベクトルを検出するためには、適切な閾値を設定する必要がある。前節で説明した手法も例外なく適切な閾値Vが必要となる。本節では適切な閾値を得る方法について考える。前節の手法では、最小相関値とブロック中心の相関値の差が大きいか小さいかで動きベクトル検出の有無を行う。これは、動きベクトルが検出されない場合は最小相関値とブロック中心の相関値が等しいと考えているからである。
この時、画像データにノイズが載らなければ、相関値の差が限りなく0に近づいても正確な動きベクトルを検出することができる。つまり、閾値Vとはノイズの大きさとなる。
以下、図14、15に閾値を同じにした時の、従来の局所相関演算と節で示した局所相関演算を用いて検出された動きベクトルの検出画像を示す。図中に示す細かい白線が動きベクトルである。
2.4エッジ情報を用いた動きベクトルの検出
照度変化が激しい局所領域では、静止領域であっても輝度の相関値の分布形状が変化しやすい。特に、単色領域では照度の変化によってグラデーションがかったりするため、動きの有無を検知したときに、図16のように静止領域を動きありと誤検知してしまう。これを避けるために画像中のエッジ情報を抽出することで、相関値の分布形状の変化を抑える。エッジを検出することにより、照度変化によってグラデーションがかるような領域を平坦な領域と見なすことができる。なお、エッジの抽出にはSobelフィルタを用いる。Sobelフィルタについては、参考文献:「画像処理と認識」、安居院 猛、長尾 智晴著、昭晃堂、1992年11月、33-37頁:に記載されている。
照度変化が激しい局所領域では、静止領域であっても輝度の相関値の分布形状が変化しやすい。特に、単色領域では照度の変化によってグラデーションがかったりするため、動きの有無を検知したときに、図16のように静止領域を動きありと誤検知してしまう。これを避けるために画像中のエッジ情報を抽出することで、相関値の分布形状の変化を抑える。エッジを検出することにより、照度変化によってグラデーションがかるような領域を平坦な領域と見なすことができる。なお、エッジの抽出にはSobelフィルタを用いる。Sobelフィルタについては、参考文献:「画像処理と認識」、安居院 猛、長尾 智晴著、昭晃堂、1992年11月、33-37頁:に記載されている。
以下にSobelフィルタを用いたエッジ検出方法を示す。位置(x,y)の画素値をY(x,y)とした時の、各画素でのエッジの強さをE(x,y)とすると、
dx=(−1)×f(x−1,y−1)+f(x+1,y−1)
+(−2)×f(x−1,y)+2×f(x+1,y)
+(−1)×f(x−1,y+1)+f(x+1,y+1) …(12)
dy=(−1)×f(x−1,y−1)+f(x−1,y+1)
+(−2)×f(x,y−1)+2×f(x,y+1)
+(−1)×f(x+1,y−1)+f(x+1,y+1) …(13)
dx=(−1)×f(x−1,y−1)+f(x+1,y−1)
+(−2)×f(x−1,y)+2×f(x+1,y)
+(−1)×f(x−1,y+1)+f(x+1,y+1) …(12)
dy=(−1)×f(x−1,y−1)+f(x−1,y+1)
+(−2)×f(x,y−1)+2×f(x,y+1)
+(−1)×f(x+1,y−1)+f(x+1,y+1) …(13)
図16、17に、動物体が動作する領域で2秒間の間に照度が約980[lx]〜199[lx]まで変化する時のフレームでの濃淡画像を用いた局所相関演算とエッジの強さを示した濃淡画像を用いた局所相関演算での動きベクトルの検出結果を示す。
図16は、照度変化の激しい環境下で、本実施の形態の2.3節で説明する局所相関演算法を用いて動きベクトルを検出した結果を示す模式図である。図17は、照度変化の激しい環境下で、本実施の形態の2.4節で説明するエッジ情報を用いて動きベクトルを検出した結果を示す模式図である。
2.5色彩情報を用いた動きベクトルの検出
輝度情報を用いた局所相関演算では、同じ輝度平面上の異なる色が存在する場所で動きベクトルを検出することができない。特に、局所領域内(ブロック領域)全体が単色で色のみが変化した場合には、照度が変化したのか、対象物体がブロック領域内に現れたのかの判断が行えない。後者の問題点は、特にブロック領域が小さい場合に現れやすい。このような問題点を解決するために、濃淡画像のエッジが得られなかった部分で色彩情報を用いた局所相関演算を行う。色彩情報には、上記1.2.2節で説明したS1、S2を用いる。なお、前述の問題点を踏まえて、2通りの場合に分けて相関演算を行う。
輝度情報を用いた局所相関演算では、同じ輝度平面上の異なる色が存在する場所で動きベクトルを検出することができない。特に、局所領域内(ブロック領域)全体が単色で色のみが変化した場合には、照度が変化したのか、対象物体がブロック領域内に現れたのかの判断が行えない。後者の問題点は、特にブロック領域が小さい場合に現れやすい。このような問題点を解決するために、濃淡画像のエッジが得られなかった部分で色彩情報を用いた局所相関演算を行う。色彩情報には、上記1.2.2節で説明したS1、S2を用いる。なお、前述の問題点を踏まえて、2通りの場合に分けて相関演算を行う。
(1)ブロック領域が小さい場合の検出
上述したように、ブロック領域が小さい場合には、現フレームと次フレームで同一の場所にあるブロック領域内が単色となりやすく、動きベクトルを検出することができない。そこで、後述の〔3〕で示す動き検知ブロック領域(小さいブロック領域)では、動きがあるかないかを現フレームと次フレームの注目ブロックの色ヒストグラムを比べることにより判断する。色ヒストグラムとは、局所領域内に各色の画素がいくつ存在するかを数えたものである。
上述したように、ブロック領域が小さい場合には、現フレームと次フレームで同一の場所にあるブロック領域内が単色となりやすく、動きベクトルを検出することができない。そこで、後述の〔3〕で示す動き検知ブロック領域(小さいブロック領域)では、動きがあるかないかを現フレームと次フレームの注目ブロックの色ヒストグラムを比べることにより判断する。色ヒストグラムとは、局所領域内に各色の画素がいくつ存在するかを数えたものである。
その方法として、まず現フレーム(f)の参照ブロックと次フレームの注目ブロック(f+1)の色ヒストグラムHc(S1,S2)、Hr(S1,S2)を生成する。なお、Hc(S1,S2)、Hr(S1,S2)は、色空間S1S2平面での2次元のヒストグラムである(図18参照)。そして、現フレームと次フレームのブロック領域(N×M)での類似度Rを次式(15)のように計算する。
この式(15)によって得られた類似度Rの値から最も近いブロックを決定し、それを参照ブロック(所定の局所領域)に対応する次フレームのブロック(局所領域)とする。そして、これら2つのブロック間の移動量と移動方向が動きベクトルとして得られる。
(2)ブロック領域が大きい場合の検出
ブロック領域が大きい場合には、複数の色でブロック領域内が構成されていることが多いため、局所相関演算を用いて動きベクトルの検出を行う。なお、ここでいう大きなブロック領域は〔3〕で示す移動ブロック領域とする。以下の式(1)を用いて動きベクトルの検出を行う。
ブロック領域が大きい場合には、複数の色でブロック領域内が構成されていることが多いため、局所相関演算を用いて動きベクトルの検出を行う。なお、ここでいう大きなブロック領域は〔3〕で示す移動ブロック領域とする。以下の式(1)を用いて動きベクトルの検出を行う。
但し、無彩色となる部分、輝度値が最小値、最大値に近い場所(図21の円筒部分)においては、色彩情報の情報量が少なくなるため、輝度値を用いた局所相関演算を行う。図19、20に、背景領域と動物体領域にほとんど輝度情報の差がない動画像を用いて、動きベクトルを検出した結果を示す。なお、図19は輝度情報を用いた局所相関演算、図20は色彩情報を用いた局所相関演算での動きベクトルの検出結果である。
〔3〕局所領域の最適化による対象物体領域の検出
局所相関演算を用いた追跡ではフローが検出される局所領域(ブロック)の大きさにより、追跡の精度が大きく異なる。そこで、ここではブロックの大きさを最適化する方法について考える。また、対象物体領域内でフローが検出されなかった場合の対象物体領域の検出方法について述べる。図22には、対象物体領域検出の流れを示す。
局所相関演算を用いた追跡ではフローが検出される局所領域(ブロック)の大きさにより、追跡の精度が大きく異なる。そこで、ここではブロックの大きさを最適化する方法について考える。また、対象物体領域内でフローが検出されなかった場合の対象物体領域の検出方法について述べる。図22には、対象物体領域検出の流れを示す。
以下に、図22に示す対象物体領域検出の流れについて説明する。
図22に示すように、対象物体領域検出の流れは、以下の、処理ステップ1〜5にわけられる。
1.ブロック差分による背景領域の検出:ブロック領域(10×10[pixel])単位で背景差分を行い、背景領域を検出する。
2.動き検知ブロックの検出動き検知ブロック(10×10[pixe1])領域で局所相関演算を行い、動いている領域を検出する。
3.移動ブロック内でのフロー検出:動きが検知されたブロックが存在する移動ブロック領域内で局所相関演算を行い、動物体の動いている方向のフローを検出する。
4.背景領域以外のラベリング:上記処理ステップ1で得られた背景領域以外のラベリングを行う。
5.対象物体領域の検出:移動ブロック内でフローが検出された領域とラベリングされた領域から対象物体領域の検出を行う。
1.ブロック差分による背景領域の検出:ブロック領域(10×10[pixel])単位で背景差分を行い、背景領域を検出する。
2.動き検知ブロックの検出動き検知ブロック(10×10[pixe1])領域で局所相関演算を行い、動いている領域を検出する。
3.移動ブロック内でのフロー検出:動きが検知されたブロックが存在する移動ブロック領域内で局所相関演算を行い、動物体の動いている方向のフローを検出する。
4.背景領域以外のラベリング:上記処理ステップ1で得られた背景領域以外のラベリングを行う。
5.対象物体領域の検出:移動ブロック内でフローが検出された領域とラベリングされた領域から対象物体領域の検出を行う。
上記2、3の処理ステップについては3.1節で、上記1、4の処理ステップについては3.2節で、上記処理5のステップについては3.3節で説明する。
3.1ブロックの最適化
局所相関演算を用いて対象物体を追跡する際には、動きベクトルが検出される局所領域(ブロック)を適切な大きさに設定する必要がある。もし、対象物体がブロックの大きさ以上の動きを行った場合には正常な動きベクトルを検出することができない。
局所相関演算を用いて対象物体を追跡する際には、動きベクトルが検出される局所領域(ブロック)を適切な大きさに設定する必要がある。もし、対象物体がブロックの大きさ以上の動きを行った場合には正常な動きベクトルを検出することができない。
そこで、本節では、図23に示すように、ごく小さいブロック(10×10[pixel])を、動きを検知するブロック(動き検知ブロック)とし、動き検知ブロックを複数組み合わせたブロックを、動きベクトルを求めるブロック(移動ブロック)とし、さらに局所相関演算法を用いて動領域部分のフロー検出を行う。なお、移動ブロックの大きさは物体における単位フレームあたりの移動距離u[pixel]×v[pixel]とする。動き検知ブロックで動きベクトルが検出されたブロックが存在した場合に、移動ブロック内で動きベクトルの検出を行う。なお、計算時間を短縮するため、移動ブロックの大きさを10×10[pixel]と見なして、動きベクトルを求める。
3.2背景領域の検出
局所相関演算で求められた領域は動領域であるため、対象物体が停止した場合には対象物体領域を検出することができない。また、対象物体の動き方によっては部分的にフローが検出されず、対象物体領域を正確に検出することができない。そこで、次の方法を用いて背景領域を検出し、対象物体領域を検出する。
局所相関演算で求められた領域は動領域であるため、対象物体が停止した場合には対象物体領域を検出することができない。また、対象物体の動き方によっては部分的にフローが検出されず、対象物体領域を正確に検出することができない。そこで、次の方法を用いて背景領域を検出し、対象物体領域を検出する。
3.2.1ブロック差分による背景領域の検出
対象物体領域を検出するために、背景差分を用いて背景領域部分の検出を行う。しかし、通常の背景差分では画素の比較によって大局的に対象物体領域の検出を行うため、ノイズの影響を受けやすい。そこで、背景画像と現フレーム画像を格子状のブロックに分け、そのブロック領域の比較を行うことにより背景差分を行う。また、照明からの光の強さの変化が激しい映像では1枚の背景画像だけでは対象物体領域を検出することは困難であるため、明るい時に撮影された画像と暗い時に撮影された2枚の背景画像から現フレームでの背景画像を生成し、対象物体領域を検出することを考える。なお、局所領域の大きさは動き検知ブロックの大きさとする。
対象物体領域を検出するために、背景差分を用いて背景領域部分の検出を行う。しかし、通常の背景差分では画素の比較によって大局的に対象物体領域の検出を行うため、ノイズの影響を受けやすい。そこで、背景画像と現フレーム画像を格子状のブロックに分け、そのブロック領域の比較を行うことにより背景差分を行う。また、照明からの光の強さの変化が激しい映像では1枚の背景画像だけでは対象物体領域を検出することは困難であるため、明るい時に撮影された画像と暗い時に撮影された2枚の背景画像から現フレームでの背景画像を生成し、対象物体領域を検出することを考える。なお、局所領域の大きさは動き検知ブロックの大きさとする。
・背景画像の生成
時間と共に変化する背景領域画像を生成するため、本節では明るい時に撮影された画像と暗い時に撮影された画像から現フレームでの背景画像を生成し、対象物体領域を検出する。
時間と共に変化する背景領域画像を生成するため、本節では明るい時に撮影された画像と暗い時に撮影された画像から現フレームでの背景画像を生成し、対象物体領域を検出する。
まず、撮影された2種類の背景画像の(i,j)位置での画素値をそれぞれPB1(i,j)、PB2(i,j)、現フレームでの画素値をP(i,j)として、各ブロック領域(x,y)位置での平均値を求める。
そして、以下の式(19)で、現フレームでの背景画像PB(i,j)を生成する。
なお、図24には、差分ブロック領域の大きさを示す。
・輝度情報を用いた差分
背景画像の参照ブロックと現フレームの注目ブロックとの輝度の相関値(差分評価関数)を局所相関演算を用いて検出する。相関値の分布にばらつきがない場合には、その参照ブロック位置を背景領域と見なす。
背景画像の参照ブロックと現フレームの注目ブロックとの輝度の相関値(差分評価関数)を局所相関演算を用いて検出する。相関値の分布にばらつきがない場合には、その参照ブロック位置を背景領域と見なす。
・色彩情報を用いた差分
輝度情報を用いた差分では、同じ輝度平面上で異なる色を検出することができないため、さらに色彩情報を用いた差分を行う。色彩情報には、上記4.2.2で説明したS1、S2を用い、以下の式(20)を用いて差分を行う。
輝度情報を用いた差分では、同じ輝度平面上で異なる色を検出することができないため、さらに色彩情報を用いた差分を行う。色彩情報には、上記4.2.2で説明したS1、S2を用い、以下の式(20)を用いて差分を行う。
上記式(20)において、S1r、S2rを現フレーム(次フレーム)での彩度値、S1s、S2sを前フレーム(現フレーム)での彩度値とする。
3.2.2背景領域以外のラベリング
背景領域以外の部分のラベリングを行い、背景領域を除く。ラベリングを行うにはいくつかの手法があるが、ここでは後述の〔4〕で行う実験に適したラベリングを行う。画像をM×Nのブロックに分割した時のブロック位置(x,y)の背景以外の領域の検出フラグをS(x,y)とし、背景領域の時はS(x,y)=0、それ以外の時のS(x,y)=1とする。
背景領域以外の部分のラベリングを行い、背景領域を除く。ラベリングを行うにはいくつかの手法があるが、ここでは後述の〔4〕で行う実験に適したラベリングを行う。画像をM×Nのブロックに分割した時のブロック位置(x,y)の背景以外の領域の検出フラグをS(x,y)とし、背景領域の時はS(x,y)=0、それ以外の時のS(x,y)=1とする。
画像左上のブロック位置を(0,0)、右下のブロック位置を(M−1,N−1)として、x=0からxの値を増やして、連続で
となる動きベクトル検出ブロックに同じラベルを付ける。例えば、図25の網掛けの部分(塗りつぶされている部分)に動きベクトルが検出されていたとすると、x軸方向に隣りあうLx>0なので、網掛けの領域を1つのラベリング領域とする。
3.3対象物体領域の検出
対象物体領域を検出する際には、対象物体が動いている場合と静止している場合の2通りを場合分けして、対象物体領域を検出する。
対象物体領域を検出する際には、対象物体が動いている場合と静止している場合の2通りを場合分けして、対象物体領域を検出する。
(1)対象物体が動いている場合
対象物体が動いている場合には動きベクトルを検出することができるため、動きベクトルと重なっているラベリング領域を対象体領域とみなす。
対象物体が動いている場合には動きベクトルを検出することができるため、動きベクトルと重なっているラベリング領域を対象体領域とみなす。
(2)対象物体が静止している場合
対象物体の動きが停止した場合には、前フレームの対象物体領域と重なっているラベリング領域を対象物体領域とみなす。
対象物体の動きが停止した場合には、前フレームの対象物体領域と重なっているラベリング領域を対象物体領域とみなす。
〔4〕動物体の追跡
本節では、局所相関演算を用いた複数の動物体の追跡手法について述べる。図26には複数の物体追跡の流れを示す。
本節では、局所相関演算を用いた複数の動物体の追跡手法について述べる。図26には複数の物体追跡の流れを示す。
図26に示すように、対象物体領域検出の流れは、以下の、処理ステップ1〜6にわけられる。処理ステップ1〜4については、図22に示す処理ステップ1〜4と同じであるため、その説明を省略する。
処理ステップ5:フロー検出部分のラベリング領域の検出、および、処理ステップ6:対象物体領域の検出について、以下に詳しく説明する。
4.1追跡の流れ
まず背景差分を行うことにより背景領域の検出を行う。その際、1[pixel]毎に差分を行うのではなく、局所領域を1つの単位として背景差分を行う。次に、オプティカルフロー推定法の1つである局所相関演算法を用いることにより、局所的に輝度、色変化の起こりやすい映像中の動領域部分を求める。その際、フローの精度を上げるため、本手法では各ブロックの相関値の分布からフローの検出を行う。同時に、背景領域以外の部分のラベリングを行う。そして、フロー検出付近のラベリング領域を動物体の領域とする。最後に、ラベリング領域、動物体の領域と前フレームで得られた対象物体領域部分を比較することによって、対象物体領域を検出する。
まず背景差分を行うことにより背景領域の検出を行う。その際、1[pixel]毎に差分を行うのではなく、局所領域を1つの単位として背景差分を行う。次に、オプティカルフロー推定法の1つである局所相関演算法を用いることにより、局所的に輝度、色変化の起こりやすい映像中の動領域部分を求める。その際、フローの精度を上げるため、本手法では各ブロックの相関値の分布からフローの検出を行う。同時に、背景領域以外の部分のラベリングを行う。そして、フロー検出付近のラベリング領域を動物体の領域とする。最後に、ラベリング領域、動物体の領域と前フレームで得られた対象物体領域部分を比較することによって、対象物体領域を検出する。
4.2複数対象物体の検出
ここで、対象物体領域、ラベリング領域、予測対象物体領域を下記のように定義する。
対象物体領域:対象物体の存在している領域。対象物体が重なった場合には、重なっている対象物体全ての領域を1つの領域と見なす。
ラベリング領域:上記3.2.2でラベリングを行った領域。
予測対象物体領域:フロー検出部分のラベリング領域(上記3.3で検出された領域)。
ここで、対象物体領域、ラベリング領域、予測対象物体領域を下記のように定義する。
対象物体領域:対象物体の存在している領域。対象物体が重なった場合には、重なっている対象物体全ての領域を1つの領域と見なす。
ラベリング領域:上記3.2.2でラベリングを行った領域。
予測対象物体領域:フロー検出部分のラベリング領域(上記3.3で検出された領域)。
4.2.1ラベリング領域の結合
1つの対象物体領域に複数現れるラベリング領域を1つの領域にまとめるため、前フレームで得られた1つの対象物体領域と重なっているラベリング領域を1つに結合する。こうして得られた領域を予備対象物体領域として下記の処理を行う。
1つの対象物体領域に複数現れるラベリング領域を1つの領域にまとめるため、前フレームで得られた1つの対象物体領域と重なっているラベリング領域を1つに結合する。こうして得られた領域を予備対象物体領域として下記の処理を行う。
対象物体が静止したときにはフローの検出が行えない。そのような場合には、前フレーム中に存在していた対象物体領域付近に現フレームでの予備対象物体領域が存在しない。そのため、前フレーム中に存在していた予備対象物体領域付近のラベリング領域を現フレームの対象物体領域とする。
対象物体が重なった場合には、現フレームの予備対象物体領域に前フレーム中に存在していた対象物体領域が2つ以上存在している。そのため、予備対象物体領域を結合して現フレームの対象物体領域とする。
前フレーム中に存在していなかった対象物体領域付近に現フレームでの予備対象物体領域が出現した場合、対象物体がその領域に存在しない。そのため、予備対象物体領域をノイズとして削除する。
本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
本発明の実施例を以下に示す。
[1]実験環境(図27参照)
室内の蛍光ライト41に照らされた場所で複数の人物が行き来する動画像を用いて複数人物の追跡を行った。なお、蛍光ライト41には光度の変化を行うことができるサンスターの「FL(蛍光灯)ライト」を用いた。動画像を写すために用いたカメラ(撮像装置)42は、ソニー株式会社製の非圧縮デジタルCCDカメラ「DFW−V300」である。なお、使用したカメラの解像度は640×480、フレームレートは15[frame/sec]とする。なお、カメラ42から得られた画像データは、本実施の形態にかかる画像処理装置10、あるいは、従来の画像処理装置を用いて動物体を追跡するための画像処理を施した後、図示しない表示装置において確認した。
室内の蛍光ライト41に照らされた場所で複数の人物が行き来する動画像を用いて複数人物の追跡を行った。なお、蛍光ライト41には光度の変化を行うことができるサンスターの「FL(蛍光灯)ライト」を用いた。動画像を写すために用いたカメラ(撮像装置)42は、ソニー株式会社製の非圧縮デジタルCCDカメラ「DFW−V300」である。なお、使用したカメラの解像度は640×480、フレームレートは15[frame/sec]とする。なお、カメラ42から得られた画像データは、本実施の形態にかかる画像処理装置10、あるいは、従来の画像処理装置を用いて動物体を追跡するための画像処理を施した後、図示しない表示装置において確認した。
さらに撮影条件として、以下の条件を加える。
(1)人物とカメラの間に動作する物体がないこと
(2)背景画像が動作しないこと
以上の撮影条件を加えた上で、約2秒間の間に照度計測点Bで照度の強さが約263[lx]〜46[lx]、46[lx]〜263[lx]へと変化する照明条件の元で撮影された動画像中の人物の追跡を行う。なお、追跡処理を行ったマシンのCPUは「Intel(R)Pentium(登録商標)(R)4」、動作周波数は2・53G[byte]、メモリ容量は1G[byte]である。なお、図27において、斜線で示す領域は対象物体移動領域Aである。
(1)人物とカメラの間に動作する物体がないこと
(2)背景画像が動作しないこと
以上の撮影条件を加えた上で、約2秒間の間に照度計測点Bで照度の強さが約263[lx]〜46[lx]、46[lx]〜263[lx]へと変化する照明条件の元で撮影された動画像中の人物の追跡を行う。なお、追跡処理を行ったマシンのCPUは「Intel(R)Pentium(登録商標)(R)4」、動作周波数は2・53G[byte]、メモリ容量は1G[byte]である。なお、図27において、斜線で示す領域は対象物体移動領域Aである。
[2]動き検知ブロックの検出結果および評価
以下4つの手法を用いて動き検知ブロックを求める。このうち、動きありと判断されたブロックを表示した実験結果画像を図28〜43に示す。
1.従来の動きベクトル検出手法
2.局所領域の輝度値の相関値の分布から動きベクトルを検出した手法
3.一局所領域のエッジの強さの相関値の分布から動きベクトルを検出した手法
4.局所領域の色彩情報の相関値の分布から動きベクトルを検出した手法
図28〜31は、約2秒間の間に照度計測点で照度の強さが約263[lx]〜46[lx]へと変化する照明に照らされた領域の撮影画像に動き検知ブロックを表示した画像である。図32〜35は、約2秒間の間に照度計測点で照度の強さが約46[1x]〜263[lx]へと変化する照明に照らされた領域の撮影画像動き検知ブロックを表示した画像である。図36〜39は、照度計測点で照度の強さが約26[lx]の照明に照らされた領域の撮影画像動き検知ブロックを表示した画像である。図40〜43は、照度計測点で照度の強さが約263[lx]の照明に照らされた領域の撮影画像動き検知ブロックを表示した画像である。
以下4つの手法を用いて動き検知ブロックを求める。このうち、動きありと判断されたブロックを表示した実験結果画像を図28〜43に示す。
1.従来の動きベクトル検出手法
2.局所領域の輝度値の相関値の分布から動きベクトルを検出した手法
3.一局所領域のエッジの強さの相関値の分布から動きベクトルを検出した手法
4.局所領域の色彩情報の相関値の分布から動きベクトルを検出した手法
図28〜31は、約2秒間の間に照度計測点で照度の強さが約263[lx]〜46[lx]へと変化する照明に照らされた領域の撮影画像に動き検知ブロックを表示した画像である。図32〜35は、約2秒間の間に照度計測点で照度の強さが約46[1x]〜263[lx]へと変化する照明に照らされた領域の撮影画像動き検知ブロックを表示した画像である。図36〜39は、照度計測点で照度の強さが約26[lx]の照明に照らされた領域の撮影画像動き検知ブロックを表示した画像である。図40〜43は、照度計測点で照度の強さが約263[lx]の照明に照らされた領域の撮影画像動き検知ブロックを表示した画像である。
実験結果画像より、1の手法に比べ、2、3の手法では、特に直線パターンを含む領域での動きベクトル検出精度の向上が著しいことがわかる。さらに、1、2の手法に比べ、3の手法では、画像中の照度が極端に変化する静止領域の動きベクトルをほとんど検出していない。これは、エッジを抽出することで、照度の変化によってグラデーションがかかりやすい領域を同一平面と見なすことができたためと考えられる。ただ、一部3の手法で静止領域を検出してしまうことがあるが、これは照明からの光によって静止領域からの反射光が強く現れている部分でおこることがわかる。このような場合には、照度が強くなるまたは弱くなることで、エッジ領域が出現、消失したためだと考えられる。
4の手法では、動領域においても動きベクトルを検出しないことが多々ある、輝度の低くなる領域で精度の良い動きベクトルを検出することができないという問題点が挙げられた。原因として、画像のノイズの影響を強く受けて、色彩情報を正確に抽出することができなかったためだと考えられる。
画像全体で・動き検知ブロック(10×10[pixel])を検出した時の平均処理速度[s/frame]を表1に示す。動き検知ブロックの平均処理速度は表1より、1、2については、ほぼ同じ速度、3については、画像のエッジを抽出する分だけ処理速度が少し遅くなった。4についてはRGB表色系の画像データをHVC表色系の画像データヘと変換する分だけ処理速度が遅くなった。
以上より、局所領域のエッジ情報の相関値分布から動きベクトルを検出する手法は、処理時問、精度ともに良好であると言える。そこで、図26の処理ステップ2、3では、局所領域のエッジ情報の相関値分布から動きベクトルを検出する手法を用いて追跡を行った。その結果を以下に示す。
[3]追跡結果および評価
図26の処理ステップ2、3で、局所領域のエッジ情報の相関値の分布から動きベクトルを検出して、動物体を追跡した20フレーム毎の結果画像を図44〜65に示す。なお、白線で囲まれた領域を追跡結果領域とする。結果画像より、全フレームで対象物体領域をほぼ誤りなく白線で囲んでいることがわかる。よって、照明の強度変化が激しいフレームにおいても精度よく追跡を行うことができた。
図26の処理ステップ2、3で、局所領域のエッジ情報の相関値の分布から動きベクトルを検出して、動物体を追跡した20フレーム毎の結果画像を図44〜65に示す。なお、白線で囲まれた領域を追跡結果領域とする。結果画像より、全フレームで対象物体領域をほぼ誤りなく白線で囲んでいることがわかる。よって、照明の強度変化が激しいフレームにおいても精度よく追跡を行うことができた。
なお、今回の実験では、色彩情報を用いて動きベクトルを検出するという手法は、エッジ情報を用いて動きベクトルを検出する手法に比べて検出精度が低いという結果が得られた。しかしながら、従来の手法と比較すると、検出精度は良好であるため、本発明の範囲に含まれる。そして、エッジ情報による動ベクトルの検出では良好な結果が得られないと考えられる、局所領域内(ブロック領域)全体が単色で色のみが変化した場合には、色彩情報を用いた局所相関演算を行うことが望ましい。
本発明によれば、照明変化の激しい環境下において、動画像中の物体の追跡を精度良く行うことができる。そのため、本発明は、動物体の自動追跡を行うシステム、例えば、ITS、自動監視システムなどに有効に利用することができる。
1 局所領域分割部(局所領域分割手段)
2 エッジ情報抽出部(画像情報抽出手段)
3 色彩情報抽出部(画像情報抽出手段)
4 差分算出・背景領域検出部(背景領域検出手段)
5 動き検知ブロック内の動きベクトル検出部(動きベクトル検出手段)
6 移動ブロック内の動きベクトル検出部(動きベクトル検出手段)
7 動物体領域検出部(動きベクトル検出手段)
10 画像処理装置
11 背景領域検出部(画像情報抽出手段、背景領域検出手段)
12 動きベクトル検出部(動きベクトル検出手段)
13 動領域ラベリング部
20 撮像装置
30 表示装置
2 エッジ情報抽出部(画像情報抽出手段)
3 色彩情報抽出部(画像情報抽出手段)
4 差分算出・背景領域検出部(背景領域検出手段)
5 動き検知ブロック内の動きベクトル検出部(動きベクトル検出手段)
6 移動ブロック内の動きベクトル検出部(動きベクトル検出手段)
7 動物体領域検出部(動きベクトル検出手段)
10 画像処理装置
11 背景領域検出部(画像情報抽出手段、背景領域検出手段)
12 動きベクトル検出部(動きベクトル検出手段)
13 動領域ラベリング部
20 撮像装置
30 表示装置
Claims (13)
- 撮像装置によって撮影された動画像中の物体の動きベクトルを、局所相関演算法を用いて検出する画像処理装置であって、
画像中のエッジ情報、または、画像中の色彩情報の少なくとも一つを用いて動きベクトルを検出する動画像処理部を備えることを特徴とする画像処理装置。 - 上記動画像処理部では、エッジ情報と色彩情報の両方を用いて動きベクトルを検出することを特徴とする請求項1に記載の画像処理装置。
- 上記動画像処理部は、
上記撮像装置から送られた画像データを複数の局所領域に分割する局所領域分割手段と、
各局所領域におけるエッジ情報および/または色彩情報を抽出する画像情報抽出手段と、
上記エッジ情報および/または色彩情報を用いて局所相関演算を行い、動画像中の現フレームにおける所定の局所領域に対応する次フレームの局所領域を求め、これら2つの局所領域の移動量と移動方向とを動きベクトルとして検出する動きベクトル検出手段と、
を備えることを特徴とする請求項1または2に記載の画像処理装置。 - 動画像中の現フレームにおける所定の局所領域と、次フレームの上記所定の局所領域およびその周辺の局所領域との間において、上記エッジ情報および/または上記色彩情報の各局所領域間の差分を求め、この差分から背景領域を検出する背景領域検出手段をさらに備え、
上記動きベクトル検出手段では、背景領域検出手段で背景領域と検出された部分以外の領域に含まれる局所領域について、局所相関演算を行うことを特徴とする請求項3に記載の画像処理装置。 - 上記動きベクトル検出手段では、上記色彩情報から色ヒストグラムを作成し、現フレームの局所領域における色ヒストグラムと、次フレームの局所領域における色ヒストグラムとの類似度を求め、上記類似度を用いて、上記所定の局所領域に対応する局所領域を求め、これら2つの局所領域の移動量と移動方向とを動きベクトルとして検出することを特徴とする請求項3または4に記載の画像処理装置。
- 上記動きベクトル検出手段では、上記エッジ情報から得られるエッジの強さを示す濃淡画像を用いた局所相関演算を行って動きベクトルを検出することを特徴とする請求項3〜5の何れか1項に記載の画像処理装置。
- 上記画像情報抽出手段において、上記色彩情報の抽出はマンセル表色系を用いて行われることを特徴とする請求項3〜6の何れか1項に記載の画像処理装置。
- 上記画像情報抽出手段において、上記エッジ情報の抽出はSobelフィルタを用いて行われることを特徴とする請求項3〜7の何れか1項に記載の画像処理装置。
- 局所相関演算法を用いて、動画像中の物体の動きベクトルを検出する画像処理方法であって、
上記局所相関演算法では、画像中のエッジ情報、または、画像中の色彩情報の少なくとも一つを用いて動きベクトルを検出することを特徴とする画像処理方法。 - 上記局所相関演算法では、画像中のエッジ情報および画像中の色彩情報の両方を用いて動きベクトルを検出することを特徴とする請求項9に記載の画像処理方法。
- 上記画像処理方法は、
画像を局所領域に分割する工程と、
各局所領域におけるエッジ情報および/または色彩情報を抽出する画像情報抽出工程と、
上記エッジ情報および/または色彩情報を用いて局所相関演算を行い、動画像中の現フレームにおける所定の局所領域に対応する次フレームの局所領域を求め、これら2つの局所領域の移動量と移動方向とを動きベクトルとして検出する工程と、
を含むことを特徴とする請求項9または10に記載の画像処理方法。 - 請求項1〜8の何れか1項に記載の画像処理装置を動作させるための画像処理プログラムであって、コンピュータを上記各手段として機能させるための画像処理プログラム。
- 請求項12に記載の画像処理プログラムが記録されたコンピュータ読取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004233835A JP2006053692A (ja) | 2004-08-10 | 2004-08-10 | 動画像における画像処理装置、画像処理方法、画像処理プログラム、および該プログラムを記録した記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004233835A JP2006053692A (ja) | 2004-08-10 | 2004-08-10 | 動画像における画像処理装置、画像処理方法、画像処理プログラム、および該プログラムを記録した記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006053692A true JP2006053692A (ja) | 2006-02-23 |
Family
ID=36031145
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004233835A Withdrawn JP2006053692A (ja) | 2004-08-10 | 2004-08-10 | 動画像における画像処理装置、画像処理方法、画像処理プログラム、および該プログラムを記録した記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006053692A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008167267A (ja) * | 2006-12-28 | 2008-07-17 | Mitsubishi Electric Corp | ステレオ画像符号化装置、ステレオ画像符号化方法及びステレオ画像符号化プログラム |
JP2010003094A (ja) * | 2008-06-19 | 2010-01-07 | Fujitsu Ltd | 画像処理装置、画像処理方法、及びプログラム |
JP2010102384A (ja) * | 2008-10-21 | 2010-05-06 | Nippon Telegr & Teleph Corp <Ntt> | 部分画像対応付け装置、部分画像対応付け方法及び部分画像対応付けプログラム |
JP2011128695A (ja) * | 2009-12-15 | 2011-06-30 | Renesas Electronics Corp | 動き検出装置 |
JP2012084056A (ja) * | 2010-10-14 | 2012-04-26 | Foundation For The Promotion Of Industrial Science | 物体検出装置 |
JP2019053625A (ja) * | 2017-09-17 | 2019-04-04 | 国立大学法人岩手大学 | 移動物体検出装置および移動物体検出方法 |
CN115272341A (zh) * | 2022-09-29 | 2022-11-01 | 华联机械集团有限公司 | 一种基于机器视觉的包装机缺陷产品检测方法 |
-
2004
- 2004-08-10 JP JP2004233835A patent/JP2006053692A/ja not_active Withdrawn
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008167267A (ja) * | 2006-12-28 | 2008-07-17 | Mitsubishi Electric Corp | ステレオ画像符号化装置、ステレオ画像符号化方法及びステレオ画像符号化プログラム |
JP4660463B2 (ja) * | 2006-12-28 | 2011-03-30 | 三菱電機株式会社 | ステレオ画像符号化装置 |
JP2010003094A (ja) * | 2008-06-19 | 2010-01-07 | Fujitsu Ltd | 画像処理装置、画像処理方法、及びプログラム |
JP2010102384A (ja) * | 2008-10-21 | 2010-05-06 | Nippon Telegr & Teleph Corp <Ntt> | 部分画像対応付け装置、部分画像対応付け方法及び部分画像対応付けプログラム |
JP4688920B2 (ja) * | 2008-10-21 | 2011-05-25 | 日本電信電話株式会社 | 部分画像対応付け装置、部分画像対応付け方法及び部分画像対応付けプログラム |
JP2011128695A (ja) * | 2009-12-15 | 2011-06-30 | Renesas Electronics Corp | 動き検出装置 |
JP2012084056A (ja) * | 2010-10-14 | 2012-04-26 | Foundation For The Promotion Of Industrial Science | 物体検出装置 |
JP2019053625A (ja) * | 2017-09-17 | 2019-04-04 | 国立大学法人岩手大学 | 移動物体検出装置および移動物体検出方法 |
JP7018607B2 (ja) | 2017-09-17 | 2022-02-14 | 国立大学法人岩手大学 | 移動物体検出装置および移動物体検出方法 |
CN115272341A (zh) * | 2022-09-29 | 2022-11-01 | 华联机械集团有限公司 | 一种基于机器视觉的包装机缺陷产品检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8126268B2 (en) | Edge-guided morphological closing in segmentation of video sequences | |
US8565525B2 (en) | Edge comparison in segmentation of video sequences | |
Soriano et al. | Adaptive skin color modeling using the skin locus for selecting training pixels | |
US8077969B2 (en) | Contour finding in segmentation of video sequences | |
Bradley et al. | Adaptive thresholding using the integral image | |
Smolka et al. | Towards automatic redeye effect removal | |
US7936926B2 (en) | Apparatus, method, and program for face feature point detection | |
CN109997351B (zh) | 用于生成高动态范围图像的方法和装置 | |
US20120288189A1 (en) | Image processing method and image processing device | |
WO2015070723A1 (zh) | 眼部图像处理方法和装置 | |
US20070206844A1 (en) | Method and apparatus for breast border detection | |
CN105122306B (zh) | 区域分割方法以及检查装置 | |
EP1969561A1 (en) | Segmentation of video sequences | |
EP1971967A1 (en) | Average calculation in color space, particularly for segmentation of video sequences | |
CN105844242A (zh) | 图像中的肤色检测方法 | |
CN113034354B (zh) | 一种图像处理方法、装置、电子设备和可读存储介质 | |
CN109886195B (zh) | 基于深度相机近红外单色灰度图的皮肤识别方法 | |
JP2004030007A (ja) | 化粧シミュレーション装置、化粧シミュレーション方法、化粧シミュレーションプログラム及びそのプログラムを記録した記録媒体 | |
CN109583330B (zh) | 一种用于人脸照片的毛孔检测方法 | |
JP2006053692A (ja) | 動画像における画像処理装置、画像処理方法、画像処理プログラム、および該プログラムを記録した記録媒体 | |
Yu et al. | Specular highlight detection based on color distribution for endoscopic images | |
Lecca | A Retinex Inspired Bilateral Filter for Enhancing Images under Difficult Light Conditions. | |
Flores et al. | Morphological operators for segmentation of color sequences | |
JP2007025901A (ja) | 画像処理装置、画像処理方法 | |
JP2020030751A (ja) | 物体検出装置、物体検出方法、及び物体検出プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20071106 |