JP2015169628A - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP2015169628A
JP2015169628A JP2014046851A JP2014046851A JP2015169628A JP 2015169628 A JP2015169628 A JP 2015169628A JP 2014046851 A JP2014046851 A JP 2014046851A JP 2014046851 A JP2014046851 A JP 2014046851A JP 2015169628 A JP2015169628 A JP 2015169628A
Authority
JP
Japan
Prior art keywords
image
blur amount
luminance
edge
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014046851A
Other languages
English (en)
Other versions
JP6340837B2 (ja
Inventor
睦 永見
Mutsumi Nagami
睦 永見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saxa Inc
Original Assignee
Saxa Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saxa Inc filed Critical Saxa Inc
Priority to JP2014046851A priority Critical patent/JP6340837B2/ja
Publication of JP2015169628A publication Critical patent/JP2015169628A/ja
Application granted granted Critical
Publication of JP6340837B2 publication Critical patent/JP6340837B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】物体を撮像して生成した1枚の画像から、その物体の速度を測定する。
【解決手段】速度測定の対象の物体を撮像したカメラからの画像を取得する画像取得手段251と、画像取得手段251で取得された画像のエッジを抽出するエッジ抽出手段(エッジベクトル算出手段254、エッジ判定手段255)と、エッジ抽出手段で抽出されたエッジのボケ量を算出するボケ量算出手段257と、ボケ量算出手段257で算出されたボケ量と、カメラからの移動物体の画像のボケ量と該移動物体の速度との相関情報とに基づいて、前記物体の速度を算出する速度算出手段(ボケ量/輝度画像生成手段258、速度算出手段25a)と、を備えている。
【選択図】図19

Description

本発明は、監視システムに用いて好適な画像処理装置に関する。
近年、道路における交通量の計測、走行車両の特定、走行車両の速度計測、或いは所定の敷地内へ侵入した物体の特定等を目的として、テレビカメラに代表される撮像装置を用いた監視システムが提案されている。
このような監視システムにおいて、走行車両などの移動物体の速度を計測する方法として、撮像時刻の異なる複数の画像間の特徴点の変位と時間差とから速度を算出する方法がある(特許文献1)。
しかし、特許文献1に記載された速度計測方法では、複数の画像を取得する必要があり、かつ処理負荷が大きいという問題がある。
特開平4−84300号公報
本発明は、上記従来の問題を解決するためになされたものであって、その目的は、物体を撮像して生成した1枚の画像から、その物体の速度を測定できるようにすることである。
本発明に係る画像処理装置は、速度測定の対象の物体を撮像した撮像装置からの画像を取得する画像取得手段と、該画像取得手段で取得された画像のエッジを抽出するエッジ抽出手段と、該エッジ抽出手段で抽出されたエッジのボケ量を算出するボケ量算出手段と、該ボケ量算出手段で算出されたボケ量と、前記撮像装置からの移動物体の画像のボケ量と該移動物体の速度との相関情報とに基づいて、前記速度測定の対象の物体の速度を算出する速度算出手段と、を有する画像処理装置である。
本発明によれば、物体を撮像して生成した1枚の画像から、その物体の速度を測定することができる。
本発明の実施形態に係る画像処理装置を含む監視システムを示す図である。 図1におけるボケ量推定手段の機能構成を示すブロック図である。 図2における輝度差算出手段及びボケ量算出手段の動作を説明するための図である。 エッジ部及びその両側の画素の輝度とボケ量との関係を示す図である。 図1におけるボケ量推定手段の動作を示すフローチャートである。 図1における距離測定手段の機能構成を示すブロック図である。 ボケ量/距離テーブルの作成手順について説明するための図である。 図1における距離測定手段の動作を示すフローチャートである。 図6における輝度画像抽出手段及び輝度画像合成手段の動作を説明するための図である。 図1における距離測定手段の測定対象の例を示す図である。 図1における物体検知手段の機能構成を示すブロック図である。 図1における物体検知手段の動作を示すフローチャートである。 図1における物体検知手段の動作を説明するための図である。 図1における影除去手段の機能構成を示すブロック図である。 図1における影除去手段の動作を示すフローチャートである。 図1における影除去手段の動作を説明するための図である。 図1における速度測定手段の測定原理を説明するための図である。 移動ボケが発生した画像における輝度とボケ量との対応関係を示す特性曲線のグラフである。 図1における速度測定手段の機能構成を示すブロック図である。 図1における速度測定手段の動作を示すフローチャートである。
以下、本発明の実施形態について、図面を参照して説明する。
〈画像処理装置を含む監視システム〉
図1は本発明の実施形態に係る画像処理装置を含む監視システムを示す図である。この監視システムは、PC(パーソナルコンピュータ)1と、それぞれがPC1に接続されたカメラ2、キーボード3、マウス4、及びモニタ5を備えている。
ここで、PC1が、本発明の実施形態に係る画像処理装置であり、カメラ2からの画像データを処理することで、各種画像処理(詳細については後述)を行う。
カメラ2は、監視エリアを撮像するように配置された撮像装置である。本実施形態では、カラーカメラを採用したが、モノクロカメラを用いることもできる。
キーボード3及びマウス4は、ユーザがPC1に種々の指示を与えるための入力装置であり、モニタ5はカメラ2が監視エリアを撮像して生成した画像などを表示する出力装置である。
PC1は、CPU(Central Processing Unit)11と、それぞれがCPU11に接続された入力部12、カメラ制御部13、ROM(Read Only Memory)14、RAM(Random Access Memory)15、ストレージ16、及び出力部17を備えている。
入力部12は、カメラ2、キーボード3、及びマウス4と通信を行うためのインタフェースであり、出力部17はモニタ5と通信を行うためのインタフェースである。また、カメラ制御部13は、カメラの焦点距離、絞り、シャッター速度などを制御するためのインタフェースである。
CPU11はPC1全体の動作を制御するプロセッサである。ROM14は、CPU11が実行するプログラムや固定データ(後述する各種テーブルなど)を記憶するメモリ(書き換え可能なものを含む)であり、RAM15は、CPU11のワークエリアとなるメモリである。ストレージ16は、ハードディスクなどの大容量記憶装置からなり、カメラ2で生成され、CPU11で画像処理を受けた画像データ、CPU11が生成したデータ、監視動作に関するアプリケーションプログラムなどが格納される。
CPU11は、ROM14やストレージ16に格納されたプログラムを実行することにより実現される機能ブロックとして、ボケ量推定手段21、距離測定手段22、物体検知手段23、影除去手段24、及び速度測定手段25を備えている。
ボケ量推定手段21は、カメラ2が監視エリアを撮像して生成した画像のボケ量を推定する。距離測定手段22は、カメラ2が監視エリアを撮像して生成した画像のボケ量を推定し、ボケ量とカメラ2の焦点位置と被写体までの距離との対応関係を示すデータに基づいて、カメラ2から被写体までの距離を測定(推定)する。
物体検知手段23は、カメラ2が監視エリアを撮像して生成した画像の背景差分画像のボケ量を推定し、そのボケ量が予め設定した監視エリアの被写体を撮像した場合のボケ量であるか否かに基づいて、監視エリアへ侵入した物体を検知する。
影除去手段24は、カメラ2が監視エリアを撮像して生成した画像のボケ量を推定し、そのボケ量と影との対応関係を示すデータに基づいて、画像中の影の部分を識別し、画像中の影の部分を除去する。
速度測定手段25は、カメラ2が監視エリアを撮像して生成した物体の画像の移動ボケ量(ブレ量)を推定し、その移動ボケ量と移動速度との対応関係を示すデータに基づいて、物体の移動速度を測定(推定)する。
〈ボケ量推定手段の機能ブロック図〉
図2は、図1におけるボケ量推定手段21の機能構成を示すブロック図である。図示のように、ボケ量推定手段21は、画像取得手段211、モノクロ変換手段212、ノイズ除去手段213、エッジベクトル算出手段214、エッジ判定手段215、輝度差算出手段216、及びボケ量算出手段217を備えている。エッジベクトル算出手段214とエッジ判定手段215がエッジ抽出手段を構成する。
画像取得手段211は、カメラ2が監視エリアを撮像して生成した画像を入力部12を介して受け取ることで、カメラ2からの画像を取得する手段である。このとき、カメラ2の光学系は、カメラ制御部13による焦点距離及び絞りの制御により、被写界深度の浅い状態、換言すればピントの合う範囲の狭い状態に設定されている。
モノクロ変換手段212は、画像取得手段211が取得した画像であるカラー画像をモノクロ画像に変換する。この変換は、カラー画像の各色成分の合成による輝度(Y)成分の生成、又は任意の色成分(例.G)の抽出として行う。
ノイズ除去手段213は、メディアンフィルタやガウシアンフィルタからなり、モノクロ変換手段212からのモノクロ画像のピクセルノイズを除去する。カメラ2としてモノクロカメラを用いた場合は、モノクロ変換手段212は不要である。
エッジベクトル算出手段214は、3×3のSobel(ソーベル)フィルタやCanny(キャニー)フィルタからなり、ノイズ除去されたモノクロ画像の各画素のエッジベクトル(エッジ強度及びエッジ方向)を算出する。
即ち、画像の横方向(x方向)の3×3のSobelフィルタSxの出力をfx、画像の縦方向(y方向)の3×3のSobelフィルタSyの出力をfyとすると、下記の式〔1〕、式〔2〕により、エッジ強度及びエッジ方向を算出する。
エッジ強度=√(fx+fy) …式〔1〕
エッジ方向=tan−1(fy/fx) …式〔2〕
エッジ判定手段215は、エッジベクトル算出手段214により算出された各画素(注目画像)のエッジベクトルの強度(エッジ強度)のうち、その両側の画素のエッジベクトルの強度と比べて大きい、即ち差又は比が所定の閾値を超える注目画像をエッジ部画素と判定することでエッジを抽出する。
輝度差算出手段216は、エッジ部画素のエッジベクトル方向の両側に位置する所定数の画素の画素値としての輝度の差を算出する。即ち、例えばエッジ部画素の両隣のさらに両隣に位置する1対の画素の輝度差を算出する。
ボケ量算出手段217は、エッジベクトル算出手段214により抽出されたエッジ部画素のエッジ強度と、輝度差算出手段216により算出された輝度差とから、エッジのボケ量を算出する。
〈エッジ部の輝度差及びボケ量算出〉
図3は、図2における輝度差算出手段216及びボケ量算出手段217の動作を説明するための図である。この図において、横軸は画素、縦軸は輝度を表す。
図3において、画素Peはエッジ部画素である。画素Pe+1、画素Pe-1は、画素Peのエッジベクトル方向の両隣(両側の直近)の一対の画素であり、その輝度差:Aは、エッジベクトル算出手段214により、画素Peのエッジ強度として算出される。画素Pe+2、画素Pe-2は、画素Pe+1、画素Pe-1の両隣の一対の画素であり、その輝度差:Bは、輝度差算出手段216により算出される。
ボケ量算出手段217は下記の式〔3〕により、輝度差:Bと輝度差:2Aとを比較することで、エッジのボケ量を算出する。
ボケ量=B÷2A …式〔3〕
また、図3において、画素Pe+2と画素Pe+1との輝度差をB1、画素Pe-2と画素Pe-1との輝度差をB2とすると、式〔3〕に代えて、下記の式〔4〕によりボケ量を算出することもできる。
ボケ量=(A+B1+B2)÷2A …式〔4〕
〈エッジ部付近の画素の輝度とボケ量との関係〉
図4は、エッジ部及びその両側の画素の輝度とボケ量との関係を示す図である。この図を用いて、エッジ部付近の画素の輝度とボケ量との関係について説明する。
この図の横軸は画素の位置であり、9番目の画素がエッジ部画素である。また、図の縦軸は画素の輝度である。また、σはガウス分布(正規分布)における分散値の平方根であり、その数値はガウシアンフィルタのパラメータとして用いられる値である。即ち、この図に示すエッジ部及びその両側の画素の輝度とボケ量との関係は、σをパラメータとした輝度対画素位置特性である。
この特性は、18個の画素の輝度値の総数を256としたガウス分布の累積分布関数をσをパラメータとして算出したものである。現実の撮像画像のボケ量はガウス分布となることが知られているので、この特性はボケ量を数値化したものと言える。また、σの値はボケ量に関連し、σが大きい程ボケ量が大きい。
即ち、例えばσ=0の場合、図3における画素Peに対応する9番目の画素の輝度が128、画素Pe+1、画素Pe-1に対応する10番目、8番目の画素の輝度がそれぞれ256、0であるから、A=256である。また、画素Pe+2、画素Pe-2に対応する11番目、7番目の画素の輝度はそれぞれ256、0であるから、B=256(B1=0、B2=0)である。従って、式〔3〕により、σ=0の場合のボケ量を算出すると、「B÷2A=256÷512=0.5」となる。この値がボケ量の最小値である。
そして、σの値が大きくなるにつれて、特性曲線の傾斜が緩くなるため、Aの値が減少し、B1、B2の値が増加し、Bと2Aが等しい傾斜に収束する。この場合、ボケ量は最大値の1となる。
〈ボケ量推定手段の動作〉
図5は、図1におけるボケ量推定手段21の動作を示すフローチャートである。
まず画像取得手段211が被写界深度の浅い状態に設定されているカメラ2からの画像を取得する(ステップS1)。この画像はカラー画像である。
次にモノクロ変換手段212がカラー画像をモノクロ画像に変換し(ステップS2)、ノイズ除去手段213がモノクロ画像中のノイズを除去する(ステップS3)。
次に、エッジベクトル算出手段214がノイズ除去されたモノクロ画像の各画素のエッジベクトルを算出し(ステップS4)、エッジ判定手段215がエッジベクトルの強度を基にエッジを抽出する(ステップS5)。ステップS4を実行する過程で図3におけるAの値が算出される。
次いで、輝度差算出手段216が、エッジ判定手段215により抽出されたエッジを構成するエッジ部画素のエッジベクトル方向の両側の所定数の画素、例えばエッジ部画素の両隣のさらに両隣の1対の画素の輝度差を算出する(ステップS6)。このステップにより、図3におけるBの値が算出される。最後に、ボケ量算出手段217が式〔3〕を用いてボケ量を算出する(ステップS7)。
このように、本発明の実施形態のボケ量推定手段によれば、周波数解析を伴わない単純な処理で画像のボケ量を推定することができる。なお、以上説明した実施形態では、式〔3〕によりボケ量を算出しているが、式〔3〕の分母の2Aに代えて、5×5のSobelフィルタの出力とすることもできる。この場合、画素Pe+2、画素Pe-2の両隣の一対の画素の画素値もボケ量に反映される。
〈距離測定手段の機能ブロック図〉
図6は、図1における距離測定手段22の機能構成を示すブロック図である。
図示のように、距離測定手段22は、画像取得手段221、モノクロ変換手段222、ノイズ除去手段223、エッジベクトル算出手段224、エッジ判定手段225、輝度差算出手段226、及びボケ量算出手段227を備えている。これらの手段の構成は、ボケ量推定手段21における同名の手段と同じである。
また、距離測定手段22は、ボケ量/輝度画像生成手段228、輝度閾値設定手段229、輝度画像抽出手段22a、及び輝度画像合成手段22bを備えている。
距離画像生成手段としてのボケ量/輝度画像生成手段228は、カメラ2で撮像した画像のボケ量と、カメラ2の焦点と被写体との間の距離との対応関係を示すデータ(相関情報)を有するテーブル(以下、ボケ量/距離テーブル)を用いて、ボケ量算出手段227で算出されたエッジのボケ量から、距離画像としてのボケ量/輝度画像を生成する。
ボケ量/輝度画像は、カメラ2の焦点から画像のエッジに対応する被写体の位置までの距離を表す輝度を有する画像である。本実施形態では、焦点から近い程、輝度を高くする。ここで、ボケ量/距離テーブルは予め作成され、相関情報の記憶部としてのストレージ16に保存されている。ボケ量/距離テーブルの内容及び作成手順については後述する。
輝度閾値設定手段229は、ユーザがキーボード3及びマウス4を用いて、測定したい距離を入力したとき、その距離に対応するボケ量/輝度画像の輝度の閾値をRAM15に設定する手段である。本実施形態では、距離として、焦点から1m以内、2m以内、3m以内などが設定される。この輝度閾値は、例えば焦点から1m以内の場合、ボケ量/輝度画像生成手段228により生成された輝度画像において、焦点から1mに位置する被写体のボケ量を表す輝度となる。
輝度画像抽出手段22aは、ボケ量/輝度画像生成手段228で生成された画像の画素のうち、その輝度が輝度閾値設定手段229で設定された輝度閾値を超える画素を抽出する。これにより、輝度閾値を超える画素の輝度値はそのままとなり、輝度閾値以下の画素の輝度値は“0”となる。ここでは、焦点から1m以内、2m以内、3m以内に位置する被写体の画像のエッジが個別に抽出される。なお、輝度閾値を超える輝度の画素の輝度値を“1”などの一定値にしてもよい。
輝度画像合成手段22bは、輝度画像抽出手段22aで抽出された3つの輝度画像を合成する。この合成により、例えば、焦点から1m以内、2m以内、3m以内の被写体のエッジを表す画像が生成される。ここで、焦点から3m以内は2m以内及び1m以内を含み、2m以内は1m以内を含むので、重複する範囲の輝度値は加算しない。ただし、輝度閾値を超える輝度の画素の輝度値を“1”などに固定した場合は、加算することで、焦点から1m以内が“3”、1mを超え、2m以内が“2”、2mを超え、3m以内が“1”、3mを超える範囲が“0”とする。
〈ボケ量/距離テーブルの作成手順〉
図7は、ボケ量/距離テーブルの作成手順について説明するための図である。ここで、図7Aは、直径は50mmのレンズのピントをレンズから10mの距離に合わせた状態でのレンズからの距離と錯乱円の大きさ(直径)との関係を示すグラフである。このデータはカメラメーカが公開しているものである。また、図7Bは、ガウシアンフィルタでぼかした画像のボケ量を式〔3〕で算出したボケ量推定値を示すグラフである。
図7Aに示すように、レンズからの距離と錯乱円の大きさとの間には対応関係がある。錯乱円の大きさとボケ量にも対応関係があることは知られているから、ボケ量と錯乱円との対応関係を示すデータを作成すれば、ボケ量とレンズからの距離との対応関係を示すデータ、即ちボケ量/距離テーブルを作成することができる。
そこで、図7Aに示す特性を有するカメラで取得したボケのない画像をガウシアンフィルタで処理してボケ画像を生成し、そのボケ量を式〔3〕で算出することで、図7Bに示すデータを作成する。
この図において、横軸のガウシアンフィルタによるボケ量の数値はガウシアンフィルタのサイズを表しており、サイズn(n=1〜11)は、(2n+1)×(2n+1)を意味する。また、縦軸のボケ量推定値は、式〔3〕による算出値の2倍を1から減算した値である。なお、網掛けを付した部分は影除去手段24が影と判定する範囲である。
ここで、(2n+1)×(2n+1)のガウシアンフィルタによるボケ量は、ボケのない画像の1画素を(2n+1)画素にぼかしたことを意味する。そこで、(2n+1)画素と図7Aにおける錯乱円の大きさとの対応関係を示すデータを取得することで、図7Aの縦軸の値を画素数に変換したデータを作成することができ、さらに図7Bに示すデータを用いることで、図7Aの縦軸の値を図7Bの縦軸に示すボケ量推定値としたデータ、即ちボケ量/距離テーブルを作成することができる。このボケ量/距離テーブルは、焦点距離又は絞りの値(F値)の少なくとも一方をパラメータとして複数設けておくことが好適である。なお、(2n+1)画素と図7Aにおける錯乱円の大きさとの対応関係を示すデータは、撮像素子の画素数など、カメラの諸元から取得することができる。
〈距離測定手段の動作〉
図8は、図1における距離測定手段22の動作を示すフローチャートである。この図において、ステップS11のボケ量推定処理は、図5に示すフローチャートの全体(ステップS1〜S7)と同じであるから説明を省略する。
次のステップS12では、ボケ量/輝度画像生成手段228がボケ量を表す輝度画像、即ちその輝度がボケ量に対応する画像を生成する。ここでは、ボケ量が小さい、換言すれば焦点からの距離が近い被写体の画像程、輝度の高い画像を生成する。
次に輝度閾値設定手段229が、ユーザによる距離測定範囲の設定情報、即ち、ユーザがキーボード3及びマウス4を用いて入力した測定したい距離を示す情報を取得し(ステップS13)、ボケ量/距離テーブルを参照して、ユーザが測定したい距離に対応する輝度閾値を設定する(ステップS14)。
次に輝度画像抽出手段22aが、ボケ量/輝度画像生成手段228で生成された画像の画素のうち、その輝度値が輝度閾値設定手段229によりステップS14で設定された輝度閾値以上の画素を抽出する(ステップS15)。
次に、輝度画像合成手段22bが各設定距離の輝度画像を合成する(ステップS16)。即ち、ステップS15で抽出された各設定距離の輝度に対応する画素を合成する。
〈輝度画像抽出手段及び輝度画像合成手段の動作〉
図9は、図6における輝度画像抽出手段22a及び輝度画像合成手段22bの動作を説明するための図である。
ここで、図9Aは、エッジ判定手段225で抽出された画像を示す。また、図9B、図9C、図9Dは、それぞれ輝度画像抽出手段22aで抽出された焦点から1m以内、2m以内、3m以内の画像を示す。また、図9Eは、輝度画像合成手段22bで生成された合成画像を示す。なお、実際の画像はグレースケール画像であるが、便宜上、ここでは2値の線画として記載した。また、この合成画像の輝度を線の太さに対応させた。
図9Aに示すように、人物31、建物32、及び樹木33の画像がある。また図9B、図9C、図9Dに示すように、人物31は焦点から1m以内、人物31及び建物32の屋根以外の部分は焦点から2m以内、人物31、建物32、並びに樹木33の葉の下半分及び幹は焦点から3m以内に位置する。
そして、図9Eに示すように、人物31が最も高輝度、建物32の屋根以外の部分が中輝度、建物32の屋根並びに樹木33の葉の下半分及び幹が低輝度となり、葉の上半分の輝度値は0となる。
〈距離測定手段の測定対象〉
図10は、図1における距離測定手段22の測定対象の例を示す図である。
カメラ2は、図示されていない保持手段により、監視エリアを上方から撮像するように取り付けてある。カメラ2のレンズの焦点43は、監視エリアの地面41に侵入することが想定される人物42の頭部42aと胴体42bとの間、即ち首の高さに設定されている。また、被写界深度は、頭頂部から胴体中央部の長さに設定されている。
このように設定し、図6に示す輝度画像抽出手段22aにより、被写界深度内の輝度画像を抽出することで、地面41に出来る影や、監視エリアに侵入した小動物を人物と誤検知する事態を防止することができる。
本発明の実施形態に係る距離測定手段22によれば、カメラ2で被写体を撮像して生成した被写体の画像のボケ量とカメラ2から被写体までの距離との対応関係を示すデータに基づいて、カメラ2から被写体までの距離を推定するときに、画像のボケ量の推定を、周波数解析を伴わない単純な処理で実現することができる。
〈物体検知手段の機能ブロック〉
図11は、図1における物体検知手段23の機能構成を示すブロック図である。
図示のように、物体検知手段23は、検知範囲設定手段231、背景距離画像生成手段232、入力距離画像生成手段233、差分画像生成手段234、及び領域認識手段235を備えている。
検知範囲設定手段231は、ユーザによるカメラ2の焦点距離及び絞りの設定に基づいて、監視エリアとしての物体検知範囲を設定する手段である。この物体検知範囲は、図10における被写界深度の部分に相当する。
背景距離画像生成手段232は、検知範囲設定手段231で設定した物体検知範囲に検知対象物体が存在しないときに、カメラ2が監視エリアを撮像した生成した画像に対して距離画像生成処理、即ち画像のボケ量から推定される距離に対応する輝度を有する画像を生成することで、背景距離画像を生成する手段である。
背景距離画像の輝度値は、物体検知範囲内の被写体については焦点からの距離に応じたプラスの値、物体検知範囲外の被写体については“0”となる。また、背景距離画像生成処理は図8のステップS11〜S15に示す処理と同様な処理である。
入力距離画像生成手段233は、背景距離画像を生成した後、カメラ2が監視エリアを撮像して生成した画像に距離画像生成処理を施すことで、入力距離画像を生成する手段である。
入力距離画像の輝度値は、背景距離画像の輝度値と同様、物体検知範囲内の被写体については焦点からの距離に応じたプラスの値、物体検知範囲外の被写体については“0”となる。また、入力距離画像生成処理は図8のステップS11〜S15に示す処理と同様な処理である。
差分画像生成手段234は、入力距離画像生成手段233で生成された入力距離画像と、背景距離画像生成手段232で生成された背景距離画像の差分をとることで差分画像を生成する手段である。
差分画像の輝度値は、物体検知範囲内の入力距離画像と背景距離画像とに差分が有る部分については焦点からの距離に応じたプラスの値、差分が無い部分については“0”となる。従って、差分画像の輝度がプラスの値の部分は、物体検知範囲に侵入した物体のエッジを表す。
領域認識手段235は、差分画像生成手段234により生成された差分画像における輝度がプラスの値の部分に外接矩形を付加することで、領域認識を行う手段である。
領域認識手段235により囲まれた差分画像の輝度は、カメラ2の焦点からの距離に対応する。また、領域認識手段235により生成された外接矩形のサイズ(縦寸、横寸)は、物体検知範囲に侵入した物体のサイズに対応する。従って、侵入した物体を特定することが可能となる。
〈物体検知手段の動作〉
図12は、図1における物体検知手段23の動作を示すフローチャートである。
まず検知範囲設定手段231は、ユーザがカメラ2からの画像をモニタ5で見ながら、キーボード3及びマウス4を用いて、カメラ2の焦点距離及び絞りを調整する操作に基づいて物体検知範囲を設定する(ステップS21)。
このとき、監視エリアには人体を模した物体が配置されており、背景画像生成処理と同様の処理により、モニタ5にはカメラ2の焦点からの距離に応じた輝度を有する画像が表示されている。ユーザは、その物体を前後に移動させ、物体の画像の輝度が0から所定の値となるように、焦点距離及び絞りを調整することで、検知範囲の前端(カメラ2から最も近い距離)及び後端(カメラ2から最も遠い距離)を設定することができる。
検知範囲設定手段231は、この焦点距離と絞りの組み合わせを検知範囲(前端、後端)と対応付けた検知範囲設定情報をROM14に格納しておくことで、以後、物体検知手段23を動作させるときは、その検知範囲設定情報を読み出すことで、自動的な設定が可能となる。また、複数の異なる検知範囲に対応付けて、複数の焦点距離と絞りの組み合わせを格納しておくことで、検知範囲の可変設定が可能となる。この検知範囲設定情報は、前述した距離測定手段22が使用するボケ量/距離テーブルから所要の情報を抽出することで作成される。
次に、背景距離画像生成手段232が背景距離画像を生成する(ステップS22)。次いで、入力距離画像生成手段233が入力距離画像を生成する(ステップS23)。
次に、差分画像生成手段234が、入力距離画像及び背景距離画像から差分画像を生成する(ステップS24)。そして、領域認識手段235が、輝度値がプラスの画素に枠を生成することで、物体の領域を認識する(ステップS25)。
〈物体検知手段の動作〉
図13は、図1における物体検知手段23の動作を説明するための図である。ここで、図13A、図13B、図13C、図13D、図13Eは、それぞれ背景画像、入力画像、背景距離画像、入力距離画像、差分画像を示している。また、図13Fは差分画像における物体に外接矩形を付した状態を示している。なお、実際の画像はグレースケール画像であるが、ここでは便宜上、2値画像として記載した。
図13Aにおいて、斜線を付した領域51は監視エリアの床を示している。即ち、監視エリアの下端は領域51であり、上端は図の画面上端である。
図13Bに示すように、入力画像には、物体(ここでは人体)52と、蝶53がある。ここで、物体52は監視エリアに位置し、蝶53は監視エリアの手前、即ちカメラ2と監視エリアとの間に位置するものとする。
図13Cに示すように、背景距離画像では、図13Aに示す背景画像のうち、監視エリア内の部分のみが抽出される。監視エリア外の部分(破線で表示)が除去されるとも言える。
図13Dに示すように、入力距離画像では、図13Bに示す入力画像のうち、監視エリア内の部分のみが抽出される。従って、物体の画像61は抽出されるが、蝶の画像は抽出されない。
図13Eに示すように、差分画像は、図13Dに示す入力距離画像と、図13Cに示す背景距離画像の差分であるから、物体の画像71のみとなる。そして、図13Fに示すように、物体の画像71に外接矩形72を付加することで、物体の領域を認識する。
このように、物体検知手段23によれば、監視エリアを含む撮像範囲を撮像した画像の変化に基づいて、監視エリアへの物体の侵入を検知するときに、撮像範囲の実空間の奥行を認識した物体検知を簡単な処理で実現することができる。
〈影除去手段の機能ブロック〉
図14は、図1における影除去手段24の機能構成を示すブロック図である。
図示のように、影除去手段24は、画像取得手段241、モノクロ変換手段242、ノイズ除去手段243、エッジベクトル算出手段244、エッジ判定手段245、輝度差算出手段246、ボケ量算出手段247、ボケ量/輝度画像生成手段248、輝度閾値設定手段249、輝度画像抽出手段24aを備えている。
これらの手段は、距離測定手段22における同名の手段と同様に構成されている。ただし、影除去手段24は、光の回折により物体の影の画像がぼけること、及びそのボケ量が物体から遠くなる程、大きくなるという性質を利用して画像中の影を分離・除去するので、画像取得手段241は、カメラ2の被写界深度が深い(ピンボケが発生しにくい)状態で画像を取得することが望ましい。また、被写体の移動によるブレ(移動ボケ)の発生を防止するため、シャッタースピードを高速(露光時間:短)にすることが望ましい。また、画像取得手段241は、カメラ2からの画像の背景差分画像を出力するように構成することが望ましい。
〈影除去手段の動作〉
図15は、図1における影除去手段24の動作を示すフローチャートである。この図において、ステップS31のボケ量推定処理は、図5に示すフローチャートの全体(ステップS1〜S7)と同じである。ただし、ここでは、カメラ2の被写界深度を深く設定した状態で画像を取得する。
次のステップS32では、ボケ量/輝度画像生成手段248がボケ量を表す輝度画像、即ちその輝度がボケ量に対応する画像を生成する。ここでは、ボケ量が大きい程、輝度が低くなる画像を生成する。従って、監視領域に物体が存在するとき、物体の画像よりも影の画像の方が輝度が低くなり、影の画像同士では、物体の下端(人体の場合、足元)から遠くなる程、輝度が低くなる。
次に、輝度画像抽出手段24aが、輝度閾値設定手段249により設定された所定の閾値より低い画素を、ボケ量/輝度画像生成手段248で生成された画像から除去する(ステップS33)。このとき、輝度閾値として、影の画像のボケ量の最大値を設定することで、理論上は影の画像を除去することができる。本実施形態では、図7Bにおけるガウシアンフィルタにより生成した画像のボケ量:4以上(ボケ量推定値:0.36以下)を影として判定する。
監視エリアの明るさ、太陽光の照射方向によって、影の画像のボケ量が変化するので、それらの条件に応じて、閾値を動的に変更することが望ましい。そこで、下記(1)、(2)のように動的に閾値を変更する。
(1)エッジ判定手段245により抽出されたエッジに囲まれた領域のサイズ(長さや面積)を算出し、それらの値に応じて、閾値を変化させる。このとき、エッジに囲まれた領域は、物体とその影を合わせたものになるので、その長さや面積が大きい程、影が長い、換言すれば日射角度が低い。影が長いと、影のボケ量が大きくなる(輝度が低くなる)ので、閾値を低くする。
(2)エッジ判定手段245により抽出されたエッジの輝度の平均値を算出し、その値に応じて、閾値を変化させる。平均輝度が高いということは影が明瞭であり、ボケ量の平均値が小さくなる(ボケ量を表す輝度画像の輝度が高くなる)ので、閾値を高くする。
〈影除去手段の動作〉
図16は、図1における影除去手段24の動作を説明するための図である。ここで、図16Aはノイズ除去手段243の出力画像、図16Bはボケ量/輝度画像生成手段248の出力画像、図16Cは輝度画像抽出手段24aの出力画像である。
図16Aに示すように、ノイズ除去手段243の出力画像には、人体の画像81と人体の影の画像82がある。なお、便宜上、人体の画像81には縦線、人体の影の画像82には網目を付した。
図16Bに示すように、ボケ量/輝度画像生成手段248の出力画像では、ボケ量の小さい人体の画像83は輝度が高く、ボケ量の大きい人体の影の画像84は輝度が低い。ここでは、画像83、84のエッジの太さが輝度の高さを表している。
図16Cに示すように、輝度画像抽出手段24aの出力画像では、輝度の高い人体の画像83が抽出(輝度の低い人体の影の画像84が除去)されている。
このように、影除去手段24によれば、影の画像のエッジがぼけることを利用して影を分離・除去するので、光の照射条件が変化しても、高い精度で影を除去することができる。
〈速度測定の原理〉
図17は、図1における速度測定手段25の測定原理を説明するための図である。ここで、図17Aは、カメラ2の露光時間内で測定対象の車両が移動する距離について説明するための図であり、図17Bはカメラ2で撮像した車両の画像のブレ(移動ボケ)について説明するための図である。ここで、カメラ2は車両をその側面に直交する方向、即ち車両をその移動方向と直交する方向から撮像するように設置されている。
図17Aに示すように、車両91の速度をVとすると、カメラ2の露光時間ts(シャッター速度)における車両91の移動距離dは「V×ts」となる。また、図17Bに示すように、このときカメラ2で撮像した車両の画像92のボケ量Bは、移動距離dに対応する水平画素数に対応するから、車両の速度V、露光時間ts、及びカメラ2から車両91までの距離の関数となる。なお、図17Bでは、画像92における縦線についてのみボケを斜線で図示した。
車両の画像92における縦線(垂直エッジ)の輝度には移動方向に高いグラデーションが発生する。理論上はこのグラデーションはリニアな変化となるが、実画像においては、ピンボケと同様に累積分布曲線に近似した曲線となる。
図18は、移動ボケが生じた画像における輝度とボケ量との対応関係を示す特性曲線のグラフ、即ち上記の曲線の一例を示す図である。この図の横軸は画素位置、縦軸は輝度値である。ここで、ボケ量は、図17Bにおけるボケ量(B)に対応する。
前述したように、画像のボケ量は、車両の速度V、露光時間ts、及びカメラ2から車両91までの距離の関数となる。また、車両の速度Vは、下記の式〔5〕により算出することができる。
V=「ボケ量(B)に対応する画素数」×「画像における画素単位の距離」÷「露光時間ts」 …式〔5〕
この式において、「ボケ量(B)に対応する画素数」は、図18に示す特性曲線から求めることができる。また、「画像における画素単位の距離」は、カメラ2で撮像した所定のサイズの物体の画像の画素数を計測することで求めることができる。この距離は、カメラ2から測定対象が通行する位置までの距離が長い、即ち測定対象が通行する位置がカメラ2から遠い程、長くなる。
従って、画像のボケ量から速度を求めるためのテーブル(以下、ボケ量/速度テーブル)を、カメラ2から測定対象までの距離及び露光時間をパラメータとして予め作成しておけば、ボケ量推定手段21と同様にしてボケ量Bを推定し、ボケ量/速度テーブルを参照することで、速度Vを求めることができる。
〈速度測定手段の機能ブロック〉
図19は、図1における速度測定手段25の機能構成を示すブロック図である。
図示のように、速度測定手段25は、画像取得手段251、モノクロ変換手段252、ノイズ除去手段253、エッジベクトル算出手段254、エッジ判定手段255、輝度差算出手段256、ボケ量算出手段257、ボケ量/輝度画像生成手段258を備えている。
これらの手段は、距離測定手段22における同名の手段と同様に構成されている。ただし、速度測定手段25は、物体の画像のブレ(移動ボケ)が物体の速度に対応することを利用して、物体の速度を求めるので、画像取得手段251は、カメラ2の被写界深度が深い(ピンボケが発生しにくい)状態で画像を取得することが望ましい。カメラ2の被写界深度を深くすることで、例えば2車線の走行車両の速度測定が可能になる。
縦線検知手段259は、ボケ量/輝度画像生成手段258により生成されたボケ量に対応する輝度を有する画像中の縦線(縦エッジ)を検知する手段である。本実施形態では、車両91の先端、後端、窓等が縦線として検知される。速度算出手段25aは、予め作成しておいたボケ量/速度テーブルを参照して、縦線を構成する各画素の移動ボケ(ブレ)に対応する速度を算出する。
〈速度測定手段の動作〉
図20は、図1における速度測定手段25の動作を示すフローチャートである。この図において、ステップS41のボケ量推定処理は、図5に示すフローチャートの全体(ステップS1〜S7)と同じである。ただし、ここでは、カメラ2の被写界深度を深く設定した状態で、道路を走行する車両の側面を垂直に撮像して画像を取得する。
次のステップS42では、ボケ量/輝度画像生成手段258がボケ量を表す輝度画像、即ちその輝度がボケ量に対応する画像を生成する。ここでは、ボケ量が小さい、換言すれば速度の遅い車両の画像程、輝度が高くなる。
次に、縦線検知手段259がボケ量を表す輝度画像の縦線を検知する(ステップS43)。これにより、図17Bに示す車両の画像92の場合、ボディの先端及び後端、ドアの先端及び後端などが検知される。
次に、速度算出手段25aが、縦線検知手段259で検知された縦線の画素の輝度に対応する速度をボケ量/速度テーブルから取得することで算出する(ステップS44)。
ここで、理論的(理想的)には、1本の縦線を構成する各画素の輝度は同じである。また、複数の縦線間でも各画素の輝度は同じである。従って、理論的には、1本の縦線の1画素の輝度から速度を求めることが出来る。しかし、実際には、輝度が異なることが考えられるので、縦線毎に輝度の平均値を算出したり、全ての縦線の平均値を算出したりすることが好適である。また、画像の横線(水平エッジ)を検知することで、車両91などの移動物体を検出することができ、上下の横線の間隔を算出することで、移動物体の高さを推定することができる。
25…速度測定手段、251…画像取得手段、254…エッジベクトル算出手段、255…エッジ判定手段、257…ボケ量算出手段、258…ボケ量/輝度画像生成手段、259…縦線検知手段、25a…速度算出手段。

Claims (4)

  1. 速度測定の対象の物体を撮像した撮像装置からの画像を取得する画像取得手段と、
    該画像取得手段で取得された画像のエッジを抽出するエッジ抽出手段と、
    該エッジ抽出手段で抽出されたエッジのボケ量を算出するボケ量算出手段と、
    該ボケ量算出手段で算出されたボケ量と、前記撮像装置からの移動物体の画像のボケ量と該移動物体の速度との相関情報とに基づいて、前記速度測定の対象の物体の速度を算出する速度算出手段と、
    を有する画像処理装置。
  2. 請求項1に記載された画像処理装置において、
    前記画像取得手段は、前記物体をその移動方向と直交する方向から撮像した前記撮像装置からの画像を取得し、前記エッジ抽出手段は、画像の垂直エッジを抽出する、画像処理装置。
  3. 請求項2に記載された画像処理装置において、
    前記速度算出手段は、前記エッジ抽出手段により抽出された1つのエッジを構成する複数の画素のボケ量の平均値に基づいて速度を算出する、画像処理装置。
  4. 請求項2に記載された画像処理装置において、
    前記エッジ抽出手段は前記画像の水平エッジをも抽出し、
    該水平エッジの存在から移動物体の存在を検出する、移動物体検出手段を有する、画像処理装置。
JP2014046851A 2014-03-10 2014-03-10 画像処理装置 Active JP6340837B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014046851A JP6340837B2 (ja) 2014-03-10 2014-03-10 画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014046851A JP6340837B2 (ja) 2014-03-10 2014-03-10 画像処理装置

Publications (2)

Publication Number Publication Date
JP2015169628A true JP2015169628A (ja) 2015-09-28
JP6340837B2 JP6340837B2 (ja) 2018-06-13

Family

ID=54202464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014046851A Active JP6340837B2 (ja) 2014-03-10 2014-03-10 画像処理装置

Country Status (1)

Country Link
JP (1) JP6340837B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110850109A (zh) * 2019-11-21 2020-02-28 中科智云科技有限公司 一种基于模糊图像测量车速的方法
JP2021093678A (ja) * 2019-12-12 2021-06-17 Necソリューションイノベータ株式会社 算出方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0883345A (ja) * 1994-07-14 1996-03-26 Toyota Motor Corp 移動物体検出方法
JP2002202317A (ja) * 2000-12-28 2002-07-19 Yokohama Rubber Co Ltd:The 飛翔体の飛翔挙動測定方法
JP2004117195A (ja) * 2002-09-26 2004-04-15 Pentax Corp 速度計測機能付デジタルカメラ
US20060078164A1 (en) * 2004-10-08 2006-04-13 Huei-Yung Lin Measurement method using blurred images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0883345A (ja) * 1994-07-14 1996-03-26 Toyota Motor Corp 移動物体検出方法
JP2002202317A (ja) * 2000-12-28 2002-07-19 Yokohama Rubber Co Ltd:The 飛翔体の飛翔挙動測定方法
JP2004117195A (ja) * 2002-09-26 2004-04-15 Pentax Corp 速度計測機能付デジタルカメラ
US20060078164A1 (en) * 2004-10-08 2006-04-13 Huei-Yung Lin Measurement method using blurred images

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110850109A (zh) * 2019-11-21 2020-02-28 中科智云科技有限公司 一种基于模糊图像测量车速的方法
JP2021093678A (ja) * 2019-12-12 2021-06-17 Necソリューションイノベータ株式会社 算出方法
JP7409637B2 (ja) 2019-12-12 2024-01-09 Necソリューションイノベータ株式会社 算出方法

Also Published As

Publication number Publication date
JP6340837B2 (ja) 2018-06-13

Similar Documents

Publication Publication Date Title
US7912252B2 (en) Time-of-flight sensor-assisted iris capture system and method
US8754963B2 (en) Processing images having different focus
US8203602B2 (en) Depth-aware blur kernel estimation method for iris deblurring
JP6125188B2 (ja) 映像処理方法及び装置
US10762649B2 (en) Methods and systems for providing selective disparity refinement
JP5722414B1 (ja) 骨粗鬆症診断支援装置
CN106264537B (zh) 图像中人体姿态高度的测量系统及方法
JP6273921B2 (ja) 画像処理装置
JP6286567B2 (ja) マルチスペクトル画像システムのロバストなオートフォーカスアルゴリズム
Chan et al. An edge detection framework conjoining with IMU data for assisting indoor navigation of visually impaired persons
JP6340837B2 (ja) 画像処理装置
JP6369058B2 (ja) 画像処理装置
CN105488780A (zh) 一种用于工业生产线的单目视觉测距追踪装置及其追踪方法
KR101648786B1 (ko) 객체 인식 방법
JP6405651B2 (ja) 画像処理装置
JP6327024B2 (ja) 画像処理装置
US9904979B2 (en) Method of generating a framed video system
JP5664078B2 (ja) 撮像装置、画像評価方法、及び焦点調整制御プログラム
JP6264107B2 (ja) 画像処理装置
JP6313617B2 (ja) 距離画像生成装置、物体検出装置および物体検出方法
JP2018018425A (ja) 画像処理装置及び画像処理方法
JP6358084B2 (ja) 画像処理装置
CN115037869A (zh) 自动对焦方法、装置、电子设备及计算机可读存储介质
JP2007096480A (ja) 対象物追跡装置及び対象物追跡方法
WO2022018902A1 (ja) 物体検出装置、システム、および方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180430

R150 Certificate of patent or registration of utility model

Ref document number: 6340837

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150