JP6372282B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6372282B2
JP6372282B2 JP2014196417A JP2014196417A JP6372282B2 JP 6372282 B2 JP6372282 B2 JP 6372282B2 JP 2014196417 A JP2014196417 A JP 2014196417A JP 2014196417 A JP2014196417 A JP 2014196417A JP 6372282 B2 JP6372282 B2 JP 6372282B2
Authority
JP
Japan
Prior art keywords
image
feature
feature amount
cell
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014196417A
Other languages
English (en)
Other versions
JP2016071387A (ja
Inventor
明燮 鄭
明燮 鄭
明洋 皆川
明洋 皆川
上原 祐介
祐介 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014196417A priority Critical patent/JP6372282B2/ja
Publication of JP2016071387A publication Critical patent/JP2016071387A/ja
Application granted granted Critical
Publication of JP6372282B2 publication Critical patent/JP6372282B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像内の特定物体を検出する画像処理装置、画像処理方法及びプログラムに関する。
画像処理装置には、カメラで撮像した画像や映像のデータから人物等の特定物体を検出するものがある。この種の画像処理装置における特定物体の検出方法の1つとして、Histograms of Oriented Gradients(HOG)特徴量を用いる検出方法が知られている(例えば非特許文献1を参照)。
HOG特徴量は、画像内の局所領域における輝度の勾配方向をヒストグラム化した特徴量である。HOG特徴量を用いた検出方法では、特定物体が存在する画像及び存在しない画像をそれぞれ複数枚用意し、特定物体のHOG特徴量及び背景物体とみなす非特定物体のHOG特徴量を学習して辞書データとして登録する。そして、入力画像内に特定物体らしき像(特定物体候補)が存在する場合に、特定物体候補を含む領域(検出枠)内のHOG特徴量と辞書データのHOG特徴量とを照合する。照合の結果、特定物体候補が特定物体であると判定された場合、例えば検出枠を入力画像に合成し、合成した画像を液晶ディスプレイ等の表示装置に表示する。
また、特定物体の検出方法には、入力画像と特定物体が存在しない背景画像とを比較し、入力画像のうちの背景画像と異なる領域(変化のある領域)の輪郭形状から特定物体を検出する検出方法もある(例えば特許文献1を参照)。
入力画像と背景画像とを比較する検出方法では、入力画像と背景画像との差分である差分画像を求め、時系列に並んだ複数の差分画像から移動物体の輪郭領域を抽出することで、特定物体を検出する。
上述の画像処理装置は、防犯のための監視システムにおける人物等の検出に用いられる。
また、上述の画像処理装置は、近年、店舗等における顧客の行動観察等への活用が検討されている。顧客の行動観察においては、上述の画像処理装置により店舗内や商店街等の画像から検出した人物の移動経路を利用することで、顧客がどのような商品に興味を持つか等のニーズを把握しやすくなる。
特開2004−265292号公報
Navneet Dalal, and Bill Triggs, "Histograms of oriented gradients for human detection," In IEEE Conf. on Computer Vision and Pattern Recognition, Vol.1, pp.886-893, 2005
上述のHOG特徴量を用いた検出方法では、入力画像内の特定物体候補のHOG特徴量が、非特定物体のHOG特徴量よりも特定物体のHOG特徴量と類似している場合に、特定物体候補を特定物体として検出する。すなわち、入力画像内の特定物体候補が特定物体ではなくても、特定物体候補のHOG特徴量が特定物体のHOG特徴量と類似していれば、特定物体候補を特定物体として検出する。
しかしながら、入力画像内には、旗等の形状が変化し得る非特定物体が存在することもある。形状が変化し得る非特定物体のHOG特徴量は、人物等の特定物体のHOG特徴量と類似した値になり得る。そのため、人物を検出する画像処理装置では、入力画像内に旗等の非特定物体が存在する場合に、非特定物体を人物として誤検出してしまうことがある。
また、入力画像と背景画像との差分画像を用いた検出方法では、入力画像の特定物体と背景画像の非特定物体とが重なっている場合、特定物体のうちの非特定物体と重なっている部分の特徴量から非特定物体の特徴量が減算される。そのため、差分画像における特定物体の輪郭領域が入力画像における特定物体の輪郭領域とは異なる形状になってしまい、特定物体を正しく検出することが困難になる。
本発明の1つの側面に係る目的は、入力画像から特定物体を検出する画像処理装置における特定物体の検出精度を向上させることである。
本発明の1つの態様の画像処理装置は、カメラで撮像した画像を取得する画像取得部と、前記画像を複数のセルに分割して、各セルを構成する各画素の輝度の勾配方向に基づいた各セルの特徴量を抽出する特徴量抽出部と、取得した前記画像のうちの背景画像に指定した画像から抽出した背景特徴量、及び前記画像から検出する特定物体の特徴量を含む辞書データを記憶する記憶部と、前記辞書データと照合する前記画像の各セルから抽出した特徴量と前記背景特徴量との差分値に基づいて前記画像の各セルの照合用特徴量を決定する照合用特徴量決定部と、前記画像の各セルの照合用特徴量と前記辞書データの特徴量とを照合する照合部と、を備える。
上述の態様によれば、入力画像から特定物体を検出する画像処理装置における特定物体の検出精度が向上する。
本発明の第1の実施形態に係る画像処理装置の構成を示す機能ブロック図である。 HOG特徴量を説明するための模式図である。 事前学習の手順を示すフローチャートである。 第1の実施形態に係る特定物体の検出処理の手順を示すフローチャートである。 入力画像及びHOG特徴量の一例を示す図である。 図4の照合処理の処理内容を示すフローチャートである。 図6の照合用特徴量決定処理の処理内容を示すフローチャートである。 照合用特徴量決定処理で用いる2枚の入力画像の一例を示す模式図である。 図8の入力画像における特徴量の差分値ΔHの例を示す模式図である。 図8の入力画像を用いた照合用特徴量決定処理後及び照合結果の画像を示す模式図である。 照合用特徴量決定処理で用いる2枚の入力画像の別の一例を示す模式図である。 図11の入力画像における特徴量の差分値ΔHの例を示す模式図である。 図11の入力画像を用いた照合用特徴量決定処理後及び照合結果の画像を示す模式図である。 本発明の第2の実施形態に係る特定物体の検出処理の手順を示すフローチャートである。 図14の背景特徴量設定処理の処理内容を示すフローチャートである。 入力画像内における非特定物体の有無の時間変化の例を示す模式図である。
以下、図面を参照しながら、本発明の実施形態を詳細に説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態に係る画像処理装置の構成を示す機能ブロック図である。
図1に示すように、本実施形態の画像処理装置1は、画像取得部10と、特徴量抽出部12と、事前学習部13と、照合用特徴量決定部16と、特徴量照合部17と、出力処理部18と、を備える。また、画像処理装置1は、入力画像保持部11と、特徴量の辞書データ14と、背景特徴量データベース15と、を更に備える。
画像取得部10は、撮像装置2で撮像した画像又は映像のデータを取得し、入力画像として入力画像保持部11に保持させる。
特徴量抽出部12は、入力画像から、人物等の特定物体(検出対象)の検出に用いる特徴量を抽出する。特徴量抽出部12は、1枚(1フレーム)の入力画像を複数のセルに分割し、セルごとに特徴量を抽出する。本実施形態の画像処理装置1における特徴量抽出部12では、特徴量として、画像内での並進に対して不変とみなせるHOG特徴量を抽出する。
また、特徴量抽出部12は、特徴量を抽出した入力画像が背景画像に指定された画像である場合、抽出した特徴量を背景特徴量データベース15に登録する。
事前学習部13は、画像内における特定物体の特徴量及び非特定物体の特徴量を学習する。事前学習部13では、特定物体(例えば人物)が存在する複数枚の画像から抽出したHOG特徴量と、特定物体が存在しない複数枚の画像から抽出したHOG特徴量とを用い、機械学習で特定物体及び非特定物体のHOG特徴量を学習する。また、事前学習部13は、学習したHOG特徴量を含む辞書データ14を生成し、画像処理装置1が備える記憶部に記憶させる。
なお、事前学習部13による特徴量の学習は、画像処理装置1を用いた特定物体の検出処理を開始する前に行う。すなわち、画像処理装置1を用いて特定物体の検出を行っている間、事前学習部13による特徴量の学習は行わない。また、辞書データ14は、他の画像処理装置で作成したデータを可搬記録媒体やネットワークを通じて画像処理装置1内に読み込んでもよい。他の画像処理装置で作成した辞書データ14を読み込んで用いる場合、画像処理装置1に事前学習部13はなくてもよい。
照合用特徴量決定部16は、特徴量抽出部12で抽出した入力画像の特徴量と、背景特徴量データベース15の背景特徴量とを用い、辞書データ14と照合する入力画像の照合用特徴量を決定する。照合用特徴量決定部16は、入力画像内に1つ以上のセルが含まれる検出枠を設定し、検出枠内のセルごとに抽出した特徴量と背景特徴量との差分値を求める。そして、セルごとに、差分値と予め定めた閾値とを比較して照合用特徴量を決定する。具体的には、差分値が閾値よりも大きいセルは特徴量抽出部12で抽出した特徴量を照合用特徴量とし、差分値が閾値以下のセルは差分値を照合用特徴量とする。すなわち、照合用特徴量決定部では、入力画像における検出枠内のセルの特徴量のうちの差分値が閾値以下のセルの特徴量を差分値に置換する。
特徴量照合部17は、検出枠内の各セルの照合用特徴量を、辞書データ14の特徴量と照合し、検出枠内に特定物体が存在するか否かを判定する。そして、特定物体が存在すると判定された検出枠がある場合、その検出枠の位置や寸法等の情報を出力処理部18に送る。
出力処理部18は、入力画像を液晶ディスプレイ等の表示装置3に時系列順に出力する。出力処理部18は、特徴量照合部17から特定物体が存在すると判定された検出枠の情報を受け取った場合、入力画像に検出枠を合成した画像を表示装置3に出力する。
本実施形態の画像処理装置1は、コンピュータと、コンピュータに実行させるプログラムとにより実現される。この際、特徴量抽出部12、事前学習部13、照合用特徴量決定部16、特徴量照合部17、及び出力処理部18は、Central Processing Unit(CPU)、Digital Signal Processor(DSP)等のプロセッサに所定のプログラムを実行させることで実現する。また、入力画像保持部11、並びに背景特徴量データベース15及び辞書データ14を記憶する記憶部には、プロセッサとバスで接続されたハードディスクドライブ、半導体メモリ等の記憶装置、もしくはプロセッサ内部のキャッシュメモリを用いる。
<事前学習処理>
本実施形態の画像処理装置1により入力画像内の特定物体を検出する際には、事前に、入力画像内の特定物体候補との照合に用いるHOG特徴量の辞書データ14を作成し登録しておく。そこで、特定物体の検出方法を説明する前に、HOG特徴量及び辞書データ14を登録する事前学習の処理手順について簡単に説明する。
図2は、HOG特徴量を説明するための模式図である。
HOG特徴量は、画像内の局所領域における輝度の勾配方向のヒストグラムであり、画像から人物等の特定物体を検出する際の特徴量として用いられている。
HOG特徴量は、図2の(a)に示すように、1枚の画像40を複数のセル41に分割し、セル41ごとに抽出する。1つのセル41は複数の画素(図2の(a)に示した例では5×5画素)からなる。
1つのセル41のHOG特徴量は、セル41内の各画素における輝度の勾配方向及び勾配強度を算出し、例えば図2の(b)に示すように勾配方向を9分割してヒストグラム化した特徴量である。本実施形態で用いるHOG特徴量は、周知の抽出方法のいずれかで抽出すればよい。
また、特定物体が人物である場合、事前学習においては、図2の(a)に示した画像40から人物50を含むn×mセル(n,mはそれぞれ任意の自然数)の矩形領域42を切り出した画像を特定物体が存在する画像とする。そして、矩形領域42のような特定物体(人物50)が存在する画像と、特定物体が存在しない画像とを学習用画像としてそれぞれ複数枚用意し、それぞれの画像におけるHOG特徴量を抽出する。
なお、HOG特徴量は勾配方向を分割してヒストグラム化した特徴量であるが、以降の説明で参照するHOG特徴量のグラフでは、図2(b)に示したような各方向の勾配強度に基づく曲線PHでHOG特徴量を模式的に表す。
図3は、事前学習の手順を示すフローチャートである。
画像処理装置1における事前学習は、HOG特徴量を用いた特定物体の検出方法に適用される周知の学習方法で行う。事前学習の行う際には、図3に示すように、まず、学習用画像を画像処理装置1に入力する(ステップS101)。学習用画像は、画像取得部10又は図示しない入力インタフェース等を介して入力し、入力画像保持部11に保持させる。学習用画像には、特定物体(人物)が存在する画像及び存在しない画像をそれぞれ複数枚ずつ用いる。また、学習用画像には、例えば特定物体の検出処理を行う際の入力画像の撮像範囲と同じ範囲を撮像した画像からn×mセルの矩形領域を切り出した画像を用いる。
次に、特徴量抽出部12において、入力した各学習用画像のHOG特徴量を抽出する(ステップS102)。ステップS102は、周知の抽出方法で行う。
次に、事前学習部13において、特定物体のHOG特徴量及び非特定物体(背景物体)のHOG特徴量を学習し辞書データ14を作成する(ステップS103)。HOG特徴量の学習は、例えばSupport Vector Machine(SVM)、Adaptive Boosting(AdaBoost)等の周知の機械学習法で行う。
そして、作成した辞書データ14を画像処理装置1が備える記憶部に記憶させる(ステップS104)。
<特定物体の検出処理>
上記の事前学習により辞書データ14を作成した後、画像処理装置1による入力画像内の特定物体の検出処理を開始する。
図4は、第1の実施形態に係る特定物体の検出処理の手順を示すフローチャートである。図5は、入力画像及びHOG特徴量の一例を示す図である。
画像処理装置1は、特定物体の検出処理を開始すると、撮像装置2で撮像した画像を画像取得部10で順次取得し、入力画像として入力画像保持部11に保持させる。この際、画像取得部10は、取得した入力画像に対し時系列に固有のフレーム番号(通し番号)を1から順に付与する。
入力画像の取得を開始したら、次に、図4に示すように、まず、入力画像のフレーム番号を表す変数iを初期化する(ステップS2)。上記のように入力画像のフレーム番号を1から始まる通し番号としたため、ステップS2では、変数iを1にする。
次に、特徴量抽出部12において、フレーム番号iの入力画像からHOG特徴量を抽出する(ステップS3)。
次に、特徴量抽出部12において、入力画像のフレーム番号iが1より大きいか判断する(ステップS4)。i=1の場合(ステップS4;No)、特徴量抽出部12は、抽出したHOG特徴量を背景特徴量として背景特徴量データベース15に登録する(ステップS5)。
一方、i>1の場合(ステップS4;Yes)、特徴量抽出部12は、抽出したHOG特徴量を照合用特徴量決定部16に渡し、照合用特徴量決定部16及び特徴量照合部17に照合処理を行わせる(ステップS6)。ステップS6では、抽出したHOG特徴量と背景特徴量との差分値に基づいて入力画像における各セルの照合用特徴量を決定し、照合用特徴量を辞書データの特徴量と照合することで入力画像内に特定物体が存在するか否かを判定する。このステップS6の照合処理の具体的な手順は後述する。ステップS6の照合処理が済むと、照合結果を出力する(ステップS7)。ステップS7は、出力処理部18が行い、ステップS6の処理によりフレーム番号がiの入力画像から特定物体が検出された場合は検出した特定物体を囲む枠線を合成(付加)して表示装置3に出力する。なお、フレーム番号がiの入力画像から特定物体が検出されなかった場合、出力処理部18は、入力画像をそのまま表示装置3に出力する。
背景特徴量を登録するステップS5、又は照合結果を出力するステップS7の後は、検出処理を続けるか判断する(ステップS8)。検出処理を続ける場合(ステップS8;Yes)、フレーム番号を表す変数iを1だけインクリメント(i=i+1)し、ステップS3からの処理を繰り返す。検出処理を続けない場合(ステップS8;No)、検出処理を終了する。
上記の検出処理におけるステップS3では、図5の(a)に示すように、入力画像40を複数のセル41に分割し、セル41ごとにHOG特徴量を抽出する。この際、1つのセル41はw×h画素とする。また、複数のセル41は、固有のセル番号を付与するとともに、入力画像40内における各セル41の左上角部のxy座標により位置を特定して区別する。そして、抽出した各セル41のHOG特徴量は、図5の(b)に示すように、固有のセル番号、セルの位置、及びセルの寸法と対応付ける。
なお、図5の(b)に示したHOG特徴量におけるH〜Hは、勾配方向を0〜180度の角度範囲で9分割してヒストグラム化した場合の各勾配方向の勾配強度であり、添え字の数値が大きいものほど勾配方向を表す角度が大きい。例えば、勾配強度Hは勾配方向θ(度)が0≦θ<20の画素の勾配強度を積算した値であり、勾配強度Hは勾配方向θ(度)が20≦θ<40の画素の勾配強度を積算した値である。
本実施形態に係る特定物体の検出処理では、上記のように、フレーム番号が1の入力画像、すなわち最初(検出処理開始時)の入力画像を背景画像とし、背景画像から抽出したHOG特徴量を背景特徴量データベース15に登録する。この際、背景画像とする入力画像40には、図5の(a)に示したように旗51等の形状が変化し得る非特定物体が存在していても構わない。そして、ステップS6の照合処理では、入力画像のHOG特徴量と背景特徴量との差分値に基づいて入力画像の各セルの照合用特徴量を決定し、照合用特徴量と辞書データとを照合する。
図6は、図4の照合処理の処理内容を示すフローチャートである。図7は、図6の照合用特徴量決定処理の処理内容を示すフローチャートである。
照合処理では、図6に示すように、まず、特定物体の検出結果を表す検出リストを初期化する(ステップS601)。検出リストは、例えば入力画像から特定物体として検出された像を囲む枠の位置及びサイズが記述されたデータであり、画像処理装置1が備えるキャッシュメモリ等で保持している。
次に、照合用特徴量決定部16において、入力画像内に検出枠を設定する(ステップS602)。検出枠は、縦横に連続した複数のセルからなるブロックの外周である。検出枠の寸法は、入力画像内における特定物体(人物)の寸法に応じて複数種類用意される。ステップS602では、検出枠の寸法を選択して入力画像に当てはめ、検出枠内に含まれるセルを特定する。
次に、照合用特徴量決定部16において、検出枠内のセルの照合用特徴量を決定する照合用特徴量決定処理を行う(ステップS603)。ステップS603では、図7に示すような処理を行う。
ステップS603では、まず、検出枠内のセルを1つ選択し(ステップS603a)、選択したセルに対応する背景画像内のセルのHOG特徴量(背景特徴量)を背景特徴量データベースから取得する(ステップS603b)。ステップS603bでは、図5の(b)に示したセルの位置に基づいて背景特徴量を取得する。
次に、選択したセルのHOG特徴量と背景特徴量との差分値ΔHを算出する(ステップS603c)。
次に、差分値ΔHが閾値TH1より大きいか判断する(ステップS603d)。ΔH>TH1の場合(ステップS603d;Yes)、ステップS3で抽出したHOG特徴量を選択したセルの照合用特徴量とする(ステップS603e)。一方、ΔH≦TH1の場合(ステップS603d;No)、差分値ΔHを選択したセルの照合用特徴量とする(ステップS603f)。閾値TH1は、少なくとも背景画像に存在する非特定物体のみを含むセルの照合用特徴量が差分値ΔHになるような値にする。例えば、閾値TH1は、図5の(a)に示した旗51のような非特定物体が存在する複数枚の画像を用い、非特定物体を含むセルのHOG特徴量の差分値ΔHについて統計処理を行って決める。また、勾配方向を9分割したHOG特徴量は9個の値からなるので、差分値ΔHも9個の値からなる。そのため、差分値ΔHは、9個の値全て(例えば図2の曲線PH全体)で比較した場合には値が大きくても、個別に見た場合にはいくつかの勾配方向で値が小さくなることがある。したがって、例えば、9個の値のうちの5個以上の値が閾値TH1より大きい場合ΔH>TH1とする等、ステップS603dの判定基準は適宜決めれば良い。
選択したセルの照合用特徴量を決定したら、次に、検出枠内に照合用特徴量の決まっていないセルが有るか判断する(ステップS603g)。照合用特徴量の決まっていないセルが有る場合(ステップS603g;Yes)、ステップS603aからの処理を繰り返す。照合用特徴量の決まっていないセルが無い場合(ステップS603g;No)、照合用特徴量決定処理(ステップS603)を終了する。
図6に示したように、照合用特徴量決定処理(ステップS603)が終了すると、次に、照合用特徴量と辞書データのHOG特徴量とから検出枠内の像と特定物体との類似度Sを算出する(ステップS604)。ステップS604の処理は、特徴量照合部17が行う。類似度Sは、HOG特徴量を用いた検出方法における周知の算出方法で算出する。
次に、特徴量照合部17において、算出した類似度Sが閾値TH2より大きいか判断する(ステップS605)。類似度Sの値が大きいほど、検出枠内の像と特定物体との類似度が高い。そのため、特徴量照合部17は、S>TH2の場合(ステップS605;Yes)にのみ、検出枠の設定値(例えば位置及び寸法)を検出リストに登録する(ステップS606)。閾値TH2は、任意の値であり、HOG特徴量を用いた検出方法で採用される値のいずれかを用いる。
次に、未処理の検出枠が有るか判断する(ステップS607)。ステップS607では、例えば、まず選択した1つの寸法の検出枠によるステップS602〜S606の処理を入力画像の全ての領域に対して行ったか否かを判断する。そして、行っていない領域が有る場合には、未処理の検出枠が有ると判定し(ステップS607;Yes)、行っていない領域に対しステップS602〜S606の処理を繰り返す。また、1つの寸法の検出枠によるステップS602〜S606の処理を入力画像の全ての領域に対して行った場合、他の寸法の検出枠による同様の処理を全て行ったかを判断する。そして、同様の処理を行っていない検出枠が有る場合、未処理の検出枠が有ると判定し(ステップS607;Yes)、全ての寸法の検出枠による同様の処理が終わるまでステップS602〜S606の処理を繰り返す。
ステップS602〜S606の処理を繰り返し未処理の検出枠が無いと判定すると(ステップS607;No)、照合処理が終了する。
なお、ステップS6の照合処理において1つの検出枠によるステップS602〜S606の処理を繰り返す場合、ステップS602では、例えば入力画像全体をラスタスキャンするよう検出枠の設定位置をずらしていく。
画像処理装置1における特定物体の検出処理では、ステップS6の照合処理が終了すると、図4に示したように、照合結果を出力する(ステップS7)。
ステップS7は、例えばステップS606で検出リストに登録された検出枠の位置及び寸法に基づいて、フレーム番号がiの入力画像に検出した特定物体を囲む枠線を合成(付加)し、表示装置3に出力する。
<特定物体の検出例>
上述の検出処理による特定物体の検出例を、図8〜図10を参照しながら説明する。
図8は、照合用特徴量決定処理で用いる2枚の入力画像の一例を示す模式図である。図9は、図8の入力画像における特徴量の差分値ΔHの例を示す模式図である。図10は、図8の入力画像を用いた照合用特徴量決定処理後及び照合結果の画像を示す模式図である。
本実施形態の特定物体の検出処理では、事前学習したHOG特徴量とは別に、最初(フレーム番号1)の入力画像から抽出したHOG特徴量を背景特徴量として背景特徴量データベース15に登録する。そして、フレーム番号2以降の入力画像から特定物体を検出する際には、まず、照合用特徴量決定処理(ステップS6)により、入力画像における各セルの照合用特徴量を決定する。
特定物体を検出する入力画像(検出対象画像)には、図8の(a)に示すように、非特定物体である旗51や、特定物体である人物50が存在する画像40bがある。一方、図8の(b)に示すように、最初の入力画像(背景画像)40aには、非特定物体である旗51のみが存在している。
検出対象画像40bに対し照合処理(ステップS6)を行う場合、照合用特徴量決定処理により、検出対象画像40bの旗51を含む検出枠43内の各セル、人物50を含む検出枠44内の各セル等の照合用特徴量を決定する。
検出対象画像40bの検出枠43における最上段の左側のセル41aの照合用特徴量は、セル41aから抽出したHOG特徴量と、セル41aと対応する背景画像40aのセル41AのHOG特徴量(背景特徴量)との差分値ΔHに基づいて決定する。同様に、検出対象画像40aの検出枠43における上から3段目の右側のセル41bの照合用特徴量は、セル41bから抽出したHOG特徴量と、セル41bと対応する基準画像40aのセル41BのHOG特徴量(背景特徴量)との差分値ΔHに基づいて決定する。
検出枠43に存在する旗51が路面等に設置されている場合、両画像40a,40bにおける旗51は、輪郭(形状)に違いが生じることがあるものの、位置はほとんど変わらない。HOG特徴量は、局所領域における輝度の勾配方向をヒストグラム化した特徴量であり、画像内の物体の並進に対して不変な特徴量である。そのため、図9の(a)に示すように、検出対象画像40bのセル41bのHOG特徴量PH1と、背景画像40aのセル41BのHOG特徴量PH2とはほぼ同じ値になる。よって、検出対象画像40bのセル41bと背景画像40aのセル41BとのHOG特徴量の差分値ΔHは、図9の(a)に示したように全ての勾配方向の勾配強度が非常に小さな値になる。また、検出枠43内の他のセルのHOG特徴量の差分値ΔHは、図9の(a)に示した差分値ΔHと同様に、全ての勾配方向の勾配強度が非常に小さな値になる。
一方、検出対象画像40bの検出枠44に対応する背景画像40aの検出枠44内には、人物50が存在しない。そのため、図9の(b)に示すように、検出対象画像40bの検出枠44における最上段の左側のセル41cのHOG特徴量PH3と、セル41cと対応する背景画像40aのセル41CのHOG特徴量PH4とは異なる値になる。よって、検出対象画像40bのセル41cと背景画像40aのセル41CとのHOG特徴量の差分値ΔHは、図9の(b)に示したようにいくつかの勾配方向の勾配強度が大きな値になる。また、検出枠44内の他のセルのHOG特徴量の差分値ΔHは、図9の(b)に示した差分値ΔHと同様に、いくつかの勾配方向の勾配強度が大きな値になる。
このように、検出対象画像40bのセルと背景画像40aのセルとのHOG特徴量の差分値ΔHは、検出対象画像40bのセルに存在する物体が背景画像40aのセルにも存在しているか否かで大きく異なる。本実施形態では、HOG特徴量のこのような性質を利用し、検出対象画像40bのセルに存在する物体が基準画像40aのセルにも存在している場合には照合用特徴量を差分値ΔHとし、存在しない場合には照合用特徴量を抽出したHOG特徴量とする。具体的には、図9の(a)及び(b)に示したような閾値TH1を設定し、差分値ΔHが閾値TH1以下のセルは差分値ΔHを照合用特徴量とし、差分値ΔHが閾値TH1より大きいセルは抽出したHOG特徴量を照合用特徴量とする。そのため、検出対象画像40bの検出枠43内の各セルの照合用特徴量は、全て差分値ΔHとなる。一方、検出対象画像40bの検出枠内44内の各セルの照合用特徴量は、全て抽出したHOG特徴量となる。
つまり、検出対象画像40bに対して照合用特徴量決定処理を行うと、処理後の画像は、図10の(a)に示す画像40cのような検出枠43内に旗51が存在していない画像と実質的に等価になる。したがって、画像40cと辞書データ14とを照合すると、検出枠43内の特徴量と人物(特定物体)との類似度Sは低くなり、検出枠44内の特徴量と人物との類似度Sは高くなる。そのため、検出対象画像40bからは検出枠44内の人物50のみが特定物体として検出され、図10の(b)に示すように、照合結果の画像40dは人物50のみが枠55で囲まれる。
このように、本実施形態の特定物体の検出方法では、検出対象画像40bのセルのうちの特徴量の差分値ΔHが閾値TH1より小さいセルについては、抽出した特徴量を差分値ΔHに置換し、差分値ΔHを照合用特徴量とする。そのため、検出対象画像40bの検出枠43内に存在する旗51のHOG特徴量が人物のHOG特徴量と類似している場合でも、辞書データと照合する照合用特徴量は人物のHOG特徴量とは異なる値になる。したがって、HOG特徴量が人物(特定物体)のHOG特徴量と類似した値になり得る非特定物体を人物として誤検出してしまうことを防げる。
次に、上述の検出処理による特定物体の別の検出例を、図11〜図13を参照しながら説明する。
図11は、照合用特徴量決定処理で用いる2枚の入力画像の別の一例を示す模式図である。図12は、図11の入力画像における特徴量の差分値ΔHの例を示す模式図である。図13は、図11の入力画像を用いた照合用特徴量決定処理後及び照合結果の画像を示す模式図である。
画像処理装置1により特定物体の検出処理を行う際、特定物体を検出する入力画像(検出対象画像)には、図11の(a)に示すように、非特定物体である旗51よりも撮像装置側に位置する人物50が旗51と重なっている画像40eもある。一方、図11の(b)に示すように、最初の入力画像(背景画像)40aには、非特定物体である旗51のみが存在している。
検出対象画像40eに対し照合処理(ステップS6)を行う場合、照合用特徴量決定処理により、検出対象画像40eの旗51及び人物50を含む検出枠45内の各セル等の照合用特徴量を決定する。
検出対象画像40eの検出枠45における最上段の左側のセル41eの照合用特徴量は、セル41eから抽出したHOG特徴量と、セル41eと対応する背景画像40aのセル41EのHOG特徴量(背景特徴量)との差分値ΔHに基づいて決定する。同様に、検出対象画像40eの検出枠45における上から3段目の中央のセル41fの照合用特徴量は、セル41fから抽出したHOG特徴量と、セル41fと対応する背景画像40aのセル41FのHOG特徴量(背景特徴量)との差分値ΔHに基づいて決定する。
検出枠43に存在する旗51が路面等に設置されている場合、両画像40a,40eにおける旗51は、輪郭(形状)に違いが生じることがあるものの、位置はほとんど変わらない。そのため、図12の(a)に示すように、旗51のみが存在する検出対象画像40bのセル41eのHOG特徴量PH5と、背景画像40aのセル41EのHOG特徴量PH6とはほぼ同じ値になる。よって、検出対象画像40eのセル41eと背景画像40aのセル41EとのHOG特徴量の差分値ΔHは、図12の(a)に示したように全ての勾配方向の勾配強度が閾値TH1よりも小さな値になる。したがって、検出対象画像40eのセル41eの照合用特徴量は差分値ΔHになる。
一方、図11の(a)及び(b)に示したように、旗51及び人物50が存在する検出対象画像40eのセル41fに対応する背景画像40aのセル41Fには、旗51のみが存在する。そのため、図12の(b)に示すように、検出対象画像40eのセル41fのHOG特徴量PH7と、背景画像40aのセル41FのHOG特徴量PH8とは異なる値になる。よって、検出対象画像40eのセル41fと背景画像40aのセル41FとのHOG特徴量の差分値ΔHは、図12の(b)に示したようにいくつかの勾配方向の勾配強度が閾値TH1よりも大きな値になる。したがって、検出対象画像40eのセル41fの照合用特徴量はセル41fから抽出したHOG特徴量になる。
つまり、検出対象画像40eに対して照合用特徴量決定処理を行うと、処理後の画像は、図13の(a)に示す画像40fのように検出枠45内に存在する旗51の一部が欠落した画像と実質的に等価になる。これにより、検出枠45内に存在する像の特徴量(形状)が、人物50の特徴量に近づく。したがって、画像40fと辞書データ14とを照合すると、検出枠45内の特徴量と人物との類似度Sは高くなる。そのため、検出対象画像40fからは検出枠45内の人物50が特定物体として検出され、図13の(b)に示すように、照合結果の画像40gは人物50が枠55で囲まれる。
このように、本実施形態の特定物体の検出方法では、入力画像における特定物体が非特定物体と重なっている場合にも、特定物体の特徴量(輪郭領域)の変化を抑制しつつ非特定物体の特徴量を減算でき、特定物体を正しく検出することができる。
以上説明したように、第1の実施形態に係る特定物体の検出方法では、入力画像(検出対象画像)から抽出したHOG特徴量と背景画像から抽出したHOG特徴量(背景特徴量)との差分値ΔHが小さいセルの照合用特徴量を差分値ΔHにする。これにより、検出対象画像及び背景画像に存在する非特定物体の特徴量を検出対象画像から減算することができる。そのため、非特定物体の特徴量が特定物体の特徴量と類似している場合に非特定物体を特定物体として誤検出することを防げる。
また、第1の実施形態に係る特定物体の検出方法では、入力画像における特定物体が非特定物体と重なっている場合に、特定物体の特徴量(輪郭領域)の変化を抑制しつつ非特定物体の特徴量を減算できる。そのため、特定物体と非特定物体とが重なっている場合にも特定物体を正しく検出することができる。
したがって、上記の特定物体の検出方法を実現する画像処理装置1は、特定物体の検出精度を向上させることができる。
なお、第1の実施形態では、HOG特徴量を用いて特定物体を検出する検出方法を説明した。しかしながら、特定物体の検出に用いる特徴量は、HOG特徴量に限らず、画像内における物体の並進に対して不変又は不変とみなせる特徴量であればよい。よって、特定物体の検出に用いる特徴量は、例えば色相等の色不変量でもよい。さらに、例えば複数枚の画像から抽出した特徴量を統計処理した際に分散又は標準偏差が小さく、並進に対して不変とみなすことができれば他の特徴量でもよい。
また、第1の実施形態で説明した照合用特徴量決定処理は、図7に示したように、検出枠を設定し、検出枠内のセルごとに照合用特徴量を決定している。しかしながら、照合用特徴量は、検出枠内のセルごとに限らず、例えば入力画像内のセルをラスタスキャンして決定してもよい。そのため、例えば、図6に示したステップS603の代わりに、図4に示した処理におけるステップS4とステップS6との間に照合用特徴量を決定する処理を設けてもよい。
また、背景画像とする入力画像は、図5の(a)や図8の(b)に示したように、人物等の特定物体が存在せず、かつHOG特徴量が特定物体のHOG特徴量と類似した値をとり得る非特定物体が存在する画像であることが好ましい。しかしながら、第1の実施形態に係る特定物体の検出方法では、背景画像とする入力画像に特定物体が存在していてもよい。
特定物体が人物である場合、背景画像に存在する人物は一定時間が経過した後の入力画像には存在しない可能性が高い。そのため、入力画像のうちの背景画像に存在する人物と対応する領域は背景物体になっており、HOG特徴量が人物のHOG特徴量とは異なっている。そのため、背景物体のHOG特徴量と人物のHOG特徴量との差分値ΔHは閾値TH1よりも大きくなり、背景物体のHOG特徴量が照合用特徴量となる。したがって、第1の実施形態に係る特定物体の検出方法では、背景画像とする入力画像に特定物体が存在していても、入力画像から特定物体を検出することができる。
このように、第1の実施形態に係る特定物体の検出方法では、背景画像とする入力画像に特定物体(人物)が存在しても構わないので、検出処理の開始時に最初の入力画像を自動的に背景画像とすることが可能である。そのため、事前学習処理とは別に、検出処理を開始する前に、特定物体(人物)が存在しない画像を取得して背景特徴量データベースに登録する処理を行わなくてもよい。したがって、検出処理を開始するまでの手間が増えることを防げ、容易に検出処理を実施できる。
また、図1に示した画像処理装置1は、辞書データ14を作成するための事前学習部13を備える。しかしながら、辞書データ14は、他の画像処理装置で作成し可搬記録媒体やネットワークを通じて画像処理装置1内に読み込んでもよい。そのため、第1の実施形態に係る画像処理装置1は、事前学習部13が無くてもよい。
(第2の実施形態)
図14は、本発明の第2の実施形態に係る特定物体の検出処理の手順を示すフローチャートである。
本実施形態では、第1の実施形態とは別の特定物体の検出処理の処理手順について説明する。なお、本実施形態の検出処理は、図1に示した画像処理装置1で行う。
本実施形態の特定物体の検出処理では、図14に示すように、まず、背景画像候補の条件を設定する(ステップS10)。ステップS10では、入力画像のうちの背景画像の候補とする画像のフレーム番号、又は撮像時刻等を設定する。フレーム番号を条件にする場合、フレーム番号1のほかに、例えばフレーム番号iがi=1000×n(nは自然数)の場合等の条件を設定する。撮像時刻を条件にする場合、検出処理の開始時刻(T=0)のほかに、例えばu時間毎又は毎日s時等の条件を設定する。
画像処理装置1は、ステップS10の後、撮像装置2で撮像した画像の取得を開始し、入力画像として入力画像保持部11に保持させる。この際、画像取得部10は、取得した入力画像に対し時系列に固有のフレーム番号(通し番号)を1から順に付与する。
入力画像の取得を開始したら、次に、入力画像のフレーム番号を表す変数iを初期化する(ステップS2)。ステップS2では、変数iを1にする。
次に、特徴量抽出部12において、フレーム番号iの入力画像からHOG特徴量を抽出する(ステップS3)。
次に、特徴量抽出部12において、フレーム番号iの入力画像が背景画像候補であるか判断する(ステップS11)。ステップS11では、ステップS10で設定した条件と入力画像のフレーム番号i又は撮像時刻等を比較する。入力画像が背景画像候補である場合(ステップS4;Yes)、特徴量抽出部12は、続けて背景特徴量設定処理を行う(ステップS12)。
一方、入力画像が背景画像候補ではない場合(ステップS11;No)、第1の実施形態で説明した照合処理を行い(ステップS6)、照合結果を出力する(ステップS7)。
背景特徴量設定処理(ステップS5)、又は照合結果を出力する処理(ステップS7)の後は、検出処理を続けるか判断する(ステップS8)。検出処理を続ける場合(ステップS8;Yes)、フレーム番号を表す変数iを1だけインクリメント(i=i+1)し、ステップS3からの処理を繰り返す。検出処理を続けない場合(ステップS8;No)、検出処理を終了する。
図15は、図14の背景特徴量設定処理の処理内容を示すフローチャートである。
本実施形態の検出処理で行う背景特徴量設定処理では、図15に示すように、まず、背景特徴量データベース15に背景特徴量が登録されているか判断する(ステップS1201)。入力画像が最初(フレーム番号1)の入力画像であり背景特徴量が登録されていない場合(ステップS1201;No)、ステップS3で抽出したHOG特徴量を背景特徴量としてデータベースに登録し(ステップS1202)、背景特徴量設定処理を終了する。
一方、入力画像が最初の入力画像ではなく背景特徴量が登録されている場合(ステップS1201;Yes)、データベースの背景特徴量と入力画像から抽出したHOG特徴量とを比較し(ステップS1203)、特徴量の差異が所定の更新条件を満たすか判断する(ステップS1204)。更新条件は、例えば特徴量の差分値ΔHが閾値TH1よりも大きいセルが所定の数以上存在する等の条件にする。
特徴量の差異が所定の更新条件を満たしていない場合(ステップS1204;No)、データベースの背景特徴量を更新せず背景特徴量設定処理を終了する。一方、更新条件を満たしている場合(ステップS1204;Yes)、データベースの背景特徴量を入力画像から抽出したHOG特徴量に更新し(ステップS1205)、背景特徴量設定処理を終了する。
本実施形態の検出処理におけるステップS6〜S8の処理は、第1の実施形態で説明した通りでよい。
すなわち、第1の実施形態の検出処理では最初(検出処理開始時)の入力画像から抽出したHOG特徴量を背景特徴量として使い続けるのに対し、本実施形態の検出処理では背景特徴量を随時更新する。
図16は、入力画像内における非特定物体の有無の時間変化の例を示す模式図である。
第1の実施形態では、背景画像の一例として、図5の(a)や図8の(b)のように、HOG特徴量が特定物体(人物)のHOG特徴量と類似した値になり得る非特定物体(旗51)が存在する画像を挙げている。しかしながら、画像処理装置1を用いた特定物体の検出処理は、任意のタイミングで開始される。そのため、最初(フレーム番号1)の入力画像は、図16に示した画像40hのように、旗51が存在しない画像になることがある。なお、図16では、時刻t0が検出処理の開始時刻であり、時間軸は上から下に向かって進む。
この場合、画像処理装置1では、旗51が存在しない画像40hから抽出したHOG特徴量を背景特徴量としてステップS6の照合処理を行う。
その後、時刻t1〜t2の間に撮像領域内に旗51が設置されると、図16に示したように、旗51が存在する画像40kが画像処理装置1に入力される。第1の実施形態で説明した検出処理では、画像40kは検出対象画像であり、HOG特徴量を抽出した後、画像40kの背景特徴量との差分値に基づいて照合用特徴量を決定する。したがって、第1の実施形態で説明した検出処理では、画像40kの旗51を特定物体(人物)として誤検出する恐れがある。
一方、本実施形態の検出方法では、ステップS10で設定した条件及びステップS12で用いる更新条件に基づいて背景特徴量を随時更新する。そのため、時刻t2以降、画像40kのように旗51が存在する画像が背景画像候補になった時点で、背景画像が画像40hから画像40kに変更され、画像40kから抽出したHOG特徴量が背景特徴量となる。したがって、画像40kを入力画像とする照合処理により旗51が特定物体として検出され、表示装置3に旗51を囲む枠57が表示される事態を防げる。
また、詳細な説明は省略するが、画像40kから抽出したHOG特徴量を背景特徴量として検出処理を行っている際に、画像40hのように旗51が撤収された場合、あるいは他の非特定物体が設置された場合には、所定のタイミングで背景特徴量が更新される。
以上説明したように、第2の実施形態に係る特定物体の検出方法では、所定の条件に従って背景特徴量を随時更新するので、入力画像内における非特定物体の有無が時間変化する場合にも非特定物体の誤検出等を防げ、高い検出精度を維持できる。そのため、例えば、商店街のような店舗の営業時間等により非特定物体の有無が変化する場所を観察する際に、非特定物体の有無の影響を受けにくく安定した検出精度を維持できる。
なお、第2の実施形態では、図1に示した画像処理装置1の特徴量抽出部12に背景特徴量設定処理を行わせている。しかしながら、本実施形態の検出処理を行う画像処理装置は、これに限らず、背景特徴量設定処理を行う処理部を備える装置であってもよい。また、画像処理装置は、例えば特徴量抽出部12に最初(フレーム番号1)の入力画像から抽出したHOG特徴量を背景特徴量データベース15に登録させ、以後に行う背景特徴量を更新する処理を特徴量抽出部12とは別の処理部に行わせてもよい。
以上記載した各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)
カメラで撮像した画像を取得する画像取得部と、
前記画像を複数のセルに分割して各セルの特徴量を抽出する特徴量抽出部と、
取得した前記画像のうちの背景画像に指定した画像から抽出した背景特徴量、及び前記画像から検出する特定物体の特徴量を含む辞書データを記憶する記憶部と、
前記辞書データと照合する前記画像の各セルから抽出した特徴量と前記背景特徴量との差分値に基づいて、前記画像の各セルの照合用特徴量を決定する照合用特徴量決定部と、
前記画像の各セルの照合用特徴量と前記辞書データの特徴量とを照合する特徴量照合部と、
を備えることを特徴とする画像処理装置。
(付記2)
前記照合用特徴量決定部は、前記画像のセルのうちの抽出した特徴量と前記背景特徴量との差分値が予め定めた閾値以下であるセルの照合用特徴量を前記差分値に決定し、前記差分値が前記閾値よりも大きいセルの特徴量を、当該セルから抽出した特徴量に決定すること、
を特徴とする付記1に記載の画像処理装置。
(付記3)
予め定めた条件に従って前記背景特徴量を更新する背景特徴量更新部を更に備えること、
を特徴とする付記1に記載の画像処理装置。
(付記4)
前記特徴量抽出部は、前記画像内における並進に対して不変な特徴量を抽出すること、
を特徴とする付記1に記載の画像処理装置。
(付記5)
前記辞書データは、前記特定物体のHistograms of Oriented Gradients(HOG)特徴量を含み、
前記特徴量抽出部は、前記HOG特徴量を抽出すること、
を特徴とする付記1に記載の画像処理装置。
(付記6)
前記特徴量照合部は、複数のセルを含む検出枠内の照合用特徴量と前記辞書データの特徴量とを照合し、前記検出枠内の照合用特徴量と前記辞書データの特定物体の特徴量との類似度が高い場合に、当該検出枠内に特定物体が存在すると判定すること
を特徴とする付記1に記載の画像処理装置。
(付記7)
前記特定物体が存在すると判定された検出枠の位置及び寸法に基づいて、前記画像に前記特定物体を囲む枠を合成して出力する出力処理部を更に備える
ことを特徴とする付記6に記載の画像処理装置。
(付記8)
カメラで撮像した画像と前記画像から検出する特定物体の特徴量を含む辞書データとを照合して前記画像から特定物体を検出する画像処理方法であって、
前記画像を複数のセルに分割して各セルの特徴量を抽出する第1の処理と、
前記画像のうちの背景画像に指定した画像から抽出した背景特徴量をデータベースに登録する第2の処理と、
前記辞書データと照合する前記画像の各セルから抽出した特徴量と前記背景特徴量との差分値に基づいて、前記画像の各セルの照合用特徴量を決定する第3の処理と、
前記画像の照合用特徴量と前記辞書データの特徴量とを照合する第4の処理と、
を有することを特徴とする画像処理方法。
(付記9)
前記第3の処理は、前記辞書データと照合する前記画像のセルのうちの抽出した特徴量と前記背景特徴量との差分値が予め定めた閾値以下であるセルの照合用特徴量を前記差分値に決定し、
前記差分値が前記閾値よりも大きいセルの照合用特徴量を、当該セルから抽出した特徴量に決定する
ことを特徴とする画像処理方法。
(付記10)
前記第2の処理は、前記特定物体の検出処理を開始したときに最初に取得する画像を前記背景画像に指定すること
を特徴とする付記8に記載の画像処理方法。
(付記11)
前記第2の処理は、予め定めた条件に従って前記背景画像の候補を指定し、前記背景画像の候補から抽出した特徴量と前記データベースに登録された背景特徴量との差異が予め定めた条件を満たす場合に前記背景特徴量を前記背景画像の候補から抽出した特徴量に更新する処理、を含む、
ことを特徴とする付記8に記載の画像処理方法。
(付記12)
前記第2の処理は、前記特定物体の検出処理を開始してから所定の時間が経過するごとに前記背景画像の候補を指定する
ことを特徴とする付記11に記載の画像処理方法。
(付記13)
前記第2の処理は、予め定めた時刻が到来するごとに前記背景画像の候補を指定する
ことを特徴とする付記11に記載の画像処理方法。
(付記14)
前記第1の処理は、前記画像内における並進に対して不変な特徴量を抽出すること、
を特徴とする付記8に記載の画像処理方法。
(付記15)
前記第1の処理は、Histograms of Oriented Gradients(HOG)特徴量を抽出すること、
を特徴とする付記8に記載の画像処理方法。
(付記16)
カメラで撮像した画像から検出する特定物体の特徴量を含む辞書データを予め登録しておき、
前記画像を複数のセルに分割して各セルの特徴量を抽出し、
前記画像のうちの背景画像に指定した画像から抽出した背景特徴量をデータベースに登録し、
前記辞書データと照合する前記画像の各セルの照合用特徴量を、当該セルから抽出した特徴量、又は抽出した特徴量と前記背景特徴量との差分値に決定し、
前記画像の照合用特徴量と前記辞書データの特徴量とを照合する、
処理をコンピュータに実行させるプログラム。
1 画像処理装置
10 画像取得部
11 入力画像保持部
12 特徴量抽出部
13 事前学習部
14 辞書データ
15 背景特徴量データベース
16 照合用特徴量決定部
17 特徴量照合部
18 出力処理部
2 撮像装置
3 表示装置
40,40a〜40k 画像
41,41a〜41f,41A〜41F セル
50 人物
51 旗

Claims (8)

  1. カメラで撮像した画像を取得する画像取得部と、
    前記画像を複数のセルに分割して、各セルを構成する各画素の輝度の勾配方向に基づいた各セルの特徴量を抽出する特徴量抽出部と、
    取得した前記画像のうちの背景画像に指定した画像から抽出した背景特徴量、及び前記画像から検出する特定物体の特徴量を含む辞書データを記憶する記憶部と、
    前記辞書データと照合する前記画像の各セルから抽出した特徴量と前記背景特徴量との差分値に基づいて、前記画像の各セルの照合用特徴量を決定する照合用特徴量決定部と、
    前記画像の各セルの照合用特徴量と前記辞書データの特徴量とを照合する特徴量照合部と、
    を備えることを特徴とする画像処理装置。
  2. カメラで撮像した画像を取得する画像取得部と、
    前記画像を複数のセルに分割して各セルの特徴量を抽出する特徴量抽出部と、
    取得した前記画像のうちの背景画像に指定した画像から抽出した背景特徴量、及び前記画像から検出する特定物体の特徴量を含む辞書データを記憶する記憶部と、
    前記辞書データと照合する前記画像の各セルから抽出した特徴量と前記背景特徴量との差分値に基づいて、前記画像の各セルの照合用特徴量を決定する照合用特徴量決定部であって、前記画像のセルのうちの抽出した特徴量と前記背景特徴量との差分値が予め定めた閾値以下であるセルの照合用特徴量を前記差分値に決定し、前記差分値が前記閾値よりも大きいセルの照合用特徴量を、当該セルから抽出した特徴量に決定する前記照合用特徴量決定部と、
    前記画像の各セルの照合用特徴量と前記辞書データの特徴量とを照合する特徴量照合部と、
    を備えることを特徴とする画像処理装置
  3. 前記特徴量抽出部は、前記画像内における並進に対して不変な特徴量を抽出すること、
    を特徴とする請求項1に記載の画像処理装置。
  4. カメラで撮像した画像を取得する画像取得部と、
    前記画像を複数のセルに分割して各セルの特徴量を抽出する特徴量抽出部と、
    取得した前記画像のうちの背景画像に指定した画像から抽出した背景特徴量、及び前記画像から検出する特定物体の特徴量を含む辞書データを記憶する記憶部と、
    前記辞書データと照合する前記画像の各セルから抽出した特徴量と前記背景特徴量との差分値に基づいて、前記画像の各セルの照合用特徴量を決定する照合用特徴量決定部と、
    前記画像の各セルの照合用特徴量と前記辞書データの特徴量とを照合する特徴量照合部と、
    を備え、
    前記辞書データは、前記特定物体のHistograms of Oriented Gradients(HOG)特徴量を含み、
    前記特徴量抽出部は、前記HOG特徴量を抽出すること、
    を特徴とする画像処理装置
  5. カメラで撮像した画像と前記画像から検出する特定物体の特徴量を含む辞書データとを照合して前記画像から特定物体を検出する画像処理方法であって、
    前記画像を複数のセルに分割して、各セルを構成する各画素の輝度の勾配方向に基づいた各セルの特徴量を抽出する第1の処理と、
    前記画像のうちの背景画像に指定した画像から抽出した背景特徴量をデータベースに登録する第2の処理と、
    前記辞書データと照合する前記画像の各セルから抽出した特徴量と前記背景特徴量との差分値に基づいて、前記画像の各セルの照合用特徴量を決定する第3の処理と、
    前記画像の照合用特徴量と前記辞書データの特徴量とを照合する第4の処理と、
    を有することを特徴とする画像処理方法。
  6. カメラで撮像した画像と前記画像から検出する特定物体の特徴量を含む辞書データとを照合して前記画像から特定物体を検出する画像処理方法であって、
    前記画像を複数のセルに分割して各セルの特徴量を抽出する第1の処理と、
    前記画像のうちの背景画像に指定した画像から抽出した背景特徴量をデータベースに登録する第2の処理と、
    前記辞書データと照合する前記画像の各セルから抽出した特徴量と前記背景特徴量との差分値に基づいて、前記画像の各セルの照合用特徴量を決定する第3の処理であって
    前記画像のセルのうちの抽出した特徴量と前記背景特徴量との差分値が予め定めた閾値以下であるセルの照合用特徴量を前記差分値に決定し、
    前記差分値が前記閾値よりも大きいセルの照合用特徴量を、当該セルから抽出した特徴量に決定する
    前記第3の処理と、
    前記画像の照合用特徴量と前記辞書データの特徴量とを照合する第4の処理と、
    を有することを特徴とする画像処理方法
  7. カメラで撮像した画像と前記画像から検出する特定物体の特徴量を含む辞書データとを照合して前記画像から特定物体を検出する画像処理方法であって、
    前記画像を複数のセルに分割して各セルの特徴量を抽出する第1の処理と、
    前記画像のうちの背景画像に指定した画像から抽出した背景特徴量をデータベースに登録する第2の処理であって、予め定めた条件に従って前記背景画像の候補を指定し、前記背景画像の候補から抽出した特徴量と前記データベースに登録された背景特徴量との差異が予め定めた条件を満たす場合に前記背景特徴量を前記背景画像の候補から抽出した特徴量に更新する処理、を含む前記第2の処理と
    前記辞書データと照合する前記画像の各セルから抽出した特徴量と前記背景特徴量との差分値に基づいて、前記画像の各セルの照合用特徴量を決定する第3の処理と、
    前記画像の照合用特徴量と前記辞書データの特徴量とを照合する第4の処理と、
    を有することを特徴とする画像処理方法
  8. カメラで撮像した画像から検出する特定物体の特徴量を含む辞書データを予め登録しておき、
    前記画像を複数のセルに分割して、各セルを構成する各画素の輝度の勾配方向に基づいた各セルの特徴量を抽出し、
    前記画像のうちの背景画像に指定した画像から抽出した背景特徴量をデータベースに登録し、
    前記辞書データと照合する前記画像の各セルの照合用特徴量を、当該セルから抽出した特徴量、又は抽出した特徴量と前記背景特徴量との差分値に決定し、
    前記画像の照合用特徴量と前記辞書データの特徴量とを照合する、
    処理をコンピュータに実行させるプログラム。
JP2014196417A 2014-09-26 2014-09-26 画像処理装置、画像処理方法及びプログラム Expired - Fee Related JP6372282B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014196417A JP6372282B2 (ja) 2014-09-26 2014-09-26 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014196417A JP6372282B2 (ja) 2014-09-26 2014-09-26 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2016071387A JP2016071387A (ja) 2016-05-09
JP6372282B2 true JP6372282B2 (ja) 2018-08-15

Family

ID=55864644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014196417A Expired - Fee Related JP6372282B2 (ja) 2014-09-26 2014-09-26 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6372282B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017221860A1 (ja) * 2016-06-21 2017-12-28 日本電気株式会社 領域識別装置と領域識別方法および領域識別プログラム
JP6871367B2 (ja) * 2016-10-07 2021-05-12 トヨタ モーター ヨーロッパ オブジェクトを認識及び位置特定するための電気デバイス、システム及び方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004265292A (ja) * 2003-03-04 2004-09-24 Yamatake Corp 画像処理方法および装置
KR100568237B1 (ko) * 2004-06-10 2006-04-07 삼성전자주식회사 비디오 영상으로부터 이동 물체를 추출하는 장치 및 방법
JP5347798B2 (ja) * 2009-07-23 2013-11-20 日本電気株式会社 物体検出装置、物体検出方法及び物体検出プログラム
GB2484133B (en) * 2010-09-30 2013-08-14 Toshiba Res Europ Ltd A video analysis method and system
JP5719141B2 (ja) * 2010-10-28 2015-05-13 キヤノン株式会社 情報処理装置、その処理方法及びプログラム

Also Published As

Publication number Publication date
JP2016071387A (ja) 2016-05-09

Similar Documents

Publication Publication Date Title
JP7113657B2 (ja) 情報処理装置、情報処理方法、及びプログラム
EP3910608B1 (en) Article identification method and system, and electronic device
US11393103B2 (en) Target tracking method, device, system and non-transitory computer readable medium
WO2018216629A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR102554724B1 (ko) 이미지 내 객체를 식별하기 위한 방법 및 상기 방법을 실행하기 위한 모바일 디바이스
Nakamura et al. Scene text eraser
US10679083B2 (en) Liveness test method and apparatus
US9098760B2 (en) Face recognizing apparatus and face recognizing method
US8897575B2 (en) Multi-scale, perspective context, and cascade features for object detection
CN110008909B (zh) 一种基于ai的实名制业务实时稽核系统
US9691132B2 (en) Method and apparatus for inferring facial composite
US8295637B2 (en) Method of classifying red-eye objects using feature extraction and classifiers
US20080193020A1 (en) Method for Facial Features Detection
JP6112801B2 (ja) 画像認識装置及び画像認識方法
JP5936561B2 (ja) 画像における外観及びコンテキストに基づく物体分類
US20110268319A1 (en) Detecting and tracking objects in digital images
US20100111375A1 (en) Method for Determining Atributes of Faces in Images
JP6924031B2 (ja) オブジェクト検出装置及びこれらのプログラム
Hebbale et al. Real time COVID-19 facemask detection using deep learning
US8170332B2 (en) Automatic red-eye object classification in digital images using a boosting-based framework
US11631277B2 (en) Change-aware person identification
Jwaid et al. Study and analysis of copy-move & splicing image forgery detection techniques
JP6372282B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2013218605A (ja) 画像認識装置、画像認識方法及びプログラム
US6694059B1 (en) Robustness enhancement and evaluation of image information extraction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180501

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180619

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180702

R150 Certificate of patent or registration of utility model

Ref document number: 6372282

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees