JP2006072829A - 画像認識システム及び画像認識方法 - Google Patents

画像認識システム及び画像認識方法 Download PDF

Info

Publication number
JP2006072829A
JP2006072829A JP2004257345A JP2004257345A JP2006072829A JP 2006072829 A JP2006072829 A JP 2006072829A JP 2004257345 A JP2004257345 A JP 2004257345A JP 2004257345 A JP2004257345 A JP 2004257345A JP 2006072829 A JP2006072829 A JP 2006072829A
Authority
JP
Japan
Prior art keywords
area
image
luminance
pixel
sum
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004257345A
Other languages
English (en)
Inventor
Kenki Ihara
健喜 井原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Software Co Ltd
Original Assignee
Fujifilm Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Software Co Ltd filed Critical Fujifilm Software Co Ltd
Priority to JP2004257345A priority Critical patent/JP2006072829A/ja
Publication of JP2006072829A publication Critical patent/JP2006072829A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】照明補正を行う前の元画像を対象として1度だけ作成したエリア総和テーブルを使用して少ない演算量で照明補正を考慮した画像認識の処理を行うことができる画像認識システム及び画像認識方法を提供する。
【解決手段】エリア総和テーブル作成部16は、画像入力部12から入力した画像のエリア総和テーブル(Summed-area tables)を作成し、エリア総和テーブル記憶部18に格納する。シェーディング補正係数計算部22や輝度分散計算部24は、窓領域決定部20によって設定された窓領域の画像を照明補正するための係数や輝度分散をエリア総和テーブル記憶部18のデータを用いて計算する。矩形フィルタ計算部26は、前記係数及び輝度分散とエリア総和テーブル記憶部18のデータを用いて照明補正を施した画像に対する画像認識のための特徴量を算出する。
【選択図】 図1

Description

本発明は画像認識システム及び画像認識方法に係り、特にエリア総和テーブル(Summed-area tables)を利用した矩形フィルタによる画像認識の前処理として画像の照明補正を施す画像認識システム及び画像認識方法に関する。
デジタルカメラ等で得られた画像の中から顔などの特定の対象を自動検出する画像認識の技術が知られている。その1つとして、画像内に様々な位置や大きさの矩形領域を設定して矩形フィルタで各矩形領域の特徴量を求め、その特徴量に基づいて顔の位置等を認識する方法が知られている。
従来、矩形フィルタの演算を少ない演算量で実現する方法としてエリア総和テーブル(Summed-area tables)を使用する方法が提案されている。エリア総和テーブルは、例えば、認識対象の画像の左上隅の画素点を原点(0,0)として、その原点とある画素の座標(x,y)を対角とする矩形領域内の各画素の輝度値等の総和をその座標(x,y)に対するエリア総和値とすると共に、画像上の全ての画素の座標(x,y)に対するエリア総和値を予め求めてテーブル化したものである。このエリア総和テーブルにおけるエリア総和値の簡単な加減算によって画像内の所望の矩形領域内における各画素の輝度値等の総和を求めることができる。
ところで、上述のような画像認識において、不均一な照明環境で撮影された画像の場合には認識性能に大きな影響を及ぼす。認識性能に影響を及ぼす照明条件としては、(1)画像の輝度が局所的に異なること(2)画像によって輝度が異なること、などがある。そのため、一般的に、画像認識の前処理として照明補正(シェーディング補正)が行われている。上記(1)の照明条件の不具合に対する照明補正の方法としては、"Example-Based Learning for View-Based Human Face Detection"と称される方法が知られている (非特許文献1参照)。illumination gradient correctionは、画像上での照明光の輝度が平面的に傾斜しているものと仮定して重回帰分析によりその輝度平面(best-fit brightness plane)を求め、輝度平面が一定値となるように各画素の輝度値を補正する方法である。上記(2)の照明条件の不具合に対する照明補正の具体的な方法としては、輝度値の分散を正規化する方法がある。
IEEE Transactions on Pattern Analysis and Machine Intelligence,Vol.20,No1,January 1998 筆者 Kah-Kay Sung and Tomaso Poggio
一般に、画像認識の処理は、画像認識の処理を行う窓領域の位置や大きさを変えながら画像全体に対して行われる。上述のような照明補正も画面全体に対して行うのではなく、窓領域内の画像を対象として行うことが望ましい。しかしながら、その場合には、照明補正を行う前の元画像を対象として作成されたエリア総和テーブルを使用することができず、照明補正を行った後の画像のエリア総和テーブルを作成しなおす必要があるため演算量が増加するという不具合があった。
本発明はこのような事情に鑑みてなされたもので、照明補正を行う前の元画像を対象として1度だけ作成したエリア総和テーブルを使用して少ない演算量で照明補正を考慮した画像認識の処理を行うことができる画像認識システム及び画像認識方法を提供することを目的とする。
前記目的を達成するために、請求項1に記載の画像認識システムは、入力した画像に画像認識の処理を施す画像認識システムにおいて、前記画像の原点位置の画素と所定位置の画素とを対角とする矩形領域内に含まれる各画素の輝度値に応じた値の総和を前記所定位置に対するエリア総和値として算出すると共に、前記画像の全ての各画素の位置を前記所定位置としてエリア総和値を算出することによって、各画素の位置に対するエリア総和値を示すエリア総和テーブルを作成するエリア総和テーブル作成手段と、前記画像の領域内に窓領域を設定する窓領域設定手段と、前記窓領域設定手段によって設定された窓領域内において各画素の輝度との誤差が最小となる輝度平面の係数を前記エリア総和テーブル作成手段によって作成されたエリア総和テーブルを使用して算出する輝度平面係数算出手段と、前記窓領域設定手段によって設定された窓領域内の画像から画像認識のための特徴量を算出する特徴量算出手段であって、前記輝度平面による照明補正を考慮した特徴量を前記輝度平面係数算出手段によって算出された係数と、前記エリア総和テーブル作成手段によって作成されたエリア総和テーブルを使用して算出する特徴量算出手段と、を備えたことを特徴としている。
本発明によれば、照明補正する前に作成したエリア総和テーブルを使用して照明補正のための輝度平面の係数や、それによる照明補正を考慮した特徴量の算出が行われるため、照明補正を施した画像によってエリア総和テーブルを作成しなおす必要がなく、画像の輝度が局所的に異なる不具合を軽減する照明補正を施した画像の画像認識のための特徴量を少ない演算量で算出することができる。
請求項2に記載の画像認識システムは、請求項1に記載の発明において、前記窓領域設定手段によって設定された窓領域内の画像に対して前記輝度平面による照明補正を施した場合における前記窓領域内の輝度分散を前記エリア総和テーブル作成手段によって作成されたエリア総和テーブルを使用して算出する輝度分散算出手段を備え、前記特徴量算出手段は、前記輝度分散算出手段によって算出された輝度分散に基づいて、前記窓領域内の画像に対して前記輝度平面による照明補正を施し、かつ、前記窓領域内の輝度分散を正規化した場合に得られる特徴量を算出することを特徴としている。本発明は、輝度平面による照明補正を施した後に輝度分散を正規化した画像の特徴量を算出するようにした場合であり、画像によって輝度が異なることの不具合を軽減することができる。そして、この場合も照明補正を施す前の画像によって作成したエリア総和テーブルを使用して特徴量を算出することができるため演算量が少ない。
請求項3に記載の画像認識システムは、請求項1又は2に記載の発明において、前記エリア総和テーブル作成手段は、前記エリア総和値として、前記矩形領域内の各画素の輝度値の総和、前記画像の横方向に対する各画素の座標値と各画素の輝度値との積の総和、前記画像の縦方向に対する各画素の座標値と各画素の輝度値との積の総和、及び、各画素の輝度値を自乗した値の総和を算出することを特徴としている。本発明は、エリア総和テーブルのエリア総和値として算出しておく値の具体例を示したものである。
請求項4に記載の画像認識方法は、入力した画像に画像認識の処理を施す画像認識方法において、前記画像の原点位置の画素と所定位置の画素とを対角とする矩形領域内に含まれる各画素の輝度値に応じた値の総和を前記所定位置に対するエリア総和値として算出すると共に、前記画像の全ての各画素の位置を前記所定位置としてエリア総和値を算出することによって、各画素の位置に対するエリア総和値を示すエリア総和テーブルを作成するエリア総和テーブル作成工程と、前記画像の領域内に窓領域を設定する窓領域設定工程と、前記窓領域設定工程によって設定された窓領域内において各画素の輝度との誤差が最小となる輝度平面の係数を前記エリア総和テーブル作成工程によって作成されたエリア総和テーブルを使用して算出する輝度平面係数算出工程と、前記窓領域設定工程によって設定された窓領域内の画像から画像認識のための特徴量を算出する特徴量算出工程であって、前記輝度平面による照明補正を考慮した特徴量を前記輝度平面係数算出工程によって算出された係数と、前記エリア総和テーブル作成工程によって作成されたエリア総和テーブルを使用して算出する特徴量算出工程と、を備えたことを特徴としている。本発明は請求項1に記載の画像認識システムにおいて実施される方法の発明であり、請求項1と同様の効果を奏する。
請求項5に記載の画像認識方法は、請求項4に記載の発明において、前記窓領域設定工程によって設定された窓領域内の画像に対して前記輝度平面による照明補正を施した場合における前記窓領域内の輝度分散を前記エリア総和テーブル作成工程によって作成されたエリア総和テーブルを使用して算出する輝度分散算出工程を備え、前記特徴量算出工程は、前記輝度分散算出工程によって算出された輝度分散に基づいて、前記窓領域内の画像に対して前記輝度平面による照明補正を施し、かつ、前記窓領域内の輝度分散を正規化した場合に得られる特徴量を算出することを特徴としている。本発明は請求項2に記載の画像認識システムにおいて実施される方法の発明であり、請求項2と同様の効果を奏する。
請求項6に記載の画像認識方法は、請求項4又は5に記載の発明において、前記エリア総和テーブル作成工程は、前記エリア総和値として、前記矩形領域内の各画素の輝度値の総和、前記画像の横方向に対する各画素の座標値と各画素の輝度値との積の総和、前記画像の縦方向に対する各画素の座標値と各画素の輝度値との積の総和、及び、各画素の輝度値を自乗した値の総和を算出することを特徴としている。本発明は請求項3に記載の画像認識システムにおいて実施される方法の発明であり、請求項3と同様の効果を奏する。
本発明に係る画像認識システム及び画像認識方法によれば、照明補正を行う前の元画像を対象として1度だけ作成したエリア総和テーブルを使用して少ない演算量で照明補正を考慮した画像認識の処理を行うことができる。
以下、添付図面に従って本発明に係る画像認識システムの好ましい実施の形態について詳説する。
図1は、本発明が適用される画像認識システムの構成を示した処理ブロック図である。同図の画像認識システムは例えばパソコンなどのコンピュータにおいて構築されるシステムであり、同図の各処理部の処理は主にコンピュータのCPUによって実行される。
同図において、コントロール部10は各処理部の処理動作やデータの流れを制御することによって画像認識の処理を統括している。画像入力部12は、例えば、デジタルカメラ等で撮影された認識対象の画像(画像データ)をデジタルカメラやメディア(ハードディスク、ディスクメディア、カードメディア等)等から入力し、画像メモリ14に格納する。尚、画像メモリ14に格納される画像データは各画素の輝度値とする。
エリア総和テーブル作成部16は、画像メモリ14に格納された認識対象の画像を読み込み、その画像のエリア総和テーブル(summed-area tables)を作成する。これによって作成されたエリア総和テーブルのデータはエリア総和テーブル記憶部18に格納される。
エリア総和テーブルについて説明すると、まず、図2のように画像メモリ14に格納された認識対象の画像全体の左上隅にある画素を原点とし、横方向をX軸、縦方向をY軸として各画素の座標をX−Y座標の座標値(x,y)で表すものとする。尚、各画素のX座標値x及びY座標値yは整数とし、各軸の方向に1画素分ずつ位置がずれるごとに座標値x、yが1ずつ増加するものとする。
そして、原点(0,0)と、ある画素の座標(x,y)とを対角とする矩形領域50を想定した場合に、その矩形領域50内の各画素の輝度値等の総和をエリア総和値として算出する。ここで、各座標(x',y')の画素の輝度値をZ(x',y')で表すと、エリア総和値として、各画素の輝度値Z(x',y')の総和以外にも、各画素でのx'・Z(x',y')、y'・Z(x',y')、Z(x',y')2のそれぞれの値の総和が算出される。
即ち、原点(0,0)から座標(x,y)までの矩形領域50において各画素の輝度値Z(x',y')のエリア総和値S(x,y)は、次式(1)、
Figure 2006072829
により算出される。エリア総和テーブル作成部16は、このように算出されるエリア総和値S(x,y)を画像メモリ14に格納されている認識対象の画像における全ての画素の座標(x,y)に対して算出し、各座標(x,y)に対するエリア総和値S(x,y)をエリア総和テーブルのデータとしてエリア総和テーブル記憶部18に格納する。
同様に原点(0,0)から座標(x,y)までの各画素に対する値x'・Z(x',y')、y'・Z(x',y')、Z(x',y')2の各々のエリア総和値Sx(x,y)、Sy(x,y)、SZ(x,y)はそれぞれ次式(2)、(3)、(4)、
Figure 2006072829
Figure 2006072829
Figure 2006072829
により算出される。エリア総和テーブル16はこれらのエリア総和値Sx(x,y)、Sy(x,y)、SZ(x,y)を画像メモリ14に格納されている認識対象の画像における全ての画素の座標(x,y)に対して算出し、各座標(x,y)に対するエリア総和値Sx(x,y)、Sy(x,y)、SZ(x,y)をエリア総和テーブルのデータとしてエリア総和テーブル記憶部18に格納する。尚、上式(1)、(2)、(3)、(4)により作成されるエリア総和テーブルをそれぞれZ、xZ、yZ、Z2のエリア総和テーブルという。
図1の窓領域決定部20は、画像メモリ14に格納されている認識対象の画像の全領域のうち顔などの所定の対象を認識判定する窓領域を決定する。これによって図3に示すように認識対象の画像全体の領域内に4つの座標(XL,YU)、(XL,YD)、(XR,YU)、(XR,YD)を頂点とする矩形状の窓領域52が設定される。窓領域はこの窓領域決定部20によって画像全体の領域内における位置や大きさを変更しながら設定される。
図1のシェーディング補正係数計算部22は、窓領域決定部20によって設定された窓領域内の画像(画素)を対象として、illumination gradient correctionと呼ばれる照明補正(シェーディング補正)に使用される輝度平面(best-fit brightness plane)の係数を計算する。
ここで輝度平面について図4を参照して説明すると、図1のように認識対象の画像の横方向及び縦方向に設定されたX軸及びY軸に対して直交する方向に輝度値を表すZ軸をとるものとする。そして、輝度平面ZC(x,y)の式を係数a、b、cを用いて次式(5)、
Figure 2006072829
により表すものとする。このとき各座標(x,y)での輝度平面の値ZC(x,y)と認識対象の画像の輝度値Z(x,y)との差の二乗和が最小となるように係数a、b、cを決定する。即ち、各座標(x,y)での輝度平面の値ZC(x,y)と認識対象の画像の輝度値Z(x,y)との差の二乗和を補正誤差eとすると、補正誤差eは次式(6)、
Figure 2006072829
により表され、この補正誤差eが最小となる係数a、b、cを求めることによって輝度平面ZC(x,y)の式が決定される。尚、この処理は重回帰分析と同じ手順である。
このようにして求めた輝度平面の各座標(x,y)での値ZC(x,y)は、illumination gradient correctionによるシェーディング補正の各座標(x,y)での補正値を示す。もし、各画素の輝度値Z(x,y)からその補正値ZC(x,y)を減算することによって認識対象の画像を補正したとすると、補正した画像の各画素の輝度値Z'(x,y)(=Z(x,y)−ZC(x,y))の平均値は0となり、局所的な輝度の違いがなくなり、画像全体の平均輝度も一定値となる。
シェーディング補正係数計算部22は、上式(5)で表される輝度平面(補正値)ZC(x,y)の係数a、b、cをエリア総和テーブル記憶部18に格納されているエリア総和テーブルのデータを用いて算出する。
係数a、b、cの計算式について説明すると、まず、図3のように認識対象の画像全体のX座標の最大値をW−1(横方向の画素数W)、Y座標の最大値をH−1(縦方向の画素数H)とすると、画像全体における輝度平面の係数a、b、cはそれぞれ次式(7)、(8)、(9)、
Figure 2006072829
Figure 2006072829
Figure 2006072829
によって表される。一方、輝度平面の式は、窓領域決定部20によって図3のように設定された窓領域に限定した範囲で求められ、そのときの係数a、b、cは、上式(7)、(8)、(9)を窓領域に限定した次式(10)、(11)、(12)
Figure 2006072829
Figure 2006072829
Figure 2006072829
によって求められる。
上式(10)、(11)、(12)において右辺の各項に現れる総和演算は、エリア総和テーブル記憶部18に格納されているZ、xZ、yZのエリア総和テーブルのエリア総和値S(x,y)、Sx(x,y)、Sy(x,y)を用いて次式(13)、(14)、(15)、
Figure 2006072829
Figure 2006072829
Figure 2006072829
のように表されるため、エリア総和テーブル記憶部18に格納されているZ、xZ、yZのエリア総和テーブルのエリア総和値S(x,y)、Sx(x,y)、Sy(x,y)を用いることで少ない演算量で係数a、b、cを算出することができる。
図1の輝度分散計算部24は、上記シェーディング補正係数計算部22によって算出された係数a、b、cの輝度平面(補正値)によって窓領域の画像をシェーディング補正したと仮定した場合に、その補正した窓領域の画像の輝度値の分散を計算する。各画素の輝度値Z(x,y)の分散V(Z)は、次式(16)、
Figure 2006072829
によって与えられるが、上記illumination gradient correctionによってシェーディング補正を行った画像の各画素の輝度値Z'(x,y)の分散V(Z')は、重回帰分析の理論により、次式(17)、
Figure 2006072829
によって表される。但し、Nは全画素数である。また、式(17)を変形すると、次式(18)、
Figure 2006072829
のように表される。分散V(Z')は、窓領域決定部20によって図3のように設定された窓領域に対して求められ、その場合、窓領域の左上隅の画素を原点(0,0)とすると、上式(17)、(18)において(W−1)は(XR−XL)、(H−1)は(YD−YU)と置き換えられ、Nは、窓領域内の画素数、即ち、N=(XR+1−XL)×(YD+1−YU)となる。
輝度分散計算部24は、エリア総和テーブル記憶部18に格納されているエリア総和テーブルのデータを使用して上式(18)からillumination gradient correctionによるシェーディング補正後の輝度分散V(Z')を算出する。即ち、上式(18)の右辺の第1項V(Z)は、エリア総和テーブル記憶部18に格納されているZとZ2のエリア総和テーブルのエリア総和値S(x,y)とSZ(x,y)から計算でき、第2項は、上式(13)、(14)、(15)を適用してZ、xZ、yZのエリア総和テーブルのエリア総和値S(x,y)、Sx(x,y)、Sy(x,y)から計算することができる。
図1の矩形フィルタ計算部26は、ある矩形領域内の各画素の輝度値に基づいて所定の演算処理を行う矩形フィルタである。画像認識で矩形フィルタを使う場合、画像をスキャンしながら様々な位置や大きさの領域に対して矩形フィルタの出力値を算出し、その出力値を画像認識のための特徴量としている。例えば、矩形フィルタ計算部26は、図5に示すように座標(x1+1,y1+1)、(x2,y1+1)、(x1+1,y2)、(x2,y2)を頂点とする矩形領域A1(面積をN1とする)の平均輝度値R1とその右隣にある座標(x2+1,y1+1)、(x3,y1+1)、(x2+1,y2)、(x3,y2)を頂点とする矩形領域A2(面積をN1とする)の平均輝度値R2との差R1−R2を算出し、その値を特徴量とする。このような矩形領域A1、A2は窓領域決定部20により設定された窓領域内において設定される。尚、矩形フィルタの演算処理の対象領域は、2つの矩形領域とは限らず、各矩形領域の面積が同じであるとも限らない。また、隣り合っている必要もない。
平均輝度値R1やR2は、エリア総和テーブル記憶部18に格納されている輝度値Zのエリア総和テーブルのエリア総和値S(x,y)を使用して少ない演算量によって計算することができる。即ち、平均輝度値R1、R2は次式(19)、(20)、
Figure 2006072829
Figure 2006072829
により表される。従って、これらの差R1−R2は、次式(21)、
Figure 2006072829
により算出される。また、N1は、次式(22)、
Figure 2006072829
により算出される。
一方、上式(21)によって得られる値R1−R2は、シェーディング補正係数計算部22で算出された係数a、b、cの輝度平面や輝度分散計算部24によって算出された輝度分散によってシェーディング補正する前の画像に対して得られる値であり、矩形フィルタ計算部26はシェーディング補正後の画像に対して矩形フィルタを適用した場合の平均輝度値の差R1−R2を次のように算出する。
illumination gradient correctionによるシェーディング補正では、矩形フィルタを適用する矩形領域の1画素(ピクセル)当たりの補正量(引き算する量)がその領域の中央の画素での補正量に等しい。これに着目して、矩形フィルタの計算をエリア総和テーブル記憶部に格納されているエリア総和テーブルを使用して高速で行いながら補正量を反映させる。
そこでまず、窓領域決定部20によって設定された窓領域の左上隅の座標を原点(0,0)に置き換える。そして図5のように矩形フィルタが適用される矩形領域A1の1画素あたりの補正量ZC,A1は、シェーディング補正係数計算部22で算出された係数a、b、cを用いて次式(23)、
Figure 2006072829
で求められる。座標((x1+1+x2)/2,(y1+1+y2)/2)は矩形領域A1の中心点である。同様に矩形領域A2の補正量ZC,A2は、次式(24)、
Figure 2006072829
で求められる。従って、シェーディング補正を行った画像に対する矩形フィルタの出力値R'1-2は、次式(25)、
Figure 2006072829
により計算することができる。即ち、入力画像のなかで認識処理を行う窓領域が移動してシェーディング補正を行う領域が変わっても、最初に作成してエリア総和テーブル記憶部18に記憶されているエリア総和テーブルのエリア総和値S(x,y)を使ってシェーディング補正を反映した矩形フィルタの計算が可能となる。
また、矩形フィルタ計算部26は、輝度分散計算部24において計算された輝度分散V(Z')を取得し、矩形フィルタの上記出力値R'1-2を(L/V(Z'))1/2倍する。これによって、illumination gradient correctionによるシェーディング補正後の輝度値の分散をLに正規化して矩形フィルタの出力値R'1-2を計算したのと同じ結果を得ることができる。
図1の特徴量判定部28は、矩形フィルタ計算部26によって計算された矩形フィルタの出力値(補正された出力値)を特徴量としてその特徴量に基づいて顔などの所定の対象を認識するための判定を行う。画像認識最終処理部30では、画像全体に対する判別処理結果をもとに認識の最終処理を行い、認識結果出力部32は、その認識結果をモニタなどに出力する。
特徴量判定部28及び画像認識最終処理部30の処理の一例を説明すると、ある矩形フィルタ1の計算出力値をg1とすると(上記矩形フィルタ計算部26の演算例ではR1−R2)、出力値g1によって何らかの値を出力する関数をf1とする。関数f1の例としては、g1がある閾値θ1以上であれば1を返し、未満であれば−1を返すような関数がある。つまり、
Figure 2006072829
である。これらの関数を重み係数αで重み付けして足し合わせ
Figure 2006072829
のようにある閾値β以上であれば認識対象物であると判定し、そうでなければ認識対象物ではないと判定する(Mは特徴量の数)。関数fや係数θ、α、βは学習や統計処理の最適化により決定する。
画像認識最終処理部30は、すべての窓領域の特徴量判定を行った後、画像全体をみて認識対象物であると判定した窓領域が重なっている領域では、
Figure 2006072829
が最も高い値を持つ窓領域を最も認識対象物である可能性が高いと推定して残し、他の重なっている窓領域は消去する。
図6は、以上の各処理部での処理手順を示したフローチャートである。まず、認識対象の画像を画像入力部12から入力し、その画像を画像メモリ14に格納する(ステップS10)。続いて、画像メモリ14に格納した画像の輝度値に基づいてZ、xZ、yZ、Z2のエリア総和テーブルをエリア総和テーブル作成部16によって作成し、そのエリア総和テーブルのデータをエリア総和テーブル記憶部18に格納する(ステップS12)。
次に、以下のステップS14からステップS20までの処理をステップS14においてNOと判定されるまで繰り返す。ステップS14の判定処理では、窓領域決定部20によって設定変更されるべき位置や大きさの窓領域のうち、設定されていない窓領域が残っているか否かを判定する。YESと判定した場合には、窓領域決定部20によって新たな窓領域を設定する。そして、その窓領域において、シェーディング補正のための輝度平面の係数a、b、cをシェーディング補正係数計算部22によって算出すると共に、illumination gradient correctionによりシェーディング補正を施したと仮定した場合の画像の輝度分散を輝度分散計算部24によって算出する(ステップS16)。
次に、エリア総和テーブル記憶部18に格納されたエリア総和テーブルと、シェーディング補正係数計算部22によって算出された係数と、輝度分散計算部24によって算出された輝度分散とを使用してシェーディング補正(輝度分散の正規化も含む)を考慮した矩形フィルタの出力値を矩形フィルタ計算部26によって計算すると共に、矩形フィルタを適用する矩形領域を窓領域内で変更しながら矩形フィルタの出力値を特徴量として取得して画像認識のための特徴量を抽出する(ステップS18)。
続いて、ステップS18において抽出した特徴量を元に画像認識のための判別処理を特徴量判定部28によって行う(ステップS20)。そして、ステップS14に戻る。
ステップS14においてNOと判定した場合には、画像全体の判別処理結果を元に画像認識の最終処理を画像認識最終処理部30によって実行し(ステップS22)、その認識結果を認識結果出力部32によってモニタ等に出力する(ステップS24)。以上によって画像認識の処理が終了する。
本発明が適用される画像認識システムの構成を示した処理ブロック図。 エリア総和テーブルの説明に使用した説明図。 窓領域に関する説明に使用した説明図。 輝度平面(best-fit brightness plane)の説明に使用した説明図。 矩形フィルタの説明に使用した説明図。 画像認識システムの各処理部によって行われる処理手順を示したフローチャート。
符号の説明
10…コントロール部、12…画像入力部、14…画像メモリ、16…エリア総和テーブル作成部、18…エリア総和テーブル記憶部、20…窓領域決定部、22…シェーディング補正係数計算部、24…輝度分散計算部、26…矩形フィルタ計算部、28…特徴量判定部、30…画像認識最終処理部、32…認識結果出力部

Claims (6)

  1. 入力した画像に画像認識の処理を施す画像認識システムにおいて、
    前記画像の原点位置の画素と所定位置の画素とを対角とする矩形領域内に含まれる各画素の輝度値に応じた値の総和を前記所定位置に対するエリア総和値として算出すると共に、前記画像の全ての各画素の位置を前記所定位置としてエリア総和値を算出することによって、各画素の位置に対するエリア総和値を示すエリア総和テーブルを作成するエリア総和テーブル作成手段と、
    前記画像の領域内に窓領域を設定する窓領域設定手段と、
    前記窓領域設定手段によって設定された窓領域内において各画素の輝度との誤差が最小となる輝度平面の係数を前記エリア総和テーブル作成手段によって作成されたエリア総和テーブルを使用して算出する輝度平面係数算出手段と、
    前記窓領域設定手段によって設定された窓領域内の画像から画像認識のための特徴量を算出する特徴量算出手段であって、前記輝度平面による照明補正を考慮した特徴量を前記輝度平面係数算出手段によって算出された係数と、前記エリア総和テーブル作成手段によって作成されたエリア総和テーブルを使用して算出する特徴量算出手段と、
    を備えたことを特徴とする画像認識システム。
  2. 前記窓領域設定手段によって設定された窓領域内の画像に対して前記輝度平面による照明補正を施した場合における前記窓領域内の輝度分散を前記エリア総和テーブル作成手段によって作成されたエリア総和テーブルを使用して算出する輝度分散算出手段を備え、前記特徴量算出手段は、前記輝度分散算出手段によって算出された輝度分散に基づいて、前記窓領域内の画像に対して前記輝度平面による照明補正を施し、かつ、前記窓領域内の輝度分散を正規化した場合に得られる特徴量を算出することを特徴とする請求項1の画像認識システム。
  3. 前記エリア総和テーブル作成手段は、前記エリア総和値として、前記矩形領域内の各画素の輝度値の総和、前記画像の横方向に対する各画素の座標値と各画素の輝度値との積の総和、前記画像の縦方向に対する各画素の座標値と各画素の輝度値との積の総和、及び、各画素の輝度値を自乗した値の総和を算出することを特徴とする請求項1又は2の画像認識システム。
  4. 入力した画像に画像認識の処理を施す画像認識方法において、
    前記画像の原点位置の画素と所定位置の画素とを対角とする矩形領域内に含まれる各画素の輝度値に応じた値の総和を前記所定位置に対するエリア総和値として算出すると共に、前記画像の全ての各画素の位置を前記所定位置としてエリア総和値を算出することによって、各画素の位置に対するエリア総和値を示すエリア総和テーブルを作成するエリア総和テーブル作成工程と、
    前記画像の領域内に窓領域を設定する窓領域設定工程と、
    前記窓領域設定工程によって設定された窓領域内において各画素の輝度との誤差が最小となる輝度平面の係数を前記エリア総和テーブル作成工程によって作成されたエリア総和テーブルを使用して算出する輝度平面係数算出工程と、
    前記窓領域設定工程によって設定された窓領域内の画像から画像認識のための特徴量を算出する特徴量算出工程であって、前記輝度平面による照明補正を考慮した特徴量を前記輝度平面係数算出工程によって算出された係数と、前記エリア総和テーブル作成工程によって作成されたエリア総和テーブルを使用して算出する特徴量算出工程と、
    を備えたことを特徴とする画像認識方法。
  5. 前記窓領域設定工程によって設定された窓領域内の画像に対して前記輝度平面による照明補正を施した場合における前記窓領域内の輝度分散を前記エリア総和テーブル作成工程によって作成されたエリア総和テーブルを使用して算出する輝度分散算出工程を備え、前記特徴量算出工程は、前記輝度分散算出工程によって算出された輝度分散に基づいて、前記窓領域内の画像に対して前記輝度平面による照明補正を施し、かつ、前記窓領域内の輝度分散を正規化した場合に得られる特徴量を算出することを特徴とする請求項4の画像認識方法。
  6. 前記エリア総和テーブル作成工程は、前記エリア総和値として、前記矩形領域内の各画素の輝度値の総和、前記画像の横方向に対する各画素の座標値と各画素の輝度値との積の総和、前記画像の縦方向に対する各画素の座標値と各画素の輝度値との積の総和、及び、各画素の輝度値を自乗した値の総和を算出することを特徴とする請求項4又は5の画像認識方法。

JP2004257345A 2004-09-03 2004-09-03 画像認識システム及び画像認識方法 Pending JP2006072829A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004257345A JP2006072829A (ja) 2004-09-03 2004-09-03 画像認識システム及び画像認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004257345A JP2006072829A (ja) 2004-09-03 2004-09-03 画像認識システム及び画像認識方法

Publications (1)

Publication Number Publication Date
JP2006072829A true JP2006072829A (ja) 2006-03-16

Family

ID=36153372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004257345A Pending JP2006072829A (ja) 2004-09-03 2004-09-03 画像認識システム及び画像認識方法

Country Status (1)

Country Link
JP (1) JP2006072829A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265701A (ja) * 2008-04-21 2009-11-12 Canon Inc 情報処理装置及び情報処理方法
WO2011118224A1 (ja) * 2010-03-26 2011-09-29 株式会社ディジタルメディアプロフェッショナル ぼかし画像取得装置及び方法
KR20140060244A (ko) * 2012-11-09 2014-05-19 아날로그 디바이시즈 테크놀로지 물체 검출
KR101870084B1 (ko) * 2017-07-10 2018-06-22 극동대학교 산학협력단 그림자의 수직경계선을 이용한 원격탐사영상의 그림자 제거방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003022441A (ja) * 2001-07-06 2003-01-24 Minolta Co Ltd 領域抽出方法、領域抽出プログラム、領域抽出プログラムを記録したコンピュータ読取可能な記録媒体、および領域抽出装置
JP2004185611A (ja) * 2002-11-21 2004-07-02 Advanced Telecommunication Research Institute International 顔位置の抽出方法、およびコンピュータに当該顔位置の抽出方法を実行させるためのプログラムならびに顔位置抽出装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003022441A (ja) * 2001-07-06 2003-01-24 Minolta Co Ltd 領域抽出方法、領域抽出プログラム、領域抽出プログラムを記録したコンピュータ読取可能な記録媒体、および領域抽出装置
JP2004185611A (ja) * 2002-11-21 2004-07-02 Advanced Telecommunication Research Institute International 顔位置の抽出方法、およびコンピュータに当該顔位置の抽出方法を実行させるためのプログラムならびに顔位置抽出装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009265701A (ja) * 2008-04-21 2009-11-12 Canon Inc 情報処理装置及び情報処理方法
WO2011118224A1 (ja) * 2010-03-26 2011-09-29 株式会社ディジタルメディアプロフェッショナル ぼかし画像取得装置及び方法
US8970614B2 (en) 2010-03-26 2015-03-03 Digital Media Professionals Inc. Apparatus and a method for obtaining a blur image
KR20140060244A (ko) * 2012-11-09 2014-05-19 아날로그 디바이시즈 테크놀로지 물체 검출
KR101669713B1 (ko) * 2012-11-09 2016-10-27 아날로그 디바이시즈 글로벌 물체 검출
KR101870084B1 (ko) * 2017-07-10 2018-06-22 극동대학교 산학협력단 그림자의 수직경계선을 이용한 원격탐사영상의 그림자 제거방법

Similar Documents

Publication Publication Date Title
US11120254B2 (en) Methods and apparatuses for determining hand three-dimensional data
WO2021008019A1 (zh) 姿态跟踪方法、装置及计算机可读存储介质
US8615135B2 (en) Feature point positioning apparatus, image recognition apparatus, processing method thereof and computer-readable storage medium
JP2008257713A (ja) 透視変換歪み発生文書画像補正装置および方法
US20190164008A1 (en) Image processing apparatus, image processing method, and storage medium
JP2006012166A (ja) カラーセグメンテーションに基づくステレオ3次元再構成システムおよびプロセス
WO2019026104A1 (ja) 情報処理装置、情報処理プログラム及び情報処理方法
WO2020184207A1 (ja) 物体追跡装置および物体追跡方法
US11062464B2 (en) Image processing apparatus, method, and storage medium to derive optical flow
US11720745B2 (en) Detecting occlusion of digital ink
JP2019117577A (ja) プログラム、学習処理方法、学習モデル、データ構造、学習装置、および物体認識装置
WO2014074959A1 (en) Real-time face detection using pixel pairs
US10460461B2 (en) Image processing apparatus and method of controlling the same
US11462052B2 (en) Image processing device, image processing method, and recording medium
JP2013215549A (ja) 画像処理装置、画像処理プログラムおよび画像処理方法
JP4903192B2 (ja) 顔検出装置
JP2018195084A (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
CN114674826A (zh) 基于布匹的视觉检测方法及检测系统
US10643096B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
WO2011033744A1 (ja) 画像処理装置、画像処理方法および画像処理用プログラム
JP2012243285A (ja) 特徴点位置決定装置、特徴点位置決定方法及びプログラム
JP2006323779A (ja) 画像処理方法、画像処理装置
JP2006133941A (ja) 画像処理装置、画像処理方法、画像処理プログラム及び携帯型端末
JP2006072829A (ja) 画像認識システム及び画像認識方法
JP2007026308A (ja) 画像処理方法、画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100531

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110210