JP2004178272A - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP2004178272A JP2004178272A JP2002343790A JP2002343790A JP2004178272A JP 2004178272 A JP2004178272 A JP 2004178272A JP 2002343790 A JP2002343790 A JP 2002343790A JP 2002343790 A JP2002343790 A JP 2002343790A JP 2004178272 A JP2004178272 A JP 2004178272A
- Authority
- JP
- Japan
- Prior art keywords
- information
- color
- image
- pattern
- image information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、画像情報からある特定の物体の像を判別するために画像情報に処理を施す画像処理装置および画像処理方法に関する。
【0002】
【従来の技術】
従来、色彩情報に基づいて画像情報に含まれる特定の物体を判別する画像処理装置および画像処理方法が提供されていた(例えば、特許文献1を参照)。
【0003】
図5に、従来の画像処理装置500を示す。図5において、画像情報生成手段501によって複数の人間の顔が撮像され、生成された複数の人間の顔のサンプル画像情報が画像情報入力手段502を介して主成分分析手段510に入力され、主成分分析手段510によってサンプル画像情報における色彩情報が主成分分析され、色変換パラメータなどの後述する判別対象画像情報を色変換するために必要なパラメータが生成されるようになっていた。
【0004】
また、画像情報生成手段501によって判別したい人間の顔が撮像され、生成された判別対象画像情報が画像情報入力手段502を介して判別手段520に入力され、判別対象画像情報が複数のサンプル画像情報から予め生成された色変換パラメータによって色変換され、判別手段520によって判別された判別結果が判別結果出力手段503から出力されるようになっていた。
【0005】
【特許文献1】
特開2001−338290号公報(第4―7頁、図1)
【0006】
【発明が解決しようとする課題】
しかしながら、このような従来の画像処理装置および画像処理方法では、予め人間の顔と分かっている複数のサンプル画像情報から作成されたパラメータをそのまま用いて、判別対象の画像情報を色変換していた。そのため、複数のサンプル画像情報が撮像された状況と判別対象の画像情報が撮像された状況とで、光源の光度などの色彩情報に影響を与える条件が大きく異なる場合、一般に判別の精度が低下してしまうという問題があった。
【0007】
本発明は、このような問題を解決するためになされたものであり、光源の光度などの色彩情報に影響を与える条件による影響を画像情報における色彩情報から消去することができる画像処理装置および画像処理方法を提供するものである。
【0008】
【課題を解決するための手段】
本発明の画像処理装置は、画像情報が入力される画像情報入力手段と、ある特定の模様情報および前記模様情報に関連付けられた色彩情報を記憶する模様色彩記憶手段と、前記画像情報から前記模様情報に相当する情報を含む領域を抽出する領域抽出手段と、前記領域における色彩情報と前記模様色彩記憶手段に記憶された色彩情報との関係を表す式を算出する関係式算出手段と、前記関係を表す式に基づいて前記画像情報における色彩情報を変更する色彩情報変更手段とを備えた構成を有している。
【0009】
この構成により、予め記憶された模様情報に相当する情報を含む領域が画像情報から抽出され、抽出された領域における色彩情報と予め記憶された模様情報に関連付けられた色彩情報との関係を表す式に基づいて画像情報の色彩情報が変更されるので、光源の光度などの条件による影響を画像情報における色彩情報から消去することができる。
【0010】
本発明の画像処理装置は、前記色彩情報変更手段によって前記色彩情報を変更された前記画像情報から前記模様情報に関連付けられた色彩情報に相当する情報を含む領域を抽出する色彩領域抽出手段と、前記色彩領域抽出手段によって抽出された領域がある特定の物体の像であるか判別する判別手段とを備えた構成を有している。
【0011】
この構成により、予め記憶された模様情報に相当する情報を含む領域が画像情報から抽出され、抽出された領域における色彩情報と予め記憶された模様情報に関連付けられた色彩情報との関係を表す式に基づいて色彩情報が変更された画像情報において、予め記憶された模様情報に関連付けられた色彩情報に相当する情報を含む領域が特定の物体の像であるか判別が行われるので、光源の光度などの色彩情報に影響を与える条件に関係なく判別の精度を高く保つことができる。
【0012】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を用いて説明する。
【0013】
図1は、本発明の一実施の形態の画像処理装置110によって構成される画像処理システム100のブロック図である。
【0014】
図1において、画像処理システム100は、予め決められた範囲を撮像し、撮像された範囲の画像情報を生成する画像情報生成装置101と、画像情報生成装置101によって生成された画像情報に画像処理を施し、画像情報から人間の顔の像である領域を判別する画像処理装置110とを備える。
【0015】
画像処理装置110は、画像情報生成装置101によって生成された画像情報が入力される画像情報入力手段111と、人間の顔の模様情報および人間の顔の色彩情報を記憶する模様色彩記憶手段112と、後述の領域抽出手段114が模様領域を抽出しやすくするための前処理を画像情報に対して行う画像情報前処理手段113とを備える。また、画像処理装置110は、模様色彩記憶手段112に記憶されている人間の顔の模様情報に相当する情報を含む模様領域を画像情報から抽出する領域抽出手段114と、領域抽出手段114によって抽出された模様領域における色彩情報と模様色彩記憶手段112に記憶されている人間の顔の色彩情報との関係式を算出する関係式算出手段115と、関係式算出手段115によって算出された関係式に基づいて画像情報における色彩情報を変更する色彩情報変更手段116とを備える。さらに、画像処理装置110は、色彩情報を変更された画像情報から、模様色彩記憶手段112に記憶されている人間の顔の色彩情報に相当する情報を含む色彩領域を抽出する色彩領域抽出手段117と、色彩領域抽出手段117によって抽出された色彩領域が人間の顔として適切か判定し、人間の顔として適切と判定された色彩領域を人間の顔と判別する判別手段118と、判別手段118によって人間の顔と判別された色彩領域を判別結果として外部に出力する判別結果出力手段119とを備える。
ここで、模様情報とは、判別対象である物体を撮像して、生成されたサンプル画像情報における明度および色彩などの濃淡によって形成される個々の部位の形、複数の部位の相対的な位置関係、複数の部位間の距離の比、その他の模様を示す特徴量を有する情報をいう。
さらに、色彩情報とは、RGB信号、HSV信号、HLS信号、Lab信号、Luv信号、Yuv信号、その他の画像情報における色彩を構成する情報をいう。
なお、本実施の形態では、人間の顔を撮像して生成されたサンプル画像情報を濃淡画像に変換し、明度の濃淡によって形成される複数の部位の相対的な位置関係を特徴量として有する情報を模様情報として用いる。しかしながら、本発明は、上記明度の濃淡によって形成される複数の部位の相対的な位置関係に限定されることなく、例えば明度の濃淡によって形成される複数の部位間の距離の比を特徴量として有する情報を模様情報として用いてもよい。
【0016】
画像情報生成装置101は、例えば、監視カメラのように予め決められた範囲を連続的に撮像して、撮像された範囲の画像情報を生成し、生成された画像情報を画像処理装置110に出力するようになっている。
なお、本発明においては、画像情報生成装置101は、上記監視カメラに限定されることなく、ビデオ再生装置のように記録媒体に記録された画像情報を再生することで画像情報を外部に出力する装置であってもよい。
【0017】
画像処理装置110の画像情報入力手段111は、外部に接続された画像情報生成装置101によって生成された画像情報が入力され、入力された画像情報を画像情報前処理手段113および色彩情報変更手段116に出力するようになっている。
【0018】
画像処理装置110の模様色彩記憶手段112は、図2(a)に示されるように人間の顔において、明度の濃淡によって形成される部位のそれぞれに対する相対的位置関係を人間の顔の模様情報として記憶し、かつ人間の顔の色彩情報、例えば人間独特の肌の色、または人間の顔の全体的な色の分布情報などを記憶するようになっている。さらに、模様色彩記憶手段112は、人間の顔の模様情報としては、図2(a)に示すような人間の顔の正面の模様情報のみに限らず、例えば図2(b)に示されるような角度から捉えられた人間の顔の模様情報など、複数の角度から捉えられた人間の顔の複数の模様情報を記憶するようになっていてもよい。
【0019】
画像処理装置110の画像情報前処理手段113は、領域抽出手段114が画像情報から模様色彩記憶手段112に記憶されている人間の顔の模様情報に相当する情報を含む模様領域を抽出しやすくするために、画像情報を明度の濃淡画像に変換し、さらに明度の濃淡の度合を正規化するなどの前処理を施すようになっている。
【0020】
画像処理装置110の領域抽出手段114は、模様色彩記憶手段112に記憶されている人間の顔の模様情報を取得し、画像情報前処理手段113によって濃淡画像に変換された画像情報を予め決められた大きさの枠で走査するようになっている。さらに、領域抽出手段114は、枠内の領域において、濃淡によって形成された模様情報と模様色彩記憶手段112から取得された人間の顔の模様情報との相関値を算出し、最も高い相関値が予め決められた閾値を超えた場合、最も高い相関値を算出した領域を人間の顔と判定し、模様領域として抽出するようになっている。
なお、模様色彩記憶手段112に複数の角度から捉えられた人間の顔の複数の模様情報が記憶されている場合、領域抽出手段114は、それぞれの角度の人間の顔の模様情報ごとに最も高い相関値を算出した後、最も高い相関値同士を比較する。さらに、領域抽出手段114は、比較の結果として、最も高い相関値を最高相関値とし、最高相関値が前記予め決められた一定の閾値を超えた場合、最高相関値を算出した領域を模様領域として抽出するようになっている。
【0021】
画像処理装置110の関係式算出手段115は、領域抽出手段114によって抽出された模様領域における色彩情報を抽出し、抽出された模様領域における色彩情報と模様色彩記憶手段112に記憶されている人間の顔の色彩情報との関係を表す関係式を算出するようになっている。
ここで、例えば色彩情報をRGB空間における色分布とし、図3(a)および図3(b)に示されるように、模様領域における色彩情報を色分布301、模様色彩記憶手段112に記憶されている人間の顔の色彩情報を色分布302とする。この場合において、色分布301の任意の3点(R11,G11,B11)、(R12,G12,B12)、(R13,G13,B13)と(R11,G11,B11)、(R12,G12,B12)、(R13,G13,B13)に色分布302において、それぞれ対応する3点(R21,G21,B21)、(R22,G22,B22)、(R23,G23,B23)との関係が、(数1)によって表されるとすると、行列Aは3×3の行列式となる。この行列Aを関係式と呼び、(数2)の式によって関係式Aを算出するようになっている。
また、(数1)の代わりに、(数3)によって関係が表される場合、(数4)および(数5)を用い、行列Bの逆行列を算出することで関係式Aを算出するようにしてもよい。
【数1】
【数2】
【数3】
【数4】
【数5】
【0022】
画像処理装置110の色彩情報変更手段116は、関係式算出手段115によって算出された関係式Aを画像情報入力手段111から入力された画像情報の全画素における色彩情報に乗算するようになっている。関係式Aが画像情報の全画素における色彩情報に乗算されることで、色彩情報変更手段116は、画像情報における色彩情報を変更し、画像情報に含まれる人間の顔の像における色彩情報を模様色彩記憶手段112に記憶されている人間の顔の色彩情報と一致させるようになっている。
【0023】
画像処理装置110の色彩領域抽出手段117は、模様色彩記憶手段112に記憶されている人間の顔の色彩情報を取得し、色彩情報変更手段116によって色彩情報を変更された画像情報を予め決められた大きさの枠で走査するようになっている。さらに、色彩領域抽出手段117は、枠内の領域における色彩情報と模様色彩記憶手段112から取得された人間の顔の色彩情報とを比較し、一致している場合には枠内の領域を色彩領域として抽出するようになっている。
【0024】
画像処理装置110の判別手段118は、色彩領域抽出手段117によって抽出された色彩領域の大きさ、形状または色彩領域内の色分布などを抽出し、人間の顔として適切な大きさ、形状または色分布などを有しているか判定することで、色彩領域を人間の顔として判別するようになっている。
なお、色彩領域抽出手段117が大きさ、形状または色分布などを含む色彩情報を用いることにより、色彩領域抽出手段117が判別手段118の機能を兼ねる構成を有してもよい。
【0025】
画像処理装置110の判別結果出力手段119は、判別手段118によって人間の顔と判別された色彩領域を判別結果として外部に出力するようになっている。
【0026】
以下、例として、図2(a)および図2(b)に示されるような模様情報が人間の顔の模様情報として、また予め決められた光源の光度の下で撮像され、生成されたサンプル画像情報に含まれる人間の肌の色が前記模様情報に関連付けられた色彩情報として模様色彩記憶手段112に記憶され、画像情報生成装置101によって図2(c)に示されるような画像情報が生成される場合における本実施の形態である画像処理装置110の動作について説明する。
【0027】
図4は、画像処理装置110の動作を示すフローチャートである。
【0028】
まず、画像情報生成装置101によって予め決められた範囲が撮像され、撮像された範囲の画像情報が生成され、生成された画像情報が画像処理装置110の画像情報入力手段111に入力される(S401)。
【0029】
次に、画像情報入力手段111に入力された画像情報は、画像情報前処理手段113によって明度の濃淡画像に変換され、明度の濃淡の度合が正規化されることで前処理が施される(S402)。
【0030】
続いて、ステップS402において前処理を施された画像情報は、模様抽出手段114に入力され、予め決められた大きさの枠で走査される。さらに、枠内の領域において、濃淡によって形成された模様情報と模様色彩記憶手段112に記憶されている人間の顔の模様情報との相関値が算出される(S403)。
なお、模様色彩記憶手段112に記憶されている人間の顔の模様情報が図2(a)および図2(b)に示されるように複数である場合、図2(a)および図2(b)、それぞれの人間の顔の模様情報ごとに相関値が算出される。
【0031】
次いで、ステップS403において算出された相関値の中で最も高い最高相関値が予め決められた一定の閾値を超えたか判定される(S404)。
なお、模様色彩記憶手段112に記憶されている人間の顔の模様情報が図2(a)および図2(b)に示されるように複数である場合、図2(a)および図2(b)、それぞれにおける最も高い相関値同士が比較され、他方よりも高い相関値が最高相関値として予め決められた一定の閾値を超えたか判定される。
【0032】
ここで、ステップS404において最高相関値が予め決められた一定の閾値を超えていないと判定された場合、模様色彩記憶手段112に記憶されている人間の顔の模様情報から判別できる人間の顔の像が入力された画像情報に含まれていないと判断され、ステップS401に戻され、新しい画像情報が入力される。
【0033】
また、ステップS404において最高相関値がある一定の閾値を超えたと判定された場合、最高相関値が算出された領域が人間の顔の像と判別され、人間の顔の像と判別された領域は、模様領域として抽出される(S405)。
なお、ステップS404において図2(c)における人間像210は、顔の像が大きく、かつ明度の濃淡によって顔の各部位の形およびそれぞれに対する相対的な位置関係が鮮明なので、図2(a)に示される模様情報との相関値が最も高く算出される。さらに、算出された最高相関値が予め決められた一定の閾値を超えるため、人間像210は、模様領域として抽出される。
一方、人間像211aおよび人間像211bは、顔の像が小さく、明度の濃淡による顔の各部位の形および各部位のそれぞれに対する相対的な位置関係が鮮明でない像であり、また人間像211cの顔の像は、図2(a)および図2(b)のいずれとも異なる。そのため、人間像211a、人間像211bおよび人間像211cは、図2(a)および図2(b)に示される模様情報との相関値は低く算出されてしまい、ステップS404において人間211a、人間211bおよび人間211cは、人間の顔の像として判別されない。
【0034】
次に、ステップS405において抽出された模様領域が関係式算出手段115に入力され、模様領域における色彩情報が抽出される(S406)。
【0035】
続いて、ステップS406において抽出された模様領域における色彩情報と模様色彩記憶手段112に記憶されている人間の顔の色彩情報との関係式Aが算出される(S407)。
【0036】
次いで、ステップS401において画像情報入力手段111に入力された画像情報が色彩情報変更手段116に入力され、ステップS407において算出された関係式Aが色彩情報変更手段116に入力された画像情報の全画素に乗算される。そうされることで、画像情報における色彩情報が変更され、画像情報に含まれる人間の顔の像における色彩情報と模様色彩記憶手段112に記憶されている人間の顔の色彩情報とが一致させられる(S408)。
ここで、図2(c)に示された画像情報が生成された状況における光源の光度などの色彩情報に影響を与える条件は、模様色彩記憶手段112に記憶されている色彩情報が生成された状況における条件と異なっているのが通常で、同じ人間の肌の色であっても図2(c)に含まれる人間の肌の色と模様色彩記憶手段112に記憶されている人間の肌の色とは色彩情報としては異なるものと判別される。しかし、ステップS408において図2(c)に示された画像情報における人間像210の肌の色を模様色彩記憶手段112に記憶されている人間の肌の色と一致させるように、図2(c)に示された画像情報の全体の色彩情報が変更されるため、人間像211a、人間像211bおよび人間像211cの肌の色も模様色彩記憶手段112に記憶されている人間の肌の色と一致させられる。
【0037】
次に、ステップS408において色彩情報を変更された画像情報が色彩領域抽出手段117に入力され、入力された画像情報は、予め決められた大きさの枠で走査される。さらに、枠内の領域における色彩情報と模様色彩記憶手段112に記憶されている人間の顔の色彩情報とが比較され、一致している場合には、枠内の領域が色彩領域として抽出される(S409)。
なお、図2(c)における人間像211a、人間像211bおよび人間像211cの色彩情報である肌の色は、ステップS408において模様色彩記憶手段112に色彩情報として記憶されている人間の肌の色と一致させられているため、ステップS409では、ステップS404において模様領域として抽出されなかった人間像211a、人間像211bおよび人間像211cの顔の像も色彩領域として抽出される。
【0038】
続いて、ステップS409において抽出された色彩領域が判別手段118に入力されることで、判別手段118によって色彩領域の形状、大きさまたは色分布などが抽出され、色彩領域が人間の顔として適切な大きさ、形状または色分布などを有しているか判定される(S410)。
ここで、図2(c)に示された画像情報において、模様色彩記憶手段112に記憶されている人間の肌の色と一致する領域は、人間の顔の像に限らず、ステップS409において図2(c)における人間像211aの腕部分212も色彩領域として抽出される。そのため、人間像211aの腕部分212のように人間の顔として明らかに異なる大きさ、形状または色分布などを有する色彩領域を判別手段118によって除外することで、人間の顔の判別精度を向上させる。
【0039】
次いで、ステップS410において人間の顔として適切と判定された色彩領域は、人間の顔と判別され(S411)、人間の顔と判別された色彩領域は判別結果として判別結果出力手段119によって外部に出力される。
【0040】
また、上述した本実施の形態では、画像情報から人間の顔の像を判別するために模様情報および色彩情報を用いた場合について説明したが、本発明では、模様情報および色彩情報として任意の物体の特徴が反映させられたものを用いることもできる。この場合も、上述した本実施の形態と同様に、画像情報から任意の物体の像を判別する際に、光源の光度などの色彩情報に影響を与える条件による影響を画像情報における色彩情報から消去することができる。
【0041】
【発明の効果】
以上説明したように、本発明の画像処理装置および画像処理方法によれば、光源の光度などの色彩情報に影響を与える条件による影響を画像情報における色彩情報から消去することができる。
【図面の簡単な説明】
【図1】本発明の一実施の形態の画像処理装置によって構成された画像処理システムを表すブロック図
【図2】本発明の一実施の形態の画像処理装置において、模様色彩記憶手段によって記憶されている人間の顔の模様情報を表す模様図および画像情報入力手段に入力される画像情報によって形成された画像図
【図3】本発明の一実施の形態の画像処理装置において、領域抽出手段によって抽出された模様領域における色彩情報のRGB空間における色分布を表す座標図および模様色彩記憶手段によって記憶されている人間の顔の色彩情報のRGB空間
における色分布を表す座標図
【図4】本発明の一実施の形態の画像処理装置による動作の流れを表すフローチャート
【図5】従来の画像処理装置を表すブロック図
【符号の説明】
100 画像処理システム
101 画像情報生成装置
110 画像処理装置
111 画像情報入力手段
112 模様色彩記憶手段
113 画像情報前処理手段
114 領域抽出手段
115 関係式算出手段
116 色彩情報変更手段
117 色彩領域抽出手段
118 判別手段
119 判別結果出力手段
210、211a、211b、211c 人間像
212 人間像211aの腕部分
301 模様領域の色彩情報の色分布
302 模様色彩記憶手段に記憶される色彩情報の色分布[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image processing apparatus and an image processing method for processing image information in order to determine an image of a specific object from image information.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, an image processing apparatus and an image processing method for determining a specific object included in image information based on color information have been provided (for example, see Patent Document 1).
[0003]
FIG. 5 shows a conventional
[0004]
Further, a human face to be determined is imaged by the image information generating means 501, and the generated determination target image information is input to the determination means 520 via the image information input means 502, and the determination target image information is stored in a plurality of sample image , Color conversion is performed by a color conversion parameter generated in advance, and the determination result determined by the determination unit 520 is output from the determination
[0005]
[Patent Document 1]
JP 2001-338290 A (pages 4-7, FIG. 1)
[0006]
[Problems to be solved by the invention]
However, in such a conventional image processing apparatus and image processing method, image information to be determined is color-converted using parameters created from a plurality of sample image information that are known in advance as human faces. . Therefore, if the conditions that affect color information such as the luminous intensity of a light source are significantly different between a situation in which a plurality of sample image information is captured and a situation in which the image information to be determined is captured, the determination accuracy generally decreases. There was a problem that would.
[0007]
The present invention has been made in order to solve such a problem, and an image processing apparatus and an image processing apparatus capable of eliminating the influence of a condition affecting color information such as the luminous intensity of a light source from the color information in the image information. It provides a processing method.
[0008]
[Means for Solving the Problems]
An image processing apparatus according to the present invention includes: an image information input unit to which image information is input; a pattern color storage unit that stores specific pattern information and color information associated with the pattern information; Area extraction means for extracting an area including information corresponding to information; relational expression calculation means for calculating an expression representing a relation between color information in the area and color information stored in the pattern color storage means; And color information changing means for changing the color information in the image information based on the expression
[0009]
With this configuration, an area including information corresponding to the previously stored pattern information is extracted from the image information, and an expression representing a relationship between the color information in the extracted area and the color information associated with the previously stored pattern information is obtained. , The color information of the image information is changed, so that the influence of conditions such as the luminous intensity of the light source can be eliminated from the color information in the image information.
[0010]
The image processing apparatus of the present invention is a color region extracting unit that extracts a region including information corresponding to the color information associated with the pattern information from the image information whose color information has been changed by the color information changing unit, A determination unit configured to determine whether the region extracted by the color region extraction unit is an image of a specific object.
[0011]
With this configuration, an area including information corresponding to the previously stored pattern information is extracted from the image information, and an expression representing a relationship between the color information in the extracted area and the color information associated with the previously stored pattern information is obtained. In the image information in which the color information is changed based on the image information, it is determined whether or not the area including the information corresponding to the color information associated with the pattern information stored in advance is an image of a specific object. The accuracy of the determination can be kept high irrespective of the conditions that affect the color information such as the color information.
[0012]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0013]
FIG. 1 is a block diagram of an
[0014]
In FIG. 1, an
[0015]
The
Here, the pattern information refers to an image of an object to be determined, the shape of each part formed by shading such as brightness and color in the generated sample image information, and the relative positional relationship between a plurality of parts. , A ratio of a distance between a plurality of parts, and other information having a feature amount indicating a pattern.
Further, the color information refers to an RGB signal, an HSV signal, an HLS signal, a Lab signal, a Luv signal, a Yuv signal, and other information constituting a color in image information.
In the present embodiment, sample image information generated by imaging a human face is converted into a grayscale image, and information having a relative positional relationship between a plurality of parts formed by lightness and darkness as a feature amount. Is used as pattern information. However, the present invention is not limited to the relative positional relationship of the plurality of portions formed by the lightness and darkness, and for example, the feature ratio is a ratio of the distance between the plurality of portions formed by the lightness and darkness. The information possessed may be used as pattern information.
[0016]
The image
In the present invention, the image
[0017]
The image
[0018]
As shown in FIG. 2A, the pattern
[0019]
The image
[0020]
The area extracting means 114 of the
When a plurality of pieces of pattern information of a human face captured from a plurality of angles are stored in the pattern
[0021]
The relational expression calculating means 115 of the
Here, for example, the color information is a color distribution in the RGB space, and as shown in FIGS. 3A and 3B, the color information in the pattern area is stored in the
When the relationship is expressed by (Equation 3) instead of (Equation 1), the relational expression A is calculated by calculating the inverse matrix of the matrix B using (Equation 4) and (Equation 5). You may do so.
(Equation 1)
(Equation 2)
[Equation 3]
(Equation 4)
(Equation 5)
[0022]
The color
[0023]
The color area extracting means 117 of the
[0024]
The
Note that the color area extracting means 117 may have a configuration in which the color area extracting means 117 also has the function of the discriminating means 118 by using the color information including the size, shape, color distribution and the like.
[0025]
The determination
[0026]
Hereinafter, as an example, a sample generated by capturing pattern information as shown in FIGS. 2A and 2B as human face pattern information and under a predetermined light source luminous intensity is generated. The color of the human skin included in the image information is stored in the pattern
[0027]
FIG. 4 is a flowchart illustrating the operation of the
[0028]
First, a predetermined range is imaged by the image
[0029]
Next, the image information input to the image information input means 111 is converted into a lightness / darkness image by the image information preprocessing means 113, and preprocessing is performed by normalizing the lightness / darkness degree ( S402).
[0030]
Subsequently, the image information that has been subjected to the preprocessing in step S402 is input to the
2A and 2B, when the pattern information of the human face stored in the pattern
[0031]
Next, it is determined whether the highest maximum correlation value among the correlation values calculated in step S403 has exceeded a predetermined threshold (S404).
2A and 2B, when the pattern information of the human face stored in the pattern
[0032]
Here, when it is determined in step S404 that the highest correlation value does not exceed the predetermined threshold value, the human face pattern that can be determined from the human face pattern information stored in the pattern
[0033]
If it is determined in step S404 that the highest correlation value has exceeded a certain threshold, the area in which the highest correlation value is calculated is determined to be a human face image, and the area determined to be a human face image is Is extracted as a pattern area (S405).
In step S404, the
On the other hand, the
[0034]
Next, the pattern area extracted in step S405 is input to the relational expression calculation means 115, and color information in the pattern area is extracted (S406).
[0035]
Subsequently, a relational expression A between the color information in the pattern area extracted in step S406 and the color information of the human face stored in the pattern
[0036]
Next, in step S401, the image information input to the image
Here, the condition affecting the color information such as the luminous intensity of the light source in the situation where the image information shown in FIG. 2C is generated is such that the color information stored in the pattern
[0037]
Next, the image information whose color information has been changed in step S408 is input to the color
The skin color, which is the color information of the
[0038]
Subsequently, by inputting the color region extracted in step S409 to the
Here, in the image information shown in FIG. 2C, the region that matches the human skin color stored in the pattern
[0039]
Next, the color area determined to be appropriate as a human face in step S410 is determined to be a human face (S411), and the color area determined to be a human face is output to the outside by the determination
[0040]
Further, in the above-described embodiment, the case where pattern information and color information are used to determine an image of a human face from image information has been described. However, in the present invention, an arbitrary object is used as pattern information and color information. Can also be used. Also in this case, similarly to the above-described embodiment, when discriminating the image of an arbitrary object from the image information, the influence of the condition affecting the color information such as the luminous intensity of the light source is deleted from the color information in the image information. can do.
[0041]
【The invention's effect】
As described above, according to the image processing apparatus and the image processing method of the present invention, it is possible to eliminate from the color information in the image information the effect of the condition that affects the color information such as the luminous intensity of the light source.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an image processing system configured by an image processing apparatus according to an embodiment of the present invention. FIG. 2 is stored in a pattern color storage unit in the image processing apparatus according to an embodiment of the present invention. FIG. 3 shows a pattern diagram representing pattern information of a human face and an image formed by image information input to image information input means. FIG. 3 shows an image processing apparatus according to an embodiment of the present invention. FIG. 4 is a coordinate diagram showing a color distribution in an RGB space of color information of an extracted pattern area in a RGB space, and a coordinate diagram showing a color distribution in a RGB space of color information of a human face stored by a pattern color storage means. 5 is a flowchart showing a flow of an operation performed by the image processing apparatus according to the embodiment. FIG. 5 is a block diagram showing a conventional image processing apparatus.
REFERENCE SIGNS
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002343790A JP4226308B2 (en) | 2002-11-27 | 2002-11-27 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002343790A JP4226308B2 (en) | 2002-11-27 | 2002-11-27 | Image processing apparatus and image processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004178272A true JP2004178272A (en) | 2004-06-24 |
JP4226308B2 JP4226308B2 (en) | 2009-02-18 |
Family
ID=32705491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002343790A Expired - Fee Related JP4226308B2 (en) | 2002-11-27 | 2002-11-27 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4226308B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007183872A (en) * | 2006-01-10 | 2007-07-19 | Matsushita Electric Ind Co Ltd | Dynamic camera color correction device and video retrieving device using the same |
WO2007080834A1 (en) * | 2006-01-10 | 2007-07-19 | Matsushita Electric Industrial Co., Ltd. | Color correction device, color correction method, dynamic camera color correction device, and video search device using the same |
JP2009032021A (en) * | 2007-07-26 | 2009-02-12 | Seiko Epson Corp | Image processor, image processing method and computer program |
JP2009032019A (en) * | 2007-07-26 | 2009-02-12 | Seiko Epson Corp | Image processor, image processing method and computer program |
JP2010198207A (en) * | 2009-02-24 | 2010-09-09 | Toshiba Corp | Monitoring system and monitoring method |
JP2013229044A (en) * | 2013-06-24 | 2013-11-07 | Toshiba Corp | Monitoring system and monitoring method |
-
2002
- 2002-11-27 JP JP2002343790A patent/JP4226308B2/en not_active Expired - Fee Related
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007183872A (en) * | 2006-01-10 | 2007-07-19 | Matsushita Electric Ind Co Ltd | Dynamic camera color correction device and video retrieving device using the same |
WO2007080834A1 (en) * | 2006-01-10 | 2007-07-19 | Matsushita Electric Industrial Co., Ltd. | Color correction device, color correction method, dynamic camera color correction device, and video search device using the same |
JP4708192B2 (en) * | 2006-01-10 | 2011-06-22 | パナソニック株式会社 | Dynamic camera color correction device and video search device using the same |
US8018494B2 (en) | 2006-01-10 | 2011-09-13 | Panasonic Corporation | Color correction device, color correction method, dynamic camera color correction device, and video search device using the same |
US8698913B2 (en) | 2006-01-10 | 2014-04-15 | Panasonic Corporation | Color correction device, color correction method, dynamic camera color correction device, and video search device using the same |
JP2009032021A (en) * | 2007-07-26 | 2009-02-12 | Seiko Epson Corp | Image processor, image processing method and computer program |
JP2009032019A (en) * | 2007-07-26 | 2009-02-12 | Seiko Epson Corp | Image processor, image processing method and computer program |
JP2010198207A (en) * | 2009-02-24 | 2010-09-09 | Toshiba Corp | Monitoring system and monitoring method |
JP2013229044A (en) * | 2013-06-24 | 2013-11-07 | Toshiba Corp | Monitoring system and monitoring method |
Also Published As
Publication number | Publication date |
---|---|
JP4226308B2 (en) | 2009-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1528797B1 (en) | Image processing apparatus, image-taking system and image processing method | |
JP4772839B2 (en) | Image identification method and imaging apparatus | |
CN107730456B (en) | Image processing method and image processing apparatus | |
JP3769487B2 (en) | Blond Pixel Removal Method for Image Skin Color Detection | |
JP2004357277A (en) | Digital image processing method | |
JPH09322192A (en) | Detection and correction device for pink-eye effect | |
JP2011188496A (en) | Backlight detection device and backlight detection method | |
JP2007097178A (en) | Method for removing "red-eyes" by face detection | |
EP3067856B1 (en) | Image processing apparatus and image processing method | |
JP2004310475A (en) | Image processor, cellular phone for performing image processing, and image processing program | |
KR101875891B1 (en) | apparatus and method for face detection using multi detection | |
US20090316168A1 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2010263423A (en) | Method and device for processing image | |
TWI255429B (en) | Method for adjusting image acquisition parameters to optimize objection extraction | |
CN109729259B (en) | Image processing apparatus, method thereof, system thereof, and computer readable medium | |
JP2007312206A (en) | Imaging apparatus and image reproducing apparatus | |
JP4226308B2 (en) | Image processing apparatus and image processing method | |
JP2014142832A (en) | Image processing apparatus, control method of image processing apparatus, and program | |
JP2009038737A (en) | Image processing apparatus | |
JP2005260657A5 (en) | ||
JP2010237976A (en) | Light source information obtaining device, shading detection device, shading removal device, and those methods and programs | |
JP2007258923A (en) | Image processing apparatus, image processing method, image processing program | |
JP7030425B2 (en) | Image processing device, image processing method, program | |
JP2002117402A (en) | Image processing method and device thereof | |
JP2010003091A (en) | Object detection device, object detection method, object detection program and printer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080729 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080924 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081104 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081126 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111205 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111205 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121205 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121205 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131205 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |