JP4599730B2 - 画像領域抽出装置 - Google Patents
画像領域抽出装置 Download PDFInfo
- Publication number
- JP4599730B2 JP4599730B2 JP2001058497A JP2001058497A JP4599730B2 JP 4599730 B2 JP4599730 B2 JP 4599730B2 JP 2001058497 A JP2001058497 A JP 2001058497A JP 2001058497 A JP2001058497 A JP 2001058497A JP 4599730 B2 JP4599730 B2 JP 4599730B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- evaluation
- output
- polynomial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
Description
【発明の属する技術分野】
本発明は、画像認識技術に関し、特に、任意の画像から特徴的な領域を抽出する画像領域抽出装置に関する。
【0002】
【従来の技術及び発明が解決しようとする課題】
近年、車両や看板、人物などを監視する分野において、画像認識による方法が注目されている。例えば特開2000−22929号公報には、人物画像処理装置として、画像中の顔の領域を抽出する技術が開示されている。ここに開示された技術は、顔が肌色で撮影されることに着目したものであり、各画素のRGB値が肌色基準を満たすか否かで顔の領域を判断している。
【0003】
しかしながら、顔領域の色は、たとえ同一人物であっても、撮影条件によって大きく変わってくる。つまり、撮影条件によってRGB値が大きく異なるのである。そのため、RGB値の肌色基準を設定するのは困難であり、上述した手法では、撮影条件によっては顔領域を適切に抽出できない可能性が高くなる。
【0004】
もちろん、撮影条件に合わせてRGB値の肌色基準を変更することで対応することが考えられるが、全ての撮影条件を予測し、RGB値の肌色基準を設定することは現実的でない。
本発明は、任意画像中の特徴的な領域を抽出する際に、当該画像の撮影条件に応じ適応的に抽出処理内容を更新することによって、正確な領域抽出を実現することを目的とする。
【0005】
【課題を解決するための手段及び発明の効果】
上述した目的を達成するためになされた本発明の画像領域抽出装置では、対象物の特定部分を含む任意の評価対象と、その特定部分と色の特徴が同じ基準被写体とを同様の撮影条件で撮影手段が撮影し、撮影手段を介して評価対象を含む評価画像を評価画像取得手段が取得し、撮影手段を介して基準被写体を含む学習画像を学習画像取得手段が取得する。評価画像と学習画像とは、同一の画像としてもよい。撮影条件が同じであればよいためである。また、教師画像取得手段は、学習画像中の各画素が前記被写体の撮影領域としての特徴領域の画素であるか否かを2値データによって示す教師画像を取得する。
【0006】
そして本発明では、モデル生成手段が、学習画像取得手段にて取得される学習画像から任意に選択された選択画素における複数の画素値を入力値とし、教師画像取得手段にて取得される教師画像中の各画素のうち、その選択画素に対応する画素における2値データによって規定される第1特徴量を出力値とする画素評価モデルを、予め設定された基本関数を用いてその基本関数の係数を決定することにより生成する。学習画像の複数の画素値は、それぞれ例えば8ビット(0〜255)のRGB値で示されるものであることが考えられる。これに対して、教師画像は2値、例えば特徴領域の画素を「255」で示し、それ以外の画素を「0」で示すものとすることが考えられる。したがってこの場合、学習画像のRGB値から教師出力「0」又は「255」への各画素の対応関係を用いて画素評価モデルを生成する。
【0007】
さらに、領域決定手段が、モデル生成手段にて生成された画素評価モデルに、評価画像取得手段にて取得された評価画像中の各画素における同様の複数の画素値を入力することにより、その評価画像中の各画素に対応する出力値としての第2特徴量を算出し、当該算出した画素毎の第2特徴量を、上記の第1特徴量に基づき予め決められた閾値を用いてそれぞれ2値化することにより、評価画像における特定部分の撮影領域としての抽出対象領域を決定する。この第2特徴量は、上述した例で言えば、評価画像における上記のRGB値から算出される値となる。
すなわち、本発明では、学習画像と教師画像とから画素評価モデルを自動的に生成でき、しかも、学習画像は、評価画像と同様の撮影条件で撮影されたものである。したがって、評価画像の撮影条件が変わった場合、学習画像と教師画像とからその撮影条件に応じた画素評価モデルを作成すれば、画像の撮影条件に応じ適応的に抽出処理内容を更新することができるため、正確な領域抽出を実現することができる。
【0008】
なお、領域決定手段は、算出した第2特徴量に基づき特徴画素を決定し、当該決定された特徴画素に基づいて抽出対象領域を決定することが考えられる。例えば、閾値を「128」として、第2特徴量が「128」以上の画素を特徴画素として決定することが考えられる。そして、このような特徴画素からなる領域をそのまま抽出対象領域としてもよい。また、特徴画素からなる領域を含む矩形領域を抽出対象領域としてもよい。後者のように矩形領域を抽出対象領域とすることによって、例えば顔の領域を抽出する場合に、顔の輪郭部分が適切に抽出できるし、顔の領域以外のノイズ部分を適切にカットすることができる。
【0009】
そして、領域決定手段は、具体的には、抽出対象領域を画素単位で特定可能な抽出指示データを生成することが考えられる。この抽出指示データは、例えば抽出する画素に「1」、抽出しない画素に「0」を対応させた2値のデータとすればよい。そして、このような抽出指示データを出力するようにすれば、その後、外部装置にて、評価画像の抽出対象領域を簡単に取り出せる。
【0010】
ところで、上述した画素評価モデルは、いわゆるニューラルネットワークにて実現することができる。しかし、ニューラルネットワークは、図10に示すようにニューロンとシナプスから構成されており、全てのシナプスの重みを決定することでモデル化される。つまり、全てのシナプスの重みが決定されるまでは、機能しない。そのため、高速な応答性を確保することができない。
【0011】
そこで、請求項2に示すように、モデル生成手段は、複数の基本関数を階層的に組み合わせてなる多項式型推定モデルを用いて、その多項式推定モデルにおける各基本関数の係数を決定することにより、画素評価モデルを生成するとよい。即ち、GMDH演算手法を応用した多項式型推定モデルを画素評価モデルとして生成するようにするとよい。
従来、入力データと入力データに対応する出力データとから入出力関係を推定する手法として、種子の品種改良をまねた数学モデルであるGMDH(Group Method of Data Handling )が知られている。このGMDHについては、例えば「日本ファジィ学会誌 Vol.17, No.2, pp.270-274(1995年)」や、「システムと制御 Vol.23, No.12, pp.710-717(1979年)」に詳しく解説されている。
【0012】
GMDHとは、部分多項式と呼ばれる2変数の2次多項式を階層的に組み合わせて、非線形の多項式型推定モデルを得る手法である。
基本的なGMDH演算手法について、ここで説明する。
N組の入出力データが与えられている場合を考える。入出力データとは、例えば入力変数が3つであれば、3つの入力データ(x1 ,x2 ,x3 )及びこの入力データに対応する出力データ(y)をセットにしたものをいう。すなわちこの場合は、入出力データは、(x1 ,x2 ,x3 ,y)と表現できる。
【0013】
GMDHでは、この入出力関係が次の式3に示す従属関係fを満足すると考え、関係fの推定モデルを特定する。
y=f(x1 ,x2 ,x3 ) …式3
例えば3つの入力データ(x1 ,x2 ,x3 )を学習画像の画素情報であるRGB値、出力データyを教師画像で規定される教師出力とすれば、関係fの推定モデルが、上述した画素評価モデルに相当することになる。
【0014】
上述したN組の入出力データは、学習用データと評価用データとに分割されて用いられる。学習用データとは、モデルを同定するために用いるデータであり、一方、評価用データとは、モデルを評価するために用いるデータである。学習用データがNt 組存在し、評価用データがNc 組存在するとして説明を続ける。通常は、Nt +Nc =Nである。なお、分割の方法としては、入出力データの最初のデータセットから交互に学習用データと評価用データに分配する方法が考えられる。また、乱数を用いて分配してもよい。さらにまた、出力データの分散の大きさで分割する方法もある。したがって、本画像領域抽出装置においては、学習画像と教師画像との対応関係から、Nt 組の学習用データとNc 組の評価用データとを適宜選択すればよい。
【0015】
また、N組の入出力データをN組の学習用データとして、また、N組の評価用データとして用いることもできる。すなわち、学習画像と教師画像との同一の対応関係を学習用データ及び評価用データとして利用しても事足りる。
モデルの推定は、以下に示す手順▲1▼〜▲4▼によって行われる。
【0016】
(1)まず3個の入力変数の組み合わせ(x1 ,x2 ),(x1 ,x3 ),(x2 ,x3 )について,次の式4に示す部分多項式を構成する。
zk =c0 +c1 xp +c2 xq +c3 xp 2+c4 x q 2+c5 xp xq …式4
ここでk,p,q=1,2,3、また、c0 ,c1 ,・・・,c5 は係数である。なお、式4に示すzk を中間変数という。
【0017】
▲2▼上述したNt 組の学習用データを用いて、各部分多項式に対し、次の式5で示される二乗誤差Ek を最小にする係数c0 ,c1 ,・・・,c5 を線形回帰分析により決定する。なお、zk [i]は、Nt 組の学習用データのうちのi番目の入力データに対する上記式4の値であり、y[i]はNt 組の学習用データのうちのi番目の出力データである。また、記号Σは、iについての和記号である。これによって、部分多項式が生成される。
Ek =Σ(y[i]−zk [i])2 …式5
▲3▼生成された部分多項式に、Nc 組の評価用データを代入し、上記式5のEk を計算する。この場合、zk [i]はNc 組の評価用データのi番目の入力データを代入したときの上記式4の値であり、y[i」はNc 組の評価用データのi番目の出力データである。そして、得られた二乗誤差E1 ,E2 ,E3 の中から,値が小さいm個を選択し,残りの部分多項式は捨てる。
【0018】
つまり、Nt 組の入出力データを使って決定した係数c1 ,c2 ,・・・,c5 が本当に有効か否かを、残りのNc 組の評価用データを用いてチェックする。
▲4▼選択した部分多項式モデルの出力zk を次の層の部分多項式を特定するための入力変数と見なし,次の式6に示す条件が成立するまで、上述した▲1▼からの手順を繰り返す。
Emin >E’min …式6
ここでEmin は、二乗誤差E1 ,E2 ,E3 の最小値である。すなわち、入出力関係をもっとも精度よく近似している部分多項式の評価値である。また、E’min は、前層での評価値Emin である。つまりここでは、層を増加させたとき、誤差が減少せず逆に増加するときに終了する。
【0019】
そして、前層で評価値Emin を与える部分多項式及びその部分多項式に関係したそれ以前の層の部分多項式を階層的に組み合わせたものが、上述した関係fの推定モデルとなる。
なお、部分多項式は上記式4に示したものに限定されず、2変数の2次多項式であればよい。例えば次の式7に示す部分多項式を用いることもできる。
zk =c0 +c1 xp +c2 xq +c3 xp xq …式7
以上が従来より知られているGMDHによるモデル推定の手順である。この従来のGMDHによるモデル推定の手順を図11に概念図として示した。
【0020】
すなわち、上述した手順▲1▼及び▲2▼により、入力データ(x1 ,x2 ,x3 ,・・・,xn )を2つずつ組み合わせ、図11中に示す1層目の部分多項式を生成する。つまり、 nC2 の部分多項式が生成される。そして、手順▲3▼及び▲4▼によって、生成された各部分多項式を評価用データで評価してm個の部分多項式を選択すると共に終了判定を行う。これが図11中に記号Aで示す推定モデルの判別と終了判定に相当する。
【0021】
次に、選択したm個の部分多項式の出力を2つずつ組み合わせて2層目の部分多項式を生成する(手順▲1▼,手順▲2▼)。つまり、 mC2 の部分多項式が生成される。そして、手順▲3▼及び▲4▼によって、生成された各部分多項式を評価用データで評価し、m’個の部分多項式を選択すると共に終了判定を行う。図11中の記号Bで示す如くである。
【0022】
これを繰り返すことによって最終的な推定モデルの出力が得られる。
ただし、このようなGMDH演算手法をそのまま用いると、例えばコンピュータシステムを用いて計算させることを考えた場合、次のような問題がある。
それは、各層それぞれの計算において、入力データに対応する変数を2つずつ組み合わせて部分多項式を生成するため、入力データが多くなると、生成される部分多項式の数が多くなる。そのため、各部分多項式の評価等に要する計算時間が多くなり、最終的な推定モデルを得るまでに時間を要する。
【0023】
したがって、より高速な応答性を確保するという観点からは、請求項3に示す構成を採用するとよい。なお、複数の基本関数のうち、一層目の基本関数を第一部分多項式、二層目の基本関数を第二部分多項式、三層目の基本関数を第三部分多項式、四層目の基本関数を第四部分多項式とする。
具体的には、多項式型推定モデルは、以下の4つのステップによって評価画像中の各画素に対応する第2特徴量を算出するモデルであればよい。
(1)評価画像取得手段にて取得された評価画像中の各画素における3つの画素値をそれぞれ入力変数x1,x2,x3として第一部分多項式に代入して出力x4を取得する第1のステップ。
(2)第1のステップにて取得した出力x4と入力変数x1,x2とを第二部分多項式に代入して出力x5を取得する第2のステップ。
(3)第2のステップにて取得した出力x5と入力変数x2,x3とを第三部分多項式に代入して出力x6を取得する第3のステップ。
(4)第2のステップにて取得した出力x5と第3のステップにて取得した出力x6と入力変数x1とを第四部分多項式に代入して出力x7を取得する第4のステップ。
そして、請求項4に示すように、領域決定手段は、教師画像中の各画素における2値データによって規定される第1特徴量を教師出力とし、学習画像取得手段にて取得される学習画像中の各画素における3つの画素値をそれぞれ入力変数x1,x2,x3として、多項式型推定モデルの各ステップにて取得する出力x4,x5,x6,x7である中間出力と、教師出力との誤差を表す評価値に基づいて、第Nステップ(Nは2〜4の整数)における評価値が第N−1ステップにおける評価値を上回る場合、評価画像取得手段にて取得された評価画像中の各画素における3つの画素値をそれぞれ入力変数x1,x2,x3として第N−1ステップにて取得した中間出力を、評価画像中の各画素に対応する第2特徴量として抽出対象領域を決定する。
この場合、多項式型推定モデルの生成過程において、部分多項式の二乗誤差というような評価値が過去に算出された評価値よりも良いものであれば、部分多項式の出力を画素評価モデルの出力とする。
【0024】
つまり、最終的な画素評価モデルが得られる途中の部分多項式の中で最も評価値がよいもの、例えば評価値として二乗誤差を用いる場合には、その二乗誤差が最小であるものの出力を画素評価モデルの出力とする。このようにすれば、逐次的にモデルを更新でき、初期段階においては幾分精度が低くなるものの、高速な応答性を確保することができる。
【0025】
また、多項式型推定モデルの生成過程において、部分多項式の評価値が予め定められた基準値を満たすと、部分多項式の出力を画素評価モデルの出力とする。ここで基準値を画像処理に十分な精度を保証できるだけの値としておけば、ある程度の応答性が確保され、さらに、精度も保証されることになる。なお、このような基準値を満たした場合の部分多項式の出力を最終的な画素評価モデルの出力としてもよい。
【0026】
なお、生成される部分多項式の数を減らして計算時間を削減することを考えた場合、モデル生成手段は、以下手順(1)〜(5)を実行することによって画素評価モデルを生成する。
【0027】
(1)学習画像を構成する画素情報に対応させた変数を含む入力データの中から所定数の変数を選択する。
(2)選択された変数及び学習画像と教師画像との画素単位の対応関係を用いて部分多項式を生成する。
【0028】
(3)生成された部分多項式に対応関係を用いて、当該部分多項式の評価値を算出する。
(4)算出された出力値が過去に算出された評価値よりも良いものであれば、当該部分多項式を記憶し、当該部分多項式の出力を前記入力データに加える。
【0029】
(5)予め定められた終了条件を判断し、終了条件が成立しなければ、上記手順(1)〜(4)を繰り返す。
この手法の技術思想は、本出願人が特願2000−45908号に開示したものである。つまり、上述したように従来の手法では、m個の入力データに対して各階層毎に mC2 個の部分多項式を生成していた。そのため、計算量が多くなっていた。
【0030】
これに対して上記手順(1)〜(5)で示す手法は、評価値の相対的に悪い部分多項式の出力を次の階層の入力データとしても評価値が改善されることは少なく、評価値の相対的に悪い部分多項式は無駄になることが多い、という事実に着目したものである。そこで、所定数の変数を選択して1つの部分多項式を生成し、部分多項式の評価値が良くなっていた場合に限り、その部分多項式を記憶し、その部分多項式の出力を入力データに加えて連鎖を可能にする。これによって、部分多項式の生成数を減少させることができ、計算量を削減できるため、計算時間を大幅に短くすることができる。すなわち、さらなる応答性の向上に寄与できる。一方、精度面においても従来の手法と比較して遜色ないものとなる。
【0031】
なお、上記手順(5)における終了条件の成立は、次の(ア)〜(ウ)の如く判断することができる。
(ア)手順(1)〜(4)が所定回数だけ実行されたときに終了条件が成立したと判断することが考えられる。この場合は、20回とか30回とか決まった回数だけ手順(1)〜(4)が繰り返されたときに計算が終了する。
【0032】
(イ)手順(4)において算出される評価値に基づいて終了条件の成立を判断することが考えられる。例えば評価値に二乗誤差を用いる場合、例えば、二乗誤差がある値よりも小さくなったときに、終了条件が成立したと判断するという具合である。なお、請求項5に示した構成を前提とし、ここでいう「ある値」を基準値とすることも考えられる。
【0033】
(ウ)手順(4)にて部分多項式が所定回数だけ更新されたときに、終了条件が成立したと判断することが考えられる。この場合は、有効な多項式がいくつ生成されたかによって終了条件を判断する。
ところで、従来のGMDH演算手法では、入力データから2つの変数を選択して、部分多項式を生成する。しかし、本発明では、3次元空間(RGB値やYCrCb値)に分解される画素情報を入力データとしている。
【0034】
そこで、学習画像を構成する画素情報に対応させた変数を含む入力データの中から3つの変数を選択して、部分多項式を生成することが考えられる。
このとき生成される部分多項式は、選択された3つの変数をxp ,xq ,xr とし、係数をc0 ,c1 ,c2 ,c3 ,c4 ,c5 、c6 ,c7 ,c8 ,c9 とすると、次の式8で示される。
c0 +c1 xp +c2 xq +c3 xr +c4 xp 2+c5 xq 2+c6 xr 2
+c7 xp xq +c8 xp xr +c9 xq xr …式8
また、選択された3つの変数をxp ,xq ,xr とし、係数をc0 ,c1 ,c2 ,c3 ,c4 ,c5 、c6 として、次の式9で示されるものとしてもよい。
c0 +c1 xp +c2 xq +c3 xr
+c4 xp xq +c5 xp xr +c6 xq xr …式9
このようにすれば、生成される部分多項式が少なくなるため、画素評価モデルの生成に要する時間を削減でき、結果として、高速な応答性が確保される。そして、このようにしても、評価値としての二乗誤差を比較すると、従来の手法と遜色ない精度で演算が行われる。これについては後述の実施例にて、その実験データの一部を示す。
【0035】
ところで、領域決定手段は、画素評価モデルにて算出された画素に対応する第2特徴量に基づいて抽出対象領域を決定する。したがって、抽出対象となり得る領域とそれ以外の領域とで第2特徴量が大きく異なるほど、抽出対象として適切な領域を決定できる。したがって、学習画像取得手段及び評価画像取得手段は、画素の第1及び第2特徴量に基づき抽出対象領域を適切に決定できるような画像変換処理を行うようにすることが望ましい。例えば、フィルタ処理などを行うという具合である。これによって、抽出対象の領域を、より適切に決定することができる。
【0036】
なお、学習画像と教師画像との対応関係に同一のものが存在することを考えると、学習画像と教師画像との間の全ての画素の対応関係を用いる必要はない。
すなわち、モデル生成手段は、学習画像の画素情報から教師画像にて規定される教師出力への対応関係の一部である特定の対応関係を用いて、画像評価モデルを生成することが考えられる。これは簡単に言えば、対応関係を間引くことに相当する。例えば連続する4画素の対応関係から3画素分を間引くという具合である。このように一律に間引いてよい理由は、抽出対象の領域がある程度の面積を有することを前提としている。これによって、画素評価モデル生成に要する時間をさらに短縮することができ、高速な応答性を確保できる。
【0037】
なお、このような画像領域抽出装置の各手段をコンピュータにて実現する機能は、例えば、コンピュータ側で起動するプログラムとして備えることができる。このようなプログラムの場合、例えば、FD、MO、CD−ROM、DVD−ROM、ハードディスク等のコンピュータ読み取り可能な記録媒体に記録し、必要に応じてコンピュータにロードして起動することにより用いることができる。この他、ROMやバックアップRAMをコンピュータ読み取り可能な記録媒体として前記プログラムを記録しておき、このROMあるいはバックアップRAMをコンピュータシステムに組み込んで用いてもよい。
【0038】
【発明の実施の形態】
以下、本発明を具体化した一実施例を図面を参照して説明する。
図1は、本発明の画像領域抽出装置を具体化した画像処理装置1を示す機能ブロック図である。
【0039】
画像処理装置1は、モデル化ユニット10と、抽出ユニット20とを備えている。モデル化ユニット10は、教師画像取得ブロック11、学習画像取得ブロック12、及びモデル生成ブロック13を有している。一方、抽出ユニット20は、評価画像取得ブロック21、特徴量算出ブロック22、抽出指示データ生成ブロック23、及び結果画像出力ブロック24を有している。
【0040】
この画像処理装置1には、メモリ装置30と、2台のデジタルビデオカメラ40,50と、モニタ60とが接続されている。なお、以下の説明では、2台のデジタルビデオカメラ40,50を区別するために、それぞれAデジタルビデオカメラ40、Bデジタルビデオカメラ50と記述する。
【0041】
抽出ユニット20では、Bデジタルビデオカメラ50から評価対象の画像である評価画像を評価画像取得ブロック21にて取得し、評価画像中の人物の顔の領域を抽出し、その結果を結果画像出力ブロック24がモニタ60へ出力する。具体的には、図2(a)に示すような評価画像から、図2(b)に示すような顔部分だけを矩形領域として抜き出しそれ以外をマスクした結果画像を出力する。
【0042】
ここで、評価画像は、カラー画像データであり、画素毎にそれぞれ8ビットのR(Red)値、G(Green)値、B(Blue)値を有している。このとき抽出ユニット20では、特徴量算出ブロック22が評価画像の各画素に対して画素評価モデルによりその特徴量を算出し、抽出指示データ生成ブロック23が、算出した特徴量に基づいて抽出対象の矩形領域を示す抽出指示データを生成する。この抽出指示データを用いて、結果画像出力ブロック24は、評価画像から上述した結果画像を出力する。
【0043】
そして、上述した画素評価モデルを生成するのが、モデル化ユニット10である。モデル化ユニット10では、教師画像取得ブロック11がメモリ装置30から教師画像を取得し、学習画像取得ブロック12がAデジタルビデオカメラ40から学習画像を取得する。そして、モデル生成ブロック13が、この教師画像及び学習画像に基づき、GMDH演算手法を応用した演算を行い画素評価モデルを生成する。
【0044】
そこで次に、学習画像及び教師画像について説明する。
学習画像は、評価画像と同様の撮影条件で撮影されたカラー画像データである。一方、教師画像は、学習画像中の特徴領域、すなわち学習画像中の人の顔領域を示すものである。本実施例の教師画像は、学習画像と同一画素数のモノクロ画像データであり、画素毎に8ビットの値を有する。具体的には、特徴領域の画素には「255」が設定され、それ以外の領域の画素には「0」が設定された2値データとなっている。この画素毎の値が教師画像で規定される教師出力に相当する。したがって、上述した学習画像には人物の顔画像が含まれていることが前提となるが、実際の人間でなく、人形を用いることも考えられる。ただし、顔部分の画素のRGB値が実際の人間を撮影した場合と大きく異ならないことが条件となるのは言うまでもない。図3(a)には教師画像を例示し、図3(b)には人形を撮影した学習画像を例示した。このとき、教師画像は、学習画像中の顔部分を厳密に示すものである必要はない。
【0045】
本実施例では、このような学習画像と教師画像との画素毎の対応関係、すなわち、学習画像のRGB値から教師出力「0」又は「255」への対応関係を用いて、上述した画素評価モデルが生成される。
以上のような画像処理装置1は、例えば周知のコンピュータシステムとして実現することができる。ただし、モデル生成ブロック13における演算処理の負荷を考慮し、画像処理に特化させたマイクロプロセッサであるDSPとしてモデル化ユニット10を実現し、抽出ユニット20として制御するCPUから独立させて処理の分散を図ることが考えられる。
【0046】
次に、モデル化ユニット10におけるモデル生成処理を説明し、さらに続けて、抽出ユニット20における抽出処理を説明する。
図4は、モデル生成処理を示すフローチャートである。このモデル生成処理は、例えば10分というような所定時間間隔で実行される。
【0047】
まず最初のステップ(以下、ステップを単に記号Sで示す。)100において、入力変数を選択する。この処理は、入力データに対応させた変数の中から3つの変数をランダムに選択するものである。ただし、変数は重複しないように選択されるものとする。ここで選択された変数を入力変数xp ,xq ,xr とする。最初は、学習画像の画素情報であるRGB値が入力データであり、これらの入力データに対応する変数x1 ,x2 ,x3 が選択される。
【0048】
次のS110では、S100にて選択された3つの入力変数xp ,xq ,xr を用い、部分多項式を生成する。部分多項式は、次の式10に示す如くである。
ここでc0 ,c1 ,・・・,c9 は係数であり、学習画像のRGB値を上記式10に代入したときの出力zとRGB値に対応する教師出力yとの二乗誤差を最小にするよう線形回帰分析により決定される。すなわち、i番目の画素のRGB値を代入したときの出力をz[i]とし、対応するi番目の教師出力をy[i]とした場合、次の式11にて計算される二乗誤差Eを最小にするという条件の下で係数c0 ,c1 ,・・・,c9 を決定する。なお、ここでΣは、i(=1,2,・・・,N)についての和記号である。
E=Σ(y[i]−z[i])2 …式11
続くS120では、学習画像のRGB値と教師画像の教師出力yへの対応関係を用いて、評価値としての二乗誤差を算出する。i番目の画素のRGB値を代入したときの値をz[i]とし、対応するi番目の教師出力をy[i]とした場合、上記式11にて計算される二乗誤差Eを求める。以下、このS120にて算出された二乗誤差をEh と記述する。
【0049】
そして、次のS130では、S120にて算出された二乗誤差Eh と過去に算出された最小二乗誤差Emin とを比較する。続くS140では、S130における二乗誤差Eh ,Emin の比較結果に基づき、追加条件を満たすか否かを判断する。ここでEh <Emin である場合(S140:YES)、追加条件を満たすとしてS150へ移行する。一方、Eh ≧Emin である場合(S140:NO)、S150及びS160の処理を実行せず、S170へ移行する。
【0050】
S150では、S110で生成した部分多項式の係数c0 ,c1 ,・・・,c9 を抽出ユニット20へ出力する。S160では、算出した二乗誤差Eh を最小二乗誤差Emin とし、最小二乗誤差Emin を更新する。また、S110にて生成した部分多項式を記憶する。さらにまた、その部分多項式の出力zを入力変数に追加する。例えばx1 ,x2 ,x3 が入力変数となっている場合、部分多項式の出力変数zに対応する新たな入力変数x4 を追加するという具合である。そして、S160の処理終了後、S170へ移行する。
【0051】
S170では、終了条件を満たすか否かを判断する。本実施例では、S110からの処理が所定回数だけ繰り返された場合に終了条件が成立したと判断する。ここで終了条件が満たされた場合(S170:YES)、本推定モデル構築処理を終了する。一方、終了条件が満たされていない場合(S170:NO)、S100からの処理を繰り返す。
【0052】
このモデル生成処理を模式的に示せば、図5に示す如くとなる。
すなわち処理開始後、学習画像の画素情報RGB値にそれぞれ対応するx1 ,x2 ,x3 が選択される(S100)。次に、選択された入力変数x1 ,x2 ,x3 を用いて上記式10に示す部分多項式を生成する(S110)。これによって、係数c0 ,c1 ,・・・,c9 が決定される。
【0053】
続いて、学習画像と教師画像との対応関係を用い、上記式11によって評価値としての二乗誤差Eh を算出する(S120)。最初は、最小二乗誤差Emin が存在しないため、必ずEh <Emin と判断される(S130)。このときは追加条件を満たすので(S140:YES)、係数c0 ,c1 ,・・・,c9 を抽出ユニット20へ出力する(S150)。また、最小二乗誤差Emin に二乗誤差Eh を代入して更新し、生成した部分多項式を記憶し、その部分多項式の出力zに対応する入力変数をx4 として追加する(S160)。これは、図5中に記号aで示す1層目の部分多項式が記憶されることに相当する。
【0054】
そして、終了条件が満たされないうちは(S170:NO)、S100からの処理が繰り返される。
2回目の繰り返し処理においては、入力データx1 〜x4 の中から、xp ,xq xr が選択される(S100)。ここでは、x1 ,x2 ,x4 が選択されて部分多項式が生成されたとする(S110)。そして同様に二乗誤差Eh を算出し、Eh <Emin ならば(S130,S140:YES)、係数c0 ,c1 ,・・・,c9 を抽出ユニット20へ出力し(S150)、最小二乗誤差Emin を更新して、入力変数x5 を追加する(S160)。これは、図4中の記号bで示す2層目の部分多項式の追加に相当する。
【0055】
このようにしてS100からの処理が所定回数実行されることによって、二乗誤差Eh を減少させる部分多項式のみが順に追加され、目的とする画素評価モデルが生成される。すなわち、図5では、さらに記号c,dで示す部分多項式がそれぞれ3,4層目の部分多項式として追加され、記号dで示す部分多項式の出力x7 を最終的な出力とする4層の画素評価モデルが生成されている。
【0056】
続いて、抽出ユニット20における抽出処理について説明する。
図6は、抽出ユニット20における抽出処理を示すフローチャートである。
まず最初のS200において、特徴量を算出する。このとき、上述したモデル生成処理においてS150で出力された係数で規定される多項式型推定モデルを画素評価モデルとして用い、評価画像のRGB値から特徴量を算出する。
【0057】
続くS210では、算出された特徴量が「128」以上であるか否かを判断する。ここで特徴量≧128である場合(S210:YES)、S220にてその画素を特徴画素として記憶し、S230へ移行する。一方、特徴量<128である場合(S210:NO)、S220の処理を実行せずS230へ移行する。
【0058】
S230では、全ての画素を処理したか否かを判断する。ここで全ての画素を処理したと判断されると(S230:YES)、S240へ移行する。一方、処理していない画素があるうちは(S230:NO)、S200からの処理を繰り返す。
【0059】
S240では、抽出領域を決定する。この処理は、特徴画素で形成されるある程度の大きさを有する領域を含む矩形領域を決定するものである。そして、S250にて、S240の矩形領域を示す抽出指示データを生成する。
続くS260では、生成された抽出指示データに基づいて、結果画像を出力する。
【0060】
以上説明したように、本画像処理装置1では、評価画像と同様の撮影条件で撮影された学習画像を用いて、モデル化ユニット10が、例えば10分というような所定時間間隔で、画素評価モデルを生成する。具体的には、GMDH演算手法を応用して部分多項式を生成し(図4中のS100,S110)、二乗誤差Eh に基づき(S120〜S140)、部分多項式の係数を出力する(S150)。一方の抽出ユニット20では、この係数で規定される画素評価モデルによって評価画像の画素毎の特徴量を算出し(図6中のS200)、算出した特徴量に基づき抽出領域を決定する(S210〜S240)。つまり、撮影条件が変化する中、Aデジタルビデオカメラ40からの学習画像に基づき、撮影条件に合わせた画素評価モデルをモデル化ユニット10が生成することによって、抽出ユニット20では、評価画像の画素毎の特徴量を撮影条件に合わせて適切に算出することができ、撮影条件が変化しても、評価画像から抽出対象とする顔領域を適切に切り出すことができる。すなわち、本画像処理装置を用いれば、評価画像の撮影条件に応じ適応的に抽出処理内容を更新することができ、正確な領域抽出を実現することができる。なお、本実施例では、顔領域を抽出する構成を説明したが、学習画像と教師画像とを変更することによって、画像中の任意の特徴部分を抽出することができる。
【0061】
そして、本画像処理装置1では、モデル化ユニット10におけるモデル生成処理において、従来から知られているGMDH演算手法を下記▲1▼〜▲3▼のように改良して、画像評価の応答性を向上させた。
▲1▼従来の手法では、ある階層における入力数がmであった場合、その階層において mC2 の部分多項式が機械的に生成される(図11参照)。そのため、計算量が多くなっていた。
【0062】
これに対して、本実施例では、一つの部分多項式を生成し(S110)、部分多項式の二乗誤差が小さくなっていた場合に限り(S120,S130,S140:YES)、その部分多項式を記憶し、その部分多項式の出力を入力変数に加えて連鎖を可能にする(S160)。つまり、部分多項式の生成数を減少させることができるのである。その結果、計算量を削減でき、画素評価モデルの迅速な生成に寄与する。また、精度面においても、従来手法と比べて遜色ないものとなる。
【0063】
なお、この技術思想については、特願2000−45908号に詳細に開示した。この思想は、入力データ数が例えば13というように多くなればなる程、その効果が極めて高くなる。画像評価においては入力データ数が3つであるため、計算量は幾分多くなるものの、従来のGMDH演算手法を用いてもよい。
【0064】
▲2▼また、本実施例の手法では、生成した部分多項式の二乗誤差が最小二乗誤差よりも小さくなっている場合、すなわち追加条件を満たす場合には(図4中のS140:YES)、その時点の部分多項式の係数を出力する(S150)。すなわち、最終的な画素評価モデルの生成途中の部分多項式の出力を画素評価モデルの出力としている。これによって、初期段階の精度は幾分低くなるものの、画素評価の応答性を向上させることができる。
【0065】
▲3▼従来のGMDH演算手法では、入力データから2つの変数を選択して、部分多項式を生成する。しかし、画像の評価を行う場合、3次元空間(RGB値やYCrCb値)に分解される画素情報が入力データとなる。
そのため、従来のGMDH演算手法を用いると、図7(b)に示したように、RGB値の全ての値を用いたモデルを表現する場合、少なくとも2つの部分多項式が必要になる。これに対して、本実施例では、上記式10で示したような3変数の2次多項式を利用している。つまり、図7(a)に示すように、最低限一つの部分多項式があれば、モデルを表現することができる。その結果、本実施例によれば、演算コストを小さくすることができる。
【0066】
これについて説明する。
本出願人は、実際に、上記式4で示される2変数の基本関数と、上記式10で示される3変数の基本関数を用いて、演算精度を比較した。なお、部分多項式生成の基礎となる関数を、ここでは基本関数と呼ぶことにする。
【0067】
基本関数の個数と二乗誤差との関係を図8のグラフに示した。ここで、図8(a)は従来のGMDH演算手法(従来法)によるものであり、図8(b)は、本実施例の演算手法(提案法)によるものである。また、それぞれの二乗誤差で必要な基本関数の個数と演算コストとの関係を図9の表に示した。なお、今回使用したデータ数は、N=307200である。ここでは各基本関数の入力変数はランダムに選択されるため、同一データを用いて5回試行している。図8では、それぞれの試行における二乗誤差の減少を区別できるように示した。一方、図9に示した表は、5回の試行の平均を示す。
【0068】
図8のグラフにより、提案法の方が、少ない基本関数で精度の高い、すなわち二乗誤差の小さい出力結果を算出できることが分かる。これは、提案法が各基本関数においてより多くの情報を利用しているためである。
また、図9の表により、同じ演算精度(二乗誤差)を達成するために必要な基本関数の個数は、提案法の方が少ないことが分かる。例えば二乗誤差が0.75×109 を切るためには、従来法では平均10.2個の基本関数が必要だが、提案法では平均5.2個で足りる。このとき、基本関数の出力値計算コスト(加算数・乗算数)について注目しても提案法が優れている。この事実は、提案法では、基本関数一つあたりの演算量は多少増加するが、基本関数の個数を減らすことで全体での演算量を減少させることができることを意味する。
【0069】
上記▲1▼〜▲3▼の改良により、例えば80ナノ秒/画素といったリアルタイム性の高い出力が要求される場合であっても、演算量を極力削減することができ、精度を落とすことなく、画像評価の応答性を向上させることができる。
また、本実施例では、評価画像の画素の特徴量に基づき、特徴画素を記憶し(図6中のS220)、この特徴画素で形成されるある程度の大きさの領域を含む矩形領域を決定する(S240)。これによって、顔領域を抽出するときに顔の輪郭部分が適切に抽出されることになる。また、顔領域以外のノイズ部分をカットすることができる。
【0070】
さらに、抽出領域としての矩形領域は、抽出指示データの形式で指示される。
抽出指示データは、例えば、評価画像中の抽出画素を「1」、それ以外の画素を「0」とした2値データとすることが考えられる。本実施例では、このような抽出指示データに基づき、抽出領域以外の領域にマスクをかけた結果画像を出力しているが、このような抽出指示データを直接出力して、外部装置で評価画像に対する情報処理を行うようにしてもよい。このような抽出指示データを生成することで、評価画像の抽出領域を外部の装置においても簡単に把握できる。
【0071】
なお、本実施例の画像処理装置1において、モデル化ユニット10の教師画像取得ブロック11が「教師画像取得手段」に相当し、学習画像取得ブロック12が「学習画像取得手段」に相当し、モデル生成ブロック13が「モデル生成手段」に相当する。そして、図4に示したモデル生成処理がモデル生成手段としての処理に相当する。また、抽出ユニット20の評価画像取得ブロック21が「評価画像取得手段」に相当し、特徴量算出ブロック22及び抽出指示データ生成ブロック23が「領域決定手段」に相当する。そして、図6中のS200〜S250が領域決定手段としての処理に相当する。
【0072】
以上、本発明はこのような実施例に何等限定されるものではなく、本発明の主旨を逸脱しない範囲において種々なる形態で実施し得る。
(い)上記実施例では、モデル生成処理において、二乗誤差が最小二乗誤差を下回ると、その時点での部分多項式の出力を、画素評価モデルの出力としていた。これに対して、二乗誤差がある基準を満たしたときにはじめて、部分多項式の出力を、画素評価モデルの出力とすることもできる。具体的には、ある基準を満たしたときに、図4中のS150と同様に、係数を出力する。
【0073】
このとき、上記実施例と同様に、S170にて終了条件が成立するまで、S100からの処理を繰り返して、最終的な画素評価モデルを生成するようにしてもよい。また、上述したある基準を二乗誤差が満たすこと自体を終了条件にしてもよい。
【0074】
(ろ)抽出ユニット20では、画素評価モデルにて算出された評価画像の画素毎の特徴量に基づいて抽出領域を決定する。したがって、抽出対象となり得る領域とそれ以外の領域とで特徴量が大きく異なるほど、抽出対象として適切な領域を決定できる。したがって、学習画像取得ブロック12及び評価画像取得ブロック21にて、適切な画像変換処理を行うようにしてもよい。例えば、フィルタ処理などを行うという具合である。このようにすればさらに、特徴画素を適切に決定することができ、抽出領域をより適切に決定することができる。
【0075】
(は)上記実施例では、特徴画素からなる領域を含む矩形領域を抽出領域としていたが、特徴画素からなる領域そのものを抽出領域としてもよい。
(に)上記実施例では、学習画像と教師画像との対応関係に基づいて部分多項式を生成する。このとき、全ての画素の対応関係を用いて、モデル生成を行ってもよいが、実際には、学習画像と教師画像との画素単位の対応関係には同一のものが多数存在する。
【0076】
したがって、精度面に支障のない範囲で、対応関係を間引いて用いることが考えられる。例えば画素毎の対応関係を4つおきに用いるという具合である。この場合、データ数は1/4になる。このように一律に間引いてよい理由は、抽出対象の領域がある程度の面積を有することを前提としている。これによって、画素評価モデル生成に要する時間をさらに短縮することができ、高速な応答性を確保できる。
【0077】
(ほ)上記実施例では、A,Bの2台のデジタルビデオカメラ40,50を用いて学習画像と評価画像を入力していたが、1台のデジタルビデオカメラを用い、評価画像だけを入力し、この評価画像を学習画像として利用してもよい。
【0078】
(と)上記実施例の式10に代えて、次の式12を基本関数としてもよい。
【図面の簡単な説明】
【図1】実施例の画像処理装置の構成を示す機能ブロック図である。
【図2】(a)は評価画像を例示する説明図であり、(b)は評価画像に対する結果画像を例示する説明図である。
【図3】(a)は教師画像を例示する説明図であり、(b)は学習画像を例示する説明図である。
【図4】モデル化ユニットにおけるモデル生成処理を示すフローチャートである。
【図5】モデル化の手順を模式的に示す説明図である。
【図6】抽出ユニットにおける抽出処理を示すフローチャートである。
【図7】画像処理に必要な部分多項式を示す説明図である。
【図8】基本関数の個数と二乗誤差との関係を示す説明図である。
【図9】基本関数の個数と演算コストとの関係を示す説明図である。
【図10】ニューラルネットワークを模式的に示す説明図である。
【図11】従来のGMDH演算手法を模式的に示す説明図である。
【符号の説明】
1…画像処理装置
10…モデル化ユニット
11…教師画像取得ブロック
12…学習画像取得ブロック
13…モデル生成ブロック
20…抽出ユニット
21…評価画像取得ブロック
22…特徴量算出ブロック
23…抽出指示データ生成ブロック
24…結果画像出力ブロック
30…メモリ装置
40,50…デジタルビデオカメラ
60…モニタ
Claims (4)
- 対象物の特定部分を含む任意の評価対象と、該特定部分と色の特徴が同じ基準被写体とを同様の撮影条件で撮影する撮影手段と、
前記撮影手段を介して前記評価対象を含む評価画像を取得する評価画像取得手段と、
前記撮影手段を介して前記基準被写体を含む学習画像を取得する学習画像取得手段と、
前記学習画像中の各画素が前記基準被写体の撮影領域としての特徴領域の画素であるか否かを2値データによって示す教師画像を取得する教師画像取得手段と、
前記学習画像取得手段にて取得される学習画像から任意に選択された選択画素における複数の画素値を入力値とし、前記教師画像取得手段にて取得される教師画像中の各画素のうち、前記選択画素に対応する画素における2値データによって規定される第1特徴量を出力値とする画素評価モデルを、予め設定された基本関数を用いて該基本関数の係数を決定することにより生成するモデル生成手段と、
前記モデル生成手段にて生成された画素評価モデルに、前記評価画像取得手段にて取得された評価画像中の各画素における前記複数の画素値を入力することにより、該評価画像中の各画素に対応する出力値としての第2特徴量を算出し、当該算出した画素毎の第2特徴量を、前記第1特徴量に基づき予め決められた閾値を用いてそれぞれ2値化することにより、該評価画像における前記特定部分の撮影領域としての抽出対象領域を決定する領域決定手段とを備えること
を特徴とする画像領域抽出装置。 - 請求項1に記載の画像領域抽出装置において、
前記モデル生成手段は、複数の前記基本関数を階層的に組み合わせてなる多項式型推定モデルを用いて、該多項式推定モデルにおける各基本関数の係数を決定することにより、前記画素評価モデルを生成すること
を特徴とする画像領域抽出装置。 - 請求項2に記載の画像領域抽出装置において、
前記複数の基本関数のうち、一層目の基本関数を第一部分多項式、二層目の基本関数を第二部分多項式、三層目の基本関数を第三部分多項式、四層目の基本関数を第四部分多項式として、
前記多項式型推定モデルは、
前記評価画像取得手段にて取得された評価画像中の各画素における3つの画素値をそれぞれ入力変数x1,x2,x3として前記第一部分多項式に代入して出力x4を取得する第1のステップと、
前記第1のステップにて取得した出力x4と前記入力変数x1,x2とを前記第二部分多項式に代入して出力x5を取得する第2のステップと、
前記第2のステップにて取得した出力x5と前記入力変数x2,x3とを前記第三部分多項式に代入して出力x6を取得する第3のステップと、
前記第2のステップにて取得した出力x5と前記第3のステップにて取得した出力x6と前記入力変数x1とを前記第四部分多項式に代入して出力x7を取得する第4のステップと、
によって前記評価画像中の各画素に対応する第2特徴量を算出するモデルであること
を特徴とする画像領域抽出装置。 - 請求項3に記載の画像領域抽出装置において、
前記領域決定手段は、
前記教師画像中の各画素における2値データによって規定される第1特徴量を教師出力とし、前記学習画像取得手段にて取得される学習画像中の各画素における3つの画素値をそれぞれ前記入力変数x1,x2,x3として、
前記多項式型推定モデルの各ステップにて取得する出力x4,x5,x6,x7である中間出力と、前記教師出力との誤差を表す評価値に基づいて、第Nステップ(Nは2〜4の整数)における前記評価値が第N−1ステップにおける前記評価値を上回る場合、
前記評価画像取得手段にて取得された評価画像中の各画素における3つの画素値をそれぞれ入力変数x1,x2,x3として第N−1ステップにて取得した中間出力を、前記評価画像中の各画素に対応する第2特徴量として前記抽出対象領域を決定することを
特徴とする画像領域抽出装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001058497A JP4599730B2 (ja) | 2001-03-02 | 2001-03-02 | 画像領域抽出装置 |
US10/084,234 US7076098B2 (en) | 2001-03-02 | 2002-02-28 | Adaptive image processing unit for extracting characteristic portion from image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001058497A JP4599730B2 (ja) | 2001-03-02 | 2001-03-02 | 画像領域抽出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002259974A JP2002259974A (ja) | 2002-09-13 |
JP4599730B2 true JP4599730B2 (ja) | 2010-12-15 |
Family
ID=18918209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001058497A Expired - Fee Related JP4599730B2 (ja) | 2001-03-02 | 2001-03-02 | 画像領域抽出装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7076098B2 (ja) |
JP (1) | JP4599730B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299560A (zh) * | 2018-10-09 | 2019-02-01 | 西安交通大学 | 一种基于gmdh算法的跨临界co2系统最优排气压力特征变量的确定方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7961955B1 (en) | 2008-01-28 | 2011-06-14 | Thomas Cecil Minter | Adaptive bayes feature extraction |
US9047504B1 (en) * | 2013-08-19 | 2015-06-02 | Amazon Technologies, Inc. | Combined cues for face detection in computing devices |
WO2016157499A1 (ja) * | 2015-04-02 | 2016-10-06 | 株式会社日立製作所 | 画像処理装置、物体検知装置、画像処理方法 |
CN109490926B (zh) * | 2018-09-28 | 2021-01-26 | 浙江大学 | 一种基于双目相机和gnss的路径规划方法 |
CN112419711B8 (zh) * | 2020-10-22 | 2022-06-14 | 桂林电子科技大学 | 基于改进gmdh算法的封闭式停车场停车需求预测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05181972A (ja) * | 1991-12-27 | 1993-07-23 | Nec Corp | パタン分類方法及び装置 |
JP2000194865A (ja) * | 1998-12-25 | 2000-07-14 | Nec Corp | 領域の属性モデルを用いる領域分割方法及び装置 |
JP2001236341A (ja) * | 2000-02-23 | 2001-08-31 | Denso Corp | 推定モデル構築装置、情報処理装置及び記録媒体 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02215276A (ja) | 1989-02-16 | 1990-08-28 | Matsushita Electric Ind Co Ltd | 画像領域分割装置 |
JPH06233761A (ja) | 1993-02-09 | 1994-08-23 | Hitachi Medical Corp | 医用画像診断装置 |
JPH07160881A (ja) | 1993-12-07 | 1995-06-23 | Fujitsu Ltd | 環境認識装置 |
US5774129A (en) | 1995-06-07 | 1998-06-30 | Massachusetts Institute Of Technology | Image analysis and synthesis networks using shape and texture information |
US6148099A (en) * | 1997-07-03 | 2000-11-14 | Neopath, Inc. | Method and apparatus for incremental concurrent learning in automatic semiconductor wafer and liquid crystal display defect classification |
JP2985879B1 (ja) | 1998-06-30 | 1999-12-06 | オムロン株式会社 | 人物画像処理装置 |
JP2000194859A (ja) | 1998-12-25 | 2000-07-14 | Canon Inc | 被写体形状抽出方法、被写体形状抽出装置及び記録媒体 |
KR100343223B1 (ko) * | 1999-12-07 | 2002-07-10 | 윤종용 | 화자 위치 검출 장치 및 그 방법 |
-
2001
- 2001-03-02 JP JP2001058497A patent/JP4599730B2/ja not_active Expired - Fee Related
-
2002
- 2002-02-28 US US10/084,234 patent/US7076098B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05181972A (ja) * | 1991-12-27 | 1993-07-23 | Nec Corp | パタン分類方法及び装置 |
JP2000194865A (ja) * | 1998-12-25 | 2000-07-14 | Nec Corp | 領域の属性モデルを用いる領域分割方法及び装置 |
JP2001236341A (ja) * | 2000-02-23 | 2001-08-31 | Denso Corp | 推定モデル構築装置、情報処理装置及び記録媒体 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299560A (zh) * | 2018-10-09 | 2019-02-01 | 西安交通大学 | 一种基于gmdh算法的跨临界co2系统最优排气压力特征变量的确定方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2002259974A (ja) | 2002-09-13 |
US7076098B2 (en) | 2006-07-11 |
US20020122592A1 (en) | 2002-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
He et al. | Conditional sequential modulation for efficient global image retouching | |
RU2469403C2 (ru) | Устройство, способ и программа обработки изображения | |
US9619749B2 (en) | Neural network and method of neural network training | |
CN112614077B (zh) | 一种基于生成对抗网络的非监督低照度图像增强方法 | |
US9390373B2 (en) | Neural network and method of neural network training | |
US6807300B1 (en) | Noise reduction method utilizing color information, apparatus, and program for digital image processing | |
CN109064423B (zh) | 一种基于非对称循环生成对抗损失的智能修图方法 | |
TWI655587B (zh) | 神經網路及神經網路訓練的方法 | |
CN110148088A (zh) | 图像处理方法、图像去雨方法、装置、终端及介质 | |
JP4599730B2 (ja) | 画像領域抽出装置 | |
CN115424088A (zh) | 图像处理模型训练方法以及装置 | |
Shutova et al. | NTIRE 2023 challenge on night photography rendering | |
Punnappurath et al. | A little bit more: Bitplane-wise bit-depth recovery | |
JP2009151371A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP4460368B2 (ja) | 画像補正装置および方法,ならびに画像補正プログラム | |
JPH05282456A (ja) | パターン認識装置 | |
CN100474341C (zh) | 自适应闭群漫画生成 | |
US20210374916A1 (en) | Storage medium storing program, image processing apparatus, and training method of machine learning model | |
JP4202692B2 (ja) | 画像処理方法および装置 | |
Atsawaraungsuk et al. | Evolutionary circular-ELM for the reduced-reference assessment of perceived image quality | |
JP4750758B2 (ja) | 注目領域抽出方法、注目領域抽出装置、コンピュータプログラム、及び、記録媒体 | |
JP7148078B2 (ja) | 属性推定装置、属性推定方法、属性推定器学習装置、及びプログラム | |
WO2022194345A1 (en) | Modular and learnable image signal processor | |
JP3059631B2 (ja) | 画像補正方法 | |
Singla et al. | Applications of reinforcement learning to image enhancement: A survey |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070517 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100209 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100317 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100525 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100716 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100831 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100913 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131008 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131008 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |