JP2009134383A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2009134383A
JP2009134383A JP2007308265A JP2007308265A JP2009134383A JP 2009134383 A JP2009134383 A JP 2009134383A JP 2007308265 A JP2007308265 A JP 2007308265A JP 2007308265 A JP2007308265 A JP 2007308265A JP 2009134383 A JP2009134383 A JP 2009134383A
Authority
JP
Japan
Prior art keywords
subject
unit
feature amount
identification
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007308265A
Other languages
English (en)
Other versions
JP2009134383A5 (ja
Inventor
Hiroaki Ono
博明 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007308265A priority Critical patent/JP2009134383A/ja
Priority to US12/272,028 priority patent/US8238652B2/en
Publication of JP2009134383A publication Critical patent/JP2009134383A/ja
Publication of JP2009134383A5 publication Critical patent/JP2009134383A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data

Abstract

【課題】空間的な特徴を持たない被写体を画素単位で識別する。
【解決手段】特徴量抽出部41は、可視光および非可視光の範囲において複数の色を含む画像より画素毎に、基準色と各色との比率を要素とする特徴量を画素毎に抽出し、識別部42に供給する。識別部42は、抽出された特徴量を利用して画素毎に被写体を識別し、識別結果を識別結果保持部43に記憶させる。そして、全ての画素について識別結果が記憶されると、識別結果保持部43は、全画素について識別結果を出力する。本発明は、撮像装置に適用することができる。
【選択図】図2

Description

本発明は、画像処理装置および方法、並びにプログラムに関し、特に、画像上の局所領域毎に被写体を認識できるようにした画像処理装置および方法、並びにプログラムに関する。
近年、被写体認識機能を搭載したデジタルカメラ、ビデオカメラ、セキュリティカメラなどが発売されている。被写体認識の利用用途は様々で、被写体に最適な露出、ホワイトバランス、AF(Auto Focus)の制御、顔の検出、被写体の追尾などに使用されている。
顔認識としては、空間的な輝度の勾配などを利用して顔の認識をする方法がある。この方法は、人間の顔の空間的な特徴を利用することで顔の認識を行っている。
肌色認識としては、RGB(Red Green Blue)色空間で表現されていた色情報をHSV(Hue,Saturation,Brightness)色空間の色情報に変換して表現することにより、肌色を認識する方法がある。HSV表色系は色相Hと明度Vが独立しているため、写真の明るさに影響されることなく色合いを調べることができる。このため、HSV色空間の色相Hのある範囲を指定することで、明るさなどに影響されることなく肌色の指定が可能になる。
また、RGBの3原色に輝度Yeを加えた4色の分光感度を有する撮像素子で得られた情報から、被写体の拡張色度点を算出し、既知の被写体の拡張色度点との距離を比較することで被写体識別を行う方法が提案されている(特許文献1参照)。RGBの3原色の色信号に基づいて算出される色度点は2次元の値であるのに対し、RGBおよびYeの4色による拡張色度点は3次元の値となり、被写体識別精度が向上するとされている。
特開2003−030646号公報
しかしながら、上述したように、輝度やRGBの3原色により被写体を認識するようにした場合、輝度またはRGBの値が似たような被写体に対しては、その後、RGB色空間をHSV空間に変換するように特徴量を表現する空間を変換したり、特徴量の種類を変更して抽出するようにしても、可視光線の領域で得られる情報には限りがあり被写体の識別が困難な状況を解消できないことがあった。
また、従来の空間的な特徴量を利用した認識方法では、顔のように被写体が空間的な特徴を持っている被写体である場合に限っては、認識が可能であるが、空間的な特徴を持たない、例えば、空や樹木の葉など形が多様であり、特定の空間的な特徴を持たない被写体の場合、必ずしも認識には利用することができないことがあった。
さらに、RGBの3原色以外に他の可視光の色を追加することで、特徴量を表現する空間を拡張し、認識精度を向上させる場合、可視光の範囲で似たような分光特性の被写体同士のとき、可視光の範囲で色をいくら追加しても識別は困難であることがあった。
本発明はこのような状況に鑑みてなされたものであり、特に、可視光に加えて非可視光を利用して画素毎に被写体を認識することにより、従来の可視光を利用した場合に比べて、より高い精度で被写体の識別を可能にし、また、画素毎に被写体を識別することで、空間的な特徴を持たない被写体の識別を可能にするものである。
本発明の一側面の画像処理装置は、可視光および非可視光の範囲において複数の色を含む画像より、基準色と各色との比率を要素とする特徴量を局所領域毎に抽出する特徴量抽出手段と、前記特徴量抽出手段で抽出された特徴量を利用して局所領域毎に被写体を識別する識別手段とを含む。
前記局所領域は、画素単位の領域とすることができる。
前記非可視光には、紫外光および赤外光を含ませるようにすることができる。
前記基準色には、可視光の範囲の色を含ませるようにすることができる。
前記可視光および非可視光の範囲において複数の色からなる画像を撮像する撮像手段をさらに含ませるようにすることができる。
前記特徴量抽出手段には、前記局所領域毎に基準色と各色との比率を要素とする特徴ベクトルを特徴量として抽出させるようにすることができる。
前記特徴量抽出手段には、前記局所領域毎に基準色と各色との比率を要素とする特徴量を抽出させるのに加えて、局所領域毎に空間的な特徴量を抽出させ、前記識別手段には、前記特徴量抽出手段で抽出された基準色と各色との比率を要素とする特徴量を利用して局所領域毎に被写体を識別させるのに加えて、前記特徴量抽出手段で抽出された空間的な特徴量を利用して被写体を識別させるようにすることができる。
本発明の一側面の画像処理方法は、可視光および非可視光の範囲において複数の色を含む画像より、基準色と各色との比率を要素とする特徴量を局所領域毎に抽出する特徴量抽出ステップと、前記特徴量抽出ステップの処理で抽出された特徴量を利用して前記局所領域毎に被写体を識別する識別ステップとを含む。
本発明の一側面のプログラムは、可視光および非可視光の範囲において複数の色を含む画像より、基準色と各色との比率を要素とする特徴量を局所領域毎に抽出する特徴量抽出ステップと、前記特徴量抽出ステップの処理で抽出された特徴量を利用して前記局所領域毎に被写体を識別する識別ステップとを含む処理をコンピュータに実行させる。
本発明のプログラム格納媒体に格納されたプログラムは、請求項9に記載のプログラムが格納されている。
本発明の一側面の画像処理装置および方法、並びにプログラムにおいては、可視光および非可視光の範囲において複数の色を含む画像より、基準色と各色との比率を要素とする特徴量が局所領域毎に抽出され、抽出された特徴量が利用されて局所領域毎に被写体が識別される。
本発明の画像処理装置は、独立した装置であっても良いし、画像処理を行うブロックであっても良い。
本発明の一側面によれば、特に、画素毎に高い精度で被写体の識別を可能にすることで、空間的な特徴を持たない被写体を識別することが可能となる。
図1は、本発明を適用した一実施の形態の構成を示す撮像装置である。
図1の撮像装置1は、撮像部11により画像を撮像し、撮像した画像について、画像処理部12が画素単位で被写体を認識し、認識した被写体に応じて、ホワイトバランス、色再現、ガンマ補正、および色差輪郭補正を行った上で撮像した画像を表示部14に表示する。また、撮像部11は、CCD(Charge Coupled Devices)またはCMOS(Complementary Metal Oxide Semiconductor)などで可視光および非可視光を含む光を撮像可能な撮像素子、および、光学ブロックなどから構成されている。撮像部11は、制御部13により光学ブロックや撮像素子が撮像している被写体に最適となるように、露出、または、フォーカスなどが調整される。撮像部11は、制御部13により調整された状態で、画像を撮像し、撮像した画像を画像処理部12に供給する。
画像処理部12は、撮像部11より供給されてきた画像に処理を加えて表示部14に表示する。画像処理部12のデモザイク処理部21は、撮像部11より供給されてきた画像のデータのうち、画素毎に撮像された全色を揃えることにより、デモザイク処理し、処理結果を被写体識別処理部26に供給する。また、デモザイク処理部21は、デモザイク処理した処理結果のうち、RGBの3原色のデータをホワイトバランス処理部22に供給する。
ホワイトバランス処理部22は、被写体識別処理部26より供給される画素単位の被写体の識別結果に基づいて、デモザイク処理部21より供給されてくるRGBのデータが、色温度が異なる光源状態でも、白色を正確に白く映し出すようにホワイトバランスを調整し、調整したRGBのデータをリニアマトリクス処理部23に供給する。
リニアマトリクス処理部23は、被写体識別処理部26より供給される画素単位の被写体の識別結果に基づいて、入力されたRGBのデータを、例えば、3×3のマトリクス状の変換行列で変換し、変換結果となるリニアマトリクス処理されたRGBのデータをガンマ処理部24に供給する。
ガンマ処理部24は、被写体識別処理部26より供給される画素単位の被写体の識別結果に基づいて、リニアマトリクス処理されたRGBのデータが所望のガンマ特性となるように入出力特性を変換し、変換結果となるRGBのデータを色差輪郭補正処理部25に供給する。
色差輪郭補正処理部25は、被写体識別処理部26より供給される画素単位の被写体の識別結果に基づいて、ガンマ処理されたRGBのデータに対し、輝度、および色差変換を行い、色差については強調などの補正、輝度については高周波の強調などによる輪郭補正を行い、補正結果をLCD(Liquid Crystal Display)などからなる表示部14に出力して表示させる。
撮像部11から色差輪郭補正処理部25までのデータ処理の流れは、一般的なカメラ内で行われている処理であるが、撮像部11とデモザイク処理部21で非可視光を扱っているところが通常と異なる。また、被写体識別処理部26は、デモザイク処理部21により画素毎に可視光および非可視光の複数の色が揃ったデータを利用して、被写体を識別し、識別結果をホワイトバランス処理部22、リニアマトリクス処理部23、ガンマ処理部24、色差輪郭補正処理部25、および制御部13に供給する。制御部13は、撮像部11を構成している撮像素子、および光学ブロックを制御する。より具体的には、制御部13は、露出やフォーカスを制御する。また、制御部13は、被写体識別処理部26より供給される画素単位の被写体の識別結果に基づいて、被写体に最適な露出およびフォーカスを制御する。
すなわち、制御部13は、例えば、被写体として人を検出したら人に合焦させたり、被写体が白飛びしないように露出を制御する。また、被写体識別処理部26より出力される被写体の識別結果は、ホワイトバランス処理部22およびリニアマトリックス処理部23において、認識した被写体に最適な色再現、例えば、人肌を検出したら好ましい肌色になるような処理や、ガンマ処理部24において、検出された被写体が黒潰れや白とびしないような最適なガンマ補正、および、色差輪郭補正処理部25において、検出された被写体に最適な色差補正や輪郭補正処理を行うのに利用される。
以上から、図1のような構成において、通常のRGB画像も得ることができ、かつ、可視光および非可視光を利用した被写体識別を行うことで被写体に最適な信号処理を行うことが可能となる。
次に、図2を参照して、被写体識別処理部26の構成例について説明する。
特徴量抽出部41は、図1のデモザイク処理部21の出力の画素毎のデータを順次取得し、特徴量を抽出し、抽出した結果を識別部42に供給する。識別部42は、特徴ベクトル保持部44に予め被写体毎に分類されて記憶されている特徴量である特徴ベクトルを読み出し、特徴量抽出部41で抽出された特徴量とを、例えば、特徴ベクトル空間における距離の近さなどを類似度として利用して比較し、最も類似度の高いものを、その画素の被写体として識別する。そして、特徴量抽出部41は、その識別結果を、画素単位で識別結果保持部43に保持させる。識別結果保持部43は、全画素の被写体識別結果を保持し、全画素について被写体の識別処理が終了すると、識別結果保持部43に保持されている画素単位での被写体の識別結果を、ホワイトバランス処理部22、リニアマトリクス処理部23、ガンマ処理部24、色差輪郭補正処理部25、および制御部13にそれぞれ供給する。
次に、図3のフローチャートを参照して、撮像処理について説明する。
ステップS1において、撮像部11は、図示せぬ撮像を指示する操作部などが使用者により操作されるなどして、制御部13により制御されて、画像の撮像が指示されたか否かを判定し、指示されたと判定されるまで、同様の処理を繰り返す。ステップS1において、例えば、画像の撮像が指示されたと判定された場合、ステップS2において、制御部13は、後述する被写体識別処理部26の識別結果に基づいて、撮像部11の光学ブロックおよび撮像素子を制御して、適正な露出およびフォーカスを実現し、適正な撮像状態に設定する。そして、撮像部11は、制御部13により適正な撮像状態に制御された状態で、可視光および非可視光を含む帯域の光により画像を撮像し、撮像した画像における画素単位のデータを画像処理部12に供給する。この画素単位のデータは、RGBの3原色の情報に加えて、紫外光UV、および赤外光IRを含めた画素値の情報からなるものである。尚、最初の処理においては、制御部13には、被写体識別処理部26より画素単位の被写体の識別結果が供給されてきていないので、制御部13は、所定の設定値に基づいて、撮像部11の露出やフォーカスを調整する。また、以下、RGBの3原色の情報、および、紫外光UV、および赤外光IRについては、単にR,G,B,UV,IRと称するものとする。
ステップS3において、デモザイク処理部21は、撮像部11より供給されてきた画像のデータのうち、画素毎に撮像された全色を揃えることにより、デモザイク処理し、処理結果を被写体識別処理部26に供給する。また、デモザイク処理部21は、デモザイク処理した処理結果のうち、RGBの3原色のデータをホワイトバランス処理部22に供給する。
ステップS4において、被写体識別処理部26は、被写体識別処理を実行し、画素単位で被写体を識別し、識別結果をホワイトバランス処理部22、リニアマトリクス処理部23、ガンマ処理部24、色差輪郭補正処理部25、および制御部13に供給する。尚、被写体識別処理については、詳細を後述する。
ステップS5において、ホワイトバランス処理部22、リニアマトリクス処理部23、ガンマ処理部24、色差輪郭補正処理部25、および制御部13は、それぞれ被写体識別処理部26より供給される画素単位の被写体の識別結果に基づいて、最適な状態に設定する。
ステップS6において、ホワイトバランス処理部22は、デモザイク処理部21より供給されてくるRGBのデータが、色温度が異なる光源状態でも、白色を正確に白く映し出すようにホワイトバランスを調整し、調整済みのRGBのデータをリニアマトリクス処理部23に供給する。
ステップS7において、リニアマトリクス処理部23は、入力されたRGBのデータを、マトリクス状の変換行列で変換し、処理結果となるRGBのデータをガンマ処理部24に供給する。
ステップS8において、ガンマ処理部24は、リニアマトリックス処理されたRGBのデータが所望のガンマ特性となるように入出力特性を変換し、変換結果となるRGBのデータを色差輪郭補正処理部25に供給する。
ステップS9において、色差輪郭補正処理部25は、ガンマ処理されたRGBのデータに対し、色差については強調などの補正、輝度については高周波の強調などによる輪郭補正を行い、補正結果を表示部14に出力して表示させる。
以上の処理により、撮像された画素単位の被写体の識別結果に基づいて、最適な状態で撮像された画像が表示される。尚、この例においては、撮像された画像が、表示部14に表示される例について説明してきたが、当然のことながら、表示されるだけでなく、図示せぬ記録媒体に記録させるようにしてもよいし、図示せぬネットワークを介して、配信するなどしてもよい。
次に、図4のフローチャートを参照して、図2の被写体識別処理部26による被写体識別処理について説明する。
ステップS21において、特徴量抽出部41は、供給されてきた画像のうち、未処理の画素のいずれか1画素を処理対象画素に設定する。
ステップS22において、特徴量抽出部41は、処理対象画素における3原色R,G,Bおよび紫外光UV,赤外光IRの情報を取得する。
ステップS23において、特徴量抽出部41は、処理対象画素の特徴量として、例えば、以下の式(1)で示される特徴ベクトルFVを抽出し、識別部42に供給する。
Figure 2009134383
・・・(1)
式(1)において、特徴ベクトルFVは、要素ν1乃至ν4から構成されるベクトルであり、要素ν1乃至ν4は、IR,R,B,UVをそれぞれGにより正規化したものにより構成される。この特徴ベクトルは、式(1)で示されるように構成されることにより、そもそもR,G,B,IR,UVの5次元からなる情報を1次元削減して4次元とすることができるので、扱う情報量を低減させることが可能になる。また、色の情報は、通常露出が変われば画素値も比例して変化するが色の比率は変化しないので、式(1)のように特徴ベクトルが構成されることにより、露出に影響されない特徴量を構成することが可能となる。
ステップS24において、識別部42は、特徴量抽出部41より供給されてきた特徴量である特徴ベクトルと、特徴ベクトル保持部44に記憶されている様々な被写体毎に対応付けて記憶されている全ての特徴ベクトルとの類似度として、例えば、ベクトル空間の距離を計算する。
すなわち、例えば、被写体が樹葉であるような場合、樹葉は、クロロフィル(葉緑素)を含み、光合成を行うため、図5で示されるように、波長が450 nm乃至680nmの可視光を吸収することがわかっている。尚、図5においては、横軸は波長の長さを、縦軸は光の吸収量をそれぞれ表している。また、図5においては、実線と点線との2線が示されているが、2種類のクロロフィルにおける吸収量を表している。
しかしながら、さらに、樹葉は、熱に弱いクロロフィルを保護するため、図6で示されるように、熱を伝える赤外光IRを構成する750nm乃至1300nm付近の波長については、高い反射率で反射していることが知られている。尚、図6においては、横軸は、波長の長さを、縦軸は、反射率をそれぞれ表している。この680nm乃至750nmにおける急激な反射率が変化する範囲はレッドエッジと呼ばれており、可視光と非可視光とにより得られる特徴的な情報である。ここで、図6において、波長a乃至bの範囲が、Bの帯域であり、波長b乃至cが、Gの帯域であり、波長c乃至dの範囲が、Rの帯域であり、波長d乃至eの範囲において、レッドエッジが発生する帯域である。
このように葉には、可視光においては、Gの帯域の光を反射し、非可視光において、レッドエッジの発生する帯域の光を強く反射するため、この特性に対応した特徴ベクトルが構成される。したがって、処理対象画素の被写体が樹葉である場合、処理対象画素の特徴ベクトルは、上述したような特徴を備えた特徴ベクトルとの距離が近いことになる。このため、樹葉は、人間の目には緑色に見えるが、これは、可視光において、R,Bに比べ相対的にGの帯域の光を反射するためである。
同様にして、例えば、大気中においては、大気分子によりレイリー散乱が発生し、波長の短い光ほど散乱する。このため、赤外光は、被写体が青空であるようなとき、散乱されないため暗く写るが、雲などには氷の粒が存在し、赤外光を散乱させるため、明るく写る。したがって、被写体が青空であれば、特徴ベクトルは、赤外光IRが小さく、雲などであれば赤外光IRが大きくなる。
さらに、例えば、被写体が人間の皮膚であるような場合、皮膚を構成するメラノサイト(色素細胞)により、紫外光UVを吸収して、いわゆる日焼けをすることが知られている。このため、人間の皮膚は、紫外光UVを吸収し易い。したがって、被写体が人間の皮膚である場合、特徴ベクトルにおいて、紫外光UVの比率は小さい。
特徴ベクトル保持部44には、被写体に対応して複数の特徴ベクトルが登録されており、識別部42は、抽出された特徴ベクトルと、これらの記憶されている特徴ベクトル群との距離を求め、例えば、被写体が青空として登録されている複数の特徴ベクトル群との距離の平均を、抽出された特徴ベクトルと青空の特徴ベクトルとの類似度として求め、被写体が樹葉として登録されている複数の特徴ベクトル群との距離の平均を、抽出された特徴ベクトルと葉の特徴ベクトルとの類似度として求め、被写体が人間の皮膚として登録されている複数の特徴ベクトル群との距離の平均を、抽出された特徴ベクトルと皮膚との特徴ベクトルとの類似度として求める。尚、以上においては、同一の被写体として登録されている特徴ベクトル群との距離の平均を類似度とする例について説明してきたが、処理対象画素と被写体となる画素との類似度が定義できるものであればよく、その他の類似度であってもよい。
ステップS25において、識別部42は、求められた所定の被写体として登録されている特徴ベクトルと、抽出された特徴ベクトルとの類似度が最も高く、最も類似していると考えられる被写体を、処理対象画素の被写体として識別する。すなわち、識別部42は、例えば、抽出された特徴ベクトルと青空の特徴ベクトルとの類似度、抽出された特徴ベクトルと樹葉の特徴ベクトルとの類似度、および抽出された特徴ベクトルと皮膚との特徴ベクトルとの類似度とを比較し、類似度の最も高い被写体を、処理対象画素の被写体として識別する。
ステップS26において、識別部42は、処理対象画素と対応付けて、識別結果となる被写体の情報を識別結果保持部43に保持させる。
ステップS27において、特徴量抽出部41は、未処理の画素が存在するか否かを判定し、未処理の画素があると判定された場合、処理は、ステップS21に戻る。すなわち、ステップS27において、未処理の画素がないと判定されるまで、ステップS21乃至S27の処理が繰り返される。そして、ステップS27において、未処理の画素が存在しない、すなわち、供給されてきた画像の全ての画素について被写体が識別された場合、ステップS28において、識別結果保持部43は、保持されている全ての画素の被写体の情報を、識別結果としてホワイトバランス処理部22、リニアマトリクス処理部23、ガンマ処理部24、色差輪郭補正処理部25、および制御部13に供給する。
以上の処理により、被写体識別において可視光に加えて非可視光利用を利用することで、その識別精度を向上させることが可能となる。
すなわち、例えば、可視光としてR,G,Bを考えた場合、撮像した結果のR,G,Bの画素値が似たような値になる被写体同士については、その後どのような特徴空間に落とし込んでも、識別は困難である。しかしながら、上述の識別方法においては、非可視光を利用することで、可視光では分光反射特性が同様の被写体であっても、非可視光領域で反射特性が異なるものについては、識別することが可能となる。すなわち、例えば、可視光による認識において、肌色系の壁の前で手をかざしても、手の肌色と背景の壁の色の識別が困難であるが、非可視光における人肌の分光特性(紫外光UVを吸収し赤外光IRを発する)と壁の分光特性の違いを利用することで、背景の壁と人肌の識別が、可視光において同一の配色であっても可能になる。なお、以上においては、非可視光は、紫外光および赤外光であるものとする。
また、以上の処理により、画素単位で被写体を識別することが可能となる。すなわち、形が様々な被写体、例えば、空、人肌、樹葉などにおいても識別が可能となる。このように画素単位で被写体を識別することができるので、その被写体の画像中の位置や、画像中の占有率も算出することができ、シーン解析などに応用することも可能となる。
さらに、画素毎の被写体識別にさらに空間的な認識を組み合わせることで、さらに被写体の認識精度を向上させるようにしてもよい。すなわち、例えば、空間的な特徴を利用することにより、例えば、目鼻口などの空間的な配置から顔画像が認識された上で、処理対象画素の特徴ベクトルと、人肌の特徴ベクトルとだけを比較するようにすることで、認識精度を向上させると共に、処理速度を向上させることが可能となる。
また、以上においては、撮像を可視光のR,G,Bの3色、並びに、非可視光の紫外光UV、および赤外光IRの2色としたが、可視光および非可視光の色数はこれと異なってもよく、さらに、多くの色を選ぶことにより認識精度を向上させることも可能となる。
尚、以上においては、予め設定された被写体毎に特徴ベクトルを保持させることにより、識別部42が、抽出された特徴ベクトルとを比較して、類似度の高い被写体を処理対象画素の被写体を識別する例について説明してきたが、識別部42を、サンプル画像に基づいた機械学習により生成される、非線形な識別器とするようにしてもよい。その際、特徴ベクトル保持部44に代えて、識別器に必要とされるパラメータを保持させる保持部が設けられる。結果として、識別器により被写体が識別されるので、処理速度を向上させることが可能となる。また、パラメータのみを保持すればよく、被写体ごとに複数の特徴ベクトルを保持する必要がなくなるので、保持部の記憶容量を小さくすることが可能となる。識別器としては、例えば、MLP(多層パーセプトロン)、SVM(サポートベクターマシン)、または、アダブーストなどが考えられる。
ところで、上述したIR,R,G,B,UVは、以下の式(2)で表現される。
Figure 2009134383
・・・(2)
式(2)において、Lλは、光源の分光特性を表しており、Oλは、物体の分光反射特性を表しており、Cλは、撮像部11の分光特性を表している。
すなわち、光源の分光特性、物体の分光反射特性、カメラの分光特性を掛け合わせた特性の積分値が各色として観測される。
識別したい被写体の分光反射特性とカメラの分光特性については、撮影により変動することなく固定であるが、光源の分光特性はどの光源下で撮影したかにより変動する。このため、観測値が識別対象の被写体かどうかを識別するには、識別したい被写体の分光反射特性とカメラの分光特性とを予め調べる必要があり、これらと多種の光源の分光特性を色々組み合わせた理論値を算出し、観測値と比較することで識別が可能となる。
また、別手段で光源の種類や分光特性を推定することで、理論値を算出し、観測値と比較することで識別することも可能である。
さらに、色々な光源下で識別対象被写体を撮影し、得られた観測値を利用して識別用の特徴ベクトル群を生成してもよいし、得られた観測値を学習データとして機械学習により識別器を生成することで、識別の際に、光源の分光特性、物体の分光反射特性、カメラの分光特性を使用することなしに被写体識別をすることも可能である。
なお、被写体別に識別器を生成してもよいが、被写体のさらに光源別に識別器を生成してもよい。また、機械学習で生成した識別器による識別においては、光源の分光特性、物体の分光反射特性、カメラの分光特性から理論値を算出して識別するより、高速に識別が行えるというメリットがある。
ところで、以上においては、識別部42が、特徴量抽出部41より供給されてくる特徴ベクトルの全てについて、特徴ベクトル保持部44に保持されている、被写体毎に予め登録されている特徴ベクトルとの類似度を求め、最も類似度の高い特徴ベクトルに対応する被写体を処理対象画素の被写体として設定する例について説明してきたが、1個の識別部が全ての特徴ベクトル群との類似度を求めると、予め保持されている特徴ベクトルの数が膨大なものとなると処理に時間が掛かる恐れがある。そこで、被写体毎に類似度を演算する識別部を設けるようにして、最も大きな類似度を持つ被写体を選択するようにしても良い。
図7は、被写体毎に類似度を演算する識別部を設けるようにして、最も大きな類似度を持つ被写体を選択するようにした被写体識別処理部26の構成例を示している。尚、図7の被写体識別処理部26において、図2の被写体識別処理部26と同一の構成については、同一の符号を付すものとし、適宜、その説明は省略するものとする。
すなわち、図7において、図2の被写体識別処理部26と異なる点は、特徴量抽出部41、および識別部42に代えて被写体毎に特徴量抽出部61、識別部62−1乃至62−N、および選択部63が設けられている点である。
特徴量抽出部61は、特徴量抽出部41と基本的に同一の機能を備えており、抽出した特徴量を識別部62−1乃至62−Nに供給する。識別部62−1乃至62−Nは、それぞれN種類の被写体に対応して設けられており、例えば、識別部62−1が、抽出された特徴量と被写体1として青空を示す特徴ベクトルとの類似度を求め、識別部62−2が、抽出された特徴量と被写体2として樹葉を示す特徴ベクトルとの類似度を求め、識別部62−3が、抽出された特徴量と被写体3として人肌を示す特徴ベクトルとの類似度を求めるなどし、それぞれの類似度を選択部63に供給する。選択部63は、被写体1乃至Nのそれぞれに求められた、供給された特徴量と、抽出された特徴ベクトルとの類似度のうち、最も高いものを処理対象画素の被写体であるものとみなし、対応する情報を識別結果保持部43に記憶させる。
次に、図8のフローチャートを参照して、図7の被写体識別処理部26による被写体識別処理について説明する。尚、図8のフローチャートにおけるステップS41乃至S43、およびS50乃至S52の処理については、図4のフローチャートを参照して説明したステップS21乃至S23、およびS26乃至S28の処理と同様であるので、その説明は省略する。
ステップS43において、特徴量抽出部61は、処理対象画素の特徴量として、例えば、以下の式(1)で示される特徴ベクトルFVを抽出し、識別部62−1乃至62−Nに供給する。
ステップS44において、図示せぬカウンタpが1に初期化される。
ステップS45において、識別部62−pは、特徴量抽出部61より供給されてきた特徴量である特徴ベクトルと、特徴ベクトル保持部44に記憶されている被写体pに対応付けて記憶されている特徴ベクトルとの類似度として、例えば、ベクトル空間の距離を計算する。
ステップS46において、識別部62−pは、求められた被写体pとして登録されている特徴ベクトル群と、抽出された特徴ベクトルとの類似度を選択部63に供給する。
ステップS47において、カウンタpがN+1であるか否かが判定され、N+1ではない、すなわち、全ての識別部62−1乃至62−pが、被写体1乃至Nについて類似度を計算したか否かが判定され、N+1ではない、すなわち、全ての被写体について類似度が計算されていないと判定された場合、ステップS48において、カウンタpが1インクリメントされて、処理は、ステップS45に戻る。すなわち、ステップS47において、カウンタpがN+1であると判定されて、全ての識別部62−1乃至62−Nが、被写体1乃至Nについて類似度を計算したと判定した場合、処理は、ステップS49に進む。
ステップS49において、選択部63は、識別部62−1乃至62−Nより供給されてきた、処理対象画素の特徴ベクトルと、被写体1乃至Nの特徴ベクトル群とのそれぞれの類似度のうち、最も類似度が高い被写体を選択し、処理対象画素の被写体を識別する。
尚、以上の処理においては、ステップS45乃至S48の処理が繰り返されることにより、識別部62−1から順次識別部62−Nまでの識別部により、それぞれに対応する被写体1乃至Nとの類似度が求められる例について説明してきたが、フローチャートの記載の都合で順次処理される形式となっているが、実際は、識別部62−1乃至62−Nが、それぞれの被写体1乃至Nとの類似度を並列処理により求めることになる。結果として、処理対象画素の被写体の識別にかかる処理時間を短縮させることが可能となる。
以上においては、識別部62−1乃至62−Nの全てに対して同一の特徴量が供給されてくる例について説明してきたが、例えば、被写体毎に類似度を求めるのに最適な特徴量のみを使用して被写体との類似度を求めるようにしても良い。
図9は、被写体毎に類似度を求めるのに最適な特徴量のみを使用して被写体との類似度を求めるようにした被写体識別処理部26の構成例を示している。尚、図9の被写体識別処理部26において、図2または図7の被写体識別処理部26と同一の構成については、同一の符号を付すものとし、適宜、その説明は省略するものとする。
すなわち、図9において、図2または図7の被写体識別処理部26と異なる点は、特徴量抽出部41、および識別部42に代えて被写体毎に特徴量抽出部81−1乃至81−N、および識別部82−1乃至82−Nが設けられている点である。
特徴量抽出部81−1乃至81−Nは、処理対象画素の情報より、類似度を求めるのに最適な特徴量を、それぞれ識別部82−1乃至82−Nに供給する。すなわち、例えば、被写体1が人肌である場合、IR,R,G,B,UVの情報をHSV色空間の情報に変換して、HSVの情報からなる特徴ベクトルを生成して、識別部82−1に供給する。識別部82−1は、このHSVの情報からなる特徴ベクトルと、予め特徴ベクトル保持部44に保持されている情報から得られるHSVの特徴ベクトルとに基づいて、類似度を計算する。
また、例えば、被写体2が樹葉である場合、IR,R,G,B,UVの情報のうち、その一部のみから特徴ベクトルを生成して、識別部82−2に供給する。識別部82−2は、このIR,R,G,B,UVの情報のうちの一部のみからなる特徴ベクトルと、予め特徴ベクトル保持部44に保持されている、同一の種類の情報からなる特徴ベクトルとに基づいて、類似度を計算する。
このように、識別部62−1乃至62−Nは、それぞれN種類の被写体に対応して設けられており、それぞれの被写体との類似度を選択部63に供給する。
次に、図10のフローチャートを参照して、図9の被写体識別処理部26による被写体識別処理について説明する。尚、図10のフローチャートにおけるステップS61乃至S63、およびS67乃至S72の処理については、図8のフローチャートを参照して説明したステップS41,S42,S44、およびS47乃至S52の処理と同様であるので、その説明は省略する。
ステップS63において、図示せぬカウンタpが1に初期化される。
ステップS64において、特徴量抽出部81−pは、処理対象画素の特徴量として、被写体pの識別に最適な情報からなる特徴ベクトルを、識別部82−pに供給する。
ステップS65において、識別部82−pは、特徴量抽出部81−pより供給されてきた、被写体pの識別に最適な特徴量である特徴ベクトルと、特徴ベクトル保持部44に記憶されている被写体pに対応付けて記憶されており、その識別に最適な情報からなる特徴ベクトルとの類似度として、例えば、ベクトル空間の距離を計算する。
尚、以上の処理においては、ステップS64乃至S68の処理が繰り返されることにより、識別部82−1から順次識別部82−Nまでの識別部により、それぞれに対応する被写体1乃至Nとの類似度が求められる例について説明してきたが、フローチャートの記載の都合で順次処理される形式となっているが、実際は、特徴量抽出部81−1乃至81−Nおよび識別部82−1乃至82−Nが、それぞれの被写体1乃至Nとの類似度を並列処理により求めることになる。結果として、処理対象画素の被写体の識別にかかる処理時間を短縮させることが可能となる。また、被写体の特性に合わせた特徴量からなる特徴ベクトルにより類似度が求められるので、識別の精度を向上させることが可能となる。さらに、不要な情報を省いて、識別に効率のよいパラメータだけを特徴量として使用することができるので、流通するデータ量を低減させると共に、識別の精度を向上させることが可能となる。
以上によれば、可視光のみならず非可視光で被写体となる特徴ベクトルを設定することで、画素毎に高い精度で被写体を識別することが可能なる。結果として、画像中の画素単位で、空間的な特徴を持たない被写体を識別することが可能となる。
ところで、上述した一連の情報処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
図11は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011から読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
尚、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。
本発明を適用した撮像装置の構成例を示すブロック図である。 被写体識別処理部の構成例を説明する図である。 撮像処理を説明するフローチャートである。 図2の被写体識別処理部による被写体識別処理を説明するフローチャートである。 被写体識別処理を説明する図である。 被写体識別処理を説明する図である。 その他の被写体識別処理部の構成例を説明する図である。 図7の被写体識別処理部による被写体識別処理を説明するフローチャートである。ある。 その他の被写体識別処理部の構成例を説明する図である。 図9の被写体識別処理部による被写体識別処理を説明するフローチャートである。ある。 パーソナルコンピュータの構成例を説明する図である。
符号の説明
1 撮像装置, 11 撮像部, 12 画像処理部, 13 制御部, 14 表示部, 21 デモザイク処理部, 22 ホワイトバランス処理部, 23 リニアマトリクス処理部, 24 ガンマ処理部, 25 色差輪郭補正処理部, 41 特徴量抽出部, 42 識別部, 43 識別結果保持部, 44 特徴ベクトル保持部, 61 特徴量抽出部, 62−1乃至62−N 識別部, 63 選択部, 81−1乃至81−N 特徴量抽出部, 82−1乃至82−N 識別部

Claims (10)

  1. 可視光および非可視光の範囲において複数の色を含む画像より、基準色と各色との比率を要素とする特徴量を局所領域毎に抽出する特徴量抽出手段と、
    前記特徴量抽出手段で抽出された特徴量を利用して前記局所領域毎に被写体を識別する識別手段と
    を含む画像処理装置。
  2. 前記局所領域は、画素単位の領域である
    請求項1に記載の画像処理装置。
  3. 前記非可視光は、紫外光および赤外光を含む
    請求項1に記載の画像処理装置。
  4. 前記基準色は、可視光の範囲の色を含む
    請求項1に記載の画像処理装置。
  5. 可視光および非可視光の範囲において複数の色からなる画像を撮像する撮像手段をさらに含む
    請求項1に記載の画像処理装置。
  6. 前記特徴量抽出手段は、前記局所領域毎に基準色と各色との比率を要素とする特徴ベクトルを特徴量として抽出する
    請求項1に記載の撮像装置。
  7. 前記特徴量抽出手段は、前記局所領域毎に基準色と各色との比率を要素とする特徴量を抽出するのに加えて、局所領域毎に空間的な特徴量を抽出し、
    前記識別手段は、前記特徴量抽出手段で抽出された基準色と各色との比率を要素とする特徴量を利用して局所領域毎に被写体を識別するのに加えて、前記特徴量抽出手段で抽出された空間的な特徴量を利用して被写体を識別する
    請求項1に記載の撮像装置。
  8. 前記可視光および非可視光の範囲において複数の色を含む画像より、基準色と各色との比率を要素とする特徴量を局所領域毎に抽出する特徴量抽出ステップと、
    前記特徴量抽出ステップの処理で抽出された特徴量を利用して前記局所領域毎に被写体を識別する識別ステップと
    を含む画像処理方法。
  9. 可視光および非可視光の範囲において複数の色を含む画像より、基準色と各色との比率を要素とする特徴量を局所領域毎に抽出する特徴量抽出ステップと、
    前記特徴量抽出ステップの処理で抽出された特徴量を利用して前記局所領域毎に被写体を識別する識別ステップと
    を含む処理をコンピュータに実行させるプログラム。
  10. 請求項9に記載のプログラムが格納されているプログラム格納媒体。
JP2007308265A 2007-11-29 2007-11-29 画像処理装置および方法、並びにプログラム Pending JP2009134383A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007308265A JP2009134383A (ja) 2007-11-29 2007-11-29 画像処理装置および方法、並びにプログラム
US12/272,028 US8238652B2 (en) 2007-11-29 2008-11-17 Image processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007308265A JP2009134383A (ja) 2007-11-29 2007-11-29 画像処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2009134383A true JP2009134383A (ja) 2009-06-18
JP2009134383A5 JP2009134383A5 (ja) 2010-10-28

Family

ID=40675777

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007308265A Pending JP2009134383A (ja) 2007-11-29 2007-11-29 画像処理装置および方法、並びにプログラム

Country Status (2)

Country Link
US (1) US8238652B2 (ja)
JP (1) JP2009134383A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290694A (ja) * 2008-05-30 2009-12-10 Fujifilm Corp 撮像装置
JP2011069757A (ja) * 2009-09-28 2011-04-07 Hitachi Solutions Ltd スペクトル解析装置
WO2017122396A1 (ja) * 2016-01-15 2017-07-20 ソニー株式会社 制御装置、制御方法及びプログラム
WO2019230443A1 (ja) * 2018-06-01 2019-12-05 ソニー株式会社 画像処理装置および方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
CN101414348A (zh) * 2007-10-19 2009-04-22 三星电子株式会社 多角度人脸识别方法和系统
US8124936B1 (en) * 2007-12-13 2012-02-28 The United States Of America As Represented By The Secretary Of The Army Stand-off chemical detector
JP5448758B2 (ja) * 2009-11-30 2014-03-19 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム、プログラム及びデータ構造
JP5234119B2 (ja) * 2011-01-20 2013-07-10 カシオ計算機株式会社 撮像装置、撮像処理方法及びプログラム
JP5272042B2 (ja) * 2011-05-12 2013-08-28 富士重工業株式会社 環境認識装置および環境認識方法
JP2014053855A (ja) * 2012-09-10 2014-03-20 Sony Corp 画像処理装置および方法、並びにプログラム
JP6568719B2 (ja) * 2014-08-29 2019-08-28 株式会社 日立産業制御ソリューションズ 撮像方法及び撮像装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07123252A (ja) * 1993-10-22 1995-05-12 Canon Inc 画像処理装置
JPH10260078A (ja) * 1997-03-18 1998-09-29 Tech Res & Dev Inst Of Japan Def Agency 目標抽出方法
JP2000099630A (ja) * 1998-09-25 2000-04-07 Sanyo Electric Co Ltd 文字認識方法、文字認識装置および記憶媒体
JP2001258820A (ja) * 2000-01-13 2001-09-25 Fuji Photo Film Co Ltd 蛍光画像表示方法および装置
JP2003270137A (ja) * 2002-03-13 2003-09-25 So Sekkei:Kk 光学式木材防腐剤検出方法
JP2004192129A (ja) * 2002-12-09 2004-07-08 Fuji Photo Film Co Ltd 顔領域抽出方法及び装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7663502B2 (en) * 1992-05-05 2010-02-16 Intelligent Technologies International, Inc. Asset system control arrangement and method
JP4267220B2 (ja) 2001-07-10 2009-05-27 富士フイルム株式会社 光源判別方法および装置、被写体識別方法および装置並びにプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07123252A (ja) * 1993-10-22 1995-05-12 Canon Inc 画像処理装置
JPH10260078A (ja) * 1997-03-18 1998-09-29 Tech Res & Dev Inst Of Japan Def Agency 目標抽出方法
JP2000099630A (ja) * 1998-09-25 2000-04-07 Sanyo Electric Co Ltd 文字認識方法、文字認識装置および記憶媒体
JP2001258820A (ja) * 2000-01-13 2001-09-25 Fuji Photo Film Co Ltd 蛍光画像表示方法および装置
JP2003270137A (ja) * 2002-03-13 2003-09-25 So Sekkei:Kk 光学式木材防腐剤検出方法
JP2004192129A (ja) * 2002-12-09 2004-07-08 Fuji Photo Film Co Ltd 顔領域抽出方法及び装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009290694A (ja) * 2008-05-30 2009-12-10 Fujifilm Corp 撮像装置
JP2011069757A (ja) * 2009-09-28 2011-04-07 Hitachi Solutions Ltd スペクトル解析装置
WO2017122396A1 (ja) * 2016-01-15 2017-07-20 ソニー株式会社 制御装置、制御方法及びプログラム
WO2019230443A1 (ja) * 2018-06-01 2019-12-05 ソニー株式会社 画像処理装置および方法
US11758298B2 (en) 2018-06-01 2023-09-12 Sony Corporation Image processing apparatus and method

Also Published As

Publication number Publication date
US8238652B2 (en) 2012-08-07
US20090141974A1 (en) 2009-06-04

Similar Documents

Publication Publication Date Title
JP2009134383A (ja) 画像処理装置および方法、並びにプログラム
US11704775B2 (en) Bright spot removal using a neural network
US8055067B2 (en) Color segmentation
US20190130169A1 (en) Image processing method and device, readable storage medium and electronic device
EP3937481A1 (en) Image display method and device
US10303983B2 (en) Image recognition apparatus, image recognition method, and recording medium
WO2019137178A1 (zh) 人脸活体检测
JP4894278B2 (ja) カメラ装置及びカメラ制御プログラム
JP2018092610A (ja) 画像認識装置、画像認識方法及びプログラム
WO2012166840A2 (en) Learning of image processing pipeline for digital imaging devices
EP2372655A1 (en) Image processing device and method, and program therefor
KR20090086891A (ko) 적외선을 이용한 얼굴인식 시스템 및 방법
US11315360B2 (en) Live facial recognition system and method
CN105744144A (zh) 图像生成方法以及图像生成装置
US20080170129A1 (en) Digital photographing apparatus and method for controlling the same
WO2020027210A1 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
CN109729259B (zh) 图像处理装置、其方法、其系统以及计算机可读介质
JP2009038737A (ja) 画像処理装置
US20210337098A1 (en) Neural Network Supported Camera Image Or Video Processing Pipelines
Ribeiro et al. Algorithms for face detection on infrared thermal images
US8538142B2 (en) Face-detection processing methods, image processing devices, and articles of manufacture
KR20100069501A (ko) 영상 처리 방법 및 장치, 및 이를 이용한 디지털 촬영 장치
JP2012234500A (ja) パターン識別装置、パターン識別方法およびプログラム
JP2005070026A (ja) 物体認識装置、物体認識方法、プログラム及び記録媒体
JP6776532B2 (ja) 画像処理装置、撮像装置、電子機器及び画像処理プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100909

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120731

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130129