JP4882927B2 - カテゴリ識別方法 - Google Patents

カテゴリ識別方法 Download PDF

Info

Publication number
JP4882927B2
JP4882927B2 JP2007226581A JP2007226581A JP4882927B2 JP 4882927 B2 JP4882927 B2 JP 4882927B2 JP 2007226581 A JP2007226581 A JP 2007226581A JP 2007226581 A JP2007226581 A JP 2007226581A JP 4882927 B2 JP4882927 B2 JP 4882927B2
Authority
JP
Japan
Prior art keywords
value
scene
identification
partial
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007226581A
Other languages
English (en)
Other versions
JP2009059207A5 (ja
JP2009059207A (ja
Inventor
庸雄 河西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2007226581A priority Critical patent/JP4882927B2/ja
Priority to US12/190,489 priority patent/US8036998B2/en
Publication of JP2009059207A publication Critical patent/JP2009059207A/ja
Publication of JP2009059207A5 publication Critical patent/JP2009059207A5/ja
Application granted granted Critical
Publication of JP4882927B2 publication Critical patent/JP4882927B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、カテゴリ識別方法に関する。
従来、画像のシーン等のカテゴリの識別方法として、サポートベクタマシンを用いた識別方法が知られている(例えば特許文献1参照)。サポートベクタマシンでは、学習用サンプルを用いた学習により、識別境界に寄与するサポートベクタが定められる。そして、識別対象と各サポートベクタとの関係に基づいた演算によって判別式が算出される。この判別式の値と閾値との比較によって、識別対象が特定のカテゴリに属するか否かの識別が行われる。
特開2005−134966号公報
サポートベクタマシンを用いた識別処理では、学習用サンプルが多いほど、すなわちサポートベクタの数が多いほど、識別の精度を高めることができる。ところで、後述するようにサポートベクタマシンによる判別式の演算時間はサポートベクタの数に比例する。つまり、識別精度を高めるためにサポートベクタの数を多くすると、判別式の演算に要する時間が増加し、識別処理の速度が低下することになる。このように、従来、識別処理の速度を向上させることが困難であるという問題点があった。
本発明は、上記のような課題に鑑みてなされたものであり、その目的は、識別処理の速度を向上させることにある。
前記目的を達成するための主たる発明は、識別対象と、識別境界に寄与するサポートベクタとの関係に応じた関数値を算出し、各サポートベクタに対する前記関数値を積算した積算値を算出し、前記積算値が閾値よりも小さい場合に、前記識別対象が特定のカテゴリに属さないと識別するカテゴリ識別方法であって、前記積算値の算出は、前記関数値が正の値となるものを積算し、その後、前記関数値が負の値となるものを積算することによって行い、前記積算値が前記閾値よりも小さくなった場合、残りの前記関数値を積算することなく、前記識別対象が前記特定のカテゴリに属さないと識別することを特徴とする。
本発明の他の特徴は、本明細書、及び添付図面の記載により、明らかにする。
===開示の概要===
本明細書及び添付図面の記載により、少なくとも以下の事項が明らかになる。
すなわち、識別対象と、識別境界に寄与するサポートベクタとの関係に応じた関数値を算出し、各サポートベクタに対する前記関数値を積算した積算値を算出し、前記積算値が閾値よりも小さい場合に、前記識別対象が特定のカテゴリに属さないと識別するカテゴリ識別方法であって、前記積算値の算出は、前記関数値が正の値となるものを積算し、その後、前記関数値が負の値となるものを積算することによって行い、積算値が前記閾値よりも小さくなった場合、残りの前記関数値を積算することなく、前記識別対象が前記特定のカテゴリに属さないと識別することを特徴とするカテゴリ識別方法が明らかになる。
このようなカテゴリ識別方法によれば、識別処理の速度を向上させることができる。
かかるカテゴリ識別方法であって、前記積算値に積算される前記関数値が負の値であるか否かを判断し、前記関数値が負の値であり、且つ、前記積算値が前記閾値よりも小さくなった場合、前記識別対象が前記特定のカテゴリに属さないと識別することが望ましい。
かかるカテゴリ識別方法であって、負の値の前記関数値は、絶対値の大きいものから順に前記積算値に積算されることが望ましい。
このようなカテゴリ識別方法によれば、識別処理の速度をより向上させることができる。
また、識別対象と、識別境界に寄与するサポートベクタとの関係に応じた関数値を算出し、各サポートベクタに対する前記関数値を積算した積算値を算出し、前記積算値が閾値よりも大きい場合に、前記識別対象が特定のカテゴリに属すると識別するカテゴリ識別方法であって、前記積算値の算出は、前記関数値が正の値となるものを積算し、その後、前記関数値が負の値となるものを積算することによって行い、前記積算値が前記閾値以下になった場合、残りの前記関数値を積算することなく、前記識別対象が前記特定のカテゴリに属すると識別できないと判断することを特徴とするカテゴリ識別方法が明らかになる。
このようなカテゴリ識別方法によれば、識別処理の速度を向上させることができる。
かかるカテゴリ識別方法であって、前記積算値に積算される前記関数値が負の値であるか否かを判断し、前記関数値が負の値であり、且つ、前記積算値が前記閾値以下になった場合、前記識別対象が前記特定のカテゴリに属すると識別できないと判断することが望ましい。
かかるカテゴリ識別方法であって、負の値の前記関数値は、絶対値の大きいものから順に前記積算値に積算されることが望ましい。
このようなカテゴリ識別方法によれば、識別処理の速度をより向上させることができる。
また、識別対象と、識別境界に寄与するサポートベクタとの関係に応じた関数値を算出し、各サポートベクタに対する前記関数値を積算した積算値を算出し、前記積算値が閾値よりも大きい場合に、前記識別対象が特定のカテゴリに属すると識別するカテゴリ識別方法であって、前記積算値の算出は、前記関数値が負の値となるものを積算し、その後、前記関数値が正の値となるものを積算することによって行い、前記積算値が前記閾値よりも大きくなった場合、残りの前記関数値を積算することなく、前記識別対象が前記特定のカテゴリに属すると識別することを特徴とするカテゴリ識別方法が明らかになる。
このようなカテゴリ識別方法によれば、識別処理の速度を向上させることができる。
かかるカテゴリ識別方法であって、前記積算値に積算される前記関数値が正の値であるか否かを判断し、前記関数値が正の値であり、且つ、前記積算値が前記閾値よりも大きくなった場合、前記識別対象が前記特定のカテゴリに属すると識別することが望ましい。
かかるカテゴリ識別方法であって、正の値の前記関数値は、絶対値の大きいものから順に前記積算値に積算されることが望ましい。
このようなカテゴリ識別方法によれば、識別処理の速度をより向上させることができる。
===全体構成===
図1は、画像処理システムの説明図である。この画像処理システムは、デジタルスチルカメラ2と、プリンタ4とを備える。
デジタルスチルカメラ2は、被写体をデジタルデバイス(CCDなど)に結像させることによりデジタル画像を取得するカメラである。デジタルスチルカメラ2には、モード設定ダイヤル2Aが設けられている。ユーザは、モード設定ダイヤル2Aによって、撮影条件に応じた撮影モードを設定することができる。例えば、モード設定ダイヤル2Aによって、「夜景」モードが設定されると、デジタルスチルカメラ2は、シャッター速度を遅くしたり、ISO感度を高くしたりして、夜景撮影に適した撮影条件にて撮影を行う。
デジタルスチルカメラ2は、ファイルフォーマット規格に準拠して、撮影により生成した画像ファイルをメモリカード6に保存する。画像ファイルには、撮影した画像のデジタルデータ(画像データ)だけでなく、撮影時の撮影条件(撮影データ)等の付加データも保存される。
プリンタ4は、画像データの示す画像を紙に印刷する印刷装置である。プリンタ4には、メモリカード6を挿入するスロット21が設けられている。ユーザは、デジタルスチルカメラ2で撮影した後、デジタルスチルカメラ2からメモリカード6を取り出し、スロット21にメモリカード6を挿入することができる。
図2はプリンタ4の構成の説明図である。プリンタ4は、印刷機構10と、この印刷機構10を制御するプリンタ側コントローラ20とを備える。印刷機構10は、インクを吐出するヘッド11と、ヘッド11を制御するヘッド制御部12と、紙を搬送するため等のモータ13と、センサ14とを有する。プリンタ側コントローラ20は、メモリカード6からデータを送受信するためのメモリ用スロット21と、CPU22と、メモリ23と、モータ13を制御する制御ユニット24と、駆動信号(駆動波形)を生成する駆動信号生成部25とを有する。
メモリカード6がスロット21に挿入されると、プリンタ側コントローラ20は、メモリカード6に保存されている画像ファイルを読み出してメモリ23に記憶する。そして、プリンタ側コントローラ20は、画像ファイルの画像データを印刷機構10で印刷するための印刷データに変換し、印刷データに基づいて印刷機構10を制御し、紙に画像を印刷する。この一連の動作は、「ダイレクトプリント」と呼ばれている。
なお、「ダイレクトプリント」は、メモリカード6をスロット21に挿入することによって行われるだけでなく、デジタルスチルカメラ2とプリンタ4とをケーブル(不図示)で接続することによっても可能である。
===自動補正機能の概要===
「人物」の写真を印刷するときには、肌色をきれいにしたいという要求がある。また、「風景」の写真を印刷するときには、空の青色を強調し、木や草の緑色を強調したいという要求がある。そこで、本実施形態のプリンタ4は、画像ファイルを分析して自動的に適した補正処理を行う自動補正機能を備えている。
図3は、プリンタ4の自動補正機能の説明図である。図中のプリンタ側コントローラ20の各要素は、ソフトウェアとハードウェアによって実現される。
記憶部31は、メモリ23の一部の領域及びCPU22によって実現される。メモリカード6から読み出された画像ファイルの画像データは、記憶部31の画像記憶部31Aに展開される。また、プリンタ側コントローラ20の各要素の演算結果は、記憶部31の結果記憶部31Bに格納される。
顔識別部32は、CPU22と、メモリ23に記憶された顔識別プログラムとによって実現される。顔識別部32は、画像記憶部31Aに記憶された画像データを分析し、顔の有無を確認する。顔識別部32によって顔が有ると識別された場合、識別対象となる画像が「人物」のシーンに属すると識別される。この場合、シーン識別部33によるシーン識別処理は行われない。顔識別部32による顔識別処理は、既に広く行われている処理と同様なので、詳細な説明は省略する。
シーン識別部33は、CPU22と、メモリ23に記憶されたシーン識別プログラムとによって実現される。シーン識別部33は、画像記憶部31Aに記憶された画像ファイルを分析し、画像データの示す画像のシーンを識別する。シーン識別部33によるシーン識別処理は、顔識別部32によって顔がない(「人物」のシーンでない)と識別された場合に行われる。後述するように、シーン識別部33は、識別対象となる画像が「風景」、「夕景」、「夜景」、「花」、「紅葉」、「その他」のいずれの画像であるかを識別する。
図4は、画像のシーンと補正内容との関係の説明図である。
画像補正部34は、CPU22と、メモリ23に記憶された画像補正プログラムとによって実現される。画像補正部34は、記憶部31の結果記憶部31B(後述)に記憶されている識別結果(顔識別部32やシーン識別部33の識別結果)に基づいて、画像記憶部31Aの画像データを補正する。例えば、シーン識別部33の識別結果が「風景」である場合には、青色を強調し、緑色を強調するような補正が行われる。なお、画像補正部34は、シーンの識別結果だけでなく、画像ファイルの撮影データの内容も反映して、画像データを補正しても良い。例えば、露出補正がマイナスの場合、暗い雰囲気の画像を明るくしないように画像データを補正してもよい。
プリンタ制御部35は、CPU22、駆動信号生成部25、制御ユニット24及びメモリ23に記憶されたプリンタ制御プログラムによって、実現される。プリンタ制御部35は、補正後の画像データを印刷データに変換し、印刷機構10に画像を印刷させる。
===シーン識別処理===
図5は、シーン識別部33によるシーン識別処理のフロー図である。図6は、シーン識別部33の機能の説明図である。図中のシーン識別部33の各要素は、ソフトウェアとハードウェアによって実現される。シーン識別部33は、図6に示す特徴量取得部40と、全体識別器50と、部分識別器60と、統合識別器70とを備えている。
最初に、特徴量取得部40が、記憶部31の画像記憶部31Aに展開された画像データを分析し、部分特徴量を取得する(S101)。具体的には、特徴量取得部40は、画像データを8×8の64ブロックに分割し、各ブロックの色平均と分散を算出し、この色平均と分散を部分特徴量として取得する。なお、ここでは各画素はYCC色空間における階調値のデータをもっており、各ブロックごとに、Yの平均値、Cbの平均値及びCrの平均値がそれぞれ算出され、Yの分散、Cbの分散及びCrの分散がそれぞれ算出される。つまり、各ブロックごとに3つの色平均と、3つの分散が部分特徴量として算出される。これらの色平均や分散は、各ブロックにおける部分画像の特徴を示すものである。なお、RGB色空間における平均値や分散を算出してもよい。
ブロックごとに色平均と分散が算出されるので、特徴量取得部40は、画像記憶部31Aには画像データのすべてを展開せずに、ブロック分の画像データをブロック順に展開する。このため、画像記憶部31Aは、必ずしも画像ファイルの全てを展開できるだけの容量を備えていなくとも良い。
次に、特徴量取得部40が、全体特徴量を取得する(S102)。具体的には、特徴量取得部40は、画像データの全体の色平均、分散、重心及び撮影情報を全体特徴量として取得する。なお、これらの色平均や分散は、画像の全体の特徴を示すものである。画像データ全体の色平均、分散及び重心は、先に算出した部分特徴量を用いて算出される。このため、全体特徴量を算出する際に画像データを展開する必要がないので、全体特徴量の算出速度が速くなる、全体識別処理(後述)は、部分識別処理(後述)よりも先に行われるにも関わらず、全体特徴量が部分特徴量よりも後に求められるのは、このように算出速度を速めるためである。なお、撮影情報は、画像ファイルの撮影データから抽出される。具体的には、絞り値、シャッター速度、フラッシュ発光の有無などの情報が全体特徴量として用いられる。但し、画像ファイルの撮影データの全てが全体特徴量として用いられるわけではない。
次に、全体識別器50が、全体識別処理を行う(S103)。全体識別処理とは、全体特徴量に基づいて、画像データの示す画像のシーンを識別(推定)する処理である。全体識別処理の詳細については、後述する。
全体識別処理によってシーンの識別が出来る場合(S104でYES)、シーン識別部33は、記憶部31の結果記憶部31Bに識別結果を記憶することによってシーンを決定し(S109)、シーン識別処理を終了する。つまり、全体識別処理によってシーンの識別ができた場合(S104でYES)、部分識別処理や統合識別処理が省略される。これによりシーン識別処理の速度が速くなる。
全体識別処理によってシーンの識別ができない場合、(S104でNO)、次に部分識別器60が、部分識別処理を行う(S105)。部分識別処理とは、部分特徴量に基づいて、画像データの示す画像全体のシーンを識別する処理である。部分識別処理の詳細については後述する。
部分識別処理によってシーンの識別ができる場合(S106でYES)、シーン識別部33は、記憶部31の結果記憶部31Bに識別結果を記憶することによってシーンを決定し(S109)、シーン識別処理を終了する。つまり、部分識別処理によってシーンの識別ができた場合(S106でYES)、統合識別処理が省略される。これにより、シーン識別処理の速度が速くなる。
部分識別処理によってシーンの識別ができない場合(S106でNO)、次に統合識別器70が、統合識別処理を行う(S107)。統合識別処理の詳細については後述する。
統合識別処理によってシーンの識別ができる場合(S108でYES)、シーン識別部33は、記憶部31の結果記憶部31Bに識別結果を記憶することによってシーンを決定し(S109)、シーン識別処理を終了する。一方、統合識別処理によってシーンの識別ができない場合(S108でNO)、画像データの示す画像が「その他」のシーン(「風景」、「夕景」、「夜景」、「花」又は「紅葉」以外のシーン)である旨の識別結果を結果記憶部31Bに記憶する(S110)。
===全体識別処理===
図7は、全体識別処理のフロー図である。ここでは、図6も参照しながら全体識別処理について説明する。
まず、全体識別器50は、複数のサブ識別器51の中から1つのサブ識別器51を選択する(S201)。全体識別器50には、識別対象となる画像(識別対象画像)が特定のシーンに属するか否かを識別するサブ識別器51が5つ設けられている。5つのサブ識別器51は、それぞれ風景、夕景、夜景、花、紅葉のシーンを識別する。ここでは、全体識別器50は、風景→夕景→夜景→花→紅葉の順に、サブ識別器51を選択する。このため、最初には、識別対象画像が風景のシーンに属するか否かを識別するサブ識別器51(風景識別器51L)が選択される。
次に、全体識別器50は、識別対象テーブルを参照し、選択したサブ識別器51を用いてシーンを識別すべきか否かを判断する(S202)。
図8は、識別対象テーブルの説明図である。この識別対象テーブルは、記憶部31の結果記憶部31Bに記憶される。識別対象テーブルは、最初の段階では全ての欄がゼロに設定される。S202の処理では、「否定」欄が参照され、ゼロであればYESと判断され、1であればNOと判断される。ここでは、全体識別器50は、識別対象テーブルにおける「風景」欄の「否定」欄を参照し、ゼロであるのでYES(S202でYES)と判断する。
次に、サブ識別器51は、識別対象画像が特定のシーンに属すか否かを識別する。具体的には、サブ識別器51は、全体特徴量に基づいて、識別対象画像が特定のシーンに属する確率(確信度)を算出する(S203)。本実施形態のサブ識別器51には、サポートベクタマシン(SVM)による識別手法が用いられている。なお、サポートベクタマシンについては、後述する。識別対象画像が特定のシーンに属する場合、サブ識別器51で算出される判別式は、プラスの値になりやすい。識別対象画像が特定のシーンに属しない場合、サブ識別器51で算出される判別式は、マイナスの値になりやすい。また、判別式は、識別対象画像が特定のシーンに属する確信度が高いほど、大きな値になる。このため、判別式の値が大きければ、識別対象画像が特定のシーンに属する確率が高くなり、判別式の値が小さければ、識別対象画像が特定のシーンに属する確率が低くなる。
次に、サブ識別器51は、判別式の値が肯定閾値より大きいか否かを判断する(S204)。判別式の値が肯定閾値よりも大きければ、サブ識別器51は、識別対象画像が特定のシーンに属すると判断することになる。
図9は、全体識別処理の肯定閾値の説明図である。同図において、横軸は肯定閾値を示し、縦軸はRecall又はPrecisionの確率を示す。図10は、RecallとPrecisionの説明図である。判別式の値が肯定閾値以上の場合には識別結果はPositiveであり、判別式の値が肯定閾値以上でない場合には識別結果はNegativeである。
Recallは、再現率や検出率を示すものである。Recallは、特定のシーンの画像の総数に対する、特定のシーンに属すると識別された画像の割合である。言い換えると、Recallは、特定のシーンの画像をサブ識別器51に識別させたときに、サブ識別器51がPositiveと識別する確率(特定のシーンの画像が特定のシーンに属すると識別される確率)を示すものである。例えば、風景画像を風景識別器51Lに識別させたときに、風景のシーンに属すると風景識別器51Lが識別する確率を示すものである。
Precisionは、正答率や正解率を示すものである。Precisionは、Positiveと識別された画像の総数に対する、特定のシーンの画像の数の割合である。言い換えると、Precisionは、特定のシーンを識別するサブ識別器51がPositiveと判断したときに、識別対象の画像が特定のシーンである確率を示すものである。例えば、風景識別器51Lが風景のシーンに属すると識別したときに、その識別した画像が本当に風景画像である確率を示すものである。
図9から分かる通り、肯定閾値を大きくするほど、Precisionが大きくなる。このため、肯定閾値を大きくするほど、例えば風景のシーンに属すると識別された画像が風景画像である確率が高くなる。つまり、肯定閾値を大きくするほど、誤識別の確率が低くなる。
一方、肯定閾値を大きくするほど、Recallは小さくなる。この結果、例えば、風景画像を風景識別器51Lで識別した場合であっても、風景のシーンに属すると正しく識別しにくくなる。ところで、識別対象画像が風景のシーンに属すると識別できれば(S204でYES)、残りの別のシーン(夕景など)の識別を行わないようにして全体識別処理の速度を速めている。このため、肯定閾値を大きくするほど、全体識別処理の速度は低下することになる。また、全体識別処理によってシーンが識別できれば部分識別処理を行わないようにしてシーン識別処理の速度を速めているため(S104)、肯定閾値を大きくするほど、シーン識別処理の速度は低下することになる。
つまり、肯定閾値が小さすぎると誤識別の確率が高くなり、大きすぎると処理速度が低下することになる。本実施形態では、正答率(Precision)を97.5%に設定するため、風景の肯定閾値は1.27に設定されている。
判別式の値が肯定閾値より大きければ(S204でYES)、サブ識別器51は、識別対象画像が特定のシーンに属すると判断し、肯定フラグを立てる(S205)。「肯定フラグを立てる」とは、図8の「肯定」欄を1にすることである。この場合、全体識別器50は、次のサブ識別器51による識別を行わずに全体識別処理を終了する。例えば、風景画像であると識別できれば、夕景などの識別を行わずに、全体識別処理を終了する。この場合、次のサブ識別器51による識別を省略しているので、全体識別処理の速度を速めることができる。
判別式の値が肯定閾値より大きくなければ(S204でNO)、サブ識別器51は、識別対象画像が特定のシーンに属すると判断できず、次のS206の処理を行う。
次にサブ識別器51は、判別式の値と否定閾値とを比較する(S206)。これにより、サブ識別器51は、識別対象画像が所定のシーンに属しないかを判断する。このような判断としては、2種類ある。第1に、ある特定のシーンのサブ識別器51の判別式の値が第1否定閾値よりも小さければ、その特定のシーンに識別対象画像が属しないと判断されることになる。例えば、風景識別器51Lの判別式の値が第1否定閾値よりも小さければ、識別対象画像が風景のシーンに属しないと判断されることになる。第2に、ある特定のシーンのサブ識別器51の判別式の値が第2否定閾値よりも大きければ、その特定のシーンとは別のシーンに識別対象画像が属しないと判断されることになる。例えば、風景識別器51Lの判別式の値が第2否定閾値よりも大きければ、識別対象画像が夜景のシーンに属しないと判断されることになる。
図11は、第1否定閾値の説明図である。同図において、横軸は第1否定閾値を示し、縦軸は確率を示す。グラフの太線は、True Negative Recallのグラフであり、風景画像以外の画像を風景画像ではないと正しく識別する確率を示している。グラフの細線は、False Negative Recallのグラフであり、風景画像なのに風景画像ではないと誤って識別する確率を示している。
図11から分かる通り、第1否定閾値を小さくするほど、False Negative Recallが小さくなる。このため、第1否定閾値を小さくするほど、例えば風景のシーンに属しないと識別された画像が風景画像である確率が低くなる。つまり、誤識別の確率が低くなる。
一方、第1否定閾値を小さくするほど、True Negative Recallも小さくなる。この結果、風景画像以外の画像を風景画像ではないと識別しにくくなる。その一方、識別対象画像が特定のシーンでないことを識別できれば、部分識別処理の際に、その特定のシーンのサブ部分識別器61による処理を省略してシーン識別処理速度を速めている(後述、図14のS302)。このため、第1否定閾値を小さくするほど、シーン識別処理速度は低下する。
つまり、第1否定閾値が大きすぎると誤識別の確率が高くなり、小さすぎると処理速度が低下することになる。本実施形態では、False Negative Recallを2.5%に設定するため、第1否定閾値は−1.10に設定されている。
ところで、ある画像が風景のシーンに属する確率が高ければ、必然的にその画像が夜景のシーンに属する確率は低くなる。このため、風景識別器51Lの判別式の値が大きい場合には、夜景ではないと識別できる場合がある。このような識別を行うために、第2否定閾値が設けられている。
図12は、第2否定閾値の説明図である。同図において、横軸は風景の判別式の値を示し、縦軸は確率を示す。同図には、図9のRecallとPrecisionのグラフとともに、夜景のRecallのグラフが点線で描かれている。この点線のグラフに注目すると、風景の判別式の値が−0.45よりも大きければ、その画像が夜景画像である確率は2.5%である。言い換えると、風景の判別式の値が−0.45よりも大きい場合にその画像が夜景画像でないと識別しても、誤識別の確率は2.5%にすぎない。そこで、本実施形態では、第2否定閾値が−0.45に設定されている。
そして、判別式の値が第1否定閾値より小さい場合、又は、判別式の値が第2否定閾値より大きい場合(S206でYES)、サブ識別器51は、識別対象画像が所定のシーンに属しないと判断し、否定フラグを立てる(S207)。「否定フラグを立てる」とは、図8の「否定」欄を1にすることである。例えば、第1否定閾値に基づいて識別対象画像が風景のシーンに属しないと判断された場合、「風景」欄の「否定」欄が1になる。また、第2否定閾値に基づいて識別対象画像が夜景のシーンに属しないと判断された場合、「夜景」欄の「否定」欄が1になる。
図13Aは、閾値テーブルの説明図である。この閾値テーブルは、記憶部31に記憶されていても良いし、全体識別処理を実行させるプログラムの一部に組み込まれていても良い。閾値テーブルには、前述の肯定閾値や否定閾値に関するデータが格納されている。
図13Bは、上記で説明した風景識別器51Lにおける閾値の説明図である。風景識別器51Lには、肯定閾値及び否定閾値が予め設定されている。肯定閾値として1.27が設定されている。否定閾値には第1否定閾値と第2否定閾値とがある。第1否定閾値として−1.10が設定されている。また、第2否定閾値として、風景以外の各シーンにそれぞれ値が設定されている。
図13Cは、上記で説明した風景識別器51Lの処理の概要の説明図である。ここでは、説明の簡略化のため、第2否定閾値については夜景についてのみ説明する。風景識別器51Lは、判別式の値が1.27よりも大きければ(S204でYES)、識別対象画像が風景のシーンに属すると判断する。また、判別式の値が1.27以下であり(S204でNO)、−0.45よりも大きければ(S206でYES)、風景識別器51Lは、識別対象画像が夜景のシーンに属しないと判断する。また、判別式の値が−1.10よりも小さければ(S206でYES)、風景識別器51Lは、識別対象画像が風景のシーンに属しないと判断する。なお、風景識別器51Lは、夕景や花や紅葉についても、第2否定閾値に基づいて、識別対象画像がそのシーンに属しないかを判断する。但し、これらの第2否定閾値は肯定閾値よりも大きいため、識別対象画像がこれらのシーンに属しないことを風景識別器51Lが判断することはない。
S202においてNOの場合、S206でNOの場合、又はS207の処理を終えた場合、全体識別器50は、次のサブ識別器51の有無を判断する(S208)。ここでは風景識別器51Lによる処理を終えた後なので、全体識別器50は、S208において、次のサブ識別器51(夕景識別器51S)があると判断する。
そして、S205の処理を終えた場合(識別対象画像が特定のシーンに属すると判断された場合)、又は、S208において次のサブ識別器51がないと判断された場合(識別対象画像が特定のシーンに属すると判断できなかった場合)、全体識別器50は、全体識別処理を終了する。
なお、既に説明した通り、全体識別処理が終了すると、シーン識別部33は、全体識別処理によってシーンの識別ができたか否かを判断する(図5のS104)。このとき、シーン識別部33は、図8の識別対象テーブルを参照し、「肯定」欄に1があるか否かを判断することになる。
全体識別処理によってシーンの識別ができた場合(S104でYES)、部分識別処理や統合識別処理が省略される。これによりシーン識別処理の速度が速くなる。
ところで、上記の説明には無いが、全体識別器50は、サブ識別器51によって判別式の値を算出したときには、判別式の値に対応するPrecisionを、確信度に関する情報として結果記憶部31Bに記憶する。もちろん、判別式の値そのものを確信度に関する情報として記憶しても良い。
===部分識別処理===
図14は、部分識別処理のフロー図である。部分識別処理は、全体識別処理によってシーンの識別ができなかった場合(図5のS104でNO)に行われる。以下に説明するように、部分識別処理は、分割された部分画像のシーンをそれぞれ識別することによって、画像全体のシーンを識別する処理である。ここでは、図6も参照しながら部分識別処理について説明する。
まず、部分識別器60は、複数のサブ部分識別器61の中から1つのサブ部分識別器61を選択する(S301)。部分識別器60には、サブ部分識別器61が3つ設けられている。各サブ部分識別器61は、8×8の64ブロックに分割された部分画像がそれぞれ特定のシーンに属するか否かを識別する。ここでの3つのサブ部分識別器61は、それぞれ、夕景、花、紅葉のシーンを識別する。ここでは、部分識別器60は、夕景→花→紅葉の順に、サブ部分識別器61を選択する(なお、サブ部分識別器61の選択順序については、後述する)。このため、最初には、部分画像が夕景のシーンに属するか否かを識別するサブ部分識別器61(夕景部分識別器61S)が選択される。
次に、部分識別器60は、識別対象テーブル(図8)を参照し、選択したサブ部分識別器61を用いてシーンを識別すべきか否かを判断する(S302)。ここでは、部分識別器60は、識別対象テーブルにおける「夕景」欄の「否定」欄を参照し、ゼロであればYESと判断し、1であればNOと判断する。なお、全体識別処理の際に、夕景識別器51Sが第1否定閾値により否定フラグを立てたとき、又は、他のサブ識別器51が第2否定閾値により否定フラグを立てたとき、このS302でNOと判断される。仮にNOと判断されると夕景の部分識別処理は省略されることになるので、部分識別処理の速度が速くなる。但し、ここでは説明の都合上、YESと判断されるものとする。
次に、サブ部分識別器61は、8×8の64ブロックに分割された部分画像の中から、1つの部分画像を選択する(S303)。
図15は、夕景部分識別器61Sが選択する部分画像の順番の説明図である。部分画像から画像全体のシーンを特定するような場合、識別に用いられる部分画像は被写体が存在する部分であることが望ましい。そこで、本実施形態では、数千枚のサンプルの夕景画像を用意し、各夕景画像を8×8の64ブロックに分割し、夕景部分画像(夕景の太陽と空の部分画像)を含むブロックを抽出し、抽出されたブロックの位置に基づいて各ブロックにおける夕景部分画像の存在確率を算出した。そして、本実施形態では、存在確率の高いブロックから順番に、部分画像が選択される。なお、図に示す選択順序の情報は、プログラムの一部としてメモリ23に格納されている。
なお、夕景画像の場合、画像の中央付近から上半分に夕景の空が広がっていることが多いため、中央付近から上半分のブロックにおいて存在確率が高くなる。また、夕景画像の場合、画像の下1/3では逆光で陰になり、部分画像単体では夕景か夜景か区別がつかないことが多いため、下1/3のブロックにおいて存在確率が低くなる。花画像の場合、花を中央に配置させる構図にすることが多いため、中央付近における花部分画像の存在確率が高くなる。
次に、サブ部分識別器61は、選択された部分画像の部分特徴量に基づいて、その部分画像が特定のシーンに属するか否かを評価する(S304)。サブ部分識別器61には、全体識別器50のサブ識別器51と同様に、サポートベクタマシン(SVM)による判別手法が用いられている。なお、サポートベクタマシンについては、後述する。判別式の値が正の値であれば、部分画像が特定のシーンに属すると判断し、サブ部分識別器61は正カウント値をインクリメントする。また、判別式の値が負の値であれば、部分画像が特定のシーンに属しないと判断し、サブ部分識別器61は負カウント値をインクリメントする。
次に、サブ部分識別器61は、正カウント値が肯定閾値よりも大きいか否かを判断する(S305)。なお、正カウント値は、特定のシーンに属すると判断された部分画像の数を示すものである。正カウント値が肯定閾値よりも大きければ(S305でYES)、サブ部分識別器61は、識別対象画像が特定のシーンに属すると判断し、肯定フラグを立てる(S306)。この場合、部分識別器60は、次のサブ部分識別器61による識別を行わずに部分識別処理を終了する。この場合、次のサブ部分識別器61による識別を省略しているので、部分識別処理の速度を速めることができる。
正カウント値が肯定閾値より大きくなければ(S305でNO)、サブ部分識別器61は、識別対象画像が特定のシーンに属すると判断できず、次のS307の処理を行う。
サブ部分識別器61は、正カウント値と残りの部分画像数との和が肯定閾値よりも小さければ(S307でYES)、S309の処理へ進む。正カウント値と残りの部分画像数との和が肯定閾値よりも小さい場合、残り全ての部分画像によって正カウント値がインクリメントされても、正カウント値が肯定閾値よりも大きくなることがないので、S309に処理を進めることによって、残りの部分画像についてサポートベクタマシンによる識別を省略する。これにより識別処理の速度を速めることができる。
サブ部分識別器61がS307でNOと判断した場合、サブ部分識別器61は、次の部分画像の有無を判断する(S308)。なお、本実施形態では、64個に分割された部分画像の全てを順に選択していない。図15において、太枠で示された上位10番目までの10個の部分画像だけを順に選択している。このため、10番目の部分画像の識別を終えれば、サブ部分識別器61は、S308において次の部分画像はないと判断する(この点を考慮して、S307の「残り部分画像数」も決定される。)。
図16は、64個に分割された部分画像のうち、上位10番目までの10個の部分画像だけで夕景画像を識別したときのRecall及びPrecisionのグラフである。図に示すような肯定閾値を設定すれば、正答率(Precision)を80%程度に設定でき、再現率(Recall)を90%程度に設定でき、精度の高い識別が可能である。
本実施形態では、10個の部分画像だけで夕景画像の識別を行っている。このため、本実施形態では、64個の全ての部分画像を用いて夕景画像の識別を行うよりも、部分識別処理の速度を速めることができる。
また、本実施形態では、夕景部分画像の存在確率の高い上位10番目の部分画像を用いて夕景画像の識別を行っている。このため、本実施形態では、存在確率を無視して抽出された10個の部分画像を用いて夕景画像の識別を行うよりも、RecallやPrecisionをともに高く設定することが可能になる。
また、本実施形態では、夕景部分画像の存在確率の高い順に部分画像を選択している。この結果、早い段階でS305の判断がYESになりやすくなる。このため、本実施形態では、存在確率の高低を無視した順で部分画像を選択したときよりも、部分識別処理の速度を速めることができる。
S307においてYESと判断された場合、又は、S308において次の部分画像がないと判断された場合、サブ部分識別器61は、負カウント値が否定閾値よりも大きいか否かを判断する(S309)。この否定閾値は、前述の全体識別処理における否定閾値(図7のS206)とほぼ同様の機能を果たすものなので、詳しい説明は省略する。S309でYESと判断された場合、図7のS207と同様に否定フラグを立てる。
S302においてNOの場合、S309でNOの場合、又はS310の処理を終えた場合、部分識別器60は、次のサブ部分識別器61の有無を判断する(S311)。夕景部分識別器61Sによる処理を終えた後の場合、サブ部分識別器61として花部分識別器61Fや紅葉部分識別器61Rがまだあるので、部分識別器60は、S311において、次のサブ部分識別器61があると判断する。
そして、S306の処理を終えた場合(識別対象画像が特定のシーンに属すると判断された場合)、又は、S311において次のサブ部分識別器61がないと判断された場合(識別対象画像が特定のシーンに属すると判断できなかった場合)、部分識別器60は、部分識別処理を終了する。
なお、既に説明した通り、部分識別処理が終了すると、シーン識別部33は、部分識別処理によってシーンの識別ができたか否かを判断する(図5のS106)。このとき、シーン識別部33は、図8の識別対象テーブルを参照し、「肯定」欄に1があるか否かを判断することになる。
部分識別処理によってシーンの識別ができた場合(S106でYES)、統合識別処理が省略される。これにより、シーン識別処理の速度が速くなる。
ところで、上記の説明では、夕景部分識別器61Sは、10個の部分画像を用いて夕景画像の識別を行っているが、識別に用いられる部分画像の数は10個に限られるものではない。また、他のサブ部分識別器61が、夕景部分識別器61Sとは異なる数の部分画像を用いて画像を識別しても良い。本実施形態では、花部分識別器61Fは20個の部分画像を用いて花画像を識別し、また、紅葉部分識別器61Rは、15個の部分画像を用いて紅葉画像を識別するものとする。
===サポートベクタマシン===
統合識別処理について説明する前に、全体識別処理のサブ識別器51や部分識別処理のサブ部分識別器61において用いられているサポートベクタマシン(SVM)について説明する。
図17Aは、線形サポートベクタマシンによる判別の説明図である。ここでは、2つの特徴量x1、x2によって、学習用サンプルを2次元空間に示している。学習用サンプルは2つのクラスA、Bに分けられている。図中では、クラスAに属するサンプルは丸で示されており、クラスBに属するサンプルは四角で示されている。
学習用サンプルを用いた学習によって、2次元空間を2つに分ける境界が定義される。境界は、<w・x>+b=0で定義される(なお、x=(x1,x2)であり、wは重みベクトルであり、<w・x>はwとxの内積である)。但し、境界は、マージンが最大になるように、学習用サンプルを用いた学習によって定義される。つまり、図の場合、境界は、太点線ではなく、太実線のようになる。
判別は、f(x)=<w・x>+bを用いて行われる。ある入力x(この入力xは、学習用サンプルとは別である)について、f(x)>0であればクラスAに属すると判別され、f(x)<0であればクラスBに属すると判別される。
ここでは2次元空間を用いて説明しているが、これには限定されない(つまり特徴量は2以上でも良い)。この場合、境界は超平面で定義される。
ところで、2つのクラスに線形関数で分離できないことがある。このような場合に線形サポートベクタマシンによる判別を行うと、判別結果の精度が低下する。そこで、入力空間の特徴量を非線形変換すれば、すなわち入力空間からある特徴空間へ非線形写像すれば、特徴空間において線形関数で分離することができるようになる。非線形サポートベクタマシンでは、これを利用している。
図17Bは、カーネル関数を用いた判別の説明図である。ここでは、2つの特徴量x1、x2によって、学習用サンプルを2次元空間に示している。図17Bの入力空間からの非線形写像が図17Aのような特徴空間になれば、線形関数で2つのクラスに分離することが可能になる。この特徴空間においてマージンが最大になるように境界が定義されれば、特徴空間における境界の逆写像が、図17Bに示す境界になる。この結果、図17Bに示すように、境界は非線形になる。
本実施形態では、ガウスカーネルを利用することにより、判別式f(x)は次式(1)のようになる(なお、Mは特徴量の数、Nは学習用サンプルのうち識別境界に寄与するサポートベクタの数、wは重み係数、yijはサポートベクタの特徴量、xは入力xの特徴量である)。
Figure 0004882927
ある入力x(この入力xは学習用サンプルとは別である)について、f(x)>0であればクラスAに属すると判別され、f(x)<0であればクラスBに属すると判別される。また、f(x)の値が大きい値になるほど、入力xがクラスAに属する確率が高くなる。逆に、判別式f(x)の値が小さい値になるほど、入力xがクラスAに属する確率が低くなる。前述の全体識別処理のサブ識別器51や部分識別処理のサブ部分識別器61では、上記のサポートベクタマシンの判別式f(x)の値を用いている。サポートベクタマシンによる判別式f(x)の値の算出には、学習用サンプルの数(本実施形態では数万個)が多いほど、すなわちサポートベクタの数が多いほど時間がかかる。
また、式(1)のうち次式(2)に示すk(x)は、識別対象と各サポートベクタとの関係に応じた関数である。以下、このk(x)のことをカーネルともいう。
Figure 0004882927
なお、学習用サンプルとは別に評価用サンプルが用意されている。前述のRecallやPrecisionのグラフは、評価用サンプルに対する識別結果(判別式f(x)の値)に基づくものである。
===統合識別処理===
前述の全体識別処理や部分識別処理では、サブ識別器51やサブ部分識別器61における肯定閾値を比較的高めに設定し、Precision(正解率)を高めに設定している。なぜならば、例えば全体識別器51の風景識別器51Lの正解率が低く設定されると、風景識別器51が紅葉画像を風景画像であると誤識別してしまい、紅葉識別器51Rによる識別を行う前に全体識別処理を終えてしまう事態が発生してしまうからである。本実施形態では、Precision(正解率)が高めに設定されることにより、特定のシーンに属する画像が特定のシーンのサブ識別器51(又はサブ部分識別器61)に識別されるようになる(例えば、紅葉画像が紅葉識別器51R(又は紅葉部分識別器61R)によって識別されるようになる)。
但し、全体識別処理や部分識別処理のPrecision(正解率)を高めに設定すると、全体識別処理や部分識別処理ではシーンの識別ができなくなる可能性が高くなる。そこで、本実施形態では、全体識別処理及び部分識別処理によってシーンの識別ができなかった場合、以下に説明する統合識別処理が行われる。
図18は、統合識別処理のフロー図である。以下に説明するように、統合識別処理は、全体識別処理の各サブ識別器51の判別式の値に基づいて、最も確信度の高いシーンを選択する処理である。
まず、統合識別器70は、5つのサブ識別器51の判別式の値に基づいて、正となるシーンを抽出する(S401)。このとき、全体識別処理の際に各サブ識別器51が算出した判別式の値が用いられる。
次に、統合識別器70は、判別式の値が正のシーンが存在するか否かを判断する(S402)。判別式の値が正のシーンが存在する場合(S402でYES)、最大値のシーンの欄に肯定フラグを立てて(S403)、統合識別処理を終了する。これにより、最大値のシーンに識別対象画像が属すると判断される。
一方、判別式の値が正であるシーンが存在しない場合(S402でNO)、肯定フラグを立てずに、統合識別処理を終了する。これにより、図8の識別対象テーブルの肯定欄において、1のシーンが無いままの状態になる。つまり、識別対象画像が、どのシーンに属するか識別できなかったことになる。
なお、既に説明した通り、統合識別処理が終了すると、シーン識別部33は、統合識別処理によってシーンの識別ができたか否かを判断する(図5のS108)。このとき、シーン識別部33は、図8の識別対象テーブルを参照し、「肯定」欄に1があるか否かを判断することになる。S402でNOとの判断の場合、S108の判断もNOになる。
===第1実施形態===
<概要>
前述したように、全体識別処理のサブ識別器51や部分識別処理のサブ部分識別器61では、サポートベクタマシンによるシーンの識別処理が行われる。各サブ識別器は、サポートベクタマシンによって判別式を算出し、判別式の値と閾値(肯定閾値、否定閾値)とを比較することによって、識別対象画像が特定のシーンに属するか否かを識別する。
式(1)からわかるように、サポートベクタマシンは、識別対象とサポートベクタとの関係に応じた関数値を算出し、その関数値を積算していくことによって判別式を算出している。すなわち、判別式の演算の実行時間は、サポートベクタの数に比例する。なお、サポートベクタは、識別境界に寄与する学習用サンプルのことである。以下の説明において、サポートベクタのことを単にサンプルともいい、サポートベクタの数のことをサンプル数ともいう。
ところで、サポートベクタマシンで識別精度を高めるには大量の学習用サンプルを用意する必要があり、これによりサンプル数も多くなる。よって、サポートベクタマシンによる判別式の演算に時間がかかり、識別処理の速度を速めるのが困難となっていた。特に、シーン識別部33における全体識別処理や部分識別処理のように、複数のサブ識別器によってシーン毎に順に識別を行う場合、各サブ識別器で識別処理に時間がかかると、後段の識別処理に進むのが遅くなり、識別処理全体の速度が低下することになる。
そこで、本実施形態では、サポートベクタマシンの判別式の演算の途中で識別結果を判断できる場合、演算の打ち切りを行うことによって識別処理の速度の向上を図る。第1実施形態では、識別対象画像が特定のシーンに属さないことを判別式の演算の途中で判断する場合について説明する。なお、以下の実施形態では、便宜上、第2否定閾値を用いた識別についての説明を省略する。
<識別処理について>
以下、図19〜図21を参照しつつ本発明の第1実施形態について説明する。
図19A及び図19Bは、サポートベクタマシンでの演算に用いる識別用テーブルの一例を示す図である。図20は、本発明の第1実施形態にかかる識別処理を説明するためのフロー図である。図21は、サンプル数と積算値の関係の一例を示す図である。以下の実施形態では、全体識別器50のサブ識別器51(例えば、風景識別器51L)で識別処理を行うこととする。なお、図20は、図7の一点鎖線の部分における本発明の識別処理のフローを示したものである。
各サブ識別器51では、サポートベクタマシンによる学習用サンプルを用いた学習により、識別境界に寄与するサポートベクタが定められている。そして、サポートベクタマシンは、前述した式(1)の演算により判別式を算出する。つまり、サポートベクタの特徴量(yij)と識別対象の特徴量(x)との関係に応じて算出された式(2)のカーネルk(x)に、重み係数(w)を乗算し、その値(関数値)を順次積算していく。この演算に用いる各サポートベクタと、それに対応する重み係数とは、図19Aに示すように、識別用テーブルとして、例えば記憶部31に記憶されている。
本実施形態では、サブ識別器51は、図19Aの識別用テーブルを、図19Bに示すように、重み係数とサポートベクタの特徴量を対応させて、重み係数の大きい順に(正から負となるように)ソートすることとする。なお、例えば、識別用テーブルを作成するコンピュータ等(不図示)が、図19Aの識別用テーブルを重み係数の大きい順にソートするようにしてもよい。そして、作成された識別用テーブル(図19B)を記憶部31に記憶させておくようにしてもよい。第1実施形態では、サポートベクタマシンによる判別式の演算の際に、図19Bの識別用テーブルの重み係数の大きい側(紙面上側)から順番に、重み係数及びサンプルが選択されることになる。
サブ識別器51は、図7のS202で、識別対象のシーンであると判断すると(S202でYES)、サポートベクタマシンによる演算を行う。まず、図20に示すように積算値(後述する)の初期値としてゼロを設定する(S501)。そして、サブ識別器51は、図19Bの識別用テーブルに基づいて、重み係数の正の側(紙面上側)から順に対応するサンプルを選択し(S502)、式(2)によってカーネルk(x)の値を算出する(S503)。図19Bの場合、重み係数wに対応するサンプルが最初に選択され、その特徴量(y51,y52,y53・・・)を用いて式(2)のカーネルk(x)が算出される。そして、サブ識別器51は、このカーネルk(x)に重み係数(w)を乗算して、その乗算で得られた関数値を積算値に積算する(S504)。
ここで、式(2)より、カーネルk(x)は常に正の値となる。よって、カーネルk(x)に重み係数を乗算した関数値は、重み係数が正の場合には正の値となり、重み係数が負の場合には負の値となる。つまり、重み係数が正の場合、積算を行うことによって積算値は大きくなり、重み係数が負の場合、積算を行うことによって積算値は小さくなる。前述したように、重み係数は正から負となる順にソートされているので、積算値は、図21に示すように変化する。つまり、重み係数が正では、サンプル数が増加するにつれて積算値が大きくなり、重み係数が負になると、サンプル数が増加するにつれて積算値が小さくなる。
図21では、重み係数が正から負の順に演算を行った場合の積算値とサンプル数の関係を示している。図21においてPTは肯定閾値であり、最終的な積算値である判別式の値がPTより大きい場合、サブ識別器51は、識別対象画像が当該サブ識別器51に対応するシーンに属すると識別する。一方、判別式の値がPT以下の場合、サブ識別器51は、識別対象画像が対応するシーンに属すると識別できないことになる。また、前述したように各サブ識別器51は、第1否定閾値によって、対応するシーンに属さないことも識別している。図21においてNTは第1否定閾値であり、判別式の値がNTより小さければ、サブ識別器51は、識別対象画像が対応するシーンに属さないと識別する。図21において、重み係数の符号が切り替わるときのサンプル数をA、積算値が肯定閾値(PT)よりも小さくなるときのサンプル数をb、積算値が第1否定閾値(NT)よりも小さくなるときのサンプル数をa、全サンプル数をn(n>a)でそれぞれ示している。
サブ識別器51は、S504で乗算した重み係数の符号が負であるか否かの判断を行う(S505)。すなわち、演算で得られる関数値が負の値になるか否かを判断する。そして、重み係数が負であると判断した場合(S505でYES)、積算値が第1否定閾値よりも小さいか否かの判断を行う(S506)。前述したように、重み係数が負の場合では、演算を行う毎に積算値は小さくなるので、積算値が第1否定閾値よりも小さくなった場合、判別式f(x)の値が第1否定閾値よりも大きくなることはない。そこで、サブ識別器51は、積算値が第1否定閾値よりも小さい場合(S506でYES)、識別対象画像が当該サブ識別器51に対応するシーン(例えば「風景」のシーン)に属さないと識別して、そのシーンの欄に否定フラグを立てる(図7のS207)。
また、S506において積算値が第1否定閾値以上であると判断した場合(S506でNO)、又は、S505において重み係数が正であると判断した場合(S505でNO)、サブ識別器51は、次のサンプルが有るか否かの判断を行う(S509)。次のサンプルが有ると判断した場合(S509でYES)、図19Bの識別用テーブルの重み係数の大きい側からサンプルを選択するS502を実行する。
次のサンプルが無いと判断した場合(S509でNO)、サブ識別器51は、その積算値である判別式の値が肯定閾値よりも大きいか否かを判断する(S510)。判別式の値が肯定閾値よりも大きいと判断した場合(S510でYES)、識別対象画像が当該サブ識別器51に対応するシーン(例えば「風景」のシーン)に属するとして、そのシーンの欄に肯定フラグを立てる(図7のS205)。なお、S506より積算値が第1否定閾値以上であるので、判別式は第1否定閾値以上の値であることになり、判別式と第1否定閾値との比較を行う必要はない。そこで、サブ識別器51は、判別式の値が肯定閾値以下であると判断した場合(S510でNO)、対応するシーンであるとは判断できず、次のサブ識別器51が有るか否かの判断を行う(図7のS208)。
こうすることによって、例えば、積算値が図21のように変化する場合、a個のサンプルまでの積算結果によって、識別対象画像が、サブ識別器51に対応するシーンでないと識別できることになる。つまり、残りの(n−a)個のサンプルの演算処理を省略することができる。これにより、サブ識別器51の識別処理の速度を速めることができる。
また、重み係数が負(関数値が負)のときに、積算値が第1否定閾値より小さいか否かを判断しているので、積算される関数値が正の時点で積算値が第1否定閾値よりも小さくても、識別対象画像が対応するシーンに属さないとは識別されないことになる。これにより確実に識別処理を行うことができる。
なお、サブ識別器51が識別用テーブルをソートする際に、負の符号の重み係数を、絶対値の大きい順にソートするようにすると、重み係数が正から負に切り替わった直後、絶対値の大きい関数値から積算されることになり積算値の変化量が大きくなる。よって、積算値が第1否定閾値に達するまでの演算(積算回数)が少なくなり、より識別処理の速度を速めることができる。
===第2実施形態===
第1実施形態で説明したように、サブ識別器51が、図19Bの識別用テーブルに基づいて、重み係数の大きい順(正から負の順)に判別式の演算を行うようにすると、重み係数が負の場合には、サンプル数が増加するにつれて積算値は小さくなる。このことにより、判別式の演算の途中で積算値が肯定閾値以下となった場合、識別対象画像がサブ識別器51に対応するシーンに属すると識別できないことを判断することもできる。
図22は、本発明の第2実施形態にかかる識別処理を説明するためのフロー図である。図22において、S601〜S605は、図20のS501〜S505と対応しており、それぞれ同じ処理を行う。よって、この部分の説明を省略し、S605以降の処理について説明する。なお、サブ識別器51は、第1実施形態と同様に図19Bの識別用テーブルに基づいて、重み係数の大きい順(正から負となる順)にサンプルを選択することとする。
サブ識別器51は、重み係数が負であるか否かを判断するS605において、重み係数が負であると判断した場合(S605でYES)、積算値が肯定閾値よりも大きいか否かの判断を行う(S606)。前述したように、重み係数が負の場合では、演算を行う毎に積算値は小さくなるので、積算値が肯定閾値以下となる場合、判別式の値が肯定閾値よりも大きくなることはない。そこで、サブ識別器51は、積算値が肯定閾値以下の場合(S606でNO)、識別対象画像が当該サブ識別器51に対応するシーン(例えば「風景」のシーン)に属すると識別できないと判断して、次のサブ識別器51が有るか否かの判断を行う(図7のS208)。つまり、積算値が肯定閾値以下となった時点で、そのサブ識別器51による識別処理を終了する。
一方、サブ識別器51は、S606において積算値が肯定閾値よりも大きいと判断した場合(S606でYES)、又は、S605において重み係数が正であると判断した場合(S605でNO)、次のサンプルが有るか否かの判断を行う(S607)。次のサンプルが有ると判断した場合(S607でYES)、そのサンプルを選択するS602を実行する。
次のサンプルが無いと判断した場合(S607でNO)、サブ識別器51は、識別対象画像が当該サブ識別器51に対応するシーン(例えば「風景」のシーン)に属するとして、そのシーンの欄に肯定フラグを立てる(図7のS205)。
この第2実施形態では、図21に示すb個のサンプルまでの演算によって、識別対象画像が識別処理に対応するシーンに属すると識別できないと判断し、その識別処理を終了することになる。よって、(n−b)個のサンプルに対する識別処理を省略することができる。なお、肯定閾値は第1否定閾値よりも大きい値であり、重み係数が負の場合、サンプル数が増加するにつれて積算値が小さくなるのでb<aである。つまり、(n−a)個の演算を省略する第1実施形態よりも演算回数が少なくなるので、識別処理の速度をより速めることができる。
特に、図23に示すように、積算値がピークとなるときに(重み係数が正から負に切り替わるAで)、積算値が肯定閾に達しない場合、負の重み係数のサンプルに対する演算を全て省略することができ、識別処理をさらに高速に行うことができる。
ただし、この第2実施形態では、重み係数が負の場合に積算値が肯定閾値以下になった時点で、そのシーンに対する判別式の演算が打ち切られることになるので、判別式の値が算出されないことになる。よって、第1否定閾値によってそのシーンを除外することはできなくなる(否定フラグを立てるS207を実行できなくなる)。また、各サブ識別器51の判別式の値に基づいて、最も確信度の高いシーンを選択する統合識別処理を行えないことになる。この場合、例えば、統合識別器70は、例えば「その他」のシーンと識別するようにしておくようにする。
この第2実施形態による識別処理では、第1実施形態よりも、各サブ識別器51における識別処理の高速化を図ることができ、後段の識別処理により早く進むことができる。
また、重み係数が負(関数値が負)のときに、積算値が肯定閾値より小さいか否かを判断しているので、積算される関数値が正の時点で積算値が肯定閾値よりも小さくても、識別対象画像が対応するシーンに属するとはいえないと識別されない。これにより確実に識別処理を行うことができる。
なお、重み係数が負の値のサンプルに対する演算において、重み係数の絶対値の大きい順に演算が行われるようにすると、重み係数が正から負に切り替わった直後、絶対値の大きい関数値から積算されることになり積算値の変化量が大きくなる。よって、積算値が肯定閾値以下となるまでの演算が少なくなり、より識別処理の速度を速めることができる。
===第3実施形態===
第1実施形態および第2実施形態では、サブ識別器51は、判別式の演算を各サンプルに対する重み係数の大きい順(正から負の順)に行うこととしたが、第3実施形態では、重み係数の小さい順(負から正の順)に行う。
図24は、本発明の第3実施形態にかかる識別処理を説明するためのフロー図である。また、図25は、重み係数の小さい順に判別式の演算を行った場合のサンプル数と積算値の関係の一例を示す図である。第3実施形態では、サブ識別器51は、図19Bの識別用テーブルを用いて、重み係数の小さい側(紙面下側)からサンプルを選択することとする。なお、例えば、サブ識別器51が、図19Aの識別用テーブルを重み係数の小さい順に(負から正の順)にソートし、その識別用テーブル(不図示)に基づいて重み係数の小さい順からサンプルを選択するようにしてもよい。
サブ識別器51は、図7のS202において、識別対象のシーンであると判断すると(S202でYES)、サポートベクタマシンによる演算を行う。まず、図24に示すように、積算値の初期値としてゼロを設定する(S701)。そして、サブ識別器51は、図19Bの識別用テーブルの重み係数の小さい側(紙面下側)から順に対応するサンプルを選択し(S702)、式(2)によってカーネルk(x)の値を算出する(S703)。そして、サブ識別器51は、このカーネルk(x)に重み係数(w)を乗算して、その乗算で得られた関数値を積算値に積算する(S704)。
前述したように、この関数値は、重み係数が正の場合には正の値となり、重み係数が負の場合には負の値となる。また、重み係数の小さい順(負から正の順)にサンプルが選択されているので、積算値は、図25に示すように変化する。つまり、重み係数が負では、サンプル数が増加するにつれて積算値が小さくなり、重み係数が正になると、サンプル数が増加するにつれて積算値が大きくなる。なお、図25において、積算値が肯定閾値より大きくなるときのサンプル数をc、全サンプル数をn(n>c)で示している。
サブ識別器51は、重み係数の符号が正であるか否かの判断を行う(S705)。そして、重み係数が正であると判断した場合(S705でYES)、積算値が肯定閾値よりも大きいか否かの判断を行う(S706)。重み係数が正の場合では、演算を行う毎に積算値は大きくなるので、積算値が肯定閾値よりも大きくなった場合、判別式の値が肯定閾値以下となることはない。そこで、サブ識別器51は、積算値が肯定閾値よりも大きいと判断した場合(S706でYES)、識別対象画像が当該サブ識別器51に対応するシーン(例えば「風景」のシーン)に属するとして、そのシーンの欄に肯定フラグを立てる(図7のS205)。
また、S706において積算値が肯定閾値以下であると判断した場合(S706でNO)、又は、S705において重み係数が負であると判断した場合(S505でNO)、サブ識別器51は、次のサンプルが有るか否かの判断を行う(S707)。次のサンプルが有ると判断した場合(S707でYES)、そのサンプルを選択するS702を実行する。
次のサンプルが無いと判断した場合(S707でNO)、サブ識別器51は、その積算値(判別式の値)が第1否定閾値よりも小さいか否かを判断する(S708)。判別式の値が第1否定閾値よりも小さいと判断した場合(S708でYES)、サブ識別器51は、識別対象画像が当該サブ識別器51に対応するシーン(例えば「風景」のシーン)には属さないとして、そのシーンの欄に否定フラグを立てる(図7のS207)。一方、判別式の値が第1否定閾値以上であると判断した場合(S708でNO)、シーンを特定することができず、次のサブ識別器51が有るか否かの判断を行う(図7のS208)。
このように、第3実施形態では、重み係数の小さい順から演算を行うことによって、図25に示すc個のサンプルまでの演算が終わった時点で、識別対象画像が、その識別処理に対応するシーンに属すると識別することができる。よって、残りの(n−c)個のサンプルに対する演算を省略でき、これにより識別処理の速度を向上させることができる。
また、重み係数が正(関数値が正)のときに、積算値が肯定閾値より大きいか否かを判断しているので、例えば積算される関数値が負の時点で積算値が肯定閾値よりも大きくても、識別対象画像が対応するシーンに属するとは識別されない。これにより確実に識別処理を行うことができる。
なお、重み係数が正の値のサンプルに対する演算において、重み係数の値の大きい順に演算が行われるようにすると、重み係数が負から正に切り替わった直後、値の大きい関数値から積算されることになり積算値の変化量が大きくなる。よって、積算値が肯定閾値を超えるまでの演算回数を減らすことができ、識別処理の速度をより速めることができる。
===第4実施形態===
前述した実施形態では、全体識別器50のサブ識別器51での識別処理について説明したが、部分識別器60のサブ部分識別器61の場合、部分画像毎にサポートベクタマシンによる識別(部分識別処理)を行う。部分識別処理では、部分画像の部分特徴量に基づいて、特定のシーンに属するか否かが部分画像毎に識別される。具体的には、サブ部分識別器61は、算出した判別式の値が正であればその部分画像が対応するシーンに属すると識別し、負であればその部分画像が対応するシーンには属さないと識別する。つまり、部分識別処理では、サポートベクタマシンの識別対象は部分画像であり、その識別の閾値はゼロである。そして、判別式の値が正となった部分画像の数(カウント数)が肯定閾値を超えた場合に、その(全体)画像が対応するシーンに属すると識別される。
この部分識別処理の場合においても、部分画像毎に前述した識別処理と同様の処理を行うことができる。
例えば、第1実施形態及び第2実施形態と同様に、サブ識別器61が、重み係数を大きい順(正から負の順)にソートした識別用テーブル(不図示)を作成し、識別用テーブルに基づいて重み係数の大きい側から判別式の演算を行うことにより、積算値が負になった時点で、その部分画像が対応するシーンに属さないと識別することができる。
あるいは、第3実施形態と同様に、サブ識別器61が、重み係数の小さい側から演算を行うことにより、積算値が正になった時点で、その部分画像が対応するシーンに属すると識別することができる。
これにより、部分画像毎に対する識別を早く打ち切ることができ、識別に時間のかかりがちである部分識別処理の処理速度を速めることができる。
===その他の実施形態===
一実施形態としてプリンタ4によって画像のシーンの識別処理を行う場合について説明したが、上記の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることは言うまでもない。
例えば、本発明の識別処理の識別対象は、画像に限定されるものではない。すなわち、サポートベクタマシンを用いた識別によって、複数のカテゴリに分類できるものであれば、識別対象となりうる。
画像処理システムの説明図である。 プリンタの構成の説明図である。 プリンタの自動補正機能の説明図である。 画像のシーンと補正内容との関係の説明図である。 シーン識別部によるシーン識別処理のフロー図である。 シーン識別部の機能の説明図である。 全体識別処理のフロー図である。 識別対象テーブルの説明図である。 全体識別処理の肯定閾値の説明図である。 RecallとPrecisionの説明図である。 第1否定閾値の説明図である。 第2否定閾値の説明図である。 図16Aは、閾値テーブルの説明図である。図16Bは、風景識別器における閾値の説明図である。図16Cは、風景識別器の処理の概要の説明図である。 部分識別処理のフロー図である。 夕景部分識別器が選択する部分画像の順番の説明図である。 上位10番目までの10個の部分画像だけで夕景画像の識別をしたときのRecall及びPrecisionのグラフである。 図20Aは、線形サポートベクタマシンによる判別の説明図である。図20Bは、カーネル関数を用いた判別の説明図である。 統合識別処理のフロー図である。 図19Aは、サポートベクタマシンでの演算に用いる識別用テーブルを示す図である。図19Bは、図19Aの識別用テーブルが重み係数の大きい順にソートされた状態を示す図である。 本発明の第1実施形態にかかる識別処理を説明するためのフロー図である。 重み係数の大きい順に演算を行った場合の、サンプル数と積算値の関係を示す図である。 本発明の第2実施形態にかかる識別処理を説明するためのフロー図である。 積算値とサンプル数の関係を示す図である。 本発明の第3実施形態にかかる識別処理を説明するためのフロー図である。 重み係数の小さい順に演算を行った場合の、サンプル数と積算値の関係を示す図である。
符号の説明
2 デジタルスチルカメラ、2A モード設定ダイヤル、
4 プリンタ、6 メモリカード、10 印刷機構、
11 ヘッド、12 ヘッド制御部、13 モータ、14 センサ
23 メモリ、24 制御ユニット、25 駆動信号生成部、
31 記憶部、31A 画像記憶部、31B 結果記憶部、
32 顔識別部、33 シーン識別部、34 画像補正部、35 プリンタ制御部、
40 特徴量取得部、50 全体識別器、51 サブ識別器、51L 風景識別器、
51S 夕景識別器、51N 夜景識別器、51F 花識別器、51R 紅葉識別器、
60 部分識別器、61 サブ部分識別器、61S 夕景部分識別器、
61F 花部分識別器、61R 紅葉部分識別器、70 統合識別器

Claims (6)

  1. 識別対象と、識別境界に寄与するサポートベクタとの関係に応じた関数値を算出し、
    各サポートベクタに対する前記関数値を積算した積算値を算出し、
    前記積算値が閾値よりも小さい場合に、前記識別対象が特定のカテゴリに属さないと識別するカテゴリ識別方法であって、
    前記積算値の算出は、前記関数値が正の値となるものを積算し、その後、前記関数値が負の値となるものを積算することによって行い、
    前記積算値が前記閾値よりも小さくなった場合、残りの前記関数値を積算することなく、前記識別対象が前記特定のカテゴリに属さないと識別する
    ことを特徴とするカテゴリ識別方法。
  2. 請求項1に記載のカテゴリ識別方法であって、
    前記積算値に積算される前記関数値が負の値であるかを判断し、
    前記関数値が負の値であり、且つ、前記積算値が前記閾値よりも小さくなった場合、前記識別対象が前記特定のカテゴリに属さないと識別する
    ことを特徴とするカテゴリ識別方法。
  3. 請求項1又は2に記載のカテゴリ識別方であって、
    負の値の前記関数値は、絶対値の大きいものから順に前記積算値に積算される
    ことを特徴とするカテゴリ識別方法。
  4. 識別対象と、識別境界に寄与するサポートベクタとの関係に応じた関数値を算出し、
    各サポートベクタに対する前記関数値を積算した積算値を算出し、
    前記積算値が閾値よりも大きい場合に、前記識別対象が特定のカテゴリに属すると識別するカテゴリ識別方法であって、
    前記積算値の算出は、前記関数値が正の値となるものを積算し、その後、前記関数値が負の値となるものを積算することによって行い、
    前記積算値が前記閾値以下になった場合、残りの前記関数値を積算することなく、前記識別対象が前記特定のカテゴリに属すると識別できないと判断する
    ことを特徴とするカテゴリ識別方法。
  5. 請求項4に記載のカテゴリ識別方法であって、
    前記積算値に積算される前記関数値が負の値であるかを判断し、
    前記関数値が負の値であり、且つ、前記積算値が前記閾値以下になった場合、前記識別対象が前記特定のカテゴリに属すると識別できないと判断する
    ことを特徴とするカテゴリ識別方法。
  6. 請求項4又は5に記載のカテゴリ識別方であって、
    負の値の前記関数値は、絶対値の大きいものから順に前記積算値に積算される
    ことを特徴とするカテゴリ識別方法。
JP2007226581A 2007-08-31 2007-08-31 カテゴリ識別方法 Expired - Fee Related JP4882927B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007226581A JP4882927B2 (ja) 2007-08-31 2007-08-31 カテゴリ識別方法
US12/190,489 US8036998B2 (en) 2007-08-31 2008-08-12 Category classification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007226581A JP4882927B2 (ja) 2007-08-31 2007-08-31 カテゴリ識別方法

Publications (3)

Publication Number Publication Date
JP2009059207A JP2009059207A (ja) 2009-03-19
JP2009059207A5 JP2009059207A5 (ja) 2010-09-09
JP4882927B2 true JP4882927B2 (ja) 2012-02-22

Family

ID=40408997

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007226581A Expired - Fee Related JP4882927B2 (ja) 2007-08-31 2007-08-31 カテゴリ識別方法

Country Status (2)

Country Link
US (1) US8036998B2 (ja)
JP (1) JP4882927B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009080556A (ja) * 2007-09-25 2009-04-16 Seiko Epson Corp 設定方法、識別方法及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4368905B2 (ja) * 2007-05-11 2009-11-18 シャープ株式会社 グラフ描画装置および方法、その方法を実行する歩留り解析方法および歩留り向上支援システム、プログラム、並びにコンピュータ読み取り可能な記録媒体

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3520859B2 (ja) 2000-09-01 2004-04-19 セイコーエプソン株式会社 画像ファイルの出力画像調整
JP2003052002A (ja) 2000-09-01 2003-02-21 Seiko Epson Corp 画像ファイルの出力画像調整
JP3999157B2 (ja) 2001-01-17 2007-10-31 セイコーエプソン株式会社 画像ファイルの出力画像調整
JP4266716B2 (ja) 2001-01-17 2009-05-20 セイコーエプソン株式会社 画像ファイルの出力画像調整
JP4015066B2 (ja) 2001-01-17 2007-11-28 セイコーエプソン株式会社 画像ファイルの出力画像調整
JP2003060935A (ja) 2001-01-17 2003-02-28 Seiko Epson Corp 画像ファイルの出力画像調整
JP3725454B2 (ja) 2001-01-17 2005-12-14 セイコーエプソン株式会社 画像ファイルの出力画像調整
JP3520860B2 (ja) 2001-02-09 2004-04-19 セイコーエプソン株式会社 画像ファイルの出力画像調整
JP4496817B2 (ja) 2001-02-09 2010-07-07 セイコーエプソン株式会社 ネットワークを介した画像処理
JP2003101940A (ja) 2001-02-09 2003-04-04 Seiko Epson Corp 画像ファイルの出力画像調整
JP3608533B2 (ja) 2001-02-09 2005-01-12 セイコーエプソン株式会社 ネットワークを介した画像処理
JP4006961B2 (ja) 2001-06-19 2007-11-14 セイコーエプソン株式会社 画像ファイル生成装置
WO2003036960A1 (fr) 2001-10-23 2003-05-01 Seiko Epson Corporation Controle de sortie d'images utilisant des donnees de controle de traitement d'images
US7490071B2 (en) * 2003-08-29 2009-02-10 Oracle Corporation Support vector machines processing system
JP2005134966A (ja) 2003-10-28 2005-05-26 Seiko Epson Corp 顔画像候補領域検索方法及び検索システム並びに検索プログラム
US20050251347A1 (en) * 2004-05-05 2005-11-10 Pietro Perona Automatic visual recognition of biological particles
EP3703058A1 (en) * 2005-11-29 2020-09-02 Children's Hospital Medical Center A method of selecting a medication for a patient
JP2007194917A (ja) 2006-01-19 2007-08-02 Seiko Epson Corp 画像の撮影シーンに適した効果処理の設定
JP4775029B2 (ja) 2006-02-22 2011-09-21 セイコーエプソン株式会社 撮影シーンの決定
US7640224B2 (en) * 2007-03-26 2009-12-29 International Business Machines Corporation Active sampling collaborative prediction method for end-to-end performance prediction

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009080556A (ja) * 2007-09-25 2009-04-16 Seiko Epson Corp 設定方法、識別方法及びプログラム

Also Published As

Publication number Publication date
US8036998B2 (en) 2011-10-11
US20090063374A1 (en) 2009-03-05
JP2009059207A (ja) 2009-03-19

Similar Documents

Publication Publication Date Title
JP4702635B2 (ja) オートホワイトバランス補正値算出装置、方法およびプログラムならびに撮像装置
JP4611069B2 (ja) 特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体
JP4606828B2 (ja) 特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体
JP2008282267A (ja) シーン識別装置、及び、シーン識別方法
JP5040624B2 (ja) 情報処理方法、情報処理装置及びプログラム
US20080292181A1 (en) Information Processing Method, Information Processing Apparatus, and Storage Medium Storing a Program
JP2009093334A (ja) 識別方法及びプログラム
JP2009080557A (ja) 識別方法及びプログラム
JP4862720B2 (ja) 情報処理方法、情報処理装置、プログラム、及び記憶媒体
JP4946750B2 (ja) 設定方法、識別方法及びプログラム
JP4882927B2 (ja) カテゴリ識別方法
JP4992519B2 (ja) 情報処理方法、情報処理装置及びプログラム
JP4910821B2 (ja) 画像識別方法
JP2008282085A (ja) シーン識別装置、及び、シーン識別方法
JP4992646B2 (ja) 識別方法及びプログラム
JP2009044249A (ja) 画像識別方法、画像識別装置及びプログラム
JP2008284868A (ja) 印刷方法、印刷装置及びプログラム
JP2008269027A (ja) シーン識別装置、及び、シーン識別方法
JP2008228087A (ja) 情報処理方法、情報処理装置及びプログラム
JP2008242638A (ja) 画像識別方法、画像識別装置及びプログラム
JP2008234626A (ja) 情報処理方法、情報処理装置及びプログラム
JP4830950B2 (ja) 情報処理方法、情報処理装置及びプログラム
JP2008228086A (ja) 情報処理方法、情報処理装置及びプログラム
JP2009080678A (ja) カテゴリ識別方法、及びプログラム
JP2009080556A (ja) 設定方法、識別方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100722

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111108

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111121

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4882927

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees