JP2008282267A - シーン識別装置、及び、シーン識別方法 - Google Patents
シーン識別装置、及び、シーン識別方法 Download PDFInfo
- Publication number
- JP2008282267A JP2008282267A JP2007127022A JP2007127022A JP2008282267A JP 2008282267 A JP2008282267 A JP 2008282267A JP 2007127022 A JP2007127022 A JP 2007127022A JP 2007127022 A JP2007127022 A JP 2007127022A JP 2008282267 A JP2008282267 A JP 2008282267A
- Authority
- JP
- Japan
- Prior art keywords
- scene
- partial
- identification
- image
- target image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
【課題】シーンの識別速度を向上させる。
【解決手段】識別対象画像の一部を構成する部分画像の特徴を示す部分特徴量に基づいて、部分画像が第1シーンに属するか否かの評価を行い、部分画像が第1シーンに属することを示す評価結果に応じて、識別対象画像が第1シーンに属することを判断する第1部分識別器と、第1部分識別器によって識別対象画像が第1シーンに属すると判断されなかった場合に、部分特徴量に基づいて、識別対象画像が第1シーンとは特徴の異なる第2シーンに属することを判断する第2部分識別器と、を有するシーン識別装置であって、第1部分識別器は、識別対象画像が第1シーンに属すると判断しなかった場合に、部分画像が第1シーンに属することを示す評価結果に応じて、識別対象画像が第2シーンに属さないことを判断する。
【選択図】図5
【解決手段】識別対象画像の一部を構成する部分画像の特徴を示す部分特徴量に基づいて、部分画像が第1シーンに属するか否かの評価を行い、部分画像が第1シーンに属することを示す評価結果に応じて、識別対象画像が第1シーンに属することを判断する第1部分識別器と、第1部分識別器によって識別対象画像が第1シーンに属すると判断されなかった場合に、部分特徴量に基づいて、識別対象画像が第1シーンとは特徴の異なる第2シーンに属することを判断する第2部分識別器と、を有するシーン識別装置であって、第1部分識別器は、識別対象画像が第1シーンに属すると判断しなかった場合に、部分画像が第1シーンに属することを示す評価結果に応じて、識別対象画像が第2シーンに属さないことを判断する。
【選択図】図5
Description
本発明は、シーン識別装置、及び、シーン識別方法に関する。
識別対象画像からその画像の全体的な特徴を示す特徴量に基づいて識別対象画像の属するシーンを識別し、識別したシーンに適する処理(例えば画質調整処理)を行う装置が提案されている(特許文献1を参照。)。
国際公開第2004/30373号パンフレット
この種の識別装置では、特定のシーンの特徴が識別対象画像に部分的に表れているような識別対象画像の場合、識別精度が低下する虞がある。そこで、このような識別対象画像に対する識別精度を高めるため、識別対象画像における一部分の特徴量に基づき、識別対象画像の識別を行うことが考えられる。この場合、識別対象画像を構成する部分毎に処理を行う必要があり、識別処理の速度を向上させることが困難であるという問題点があった。
本発明は、上記のような課題に鑑みてなされたものであり、その目的は、従来よりもシーンの識別処理の速度を向上させることにある。
前記目的を達成するための主たる発明は、
(A)識別対象画像の一部を構成する部分画像の特徴を示す部分特徴量に基づいて、前記部分画像が第1シーンに属するか否かの評価を行い、前記部分画像が前記第1シーンに属することを示す評価結果に応じて、前記識別対象画像が前記第1シーンに属することを判断する第1部分識別器と、
(B)前記第1部分識別器によって前記識別対象画像が前記第1シーンに属すると判断されなかった場合に、前記部分特徴量に基づいて、前記識別対象画像が前記第1シーンとは特徴の異なる第2シーンに属することを判断する第2部分識別器と、
(C)を有するシーン識別装置であって、
(D)前記第1部分識別器は、
前記識別対象画像が前記第1シーンに属すると判断しなかった場合に、前記部分画像が前記第1シーンに属することを示す評価結果に応じて、前記識別対象画像が前記第2シーンに属さないことを判断するシーン識別装置である。
(A)識別対象画像の一部を構成する部分画像の特徴を示す部分特徴量に基づいて、前記部分画像が第1シーンに属するか否かの評価を行い、前記部分画像が前記第1シーンに属することを示す評価結果に応じて、前記識別対象画像が前記第1シーンに属することを判断する第1部分識別器と、
(B)前記第1部分識別器によって前記識別対象画像が前記第1シーンに属すると判断されなかった場合に、前記部分特徴量に基づいて、前記識別対象画像が前記第1シーンとは特徴の異なる第2シーンに属することを判断する第2部分識別器と、
(C)を有するシーン識別装置であって、
(D)前記第1部分識別器は、
前記識別対象画像が前記第1シーンに属すると判断しなかった場合に、前記部分画像が前記第1シーンに属することを示す評価結果に応じて、前記識別対象画像が前記第2シーンに属さないことを判断するシーン識別装置である。
本発明の他の特徴は、本明細書、及び添付図面の記載により、明らかにする。
本明細書の記載、及び添付図面の記載により少なくとも次のことが明らかにされる。
すなわち、(A)識別対象画像の一部を構成する部分画像の特徴を示す部分特徴量に基づいて、前記部分画像が第1シーンに属するか否かの評価を行い、前記部分画像が前記第1シーンに属することを示す評価結果に応じて、前記識別対象画像が前記第1シーンに属することを判断する第1部分識別器と、(B)前記第1部分識別器によって前記識別対象画像が前記第1シーンに属すると判断されなかった場合に、前記部分特徴量に基づいて、前記識別対象画像が前記第1シーンとは特徴の異なる第2シーンに属することを判断する第2部分識別器と、(C)を有するシーン識別装置であって、(D)前記第1部分識別器は、前記識別対象画像が前記第1シーンに属すると判断しなかった場合に、前記部分画像が前記第1シーンに属することを示す評価結果に応じて、前記識別対象画像が前記第2シーンに属さないことを判断するシーン識別装置を実現できることが明らかにされる。
このようなシーン識別装置によれば、第1部分識別器による識別処理の評価結果に応じて、第2部分識別器による識別処理を省略することが可能となる。このため、評価等の処理を識別対象画像における部分毎に行う場合でも、無駄な処理を行わなくて済む。その結果、シーンの識別処理の速度を向上させることができる。
かかるシーン識別装置であって、前記第1部分識別器は、前記部分画像が前記第1シーンに属するか否かを評価することによって得られた評価値が肯定閾値を超えた場合に、前記識別対象画像が前記第1シーンに属すると判断することが好ましい。
このようなシーン識別装置によれば、肯定閾値の値に応じて第1シーンに対する識別精度を調整することができる。
このようなシーン識別装置によれば、肯定閾値の値に応じて第1シーンに対する識別精度を調整することができる。
かかるシーン識別装置であって、前記肯定閾値は、各部分識別器と対応するシーン毎に設けられていることが好ましい。
このようなシーン識別装置によれば、それぞれのシーンに適した識別を行うことができることができる。
このようなシーン識別装置によれば、それぞれのシーンに適した識別を行うことができることができる。
かかるシーン識別装置であって、前記第1部分識別器は、前記評価値が前記肯定閾値とは別の否定閾値を超えた場合に、前記識別対象画像が前記第2シーンに属さないと判断することが好ましい。
このようなシーン識別装置によれば、否定閾値の値に応じて、識別対象画像が第2シーンに属さないと判断する精度を調整することができる。
このようなシーン識別装置によれば、否定閾値の値に応じて、識別対象画像が第2シーンに属さないと判断する精度を調整することができる。
かかるシーン識別装置であって、前記否定閾値は、前記第2シーンに属する識別対象画像が、前記第1部分識別器によって、前記第2シーンに属さないと誤って判定される確率である誤判定率に基づいて設けられていることが好ましい。
このようなシーン識別装置によれば、識別対象画像が第2シーンに属する可能性の低い場合に、対応する第2部分識別器の識別処理を的確に省略することができる。
このようなシーン識別装置によれば、識別対象画像が第2シーンに属する可能性の低い場合に、対応する第2部分識別器の識別処理を的確に省略することができる。
かかるシーン識別装置であって、前記否定閾値は、各部分識別器と対応するシーン以外の識別対象のシーン毎に設けられることが好ましい。
このようなシーン識別装置によれば、各部分識別器による識別処理の評価結果に応じて識別対象画像が属していないシーンの判断を効率的に行うことができる。
このようなシーン識別装置によれば、各部分識別器による識別処理の評価結果に応じて識別対象画像が属していないシーンの判断を効率的に行うことができる。
かかるシーン識別装置であって、前記評価値は、前記第1シーンに属することを示す評価結果が得られた前記部分画像の個数であることが好ましい。
このようなシーン識別装置によれば、精度良く識別を行うことができる。
このようなシーン識別装置によれば、精度良く識別を行うことができる。
かかるシーン識別装置であって、前記第1部分識別器は、前記識別対象画像を構成する複数の前記部分画像の一部から選択された所定数の前記部分画像のみの評価結果を用いて、前記識別対象画像が前記第1シーンに属すること、及び、前記識別対象画像が前記第2シーンに属さないことを判断することが好ましい。
このようなシーン識別装置によれば、識別処理の速度をより向上させることができる。
このようなシーン識別装置によれば、識別処理の速度をより向上させることができる。
かかるシーン識別装置であって、前記所定数は、前記第1部分識別器によって前記識別対象画像が前記第1シーンに属すると判断された場合に、その判断が正しい確率である正答率と、前記第1シーンに属している前記識別対象画像が前記第1部分識別器によって前記第1シーンに属すると判断される確率である再現率と、に基づいて定められることが好ましい。
このようなシーン識別装置によれば、評価を行う部分画像の個数として、識別処理の精度と速度を調和させた適切な値を定めることができることができる。
このようなシーン識別装置によれば、評価を行う部分画像の個数として、識別処理の精度と速度を調和させた適切な値を定めることができることができる。
かかるシーン識別装置であって、前記所定数の前記部分画像は、前記部分画像に対応する部分領域に前記第1シーンの特徴が表れる確率である存在確率と、前記部分画像が前記第1シーンに属することを示す評価結果が得られた場合に、その評価結果が正しい確率である部分正答率と、の少なくとも一方に基づいて選択されたものであることが好ましい。
このようなシーン識別装置によれば、無作為に部分画像を選択するよりも、第1シーンであることを示す評価結果が得られる確率を高くすることができるので、評価を効率化させることができる。
このようなシーン識別装置によれば、無作為に部分画像を選択するよりも、第1シーンであることを示す評価結果が得られる確率を高くすることができるので、評価を効率化させることができる。
また、次のシーン識別方法を実現できることも明らかにされる。
すなわち、(A)識別対象画像の一部を構成する部分画像の特徴を示す部分特徴量に基づいて、前記部分画像が第1シーンに属するか否かの評価を行い、前記部分画像が前記第1シーンに属することを示す評価結果に応じて、前記識別対象画像が前記第1シーンに属することを判断するステップと、(B)前記識別対象画像が前記第1シーンに属すると判断されなかった場合に、前記識別対象画像が前記第1シーンとは特徴の異なる第2シーンに属するか否かの判断であって、前記部分画像が前記第2シーンに属することを示す評価結果に応じてなされる判断に先立って、前記部分画像が前記第1シーンに属することを示す評価結果に応じて、前記識別対象画像が前記第2シーンに属さないことを判断するステップと、(C)を有するシーン識別方法を、実現できることも明らかとされる。
すなわち、(A)識別対象画像の一部を構成する部分画像の特徴を示す部分特徴量に基づいて、前記部分画像が第1シーンに属するか否かの評価を行い、前記部分画像が前記第1シーンに属することを示す評価結果に応じて、前記識別対象画像が前記第1シーンに属することを判断するステップと、(B)前記識別対象画像が前記第1シーンに属すると判断されなかった場合に、前記識別対象画像が前記第1シーンとは特徴の異なる第2シーンに属するか否かの判断であって、前記部分画像が前記第2シーンに属することを示す評価結果に応じてなされる判断に先立って、前記部分画像が前記第1シーンに属することを示す評価結果に応じて、前記識別対象画像が前記第2シーンに属さないことを判断するステップと、(C)を有するシーン識別方法を、実現できることも明らかとされる。
かかるシーン識別方法であって、前記第1シーンに属することを示す評価結果が得られた前記部分画像の個数を検出するステップを有し、前記第1シーンに属することを示す評価結果が得られた前記部分画像の個数が、肯定閾値を超えた場合に、前記識別対象画像が前記第1シーンに属すると判断し、前記第1シーンに属することを示す評価結果が得られた前記部分画像の個数が、前記肯定閾値とは別の否定閾値を超えた場合に、前記識別対象画像が前記第2シーンに属さないと判断することが好ましい。
かかるシーン識別方法であって、複数のサンプル画像を用いて、前記第2シーンに属する識別対象画像が前記第1部分識別器によって、前記第2シーンに属さないと誤って判定される確率である誤判定率を、前記第1シーンに属することを示す評価結果が得られた前記部分画像の個数毎に求めるステップと、前記誤判定率に基づいて前記否定閾値を設けるステップと、を有することが好ましい。
このようなシーン識別装置によれば、構図の異なる複数のサンプル画像を用いて誤判定率を求めることによって、より正確な誤判定率を求めることができるので、適切な否定閾値を設けることができる。
===第1実施形態===
以下、本発明の実施の形態について説明する。なお、以下の説明は、図1に示す複合機1を例に挙げて行う。この複合機1は、媒体に印刷された画像を読み取って画像データを取得する画像読み取り部10と、画像データに基づいて媒体へ画像を印刷する画像印刷部20とを有している。画像印刷部20では、例えば、デジタルスチルカメラDCによる撮影で得られた画像データや画像読み取り部10で得られた画像データに基づき、画像を媒体に印刷する。加えて、この複合機1では、識別対象画像についてシーンの識別を行い、識別結果に応じて画像データを補正したり、補正した画像データをメモリカードMC等の外部メモリに記憶したりする。ここで、複合機1は、未知の識別対象画像のシーンを識別するシーン識別装置として機能する。また、複合機1は、識別されたシーンに基づいて画像データを補正するデータ補正装置や、補正後の画像データを外部メモリに記憶するデータ記憶装置としても機能する。
以下、本発明の実施の形態について説明する。なお、以下の説明は、図1に示す複合機1を例に挙げて行う。この複合機1は、媒体に印刷された画像を読み取って画像データを取得する画像読み取り部10と、画像データに基づいて媒体へ画像を印刷する画像印刷部20とを有している。画像印刷部20では、例えば、デジタルスチルカメラDCによる撮影で得られた画像データや画像読み取り部10で得られた画像データに基づき、画像を媒体に印刷する。加えて、この複合機1では、識別対象画像についてシーンの識別を行い、識別結果に応じて画像データを補正したり、補正した画像データをメモリカードMC等の外部メモリに記憶したりする。ここで、複合機1は、未知の識別対象画像のシーンを識別するシーン識別装置として機能する。また、複合機1は、識別されたシーンに基づいて画像データを補正するデータ補正装置や、補正後の画像データを外部メモリに記憶するデータ記憶装置としても機能する。
<複合機1の構成>
図2Aに示すように、画像印刷部20は、プリンタ側コントローラ30と印刷機構40とを有する。
図2Aに示すように、画像印刷部20は、プリンタ側コントローラ30と印刷機構40とを有する。
プリンタ側コントローラ30は、印刷機構40の制御など印刷に関する制御を行う部分である。図2Aに例示したプリンタ側コントローラ30は、メインコントローラ31と、制御ユニット32と、駆動信号生成部33と、インタフェース34と、メモリ用スロット35とを有する。そして、これらの各部がバスBUを介して通信可能に接続されている。
メインコントローラ31は、制御の中心となる部分であり、CPU36とメモリ37とを有する。CPU36は、中央演算装置として機能し、メモリ37に格納された動作用プログラムに従って種々の制御動作を行う。従って、この動作用プログラムは、制御動作を実現させるためのコードを有する。メモリ37には種々の情報が記憶される。例えば図2Bに示すように、メモリ37の一部分には、動作用プログラムを記憶するプログラム記憶部37a、識別処理で用いられる閾値(後述する。)を含む制御用パラメータを記憶するパラメータ記憶部37b、画像データを記憶する画像記憶部37c、Exifの付属情報を記憶する付属情報記憶部37d、特徴量を記憶する特徴量記憶部37e、確率情報を記憶する確率情報記憶部37f、計数用カウンタとして機能するカウンタ部37g、肯定フラグを記憶する肯定フラグ記憶部37h、否定フラグを記憶する否定フラグ記憶部37i、識別結果を記憶する結果記憶部37j、及び後述する部分画像識別処理で部分画像を選択する順序を決めるための選択情報(後述する乗算値情報あるいは乗算値順位情報)が記憶される選択情報記憶部37kが設けられている。なお、メインコントローラ31によって構成される各部については、後で説明する。
制御ユニット32は、印刷機構40に設けられているモータ41等を制御する。駆動信号生成部33は、ヘッド44が有する駆動素子(図示せず)に印加される駆動信号を生成する。インタフェース34は、パーソナルコンピュータなどの上位装置と接続するためのものである。メモリ用スロット35は、メモリカードMCを装着するための部分である。メモリカードMCがメモリ用スロット35に装着されると、メモリカードMCとメインコントローラ31とが通信可能に接続される。これに伴い、メインコントローラ31は、メモリカードMCに記憶された情報を読み出したり、情報をメモリカードMCに記憶させたりできる。例えばデジタルスチルカメラDCの撮影によって生成された画像データを読み出したり、補正等の処理を施した後の補正後画像データを記憶させたりできる。
印刷機構40は、用紙等の媒体に対して印刷を行う部分である。例示した印刷機構40は、モータ41と、センサ42と、ヘッド制御部43と、ヘッド44とを有する。モータ41は、制御ユニット32からの制御信号に基づいて動作する。モータ41としては、例えば、媒体を搬送するための搬送モータやヘッド44を移動させるための移動モータがある(何れも図示せず)。センサ42は、印刷機構40の状態を検出するためのものである。センサ42としては、例えば、媒体の有無を検出するための媒体検出センサ、媒体の搬送センサがある(何れも図示せず)。ヘッド制御部43は、ヘッド44が有する駆動素子への駆動信号の印加を制御するためのものである。この画像印刷部20では、印刷対象となる画像データに応じ、メインコントローラ31がヘッド制御信号を生成する。そして、生成したヘッド制御信号をヘッド制御部43へ送信する。ヘッド制御部43は、受信したヘッド制御信号に基づいて、駆動信号の印加を制御する。ヘッド44は、インクを吐出するための動作をする駆動素子を複数有する。これらの駆動素子には、ヘッド制御部43を通過した駆動信号の必要部分が印加される。そして、駆動素子は、印加された必要部分に応じてインクを吐出するための動作をする。これにより、吐出されたインクが媒体に着弾し、媒体に画像が印刷される。
<プリンタ側コントローラ30によって実現される各部の構成>
次に、プリンタ側コントローラ30によって実現される各部について説明する。プリンタ側コントローラ30のCPU36は、動作プログラムを構成する複数の動作モジュール(プログラムユニット)毎に、異なる動作をする。このとき、CPU36とメモリ37を有するメインコントローラ31は、単体で、或いは制御ユニット32や駆動信号生成部33と組になって、動作モジュール毎に異なる機能を発揮する。便宜上、以下の説明では、プリンタ側コントローラ30を、動作モジュール毎の装置として表現することにする。
次に、プリンタ側コントローラ30によって実現される各部について説明する。プリンタ側コントローラ30のCPU36は、動作プログラムを構成する複数の動作モジュール(プログラムユニット)毎に、異なる動作をする。このとき、CPU36とメモリ37を有するメインコントローラ31は、単体で、或いは制御ユニット32や駆動信号生成部33と組になって、動作モジュール毎に異なる機能を発揮する。便宜上、以下の説明では、プリンタ側コントローラ30を、動作モジュール毎の装置として表現することにする。
図3に示すように、プリンタ側コントローラ30は、画像記憶部37cと、付属情報記憶部37dと、選択情報記憶部37kと、顔識別部30Aと、シーン識別部30Bと、画像補正部30Cと、機構制御部30Dとを有する。画像記憶部37cは、シーンの識別処理や補正処理の対象となる画像データを記憶する。この画像データは、識別対象となる識別対象データの一種である(以下、対象画像データとする。)本実施形態の対象画像データは、RGB画像データによって構成されている。このRGB画像データは、色情報を有する複数の画素によって構成される画像データの一種である。付属情報記憶部37dは、画像データに付加されるExifの付属情報を記憶する。選択情報記憶部37kは、識別対象画像を複数の領域に分割した部分画像毎の評価を行う際に、部分画像を選択する順序を決めるための選択情報を記憶する。顔識別部30Aは、対象画像データについて、人物の顔画像の有無、及び、対応するシーンを識別する。例えば、顔識別部30Aは、QVGA(320×240画素=76800画素)サイズのデータに基づいて、人物の顔画像の有無を判断する。そして、顔画像が検出された場合には、顔画像の総面積に基づいて、識別対象画像を人物のシーン或いは記念写真のシーンに分類する(後述する)。シーン識別部30Bは、顔識別部30Aではシーンが決定されなかった識別対象画像について、属するシーンを識別する。画像補正部30Cは、顔識別部30Aやシーン識別部30Bでの識別結果に基づき、識別対象画像の属するシーンに応じた補正を行う。機構制御部30Dは、対象画像データに基づいて印刷機構40を制御する。ここで、画像補正部30Cによる対象画像データの補正がなされた場合には、機構制御部30Dは、補正後画像データに基づいて印刷機構40を制御する。これらの各部において、顔識別部30A、シーン識別部30B、及び、画像補正部30Cは、メインコントローラ31によって構成される。機構制御部30Dは、メインコントローラ31、制御ユニット32、及び、駆動信号生成部33によって構成される。
<シーン識別部30Bの構成>
次に、シーン識別部30Bについて説明する。本実施形態のシーン識別部30Bは、顔識別部30Aではシーンが決定されなかった識別対象画像について、風景のシーン、夕景のシーン、夜景のシーン、花のシーン、紅葉のシーン、及び、その他のシーンの何れかに属するのかを識別する。図4に示すように、このシーン識別部30Bは、特徴量取得部30Eと、全体識別器30Fと、部分画像識別器30Gと、統合識別器30Hと、結果記憶部37jとを有する。これらの中で、特徴量取得部30E、全体識別器30F、部分画像識別器30G、及び、統合識別器30Hは、メインコントローラ31によって構成される。そして、全体識別器30F、部分画像識別器30G、及び、統合識別器30Hは、部分特徴量及び全体特徴量の少なくとも一方に基づき、識別対象画像の属するシーンの識別処理を行う識別処理部30Iを構成する。
次に、シーン識別部30Bについて説明する。本実施形態のシーン識別部30Bは、顔識別部30Aではシーンが決定されなかった識別対象画像について、風景のシーン、夕景のシーン、夜景のシーン、花のシーン、紅葉のシーン、及び、その他のシーンの何れかに属するのかを識別する。図4に示すように、このシーン識別部30Bは、特徴量取得部30Eと、全体識別器30Fと、部分画像識別器30Gと、統合識別器30Hと、結果記憶部37jとを有する。これらの中で、特徴量取得部30E、全体識別器30F、部分画像識別器30G、及び、統合識別器30Hは、メインコントローラ31によって構成される。そして、全体識別器30F、部分画像識別器30G、及び、統合識別器30Hは、部分特徴量及び全体特徴量の少なくとも一方に基づき、識別対象画像の属するシーンの識別処理を行う識別処理部30Iを構成する。
<特徴量取得部30Eについて>
特徴量取得部30Eは、識別対象画像の特徴を示す特徴量を対象画像データに基づいて取得する。この特徴量は、全体識別器30Fや部分画像識別器30Gでの識別で用いられる。図5に示すように、特徴量取得部30Eは、部分特徴量取得部51と全体特徴量取得部52とを有する。
特徴量取得部30Eは、識別対象画像の特徴を示す特徴量を対象画像データに基づいて取得する。この特徴量は、全体識別器30Fや部分画像識別器30Gでの識別で用いられる。図5に示すように、特徴量取得部30Eは、部分特徴量取得部51と全体特徴量取得部52とを有する。
部分特徴量取得部51は、対象画像データ(全体画像)を分割して得られた部分画像データのそれぞれについて部分特徴量を取得する。すなわち、部分特徴量取得部51は、画像全体領域を複数に分割した部分領域に含まれる複数画素のデータを、部分画像データとして取得する。なお、画像全体領域は、対象画像データにおける画素の形成範囲を意味する。そして、部分特徴量取得部51は、取得した部分画像データの特徴を示す部分特徴量を取得する。従って、部分特徴量は、部分画像データに対応する部分画像についての特徴を示す。具体的には、図7に示すように対象画像データを、縦と横とにそれぞれ8等分した範囲に対応する部分画像、すなわち、対象画像データを格子状に分割して得られる1/64サイズの部分画像の特徴量を示す。なお、本実施形態における対象画像データは、QVGAサイズのデータである。このため、部分画像データは、その1/64サイズのデータ(40×30画素=1200画素)となる。
そして、部分特徴量取得部51は、部分画像の特徴を示す部分特徴量として、部分画像データを構成する各画素の色平均、及び、色の分散を取得する。各画素の色は、YCCやHSVなどの色空間にて数値で表すことができる。このため、色平均は、この数値を平均化することで取得できる。また、分散は、各画素の色についての平均値からの広がり度合いを示す。
全体特徴量取得部52は、対象画像データに基づいて全体特徴量を取得する。この全体特徴量は、識別対象における全体の特徴を示す。全体特徴量としては、例えば、対象画像データを構成する各画素の色平均、色の分散、及びモーメントがある。このモーメントは、色についての分布(重心)を示す特徴量である。モーメントは、本来的には対象画像データから直接的に取得される特徴量である。しかし、本実施形態の全体特徴量取得部52では、これらの特徴量を、部分特徴量を用いて取得している(後述する。)。また、対象画像データがデジタルスチルカメラDCの撮影で生成されたものである場合、全体特徴量取得部52は、付属情報記憶部37dからExifの付属情報も全体特徴量として取得する。例えば、絞りを示す絞り情報、シャッタースピードを示すシャッタースピード情報、ストロボのオンオフを示すストロボ情報といった撮影情報も、全体特徴量として取得する。
<特徴量の取得について>
次に、特徴量の取得について説明する。本実施形態の複合機1では、部分特徴量取得部51は、部分画像データ毎に部分特徴量を取得し、取得した部分特徴量を、メモリ37の特徴量記憶部37eに記憶する。全体特徴量取得部52は、特徴量記憶部37eに記憶された複数の部分特徴量を読み出して全体特徴量を取得する。そして取得した全体特徴量を特徴量記憶部37eに記憶する。このような構成をとることで、対象画像データに対する変換等の回数を抑えることができ、部分特徴量と全体特徴量を取得する構成に比べて、処理を高速化することができる。また、展開用のメモリの容量も必要最小限に抑えることができる。
次に、特徴量の取得について説明する。本実施形態の複合機1では、部分特徴量取得部51は、部分画像データ毎に部分特徴量を取得し、取得した部分特徴量を、メモリ37の特徴量記憶部37eに記憶する。全体特徴量取得部52は、特徴量記憶部37eに記憶された複数の部分特徴量を読み出して全体特徴量を取得する。そして取得した全体特徴量を特徴量記憶部37eに記憶する。このような構成をとることで、対象画像データに対する変換等の回数を抑えることができ、部分特徴量と全体特徴量を取得する構成に比べて、処理を高速化することができる。また、展開用のメモリの容量も必要最小限に抑えることができる。
<部分特徴量の取得について>
次に、部分特徴量取得部51による部分特徴量の取得について説明する。図6に示すように、部分特徴量取得部51は、まず、対象画像データの一部を構成する部分画像データを、メモリ37の画像記憶部37cから読み出す(S11)。この実施形態において、部分特徴量取得部51は、QVGAサイズの1/64サイズのRGB画像データを部分画像データとして取得する。なお、対象画像データがJPEG形式等の圧縮された画像データの場合、部分特徴量取得部51は、対象画像データを構成する一部分のデータを画像記憶部37cから読み出し、読み出したデータを展開することで部分画像データを取得する。部分画像データを取得したならば、部分特徴量取得部51は、色空間の変換を行う(S12)。例えば、RGB画像データをYCC画像に変換する。
次に、部分特徴量取得部51による部分特徴量の取得について説明する。図6に示すように、部分特徴量取得部51は、まず、対象画像データの一部を構成する部分画像データを、メモリ37の画像記憶部37cから読み出す(S11)。この実施形態において、部分特徴量取得部51は、QVGAサイズの1/64サイズのRGB画像データを部分画像データとして取得する。なお、対象画像データがJPEG形式等の圧縮された画像データの場合、部分特徴量取得部51は、対象画像データを構成する一部分のデータを画像記憶部37cから読み出し、読み出したデータを展開することで部分画像データを取得する。部分画像データを取得したならば、部分特徴量取得部51は、色空間の変換を行う(S12)。例えば、RGB画像データをYCC画像に変換する。
次に、部分特徴量取得部51は、読み出した部分画像データから部分特徴量を取得する(S13)。この実施形態において、部分特徴量取得部51は、部分画像データの色平均と色の分散とを部分特徴量として取得する。便宜上、部分画像データにおける色平均を部分色平均ともいう。また、便宜上、部分画像データにおける色分散を部分色分散ともいう。図7のように、識別対象画像を64個のブロックの部分画像に分割し、それぞれの部分画像に任意の順番を設けた場合、或るj番目(j=1〜64)の部分画像データにおいて、i番目〔i=1〜76800〕の画素の色情報(例えばYCC空間で表した数値)をxiとする。この場合、j番目の部分画像データにおける部分色平均xavjは、次式(1)で表すことができる。
また、この実施形態における分散S2は、次式(2)で定義されているものを用いている。このため、j番目の部分画像データにおける部分色分散Sj 2は、式(2)を変形して得られた次式(3)で表すことができる。
従って、部分特徴量取得部51は、式(1)及び式(3)の演算を行うことにより、対応する部分画像データについての部分色平均xavjと部分色分散Sj 2とを取得する。そして、これらの部分色平均xavj及び部分色分散Sj 2は、それぞれメモリ37の特徴量記憶部37eに記憶される。
部分色平均xavjと部分色分散Sj 2とを取得したならば、部分特徴量取得部51は、未処理の部分画像データの有無を判断する(S14)。未処理の部分画像データがあると判断した場合、部分特徴量取得部51は、ステップS11に戻り、次の部分画像データについて同様の処理を行う(S11〜S13)。一方、ステップS14にて、未処理の部分画像データはないと判断した場合には、部分特徴量取得部51による処理は終了する。この場合、ステップS15にて全体特徴量取得部52による全体部分特徴量の取得が行われる。
<全体特徴量の取得について>
次に、全体特徴量取得部52による全体特徴量の取得(S15)について説明する。全体特徴量取得部52は、特徴量記憶部37eに記憶された複数の部分特徴量に基づき、全体特徴量を取得する。前述したように、全体特徴量取得部52は、対象画像データの色平均と色の分散とを全体特徴量として取得する。便宜上、対象画像データにおける色平均を、全体色平均ともいう。また、便宜上、対象画像データにおける色の分散を、全体色分散ともいう。そして、前述したj番目(j=1〜64)の部分画像データにおける部分色平均をxavjとした場合、全体色平均xavは、次式(4)で表すことができる。この式(4)において、mは部分画像の数を示す。また、全体色分散S2は、次式(5)で表すことができる。この式(5)により、全体色分散S2は、部分色平均xav、部分色分散Sj 2、及び、全体色平均xavに基づいて取得できることが判る。
次に、全体特徴量取得部52による全体特徴量の取得(S15)について説明する。全体特徴量取得部52は、特徴量記憶部37eに記憶された複数の部分特徴量に基づき、全体特徴量を取得する。前述したように、全体特徴量取得部52は、対象画像データの色平均と色の分散とを全体特徴量として取得する。便宜上、対象画像データにおける色平均を、全体色平均ともいう。また、便宜上、対象画像データにおける色の分散を、全体色分散ともいう。そして、前述したj番目(j=1〜64)の部分画像データにおける部分色平均をxavjとした場合、全体色平均xavは、次式(4)で表すことができる。この式(4)において、mは部分画像の数を示す。また、全体色分散S2は、次式(5)で表すことができる。この式(5)により、全体色分散S2は、部分色平均xav、部分色分散Sj 2、及び、全体色平均xavに基づいて取得できることが判る。
従って、全体特徴量取得部52は、式(4)及び式(5)の演算を行うことにより、対象画像データについての全体色平均xavと全体色分散S2とを取得する。そして、これらの全体色平均xav及び全体色分散S2は、それぞれメモリ37の特徴量記憶部37eに記憶される。
また、全体特徴量取得部52は、他の全体特徴量としてモーメントを取得する。この実施形態では、識別対象が画像であるので、モーメントによって、色の位置的な分布を定量的に取得できる。この実施形態において全体特徴量取得部52は、部分画像データ毎の色平均xavjに基づいてモーメントを取得している。ここで、図7に示す64個の部分画像のうち縦位置J(J=1〜8)、横位置I(I=1〜8)で特定される部分画像を、座標(I,J)で表すことにする。この座標(I,J)で特定される部分画像における部分画像データの部分色平均をXAV(I,J)で表すと、部分色平均に関する横方向のn次モーメントmnhは、次式(6)で表すことができる。
ここで、単純な1次モーメントを部分色平均XAV(I,J)の総和で除算した値を、1次の重心モーメントという。この1次の重心モーメントは、次式(7)で表されるものであり、部分色平均という部分特徴量の横方向の重心位置を示す。この重心モーメントを一般化したn次の重心モーメントは、次式(8)で表される。n次の重心モーメントの中で、奇数次(n=1,3・・・)の重心モーメントは、一般に重心の位置を示すと考えられている。また、偶数次の重心モーメントは、一般に重心付近における特徴量の広がり度合いを示すと考えられている。
本実施形態の全体特徴量取得部52は、6種類のモーメントを取得している。具体的には、横方向の1次モーメント、縦方向の1次モーメント、横方向の1次重心モーメント、縦方向の1次重心モーメント、横方向の2次重心モーメント、及び、縦方向の2次重心モーメントを取得している。なお、モーメントの組み合わせは、これらに限定されない。例えば、横方向の2次モーメントと縦方向の2次モーメントを加えた8種類としてもよい。
これらのモーメントを取得することにより、色の重心や重心付近における色の広がり度合いを認識することができる。例えば、「画像における上部に赤い領域が広がっている」とか「中心付近に黄色い領域がまとまっている」といった情報が得られる。そして、識別処理部30I(図4を参照。)における識別処理で、色の重心位置や局在性が考慮できるため、識別の精度を高めることができる。
<特徴量の正規化について>
ところで、識別処理部30Iの一部を構成する全体識別器30F及び部分画像識別器30Gでは、サポートベクターマシン(SVMとも記す。)を用いて識別を行っている。サポートベクターマシンについては後で説明するが、このサポートベクターマシンは、分散の大きな特徴量ほど識別に対する影響力(重み付けの度合い)が大きくなるという特性を有する。そこで、部分特徴量取得部51、及び、全体特徴量取得部52では、取得した部分特徴量及び全体特徴量について正規化を行っている。すなわち、それぞれの特徴量について平均と分散とを算出し、平均が値〔0〕となり、分散が値〔1〕となるように、正規化を行っている。具体的には、i番目の特徴量xiにおける平均値をμiとし、分散をσiとした場合、正規化後の特徴量xi´は、次式(9)で表すことができる。
ところで、識別処理部30Iの一部を構成する全体識別器30F及び部分画像識別器30Gでは、サポートベクターマシン(SVMとも記す。)を用いて識別を行っている。サポートベクターマシンについては後で説明するが、このサポートベクターマシンは、分散の大きな特徴量ほど識別に対する影響力(重み付けの度合い)が大きくなるという特性を有する。そこで、部分特徴量取得部51、及び、全体特徴量取得部52では、取得した部分特徴量及び全体特徴量について正規化を行っている。すなわち、それぞれの特徴量について平均と分散とを算出し、平均が値〔0〕となり、分散が値〔1〕となるように、正規化を行っている。具体的には、i番目の特徴量xiにおける平均値をμiとし、分散をσiとした場合、正規化後の特徴量xi´は、次式(9)で表すことができる。
従って、部分特徴量取得部51、及び、全体特徴量取得部52は、式(9)の演算を行うことにより、各特徴量を正規化する。正規化された特徴量は、それぞれメモリ37の特徴量記憶部37eに記憶され、識別処理部30Iでの識別処理に用いられる。これにより、識別処理部30Iでの識別処理において、各特徴量を均等な重み付けで扱うことができる。その結果、識別精度を高めることができる。
<特徴量取得部30Eのまとめ>
部分特徴量取得部51は、部分特徴量として部分色平均と部分色分散とを取得し、全体特徴量取得部52は、全体特徴量として全体色平均と全体色分散とを取得している。これらの特徴量は、識別処理部30Iによる識別対象画像の識別処理で用いられる。このため、識別処理部30Iにおける識別精度を高めることができる。これは、識別処理において、識別対象画像の全体と部分画像のそれぞれで取得された、色合いの情報と色の局在化度合いの情報とが加味されるからである。
部分特徴量取得部51は、部分特徴量として部分色平均と部分色分散とを取得し、全体特徴量取得部52は、全体特徴量として全体色平均と全体色分散とを取得している。これらの特徴量は、識別処理部30Iによる識別対象画像の識別処理で用いられる。このため、識別処理部30Iにおける識別精度を高めることができる。これは、識別処理において、識別対象画像の全体と部分画像のそれぞれで取得された、色合いの情報と色の局在化度合いの情報とが加味されるからである。
<識別処理部30Iについて>
次に、識別処理部30Iについて説明する。まず、識別処理部30Iの概略について説明する。図4及び図5に示すように、識別処理部30Iは、全体識別器30Fと、部分画像識別器30Gと、統合識別器30Hとを有する。全体識別器30Fは、全体特徴量に基づいて、識別対象画像のシーンを識別する。部分画像識別器30Hは、部分特徴量に基づいて、識別対象画像のシーンを識別する。統合識別器30Hは、全体識別器30Fと部分画像識別器30Gでシーンが確定されなかった識別対象画像について、シーンを識別する。このように、識別処理部30Iは、特性の異なる複数種類の識別器を有している。これは、識別性を高めるためである。すなわち、識別対象画像の全体に特徴が表れがちなシーンについては、全体識別器30Fによって精度良く識別ができる。一方、識別対象画像の一部分に特徴が表れがちなシーンについては、部分画像識別器30Gによって精度良く識別ができる。その結果、識別対象画像の識別性を高めることができる。さらに、全体識別器30Fと部分画像識別器30Gでシーンが確定しなかった識別対象画像については、統合識別器30Hによってシーンを識別できる。この点でも識別対象画像の識別性を高めることができる。
次に、識別処理部30Iについて説明する。まず、識別処理部30Iの概略について説明する。図4及び図5に示すように、識別処理部30Iは、全体識別器30Fと、部分画像識別器30Gと、統合識別器30Hとを有する。全体識別器30Fは、全体特徴量に基づいて、識別対象画像のシーンを識別する。部分画像識別器30Hは、部分特徴量に基づいて、識別対象画像のシーンを識別する。統合識別器30Hは、全体識別器30Fと部分画像識別器30Gでシーンが確定されなかった識別対象画像について、シーンを識別する。このように、識別処理部30Iは、特性の異なる複数種類の識別器を有している。これは、識別性を高めるためである。すなわち、識別対象画像の全体に特徴が表れがちなシーンについては、全体識別器30Fによって精度良く識別ができる。一方、識別対象画像の一部分に特徴が表れがちなシーンについては、部分画像識別器30Gによって精度良く識別ができる。その結果、識別対象画像の識別性を高めることができる。さらに、全体識別器30Fと部分画像識別器30Gでシーンが確定しなかった識別対象画像については、統合識別器30Hによってシーンを識別できる。この点でも識別対象画像の識別性を高めることができる。
<全体識別器30Fについて>
全体識別器30Fは、識別可能なシーンに応じた種類の数のサブ識別器(便宜上、全体サブ識別器ともいう。)を有する。図5に示すように、全体識別器30Fは、全体サブ識別器として、風景識別器61と、夕景識別器62と、夜景識別器63と、花識別器64と、紅葉識別器65とを有する。各全体サブ識別器は、全体特徴量に基づいて、識別対象画像が特定のシーンに属することを識別する。また、各全体サブ識別器は、識別対象画像が特定のシーンに属さないことも識別する。
全体識別器30Fは、識別可能なシーンに応じた種類の数のサブ識別器(便宜上、全体サブ識別器ともいう。)を有する。図5に示すように、全体識別器30Fは、全体サブ識別器として、風景識別器61と、夕景識別器62と、夜景識別器63と、花識別器64と、紅葉識別器65とを有する。各全体サブ識別器は、全体特徴量に基づいて、識別対象画像が特定のシーンに属することを識別する。また、各全体サブ識別器は、識別対象画像が特定のシーンに属さないことも識別する。
これらの全体サブ識別器は、サポートベクターマシンと判断部とをそれぞれ有する。すなわち、風景識別器61は、風景用サポートベクターマシン61aと風景用判断部61bとを有し、夕景識別器62は、夕景用サポートベクターマシン62aと夕景用判断部62bとを有する。また、夜景識別器63は、夜景用サポートベクターマシン63aと夜景用判断部63bとを有し、花識別器64は、花用サポートベクターマシン64aと花用判断部64bとを有し、紅葉識別器65は、紅葉用サポートベクターマシン65aと紅葉用判断部65bとを有する。なお、各サポートベクターマシンは、後述するように、識別対象(評価対象)となる識別対象画像が入力される毎に、識別対象画像が特定カテゴリー(シーン)に属する度合いに応じた識別関数値(確率情報)を算出する。そして、各サポートベクターマシンで求められた識別関数値は、それぞれメモリ37の確率情報記憶部37fに記憶される。
各判断部は、対応するサポートベクターマシンで取得された識別関数値に基づいて、識別対象画像が対応する特定のシーンに属することを判断する。そして、各判断部は識別対象画像が対応する特定のシーンに属すると判断した場合、肯定フラグ記憶部37hの対応する領域に肯定フラグを記憶する。また、各判断部は、サポートベクターマシンで取得された識別関数値に基づいて、識別対象画像が特定のシーンに属さないことも判断する。そして、各判断部は、識別対象画像が特定のシーンに属さないと判断した場合、否定フラグ記憶部37iの対応する領域に否定フラグを記憶する。なお、サポートベクターマシンは部分画像識別器30Gでも用いられている。このため、サポートベクターマシンについては部分画像識別器30Gとともに説明する。
<部分画像識別器30Gについて>
部分画像識別器30Gは、識別可能なシーンに応じた種類の数のサブ識別器(便宜上、部分サブ識別器とする。)を有する。各部分サブ識別器は、部分特徴量に基づいて識別対象画像が対応するシーンに属することを判断する部分識別器に相当する。つまり、各部分サブ識別器は、部分特徴量に基づいて部分画像が対応するシーンに属するか否かの評価を部分画像毎に行い、その評価結果に応じて識別対象画像が対応するシーンに属することを判断する。これらの各部分サブ識別器は、優先度が高いシーンに対応するものから順に、識別を行うようになっている。すなわち、或る部分サブ識別器によって、識別対象画像が或るシーンに属すると判断されなかった場合に、他の部分サブ識別器によって、識別対象画像が他のシーンに属することが判断される。ここで、前段の(或る)部分サブ識別器は、識別対象画像が第1シーンに属することを判断する第1部分識別器に相当し、後段の(他の)部分サブ識別器は、識別対象画像が第2シーンに属することを判断する第2部分識別器に相当する。こうすることによりシーン毎に判断がなされるので識別の確実性を高めることができる。
部分画像識別器30Gは、識別可能なシーンに応じた種類の数のサブ識別器(便宜上、部分サブ識別器とする。)を有する。各部分サブ識別器は、部分特徴量に基づいて識別対象画像が対応するシーンに属することを判断する部分識別器に相当する。つまり、各部分サブ識別器は、部分特徴量に基づいて部分画像が対応するシーンに属するか否かの評価を部分画像毎に行い、その評価結果に応じて識別対象画像が対応するシーンに属することを判断する。これらの各部分サブ識別器は、優先度が高いシーンに対応するものから順に、識別を行うようになっている。すなわち、或る部分サブ識別器によって、識別対象画像が或るシーンに属すると判断されなかった場合に、他の部分サブ識別器によって、識別対象画像が他のシーンに属することが判断される。ここで、前段の(或る)部分サブ識別器は、識別対象画像が第1シーンに属することを判断する第1部分識別器に相当し、後段の(他の)部分サブ識別器は、識別対象画像が第2シーンに属することを判断する第2部分識別器に相当する。こうすることによりシーン毎に判断がなされるので識別の確実性を高めることができる。
なお、前段の部分サブ識別器は、識別対象画像が或るシーンに属すると判断しなかった場合、部分画像が或るシーンに属することを示す評価結果に応じて、その識別対象画像が他のシーンに属さないことも判断する。そして、前段の部分サブ識別器にて識別対象画像が他のシーンに属さないと判断された場合、他のシーンに対応する後段の部分サブ識別器は、その識別対象画像についての識別処理を行わない。言い換えれば、前段の部分サブ識別器は、後段の部分サブ識別器による他のシーンに属するか否かの判断に先立って、その識別対象画像が他のシーンに属さないことを判断している。これにより、後段の部分サブ識別器による識別処理を省略することができるので、識別処理の高速化を図ることができる。
具体的には、図5に示すように本実施形態の部分画像識別器30Gは、部分サブ識別器として、夕景部分サブ識別器71、花部分サブ識別器72、紅葉部分サブ識別器73を有する。
夕景部分サブ識別器71は、部分画像が夕景のシーンに属することを示す評価結果に応じて、識別対象画像が夕景のシーンに属することを判断する。また、夕景部分サブ識別器71は、識別対象画像が夕景のシーンに属すると判断しなかった場合に、部分画像が夕景のシーンに属することを示す評価結果に応じて、識別対象画像が夕景のシーン以外のシーンに属さないことを判断する。
花部分サブ識別器72は、部分画像が花のシーンに属するか否かの評価を行い、その評価結果に応じて、識別対象画像が花のシーンに属することを判断する。なお、この判断は、前段の夕景部分サブ識別器71により、識別対象画像のシーンが確定されなかった場合に行われる。また、夕景部分サブ識別器71により、識別対象画像が花のシーンに属さないと判断された場合には行われない。そして、花部分サブ識別器72は、識別対象画像が花のシーンに属すると判断しなかった場合に、部分画像が花のシーンに属することを示す評価結果に応じて、識別対象画像が花のシーン以外のシーンに属さないことを判断する。
紅葉部分サブ識別器73は、部分画像が紅葉のシーンに属するか否かの評価を行い、その評価結果に応じて、識別対象画像が紅葉のシーンに属することを判断する。なお、この判断は、夕景部分サブ識別器71および花部分サブ識別器72によって、識別対象画像のシーンが確定されなかった場合に行われる。また、夕景部分サブ識別器71および花部分サブ識別器72により、識別対象画像が紅葉のシーンに属さないと判断された場合には行われない。そして、紅葉部分サブ識別器73は、識別対象画像が紅葉のシーンに属すると判断しなかった場合に、識別対象画像が紅葉のシーン以外のシーンに属さないことを判断する。
なお、各部分サブ識別器によるシーンの判断は、部分特徴量に基づいて対応するシーンに属する評価結果の得られた部分画像の個数と、肯定閾値あるいは否定閾値との比較に基づいて行われる(後述する。)。この場合、特定のシーンに属する評価結果の得られた部分画像の個数は、各部分サブ識別器の評価によって得られた評価値に相当する。
全体識別器30Fの識別対象となるシーンの種類の数と、部分画像識別器30Gの識別対象となるシーンの種類の数とを比較すると、部分画像識別器30Gの識別対象となるシーンの種類の数の方が少ない。これは、部分画像識別器30Gが、全体識別器30Fを補完する目的を有しているからである。つまり、部分画像識別器30Gは、全体識別器30Fでは精度が得られ難いシーンに対して設けられている。
ここで、部分画像識別器30Gでの識別に適する識別対象画像について考察する。まず、花のシーンと紅葉のシーンについて考察する。これらのシーンは、いずれもそのシーンの特徴が局所的に表れ易いといえる。例えば、花をアップで撮影した識別対象画像では、画像における中央部分に花のシーンの特徴が表れ、周辺部分に風景のシーンに近い特徴が表れる。紅葉のシーンも同様である。すなわち、山肌の一部分に表れた紅葉を撮影した場合、識別対象画像の特定部分に紅葉が集まった状態となる。この場合も、山肌の一部分に紅葉のシーンの特徴が表れ、他の部分は風景のシーンの特徴が表れる。従って、部分サブ識別器として花部分サブ識別器72と紅葉部分サブ識別器73とを用いることにより、全体識別器30Fでは識別し難い花のシーンと紅葉のシーンであっても、識別性を高めることができる。すなわち、部分画像毎に識別を行うので、識別対象画像の一部分に花や紅葉などの主要被写体の特徴が表れている場合であっても、精度良く識別することができる。次に夕景のシーンについて考察する。夕景のシーンも、夕景の特徴が局所的に表れる場合がある。例えば水平線に沈む夕日を撮影した画像であって、完全に沈む直前のタイミングで撮影した画像を考える。このような画像では、夕日が沈む部分に夕日のシーンの特徴が表れ、他の部分には夜景のシーンの特徴が表れる。従って、部分サブ識別器として夕景識別器71を用いることで、全体識別器30Fでは識別し難い夕景のシーンであっても識別性を高めることができる。なお、部分的に特徴の出やすいこれらのシーンにおいて、そのシーンの特徴の表れる確率の高い位置は、特定のシーン毎に一定の傾向がある。以下、各部分画像の位置毎に、特定のシーンの特徴が表れる確率のことを存在確率ともいう。
このように、部分画像識別器30Gは、主として全体識別器30Fでは精度が得られ難い画像を対象として識別を行っている。すなわち、全体識別器30Fによって十分な精度を得られる識別対象については、部分サブ識別器を設けていない。このような構成を採ることで、部分画像識別器30Gの構成を簡素化できる。ここで、部分画像識別器30Gはメインコントローラ31によって構成されているので、構成の簡素化とは、CPU36が実行する動作プログラムのサイズや必要なデータのサイズを小さくすることが該当する。構成の簡素化により、必要とされるメモリの容量を小さくできたり、処理を高速化できたりする。
ところで、部分画像識別器30Gでの識別の対象となる識別対象画像は、前述したように部分的に特徴の出やすいものである。すなわち、識別対象画像において、その部分以外には、対象となるシーンの特徴が現れていない場合も多々ある。よって、識別対象画像から得られる全ての部分画像について、特定のシーンに属するか否かの評価を行うことは、必ずしもシーン識別の精度を向上させることにはならず、また、識別処理の速度の低下を招く虞もある。言い換えれば、評価を行う部分画像の個数(以下、評価個数ともいう)を最適化することにより、全ての部分画像について評価を行わなくても、識別の精度を低下させることなく、識別処理の高速化を図ることが可能である。そこで、本実施形態では、各特定のシーンに最適な部分画像の評価個数を予め定めて、その評価個数の部分画像のみについての評価結果を用いることによって、識別対象画像が特定のシーンに属するか否かの識別を行っている。以下、この点を中心に説明をする。
<部分サブ識別器の構成について>
まず、部分サブ識別器(夕景部分サブ識別器71、花部分サブ識別器72、紅葉部分サブ識別器73)の構成について説明する。図5に示すように、各部分サブ識別器は、部分サポートベクターマシンと検出数カウンタと判断部をそれぞれ有する。すなわち、夕景部分サブ識別器71は、夕景用部分サポートベクターマシン71aと夕景検出数カウンタ71bと夕景判断部71cを有し、花部分サブ識別器72は、花用部分サポートベクターマシン72aと花検出数カウンタ72bと花判断部72cを有する。また、紅葉部分サブ識別器73は、紅葉用部分サポートベクターマシン73aと紅葉検出数カウンタ73bと紅葉判断部73cを有する。
まず、部分サブ識別器(夕景部分サブ識別器71、花部分サブ識別器72、紅葉部分サブ識別器73)の構成について説明する。図5に示すように、各部分サブ識別器は、部分サポートベクターマシンと検出数カウンタと判断部をそれぞれ有する。すなわち、夕景部分サブ識別器71は、夕景用部分サポートベクターマシン71aと夕景検出数カウンタ71bと夕景判断部71cを有し、花部分サブ識別器72は、花用部分サポートベクターマシン72aと花検出数カウンタ72bと花判断部72cを有する。また、紅葉部分サブ識別器73は、紅葉用部分サポートベクターマシン73aと紅葉検出数カウンタ73bと紅葉判断部73cを有する。
これらの各部分サブ識別器において、部分サポートベクターマシンと検出数カウンタは部分評価部に相当し、部分特徴量に基づいて各部分画像が対応するシーンに属するか否かの評価を行う。そして、各判断部は、部分評価部の評価結果を用いて、識別対象画像が対応するシーンに属すること、および対応するシーン以外のシーンに属さないことを判断する。この場合、各判断部は、一部の部分画像のみについての部分評価部の評価結果を用いる。すなわち、識別対象画像を構成する複数の部分画像の一部から選択された所定数の部分画像のみについての評価結果を用いる。
具体的には、識別対象画像が、図7に示すような64個の部分画像で構成される場合、各判断部は、そのうちの、予め定められた所定数(例えば10個)の部分領域について、対応する部分画像のみの評価結果を用いて判断を行う。つまり、各判断部は、全ての部分画像の評価結果を用いることなく、識別対象画像が対応するシーンに属すること、および、対応するシーン以外のシーンに属さないことを判断する。こうすると、部分評価部による識別の回数を減らすことができるので、シーンの識別処理の速度をより向上させることができる。なお、各シーン毎の評価個数は、各判断部によるシーンの識別の精度を示す尺度である正答率(Precisionともいう)と再現率(Recallともいう)に基づいて定められる(後述する。)。
また、評価の対象となる所定数の部分画像は、後述するように、部分領域に特定のシーンの特徴が表れる確率である存在確率と、部分評価部による部分画像毎の評価結果が正しい確率である部分正答率と、の少なくとも一方に基づいて選択することが好ましい。
各部分サブ識別器が有する部分サポートベクターマシン(夕景用部分サポートベクターマシン71a〜紅葉用部分サポートベクターマシン73a)は、各全体サブ識別器が有するサポートベクターマシン(風景用サポートベクターマシン61a〜紅葉用サポートベクターマシン65a)と同様のものである。以下サポートベクターマシンについて説明する。
<サポートベクターマシンについて>
サポートベクターマシンは、識別対象の特徴を示す特徴量に基づき、その識別対象が或るカテゴリーに属する確率の大小を示す確率情報を取得する。このサポートベクターマシンの基本形は、線形サポートベクターマシンである。線形サポートベクターマシンは、例えば、図8に示すように、2クラス分類トレーニングで定められる線形の識別関数であり、マージン(即ち、学習データとしてのサポートベクターが存在しない領域)が最大となるように定められた識別関数である。この図8において、白抜きの丸のうち分離超平面の決定に寄与する点(例えばSV11)が或るカテゴリーCA1に属するサポートベクターであり、斜線を付した丸のうち分離超平面の決定に寄与する点(例えばSV22)が他のカテゴリーCA2に属するサポートベクターである。カテゴリーCA1に属するサポートベクターとカテゴリーCA2に属するサポートベクターとを分離する分離超平面では、この分離超平面を定める識別関数(確率情報)が値[0]を示す。図8では、分離超平面の候補として、カテゴリーCA1に属するサポートベクターSV11及びSV12を通る直線に平行な分離超平面HP1と、カテゴリーCA2に属するサポートベクターSV21及びSV22を通る直線に平行な分離超平面HP2とを示している。この例では、分離超平面HP1の方が分離超平面HP2よりもマージン(サポートベクターから分離超平面までの間隔)が大きいので、線形サポートベクターマシンとして、分離超平面HP1に対応する識別関数が定められる。
サポートベクターマシンは、識別対象の特徴を示す特徴量に基づき、その識別対象が或るカテゴリーに属する確率の大小を示す確率情報を取得する。このサポートベクターマシンの基本形は、線形サポートベクターマシンである。線形サポートベクターマシンは、例えば、図8に示すように、2クラス分類トレーニングで定められる線形の識別関数であり、マージン(即ち、学習データとしてのサポートベクターが存在しない領域)が最大となるように定められた識別関数である。この図8において、白抜きの丸のうち分離超平面の決定に寄与する点(例えばSV11)が或るカテゴリーCA1に属するサポートベクターであり、斜線を付した丸のうち分離超平面の決定に寄与する点(例えばSV22)が他のカテゴリーCA2に属するサポートベクターである。カテゴリーCA1に属するサポートベクターとカテゴリーCA2に属するサポートベクターとを分離する分離超平面では、この分離超平面を定める識別関数(確率情報)が値[0]を示す。図8では、分離超平面の候補として、カテゴリーCA1に属するサポートベクターSV11及びSV12を通る直線に平行な分離超平面HP1と、カテゴリーCA2に属するサポートベクターSV21及びSV22を通る直線に平行な分離超平面HP2とを示している。この例では、分離超平面HP1の方が分離超平面HP2よりもマージン(サポートベクターから分離超平面までの間隔)が大きいので、線形サポートベクターマシンとして、分離超平面HP1に対応する識別関数が定められる。
ところで、線形サポートベクターマシンでは、線形分離ができない識別対象については識別の精度が低くなってしまう。なお、この複合機1で扱われる識別対象画像も、線形分離ができない識別対象に相当する。そこで、このような識別対象については、特徴量を非線形変換し(すなわち、高次元空間に写像し)、その空間で線形の識別を行う非線形サポートベクターマシンが用いられる。この非線形サポートベクターマシンでは、例えば、任意の数の非線形関数によって定義される新たな関数を、非線形サポートベクターマシン用のデータとする。図9に模式的に示すように、非線形サポートベクターマシンでは、識別境界BRが曲線状になる。この例では、四角で示す各点のうち識別境界BRの決定に寄与する点(例えばSV13、SV14)がカテゴリーCA1に属するサポートベクターであり、丸で示す各点のうち識別境界BRの決定に寄与する点(例えばSV23〜SV26)がカテゴリーCA2に属するサポートベクターである。そして、これらのサポートベクターを用いた学習により、識別関数のパラメータが定められる。なお、他の点は、学習には用いられるが、最適化の過程で対象から外される。このため、識別にサポートベクターマシンを用いることで、識別時に用いられる学習データ(サポートベクター)の数を抑えることができる。その結果、限られた学習データであっても、取得される確率情報の精度を高めることができる。
<部分サポートベクターマシンについて>
各部分サブ識別器に備えられる部分サポートベクターマシン(風景用部分サポートベクターマシン71a、花用部分サポートベクターマシン72a、紅葉部分サポートベクターマシン73a)は、前述したような非線形サポートベクターマシンである。そして、各部分サポートベクターマシンは、異なるサポートベクターに基づく学習で、識別関数におけるパラメータが定められる。その結果、部分サブ識別器毎に特性を最適化でき、部分画像識別器30Gにおける識別性を向上させることができる。各部分サポートベクターマシンは、入力された画像に応じた数値、すなわち識別関数値を出力する。
各部分サブ識別器に備えられる部分サポートベクターマシン(風景用部分サポートベクターマシン71a、花用部分サポートベクターマシン72a、紅葉部分サポートベクターマシン73a)は、前述したような非線形サポートベクターマシンである。そして、各部分サポートベクターマシンは、異なるサポートベクターに基づく学習で、識別関数におけるパラメータが定められる。その結果、部分サブ識別器毎に特性を最適化でき、部分画像識別器30Gにおける識別性を向上させることができる。各部分サポートベクターマシンは、入力された画像に応じた数値、すなわち識別関数値を出力する。
なお、各部分サポートベクターマシンは、学習データが部分画像データである点が、全体サブ識別器が有するサポートベクターマシンと異なっている。つまり、各部分サポートベクターマシンは、識別対象となる部分の特徴を示す部分特徴量に基づく演算を行う。各部分サポートベクターマシンによる演算結果、すなわち識別関数値は、部分画像が識別対象である或るシーンの特徴を多く有するほど、値が大きくなる。反対に、この部分画像が、識別対象でない他のシーンの特徴を多く有するほど、値が小さくなる。また、この部分画像が、或るシーンの特徴と他のシーンの特徴のそれぞれを均等に有する場合には、この部分サポートベクターマシンで得られる識別関数値は値[0]になる。
従って、部分サポートベクターマシンで得られた識別関数値が正の値になった部分画像に関しては、その部分サポートベクターマシンが対象とするシーンの方が、他のシーンよりも多くの特徴が表れている、つまり対象とするシーンに属する確率が高いといえる。このように、部分評価部の一部を構成する各部分サポートベクターマシンによって識別関数値の演算を行うことは、部分画像が特定のシーンに属するか否かの評価に相当する。また、その識別関数値が正であるか否かに応じて部分画像を特定のシーンに属するか否かに分類することは識別に相当する。本実施形態において、各部分評価部(各部分サポートベクターマシン,各検出数カウンタ)は、部分特徴量に基づいて部分画像毎に特定のシーンに属するか否かの評価を行う。各部分サポートベクターマシンで求められた確率情報は、それぞれメモリ37の確率情報記憶部37fに記憶される。
本実施形態の各部分サブ識別器は、それぞれ対応する特定のシーン毎に設けられている。各部分サブ識別器は、部分評価部としての部分サポートベクターマシンと検出数カウンタの組を、それぞれ有している。従って、部分評価部は、特定のシーンの種類毎に設けられているといえる。そして、各部分評価部では、部分サポートベクターマシンによる評価に基づいて、対応する特定のシーンに属するか否かの識別を行う。このため、各部分サポートベクターマシンの設定に応じて、部分評価部毎に特性を最適化することができる。
なお、本実施形態の各部分サポートベクターマシンは、部分特徴量に加えて、全体特徴量を加味して演算を行なっている。これは部分画像の識別精度を高めるためである。以下、この点について説明する。部分画像は、全体画像に比べて情報量が少ない。このため、シーンの識別が困難になる場合がある。例えば、或る部分画像が、或るシーンと他のシーンとで共通する特徴を有していた場合には、識別が困難になる。仮に、部分画像が赤みの強い画像であったとする。この場合、部分特徴量だけでは、その部分画像が夕景のシーンに属するのか、紅葉のシーンに属するのか、識別し難いことがある。このような場合に、全体特徴量を加味することで、その部分画像の属するシーンを識別できることがある。例えば、全体特徴量が全体的に黒味を帯びた画像を示す場合、赤みの強い部分画像は、夕景のシーンに属する確率が高くなる。また、全体特徴量が全体的に緑色や青色を帯びた画像を示す場合、赤みの強い部分画像は、紅葉のシーンに属する確率が高くなる。このように、各部分サポートベクターマシンにおいて、全体特徴量を加味して演算を行い、その演算結果に基づいて識別を行うことによって、識別精度をより高めることができることになる。
<検出数カウンタについて>
各検出数カウンタ(夕景検出数カウンタ71b〜紅葉検出数カウンタ73b)は、メモリ37のカウンタ部37gにより機能するものである。また、各検出数カウンタは、対応する部分サポートベクターマシンによって対応するシーンであることを示す評価結果が得られた部分画像の個数をカウントする。
各検出数カウンタ(夕景検出数カウンタ71b〜紅葉検出数カウンタ73b)は、メモリ37のカウンタ部37gにより機能するものである。また、各検出数カウンタは、対応する部分サポートベクターマシンによって対応するシーンであることを示す評価結果が得られた部分画像の個数をカウントする。
各検出数カウンタは、初期値が、例えば値[0]である。そして、対応する部分サポートベクターマシンで得られた識別関数値が正の値である評価結果(すなわち識別対象である特定のシーンに属することを示す評価結果)が得られるごとに、カウントアップ(+1)する。このカウントアップのことを、インクリメントともいう。要するに、各検出数カウンタは、識別対象である特定のシーン(以下、対応するシーンともいう)に属すると識別(検出)された部分画像の個数をカウントしているといえる。そして、各検出数カウンタによるカウント値は、部分サポートベクターマシンでなされた評価を定量的に示すものである。以下の説明において、各検出数カウンタのカウント値のことを検出画像数ともいう。
各検出数カウンタのカウント値は、例えば新たな識別対象画像についての処理を行う際にリセットされ初期値に戻る。
<判断部について>
各判断部(夕景判断部71c、花判断部72c、紅葉判断部73c)は、例えばメインコントローラ31のCPU36によって構成され、対応する検出数カウンタの検出画像数(部分評価部によって得られた評価結果)に応じて、識別対象画像が、対応する特定のシーンに属することを判断する。このように、識別対象画像が対応するシーンに属するか否かを、検出画像数に応じて判断することにより、識別対象画像の一部分に対応するシーンの特徴が表れているような場合でも精度良く識別を行うことができる。よって識別精度を向上させることができる。なお、具体的には、各部分サブ識別器の判断部は、検出画像数(特定のシーンに属することを示す評価結果が得られた部分画像の個数)が、メモリ37の制御用パラメータ記憶部37bに記憶された所定の閾値を超えた場合、その識別対象画像が対応するシーンに属すると判断する。この所定の閾値は、識別対象画像が部分サブ識別器で扱われるシーンに属するとの肯定的な判断を与えるものである。従って、以下の説明において、このような肯定的な判断を与えるための閾値のことを肯定閾値(Positive Threshold)ともいう。この肯定閾値の値は、識別対象画像が対応するシーンであると判断されるのに必要な検出画像数を示す。従って、肯定閾値が決まると、部分画像の評価個数に対する検出画像数の割合が決まる。よって、肯定閾値の値に応じて、対応するシーンに対する識別の精度を調整することができる。なお、この判断を行うのに最適な検出画像数の個数は、処理速度および識別精度の点から、識別対象となるシーンの種類に応じて異なることが考えられる。そこで、肯定閾値は、各部分サブ識別器における識別対象となるシーン毎にそれぞれ値が定められている。このように、シーン毎に肯定閾値を定めているので、それぞれのシーンに適した識別を行うことができる。すなわち必要な識別精度を確保しつつも処理の高速化が図れる。
各判断部(夕景判断部71c、花判断部72c、紅葉判断部73c)は、例えばメインコントローラ31のCPU36によって構成され、対応する検出数カウンタの検出画像数(部分評価部によって得られた評価結果)に応じて、識別対象画像が、対応する特定のシーンに属することを判断する。このように、識別対象画像が対応するシーンに属するか否かを、検出画像数に応じて判断することにより、識別対象画像の一部分に対応するシーンの特徴が表れているような場合でも精度良く識別を行うことができる。よって識別精度を向上させることができる。なお、具体的には、各部分サブ識別器の判断部は、検出画像数(特定のシーンに属することを示す評価結果が得られた部分画像の個数)が、メモリ37の制御用パラメータ記憶部37bに記憶された所定の閾値を超えた場合、その識別対象画像が対応するシーンに属すると判断する。この所定の閾値は、識別対象画像が部分サブ識別器で扱われるシーンに属するとの肯定的な判断を与えるものである。従って、以下の説明において、このような肯定的な判断を与えるための閾値のことを肯定閾値(Positive Threshold)ともいう。この肯定閾値の値は、識別対象画像が対応するシーンであると判断されるのに必要な検出画像数を示す。従って、肯定閾値が決まると、部分画像の評価個数に対する検出画像数の割合が決まる。よって、肯定閾値の値に応じて、対応するシーンに対する識別の精度を調整することができる。なお、この判断を行うのに最適な検出画像数の個数は、処理速度および識別精度の点から、識別対象となるシーンの種類に応じて異なることが考えられる。そこで、肯定閾値は、各部分サブ識別器における識別対象となるシーン毎にそれぞれ値が定められている。このように、シーン毎に肯定閾値を定めているので、それぞれのシーンに適した識別を行うことができる。すなわち必要な識別精度を確保しつつも処理の高速化が図れる。
さらに、各部分サブ識別器の判断部は、検出画像数が、制御用パラメータ記憶部37bに記憶された、肯定閾値とは別の閾値を超えた場合、識別対象画像がそのシーンに属さないと判断する。この閾値は、各部分サブ識別器と対応するシーン以外の識別対象のシーン(以下、他のシーンともいう)毎に設けられたものであり、識別対象画像が他のシーンに属さないとの否定的な判断を与えるものである。従って、以下の説明において、このような否定的な判断を与えるための閾値のことを否定閾値(Negative Threshold)ともいう。なお、肯定閾値と否定閾値の詳細については後述する。
また、前述したように、この複合機1では、各判断部による判断の正確さ(精度)を示す尺度として、再現率と正答率が用いられている。
再現率は、或るシーンに属すると判断しなければならない識別対象画像について、そのシーンに属すると判断した割合を示す。すなわち、再現率は、特定のシーンに属している識別対象画像が、その特定のシーンに対応する判断部によって、特定のシーンに属すると判断される確率である。具体例を挙げると、夕景のシーンに属する複数の識別対象画像を夕景部分サブ識別器71で識別させた場合において、夕景のシーンに属すると識別された識別対象画像の割合が該当する。従って、再現率は、そのシーンに属する確率が多少低い識別対象画像についても、そのシーンに属すると判断部に判断させることで、高くすることができる。なお、再現率の最大値は値[1]であり、最小値は値[0]である。
正答率は、或る判断部にて、対応するシーンに属すると判断した識別対象画像における、正しい判断をした識別対象画像の割合を示す。すなわち、正答率は、対応する判断部によって、識別対象画像が特定のシーンに属すると判断された場合に、その判断が正しい確率である。具体例を挙げると、夕景部分サブ識別器71によって夕景のシーンに属すると識別された複数の画像の中で、実際に夕景のシーンに属する識別対象画像の割合が該当する。従って、正答率は、そのシーンに属する可能性が高い識別対象画像を選択的にそのシーンに属すると判断部に判断させることで、高くすることができる。なお、正答率の最大値は値[1]であり、最小値は値[0]である。
図10は、夕景部分サブ識別器71による正答率と再現率の特性を示すものであり、図11は、花部分サブ識別器72による正答率と再現率の特性を示すものである。なお、図10、図11の横軸は肯定閾値を示し、縦軸は再現率と正答率の値を示す。これらの図から判るように、正答率と再現率は、肯定閾値に対して、互いに相反関係にある。例えば、正答率は、肯定閾値を大きくするほど高くなる傾向がある。このため、肯定閾値を大きくするほど、例えば夕景のシーンに属すると判断された識別対象画像が、本当に夕景のシーンに属している確率が高くなる。一方、再現率は、肯定閾値を大きくするほど低くなる傾向がある。例えば、夕景部分サブ識別器71で夕景のシーンであると識別されるべき夕景のシーンの識別対象画像であっても、夕景のシーンに属すると正しく識別されにくくなる。ここで、本実施形態の場合、肯定閾値は、識別対象画像が特定のシーンであると判断されるのに必要な、検出画像の個数である。従って、特定のシーンである旨の評価結果が得られた部分画像の個数が肯定閾値を超えるか否かで、識別対象画像がその特定のシーンであるか否かが判断される。つまり、肯定閾値を小さくするほど特定のシーンであるとの判断を早く得ることが可能であり、識別処理の速度を向上させることができることになる。しかし、この場合、正答率が低くなるので誤識別の可能性が高くなる。逆に肯定閾値を大きくするほど、識別の精度は高くなる。しかしこの場合、その特定のシーンであると判断されにくくなり識別処理の速度が低下することになる。このように、識別処理の精度および速度は、正答率と再現率の値に依存することになる。なお、図10、図11に示すF値(F-Value)は、正答率と再現率とによって規定される関数値であり、調和平均ともいわれる。F値は、正答率(Precision)と再現率(Recall)を用いて次式(10)で表される。
このF値は、互いに相反関係にある指標(本実施形態の場合、正答率と再現率)をバランスよく最適化するための関数値として知られている。F値は、正答率と再現率のクロス点付近で最大となり、正答率、再現率のいずれかが一方が小さくなると、それに伴って小さくなる。つまり、F値の値が大きいことは、正答率と再現率のバランスが良いことを示し、F値の値が小さいことは正答率と再現率のバランスが悪い(何れかが小さい)ことを示す。よって、F値を用いることで正答率と再現率を総合的に評価することができる。また、本実施形態では、正答率と再現率で規定されたF値を用いて各シーンの評価個数を定めているので識別処理の精度と速度を調和させた評価個数を定めることができる。
<部分画像について>
本実施形態の場合、部分画像識別器30Gの各部分サブ識別器で識別を行う部分画像は、図7で説明したように、識別対象画像の1/64サイズ(1200画素)である。すなわち、識別対象画像は、64個の部分画像を有する。なお、以下の説明でも、縦位置J(J=1〜8)、横位置I(I=1〜8)で特定される部分画像を、座標(I,J)で表す。
本実施形態の場合、部分画像識別器30Gの各部分サブ識別器で識別を行う部分画像は、図7で説明したように、識別対象画像の1/64サイズ(1200画素)である。すなわち、識別対象画像は、64個の部分画像を有する。なお、以下の説明でも、縦位置J(J=1〜8)、横位置I(I=1〜8)で特定される部分画像を、座標(I,J)で表す。
本実施形態の各部分サブ識別器は、識別対象画像から得られる全て(本実施形態では64個)の部分画像のうちから、予め定められた所定数の部分画像を選択する。そして、選択した部分画像について識別を行う。本実施形態では、後述するように、存在確率と部分画像毎の正答率(以下、部分正答率ともいう)との乗算値の高い順に部分画像を選択し、識別を行う。
以下、図12〜図16Dを用いて存在確率、部分正答率について説明する。図12は、実際のシーンと部分サブ識別器での識別結果との一例を示した図であり、図13は、各部分画像の存在確率と部分正答率の算出方法を説明するための図である。図14A〜図16Dは、存在確率等のデータの一例である。なお、図12では、便宜上、サンプル画像の全体を64分割した64ブロックのうちの16ブロック(I=1〜4,J=1〜4)について示している。部分画像識別器30Gで識別が行われる識別対象画像は、部分的にシーンの特徴が表れている。例えば夕景のシーンのサンプル画像において、図12に示すように夕景のシーンだけでなく他のシーン(例えば花、夜景、風景)の特徴が表れた部分画像が存在している。なお、図12に示す実際のシーンとは、サンプル画像の各部分領域を、例えば評価者による目視によって、特定のシーンに分類した結果である。これに対し識別結果は、同じサンプル画像を、夕景部分サブ識別器71の部分評価部(夕景用部分サポートベクターマシン71a及び夕景検出数カウンタ71b)によって、部分画像毎に夕景のシーンであるか否かを識別した結果である。この識別結果において、灰色で塗り潰した部分は夕景に属する(Positive)と識別された部分画像を示し、白抜きの部分は夕景には属さない(Negative)と識別された部分画像を示している。また、識別結果が実際のシーンと同じ(正解(True)ともいう)部分領域には丸印を記し、識別結果が実際のシーンと異なる(不正解(False)ともいう)部分領域には罰点を記している。
<存在確率について>
存在確率は、画像全体領域内の各部分領域毎に、特定のシーンの特徴が表れる確率である。この存在確率は、各部分領域において、実際に特定のシーンの特徴が表れている部分画像の個数を、サンプル画像の総数(部分画像の総数n個)で除算することで求められる。よって、サンプル画像において、特定のシーンの特徴が表れている部分画像が無い部分領域では、存在確率は最小値[0]となる。一方、全ての部分画像に特定のシーンの特徴が表れている部分領域では、存在確率は最大値[1]となる。サンプル画像はそれぞれ構図が異なっているので、存在確率の精度はサンプル画像の枚数に依存する。つまりサンプル画像の数が少ないと、特定のシーンの表れる領域の傾向を正確に求めることが出来ない可能性がある。本実施形態では、各部分画像の存在確率を求める際、構図の異なるn枚(例えば数千枚)のサンプル画像を用いているので、特定のシーンの特徴が表れやすい部分領域の位置の傾向をより正確に求めることができ、各部分領域毎の存在確率の精度を高めることができる。このようにして、サンプル画像から得られた各部分領域毎の存在確率を示すデータの一例を図14A〜図16Aに示す。なお、この64個の各部分領域は、図7に示す各部分画像にそれぞれ対応している。よって、各部分領域を部分画像と同じ座標(I,J)で表している。
存在確率は、画像全体領域内の各部分領域毎に、特定のシーンの特徴が表れる確率である。この存在確率は、各部分領域において、実際に特定のシーンの特徴が表れている部分画像の個数を、サンプル画像の総数(部分画像の総数n個)で除算することで求められる。よって、サンプル画像において、特定のシーンの特徴が表れている部分画像が無い部分領域では、存在確率は最小値[0]となる。一方、全ての部分画像に特定のシーンの特徴が表れている部分領域では、存在確率は最大値[1]となる。サンプル画像はそれぞれ構図が異なっているので、存在確率の精度はサンプル画像の枚数に依存する。つまりサンプル画像の数が少ないと、特定のシーンの表れる領域の傾向を正確に求めることが出来ない可能性がある。本実施形態では、各部分画像の存在確率を求める際、構図の異なるn枚(例えば数千枚)のサンプル画像を用いているので、特定のシーンの特徴が表れやすい部分領域の位置の傾向をより正確に求めることができ、各部分領域毎の存在確率の精度を高めることができる。このようにして、サンプル画像から得られた各部分領域毎の存在確率を示すデータの一例を図14A〜図16Aに示す。なお、この64個の各部分領域は、図7に示す各部分画像にそれぞれ対応している。よって、各部分領域を部分画像と同じ座標(I,J)で表している。
図14Aは、夕景のシーンの各部分領域における存在確率を示したデータであり、図15Aは、花のシーンの各部分領域における存在確率を示したデータである。また、図16Aは、紅葉のシーンの各部分領域における存在確率を示したデータである。
例えば夕景のシーンの場合、画像全体における中央付近から上半分に夕景の空が広がっていることが多い。すなわち、図14Aに示すように全体領域の中央付近から上半分の部分領域において存在確率が高く、それ以外(下半分)の部分領域では存在確率が低くなる。また、例えば、花のシーンの場合、図7のように花を全体領域の中央に配置させるような構図が多い。すなわち、図15Aに示すように全体領域における中央部分の部分領域では存在確率が高く、全体領域の周辺部分の部分領域では存在確率が低くなる。また、例えば、紅葉のシーンの場合、山の一部分に表れた紅葉を撮影することが多く、図16Aに示すように画像の中央から下部にかけて存在確率が高くなる。このように、部分画像識別器30Gで識別を行うような主要被写体の一部分に特徴の表れやすい夕景、花、紅葉のシーンにおいて、存在確率の高い部分領域は各シーンで一定の傾向があることが判る。
<部分正答率について>
部分正答率は、各部分サブ識別器の部分評価部(部分サポートベクターマシン及び検出数カウンタ)による部分画像の評価結果が正しい確率である。すなわち、部分評価部によって、対応する特定のシーンに属する確率が高いことを示す正の値の識別関数値が得られた部分画像に対し、実際にその特定のシーンの特徴が表れている確率を示すものである。
部分正答率は、各部分サブ識別器の部分評価部(部分サポートベクターマシン及び検出数カウンタ)による部分画像の評価結果が正しい確率である。すなわち、部分評価部によって、対応する特定のシーンに属する確率が高いことを示す正の値の識別関数値が得られた部分画像に対し、実際にその特定のシーンの特徴が表れている確率を示すものである。
各部分領域の部分正答率は、各部分評価部が、複数のサンプル画像の部分画像について、特定のシーンに属しているか否かを識別した際に、特定のシーンに属すると識別された部分画像のうちの、実際に特定のシーンの特徴が表れていた部分画像の個数を、特定のシーンに属すると識別された部分画像の個数で除算することで求められる。例えば夕景部分サブ識別器71で識別を行った場合、各部分領域毎の部分正答率は、夕景と識別して正解(TruePositive :以下、TPともいう)した部分画像の個数を、夕景と識別した部分画像の個数で除算した値である。なお、夕景と識別した個数は、正解した部分画像の個数(TP)に、夕景と識別して不正解(FalsePositive:以下、FPともいう)であった個数を加算した値である。すなわち、部分正答率は、TP=0(FP>0)のとき最小値[0]となり、FP=0(TP>0)のとき最大値[1]となる。
例えば、図13に示す3枚のサンプル画像(サンプル1〜サンプル3)について考える。この場合、座標(1,1)の部分領域では、夕景と識別された部分画像の個数が2個であり、そのうち1個が正解(TP=1及びFP=1)なので、この場合の座標(1,1)の部分領域における部分正答率は値[1/2]となる。また、座標(2,1)及び座標(3,1)では、夕景と識別された部分画像が2個であり、共に正解(TP=2及びFP=0)なので、この場合の座標(2,1)の部分領域における部分正答率は値[1]となる。本実施形態では、各部分画像の正答率を求める際、存在確率と同様に、構図の異なるn枚(例えば数千枚)のサンプル画像を用いているので、部分領域毎の傾向をより正確に求めることができ、部分正答率の精度を高めることができる。
図14B、図15B、図16Bは、それぞれ複数枚のサンプル画像を用いて夕景、花、紅葉の各シーンの各部分領域毎に算出した部分正答率の一例を示したものである。これらから判るように、部分正答率の高さの順位の傾向は、存在確率の高さの順位の傾向とは異なる。これは、各シーン間における存在確率の高さの傾向と、それらのシーンの特徴とによるものである。例えば、或るシーンと他のシーンとにおいて、存在確率の高い部分領域が同じであり、且つ、その両シーンの特徴が似ている場合、正確な識別を行うことが困難な場合がある。具体的には、図14A、図16Aに示すように、座標(5,4)の部分領域は、夕景のシーン、紅葉のシーンで共に存在確率が高い。つまり、座標(5,4)の部分画像には、夕景のシーンの特徴、紅葉のシーンの特徴が共に表れやすい。ところが、紅葉のシーンと夕景のシーンは、共に赤みが強いという特徴を有している。このため、例えば夕景部分サブ識別器71で識別を行う場合、例えば座標(5,4)の部分領域が紅葉のシーンであっても、夕景のシーンであると誤識別する可能性が高くなる。紅葉部分サブ識別器73で識別を行う場合も同様に、例えば座標(5,4)の部分領域が夕景のシーンであっても、紅葉のシーンであると誤識別する可能性が高くなる。これにより、夕景のシーンおよび紅葉のシーンにおいて座標(5,4)の部分領域では、他の部分領域と比べて、存在確率は高いが、部分正答率は低くなっている。
このように、部分正答率の高さの順位は、存在確率の高さの順位とは異なる。つまり、画像全体領域内において、相対的に、存在確率が高くても、部分正答率の低い部分領域があり、逆に存在確率が低くても、部分正答率の高い部分領域があることになる。
<部分画像の識別順序について>
各部分サブ識別器の各判断部は、所定数の部分画像のみの評価結果から、識別対象画像が特定のシーンに属することを判断する。この判断は、識別対象画像を構成する全ての部分画像の一部から選択された部分画像の評価結果に基づいて行われる。よって、所定数の部分画像は、評価を効率的に行うことができるように選択されることが望ましい。例えば、花をアップで撮影した画像では、前述したように画像全体における中央部分に花のシーンの特徴が表れ、周辺部分に風景のシーンに近い特徴が表れることが多い。この場合に、画像の周辺から(例えば10個の)部分画像を選択すると、識別対象画像のシーンが花のシーンであっても、花のシーンと判断される可能性が低くなる。また、同じ位置に同じような特徴の出やすいシーンが複数ある場合において、その位置の部分画像を選択して特定のシーンに属するか否かを評価すると、正しい評価結果の得られる可能性が低くなる。これにより、識別対象画像のシーンが正しく判断される可能性は低くなる。そこで、評価の対象となる所定数の部分領域は、部分領域に特定のシーンの特徴が表れる確率である存在確率と、部分評価部による部分画像毎の評価結果が正しい確率である部分正答率と、の少なくとも一方に基づいて選ぶことが好ましい。例えば存在確率の高い部分領域から順に評価を行うと、識別対象画像において、そのシーンの特徴の表れる確率の高い位置(座標)から評価を行うことができる。つまり、特定のシーンの特徴が表れる確率が低い部分領域は、評価の対象から外れる可能性が高い。また、部分正答率の高い部分領域から順に評価を行うと、部分評価部によって正しい評価結果が得られる可能性の高い部分領域から、順に評価を行うことができる。つまり、評価を誤りやすい部分領域は、評価の対象から外れる可能性が高い。よって、これらの場合、選択方法を定めずに(無作為に)所定数の部分領域を選択する場合に比べて、識別対象画像の属するシーンを正しく判断することが可能となる。なお、本実施形態では、存在確率と、正答率とが加味される。例えば、各部分評価部では、存在確率と正答率との乗算値の高い部分領域に対応する部分画像から順に、評価及び識別を行う。言い換えれば、各部分サブ識別器において、対応する特定のシーンの特徴が表れる確率が高く、且つ、その特定のシーンであると識別した識別結果が正しい確率の高い、部分領域に対応する部分画像から順に、評価と識別を行う。これによって、より適切な部分画像を対象にでき、各特定のシーンに対する識別をさらに効率化させることができる。
各部分サブ識別器の各判断部は、所定数の部分画像のみの評価結果から、識別対象画像が特定のシーンに属することを判断する。この判断は、識別対象画像を構成する全ての部分画像の一部から選択された部分画像の評価結果に基づいて行われる。よって、所定数の部分画像は、評価を効率的に行うことができるように選択されることが望ましい。例えば、花をアップで撮影した画像では、前述したように画像全体における中央部分に花のシーンの特徴が表れ、周辺部分に風景のシーンに近い特徴が表れることが多い。この場合に、画像の周辺から(例えば10個の)部分画像を選択すると、識別対象画像のシーンが花のシーンであっても、花のシーンと判断される可能性が低くなる。また、同じ位置に同じような特徴の出やすいシーンが複数ある場合において、その位置の部分画像を選択して特定のシーンに属するか否かを評価すると、正しい評価結果の得られる可能性が低くなる。これにより、識別対象画像のシーンが正しく判断される可能性は低くなる。そこで、評価の対象となる所定数の部分領域は、部分領域に特定のシーンの特徴が表れる確率である存在確率と、部分評価部による部分画像毎の評価結果が正しい確率である部分正答率と、の少なくとも一方に基づいて選ぶことが好ましい。例えば存在確率の高い部分領域から順に評価を行うと、識別対象画像において、そのシーンの特徴の表れる確率の高い位置(座標)から評価を行うことができる。つまり、特定のシーンの特徴が表れる確率が低い部分領域は、評価の対象から外れる可能性が高い。また、部分正答率の高い部分領域から順に評価を行うと、部分評価部によって正しい評価結果が得られる可能性の高い部分領域から、順に評価を行うことができる。つまり、評価を誤りやすい部分領域は、評価の対象から外れる可能性が高い。よって、これらの場合、選択方法を定めずに(無作為に)所定数の部分領域を選択する場合に比べて、識別対象画像の属するシーンを正しく判断することが可能となる。なお、本実施形態では、存在確率と、正答率とが加味される。例えば、各部分評価部では、存在確率と正答率との乗算値の高い部分領域に対応する部分画像から順に、評価及び識別を行う。言い換えれば、各部分サブ識別器において、対応する特定のシーンの特徴が表れる確率が高く、且つ、その特定のシーンであると識別した識別結果が正しい確率の高い、部分領域に対応する部分画像から順に、評価と識別を行う。これによって、より適切な部分画像を対象にでき、各特定のシーンに対する識別をさらに効率化させることができる。
図14Cは、夕景のシーンでの各部分領域毎の存在確率(図14A)と部分正答率(図14B)を乗算して得られた乗算値を示すデータ(以下、乗算値情報ともいう)であり、図14Dは、各部分領域に対する乗算値の順位を示すデータ(以下、乗算値順位情報ともいう)である。また、図15Cは、花のシーンの存在確率(図15A)と部分正答率(図15B)を部分領域毎に乗算した乗算値情報であり、図15Dは、その乗算値順位情報である。また、図16Cは、紅葉のシーンの存在確率(図16A)と部分正答率(図16B)を乗算した乗算値情報であり、図16Dは、その乗算値順位情報である。これらの各特定のシーンに対する乗算値情報及び乗算値順位情報の何れか一方は、選択情報としてメモリ37の選択情報記憶部37kに記憶されている。そして、選択情報は、各座標を示す値と対応付けられたテーブルデータとして選択情報記憶部37kに記憶されている。なお、図14D、図15D、図16Dでは、存在確率と部分正答率の乗算値の高い部分領域の分布を判りやすくするため、それぞれ乗算値の高い上位10個(1位〜10位)を濃い灰色で塗り潰し、次の10個(11位〜20位)を薄い灰色で塗り潰している。
各部分サブ識別器の判断部で、識別対象画像が特定のシーンに属するか否かの判断を行う際には、この乗算値の高い上位側から選ばれた所定数(例えば10個)の部分画像についての評価結果が用いられる。例えば、各部分評価部において、乗算値の高い順の部分画像から順に評価が行われる。そして、予め定められた評価個数までの評価結果を用いて、各判断部によって、識別対象画像が特定のシーンに属するか(つまり、特定のシーンであることを示す評価結果が得られた部分画像の個数が、肯定閾値を超えたか)が判断される。
例えば、夕景部分サブ識別器71にて識別を行う場合には、夕景のシーンの選択情報(図14Cに示す乗算値情報及び図14Dに示す乗算値順位情報の何れか一方)に基づいて、夕景のシーンにおける乗算値の最も高い座標(1,3)の部分画像が最初に選択される。そして、座標(1,3)の部分画像の識別処理後には、2番目に乗算値の高い座標(2,4)の部分画像が選択される。以下、同様に乗算値の高い順に部分画像が選択される。そして、例えば評価個数が10個の場合、最後(10番目)には、座標(5,4)の部分画像が選択される。
また、花識別器72にて識別を行う場合には、花のシーンの選択情報(図15C及び図15Dの何れか一方)に基づいて、花のシーンに対する存在確率と部分正答率との乗算値の高い部分領域に対応する部分画像から順に選択される。また、紅葉識別器73にて識別を行う場合には、紅葉のシーンの選択情報(図16C及び図16Dの何れか一方)に基づいて、紅葉のシーンに対する存在確率と部分正答率との乗算値の高い部分領域に対応する部分画像から順に選択される。
<部分画像の評価個数の選定について>
次に、図17を用いて各シーンにおける部分画像の評価個数の選定方法の一例について説明する。なお、図17に示すフローチャートは、予め複数のサンプル画像を用いることにより、各部分サブ識別器毎に行われるものである。また、このフローチャートは、例えば複合機1のメインコントローラ31のCPU36及びメモリ37の機能によって実行される。例えばこのフローチャートを実行するプログラムは、メモリ37の、プログラム記憶部37aに記憶されており、各種の演算はCPU36によって行われる。また、肯定閾値は、例えば制御用パラメータ37bに記憶され、評価個数は、例えば各検出数カウンタ部に設定される。
次に、図17を用いて各シーンにおける部分画像の評価個数の選定方法の一例について説明する。なお、図17に示すフローチャートは、予め複数のサンプル画像を用いることにより、各部分サブ識別器毎に行われるものである。また、このフローチャートは、例えば複合機1のメインコントローラ31のCPU36及びメモリ37の機能によって実行される。例えばこのフローチャートを実行するプログラムは、メモリ37の、プログラム記憶部37aに記憶されており、各種の演算はCPU36によって行われる。また、肯定閾値は、例えば制御用パラメータ37bに記憶され、評価個数は、例えば各検出数カウンタ部に設定される。
図17に示すように、まず、サンプル画像における評価順序を決定する(S20)。これは、CPU36が、選択情報記憶部37kに記憶された選択情報を読み込むことでなされる。本実施形態の場合、前述したように選択情報記憶部37kには、選択情報として、存在確率と部分正答率を乗算した乗算値情報及び乗算値の順位を示す乗算値順位情報の何れか一方が記憶される。従って、選択情報記憶部37kから読み出される選択情報に基づいて、存在確率と部分正答率の乗算値の高い部分画像の順に評価が行われる。
評価順序を決定したならば、評価個数を初期化し(S21)、サンプル画像の64個の分領域のうち評価を行う部分領域の評価個数を仮決めする。以下、この仮決めした評価個数のことを仮評価個数とする。仮評価個数を0とした場合、部分評価部による識別は行われないことになるので、説明の便宜上、仮評価個数が10個である場合から説明する。この場合、サンプル画像を分割して得られる64個の部分画像のうち存在確率と部分正答率の高い順に10個の部分画像が評価の対象となる。
続いて、肯定閾値を初期化(例えば値[0])して(S22)、複数のサンプル画像の部分画像の評価結果から、設定された肯定閾値における、正答率と再現率を算出する。そして、算出された正答率と再現率を用いて、前述した(10)式よりF値を算出する(S23)。F値を算出したならば、肯定閾値を例えば1個インクリメントし(S24)、その肯定閾値が仮評価個数と等しいか否か判断する(S25)。この場合、インクリメントした肯定閾値(現在の肯定閾値とする)が10個であるか否かが判断される。現在の肯定閾値が仮評価個数と等しくない場合(S25でNO)には、その肯定閾値について、F値を算出するステップS23を再度実行する。一方、現在の肯定閾値が仮評価個数と等しい場合(S25でYES)、その仮評価個数(この場合10個)におけるF値の最大値を算出し、例えばメモリ37のパラメータ記憶部37bに、制御用パラメータとして記憶する(S26)。例えば、評価結果が図10の場合(評価個数が10個)には、肯定閾値が値[6]のときのF値の値[0.82]が、最大値として選ばれる。パラメータ記憶部37bには、このときの仮評価個数(例えば10個)の値とF値の最大値が対応付けられて記憶される。F値の最大値を記憶したならば、仮評価個数を所定数だけインクリメントする(S27)。本実施形態において、所定数は10個に定められている。このため、それまでの仮評価個数が10個であった場合、次の仮評価個数は20個となる。
インクリメント後の仮評価個数が、部分画像の総数(64個)以下の場合(S28でNO)、ステップS22に移行して上述した処理を再度実行する。一方、インクリメント後の仮評価個数が、部分画像の総数より大の場合(S28でYES)、CPU36は、制御用パラメータ37bに保存された、各仮評価個数に対して求められたF値の最大値を参照する。そして、得られたF値の最大値のうち値が最も大きくなるときの仮評価個数を、そのシーンの評価個数に定める(S29)。以上のフローチャートによって求められた各仮評価個数に対するF値の最大値の一例を図18、図19に示す。
図18は、夕景のシーンにおける、各仮評価個数に対するF値の最大値の変化の一例を示す図であり、図19は、花のシーンにおける、各仮評価個数に対するF値の最大値の変化の一例を示す図である。図18、図19の横軸は仮評価個数であり、縦軸は各仮評価個数におけるF値の最大値である。夕景のシーンでは、図18に示すように、F値の最大値は、仮評価個数が10個のときに最も大きい値[0.835]となっている。また、花のシーンでは、図19に示すように、F値の最大値は、仮評価個数が20個のときに最も大きい値[0.745]となっている。
ここで、例えば図18において、仮評価個数が10個の場合のF値の最大値と、仮評価個数が20個の場合のF値の最大値を比べると、仮評価個数が20個の場合のF値の最大値の方が小さい。つまり、仮評価個数を増やすことによってF値の最大値が小さくなっている。これは、仮評価個数を増やすことによって、誤った判断が増える場合があることによる。例えば、或る肯定閾値が設定されている場合において、仮評価個数10個でその肯定閾値に達する場合と、仮評価個数10個ではその肯定閾値に達せずに、仮評価個数が20個ではその肯定閾値に達する場合がある。しかし、後者の場合に、肯定閾値に達することによって、識別対象画像が特定のシーンに属するとした判断が誤っていることがある。このような場合が多いと、その肯定閾値において、F値の値が評価個数10個の場合より低くなることがある。
このようにして、各仮評価個数で得られた、F値の最大値のうち最も値の大きいときの仮評価個数を、そのシーンの評価個数として定める。すなわち、夕景のシーンでは、評価個数は10個に定め、花のシーンでは、評価個数は20個に定めている。また、図示を省略するが、紅葉のシーンも、同様にして評価個数を10個に定めている。このように各シーンにおいて最適な評価個数は、それぞれ異なる。本実施形態では、上述した評価個数の選定を特定のシーン毎に行うことによって、各判断部による正答率と再現率に基づいて、評価個数を特定のシーン毎に定めている。これにより、特定のシーン毎の識別処理を効率的に行うことができる。なお、特定のシーン毎に最適な評価個数が異なるのは各シーンの構図の特徴や識別の困難性等によると考えられる。例えば、花のシーンにおいて、他のシーン(夕景のシーン、紅葉のシーン)よりも評価個数が多いのは、花のシーンでは、例えば花をアップで中央に撮影した画像や、一面に花が映っている花畑の画像など、色々な構図の画像があり、少ない評価個数ではシーンの識別が困難である(精度が低くなる)ためと考えられる。
以上説明したように、本実施形態では、サンプル画像の評価個数を仮決めした仮評価個数の範囲で、肯定閾値を複数設定することにより、各閾値毎のF値を求め、仮評価個数でのF値の最大値を求める。そして、仮評価個数を変化させて同様にF値の最大値を求め、得られたF値の最大値のうちで最も値が大きいときの仮評価個数をそのシーンの評価個数に定める。このように、F値の最大値を、仮評価個数を変化させることにより、その仮評価個数毎に求めて、得られたF値の最大値のうちの最大の値が得られるときの仮評価個数を特定のシーンの評価個数と定めているので、特定のシーン毎についての評価個数を最適化することができる。
<肯定閾値について>
以上のように定められた評価個数の正答率と再現率に基づいて、肯定閾値は、各部分サブ識別器と対応するシーン毎に、それぞれ設けられている。この肯定閾値には、例えば、そのシーンに定められた評価個数でのF値の値が最大となるときの値(例えば図10、図11参照)が設けられる。この実施形態では、図20に示すように、夕景のシーンについて値[6]が、花のシーンについて値[7]が、紅葉のシーンについて[6]が設けられている。
以上のように定められた評価個数の正答率と再現率に基づいて、肯定閾値は、各部分サブ識別器と対応するシーン毎に、それぞれ設けられている。この肯定閾値には、例えば、そのシーンに定められた評価個数でのF値の値が最大となるときの値(例えば図10、図11参照)が設けられる。この実施形態では、図20に示すように、夕景のシーンについて値[6]が、花のシーンについて値[7]が、紅葉のシーンについて[6]が設けられている。
夕景のシーンでは評価個数として値[10]が定められるので、夕景判断部71cは、64個の部分画像のうち10個のみの部分画像の評価結果を用いて、夕景検出数カウンタ71bの検出画像数が値[6]を超える場合に、その識別対象画像が夕景のシーンに属すると判断する。また、花のシーンでは評価個数として値[20]が定められるので、花判断部72cは、20個のみの部分画像の評価結果を用いて、花検出数カウンタ72bの検出画像数が値[7]を超える場合に、その識別対象画像が花のシーンに属すると判断する。このように特定のシーン毎に肯定閾値を設けているので、それぞれのシーンに適した識別を行うことができる。
<否定閾値について>
識別対象画像の属するシーンの判断において、或るシーンに属する確率が高いと、特徴の異なる他のシーンに属する確率は低くなりがちである。すなわち、或る部分サブ識別器において、その対象となるシーンである評価結果が得られた部分画像の個数に応じて、識別対象画像が対応するシーン以外のシーン(他のシーン)に属さないことを判断することもできる。例えば、風景のシーンと夕景のシーンを比べると、風景のシーンでは、緑色や青色を基調としているのに対し、夕景のシーンでは赤色を基調としている。このため、赤色を基調とする画像については、夕景のシーンに属する確率が高くなり、風景のシーンに属する確率が低くなると考えられる。このことから、各部分評価部による部分画像の評価結果に応じて、識別対象画像が他のシーンに属さないことを判断できることが判る。具体的には、各部分サブ識別器の判断部は、部分評価部による評価によって、当該部分サブ識別器対応するシーンに属することを示す評価結果の得られた部分画像の個数が、他のシーンに対する否定閾値を超えた場合に、識別対象画像が、そのシーンには属さないと判断する。従って、この否定閾値の値に応じて、識別対象画像が他のシーン属さないと判断する精度を調整することができる。
識別対象画像の属するシーンの判断において、或るシーンに属する確率が高いと、特徴の異なる他のシーンに属する確率は低くなりがちである。すなわち、或る部分サブ識別器において、その対象となるシーンである評価結果が得られた部分画像の個数に応じて、識別対象画像が対応するシーン以外のシーン(他のシーン)に属さないことを判断することもできる。例えば、風景のシーンと夕景のシーンを比べると、風景のシーンでは、緑色や青色を基調としているのに対し、夕景のシーンでは赤色を基調としている。このため、赤色を基調とする画像については、夕景のシーンに属する確率が高くなり、風景のシーンに属する確率が低くなると考えられる。このことから、各部分評価部による部分画像の評価結果に応じて、識別対象画像が他のシーンに属さないことを判断できることが判る。具体的には、各部分サブ識別器の判断部は、部分評価部による評価によって、当該部分サブ識別器対応するシーンに属することを示す評価結果の得られた部分画像の個数が、他のシーンに対する否定閾値を超えた場合に、識別対象画像が、そのシーンには属さないと判断する。従って、この否定閾値の値に応じて、識別対象画像が他のシーン属さないと判断する精度を調整することができる。
否定閾値は、例えば、複数のサンプル画像を用いて求められた誤判定率に基づいて設けられる。なお、誤判定率とは、或る部分サブ識別器が、他のシーンに属する識別対象画像を扱った場合に、識別対象画像が他のシーンには属さないと誤って判定する確率である。誤判定率は、或る部分サブ識別器にて他のシーンに属する複数のサンプル画像を判断させた場合における、他のシーンでないと判断されたサンプル画像数の、判断対象のサンプル画像数に対する比率である。ここで、他のシーンでないとの判断は、予め設けられた仮の否定閾値(以下仮否定閾値ともいう)と、或るシーンに属すると識別された部分画像の個数との比較でなされる。すなわち、或るシーンに属すると識別された部分画像の個数が仮否定閾値を超えた場合に、そのサンプル画像は他のシーンでないと判断される。そして、仮否定閾値を或るシーンに属すると識別された部分画像の個数(検出画像数)毎に設定することで、誤判定率を検出画像数毎に求める。
図21は、夕景部分サブ識別器71における検出画像数(仮否定閾値)と誤判定率との関係を示す図であり、図22は、花部分サブ識別器72における検出画像数(仮否定閾値)と誤判定率との関係を示す図である。また、図23は紅葉部分サブ識別器73における検出画像数(仮否定閾値)と誤判定率との関係を示す図である。
これらの各図の横軸は、各部分サブ識別器で対応するシーンを示す評価結果が得られた部分画像の個数(検出画像数)を示し、縦軸は誤判定率を示す。なお、検出画像数の最大値は、各シーンに対して定められた評価個数である。例えば図21に示す夕景部分サブ識別器71の誤判定率の場合、検出画像数の最大値は夕景のシーンの評価個数の値[10]であり、図22に示す花サブ識別器72の誤判定率の場合、検出画像数の最大値は花のシーンの評価個数の値[20]である。
図21に示すように、検出画像数(仮否定閾値)を値[4]に定めた場合の、花のシーンの誤判定率は、値[0.025]である。誤判定率[0.025]の意味は、花のシーンのサンプル画像を夕景部分サブ識別器71で判断させた場合において、夕景のシーンであると検出された部分画像の個数(検出画像数)が値[4]になったことを条件に、そのサンプル画像を「花のシーンではない」と判断すると、その判断が2.5%の確率で誤ることを示す。言い換えれば、花のシーンのサンプル画像が2.5%の確率で含まれることを示す。
部分画像の識別処理において、検出画像数が大きくなるほど識別対象画像が各部分サブ識別器に対応するシーンである確率が大きくなる。つまり、検出画像数が大きくなるほど、他のシーンに属さないと正しく判断することができるようになる。よって、図21に示すように、検出画像数が大きくなるほど、他のシーンに対する誤判定率は小さくなる。図22及び図23の場合も同様である。否定閾値は、この誤判定率に基づいて、各部分サブ識別器の対応するシーン以外の識別対象のシーン毎に設けられる。本実施形態では、誤判定率が値[0.01]以下となるときの最小の検出画像数(仮否定閾値)を否定閾値として設けた。つまり、或る部分サブ識別器において、他のシーンでないと判定して誤る確率が1%以下となるときの、検出画像数(対応するシーンを示す評価結果が得られた部分画像の個数)を否定閾値とした。例えば、図21において、検出画像数が値[5]において、夜景のシーンの誤判定率が値[0.01]よりも小となる。よって、夕景部分サブ識別器71に対する夜景のシーンの否定閾値は値[5]とした(図20参照)。また、紅葉のシーン及び風景のシーンは、検出画像数が値[1]で、誤判定率が値[0.01]よりも小である。よって紅葉のシーン及び風景のシーンの否定閾値は値[1]とした。また、図21において、花のシーンでは検出画像数が値[10]においても、誤判定率が値[0.01]より大となっている。この場合、図23に示すように花のシーンの否定閾値を値[10]としている。なお、夕景のシーンの肯定閾値が値[6]であり、検出画像数が値[6]を超えると識別対象画像が夕景のシーンであると特定され、それ以後の識別処理が行われることがないので、この否定閾値は実際には機能しないことになる。以上のように否定閾値を設けることによって、夕景サブ識別器71において、検出画像数が値[1]よりも大きく値[5]以下の場合には、識別対象画像が夕景のシーンに属するとは確定できないが、紅葉のシーン及び風景のシーンには属さないと判断することができる。また、検出画像数が値[6]の場合には、識別対象画像が夕景のシーンに属するとは確定できないが、紅葉のシーン、風景のシーン、および夜景のシーンには属さないと判断することができる。
他の部分サブ識別器においても同様にして、図22、図23より誤判定率が値[0.01]より小となるときの最小の検出画像数を各シーンの否定閾値として設けた。例えば、図20に示すように、花部分サブ識別器72に対しては、風景のシーンの否定閾値を値[11]、夕景のシーンの否定閾値を値[8]、夜景のシーンの否定閾値を値[4]、紅葉のシーンの否定閾値を値[18]に定めた。また、紅葉部分サブ識別器73に対しては、風景のシーンの否定閾値を値[4]、夕景のシーンの否定閾値を値[7]、夜景のシーンの否定閾値を値[1]、花のシーンの否定閾値を値[10]に定めた。
このように、誤判定率に基づいて、否定閾値を設けることにより、識別対象画像が他のシーンに属さない確率を調整できるので、識別対象画像が他のシーンに属する可能性の低い場合に、対応する部分サブ識別器の識別処理を的確に省略することができる。そして、シーン毎の誤判定率を求めるに際し、構図の異なる複数のサンプル画像を用いているので、より正確な誤判定率を算出することができる。その結果、各シーンに対して適切な否定閾値を設けることができる。また、各部分サブ識別器と対応するシーン以外のシーン毎に否定閾値を設けることにより、各部分サブ識別器による識別処理で、複数のシーンに対して、そのシーンに属していないことの判断ができる。よって、識別対象画像が属さないシーンについての判断を、効率的に行うことができる。
本実施形態の部分画像識別器30Gでは、まず、優先順位の高い夕景部分サブ識別器71で識別が行われる。夕景部分サブ識別器71の夕景用部分サポートベクターマシン71aは、選択情報に基づいて選択された部分画像の部分特徴量に基づいて識別関数値を取得する。すなわち部分画像の評価をする。夕景検出数カウンタ71bは、夕景用部分サポートベクターマシン71aで取得される識別関数値が正となる識別結果を検出画像数としてカウントする。夕景判断部71cは、夕景検出数カウンタ71bの検出画像数と肯定閾値との比較に応じて識別対象画像が夕景のシーンに属することを判断する。この結果、識別対象画像が夕景のシーンに属することを判断できなかった場合、夕景判断部71cは、検出画像数と否定閾値との比較に応じて、識別対象画像が夕景以外のシーンに属さないことを判断する。
後段の花部分サブ識別器72は、夕景判断部71cにて識別対象画像が夕景のシーンに属すると判断されず、「花のシーンに属さない」旨の判断もされなかった場合に、花用部分サポートベクターマシン72aと花検出数カウンタ71bを用いて、各部分画像が花のシーンに属するか否かの評価を行う。そして、花判断部72cは、その評価結果に応じて、識別対象画像が、花のシーンに属すること、及び、花のシーン以外のシーンに属さないことを判断する。
さらに、花判断部72cにて、識別対象画像が花のシーンに属すると判断されず、「紅葉のシーンに属さない」旨の判断もされなかった場合に、花部分サブ識別器72の後段の紅葉部分サブ識別器73は、紅葉部分サポートベクターマシン72aと紅葉検出数カウンタ71bを用いて、各部分画像が紅葉のシーンに属するか否かの評価を行う。そして、紅葉判断部73cは、その評価結果に応じて、識別対象画像が、紅葉のシーンに属すること、及び、紅葉のシーン以外のシーンに属さないことを判断する。
<統合識別器30Hについて>
統合識別器30Hは、前述したように、全体識別器30Fと部分画像識別器30Gのそれぞれでシーンが確定されなかった識別対象画像について、シーンを識別する。この実施形態における統合識別器30Hは、各全体サブ識別器(各サポートベクターマシン)で求められた確率情報に基づいてシーンを識別する。具体的には、統合識別器30Hは、メモリ37の確率情報記憶部37fに全体識別器30Fによる全体識別処理で記憶された複数の確率情報の中から、正の値の確率情報を選択的に読み出す。そして、読み出した確率情報の中から最も高い値を示すものを特定し、対応するシーンをその識別対象画像のシーンとする。このような統合識別器30Hを設けることにより、属するシーンについての特徴がそれほど表れていない識別対象画像であっても、妥当なシーンに識別できる。すなわち、識別性を高めることができる。
統合識別器30Hは、前述したように、全体識別器30Fと部分画像識別器30Gのそれぞれでシーンが確定されなかった識別対象画像について、シーンを識別する。この実施形態における統合識別器30Hは、各全体サブ識別器(各サポートベクターマシン)で求められた確率情報に基づいてシーンを識別する。具体的には、統合識別器30Hは、メモリ37の確率情報記憶部37fに全体識別器30Fによる全体識別処理で記憶された複数の確率情報の中から、正の値の確率情報を選択的に読み出す。そして、読み出した確率情報の中から最も高い値を示すものを特定し、対応するシーンをその識別対象画像のシーンとする。このような統合識別器30Hを設けることにより、属するシーンについての特徴がそれほど表れていない識別対象画像であっても、妥当なシーンに識別できる。すなわち、識別性を高めることができる。
<結果記憶部37jについて>
結果記憶部37jは、識別処理部30Iによる識別対象の識別結果を記憶する。例えば、全体識別器30Fや部分画像識別器30Gによる識別結果に基づき、肯定フラグ記憶部37hに肯定フラグが記憶された場合には、その識別対象が肯定フラグに対応するシーンに属する旨を記憶する。仮に、識別対象画像について、風景のシーンに属する旨を示す肯定フラグが設定された場合には、風景のシーンに属する旨の結果情報を記憶する。同様に、識別対象画像について、夕景のシーンに属する旨を示す肯定フラグが設定されていた場合には、夕景のシーンに属する旨の結果情報を記憶する。なお、全てのシーンについて否定フラグが記憶された識別対象画像については、その他のシーンに属する旨を示す結果情報を記憶する。結果情報記憶部37jに記憶された識別結果は、事後の処理で参照される。この複合機1では、画像補正部30C(図3を参照。)にて参照されて画像補正に使用される。例えば、識別されたシーンに応じて、コントラストや明るさ、カラーバランスなどが調整される。
結果記憶部37jは、識別処理部30Iによる識別対象の識別結果を記憶する。例えば、全体識別器30Fや部分画像識別器30Gによる識別結果に基づき、肯定フラグ記憶部37hに肯定フラグが記憶された場合には、その識別対象が肯定フラグに対応するシーンに属する旨を記憶する。仮に、識別対象画像について、風景のシーンに属する旨を示す肯定フラグが設定された場合には、風景のシーンに属する旨の結果情報を記憶する。同様に、識別対象画像について、夕景のシーンに属する旨を示す肯定フラグが設定されていた場合には、夕景のシーンに属する旨の結果情報を記憶する。なお、全てのシーンについて否定フラグが記憶された識別対象画像については、その他のシーンに属する旨を示す結果情報を記憶する。結果情報記憶部37jに記憶された識別結果は、事後の処理で参照される。この複合機1では、画像補正部30C(図3を参照。)にて参照されて画像補正に使用される。例えば、識別されたシーンに応じて、コントラストや明るさ、カラーバランスなどが調整される。
<画像識別処理について>
次に、画像識別処理について説明する。この画像識別処理の実行において、プリンタ側コントローラ30は、顔識別部30A、及び、シーン識別部30B(特徴量取得部30E、全体識別器30F、部分画像識別器30G、統合識別器30H、結果記憶部37j)として機能する。この場合において、メインコントローラ31のCPU36はメモリ37に記憶されたコンピュータプログラムを実行する。従って、画像識別処理をメインコントローラ31の処理として説明する。そして、メインコントローラ31によって実行されるコンピュータプログラムは、画像識別処理を実現するためのコードを有する。
次に、画像識別処理について説明する。この画像識別処理の実行において、プリンタ側コントローラ30は、顔識別部30A、及び、シーン識別部30B(特徴量取得部30E、全体識別器30F、部分画像識別器30G、統合識別器30H、結果記憶部37j)として機能する。この場合において、メインコントローラ31のCPU36はメモリ37に記憶されたコンピュータプログラムを実行する。従って、画像識別処理をメインコントローラ31の処理として説明する。そして、メインコントローラ31によって実行されるコンピュータプログラムは、画像識別処理を実現するためのコードを有する。
図24に示すように、メインコントローラ31は、対象画像データを読み込み、顔画像の有無を判断する(S31)。顔画像の有無は種々の方法で判断できる。例えば、メインコントローラ31は、肌色の標準色の領域の有無、及び、この領域内における目画像及び口画像の有無に基づいて、顔画像の有無を判断する。本実施形態では、一定面積以上(例えば、20×20画素以上)の顔画像を検出対象とする。顔画像があると判断した場合、メインコントローラ31は、識別対象画像における顔画像の面積の割合を取得し、この割合が所定の閾値(例えば30%とする。)を超えているかを判断する(S32)。そして30%を超えていた場合、メインコントローラ31は、識別対象画像を人物のシーンに識別する(S32でYES)。また、30%を超えていなかった場合、メインコントローラ31は、この識別対象画像を記念写真のシーンに識別する(S32でNO)。これらの識別結果は、結果記憶部37jに記憶される。
識別対象画像中に顔画像が無かった場合(S31でNO)、メインコントローラ31は、特徴量取得処理を行う(S33)。特徴量取得処理では、対象画像データに基づいて特徴量が取得される。すなわち、識別対象画像の全体的な特徴を示す全体特徴量と、識別対象画像の部分的な特徴を示す部分特徴量とを取得する。なお、各特徴量の取得については既に説明したので(S11〜S15,図6を参照。)、ここでは説明を省略する。そして、メインコントローラ31は、取得した各特徴量を、メモリ37の特徴量記憶部37eにそれぞれ記憶する。
特徴量を取得したならば、メインコントローラ31は、シーン識別処理を行う(S34)。このシーン識別処理において、メインコントローラ31は、まず全体識別器30Fとして機能し、全体識別処理(S34a)を行う。この全体識別処理では、全体特徴量に基づく識別が行われる。そして、全体識別処理で識別対象画像の識別ができたならば、メインコントローラ31は、識別対象画像のシーンを、識別されたシーンに決定する(S34bでYES)。例えば、全体識別処理で肯定フラグが記憶されたシーンに決定する。そして、識別結果を結果記憶部37jに記憶する。全体識別処理でシーンが決定しなかった場合、メインコントローラ31は、部分画像識別器30Gとして機能し、部分画像識別処理を行う(S34c)。この部分画像識別処理では、部分特徴量に基づく識別が行われる。そして、部分画像識別処理で識別対象画像の識別ができたならば、メインコントローラ31は、識別対象画像のシーンを識別されたシーンに決定し(S34cでYES)、識別結果を結果記憶部37jに記憶する。なお、部分画像識別処理の内容については後で説明する。部分画像識別器30Gでもシーンが決定しなかった場合、メインコントローラ31は、統合識別器30Hとして機能し、統合識別処理を行う(S34e)。この統合識別処理でメインコントローラ31は、前述したように確率情報記憶部37fから、全体識別処理で算出された確率情報のうち正の値のものを読み出し、最も値の大きい確率情報に対応するシーンに決定する。そして、統合識別処理で識別対象画像の識別ができたならば、メインコントローラ31は、識別対象画像のシーンを、識別されたシーンに決定する(S34fでYES)。一方、統合識別処理でも識別対象画像の識別ができなかった場合(全体識別処理で算出された確率情報に正の値が無い場合)、および、全てのシーンについて否定フラグが記憶された場合には、その識別対象画像はその他のシーンに識別される(S34fでNO)。なお、統合識別器30Hとしてのメインコントローラ31は、統合処理において、まず、全てのシーンについて否定フラグが記憶されているかを判断する。そして、全てのシーンについて否定フラグが記憶されていると判断した場合には、この判断に基づいてその他のシーンに識別する。この場合、否定フラグの確認だけで処理ができるので、処理の高速化が図れる。
<部分画像識別処理について>
次に、部分画像識別処理について説明する。前述したように、この部分画像識別処理は、全体識別処理で識別対象画像の識別ができなかった場合に行なわれるものである。従って、部分画像識別処理が行われる段階で、肯定フラグ記憶部37hには肯定フラグが記憶されていないことになる。また、全体識別処理で識別対象画像が属さないと判断されたシーンには、否定フラグ記憶部37iの対応する領域に否定フラグが記憶されている。また、選択情報記憶部37kには、複数のサンプル画像を用いて求められた存在確率と部分正答率を部分領域毎に乗算した乗算値を示す乗算値情報(図14C、図15C、図16Cを参照)及び複数の部分領域に対する乗算値の順位を示す乗算値順位情報(図14D、図15D、図16Dを参照)の何れか一方が、特定のシーン毎に予め記憶されている。
次に、部分画像識別処理について説明する。前述したように、この部分画像識別処理は、全体識別処理で識別対象画像の識別ができなかった場合に行なわれるものである。従って、部分画像識別処理が行われる段階で、肯定フラグ記憶部37hには肯定フラグが記憶されていないことになる。また、全体識別処理で識別対象画像が属さないと判断されたシーンには、否定フラグ記憶部37iの対応する領域に否定フラグが記憶されている。また、選択情報記憶部37kには、複数のサンプル画像を用いて求められた存在確率と部分正答率を部分領域毎に乗算した乗算値を示す乗算値情報(図14C、図15C、図16Cを参照)及び複数の部分領域に対する乗算値の順位を示す乗算値順位情報(図14D、図15D、図16Dを参照)の何れか一方が、特定のシーン毎に予め記憶されている。
図25に示すように、メインコントローラ31は、まず、識別を行う部分サブ識別器を選択する(S41)。本実施形態の部分画像識別器30Gでは、図5に示すように、夕景部分サブ識別器71、花部分サブ識別器72、紅葉部分サブ識別器73の順に優先度が定められている。従って、初回の選択処理では、最も優先度の高い夕景部分サブ識別器71が選択される。そして、夕景部分サブ識別器71による識別が終了すると、2番目に優先度の高い花部分サブ識別器72が選択され、花部分サブ識別器72の次には最も優先度の低い紅葉部分サブ識別器73が選択される。
部分サブ識別器を選択したならば、メインコントローラ31は、選択した部分サブ識別器で識別するシーンが、識別処理の対象となるシーンであるかを判断する(S42)。この判断は、全体識別器30Fによる全体識別処理、および、当該部分サブ識別器における部分識別処理によって否定フラグ記憶部37iに記憶された否定フラグに基づいて行われる。これは、全体識別器30Fで肯定フラグが設定されると、全体識別処理でシーンが確定し、部分画像処理は行われないのと、後述するように、部分画像処理で肯定フラグが記憶されると、シーンが確定し、識別処理が終了するからである。識別処理の対象でないシーン、すなわち全体識別処理、及び前段の部分識別処理で否定フラグが設定されたシーン、である場合には、識別処理がスキップされる(S42でNO)。このため、無駄な識別処理を行わなくて済み、識別処理の高速化が図れる。
一方、ステップS42で処理の対象であると判断された場合(S42でYES)、メインコントローラ31は、選択情報記憶部37kから、対応する特定のシーンの選択情報を読み出す(S43)。ここで、選択情報記憶部37kから取得した選択情報が乗算値情報の場合、メインコントローラ31は、例えば部分画像の各座標を示す値を各乗算値の値と対応付けたまま、乗算値の高い順に並び替え(ソート)を行う。一方、選択情報記憶部37kに乗算値順位情報が記憶されている場合には、順位情報の高い順に並び替えを行う。次に、メインコントローラ31は、部分画像の選択を行う(S44)。選択情報が乗算値情報の場合、メインコントローラ31は、乗算値が最も高い座標に対応する部分画像から順に選択を行う。また、選択情報が乗算値順位情報の場合、順位が最も高い座標に対応する部分画像から順に選択を行う。これにより、ステップS44では、識別処理が行われていない部分画像のうち、存在確率と部分正答率との乗算値が最も高い部分領域に対応する部分画像が選択されることになる。
そして、メインコントローラ31は、選択した部分画像の部分画像データに対応した部分特徴量をメモリ37の特徴量記憶部37eから読み出す。この部分特徴量に基づいて、部分サポートベクターマシンによる演算が行われる(S45)。言い換えれば、部分特徴量に基づき、部分画像に対する確率情報の取得が行われる。なお、本実施形態では、部分特徴量のみでなく全体特徴量も特徴量記憶部37eから読み出し、全体特徴量を加味して演算を行うようにしている。このとき、メインコントローラ31は、処理対象のシーンに対応する部分評価部として機能し、部分色平均、及び、部分色分散などに基づく演算により、確率情報としての識別関数値を取得する。そして、メインコントローラ31は、取得した識別関数値によって部分画像が特定のシーンに属するか否かの識別を行う(S46)。具体的には、取得した或る部分画像に対する識別関数値が正の値である場合には、その部分画像を特定のシーンに属すると識別する(S46でYES)。そして、対応する検出数カウンタのカウント値(検出画像数)をインクリメント(+1)する(S47)。また、識別関数値が正の値でなかった場合には、その部分画像が特定のシーンに属さないと識別し、検出数カウンタのカウント値はそのままとする(S46でNO)。このように、識別関数値を取得することにより、部分画像が特定のシーンに属するか否かの識別を、識別関数値が正であるか否かに応じて行うことができる。
部分画像に対する確率情報の取得及びカウンタの処理を行ったならば、メインコントローラ31は、各判断部として機能し、検出画像数が肯定閾値より大であるかを判断する(S48)。そして、検出画像数が肯定閾値を超える場合(S48でYES)、対応するシーンの肯定フラグをフラグ記憶部37hに記憶する(S49)。例えば、メモリ37のパラメータ記憶部37bに記憶される肯定閾値が図20に示す値である場合、夕景部分サブ識別器71の夕景判断部71cは検出画像数が値[6]を超える場合に、識別対象画像が夕景のシーンであると判断し、夕景のシーンに対応する肯定フラグを肯定フラグ記憶部37hに記憶する。また、花部分サブ識別器72の花判断部72cは検出画像数が値[7]を超える場合に、識別対象画像が花のシーンであると判断し、花のシーンに対応する肯定フラグを肯定フラグ記憶部37hに記憶する。肯定フラグを記憶すると、残りの識別処理は行わず識別の処理を終了する。
検出画像数が肯定閾値を超えない場合(S48でNO)には、メインコントローラは、評価を行った部分画像が、そのシーンに定められた評価個数のうちの最後のものであるかを判断する(S50)。例えば夕景部分サブ識別器71の場合、評価個数として定められた10個の部分画像の評価が終わったかが判断される。ここで、まだ最後でないと判断した場合(S50でNO)には、ステップS44に移行して前述した処理を繰り返し行う。一方、ステップS52で最後であると判断した場合(S50でYES)、検出画像数が、他のシーンに対して設けられた否定閾値を超えるか否かを判断する(S51)。例えば夕景部分サブ識別器71の場合、検出画像数が、図20に示す他のシーンの否定閾値(風景のシーンの値[1]、夜景のシーンの値[5]、花のシーンの値[10]、紅葉のシーンの値[1])を超えるか否かを判断する。その結果、検出画像数が、これらの否定閾値の何れかを超えている場合(S51でYES)、そのシーンに対応する否定フラグを否定フラグ記憶部37iに記憶する(S52)。
一方、ステップS51で、検出画像数が何れの否定閾値も超えていないと判断した場合(S51でNO)、或いは、ステップS42で処理対象と判断されなかった場合(S42でNO)、或いは、ステップS52で否定フラグを記憶した後には、次の部分サブ識別器の有無を判断する(S53)。ここでは、メインコントローラ31は、最も優先度の低い紅葉部分サブ識別器73まで処理が終わったかを判断する。そして、紅葉部分サブ識別器73まで処理が終わっている場合には、次の識別器は無いと判断し(S53でNO)、一連の部分識別処理を終了する。一方、紅葉識別器73まで処理が終わっていないと判断した場合(S53でYES)、次に優先度の高い部分サブ識別器を選択し(S41)、前述した処理を繰り返し行う。ここで、次に選択される部分サブ識別器が、ステップS52で否定フラグが記憶されたシーンに対応するものである場合、次のステップS42において、識別対象であるか否かの判断で識別対象でないと判断される(S42でNO)。よって当該部分サブ識別器における識別処理を省略できるので、識別処理の高速化を図ることができる。
なお、前述した実施形態では、各部分サブ識別器の検出数カウンタは、特定のシーンに属すると識別された部分画像の個数をカウントすることとしたが、例えば、識別関数値そのものを、検出数カウンタを用いて加算(カウント)するようにしてもよい。そして、肯定閾値及び否定閾値を識別関数用にそれぞれ設けておき、識別関数値の加算値と、肯定閾値及び否定閾値との比較を対応する判断部で行うようにしてもよい。この場合、識別関数値の加算値が、各部分サブ識別器による部分画像の評価によって得られた評価値となる。
<まとめ>
本実施形態における部分画像識別器30Gの各部分サブ識別器は、対応するシーン以外のシーンに対して否定閾値を設けて、前段の部分サブ識別器で検出された検出画像数が否定閾値を越えた場合に後段の部分サブ識別器の識別処理を省略するようにした。これによりシーン識別処理の速度を向上させることができる。
本実施形態における部分画像識別器30Gの各部分サブ識別器は、対応するシーン以外のシーンに対して否定閾値を設けて、前段の部分サブ識別器で検出された検出画像数が否定閾値を越えた場合に後段の部分サブ識別器の識別処理を省略するようにした。これによりシーン識別処理の速度を向上させることができる。
また、各部分サブ識別器の判断部は、各検出数カウント部で得られる検出画像数(対応するシーンに属することを示す評価結果の得られた部分画像の個数)が、肯定閾値を超えた場合に、識別対象画像が対応するシーンに属すると判断するので、肯定閾値の値に応じて対応するシーンに対する識別精度を調整することができる。
この肯定閾値は、各部分サブ識別器と対応するシーン毎に設けられている。これにより、それぞれのシーンに適した識別を行うことができることができる。
また、各部分サブ識別器の判断部は、各検出数カウント部で得られる検出画像数が、肯定閾値とは別の否定閾値を超えた場合に、識別対象画像が、その否定閾値に対応するシーンに属さないと判断する。これにより、否定閾値の値に応じて、識別対象画像が否定閾値に対応するシーンに属さないと判断する精度を調整することができる。
この、否定閾値は、或る部分サブ識別器によって、他のシーンに属する識別対象画像が、他のシーンに属さないと誤って判定される確率である誤判定率に基づいて設けられている。これにより、識別対象画像が他のシーンに属する可能性の低い場合に、対応する他の部分サブ識別器の識別処理を的確に省略することができる。
また、否定閾値は、各部分サブ識別器と対応するシーン以外の識別対象のシーン毎に設けられている。これにより、各部分サブ識別器による識別処理の評価結果に応じて識別対象画像が属していないシーンの判断を効率的に行うことができる。
また、各部分サブ識別器は、一部の部分画像(評価個数の部分画像)についてのみ評価をし、その評価結果を用いて、識別対象画像が対応するシーンに属すること、及び、識別対象画像が対応するシーン以外のシーンに属さないことを判断する。これにより、識別処理の速度をより向上させることができる。
また、各判断部による識別処理の精度を示す尺度である正答率と再現率とに基づいて、評価個数を定めている。これにより、特定のシーンに対して最適な評価個数を定めることができる。
また、各部分評価部で評価が行われる部分画像は、存在確率と部分正答率とを前記部分領域毎に乗算した乗算値の高い前記部分領域から順に選ばれている。これにより、対象となるシーンの特徴が表れ易く、かつ、正確な評価が得られる部分領域から順に評価されるので、評価を効率的に行うことができる。
なお、前述した実施形態では、部分画像の識別に関し、選択情報記憶部37kに記憶された選択情報に基づき、存在確率と部分正答率の乗算値が高い部分領域から順に、部分画像の識別を行っていた。このように構成すると、複数の部分領域の中から、対象となるシーンの特徴が表れ易く、かつ、正確な評価が得られる部分領域を、優先順位をつけて効率よく選択できるという利点を有する。しかし、部分領域の選択方法は、この例に限定されるものではない。例えば、存在確率または部分正答率の何れか一方の高い順から部分領域を選択してもよい。この場合も、無作為に部分画像を選択して評価を行うよりも、効率よく評価を行うことが可能になる。
また、各部分サブ識別器において、構図の異なる複数のサンプル画像を用いて誤判定率を求め、この誤判定率に基づいて否定閾値を設けている。これにより、より正確な誤判定率を求めることができるので、各シーンに対して適切な否定閾値を設けることができる。
===その他の実施形態===
前述した実施形態において、識別対称は画像データに基づく画像であり、識別装置は複合機1である。ここで、画像を識別対象とする識別装置は、複合機1に限定されるものではない。例えば、デジタルスチルカメラDC、スキャナ、画像処理用のコンピュータプログラム(例えば、レタッチソフトウェア)を実行可能なコンピュータであってもよい。また、画像データに基づく画像を表示可能な画像表示装置、画像データを記憶する画像データ記憶装置であってもよい。
前述した実施形態において、識別対称は画像データに基づく画像であり、識別装置は複合機1である。ここで、画像を識別対象とする識別装置は、複合機1に限定されるものではない。例えば、デジタルスチルカメラDC、スキャナ、画像処理用のコンピュータプログラム(例えば、レタッチソフトウェア)を実行可能なコンピュータであってもよい。また、画像データに基づく画像を表示可能な画像表示装置、画像データを記憶する画像データ記憶装置であってもよい。
また、前述した実施形態は、識別対象画像のシーンを識別する複合機1について記載されているが、その中には、シーン識別装置、シーン識別方法、識別したシーンを利用する方法(例えば、シーンに基づく画像補正方法、印刷方法及び液体吐出方法)、コンピュータプログラム、コンピュータプログラムやコードを記憶した記憶媒体等の開示も含まれる。
また、識別器に関し、前述した実施形態では、サポートベクターマシンを例示したが、識別対象画像のシーンを識別できるものであれば、サポートベクターマシンに限られない。例えば、識別器として、ニューラルネットワークを用いてもよいし、アダブーストを用いてもよい。
1 複合機,10 画像読み取り部,20 画像印刷部,
30 プリンタ側コントローラ,30A 顔識別部,30B シーン識別部,
30C 画像補正部,30D 機構制御部,30E 特徴量取得部,
30F 全体識別器,30G 部分画像識別器,30H 統合識別器,
30I 識別処理部,31 メインコントローラ,32 制御ユニット,
33 駆動信号生成部,34 インタフェース,35 メモリ用スロット,
36 CPU,37 メモリ,37a プログラム記憶部,
37b パラメータ記憶部,37c 画像記憶部,37d 付属情報記憶部,
37e 特徴量記憶部,37f 確率情報記憶部,37g カウンタ部,
37h 肯定フラグ記憶部,37i 否定フラグ記憶部,37j 結果記憶部,
37k 選択情報記憶部,40 印刷機構,41 モータ,42 センサ,
43 ヘッド制御部,44 ヘッド,51 部分特徴量取得部,
52 全体特徴量取得部,61 風景識別器,
61a 風景用サポートベクターマシン,61b 風景用判断部,
62 夕景識別器,62a 夕景用サポートベクターマシン,
62b 夕景用判断部,63 夜景識別器,
63a 夜景用サポートベクターマシン,63b 夜景用判断部,
64 花識別器,64a 花用サポートベクターマシン,
64b 花用判断部,65 紅葉識別器,
65a 紅葉用サポートベクターマシン,65b 紅葉用判断部,
71 夕景部分サブ識別器,71a 夕景用部分サポートベクターマシン,
71b 夕景検出数カウンタ,71c 夕景判断部,72 花部分サブ識別器,
72a 花用部分サポートベクターマシン,72b 花検出数カウンタ,
72c 花判断部,73 紅葉部分サブ識別器,
73a 紅葉用部分サポートベクターマシン,73b 紅葉検出数カウンタ,
73c 紅葉判断部,DC デジタルスチルカメラ,
MC メモリカード,BU バス
30 プリンタ側コントローラ,30A 顔識別部,30B シーン識別部,
30C 画像補正部,30D 機構制御部,30E 特徴量取得部,
30F 全体識別器,30G 部分画像識別器,30H 統合識別器,
30I 識別処理部,31 メインコントローラ,32 制御ユニット,
33 駆動信号生成部,34 インタフェース,35 メモリ用スロット,
36 CPU,37 メモリ,37a プログラム記憶部,
37b パラメータ記憶部,37c 画像記憶部,37d 付属情報記憶部,
37e 特徴量記憶部,37f 確率情報記憶部,37g カウンタ部,
37h 肯定フラグ記憶部,37i 否定フラグ記憶部,37j 結果記憶部,
37k 選択情報記憶部,40 印刷機構,41 モータ,42 センサ,
43 ヘッド制御部,44 ヘッド,51 部分特徴量取得部,
52 全体特徴量取得部,61 風景識別器,
61a 風景用サポートベクターマシン,61b 風景用判断部,
62 夕景識別器,62a 夕景用サポートベクターマシン,
62b 夕景用判断部,63 夜景識別器,
63a 夜景用サポートベクターマシン,63b 夜景用判断部,
64 花識別器,64a 花用サポートベクターマシン,
64b 花用判断部,65 紅葉識別器,
65a 紅葉用サポートベクターマシン,65b 紅葉用判断部,
71 夕景部分サブ識別器,71a 夕景用部分サポートベクターマシン,
71b 夕景検出数カウンタ,71c 夕景判断部,72 花部分サブ識別器,
72a 花用部分サポートベクターマシン,72b 花検出数カウンタ,
72c 花判断部,73 紅葉部分サブ識別器,
73a 紅葉用部分サポートベクターマシン,73b 紅葉検出数カウンタ,
73c 紅葉判断部,DC デジタルスチルカメラ,
MC メモリカード,BU バス
Claims (13)
- (A)識別対象画像の一部を構成する部分画像の特徴を示す部分特徴量に基づいて、前記部分画像が第1シーンに属するか否かの評価を行い、前記部分画像が前記第1シーンに属することを示す評価結果に応じて、前記識別対象画像が前記第1シーンに属することを判断する第1部分識別器と、
(B)前記第1部分識別器によって前記識別対象画像が前記第1シーンに属すると判断されなかった場合に、前記部分特徴量に基づいて、前記識別対象画像が前記第1シーンとは特徴の異なる第2シーンに属することを判断する第2部分識別器と、
(C)を有するシーン識別装置であって、
(D)前記第1部分識別器は、
前記識別対象画像が前記第1シーンに属すると判断しなかった場合に、前記部分画像が前記第1シーンに属することを示す評価結果に応じて、前記識別対象画像が前記第2シーンに属さないことを判断する、シーン識別装置。 - 請求項1に記載のシーン識別装置であって、
前記第1部分識別器は、
前記部分画像が前記第1シーンに属するか否かを評価することによって得られた評価値が肯定閾値を超えた場合に、前記識別対象画像が前記第1シーンに属すると判断する、シーン識別装置。 - 請求項2に記載のシーン識別装置であって、
前記肯定閾値は、
各部分識別器と対応するシーン毎に設けられている、シーン識別装置。 - 請求項2または3に記載のシーン識別装置であって、
前記第1部分識別器は、
前記評価値が前記肯定閾値とは別の否定閾値を超えた場合に、前記識別対象画像が前記第2シーンに属さないと判断する、シーン識別装置。 - 請求項4に記載のシーン識別装置であって、
前記否定閾値は、
前記第2シーンに属する識別対象画像が、前記第1部分識別器によって、前記第2シーンに属さないと誤って判定される確率である誤判定率に基づいて設けられている、シーン識別装置。 - 請求項4または5に記載のシーン識別装置であって、
前記否定閾値は、
各部分識別器と対応するシーン以外の識別対象のシーン毎に設けられている、シーン識別装置。 - 請求項2から6の何れかに記載のシーン識別装置であって、
前記評価値は、
前記第1シーンに属することを示す評価結果が得られた前記部分画像の個数である、シーン識別装置。 - 請求項1から7の何れかに記載のシーン識別装置であって、
前記第1部分識別器は、
前記識別対象画像を構成する複数の前記部分画像の一部から選択された所定数の前記部分画像のみの評価結果を用いて、前記識別対象画像が前記第1シーンに属すること、及び、前記識別対象画像が前記第2シーンに属さないことを判断する、シーン識別装置。 - 請求項8に記載のシーン識別装置であって、
前記所定数は、
前記第1部分識別器によって前記識別対象画像が前記第1シーンに属すると判断された場合に、その判断が正しい確率である正答率と、
前記第1シーンに属している前記識別対象画像が、前記第1部分識別器によって前記第1シーンに属すると判断される確率である再現率と、
に基づいて定められる、シーン識別装置。 - 請求項8または9に記載のシーン識別装置であって、
前記所定数の前記部分画像は、
前記部分画像に対応する部分領域に前記第1シーンの特徴が表れる確率である存在確率と、
前記部分画像が前記第1シーンに属することを示す評価結果が得られた場合に、その評価結果が正しい確率である部分正答率と、
の少なくとも一方に基づいて選択されたものである、シーン識別装置。 - (A)識別対象画像の一部を構成する部分画像の特徴を示す部分特徴量に基づいて、前記部分画像が第1シーンに属するか否かの評価を行い、前記部分画像が前記第1シーンに属することを示す評価結果に応じて、前記識別対象画像が前記第1シーンに属することを判断するステップと、
(B)前記識別対象画像が前記第1シーンに属すると判断されなかった場合に、
前記識別対象画像が前記第1シーンとは特徴の異なる第2シーンに属するか否かの判断であって、前記部分画像が前記第2シーンに属することを示す評価結果に応じてなされる判断に先立って、
前記部分画像が前記第1シーンに属することを示す評価結果に応じて、前記識別対象画像が前記第2シーンに属さないことを判断するステップと、
(C)を有するシーン識別方法。 - 請求項11に記載のシーン識別方法であって、
前記第1シーンに属することを示す評価結果が得られた前記部分画像の個数を検出するステップを有し、
前記第1シーンに属することを示す評価結果が得られた前記部分画像の個数が、肯定閾値を超えた場合に、前記識別対象画像が前記第1シーンに属すると判断し、
前記第1シーンに属することを示す評価結果が得られた前記部分画像の個数が、前記肯定閾値とは別の否定閾値を超えた場合に、前記識別対象画像が前記第2シーンに属さないと判断する、シーン識別方法。 - 請求項12に記載のシーン識別方法であって、
複数のサンプル画像を用いて、前記第2シーンに属する識別対象画像が前記第1部分識別器によって、前記第2シーンに属さないと判断される確率である誤判定率を、前記第1シーンに属することを示す評価結果が得られた前記部分画像の個数毎に求めるステップと、
前記誤判定率に基づいて前記否定閾値を設けるステップと、
を有するシーン識別方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007127022A JP2008282267A (ja) | 2007-05-11 | 2007-05-11 | シーン識別装置、及び、シーン識別方法 |
US12/117,641 US20080279460A1 (en) | 2007-05-11 | 2008-05-08 | Scene Classification Apparatus and Scene Classification Method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007127022A JP2008282267A (ja) | 2007-05-11 | 2007-05-11 | シーン識別装置、及び、シーン識別方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008282267A true JP2008282267A (ja) | 2008-11-20 |
Family
ID=39969589
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007127022A Withdrawn JP2008282267A (ja) | 2007-05-11 | 2007-05-11 | シーン識別装置、及び、シーン識別方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20080279460A1 (ja) |
JP (1) | JP2008282267A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011022991A (ja) * | 2009-06-18 | 2011-02-03 | Canon Inc | 画像認識方法及び画像認識装置 |
JP2012027745A (ja) * | 2010-07-24 | 2012-02-09 | Canon Inc | 情報処理方法及びその装置、プログラム |
US9552536B2 (en) | 2013-04-26 | 2017-01-24 | Olympus Corporation | Image processing device, information storage device, and image processing method |
JP2017076282A (ja) * | 2015-10-15 | 2017-04-20 | ヤフー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
US11544563B2 (en) | 2017-12-19 | 2023-01-03 | Olympus Corporation | Data processing method and data processing device |
US12026935B2 (en) | 2019-11-29 | 2024-07-02 | Olympus Corporation | Image processing method, training device, and image processing device |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8144712B2 (en) | 2008-08-07 | 2012-03-27 | Motorola Mobility, Inc. | Scheduling grant information signaling in wireless communication system |
JP4623388B2 (ja) * | 2008-09-08 | 2011-02-02 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
JP2010092199A (ja) * | 2008-10-07 | 2010-04-22 | Sony Corp | 情報処理装置および方法、プログラム、並びに記録媒体 |
US20110047951A1 (en) | 2009-08-25 | 2011-03-03 | Francis Wilson Moore | Fruit tree pruner and harvesting machine |
JP5401695B2 (ja) * | 2011-05-23 | 2014-01-29 | 株式会社モルフォ | 画像識別装置、画像識別方法、画像識別プログラム及び記録媒体 |
JP5656082B2 (ja) * | 2011-05-25 | 2015-01-21 | 株式会社日立ソリューションズ | 画像処理装置、画像生成装置、画像処理方法、および、画像生成方法 |
CN104299196A (zh) * | 2014-10-11 | 2015-01-21 | 京东方科技集团股份有限公司 | 一种图像处理装置及方法、显示设备 |
US10462972B2 (en) | 2016-09-15 | 2019-11-05 | Harvestmoore, L.L.C. | Methods for automated pruning and harvesting of fruit plants utilizing a graphic processor unit |
US11143261B2 (en) | 2017-05-10 | 2021-10-12 | Harvestmoore, L.L.C. | Shock damping systems and methods for using shock damping systems |
US10674666B2 (en) | 2017-05-18 | 2020-06-09 | Harvestmoore, L.L.C. | End effectors for harvesting machines and methods for using end effectors |
US10785912B2 (en) | 2017-05-18 | 2020-09-29 | Harvestmoore, L.L.C. | End effectors for harvesting machines and methods for using end effectors |
CN111325271B (zh) * | 2020-02-18 | 2023-09-12 | Oppo广东移动通信有限公司 | 图像分类方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5649068A (en) * | 1993-07-27 | 1997-07-15 | Lucent Technologies Inc. | Pattern recognition system using support vectors |
US5640492A (en) * | 1994-06-30 | 1997-06-17 | Lucent Technologies Inc. | Soft margin classifier |
-
2007
- 2007-05-11 JP JP2007127022A patent/JP2008282267A/ja not_active Withdrawn
-
2008
- 2008-05-08 US US12/117,641 patent/US20080279460A1/en not_active Abandoned
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011022991A (ja) * | 2009-06-18 | 2011-02-03 | Canon Inc | 画像認識方法及び画像認識装置 |
US9852159B2 (en) | 2009-06-18 | 2017-12-26 | Canon Kabushiki Kaisha | Image recognition method and image recognition apparatus |
US10891329B2 (en) | 2009-06-18 | 2021-01-12 | Canon Kabushiki Kaisha | Image recognition method and image recognition apparatus |
JP2012027745A (ja) * | 2010-07-24 | 2012-02-09 | Canon Inc | 情報処理方法及びその装置、プログラム |
US9058537B2 (en) | 2010-07-24 | 2015-06-16 | Canon Kabushiki Kaisha | Method for estimating attribute of object, apparatus thereof, and storage medium |
US9552536B2 (en) | 2013-04-26 | 2017-01-24 | Olympus Corporation | Image processing device, information storage device, and image processing method |
JP2017076282A (ja) * | 2015-10-15 | 2017-04-20 | ヤフー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
US11544563B2 (en) | 2017-12-19 | 2023-01-03 | Olympus Corporation | Data processing method and data processing device |
US12026935B2 (en) | 2019-11-29 | 2024-07-02 | Olympus Corporation | Image processing method, training device, and image processing device |
Also Published As
Publication number | Publication date |
---|---|
US20080279460A1 (en) | 2008-11-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2008282267A (ja) | シーン識別装置、及び、シーン識別方法 | |
JP2008234623A (ja) | カテゴリー識別装置、カテゴリー識別方法、及び、プログラム | |
JP2008234627A (ja) | カテゴリー識別装置、及び、カテゴリー識別方法 | |
JP2008273171A (ja) | 情報処理方法、情報処理装置及びプログラム | |
JP5040624B2 (ja) | 情報処理方法、情報処理装置及びプログラム | |
JP2009093334A (ja) | 識別方法及びプログラム | |
US8644613B2 (en) | Image selection device and image selection method | |
JP2008282085A (ja) | シーン識別装置、及び、シーン識別方法 | |
JP2009080557A (ja) | 識別方法及びプログラム | |
JP4826531B2 (ja) | シーン識別装置、及び、シーン識別方法 | |
JP4946750B2 (ja) | 設定方法、識別方法及びプログラム | |
US20080199084A1 (en) | Category Classification Apparatus and Category Classification Method | |
JP4992519B2 (ja) | 情報処理方法、情報処理装置及びプログラム | |
JP4992646B2 (ja) | 識別方法及びプログラム | |
JP2008234624A (ja) | カテゴリー識別装置、カテゴリー識別方法、及び、プログラム | |
US20080232696A1 (en) | Scene Classification Apparatus and Scene Classification Method | |
JP4910821B2 (ja) | 画像識別方法 | |
JP2008284868A (ja) | 印刷方法、印刷装置及びプログラム | |
US20080199085A1 (en) | Category Classification Apparatus, Category Classification Method, and Storage Medium Storing a Program | |
JP2008204092A (ja) | カテゴリー識別装置 | |
JP2008204091A (ja) | カテゴリー識別装置、及び、カテゴリー識別方法 | |
JP4882927B2 (ja) | カテゴリ識別方法 | |
JP2008269560A (ja) | シーン識別装置、及び、シーン識別方法 | |
JP2009044249A (ja) | 画像識別方法、画像識別装置及びプログラム | |
JP2009080556A (ja) | 設定方法、識別方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100202 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20110124 |