JP2008242751A - Image discrimination method, image discrimination device, and program - Google Patents
Image discrimination method, image discrimination device, and program Download PDFInfo
- Publication number
- JP2008242751A JP2008242751A JP2007081697A JP2007081697A JP2008242751A JP 2008242751 A JP2008242751 A JP 2008242751A JP 2007081697 A JP2007081697 A JP 2007081697A JP 2007081697 A JP2007081697 A JP 2007081697A JP 2008242751 A JP2008242751 A JP 2008242751A
- Authority
- JP
- Japan
- Prior art keywords
- image
- identification
- sub
- scene
- classifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、画像識別方法、画像識別装置及びプログラムに関する。 The present invention relates to an image identification method, an image identification apparatus, and a program.
デジタルスチルカメラには撮影モードを設定するモード設定ダイヤルを持つものがある。ユーザがダイヤルで撮影モードを設定すると、デジタルスチルカメラは撮影モードに応じた撮影条件(露光時間等)を決定し、撮影を行う。撮影が行われると、デジタルスチルカメラは、画像ファイルを生成する。この画像ファイルには、撮影した画像の画像データに、撮影時の撮影条件等の付加データが付加されている。 Some digital still cameras have a mode setting dial for setting a shooting mode. When the user sets the shooting mode with the dial, the digital still camera determines shooting conditions (such as exposure time) according to the shooting mode and performs shooting. When shooting is performed, the digital still camera generates an image file. In this image file, additional data such as shooting conditions at the time of shooting is added to the image data of the shot image.
付加データに応じて画像データに画像処理することが行われている。例えば、プリンタが画像ファイルに基づいて印刷を行うとき、付加データの示す撮影条件に応じて画像データを補正し、補正した画像データに従って印刷することが行われている(特許文献1参照)。 Image processing is performed on the image data according to the additional data. For example, when a printer performs printing based on an image file, the image data is corrected according to the shooting conditions indicated by the additional data, and printing is performed according to the corrected image data (see Patent Document 1).
また、画像データを解析し、画像データの示す画像のカテゴリを分類することも行われている(特許文献2、3参照)。
画像データの示す画像が特定のカテゴリに属するか否かを識別する識別器を複数組み合わせることによって、画像データを複数のカテゴリに分類することが行われている。このように複数の識別器を用いる場合、常に識別器の選択順序を同じにすると、識別処理の速度を速くすることができない。 The image data is classified into a plurality of categories by combining a plurality of discriminators for identifying whether or not the image indicated by the image data belongs to a specific category. When a plurality of discriminators are used in this way, the speed of the discrimination process cannot be increased if the selection order of the discriminators is always the same.
本発明は、画像データの識別処理の速度を向上させることを目的とする。 An object of the present invention is to improve the speed of image data identification processing.
上記目的を達成するための主たる発明は、画像データの示す画像が特定のカテゴリに属するか否かを識別する識別処理を、複数の前記カテゴリ毎に順に選択して行い、ある前記識別処理の結果に応じて、まだ行われていない前記識別処理が省略され、前記識別処理の結果に基づいて、前記画像のカテゴリを識別する画像識別方法において、先に行われる識別処理の結果に応じて、後に行われる識別処理の選択順序が決定されることを特徴とする。
本発明の他の特徴については、本明細書及び添付図面の記載により明らかにする。
The main invention for achieving the above object is to perform identification processing for identifying whether or not an image indicated by image data belongs to a specific category in order for each of the plurality of categories. The identification process that has not yet been performed is omitted, and in the image identification method for identifying the category of the image based on the result of the identification process, The selection order of identification processing to be performed is determined.
Other features of the present invention will become apparent from the description of the present specification and the accompanying drawings.
本明細書及び添付図面の記載により、少なくとも、以下の事項が明らかとなる。
画像データの示す画像が特定のカテゴリに属するか否かを識別する識別処理を、複数の前記カテゴリ毎に順に選択して行い、
ある前記識別処理の結果に応じて、まだ行われていない前記識別処理が省略され、
前記識別処理の結果に基づいて、前記画像のカテゴリを識別する
画像識別方法において、
先に行われる識別処理の結果に応じて、後に行われる識別処理の選択順序が決定される
ことを特徴とする画像識別方法が明らかになる。
このような画像識別方法によれば、処理時間を速くすることができる。
At least the following matters will become clear from the description of the present specification and the accompanying drawings.
Identification processing for identifying whether the image indicated by the image data belongs to a specific category is performed by selecting in order for each of the plurality of categories,
Depending on the result of the identification process, the identification process that has not yet been performed is omitted,
In the image identification method for identifying the category of the image based on the result of the identification process,
An image identification method is characterized in that the order of selection of identification processes to be performed later is determined according to the result of the identification process performed first.
According to such an image identification method, the processing time can be shortened.
また、ある前記識別処理においてその識別処理に対応する特定のカテゴリに前記画像が属することが識別されたとき、まだ行われていない前記識別処理が省略されることが望ましい。また、ある前記識別処理においてその識別処理とは別の識別処理に対応する特定のカテゴリに前記画像が属さないことが識別されたとき、前記別の識別処理が省略されることが望ましい。これにより、処理時間を速くすることができる。 In addition, when it is identified that the image belongs to a specific category corresponding to the identification process in the identification process, it is preferable that the identification process that has not been performed is omitted. In addition, when it is identified that the image does not belong to a specific category corresponding to an identification process different from the identification process in the identification process, it is preferable that the another identification process is omitted. As a result, the processing time can be increased.
また、前記識別処理では、前記画像が前記特定のカテゴリに属する確率に応じた値が算出され、その値に基づいて前記画像が前記特定のカテゴリに属するか否かが識別され、前記先に行われる識別処理で算出された前記値に応じて、前記後に行われる識別処理の選択順序が決定されることが望ましい。これにより、後に行われる識別処理の選択順序の決定が簡略になる。 In the identification process, a value corresponding to the probability that the image belongs to the specific category is calculated, and based on the value, it is identified whether the image belongs to the specific category. It is preferable that the selection order of the identification process performed later is determined according to the value calculated in the identification process. This simplifies determination of the selection order of identification processing performed later.
また、前記先に行われる識別処理における結果と、次に行われる識別処理とをそれぞれ関連付けたデータを用いて、前記選択順序が決定されることが望ましい。このようなデータを用いることによって、処理速度を速めることが実現できる。 In addition, it is preferable that the selection order is determined using data in which the result of the identification processing performed first and the identification processing performed next are associated with each other. By using such data, it is possible to increase the processing speed.
また、選択順序の異なる複数の候補について、前記後に行われる識別処理の処理時間と、前記前記先に行われる識別処理の前記結果の発生確率とに基づいて、前記画像のカテゴリを識別するまでの処理時間の期待値が算出され、前記複数の候補の中から前記期待値の短い候補が選択されることにより、前記選択順序が決定されることが望ましい。これにより、処理時間を速くすることができる。 In addition, for a plurality of candidates having different selection orders, until the category of the image is identified based on the processing time of the identification process performed later and the occurrence probability of the result of the identification process performed earlier. It is preferable that an expected value of processing time is calculated, and the selection order is determined by selecting a candidate with a short expected value from the plurality of candidates. As a result, the processing time can be increased.
また、n−1個の識別処理を行う際の前記期待値の短い候補を決定する決定処理があり、n個の識別処理を行う際の前記期待値の短い候補を決定するとき、最初に行う識別処理がそれぞれ異なるn個の候補についてそれぞれ前記決定処理を用いて前記期待値が算出され、n個の候補の中から前記期待値の短い候補が選択されることにより、前記選択順序が決定されることが望ましい。これにより、簡易な手順によって、最適な選択順序を決定できる。 In addition, there is a determination process for determining a candidate with a short expected value when performing n-1 identification processes, and the determination process is performed first when determining a candidate with a short expected value when performing n identification processes. The expectation value is calculated using the determination process for each of n candidates having different identification processes, and the selection order is determined by selecting a candidate with a short expectation value from the n candidates. It is desirable. Thereby, the optimal selection order can be determined by a simple procedure.
コントローラを備える画像識別装置であって、
前記コントローラは、
画像データの示す画像が特定のカテゴリに属するか否かを識別する識別処理を、複数の前記カテゴリ毎に順に選択して行い、
ある前記識別処理の結果に応じて、まだ行われていない前記識別処理が省略され、
前記識別処理の結果に基づいて、前記画像のカテゴリを識別するとともに、
前記先に行われる識別処理で算出された前記値に応じて、前記後に行われる識別処理の選択順序を決定する
ことを特徴とする画像識別装置が明らかになる。
An image identification device comprising a controller,
The controller is
Identification processing for identifying whether the image indicated by the image data belongs to a specific category is performed by selecting in order for each of the plurality of categories,
Depending on the result of the identification process, the identification process that has not yet been performed is omitted,
Based on the result of the identification process, the category of the image is identified,
An image identification apparatus characterized by determining the selection order of the identification process performed later according to the value calculated in the identification process performed earlier.
画像識別装置に、
画像データの示す画像が特定のカテゴリに属するか否かを識別する識別処理を、複数の前記カテゴリ毎に順に選択して行わせ、
ある前記識別処理の結果に応じて、まだ行われていない前記識別処理が省略させ、
前記識別処理の結果に基づいて、前記画像のカテゴリを識別させる
プログラムにおいて、
前記画像識別装置に、先に行われる識別処理の結果に応じて、後に行われる識別処理の選択順序を決定させる
ことを特徴とするプログラムが明らかになる。
In the image identification device,
Identification processing for identifying whether an image indicated by image data belongs to a specific category is performed by selecting in order for each of the plurality of categories,
Depending on the result of the identification process, the identification process that has not yet been performed is omitted,
In a program for identifying the category of the image based on the result of the identification process,
A program that causes the image identification apparatus to determine the selection order of identification processing to be performed later according to the result of identification processing to be performed first becomes clear.
===全体構成===
図1は、画像処理システムの説明図である。この画像処理システムは、デジタルスチルカメラ2と、プリンタ4とを備える。
=== Overall structure ===
FIG. 1 is an explanatory diagram of an image processing system. This image processing system includes a digital
デジタルスチルカメラ2は、被写体をデジタルデバイス(CCDなど)に結像させることによりデジタル画像を取得するカメラである。デジタルスチルカメラ2には、モード設定ダイヤル2Aが設けられている。ユーザは、ダイヤル2Aによって、撮影条件に応じた撮影モードを設定することができる。例えば、ダイヤル2Aによって「夜景」モードが設定されると、デジタルスチルカメラ2は、シャッター速度を遅くしたり、ISO感度を高くしたりして、夜景撮影に適した撮影条件にて撮影を行う。
デジタルスチルカメラ2は、ファイルフォーマット規格に準拠して、撮影により生成した画像ファイルをメモリカード6に保存する。画像ファイルには、撮影した画像のデジタルデータ(画像データ)だけでなく、撮影時の撮影条件(撮影データ)等の付加データも保存される。
The
The
プリンタ4は、画像データの示す画像を紙に印刷する印刷装置である。プリンタ4には、メモリカード6を挿入するスロット21が設けられている。ユーザは、デジタルスチルカメラ2で撮影した後、デジタルスチルカメラ2からメモリカード6を取り出し、スロット21にメモリカード6を挿入することができる。
図2は、プリンタ4の構成の説明図である。プリンタ4は、印刷機構10と、この印刷機構10を制御するプリンタ側コントローラ20とを備える。印刷機構10は、インクを吐出するヘッド11と、ヘッド11を制御するヘッド制御部12と、紙を搬送するため等のモータ13と、センサ14とを有する。プリンタ側コントローラ20は、メモリカード6からデータを送受信するためのメモリ用スロット21と、CPU22と、メモリ23と、モータ13を制御する制御ユニット24と、駆動信号(駆動波形)を生成する駆動信号生成部25とを有する。
The
FIG. 2 is an explanatory diagram of the configuration of the
メモリカード6がスロット21に挿入されると、プリンタ側コントローラ20は、メモリカード6に保存されている画像ファイルを読み出してメモリ23に記憶する。そして、プリンタ側コントローラ20は、画像ファイルの画像データを、印刷機構10で印刷するための印刷データに変換し、印刷データに基づいて印刷機構10を制御し、紙に画像を印刷する。この一連の動作は、「ダイレクトプリント」と呼ばれている。
なお、「ダイレクトプリント」は、メモリカード6をスロット21に挿入することによって行われるだけでなく、デジタルスチルカメラ2とプリンタ4とをケーブル(不図示)で接続することによっても可能である。
When the
“Direct printing” is not only performed by inserting the
メモリカード6に記憶される画像ファイルは、画像データと、付加データとから構成されている。画像データは、複数の画素データから構成されている。画素データは、画素の色情報(階調値)を示すデータである。画素がマトリクス状に配置されることによって、画像が構成される。このため、画像データは、画像を示すデータである。付加データには、画像データの特性を示すデータや、撮影データや、サムネイル画像データ等が含まれる。
The image file stored in the
===自動補正機能の概要===
「人物」の写真を印刷するときには、肌色をきれいにしたいという要求がある。また、「風景」の写真を印刷するときには、空の青色を強調し、木や草の緑色を強調したいという要求がある。そこで、本実施形態のプリンタ4は、画像ファイルを分析して自動的に適した補正処理を行う自動補正機能を備えている。
=== Outline of automatic correction function ===
When printing a “person” photo, there is a demand to clean the skin tone. In addition, when printing a “landscape” photograph, there is a demand for emphasizing the blue of the sky and the green of trees and grass. Therefore, the
図3は、プリンタ4の自動補正機能の説明図である。図中のプリンタ側コントローラ20の各要素は、ソフトウェアとハードウェアによって実現される。
記憶部31は、メモリ23の一部の領域及びCPU22によって実現される。メモリカード6から読み出された画像ファイルの全部又は一部は、記憶部31の画像記憶部31Aに展開される。また、プリンタ側コントローラ20の各要素の演算結果は、記憶部31の結果記憶部31Bに格納される。
FIG. 3 is an explanatory diagram of the automatic correction function of the
The
顔識別部32は、CPU22と、メモリ23に記憶された顔識別プログラムとによって実現される。顔識別部32は、画像記憶部31Aに記憶された画像データを分析し、顔の有無を識別する。顔識別部32によって顔が有ると識別された場合、識別対象となる画像が「人物」のシーンに属すると識別される。この場合、シーン識別部33によるシーン識別処理は行われない。顔識別部32による顔識別処理は、既に広く行われている処理と同様なので、詳細な説明は省略する。
The
シーン識別部33は、CPU22と、メモリ23に記憶されたシーン識別プログラムとによって実現される。シーン識別部33は、画像記憶部31Aに記憶された画像ファイルを分析し、画像データの示す画像のシーンを識別する。顔識別部32によって顔がないと識別された場合に、シーン識別部33によるシーン識別処理が行われる。後述するように、シーン識別部33は、識別対象となる画像が「風景」、「夕景」、「夜景」、「花」、「紅葉」、「その他」のいずれの画像であるかを識別する。
The
図4は、画像のシーンと補正内容との関係の説明図である。
画像補正部34は、CPU22と、メモリ23に記憶された画像補正プログラムとによって実現される。画像補正部34は、記憶部31の結果記憶部31B(後述)に記憶されている識別結果(顔識別部32やシーン識別部33の識別結果)に基づいて、画像記憶部31Aの画像データを補正する。例えば、シーン識別部33の識別結果が「風景」である場合には、青色を強調し、緑色を強調するような補正が行われる。なお、画像補正部34は、シーンの識別結果だけでなく、画像ファイルの撮影データの内容も反映して、画像データを補正しても良い。例えば、露出補正がマイナスの場合、暗い雰囲気の画像を明るくしないように画像データを補正しても良い。
FIG. 4 is an explanatory diagram of a relationship between an image scene and correction contents.
The
プリンタ制御部35は、CPU22、駆動信号生成部25、制御ユニット24及びメモリ23に記憶されたプリンタ制御プログラムによって、実現される。プリンタ制御部35は、補正後の画像データを印刷データに変換し、印刷機構10に画像を印刷させる。
The
===シーン識別処理===
図5は、シーン識別部33によるシーン識別処理のフロー図である。図6は、シーン識別部33の機能の説明図である。図中のシーン識別部33の各要素は、ソフトウェアとハードウェアによって実現される。シーン識別部33は、図6に示す特徴量取得部40と、全体識別器50と、部分識別器60と、統合識別器70とを備えている。
=== Scene Identification Processing ===
FIG. 5 is a flowchart of the scene identification process performed by the
最初に、特徴量取得部40が、記憶部31の画像記憶部31Aに展開された画像データを分析し、部分特徴量を取得する(S101)。具体的には、特徴量取得部40は、画像データを8×8の64ブロックに分割し、各ブロックの色平均と分散を算出し、この色平均と分散を部分特徴量として取得する。なお、ここでは各画素はYCC色空間における階調値のデータをもっており、各ブロックごとに、Yの平均値、Cbの平均値及びCrの平均値がそれぞれ算出され、Yの分散、Cbの分散及びCrの分散がそれぞれ算出される。つまり、各ブロックごとに3つの色平均と3つの分散が部分特徴量として算出される。これらの色平均や分散は、各ブロックにおける部分画像の特徴を示すものである。なお、RGB色空間における平均値や分散を算出しても良い。
ブロックごとに色平均と分散が算出されるので、特徴量取得部40は、画像記憶部31Aには画像データの全てを展開せずに、ブロック分の画像データをブロック順に展開する。このため、画像記憶部31Aは、必ずしも画像ファイルの全てを展開できるだけの容量を備えていなくても良い。
First, the feature
Since the color average and variance are calculated for each block, the feature
次に、特徴量取得部40が、全体特徴量を取得する(S102)。具体的には、特徴量取得部40は、画像データの全体の色平均、分散、重心及び撮影情報を、全体特徴量として取得する。なお、これらの色平均や分散は、画像の全体の特徴を示すものである。画像データ全体の色平均、分散及び重心は、先に算出した部分特徴量を用いて算出される。このため、全体特徴量を算出する際に、画像データを再度展開する必要がないので、全体特徴量の算出速度が速くなる。全体識別処理(後述)は部分識別処理(後述)よりも先に行われるにも関わらず、全体特徴量が部分特徴量よりも後に求められるのは、このように算出速度を速めるためである。なお、撮影情報は、画像ファイルの撮影データから抽出される。具体的には、絞り値、シャッター速度、フラッシュ発光の有無などの情報が全体特徴量として用いられる。但し、画像ファイルの撮影データの全てが全体特徴量として用いられるわけではない。
Next, the feature
次に、全体識別器50が、全体識別処理を行う(S103)。全体識別処理とは、全体特徴量に基づいて、画像データの示す画像のシーンを識別(推定)する処理である。全体識別処理の詳細については、後述する。
Next, the
全体識別処理によってシーンの識別ができる場合(S104でYES)、シーン識別部33は、記憶部31の結果記憶部31Bに識別結果を記憶することによってシーンを決定し(S109)、シーン識別処理を終了する。つまり、全体識別処理によってシーンの識別ができた場合(S104でYES)、部分識別処理や統合識別処理が省略される。これにより、シーン識別処理の速度が速くなる。
全体識別処理によってシーンの識別ができない場合(S104でNO)、次に部分識別器60が、部分識別処理を行う(S105)。部分識別処理とは、部分特徴量に基づいて、画像データの示す画像全体のシーンを識別する処理である。部分識別処理の詳細については、後述する。
If the scene can be identified by the overall identification process (YES in S104), the
If the scene cannot be identified by the overall identification process (NO in S104), the
部分識別処理によってシーンの識別ができる場合(S106でYES)、シーン識別部33は、記憶部31の結果記憶部31Bに識別結果を記憶することによってシーンを決定し(S109)、シーン識別処理を終了する。つまり、部分識別処理によってシーンの識別ができた場合(S106でYES)、統合識別処理が省略される。これにより、シーン識別処理の速度が速くなる。
部分識別処理によってシーンの識別ができない場合(S106でNO)、次に統合識別器70が、統合識別処理を行う(S107)。統合識別処理の詳細については、後述する。
When the scene can be identified by the partial identification process (YES in S106), the
If the scene cannot be identified by the partial identification process (NO in S106), the
統合識別処理によってシーンの識別ができる場合(S108でYES)、シーン識別部33は、記憶部31の結果記憶部31Bに識別結果を記憶することによってシーンを決定し(S109)、シーン識別処理を終了する。一方、統合識別処理によってシーンの識別ができない場合(S108でNO)、画像データの示す画像が「その他」のシーン(「風景」、「夕景」、「夜景」、「花」又は「紅葉」以外のシーン)である旨の識別結果を結果記憶部31Bに記憶する(S110)。
When the scene can be identified by the integrated identification process (YES in S108), the
===全体識別処理===
図7は、全体識別処理のフロー図である。ここでは図6も参照しながら全体識別処理について説明する。
=== Overall identification processing ===
FIG. 7 is a flowchart of the overall identification process. Here, the overall identification process will be described with reference to FIG.
まず、全体識別器50は、複数のサブ識別器51の中から1つのサブ識別器51を選択する(S201)。全体識別器50には、識別対象となる画像(識別対象画像)が特定のシーンに属するか否かを識別するサブ識別器51が5つ設けられている。5つのサブ識別器51は、それぞれ風景、夕景、夜景、花、紅葉のシーンを識別する。ここでは、全体識別器50は、風景→夕景→夜景→花→紅葉の順に、サブ識別器51を選択する(なお、サブ識別器51の選択順序については、後述する)。このため、最初には、識別対象画像が風景のシーンに属するか否かを識別するサブ識別器51(風景識別器51L)が選択される。
First, the
次に、全体識別器50は、識別対象テーブルを参照し、選択したサブ識別器51を用いてシーンを識別すべきか否かを判断する(S202)。
図8は、識別対象テーブルの説明図である。この識別対象テーブルは、記憶部31の結果記憶部31Bに記憶される。識別対象テーブルは、最初の段階では全ての欄がゼロに設定される。S202の処理では、「否定」欄が参照され、ゼロであればYESと判断され、1であればNOと判断される。ここでは、全体識別器50は、識別対象テーブルにおける「風景」欄の「否定」欄を参照し、ゼロであるのでYESと判断する。
Next, the
FIG. 8 is an explanatory diagram of the identification target table. This identification target table is stored in the
次に、サブ識別器51は、全体特徴量に基づいて、識別対象画像が特定のシーンに属する確率(確信度)を算出する(S203)。本実施形態のサブ識別器51には、サポートベクタマシン(SVM)による識別手法が用いられている。なお、サポートベクタマシンについては、後述する。識別対象画像が特定のシーンに属する場合、サブ識別器51の判別式は、プラスの値になりやすい。識別対象画像が特定のシーンに属しない場合、サブ識別器51の判別式は、マイナスの値になりやすい。また、判別式は、識別対象画像が特定のシーンに属する確信度が高いほど、大きい値になる。このため、判別式の値が大きければ、識別対象画像が特定のシーンに属する確率(確信度)が高くなり、判別式の値が小さければ、識別対象画像が特定のシーンに属する確率が低くなる。
Next, the
次に、サブ識別器51は、判別式の値が肯定閾値より大きいか否かを判断する(S204)。判別式の値が肯定閾値より大きければ、サブ識別器51は、識別対象画像が特定のシーンに属すると判断することになる。
Next, the
図9は、全体識別処理の肯定閾値の説明図である。同図において、横軸は肯定閾値を示し、縦軸はRecall又はPrecisionの確率を示す。図10は、RecallとPrecisionの説明図である。判別式の値が肯定閾値以上の場合には識別結果はPositiveであり、判別式の値が肯定閾値以上でない場合には識別結果はNegativeである。 FIG. 9 is an explanatory diagram of an affirmative threshold value of the overall identification process. In the figure, the horizontal axis indicates an affirmative threshold, and the vertical axis indicates the probability of recall or precision. FIG. 10 is an explanatory diagram of Recall and Precision. If the discriminant value is greater than or equal to the positive threshold, the identification result is Positive. If the discriminant value is not greater than or equal to the positive threshold, the identification result is Negative.
Recallは、再現率や検出率を示すものである。Recallは、特定のシーンの画像の総数に対する、特定のシーンに属すると識別された画像の数の割合である。言い換えると、Recallは、特定のシーンの画像をサブ識別器51に識別させたときに、サブ識別器51がPositiveと識別する確率(特定のシーンの画像が特定のシーンに属すると識別される確率)を示すものである。例えば、風景画像を風景識別器51Lに識別させたときに、風景のシーンに属すると風景識別器51Lが識別する確率を示すものである。 Recall indicates the recall rate and detection rate. Recall is the ratio of the number of images identified as belonging to a specific scene to the total number of images of the specific scene. In other words, Recall is the probability that the sub-identifier 51 identifies the image as a positive when the image of the specific scene is identified by the sub-identifier 51 (the probability that the image of the specific scene belongs to the specific scene. ). For example, when a landscape image is identified by the landscape classifier 51L, it indicates the probability that the landscape classifier 51L identifies it as belonging to a landscape scene.
Precisionは、正答率や正解率を示すものである。Precisionは、Positiveと識別された画像の総数に対する、特定のシーンの画像の数の割合である。言い換えると、Precisionは、特定のシーンを識別するサブ識別器51がPositiveと識別したときに、識別対象の画像が特定のシーンである確率を示すものである。例えば、風景識別器51Lが風景のシーンに属すると識別したときに、その識別した画像が本当に風景画像である確率を示すものである。 Precision indicates the correct answer rate and the correct answer rate. Precision is the ratio of the number of images in a particular scene to the total number of images identified as Positive. In other words, Precision indicates the probability that the image to be identified is a specific scene when the sub-classifier 51 that identifies the specific scene identifies it as Positive. For example, when the landscape classifier 51L identifies that it belongs to a landscape scene, it indicates the probability that the identified image is really a landscape image.
図9から分かる通り、肯定閾値を大きくするほど、Precisionが大きくなる。このため、肯定閾値を大きくするほど、例えば風景のシーンに属すると識別された画像が風景画像である確率が高くなる。つまり、肯定閾値を大きくするほど、誤識別の確率が低くなる。
一方、肯定閾値を大きくするほど、Recallは小さくなる。この結果、例えば、風景画像を風景識別器51Lで識別した場合であっても、風景のシーンに属すると正しく識別しにくくなる。ところで、識別対象画像が風景のシーンに属すると識別できれば(S204でYES)、残りの別のシーン(夕景など)の識別を行わないようにして全体識別処理の速度を速めている。このため、肯定閾値を大きくするほど、全体識別処理の速度は低下することになる。また、全体識別処理によってシーンが識別できれば部分識別処理を行わないようにしてシーン識別処理の速度を速めているため(S104)、肯定閾値を大きくするほど、シーン識別処理の速度は低下することになる。
つまり、肯定閾値が小さすぎると誤識別の確率が高くなり、大きすぎると処理速度が低下することになる。本実施形態では、正答率(Precision)を97.5%に設定するため、風景の肯定閾値は1.27に設定されている。
As can be seen from FIG. 9, the greater the positive threshold, the greater the Precision. For this reason, the larger the positive threshold value, the higher the probability that an image identified as belonging to a landscape scene, for example, is a landscape image. That is, the greater the positive threshold, the lower the probability of misidentification.
On the other hand, the larger the positive threshold, the smaller the Recall. As a result, for example, even when a landscape image is identified by the landscape classifier 51L, it is difficult to correctly identify it as belonging to a landscape scene. By the way, if the image to be identified can be identified as belonging to a landscape scene (YES in S204), the speed of the overall identification process is increased so as not to identify other remaining scenes (such as sunsets). For this reason, the larger the positive threshold, the lower the overall identification processing speed. Further, if the scene can be identified by the overall identification process, the partial identification process is not performed and the speed of the scene identification process is increased (S104). Therefore, as the positive threshold is increased, the scene identification process speed decreases. Become.
That is, if the positive threshold is too small, the probability of misidentification increases, and if it is too large, the processing speed decreases. In this embodiment, since the correct answer rate (Precision) is set to 97.5%, the landscape affirmation threshold is set to 1.27.
判別式の値が肯定閾値より大きければ(S204でYES)、サブ識別器51は、識別対象画像が特定のシーンに属すると判断し、肯定フラグを立てる(S205)。「肯定フラグを立てる」とは、図8の「肯定」欄を1にすることである。この場合、全体識別器50は、次のサブ識別器51による識別を行わずに、全体識別処理を終了する。例えば、風景画像であると識別できれば、夕景などの識別を行わずに、全体識別処理を終了する。この場合、次のサブ識別器51による識別を省略しているので、全体識別処理の速度を速めることができる。
If the discriminant value is greater than the affirmative threshold value (YES in S204), the sub-classifier 51 determines that the classification target image belongs to a specific scene and sets an affirmative flag (S205). “Set an affirmative flag” means that the “affirmation” column in FIG. In this case, the
判別式の値が肯定閾値より大きくなければ(S204でNO)、サブ識別器51は、識別対象画像が特定のシーンに属すると判断できず、次のS206の処理を行う。
If the value of the discriminant is not greater than the positive threshold (NO in S204), the
次に、サブ識別器51は、判別式の値と否定閾値とを比較する(S206)。これにより、サブ識別器51は、識別対象画像が所定のシーンに属しないかを判断する。このような判断としては、2種類ある。第1に、ある特定のシーンのサブ識別器51の判別式の値が第1否定閾値より小さければ、その特定のシーンに識別対象画像が属しないと判断されることになる。例えば、風景識別器51Lの判別式の値が第1否定閾値より小さければ、識別対象画像が風景のシーンに属しないと判断されることになる。第2に、ある特定のシーンのサブ識別器51の判別式の値が第2否定閾値より大きければ、その特定のシーンとは別のシーンに識別対象画像が属しないと判断されることになる。例えば、風景識別器51Lの判別式の値が第2否定閾値より大きければ、識別対象画像が夜景のシーンに属しないと判断されることになる。
Next, the
図11は、第1否定閾値の説明図である。同図において、横軸は第1否定閾値を示し、縦軸は確率を示す。グラフの太線は、True Negative Recallのグラフであり、風景画像以外の画像を風景画像ではないと正しく識別する確率を示している。グラフの細線は、False Negative Recallのグラフであり、風景画像なのに風景画像ではないと誤って識別する確率を示している。 FIG. 11 is an explanatory diagram of the first negative threshold. In the figure, the horizontal axis indicates the first negative threshold, and the vertical axis indicates the probability. The bold line in the graph is a True Negative Recall graph, and indicates the probability of correctly identifying an image other than a landscape image as not a landscape image. The thin line in the graph is a False Negative Recall graph, which indicates the probability of erroneously identifying a landscape image that is not a landscape image.
図11から分かる通り、第1否定閾値を小さくするほど、False Negative Recallが小さくなる。このため、第1否定閾値を小さくするほど、例えば風景のシーンに属しないと識別された画像が風景画像である確率が低くなる。つまり、誤識別の確率が低くなる。
一方、第1否定閾値を小さくするほど、True Negative Recallも小さくなる。この結果、風景画像以外の画像を風景画像ではないと識別しにくくなる。その一方、識別対象画像が特定シーンでないことを識別できれば、部分識別処理の際に、その特定シーンのサブ部分識別器61による処理を省略してシーン識別処理速度を速めている(後述、図14のS302)。このため、第1否定閾値を小さくするほど、シーン識別処理速度は低下する。
つまり、第1否定閾値が大きすぎると誤識別の確率が高くなり、小さすぎると処理速度が低下することになる。本実施形態では、False Negative Recallを2.5%に設定するため、第1否定閾値は−1.10に設定されている。
As can be seen from FIG. 11, the smaller the first negative threshold is, the smaller False Negative Recall is. For this reason, the smaller the first negative threshold, the lower the probability that an image identified as not belonging to a landscape scene is a landscape image, for example. That is, the probability of misidentification is reduced.
On the other hand, the True Negative Recall decreases as the first negative threshold decreases. As a result, it is difficult to identify an image other than a landscape image unless it is a landscape image. On the other hand, if it is possible to identify that the identification target image is not a specific scene, the process by the sub
That is, if the first negative threshold is too large, the probability of misidentification increases, and if it is too small, the processing speed decreases. In the present embodiment, in order to set False Negative Recall to 2.5%, the first negative threshold is set to -1.10.
ところで、ある画像が風景のシーンに属する確率が高ければ、必然的にその画像が夜景のシーンに属する確率は低くなる。このため、風景識別器51Lの判別式の値が大きい場合には、夜景ではないと識別できる場合がある。このような識別を行うために、第2否定閾値が設けられる。 By the way, if the probability that an image belongs to a landscape scene is high, the probability that the image belongs to a night scene is inevitably low. For this reason, when the discriminant value of the landscape discriminator 51L is large, it may be identified that the scene is not a night scene. In order to perform such identification, a second negative threshold is provided.
図12は、第2否定閾値の説明図である。同図において、横軸は風景の判別式の値を示し、縦軸は確率を示す。同図には、図9のRecallとPrecisionのグラフとともに、夜景のRecallのグラフが点線で描かれている。この点線のグラフに注目すると、風景の判別式の値が−0.45よりも大きければ、その画像が夜景画像である確率は2.5%である。言い換えると、風景の判別式の値が−0.45より大きい場合にその画像が夜景画像でないと識別しても、誤識別の確率は2.5%にすぎない。そこで、本実施形態では、第2否定閾値が−0.45に設定されている。 FIG. 12 is an explanatory diagram of the second negative threshold. In the figure, the horizontal axis indicates the value of the landscape discriminant, and the vertical axis indicates the probability. In the same figure, the Recall graph of the night view is drawn with a dotted line together with the Recall and Precision graph of FIG. If attention is paid to this dotted line graph, if the value of the discriminant of the landscape is larger than −0.45, the probability that the image is a night scene image is 2.5%. In other words, if the landscape discriminant value is greater than −0.45, even if the image is identified as not a night scene image, the probability of misidentification is only 2.5%. Therefore, in the present embodiment, the second negative threshold is set to −0.45.
そして、判別式の値が第1否定閾値より小さい場合、又は、判別式の値が第2否定閾値より大きい場合(S206でYES)、サブ識別器51は、識別対象画像が所定のシーンに属しないと判断し、否定フラグを立てる(S207)。「否定フラグを立てる」とは、図8の「否定」欄を1にすることである。例えば、第1否定閾値に基づいて識別対象画像が風景のシーンに属しないと判断された場合、「風景」欄の「否定」欄が1になる。また、第2否定閾値に基づいて識別対象画像が夜景のシーンに属しないと判断された場合、「夜景」欄の「否定」欄が1になる。 When the discriminant value is smaller than the first negative threshold value, or when the discriminant value is larger than the second negative threshold value (YES in S206), the sub-classifier 51 determines that the classification target image belongs to a predetermined scene. It is determined not to do so, and a negative flag is set (S207). “Set a negative flag” means to set the “No” column in FIG. For example, when it is determined that the image to be identified does not belong to a landscape scene based on the first negative threshold, the “denial” column in the “landscape” column is 1. Further, when it is determined that the identification target image does not belong to the night scene based on the second negative threshold, the “Negation” field in the “Night scene” field is “1”.
図13Aは、閾値テーブルの説明図である。この閾値テーブルは、記憶部31に記憶されていても良いし、全体識別処理を実行させるためのプログラムの一部に組み込まれていても良い。閾値テーブルには、前述の肯定閾値や否定閾値に関するデータが格納されている。
FIG. 13A is an explanatory diagram of a threshold table. The threshold value table may be stored in the
図13Bは、上記で説明した風景識別器51Lにおける閾値の説明図である。風景識別器51Lには、肯定閾値及び否定閾値が予め設定されている。肯定閾値として1.27が設定されている。否定閾値には第1否定閾値と第2否定閾値とがある。第1否定閾値として−1.10が設定されている。また、第2否定閾値として、風景以外の各シーンにそれぞれ値が設定されている。 FIG. 13B is an explanatory diagram of threshold values in the landscape classifier 51L described above. An affirmative threshold value and a negative threshold value are preset in the landscape discriminator 51L. 1.27 is set as the positive threshold. The negative threshold includes a first negative threshold and a second negative threshold. -1.10 is set as the first negative threshold. In addition, a value is set for each scene other than the landscape as the second negative threshold.
図13Cは、上記で説明した風景識別器51Lの処理の概要の説明図である。ここでは、説明の簡略化のため、第2否定閾値については夜景についてのみ説明する。風景識別器51Lは、判別式の値が1.27より大きければ(S204でYES)、識別対象画像が風景のシーンに属すると判断する。また、判別式の値が1.27以下であり(S204でNO)、−0.45より大きければ(S206でYES)、風景識別器51Lは、識別対象画像が夜景のシーンに属しないと判断する。また、判別式の値が−1.10より小さければ(S206でYES)、風景識別器51Lは、識別対象画像が風景のシーンに属しないと判断する。なお、風景識別器51Lは、夕景や花や紅葉についても、第2否定閾値に基づいて、識別対象画像がそのシーンに属しないかを判断する。但し、これらの第2否定閾値は肯定閾値よりも大きいため、識別対象画像がこれらのシーンに属しないことを風景識別器51Lが判断することはない。 FIG. 13C is an explanatory diagram outlining the processing of the landscape classifier 51L described above. Here, for simplification of description, only the night view will be described for the second negative threshold. If the discriminant value is greater than 1.27 (YES in S204), the landscape classifier 51L determines that the classification target image belongs to a landscape scene. If the discriminant value is 1.27 or less (NO in S204) and is greater than −0.45 (YES in S206), the landscape classifier 51L determines that the classification target image does not belong to the night scene. To do. If the value of the discriminant is smaller than −1.10 (YES in S206), the landscape classifier 51L determines that the classification target image does not belong to a landscape scene. Note that the landscape discriminator 51L also determines whether the image to be identified does not belong to the scene based on the second negative threshold for sunset scenes, flowers, and autumn leaves. However, since these second negative threshold values are larger than the positive threshold values, the landscape discriminator 51L does not determine that the classification target image does not belong to these scenes.
S202においてNOの場合、S206でNOの場合、又はS207の処理を終えた場合、全体識別器50は、次のサブ識別器51の有無を判断する(S208)。ここでは風景識別器51Lによる処理を終えた後なので、全体識別器50は、S208において、次のサブ識別器51(夕景識別器51S)があると判断する。
In the case of NO in S202, in the case of NO in S206, or when the processing in S207 is completed, the
そして、S205の処理を終えた場合(識別対象画像が特定のシーンに属すると判断された場合)、又は、S208において次のサブ識別器51がないと判断された場合(識別対象画像が特定のシーンに属すると判断できなかった場合)、全体識別器50は、全体識別処理を終了する。
Then, when the process of S205 is finished (when it is determined that the identification target image belongs to a specific scene), or when it is determined in S208 that there is no next sub-classifier 51 (the identification target image is a specific image). When it cannot be determined that the scene belongs to the scene), the
なお、既に説明した通り、全体識別処理が終了すると、シーン識別部33は、全体識別処理によってシーンの識別ができたか否かを判断する(図5のS104)。このとき、シーン識別部33は、図8の識別対象テーブルを参照し、「肯定」欄に1があるか否かを判断することになる。
As already described, when the overall identification process is completed, the
全体識別処理によってシーンの識別ができた場合(S104でYES)、部分識別処理や統合識別処理が省略される。これにより、シーン識別処理の速度が速くなる。 If the scene can be identified by the overall identification process (YES in S104), the partial identification process and the integrated identification process are omitted. This increases the speed of the scene identification process.
ところで、上記の説明には無いが、全体識別器50は、サブ識別器51によって判別式の値を算出したときには、判別式の値に対応するPrecisionを、確信度に関する情報として結果記憶部31Bに記憶する。もちろん、判別式の値そのものを確信度に関する情報として記憶しても良い。
By the way, although not described above, the
===部分識別処理===
図14は、部分識別処理のフロー図である。部分識別処理は、全体識別処理によってシーンの識別ができなかった場合(図5のS104でNO)に行われる。以下に説明するように、部分識別処理は、分割された部分画像のシーンをそれぞれ識別することによって、画像全体のシーンを識別する処理である。ここでは図6も参照しながら部分識別処理について説明する。
=== Partial identification processing ===
FIG. 14 is a flowchart of the partial identification process. The partial identification process is performed when the scene cannot be identified by the overall identification process (NO in S104 of FIG. 5). As will be described below, the partial identification process is a process for identifying the scene of the entire image by identifying each scene of the divided partial images. Here, the partial identification process will be described with reference to FIG.
まず、部分識別器60は、複数のサブ部分識別器61の中から1つのサブ部分識別器61を選択する(S301)。部分識別器60には、サブ部分識別器61が3つ設けられている。各サブ部分識別器61は、8×8の64ブロックに分割された部分画像がそれぞれ特定のシーンに属するか否かを識別する。ここでの3つのサブ部分識別器61は、それぞれ夕景、花、紅葉のシーンを識別する。ここでは、部分識別器60は、夕景→花→紅葉の順に、サブ部分識別器61を選択する(なお、サブ部分識別器61の選択順序については、後述する)。このため、最初には、部分画像が夕景のシーンに属するか否かを識別するサブ部分識別器61(夕景部分識別器61S)が選択される。
First, the
次に、部分識別器60は、識別対象テーブル(図8)を参照し、選択したサブ部分識別器61を用いてシーンを識別すべきか否かを判断する(S302)。ここでは、部分識別器60は、識別対象テーブルにおける「夕景」欄の「否定」欄を参照し、ゼロであればYESと判断し、1であればNOと判断する。なお、全体識別処理の際に、夕景識別器51Sが第1否定閾値により否定フラグを立てたとき、又は、他のサブ識別器51が第2否定閾値により否定フラグを立てたとき、このS302でNOと判断される。仮にNOと判断されると夕景の部分識別処理は省略されることになるので、部分識別処理の速度が速くなる。但し、ここでは説明の都合上、YESと判断されるものとする。
Next, the
次に、サブ部分識別器61は、8×8の64ブロックに分割された部分画像の中から、1つの部分画像を選択する(S303)。
図15は、夕景部分識別器61Sが選択する部分画像の順番の説明図である。部分画像から画像全体のシーンを識別するような場合、識別に用いられる部分画像は、被写体が存在する部分であることが望ましい。そこで、本実施形態では、数千枚のサンプルの夕景画像を用意し、各夕景画像を8×8の64ブロックに分割し、夕景部分画像(夕景の太陽と空の部分画像)を含むブロックを抽出し、抽出されたブロックの位置に基づいて各ブロックにおける夕景部分画像の存在確率を算出した。そして、本実施形態では、存在確率の高いブロックから順番に、部分画像が選択される。なお、図に示す選択順序の情報は、プログラムの一部としてメモリ23に格納されている。
Next, the sub
FIG. 15 is an explanatory diagram of the order of partial images selected by the evening scene partial classifier 61S. When a scene of the entire image is identified from the partial image, it is desirable that the partial image used for identification is a portion where the subject exists. Therefore, in this embodiment, thousands of samples of sunset scene images are prepared, each sunset scene image is divided into 64 blocks of 8 × 8, and blocks including sunset scene partial images (sun and sky partial images of the sunset scene) are included. The presence probability of the sunset partial image in each block was calculated based on the extracted block position. And in this embodiment, a partial image is selected in an order from a block with a high existence probability. Note that the selection order information shown in the figure is stored in the
なお、夕景画像の場合、画像の中央付近から上半分に夕景の空が広がっていることが多いため、中央付近から上半分のブロックにおいて存在確率が高くなる。また、夕景画像の場合、画像の下1/3では逆光で陰になり、部分画像単体では夕景か夜景か区別がつかないことが多いため、下1/3のブロックにおいて存在確率が低くなる。花画像の場合、花を中央付近に配置させる構図にすることが多いため、中央付近における花部分画像の存在確率が高くなる。 In the case of an evening scene image, since the sky of the evening scene often spreads from the vicinity of the center to the upper half, the existence probability increases in the upper half block from the vicinity of the center. In the case of an evening scene image, the lower 1/3 of the image is shaded by backlight, and the partial image alone often cannot be distinguished from the evening scene or the night scene, so the existence probability is lower in the lower 1/3 block. In the case of a flower image, since the composition is often such that a flower is arranged near the center, the probability of existence of a flower partial image near the center increases.
次に、サブ部分識別器61は、選択された部分画像の部分特徴量に基づいて、その部分画像が特定のシーンに属するか否かを判断する(S304)。サブ部分識別器61には、全体識別器50のサブ識別器51と同様に、サポートベクタマシン(SVM)による判別手法が用いられている。なお、サポートベクタマシンについては、後述する。判別式の値が正の値であれば、部分画像が特定のシーンに属すると判断し、サブ部分識別器61は正カウント値をインクリメントする。また、判別式の値が負の値であれば、部分画像が特定のシーンに属しないと判断し、サブ部分識別器61は負カウント値をインクリメントする。
Next, the sub
次に、サブ部分識別器61は、正カウント値が肯定閾値よりも大きい否かを判断する(S305)。なお、正カウント値は、特定のシーンに属すると判断された部分画像の数を示すものである。正カウント値が肯定閾値より大きければ(S305でYES)、サブ部分識別器61は、識別対象画像が特定のシーンに属すると判断し、肯定フラグを立てる(S306)。この場合、部分識別器60は、次のサブ部分識別器61による識別を行わずに、部分識別処理を終了する。例えば、夕景画像であると識別できれば、花や紅葉の識別を行わずに、部分識別処理を終了する。この場合、次のサブ部分識別器61による識別を省略しているので、部分識別処理の速度を速めることができる。
Next, the sub
正カウント値が肯定閾値より大きくなければ(S305でNO)、サブ部分識別器61は、識別対象画像が特定のシーンに属すると判断できず、次のS307の処理を行う。
If the positive count value is not greater than the positive threshold value (NO in S305), the sub
サブ部分識別器61は、正カウント値と残りの部分画像数との和が肯定閾値よりも小さければ(S307でYES)、S309の処理へ進む。正カウント値と残りの部分画像数との和が肯定閾値よりも小さい場合、残り全ての部分画像によって正カウント値がインクリメントされても正カウント値が肯定閾値より大きくなることがないので、S309に処理を進めることによって、残りの部分画像についてサポートベクタマシンによる識別を省略する。これにより、部分識別処理の速度を速めることができる。
If the sum of the positive count value and the number of remaining partial images is smaller than the positive threshold (YES in S307), the sub
サブ部分識別器61がS307でNOと判断した場合、サブ部分識別器61は、次の部分画像の有無を判断する(S308)。なお、本実施形態では、64個に分割された部分画像の全てを順に選択していない。図15において太枠で示された上位10番目までの10個の部分画像だけを順に選択している。このため、10番目の部分画像の識別を終えれば、サブ部分識別器61は、S308において次の部分画像はないと判断する。(この点を考慮して、S307の「残りの部分画像数」も決定される。)
図16は、上位10番目までの10個の部分画像だけで夕景画像の識別をしたときのRecall及びPrecisionのグラフである。図に示すような肯定閾値を設定すれば、正答率(Precision)を80%程度に設定でき、再現率(Recall)を90%程度に設定でき、精度の高い識別が可能である。
If the sub
FIG. 16 is a Recall and Precision graph when an evening scene image is identified using only the top 10 partial images. If an affirmative threshold as shown in the figure is set, the accuracy rate (Precision) can be set to about 80%, the recall rate (Recall) can be set to about 90%, and identification with high accuracy is possible.
本実施形態では、10個の部分画像だけで夕景画像の識別を行っている。このため、本実施形態では、64個の全ての部分画像を用いて夕景画像の識別を行うよりも、部分識別処理の速度を速めることができる。
また、本実施形態では、夕景部分画像の存在確率の高い上位10番目の部分画像を用いて夕景画像の識別を行っている。このため、本実施形態では、存在確率を無視して抽出された10個の部分画像を用いて夕景画像の識別を行うよりも、Recall及びPrecisionをともに高く設定することが可能になる。
また、本実施形態では、夕景部分画像の存在確率の高い順に部分画像を選択している。この結果、早い段階でS305の判断がYESになりやすくなる。このため、本実施形態では、存在確率の高低を無視した順で部分画像を選択したときよりも、部分識別処理の速度を速めることができる。
In this embodiment, the evening scene image is identified using only 10 partial images. For this reason, in the present embodiment, it is possible to increase the speed of the partial identification process compared to the case where the evening scene image is identified using all 64 partial images.
In this embodiment, the sunset scene image is identified using the top tenth partial image having a high existence probability of the sunset scene partial image. For this reason, in the present embodiment, it is possible to set both Recall and Precision higher than the identification of an evening scene image using 10 partial images extracted by ignoring the existence probability.
In this embodiment, the partial images are selected in descending order of the existence probability of the sunset partial image. As a result, the determination in S305 is likely to be YES at an early stage. For this reason, in the present embodiment, the speed of the partial identification process can be increased as compared with the case where the partial images are selected in the order in which the presence probability level is ignored.
S307においてYESと判断された場合、又は、S308において次の部分画像がないと判断された場合、サブ部分識別器61は、負カウント値が否定閾値よりも大きいか否かを判断する(S309)。この否定閾値は、前述の全体識別処理における否定閾値(図7のS206)とほぼ同様の機能を果たすものなので、詳しい説明は省略する。S309でYESと判断された場合、図7のS207と同様に、否定フラグを立てる。
When it is determined YES in S307, or when it is determined that there is no next partial image in S308, the sub
S302においてNOの場合、S309でNOの場合、又はS310の処理を終えた場合、部分識別器60は、次のサブ部分識別器61の有無を判断する(S311)。夕景部分識別器61Sによる処理を終えた後の場合、サブ部分識別器61として花部分識別器61Fや紅葉部分識別器61Rがまだあるので、部分識別器60は、S311において、次のサブ部分識別器61があると判断する。
In the case of NO in S302, in the case of NO in S309, or when the process of S310 is completed, the
そして、S306の処理を終えた場合(識別対象画像が特定のシーンに属すると判断された場合)、又は、S311において次のサブ部分識別器61がないと判断された場合(識別対象画像が特定のシーンに属すると判断できなかった場合)、部分識別器60は、部分識別処理を終了する。
Then, when the process of S306 is completed (when it is determined that the identification target image belongs to a specific scene), or when it is determined in S311 that there is no next sub partial classifier 61 (the identification target image is specified). If it cannot be determined that the scene belongs to the scene), the
なお、既に説明した通り、部分識別処理が終了すると、シーン識別部33は、部分識別処理によってシーンの識別ができたか否かを判断する(図5のS106)。このとき、シーン識別部33は、図8の識別対象テーブルを参照し、「肯定」欄に1があるか否かを判断することになる。
部分識別処理によってシーンの識別ができた場合(S106でYES)、統合識別処理が省略される。これにより、シーン識別処理の速度が速くなる。
As already described, when the partial identification process is completed, the
When the scene can be identified by the partial identification process (YES in S106), the integrated identification process is omitted. This increases the speed of the scene identification process.
ところで、上記の説明では、夕景部分識別器61Sは、10個の部分画像を用いて夕景画像の識別を行っているが、識別に用いられる部分画像の数は10個に限られるものではない。また、他のサブ部分識別器61が、夕景部分識別器61Sとは異なる数の部分画像を用いて画像を識別しても良い。本実施形態では、花部分識別器61Fは20個の部分画像を用いて花画像を識別し、また、紅葉部分識別器61Rは15個の部分画像を用いて紅葉画像を識別するものとする。
In the above description, the evening scene partial classifier 61S identifies evening scene images using ten partial images. However, the number of partial images used for identification is not limited to ten. Further, the other sub
===サポートベクタマシン===
統合識別処理について説明する前に、全体識別処理のサブ識別器51や部分識別処理のサブ部分識別器61において用いられているサポートベクタマシン(SVM)について説明する。
=== Support vector machine ===
Before describing the integrated identification process, the support vector machine (SVM) used in the sub-identifier 51 for the overall identification process and the
図17Aは、線形サポートベクタマシンによる判別の説明図である。ここでは、2つの特徴量x1、x2によって、学習用サンプルを2次元空間に示している。学習用サンプルは2つのクラスA、Bに分けられている。図中では、クラスAに属するサンプルは丸で示されており、クラスBに属するサンプルは四角で示されている。
学習用サンプルを用いた学習によって、2次元空間を2つに分ける境界が定義される。境界は、<w・x>+b=0で定義される(なお、x=(x1,x2)であり、wは重みベクトルであり、<w・x>はwとxの内積である)。但し、境界は、マージンが最大になるように、学習用サンプルを用いた学習によって定義される。つまり、図の場合、境界は、太点線ではなく、太実線のようになる。
判別は、判別式f(x)=<w・x>+bを用いて行われる。ある入力x(この入力xは学習用サンプルとは別である)について、f(x)>0であればクラスAに属すると判別され、f(x)<0であればクラスBに属すると判別される。
FIG. 17A is an explanatory diagram of determination by the linear support vector machine. Here, the learning sample is shown in a two-dimensional space by two feature amounts x1 and x2. The learning sample is divided into two classes A and B. In the figure, samples belonging to class A are indicated by circles, and samples belonging to class B are indicated by squares.
A boundary that divides the two-dimensional space into two is defined by learning using the learning sample. The boundary is defined by <w · x> + b = 0 (where x = (x1, x2), w is a weight vector, and <w · x> is an inner product of w and x). However, the boundary is defined by learning using a learning sample so that the margin is maximized. That is, in the case of the figure, the boundary is not a thick dotted line but a thick solid line.
The discrimination is performed using the discriminant f (x) = <w · x> + b. It is determined that a certain input x (this input x is different from the learning sample) belongs to class A if f (x)> 0, and belongs to class B if f (x) <0. Determined.
ここでは2次元空間を用いて説明しているが、これに限られない(つまり、特徴量は2以上でも良い)。この場合、境界は超平面で定義される。 Here, the description is made using a two-dimensional space, but the present invention is not limited to this (that is, the feature amount may be two or more). In this case, the boundary is defined by a hyperplane.
ところで、2つのクラスに線形関数で分離できないことがある。このような場合に線形サポートベクタマシンによる判別を行うと、判別結果の精度が低下する。そこで、入力空間の特徴量を非線形変換すれば、すなわち入力空間からある特徴空間へ非線形写像すれば、特徴空間において線形関数で分離することができるようになる。非線形サポートベクタマシンでは、これを利用している。 By the way, there are cases where the two classes cannot be separated by a linear function. In such a case, if the determination is performed by the linear support vector machine, the accuracy of the determination result is lowered. Therefore, if the feature quantity of the input space is nonlinearly transformed, that is, if the input space is nonlinearly mapped to a certain feature space, it can be separated by a linear function in the feature space. This is used in the nonlinear support vector machine.
図17Bは、カーネル関数を用いた判別の説明図である。ここでは、2つの特徴量x1、x2によって、学習用サンプルを2次元空間に示している。図17Bの入力空間からの非線形写像が図17Aのような特徴空間になれば、線形関数で2つのクラスに分離することが可能になる。この特徴空間においてマージンが最大になるように境界が定義されれば、特徴空間における境界の逆写像が、図17Bに示す境界になる。この結果、図17Bに示すように、境界は非線形になる。 FIG. 17B is an explanatory diagram of discrimination using a kernel function. Here, the learning sample is shown in a two-dimensional space by two feature amounts x1 and x2. If the nonlinear mapping from the input space of FIG. 17B becomes a feature space as shown in FIG. 17A, it can be separated into two classes by a linear function. If the boundary is defined so that the margin is maximized in this feature space, the inverse mapping of the boundary in the feature space becomes the boundary shown in FIG. 17B. As a result, the boundary becomes nonlinear as shown in FIG. 17B.
本実施形態ではガウスカーネルを利用することにより、判別式f(x)は次式のようになる(なお、Mは特徴量の数であり、Nは学習用サンプルの数(若しくは境界に寄与する学習用サンプルの数)であり、wiは重み係数であり、yjは学習用サンプルの特徴量であり、xjは入力xの特徴量である)。
ある入力x(この入力xは学習用サンプルとは別である)について、f(x)>0であればクラスAに属すると判別され、f(x)<0であればクラスBに属すると判別される。また、判別式f(x)の値が大きい値になるほど、入力x(この入力xは学習用サンプルとは別である)がクラスAに属する確率が高くなる。逆に、判別式f(x)の値が小さい値になるほど、入力x(この入力xは学習用サンプルとは別である)がクラスAに属する確率が低くなる。 It is determined that a certain input x (this input x is different from the learning sample) belongs to class A if f (x)> 0, and belongs to class B if f (x) <0. Determined. Further, the larger the value of the discriminant f (x), the higher the probability that the input x (this input x is different from the learning sample) belongs to the class A. On the contrary, the smaller the value of the discriminant f (x), the lower the probability that the input x (this input x is different from the learning sample) belongs to the class A.
前述の全体識別処理のサブ識別器51や部分識別処理のサブ部分識別器61では、上記のサポートベクタマシンの判別式f(x)の値を用いている。サポートベクタマシンによる判別式f(x)の値の算出には、学習用サンプルの数(本実施形態では数万個)が多くなると時間がかかる。このため、判別式f(x)の値を複数回算出する必要があるサブ部分識別器61は、判別式f(x)の値を1回算出すれば済むサブ識別器51よりも、処理時間がかかる。
In the sub-identifier 51 for the overall identification process and the
なお、学習用サンプルとは別に評価用サンプルが用意されている。前述のRecallやPrecisionのグラフは、評価用サンプルに対する識別結果に基づくものである。 An evaluation sample is prepared separately from the learning sample. The above Recall and Precision graphs are based on the identification results for the evaluation samples.
===統合識別処理===
前述の全体識別処理や部分識別処理では、サブ識別器51やサブ部分識別器61における肯定閾値を比較的高めに設定し、Precision(正解率)を高めに設定している。なぜならば、例えば全体識別器の風景識別器51Lの正解率が低く設定されると、風景識別器51Lが紅葉画像を風景画像であると誤識別してしまい、紅葉識別器51Rによる識別を行う前に全体識別処理を終えてしまう事態が発生してしまうからである。本実施形態では、Precision(正解率)が高めに設定されることにより、特定のシーンに属する画像が特定のシーンのサブ識別器51(又はサブ部分識別器61)に識別されるようになる(例えば紅葉画像が紅葉識別器51R(又は紅葉部分識別器61R)によって識別されるようになる)。
=== Integrated identification processing ===
In the above-described overall identification process and partial identification process, the positive threshold value in the sub-classifier 51 and the sub-classifier 61 is set relatively high, and the Precision (correct answer rate) is set high. This is because, for example, if the accuracy rate of the landscape classifier 51L of the overall classifier is set low, the scene classifier 51L erroneously identifies the autumnal image as a landscape image, and before the autumnal classifier 51R performs the classification. This is because a situation occurs in which the entire identification process ends. In the present embodiment, by setting the Precision (accuracy rate) high, an image belonging to a specific scene is identified by the sub-classifier 51 (or sub-partial classifier 61) of the specific scene ( For example, the autumnal leaves image is identified by the autumnal leaves discriminator 51R (or the autumnal leaf partial discriminator 61R).
但し、全体識別処理や部分識別処理のPrecision(正解率)を高めに設定すると、全体識別処理や部分識別処理ではシーンの識別ができなくなる可能性が高くなる。そこで、本実施形態では、全体識別処理及び部分識別処理によってシーンの識別ができなかった場合、以下に説明する統合識別処理が行われる。 However, if the Precision (accuracy rate) of the overall identification process or the partial identification process is set to be high, there is a high possibility that the scene cannot be identified by the overall identification process or the partial identification process. Therefore, in this embodiment, when the scene cannot be identified by the overall identification process and the partial identification process, the integrated identification process described below is performed.
図18は、統合識別処理のフロー図である。以下に説明するように、統合識別処理は、全体識別処理の各サブ識別器51の判別式の値に基づいて、最も確信度の高いシーンを選択する処理である。 FIG. 18 is a flowchart of the integrated identification process. As will be described below, the integrated identification process is a process of selecting a scene with the highest certainty factor based on the discriminant value of each sub-classifier 51 in the overall identification process.
まず、統合識別器70は、5つのサブ識別器51の判別式の値に基づいて、正となるシーンを抽出する(S401)。このとき、全体識別処理の際に各サブ識別器51が算出した判別式の値が用いられる。
First, the
次に、統合識別器70は、判別式の値が正のシーンが存在するか否かを判断する(S402)。
判別式の値が正のシーンが存在する場合(S402でYES)、最大値のシーンの欄に肯定フラグを立てて(S403)、統合識別処理を終了する。これにより、最大値のシーンに識別対象画像が属すると判断される。
一方、判別式の値が正であるシーンが存在しない場合(S402でNO)、肯定フラグを立てずに、統合識別処理を終了する。これにより、図8の識別対象テーブルの肯定欄において、1のシーンが無いままの状態になる。つまり、識別対象画像が、どのシーンに属するか識別できなかったことになる。
Next, the
If there is a scene with a positive discriminant value (YES in S402), an affirmative flag is set in the maximum value scene column (S403), and the integrated identification process is terminated. Accordingly, it is determined that the identification target image belongs to the maximum value scene.
On the other hand, if there is no scene having a positive discriminant value (NO in S402), the integrated identification process is terminated without setting an affirmative flag. As a result, there is no scene in the affirmative column of the identification target table in FIG. That is, it cannot be identified to which scene the identification target image belongs.
なお、既に説明した通り、統合識別処理が終了すると、シーン識別部33は、統合識別処理によってシーンの識別ができたか否かを判断する(図5のS108)。このとき、シーン識別部33は、図8の識別対象テーブルを参照し、「肯定」欄に1があるか否かを判断することになる。S402でNOとの判断の場合、S108の判断もNOになる。
As already described, when the integrated identification process is completed, the
===参考例===
<概要>
既に説明した通り、全体識別器50は、5つのサブ識別器51を有しており、全体識別処理の際に各サブ識別器51を順に選択していくことになる。ここで、サブ識別器51の選択順序は、全体識別処理の処理時間の期待値が最も短くなるようにすることが望ましい。
=== Reference Example ===
<Overview>
As already described, the
そこで、本参考例では、全体識別処理の処理時間の期待値が短くなるように、5つのサブ識別器51の選択順序を決定している。
Therefore, in this reference example, the selection order of the five
図19は、選択順序の決定フローの説明図である。この決定フローは、シーン識別プログラムを設計する際に、行われる。 FIG. 19 is an explanatory diagram of a selection order determination flow. This decision flow is performed when designing the scene identification program.
まず、最初に、サブ識別器51の選択順序の全てが列挙される。ここでは、サブ識別器51が5つであるので、120(=5の階乗)通りの順序が列挙される(S501)。
First, all the selection orders of the
次に、各選択順序における処理時間の期待値を算出する(S502)。ここでは、120通りの選択順序のそれぞれについて、処理時間の期待値が算出される。処理時間の期待値の算出方法については、後で詳述する。 Next, an expected value of processing time in each selection order is calculated (S502). Here, the expected value of the processing time is calculated for each of the 120 selection orders. A method for calculating the expected value of the processing time will be described in detail later.
そして、120通りの処理時間の期待値の中から最短のものを抽出する(S503)。そして、処理時間の期待値が最短のときの選択順序を記憶する。 Then, the shortest of 120 expected processing time values is extracted (S503). Then, the selection order when the expected processing time is the shortest is stored.
<処理時間の期待値の算出方法>
図20は、ある選択順序における処理時間の期待値を算出するフロー図である。
ここでは、風景→夕景→夜景→花→紅葉の順に、サブ識別器51が選択される場合の処理時間の期待値について説明する。n番目に選択されるサブ識別器51のことを「第nサブ識別器」と呼ぶ。例えば、風景識別器51Lは、第1サブ識別器である。また、第nサブ識別器51が実行される確率(実行確率)をPnとする。例えば、夕景識別器51Sの実行確率はP2である。また、第nサブ識別器51の処理速度(識別対象画像が特定のシーンであるか否かを識別する処理速度)をTnとする。例えば、夜景識別器51Nの処理速度はT3である。
<Calculation method of expected value of processing time>
FIG. 20 is a flowchart for calculating an expected value of processing time in a certain selection order.
Here, the expected value of the processing time when the
まず、各サブ識別器51の実行確率Pn(nは1〜5)が算出される(S601)。最初に実行される第1サブ識別器51(ここでは風景識別器51L)の実行確率P1は、1になる。但し、第1サブ識別器51の判別式の値が肯定閾値より大きい場合や、第1サブ識別器の判別式の値が第2否定閾値より大きい場合、第2サブ識別器以降の処理が省略されるので、第2〜第5サブ識別器51の実行確率P2〜P5は、1よりも小さい値になる。各サブ識別器51の実行確率の算出方法については、後で詳述する。
First, the execution probability Pn (n is 1 to 5) of each
次に、各サブ識別器51の処理時間の期待値が算出される(S602)。各サブ識別器51の処理時間の期待値は、そのサブ識別器51の実行確率Pnと処理速度Tnとを乗算した値である。例えば、花識別器51Fの処理速度の期待値は、T4×P4と算出される。
Next, an expected value of processing time of each
図21は、サブ識別器51の処理時間の表である。図に示すように、各サブ識別器の処理時間はそれぞれ異なっている。これは、サポートベクタマシンによる判別式f(x)の値の算出では、サンプル数に応じて処理時間が異なるためである。なお、各サブ識別器の処理時間は、S602の処理の前に、予め求められている。
FIG. 21 is a table of processing times of the
次に、全体識別処理の処理時間の期待値Ttが算出される(S603)。全体識別処理の処理時間の期待値Ttは、各サブ識別器の処理時間の期待値の総和となる。つまり、全体識別処理の処理速度の期待値Ttは、Tt=(T1×P1)+(T2×P2)+(T3×P3)+(T4×P4)+(T5×P5)として算出される。 Next, an expected value Tt of the processing time of the overall identification process is calculated (S603). The expected value Tt of the processing time of the overall identification process is the sum of the expected values of the processing time of each sub classifier. That is, the expected value Tt of the overall identification processing speed is calculated as Tt = (T1 × P1) + (T2 × P2) + (T3 × P3) + (T4 × P4) + (T5 × P5).
<P(i,j)の算出方法>
各サブ識別器51の実行確率Pnの算出方法を説明する前に、まず、第iサブ識別器が実行された後に、第jサブ識別器が省略されずに実行される確率P(i,j)について説明する。
<Calculation method of P (i, j)>
Before describing the method of calculating the execution probability Pn of each sub-classifier 51, first, after the i-th sub-classifier is executed, the probability P (i, j executed without the j-th sub-classifier being omitted). ).
第jサブ識別器が省略される場合としては、第iサブ識別器によって識別対象画像が特定のシーンに属することが識別できた場合(第iサブ識別器の判別式の値が肯定閾値よりも大きい場合)、若しくは、第iサブ識別器によって第jサブ識別器のシーンの否定フラグが立つ場合(第iサブ識別器の判別式の値が第2否定閾値よりも大きい場合)がある。このため、P(i,j)は、判別式の値と、肯定閾値と第2否定閾値との関係から求めることができる。 As the case where the j-th sub classifier is omitted, it can be identified by the i-th sub classifier that the classification target image belongs to a specific scene (the discriminant value of the i-th sub classifier is greater than the positive threshold). In some cases, or when the negative flag of the scene of the j-th sub-classifier is set by the i-th sub-classifier (when the discriminant value of the i-th sub-classifier is larger than the second negative threshold). For this reason, P (i, j) can be obtained from the value of the discriminant and the relationship between the positive threshold and the second negative threshold.
具体的には、第iサブ識別器によって識別対象画像が特定のシーンに属することが識別できる確率をPposi、第iサブ識別器によって第jサブ識別器のシーンの否定フラグが立つ確率をPneg(i,j)とすると、P(i,j)は次式となる。 Specifically, the probability that the identification target image can be identified by the i-th sub-classifier belongs to a specific scene is Pposi, and the probability that the negative flag of the scene of the j-th sub-classifier is set by the i-th sub-classifier is Pneg ( i, j), P (i, j) is given by
P(i,j)=1−max(Pposi、Pneg(i,j))
より具体的に説明するため、風景識別器51Lが実行された後に夕景識別器51Sが実行される確率P(1,2)について説明する。
P (i, j) = 1-max (Pposi, Pneg (i, j))
In order to explain more specifically, the probability P (1,2) that the evening scene classifier 51S is executed after the scenery classifier 51L is executed will be described.
図22Aは、風景識別器51Lによって評価用サンプル画像を識別したときの判別式の値の確率分布である。図中には、点線等によって、肯定閾値や各シーンの第2否定閾値が示されている。 FIG. 22A shows a probability distribution of discriminant values when a sample image for evaluation is identified by the landscape classifier 51L. In the figure, a positive threshold and a second negative threshold for each scene are shown by dotted lines or the like.
図22Bは、風景識別器51Lが風景画像を識別できる確率Ppos1の説明図である。風景識別器51が風景画像を識別できる確率Ppos1は、判別式の値が肯定閾値よりも大きい確率であるため、図中の斜線部分の領域の積分値として求められる。
FIG. 22B is an explanatory diagram of the probability Ppos1 with which the landscape classifier 51L can identify a landscape image. The probability Ppos1 by which the
図22Cは、風景識別器51Lが夕景の否定フラグを立てる確率Pneg(1,2)の説明図である。風景識別器51Lが夕景の否定フラグを立てる確率Pneg(1,2)は、風景識別器51Lの判別式の値が夕景の第2否定閾値よりも大きい確率であるため、図中の斜線部分の領域の積分値として求められる。この場合、夕景の第2否定閾値は肯定閾値よりも大きい値であるため、確率Pneg(1,2)は確率Ppos1よりも小さい値になる。 FIG. 22C is an explanatory diagram of the probability Pneg (1, 2) that the landscape discriminator 51L sets the evening scene negative flag. The probability Pneg (1,2) that the landscape discriminator 51L sets the evening scene negation flag is a probability that the discriminant value of the landscape discriminator 51L is larger than the second negation threshold value of the evening scene. It is obtained as the integral value of the region. In this case, since the second negative threshold value of the evening scene is larger than the positive threshold value, the probability Pneg (1, 2) is smaller than the probability Ppos1.
よって、風景識別器51Lが実行された後に夕景識別器51Sが実行される確率P(1,2)は、P(1,2)=1−Ppos1と求められる。 Therefore, the probability P (1,2) that the sunset scene classifier 51S is executed after the scenery classifier 51L is executed is obtained as P (1,2) = 1-Ppos1.
参考までに、風景識別器51Lが実行された後に夜景識別器51Nが実行される確率P(1,3)について説明する。
図22Dは、風景識別器51Lが夜景の否定フラグを立てる確率Pneg(1,3)の説明図である。風景識別器51Lが夜景の否定フラグを立てる確率Pneg(1,3)は、風景識別器51Lの判別式の値が夜景の第2否定閾値よりも大きい確率であるため、図中の斜線部分の領域の積分値として求められる。この場合、夜景の第2否定閾値は肯定閾値よりも小さい値であるため、確率Pneg(1,3)は確率Ppos1よりも大きい値になる。
よって、風景識別器51Lが実行された後に夜景識別器51Nが実行される確率P(1,3)は、P(1,3)=1−Pneg(1,3)と求められる。
For reference, the probability P (1, 3) that the night scene classifier 51N is executed after the scene classifier 51L is executed will be described.
FIG. 22D is an explanatory diagram of the probability Pneg (1, 3) that the landscape classifier 51L sets the night scene negative flag. The probability Pneg (1, 3) that the landscape discriminator 51L sets the night scene negative flag is a probability that the discriminant value of the landscape discriminator 51L is larger than the second negative threshold of the night scene. It is obtained as the integral value of the region. In this case, since the second negative threshold of the night view is a value smaller than the positive threshold, the probability Pneg (1, 3) is a value larger than the probability Ppos1.
Therefore, the probability P (1,3) that the night scene classifier 51N is executed after the scene classifier 51L is executed is obtained as P (1,3) = 1-Pneg (1,3).
図23は、第iサブ識別器が実行されたときに第jサブ識別器が実行される確率P(i,j)の表である。このように算出された確率P(i,j)を用いて、次に、各サブ識別器51の実行確率Pnが算出される。
FIG. 23 is a table of probabilities P (i, j) that the j-th sub classifier is executed when the i-th sub classifier is executed. Next, the execution probability Pn of each
<実行確率の算出方法>
図24は、ある選択順序における各サブ識別器51の実行確率Pnの算出するフロー図である。
<Execution probability calculation method>
FIG. 24 is a flowchart for calculating the execution probability Pn of each
まず、全てのサブ識別器51の実行確率Pnを1に初期化する(S701)。次に、iを1に設定し(S702)、第1サブ識別器の実行確率P1を算出する(S703)。第1サブ識別器は、最初に実行されるので、省略されることが無いため、実行確率P1は1になる。
First, the execution probability Pn of all the
次に、全てのサブ識別器51の実行確率を算出したか否かを判断する(S704)。未だ第1サブ識別器51の実行確率P1しか算出していないので、S704ではNOになる。
Next, it is determined whether or not the execution probabilities of all the
次に、未実行の第2〜第5サブ識別器の実行確率P2〜P5の値を更新する(S705)。ここでは、実行確率Pn(nは2〜5)は、P(1,n)×P1に更新される。 Next, the values of the execution probabilities P2 to P5 of the second to fifth sub classifiers that have not been executed are updated (S705). Here, the execution probability Pn (n is 2 to 5) is updated to P (1, n) × P1.
その後、iを2に設定し(S706)、第2サブ識別器の実行確率P2を算出する(S703)。第2サブ識別器の実行確率P2は、S705において更新された値P(1,2)×P1になる。 Thereafter, i is set to 2 (S706), and the execution probability P2 of the second sub classifier is calculated (S703). The execution probability P2 of the second sub classifier becomes the value P (1,2) × P1 updated in S705.
次に、全てのサブ識別器51の実行確率を算出したか否かを判断する(S704)。未だ第2サブ識別器51の実行確率P2までしか算出していないので、S704ではNOになる。
Next, it is determined whether or not the execution probabilities of all the
次に、未実行の第3〜第5サブ識別器の実行確率P3〜P5の値を更新する(S705)。ここでは、第2サブ識別器が実行された場合と省略された場合に分けて考える必要がある。まず、第2サブ識別器が実行された場合には、第nサブ識別器が実行される確率Pnは、P2×P(2,n)×Pnになる。一方、第2サブ識別器が省略された場合には、第nサブ識別器が実行される確率Pnは、(1−P2)×Pnになる。従って、第n識別器が実行される確率Pnは、(P2×P(2,n)+1−P2)×Pnに更新される。 Next, the values of the execution probabilities P3 to P5 of the unexecuted third to fifth sub classifiers are updated (S705). Here, it is necessary to consider separately when the second sub classifier is executed and when it is omitted. First, when the second sub-classifier is executed, the probability Pn that the n-th sub-classifier is executed is P2 × P (2, n) × Pn. On the other hand, when the second sub classifier is omitted, the probability Pn that the nth sub classifier is executed is (1−P2) × Pn. Accordingly, the probability Pn that the nth discriminator is executed is updated to (P2 × P (2, n) + 1−P2) × Pn.
このようにして、第3サブ識別器以降のサブ識別器についても、同様に実行確率Pnを算出していく(S703〜S706)。 In this way, the execution probabilities Pn are similarly calculated for the sub-classifiers after the third sub-classifier (S703 to S706).
そして、全てのサブ識別器の実行確率Pnが算出したら(S704でYES)、処理を終了する。これにより、ある選択順序における各サブ識別器51の実行確率Pnが算出される。
When the execution probabilities Pn of all the sub classifiers are calculated (YES in S704), the process ends. Thereby, the execution probability Pn of each
<選択順序の決定後について>
上記のようにして、120通りの選択順序の中から、処理時間の期待値が最短の選択順序が決定される。この結果、本参考例では、風景→夕景→夜景→花→紅葉の選択順序が決定される。そして、この決定に基づいて、全体識別器50を実現するためのシーン識別プログラムが構成され、このプログラムがプリンタ4のプリンタ側コントローラ20に搭載される。この結果、処理速度の速い全体識別処理を実現することができる。
<After determining the selection order>
As described above, the selection order with the shortest expected processing time value is determined from the 120 selection orders. As a result, in this reference example, the selection order of landscape → evening scene → night scene → flower → autumn leaves is determined. Based on this determination, a scene identification program for realizing the
===第1実施形態===
<概要>
前述の参考例では、サブ識別器51の選択順序が固定されている。このため、前述の参考例では、サブ識別器51の選択順序が固定されていることを前提にして、処理時間の期待値が最短の選択順序が決定されている。
=== First Embodiment ===
<Overview>
In the reference example described above, the selection order of the sub-identifiers 51 is fixed. For this reason, in the above-described reference example, the selection order with the shortest expected processing time is determined on the assumption that the selection order of the sub-identifiers 51 is fixed.
一方、第1実施形態では、先に実行されるサブ識別器の判別式の値に応じて、それ以降に実行されるサブ識別器の順序を変更している。このため、第1実施形態では、サブ識別器の順序が変更されることも考慮して、処理時間の期待値が最短の選択順序が決定される。 On the other hand, in the first embodiment, the order of the sub classifiers to be executed thereafter is changed according to the value of the discriminant of the sub classifier to be executed first. For this reason, in the first embodiment, considering the change of the order of the sub classifiers, the selection order having the shortest expected processing time is determined.
<サブ識別器の選択順序について>
最初に風景識別器51Lが選択された場合、判別式の値に応じて、夜景が除外されない場合と、除外される場合とがある。前者の場合、夜景識別器51Nを含む残り4個のサブ識別器51の処理時間の期待値が最短になるような選択順序であることが望ましい。一方、後者の場合、夜景識別器51Nを除く残り3個のサブ識別器51の処理時間の期待値が最短になるような選択順序であることが望ましい。このように、先に実行されるサブ識別器の判別式の値に応じて、それ以降に実行されるサブ識別器の最適な順序が異なることがある。
<About the selection order of sub classifiers>
When the landscape discriminator 51L is selected first, there are cases where the night view is not excluded and cases where it is excluded depending on the value of the discriminant. In the former case, it is desirable that the selection order be such that the expected value of the processing time of the remaining four
図25は、順序決定の際に参照されるツリー構造のデータ(ツリーデータ)の概念図である。このツリーデータは、サブ識別器51の選択順序を示すものであり、図7のS201の際に全体識別器50に参照されるデータである。また、このツリーデータは、サブ識別器51の判別式の値と、次に選択すべきサブ識別器51とを関連付けたデータになっている。言い換えると、このツリーデータは、サブ識別器51の判別式の値に応じて、次に選択すべきサブ識別器51が分岐している。このツリーデータは、記憶部31に記憶されていても良いし、全体識別処理を実行させるためのプログラムの一部に組み込まれていても良い。
FIG. 25 is a conceptual diagram of tree-structured data (tree data) referred to in order determination. This tree data indicates the selection order of the
以下、図7のS201の際に、全体識別器50がツリーデータを用いてどのようにサブ識別器51を選択するかについて、説明する。
まず、最初のS201の際に、全体識別器50は、ツリーデータの1番目を参照し、風景識別器51Lを選択する。なお、既に説明した通り、風景識別器51Lの判別式の値が1.27(肯定閾値)よりも大きければ(S204でYES)、風景識別器51Lは識別対象画像が風景のシーンに属することが判断でき、他のサブ識別器51による処理が省略される。また、風景識別器51Lの判別式の値が−0.45より大きく、1.27(肯定閾値)よりも小さければ(S206でYES)、夜景の否定フラグが立ち、夜景識別器51Nによる処理が省略されるようになる(夜景が除外される)。
Hereinafter, how the
First, in the first S201, the
ところで、風景識別器51Lによって夜景が除外されると、識別処理を実行することになる残りのサブ識別器51は、夕景識別器51Sと、花識別器51Fと、紅葉識別器51Rの3つになる。この3つのサブ識別器51の選択順序について、夕景→花→紅葉の順よりも、紅葉→夕景→花の順の方が処理時間の期待値が短いならば、後者の選択順序にする方が望ましい。但し、前述の参考例によれば、紅葉識別器51Rが、夕景識別器51Sや花識別器51Fよりも先に選択されることは起こらない。これに対し、第1実施形態では、判別式の値に応じて次に選択されるサブ識別器の種類が決まるため、風景識別器51Lによって夜景が除外されると、次に紅葉識別器51Rが選択されるようになる。
By the way, when the night scene is excluded by the landscape classifier 51L, the remaining
すなわち、風景識別器51Lによる処理が終わった後の次のS201の際に、全体識別器50は、ツリーデータの2番目を参照し、風景識別器51Lの判別式の値が−0.45(夜景に対応する第2否定閾値)よりも小さければ、全体識別器50は、夕景識別器51Sを選択する。一方、風景識別器51Lの判別式の値が−0.45より大きく、1.27(肯定閾値)よりも小さければ、全体識別器50は、紅葉識別器51Rを選択する。このように、第1実施形態では、風景識別器51Lの判別式の値に応じて、次に選択されるサブ識別器の種類が変わる。
That is, in the next S201 after the processing by the landscape classifier 51L is completed, the
これにより、第1実施形態では、風景識別器51によって夜景が除外された後の処理時間の期待値が短くなる。この結果、全体識別処理の処理時間の期待値も短くなる。
Thereby, in 1st Embodiment, the expected value of the processing time after a night view is excluded by the
同様に、2番目の夕景識別器51Sによって花のみが除外されると、識別処理を実行することになる残りのサブ識別器51は、夜景識別器51Nと紅葉識別器51Rの2つになる。この2つのサブ識別器51の順序について、夜景→紅葉の順よりも、紅葉→夜景の順の方が処理時間の期待値が短いならば、後者の選択順序にする方が望ましい。但し、前述の参考例によれば、紅葉識別器51Rが夜景識別器51Nよりも先に選択されることは起こらない。これに対し、第1実施形態では、判別式の値に応じて次に選択されるサブ識別器の種類が決まるため、2番目の夕景識別器51Rによって花のみが除外されると、次に紅葉識別器51Rが選択されるようになる。
Similarly, when only the flowers are excluded by the second evening scene discriminator 51S, the remaining
すなわち、2番目に夕景識別器51Sが選択された場合において、さらに次のS201の際に(夕景識別器51Sによる処理が終わった後の次のS201の際に)、全体識別器50は、ツリーデータの3番目を参照する。このとき、夕景識別器51Sの判別式の値が−0.66(花に対応する第2否定閾値)よりも小さければ、全体識別器50は、夜景識別器51Nを選択する。また、夕景識別器51Sの判別式の値が−0.66より大きく、−0.62よりも小さければ、全体識別器50は、紅葉識別器51Rを選択する。このように、第1実施形態では、夕景判別器51Lの判別式の値に応じて、次に選択されるサブ識別器51の種類が変わる。
In other words, when the sunset scene classifier 51S is selected second, in the next S201 (in the next S201 after the processing by the sunset scene classifier 51S is finished), the
これにより、第1実施形態では、2番目の夕景識別器51Sによって花が除外された後の処理時間の期待値が短くなる。この結果、全体識別処理の処理時間の期待値も短くなる。 Thereby, in 1st Embodiment, the expected value of the processing time after a flower is excluded by the 2nd evening scene identifier 51S becomes short. As a result, the expected value of the processing time of the overall identification process is also shortened.
以上説明したように、第1実施形態では、判別式の値に応じて次に選択されるサブ識別器の種類が決まる。そして、第1実施形態では、後述するように最適な選択順序になるようにツリーデータが構成されているため、全体識別処理の処理時間の期待値を短くすることができる。 As described above, in the first embodiment, the type of the sub-classifier to be selected next is determined according to the discriminant value. In the first embodiment, the tree data is configured to have an optimal selection order as will be described later, so that the expected value of the processing time of the overall identification process can be shortened.
<ツリー構造のデータの作成方法について>
図25のツリーデータは、処理時間の期待値が最短になるような最適な選択順序で構成されている。最適な選択順序になるように構成されるのであればツリーデータはどのような手順で作成しても良いが、本実施形態では、以下に説明するように再帰的な手順によって、ツリーデータを構成するための最適順序を決定している。
<How to create tree structure data>
The tree data in FIG. 25 is configured in an optimal selection order that minimizes the expected processing time. The tree data can be created by any procedure as long as it is configured to have an optimal selection order, but in this embodiment, the tree data is constructed by a recursive procedure as described below. To determine the optimal order.
図26は、再帰的最適順序決定のフロー図である。このフローは、シーン識別プログラムを設計する際に、行われる。 FIG. 26 is a flowchart of recursive optimal order determination. This flow is performed when designing the scene identification program.
仮に全体識別器50のサブ識別器51の数が0個の場合、全体識別処理の処理時間の期待値はゼロになる。また、仮に全体識別器50のサブ識別器51の数が1個の場合、全体識別処理の処理時間の期待値は、そのサブ識別器51の処理時間そのものになる。そこで、まず、未実行のサブ識別器51の数が1個かゼロかを判断し(S801)、ゼロの場合には期待値にゼロを設定し、1個の場合にはそのサブ識別器51の処理時間そのものを期待値に設定し(S811)、処理を終了する。
If the number of
図27は、2個のサブ識別器のツリーの候補(ツリー候補)の説明図である。ここでは、AとBの2個のサブ識別器があるとする。以下、図26と図27とを参照しながら、2個の識別器の最適順序の決定について説明する。 FIG. 27 is an explanatory diagram of tree candidates (tree candidates) for two sub classifiers. Here, it is assumed that there are two sub-classifiers A and B. Hereinafter, determination of the optimal order of the two discriminators will be described with reference to FIGS. 26 and 27. FIG.
サブ識別器51の数が2個の場合(S801でNO)、まず、いずれかのサブ識別器を選択する(S802)。ここでは、まず、サブ識別器Aが選択されるものとする。
If the number of
次に、発生する可能性のあるサブ識別器の組み合わせを全て作成する(S803)。ここでは、条件Xa1(例えば、サブ識別器Aの判別式の値が第2否定閾値よりも小さいという条件)のとき、「未実行のサブ識別器がB」という組み合わせと、条件Ya1のとき、「未実行のサブ識別器がゼロ」という組み合わせの2つがあるとする。 Next, all combinations of sub-classifiers that may occur are created (S803). Here, when the condition Xa1 (for example, the condition that the discriminant value of the sub classifier A is smaller than the second negative threshold), the combination of “unexecuted sub classifier is B” and the condition Ya1, Assume that there are two combinations of “unexecuted sub classifiers are zero”.
次に、S804において、前者の組み合わせ(「未実行のサブ識別器がB」という組み合わせ)が選択されるとする。そして、S805において、このフローが再帰的に実行され、未実行のサブ識別器が1個なので、サブ識別器Bの処理時間が期待値として出力されて(S811)、処理が戻ってくる。そして、S806において、後者の組み合わせが残っているので、NOの判断となる。 Next, in S804, it is assumed that the former combination (the combination “unexecuted sub-identifier is B”) is selected. In S805, this flow is recursively executed, and since there is one unexecuted sub classifier, the processing time of the sub classifier B is output as an expected value (S811), and the process returns. In S806, since the latter combination remains, the determination is NO.
次のS804において、後者の組み合わせ(「未実行のサブ識別器がゼロ」という組み合わせ)が選択される。そして、このフローが再帰的に実行され、未実行のサブ識別器がゼロなので、ゼロの期待値が出力されて(S811)、処理が戻ってくる。そして、S806において、全ての組み合わせが終了したので、YESの判断となる。 In the next S804, the latter combination (the combination “unexecuted sub-identifier is zero”) is selected. This flow is executed recursively, and since the unexecuted sub classifier is zero, an expected value of zero is output (S811), and the process returns. In step S806, since all combinations have been completed, the determination is YES.
次に、ツリー候補の期待処理時間を算出する(S807)。ここで、期待処理時間は、ある条件の発生確率とその条件に対応する組み合わせの期待値とを乗算した値と、S802で選択されたサブ識別器の処理時間との和である。つまり、図27の第1ツリー候補(図27の左側のツリー候補)に従って全体識別処理が実行されたときの処理時間の期待値が算出される。 Next, the expected processing time of the tree candidate is calculated (S807). Here, the expected processing time is the sum of the value obtained by multiplying the occurrence probability of a certain condition by the expected value of the combination corresponding to the condition, and the processing time of the sub-identifier selected in S802. That is, the expected value of the processing time when the overall identification process is executed according to the first tree candidate in FIG. 27 (the left tree candidate in FIG. 27) is calculated.
次に、別の未実行のサブ識別器の有無を判断する(S808)。2つのサブ識別器のうち、未だサブ識別器Bが選択されていないので、ここでの判断は「ある」になる。そして、同様にS802〜S807の処理が行われることにより、図27の第2ツリー候補(図27の右側のツリー候補)に従って全体識別処理が実行されたときの処理時間の期待値が算出される。 Next, it is determined whether there is another unexecuted sub classifier (S808). Of the two sub-classifiers, sub-classifier B has not yet been selected, so the determination here is “Yes”. Similarly, the processing of S802 to S807 is performed, and the expected value of the processing time when the overall identification processing is executed according to the second tree candidate in FIG. 27 (the tree candidate on the right side in FIG. 27) is calculated. .
そして、期待処理時間が最短のツリー候補を選択する(S809)。ここでは、第1ツリー候補と第2ツリー候補の期待処理時間が比較された結果、第1ツリー候補が選択されるものとする。 Then, the tree candidate with the shortest expected processing time is selected (S809). Here, it is assumed that the first tree candidate is selected as a result of comparing the expected processing times of the first tree candidate and the second tree candidate.
以上の処理により、サブ識別器51の数が2個の場合の最適順序が求められることになる。
With the above processing, the optimum order when the number of
図28は、3個のサブ識別器のツリーの候補(ツリー候補)の説明図である。ここでは、A〜Cの3個のサブ識別器があるとする。以下、図26と図28とを参照しながら、3個の識別器の最適順序の決定について説明する。 FIG. 28 is an explanatory diagram of tree candidates (tree candidates) for three sub classifiers. Here, it is assumed that there are three sub-classifiers A to C. Hereinafter, determination of the optimal order of the three classifiers will be described with reference to FIGS.
サブ識別器51の数が2個の場合(S801でNO)、まず、いずれかのサブ識別器を選択する(S802)。ここでは、まず、サブ識別器Aが選択されるものとする。そして、サブ識別器Aにおいて、3つの条件(条件Xa1、条件Ya1、条件Za1)の下で3つの組み合わせがあるとする。
If the number of
まず、S804において、条件Xa1における組み合わせ(「未実行のサブ識別器がBとCの2個」)が選択されるものとする。この場合、次のS805において、既に説明した通り、サブ識別器の数が2個の場合の最適順序決定が行われ、その最適順序における期待値が出力され(S810)、処理が戻ってくる。そして、同様に、残りの組み合わせ(条件Ya1における組み合わせと、条件Za1における組み合わせ)の最適順序と期待値も算出される。 First, in S804, it is assumed that the combination in the condition Xa1 (“2 unexecuted sub classifiers B and C”) is selected. In this case, in the next step S805, as already described, the optimum order is determined when the number of sub classifiers is two, the expected value in the optimum order is output (S810), and the process returns. Similarly, the optimum order and expected value of the remaining combinations (the combination in the condition Ya1 and the combination in the condition Za1) are also calculated.
そして、S807において、図28の第1ツリー候補に従って全体識別処理が実行されたときの処理時間の期待値が算出される。そして、同様に、残りのツリー候補(不図示)の処理時間の期待値が算出される。そして、期待処理時間が最短のツリー候補を選択する(S809)。 In S807, an expected value of the processing time when the overall identification process is executed according to the first tree candidate in FIG. 28 is calculated. Similarly, the expected value of the processing time of the remaining tree candidates (not shown) is calculated. Then, the tree candidate with the shortest expected processing time is selected (S809).
以上の処理により、サブ識別器51の数が3個の場合の最適順序が求められることになる。なお、サブ識別器の数が4個以上の場合も、上記のような再帰的な手順により最適順序が求められる。
With the above processing, the optimum order when the number of
このようにして、本実施形態では、最適な選択順序になるように、図25のツリーデータが構成される。そして、全体識別器50が、図7のS201の際にこのツリーデータを参照してサブ識別器51を選択することにより、全体識別処理の処理時間を速めることができる。
In this way, in the present embodiment, the tree data of FIG. 25 is configured so as to have an optimal selection order. Then, the
===第2実施形態===
前述の第1実施形態では、全体識別器50による全体識別処理の処理時間が速くなるように、5個のサブ識別器51の選択順序が決定されている。
但し、部分識別器60による部分識別処理の処理時間が速くなるように、3個のサブ部分識別器の選択順序が決定されても良い。
=== Second Embodiment ===
In the first embodiment described above, the selection order of the five
However, the selection order of the three sub partial classifiers may be determined so that the processing time of the partial classification processing by the
===第3実施形態===
前述の第1実施形態によれば、全体識別処理におけるサブ識別器51の選択順序が図25に示す順になるようにシーン識別プログラムが構成されており、このプログラムがプリンタ4のプリンタ側コントローラ20に搭載されている。
=== Third Embodiment ===
According to the first embodiment described above, the scene identification program is configured so that the selection order of the sub-identifiers 51 in the overall identification process is the order shown in FIG. 25, and this program is stored in the printer-
これに対し、図7のS201においてサブ識別器51を選択する際に、例えば図26の処理をプリンタ側コントローラ20が実行するように、シーン識別プログラムを構成しても良い。
On the other hand, when selecting the
===その他の実施の形態===
一実施形態としてのプリンタ等を説明したが、上記の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることは言うまでもない。特に、以下に述べる実施形態であっても、本発明に含まれるものである。
=== Other Embodiments ===
Although a printer or the like as one embodiment has been described, the above embodiment is for facilitating understanding of the present invention, and is not intended to limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and it is needless to say that the present invention includes equivalents thereof. In particular, the embodiments described below are also included in the present invention.
<プリンタについて>
前述の実施形態ではプリンタ4がシーン識別処理をしていたが、デジタルスチルカメラ2がシーン識別処理をしても良い。また、上記のシーン識別処理を行う画像識別装置は、プリンタ4やデジタルスチルカメラ2に限られるものではない。例えば、大量の画像ファイルを保存するフォトストレージのような画像識別装置が、上記のシーン識別処理を行っても良い。もちろん、パーソナルコンピュータやインターネット上に設置されたサーバーが、上記のシーン識別処理を行っても良い。
<About the printer>
In the above-described embodiment, the
<画像ファイルについて>
前述の画像ファイルはExif形式であったが、画像ファイルフォーマットはこれに限られるものではない。また、前述の画像ファイルは静止画であるが、動画であっても良い。要するに、画像ファイルが画像データと付加データとを備えていれば、前述のようなシーン識別処理を行うことが可能である。
<About image files>
The image file described above is in the Exif format, but the image file format is not limited to this. Further, the above-described image file is a still image, but may be a moving image. In short, if the image file includes image data and additional data, the scene identification process as described above can be performed.
<サポートベクタマシンについて>
前述のサブ識別器51やサブ部分識別器61には、サポートベクタマシン(SVM)による識別手法が用いられている。しかし、識別対象画像が特定シーンに属するか否かの識別手法は、サポートベクタマシンを用いるものに限られるものではない。例えば、ニューラルネットワーク等のパターン認識を採用しても良い。
<About Support Vector Machine>
For the above-described
<シーンの識別について>
前述の実施形態では、サブ識別器51やサブ部分識別器61は、画像データの示す画像が特定のシーンに属するか否かを識別している。しかし、サブ識別器51やサブ部分識別器61は、特定のシーンに属するか否かを識別するものに限られず、画像データの示す画像が特定のカテゴリに属するか否かを分類できれば良い。このため、サブ識別器51やサブ部分識別器61は、例えば画像データの示す画像が特定のパターン形状か否かを識別しても良い。
<About scene identification>
In the above-described embodiment, the
<サブ識別器・サブ部分識別器の選択順序について>
前述の実施形態では、全体識別器50による全体識別処理の後、部分識別器60による部分識別処理が行われていた(図6、図7参照)。つまり、前述の実施形態では、5個のサブ識別器51が選択された後、3個のサブ部分識別器61が選択されていた。但し、これに限られるものではない。
<Selection order of sub classifier / sub partial classifier>
In the above-described embodiment, after the overall identification process by the
例えば、サブ識別器51とサブ部分識別器61の選択順序を混ぜても良い。この場合、シーン識別処理の処理時間の期待値が最短になるように、サブ識別器51とサブ部分識別器61の選択順序が決定される。但し、サブ部分識別器61の処理時間はサブ識別器51の処理時間よりも遅いので(サブ部分識別器61は判別式の値を複数回算出するため)、最適な選択順序を算出しても、結局、5個のサブ識別器51が選択された後に3個のサブ部分識別器61が選択されることになるかもしれない。
For example, the selection order of the
===まとめ===
(1)前述の実施形態では、全体識別器50は複数のサブ識別器51を有している。サブ識別器51は、画像データの示す画像が特定のシーンに属するか否かを識別する識別処理を行っている。そして、前述の実施形態では、このようなサブ識別器を複数組み合わせることによって、画像データの示す画像のシーン(カテゴリの一例)を分類している。
ここで、仮にシーン識別処理を行うたびに全てのサブ識別器51による識別処理を行っていたのでは、シーン識別処理の処理速度が遅くなってしまう。そこで、前述の参考例や実施形態では、画像データの示す画像が特定のシーンに属することをサブ識別器51が識別できたとき等の場合、別のサブ識別器51による処理を省略し、シーン識別処理の処理速度を速くしている。例えば、全体識別器50の風景識別器51Lが風景画像を識別できれば(図7のS204でYES)、全体識別器50の夕景識別器51Sによる処理が省略され、シーン識別処理の処理速度が速くなる。
ところで、このようにサブ識別器51の処理が省略されることがある場合、5個のサブ識別器51の順序に応じて、全体識別処理の処理時間の期待値が異なることになる。そこで、前述の参考例では、全体識別処理の処理時間の期待値が最短になる固定された順序にて、5個のサブ識別器51を順に実行している。これにより、全体識別処理の処理時間が速くなる。
=== Summary ===
(1) In the above-described embodiment, the
Here, if the identification processing by all the sub-classifiers 51 is performed every time the scene identification processing is performed, the processing speed of the scene identification processing becomes slow. Therefore, in the above-described reference examples and embodiments, when the sub-classifier 51 can identify that the image indicated by the image data belongs to a specific scene, the processing by another sub-classifier 51 is omitted, and the scene The processing speed of the identification process is increased. For example, if the landscape discriminator 51L of the
By the way, when the process of the
但し、風景→夕景→夜景→花→紅葉という固定された順序にて5個のサブ識別器51を順に実行した場合、紅葉識別器51Rが、夕景識別器51Sや花識別器51Fよりも先に選択されることは起こらない。一方、風景識別器51Lによって夜景が除外されたとき、夕景→花→紅葉の順よりも、紅葉→夕景→花の順の方が処理時間の期待値が短いならば、後者の選択順序にする方が望ましい。
However, when the five
そこで、前述の実施形態では、先に実行されるサブ識別器の判別式の値に応じて、次に実行されるサブ識別器51が決定される。例えば風景識別器51Lの判別式の値が−0.45(夜景に対応する第2否定閾値)よりも小さければ、全体識別器50は、夕景識別器51Sを選択する。一方、風景識別器51Lの判別式の値が−0.45より大きく、1.27(肯定閾値)よりも小さければ、全体識別器50は、紅葉識別器51Rを選択する。これにより、第1実施形態では、選択順序が固定された参考例よりも、全体識別処理の処理速度を速めることができる。
Therefore, in the above-described embodiment, the
(2)前述の実施形態では、例えば風景識別器51Lにより識別対象画像が風景であることを識別できたとき(図10のS204でYES)、もはや他のサブ識別器51による処理は不要になるので、例えば夕景識別器51による処理を省略している。これにより、シーン識別処理の処理速度を速くしている。
(2) In the above-described embodiment, for example, when the landscape classifier 51L can identify that the classification target image is a landscape (YES in S204 in FIG. 10), the processing by the
(3)前述の実施形態では、例えば風景識別器51Lの判別式の値が第2否定閾値より大きければ、風景とは別のシーン(例えば夜景)のシーンに識別対象画像が属しないと判断され、その識別器(例えば夜景識別器51N)による識別は省略される。これにより、識別処理の速度を速めることができる。 (3) In the above-described embodiment, for example, if the value of the discriminant of the landscape discriminator 51L is larger than the second negative threshold, it is determined that the classification target image does not belong to a scene different from the landscape (for example, a night view). The identification by the classifier (for example, night scene classifier 51N) is omitted. As a result, the speed of the identification process can be increased.
(4)前述のサブ識別器51は、判別式の値(画像が特定のカテゴリに属する確率に応じた値)を算出し、その値に基づいて画像が特定のシーンに属するか否かを識別している。そして、前述の実施形態では、この判別式の値を利用して、次に実行するサブ識別器51を決定している。これにより、次に実行するサブ識別器51を決定するための指標を別途算出する必要はないので、次に実行するサブ識別器51の決定が簡略になる。
(4) The sub-identifier 51 described above calculates a discriminant value (a value corresponding to the probability that the image belongs to a specific category), and identifies whether the image belongs to a specific scene based on the value. is doing. In the above-described embodiment, the
(5)前述の実施形態では、全体識別器50は、ツリーデータを用いて、次に実行するサブ識別器51を決定する。ここで、ツリーデータは、図25に示すように、サブ識別器51の判別式の値と、次に選択すべきサブ識別器51とをそれぞれ関連付けたデータである。このようなツリーデータを用いることによって、全体識別器50は、先に実行されるサブ識別器の判別式の値に応じて、次に実行されるサブ識別器51を決定できる。
(5) In the above-described embodiment, the
(6)前述の実施形態では、各ツリー候補の期待処理時間が算出され(図26のS807参照)、全てのツリー候補の中から期待処理時間が最短のツリー候補が選択され(S809)、ツリーデータが作成される。これにより、全体識別処理の処理速度を速めることができる。 (6) In the above-described embodiment, the expected processing time of each tree candidate is calculated (see S807 in FIG. 26), and the tree candidate with the shortest expected processing time is selected from all tree candidates (S809). Data is created. Thereby, the processing speed of the whole identification process can be increased.
(7)前述の実施形態では、n−1個のサブ識別器51によって処理時間が最短になる選択順序を決定し、その処理時間を出力する決定フローが用意されている(図26参照)。そして、n個のサブ識別器51によって処理時間が最短になる選択順序を決定する場合、まず1つのサブ識別器51を選択し、残りのn−1個のサブ識別器51によって処理時間が最短になる選択順序を再帰的処理により決定し、選択したサブ識別器51が最初に実行されるようなツリー候補の期待処理時間を算出する(S807)。このようにして、n個のツリー候補の期待処理時間が算出され、期待処理時間が最短になる選択順序が決定される(S809)。
これにより、簡易な手順によって、最適な選択順序を決定できる。
(7) In the above-described embodiment, a determination flow is prepared in which the n-1
Thereby, the optimal selection order can be determined by a simple procedure.
(8)前述のプリンタ(画像識別装置に相当)は、プリンタ側コントローラ20を備えている(図2参照)。そして、このプリンタ側コントローラ20は、画像データの示す画像が特定のカテゴリに属するか否かを識別するサブ識別器51を複数組み合わせることによって、画像データの示す画像のシーンを分類している。また、プリンタ側コントローラ20は、例えば風景識別器51Lの識別結果に応じて、例えば夕景識別器51Sによる処理を省略する。
(8) The above-described printer (corresponding to an image identification device) includes a printer-side controller 20 (see FIG. 2). The printer-
そして、前述の実施形態では、プリンタ側コントローラ20は、先に実行されるサブ識別器の判別式の値に応じて、次に実行されるサブ識別器51を決定する。これにより、第1実施形態では、選択順序が固定された参考例よりも、全体識別処理の処理速度を速めることができる。
In the above-described embodiment, the printer-
(9)前述のメモリ23には、図5、図7及び図14の処理をプリンタ4に実行させるためのプログラムが記憶されている。すなわち、このプログラムは、画像データの示す画像が特定のカテゴリに属するか否かを識別する識別処理を、複数のカテゴリ毎に順に選択して行うコードと、ある識別処理の結果に応じて、まだ行われていない識別処理を省略するコードと、識別処理の結果に基づいて、画像のカテゴリを識別するコードと、を備えている。また、このプログラムには、画像識別装置に、先に行われる識別処理の結果に応じて、後に行われる識別処理の選択順序を決定させるコードも含まれている。
(9) The
2 デジタルスチルカメラ、2A モード設定ダイヤル、
4 プリンタ、6 メモリカード、
10 印刷機構、11 ヘッド、12 ヘッド制御部、13 モータ、14 センサ、
20 プリンタ側コントローラ、21 スロット、22 CPU、23 メモリ、
24 制御ユニット、25 駆動信号生成部、
31 記憶部、31A 画像記憶部、31B 結果記憶部、
32 顔識別部、33 シーン識別部、34 画像補正部、35 プリンタ制御部、
40 特徴量取得部、50 全体識別器、51 サブ識別器、51L 風景識別器、
51S 夕景識別器、51N 夜景識別器、51F 花識別器、51R 紅葉識別器、
60 部分識別器、61 サブ部分識別器、61S 夕景部分識別器、
61F 花部分識別器、61R 紅葉部分識別器、
70 統合識別器、
2 Digital still camera, 2A mode setting dial,
4 Printer, 6 Memory card,
10 printing mechanism, 11 head, 12 head control unit, 13 motor, 14 sensor,
20 printer-side controller, 21 slots, 22 CPU, 23 memory,
24 control unit, 25 drive signal generator,
31 storage unit, 31A image storage unit, 31B result storage unit,
32 face identification unit, 33 scene identification unit, 34 image correction unit, 35 printer control unit,
40 feature quantity acquisition unit, 50 global classifier, 51 sub classifier, 51L landscape classifier,
51S evening scene classifier, 51N night scene classifier, 51F flower classifier, 51R autumn leaves classifier,
60 partial classifiers, 61 sub partial classifiers, 61S evening scene partial classifiers,
61F Flower partial classifier, 61R Autumn colored partial classifier,
70 Integrated identifier,
Claims (9)
ある前記識別処理の結果に応じて、まだ行われていない前記識別処理が省略され、
前記識別処理の結果に基づいて、前記画像のカテゴリを識別する
画像識別方法において、
先に行われる識別処理の結果に応じて、後に行われる識別処理の選択順序が決定される
ことを特徴とする画像識別方法。 Identification processing for identifying whether the image indicated by the image data belongs to a specific category is performed by selecting in order for each of the plurality of categories,
Depending on the result of the identification process, the identification process that has not yet been performed is omitted,
In the image identification method for identifying the category of the image based on the result of the identification process,
An image identification method, wherein a selection order of identification processes to be performed later is determined in accordance with a result of identification processes to be performed first.
ある前記識別処理においてその識別処理に対応する特定のカテゴリに前記画像が属することが識別されたとき、まだ行われていない前記識別処理が省略される
ことを特徴とする画像識別方法。 The image identification method according to claim 1,
An image identification method characterized in that, when it is identified in a certain identification process that the image belongs to a specific category corresponding to the identification process, the identification process that has not yet been performed is omitted.
ある前記識別処理においてその識別処理とは別の識別処理に対応する特定のカテゴリに前記画像が属さないことが識別されたとき、前記別の識別処理が省略される
ことを特徴とする画像識別方法。 The image identification method according to claim 1 or 2,
An image identification method in which, when it is identified that the image does not belong to a specific category corresponding to an identification process different from the identification process in the identification process, the another identification process is omitted. .
前記識別処理では、前記画像が前記特定のカテゴリに属する確率に応じた値が算出され、その値に基づいて前記画像が前記特定のカテゴリに属するか否かが識別され、
前記先に行われる識別処理で算出された前記値に応じて、前記後に行われる識別処理の選択順序が決定される
ことを特徴とする画像識別方法。 The image identification method according to any one of claims 1 to 3,
In the identification process, a value corresponding to the probability that the image belongs to the specific category is calculated, and based on the value, it is identified whether the image belongs to the specific category,
An image identification method, wherein a selection order of identification processing to be performed later is determined according to the value calculated in the identification processing performed first.
前記先に行われる識別処理における結果と、次に行われる識別処理とをそれぞれ関連付けたデータを用いて、前記選択順序が決定される
ことを特徴とする画像識別方法。 The image identification method according to any one of claims 1 to 4,
The image identification method, wherein the selection order is determined by using data in which a result of the identification processing performed first and an identification processing performed next are associated with each other.
選択順序の異なる複数の候補について、前記後に行われる識別処理の処理時間と、前記前記先に行われる識別処理の前記結果の発生確率とに基づいて、前記画像のカテゴリを識別するまでの処理時間の期待値が算出され、
前記複数の候補の中から前記期待値の短い候補が選択されることにより、前記選択順序が決定される
ことを特徴とする画像識別方法。 The image identification method according to any one of claims 1 to 5,
The processing time until the category of the image is identified based on the processing time of the identification processing performed later and the occurrence probability of the result of the identification processing performed earlier for a plurality of candidates having different selection orders Expected value of
The image identification method, wherein the selection order is determined by selecting a candidate having a short expected value from the plurality of candidates.
n−1個の識別処理を行う際の前記期待値の短い候補を決定する決定処理があり、
n個の識別処理を行う際の前記期待値の短い候補を決定するとき、最初に行う識別処理がそれぞれ異なるn個の候補についてそれぞれ前記決定処理を用いて前記期待値が算出され、n個の候補の中から前記期待値の短い候補が選択されることにより、前記選択順序が決定される
ことを特徴とする画像識別方法。 The image identification method according to claim 6, comprising:
There is a determination process for determining a candidate with a short expected value when performing n-1 identification processes,
When determining a candidate with a short expected value when performing n identification processes, the expected value is calculated using the determination process for each of n candidates that have different identification processes to be performed first. An image identification method, wherein the selection order is determined by selecting a candidate with a short expected value from candidates.
前記コントローラは、
画像データの示す画像が特定のカテゴリに属するか否かを識別する識別処理を、複数の前記カテゴリ毎に順に選択して行い、
ある前記識別処理の結果に応じて、まだ行われていない前記識別処理が省略され、
前記識別処理の結果に基づいて、前記画像のカテゴリを識別するとともに、
前記先に行われる識別処理で算出された前記値に応じて、前記後に行われる識別処理の選択順序を決定する
ことを特徴とする画像識別装置。 An image identification device comprising a controller,
The controller is
Identification processing for identifying whether the image indicated by the image data belongs to a specific category is performed by selecting in order for each of the plurality of categories,
Depending on the result of the identification process, the identification process that has not yet been performed is omitted,
Based on the result of the identification process, the category of the image is identified,
An image identification apparatus, wherein a selection order of identification processing performed later is determined according to the value calculated in the identification processing performed earlier.
画像データの示す画像が特定のカテゴリに属するか否かを識別する識別処理を、複数の前記カテゴリ毎に順に選択して行わせ、
ある前記識別処理の結果に応じて、まだ行われていない前記識別処理が省略させ、
前記識別処理の結果に基づいて、前記画像のカテゴリを識別させる
プログラムにおいて、
前記画像識別装置に、先に行われる識別処理の結果に応じて、後に行われる識別処理の選択順序を決定させる
ことを特徴とするプログラム。 In the image identification device,
Identification processing for identifying whether an image indicated by image data belongs to a specific category is performed by selecting in order for each of the plurality of categories,
Depending on the result of the identification process, the identification process that has not yet been performed is omitted,
In a program for identifying the category of the image based on the result of the identification process,
A program for causing the image identification apparatus to determine a selection order of identification processing to be performed later according to a result of identification processing to be performed first.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007081697A JP4910821B2 (en) | 2007-03-27 | 2007-03-27 | Image identification method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007081697A JP4910821B2 (en) | 2007-03-27 | 2007-03-27 | Image identification method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008242751A true JP2008242751A (en) | 2008-10-09 |
JP4910821B2 JP4910821B2 (en) | 2012-04-04 |
Family
ID=39914030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007081697A Expired - Fee Related JP4910821B2 (en) | 2007-03-27 | 2007-03-27 | Image identification method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4910821B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011182147A (en) * | 2010-03-01 | 2011-09-15 | Fujitsu Semiconductor Ltd | Photographing scene determining device |
JP2014194659A (en) * | 2013-03-28 | 2014-10-09 | Brother Ind Ltd | Image processing apparatus and computer program |
WO2020095408A1 (en) * | 2018-11-08 | 2020-05-14 | Nec Corporation | Information processing apparatus, system, method and program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11296531A (en) * | 1998-04-08 | 1999-10-29 | Mitsubishi Electric Corp | Method and device for data matching |
-
2007
- 2007-03-27 JP JP2007081697A patent/JP4910821B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11296531A (en) * | 1998-04-08 | 1999-10-29 | Mitsubishi Electric Corp | Method and device for data matching |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011182147A (en) * | 2010-03-01 | 2011-09-15 | Fujitsu Semiconductor Ltd | Photographing scene determining device |
JP2014194659A (en) * | 2013-03-28 | 2014-10-09 | Brother Ind Ltd | Image processing apparatus and computer program |
WO2020095408A1 (en) * | 2018-11-08 | 2020-05-14 | Nec Corporation | Information processing apparatus, system, method and program |
JP2022505985A (en) * | 2018-11-08 | 2022-01-14 | 日本電気株式会社 | Information processing equipment, systems, methods and programs |
JP7156521B2 (en) | 2018-11-08 | 2022-10-19 | 日本電気株式会社 | Information processing device, system, method and program |
Also Published As
Publication number | Publication date |
---|---|
JP4910821B2 (en) | 2012-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7215828B2 (en) | Method and system for determining image orientation | |
US20090016616A1 (en) | Category Classification Apparatus, Category Classification Method, and Storage Medium Storing a Program | |
US20080292181A1 (en) | Information Processing Method, Information Processing Apparatus, and Storage Medium Storing a Program | |
JP2008282267A (en) | Scene discrimination device and scene discrimination method | |
JP5040624B2 (en) | Information processing method, information processing apparatus, and program | |
JP2009093334A (en) | Identification method and program | |
JP2008234627A (en) | Category classification apparatus and method | |
JP2009080557A (en) | Identification method and program | |
JP4910821B2 (en) | Image identification method | |
JP4946750B2 (en) | Setting method, identification method and program | |
US20080199084A1 (en) | Category Classification Apparatus and Category Classification Method | |
JP4992519B2 (en) | Information processing method, information processing apparatus, and program | |
JP2008284868A (en) | Printing method, printer, and program | |
JP4992646B2 (en) | Identification method and program | |
JP4882927B2 (en) | Category identification method | |
JP2009044249A (en) | Image identification method, image identification device, and program | |
JP2008234624A (en) | Category classification apparatus, category classification method, and program | |
US20080199085A1 (en) | Category Classification Apparatus, Category Classification Method, and Storage Medium Storing a Program | |
JP2008242750A (en) | Image discrimination method, and production method and program of image discriminator | |
JP2008228087A (en) | Information processing method, information processor, and program | |
JP2008242638A (en) | Image discrimination method, image discrimination device, and program | |
JP4830950B2 (en) | Information processing method, information processing apparatus, and program | |
JP2008271249A (en) | Information processing method, information processing apparatus, and program | |
JP2008228086A (en) | Information processing method, information processor, and program | |
CN112529030A (en) | Learning model generation device, image correction method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100105 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110811 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111013 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111220 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120102 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150127 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |