JP5381498B2 - Image processing apparatus, image processing program, and image processing method - Google Patents

Image processing apparatus, image processing program, and image processing method Download PDF

Info

Publication number
JP5381498B2
JP5381498B2 JP2009192947A JP2009192947A JP5381498B2 JP 5381498 B2 JP5381498 B2 JP 5381498B2 JP 2009192947 A JP2009192947 A JP 2009192947A JP 2009192947 A JP2009192947 A JP 2009192947A JP 5381498 B2 JP5381498 B2 JP 5381498B2
Authority
JP
Japan
Prior art keywords
event
image
determination
image processing
discriminator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009192947A
Other languages
Japanese (ja)
Other versions
JP2011044989A (en
JP2011044989A5 (en
Inventor
幹也 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009192947A priority Critical patent/JP5381498B2/en
Publication of JP2011044989A publication Critical patent/JP2011044989A/en
Publication of JP2011044989A5 publication Critical patent/JP2011044989A5/ja
Application granted granted Critical
Publication of JP5381498B2 publication Critical patent/JP5381498B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、画像処理プログラム、画像処理方法に関する。   The present invention relates to an image processing apparatus, an image processing program, and an image processing method.

画像の特徴量に基づいて各画像の意味的分類(たとえば撮影シーン)を判別する技術が知られている(特許文献1参照)。一般に、画像の判別に用いられるデータはサンプル画像の特徴量に基づいてSVM(Support Vector Machine)手法を用いて算出され、識別器と呼ばれる。1つのイベント(行事や出来事など)に対して複数の識別器を用いることも行われている(特許文献2参照)。   A technique for discriminating the semantic classification (for example, a shooting scene) of each image based on the feature amount of the image is known (see Patent Document 1). In general, data used for image discrimination is calculated using a support vector machine (SVM) method based on a feature amount of a sample image, and is called a discriminator. A plurality of discriminators are also used for one event (such as an event or an event) (see Patent Document 2).

米国特許第7035467号明細書US Pat. No. 7,035,467 特開2005−100121号公報JP 2005-100121 A

複数の識別器を用いてそれぞれイベント判定を行うことは、判定処理の負担が大きくなるという問題があった。   Each event determination using a plurality of discriminators has a problem that the burden of the determination process increases.

本発明による画像処理装置は、イベント判定対象画像の特徴量を算出する算出手段と、算出した特徴量とイベント判定用の識別器との比較によってイベント判定対象画像に対するイベント判定を行う判定手段と、同一イベントに対して識別器が複数存在する場合に該識別器ごとの特性を示す特性データに基づいて代表の識別器を1つ決定する決定手段と、決定された代表の識別器を用いるように判定手段を制御する制御手段と、を備えることを特徴とする。   An image processing apparatus according to the present invention includes a calculation unit that calculates a feature amount of an event determination target image, a determination unit that performs event determination on the event determination target image by comparing the calculated feature amount with an event determination classifier, When there are a plurality of classifiers for the same event, a determination unit for determining one representative classifier based on characteristic data indicating characteristics for each classifier, and using the determined representative classifier Control means for controlling the determination means.

本発明によれば、イベント判定処理の負担を軽減できる。   According to the present invention, the burden of event determination processing can be reduced.

本発明の一実施の形態による電子カメラの要部構成を説明するブロック図である。It is a block diagram explaining the principal part structure of the electronic camera by one embodiment of this invention. メインCPUが実行するイベント判定処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of the event determination process which main CPU performs. イベント判定処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of an event determination process. 識別器決定処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of a discriminator determination process. 画像数精度データを例示する図である。It is a figure which illustrates image number accuracy data. 学習処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of a learning process. 識別器特性データの作成処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the preparation process of discriminator characteristic data. 変形例4による識別器決定処理を説明するフローチャートである。It is a flowchart explaining the discriminator determination process by the modification 4. 変形例5による識別器決定処理を説明するフローチャートである。It is a flowchart explaining the discriminator determination process by the modification 5. コンピュータ装置を例示する図である。It is a figure which illustrates a computer apparatus.

以下、図面を参照して本発明を実施するための形態について説明する。図1は、本発明の一実施の形態による電子カメラ1の要部構成を説明するブロック図である。電子カメラ1は、メインCPU11によって制御される。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a block diagram for explaining a main configuration of an electronic camera 1 according to an embodiment of the present invention. The electronic camera 1 is controlled by the main CPU 11.

撮影レンズ21は、撮像素子22の撮像面上に被写体像を結像させる。撮像素子22はCCDイメージセンサなどで構成され、撮像面上の被写体像を撮像し、撮像信号を撮像回路23へ出力する。撮像素子22の撮像面には、それぞれR(赤)、G(緑)およびB(青)のカラーフィルタが画素位置に対応するように設けられている。撮像素子22がカラーフィルタを通して被写体像を撮像するため、撮像素子22から出力される光電変換信号は、RGB表色系の色情報を有する。   The photographing lens 21 forms a subject image on the imaging surface of the imaging element 22. The imaging element 22 is configured by a CCD image sensor or the like, captures a subject image on the imaging surface, and outputs an imaging signal to the imaging circuit 23. R (red), G (green), and B (blue) color filters are respectively provided on the imaging surface of the imaging element 22 so as to correspond to the pixel positions. Since the image sensor 22 captures a subject image through the color filter, the photoelectric conversion signal output from the image sensor 22 has RGB color system color information.

撮像回路23は、撮像素子22から出力される光電変換信号に対するアナログ処理(ゲインコントロールなど)を行う他、内蔵するA/D変換回路でアナログ撮像信号をディジタルデータに変換する。   The imaging circuit 23 performs analog processing (such as gain control) on the photoelectric conversion signal output from the imaging element 22, and converts the analog imaging signal into digital data by a built-in A / D conversion circuit.

メインCPU11は、各ブロックから出力される信号を入力して所定の演算を行い、演算結果に基づく制御信号を各ブロックへ出力する。画像処理回路12は、たとえばASICとして構成され、撮像回路23から入力されるディジタル画像信号に対して画像処理を行う。画像処理には、たとえば、輪郭強調や色温度調整(ホワイトバランス調整)処理、画像信号に対するフォーマット変換処理が含まれる。   The main CPU 11 inputs a signal output from each block, performs a predetermined calculation, and outputs a control signal based on the calculation result to each block. The image processing circuit 12 is configured as an ASIC, for example, and performs image processing on the digital image signal input from the imaging circuit 23. The image processing includes, for example, contour enhancement, color temperature adjustment (white balance adjustment) processing, and format conversion processing for an image signal.

画像圧縮回路13は、画像処理回路12による処理後の画像信号に対して、たとえばJPEG方式で所定の圧縮比率の画像圧縮処理を行う。表示画像作成回路15は、撮像画像を液晶モニタ16に表示させるための表示データを作成する。   The image compression circuit 13 performs image compression processing at a predetermined compression ratio on the image signal processed by the image processing circuit 12 by, for example, the JPEG method. The display image creation circuit 15 creates display data for displaying the captured image on the liquid crystal monitor 16.

バッファメモリ14は、画像処理前後および画像処理途中のデータを一時的に格納する他、記録媒体30へ記録する前の画像ファイルを格納したり、記録媒体30から読み出した画像ファイルを格納したりするために使用される。   The buffer memory 14 temporarily stores data before and after image processing and during image processing, stores an image file before being recorded on the recording medium 30, and stores an image file read from the recording medium 30. Used for.

記録媒体30は、電子カメラ1に対して着脱可能なメモリカードなどで構成される。記録媒体30には、メインCPU11からの指示によって撮影画像のデータおよびその情報を含む画像ファイルが記録される。記録媒体30に記録された画像ファイルは、メインCPU11からの指示によって読み出しが可能である。   The recording medium 30 includes a memory card that can be attached to and detached from the electronic camera 1. The recording medium 30 records captured image data and an image file including the information in accordance with an instruction from the main CPU 11. The image file recorded on the recording medium 30 can be read by an instruction from the main CPU 11.

フラッシュメモリ19は、メインCPU11が実行するプログラムや、メインCPU11が行う処理に必要なデータなどが格納される。フラッシュメモリ19が格納するプログラムやデータの内容は、メインCPU11からの指示によって追加、変更が可能に構成されている。   The flash memory 19 stores a program executed by the main CPU 11, data necessary for processing performed by the main CPU 11, and the like. The contents of programs and data stored in the flash memory 19 can be added and changed by an instruction from the main CPU 11.

操作部材17は、電子カメラ1の各種ボタンやスイッチ類を含み、レリーズボタンの押下操作、モード切替スイッチの切換操作など、各操作部材の操作内容に応じた操作信号をメインCPU11へ出力する。   The operation member 17 includes various buttons and switches of the electronic camera 1, and outputs an operation signal corresponding to the operation content of each operation member, such as a release button pressing operation and a mode switching switch switching operation, to the main CPU 11.

GPS装置18は、メインCPU11からの指示に応じてGPS衛星からの電波を受信し、受信信号をメインCPU11へ出力する。メインCPU11は、GPS装置18からの受信信号に基づいて所定の演算を行い、電子カメラ1の測位情報(緯度、経度、高度)を検出する。   The GPS device 18 receives radio waves from GPS satellites in response to instructions from the main CPU 11 and outputs received signals to the main CPU 11. The main CPU 11 performs a predetermined calculation based on the received signal from the GPS device 18 and detects the positioning information (latitude, longitude, altitude) of the electronic camera 1.

電子カメラ1は、撮影時に撮像素子22で取得された画像信号に所定の画像処理および圧縮処理を施し、圧縮処理後の画像データに、測位情報、および当該撮影画像に関する情報などを含む付加情報を付加した画像ファイルを生成するように構成されている。具体的には、JPEG形式の画像データを画像データ部に格納し、付加情報を付加情報部に格納したExif形式の画像ファイルを生成する。Exif形式の画像ファイルは、JPEG画像フォーマットの画像データ内にサムネイル画像や付加情報データを埋め込むようにしたものである。生成した画像ファイルは、記録媒体30に格納される。   The electronic camera 1 performs predetermined image processing and compression processing on the image signal acquired by the image sensor 22 at the time of shooting, and adds additional information including positioning information and information about the shot image to the image data after the compression processing. It is configured to generate an added image file. Specifically, an image file in Exif format is generated in which image data in JPEG format is stored in the image data portion and additional information is stored in the additional information portion. The Exif format image file is obtained by embedding thumbnail images and additional information data in image data in the JPEG image format. The generated image file is stored in the recording medium 30.

また、電子カメラ1は撮影モードと再生モードとが切替え可能に構成される。撮影モードは、被写体像を撮影し、撮影画像のデータを記録媒体30に画像ファイルとして保存する動作モードである。再生モードは、撮影済みの画像データを記録媒体30から読み出すなどして、画像データによる再生画像を液晶モニタ16に表示するモードである。   Further, the electronic camera 1 is configured to be able to switch between a shooting mode and a playback mode. The shooting mode is an operation mode in which a subject image is shot and data of the shot image is stored in the recording medium 30 as an image file. The reproduction mode is a mode in which the reproduced image based on the image data is displayed on the liquid crystal monitor 16 by reading the captured image data from the recording medium 30.

<撮影画像のイベント判定>
本実施形態の電子カメラ1は、撮影画像をグルーピングする機能を備える。具体的には、記録媒体30に記録済みの画像ファイルに対してイベント判定を行い、判定後の画像ファイルをイベントごとに設けたフォルダ内に格納する。なお、画像ファイルをイベントごとに設けたフォルダ内に格納しなくても、画像ファイルの管理テーブルを作成し、該テーブルに画像ファイルに対するイベント情報を格納するようにしてもよい。
<Event determination of captured images>
The electronic camera 1 of this embodiment has a function of grouping captured images. Specifically, event determination is performed on an image file recorded on the recording medium 30, and the image file after determination is stored in a folder provided for each event. Even if the image file is not stored in the folder provided for each event, an image file management table may be created and event information for the image file may be stored in the table.

図2は、メインCPU11が実行するイベント判定処理の流れを説明するフローチャートである。メインCPU11は、操作部材17からイベント判定処理の実行を指示する操作信号が入力されると、図2による処理を開始する。   FIG. 2 is a flowchart for explaining the flow of event determination processing executed by the main CPU 11. When the operation signal instructing execution of the event determination process is input from the operation member 17, the main CPU 11 starts the process illustrated in FIG. 2.

図2のステップS10において、メインCPU11は、学習するか否かを判定する。メインCPU11は、操作部材17から学習指示が入力された場合にステップS10を肯定判定してステップS40へ進む。メインCPU11は、操作部材17から学習指示が入力されない場合には、ステップS10を否定判定してステップS20へ進む。   In step S10 of FIG. 2, the main CPU 11 determines whether or not to learn. When the learning instruction is input from the operation member 17, the main CPU 11 makes a positive determination in step S10 and proceeds to step S40. When the learning instruction is not input from the operation member 17, the main CPU 11 makes a negative determination in step S10 and proceeds to step S20.

ステップS20において、メインCPU11は、イベント判定するか否かを判定する。メインCPU11は、操作部材17からイベント判定指示が入力された場合にステップS20を肯定判定してステップS30へ進む。メインCPU11は、操作部材17からイベント判定指示が入力されない場合には、ステップS20を否定判定して図2による処理を終了する。   In step S20, the main CPU 11 determines whether or not to determine an event. When the event determination instruction is input from the operation member 17, the main CPU 11 makes a positive determination in step S20 and proceeds to step S30. When the event determination instruction is not input from the operation member 17, the main CPU 11 makes a negative determination in step S <b> 20 and ends the process of FIG. 2.

ステップS30において、メインCPU11は、イベント判定処理を行って図2による処理を終了する。イベント判定処理の詳細については後述する。上述したステップS10を否定判定して進むステップS40において、メインCPU11は、学習処理を行って図2による処理を終了する。学習処理の詳細については後述する。   In step S30, the main CPU 11 performs an event determination process, and ends the process of FIG. Details of the event determination process will be described later. In step S40 that proceeds with a negative determination in step S10 described above, the main CPU 11 performs a learning process and ends the process of FIG. Details of the learning process will be described later.

<イベント判定処理>
画像に対するイベント判定処理(S30)の詳細について、図3に例示するフローチャートを参照して説明する。メインCPU11は、たとえば、イベント判定の対象とする画像ファイルのデータを記録媒体30から読出してバッファメモリ14に展開し、図3による処理を起動させる。図3のステップS31において、メインCPU11は、1枚の画像から画像の特徴量を算出してステップS32へ進む。算出する特徴量は、たとえば、画像の所定領域を構成する画素データに基づいて算出される色情報、鮮鋭度情報、質感情報、模様情報、および明るさ情報などである。また、画像サイズやカラーヒストグラムの情報を特徴量として扱ってもよい。さらに、画像に含まれている「顔」の数や「顔」から推定される年齢、性別認識情報を特徴量に含めてもよい。特徴量算出は公知技術であるため、本説明では特徴量算出に関する詳細な説明を省略する。
<Event determination processing>
Details of the event determination process (S30) for an image will be described with reference to the flowchart illustrated in FIG. For example, the main CPU 11 reads the image file data to be subject to event determination from the recording medium 30 and develops it in the buffer memory 14 to activate the processing shown in FIG. In step S31 of FIG. 3, the main CPU 11 calculates the feature amount of the image from one image and proceeds to step S32. The feature amount to be calculated is, for example, color information, sharpness information, texture information, pattern information, brightness information, and the like calculated based on pixel data that constitutes a predetermined area of the image. Further, image size and color histogram information may be handled as feature amounts. Further, the number of “faces” included in the image, age estimated from “faces”, and gender recognition information may be included in the feature amount. Since the feature amount calculation is a known technique, a detailed description of feature amount calculation is omitted in this description.

ステップS32において、メインCPU11は、あらかじめイベントごとに作成され、フラッシュメモリ19内に記録されている識別器を順番に用いて、各イベントらしさを表す確率(スコア)を算出してステップS33へ進む。イベントらしさを表すスコアは、対応するイベント識別器によって表される特徴量空間において空間を仕切る境界(たとえば、イベント「運動会」に対応する領域と、「非運動会」に対応する領域との境界)と、ステップS31において算出された特徴量との距離に対応する。ある画像から算出した特徴量が、「運動会」用のイベント識別器によって表される特徴量空間で「運動会」に対応する特徴量領域の奥に位置し、「非運動会」に対応する特徴量領域までの距離が長ければ、「運動会」らしさのスコアが高い。一方、画像から算出した特徴量が、「運動会」に対応する特徴量領域の端に位置し、「非運動会」に対応する特徴量領域までの距離が短ければ、「運動会」らしさのスコアが低い。メインCPU11は、上記距離に応じてスコアを算出する。   In step S32, the main CPU 11 calculates the probability (score) representing the likelihood of each event using the discriminators created in advance for each event and recorded in the flash memory 19, and the process proceeds to step S33. The score representing the event likeness is a boundary that partitions the space in the feature space represented by the corresponding event identifier (for example, a boundary between an area corresponding to the event “athletic meet” and an area corresponding to the “non-athletic meet”). This corresponds to the distance from the feature amount calculated in step S31. The feature amount calculated from a certain image is located behind the feature amount region corresponding to “Athletic meet” in the feature amount space represented by the event identifier for “athletic meet”, and the feature amount region corresponding to “non-athletic meet” If the distance to is long, the score of “Athletic meet” is high. On the other hand, if the feature amount calculated from the image is located at the end of the feature amount region corresponding to “athletic meet” and the distance to the feature amount region corresponding to “non-athletic meet” is short, the score of “athletic meet” likelihood is low . The main CPU 11 calculates a score according to the distance.

ステップS33において、メインCPU11は、同一のイベントに対して複数の識別器が存在するか否かを判定する。メインCPU11は、同一イベントに対する他の識別器がフラッシュメモリ19内に存在する場合にステップS33を肯定判定してステップS36へ進む。メインCPU11は、同一イベントに対する他の識別器がフラッシュメモリ19内に存在しない場合にはステップS33を否定判定し、ステップS34へ進む。   In step S33, the main CPU 11 determines whether or not there are a plurality of discriminators for the same event. When there is another discriminator for the same event in the flash memory 19, the main CPU 11 makes a positive determination in step S33 and proceeds to step S36. When there is no other discriminator for the same event in the flash memory 19, the main CPU 11 makes a negative determination in step S33 and proceeds to step S34.

ステップS34において、メインCPU11は、全てのイベント判定対象画像に対して処理が終わったか否かを判定する。メインCPU11は、全てのイベント判定画像に対して特徴量算出、およびイベントらしさ(スコア)Pの算出を行った場合にステップS34を肯定判定してステップS35へ進む。メインCPU11は、特徴量算出、およびイベントらしさ(スコア)Pの算出を行っていないイベント判定画像が存在する場合にステップS34を否定判定してステップS31へ戻る。ステップS31へ戻る場合は、他のイベント判定画像に対する処理を繰り返す。   In step S34, the main CPU 11 determines whether or not processing has been completed for all event determination target images. The main CPU 11 makes a positive determination in step S34 and proceeds to step S35 when the feature amount calculation and the event likelihood (score) P are calculated for all event determination images. The main CPU 11 makes a negative determination in step S34 and returns to step S31 when there is an event determination image for which feature amount calculation and event likelihood (score) P are not calculated. When returning to step S31, the process with respect to another event determination image is repeated.

ステップS35において、メインCPU11は、最もよいスコアに対応するイベントに判定対象画像が該当すると判定して図3による処理を終了する。   In step S35, the main CPU 11 determines that the determination target image corresponds to the event corresponding to the best score, and ends the process of FIG.

ステップS33を肯定判定して進むステップS36において、メインCPU11は、同一イベントに対する複数の識別器の中から、イベント判定に用いる識別器を決定してステップS34へ進む。識別器の決定は、後述する識別器特性データを使って識別器の優位度を比較することにより、判定精度が高い識別器を決める。   In step S36, which proceeds after making an affirmative decision in step S33, the main CPU 11 determines a discriminator to be used for event judgment from among a plurality of discriminators for the same event, and proceeds to step S34. In the determination of the discriminator, the discriminator having a high determination accuracy is determined by comparing the superiority of the discriminator using discriminator characteristic data described later.

識別器決定処理の詳細について、図4に例示するフローチャートを参照して説明する。図4のステップS36Aにおいて、メインCPU11は、(N1×P1)と(N2×P2)とを比較するための演算を行ってステップS36Bへ進む。P1は、たとえば「運動会」用のイベント識別器1を用いて算出したスコアであり、P2は、たとえば「運動会」用のイベント識別器2を用いて算出したスコアである。また、N1は、イベント識別器1の画像数精度データとし、N2は、イベント識別器2の画像数精度データとする。画像数精度データは、識別器の特性データの1つであり、当該識別器の生成(すなわち学習)に用いた画像の数と、その識別器によるイベント判定精度との関係を示すデータである。図5は、画像数精度データを例示する図である。メインCPU11は、後述する学習処理(図6)における識別器特性データの作成時に画像数精度データを算出し、フラッシュメモリ19へ記録しておく。   The details of the discriminator determination process will be described with reference to the flowchart illustrated in FIG. In step S36A of FIG. 4, the main CPU 11 performs an operation for comparing (N1 × P1) and (N2 × P2), and proceeds to step S36B. For example, P1 is a score calculated using the event identifier 1 for “athletic day”, and P2 is a score calculated using the event identifier 2 for “athletic day”, for example. N1 is the image number accuracy data of the event identifier 1, and N2 is the image number accuracy data of the event identifier 2. The image number accuracy data is one of the characteristic data of the discriminator, and is data indicating the relationship between the number of images used for generation (that is, learning) of the discriminator and the event determination accuracy by the discriminator. FIG. 5 is a diagram illustrating image number accuracy data. The main CPU 11 calculates image number accuracy data at the time of creating discriminator characteristic data in a learning process (FIG. 6) described later, and records it in the flash memory 19.

ステップS36Bにおいて、メインCPU11は、(N1×P1)>(N2×P2)が成立するか否かを判定する。メインCPU11は、(N1×P1)>(N2×P2)が成立する場合にステップS36Bを肯定判定してステップS36Cへ進み、(N1×P1)>(N2×P2)が成立しない場合にはステップS36Bを否定判定してステップS36Dへ進む。   In step S36B, the main CPU 11 determines whether or not (N1 × P1)> (N2 × P2) is satisfied. The main CPU 11 makes an affirmative decision in step S36B when (N1 × P1)> (N2 × P2) is satisfied, and proceeds to step S36C. If (N1 × P1)> (N2 × P2) is not satisfied, the main CPU 11 performs a step. A negative determination is made in S36B, and the process proceeds to step S36D.

ステップS36Cにおいて、メインCPU11は、イベント識別器1を選択して図4による処理を終了する。ステップS36Dにおいて、メインCPU11は、イベント識別器2を選択して図4による処理を終了する。   In step S36C, the main CPU 11 selects the event discriminator 1 and ends the process shown in FIG. In step S36D, the main CPU 11 selects the event discriminator 2 and ends the process shown in FIG.

なお、上述したステップS36Aにおいて、単にN1とN2との大小関係に基づいて判定を行うようにしてもよい。この場合は、N1およびN2のうち大きい方、すなわち、イベント判定精度が高い方のイベント識別器を選択する。   Note that in step S36A described above, the determination may be made simply based on the magnitude relationship between N1 and N2. In this case, the larger one of N1 and N2, that is, the event discriminator having the higher event determination accuracy is selected.

<学習処理>
上述したイベント識別器は、サンプル画像(学習用画像)データに基づいた学習によって生成する。学習処理(S40)の詳細について、図6に例示するフローチャートを参照して説明する。メインCPU11は、学習用画像の保存場所(たとえば、メモリアドレス)および当該画像のイベント(たとえば、運動会)を示す情報を入力して図6による処理を起動させる。
<Learning process>
The event discriminator described above is generated by learning based on sample image (learning image) data. The details of the learning process (S40) will be described with reference to the flowchart illustrated in FIG. The main CPU 11 inputs information indicating the storage location (for example, memory address) of the learning image and the event (for example, athletic meet) of the image, and starts the processing of FIG.

のステップS41において、メインCPU11は、1枚の学習用画像から特徴量を算出する。算出する特徴量は、入力されたイベントを示す情報に合致する特徴量であり、たとえば「運動会」用のイベント識別器に対応するものである。特徴量の算出は、図3のステップS31の場合と同様に行う。
In step S41 of FIG. 6 , the main CPU 11 calculates a feature amount from one learning image. The feature quantity to be calculated is a feature quantity that matches the information indicating the input event, and corresponds to, for example, an event identifier for “athletic meet”. The feature amount is calculated in the same manner as in step S31 in FIG.

ステップS42において、メインCPU11は、学習用画像のファイルの付加情報データから当該画像の撮影時刻、撮影場所などを示す特性情報をフラッシュメモリ19に保持してステップS43へ進む。   In step S42, the main CPU 11 holds characteristic information indicating the shooting time, shooting location, and the like of the image from the additional information data of the learning image file, and proceeds to step S43.

ステップS43において、メインCPU11は、バッファメモリ14に展開している学習用画像の全てについて特徴量算出、特性情報保持を終了したか否かを判定する。メインCPU11は、全ての学習用画像を対象に処理した場合にステップS43を肯定判定してステップS44へ進む。メインCPU11は、全ての学習用画像についての処理を終了していない場合にはステップS43を否定判定し、ステップS41へ戻る。ステップS41へ戻る場合は、他の学習用画像に対して上述した処理を繰り返す。   In step S43, the main CPU 11 determines whether or not the feature amount calculation and the characteristic information holding have been completed for all the learning images developed in the buffer memory 14. When the main CPU 11 has processed all the learning images, the main CPU 11 makes an affirmative decision in step S43 and proceeds to step S44. If the processing for all the learning images has not been completed, the main CPU 11 makes a negative determination in step S43 and returns to step S41. When returning to step S41, the above-described processing is repeated for the other learning images.

ステップS44において、メインCPU11は識別器を作成する。具体的には、SVM(Support Vector Machine)手法を用いてイベントに属する画像の特徴量と、該イベント属さない画像の特徴量をもとに、識別器を作成し、フラッシュメモリ19に保存してステップS45へ進む。   In step S44, the main CPU 11 creates a discriminator. Specifically, a discriminator is created based on the feature amount of an image belonging to an event and the feature amount of an image not belonging to the event using an SVM (Support Vector Machine) method, and is stored in the flash memory 19. Proceed to step S45.

ステップS45において、メインCPU11は識別器特性データを作成して図6による処理を終了する。識別器特性データの作成処理の詳細について、図7に例示するフローチャートを参照して説明する。   In step S45, the main CPU 11 creates discriminator characteristic data and ends the processing shown in FIG. Details of the process of creating the discriminator characteristic data will be described with reference to the flowchart illustrated in FIG.

図7のステップS45Aにおいて、メインCPU11は、学習用画像の画像数から識別器の画像数精度データを算出してステップS45Bへ進む。画像数精度データは図5に例示した特性を有している。一般に、イベント判定精度は、その識別器の作成に用いられた学習用画像の画像数が所定枚数(たとえば500枚)に達すると飽和し、以降は画像数を増やしてもイベント判定精度はほぼ一定になるという共通の傾向を有する。   In step S45A of FIG. 7, the main CPU 11 calculates the image number accuracy data of the discriminator from the number of images of learning images, and proceeds to step S45B. The image number accuracy data has the characteristics illustrated in FIG. In general, the event determination accuracy is saturated when the number of learning images used to create the discriminator reaches a predetermined number (for example, 500), and thereafter the event determination accuracy is substantially constant even when the number of images is increased. Have a common tendency to become.

画像数精度データはイベント識別器ごとに算出する。そして、算出した画像数精度データはフラッシュメモリ19に記録しておく。なお、画像数精度データは関数式として表してもよいし、ヒストグラムでもテーブルデータでもよい。本実施形態では、イベント識別器の作成に用いられた学習用画像の画像数が所定数(たとえば10枚)に達した場合に、そのイベント識別器を有効(イベント判定に使用可)にする。学習用画像の画像数が所定数に満たないイベント識別器は、フラッシュメモリ19に記録しておくものの、イベント判定には使用しない。学習処理によって使用した学習用画像の画像数が所定数に達した場合は、それ以降のイベント判定時に当該イベント識別器を有効として使用を許可する。   Image number accuracy data is calculated for each event classifier. The calculated image number accuracy data is recorded in the flash memory 19. The image number accuracy data may be expressed as a function expression, or may be a histogram or table data. In the present embodiment, when the number of learning images used for creating the event discriminator reaches a predetermined number (for example, 10), the event discriminator is enabled (can be used for event determination). Event discriminators in which the number of learning images is less than a predetermined number are recorded in the flash memory 19 but are not used for event determination. When the number of learning images used in the learning process reaches a predetermined number, the event discriminator is validated and allowed to be used at the time of subsequent event determination.

ステップS45Bにおいて、メインCPU11は、ステップS42においてフラッシュメモリ19に記録した撮影時刻を示す特性情報を用いて、撮影日時の分布を示す情報(たとえばヒストグラム)を算出し、図7による処理を終了する。   In step S45B, the main CPU 11 uses the characteristic information indicating the shooting time recorded in the flash memory 19 in step S42 to calculate information (for example, a histogram) indicating the shooting date / time distribution, and ends the process of FIG.

以上説明した実施形態によれば、以下の作用効果が得られる。
(1)電子カメラ1のメインCPU11は、イベント判定対象画像の特徴量を算出し、算出した特徴量とイベント判定用の識別器との比較によってイベント判定対象画像に対するイベント判定を行い、同一イベントに対して識別器が複数存在する場合に該識別器ごとの特性を示す特性データに基づいて代表の識別器を1つ決定し、決定した代表の識別器を用いるように制御した。これにより、たとえば、同一イベントに対する複数の識別器で複数回の判定処理を行う場合に比べて、処理の負担を軽減することができる。
According to the embodiment described above, the following effects can be obtained.
(1) The main CPU 11 of the electronic camera 1 calculates the feature amount of the event determination target image, performs event determination on the event determination target image by comparing the calculated feature amount with the event determination discriminator, and sets the same event. On the other hand, when there are a plurality of discriminators, one representative discriminator is determined based on the characteristic data indicating the characteristics of each discriminator, and the determined representative discriminator is controlled. Accordingly, for example, the processing load can be reduced as compared with a case where a plurality of determination processes are performed with a plurality of discriminators for the same event.

(2)メインCPU11はさらに、学習用画像の特徴量を算出し、学習用画像の特徴量に基づいてイベント判定用の識別器を生成し、生成したイベント判定用の識別器の特性を示す特性データを取得するようにした。これにより、新たな識別器を追加生成したり、既存の識別器に新たな特徴量を加えて学習させたりすることが容易である。既存の識別器を学習させることは、該識別器によるイベント判定精度の向上につながる。 (2) The main CPU 11 further calculates a feature amount of the learning image, generates a discriminator for event determination based on the feature amount of the learning image, and indicates characteristics of the generated event determination discriminator The data was acquired. Accordingly, it is easy to additionally generate a new classifier or to learn by adding a new feature amount to an existing classifier. Learning an existing classifier leads to an improvement in event determination accuracy by the classifier.

(3)特性データに識別器ごとの判定精度を示す情報を含め、判定精度の高さに基づいて代表の識別器を決定するようにしたので、同一イベントに対して識別器が複数存在する場合に、より優れた識別器により判定を行わせることができる。 (3) When the characteristic data includes information indicating the determination accuracy for each classifier and the representative classifier is determined based on the high level of determination accuracy, there are a plurality of classifiers for the same event. In addition, it is possible to make a determination by a better classifier.

(4)学習用画像の数が所定数を超えている識別器を有効とし、有効とした識別器の中から代表の識別器を決定するようにしたので、学習用の画像数が少なくて判定精度不足が懸念される場合は、当該識別器以外の他の識別器を用いることによって判定精度不足のおそれを解消できる。 (4) Since the classifier having the number of learning images exceeding the predetermined number is made valid and the representative classifier is determined from the validated classifiers, the determination is made with a small number of learning images. If there is a concern about insufficient accuracy, the risk of insufficient determination accuracy can be resolved by using another classifier other than the classifier.

(変形例1)
上記図7において、識別器特性データとして画像数精度データおよび撮影日時分布データの双方を算出する例を説明したが、どちらか一つを算出するようにしてもよい。また、上記二つの他に、画像が有する色の特性を示すプロファイル情報を算出してもよい。さらにまた、ステップS42(図6)においてフラッシュメモリ19に記録した撮影場所を示す特性情報を用いて、撮影場所の分布を示す情報を算出してもよい。
(Modification 1)
In FIG. 7, the example in which both the image number accuracy data and the shooting date / time distribution data are calculated as the discriminator characteristic data has been described. However, either one may be calculated. In addition to the above two, profile information indicating the color characteristics of the image may be calculated. Furthermore, information indicating the distribution of shooting locations may be calculated using the characteristic information indicating the shooting locations recorded in the flash memory 19 in step S42 (FIG. 6).

(変形例2)
電子カメラ1が外部機器との間で通信可能に構成されている場合には、外部機器から学習用画像に関連する情報を取得してもよい。たとえば、学習用画像の撮影日時の情報を用いて、撮影日時に対応する天気情報を取得してフラッシュメモリ19に記録する。これにより、識別器特性データに撮影時の天気分布情報を加えられる。
(Modification 2)
When the electronic camera 1 is configured to be able to communicate with an external device, information related to the learning image may be acquired from the external device. For example, weather information corresponding to the shooting date and time is acquired and recorded in the flash memory 19 using information on the shooting date and time of the learning image. Thereby, the weather distribution information at the time of photographing can be added to the discriminator characteristic data.

(変形例3)
電子カメラ1が外部機器を介してネットワーク間で通信可能に構成されている場合には、趣味や嗜好が共通するユーザー同士の間でイベント識別器を共有し、複数のユーザーによってイベント識別器を学習させるようにしてもよい。
(Modification 3)
When the electronic camera 1 is configured to be able to communicate between networks via an external device, the event identifier is shared between users who share a common hobby and preference, and the event identifier is learned by multiple users. You may make it make it.

(変形例4)
識別器決定処理を以下のように行ってもよい。図8は、変形例4による識別器決定処理を説明するフローチャートである。図8のステップS36Eにおいて、メインCPU11は、イベント判定対象画像のファイルの付加情報データから当該画像の撮影日時を示す情報を抽出してステップS36Fへ進む。
(Modification 4)
The classifier determination process may be performed as follows. FIG. 8 is a flowchart for explaining a classifier determination process according to the fourth modification. In step S36E of FIG. 8, the main CPU 11 extracts information indicating the shooting date and time of the image from the additional information data of the event determination target image file, and proceeds to step S36F.

ステップS36Fにおいて、メインCPU11は、イベント判定用画像の全てについて撮影日時の情報取得を終了したか否かを判定する。メインCPU11は、全てのイベント判定用画像を対象に処理した場合にステップS36Fを肯定判定してステップS36Gへ進む。メインCPU11は、全てのイベント判定用画像についての処理を終了していない場合にはステップS36Fを否定判定し、ステップS36Eへ戻る。ステップS36Eへ戻る場合は、他のイベント判定用画像に対して上述した処理を繰り返す。   In step S36F, the main CPU 11 determines whether or not acquisition of shooting date / time information has been completed for all event determination images. When the main CPU 11 has processed all the event determination images, the main CPU 11 makes a positive determination in step S36F and proceeds to step S36G. If the processing for all the event determination images has not been completed, the main CPU 11 makes a negative determination in step S36F and returns to step S36E. When returning to step S36E, the above-described processing is repeated for other event determination images.

ステップS36Gにおいて、メインCPU11は、イベント判定用画像の撮影日時の分布を示す情報(たとえばヒストグラム)を算出する。メインCPU11はさらに、ステップS45Bで算出されている「運動会」用のイベント識別器1に関する撮影日時の分布(たとえばヒストグラム)との間で面積の論理積(すなわち、撮影日時が共通する画像数)を算出してステップS36Hへ進む。ここで、(算出した面積)/(イベント判定用画像の分布面積)をK1とする。K1は、イベント判定用画像の画像のうち、イベント識別器1の学習用画像で撮影頻度が高い日時に撮影された画像の数を表す。   In step S <b> 36 </ b> G, the main CPU 11 calculates information (for example, a histogram) indicating the shooting date / time distribution of the event determination image. The main CPU 11 further calculates a logical product of areas (that is, the number of images having the same shooting date / time) with the shooting date / time distribution (for example, histogram) related to the “athletic event” event identifier 1 calculated in step S45B. Calculate and proceed to step S36H. Here, (calculated area) / (distribution area of the event determination image) is K1. K1 represents the number of images taken on the date and time when the shooting frequency is high in the learning image of the event discriminator 1 among the images of the event determination images.

ステップS36Hにおいて、メインCPU11は、ステップS45Bで算出されている「運動会」用のイベント識別器2に関する撮影日時の分布(たとえばヒストグラム)との間で面積の論理積(すなわち、撮影日時が共通する画像数)を算出してステップS36Aへ進む。ここで、(算出した面積)/(イベント判定用画像の分布面積)をK2とする。K2は、イベント判定用画像の画像のうち、イベント識別器2の学習用画像で撮影頻度が高い日時に撮影された画像の数を表す。   In step S36H, the main CPU 11 performs a logical AND of areas (that is, images having the same shooting date and time) with the shooting date and time distribution (for example, histogram) related to the “athletic event” event identifier 2 calculated in step S45B. Number) is calculated and the process proceeds to step S36A. Here, (calculated area) / (distribution area of the event determination image) is K2. K2 represents the number of images taken on the date and time when the shooting frequency is high in the learning image of the event discriminator 2 among the images of the event determination images.

ステップS36Iにおいて、メインCPU11は、(K1×P1)と(K2×P2)とを比較するための演算を行ってステップS36Jへ進む。K1およびK2は上述した通りである。P1は、イベント識別器1を用いて算出したスコアであり、P2は、イベント識別器2を用いて算出したスコアである。   In step S36I, the main CPU 11 performs an operation for comparing (K1 × P1) and (K2 × P2), and proceeds to step S36J. K1 and K2 are as described above. P1 is a score calculated using the event discriminator 1, and P2 is a score calculated using the event discriminator 2.

ステップS36Jにおいて、メインCPU11は、(K1×P1)>(K2×P2)が成立するか否かを判定する。メインCPU11は、(K1×P1)>(K2×P2)が成立する場合にステップS36Jを肯定判定してステップS36Cへ進み、(K1×P1)>(K2×P2)が成立しない場合にはステップS36Jを否定判定してステップS36Dへ進む。   In step S36J, the main CPU 11 determines whether or not (K1 × P1)> (K2 × P2) is satisfied. The main CPU 11 makes an affirmative decision in step S36J when (K1 × P1)> (K2 × P2) is satisfied, and proceeds to step S36C. If (K1 × P1)> (K2 × P2) is not satisfied, the main CPU 11 performs a step. A negative determination is made in S36J, and the process proceeds to step S36D.

ステップS36Cにおいて、メインCPU11は、イベント識別器1を選択して図8による処理を終了する。ステップS36Dにおいて、メインCPU11は、イベント識別器2を選択して図8による処理を終了する。   In step S36C, the main CPU 11 selects the event discriminator 1 and ends the process shown in FIG. In step S36D, the main CPU 11 selects the event discriminator 2 and ends the process shown in FIG.

なお、ステップS36Jにおいて、単にK1とK2との大小関係に基づいて判定を行うようにしてもよい。この場合は、K1およびK2のうち大きい方、すなわち、イベント識別器の生成に用いられた学習用画像の撮影頻度が高い撮影日時が、イベント判定画像の撮影日時と共通する場合に、共通する画像数が多い方のイベント識別器を選ぶ。たとえば、「運動会」は昼間に開催されるのが通常なので、昼間の時間帯での撮影頻度が高い学習用画像を用いて生成されている識別器を選ぶことができる。   In step S36J, the determination may be made simply based on the magnitude relationship between K1 and K2. In this case, the larger of K1 and K2, that is, the common image when the photographing date and time of the learning image used for generating the event identifier is the same as the photographing date and time of the event determination image. Choose the event identifier with the larger number. For example, since an “athletic meet” is usually held in the daytime, it is possible to select a discriminator that is generated using a learning image that is frequently photographed in the daytime period.

また、(K1×P1)と(K2×P2)の平均を最終的な「運動会」らしさとし、他のイベントについても同様にイベントらしさ(スコア)を算出して比較処理を行うようにしてもよい。   Further, the average of (K1 × P1) and (K2 × P2) may be regarded as the final “athletic meet”, and the event likelihood (score) may be similarly calculated for other events to perform comparison processing. .

(変形例5)
識別器決定処理を以下のように行ってもよい。図9は、変形例5による識別器決定処理を説明するフローチャートである。図8のフローチャートと比べて、ステップS36KおよびステップS36Lを行う点が異なるので、これらの相違点を中心に説明する。
(Modification 5)
The classifier determination process may be performed as follows. FIG. 9 is a flowchart for explaining a classifier determination process according to the fifth modification. Compared with the flowchart of FIG. 8, steps S36K and S36L are different, and the difference will be mainly described.

図9において、メインCPU11はステップS36Hの次にステップS36Kへ進む。メインCPU11は、{(N1×C+K1×D)×P1}と{(N2×C+K2×D)×P2}とを比較するための演算を行ってステップS36Lへ進む。N1はイベント識別器1の画像数精度データであり、N2はイベント識別器2の画像数精度データである。Cは、イベント識別器1の重みとし、Dは、イベント識別器2の重みとする。これらの重み付けデータは、それぞれイベント識別器の特性データに含まれている。K1およびK2は上述した通りである。P1は、イベント識別器1を用いて算出したスコアであり、P2は、イベント識別器2を用いて算出したスコアである。   In FIG. 9, the main CPU 11 proceeds to step S36K after step S36H. The main CPU 11 performs an operation for comparing {(N1 × C + K1 × D) × P1} and {(N2 × C + K2 × D) × P2} and proceeds to step S36L. N1 is the image number accuracy data of the event identifier 1, and N2 is the image number accuracy data of the event identifier 2. C is the weight of the event identifier 1, and D is the weight of the event identifier 2. Each of these weighting data is included in the characteristic data of the event identifier. K1 and K2 are as described above. P1 is a score calculated using the event discriminator 1, and P2 is a score calculated using the event discriminator 2.

ステップS36Lにおいて、メインCPU11は、{(N1×C+K1×D)×P1}が{(N2×C+K2×D)×P2}より大か否かを判定する。メインCPU11は、{(N1×C+K1×D)×P1}>{(N2×C+K2×D)×P2}が成立する場合にステップS36Lを肯定判定してステップS36Cへ進み、{(N1×C+K1×D)×P1}>{(N2×C+K2×D)×P2}が成立しない場合にはステップS36Lを否定判定してステップS36Dへ進む。   In step S36L, the main CPU 11 determines whether {(N1 × C + K1 × D) × P1} is larger than {(N2 × C + K2 × D) × P2}. When {(N1 × C + K1 × D) × P1}> {(N2 × C + K2 × D) × P2} holds, the main CPU 11 makes an affirmative decision in step S36L and proceeds to step S36C, and {(N1 × C + K1 × If D) × P1}> {(N2 × C + K2 × D) × P2} is not satisfied, a negative determination is made in step S36L to proceed to step S36D.

ステップS36Cにおいて、メインCPU11は、イベント識別器1を選択して図9による処理を終了する。ステップS36Dにおいて、メインCPU11は、イベント識別器2を選択して図9による処理を終了する。   In step S36C, the main CPU 11 selects the event discriminator 1 and ends the process shown in FIG. In step S36D, the main CPU 11 selects the event discriminator 2 and ends the process shown in FIG.

なお、ステップS36Kにおいて、単に(N1×C+K1×D)と(N2×C+K2×D)との大小関係に基づいて、大きい方の識別器を選ぶように判定してもよい。   In step S36K, it may be determined that the larger discriminator is selected based on the magnitude relationship between (N1 × C + K1 × D) and (N2 × C + K2 × D).

(変形例6)
以上の説明では、電子カメラ1内で画像をグルーピングする例を説明したが、電子カメラ1の代わりにフォトフレームやフォトビューワなどの電子機器で行うようにしてもよい。
(Modification 6)
In the above description, an example in which images are grouped in the electronic camera 1 has been described. However, the electronic camera 1 may be replaced with an electronic device such as a photo frame or a photo viewer.

(変形例7)
図2−図9による処理を行う画像処理プログラムを図10に示すコンピュータ装置10に実行させることにより、画像処理装置を構成してもよい。画像処理プログラムをパーソナルコンピュータ10に取込んで使用する場合には、パーソナルコンピュータ10のデータストレージ装置にプログラムをローディングした上で、当該プログラムを実行させることによって画像をグルーピングする画像処理装置として使用する。
(Modification 7)
The image processing apparatus may be configured by causing the computer apparatus 10 illustrated in FIG. 10 to execute an image processing program for performing the processes illustrated in FIGS. When an image processing program is taken into the personal computer 10 and used, the program is loaded into a data storage device of the personal computer 10 and then used as an image processing device for grouping images by executing the program.

パーソナルコンピュータ10に対するプログラムのローディングは、プログラムを格納したCD−ROMなどの記録媒体104をパーソナルコンピュータ10にセットして行ってもよいし、ネットワークなどの通信回線101を経由する方法でパーソナルコンピュータ10へローディングしてもよい。通信回線101を経由する場合は、通信回線101に接続されたサーバー(コンピュータ)102のハードディスク装置103などにプログラムを格納しておく。画像処理プログラムは、記録媒体104や通信回線101を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。   The loading of the program to the personal computer 10 may be performed by setting a recording medium 104 such as a CD-ROM storing the program in the personal computer 10 or by a method via the communication line 101 such as a network. You may load. When passing through the communication line 101, the program is stored in the hard disk device 103 of the server (computer) 102 connected to the communication line 101. The image processing program can be supplied as various types of computer program products such as provision via the recording medium 104 or the communication line 101.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

1…電子カメラ
10…コンピュータ
11…メインCPU
14…バッファメモリ
17…操作部材
19…フラッシュメモリ
30…記録媒体
DESCRIPTION OF SYMBOLS 1 ... Electronic camera 10 ... Computer 11 ... Main CPU
14 ... Buffer memory 17 ... Operation member 19 ... Flash memory 30 ... Recording medium

Claims (7)

イベント判定対象画像の特徴量を算出する算出手段と、
前記算出した特徴量とイベント判定用の識別器との比較によって前記イベント判定対象画像に対するイベント判定を行う判定手段と、
同一イベントに対して前記識別器が複数存在する場合に該識別器ごとの特性を示す特性データに基づいて代表の識別器を1つ決定する決定手段と、
前記決定された代表の識別器を用いるように前記判定手段を制御する制御手段と、
を備えることを特徴とする画像処理装置。
Calculating means for calculating the feature amount of the event determination target image;
A determination unit that performs event determination on the event determination target image by comparing the calculated feature amount with an event determination classifier;
Determining means for determining one representative classifier based on characteristic data indicating characteristics of each classifier when there are a plurality of the classifiers for the same event;
Control means for controlling the determination means to use the determined representative classifier;
An image processing apparatus comprising:
請求項に記載の画像処理装置において、
記特性データは前記識別器ごとの判定精度を示す情報を含み、
前記決定手段は、前記判定精度の高さに基づいて前記代表の識別器を決定することを特徴とする画像処理装置。
The image processing apparatus according to claim 1 .
Before Kitoku property data includes information indicating the accuracy of determining each of the discriminator,
It said determining means, an image processing apparatus characterized by determining the representative discriminator based on the height of the determination accuracy.
請求項1または2に記載の画像処理装置において、
習用画像の特徴量を算出する第2算出手段と、
前記学習用画像の特徴量に基づいて前記イベント判定用の識別器を生成する生成手段と、
記生成されたイベント判定用の識別器の特性を示す特性データを取得する特性データ取得手段と、
をさらに備えることを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2 ,
A second calculating means for calculating a feature quantity of academic習用image,
Generating means for generating a discriminator for event determination based on a feature amount of the learning image ;
And characteristic data acquiring means for acquiring characteristic data indicating characteristics of the identifier before Kisei made event determination,
An image processing apparatus further comprising:
請求項に記載の画像処理装置において、
記特性データは前記識別器の生成に用いられた前記学習用画像の撮影日時情報を含み、
前記決定手段は、前記学習用画像の撮影頻度の高さに基づいて前記代表の識別器を決定することを特徴とする画像処理装置。
The image processing apparatus according to claim 3 .
Before Kitoku property data includes photographing date and time information of the learning image used for the generation of the identifier,
The image processing apparatus according to claim 1, wherein the determining unit determines the representative classifier based on a frequency of capturing the learning image.
請求項3または4に記載の画像処理装置において、
前記決定手段は、前記学習用画像の数が所定数を超えている前記識別器の中から前記代表の識別器を決定することを特徴とする画像処理装置。
The image processing apparatus according to claim 3 or 4 ,
The determination means determines the representative classifier from the classifiers in which the number of learning images exceeds a predetermined number.
イベント判定対象画像の特徴量を算出する算出処理と、
同一イベントに対してイベント判定用の識別器が複数存在する場合に該識別器ごとの特性を示す特性データに基づいて代表の識別器を1つ決定する決定処理と、
前記算出した特徴量と前記決定した代表の識別器との比較によって前記イベント判定対象画像に対するイベント判定を行う判定処理と、
をコンピュータに実行させるための画像処理プログラム。
A calculation process for calculating the feature amount of the event determination target image;
A determination process for determining one representative classifier based on characteristic data indicating characteristics for each classifier when there are a plurality of classifiers for determining an event for the same event;
A determination process for performing event determination on the event determination target image by comparing the calculated feature amount with the determined representative classifier;
An image processing program for causing a computer to execute.
イベント判定対象画像の特徴量を算出し、
同一イベントに対してイベント判定用の識別器が複数存在する場合に該識別器ごとの特性を示す特性データに基づいて代表の識別器を1つ決定し、
前記算出した特徴量と前記決定した代表の識別器との比較によって前記イベント判定対象画像に対するイベント判定を行うことを特徴とする画像処理方法。
Calculate the feature amount of the event determination target image,
When there are a plurality of discriminators for event determination for the same event, one representative discriminator is determined based on the characteristic data indicating the characteristic of each discriminator,
An image processing method comprising: performing event determination on the event determination target image by comparing the calculated feature amount with the determined representative classifier.
JP2009192947A 2009-08-24 2009-08-24 Image processing apparatus, image processing program, and image processing method Active JP5381498B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009192947A JP5381498B2 (en) 2009-08-24 2009-08-24 Image processing apparatus, image processing program, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009192947A JP5381498B2 (en) 2009-08-24 2009-08-24 Image processing apparatus, image processing program, and image processing method

Publications (3)

Publication Number Publication Date
JP2011044989A JP2011044989A (en) 2011-03-03
JP2011044989A5 JP2011044989A5 (en) 2013-01-31
JP5381498B2 true JP5381498B2 (en) 2014-01-08

Family

ID=43832070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009192947A Active JP5381498B2 (en) 2009-08-24 2009-08-24 Image processing apparatus, image processing program, and image processing method

Country Status (1)

Country Link
JP (1) JP5381498B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5769488B2 (en) * 2011-04-27 2015-08-26 キヤノン株式会社 Recognition device, recognition method, and program
WO2016071973A1 (en) * 2014-11-05 2016-05-12 日立マクセル株式会社 Image capture apparatus, image capture apparatus control method, image capture apparatus control program, and image file generation method
JP6577627B1 (en) * 2018-05-09 2019-09-18 株式会社クリューシステムズ Video surveillance system and method and imaging apparatus
JP2020022054A (en) * 2018-07-31 2020-02-06 ソニーセミコンダクタソリューションズ株式会社 Imaging apparatus, electronic apparatus, and reporting method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048322A (en) * 2004-08-04 2006-02-16 Seiko Epson Corp Object image detecting device, face image detection program, and face image detection method
WO2009090804A1 (en) * 2008-01-18 2009-07-23 Nikon Corporation Image group title assigning device, image grouping device, representative image determination device for image group, image display device, camera and image display program

Also Published As

Publication number Publication date
JP2011044989A (en) 2011-03-03

Similar Documents

Publication Publication Date Title
US10474931B2 (en) Image group title assigning device, image grouping device, representative image determination device for image group, image display device, camera, and image display program
US8634657B2 (en) Image processing device and computer-program product of image evaluation
CN102014251B (en) Image processing apparatus and image processing method
JP5601407B2 (en) Image classification program, image classification apparatus, and electronic camera
US8355056B2 (en) Image processing device, imaging device, and image processing program
JP2010079446A (en) Electronic apparatus, blurring image selection method and program
US20160119576A1 (en) Image processing apparatus and image processing method
JP4973585B2 (en) Image grouping device and camera
JP5381498B2 (en) Image processing apparatus, image processing program, and image processing method
US10148861B2 (en) Image pickup apparatus generating focus changeable image, control method for image pickup apparatus, and storage medium
JP2013055455A (en) Electronic camera, image processing device, and image processing program
JP2009044240A (en) Electronic camera
JP7005215B2 (en) Image processing equipment, image processing method, computer program
JP2007174015A (en) Image management program and image management apparatus
JP5157618B2 (en) Image group title assigning device and camera
JP2010173323A (en) Printer
JP2009267682A (en) Representative image determination device and camera
JP5029647B2 (en) Subject tracking device and camera
CN105794193A (en) Image processing apparatus, image processing method and program
JP2007288409A (en) Imaging apparatus with image data classifying function and program
US11711607B2 (en) Information processing apparatus capable of applying image processing based on evaluation results, image processing apparatus, and method of controlling the same
JP2017184021A (en) Content providing device and content providing program
JP4770965B2 (en) Image matching device and camera
JP2009294902A (en) Image processor and camera
JP2012137958A (en) Image processing device, imaging device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130916

R150 Certificate of patent or registration of utility model

Ref document number: 5381498

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250