JP5640377B2 - Image processing apparatus, camera, and image processing program - Google Patents

Image processing apparatus, camera, and image processing program Download PDF

Info

Publication number
JP5640377B2
JP5640377B2 JP2009297755A JP2009297755A JP5640377B2 JP 5640377 B2 JP5640377 B2 JP 5640377B2 JP 2009297755 A JP2009297755 A JP 2009297755A JP 2009297755 A JP2009297755 A JP 2009297755A JP 5640377 B2 JP5640377 B2 JP 5640377B2
Authority
JP
Japan
Prior art keywords
image
partial
scene
procedure
partial image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009297755A
Other languages
Japanese (ja)
Other versions
JP2011139279A (en
Inventor
斎藤 郁哉
郁哉 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009297755A priority Critical patent/JP5640377B2/en
Publication of JP2011139279A publication Critical patent/JP2011139279A/en
Application granted granted Critical
Publication of JP5640377B2 publication Critical patent/JP5640377B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、画像処理装置、カメラ、および画像処理プログラムに関する。   The present invention relates to an image processing device, a camera, and an image processing program.

次のようなデジタルカメラが知られている。このデジタルカメラは、撮影と同時に撮影した画像内から複数の領域内の画像をクロップする(例えば、特許文献1)。   The following digital cameras are known. This digital camera crops images in a plurality of areas from within the captured image at the same time as capturing (for example, Patent Document 1).

特開2005−175683号公報JP 2005-175683 A

しかしながら、従来のデジタルカメラでは、クロップした画像に対して画像認識を行う場合に、クロップ範囲内だけを対象として画像認識を行うと、画像認識のために必要な情報が不足して画像認識の精度が低下する可能性があった。   However, with conventional digital cameras, when image recognition is performed on a cropped image, if image recognition is performed only within the cropped range, information necessary for image recognition is insufficient and the accuracy of image recognition is reduced. Could be reduced.

本発明による画像処理装置は、撮影画像の所定範囲内から部分画像を抽出する部分画像抽出手段と、撮影画像を対象として、撮影画像内に含まれる被写体を認識する画像認識手段と、部分画像抽出手段によって抽出された部分画像内に含まれる被写体を、画像認識手段による認識結果に基づいて特定する特定手段と、部分画像抽出手段によって抽出された部分画像に基づいて画像ファイルを生成する画像ファイル生成手段とを備え、画像ファイル生成手段は、特定手段によって特定された部分画像内に含まれる被写体に関する情報と、画像認識手段によって認識された撮影画像内に含まれる被写体に関する情報とを画像ファイルに関連付けて記録する
本発明による画像処理装置は、部分画像を対象として、部分画像の撮影シーンを判別するシーン判別手段とをさらに備える。
本発明では、シーン判別手段は、撮影画像全体を対象とした撮影シーンの判別結果も加味して、部分画像の撮影シーンを判別するようにしてもよい。
本発明では、画像ファイル生成手段は、特定手段によって特定された部分画像の撮影シーンに関する情報を画像ファイルに関連付けてさらに記録する。
本発明によるカメラは、上記いずれかの画像処理装置を備える
本発明による画像処理プログラムは、コンピュータに、撮影画像の所定範囲内から部分画像を抽出する部分画像抽出手順と、撮影画像を対象として、撮影画像内に含まれる被写体を認識する画像認識手順と、部分画像抽出手順で抽出した部分画像内に含まれる被写体を、画像認識手順による認識結果に基づいて特定する特定手順と、部分画像抽出手順によって抽出された部分画像に基づいて画像ファイルを生成する画像ファイル生成手順とを実行させるための画像処理プログラムであり、画像ファイル生成手順は、特定手によって特定された部分画像内に含まれる被写体に関する情報と、画像認識手順によって認識された撮影画像内に含まれる被写体に関する情報とを画像ファイルに関連付けて記録する。
本発明による画像処理プログラムはまた、コンピュータに、部分画像を対象として、部分画像の撮影シーンを判別するシーン判別手順をさらに実行させる。
An image processing apparatus according to the present invention includes a partial image extraction unit that extracts a partial image from a predetermined range of a captured image, an image recognition unit that recognizes a subject included in the captured image, and a partial image extraction. Specifying means for identifying a subject included in the partial image extracted by the means based on the recognition result by the image recognition means, and generating an image file based on the partial image extracted by the partial image extraction means And the image file generation means associates information relating to the subject included in the partial image specified by the specifying means and information relating to the subject included in the captured image recognized by the image recognition means to the image file. Record .
The image processing apparatus according to the present invention further includes scene discrimination means for discriminating a shooting scene of the partial image for the partial image .
In the present invention, the scene discrimination means may discriminate the photographic scene of the partial image in consideration of the photographic scene discrimination result for the entire photographic image.
In the present invention, the image file generation means further records information relating to the photographing scene of the partial image specified by the specifying means in association with the image file .
The camera according to the invention, obtain Bei any one of the above image processing apparatus.
An image processing program according to the present invention includes a computer for extracting a partial image from a predetermined range of a captured image, an image recognition procedure for recognizing a subject included in the captured image, A specific procedure for identifying a subject included in a partial image extracted by the partial image extraction procedure based on a recognition result by the image recognition procedure, and an image for generating an image file based on the partial image extracted by the partial image extraction procedure an image processing program for executing the file generation procedure, an image file generation step, information about the subject included in the partial image specified by a particular procedure, the photographed image recognized by the image recognition procedure Information related to the included subject is recorded in association with the image file.
The image processing program according to the present invention is also a computer, as a target partial image, to perform another scene determination procedure to determine the shooting scene of the partial image.

本発明によれば、抽出した部分画像に対して高精度に画像認識を行うことができる。   According to the present invention, it is possible to perform image recognition on an extracted partial image with high accuracy.

カメラの一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of a camera. クロップ画像の具体例を示す第1の図である。It is a 1st figure which shows the specific example of a crop image. タグ情報の具体例を示す第1の図である。It is a 1st figure which shows the specific example of tag information. クロップ画像の具体例を示す第2の図である。It is a 2nd figure which shows the specific example of a crop image. タグ情報の具体例を示す第2の図である。It is a 2nd figure which shows the specific example of tag information. 撮影画像全体に対するクロップ範囲の位置及び大きさを模式的に示した図である。It is the figure which showed typically the position and magnitude | size of the crop range with respect to the whole picked-up image.

図1は、本実施の形態におけるカメラの一実施の形態の構成を示すブロック図である。カメラ100は、操作部材101と、レンズ102と、撮像素子103と、制御装置104と、メモリカードスロット105と、モニタ106とを備えている。操作部材101は、使用者によって操作される種々の入力部材、例えば電源ボタン、レリーズボタン、ズームボタン、十字キー、決定ボタン、再生ボタン、削除ボタンなどを含んでいる。   FIG. 1 is a block diagram illustrating a configuration of an embodiment of a camera according to the present embodiment. The camera 100 includes an operation member 101, a lens 102, an image sensor 103, a control device 104, a memory card slot 105, and a monitor 106. The operation member 101 includes various input members operated by the user, such as a power button, a release button, a zoom button, a cross key, an enter button, a play button, and a delete button.

レンズ102は、複数の光学レンズから構成されるが、図1では代表して1枚のレンズで表している。撮像素子103は、例えばCCDやCMOSなどのイメージセンサーであり、レンズ102により結像した被写体像を撮像する。そして、撮像によって得られた画像信号を制御装置104へ出力する。   The lens 102 is composed of a plurality of optical lenses, but is representatively represented by one lens in FIG. The image sensor 103 is an image sensor such as a CCD or a CMOS, for example, and captures a subject image formed by the lens 102. Then, an image signal obtained by imaging is output to the control device 104.

制御装置104は、CPU、メモリ、およびその他の周辺回路により構成され、カメラ100を制御する。なお、制御装置104を構成するメモリには、SDRAMやフラッシュメモリが含まれる。SDRAMは、揮発性のメモリであって、CPUがプログラム実行時にプログラムを展開するためのワークメモリとして使用されたり、データを一時的に記録するためのバッファメモリとして使用される。また、フラッシュメモリは、不揮発性のメモリであって、制御装置104が実行するプログラムのデータや、プログラム実行時に読み込まれる種々のパラメータなどが記録されている。   The control device 104 includes a CPU, a memory, and other peripheral circuits, and controls the camera 100. Note that the memory constituting the control device 104 includes SDRAM and flash memory. The SDRAM is a volatile memory, and is used as a work memory for the CPU to develop a program when the program is executed or as a buffer memory for temporarily recording data. The flash memory is a non-volatile memory in which data of a program executed by the control device 104, various parameters read during program execution, and the like are recorded.

この制御装置104は、撮像素子103から入力された画像信号に基づいて所定の画像形式、例えばJPEG形式の画像データ(以下、「本画像データ」と呼ぶ)を生成する。また、制御装置104は、生成した本画像データに基づいて、表示用画像データ、例えばサムネイル画像データを生成する。制御装置104は、生成した本画像データとサムネイル画像データとを含み、さらにヘッダ情報を付加した画像ファイルを生成してメモリカードスロット105へ出力する。   The control device 104 generates image data in a predetermined image format, for example, JPEG format (hereinafter referred to as “main image data”) based on the image signal input from the image sensor 103. Further, the control device 104 generates display image data, for example, thumbnail image data, based on the generated main image data. The control device 104 generates an image file that includes the generated main image data and thumbnail image data, and further includes header information, and outputs the image file to the memory card slot 105.

メモリカードスロット105は、記憶媒体としてのメモリカードを挿入するためのスロットであり、制御装置104から出力された画像ファイルをメモリカードに書き込んで記録する。また、メモリカードスロット105は、制御装置104からの指示に基づいて、メモリカード内に記憶されている画像ファイルを読み込む。   The memory card slot 105 is a slot for inserting a memory card as a storage medium, and the image file output from the control device 104 is written and recorded on the memory card. The memory card slot 105 reads an image file stored in the memory card based on an instruction from the control device 104.

モニタ106は、カメラ100の背面に搭載された液晶モニタ(背面モニタ)であり、当該モニタ106には、メモリカードに記憶されている画像やカメラ100を設定するための設定メニューなどが表示される。また、制御装置104は、使用者によってカメラ100のモードが撮影モードに設定されると、撮像素子103から時系列で取得した画像信号に基づいて生成した表示用画像データをモニタ106に出力する。これによってモニタ106にはスルー画が表示される。   The monitor 106 is a liquid crystal monitor (rear monitor) mounted on the back surface of the camera 100, and the monitor 106 displays an image stored in a memory card, a setting menu for setting the camera 100, and the like. . Further, when the user sets the mode of the camera 100 to the shooting mode, the control device 104 outputs the display image data generated based on the image signal acquired in time series from the image sensor 103 to the monitor 106. As a result, a through image is displayed on the monitor 106.

本実施の形態におけるカメラ100では、制御装置104は、使用者からの指示に基づいて、撮影した画像内の所定範囲の領域の画像を抜き出して、個別の画像ファイルを生成する機能を有している。すなわち、使用者は、操作部材101を操作して、撮影画像内に少なくとも1つのクロップ範囲を指定することができ、制御装置104は、使用者によって指定されたクロップ範囲内の部分画像を抽出し、抽出したクロップ画像に基づいて個別の画像ファイルを生成して、メモリカードに記録することができる。   In the camera 100 according to the present embodiment, the control device 104 has a function of extracting an image of a predetermined range in a captured image and generating an individual image file based on an instruction from the user. Yes. That is, the user can operate the operation member 101 to specify at least one crop range in the captured image, and the control device 104 extracts a partial image within the crop range specified by the user. A separate image file can be generated based on the extracted crop image and recorded on the memory card.

また、本実施の形態におけるカメラは、上記のように撮影画像からクロップしたクロップ画像を対象として、撮影シーンの判別を行うためのシーン判別処理や、クロップ画像内に含まれる被写体を認識する画像認識処理を行うことができる。以下、クロップ画像を対象としたシーン判別と画像認識を高精度に行うための処理について説明する。   In addition, the camera according to the present embodiment performs scene discrimination processing for discriminating a photographic scene and image recognition for recognizing a subject included in the cropped image for a cropped image cropped from the photographic image as described above. Processing can be performed. Hereinafter, a process for performing scene discrimination and image recognition for a cropped image with high accuracy will be described.

まず、クロップ画像の画像認識を高精度に行う場合の処理について説明する。制御装置104は、クロップ画像を対象として画像認識を行う場合には、クロップ元となった撮影画像全体に対して行った画像認識結果を利用する。具体的には、図2に示すように、制御装置104は、クロップ範囲2a内から抽出したクロップ画像内に含まれる被写体を認識するために、撮影画像2b全体に対する画像認識によって認識された被写体の中からクロップ範囲2a内に含まれる被写体のみを抽出して、これをクロップ範囲2a内から抽出したクロップ画像の画像認識結果として利用する。   First, a process when image recognition of a crop image is performed with high accuracy will be described. When performing image recognition on the cropped image, the control device 104 uses the image recognition result performed on the entire captured image that is the cropping source. Specifically, as shown in FIG. 2, the control device 104 recognizes the subject included in the cropped image extracted from the cropped range 2a so that the subject recognized by the image recognition on the entire captured image 2b. Only the subject included in the crop range 2a is extracted from the inside, and this is used as the image recognition result of the cropped image extracted from the crop range 2a.

これによって、クロップ範囲2a内から抽出したクロップ画像のみを対象として画像認識を行った場合には、クロップ範囲内に全体が含まれている車しか認識することができず、一部しか含まれない建物は認識することはできないが、撮影画像2b全体を対象として画像認識を行い、その結果をクロップ画像の画像認識に用いれば、クロップ画像内に含まれる被写体として、車と建物を認識することができる。すなわち、クロップ範囲2a内のクロップ画像だけでは情報が不足していてクロップ画像内の画像認識の精度が低下する可能性があるが、上記のようにクロップ画像の画像認識に撮影画像2b全体の画像認識結果を用いることにより、クロップ画像の画像認識精度を向上することができる。   As a result, when image recognition is performed only on a crop image extracted from within the crop range 2a, only cars that are entirely included in the crop range can be recognized, and only a part is included. Although the building cannot be recognized, if the image recognition is performed on the entire captured image 2b and the result is used for the image recognition of the crop image, the vehicle and the building can be recognized as subjects included in the crop image. it can. That is, there is a possibility that the information of the cropped image 2b may be deteriorated in the image recognition of the cropped image 2b as described above, although the information of the cropped image within the cropped range 2a is insufficient and the accuracy of the image recognition in the cropped image may be lowered. By using the recognition result, the image recognition accuracy of the cropped image can be improved.

また、別の例としては、クロップ画像内の被写体とクロップ画像外の被写体とを関連付けることにより、クロップ画像の画像認識精度を向上することもできる。例えば、撮影画像全体には、ゴールキーパー、ゴールポスト、およびサッカーボールが写っており、クロップ画像内にはゴールキーパーとゴールポストしか写っていない場合は、撮影画像全体の画像認識結果を利用して、クロップ範囲外で認識されたサッカーボールを加味することにより、クロップ画像内の被写体がゴールキーパーとゴールポストであると精度高く認識することが可能となる。   As another example, the image recognition accuracy of the cropped image can be improved by associating the subject in the cropped image with the subject outside the cropped image. For example, if a goalkeeper, goalpost, and soccer ball are shown in the entire shot image, and only the goalkeeper and goalpost are shown in the cropped image, the image recognition result of the entire shot image is used. By adding the soccer ball recognized outside the cropping range, it is possible to recognize with high accuracy that the subjects in the cropped image are the goalkeeper and the goal post.

あるいは、クロップ画像内には1つの食材しか写っていない場合でも、クロップ範囲外に他の料理や食器等が写っている場合には、撮影画像全体の画像認識結果を用いて、クロップ画像内の被写体は料理であると認識することも可能になる。   Alternatively, even when only one ingredient is shown in the crop image, if other dishes or dishes are shown outside the crop range, the image recognition result of the entire photographed image is used, It is also possible to recognize that the subject is a dish.

次にクロップ画像のシーン判定を高精度に行う場合の処理について説明する。制御装置104は、クロップ画像を対象としてシーン判別を行う場合には、原則として、クロップ画像を対象とするが、クロップ範囲外も加味した方がシーン判別の精度を向上できると判断した場合には、撮影画像全体を対象としてシーン判別を行う。シーン判別をクロップ画像を対象として行うか、あるいは撮影画像全体を対象にして行うかの判断条件としては、種々の条件が考えられるが、本実施の形態では、例えば撮影画像全体の色を判断条件として用いる場合について説明する。   Next, processing when performing scene determination of a cropped image with high accuracy will be described. In the case where the scene determination is performed on the cropped image, the control device 104, in principle, targets the cropped image. However, if the control device 104 determines that the accuracy of scene determination can be improved by taking the cropping range into consideration. Then, scene discrimination is performed for the entire captured image. Various conditions can be considered as conditions for determining whether scene discrimination is performed on the cropped image or on the entire captured image. In the present embodiment, for example, the color of the entire captured image is determined as the determination condition. The case of using as will be described.

具体的には、制御装置104は、撮影時のホワイトバランス処理の結果から撮影画像全体の色を特定する。すなわち、ホワイトバランス処理では、撮影画像内に写り込んでいる照明の種類、例えば街灯、蛍光灯、太陽等を識別し、その照明光によって被写体がどのような色の光で照明されているかを想定してホワイトバランスの調整を行う。本実施の形態では、このホワイトバランス処理の結果から撮影画像全体の色を特定し、その特定結果を上記判断結果として用いる。   Specifically, the control device 104 specifies the color of the entire captured image from the result of white balance processing at the time of shooting. In other words, in the white balance processing, the type of illumination reflected in the photographed image, for example, street light, fluorescent light, sun, etc., is identified, and the color of the subject is illuminated by the illumination light. Adjust the white balance. In the present embodiment, the color of the entire captured image is specified from the result of the white balance process, and the specified result is used as the determination result.

例えば、本実施の形態では、制御装置104は、撮影画像が全体的に赤みがかっている場合には、撮影画像全体を対象にしてシーン判別を行うようにし、それ以外の場合には、クロップ画像を対象としてシーン判別を行うようにする。これにより以下のようにシーン判別を高精度に行うことができる。撮影画像全体の色に基づいて、シーン判別の方法を切り替えることにより、シーン判別を高精度に行うことができることを具体例を挙げながら説明する。   For example, in the present embodiment, when the captured image is entirely reddish, the control device 104 performs scene determination on the entire captured image, and otherwise, the cropped image is displayed. Scene discrimination is performed as an object. As a result, scene discrimination can be performed with high accuracy as follows. The fact that scene discrimination can be performed with high accuracy by switching the scene discrimination method based on the color of the entire captured image will be described with a specific example.

まず、撮影画像が全体的に赤みがかっている場合の例、すなわち撮影画像全体を対象としてシーン判別を行う場合の例について説明する。ここでは、例えば撮影画像が夕焼け時にストロボ撮影を行った人物画像である場合について説明する。このとき、撮影画像内の人物の顔部分が大きくなるようにクロップしてクロップ画像を得た場合、このクロップ画像を対象としてシーン判別を行うと、主要被写体である人物の顔部分はフラッシュ光で照射されているため夕焼けシーンと判別することは困難となり、クロップ画像の撮影シーンはポートレート画像と判定される可能性が高くなる。これに対して、撮影画像全体を対象としてシーン判別を行えば、全体に赤みがかった画像であり、かつ人物の顔が写っていることから、クロップ画像の撮影シーンは夕焼けポートレートシーンであると正しく判別することが可能となる。   First, an example in which the captured image is entirely reddish, that is, an example in which scene determination is performed on the entire captured image will be described. Here, for example, a case will be described in which the captured image is a human image that has been subjected to flash photography at sunset. At this time, if the cropped image is obtained by cropping so that the face portion of the person in the photographed image becomes large, when scene discrimination is performed for this cropped image, the face portion of the person who is the main subject is flash light. Since it is irradiated, it is difficult to discriminate it from a sunset scene, and there is a high possibility that a cropped image shooting scene is determined to be a portrait image. On the other hand, if scene discrimination is performed for the entire captured image, the entire image is reddish and the face of the person is reflected, so the cropped image capture scene is correctly a sunset portrait scene. It becomes possible to discriminate.

次に、撮影画像が全体的に赤みがかっていない場合の例、すなわちクロップを対象としてシーン判別を行う場合の例について説明する。ここでは、例えば撮影画像が晴天時に風景をバックに撮影した人物画像である場合について説明する。このとき、撮影画像内の人物の顔部分が大きくなるようにクロップしてクロップ画像を得た場合に、上記のように撮影画像全体を対象としてシーン判別を行うと、クロップ画像には人物が大きく写っているにもかかわらず、その撮影シーンは風景ポートレートシーンであると判定されることになる。これに対して、クロップ画像を対象としてシーン判別を行えば、クロップ画像内には人物の顔が大きく写っており、背景はほとんど写り込んでいないことから、クロップ画像の撮影シーンはポートレートシーンであると正しく判別することが可能となる。   Next, an example in which the captured image is not entirely reddish, that is, an example in which scene determination is performed on a crop will be described. Here, a case will be described in which, for example, the photographed image is a person image photographed with the landscape in the background when the weather is fine. At this time, when the cropped image is obtained by cropping so that the face portion of the person in the photographed image becomes large, if scene discrimination is performed on the entire photographed image as described above, the crop image has a large person. Although it is shown, the shooting scene is determined to be a landscape portrait scene. On the other hand, if scene discrimination is performed for a cropped image, a person's face is reflected in the cropped image and the background is hardly reflected, so the scene where the cropped image is taken is a portrait scene. It is possible to correctly determine that there is.

あるいは、撮影画像内の風景部分をクロップしてクロップ画像を得た場合に、撮影画像全体を対象としてシーン判別を行うと、クロップ画像内には風景しか写っていないにもかかわらず、その撮影シーンは風景ポートレートシーンであると判定されることになる。これに対して、クロップ画像を対象としてシーン判別を行えば、クロップ画像内には人物の顔は写っていないことから、クロップ画像の撮影シーンは風景シーンであると正しく判別することが可能となる。   Alternatively, when a cropped image is obtained by cropping a landscape portion in a captured image, if scene determination is performed on the entire captured image, the captured scene is displayed even though only the landscape is captured in the cropped image. Is determined to be a landscape portrait scene. On the other hand, if scene discrimination is performed for a crop image, since a human face is not captured in the crop image, it is possible to correctly determine that the shooting scene of the crop image is a landscape scene. .

本実施の形態におけるカメラ100では、クロップ画像の画像ファイル(クロップ画像ファイル)を生成する際に、上述したクロップ画像に対する画像認識の結果、及びシーン判別の結果をクロップ画像ファイルに関連付けて記録する。制御装置104は、例えばクロップ画像ファイルのヘッダ情報に、画像認識結果やシーン判別結果をタグ情報として埋め込むことにより記録する。   In the camera 100 according to the present embodiment, when an image file (crop image file) of a crop image is generated, the above-described image recognition result and scene determination result for the crop image are recorded in association with the crop image file. The control device 104 records, for example, by embedding an image recognition result or a scene determination result as tag information in the header information of the cropped image file.

具体的には、制御装置104は、図3に示すように、各クロップ画像ファイルのタグ情報に、クロップ範囲と撮影画像全体とのそれぞれについて、クロップ元となった撮影画像(オリジナル画像)に関する情報3a、検出した顔の数3b、特定の人物として認識した顔の数3c、画像認識したオブジェクトの種類3d、および判別したシーンの種類3eをクロップ画像ファイルのタグ情報に記録する。なお、タグ情報に記録する各データは、図3に示すように4ビットのデータとし、これらのデータは、タグの固定アドレスに記録してもよいし、スタートデータ及びエンドデータ、すなわちインジケータを設け、可変長とすることで不要領域を省くようにしてもよい。   Specifically, as shown in FIG. 3, the control device 104 uses the tag information of each crop image file as information on the captured image (original image) that is the crop source for each of the crop range and the entire captured image. 3a, the number of detected faces 3b, the number of faces recognized as a specific person 3c, the image recognized object type 3d, and the determined scene type 3e are recorded in the tag information of the cropped image file. Each data to be recorded in the tag information is 4-bit data as shown in FIG. 3, and these data may be recorded in the fixed address of the tag, or start data and end data, that is, an indicator is provided. Alternatively, an unnecessary area may be omitted by setting the variable length.

以下、図4に示すように撮影画像2bからクロップ範囲2a、4a,および4b内の画像をクロップしてクロップ画像ファイルを生成する場合に、それぞれのクロップ画像ファイルに記録されるタグ情報の具体例について説明する。   Hereinafter, as shown in FIG. 4, when cropped image files are generated by cropping images in the cropped ranges 2a, 4a, and 4b from the captured image 2b, specific examples of tag information recorded in the respective crop image files Will be described.

(A)クロップ範囲2a内の画像をクロップしたクロップ画像ファイルのタグ情報
図4に示すクロップ範囲2a内の画像をクロップして生成されるクロップ画像ファイルに記録されるタグ情報は、例えば図5(a)に示すようになる。まず、クロップ範囲2aについての撮影画像2bに関する情報3aとしては、撮影画像2b全体におけるクロップ範囲2aの位置、およびクロップ範囲2aの大きさが記録される。
(A) Tag information of a crop image file obtained by cropping an image in the crop range 2a Tag information recorded in a crop image file generated by cropping an image in the crop range 2a shown in FIG. As shown in a). First, as the information 3a regarding the captured image 2b regarding the cropped range 2a, the position of the cropped range 2a in the entire captured image 2b and the size of the cropped range 2a are recorded.

ここで、クロップ範囲2aの位置は、図6に示す撮影画像2bの高さHと幅Wに対するクロップ範囲のクロップ範囲の位置の比率によって表され、図6に示す例では、クロップ範囲2aの縦位置はa/H、横位置はc/Wとなる。また、クロップ範囲2aの大きさは、図6に示す撮影画像2bの高さHと幅Wに対するクロップ範囲2aの高さbと幅dの比率によって表され、図6に示す例では、クロップ範囲2aの高さはb/H、幅はd/Wとなる。また、撮影画像2bの全体ついての撮影画像2bに関する情報3aとしては、撮影画像ファイルのファイル名、例えばIMG_0001.jpgが記録される。   Here, the position of the crop range 2a is represented by the ratio of the position of the crop range of the crop range to the height H and width W of the captured image 2b shown in FIG. 6, and in the example shown in FIG. The position is a / H and the horizontal position is c / W. Further, the size of the crop range 2a is represented by the ratio of the height b and width d of the crop range 2a to the height H and width W of the captured image 2b shown in FIG. 6, and in the example shown in FIG. The height of 2a is b / H and the width is d / W. Further, as the information 3a regarding the captured image 2b about the entire captured image 2b, the file name of the captured image file, for example, IMG — 0001. jpg is recorded.

クロップ範囲2a内についての検出した顔の数3bとしては、上述した画像認識処理によってクロップ画像内から検出された人物の顔の数が記録される。図4に示すように、クロップ範囲2a内からは人物の顔は検出されないため、図5(a)に示すようにクロップ範囲2a内についての検出した顔の数3bには0が記録される。これに対して、撮影画像2bの全体ついての検出した顔の数3bには、撮影画像2b内から検出される人物の顔の数、すなわち4が記録される。   As the number 3b of detected faces in the cropping range 2a, the number of human faces detected from the cropped image by the image recognition process described above is recorded. As shown in FIG. 4, since no human face is detected from within the cropping range 2a, 0 is recorded in the number of detected faces 3b within the cropping range 2a as shown in FIG. 5A. On the other hand, the number of faces detected from the photographed image 2b, that is, four, is recorded in the number of faces 3b detected for the entire photographed image 2b.

クロップ範囲2a内についての認識した顔の数3cとしては、画像認識処理によってクロップ画像内から検出された人物の顔のうち、あらかじめ登録されている人物の顔データに基づいて認識された特定の人物の顔の数が記録される。本実施の形態では、あらかじめAさんとBさんの顔が登録されており、制御装置104は、画像認識処理によって人物の顔を検出したときに、その中に登録されているAさんやBさんと顔の特徴が一致する人物がいる場合には、その人物をAさんまたはBさんと認識することができる。   As the number of recognized faces 3c in the cropping range 2a, a specific person recognized based on face data of a person registered in advance among the faces of persons detected from the cropped image by the image recognition processing The number of faces is recorded. In the present embodiment, the faces of Mr. A and Mr. B are registered in advance, and when the control device 104 detects a person's face by image recognition processing, Mr. A and Mr. B registered therein are detected. If there is a person whose facial features match, the person can be recognized as Mr. A or Mr. B.

図4に示すように、クロップ範囲2a内からは特定の人物の顔は検出されないため、図5(a)に示すようにクロップ範囲2a内についての認識した顔の数3cには0が記録される。これに対して、撮影画像2bの全体ついての認識した顔の数3cには、撮影画像2b内から検出されるAさんとBさんの顔の数、すなわち2が記録される。   As shown in FIG. 4, since the face of a specific person is not detected in the crop range 2a, 0 is recorded in the number 3c of recognized faces in the crop range 2a as shown in FIG. 5A. The On the other hand, the number 3c of recognized faces for the entire captured image 2b records the number of faces of Mr. A and Mr. B detected from the captured image 2b, that is, 2.

クロップ範囲2a内についての認識したオブジェクトの種類3dとしては、画像認識処理によって、クロップ範囲2a内のクロップ画像内で認識されたオブジェクトの種類が記録される。図2を用いて上述したように、クロップ範囲2a内のクロップ画像では車と建物が認識されているため、図5(a)に示すように、クロップ範囲2a内についての認識したオブジェクトの種類3dにはこれらのオブジェクトが記録される。一方、撮影画像2bの全体ついての認識したオブジェクトの種類3dには、撮影画像2b内で認識された全てのオブジェクト、すなわち車、建物、Aさん、Bさん、木が記録される。   As the recognized object type 3d in the cropping range 2a, the type of the object recognized in the cropped image in the cropping range 2a by the image recognition processing is recorded. As described above with reference to FIG. 2, since the car and the building are recognized in the crop image in the crop range 2a, as shown in FIG. 5A, the recognized object type 3d in the crop range 2a. These objects are recorded in. On the other hand, in the recognized object type 3d for the entire captured image 2b, all objects recognized in the captured image 2b, that is, cars, buildings, Mr. A, Mr. B, and trees are recorded.

クロップ範囲2a内についての判別したシーンの種類3eには、上述したシーン判別方法によって判別されたクロップ範囲2a内のクロップ画像のシーンの種類、例えば風景が記録される。一方、撮影画像2bの全体ついての判別したシーンの種類3eには、撮影画像2bのシーンの種類、例えば風景ポートレートが記録される。   In the determined scene type 3e in the crop range 2a, the scene type of the cropped image in the crop range 2a determined by the above-described scene determination method, for example, a landscape is recorded. On the other hand, the determined scene type 3e for the entire photographed image 2b records the scene type of the photographed image 2b, for example, a landscape portrait.

(B)クロップ範囲4a内の画像をクロップしたクロップ画像ファイルのタグ情報
図4に示すクロップ範囲4a内の画像をクロップして生成されるクロップ画像ファイルに記録されるタグ情報は、例えば図5(b)に示すようになる。なお、図5(b)においては、撮影画像2bの全体についての情報は、図5(a)と同様のため、説明を省略する。
(B) Tag information of a crop image file obtained by cropping an image in the crop range 4a Tag information recorded in a crop image file generated by cropping an image in the crop range 4a shown in FIG. As shown in b). In FIG. 5B, the information about the entire captured image 2b is the same as that in FIG.

まず、クロップ範囲4aについての撮影画像2bに関する情報3aには、例えば、その位置としてクロップ範囲4aの縦位置a1/H、横位置c1/Wが記録され、その大きさとして高さb1/H、幅d1/Wが記録される。クロップ範囲4a内についての検出した顔の数3bには、図4に示すように、クロップ範囲4a内からは2つの人物の顔が検出されるため、図5(b)に示すように2が記録される。   First, in the information 3a related to the captured image 2b for the crop range 4a, for example, the vertical position a1 / H and the horizontal position c1 / W of the crop range 4a are recorded as the positions, and the height b1 / H, The width d1 / W is recorded. In the number of detected faces 3b in the cropping range 4a, two faces are detected from the cropping range 4a as shown in FIG. 4, so 2 is shown in FIG. 5 (b). To be recorded.

クロップ範囲4a内についての認識した顔の数3cには、図4に示すように、クロップ範囲4a内からはあらかじめ登録されているAさんとBさんとが検出されるため、図5(b)に示すように2が記録される。クロップ範囲4a内についての認識したオブジェクトの種類3dには、図4に示すように、クロップ範囲4a内のクロップ画像でAさん、Bさん、および木が認識されるため、これらのオブジェクトが記録される。   In the number 3c of recognized faces in the cropping range 4a, as shown in FIG. 4, since Mr. A and Mr. B registered in advance are detected from within the cropping range 4a, FIG. 2 is recorded as shown in FIG. In the recognized object type 3d in the cropping range 4a, as shown in FIG. 4, since Mr. A, Mr. B, and the tree are recognized in the cropped image in the cropping range 4a, these objects are recorded. The

クロップ範囲4a内についての判別したシーンの種類3eには、上述したシーン判別方法によって判別されたクロップ範囲4a内のクロップ画像のシーンの種類、例えばポートレートが記録される。   In the determined scene type 3e in the crop range 4a, the scene type of the cropped image in the crop range 4a determined by the above-described scene determination method, for example, a portrait is recorded.

(C)クロップ範囲4b内の画像をクロップしたクロップ画像ファイルのタグ情報
図4に示すクロップ範囲4b内の画像をクロップして生成されるクロップ画像ファイルに記録されるタグ情報は、例えば図5(c)に示すようになる。なお、図5(c)においては、撮影画像2bの全体についての情報は、図5(a)と同様のため、説明を省略する。
(C) Tag information of a crop image file obtained by cropping an image in the crop range 4b Tag information recorded in a crop image file generated by cropping an image in the crop range 4b shown in FIG. As shown in c). In FIG. 5C, the information about the entire photographed image 2b is the same as that in FIG.

まず、クロップ範囲4bについての撮影画像2bに関する情報3aには、例えば、その位置としてクロップ範囲4bの縦位置a2/H、横位置c2/Wが記録され、その大きさとして高さb2/H、幅d2/Wが記録される。クロップ範囲4b内についての検出した顔の数3bには、図4に示すように、クロップ範囲4b内からは2つの人物の顔が検出されるため、図5(c)に示すように2が記録される。   First, in the information 3a regarding the captured image 2b regarding the cropping range 4b, for example, the vertical position a2 / H and the horizontal position c2 / W of the cropping range 4b are recorded as the positions, and the height b2 / H, The width d2 / W is recorded. In the number of detected faces 3b in the cropping range 4b, two faces are detected from the cropping range 4b as shown in FIG. 4, so 2 is shown in FIG. 5C. To be recorded.

クロップ範囲4b内についての認識した顔の数3cには、図4に示すように、クロップ範囲4b内には不明人物しかおらず、あらかじめ登録されているAさんやBさんは検出されないため、図5(c)に示すように0が記録される。クロップ範囲4b内についての認識したオブジェクトの種類3dには、図4に示すように、クロップ範囲4b内のクロップ画像で建物が認識されるため、このオブジェクトが記録される。   In the number 3c of recognized faces in the cropping range 4b, as shown in FIG. 4, there are only unknown persons in the cropping range 4b, and A and B who are registered in advance are not detected. As shown in 5 (c), 0 is recorded. In the recognized object type 3d in the cropping range 4b, as shown in FIG. 4, since the building is recognized by the cropped image in the cropping range 4b, this object is recorded.

クロップ範囲4b内についての判別したシーンの種類3eには、上述したシーン判別方法によって判別されたクロップ範囲4b内のクロップ画像のシーンの種類、例えば風景ポートレートが記録される。   In the determined scene type 3e in the crop range 4b, the scene type of the cropped image in the crop range 4b determined by the above-described scene determination method, for example, a landscape portrait is recorded.

以上のように、クロップ画像ファイルのヘッダ情報に、画像認識結果やシーン判別結果をタグ情報として記録しておくことにより、後にこれらの情報を用いて画像ファイルの検索を行うことが可能となる。例えば、Aさんが写っているクロップ画像を検出する場合には、認識したオブジェクトの種類3dにAさんが記録されている画像ファイルを抽出すればよい。   As described above, by recording the image recognition result and the scene determination result as the tag information in the header information of the cropped image file, it becomes possible to search for the image file later using such information. For example, when a crop image in which Mr. A is shown is detected, an image file in which Mr. A is recorded in the recognized object type 3d may be extracted.

また、クロップ範囲内の情報だけでなく、クロップ範囲外、すなわち撮影画像全体についての情報もクロップ画像ファイルのタグ情報に記録するようにしたので、画像の検索時にクロップ範囲外の情報も加味して検索を行うことも可能となる。例えば、Bさんが検索条件として指定された場合には、クロップ範囲内についての認識したオブジェクトの種類3dにBさんが記録されている画像ファイルを抽出するとともに、撮影画像全体についての認識したオブジェクトの種類3dにBさんが記録されている画像ファイルを抽出することによって、クロップ範囲内にはBさんは写っていなくても、Bさんが参加していたイベント等で撮影された画像を抽出することが可能となる。   Also, not only information within the cropping range but also information outside the cropping range, that is, information about the entire captured image is recorded in the tag information of the cropped image file, so that information outside the cropping range is taken into account when searching for images. It is also possible to perform a search. For example, when Mr. B is designated as a search condition, an image file in which Mr. B is recorded in the recognized object type 3d within the cropping range is extracted, and the recognized object of the entire captured image is extracted. By extracting the image file in which Mr. B is recorded in type 3d, even if Mr. B does not appear in the cropping range, the image taken at the event where Mr. B participated is extracted. Is possible.

以上説明した本実施の形態によれば、以下のような作用効果を得ることができる。
(1)制御装置104は、撮影画像のクロップ範囲内からクロップ画像を抽出し、撮影画像全体を対象として画像認識を行って撮影画像内に含まれる被写体を認識し、この認識結果に基づいてクロップ画像内に含まれる被写体を特定するようにした。これによって、クロップ範囲内のクロップ画像だけでは情報が不足している場合であっても、クロップ画像の画像認識精度を向上することができる。
According to the present embodiment described above, the following operational effects can be obtained.
(1) The control device 104 extracts a cropped image from the cropped range of the captured image, performs image recognition on the entire captured image, recognizes a subject included in the captured image, and crops based on the recognition result. The subject included in the image was specified. As a result, the image recognition accuracy of the cropped image can be improved even when the information is insufficient for only the cropped image within the cropped range.

(2)制御装置104は、撮影画像のクロップ範囲内からクロップ画像を抽出し、抽出したクロップ画像を対象としてクロップ画像の撮影シーンを判別するようにした。これによって、クロップ画像の撮影シーンを高精度に判別することができる。 (2) The control device 104 extracts a cropped image from the cropped range of the captured image, and determines the captured scene of the cropped image for the extracted cropped image. Thereby, it is possible to discriminate the shooting scene of the cropped image with high accuracy.

(3)制御装置104は、撮影画像全体を対象としたシーン判別結果も加味して、クロップ画像の撮影シーンを判別するようにした。これによって、クロップ画像の撮影シーンをさらに高精度に判別することができる。 (3) The control device 104 discriminates the shooting scene of the cropped image in consideration of the scene discrimination result for the entire shot image. Thereby, it is possible to discriminate the shooting scene of the cropped image with higher accuracy.

(4)制御装置104は、クロップ画像の画像認識結果とシーン判別結果とを、クロップ画像ファイルのヘッダ情報にタグ情報として記録するようにした。これによって、クロップ画像の画像認識結果とシーン判別結果とを、画像ファイルの検索等の後の処理で利用することが可能となる。 (4) The control device 104 records the image recognition result and the scene discrimination result of the crop image as tag information in the header information of the crop image file. As a result, the image recognition result and the scene discrimination result of the cropped image can be used in subsequent processing such as image file search.

―変形例―
なお、上述した実施の形態のカメラは、以下のように変形することもできる。
(1)上述した実施の形態では、制御装置104は、クロップ画像ファイルのヘッダ情報にクロップ範囲に関するタグ情報と撮影画像全体に関するタグ情報とを記録する例について説明した。しかしながら、クロップ画像ファイルのヘッダ情報には、クロップ範囲に関するタグ情報のみを記録するようにしてもよい。
-Modification-
The camera according to the above-described embodiment can be modified as follows.
(1) In the above-described embodiment, the control device 104 has described an example in which tag information related to the crop range and tag information related to the entire captured image are recorded in the header information of the crop image file. However, only the tag information related to the crop range may be recorded in the header information of the crop image file.

(2)上述した実施の形態では、本発明をカメラ100に適用する場合について説明した。しかしながら、撮影画像内に指定されたクロップ範囲内の画像をクロップしてクロップ画像ファイルを生成する機能を有する他の機器にも本発明は適用可能である。 (2) In the above-described embodiment, the case where the present invention is applied to the camera 100 has been described. However, the present invention can also be applied to other devices having a function of cropping an image within a crop range specified in a captured image to generate a crop image file.

なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。また、上述の実施の形態と複数の変形例を組み合わせた構成としてもよい。   Note that the present invention is not limited to the configurations in the above-described embodiments as long as the characteristic functions of the present invention are not impaired. Moreover, it is good also as a structure which combined the above-mentioned embodiment and a some modification.

100 カメラ、101 操作部材、102 レンズ、103 撮像素子、104 制御装置、105 メモリカードスロット、106 モニタ 100 Camera, 101 Operation member, 102 Lens, 103 Image sensor, 104 Control device, 105 Memory card slot, 106 Monitor

Claims (7)

撮影画像の所定範囲内から部分画像を抽出する部分画像抽出手段と、
前記撮影画像を対象として、前記撮影画像内に含まれる被写体を認識する画像認識手段と、
前記部分画像抽出手段によって抽出された前記部分画像内に含まれる被写体を、前記画像認識手段による認識結果に基づいて特定する特定手段と、
前記部分画像抽出手段によって抽出された前記部分画像に基づいて画像ファイルを生成する画像ファイル生成手段とを備え
前記画像ファイル生成手段は、前記特定手段によって特定された前記部分画像内に含まれる被写体に関する情報と、前記画像認識手段によって認識された前記撮影画像内に含まれる被写体に関する情報とを前記画像ファイルに関連付けて記録する画像処理装置。
Partial image extraction means for extracting a partial image from a predetermined range of the photographed image;
Image recognition means for recognizing a subject included in the captured image for the captured image;
Specifying means for specifying a subject included in the partial image extracted by the partial image extraction means based on a recognition result by the image recognition means;
Image file generation means for generating an image file based on the partial image extracted by the partial image extraction means ,
The image file generation means includes information on the subject included in the partial image specified by the specifying means and information on the subject included in the captured image recognized by the image recognition means in the image file. An image processing apparatus for recording in association with each other .
請求項1に記載の画像処理装置において、
前記部分画像を対象として、前記部分画像の撮影シーンを判別するシーン判別手段をさらに備える画像処理装置。
The image processing apparatus according to claim 1.
An image processing apparatus further comprising a scene discriminating unit for discriminating a photographing scene of the partial image for the partial image.
請求項に記載の画像処理装置において、
前記シーン判別手段は、前記撮影画像全体を対象とした撮影シーンの判別結果も加味して、前記部分画像の撮影シーンを判別する画像処理装置。
The image processing apparatus according to claim 2 ,
The scene discrimination unit, in consideration also the discrimination result of the shooting scene that targets the captured whole image, an image processing apparatus for determining a photographic scene of the partial image.
請求項またはに記載の画像処理装置において、
前記画像ファイル生成手段は、前記特定手段によって特定された前記部分画像の撮影シーンに関する情報を前記画像ファイルに関連付けてさらに記録する画像処理装置。
The image processing apparatus according to claim 2 or 3 ,
The image file generation means, the image processing apparatus further recorded in association with information related to a shooting scene of the partial image specified by the specifying means in the image file.
請求項1〜のいずれか一項に記載の画像処理装置を備えたカメラ。 The camera provided with the image processing apparatus as described in any one of Claims 1-4 . コンピュータに、
撮影画像の所定範囲内から部分画像を抽出する部分画像抽出手順と、
前記撮影画像を対象として、前記撮影画像内に含まれる被写体を認識する画像認識手順と、
前記部分画像抽出手順で抽出した前記部分画像内に含まれる被写体を、前記画像認識手順による認識結果に基づいて特定する特定手順と、
前記部分画像抽出手順によって抽出された前記部分画像に基づいて画像ファイルを生成する画像ファイル生成手順とを実行させるための画像処理プログラムであり、
前記画像ファイル生成手順は、前記特定手順によって特定された前記部分画像内に含まれる被写体に関する情報と、前記画像認識手順によって認識された前記撮影画像内に含まれる被写体に関する情報とを前記画像ファイルに関連付けて記録する画像処理プログラム。
On the computer,
A partial image extraction procedure for extracting a partial image from a predetermined range of a captured image;
An image recognition procedure for recognizing a subject included in the captured image for the captured image;
A specific procedure for identifying a subject included in the partial image extracted by the partial image extraction procedure based on a recognition result by the image recognition procedure;
An image processing program for executing an image file generation procedure for generating an image file based on the partial image extracted by the partial image extraction procedure ,
In the image file generation procedure, information on the subject included in the partial image specified by the specifying procedure and information on the subject included in the captured image recognized by the image recognition procedure are stored in the image file. An image processing program for recording in association.
請求項6に記載の画像処理プログラムにおいて、
コンピュータに、
前記部分画像を対象として、前記部分画像の撮影シーンを判別するシーン判別手順をさらに実行させるための画像処理プログラム。
The image processing program according to claim 6,
On the computer,
Examples target partial image, the image processing program for further executing the scene determination procedure to determine the shooting scene of the partial image.
JP2009297755A 2009-12-28 2009-12-28 Image processing apparatus, camera, and image processing program Active JP5640377B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009297755A JP5640377B2 (en) 2009-12-28 2009-12-28 Image processing apparatus, camera, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009297755A JP5640377B2 (en) 2009-12-28 2009-12-28 Image processing apparatus, camera, and image processing program

Publications (2)

Publication Number Publication Date
JP2011139279A JP2011139279A (en) 2011-07-14
JP5640377B2 true JP5640377B2 (en) 2014-12-17

Family

ID=44350259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009297755A Active JP5640377B2 (en) 2009-12-28 2009-12-28 Image processing apparatus, camera, and image processing program

Country Status (1)

Country Link
JP (1) JP5640377B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013046338A (en) * 2011-08-26 2013-03-04 Nikon Corp Imaging apparatus
JP6075819B2 (en) * 2011-12-19 2017-02-08 キヤノン株式会社 Image processing apparatus, control method therefor, and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4325384B2 (en) * 2003-12-09 2009-09-02 株式会社ニコン Digital camera
JP4888111B2 (en) * 2006-12-26 2012-02-29 株式会社ニコン Subject recognition device, image search method, and subject recognition program
JP2008234624A (en) * 2007-02-19 2008-10-02 Seiko Epson Corp Category classification apparatus, category classification method, and program
JP4799511B2 (en) * 2007-08-30 2011-10-26 富士フイルム株式会社 Imaging apparatus and method, and program

Also Published As

Publication number Publication date
JP2011139279A (en) 2011-07-14

Similar Documents

Publication Publication Date Title
JP4640456B2 (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
JP4577275B2 (en) Imaging apparatus, image recording method, and program
JP5299912B2 (en) Imaging device and data structure of image file
US20110122294A1 (en) Digital photographing apparatus, method of controlling the same, and recording medium storing program to execute the method
US20100066847A1 (en) Imaging apparatus and program
JP5821457B2 (en) Image processing apparatus, image processing apparatus control method, and program for causing computer to execute the method
JP4663700B2 (en) Imaging apparatus and imaging method
JP2009060195A (en) Imaging apparatus, method, and program
JP4127521B2 (en) Digital camera and control method thereof
KR101046041B1 (en) Imaging device
KR101469544B1 (en) Image processing method and apparatus, and digital photographing apparatus
JP4577445B2 (en) Imaging apparatus, image recording method, and program
JP2003092701A (en) Imaging apparatus
JP4364466B2 (en) Imaging device
JP2005323015A (en) Digital camera
JP5640377B2 (en) Image processing apparatus, camera, and image processing program
JP4371219B2 (en) Digital camera
JP5044472B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2005039365A (en) Digital camera and control method thereof
JP5374612B2 (en) Image data identification method, imaging apparatus, program, and storage medium
KR101493693B1 (en) Information processing device, method for information processing, and storing medium having computer program to perform the method
JP5002311B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2008048152A (en) Moving picture processing apparatus, moving picture photographing apparatus and moving picture photographing program
JP2008172501A (en) Imaging apparatus
JP5257097B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140930

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141013

R150 Certificate of patent or registration of utility model

Ref document number: 5640377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250