JP2013013023A - Electronic camera, image processor and image processing program - Google Patents

Electronic camera, image processor and image processing program Download PDF

Info

Publication number
JP2013013023A
JP2013013023A JP2011145920A JP2011145920A JP2013013023A JP 2013013023 A JP2013013023 A JP 2013013023A JP 2011145920 A JP2011145920 A JP 2011145920A JP 2011145920 A JP2011145920 A JP 2011145920A JP 2013013023 A JP2013013023 A JP 2013013023A
Authority
JP
Japan
Prior art keywords
main subject
image
images
unit
subject region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011145920A
Other languages
Japanese (ja)
Inventor
Yuko Nakata
佑子 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011145920A priority Critical patent/JP2013013023A/en
Publication of JP2013013023A publication Critical patent/JP2013013023A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To perform suitable evaluation even if a main subject changes when a plurality of images are evaluated.SOLUTION: An electronic camera includes: an imaging section for imaging a subject and generating a plurality of continuous images; a detection section for detecting a main subject region on each of the plurality of images generated by the imaging section and detecting the main subject region in an arbitrary image on the basis of the main subject region detected in at least one image which temporally continues to the arbitrary image when the main subject region cannot be detected in the arbitrary image; and an evaluation section for calculating an evaluation value based on the image of the main subject region and evaluating the plurality of images generated by the imaging section on the basis of the calculated evaluation value.

Description

本発明は、電子カメラ、画像処理装置、および画像処理プログラムに関する。   The present invention relates to an electronic camera, an image processing apparatus, and an image processing program.

従来より、複数の画像を生成して記録媒体に記録した後に、露出、コントラスト、ボケなどの観点から画像の評価を行い、評価が所定の基準より低い画像を、上述した記録媒体から削除する技術が知られている(例えば、特許文献1参照)。   Conventionally, after a plurality of images are generated and recorded on a recording medium, the image is evaluated from the viewpoint of exposure, contrast, blur, etc., and an image whose evaluation is lower than a predetermined standard is deleted from the above-described recording medium Is known (see, for example, Patent Document 1).

特許文献1の発明では、露出条件評価、コントラスト評価、ボケ、焦点ボケの評価などにより画像評価処理を実行している。   In the invention of Patent Document 1, image evaluation processing is executed by exposure condition evaluation, contrast evaluation, blur, focus blur evaluation, and the like.

特開2006−50494号公報JP 2006-50494 A

ところで、上述した画像評価には、撮影者、または、鑑賞者にとっての主要被写体の状態が大きな影響を及ぼすことが知られている。そこで、上述した画像評価において、主要被写体領域を検出し、画像評価に利用することが考えられる。   By the way, it is known that the state of the main subject for the photographer or the viewer greatly affects the image evaluation described above. Therefore, in the above-described image evaluation, it is conceivable to detect a main subject region and use it for image evaluation.

しかし、主要被写体が動きのある被写体である場合や、主要被写体の一部が隠れてしまう場合などには、時系列に連続した複数の画像のうち、一部の画像において主要被写体領域の検出に問題が生じる場合がある。このような場合には、上述した一部の画像において、主要被写体領域を検出して画像評価を行うことができず、好適な評価を行うことができないという問題がある。   However, when the main subject is a moving subject or when a part of the main subject is hidden, the main subject region is detected in some of the images that are continuous in time series. Problems may arise. In such a case, in some of the images described above, there is a problem that the main subject region cannot be detected and image evaluation cannot be performed, and a suitable evaluation cannot be performed.

本発明は、上記問題に鑑みてなされたものであり、複数の画像に対する評価を行う際に、主要被写体が変化する場合であっても、好適な評価を行うことを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to perform a suitable evaluation even when a main subject changes when evaluating a plurality of images.

本発明の電子カメラは、被写体を撮像して、連続する複数の画像を生成する撮像部と、前記撮像部により生成した前記複数の画像のそれぞれについて、主要被写体領域の検出処理を行うとともに、任意の画像において前記主要被写体領域が検出できない場合には、その画像と時間的に連続する少なくとも1枚の画像において検出された前記主要被写体領域に基づいて、前記任意の画像における前記主要被写体領域の検出処理を行う検出部と、前記主要被写体領域の画像に基づく評価値を算出し、算出した前記評価値に基づいて、前記撮像部により生成した前記複数の画像の評価を行う評価部とを備える。   The electronic camera of the present invention captures a subject and generates a plurality of continuous images, and performs detection processing of a main subject region for each of the plurality of images generated by the imaging unit. If the main subject area cannot be detected in the image of the image, the main subject area in the arbitrary image is detected based on the main subject area detected in at least one image temporally continuous with the image. A detection unit that performs processing; and an evaluation unit that calculates an evaluation value based on the image of the main subject region and evaluates the plurality of images generated by the imaging unit based on the calculated evaluation value.

なお、前記検出部は、前記撮像部により生成した前記複数の画像のそれぞれについて、前記主要被写体領域の検出処理を行う際に、前記主要被写体領域が検出できない画像が所定の枚数以上連続する場合には、それらの画像における前記主要被写体領域の検出処理を中止し、前記評価部は、前記主要被写体領域が検出できない複数枚の画像に関する前記評価値を、前記主要被写体領域が検出できないことを示す所定の値としても良い。   Note that the detection unit performs detection processing of the main subject region for each of the plurality of images generated by the imaging unit, and when the number of images in which the main subject region cannot be detected continues for a predetermined number or more. Stops the detection processing of the main subject region in those images, and the evaluation unit indicates that the evaluation value regarding a plurality of images in which the main subject region cannot be detected cannot be detected by the main subject region. The value of

また、前記検出部は、前記撮像部により生成した前記複数の画像のそれぞれについて、前記主要被写体領域の検出処理を行う際に、時間的に連続する前記複数の画像のうち、時系列の端部において、前記主要被写体領域が検出できない画像が所定の枚数以上連続する場合には、それらの画像における前記主要被写体領域の検出処理を中止し、前記評価部は、前記主要被写体領域が検出できない複数枚の画像に関する前記評価値を、前記主要被写体領域が検出できないことを示す所定の値としても良い。   In addition, when the detection process of the main subject region is performed on each of the plurality of images generated by the imaging unit, the detection unit includes time-series end portions of the plurality of temporally continuous images. If the predetermined number of images in which the main subject area cannot be detected continues, the main subject area detection process in those images is stopped, and the evaluation unit detects a plurality of images in which the main subject area cannot be detected. The evaluation value relating to the image may be a predetermined value indicating that the main subject area cannot be detected.

また、前記撮像部により生成した前記複数の画像を記録媒体に記録する記録部と、前記評価部による評価結果に基づいて、前記記録媒体に記録された複数の画像のうち、一部の画像を削除する削除部とを備えても良い。   In addition, a recording unit that records the plurality of images generated by the imaging unit on a recording medium, and a part of the plurality of images recorded on the recording medium based on an evaluation result by the evaluation unit You may provide the deletion part to delete.

本発明の画像処理装置は、処理対象の画像として、複数の画像を取得する取得部と、前記取得部により取得した前記複数の画像のそれぞれについて、主要被写体領域の検出処理を行うとともに、任意の画像において前記主要被写体領域が検出できない場合には、その画像と時間的に連続する少なくとも1枚の画像において検出された前記主要被写体領域に基づいて、前記任意の画像における前記主要被写体領域の検出処理を行う検出部と、前記主要被写体領域の画像に基づく評価値を算出し、算出した前記評価値に基づいて、前記取得部により取得した前記複数の画像の評価を行う評価部と、前記評価部による評価結果に基づいて、前記取得部により取得した前記複数の画像のうち、一部の画像を選択する選択部とを備える。   The image processing apparatus according to the present invention performs a main subject region detection process on each of the acquisition unit that acquires a plurality of images as the processing target image, and the plurality of images acquired by the acquisition unit. When the main subject area cannot be detected in the image, the main subject area detection process in the arbitrary image is performed based on the main subject area detected in at least one image temporally continuous with the image. A evaluation unit that calculates an evaluation value based on the image of the main subject region, and evaluates the plurality of images acquired by the acquisition unit based on the calculated evaluation value, and the evaluation unit And a selection unit that selects a part of the plurality of images acquired by the acquisition unit based on the evaluation result by the acquisition unit.

なお、前取得部により取得した前記複数の画像を記録媒体に記録する記録部と、前記記録媒体に記録された複数の画像のうち、前記選択部により選択された前記一部の画像を削除する削除部とを備え、前記取得部は、前記複数の画像として、連続して撮像および生成された複数の画像を取得し、前記検出部は、前記記録媒体に記録された前記複数の画像のそれぞれについて、前記主要被写体領域の検出処理を行っても良い。   Note that a recording unit that records the plurality of images acquired by the pre-acquisition unit on a recording medium and a part of the images selected by the selection unit among the plurality of images recorded on the recording medium are deleted. A deletion unit, wherein the acquisition unit acquires a plurality of images captured and generated continuously as the plurality of images, and the detection unit is configured to each of the plurality of images recorded on the recording medium. For the above, the main subject area detection process may be performed.

本発明の画像処理プログラムは、処理対象の画像に対する画像処理をコンピュータで実現するための画像処理プログラムであって、前記処理対象の画像として、複数の画像を取得する取得ステップと、前記取得ステップにおいて取得した前記複数の画像のそれぞれについて、主要被写体領域の検出処理を行うとともに、任意の画像において前記主要被写体領域が検出できない場合には、その画像と時間的に連続する少なくとも1枚の画像において検出された前記主要被写体領域に基づいて、前記任意の画像における前記主要被写体領域の検出処理を行う検出ステップと、前記主要被写体領域の画像に基づく評価値を算出し、算出した前記評価値に基づいて、前記取得ステップにおいて取得した前記複数の画像の評価を行う評価ステップと、前記評価ステップにおける評価結果に基づいて、前記取得ステップにおいて取得した前記複数の画像のうち、一部の画像を選択する選択ステップとを備える。   An image processing program of the present invention is an image processing program for realizing image processing on a processing target image by a computer, wherein an acquisition step of acquiring a plurality of images as the processing target image, and the acquisition step For each of the plurality of acquired images, the main subject region is detected, and if the main subject region cannot be detected in an arbitrary image, it is detected in at least one image temporally continuous with the image. A detection step for performing detection processing of the main subject region in the arbitrary image based on the main subject region that has been performed, an evaluation value based on the image of the main subject region is calculated, and based on the calculated evaluation value An evaluation step for evaluating the plurality of images acquired in the acquisition step; Based on the evaluation result in the evaluation step, among the plurality of images acquired in the acquiring step, and a selection step of selecting a portion of the image.

本発明によれば、複数の画像に対する評価を行う際に、主要被写体が変化する場合であっても、好適な評価を行うことができる。   According to the present invention, when evaluating a plurality of images, a suitable evaluation can be performed even when the main subject changes.

一の実施形態における電子カメラの構成例を示すブロック図1 is a block diagram illustrating a configuration example of an electronic camera according to an embodiment. 一の実施形態における電子カメラの動作を示す流れ図6 is a flowchart showing the operation of the electronic camera in one embodiment. 一の実施形態における処理の流れを説明する模式Schematic explaining the flow of processing in one embodiment 一の実施形態における主要被写体領域の検出について説明する図The figure explaining the detection of the main subject area in one embodiment 一の実施形態における主要被写体領域の検出について説明する別の図Another figure explaining detection of a main subject area in one embodiment 一の実施形態における主要被写体領域の検出について説明する別の図Another figure explaining detection of a main subject area in one embodiment

図1は、一の実施形態における電子カメラ10の構成例を示すブロック図である。電子カメラ10は、撮像レンズ11と、シャッタ12と、撮像素子13と、AFE14と、画像処理部15と、第1メモリ16と、第2メモリ17と、記録I/F18と、CPU19と、操作部20と、バス21とを備えている。ここで、画像処理部15、第1メモリ16、第2メモリ17、記録I/F18、CPU19は、バス21を介してそれぞれ接続されている。また、シャッタ11、撮像素子13、AFE14、操作部20は、それぞれCPU19と接続されている。   FIG. 1 is a block diagram illustrating a configuration example of an electronic camera 10 according to an embodiment. The electronic camera 10 includes an imaging lens 11, a shutter 12, an imaging device 13, an AFE 14, an image processing unit 15, a first memory 16, a second memory 17, a recording I / F 18, a CPU 19, and an operation. A unit 20 and a bus 21 are provided. Here, the image processing unit 15, the first memory 16, the second memory 17, the recording I / F 18, and the CPU 19 are respectively connected via a bus 21. Further, the shutter 11, the image sensor 13, the AFE 14, and the operation unit 20 are each connected to the CPU 19.

シャッタ12は、撮影レンズ11と撮像素子13との間に配置されるメカシャッタである。   The shutter 12 is a mechanical shutter disposed between the photographing lens 11 and the image sensor 13.

撮像素子13は、撮像レンズ11による結像を撮像する撮像デバイスである。一の実施形態の撮像素子13は、例えば、任意の受光素子の画像信号をランダムアクセスで読み出し可能なCMOS型の固体撮像素子で構成される。なお、撮像素子13の出力はAFE14に接続されている。   The imaging element 13 is an imaging device that captures an image formed by the imaging lens 11. The image pickup device 13 of one embodiment is configured by, for example, a CMOS solid-state image pickup device that can read an image signal of an arbitrary light receiving device by random access. Note that the output of the image sensor 13 is connected to the AFE 14.

AFE14は、撮像素子13の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このAFE14は、相関二重サンプリングや、画像信号のゲインの調整や、画像信号のA/D変換を行う。そして、AFE14の出力は画像処理部15に接続されている。なお、CPU19は、AFE14により画像信号のゲインを調整することで、ISO感度に相当する撮像感度の調整を行う。   The AFE 14 is an analog front end circuit that performs analog signal processing on the output of the image sensor 13. The AFE 14 performs correlated double sampling, image signal gain adjustment, and A / D conversion of the image signal. The output of the AFE 14 is connected to the image processing unit 15. The CPU 19 adjusts the imaging sensitivity corresponding to the ISO sensitivity by adjusting the gain of the image signal by the AFE 14.

画像処理部15は、AFE14から出力されたデジタルの画像信号に対して各種の画像処理(色補間処理、階調変換処理、ホワイトバランス調整など)を施す。   The image processing unit 15 performs various types of image processing (color interpolation processing, gradation conversion processing, white balance adjustment, etc.) on the digital image signal output from the AFE 14.

第1メモリ16は、画像処理の前工程や後工程で画像のデータを一時的に記憶する。例えば、第1メモリ16は、揮発性の記憶媒体であるSDRAMにより構成される。また、第2メモリ17は、CPU19によって実行されるプログラムや、各画像信号でのSN比と撮像感度の値との対応関係を示すデータテーブルなどを記憶する不揮発性のメモリである。   The first memory 16 temporarily stores image data in the pre-process and post-process of image processing. For example, the first memory 16 is configured by an SDRAM that is a volatile storage medium. The second memory 17 is a non-volatile memory that stores a program executed by the CPU 19 and a data table indicating a correspondence relationship between the S / N ratio and the imaging sensitivity value in each image signal.

記録I/F18は、不揮発性の記憶媒体22を接続するためのコネクタを有している。そして、記録I/F18は、コネクタに接続された記憶媒体22に対して後述の本画像のデータの書き込み/読み込みを実行する。上記の記憶媒体22は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体22の一例としてメモリカードを図示する。   The recording I / F 18 has a connector for connecting a nonvolatile storage medium 22. The recording I / F 18 executes writing / reading of main image data, which will be described later, with respect to the storage medium 22 connected to the connector. The storage medium 22 is composed of a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the storage medium 22.

CPU19は、電子カメラ10の動作を統括的に制御するプロセッサである。例えば、CPU19は、被写体の撮影を行うための撮影モードでの動作時において、ユーザの撮像指示入力に応じて撮像素子13を駆動させて、不揮発性の記憶媒体22への記録を伴う本画像の撮像処理を実行する。   The CPU 19 is a processor that comprehensively controls the operation of the electronic camera 10. For example, the CPU 19 drives the imaging device 13 in response to a user's imaging instruction input during operation in a shooting mode for shooting a subject, and records the main image with recording in the nonvolatile storage medium 22. An imaging process is executed.

また、撮影モードでのCPU19は、本画像の撮像に先立って公知の自動露出演算を実行し、撮像条件の1パラメータである撮像感度を設定する。また、CPU19は、ユーザの入力に基づいて上記の撮像感度を設定してもよい。   In addition, the CPU 19 in the shooting mode executes a known automatic exposure calculation prior to capturing the main image, and sets the imaging sensitivity that is one parameter of the imaging conditions. Further, the CPU 19 may set the above-described imaging sensitivity based on a user input.

操作部20は、ユーザの操作を受け付ける複数のスイッチを有している。この操作部20は、例えば、本画像の撮像指示を受け付けるレリーズ釦や、十字状のカーソルキーや、決定釦などで構成される。   The operation unit 20 includes a plurality of switches that accept user operations. The operation unit 20 includes, for example, a release button that receives an instruction to capture a main image, a cross-shaped cursor key, a determination button, and the like.

なお、電子カメラ10は、複数の画像を連続して撮像し、生成した複数の画像を一旦記録し、その後に画像評価を行って評価の低い画像を削除する、いわゆるベストショットモードを備える。このモードは、操作部20を介したユーザの操作に基づいて設定されても良いし、CPU19により自動で設定されても良い。なお、ベストショットモードにおいては、ユーザは、操作部20のレリーズ釦を1回操作することにより撮影指示を行う。   The electronic camera 10 includes a so-called best shot mode in which a plurality of images are continuously captured, the generated plurality of images are temporarily recorded, and then an image evaluation is performed to delete an image with a low evaluation. This mode may be set based on a user operation through the operation unit 20 or may be automatically set by the CPU 19. In the best shot mode, the user gives a shooting instruction by operating the release button of the operation unit 20 once.

次に、ベストショットモードでの電子カメラ10の動作例を、図2の流れ図および図3の模式図を用いて説明する。なお、図2および図3におけるステップ番号(S101〜S110)は、それぞれ対応する。   Next, an operation example of the electronic camera 10 in the best shot mode will be described with reference to a flowchart of FIG. 2 and a schematic diagram of FIG. The step numbers (S101 to S110) in FIGS. 2 and 3 correspond to each other.

ステップS101において、CPU19は、ユーザによる撮影指示が行われたか否かを判定する。CPU19は、操作部20を介したユーザによる撮影指示が行われるまで待機し、撮影指示が行われるとステップS102に進む。   In step S <b> 101, the CPU 19 determines whether or not a shooting instruction has been given by the user. The CPU 19 waits until a shooting instruction is given by the user via the operation unit 20, and proceeds to step S102 when the shooting instruction is issued.

ステップS102において、CPU19は、各部を制御して、n枚目の画像を撮影する。なお、初回のステップS102においては、n=1である。なお、以下では、n回目の撮影により生成された画像を、Img[n]と称する。例えば、1回目の撮影により生成された画像は、Img[1]である。   In step S <b> 102, the CPU 19 controls each unit to capture the nth image. In the first step S102, n = 1. Hereinafter, an image generated by the n-th shooting is referred to as Img [n]. For example, the image generated by the first shooting is Img [1].

ステップS103において、CPU19は、ステップS102の撮像により生成したn枚目の画像を記録I/F18を介して記憶媒体22に記録する。なお、CPU19は、記憶媒体22に記録する代わりに、第1メモリ16に記録しても良い。   In step S103, the CPU 19 records the nth image generated by the imaging in step S102 on the storage medium 22 via the recording I / F 18. Note that the CPU 19 may record in the first memory 16 instead of recording in the storage medium 22.

ステップS104において、CPU19は、ステップS102からステップS103の処理をN枚分終了したか否かを判定する。CPU19は、N枚分終了していないと判定するとステップS105に進み、N枚分終了したと判定すると、後述するステップS106に進む。なお、Nとは予め定められた撮影枚数(例えばN=20)である。この枚数は、固定のものであっても良いし、CPU19により自動で定められたものであっても良いし、操作部20を介したユーザ操作により定められたものであっても良い。   In step S104, the CPU 19 determines whether or not the processing from step S102 to step S103 has been completed for N sheets. If the CPU 19 determines that N sheets have not been completed, the process proceeds to step S105. If the CPU 19 determines that N sheets have been completed, the process proceeds to step S106 described below. N is a predetermined number of shots (for example, N = 20). This number may be fixed, may be determined automatically by the CPU 19, or may be determined by a user operation via the operation unit 20.

ステップS105において、CPU19は、n=n+1として、ステップS102に戻る。すなわち、CPU19は、N回の撮影を繰り返し(ステップS102)、N枚の画像を記録する(ステップS103)。   In step S105, the CPU 19 sets n = n + 1 and returns to step S102. That is, the CPU 19 repeats N times of photographing (step S102) and records N images (step S103).

ステップS106において、CPU19は、記憶媒体22に記録されたN枚の画像のそれぞれについて、主要被写体領域S[n]を検出する。なお、以下では、n枚目の画像について検出された主要被写体領域を、主要被写体領域S[n]と称する。例えば、1枚目の画像について検出された主要被写体領域は、主要被写体領域S[1]である。なお、主要被写体領域の検出は、例えば、輝度情報、焦点情報、コントラスト情報、エッジ情報などに基づいて、公知技術と同様に行われる。   In step S <b> 106, the CPU 19 detects the main subject area S [n] for each of the N images recorded on the storage medium 22. Hereinafter, the main subject area detected for the nth image is referred to as a main subject area S [n]. For example, the main subject area detected for the first image is the main subject area S [1]. Note that the detection of the main subject area is performed in the same manner as in the known technique based on, for example, luminance information, focus information, contrast information, edge information, and the like.

ただし、CPU19は、主要被写体領域S[n]の検出を適切に行うことができない場合には、以下の処理を行う。   However, if the main subject area S [n] cannot be properly detected, the CPU 19 performs the following processing.

(1)任意の画像Img[X]において、主要被写体領域S[X]が検出できない場合。   (1) A case where the main subject region S [X] cannot be detected in an arbitrary image Img [X].

例えば、図4に示すように、画像Img[X]において、主要被写体領域S[X]が検出できない場合、CPU19は、画像Img[X]と時間的に連続する少なくとも1枚の画像において検出された主要被写体領域(例えば、主要被写体領域S[X−1]および主要被写体領域S[X+1])に基づいて、内挿処理を行うことにより、主要被写体領域S[X]を検出する。なお、このとき、画像Img[X]と時間的に連続する少なくとも1枚の画像として、時間的に前側に連続する画像、または、後側に連続する画像において検出された主要被写体領域(例えば、主要被写体領域S[X−1]または主要被写体領域S[X+1])に基づいて、一方向のみからの内挿処理を行うことにより、主要被写体領域S[X]を検出しても良い。   For example, as shown in FIG. 4, when the main subject region S [X] cannot be detected in the image Img [X], the CPU 19 detects it in at least one image temporally continuous with the image Img [X]. The main subject region S [X] is detected by performing interpolation processing based on the main subject region (for example, the main subject region S [X-1] and the main subject region S [X + 1]). At this time, as at least one image temporally continuous with the image Img [X], the main subject region (for example, for example, detected in the temporally continuous image on the front side or the continuous image on the back side) Based on the main subject region S [X−1] or the main subject region S [X + 1]), the main subject region S [X] may be detected by performing interpolation processing from only one direction.

また、内挿に用いる前後の画像の枚数は何枚であっても良い。例えば、CPU19は、主要被写体領域S[X−1]および主要被写体領域S[X−2]の2枚の画像に基づいて内挿処理を行っても良いし、主要被写体領域S[X+1]および主要被写体領域S[X+2]の2枚の画像に基づいて内挿処理を行っても良い。さらに、CPU19は、例えば、主要被写体領域S[X−1]、主要被写体領域S[X−2]、主要被写体領域S[X+1]、主要被写体領域S[X+2]の4枚の画像に基づいて内挿処理を行っても良い。   Further, the number of images before and after being used for interpolation may be any number. For example, the CPU 19 may perform an interpolation process based on two images of the main subject region S [X-1] and the main subject region S [X-2], or the main subject region S [X + 1] and the main subject region S [X + 1] Interpolation processing may be performed based on two images of the main subject area S [X + 2]. Further, the CPU 19 is based on, for example, four images of a main subject region S [X-1], a main subject region S [X-2], a main subject region S [X + 1], and a main subject region S [X + 2]. Interpolation processing may be performed.

また、内挿以外の方法を用いても良い。   A method other than interpolation may be used.

(2)主要被写体領域S[n]が検出できない画像が所定の枚数(例えば、3枚)以上連続する場合。   (2) A case where a predetermined number (for example, three) or more of images in which the main subject area S [n] cannot be detected continues.

例えば、図5に示すように、画像Img[X−1]からImg[X+1]までの3枚の画像において主要被写体領域S[n]が検出できない場合、CPU19は、主要被写体が対象画像のフレーム外に出たと判断し、これらの3枚の画像における主要被写体領域S[n]の検出を中止する。   For example, as shown in FIG. 5, when the main subject area S [n] cannot be detected in three images from the images Img [X−1] to Img [X + 1], the CPU 19 determines that the main subject is a frame of the target image. It is determined that the subject has gone out, and detection of the main subject region S [n] in these three images is stopped.

(3)N枚の画像のうち、時系列の端部(最初、または、最後の部分)において、主要被写体領域S[n]が検出できない画像が所定の枚数(例えば、3枚)以上連続する場合。   (3) Among N images, a predetermined number (for example, three) or more of images in which the main subject region S [n] cannot be detected continue at a time-series end portion (first or last portion). If.

例えば、図6に示すように、N枚の画像のうち、時系列の最初側の端部である画像Img[1]からImg[3]までの3枚の画像において主要被写体領域S[n]が検出できない場合、CPU19は、上述した(2)と同様に、主要被写体が対象画像のフレーム外に出たと判断し、これらの3枚の画像における主要被写体領域S[n]の検出を中止する。   For example, as shown in FIG. 6, the main subject region S [n] in the three images from the images Img [1] to Img [3], which are the end portions on the first side in time series, among the N images. Cannot be detected, the CPU 19 determines that the main subject has moved out of the frame of the target image, and stops detecting the main subject region S [n] in these three images, as in (2) above. .

(4)N枚の画像の全てにおいて、主要被写体領域S[n]が検出できない場合。   (4) The main subject area S [n] cannot be detected in all N images.

CPU19は、N枚の画像のそれぞれについて、画面全体を主要被写体領域S[n]とするか、または、固定領域(例えば、中央領域など)を主要被写体領域S[n]とする。   For each of the N images, the CPU 19 sets the entire screen as the main subject area S [n], or sets the fixed area (for example, the center area) as the main subject area S [n].

なお、上述した(1)から(3)において、処理を簡略化するために、任意の画像Img[X]において主要被写体領域S[X]を検出できない場合に、主要被写体領域S[n]を検出できた画像のうち、任意の画像Img[X]と最も時間的に近い画像における主要被写体領域S[n]を、任意の画像Img[X]における主要被写体領域S[X]としても良い。   In the above (1) to (3), in order to simplify the processing, when the main subject region S [X] cannot be detected in an arbitrary image Img [X], the main subject region S [n] is selected. Of the detected images, the main subject region S [n] in the image closest in time to the arbitrary image Img [X] may be set as the main subject region S [X] in the arbitrary image Img [X].

また、上述した(1)から(4)では、主要被写体領域S[n]の検出を適切に行うことができない場合を例に挙げて説明したが、検出された主要被写体領域S[n]の信頼性に疑いがある場合にも、同様の処理を行っても良い。例えば、任意の画像Img[X]において検出した主要被写体領域S[X]と、前後に連続する画像において検出された主要被写体領域S[n]とで、その位置や大きさが著しく異なる場合には、誤検出などの可能性が高く、主要被写体領域S[X] の信頼性に疑いがある。このような場合、CPU19は、上述した(1)から(4)と同様の処理を行っても良い。   In the above (1) to (4), the case where the main subject region S [n] cannot be appropriately detected has been described as an example. However, the detected main subject region S [n] The same processing may be performed when there is a doubt about reliability. For example, when the position and size of the main subject region S [X] detected in an arbitrary image Img [X] and the main subject region S [n] detected in consecutive images are significantly different. Has a high possibility of erroneous detection and the reliability of the main subject region S [X] is doubtful. In such a case, the CPU 19 may perform the same processing as (1) to (4) described above.

ステップS107において、CPU19は、記憶媒体22に記録されたN枚の画像のそれぞれについて、ステップS104で検出した主要被写体領域S[n]に基づき、評価値E[n]を算出する。なお、以下では、n枚目の画像について算出された評価値を、評価値E[n]と称する。例えば、1枚目の画像について算出された評価値は、評価値E[1]である。評価値の算出は、例えば、輝度情報、焦点情報、コントラスト情報、エッジ情報などと、主要被写体領域S[n]内の画素値とに基づいて、公知技術と同様に行われる。   In step S107, the CPU 19 calculates an evaluation value E [n] for each of the N images recorded in the storage medium 22 based on the main subject area S [n] detected in step S104. Hereinafter, the evaluation value calculated for the nth image is referred to as an evaluation value E [n]. For example, the evaluation value calculated for the first image is the evaluation value E [1]. The evaluation value is calculated in the same manner as in the known technique based on, for example, luminance information, focus information, contrast information, edge information, and the pixel value in the main subject region S [n].

ただし、ステップS104の(2)および(3)で説明したように、主要被写体領域の検出を中止した画像について、CPU19は、その画像に関する評価値E[n]を、主要被写体領域が検出できないことを示す所定の値とする。主要被写体領域が検出できないことを示す値は、どのようなものであっても良く、例えば、評価値E[n]が取り得る値の最小値などが考えられる。また、評価値E[n]が取り得る値のうち、比較的低い値を、主要被写体領域が検出できないことを示す値としても良い。   However, as described in (2) and (3) of step S104, the CPU 19 cannot detect the evaluation value E [n] relating to the image for which the detection of the main subject area is stopped from the main subject area. Is a predetermined value. The value indicating that the main subject area cannot be detected may be any value, for example, the minimum value that can be taken by the evaluation value E [n]. Also, a relatively low value among the possible values of the evaluation value E [n] may be a value indicating that the main subject area cannot be detected.

また、ステップS106で説明した主要被写体領域S[n]の検出において、内挿処理などを行って主要被写体領域S[n]を検出した場合には、内挿処理を行わずに主要被写体領域S[n]を検出した場合に比べて評価値E[n]が低くなるように、評価値E[n]を調整しても良い。   In the detection of the main subject area S [n] described in step S106, when the main subject area S [n] is detected by performing an interpolation process or the like, the main subject area S is not performed without performing the interpolation process. The evaluation value E [n] may be adjusted so that the evaluation value E [n] is lower than when [n] is detected.

ステップS108において、CPU19は、記憶媒体22に記録されたN枚の画像のそれぞれについて、ステップS107で算出した評価値E[n]に基づいて、画像の評価を行い、評価値を算出する。評価値の算出は公知技術と同様に行われる。   In step S108, the CPU 19 evaluates the image for each of the N images recorded in the storage medium 22 based on the evaluation value E [n] calculated in step S107, and calculates an evaluation value. The evaluation value is calculated in the same manner as in the known technique.

ステップS109において、CPU19は、削除する画像を決定する。CPU19は、ステップS108で算出した評価値に基づき、評価の低い方から所定の枚数(例えば、15枚)の画像を削除する画像として選択する。このような選択を行うことにより、評価の高い画像を選択的に残すことができる。なお、削除する画像の枚数は、固定のものであっても良いし、CPU19により自動で定められたものであっても良いし、操作部20を介したユーザ操作により定められたものであっても良い。   In step S109, the CPU 19 determines an image to be deleted. Based on the evaluation value calculated in step S108, the CPU 19 selects a predetermined number (for example, 15) of images from the lowest evaluation as images to be deleted. By making such a selection, an image with a high evaluation can be selectively left. The number of images to be deleted may be fixed, may be determined automatically by the CPU 19, or may be determined by a user operation via the operation unit 20. Also good.

ステップS110において、CPU19は、ステップS109で決定した画像を記録媒体22から削除して、一連の処理を終了する。   In step S110, the CPU 19 deletes the image determined in step S109 from the recording medium 22, and ends the series of processes.

なお、ステップS103において、撮影により生成した画像を第1メモリ16に記録した場合には、CPU19は、第1メモリから画像を削除し、残りの画像を記録I/F18を介して記憶媒体22に記録する。   In step S103, when an image generated by shooting is recorded in the first memory 16, the CPU 19 deletes the image from the first memory and stores the remaining image in the storage medium 22 via the recording I / F 18. Record.

以上説明したように、本実施形態によれば、被写体を撮像して、時間的に連続する複数の画像を生成し、生成した複数の画像を記録媒体に記録する。そして、記録媒体に記録された複数の画像のそれぞれについて、主要被写体領域を検出するとともに、任意の画像において主要被写体領域が検出できない場合には、その画像と時間的に連続する少なくとも1枚の画像において検出された主要被写体領域に基づいて、上述した任意の画像における主要被写体領域を検出する。さらに、主要被写体領域の画像に基づく評価値を算出し、算出した評価値に基づいて、記録媒体に記録された複数の画像の評価を行い、評価結果に基づいて、記録媒体に記録された複数の画像のうち、一部の画像を削除する。したがって、複数の画像に対する評価を行う際に、主要被写体が変化する場合であっても、好適な評価を行うことができる。このような評価の結果、好適な画像の選択および削除を行うことができるので、ベストショットモードにおいて、最適な画像を残すことができる。   As described above, according to the present embodiment, a subject is imaged, a plurality of temporally continuous images are generated, and the generated plurality of images are recorded on a recording medium. Then, for each of the plurality of images recorded on the recording medium, the main subject area is detected, and if the main subject area cannot be detected in an arbitrary image, at least one image that is temporally continuous with the image. Based on the main subject area detected in step 1, the main subject area in the above-described arbitrary image is detected. Further, an evaluation value based on the image of the main subject area is calculated, a plurality of images recorded on the recording medium are evaluated based on the calculated evaluation value, and a plurality of images recorded on the recording medium are calculated based on the evaluation result. Delete some of the images. Therefore, when evaluating a plurality of images, a favorable evaluation can be performed even when the main subject changes. As a result of such evaluation, a suitable image can be selected and deleted, so that an optimal image can be left in the best shot mode.

なお、本実施形態では、N枚の画像を撮影(ステップS102)および記録(ステップS103)した後に、主要被写体領域S[n]の検出(ステップS106)および評価値E[n]の算出(ステップS107)を行う例を示したが、本発明はこの例に限定されない。例えば、N枚の画像を撮影(ステップS102)した後すぐに、主要被写体領域S[n]の検出(ステップS106)および評価値E[n]の算出(ステップS107)を開始しても良い。   In the present embodiment, after taking N images (step S102) and recording (step S103), detection of the main subject region S [n] (step S106) and calculation of the evaluation value E [n] (steps) Although an example of performing S107) has been shown, the present invention is not limited to this example. For example, detection of the main subject region S [n] (step S106) and calculation of the evaluation value E [n] (step S107) may be started immediately after taking N images (step S102).

また、本実施形態では、主要被写体領域S[n]の検出(ステップS106)において、主要被写体が対象画像のフレーム外に出たと判断する際の例として、主要被写体領域S[n]の検出対象の画像が時系列の端部にある場合と、時系列の端部に無い場合とで同じ枚数(3枚)を基準に判断する例を示した。しかし、CPU19は、主要被写体が対象画像のフレーム外に出たと判断する基準の枚数を、主要被写体領域S[n]の検出対象の画像が時系列の端部にある場合と、時系列の端部に無い場合とで変えても良い。例えば、CPU19は、時系列の端部において、主要被写体領域S[n]が検出できない画像が2枚連続した場合に主要被写体が対象画像のフレーム外に出たと判断し、主要被写体領域S[n]の検出対象の画像が時系列の端部に無い場合には、主要被写体領域S[n]が検出できない画像が3枚連続した場合に主要被写体が対象画像のフレーム外に出たと判断してもよい。   In the present embodiment, as an example of determining that the main subject has moved outside the frame of the target image in the detection of the main subject region S [n] (step S106), the detection target of the main subject region S [n] In this example, the determination is based on the same number of images (3) when the image is at the end of the time series and when the image is not at the end of the time series. However, the CPU 19 determines the reference number for determining that the main subject has moved out of the frame of the target image when the image to be detected in the main subject region S [n] is at the end of the time series and It may be changed depending on whether it is not in the department. For example, the CPU 19 determines that the main subject has moved out of the frame of the target image when two images in which the main subject region S [n] cannot be detected are consecutive at the end of the time series, and the main subject region S [n ] Is not at the end of the time series, it is determined that the main subject has moved out of the frame of the target image when three images in which the main subject region S [n] cannot be detected are consecutive. Also good.

また、例えば、CPU19は、時系列の端部において、主要被写体領域S[n]が検出できない画像が4枚連続した場合に主要被写体が対象画像のフレーム外に出たと判断し、主要被写体領域S[n]の検出対象の画像が時系列の端部に無い場合には、主要被写体領域S[n]が検出できない画像が3枚連続した場合に主要被写体が対象画像のフレーム外に出たと判断してもよい。   Further, for example, the CPU 19 determines that the main subject has moved out of the frame of the target image when four images in which the main subject region S [n] cannot be detected are consecutive at the end of the time series, and the main subject region S When the detection target image of [n] is not at the end of the time series, it is determined that the main subject has moved out of the frame of the target image when three images in which the main subject region S [n] cannot be detected are consecutive. May be.

なお、上述した「主要被写体が対象画像のフレーム外に出たと判断する基準となる所定の枚数」は、操作部20を介したユーザの操作に基づいて設定されても良いし、CPU19により自動で設定されても良い。CPU19により自動で設定する際には、撮像時に設定された撮影モードの種類や撮影条件などによって、適当な枚数を設定する構成としてもよい。   Note that the above-mentioned “predetermined number as a reference for determining that the main subject has moved out of the frame of the target image” may be set based on a user operation via the operation unit 20 or automatically by the CPU 19. It may be set. When the CPU 19 automatically sets, an appropriate number may be set according to the type of shooting mode and shooting conditions set at the time of imaging.

また、本実施形態では、ベストショットモード時に図2のフローチャートに示した一連の処理を行う例を示したが、本発明はこの例に限定されない。例えば、連写モードにおいて複数の画像を生成する場合にも本発明を同様に適用することができる。また、ユーザにより選択された複数の画像を対象として、ステップS106以降の処理を行っても良い。   In the present embodiment, an example in which the series of processes shown in the flowchart of FIG. 2 is performed in the best shot mode is shown, but the present invention is not limited to this example. For example, the present invention can be similarly applied when generating a plurality of images in the continuous shooting mode. Moreover, you may perform the process after step S106 for the some image selected by the user.

また、上述した実施形態では、本発明の技術を図1に示した電子カメラ10において実現する例について説明した。しかしながら、本発明はこれに限定されない。例えば、図1に示した電子カメラ10以外の構成の電子カメラについても本発明を同様に適用することができる。   In the above-described embodiment, the example in which the technique of the present invention is implemented in the electronic camera 10 illustrated in FIG. 1 has been described. However, the present invention is not limited to this. For example, the present invention can be similarly applied to an electronic camera having a configuration other than the electronic camera 10 illustrated in FIG.

また、コンピュータと画像処理プログラムとにより、上記実施形態で説明した画像処理装置をソフトウェア的に実現しても良い。この場合、図2のフローチャートで説明したステップS106以降の処理の一部または全部をコンピュータで実現する構成とすれば良い。または、
さらに、上述したコンピュータ以外にも、デジタルの画像の再生表示機能やレタッチ機能を有する電子機器(例えば、フォトビューアー、デジタルフォトフレーム、写真の印刷装置など)などに本発明を同様に適用することができる。また、上述した実施形態で説明した電子カメラ10は、携帯電話端末などのカメラモジュールとして実装されるものであってもよい。
Further, the image processing apparatus described in the above embodiment may be realized as software by a computer and an image processing program. In this case, what is necessary is just to make it the structure which implement | achieves part or all of the process after step S106 demonstrated with the flowchart of FIG. 2 with a computer. Or
Further, in addition to the computer described above, the present invention can be similarly applied to an electronic device (for example, a photo viewer, a digital photo frame, a photo printing apparatus, etc.) having a digital image reproduction display function and a retouch function. it can. In addition, the electronic camera 10 described in the above-described embodiment may be mounted as a camera module such as a mobile phone terminal.

また、上述した実施形態では、各処理をソフトウェア的に実現する例を説明したが、ASIC等によってこれらの各処理をハードウエア的に実現しても勿論かまわない。   In the above-described embodiment, an example in which each process is realized by software has been described. However, it is a matter of course that each process may be realized by hardware using an ASIC or the like.

10…電子カメラ、13…撮像素子、14…AFE、16…第1メモリ、17…第2メモリ、19…CPU、22…記憶媒体 DESCRIPTION OF SYMBOLS 10 ... Electronic camera, 13 ... Image sensor, 14 ... AFE, 16 ... 1st memory, 17 ... 2nd memory, 19 ... CPU, 22 ... Storage medium

Claims (7)

被写体を撮像して、連続する複数の画像を生成する撮像部と、
前記撮像部により生成した前記複数の画像のそれぞれについて、主要被写体領域の検出処理を行うとともに、任意の画像において前記主要被写体領域が検出できない場合には、その画像と時間的に連続する少なくとも1枚の画像において検出された前記主要被写体領域に基づいて、前記任意の画像における前記主要被写体領域の検出処理を行う検出部と、
前記主要被写体領域の画像に基づく評価値を算出し、算出した前記評価値に基づいて、前記撮像部により生成した前記複数の画像の評価を行う評価部と
を備えたことを特徴とする電子カメラ。
An imaging unit that images a subject and generates a plurality of continuous images;
For each of the plurality of images generated by the imaging unit, a main subject region detection process is performed, and when the main subject region cannot be detected in an arbitrary image, at least one image temporally continuous with the image A detection unit that performs detection processing of the main subject region in the arbitrary image based on the main subject region detected in the image of
An electronic camera comprising: an evaluation unit that calculates an evaluation value based on an image of the main subject region, and evaluates the plurality of images generated by the imaging unit based on the calculated evaluation value .
請求項1に記載の電子カメラにおいて、
前記検出部は、前記撮像部により生成した前記複数の画像のそれぞれについて、前記主要被写体領域の検出処理を行う際に、前記主要被写体領域が検出できない画像が所定の枚数以上連続する場合には、それらの画像における前記主要被写体領域の検出処理を中止し、
前記評価部は、前記主要被写体領域が検出できない複数枚の画像に関する前記評価値を、前記主要被写体領域が検出できないことを示す所定の値とする
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
The detection unit, when performing detection processing of the main subject region for each of the plurality of images generated by the imaging unit, if the number of images that cannot detect the main subject region continues for a predetermined number of times, Stop the detection process of the main subject area in those images,
The electronic camera according to claim 1, wherein the evaluation unit sets the evaluation value relating to a plurality of images in which the main subject area cannot be detected as a predetermined value indicating that the main subject area cannot be detected.
請求項1に記載の電子カメラにおいて、
前記検出部は、前記撮像部により生成した前記複数の画像のそれぞれについて、前記主要被写体領域の検出処理を行う際に、時間的に連続する前記複数の画像のうち、時系列の端部において、前記主要被写体領域が検出できない画像が所定の枚数以上連続する場合には、それらの画像における前記主要被写体領域の検出処理を中止し、
前記評価部は、前記主要被写体領域が検出できない複数枚の画像に関する前記評価値を、前記主要被写体領域が検出できないことを示す所定の値とする
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
For each of the plurality of images generated by the imaging unit, when the detection process of the main subject region is performed, the detection unit, at the time-series end of the plurality of temporally continuous images, If there are more than a predetermined number of images in which the main subject area cannot be detected, the main subject area detection process in those images is stopped,
The electronic camera according to claim 1, wherein the evaluation unit sets the evaluation value relating to a plurality of images in which the main subject area cannot be detected as a predetermined value indicating that the main subject area cannot be detected.
請求項1から請求項3の何れか1項に記載の電子カメラにおいて、
前記撮像部により生成した前記複数の画像を記録媒体に記録する記録部と、
前記評価部による評価結果に基づいて、前記記録媒体に記録された複数の画像のうち、一部の画像を削除する削除部とを備える
ことを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 3,
A recording unit that records the plurality of images generated by the imaging unit on a recording medium;
An electronic camera, comprising: a deletion unit that deletes some of the plurality of images recorded on the recording medium based on an evaluation result by the evaluation unit.
処理対象の画像として、複数の画像を取得する取得部と、
前記取得部により取得した前記複数の画像のそれぞれについて、主要被写体領域の検出処理を行うとともに、任意の画像において前記主要被写体領域が検出できない場合には、その画像と時間的に連続する少なくとも1枚の画像において検出された前記主要被写体領域に基づいて、前記任意の画像における前記主要被写体領域の検出処理を行う検出部と、
前記主要被写体領域の画像に基づく評価値を算出し、算出した前記評価値に基づいて、前記取得部により取得した前記複数の画像の評価を行う評価部と、
前記評価部による評価結果に基づいて、前記取得部により取得した前記複数の画像のうち、一部の画像を選択する選択部と
を備えたことを特徴とする画像処理装置。
An acquisition unit that acquires a plurality of images as a processing target image;
For each of the plurality of images acquired by the acquisition unit, a main subject region detection process is performed, and if the main subject region cannot be detected in an arbitrary image, at least one image that is temporally continuous with the image A detection unit that performs detection processing of the main subject region in the arbitrary image based on the main subject region detected in the image of
An evaluation unit that calculates an evaluation value based on the image of the main subject region, and that evaluates the plurality of images acquired by the acquisition unit based on the calculated evaluation value;
An image processing apparatus comprising: a selection unit that selects a part of the plurality of images acquired by the acquisition unit based on an evaluation result by the evaluation unit.
請求項5に記載の画像処理装置において、
前取得部により取得した前記複数の画像を記録媒体に記録する記録部と、
前記記録媒体に記録された複数の画像のうち、前記選択部により選択された前記一部の画像を削除する削除部とを備え、
前記取得部は、前記複数の画像として、連続して撮像および生成された複数の画像を取得し、
前記検出部は、前記記録媒体に記録された前記複数の画像のそれぞれについて、前記主要被写体領域の検出処理を行う
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 5.
A recording unit that records the plurality of images acquired by the previous acquisition unit on a recording medium;
A deletion unit that deletes the part of the images selected by the selection unit among the plurality of images recorded on the recording medium;
The acquisition unit acquires a plurality of images captured and generated continuously as the plurality of images,
The image processing apparatus, wherein the detection unit performs the main subject area detection process for each of the plurality of images recorded on the recording medium.
処理対象の画像に対する画像処理をコンピュータで実現するための画像処理プログラムであって、
前記処理対象の画像として、複数の画像を取得する取得ステップと、
前記取得ステップにおいて取得した前記複数の画像のそれぞれについて、主要被写体領域の検出処理を行うとともに、任意の画像において前記主要被写体領域が検出できない場合には、その画像と時間的に連続する少なくとも1枚の画像において検出された前記主要被写体領域に基づいて、前記任意の画像における前記主要被写体領域の検出処理を行う検出ステップと、
前記主要被写体領域の画像に基づく評価値を算出し、算出した前記評価値に基づいて、前記取得ステップにおいて取得した前記複数の画像の評価を行う評価ステップと、
前記評価ステップにおける評価結果に基づいて、前記取得ステップにおいて取得した前記複数の画像のうち、一部の画像を選択する選択ステップと
を備えたことを特徴とする画像処理プログラム。
An image processing program for realizing image processing on an image to be processed by a computer,
An acquisition step of acquiring a plurality of images as the processing target image;
For each of the plurality of images acquired in the acquisition step, a main subject region detection process is performed, and when the main subject region cannot be detected in an arbitrary image, at least one image temporally continuous with the image A detection step of performing detection processing of the main subject region in the arbitrary image based on the main subject region detected in the image of
An evaluation value based on the image of the main subject area, and an evaluation step for evaluating the plurality of images acquired in the acquisition step based on the calculated evaluation value;
An image processing program comprising: a selection step of selecting some of the plurality of images acquired in the acquisition step based on an evaluation result in the evaluation step.
JP2011145920A 2011-06-30 2011-06-30 Electronic camera, image processor and image processing program Withdrawn JP2013013023A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011145920A JP2013013023A (en) 2011-06-30 2011-06-30 Electronic camera, image processor and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011145920A JP2013013023A (en) 2011-06-30 2011-06-30 Electronic camera, image processor and image processing program

Publications (1)

Publication Number Publication Date
JP2013013023A true JP2013013023A (en) 2013-01-17

Family

ID=47686500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011145920A Withdrawn JP2013013023A (en) 2011-06-30 2011-06-30 Electronic camera, image processor and image processing program

Country Status (1)

Country Link
JP (1) JP2013013023A (en)

Similar Documents

Publication Publication Date Title
KR100819809B1 (en) Image pickup apparatus and Method of picking up images
JP6157242B2 (en) Image processing apparatus and image processing method
US7450756B2 (en) Method and apparatus for incorporating iris color in red-eye correction
JP5129182B2 (en) Imaging apparatus and imaging control method
JP2013515442A (en) Generation of high dynamic range image using still image and preview image
JP2007300595A (en) Method of avoiding shaking during still image photographing
JP6720881B2 (en) Image processing apparatus and image processing method
JP2012105063A (en) Image processing apparatus, imaging apparatus, and program
JP5879831B2 (en) Electronic camera and image processing program
JP6786311B2 (en) Image processing equipment, image processing methods, computer programs and storage media
JP6366739B2 (en) Image processing apparatus, image processing method, and program
JP2008092299A (en) Electronic camera
JP5610106B1 (en) Foreign matter information detection device and foreign matter information detection method for imaging apparatus
JP5257106B2 (en) Imaging apparatus and imaging method
JP2009017030A (en) Image imaging apparatus, and imaging control method
JP2015018084A (en) Imaging apparatus, image processing method, and image processing program
JP6645711B2 (en) Image processing apparatus, image processing method, and program
JP5109867B2 (en) Digital camera
JP4705146B2 (en) Imaging apparatus and imaging method
JP2008113132A (en) Electronic camera and image processing program
JP2007174500A (en) Imaging apparatus
JP5754308B2 (en) Electronic camera, image processing apparatus, and image processing program
JP2013013023A (en) Electronic camera, image processor and image processing program
JP5321108B2 (en) Camera, lens aberration correction program, and computer-readable recording medium recording lens aberration correction program
JP5332668B2 (en) Imaging apparatus and subject detection program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902