JP5754308B2 - Electronic camera, image processing apparatus, and image processing program - Google Patents
Electronic camera, image processing apparatus, and image processing program Download PDFInfo
- Publication number
- JP5754308B2 JP5754308B2 JP2011191543A JP2011191543A JP5754308B2 JP 5754308 B2 JP5754308 B2 JP 5754308B2 JP 2011191543 A JP2011191543 A JP 2011191543A JP 2011191543 A JP2011191543 A JP 2011191543A JP 5754308 B2 JP5754308 B2 JP 5754308B2
- Authority
- JP
- Japan
- Prior art keywords
- main subject
- images
- evaluation
- image
- subject region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 claims description 170
- 238000001514 detection method Methods 0.000 claims description 47
- 238000003384 imaging method Methods 0.000 claims description 17
- 238000012217 deletion Methods 0.000 claims description 4
- 230000037430 deletion Effects 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 238000000034 method Methods 0.000 description 32
- 230000008569 process Effects 0.000 description 20
- 230000008859 change Effects 0.000 description 5
- 230000035945 sensitivity Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Description
本発明は、電子カメラ、画像処理装置、および画像処理プログラムに関する。 The present invention relates to an electronic camera, an image processing apparatus, and an image processing program.
従来より、複数の画像を生成して記録媒体に記録した後に、露出、コントラスト、ボケなどの観点から画像の評価を行い、評価が所定の基準より低い画像を、上述した記録媒体から削除する技術が知られている(例えば、特許文献1参照)。 Conventionally, after a plurality of images are generated and recorded on a recording medium, the image is evaluated from the viewpoint of exposure, contrast, blur, etc., and an image whose evaluation is lower than a predetermined standard is deleted from the above-described recording medium Is known (see, for example, Patent Document 1).
特許文献1の発明では、露出条件評価、コントラスト評価、ボケ、焦点ボケの評価などにより画像評価処理を実行している。
In the invention of
ところで、上述した画像評価には、撮影者、または、鑑賞者にとっての主要被写体の状態が大きな影響を及ぼすことが知られている。そこで、上述した画像評価において、主要被写体領域を検出し、画像評価に利用することが考えられる。 By the way, it is known that the state of the main subject for the photographer or the viewer greatly affects the image evaluation described above. Therefore, in the above-described image evaluation, it is conceivable to detect a main subject region and use it for image evaluation.
しかし、主要被写体が動きのある被写体である場合や、主要被写体の一部が隠れてしまう場合など、時系列に連続した複数の画像間で主要被写体の部分に物理的な変化が生じる場合、単純に主要被写体領域を検出して画像評価を行っても、評価における尺度がばらついてしまうため、正確な評価を行うことができないという問題がある。 However, if the main subject is a moving subject or a part of the main subject is hidden, such as when there is a physical change in the main subject between multiple images in time series, However, even if the main subject region is detected and image evaluation is performed, the scale in the evaluation varies, so that there is a problem that accurate evaluation cannot be performed.
本発明は、上記問題に鑑みてなされたものであり、複数の画像に対する評価を行う際に、主要被写体が変化する場合であっても、評価における尺度のバラツキを抑えることを目的とする。 The present invention has been made in view of the above-described problem, and an object of the present invention is to suppress scale variation in evaluation even when a main subject changes when evaluating a plurality of images.
本発明の電子カメラは、被写体を撮像して、時間的に連続する複数の画像を生成する撮像部と、前記複数の画像のそれぞれについて、主要被写体領域を検出する第1検出部と、前記第1検出部により前記主要被写体領域の検出が行われた複数の画像について、前記主要被写体領域が重複する部分を第2主要被写体領域として検出する第2検出部と、前記主要被写体領域の画像に基づく第1評価値と、前記第2主要被写体領域の画像に基づく第2評価値とを算出し、前記第1評価値と前記第2評価値との少なくとも一方に基づいて、前記複数の画像の評価を行う評価部とを備える。 The electronic camera of the present invention includes an imaging unit that images a subject and generates a plurality of temporally continuous images, a first detection unit that detects a main subject region for each of the plurality of images, and the first Based on the plurality of images in which the main subject area is detected by one detection unit, a second detection unit that detects a portion where the main subject areas overlap as a second main subject area, and an image of the main subject area A first evaluation value and a second evaluation value based on the image of the second main subject area are calculated, and the plurality of images are evaluated based on at least one of the first evaluation value and the second evaluation value. And an evaluation unit for performing.
なお、前記評価部は、前記第1評価値と前記第2評価値との何れか一方の評価値に基づいて前記評価を行った後に、他方の前記評価値に基づいて前記評価を再び行っても良い。 The evaluation unit performs the evaluation again based on the evaluation value of one of the first evaluation value and the second evaluation value, and then performs the evaluation again based on the other evaluation value. Also good.
また、前記評価部は、前記第1評価値と前記第2評価値とに所定の重み付けを行って、前記評価を行っても良い。 Further, the evaluation unit may perform the evaluation by performing a predetermined weighting on the first evaluation value and the second evaluation value.
また、前記複数の画像のそれぞれについて、シーン認識を行う認識部を備え、前記評価部は、前記認識部による認識結果に基づいて、前記第1評価値と前記第2評価値との少なくとも一方に基づく前記評価の方法を決定しても良い。 Further, each of the plurality of images includes a recognition unit that performs scene recognition, and the evaluation unit sets at least one of the first evaluation value and the second evaluation value based on a recognition result by the recognition unit. The evaluation method based on the above may be determined.
また、前記第2検出部は、前記第1検出部により前記主要被写体領域の検出が行われた複数の画像について、前記主要被写体領域内の特徴点を抽出し、前記特徴点に基づいて、前記主要被写体領域を変形させた後に、重複する部分を前記第2主要被写体領域として検出しても良い。 Further, the second detection unit extracts feature points in the main subject region for a plurality of images in which the main subject region is detected by the first detection unit, and based on the feature points, After the main subject area is deformed, an overlapping portion may be detected as the second main subject area.
また、前記第1検出部は、前記複数の画像のそれぞれについて、前記主要被写体領域を検出する際に、任意の画像において前記主要被写体領域が検出できない場合には、その画像と時間的に連続する少なくとも1枚の画像において検出された前記主要被写体領域に基づいて、前記任意の画像における前記主要被写体領域を検出しても良い。 In addition, when detecting the main subject region for each of the plurality of images, the first detection unit is temporally continuous with the image if the main subject region cannot be detected in an arbitrary image. The main subject area in the arbitrary image may be detected based on the main subject area detected in at least one image.
また、前記評価部による評価結果に基づいて、記録媒体に記録された複数の画像のうち、一部の画像を削除する削除部を備えても良い。 Moreover, you may provide the deletion part which deletes one part image from the several image recorded on the recording medium based on the evaluation result by the said evaluation part.
また、前記第1検出部は、前記複数の画像のそれぞれについて、前記主要被写体領域を検出する際に、前記主要被写体領域が検出できない画像が所定の枚数以上連続する場合には、それらの画像における前記主要被写体領域の検出を中止し、前記評価部は、前記主要被写体領域が検出できない複数枚の画像に関する前記第1評価値を、前記主要被写体領域が検出できないことを示す所定の値としても良い。 In addition, when the first detection unit detects the main subject region for each of the plurality of images, and the number of images in which the main subject region cannot be detected continues more than a predetermined number, The detection of the main subject area is stopped, and the evaluation unit may set the first evaluation value relating to a plurality of images in which the main subject area cannot be detected as a predetermined value indicating that the main subject area cannot be detected. .
また、前記第1検出部は、前記複数の画像のそれぞれについて、前記主要被写体領域を検出する際に、時間的に連続する前記複数の画像のうち、時系列の端部において、前記主要被写体領域が検出できない画像が所定の枚数以上連続する場合には、それらの画像における前記主要被写体領域の検出を中止し、前記評価部は、前記主要被写体領域が検出できない複数枚の画像に関する前記第1評価値を、前記主要被写体領域が検出できないことを示す所定の値としても良い。 Further, the first detection unit detects the main subject region at each of the plurality of images at a time-series end portion of the plurality of temporally continuous images when detecting the main subject region. If there are more than a predetermined number of images that cannot be detected, the detection of the main subject area in those images is stopped, and the evaluation unit performs the first evaluation on a plurality of images in which the main subject area cannot be detected. The value may be a predetermined value indicating that the main subject area cannot be detected.
本発明の画像処理装置は、処理対象の画像として、複数の画像を取得する取得部と、前記取得部により取得した前記複数の画像のそれぞれについて、主要被写体領域を検出する第1検出部と、前記第1検出部により前記主要被写体領域の検出が行われた複数の画像について、前記主要被写体領域が重複する部分を第2主要被写体領域として検出する第2検出部と、前記主要被写体領域の画像に基づく第1評価値と、前記第2主要被写体領域の画像に基づく第2評価値とを算出し、前記第1評価値と前記第2評価値との少なくとも一方に基づいて、前記取得部により取得した前記複数の画像の評価を行う評価部と、前記評価部による評価結果に基づいて、前記取得部により取得した前記複数の画像のうち、一部の画像を選択する選択部とを備える。 The image processing apparatus according to the present invention includes an acquisition unit that acquires a plurality of images as a processing target image, a first detection unit that detects a main subject region for each of the plurality of images acquired by the acquisition unit, A second detection unit that detects, as a second main subject region, a portion where the main subject region overlaps among a plurality of images in which the main subject region has been detected by the first detection unit; and an image of the main subject region And a second evaluation value based on the image of the second main subject region, and based on at least one of the first evaluation value and the second evaluation value, by the acquisition unit An evaluation unit that evaluates the acquired plurality of images, and a selection unit that selects some of the plurality of images acquired by the acquisition unit based on an evaluation result by the evaluation unit. .
なお、前取得部により取得した前記複数の画像を記録媒体に記録する記録部と、前記記録媒体に記録された複数の画像のうち、前記選択部により選択された前記一部の画像を削除する削除部とを備え、前記取得部は、前記複数の画像として、時間的に連続して撮像および生成された複数の画像を取得し、前記第1検出部は、前記記録媒体に記録された前記複数の画像のそれぞれについて、前記主要被写体領域を検出しても良い。 Note that a recording unit that records the plurality of images acquired by the pre-acquisition unit on a recording medium and a part of the images selected by the selection unit among the plurality of images recorded on the recording medium are deleted. A deletion unit, wherein the acquisition unit acquires a plurality of images captured and generated continuously in time as the plurality of images, and the first detection unit is recorded on the recording medium The main subject area may be detected for each of a plurality of images.
本発明の画像処理プログラムは、処理対象の画像に対する画像処理をコンピュータで実現するための画像処理プログラムであって、前記処理対象の画像として、複数の画像を取得する取得ステップと、前記取得ステップにおいて取得した前記複数の画像のそれぞれについて、主要被写体領域を検出する第1検出ステップと、前記第1検出ステップにおいて前記主要被写体領域の検出が行われた複数の画像について、前記主要被写体領域が重複する部分を第2主要被写体領域として検出する第2検出ステップと、前記主要被写体領域の画像に基づく第1評価値と、前記第2主要被写体領域の画像に基づく第2評価値とを算出し、前記第1評価値と前記第2評価値との少なくとも一方に基づいて、前記取得ステップにおいて取得した前記複数の画像の評価を行う評価ステップと、前記評価ステップにおける評価結果に基づいて、前記取得ステップにおいて取得した前記複数の画像のうち、一部の画像を選択する選択ステップとを備える。 An image processing program of the present invention is an image processing program for realizing image processing on a processing target image by a computer, wherein an acquisition step of acquiring a plurality of images as the processing target image, and the acquisition step For each of the plurality of acquired images, the main subject region overlaps between a first detection step for detecting a main subject region and a plurality of images for which the main subject region has been detected in the first detection step. Calculating a second detection step for detecting a portion as a second main subject region, a first evaluation value based on the image of the main subject region, and a second evaluation value based on the image of the second main subject region; The plurality of images acquired in the acquisition step based on at least one of the first evaluation value and the second evaluation value. Comprising an evaluation step of the evaluation, based on the evaluation result in the evaluation step, among the plurality of images obtained in the obtaining step, a selection step of selecting a portion of the image.
本発明によれば、複数の画像に対する評価を行う際に、主要被写体が変化する場合であっても、評価における尺度のバラツキを抑えることができる。 According to the present invention, when evaluating a plurality of images, even when the main subject changes, it is possible to suppress variation in the scale in the evaluation.
図1は、一の実施形態における電子カメラ10の構成例を示すブロック図である。電子カメラ10は、撮像レンズ11と、シャッタ12と、撮像素子13と、AFE14と、画像処理部15と、第1メモリ16と、第2メモリ17と、記録I/F18と、CPU19と、操作部20と、バス21とを備えている。ここで、画像処理部15、第1メモリ16、第2メモリ17、記録I/F18、CPU19は、バス21を介してそれぞれ接続されている。また、シャッタ11、撮像素子13、AFE14、操作部20は、それぞれCPU19と接続されている。
FIG. 1 is a block diagram illustrating a configuration example of an
シャッタ12は、撮影レンズ11と撮像素子13との間に配置されるメカシャッタである。
The
撮像素子13は、撮像レンズ11による結像を撮像する撮像デバイスである。一の実施形態の撮像素子13は、例えば、任意の受光素子の画像信号をランダムアクセスで読み出し可能なCMOS型の固体撮像素子で構成される。なお、撮像素子13の出力はAFE14に接続されている。
The
AFE14は、撮像素子13の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このAFE14は、相関二重サンプリングや、画像信号のゲインの調整や、画像信号のA/D変換を行う。そして、AFE14の出力は画像処理部15に接続されている。なお、CPU19は、AFE14により画像信号のゲインを調整することで、ISO感度に相当する撮像感度の調整を行う。
The AFE 14 is an analog front end circuit that performs analog signal processing on the output of the
画像処理部15は、AFE14から出力されたデジタルの画像信号に対して各種の画像処理(色補間処理、階調変換処理、ホワイトバランス調整など)を施す。
The
第1メモリ16は、画像処理の前工程や後工程で画像のデータを一時的に記憶する。例えば、第1メモリ16は、揮発性の記憶媒体であるSDRAMにより構成される。また、第2メモリ17は、CPU19によって実行されるプログラムや、各画像信号でのSN比と撮像感度の値との対応関係を示すデータテーブルなどを記憶する不揮発性のメモリである。
The
記録I/F18は、不揮発性の記憶媒体22を接続するためのコネクタを有している。そして、記録I/F18は、コネクタに接続された記憶媒体22に対して後述の本画像のデータの書き込み/読み込みを実行する。上記の記憶媒体22は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体22の一例としてメモリカードを図示する。
The recording I /
CPU19は、電子カメラ10の動作を統括的に制御するプロセッサである。例えば、CPU19は、被写体の撮影を行うための撮影モードでの動作時において、ユーザの撮像指示入力に応じて撮像素子13を駆動させて、不揮発性の記憶媒体22への記録を伴う本画像の撮像処理を実行する。
The
また、撮影モードでのCPU19は、本画像の撮像に先立って公知の自動露出演算を実行し、撮像条件の1パラメータである撮像感度を設定する。また、CPU19は、ユーザの入力に基づいて上記の撮像感度を設定してもよい。
In addition, the
操作部20は、ユーザの操作を受け付ける複数のスイッチを有している。この操作部20は、例えば、本画像の撮像指示を受け付けるレリーズ釦や、十字状のカーソルキーや、決定釦などで構成される。
The
なお、電子カメラ10は、複数の画像を連続して撮像し、生成した複数の画像を一旦記録し、その後に画像評価を行って評価の低い画像を削除する、いわゆるベストショットモードを備える。このモードは、操作部20を介したユーザの操作に基づいて設定されても良いし、CPU19により自動で設定されても良い。なお、ベストショットモードにおいては、ユーザは、操作部20のレリーズ釦を1回操作することにより撮影指示を行う。
The
次に、ベストショットモードでの電子カメラ10の動作例を、図2の流れ図および図3の模式図を用いて説明する。なお、図2および図3におけるステップ番号(S101〜S113)は、それぞれ対応する。
Next, an operation example of the
ステップS101において、CPU19は、ユーザによる撮影指示が行われたか否かを判定する。CPU19は、操作部20を介したユーザによる撮影指示が行われるまで待機し、撮影指示が行われるとステップS102に進む。
In step S <b> 101, the
ステップS102において、CPU19は、各部を制御して、n枚目の画像を撮影する。なお、初回のステップS102においては、n=1である。なお、以下では、n回目の撮影により生成された画像を、Img[n]と称する。例えば、1回目の撮影により生成された画像は、Img[1]である。
In step S <b> 102, the
ステップS103において、CPU19は、ステップS102の撮像により生成したn枚目の画像を記録I/F18を介して記憶媒体22に記録する。なお、CPU19は、記憶媒体22に記録する代わりに、第1メモリ16に記録しても良い。
In step S103, the
ステップS104において、CPU19は、ステップS102からステップS103の処理をN枚分終了したか否かを判定する。CPU19は、N枚分終了していないと判定するとステップS105に進み、N枚分終了したと判定すると、後述するステップS106に進む。なお、Nとは予め定められた撮影枚数(例えばN=20)である。この枚数は、固定のものであっても良いし、CPU19により自動で定められたものであっても良いし、操作部20を介したユーザ操作により定められたものであっても良い。
In step S104, the
ステップS105において、CPU19は、n=n+1として、ステップS102に戻る。すなわち、CPU19は、N回の撮影を繰り返し(ステップS102)、N枚の画像を記録する(ステップS103)。
In step S105, the
ステップS106において、CPU19は、記憶媒体22に記録されたN枚の画像のそれぞれについて、主要被写体領域S[n]を検出する。なお、以下では、n枚目の画像について検出された主要被写体領域を、主要被写体領域S[n]と称する。例えば、1枚目の画像について検出された主要被写体領域は、主要被写体領域S[1]である。なお、主要被写体領域の検出は、例えば、輝度情報、焦点情報、コントラスト情報、エッジ情報などに基づいて、公知技術と同様に行われる。
In step S <b> 106, the
ただし、CPU19は、主要被写体領域S[n]の検出を適切に行うことができない場合には、以下の処理を行う。
However, if the main subject area S [n] cannot be properly detected, the
(1)任意の画像Img[X]において、主要被写体領域S[X]が検出できない場合。 (1) A case where the main subject region S [X] cannot be detected in an arbitrary image Img [X].
例えば、図4に示すように、画像Img[X]において、主要被写体領域S[X]が検出できない場合、CPU19は、画像Img[X]と時間的に連続する少なくとも1枚の画像において検出された主要被写体領域(例えば、主要被写体領域S[X−1]および主要被写体領域S[X+1])に基づいて、内挿処理を行うことにより、主要被写体領域S[X]を検出する。なお、このとき、画像Img[X]と時間的に連続する少なくとも1枚の画像として、時間的に前側に連続する画像、または、後側に連続する画像において検出された主要被写体領域(例えば、主要被写体領域S[X−1]または主要被写体領域S[X+1])に基づいて、一方向のみからの内挿処理を行うことにより、主要被写体領域S[X]を検出しても良い。
For example, as shown in FIG. 4, when the main subject region S [X] cannot be detected in the image Img [X], the
また、内挿に用いる前後の画像の枚数は何枚であっても良い。例えば、CPU19は、主要被写体領域S[X−1]および主要被写体領域S[X−2]の2枚の画像に基づいて内挿処理を行っても良いし、主要被写体領域S[X+1]および主要被写体領域S[X+2]の2枚の画像に基づいて内挿処理を行っても良い。さらに、CPU19は、例えば、主要被写体領域S[X−1]、主要被写体領域S[X−2]、主要被写体領域S[X+1]、主要被写体領域S[X+2]の4枚の画像に基づいて内挿処理を行っても良い。
Further, the number of images before and after being used for interpolation may be any number. For example, the
また、内挿以外の方法を用いても良い。 A method other than interpolation may be used.
(2)主要被写体領域S[n]が検出できない画像が所定の枚数(例えば、3枚)以上連続する場合。 (2) A case where a predetermined number (for example, three) or more of images in which the main subject area S [n] cannot be detected continues.
例えば、図5に示すように、画像Img[X−1]からImg[X+1]までの3枚の画像において主要被写体領域S[n]が検出できない場合、CPU19は、主要被写体が対象画像のフレーム外に出たと判断し、これら3枚の画像における主要被写体領域S[n]の検出を中止する。
For example, as shown in FIG. 5, when the main subject area S [n] cannot be detected in three images from the images Img [X−1] to Img [X + 1], the
(3)N枚の画像のうち、時系列の端部(最初、または、最後の部分)において、主要被写体領域S[n]が検出できない画像が所定の枚数(例えば、3枚)以上連続する場合。 (3) Among N images, a predetermined number (for example, three) or more of images in which the main subject region S [n] cannot be detected continue at a time-series end portion (first or last portion). If.
例えば、図6に示すように、N枚の画像のうち、時系列の最初側の端部である画像Img[1]からImg[3]までの3枚の画像において主要被写体領域S[n]が検出できない場合、CPU19は、上述した(2)と同様に、主要被写体が対象画像のフレーム外に出たと判断し、これら3枚の画像における主要被写体領域S[n]の検出を中止する。
For example, as shown in FIG. 6, the main subject region S [n] in the three images from the images Img [1] to Img [3], which are the end portions on the first side in time series, among the N images. Cannot be detected, the
(4)N枚の画像の全てにおいて、主要被写体領域S[n]が検出できない場合。 (4) The main subject area S [n] cannot be detected in all N images.
CPU19は、N枚の画像のそれぞれについて、画面全体を主要被写体領域S[n]とするか、または、固定領域(例えば、中央領域など)を主要被写体領域S[n]とする。
For each of the N images, the
なお、上述した(1)から(3)において、処理を簡略化するために、任意の画像Img[X]において主要被写体領域S[X]を検出できない場合に、主要被写体領域S[n]を検出できた画像のうち、任意の画像Img[X]と最も時間的に近い画像における主要被写体領域S[n]を、任意の画像Img[X]における主要被写体領域S[X]としても良い。 In the above (1) to (3), in order to simplify the processing, when the main subject region S [X] cannot be detected in an arbitrary image Img [X], the main subject region S [n] is selected. Of the detected images, the main subject region S [n] in the image closest in time to the arbitrary image Img [X] may be set as the main subject region S [X] in the arbitrary image Img [X].
また、上述した(1)から(4)では、主要被写体領域S[n]の検出を適切に行うことができない場合を例に挙げて説明したが、検出された主要被写体領域S[n]の信頼性に疑いがある場合にも、同様の処理を行っても良い。例えば、任意の画像Img[X]において検出した主要被写体領域S[X]と、前後に連続する画像において検出された主要被写体領域S[n]とで、その位置や大きさが著しく異なる場合には、誤検出などの可能性が高く、主要被写体領域S[X]の信頼性に疑いがある。このような場合、CPU19は、上述した(1)から(4)と同様の処理を行っても良い。
In the above (1) to (4), the case where the main subject region S [n] cannot be appropriately detected has been described as an example. However, the detected main subject region S [n] The same processing may be performed when there is a doubt about reliability. For example, when the position and size of the main subject region S [X] detected in an arbitrary image Img [X] and the main subject region S [n] detected in consecutive images are significantly different. Has a high possibility of erroneous detection and the reliability of the main subject area S [X] is doubtful. In such a case, the
ステップS107において、CPU19は、記憶媒体22に記録されたN枚の画像のそれぞれについて、ステップS104で検出した主要被写体領域S[n]に基づき、第1評価値E[n]を算出する。なお、以下では、n枚目の画像について算出された評価値を、第1評価値E[n]と称する。例えば、1枚目の画像について算出された評価値は、第1評価値E[1]である。評価値の算出は、例えば、輝度情報、焦点情報、コントラスト情報、エッジ情報などと、主要被写体領域S[n]内の画素値とに基づいて、公知技術と同様に行われる。
In step S107, the
ただし、ステップS104の(2)および(3)で説明したように、主要被写体領域の検出を中止した画像について、CPU19は、その画像に関する第1評価値E[n]を、主要被写体領域が検出できないことを示す所定の値とする。主要被写体領域が検出できないことを示す値は、どのようなものであっても良く、例えば、第1評価値E[n]が取り得る値の最小値などが考えられる。また、第1評価値E[n]が取り得る値のうち、比較的低い値を、主要被写体領域が検出できないことを示す値としても良い。
However, as described in (2) and (3) of step S104, the
また、ステップS106で説明した主要被写体領域S[n]の検出において、内挿処理などを行って主要被写体領域S[n]を検出した場合には、内挿処理を行わずに主要被写体領域S[n]を検出した場合に比べて評価値E[n]が低くなるように、評価値E[n]を調整しても良い。 In the detection of the main subject area S [n] described in step S106, when the main subject area S [n] is detected by performing an interpolation process or the like, the main subject area S is not performed without performing the interpolation process. The evaluation value E [n] may be adjusted so that the evaluation value E [n] is lower than when [n] is detected.
ステップS108において、CPU19は、第2主要被写体領域Scを検出する。第2主要被写体領域Scは、ステップS106で説明したN枚の画像のそれぞれにおいて検出した主要被写体領域S[1]から主要被写体領域S[N]が重複する部分に相当する。例えば、N=20である場合には、ステップS106で検出した主要被写体領域S[1]から主要被写体領域S[20]が重複する部分が第2主要被写体領域Scである。
In step S108, the
図7に、第2主要被写体領域Scを例示する。図7では、簡単のため、主要被写体領域S[X−1]から主要被写体領域S[X+1]の重複する部分として第2主要被写体領域Scを図示している。また、図7では、説明を分かり易くするため、第2主要被写体領域Scを拡大して図示している。図7に示すように、主要被写体領域S[X−1]から主要被写体領域S[X+1]は、主要被写体の動きに合わせて、異なる形状を示す。例えば、主要被写体領域S[X+1]は、本来の主要被写体である人物の部分と、背景のヨットの部分との両方が主要被写体領域として検出されている。一方、第2主要被写体領域Scは、主要被写体領域S[X−1]から主要被写体領域S[X+1]の重複する部分であるため、本来の主要被写体である人物の部分のみを含む。 FIG. 7 illustrates the second main subject area Sc. In FIG. 7, for the sake of simplicity, the second main subject region Sc is illustrated as a portion where the main subject region S [X−1] and the main subject region S [X + 1] overlap. Further, in FIG. 7, the second main subject region Sc is shown in an enlarged manner for easy understanding. As shown in FIG. 7, the main subject region S [X−1] to the main subject region S [X + 1] have different shapes according to the movement of the main subject. For example, in the main subject region S [X + 1], both the person portion that is the original main subject and the background yacht portion are detected as the main subject region. On the other hand, the second main subject area Sc is an overlapping portion of the main subject area S [X−1] to the main subject area S [X + 1], and therefore includes only the portion of the person who is the original main subject.
なお、CPU19は、ステップS106で検出した主要被写体領域S[1]から主要被写体領域S[N]に対して、例えば、位置合わせ処理を施した後に重ね合わせ処理を行い、第2主要被写体領域Scを検出する。このとき、CPU19は、主要被写体領域S[1]から主要被写体領域S[N]に関して、主要被写体領域内の特徴点を抽出し、特徴点に基づいて、主要被写体領域S[1]から主要被写体領域S[N]をそれぞれ変形させた後に、重複する部分を第2主要被写体領域Scとして検出しても良い。変形処理としては、例えば、公知技術と同様に、回転処理、拡大縮小処理、ひずみ処理(非線形的なゆがませ処理)などが考えられる。
Note that the
また、CPU19は、主要被写体領域S[1]から主要被写体領域S[N]の全てではなく、一部の画像に基づく主要被写体領域が重複する部分を第2主要被写体領域Scとして検出しても良い。例えば、ステップS106で説明したN枚の画像のうち、1枚おきの画像において検出された主要被写体領域S[n]が重複する部分を第2主要被写体領域Scとして検出しても良い。また、主要被写体領域S[1]から主要被写体領域S[N]を相対比較し、類似度の高いものについては、重複する部分を検出する対象から除外しても良い。何れの場合も、重複する部分を検出する対象となる主要被写体領域S[n]の数を減らすことにより、第2主要被写体領域Scを検出する処理を簡略化することができる。
Further, the
また、CPU19は、第2主要被写体領域Scの検出を適切に行うことができない場合には、以下のような処理を行っても良い。
・主要被写体領域S[1]から主要被写体領域S[N]が重複する部分が適切に検出できない場合、すべての画像(ステップS106で説明したN枚の画像)に基づく主要被写体領域が重複する部分の代わりに、一部の画像(例えば、ステップS106で説明したN枚の画像のうち、8割程度の枚数の画像)に基づく主要被写体領域が重複する部分を第2主要被写体領域Scとして検出しても良い。
・主要被写体領域S[1]から主要被写体領域S[N]が重複する部分が適切に検出できない場合、ステップS106で説明したN枚の画像を、時系列、あるいは、主要被写体領域S[N]の変化量などに応じて複数のグループに分割する。そして、グループごとに、そのグループに含まれる画像に基づく主要被写体領域が重複する部分を第2主要被写体領域Scとして検出しても良い。この場合、上述した複数のグループごとに形状の異なる第2主要被写体領域Scが検出されることになる。さらに、上述したように、グループごとに検出した複数の第2主要被写体領域Scを総合する(加算、選択等)ことにより、1つの第2主要被写体領域Scを検出しても良い。
・第2主要被写体領域Scの面積が、主要被写体領域S[1]から主要被写体領域S[N]の面積と比較して非常に小さい場合には、第2主要被写体領域Scの検出を中止しても良いし、すべての画像(ステップS106で説明したN枚の画像)に基づく主要被写体領域が重複する部分の代わりに、一部の画像(例えば、ステップS106で説明したN枚の画像のうち、8割程度の枚数の画像)に基づく主要被写体領域が重複する部分を第2主要被写体領域Scとして検出しても良いし、上述したグループ分けを行ってもよい。なお、第2主要被写体領域Scの検出を中止する際には、後述するステップS109において、第2評価値Ec[n]を算出する際に、CPU19は、各画像に関する第2評価値Ec[n]を、第2主要被写体領域が検出できないことを示す所定の値とする(ステップS107の第1評価値E[n]参照)。
In addition, when the
When the portion where the main subject region S [N] overlaps from the main subject region S [1] cannot be detected appropriately, the portion where the main subject regions overlap based on all the images (N images described in step S106) Instead, a portion where the main subject areas overlap based on some images (for example, about 80% of the N images described in step S106) is detected as the second main subject area Sc. May be.
If the portion where the main subject region S [N] overlaps the main subject region S [1] cannot be detected appropriately, the N images described in step S106 are time-series or the main subject region S [N]. It is divided into a plurality of groups according to the change amount of Then, for each group, a portion where the main subject regions based on the images included in the group overlap may be detected as the second main subject region Sc. In this case, the second main subject region Sc having a different shape for each of the plurality of groups described above is detected. Furthermore, as described above, one second main subject region Sc may be detected by combining a plurality of second main subject regions Sc detected for each group (addition, selection, etc.).
When the area of the second main subject area Sc is very small compared to the areas of the main subject area S [1] to the main subject area S [N], the detection of the second main subject area Sc is stopped. Alternatively, instead of a portion where the main subject regions overlap based on all the images (N images described in step S106), some of the images (for example, among the N images described in step S106) , A portion where the main subject areas overlap based on about 80% of the number of images) may be detected as the second main subject area Sc, or the above-described grouping may be performed. When the detection of the second main subject region Sc is stopped, the
ステップS109において、CPU19は、記憶媒体22に記録されたN枚の画像のそれぞれについて、ステップS108で検出した第2主要被写体領域Scに基づき、第2評価値Ec[n]を算出する。なお、以下では、n枚目の画像について算出された第2評価値を、第2評価値Ec[n]と称する。例えば、1枚目の画像について算出された第2評価値は、第2評価値Ec[1]である。第2評価値の算出は、ステップS107で説明した第1評価値E[n]と同様に、例えば、輝度情報、焦点情報、コントラスト情報、エッジ情報などと、第2主要被写体領域Sc内の画素値とに基づいて、公知技術と同様に行われる。
In step S109, the
ステップS110において、CPU19は、シーン認識を行う。CPU19は、記憶媒体22に記録されたN枚の画像に基づいて、公知技術と同様にシーン認識を行う。このシーン認識は、主要被写体が変化するか否か、さらには、どのように変化するかを推測するためのものである。例えば、ポートレートのようなシーンにおいては、主要被写体は変化が少ないと推測できる。また、例えば、図7に例示したようなシーンにおいては、主要被写体自体が変化しつつ移動することが推測できる。
In step S110, the
ステップS111において、CPU19は、記憶媒体22に記録されたN枚の画像のそれぞれについて、ステップS107で算出した第1評価値E[n]と、ステップS109で算出した第2評価値Ec[n]との少なくとも一方に基づいて、画像の評価を行う。
In step S111, the
画像の評価については、以下のような方法がある。 There are the following methods for image evaluation.
(1)第1評価値E[n]に基づいて評価を行った後に第2評価値Ec[n]に基づいて評価を行う。 (1) After performing the evaluation based on the first evaluation value E [n], the evaluation is performed based on the second evaluation value Ec [n].
このような順番で評価を行うことにより、絶対評価に好適な第1評価値E[n]に基づいて、主要被写体領域における映りが良い画像を選択し、さらに、相対評価に好適な第2評価値Ec[n]に基づいて、相対的に映りが良い画像を選択することができる。 By performing the evaluation in this order, an image with good reflection in the main subject region is selected based on the first evaluation value E [n] suitable for absolute evaluation, and further, the second evaluation suitable for relative evaluation. Based on the value Ec [n], an image with relatively good reflection can be selected.
この選択方法は、ポートレートのような主要被写体自体の変化が少ないシーンにおいて有用である。 This selection method is useful in a scene where there is little change in the main subject itself, such as a portrait.
(2)第2評価値Ec[n]に基づいて評価を行った後に第1評価値E[n]に基づいて評価を行う。 (2) After evaluating based on the second evaluation value Ec [n], evaluation is performed based on the first evaluation value E [n].
このような順番で評価を行うことにより、相対評価に好適な第2評価値Ec[n]に基づいて、相対的に映りが良い画像を選択し、さらに、絶対評価に好適な第1評価値E[n]に基づいて、主要被写体領域における映りが良い画像を選択することができる。 By performing the evaluation in this order, an image with relatively good reflection is selected based on the second evaluation value Ec [n] suitable for relative evaluation, and further, the first evaluation value suitable for absolute evaluation Based on E [n], an image with good reflection in the main subject region can be selected.
この選択方法は、図7に例示したような主要被写体自体が変化しつつ移動するシーンにおいて有用である。 This selection method is useful in a scene in which the main subject itself moves while changing as illustrated in FIG.
(3)第1評価値E[n]および第2評価値Ec[n]に所定の重み付けを行った後に評価を行う。 (3) Evaluation is performed after predetermined weighting is applied to the first evaluation value E [n] and the second evaluation value Ec [n].
このような方法で評価を行うことにより、絶対評価に好適な第1評価値E[n]と、相対評価に好適な第2評価値Ec[n]とをバランスよく用いて好適な評価を行うことができる。なお、ポートレートのような主要被写体自体の変化が少ないシーンにおいては、絶対評価に好適な第1評価値E[n]の重みを多くし、図7に例示したような主要被写体自体が変化しつつ移動するシーンにおいては、相対評価に好適な第2評価値Ec[n]の重みを多くすると良い。 By performing the evaluation by such a method, the first evaluation value E [n] suitable for the absolute evaluation and the second evaluation value Ec [n] suitable for the relative evaluation are used in a well-balanced manner. be able to. In a scene such as a portrait where there is little change in the main subject itself, the weight of the first evaluation value E [n] suitable for absolute evaluation is increased, and the main subject itself as illustrated in FIG. 7 changes. In a moving scene, the weight of the second evaluation value Ec [n] suitable for relative evaluation is preferably increased.
(4)第1評価値E[n]または第2評価値Ec[n]のいずれか一方に基づいて評価を行う。 (4) Evaluation is performed based on either the first evaluation value E [n] or the second evaluation value Ec [n].
第1評価値E[n]のみに基づいて評価を行うことにより、絶対評価による画像の評価が可能となり、第2評価値Ec[n]のみに基づいて評価を行うことにより、相対評価による画像の評価が可能となる。 By performing the evaluation based only on the first evaluation value E [n], it is possible to evaluate the image based on the absolute evaluation. By performing the evaluation based only on the second evaluation value Ec [n], the image based on the relative evaluation can be obtained. Can be evaluated.
CPU19は、上述した(1)から(4)のいずれかの方法で評価を行い、評価値を算出する。評価値の算出は公知技術と同様に行われる。なお、上述した(1)から(4)のいずれの方法を用いるかは、CPU19により選択されても良いし、操作部20を介したユーザ操作により選択されても良い。CPU19により自動で選択する際には、CPU19は、例えば、ステップS110で行ったシーン認識の結果に基づいて選択を行う。
The
ステップS112において、CPU19は、削除する画像を決定する。CPU19は、ステップS111で算出した評価値に基づき、評価の低い方から所定の枚数(例えば、15枚)の画像を削除する画像として選択する。このような選択を行うことにより、評価の高い画像を選択的に残すことができる。なお、削除する画像の枚数は、固定のものであっても良いし、CPU19により自動で定められたものであっても良いし、操作部20を介したユーザ操作により定められたものであっても良い。
In step S112, the
ステップS113において、CPU19は、ステップS112で決定した画像を記録媒体22から削除して、一連の処理を終了する。
In step S113, the
なお、ステップS103において、撮影により生成した画像を第1メモリ16に記録した場合には、CPU19は、第1メモリから画像を削除し、残りの画像を記録I/F18を介して記憶媒体22に記録する。
In step S103, when an image generated by shooting is recorded in the
以上説明したように、本実施形態によれば、被写体を撮像して、時間的に連続する複数の画像を生成し、生成した複数の画像のそれぞれについて、主要被写体領域を検出するとともに、主要被写体領域の検出が行われた複数の画像について、主要被写体領域が重複する部分を第2主要被写体領域として検出する。さらも。主要被写体領域の画像に基づく第1評価値と、第2主要被写体領域の画像に基づく第2評価値とを算出し、第1評価値と第2評価値との少なくとも一方に基づいて、記録媒体に記録された複数の画像の評価を行う。したがって、複数の画像に対する評価を行う際に、主要被写体が変化する場合であっても、評価における尺度のバラツキを抑えることができる。 As described above, according to the present embodiment, the subject is imaged, a plurality of temporally continuous images are generated, the main subject region is detected for each of the generated plurality of images, and the main subject is detected. A portion where the main subject region overlaps is detected as a second main subject region for the plurality of images for which the region has been detected. Furthermore. A first evaluation value based on the image of the main subject area and a second evaluation value based on the image of the second main subject area are calculated, and based on at least one of the first evaluation value and the second evaluation value, the recording medium A plurality of images recorded in the image are evaluated. Therefore, even when the main subject changes when evaluating a plurality of images, it is possible to suppress variation in the scale in the evaluation.
特に、本実施形態によれば、時系列に連続撮影した一連の画像群のうち、一部の画像で主要被写体が検出できない場合や、主要被写体が動被写体で、かつ、主要被写体自体に物理的な変化が生じる場合(動被写体が回転する場合、主要被写体の一部がフレームアウトするはみ出し量が変化する場合、主要被写体の手前で通行人等が横切り、主要被写体の一部が隠れてしまう場合など)であっても、略同一の尺度で評価を行うことができる。そして、このような評価の結果、好適な画像の選択および削除を行うことができるので、ベストショットモードにおいて、最適な画像を残すことができる。 In particular, according to the present embodiment, when a main subject cannot be detected from some images in a series of images taken continuously in time series, or when the main subject is a moving subject and the main subject itself is physically When a moving subject rotates (when a moving subject rotates, a part of the main subject is out of frame, or a protrusion amount changes, a passerby crosses in front of the main subject and a part of the main subject is hidden) Etc.) can be evaluated on substantially the same scale. As a result of such evaluation, a suitable image can be selected and deleted, so that an optimal image can be left in the best shot mode.
なお、本実施形態では、N枚の画像を撮影(ステップS102)および記録(ステップS103)した後に、主要被写体領域S[n]の検出(ステップS106)および第1評価値E[n]の算出(ステップS107)を行う例を示したが、本発明はこの例に限定されない。例えば、N枚の画像を撮影(ステップS102)した後すぐに、主要被写体領域S[n]の検出(ステップS106)および第1評価値E[n]の算出(ステップS107)を開始しても良い。 In the present embodiment, after taking N images (step S102) and recording (step S103), the main subject region S [n] is detected (step S106) and the first evaluation value E [n] is calculated. Although an example of performing (Step S107) has been shown, the present invention is not limited to this example. For example, immediately after taking N images (step S102), detection of the main subject region S [n] (step S106) and calculation of the first evaluation value E [n] (step S107) are started. good.
また、本実施形態では、主要被写体領域S[n]の検出(ステップS106)において、主要被写体が対象画像のフレーム外に出たと判断する際の例として、主要被写体領域S[n]の検出対象の画像が時系列の端部にある場合と、時系列の端部に無い場合とで同じ枚数(3枚)を基準に判断する例を示した。しかし、CPU19は、主要被写体が対象画像のフレーム外に出たと判断する基準の枚数を、主要被写体領域S[n]の検出対象の画像が時系列の端部にある場合と、時系列の端部に無い場合とで変えても良い。例えば、CPU19は、時系列の端部において、主要被写体領域S[n]が検出できない画像が2枚連続した場合に主要被写体が対象画像のフレーム外に出たと判断し、主要被写体領域S[n]の検出対象の画像が時系列の端部に無い場合には、主要被写体領域S[n]が検出できない画像が3枚連続した場合に主要被写体が対象画像のフレーム外に出たと判断してもよい。
In the present embodiment, as an example of determining that the main subject has moved outside the frame of the target image in the detection of the main subject region S [n] (step S106), the detection target of the main subject region S [n] In this example, the determination is based on the same number of images (3) when the image is at the end of the time series and when the image is not at the end of the time series. However, the
また、例えば、CPU19は、時系列の端部において、主要被写体領域S[n]が検出できない画像が4枚連続した場合に主要被写体が対象画像のフレーム外に出たと判断し、主要被写体領域S[n]の検出対象の画像が時系列の端部に無い場合には、主要被写体領域S[n]が検出できない画像が3枚連続した場合に主要被写体が対象画像のフレーム外に出たと判断してもよい。
Further, for example, the
なお、上述した「主要被写体が対象画像のフレーム外に出たと判断する基準となる所定の枚数」は、操作部20を介したユーザの操作に基づいて設定されても良いし、CPU19により自動で設定されても良い。CPU19により自動で設定する際には、撮像時に設定された撮影モードの種類や撮影条件などによって、適当な枚数を設定する構成としてもよい。
Note that the above-mentioned “predetermined number as a reference for determining that the main subject has moved out of the frame of the target image” may be set based on a user operation via the
また、本実施形態では、ステップS110において、シーン認識を行う例を示したが、シーン認識は必ずしも行わなくても良い。 In the present embodiment, an example in which scene recognition is performed in step S110 has been described. However, scene recognition is not necessarily performed.
また、本実施形態では、ベストショットモード時に図2のフローチャートに示した一連の処理を行う例を示したが、本発明はこの例に限定されない。例えば、連写モードにおいて複数の画像を生成する場合にも本発明を同様に適用することができる。また、ユーザにより選択された複数の画像を対象として、ステップS106以降の処理を行っても良い。 In the present embodiment, an example in which the series of processes shown in the flowchart of FIG. 2 is performed in the best shot mode is shown, but the present invention is not limited to this example. For example, the present invention can be similarly applied when generating a plurality of images in the continuous shooting mode. Moreover, you may perform the process after step S106 for the some image selected by the user.
また、上述した実施形態では、本発明の技術を図1に示した電子カメラ10において実現する例について説明した。しかしながら、本発明はこれに限定されない。例えば、図1に示した電子カメラ10以外の構成の電子カメラにも本発明を同様に適用することができる。
In the above-described embodiment, the example in which the technique of the present invention is implemented in the
また、コンピュータと画像処理プログラムとにより、上記実施形態で説明した画像処理装置をソフトウェア的に実現しても良い。この場合、図2のフローチャートで説明したステップS106以降の処理の一部または全部をコンピュータで実現する構成とすれば良い。 Further, the image processing apparatus described in the above embodiment may be realized as software by a computer and an image processing program. In this case, what is necessary is just to make it the structure which implement | achieves part or all of the process after step S106 demonstrated with the flowchart of FIG. 2 with a computer.
さらに、上述したコンピュータ以外にも、デジタルの画像の再生表示機能やレタッチ機能を有する電子機器(例えば、フォトビューアー、デジタルフォトフレーム、写真の印刷装置など)などに本発明を同様に適用することができる。また、上述した実施形態で説明した電子カメラ10は、携帯電話端末などのカメラモジュールとして実装されるものであってもよい。
Further, in addition to the computer described above, the present invention can be similarly applied to an electronic device (for example, a photo viewer, a digital photo frame, a photo printing apparatus, etc.) having a digital image reproduction display function and a retouch function. it can. In addition, the
また、上述した実施形態では、各処理をソフトウェア的に実現する例を説明したが、ASIC等によってこれらの各処理をハードウエア的に実現しても勿論かまわない。 In the above-described embodiment, an example in which each process is realized by software has been described. However, it is a matter of course that each process may be realized by hardware using an ASIC or the like.
10…電子カメラ、13…撮像素子、14…AFE、16…第1メモリ、17…第2メモリ、19…CPU、22…記憶媒体
DESCRIPTION OF
Claims (12)
前記複数の画像のそれぞれについて、主要被写体領域を検出する第1検出部と、
前記第1検出部により前記主要被写体領域の検出が行われた複数の画像について、前記主要被写体領域が重複する部分を第2主要被写体領域として検出する第2検出部と、
前記主要被写体領域の画像に基づく第1評価値と、前記第2主要被写体領域の画像に基づく第2評価値とを算出し、前記第1評価値と前記第2評価値との少なくとも一方に基づいて、前記複数の画像の評価を行う評価部と
を備えたことを特徴とする電子カメラ。 An imaging unit that images a subject and generates a plurality of temporally continuous images;
A first detector for detecting a main subject region for each of the plurality of images;
A second detection unit that detects, as a second main subject region, a portion where the main subject region overlaps a plurality of images in which the main subject region is detected by the first detection unit;
A first evaluation value based on the image of the main subject area and a second evaluation value based on the image of the second main subject area are calculated, and based on at least one of the first evaluation value and the second evaluation value An electronic camera comprising: an evaluation unit that evaluates the plurality of images.
前記評価部は、前記第1評価値と前記第2評価値との何れか一方の評価値に基づいて前記評価を行った後に、他方の前記評価値に基づいて前記評価を再び行う
ことを特徴とする電子カメラ。 The electronic camera according to claim 1,
The evaluation unit performs the evaluation again based on the other evaluation value after performing the evaluation based on one of the first evaluation value and the second evaluation value. And an electronic camera.
前記評価部は、前記第1評価値と前記第2評価値とに所定の重み付けを行って、前記評価を行う
ことを特徴とする電子カメラ。 The electronic camera according to claim 1,
The evaluation unit performs the evaluation by performing a predetermined weighting on the first evaluation value and the second evaluation value.
前記複数の画像のそれぞれについて、シーン認識を行う認識部を備え、
前記評価部は、前記認識部による認識結果に基づいて、前記第1評価値と前記第2評価値との少なくとも一方に基づく前記評価の方法を決定する
ことを特徴とする電子カメラ。 The electronic camera according to claim 1,
A recognition unit that performs scene recognition for each of the plurality of images,
The evaluation unit determines the evaluation method based on at least one of the first evaluation value and the second evaluation value based on a recognition result by the recognition unit.
前記第2検出部は、前記第1検出部により前記主要被写体領域の検出が行われた複数の画像について、前記主要被写体領域内の特徴点を抽出し、前記特徴点に基づいて、前記主要被写体領域を変形させた後に、重複する部分を前記第2主要被写体領域として検出する
ことを特徴とする電子カメラ。 The electronic camera according to claim 1,
The second detection unit extracts feature points in the main subject region for a plurality of images in which the main subject region has been detected by the first detection unit, and based on the feature points, the main subject An electronic camera, wherein an overlapping portion is detected as the second main subject area after the area is deformed.
前記第1検出部は、前記複数の画像のそれぞれについて、前記主要被写体領域を検出する際に、任意の画像において前記主要被写体領域が検出できない場合には、その画像と時間的に連続する少なくとも1枚の画像において検出された前記主要被写体領域に基づいて、前記任意の画像における前記主要被写体領域を検出する
ことを特徴とする電子カメラ。 The electronic camera according to claim 1,
When detecting the main subject region for each of the plurality of images, if the main subject region cannot be detected in an arbitrary image, the first detection unit is at least one temporally continuous with the image. An electronic camera, wherein the main subject region in the arbitrary image is detected based on the main subject region detected in a single image.
前記評価部による評価結果に基づいて、記録媒体に記録された複数の画像のうち、一部の画像を削除する削除部を備える
ことを特徴とする電子カメラ。 The electronic camera according to any one of claims 1 to 6,
An electronic camera comprising: a deletion unit that deletes some of the plurality of images recorded on the recording medium based on the evaluation result by the evaluation unit.
前記第1検出部は、前記複数の画像のそれぞれについて、前記主要被写体領域を検出する際に、前記主要被写体領域が検出できない画像が所定の枚数以上連続する場合には、それらの画像における前記主要被写体領域の検出を中止し、
前記評価部は、前記主要被写体領域が検出できない複数枚の画像に関する前記第1評価値を、前記主要被写体領域が検出できないことを示す所定の値とする
ことを特徴とする電子カメラ。 The electronic camera according to claim 6 or 7,
When detecting the main subject region for each of the plurality of images, the first detection unit, when a predetermined number or more of images in which the main subject region cannot be detected continues, Stop detecting the subject area,
The electronic camera according to claim 1, wherein the evaluation unit sets the first evaluation value relating to a plurality of images in which the main subject area cannot be detected as a predetermined value indicating that the main subject area cannot be detected.
前記第1検出部は、前記複数の画像のそれぞれについて、前記主要被写体領域を検出する際に、時間的に連続する前記複数の画像のうち、時系列の端部において、前記主要被写体領域が検出できない画像が所定の枚数以上連続する場合には、それらの画像における前記主要被写体領域の検出を中止し、
前記評価部は、前記主要被写体領域が検出できない複数枚の画像に関する前記第1評価値を、前記主要被写体領域が検出できないことを示す所定の値とする
ことを特徴とする電子カメラ。 The electronic camera according to claim 6 or 7,
When detecting the main subject region for each of the plurality of images, the first detection unit detects the main subject region at a time-series end portion of the plurality of temporally continuous images. If there are more than a predetermined number of images that cannot be detected, stop the detection of the main subject area in those images,
The electronic camera according to claim 1, wherein the evaluation unit sets the first evaluation value relating to a plurality of images in which the main subject area cannot be detected as a predetermined value indicating that the main subject area cannot be detected.
前記取得部により取得した前記複数の画像のそれぞれについて、主要被写体領域を検出する第1検出部と、
前記第1検出部により前記主要被写体領域の検出が行われた複数の画像について、前記主要被写体領域が重複する部分を第2主要被写体領域として検出する第2検出部と、
前記主要被写体領域の画像に基づく第1評価値と、前記第2主要被写体領域の画像に基づく第2評価値とを算出し、前記第1評価値と前記第2評価値との少なくとも一方に基づいて、前記取得部により取得した前記複数の画像の評価を行う評価部と、
前記評価部による評価結果に基づいて、前記取得部により取得した前記複数の画像のうち、一部の画像を選択する選択部と
を備えたことを特徴とする画像処理装置。 An acquisition unit that acquires a plurality of images as a processing target image;
A first detection unit that detects a main subject region for each of the plurality of images acquired by the acquisition unit;
A second detection unit that detects, as a second main subject region, a portion where the main subject region overlaps a plurality of images in which the main subject region is detected by the first detection unit;
A first evaluation value based on the image of the main subject area and a second evaluation value based on the image of the second main subject area are calculated, and based on at least one of the first evaluation value and the second evaluation value An evaluation unit that evaluates the plurality of images acquired by the acquisition unit;
An image processing apparatus comprising: a selection unit that selects a part of the plurality of images acquired by the acquisition unit based on an evaluation result by the evaluation unit.
前取得部により取得した前記複数の画像を記録媒体に記録する記録部と、
前記記録媒体に記録された複数の画像のうち、前記選択部により選択された前記一部の画像を削除する削除部とを備え、
前記取得部は、前記複数の画像として、時間的に連続して撮像および生成された複数の画像を取得し、
前記第1検出部は、前記記録媒体に記録された前記複数の画像のそれぞれについて、前記主要被写体領域を検出する
ことを特徴とする画像処理装置。 The image processing apparatus according to claim 10.
A recording unit that records the plurality of images acquired by the pre-acquisition unit on a recording medium;
A deletion unit that deletes the part of the images selected by the selection unit among the plurality of images recorded on the recording medium;
The acquisition unit acquires a plurality of images captured and generated continuously in time as the plurality of images,
The image processing apparatus, wherein the first detection unit detects the main subject region for each of the plurality of images recorded on the recording medium.
前記処理対象の画像として、複数の画像を取得する取得ステップと、
前記取得ステップにおいて取得した前記複数の画像のそれぞれについて、主要被写体領域を検出する第1検出ステップと、
前記第1検出ステップにおいて前記主要被写体領域の検出が行われた複数の画像について、前記主要被写体領域が重複する部分を第2主要被写体領域として検出する第2検出ステップと、
前記主要被写体領域の画像に基づく第1評価値と、前記第2主要被写体領域の画像に基づく第2評価値とを算出し、前記第1評価値と前記第2評価値との少なくとも一方に基づいて、前記取得ステップにおいて取得した前記複数の画像の評価を行う評価ステップと、
前記評価ステップにおける評価結果に基づいて、前記取得ステップにおいて取得した前記複数の画像のうち、一部の画像を選択する選択ステップと
を備えたことを特徴とする画像処理プログラム。 An image processing program for realizing image processing on an image to be processed by a computer,
An acquisition step of acquiring a plurality of images as the processing target image;
A first detection step of detecting a main subject region for each of the plurality of images acquired in the acquisition step;
A second detection step of detecting, as a second main subject region, a portion where the main subject region overlaps a plurality of images in which the main subject region has been detected in the first detection step;
A first evaluation value based on the image of the main subject area and a second evaluation value based on the image of the second main subject area are calculated, and based on at least one of the first evaluation value and the second evaluation value An evaluation step for evaluating the plurality of images acquired in the acquisition step;
An image processing program comprising: a selection step of selecting some of the plurality of images acquired in the acquisition step based on an evaluation result in the evaluation step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011191543A JP5754308B2 (en) | 2011-09-02 | 2011-09-02 | Electronic camera, image processing apparatus, and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011191543A JP5754308B2 (en) | 2011-09-02 | 2011-09-02 | Electronic camera, image processing apparatus, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013055456A JP2013055456A (en) | 2013-03-21 |
JP5754308B2 true JP5754308B2 (en) | 2015-07-29 |
Family
ID=48132090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011191543A Active JP5754308B2 (en) | 2011-09-02 | 2011-09-02 | Electronic camera, image processing apparatus, and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5754308B2 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005045600A (en) * | 2003-07-23 | 2005-02-17 | Casio Comput Co Ltd | Image photographing apparatus and program |
JP2005227957A (en) * | 2004-02-12 | 2005-08-25 | Mitsubishi Electric Corp | Optimal face image recording device and optimal face image recording method |
US7860343B2 (en) * | 2006-04-10 | 2010-12-28 | Nokia Corporation | Constructing image panorama using frame selection |
JP4898475B2 (en) * | 2007-02-05 | 2012-03-14 | 富士フイルム株式会社 | Imaging control apparatus, imaging apparatus, and imaging control method |
JP2010177894A (en) * | 2009-01-28 | 2010-08-12 | Sony Corp | Imaging apparatus, image management apparatus, image management method, and computer program |
-
2011
- 2011-09-02 JP JP2011191543A patent/JP5754308B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013055456A (en) | 2013-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6271990B2 (en) | Image processing apparatus and image processing method | |
US7856174B2 (en) | Apparatus and method for image pickup | |
CN101601279B (en) | Imaging device, imaging method, and program | |
JP6157242B2 (en) | Image processing apparatus and image processing method | |
US8576288B2 (en) | Image processing unit, image processing method, and image processing program | |
EP2359604B1 (en) | Modifying color and panchromatic channel cfa image | |
US7450756B2 (en) | Method and apparatus for incorporating iris color in red-eye correction | |
JP5643563B2 (en) | Image processing apparatus and control method thereof | |
EP2219366B1 (en) | Image capturing device, image capturing method, and image capturing program | |
JP5561112B2 (en) | Image processing apparatus, imaging apparatus, and program | |
JP6786311B2 (en) | Image processing equipment, image processing methods, computer programs and storage media | |
JP5879831B2 (en) | Electronic camera and image processing program | |
US8830359B2 (en) | Image processing apparatus, imaging apparatus, and computer readable medium | |
US8243154B2 (en) | Image processing apparatus, digital camera, and recording medium | |
JP2015018084A (en) | Imaging apparatus, image processing method, and image processing program | |
US8599288B2 (en) | Noise reduction apparatus, method and computer-readable recording medium | |
JP6645711B2 (en) | Image processing apparatus, image processing method, and program | |
JP2016111568A (en) | Image blur correction control device, imaging apparatus, control method and program thereof | |
JP5754308B2 (en) | Electronic camera, image processing apparatus, and image processing program | |
JP5332668B2 (en) | Imaging apparatus and subject detection program | |
JP2013013023A (en) | Electronic camera, image processor and image processing program | |
JP2002262059A (en) | Image processing unit and method, recording medium, and program | |
JP4460711B2 (en) | Imaging device | |
JP6066942B2 (en) | Image processing device | |
JP2012119817A (en) | Electronic camera and correction processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150428 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150511 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5754308 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |