JP5754308B2 - Electronic camera, image processing apparatus, and image processing program - Google Patents

Electronic camera, image processing apparatus, and image processing program Download PDF

Info

Publication number
JP5754308B2
JP5754308B2 JP2011191543A JP2011191543A JP5754308B2 JP 5754308 B2 JP5754308 B2 JP 5754308B2 JP 2011191543 A JP2011191543 A JP 2011191543A JP 2011191543 A JP2011191543 A JP 2011191543A JP 5754308 B2 JP5754308 B2 JP 5754308B2
Authority
JP
Japan
Prior art keywords
main subject
images
evaluation
image
subject region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011191543A
Other languages
Japanese (ja)
Other versions
JP2013055456A (en
Inventor
佑子 中田
佑子 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011191543A priority Critical patent/JP5754308B2/en
Publication of JP2013055456A publication Critical patent/JP2013055456A/en
Application granted granted Critical
Publication of JP5754308B2 publication Critical patent/JP5754308B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、電子カメラ、画像処理装置、および画像処理プログラムに関する。   The present invention relates to an electronic camera, an image processing apparatus, and an image processing program.

従来より、複数の画像を生成して記録媒体に記録した後に、露出、コントラスト、ボケなどの観点から画像の評価を行い、評価が所定の基準より低い画像を、上述した記録媒体から削除する技術が知られている(例えば、特許文献1参照)。   Conventionally, after a plurality of images are generated and recorded on a recording medium, the image is evaluated from the viewpoint of exposure, contrast, blur, etc., and an image whose evaluation is lower than a predetermined standard is deleted from the above-described recording medium Is known (see, for example, Patent Document 1).

特許文献1の発明では、露出条件評価、コントラスト評価、ボケ、焦点ボケの評価などにより画像評価処理を実行している。   In the invention of Patent Document 1, image evaluation processing is executed by exposure condition evaluation, contrast evaluation, blur, focus blur evaluation, and the like.

特開2006−50494号公報JP 2006-50494 A

ところで、上述した画像評価には、撮影者、または、鑑賞者にとっての主要被写体の状態が大きな影響を及ぼすことが知られている。そこで、上述した画像評価において、主要被写体領域を検出し、画像評価に利用することが考えられる。   By the way, it is known that the state of the main subject for the photographer or the viewer greatly affects the image evaluation described above. Therefore, in the above-described image evaluation, it is conceivable to detect a main subject region and use it for image evaluation.

しかし、主要被写体が動きのある被写体である場合や、主要被写体の一部が隠れてしまう場合など、時系列に連続した複数の画像間で主要被写体の部分に物理的な変化が生じる場合、単純に主要被写体領域を検出して画像評価を行っても、評価における尺度がばらついてしまうため、正確な評価を行うことができないという問題がある。   However, if the main subject is a moving subject or a part of the main subject is hidden, such as when there is a physical change in the main subject between multiple images in time series, However, even if the main subject region is detected and image evaluation is performed, the scale in the evaluation varies, so that there is a problem that accurate evaluation cannot be performed.

本発明は、上記問題に鑑みてなされたものであり、複数の画像に対する評価を行う際に、主要被写体が変化する場合であっても、評価における尺度のバラツキを抑えることを目的とする。   The present invention has been made in view of the above-described problem, and an object of the present invention is to suppress scale variation in evaluation even when a main subject changes when evaluating a plurality of images.

本発明の電子カメラは、被写体を撮像して、時間的に連続する複数の画像を生成する撮像部と、前記複数の画像のそれぞれについて、主要被写体領域を検出する第1検出部と、前記第1検出部により前記主要被写体領域の検出が行われた複数の画像について、前記主要被写体領域が重複する部分を第2主要被写体領域として検出する第2検出部と、前記主要被写体領域の画像に基づく第1評価値と、前記第2主要被写体領域の画像に基づく第2評価値とを算出し、前記第1評価値と前記第2評価値との少なくとも一方に基づいて、前記複数の画像の評価を行う評価部とを備える。   The electronic camera of the present invention includes an imaging unit that images a subject and generates a plurality of temporally continuous images, a first detection unit that detects a main subject region for each of the plurality of images, and the first Based on the plurality of images in which the main subject area is detected by one detection unit, a second detection unit that detects a portion where the main subject areas overlap as a second main subject area, and an image of the main subject area A first evaluation value and a second evaluation value based on the image of the second main subject area are calculated, and the plurality of images are evaluated based on at least one of the first evaluation value and the second evaluation value. And an evaluation unit for performing.

なお、前記評価部は、前記第1評価値と前記第2評価値との何れか一方の評価値に基づいて前記評価を行った後に、他方の前記評価値に基づいて前記評価を再び行っても良い。   The evaluation unit performs the evaluation again based on the evaluation value of one of the first evaluation value and the second evaluation value, and then performs the evaluation again based on the other evaluation value. Also good.

また、前記評価部は、前記第1評価値と前記第2評価値とに所定の重み付けを行って、前記評価を行っても良い。   Further, the evaluation unit may perform the evaluation by performing a predetermined weighting on the first evaluation value and the second evaluation value.

また、前記複数の画像のそれぞれについて、シーン認識を行う認識部を備え、前記評価部は、前記認識部による認識結果に基づいて、前記第1評価値と前記第2評価値との少なくとも一方に基づく前記評価の方法を決定しても良い。   Further, each of the plurality of images includes a recognition unit that performs scene recognition, and the evaluation unit sets at least one of the first evaluation value and the second evaluation value based on a recognition result by the recognition unit. The evaluation method based on the above may be determined.

また、前記第2検出部は、前記第1検出部により前記主要被写体領域の検出が行われた複数の画像について、前記主要被写体領域内の特徴点を抽出し、前記特徴点に基づいて、前記主要被写体領域を変形させた後に、重複する部分を前記第2主要被写体領域として検出しても良い。   Further, the second detection unit extracts feature points in the main subject region for a plurality of images in which the main subject region is detected by the first detection unit, and based on the feature points, After the main subject area is deformed, an overlapping portion may be detected as the second main subject area.

また、前記第1検出部は、前記複数の画像のそれぞれについて、前記主要被写体領域を検出する際に、任意の画像において前記主要被写体領域が検出できない場合には、その画像と時間的に連続する少なくとも1枚の画像において検出された前記主要被写体領域に基づいて、前記任意の画像における前記主要被写体領域を検出しても良い。   In addition, when detecting the main subject region for each of the plurality of images, the first detection unit is temporally continuous with the image if the main subject region cannot be detected in an arbitrary image. The main subject area in the arbitrary image may be detected based on the main subject area detected in at least one image.

また、前記評価部による評価結果に基づいて、記録媒体に記録された複数の画像のうち、一部の画像を削除する削除部を備えても良い。   Moreover, you may provide the deletion part which deletes one part image from the several image recorded on the recording medium based on the evaluation result by the said evaluation part.

また、前記第1検出部は、前記複数の画像のそれぞれについて、前記主要被写体領域を検出する際に、前記主要被写体領域が検出できない画像が所定の枚数以上連続する場合には、それらの画像における前記主要被写体領域の検出を中止し、前記評価部は、前記主要被写体領域が検出できない複数枚の画像に関する前記第1評価値を、前記主要被写体領域が検出できないことを示す所定の値としても良い。   In addition, when the first detection unit detects the main subject region for each of the plurality of images, and the number of images in which the main subject region cannot be detected continues more than a predetermined number, The detection of the main subject area is stopped, and the evaluation unit may set the first evaluation value relating to a plurality of images in which the main subject area cannot be detected as a predetermined value indicating that the main subject area cannot be detected. .

また、前記第1検出部は、前記複数の画像のそれぞれについて、前記主要被写体領域を検出する際に、時間的に連続する前記複数の画像のうち、時系列の端部において、前記主要被写体領域が検出できない画像が所定の枚数以上連続する場合には、それらの画像における前記主要被写体領域の検出を中止し、前記評価部は、前記主要被写体領域が検出できない複数枚の画像に関する前記第1評価値を、前記主要被写体領域が検出できないことを示す所定の値としても良い。   Further, the first detection unit detects the main subject region at each of the plurality of images at a time-series end portion of the plurality of temporally continuous images when detecting the main subject region. If there are more than a predetermined number of images that cannot be detected, the detection of the main subject area in those images is stopped, and the evaluation unit performs the first evaluation on a plurality of images in which the main subject area cannot be detected. The value may be a predetermined value indicating that the main subject area cannot be detected.

本発明の画像処理装置は、処理対象の画像として、複数の画像を取得する取得部と、前記取得部により取得した前記複数の画像のそれぞれについて、主要被写体領域を検出する第1検出部と、前記第1検出部により前記主要被写体領域の検出が行われた複数の画像について、前記主要被写体領域が重複する部分を第2主要被写体領域として検出する第2検出部と、前記主要被写体領域の画像に基づく第1評価値と、前記第2主要被写体領域の画像に基づく第2評価値とを算出し、前記第1評価値と前記第2評価値との少なくとも一方に基づいて、前記取得部により取得した前記複数の画像の評価を行う評価部と、前記評価部による評価結果に基づいて、前記取得部により取得した前記複数の画像のうち、一部の画像を選択する選択部とを備える。   The image processing apparatus according to the present invention includes an acquisition unit that acquires a plurality of images as a processing target image, a first detection unit that detects a main subject region for each of the plurality of images acquired by the acquisition unit, A second detection unit that detects, as a second main subject region, a portion where the main subject region overlaps among a plurality of images in which the main subject region has been detected by the first detection unit; and an image of the main subject region And a second evaluation value based on the image of the second main subject region, and based on at least one of the first evaluation value and the second evaluation value, by the acquisition unit An evaluation unit that evaluates the acquired plurality of images, and a selection unit that selects some of the plurality of images acquired by the acquisition unit based on an evaluation result by the evaluation unit. .

なお、前取得部により取得した前記複数の画像を記録媒体に記録する記録部と、前記記録媒体に記録された複数の画像のうち、前記選択部により選択された前記一部の画像を削除する削除部とを備え、前記取得部は、前記複数の画像として、時間的に連続して撮像および生成された複数の画像を取得し、前記第1検出部は、前記記録媒体に記録された前記複数の画像のそれぞれについて、前記主要被写体領域を検出しても良い。   Note that a recording unit that records the plurality of images acquired by the pre-acquisition unit on a recording medium and a part of the images selected by the selection unit among the plurality of images recorded on the recording medium are deleted. A deletion unit, wherein the acquisition unit acquires a plurality of images captured and generated continuously in time as the plurality of images, and the first detection unit is recorded on the recording medium The main subject area may be detected for each of a plurality of images.

本発明の画像処理プログラムは、処理対象の画像に対する画像処理をコンピュータで実現するための画像処理プログラムであって、前記処理対象の画像として、複数の画像を取得する取得ステップと、前記取得ステップにおいて取得した前記複数の画像のそれぞれについて、主要被写体領域を検出する第1検出ステップと、前記第1検出ステップにおいて前記主要被写体領域の検出が行われた複数の画像について、前記主要被写体領域が重複する部分を第2主要被写体領域として検出する第2検出ステップと、前記主要被写体領域の画像に基づく第1評価値と、前記第2主要被写体領域の画像に基づく第2評価値とを算出し、前記第1評価値と前記第2評価値との少なくとも一方に基づいて、前記取得ステップにおいて取得した前記複数の画像の評価を行う評価ステップと、前記評価ステップにおける評価結果に基づいて、前記取得ステップにおいて取得した前記複数の画像のうち、一部の画像を選択する選択ステップとを備える。   An image processing program of the present invention is an image processing program for realizing image processing on a processing target image by a computer, wherein an acquisition step of acquiring a plurality of images as the processing target image, and the acquisition step For each of the plurality of acquired images, the main subject region overlaps between a first detection step for detecting a main subject region and a plurality of images for which the main subject region has been detected in the first detection step. Calculating a second detection step for detecting a portion as a second main subject region, a first evaluation value based on the image of the main subject region, and a second evaluation value based on the image of the second main subject region; The plurality of images acquired in the acquisition step based on at least one of the first evaluation value and the second evaluation value. Comprising an evaluation step of the evaluation, based on the evaluation result in the evaluation step, among the plurality of images obtained in the obtaining step, a selection step of selecting a portion of the image.

本発明によれば、複数の画像に対する評価を行う際に、主要被写体が変化する場合であっても、評価における尺度のバラツキを抑えることができる。   According to the present invention, when evaluating a plurality of images, even when the main subject changes, it is possible to suppress variation in the scale in the evaluation.

一の実施形態における電子カメラの構成例を示すブロック図1 is a block diagram illustrating a configuration example of an electronic camera according to an embodiment. 一の実施形態における電子カメラの動作を示す流れ図6 is a flowchart showing the operation of the electronic camera in one embodiment. 一の実施形態における処理の流れを説明する模式Schematic explaining the flow of processing in one embodiment 一の実施形態における主要被写体領域の検出について説明する図The figure explaining the detection of the main subject area in one embodiment 一の実施形態における主要被写体領域の検出について説明する別の図Another figure explaining detection of a main subject area in one embodiment 一の実施形態における主要被写体領域の検出について説明する別の図Another figure explaining detection of a main subject area in one embodiment 一の実施形態における第2主要被写体領域の検出について説明する別の図Another figure explaining detection of the 2nd main subject field in one embodiment

図1は、一の実施形態における電子カメラ10の構成例を示すブロック図である。電子カメラ10は、撮像レンズ11と、シャッタ12と、撮像素子13と、AFE14と、画像処理部15と、第1メモリ16と、第2メモリ17と、記録I/F18と、CPU19と、操作部20と、バス21とを備えている。ここで、画像処理部15、第1メモリ16、第2メモリ17、記録I/F18、CPU19は、バス21を介してそれぞれ接続されている。また、シャッタ11、撮像素子13、AFE14、操作部20は、それぞれCPU19と接続されている。   FIG. 1 is a block diagram illustrating a configuration example of an electronic camera 10 according to an embodiment. The electronic camera 10 includes an imaging lens 11, a shutter 12, an imaging device 13, an AFE 14, an image processing unit 15, a first memory 16, a second memory 17, a recording I / F 18, a CPU 19, and an operation. A unit 20 and a bus 21 are provided. Here, the image processing unit 15, the first memory 16, the second memory 17, the recording I / F 18, and the CPU 19 are respectively connected via a bus 21. Further, the shutter 11, the image sensor 13, the AFE 14, and the operation unit 20 are each connected to the CPU 19.

シャッタ12は、撮影レンズ11と撮像素子13との間に配置されるメカシャッタである。   The shutter 12 is a mechanical shutter disposed between the photographing lens 11 and the image sensor 13.

撮像素子13は、撮像レンズ11による結像を撮像する撮像デバイスである。一の実施形態の撮像素子13は、例えば、任意の受光素子の画像信号をランダムアクセスで読み出し可能なCMOS型の固体撮像素子で構成される。なお、撮像素子13の出力はAFE14に接続されている。   The imaging element 13 is an imaging device that captures an image formed by the imaging lens 11. The image pickup device 13 of one embodiment is configured by, for example, a CMOS solid-state image pickup device that can read an image signal of an arbitrary light receiving device by random access. Note that the output of the image sensor 13 is connected to the AFE 14.

AFE14は、撮像素子13の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このAFE14は、相関二重サンプリングや、画像信号のゲインの調整や、画像信号のA/D変換を行う。そして、AFE14の出力は画像処理部15に接続されている。なお、CPU19は、AFE14により画像信号のゲインを調整することで、ISO感度に相当する撮像感度の調整を行う。   The AFE 14 is an analog front end circuit that performs analog signal processing on the output of the image sensor 13. The AFE 14 performs correlated double sampling, image signal gain adjustment, and A / D conversion of the image signal. The output of the AFE 14 is connected to the image processing unit 15. The CPU 19 adjusts the imaging sensitivity corresponding to the ISO sensitivity by adjusting the gain of the image signal by the AFE 14.

画像処理部15は、AFE14から出力されたデジタルの画像信号に対して各種の画像処理(色補間処理、階調変換処理、ホワイトバランス調整など)を施す。   The image processing unit 15 performs various types of image processing (color interpolation processing, gradation conversion processing, white balance adjustment, etc.) on the digital image signal output from the AFE 14.

第1メモリ16は、画像処理の前工程や後工程で画像のデータを一時的に記憶する。例えば、第1メモリ16は、揮発性の記憶媒体であるSDRAMにより構成される。また、第2メモリ17は、CPU19によって実行されるプログラムや、各画像信号でのSN比と撮像感度の値との対応関係を示すデータテーブルなどを記憶する不揮発性のメモリである。   The first memory 16 temporarily stores image data in the pre-process and post-process of image processing. For example, the first memory 16 is configured by an SDRAM that is a volatile storage medium. The second memory 17 is a non-volatile memory that stores a program executed by the CPU 19 and a data table indicating a correspondence relationship between the S / N ratio and the imaging sensitivity value in each image signal.

記録I/F18は、不揮発性の記憶媒体22を接続するためのコネクタを有している。そして、記録I/F18は、コネクタに接続された記憶媒体22に対して後述の本画像のデータの書き込み/読み込みを実行する。上記の記憶媒体22は、ハードディスクや、半導体メモリを内蔵したメモリカードなどで構成される。なお、図1では記憶媒体22の一例としてメモリカードを図示する。   The recording I / F 18 has a connector for connecting a nonvolatile storage medium 22. The recording I / F 18 executes writing / reading of main image data, which will be described later, with respect to the storage medium 22 connected to the connector. The storage medium 22 is composed of a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 1, a memory card is illustrated as an example of the storage medium 22.

CPU19は、電子カメラ10の動作を統括的に制御するプロセッサである。例えば、CPU19は、被写体の撮影を行うための撮影モードでの動作時において、ユーザの撮像指示入力に応じて撮像素子13を駆動させて、不揮発性の記憶媒体22への記録を伴う本画像の撮像処理を実行する。   The CPU 19 is a processor that comprehensively controls the operation of the electronic camera 10. For example, the CPU 19 drives the imaging device 13 in response to a user's imaging instruction input during operation in a shooting mode for shooting a subject, and records the main image with recording in the nonvolatile storage medium 22. An imaging process is executed.

また、撮影モードでのCPU19は、本画像の撮像に先立って公知の自動露出演算を実行し、撮像条件の1パラメータである撮像感度を設定する。また、CPU19は、ユーザの入力に基づいて上記の撮像感度を設定してもよい。   In addition, the CPU 19 in the shooting mode executes a known automatic exposure calculation prior to capturing the main image, and sets the imaging sensitivity that is one parameter of the imaging conditions. Further, the CPU 19 may set the above-described imaging sensitivity based on a user input.

操作部20は、ユーザの操作を受け付ける複数のスイッチを有している。この操作部20は、例えば、本画像の撮像指示を受け付けるレリーズ釦や、十字状のカーソルキーや、決定釦などで構成される。   The operation unit 20 includes a plurality of switches that accept user operations. The operation unit 20 includes, for example, a release button that receives an instruction to capture a main image, a cross-shaped cursor key, a determination button, and the like.

なお、電子カメラ10は、複数の画像を連続して撮像し、生成した複数の画像を一旦記録し、その後に画像評価を行って評価の低い画像を削除する、いわゆるベストショットモードを備える。このモードは、操作部20を介したユーザの操作に基づいて設定されても良いし、CPU19により自動で設定されても良い。なお、ベストショットモードにおいては、ユーザは、操作部20のレリーズ釦を1回操作することにより撮影指示を行う。   The electronic camera 10 includes a so-called best shot mode in which a plurality of images are continuously captured, the generated plurality of images are temporarily recorded, and then an image evaluation is performed to delete an image with a low evaluation. This mode may be set based on a user operation through the operation unit 20 or may be automatically set by the CPU 19. In the best shot mode, the user gives a shooting instruction by operating the release button of the operation unit 20 once.

次に、ベストショットモードでの電子カメラ10の動作例を、図2の流れ図および図3の模式図を用いて説明する。なお、図2および図3におけるステップ番号(S101〜S113)は、それぞれ対応する。   Next, an operation example of the electronic camera 10 in the best shot mode will be described with reference to a flowchart of FIG. 2 and a schematic diagram of FIG. The step numbers (S101 to S113) in FIGS. 2 and 3 correspond to each other.

ステップS101において、CPU19は、ユーザによる撮影指示が行われたか否かを判定する。CPU19は、操作部20を介したユーザによる撮影指示が行われるまで待機し、撮影指示が行われるとステップS102に進む。   In step S <b> 101, the CPU 19 determines whether or not a shooting instruction has been given by the user. The CPU 19 waits until a shooting instruction is given by the user via the operation unit 20, and proceeds to step S102 when the shooting instruction is issued.

ステップS102において、CPU19は、各部を制御して、n枚目の画像を撮影する。なお、初回のステップS102においては、n=1である。なお、以下では、n回目の撮影により生成された画像を、Img[n]と称する。例えば、1回目の撮影により生成された画像は、Img[1]である。   In step S <b> 102, the CPU 19 controls each unit to capture the nth image. In the first step S102, n = 1. Hereinafter, an image generated by the n-th shooting is referred to as Img [n]. For example, the image generated by the first shooting is Img [1].

ステップS103において、CPU19は、ステップS102の撮像により生成したn枚目の画像を記録I/F18を介して記憶媒体22に記録する。なお、CPU19は、記憶媒体22に記録する代わりに、第1メモリ16に記録しても良い。   In step S103, the CPU 19 records the nth image generated by the imaging in step S102 on the storage medium 22 via the recording I / F 18. Note that the CPU 19 may record in the first memory 16 instead of recording in the storage medium 22.

ステップS104において、CPU19は、ステップS102からステップS103の処理をN枚分終了したか否かを判定する。CPU19は、N枚分終了していないと判定するとステップS105に進み、N枚分終了したと判定すると、後述するステップS106に進む。なお、Nとは予め定められた撮影枚数(例えばN=20)である。この枚数は、固定のものであっても良いし、CPU19により自動で定められたものであっても良いし、操作部20を介したユーザ操作により定められたものであっても良い。   In step S104, the CPU 19 determines whether or not the processing from step S102 to step S103 has been completed for N sheets. If the CPU 19 determines that N sheets have not been completed, the process proceeds to step S105. If the CPU 19 determines that N sheets have been completed, the process proceeds to step S106 described below. N is a predetermined number of shots (for example, N = 20). This number may be fixed, may be determined automatically by the CPU 19, or may be determined by a user operation via the operation unit 20.

ステップS105において、CPU19は、n=n+1として、ステップS102に戻る。すなわち、CPU19は、N回の撮影を繰り返し(ステップS102)、N枚の画像を記録する(ステップS103)。   In step S105, the CPU 19 sets n = n + 1 and returns to step S102. That is, the CPU 19 repeats N times of photographing (step S102) and records N images (step S103).

ステップS106において、CPU19は、記憶媒体22に記録されたN枚の画像のそれぞれについて、主要被写体領域S[n]を検出する。なお、以下では、n枚目の画像について検出された主要被写体領域を、主要被写体領域S[n]と称する。例えば、1枚目の画像について検出された主要被写体領域は、主要被写体領域S[1]である。なお、主要被写体領域の検出は、例えば、輝度情報、焦点情報、コントラスト情報、エッジ情報などに基づいて、公知技術と同様に行われる。   In step S <b> 106, the CPU 19 detects the main subject area S [n] for each of the N images recorded on the storage medium 22. Hereinafter, the main subject area detected for the nth image is referred to as a main subject area S [n]. For example, the main subject area detected for the first image is the main subject area S [1]. Note that the detection of the main subject area is performed in the same manner as in the known technique based on, for example, luminance information, focus information, contrast information, edge information, and the like.

ただし、CPU19は、主要被写体領域S[n]の検出を適切に行うことができない場合には、以下の処理を行う。   However, if the main subject area S [n] cannot be properly detected, the CPU 19 performs the following processing.

(1)任意の画像Img[X]において、主要被写体領域S[X]が検出できない場合。   (1) A case where the main subject region S [X] cannot be detected in an arbitrary image Img [X].

例えば、図4に示すように、画像Img[X]において、主要被写体領域S[X]が検出できない場合、CPU19は、画像Img[X]と時間的に連続する少なくとも1枚の画像において検出された主要被写体領域(例えば、主要被写体領域S[X−1]および主要被写体領域S[X+1])に基づいて、内挿処理を行うことにより、主要被写体領域S[X]を検出する。なお、このとき、画像Img[X]と時間的に連続する少なくとも1枚の画像として、時間的に前側に連続する画像、または、後側に連続する画像において検出された主要被写体領域(例えば、主要被写体領域S[X−1]または主要被写体領域S[X+1])に基づいて、一方向のみからの内挿処理を行うことにより、主要被写体領域S[X]を検出しても良い。   For example, as shown in FIG. 4, when the main subject region S [X] cannot be detected in the image Img [X], the CPU 19 detects it in at least one image temporally continuous with the image Img [X]. The main subject region S [X] is detected by performing interpolation processing based on the main subject region (for example, the main subject region S [X-1] and the main subject region S [X + 1]). At this time, as at least one image temporally continuous with the image Img [X], the main subject region (for example, for example, detected in the temporally continuous image on the front side or the continuous image on the back side) Based on the main subject region S [X−1] or the main subject region S [X + 1]), the main subject region S [X] may be detected by performing interpolation processing from only one direction.

また、内挿に用いる前後の画像の枚数は何枚であっても良い。例えば、CPU19は、主要被写体領域S[X−1]および主要被写体領域S[X−2]の2枚の画像に基づいて内挿処理を行っても良いし、主要被写体領域S[X+1]および主要被写体領域S[X+2]の2枚の画像に基づいて内挿処理を行っても良い。さらに、CPU19は、例えば、主要被写体領域S[X−1]、主要被写体領域S[X−2]、主要被写体領域S[X+1]、主要被写体領域S[X+2]の4枚の画像に基づいて内挿処理を行っても良い。   Further, the number of images before and after being used for interpolation may be any number. For example, the CPU 19 may perform an interpolation process based on two images of the main subject region S [X-1] and the main subject region S [X-2], or the main subject region S [X + 1] and the main subject region S [X + 1] Interpolation processing may be performed based on two images of the main subject area S [X + 2]. Further, the CPU 19 is based on, for example, four images of a main subject region S [X-1], a main subject region S [X-2], a main subject region S [X + 1], and a main subject region S [X + 2]. Interpolation processing may be performed.

また、内挿以外の方法を用いても良い。   A method other than interpolation may be used.

(2)主要被写体領域S[n]が検出できない画像が所定の枚数(例えば、3枚)以上連続する場合。   (2) A case where a predetermined number (for example, three) or more of images in which the main subject area S [n] cannot be detected continues.

例えば、図5に示すように、画像Img[X−1]からImg[X+1]までの3枚の画像において主要被写体領域S[n]が検出できない場合、CPU19は、主要被写体が対象画像のフレーム外に出たと判断し、これら3枚の画像における主要被写体領域S[n]の検出を中止する。   For example, as shown in FIG. 5, when the main subject area S [n] cannot be detected in three images from the images Img [X−1] to Img [X + 1], the CPU 19 determines that the main subject is a frame of the target image. It is determined that the subject has gone out, and detection of the main subject region S [n] in these three images is stopped.

(3)N枚の画像のうち、時系列の端部(最初、または、最後の部分)において、主要被写体領域S[n]が検出できない画像が所定の枚数(例えば、3枚)以上連続する場合。   (3) Among N images, a predetermined number (for example, three) or more of images in which the main subject region S [n] cannot be detected continue at a time-series end portion (first or last portion). If.

例えば、図6に示すように、N枚の画像のうち、時系列の最初側の端部である画像Img[1]からImg[3]までの3枚の画像において主要被写体領域S[n]が検出できない場合、CPU19は、上述した(2)と同様に、主要被写体が対象画像のフレーム外に出たと判断し、これら3枚の画像における主要被写体領域S[n]の検出を中止する。   For example, as shown in FIG. 6, the main subject region S [n] in the three images from the images Img [1] to Img [3], which are the end portions on the first side in time series, among the N images. Cannot be detected, the CPU 19 determines that the main subject has moved out of the frame of the target image as in (2) described above, and stops detecting the main subject region S [n] in these three images.

(4)N枚の画像の全てにおいて、主要被写体領域S[n]が検出できない場合。   (4) The main subject area S [n] cannot be detected in all N images.

CPU19は、N枚の画像のそれぞれについて、画面全体を主要被写体領域S[n]とするか、または、固定領域(例えば、中央領域など)を主要被写体領域S[n]とする。   For each of the N images, the CPU 19 sets the entire screen as the main subject area S [n], or sets the fixed area (for example, the center area) as the main subject area S [n].

なお、上述した(1)から(3)において、処理を簡略化するために、任意の画像Img[X]において主要被写体領域S[X]を検出できない場合に、主要被写体領域S[n]を検出できた画像のうち、任意の画像Img[X]と最も時間的に近い画像における主要被写体領域S[n]を、任意の画像Img[X]における主要被写体領域S[X]としても良い。   In the above (1) to (3), in order to simplify the processing, when the main subject region S [X] cannot be detected in an arbitrary image Img [X], the main subject region S [n] is selected. Of the detected images, the main subject region S [n] in the image closest in time to the arbitrary image Img [X] may be set as the main subject region S [X] in the arbitrary image Img [X].

また、上述した(1)から(4)では、主要被写体領域S[n]の検出を適切に行うことができない場合を例に挙げて説明したが、検出された主要被写体領域S[n]の信頼性に疑いがある場合にも、同様の処理を行っても良い。例えば、任意の画像Img[X]において検出した主要被写体領域S[X]と、前後に連続する画像において検出された主要被写体領域S[n]とで、その位置や大きさが著しく異なる場合には、誤検出などの可能性が高く、主要被写体領域S[X]の信頼性に疑いがある。このような場合、CPU19は、上述した(1)から(4)と同様の処理を行っても良い。   In the above (1) to (4), the case where the main subject region S [n] cannot be appropriately detected has been described as an example. However, the detected main subject region S [n] The same processing may be performed when there is a doubt about reliability. For example, when the position and size of the main subject region S [X] detected in an arbitrary image Img [X] and the main subject region S [n] detected in consecutive images are significantly different. Has a high possibility of erroneous detection and the reliability of the main subject area S [X] is doubtful. In such a case, the CPU 19 may perform the same processing as (1) to (4) described above.

ステップS107において、CPU19は、記憶媒体22に記録されたN枚の画像のそれぞれについて、ステップS104で検出した主要被写体領域S[n]に基づき、第1評価値E[n]を算出する。なお、以下では、n枚目の画像について算出された評価値を、第1評価値E[n]と称する。例えば、1枚目の画像について算出された評価値は、第1評価値E[1]である。評価値の算出は、例えば、輝度情報、焦点情報、コントラスト情報、エッジ情報などと、主要被写体領域S[n]内の画素値とに基づいて、公知技術と同様に行われる。   In step S107, the CPU 19 calculates a first evaluation value E [n] for each of the N images recorded in the storage medium 22 based on the main subject area S [n] detected in step S104. Hereinafter, the evaluation value calculated for the nth image is referred to as a first evaluation value E [n]. For example, the evaluation value calculated for the first image is the first evaluation value E [1]. The evaluation value is calculated in the same manner as in the known technique based on, for example, luminance information, focus information, contrast information, edge information, and the pixel value in the main subject region S [n].

ただし、ステップS104の(2)および(3)で説明したように、主要被写体領域の検出を中止した画像について、CPU19は、その画像に関する第1評価値E[n]を、主要被写体領域が検出できないことを示す所定の値とする。主要被写体領域が検出できないことを示す値は、どのようなものであっても良く、例えば、第1評価値E[n]が取り得る値の最小値などが考えられる。また、第1評価値E[n]が取り得る値のうち、比較的低い値を、主要被写体領域が検出できないことを示す値としても良い。   However, as described in (2) and (3) of step S104, the CPU 19 detects the first evaluation value E [n] related to the image for which the detection of the main subject area has been stopped. It is set to a predetermined value indicating that it cannot be performed. The value indicating that the main subject region cannot be detected may be any value, for example, the minimum value that can be taken by the first evaluation value E [n]. Also, a relatively low value among the values that can be taken by the first evaluation value E [n] may be a value indicating that the main subject region cannot be detected.

また、ステップS106で説明した主要被写体領域S[n]の検出において、内挿処理などを行って主要被写体領域S[n]を検出した場合には、内挿処理を行わずに主要被写体領域S[n]を検出した場合に比べて評価値E[n]が低くなるように、評価値E[n]を調整しても良い。   In the detection of the main subject area S [n] described in step S106, when the main subject area S [n] is detected by performing an interpolation process or the like, the main subject area S is not performed without performing the interpolation process. The evaluation value E [n] may be adjusted so that the evaluation value E [n] is lower than when [n] is detected.

ステップS108において、CPU19は、第2主要被写体領域Scを検出する。第2主要被写体領域Scは、ステップS106で説明したN枚の画像のそれぞれにおいて検出した主要被写体領域S[1]から主要被写体領域S[N]が重複する部分に相当する。例えば、N=20である場合には、ステップS106で検出した主要被写体領域S[1]から主要被写体領域S[20]が重複する部分が第2主要被写体領域Scである。   In step S108, the CPU 19 detects the second main subject area Sc. The second main subject area Sc corresponds to a portion where the main subject area S [N] overlaps the main subject area S [1] detected in each of the N images described in step S106. For example, when N = 20, the portion where the main subject region S [20] overlaps the main subject region S [1] detected in step S106 is the second main subject region Sc.

図7に、第2主要被写体領域Scを例示する。図7では、簡単のため、主要被写体領域S[X−1]から主要被写体領域S[X+1]の重複する部分として第2主要被写体領域Scを図示している。また、図7では、説明を分かり易くするため、第2主要被写体領域Scを拡大して図示している。図7に示すように、主要被写体領域S[X−1]から主要被写体領域S[X+1]は、主要被写体の動きに合わせて、異なる形状を示す。例えば、主要被写体領域S[X+1]は、本来の主要被写体である人物の部分と、背景のヨットの部分との両方が主要被写体領域として検出されている。一方、第2主要被写体領域Scは、主要被写体領域S[X−1]から主要被写体領域S[X+1]の重複する部分であるため、本来の主要被写体である人物の部分のみを含む。   FIG. 7 illustrates the second main subject area Sc. In FIG. 7, for the sake of simplicity, the second main subject region Sc is illustrated as a portion where the main subject region S [X−1] and the main subject region S [X + 1] overlap. Further, in FIG. 7, the second main subject region Sc is shown in an enlarged manner for easy understanding. As shown in FIG. 7, the main subject region S [X−1] to the main subject region S [X + 1] have different shapes according to the movement of the main subject. For example, in the main subject region S [X + 1], both the person portion that is the original main subject and the background yacht portion are detected as the main subject region. On the other hand, the second main subject area Sc is an overlapping portion of the main subject area S [X−1] to the main subject area S [X + 1], and therefore includes only the portion of the person who is the original main subject.

なお、CPU19は、ステップS106で検出した主要被写体領域S[1]から主要被写体領域S[N]に対して、例えば、位置合わせ処理を施した後に重ね合わせ処理を行い、第2主要被写体領域Scを検出する。このとき、CPU19は、主要被写体領域S[1]から主要被写体領域S[N]に関して、主要被写体領域内の特徴点を抽出し、特徴点に基づいて、主要被写体領域S[1]から主要被写体領域S[N]をそれぞれ変形させた後に、重複する部分を第2主要被写体領域Scとして検出しても良い。変形処理としては、例えば、公知技術と同様に、回転処理、拡大縮小処理、ひずみ処理(非線形的なゆがませ処理)などが考えられる。   Note that the CPU 19 performs, for example, an alignment process on the main subject area S [1] to the main subject area S [N] detected in step S106, and then performs an overlay process to obtain a second main subject area Sc. Is detected. At this time, the CPU 19 extracts a feature point in the main subject region with respect to the main subject region S [N] from the main subject region S [1], and based on the feature point, the main subject region S [1] extracts the main subject. The overlapping portions may be detected as the second main subject region Sc after each of the regions S [N] is deformed. As the deformation process, for example, a rotation process, an enlargement / reduction process, a distortion process (non-linear distortion process), and the like can be considered as in the known technique.

また、CPU19は、主要被写体領域S[1]から主要被写体領域S[N]の全てではなく、一部の画像に基づく主要被写体領域が重複する部分を第2主要被写体領域Scとして検出しても良い。例えば、ステップS106で説明したN枚の画像のうち、1枚おきの画像において検出された主要被写体領域S[n]が重複する部分を第2主要被写体領域Scとして検出しても良い。また、主要被写体領域S[1]から主要被写体領域S[N]を相対比較し、類似度の高いものについては、重複する部分を検出する対象から除外しても良い。何れの場合も、重複する部分を検出する対象となる主要被写体領域S[n]の数を減らすことにより、第2主要被写体領域Scを検出する処理を簡略化することができる。   Further, the CPU 19 may detect not the entire main subject region S [1] to the main subject region S [N] but a portion where the main subject regions based on some images overlap as the second main subject region Sc. good. For example, a portion of the N images described in step S106 where the main subject region S [n] detected in every other image overlaps may be detected as the second main subject region Sc. Further, the main subject region S [1] to the main subject region S [N] may be relatively compared, and those having a high degree of similarity may be excluded from the target for detecting the overlapping portion. In any case, the process of detecting the second main subject region Sc can be simplified by reducing the number of main subject regions S [n] that are targets for detecting overlapping portions.

また、CPU19は、第2主要被写体領域Scの検出を適切に行うことができない場合には、以下のような処理を行っても良い。
・主要被写体領域S[1]から主要被写体領域S[N]が重複する部分が適切に検出できない場合、すべての画像(ステップS106で説明したN枚の画像)に基づく主要被写体領域が重複する部分の代わりに、一部の画像(例えば、ステップS106で説明したN枚の画像のうち、8割程度の枚数の画像)に基づく主要被写体領域が重複する部分を第2主要被写体領域Scとして検出しても良い。
・主要被写体領域S[1]から主要被写体領域S[N]が重複する部分が適切に検出できない場合、ステップS106で説明したN枚の画像を、時系列、あるいは、主要被写体領域S[N]の変化量などに応じて複数のグループに分割する。そして、グループごとに、そのグループに含まれる画像に基づく主要被写体領域が重複する部分を第2主要被写体領域Scとして検出しても良い。この場合、上述した複数のグループごとに形状の異なる第2主要被写体領域Scが検出されることになる。さらに、上述したように、グループごとに検出した複数の第2主要被写体領域Scを総合する(加算、選択等)ことにより、1つの第2主要被写体領域Scを検出しても良い。
・第2主要被写体領域Scの面積が、主要被写体領域S[1]から主要被写体領域S[N]の面積と比較して非常に小さい場合には、第2主要被写体領域Scの検出を中止しても良いし、すべての画像(ステップS106で説明したN枚の画像)に基づく主要被写体領域が重複する部分の代わりに、一部の画像(例えば、ステップS106で説明したN枚の画像のうち、8割程度の枚数の画像)に基づく主要被写体領域が重複する部分を第2主要被写体領域Scとして検出しても良いし、上述したグループ分けを行ってもよい。なお、第2主要被写体領域Scの検出を中止する際には、後述するステップS109において、第2評価値Ec[n]を算出する際に、CPU19は、各画像に関する第2評価値Ec[n]を、第2主要被写体領域が検出できないことを示す所定の値とする(ステップS107の第1評価値E[n]参照)。
In addition, when the CPU 19 cannot appropriately detect the second main subject region Sc, the CPU 19 may perform the following processing.
When the portion where the main subject region S [N] overlaps from the main subject region S [1] cannot be detected appropriately, the portion where the main subject regions overlap based on all the images (N images described in step S106) Instead, a portion where the main subject areas overlap based on some images (for example, about 80% of the N images described in step S106) is detected as the second main subject area Sc. May be.
If the portion where the main subject region S [N] overlaps the main subject region S [1] cannot be detected appropriately, the N images described in step S106 are time-series or the main subject region S [N]. It is divided into a plurality of groups according to the change amount of Then, for each group, a portion where the main subject regions based on the images included in the group overlap may be detected as the second main subject region Sc. In this case, the second main subject region Sc having a different shape for each of the plurality of groups described above is detected. Furthermore, as described above, one second main subject region Sc may be detected by combining a plurality of second main subject regions Sc detected for each group (addition, selection, etc.).
When the area of the second main subject area Sc is very small compared to the areas of the main subject area S [1] to the main subject area S [N], the detection of the second main subject area Sc is stopped. Alternatively, instead of a portion where the main subject regions overlap based on all the images (N images described in step S106), some of the images (for example, among the N images described in step S106) , A portion where the main subject areas overlap based on about 80% of the number of images) may be detected as the second main subject area Sc, or the above-described grouping may be performed. When the detection of the second main subject region Sc is stopped, the CPU 19 calculates the second evaluation value Ec [n for each image when calculating the second evaluation value Ec [n] in step S109 described later. ] Is a predetermined value indicating that the second main subject region cannot be detected (see the first evaluation value E [n] in step S107).

ステップS109において、CPU19は、記憶媒体22に記録されたN枚の画像のそれぞれについて、ステップS108で検出した第2主要被写体領域Scに基づき、第2評価値Ec[n]を算出する。なお、以下では、n枚目の画像について算出された第2評価値を、第2評価値Ec[n]と称する。例えば、1枚目の画像について算出された第2評価値は、第2評価値Ec[1]である。第2評価値の算出は、ステップS107で説明した第1評価値E[n]と同様に、例えば、輝度情報、焦点情報、コントラスト情報、エッジ情報などと、第2主要被写体領域Sc内の画素値とに基づいて、公知技術と同様に行われる。   In step S109, the CPU 19 calculates a second evaluation value Ec [n] for each of the N images recorded in the storage medium 22 based on the second main subject area Sc detected in step S108. Hereinafter, the second evaluation value calculated for the nth image is referred to as a second evaluation value Ec [n]. For example, the second evaluation value calculated for the first image is the second evaluation value Ec [1]. The second evaluation value is calculated in the same manner as the first evaluation value E [n] described in step S107, for example, luminance information, focus information, contrast information, edge information, etc., and pixels in the second main subject region Sc. Based on the value, it is carried out in the same manner as in the known art.

ステップS110において、CPU19は、シーン認識を行う。CPU19は、記憶媒体22に記録されたN枚の画像に基づいて、公知技術と同様にシーン認識を行う。このシーン認識は、主要被写体が変化するか否か、さらには、どのように変化するかを推測するためのものである。例えば、ポートレートのようなシーンにおいては、主要被写体は変化が少ないと推測できる。また、例えば、図7に例示したようなシーンにおいては、主要被写体自体が変化しつつ移動することが推測できる。   In step S110, the CPU 19 performs scene recognition. The CPU 19 performs scene recognition based on the N images recorded on the storage medium 22 in the same manner as in the known technique. This scene recognition is for estimating whether or not the main subject changes, and how it changes. For example, in a scene such as a portrait, it can be estimated that the main subject has little change. Further, for example, in the scene illustrated in FIG. 7, it can be estimated that the main subject itself moves while changing.

ステップS111において、CPU19は、記憶媒体22に記録されたN枚の画像のそれぞれについて、ステップS107で算出した第1評価値E[n]と、ステップS109で算出した第2評価値Ec[n]との少なくとも一方に基づいて、画像の評価を行う。   In step S111, the CPU 19 for each of the N images recorded on the storage medium 22, the first evaluation value E [n] calculated in step S107 and the second evaluation value Ec [n] calculated in step S109. The image is evaluated based on at least one of the above.

画像の評価については、以下のような方法がある。   There are the following methods for image evaluation.

(1)第1評価値E[n]に基づいて評価を行った後に第2評価値Ec[n]に基づいて評価を行う。   (1) After performing the evaluation based on the first evaluation value E [n], the evaluation is performed based on the second evaluation value Ec [n].

このような順番で評価を行うことにより、絶対評価に好適な第1評価値E[n]に基づいて、主要被写体領域における映りが良い画像を選択し、さらに、相対評価に好適な第2評価値Ec[n]に基づいて、相対的に映りが良い画像を選択することができる。   By performing the evaluation in this order, an image with good reflection in the main subject region is selected based on the first evaluation value E [n] suitable for absolute evaluation, and further, the second evaluation suitable for relative evaluation. Based on the value Ec [n], an image with relatively good reflection can be selected.

この選択方法は、ポートレートのような主要被写体自体の変化が少ないシーンにおいて有用である。   This selection method is useful in a scene where there is little change in the main subject itself, such as a portrait.

(2)第2評価値Ec[n]に基づいて評価を行った後に第1評価値E[n]に基づいて評価を行う。   (2) After evaluating based on the second evaluation value Ec [n], evaluation is performed based on the first evaluation value E [n].

このような順番で評価を行うことにより、相対評価に好適な第2評価値Ec[n]に基づいて、相対的に映りが良い画像を選択し、さらに、絶対評価に好適な第1評価値E[n]に基づいて、主要被写体領域における映りが良い画像を選択することができる。   By performing the evaluation in this order, an image with relatively good reflection is selected based on the second evaluation value Ec [n] suitable for relative evaluation, and further, the first evaluation value suitable for absolute evaluation Based on E [n], an image with good reflection in the main subject region can be selected.

この選択方法は、図7に例示したような主要被写体自体が変化しつつ移動するシーンにおいて有用である。   This selection method is useful in a scene in which the main subject itself moves while changing as illustrated in FIG.

(3)第1評価値E[n]および第2評価値Ec[n]に所定の重み付けを行った後に評価を行う。   (3) Evaluation is performed after predetermined weighting is applied to the first evaluation value E [n] and the second evaluation value Ec [n].

このような方法で評価を行うことにより、絶対評価に好適な第1評価値E[n]と、相対評価に好適な第2評価値Ec[n]とをバランスよく用いて好適な評価を行うことができる。なお、ポートレートのような主要被写体自体の変化が少ないシーンにおいては、絶対評価に好適な第1評価値E[n]の重みを多くし、図7に例示したような主要被写体自体が変化しつつ移動するシーンにおいては、相対評価に好適な第2評価値Ec[n]の重みを多くすると良い。   By performing the evaluation by such a method, the first evaluation value E [n] suitable for the absolute evaluation and the second evaluation value Ec [n] suitable for the relative evaluation are used in a well-balanced manner. be able to. In a scene such as a portrait where there is little change in the main subject itself, the weight of the first evaluation value E [n] suitable for absolute evaluation is increased, and the main subject itself as illustrated in FIG. 7 changes. In a moving scene, the weight of the second evaluation value Ec [n] suitable for relative evaluation is preferably increased.

(4)第1評価値E[n]または第2評価値Ec[n]のいずれか一方に基づいて評価を行う。   (4) Evaluation is performed based on either the first evaluation value E [n] or the second evaluation value Ec [n].

第1評価値E[n]のみに基づいて評価を行うことにより、絶対評価による画像の評価が可能となり、第2評価値Ec[n]のみに基づいて評価を行うことにより、相対評価による画像の評価が可能となる。   By performing the evaluation based only on the first evaluation value E [n], it is possible to evaluate the image based on the absolute evaluation. By performing the evaluation based only on the second evaluation value Ec [n], the image based on the relative evaluation can be obtained. Can be evaluated.

CPU19は、上述した(1)から(4)のいずれかの方法で評価を行い、評価値を算出する。評価値の算出は公知技術と同様に行われる。なお、上述した(1)から(4)のいずれの方法を用いるかは、CPU19により選択されても良いし、操作部20を介したユーザ操作により選択されても良い。CPU19により自動で選択する際には、CPU19は、例えば、ステップS110で行ったシーン認識の結果に基づいて選択を行う。   The CPU 19 performs evaluation by any of the methods (1) to (4) described above, and calculates an evaluation value. The evaluation value is calculated in the same manner as in the known technique. It should be noted that which of the above methods (1) to (4) is used may be selected by the CPU 19 or may be selected by a user operation via the operation unit 20. When selecting automatically by the CPU 19, the CPU 19 performs selection based on the result of the scene recognition performed in step S110, for example.

ステップS112において、CPU19は、削除する画像を決定する。CPU19は、ステップS111で算出した評価値に基づき、評価の低い方から所定の枚数(例えば、15枚)の画像を削除する画像として選択する。このような選択を行うことにより、評価の高い画像を選択的に残すことができる。なお、削除する画像の枚数は、固定のものであっても良いし、CPU19により自動で定められたものであっても良いし、操作部20を介したユーザ操作により定められたものであっても良い。   In step S112, the CPU 19 determines an image to be deleted. Based on the evaluation value calculated in step S111, the CPU 19 selects a predetermined number (for example, 15 images) of images from the lowest evaluation as images to be deleted. By making such a selection, an image with a high evaluation can be selectively left. The number of images to be deleted may be fixed, may be determined automatically by the CPU 19, or may be determined by a user operation via the operation unit 20. Also good.

ステップS113において、CPU19は、ステップS112で決定した画像を記録媒体22から削除して、一連の処理を終了する。   In step S113, the CPU 19 deletes the image determined in step S112 from the recording medium 22, and ends the series of processes.

なお、ステップS103において、撮影により生成した画像を第1メモリ16に記録した場合には、CPU19は、第1メモリから画像を削除し、残りの画像を記録I/F18を介して記憶媒体22に記録する。   In step S103, when an image generated by shooting is recorded in the first memory 16, the CPU 19 deletes the image from the first memory and stores the remaining image in the storage medium 22 via the recording I / F 18. Record.

以上説明したように、本実施形態によれば、被写体を撮像して、時間的に連続する複数の画像を生成し、生成した複数の画像のそれぞれについて、主要被写体領域を検出するとともに、主要被写体領域の検出が行われた複数の画像について、主要被写体領域が重複する部分を第2主要被写体領域として検出する。さらも。主要被写体領域の画像に基づく第1評価値と、第2主要被写体領域の画像に基づく第2評価値とを算出し、第1評価値と第2評価値との少なくとも一方に基づいて、記録媒体に記録された複数の画像の評価を行う。したがって、複数の画像に対する評価を行う際に、主要被写体が変化する場合であっても、評価における尺度のバラツキを抑えることができる。   As described above, according to the present embodiment, the subject is imaged, a plurality of temporally continuous images are generated, the main subject region is detected for each of the generated plurality of images, and the main subject is detected. A portion where the main subject region overlaps is detected as a second main subject region for the plurality of images for which the region has been detected. Furthermore. A first evaluation value based on the image of the main subject area and a second evaluation value based on the image of the second main subject area are calculated, and based on at least one of the first evaluation value and the second evaluation value, the recording medium A plurality of images recorded in the image are evaluated. Therefore, even when the main subject changes when evaluating a plurality of images, it is possible to suppress variation in the scale in the evaluation.

特に、本実施形態によれば、時系列に連続撮影した一連の画像群のうち、一部の画像で主要被写体が検出できない場合や、主要被写体が動被写体で、かつ、主要被写体自体に物理的な変化が生じる場合(動被写体が回転する場合、主要被写体の一部がフレームアウトするはみ出し量が変化する場合、主要被写体の手前で通行人等が横切り、主要被写体の一部が隠れてしまう場合など)であっても、略同一の尺度で評価を行うことができる。そして、このような評価の結果、好適な画像の選択および削除を行うことができるので、ベストショットモードにおいて、最適な画像を残すことができる。   In particular, according to the present embodiment, when a main subject cannot be detected from some images in a series of images taken continuously in time series, or when the main subject is a moving subject and the main subject itself is physically When a moving subject rotates (when a moving subject rotates, a part of the main subject is out of frame, or a protrusion amount changes, a passerby crosses in front of the main subject and a part of the main subject is hidden) Etc.) can be evaluated on substantially the same scale. As a result of such evaluation, a suitable image can be selected and deleted, so that an optimal image can be left in the best shot mode.

なお、本実施形態では、N枚の画像を撮影(ステップS102)および記録(ステップS103)した後に、主要被写体領域S[n]の検出(ステップS106)および第1評価値E[n]の算出(ステップS107)を行う例を示したが、本発明はこの例に限定されない。例えば、N枚の画像を撮影(ステップS102)した後すぐに、主要被写体領域S[n]の検出(ステップS106)および第1評価値E[n]の算出(ステップS107)を開始しても良い。   In the present embodiment, after taking N images (step S102) and recording (step S103), the main subject region S [n] is detected (step S106) and the first evaluation value E [n] is calculated. Although an example of performing (Step S107) has been shown, the present invention is not limited to this example. For example, immediately after taking N images (step S102), detection of the main subject region S [n] (step S106) and calculation of the first evaluation value E [n] (step S107) are started. good.

また、本実施形態では、主要被写体領域S[n]の検出(ステップS106)において、主要被写体が対象画像のフレーム外に出たと判断する際の例として、主要被写体領域S[n]の検出対象の画像が時系列の端部にある場合と、時系列の端部に無い場合とで同じ枚数(3枚)を基準に判断する例を示した。しかし、CPU19は、主要被写体が対象画像のフレーム外に出たと判断する基準の枚数を、主要被写体領域S[n]の検出対象の画像が時系列の端部にある場合と、時系列の端部に無い場合とで変えても良い。例えば、CPU19は、時系列の端部において、主要被写体領域S[n]が検出できない画像が2枚連続した場合に主要被写体が対象画像のフレーム外に出たと判断し、主要被写体領域S[n]の検出対象の画像が時系列の端部に無い場合には、主要被写体領域S[n]が検出できない画像が3枚連続した場合に主要被写体が対象画像のフレーム外に出たと判断してもよい。   In the present embodiment, as an example of determining that the main subject has moved outside the frame of the target image in the detection of the main subject region S [n] (step S106), the detection target of the main subject region S [n] In this example, the determination is based on the same number of images (3) when the image is at the end of the time series and when the image is not at the end of the time series. However, the CPU 19 determines the reference number for determining that the main subject has moved out of the frame of the target image when the image to be detected in the main subject region S [n] is at the end of the time series and It may be changed depending on whether it is not in the department. For example, the CPU 19 determines that the main subject has moved out of the frame of the target image when two images in which the main subject region S [n] cannot be detected are consecutive at the end of the time series, and the main subject region S [n ] Is not at the end of the time series, it is determined that the main subject has moved out of the frame of the target image when three images in which the main subject region S [n] cannot be detected are consecutive. Also good.

また、例えば、CPU19は、時系列の端部において、主要被写体領域S[n]が検出できない画像が4枚連続した場合に主要被写体が対象画像のフレーム外に出たと判断し、主要被写体領域S[n]の検出対象の画像が時系列の端部に無い場合には、主要被写体領域S[n]が検出できない画像が3枚連続した場合に主要被写体が対象画像のフレーム外に出たと判断してもよい。   Further, for example, the CPU 19 determines that the main subject has moved out of the frame of the target image when four images in which the main subject region S [n] cannot be detected are consecutive at the end of the time series, and the main subject region S When the detection target image of [n] is not at the end of the time series, it is determined that the main subject has moved out of the frame of the target image when three images in which the main subject region S [n] cannot be detected are consecutive. May be.

なお、上述した「主要被写体が対象画像のフレーム外に出たと判断する基準となる所定の枚数」は、操作部20を介したユーザの操作に基づいて設定されても良いし、CPU19により自動で設定されても良い。CPU19により自動で設定する際には、撮像時に設定された撮影モードの種類や撮影条件などによって、適当な枚数を設定する構成としてもよい。   Note that the above-mentioned “predetermined number as a reference for determining that the main subject has moved out of the frame of the target image” may be set based on a user operation via the operation unit 20 or automatically by the CPU 19. It may be set. When the CPU 19 automatically sets, an appropriate number may be set according to the type of shooting mode and shooting conditions set at the time of imaging.

また、本実施形態では、ステップS110において、シーン認識を行う例を示したが、シーン認識は必ずしも行わなくても良い。   In the present embodiment, an example in which scene recognition is performed in step S110 has been described. However, scene recognition is not necessarily performed.

また、本実施形態では、ベストショットモード時に図2のフローチャートに示した一連の処理を行う例を示したが、本発明はこの例に限定されない。例えば、連写モードにおいて複数の画像を生成する場合にも本発明を同様に適用することができる。また、ユーザにより選択された複数の画像を対象として、ステップS106以降の処理を行っても良い。   In the present embodiment, an example in which the series of processes shown in the flowchart of FIG. 2 is performed in the best shot mode is shown, but the present invention is not limited to this example. For example, the present invention can be similarly applied when generating a plurality of images in the continuous shooting mode. Moreover, you may perform the process after step S106 for the some image selected by the user.

また、上述した実施形態では、本発明の技術を図1に示した電子カメラ10において実現する例について説明した。しかしながら、本発明はこれに限定されない。例えば、図1に示した電子カメラ10以外の構成の電子カメラにも本発明を同様に適用することができる。   In the above-described embodiment, the example in which the technique of the present invention is implemented in the electronic camera 10 illustrated in FIG. 1 has been described. However, the present invention is not limited to this. For example, the present invention can be similarly applied to an electronic camera having a configuration other than the electronic camera 10 shown in FIG.

また、コンピュータと画像処理プログラムとにより、上記実施形態で説明した画像処理装置をソフトウェア的に実現しても良い。この場合、図2のフローチャートで説明したステップS106以降の処理の一部または全部をコンピュータで実現する構成とすれば良い。   Further, the image processing apparatus described in the above embodiment may be realized as software by a computer and an image processing program. In this case, what is necessary is just to make it the structure which implement | achieves part or all of the process after step S106 demonstrated with the flowchart of FIG. 2 with a computer.

さらに、上述したコンピュータ以外にも、デジタルの画像の再生表示機能やレタッチ機能を有する電子機器(例えば、フォトビューアー、デジタルフォトフレーム、写真の印刷装置など)などに本発明を同様に適用することができる。また、上述した実施形態で説明した電子カメラ10は、携帯電話端末などのカメラモジュールとして実装されるものであってもよい。   Further, in addition to the computer described above, the present invention can be similarly applied to an electronic device (for example, a photo viewer, a digital photo frame, a photo printing apparatus, etc.) having a digital image reproduction display function and a retouch function. it can. In addition, the electronic camera 10 described in the above-described embodiment may be mounted as a camera module such as a mobile phone terminal.

また、上述した実施形態では、各処理をソフトウェア的に実現する例を説明したが、ASIC等によってこれらの各処理をハードウエア的に実現しても勿論かまわない。   In the above-described embodiment, an example in which each process is realized by software has been described. However, it is a matter of course that each process may be realized by hardware using an ASIC or the like.

10…電子カメラ、13…撮像素子、14…AFE、16…第1メモリ、17…第2メモリ、19…CPU、22…記憶媒体 DESCRIPTION OF SYMBOLS 10 ... Electronic camera, 13 ... Image sensor, 14 ... AFE, 16 ... 1st memory, 17 ... 2nd memory, 19 ... CPU, 22 ... Storage medium

Claims (12)

被写体を撮像して、時間的に連続する複数の画像を生成する撮像部と、
前記複数の画像のそれぞれについて、主要被写体領域を検出する第1検出部と、
前記第1検出部により前記主要被写体領域の検出が行われた複数の画像について、前記主要被写体領域が重複する部分を第2主要被写体領域として検出する第2検出部と、
前記主要被写体領域の画像に基づく第1評価値と、前記第2主要被写体領域の画像に基づく第2評価値とを算出し、前記第1評価値と前記第2評価値との少なくとも一方に基づいて、前記複数の画像の評価を行う評価部と
を備えたことを特徴とする電子カメラ。
An imaging unit that images a subject and generates a plurality of temporally continuous images;
A first detector for detecting a main subject region for each of the plurality of images;
A second detection unit that detects, as a second main subject region, a portion where the main subject region overlaps a plurality of images in which the main subject region is detected by the first detection unit;
A first evaluation value based on the image of the main subject area and a second evaluation value based on the image of the second main subject area are calculated, and based on at least one of the first evaluation value and the second evaluation value An electronic camera comprising: an evaluation unit that evaluates the plurality of images.
請求項1に記載の電子カメラにおいて、
前記評価部は、前記第1評価値と前記第2評価値との何れか一方の評価値に基づいて前記評価を行った後に、他方の前記評価値に基づいて前記評価を再び行う
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
The evaluation unit performs the evaluation again based on the other evaluation value after performing the evaluation based on one of the first evaluation value and the second evaluation value. And an electronic camera.
請求項1に記載の電子カメラにおいて、
前記評価部は、前記第1評価値と前記第2評価値とに所定の重み付けを行って、前記評価を行う
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
The evaluation unit performs the evaluation by performing a predetermined weighting on the first evaluation value and the second evaluation value.
請求項1に記載の電子カメラにおいて、
前記複数の画像のそれぞれについて、シーン認識を行う認識部を備え、
前記評価部は、前記認識部による認識結果に基づいて、前記第1評価値と前記第2評価値との少なくとも一方に基づく前記評価の方法を決定する
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
A recognition unit that performs scene recognition for each of the plurality of images,
The evaluation unit determines the evaluation method based on at least one of the first evaluation value and the second evaluation value based on a recognition result by the recognition unit.
請求項1に記載の電子カメラにおいて、
前記第2検出部は、前記第1検出部により前記主要被写体領域の検出が行われた複数の画像について、前記主要被写体領域内の特徴点を抽出し、前記特徴点に基づいて、前記主要被写体領域を変形させた後に、重複する部分を前記第2主要被写体領域として検出する
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
The second detection unit extracts feature points in the main subject region for a plurality of images in which the main subject region has been detected by the first detection unit, and based on the feature points, the main subject An electronic camera, wherein an overlapping portion is detected as the second main subject area after the area is deformed.
請求項1に記載の電子カメラにおいて、
前記第1検出部は、前記複数の画像のそれぞれについて、前記主要被写体領域を検出する際に、任意の画像において前記主要被写体領域が検出できない場合には、その画像と時間的に連続する少なくとも1枚の画像において検出された前記主要被写体領域に基づいて、前記任意の画像における前記主要被写体領域を検出する
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
When detecting the main subject region for each of the plurality of images, if the main subject region cannot be detected in an arbitrary image, the first detection unit is at least one temporally continuous with the image. An electronic camera, wherein the main subject region in the arbitrary image is detected based on the main subject region detected in a single image.
請求項1から請求項6のいずれか1項に記載の電子カメラにおいて、
前記評価部による評価結果に基づいて、記録媒体に記録された複数の画像のうち、一部の画像を削除する削除部を備える
ことを特徴とする電子カメラ。
The electronic camera according to any one of claims 1 to 6,
An electronic camera comprising: a deletion unit that deletes some of the plurality of images recorded on the recording medium based on the evaluation result by the evaluation unit.
請求項6または請求項7に記載の電子カメラにおいて、
前記第1検出部は、前記複数の画像のそれぞれについて、前記主要被写体領域を検出する際に、前記主要被写体領域が検出できない画像が所定の枚数以上連続する場合には、それらの画像における前記主要被写体領域の検出を中止し、
前記評価部は、前記主要被写体領域が検出できない複数枚の画像に関する前記第1評価値を、前記主要被写体領域が検出できないことを示す所定の値とする
ことを特徴とする電子カメラ。
The electronic camera according to claim 6 or 7,
When detecting the main subject region for each of the plurality of images, the first detection unit, when a predetermined number or more of images in which the main subject region cannot be detected continues, Stop detecting the subject area,
The electronic camera according to claim 1, wherein the evaluation unit sets the first evaluation value relating to a plurality of images in which the main subject area cannot be detected as a predetermined value indicating that the main subject area cannot be detected.
請求項6または請求項7に記載の電子カメラにおいて、
前記第1検出部は、前記複数の画像のそれぞれについて、前記主要被写体領域を検出する際に、時間的に連続する前記複数の画像のうち、時系列の端部において、前記主要被写体領域が検出できない画像が所定の枚数以上連続する場合には、それらの画像における前記主要被写体領域の検出を中止し、
前記評価部は、前記主要被写体領域が検出できない複数枚の画像に関する前記第1評価値を、前記主要被写体領域が検出できないことを示す所定の値とする
ことを特徴とする電子カメラ。
The electronic camera according to claim 6 or 7,
When detecting the main subject region for each of the plurality of images, the first detection unit detects the main subject region at a time-series end portion of the plurality of temporally continuous images. If there are more than a predetermined number of images that cannot be detected, stop the detection of the main subject area in those images,
The electronic camera according to claim 1, wherein the evaluation unit sets the first evaluation value relating to a plurality of images in which the main subject area cannot be detected as a predetermined value indicating that the main subject area cannot be detected.
処理対象の画像として、複数の画像を取得する取得部と、
前記取得部により取得した前記複数の画像のそれぞれについて、主要被写体領域を検出する第1検出部と、
前記第1検出部により前記主要被写体領域の検出が行われた複数の画像について、前記主要被写体領域が重複する部分を第2主要被写体領域として検出する第2検出部と、
前記主要被写体領域の画像に基づく第1評価値と、前記第2主要被写体領域の画像に基づく第2評価値とを算出し、前記第1評価値と前記第2評価値との少なくとも一方に基づいて、前記取得部により取得した前記複数の画像の評価を行う評価部と、
前記評価部による評価結果に基づいて、前記取得部により取得した前記複数の画像のうち、一部の画像を選択する選択部と
を備えたことを特徴とする画像処理装置。
An acquisition unit that acquires a plurality of images as a processing target image;
A first detection unit that detects a main subject region for each of the plurality of images acquired by the acquisition unit;
A second detection unit that detects, as a second main subject region, a portion where the main subject region overlaps a plurality of images in which the main subject region is detected by the first detection unit;
A first evaluation value based on the image of the main subject area and a second evaluation value based on the image of the second main subject area are calculated, and based on at least one of the first evaluation value and the second evaluation value An evaluation unit that evaluates the plurality of images acquired by the acquisition unit;
An image processing apparatus comprising: a selection unit that selects a part of the plurality of images acquired by the acquisition unit based on an evaluation result by the evaluation unit.
請求項10に記載の画像処理装置において、
前取得部により取得した前記複数の画像を記録媒体に記録する記録部と、
前記記録媒体に記録された複数の画像のうち、前記選択部により選択された前記一部の画像を削除する削除部とを備え、
前記取得部は、前記複数の画像として、時間的に連続して撮像および生成された複数の画像を取得し、
前記第1検出部は、前記記録媒体に記録された前記複数の画像のそれぞれについて、前記主要被写体領域を検出する
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 10.
A recording unit that records the plurality of images acquired by the pre-acquisition unit on a recording medium;
A deletion unit that deletes the part of the images selected by the selection unit among the plurality of images recorded on the recording medium;
The acquisition unit acquires a plurality of images captured and generated continuously in time as the plurality of images,
The image processing apparatus, wherein the first detection unit detects the main subject region for each of the plurality of images recorded on the recording medium.
処理対象の画像に対する画像処理をコンピュータで実現するための画像処理プログラムであって、
前記処理対象の画像として、複数の画像を取得する取得ステップと、
前記取得ステップにおいて取得した前記複数の画像のそれぞれについて、主要被写体領域を検出する第1検出ステップと、
前記第1検出ステップにおいて前記主要被写体領域の検出が行われた複数の画像について、前記主要被写体領域が重複する部分を第2主要被写体領域として検出する第2検出ステップと、
前記主要被写体領域の画像に基づく第1評価値と、前記第2主要被写体領域の画像に基づく第2評価値とを算出し、前記第1評価値と前記第2評価値との少なくとも一方に基づいて、前記取得ステップにおいて取得した前記複数の画像の評価を行う評価ステップと、
前記評価ステップにおける評価結果に基づいて、前記取得ステップにおいて取得した前記複数の画像のうち、一部の画像を選択する選択ステップと
を備えたことを特徴とする画像処理プログラム。
An image processing program for realizing image processing on an image to be processed by a computer,
An acquisition step of acquiring a plurality of images as the processing target image;
A first detection step of detecting a main subject region for each of the plurality of images acquired in the acquisition step;
A second detection step of detecting, as a second main subject region, a portion where the main subject region overlaps a plurality of images in which the main subject region has been detected in the first detection step;
A first evaluation value based on the image of the main subject area and a second evaluation value based on the image of the second main subject area are calculated, and based on at least one of the first evaluation value and the second evaluation value An evaluation step for evaluating the plurality of images acquired in the acquisition step;
An image processing program comprising: a selection step of selecting some of the plurality of images acquired in the acquisition step based on an evaluation result in the evaluation step.
JP2011191543A 2011-09-02 2011-09-02 Electronic camera, image processing apparatus, and image processing program Active JP5754308B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011191543A JP5754308B2 (en) 2011-09-02 2011-09-02 Electronic camera, image processing apparatus, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011191543A JP5754308B2 (en) 2011-09-02 2011-09-02 Electronic camera, image processing apparatus, and image processing program

Publications (2)

Publication Number Publication Date
JP2013055456A JP2013055456A (en) 2013-03-21
JP5754308B2 true JP5754308B2 (en) 2015-07-29

Family

ID=48132090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011191543A Active JP5754308B2 (en) 2011-09-02 2011-09-02 Electronic camera, image processing apparatus, and image processing program

Country Status (1)

Country Link
JP (1) JP5754308B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005045600A (en) * 2003-07-23 2005-02-17 Casio Comput Co Ltd Image photographing apparatus and program
JP2005227957A (en) * 2004-02-12 2005-08-25 Mitsubishi Electric Corp Optimal face image recording device and optimal face image recording method
US7860343B2 (en) * 2006-04-10 2010-12-28 Nokia Corporation Constructing image panorama using frame selection
JP4898475B2 (en) * 2007-02-05 2012-03-14 富士フイルム株式会社 Imaging control apparatus, imaging apparatus, and imaging control method
JP2010177894A (en) * 2009-01-28 2010-08-12 Sony Corp Imaging apparatus, image management apparatus, image management method, and computer program

Also Published As

Publication number Publication date
JP2013055456A (en) 2013-03-21

Similar Documents

Publication Publication Date Title
JP6271990B2 (en) Image processing apparatus and image processing method
US7856174B2 (en) Apparatus and method for image pickup
CN101601279B (en) Imaging device, imaging method, and program
JP6157242B2 (en) Image processing apparatus and image processing method
US8576288B2 (en) Image processing unit, image processing method, and image processing program
EP2359604B1 (en) Modifying color and panchromatic channel cfa image
US7450756B2 (en) Method and apparatus for incorporating iris color in red-eye correction
JP5643563B2 (en) Image processing apparatus and control method thereof
EP2219366B1 (en) Image capturing device, image capturing method, and image capturing program
JP5561112B2 (en) Image processing apparatus, imaging apparatus, and program
JP6786311B2 (en) Image processing equipment, image processing methods, computer programs and storage media
JP5879831B2 (en) Electronic camera and image processing program
US8830359B2 (en) Image processing apparatus, imaging apparatus, and computer readable medium
US8243154B2 (en) Image processing apparatus, digital camera, and recording medium
JP2015018084A (en) Imaging apparatus, image processing method, and image processing program
US8599288B2 (en) Noise reduction apparatus, method and computer-readable recording medium
JP6645711B2 (en) Image processing apparatus, image processing method, and program
JP2016111568A (en) Image blur correction control device, imaging apparatus, control method and program thereof
JP5754308B2 (en) Electronic camera, image processing apparatus, and image processing program
JP5332668B2 (en) Imaging apparatus and subject detection program
JP2013013023A (en) Electronic camera, image processor and image processing program
JP2002262059A (en) Image processing unit and method, recording medium, and program
JP4460711B2 (en) Imaging device
JP6066942B2 (en) Image processing device
JP2012119817A (en) Electronic camera and correction processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150428

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150511

R150 Certificate of patent or registration of utility model

Ref document number: 5754308

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250