JP2011019245A - Image processing apparatus and photographing apparatus - Google Patents

Image processing apparatus and photographing apparatus Download PDF

Info

Publication number
JP2011019245A
JP2011019245A JP2010173277A JP2010173277A JP2011019245A JP 2011019245 A JP2011019245 A JP 2011019245A JP 2010173277 A JP2010173277 A JP 2010173277A JP 2010173277 A JP2010173277 A JP 2010173277A JP 2011019245 A JP2011019245 A JP 2011019245A
Authority
JP
Japan
Prior art keywords
image
unit
image processing
focus
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010173277A
Other languages
Japanese (ja)
Inventor
Sukeki Akakabe
祐基 明壁
Yukio Mori
幸夫 森
Yasuhachi Hamamoto
安八 濱本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2010173277A priority Critical patent/JP2011019245A/en
Publication of JP2011019245A publication Critical patent/JP2011019245A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus, an image processing method and a photographing apparatus to comparatively easily obtain a captured image emphasizing a photographic subject focused by a photographer without depending on an imaging element and an aperture size of a lens.SOLUTION: An image processing apparatus is constituted of an image processing portion 108 which performs an image process on a first image and generates a third image, an image composing portion 110 which composes the first image and the third image, and an addition-ratio calculating portion 109 which calculates a degree of composition of a composing process between the first image and the third image by the image composing portion 110 based on a difference signal from a difference calculating portion 107.

Description

本発明は、撮影者が焦点を合わせた被写体が強調された撮影画像を取得できる、画像処理装置および撮影装置に関する。   The present invention relates to an image processing apparatus and a photographing apparatus capable of acquiring a photographed image in which a subject focused by a photographer is emphasized.

現在、CCD(Charge Coupled Device)センサやCMOS(Conplimentary Mental Oxide Semiconductor)センサ等の固体撮像素子を用いたデジタルカメラやデジタルビデオ等の撮影装置が広く普及している。   Currently, photographing devices such as digital cameras and digital videos using solid-state image sensors such as CCD (Charge Coupled Device) sensors and CMOS (Complementary Mental Oxide Semiconductor) sensors are widely used.

ところで、撮影対象のうち、特定の被写体が鮮明に撮影され、特定の被写体を除く他の被写体がいわゆるピントがぼけたように撮影され、この結果、全体として特定の被写体が強調されて浮き立ったような、いわゆる“ぼけ味”のある撮影画像を取得するためには、例えば、固体撮像素子のサイズやこの固体撮像素子に撮影画像を結像させるためのレンズの口径が大きいタイプの撮影装置を用いる必要がある。このようなタイプの撮影装置によると、被写界深度を十分に浅くして撮影することができるため、特定の被写体を浮き立たせた、いわゆる“ぼけ味”のある撮影画像を取得することができる。   By the way, of the shooting targets, a specific subject is clearly shot, and other subjects except the specific subject are shot as if they are out of focus, and as a result, the specific subject appears to be emphasized and floated as a whole. In order to obtain a so-called “blurred” photographic image, for example, a photographic device having a large size of a solid-state imaging device and a large aperture of a lens for forming a photographic image on the solid-state imaging device is used. There is a need. According to such a type of photographing apparatus, since it is possible to photograph with a sufficiently small depth of field, it is possible to obtain a so-called “blurred” photographed image in which a specific subject is raised. .

しかしながら、固体撮像素子のサイズやレンズの口径の小さい、いわゆるコンパクトタイプのデジタルカメラのような撮影装置を用いた場合には、被写界深度を十分に浅くして撮影ができないため“ぼけ味”のある撮像画像を取得することが困難であった。また、どちらのタイプの撮影装置であっても、特定の被写体と他の被写体との間に輝度差や彩度差等を付与することによって特定の被写体が強調された撮影画像を取得することは困難であった。   However, when using a photographing device such as a so-called compact type digital camera with a small solid-state image sensor size or lens aperture, the depth of field is sufficiently shallow so that photographing cannot be performed. It was difficult to acquire a captured image. In addition, in any type of photographing device, it is possible to acquire a photographed image in which a specific subject is emphasized by adding a luminance difference or a saturation difference between the specific subject and another subject. It was difficult.

尚、下記特許文献1には、画像処理によりぼけ味のある画像を取得する発明が開示されている。かかる画像処理によると、まず、1つの基準画像データを被写体領域の画像データと背景領域の画像データという別個独立した2つの画像データに分離して出力する。そして、分離された背景画像データにぼかし処理を施した後、ぼかし処理後の背景画像データと基準画像データとを合成する。合成後、背景領域と被写体領域の境界線がギザギザとなり違和感が生じることを防ぐためにアンチエイリアジング処理を施す。かかる一連の処理により”ぼけ味”の或る画像を取得することができる。このように、下記特許文献1では、”ぼけ味”の或る画像を取得できるものの、上記した一連の複雑な処理を必要とするものである。
特開2005-229198号
Patent Document 1 listed below discloses an invention for obtaining a blurred image by image processing. According to such image processing, first, one reference image data is separated into two separate and independent image data, that is, image data of the subject area and image data of the background area and output. Then, after performing the blurring process on the separated background image data, the background image data after the blurring process and the reference image data are synthesized. After combining, anti-aliasing processing is performed to prevent the boundary line between the background area and the subject area from becoming jagged and causing a sense of incongruity. An image having “bokeh” can be acquired by such a series of processes. As described above, in Patent Document 1 described below, although a certain “blurred” image can be acquired, the above-described series of complicated processing is required.
JP 2005-229198

そこで本発明は、上記課題に鑑みてなされたものであり、撮像素子やレンズの口径の大きさに依存することなく、特定の被写体が強調された撮影画像を比較的簡易に取得できる、画像処理装置、画像処理プログラム、画像処理方法、および撮影装置を提供することを目的とする。   Therefore, the present invention has been made in view of the above-described problems, and image processing in which a captured image in which a specific subject is emphasized can be acquired relatively easily without depending on the size of the aperture of the image sensor or the lens. It is an object to provide an apparatus, an image processing program, an image processing method, and an imaging apparatus.

この発明に従う画像処理装置(1:実施例で相当する参照符号。以下同じ)は、フォーカスレンズ(31)および絞り機構(32)を通して被写界を捉える撮像手段(2)から出力された被写界像を処理する画像処理装置(1)であって、被写界内の特定物体に適合するようにフォーカスを調整するフォーカス調整手段(S107, S305)、互いに異なる複数の絞り量をフォーカス調整手段の調整処理に関連して絞り機構に設定する絞り量設定手段(S110, S112, S311, S312)、絞り量設定手段によって設定された複数の絞り量に対応して撮像手段から出力された複数の被写界像の間の鮮鋭度の相違の大きさを検出する検出手段(104~107, S201~S203, S403~S404)、およびフォーカス調整手段によって調整されたフォーカスに対応して撮像手段から出力された被写界像に検出手段の検出結果を参照した画質調整処理を施す画質調整手段(108~110, 113, 116, 119, 122, 125a~125c, 126~128, S204~S205, S313,S406~S407)を備える。   An image processing apparatus according to the present invention (1: reference numerals corresponding to the embodiments; the same applies hereinafter) includes a subject output from an imaging means (2) that captures a scene through a focus lens (31) and a diaphragm mechanism (32). An image processing apparatus (1) for processing a field image, focus adjusting means (S107, S305) for adjusting the focus so as to match a specific object in the object field, and focus adjusting means for adjusting a plurality of different aperture amounts Aperture amount setting means (S110, S112, S311, S312) to be set in the aperture mechanism in relation to the adjustment process, and a plurality of output from the imaging means corresponding to the plurality of aperture amounts set by the aperture amount setting means Detection means (104 to 107, S201 to S203, S403 to S404) for detecting the magnitude of the difference in sharpness between the object scene images, and output from the imaging means corresponding to the focus adjusted by the focus adjustment means The detection result of the detection means was referred to the captured object scene image. Comprises an image quality adjusting means for performing the quality adjustment process (108 ~ 110, 113, 116, 119, 122, 125a ~ 125c, 126 ~ 128, S204 ~ S205, S313, S406 ~ S407).

撮像手段は、フォーカスレンズおよび絞り機構を通して被写界を捉え、被写界像を出力する。フォーカス調整手段は、被写界内の特定物体に適合するようにフォーカスを調整する。絞り量設定手段は、互いに異なる複数の絞り量をフォーカス調整手段の調整処理に関連して絞り機構に設定する。検出手段は、絞り量設定手段によって設定された複数の絞り量に対応して撮像手段から出力された複数の被写界像の間の鮮鋭度の相違の大きさを検出する。画質調整手段は、フォーカス調整手段によって調整されたフォーカスに対応して撮像手段から出力された被写界像に、検出手段の検出結果を参照した画質調整処理を施す。   The imaging means captures the scene through the focus lens and the diaphragm mechanism, and outputs a scene image. The focus adjusting unit adjusts the focus so as to match a specific object in the object scene. The aperture amount setting means sets a plurality of different aperture amounts in the aperture mechanism in relation to the adjustment processing of the focus adjustment means. The detection unit detects the magnitude of the difference in sharpness between the plurality of object scene images output from the imaging unit corresponding to the plurality of aperture amounts set by the aperture amount setting unit. The image quality adjusting means performs image quality adjustment processing with reference to the detection result of the detecting means on the object scene image output from the imaging means corresponding to the focus adjusted by the focus adjusting means.

互いに異なる複数の絞り量にそれぞれ対応する複数の被写界像の間の鮮鋭度の相違の大きさは、光軸方向における特定物体から他の物体までの距離の大きさに対応する。特定物体に適合するフォーカスに対応して撮像手段から出力された被写界像は、このような相違の大きさを参照した画質調整処理を施される。これによって、特定物体が強調された被写界像を作成することができる。   The magnitude of the difference in sharpness between a plurality of object scene images respectively corresponding to a plurality of different aperture amounts corresponds to the distance from a specific object to another object in the optical axis direction. The object scene image output from the imaging unit corresponding to the focus suitable for the specific object is subjected to image quality adjustment processing with reference to the magnitude of such difference. Thereby, an object scene image in which a specific object is emphasized can be created.

好ましくは、検出手段は、複数の被写界像から複数の高周波成分をそれぞれ抽出する高周波成分抽出手段(105, 106, S202, S404)、および高周波成分抽出手段によって抽出された複数の高周波成分の間の差分を算出する差分算出手段(107, S203, S404)を含む。   Preferably, the detection means includes a high-frequency component extraction means (105, 106, S202, S404) for extracting a plurality of high-frequency components from a plurality of object scene images, and a plurality of high-frequency components extracted by the high-frequency component extraction means. Difference calculation means (107, S203, S404) for calculating the difference between the two is included.

さらに好ましくは、検出手段は、複数の被写界像から複数の輝度成分をそれぞれ抽出する輝度成分抽出手段(201)、および輝度成分抽出手段によって抽出された複数の輝度成分に基づいて複数の被写界像の間の位置ずれを補正する補正手段(202, 203, S201, S403)をさらに含む。   More preferably, the detection means includes a luminance component extraction means (201) for extracting a plurality of luminance components from the plurality of object scene images, and a plurality of objects based on the plurality of luminance components extracted by the luminance component extraction means. It further includes correction means (202, 203, S201, S403) for correcting the positional deviation between the scene images.

好ましくは、画質調整手段は相違が増大するほど被写界像の特定パラメータを大きく低減させる特定パラメータ制御手段(109, 126)を含む。   Preferably, the image quality adjusting means includes specific parameter control means (109, 126) for greatly reducing the specific parameter of the object scene image as the difference increases.

ある局面では、画質調整手段は、被写界像の特定パラメータを低減させる低減手段(108, 113, 116, 125a~125c, S204, S313)、および低減手段の出力と被写界像とを合成する合成手段(110, S205,S407)をさらに含み、特定パラメータ制御手段は相違が増大するほど被写界像の特定パラメータが大きく低減されるように合成手段の合成比率を制御する。   In one aspect, the image quality adjustment means combines a reduction means (108, 113, 116, 125a to 125c, S204, S313) for reducing specific parameters of the object scene image, and the output of the reduction means and the object scene image. The specific parameter control means controls the composition ratio of the composition means so that the specific parameter of the object scene image is greatly reduced as the difference increases.

他の局面では、画質調整手段は、被写界像の特定パラメータを低減させる低減手段(113, 116, S204)、被写界像の特定パラメータを低減手段の低減処理と並列して増大させる増大手段(119, 122)、および低減手段の出力と増大手段の出力とを合成する合成手段(110, S205)をさらに含み、特定パラメータ制御手段は相違が増大するほど被写界像の特定パラメータが大きく低減されるように合成手段の合成比率を制御する。   In another aspect, the image quality adjustment means includes a reduction means (113, 116, S204) for reducing the specific parameter of the object scene image, and an increase for increasing the specific parameter of the object scene image in parallel with the reduction processing of the reduction means. Means (119, 122), and combining means (110, S205) for combining the output of the reduction means and the output of the increase means, and the specific parameter control means increases the difference in the specific parameter of the object scene image. The synthesis ratio of the synthesis means is controlled so as to be greatly reduced.

その他の局面では、画質調整手段は被写界像の特定パラメータを低減させる低減手段(127)をさらに含み、特定パラメータ制御手段は相違が増大するほど低減手段の低減量を増大させる。   In another aspect, the image quality adjustment means further includes a reduction means (127) for reducing the specific parameter of the object scene image, and the specific parameter control means increases the reduction amount of the reduction means as the difference increases.

ある実施例では、特定パラメータは鮮鋭度を含む。   In one embodiment, the specific parameter includes sharpness.

他の実施例では、特定パラメータは輝度を含む。   In other embodiments, the specific parameter includes brightness.

その他の実施例では、特定パラメータは彩度を含む。   In other embodiments, the specific parameter includes saturation.

好ましくは、絞り量設定手段によって設定された複数の絞り量に対応して撮像手段から出力された複数の被写界像を記録する第1記録手段(10, S115)、および記録手段によって記録された複数の被写界像を再生する第1再生手段(10, S117)をさらに備え、検出手段は第1再生手段によって再生された複数の被写界像に注目し、画質調整手段は第1再生手段によって再生された複数の被写界像の1つに注目する。   Preferably, a first recording means (10, S115) for recording a plurality of object scene images output from the imaging means corresponding to a plurality of aperture amounts set by the aperture amount setting means, and recording by the recording means. And a first reproducing means (10, S117) for reproducing a plurality of object scene images, wherein the detecting means pays attention to the plurality of object scene images reproduced by the first reproducing means, and the image quality adjusting means is the first image quality adjusting means. Attention is paid to one of the plurality of scene images reproduced by the reproducing means.

さらに好ましくは、第1記録手段は複数の被写界像を共通のファイルに格納する。   More preferably, the first recording means stores a plurality of scene images in a common file.

好ましくは、画質調整手段は、フォーカスをデフォーカス状態に設定するデフォーカス設定手段(S313)、デフォーカス設定手段によって設定されたデフォーカスに対応して撮像手段から出力された被写界像とフォーカス調整手段によって調整されたフォーカスに対応して撮像手段から出力された被写界像とを合成する合成手段(127, 110, S407)を含む。   Preferably, the image quality adjustment means includes a defocus setting means (S313) for setting the focus to a defocused state, a focus on the object scene image output from the imaging means corresponding to the defocus set by the defocus setting means, and the focus Combining means (127, 110, S407) for synthesizing the object scene image output from the imaging means corresponding to the focus adjusted by the adjusting means is included.

さらに好ましくは、絞り量設定手段によって設定された複数の絞り量に対応して撮像手段から出力された複数の被写界像とデフォーカス設定手段によって設定されたデフォーカスに対応して撮像手段から出力された被写界像とを記録する第2記録手段(10, S314)、および記録手段によって記録された複数の被写界像を再生する第2再生手段(10, S402)をさらに備え、検出手段および画質調整手段は第2再生手段によって再生された複数の被写界像に注目する。   More preferably, from the imaging unit corresponding to the plurality of object scene images output from the imaging unit corresponding to the plurality of aperture amounts set by the aperture amount setting unit and the defocus set by the defocus setting unit. A second recording means (10, S314) for recording the outputted scene image, and a second reproducing means (10, S402) for reproducing a plurality of scene images recorded by the recording means; The detecting means and the image quality adjusting means pay attention to a plurality of scene images reproduced by the second reproducing means.

より好ましくは、第2記録手段は複数の被写界像を共通のファイルに格納する。   More preferably, the second recording means stores a plurality of scene images in a common file.

この発明に従う画像処理プログラムは、フォーカスレンズ(31)および絞り機構(32)を通して被写界を捉える撮像手段(2)から出力された被写界像を処理する画像処理装置(1)のプロセッサ(17)に、被写界内の特定物体に適合するようにフォーカスを調整するフォーカス調整ステップ(S107, S305)、互いに異なる複数の絞り量をフォーカス調整ステップの調整処理に関連して絞り機構に設定する絞り量設定手段(S110, S112, S311, S312)、絞り量設定ステップによって設定された複数の絞り量に対応して撮像手段から出力された複数の被写界像の間の鮮鋭度の相違の大きさを検出する検出ステップ(S201~S203, S403~S404)、およびフォーカス調整手段によって調整されたフォーカスに対応して撮像手段から出力された被写界像に検出ステップの検出結果を参照した画質調整処理を施す画質調整ステップ(S204~S205, S313, S406~S407)を実行させるための、画像処理プログラムである。   An image processing program according to the present invention is a processor of an image processing apparatus (1) that processes an object scene image output from an imaging means (2) that captures an object scene through a focus lens (31) and an aperture mechanism (32) ( 17), the focus adjustment step (S107, S305) to adjust the focus to match a specific object in the object field, and multiple different aperture amounts are set in the aperture mechanism in connection with the adjustment process of the focus adjustment step Aperture amount setting means (S110, S112, S311, S312), sharpness differences between a plurality of field images output from the imaging means corresponding to a plurality of aperture amounts set by the aperture amount setting step The detection step (S201 to S203, S403 to S404) for detecting the size of the object, and the detection result of the detection step was referred to the object scene image output from the imaging unit corresponding to the focus adjusted by the focus adjustment unit Image quality adjustment process This is an image processing program for executing image quality adjustment steps (S204 to S205, S313, S406 to S407) for performing processing.

この発明に従う画像処理方法は、フォーカスレンズ(31)および絞り機構(32)を通して被写界を捉える撮像手段(2)から出力された被写界像を処理する画像処理方法であって、被写界内の特定物体に適合するようにフォーカスを調整するフォーカス調整ステップ(S107,S305)、互いに異なる複数の絞り量をフォーカス調整ステップの調整処理に関連して絞り機構に設定する絞り量設定手段(S110, S112, S311, S312)、絞り量設定ステップによって設定された複数の絞り量に対応して撮像手段から出力された複数の被写界像の間の鮮鋭度の相違の大きさを検出する検出ステップ(S201~S203, S403~S404)、およびフォーカス調整手段によって調整されたフォーカスに対応して撮像手段から出力された被写界像に検出ステップの検出結果を参照した画質調整処理を施す画質調整ステップ(S204~S205, S313, S406~S407)を備える。   An image processing method according to the present invention is an image processing method for processing an object scene image output from an imaging means (2) that captures an object scene through a focus lens (31) and an aperture mechanism (32). A focus adjustment step (S107, S305) for adjusting the focus so as to match a specific object in the field, and an aperture amount setting means for setting a plurality of different aperture amounts in the aperture mechanism in relation to the adjustment process of the focus adjustment step ( S110, S112, S311, S312), detecting the magnitude of the difference in sharpness between the plurality of field images output from the imaging means corresponding to the plurality of diaphragm amounts set by the diaphragm amount setting step The image quality of the detection step (S201 to S203, S403 to S404) and the image quality adjustment processing that refers to the detection result of the detection step to the object scene image output from the imaging unit corresponding to the focus adjusted by the focus adjustment unit Adjustment Comprising a step (S204 ~ S205, S313, S406 ~ S407).

本願発明によると、特定被写体が強調された撮影画像を比較的簡易に取得することができる。   According to the present invention, a captured image in which a specific subject is emphasized can be acquired relatively easily.

本発明の意義ないし効果は、以下に示す実施の形態の説明により更に明らかとなろう。   The significance or effect of the present invention will become more apparent from the following description of embodiments.

ただし、以下の実施の形態は、あくまでも、本発明の一つの実施形態であって、本発明ないし各構成要件の用語の意義は、以下の実施の形態に記載されたものに制限されるものではない。   However, the following embodiment is merely one embodiment of the present invention, and the meaning of the term of the present invention or each constituent element is not limited to that described in the following embodiment. Absent.

<第1の実施形態> <First Embodiment>

本発明の第1実施形態について、図面を参照して説明する。以下では、本発明における撮影方法を行うデジタルカメラやデジタルビデオカメラなどの撮影装置を例に挙げて説明する。撮影装置は静止画を撮影できるものであれば、動画撮影が可能なものであっても構わない。   A first embodiment of the present invention will be described with reference to the drawings. Hereinafter, a description will be given by taking as an example a photographing apparatus such as a digital camera or a digital video camera that performs the photographing method of the present invention. The photographing device may be capable of photographing a moving image as long as it can photograph a still image.

以下では、「撮像」と「撮影」を同義で使用する。さらに、「画像信号」を単に「画像」と記載する場合があるが、両者は同義である。   Hereinafter, “imaging” and “imaging” are used synonymously. Furthermore, the “image signal” may be simply referred to as “image”, but the two are synonymous.

(撮像装置の構成)   (Configuration of imaging device)

図1は、第1実施形態に係る撮像装置1の内部構成を示すブロック図である。   FIG. 1 is a block diagram illustrating an internal configuration of the imaging apparatus 1 according to the first embodiment.

図1において、撮像装置1は、入射される光を電気信号に変換するCCD又はCMOSセンサなどのイメージセンサ(固体撮像素子)2と、被写体の光学像をイメージセンサ2に結像させるレンズ部3と、イメージセンサ2から出力されるアナログ電気信号である画像信号を増幅する増幅回路(図示せず)及び当該画像信号をデジタルの画像信号に変換するA/D(Analog/Digital)変換回路(図示せず)を備えたAFE(Analog Front End)4と、AFE4から出力される複数フレーム分のデジタル画像信号をフレーム単位で一時的に格納するフレームメモリ5と、外部から入力された音声信号を電気信号に変換するマイクロフォン(以下、マイクと記載する。)6と、AFE4からの画像信号に対して画像処理を施す画像処理部7と、マイク6からのアナログの音声信号をデジタル信号に変換し、音声処理を施す音声処理部8と、静止画を撮影する場合は画像処理部7からの画像信号に対してJPEG(Joint Photographic Experts Group)圧縮方式など、動画を撮影する場合は画像処理部7からの画像信号と音声処理部8からの音声信号とに対してMPEG(Moving Picture Experts Group)圧縮方式などの圧縮符号化処理を施す圧縮処理部9を備える。   In FIG. 1, an imaging device 1 includes an image sensor (solid-state imaging device) 2 such as a CCD or CMOS sensor that converts incident light into an electrical signal, and a lens unit 3 that forms an optical image of a subject on the image sensor 2. An amplification circuit (not shown) that amplifies an image signal that is an analog electrical signal output from the image sensor 2 and an A / D (Analog / Digital) conversion circuit (FIG. 2) that converts the image signal into a digital image signal. AFE (Analog Front End) 4 provided with a frame memory 5 for temporarily storing digital image signals for a plurality of frames output from the AFE 4 in units of frames, and audio signals input from the outside A microphone (hereinafter referred to as a microphone) 6 that converts the signal, an image processing unit 7 that performs image processing on the image signal from the AFE 4, and an amplifier from the microphone 6. An audio processing unit 8 that converts the audio signal of the log into a digital signal and performs audio processing, and a JPEG (Joint Photographic Experts Group) compression method for the image signal from the image processing unit 7 when shooting a still image, In the case of shooting a moving image, a compression processing unit 9 that performs compression coding processing such as MPEG (Moving Picture Experts Group) compression method on the image signal from the image processing unit 7 and the audio signal from the audio processing unit 8 is provided. .

また、撮像装置1は、圧縮処理部9で圧縮符号化された圧縮符号化信号をSDカードなどの外部メモリ22に記録するドライバ部10と、ドライバ部10で外部メモリ22から読み出した圧縮符号化信号を伸長して復号する伸張処理部11と、伸長処理部11で復号されて得られた画像信号をアナログ信号に変換する画像信号出力部12と、画像信号出力部12で変換された画像信号に基づく画像の表示を行うLCD等を有する表示部13と、伸張処理部11からのデジタルの音声信号をアナログの音声信号に変換して出力する音声信号出力部13と、音声信号出力部13からのアナログの音声信号を再生するスピーカ部15と、を備える。   In addition, the imaging apparatus 1 includes a driver unit 10 that records the compression-coded signal compressed and encoded by the compression processing unit 9 in an external memory 22 such as an SD card, and a compression encoding that is read from the external memory 22 by the driver unit 10 An expansion processing unit 11 that expands and decodes a signal, an image signal output unit 12 that converts an image signal obtained by decoding by the expansion processing unit 11 into an analog signal, and an image signal converted by the image signal output unit 12 From a display unit 13 having an LCD or the like for displaying an image based on the above, an audio signal output unit 13 for converting a digital audio signal from the decompression processing unit 11 into an analog audio signal and outputting the analog audio signal, and an audio signal output unit 13 Speaker unit 15 for reproducing the analog audio signal.

また、撮像装置1は、各ブロックの動作タイミングを一致させるためのタイミング制御信号を出力するTG(Timing Generator)16と、撮像装置内全体の駆動動作を制御するCPU(Central Processing Unit)17と、各動作のための各プログラムを記憶するとともにプログラム実行時のデータの一時保管を行うメモリ18と、静止画撮影用のシャッタボタンを含むユーザからの指示が入力される操作部19と、CPU17と各ブロックとの間でデータのやりとりを行うためのバス20と、メモリ18と各ブロックとの間でデータのやりとりを行うためのバス21と、を備える。   In addition, the imaging apparatus 1 includes a TG (Timing Generator) 16 that outputs a timing control signal for matching the operation timing of each block, a CPU (Central Processing Unit) 17 that controls the drive operation of the entire imaging apparatus, A memory 18 for storing each program for each operation and temporarily storing data at the time of program execution, an operation unit 19 for inputting instructions from a user including a shutter button for taking a still image, a CPU 17, and each A bus 20 for exchanging data with the block and a bus 21 for exchanging data between the memory 18 and each block are provided.

図2は、レンズ部3の内部構成図である。レンズ部3は、ズームレンズ30及びフォーカスレンズ31を含む複数枚のレンズを備えて構成される光学系35と、絞り32と、ドライバ34を有している。ドライバ34は、ズームレンズ30及びフォーカスレンズ31の移動並びに絞り32の開口量(換言すると、開口部の大きさである。)の調節を実現するためのモータ等から構成される。   FIG. 2 is an internal configuration diagram of the lens unit 3. The lens unit 3 includes an optical system 35 including a plurality of lenses including a zoom lens 30 and a focus lens 31, a diaphragm 32, and a driver 34. The driver 34 includes a motor or the like for realizing movement of the zoom lens 30 and the focus lens 31 and adjustment of the opening amount of the diaphragm 32 (in other words, the size of the opening portion).

撮像装置1は、「自動的にフォーカスレンズ31の位置を制御することにより、被写体を表す光学像をイメージセンサ2の撮像面(受光面と呼ぶこともできる。)に結像させる」いわゆるAF(Auto Focus)機能を備えている。この機能により、理想的には、被写体を表す光学像が結像する点がイメージセンサ2の撮像面上の点と一致する。   The imaging device 1 “forms an optical image representing a subject on the imaging surface (also referred to as a light receiving surface) of the image sensor 2 by automatically controlling the position of the focus lens 31” so-called AF ( Auto Focus) function. With this function, ideally, the point on which the optical image representing the subject is formed coincides with the point on the imaging surface of the image sensor 2.

AF機能は、例えば、次のようにして実現される。即ち、画像処理部7が備えるAF評価値検出部(図示せず)が画像信号中の輝度信号から所定の高域周波数成分を抽出する。CPU17が、その高域周波数成分のレベル(換言すると大きさである)に応じてドライバ34を介してフォーカスレンズ31の位置を制御することにより、被写体を表す光学像をイメージセンサ2の撮像面に結像させる。   The AF function is realized, for example, as follows. That is, an AF evaluation value detection unit (not shown) included in the image processing unit 7 extracts a predetermined high frequency component from the luminance signal in the image signal. The CPU 17 controls the position of the focus lens 31 via the driver 34 in accordance with the level (in other words, the size) of the high frequency component, so that an optical image representing the subject is displayed on the imaging surface of the image sensor 2. Make an image.

以下では、被写体を表す光学像をイメージセンサ2の撮像面に結像させることを被写体にピントを合わせると記載する。   Hereinafter, forming an optical image representing the subject on the imaging surface of the image sensor 2 is described as focusing on the subject.

そして、被写体を表す光学像が結像する点(焦点と呼ぶこともできる)がイメージセンサ2の撮像面上の点と一致している状態をピントが合っていると記載する。ただし、一致していない状態であっても、被写体が鮮明に撮影される範囲にある場合(換言すると、イメージセンサ2の撮像面が焦点深度内に位置する場合)は、ピントが合っていると記載する。逆に、ピントが合っていない場合をピントがぼけていると記載する。   A state in which an optical image representing the subject is focused (also referred to as a focal point) matches a point on the imaging surface of the image sensor 2 is described as being in focus. However, even if they do not match, if the subject is in a clear range (in other words, if the imaging surface of the image sensor 2 is located within the depth of focus), the subject is in focus. Describe. Conversely, when the subject is out of focus, it is described as out of focus.

撮像装置1は、いわゆるマニュアル操作によっても被写体にピントを合わせることができる。即ち、撮影者から操作部19に対してピント合わせの操作が行なわれた場合に、CPU17が当該操作に従ってドライバ34を介してフォーカスレンズ31の位置を調節する。これにより、撮影者は所望の被写体にピントを合わせることができる。   The imaging apparatus 1 can focus on the subject also by so-called manual operation. That is, when the photographer performs a focusing operation on the operation unit 19, the CPU 17 adjusts the position of the focus lens 31 via the driver 34 according to the operation. Thereby, the photographer can focus on a desired subject.

撮像装置1は、「自動的に絞り32の開口量、イメージセンサ2の露光時間及びAFE4の増幅率を制御することにより、撮影画像の明るさを略一定に保つ」いわゆるAE(Automatic Exposure)機能を備えている。   The imaging apparatus 1 is a so-called AE (Automatic Exposure) function that “automatically controls the aperture of the diaphragm 32, the exposure time of the image sensor 2 and the amplification factor of the AFE 4 to keep the brightness of the captured image substantially constant”. It has.

AE機能は、例えば、次のようにして実現される。即ち、画像処理部7が備えるAE評価値検出部(図示せず)が、AFE4から出力される画像信号中の全画素における輝度信号を積算する。次に、CPU17が、かかる積算値(AE評価値という。)が予め定められた目標値に保たれるように、ドライバ34を介して絞り32の開口量及びイメージセンサ2の露光時間を制御するか、或いはAFE4による画像信号の増幅率を制御する。こうしてAE機能が実現される。   The AE function is realized as follows, for example. That is, an AE evaluation value detection unit (not shown) included in the image processing unit 7 integrates luminance signals in all pixels in the image signal output from the AFE 4. Next, the CPU 17 controls the aperture amount of the diaphragm 32 and the exposure time of the image sensor 2 via the driver 34 so that the integrated value (referred to as AE evaluation value) is maintained at a predetermined target value. Alternatively, the amplification factor of the image signal by the AFE 4 is controlled. Thus, the AE function is realized.

イメージセンサ2に入射する光学像が同じである場合、絞り32の開口量が大きくなるに従って、イメージセンサ2への単位時間当たりの入射光量は増大し、輝度信号の値は増大する。尚、絞り32の開口量を最大にしてもAE評価値が上記目標値未満にしかならない場合は、CPU17はAFE12の増幅回路の増幅率を調整してAE評価値を目標値に保つ。   When the optical images incident on the image sensor 2 are the same, the amount of light incident on the image sensor 2 per unit time increases and the value of the luminance signal increases as the aperture amount of the diaphragm 32 increases. If the AE evaluation value is only less than the target value even when the aperture of the diaphragm 32 is maximized, the CPU 17 adjusts the amplification factor of the amplifier circuit of the AFE 12 to keep the AE evaluation value at the target value.

撮像装置1は、いわゆるマニュアル操作によっても絞り32の開口量を調節することができる。即ち、撮影者から操作部19に対して絞り32の開口量を変更する操作(換言すると、被写界深度を変更する操作)が行なわれた場合に、CPU17が、当該操作に従ってドライバ34を介して絞り32の開口量を調節する。これにより、撮影者は所望の被写界深度で撮影することができる。   The imaging apparatus 1 can adjust the opening amount of the diaphragm 32 also by so-called manual operation. That is, when the photographer performs an operation for changing the opening amount of the diaphragm 32 on the operation unit 19 (in other words, an operation for changing the depth of field), the CPU 17 passes the driver 34 in accordance with the operation. The aperture of the diaphragm 32 is adjusted. Thereby, the photographer can shoot with a desired depth of field.

開口量を変更する操作が開口量を大きくする操作の場合は被写界深度が浅くなり、開口量を変更する操作が開口量を小さくする操作の場合は被写界深度が深くなる。   When the operation for changing the opening amount is an operation for increasing the opening amount, the depth of field becomes shallow, and when the operation for changing the opening amount is an operation for reducing the opening amount, the depth of field becomes deep.

尚、撮像装置1は、撮影者の操作により絞り32の開口量が変更された場合であっても、上記したAE機能によりイメージセンサ2の露光時間を調節することにより、AFE4から出力される画像信号の輝度を一定に保つことができる。   Note that the image pickup apparatus 1 adjusts the exposure time of the image sensor 2 by the above-described AE function even when the aperture amount of the diaphragm 32 is changed by a photographer's operation, thereby outputting an image output from the AFE 4. The luminance of the signal can be kept constant.

撮像装置1では、撮影者から操作部19に対してズーム倍率を変更する操作が行なわれた場合には、CPU17が、当該操作に従ってドライバ34を介してズームレンズ30を光軸に沿って移動させる、いわゆるズーム制御を行う。これにより、イメージセンサ2による撮影の画角が変更される(換言すれば、イメージセンサ2の撮像面上に形成される被写体の像が拡大または縮小される)。   In the imaging apparatus 1, when an operation for changing the zoom magnification is performed on the operation unit 19 by the photographer, the CPU 17 moves the zoom lens 30 along the optical axis via the driver 34 according to the operation. So-called zoom control is performed. Thereby, the angle of view of photographing by the image sensor 2 is changed (in other words, the image of the subject formed on the imaging surface of the image sensor 2 is enlarged or reduced).

図3(A)及び図3(B)は、同一の被写体に対しピントが合わされ、かつ、被写界深度が異なるように撮影された2つの撮影画像を表す。図3(A)の撮影画像100及び図3(B)の撮影画像103は、同じ撮影対象を2回撮影することにより得られる。   FIG. 3A and FIG. 3B show two photographed images that are photographed so that the same subject is focused and the depth of field is different. The captured image 100 in FIG. 3A and the captured image 103 in FIG. 3B are obtained by capturing the same subject twice.

ここで撮影対象とは、撮影画像として取得される予定の被写体群である。   Here, the imaging target is a group of subjects scheduled to be acquired as a captured image.

撮影画像100及び103の各々は、人物101と人物101以外の建造物や樹木及び池等の背景102から成る撮影対象を表す撮影画像である。   Each of the photographed images 100 and 103 is a photographed image representing a subject to be photographed composed of a person 101 and a background 102 such as a building other than the person 101, trees, and a pond.

撮影画像100及び103はいずれも、同一の被写体である人物101にピントが合わされて撮影された撮影画像である。   The captured images 100 and 103 are both captured images that are captured with the person 101 that is the same subject in focus.

また、撮影画像100は、被写界深度が比較的浅くなるように絞り32の開口量が調節されて撮影された撮影画像である。よって撮影画像100では、背景102はピントがぼけており、背景102は不鮮明でぼけた画像となっている。つまり、被写界深度が浅ければ、背景102の鮮鋭度が低下する。   The photographed image 100 is a photographed image photographed with the aperture amount of the diaphragm 32 adjusted so that the depth of field is relatively shallow. Therefore, in the photographed image 100, the background 102 is out of focus, and the background 102 is unclear and blurred. That is, if the depth of field is shallow, the sharpness of the background 102 decreases.

一方、撮影画像103は、撮影画像100の場合よりも被写界深度が深くなるように、絞り32の開口量が調節されて撮影された画像である。よって、撮影画像103では、背景102に対してもピントが合うこととなり、背景102は鮮明な画像となっている。つまり、被写界深度が深ければ、背景102の鮮鋭度が増大する。   On the other hand, the captured image 103 is an image captured by adjusting the aperture amount of the diaphragm 32 so that the depth of field is deeper than that of the captured image 100. Therefore, the photographed image 103 is focused on the background 102, and the background 102 is a clear image. That is, if the depth of field is deep, the sharpness of the background 102 increases.

このように、同じ撮影対象を2回撮影することにより得られた2つの撮影画像であって、両者とも特定の被写体にピントが合わされて撮影されており、かつ、特定の被写体を除く被写体(即ち、背景)に対し、一方はピントがぼけた状態で、他方はピントが合った状態で撮影されているものを、本実施形態では、「同一の被写体に対しピントが合わされ、かつ、被写界深度が異なるように撮影された2つの撮影画像」と呼ぶこととする。   In this way, two captured images obtained by capturing the same subject twice, both of which have been captured with a specific subject in focus, and subjects other than the specific subject (ie, subjects other than the specific subject) , Background), one of the images is out of focus and the other is in focus. In this embodiment, “the same subject is in focus and the object field These are referred to as “two photographed images photographed at different depths”.

本実施形態ではまた、両者とも特定の被写体にピントが合わされて撮影されており、かつ、背景に対しては、両者ともピントがぼけた状態であるが、ピントのぼけ具合が互いに異なる2つの撮像画像も、「同一の被写体に対しピントが合わされ、かつ、被写界深度が異なるように撮影された2つの撮影画像」と呼ぶこととする。   In the present embodiment, the two subjects are both taken with a specific subject in focus, and both are out of focus with respect to the background, but the two are different in the degree of defocus. The images are also referred to as “two captured images that are captured so that the same subject is in focus and the depth of field is different”.

さらに、同一の被写体に対しピントが合わされ、かつ、被写界深度が異なるように撮影された複数の撮影画像の各々を、単に「被写界深度の異なる撮影画像」と呼ぶこととする。   Further, each of a plurality of photographed images that are photographed so that the same subject is focused and the depth of field is different will be simply referred to as “photographed images having different depths of field”.

図1の撮像装置1は、イメージセンサ2のサイズやレンズ部3を構成するレンズの口径が小さい場合であっても、画像処理部7における画像処理により、撮影画像から特定の被写体が背景よりも強調された画像(以下、特定被写体強調画像と記載する。)を比較的簡易に生成することができる。具体的には、撮像装置1は、同じ撮影対象を連続して2回撮影することにより、例えば、図3(A)に示す撮影画像100及び図3(B)に示す撮影画像103を取得する。そして、この2つの撮影画像から特定被写体強調画像を生成することができる。   The image pickup apparatus 1 in FIG. 1 is configured such that a specific subject from a captured image is more than the background by image processing in the image processing unit 7 even when the size of the image sensor 2 or the aperture of the lens constituting the lens unit 3 is small. An enhanced image (hereinafter referred to as a specific subject enhanced image) can be generated relatively easily. Specifically, the imaging apparatus 1 acquires, for example, the captured image 100 illustrated in FIG. 3A and the captured image 103 illustrated in FIG. 3B by capturing the same subject twice in succession. . Then, a specific subject emphasized image can be generated from the two photographed images.

以下、画像処理部7の内部構成及び特定被写体強調画像生成処理について説明する。   Hereinafter, the internal configuration of the image processing unit 7 and the specific subject emphasized image generation process will be described.

(画像処理部7の内部構成及び特定被写体強調画像生成処理)   (Internal configuration of image processing unit 7 and specific subject emphasized image generation process)

図4は、画像処理部7が備える構成のうち、特定被写体強調画像生成処理を行う部分の構成及び特定被写体強調画像生成処理を説明する図である。   FIG. 4 is a diagram for explaining the configuration of the part that performs the specific subject emphasized image generation process and the specific subject emphasized image generation process in the configuration of the image processing unit 7.

図4は、特に、背景102がぼけて見え、特定被写体である人物101が浮き立ったように見えるという視覚的効果を奏する特定被写体強調画像を生成する処理を示している。   FIG. 4 particularly shows processing for generating a specific subject-emphasized image that has the visual effect that the background 102 appears blurred and the specific subject 101 appears to be floating.

撮像装置1が特定被写体強調画像を生成する場合、画像処理部7には、被写界深度の異なる2つ(2フレーム分)の撮影画像がそれぞれ入力画像1及び入力画像2として入力される。   When the imaging device 1 generates the specific subject emphasized image, two captured images (for two frames) having different depths of field are input to the image processing unit 7 as the input image 1 and the input image 2, respectively.

以下では、入力画像1として図3(A)の撮影画像100が入力され、入力画像2として図3(B)の撮影画像103が入力されることを想定する。   In the following, it is assumed that the captured image 100 in FIG. 3A is input as the input image 1 and the captured image 103 in FIG. 3B is input as the input image 2.

撮影画像100(以下、第1画像100と記載する。)及び撮影画像103(以下、第2画像103と記載する。)は、撮像装置1により連続して撮影され、フレームメモリ5に一旦格納され、そして画像処理部7へ出力された2フレーム分の撮影画像である。   The captured image 100 (hereinafter referred to as the first image 100) and the captured image 103 (hereinafter referred to as the second image 103) are continuously captured by the imaging device 1 and temporarily stored in the frame memory 5. The captured images for two frames output to the image processing unit 7.

画像処理部7は、第1画像100と第2画像103との位置合わせを行う画像位置合わせ部104、画像位置合わせ部104から出力される第1画像100に含まれる輝度信号の高域成分(以下、画像に含まれる輝度信号の高域成分を、単に「画像の高域成分」と記載する。)を抽出する高域成分抽出部105、画像位置合わせ部104から出力される第2画像103の高域成分を抽出する高域成分抽出部106、高域成分抽出部105から出力される第1画像100の高域成分と高域成分抽出部106から出力される第2画像103の高域成分との差分信号を算出する差分算出部107、第1画像100に対して画像処理を施して図5(A)に示す第3画像111を生成する画像処理部108、第1画像100と第3画像111とを合成する画像合成部110、画像合成部110による第1画像100と第3画像111との合成処理の合成度合いを差分算出部107からの差分信号に基づいて算出する加算比率算出部109から構成される。   The image processing unit 7 includes an image alignment unit 104 that performs alignment between the first image 100 and the second image 103, and a high frequency component of a luminance signal included in the first image 100 output from the image alignment unit 104 ( Hereinafter, the high frequency component of the luminance signal included in the image is simply referred to as “the high frequency component of the image”.) The second image 103 output from the high frequency component extraction unit 105 and the image alignment unit 104 that extract the image). The high-frequency component of the first image 100 output from the high-frequency component extracting unit 106 and the high-frequency component of the second image 103 output from the high-frequency component extracting unit 106 The difference calculation unit 107 that calculates a difference signal from the component, the image processing unit 108 that performs image processing on the first image 100 to generate the third image 111 illustrated in FIG. 5A, the first image 100, and the first image 100 Combining 3 images 111 Image combining unit 110, and a first image 100 by the image synthesizing unit 110 to synthesize the degree of synthesis process of the third image 111 from the adding ratio calculation unit 109 that calculates based on the difference signal from the difference calculating unit 107.

画像位置合わせ部104は、撮影画像とこれに対応する画素との位置関係が、第1画像100と第2画像103との間でずれている場合に、このずれを検出し第2画像103に対してずれを補正する。このような位置関係のずれは、例えば手ぶれが原因で生じる。尚、第1画像100に対してずれ補正処理を行うこととしてもよい。画像位置合わせ部104による画像位置合わせ処理の詳細については後述する。   When the positional relationship between the captured image and the corresponding pixel is shifted between the first image 100 and the second image 103, the image alignment unit 104 detects this shift and detects the shift in the second image 103. Correct the deviation. Such a positional relationship shift is caused by, for example, camera shake. Note that a shift correction process may be performed on the first image 100. Details of the image alignment processing by the image alignment unit 104 will be described later.

高域成分抽出部105は、例えばカットオフ周波数がナイキスト周波数の10分の1以上となる特性のHPF(High Pass Filter)で構成される。   The high-frequency component extraction unit 105 is configured by, for example, an HPF (High Pass Filter) having a characteristic that the cut-off frequency is 1/10 or more of the Nyquist frequency.

高域成分抽出部105は、HPF処理を施すことにより、高域成分を画素毎に抽出する。   The high frequency component extraction unit 105 extracts high frequency components for each pixel by performing HPF processing.

同様に、高域成分抽出部106は、位置ずれ補正がなされた第2画像103の輝度信号に対しHPF処理を施し、高域成分を画素毎に抽出する。   Similarly, the high frequency component extraction unit 106 performs HPF processing on the luminance signal of the second image 103 subjected to the positional deviation correction, and extracts a high frequency component for each pixel.

差分算出部107は、第1画像100の高域成分と第2画像103の高域成分の差分(第1画像100と第2画像103との間の鮮鋭度の相違の大きさ)を画素毎に算出する。   The difference calculation unit 107 calculates the difference between the high frequency component of the first image 100 and the high frequency component of the second image 103 (the magnitude of the difference in sharpness between the first image 100 and the second image 103) for each pixel. To calculate.

上述したように、第1画像100および第2画像103はいずれも、人物101にピントが合っている。そして、第1画像100では背景102にもピントが合っているが、第2画像103では背景102にはピントが合っていない。従って、第1画像100における背景102の画像の高域成分と第2画像103における背景102の画像の高域成分との差分は、第1画像100における人物101の画像の高域成分と第2画像103における人物101の画像の高域成分との差分よりも大きい値となる。   As described above, the first image 100 and the second image 103 are both in focus on the person 101. In the first image 100, the background 102 is also in focus, but in the second image 103, the background 102 is not in focus. Therefore, the difference between the high-frequency component of the background 102 image in the first image 100 and the high-frequency component of the background 102 image in the second image 103 is the second high-frequency component of the image of the person 101 in the first image 100 and the second high-frequency component. The value is larger than the difference between the high frequency component of the image of the person 101 in the image 103.

つまり、第1画像100における背景102の鮮鋭度と第2画像103における背景102の鮮鋭度との相違は、第1画像100における人物101の鮮鋭度と第2画像103における人物101の鮮鋭度との相違よりも大きくなる。   That is, the difference between the sharpness of the background 102 in the first image 100 and the sharpness of the background 102 in the second image 103 is the sharpness of the person 101 in the first image 100 and the sharpness of the person 101 in the second image 103. Greater than the difference.

画像処理部108は、第1画像100に対して画像処理を施す。図4では、第1画像100に、ぼかし効果を奏する処理(以下、ぼかし処理と記載する。)を施す。   The image processing unit 108 performs image processing on the first image 100. In FIG. 4, the first image 100 is subjected to processing for producing a blurring effect (hereinafter referred to as blurring processing).

図5(A)に示す第3画像111は、画像処理部108が第1画像100にぼかし処理を施した後のイメージ図である。   A third image 111 illustrated in FIG. 5A is an image diagram after the image processing unit 108 performs the blurring process on the first image 100.

尚、ぼかし処理は、CG-ARTS協会から発行されている「デジタル画像処理」(第2版第2印刷)の108頁から110頁に記載されているように、例えば、隣接する画素信号の濃淡変化を滑らかにする平均化フィルタ等による平滑化処理によって実現され、或いは同131頁から133頁に記載されているように、画像信号に含まれる空間周波数成分のうち、低周波成分は残し、高周波成分を除去するようなLPF(Low Pass Filter)処理によって実現することができる。即ち、図5(A)に示す第3画像111は、例えば、第1画像100に平均化フィルタ処理やLPF処理を施すことによって得られる。   For example, as described in pages 108 to 110 of “Digital Image Processing” (second edition, second printing) issued by the CG-ARTS Association, the blurring processing is performed by, for example, the density of adjacent pixel signals. Realized by a smoothing process using an averaging filter or the like that smoothes the change, or as described on pages 131 to 133, the low frequency component remains in the spatial frequency component included in the image signal, and the high frequency This can be realized by LPF (Low Pass Filter) processing that removes components. That is, the third image 111 shown in FIG. 5A is obtained by, for example, subjecting the first image 100 to averaging filter processing and LPF processing.

加算比率算出部109は、差分算出部107の差分結果に基づいて、第1画像100と第3画像103との合成度合いを表わす加算比率Kを、画素毎に導出する。   Based on the difference result of the difference calculation unit 107, the addition ratio calculation unit 109 derives, for each pixel, an addition ratio K that represents the degree of synthesis of the first image 100 and the third image 103.

図6は、第1画像100の高域成分と第2画像103の高域成分の画素毎の差分値の大きさと加算比率Kとの関係を表わす関数のグラフである。   FIG. 6 is a graph of a function representing the relationship between the magnitude of the difference value for each pixel of the high frequency component of the first image 100 and the high frequency component of the second image 103 and the addition ratio K.

尚、当該高域成分の差分値の大きさが本発明の「相違度」に相当し、かかる差分値の大きさが大きい程、相違度が高くなることになる。この相違度としては、本実施例で用いた高域成分の差分値の大きさのように2つの画像信号の異なり度合いを示すものであればよく、他にも、例えば前記第1画像100の高域成分と前記第2画像103の高域成分との相関関数を相違度として使用することもできる。   Note that the magnitude of the difference value of the high frequency component corresponds to the “difference degree” of the present invention, and the greater the difference value, the higher the difference degree. The degree of difference is not particularly limited as long as it indicates the degree of difference between the two image signals like the magnitude of the difference value of the high frequency component used in the present embodiment. A correlation function between the high frequency component and the high frequency component of the second image 103 can also be used as the dissimilarity.

図6において、加算比率Kは、高域成分の差分値の大きさが閾値α以下である場合に“1”を示し、高域成分の差分値の大きさが閾値αより大きくなるにつれて線形的に小さくなる。   In FIG. 6, the addition ratio K indicates “1” when the magnitude of the difference value of the high frequency component is equal to or less than the threshold value α, and increases linearly as the magnitude of the difference value of the high frequency component becomes larger than the threshold value α. Becomes smaller.

加算比率算出部109は、図6に示す関数に従って、高域成分の差分値の大きさから加算比率Kを算出するが、高域成分の差分値に対する加算比率Kをテーブルとして画像処理部7に予め備えることとしてもよい。   The addition ratio calculation unit 109 calculates the addition ratio K from the magnitude of the high-frequency component difference value according to the function shown in FIG. 6, but the addition ratio K for the high-frequency component difference value is stored in the image processing unit 7 as a table. It may be prepared in advance.

画像合成部110は、第1画像100および第3画像111を加算比率算出部109によって導出された加算比率Kに基づいて合成し、出力画像つまり特定被写体強調画像を生成する。   The image synthesis unit 110 synthesizes the first image 100 and the third image 111 based on the addition ratio K derived by the addition ratio calculation unit 109 to generate an output image, that is, a specific subject emphasized image.

図5(B)に示す第4画像112は、画像合成部110から出力される特定被写体強調画像のイメージ図である。   A fourth image 112 shown in FIG. 5B is an image diagram of the specific subject emphasized image output from the image composition unit 110.

画像合成部110は、具体的には、下記の数式(1)に従う加重加算処理によって、出力画像として第4画像112を画素毎に生成する。   Specifically, the image composition unit 110 generates a fourth image 112 for each pixel as an output image by a weighted addition process according to the following formula (1).

第4画像112=(第1画像100×加算比率K)
+(第3画像111×(1−加算比率K)) …(1)
Fourth image 112 = (first image 100 × addition ratio K)
+ (Third image 111 × (1−addition ratio K)) (1)

第1画像100における人物101の画像および第3画像103における人物101の画像については、高域成分の差分値が小さくなる。このため、人物101の画像に対応する画素の加算比率Kは、“1”または“1”に近い値となる。従って、数式1によれば、第4画像112における人物101の画像は、第1画像100における人物101の画像とほぼ等しくなる。   For the image of the person 101 in the first image 100 and the image of the person 101 in the third image 103, the difference value of the high frequency component is small. For this reason, the pixel addition ratio K corresponding to the image of the person 101 is “1” or a value close to “1”. Therefore, according to Equation 1, the image of the person 101 in the fourth image 112 is substantially equal to the image of the person 101 in the first image 100.

一方、第1画像100における背景102の画像および第2画像103における背景102の画像については、高域成分の差分値が閾値αより大きくなるにつれて、加算比率Kがゼロに近づく。従って、第1画像100における背景102の画像に第3画像111における背景102の画像が混合されることとなり、第4画像112における背景102の画像は第1画像100における背景102の画像よりもぼかし効果が大きい画像となる。   On the other hand, for the image of the background 102 in the first image 100 and the image of the background 102 in the second image 103, the addition ratio K approaches zero as the difference value of the high frequency component becomes larger than the threshold value α. Accordingly, the image of the background 102 in the third image 111 is mixed with the image of the background 102 in the first image 100, and the image of the background 102 in the fourth image 112 is more blurred than the image of the background 102 in the first image 100. The image is highly effective.

この結果、第4画像112における背景102は、第1画像100における背景102よりもぼけ味のある画像となり、第4画像112は人物101が浮き立って見える画像となる。   As a result, the background 102 in the fourth image 112 is an image that is more blurry than the background 102 in the first image 100, and the fourth image 112 is an image in which the person 101 appears to stand up.

尚、上記では、第1画像100の高域成分と位置ずれ補正後の第2画像103の高域成分との差分を算出している。しかし、第1画像100と位置ずれ補正後の第2画像103の高域成分の相違度合いが算出できればいいので、差分を算出することに代えて、第1画像100の高域成分と位置ずれ補正後の第2画像103の高域成分と間の比率を算出することとしてもよい。   In the above description, the difference between the high frequency component of the first image 100 and the high frequency component of the second image 103 after positional deviation correction is calculated. However, since it is only necessary to calculate the degree of difference between the high frequency components of the first image 100 and the second image 103 after the positional deviation correction, instead of calculating the difference, the high frequency components of the first image 100 and the positional deviation correction are performed. It is also possible to calculate the ratio between the subsequent high frequency components of the second image 103.

また、上記では、画像処理部108が第1画像100にぼかし処理を施して第3画像111を生成し、画像合成部110が第1画像100と第3画像111とを合成して第4画像112を生成する。しかし、第2画像にぼかし処理を施して生成した画像を第3’画像(図示せず)とし、第2画像103と第3’画像を合成することとしても、同様の効果を奏する画像を取得することができる。   In the above description, the image processing unit 108 blurs the first image 100 to generate the third image 111, and the image synthesis unit 110 synthesizes the first image 100 and the third image 111 to generate the fourth image. 112 is generated. However, an image that produces the same effect can be obtained by synthesizing the second image 103 and the third 'image by setting the image generated by performing the blurring process on the second image as a third' image (not shown). can do.

ここで、図6において、加算比率Kの閾値αは、高域成分の差分値を第1画像100と第3画像111との合成度合いである加算比率Kに反映した場合に、合成処理後の第4画像112上で観者が当該差分値の影響を認識できるかどうかという観点から決定される。即ち、観者がその差分値の影響を第4画像112上で認識不可能となる値の最大値を閾値αとしている。   Here, in FIG. 6, the threshold value α of the addition ratio K is obtained after the combination process when the difference value of the high frequency component is reflected in the addition ratio K that is the degree of combination of the first image 100 and the third image 111. This is determined from the viewpoint of whether the viewer can recognize the influence of the difference value on the fourth image 112. That is, the threshold value α is the maximum value at which the viewer cannot recognize the influence of the difference value on the fourth image 112.

同様に、図6のグラフの勾配(傾き)についても、観者が差分値の変化の度合いを第4画像112上で認識できるかどうかという観点から決定される。   Similarly, the gradient (gradient) of the graph of FIG. 6 is also determined from the viewpoint of whether the viewer can recognize the degree of change in the difference value on the fourth image 112.

従って、図5では、閾値αより大きくなるにつれて線形的に小さくなる関数を示しているが、線形的でなくとも、高域成分の差分値の増加に従って逓減するような関数としてもよい。   Therefore, FIG. 5 shows a function that decreases linearly as the threshold value α is exceeded. However, the function may be a function that decreases gradually as the difference value of the high frequency component increases, even if it is not linear.

(画像位置合わせ処理部104の内部構成及び位置合わせ処理)   (Internal configuration of image registration processing unit 104 and registration processing)

図7は、画像位置合わせ処理部104の内部構成及び画像位置合わせ処理を説明する図である。   FIG. 7 is a diagram illustrating the internal configuration of the image registration processing unit 104 and the image registration processing.

画像位置合わせ処理部104は、入力された第1画像100および第2画像103の各々から輝度信号を抽出する輝度信号抽出部201、抽出された輝度信号に基づいて第1画像100および第2画像103の間の位置ずれを検出する位置ずれ検出部202、検出された位置ずれに基づいて第1画像100に対して位置ずれ補正処理を施す位置ずれ補正部203を備える。   The image alignment processing unit 104 extracts a luminance signal from each of the input first image 100 and second image 103, and the first image 100 and the second image based on the extracted luminance signal. 103, and a misalignment correcting unit 203 that performs misalignment correction processing on the first image 100 based on the detected misalignment.

例えば入力画像の各画素がRGB形式に従う信号値IR、IG、IBを有する場合、輝度信号抽出部201は、各画素における輝度信号の大きさYを下記の数式(2)により算出して出力する。   For example, when each pixel of the input image has signal values IR, IG, and IB according to the RGB format, the luminance signal extraction unit 201 calculates and outputs the magnitude Y of the luminance signal at each pixel by the following formula (2). .

Y=0.299IR+0.587IG+0.114IB …(2)   Y = 0.299IR + 0.587IG + 0.114IB (2)

位置ずれ検出部202は、第1画像100の輝度信号及び第2画像103の輝度信号が入力されると、例えば、周知の手法である代表点マッチング法に基づいて、第1画像100と第2画像103との間の動きベクトルを検出する。   When the luminance signal of the first image 100 and the luminance signal of the second image 103 are input, the positional deviation detection unit 202, for example, based on the representative point matching method that is a well-known method, A motion vector with respect to the image 103 is detected.

位置ずれ補正部203は、位置ずれ検出部202により算出された第1画像100と第2画像103との動きベクトルがMであるすると、第1画像100の画素全体を動きベクトルMを打ち消す方向に移動させる。   When the motion vector between the first image 100 and the second image 103 calculated by the misalignment detection unit 202 is M, the misregistration correction unit 203 cancels the motion vector M over the entire pixels of the first image 100. Move.

図8及び図9は位置ずれ補正部203による位置ずれ補正処理を説明するための図である。   FIG. 8 and FIG. 9 are diagrams for explaining the misalignment correction processing by the misalignment correcting unit 203.

図8は、第1画像100と第2画像103との間の動きベクトルMの水平成分及び垂直成分を表わしている。   FIG. 8 shows the horizontal and vertical components of the motion vector M between the first image 100 and the second image 103.

図8において、第1画像100と第2画像103との間に発生した動きベクトルMがM(Xm,Ym)であるとする。図9は、第1画像100における画素P(X,Y)に対応する画像の位置が、動きベクトルMの発生により、第2画像103における画素P'(X+Xm,Y+Ym)へ移動したことを示している。   In FIG. 8, it is assumed that the motion vector M generated between the first image 100 and the second image 103 is M (Xm, Ym). FIG. 9 shows that the position of the image corresponding to the pixel P (X, Y) in the first image 100 has moved to the pixel P ′ (X + Xm, Y + Ym) in the second image 103 due to the generation of the motion vector M. ing.

従って、位置ずれ補正部203は、第2画像103上の画素位置P'(X+Xm,Y+Ym)を第1画像100上の画素位置P(X,Y)へ移動させる。   Accordingly, the positional deviation correction unit 203 moves the pixel position P ′ (X + Xm, Y + Ym) on the second image 103 to the pixel position P (X, Y) on the first image 100.

即ち、第2画像103上の画素位置P'(X+Xm,Y+Ym)の輝度値が画素位置P(X,Y)における輝度値となるように第2画像103の輝度信号を変換することで、位置ずれ補正を行う。   That is, the luminance signal of the second image 103 is converted so that the luminance value at the pixel position P ′ (X + Xm, Y + Ym) on the second image 103 becomes the luminance value at the pixel position P (X, Y). Deviation correction is performed.

撮像装置1は、静止画撮影において、通常の静止画撮影モードの他、上記したような特定被写体強調画像を生成するための特定被写体強調撮影モードを有している。   The imaging apparatus 1 has a specific subject emphasized photographing mode for generating a specific subject emphasized image as described above in addition to a normal still image photographing mode in still image photographing.

撮影者が特定被写体撮影モードで撮影すると、撮像装置1は、被写界深度を変更して連続して撮影することにより被写界深度の異なる複数の撮影画像を取得するとともに、これら被写界深度の異なる複数の撮影画像から特定被写体強調画像を生成する。そして、取得した被写界深度の異なる複数の撮影画像、及び生成した特定被写体強調画像を外部メモリ22に記録する。   When the photographer shoots in the specific subject shooting mode, the imaging apparatus 1 acquires a plurality of captured images having different depths of field by continuously shooting while changing the depth of field, and these fields of field. A specific subject emphasized image is generated from a plurality of photographed images having different depths. The acquired plural captured images having different depths of field and the generated specific subject emphasized image are recorded in the external memory 22.

具体的には、撮影者により操作部19に対する撮影操作が行われると、撮像装置1は、AF機能により撮影者が注目する被写体(人物101)にピントを合わせる。続いて、AE機能により絞り32の開口量の調整、イメージセンサ2の露光時間(シャッタスピード)の調整及びAWB(Auto White Balance)機能による色相の調整を行なった後、撮影(第1撮影)を行う。   Specifically, when a photographing operation is performed on the operation unit 19 by the photographer, the imaging apparatus 1 focuses on the subject (person 101) focused on by the photographer using the AF function. Subsequently, the aperture of the diaphragm 32 is adjusted by the AE function, the exposure time (shutter speed) of the image sensor 2 is adjusted, and the hue is adjusted by the AWB (Auto White Balance) function, and then shooting (first shooting) is performed. Do.

ここで、AWB機能とは、撮像装置1が、被写体に照射される光の光源を判定し、当該光源に応じて白色の色相を自動的に決定するとともに、当該白色の色相に応じてその他色の色相を決定する機能である。   Here, the AWB function means that the imaging device 1 determines a light source of light irradiated on a subject, automatically determines a white hue according to the light source, and other colors according to the white hue. This is a function for determining the hue.

撮像装置1は、第1撮影に続いて、第1撮影よりも被写界深度が深くなるように絞り32の開口量の調整し、撮影(第2撮影)を行う。   Following the first shooting, the imaging apparatus 1 adjusts the opening amount of the diaphragm 32 so that the depth of field is deeper than the first shooting, and performs shooting (second shooting).

尚、第1撮影と第2撮影との間でどの程度被写界深度を異ならせるかは、撮影者が好み応じて予め設定することができる。   Note that how much the depth of field differs between the first shooting and the second shooting can be set in advance by the photographer according to his / her preference.

撮像装置1は、第1撮影および第2撮影の後、第1撮影によって得られた画像(図3(A)の撮影画像100。)及び第2撮影によって得られた画像(図3(B)の撮影画像103。)に基づいて特定被写体強調画像(図5(B)の第4画像112。)を生成し、合計3つの画像を外部メモリ22に記録する。   After the first shooting and the second shooting, the imaging apparatus 1 has an image obtained by the first shooting (the shot image 100 in FIG. 3A) and an image obtained by the second shooting (FIG. 3B). Based on the photographed image 103 of FIG. 5, a specific subject emphasized image (fourth image 112 in FIG. 5B) is generated, and a total of three images are recorded in the external memory 22.

尚、第1撮影と第2撮影の撮影順序を逆にしてもよい。   Note that the shooting order of the first shooting and the second shooting may be reversed.

また、前記第1撮影によって得られた画像と異なる被写界深度を有する画像を取得するために、前記第2撮影に加えて第3、第4・・・と複数回の撮影を行なうこととしてもよい。この場合、CPU17が、フレームメモリ5に蓄積された複数の被写界深度の異なる撮影画像のうちから、特定被写体強調画像の生成に適した2つを選択することとなる。   Further, in order to obtain an image having a different depth of field from the image obtained by the first photographing, the third, fourth,... And plural times of photographing are performed in addition to the second photographing. Also good. In this case, the CPU 17 selects two images that are stored in the frame memory 5 and that are suitable for generating the specific subject emphasized image from among the captured images having different depths of field.

(撮像装置1による撮影動作)   (Shooting operation by the imaging apparatus 1)

次に、本実施形態に係る撮像装置1を用いて特定被写体が強調された画像を取得する方法について説明する。   Next, a method for acquiring an image in which a specific subject is emphasized using the imaging apparatus 1 according to the present embodiment will be described.

図10は、撮像装置1が、第1画像100(図3(A)の撮影画像100)と第2画像103(図3(B)の撮影画像103)を取得し、特定被写体が強調された図5(B)の第4画像112を生成するまでの一連の処理を示すフローチャートである。   In FIG. 10, the imaging apparatus 1 acquires the first image 100 (the captured image 100 in FIG. 3A) and the second image 103 (the captured image 103 in FIG. 3B), and the specific subject is emphasized. 6 is a flowchart showing a series of processes until a fourth image 112 in FIG. 5B is generated.

なお、これらのフローチャートに対応する制御プログラムは、図示しないフラッシュメモリに記憶される。また、以下で述べる各ステップの動作には、CPU17が必ず関与する。   A control program corresponding to these flowcharts is stored in a flash memory (not shown). The CPU 17 is always involved in the operation of each step described below.

撮像装置1の電源がONされると、ステップS101へ進む。   When the power of the imaging apparatus 1 is turned on, the process proceeds to step S101.

ステップS101では、撮影者が撮像装置1の動作モードを選択する。撮像装置1は、動画及び静止画を撮影する撮影モードと既に撮影され外部メモリ22に記録された撮影画像を再生する再生モードを有する。   In step S101, the photographer selects an operation mode of the imaging apparatus 1. The imaging apparatus 1 has a shooting mode for shooting a moving image and a still image and a playback mode for playing back a shot image that has already been shot and recorded in the external memory 22.

ここでは、撮影者により撮影モードが選択され、さらに特定被写体強調撮影モードが選択されているものとする。   Here, it is assumed that the photographing mode is selected by the photographer and that the specific subject emphasizing photographing mode is selected.

ステップS102では、撮像装置1は、プレビューモードへ移行する。   In step S102, the imaging apparatus 1 shifts to the preview mode.

プレビューモードでは、レンズ部3を経由してイメージセンサ2の光電変換によって得られたアナログの画像信号がAFE4においてデジタルの画像信号に変換されて画像処理部7へ出力される。そして、画像処理部7において、当該デジタルの画像信号は、ホワイトバランス処理等の画像処理が施され、画像信号出力部12を経て表示部13に表示される。   In the preview mode, an analog image signal obtained by photoelectric conversion of the image sensor 2 via the lens unit 3 is converted into a digital image signal by the AFE 4 and output to the image processing unit 7. In the image processing unit 7, the digital image signal is subjected to image processing such as white balance processing, and is displayed on the display unit 13 through the image signal output unit 12.

ステップS103では、撮影者の操作に応答して撮影対象の構図やズーム倍率が調整される。   In step S103, the composition of the subject and the zoom magnification are adjusted in response to the operation of the photographer.

ステップS104では、CPU17は、操作部19のシャッタボタンがいわゆる半押しされたかどうかを判定する。   In step S104, the CPU 17 determines whether or not the shutter button of the operation unit 19 is half-pressed.

撮像装置1の操作部19には、静止画撮影のためのシャッタボタン(図示せず)が備えられている。シャッタボタンは2段階スイッチとなっており、撮影者がシャッタボタンを略半分まで押し込むと第1スイッチがONされる。シャッタボタンが最後まで押し込まれる(以下、シャッタボタンを最後まで押し込むことを「全押し」と記載する。)と第2スイッチがONされる。   The operation unit 19 of the imaging apparatus 1 is provided with a shutter button (not shown) for still image shooting. The shutter button is a two-stage switch, and when the photographer pushes the shutter button almost halfway, the first switch is turned on. When the shutter button is pushed down to the end (hereinafter, pushing the shutter button to the end is referred to as “full press”), the second switch is turned on.

シャッタボタンが半押しされたと判断されると、ステップS105へ進む。そうでなければステップS102へ戻り、撮像装置1はプレビューモードを継続する。ステップS105では、撮影対象に対して第1撮影条件(通常撮像条件)を設定する。第1撮影条件の設定では、撮像装置1が、AF機能により撮影者が注目する被写体(人物101)にピントを合わせるとともに、AE機能により絞り32の開口量の設定、イメージセンサ2の露光時間(シャッタスピード)の設定及びAWB機能による色相の設定を行なう。   If it is determined that the shutter button is half-pressed, the process proceeds to step S105. Otherwise, the process returns to step S102, and the imaging apparatus 1 continues the preview mode. In step S105, the first shooting condition (normal shooting condition) is set for the shooting target. In the setting of the first shooting condition, the imaging apparatus 1 focuses on the subject (person 101) focused on by the photographer by the AF function, sets the aperture amount of the diaphragm 32, and sets the exposure time of the image sensor 2 by the AE function. Shutter speed) and hue by AWB function are set.

ステップS106では、撮像装置1のCPU17が、現在の静止画撮影モードが通常撮影モードか、それとも特定被写体強調撮影モードかを判断する。特定被写体強調撮影モードであればステップS107へ進み、そうでなければステップS108へ進む。   In step S106, the CPU 17 of the imaging apparatus 1 determines whether the current still image shooting mode is the normal shooting mode or the specific subject emphasized shooting mode. If it is the specific subject emphasis shooting mode, the process proceeds to step S107, and if not, the process proceeds to step S108.

ステップS107では、撮像装置1が、撮影対象に対して第2撮影条件(小絞り撮像条件)を設定する。第2撮影条件の設定では、撮像装置1は、第1撮影条件よりも絞り32の開口量を小さく、即ち被写界深度を深くなるように設定する。   In step S107, the imaging apparatus 1 sets a second imaging condition (small aperture imaging condition) for the imaging target. In the setting of the second shooting condition, the imaging apparatus 1 sets the aperture amount of the diaphragm 32 to be smaller than that of the first shooting condition, that is, the depth of field is deepened.

尚、第2撮影条件については、第1撮影条件からどの程度絞り32の開口量を小さくするかについて、予め撮影者が設定可能とすることもできる。これにより、撮影者は、人物101の強調度合いを好みに応じて変更することができる。   As for the second imaging condition, the photographer can set in advance how much the aperture amount of the diaphragm 32 is reduced from the first imaging condition. Thereby, the photographer can change the degree of emphasis of the person 101 according to his / her preference.

ステップS108では、CPU17は、シャッタボタンが全押しされたかどうかを判断する。ステップS109では、CPU17は、シャッタボタンの操作が解除されたかどうかを判断する。   In step S108, the CPU 17 determines whether or not the shutter button has been fully pressed. In step S109, the CPU 17 determines whether or not the operation of the shutter button has been released.

シャッタボタンが全押しされたと判断した場合は、ステップS110へ進む。シャッタボタンの操作が解除されたと判断した場合は、ステップS102へ戻る。   If it is determined that the shutter button has been fully pressed, the process proceeds to step S110. If it is determined that the operation of the shutter button has been released, the process returns to step S102.

ステップS110では、撮像装置1は、ステップS105で設定された第1撮影条件で被写界を撮影し、これによって取得された第1画像100をフレームメモリ5に格納する。   In step S <b> 110, the imaging apparatus 1 captures the scene with the first imaging condition set in step S <b> 105, and stores the first image 100 acquired thereby in the frame memory 5.

ステップS111では、撮像装置1のCPU17が、現在の静止画撮影モードが通常撮影モードか、それとも特定被写体強調撮影モードかを判断する。特定被写体強調撮影モードであれば、ステップS112へ進み、そうでなければステップS114へ進む。   In step S111, the CPU 17 of the imaging apparatus 1 determines whether the current still image shooting mode is the normal shooting mode or the specific subject emphasized shooting mode. If it is the specific subject emphasis shooting mode, the process proceeds to step S112, and if not, the process proceeds to step S114.

ステップS112では、撮像装置1は、ステップS107で設定された第2撮影条件で被写界を撮影し、これによって取得された第2画像103をフレームメモリ5に格納する。   In step S <b> 112, the imaging apparatus 1 shoots the scene under the second shooting condition set in step S <b> 107 and stores the second image 103 acquired thereby in the frame memory 5.

ステップS113では、画像処理部7によって特定被写体強調画像生成処理が施され、特定被写体強調画像である第4画像112が生成される。処理が完了すると、ステップS114へ進む。   In step S113, the specific subject emphasized image generation process is performed by the image processing unit 7, and the fourth image 112 that is the specific subject emphasized image is generated. When the process is completed, the process proceeds to step S114.

尚、特定被写体強調画像生成処理については後述する。   The specific subject emphasized image generation process will be described later.

ステップS114では、CPU17の制御の下、画像処理部7によって撮影画像あるいは撮影画像及び特定被写体強調画像に対し画像処理が施され、続いて圧縮処理部9により圧縮処理が施され、外部メモリ22に格納される。そして、ステップS102へ戻る。   In step S <b> 114, under the control of the CPU 17, the image processing unit 7 performs image processing on the captured image or the captured image and the specific subject emphasized image, and then the compression processing unit 9 performs compression processing on the external memory 22. Stored. Then, the process returns to step S102.

(特定被写体強調画像生成処理)   (Specific subject enhancement image generation processing)

図12は、撮像装置1が、第1画像100と第2画像103から第4画像112を生成するまでの一連の処理を示すフローチャートである。   FIG. 12 is a flowchart illustrating a series of processing until the imaging apparatus 1 generates the fourth image 112 from the first image 100 and the second image 103.

ステップS201では、フレームメモリ5から出力された第1画像100および第2画像103の位置ずれを検出し、位置ずれがある場合には、第2画像103に対して位置ずれ補正処理を施す。その後、ステップS202へ進む。   In step S <b> 201, a positional deviation between the first image 100 and the second image 103 output from the frame memory 5 is detected, and when there is a positional deviation, a positional deviation correction process is performed on the second image 103. Thereafter, the process proceeds to step S202.

ステップS202では、第1画像100及び位置ずれ補正後の第2画像103の高域成分を算出する。その後、ステップS203へ進む。   In step S202, the high frequency components of the first image 100 and the second image 103 after the positional deviation correction are calculated. Then, it progresses to step S203.

ステップS203では、第1画像100の高域成分と位置ずれ補正後の第2画像103の高域成分との差分を算出し、算出された差分を参照して加算比率Kを導出する。   In step S203, the difference between the high frequency component of the first image 100 and the high frequency component of the second image 103 after the positional deviation correction is calculated, and the addition ratio K is derived with reference to the calculated difference.

ステップS204では、第1画像100に対してぼかし処理を施して図5(A)の第3画像111を生成する。その後、ステップS205へ進む。   In step S204, the first image 100 is subjected to blurring processing to generate a third image 111 in FIG. Thereafter, the process proceeds to step S205.

ステップS205では、加算比率Kに応じて、第1画像100と第3画像111とを加重加算することにより、人物101が強調された第4画像112を生成する。   In step S205, the first image 100 and the third image 111 are weighted and added according to the addition ratio K, thereby generating a fourth image 112 in which the person 101 is emphasized.

以上に述べたように、図10ないし図12に示す処理を行うことにより、撮影者は、背景102をぼかすとともに人物101を強調して、その結果人物101が浮き立ったような“ぼけ味”のある第4画像112を取得することができる。
<第2の実施形態>
As described above, by performing the processing shown in FIGS. 10 to 12, the photographer blurs the background 102 and emphasizes the person 101, and as a result, the “blurred taste” that makes the person 101 stand out. A fourth image 112 can be acquired.
<Second Embodiment>

次に、第2の実施形態について説明する。図13は、第2の実施形態に係る画像処理部7が備える構成のうち、特定被写体強調画像生成処理を行う部分の構成及び特定被写体強調画像生成処理を説明する図である。   Next, a second embodiment will be described. FIG. 13 is a diagram for explaining the configuration of the part that performs the specific subject emphasized image generation process and the specific subject emphasized image generation process in the configuration of the image processing unit 7 according to the second embodiment.

第2の実施形態では、背景102の輝度を低減する処理を施し、その結果、人物101の輝度が相対的に高くなって、人物101が浮き立って見える撮影画像を取得する方法を示す。   In the second embodiment, a method is shown in which a process for reducing the luminance of the background 102 is performed, and as a result, the luminance of the person 101 becomes relatively high, and a captured image in which the person 101 appears to stand up is obtained.

図13において、図4と同一の番号を付している部位は、第1の実施形態の場合と同一の機能及び動作を有する部位であるため、その機能及び動作の説明は省略する。   In FIG. 13, parts denoted by the same reference numerals as those in FIG. 4 are parts having the same functions and operations as those in the first embodiment, and thus description of the functions and operations is omitted.

画像処理部113は、図3(A)の第1画像100に対して、輝度を低減する効果を奏する処理(以下、輝度低減処理と記載する。)を施す。   The image processing unit 113 performs processing (hereinafter, referred to as luminance reduction processing) that has an effect of reducing luminance on the first image 100 in FIG.

第1画像100の各画素における輝度値は、上述した数式(2)で表すことができる。   The luminance value in each pixel of the first image 100 can be expressed by the above-described equation (2).

画像処理部113は、輝度低減処理として、第1画像100の各画素に対し、輝度を一定の割合で低減する処理を施す。   The image processing unit 113 performs a process for reducing the luminance at a certain rate for each pixel of the first image 100 as the luminance reduction process.

図14(A)に示す第5画像114は、第1画像100に輝度低減処理が施されて生成された画像のイメージ図である。   A fifth image 114 illustrated in FIG. 14A is an image diagram of an image generated by performing the luminance reduction process on the first image 100.

画像合成部110は、第1画像100および第5画像114を加算比率算出部109によって導出された加算比率Kに基づいて数式(3)の加重加算処理により合成し、図14(B)に示す第6画像115を出力画像として生成する。   The image synthesizing unit 110 synthesizes the first image 100 and the fifth image 114 by the weighted addition process of Expression (3) based on the addition ratio K derived by the addition ratio calculation unit 109, as shown in FIG. A sixth image 115 is generated as an output image.

第6画像115=(第1画像100×加算比率K)
+(第5画像114×(1−加算比率K)) …(3)
Sixth image 115 = (first image 100 × addition ratio K)
+ (5th image 114 × (1−addition ratio K)) (3)

この結果、第6画像115における背景102は、第1画像100における背景102よりも輝度が低減された画像となる。これにより人物101が浮き立って見える画像となる。   As a result, the background 102 in the sixth image 115 is an image having a reduced luminance than the background 102 in the first image 100. As a result, an image in which the person 101 appears to float is obtained.

次に、第6画像115を取得するためのフローチャートについて説明する。   Next, a flowchart for acquiring the sixth image 115 will be described.

図12は、第1実施形態のおける第4画像112を取得するためのフローチャートを示しているが、同図を用いて、本第2実施形態の第6画像115を取得する場合について説明する。この場合、図12のフローチャートのステップS204では、第1画像100に対するぼかし処理に代えて、「第1画像100に対して、輝度低減処理を施し第5画像114を生成する」処理が実行される。   FIG. 12 shows a flowchart for acquiring the fourth image 112 in the first embodiment. The case of acquiring the sixth image 115 of the second embodiment will be described with reference to FIG. In this case, in step S204 of the flowchart of FIG. 12, instead of the blurring process on the first image 100, a process of “performing the luminance reduction process on the first image 100 to generate the fifth image 114” is executed. .

また、上述の説明では、画像処理部113は第1画像100に輝度低減処理を施して輝度が低減された第5画像114を生成し、画像合成部110は第1画像100と第5画像114を合成している。しかし、画像処理部113が第2画像103に輝度低減処理を施して第5’画像(図示せず)を生成し、画像合成部110が第5’画像と第2画像103とを合成することとしても、同様の効果を奏する画像を取得することができる。   In the above description, the image processing unit 113 performs the luminance reduction processing on the first image 100 to generate the fifth image 114 with reduced luminance, and the image composition unit 110 performs the first image 100 and the fifth image 114. Is synthesized. However, the image processing unit 113 performs luminance reduction processing on the second image 103 to generate a 5 ′ image (not shown), and the image composition unit 110 combines the 5 ′ image and the second image 103. However, an image having the same effect can be acquired.

これにより、撮影者は、背景102の輝度を低減し、人物101が強調されて浮き立って見える第6画像115を取得することができる。
<第3の実施形態>
Accordingly, the photographer can acquire the sixth image 115 in which the brightness of the background 102 is reduced and the person 101 is emphasized and appears to float.
<Third Embodiment>

次に、第3の実施形態について説明する。図15は、第3の実施形態に係る画像処理部7が備える構成のうち、特定被写体強調画像生成処理を行う部分の構成及び特定被写体強調画像生成処理を説明する図である。   Next, a third embodiment will be described. FIG. 15 is a diagram for explaining the configuration of the part that performs the specific subject emphasized image generation process and the specific subject emphasized image generation process in the configuration of the image processing unit 7 according to the third embodiment.

第3の実施形態では、背景102の彩度を低減する処理を施し、その結果、人物101の彩度が背景102に対して相対的に高くなって、人物101が浮き立って見える撮影画像を取得する方法を示す。   In the third embodiment, a process of reducing the saturation of the background 102 is performed, and as a result, a captured image in which the saturation of the person 101 is relatively high with respect to the background 102 and the person 101 appears to float is acquired. How to do.

図15において、図4と同一の番号を付している部位は、第1の実施形態の場合と同一の機能及び動作を有する部位であるため、その機能及び動作の説明は省略する。   In FIG. 15, the parts denoted by the same reference numerals as those in FIG. 4 are parts having the same functions and operations as those in the first embodiment, and thus description of the functions and operations is omitted.

画像処理部116は、第1画像100に対して、彩度を低減する効果を奏する処理(以下、彩度低減処理と記載する。)を施す。   The image processing unit 116 performs a process (hereinafter, referred to as a saturation reduction process) having an effect of reducing the saturation on the first image 100.

ここで、彩度とは、色の鮮やかさ、色の純度を意味し、彩度が高いと純粋な色に近づき、反対に彩度が低いと濁った色(グレー)に近づく。彩度の値の範囲は0〜100%である。図16に色相環図を示す。色相環とは色相を環状に配置したものである。図中において彩度は矢印の長さで表現される。即ち、第1画像100における各画素の色差信号をRY、BYとすると、第1画像100における各画素の彩度は数式(4)により算出される。   Here, the saturation means the vividness of the color and the purity of the color. When the saturation is high, the color approaches a pure color, and when the saturation is low, the color approaches a cloudy color (gray). The range of the saturation value is 0 to 100%. FIG. 16 shows a hue circle diagram. A hue ring is a ring in which hues are arranged in a ring shape. In the figure, the saturation is expressed by the length of the arrow. That is, assuming that the color difference signals of each pixel in the first image 100 are RY and BY, the saturation of each pixel in the first image 100 is calculated according to Equation (4).

従って、画像処理部113は、彩度低減処理として、第1画像100の各画素に対し、各画素の彩度を一定の割合で低減する処理を施す。 Therefore, the image processing unit 113 performs a process of reducing the saturation of each pixel at a certain rate for each pixel of the first image 100 as the saturation reduction process.

図17(A)に示す第7画像117は、第1画像100に彩度低減処理が施されて生成された画像のイメージ図である。   A seventh image 117 illustrated in FIG. 17A is an image diagram of an image generated by performing saturation reduction processing on the first image 100.

画像合成部110は、第1画像100および第7画像117を加算比率算出部109によって導出された加算比率Kに基づいて数式(5)の加重加算処理により合成し、図16(B)に示す第8画像118を出力画像として生成する。   The image synthesizing unit 110 synthesizes the first image 100 and the seventh image 117 by the weighted addition processing of Expression (5) based on the addition ratio K derived by the addition ratio calculation unit 109, as shown in FIG. The eighth image 118 is generated as an output image.

第8画像118=(第1画像100×加算比率K)
+(第7画像117×(1−加算比率K)) …(5)
Eighth image 118 = (first image 100 × addition ratio K)
+ (7th image 117 × (1−addition ratio K)) (5)

この結果、第8画像118における背景102は、第1画像100における背景102よりも彩度が低減された画像となる。これにより人物101が浮き立って見える画像となる。   As a result, the background 102 in the eighth image 118 is an image with reduced saturation than the background 102 in the first image 100. As a result, an image in which the person 101 appears to float is obtained.

次に、第8画像118を取得するためのフローチャートについて説明する。   Next, a flowchart for acquiring the eighth image 118 will be described.

図12は、第1実施形態のおける第4画像112を取得するためのフローチャートを示しているが、同図を用いて、本第3実施形態の第8画像118を取得する場合について説明する。この場合、図12のフローチャートのステップS204では、第1画像100に対するぼかし処理に代えて、「第1画像100に対して、彩度低減処理を施し第7画像117を生成する」処理が実行される。   FIG. 12 shows a flowchart for acquiring the fourth image 112 in the first embodiment. The case where the eighth image 118 of the third embodiment is acquired will be described with reference to FIG. In this case, in step S204 in the flowchart of FIG. 12, instead of the blurring process for the first image 100, a process of “saturating the first image 100 and generating a seventh image 117” is executed. The

また、上述の説明では、画像処理部113は第1画像100に彩度低減処理を施して彩度が低減された第7画像117を生成し、画像合成部110は第1画像100と第7画像117を合成している。しかし、画像処理部113が第2画像103に輝度低減処理を施して第7’画像(図示せず)を生成し、画像合成部110が、第7’画像と第2画像103とを合成することとしても、同様の効果を奏する画像を取得することができる。   In the above description, the image processing unit 113 performs saturation reduction processing on the first image 100 to generate the seventh image 117 with reduced saturation, and the image composition unit 110 performs the first image 100 and the seventh image reduction. The image 117 is synthesized. However, the image processing unit 113 performs luminance reduction processing on the second image 103 to generate a seventh ′ image (not shown), and the image composition unit 110 combines the seventh ′ image and the second image 103. Even in this case, an image having the same effect can be acquired.

これにより、撮影者は、背景102の彩度を低減し、人物101が強調されて浮き立って見える第8画像118を取得することができる。
<第2の実施形態の変形>
As a result, the photographer can acquire the eighth image 118 in which the saturation of the background 102 is reduced and the person 101 appears to be highlighted.
<Modification of Second Embodiment>

図18は、第2の実施形態の変形例を説明する図である。   FIG. 18 is a diagram for explaining a modification of the second embodiment.

尚、図18において、図4と同一の番号を付している部位は、第1の実施形態の場合と同一の機能及び動作を有する部位であるためその機能及び動作の説明は省略する。   In FIG. 18, the parts denoted by the same reference numerals as those in FIG. 4 are parts having the same functions and operations as those in the first embodiment, and thus description of the functions and operations is omitted.

図18において、画像処理部119は、第1画像100に対して、輝度を高くする効果を奏する処理(以下、輝度増加処理と記載する。)を施す。   In FIG. 18, the image processing unit 119 performs a process (hereinafter, referred to as a brightness increase process) that has an effect of increasing the brightness on the first image 100.

図19(A)に示す第9画像120は、第1画像100に対し輝度増加処理を施した場合のイメージ図である。   A ninth image 120 shown in FIG. 19A is an image diagram when the luminance increasing process is performed on the first image 100.

画像合成部110は、第9画像120と図14(A)に示す輝度低減処理が施された第5画像114とを加算比率算出部109によって導出された加算比率Kに基づいて数式(6)の加重加算処理により合成し、図19(B)に示す第10画像121を出力画像として生成する。   Based on the addition ratio K derived by the addition ratio calculation unit 109, the image composition unit 110 calculates the ninth image 120 and the fifth image 114 on which the luminance reduction processing illustrated in FIG. The tenth image 121 shown in FIG. 19B is generated as an output image.

第10画像121=(第9画像120×加算比率K)
+(第5画像114×(1−加算比率K)) …(6)
10th image 121 = (9th image 120 × addition ratio K)
+ (5th image 114 × (1−addition ratio K)) (6)

この結果、第10画像121における人物102は、第1画像100における人物102よりも輝度の高い画像となる。これにより人物101が浮き立って見える画像となる。   As a result, the person 102 in the tenth image 121 is an image with higher brightness than the person 102 in the first image 100. As a result, an image in which the person 101 appears to float is obtained.

次に、第10画像121を取得するためのフローチャートについて説明する。   Next, a flowchart for acquiring the tenth image 121 will be described.

図12は、第1実施形態のおける第4画像112を取得するためのフローチャートを示しているが、同図を用いて、本第2実施形態の変形例における第10画像121を取得する場合について説明する。この場合、図12のフローチャートのステップS204では、第1画像100に対するぼかし処理に代えて、「第1画像100に対して、輝度低減処理及び輝度増加処理を施し第5画像114及び第9画像120を生成する」処理が実行される。さらに、ステップS205では、「第5画像114と第9画像120とを加重加算する」処理が実行される。   FIG. 12 shows a flowchart for acquiring the fourth image 112 in the first embodiment. With reference to FIG. 12, a case of acquiring the tenth image 121 in the modification of the second embodiment is shown. explain. In this case, in step S204 in the flowchart of FIG. 12, instead of the blurring process for the first image 100, “the first image 100 is subjected to the luminance reduction process and the luminance increase process, and the fifth image 114 and the ninth image 120 are processed. Is generated. Furthermore, in step S205, a process of “weighted addition of the fifth image 114 and the ninth image 120” is executed.

また、上述の説明では、画像処理部113及び119は、第1画像100に対して輝度低減処理及び輝度増加処理をそれぞれ施し、第5画像114及び第9画像120をそれぞれ生成する。また、画像合成部110は、第5画像114と第9画像120とを合成する。しかし、画像処理部113及び119は、第2画像103に対して輝度低減処理及び輝度増加処理をそれぞれ施し、第5’画像(図示せず)及び第9’画像(図示せず)をそれぞれ生成するようにしてもよく、画像合成部110は第5’画像と第9’画像とを合成するようにしてもよい。これによって、同様の効果を奏する画像を取得することができる。   In the above description, the image processing units 113 and 119 perform the brightness reduction process and the brightness increase process on the first image 100, respectively, and generate the fifth image 114 and the ninth image 120, respectively. In addition, the image synthesis unit 110 synthesizes the fifth image 114 and the ninth image 120. However, the image processing units 113 and 119 perform a brightness reduction process and a brightness increase process on the second image 103, respectively, to generate a 5 ′ image (not shown) and a 9 ′ image (not shown), respectively. The image composition unit 110 may compose the fifth 'image and the ninth' image. As a result, an image having the same effect can be acquired.

これにより、撮影者は、人物101の輝度がアップされ、この結果浮き立って見える第10画像121を取得することができる。
<第3の実施形態の変形>
As a result, the photographer can acquire the tenth image 121 in which the brightness of the person 101 is increased, and as a result, the person 101 appears to stand out.
<Modification of Third Embodiment>

図20は、第3の実施形態の変形例を説明する図である。   FIG. 20 is a diagram for explaining a modification of the third embodiment.

尚、図20において、図4と同一の番号を付している部位は、第1の実施形態の場合と同一の機能及び動作を有する部位であるためその機能及び動作の説明は省略する。   In FIG. 20, the portions denoted by the same reference numerals as those in FIG. 4 are portions having the same functions and operations as those in the first embodiment, and thus description of the functions and operations is omitted.

図20において、画像処理部122は、第1画像100に対して、彩度を高くする効果を奏する処理(以下、彩度増加処理と記載する。)を施す。   In FIG. 20, the image processing unit 122 performs a process (hereinafter referred to as “saturation increasing process”) that produces an effect of increasing the saturation on the first image 100.

図21(A)に示す第11画像123は、第1画像100に対し彩度増加処理を施した場合のイメージ図である。   An eleventh image 123 shown in FIG. 21A is an image diagram when the saturation increase process is performed on the first image 100.

画像合成部110は、第11画像123と図17(A)に示す彩度低減処理が施された第7画像117とを加算比率算出部109によって導出された加算比率Kに基づいて数式(7)の加重加算処理により合成し、図21(B)に示す第12画像124を出力画像として生成する。   Based on the addition ratio K derived by the addition ratio calculation unit 109, the image composition unit 110 calculates the formula (7) from the eleventh image 123 and the seventh image 117 on which the saturation reduction processing illustrated in FIG. ) To generate a twelfth image 124 shown in FIG. 21B as an output image.

第12画像124=(第11画像123×加算比率K)
+(第7画像117×(1−加算比率K)) …(7)
12th image 124 = (11th image 123 × addition ratio K)
+ (7th image 117 × (1−addition ratio K)) (7)

この結果、第12画像124における人物102は、第1画像100における人物102よりも彩度の高い画像となる。これにより人物101が浮き立って見える画像となる。   As a result, the person 102 in the twelfth image 124 is an image with higher saturation than the person 102 in the first image 100. As a result, an image in which the person 101 appears to float is obtained.

次に、第12画像124を取得するためのフローチャートについて説明する。   Next, a flowchart for acquiring the twelfth image 124 will be described.

図12は、第1実施形態のおける第4画像112を取得するためのフローチャートを示しているが、同図を用いて、本第3実施形態の変形例における第12画像124を取得する場合について説明する。この場合、図12のフローチャートのステップS204では、第1画像100に対するぼかし処理に代えて、「第1画像100に対して、彩度低減処理及び彩度増加処理を施し第7画像117及び第11画像123を生成する」処理が実行される。さらに、ステップS205では、「第7画像117と第11画像123を加重加算する」処理が実行される。   FIG. 12 shows a flowchart for acquiring the fourth image 112 in the first embodiment. With reference to FIG. 12, a case where the twelfth image 124 in the modification of the third embodiment is acquired is shown. explain. In this case, in step S204 in the flowchart of FIG. 12, instead of the blurring process on the first image 100, “saturation reduction processing and saturation increase processing are performed on the first image 100, and the seventh image 117 and eleventh image are processed. The “generate image 123” process is executed. Further, in step S205, a process of “weighted addition of the seventh image 117 and the eleventh image 123” is executed.

また、上述の説明では、画像処理部116及び122は、第1画像100に対して彩度低減処理及び彩度増加処理をそれぞれ施し、第7画像117及び第11画像123をそれぞれ生成する。また、画像合成部110は、第7画像117と第11画像123とを合成する。しかし、画像処理部116及び122は、第2画像103に対して彩度低減処理及び彩度増加処理をそれぞれ施し、第7’画像(図示せず)及び第11’画像(図示せず)をそれぞれ生成するようにしてもよく、画像合成部110は第7’画像と第11’画像とを合成するようにしてもよい。これによって、同様の効果を奏する画像を取得することができる。   In the above description, the image processing units 116 and 122 perform the saturation reduction process and the saturation increase process on the first image 100, respectively, and generate the seventh image 117 and the eleventh image 123, respectively. Further, the image composition unit 110 synthesizes the seventh image 117 and the eleventh image 123. However, the image processing units 116 and 122 perform a saturation reduction process and a saturation increase process on the second image 103, respectively, to obtain a seventh 'image (not shown) and an eleventh' image (not shown). Each of the images may be generated, and the image combining unit 110 may combine the seventh 'image and the eleventh' image. As a result, an image having the same effect can be acquired.

これにより、撮影者は、人物101の彩度がアップされ、この結果浮き立って見える第12画像124を取得することができる。   As a result, the photographer can acquire the twelfth image 124 in which the saturation of the person 101 is increased and as a result, the photographer appears to stand out.

以上に述べたように、本発明の実施形態によると、撮像装置1は、被写界深度の異なる2つの撮影画像として入力画像1及び入力画像2を取得し、取得された2つの撮影画像を画像処理部7へ入力する。画像処理部7は、例えば、入力画像1に対して、ぼかし処理、輝度低減処理、彩度低減処理等の入力画像1の画像信号のレベル(画像信号の大きさを)を低減する処理を施す。そして、画像処理部7は、入力画像1と入力画像2との相違度を算出するとともに、当該相違度に応じて、入力画像1と当該入力画像1に対して画像信号レベルを低減する処理が施された画像を画素毎に加算する。具体的には、相違度が高いほど、画像信号レベルを低減する処理が施された画像の割合が大きくなるように加算する。この結果、背景102のみをぼかす、輝度を低減する或いは彩度を低減することができ、これにより人物101が強調され、浮き立って見える撮影画像を取得することができる。   As described above, according to the embodiment of the present invention, the imaging device 1 acquires the input image 1 and the input image 2 as two captured images having different depths of field, and the acquired two captured images are obtained. Input to the image processing unit 7. For example, the image processing unit 7 performs processing for reducing the level of the image signal (the magnitude of the image signal) of the input image 1 such as blurring processing, luminance reduction processing, and saturation reduction processing on the input image 1. . Then, the image processing unit 7 calculates the degree of difference between the input image 1 and the input image 2 and performs processing for reducing the image signal level for the input image 1 and the input image 1 according to the degree of difference. The applied image is added for each pixel. Specifically, the higher the difference, the higher the ratio of the images that have undergone the process of reducing the image signal level. As a result, only the background 102 can be blurred, the luminance can be reduced, or the saturation can be reduced. As a result, a person 101 can be emphasized and a photographed image that appears to float can be acquired.

また、本発明の実施形態の変形として、例えば、入力画像1に対して、輝度低減処理又は彩度低減処理等の入力画像1の画像信号のレベルを低減する処理を施す一方、輝度増加処理又は彩度増加処理等の入力画像1の画像信号のレベルを増加する処理も施すこととしている。   Further, as a modification of the embodiment of the present invention, for example, the input image 1 is subjected to processing for reducing the level of the image signal of the input image 1 such as luminance reduction processing or saturation reduction processing, Processing for increasing the level of the image signal of the input image 1 such as saturation increase processing is also performed.

そして、画像処理部7は、入力画像1と入力画像2の相違度に応じて、入力画像1に対して画像信号レベルを増加する処理が施された画像と入力画像1に対して画像信号レベルを低減する処理が施された画像とを画素毎に加算する。具体的には、相違度が高いほど、画像信号レベルを低減する処理が施された画像の割合が大きくなるように加算する。逆に、相違度が低いほど、画像信号レベルを増加する処理が施された画像の割合が大きくなるように加算する。この結果、背景102のみをぼかす、輝度を低減する或いは彩度を低減することができ、これにより人物101が強調され、浮き立って見える撮影画像を取得することができる。   Then, the image processing unit 7 determines the image signal level for the input image 1 and the image that has been subjected to the processing for increasing the image signal level according to the difference between the input image 1 and the input image 2. And the image that has been subjected to the processing for reducing the image are added for each pixel. Specifically, the higher the difference, the higher the ratio of the images that have undergone the process of reducing the image signal level. On the contrary, the lower the difference, the higher the ratio of the images that have been processed to increase the image signal level. As a result, only the background 102 can be blurred, the luminance can be reduced, or the saturation can be reduced. As a result, a person 101 can be emphasized and a photographed image that appears to float can be acquired.

尚、上記実施の形態では、画像信号のレベルを低減する処理の例として、ぼかし処理、輝度低減処理、彩度低減処理について記載したが、画像信号のレベルを低減することができる処理であればこれらに限られることはないし、ぼかし処理,輝度低減処理および彩度低減処理のうちの2つの処理あるいは全ての処理を同時に実行するようにしてもよい。   In the above embodiment, blur processing, luminance reduction processing, and saturation reduction processing have been described as examples of processing for reducing the level of the image signal. However, any processing that can reduce the level of the image signal is described. The present invention is not limited to these, and two or all of the blur processing, luminance reduction processing, and saturation reduction processing may be executed simultaneously.

同様に、画像信号のレベルを増加する処理として、輝度増加処理又は彩度増加処理を記載したが、画像信号のレベルを増加することができる処理であればこれらに限られることはない。   Similarly, although the luminance increasing process or the saturation increasing process has been described as the process for increasing the level of the image signal, the process is not limited to this as long as the process can increase the level of the image signal.

また、上述の実施形態では、撮影モードの下で特定被写体強調画像生成処理を実行するようにしているが、特定被写体強調画像生成処理は再生モードの下で実行するようにしてもよい。この場合、図11に示すフローチャートは図22に示すように部分的に修正する必要があり、さらに再生モードでは図23に示すフローチャートに従って処理を実行する必要がある。   In the above-described embodiment, the specific subject emphasized image generation process is executed under the shooting mode. However, the specific subject emphasized image generation process may be executed under the reproduction mode. In this case, the flowchart shown in FIG. 11 needs to be partially corrected as shown in FIG. 22, and further, in the reproduction mode, the process needs to be executed according to the flowchart shown in FIG.

図22を参照して、ステップS112の処理が完了すると、ステップS115に進む。ステップS115では、通常撮像処理によって得られた通常絞り画像と小絞り撮像処理によって得られた小絞り画像とを格納したMPF(Multi Picture Format)ファイルを作成し、作成されたMPFファイルを外部メモリ22に記録する。ステップS115の処理が完了すると、ステップS102に戻る。   Referring to FIG. 22, when the process of step S112 is completed, the process proceeds to step S115. In step S115, an MPF (Multi Picture Format) file storing the normal aperture image obtained by the normal imaging process and the small aperture image obtained by the small aperture imaging process is created, and the created MPF file is stored in the external memory 22. To record. When the process of step S115 is completed, the process returns to step S102.

図23を参照して、ステップS116では外部メモリ22に記録されたMPFファイルを指定し、ステップS117では指定されたMPFファイルから通常絞り画像と小絞り画像とを再生する。ステップS113では、再生された通常絞り画像および小絞り画像に注目して、特定被写体強調画像生成処理を実行する。これによって生成された合成画像は、ステップS118で表示される。   Referring to FIG. 23, an MPF file recorded in external memory 22 is designated in step S116, and a normal aperture image and a small aperture image are reproduced from the designated MPF file in step S117. In step S113, the specific subject emphasized image generation process is executed while paying attention to the reproduced normal aperture image and small aperture image. The composite image generated thereby is displayed in step S118.

また、上述の実施形態では、図4に示す画像処理部108によるぼかし量,図13に示す画像処理部113による輝度の低減量,図15に示す画像処理部116による彩度の低減量は、いずれも一様とされる。しかし、ぼかし量,輝度低減量または彩度低減量に多様性を持たせ、互いに異なるぼかし量,輝度低減量または彩度低減量を有する画像を入力画像1と合成するようにしてもよい。この場合、画像処理部7は図24に示すように構成する必要がある。   In the above-described embodiment, the blurring amount by the image processing unit 108 shown in FIG. 4, the luminance reduction amount by the image processing unit 113 shown in FIG. 13, and the saturation reduction amount by the image processing unit 116 shown in FIG. Both are uniform. However, the blurring amount, the luminance reduction amount, or the saturation reduction amount may be varied, and images having different blurring amounts, luminance reduction amounts, or saturation reduction amounts may be combined with the input image 1. In this case, the image processing unit 7 needs to be configured as shown in FIG.

図24によれば、入力画像1は、画像処理部125a〜125cに並列的に与えられる。画像処理部125a〜125cは、互いに異なるぼかし量に従うぼかし処理、互いに異なる輝度低減量に従う輝度ダウン処理、或いは互いに異なる彩度低減量に従う彩度ダウン処理を実行する。また、画像合成部110は、入力画像1と画像処理部125a〜125cから出力された画像とを、加算比率算出部109の出力を参照して合成する。   According to FIG. 24, the input image 1 is given in parallel to the image processing units 125a to 125c. The image processing units 125a to 125c execute blurring processing according to different blurring amounts, luminance down processing according to different luminance reduction amounts, or saturation reduction processing according to different saturation reduction amounts. The image composition unit 110 combines the input image 1 and the images output from the image processing units 125 a to 125 c with reference to the output of the addition ratio calculation unit 109.

さらに、図4に示す画像処理部7では、ぼかし処理を画像処理部108で行う一方、合成処理を画像合成部110で行うようにしている。しかし、図25に示すように、画像処理部108および画像合成部110をLPF127に置換し、加算比率算出部109をカットオフ周波数算出部126に置換し、LPF127のカットオフ特性をカットオフ周波数算出部126によって算出されたカットオフ周波数に基づいて制御するようにしてもよい。   Further, in the image processing unit 7 shown in FIG. 4, the blurring process is performed by the image processing unit 108, while the composition process is performed by the image composition unit 110. However, as shown in FIG. 25, the image processing unit 108 and the image synthesis unit 110 are replaced with the LPF 127, the addition ratio calculation unit 109 is replaced with the cutoff frequency calculation unit 126, and the cutoff characteristic of the LPF 127 is calculated as the cutoff frequency. The control may be performed based on the cutoff frequency calculated by the unit 126.

この場合、カットオフ周波数は図26に示す要領で変化する。つまり、カットオフ周波数は、差分算出部107によって算出された差分信号の低下に応じて低下する。差分信号の大きさが閾値βを下回る範囲では、カットオフ周波数は“Fc”に設定される。これによって、特定被写体が強調された合成画像がLPF127から出力される。
<第4の実施形態>
In this case, the cut-off frequency changes as shown in FIG. That is, the cutoff frequency decreases in accordance with the decrease in the difference signal calculated by the difference calculation unit 107. In the range where the magnitude of the difference signal is lower than the threshold value β, the cutoff frequency is set to “Fc”. As a result, a composite image in which the specific subject is emphasized is output from the LPF 127.
<Fourth Embodiment>

次に、第4の実施形態について説明する。図27は、第1の実施形態に係る画像処理部7が備える構成のうち、特定被写体強調画像生成処理を行う部分の構成及び特定被写体強調画像生成処理を説明する図である。   Next, a fourth embodiment will be described. FIG. 27 is a diagram for explaining the configuration of the part that performs the specific subject emphasized image generation process and the specific subject emphasized image generation process in the configuration of the image processing unit 7 according to the first embodiment.

第4の実施形態では、通常撮像条件の下で得られる通常絞り画像および小絞り撮像条件の下で得られる小絞り画像の他に、デフォーカス撮像条件(ピントが極端に外れた撮像条件)の下で得られるデフォーカス画像が用いられる。   In the fourth embodiment, in addition to the normal aperture image obtained under the normal imaging conditions and the small aperture image obtained under the small aperture imaging conditions, the defocus imaging conditions (imaging conditions that are extremely out of focus) are set. The defocused image obtained below is used.

図27において、図4と同一の番号を付している部位は、第1の実施形態の場合と同一の機能及び動作を有する部位であるため、その機能及び動作の説明は省略する。   In FIG. 27, the parts denoted by the same reference numerals as those in FIG. 4 are parts having the same functions and operations as those in the first embodiment, and thus the description of the functions and operations is omitted.

画像位置合わせ部128は、画像位置あわせ部104と同じ構成を有し、通常絞り画像とデフォーカス画像との位置合わせを行う。画像位置合わせ部から出力された通常絞り画像およびデフォーカス画像は、画像合成部110によって合成される。合成処理にあたっては、加算比率算出部109によって算出された加算比率Kが参照される。   The image alignment unit 128 has the same configuration as the image alignment unit 104, and performs alignment between the normal aperture image and the defocused image. The normal aperture image and the defocused image output from the image alignment unit are synthesized by the image synthesis unit 110. In the synthesis process, the addition ratio K calculated by the addition ratio calculation unit 109 is referred to.

次に、本実施形態に係る撮像装置1を用いて特定被写体が強調された画像を取得する方法について説明する。   Next, a method for acquiring an image in which a specific subject is emphasized using the imaging apparatus 1 according to the present embodiment will be described.

図28〜図29は、撮像装置1が、通常絞り画像,小絞り画像およびデフォーカス画像を取得し、取得したこれらの画像を外部メモリ22に記録するまでの一連の処理を示すフローチャートである。また、図30は、外部メモリ22に記録された通常絞り画像,小絞り画像およびデフォーカス画像に基づいて特定被写体が強調された合成画像を作成し表示するまでの一連の処理を示すフローチャートである。   28 to 29 are flowcharts showing a series of processes until the imaging apparatus 1 acquires the normal aperture image, the small aperture image, and the defocused image, and records these acquired images in the external memory 22. FIG. 30 is a flowchart showing a series of processing until a composite image in which a specific subject is emphasized based on a normal aperture image, a small aperture image, and a defocus image recorded in the external memory 22 is displayed. .

なお、これらのフローチャートに対応する制御プログラムは、図示しないフラッシュメモリに記憶される。また、以下で述べる各ステップの動作には、CPU17が必ず関与する。   A control program corresponding to these flowcharts is stored in a flash memory (not shown). The CPU 17 is always involved in the operation of each step described below.

図28を参照して、ステップS301では動作モードをプレビューモードに設定し、ステップS302では撮影者の操作に応答してズーム倍率や絞り量を制御する。ステップS303ではAF制御、AE制御およびAWB制御を実行し、ステップS304ではシャッタボタンが半押しされたか否かを判別する。ステップS304でNOであればステップS302に戻り、ステップS304でYESであればステップS305に進む。   Referring to FIG. 28, in step S301, the operation mode is set to the preview mode, and in step S302, the zoom magnification and the aperture amount are controlled in response to the photographer's operation. In step S303, AF control, AE control, and AWB control are executed. In step S304, it is determined whether or not the shutter button is half-pressed. If NO in step S304, the process returns to step S302, and if YES in step S304, the process proceeds to step S305.

ステップS305では、図10に示すステップS105と同じ要領で通常撮像条件(第1撮像条件)を設定する。ステップS306では、図10に示すステップS107と同じ要領で小絞り撮像条件(第2撮像条件)を設定する。ステップS307では、ピントが被写体から大きく外れたデフォーカス撮像条件(第3撮像条件)を設定する。   In step S305, normal imaging conditions (first imaging conditions) are set in the same manner as in step S105 shown in FIG. In step S306, small aperture imaging conditions (second imaging conditions) are set in the same manner as in step S107 shown in FIG. In step S307, a defocus imaging condition (third imaging condition) that sets the focus far from the subject is set.

なお、ステップS305〜307のいずれにおいても、フォーカスは、被写界内の共通の被写体(特定被写体)に合わせられる。また、ステップS307で設定される絞り量は、ステップS305で設定される絞り量と同じである。   In any of steps S305 to S307, the focus is adjusted to a common subject (specific subject) in the object scene. The aperture amount set in step S307 is the same as the aperture amount set in step S305.

ステップS308ではシャッタボタンが全押しされたか否かを判別し、ステップS309ではシャッタボタンの操作が解除されたか否かを判別する。ステップS308でYESであればステップS310に進み、ステップS309でYESであればステップS302に戻る。   In step S308, it is determined whether or not the shutter button has been fully pressed. In step S309, it is determined whether or not the operation of the shutter button has been released. If “YES” in the step S308, the process proceeds to a step S310, and if “YES” in the step S309, the process returns to the step S302.

ステップS310では動作モードを静止画撮影モードに設定し、ステップS311では第1撮像条件を参照して通常絞り画像を撮影する。ステップS312では第2撮像条件を参照して小絞り画像を撮影し、ステップS313では第3撮像条件を参照してデフォーカス画像を撮影する。ステップS314では、こうして得られた通常絞り画像、小絞り画像およびデフォーカス画像をMPFファイルに格納し、MPFファイルファイルを外部メモリ22に記録する。ステップS314の処理が完了すると、ステップS301に戻る。   In step S310, the operation mode is set to the still image shooting mode, and in step S311, a normal aperture image is shot with reference to the first imaging condition. In step S312, a small aperture image is captured with reference to the second imaging condition, and in step S313, a defocused image is captured with reference to the third imaging condition. In step S314, the normal aperture image, the small aperture image, and the defocused image thus obtained are stored in the MPF file, and the MPF file file is recorded in the external memory 22. When the process of step S314 is completed, the process returns to step S301.

図30を参照して、ステップS401では、外部メモリ22に記録されたMPFファイルを指定する。ステップS402では、通常絞り画像、小絞り画像およびデフォーカス画像を指定されたMPFファイルから再生する。通常絞り画像および小絞り画像は、ステップS403で位置合わせ部104による位置合わせ処理を施される。   Referring to FIG. 30, in step S401, an MPF file recorded in external memory 22 is designated. In step S402, the normal aperture image, small aperture image, and defocus image are reproduced from the designated MPF file. The normal aperture image and the small aperture image are subjected to alignment processing by the alignment unit 104 in step S403.

ステップS404では、位置合わせ部104から出力された通常絞り画像の高域成分を高域成分抽出部105によって抽出し、位置合わせ部104から出力された小絞り画像の高域成分を高域成分抽出部106によって抽出する。抽出された高周波成分の差分は、差分算出部107によって算出される。ステップS405では、算出された差分を参照した加算比率Kの算出処理を加算比率算出部109によって実行する。これによって、加算比率テーブルが作成される。   In step S404, the high frequency component of the normal aperture image output from the alignment unit 104 is extracted by the high frequency component extraction unit 105, and the high frequency component of the small aperture image output from the alignment unit 104 is extracted. Extracted by the unit 106. The difference between the extracted high frequency components is calculated by the difference calculation unit 107. In step S405, the addition ratio calculation unit 109 executes a calculation process of the addition ratio K with reference to the calculated difference. Thereby, an addition ratio table is created.

一方、ステップS406では、再生された通常絞り画像およびデフォーカス画像に位置合わせ部104による位置合わせ処理を施す。ステップS407では、位置合わせ部104から出力された通常絞り画像およびデフォーカス画像を画像合成部110によって合成する。このとき、ステップS405で作成された加算比率テーブルが参照される。画像合成部110から出力された合成画像は、ステップS408で表示部13から出力される。   On the other hand, in step S406, alignment processing by the alignment unit 104 is performed on the reproduced normal aperture image and defocused image. In step S <b> 407, the normal aperture image and the defocus image output from the alignment unit 104 are combined by the image combining unit 110. At this time, the addition ratio table created in step S405 is referred to. The composite image output from the image composition unit 110 is output from the display unit 13 in step S408.

本発明の実施の形態に係る撮像装置の全体構成図である。1 is an overall configuration diagram of an imaging apparatus according to an embodiment of the present invention. 図1のレンズ部3の内部構成図である。It is an internal block diagram of the lens part 3 of FIG. (A)は図1の撮像装置1で撮像された撮像画像を説明するための図であり、(B)は図1の撮像装置1で撮像された他の撮像画像を説明するための図である。(A) is a figure for demonstrating the captured image imaged with the imaging device 1 of FIG. 1, (B) is a figure for demonstrating the other captured image imaged with the imaging device 1 of FIG. is there. 図1の画像処理部7の内部構成および画像処理の一部を説明するための図である。It is a figure for demonstrating the internal structure of the image process part 7 of FIG. 1, and a part of image processing. (A)は図4の画像処理部108によるぼかし処理後の画像のイメージ図であり、(B)は画像合成部110からの出力画像のイメージ図である。4A is an image diagram of an image after blurring processing by the image processing unit 108 in FIG. 4, and FIG. 4B is an image diagram of an output image from the image synthesis unit 110. 図4の加算比率算出部による加算比率算出のための関数を示すグラフである。It is a graph which shows the function for the addition ratio calculation by the addition ratio calculation part of FIG. 図4の画像位置合わせ処理部104の内部構成を示す図である。FIG. 5 is a diagram illustrating an internal configuration of an image registration processing unit 104 in FIG. 4. 図6の位置ずれ検出部202で検出する位置ずれ(動きベクトル)を説明するための図である。It is a figure for demonstrating the position shift (motion vector) detected by the position shift detection part 202 of FIG. 図6の位置ずれ補正部203による位置ずれ補正を説明するための図である。It is a figure for demonstrating the position shift correction by the position shift correction part 203 of FIG. 図1の撮像装置における、特定被写体強調画像を生成する手順の一部を示すフローチャートである。2 is a flowchart showing a part of a procedure for generating a specific subject emphasized image in the imaging apparatus of FIG. 1. 図1の撮像装置における、特定被写体強調画像を生成する手順の他の一部を示すフローチャートである。12 is a flowchart showing another part of the procedure for generating the specific subject emphasized image in the imaging apparatus of FIG. 1. 図11のステップS113における特定被写体強調画像を生成する手順を示すフローチャートである。It is a flowchart which shows the procedure which produces | generates the specific object emphasis image in step S113 of FIG. 第2の実施形態における、図1の画像処理部7の内部構成および画像処理を説明するための図である。It is a figure for demonstrating the internal structure and image processing of the image process part 7 of FIG. 1 in 2nd Embodiment. (A)は図13の画像処理部113による輝度ダウン処理後の画像のイメージ図であり、(B)は画像合成部110からの出力画像のイメージ図である。FIG. 14A is an image diagram of an image after luminance reduction processing by the image processing unit 113 in FIG. 13, and FIG. 14B is an image diagram of an output image from the image composition unit 110. 第3の実施形態における、図1の画像処理部7の内部構成および画像処理を説明するための図である。It is a figure for demonstrating the internal structure and image processing of the image process part 7 of FIG. 1 in 3rd Embodiment. 彩度を説明するための色相関を示す図である。It is a figure which shows the color correlation for demonstrating saturation. (A)は図15の画像処理部116による彩度ダウン処理後の画像のイメージ図であり、(B)は画像合成部110からの出力画像のイメージ図である。(A) is an image diagram of an image after saturation reduction processing by the image processing unit 116 in FIG. 15, and (B) is an image diagram of an output image from the image synthesis unit 110. 第2の実施形態における画像処理部7の変形例を示す図である。It is a figure which shows the modification of the image process part 7 in 2nd Embodiment. (A)は図18の画像処理部119による輝度アップ処理後の画像のイメージ図であり、(B)は画像合成部110からの出力画像のイメージ図である。FIG. 19A is an image diagram of an image after the luminance enhancement processing by the image processing unit 119 in FIG. 18, and FIG. 19B is an image diagram of an output image from the image composition unit 110. 第3の実施形態における画像処理部7の変形例を示す図である。It is a figure which shows the modification of the image process part 7 in 3rd Embodiment. (A)は図20の画像処理部122による彩度アップ処理後の画像のイメージ図であり、(B)は画像合成部110からの出力画像のイメージ図である。20A is an image diagram of an image after saturation enhancement processing by the image processing unit 122 in FIG. 20, and FIG. 20B is an image diagram of an output image from the image synthesis unit 110. 特定被写体強調画像を生成する手順を示すフローチャートの変形例の一部である。It is a part of modification of the flowchart which shows the procedure which produces | generates a specific subject emphasis image. 特定被写体強調画像を生成する手順を示すフローチャートの変形例の他の一部である。10 is another part of a modified example of the flowchart showing the procedure for generating the specific subject emphasized image. 画像処理部7の変形例を示す図である。It is a figure which shows the modification of the image process part. 画像処理部7の他の変形例を示す図である。It is a figure which shows the other modification of the image process part. 図25のカットオフ周波数算出部によるカットオフ周波数算出のための関数を示すグラフである。It is a graph which shows the function for the cutoff frequency calculation by the cutoff frequency calculation part of FIG. 第4の実施形態における、図1の画像処理部7の内部構成および画像処理を説明するための図である。It is a figure for demonstrating the internal structure and image processing of the image process part 7 of FIG. 1 in 4th Embodiment. 第4の実施形態における、特定被写体強調画像を生成する手順の一部を示すフローチャートである。14 is a flowchart illustrating a part of a procedure for generating a specific subject emphasized image in the fourth embodiment. 第4の実施形態における、特定被写体強調画像を生成する手順の他の一部を示すフローチャートである。16 is a flowchart illustrating another part of the procedure for generating the specific subject emphasized image in the fourth embodiment. 第4の実施形態における、特定被写体強調画像を生成する手順のその他の一部を示すフローチャートである。15 is a flowchart illustrating another part of a procedure for generating a specific subject emphasized image in the fourth embodiment.

1 …撮像装置
6 …画像処理部
100 …第1画像
103 …第2画像
104 …画像位置合わせ部
105 …高域成分抽出部
106 …高域成分抽出部
107 …差分抽出部
109 …加算比率算出部
108 …画像処理部
110 …画像合成部
111 …第3画像
112 …第4画像
DESCRIPTION OF SYMBOLS 1 ... Imaging device 6 ... Image processing part 100 ... 1st image 103 ... 2nd image 104 ... Image registration part 105 ... High frequency component extraction part 106 ... High frequency component extraction part 107 ... Difference extraction part 109 ... Addition ratio calculation part 108 ... Image processing unit 110 ... Image composition unit 111 ... Third image 112 ... Fourth image

Claims (11)

フォーカスレンズおよび絞り機構を通して被写界を捉える撮像手段から出力された被写界像を処理する画像処理装置であって、
前記被写界内の特定物体に適合するようにフォーカスを調整するフォーカス調整手段、
互いに異なる複数の絞り量を前記フォーカス調整手段の調整処理に関連して前記絞り機構に設定する絞り量設定手段、
前記絞り量設定手段によって設定された複数の絞り量に対応して前記撮像手段から出力された複数の被写界像の間の鮮鋭度の相違の大きさを検出する検出手段、および
前記フォーカス調整手段によって調整されたフォーカスに対応して前記撮像手段から出力された被写界像に前記検出手段の検出結果を参照した画質調整処理を施す画質調整手段を備える、画像処理装置。
An image processing device for processing a scene image output from an imaging means that captures a scene through a focus lens and a diaphragm mechanism,
A focus adjusting means for adjusting the focus so as to be adapted to a specific object in the object scene;
A diaphragm amount setting means for setting a plurality of different diaphragm amounts in the diaphragm mechanism in relation to the adjustment process of the focus adjusting means;
Detecting means for detecting a difference in sharpness between a plurality of field images output from the imaging means corresponding to a plurality of aperture amounts set by the aperture amount setting means; and the focus adjustment An image processing apparatus comprising: an image quality adjustment unit that performs an image quality adjustment process with reference to a detection result of the detection unit on the object scene image output from the imaging unit corresponding to the focus adjusted by the unit.
前記検出手段は、前記複数の被写界像から複数の高周波成分をそれぞれ抽出する高周波成分抽出手段、および前記高周波成分抽出手段によって抽出された複数の高周波成分の間の差分を算出する差分算出手段を含む、請求項1記載の画像処理装置。   The detection means is a high-frequency component extraction means for extracting a plurality of high-frequency components from the plurality of object scene images, and a difference calculation means for calculating a difference between the plurality of high-frequency components extracted by the high-frequency component extraction means. The image processing apparatus according to claim 1, comprising: 前記検出手段は、前記複数の被写界像から複数の輝度成分をそれぞれ抽出する輝度成分抽出手段、および前記輝度成分抽出手段によって抽出された複数の輝度成分に基づいて前記複数の被写界像の間の位置ずれを補正する補正手段をさらに含む、請求項2記載の画像処理装置。   The detection means includes a luminance component extraction means for extracting a plurality of luminance components from the plurality of scene images, and the plurality of scene images based on the plurality of luminance components extracted by the luminance component extraction means. The image processing apparatus according to claim 2, further comprising correction means for correcting a positional deviation between the two. 前記画質調整手段は前記相違が増大するほど前記被写界像の特定パラメータを大きく低減させる特定パラメータ制御手段を含む、請求項1ないし3のいずれかに記載の画像処理装置。   4. The image processing apparatus according to claim 1, wherein the image quality adjustment unit includes a specific parameter control unit that greatly reduces a specific parameter of the object scene image as the difference increases. 5. 前記画質調整手段は前記被写界像の特定パラメータを低減させる低減手段をさらに含み、
前記特定パラメータ制御手段は前記相違が増大するほど前記低減手段の低減量を増大させる、請求項4記載の画像処理装置。
The image quality adjusting means further includes a reducing means for reducing a specific parameter of the object scene image,
The image processing apparatus according to claim 4, wherein the specific parameter control unit increases a reduction amount of the reduction unit as the difference increases.
前記絞り量設定手段によって設定された複数の絞り量に対応して前記撮像手段から出力された複数の被写界像を記録する第1記録手段、および
前記記録手段によって記録された複数の被写界像を再生する第1再生手段をさらに備え、
前記検出手段は前記第1再生手段によって再生された複数の被写界像に注目し、
前記画質調整手段は前記第1再生手段によって再生された複数の被写界像の1つに注目する、請求項1ないし5のいずれかに記載の画像処理装置。
First recording means for recording a plurality of object scene images output from the imaging means corresponding to a plurality of aperture amounts set by the aperture amount setting means, and a plurality of objects recorded by the recording means A first reproducing means for reproducing the field image;
The detecting means pays attention to a plurality of scene images reproduced by the first reproducing means,
The image processing apparatus according to claim 1, wherein the image quality adjustment unit focuses on one of a plurality of object scene images reproduced by the first reproduction unit.
前記第1記録手段は前記複数の被写界像を共通のファイルに格納する、請求項6記載の画像処理装置。   The image processing apparatus according to claim 6, wherein the first recording unit stores the plurality of scene images in a common file. 前記画質調整手段は、前記フォーカスをデフォーカス状態に設定するデフォーカス設定手段、前記デフォーカス設定手段によって設定されたデフォーカスに対応して前記撮像手段から出力された被写界像と前記フォーカス調整手段によって調整されたフォーカスに対応して前記撮像手段から出力された被写界像とを合成する合成手段を含む、請求項1ないし4のいずれかに記載の画像処理装置。   The image quality adjusting means includes a defocus setting means for setting the focus to a defocus state, a scene image output from the imaging means corresponding to the defocus set by the defocus setting means, and the focus adjustment. 5. The image processing apparatus according to claim 1, further comprising a synthesizing unit that synthesizes the object scene image output from the imaging unit corresponding to the focus adjusted by the unit. 前記絞り量設定手段によって設定された複数の絞り量に対応して前記撮像手段から出力された複数の被写界像と前記デフォーカス設定手段によって設定されたデフォーカスに対応して前記撮像手段から出力された被写界像とを記録する第2記録手段、および
前記記録手段によって記録された複数の被写界像を再生する第2再生手段をさらに備え、
前記検出手段および前記画質調整手段は前記第2再生手段によって再生された複数の被写界像に注目する、請求項8記載の画像処理装置。
A plurality of object scene images output from the imaging unit corresponding to a plurality of aperture amounts set by the aperture amount setting unit and a defocus set by the defocus setting unit from the imaging unit. A second recording means for recording the output object scene image; and a second reproducing means for reproducing a plurality of object scene images recorded by the recording means;
The image processing apparatus according to claim 8, wherein the detection unit and the image quality adjustment unit pay attention to a plurality of scene images reproduced by the second reproduction unit.
前記第2記録手段は前記複数の被写界像を共通のファイルに格納する、請求項9記載の画像処理装置。   The image processing apparatus according to claim 9, wherein the second recording unit stores the plurality of scene images in a common file. 請求項1ないし10のいずれかに記載の画像処理装置を備える、撮影装置。   An imaging device comprising the image processing device according to claim 1.
JP2010173277A 2007-12-28 2010-08-02 Image processing apparatus and photographing apparatus Pending JP2011019245A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010173277A JP2011019245A (en) 2007-12-28 2010-08-02 Image processing apparatus and photographing apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007339606 2007-12-28
JP2010173277A JP2011019245A (en) 2007-12-28 2010-08-02 Image processing apparatus and photographing apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008243436A Division JP4606486B2 (en) 2007-12-28 2008-09-23 Image processing apparatus and photographing apparatus

Publications (1)

Publication Number Publication Date
JP2011019245A true JP2011019245A (en) 2011-01-27

Family

ID=41032349

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008243436A Active JP4606486B2 (en) 2007-12-28 2008-09-23 Image processing apparatus and photographing apparatus
JP2010173277A Pending JP2011019245A (en) 2007-12-28 2010-08-02 Image processing apparatus and photographing apparatus

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2008243436A Active JP4606486B2 (en) 2007-12-28 2008-09-23 Image processing apparatus and photographing apparatus

Country Status (1)

Country Link
JP (2) JP4606486B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012248001A (en) * 2011-05-27 2012-12-13 Canon Inc Image processing apparatus, image processing method, and program
US10269128B2 (en) 2015-04-16 2019-04-23 Mitsubishi Electric Corporation Image processing device and method, and recording medium

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5478215B2 (en) * 2009-11-25 2014-04-23 オリンパスイメージング株式会社 Image capturing apparatus and method for controlling image capturing apparatus
JP2011130169A (en) * 2009-12-17 2011-06-30 Sanyo Electric Co Ltd Image processing apparatus and photographing device
JP5444026B2 (en) * 2010-02-02 2014-03-19 オリンパスイメージング株式会社 Imaging device
JP2011211291A (en) * 2010-03-29 2011-10-20 Sanyo Electric Co Ltd Image processing apparatus, imaging apparatus and display device
JP5482589B2 (en) * 2010-09-10 2014-05-07 富士通株式会社 Image processing apparatus, image processing method, and image processing program
US9113059B2 (en) 2011-11-30 2015-08-18 Canon Kabushiki Kaisha Image pickup apparatus and image region discrimination method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5903309A (en) * 1996-09-19 1999-05-11 Flashpoint Technology, Inc. Method and system for displaying images and associated multimedia types in the interface of a digital camera
JP2004328132A (en) * 2003-04-22 2004-11-18 Konica Minolta Photo Imaging Inc Image pickup device, image processing device and image processing program
JP4321287B2 (en) * 2004-02-10 2009-08-26 ソニー株式会社 Imaging apparatus, imaging method, and program
JP4610411B2 (en) * 2004-05-17 2011-01-12 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド Method for generating a stylized image of a scene containing objects
JP2007066199A (en) * 2005-09-01 2007-03-15 Canon Inc Image processor and image processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012248001A (en) * 2011-05-27 2012-12-13 Canon Inc Image processing apparatus, image processing method, and program
US10269128B2 (en) 2015-04-16 2019-04-23 Mitsubishi Electric Corporation Image processing device and method, and recording medium

Also Published As

Publication number Publication date
JP2009177782A (en) 2009-08-06
JP4606486B2 (en) 2011-01-05

Similar Documents

Publication Publication Date Title
US8325268B2 (en) Image processing apparatus and photographing apparatus
JP5655667B2 (en) Imaging apparatus, imaging control method, image processing apparatus, image processing method, and program
JP4606486B2 (en) Image processing apparatus and photographing apparatus
KR101303410B1 (en) Image capture apparatus and image capturing method
JP2011041089A (en) Method, device and program for processing image, and imaging device
JP2014096621A (en) Imaging apparatus and imaging method
JP2011091570A (en) Imaging apparatus
JP2011071605A (en) Three-dimensional image pickup apparatus and method
JP2014082533A (en) Image processing apparatus, image processing method and program
JP2010147786A (en) Imaging device and image processing method
JP5256947B2 (en) IMAGING DEVICE, IMAGING METHOD, AND COMPUTER-READABLE RECORDING MEDIUM RECORDING PROGRAM FOR EXECUTING THE METHOD
JP2006245999A (en) Imaging apparatus and program
JP2010178164A (en) Imaging apparatus
WO2016072102A1 (en) Imaging device, imaging method and processing program
JP5105139B2 (en) Imaging apparatus, display method, and program
US9282257B2 (en) Image apparatus and imaging method
JP6706167B2 (en) Imaging device, image synthesizing method, and program
JP5146015B2 (en) Imaging apparatus and imaging method
JP2013192121A (en) Imaging apparatus and imaging method
JP2004328606A (en) Imaging device
JP6197062B2 (en) Imaging device, imaging method, display device, and display method
JP5310331B2 (en) Imaging apparatus and imaging method
JP5903478B2 (en) Imaging apparatus and imaging method
JP5750262B2 (en) Imaging apparatus and imaging method
JP2010147812A (en) Compound-eye camera, and image processing method