JP2007129310A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2007129310A
JP2007129310A JP2005318281A JP2005318281A JP2007129310A JP 2007129310 A JP2007129310 A JP 2007129310A JP 2005318281 A JP2005318281 A JP 2005318281A JP 2005318281 A JP2005318281 A JP 2005318281A JP 2007129310 A JP2007129310 A JP 2007129310A
Authority
JP
Japan
Prior art keywords
image
main subject
extraction
extracting
subject region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005318281A
Other languages
Japanese (ja)
Other versions
JP4645413B2 (en
Inventor
Naoaki Yorita
直晶 寄田
Keiichi Nitta
啓一 新田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2005318281A priority Critical patent/JP4645413B2/en
Publication of JP2007129310A publication Critical patent/JP2007129310A/en
Application granted granted Critical
Publication of JP4645413B2 publication Critical patent/JP4645413B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus for properly extracting a principal object region. <P>SOLUTION: The imaging apparatus combines a method of extracting a publicly known particular color (skin color or the like) region with one of extracting methods not excluded in first to fifth object region extracting methods so as to discriminate the principal object region from within a through-image in the case of discriminating the principal object region. As to the first extracting method, it is excluded from a selection range so as not to use this method when a lighting apparatus is brought into a non-emission state. As to the first to third extracting methods, they are excluded from the selection range so as not to use the methods in the case of a sports photographing mode wherein a motion of an object is expected or in the case that variations of motions between frames in the through-image are detected by a prescribed value or over. As to the fourth extracting method, it is excluded from the selection range so as not to use the method in a state that no difference is recognized in spatial frequency components between prescribed blocks used for compression processing (Fig.6). As to the fifth extracting method, it is excluded from the selection range so as not to use the method in a state that no focused ridge line is detected from in the through-image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、撮影した電子画像から主要被写体を抽出する撮像装置に関する。   The present invention relates to an imaging apparatus that extracts a main subject from a captured electronic image.

35mm版カメラに比べて撮像面積が小さい電子カメラが普及している。このタイプのカメラは実焦点距離が短いため、35mm版カメラの場合と同じF値(光学絞り値)の撮影レンズを用いても、35mm版カメラのように背景をぼかした撮影画像が得られにくい。特許文献1には、画像処理によって画像にぼかしを付加する技術が開示されている。   Electronic cameras that have a smaller imaging area compared to 35 mm cameras have become widespread. Since this type of camera has a short actual focal length, it is difficult to obtain a photographed image with a blurred background like a 35 mm version camera even if a photographing lens having the same F value (optical aperture value) as that of a 35 mm version camera is used. . Patent Document 1 discloses a technique for adding blur to an image by image processing.

特開2003−125281号公報JP 2003-125281 A

特許文献1によれば、画像ぼけを付加する領域(すなわち、主要被写体と異なる背景領域)を使用者が指定する必要があるので、撮影時に手間がかかる。このため、撮像装置が主要被写体領域(もしくは背景領域)を自動的に抽出する技術が望まれる。   According to Patent Document 1, it is necessary for the user to specify an area to which image blur is to be added (that is, a background area different from the main subject). For this reason, a technique is desired in which the imaging apparatus automatically extracts the main subject area (or background area).

請求項1に記載の発明による撮像装置は、被写体像を撮影し、画像信号を出力する撮像素子と、撮影された画像から主要被写体領域を抽出する主要被写体領域抽出手段と、設定されている撮影シーンモードに応じて、複数の異なる抽出方法の中から選択した方法で撮影シーンに適した領域抽出を行うように主要被写体領域抽出手段を制御する制御手段とを備えることを特徴とする。
請求項1に記載の撮像装置において、複数の抽出方法は、照明装置を発光させて撮影された画像と照明装置を発光させないで撮影された画像とを用いて主要被写体領域を抽出する二画像参照方法を含むように構成してよい。制御手段は、被写体を照明する照明装置に非発光を指示する撮影シーンモードが設定されている場合、二画像参照方法を除く他の抽出方法を選択するように主要被写体領域抽出手段を制御することもできる。
請求項3に記載の発明による撮像装置は、被写体像を撮影し、画像信号を出力する撮像素子と、撮影された画像から主要被写体領域を抽出する主要被写体領域抽出手段と、撮影環境に応じて、複数の異なる抽出方法の中から選択した方法で撮影シーンに適した領域抽出を行うように主要被写体領域抽出手段を制御する制御手段とを備えることを特徴とする。
請求項3に記載の撮像装置において、複数の抽出方法は、照明装置を発光させて撮影された画像と照明装置を発光させないで撮影された画像とを用いて主要被写体領域を抽出する二画像参照方法を含むように構成してよい。制御手段は、測光値が所定値以上の場合、二画像参照方法を除く他の抽出方法を選択するように主要被写体領域抽出手段を制御することもできる。
請求項1に記載の撮像装置において、複数の抽出方法は、異なる撮影条件で撮影された二画像を用いて主要被写体領域を抽出する二画像参照方法を含むように構成してよい。制御手段は、動きのある被写体を撮影する撮影シーンモードが設定されているとき、二画像参照方法を除く他の抽出方法を選択するように主要被写体領域抽出手段を制御することもできる。
請求項6に記載の発明による撮像装置は、被写体像を撮影し、画像信号を出力する撮像素子と、撮影された画像から主要被写体領域を抽出する主要被写体領域抽出手段と、撮影画像の解析結果に応じて、複数の異なる抽出方法の中から選択した方法で撮影シーンに適した領域抽出を行うように主要被写体領域抽出手段を制御する制御手段とを備えることを特徴とする。
請求項6に記載の撮像装置において、複数の抽出方法は、異なる撮影条件で撮影された二画像を用いて主要被写体領域を抽出する二画像参照方法を含むように構成してよい。制御手段は、複数フレームの撮影画像から算出されるフレーム間の動きベクトルの向きまたは大きさの偏差が撮影画面を所定数に分割したブロックの全てにおいて各々所定の範囲内にない場合、もしくは動きベクトルの向きまたは大きさの、撮影画面を分割した全ブロックにおけるフレーム間の変化量が所定値以上である場合に、二画像参照方法を除く他の抽出方法を選択するように主要被写体領域抽出手段を制御することもできる。
請求項7に記載の撮像装置において、二画像参照方法は、異なるフォーカス調節状態で撮影された二画像を用いて主要被写体領域を抽出する方法でもよい。
請求項7に記載の撮像装置において、二画像参照方法は、異なる被写界深度状態で撮影された二画像を用いて主要被写体領域を抽出する方法でもよい。
請求項6に記載の撮像装置において、複数の抽出方法は、撮影画像から検出される稜線情報を用いて主要被写体領域を抽出する稜線情報参照方法を含むように構成してよい。制御手段は、撮影画像から稜線が検出されていないとき、稜線情報参照方法を除く他の抽出方法を選択するように主要被写体領域抽出手段を制御することもできる。
請求項10に記載の撮像装置において、稜線情報参照方法は、本撮影前のフォーカス調節時に撮影された予備撮影画像から検出される稜線情報を用いて主要被写体領域を抽出する方法でもよい。
An image pickup apparatus according to a first aspect of the present invention is an image pickup device that picks up a subject image and outputs an image signal, main subject region extraction means that extracts a main subject region from the taken image, and set photographing. And a control unit that controls the main subject region extraction unit so as to perform region extraction suitable for the photographic scene by a method selected from a plurality of different extraction methods according to the scene mode.
The imaging apparatus according to claim 1, wherein the plurality of extraction methods are two-image references that extract a main subject region using an image captured with the illumination device emitting light and an image captured without causing the illumination device to emit light. It may be configured to include a method. The control means controls the main subject area extracting means so as to select an extraction method other than the two-image reference method when a photographing scene mode for instructing non-light emission is set for the illumination device that illuminates the subject. You can also.
According to a third aspect of the present invention, there is provided an imaging device that captures a subject image and outputs an image signal, a main subject region extracting unit that extracts a main subject region from the captured image, and a shooting environment. And a control means for controlling the main subject area extraction means so as to perform area extraction suitable for the photographic scene by a method selected from a plurality of different extraction methods.
4. The image pickup apparatus according to claim 3, wherein the plurality of extraction methods extract a main subject region using an image photographed with the illumination device emitting light and an image photographed without causing the illumination device to emit light. It may be configured to include a method. The control means can also control the main subject region extraction means to select an extraction method other than the two-image reference method when the photometric value is a predetermined value or more.
In the imaging apparatus according to claim 1, the plurality of extraction methods may be configured to include a two-image reference method that extracts a main subject region using two images photographed under different photographing conditions. The control means can also control the main subject region extraction means so as to select an extraction method other than the two-image reference method when a photographing scene mode for photographing a moving subject is set.
An image pickup apparatus according to a sixth aspect of the present invention includes an image pickup device that picks up a subject image and outputs an image signal, main subject region extraction means that extracts a main subject region from the picked-up image, and an analysis result of the picked-up image And a control means for controlling the main subject area extraction means so as to perform area extraction suitable for the photographic scene by a method selected from a plurality of different extraction methods.
The imaging apparatus according to claim 6, wherein the plurality of extraction methods may include a two-image reference method that extracts a main subject region using two images photographed under different photographing conditions. The control means, when the motion vector orientation or magnitude deviation between frames calculated from a plurality of frames of captured images is not within a predetermined range in all of the blocks obtained by dividing the shooting screen into a predetermined number, or a motion vector Main subject region extraction means so as to select an extraction method other than the two-image reference method when the amount of change between frames in all the blocks obtained by dividing the shooting screen of the direction or size of the image is greater than or equal to a predetermined value. It can also be controlled.
The image pickup apparatus according to claim 7, wherein the two-image reference method may be a method of extracting a main subject area using two images taken in different focus adjustment states.
The image pickup apparatus according to claim 7, wherein the two-image reference method may be a method of extracting a main subject region using two images taken at different depths of field.
In the imaging apparatus according to claim 6, the plurality of extraction methods may include a ridge line information reference method that extracts a main subject region using ridge line information detected from a captured image. The control means can also control the main subject region extraction means to select an extraction method other than the ridge line information reference method when no ridge line is detected from the captured image.
In the imaging device according to claim 10, the ridge line information reference method may be a method of extracting a main subject region using ridge line information detected from a pre-captured image captured at the time of focus adjustment before the main photographing.

本発明によれば、主要被写体領域を適切に抽出する撮像装置を提供できる。   According to the present invention, it is possible to provide an imaging apparatus that appropriately extracts a main subject region.

以下、図面を参照して本発明を実施するための最良の形態について説明する。
図1は、本発明の一実施形態による撮像装置の一例を示すブロックダイアグラムである。図1において、撮像装置は、撮像素子1と、撮影レンズ2と、レンズ駆動回路3と、制御回路5と、操作部材7と、撮像素子駆動回路8と、信号処理回路9と、データ処理回路10と、圧縮/伸張回路11と、モニタ13と、表示制御回路14と、測光回路15と、照明装置20とを有し、着脱可能な記録媒体12が装着されている。記録媒体12は、メモリカードなどで構成される。
The best mode for carrying out the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram illustrating an example of an imaging apparatus according to an embodiment of the present invention. In FIG. 1, an imaging device includes an imaging device 1, a photographing lens 2, a lens driving circuit 3, a control circuit 5, an operation member 7, an imaging device driving circuit 8, a signal processing circuit 9, and a data processing circuit. 10, a compression / expansion circuit 11, a monitor 13, a display control circuit 14, a photometry circuit 15, and an illumination device 20, and a detachable recording medium 12 is mounted. The recording medium 12 is composed of a memory card or the like.

撮影レンズ2は撮影光学系を構成する複数枚数のレンズ群で構成され、撮像素子1の撮像面上に被写体像を結像させる。撮影レンズ2は不図示のフォーカスレンズを含み、レンズ駆動回路3がフォーカスレンズを光軸方向に進退駆動することにより、撮影レンズ2のフォーカス調節が行われる。また、撮影レンズ2は不図示のズームレンズを含み、レンズ駆動回路3がズームレンズを光軸方向に進退駆動することにより、撮影レンズ2のズーム調節が行われる。レンズ駆動回路3は、制御回路5から出力されるレンズ駆動指令に応じてレンズ駆動信号を発生し、発生したレンズ駆動信号で不図示のレンズ駆動機構を駆動することにより、各レンズを移動させる。   The taking lens 2 is composed of a plurality of lens groups constituting a taking optical system, and forms a subject image on the image pickup surface of the image pickup device 1. The photographic lens 2 includes a focus lens (not shown), and the lens driving circuit 3 drives the focus lens to move back and forth in the optical axis direction, thereby adjusting the focus of the photographic lens 2. The photographing lens 2 includes a zoom lens (not shown), and the lens driving circuit 3 drives the zoom lens to move back and forth in the optical axis direction, thereby adjusting the zoom of the photographing lens 2. The lens driving circuit 3 generates a lens driving signal in accordance with a lens driving command output from the control circuit 5, and moves each lens by driving a lens driving mechanism (not shown) with the generated lens driving signal.

撮像素子1は、静止画像の単写撮像とともに、静止画像の連続撮像、および動画像の撮像が可能である。撮像素子1は、例えばCCD撮像素子あるいはCMOS型撮像素子などによって構成される。   The image sensor 1 can capture a still image as well as continuous images of a still image and a moving image. The image sensor 1 is configured by, for example, a CCD image sensor or a CMOS image sensor.

撮像素子駆動回路8は、制御回路5から出力される指令に応じて所定タイミングの駆動信号を発生し、発生した駆動信号を撮像素子1へ供給する。撮像素子1は、供給された駆動信号によって電荷蓄積(撮像)や蓄積電荷の読み出しが制御される。制御回路5は、測光回路15による被写体の測光データを用いて明るさ情報を求め、明るさ情報に基づいて撮像素子1の電荷蓄積時間などを決定する。   The image sensor drive circuit 8 generates a drive signal at a predetermined timing in response to a command output from the control circuit 5 and supplies the generated drive signal to the image sensor 1. The image sensor 1 controls charge accumulation (imaging) and reading of accumulated charge by the supplied drive signal. The control circuit 5 obtains brightness information using the photometric data of the subject from the photometric circuit 15 and determines the charge accumulation time of the image sensor 1 based on the brightness information.

撮像素子1から読み出された画像信号は、信号処理回路9へ入力される。信号処理回路9は、制御回路5からの指令に応じて入力信号に対する増幅、直流再生、A/D変換、ホワイトバランス、およびガンマ変換等の信号処理を施し、信号処理後のデータを画像データとしてデータ処理回路10へ出力する。   The image signal read from the image sensor 1 is input to the signal processing circuit 9. The signal processing circuit 9 performs signal processing such as amplification, direct current reproduction, A / D conversion, white balance, and gamma conversion on the input signal in accordance with a command from the control circuit 5, and the data after the signal processing is used as image data. Output to the data processing circuit 10.

データ処理回路10は、制御回路5からの指令に応じて、モニタ13に再生画像を表示させるために必要な解像度変換(画素数変換)処理を画像データに施し、解像度変換処理後の画像データを圧縮/伸張回路11および表示制御回路14へそれぞれ出力する。   In response to a command from the control circuit 5, the data processing circuit 10 performs resolution conversion (pixel number conversion) processing necessary for displaying a reproduced image on the monitor 13 on the image data, and the image data after the resolution conversion processing is processed. The data is output to the compression / decompression circuit 11 and the display control circuit 14, respectively.

表示制御回路14は、制御回路5からの指令に応じて、データ処理回路10から入力される画像データに所定の信号処理を施してモニタ13へ出力する。表示制御回路14はさらに、上記画像データに撮影メニュー、カーソルなどのオーバーレイ画像データを重畳する処理を行う。これにより、オーバーレイ画像が重畳された被写体画像がモニタ13に表示される。   In response to a command from the control circuit 5, the display control circuit 14 performs predetermined signal processing on the image data input from the data processing circuit 10 and outputs it to the monitor 13. The display control circuit 14 further performs processing for superimposing overlay image data such as a shooting menu and a cursor on the image data. Thereby, the subject image on which the overlay image is superimposed is displayed on the monitor 13.

圧縮/伸張回路11は、制御回路5からの指令に応じて、データ処理回路10から入力される画像データに所定の形式で圧縮処理を施し、圧縮後のデータを記録媒体12へ記録する。撮影時に記録媒体12へ画像データを記録する場合、記録する画像データに対応する再生画像がモニタ13に表示される。   The compression / decompression circuit 11 performs a compression process on the image data input from the data processing circuit 10 in a predetermined format in response to a command from the control circuit 5, and records the compressed data on the recording medium 12. When image data is recorded on the recording medium 12 during shooting, a reproduced image corresponding to the image data to be recorded is displayed on the monitor 13.

なお、記録媒体12に記録されている画像データによる再生画像をモニタ13に表示することも可能に構成される。この場合の圧縮/伸張回路11は、制御回路5からの指令に応じて記録媒体12に記録されている画像データを読み出し、読み出しデータに対して復号化(伸張)処理を施した上で復号化後のデータをデータ処理回路10へ送る。再生時にデータ処理回路10が復号化データに解像度変換処理を施して表示制御回路14へ出力することにより、再生画像がモニタ13に表示される。   Note that it is also possible to display a reproduced image based on the image data recorded on the recording medium 12 on the monitor 13. In this case, the compression / decompression circuit 11 reads the image data recorded on the recording medium 12 in accordance with a command from the control circuit 5, performs decoding (decompression) processing on the read data, and then performs decoding. The subsequent data is sent to the data processing circuit 10. During reproduction, the data processing circuit 10 performs resolution conversion processing on the decoded data and outputs it to the display control circuit 14, whereby a reproduced image is displayed on the monitor 13.

照明装置20は、撮影時に制御回路5からの発光指示に応じて指示された光量で発光し、主要被写体を照明する。撮像装置は、照明装置20の発光を禁止する設定が行われている場合、撮影シーンモードがミュージアムモードに設定されている場合、および照明装置20の発光が禁止されていない状態で測光値(測光回路15による測光データから得られる明るさ情報)が所定値以上の場合のいずれかに該当する場合は、撮影時に照明装置20を発光させない。撮像装置は、上記いずれにも該当しない場合は、撮影時に照明装置20を発光させる。ここで、ミュージアムモードは照明発光が禁じられた室内での撮影に適した撮影シーンモードである。照明装置20に対して発光を指示する/しないの判定は制御回路5が行う。   The illuminating device 20 emits light with a light amount instructed according to a light emission instruction from the control circuit 5 at the time of photographing, and illuminates the main subject. The imaging device is set to a photometric value (photometric value) when the setting for prohibiting the light emission of the illumination device 20 is performed, when the photographing scene mode is set to the museum mode, and when the light emission of the illumination device 20 is not prohibited. When the brightness information obtained from the photometric data by the circuit 15) is equal to or greater than a predetermined value, the illumination device 20 is not caused to emit light during photographing. If none of the above applies, the imaging device causes the illumination device 20 to emit light during shooting. Here, the museum mode is a shooting scene mode suitable for shooting in a room where light emission is prohibited. The control circuit 5 determines whether or not to instruct the lighting device 20 to emit light.

操作部材7はレリーズ釦や撮影シーンモード設定ダイアルなどを含み、操作内容に応じた操作信号を制御回路5へ出力する。制御回路5は、レリーズ釦の押下操作に基づくレリーズ操作信号が操作部材7から入力されると、撮像素子1から読み出される画像信号の中で、撮像画面内にあらかじめ設定されているフォーカス検出領域に対応する信号を用いて周知のコントラスト方式のAF(オートフォーカス)動作を行う。   The operation member 7 includes a release button, a shooting scene mode setting dial, and the like, and outputs an operation signal corresponding to the operation content to the control circuit 5. When a release operation signal based on the pressing operation of the release button is input from the operation member 7, the control circuit 5 sets a focus detection area set in advance in the imaging screen in the image signal read from the imaging device 1. A known contrast AF (autofocus) operation is performed using the corresponding signal.

具体的には、信号処理回路9によって信号処理された画像データのうち、フォーカス検出領域に対応するデータについての高域空間周波数成分の積算値(いわゆる焦点評価値)を最大にするように、レンズ駆動指令(フォーカス調節信号)をレンズ駆動回路3へ送る。焦点評価値を最大にするフォーカスレンズの位置は、撮像素子1によって撮像される被写体像のエッジのぼけをなくし、画像のコントラストを最大にする(尖鋭度を高める)合焦位置である。   Specifically, the lens is set so that the integrated value (so-called focus evaluation value) of the high-frequency spatial frequency component for the data corresponding to the focus detection area among the image data processed by the signal processing circuit 9 is maximized. A drive command (focus adjustment signal) is sent to the lens drive circuit 3. The position of the focus lens that maximizes the focus evaluation value is a focus position that eliminates blurring of the edge of the subject image captured by the image sensor 1 and maximizes the contrast of the image (increases sharpness).

本実施の形態では、撮像レンズ2内のフォーカスレンズを移動しながら順次得られる画像データ(映像信号)を撮影画面内の複数のフォーカス検出領域ごとに解析し、各領域に対応する画像のコントラスト値を最大にするフォーカスレンズ位置をもとに、各領域に位置する被写体の(相対的な)撮影距離を取得可能に構成されている。   In the present embodiment, image data (video signal) sequentially obtained while moving the focus lens in the imaging lens 2 is analyzed for each of a plurality of focus detection areas in the shooting screen, and the contrast value of the image corresponding to each area is analyzed. The (relative) shooting distance of the subject located in each area can be acquired based on the focus lens position that maximizes the angle.

なお、上記コントラスト方式のAF動作に加えて、公知の瞳分割方式による位相差AF動作を行うように構成してもよい。この場合にも、各領域に位置する被写体の撮影距離を得ることができる。   In addition to the contrast AF operation, a phase difference AF operation by a known pupil division method may be performed. Also in this case, the shooting distance of the subject located in each region can be obtained.

操作部材7はズーム操作部材も含む。制御回路5は、ズーム操作に基づくズーム操作信号が操作部材7から入力されると上述したレンズ駆動指令を発生し、レンズ駆動回路3にズームレンズを進退駆動させる。これにより、撮像素子1の撮像面上に結像される被写体像が拡大もしくは縮小し、光学的にズーム調節される。   The operation member 7 also includes a zoom operation member. When a zoom operation signal based on a zoom operation is input from the operation member 7, the control circuit 5 generates the lens drive command described above, and causes the lens drive circuit 3 to drive the zoom lens forward and backward. Thereby, the subject image formed on the imaging surface of the imaging device 1 is enlarged or reduced, and the zoom is optically adjusted.

制御回路5はさらに、ズーム操作に基づくズーム操作信号が操作部材7から入力されるとデータ処理回路10へ指令を出力し、画像信号に対する解像度変換(画素数変換)処理の変換比率を操作信号に応じて変化させる。これにより、モニタ13に再生表示される画像が拡大もしくは縮小し、電気的にズーム調節される(電子ズーム)。解像度変換比率は電子ズーム倍率に対応する。データ処理回路10が電子ズーム倍率を高める方向に変換比率を変える場合、再生画像の一部が拡大されてモニタ13に表示される(拡大率が上がる反面、再生画像の表示範囲は狭くなる)。反対に、データ処理回路10が電子ズーム倍率を低くする方向に変換比率を変える場合、モニタ13に表示される再生画像の拡大率が下がる反面、再生画像の表示範囲は広くなる。   Further, when a zoom operation signal based on the zoom operation is input from the operation member 7, the control circuit 5 outputs a command to the data processing circuit 10 and uses the conversion ratio of the resolution conversion (pixel number conversion) processing for the image signal as the operation signal. Change accordingly. Thereby, the image reproduced and displayed on the monitor 13 is enlarged or reduced, and the zoom is electrically adjusted (electronic zoom). The resolution conversion ratio corresponds to the electronic zoom magnification. When the data processing circuit 10 changes the conversion ratio in the direction of increasing the electronic zoom magnification, a part of the reproduced image is enlarged and displayed on the monitor 13 (while the enlargement ratio is increased, the display range of the reproduced image is narrowed). On the contrary, when the data processing circuit 10 changes the conversion ratio in the direction of decreasing the electronic zoom magnification, the enlargement ratio of the reproduced image displayed on the monitor 13 is lowered, but the display range of the reproduced image is widened.

撮像装置が行うスルー画撮影動作と静止画本撮影動作について説明する。スルー画撮影は、本撮影の前段階として行われる予備撮影であり、本撮影は、レリーズ全押し操作信号(撮影指示)に応じて行われる撮影である。   A through image shooting operation and a still image book shooting operation performed by the imaging apparatus will be described. Through image shooting is preliminary shooting performed as a pre-stage of main shooting, and main shooting is shooting performed in response to a release full-press operation signal (shooting instruction).

<スルー画撮影動作>
本実施形態の撮像装置は、操作部材7からレリーズ釦の半押し操作に基づく半押し操作信号が制御回路5へ入力されると、上述したAF動作とスルー画撮影動作を開始する。スルー画撮影動作は、半押し操作信号の入力が継続されている間に所定のフレームレートで繰り返し行われる。
<Through image shooting operation>
When the half-pressing operation signal based on the half-pressing operation of the release button is input from the operation member 7 to the control circuit 5, the imaging apparatus according to the present embodiment starts the AF operation and the through image photographing operation described above. The through image shooting operation is repeatedly performed at a predetermined frame rate while the input of the half-press operation signal is continued.

制御回路5は、操作部材7からの半押し操作信号を検出すると撮像素子駆動回路8へ指示を送り、スルー画撮影動作を実行するための駆動信号を出力させる。撮像素子1は、スルー画撮影動作のための駆動信号を受けて、例えば、30フレーム/秒の高フレームレートで蓄積電荷を連続的に出力する。スルー画撮影用の露出条件は測光回路15による測光データに基づいて決定される。信号処理回路9は、入力された信号に上述した信号処理を施すとともに、撮像素子1上において近傍に位置する同色画素(単板カラーの撮像素子の場合)の信号を加算し、本撮影時に比べて低解像度の映像信号としてデータ処理回路10へ出力する。   When the control circuit 5 detects a half-press operation signal from the operation member 7, it sends an instruction to the image sensor drive circuit 8 to output a drive signal for executing a through image photographing operation. The imaging device 1 receives a drive signal for a through image shooting operation and continuously outputs accumulated charges at a high frame rate of, for example, 30 frames / second. The exposure conditions for through image shooting are determined based on the photometric data from the photometric circuit 15. The signal processing circuit 9 performs the above-described signal processing on the input signal and adds the signals of the same color pixels (in the case of a single-plate color image sensor) located in the vicinity on the image sensor 1, compared with the time of actual photographing. And output to the data processing circuit 10 as a low resolution video signal.

データ処理回路10が解像度変換処理を施した画像信号を表示制御回路14へ出力することにより、スルー画像がモニタ13に表示される。これにより、撮影者は、これから本撮影しようとする被写界の状態をモニタ13の画面で観察することができる。   The data processing circuit 10 outputs an image signal subjected to resolution conversion processing to the display control circuit 14, whereby a through image is displayed on the monitor 13. As a result, the photographer can observe the state of the object scene to be photographed from now on the screen of the monitor 13.

<静止画本撮影動作>
スルー画撮影動作に続いてレリーズ釦が全押し操作されると、全押し操作信号が制御回路5へ入力される。撮像装置は、全押し操作信号に応じて静止画本撮影動作を開始する。
<Still image shooting>
When the release button is fully pressed following the through image shooting operation, a full press operation signal is input to the control circuit 5. The imaging device starts a still image book shooting operation in response to the full-press operation signal.

制御回路5は、操作部材7からの全押し操作信号を検出すると撮像素子駆動回路8へ指示を送り、本撮影動作を実行するための駆動信号を出力させる。撮像素子1は、本撮影動作のための駆動信号を受けて、露出演算結果に基づく本撮影用の電荷蓄積を行って蓄積電荷を出力する。本撮影用の露出条件は、直近のスルー画データの信号値から得られる明るさの情報に基づいて決定される。信号処理回路9は入力された信号に上述した信号処理を施し、スルー画撮影時に比べて高解像度の画像信号としてデータ処理回路10へ出力する。   When the control circuit 5 detects the full-press operation signal from the operation member 7, it sends an instruction to the image sensor drive circuit 8 to output a drive signal for executing the main photographing operation. The image sensor 1 receives a drive signal for the main photographing operation, accumulates the main photographing charge based on the exposure calculation result, and outputs the accumulated charge. The exposure condition for the main photographing is determined based on the brightness information obtained from the signal value of the latest live view image data. The signal processing circuit 9 performs the above-described signal processing on the input signal, and outputs it to the data processing circuit 10 as an image signal having a higher resolution than when a through image is captured.

データ処理回路10が解像度変換(画素数変換)処理を施した画像信号を表示制御回路14へ出力することにより、本撮影画像がモニタ13に表示される。また、圧縮/伸張回路11によって圧縮処理された画像データが記録媒体12へ記録される。   The data processing circuit 10 outputs an image signal subjected to resolution conversion (pixel number conversion) processing to the display control circuit 14, whereby the actual captured image is displayed on the monitor 13. The image data compressed by the compression / decompression circuit 11 is recorded on the recording medium 12.

<ぼけ付加処理>
電気的なぼかしを画像に付加する(すなわち、画像にぼかしを加える)動作について説明する。画像に対して電気的にぼかしを加える(以後、画像ぼけの付加と呼ぶ)とは、画像処理によって画像を加工し、擬似的にピントを外した画像を生成するものである。本実施形態による撮像装置では、画像データにローパスフィルタ(LPF)処理を施して画像の高域空間周波数成分を劣化させることにより、画像のエッジを不鮮明にし、画像のコントラストを低下させる。
<Blur addition processing>
An operation of adding electrical blur to an image (that is, adding blur to an image) will be described. The process of electrically blurring an image (hereinafter referred to as adding an image blur) is to process an image by image processing and generate a pseudo-focused image. In the imaging apparatus according to the present embodiment, the image data is subjected to low-pass filter (LPF) processing to degrade the high-frequency spatial frequency component of the image, thereby blurring the edge of the image and lowering the contrast of the image.

撮像装置は、撮影シーンモードがポートレートモードおよびマクロモードのいずれかに設定されている場合に画像ぼけの付加(および付加内容の変更)が許可され、撮影シーンモードが遠景モードに設定されている場合には画像ぼけの付加(および付加内容の変更)が禁止される。ここで、ポートレートモードは人物を主要被写体とする撮影モード、マクロモードは近接撮影を行う撮影モード、遠景モードは風景を被写体とする撮影モードである。許可および禁止の判定は制御回路5が行う。ポートレートモードおよびマクロモードに設定されている場合には、後述する主要被写体領域の抽出処理が行われ、背景領域に画像ぼけの付加が行われる。一方、遠景モードに設定されている場合には、主要被写体領域の抽出処理は行われない。   The imaging apparatus is permitted to add image blur (and change the added content) when the shooting scene mode is set to either portrait mode or macro mode, and the shooting scene mode is set to the distant view mode. In such a case, addition of image blur (and change of the added content) is prohibited. Here, the portrait mode is a shooting mode in which a person is a main subject, the macro mode is a shooting mode in which close-up shooting is performed, and the distant view mode is a shooting mode in which a landscape is a subject. The control circuit 5 determines whether to permit or prohibit. When the portrait mode and the macro mode are set, a main subject region extraction process described later is performed, and an image blur is added to the background region. On the other hand, when the distant view mode is set, the extraction process of the main subject area is not performed.

また、撮影シーンモードが夜景ポートレートモードに設定されている場合であって、画像の背景領域に所定レベル以上の明るさを有する領域が存在する場合にも、撮像装置は画像ぼけの付加(および付加内容の変更)が許可される。一方、画像の背景領域に所定レベル以上の明るさを有する領域が存在しない場合には、画像ぼけの付加(および付加内容の変更)が禁止され、後述する主要被写体領域の抽出処理は行われない。画像の背景領域に所定レベル以上の明るさ領域が存在するか否かは、データ処理回路10へ入力されたスルー画用の映像信号を用いて判定される。   In addition, when the shooting scene mode is set to the night scene portrait mode, and there is an area having a brightness of a predetermined level or more in the background area of the image, the imaging apparatus adds image blur (and Change of additional contents) is permitted. On the other hand, when there is no area having brightness of a predetermined level or more in the background area of the image, addition of image blur (and change of the added content) is prohibited, and extraction processing of a main subject area described later is not performed. . Whether or not a brightness area of a predetermined level or more exists in the background area of the image is determined using a video signal for a through image input to the data processing circuit 10.

制御回路5は、上述した画像ぼけの付加(および付加内容の変更)を禁止する場合、少なくとも撮影時において禁止すれば、再生時には許可するように構成してよい。   The control circuit 5 may be configured to prohibit the above-described image blur addition (and change of the added content), at least at the time of shooting, and to allow at the time of reproduction.

本発明は、以上説明した撮像装置が画像ぼけを付加する領域を決定する処理に特徴を有する。制御回路5が画像ぼけを付加する撮影処理の流れについて、図2のフローチャートを参照して説明する。図2による撮影処理は、画像ぼけの付加(および付加内容の変更)が許可された場合に起動する。   The present invention is characterized in the process of determining an area to which image blur is added by the imaging apparatus described above. A flow of photographing processing in which the control circuit 5 adds image blur will be described with reference to a flowchart of FIG. The imaging process according to FIG. 2 is started when the addition of image blur (and the change of the added content) is permitted.

図2のステップS101において、制御回路5はレリーズ釦が半押し操作されたか否かを判定する。制御回路5は、操作部材7(レリーズ釦)から半押し操作信号が入力されるとステップS101を肯定判定してステップS102へ進み、半押し操作信号が入力されない場合にはステップS101を否定判定し、当該判定処理を繰り返す。   In step S101 in FIG. 2, the control circuit 5 determines whether or not the release button has been pressed halfway. When a half-press operation signal is input from the operation member 7 (release button), the control circuit 5 makes an affirmative determination in step S101 and proceeds to step S102. If no half-press operation signal is input, the control circuit 5 makes a negative determination in step S101. The determination process is repeated.

ステップS102において、制御回路5は、露出モードを絞り優先オートモードに設定するとともに、上述したスルー画撮影動作を開始させてステップS103へ進む。絞り優先オートモードにすることで、現時点で設定されている絞り値で撮影が行われる。   In step S102, the control circuit 5 sets the exposure mode to the aperture priority auto mode, starts the above-described through image photographing operation, and proceeds to step S103. By setting the aperture priority auto mode, shooting is performed with the currently set aperture value.

ステップS103において、制御回路5は、スルー画用の映像信号から主要被写体の抽出処理を行ってステップS104へ進む。主要被写体を抽出する処理の詳細については後述する。   In step S103, the control circuit 5 performs a main subject extraction process from the video signal for the through image, and proceeds to step S104. Details of the process of extracting the main subject will be described later.

ステップS104において、制御回路5は、スルー画用の映像信号のうち、ステップS103で抽出した主要被写体以外の領域(すなわち背景領域)に対する画像ぼけの付加をデータ処理回路10へ指示し、ステップS105へ進む。データ処理回路10が画像ぼけの付加および解像度変換処理を施した信号を表示制御回路14へ出力することにより、画像ぼけが付加された画像がモニタ13に表示される。   In step S104, the control circuit 5 instructs the data processing circuit 10 to add image blur to the region other than the main subject extracted in step S103 (ie, the background region) in the through image video signal, and then proceeds to step S105. move on. The data processing circuit 10 outputs a signal subjected to image blur addition and resolution conversion processing to the display control circuit 14, whereby an image with image blur added is displayed on the monitor 13.

データ処理回路10は、入力されるスルー画像のデータのうち背景領域に対応するデータに対してLPF処理を施すことによって画像ぼけを付加する。LPF処理の特性(フィルタの段数、遮断周波数など)は、フォーカス検出領域で取得されている距離情報に応じて変化させる。具体的には、主要被写体領域内のフォーカス検出領域で取得されている撮影距離と、背景領域内のフォーカス検出領域で取得されている撮影距離とを比較し、両者間の撮影距離の乖離が大きいほど遮断周波数を低くする。この結果、主要被写体の撮影距離との差が大きい背景領域ほど、強いぼけ効果が付加される。   The data processing circuit 10 adds image blur by performing LPF processing on the data corresponding to the background region of the input through image data. The characteristics of LPF processing (the number of filter stages, cutoff frequency, etc.) are changed according to the distance information acquired in the focus detection area. Specifically, the shooting distance acquired in the focus detection area in the main subject area is compared with the shooting distance acquired in the focus detection area in the background area, and the difference in shooting distance between the two is large. The cutoff frequency is lowered. As a result, a stronger blur effect is added to the background area having a larger difference from the shooting distance of the main subject.

なお、データ処理回路10にLPF処理を行わせる代わりに、点拡がり関数を用いた畳み込み演算処理を行わせてもよい。   Instead of causing the data processing circuit 10 to perform LPF processing, convolution calculation processing using a point spread function may be performed.

ステップS105において、制御回路5は、撮影画面全体に動きがあるか否かを判定する。制御回路5は、スルー画撮影によって1/30秒ごとに取得される複数フレームのスルー画像データから算出されるフレーム間の動きベクトルの大きさ、向きの偏差(ばらつき)が、撮影画面の全体で(撮影画面を所定数に分割したブロックの全てにおいて)各々所定の範囲内にあり、かつ撮影画面内の動きベクトルの大きさの平均値が所定の値より大きい場合にステップS105を肯定判定し、ステップS106へ進む。   In step S105, the control circuit 5 determines whether or not there is a movement in the entire shooting screen. The control circuit 5 determines the magnitude and direction deviation (variation) of the motion vectors between frames calculated from the through image data of a plurality of frames acquired every 1/30 seconds by the through image shooting on the entire shooting screen. Affirmative determination is made in step S105 when each is within a predetermined range (in all blocks obtained by dividing the shooting screen into a predetermined number) and the average value of the motion vectors in the shooting screen is greater than a predetermined value; Proceed to step S106.

一方、制御回路5は、複数フレームのスルー画像データから算出されるフレーム間の動きベクトルの大きさの撮影画面内の平均値が所定の値以下の場合、あるいは撮影画面内の動きベクトルの大きさ、向きの偏差が撮影画面の全ブロックにわたり所定の範囲内にあると判定されなかった場合にはステップS105を否定判定し、ステップS107へ進む。ステップS107において、制御回路5は、一部の被写体に動きがあるか否かを判定する。制御回路5は、スルー画撮影によって1/30秒ごとに取得される複数フレームのスルー画像データから算出されるフレーム間の動きベクトルの向き、大きさの偏差が撮影画面内の全ブロックにわたり所定の範囲内にないと判定された場合にはステップS107を肯定判定し、ステップS108へ進む。   On the other hand, when the average value of the motion vectors between frames calculated from the through image data of a plurality of frames is equal to or less than a predetermined value, the control circuit 5 or the size of the motion vector in the shooting screen If it is not determined that the deviation in the direction is within the predetermined range over all the blocks of the shooting screen, a negative determination is made in step S105, and the process proceeds to step S107. In step S107, the control circuit 5 determines whether or not some of the subjects have movement. The control circuit 5 determines the deviation of the direction and size of the motion vector between frames calculated from the through image data of a plurality of frames acquired every 1/30 seconds by through image shooting over all the blocks in the shooting screen. If it is determined that it is not within the range, an affirmative determination is made in step S107 and the process proceeds to step S108.

ステップS106へ進む場合は、撮像装置の動きに起因する撮影範囲の移動があったと判定する。制御回路5は、ステップS106において、画像ぼけを付加する対象領域(背景領域)を動きベクトルの向き、大きさに応じて移動させてステップS109へ進む。ここで、撮影範囲の移動にともなって新たに撮影範囲に加わった領域に対しては、撮影範囲が移動する前のフレームの画面端において付加されていたぼけ量と同等のぼけを付加する(同様のLPF処理を施す)。画像ぼけを付加する対象領域の移動は、リアルタイムでモニタ13の表示画像に反映される。   When the process proceeds to step S106, it is determined that there has been a movement of the photographing range due to the movement of the imaging device. In step S106, the control circuit 5 moves the target region (background region) to which the image blur is to be added according to the direction and size of the motion vector, and proceeds to step S109. Here, a blur equivalent to the blur amount added at the screen edge of the frame before the moving of the shooting range is added to the area newly added to the shooting range as the shooting range moves (similarly). Of LPF treatment). The movement of the target area to which image blur is added is reflected in the display image of the monitor 13 in real time.

なお、撮影範囲の移動にともなって新たに撮影範囲に加わった領域に対するぼけ付加量を、撮影範囲が移動する前に付加していた撮影画面内のぼけ量の分布から外挿演算によって算出し、算出したぼけ量を付加する構成としても構わない。この場合にも、画像ぼけを付加する対象領域の移動はリアルタイムでモニタ13の表示画像に反映される。   The amount of blur added to the area newly added to the shooting range with the movement of the shooting range is calculated by extrapolation from the distribution of the blur amount in the shooting screen added before the shooting range moves, The calculated blur amount may be added. Also in this case, the movement of the target area to which the image blur is added is reflected on the display image of the monitor 13 in real time.

一方、制御回路5は、スルー画撮影によって1/30秒ごとに取得される複数フレームのスルー画像データから算出されるフレーム間の動きベクトルの変化が、上記所定数の分割ブロックのいずれでも検出されない場合にはステップS107を否定判定し、ステップS109へ進む。この場合は、画像ぼけを付加する対象領域を変更しないでステップS109へ進む。   On the other hand, the control circuit 5 does not detect any change in the motion vector between frames calculated from through-image data of a plurality of frames acquired every 1/30 seconds by through-image shooting in any of the predetermined number of divided blocks. In this case, a negative determination is made in step S107, and the process proceeds to step S109. In this case, the process proceeds to step S109 without changing the target area to which the image blur is added.

ステップS108へ進む場合は、撮影画面内の一部被写体について動きがあったと判定する。制御回路5は、ステップS108において、動きを検出した分割ブロックにおける動きベクトルの向き、大きさに応じて、画像ぼけを付加する対象領域(一部被写体に対応する領域)を移動させてステップS109へ進む。   When the process proceeds to step S108, it is determined that there is a movement for a part of the subject in the shooting screen. In step S108, the control circuit 5 moves the target area (area corresponding to a part of the subject) to which the image blur is to be added according to the direction and size of the motion vector in the divided block in which the motion is detected, and then proceeds to step S109. move on.

図3は、時刻T0、T1およびT2のそれぞれにおいて取得されたスルー画像を例示する図である。時刻T1の現フレーム画面の中で、動きを検出した一部被写体の領域O1に付加するぼけ量は、一部被写体が移動する前のフレーム画面(時刻T0)において当該一部被写体の領域O0に付加されていたぼけ量と同等とし、領域O0の位置に対応する現フレーム画面(時刻T1)内の領域Pに付加するぼけ量は、領域Pの周囲に対して付加するぼけ量の分布から補間処理によって算出する。画像ぼけを付加する対象領域の移動は、リアルタイムでモニタ13の表示画像に反映される。   FIG. 3 is a diagram illustrating through images acquired at times T0, T1, and T2. In the current frame screen at time T1, the amount of blur added to the partial subject area O1 in which the motion has been detected is the same as the partial subject area O0 in the frame screen (time T0) before the partial subject moves. The amount of blur to be added to the region P in the current frame screen (time T1) corresponding to the position of the region O0 is interpolated from the distribution of the amount of blur added to the periphery of the region P. Calculate by processing. The movement of the target area to which image blur is added is reflected in the display image of the monitor 13 in real time.

一部被写体が移動する前に存在していた領域に対するぼけ付加量について、以下のように決定してもよい。すなわち、現フレームを時刻T2とすると、現フレーム画面の中で動きを検出した一部被写体の領域O2に付加するぼけ量は、一部被写体が移動する前のフレーム画面(時刻T1)において当該一部被写体の領域O1に付加されていたぼけ量と同等とし、領域O1の位置に対応する現フレーム画面(時刻T2)内の領域Qに付加するぼけ量は、さらに前(一部被写体が移動してくる前)のフレーム画面(時刻T0)において対応する領域Rに付加されていたぼけ量と同等とする。   You may determine as follows about the blur addition amount with respect to the area | region which existed before the one subject moved. That is, assuming that the current frame is time T2, the amount of blur added to the area O2 of the partial subject whose movement has been detected in the current frame screen is the same as that in the frame screen (time T1) before the partial subject moves. The blur amount added to the area Q in the current frame screen (time T2) corresponding to the position of the area O1 is set to be the same as the blur amount added to the area O1 of the partial subject. The blur amount added to the corresponding region R in the previous frame screen (time T0) is the same.

ステップS109において、制御回路5は、画像ぼけの付加量の変更操作が行われたか否かを判定する。制御回路5は、ぼけ量変更操作信号が操作部材7から入力された場合にステップS109を肯定判定してステップS110へ進み、ぼけ量変更操作信号が入力されない場合にはステップS109を否定判定してステップS111へ進む。ぼけ量変更操作は、モニタ13の画面上で特定領域について指定して行われる変更操作と、画面全体について共通に行われる変更操作とのいずれも可能に構成されている。もちろん、各被写体の撮影距離や時間などに応じてぼけ量を自動的に変更するものであってもよい。   In step S109, the control circuit 5 determines whether or not an operation for changing the image blur addition amount has been performed. The control circuit 5 makes an affirmative determination in step S109 when a blur amount change operation signal is input from the operation member 7, and proceeds to step S110. If a blur amount change operation signal is not input, the control circuit 5 makes a negative determination in step S109. Proceed to step S111. The blur amount changing operation is configured to be capable of both a changing operation performed by designating a specific area on the screen of the monitor 13 and a changing operation performed in common for the entire screen. Of course, the blur amount may be automatically changed according to the shooting distance or time of each subject.

ステップS110において、制御回路5は、変更操作信号に応じてLPF処理の特性を変更するようにデータ処理回路10へ指示してステップS111へ進む。これにより、付加されるぼけ量が変更される。なお、LPF処理の代わりに畳み込み演算処理を行う場合には、変更操作信号に応じて点拡がり関数を変更する。ぼけ量変更後の画像は、リアルタイムでモニタ13に表示される。   In step S110, the control circuit 5 instructs the data processing circuit 10 to change the characteristics of the LPF process according to the change operation signal, and proceeds to step S111. Thereby, the amount of blur added is changed. In addition, when performing a convolution operation process instead of the LPF process, the point spread function is changed according to the change operation signal. The image after the blur amount change is displayed on the monitor 13 in real time.

ステップS111において、制御回路5はレリーズ釦が半押し操作されているか否かを判定する。制御回路5は、操作部材7から半押し操作信号が継続して入力されている場合、ステップS111を肯定判定してステップS112へ進む。一方、半押し操作信号が入力されていない場合の制御回路5は、ステップS111を否定判定して画像ぼけの付加を解除し、ステップS101へ戻る。   In step S111, the control circuit 5 determines whether or not the release button is half-pressed. When the half-press operation signal is continuously input from the operation member 7, the control circuit 5 makes an affirmative decision in step S111 and proceeds to step S112. On the other hand, the control circuit 5 when the half-press operation signal is not input cancels the addition of image blur by making a negative determination in step S111 and returns to step S101.

レリーズ釦の半押し操作の有無に関係なく、メインスイッチのオン時にスルー画撮影動作を繰り返すように設定されている撮像装置の場合は、上記ステップS111を否定判定してステップS101へ戻ってから次に半押し操作信号が入力されるまでの間、画像ぼけを付加しないスルー画像をモニタ13に表示する。   Regardless of whether the release button is half-pressed or not, in the case of an image pickup apparatus that is set to repeat the through image shooting operation when the main switch is turned on, a negative determination is made in step S111 and the process returns to step S101. Until the half-press operation signal is input, a through image without image blur is displayed on the monitor 13.

ステップS112において、制御回路5はレリーズ釦が全押し操作されたか否かを判定する。制御回路5は、操作部材7から全押し操作信号が入力された場合、ステップS112を肯定判定してステップS113へ進み、全押し操作信号が入力されない場合にはステップS112を否定判定し、ステップS105へ戻る。   In step S112, the control circuit 5 determines whether or not the release button has been fully pressed. The control circuit 5 makes an affirmative decision in step S112 when a full-press operation signal is input from the operation member 7, and proceeds to step S113. If a full-press operation signal is not input, the control circuit 5 makes a negative determination in step S112, and step S105. Return to.

ステップS113において、制御回路5は、本撮影動作を開始させてステップS114へ進む。制御回路5は、全押し操作信号が入力される直前にモニタ13に表示されていたスルー画像データを用いて本撮影用の自動露出(AE)動作を行う。これにより、直近のスルー画像データに画像ぼけが付加されている場合は、付加された画像ぼけを含む信号値に基づいて本撮影用の露出が決定され、直近のスルー画像データに画像ぼけが付加されない場合には、画像ぼけを付加していない信号値に基づいて本撮影用の露出が決定される。   In step S113, the control circuit 5 starts the main photographing operation and proceeds to step S114. The control circuit 5 performs an automatic exposure (AE) operation for main photographing using the through image data displayed on the monitor 13 immediately before the full-press operation signal is input. As a result, when image blur is added to the latest through image data, the exposure for the main shooting is determined based on the signal value including the added image blur, and the image blur is added to the latest through image data. If not, the exposure for the main photographing is determined based on the signal value to which no image blur is added.

ステップS114において、制御回路5は、本撮影で得た画像信号に対し、全押し操作信号が入力される直前のスルー画像に対して付加していた画像ぼけと同様の画像ぼけを付加する処理(対象領域および画像ぼけの付加比率を同様にする)を行う。制御回路5はさらに、画像ぼけを付加後に圧縮処理した本撮影画像のデータを記録媒体12に記録し、絞り優先オートモードを直近の設定モードに戻した上で図2による処理を終了する。   In step S114, the control circuit 5 adds an image blur similar to the image blur added to the through image immediately before the full-press operation signal is input to the image signal obtained in the actual photographing ( The target area and the image blur addition ratio are made the same). Further, the control circuit 5 records the actual captured image data compressed after the image blur is added to the recording medium 12, returns the aperture priority auto mode to the most recent setting mode, and then ends the processing of FIG.

制御回路5が記録媒体12へ本撮影画像のデータを記録する場合、本撮影画像とともに、サムネイル画像およびクイックビュー画像の記録も行う。サムネイル画像は、モニタ13に撮影画像を縮小表示するための画像であり、サムネイル用に本撮影画像から画素数を低減させたものである。また、クイックビュー画像は、モニタ13に撮影画像を再生表示する際に用いられる画像であり、モニタ13の表示ピクセルに応じて本撮影画像から画素数を低減させた画像である。サムネイル画像およびクイックビュー画像は、それぞれ本撮影画像に関連付けられて記録媒体12に記録される。   When the control circuit 5 records the actual captured image data on the recording medium 12, the thumbnail image and the quick view image are recorded together with the actual captured image. The thumbnail image is an image for reducing the captured image on the monitor 13 and is obtained by reducing the number of pixels from the actual captured image for the thumbnail. The quick view image is an image used when the captured image is reproduced and displayed on the monitor 13 and is an image obtained by reducing the number of pixels from the actual captured image in accordance with the display pixels of the monitor 13. The thumbnail image and the quick view image are recorded on the recording medium 12 in association with the actual captured image.

<モニタの表示例>
画像ぼけを付加した画像をモニタ13へ表示する場合の表示態様について、図4を参照して説明する。図4(a)は、画像ぼけを付加しないでスルー画像を表示するモニタ13を例示する図である。図4(a)において、主要被写体300の背後に被写体301が、被写体301のさらに後方に被写体302が、それぞれ存在する。撮像装置は、AF動作によってフォーカス調節され、撮像装置に最至近の主要被写体300に合焦している。
<Display example of monitor>
A display mode when an image with added image blur is displayed on the monitor 13 will be described with reference to FIG. FIG. 4A is a diagram illustrating a monitor 13 that displays a through image without adding image blur. In FIG. 4A, the subject 301 exists behind the main subject 300, and the subject 302 exists further behind the subject 301. The imaging apparatus is focused by the AF operation, and is focused on the main subject 300 closest to the imaging apparatus.

図4(a)に例示したスルー画像に画像ぼけを付加する場合、合焦している主要被写体300より遠方に位置する被写体の領域に画像ぼけが付加される。付加されるぼけ量は、主要被写体300の撮影距離との差がより大きい(より遠方に位置する)被写体302の方が被写体301よりも大きい。本実施形態の撮像装置は、このような画像ぼけを付加したスルー画像を図4(b)のようにモニタ13に表示する。   When the image blur is added to the through image illustrated in FIG. 4A, the image blur is added to a region of a subject located far from the focused main subject 300. The amount of blur to be added is larger for the subject 302 than for the subject 301 that has a larger difference (positioned farther) from the shooting distance of the main subject 300. The imaging apparatus of the present embodiment displays a through image with such image blur added on the monitor 13 as shown in FIG.

図4(b)によれば、画像ぼけが付加された領域/付加されない領域を撮影者が容易に視認できるように、画像ぼけを付加しない領域(この場合は主要被写体300の領域)の境界部を強調表示する。本実施形態では、主要被写体300の輪郭を太線で表示して強調を表す。また、画像ぼけの付加量は遠方に位置する被写体ほど大きくしてよく、主要な各被写体の輪郭の線の太さを変えることによって強調の違いを表すことができる。なお、図4(b)では、画像ぼけを付加しない領域=主要被写体300の領域の例を示したが、合焦状態にない被写体であっても画像ぼけを付加しない場合があってもよい。すなわち、画像ぼけを付加しない領域は、必ずしも合焦状態にある主要被写体とは限らない。   According to FIG. 4 (b), the boundary portion of the region to which no image blur is added (in this case, the region of the main subject 300) so that the photographer can easily recognize the region to which the image blur has been added / the region to which the image blur has not been added. To highlight. In the present embodiment, the outline of the main subject 300 is displayed with a bold line to indicate emphasis. Further, the added amount of image blur may be increased as the subject is located far away, and the difference in emphasis can be expressed by changing the thickness of the outline of each main subject. In FIG. 4B, an example of a region where no image blur is added = a region of the main subject 300 is shown, but there may be a case where image blur is not added even if the subject is not in focus. That is, the area where no image blur is added is not necessarily the main subject in focus.

なお、以上のモニタ表示は、撮像範囲全体の移動があった場合(ステップS105を肯定判定)、および一部被写体の移動があった場合(ステップS107を肯定判定)には、画像ぼけを付加する対象領域の移動がリアルタイムで反映される。   Note that the above monitor display adds image blur when there is a movement of the entire imaging range (Yes in step S105) and when there is a movement of a part of a subject (Yes in step S107). The movement of the target area is reflected in real time.

モニタ13に画像ぼけを付加したスルー画像を表示する例を説明したが、本撮影画像やサムネイル画像、クイックビュー画像に画像ぼけを付加し、それぞれをモニタ13に表示する場合も同様である。   The example of displaying the through image with the image blur added to the monitor 13 has been described, but the same applies to the case where the image blur is added to the actual captured image, the thumbnail image, and the quick view image and each is displayed on the monitor 13.

このように画像ぼけが付加された画像は、画像ぼけを付加しない領域(この場合は主要被写体300の領域)と、画像ぼけを付加した領域(この場合は主要被写体301および302を含む領域)とを含む全領域画像としてモニタ13に表示される。   Thus, an image with image blur added includes an area to which no image blur is added (in this case, an area of the main subject 300), and an area to which image blur is added (in this case, an area including the main subjects 301 and 302). Is displayed on the monitor 13 as an entire region image including.

本実施形態の撮像装置は、画像ぼけを撮影画像の背景領域に付加するため、背景領域と異なる主要被写体領域を以下のように抽出する。   The imaging apparatus according to the present embodiment extracts a main subject area different from the background area as follows in order to add image blur to the background area of the captured image.

撮像装置は、以下の5つの抽出方法から選択する1つの抽出方法を用いて撮影画像を解析することにより、撮影画像の中から主要被写体領域を抽出する。
1.第1の抽出方法
第1の抽出方法は、撮影時に照明装置20を発光させて取得した撮影画像と、撮影時に照明装置20を発光させないで取得した撮影画像とを用いて主要被写体領域を抽出する(特開平10−210340号公報参照)。撮像装置は、二つの画像間で画素ごとに画像データの比が所定値以上となる領域を抽出し、この領域を主要被写体領域と判定する。画像データの比が所定値以上となる領域の判定は、制御回路5による制御下でデータ処理回路10が行う。このような二画像を参照する抽出方法は、二つの画像間で被写体を構成する画素データを対応させるための位置合わせが必要である。
The imaging apparatus extracts the main subject region from the captured image by analyzing the captured image using one extraction method selected from the following five extraction methods.
1. First Extraction Method In the first extraction method, a main subject region is extracted using a captured image acquired by causing the illumination device 20 to emit light during photographing and a captured image obtained without causing the illumination device 20 to emit light during photographing. (See JP-A-10-210340). The imaging apparatus extracts an area where the ratio of the image data is greater than or equal to a predetermined value for each pixel between the two images, and determines this area as the main subject area. The data processing circuit 10 determines an area where the ratio of image data is equal to or greater than a predetermined value under the control of the control circuit 5. Such an extraction method that refers to two images requires alignment for associating pixel data constituting the subject between the two images.

2.第2の抽出方法
第2の抽出方法は、主要被写体に合焦させて取得した撮影画像と、主要被写体からピントを外して取得した撮影画像とを用いて主要被写体領域を抽出する(特開平09−327037号公報参照)。撮像装置は、二つの画像間で画素ごとに差分(すなわち、共通の被写体を構成する両画像の画素データ(画像信号)の信号差)を演算し、演算結果を所定の判定閾値と比較することによって主要被写体と背景との境界部を抽出し、この境界部で示される領域を主要被写体と判定する。差分演算、境界部の抽出および領域判定は、制御回路5による制御下でデータ処理回路10が行う。このように二画像を参照する抽出方法は、二つの画像間で被写体を構成する画素データを対応させるための位置合わせが必要である。
2. Second Extraction Method The second extraction method extracts a main subject region using a captured image acquired by focusing on the main subject and a captured image acquired by focusing from the main subject (Japanese Patent Laid-Open No. 09). -327037). The imaging apparatus calculates a difference for each pixel between two images (that is, a signal difference between pixel data (image signals) of both images constituting a common subject), and compares the calculation result with a predetermined determination threshold value. To extract the boundary between the main subject and the background, and determine the region indicated by the boundary as the main subject. The data processing circuit 10 performs the difference calculation, the boundary extraction, and the region determination under the control of the control circuit 5. Thus, the extraction method for referring to two images requires alignment for matching pixel data constituting a subject between the two images.

3.第3の抽出方法
第3の抽出方法は、異なる被写界深度で取得した二つの撮影画像を用いて主要被写体領域を抽出する(特開2004−310504号公報参照)。撮像装置は、二つの画像から相対的なぼけ情報を求め、ぼけ情報に応じて主要被写体領域を判定する。ぼけ情報は、共通の被写体を構成する両画像の画素データ(画像信号)を比較して求める。ぼけ情報の取得および領域判定は、制御回路5による制御下でデータ処理回路10が行う。このように二画像を参照する抽出方法は、二つの画像間で被写体を構成する画素データを対応させるための位置合わせが必要である。
3. Third Extraction Method The third extraction method extracts a main subject region using two captured images acquired at different depths of field (see Japanese Patent Application Laid-Open No. 2004-310504). The imaging device obtains relative blur information from the two images, and determines a main subject area according to the blur information. The blur information is obtained by comparing pixel data (image signals) of both images constituting a common subject. Acquisition of blur information and area determination are performed by the data processing circuit 10 under the control of the control circuit 5. Thus, the extraction method for referring to two images requires alignment for matching pixel data constituting a subject between the two images.

4.第4の抽出方法
第4の抽出方法は、撮影画像の空間周波数成分を解析することによって主要被写体領域を抽出する。撮像装置は、スルー画像の全画面について所定ブロックごとに空間周波数成分を分析し、高周波数成分が所定の判定閾値より多く抽出される領域、あるいは高周波数成分が最も多く抽出される領域を主要被写体と判定する。空間周波数成分の分析は圧縮/伸張回路11内のDCT(離散コサイン変換)演算部によって行い、領域判定は、制御回路5による制御下でデータ処理回路10が行う。
4). Fourth Extraction Method The fourth extraction method extracts a main subject region by analyzing a spatial frequency component of a captured image. The imaging device analyzes the spatial frequency component for each predetermined block on the entire screen of the through image, and selects the region where the high frequency component is extracted more than the predetermined determination threshold or the region where the high frequency component is extracted most as the main subject. Is determined. Analysis of the spatial frequency component is performed by a DCT (discrete cosine transform) calculation unit in the compression / decompression circuit 11, and region determination is performed by the data processing circuit 10 under the control of the control circuit 5.

5.第5の抽出方法
第5の抽出方法は、撮影画像の稜線を取得することによって主要被写体領域を抽出する(特開2000−132706号公報参照)。撮像装置は、各被写体像の最下端の画面上の位置と稜線をもとに撮影画面内の各被写体距離を判断し、最至近の被写体を主要被写体と判定する。稜線の検出は制御回路5が行い、領域判定は制御回路5による制御下でデータ処理回路10が行う。
5. Fifth Extraction Method The fifth extraction method extracts a main subject region by acquiring a ridge line of a captured image (see Japanese Patent Application Laid-Open No. 2000-132706). The imaging device determines each subject distance in the shooting screen based on the position on the lowermost screen of each subject image and the ridgeline, and determines the closest subject as the main subject. The detection of the ridge line is performed by the control circuit 5, and the area determination is performed by the data processing circuit 10 under the control of the control circuit 5.

制御回路5が主要被写体を抽出する処理の流れについて、図5および図6のフローチャートを参照して説明する。本実施形態では、図5、図6による処理をステップS103のサブルーチンとして構成する。   The flow of processing by which the control circuit 5 extracts the main subject will be described with reference to the flowcharts of FIGS. In the present embodiment, the processing shown in FIGS. 5 and 6 is configured as a subroutine of step S103.

図5のステップS11において、制御回路5は、発光禁止設定か否かを判定する。制御回路5は、照明装置20の発光を禁止する設定がなされている場合にステップS11を肯定判定してステップS15へ進み、発光禁止設定がなされていない場合にはステップS11を否定判定してステップS12へ進む。発光禁止の設定および解除は、操作部材7を構成するスイッチ(不図示)からの操作信号に応じて制御回路5が行う。   In step S11 of FIG. 5, the control circuit 5 determines whether or not the light emission prohibition setting is set. The control circuit 5 makes an affirmative determination in step S11 when the setting for prohibiting the light emission of the lighting device 20 is made, and proceeds to step S15. If the light emission prohibition setting has not been made, the control circuit 5 makes a negative determination in step S11. Proceed to S12. The light emission prohibition is set and canceled by the control circuit 5 in accordance with an operation signal from a switch (not shown) constituting the operation member 7.

ステップS12において、制御回路5は、ミュージアムモードか否かを判定する。ミュージアムモードは展示物を撮影するための撮影モードであり、このモードに設定されると、展示物を保護するために照明装置20を発光させずに撮影を行う。制御回路5は、撮影シーンモードがミュージアムモードに設定されている場合にステップS12を肯定判定してステップS15へ進み、ミュージアムモードに設定されていない場合にはステップS12を否定判定してステップS14へ進む。   In step S12, the control circuit 5 determines whether or not the museum mode is set. The museum mode is a shooting mode for shooting an exhibit. When this mode is set, shooting is performed without causing the lighting device 20 to emit light in order to protect the exhibit. If the shooting scene mode is set to the museum mode, the control circuit 5 makes an affirmative decision in step S12 and proceeds to step S15. If not set to the museum mode, the control circuit 5 makes a negative decision in step S12 and proceeds to step S14. move on.

ステップS14において、制御回路5は、AF処理を開始してステップS16へ進む。AF動作は、フォーカスレンズを無限遠に対応する位置から至近端に対応する位置へ向けて所定の速度で移動させながら、この移動過程において複数のフォーカス検出領域ごとに焦点評価値を最大にするフォーカスレンズ位置(合焦位置)を検出し、各フォーカスレンズ位置に対応する撮影距離情報を取得する。これにより、複数のフォーカス検出領域ごとに、当該領域に存在している被写体までの距離情報が得られる。   In step S14, the control circuit 5 starts AF processing and proceeds to step S16. In the AF operation, the focus evaluation value is maximized for each of the plurality of focus detection areas in the moving process while the focus lens is moved at a predetermined speed from the position corresponding to infinity to the position corresponding to the closest end. A focus lens position (focus position) is detected, and shooting distance information corresponding to each focus lens position is acquired. Thereby, distance information to a subject existing in each of the plurality of focus detection areas can be obtained.

制御回路5は、AF動作中においてスルー画像を上記フレームレートでモニタ13に逐次表示させるとともに、複数のフォーカス検出領域を示すAFマークをスルー画像に重ねて重畳表示させる。   The control circuit 5 sequentially displays the through image on the monitor 13 at the above frame rate during the AF operation, and superimposes and displays the AF marks indicating a plurality of focus detection areas on the through image.

ステップS15へ進む場合は、照明装置20を発光させない場合である。ステップS15において、制御回路5は、第1の抽出方法を除外してステップS14へ進む。これにより、制御回路5は、後述するステップS27で第1の抽出方法を除く他の抽出方法から抽出方法を選択する。   The process proceeds to step S15 when the illumination device 20 is not caused to emit light. In step S15, the control circuit 5 excludes the first extraction method and proceeds to step S14. Thereby, the control circuit 5 selects an extraction method from other extraction methods other than the first extraction method in step S27 described later.

ステップS16において、制御回路5は、ピントが合う稜線が検出されているか否かを判定する。制御回路5は、スルー画像から稜線を検出した場合にステップS16を肯定判定してステップS18へ進み、稜線を検出していない場合はステップS16を否定判定してステップS17へ進む。   In step S16, the control circuit 5 determines whether or not an in-focus ridge line is detected. When the ridge line is detected from the through image, the control circuit 5 makes a positive determination in step S16 and proceeds to step S18. When the ridge line is not detected, the control circuit 5 makes a negative determination in step S16 and proceeds to step S17.

ステップS17において、制御回路5は、AF動作が終了か否かを判定する。制御回路5は、AF動作を終了した場合にステップS17を肯定判定してステップS18へ進み、終了していない場合にはステップS17を否定判定してステップS16へ戻る。ステップS16へ戻る場合は、AF動作を継続する。   In step S17, the control circuit 5 determines whether or not the AF operation is finished. When the AF operation is finished, the control circuit 5 makes an affirmative decision in step S17 and proceeds to step S18. If not finished, the control circuit 5 makes a negative decision in step S17 and returns to step S16. When returning to step S16, the AF operation is continued.

ステップS18において、制御回路5は、稜線情報を不図示の内部メモリに保存してステップS17へ進む。稜線情報には、撮影画面における稜線の位置(領域)およびこの領域に存在する被写体までの距離情報を含む。   In step S18, the control circuit 5 stores the ridge line information in an internal memory (not shown) and proceeds to step S17. The ridge line information includes the position (area) of the ridge line on the photographing screen and distance information to the subject existing in this area.

ステップS19において、制御回路5は、測光値が所定値以上か否かを判定する。制御回路5は、測光回路15による測光データから得られる明るさ情報が所定値以上の場合にステップS19を肯定判定してステップステップS21へ進み、明るさ情報が所定値以上でない場合にはステップS19を否定判定し、ステップS20へ進む。   In step S19, the control circuit 5 determines whether or not the photometric value is greater than or equal to a predetermined value. The control circuit 5 makes an affirmative decision in step S19 when the brightness information obtained from the photometric data by the photometry circuit 15 is greater than or equal to a predetermined value, and proceeds to step S21. If the brightness information is not greater than or equal to the predetermined value, step S19 is performed. Is negatively determined and the process proceeds to step S20.

ステップS21へ進む場合は、照明装置20を発光させない場合である。ステップS21において、制御回路5は、第1の抽出方法を除外してステップS20へ進む。これにより、制御回路5は、第1の抽出方法を除く他の抽出方法から1つの抽出方法を選択する。   The process proceeds to step S21 when the illumination device 20 is not caused to emit light. In step S21, the control circuit 5 excludes the first extraction method and proceeds to step S20. Thereby, the control circuit 5 selects one extraction method from the other extraction methods excluding the first extraction method.

ステップS20において、制御回路5は、スポーツ撮影モードか否かを判定する。制御回路5は、撮影シーンモードがスポーツ撮影モードに設定されている場合にステップS20を肯定判定してステップS23へ進み、スポーツ撮影モードに設定されていない場合にはステップS20を否定判定してステップS22へ進む。ここで、スポーツ撮影モードは、スポーツシーンなどの動きがある被写体を撮影するモードである。   In step S20, the control circuit 5 determines whether or not it is a sports shooting mode. When the shooting scene mode is set to the sports shooting mode, the control circuit 5 makes a positive determination in step S20 and proceeds to step S23. When the shooting scene mode is not set to the sports shooting mode, the control circuit 5 makes a negative determination in step S20. Proceed to S22. Here, the sports shooting mode is a mode for shooting a subject having movement such as a sports scene.

ステップS22において、制御回路5は、スルー画像の動きのばらつきが所定値以上か否かを判定する。制御回路5は、スルー画撮影によって1/30秒ごとに取得される複数フレームのスルー画像データから算出されるフレーム間の動きベクトルの変化が小さい(動きベクトルの向きおよび大きさの撮影画面の全ブロックにおけるフレーム間の変化量が所定値未満である)、もしくは、動きベクトルの向きおよび大きさの偏差が撮影画面の全ブロックにわたり所定の範囲内にあると判定された場合にステップS22を否定判定し、図6のステップS24へ進む。この場合は、フレーム間でスルー画像の位置合わせが容易とみなせる。   In step S22, the control circuit 5 determines whether or not the variation in motion of the through image is equal to or greater than a predetermined value. The control circuit 5 has a small change in the motion vector between frames calculated from the through image data of a plurality of frames acquired every 1/30 seconds by the through image shooting (all directions of the motion vector and the size of the shooting screen). Step S22 is negative when it is determined that the amount of change between frames in the block is less than a predetermined value), or that the deviation of the direction and magnitude of the motion vector is within a predetermined range over all blocks on the shooting screen Then, the process proceeds to step S24 in FIG. In this case, it can be considered that the alignment of the through image between the frames is easy.

一方、制御回路5は、複数フレームのスルー画像データから算出されるフレーム間の動きベクトルの向きおよび大きさの偏差が、上記の全分割ブロックにわたり所定の範囲内にあると判定されない場合にはステップS22を肯定判定し、ステップS23へ進む。   On the other hand, if the control circuit 5 does not determine that the motion vector orientation and magnitude deviation between frames calculated from the through image data of a plurality of frames is within a predetermined range across all the above-mentioned divided blocks. Affirmative determination is made in S22, and the process proceeds to step S23.

ステップS23へ進む場合は、フレーム間でスルー画像の位置合わせが困難となるおそれがある。制御回路5は、ステップS23において、第1〜第3の抽出方法を除外して図6のステップS24へ進む。これにより、制御回路5は1つの撮影画像から主要被写体領域を抽出する第4および第5の抽出方法から抽出方法を選択する。   When the process proceeds to step S23, it may be difficult to align the through image between frames. In step S23, the control circuit 5 excludes the first to third extraction methods and proceeds to step S24 in FIG. Thereby, the control circuit 5 selects the extraction method from the fourth and fifth extraction methods for extracting the main subject region from one captured image.

図6のステップS24において、制御回路5は、稜線情報を保存しているか否かを判定する。制御回路5は、ステップS18で保存した稜線情報が存在する場合にステップS24を肯定判定してステップS25へ進み、稜線情報が存在しない場合にはステップS24を否定判定してステップS26へ進む。   In step S24 of FIG. 6, the control circuit 5 determines whether or not the ridge line information is stored. If the ridge line information stored in step S18 exists, the control circuit 5 makes a positive determination in step S24 and proceeds to step S25. If the ridge line information does not exist, the control circuit 5 makes a negative determination in step S24 and proceeds to step S26.

ステップS26へ進む場合は、稜線情報がないため第5の抽出方法の使用が適さない場合である。ステップS26において、制御回路5は、第5の抽出方法を除外してステップS25へ進む。これにより、制御回路5は、第5の抽出方法を除く他の抽出方法から1つの抽出方法を選択する。   When the process proceeds to step S26, the use of the fifth extraction method is not suitable because there is no ridge line information. In step S26, the control circuit 5 excludes the fifth extraction method and proceeds to step S25. As a result, the control circuit 5 selects one extraction method from other extraction methods other than the fifth extraction method.

ステップS25において、制御回路5は、スルー画像の全画面領域に対する周波数解析で、領域によって有意な高域空間周波数成分の差が検出されているか否かを判定する。制御回路5は、圧縮処理に用いられる所定ブロック間において、空間周波数成分に差が認められる場合にステップS25を肯定判定してステップS27へ進み、空間周波数成分に差が認められない場合にはステップS25を否定判定し、ステップS28へ進む。   In step S <b> 25, the control circuit 5 determines whether or not a significant high-frequency spatial frequency component difference is detected by the region in the frequency analysis for the entire screen region of the through image. The control circuit 5 makes an affirmative decision in step S25 when a difference is found in the spatial frequency component between the predetermined blocks used in the compression process, and proceeds to step S27. If no difference is found in the spatial frequency component, the control circuit 5 A negative determination is made in S25, and the process proceeds to step S28.

ステップS28へ進む場合は、高域空間周波数成分が抽出されないため第4の抽出方法の使用が適さない場合である。ステップS28において、制御回路5は、第4の抽出方法を除外してステップS27へ進む。これにより、制御回路5は、第4の抽出方法を除く他の抽出方法から1つの抽出方法を選択する。   When the process proceeds to step S28, the use of the fourth extraction method is not suitable because the high frequency spatial frequency component is not extracted. In step S28, the control circuit 5 excludes the fourth extraction method and proceeds to step S27. Thereby, the control circuit 5 selects one extraction method from the other extraction methods excluding the fourth extraction method.

ステップS27において、制御回路5は、公知の特定色(肌色等)領域を抽出する技術、あるいは登録されている特定の輪郭情報と類似する輪郭を有する領域を抽出する技術と、第1〜第5の抽出方法のうち除外されていない抽出方法の1つを用いて、スルー画像から主要被写体領域を抽出する。たとえば、スルー画像から肌色領域を抽出し、抽出した肌色領域に対し、除外されていない抽出方法から選択した抽出方法(複数の抽出方法から選択する優先順位は、1、2、3、4、5の順とする)を適用して主要被写体領域を判定する。ここで、第1〜第5の抽出方法のうちから除外されていない複数の方法を選択するものであってもよい。   In step S27, the control circuit 5 includes a technique for extracting a known specific color (skin color, etc.) area, a technique for extracting an area having a contour similar to the registered specific outline information, and first to fifth. The main subject region is extracted from the through image using one of the extraction methods that are not excluded. For example, a skin color area is extracted from a through image, and the extracted skin color area is selected from extraction methods that are not excluded (priorities selected from a plurality of extraction methods are 1, 2, 3, 4, 5 To determine the main subject area. Here, a plurality of methods that are not excluded from the first to fifth extraction methods may be selected.

第1の抽出方法を選択した場合の制御回路5は、主要被写体領域を抽出するためのスルー画撮影において、たとえば、照明装置20を発光させないで1フレーム目のスルー画撮影を行い、2フレーム目に照明装置20を発光させてスルー画撮影を行うように各部を制御する。なお、フォーカスレンズの位置は、AF動作によって検出された最至近の被写体に合焦する位置に移動されている。   When the first extraction method is selected, the control circuit 5 performs, for example, the first frame through image shooting without causing the illumination device 20 to emit light in the through image shooting for extracting the main subject region. Each unit is controlled so that the illumination device 20 emits light and a through image is taken. Note that the position of the focus lens has been moved to a position that focuses on the closest subject detected by the AF operation.

第2の抽出方法を選択した場合の制御回路5は、主要被写体領域を抽出するためのスルー画撮影において、たとえば、撮像装置に最至近の主要被写体に合焦させて1フレーム目のスルー画撮影を行い、2フレーム目にフォーカスレンズを所定量移動させて(主要被写体からピントを外して)スルー画撮影を行うように各部を制御する。なお、移動させたフォーカスレンズは、AF動作によって検出された最至近の被写体に合焦する位置へ戻される。上記の1フレーム目の撮影と2フレーム目の撮影との撮影順序は逆にしても構わない。   When the second extraction method is selected, the control circuit 5 performs the through image shooting for extracting the main subject region. For example, the control circuit 5 focuses on the main subject closest to the imaging apparatus and captures the first frame through image. The focus lens is moved by a predetermined amount in the second frame (out of focus from the main subject), and each unit is controlled to perform through image shooting. Note that the moved focus lens is returned to a position where the closest subject detected by the AF operation is focused. The shooting order of the first frame and the second frame may be reversed.

第3の抽出方法を選択した場合の制御回路5は、主要被写体領域を抽出するためのスルー画撮影において、たとえば、絞り優先オートによる制御値で1フレーム目のスルー画撮影を行い、2フレーム目に絞り値を所定段数変更させて(被写界深度を変えて)スルー画撮影を行うように各部を制御する。なお、変更された絞り値は変更前の絞り値に戻される。また、フォーカスレンズの位置は、AF動作によって検出された最至近の被写体に合焦する位置に移動されている。   When the third extraction method is selected, the control circuit 5 performs the first frame through image shooting with the control value based on aperture priority auto in the through image shooting for extracting the main subject region, for example. Each part is controlled so that through image shooting is performed by changing the aperture value to a predetermined number of steps (changing the depth of field). The changed aperture value is returned to the aperture value before the change. In addition, the position of the focus lens has been moved to a position that focuses on the closest subject detected by the AF operation.

第4の抽出方法を選択した場合、および第5の抽出方法を選択した場合の制御回路5は、AF動作によって検出された最至近の被写体に合焦する位置にフォーカスレンズが移動されている状態で、主要被写体領域を抽出するためのスルー画撮影を少なくとも1フレーム行えばよい。   When the fourth extraction method is selected and when the fifth extraction method is selected, the control circuit 5 is in a state in which the focus lens is moved to a position where the closest subject detected by the AF operation is in focus Thus, it is sufficient to perform at least one frame shooting for extracting the main subject region.

制御回路5は、上記抽出した主要被写体に合焦する位置へフォーカスレンズを駆動させる。抽出された被写体が複数存在する場合は、上記AF動作で取得された複数の被写体までの距離情報を用いて、撮像装置に最も近い被写体を抽出する。   The control circuit 5 drives the focus lens to a position where the extracted main subject is focused. When there are a plurality of extracted subjects, the subject closest to the imaging device is extracted using the distance information to the plurality of subjects acquired by the AF operation.

制御回路5は、主要被写体の領域を抽出すると図6による処理を終了し、図2のステップS104へ戻る。   When the control circuit 5 extracts the area of the main subject, the process in FIG. 6 is terminated, and the process returns to step S104 in FIG.

以上説明した実施形態によれば、以下の作用効果が得られる。
(1)主要被写体領域を判定する際に、公知の特定色(肌色等)領域を抽出する方法と、第1〜第5の被写体領域抽出方法のうち、除外されていない被写体領域抽出方法の1つもしくは複数とを組み合わせることにより、スルー画像の中から主要被写体領域を判定するようにした。特定色(肌色等)領域を抽出する方法のみを用いて主要被写体領域を判定する場合に比べて、主要被写体領域の判定精度を高めることができる。これにより、画像ぼけを付加する背景領域を正確に求めることができる。
According to the embodiment described above, the following effects can be obtained.
(1) Of the methods for extracting a known specific color (skin color) region and the first to fifth subject region extraction methods when determining the main subject region, one of the subject region extraction methods that are not excluded The main subject area is determined from the through image by combining one or more. Compared with the case where the main subject region is determined using only the method of extracting the specific color (skin color or the like) region, the determination accuracy of the main subject region can be improved. Thereby, the background area to which the image blur is added can be accurately obtained.

(2)第1の抽出方法について、照明装置20が非発光にされる状態で選択しないように選択範囲から除外した(ステップS15)ので、照明装置20を発光させて行う第1の抽出方法と、照明装置20を非発光にする撮像装置の設定状態との間の矛盾を排除できる。たとえば、本撮像装置がバッテリにより駆動され、バッテリの残容量が所定値より少ないことが制御回路5によって判断され、照明装置20の発光が禁止されているような場合に対しても上記の構成を適用することができる。 (2) Since the first extraction method is excluded from the selection range so as not to be selected in a state where the lighting device 20 is not emitting light (step S15), the first extraction method performed by causing the lighting device 20 to emit light and The contradiction between the setting state of the imaging device that causes the illumination device 20 to emit no light can be eliminated. For example, the configuration described above is also applied to a case where the imaging device is driven by a battery, the control circuit 5 determines that the remaining capacity of the battery is less than a predetermined value, and the light emission of the lighting device 20 is prohibited. Can be applied.

(3)第1の抽出方法について、測光値が所定値以上の状態で選択しないように選択範囲から除外した(ステップS21)ので、照明装置20の発光時と非発光時とで画像間の明るさの差が必要な第1の抽出方法を、非常に明るい撮影環境下で適用することを排除できる。 (3) Since the first extraction method is excluded from the selection range so that the photometric value is not selected in a state of a predetermined value or more (step S21), the brightness between images when the lighting device 20 emits light and when it does not emit light. It can be excluded that the first extraction method that requires a difference in thickness is applied in a very bright photographing environment.

(4)第1〜第3の抽出方法について、被写体の動きが予想されるスポーツ撮影モード(ステップS20を肯定判定)や、スルー画像の中でフレーム間の動きベクトルの向きや大きさのばらつきが所定値以上検出された場合(ステップS22を肯定判定)には選択しないように選択範囲から除外した(ステップS23)ので、被写体を構成する画素データのフレーム間における位置合わせが困難な状態で当該位置合わせを行うための動き補償演算処理を行わなくてよいため、制御回路5の負担を軽減できる。 (4) With regard to the first to third extraction methods, there is a variation in the direction and size of the motion vector between frames in a sport shooting mode in which the movement of the subject is expected (Yes in step S20) or in a through image. If it is detected above a predetermined value (step S22 is affirmative), it is excluded from the selection range so that it is not selected (step S23), so that the position of the pixel data constituting the subject is difficult to align between frames. Since it is not necessary to perform the motion compensation calculation process for performing the alignment, the burden on the control circuit 5 can be reduced.

(5)第5の抽出方法について、スルー画像の中からピントが合う稜線が検出されない状態で選択しないように選択範囲から除外した(ステップS26)ので、稜線情報が必要な第5の抽出方法を、稜線を含まないスルー画像に適用することを排除できる。 (5) The fifth extraction method is excluded from the selection range so as not to be selected in a state where a focused ridge line is not detected from the through image (step S26). Therefore, the fifth extraction method that requires ridge line information is used. Application to a through image not including a ridge line can be eliminated.

(6)第4の抽出方法について、圧縮処理に用いられる所定ブロック間で空間周波数成分に差が認められない状態で選択しないように選択範囲から除外した(ステップS28)ので、所定ブロック間において空間周波数成分の差が必要な第4の抽出方法を、ブロック間の空間周波数成分に差が生じないスルー画像に適用することを排除できる。ブロック間の空間周波数成分に差がない画像とは、たとえば、単色の平板を撮影した場合の画像である。 (6) Since the fourth extraction method is excluded from the selection range so as not to be selected in a state where there is no difference in spatial frequency components between the predetermined blocks used for the compression process (step S28), the space between the predetermined blocks It is possible to eliminate applying the fourth extraction method that requires a difference in frequency components to a through image in which a difference in spatial frequency components between blocks does not occur. An image having no difference in spatial frequency components between blocks is, for example, an image when a monochrome flat plate is photographed.

(7)上記(2)〜(6)のように抽出方法の選択範囲をフレキシブルに変化させるようにしたので、撮像装置に設定されている撮影シーンモード、取得されている撮影画像(この場合はスルー画像)によって示される画像の特徴(動き、稜線の状態、空間周波数)、撮影環境(明るさ)、バッテリの残容量に応じて、適切な主要被写体領域の抽出方法を選択することができる。 (7) Since the selection range of the extraction method is changed flexibly as described in (2) to (6) above, the shooting scene mode set in the imaging device, the acquired shot image (in this case) An appropriate main subject region extraction method can be selected according to the characteristics (motion, ridgeline state, spatial frequency) of the image indicated by the “through image”, the shooting environment (brightness), and the remaining battery capacity.

(変形例1)
上述した説明では、画像中の主要被写体領域を抽出する複数の方法のうち、除外されていない抽出方法から1つの方法を選択する場合の選択優先順位を、1、2、3、4、5の順としたが、選択順位は、撮影者の意図に応じて適宜変更してよい。
(Modification 1)
In the above description, the selection priority in the case where one method is selected from the extraction methods that are not excluded among the plurality of methods for extracting the main subject region in the image is 1, 2, 3, 4, 5. However, the selection order may be changed as appropriate according to the photographer's intention.

(変形例2)
照明装置20が撮像装置に内蔵される例を説明したが、外付けの照明装置を撮像装置に接続して使用する場合にも本発明を適用できる。
(Modification 2)
Although the example in which the lighting device 20 is built in the imaging device has been described, the present invention can also be applied to the case where an external lighting device is connected to the imaging device.

(変形例3)
上述したステップS22において、動きのばらつき判定を段階的に行うようにしてもよい。たとえば、焦点面を移動させながら判定したり、絞り値を調節しながら判定したりする。焦点面を移動しながら動きのばらつき判定を行う場合の制御回路5は、連続するフレームのスルー画撮影において、フォーカスレンズの位置を異ならせて(異なるフォーカス調節状態にするように焦点面を移動させて)スルー画撮影を行うように撮像装置内の各部を制御する。制御回路5は、フレーム間の動きベクトルの変化が、上記所定数の分割ブロックのいずれかで焦点面移動時の判定閾値以上検出される場合には、ステップS22を肯定判定して第2の抽出方法を除外する。
(Modification 3)
In step S22 described above, the motion variation determination may be performed step by step. For example, the determination is made while moving the focal plane, or the adjustment is made while adjusting the aperture value. The control circuit 5 in the case of performing motion variation determination while moving the focal plane moves the focal plane to change the position of the focus lens (in a different focus adjustment state) in through-image shooting of consecutive frames. And) Control each unit in the imaging apparatus so as to perform through image shooting. The control circuit 5 makes an affirmative decision in step S22 and performs the second extraction when a change in the motion vector between frames is detected in any of the predetermined number of divided blocks at or above the determination threshold at the time of focal plane movement. Exclude methods.

また、絞り値を変更しながら動きのばらつき判定を行う場合の制御回路5は、連続するフレームのスルー画撮影において、絞り値を異ならせて(異なる光学ぼけ状態にするように被写界深度を変更させて)スルー画撮影を行うように撮像装置内の各部を制御する。制御回路5は、フレーム間の動きベクトルの変化が、上記所定数の分割ブロックのいずれかで被写界深度変更時の判定閾値以上検出される場合には、ステップS22を肯定判定して第3の抽出方法を除外する。なお、変形例3の場合も、被写体の動きが予想されるスポーツ撮影モード(ステップS20を肯定判定)の場合は、ステップS20と同様に、第1の抽出方法を除外する。   In addition, the control circuit 5 in the case of performing motion variation determination while changing the aperture value varies the aperture value in the case of through-image shooting of consecutive frames (the depth of field is set so as to be in different optical blur states). Control each unit in the imaging apparatus so as to perform through image shooting. The control circuit 5 makes an affirmative decision in step S22 when the change in the motion vector between the frames is detected in any of the predetermined number of divided blocks above the determination threshold value at the time of changing the depth of field. Exclude the extraction method. Note that, in the case of the modified example 3 as well, in the sports shooting mode in which the movement of the subject is expected (Yes in step S20), the first extraction method is excluded as in step S20.

(変形例4)
また、上述したステップS22において、動きセンサによる検出信号を用いて動きのばらつき判定を行うように構成してもよい。この場合の撮像装置は、角速度センサもしくは加速度センサを備える。制御回路5は、動きセンサからの検出信号によって示される動きベクトルの大きさおよび向きと、スルー画像内の所定ブロックから得られる動きベクトルの大きさおよび向きとをそれぞれ比較し、両者の差が所定値以下の場合は手ぶれに起因する撮影画像の平行移動とみなし、ステップS22を否定判定する。平行移動とみなす場合には、第1〜第3の抽出方法を除外しない。
(Modification 4)
Further, in step S22 described above, it may be configured to perform motion variation determination using a detection signal from the motion sensor. The imaging device in this case includes an angular velocity sensor or an acceleration sensor. The control circuit 5 compares the magnitude and direction of the motion vector indicated by the detection signal from the motion sensor with the magnitude and orientation of the motion vector obtained from a predetermined block in the through image, and the difference between the two is determined in advance. If the value is equal to or smaller than the value, it is regarded as parallel movement of the photographed image due to camera shake, and a negative determination is made in step S22. When it is regarded as parallel movement, the first to third extraction methods are not excluded.

測光値は、測光回路15による検出値から得る他に、撮像素子1による画像信号の信号レベルから得る構成としてもよい。   The photometric value may be obtained from the signal level of the image signal from the image sensor 1 in addition to the photometric value obtained from the photometric circuit 15.

上述したように決定した抽出方法で取得した主要被写体領域は、画像ぼけを付加する領域の決定に用いたり、フォーカス調節時のフォーカスエリアとして用いたり、測光時の測光エリアとして用いたり、ズームアップ(ズームダウン)時の中心エリアとして用いてもよい。   The main subject area acquired by the extraction method determined as described above is used to determine an area to add image blur, to be used as a focus area at the time of focus adjustment, to be used as a photometry area at the time of photometry, or to zoom up ( It may be used as a central area when zooming down.

以上の説明はあくまで一例であり、発明を解釈する上で、上記の実施形態の構成要素と本発明の構成要素との対応関係に何ら限定されるものではない。   The above description is merely an example, and the interpretation of the invention is not limited to the correspondence between the components of the above-described embodiment and the components of the present invention.

本発明による撮像装置の一例を示すブロックダイアグラムである。It is a block diagram which shows an example of the imaging device by this invention. 制御回路が画像ぼけを付加する撮影処理の流れについて説明するフローチャートである。It is a flowchart explaining the flow of the imaging | photography process in which a control circuit adds image blur. 異なる時刻に取得されたスルー画像を例示する図である。It is a figure which illustrates the through image acquired at different time. (a)画像ぼけを付加しないでスルー画像を例示する図である。(b)画像ぼけを付加したスルー画像を例示する図である。(a) It is a figure which illustrates a through image, without adding image blur. (b) It is a figure which illustrates the through image to which the image blur was added. 制御回路が主要被写体を抽出する処理の流れについて説明するフローチャートである。It is a flowchart explaining the flow of the process in which a control circuit extracts a main subject. 制御回路が主要被写体を抽出する処理の流れについて説明するフローチャートである。It is a flowchart explaining the flow of the process in which a control circuit extracts a main subject.

符号の説明Explanation of symbols

1…撮像素子
2…撮影レンズ
3…レンズ駆動回路
5…制御回路
7…操作部材
9…信号処理回路
10…データ処理回路
11…圧縮/伸張回路
12…記録媒体
13…モニタ
14…表示制御回路
15…測光回路
20…照明装置
DESCRIPTION OF SYMBOLS 1 ... Imaging device 2 ... Shooting lens 3 ... Lens drive circuit 5 ... Control circuit 7 ... Operation member 9 ... Signal processing circuit 10 ... Data processing circuit 11 ... Compression / decompression circuit 12 ... Recording medium 13 ... Monitor 14 ... Display control circuit 15 ... Photometry circuit 20 ... Lighting device

Claims (11)

被写体像を撮影し、画像信号を出力する撮像素子と、
前記撮影された画像から主要被写体領域を抽出する主要被写体領域抽出手段と、
設定されている撮影シーンモードに応じて、複数の異なる抽出方法の中から選択した方法で撮影シーンに適した領域抽出を行うように前記主要被写体領域抽出手段を制御する制御手段とを備えることを特徴とする撮像装置。
An image sensor that captures a subject image and outputs an image signal;
Main subject region extraction means for extracting a main subject region from the photographed image;
Control means for controlling the main subject area extracting means so as to perform area extraction suitable for the shooting scene by a method selected from a plurality of different extraction methods according to the set shooting scene mode. An imaging device that is characterized.
請求項1に記載の撮像装置において、
前記複数の抽出方法は、前記照明装置を発光させて撮影された画像と前記照明装置を発光させないで撮影された画像とを用いて前記主要被写体領域を抽出する二画像参照方法を含み、
前記制御手段は、被写体を照明する照明装置に非発光を指示する撮影シーンモードが設定されている場合、前記二画像参照方法を除く他の抽出方法を選択するように前記主要被写体領域抽出手段を制御することを特徴とする撮像装置。
The imaging device according to claim 1,
The plurality of extraction methods include a two-image reference method for extracting the main subject region using an image photographed by causing the illumination device to emit light and an image photographed without causing the illumination device to emit light,
The control means is configured to cause the main subject region extraction means to select an extraction method other than the two-image reference method when a shooting scene mode for instructing non-light emission is set for an illumination device that illuminates the subject. An imaging device characterized by controlling.
被写体像を撮影し、画像信号を出力する撮像素子と、
前記撮影された画像から主要被写体領域を抽出する主要被写体領域抽出手段と、
撮影環境に応じて、複数の異なる抽出方法の中から選択した方法で撮影シーンに適した領域抽出を行うように前記主要被写体領域抽出手段を制御する制御手段とを備えることを特徴とする撮像装置。
An image sensor that captures a subject image and outputs an image signal;
Main subject region extraction means for extracting a main subject region from the photographed image;
An imaging apparatus comprising: a control unit that controls the main subject region extraction unit so as to perform region extraction suitable for a shooting scene by a method selected from a plurality of different extraction methods according to a shooting environment. .
請求項3に記載の撮像装置において、
前記複数の抽出方法は、前記照明装置を発光させて撮影された画像と前記照明装置を発光させないで撮影された画像とを用いて前記主要被写体領域を抽出する二画像参照方法を含み、
前記制御手段は、測光値が所定値以上の場合、前記二画像参照方法を除く他の抽出方法を選択するように前記主要被写体領域抽出手段を制御することを特徴とする撮像装置。
The imaging device according to claim 3.
The plurality of extraction methods include a two-image reference method for extracting the main subject region using an image photographed by causing the illumination device to emit light and an image photographed without causing the illumination device to emit light,
The image pickup apparatus according to claim 1, wherein the control unit controls the main subject region extraction unit to select an extraction method other than the two-image reference method when a photometric value is a predetermined value or more.
請求項1に記載の撮像装置において、
前記複数の抽出方法は、異なる撮影条件で撮影された二画像を用いて前記主要被写体領域を抽出する二画像参照方法を含み、
前記制御手段は、動きのある被写体を撮影する撮影シーンモードが設定されているとき、前記二画像参照方法を除く他の抽出方法を選択するように前記主要被写体領域抽出手段を制御することを特徴とする撮像装置。
The imaging device according to claim 1,
The plurality of extraction methods include a two-image reference method for extracting the main subject region using two images photographed under different photographing conditions,
The control means controls the main subject region extraction means to select an extraction method other than the two-image reference method when a photographing scene mode for photographing a moving subject is set. An imaging device.
被写体像を撮影し、画像信号を出力する撮像素子と、
前記撮影された画像から主要被写体領域を抽出する主要被写体領域抽出手段と、
撮影画像の解析結果に応じて、複数の異なる抽出方法の中から選択した方法で撮影シーンに適した領域抽出を行うように前記主要被写体領域抽出手段を制御する制御手段とを備えることを特徴とする撮像装置。
An image sensor that captures a subject image and outputs an image signal;
Main subject region extraction means for extracting a main subject region from the photographed image;
Control means for controlling the main subject region extracting means so as to perform region extraction suitable for the photographic scene by a method selected from a plurality of different extraction methods according to the analysis result of the photographed image. An imaging device.
請求項6に記載の撮像装置において、
前記複数の抽出方法は、異なる撮影条件で撮影された二画像を用いて前記主要被写体領域を抽出する二画像参照方法を含み、
前記制御手段は、複数フレームの撮影画像から算出されるフレーム間の動きベクトルの向きまたは大きさの偏差が撮影画面を所定数に分割したブロックの全てにおいて各々所定の範囲内にない場合、もしくは前記動きベクトルの向きまたは大きさの、撮影画面を分割した全ブロックにおけるフレーム間の変化量が所定値以上である場合に、前記二画像参照方法を除く他の抽出方法を選択するように前記主要被写体領域抽出手段を制御することを特徴とする撮像装置。
The imaging device according to claim 6,
The plurality of extraction methods include a two-image reference method for extracting the main subject region using two images photographed under different photographing conditions,
The control means, when the deviation of the direction or size of the motion vector between frames calculated from a plurality of frames of captured images is not within a predetermined range in all of the blocks obtained by dividing the shooting screen into a predetermined number, or The main subject is selected so that the extraction method other than the two-image reference method is selected when the amount of change in the direction or size of the motion vector between frames in all blocks obtained by dividing the shooting screen is equal to or greater than a predetermined value. An image pickup apparatus that controls an area extraction unit.
請求項7に記載の撮像装置において、
前記二画像参照方法は、異なるフォーカス調節状態で撮影された二画像を用いて前記主要被写体領域を抽出する方法であることを特徴とする撮像装置。
The imaging apparatus according to claim 7,
2. The imaging apparatus according to claim 2, wherein the two-image reference method is a method of extracting the main subject region using two images photographed in different focus adjustment states.
請求項7に記載の撮像装置において、
前記二画像参照方法は、異なる被写界深度状態で撮影された二画像を用いて前記主要被写体領域を抽出する方法であることを特徴とする撮像装置。
The imaging apparatus according to claim 7,
2. The imaging apparatus according to claim 2, wherein the two-image reference method is a method of extracting the main subject region using two images taken at different depths of field.
請求項6に記載の撮像装置において、
前記複数の抽出方法は、撮影画像から検出される稜線情報を用いて前記主要被写体領域を抽出する稜線情報参照方法を含み、
前記制御手段は、撮影画像から前記稜線が検出されていないとき、前記稜線情報参照方法を除く他の抽出方法を選択するように前記主要被写体領域抽出手段を制御することを特徴とする撮像装置。
The imaging device according to claim 6,
The plurality of extraction methods include a ridge line information reference method for extracting the main subject region using ridge line information detected from a captured image,
The imaging device controls the main subject region extraction unit to select an extraction method other than the ridge line information reference method when the ridge line is not detected from a captured image.
請求項10に記載の撮像装置において、
前記稜線情報参照方法は、本撮影前のフォーカス調節時に撮影された予備撮影画像から検出される稜線情報を用いて前記主要被写体領域を抽出する方法であることを特徴とする撮像装置。
The imaging device according to claim 10.
The ridge line information reference method is a method of extracting the main subject region using ridge line information detected from a pre-photographed image taken at the time of focus adjustment before main photographing.
JP2005318281A 2005-11-01 2005-11-01 Imaging device Expired - Fee Related JP4645413B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005318281A JP4645413B2 (en) 2005-11-01 2005-11-01 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005318281A JP4645413B2 (en) 2005-11-01 2005-11-01 Imaging device

Publications (2)

Publication Number Publication Date
JP2007129310A true JP2007129310A (en) 2007-05-24
JP4645413B2 JP4645413B2 (en) 2011-03-09

Family

ID=38151632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005318281A Expired - Fee Related JP4645413B2 (en) 2005-11-01 2005-11-01 Imaging device

Country Status (1)

Country Link
JP (1) JP4645413B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008294785A (en) * 2007-05-25 2008-12-04 Sanyo Electric Co Ltd Image processor, imaging apparatus, image file, and image processing method
JP2010028346A (en) * 2008-07-17 2010-02-04 Casio Comput Co Ltd Image processor, imaging device and program
JP2010141528A (en) * 2008-12-10 2010-06-24 Nikon Corp Image processor and image processing program
JP2012044380A (en) * 2010-08-18 2012-03-01 Canon Inc Imaging apparatus
JP2012242759A (en) * 2011-05-23 2012-12-10 Canon Inc Imaging apparatus, control method therefor, and program
JP2013055609A (en) * 2011-09-06 2013-03-21 Olympus Imaging Corp Digital camera
JP2013062761A (en) * 2011-09-15 2013-04-04 Sony Corp Image processor, image processing method, and program
JP2014023057A (en) * 2012-07-20 2014-02-03 Nikon Corp Image processing apparatus, imaging apparatus, and image processing program
JP2014131187A (en) * 2012-12-28 2014-07-10 Canon Inc Imaging apparatus, control method of the same, and control program

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62159289A (en) * 1986-01-08 1987-07-15 Hitachi Ltd Deciding method for object
JPH09138118A (en) * 1995-11-15 1997-05-27 Matsushita Electric Ind Co Ltd Method for setting image detecting condition
JPH09138470A (en) * 1995-11-14 1997-05-27 Fuji Photo Film Co Ltd Method for deciding major part of image and copy condition decision method
JPH11316845A (en) * 1998-03-02 1999-11-16 Fuji Photo Film Co Ltd Method and device for extracting main object
JP2001103304A (en) * 1999-07-29 2001-04-13 Fuji Photo Film Co Ltd Method and system for extracting specific object
JP2001197352A (en) * 2000-01-12 2001-07-19 Fuji Photo Film Co Ltd Main object extracting method
JP2003156680A (en) * 2001-11-22 2003-05-30 Minolta Co Ltd Subject extracting device and photographing device
JP2003163827A (en) * 2001-11-22 2003-06-06 Minolta Co Ltd Object extracting device and photographing device
JP2004040462A (en) * 2002-07-03 2004-02-05 Minolta Co Ltd Image pickup equipment

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62159289A (en) * 1986-01-08 1987-07-15 Hitachi Ltd Deciding method for object
JPH09138470A (en) * 1995-11-14 1997-05-27 Fuji Photo Film Co Ltd Method for deciding major part of image and copy condition decision method
JPH09138118A (en) * 1995-11-15 1997-05-27 Matsushita Electric Ind Co Ltd Method for setting image detecting condition
JPH11316845A (en) * 1998-03-02 1999-11-16 Fuji Photo Film Co Ltd Method and device for extracting main object
JP2001103304A (en) * 1999-07-29 2001-04-13 Fuji Photo Film Co Ltd Method and system for extracting specific object
JP2001197352A (en) * 2000-01-12 2001-07-19 Fuji Photo Film Co Ltd Main object extracting method
JP2003156680A (en) * 2001-11-22 2003-05-30 Minolta Co Ltd Subject extracting device and photographing device
JP2003163827A (en) * 2001-11-22 2003-06-06 Minolta Co Ltd Object extracting device and photographing device
JP2004040462A (en) * 2002-07-03 2004-02-05 Minolta Co Ltd Image pickup equipment

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008294785A (en) * 2007-05-25 2008-12-04 Sanyo Electric Co Ltd Image processor, imaging apparatus, image file, and image processing method
JP2010028346A (en) * 2008-07-17 2010-02-04 Casio Comput Co Ltd Image processor, imaging device and program
JP2010141528A (en) * 2008-12-10 2010-06-24 Nikon Corp Image processor and image processing program
JP2012044380A (en) * 2010-08-18 2012-03-01 Canon Inc Imaging apparatus
JP2012242759A (en) * 2011-05-23 2012-12-10 Canon Inc Imaging apparatus, control method therefor, and program
JP2013055609A (en) * 2011-09-06 2013-03-21 Olympus Imaging Corp Digital camera
JP2013062761A (en) * 2011-09-15 2013-04-04 Sony Corp Image processor, image processing method, and program
JP2014023057A (en) * 2012-07-20 2014-02-03 Nikon Corp Image processing apparatus, imaging apparatus, and image processing program
JP2014131187A (en) * 2012-12-28 2014-07-10 Canon Inc Imaging apparatus, control method of the same, and control program

Also Published As

Publication number Publication date
JP4645413B2 (en) 2011-03-09

Similar Documents

Publication Publication Date Title
JP4674471B2 (en) Digital camera
US8106995B2 (en) Image-taking method and apparatus
KR101342477B1 (en) Imaging apparatus and imaging method for taking moving image
JP4980982B2 (en) Imaging apparatus, imaging method, focus control method, and program
JP5247076B2 (en) Image tracking device, focus adjustment device, and imaging device
US9761010B2 (en) Tracking apparatus
JP4645413B2 (en) Imaging device
JP4982997B2 (en) Image processing device
JP5704851B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP2005215040A (en) Autofocus system
JP2006258944A (en) Autofocus system
JP2007108412A (en) Autofocus device and its program
JP2006301378A (en) Imaging apparatus
JP2007264049A (en) Imaging method and apparatus
JP4760302B2 (en) Imaging device
JP2009065573A (en) Imaging apparatus, focus control method, and focus control program
JP6391304B2 (en) Imaging apparatus, control method, and program
JP2007142702A (en) Image processing apparatus
JP5217451B2 (en) Imaging device
JP2007133301A (en) Autofocus camera
JP2011217311A (en) Imaging apparatus and method of controlling the same
JP2007124278A (en) Imaging apparatus
JP4977996B2 (en) Imaging device
JP2004309653A (en) Imaging unit
JP5403087B2 (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101018

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20101018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101109

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101122

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131217

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees