JP5415208B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5415208B2
JP5415208B2 JP2009227339A JP2009227339A JP5415208B2 JP 5415208 B2 JP5415208 B2 JP 5415208B2 JP 2009227339 A JP2009227339 A JP 2009227339A JP 2009227339 A JP2009227339 A JP 2009227339A JP 5415208 B2 JP5415208 B2 JP 5415208B2
Authority
JP
Japan
Prior art keywords
image
camera shake
unit
area
sensor unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009227339A
Other languages
Japanese (ja)
Other versions
JP2011075841A (en
JP2011075841A5 (en
Inventor
健太郎 常盤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2009227339A priority Critical patent/JP5415208B2/en
Publication of JP2011075841A publication Critical patent/JP2011075841A/en
Publication of JP2011075841A5 publication Critical patent/JP2011075841A5/ja
Application granted granted Critical
Publication of JP5415208B2 publication Critical patent/JP5415208B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Description

本発明は撮像装置に係り、特に位相差検出方式の自動焦点調節(位相差AF)を行う撮像装置に関する。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus that performs phase difference detection type automatic focus adjustment (phase difference AF).

一眼レフカメラ等に使用されている位相差検出方式のAF装置は、撮影レンズと固体撮像素子との間にビームスプリッタを配置し、ビームスプリッタで分岐された光を位相差検出用のAFセンサに入射させ、このAFセンサにより検出される位相差を示す検出信号に基づいてフォーカスレンズを制御するようにしている。   A phase difference detection AF device used in a single-lens reflex camera or the like has a beam splitter disposed between a photographing lens and a solid-state image sensor, and the light branched by the beam splitter is used as an AF sensor for phase difference detection. The focus lens is controlled based on a detection signal indicating a phase difference detected by the AF sensor.

従来、上記ビームスプリッタや専用のAFセンサを設ける代わりに、固体撮像素子の一部に専用の位相差検出用の画素(AFセンサ部)を設けることで、位相差AFを行う技術が知られている(特許文献1)。   Conventionally, a technique for performing phase difference AF by providing a dedicated phase difference detection pixel (AF sensor unit) in a part of a solid-state imaging device instead of providing the beam splitter and the dedicated AF sensor has been known. (Patent Document 1).

即ち、特許文献1に記載の固体撮像装置は、固体撮像素子の予め設定された所定範囲内の各素子の位置と、その上方に設けたレンズ(マイクロレンズ)とを相対的にずらし、一方の方向にずらした素子の出力信号と、他方の方向にずらした素子の出力信号との比較結果に基づいて合焦状態を検出するようにしている。   That is, the solid-state imaging device described in Patent Document 1 relatively shifts the position of each element within a predetermined range set in advance of the solid-state imaging element and the lens (microlens) provided thereabove. The in-focus state is detected based on the comparison result between the output signal of the element shifted in the direction and the output signal of the element shifted in the other direction.

特許第2959142号公報Japanese Patent No. 2959142

しかしながら、特許文献1に記載の固体撮像装置は、固体撮像素子のAFセンサ部が設けられた箇所でしか位相差AFの情報を検出することができないため、ピントを合わせたい被写体がAFセンサ部上に位置していない場合には、前記被写体にピントを合わせることができないという問題がある。   However, since the solid-state imaging device described in Patent Document 1 can detect phase difference AF information only at a location where the AF sensor unit of the solid-state imaging element is provided, the subject to be focused on the AF sensor unit. If it is not located at the position, there is a problem that the subject cannot be focused.

一方、ピントを合わせたい被写体がAFセンサ上に位置するように、画角をずらしてAFセンサ部上に被写体を位置させ、前記被写体にピントを合わせてから(フォーカスロックさせてから)画角を戻すといったカメラ操作を行う場合には、カメラ操作が煩雑になるとともに、撮影までに時間がかかるという問題がある。   On the other hand, shift the angle of view so that the subject you want to focus on is positioned on the AF sensor, position the subject on the AF sensor unit, and focus the subject (after locking the focus). When the camera operation such as returning is performed, there are problems that the camera operation becomes complicated and that it takes time to shoot.

また、位相差検出用の画素は、撮影画像用の画素として使用することができず、固体撮像素子に多くのAFセンサ部を設けると、画質が低下するという問題がある。   Further, the phase difference detection pixel cannot be used as a captured image pixel, and if a large number of AF sensor units are provided in the solid-state imaging device, there is a problem that the image quality is deteriorated.

本発明はこのような事情に鑑みてなされたもので、固体撮像素子内に設ける位相差検出用の画素を最小限にしつつ、撮影画面内の焦点調節を行うことができる範囲を拡大することができる撮像装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and it is possible to expand the range in which the focus adjustment in the photographing screen can be performed while minimizing the phase difference detection pixels provided in the solid-state imaging device. It is an object of the present invention to provide an imaging device that can be used.

前記目的を達成するために請求項1に係る撮像装置は、撮影レンズと、位相差検出用の画素を含むAFセンサ部を有する固体撮像素子と、装置本体に加わる手ブレを検出する手ブレ検出手段と、前記手ブレ検出手段の検出出力に基づいて前記装置本体の手ブレによる像ブレを相殺するように前記固体撮像素子又は前記撮影レンズ内の手ブレ補正用の光学部材を駆動する手ブレ補正手段と、前記固体撮像素子から画像信号を読み出し、該画像信号のうちの前記AFセンサ部の画素に対応する画像信号に基づいて前記撮影レンズの焦点調節を行うフォーカス制御手段と、撮影画面上で任意に設定されるAF領域内に前記固体撮像素子内のAFセンサ部が存在しない場合に、前記設定されるAF領域と前記固体撮像素子内のAFセンサ部との位置関係を算出する算出手段と、前記算出手段による算出出力に基づいて前記AF領域に前記AFセンサ部が入るように前記手ブレ補正手段を制御する制御手段と、を備えたことを特徴としている。 In order to achieve the above object, an imaging apparatus according to claim 1 includes a photographing lens, a solid-state imaging device having an AF sensor unit including pixels for phase difference detection, and camera shake detection for detecting camera shake applied to the apparatus body. And a camera shake driving optical device for correcting camera shake in the solid-state imaging device or the taking lens so as to cancel image blur due to camera shake of the apparatus main body based on a detection output of the camera shake detecting means. A correction unit; a focus control unit that reads an image signal from the solid-state image sensor; and performs focus adjustment of the photographing lens based on an image signal corresponding to a pixel of the AF sensor unit in the image signal; in the case where the AF sensor unit in the solid-state imaging device to the AF area does not exist is set to an arbitrary position of the AF sensor unit in the solid-state imaging device as an AF area that is the setting function Is characterized by comprising calculating means for calculating a, and a control means for controlling the camera shake correction means to the AF sensor unit enters the AF area based on the calculated output by said calculating means.

即ち、撮影画面上で焦点調節を行いたい任意のAF領域に、固体撮像素子内に設けたAFセンサ部が存在しない場合には、既存の手ブレ補正機能を使用して前記AF領域にAFセンサ部が入るように手ブレ補正手段を制御し、これにより焦点調節を行うことができる範囲を拡大できるようにしている。   That is, when there is no AF sensor unit provided in the solid-state image sensor in an arbitrary AF area where focus adjustment is desired on the shooting screen, an AF sensor is installed in the AF area using an existing camera shake correction function. The camera shake correction means is controlled so that the part can enter, and thereby the range in which focus adjustment can be performed can be expanded.

請求項2に示すように請求項1に記載の撮像装置において、前記フォーカス制御手段は、前記AFセンサ部の画素に対応する画像信号に基づいて前記撮影レンズのデフォーカス量を算出するデフォーカス量算出手段を含み、前記算出されたデフォーカス量が0になるように前記撮影レンズを駆動させることを特徴としている。   The imaging apparatus according to claim 1, wherein the focus control unit calculates a defocus amount of the photographing lens based on an image signal corresponding to a pixel of the AF sensor unit. It includes a calculation means, and the photographing lens is driven so that the calculated defocus amount becomes zero.

請求項3に示すように請求項1又は2に記載の撮像装置において、前記固体撮像素子は、複数のAFセンサ部を有し、各AFセンサ部の間隔は、前記手ブレ補正手段により補正可能な像ブレ補正範囲以下であることを特徴としている。これにより、AFセンサ部をむやみに増やすことなく、焦点調節を行うことができる範囲を拡大できるようにしている。   According to a third aspect of the present invention, in the imaging apparatus according to the first or second aspect, the solid-state imaging device includes a plurality of AF sensor units, and the interval between the AF sensor units can be corrected by the camera shake correction unit. The image blur correction range is not more than that. Thereby, the range in which the focus adjustment can be performed can be expanded without increasing the AF sensor unit unnecessarily.

請求項4に示すように請求項1から3のいずれかに記載の撮像装置において、前記固体撮像素子から得られる画像信号に基づいて特定対象が存在する領域を検出し、この検出した領域を前記AF領域として設定するAF領域設定手段を備えたことを特徴としている。   In the imaging device according to any one of claims 1 to 3, as shown in claim 4, a region where a specific target exists is detected based on an image signal obtained from the solid-state imaging device, and the detected region is An AF area setting means for setting as an AF area is provided.

前記AF領域検出手段により検出される特定対象が存在する領域としては、人物の顔、ペット、花等の、撮影者が画面内でピントを合わせたいと考えているであろう特定対象が存在する領域であり、この領域がAF領域として自動的に設定される。   As the area where the specific object detected by the AF area detecting means exists, there is a specific object such as a human face, pet, flower, or the like that the photographer may want to focus on the screen. This is an area, and this area is automatically set as the AF area.

請求項5に示すように請求項1から4のいずれかに記載の撮像装置において、画像表示手段と、記録用の本画像の撮影前に前記固体撮像素子から連続して得られる画像信号に基づいてライブビュー画像を前記画像表示手段に表示させる表示制御手段とを更に備えたことを特徴としている。 5. The image pickup apparatus according to claim 1, wherein the image display means and an image signal obtained continuously from the solid-state image sensor before photographing a main image for recording are provided. Display control means for displaying a live view image on the image display means.

請求項6に示すように請求項5に記載の撮像装置において、前記表示制御手段は、前記AF領域に前記AFセンサ部が入るように前記手ブレ補正手段が制御されている期間、前記画像表示手段に表示されているライブビュー画像に代えて、前記AF領域を中心に前記ライブビュー画像を拡大した拡大画像を前記画像表示手段に表示させることを特徴としている。   6. The image pickup apparatus according to claim 5, wherein the display control unit displays the image during a period in which the camera shake correction unit is controlled so that the AF sensor unit enters the AF area. Instead of the live view image displayed on the means, an enlarged image obtained by enlarging the live view image around the AF area is displayed on the image display means.

即ち、前記AF領域に前記AFセンサ部が入るように前記手ブレ補正手段を制御すると、撮影画角が変化してライブビュー画像が移動することになるが、前記ライブビュー画像に代えて、前記AF領域を中心に前記ライブビュー画像を拡大した拡大画像を前記画像表示手段に表示させることにより、焦点調節が行われているAF領域を確認することができるとともに、ライブビュー画像の移動といった違和感をなくすことができる。   That is, when the camera shake correction unit is controlled so that the AF sensor unit enters the AF area, the shooting angle of view changes and the live view image moves, but instead of the live view image, the live view image moves. By displaying an enlarged image obtained by enlarging the live view image around the AF area on the image display means, it is possible to check the AF area where focus adjustment is performed, and to feel uncomfortable such as movement of the live view image. Can be eliminated.

請求項7に示すように請求項5に記載の撮像装置において、前記表示制御手段は、前記AF領域に前記AFセンサ部が入るように前記手ブレ補正手段が制御されている期間、前記画像表示手段に表示されるライブビュー画像を静止させることを特徴としている。   The imaging apparatus according to claim 5, wherein the display control unit displays the image during a period in which the camera shake correction unit is controlled so that the AF sensor unit enters the AF area. The live view image displayed on the means is stationary.

これにより、前記AF領域に前記AFセンサ部を入れる手ブレ補正手段の制御時に、ライブビュー画像が移動するといった違和感をなくすことができる。   Accordingly, it is possible to eliminate the uncomfortable feeling that the live view image moves when controlling the camera shake correction unit that places the AF sensor unit in the AF area.

請求項8に示すように請求項5から7のいずれかに記載の撮像装置において、前記表示制御手段は、前記手ブレ補正手段の駆動により拡大される前記AFセンサによる焦点調節が可能な範囲を示す第1の指標を、前記画像表示手段の画面上に表示させることを特徴としている。これにより、予め撮影画角中のどの範囲の被写体にピントを合わせることができるかを知ることができる。   The imaging apparatus according to any one of claims 5 to 7, wherein the display control unit has a range in which focus adjustment by the AF sensor enlarged by driving the camera shake correction unit is possible. The first index shown is displayed on the screen of the image display means. As a result, it is possible to know in advance which range of subjects in the shooting angle of view can be focused.

請求項9に示すように請求項5から8のいずれかに記載の撮像装置において、前記表示制御手段は、前記任意のAF領域に対するフォーカス制御が行われると、前記画像表示手段の画面上に前記AF領域を示す第2の指標を表示させることを特徴としている。これにより、撮影画角中のどの被写体に対してピントが合わされたかを知ることができる。   The imaging apparatus according to any one of claims 5 to 8, wherein when the focus control is performed on the arbitrary AF area, the display control unit is arranged on the screen of the image display unit. A second index indicating the AF area is displayed. Thereby, it is possible to know which subject in the shooting angle of view is in focus.

請求項10に示すように請求項1から9のいずれかに記載の撮像装置において、前記フォーカス制御手段は、前記撮影レンズの焦点調節が完了するまで、前記AFセンサ部の画素に対応する画像信号を複数回取得し、該複数回の画像信号の取得が終了するまで、前記AF領域に前記AFセンサ部が入るように前記手ブレ補正手段を制御することを特徴としている。これによれば、合焦状態を確認することができ、合焦精度を上げることができる。   The imaging apparatus according to any one of claims 1 to 9, wherein the focus control unit includes an image signal corresponding to a pixel of the AF sensor unit until focus adjustment of the photographing lens is completed. The camera shake correction means is controlled so that the AF sensor unit enters the AF area until acquisition of the image signal is completed a plurality of times. According to this, the in-focus state can be confirmed, and the in-focus accuracy can be increased.

請求項11に示すように請求項1から10のいずれかに記載の撮像装置において、前記制御手段は、前記AF領域に前記AFセンサ部を入れる前記手ブレ補正手段の制御時に、前記手ブレ検出手段の検出出力と前記算出手段による算出出力とに基づいて前記手ブレ補正手段を制御することを特徴としている。前記AF領域に前記AFセンサ部を入れる前記手ブレ補正手段の制御時(即ち、AFセンサ部の画素から画像信号を取得する時)に、手ブレ補正も行われるため、より良好な位相差検出用の画像信号を取得することができる。   11. The image pickup apparatus according to claim 1, wherein the control unit detects the camera shake when controlling the camera shake correction unit that places the AF sensor unit in the AF area. The camera shake correction means is controlled based on the detection output of the means and the calculation output of the calculation means. Better phase difference detection because camera shake correction is also performed during control of the camera shake correction unit that places the AF sensor unit in the AF area (that is, when an image signal is acquired from a pixel of the AF sensor unit). Image signals can be acquired.

請求項12に示すように請求項1から11のいずれかに記載の撮像装置において、前記制御手段は、前記AF領域に前記AFセンサ部を入れる前記手ブレ補正手段の制御と本撮影時に像ブレを補正する前記手ブレ補正手段の制御とを、シャッタボタンの半押し時と全押し時とで切り替えることを特徴としている。これにより、位相差AF時と手ブレ補正時とで、それぞれ最適な手ブレ補正手段の制御を行うことができる。   The imaging device according to any one of claims 1 to 11, wherein the control unit controls the camera shake correction unit that puts the AF sensor unit in the AF area and performs image blurring during main photographing. The control of the camera shake correction means for correcting the image is switched between when the shutter button is half-pressed and when the shutter button is fully pressed. As a result, it is possible to perform optimum control of the camera shake correction means at the time of phase difference AF and at the time of camera shake correction.

本発明によれば、撮影画面上で焦点調節を行いたい任意のAF領域に、固体撮像素子内に設けたAFセンサ部が存在しない場合には、既存の手ブレ補正機能を使用して前記AF領域にAFセンサ部が入るように手ブレ補正手段を制御するようにしたため、固体撮像素子内に設ける位相差検出用の画素を最小限にしつつ、焦点調節を行うことができる範囲を拡大することができる。   According to the present invention, when there is no AF sensor unit provided in the solid-state imaging device in an arbitrary AF area where the focus adjustment is desired on the shooting screen, the AF is performed using the existing camera shake correction function. Since the camera shake correction unit is controlled so that the AF sensor unit enters the area, the range in which the focus adjustment can be performed is expanded while minimizing the phase difference detection pixels provided in the solid-state imaging device. Can do.

図1は本発明に係る撮像装置(デジタルカメラ)の実施の形態を示すブロック図である。FIG. 1 is a block diagram showing an embodiment of an imaging apparatus (digital camera) according to the present invention. 図2は本発明に係るCCDの要部拡大図である。FIG. 2 is an enlarged view of a main part of the CCD according to the present invention. 図3は図2に示したCCDの断面を模式的に示した図であるFIG. 3 is a diagram schematically showing a cross section of the CCD shown in FIG. 図4は焦点状態と位相差検出用の画素A、画素Bの出力(位相差)との関係を示す図である。FIG. 4 is a diagram showing the relationship between the focus state and the outputs (phase differences) of the pixels A and B for phase difference detection. 図5はCCDに設けられた位相差検出用のAFセンサ部の一例を示す図である。FIG. 5 is a diagram showing an example of an AF sensor unit for phase difference detection provided in the CCD. 図6は本発明に係る撮像装置(デジタルカメラ)の撮影前から画像記録までの処理手順を示すフローチャートである。FIG. 6 is a flowchart showing a processing procedure from before the photographing to image recording by the imaging apparatus (digital camera) according to the present invention. 図7は本発明に係る位相差AF処理の第1の実施形態を示すフローチャートである。FIG. 7 is a flowchart showing a first embodiment of phase difference AF processing according to the present invention. 図8は液晶モニタに表示される焦点調節が可能な範囲の表示例を示す図である。FIG. 8 is a diagram showing a display example of a range in which focus adjustment is possible displayed on the liquid crystal monitor. 図9は液晶モニタに表示される焦点調節が可能な範囲の他の表示例を示す図である。FIG. 9 is a diagram illustrating another display example of the range in which the focus adjustment displayed on the liquid crystal monitor is possible. 図10は本発明に係るCCDの第2の構成例を示す図である。FIG. 10 is a diagram showing a second configuration example of the CCD according to the present invention. 図11は本発明に係るCCDの第3の構成例を示す図である。FIG. 11 is a diagram showing a third configuration example of the CCD according to the present invention. 図12は本発明に係る位相差AF処理の第2の実施形態を示すフローチャートである。FIG. 12 is a flowchart showing a second embodiment of phase difference AF processing according to the present invention. 図13は手ブレ検出部を駆動している期間中のスルー画像の他の表示例を説明するために使用した図である。FIG. 13 is a diagram used for explaining another display example of the through image during the period in which the camera shake detection unit is driven. 図15は手ブレ検出部を駆動している期間中に被写体検出範囲にAFセンサ部が入るようにCCDを移動させたときのスルー画像の表示例を示す図である。FIG. 15 is a diagram showing a display example of a through image when the CCD is moved so that the AF sensor unit enters the subject detection range while the camera shake detection unit is driven. 図15は本発明に係るCCDの第4の構成例を示す図である。FIG. 15 is a diagram showing a fourth configuration example of the CCD according to the present invention. 図16は本発明に係るCCDの第4の構成例を示す図である。FIG. 16 is a diagram showing a fourth configuration example of the CCD according to the present invention. 図17は本発明に係る位相差AF処理の第3の実施形態を示すフローチャートである。FIG. 17 is a flowchart showing a third embodiment of phase difference AF processing according to the present invention. 図18は通常の手ブレ補正と本発明に係る第3の実施形態の手ブレ補正時にCCDの状態を示す図である。FIG. 18 is a diagram showing the state of the CCD during normal camera shake correction and camera shake correction according to the third embodiment of the present invention. 図19は手ブレ補正時と本発明に係る第3の実施形態の手ブレ補正時のCCDの移動を示す波形図である。FIG. 19 is a waveform diagram showing movement of the CCD during camera shake correction and during camera shake correction according to the third embodiment of the present invention.

以下、添付図面に従って本発明に係る撮像装置の実施の形態について説明する。
[撮像装置の全体構成]
図1は本発明に係る撮像装置(デジタルカメラ)10の実施の形態を示すブロック図である。
Hereinafter, embodiments of an imaging apparatus according to the present invention will be described with reference to the accompanying drawings.
[Overall configuration of imaging device]
FIG. 1 is a block diagram showing an embodiment of an imaging apparatus (digital camera) 10 according to the present invention.

このデジタルカメラ10は、撮像した画像をメモリカード54に記録するもので、カメラ全体の動作は、中央処理装置(CPU)40によって統括制御される。   The digital camera 10 records captured images on a memory card 54, and the operation of the entire camera is centrally controlled by a central processing unit (CPU) 40.

デジタルカメラ10には、シャッタボタン、モードダイヤル、再生ボタン、MENU/OKキー、十字キー、BACKキー等の操作部38が設けられている。この操作部38からの信号はCPU40に入力され、CPU40は入力信号に基づいてデジタルカメラ10の各回路を制御し、例えば、レンズ駆動制御、撮影動作制御、画像処理制御、画像データの記録/再生制御、液晶モニタ30の表示制御などを行う。   The digital camera 10 is provided with an operation unit 38 such as a shutter button, a mode dial, a playback button, a MENU / OK key, a cross key, and a BACK key. A signal from the operation unit 38 is input to the CPU 40, and the CPU 40 controls each circuit of the digital camera 10 based on the input signal. For example, lens driving control, photographing operation control, image processing control, and image data recording / reproduction are performed. Control and display control of the liquid crystal monitor 30 are performed.

シャッタボタンは、撮影開始の指示を入力する操作ボタンであり、半押し時にONするS1スイッチと、全押し時にONするS2スイッチとを有する二段ストローク式のスイッチで構成されている。モードダイヤルは、静止画を撮影するオート撮影モード、マニュアル撮影モード、人物、風景、夜景等のシーンポジション、及び動画を撮影する動画モードのいずれかを選択する選択手段である。   The shutter button is an operation button for inputting an instruction to start shooting, and includes a two-stage stroke type switch having an S1 switch that is turned on when half-pressed and an S2 switch that is turned on when fully pressed. The mode dial is a selection means for selecting one of an auto shooting mode for shooting a still image, a manual shooting mode, a scene position such as a person, a landscape, a night view, and a moving image mode for shooting a moving image.

再生ボタンは、撮影記録した静止画又は動画を液晶モニタ30に表示させる再生モードに切り替えるためのボタンである。MENU/OKキーは、液晶モニタ30の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作キーである。十字キーは、上下左右の4方向の指示を入力する操作部であり、メニュー画面から項目を選択したり、各メニューから各種設定項目の選択を指示したりするボタン(カーソル移動操作手段)として機能する。また、十字キーの上/下キーは撮影時のズームスイッチあるいは再生モード時の再生ズームスイッチとして機能し、左/右キーは再生モード時のコマ送り(順方向/逆方向送り)ボタンとして機能する。BACKキーは、選択項目など所望の対象の消去や指示内容の取消し、あるいは1つ前の操作状態に戻らせる時などに使用される。   The playback button is a button for switching to a playback mode in which a captured still image or moving image is displayed on the liquid crystal monitor 30. The MENU / OK key is an operation key having both a function as a menu button for instructing to display a menu on the screen of the liquid crystal monitor 30 and a function as an OK button for instructing confirmation and execution of the selection contents. It is. The cross key is an operation unit for inputting instructions in four directions, up, down, left, and right, and functions as a button (cursor moving operation means) for selecting an item from the menu screen or instructing selection of various setting items from each menu. To do. The up / down key of the cross key functions as a zoom switch for shooting or a playback zoom switch in playback mode, and the left / right key functions as a frame advance (forward / reverse feed) button in playback mode. . The BACK key is used to delete a desired object such as a selection item, cancel an instruction content, or return to the previous operation state.

また、手ブレ検出部39は、例えば、カメラ本体の垂直方向及び水平方向の角速度を検出する2つの角速度センサと、これらの角速度センサによって検出された角速度をそれぞれ積分して垂直方向及び水平方向のブレ角を算出する積分手段とから構成されている。この手ブレ検出部39により検出されたカメラ本体の垂直方向及び水平方向のブレ角を示す検出信号は、CPU40に加えられる。   In addition, the camera shake detection unit 39 integrates, for example, two angular velocity sensors that detect the vertical and horizontal angular velocities of the camera body and the angular velocities detected by these angular velocity sensors, respectively. And integrating means for calculating the blur angle. Detection signals indicating the vertical and horizontal camera shake angles detected by the camera shake detector 39 are applied to the CPU 40.

さて、撮影モード時において、被写体を示す画像光は、撮影レンズ12、絞り14を介してCCDイメージセンサである固体撮像素子(以下、「CCD」という)16の受光面に結像される。撮影レンズ12は、CPU40によって制御されるレンズ駆動部32によって駆動され、フォーカス制御、ズーム制御等が行われる。絞り14は、例えば、5枚の絞り羽根からなり、CPU40によって制御される絞り駆動部33によって駆動され、例えば、絞り値F2.8 〜F11まで1AV刻みで5段階に絞り制御される。   In the photographing mode, image light indicating a subject is imaged on a light receiving surface of a solid-state imaging device (hereinafter referred to as “CCD”) 16 which is a CCD image sensor via a photographing lens 12 and a diaphragm 14. The photographing lens 12 is driven by a lens driving unit 32 controlled by the CPU 40, and focus control, zoom control, and the like are performed. The diaphragm 14 is composed of, for example, five diaphragm blades, and is driven by the diaphragm drive unit 33 controlled by the CPU 40. For example, the diaphragm 14 is controlled in five stages from the aperture values F2.8 to F11 in increments of 1AV.

CPU40は、手ブレ検出部39から入力するカメラ本体の垂直方向及び水平方向のブレ角を示す検出信号に基づいて、カメラ本体の手ブレによる像ブレを相殺するようにCCD16を上下左右方向に駆動(振動)させる手ブレ補正部34を制御する。尚、CPU40は、位相差AF時にも手ブレ補正部34を制御するが、その詳細については後述する。   The CPU 40 drives the CCD 16 in the vertical and horizontal directions so as to cancel the image blur due to the camera shake of the camera body based on the detection signal indicating the vertical and horizontal shake angles of the camera body input from the camera shake detection unit 39. The camera shake correction unit 34 to be vibrated is controlled. Note that the CPU 40 also controls the camera shake correction unit 34 during phase difference AF, details of which will be described later.

また、CPU40は、絞り駆動部33を介して絞り14を制御するとともに、CCD制御部36を介してCCD16での電荷蓄積時間(シャッタスピード)や、CCD16からの画像信号の読み出し制御等を行う。   Further, the CPU 40 controls the diaphragm 14 via the diaphragm driving unit 33, and controls the charge accumulation time (shutter speed) in the CCD 16 and the image signal readout control from the CCD 16 through the CCD control unit 36.

<CCDの第1の構成例>
図2は本発明に係るCCD16の要部拡大図である。このCCD16は、ハニカム配列された光電変換用の画素であって、撮影レンズ12の射出瞳を通過する光束の受光方向の制限を受けない通常の画素と、撮影レンズ12の射出瞳を通過する光束の受光方向の制限を受ける位相差検出用の画素とを有しており、各画素上にはR、G、Bのカラーフィルタが設けられている。
<First CCD Configuration Example>
FIG. 2 is an enlarged view of a main part of the CCD 16 according to the present invention. The CCD 16 is a pixel for photoelectric conversion arranged in a honeycomb, and is a normal pixel that is not limited in the light receiving direction of the light beam passing through the exit pupil of the photographing lens 12 and a light beam that passes through the exit pupil of the photographing lens 12. And a pixel for detecting a phase difference that is limited in the light receiving direction. R, G, and B color filters are provided on each pixel.

通常の画素は、光電変換素子(フォトダイオード)PDの中心と、その上方に設けられたマイクロレンズL1の中心とが一致している。一方、位相差検出用の画素は、フォトダイオードPDの中心と、その上方に設けられたマイクロレンズL2の中心とがずれており、かつマイクロレンズL2は、マイクロレンズL1よりも小さいものとなっている。   In a normal pixel, the center of the photoelectric conversion element (photodiode) PD coincides with the center of the microlens L1 provided thereabove. On the other hand, in the pixel for phase difference detection, the center of the photodiode PD is shifted from the center of the microlens L2 provided above the photodiode PD, and the microlens L2 is smaller than the microlens L1. Yes.

また、図2上で符号A、Bで区別されているように、位相差検出用の画素は、フォトダイオードPDに対してマイクロレンズL2が右にずれているものと、左にずれているものとの2種類の画素を有している。   In addition, as distinguished by reference signs A and B in FIG. 2, the phase difference detection pixel has a microlens L2 shifted to the right and a pixel shifted to the left with respect to the photodiode PD. And two types of pixels.

図3は上記CCD16の断面を模式的に示したものである。図3に示すように通常の画素は、撮影レンズ12の射出瞳を通過する光束の受光方向の制限を受けないようにマイクロレンズL1によりフォトダイオードPD上に集光されているが、位相差検出用の画素は、撮影レンズ12の射出瞳を通過する光束の受光方向の制限を受けるようにマイクロレンズL2とフォトダイオードPDとが配置されており、画素Aと画素Bとでは、光束の受光方向の制限方向が異なる。   FIG. 3 schematically shows a cross section of the CCD 16. As shown in FIG. 3, the normal pixels are condensed on the photodiode PD by the microlens L1 so as not to be limited in the light receiving direction of the light beam passing through the exit pupil of the photographing lens 12, but the phase difference detection is performed. In the pixel for use, the microlens L2 and the photodiode PD are arranged so as to be limited in the light receiving direction of the light beam passing through the exit pupil of the photographing lens 12, and in the pixel A and the pixel B, the light receiving direction of the light beam. The restriction direction is different.

従って、図4(A)〜(C)に示すように後ピン、合焦、前ピンの状態に応じて画素Aと画素Bの出力は、位相がずれ又は位相が一致する。上記位相差検出用の画素A,Bの出力信号の位相差は撮影レンズ12のデフォーカス量に対応するため、この位相差を検出することにより撮影レンズ12のAF制御を行うことができる。   Therefore, as shown in FIGS. 4A to 4C, the outputs of the pixel A and the pixel B are out of phase or in phase with each other depending on the state of the rear pin, in-focus, and front pin. Since the phase difference between the output signals of the pixels A and B for detecting the phase difference corresponds to the defocus amount of the photographic lens 12, AF control of the photographic lens 12 can be performed by detecting this phase difference.

上記位相差検出用の画素A,Bは、図5に示すようにCCD16の中央部の所定の領域に設けられており、以下、この領域をAFセンサ部17という。このAFセンサ部17は、図2に示したように通常の画素と、位相差検出用の画素A,Bとが混在して設けられている。尚、図2では、位相差検出用の画素A、Bがそれぞれ2個ずつ設けられているが、AFセンサ部17には、位相差を精度よく検出できるように、例えば、それぞれ10個ずつ設けることが好ましい。   The phase difference detection pixels A and B are provided in a predetermined area at the center of the CCD 16 as shown in FIG. 5, and this area is hereinafter referred to as an AF sensor section 17. As shown in FIG. 2, the AF sensor unit 17 is provided with a mixture of normal pixels and pixels A and B for phase difference detection. In FIG. 2, two pixels A and B for phase difference detection are provided. However, for example, 10 pixels are provided in the AF sensor unit 17 so that the phase difference can be detected with high accuracy. It is preferable.

ところで、位相差検出用の画素A,Bへの入射光量は、通常の画素の入射光量の30%程度となるため、位相差検出用の画素A,Bの画像信号は、本撮影時の画像信号としては使用できない。そこで、位相差検出用の画素A,Bの位置の画像信号は、その周囲の通常の画素の画像信号を補間して生成する。尚、位相差検出用の画素A,Bの画像信号を、通常の画素との入射光量の比率に応じて増幅し、本撮影時の画像信号として使用してもよい。   By the way, the amount of light incident on the pixels A and B for phase difference detection is about 30% of the amount of light incident on a normal pixel. Therefore, the image signals of the pixels A and B for phase difference detection are images at the time of actual photographing. It cannot be used as a signal. Therefore, the image signals at the positions of the phase difference detection pixels A and B are generated by interpolating the surrounding normal pixel image signals. Note that the image signals of the pixels A and B for phase difference detection may be amplified in accordance with the ratio of the amount of incident light with the normal pixels and used as the image signal at the time of actual photographing.

図1に戻って、CCD16に蓄積された信号電荷は、CCD制御部36から加えられる読み出し信号に基づいて信号電荷に応じた電圧信号として読み出される。CCD16から読み出された電圧信号は、アナログ信号処理部18に加えられ、ここで各画素ごとのR、G、B信号がサンプリングホールドされ、増幅されたのちA/D変換器20に加えられる。A/D変換器20は、順次入力するR、G、B信号をデジタルのR、G、B信号に変換して画像入力コントローラ22に出力する。   Returning to FIG. 1, the signal charge accumulated in the CCD 16 is read out as a voltage signal corresponding to the signal charge based on the readout signal applied from the CCD controller 36. The voltage signal read from the CCD 16 is applied to the analog signal processing unit 18 where the R, G, and B signals for each pixel are sampled and held, amplified, and then applied to the A / D converter 20. The A / D converter 20 converts R, G, and B signals that are sequentially input into digital R, G, and B signals and outputs them to the image input controller 22.

デジタル信号処理部24は、画像入力コントローラ22を介して入力するデジタルの画像信号に対して、オフセット処理、ホワイトバランス補正及び感度補正を含むゲイン・ コントロール処理、ガンマ補正処理、YC処理等の所定の信号処理を行う。   The digital signal processing unit 24 performs predetermined processing such as offset control, gain control processing including white balance correction and sensitivity correction, gamma correction processing, YC processing, etc., on the digital image signal input via the image input controller 22. Perform signal processing.

デジタル信号処理部24で処理された画像データは、VRAM50に入力する。VRAM50には、それぞれが1コマ分の画像を表す画像データを記憶するA領域とB領域とが含まれている。VRAM50において1コマ分の画像を表す画像データがA領域とB領域とで交互に書き換えられる。VRAM50のA領域及びB領域のうち、画像データが書き換えられている方の領域以外の領域から、書き込まれている画像データが読み出される。VRAM50から読み出された画像データはビデオ・エンコーダ28においてエンコーディングされ、カメラ背面に設けられている液晶モニタ30に出力され、これにより被写体像が液晶モニタ30の表示画面上に表示される。   The image data processed by the digital signal processing unit 24 is input to the VRAM 50. The VRAM 50 includes an A area and a B area each storing image data representing an image for one frame. In the VRAM 50, image data representing an image for one frame is rewritten alternately in the A area and the B area. Of the A area and B area of the VRAM 50, the written image data is read from an area other than the area where the image data is rewritten. The image data read from the VRAM 50 is encoded by the video encoder 28 and output to the liquid crystal monitor 30 provided on the back of the camera, whereby the subject image is displayed on the display screen of the liquid crystal monitor 30.

また、操作部38のシャッタボタンの第1段階の押下(半押し)があると、AF動作及びAE動作が開始する。即ち、A/D変換器20から出力される画像データのうちのAFセンサ部17に対応する画像データ(位相差検出用の画素の出力信号)が位相差検出部42に取り込まれる。位相差検出部42は、AFセンサ部17における画素Aの画像データと画素Bの画像データとの位相差を検出し、この位相差を示す情報をCPU40に出力する。CPU40は、位相差検出部42から入力する位相差情報に基づいてデフォーカス量を求め、このデフォーカス量が0になるようにレンズ駆動部32を介して撮影レンズ12内のフォーカスレンズの位置を制御する。   Further, when the shutter button of the operation unit 38 is first pressed (half pressed), the AF operation and the AE operation are started. That is, of the image data output from the A / D converter 20, the image data corresponding to the AF sensor unit 17 (the output signal of the phase difference detection pixel) is taken into the phase difference detection unit 42. The phase difference detection unit 42 detects the phase difference between the image data of the pixel A and the image data of the pixel B in the AF sensor unit 17 and outputs information indicating the phase difference to the CPU 40. The CPU 40 obtains the defocus amount based on the phase difference information input from the phase difference detection unit 42, and determines the position of the focus lens in the photographing lens 12 via the lens driving unit 32 so that the defocus amount becomes zero. Control.

顔検出部46は、操作部38で顔検出機能をONにするボタン操作が行われると、動作可能となり、人物の顔検出を行う。この顔検出部46での顔検出は、撮影画像内で所定の対象領域の位置を移動させながら、対象領域の画像と顔画像テンプレートとを照合して両者の相関を調べ、相関スコアが予め設定された閾値を越えると、その対象領域を顔領域として検出する。その他、顔検出方法には、エッジ検出又は形状パターン検出による顔検出方法、色相検出又は肌色検出による顔検出方法等の公知の方法を利用することができる。   The face detection unit 46 becomes operable when a button operation for turning on the face detection function is performed by the operation unit 38, and detects a human face. The face detection by the face detection unit 46 is performed by checking the correlation between the image of the target area and the face image template while moving the position of the predetermined target area in the captured image, and setting a correlation score in advance. When the threshold value is exceeded, the target area is detected as a face area. In addition, as the face detection method, a known method such as a face detection method based on edge detection or shape pattern detection, a face detection method based on hue detection, or skin color detection can be used.

また、シャッタボタンの半押し時にA/D変換器20から出力される画像データは、AE検出部44に取り込まれる。AE検出部44では、画面全体のG信号を積算し、又は画面中央部と周辺部とで異なる重みづけをしたG信号を積算し、又は顔検出部46により検出された顔領域のG信号を積算し、その積算値をCPU40に出力する。CPU40は、AE検出部44から入力する積算値より被写体の明るさ(撮影Ev値)を算出し、この撮影Ev値に基づいて絞り14の絞り値及びCCD16の電子シャッタ(シャッタスピード)を所定のプログラム線図にしたがって決定し、その決定した絞り値に基づいて絞り駆動部33を介して絞り14を制御するとともに、決定したシャッタスピードに基づいてCCD制御部36を介してCCD16での電荷蓄積時間を制御する。   The image data output from the A / D converter 20 when the shutter button is half-pressed is taken into the AE detection unit 44. The AE detection unit 44 integrates the G signals of the entire screen, integrates the G signals with different weights in the central portion and the peripheral portion of the screen, or calculates the G signal of the face area detected by the face detection unit 46. Integration is performed and the integrated value is output to the CPU 40. The CPU 40 calculates the brightness of the subject (shooting Ev value) from the integrated value input from the AE detection unit 44, and sets the aperture value of the diaphragm 14 and the electronic shutter (shutter speed) of the CCD 16 based on this shooting Ev value. Determined according to the program diagram, controls the aperture 14 via the aperture drive unit 33 based on the determined aperture value, and charges accumulation time in the CCD 16 via the CCD control unit 36 based on the determined shutter speed To control.

AE動作及びAF動作が終了し、シャッタボタンの第2段階の押下(全押し)があると、その押下に応答してA/D変換器20から出力される画像データが画像入力コントローラ22からメモリ(SDRAM) 48に入力し、一時的に記憶される。   When the AE operation and the AF operation are completed and the shutter button is pressed in the second stage (full press), the image data output from the A / D converter 20 in response to the press is stored in the memory from the image input controller 22. Input to (SDRAM) 48 and temporarily stored.

メモリ48に一時的に記憶された画像データは、デジタル信号処理部24により適宜読み出され、ここで画像データの輝度データ及び色差データの生成処理(YC処理)を含む所定の信号処理が行われる。YC処理された画像データ(YCデータ)は、再びメモリ48に記憶される。続いて、YCデータは圧縮伸長処理部26に出力され、JPEG (joint photographic experts group)などの所定の圧縮処理が実行される。圧縮されたYCデータは、再びメモリ48に出力されて記憶されたのち、メディア・コントローラ52によって読み出され、メモリカード54に記録される。   The image data temporarily stored in the memory 48 is appropriately read out by the digital signal processing unit 24, where predetermined signal processing including generation processing (YC processing) of luminance data and color difference data of the image data is performed. . The YC processed image data (YC data) is stored in the memory 48 again. Subsequently, the YC data is output to the compression / decompression processing unit 26, and a predetermined compression process such as JPEG (joint photographic experts group) is executed. The compressed YC data is output and stored again in the memory 48, and then read out by the media controller 52 and recorded in the memory card 54.

[撮影動作]
次に、上記構成のデジタルカメラ10による撮影時の動作について説明する。
[Shooting operation]
Next, an operation at the time of shooting by the digital camera 10 having the above configuration will be described.

図6はデジタルカメラ10の撮影前から画像記録までの処理手順を示すフローチャートである。   FIG. 6 is a flowchart illustrating a processing procedure from before the photographing by the digital camera 10 to image recording.

図6において、CPU40は、操作部38のシャッタボタンが半押し(S1がON)されたか否かを判別する(ステップS10)。シャッタボタンのS1がONされていないと判別されると(「No」の場合)、ライブビュー画像(以下、「スルー画像」という)等を表示するためにCCD16から画像の読み出しを行い(ステップS12)、また、顔検出機能がONされている場合には、顔検出部46にて前記読み出した画像から顔領域の検出を行わせる(ステップS14)。そして、前記読み込んだ画像に基づいて液晶モニタ30にスルー画像を表示させ(ステップS16)、ステップS10に遷移させる。尚、顔検出部46にて顔検出がされている場合には、前記スルー画像上に顔検出枠が表示される。   In FIG. 6, the CPU 40 determines whether or not the shutter button of the operation unit 38 has been half-pressed (S1 is ON) (step S10). If it is determined that the shutter button S1 is not turned on (in the case of “No”), the image is read from the CCD 16 in order to display a live view image (hereinafter referred to as “through image”) (step S12). If the face detection function is ON, the face detection unit 46 detects the face area from the read image (step S14). Then, a through image is displayed on the liquid crystal monitor 30 based on the read image (step S16), and the process proceeds to step S10. When face detection is performed by the face detection unit 46, a face detection frame is displayed on the through image.

撮影者は液晶モニタ30に表示されるスルー画像を見ながら構図を決定することができる。   The photographer can determine the composition while looking at the through image displayed on the liquid crystal monitor 30.

一方、ステップS10において、シャッタボタンのS1がONさていると判別されると(「Yes」の場合)、CPU40は、CCD16から自動露出(AE)及び自動焦点調節(位相差AF)用の画像を読み出す(ステップS18)。CPU40は、AE検出部44を介して入力する前記読み出した画像の積算値に基づいて絞り14の絞り値及びCCD16の電子シャッタ(シャッタスピード)を決定するAE処理を行う(ステップS20)。   On the other hand, if it is determined in step S10 that the shutter button S1 is ON (in the case of “Yes”), the CPU 40 displays images for automatic exposure (AE) and automatic focus adjustment (phase difference AF) from the CCD 16. Read (step S18). The CPU 40 performs AE processing for determining the aperture value of the aperture 14 and the electronic shutter (shutter speed) of the CCD 16 based on the integrated value of the read image input through the AE detection unit 44 (step S20).

また、CPU40は、位相差AF処理を行う(ステップS22)。   Further, the CPU 40 performs a phase difference AF process (step S22).

<位相差AF処理の第1の実施形態>
図7は上記ステップS22における位相差AF処理の第1の実施形態を示すフローチャートである。
<First Embodiment of Phase Difference AF Process>
FIG. 7 is a flowchart showing the first embodiment of the phase difference AF process in step S22.

図7において、まず、撮影画面上で任意に設定される被写体検出範囲(AF領域)を取得する(ステップS40)。この被写体検出範囲としては、顔検出機能がONされている場合には、図6のステップS14で検出された顔検出範囲を使用し、また、顔検出機能がONされていない場合には、液晶モニタ30上で撮影者が十字キーやタッチパネル等を使用して指定した位置を中心とした所定の範囲を使用し、更に顔検出機能がONされず、かつ撮影者からのAF領域の指示がない場合には、撮影画面中央の所定の範囲を使用する。   In FIG. 7, first, a subject detection range (AF area) arbitrarily set on the shooting screen is acquired (step S40). As the subject detection range, the face detection range detected in step S14 of FIG. 6 is used when the face detection function is ON, and when the face detection function is not ON, liquid crystal is used. A predetermined range centered on the position specified by the photographer using the cross key or touch panel on the monitor 30 is used, the face detection function is not turned on, and the AF area is not instructed by the photographer. In this case, a predetermined range at the center of the shooting screen is used.

また、インテリジェントAFの機能(画面内で撮影者がピントを合わせたいと考えているであろう被写体を予測し、その予測した被写体にピントを合わせる機能)を有するデジタルカメラにおいて、インテリジェントAFの機能がONされている場合には、インテリジェントAFにより予測した被写体の検出範囲を使用する。   In addition, in a digital camera having an intelligent AF function (a function for predicting a subject that a photographer may want to focus on the screen and focusing on the predicted subject), the intelligent AF function is provided. If it is ON, the object detection range predicted by intelligent AF is used.

次に、CPU40は、前記被写体検出範囲内にAFセンサ部17(図5参照)が存在しているか否かを判別する(ステップS42)。存在している場合(「Yes」の場合)には、ステップS44に遷移させ、存在していない場合(「No」の場合)には、ステップS46に遷移させる。   Next, the CPU 40 determines whether or not the AF sensor unit 17 (see FIG. 5) exists within the subject detection range (step S42). If it exists (in the case of “Yes”), the process proceeds to step S44. If it does not exist (in the case of “No”), the process proceeds to step S46.

ステップS46では、CPU40は、被写体検出範囲に最も近いAFセンサ部17と被写体検出範囲との差分(ベクトル)を算出する(図5)。尚、図5の例では、AFセンサ部17は、1箇所だけであるため、このAFセンサ部17と被写体検出範囲との差分ベクトルを算出する。   In step S46, the CPU 40 calculates a difference (vector) between the AF sensor unit 17 closest to the subject detection range and the subject detection range (FIG. 5). In the example of FIG. 5, since there is only one AF sensor unit 17, a difference vector between the AF sensor unit 17 and the subject detection range is calculated.

続いて、CPU40は、上記算出された算出結果(ベクトル)に対応して手ブレ補正部34(図1)を制御し、CCD16を移動させる(ステップS48)。そして、CCD16を移動させた結果、被写体検出範囲内にAFセンサ部17が存在しているか否かを判別し(ステップS50)、存在していない場合(「No」の場合)には、ステップS46に遷移させ、ステップS46からステップS50の処理を繰り返す。このようにして、被写体検出範囲にAFセンサ部17が入るようにする。   Subsequently, the CPU 40 controls the camera shake correction unit 34 (FIG. 1) corresponding to the calculated calculation result (vector), and moves the CCD 16 (step S48). Then, as a result of moving the CCD 16, it is determined whether or not the AF sensor unit 17 exists within the subject detection range (step S50). If it does not exist (in the case of “No”), step S46 is performed. The process from step S46 to step S50 is repeated. In this way, the AF sensor unit 17 enters the subject detection range.

ステップS42又はステップS50において、被写体検出範囲内にAFセンサ部17が存在していると判別されると(「Yes」の場合)、ステップS44に遷移する。ステップS44では、CCD16から位相差AF用の画像が読み出される。位相差検出部42は、読み出された画像中のAFセンサ部17に対応する画像(位相差検出用の画素の出力信号)に基づいて位相差を検出し、この位相差を示す情報(焦点検出情報)を取得する。   If it is determined in step S42 or step S50 that the AF sensor unit 17 exists within the subject detection range (in the case of “Yes”), the process proceeds to step S44. In step S44, an image for phase difference AF is read from the CCD 16. The phase difference detection unit 42 detects a phase difference based on an image (output signal of a phase difference detection pixel) corresponding to the AF sensor unit 17 in the read image, and information indicating the phase difference (focus) Detection information).

CPU40は、位相差検出部42から入力する焦点検出情報に基づいてデフォーカス量を求め、このデフォーカス量が0になるようにレンズ駆動部32を介して撮影レンズ12内のフォーカスレンズの位置を制御する(ステップS52)。これにより、任意の被写体検出範囲の被写体に合焦させる位相差AFを行うことができる。   The CPU 40 obtains the defocus amount based on the focus detection information input from the phase difference detection unit 42, and determines the position of the focus lens in the photographing lens 12 via the lens driving unit 32 so that the defocus amount becomes zero. Control (step S52). Thereby, phase difference AF for focusing on a subject in an arbitrary subject detection range can be performed.

図6に戻って、ステップS24では、ステップS20で決定された絞り値及びシャッタスピードが保持されるとともに、ステップS22での位相差AF処理によりAF制御されたフォーカスレンズの位置が保持される。尚、シャッタボタンの半押し時には、スルー画像の表示は静止させ、CCD16の移動時にスルー画像が移動しないようにしている。   Returning to FIG. 6, in step S24, the aperture value and shutter speed determined in step S20 are held, and the position of the focus lens AF-controlled by the phase difference AF process in step S22 is held. It should be noted that when the shutter button is half-pressed, the display of the through image is stopped, and the through image is not moved when the CCD 16 is moved.

続いて、CPU40は、操作部38のシャッタボタンが全押し(S2がON)されたか否かを判別する(ステップS26)。シャッタボタンのS2がONされていないと判別されると(「No」の場合)、ステップS28に遷移させ、ここでシャッタボタンが半押し(S1がON)されたか否かを判別する。半押しされている場合(「Yes」の場合)には、ステップS26に遷移させ、半押しされていない場合(「No」の場合)には、ステップS10に遷移させる。   Subsequently, the CPU 40 determines whether or not the shutter button of the operation unit 38 has been fully pressed (S2 is ON) (step S26). If it is determined that the shutter button S2 is not ON (in the case of “No”), the process proceeds to step S28, where it is determined whether or not the shutter button is half-pressed (S1 is ON). If it is half-pressed (in the case of “Yes”), the process proceeds to step S26. If it is not half-pressed (in the case of “No”), the process proceeds to step S10.

ステップS26において、シャッタボタンのS2がONされていると判別されると(「Yes」の場合)、ステップS20でのAE処理にて決定したシャッタ速度、絞り値等の撮影条件で本撮影を行わせる(ステップS30)。この本撮影により撮影された画像がCCD16から読み出され(ステップS32)、その読み出された画像は、デジタル信号処理部24で画像処理された後、圧縮伸張処理部26で圧縮処理が施され、メモリカード54に記録される(ステップS34、S36)。   If it is determined in step S26 that the shutter button S2 is ON (in the case of “Yes”), the main photographing is performed under the photographing conditions such as the shutter speed and the aperture value determined in the AE process in step S20. (Step S30). An image photographed by the actual photographing is read from the CCD 16 (step S32). The read image is subjected to image processing by the digital signal processing unit 24 and then subjected to compression processing by the compression / decompression processing unit 26. Is recorded in the memory card 54 (steps S34 and S36).

<焦点調節可能範囲の表示例>
図8は液晶モニタ30に表示される焦点調節が可能な範囲の表示例を示す図であり、図8(A)及び(B)はそれぞれスルー画像の表示中及びシャッタボタンの半押し中に関して示している。
<Display example of adjustable focus range>
FIG. 8 is a view showing a display example of the range in which the focus adjustment can be performed displayed on the liquid crystal monitor 30, and FIGS. ing.

図8(A)に示すようにスルー画像の表示中は、手ブレ補正部34によりCCD16を移動させることなく焦点調節が可能な領域(AF領域)を示す固定のAF枠60と、手ブレ補正部34によりCCD16(AFセンサ部17)を移動させることにより焦点調節が可能な範囲を示す枠62とを、液晶モニタ30のスルー画像上に表示させる。   As shown in FIG. 8A, during display of a through image, a fixed AF frame 60 indicating an area (AF area) in which focus adjustment can be performed without moving the CCD 16 by the camera shake correction unit 34, and camera shake correction. By moving the CCD 16 (AF sensor unit 17) by the unit 34, a frame 62 indicating a range in which focus adjustment is possible is displayed on the through image of the liquid crystal monitor 30.

これにより、撮影者は焦点調節が可能な範囲を確認しながら構図を決めることができる。   Thereby, the photographer can determine the composition while confirming the range in which the focus adjustment is possible.

一方、図8(B)に示すようにシャッタボタンが半押し(S1がON)されると、画面内で撮影者がピントを合わせたいと考えているであろう特定対象(例えば、人物の顔、ペット、花等)を予測し、その特定対象が存在する領域にAF枠60を移動させる。   On the other hand, as shown in FIG. 8B, when the shutter button is half-pressed (S1 is ON), a specific target (for example, a person's face) that the photographer may want to focus on in the screen is displayed. , Pet, flower, etc.), and the AF frame 60 is moved to the area where the specific target exists.

これにより、撮影者はどの被写体にピントが合わされたかを確認することができる。   As a result, the photographer can confirm which subject is in focus.

尚、人物の顔を特定対象とする場合には、顔検出機能をONにさせ、また、人物の顔に限らず、画面内で撮影者がピントを合わせたいと考えているであろう各種の特定対象を予測させて、その位置をAF領域とする場合には、インテリジェントAFの機能を選択するようにする。   When a person's face is a specific target, the face detection function is turned on, and not only the person's face but also various kinds of photographs that the photographer may want to focus on the screen. When the specific target is predicted and the position is set as the AF area, the intelligent AF function is selected.

また、顔検出機能やインテリジェントAFの機能がOFFの場合には、枠62の表示は行われず、またAF枠60も移動しなくなることは言うまでもない。   Needless to say, when the face detection function or the intelligent AF function is OFF, the frame 62 is not displayed and the AF frame 60 does not move.

図9は液晶モニタ30に表示される焦点調節が可能な範囲の他の表示例を示す図であり、図9(A)及び(B)はそれぞれスルー画像の表示中及びシャッタボタンの半押し中に関して示している。尚、図8と共通する部分には同一の符号を付し、その詳細な説明は省略する。   FIG. 9 is a view showing another display example of the range in which the focus adjustment can be performed displayed on the liquid crystal monitor 30, and FIGS. 9A and 9B show a through image being displayed and a shutter button being half-pressed, respectively. Shows about. In addition, the same code | symbol is attached | subjected to the part which is common in FIG. 8, and the detailed description is abbreviate | omitted.

この表示例では、顔検出機能がONされている場合に、スルー画像上で検出された顔領域に顔検出枠64とAF枠60とを表示している。この顔検出枠64とAF枠60とは、一体となって顔を追尾するように移動する。   In this display example, when the face detection function is ON, the face detection frame 64 and the AF frame 60 are displayed in the face area detected on the through image. The face detection frame 64 and the AF frame 60 move so as to track the face together.

そして、シャッタボタンが半押し(S1がON)され、AF枠60内の顔に合焦すると、合焦を示す枠60’(AF枠60を小さくした枠)を表示させる。尚、小さい枠60’の代わりに、枠の色を変えるようにしてもよい。   When the shutter button is half-pressed (S1 is turned on) and the face in the AF frame 60 is focused, a frame 60 'indicating the focus (a frame obtained by reducing the AF frame 60) is displayed. Note that the color of the frame may be changed instead of the small frame 60 '.

<CCDの第2、第3の構成例>
図10及び図11は本発明に係るCCDの第2、第3の構成例を示す図である。
<Second and third configuration examples of CCD>
10 and 11 are diagrams showing second and third configuration examples of the CCD according to the present invention.

図5に示す第1の構成例のCCD16では、CCD16の中心にAFセンサ部17が一箇所だけ設けられているが、図10及び図11に示す第2、3の構成例のCCD161、162は、それぞれ5箇所及び9箇所にAFセンサ部17が設けられている点で相違する。   In the CCD 16 of the first configuration example shown in FIG. 5, only one AF sensor unit 17 is provided at the center of the CCD 16, but the CCDs 161 and 162 of the second and third configuration examples shown in FIGS. These are different in that AF sensor portions 17 are provided at 5 and 9 locations, respectively.

上記構成のCCD161、162によれば、第1の構成例のCCD16に比べて、画面内で焦点調節が可能な範囲を拡げることができ、また、各AFセンサ部の間隔を、手ブレ検出部39により手ブレ補正可能な像ブレ補正範囲よりも小さくすることで、特定対象にAFセンサ部を移動させる際の移動量を小さく抑えることができる。   According to the CCDs 161 and 162 having the above-described configuration, the range in which the focus can be adjusted in the screen can be expanded as compared with the CCD 16 having the first configuration example. By making the range smaller than the image blur correction range in which camera shake correction can be performed by 39, the amount of movement when the AF sensor unit is moved to the specific target can be reduced.

そして、複数のAFセンサ部17が設けられたCCD161、162の場合には、図7のステップS46において、CPU40は、被写体検出範囲に最も近いAFセンサ部17と被写体検出範囲との差分(ベクトル)を算出する。この算出したベクトルに基づいて手ブレ検出部39を駆動してCCD161、162を移動させる。   In the case of the CCDs 161 and 162 provided with a plurality of AF sensor units 17, in step S46 of FIG. 7, the CPU 40 determines the difference (vector) between the AF sensor unit 17 closest to the subject detection range and the subject detection range. Is calculated. Based on the calculated vector, the camera shake detection unit 39 is driven to move the CCDs 161 and 162.

<位相差AF処理の第2の実施形態>
図12は図6に示したステップS22における位相差AF処理の第2の実施形態を示すフローチャートである。尚、図7の第1の実施形態を示すフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。
<Second Embodiment of Phase Difference AF Process>
FIG. 12 is a flowchart showing a second embodiment of the phase difference AF process in step S22 shown in FIG. In addition, the same code | symbol is attached | subjected to the part which is common in the flowchart which shows 1st Embodiment of FIG. 7, and the detailed description is abbreviate | omitted.

図12に示す位相差AF処理の第2の実施形態は、図7に示した第1の実施形態と比較して、ステップS60、S62、及びS64が追加されている点で相違する。   The second embodiment of the phase difference AF process shown in FIG. 12 is different from the first embodiment shown in FIG. 7 in that steps S60, S62, and S64 are added.

即ち、ステップS52にて、CPU40により焦点検出情報に基づいて合焦動作が実施された後、再度、CCD16から位相差AF用の画像を読み出し、焦点検出情報を取得する(ステップS60)。尚、ステップS52により合焦動作が実施された後の画像は、より鮮明な画像になっているため、精度の高い焦点検出情報を取得することができる。   That is, in step S52, after the focusing operation is performed by the CPU 40 based on the focus detection information, the phase difference AF image is read again from the CCD 16 and the focus detection information is acquired (step S60). Since the image after the focusing operation is performed in step S52 is a clearer image, highly accurate focus detection information can be acquired.

上記取得した焦点検出情報により合焦が完了しているか否かを判別する(ステップS62)。ここで、焦点検出情報が位相差0を示す場合には、合焦が完了していると判別される。   It is determined whether or not focusing is completed based on the acquired focus detection information (step S62). Here, when the focus detection information indicates a phase difference of 0, it is determined that focusing has been completed.

合焦が完了していない場合(「No」の場合)には、ステップS52に遷移させ、最新の焦点検出情報に基づいて合焦動作を実施させ、合焦が完了している場合(「Yes」の場合)には、手ブレ検出部39の駆動を終了し、CCD16を元の位置に移動させる(ステップS64)。   If focusing has not been completed (in the case of “No”), the process proceeds to step S52, the focusing operation is performed based on the latest focus detection information, and the focusing has been completed (“Yes”). In the case of "", the driving of the camera shake detection unit 39 is ended, and the CCD 16 is moved to the original position (step S64).

図13及び図14は上記手ブレ検出部39を駆動している期間中のスルー画像の他の表示例を説明するための図である。   13 and 14 are diagrams for explaining another display example of the through image during the period in which the camera shake detection unit 39 is driven.

図13(A)に示すように左側の人物の顔(丸で囲んだ被写体検出範囲)に焦点を合わせる場合、図13(B)に示すように被写体検出範囲にAFセンサ部が入るようにCCD16を移動させる。   When focusing on the left person's face (subject detection range circled) as shown in FIG. 13 (A), the CCD 16 is arranged so that the AF sensor unit enters the subject detection range as shown in FIG. 13 (B). Move.

その結果、液晶モニタ30上にスルー画像を表示し続けると、図14(A)に示すようにスルー画像の画角が焦点検出位置変更動作によりずれる。このスルー画像の画角のずれによる違和感をなくすために、シャッタボタンの半押し時にスルー画像を静止させるようにしたが、この実施形態では、図14(B)に示すように被写体検出範囲(AF領域)を中心にスルー画像を拡大した拡大画像を液晶モニタ30に表示させるようにしている。   As a result, when the through image is continuously displayed on the liquid crystal monitor 30, the angle of view of the through image is shifted by the focus detection position changing operation as shown in FIG. In order to eliminate the sense of incongruity due to the deviation of the angle of view of the live view image, the live view image is stopped when the shutter button is half-pressed. However, in this embodiment, as shown in FIG. An enlarged image obtained by enlarging the through image around the region) is displayed on the liquid crystal monitor 30.

これにより、どの被写体検出範囲にピントを合わせようとしているかを確認することができるとともに、スルー画像の移動といった違和感をなくすことができる。   Thereby, it is possible to confirm which subject detection range is being focused, and to eliminate the uncomfortable feeling of moving through images.

<CCDの第4の構成例>
図15及び図16は本発明に係るCCDの第4の構成例を示す図である。
<Fourth configuration example of CCD>
15 and 16 are views showing a fourth configuration example of the CCD according to the present invention.

図10及び図11に示す第2、3の構成例のCCD161、162は、5個、9個のAFセンサ部を十字に配置するようにしたが、図15、図16に示す第4の構成例のCCD163は、9個のAFセンサ部17がマトリクス状に配置されている。   The CCDs 161 and 162 in the second and third configuration examples shown in FIGS. 10 and 11 have five and nine AF sensor sections arranged in a cross shape, but the fourth configuration shown in FIGS. The example CCD 163 has nine AF sensor portions 17 arranged in a matrix.

図15は3行2列目のAFセンサ部17が焦点検出可能な範囲を示しており、図16は9個のAFセンサ部17がそれぞれ焦点検出可能な範囲を示している。   FIG. 15 shows a range in which the AF sensor unit 17 in the third row and second column can detect the focus, and FIG. 16 shows a range in which the nine AF sensor units 17 can detect the focus.

これによれば、CCD163による全撮影範囲内を焦点検出可能範囲とすることができる。   According to this, the entire photographing range by the CCD 163 can be set as a focus detectable range.

尚、CCDによる全撮影範囲を焦点検出可能範囲としてカバーする場合に限らず、全撮影範囲の周辺領域を除く範囲をカバーできるようにAFセンサ部を配置するようにしてもよい。また、図16に示すようにAFセンサ部17を配置する場合、各AFセンサ部17の間隔を手ブレ補正移動量以下にする。   The AF sensor unit may be arranged so as to cover a range excluding the peripheral area of the entire imaging range, not only when the entire imaging range by the CCD is covered as the focus detectable range. Further, when the AF sensor unit 17 is arranged as shown in FIG. 16, the interval between the AF sensor units 17 is set to be equal to or less than the camera shake correction movement amount.

<位相差AF処理の第3の実施形態>
図17は図6に示したステップS22における位相差AF処理の第3の実施形態を示すフローチャートである。尚、図12の第2の実施形態を示すフローチャートと共通する部分には同一の符号を付し、その詳細な説明は省略する。
<Third Embodiment of Phase Difference AF Process>
FIG. 17 is a flowchart showing a third embodiment of the phase difference AF process in step S22 shown in FIG. In addition, the same code | symbol is attached | subjected to the part which is common in the flowchart which shows 2nd Embodiment of FIG. 12, and the detailed description is abbreviate | omitted.

図17に示す位相差AF処理の第3の実施形態は、図12に示した第2の実施形態と比較して、ステップS70、S72、及びS74が追加されている点で相違する。   The third embodiment of the phase difference AF process shown in FIG. 17 is different from the second embodiment shown in FIG. 12 in that steps S70, S72, and S74 are added.

即ち、ステップS70では、手ブレ補正機能をONにしている。通常、カメラの手ブレ補正機能はONに設定されている(メニュー等を使用して手ブレ補正機能をOFFに設定することも可能である)が、第1、第2の実施形態では、被写体検出範囲(AF領域)にAFセンサ部17を入れるために手ブレ補正部34を駆動する場合には、通常の手ブレ補正機能は禁止させておく。   That is, in step S70, the camera shake correction function is turned on. Normally, the camera shake correction function of the camera is set to ON (the camera shake correction function can be set to OFF using a menu or the like), but in the first and second embodiments, the subject When the camera shake correction unit 34 is driven in order to put the AF sensor unit 17 in the detection range (AF region), the normal camera shake correction function is prohibited.

この第3の実施形態では、位相差AF処理時も手ブレ補正機能をON状態に維持する。そして、位相差AF処理用に手ブレ補正部34を駆動する場合には、被写体検出範囲(AF領域)にAFセンサ部17を入れるためのCCD16の移動量だけ、手ブレ補正駆動中心位置を移動させて手ブレ補正駆動を継続する(ステップS72)。   In the third embodiment, the camera shake correction function is maintained in the ON state even during the phase difference AF process. When the camera shake correction unit 34 is driven for phase difference AF processing, the camera shake correction drive center position is moved by the amount of movement of the CCD 16 for placing the AF sensor unit 17 in the subject detection range (AF area). Then, the camera shake correction drive is continued (step S72).

図18(A)は通常の手ブレ補正のみを行っているCCD16の状態を示し、図18(B)は手ブレ補正と位相差AFを行っているCCD16の状態を示している。図18(A)に示すように通常の手ブレ補正は、イメージサークル70の中心付近をブレ補正の中心位置として補正動作を行っているが、図18(B)に示すように位相差AF時には、ブレ補正の中心位置を、被写体検出範囲にAFセンサ部17を入れるためのCCD16の移動量だけシフトして、ブレ補正動作を行う。   18A shows the state of the CCD 16 that performs only normal camera shake correction, and FIG. 18B shows the state of the CCD 16 that performs camera shake correction and phase difference AF. As shown in FIG. 18A, the normal camera shake correction is performed with the vicinity of the center of the image circle 70 as the center position of the shake correction. However, as shown in FIG. Then, the blur correction operation is performed by shifting the center position of the blur correction by the moving amount of the CCD 16 for placing the AF sensor unit 17 in the subject detection range.

そして、位相差AFによる合焦が完了すると、手ブレ補正中心を元の位置に戻し、引き続き手ブレ補正を行う(ステップS74)。   When focusing by phase difference AF is completed, the camera shake correction center is returned to the original position, and camera shake correction is subsequently performed (step S74).

図19(A)と図19(B)、(C)はそれぞれ従来の手ブレ補正時と、本発明の第3の実施形態の手ブレ補正時のCCDの移動を示す波形図である。   FIGS. 19A, 19B, and 19C are waveform diagrams showing movement of the CCD during conventional camera shake correction and during camera shake correction according to the third embodiment of the present invention, respectively.

図19(B)に示すように本発明の第3の実施形態では、シャッタボタンの半押し(S1のON)から全押し(S2のON)までの焦点情報の検出期間、CCD16の中心位置を、被写体検出範囲にAFセンサ部17を入れる移動量だけシフトさせ、手ブレ補正動作を続ける。   As shown in FIG. 19B, in the third embodiment of the present invention, the focus information detection period from the half-press of the shutter button (ON of S1) to the full press (ON of S2), and the center position of the CCD 16 are set. Then, the movement is shifted by the amount by which the AF sensor unit 17 is inserted into the subject detection range, and the camera shake correction operation is continued.

また、図19(C)に示すように、シャッタボタンの半押し(S1のON)から全押し(S2のON)までの焦点情報の検出期間、手ブレ補正の振幅を抑制し、カメラの手ブレに対して弱めに追従させるようにしてもよい。これにより、消費電力が過大にならないようにすることができる。   Further, as shown in FIG. 19C, the focus information detection period from the half-press of the shutter button (S1 ON) to the full press (S2 ON), the amplitude of camera shake correction is suppressed, and the camera hand You may make it make it follow weakly with respect to a blur. Thereby, power consumption can be prevented from becoming excessive.

このように焦点情報の検出期間中も手ブレ補正を継続させることにより、手ブレのない画像を取り込むことができ、より良好な焦点検出情報を求めることができる。   In this way, by continuing the camera shake correction even during the focus information detection period, it is possible to capture an image without camera shake and obtain better focus detection information.

<その他>
固体撮像素子に設けるAFセンサ部の数及び配置は、この実施形態に限定されない。また、手ブレ補正手段は、固体撮像素子を移動させるものに限らず、撮影光学系中の手ブレ補正用の光学部材を移動させるものでもよい。
<Others>
The number and arrangement of AF sensor units provided in the solid-state imaging device are not limited to this embodiment. Further, the camera shake correction means is not limited to the one that moves the solid-state imaging device, but may be one that moves an optical member for camera shake correction in the photographing optical system.

また、光学ズームのズーム倍率により手ブレ補正手段による画角の移動量が異なるため、被写体検出範囲にAFセンサ部を入れるための手ブレ補正手段の制御は、ズーム倍率も制御のパラメータにする必要がある。   Further, since the amount of movement of the angle of view by the camera shake correction unit varies depending on the zoom magnification of the optical zoom, the control of the camera shake correction unit for placing the AF sensor unit in the subject detection range needs to use the zoom magnification as a control parameter. There is.

尚、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。   Needless to say, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the present invention.

10…撮像装置(デジタルカメラ)、12…撮影レンズ、16、161、162、163…固体撮像素子(CCD)、17…AFセンサ部、24…デジタル信号処理部、30…液晶モニタ、32…レンズ駆動部、33…絞り駆動部、34…手ブレ補正部、36…CCD制御部、38…操作部、39…手ブレ検出部、40…中央処理装置(CPU)、42…位相差検出部、44…AE検出部、46…顔検出部、48…メモリ、54…メモリカード、60…AF枠、62…枠、64…顔検出枠、PD…フォトダイオード、L1,L2…マイクロレンズ   DESCRIPTION OF SYMBOLS 10 ... Imaging device (digital camera), 12 ... Shooting lens, 16, 161, 162, 163 ... Solid-state image sensor (CCD), 17 ... AF sensor part, 24 ... Digital signal processing part, 30 ... Liquid crystal monitor, 32 ... Lens Drive unit 33: Aperture drive unit 34: Camera shake correction unit 36 ... CCD control unit 38 ... Operation unit 39 ... Camera shake detection unit 40 ... Central processing unit (CPU) 42 ... Phase difference detection unit 44 ... AE detection unit, 46 ... face detection unit, 48 ... memory, 54 ... memory card, 60 ... AF frame, 62 ... frame, 64 ... face detection frame, PD ... photodiode, L1, L2 ... microlens

Claims (12)

撮影レンズと、
位相差検出用の画素を含むAFセンサ部を有する固体撮像素子と、
装置本体に加わる手ブレを検出する手ブレ検出手段と、
前記手ブレ検出手段の検出出力に基づいて前記装置本体の手ブレによる像ブレを相殺するように前記固体撮像素子又は前記撮影レンズ内の手ブレ補正用の光学部材を駆動する手ブレ補正手段と、
前記固体撮像素子から画像信号を読み出し、該画像信号のうちの前記AFセンサ部の画素に対応する画像信号に基づいて前記撮影レンズの焦点調節を行うフォーカス制御手段と、
撮影画面上で任意に設定されるAF領域内に前記固体撮像素子内のAFセンサ部が存在しない場合に、前記設定されるAF領域と前記固体撮像素子内のAFセンサ部との位置関係を算出する算出手段と、
前記算出手段による算出出力に基づいて前記AF領域に前記AFセンサ部が入るように前記手ブレ補正手段を制御する制御手段と、
を備えたことを特徴とする撮像装置。
A taking lens,
A solid-state imaging device having an AF sensor unit including pixels for phase difference detection;
Camera shake detecting means for detecting camera shake applied to the apparatus body;
Camera shake correction means for driving the optical member for camera shake correction in the solid-state imaging device or the photographing lens so as to cancel image blur due to camera shake of the apparatus main body based on the detection output of the camera shake detection means; ,
A focus control unit that reads an image signal from the solid-state imaging device and adjusts the focus of the photographing lens based on an image signal corresponding to a pixel of the AF sensor unit in the image signal;
When there is no AF sensor unit in the solid-state image sensor in the AF area arbitrarily set on the shooting screen, the positional relationship between the set AF area and the AF sensor unit in the solid-state image sensor is calculated. Calculating means for
Control means for controlling the camera shake correction means so that the AF sensor unit enters the AF area based on a calculation output by the calculation means;
An imaging apparatus comprising:
前記フォーカス制御手段は、前記AFセンサ部の画素に対応する画像信号に基づいて前記撮影レンズのデフォーカス量を算出するデフォーカス量算出手段を含み、前記算出されたデフォーカス量が0になるように前記撮影レンズを駆動させることを特徴とする請求項1に記載の撮像装置。   The focus control unit includes a defocus amount calculation unit that calculates a defocus amount of the photographing lens based on an image signal corresponding to a pixel of the AF sensor unit, so that the calculated defocus amount becomes zero. The imaging apparatus according to claim 1, wherein the imaging lens is driven. 前記固体撮像素子は、複数のAFセンサ部を有し、各AFセンサ部の間隔は、前記手ブレ補正手段により補正可能な像ブレ補正範囲以下であることを特徴とする請求項1又は2に記載の撮像装置。   The solid-state imaging device includes a plurality of AF sensor units, and an interval between the AF sensor units is equal to or less than an image blur correction range that can be corrected by the camera shake correction unit. The imaging device described. 前記固体撮像素子から得られる画像信号に基づいて特定対象が存在する領域を検出し、この検出した領域を前記AF領域として設定するAF領域設定手段を備えたことを特徴とする請求項1から3のいずれかに記載の撮像装置。   4. An AF area setting unit that detects an area where a specific target exists based on an image signal obtained from the solid-state imaging device, and sets the detected area as the AF area. The imaging device according to any one of the above. 画像表示手段と、記録用の本画像の撮影前に前記固体撮像素子から連続して得られる画像信号に基づいてライブビュー画像を前記画像表示手段に表示させる表示制御手段とを更に備えたことを特徴とする請求項1から4のいずれかに記載の撮像装置。 Image display means, and display control means for displaying a live view image on the image display means based on an image signal continuously obtained from the solid-state imaging device before photographing the main image for recording. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized. 前記表示制御手段は、前記AF領域に前記AFセンサ部が入るように前記手ブレ補正手段が制御されている期間、前記画像表示手段に表示されているライブビュー画像に代えて、前記AF領域を中心に前記ライブビュー画像を拡大した拡大画像を前記画像表示手段に表示させることを特徴とする請求項5に記載の撮像装置。   The display control means replaces the live view image displayed on the image display means with the AF area during the period when the camera shake correction means is controlled so that the AF sensor unit enters the AF area. 6. The imaging apparatus according to claim 5, wherein an enlarged image obtained by enlarging the live view image is displayed at the center on the image display means. 前記表示制御手段は、前記AF領域に前記AFセンサ部が入るように前記手ブレ補正手段が制御されている期間、前記画像表示手段に表示されるライブビュー画像を静止させることを特徴とする請求項5に記載の撮像装置。   The display control means stops a live view image displayed on the image display means during a period in which the camera shake correction means is controlled so that the AF sensor unit enters the AF area. Item 6. The imaging device according to Item 5. 前記表示制御手段は、前記手ブレ補正手段の駆動により拡大される前記AFセンサ部による焦点調節が可能な範囲を示す第1の指標を、前記画像表示手段の画面上に表示させることを特徴とする請求項5から7のいずれかに記載の撮像装置。   The display control unit displays on the screen of the image display unit a first index indicating a range in which focus adjustment by the AF sensor unit enlarged by driving the camera shake correction unit is possible. The imaging device according to any one of claims 5 to 7. 前記表示制御手段は、前記任意のAF領域に対するフォーカス制御が行われると、前記画像表示手段の画面上に前記AF領域を示す第2の指標を表示させることを特徴とする請求項5から8のいずれかに記載の撮像装置。   9. The display control unit according to claim 5, wherein when the focus control for the arbitrary AF area is performed, a second index indicating the AF area is displayed on a screen of the image display unit. The imaging device according to any one of the above. 前記フォーカス制御手段は、前記撮影レンズの焦点調節が完了するまで、前記AFセンサ部の画素に対応する画像信号を複数回取得し、該複数回の画像信号の取得が終了するまで、前記AF領域に前記AFセンサ部が入るように前記手ブレ補正手段を制御することを特徴とする請求項1から9のいずれかに記載の撮像装置。   The focus control unit acquires the image signal corresponding to the pixel of the AF sensor unit a plurality of times until the focus adjustment of the photographing lens is completed, and the AF area until the acquisition of the image signal of the plurality of times is completed. The image pickup apparatus according to claim 1, wherein the camera shake correction unit is controlled so that the AF sensor unit is inserted into the camera. 前記制御手段は、前記AF領域に前記AFセンサ部を入れる前記手ブレ補正手段の制御時に、前記手ブレ検出手段の検出出力と前記算出手段による算出出力とに基づいて前記手ブレ補正手段を制御することを特徴とする請求項1から10のいずれかに記載の撮像装置。   The control unit controls the camera shake correction unit based on a detection output of the camera shake detection unit and a calculation output of the calculation unit when controlling the camera shake correction unit which places the AF sensor unit in the AF area. The imaging apparatus according to claim 1, wherein: 前記制御手段は、前記AF領域に前記AFセンサ部を入れる前記手ブレ補正手段の制御と本撮影時に像ブレを補正する前記手ブレ補正手段の制御とを、シャッタボタンの半押し時と全押し時とで切り替えることを特徴とする請求項1から11のいずれかに記載の撮像装置。   The control means performs control of the camera shake correcting means for placing the AF sensor unit in the AF area and control of the camera shake correcting means for correcting image blur at the time of actual photographing when the shutter button is half-pressed and fully pressed. The imaging apparatus according to claim 1, wherein the imaging apparatus is switched according to time.
JP2009227339A 2009-09-30 2009-09-30 Imaging device Expired - Fee Related JP5415208B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009227339A JP5415208B2 (en) 2009-09-30 2009-09-30 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009227339A JP5415208B2 (en) 2009-09-30 2009-09-30 Imaging device

Publications (3)

Publication Number Publication Date
JP2011075841A JP2011075841A (en) 2011-04-14
JP2011075841A5 JP2011075841A5 (en) 2012-09-27
JP5415208B2 true JP5415208B2 (en) 2014-02-12

Family

ID=44019895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009227339A Expired - Fee Related JP5415208B2 (en) 2009-09-30 2009-09-30 Imaging device

Country Status (1)

Country Link
JP (1) JP5415208B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5973708B2 (en) * 2011-10-21 2016-08-23 オリンパス株式会社 Imaging apparatus and endoscope apparatus
JP5967432B2 (en) * 2012-09-11 2016-08-10 ソニー株式会社 Processing apparatus, processing method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9215363B2 (en) * 2004-09-29 2015-12-15 Hewlett-Packard Development Company, L.P. Implementing autofocus in an image capture device while compensating for movement
JP2007201913A (en) * 2006-01-27 2007-08-09 Matsushita Electric Ind Co Ltd Image-taking device and system
JP2010109923A (en) * 2008-10-31 2010-05-13 Nikon Corp Imaging apparatus

Also Published As

Publication number Publication date
JP2011075841A (en) 2011-04-14

Similar Documents

Publication Publication Date Title
US8471952B2 (en) Image pickup apparatus
US8175447B2 (en) Image pickup apparatus and control method therefor
US7668451B2 (en) System for and method of taking image
WO2013021767A1 (en) Device and method for detecting moving objects
JP3823921B2 (en) Imaging device
US10986262B2 (en) Imaging apparatus, control method, and non-transitory storage medium
JP2013013050A (en) Imaging apparatus and display method using imaging apparatus
JP4799366B2 (en) Imaging apparatus and image reproduction apparatus
JP5302058B2 (en) Imaging apparatus and imaging method
JP2006091915A (en) Imaging apparatus
EP2590024A1 (en) Imaging apparatus and imaging method
JP4315341B2 (en) Panning method and photographing apparatus
JP2007225897A (en) Focusing position determination device and method
JP5415208B2 (en) Imaging device
JP5354879B2 (en) camera
JP2012083584A (en) Imaging device
US10999492B2 (en) Focus adjustment device and focus adjustment method
JP2011048265A (en) Focus detection device and focus detection method
JP2007248698A (en) Method and apparatus for imaging
JP2003241066A (en) Camera
JP5239250B2 (en) Electronic camera
JP2008283477A (en) Image processor, and image processing method
CN106464783B (en) Image pickup control apparatus, image pickup apparatus, and image pickup control method
JP2018113624A (en) Imaging apparatus and control method for imaging apparatus
JP6929145B2 (en) Imaging equipment, imaging methods and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130924

TRDD Decision of grant or rejection written
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131113

R150 Certificate of patent or registration of utility model

Ref document number: 5415208

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees