JP7022534B2 - Image processing device and image processing method - Google Patents

Image processing device and image processing method Download PDF

Info

Publication number
JP7022534B2
JP7022534B2 JP2017158764A JP2017158764A JP7022534B2 JP 7022534 B2 JP7022534 B2 JP 7022534B2 JP 2017158764 A JP2017158764 A JP 2017158764A JP 2017158764 A JP2017158764 A JP 2017158764A JP 7022534 B2 JP7022534 B2 JP 7022534B2
Authority
JP
Japan
Prior art keywords
image
subject
focus detection
candidate
camera cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017158764A
Other languages
Japanese (ja)
Other versions
JP2019036921A (en
Inventor
阿佑美 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017158764A priority Critical patent/JP7022534B2/en
Publication of JP2019036921A publication Critical patent/JP2019036921A/en
Application granted granted Critical
Publication of JP7022534B2 publication Critical patent/JP7022534B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Camera Data Copying Or Recording (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は画像処理装置および画像処理方法に関し、特には画像の選択技術に関する。 The present invention relates to an image processing apparatus and an image processing method, and more particularly to an image selection technique.

デジタルカメラはフィルムカメラに比べて手軽に撮影でき、低価格なカメラでも高速連写が可能である。そのため、予想以上に撮影枚数が多くなったり、類似画像が多く撮影されたりしやすい。このような背景から、複数の撮影画像からユーザの意図した画像を容易に選択するための技術が提案されている。 Digital cameras are easier to shoot than film cameras, and even low-priced cameras can shoot at high speeds. Therefore, it is easy that the number of shots is larger than expected and many similar images are shot. From such a background, a technique for easily selecting an image intended by a user from a plurality of captured images has been proposed.

特許文献1には、ブラケット撮影で得られた複数の画像から、撮像装置が代表画像をユーザに提示し、ユーザが指定した位置を中心とした所定の大きさの領域のAF評価値やAE評価値に基づいて1つの画像を選択する撮像装置が開示されている。特許文献1に開示された技術により、ブラケット撮影で得られた複数の画像から、所望の領域に合焦した画像や、所望の領域が適正露出である画像を容易に選択することができる。 In Patent Document 1, a representative image is presented to a user from a plurality of images obtained by bracket photography, and an AF evaluation value or an AE evaluation in a region of a predetermined size centered on a position specified by the user is provided. An image pickup device that selects one image based on a value is disclosed. According to the technique disclosed in Patent Document 1, it is possible to easily select an image focused on a desired region or an image in which the desired region is properly exposed from a plurality of images obtained by bracket photography.

特開2009-111635号公報Japanese Unexamined Patent Publication No. 2009-11165

特許文献1は、同一シーンについて合焦距離や露出状態を変更しながら撮影した複数の画像を対象としている。そのため、被写体位置の変化等によりシーンが変化する場合に、撮影した複数の画像の中からユーザが選択したシーンに対応する画像を選択することができない。 Patent Document 1 targets a plurality of images taken of the same scene while changing the focusing distance and the exposure state. Therefore, when the scene changes due to a change in the subject position or the like, it is not possible to select an image corresponding to the scene selected by the user from the plurality of captured images.

本発明は、被写体位置の変化等によりシーンが変化する場合であっても、ユーザがより意図した画像を選択することを可能にする画像処理装置および画像処理方法を提供することを目的とする。 An object of the present invention is to provide an image processing device and an image processing method that enable a user to select a more intended image even when the scene changes due to a change in the subject position or the like.

上述の目的は、所定の時間間隔で取得された複数のフレームを含む動画を表示する表示手段と、表示手段が表示した動画の第1のフレームに対する所定の操作が検出されたことに応じて、動画と並行して記録された複数の静止画から候補画像抽出する抽出手段と、候補画像のそれぞれについて、所定の操作に応じて指定された被写体の検出処理を行う検出手段と、被写体が検出された候補画像について、被写体が検出された位置に対応する焦点検出領域を設定する設定手段と、設定手段が設定した焦点検出領域の合焦度合いを算出する算出手段と、合焦度合いに基づいて、被写体が検出された候補画像のうち少なくとも1つを選定する選定手段と、を有することを特徴とする画像処理装置によって達成される。 The above-mentioned object is a display means for displaying a moving image including a plurality of frames acquired at a predetermined time interval, and a predetermined operation for a first frame of the moving image displayed by the display means is detected. An extraction means for extracting candidate images from a plurality of still images recorded in parallel with a moving image, a detection means for detecting a designated subject according to a predetermined operation for each of the candidate images, and a detection means for detecting the subject. Based on the setting means for setting the focus detection area corresponding to the position where the subject is detected, the calculation means for calculating the degree of focus of the focus detection area set by the setting means, and the degree of focus for the candidate image. This is achieved by an image processing apparatus comprising:, a selection means for selecting at least one of the candidate images in which a subject is detected.

本発明によれば、被写体位置の変化等によりシーンが変化する場合であっても、ユーザがより意図した画像を選択することを可能にする画像処理装置および画像処理方法を提供できる。 INDUSTRIAL APPLICABILITY According to the present invention, it is possible to provide an image processing device and an image processing method that enable a user to select a more intended image even when the scene changes due to a change in the subject position or the like.

実施形態に係るデジタルカメラの機能構成例を示す図The figure which shows the functional structure example of the digital camera which concerns on embodiment 実施形態に係る撮像素子に関する図The figure regarding the image pickup element which concerns on embodiment 実施形態におけるセンサ瞳距離を説明する図The figure explaining the sensor pupil distance in embodiment 実施形態における射出瞳と焦点検出瞳の相対位置を説明する図The figure explaining the relative position of the exit pupil and the focus detection pupil in an embodiment. 実施形態における撮像素子のシェーディング特性に関する図The figure regarding the shading characteristic of the image sensor in an embodiment. 実施形態における焦点検出に関する図The figure regarding the focal point detection in an embodiment. 実施形態におけるシェーディング補正情報およびデフォーカス量変換情報に関する図The figure regarding the shading correction information and the defocus amount conversion information in an embodiment. 実施形態に係るデジタルカメラの撮影動作に関するフローチャートFlow chart regarding the shooting operation of the digital camera according to the embodiment 実施形態に係るデジタルカメラの撮影動作に関するフローチャートFlow chart regarding the shooting operation of the digital camera according to the embodiment 実施形態に係るデジタルカメラの撮影動作に関するフローチャートFlow chart regarding the shooting operation of the digital camera according to the embodiment 実施形態における静止画選定処理に関するフローチャートFlowchart regarding still image selection processing in the embodiment 実施形態における静止画選定処理に関するフローチャートFlowchart regarding still image selection processing in the embodiment 実施形態における静止画選定処理での表示例に関する図The figure regarding the display example in the still image selection process in an embodiment. 実施形態における静止画選定処理に関するフローチャートFlowchart regarding still image selection processing in the embodiment

以下、図面を参照しながら本発明の例示的な実施形態を説明する。以下では本発明を画像処理装置の一例としての撮像装置(デジタルカメラ)に適用した実施形態について説明する。しかしながら、本発明において撮像機能は必須ではない。本発明は、並行して記録された動画と静止画とを取り扱い可能な任意の電子機器で実施可能である。このような電子機器には、撮像装置のみならず、スマートフォン、パーソナルコンピュータ、タブレット端末、ゲーム機などが含まれるが、これらに限定されない。 Hereinafter, exemplary embodiments of the present invention will be described with reference to the drawings. Hereinafter, an embodiment in which the present invention is applied to an image pickup device (digital camera) as an example of an image processing device will be described. However, the imaging function is not essential in the present invention. The present invention can be implemented in any electronic device capable of handling moving images and still images recorded in parallel. Such electronic devices include, but are not limited to, smartphones, personal computers, tablet terminals, game machines, and the like, as well as image pickup devices.

●(第1実施形態)
<撮像装置の全体概略構成>
図1は、本実施形態に係るデジタルカメラの模式図である。ここではデジタルカメラが本体100と、本体100に着脱可能な撮像レンズ500とから構成されるものとするが、撮像レンズと本体が一体であってもよい。
● (First embodiment)
<Overall outline configuration of the image pickup device>
FIG. 1 is a schematic diagram of a digital camera according to the present embodiment. Here, it is assumed that the digital camera is composed of a main body 100 and an image pickup lens 500 that can be attached to and detached from the main body 100, but the image pickup lens and the main body may be integrated.

撮像レンズ500から本体100に入射した光束は、ビームスプリッタ103に入射する。ビームスプリッタ103は例えば本体100に固定されたハーフミラーであってよいが、それに限定されない。ビームスプリッタ103は、入射光束の一部を反射し、一部を透過させることにより、入射光束を2つの光束に分割する。 The luminous flux incident on the main body 100 from the image pickup lens 500 is incident on the beam splitter 103. The beam splitter 103 may be, for example, a half mirror fixed to the main body 100, but the beam splitter 103 is not limited thereto. The beam splitter 103 reflects a part of the incident light flux and transmits the part of the incident light beam to split the incident light beam into two light fluxes.

本実施形態のデジタルカメラは、2つの撮像素子101、102を有する。撮像素子101はビームスプリッタ103を透過した光束を、撮像素子102はビームスプリッタ103を反射した光束を、それぞれ受光する。撮像素子101、102の撮像面は撮像レンズ500から見て光学的に等価な位置にある。言い換えると、撮像素子101、102は、撮像レンズ500を介して、被写体に対して光学的に共役な結像面に位置する。 The digital camera of this embodiment has two image pickup devices 101 and 102. The image sensor 101 receives the light flux transmitted through the beam splitter 103, and the image sensor 102 receives the light flux reflected from the beam splitter 103. The image pickup surfaces of the image pickup elements 101 and 102 are optically equivalent positions when viewed from the image pickup lens 500. In other words, the image pickup devices 101 and 102 are located on the image plane that is optically conjugate to the subject via the image pickup lens 500.

撮像素子101、102の撮像面に形成される被写体像の明るさは、ビームスプリッタ103の透過率および反射率に依存する。ビームスプリッタ103を構成するハーフミラーの平面性や屈折率は均一ではないため、反射像や透過像には画質低下が生じうる。そして、ハーフミラーが薄板ガラスで構成される場合、ハーフミラーの物理特性による画質低下は透過像よりも反射像により大きく現れる。 The brightness of the subject image formed on the image pickup surface of the image pickup elements 101 and 102 depends on the transmittance and the reflectance of the beam splitter 103. Since the flatness and the refractive index of the half mirrors constituting the beam splitter 103 are not uniform, the image quality of the reflected image and the transmitted image may be deteriorated. When the half mirror is made of thin glass, the deterioration of the image quality due to the physical characteristics of the half mirror appears more in the reflected image than in the transmitted image.

そのため、本実施形態では、高解像度の静止画のように画質が重要な画像の撮影には透過像を受光する撮像素子101を用い、反射像を受光する撮像素子102は動画や低解像度の静止画の撮影に用いる。ただし、ビームスプリッタ103の物理特性などに応じて撮像素子101、102で撮影する画像の種類を逆にしてもよい。 Therefore, in the present embodiment, an image sensor 101 that receives a transmitted image is used for shooting an image in which image quality is important, such as a high-resolution still image, and the image sensor 102 that receives a reflected image is a moving image or a low-resolution still image. Used for taking pictures. However, the types of images captured by the image pickup devices 101 and 102 may be reversed depending on the physical characteristics of the beam splitter 103 and the like.

例えばCMOSエリアセンサである撮像素子101、102は、光電変換素子がマトリクス状に配置された画素によって、被写体像を電気信号(画像信号)に変換する。 For example, the image pickup elements 101 and 102, which are CMOS area sensors, convert a subject image into an electric signal (image signal) by pixels in which photoelectric conversion elements are arranged in a matrix.

カメラCPU104は、ROM114に記憶されたプログラムをRAM115に読み込んで実行し、本体100および撮像レンズ500の動作を制御することにより、デジタルカメラの機能を実現する。例えばカメラCPU104は、撮像素子101、102の動作を制御して画像信号を生成させる。また、カメラCPU104は、撮像素子101、102から画像信号を読み出し、A/D変換、ホワイトバランス調整、色補間などの画像処理を実行して記録用画像データや表示用画像データを生成する。カメラCPU104はさらに、画像データに基づいて自動露出制御(AE)や自動焦点検出(AF)を実行する。カメラCPU104は顔検出などの被写体検出処理を行い、検出された被写体領域に基づいてAEやAFを実行してもよい。なお、ここに例示した動作の少なくとも一部は、ASICやASSPなどの専用ハードウェア回路を用いて実行してもよい。 The camera CPU 104 realizes the function of a digital camera by reading the program stored in the ROM 114 into the RAM 115 and executing the program to control the operations of the main body 100 and the image pickup lens 500. For example, the camera CPU 104 controls the operation of the image pickup devices 101 and 102 to generate an image signal. Further, the camera CPU 104 reads an image signal from the image pickup elements 101 and 102, executes image processing such as A / D conversion, white balance adjustment, and color interpolation to generate recording image data and display image data. The camera CPU 104 further executes automatic exposure control (AE) and automatic focus detection (AF) based on the image data. The camera CPU 104 may perform subject detection processing such as face detection, and execute AE or AF based on the detected subject area. It should be noted that at least a part of the operations exemplified here may be executed by using a dedicated hardware circuit such as ASIC or ASSP.

操作部105はボタン、スイッチ、タッチパネルなど、ユーザが本体100に指示を与えるための入力デバイスの総称である。操作部105には電源スイッチ、シャッタースイッチ、メニューボタン、方向キー、決定ボタンなどが含まれる。カメラCPU104は操作部105の操作を検知すると、検知した操作に応じた動作を実行する。 The operation unit 105 is a general term for input devices such as buttons, switches, and touch panels for the user to give instructions to the main body 100. The operation unit 105 includes a power switch, a shutter switch, a menu button, a direction key, an enter button, and the like. When the camera CPU 104 detects the operation of the operation unit 105, the camera CPU 104 executes an operation according to the detected operation.

カメラCPU104は、生成した静止画データや動画データを、予め定められた型式のデータファイルに格納して記録媒体106に記録する。記録媒体106は例えば半導体メモリカードである。なお、記録先は外部装置であってもよい。 The camera CPU 104 stores the generated still image data and moving image data in a data file of a predetermined type and records them on the recording medium 106. The recording medium 106 is, for example, a semiconductor memory card. The recording destination may be an external device.

表示部110は、例えば有機ELディスプレイや液晶ディスプレイである。表示部110がタッチディスプレイの場合、表示部110へのタッチ操作によってユーザは本体100に指示を与えることができる。 The display unit 110 is, for example, an organic EL display or a liquid crystal display. When the display unit 110 is a touch display, the user can give an instruction to the main body 100 by touching the display unit 110.

表示部110は、本体100の設定、ライブビュー画像、撮影画像、メニュー画面などの表示に用いられる。本体100の設定値および、メニュー画面などのGUIデータはROM114に記憶されている。 The display unit 110 is used for setting the main body 100, displaying a live view image, a photographed image, a menu screen, and the like. The setting value of the main body 100 and the GUI data such as the menu screen are stored in the ROM 114.

ファインダ内表示部107は、表示部よりも小型の表示装置である。カメラCPU104は、ファインダ内表示部107を電子ビューファインダーとして機能させることができる。
接眼レンズ109はファインダ内表示部107の表示を外部から観察するために設けられている。
The display unit 107 in the finder is a display device smaller than the display unit. The camera CPU 104 can make the display unit 107 in the finder function as an electronic viewfinder.
The eyepiece 109 is provided for observing the display of the display unit 107 in the finder from the outside.

シャッタ111は撮像素子101の前面に配置されたメカニカルシャッタであり、シャッタ駆動部112(例えばモータ)によって駆動される。
通信端子113、508はそれぞれ本体100、撮像レンズ500のマウント部に設けられ、撮像レンズ500が本体100に装着されている状態で電気的に接続される。カメラCPU104と、撮像レンズ500内のレンズCPU507とは、通信端子113、508を通じて相互に通信可能である。
The shutter 111 is a mechanical shutter arranged on the front surface of the image pickup device 101, and is driven by a shutter drive unit 112 (for example, a motor).
The communication terminals 113 and 508 are provided on the mount portions of the main body 100 and the image pickup lens 500, respectively, and are electrically connected while the image pickup lens 500 is attached to the main body 100. The camera CPU 104 and the lens CPU 507 in the image pickup lens 500 can communicate with each other through the communication terminals 113 and 508.

ROM114は書き換え可能な不揮発性メモリである。ROM114は、カメラCPU104が実行するためのプログラム、本体100の設定値、メニュー画面などのGUIデータなどを記憶する。 ROM 114 is a rewritable non-volatile memory. The ROM 114 stores a program for execution by the camera CPU 104, setting values of the main body 100, GUI data such as a menu screen, and the like.

RAM115はカメラCPU104がプログラムを読み込んだり、画像データを一時的に格納したりするために用いるシステムメモリである。 The RAM 115 is a system memory used by the camera CPU 104 to read a program and temporarily store image data.

<撮像素子の構成>
図2は撮像素子101の構成例を模式的に示した図である。本実施形態では、撮像素子101、102は、後述するマイクロレンズの偏心量を除き、同一構造および同一画素数である。そのため、ここでは代表的に撮像素子101の構造について説明する。
<Structure of image sensor>
FIG. 2 is a diagram schematically showing a configuration example of the image pickup device 101. In the present embodiment, the image pickup devices 101 and 102 have the same structure and the same number of pixels except for the amount of eccentricity of the microlens described later. Therefore, here, the structure of the image pickup device 101 will be typically described.

図2(a)は撮像素子101の画素のうち、撮像面の中央近傍(像高0付近)における一部を撮像レンズ500側から見た平面図である。画素を構成する複数の画素のそれぞれは、撮像面上で水平方向(x)、垂直方向(y)共に4μmの大きさを有する正方画素であり、実質的に同じ構成を有する。撮像素子101は水平方向に6000画素、垂直方向に4000画素が行列状に配置された有効画素数2400万画素の画素を有するものとする。画素、すなわち撮像領域の大きさは、画素の大きさ(画素ピッチ)=4μmに画素数を乗じて求めることができ、本例では水平方向に24mm、垂直方向に16mmとなる。各画素には赤(R)、緑(G)、または青(B)のカラーフィルタが1つに設けられ、色の配置は予め定められている。代表的な色の配置はベイヤー配列と呼ばれている。 FIG. 2A is a plan view of a part of the pixels of the image pickup device 101 in the vicinity of the center of the image pickup surface (near the image height 0) as viewed from the image pickup lens 500 side. Each of the plurality of pixels constituting the pixel is a square pixel having a size of 4 μm in both the horizontal direction (x) and the vertical direction (y) on the imaging surface, and has substantially the same configuration. It is assumed that the image pickup element 101 has 6000 pixels in the horizontal direction and 4000 pixels in the vertical direction in a matrix of 24 million effective pixels. The size of the pixel, that is, the imaging region can be obtained by multiplying the pixel size (pixel pitch) = 4 μm by the number of pixels, and in this example, it is 24 mm in the horizontal direction and 16 mm in the vertical direction. Each pixel is provided with one red (R), green (G), or blue (B) color filter, and the color arrangement is predetermined. A typical color arrangement is called a Bayer arrangement.

図2(b)は一つの画素の垂直断面図である。CMOSイメージセンサの基体を成すシリコン基板101d内には第1の光電変換部101aおよび第2の光電変換部101bが形成されている。シリコン基板101d内には光電変換部101a,101bで発生した光電子は、スイッチングトランジスタ等を通じて電圧に変換され、配線層101eのそれぞれから読み出される。配線層101eは透明な層間膜101fによって絶縁されている。 FIG. 2B is a vertical cross-sectional view of one pixel. A first photoelectric conversion unit 101a and a second photoelectric conversion unit 101b are formed in the silicon substrate 101d forming the substrate of the CMOS image sensor. In the silicon substrate 101d, the photoelectrons generated by the photoelectric conversion units 101a and 101b are converted into a voltage through a switching transistor or the like and read out from each of the wiring layers 101e. The wiring layer 101e is insulated by a transparent interlayer film 101f.

画素には、オンチップマイクロレンズ101cが1つと、色分離用のカラーフィルタ101gが1つ設けられる。オンチップマイクロレンズ101cの焦点位置は、光電変換部101a、101bの上面に略一致する。そのため、光電変換部101a、101bはオンチップマイクロレンズ101cを介して、撮像レンズ500の射出瞳のうち、異なる部分領域の出射光を受光する。従って、撮像素子101において、光電変換部101aで得られる画素信号に基づく画像と、光電変換部101bで得られる画像信号に基づく画像とは視差画像を構成する。 The pixel is provided with one on-chip microlens 101c and one color filter 101g for color separation. The focal position of the on-chip microlens 101c substantially coincides with the upper surfaces of the photoelectric conversion units 101a and 101b. Therefore, the photoelectric conversion units 101a and 101b receive the emitted light in different partial regions of the exit pupil of the image pickup lens 500 via the on-chip microlens 101c. Therefore, in the image sensor 101, the image based on the pixel signal obtained by the photoelectric conversion unit 101a and the image based on the image signal obtained by the photoelectric conversion unit 101b form a parallax image.

ある画素領域に含まれる複数の画素について、光電変換部101aから得られる画像信号に基づく像信号(A像)と、光電変換部101bから得られる画像信号に基づく像信号(B像)との位相差は、その画素領域の合焦度合いを表す。従って、カメラCPU104は、A像とB像との相関演算によって像信号間の位相差を算出し、位相差をデフォーカス量に変換することにより、位相差検出方式の焦点検出を行うことができる。 For a plurality of pixels included in a certain pixel region, the position of the image signal (A image) based on the image signal obtained from the photoelectric conversion unit 101a and the image signal (B image) based on the image signal obtained from the photoelectric conversion unit 101b. The phase difference represents the degree of focusing of the pixel region. Therefore, the camera CPU 104 can perform the focus detection of the phase difference detection method by calculating the phase difference between the image signals by the correlation calculation between the A image and the B image and converting the phase difference into the defocus amount. ..

後述するようにカメラCPU104は、各画素について、光電変換部101a、101bから画像信号を選択的に読み出すことと、光電変換部101a、101bの画像信号の加算信号を読み出すことができる。カメラCPU104は、光電変換部101a、101bから別個に読み出した画像信号から焦点検出用信号(A像およびB像)を生成することができる。また、カメラCPU104は、加算信号を読み出す(あるいは別個に読み出した信号を加算する)ことにより、記録または表示に用いる画像信号を得ることができる。 As will be described later, the camera CPU 104 can selectively read the image signals from the photoelectric conversion units 101a and 101b for each pixel, and can read the addition signal of the image signals of the photoelectric conversion units 101a and 101b. The camera CPU 104 can generate focus detection signals (A image and B image) from the image signals separately read from the photoelectric conversion units 101a and 101b. Further, the camera CPU 104 can obtain an image signal to be used for recording or display by reading the addition signal (or adding the separately read signal).

<撮像素子の読み出し回路の構成>
図2(c)は、撮像素子101の回路構成を模式的に示した図であり、図2と同じ構成については同じ参照数字を付してある。撮像素子101は、水平走査回路121および垂直走査回路123を有する。また、画素の境界部には、水平走査ライン122a、122bと、垂直走査ライン124a、124bが配線される。光電変換部101a、101bに蓄積された電荷量に応じた電圧を有する画像信号が、これらの走査ラインを介して外部に読み出される。撮像素子102も撮像素子101と同様の回路構成を有している。
<Structure of the readout circuit of the image sensor>
FIG. 2C is a diagram schematically showing the circuit configuration of the image pickup device 101, and the same reference figures are attached to the same configuration as that of FIG. The image pickup device 101 has a horizontal scanning circuit 121 and a vertical scanning circuit 123. Further, horizontal scanning lines 122a and 122b and vertical scanning lines 124a and 124b are wired at the boundary portion of the pixel. Image signals having a voltage corresponding to the amount of electric charge stored in the photoelectric conversion units 101a and 101b are read out to the outside via these scanning lines. The image pickup device 102 also has a circuit configuration similar to that of the image pickup device 101.

撮像素子101、102は第1および第2の読み出しモードを有する。
第1の読み出しモードは、全ての画素から画像信号を読み出す、全画素読み出しモードである。記録用の静止画や動画を生成する際に用いられる。
第2の読み出しモードは、第1の読み出しモードよりも少ない画素から画像信号を読み出す、間引き読み出しモードである。ライブビュー画像のように、撮像素子の解像度よりも低い解像度の画像を生成する際に用いられる。ライブビュー画像とは、表示部110をビューファインダーとして機能させるための画像である。表示部110の解像度は撮像素子101、102の解像度よりも低いため、一部の画素を間引いて読み出すことにより、撮像から表示までの時間短縮、処理負荷および消費電力を低減することができる。第1および第2の読み出しモードにおいて、画像信号は光電変換部ごとに読み出す。そのため、読み出しモードにかかわらず、カメラCPU104は、焦点検出用信号を生成できる。
The image pickup devices 101 and 102 have first and second read modes.
The first read mode is an all-pixel read mode in which image signals are read from all pixels. It is used to generate still images and moving images for recording.
The second read mode is a thinned read mode in which the image signal is read from fewer pixels than in the first read mode. It is used to generate an image having a resolution lower than the resolution of the image sensor, such as a live view image. The live view image is an image for causing the display unit 110 to function as a viewfinder. Since the resolution of the display unit 110 is lower than the resolution of the image pickup elements 101 and 102, it is possible to shorten the time from imaging to display, reduce the processing load, and reduce the power consumption by thinning out some pixels and reading them out. In the first and second read modes, the image signal is read out for each photoelectric conversion unit. Therefore, the camera CPU 104 can generate a focus detection signal regardless of the read mode.

なお、本実施形態において撮像素子101は静止画撮影用としているが、動画撮影に用いてもよい。たとえば、撮像素子102が第1の読み出しモードで動画撮影している際、撮像素子101が第2の読み出しモードで動画撮影を行ってもよい。同様に、撮像素子102は動画撮影用としているが、静止画撮影に用いてもよい。例えば、動画撮影中に静止画撮影を実行したり、撮影した動画のフレームを静止画として記録したりすることも可能である。動画は、所定の時間間隔で取得された複数のフレームを含む。 Although the image sensor 101 is used for still image shooting in this embodiment, it may be used for moving image shooting. For example, when the image pickup device 102 is taking a moving image in the first readout mode, the image pickup element 101 may take a moving picture in the second readout mode. Similarly, although the image sensor 102 is used for moving image shooting, it may be used for still image shooting. For example, it is possible to perform still image shooting during movie shooting, or to record a frame of the shot movie as a still image. The moving image contains a plurality of frames acquired at predetermined time intervals.

<撮像レンズの射出瞳と、2つの撮像素子における焦点検出瞳の関係>
図3は、撮像レンズの射出瞳と、2つの撮像素子における焦点検出瞳の関係を説明する図である。図3(a)は第1の撮像素子101、図3(b)は第2の撮像素子102に関する図である。
<Relationship between the exit pupil of the image sensor and the focus detection pupil of the two image sensors>
FIG. 3 is a diagram illustrating the relationship between the exit pupil of the image pickup lens and the focus detection pupil of the two image pickup elements. FIG. 3A is a diagram relating to the first image sensor 101, and FIG. 3B is a diagram relating to the second image sensor 102.

高精度な位相差AFの実現には、位相差検出用の焦点検出瞳の基線長が長いこと、撮像レンズの絞り値(Fナンバ)や射出瞳距離の変化に対して射出瞳と焦点検出瞳の位置ずれが少ないことが好ましい。これらの性能を満足するための画素構造に関し、図3(a)を用いて説明する。 In order to realize highly accurate phase-difference AF, the base line length of the focus detection pupil for phase difference detection is long, and the exit pupil and focus detection pupil are subject to changes in the aperture value (F number) of the image pickup lens and the exit pupil distance. It is preferable that there is little misalignment. A pixel structure for satisfying these performances will be described with reference to FIG. 3A.

図3(a)には撮像レンズ500の光学要素と、撮像素子101が有する2個の画素1011、1012が示されている。画素1011は撮像面中央、すなわち像高x=0に配置された画素、画素1012は撮像面の端に近い場所、例えば像高x=10mmに配置された画素である。まず、撮像レンズの射出瞳について説明する。 FIG. 3A shows an optical element of the image pickup lens 500 and two pixels 1011 and 1012 included in the image pickup element 101. The pixel 1011 is a pixel arranged in the center of the image pickup surface, that is, the image height x = 0, and the pixel 1012 is a pixel arranged in a place near the edge of the image pickup surface, for example, an image height x = 10 mm. First, the exit pupil of the image pickup lens will be described.

撮像レンズ500は焦点距離が可変のズームレンズであり、ズーム操作に応じて焦点距離、開放Fナンバ、および射出瞳距離が変化する。図3においては、撮像レンズ500の焦点距離は広角端であるとする。撮像レンズ500を構成する第1レンズ群501は、その最前面が前枠501rでレンズ鏡筒に保持され、第3レンズ群503の最後面は後枠503rでレンズ鏡筒に保持される。第1レンズ群501と第3レンズ群503との間には絞り505が配置される。図3では絞り505が開放F値の状態を示しており、このとき、画素1011に到達する光束のうち、最も外側の光線L11aとL11bは絞り505の開口部で規制された光線となる。光線L11a、L11bがなす角度θ11は広角端における開放Fナンバに対応する光束の角度である。 The image pickup lens 500 is a zoom lens having a variable focal length, and the focal length, the open F-number, and the exit pupil distance change according to the zoom operation. In FIG. 3, it is assumed that the focal length of the image pickup lens 500 is the wide-angle end. The frontmost surface of the first lens group 501 constituting the image pickup lens 500 is held by the lens barrel with the front frame 501r, and the rearmost surface of the third lens group 503 is held by the lens barrel with the rear frame 503r. A diaphragm 505 is arranged between the first lens group 501 and the third lens group 503. In FIG. 3, the diaphragm 505 shows the state of the open F value, and at this time, the outermost light rays L11a and L11b among the light fluxes reaching the pixel 1011 are the light rays regulated by the opening of the diaphragm 505. The angle θ11 formed by the light rays L11a and L11b is the angle of the light flux corresponding to the open F number at the wide-angle end.

一方、画素1012には、光線L12aとL12bに挟まれた領域内の光束が到達する。光線L12a(下線)は前枠501rで規制された光線である。また、光線L12b(上線)は後枠503rで規制された光線である。上線L12aと下線L12bとがなす角度θ12は、口径食のためにθ11よりも小さくなる。 On the other hand, the light beam in the region sandwiched between the light rays L12a and L12b reaches the pixel 1012. The light ray L12a (underlined) is a light ray regulated by the front frame 501r. Further, the light ray L12b (upper line) is a light ray regulated by the rear frame 503r. The angle θ12 formed by the upper line L12a and the underline L12b is smaller than θ11 due to vignetting.

上線L12bと下線L12aの中間の光線L12cが主光線であり、光軸L11cと主光線L12cとは角度β1をなしている。そして、光軸L11cと主光線L12cが交差する点CL1を通り、光軸L11cに垂直な面が射出瞳面EPL1である。射出瞳面EPL1において、画素1012へ到達する光束が通る領域が画素1012からみた射出瞳であり、撮像面と射出瞳の間隔PL1が射出瞳距離である。ここでは撮像レンズ500の射出瞳距離PL1をレンズ瞳距離と呼ぶ。 The ray L12c between the upper line L12b and the underline L12a is the main ray, and the optical axis L11c and the main ray L12c form an angle β1. Then, the plane perpendicular to the optical axis L11c passes through the point CL1 where the optical axis L11c and the main ray L12c intersect, and is the exit pupil plane EPL1. In the exit pupil surface EPL1, the region through which the light flux reaching the pixel 1012 passes is the exit pupil seen from the pixel 1012, and the distance PL1 between the image pickup surface and the exit pupil is the exit pupil distance. Here, the exit pupil distance PL1 of the image pickup lens 500 is referred to as a lens pupil distance.

なお、絞りの開口の大きさ(Fナンバ)に応じて口径食が変化するため、撮像レンズ500の射出瞳距離も厳密にはFナンバに応じて変化する。ただし、Fナンバに依存した射出瞳距離変動が無視できる程度に小さいことが多い。そこで、本実施形態においても、射出瞳距離はズーム状態やフォーカス状態に応じて変化するが、Fナンバに対しては不変であるものとする。 Since the vignetting changes according to the size of the aperture of the aperture (F number), the exit pupil distance of the image pickup lens 500 also changes strictly according to the F number. However, the fluctuation of the exit pupil distance depending on the F-number is often small enough to be ignored. Therefore, also in this embodiment, the exit pupil distance changes depending on the zoom state and the focus state, but is unchanged for the F-number.

次に、画素の構造と焦点検出瞳について説明する。画素1011の光電変換部1011aおよび1011bは隣接配置され、その境界部には極小幅の不感帯が存在する。境界部の中心が画素中心と一致しており、一対の光電変換部1011a,1011bは画素中心に対してx方向に対称な形状を有する。よって、光電変換部1011a,1011bの重心位置と画素中心とのx方向における距離は等しい。 Next, the pixel structure and the focus detection pupil will be described. The photoelectric conversion units 1011a and 1011b of the pixel 1011 are arranged adjacent to each other, and a dead zone having an extremely small width exists at the boundary portion thereof. The center of the boundary portion coincides with the pixel center, and the pair of photoelectric conversion units 1011a and 1011b have a shape symmetrical with respect to the pixel center in the x direction. Therefore, the distance between the position of the center of gravity of the photoelectric conversion units 1011a and 1011b and the center of the pixel in the x direction is equal.

画素が備えるマイクロレンズ1011cの主点1011pを通り、光軸に直交する面が撮像素子101の予定結像面(撮像面IP1)である。すなわち、撮像レンズ500によって形成される被写体像のピント位置が、各画素のマイクロレンズ1011cの主点1011p群を含んだ予定結像面IP1に一致する状態で得られる画像が、被写体に合焦した画像である。なお、マイクロレンズ1011cの厚さは1μm程度であり、マイクロレンズ1011cの頂点と主点1011pとの距離は更に小さな値であるため、主点1011pをマイクロレンズの頂点とみなしても差し支えない。 The plane that passes through the principal point 1011p of the microlens 1011c included in the pixel and is orthogonal to the optical axis is the planned image plane (imaging plane IP1) of the image sensor 101. That is, the image obtained in a state where the focus position of the subject image formed by the image pickup lens 500 coincides with the planned image plane IP1 including the principal point 1011p group of the microlens 1011c of each pixel is focused on the subject. It is an image. Since the thickness of the microlens 1011c is about 1 μm and the distance between the apex of the microlens 1011c and the principal point 1011p is a smaller value, the principal point 1011p may be regarded as the apex of the microlens.

画素1011はマイクロレンズ1011cの光軸と画素の中心(一対の光電変換部の境界中心)が一致している。一方、撮像面IP1の端部に位置する画素1012ではマイクロレンズ1012cの光軸と画素の中心が一致しておらず、撮像レンズ500の光軸寄りに所定量dx1だけ偏心している。 The optical axis of the microlens 1011c coincides with the center of the pixel (the boundary center of the pair of photoelectric conversion units) of the pixel 1011. On the other hand, in the pixel 1012 located at the end of the image pickup surface IP1, the optical axis of the microlens 1012c and the center of the pixel do not match, and the pixel 1012 is eccentric by a predetermined amount dx1 toward the optical axis of the image pickup lens 500.

ここで、画素の中心とマイクロレンズの主点とを結ぶ線を画素の主光線と定義すると、画素の主光線は光軸に対して所定の角度ω1傾斜し、撮像面IP1から所定距離を有する点CS1で光軸と交差する。この交点CS1を通り、光軸と直交する仮想面をセンサ瞳面SPL1と呼ぶ。また、センサ瞳面SPL1と撮像面IP1との距離PS1をセンサ瞳距離と呼ぶ。センサ瞳面SPL1上ではすべての画素の焦点検出瞳が実質的に一致するが、その理由は後述する。 Here, if the line connecting the center of the pixel and the principal point of the microlens is defined as the principal ray of the pixel, the principal ray of the pixel is inclined by a predetermined angle ω1 with respect to the optical axis and has a predetermined distance from the imaging surface IP1. It intersects the optical axis at point CS1. The virtual plane that passes through this intersection CS1 and is orthogonal to the optical axis is called the sensor pupil plane SPL1. Further, the distance PS1 between the sensor pupil surface SPL1 and the imaging surface IP1 is referred to as a sensor pupil distance. The focus detection pupils of all the pixels are substantially the same on the sensor pupil surface SPL1, and the reason will be described later.

画素1011において、マイクロレンズ1011cの主点1011pと一対の光電変換部上面間の高さh1が画素の光学的な高さである。厳密な光学的高さは、機械的寸法である高さh1に画素内の光路部分の屈折率を乗じた値であるが、ここでは説明を平易にするため、図示した高さh1を画素の高さとする。そして、マイクロレンズ1011cの焦点が光電変換部1011aおよび光電変換部1011bの上面と略一致するように、マイクロレンズ1011cの形状(光学パワー)が設定されている。 In the pixel 1011 the height h1 between the principal point 1011p of the microlens 1011c and the upper surface of the pair of photoelectric conversion units is the optical height of the pixel. The exact optical height is a value obtained by multiplying the height h1, which is a mechanical dimension, by the refractive index of the optical path portion in the pixel, but here, for the sake of simplicity, the illustrated height h1 is used as the pixel. The height. The shape (optical power) of the microlens 1011c is set so that the focal point of the microlens 1011c substantially coincides with the upper surfaces of the photoelectric conversion unit 1011a and the photoelectric conversion unit 1011b.

図3においては、便宜上、レンズ瞳距離PL1およびセンサ瞳距離PS1が画素高さh1の数倍程度に図示している。しかし、現実には画素高さh1がマイクロメートルオーダーであるのに対して、レンズ瞳距離PL1およびセンサ瞳距離PS1は数10mmオーダーであり、両者の大きさには4桁程度の開きがある。すなわち、マイクロレンズ1011cの集光作用を考える場合、画素1011から見た撮像レンズ500の射出瞳やセンサ瞳面SPL1は非常に遠方にあると見なせる。マイクロレンズ1011cの焦点位置が光電変換部1011a、1011bの上面に略一致していると、光電変換部1011a、1011bの上面は遠方にある平面上に投影されるが、その投影像の大きさは投影面までの距離に比例する。ここで、投影面をセンサ瞳面SPL1とすると、センサ瞳面SPL1上には一対の光電変換部1011aおよび1011bに対応する一対の逆投影像AP1aおよびAP1bが形成され、これが焦点検出時の光束を規定する焦点検出瞳となる。 In FIG. 3, for convenience, the lens pupil distance PL1 and the sensor pupil distance PS1 are illustrated to be several times the pixel height h1. However, in reality, the pixel height h1 is on the order of micrometers, while the lens pupil distance PL1 and the sensor pupil distance PS1 are on the order of several tens of millimeters, and there is a difference of about four digits in their sizes. That is, when considering the light-collecting action of the microlens 1011c, it can be considered that the exit pupil of the image pickup lens 500 and the sensor pupil surface SPL1 seen from the pixel 1011 are very far away. When the focal position of the microlens 1011c substantially coincides with the upper surface of the photoelectric conversion unit 1011a and 1011b, the upper surface of the photoelectric conversion unit 1011a and 1011b is projected on a distant plane, but the size of the projected image is large. It is proportional to the distance to the projection plane. Here, assuming that the projection surface is the sensor pupil surface SPL1, a pair of back projection images AP1a and AP1b corresponding to the pair of photoelectric conversion units 1011a and 1011b are formed on the sensor pupil surface SPL1, and this causes the luminous flux at the time of focus detection. It becomes the specified focus detection pupil.

次に、画素1012の構造とセンサ瞳距離について説明する。図3(a)において、画素1012のx座標をX1とすると、マイクロレンズ1012cの主点およびセンサ瞳面上の点CS1を頂点とする2つの三角形の相似関係より、
X1/(PS1+h1)=dx1/h1 (式1)
となる。ここで、PS1≫h1なので、左項の分母PS1+h1はPS1と近似でき、式4を変形すると、
PS1=X1×(h1/dx1) (式2)
dx1=h1×(X1/PS1) (式3)
が得られる。
Next, the structure of the pixel 1012 and the sensor pupil distance will be described. In FIG. 3A, assuming that the x-coordinate of the pixel 1012 is X1, the similarity relationship between the two triangles having the principal point of the microlens 1012c and the point CS1 on the sensor pupil surface as vertices
X1 / (PS1 + h1) = dx1 / h1 (Equation 1)
Will be. Here, since PS1 >> h1, the denominator PS1 + h1 in the left term can be approximated to PS1, and when Equation 4 is modified,
PS1 = X1 × (h1 / dx1) (Equation 2)
dx1 = h1 × (X1 / PS1) (Equation 3)
Is obtained.

また、画素1012の画素構造や各部の寸法は、マイクロレンズ1012cの偏心量を除いて画素1011と同一である。よって、センサ瞳面SPL1上には、一対の光電変換部1012aおよび1012bに対応する一対の逆投影像が形成され、この逆投影像は画素1011の光電変換部1011aおよび1011bの逆投影像AP1aおよびAP1bと実質的に同一である。すなわち、撮像素子101が有する全ての画素で式3が成り立つようにマイクロレンズの偏心量を設定すれば、全ての画素についてセンサ瞳距離がPS1となり、センサ瞳面上では全ての画素の焦点検出瞳がAP1aおよびAP1bに共通化される。すなわち、マイクロレンズアレイを介して各画素が備える光電変換部とセンサ瞳面とが共役な関係になり、すべての画素の焦点検出瞳がセンサ瞳面上で実質的に一致することになる。 Further, the pixel structure of the pixel 1012 and the dimensions of each part are the same as those of the pixel 1011 except for the amount of eccentricity of the microlens 1012c. Therefore, a pair of back projection images corresponding to the pair of photoelectric conversion units 1012a and 1012b are formed on the sensor pupil surface SPL1, and the back projection images are the back projection images AP1a and 1011b of the photoelectric conversion units 1011a and 1011b of the pixel 1011. It is substantially the same as AP1b. That is, if the eccentricity of the microlens is set so that Equation 3 holds for all the pixels of the image sensor 101, the sensor pupil distance is PS1 for all the pixels, and the focus detection pupil of all the pixels is on the sensor pupil surface. Is common to AP1a and AP1b. That is, the photoelectric conversion unit included in each pixel and the sensor pupil surface are in a conjugate relationship via the microlens array, and the focus detection pupils of all the pixels are substantially aligned on the sensor pupil surface.

次に焦点検出瞳の基線長について説明する。画素1011における一対の光電変換部1011aおよび1011bは、画素中心に対してx方向に対称形状を有し、光電変換部1011a、1011bの感度重心位置間のx方向の距離をGS1とする。そして、光電変換部の感度重心位置とマイクロレンズ1011cの主点1011pを結び、撮像レンズの射出瞳方向に延長した線を光電変換部の主光線と定義する。 Next, the baseline length of the focus detection pupil will be described. The pair of photoelectric conversion units 1011a and 1011b in the pixel 1011 have a symmetrical shape in the x direction with respect to the pixel center, and the distance in the x direction between the sensitivity center of gravity positions of the photoelectric conversion units 1011a and 1011b is GS1. Then, the line extending in the exit pupil direction of the imaging lens by connecting the sensitivity center of gravity position of the photoelectric conversion unit and the principal point 1011p of the microlens 1011c is defined as the main ray of the photoelectric conversion unit.

この場合、マイクロレンズ1011cの主点1011pを頂点とし、一対の主光線S11aとS11bとが形成する2つの三角形の相似関係より、
GP1/PS1=GS1/h1 (式4)
が導かれ、これを変形すると、焦点検出瞳の基線長GP1は、
GP1=GS1×(PS1/h1) (式5)
となる。また、一対の焦点検出光束における一対の主光線S11aとS11bのなす角度が基線角度α11で、sinα≒tanα≒αの近似が成り立つ領域では、
α11=GS1/h1=GP1/PS1 (式6)
となる。
In this case, the similarity relationship between the two triangles formed by the pair of main rays S11a and S11b with the principal point 1011p of the microlens 1011c as the apex is determined.
GP1 / PS1 = GS1 / h1 (Equation 4)
Is derived, and when this is deformed, the baseline length GP1 of the focal detection pupil becomes
GP1 = GS1 × (PS1 / h1) (Equation 5)
Will be. Further, in the region where the angle formed by the pair of main rays S11a and S11b in the pair of focal detection light beams is the baseline angle α11 and the approximation of sinα≈tanα≈α is established.
α11 = GS1 / h1 = GP1 / PS1 (Equation 6)
Will be.

撮像面の端部に位置する画素1012においても、光電変換部1012a、1012bの感度重心位置間のx方向の距離はGS1である。そして、一対の光電変換部の主光線S12aとS12bが定義でき、前述の式1および式2が成り立つ。すなわち、画素1011と画素1012において、焦点検出瞳の基線長は互いに等しい値GP1となる。一方で、両者の基線角度は厳密には異なり、画素1011の基線角度はα11、画素1012の基線角度はα12となり、α11>α12の関係となる。 Even in the pixel 1012 located at the end of the image pickup surface, the distance in the x direction between the sensitivity center of gravity positions of the photoelectric conversion units 1012a and 1012b is GS1. Then, the main rays S12a and S12b of the pair of photoelectric conversion units can be defined, and the above-mentioned equations 1 and 2 hold. That is, in the pixel 1011 and the pixel 1012, the baseline lengths of the focal detection pupils have the same value GP1. On the other hand, the baseline angles of the two are strictly different, the baseline angle of the pixel 1011 is α11, the baseline angle of the pixel 1012 is α12, and the relationship is α11> α12.

基線長という用語は、2眼式ステレオカメラや、外測式位相差検出モジュールにおける一対の光学系の入射瞳間の距離を指すが、本実施形態における撮像面位相差検出方式ではセンサ瞳面SPL1上の一対の光束の間の距離GP1を基線長と称している。この場合、センサ瞳面SPL1と撮像面IP1の間隔であるセンサ瞳距離PS1が変わると基線長GP1も変化してしまうので、基線長の大小は、同じセンサ瞳距離PS1における値で比較する必要がある。また、図3に示した基線長GP1およびGP2は画素単体の基線長だが、焦点検出時には焦点検出瞳が撮像レンズの射出瞳でけられるため、けられ状況に応じて基線長も短くなる。なお、基線角度α11はレンズ瞳距離やセンサ瞳距離には依存せず、画素の構造と寸法のみで決まるため、撮像素子単体の焦点検出能力を比較する場合は基線角度αで比較するのが妥当である。位相差検出時の一対2像の相対的な横ずれ量は基線長GP1もしくは基線角度α11に比例するので、これらの値が大きいほど、焦点検出分解能が高い。 The term baseline length refers to the distance between the entrance pupils of a pair of optical systems in a twin-lens stereo camera or an external measurement type phase difference detection module, but in the imaging surface phase difference detection method in the present embodiment, the sensor pupil surface SPL1 The distance GP1 between the above pair of light beams is referred to as the baseline length. In this case, if the sensor pupil distance PS1 which is the distance between the sensor pupil surface SPL1 and the imaging surface IP1 changes, the baseline length GP1 also changes. Therefore, it is necessary to compare the magnitude of the baseline length with the value at the same sensor pupil distance PS1. be. Further, the baseline lengths GP1 and GP2 shown in FIG. 3 are the baseline lengths of a single pixel, but since the focus detection pupil is eclipsed by the exit pupil of the image pickup lens at the time of focus detection, the baseline length is also shortened depending on the eclipsed situation. Since the baseline angle α11 does not depend on the lens pupil distance or the sensor pupil distance and is determined only by the pixel structure and dimensions, it is appropriate to compare the baseline angle α when comparing the focal detection capability of the image sensor alone. Is. Since the relative lateral displacement amount of the one-to-two image at the time of phase difference detection is proportional to the baseline length GP1 or the baseline angle α11, the larger these values are, the higher the focus detection resolution is.

第1の撮像素子101における焦点検出原理を説明すると、以下のようになる。撮像素子に配置された任意像高の画素内の一方の光電変換部(1011aないし1012a)は、マイクロレンズアレイを介して焦点検出瞳AP1aを通過した光束を受光し、光電変換信号Saを出力する。同様に画素内の他方の光電変換部(1011bないし1012b)は、マイクロレンズアレイを介して焦点検出瞳AP1bを通過した光束を受光し、光電変換信号Sbを出力する。そこで、x方向に連続して配置された複数の画素が出力する信号Sa同士と、信号Sb同士を連ねた信号を、A像信号およびB像信号と定義する。すると、A像信号とB像信号は、被写体像のピントズレ状態に応じてx方向に横ずれしている。この横ずれ量は、被写体像のピントズレ量すなわちデフォーカス量に比例するとともに、焦点検出瞳の基線長GP1あるいは基線角度α11にも比例する。 The focus detection principle of the first image sensor 101 will be described as follows. One photoelectric conversion unit (1011a to 1012a) in the pixel having an arbitrary image height arranged in the image sensor receives the light flux passing through the focus detection pupil AP1a via the microlens array and outputs the photoelectric conversion signal Sa. .. Similarly, the other photoelectric conversion unit (1011b to 1012b) in the pixel receives the light flux passing through the focus detection pupil AP1b via the microlens array and outputs the photoelectric conversion signal Sb. Therefore, the signals Sa that are output by a plurality of pixels continuously arranged in the x direction and the signals that are connected to the signals Sb are defined as an A image signal and a B image signal. Then, the A image signal and the B image signal are laterally displaced in the x direction according to the out-of-focus state of the subject image. This amount of lateral displacement is proportional to the amount of focus shift, that is, the amount of defocus of the subject image, and is also proportional to the baseline length GP1 or the baseline angle α11 of the focus detection pupil.

次に、図3(b)に示した第2の撮像素子102の画素構造と焦点検出瞳について説明する。本実施形態においては、2つの撮像素子101、102は1つの撮像レンズ500を共用しているが、撮像レンズ500から撮像素子102に向かう光束はビームスプリッタ103を介して90度屈曲する。そのため、撮像素子102上に形成される被写体像は鏡像であるが、ここでは光束を直線状に展開し、鏡像も元の正像に戻した状態で説明する。 Next, the pixel structure and the focus detection pupil of the second image pickup device 102 shown in FIG. 3B will be described. In the present embodiment, the two image pickup elements 101 and 102 share one image pickup lens 500, but the luminous flux from the image pickup lens 500 toward the image pickup element 102 is bent 90 degrees via the beam splitter 103. Therefore, the subject image formed on the image pickup device 102 is a mirror image, but here, a state in which the luminous flux is linearly developed and the mirror image is returned to the original normal image will be described.

図3(b)には図3(a)と同様に2個の画素1021および1022が図示され、画素1021は撮像面中央、すなわち像高x=0mmに配置され、画素1022は像高x=10mmに配置されている。
画素1021は図3(a)の画素1011と同一構成を有する。すなわち、画素1021の画素高さh2は画素1011の画素高さh1と同一であり、マイクロレンズ1021cの主点102pをとおり光軸S21cに直交する面が撮像面IP2である。また、マイクロレンズ1021cの光軸は一対の光電変換部の境界部の中心と一致し、かつマイクロレンズ1021cの焦点位置は一対の光電変換部の上面と略一致している。
FIG. 3B shows two pixels 1021 and 1022 as in FIG. 3A, the pixels 1021 are arranged in the center of the imaging surface, that is, at the image height x = 0 mm, and the pixels 1022 have the image height x =. It is arranged at 10 mm.
Pixel 1021 has the same configuration as pixel 1011 in FIG. 3A. That is, the pixel height h2 of the pixel 1021 is the same as the pixel height h1 of the pixel 1011 and the surface orthogonal to the optical axis S21c through the principal point 102p of the microlens 1021c is the image pickup surface IP2. Further, the optical axis of the microlens 1021c coincides with the center of the boundary portion of the pair of photoelectric conversion portions, and the focal position of the microlens 1021c substantially coincides with the upper surface of the pair of photoelectric conversion portions.

一方で、撮像面IP2の端部近傍に位置する画素1022においては、撮像素子101の画素1012と同様に、マイクロレンズ1022cの光軸が画素の中心に対して偏心しているが、その偏心量は所定量dx1とは異なる所定量dx2に設定されている。そのため、画素1022の主光線S22c(一対の光電変換部境界とマイクロレンズの主点を結ぶ線)は光軸に対して所定の角度ω2だけ傾斜し、撮像面IP1から所定距離を有する点CS2で光軸と交差する。この交差点CS2を通り、光軸と直交する仮想面をセンサ瞳面SPL2とし、センサ瞳面SPL2と撮像面IP2の間の距離PS2をセンサ瞳距離と呼ぶ。 On the other hand, in the pixel 1022 located near the end of the image pickup surface IP2, the optical axis of the microlens 1022c is eccentric with respect to the center of the pixel, as in the pixel 1012 of the image pickup element 101, but the amount of eccentricity is It is set to a predetermined amount dx2 different from the predetermined amount dx1. Therefore, the main ray S22c (the line connecting the boundary of the pair of photoelectric conversion portions and the main point of the microlens) of the pixel 1022 is inclined by a predetermined angle ω2 with respect to the optical axis, and at the point CS2 having a predetermined distance from the imaging surface IP1. It intersects the optical axis. The virtual surface passing through the intersection CS2 and orthogonal to the optical axis is referred to as the sensor pupil surface SPL2, and the distance PS2 between the sensor pupil surface SPL2 and the imaging surface IP2 is referred to as the sensor pupil distance.

よって、撮像素子101で説明したセンサ瞳距離に関する式1ないしおよび式3は、撮像素子102においては、
X1/(PS2+h2)=dx2/h2 (式7)
PS2=X1×(h2/dx2) (式8)
dx2=h2×(X1/PS2) (式9)
となる。そして、画素1022の画素構造や各部の寸法は、マイクロレンズの偏心量を除いて画素1021と同一である。よって、センサ瞳面SPL2上には、一対の光電変換部1022aおよび1022bに対応する一対の逆投影像が形成され、この逆投影像は画素1021の光電変換部の逆投影像AP2aおよびAP2bと実質的に同一となる。
Therefore, the equations 1 to 3 relating to the sensor pupil distance described in the image pickup element 101 are expressed in the image pickup element 102.
X1 / (PS2 + h2) = dx2 / h2 (Equation 7)
PS2 = X1 × (h2 / dx2) (Equation 8)
dx2 = h2 × (X1 / PS2) (Equation 9)
Will be. The pixel structure of the pixel 1022 and the dimensions of each part are the same as those of the pixel 1021 except for the amount of eccentricity of the microlens. Therefore, a pair of back projection images corresponding to the pair of photoelectric conversion units 1022a and 1022b are formed on the sensor pupil surface SPL2, and the back projection images are substantially the same as the back projection images AP2a and AP2b of the photoelectric conversion units of the pixel 1021. Is the same.

すなわち、撮像素子102の全ての画素で式9が成り立つようにマイクロレンズの偏心量を設定すれば、全ての画素のセンサ瞳距離がPS2となり、センサ瞳面上で全ての画素の焦点検出瞳がAP2aおよびAP2bに共通化される。 That is, if the eccentricity of the microlens is set so that the equation 9 holds for all the pixels of the image sensor 102, the sensor pupil distance of all the pixels becomes PS2, and the focus detection pupil of all the pixels is on the sensor pupil surface. It is common to AP2a and AP2b.

ここで、画素1012のマイクロレンズ1022cの偏心量dx2は、図3(a)に示した第1の撮像素子101のが画素1011のマイクロレンズ1012cの偏心量dx1より小さい。そのため、撮像面端部における主光線角度ωとセンサ瞳距離PSの大小関係は、
ω1>ω2 (式10)
PS1<PS2 (式11)
となる。なお、撮像素子はその製造工程において、画素高さには所定の製造ばらつきを生ずるため、主光線角度ωとセンサ瞳距離PSもばらつきを生ずる。そこで、画素高さの製造ばらつきが生じても式10および式11の大小関係が逆転しないように、マイクロレンズの偏心量dx1およびdx2を設定するのが好ましい。
Here, the eccentricity dx2 of the microlens 1022c of the pixel 1012 is smaller than that of the first image sensor 101 shown in FIG. 3A is smaller than the eccentricity dx1 of the microlens 1012c of the pixel 1011. Therefore, the magnitude relationship between the main ray angle ω at the edge of the imaging surface and the sensor pupil distance PS is
ω1> ω2 (Equation 10)
PS1 <PS2 (Equation 11)
Will be. In the manufacturing process of the image sensor, the pixel height has a predetermined manufacturing variation, so that the main ray angle ω and the sensor pupil distance PS also vary. Therefore, it is preferable to set the eccentricities dx1 and dx2 of the microlens so that the magnitude relationship between the equations 10 and 11 does not reverse even if the manufacturing variation of the pixel height occurs.

次に、撮像素子102における焦点検出瞳の基線長について説明する。画素1021における一対の光電変換部1021aおよび1012bは、撮像素子101の画素1011と同様に画素中心に対してx方向に対称形状を有し、各々の光電変換部1012a、1012bの感度重心位置のx方向間隔をGS2とする。また、画素高さはh2である。すると、撮像素子101における前述の式4ないし式6は、撮像素子102においては、
GP2/PS2=GS2/h2 (式12)
GP2=GS2×(PS2/h2) (式13)
α21=GS2/h2=GP2/PS2 (式14)
となる。そしてh1=h2、GS1=GS2であるため、基線角度は等しく、α11=α21となる。一方で、焦点検出瞳の基線長はGP2>GP1となり、両者は異なる値となっているが、これは焦点検出瞳を投影する面と撮像面の間隔が異なることに起因する。そして、焦点検出精度は基線角度αに依存するため、撮像素子101と撮像素子102において、撮像面中央にある画素単体の焦点検出性能は同一となる。撮像面の端部における画素1022についても式12および式13が成り立つため、撮像素子単体では撮像素子101と撮像素子102の焦点検出性能は等しい。
Next, the baseline length of the focus detection pupil in the image sensor 102 will be described. Similar to the pixel 1011 of the image sensor 101, the pair of photoelectric conversion units 1021a and 1012b in the pixel 1021 have a symmetrical shape in the x direction with respect to the pixel center, and the x of the sensitivity center of gravity position of the respective photoelectric conversion units 1012a and 1012b. The direction spacing is GS2. The pixel height is h2. Then, the above-mentioned equations 4 to 6 in the image pickup device 101 are replaced with the above-mentioned equations 4 to 6 in the image pickup element 102.
GP2 / PS2 = GS2 / h2 (Equation 12)
GP2 = GS2 × (PS2 / h2) (Equation 13)
α21 = GS2 / h2 = GP2 / PS2 (Equation 14)
Will be. Since h1 = h2 and GS1 = GS2, the baseline angles are the same, and α11 = α21. On the other hand, the baseline length of the focus detection pupil is GP2> GP1, and both have different values. This is due to the difference in the distance between the surface on which the focus detection pupil is projected and the imaging surface. Since the focus detection accuracy depends on the baseline angle α, the focus detection performance of a single pixel in the center of the image pickup surface is the same in the image pickup element 101 and the image pickup element 102. Since the equations 12 and 13 also hold for the pixels 1022 at the end of the image pickup surface, the focus detection performances of the image pickup element 101 and the image pickup element 102 are the same for the image pickup element alone.

以上のごとく、第1の撮像素子101と第2の撮像素子102は、各画素の基本的な特性は同一だが、センサ瞳距離が異なっている。よって、撮像面中央において両者は同等の焦点検出特性となるが、撮像面端部においては撮像レンズの射出瞳と撮像素子の焦点検出瞳の位置関係が異なり、焦点検出特性も異なる。その様子を図4で説明する。 As described above, the first image sensor 101 and the second image sensor 102 have the same basic characteristics of each pixel, but have different sensor pupil distances. Therefore, both have the same focus detection characteristics at the center of the image pickup surface, but the positional relationship between the exit pupil of the image pickup lens and the focus detection pupil of the image pickup element is different at the end of the image pickup surface, and the focus detection characteristics are also different. The situation will be described with reference to FIG.

<各画素の焦点検出瞳と撮像レンズの射出瞳の相対的な位置関係>
図4は、図3に示したセンサ瞳面SPL1およびSPL2における、各画素の焦点検出瞳と撮像レンズの射出瞳の相対的な位置関係を示した図である。図4(a)は撮像素子101の画素1011に関する図、図4(b)は撮像素子101の画素1012に関する図である。また、図4(c)は撮像素子102の画素1021に関する図、図4(d)は撮像素子102の画素1022に関する図である。
<Relative positional relationship between the focus detection pupil of each pixel and the exit pupil of the imaging lens>
FIG. 4 is a diagram showing the relative positional relationship between the focus detection pupil of each pixel and the exit pupil of the image pickup lens in the sensor pupil planes SPL1 and SPL2 shown in FIG. FIG. 4A is a diagram relating to the pixel 1011 of the image pickup device 101, and FIG. 4B is a diagram relating to the pixel 1012 of the image pickup device 101. Further, FIG. 4C is a diagram relating to the pixel 1021 of the image pickup device 102, and FIG. 4D is a diagram relating to the pixel 1022 of the image pickup element 102.

先に、焦点検出瞳の大きさは、焦点検出瞳の投影面距離に比例すると説明した。そして、図4(a)(b)と、図4(c)(d)は投影面であるセンサ瞳距離が異なるため、投影距離が揃うように図面の縮尺を調整している。また、いずれの図においても、センサ瞳面における光軸位置を原点としている。まず図4(a)について説明する。 Earlier, it was explained that the size of the focus detection pupil is proportional to the projection plane distance of the focus detection pupil. Since the sensor pupil distances of FIGS. 4 (a) and 4 (b) and FIGS. 4 (c) and 4 (d) are different from each other, the scale of the drawing is adjusted so that the projection distances are the same. Further, in each figure, the optical axis position on the pupil surface of the sensor is used as the origin. First, FIG. 4A will be described.

図4(a)は、第1の撮像素子101の撮像面中央に位置する画素1011からセンサ瞳面SPL1を見た時の焦点検出瞳と撮像レンズの射出瞳を示す。原点はセンサ瞳面SPL1と光軸の交点であり、図3(a)における点CS1である。一対の焦点検出瞳AP1aおよびAP1bは、マイクロレンズ1011cを介して画素1011が有する一対の光電変換部1011aおよび1011bと光学的に共役関係にある。ただし、マイクロレンズ1011cの光学収差、および画素の大きさが微小であることによる光波の回折により、一対の焦点検出瞳AP1aおよびAP1bは輪郭がぼけている。そして各焦点検出瞳はクロスハッチングで示した中心部に行くほど効率が高い、換言すれば中心部に近づくほど受光強度が高い。また、網点で示した領域は周辺部に行くほど効率が低い、換言すれば受光強度は低くなる。そして周辺部は互いの領域の一部が重なっている。 FIG. 4A shows the focus detection pupil and the exit pupil of the image pickup lens when the sensor pupil surface SPL1 is viewed from the pixel 1011 located at the center of the image pickup surface of the first image pickup element 101. The origin is the intersection of the sensor pupil surface SPL1 and the optical axis, and is the point CS1 in FIG. 3A. The pair of focus detection pupils AP1a and AP1b are optically conjugated with the pair of photoelectric conversion units 1011a and 1011b of the pixel 1011 via the microlens 1011c. However, the contours of the pair of focus detection pupils AP1a and AP1b are blurred due to the optical aberration of the microlens 1011c and the diffraction of light waves due to the minute pixel size. The efficiency of each focus detection pupil is higher toward the central part indicated by cross-hatching, in other words, the light receiving intensity is higher toward the central part. Further, the area indicated by the halftone dots has lower efficiency toward the peripheral portion, in other words, the light receiving intensity becomes lower. And in the peripheral part, a part of each other's area overlaps.

EP11は撮像レンズ500の絞り503が開放(F2)の際の射出瞳を、円505は例えば絞り503がF5.6の際の射出瞳をそれぞれ示している。撮像面中央においては焦点検出瞳と射出瞳は原点である光軸に対して瞳分割方向(横軸u方向)に対称である。。よって、焦点検出時のFナンバに関わりなく、一対の焦点検出瞳のけられは瞳分割方向に対称となり、画素1011が有する一対の光電変換部1011aと1011bの受光信号強度は等しくなる。 EP11 shows the exit pupil when the aperture 503 of the image pickup lens 500 is open (F2), and the circle 505 shows the exit pupil when the aperture 503 is F5.6, for example. At the center of the imaging surface, the focus detection pupil and the exit pupil are symmetrical with respect to the optical axis, which is the origin, in the pupil division direction (horizontal axis u direction). .. Therefore, regardless of the F-number at the time of focus detection, the eclipse of the pair of focus detection pupils is symmetrical in the pupil division direction, and the light receiving signal intensities of the pair of photoelectric conversion units 1011a and 1011b possessed by the pixel 1011 are equal.

図4(b)は、第1の撮像素子101の撮像面端部に位置する画素1012からセンサ瞳面SPL1を見た時の焦点検出瞳と撮像レンズの射出瞳を示す。原点は図4(a)と同様に、図3(a)における点CS1である。一対の焦点検出瞳AP1aおよびAP1bの形状と位置は図3(a)に示した画素1011のものと同様であり、原点CS1に対して瞳分割方向に対称となっている。 FIG. 4B shows the focus detection pupil and the exit pupil of the image pickup lens when the sensor pupil surface SPL1 is viewed from the pixel 1012 located at the end of the image pickup surface of the first image sensor 101. The origin is the point CS1 in FIG. 3 (a) as in FIG. 4 (a). The shapes and positions of the pair of focus detection pupils AP1a and AP1b are the same as those of the pixel 1011 shown in FIG. 3A, and are symmetrical with respect to the origin CS1 in the pupil division direction.

画素1012から見た、絞り503の開放時の射出瞳EP12は、口径食により2つの円弧で囲まれた形状となり、u軸方向の幅は狭くなっている。図3(a)で説明したように、レンズ瞳距離PL1と第1の撮像素子101のセンサ瞳距離PS1は若干異なっている。そのため、絞り503が開放およびF5.6の際の射出瞳EP12および505の中心CD1は、焦点検出瞳の境界中心CS1に対して左方向に若干偏心している。しかしその偏心量は僅かであるため、一対の焦点検出瞳のけられは瞳分割方向に略対称となり、画素1012が有する一対の光電変換部1012aと1012bの受光信号強度はほぼ等しい。 The exit pupil EP12 when the aperture 503 is opened, as seen from the pixel 1012, has a shape surrounded by two arcs due to vignetting, and the width in the u-axis direction is narrowed. As described with reference to FIG. 3A, the lens pupil distance PL1 and the sensor pupil distance PS1 of the first image pickup device 101 are slightly different. Therefore, the center CD1 of the exit pupils EP12 and 505 when the aperture 503 is open and F5.6 is slightly eccentric to the left with respect to the boundary center CS1 of the focus detection pupil. However, since the amount of eccentricity is small, the eccentricity of the pair of focus detection pupils is substantially symmetric in the pupil division direction, and the light receiving signal intensities of the pair of photoelectric conversion units 1012a and 1012b of the pixel 1012 are substantially the same.

図4(c)は、第2の撮像素子102の撮像面中央に位置する画素1021からセンサ瞳面SPL2を見た時の焦点検出瞳と撮像レンズの射出瞳を示す。原点はセンサ瞳面SPL2と光軸の交点であり、図3(b)における点CS2である。一対の焦点検出瞳AP2aおよびAP2bは、実質的に図4(a)の画素1011のものと同一である。 FIG. 4C shows the focus detection pupil and the exit pupil of the image pickup lens when the sensor pupil surface SPL2 is viewed from the pixel 1021 located at the center of the image pickup surface of the second image pickup element 102. The origin is the intersection of the sensor pupil surface SPL2 and the optical axis, and is the point CS2 in FIG. 3 (b). The pair of focus detection pupils AP2a and AP2b are substantially the same as those of pixel 1011 in FIG. 4 (a).

また、絞り503の開放時およびF5.6における射出瞳EP21および505も、図4(a)に示した射出瞳EP11および505と同一である。よって、画素1021においても焦点検出時のFナンバに関わりなく、一対の焦点検出瞳のけられは瞳分割方向に対称となり、一対の光電変換部1021aと1021bの受光信号強度は等しくなる。 Further, the exit pupils EP21 and 505 when the aperture 503 is opened and at F5.6 are also the same as the exit pupils EP11 and 505 shown in FIG. 4 (a). Therefore, even in the pixel 1021, the eclipse of the pair of focus detection pupils is symmetrical in the pupil division direction regardless of the F number at the time of focus detection, and the light receiving signal intensities of the pair of photoelectric conversion units 1021a and 1021b are equal.

図4(d)は、第2の撮像素子102の撮像面端部に位置する画素1022からセンサ瞳面SPL2を見た時の焦点検出瞳と撮像レンズの射出瞳を示す。図4(d)の原点CS2は図4(c)と同様に、図3(b)における点CS2である。一対の焦点検出瞳AP2aおよびAP2bは、図4(c)と同様に原点CS2に対して瞳分割方向に対称である。 FIG. 4D shows the focus detection pupil and the exit pupil of the image pickup lens when the sensor pupil surface SPL2 is viewed from the pixel 1022 located at the end of the image pickup surface of the second image pickup element 102. The origin CS2 in FIG. 4 (d) is the point CS2 in FIG. 3 (b), as in FIG. 4 (c). The pair of focus detection pupils AP2a and AP2b are symmetrical with respect to the origin CS2 in the pupil division direction as in FIG. 4 (c).

絞り503の開放時の射出瞳EP22は、図4(b)と同様、口径食により2つの円弧で囲まれた形状を有する。図3(b)で説明したように、レンズ瞳距離PL1と第2の撮像素子102のセンサ瞳距離PS2はかなり異なっている。そのため、絞り503が開放およびF5.6の際の射出瞳EP22および505の中心CD2は、焦点検出瞳の境界中心CS2に対して左方向に大きく偏倚する。その結果、一対の焦点検出瞳のけられは瞳分割方向に非対称となり、画素1022が有する一対の光電変換部1022aと1022bの受光信号強度は大きく異なる。この光量差(厳密には光量比)は、像高が大きく、また小絞りになる(Fナンバが大きくなる)ほど大きくなる。 The exit pupil EP22 when the aperture 503 is open has a shape surrounded by two arcs due to vignetting, as in FIG. 4 (b). As described with reference to FIG. 3B, the lens pupil distance PL1 and the sensor pupil distance PS2 of the second image pickup device 102 are considerably different. Therefore, the center CD2 of the exit pupils EP22 and 505 when the aperture 503 is open and F5.6 is largely deviated to the left with respect to the boundary center CS2 of the focus detection pupil. As a result, the eclipse of the pair of focus detection pupils becomes asymmetric in the pupil division direction, and the light receiving signal intensities of the pair of photoelectric conversion units 1022a and 1022b of the pixel 1022 are significantly different. This light amount difference (strictly speaking, the light amount ratio) becomes larger as the image height becomes larger and the aperture becomes smaller (the F number becomes larger).

<シェーディング特性>
図5(a),(b)は撮像レンズ500の絞り503が開放(F2)およびF5.6の際に、一様な輝度分布を有する被写体を撮像した際の撮像素子の像高と受光光量との関係、すなわちシェーディング特性を説明する図である。図5(a)は第1の撮像素子101の特性図、図5(b)は第2の撮像素子102の特性図である。まず図5(a)について説明する。
<Shading characteristics>
5 (a) and 5 (b) show the image height and the amount of received light of the image sensor when a subject having a uniform luminance distribution is imaged when the aperture 503 of the image pickup lens 500 is open (F2) and F5.6. It is a figure explaining the relationship with, that is, the shading characteristic. 5 (a) is a characteristic diagram of the first image sensor 101, and FIG. 5 (b) is a characteristic diagram of the second image sensor 102. First, FIG. 5A will be described.

図5(a)の横軸は第1の撮像素子101の撮像面IP1におけるx方向の像高、縦軸は一対の焦点検出瞳に対応する光束を受光する光電変換部の出力信号で、各画素が備える光電変換部の受光光量に比例した値である。S1a(F2)は、絞り開放(F2)時における、一方の焦点検出瞳AP1aに対応する複数の光電変換部の出力信号であり、これをA像信号と呼ぶ。S1b(F2)は対となる他方の焦点検出瞳AP1bに対応する複数の光電変換部の出力信号で、これをB像信号と呼ぶ。 The horizontal axis of FIG. 5A is the image height in the x direction on the image pickup surface IP1 of the first image sensor 101, and the vertical axis is the output signal of the photoelectric conversion unit that receives the light flux corresponding to the pair of focus detection pupils. It is a value proportional to the amount of light received by the photoelectric conversion unit included in the pixel. S1a (F2) is an output signal of a plurality of photoelectric conversion units corresponding to one focus detection pupil AP1a when the aperture is opened (F2), and this is called an A image signal. S1b (F2) is an output signal of a plurality of photoelectric conversion units corresponding to the other focal detection pupil AP1b to be paired, and this is called a B image signal.

焦点検出の際は、輝度が一定でない被写体を撮影して得られるA像信号とB像信号の相関演算を行なってデフォーカス量を検出するが、図5(a)は無地の均一輝度面に対する信号、すなわち焦点検出系のシェーディング特性を表わしている。両信号の値は像高xの絶対値の増加とともに低下するが、これは撮像レンズの口径食に起因する。また、第1の撮像素子101はレンズ瞳距PL1とセンサ瞳距離PS1が略一致しているが、図3(a)で説明したように、厳密にはレンズ瞳距離PL1の方が若干小さい。そのため、図4(a)および(b)で説明したように、像高の増加と共に撮像レンズの射出瞳中心と焦点検出瞳の中立点が僅かにずれ、図5(a)のA像信号S1a(F2)とB像信号S1b(F2)は像高に応じてその値が若干異なっている。また、像高xが正の領域ではA像>B像、像高xが負の領域ではA像<B像となり、像高の正負に応じて両信号の大小関係は逆転する。 At the time of focus detection, the amount of defocus is detected by performing a correlation calculation between the A image signal and the B image signal obtained by photographing a subject whose brightness is not constant. FIG. 5A shows a plain uniform brightness surface. It represents the shading characteristics of the signal, that is, the focus detection system. The values of both signals decrease with increasing absolute value of image height x, which is due to vignetting of the image pickup lens. Further, in the first image sensor 101, the lens pupillary distance PL1 and the sensor pupillary distance PS1 are substantially the same, but strictly speaking, the lens pupillary distance PL1 is slightly smaller as described with reference to FIG. 3A. Therefore, as described with reference to FIGS. 4 (a) and 4 (b), the neutral point between the exit pupil center of the image pickup lens and the focus detection pupil slightly deviates as the image height increases, and the A image signal S1a in FIG. 5 (a). The values of (F2) and the B image signal S1b (F2) are slightly different depending on the image height. Further, in the region where the image height x is positive, the image A> the image B, and in the region where the image height x is negative, the image A <the image B, and the magnitude relationship between the two signals is reversed according to the positive and negative of the image height.

図5(a)のS1a(F5.6)およびS1b(F5.6)は、絞り503がF5.6の際のA像およびB像信号である。両信号の値は像高の絶対値が大きいほど小さくなるが低下の割合は絞りが開放の場合より低い。値の低下はコサイン4乗則によるものである。また、同じ像高における信号値の差も像高の増加とともに大きくなるが、その理由は絞り開放の場合と同様である。 S1a (F5.6) and S1b (F5.6) in FIG. 5A are A-image and B-image signals when the aperture 503 is F5.6. The values of both signals become smaller as the absolute value of the image height increases, but the rate of decrease is lower than when the aperture is open. The decrease in value is due to the Cosine 4th power rule. Further, the difference in signal values at the same image height also increases as the image height increases, and the reason is the same as in the case of opening the aperture.

図5(b)は第2の撮像素子102の特性図であり、図の意味は図5(a)と同じである。S2a(F2)とS2b(F2)は、絞り503の開放時(F2)におけるA像信号とB像信号、S2a(F5.6)とS2b(F5.6)は、絞り503がF5.6のときのA像信号とB像信号である。 FIG. 5B is a characteristic diagram of the second image pickup device 102, and the meaning of the diagram is the same as that of FIG. 5A. S2a (F2) and S2b (F2) have an A image signal and a B image signal when the aperture 503 is open (F2), and S2a (F5.6) and S2b (F5.6) have an aperture 503 of F5.6. The A image signal and the B image signal at that time.

図3(b)で説明したように、第2の撮像素子102はレンズ瞳距PL1とセンサ瞳距離PS2の乖離が大きい。そのため、図4(d)で示すように、像高の大きな領域では撮像レンズの射出瞳中心と焦点検出瞳の中立点のずれも大きく、一対の焦点検出瞳の光量比もアンバランスになる。よって、第2の撮像素子102のシェーディング特性も、口径食やコサイン4乗則を起因とする光量低下に加え、射出瞳と焦点検出瞳の位置ずれに起因するA像信号とB像信号の乖離が顕著になっている。 As described with reference to FIG. 3B, the second image sensor 102 has a large discrepancy between the lens pupillary distance PL1 and the sensor pupillary distance PS2. Therefore, as shown in FIG. 4D, in the region where the image height is large, the deviation between the center of the exit pupil of the image pickup lens and the neutral point of the focus detection pupil is large, and the light amount ratio of the pair of focus detection pupils becomes unbalanced. Therefore, the shading characteristic of the second image sensor 102 is also the deviation between the A image signal and the B image signal due to the positional deviation between the exit pupil and the focus detection pupil in addition to the decrease in the amount of light due to vignetting and the cosine fourth power law. Has become prominent.

焦点検出時には本体100が記憶している情報を用いてA像信号とB像信号にシェーディング補正を行ってから相間演算を行なうのが一般的である。しかしながら、元の像信号のレベル差が大きいとシェーディング補正誤差も大きくなりがちである。また、元の信号レベルが本来想定したレベルより低いと、シェーディング補正による信号増幅比も大きくなり、その結果ノイズ等を増幅して焦点検出誤差が増加してしまう。 At the time of focus detection, it is common to perform shading correction on the A image signal and the B image signal using the information stored in the main body 100, and then perform the interphase calculation. However, if the level difference of the original image signal is large, the shading correction error tends to be large. Further, if the original signal level is lower than the originally assumed level, the signal amplification ratio by shading correction also becomes large, and as a result, noise and the like are amplified and the focus detection error increases.

すなわち、図5(a)と(b)のシェーディング特性を比較すると、同図(a)の方がA像信号とB像信号のレベル差が少なく、焦点検出精度が良いと判断できる。よって、2つの撮像素子101、102のいずれからも位相差方式の焦点検出用信号を生成可能な場合、レンズ瞳距離とセンサ瞳距離の乖離が少なく、A像信号とB像信号のシェーディング特性が一致している方の撮像素子の焦点検出結果を優先的に使用する。 That is, when the shading characteristics of FIGS. 5 (a) and 5 (b) are compared, it can be determined that the figure (a) has a smaller level difference between the A image signal and the B image signal and has better focus detection accuracy. Therefore, when the phase difference type focus detection signal can be generated from either of the two image pickup elements 101 and 102, the discrepancy between the lens pupil distance and the sensor pupil distance is small, and the shading characteristics of the A image signal and the B image signal are good. The focus detection result of the matching image sensor is preferentially used.

シェーディング特性の一致度は、以下のように定義して判断する。撮像面の端部に近い所定像高において、A像信号とB像信号のうちの大きな方をMax(A,B)、小さな方をMin(A,B)、両者の比をシェーディング比SHとし、次式
SH=Max(A,B)/Min(A,B) (式14)
で定義する。シェーディング比SHが1に近いほどシェーディング特性が一致している。
The degree of matching of shading characteristics is defined and judged as follows. At a predetermined image height near the edge of the imaging surface, the larger one of the A image signal and the B image signal is Max (A, B), the smaller one is Min (A, B), and the ratio of both is the shading ratio SH. , The following equation SH = Max (A, B) / Min (A, B) (Equation 14)
Defined in. The closer the shading ratio SH is to 1, the more the shading characteristics match.

図5(c)は2つの撮像素子101、102におけるシェーディング比SHがレンズ瞳距離に対してどのように変化するのかを示した図である。横軸は撮像レンズのレンズ瞳距離PL、縦軸はシェーディング比SHである。本実施形態の撮像レンズ500はズームやフォーカスの状態変化により、レンズ瞳距離がPLminからPLmaxまで変化する。SH1(F2)およびSH1(F5.6)は、絞り503が開放(F2)およびF5.6である場合の第1の撮像素子101のシェーディング比である。レンズ瞳距離PLが撮像素子101のセンサ瞳距離PS1に一致すると、A像信号とB像信号のシェーディング波形は等しく、シェーディング比SH1は極小値の1となる。そして、レンズ瞳距離PLがセンサ瞳距離PS1からずれるに従って、シェーディング比SH1は増加し、小絞りに(Fナンバが大きく)なるほどシェーディング比の増加が著しい。 FIG. 5C is a diagram showing how the shading ratio SH of the two image pickup devices 101 and 102 changes with respect to the lens pupil distance. The horizontal axis is the lens pupil distance PL of the image pickup lens, and the vertical axis is the shading ratio SH. In the image pickup lens 500 of the present embodiment, the lens pupil distance changes from PLmin to PLmax due to changes in the zoom and focus states. SH1 (F2) and SH1 (F5.6) are shading ratios of the first image sensor 101 when the aperture 503 is open (F2) and F5.6. When the lens pupil distance PL matches the sensor pupil distance PS1 of the image sensor 101, the shading waveforms of the A image signal and the B image signal are equal, and the shading ratio SH1 becomes 1 which is the minimum value. Then, as the lens pupil distance PL deviates from the sensor pupil distance PS1, the shading ratio SH1 increases, and the smaller the aperture (the larger the F-number), the more remarkable the increase in the shading ratio.

SH2(F2)およびSH2(F5.6)は、撮像レンズ500の絞り503が開放およびF5.6の際の第2の撮像素子102のシェーディング比である。レンズ瞳距離PLが撮像素子102のセンサ瞳距離PS2に一致すると、A像信号とB像信号のシェーディング波形は等しく、シェーディング比SH1は極小値の1となる。そして、レンズ瞳距離PLがセンサ瞳距離PS2からずれるに従って、シェーディング比SH2は増加し、小絞りに(Fナンバが大きく)なるほどシェーディング比の増加が著しい。 SH2 (F2) and SH2 (F5.6) are shading ratios of the second image sensor 102 when the aperture 503 of the image pickup lens 500 is open and F5.6. When the lens pupil distance PL matches the sensor pupil distance PS2 of the image sensor 102, the shading waveforms of the A image signal and the B image signal are equal, and the shading ratio SH1 becomes 1 which is the minimum value. Then, as the lens pupil distance PL deviates from the sensor pupil distance PS2, the shading ratio SH2 increases, and the smaller the aperture (the larger the F-number), the more remarkable the increase in the shading ratio.

PSmidはシェーディング比SH1とSH2の大小関係が反転するレンズ瞳距離であり、これを境界瞳距離と呼ぶ。シェーディング比SHが小さいほど、A像信号とB像信号のレベル差が少ないため、焦点検出の際にはシェーディング比SHが小さい方の撮像素子を用いるのが好ましい。よって、焦点検出時のレンズ瞳距離PLが境界瞳距離PSmidより小さい時は、第1の撮像素子101の焦点検出結果を優先し、レンズ瞳距離PLが境界瞳距離PSmidより大きい時は、第2の撮像素子102の焦点検出結果を優先するのが好ましい。 PSmid is a lens pupil distance in which the magnitude relationship between the shading ratios SH1 and SH2 is reversed, and this is called a boundary pupil distance. The smaller the shading ratio SH, the smaller the level difference between the A image signal and the B image signal. Therefore, it is preferable to use the image sensor having the smaller shading ratio SH when detecting the focus. Therefore, when the lens pupil distance PL at the time of focus detection is smaller than the boundary pupil distance PSmid, the focus detection result of the first image sensor 101 is prioritized, and when the lens pupil distance PL is larger than the boundary pupil distance PSmid, the second It is preferable to give priority to the focus detection result of the image pickup device 102.

<焦点検出用信号の波形例>
図6(a),(b)は、焦点検出領域内の被写体に合焦するフォーカスレンズ位置を検出する場合の焦点検出用信号(A像およびB像信号)の波形例で、図6(a)はシェーディング補正前、図6(b)はシェーディング補正後の波形である。両図共に、横軸は撮像面のx座標、縦軸は焦点検出用信号の出力強度で、Sa、Sbは第1の撮像素子101もしくは第2の撮像素子102から得られるA像信号およびB像信号である。
<Waveform example of focus detection signal>
6 (a) and 6 (b) are waveform examples of focus detection signals (A image and B image signal) when detecting the focus lens position in focus on the subject in the focus detection region, and FIGS. 6 (a) and 6 (a) are. ) Is the waveform before shading correction, and FIG. 6B is the waveform after shading correction. In both figures, the horizontal axis is the x-coordinate of the image pickup surface, the vertical axis is the output intensity of the focus detection signal, and Sa and Sb are the A image signal and B obtained from the first image sensor 101 or the second image sensor 102. It is an image signal.

シェーディング補正前(図6(a))は、A像信号とB像信号とにはレベル差が存在する。すなわちB像信号Sbに対してA像信号Saは平均値が高く、かつ、像高xの増加に応じてレベル差が拡大している。一方、シェーディング補正後(図6(b))は、A像信号SaとB像信号Sbのレベルが揃っている。A像およびB像信号の位相差φを得るための相関演算は、シェーディング補正後のA像およびB像信号を対象として実行する。 Before shading correction (FIG. 6A), there is a level difference between the A image signal and the B image signal. That is, the average value of the A image signal Sa is higher than that of the B image signal Sb, and the level difference increases as the image height x increases. On the other hand, after shading correction (FIG. 6B), the levels of the A image signal Sa and the B image signal Sb are the same. The correlation calculation for obtaining the phase difference φ of the A image and the B image signal is executed for the A image and the B image signal after shading correction.

相間演算式には種々のものが提案されているが、例えば以下の式15が用いられる。
C(φ)=Σ|A(i)-B(i)| (式15)
A(i)およびB(i)は所定の焦点検出領域から出力されたA像信号とB像信号で、iはx軸方向の画素番号を表わす。例えば焦点検出領域のx軸方向に存在する焦点検出用画素の数が100画素であれば、iは1から100の値を取る。従って、式15の右辺は、焦点検出領域内のA像信号とB像信号の差の絶対値を積算したものになる。C(φ)は相関値で、φは上記積算演算を行なう際のA像信号とB像信号の相対的なずらし量である。すなわち、相間演算はA像信号とB像信号を相対的にずらしながら式15を計算し、相関値C(φ)が極小値を取る時のφをA像信号とB像信号の位相差とみなす。
Various interphase arithmetic expressions have been proposed, and for example, the following expression 15 is used.
C (φ) = Σ | A (i) -B (i) | (Equation 15)
A (i) and B (i) are A image signals and B image signals output from a predetermined focus detection region, and i represents a pixel number in the x-axis direction. For example, if the number of focus detection pixels existing in the x-axis direction of the focus detection region is 100, i takes a value from 1 to 100. Therefore, the right side of the equation 15 is the sum of the absolute values of the differences between the A image signal and the B image signal in the focus detection region. C (φ) is a correlation value, and φ is a relative shift amount between the A image signal and the B image signal when the above integration calculation is performed. That is, in the interphase calculation, Equation 15 is calculated while relatively shifting the A image signal and the B image signal, and φ when the correlation value C (φ) takes a minimum value is the phase difference between the A image signal and the B image signal. I reckon.

<一対2像の位相差と相関値の関係>
図6(c)は一対2像の位相差と相関値の関係を説明する図である。横軸はA像信号とB像信号の相対的なずらし量、縦軸は式15の相関値C(φ)である。C1は第1の撮像素子101の焦点検出用信号の相関値で、ずらし量φ1において、相関値は極小値C1minを示す。C2は第2の撮像素子102の焦点検出用信号の相関値で、ずらし量φ2において、相関値は極小値C2minを示す。本実施形態においては、レンズ瞳距離とセンサ瞳距離の一致度は第1の撮像素子101の方がよいため、第1の撮像素子101から得られる焦点検出用信号の方が、信頼性が高い場合が多い。よって、相関値C(φ)の極小値も第1の撮像素子101による値の方が小さく、得られた位相差も、φ2よりもφ1の方が、信頼性が高いと推定される。
<Relationship between phase difference and correlation value of one-to-two images>
FIG. 6C is a diagram illustrating the relationship between the phase difference of the one-to-two image and the correlation value. The horizontal axis is the relative shift amount between the A image signal and the B image signal, and the vertical axis is the correlation value C (φ) of the equation 15. C1 is a correlation value of the focus detection signal of the first image sensor 101, and the correlation value shows a minimum value C1min in the shift amount φ1. C2 is a correlation value of the focus detection signal of the second image sensor 102, and the correlation value shows a minimum value C2min in the shift amount φ2. In the present embodiment, the degree of coincidence between the lens pupil distance and the sensor pupil distance is better in the first image sensor 101, so that the focus detection signal obtained from the first image sensor 101 is more reliable. In many cases. Therefore, it is estimated that the minimum value of the correlation value C (φ) is smaller than that of the first image sensor 101, and the obtained phase difference is more reliable in φ1 than in φ2.

次いで、式15で得られた位相差φをデフォーカス量DEFに変換する。ここで、位相差φとデフォーカス量DEFは次式の関係にある。
φ=DEF×α (式16)
DEF=φ/α=φ×K (式17)
αは一対の焦点検出光束の基線角度で、図3(a)のα11やα12、あるいは同図(b)のα21やα22である。ただし、図3に示した基線角度は撮像素子単体における値であるが、焦点検出光束は撮像レンズの射出瞳によってけられが生ずるため、式16や式17の基線角度αは撮像レンズの光学状態、すなわち撮像レンズのFナンバやレンズ瞳距離によっても変化する。従って、デフォーカス量DEFを算出するためには基線角度αに関する情報が必要となるが、この情報については後述する。
Next, the phase difference φ obtained by the equation 15 is converted into the defocus amount DEF. Here, the phase difference φ and the defocus amount DEF have the following relationship.
φ = DEF × α (Equation 16)
DEF = φ / α = φ × K (Equation 17)
α is the baseline angle of the pair of focal detection light fluxes, and is α11 or α12 in FIG. 3A, or α21 or α22 in FIG. 3B. However, although the baseline angle shown in FIG. 3 is a value for the image sensor alone, the focal detection light beam is eclipsed by the exit pupil of the image pickup lens, so that the baseline angle α in equations 16 and 17 is the optical state of the image pickup lens. That is, it also changes depending on the F-number of the image pickup lens and the pupil distance of the lens. Therefore, in order to calculate the defocus amount DEF, information on the baseline angle α is required, and this information will be described later.

カメラCPU104は式17を用いて位相差φをデフォーカス量DEFに変換し、さらにデフォーカス量DEFをフォーカスレンズ503の駆動量および駆動方向に変換して撮像レンズのレンズCPU507に送信する。レンズCPU507は受信したレンズ駆動量および駆動方向に基づいてフォーカス駆動部504を駆動する。このようにして、撮像レンズ500を焦点検出領域内の被写体に合焦させることができる。 The camera CPU 104 uses Equation 17 to convert the phase difference φ into a defocus amount DEF, further converts the defocus amount DEF into the drive amount and drive direction of the focus lens 503, and transmits the defocus amount DEF to the lens CPU 507 of the image pickup lens. The lens CPU 507 drives the focus drive unit 504 based on the received lens drive amount and drive direction. In this way, the image pickup lens 500 can be focused on the subject in the focus detection region.

<シェーディング補正情報>
図7(a),(b)は本体100がROM115に予め記憶しているシェーディング補正情報の例を示す。シェーディング補正情報は例えばルックアップテーブルの型式で、撮像素子ごとに記憶されている。図7(a)は第1の撮像素子101用の情報、図7(b)は第2の撮像素子102用の情報である。
<Shading correction information>
7 (a) and 7 (b) show an example of shading correction information stored in advance in the ROM 115 by the main body 100. The shading correction information is, for example, a look-up table type and is stored for each image sensor. 7 (a) is information for the first image sensor 101, and FIG. 7 (b) is information for the second image sensor 102.

図7(a)において、ルックアップテーブルの列方向(横方向)には、撮像レンズ500のFナンバが、F1.4からF16まで1段絞りごとに8種の値として割り当てられる。行方向(縦方向)には撮像レンズ500のレンズ瞳距離が、離散的な複数の焦点距離について、最小値のレンズ瞳距離1(例えば50mm)から最大値のレンズ瞳距離8(例えば200mm)まで、等差数列もしくは等比数列として割り当てられる。そして各Fナンバとレンズ瞳距離に対応する箇所には、撮像素子101に対応するシェーディング補正情報Fs111からFs188が格納されている。ここで、Fs111ないしFs188は単一の定数ではなく、所定の関数を定義するための複数の係数で構成される。 In FIG. 7A, in the column direction (horizontal direction) of the look-up table, the F number of the image pickup lens 500 is assigned as eight kinds of values for each stop stop from F1.4 to F16. In the row direction (longitudinal direction), the lens pupil distance of the image pickup lens 500 ranges from the minimum value lens pupil distance 1 (for example, 50 mm) to the maximum value lens pupil distance 8 (for example, 200 mm) for a plurality of discrete focal lengths. , Arithmetic progression or geometric progression. The shading correction information Fs111 to Fs188 corresponding to the image sensor 101 are stored in the locations corresponding to each F number and the lens pupil distance. Here, Fs111 to Fs188 are not a single constant, but are composed of a plurality of coefficients for defining a predetermined function.

焦点検出用信号に生ずるシェーディングは、図5(a),(b)で説明したように、撮像面上の像高に応じて連続的に変化する。そこで、シェーディング補正関数を、像高xおよび像高yを変数とする多項式関数で定義し、図5(a),(b)のシェーディング波形をシェーディング補正関数で近似した時の各次数における係数をシェーディング補正情報として記憶すればよい。図7(b)は第2の撮像素子102用のシェーディング補正情報であり、その構成と補正情報が示す内容は第1の撮像素子101用のシェーディング補正情報と同様であるため、説明は省略する。 As described in FIGS. 5A and 5B, the shading generated in the focus detection signal continuously changes according to the image height on the image pickup surface. Therefore, the shading correction function is defined by a polynomial function with the image height x and the image height y as variables, and the coefficients at each order when the shading waveforms of FIGS. 5A and 5B are approximated by the shading correction function are obtained. It may be stored as shading correction information. FIG. 7B is shading correction information for the second image sensor 102, and the configuration and the content indicated by the correction information are the same as the shading correction information for the first image sensor 101, and thus the description thereof will be omitted. ..

<位相差φをデフォーカス量に変換するための変換情報>
図7(c)、(d)は、図6(b)に示した2像の位相差φをデフォーカス量DEFに変換するための変換情報で、式17のKに相当し、シェーディング補正情報と同様のルックアップテーブルとしてROM115に予め記憶されている。図7(c)は第1の撮像素子101用の変換情報、図7(d)は第2の撮像素子102用の変換情報である。
<Conversion information for converting the phase difference φ to the defocus amount>
7 (c) and 7 (d) are conversion information for converting the phase difference φ of the two images shown in FIG. 6 (b) into the defocus amount DEF, which corresponds to K in Equation 17 and shading correction information. It is stored in ROM 115 in advance as a look-up table similar to the above. FIG. 7 (c) is conversion information for the first image sensor 101, and FIG. 7 (d) is conversion information for the second image sensor 102.

図7(c)において、ルックアップテーブルのFナンバとレンズ瞳距離に対応する箇所には、撮像素子101に対応する変換情報Fk111からFk188が格納されている。ここで、Fk111ないしFk188も単一の定数ではなく、所定の関数を定義するための複数の係数で構成される。位相差検出時に撮像面上の各画素が受光する焦点検出光束は、撮像面上のxおよびy座標に応じてけられ状態が変化するため、焦点検出瞳の基線長も像高に応じて連続的に変化する。そこで、光学計算もしくは実測で求めた変換係数分布を像高xおよび像高yを変数とする多項式関数で近似し、近似した関数の各次数における係数を、位相差φをデフォーカス量DEFに変換する係数として記憶すればよい。図7(d)は第2の撮像素子102用の変換情報であり、その構成と補正情報が示す内容は第1の撮像素子101用の変換情報と同様であるため、説明は省略する。 In FIG. 7C, conversion information Fk111 to Fk188 corresponding to the image pickup device 101 is stored in a position corresponding to the F number and the lens pupil distance of the look-up table. Here, Fk111 to Fk188 are not a single constant, but are composed of a plurality of coefficients for defining a predetermined function. Since the focal detection luminous flux received by each pixel on the imaging surface during phase difference detection changes depending on the x and y coordinates on the imaging surface, the baseline length of the focal detection pupil is also continuous according to the image height. Changes to. Therefore, the conversion coefficient distribution obtained by optical calculation or actual measurement is approximated by a polynomial function with image height x and image height y as variables, and the coefficient at each order of the approximated function is converted from the phase difference φ to the defocus amount DEF. It may be stored as a coefficient to be used. FIG. 7D shows conversion information for the second image sensor 102, and since the configuration and the content indicated by the correction information are the same as the conversion information for the first image sensor 101, the description thereof will be omitted.

<撮影処理>
図8は本実施形態のデジタルカメラにおける撮影処理の手順を示すフローチャートである。このフローチャートに示す処理は、例えば、ユーザが操作部105に含まれる電源スイッチをオン操作されたことをカメラCPU104が検出すると開始される。電源スイッチのオン操作を検出するとカメラCPU104は、起動処理として、本体100の各構成要素の動作確認や、RAM114やプログラムの初期化処理などを実行する。
<Shooting process>
FIG. 8 is a flowchart showing a procedure of shooting processing in the digital camera of the present embodiment. The process shown in this flowchart is started, for example, when the camera CPU 104 detects that the user has turned on the power switch included in the operation unit 105. When the on operation of the power switch is detected, the camera CPU 104 executes the operation check of each component of the main body 100, the initialization process of the RAM 114, the program, and the like as the startup process.

起動処理が完了すると、S102でカメラCPU104は、レンズCPU507と通信を行ない、撮像レンズ500の情報を取得する。取得する情報には、開放Fナンバ、焦点距離、射出瞳距離PL、フォーカスレンズ繰り出し量とピント変化量の比例定数であるフォーカス敏感度、などが含まれてよいが、これらに限定されない。 When the activation process is completed, the camera CPU 104 communicates with the lens CPU 507 in S102 to acquire the information of the image pickup lens 500. The information to be acquired may include, but is not limited to, an open F-number, a focal length, an exit pupil distance PL, a focus sensitivity which is a proportional constant between a focus lens extension amount and a focus change amount, and the like.

S103でカメラCPU104は、静止画モードと動画モードのいずれが設定されているかを判別し、静止画モードと判別されればS111へ、動画モードと判定されればS131へ、処理を進める。 In S103, the camera CPU 104 determines which of the still image mode and the moving image mode is set, and proceeds to S111 if it is determined to be the still image mode and to S131 if it is determined to be the moving image mode.

S111でカメラCPU104は、表示部110を電子ビューファインダーとして機能させるためにリアルタイム表示するライブビュー画像を生成するため、撮像素子101で動画撮影を開始する。また、カメラCPU104は、第2の読み出しモードで撮像素子101から画像信号を読み出す。なお、焦点検出用信号を生成する場合には、焦点検出領域内の画素は間引きせずに読み出してもよい。 In S111, the camera CPU 104 starts moving image shooting with the image pickup element 101 in order to generate a live view image to be displayed in real time in order to make the display unit 110 function as an electronic viewfinder. Further, the camera CPU 104 reads an image signal from the image sensor 101 in the second read mode. When generating the focus detection signal, the pixels in the focus detection region may be read out without thinning out.

S112でカメラCPU104は、S111で読み出した画像信号(動画像の1フレーム)の明るさに応じて、ライブビュー表示用の動作撮影時の絞り制御を行う。カメラCPU104は、画像信号の明るさを例えばフレーム全体もしくは焦点検出領域の平均輝度値に基づいて判定することができる。 In S112, the camera CPU 104 controls the aperture during operation shooting for live view display according to the brightness of the image signal (one frame of the moving image) read in S111. The camera CPU 104 can determine the brightness of the image signal based on, for example, the average luminance value of the entire frame or the focus detection region.

S111~S115は、静止画モードにおけるライブビュー表示用の動画撮影および焦点検出に関する動作を行うステップである。静止画撮影において、ライブビュー表示用の動画撮影時の絞り値と、記録用の静止画撮影時の絞り値とが異なっても大きな支障は無い。一方、記録用に撮影される静止画は一般に解像度が高いため、合焦誤差の許容値は小さい。そのため、S112でカメラCPU104は、撮像レンズ500の絞り503のFナンバを小さく(開口径が大きく)することを優先して絞り制御を行なう。 S111 to S115 are steps for performing an operation related to moving image shooting and focus detection for live view display in the still image mode. In still image shooting, there is no major problem even if the aperture value at the time of moving image shooting for live view display and the aperture value at the time of shooting still image for recording are different. On the other hand, since the still image taken for recording generally has a high resolution, the allowable value of the focusing error is small. Therefore, in S112, the camera CPU 104 performs aperture control with priority given to reducing the F-number (large aperture diameter) of the aperture 503 of the image pickup lens 500.

絞り503のFナンバを小さくすると露出オーバーとなる場合、カメラCPU104は、撮像素子101の信号を増幅するアンプのゲインを低くしたり、動作撮影時の露光時間(電子シャッタスピード)を短くしたりして、撮像画像が適正露出となるようにする。 When the F number of the aperture 503 is reduced to cause overexposure, the camera CPU 104 lowers the gain of the amplifier that amplifies the signal of the image sensor 101, or shortens the exposure time (electronic shutter speed) during operation shooting. To ensure that the captured image has an appropriate exposure.

S113でカメラCPU104は、撮像素子101から読み出した画像信号から表示用画像を生成する。そして、カメラCPU104は、表示用画像を表示用信号に変換し、ファインダ内表示部107もしくは表示部110に表示させる。これにより、ファインダ内表示部107または表示部110へのライブビュー表示が開始する。 In S113, the camera CPU 104 generates a display image from the image signal read from the image sensor 101. Then, the camera CPU 104 converts the display image into a display signal and displays it on the display unit 107 or the display unit 110 in the finder. As a result, the live view display on the display unit 107 or the display unit 110 in the finder starts.

S114でカメラCPU104は、静止画撮影に適した焦点検出1のサブルーチンを実行する。サブルーチンの詳細は図9(a)で説明する。
S115でカメラCPU104は、S114の焦点検出処理で得られたフォーカスレンズ駆動量および駆動方向を、通信端子113、508を介してレンズCPU507に送信する。レンズCPU507は受信した駆動量および駆動方向に従ってフォーカス駆動部504を駆動する。
In S114, the camera CPU 104 executes a subroutine of focus detection 1 suitable for still image shooting. The details of the subroutine will be described with reference to FIG. 9A.
In S115, the camera CPU 104 transmits the focus lens drive amount and drive direction obtained in the focus detection process of S114 to the lens CPU 507 via the communication terminals 113 and 508. The lens CPU 507 drives the focus drive unit 504 according to the received drive amount and drive direction.

S116でカメラCPU104は、操作部105のシャッタースイッチの操作など、静止画撮影の開始指示が入力されたか否か判定し、入力されたと判定されればS121へ処理を進める。一方、静止画撮影の開始指示が入力されたと判定されなければ、カメラCPU104は、処理をS111に戻して、次フレームについての処理を実行する。 In S116, the camera CPU 104 determines whether or not a still image shooting start instruction such as an operation of the shutter switch of the operation unit 105 has been input, and if it is determined that the input has been input, the process proceeds to S121. On the other hand, if it is not determined that the still image shooting start instruction has been input, the camera CPU 104 returns the process to S111 and executes the process for the next frame.

S121でカメラCPU104は、静止画撮影1のサブルーチンを実行する。サブルーチンの詳細は図9(b)で説明する。
S122でカメラCPU104は、S121で取得した画像信号から記録用の静止画像データを生成する。そして、カメラCPU104は、記録用の静止画像データを予め定められた型式のデータファイルに格納して、記録媒体106に記録する。
In S121, the camera CPU 104 executes the subroutine of still image shooting 1. The details of the subroutine will be described with reference to FIG. 9 (b).
In S122, the camera CPU 104 generates still image data for recording from the image signal acquired in S121. Then, the camera CPU 104 stores the still image data for recording in a data file of a predetermined type and records it on the recording medium 106.

なお、上述したように、本実施形態では撮像素子101の各画素から光電変換部ごとには画像信号を読み出す。そのため、表示用画像や記録用画像を生成するには、まず、画素ごとに、2つの光電変換部から読み出した画像信号を加算する必要がある。加算はカメラCPU104が実行しても、他の回路が実行してもよい。 As described above, in the present embodiment, an image signal is read out from each pixel of the image sensor 101 for each photoelectric conversion unit. Therefore, in order to generate a display image or a recording image, it is first necessary to add the image signals read from the two photoelectric conversion units for each pixel. The addition may be performed by the camera CPU 104 or by another circuit.

カメラCPU104は、加算処理によって画素ごとに1つの信号となった画像信号に対してA/D変換、ホワイトバランス調整、色補間、ガンマ補正、収差補正、信号型式の変換、符号化などの処理を適用して、表示用または記録用の画像信号データを生成する。 The camera CPU 104 performs processing such as A / D conversion, white balance adjustment, color interpolation, gamma correction, aberration correction, signal type conversion, and coding for an image signal that has become one signal for each pixel by addition processing. Apply to generate image signal data for display or recording.

本実施形態においてカメラCPU104は、光電変換部101a、101bごとに読み出した画像信号についても、記録媒体106に記録する。
なお、画像信号から表示用または記録用の画像データを生成する処理は、専用の回路を設けて行っても良い。
そしてカメラCPU104は、静止画撮影処理を終了する。
In the present embodiment, the camera CPU 104 also records the image signals read out for each of the photoelectric conversion units 101a and 101b on the recording medium 106.
The process of generating image data for display or recording from the image signal may be performed by providing a dedicated circuit.
Then, the camera CPU 104 ends the still image shooting process.

次いで、動画撮影時の動作について説明する。
S131でカメラCPU104は、表示部110(またはファインダ内表示部107)を電子ビューファインダーとして機能させるためにリアルタイム表示するライブビュー画像を生成するため、撮像素子102で動画撮影を開始する。また、カメラCPU104は、第2の読み出しモードで撮像素子102から画像信号を読み出す。なお、焦点検出用信号を生成する場合には、焦点検出領域内の画素は間引きせずに読み出してもよい。
Next, the operation at the time of moving image shooting will be described.
In S131, the camera CPU 104 starts shooting a moving image with the image sensor 102 in order to generate a live view image to be displayed in real time in order to make the display unit 110 (or the display unit 107 in the finder) function as an electronic viewfinder. Further, the camera CPU 104 reads an image signal from the image sensor 102 in the second read mode. When generating the focus detection signal, the pixels in the focus detection region may be read out without thinning out.

S132でカメラCPU104は、S131で読み出した画像信号(動画像の1フレーム)の明るさに応じて、ライブビュー表示用の動作撮影時の絞り制御を行う。カメラCPU104は、画像信号の明るさを例えばフレーム全体もしくは焦点検出領域の平均輝度値に基づいて判定することができる。 In S132, the camera CPU 104 controls the aperture during operation shooting for live view display according to the brightness of the image signal (one frame of the moving image) read in S131. The camera CPU 104 can determine the brightness of the image signal based on, for example, the average luminance value of the entire frame or the focus detection region.

動画モードにおいては、ライブビュー表示用の動画撮影と、記録用の動画撮影とで同じ絞り値を用いるため、S132でカメラCPU104は動画撮影に適した絞り値を選択する。動画撮影時に電子シャッタースピード(露光時間)を短くし過ぎると、ストップモーションの静止画が高速でコマ送りされるような不自然な動画となる。よって、カメラCPU104は、このような現象を回避するように予め定められた電子シャッタースピードをまず選択する。その上でカメラCPU104は、適正露出の動画フレームが撮影できるように、絞り値(Fナンバ)や撮像信号の増幅ゲインを制御する。カメラCPU104は、決定したFナンバを通信端子113および508を介してレンズCPU507に送信する。レンズCPU507は絞り駆動部506を制御し、絞り503の開口径を指定されたFナンバに対応した大きさにする。 In the moving image mode, the same aperture value is used for the moving image shooting for live view display and the moving image shooting for recording. Therefore, in S132, the camera CPU 104 selects an aperture value suitable for moving image shooting. If the electronic shutter speed (exposure time) is set too short during movie shooting, the still image in stop motion will be frame-by-frame at high speed, resulting in an unnatural movie. Therefore, the camera CPU 104 first selects a predetermined electronic shutter speed so as to avoid such a phenomenon. Then, the camera CPU 104 controls the aperture value (F number) and the amplification gain of the image pickup signal so that a moving image frame having an appropriate exposure can be photographed. The camera CPU 104 transmits the determined F-number to the lens CPU 507 via the communication terminals 113 and 508. The lens CPU 507 controls the aperture drive unit 506, and makes the aperture diameter of the aperture 503 a size corresponding to the designated F-number.

S133でカメラCPU104は、撮像素子102から読み出した画像信号表示用画像を生成する。そして、カメラCPU104は、表示用画像を表示用信号に変換し、ファインダ内表示部107もしくは表示部110に表示させる。これにより、ファインダ内表示部107または表示部110へのライブビュー表示が開始する。 In S133, the camera CPU 104 generates an image for displaying an image signal read from the image sensor 102. Then, the camera CPU 104 converts the display image into a display signal and displays it on the display unit 107 or the display unit 110 in the finder. As a result, the live view display on the display unit 107 or the display unit 110 in the finder starts.

S134でカメラCPU104は、動画撮影に適した焦点検出2のサブルーチンを実行する。サブルーチンの詳細は図10(a)で説明する。
S135でカメラCPU104は、S134の焦点検出処理で得られたフォーカスレンズ駆動量および駆動方向を、通信端子113、508を介してレンズCPU507に送信する。レンズCPU507は受信した駆動量および駆動方向に従ってフォーカス駆動部504を駆動する。
In S134, the camera CPU 104 executes a subroutine of focus detection 2 suitable for moving image shooting. The details of the subroutine will be described with reference to FIG. 10 (a).
In S135, the camera CPU 104 transmits the focus lens drive amount and drive direction obtained in the focus detection process of S134 to the lens CPU 507 via the communication terminals 113 and 508. The lens CPU 507 drives the focus drive unit 504 according to the received drive amount and drive direction.

S141でカメラCPU104は、操作部105の動作撮影ボタンの操作など、記録用の動画撮影の開始指示が入力されたか否か判定し、入力されたと判定されればS142へ処理を進める。一方、記録用の動画撮影の開始指示が入力されたと判定されなければ、カメラCPU104は、処理をS143に進める。 In S141, the camera CPU 104 determines whether or not an instruction to start video recording for recording, such as an operation of the operation shooting button of the operation unit 105, has been input, and if it is determined that the input has been input, the process proceeds to S142. On the other hand, if it is not determined that the instruction to start the moving image recording for recording has been input, the camera CPU 104 advances the process to S143.

S142ではカメラCPU104は、記録用の動画データ(1フレーム分)を生成し、記録媒体106に記録する。なお、S131で読み出した動画フレームの解像度が記録用動画像の解像度未満の場合、カメラCPU104はS142で記録用の動画撮影を改めて実行してもよい。S131で読み出した動画フレームの解像度が記録用動画像の解像度以上であれば、カメラCPU104は、S131で読み出され、RAM115に一時的に記憶されている画像信号から記録用の動画データを生成することができる。記録用の動画データは、記録時の符号化処理が異なる他は静止画に対する処理と同様であってよい。 In S142, the camera CPU 104 generates moving image data (for one frame) for recording and records it on the recording medium 106. If the resolution of the moving image frame read out in S131 is less than the resolution of the moving image for recording, the camera CPU 104 may re-execute the moving image shooting for recording in S142. If the resolution of the moving image frame read by S131 is equal to or higher than the resolution of the moving image for recording, the camera CPU 104 generates moving image data for recording from the image signal read by S131 and temporarily stored in the RAM 115. be able to. The moving image data for recording may be the same as the processing for a still image except that the coding processing at the time of recording is different.

S143でカメラCPU104は、操作部105のシャッタースイッチの操作など、静止画撮影の開始指示が入力されたか否か判定し、入力されたと判定されればS144へ処理を進める。一方、静止画撮影の開始指示が入力されたと判定されなければ、カメラCPU104は、処理をS146に進める。本実施形態では、動画モードでライブビュー表示中もしくは動画記録中に静止画撮影が指示されると、撮像素子101による静止画の記録を可能としている。 In S143, the camera CPU 104 determines whether or not a still image shooting start instruction such as an operation of the shutter switch of the operation unit 105 has been input, and if it is determined that the input has been input, the process proceeds to S144. On the other hand, if it is not determined that the still image shooting start instruction has been input, the camera CPU 104 advances the process to S146. In the present embodiment, when a still image shooting is instructed during the live view display or the moving image recording in the moving image mode, the still image can be recorded by the image sensor 101.

S144でカメラCPU104は、静止画撮影2のサブルーチンを実行する。サブルーチンは、S121の静止画撮影1のサブルーチンとは異なり、動画モードが選択された状態で、動画撮影と並行した静止画撮影用のサブルーチンである。詳細は図10(b)で説明する。 In S144, the camera CPU 104 executes the subroutine of still image shooting 2. The subroutine is different from the subroutine of still image shooting 1 in S121, and is a subroutine for still image shooting in parallel with moving image shooting in a state where the moving image mode is selected. Details will be described with reference to FIG. 10 (b).

S145でカメラCPU104は、S144で取得した画像信号から記録用の静止画像データを生成する。そして、カメラCPU104は、記録用の静止画像データを予め定められた型式のデータファイルに格納して、記録媒体106に記録する。ここでもカメラCPU104は、光電変換部101a、101bごとに読み出した画像信号を記録媒体106に記録する。S145における具体的な処理内容は先に説明したS122と同様である。 In S145, the camera CPU 104 generates still image data for recording from the image signal acquired in S144. Then, the camera CPU 104 stores the still image data for recording in a data file of a predetermined type and records it on the recording medium 106. Here, too, the camera CPU 104 records the image signals read out for each of the photoelectric conversion units 101a and 101b on the recording medium 106. The specific processing content in S145 is the same as that of S122 described above.

S146でカメラCPU104は、操作部105の動作撮影ボタンの操作など、記録用動画撮影の終了指示が入力されたか否かを判断する。終了指示が入力されたと判定されなければカメラCPU104はS131からS145のステップを繰り返し実行する。一方、終了指示が入力されたと判定されればカメラCPU104は動画撮影を終了する。 In S146, the camera CPU 104 determines whether or not an instruction to end recording moving image shooting, such as an operation of the operation shooting button of the operation unit 105, has been input. If it is not determined that the end instruction has been input, the camera CPU 104 repeatedly executes the steps S131 to S145. On the other hand, if it is determined that the end instruction has been input, the camera CPU 104 ends the moving image shooting.

なお、ここでは便宜上、静止画および動画とも記録が終了すると撮影処理を終了するものとして説明したが、S122およびS146(YES)からS103に戻って次の撮影開始指示を待機してもよい。 Although it has been described here that the shooting process is terminated when the recording of both the still image and the moving image is completed, the shooting process may be terminated from S122 and S146 (YES) to S103 and wait for the next shooting start instruction.

<焦点検出1>
図9(a)は図8のS114で実行する「焦点検出1」の詳細を示すフローチャートである。
S151でカメラCPU104は、レンズCPU507から取得した撮像レンズ500のレンズ瞳距離PLが、図5(c)で説明した境界瞳距離PSmidより小さいか否かを判定する。そして、カメラCPU104は、レンズ瞳距離PLが境界瞳距離PSmidよりも小さいと判定されればS152へ、判定されなければS153へ、処理を進める。
<Focus detection 1>
FIG. 9A is a flowchart showing the details of “focus detection 1” executed in S114 of FIG.
In S151, the camera CPU 104 determines whether or not the lens pupil distance PL of the image pickup lens 500 acquired from the lens CPU 507 is smaller than the boundary pupil distance PSmid described with reference to FIG. 5 (c). Then, the camera CPU 104 proceeds to S152 if it is determined that the lens pupil distance PL is smaller than the boundary pupil distance PSmid, and to S153 if it is not determined.

S152でカメラCPU104は、静止画撮影用の撮像素子101を用いた焦点検出を実行する。具体的には、カメラCPU104は、撮像素子101の焦点検出領域内の画素から読み出した画像信号から一対の焦点検出用信号(A像信号とB像信号)を生成する。そして、カメラCPU104は、ROM115内のルックアップデーブル(図7(a))から、現在の絞り503のFナンバとレンズ瞳距離PLの組み合わせに対応するシェーディング補正情報を読み出し、A像信号とB像信号にシェーディング補正を適用する。 In S152, the camera CPU 104 executes focus detection using the image sensor 101 for still image shooting. Specifically, the camera CPU 104 generates a pair of focus detection signals (A image signal and B image signal) from the image signals read from the pixels in the focus detection region of the image sensor 101. Then, the camera CPU 104 reads out the shading correction information corresponding to the combination of the F number of the current aperture 503 and the lens pupil distance PL from the lookup table (FIG. 7A) in the ROM 115, and reads the A image signal and the B image. Apply shading correction to the signal.

次にカメラCPU104は、式15に示した相間演算により、シェーディング補正後のA像信号とB像信号の位相差φ1を計算する。そして、カメラCPU104は、Fナンバとレンズ瞳距離PLの組み合わせに対応する変換情報を図7(c)に示したルックアップテーブルから取得し、式17を用いてデフォーカス量DEF1を算出する。 Next, the camera CPU 104 calculates the phase difference φ1 between the A image signal and the B image signal after shading correction by the interphase calculation shown in Equation 15. Then, the camera CPU 104 acquires the conversion information corresponding to the combination of the F number and the lens pupil distance PL from the look-up table shown in FIG. 7 (c), and calculates the defocus amount DEF 1 using the equation 17.

S155でカメラCPU104は、デフォーカス量DEF1をフォーカスレンズ駆動量および駆動方向に変換して焦点検出1を終了する。 In S155, the camera CPU 104 converts the defocus amount DEF1 into the focus lens drive amount and the drive direction, and ends the focus detection 1.

一方、S151において現在のレンズ瞳距離PLが境界瞳距離PSmidより小さくない(PL≧PSmid)と判定された場合、カメラCPU104は、S153に処理を進める。
S153でカメラCPU104は、撮像素子102の駆動を開始し、処理をS154に進める。
S154でカメラCPU104は、S152と同様にして、撮像素子102で取得した画像信号からデフォーカス量DEF2を算出する。すなわち、カメラCPU104は、撮像素子102で得られた画像信号から一対の焦点検出用信号(A像信号とB像信号)を生成する。そして、カメラCPU104は、現在のFナンバとレンズ瞳距離PLとの組み合わせに対応する、撮像素子102用のシェーディング補正情報(図7(b))を取得し、A像信号とB像信号にシェーディング補正を適用する。
On the other hand, when it is determined in S151 that the current lens pupil distance PL is not smaller than the boundary pupil distance PSmid (PL ≧ PSmid), the camera CPU 104 proceeds to S153.
In S153, the camera CPU 104 starts driving the image pickup device 102 and advances the processing to S154.
In S154, the camera CPU 104 calculates the defocus amount DEF2 from the image signal acquired by the image sensor 102 in the same manner as in S152. That is, the camera CPU 104 generates a pair of focus detection signals (A image signal and B image signal) from the image signal obtained by the image sensor 102. Then, the camera CPU 104 acquires shading correction information (FIG. 7B) for the image pickup device 102 corresponding to the combination of the current F-number and the lens pupil distance PL, and shades the A image signal and the B image signal. Apply the correction.

次にカメラCPU104は、式15に示した相間演算により、シェーディング補正後のA像信号とB像信号の位相差φ2を計算する。そして、カメラCPU104は、Fナンバとレンズ瞳距離PLの組み合わせに対応する変換情報を図7(d)に示したルックアップテーブルから取得し、式17を用いてデフォーカス量DEF2を算出する。
そして、カメラCPU104は、処理をS155に進める。
Next, the camera CPU 104 calculates the phase difference φ2 between the A image signal and the B image signal after shading correction by the interphase calculation shown in Equation 15. Then, the camera CPU 104 acquires the conversion information corresponding to the combination of the F number and the lens pupil distance PL from the look-up table shown in FIG. 7D, and calculates the defocus amount DEF2 using the equation 17.
Then, the camera CPU 104 advances the process to S155.

<静止画撮影1>
図9(b)は、図8のS121で実行する「静止画撮影1」サブルーチンのフローチャートである。
S161でカメラCPU104は、例えば直前に撮影した画像の明るさと予めROM115に記憶されているプログラム線図とに従って決定した静止画撮影用のFナンバを通信端子113、508を介してレンズCPU507に送信する。レンズCPU507は、絞り503の開口が受信したFナンバに対応する大きさになるよう、絞り駆動部506を駆動する。
<Still image shooting 1>
FIG. 9B is a flowchart of the “still image shooting 1” subroutine executed in S121 of FIG.
In S161, the camera CPU 104 transmits, for example, an F number for still image shooting determined according to the brightness of the image shot immediately before and the program diagram stored in advance in the ROM 115 to the lens CPU 507 via the communication terminals 113 and 508. .. The lens CPU 507 drives the aperture drive unit 506 so that the aperture of the aperture 503 has a size corresponding to the received F-number.

S162でカメラCPU104は、ライブビュー撮影のために開放していたシャッタ111を閉鎖させ、撮像素子101を遮光する。
S163でカメラCPU104は、撮像素子101で静止画撮影を行なうための電荷蓄積動作を開始する。
S164でカメラCPU104は、例えばFナンバと一緒に決定した静止画撮影用のシャッタースピードに基づき、シャッタ111の先幕および後幕を駆動し、撮像素子101を露光する。
In S162, the camera CPU 104 closes the shutter 111 that has been opened for live view shooting, and shields the image sensor 101 from light.
In S163, the camera CPU 104 starts a charge storage operation for taking a still image with the image sensor 101.
In S164, the camera CPU 104 drives the front curtain and the rear curtain of the shutter 111 based on the shutter speed for still image shooting determined together with the F number, for example, and exposes the image sensor 101.

シャッタ111の動作が完了すると、S165でカメラCPU104は撮像素子101の蓄積動作を終了し、各画素の光電変換部に蓄積された電荷を、画素内の電荷蓄積部(フローディングディフュージョン)に転送する。以上が、静止画撮影1の処理である。 When the operation of the shutter 111 is completed, the camera CPU 104 ends the storage operation of the image sensor 101 in S165, and transfers the charge stored in the photoelectric conversion unit of each pixel to the charge storage unit (floating diffusion) in the pixel. .. The above is the process of still image shooting 1.

このように、静止画モードで静止画撮影を行なう場合には、(メカニカル)シャッタ111で撮像素子101の露光量を制御し、蓄積電荷の転送時には撮像素子101を遮光する。これによりスミアやブルーミングの発生が回避でき、高画質の静止画を得ることができる。 In this way, when shooting a still image in the still image mode, the exposure amount of the image sensor 101 is controlled by the (mechanical) shutter 111, and the image sensor 101 is shielded from light when the stored charge is transferred. As a result, the occurrence of smear and blooming can be avoided, and a high-quality still image can be obtained.

<焦点検出2>
図10(a)は図8のS134で実行する「焦点検出2」の詳細を示すフローチャートである。
S171でカメラCPU104は、レンズCPU507から取得した撮像レンズ500のレンズ瞳距離PLが、図5(c)で説明した境界瞳距離PSmidより大きいか否かを判定する。そして、カメラCPU104は、レンズ瞳距離PLが境界瞳距離PSmidよりも大きいと判定されればS172へ、判定されなければS173へ、処理を進める。
<Focus detection 2>
FIG. 10A is a flowchart showing the details of “focus detection 2” executed in S134 of FIG.
In S171, the camera CPU 104 determines whether or not the lens pupil distance PL of the image pickup lens 500 acquired from the lens CPU 507 is larger than the boundary pupil distance PSmid described with reference to FIG. 5 (c). Then, the camera CPU 104 proceeds to S172 if it is determined that the lens pupil distance PL is larger than the boundary pupil distance PSmid, and to S173 if it is not determined.

S172でカメラCPU104は、動画撮影を行っている撮像素子102を用いた焦点検出を実行し、デフォーカス量DEF2を算出する。焦点検出時の動作は図9(a)のS154と実質的に同一であるため、説明は省略する。 In S172, the camera CPU 104 executes focus detection using the image sensor 102 that is performing moving image shooting, and calculates the defocus amount DEF2. Since the operation at the time of focus detection is substantially the same as S154 in FIG. 9 (a), the description thereof will be omitted.

S172でデフォーカス量DEF2を算出すると、S175でカメラCPU104はS155と同様にしてデフォーカス量DEF2をフォーカスレンズ駆動量および駆動方向に変換し、焦点検出2を終了する。 When the defocus amount DEF2 is calculated in S172, the camera CPU 104 converts the defocus amount DEF2 into the focus lens drive amount and the drive direction in S175 in the same manner as in S155, and ends the focus detection 2.

一方、S171において現在のレンズ瞳距離PLが境界瞳距離PSmidより大きくない(PL≦PSmid)と判定された場合、カメラCPU104は、S173に処理を進める。
S173でカメラCPU104は、撮像素子101の駆動を開始し、処理をS174に進める。
S174でカメラCPU104は、図9(a)のS152と同様にして、デフォーカス量DEF1を算出する。
そしてS175でカメラCPU104は、S155と同様にしてデフォーカス量DEF1をフォーカスレンズ駆動量および駆動方向に変換し、焦点検出2を終了する。
On the other hand, when it is determined in S171 that the current lens pupil distance PL is not larger than the boundary pupil distance PSmid (PL ≦ PSmid), the camera CPU 104 proceeds to S173.
In S173, the camera CPU 104 starts driving the image pickup device 101 and advances the processing to S174.
In S174, the camera CPU 104 calculates the defocus amount DEF1 in the same manner as in S152 of FIG. 9A.
Then, in S175, the camera CPU 104 converts the defocus amount DEF1 into the focus lens drive amount and the drive direction in the same manner as in S155, and ends the focus detection 2.

<静止画撮影2>
図10(b)は図8のS144で実行する「静止画撮影2」の詳細を示すフローチャートである。動画撮影中、シャッタ111は開放状態であり、かつ撮像レンズ500の絞り503の開口は動画撮影用のFナンバに対応する大きさに制御されている。
したがって、S181でカメラCPU104は、現在のFナンバ、撮像素子101の設定感度、およびプログラム線図に基づいて、撮像素子101で静止画撮影する際の露光時間を決定する。
<Still image shooting 2>
FIG. 10B is a flowchart showing the details of “still image shooting 2” executed in S144 of FIG. During movie shooting, the shutter 111 is in the open state, and the aperture of the aperture 503 of the image pickup lens 500 is controlled to a size corresponding to the F number for movie shooting.
Therefore, in S181, the camera CPU 104 determines the exposure time when taking a still image with the image sensor 101 based on the current F-number, the set sensitivity of the image sensor 101, and the program diagram.

S182でカメラCPU104は、シャッタ111は開放状態のまま、撮像素子101における電荷蓄積を開始する(電子シャッタによる露光開始)。
S183でカメラCPU104は、決定した露光時間が経過すると、電荷蓄積動作を終了させる(電子シャッタによる露光終了)。
S184でカメラCPU104は、蓄積した電荷を電荷蓄積部に転送し、静止画撮影2を終了する。
In S182, the camera CPU 104 starts charge accumulation in the image pickup device 101 while the shutter 111 is in the open state (exposure start by the electronic shutter).
When the determined exposure time elapses in S183, the camera CPU 104 ends the charge storage operation (exposure by the electronic shutter ends).
In S184, the camera CPU 104 transfers the accumulated charge to the charge storage unit, and ends the still image shooting 2.

このように、動画モードにおいて、動画撮影と並行して静止画撮影を行なう場合、動画撮影用に制御されているFナンバを維持したまま静止画撮影を行なう。また、シャッタ111は開放状態のまま、電子シャッタによって露光時間を制御する。したがって、動画記録中の静止画撮影によって絞り503の開口径が変化することなく、かつシャッタ111の動作音が録音されることもない。そのため、記録中の動画に影響を与えることなく静止画を撮影することができる。 As described above, in the moving image mode, when the still image shooting is performed in parallel with the moving image shooting, the still image shooting is performed while maintaining the F number controlled for the moving image shooting. Further, the exposure time is controlled by the electronic shutter while the shutter 111 remains open. Therefore, the aperture diameter of the aperture 503 does not change due to the still image shooting during the moving image recording, and the operation sound of the shutter 111 is not recorded. Therefore, it is possible to shoot a still image without affecting the moving image being recorded.

なお、上述の説明では、動画記録中、静止画撮影の開始指示が入力されていることを条件に静止画撮影を行うものとして説明した。しかし、動画記録中は無条件に静止画撮影を実行するように構成してもよい。この場合、S143の判定処理は不要となる。あるいは、S143を動画記録中に静止画撮影を常に実行する撮影モードが設定されているかどうかの判定処理としてもよい。 In the above description, it is assumed that the still image shooting is performed on the condition that the start instruction for still image shooting is input during the moving image recording. However, it may be configured to perform still image shooting unconditionally during moving image recording. In this case, the determination process of S143 becomes unnecessary. Alternatively, it may be a process of determining whether or not a shooting mode for constantly executing still image shooting is set while S143 is recording a moving image.

<静止画選定処理>
次に、記録媒体106に記録された動画から、ユーザが選択したシーンに対応する静止画を、記録媒体106に記録された静止画から自動選択する動作について説明する。選定処理は、例えば操作部105から選定処理の実行指示が入力されたことに応じて開始されるものとするが、記録媒体106に記録されている動画の再生が一次停止された際など、他の条件に応じて開始されてもよい。
<Still image selection process>
Next, an operation of automatically selecting a still image corresponding to a scene selected by the user from the moving images recorded on the recording medium 106 from the still images recorded on the recording medium 106 will be described. The selection process is started, for example, when an execution instruction for the selection process is input from the operation unit 105, but when the playback of the moving image recorded on the recording medium 106 is temporarily stopped, etc. It may be started according to the conditions of.

S202でカメラCPU104は、選定処理の実行可否を判定し、可能と判定されればS203へ、可能と判定されなければS207へ、処理を進める。具体的にはカメラCPU104は、記録媒体106に対して動画記録や静止画記録を実行中でなければ選定処理を実行可能と判定する。 In S202, the camera CPU 104 determines whether or not the selection process can be executed, and proceeds to S203 if it is determined to be possible, and to S207 if it is not determined to be possible. Specifically, the camera CPU 104 determines that the selection process can be executed unless the video recording or the still image recording is being executed for the recording medium 106.

S203でカメラCPU104は、静止画選定1のサブルーチンを実行する。静止画選定1では、ユーザが選択したシーンに対応すると推測される静止画から被写体検出を行い、当該被写体検出結果に基づいて記録媒体106に記録された静止画を自動選択する。詳細は図12を用いて後述する。
S204でカメラCPU104は、選定不可フラグがONか否かを判定する。選定不可フラグとは、静止画選定1(S203)または静止画選定2(S205)の処理で設定されるフラグである。選定不可フラグのONは、静止画選定1または静止画選定2の処理において、静止画が選定できなかったことを表す。カメラCPU104は、選定不可フラグがONと判定されればS205に、選定不可フラグがONと判定されなければS208に処理を進める。
In S203, the camera CPU 104 executes the subroutine of the still image selection 1. In the still image selection 1, the subject is detected from the still image presumed to correspond to the scene selected by the user, and the still image recorded on the recording medium 106 is automatically selected based on the subject detection result. Details will be described later with reference to FIG.
In S204, the camera CPU 104 determines whether or not the non-selectable flag is ON. The non-selectable flag is a flag set in the process of still image selection 1 (S203) or still image selection 2 (S205). ON of the non-selectable flag indicates that the still image could not be selected in the process of still image selection 1 or still image selection 2. The camera CPU 104 proceeds to S205 if the unselectable flag is determined to be ON, and proceeds to S208 if the unselectable flag is not determined to be ON.

S205でカメラCPU104は、静止画選定2のサブルーチンを実行する。静止画選定2では、ユーザが選択したシーンに対応すると推測される動画から被写体検出を行い、当該被写体検出結果に基づいて記録媒体106に記録された静止画を自動選択する。詳細は図14を用いて後述する。
S206でカメラCPU104は、S204と同様に、選定不可フラグがONか否かを判定し、ONと判定されればS207に、判定されなければS208に処理を進める。
In S205, the camera CPU 104 executes the subroutine of the still image selection 2. In the still image selection 2, a subject is detected from a moving image that is presumed to correspond to a scene selected by the user, and a still image recorded on the recording medium 106 is automatically selected based on the subject detection result. Details will be described later with reference to FIG.
In S206, the camera CPU 104 determines whether or not the non-selectable flag is ON, and proceeds to S207 if it is determined to be ON, and to S208 if it is not determined.

S207でカメラCPU104は、表示部110にエラー表示を行う。エラー表示は、静止画の自動選定ができなかった旨をユーザに伝えるための表示であり、例えばメッセージ表示であってよい。操作部105を通じてエラー表示の確認操作が検出されると、カメラCPU104は選定処理を終了する。 In S207, the camera CPU 104 displays an error on the display unit 110. The error display is a display for notifying the user that the automatic selection of the still image could not be performed, and may be, for example, a message display. When the error display confirmation operation is detected through the operation unit 105, the camera CPU 104 ends the selection process.

S208でカメラCPU104は、表示部110に、自動選定した静止画を表示する。図13(b)に、自動選定した静止画の表示例を示す。選定した静止画が複数ある場合、カメラCPU104は、所定の複数枚を一度に表示する。また、選定した静止画が複数ある場合、カメラCPU104は、選定した複数の静止画の中から1枚と、選定した画像が他にも存在する表示とを行ってもよい。また、表示部110に表示する代わりに、あるいはさらに、カメラCPU104は、記録媒体106にフォルダを作成し、選定した静止画のデータファイルをそのフォルダに保存してもよい。 In S208, the camera CPU 104 displays the automatically selected still image on the display unit 110. FIG. 13B shows a display example of an automatically selected still image. When there are a plurality of selected still images, the camera CPU 104 displays a predetermined plurality of images at once. When there are a plurality of selected still images, the camera CPU 104 may display one of the selected still images and a display in which the selected image is present in the other. Further, instead of displaying on the display unit 110, or further, the camera CPU 104 may create a folder on the recording medium 106 and save the selected still image data file in the folder.

また、カメラCPU104は、S208において、操作部105を通じたユーザ指示により、選定した静止画を記録媒体106に別ファイルとして保存したり、表示する画像を切り替えたりすることができる。また、選定した静止画が複数ある場合、カメラCPU104は、ユーザが1枚の静止画を選択してチェックマークを付けたり、外部装置に転送したり、別名で保存したり、印刷したりできるようにしてもよい。例えば動画の再生を再開する指示が検出されたり、選定処理の終了指示が検出された場合、カメラCPU104は、選定処理の実行を終了する。 Further, in S208, the camera CPU 104 can save the selected still image as a separate file on the recording medium 106 or switch the image to be displayed by a user instruction through the operation unit 105. Further, when there are a plurality of selected still images, the camera CPU 104 allows the user to select one still image and add a check mark, transfer it to an external device, save it under another name, or print it. You may do it. For example, when the instruction to restart the reproduction of the moving image is detected or the instruction to end the selection process is detected, the camera CPU 104 ends the execution of the selection process.

<静止画選定1>
図12は図11のS203で実行する「静止画選定1」の詳細を示すフローチャートである。
S215でカメラCPU104は、表示部110に、記録媒体106に記録されている動画を再生可能に表示する。具体的には、カメラCPU104は、動画を所定のフレーム(例えば先頭フレーム)で再生が一時停止された状態で、再生制御用のユーザインタフェース(UI)とともに表示する。記録媒体106に複数の動画が記録されている場合、カメラCPU104は、表示対象とする動画をユーザに選択させてもよいし、最新の動画を選択してもよい。なお、並行して静止画が記録されていない動画は再生対象から除外する。
<Still image selection 1>
FIG. 12 is a flowchart showing the details of “still image selection 1” executed in S203 of FIG.
In S215, the camera CPU 104 reproducibly displays the moving image recorded on the recording medium 106 on the display unit 110. Specifically, the camera CPU 104 displays the moving image together with the user interface (UI) for playback control in a state where the playback is paused at a predetermined frame (for example, the first frame). When a plurality of moving images are recorded on the recording medium 106, the camera CPU 104 may allow the user to select the moving image to be displayed, or may select the latest moving image. In addition, moving images in which still images are not recorded in parallel are excluded from the playback target.

再生制御用のユーザインタフェースは、動画再生の開始や一次停止を指示したり、再生位置を変更するためのGUIである。このようなユーザインタフェースは例えばウェブブラウザで動画を表示する際に一般的に用いられている。表示部110はタッチディスプレイであるため、ユーザは表示部110に表示されているGUIをタッチ操作することにより、動画を再生したり、再生を一時停止させたり、動画の再生位置を移動させたりすることができる。 The user interface for playback control is a GUI for instructing the start and primary stop of moving image playback and changing the playback position. Such a user interface is generally used when displaying a moving image on a web browser, for example. Since the display unit 110 is a touch display, the user can play a video, pause the playback, or move the playback position of the video by touching the GUI displayed on the display unit 110. be able to.

静止画選定1の処理では、最終的に静止画を選定することが目的であるが、まずは動画を表示する。この理由は2つある。1つ目の理由は、静止画より動画の1フレームの方が、記録画素数が少ないことから、動画1フレームの表示の方が、静止画1枚の表示よりも所要時間が短いためである。2つ目の理由は、動画であれば、再生、一時停止機能を用いることが可能であり、ユーザが静止画を1枚1枚見るよりも所望のシーンを容易に検索可能であるためである。 The purpose of the process of still image selection 1 is to finally select a still image, but first, a moving image is displayed. There are two reasons for this. The first reason is that the number of recorded pixels is smaller in one frame of a moving image than in a still image, so that the display of one frame of a moving image takes less time than the display of one still image. .. The second reason is that if it is a moving image, the play / pause function can be used, and the user can easily search for a desired scene rather than viewing the still images one by one. ..

S216でカメラCPU104は、表示部110に対して動画再生を指示するタッチ操作が行われたか否かを判定し、行われたと判定されればS219へ、判定されなければS217へ処理を進める。 In S216, the camera CPU 104 determines whether or not a touch operation instructing the display unit 110 to play a moving image has been performed, and if it is determined that the touch operation has been performed, the process proceeds to S219, and if not, the process proceeds to S217.

S217でカメラCPU104は、表示部110に対して再生開始位置を移動するタッチ操作が行われたか否かを判定し、行われたと判定されればS218へ処理を進め、判定されなければS216に処理を戻す。 In S217, the camera CPU 104 determines whether or not a touch operation for moving the playback start position has been performed on the display unit 110, and if it is determined that the touch operation has been performed, the process proceeds to S218, and if not, the process proceeds to S216. Return.

S218でカメラCPU104は、操作に応じた位置に再生開始位置を移動させるとともに、再生開始位置に対応するフレームを表示部110に表示し、処理をS216に戻す。 In S218, the camera CPU 104 moves the reproduction start position to a position corresponding to the operation, displays the frame corresponding to the reproduction start position on the display unit 110, and returns the process to S216.

S219でカメラCPU104は、表示開始位置から動画の再生を開始し、処理をS220に進める。カメラCPU104は、記録媒体106から動画データを所定量RAM115に読み込み、動画データを復号して表示部110に表示する。 In S219, the camera CPU 104 starts playing the moving image from the display start position, and advances the process to S220. The camera CPU 104 reads the moving image data from the recording medium 106 into the predetermined amount RAM 115, decodes the moving image data, and displays the moving image data on the display unit 110.

S220でカメラCPU104は、表示部110に対して再生一時停止を指示するタッチ操作が行われたか否かを判定し、行われたと判定されればS222へ処理を進め、判定されなければS219に処理を戻して動画再生を継続する。 In S220, the camera CPU 104 determines whether or not a touch operation instructing the display unit 110 to pause playback has been performed, and if it is determined that the touch operation has been performed, the process proceeds to S222, and if not, the process proceeds to S219. Return to and continue playing the video.

S221でカメラCPU104は、動画の再生を一時停止し、停止位置のフレームを表示して、処理をS222に進める。 In S221, the camera CPU 104 pauses the reproduction of the moving image, displays the frame at the stop position, and proceeds to the process in S222.

S222でカメラCPU104は、表示部110に対して被写体を指示するタッチ操作が行われたか否かを判定する。被写体を指示するタッチ操作は、現在表示中の動画フレームに対する所定のタッチ操作であってよい。 In S222, the camera CPU 104 determines whether or not a touch operation for instructing the subject to the display unit 110 has been performed. The touch operation for instructing the subject may be a predetermined touch operation for the moving image frame currently being displayed.

図13(a)は、動画の表示および選択される被写体の例を示す図である。
表示部110の略中央には、一時停止した状態で、動画の1フレームD1が表示されている。表示部110の上部には、フレームD1を含めた前後数フレームが縮小表示されている。フレームD1mは、フレームD1の縮小表示である。再生ボタン255、一時停止ボタン256、表示位置変更スライダ257はタッチ操作可能なGUIである。
FIG. 13A is a diagram showing an example of displaying a moving image and a selected subject.
In the substantially center of the display unit 110, one frame D1 of the moving image is displayed in a paused state. At the upper part of the display unit 110, several frames before and after including the frame D1 are reduced and displayed. The frame D1m is a reduced display of the frame D1. The play button 255, the pause button 256, and the display position change slider 257 are touch-operable GUIs.

フレームD1には被写体H1が含まれている。被写体H1が、時間が経つにつれカメラに向かって近づいてきていることが、上部に縮小表示されているフレームの表示によって分かる。 The frame D1 includes the subject H1. It can be seen from the frame display reduced at the top that the subject H1 is approaching the camera over time.

ユーザは、例えば、表示部110に表示されているフレームD1内の被写体H1の顔部分をタッチすることで、被写体H1を指定することができる。あるいは、顔部分の左上から右下に向かうドラッグ操作によって対角頂点を指定する操作であってもよい。カメラCPU104は、これらの操作によって指定された位置または領域を検出する。そして、カメラCPU104は、表示中のフレームD1において指定された位置や領域に基づいて、被写体領域HSを決定する。例えば表示中のフレームD1で顔領域が検出されており、指定された位置や領域が顔領域内の座標を含んでいる場合、カメラCPU104は、顔領域を被写体領域HSとして決定することができる。 The user can specify the subject H1 by touching, for example, the face portion of the subject H1 in the frame D1 displayed on the display unit 110. Alternatively, it may be an operation of designating diagonal vertices by a drag operation from the upper left to the lower right of the face portion. The camera CPU 104 detects the position or area specified by these operations. Then, the camera CPU 104 determines the subject area HS based on the position or area designated in the frame D1 being displayed. For example, when the face area is detected in the frame D1 being displayed and the designated position or area includes the coordinates in the face area, the camera CPU 104 can determine the face area as the subject area HS.

なお、必ずしも顔領域のような特徴領域を被写体領域HSとして決定する必要は無い。フレームD1内の一点が指定された場合には指定された点を含み、指定された点と類似した色を有する画素からなる領域や、指定された点を中心とした所定の矩形範囲を被写体領域HSとして決定してもよい。また、範囲が指定された場合には指定された範囲をそのまま被写体領域HSとして決定してもよい。 It is not always necessary to determine a feature area such as a face area as a subject area HS. When one point in the frame D1 is specified, the subject area includes the specified point and consists of pixels having a color similar to the specified point, or a predetermined rectangular range centered on the specified point. It may be determined as HS. Further, when a range is specified, the specified range may be determined as it is as the subject area HS.

なお、図13(a)の表示例は単なる一例であり、例えば縮小表示するフレームの表示位置をフレームD1の左右や上下としてもよい。また、フレームD1と時間的に隣接する前後のフレームを、フレームD1の上下または左右にフレームD1より小さく、フレームD1mより大きく表示してもよい。 The display example of FIG. 13A is merely an example, and for example, the display position of the frame to be reduced may be set to the left, right, top, or bottom of the frame D1. Further, the front and rear frames temporally adjacent to the frame D1 may be displayed above and below or to the left and right of the frame D1 to be smaller than the frame D1 and larger than the frame D1m.

図12に戻って、S223でカメラCPU104は、表示中の動画と並行して撮影され、記録媒体106に記録されている静止画の中から、候補画像を複数抽出する。候補画像とは、S224で被写体検出を実行する静止画である。並行記録されている動画と静止画とは、例えば同じフォルダや、関連するフォルダ名を有する別フォルダに記録されているなど、予め定められた方法で関連づけられているものとする。あるいは、動画の記録開始および終了時刻の間に生成された静止画のデータファイルを記録媒体106から探索してもよい。 Returning to FIG. 12, in S223, the camera CPU 104 extracts a plurality of candidate images from the still images taken in parallel with the moving image being displayed and recorded on the recording medium 106. The candidate image is a still image for which subject detection is executed in S224. It is assumed that the moving images and still images recorded in parallel are related by a predetermined method, for example, they are recorded in the same folder or another folder having a related folder name. Alternatively, the still image data file generated during the recording start and end times of the moving image may be searched from the recording medium 106.

上述したように、本実施形態のカメラは、動画記録時に連続かつ並行して静止画を記録する撮影モードを有する。この撮影モードにおいては、動画記録中に静止画撮影の開始指示が継続して入力され続けることで、静止画が連続的に撮影され、記録され得る。そのため、動画と並行して記録媒体106に記録されている静止画の数は非常に多くなることが考えられる。そのため、被写体検出を実行する画像をある程度の数に限定するために候補画像を抽出する。 As described above, the camera of the present embodiment has a shooting mode for continuously and in parallel recording a still image at the time of moving image recording. In this shooting mode, the still image can be continuously shot and recorded by continuously inputting the start instruction for still image shooting during the moving image recording. Therefore, it is conceivable that the number of still images recorded on the recording medium 106 in parallel with the moving image will be very large. Therefore, candidate images are extracted in order to limit the number of images for which subject detection is performed to a certain number.

本実施形態においてカメラCPU104は、現在表示中のフレームと撮影時刻が最も近い1つの静止画(静止画Aとする)と、静止画Aの撮影時刻の前後所定時間以内に撮影された静止画とを、候補画像として抽出する。なお、静止画Aと、静止画Aの直近に撮影されたn枚および静止画Aの直後に撮影されたn枚の静止画を抽出するなど、他の条件を用いて抽出してもよい。 In the present embodiment, the camera CPU 104 includes one still image (referred to as a still image A) whose shooting time is closest to the currently displayed frame, and a still image shot within a predetermined time before and after the shooting time of the still image A. Is extracted as a candidate image. It should be noted that the still image A, the n images taken in the immediate vicinity of the still image A, and the n still images taken immediately after the still image A may be extracted using other conditions.

S224でカメラCPU104は、S223で抽出した候補画像のそれぞれで被写体領域HSを探索する被写体検出処理を実行する。被写体検出の手法は問わないが、例えば、被写体領域HSをテンプレート画像としたパターンマッチングによって、候補画像内で被写体領域HSと思われる領域を検出することができる。他にも、色情報やエッジの情報といった、被写体領域HSの情報の1つ以上を用いて被写体検出処理を行ってもよい。また、撮影時刻が近い複数の候補画像において、被写体検出に成功したものと失敗したものが混在する場合、被写体検出に成功した画像における被写体領域の位置情報に基づいて、被写体検出に失敗した画像中の被写体領域の位置を予測してもよい。なお、被写体検出に成功したか否かは、被写体検出方法に応じて予め定められた基準に従って判定することができる。例えば、パターンマッチングを用いる場合、最も類似度が高い領域と被写体領域HSとの相関度が閾値以上であれば被写体検出に成功したと判定することができる。 In S224, the camera CPU 104 executes a subject detection process for searching the subject area HS in each of the candidate images extracted in S223. The method of subject detection is not limited, but for example, a region considered to be the subject region HS can be detected in the candidate image by pattern matching using the subject region HS as a template image. In addition, subject detection processing may be performed using one or more of the subject region HS information such as color information and edge information. In addition, when multiple candidate images whose shooting times are close to each other have a mixture of successful and unsuccessful subject detection, the image in which the subject detection has failed based on the position information of the subject area in the image in which the subject detection has succeeded. You may predict the position of the subject area of. Whether or not the subject detection is successful can be determined according to a predetermined standard according to the subject detection method. For example, when pattern matching is used, it can be determined that the subject detection is successful if the degree of correlation between the region having the highest similarity and the subject region HS is equal to or higher than the threshold value.

S225でカメラCPU104は、被写体検出に成功した候補画像に対して焦点検出領域を設定する。カメラCPU104は例えば、検出された被写体領域の少なくとも一部を含む、予め定められた大きさの矩形領域を焦点検出領域として設定することができる。 In S225, the camera CPU 104 sets the focus detection area for the candidate image that has succeeded in detecting the subject. For example, the camera CPU 104 can set a rectangular area having a predetermined size including at least a part of the detected subject area as the focus detection area.

S226でカメラCPU104は、少なくとも1枚の候補画像に対して焦点検出領域を設定できたか否かを判定し、設定できたと判定されればS227へ、判定されなければS230へ処理を進める。なお、候補画像のうち、焦点検出領域を設定できなかったものの割合が予め定められた値(例えば80%)を超える場合、カメラCPU104は、全ての候補画像に焦点検出領域を設定できなかったと判定してもよい。 In S226, the camera CPU 104 determines whether or not the focus detection area can be set for at least one candidate image, and if it is determined that the focus detection area can be set, the process proceeds to S227, and if not, the process proceeds to S230. If the ratio of the candidate images for which the focus detection area could not be set exceeds a predetermined value (for example, 80%), the camera CPU 104 determines that the focus detection area could not be set for all the candidate images. You may.

S227でカメラCPU104は、焦点検出3を実行する。詳細は図10(c)を用いて説明する。焦点検出3は、S225において焦点検出領域を設定した候補画像それぞれに対して行う。 In S227, the camera CPU 104 executes the focus detection 3. Details will be described with reference to FIG. 10 (c). The focus detection 3 is performed for each of the candidate images for which the focus detection region is set in S225.

S228でカメラCPU104は、焦点検出領域を設定した候補画像の全てに対して焦点検出3の処理を完了したか否かを判定し、完了したと判定されればS229へ処理を進め、判定されなければS227の焦点検出3の実行を継続する。焦点検出3の処理は、焦点検出領域を設定した候補画像のそれぞれに対して行うため、時間を要する場合がある。そのため、S228で、焦点検出3の処理を終えたか否かの判定を行っている。 In S228, the camera CPU 104 determines whether or not the processing of the focus detection 3 has been completed for all the candidate images for which the focus detection area has been set, and if it is determined that the processing has been completed, the process proceeds to S229, and the determination must be made. If so, the execution of the focus detection 3 of S227 is continued. Since the processing of the focus detection 3 is performed for each of the candidate images for which the focus detection area is set, it may take time. Therefore, in S228, it is determined whether or not the processing of the focus detection 3 is completed.

S229でカメラCPU104は、焦点検出3の結果、すなわちユーザが指定した被写体に対する合焦度合いに基づいて、候補画像の中から1枚以上の静止画を選定して、焦点検出1の処理を終了する。 In S229, the camera CPU 104 selects one or more still images from the candidate images based on the result of the focus detection 3, that is, the degree of focusing on the subject specified by the user, and ends the process of the focus detection 1. ..

例えば、カメラCPU104は、焦点検出3において算出されたデフォーカス量の絶対値が最も小さい(焦点検出領域に最もピントが合っている)画像を含む1枚以上の静止画を選定する。複数の静止画を選定する場合、例えばデフォーカス量の絶対値が閾値以下(合焦度合いが閾値以上)である全ての候補画像を選定したり、デフォーカス量の絶対値が小さい(合焦度合いが高い)順に所定枚数の候補画像を選定したりすることができる。デフォーカス量以外の条件を併用して選定を行ってもよい。カメラCPU104は、例えば選定した静止画の識別情報(例えばファイル名)をRAM115に記憶する。 For example, the camera CPU 104 selects one or more still images including an image having the smallest absolute value of the defocus amount calculated in the focus detection 3 (the focus is most on the focus detection region). When selecting multiple still images, for example, select all candidate images whose defocus amount absolute value is below the threshold value (focus degree is above the threshold value), or select all candidate images whose defocus amount absolute value is small (focus degree). Can be selected in order of increasing number of candidate images. The selection may be performed in combination with conditions other than the defocus amount. The camera CPU 104 stores, for example, the identification information (for example, a file name) of the selected still image in the RAM 115.

なお、焦点検出3によって算出されたデフォーカス量がいずれも予め定められた閾値を超える場合、カメラCPU104は、静止画を選定せず、処理をS230に進めてもよい。 If the defocus amount calculated by the focus detection 3 exceeds a predetermined threshold value, the camera CPU 104 may proceed to S230 without selecting a still image.

S230でカメラCPU104は、例えばRAM115に記憶した変数である選定不可フラグをON(例えば値1)にして、焦点検出1の処理を終了する。 In S230, the camera CPU 104 sets the non-selectable flag, which is a variable stored in the RAM 115, to ON (for example, a value 1), and ends the process of focus detection 1.

<静止画選定2>
図14は、図11のS205で実行する「静止画選定2」の詳細を示すフローチャートである。静止画選定2は、静止画選定1で静止画が選定できなかった場合に実行される。
<Still image selection 2>
FIG. 14 is a flowchart showing the details of “still image selection 2” executed in S205 of FIG. The still image selection 2 is executed when the still image cannot be selected in the still image selection 1.

S244でカメラCPU104は、現在表示中の動画から、候補フレームを複数抽出する。候補フレームとは、S245で被写体検出を実行するフレームである。具体的には、カメラCPU104は、静止画選定1で抽出した候補画像に対応してユーザの指示したタイミングに基づいて候補フレームを抽出する。タイミングが撮影時刻である場合、静止画選定1で抽出した候補画像の撮影時刻範囲を包含する時刻範囲に撮影された動画フレームを候補フレームとして抽出する。例えば、候補画像の最も早い撮影時刻に対応する動画フレームから、候補画像の最も遅い撮影時刻に対応する動画フレームまでを候補フレームとして抽出することができる。なお、前後数フレームずつ追加してもよい。あるいは、個々の候補画像の撮影時刻に対応するフレームと、前後の所定数フレームとを候補フレームとして抽出してもよい。 In S244, the camera CPU 104 extracts a plurality of candidate frames from the moving image currently being displayed. The candidate frame is a frame for executing subject detection in S245. Specifically, the camera CPU 104 extracts candidate frames based on the timing instructed by the user corresponding to the candidate images extracted in the still image selection 1. When the timing is the shooting time, the moving image frame shot in the time range including the shooting time range of the candidate image extracted in the still image selection 1 is extracted as the candidate frame. For example, it is possible to extract from the moving image frame corresponding to the earliest shooting time of the candidate image to the moving image frame corresponding to the latest shooting time of the candidate image as candidate frames. It should be noted that several frames before and after may be added. Alternatively, a frame corresponding to the shooting time of each candidate image and a predetermined number of frames before and after may be extracted as candidate frames.

S245でカメラCPU104は、S244で抽出した候補フレームのそれぞれで、静止画選定1のS222で指定された被写体領域HSを探索する被写体検出処理を実行する。被写体検出処理の詳細はS224と同様であってよいため、説明を省略する。 In S245, the camera CPU 104 executes a subject detection process for searching the subject area HS specified in S222 of the still image selection 1 for each of the candidate frames extracted in S244. Since the details of the subject detection process may be the same as those of S224, the description thereof will be omitted.

S246でカメラCPU104は、S245における候補フレーム(動画フレーム)での被写体検出結果を用い、静止画選定1のS223で抽出した候補画像(静止画)に対して焦点検出領域を設定する。静止画選定2は、静止画選定1において候補画像に対して焦点検出領域が設定できなかった場合に実行される。静止画選定1で焦点検出領域が設定できない原因の1つとして、静止画の単位時間あたりの撮影枚数が少ないことが挙げられる。これに対して動画は静止画よりも記録画素数が少ないため、動画の単位時間あたり撮影枚数は、静止画の単位時間あたりの撮影枚数よりも多い。そのため、S245で被写体検出を動画フレームに対して行うことで、被写体検出可能である確率を上げることができる。 In S246, the camera CPU 104 sets a focus detection area for the candidate image (still image) extracted in S223 of the still image selection 1 by using the subject detection result in the candidate frame (moving image frame) in S245. The still image selection 2 is executed when the focus detection area cannot be set for the candidate image in the still image selection 1. One of the reasons why the focus detection area cannot be set in the still image selection 1 is that the number of still images taken per unit time is small. On the other hand, since the number of recorded pixels of a moving image is smaller than that of a still image, the number of shots taken per unit time of the moving image is larger than the number of shots taken per unit time of the still image. Therefore, by performing subject detection on the moving image frame in S245, the probability that the subject can be detected can be increased.

S246でカメラCPU104は、例えば候補画像と撮影時刻が同じ、もしくは近い候補フレームの被写体検出位置に基づいて、候補画像に焦点検出領域を設定する。カメラCPU104は、撮影時刻が同じ候補フレームで被写体検出が成功していれば、検出された被写体領域の位置をそのまま用いて候補画像に焦点検出領域を設定する。また、カメラCPU104は、撮影時刻が同じ候補フレームで被写体検出が失敗していれば、撮影時刻が最も近く、かつ撮影時刻の差が閾値未満の候補フレームで検出された被写体領域の位置を用いて候補画像に焦点検出領域を設定する。この際、候補フレームで検出された被写体領域の位置をそのまま用いて焦点検出領域を設定してもよいし、被写体領域の検出位置の経時変化に基づいて予測した位置を用いて焦点検出領域を設定してもよい。撮影時刻の差が所定時間未満の候補フレームのいずれも被写体検出に失敗している候補画像には焦点検出領域を設定しない。 In S246, the camera CPU 104 sets a focus detection area for the candidate image, for example, based on the subject detection position of the candidate frame whose shooting time is the same as or close to that of the candidate image. If the subject detection is successful in the candidate frames having the same shooting time, the camera CPU 104 sets the focus detection area for the candidate image by using the position of the detected subject area as it is. Further, if the subject detection fails in the candidate frames having the same shooting time, the camera CPU 104 uses the position of the subject area detected in the candidate frames having the closest shooting time and the difference in shooting time being less than the threshold value. Set the focus detection area for the candidate image. At this time, the focus detection area may be set by using the position of the subject area detected in the candidate frame as it is, or the focus detection area may be set by using the position predicted based on the time course of the detection position of the subject area. You may. The focus detection area is not set for the candidate images for which the subject detection has failed in any of the candidate frames whose shooting time difference is less than the predetermined time.

以後のS247~S252は、図12のS226~S231と同一の処理であるため、説明は省略する。 Subsequent steps S247 to S252 are the same processes as S226 to S231 in FIG. 12, and thus the description thereof will be omitted.

<焦点検出3>
図14は図11のS227および図12のS248で実行する「焦点検出3」の詳細を示すフローチャートである。
S301でカメラCPU104は、焦点検出領域が設定された候補画像に対して焦点検出を実行する。
まず、カメラCPU104は、記録媒体106に記録されている、候補画像に対応する、光電変換部101a、101bごとの画像信号を特定する。そして、カメラCPU104は、光電変換部101a、101bごとの画像信号のうち、候補画像に設定された焦点検出領域内の画像信号から、一対の焦点検出用信号(A像信号とB像信号)を生成する。
<Focus detection 3>
FIG. 14 is a flowchart showing the details of the “focus detection 3” executed in S227 of FIG. 11 and S248 of FIG.
In S301, the camera CPU 104 executes the focus detection on the candidate image in which the focus detection area is set.
First, the camera CPU 104 identifies the image signals for each of the photoelectric conversion units 101a and 101b, which correspond to the candidate images recorded on the recording medium 106. Then, the camera CPU 104 outputs a pair of focus detection signals (A image signal and B image signal) from the image signals in the focus detection region set in the candidate image among the image signals for each of the photoelectric conversion units 101a and 101b. Generate.

そして、カメラCPU104は、ROM115内のルックアップデーブル(図7(a))から、現在の絞り503のFナンバとレンズ瞳距離PLの組み合わせに対応するシェーディング補正情報を読み出し、A像信号とB像信号にシェーディング補正を適用する。 Then, the camera CPU 104 reads out the shading correction information corresponding to the combination of the F number of the current aperture 503 and the lens pupil distance PL from the lookup table (FIG. 7A) in the ROM 115, and reads the A image signal and the B image. Apply shading correction to the signal.

次にカメラCPU104は、式15に示した相間演算により、シェーディング補正後のA像信号とB像信号の位相差φ3を計算する。そして、カメラCPU104は、Fナンバとレンズ瞳距離PLの組み合わせに対応する変換情報を図7(c)に示したルックアップテーブルから取得し、式17を用いてデフォーカス量DEF3を算出する。 Next, the camera CPU 104 calculates the phase difference φ3 between the A image signal and the B image signal after shading correction by the interphase calculation shown in Equation 15. Then, the camera CPU 104 acquires the conversion information corresponding to the combination of the F number and the lens pupil distance PL from the look-up table shown in FIG. 7 (c), and calculates the defocus amount DEF 3 using the equation 17.

S302でカメラCPU104は、デフォーカス量DEF3を、候補画像の識別情報と対応付けて例えばRAM115に保存し、焦点検出3を終了する。なお、上述したように、焦点検出3は候補画像ごとに実行される。 In S302, the camera CPU 104 stores the defocus amount DEF3 in association with the identification information of the candidate image, for example, in the RAM 115, and ends the focus detection 3. As described above, the focus detection 3 is executed for each candidate image.

以上説明したように、本実施形態では、動画と静止画を並行して記録した場合に、記録された動画を用いて対応する静止画が自動的に選択される。より具体的には、動画中で指定されたフレームに対応してユーザの指示したタイミング(例えば撮影時刻)に基づいて抽出した静止画のうち、フレーム内で指定された領域における合焦度合いが予め定め得られた閾値以上である静止画を自動的に選択するようにした。そのため、動画と並行して記録されている静止画が膨大な数であっても、任意のシーンにおける任意の被写体に十分合焦した静止画を容易に見つけることができる。また、動画に基づいて所望のシーンを大まかに指定することで、当該シーンの主要な被写体の合焦状態がより良い静止画を容易に見つけることができる。 As described above, in the present embodiment, when a moving image and a still image are recorded in parallel, the corresponding still image is automatically selected using the recorded moving image. More specifically, among the still images extracted based on the timing (for example, shooting time) specified by the user corresponding to the frame specified in the moving image, the degree of focusing in the area specified in the frame is determined in advance. A still image that is equal to or higher than the set threshold value is automatically selected. Therefore, even if the number of still images recorded in parallel with the moving image is enormous, it is possible to easily find a still image that is sufficiently focused on an arbitrary subject in an arbitrary scene. Further, by roughly designating a desired scene based on the moving image, it is possible to easily find a still image in which the main subject of the scene has a better in-focus state.

(その他の実施形態)
上述の実施形態では焦点検出に用いる撮像素子を選択するための判断基準として、センサ瞳距離を用いていたが、これに限定されるものではない。例えば、図7(a),(b)に示したシェーディング補正情報を判断基準に用いることも可能である。
図7(a),(b)において、焦点検出時のFナンバがF2、レンズ瞳距離がレンズ瞳距離2の場合、撮像素子101のシェーディング補正情報は図7(a)よりFs122、撮像素子102のシェーディング補正情報は図7(b)よりFs222である。そして、Fs122とFs222の値を比較することにより、A像信号とB像信号のレベル差を推定することが可能である。すなわち焦点検出用信号の補正のために記憶された情報を比較し、その結果に基づいて焦点検出に用いる撮像素子を選択するという実施形態も可能である。
(Other embodiments)
In the above-described embodiment, the sensor pupil distance is used as a criterion for selecting the image sensor used for focus detection, but the present invention is not limited to this. For example, the shading correction information shown in FIGS. 7 (a) and 7 (b) can be used as a determination criterion.
In FIGS. 7A and 7B, when the F number at the time of focus detection is F2 and the lens pupil distance is the lens pupil distance 2, the shading correction information of the image pickup element 101 is Fs122 and the image pickup element 102 from FIG. 7A. The shading correction information of FIG. 7 (b) is Fs222 from FIG. 7 (b). Then, by comparing the values of Fs122 and Fs222, it is possible to estimate the level difference between the A image signal and the B image signal. That is, it is also possible to compare the information stored for the correction of the focus detection signal and select the image sensor to be used for the focus detection based on the result.

また、上述した選定処理を実施可能な任意の電子機器において本発明を実施することができる。この場合、上述の実施形態で説明した撮影や記録に係る構成は必須でない。また、動画や静止画の記録先も特に制限はなく、選定処理を実施する機器からアクセス可能な任意の場所にある任意の種類の記録媒体であってよい。また、候補画像に対する焦点検出処理(焦点検出3)を位相差検出方式で行う場合について説明したが、コントラスト方式を用いてもよい。この場合、焦点検出領域内の画素について、高周波成分の大きさなど、公知のコントラスト評価値を求め、デフォーカス量の代わりにコントラスト評価値に基づいて焦点検出領域の合焦度合いを判定すればよい。 In addition, the present invention can be carried out in any electronic device capable of carrying out the above-mentioned selection process. In this case, the configuration related to photography and recording described in the above-described embodiment is not essential. Further, the recording destination of the moving image or the still image is not particularly limited, and may be any kind of recording medium in an arbitrary place accessible from the device performing the selection process. Further, although the case where the focus detection process (focus detection 3) for the candidate image is performed by the phase difference detection method has been described, the contrast method may be used. In this case, for the pixels in the focus detection region, known contrast evaluation values such as the size of the high frequency component may be obtained, and the degree of focusing in the focus detection region may be determined based on the contrast evaluation value instead of the defocus amount. ..

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101、102…撮像素子、103…ビームスプリッタ、104…カメラCPU、106…記録媒体、110…表示部 101, 102 ... Image sensor, 103 ... Beam splitter, 104 ... Camera CPU, 106 ... Recording medium, 110 ... Display unit

Claims (9)

所定の時間間隔で取得された複数のフレームを含む動画を表示する表示手段と、
前記表示手段が表示した動画の第1のフレームに対する所定の操作が検出されたことに応じて、前記動画と並行して記録された複数の静止画から候補画像抽出する抽出手段と、
前記候補画像のそれぞれについて、前記所定の操作に応じて指定された被写体の検出処理を行う検出手段と、
前記被写体が検出された前記候補画像について、前記被写体が検出された位置に対応する焦点検出領域を設定する設定手段と、
前記設定手段が設定した焦点検出領域の合焦度合いを算出する算出手段と、
前記合焦度合いに基づいて、前記被写体が検出された前記候補画像のうち少なくとも1つを選定する選定手段と、
を有することを特徴とする画像処理装置。
A display means for displaying a video containing a plurality of frames acquired at predetermined time intervals, and
An extraction means for extracting a candidate image from a plurality of still images recorded in parallel with the moving image in response to the detection of a predetermined operation on the first frame of the moving image displayed by the displaying means.
For each of the candidate images, a detection means that performs detection processing of a designated subject according to the predetermined operation, and
For the candidate image in which the subject is detected, a setting means for setting a focus detection area corresponding to the position where the subject is detected, and a setting means.
A calculation means for calculating the degree of focusing of the focus detection region set by the setting means, and a calculation means.
A selection means for selecting at least one of the candidate images in which the subject is detected based on the degree of focusing, and
An image processing device characterized by having.
前記検出手段は、前記候補画像から被写体が検出されなかった場合には、前記候補画像の撮影時刻を基準とした前記動画の複数のフレームについて前記被写体の検出処理を行い、
前記設定手段は、前記動画の複数のフレームにおいて被写体が検出された位置に基づいて、前記候補画像に前記焦点検出領域を設定する
ことを特徴とする請求項1に記載の画像処理装置。
When the subject is not detected from the candidate image, the detection means performs the subject detection process for a plurality of frames of the moving image based on the shooting time of the candidate image.
The image processing apparatus according to claim 1, wherein the setting means sets the focus detection region on the candidate image based on the position where the subject is detected in a plurality of frames of the moving image.
前記選定手段は、前記被写体が検出された前記候補画像のうち、前記合焦度合いが閾値以上の候補画像を選定することを特徴とする請求項1または請求項2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, wherein the selection means selects a candidate image having a degree of focusing equal to or higher than a threshold value among the candidate images in which the subject is detected . 前記抽出手段は、前記複数の静止画のうち、前記第1のフレームの撮影時刻と撮影時刻が最も近い静止画を含む、予め定められた数の静止画を前記候補画像として抽出することを特徴とする請求項1から請求項3のいずれか1項に記載の画像処理装置。 The extraction means is characterized in that , among the plurality of still images, a predetermined number of still images including the still images whose shooting time is closest to the shooting time of the first frame are extracted as the candidate images. The image processing apparatus according to any one of claims 1 to 3. 前記所定の操作がなされた位置に応じて前記第1のフレームから被写体領域を決定する決定手段をさらに有し、
前記検出手段は、前記被写体領域と類似した領域を前記候補画像のそれぞれについて探索することにより前記被写体の検出処理を行う、
ことを特徴とする請求項1から請求項4のいずれか1項に記載の画像処理装置。
Further, it has a determination means for determining a subject area from the first frame according to the position where the predetermined operation is performed.
The detection means performs detection processing for the subject by searching for a region similar to the subject region for each of the candidate images.
The image processing apparatus according to any one of claims 1 to 4, wherein the image processing apparatus is characterized in that.
前記選定手段は、前記選定した候補画像を、前記動画とともに前記表示手段に表示することを特徴とする請求項1から請求項5のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, wherein the selection means displays the selected candidate image together with the moving image on the display means. 前記動画が前記複数の静止画と同じ記録媒体に記録されていることを特徴とする請求項1から請求項6のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 6, wherein the moving image is recorded on the same recording medium as the plurality of still images. 装置が実行する画像処理方法であって、
所定の時間間隔で取得された複数のフレームを含む動画を表示する表示工程と、
前記表示工程で表示された動画の第1のフレームに対する所定の操作が検出されたことに応じて、前記動画と並行して記録された複数の静止画から候補画像抽出する抽出工程と、
前記候補画像のそれぞれについて、前記所定の操作に応じて指定された被写体の検出処理を行う検出工程と、
前記被写体が検出された前記候補画像について、前記被写体が検出された位置に対応する焦点検出領域を設定する設定工程と、
前記設定工程で設定された焦点検出領域の合焦度合いを算出する算出工程と、
前記合焦度合いに基づいて、前記被写体が検出された前記候補画像のうち少なくとも1つを選定する選定工程と、
を有することを特徴とする画像処理方法。
It is an image processing method executed by the device.
A display process that displays a moving image containing multiple frames acquired at predetermined time intervals, and
An extraction step of extracting a candidate image from a plurality of still images recorded in parallel with the moving image in response to the detection of a predetermined operation on the first frame of the moving image displayed in the displaying step.
For each of the candidate images, a detection step of performing detection processing of a designated subject according to the predetermined operation, and a detection step.
For the candidate image in which the subject is detected, a setting step of setting a focus detection area corresponding to the position where the subject is detected, and a setting step.
A calculation step for calculating the degree of focusing of the focus detection region set in the setting step, and a calculation step.
A selection step of selecting at least one of the candidate images in which the subject is detected based on the degree of focusing, and
An image processing method characterized by having.
コンピュータを、請求項1から請求項のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for making a computer function as each means of the image processing apparatus according to any one of claims 1 to 7 .
JP2017158764A 2017-08-21 2017-08-21 Image processing device and image processing method Active JP7022534B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017158764A JP7022534B2 (en) 2017-08-21 2017-08-21 Image processing device and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017158764A JP7022534B2 (en) 2017-08-21 2017-08-21 Image processing device and image processing method

Publications (2)

Publication Number Publication Date
JP2019036921A JP2019036921A (en) 2019-03-07
JP7022534B2 true JP7022534B2 (en) 2022-02-18

Family

ID=65637761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017158764A Active JP7022534B2 (en) 2017-08-21 2017-08-21 Image processing device and image processing method

Country Status (1)

Country Link
JP (1) JP7022534B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009089348A (en) 2007-09-11 2009-04-23 Ricoh Co Ltd Electronic apparatus, imaging device, and reproducing device
JP2014134898A (en) 2013-01-08 2014-07-24 Canon Inc Image search apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009089348A (en) 2007-09-11 2009-04-23 Ricoh Co Ltd Electronic apparatus, imaging device, and reproducing device
JP2014134898A (en) 2013-01-08 2014-07-24 Canon Inc Image search apparatus

Also Published As

Publication number Publication date
JP2019036921A (en) 2019-03-07

Similar Documents

Publication Publication Date Title
KR101632578B1 (en) Image capturing apparatus, image processing apparatus, and image processing method for generating auxiliary information for captured image
JP5207797B2 (en) Imaging apparatus and control method thereof
JP5564987B2 (en) Subject tracking device and imaging device
JP5543098B2 (en) Imaging device
JP6405243B2 (en) Focus detection apparatus and control method thereof
JP6584149B2 (en) Imaging device
US20110228053A1 (en) Stereoscopic imaging apparatus
JP5417827B2 (en) Focus detection apparatus and imaging apparatus
JP2014215551A (en) Image-capturing device and control method therefor
JP2011135191A (en) Imaging apparatus and image processor
JP5361356B2 (en) Focus detection apparatus and control method thereof
JP4567712B2 (en) Imaging device
JP2019087923A (en) Imaging apparatus, imaging method, and program
JP2010060771A (en) Imaging device
JP2017192028A (en) Imaging apparatus and control method of the same, program, and memory medium
JP2021001950A (en) Imaging device and control method therefor, program, and storage medium
JP7022534B2 (en) Image processing device and image processing method
JP5070856B2 (en) Imaging device
JP4935380B2 (en) Image tracking device and imaging device
JP5982040B2 (en) Imaging apparatus and control method thereof
JP6639208B2 (en) Imaging device and control method thereof
JP2016099432A (en) Focus detection device, and method, program and storage medium
JP2016066015A (en) Focus detector, control method thereof, program, and memory medium
JP2019045568A (en) Imaging apparatus and imaging system
JP7066458B2 (en) Imaging device and its control method, program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200702

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220207

R151 Written notification of patent or utility model registration

Ref document number: 7022534

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151