JP5753321B2 - Imaging apparatus and focus confirmation display method - Google Patents

Imaging apparatus and focus confirmation display method Download PDF

Info

Publication number
JP5753321B2
JP5753321B2 JP2014536834A JP2014536834A JP5753321B2 JP 5753321 B2 JP5753321 B2 JP 5753321B2 JP 2014536834 A JP2014536834 A JP 2014536834A JP 2014536834 A JP2014536834 A JP 2014536834A JP 5753321 B2 JP5753321 B2 JP 5753321B2
Authority
JP
Japan
Prior art keywords
image
display
boundary
split
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014536834A
Other languages
Japanese (ja)
Other versions
JPWO2014046039A1 (en
Inventor
智行 河合
智行 河合
岩崎 洋一
洋一 岩崎
和紀 井上
和紀 井上
武弘 河口
武弘 河口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2014536834A priority Critical patent/JP5753321B2/en
Application granted granted Critical
Publication of JP5753321B2 publication Critical patent/JP5753321B2/en
Publication of JPWO2014046039A1 publication Critical patent/JPWO2014046039A1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/24Focusing screens
    • G03B13/28Image-splitting devices
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Viewfinders (AREA)

Description

本発明は、マニュアルフォーカスで合焦確認に使用する画像(以下「スプリットイメージ」ともいう)を表示する撮像装置及び合焦確認表示方法に関する。   The present invention relates to an imaging apparatus and an in-focus confirmation display method for displaying an image (hereinafter also referred to as “split image”) used for in-focus confirmation with manual focus.

デジタルカメラとして、位相差検出方式やコントラスト検出方式を用いたオートフォーカスの他に、使用者が手動でフォーカス調整を行うことができる、いわゆるマニュアルフォーカスモードを備えるものがよく知られている。   In addition to autofocus using a phase difference detection method or a contrast detection method, a digital camera having a so-called manual focus mode in which a user can manually perform focus adjustment is well known.

マニュアルフォーカスモードを有するデジタルカメラとしては、撮影した被写体を確認しながらフォーカス調整ができるようにレフレックスミラーを設けて、目視による位相差を表示するスプリットマイクロプリズムスクリーンを用いた方法や、目視によるコントラストの確認を行う方法を採用しているものが良く知られている。   For digital cameras with manual focus mode, a reflex mirror is provided so that the focus can be adjusted while checking the subject being photographed, and a method using a split micro prism screen that displays the visual phase difference, or visual contrast It is well known that the method of confirming is adopted.

ところで、近年普及しているレフレックスミラーを省略したデジタルカメラでは、レフレックスミラーがないため位相差を表示しながら被写体像を確認する方法がなく、コントラスト検出方式に頼らざるを得なかった。しかし、この場合には、LCD等の表示装置の解像度以上のコントラスト表示ができず、一部拡大するなどして表示する方法を採らざるを得なかった。   By the way, in a digital camera that omits a reflex mirror that has been widely used in recent years, there is no method for checking a subject image while displaying a phase difference because there is no reflex mirror, and it has been necessary to rely on a contrast detection method. However, in this case, contrast display exceeding the resolution of a display device such as an LCD cannot be performed, and a method of displaying the image by partially enlarging it has been unavoidable.

そこで、近年では、マニュアルフォーカスモード時に操作者が被写体に対してピントを合わせる作業を容易にするために、スプリットイメージ(合焦確認画像)をライブビュー画像内に表示している。ここで、スプリットイメージは、瞳分割方式の撮像で得られた二つの被写体像(二つの位相差画像)を合成したものであり、被写体像の位相差を表す。つまり、一方の被写体像の上半分と他方の被写体像の下半分とを上下に隣接させたスプリットイメージを表示する。ピントがずれた状態では上下に隣接した二つの被写体像が左右にずれて表示され、ピントが合った状態では上下に隣接した二つの被写体像の左右のずれがなくなる。操作者は、スプリットイメージ内の二つの被写体像の左右のずれがなくなるようにフォーカスリングを操作することによりピントを合わせる。   Therefore, in recent years, a split image (focus confirmation image) is displayed in the live view image in order to make it easier for the operator to focus on the subject in the manual focus mode. Here, the split image is a combination of two subject images (two phase difference images) obtained by pupil division imaging, and represents the phase difference of the subject images. That is, a split image is displayed in which the upper half of one subject image and the lower half of the other subject image are vertically adjacent. When the subject is out of focus, the two subject images vertically adjacent to each other are displayed while being shifted left and right, and when the subject is in focus, the two subject images adjacent to each other vertically are eliminated. The operator adjusts the focus by operating the focus ring so that the two subject images in the split image are not shifted left and right.

特許文献1に記載のデジタルカメラでは、絞りを光軸と垂直方向に移動させることで二つの測距位置でそれぞれ被写体画像の撮影を行い、これら2つの被写体画像を用いてスプリットイメージをライブビュー画像内に表示している。   In the digital camera described in Patent Document 1, a subject image is captured at two distance measurement positions by moving the aperture in a direction perpendicular to the optical axis, and a split image is displayed as a live view image using these two subject images. It is displayed in.

特許文献2に記載のデジタルカメラでは、被写体像の像面と撮像素子の受光面との間の距離に相当する値をずれ量として求め、このずれ量に応じて左右相反する方向にずらしたスプリットイメージをライブビュー画像内に表示している。   In the digital camera described in Patent Document 2, a value corresponding to the distance between the image plane of the subject image and the light receiving surface of the image sensor is obtained as a shift amount, and the split is shifted in the opposite directions according to the shift amount. The image is displayed in the live view image.

特許文献3、4及び5に記載のデジタルカメラは、撮影用の通常画素と、瞳分割された被写体光を受光する焦点検出用の2種類の位相差画素とが撮像面上に複数配列されてなる撮像素子を備えている。このデジタルカメラでは、通常画素からの出力信号に基づき撮像画像を生成してライブビュー画像表示を行うとともに、2種類の位相差画素のそれぞれからの出力に基づきスプリットイメージを生成してライブビュー画像内に表示している。   In the digital cameras described in Patent Documents 3, 4, and 5, a plurality of normal pixels for photographing and two types of phase detection pixels for focus detection that receive the subject light divided into pupils are arranged on the imaging surface. An image sensor is provided. In this digital camera, a captured image is generated based on an output signal from a normal pixel to display a live view image, and a split image is generated based on an output from each of the two types of phase difference pixels to generate a live view image. Is displayed.

また、特許文献5は、スプリットイメージの位置の変更、スプリットラインの方向の変更、又はスプリットイメージの拡大を行うことを開示している。   Japanese Patent Application Laid-Open No. 2004-228561 discloses changing the position of the split image, changing the direction of the split line, or enlarging the split image.

特開2004−40740号公報JP 2004-40740 A 特開2001−309210号公報JP 2001-309210 A 特開2009−147665号公報JP 2009-147665 A 特開2009−163220号公報JP 2009-163220 A 特開2009−276426号公報JP 2009-276426 A

しかしながら、特許文献1記載のデジタルカメラでは、絞りを移動させる機械的な構成が必要になるので、この構成を収納するスペースの確保、及び部品点数の増加などの問題が生じる。また、特許文献2記載のデジタルカメラでは、被写体光を瞳分割して撮像する構成を有さないので、正確で破綻のない合焦確認画像(スプリットイメージ)の実現が困難である。   However, since the digital camera described in Patent Document 1 requires a mechanical configuration for moving the aperture, problems such as securing a space for storing this configuration and an increase in the number of parts arise. Further, since the digital camera described in Patent Document 2 does not have a configuration in which subject light is imaged by dividing the pupil light, it is difficult to realize a focus confirmation image (split image) that is accurate and does not fail.

特許文献3及び4記載のデジタルカメラでは、2種類の位相差画素を用いてスプリットイメージを生成しているが、瞳分割方式の撮像で得られた二つの被写体像(位相差画像)のそれぞれ上半分及び下半分を表示するだけであり、二つの被写体像間の境界線であるスプリットラインの位置が固定になる。また、ピントが合っているか否かは、非合焦状態でずれが生じる二つの被写体像の境界線(スプリットライン)の近傍を注視することにより認識することになるが、ピントを合わせたい位置とは異なる位置にスプリットラインが存在していると、ユーザはマニュアルフォーカスで十分にピントを合わせられなかった。   In the digital cameras described in Patent Documents 3 and 4, a split image is generated using two types of phase difference pixels, but each of two subject images (phase difference images) obtained by pupil division imaging is obtained. Only the half and the lower half are displayed, and the position of the split line, which is the boundary line between the two subject images, is fixed. Whether or not the subject is in focus is recognized by observing the vicinity of the boundary line (split line) between the two subject images that are displaced in the out-of-focus state. When there are split lines at different positions, the user cannot focus fully with manual focus.

また、特許文献5のデジタルカメラでは、スプリットイメージの位置を変更するが、撮影者がマニュアルフォーカスでピント合わせを行いたい被写体の像がスプリットイメージの表示領域内に入るように画角を設定した後、スプリットイメージの位置が変わってしまうと、撮影者が困惑するという課題がある。また、特許文献5のデジタルカメラによれば、スプリットラインの方向(分割方向の横/縦)を変更するが、撮影者がマニュアルフォーカスでピント合わせるときに例えば横方向のズレを無くすようにマニュアル操作しようとしているのに、スプリットラインの方向が急に縦方向に変わってしまうと、撮影者が困惑するという課題がある。また、特許文献5のデジタルカメラによれば、スプリットイメージを拡大するが、スプリットイメージを拡大するのではなく、スプリットラインの位置を変更させたい場合がある。   In the digital camera disclosed in Patent Document 5, the position of the split image is changed. After the angle of view is set so that the image of the subject that the photographer wants to focus with manual focus falls within the split image display area. If the position of the split image changes, there is a problem that the photographer is confused. Further, according to the digital camera of Patent Document 5, the direction of the split line (horizontal / vertical in the dividing direction) is changed, but when the photographer focuses with manual focus, manual operation is performed so as to eliminate, for example, the lateral deviation. However, if the direction of the split line suddenly changes to the vertical direction, the photographer is confused. Further, according to the digital camera of Patent Document 5, the split image is enlarged, but there are cases where it is desired to change the position of the split line instead of enlarging the split image.

例えば、人の顔が主被写体であって、表示画面内の一定の位置に一定のサイズで表示されたスプリットイメージにおいて一定方向に表示されたスプリットラインを基準に、顔画像でピント合わせを行いとき、撮影シーンによっては顔画像の位置にスプリットラインが存在しない場合がある。また、顔画像のうちの特定の位置(例えば目の位置)でピント合わせを行いたい場合があるが、スプリットイメージ内の中央でしかピント合わせすることができない。また、スプリットイメージ内の複数の箇所でピント合わせを行いたい場合があるが、スプリットイメージ内の中央の一箇所でしかピント合わせすることができない。   For example, when focusing on a face image based on a split line displayed in a certain direction in a split image displayed in a certain size at a certain position in the display screen when a human face is the main subject Depending on the shooting scene, there may be no split line at the position of the face image. In addition, there is a case where it is desired to focus at a specific position (for example, eye position) in the face image, but it can be focused only at the center in the split image. In addition, there are cases where it is desired to focus at a plurality of locations in the split image, but it is possible to focus only at one central location in the split image.

本発明の目的は、合焦確認用の画像の位置又はサイズの変更あるいは合焦確認用の画像の分割領域間の境界線の方向を変更しなくても、ユーザの手動によるフォーカス操作を安易にすることが可能になる撮像装置及び合焦確認表示方法を提供することにある。   An object of the present invention is to make it easy for a user to perform a manual focus operation without changing the position or size of an in-focus confirmation image or changing the direction of a boundary line between divided areas of the in-focus confirmation image. It is an object of the present invention to provide an imaging apparatus and a focus confirmation display method that can be performed.

上記の目的を達成するために、本発明は、撮影レンズにおける第1及び第2の領域を通過した被写体光が瞳分割されてそれぞれ入射される第1及び第2の画素群を有する撮像素子から出力された画像に基づいて第1の表示用画像を生成し、かつ第1及び第2の画素群からそれぞれ出力された第1の画像及び第2の画像に基づいて合焦確認に使用する第2の表示用画像を生成する画像生成手段と、第2の表示用画像における第1の画像と第2の画像との境界の位置を境界と直交する方向において変更する境界変更手段と、境界変更手段により変更された境界で分割される第2の表示用画像内の複数の分割領域のそれぞれにおいて、第1の画像及び第2の画像のいずれかを選択する選択手段と、表示手段と、第1の表示用画像を表示手段に表示させ、第1の表示用画像の表示領域内に、境界変更手段によって境界の位置が変更された第2の表示用画像を表示させる表示制御手段と、を備えた撮像装置を提供する。   In order to achieve the above object, the present invention provides an imaging device having first and second pixel groups into which subject light that has passed through first and second regions in a photographing lens is divided into pupils and incident. A first display image is generated based on the output image, and used for focus confirmation based on the first image and the second image output from the first and second pixel groups, respectively. Image generation means for generating two display images, boundary change means for changing the position of the boundary between the first image and the second image in the second display image in a direction perpendicular to the boundary, and boundary change Selecting means for selecting one of the first image and the second image in each of the plurality of divided areas in the second display image divided at the boundary changed by the means; display means; 1 display image is displayed on the display means. , In the display area of the first display image, to provide an imaging apparatus and a display control means for displaying the second display image position of the boundary is changed by the boundary changing means.

これによれば、合焦確認に使用する第2の表示用画像(スプリットイメージ)内の境界(スプリットライン)の位置が境界と直交する方向において変更されるので、第2の表示用画像(スプリットイメージ)の位置又はサイズの変更あるいは境界の方向を変更しなくても、ユーザの手動によるフォーカス操作を安易にすることが可能になる。   According to this, since the position of the boundary (split line) in the second display image (split image) used for focusing confirmation is changed in the direction orthogonal to the boundary, the second display image (split The user can easily perform the focus operation without changing the position or size of the image) or changing the direction of the boundary.

一実施形態では、第2の表示用画像内の境界の位置の変更指示を入力する位置入力手段を備え、境界変更手段は、表示手段に表示させる第2の表示用画像内の境界の位置を、位置入力手段によって入力された位置の変更指示に応じて変更する。これによれば、境界(スプリットライン)の位置の変更指示を入力することにより、ピント合わせをどこで行うかを変更できるようになる。   In one embodiment, the image processing apparatus includes position input means for inputting an instruction to change the position of the boundary in the second display image, and the boundary change means determines the position of the boundary in the second display image to be displayed on the display means. The position is changed according to the position change instruction input by the position input means. According to this, it is possible to change where the focusing is performed by inputting an instruction to change the position of the boundary (split line).

一実施形態では、表示手段は、タッチパネル式の表示手段であり、位置入力手段は、タッチパネル式の表示手段によって構成され、境界変更手段は、表示手段に第2の表示用画像が表示された状態で第2の表示用画像の境界をドラッグするドラッグ操作がタッチパネル式の表示手段で行われたとき、ドラッグ操作に合わせて第2の表示用画像内の境界の位置を変更する。   In one embodiment, the display means is a touch panel type display means, the position input means is constituted by a touch panel type display means, and the boundary changing means is a state in which the second display image is displayed on the display means. When the drag operation for dragging the boundary of the second display image is performed by the touch panel type display means, the position of the boundary in the second display image is changed in accordance with the drag operation.

一実施形態では、第2の表示用画像内の境界の数を入力する数入力手段を備え、境界変更手段は、表示手段に表示される第2の表示用画像内の境界の数を、数入力手段によって入力された数の変更指示に応じて変更する。これによれば、境界(スプリットライン)の数を入力することにより、第2の表示用画像(スプリットイメージ)のどこでピントが合っているのか分かり易くすることが可能になる。   In one embodiment, it comprises number input means for inputting the number of boundaries in the second display image, and the boundary changing means calculates the number of boundaries in the second display image displayed on the display means. The number is changed according to the change instruction input by the input means. According to this, by inputting the number of boundaries (split lines), it is possible to easily understand where the focus is in the second display image (split image).

一実施形態にて、境界変更手段は、入力された境界の数Lが奇数であった場合、L本の境界のうち第(L+1)/2本目の境界を、第2の表示用画像の中央または第2の表示用画像の中央の近傍に位置させる。これによれば、境界の数がユーザの指定通りに変更になると同時に、境界の数が奇数である場合に中央の境界の位置が第2の表示用画像(スプリットイメージ)の中央または中央近傍に設定されるので、ピント合わせ操作をし易くなる。   In one embodiment, when the number L of input boundaries is an odd number, the boundary changing unit determines the (L + 1) / 2th boundary among the L boundaries as the center of the second display image. Alternatively, it is positioned near the center of the second display image. According to this, the number of boundaries is changed as specified by the user, and at the same time, when the number of boundaries is an odd number, the position of the center boundary is at or near the center of the second display image (split image). Since it is set, it becomes easy to perform the focusing operation.

一実施形態では、境界変更手段は、時間の経過に応じて第2の表示用画像内の境界の位置を移動させる。これによれば、時間の経過に応じて境界(スプリットライン)が合焦確認に使用する第2の表示用画像(スプリットイメージ)内をスキャンするように移動するため、第2の表示用画像(スプリットイメージ)のどこでピントが合っているのか分かり易くなる。   In one embodiment, the boundary changing unit moves the position of the boundary in the second display image as time passes. According to this, since the boundary (split line) moves so as to scan within the second display image (split image) used for in-focus confirmation as time elapses, the second display image ( This makes it easier to see where the focus is in the split image.

一実施形態では、撮影レンズのフォーカス位置の変更操作を行うフォーカス操作手段を備え、境界変更手段は、フォーカス操作手段によってフォーカス位置の変更操作が開始されたとき、第2の表示用画像内の境界の移動を停止させる。これによれば、ピント合わせ操作中はピント合わせ位置を固定させることができ、ユーザはピント合わせ操作をし易くなる。   In one embodiment, a focus operation unit that performs a change operation of the focus position of the photographic lens is provided, and the boundary change unit is configured to change the boundary in the second display image when the focus position change operation is started by the focus operation unit. Stop moving. According to this, the focusing position can be fixed during the focusing operation, and the user can easily perform the focusing operation.

一実施形態では、撮像素子は、被写体光が瞳分割されずに入射される第3の画素群をさらに有し、第1の表示用画像は第3の画素群から出力された第3の画像に基づいて生成される。   In one embodiment, the imaging device further includes a third pixel group on which subject light is incident without being pupil-divided, and the first display image is a third image output from the third pixel group. Is generated based on

一実施形態では、画像生成手段は、第2の表示用画像内に第1の画像と第2の画像とを隣接して配置する。   In one embodiment, the image generation means arranges the first image and the second image adjacent to each other in the second display image.

また、一実施形態では、画像生成手段は、第2の表示用画像内に、第3の画像を第1の画像及び第2の画像に隣接させて配置する。これにより、位相差画像(第1の画像及び第2の画像)と通常画像(第3の画像)との境界でも位相差が生じるため、ピント合わせが容易になる場合がある。   In one embodiment, the image generation unit arranges the third image adjacent to the first image and the second image in the second display image. As a result, a phase difference also occurs at the boundary between the phase difference image (the first image and the second image) and the normal image (the third image), which may facilitate focusing.

また、一実施形態では、画像生成手段は、第2の表示用画像内の第1の方向に第1の画像及び第2の画像を交互に配置し、かつ、第2の表示用画像内の第1の方向と直交する第2の方向に第1の画像及び第2の画像を交互に配置することにより、第2の表示用画像内に第1の画像及び第2の画像を格子状に配置した第2の表示用画像を生成する。これによれば、位相差画像(第1の画像及び第2の画像)が格子状に配置されることによって、ピントが合っているときとピントが外れているときとの画像の差が鮮明になり、ピント合わせが容易になる。   In one embodiment, the image generation unit alternately arranges the first image and the second image in the first direction in the second display image, and the second image in the second display image. By alternately arranging the first image and the second image in a second direction orthogonal to the first direction, the first image and the second image are arranged in a grid pattern in the second display image. The arranged second display image is generated. According to this, the phase difference images (the first image and the second image) are arranged in a lattice shape, so that the difference in image between when the focus is achieved and when the image is out of focus becomes clear. This makes focusing easier.

一実施形態では、撮像素子から出力された画像の解析を行う画像解析手段を備え、境界変更手段は、画像解析手段の解析結果に基づいて、第2の表示用画像内の境界の位置を変更する。これによれば、撮像素子から得られた画像の解析結果に基づいて境界の位置が変更されるため、ユーザは境界の位置を指定しなくても、好ましい位置に境界が変更された第2の表示用画像(スプリットイメージ)を見て、ピント合わせ操作を行うことが可能になる。   In one embodiment, image analysis means for analyzing the image output from the image sensor is provided, and the boundary changing means changes the position of the boundary in the second display image based on the analysis result of the image analysis means. To do. According to this, since the position of the boundary is changed based on the analysis result of the image obtained from the image sensor, the user can change the second boundary whose position has been changed to a preferable position without specifying the position of the boundary. It becomes possible to perform a focusing operation by looking at the display image (split image).

一実施形態では、画像解析手段は、第1の画像の画素と第1の画像の画素に対応する第2の画像の画素との位相差を検出し、境界変更手段は、検出された位相差に基づいて、第2の表示用画像内の境界の位置を変更する。これによれば、ペア画素の位相差に基づいて、ピントがずれているところに境界の位置が変更されるので、ユーザのピント合わせ操作が容易になる。   In one embodiment, the image analysis means detects a phase difference between the first image pixel and the second image pixel corresponding to the first image pixel, and the boundary changing means detects the detected phase difference. Based on the above, the position of the boundary in the second display image is changed. According to this, since the position of the boundary is changed where the focus is shifted based on the phase difference of the paired pixels, the user can easily perform the focusing operation.

一実施形態では、画像解析手段は、画像内のコントラストを検出し、境界変更手段は、検出されたコントラストの検出量に基づいて、第2の表示用画像内の境界の位置を変更する。これによれば、コントラストに基づいて、コントラストが大きくピント合わせをし易いとことに境界の位置が変更さるので、ユーザのピント合わせ操作が容易になる。   In one embodiment, the image analysis means detects the contrast in the image, and the boundary changing means changes the position of the boundary in the second display image based on the detected contrast detection amount. According to this, since the position of the boundary is changed based on the contrast that the contrast is large and it is easy to focus, the user can easily perform the focusing operation.

一実施形態では、画像解析手段は、画像の境界の方向におけるエッジを検出し、境界変更手段は、検出されたエッジの検出量に基づいて、第2の表示用画像内の境界の位置を変更する。これによれば、境界の方向におけるエッジの検出量に基づいて、ピント合わせをし易いところに境界の位置が変更されるので、ユーザのピント合わせ操作が容易になる。   In one embodiment, the image analysis unit detects an edge in the direction of the boundary of the image, and the boundary changing unit changes the position of the boundary in the second display image based on the detected amount of the detected edge. To do. According to this, since the position of the boundary is changed to a position where focusing is easy based on the detection amount of the edge in the boundary direction, the user's focusing operation is facilitated.

一実施形態では、画像解析手段は、画像内の特定対象を検出し、境界変更手段は、第2の表示用画像内の境界を、検出された特定対象の位置に設定する。これによれば、主要被写体と思われる特定対象の部分に境界の位置が設定されるので、ピント合わせ操作を容易に行えるようにすることが可能になる。   In one embodiment, the image analysis means detects a specific object in the image, and the boundary changing means sets the boundary in the second display image to the position of the detected specific object. According to this, since the position of the boundary is set to the part of the specific target that seems to be the main subject, it becomes possible to easily perform the focusing operation.

一実施形態では、表示制御手段は、境界の近傍に、境界の位置を示す指標を表示させる。これによれば、境界の位置または数が変更になっても、境界の位置を示す指標を見ながら、ピント合わせを容易に行うことができる。   In one embodiment, the display control means displays an index indicating the position of the boundary in the vicinity of the boundary. According to this, even if the position or number of the boundary is changed, focusing can be easily performed while viewing the index indicating the position of the boundary.

尚、撮像素子の画素のフィルタ配列は特に限定されない。例えば、撮像素子は、ベイヤ配列からなる画素配列の一部に、複数の第1画素と複数の第2画素が配置されている。また、例えば、撮像素子は、非ベイヤ配列の基本配列パターンを第1の方向及び第2の方向に繰り返し配列した画素配列の一部に、複数の第1画素及び複数の第2画素が配置されている。また、例えば、撮像素子は、同色画素をずらして配置した2面の配列からなる画素配列の一部に、複数の第1画素及び複数の第2画素が配置され、かつ、ペア画素の第1画素と第2画素とが隣接して配置されている。   The filter arrangement of the pixels of the image sensor is not particularly limited. For example, in the imaging device, a plurality of first pixels and a plurality of second pixels are arranged in a part of a pixel array composed of a Bayer array. In addition, for example, in the imaging device, a plurality of first pixels and a plurality of second pixels are arranged in a part of a pixel array in which a non-Bayer array basic array pattern is repeatedly arranged in the first direction and the second direction. ing. In addition, for example, in the imaging device, a plurality of first pixels and a plurality of second pixels are arranged in a part of a pixel arrangement including two arrangements in which pixels of the same color are arranged to be shifted, and the first of the paired pixels. The pixel and the second pixel are arranged adjacent to each other.

また、本発明は、撮影レンズにおける第1及び第2の領域を通過した被写体光が瞳分割されてそれぞれ入射される第1及び第2の画素群を有する撮像素子と、表示手段とを用い、撮像素子から出力された画像に基づいて生成した第1の表示用画像を表示手段に表示させ、第1の表示用画像の表示領域内に、第1及び第2の画素群からそれぞれ出力された第1の画像及び第2の画像に基づいて生成した合焦確認に使用する第2の表示用画像を表示させる合焦確認表示方法であって、第2の表示用画像における第1の画像と第2の画像との境界の位置を境界と直交する方向において変更し、変更された境界で分割される第2の表示用画像内の複数の分割領域のそれぞれにおいて、第1の画像及び第2の画像のいずれかを選択し、第1の表示用画像の表示領域内に、境界の位置が変更された第2の表示用画像を表示させる合焦確認表示方法を提供する。   In addition, the present invention uses an imaging element having first and second pixel groups into which subject light that has passed through the first and second regions in the photographing lens is divided into pupils, and a display unit. The first display image generated based on the image output from the image sensor is displayed on the display means, and is output from the first and second pixel groups in the display area of the first display image, respectively. An in-focus confirmation display method for displaying a second display image used for in-focus confirmation generated based on a first image and a second image, the first image in the second display image, The position of the boundary with the second image is changed in a direction orthogonal to the boundary, and the first image and the second image are respectively displayed in the plurality of divided areas in the second display image divided by the changed boundary. The first display image is selected by selecting one of the images In the display area, to provide a focus confirmation display method for displaying the second display image position of the boundary is changed.

本発明によれば、合焦確認用の画像の位置又はサイズの変更あるいは合焦確認用の画像の分割領域間の境界線の方向を変更しなくても、ユーザの手動によるフォーカス操作を安易にすることが可能になる。   According to the present invention, the user can easily perform a manual focus operation without changing the position or size of the focus confirmation image or changing the direction of the boundary line between the divided areas of the focus confirmation image. It becomes possible to do.

図1はデジタルカメラの正面斜視図である。FIG. 1 is a front perspective view of a digital camera. 図2はデジタルカメラの背面斜視図である。FIG. 2 is a rear perspective view of the digital camera. 図3はデジタルカメラの電気的構成図である。FIG. 3 is an electrical configuration diagram of the digital camera. 図4は撮像素子の撮像面の正面図である。FIG. 4 is a front view of the imaging surface of the imaging device. 図5は撮像素子の断面図である。FIG. 5 is a cross-sectional view of the image sensor. 図6は第1〜第5実施形態のデジタルカメラの画像処理に関するブロック図である。FIG. 6 is a block diagram relating to image processing of the digital camera of the first to fifth embodiments. 図7は選択部の画素の選択の説明に用いる説明図である。FIG. 7 is an explanatory diagram used for explaining selection of a pixel in the selection unit. 図8はフォーカスレンズが合焦位置にセットされているときの合焦確認画像の概略図である。FIG. 8 is a schematic diagram of an in-focus confirmation image when the focus lens is set at the in-focus position. 図9はフォーカスレンズが合焦位置にセットされていないときの合焦確認画像の概略図である。FIG. 9 is a schematic diagram of an in-focus confirmation image when the focus lens is not set at the in-focus position. 図10はデジタルカメラの撮影処理の流れを示すフローチャートである。FIG. 10 is a flowchart showing a flow of photographing processing of the digital camera. 図11は第1実施形態における合焦確認画像表示処理例の流れを示すフローチャートである。FIG. 11 is a flowchart showing the flow of an in-focus confirmation image display process example in the first embodiment. 図12は第1実施形態における合焦確認画像例の境界線の位置の変更の説明に用いる説明図である。FIG. 12 is an explanatory diagram used for explaining the change of the position of the boundary line of the in-focus confirmation image example in the first embodiment. 図13は第1実施形態における画素の選択の説明に用いる第1の説明図である。FIG. 13 is a first explanatory diagram used for explaining selection of a pixel in the first embodiment. 図14は第1実施形態における画素の選択の説明に用いる第2の説明図である。FIG. 14 is a second explanatory diagram used for explaining selection of a pixel in the first embodiment. 図15は第1実施形態における画素の選択の説明に用いる第3の説明図である。FIG. 15 is a third explanatory diagram used for explaining selection of a pixel in the first embodiment. 図16は第2実施形態における合焦確認画像表示処理例の流れを示すフローチャートである。FIG. 16 is a flowchart showing the flow of an in-focus confirmation image display process example in the second embodiment. 図17は第2実施形態における合焦確認画像例の境界線の数の変更の説明に用いる説明図である。FIG. 17 is an explanatory diagram used for explaining the change in the number of boundary lines in the in-focus confirmation image example in the second embodiment. 図18は第3実施形態における合焦確認画像表示処理例の流れを示すフローチャートである。FIG. 18 is a flowchart showing a flow of an in-focus confirmation image display process example in the third embodiment. 図19は第4実施形態における合焦確認画像表示処理例の流れを示すフローチャートである。FIG. 19 is a flowchart showing a flow of an in-focus confirmation image display process example in the fourth embodiment. 図20は第4実施形態における合焦確認画像例の境界線の位置の変更の説明に用いる説明図である。FIG. 20 is an explanatory diagram used for explaining the change of the position of the boundary line of the in-focus confirmation image example in the fourth embodiment. 図21は第5実施形態における合焦確認画像表示処理例の流れを示すフローチャートである。FIG. 21 is a flowchart showing the flow of an in-focus confirmation image display process example in the fifth embodiment. 図22は第6実施形態のデジタルカメラの画像処理に関するブロック図である。FIG. 22 is a block diagram relating to image processing of the digital camera of the sixth embodiment. 図23は第6実施形態における合焦確認画像表示処理例の流れを示すフローチャートである。FIG. 23 is a flowchart showing the flow of an in-focus confirmation image display process example in the sixth embodiment. 図24は第6実施形態における非合焦状態の合焦確認画像を示す図である。FIG. 24 is a diagram showing an in-focus confirmation image in the out-of-focus state according to the sixth embodiment. 図25は第6実施形態における合焦状態の合焦確認画像を示す図である。FIG. 25 is a diagram showing an in-focus confirmation image in the in-focus state according to the sixth embodiment. 図26は第7実施形態における合焦状態の合焦確認画像を示す図である。FIG. 26 is a diagram showing an in-focus confirmation image in the seventh embodiment. 図27は第7実施形態における合焦確認画像生成の説明に用いる説明図である。FIG. 27 is an explanatory diagram used for explaining the focus confirmation image generation in the seventh embodiment. 図28は第8実施形態における合焦状態の合焦確認画像を示す図である。FIG. 28 is a diagram showing an in-focus confirmation image in the in-focus state according to the eighth embodiment. 図29は第8実施形態における合焦確認画像生成の説明に用いる説明図である。FIG. 29 is an explanatory diagram used for explaining the focus confirmation image generation in the eighth embodiment. 図30はベイヤ配列の撮像素子の撮像面の正面図である。FIG. 30 is a front view of the imaging surface of the Bayer array image sensor. 図31は同色画素をずらした2面配列の撮像素子の撮像面の正面図である。FIG. 31 is a front view of an image pickup surface of a two-sided image pickup device in which pixels of the same color are shifted. 図32はスマートフォンの斜視図である。FIG. 32 is a perspective view of the smartphone. 図33はスマートフォンの構成図である。FIG. 33 is a configuration diagram of a smartphone.

以下、添付図面に従って、本発明の実施形態について、詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[デジタルカメラの構成例]
図1に示すように、本発明の撮像装置の一例であるデジタルカメラ2のカメラ本体2aの前面には、撮像光学系などを含んで構成されるレンズ鏡筒3、ストロボ発光部5などが設けられている。カメラ本体2aの上面には、シャッタボタン6、電源スイッチ7などが設けられている。レンズ鏡筒3の外周面には、マニュアルフォーカス(以下、単に「MF」という)操作に用いられるフォーカスリング(レンズ移動機構)3aが回転自在に取り付けられている。
[Example of digital camera configuration]
As shown in FIG. 1, a lens barrel 3 including an imaging optical system, a strobe light emitting unit 5 and the like are provided on the front surface of a camera body 2a of a digital camera 2 which is an example of an imaging apparatus of the present invention. It has been. A shutter button 6, a power switch 7, and the like are provided on the upper surface of the camera body 2a. A focus ring (lens moving mechanism) 3 a used for manual focus (hereinafter simply referred to as “MF”) operation is rotatably attached to the outer peripheral surface of the lens barrel 3.

図2に示すように、カメラ本体2aの背面には表示部8、操作部9が設けられている。表示部8は、撮影待機状態時には電子ビューファインダとして機能し、ライブビュー画像(スルー画ともいう)を表示する。また、画像再生時にはメモリカード10に記録されている画像データに基づき、表示部8に画像が再生表示される。   As shown in FIG. 2, a display unit 8 and an operation unit 9 are provided on the back surface of the camera body 2a. The display unit 8 functions as an electronic viewfinder in a shooting standby state, and displays a live view image (also referred to as a through image). At the time of image reproduction, the image is reproduced and displayed on the display unit 8 based on the image data recorded on the memory card 10.

操作部9は、各種のスイッチから構成されている。本例の操作部9は、モード切替スイッチ、十字キー、実行キーなどから構成されている。モード切替スイッチは、デジタルカメラ2の動作モードを切り替える際に操作される。デジタルカメラ2は、被写体を撮像して撮像画像を得る撮影モード、撮像画像を再生表示する再生モードなどを有する。また、撮影モードには、オートフォーカス(以下、単に「AF」という)を行うAFモード、及びMF操作を行うMFモードがある。   The operation unit 9 includes various switches. The operation unit 9 in this example includes a mode switch, a cross key, an execution key, and the like. The mode switch is operated when switching the operation mode of the digital camera 2. The digital camera 2 has a shooting mode for capturing a captured image by capturing a subject, a playback mode for reproducing and displaying the captured image, and the like. The shooting mode includes an AF mode for performing autofocus (hereinafter simply referred to as “AF”) and an MF mode for performing MF operation.

十字キー及び実行キーは、各種の操作に用いられる。本例の十字キー及び実行キーは、MFモードにおいて、後述の合焦確認画像の表示時に、スプリットライン(以下、「境界線」又は単に「境界」ということもある)の位置、数、形状などの変更指示の入力を受け付けるデバイス(位置入力部手段、数入力手段)として用いられる。また、十字キー及び実行キーは、表示部8にメニュー画面や設定画面を表示したり、これらメニュー画面や設定画面内に表示されるカーソルを移動したり、デジタルカメラ2の各種設定を確定したりする際などに操作される。   The cross key and the execution key are used for various operations. The cross key and execution key in this example are the position, number, shape, and the like of the split line (hereinafter also referred to as “boundary line” or simply “boundary”) when the focus confirmation image described later is displayed in the MF mode. It is used as a device (position input unit means, number input means) that accepts input of change instructions. The cross key and the execution key display a menu screen or a setting screen on the display unit 8, move a cursor displayed in the menu screen or the setting screen, or determine various settings of the digital camera 2. It is operated when doing.

カメラ本体2aの底面には、図示は省略するが、メモリカード10が装填されるカードスロットと、このカードスロットの開口を開閉する装填蓋とが設けられている。   Although not shown, a card slot into which the memory card 10 is loaded and a loading lid that opens and closes the opening of the card slot are provided on the bottom surface of the camera body 2a.

図3に示すように、デジタルカメラ2のCPU11は、操作部9からの制御信号に基づき、メモリ13から読み出した各種プログラムやデータを逐次実行して、デジタルカメラ2の各部を統括的に制御する。尚、メモリ13のRAM領域は、CPU11が処理を実行するためのワークメモリや、各種データの一時保管先として機能する。 レンズ鏡筒3には、ズームレンズ15及びフォーカスレンズ16を含む撮影レンズ17、メカシャッタ18などが組み込まれている。ズームレンズ15及びフォーカスレンズ16は、それぞれズーム機構19、フォーカス機構20により駆動され、撮影レンズ17の光軸O1に沿って前後移動される。ズーム機構19及びフォーカス機構20は、ギアやモータなどで構成されている。また、フォーカス機構20は、図示しないギアを介してフォーカスリング3a(フォーカス操作部)と接続している。このため、フォーカス機構20は、MFモード時にフォーカスリング3aが回転操作されることに伴い、フォーカスレンズ16を光軸O1の方向(以下、「光軸方向」という)に沿って移動させる。つまり、フォーカスリング3aにより、撮影レンズ17のフォーカスレンズの位置(フォーカス位置)を変更するフォーカス操作を行う。   As shown in FIG. 3, the CPU 11 of the digital camera 2 executes various programs and data read from the memory 13 sequentially based on a control signal from the operation unit 9 to control each unit of the digital camera 2 in an integrated manner. . The RAM area of the memory 13 functions as a work memory for the CPU 11 to execute processing and a temporary storage destination for various data. The lens barrel 3 incorporates a photographing lens 17 including a zoom lens 15 and a focus lens 16, a mechanical shutter 18, and the like. The zoom lens 15 and the focus lens 16 are driven by the zoom mechanism 19 and the focus mechanism 20, respectively, and are moved back and forth along the optical axis O1 of the photographing lens 17. The zoom mechanism 19 and the focus mechanism 20 are configured by gears, motors, and the like. The focus mechanism 20 is connected to the focus ring 3a (focus operation unit) through a gear (not shown). For this reason, the focus mechanism 20 moves the focus lens 16 along the direction of the optical axis O1 (hereinafter referred to as “optical axis direction”) as the focus ring 3a is rotated in the MF mode. That is, a focus operation for changing the position (focus position) of the focus lens of the photographing lens 17 is performed by the focus ring 3a.

メカシャッタ18は、撮像素子23への被写体光の入射を阻止する閉じ位置と、被写体光の入射を許容する開き位置との間で移動する可動部(図示は省略)を有する。メカシャッタ18は、可動部を各位置に移動させることによって、撮影レンズ17から撮像素子23へと至る光路を開放/遮断する。また、メカシャッタ18には、撮像素子23に入射する被写体光の光量を制御する絞りが含まれている。メカシャッタ18、ズーム機構19、及びフォーカス機構20は、レンズドライバ25を介してCPU11によって動作制御される。   The mechanical shutter 18 has a movable part (not shown) that moves between a closed position where the object light is prevented from entering the image sensor 23 and an open position where the object light is allowed to enter. The mechanical shutter 18 opens / blocks the optical path from the photographing lens 17 to the image sensor 23 by moving the movable part to each position. Further, the mechanical shutter 18 includes a diaphragm for controlling the amount of subject light incident on the image sensor 23. The mechanical shutter 18, zoom mechanism 19, and focus mechanism 20 are controlled by the CPU 11 via a lens driver 25.

メカシャッタ18の背後には、撮像素子23(以下単に「撮像素子」という)が配置されている。撮像素子23は、撮影レンズ17等を通過した被写体光を電気的な出力信号に変換して出力する。尚、撮像素子23は、CCD(Charge Coupled Device)型撮像素子、CMOS(Complementary Metal Oxide Semiconductor)型撮像素子などの各種類の撮像素子であってもよい。撮像素子ドライバ27は、CPU11の制御の下で撮像素子23の駆動を制御する。   An image sensor 23 (hereinafter simply referred to as “image sensor”) is disposed behind the mechanical shutter 18. The image sensor 23 converts the subject light that has passed through the photographing lens 17 and the like into an electrical output signal and outputs it. The image pickup device 23 may be any type of image pickup device such as a charge coupled device (CCD) type image pickup device or a complementary metal oxide semiconductor (CMOS) type image pickup device. The image sensor driver 27 controls driving of the image sensor 23 under the control of the CPU 11.

画像処理回路29は、撮像素子23からの出力信号(出力)に対して階調変換、ホワイトバランス補正、γ補正処理などの各種処理を施して撮像画像データを生成する。また、画像処理回路29は、MFモード時には、撮像画像データの他にMF操作用のスプリットイメージデータ(以下「合焦確認画像」ともいう)を生成する。撮像画像データやスプリットイメージデータは、メモリ13のVRAM領域(VRAMを別途設けても可)に一時的に格納される。VRAM領域は、連続した2フィールド画分を記憶するライブビュー画像用のメモリエリアを有しており、撮像画像データやスプリットイメージデータを逐次上書き格納する。   The image processing circuit 29 performs various processes such as gradation conversion, white balance correction, and γ correction processing on the output signal (output) from the image sensor 23 to generate captured image data. In the MF mode, the image processing circuit 29 generates split image data for MF operation (hereinafter also referred to as “focus confirmation image”) in addition to the captured image data. The captured image data and split image data are temporarily stored in the VRAM area of the memory 13 (a VRAM may be provided separately). The VRAM area has a memory area for live view images that stores two continuous field fractions, and sequentially stores captured image data and split image data.

圧縮伸長処理回路31は、シャッタボタン6が押下操作されたときに、VRAM領域に格納された撮像画像データに対して圧縮処理を施す。また、圧縮伸長処理回路31は、メディアI/F32を介してメモリカード10から得られた圧縮画像データに対して伸長処理を施す。メディアI/F32は、メモリカード10に対する撮像画像データの記録及び読み出しなどを行う。   The compression / decompression processing circuit 31 performs compression processing on the captured image data stored in the VRAM area when the shutter button 6 is pressed. The compression / decompression processing circuit 31 performs decompression processing on the compressed image data obtained from the memory card 10 via the media I / F 32. The media I / F 32 records and reads captured image data with respect to the memory card 10.

表示制御部33は、撮影モード時にはVRAM領域に格納された撮像画像データやスプリットイメージデータを読み出して表示部8へ逐次出力する。また、表示制御部33は、再生モード時には圧縮伸長処理回路31で伸長された撮像画像データを表示部8へ出力する。   The display control unit 33 reads captured image data and split image data stored in the VRAM area and sequentially outputs them to the display unit 8 in the shooting mode. Further, the display control unit 33 outputs the captured image data expanded by the compression / decompression processing circuit 31 to the display unit 8 in the reproduction mode.

表示部8は、本発明における「表示手段」を構成する。また、操作部9は、本発明における「位置入力手段」及び「数入力手段」を構成する。また、画像処理回路29及びCPU11は、本発明における「画像生成手段」、「境界変更手段」、「選択手段」、「画像解析手段」を構成する。また、CPU11は、「位置入力手段」及び「数入力手段」を構成する場合がある。また、表示制御部33は、本発明における「表示制御手段」を構成する。   The display unit 8 constitutes “display means” in the present invention. The operation unit 9 constitutes “position input means” and “number input means” in the present invention. Further, the image processing circuit 29 and the CPU 11 constitute “image generation means”, “boundary change means”, “selection means”, and “image analysis means” in the present invention. Further, the CPU 11 may constitute “position input means” and “number input means”. The display control unit 33 constitutes “display control means” in the present invention.

<カラー撮像素子の構成>
図4に示すように、撮像素子23の撮像面23a(図3参照)上には、赤(R)色のR画素35と、緑(G)色のG画素36と、青(B)色のB画素37とがマトリックス状に配列されている。各色画素35、36、37は、被写体光が瞳分割されずに結像される通常画素であり、光電変換素子39(図5参照)と、光電変換素子39の上方に配置された3原色のいずれかのカラーフィルタ40(図5参照)とを含んで構成されている。つまり、各色画素35〜37は、カラーフィルタ40付きの非瞳分割の光電変換素子ともいえる。尚、「〜上」、「上方」とは、図5中の半導体基板45からマイクロレンズ49に向かう方向(図中上方向)を指す。
<Configuration of color image sensor>
As shown in FIG. 4, on the imaging surface 23a (see FIG. 3) of the image sensor 23, a red (R) R pixel 35, a green (G) G pixel 36, and a blue (B) color. B pixels 37 are arranged in a matrix. Each of the color pixels 35, 36, and 37 is a normal pixel on which subject light is imaged without being divided into pupils, and includes a photoelectric conversion element 39 (see FIG. 5) and three primary colors arranged above the photoelectric conversion element 39. One of the color filters 40 (see FIG. 5) is included. That is, it can be said that each of the color pixels 35 to 37 is a non-pupil divided photoelectric conversion element with the color filter 40. Note that “upper” and “upper” indicate directions from the semiconductor substrate 45 to the microlens 49 in FIG. 5 (upward direction in the drawing).

R画素35、G画素36、B画素37の各光電変換素子39上には、それぞれR色,G色,B色のカラーフィルタ40が設けられる。   On the photoelectric conversion elements 39 of the R pixel 35, the G pixel 36, and the B pixel 37, color filters 40 of R color, G color, and B color are provided, respectively.

撮像素子23のカラーフィルタ配列(画素配列)は、下記の特徴(1)、(2)、(3)、(4)、(5)、及び(6)を有している。   The color filter array (pixel array) of the image sensor 23 has the following features (1), (2), (3), (4), (5), and (6).

〔特徴(1)〕
カラーフィルタ配列は、6×6画素に対応する正方配列パターンからなる非ベイヤ配列の基本配列パターンPを含み、この基本配列パターンPが水平方向及び垂直方向に繰り返し配置されている。
[Feature (1)]
The color filter array includes a non-Bayer array basic array pattern P composed of square array patterns corresponding to 6 × 6 pixels, and the basic array pattern P is repeatedly arranged in the horizontal direction and the vertical direction.

このようにRGBのカラーフィルタ40が所定の周期性をもって配列されているため、従来知られているランダム配列と比較して、撮像素子23から読み出されるR、G、B信号の同時化(補間)処理(デモザイク処理)等を行う際に、繰り返しパターンにしたがって処理を行うことができる。また、基本配列パターンPの単位で間引き処理して画像を縮小する場合、間引き処理後のカラーフィルタ配列は、間引き処理前のカラーフィルタ配列と同じにすることができ、共通の処理回路を使用することができる。   Since the RGB color filters 40 are arranged with a predetermined periodicity as described above, R, G, and B signals read from the image sensor 23 are synchronized (interpolated) as compared with a conventionally known random arrangement. When performing processing (demosaic processing) or the like, processing can be performed according to a repeated pattern. When the image is reduced by thinning out in units of the basic arrangement pattern P, the color filter array after the thinning process can be the same as the color filter array before the thinning process, and a common processing circuit is used. be able to.

〔特徴(2)〕
カラーフィルタ配列は、輝度信号を得るために最も寄与する色(この実施形態では、Gの色)に対応するG色のカラーフィルタが、カラーフィルタ配列の水平、垂直、及び斜め方向(斜め右上及び斜め左下方向、斜め右下及び斜め左上方向)方向の各ライン内に1つ以上配置されている。
[Feature (2)]
In the color filter array, the G color filter corresponding to the color that contributes most to obtain the luminance signal (G color in this embodiment) corresponds to the horizontal, vertical, and diagonal directions (diagonally upper right and One or more lines are arranged in each line in the direction of diagonally lower left, diagonally lower right, and diagonally upper left.

このようにG色のカラーフィルタが、カラーフィルタ配列の水平、垂直、及び斜め方向の各ライン内に配置されるため、高周波となる方向によらず高周波領域での画素補間処理(同時化処理等)の再現精度を向上させることができる。   Since the G color filters are arranged in the horizontal, vertical, and diagonal lines of the color filter array in this way, pixel interpolation processing (synchronization processing, etc.) in the high-frequency region is performed regardless of the high-frequency direction. ) Reproduction accuracy can be improved.

〔特徴(3)〕
基本配列パターンPは、R画素35、G画素36、B画素37の画素数が、それぞれ8画素、20画素、8画素となる。すなわち、RGB画素35〜37の各画素数の比率は2:112であり、G画素36の画素数の比率は他の色のR画素35、B画素37の各々の画素数の比率よりも大きくなる。
[Feature (3)]
In the basic array pattern P, the numbers of R pixels 35, G pixels 36, and B pixels 37 are 8 pixels, 20 pixels, and 8 pixels, respectively. That is, the ratio of the number of pixels of the RGB pixels 35 to 37 is 2: 112, and the ratio of the number of pixels of the G pixel 36 is larger than the ratio of the number of pixels of the R pixel 35 and the B pixel 37 of other colors. Become.

このようにG画素36の画素数とR,B画素35、37の画素数との比率が異なり、特に輝度信号を得るために最も寄与するG画素36の画素数の比率を、R,B画素35、37の画素数の比率よりも大きくするようにしたため、画素補間処理(同時化処理等)時におけるエリアシングを抑制することができるとともに、高周波再現性もよくすることができる。   Thus, the ratio between the number of G pixels 36 and the number of R and B pixels 35 and 37 is different, and in particular, the ratio of the number of G pixels 36 that contributes most to obtain a luminance signal is represented by R and B pixels. Since the ratio is larger than the ratio of the number of pixels 35 and 37, aliasing during pixel interpolation processing (synchronization processing or the like) can be suppressed, and high-frequency reproducibility can be improved.

〔特徴(4)〕
カラーフィルタ配列は、G色以外の2色以上の他の色(この実施形態では、R,Bの色)に対応するR色及びB色のカラーフィルタ40が、基本配列パターンP内においてカラーフィルタ配列の水平、及び垂直方向の各ライン内に1つ以上配置されている。
[Feature (4)]
The color filter array includes R and B color filters 40 corresponding to two or more other colors (in this embodiment, R and B colors) other than the G color in the basic array pattern P. One or more are arranged in each horizontal and vertical line of the array.

R色及びB色のカラーフィルタ40がそれぞれカラーフィルタ配列の水平、及び垂直方向の各ライン内に配置されるため、色モワレ(偽色)の発生を低減することができる。これにより、偽色の発生を抑制するための光学ローパスフィルタを光学系の入射面から撮像面までの光路に配置しないようにでき、または光学ローパスフィルタを適用する場合でも偽色の発生を防止するための高周波数成分をカットする働きの弱いものを適用することができ、解像度を損なわないようにすることができる。   Since the R color filter 40 and the B color filter 40 are arranged in the horizontal and vertical lines of the color filter array, respectively, occurrence of color moire (false color) can be reduced. As a result, an optical low-pass filter for suppressing the generation of false colors can be prevented from being arranged in the optical path from the incident surface of the optical system to the imaging surface, or the occurrence of false colors can be prevented even when the optical low-pass filter is applied. Therefore, it is possible to apply a low-frequency component for cutting high-frequency components, and not to impair the resolution.

〔特徴(5)〕
カラーフィルタ配列は、G色のカラーフィルタ40が設けられた2×2のG画素36に対応する正方配列を含んでいる。このような2×2のG画素36を取り出し、水平方向のG画素36の画素値の差分絶対値、垂直方向のG画素36の画素値の差分絶対値、斜め方向のG画素36の画素値の差分絶対値を求めることで、水平方向、垂直方向、及び斜め方向のうち、差分絶対値の小さい方向に相関があると判断することができる。
[Feature (5)]
The color filter array includes a square array corresponding to 2 × 2 G pixels 36 provided with the G color filter 40. Such a 2 × 2 G pixel 36 is taken out, the difference absolute value of the pixel value of the G pixel 36 in the horizontal direction, the absolute value of the difference of the pixel value of the G pixel 36 in the vertical direction, and the pixel value of the G pixel 36 in the oblique direction It is possible to determine that there is a correlation in the direction in which the difference absolute value is small among the horizontal direction, the vertical direction, and the diagonal direction.

すなわち、このカラーフィルタ配列によれば、最小画素間隔のG画素36の情報を使用して、水平方向、垂直方向、及び斜め方向のうちの相関の高い方向判別ができる。この方向判別結果は、周辺の画素から補間する補間処理(同時化処理等)に使用することができる。   That is, according to this color filter arrangement, it is possible to determine the direction with high correlation among the horizontal direction, the vertical direction, and the diagonal direction using the information of the G pixel 36 having the minimum pixel interval. This direction discrimination result can be used for interpolation processing (synchronization processing or the like) for interpolation from surrounding pixels.

〔特徴(6)〕
基本配列パターンPは、その中心(4つのG色のカラーフィルタ40の中心)に対して点対称になっている。また、基本配列パターンP内の4つの3×3のサブ配列も、それぞれ中心のG色のカラーフィルタ40に対して点対称になっている。このような対称性により、後段の処理回路の回路規模を小さくしたり、簡略化したりすることが可能になる。
[Feature (6)]
The basic array pattern P is point-symmetric with respect to its center (the centers of the four G color filters 40). The four 3 × 3 sub-arrays in the basic array pattern P are also point-symmetric with respect to the central G color filter 40. Such symmetry makes it possible to reduce or simplify the circuit scale of the subsequent processing circuit.

〔位相差画素〕
撮像面23aの一部の領域(例えば中央領域)上には、一部のG画素36の代わりに、第1位相差画素36a(図中「丸印中のG1」で表示)、第2位相差画素36b(図中「丸印中のG2」で表示)が設けられている。第1位相差画素36a及び第2位相差画素36bは、撮像素子23の画素配列における複数の垂直列(第2画素列)42と複数の水平行(第1画素列)43とにそれぞれ間隔をあけて交互に設けられている(図中では1つの垂直列42、水平行43に代表して符号を付している)。尚、本明細書では、撮像素子23の各垂直列及び各水平行のうち、位相差画素が設けられる垂直列、水平行にそれぞれ符号「42」、「43」を付している。
(Phase difference pixel)
On the partial area (for example, the central area) of the imaging surface 23a, instead of the partial G pixel 36, the first phase difference pixel 36a (indicated by “G1 in a circle” in the figure), the second position A phase difference pixel 36b (indicated by “G2 in a circle” in the figure) is provided. The first phase difference pixel 36 a and the second phase difference pixel 36 b are spaced apart from each other by a plurality of vertical columns (second pixel columns) 42 and a plurality of horizontal rows (first pixel columns) 43 in the pixel array of the image sensor 23. They are provided alternately (in the figure, one vertical row 42 and a horizontal line 43 are represented by symbols). In the present specification, among the vertical columns and horizontal rows of the image sensor 23, reference numerals “42” and “43” are assigned to the vertical columns and horizontal rows in which the phase difference pixels are provided, respectively.

「複数の垂直列42」は、水平方向(第1の方向)に沿って3画素ピッチ間隔で設けられている。また「複数の水平行43」は、垂直方向(第2の方向)に沿って4画素ピッチ間隔、8画素ピッチ間隔、4画素ピッチ間隔、8画素ピッチ間隔、・・・で設けられている。   The “plural vertical columns 42” are provided at a pitch of 3 pixels along the horizontal direction (first direction). Further, the “plurality of horizontal lines 43” are provided along the vertical direction (second direction) at a 4-pixel pitch interval, an 8-pixel pitch interval, a 4-pixel pitch interval, an 8-pixel pitch interval,.

本実施形態では、第1位相差画素36a及び第2位相差画素36bが、各垂直列42と各水平行43とが交差する位置上において、それぞれ水平方向及び垂直方向に沿って交互に配置される。尚、同じ種類の位相差画素同士(第1位相差画素−第1位相差画素、第2位相差画素−第2位相差画素)の間隔は、垂直方向が12画素ピッチとなり、水平方向が6画素ピッチとなる。   In the present embodiment, the first phase difference pixels 36a and the second phase difference pixels 36b are alternately arranged along the horizontal direction and the vertical direction, respectively, on the positions where the vertical columns 42 and the horizontal rows 43 intersect. The Note that the interval between the same type of phase difference pixels (first phase difference pixel-first phase difference pixel, second phase difference pixel-second phase difference pixel) is 12 pixel pitch in the vertical direction and 6 in the horizontal direction. This is the pixel pitch.

水平行43の断面を示す図5において、半導体基板(sub)45の表層には光電変換素子39がマトリックス状に形成されている。尚、半導体基板45には、図示は省略するが、各画素の駆動や信号出力に用いられる各種回路が設けられている。   In FIG. 5 showing a cross section of the horizontal parallel 43, photoelectric conversion elements 39 are formed in a matrix on the surface layer of the semiconductor substrate (sub) 45. Although not shown, the semiconductor substrate 45 is provided with various circuits used for driving each pixel and outputting signals.

半導体基板45上には光透過性の絶縁膜46が設けられている。絶縁膜46上には遮光膜47が設けられている。遮光膜47は、通常開口47aと第1偏心開口47bと第2偏心開口47cとを有している。第1〜第2偏心開口47b,47cは、通常開口47aよりも開口径が小さく形成されている。   A light transmissive insulating film 46 is provided on the semiconductor substrate 45. A light shielding film 47 is provided on the insulating film 46. The light shielding film 47 has a normal opening 47a, a first eccentric opening 47b, and a second eccentric opening 47c. The first to second eccentric openings 47b and 47c are formed with a smaller opening diameter than the normal opening 47a.

通常開口47aは、RGB画素35〜37の光電変換素子39上に形成されている。また、通常開口47aの中心は光電変換素子39の中心上に位置している。   The normal opening 47 a is formed on the photoelectric conversion elements 39 of the RGB pixels 35 to 37. The center of the normal opening 47 a is located on the center of the photoelectric conversion element 39.

第1偏心開口47bは、第1位相差画素36aの光電変換素子39a上に形成されている。第1偏心開口47bの中心は、その下方の光電変換素子39aの中心に対して図中右方向にずれている。これにより、第1位相差画素36aの光電変換素子39aの略左半分の領域(以下、単に左領域という)は遮光膜47で覆われ、逆に略右半分の領域(以下、単に右領域という)の中央部分は露呈する。   The first eccentric opening 47b is formed on the photoelectric conversion element 39a of the first phase difference pixel 36a. The center of the first eccentric opening 47b is shifted to the right in the figure with respect to the center of the photoelectric conversion element 39a below the first eccentric opening 47b. Thereby, a substantially left half region (hereinafter simply referred to as a left region) of the photoelectric conversion element 39a of the first phase difference pixel 36a is covered with the light shielding film 47, and conversely a substantially right half region (hereinafter simply referred to as a right region). ) Is exposed.

第2偏心開口47cは、第2位相差画素36bの光電変換素子39b上に形成されている。第2偏心開口47cの中心は、その下方の光電変換素子39bの中心に対して図中右方向にずれた位置に形成されている。これにより、第2位相差画素36bの光電変換素子39bの右領域は遮光膜47で覆われ、逆に左領域の中央部分は露呈する。   The second eccentric opening 47c is formed on the photoelectric conversion element 39b of the second phase difference pixel 36b. The center of the second eccentric opening 47c is formed at a position shifted in the right direction in the figure with respect to the center of the photoelectric conversion element 39b below the second eccentric opening 47c. Thereby, the right region of the photoelectric conversion element 39b of the second phase difference pixel 36b is covered with the light shielding film 47, and conversely, the central portion of the left region is exposed.

遮光膜47上には、表面が平坦な光透過性の平坦化層48が設けられている。平坦化層48上には、R、G、Bの各色の画素35〜37にそれぞれ対応する位置にR、G、Bの各色のカラーフィルタ40が設けられている。また、第1及び第2位相差画素36a,36bに対応する位置にはG色のカラーフィルタ40が設けられている。   On the light shielding film 47, a light-transmitting flattening layer 48 having a flat surface is provided. On the planarizing layer 48, color filters 40 of R, G, and B colors are provided at positions corresponding to the R, G, and B color pixels 35 to 37, respectively. A G color filter 40 is provided at a position corresponding to the first and second phase difference pixels 36a and 36b.

各色のカラーフィルタ40上で、かつ光電変換素子39,39a,39bの上方位置には、それぞれマイクロレンズ49が設けられている。尚、カラーフィルタ40とマイクロレンズ49との間にも透光性の平坦層などの各種層が設けられていてもよい。   Microlenses 49 are provided on the color filters 40 of the respective colors and above the photoelectric conversion elements 39, 39a, and 39b. Various layers such as a light-transmitting flat layer may be provided between the color filter 40 and the microlens 49.

RGB画素35〜37上のマイクロレンズ49に図中左斜め方向から入射した被写体光50Lは、マイクロレンズ49により光電変換素子39の右領域に集光される。逆に、マイクロレンズ49に図中右斜め方向から入射した被写体光50Rは、マイクロレンズ49により光電変換素子39の左領域に集光される。このため、RGB画素35〜37は、被写体光50L及び被写体光50Rの両方に対して感度が高くなる。   Subject light 50 </ b> L incident on the microlens 49 on the RGB pixels 35 to 37 from the left oblique direction in the drawing is condensed on the right region of the photoelectric conversion element 39 by the microlens 49. On the contrary, the subject light 50 </ b> R incident on the microlens 49 from the right oblique direction in the drawing is condensed on the left region of the photoelectric conversion element 39 by the microlens 49. For this reason, the RGB pixels 35 to 37 have high sensitivity to both the subject light 50L and the subject light 50R.

第1位相差画素36a上のマイクロレンズ49に入射した被写体光50Lは、マイクロレンズ49により第1偏心開口47bを通して光電変換素子39aの右領域に集光される。逆にマイクロレンズ49に入射した被写体光50Rは、遮光膜47により遮光されるので光電変換素子39の左領域には集光されない。   The subject light 50L incident on the micro lens 49 on the first phase difference pixel 36a is condensed by the micro lens 49 through the first eccentric opening 47b onto the right region of the photoelectric conversion element 39a. Conversely, the subject light 50 </ b> R that has entered the microlens 49 is shielded by the light shielding film 47, and thus is not condensed on the left region of the photoelectric conversion element 39.

第2位相差画素36b上のマイクロレンズ49に入射した被写体光50Rは、マイクロレンズ49により第2偏心開口47cを通して光電変換素子39bの左領域に集光される。逆にマイクロレンズ49に入射した被写体光50Rは、遮光膜47により遮光されるので光電変換素子39の左領域には集光されない。従って、遮光膜47が瞳分割を行う瞳分割部として機能する。尚、遮光膜47(各偏心開口47b、47c)を瞳分割部として機能させる代わりに、マイクロレンズ49を偏心させてもよい。   The subject light 50R incident on the microlens 49 on the second phase difference pixel 36b is condensed by the microlens 49 on the left region of the photoelectric conversion element 39b through the second eccentric opening 47c. Conversely, the subject light 50 </ b> R that has entered the microlens 49 is shielded by the light shielding film 47, and thus is not condensed on the left region of the photoelectric conversion element 39. Therefore, the light shielding film 47 functions as a pupil division unit that performs pupil division. Instead of functioning the light shielding film 47 (the eccentric openings 47b and 47c) as the pupil division part, the microlens 49 may be eccentric.

被写体光50L,50Rは、撮影レンズ17(ズームレンズ15及びフォーカスレンズ16)の左領域17L、右領域17Rをそれぞれ通過した被写体光である。尚、図面の煩雑化を防止するため両レンズ15,16は一体化して図示しており、撮影レンズ17と撮像素子23との大きさも実際とは異ならせている。   The subject lights 50L and 50R are subject lights that have passed through the left region 17L and the right region 17R of the photographing lens 17 (the zoom lens 15 and the focus lens 16), respectively. In order to prevent complication of the drawings, the lenses 15 and 16 are shown as being integrated, and the sizes of the photographing lens 17 and the image pickup device 23 are also different from the actual size.

撮像素子23に入射した被写体光が遮光膜47により瞳分割されることで、第1位相差画素36aは被写体光50Lに対して感度が高くなり、逆に第2位相差画素36bは被写体光50Rに対して感度が高くなる。   The subject light incident on the image sensor 23 is pupil-divided by the light shielding film 47, so that the first phase difference pixel 36a has higher sensitivity to the subject light 50L, and conversely, the second phase difference pixel 36b has the subject light 50R. Sensitivity increases.

[撮像素子の画素(カラーフィルタ付きの光電変換素子)の種別]
本例の撮像素子23は、撮影レンズ17の異なる領域(左領域17L、右領域17R)を通過した被写体光(被写体光50L、被写体光50R)が瞳分割されてそれぞれ入射される複数の第1位相差画素36a(以下「第1画素」という)及び複数の第2位相差画素36b(以下「第2画素」という)と、被写体像が瞳分割されずに結像される複数の通常画素(R画素35、G画素36、B画素37)(以下「第3画素」という)を有する。
[Types of image sensor pixels (photoelectric conversion elements with color filters)]
The image sensor 23 of the present example has a plurality of first light incident on the subject light (subject light 50L, subject light 50R) that has passed through different regions (left region 17L, right region 17R) of the photographing lens 17 and is divided into pupils. A phase difference pixel 36a (hereinafter referred to as “first pixel”), a plurality of second phase difference pixels 36b (hereinafter referred to as “second pixels”), and a plurality of normal pixels (where the subject image is formed without pupil division). R pixel 35, G pixel 36, and B pixel 37) (hereinafter referred to as “third pixel”).

以下では、説明の便宜上、上記の「第1画素」、「第2画素」及び「第3画素」という用語を用いて、画像処理回路29における画像処理を説明する。   Hereinafter, for convenience of explanation, image processing in the image processing circuit 29 will be described using the terms “first pixel”, “second pixel”, and “third pixel”.

<画像処理回路の構成>
図6に示すように、画像処理回路29は、通常処理部52、及びスプリットイメージ処理部54を含んで構成される。スプリットイメージ処理部54は、選択部102、合焦確認画像生成部104、及び選択制御部106を含んで構成される。
<Configuration of image processing circuit>
As shown in FIG. 6, the image processing circuit 29 includes a normal processing unit 52 and a split image processing unit 54. The split image processing unit 54 includes a selection unit 102, a focus confirmation image generation unit 104, and a selection control unit 106.

通常処理部52は、複数の第3画素(R画素35、G画素36、B画素37)によって構成される第3画素群57cの出力信号(出力)である通常画像58c(第3の画像)に対して画像処理を行い、その画像処理が施された通常画像58cをカラーの撮像画像55として出力する。尚、通常画像58cは、本明細書において「第1の表示用画像」ということもある。   The normal processing unit 52 is a normal image 58c (third image) that is an output signal (output) of a third pixel group 57c configured by a plurality of third pixels (R pixel 35, G pixel 36, and B pixel 37). The normal image 58c subjected to the image processing is output as a color captured image 55. Note that the normal image 58c may be referred to as a “first display image” in this specification.

スプリットイメージ処理部54は、複数の第1画素(第1位相差画素36a)によって構成される第1画素群57aの出力信号(出力)である第1の画像58a(「第1位相差画像」ともいう)、及び複数の第2画素(第2位相差画素36b)によって構成される第2画素群57bの出力信号(出力)である第2の画像58b(「第2位相差画像」ともいう)に基づいて、白黒のスプリットイメージ61を生成する。尚、スプリットイメージ61は、本明細書において「合焦確認画像」又は「第2の表示用画像」ということもある。   The split image processing unit 54 includes a first image 58a (“first phase difference image”) that is an output signal (output) of a first pixel group 57a configured by a plurality of first pixels (first phase difference pixels 36a). And a second image 58b (also referred to as “second phase difference image”) that is an output signal (output) of the second pixel group 57b composed of a plurality of second pixels (second phase difference pixels 36b). ) To generate a black and white split image 61. Note that the split image 61 may be referred to as “focus confirmation image” or “second display image” in this specification.

選択部102は、図8及び図9に示すように、スプリットライン63(本明細書では「境界線」又は単に「境界」ということもある)で分割されるスプリットイメージ61(合焦確認画像)内の複数の分割領域(第1の分割画像61Lの領域、第2の分割画像61Rの領域)のそれぞれにおいて、第1の画像58a及び第2の画像58bのいずれかを選択する。つまり、本例の選択部102は、複数の第1画素36aからなる第1画素群57aの出力信号である第1の画像58aと、複数の第2画素36bからなる第2画素群57bの出力信号である第2の画像58bとから、それぞれスプリットイメージ61を構成する表示部分(第1の分割画像61L,第2の分割画像61R)を抽出する。   As shown in FIGS. 8 and 9, the selection unit 102 splits a split image 61 (focus confirmation image) divided by a split line 63 (also referred to as “boundary line” or simply “boundary” in this specification). In each of the plurality of divided areas (the area of the first divided image 61L and the area of the second divided image 61R), one of the first image 58a and the second image 58b is selected. That is, the selection unit 102 of this example outputs the first image 58a that is an output signal of the first pixel group 57a including the plurality of first pixels 36a and the output of the second pixel group 57b including the plurality of second pixels 36b. Display portions (first divided image 61L and second divided image 61R) constituting the split image 61 are extracted from the second image 58b which is a signal.

尚、本明細書中の「スプリットライン」は、スプリットイメージ61内の第1の画像58aの表示部分(第1分割が像61L)と第2の画像58bの表示部分(第2分割画像61R)との単なる「境界」であり、その境界を表す線をスプリットイメージ61内に表示させるわけではない。   The “split line” in this specification refers to the display portion of the first image 58a in the split image 61 (first division is the image 61L) and the display portion of the second image 58b (second division image 61R). And a line representing the boundary is not displayed in the split image 61.

選択部102は、具体的には、図7に示すように、撮像素子23の第1画素群57a及び第2画素群57bからそれぞれ出力された第1の画像58a及び第2の画像58bの各ペア画素PR1について、各ペア画素PR1を構成している第1の画像58aの画素59a(撮像素子23の第1画素36aの画素値を有する)及び第2の画像58bの画素59b(撮像素子23の第2画素36bの画素値を有する)のうち、いずれの画素の画素値をスプリットイメージ61の生成に用いるかの選択を行う。これは、選択部102が、撮像素子23の撮像面23aの各ペア画素PR0から第1画素36a及び第2画素36bのうちいずれかを選択し、選択した画素の画素値をスプリットイメージ61の生成に用いることと、等価である。ここで、第1の画像58a及び第2の画像58b間の各ペア画素PR1は、撮像素子23の撮像面23aにおける各ペア画素PR0に対応している。   Specifically, as illustrated in FIG. 7, the selection unit 102 selects each of the first image 58 a and the second image 58 b output from the first pixel group 57 a and the second pixel group 57 b of the image sensor 23, respectively. For the pair pixel PR1, the pixel 59a (having the pixel value of the first pixel 36a of the image sensor 23) and the pixel 59b (image sensor 23) of the second image 58b constituting each pair pixel PR1. The pixel value of the second pixel 36b) is used to generate the split image 61. This is because the selection unit 102 selects one of the first pixel 36a and the second pixel 36b from each pair pixel PR0 of the imaging surface 23a of the imaging device 23, and generates the split image 61 with the pixel value of the selected pixel. Is equivalent to Here, each pair pixel PR1 between the first image 58a and the second image 58b corresponds to each pair pixel PR0 on the imaging surface 23a of the imaging element 23.

合焦確認画像生成部104は、図8及び図9に示すように、選択部102によって第1の画像58aから抽出された表示部分(第1の分割画像61L)、及び選択部102によって第2の画像58bから抽出された表示部分(第2の分割画像61R)を用いて、スプリットイメージ61を生成する。   As illustrated in FIGS. 8 and 9, the focus confirmation image generation unit 104 includes a display portion (first divided image 61 </ b> L) extracted from the first image 58 a by the selection unit 102 and a second display by the selection unit 102. The split image 61 is generated using the display portion (second divided image 61R) extracted from the image 58b.

選択制御部106は、スプリットイメージ61(合焦確認画像)における第1の画像58aと第2の画像58bとの境界線であるスプリットライン63の位置を、スプリットライン63と直交する方向において変更する。また、本例の選択制御部106は、スプリットライン63の数及び形状を変更させる機能を有する。   The selection control unit 106 changes the position of the split line 63 that is a boundary line between the first image 58 a and the second image 58 b in the split image 61 (focus confirmation image) in a direction orthogonal to the split line 63. . The selection control unit 106 of this example has a function of changing the number and shape of the split lines 63.

尚、選択部102は、本発明における「選択手段」を構成する。また、選択制御部106は、本発明における「境界変更手段」を構成する。また、合焦確認画像生成部104は、本発明における「画像生成手段」を構成する。   The selection unit 102 constitutes “selection means” in the present invention. The selection control unit 106 constitutes “boundary changing means” in the present invention. Further, the focus confirmation image generation unit 104 constitutes an “image generation unit” in the present invention.

<スプリットイメージ>
図8に示すように、スプリットイメージ処理部54(具体的には合焦確認画像生成部104)は、第1画素群57aからの出力信号(出力)の輝度成分に基づき、被写体の中央領域の図中上半分の領域をL(左)視点側から見たときの白黒の第1の分割画像61L(第1の画像58aの表示部分)を生成する。また、スプリットイメージ処理部54は、第2画素群57bからの出力信号(出力)の輝度成分に基づき、被写体の中央領域の図中下半分の領域をR(右)視点側から見たときの白黒の第2の分割画像61R(第2の画像58bの表示部分)を生成する。これにより、第1の分割画像61Lと第2の分割画像61Rとを含む白黒のスプリットイメージ61が得られる。第1及び第2の分割画像61L,61Rは、スプリットイメージ61内において水平方向に平行なスプリットライン63(「境界線」ともいう)を境界に隣接して配置されている。尚、図中ではスプリットイメージ61を容易に把握できるように、スプリットイメージ61をカラーの撮像画像55に合成しており、この合成は表示制御部33にて行われる。
<Split image>
As shown in FIG. 8, the split image processing unit 54 (specifically, the in-focus confirmation image generating unit 104) is based on the luminance component of the output signal (output) from the first pixel group 57a, and the center region of the subject. A black and white first divided image 61L (display portion of the first image 58a) when the upper half area in the drawing is viewed from the L (left) viewpoint side is generated. Further, the split image processing unit 54 is based on the luminance component of the output signal (output) from the second pixel group 57b when the lower half of the center area of the subject is viewed from the R (right) viewpoint side. A black and white second divided image 61R (display portion of the second image 58b) is generated. Thereby, a black and white split image 61 including the first divided image 61L and the second divided image 61R is obtained. In the split image 61, the first and second divided images 61L and 61R are arranged adjacent to the boundary with a split line 63 (also referred to as “boundary line”) parallel to the horizontal direction. In the drawing, the split image 61 is combined with the color captured image 55 so that the split image 61 can be easily grasped, and this combination is performed by the display control unit 33.

撮像画像55及びスプリットイメージ61は、メモリ13のVRAM領域に一時的に格納される。表示制御部33は、メモリ13から撮像画像55及びスプリットイメージ61を読み出して、撮像画像55にスプリットイメージ61を合成した後に表示部8へ出力する。これにより、ユーザは、フルカラーの撮像画像55の表示領域内に、白黒のスプリットイメージ61を表示したライブビュー画像を見ることができる。   The captured image 55 and the split image 61 are temporarily stored in the VRAM area of the memory 13. The display control unit 33 reads the captured image 55 and the split image 61 from the memory 13, combines the split image 61 with the captured image 55, and outputs the composite image to the display unit 8. Thereby, the user can see the live view image in which the black and white split image 61 is displayed in the display area of the full-color captured image 55.

第1の画像58aの表示部分である第1の分割画像61Lと第2の画像58bの表示部分である第2の分割画像61Rとは、フォーカスレンズ16の合焦状態に応じて図中左右方向[水平方向(第1の方向)]にシフトする。この際の第1及び第2の分割画像61L,61R間のずれ量は、フォーカスレンズ16の焦点のずれ量に対応している。すなわち、図中左右方向が、撮影レンズ17により撮像面23a上にそれぞれ結像された各被写体光の像のずれ方向に対応する位相差方向となる。また、第1及び第2の分割画像61L,61Rは、フォーカスレンズ16が合焦しているときにずれ量がゼロ(ほぼゼロを含む)となる。   The first divided image 61L, which is the display portion of the first image 58a, and the second divided image 61R, which is the display portion of the second image 58b, are in the left-right direction in the figure depending on the focus state of the focus lens 16 Shift in [horizontal direction (first direction)]. The shift amount between the first and second divided images 61L and 61R at this time corresponds to the focus shift amount of the focus lens 16. That is, the horizontal direction in the figure is the phase difference direction corresponding to the shift direction of the image of each subject light imaged on the imaging surface 23a by the photographing lens 17. In addition, the first and second divided images 61L and 61R have a deviation amount of zero (including almost zero) when the focus lens 16 is in focus.

図9に示すように、フォーカスレンズ16の焦点がずれるほど、第1の分割画像61Lと第2の分割画像61Rとのずれ量も大きくなる。これにより、ユーザはライブビュー画像を確認しながらフォーカス調整を行うことができる。尚、図中では焦点が合っていいない被写体を2点鎖線表示している。   As shown in FIG. 9, the shift amount between the first divided image 61L and the second divided image 61R increases as the focus lens 16 defocuses. Accordingly, the user can perform focus adjustment while confirming the live view image. In the figure, a subject that is not in focus is indicated by a two-dot chain line.

尚、図8及び図9では、第3画素群57cから出力された通常画像58cに基づいた撮像画像55(第1の表示用画像)の表示領域内に、合焦確認画像であるスプリットイメージ61(第2の表示用画像)を表示させた場合を例に示したが、スプリットイメージ61のみを表示部8に表示させる構成としてもよい。つまり、撮像素子23の全ての画素が位相差画素(第1位相差画素及び第2位相差画素)であるか、もしくは撮像素子23の全領域に一定の割合で位相差画素(第1位相差画素及び第2位相差画素)が配置され、スプリットイメージ61のみを表示部8に表示させる場合であってもよい。   8 and 9, the split image 61, which is a focus confirmation image, is displayed in the display area of the captured image 55 (first display image) based on the normal image 58c output from the third pixel group 57c. Although the case where (second display image) is displayed has been described as an example, only the split image 61 may be displayed on the display unit 8. That is, all the pixels of the image sensor 23 are phase difference pixels (first phase difference pixel and second phase difference pixel), or phase difference pixels (first phase difference pixels) at a certain ratio in the entire area of the image sensor 23. Pixels and second phase difference pixels) may be arranged, and only the split image 61 may be displayed on the display unit 8.

<その他の構成>
尚、図示は省略するが、デジタルカメラ2にはオートフォーカス用のAF検出回路などが設けられている。AF検出回路は、第1画素36aの出力信号により構成される画像と、第2画素36bの出力信号により構成される画像とを解析して、両画像のずれ方向及び両画像間のずれ量を検知することで撮影レンズ17のフォーカス調整量(デフォーカス量ともいう)を求める。このフォーカス調整量に基づき、CPU11はレンズドライバ25を制御して、フォーカス機構20によりフォーカスレンズ16を駆動することで焦点調節を行う。尚、このような位相差方式のAF処理については公知であるので、ここでは具体的な説明は省略する。
<Other configurations>
Although not shown, the digital camera 2 is provided with an AF detection circuit for autofocus and the like. The AF detection circuit analyzes the image formed by the output signal of the first pixel 36a and the image formed by the output signal of the second pixel 36b, and determines the shift direction of both images and the shift amount between the two images. By detecting this, the focus adjustment amount (also referred to as defocus amount) of the photographing lens 17 is obtained. Based on this focus adjustment amount, the CPU 11 controls the lens driver 25 and drives the focus lens 16 by the focus mechanism 20 to perform focus adjustment. Since the phase difference AF process is well known, a detailed description thereof is omitted here.

また、図示は省略するが、デジタルカメラ2にはAE検出回路などが設けられている。CPU11は、AE検出回路の検出結果に基づき、レンズドライバ25を介してメカシャッタ18を駆動することでAE処理を実行する。   Although not shown, the digital camera 2 is provided with an AE detection circuit and the like. The CPU 11 executes the AE process by driving the mechanical shutter 18 via the lens driver 25 based on the detection result of the AE detection circuit.

<撮影処理の全体の流れ>
次に、図10を用いて上記構成のデジタルカメラ2の作用について説明を行う。操作部9にてデジタルカメラ2が撮影モード(ステップS1)のAFモードまたはMFモード(ステップS2)に設定されると、CPU11はレンズドライバ25を介してメカシャッタ18の動作を制御するとともに、撮像素子ドライバ27を介して撮像素子23を駆動する(ステップS3)。尚、AFモードが設定された場合のデジタルカメラ2の動作は公知であるのでここでは具体的な説明は省略する。
<Overall flow of shooting process>
Next, the operation of the digital camera 2 configured as described above will be described with reference to FIG. When the digital camera 2 is set to the AF mode or MF mode (step S2) of the photographing mode (step S1) by the operation unit 9, the CPU 11 controls the operation of the mechanical shutter 18 via the lens driver 25 and the image sensor. The image sensor 23 is driven via the driver 27 (step S3). Since the operation of the digital camera 2 when the AF mode is set is known, a detailed description thereof is omitted here.

MFモード(ステップS2)が設定されると、撮像素子23の第3画素35、36、37(通常画素)からの出力信号は、画像処理回路29の通常処理部52に入力される。通常処理部52は、第3画素35〜37からの出力信号である通常画像58cに対して画像処理を行いフルカラーの撮像画像55として、メモリ13のVRAM領域に格納する(ステップS4)。   When the MF mode (step S <b> 2) is set, output signals from the third pixels 35, 36, and 37 (normal pixels) of the image sensor 23 are input to the normal processing unit 52 of the image processing circuit 29. The normal processing unit 52 performs image processing on the normal image 58c that is an output signal from the third pixels 35 to 37, and stores the processed image as a full-color captured image 55 in the VRAM area of the memory 13 (step S4).

また、選択部102により、スプリットライン63で分割されるスプリットイメージ61(合焦確認画像)内の複数の分割領域(第1の分割画像61Lの領域、第2の分割画像61Rの領域)のそれぞれにおいて、第1の画像58a及び第2の画像58bのいずれかを選択する。つまり、選択部102により、第1の画像58a及び第2の画像58bから、それぞれ合焦確認画像に用いる第1の分割画像61L、第2の分割画像61Rを抽出する。また、合焦確認画像生成部104により、白黒の第1の分割画像61Lと白黒の第2の分割画像61Rとを含むスプリットイメージ61が生成される(ステップS5)。生成されたスプリットイメージ61は、メモリ13のVRAM領域に格納される。ここで、スプリットイメージ61内の第1の分割画像61Lと第2の分割画像61Rとの境界線(スプリットライン63)の位置または数の変更指示が操作部9より入力された場合、選択制御部106は、選択部102にスプリットイメージ61内の分割領域の範囲を変更させ、スプリットイメージ61の第1の分割画像61Lと第2の分割画像61Rとの境界線(スプリットライン)の位置または数を変更させる。   In addition, each of a plurality of divided areas (area of the first divided image 61L and area of the second divided image 61R) in the split image 61 (focus confirmation image) divided by the selection line 102 by the selection line 102. In FIG. 5, one of the first image 58a and the second image 58b is selected. That is, the selection unit 102 extracts the first divided image 61L and the second divided image 61R used for the focus confirmation image from the first image 58a and the second image 58b, respectively. Further, the focus confirmation image generation unit 104 generates a split image 61 including the black and white first divided image 61L and the black and white second divided image 61R (step S5). The generated split image 61 is stored in the VRAM area of the memory 13. Here, when an instruction to change the position or number of the boundary line (split line 63) between the first divided image 61L and the second divided image 61R in the split image 61 is input from the operation unit 9, the selection control unit 106 causes the selection unit 102 to change the range of the divided area in the split image 61 and sets the position or number of the boundary line (split line) between the first divided image 61L and the second divided image 61R of the split image 61. Change it.

尚、境界線の位置または数の変更については、後に詳説する。   The change in the position or number of the boundary lines will be described in detail later.

表示制御部33は、メモリ13から撮像画像55及びスプリットイメージ61を読み出して、撮像画像55の表示領域内にスプリットイメージ61を合成した後に、表示部8へ出力する。これにより、図9に示すように、カラーの撮像画像55内に、白黒のスプリットイメージ61を含むライブビュー画像が表示部8に表示される(ステップS6)。   The display control unit 33 reads the captured image 55 and the split image 61 from the memory 13, synthesizes the split image 61 in the display area of the captured image 55, and then outputs the composite image to the display unit 8. As a result, as shown in FIG. 9, a live view image including a black and white split image 61 is displayed on the display unit 8 in the color captured image 55 (step S6).

スプリットイメージ61の第1の分割画像66Lと第2の分割画像66Rとは、フォーカスレンズ16の合焦状態に応じて図中左右方向にシフトするので、ユーザは、フォーカスリング3aが回転操作してフォーカスレンズ16を光軸方向に沿って移動させる。フォーカスレンズ16が被写体に合焦する合焦位置に近づくのに伴って、第1の分割画像66Lと第2の分割画像66Rとのずれ量が次第に小さくなる。これにより、ユーザはライブビュー画像を確認しながらフォーカス調整を行うことができる。   Since the first divided image 66L and the second divided image 66R of the split image 61 are shifted in the horizontal direction in the drawing according to the focus state of the focus lens 16, the user rotates the focus ring 3a. The focus lens 16 is moved along the optical axis direction. As the focus lens 16 approaches the in-focus position where the subject is focused, the amount of shift between the first divided image 66L and the second divided image 66R gradually decreases. Accordingly, the user can perform focus adjustment while confirming the live view image.

フォーカスレンズ16が合焦位置にセットされると、第1の分割画像66Lと第2の分割画像66Rとのずれ量がゼロとなる。これにより、フォーカスレンズ16が被写体に合焦して、フォーカス調整が完了する。以下、シャッタボタン6が押下されるまで、上記処理が繰り返し実行される。   When the focus lens 16 is set at the in-focus position, the deviation amount between the first divided image 66L and the second divided image 66R becomes zero. Thereby, the focus lens 16 is focused on the subject, and the focus adjustment is completed. Thereafter, the above process is repeatedly executed until the shutter button 6 is pressed.

シャッタボタン6が押下されることにより撮影指示が入力されたか否かを判定し(ステップS7でYes)、撮影指示が入力されると(ステップS7でYes)、通常処理部52にて1フレーム分の撮像画像55が生成されてメモリ13のVRAM領域に一時的に格納される。この撮像画像55は、圧縮伸長処理回路31にて圧縮された後、メディアI/F32を介してメモリカード10に記録される(ステップS8)。以下、MFモードの終了による撮影継続か否かを判定し(ステップS9)、MFモードが終了するまで、上述の処理が繰り返し実行される。   It is determined whether or not a shooting instruction has been input by pressing the shutter button 6 (Yes in step S7). When the shooting instruction has been input (Yes in step S7), the normal processing unit 52 performs one frame worth. The captured image 55 is generated and temporarily stored in the VRAM area of the memory 13. The captured image 55 is compressed by the compression / decompression processing circuit 31, and then recorded on the memory card 10 via the media I / F 32 (step S8). Thereafter, it is determined whether or not the photographing is continued due to the end of the MF mode (step S9), and the above-described processing is repeatedly executed until the MF mode is ended.

以下、スプリットイメージ61(合焦確認画像)内のスプリットライン63(境界線)の変更の詳細について、各種の実施形態に分けて説明する。   Hereinafter, the details of changing the split line 63 (boundary line) in the split image 61 (focus confirmation image) will be described separately for various embodiments.

<第1実施形態のデジタルカメラ>
第1実施形態のデジタルカメラ2において、選択制御部(図6の106)は、表示部8に表示させるスプリットイメージ61(合焦確認画像)内のスプリットライン63(境界線)の位置を、操作部9(位置入力部手段)に入力された位置の変更指示に応じて変更させる。
<Digital Camera of First Embodiment>
In the digital camera 2 of the first embodiment, the selection control unit (106 in FIG. 6) operates the position of the split line 63 (boundary line) in the split image 61 (focus confirmation image) displayed on the display unit 8. The position is changed according to the position change instruction input to the unit 9 (position input unit means).

<第1実施形態の合焦確認画像表示処理例>
図11は、第1実施形態における合焦確認画像表示処理例の流れを示すフローチャートである。本処理は、選択制御部106を構成するCPU11の制御により、プログラムに従って実行される。
<Example of focus confirmation image display processing of first embodiment>
FIG. 11 is a flowchart showing a flow of an in-focus confirmation image display process example in the first embodiment. This process is executed according to a program under the control of the CPU 11 constituting the selection control unit 106.

本例では、図3の操作部9に、スプリットライン位置変更ボタン、上ボタン及び下ボタンが設けられているものとする。尚、表示部8がタッチパネル式である場合、そのタッチパネル式の表示部を位置入力部手段として用いてよい。   In this example, it is assumed that the operation unit 9 in FIG. 3 is provided with a split line position change button, an upper button, and a lower button. When the display unit 8 is a touch panel type, the touch panel type display unit may be used as the position input unit means.

まず、スプリットライン位置変更ボタンが押下されたか否かを判定する(ステップS102)。   First, it is determined whether or not the split line position change button has been pressed (step S102).

スプリットライン位置変更ボタンが押下された場合(ステップS102でYes)、さらに、上ボタンが押下されたか否かの判定(ステップS104)と、下ボタンが押下されたか否かの判定(ステップS108)を行う。   If the split line position change button has been pressed (Yes in step S102), it is further determined whether or not the up button has been pressed (step S104) and whether or not the down button has been pressed (step S108). Do.

スプリットライン位置変更ボタンが押下され(ステップS102でYes)、さらに上ボタンが押下された場合(ステップS104でyes)、スプリットライン63をスプリットイメージ61内の上方へ移動させる(ステップS106)。   When the split line position change button is pressed (Yes in step S102) and the upper button is further pressed (yes in step S104), the split line 63 is moved upward in the split image 61 (step S106).

また、スプリットライン位置変更ボタンが押下され(ステップS102でYes)、さらに下ボタンが押下された場合(ステップS108でyes)、スプリットライン63をスプリットイメージ61内の下方へ移動させる(ステップS110)。   If the split line position change button is pressed (Yes in step S102) and the down button is further pressed (yes in step S108), the split line 63 is moved downward in the split image 61 (step S110).

次に、スプリットライン位置変更ボタンが再押下されたか否かを判定し(ステップS112)、再押下されるまでステップS104〜S112を繰り返す。再押下された場合(ステップS112でyes)、本処理を終了する。   Next, it is determined whether or not the split line position change button has been pressed again (step S112), and steps S104 to S112 are repeated until the button is pressed again. If it is pressed again (yes in step S112), this process ends.

図12は、上ボタン及び下ボタンの押下によるスプリットライン63の位置の変更の様子を示す。   FIG. 12 shows how the position of the split line 63 is changed by pressing the upper button and the lower button.

図12の(B)部分に示すようにスプリットライン63の位置がスプリットイメージ61の上下方向V(スプリットライン63に直交する方向)における中央に設定されている状態で、上ボタンを押し続けると、図12の(A)部分に示すようにスプリットライン63の位置は、スプリットイメージ61の上下方向Vにおける中央から上方に移動する。また、図12の(B)部分に示す状態で下ボタンを押し続けると、図12の(C)部分に示すように、スプリットライン63の位置はスプリットイメージ61の上下方向における中央から下方に移動する。   When the position of the split line 63 is set at the center in the vertical direction V (direction perpendicular to the split line 63) of the split image 61 as shown in part (B) of FIG. As shown in part (A) of FIG. 12, the position of the split line 63 moves upward from the center in the vertical direction V of the split image 61. If the lower button is continuously pressed in the state shown in part (B) of FIG. 12, the position of the split line 63 moves downward from the center in the vertical direction of the split image 61 as shown in part (C) of FIG. To do.

また、表示制御部33は、スプリットライン63の近傍に、スプリットライン63の位置を示す指標であるスプリットライン・マーク64を表示させる。本例の表示制御部33は、スプリットライン63の延長線上に、スプリットライン・マーク64を表示させている。表示制御部33は、スプリットライン63の位置の移動に合わせて、スプリットライン・マーク64の表示位置を上下方向Vにおいて移動させる。尚、スプリットライン・マーク64の形状は特に限定されない。また、スプリットライン・マーク64の表示位置は、図示した例には限定されない。   Further, the display control unit 33 displays a split line mark 64 that is an index indicating the position of the split line 63 in the vicinity of the split line 63. The display control unit 33 of this example displays a split line mark 64 on the extension line of the split line 63. The display control unit 33 moves the display position of the split line mark 64 in the vertical direction V in accordance with the movement of the position of the split line 63. The shape of the split line mark 64 is not particularly limited. Further, the display position of the split line mark 64 is not limited to the illustrated example.

<第1実施形態のデジタルカメラの作用効果>
図13、図14、図15は、それぞれ図12の(A)、(B)、(C)部分に対応した選択制御の状態を模式的に示す説明図である。選択部102は、撮像素子23の第1画素群57a及び第2画素群57bからそれぞれ出力された第1の画像58a及び第2の画像58bを取得し、第1の画像58a及び第2の画像58bからそれぞれスプリットイメージ61に用いる表示部分(第1の分割画像61L,第2の分割画像61R)を抽出する。つまり、選択部102は、スプリットライン63で分割されるスプリットイメージ61内の複数の分割領域のそれぞれにおいて、第1の画像58a及び第2の画像58bのいずれかを選択する。合焦確認画像生成部104は、選択部102によって抽出された第1の分割画像61L及び第2の分割画像61Rを互いに隣接させて合成し、スプリットイメージ61を生成する。選択制御部106は、操作部9(位置入力部手段)に入力された位置の変更指示に応じて、選択部102に、スプリットイメージ61における第1の画像58aと第2の画像58bとの境界線であるスプリットライン63の位置をスプリットライン63と直交する上下方向Vにおいて変更する。即ち、選択部102は選択制御部106の指示に従って、各ペア画素P0から第1位相差画素36a及び第2位相差画素36bのうちいずれかを選択し、選択した位相差画素の画素値を用いてスプリットイメージ61を生成する。これにより、表示部8に表示させるスプリットイメージ61内のスプリットライン63の位置が、操作部9(位置入力部手段)に入力された位置の変更指示に応じて変更する。ユーザは、スプリットイメージ61内でスプリットライン63の位置を変更させて、ピント合わせ(合焦)を行いたい位置にスプリットライン63を設定することで、ピンポイントでのピント合わせ(合焦)を行うことができるようになる。
<Operational Effects of Digital Camera of First Embodiment>
13, FIG. 14, and FIG. 15 are explanatory diagrams schematically showing selection control states corresponding to the portions (A), (B), and (C) of FIG. 12, respectively. The selection unit 102 acquires the first image 58a and the second image 58b output from the first pixel group 57a and the second pixel group 57b of the image sensor 23, respectively, and obtains the first image 58a and the second image. Display portions (first divided image 61L and second divided image 61R) used for the split image 61 are extracted from 58b. That is, the selection unit 102 selects one of the first image 58 a and the second image 58 b in each of the plurality of divided areas in the split image 61 divided by the split line 63. The focus confirmation image generation unit 104 generates the split image 61 by combining the first divided image 61L and the second divided image 61R extracted by the selection unit 102 so as to be adjacent to each other. In response to the position change instruction input to the operation unit 9 (position input unit), the selection control unit 106 causes the selection unit 102 to send a boundary between the first image 58a and the second image 58b in the split image 61. The position of the split line 63 that is a line is changed in the vertical direction V orthogonal to the split line 63. That is, the selection unit 102 selects one of the first phase difference pixel 36a and the second phase difference pixel 36b from each pair pixel P0 according to the instruction of the selection control unit 106, and uses the pixel value of the selected phase difference pixel. The split image 61 is generated. Thereby, the position of the split line 63 in the split image 61 displayed on the display unit 8 is changed according to the position change instruction input to the operation unit 9 (position input unit means). The user changes the position of the split line 63 in the split image 61 and sets the split line 63 at a position where focusing (focusing) is desired, thereby performing focusing (focusing) at a pinpoint. Will be able to.

<第2実施形態のデジタルカメラ>
第2実施形態のデジタルカメラ2において、選択制御部(図6の106)は、表示部8に表示させるスプリットイメージ61(合焦確認画像)内のスプリットライン63(境界線)の数を、操作部9(数入力手段)に入力された数の変更指示に応じて変更させる。
<Digital Camera of Second Embodiment>
In the digital camera 2 of the second embodiment, the selection control unit (106 in FIG. 6) manipulates the number of split lines 63 (boundary lines) in the split image 61 (focus confirmation image) displayed on the display unit 8. The number is changed according to the number change instruction input to the unit 9 (number input means).

<第2実施形態の合焦確認画像表示処理例>
図16は、第2実施形態における合焦確認画像表示処理例の流れを示すフローチャートである。本処理は、選択制御部106を構成するCPU11の制御により、プログラムに従って実行される。
<Example of focus confirmation image display processing of second embodiment>
FIG. 16 is a flowchart showing a flow of an in-focus confirmation image display process example in the second embodiment. This process is executed according to a program under the control of the CPU 11 constituting the selection control unit 106.

本例では、図3の操作部9に、スプリットライン数変更ボタン、上ボタン及び下ボタンが設けられているものとする。尚、表示部8がタッチパネル式の表示部である場合、そのタッチパネル式の表示部を数入力手段として用いてもよい。   In this example, it is assumed that the operation unit 9 in FIG. 3 is provided with a split line number change button, an up button, and a down button. When the display unit 8 is a touch panel type display unit, the touch panel type display unit may be used as a number input unit.

まず、スプリットライン数変更ボタンが押下されたか否かを判定する(ステップS202)。   First, it is determined whether or not the split line number change button has been pressed (step S202).

スプリットライン数変更ボタンが押下された場合(ステップS202でYes)、さらに、上ボタンが押下されたか否かの判定(ステップS204)と、下ボタンが押下されたか否かの判定(ステップS208)を行う。   When the split line number change button is pressed (Yes in step S202), it is further determined whether or not the up button is pressed (step S204) and whether or not the down button is pressed (step S208). Do.

スプリットライン数変更ボタンが押下され、さらに上ボタンが押下された場合(ステップS204でyes)、スプリットライン63の数を1本増加させる(ステップS206)。   When the split line number change button is pressed and the upper button is further pressed (yes in step S204), the number of split lines 63 is increased by one (step S206).

また、スプリットライン数変更ボタンが押下され(ステップS202でYes)、さらに下ボタンが押下された場合(ステップS208でyes)、スプリットライン63の数を1本減少させる(ステップS210)。   If the split line number change button is pressed (Yes in step S202) and the down button is further pressed (yes in step S208), the number of split lines 63 is decreased by one (step S210).

次に、スプリットライン数変更ボタンが再押下されたか否かを判定し(ステップS212)、再押下されるまでステップS204〜S212を繰り返す。再押下された場合(ステップS212でyes)、本処理を終了する。   Next, it is determined whether or not the split line number change button has been pressed again (step S212), and steps S204 to S212 are repeated until it is pressed again. If it is pressed again (yes in step S212), this process is terminated.

図17は、上ボタン及び下ボタンの押下によるスプリットライン63の数の増減の様子を示す。   FIG. 17 shows how the number of split lines 63 is increased or decreased by pressing the upper button and the lower button.

図17の(B)部分に示すようにスプリットライン63の数が2本に設定されている状態で上ボタンを1回押すと、図17の(A)部分に示すようにスプリットイメージ61内のスプリットライン63の数が1本増加して3本になる。また、図17の(B)部分に示す状態で下ボタンを1回押すと、図17の(C)部分に示すようにスプリットイメージ61内のスプリットライン63の数が1本減少して1本になる。   When the upper button is pressed once in a state where the number of split lines 63 is set to two as shown in part (B) of FIG. 17, the inside of the split image 61 is shown as part (A) of FIG. The number of split lines 63 increases by one to three. Also, when the down button is pressed once in the state shown in FIG. 17B, the number of split lines 63 in the split image 61 is reduced by one as shown in FIG. become.

また、表示制御部33は、スプリットライン63(境界線)の近傍に、スプリットライン63の位置を示す指標であるスプリットライン・マーク64を表示させる。表示制御部33は、スプリットライン63の数の増減に合わせて、スプリットライン・マーク64の数を増減させる。   The display control unit 33 also displays a split line mark 64 that is an index indicating the position of the split line 63 in the vicinity of the split line 63 (boundary line). The display control unit 33 increases or decreases the number of split line marks 64 in accordance with the increase or decrease of the number of split lines 63.

<第2実施形態のデジタルカメラの作用効果>
本実施形態では、選択制御部106は、表示部8に表示させるスプリットイメージ61内のスプリットライン63の数を、操作部9(数入力手段)に入力された数の変更指示に応じて変更させる。これにより、ユーザは、スプリットイメージ61内でスプリットライン63の本数を変更させて、複数の位置にスプリットライン63を設定することで、複数の位置でピント合わせ(合焦)を行うことができるようになる。
<Operational Effect of Digital Camera of Second Embodiment>
In the present embodiment, the selection control unit 106 changes the number of split lines 63 in the split image 61 to be displayed on the display unit 8 in accordance with a change instruction for the number input to the operation unit 9 (number input means). . As a result, the user can focus (focus) at a plurality of positions by changing the number of split lines 63 in the split image 61 and setting the split lines 63 at a plurality of positions. become.

<第3実施形態>
第3実施形態のデジタルカメラ2において、選択制御部(図6の106)は、手動操作で入力されるスプリットライン63(境界線)の数をL本としたとき、当該Lとして奇数のみ操作部9(数入力手段)に入力を受け付けさせ、L本のスプリットライン63のうち第(L+1)/2本目のスプリットライン63を、スプリットイメージ61(合焦確認画像)の中央または中央の近傍に位置させる。
<Third Embodiment>
In the digital camera 2 of the third embodiment, when the number of split lines 63 (boundary lines) input by manual operation is L, the selection control unit (106 in FIG. 6) is an operation unit for only odd numbers as L. 9 (number input means) accepts the input, and among the L split lines 63, the (L + 1) / 2nd split line 63 is positioned at the center or near the center of the split image 61 (focus confirmation image). Let

ここで、「中央の近傍」は、例えば、スプリットイメージ61の中央からスプリットイメージ61の上下方向Vにおける全幅の±5%以内である。   Here, “near the center” is, for example, within ± 5% of the total width in the vertical direction V of the split image 61 from the center of the split image 61.

<第3実施形態の合焦確認画像表示処理例>
図18は、第3実施形態における合焦確認画像表示処理例の流れを示すフローチャートである。本処理は、選択制御部106を構成するCPU11の制御により、プログラムに従って実行される。
<Example of focus confirmation image display processing of third embodiment>
FIG. 18 is a flowchart showing a flow of an in-focus confirmation image display process example in the third embodiment. This process is executed according to a program under the control of the CPU 11 constituting the selection control unit 106.

本例では、図3の操作部9として、スプリットライン数変更ボタン、上ボタン及び下ボタンが設けられているものとする。尚、表示部8がタッチパネル式の表示部である場合、そのタッチパネル式の表示部8を数入力手段として用いてもよい。   In this example, it is assumed that a split line number change button, an upper button, and a lower button are provided as the operation unit 9 in FIG. When the display unit 8 is a touch panel type display unit, the touch panel type display unit 8 may be used as a number input unit.

スプリットライン数変更ボタンが押下された場合(ステップS302でYes)、さらに、上ボタンが押下されたか否かの判定(ステップS304)と、下ボタンが押下されたか否かの判定(ステップS308)を行う。   When the split line number change button is pressed (Yes in step S302), it is further determined whether or not the up button is pressed (step S304) and whether or not the down button is pressed (step S308). Do.

スプリットライン数変更ボタンが押下され(ステップS302でYes)、さらに上ボタンが押下された場合(ステップS304でyes)、N=n+1とする(ステップS306)。また、スプリットライン数変更ボタンが押下され(ステップS302でYes)、さらに下ボタンが押下された場合(ステップS308でyes)、N=n−1とする(ステップS310)。そして、N<1の場合にはn=1と設定し(ステップS312、S314)、N≧Mの場合にはn=M(上限値)と設定し(ステップS316、S318)、N<Mの場合にはn=Nと設定する(ステップS320)。   When the split line number change button is pressed (Yes in step S302) and the upper button is further pressed (yes in step S304), N = n + 1 is set (step S306). If the split line number change button is pressed (Yes in step S302) and the down button is further pressed (yes in step S308), N = n-1 is set (step S310). When N <1, n = 1 is set (steps S312 and S314). When N ≧ M, n = M (upper limit value) is set (steps S316 and S318), and N <M. In this case, n = N is set (step S320).

ここで、nは「現在のスプリットライン数/2」を示す変数であり、Nはnの暫定値を示す変数であり、Mはnの上限値を示す。   Here, n is a variable indicating “the current number of split lines / 2”, N is a variable indicating a provisional value of n, and M indicates an upper limit value of n.

つまり、スプリットライン数変更ボタンで入力されるスプリットラインの数をK本としたとき、K=1,3,5,・・・2n−1(nはn≦Mの整数)のみ入力を受け付ける。このように本例では、スプリットラインの数Kとして奇数のみ入力を受け付ける。   That is, when the number of split lines input by the split line number change button is K, only K = 1, 3, 5,..., 2n−1 (n is an integer of n ≦ M) is accepted. Thus, in this example, only odd numbers are accepted as the number K of split lines.

次に、スプリットライン数変更ボタンが再押下されたか否かを判定し(ステップS322)、再押下されるまでステップS304〜S322を繰り返す。再押下された場合(ステップS322でyes)、本処理を終了する。   Next, it is determined whether or not the split line number change button has been pressed again (step S322), and steps S304 to S322 are repeated until pressed again. If it is pressed again (Yes in step S322), this process ends.

<第3実施形態のデジタルカメラの作用効果>
本実施形態の選択制御部106は、境界線の数Kとして奇数のみ入力を受け付け、K本の境界線のうち第(K+1)/2本目のスプリットライン63(境界線)を、スプリットイメージ61(合焦確認画像)の中央または中央の近傍に位置させる。これにより、ユーザは、スプリットイメージ61内の中央または中央の近傍にスプリットライン63が設定されたスプリットイメージ61を見ながら、容易にピント合わせを行うことができる。
<Operational Effect of Digital Camera of Third Embodiment>
The selection control unit 106 of the present embodiment accepts only odd numbers as the number K of boundary lines, and the (K + 1) / 2nd split line 63 (boundary line) among the K boundary lines is split into split images 61 ( It is positioned at the center of the focus confirmation image) or near the center. Thus, the user can easily focus while looking at the split image 61 in which the split line 63 is set at the center or in the vicinity of the center in the split image 61.

<第4実施形態>
第4実施形態のデジタルカメラ2において、選択制御部(図6の106)は、時間の経過に応じてスプリットイメージ61(合焦確認画像)内のスプリットライン63(境界線)の位置を移動させる。
<Fourth embodiment>
In the digital camera 2 of the fourth embodiment, the selection control unit (106 in FIG. 6) moves the position of the split line 63 (boundary line) in the split image 61 (focus confirmation image) as time elapses. .

<第4実施形態の合焦確認画像表示処理例>
図19は、第4実施形態における合焦確認画像表示処理例の流れを示すフローチャートである。本処理は、選択制御部106を構成するCPU11の制御により、プログラムに従って実行される。
<Focusing Confirmation Image Display Processing Example of Fourth Embodiment>
FIG. 19 is a flowchart illustrating the flow of an in-focus confirmation image display process example according to the fourth embodiment. This process is executed according to a program under the control of the CPU 11 constituting the selection control unit 106.

まず、第1の画像58a及び第2の画像58bのスプリットライン63の数(ライン数)を「N」に設定する(ステップS402)。次に、スプリットライン63の変更時間間隔Tを算出する(ステップS404)。本例では、ライン数Nに基づいて、T=1/Nを計算している。   First, the number (number of lines) of split lines 63 in the first image 58a and the second image 58b is set to “N” (step S402). Next, the change time interval T of the split line 63 is calculated (step S404). In this example, T = 1 / N is calculated based on the number N of lines.

次に、時間の経過に応じてスプリットイメージ61内のスプリットライン63の位置を移動させる(ステップS406〜S416)。具体的には、まず、現在時間を取得して初期時間t0とする(ステップS406)。また、現在時間を取得して(ステップS408)、現在時間tとt0+Tとを比較し(ステップS410)、現在時間t<t0+Tである場合(ステップS410でNoの場合)、ウェイトして(ステップS412)、ステップS406に戻る。現在時間t≧t0+Tである場合(ステップS410でYesの場合)、スプリットライン63の位置をスプリットイメージ61内で1ライン下方へ移動させる(ステップS414)。スプリットライン63がスプリットイメージ61の最下端に達していない場合(ステップS416でNoの場合)、ステップS406に戻り、スプリットライン63の移動を継続する。スプリットライン63がスプリットイメージ61の最下端に達した場合(ステップS416でYesの場合)、本処理を終了する。   Next, the position of the split line 63 in the split image 61 is moved as time passes (steps S406 to S416). Specifically, first, the current time is acquired and set as the initial time t0 (step S406). Also, the current time is acquired (step S408), the current time t and t0 + T are compared (step S410), and if the current time t <t0 + T (No in step S410), the process waits (step S412). ), The process returns to step S406. If the current time is t ≧ t0 + T (Yes in step S410), the position of the split line 63 is moved downward by one line in the split image 61 (step S414). When the split line 63 has not reached the lowermost end of the split image 61 (No in step S416), the process returns to step S406 and the movement of the split line 63 is continued. When the split line 63 has reached the lowermost end of the split image 61 (Yes in step S416), this process ends.

尚、本例では、発明の理解を容易にするため、「1秒」でスプリットライン63がスプリットイメージ61の最上端から最下端まで移動する場合を説明したが、移動時間または移動速度を異ならせてもよい。   In this example, the case where the split line 63 moves from the uppermost end to the lowermost end of the split image 61 in “1 second” has been described in order to facilitate understanding of the invention. However, the moving time or moving speed is varied. May be.

また、第3実施形態または第4実施形態と組み合わせて、複数のスプリットライン63がスプリットイメージ61の最上端から最下端まで移動するようにしてもよい。この場合、複数のスプリットライン63のうち特定のスプリットラインは停止し、他のスプリットラインが移動するようにしてもよい。   Further, in combination with the third embodiment or the fourth embodiment, the plurality of split lines 63 may move from the uppermost end to the lowermost end of the split image 61. In this case, a specific split line among the plurality of split lines 63 may be stopped and another split line may be moved.

スプリットライン63の時間の経過に応じた移動の様子を図12を用いて説明すると、第1実施形態では外部からスプリットライン63の位置の変更指示が入力されたときにスプリットライン63を移動させていたが、本実施形態では、時間の経過に従って、スプリットイメージ61の上部(図12の(A)部分)から、スプリットイメージ61の上下方向の中央(図12の(B)部分)を介して、スプリットイメージ61の下部(図12の(C)部分)へとスプリットライン63が移動する。   The movement of the split line 63 over time will be described with reference to FIG. 12. In the first embodiment, the split line 63 is moved when an instruction to change the position of the split line 63 is input from the outside. However, in the present embodiment, as time elapses, from the upper part of the split image 61 (part (A) in FIG. 12) to the center in the vertical direction of the split image 61 (part (B) in FIG. 12), The split line 63 moves to the lower part of the split image 61 (part (C) in FIG. 12).

図20は、スプリットライン63が2本である場合の表示例を示す。時間の経過とともに、図20の(A)部分に示す表示状態から、図20の(B)部分に示す表示状態、図20の(C)部分に示す表示状態を経て、図20の(D)部分に示す表示状態となる。本例では、2本のスプリットライン63a、63bのうち1本のスプリットライン63aは、スプリットイメージ61の上下方向における中央部(または中央部の近傍)に固定して位置しており、他方のスプリットライン63bがスプリットイメージ61の最上端から最下端まで時間の経過に応じて移動する。   FIG. 20 shows a display example when there are two split lines 63. With the passage of time, from the display state shown in part (A) of FIG. 20 to the display state shown in part (B) of FIG. 20 and through the display state shown in part (C) of FIG. The display state shown in the part is obtained. In this example, of the two split lines 63a and 63b, one split line 63a is fixedly positioned at the center (or near the center) in the vertical direction of the split image 61, and the other split line The line 63b moves from the uppermost end to the lowermost end of the split image 61 as time passes.

<第4実施形態のデジタルカメラの作用効果>
本実施形態では、選択制御部106は、時間の経過に応じて合焦確認画像内のスプリットライン63(境界線)の位置を移動させる。これにより、ユーザは、スプリットライン63の位置の変更指示を手動操作で入力しなくても、スプリットライン63が移動するスプリットイメージ61を見ながら、合焦状態を的確に把握することができるようになる。
<Effects of Digital Camera of Fourth Embodiment>
In the present embodiment, the selection control unit 106 moves the position of the split line 63 (boundary line) in the in-focus confirmation image as time elapses. Accordingly, the user can accurately grasp the in-focus state while looking at the split image 61 in which the split line 63 moves without manually inputting an instruction to change the position of the split line 63. Become.

<第5実施形態のデジタルカメラ>
第5実施形態において、選択制御部106は、第4実施形態と同様に、時間の経過に応じてスプリットイメージ61(合焦確認画像)内のスプリットライン63の位置を移動させる。ただし、第5実施形態の選択制御部106は、スプリットライン63の移動を開始した後、フォーカスリング3a(フォーカス操作手段)によってフォーカス位置(フォーカスレンズ16の位置)の変更操作が開始されたとき、スプリットイメージ61内のスプリットライン63の移動を停止させる。
<Digital Camera of Fifth Embodiment>
In the fifth embodiment, the selection control unit 106 moves the position of the split line 63 in the split image 61 (focus confirmation image) with the passage of time, as in the fourth embodiment. However, the selection control unit 106 according to the fifth embodiment starts the movement of the split line 63 and then starts the change operation of the focus position (the position of the focus lens 16) by the focus ring 3a (focus operation means). The movement of the split line 63 in the split image 61 is stopped.

<第5実施形態の合焦確認画像表示処理例>
図21は、第5実施形態における合焦確認画像表示処理例の流れを示すフローチャートである。本処理は、選択制御部106を構成するCPU11の制御により、プログラムに従って実行される。
<Example of Focus Confirmation Image Display Processing in Fifth Embodiment>
FIG. 21 is a flowchart showing the flow of an in-focus confirmation image display process example in the fifth embodiment. This process is executed according to a program under the control of the CPU 11 constituting the selection control unit 106.

本例のステップS502〜S512は、第4実施形態の図19に示したステップS402〜S412と同様であり、説明を省略する。   Steps S502 to S512 of this example are the same as steps S402 to S412 shown in FIG. 19 of the fourth embodiment, and a description thereof will be omitted.

本例では、一定時間Tが経過した場合(ステップS510でYesの場合)、フォーカスリング3aの操作の有無を判定する(ステップS514)。フォーカスリング3aの操作(フォーカス操作)がないと判定された場合(ステップS514でNoの場合)、スプリットライン63の位置をスプリットイメージ61内で1ライン下方へ移動させ(ステップS516)。スプリットライン63がスプリットイメージ61の最下端に達したか否かを判定し(ステップS518)、最下端に達していない場合(ステップS518でNoの場合)、ステップS506〜S518をフォーカス操作がない限り繰り返し、スプリットライン63の移動を継続する。スプリットライン63がスプリットイメージ61の最下端に達した場合(ステップS518でYesの場合)、スプリットライン63の位置をスプリットイメージ61の最上端に移動させて(ステップS520)、ステップS506〜S518をフォーカス操作がない限り繰り返し、ステップS506に戻り、スプリットライン63の移動を継続する。   In this example, when the fixed time T has elapsed (Yes in Step S510), it is determined whether or not the focus ring 3a has been operated (Step S514). When it is determined that there is no operation (focus operation) of the focus ring 3a (No in step S514), the position of the split line 63 is moved down one line in the split image 61 (step S516). It is determined whether or not the split line 63 has reached the lowermost end of the split image 61 (step S518). If it has not reached the lowermost end (in the case of No in step S518), steps S506 to S518 are performed as long as there is no focus operation. Repeatedly, the movement of the split line 63 is continued. When the split line 63 reaches the lowermost end of the split image 61 (Yes in step S518), the position of the split line 63 is moved to the uppermost end of the split image 61 (step S520), and steps S506 to S518 are focused. As long as there is no operation, it repeats and it returns to step S506 and the movement of the split line 63 is continued.

フォーカスリング3aの操作有と判定された場合(ステップS514でYesの場合)、本処理を終了して、スプリットライン63の移動を停止する。つまり、フォーカスリング3aによってフォーカス位置の操作が開始されたとき、スプリットイメージ61内のスプリットライン63の移動を停止させる。   If it is determined that the focus ring 3a is operated (Yes in step S514), this process is terminated and the movement of the split line 63 is stopped. That is, when the focus position operation is started by the focus ring 3a, the movement of the split line 63 in the split image 61 is stopped.

尚、フォーカスリング3aの操作が一定時間行われなかったとき、再度、スプリットライン63の移動を開始するようにしてもよい。   When the focus ring 3a is not operated for a certain time, the movement of the split line 63 may be started again.

<第5実施形態のデジタルカメラの作用効果>
第5実施形態において、選択制御部106は、フォーカスリング3a(フォーカス操作手段)によってフォーカス位置の変更操作が開始されたとき、スプリットイメージ61内のスプリットライン63の移動を停止させる。つまり、ユーザがピント合わせ操作(フォーカス位置の変更操作)を開始したとき、そのユーザは現在のスプリットライン63の位置でピント合わせ操作をしたいと考えられるので、本実施形態ではスプリットライン63の移動を停止する構成とした。これにより、スプリットライン63が時間の経過に応じて移動しているときに、ユーザは、フォーカスリング3aを操作するだけで、スプリットライン63の移動の停止を別途に指示しなくても、ピント合わせ操作を開始することができる。
<Effects of Digital Camera of Fifth Embodiment>
In the fifth embodiment, the selection control unit 106 stops the movement of the split line 63 in the split image 61 when the focus position changing operation is started by the focus ring 3a (focus operation means). In other words, when the user starts a focusing operation (focus position changing operation), the user may want to perform a focusing operation at the current position of the split line 63. Therefore, in this embodiment, the split line 63 is moved. It was set as the structure which stops. As a result, when the split line 63 is moving with time, the user can operate the focus ring 3a and focus without stopping the movement of the split line 63 separately. The operation can be started.

<第6実施形態のデジタルカメラ>
図22は、第6実施形態の画像処理回路29を示すブロック図である。図22において、図6(第1実施形態〜第5実施形態のブロック図)に記載した構成要素と同じものには同じ符号を付し、説明を省略する。
<Digital Camera of Sixth Embodiment>
FIG. 22 is a block diagram illustrating an image processing circuit 29 according to the sixth embodiment. In FIG. 22, the same components as those described in FIG. 6 (the block diagram of the first to fifth embodiments) are denoted by the same reference numerals, and description thereof is omitted.

図22に示すように、本実施形態の画像処理回路29は、撮像素子23から得られた画像58a,58b,58cの解析を行う画像解析部108を備える。   As shown in FIG. 22, the image processing circuit 29 of this embodiment includes an image analysis unit 108 that analyzes images 58 a, 58 b, and 58 c obtained from the image sensor 23.

また、本実施形態の選択制御部106は、画像解析部108の解析結果に基づいて、スプリットイメージ61(合焦確認画像)内のスプリットライン63(境界線)の位置を設定する。   In addition, the selection control unit 106 of the present embodiment sets the position of the split line 63 (boundary line) in the split image 61 (focus confirmation image) based on the analysis result of the image analysis unit 108.

<第6実施形態の合焦確認画像表示処理例>
図23は、第6実施形態における合焦確認画像表示処理例の流れを示すフローチャートである。本処理は、選択制御部106を構成するCPU11の制御により、プログラムに従って実行される。
<Example of focus confirmation image display processing of sixth embodiment>
FIG. 23 is a flowchart showing a flow of an in-focus confirmation image display process example in the sixth embodiment. This process is executed according to a program under the control of the CPU 11 constituting the selection control unit 106.

本例のステップS602〜S612は、第4実施形態の図19に示したステップS402〜S412と同様であり、説明を省略する。   Steps S602 to S612 in this example are the same as steps S402 to S412 shown in FIG. 19 of the fourth embodiment, and a description thereof will be omitted.

本例では、一定時間Tが経過した場合(ステップS610でYesの場合)、撮像素子23から得られた画像58a,58b,58cの解析結果である特徴量S(画像の特徴量)を閾値Thと比較する(ステップS614)。特徴量S≦Thである場合(ステップS614でNoの場合)、スプリットライン63の位置をスプリットイメージ61内で1ライン下方へ移動させ(ステップS616)。スプリットライン63がスプリットイメージ61の最下端に達したか否かを判定し(ステップS618)、最下端に達していない場合(ステップS618でNoの場合)、ステップS606に戻り、スプリットライン63の移動を継続する。スプリットライン63がスプリットイメージ61の最下端に達した場合(ステップS618でYesの場合)、スプリットライン63の位置をスプリットイメージ61の最上端に移動させて(ステップS620)、ステップS606に戻り、スプリットライン63の移動を継続する。   In this example, when the predetermined time T has elapsed (in the case of Yes in step S610), the feature amount S (image feature amount) that is the analysis result of the images 58a, 58b, and 58c obtained from the image sensor 23 is set as the threshold Th. (Step S614). If the feature amount S ≦ Th (No in step S614), the position of the split line 63 is moved downward by one line in the split image 61 (step S616). It is determined whether or not the split line 63 has reached the lowest end of the split image 61 (step S618). If the split line 63 has not reached the lowest end (No in step S618), the process returns to step S606 to move the split line 63. Continue. When the split line 63 reaches the lowermost end of the split image 61 (Yes in step S618), the position of the split line 63 is moved to the uppermost end of the split image 61 (step S620), and the process returns to step S606 to split the split line 63. The movement of the line 63 is continued.

その一方で、特徴量S>Thである場合(ステップS614でYesの場合)、本処理を終了して、スプリットライン63の移動を停止する。つまり、画像の特徴量Sが大きい場合に、スプリットイメージ61内の特徴量が大きい位置で、スプリットライン63の移動を停止させる。   On the other hand, if the feature amount S> Th (Yes in step S614), the process is terminated and the movement of the split line 63 is stopped. That is, when the feature amount S of the image is large, the movement of the split line 63 is stopped at a position where the feature amount in the split image 61 is large.

画像の特徴量Sの具体例として、次の第1〜第4の特徴量が挙げられる。
・第1の特徴量:ペア画素の第1画素と第2画素との位相差
・第2の特徴量:コントラストの検出量
・第3の特徴量:水平エッジ(境界線の方向におけるエッジ)
・第4の特徴量:特定対象の検出結果(特定対象らしさを示す量、特定対象の位置など)
<第1の特徴量を用いるスプリットライン位置設定例>
第1の特徴量(第1画素と第2画素との位相差)を用いる場合、選択制御部106は、例えば、次のようにして、スプリットイメージ61内のスプリットライン63の位置を算出する。
Specific examples of the image feature amount S include the following first to fourth feature amounts.
First feature amount: phase difference between the first pixel and the second pixel of the pair pixel. Second feature amount: detected amount of contrast. Third feature amount: horizontal edge (edge in the direction of the boundary line)
Fourth feature amount: detection result of the specific target (a quantity indicating the specific target, the position of the specific target, etc.)
<Example of split line position setting using first feature amount>
When the first feature amount (phase difference between the first pixel and the second pixel) is used, the selection control unit 106 calculates the position of the split line 63 in the split image 61 as follows, for example.

まず、第1の画像58a及び第2の画像58bに基づいて、撮像素子23のペア画素PR0を構成する第1画素36aの画素値と第2画素36bの画素値との位相差を、ペア画素PR0ごとに算出する。つまり、ペア画素PR1を構成する第1の画像58aの画素59aと第2の画像58bの画素59bとの位相差を算出する。次に、スプリットイメージ61内で、最も位相差が大きい位置を検出する。次に、スプリットライン63の位置を、スプリットイメージ61内で最も位相差が大きい位置に設定する。   First, based on the first image 58a and the second image 58b, the phase difference between the pixel value of the first pixel 36a and the pixel value of the second pixel 36b constituting the pair pixel PR0 of the image sensor 23 is determined as a pair pixel. Calculate for each PR0. That is, the phase difference between the pixel 59a of the first image 58a and the pixel 59b of the second image 58b constituting the pair pixel PR1 is calculated. Next, a position having the largest phase difference is detected in the split image 61. Next, the position of the split line 63 is set to a position having the largest phase difference in the split image 61.

即ち、本例の選択制御部106は、スプリットイメージ61内で最もピントがずれているところにスプリットライン63を設定する。   In other words, the selection control unit 106 of this example sets the split line 63 at a position where the focus is most shifted in the split image 61.

<第2の特徴量を用いるスプリットライン位置設定例>
第2の特徴量(コントラストの検出量)を用いる場合、選択制御部106は、例えば、次のようにして、スプリットイメージ61内のスプリットライン63の位置を算出する。
<Example of split line position setting using second feature amount>
When the second feature amount (contrast detection amount) is used, the selection control unit 106 calculates the position of the split line 63 in the split image 61 as follows, for example.

まず、画像解析部108は、第1の画像58a、第2の画像58b及び通常画像58cのうち少なくとも一つの画像に基づいて、スプリットイメージ61内のコントラストの分布を算出する。次に、画像解析部108は、スプリットイメージ61内で、最もコントラストが大きい位置を検出する。次に、合焦確認画像生成部104は、スプリットライン63の位置を、スプリットイメージ61内で最もコントラストが大きい位置に設定する。   First, the image analysis unit 108 calculates a contrast distribution in the split image 61 based on at least one of the first image 58a, the second image 58b, and the normal image 58c. Next, the image analysis unit 108 detects a position with the highest contrast in the split image 61. Next, the in-focus confirmation image generation unit 104 sets the position of the split line 63 to a position having the highest contrast in the split image 61.

即ち、本例の選択制御部106は、スプリットイメージ61内で最もピント合わせがし易いところにスプリットライン63を設定する。   That is, the selection control unit 106 in this example sets the split line 63 at a position where focusing is most easy in the split image 61.

<第3の特徴量を用いるスプリットライン位置設定例>
第3の特徴量(水平エッジ量)を用いる場合、合焦確認画像生成部104は、例えば、次のようにして、スプリットイメージ61内のスプリットライン63の位置を算出する。
<Example of split line position setting using third feature amount>
When the third feature amount (horizontal edge amount) is used, the focus confirmation image generation unit 104 calculates the position of the split line 63 in the split image 61 as follows, for example.

まず、画像解析部108は、第1の画像58a、第2の画像58b及び通常画像58cのうち少なくとも一つの画像に基づいて、水平方向(スプリットライン63に沿った方向)におけるエッジ(水平エッジ)の量の分布を算出する。もしも、スプリットイメージ61内に上下方向(スプリットライン63に直交する方向)に沿った明瞭な線が存在すれば、その明瞭な線の位置が水平エッジの位置である。次に、選択制御部106は、スプリットライン63の位置を、スプリットイメージ61内で最も水平エッジ量が大きい位置に設定する。   First, the image analysis unit 108 uses the edge (horizontal edge) in the horizontal direction (the direction along the split line 63) based on at least one of the first image 58a, the second image 58b, and the normal image 58c. Calculate the distribution of the amount. If there is a clear line in the split image 61 along the vertical direction (direction perpendicular to the split line 63), the position of the clear line is the position of the horizontal edge. Next, the selection control unit 106 sets the position of the split line 63 to a position where the horizontal edge amount is the largest in the split image 61.

即ち、本例の選択制御部106は、スプリットイメージ61内で最もピント合わせがし易いところにスプリットライン63を設定する。   That is, the selection control unit 106 in this example sets the split line 63 at a position where focusing is most easy in the split image 61.

<第4の特徴量を用いるスプリットライン位置設定例>
第4の特徴量(特定対象の検出結果)として顔検出量を用いる場合、選択制御部106は、例えば、次のようにして、スプリットイメージ61内のスプリットライン63の位置を算出する。
<Example of split line position setting using fourth feature amount>
When the face detection amount is used as the fourth feature amount (specific target detection result), for example, the selection control unit 106 calculates the position of the split line 63 in the split image 61 as follows.

まず、画像解析部108は、通常画像58c内で顔画像を検出することにより、スプリットイメージ61内に顔画像が存在するか否かを検出する。つまり、通常画像58c内で、顔らしさを示す顔検出量が最も高くなる位置を検出する。本例では、顔画像の検出と同時に、顔部品(目、口など)の検出も行う。次に、選択制御部106は、図24及び図25に示すように、スプリットライン63の位置を、顔画像65の位置に設定する。尚、図24のスプリットイメージ61では、顔画像65に対応する被写界の顔にピントが合っていないため、第1の分割画像61Lと第2の分割画像61Rとが左右にずれた状態で表示される。図25のスプリットイメージ61では、顔画像65に対応する被写界の顔にピントが合っているため、第1の分割画像61Lと第2の分割画像61Rとが左右に一致した状態で表示される。   First, the image analysis unit 108 detects whether a face image exists in the split image 61 by detecting a face image in the normal image 58c. That is, the position where the face detection amount indicating the likelihood of a face is the highest is detected in the normal image 58c. In this example, face parts (eyes, mouth, etc.) are detected simultaneously with the detection of the face image. Next, the selection control unit 106 sets the position of the split line 63 to the position of the face image 65 as shown in FIGS. In the split image 61 of FIG. 24, the face of the object scene corresponding to the face image 65 is not in focus, so the first divided image 61L and the second divided image 61R are shifted from side to side. Is displayed. In the split image 61 of FIG. 25, since the face of the object scene corresponding to the face image 65 is in focus, the first divided image 61L and the second divided image 61R are displayed in a state where they are aligned left and right. The

本例の選択制御部106は、顔画像65のうちの目の位置にスプリットライン63を設定している。また、本例の表示制御部33は、スプリットライン63の位置を示すスプリットライン・マーク64を、スプリットライン63の近傍に表示する。   The selection control unit 106 of this example sets a split line 63 at the eye position in the face image 65. Further, the display control unit 33 of this example displays a split line mark 64 indicating the position of the split line 63 in the vicinity of the split line 63.

<第7実施形態のデジタルカメラ>
第7実施形態において、合焦確認画像生成部104は、図26に示すように、スプリットイメージ61(合焦確認画像)内の左右方向H(第1の方向)に第1の画像71a(第1の画像58aの分割画像)及び第2の画像71b(第2の画像58bの分割画像)を交互に配置し、かつ、スプリットイメージ61内の左右方向Hと直交する上下方向V(第2の方向)に第1の画像71a及び第2の画像71bを交互に配置することにより、スプリットイメージ61内に第1の画像71a及び第2の画像71bを格子状に配置する。
<Digital Camera of Seventh Embodiment>
In the seventh embodiment, as shown in FIG. 26, the focus confirmation image generation unit 104 includes a first image 71a (first) in the left-right direction H (first direction) in the split image 61 (focus confirmation image). 1) (the divided image of the first image 58a) and the second image 71b (the divided image of the second image 58b) are alternately arranged, and the vertical direction V (second image) orthogonal to the horizontal direction H in the split image 61 By alternately arranging the first image 71a and the second image 71b in the direction), the first image 71a and the second image 71b are arranged in a grid pattern in the split image 61.

<第7実施形態の合焦確認画像表示処理例>
以下では、図26に示したように、第1の画像71a及び第2の画像71bを格子状に配置した(あるいはスプリットライン63を格子状に配置した)スプリットイメージ61を、「格子状合焦確認画像」という。
<Example of focus confirmation image display processing of seventh embodiment>
In the following, as shown in FIG. 26, the split image 61 in which the first image 71a and the second image 71b are arranged in a grid pattern (or the split lines 63 are arranged in a grid pattern) is referred to as “lattice focusing”. It is called “confirmation image”.

本例の合焦確認画像生成部104は、具体的には、図27に示すようにして格子状合焦確認画像(スプリットイメージ61)を生成する。   Specifically, the focus confirmation image generation unit 104 of the present example generates a lattice focus confirmation image (split image 61) as shown in FIG.

第1に、第1画素群57aに基づく第1の画像58a及び第2画素群57bに基づく第2の画像58bを、それぞれ格子状に分割する。つまり、第1の画像58a及び第2の画像58bをそれぞれS×T個(S、Tは整数)の部分画像(第1の画像71a、第2の画像71b)に分割する。尚、図27では、第1の画像58a及び第2の画像58bをそれぞれ6×4に分割した場合を示している。   First, the first image 58a based on the first pixel group 57a and the second image 58b based on the second pixel group 57b are each divided into a grid. That is, the first image 58a and the second image 58b are each divided into S × T (S and T are integers) partial images (first image 71a and second image 71b). Note that FIG. 27 shows a case where the first image 58a and the second image 58b are each divided into 6 × 4.

第2に、左右方向H(水平方向)において、左端(一端)から右端(他端)にかけて第1の画像71aと第2の画像71bとを交互に選択し、かつ、上下方向V(垂直方向)において、上端(一端)から下端(他端)にかけて第1の画像71aと第2の画像71bとを交互に選択することによって、スプリットライン63が格子状に配置された格子状合焦確認画像(スプリットイメージ61)を生成する。   Second, in the left-right direction H (horizontal direction), the first image 71a and the second image 71b are alternately selected from the left end (one end) to the right end (other end), and the up-down direction V (vertical direction) ), By alternately selecting the first image 71a and the second image 71b from the upper end (one end) to the lower end (the other end), a lattice focusing confirmation image in which the split lines 63 are arranged in a lattice shape. (Split image 61) is generated.

つまり、第1の画像71aをA(i,j)、第2の画像71bをB(i,j)、スプリットイメージ61の部分画像をF(i,j)、iは1からSの整数、jは1からTの整数としたとき、iが奇数かつjが奇数の領域ではF(i,j)=A(i,j)、iが奇数かつjが偶数の領域ではF(i,j)=B(i,j)、iが偶数かつjが奇数の領域ではF(i,j)=B(i,j)、iが偶数かつjが偶数の領域ではF(i,j)=A(i,j)である。   That is, the first image 71a is A (i, j), the second image 71b is B (i, j), the partial image of the split image 61 is F (i, j), i is an integer from 1 to S, When j is an integer from 1 to T, F (i, j) = A (i, j) in a region where i is odd and j is odd, and F (i, j) in a region where i is odd and j is even. ) = B (i, j), F (i, j) = B (i, j) in the region where i is even and j is odd, and F (i, j) = in the region where i is even and j is even A (i, j).

<第8実施形態のデジタルカメラ>
第8施形態において、合焦確認画像生成部104は、図28に示すように、スプリットイメージ61内に第1画素群57aに基づく第1の画像72aと第2画素群57bに基づく第2の画像72bとを隣接して配置し、かつ、スプリットイメージ61内に第3画素群57cに基づく通常画像58cの部分画像73cを第1の画像72a及び第2の画像72bに隣接させて配置して、スプリットイメージ61を形成する。
<Digital Camera of Eighth Embodiment>
In the eighth embodiment, the focus confirmation image generation unit 104 includes a first image 72a based on the first pixel group 57a and a second image based on the second pixel group 57b in the split image 61, as shown in FIG. The image 72b is arranged adjacent to the image, and the partial image 73c of the normal image 58c based on the third pixel group 57c is arranged in the split image 61 adjacent to the first image 72a and the second image 72b. A split image 61 is formed.

<第8実施形態の合焦確認画像表示処理例>
以下では、図28に示したような、位相差画像(第1の画像58a及び第2の画像58b)の部分画像(第1の画像72a、第2の画像72b)に、位相差なしの通常画像(通常画像58c)の部分画像72cを隣接させたスプリットイメージ61を「通常画像混在の合焦確認画像」という。
<Example of Focus Confirmation Image Display Processing in Eighth Embodiment>
In the following, a partial image (first image 72a, second image 72b) of the phase difference image (first image 58a and second image 58b) as shown in FIG. The split image 61 in which the partial images 72c of the image (normal image 58c) are adjacent to each other is referred to as a “normal image mixed focus confirmation image”.

本例の合焦確認画像生成部104は、具体的には、図29に示すようにして通常画像混在の合焦確認画像(スプリットイメージ61)を生成する。   Specifically, the focus confirmation image generation unit 104 of the present example generates a normal image mixed focus confirmation image (split image 61) as shown in FIG.

第1に、第1画素群57aに基づく第1の画像58a及び第2画素群57bに基づく第2の画像58bを、上下方向V(上下方向)において、それぞれ複数の帯状に分割する。つまり、第1の画像58a及び第2の画像58bをそれぞれQ個(Qは整数)の帯状の部分画像71a、71bに分割する。図29では、8つに分割した場合を示している。   First, the first image 58a based on the first pixel group 57a and the second image 58b based on the second pixel group 57b are each divided into a plurality of strips in the vertical direction V (vertical direction). That is, the first image 58a and the second image 58b are each divided into Q (Q is an integer) belt-like partial images 71a and 71b. FIG. 29 shows a case where the image is divided into eight.

第2に、第3画素群37cに基づく通常画像58cからスプリットイメージ61に対応する部分を、スプリットイメージ61のサイズとなるように抽出し、第1の画像58a及び第2の画像58bと同様に、上下方向V(上下方向)において、複数の帯状の部分画像72cに分割する。図29では、8つに分割した場合を示している。   Secondly, a portion corresponding to the split image 61 is extracted from the normal image 58c based on the third pixel group 37c so as to be the size of the split image 61, and similarly to the first image 58a and the second image 58b. In the vertical direction V (vertical direction), the image is divided into a plurality of band-shaped partial images 72c. FIG. 29 shows a case where the image is divided into eight.

第3に、上下方向V(水平方向)において、上端(一端)から下端(他端)にかけて、第1の画像72a、第2の画像72b、通常画像58cの部分画像72c、第1の画像72a、第2の画像72b、通常画像58cの部分画像72c・・・という順番で選択することによって、位相差画像間のスプリットライン63a(第1の画像72aと第2の画像72bとの境界線)、及び、位相差画像と通常画像間のスプリットライン63b,63c(第2の画像72bと通常画像58cの部分画像72cとのスプリットライン63b、通常画像58cの部分画像72cと第1の画像72aとのスプリットライン63c)が配置された通常画像混在型の合焦確認画像(スプリットイメージ61)を生成する。   Third, in the vertical direction V (horizontal direction), from the upper end (one end) to the lower end (the other end), the first image 72a, the second image 72b, the partial image 72c of the normal image 58c, and the first image 72a. , The second image 72b, the partial image 72c of the normal image 58c, and so on, in this order, the split line 63a between the phase difference images (the boundary line between the first image 72a and the second image 72b) And split lines 63b and 63c between the phase difference image and the normal image (a split line 63b between the second image 72b and the partial image 72c of the normal image 58c, a partial image 72c of the normal image 58c and the first image 72a) The normal image mixed type in-focus confirmation image (split image 61) in which the split line 63c) is arranged is generated.

つまり、第1の画像58aの部分画像(第1の画像72a)をA(j)、第2の画像58bの部分画像(第2の画像72b)をB(j)、通常画像58cの部分画像72cをC(j)、スプリットイメージ61の部分画像をF(j)、jは1からQの整数、Qは1以上の整数としたとき、F(j)=A(j)、F(j+2)=B(j+2)、F(j+3)=C(j+3)・・・という順番で配置して、通常画像混在の合焦確認画像(スプリットイメージ61)を生成する。   That is, the partial image (first image 72a) of the first image 58a is A (j), the partial image (second image 72b) of the second image 58b is B (j), and the partial image of the normal image 58c. When 72c is C (j), the partial image of the split image 61 is F (j), j is an integer from 1 to Q, and Q is an integer of 1 or more, F (j) = A (j), F (j + 2 ) = B (j + 2), F (j + 3) = C (j + 3)... To generate a focus confirmation image (split image 61) containing a normal image.

<第8実施形態のデジタルカメラの作用効果>
本実施形態のデジタルカメラによれば、ユーザは、白黒の位相差画像とカラーの通常画像との境界線(スプリットライン)にも位相差が生じるため、白黒の位相差画像同士のずれだけでなく、白黒の位相差画像とカラーの通常画像とのずれによっても、ピント合わせが可能になる。
<Effects of Digital Camera of Eighth Embodiment>
According to the digital camera of this embodiment, the user also has a phase difference at the boundary line (split line) between the black and white phase difference image and the color normal image. Also, focusing can be achieved by a shift between the monochrome phase difference image and the color normal image.

<撮像素子の画素配列のバリエーション>
[非ベイヤ配列の基本配列パターン]
上記各実施形態の撮像素子23の画素配列(カラーフィルタ配列)は、水平及び垂直方向に繰り返し配置された6×6画素に対応する基本配列パターンPにより構成されているが、N×N画素(Nは3以上)に対応する配列パターンの基本配列パターンにより構成されていてもよい。
<Variation of pixel arrangement of image sensor>
[Basic array pattern of non-Bayer array]
The pixel array (color filter array) of the image sensor 23 of each of the above embodiments is configured by a basic array pattern P corresponding to 6 × 6 pixels repeatedly arranged in the horizontal and vertical directions, but N × N pixels ( N may be a basic array pattern of array patterns corresponding to 3 or more.

また、フィルタの色は、RGBの3原色に限定されない。例えばRGBの3原色+他の色(例えば、エメラルド(E))の4色のカラーフィルタのカラーフィルタ配列であってもよい。原色RGBの補色であるC(シアン)、M(マゼンタ)、Y(イエロー)のカラーフィルタのカラーフィルタ配列でもよい。   The filter color is not limited to the three primary colors RGB. For example, a color filter array of four color filters of three primary colors of RGB + other colors (for example, emerald (E)) may be used. A color filter array of C (cyan), M (magenta), and Y (yellow) color filters which are complementary colors of the primary colors RGB may be used.

[ベイヤ配列]
また、撮像素子23の画素配列(カラーフィルタ配列)は、図30に示すベイヤ配列の画素配列でもよい。図30において、ベイヤ配列からなる画素配列の一部に、複数の第1位相差画素36a(第1画素)と複数の第2位相差画素36b(第2画素)が配置されている。
[Bayer array]
Further, the pixel array (color filter array) of the image sensor 23 may be a Bayer array pixel array shown in FIG. In FIG. 30, a plurality of first phase difference pixels 36a (first pixels) and a plurality of second phase difference pixels 36b (second pixels) are arranged in a part of a pixel array composed of a Bayer array.

[2面配列]
また、撮像素子23の画素配列(カラーフィルタ配列)は、図31に示す同色画素をずらして配置した2面の配列からなる画素配列でよい。図31において、同色画素をずらして配置した2面の配列からなる画素配列の一部に、複数の第1位相差画素36a(第1画素)と複数の第2位相差画素36b(第2画素)が配置され、かつ、ペア画素の第1位相差画素36aと第2位相差画素36bとが隣接して配置されている。
[Two-sided arrangement]
In addition, the pixel array (color filter array) of the image sensor 23 may be a pixel array including two-surface arrays in which the same color pixels shown in FIG. In FIG. 31, a plurality of first phase difference pixels 36 a (first pixels) and a plurality of second phase difference pixels 36 b (second pixels) are included in a part of a pixel array composed of two-sided arrangements in which pixels of the same color are shifted. ) And the first phase difference pixel 36a and the second phase difference pixel 36b of the paired pixels are arranged adjacent to each other.

<他の機器>
上記各実施形態では本発明の撮像装置としてデジタルカメラを例に挙げて説明を行ったが、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機にも本発明を適用することができる。以下、スマートフォンを例に挙げ、図面を参照しつつ、詳細に説明する。
<Other devices>
In each of the above-described embodiments, the digital camera has been described as an example of the imaging device of the present invention. Can be applied. Hereinafter, a smartphone will be described as an example, and will be described in detail with reference to the drawings.

図32は、スマートフォン500の外観を示すものである。図32に示すスマートフォン500は、平板状の筐体502を有し、筐体502の一方の面に表示パネル521と、入力部としての操作パネル522(タッチパネル)とが一体となった表示入力部520(「タッチパネル式の表示部」ともいう)を備えている。また、筐体502は、スピーカ531と、マイクロホン532、操作部540と、カメラ部541とを備えている。尚、筐体502の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。   FIG. 32 shows the appearance of the smartphone 500. A smartphone 500 shown in FIG. 32 includes a flat housing 502, and a display input unit in which a display panel 521 and an operation panel 522 (touch panel) as an input unit are integrated on one surface of the housing 502. 520 (also referred to as a “touch panel display unit”). The housing 502 includes a speaker 531, a microphone 532, an operation unit 540, and a camera unit 541. Note that the configuration of the housing 502 is not limited to this, and, for example, a configuration in which the display unit and the input unit are independent, or a configuration having a folding structure or a slide mechanism may be employed.

図33は、図32に示すスマートフォン500の構成を示すブロック図である。図33に示すように、スマートフォンの主たる構成要素として、無線通信部510と、表示入力部520と、通話部530と、操作部540と、カメラ部541と、記憶部550と、外部入出力部560と、GPS(Global Positioning System)受信部570と、モーションセンサ部580と、電源部590と、主制御部501とを備える。また、スマートフォン500の主たる機能として、基地局装置BSと移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。   FIG. 33 is a block diagram showing a configuration of the smartphone 500 shown in FIG. As shown in FIG. 33, the main components of the smartphone include a wireless communication unit 510, a display input unit 520, a call unit 530, an operation unit 540, a camera unit 541, a storage unit 550, and an external input / output unit. 560, a GPS (Global Positioning System) receiving unit 570, a motion sensor unit 580, a power supply unit 590, and a main control unit 501. In addition, as a main function of the smartphone 500, a wireless communication function for performing mobile wireless communication via the base station device BS and the mobile communication network NW is provided.

無線通信部510は、主制御部501の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。   The radio communication unit 510 performs radio communication with the base station apparatus BS accommodated in the mobile communication network NW according to an instruction from the main control unit 501. Using this wireless communication, transmission and reception of various file data such as audio data and image data, e-mail data, and reception of Web data and streaming data are performed.

表示入力部520は、主制御部501の制御により、画像(静止画像および動画像)や文字情報などを表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル521と、操作パネル522とを備える。生成された3D画像を鑑賞する場合には、表示パネル521は、3D表示パネルであることが好ましい。   The display input unit 520 displays images (still images and moving images), character information, and the like visually by transmitting information to the user under the control of the main control unit 501, and detects user operations on the displayed information. A so-called touch panel, which includes a display panel 521 and an operation panel 522. When viewing the generated 3D image, the display panel 521 is preferably a 3D display panel.

表示パネル521は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル522は、表示パネル521の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部501に出力する。次いで、主制御部501は、受信した検出信号に基づいて、表示パネル521上の操作位置(座標)を検出する。   The display panel 521 uses an LCD (Liquid Crystal Display), an OELD (Organic Electro-Luminescence Display), or the like as a display device. The operation panel 522 is a device that is placed so that an image displayed on the display surface of the display panel 521 is visible and detects one or a plurality of coordinates operated by a user's finger or stylus. When this device is operated by a user's finger or stylus, a detection signal generated due to the operation is output to the main control unit 501. Next, the main control unit 501 detects an operation position (coordinates) on the display panel 521 based on the received detection signal.

図32に示すように、スマートフォン500の表示パネル521と操作パネル522とは一体となって表示入力部520を構成しているが、操作パネル522が表示パネル521を完全に覆うような配置となっている。この配置を採用した場合、操作パネル522は、表示パネル521外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル522は、表示パネル521に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル521に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。   As shown in FIG. 32, the display panel 521 and the operation panel 522 of the smartphone 500 integrally form the display input unit 520, but the operation panel 522 is arranged so as to completely cover the display panel 521. ing. When this arrangement is adopted, the operation panel 522 may have a function of detecting a user operation even in an area outside the display panel 521. In other words, the operation panel 522 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 521 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 521. May be included).

尚、表示領域の大きさと表示パネル521の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要はない。また、操作パネル522が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。さらに、外縁部分の幅は、筐体502の大きさなどに応じて適宜設計されるものである。さらにまた、操作パネル522で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。   Note that the size of the display area and the size of the display panel 521 may be completely matched, but it is not always necessary to match the two. In addition, the operation panel 522 may include two sensitive regions of the outer edge portion and the other inner portion. Furthermore, the width of the outer edge portion is appropriately designed according to the size of the housing 502 and the like. Furthermore, examples of the position detection method employed in the operation panel 522 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method, and any method is adopted. You can also

通話部530は、スピーカ531やマイクロホン532を備え、マイクロホン532を通じて入力されたユーザの音声を主制御部501にて処理可能な音声データに変換して主制御部501に出力したり、無線通信部510あるいは外部入出力部560により受信された音声データを復号してスピーカ531から出力するものである。また、図32に示すように、例えば、スピーカ531およびマイクロホン532を表示入力部520が設けられた面と同じ面に搭載する。マイクロホン532を筐体502の側面に搭載することもできる。   The call unit 530 includes a speaker 531 and a microphone 532, and converts a user's voice input through the microphone 532 into voice data that can be processed by the main control unit 501, and outputs the voice data to the main control unit 501, or a wireless communication unit 510 or the audio data received by the external input / output unit 560 is decoded and output from the speaker 531. As shown in FIG. 32, for example, the speaker 531 and the microphone 532 are mounted on the same surface as the surface on which the display input unit 520 is provided. A microphone 532 can be mounted on the side surface of the housing 502.

操作部540は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図32に示すように、操作部540は、スマートフォン500の筐体502の表示部の下部、下側面に搭載され、指などで押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。   The operation unit 540 is a hardware key using a key switch or the like, and receives an instruction from the user. For example, as illustrated in FIG. 32, the operation unit 540 is mounted on the lower and lower side of the display unit of the housing 502 of the smartphone 500 and turns on when pressed with a finger or the like, and restores a spring or the like when the finger is released. It is a push button type switch that is turned off by force.

記憶部550は、主制御部501の制御プログラムや制御データ、本発明に係る左目画像及び右目画像を生成するための画像処理プログラムを含むアプリケーションソフトウェア、立体視画像を生成するために使用する第1及び第2のデジタルフィルタ群、視差マップ、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータなどを一時的に記憶するものである。また、記憶部550は、スマートフォン内蔵の内部記憶部551と着脱自在な外部メモリスロットを有する外部記憶部552により構成される。尚、記憶部550を構成するそれぞれの内部記憶部551と外部記憶部552は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、Micro SD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)などの格納媒体を用いて実現される。   The storage unit 550 includes control software and control data for the main control unit 501, application software including an image processing program for generating a left-eye image and a right-eye image according to the present invention, and a first used for generating a stereoscopic image. And the second digital filter group, the parallax map, the address data that associates the name and telephone number of the communication partner, the transmitted / received e-mail data, the web data downloaded by web browsing, and the downloaded content data, It also temporarily stores streaming data and the like. The storage unit 550 includes an internal storage unit 551 with a built-in smartphone and an external storage unit 552 having a removable external memory slot. Each of the internal storage unit 551 and the external storage unit 552 constituting the storage unit 550 includes a flash memory type, a hard disk type, a multimedia card micro type, a multimedia card micro type, This is realized using a storage medium such as a card type memory (for example, Micro SD (registered trademark) memory), a RAM (Random Access Memory), a ROM (Read Only Memory), or the like.

外部入出力部560は、スマートフォン500に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394など)またはネットワーク(例えば、インターネット、無線LAN、ブルートゥースBluetooth(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により直接的または間接的に接続するためのものである。   The external input / output unit 560 serves as an interface with all external devices connected to the smartphone 500, and communicates with other external devices (for example, universal serial bus (USB), IEEE1394, etc.) or a network. (For example, the Internet, wireless LAN, Bluetooth (registered trademark), RFID (Radio Frequency Identification), infrared communication (Infrared Data Association: IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark), ZigBee (Registered trademark) etc.) for direct or indirect connection.

スマートフォン500に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホンなどがある。外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン500の内部の各構成要素に伝達することや、スマートフォン500の内部のデータが外部機器に伝送されるようにすることができる。   External devices connected to the smartphone 500 include, for example, a wired / wireless headset, wired / wireless external charger, wired / wireless data port, a memory card connected via a card socket, and a SIM (Subscriber). Identity Module Card) / UIM (User Identity Module Card) card, external audio / video equipment connected via audio / video I / O (Input / Output) terminal, external audio / video equipment connected wirelessly, yes / no There are a wirelessly connected smartphone, a wired / wireless personal computer, a wired / wireless PDA, a wired / wireless personal computer, an earphone, and the like. The external input / output unit may transmit data received from such an external device to each component inside the smartphone 500, or may allow data inside the smartphone 500 to be transmitted to the external device. it can.

GPS受信部570は、主制御部501の指示にしたがって、GPS衛星ST1〜STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン500の緯度、経度、高度からなる位置を検出する。GPS受信部570は、無線通信部510や外部入出力部560(例えば、無線LAN)から位置情報を取得できるときには、その位置情報を用いて位置を検出することもできる。モーションセンサ部580は、例えば、3軸の加速度センサなどを備え、主制御部501の指示にしたがって、スマートフォン500の物理的な動きを検出する。スマートフォン500の物理的な動きを検出することにより、スマートフォン500の動く方向や加速度が検出される。この検出結果は、主制御部501に出力されるものである。   The GPS receiving unit 570 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 501, performs positioning calculation processing based on the received plurality of GPS signals, the latitude of the smartphone 500, A position consisting of longitude and altitude is detected. When the GPS receiving unit 570 can acquire position information from the wireless communication unit 510 or the external input / output unit 560 (for example, a wireless LAN), the GPS receiving unit 570 can also detect the position using the position information. The motion sensor unit 580 includes, for example, a three-axis acceleration sensor and detects the physical movement of the smartphone 500 in accordance with an instruction from the main control unit 501. By detecting the physical movement of the smartphone 500, the moving direction and acceleration of the smartphone 500 are detected. This detection result is output to the main control unit 501.

電源部590は、主制御部501の指示にしたがって、スマートフォン500の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。   The power supply unit 590 supplies power stored in a battery (not shown) to each unit of the smartphone 500 in accordance with an instruction from the main control unit 501.

主制御部501は、マイクロプロセッサを備え、記憶部550が記憶する制御プログラムや制御データに従って動作し、スマートフォン500の各部を統括して制御するものである。また、主制御部501は、無線通信部510を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。   The main control unit 501 includes a microprocessor, operates according to a control program and control data stored in the storage unit 550, and controls each unit of the smartphone 500 in an integrated manner. Further, the main control unit 501 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 510.

アプリケーション処理機能は、記憶部550が記憶するアプリケーションソフトウェアに従って主制御部501が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部560を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能、本発明に係る2D画像から3D画像を生成する機能などがある。   The application processing function is realized by the main control unit 501 operating in accordance with application software stored in the storage unit 550. Examples of the application processing function include an infrared communication function for controlling the external input / output unit 560 to perform data communication with the opposite device, an e-mail function for sending and receiving e-mails, a web browsing function for browsing web pages, and the present invention. And a function for generating a 3D image from the 2D image according to the above.

また、主制御部501は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部520に表示する等の画像処理機能を備える。画像処理機能とは、主制御部501が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部520に表示する機能のことをいう。   Further, the main control unit 501 has an image processing function such as displaying video on the display input unit 520 based on image data (still image or moving image data) such as received data or downloaded streaming data. The image processing function is a function in which the main control unit 501 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 520.

さらに、主制御部501は、表示パネル521に対する表示制御と、操作部540、操作パネル522を通じたユーザ操作を検出する操作検出制御を実行する。   Further, the main control unit 501 executes display control for the display panel 521 and operation detection control for detecting a user operation through the operation unit 540 and the operation panel 522.

表示制御の実行により、主制御部501は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成するためのウィンドウを表示する。尚、スクロールバーとは、表示パネル521の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。   By executing the display control, the main control unit 501 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail. Note that the scroll bar refers to a software key for accepting an instruction to move the display portion of a large image that does not fit in the display area of the display panel 521.

また、操作検出制御の実行により、主制御部501は、操作部540を通じたユーザ操作を検出したり、操作パネル522を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。   Further, by executing the operation detection control, the main control unit 501 detects a user operation through the operation unit 540, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 522. Or a display image scroll request through a scroll bar.

さらに、操作検出制御の実行により主制御部501は、操作パネル522に対する操作位置が、表示パネル521に重なる重畳部分(表示領域)か、それ以外の表示パネル521に重ならない外縁部分(非表示領域)かを判定し、操作パネル522の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。   Further, by executing the operation detection control, the main control unit 501 causes the operation position with respect to the operation panel 522 to overlap with the display panel 521 (display area) or the outer edge part (non-display area) that does not overlap with the other display panel 521. And a touch panel control function for controlling the sensitive area of the operation panel 522 and the display position of the software key.

また、主制御部501は、操作パネル522に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。   The main control unit 501 can also detect a gesture operation on the operation panel 522 and execute a preset function in accordance with the detected gesture operation. Gesture operation is not a conventional simple touch operation, but an operation that draws a trajectory with a finger or the like, designates a plurality of positions at the same time, or combines these to draw a trajectory for at least one of a plurality of positions. means.

カメラ部(撮像装置)541は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge-Coupled Device)などの撮像素子を用いて電子撮影するデジタルカメラであり、上記各実施形態のデジタルカメラと基本的に同じ構成である。   A camera unit (imaging device) 541 is a digital camera that performs electronic photography using an imaging device such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge-Coupled Device), and is basically the same as the digital camera of each of the above embodiments. It is the same configuration.

また、カメラ部541は、主制御部501の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換し、記憶部550に記録したり、外部入出力部560や無線通信部510を通じて出力したりすることができる。図32に示すにスマートフォン500において、カメラ部541は表示入力部520と同じ面に搭載されているが、カメラ部541の搭載位置はこれに限らず、表示入力部520の背面に搭載されてもよいし、あるいは複数のカメラ部541が搭載されてもよい。尚、複数のカメラ部541が搭載されている場合には、撮影に供するカメラ部541を切り替えて単独にて撮影したり、あるいは、複数のカメラ部541を同時に使用して撮影したりすることもできる。   The camera unit 541 converts image data obtained by imaging into compressed image data such as JPEG (Joint Photographic coding Experts Group) under the control of the main control unit 501, and records the data in the storage unit 550, The data can be output through the input / output unit 560 and the wireless communication unit 510. In the smartphone 500 shown in FIG. 32, the camera unit 541 is mounted on the same surface as the display input unit 520. However, the mounting position of the camera unit 541 is not limited thereto, and may be mounted on the back surface of the display input unit 520. Alternatively, a plurality of camera units 541 may be mounted. When a plurality of camera units 541 are installed, the camera unit 541 used for shooting may be switched to shoot alone, or a plurality of camera units 541 may be used for shooting simultaneously. it can.

また、カメラ部541はスマートフォン500の各種機能に利用することができる。例えば、表示パネル521にカメラ部541で取得した画像を表示することや、操作パネル522の操作入力の一つとして、カメラ部541の画像を利用することができる。また、GPS受信部570が位置を検出する際に、カメラ部541からの画像を参照して位置を検出することもできる。さらには、カメラ部541からの画像を参照して、3軸の加速度センサを用いずにあるいは3軸の加速度センサと併用して、スマートフォン500のカメラ部541の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部541からの画像をアプリケーションソフトウェア内で利用することもできる。   The camera unit 541 can be used for various functions of the smartphone 500. For example, an image acquired by the camera unit 541 can be displayed on the display panel 521, or the image of the camera unit 541 can be used as one of operation inputs of the operation panel 522. Further, when the GPS receiving unit 570 detects the position, the position can also be detected with reference to an image from the camera unit 541. Furthermore, referring to the image from the camera unit 541, the optical axis direction of the camera unit 541 of the smartphone 500 can be determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor, The current usage environment can also be determined. Of course, the image from the camera unit 541 can be used in the application software.

その他、静止画または動画の画像データにGPS受信部570により取得した位置情報、マイクロホン532により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部580により取得した姿勢情報等などを付加して記憶部550に記録したり、外部入出力部560や無線通信部510を通じて出力したりすることもできる。   In addition, the position information acquired by the GPS receiver 570 to the image data of the still image or the moving image, the voice information acquired by the microphone 532 (the text information may be converted into voice information by the main control unit or the like), Posture information and the like acquired by the motion sensor unit 580 can be added and recorded in the storage unit 550 or output through the external input / output unit 560 or the wireless communication unit 510.

図32及び図33に示したスマートフォン500は、前述のデジタルカメラ2と同様の機能を有する。図33の主制御部501は、図6または図22に示した画像処理回路29の機能を有する。つまり主制御部501は、本発明における「画像生成手段」、「境界変更手段」、「選択手段」、「表示制御手段」及び「画像解析手段」を構成する。また、表示入力部520(タッチパネル式の表示部)は、本発明における「表示手段」、「位置入力手段」及び「数入力手段」を構成する。   The smartphone 500 shown in FIGS. 32 and 33 has the same function as the digital camera 2 described above. 33 has the function of the image processing circuit 29 shown in FIG. 6 or FIG. That is, the main control unit 501 constitutes “image generation means”, “boundary change means”, “selection means”, “display control means”, and “image analysis means” in the present invention. The display input unit 520 (touch panel type display unit) constitutes “display means”, “position input means”, and “number input means” in the present invention.

本例のスマートフォン500は、表示入力部520によって、図12に示したスプリットライン63をドラッグするドラッグ操作を受け付ける。境界変更手段として機能する主制御部501は、表示入力部520にスプリットイメージ61(合焦確認画像)が表示された状態で、スプリットライン63(境界線)をドラッグするドラッグ操作が表示入力部520で行われたとき、ドラッグ操作に合わせてスプリットイメージ61内のスプリットライン63の位置をスプリットライン63と直交する方向において変更する。このようなスプリットライン63の位置の変更は、主として、境界変更手段として機能する主制御部501により行われる。   The smartphone 500 of this example receives a drag operation for dragging the split line 63 illustrated in FIG. When the split image 61 (focus confirmation image) is displayed on the display input unit 520, the main control unit 501 functioning as the boundary changing unit performs a drag operation to drag the split line 63 (boundary line). Is performed, the position of the split line 63 in the split image 61 is changed in a direction orthogonal to the split line 63 in accordance with the drag operation. Such a change in the position of the split line 63 is mainly performed by the main control unit 501 functioning as a boundary changing unit.

また、例えば、スプリットライン63の中点を中心点として、表示入力部520のタッチパネルでスプリットライン63の端部付近をドラッグすることで、スプリットライン63(境界線)の角度を変更することも可能である。このようなスプリットライン63の角度の変更は、主として、境界変更部として機能する主制御部501により行われる。つまり、本発明における境界変更手段は、スプリットライン63の位置をスプリットライン63と直交する方向において変更する機能だけでなく、スプリットライン63の角度を変更する機能を併せて有していてもよい。   Also, for example, the angle of the split line 63 (boundary line) can be changed by dragging the vicinity of the end of the split line 63 with the touch panel of the display input unit 520 with the center point of the split line 63 as the center point. It is. Such a change in the angle of the split line 63 is mainly performed by the main control unit 501 functioning as a boundary changing unit. That is, the boundary changing means in the present invention may have not only a function of changing the position of the split line 63 in a direction orthogonal to the split line 63 but also a function of changing the angle of the split line 63.

以上、本発明の理解を容易にするため、各種の実施形態に分けて説明してきたが、各種の実施形態を適宜組み合わせて実施しても良い。   As mentioned above, in order to make an understanding of this invention easy, although it divided and demonstrated to various embodiment, you may implement combining various embodiment suitably.

尚、本発明は、本明細書において説明した例や図面に図示された例には限定されず、本発明の要旨を逸脱しない範囲において、各種の設計変更や改良を行ってよいのはもちろんである。   The present invention is not limited to the examples described in this specification and the examples illustrated in the drawings, and various design changes and improvements may be made without departing from the scope of the present invention. is there.

9:操作部、29:画像処理回路、52:通常処理部、54スプリットイメージ処理部、102:選択部、104:合焦確認画像生成部、106:選択制御部   9: operation unit, 29: image processing circuit, 52: normal processing unit, 54 split image processing unit, 102: selection unit, 104: focus confirmation image generation unit, 106: selection control unit

Claims (18)

撮影レンズにおける第1及び第2の領域を通過した被写体光が瞳分割されてそれぞれ入射される第1及び第2の画素群を有する撮像素子から出力された画像に基づいて第1の表示用画像を生成し、かつ前記第1及び第2の画素群からそれぞれ出力された第1の画像及び第2の画像に基づいて合焦確認に使用する第2の表示用画像を生成する画像生成手段と、
前記第2の表示用画像における前記第1の画像と前記第2の画像との境界の位置を前記境界と直交する方向において変更する境界変更手段と、
前記境界変更手段により変更された前記境界で分割される前記第2の表示用画像内の複数の分割領域のそれぞれにおいて、前記第1の画像及び前記第2の画像のいずれかを選択する選択手段と、
表示手段と、
前記第1の表示用画像を前記表示手段に表示させ、前記第1の表示用画像の表示領域内に、前記境界変更手段によって前記境界の位置が変更された前記第2の表示用画像を表示させる表示制御手段と、
を備えた撮像装置。
A first display image based on an image output from an imaging device having first and second pixel groups into which subject light that has passed through the first and second regions in the photographing lens is divided into pupils and incident. And image generation means for generating a second display image to be used for focus confirmation based on the first image and the second image output from the first and second pixel groups, respectively. ,
Boundary changing means for changing a position of a boundary between the first image and the second image in the second display image in a direction orthogonal to the boundary;
Selection means for selecting one of the first image and the second image in each of a plurality of divided areas in the second display image divided by the boundary changed by the boundary changing means. When,
Display means;
The first display image is displayed on the display unit, and the second display image in which the boundary position is changed by the boundary changing unit is displayed in a display area of the first display image. Display control means,
An imaging apparatus comprising:
前記第2の表示用画像内の前記境界の位置の変更指示を入力する位置入力手段を備え、
前記境界変更手段は、前記表示手段に表示させる前記第2の表示用画像内の前記境界の位置を、前記位置入力手段によって入力された前記位置の変更指示に応じて変更する請求項1に記載の撮像装置。
Position input means for inputting an instruction to change the position of the boundary in the second display image;
The boundary changing unit changes the position of the boundary in the second display image to be displayed on the display unit according to the position change instruction input by the position input unit. Imaging device.
前記表示手段は、タッチパネル式の表示手段であり、
前記位置入力手段は、前記タッチパネル式の表示手段によって構成され、
前記境界変更手段は、前記表示手段に前記第2の表示用画像が表示された状態で当該第2の表示用画像の前記境界をドラッグするドラッグ操作が前記タッチパネル式の表示手段で行われたとき、前記ドラッグ操作に合わせて前記第2の表示用画像内の前記境界の位置を変更する請求項2に記載の撮像装置。
The display means is a touch panel type display means,
The position input means is constituted by the touch panel type display means,
The boundary changing unit is configured such that a drag operation for dragging the boundary of the second display image is performed on the touch panel type display unit in a state where the second display image is displayed on the display unit. The imaging apparatus according to claim 2, wherein the position of the boundary in the second display image is changed in accordance with the drag operation.
前記第2の表示用画像内の前記境界の数を入力する数入力手段を備え、
前記境界変更手段は、前記表示手段に表示される前記第2の表示用画像内の前記境界の数を、前記数入力手段によって入力された前記数の変更指示に応じて変更する請求項1ないし3のうちいずれか1項に記載の撮像装置。
Number input means for inputting the number of the boundaries in the second display image;
The boundary changing means changes the number of the boundaries in the second display image displayed on the display means in accordance with the number change instruction input by the number input means. The imaging device according to any one of 3.
前記境界変更手段は、入力された前記境界の数Lが奇数であった場合、前記L本の境界のうち第(L+1)/2本目の境界を、前記第2の表示用画像の中央または前記第2の表示用画像の中央の近傍に位置させる請求項4に記載の撮像装置。   When the input number L of the boundaries is an odd number, the boundary changing means sets the (L + 1) / 2th boundary among the L boundaries as the center of the second display image or the The imaging apparatus according to claim 4, wherein the imaging apparatus is positioned in the vicinity of the center of the second display image. 前記境界変更手段は、時間の経過に応じて前記第2の表示用画像内の前記境界の位置を移動させる請求項1から5のうちいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the boundary changing unit moves the position of the boundary in the second display image as time elapses. 前記撮影レンズのフォーカス位置の変更操作を行うフォーカス操作手段を備え、
前記境界変更手段は、前記フォーカス操作手段によって前記フォーカス位置の変更操作が開始されたとき、前記第2の表示用画像内の前記境界の移動を停止させる請求項6に記載の撮像装置。
A focus operation means for performing a change operation of the focus position of the photographing lens;
The imaging apparatus according to claim 6, wherein the boundary changing unit stops the movement of the boundary in the second display image when the focus position changing operation is started by the focus operation unit.
前記撮像素子は、前記被写体光が瞳分割されずに入射される第3の画素群をさらに有し、前記第1の表示用画像は前記第3の画素群から出力された第3の画像に基づいて生成される請求項1ないし7のうちいずれか1項に記載の撮像装置。   The imaging device further includes a third pixel group on which the subject light is incident without being divided into pupils, and the first display image is a third image output from the third pixel group. The imaging device according to claim 1, wherein the imaging device is generated based on the imaging device. 前記画像生成手段は、前記第2の表示用画像内に前記第1の画像と前記第2の画像とを隣接して配置する請求項8に記載の撮像装置。   The imaging apparatus according to claim 8, wherein the image generation unit arranges the first image and the second image adjacent to each other in the second display image. 前記画像生成手段は、前記第2の表示用画像内に、前記第3の画像を前記第1の画像及び前記第2の画像に隣接させて配置する請求項9に記載の撮像装置。   The imaging apparatus according to claim 9, wherein the image generation unit arranges the third image adjacent to the first image and the second image in the second display image. 前記画像生成手段は、前記第2の表示用画像内の第1の方向に前記第1の画像及び前記第2の画像を交互に配置し、かつ、前記第2の表示用画像内の前記第1の方向と直交する第2の方向に前記第1の画像及び前記第2の画像を交互に配置することにより、前記第2の表示用画像内に前記第1の画像及び前記第2の画像を格子状に配置した前記第2の表示用画像を生成する請求項1から8のうちいずれか1項に記載の撮像装置。   The image generation means alternately arranges the first image and the second image in a first direction in the second display image, and the second image in the second display image. By alternately arranging the first image and the second image in a second direction orthogonal to the first direction, the first image and the second image in the second display image The imaging device according to claim 1, wherein the second display image is generated in a grid pattern. 前記撮像素子から出力された画像の解析を行う画像解析手段を備え、
前記境界変更手段は、前記画像解析手段の解析結果に基づいて、前記第2の表示用画像内の前記境界の位置を変更する請求項1ないし11のうちいずれか1項に記載の撮像装置。
Image analysis means for analyzing the image output from the image sensor;
The imaging apparatus according to claim 1, wherein the boundary changing unit changes the position of the boundary in the second display image based on an analysis result of the image analysis unit.
前記画像解析手段は、前記第1の画像の画素と当該第1の画像の画素に対応する前記第2の画像の画素との位相差を検出し、
前記境界変更手段は、検出された前記位相差に基づいて、前記第2の表示用画像内の前記境界の位置を変更する請求項12に記載の撮像装置。
The image analysis means detects a phase difference between a pixel of the first image and a pixel of the second image corresponding to the pixel of the first image;
The imaging device according to claim 12, wherein the boundary changing unit changes the position of the boundary in the second display image based on the detected phase difference.
前記画像解析手段は、前記画像内のコントラストを検出し、
前記境界変更手段は、検出された前記コントラストの検出量に基づいて、前記第2の表示用画像内の前記境界の位置を変更する請求項12に記載の撮像装置。
The image analysis means detects a contrast in the image;
The imaging apparatus according to claim 12, wherein the boundary changing unit changes the position of the boundary in the second display image based on the detected amount of the detected contrast.
前記画像解析手段は、前記画像の前記境界の方向におけるエッジを検出し、
前記境界変更手段は、検出された前記エッジの検出量に基づいて、前記第2の表示用画像内の前記境界の位置を変更する請求項12に記載の撮像装置。
The image analysis means detects an edge in the direction of the boundary of the image;
The imaging device according to claim 12, wherein the boundary changing unit changes the position of the boundary in the second display image based on the detected amount of the detected edge.
前記画像解析手段は、前記画像内の特定対象を検出し、
前記境界変更手段は、前記第2の表示用画像内の前記境界を、検出された前記特定対象の位置に設定する請求項12に記載の撮像装置。
The image analysis means detects a specific object in the image,
The imaging apparatus according to claim 12, wherein the boundary changing unit sets the boundary in the second display image to the detected position of the specific target.
前記表示制御手段は、前記境界の近傍に、前記境界の位置を示す指標を表示させる請求項1から16のうちいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the display control unit displays an index indicating the position of the boundary in the vicinity of the boundary. 撮影レンズにおける第1及び第2の領域を通過した被写体光が瞳分割されてそれぞれ入射される第1及び第2の画素群を有する撮像素子と、表示手段とを用い、前記撮像素子から出力された画像に基づいて生成した第1の表示用画像を前記表示手段に表示させ、前記第1の表示用画像の表示領域内に、前記第1及び第2の画素群からそれぞれ出力された第1の画像及び第2の画像に基づいて生成した合焦確認に使用する第2の表示用画像を表示させる合焦確認表示方法であって、
前記第2の表示用画像における前記第1の画像と前記第2の画像との境界の位置を前記境界と直交する方向において変更し、
変更された前記境界で分割される前記第2の表示用画像内の複数の分割領域のそれぞれにおいて、前記第1の画像及び前記第2の画像のいずれかを選択し、
前記第1の表示用画像の表示領域内に、前記境界の位置が変更された前記第2の表示用画像を表示させる合焦確認表示方法。
The subject light that has passed through the first and second regions in the photographic lens is output from the imaging element using an imaging element having first and second pixel groups into which pupil light is divided and incident, respectively, and display means. The first display image generated based on the first image is displayed on the display means, and the first and second pixel groups respectively output from the first and second pixel groups within the display area of the first display image. A focus confirmation display method for displaying a second display image used for focus confirmation generated based on the image and the second image,
Changing the position of the boundary between the first image and the second image in the second display image in a direction orthogonal to the boundary;
In each of the plurality of divided areas in the second display image divided at the changed boundary, select either the first image or the second image;
A focus confirmation display method for displaying the second display image in which the position of the boundary is changed in the display area of the first display image.
JP2014536834A 2012-09-19 2013-09-13 Imaging apparatus and focus confirmation display method Expired - Fee Related JP5753321B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014536834A JP5753321B2 (en) 2012-09-19 2013-09-13 Imaging apparatus and focus confirmation display method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012206214 2012-09-19
JP2012206214 2012-09-19
JP2014536834A JP5753321B2 (en) 2012-09-19 2013-09-13 Imaging apparatus and focus confirmation display method
PCT/JP2013/074832 WO2014046039A1 (en) 2012-09-19 2013-09-13 Imaging device, and focus-confirmation display method

Publications (2)

Publication Number Publication Date
JP5753321B2 true JP5753321B2 (en) 2015-07-22
JPWO2014046039A1 JPWO2014046039A1 (en) 2016-08-18

Family

ID=50341352

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014536834A Expired - Fee Related JP5753321B2 (en) 2012-09-19 2013-09-13 Imaging apparatus and focus confirmation display method

Country Status (4)

Country Link
US (1) US9436064B2 (en)
JP (1) JP5753321B2 (en)
CN (1) CN104641626B (en)
WO (1) WO2014046039A1 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105026976B (en) * 2013-03-29 2017-05-03 富士胶片株式会社 Image processing device, imaging device, and image processing method
JP6589294B2 (en) * 2015-02-27 2019-10-16 株式会社ニコン Image display device
WO2016143913A1 (en) * 2015-03-10 2016-09-15 Canon Kabushiki Kaisha Image processing method, image processing device, and image pickup apparatus
JP6275174B2 (en) * 2015-03-10 2018-02-07 キヤノン株式会社 Image processing method, image processing apparatus, and imaging apparatus
JP6802008B2 (en) * 2016-08-25 2020-12-16 キャタピラー エス エー アール エル Construction machinery
CN106454105A (en) * 2016-10-28 2017-02-22 努比亚技术有限公司 Device and method for image processing
CN111316161B (en) * 2017-09-28 2021-11-23 富士胶片株式会社 Imaging device, information acquisition method, and information acquisition program
JP7091048B2 (en) * 2017-10-11 2022-06-27 キヤノン株式会社 Image pickup device and its control method
CN107613182A (en) * 2017-10-27 2018-01-19 北京小米移动软件有限公司 Camera photosensory assembly, camera and camera shooting terminal
US11294556B1 (en) * 2021-01-05 2022-04-05 Adobe Inc. Editing digital images using multi-panel graphical user interfaces
US11606492B2 (en) * 2021-05-24 2023-03-14 Anduril Industries, Inc. Auto-focus acquisition for remote flying targets
US11611707B2 (en) 2021-05-24 2023-03-21 Anduril Industries, Inc. Auto-focus tracking for remote flying targets

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309210A (en) * 2000-04-27 2001-11-02 Minolta Co Ltd Digital camera
JP2009147665A (en) * 2007-12-13 2009-07-02 Canon Inc Image-pickup apparatus
JP2009276426A (en) * 2008-05-13 2009-11-26 Canon Inc Imaging apparatus
JP2012113064A (en) * 2010-11-22 2012-06-14 Olympus Corp Imaging device

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7099575B2 (en) 2002-07-08 2006-08-29 Fuji Photo Film Co., Ltd. Manual focus device and autofocus camera
JP3929034B2 (en) 2002-07-08 2007-06-13 富士フイルム株式会社 Manual focus device
US7649537B2 (en) * 2005-05-27 2010-01-19 Ati Technologies, Inc. Dynamic load balancing in multiple video processing unit (VPU) systems
JP2008123086A (en) * 2006-11-09 2008-05-29 Matsushita Electric Ind Co Ltd Image processor and image processing method
US8279238B2 (en) * 2007-10-16 2012-10-02 Panasonic Corporation Image display device and image display method
JP5294794B2 (en) 2007-12-14 2013-09-18 キヤノン株式会社 Imaging apparatus and image display method
US8279318B2 (en) 2007-12-14 2012-10-02 Canon Kabushiki Kaisha Image pickup apparatus and display control method for the same
JP5464816B2 (en) * 2008-03-27 2014-04-09 キヤノン株式会社 Imaging apparatus and control method thereof
JP4737270B2 (en) * 2008-10-31 2011-07-27 富士ゼロックス株式会社 Image processing apparatus and program
JP5035702B2 (en) * 2009-02-27 2012-09-26 カシオ計算機株式会社 Imaging apparatus, autofocus method, and program
JP2011119930A (en) * 2009-12-02 2011-06-16 Seiko Epson Corp Imaging apparatus, imaging method, and imaging program
JP2012034069A (en) * 2010-07-29 2012-02-16 Nikon Corp Image processor and image processing program
JP5603732B2 (en) * 2010-10-19 2014-10-08 オリンパスイメージング株式会社 Imaging device
CN103842880B (en) * 2011-09-28 2015-11-25 富士胶片株式会社 Imaging device and focusing controlling method
JP5918982B2 (en) * 2011-11-22 2016-05-18 キヤノン株式会社 IMAGING DEVICE, REPRODUCTION DEVICE, ITS CONTROL METHOD, IMAGING SYSTEM, AND PROGRAM
JP5747124B2 (en) * 2012-06-01 2015-07-08 富士フイルム株式会社 Imaging device
WO2013183406A1 (en) * 2012-06-07 2013-12-12 富士フイルム株式会社 Image capture device and image display method
WO2014046038A1 (en) * 2012-09-19 2014-03-27 富士フイルム株式会社 Imaging device and focusing-verification display method
JP5937690B2 (en) * 2012-09-19 2016-06-22 富士フイルム株式会社 Imaging apparatus and control method thereof
JP5901782B2 (en) * 2012-09-19 2016-04-13 富士フイルム株式会社 Image processing apparatus, imaging apparatus, image processing method, and image processing program
CN104782110B (en) * 2012-09-19 2018-09-14 富士胶片株式会社 Image processing apparatus, photographic device and image processing method
WO2014046036A1 (en) * 2012-09-19 2014-03-27 富士フイルム株式会社 Imaging device and method for controlling same
WO2014045739A1 (en) * 2012-09-19 2014-03-27 富士フイルム株式会社 Image processing device, imaging device, image processing method, and image processing program
CN104871058B (en) * 2012-12-19 2017-04-12 富士胶片株式会社 Image processing device, imaging device and image processing method
CN104919789B (en) * 2013-01-04 2018-10-02 富士胶片株式会社 Image processing apparatus, photographic device and image processing method
JP5889441B2 (en) * 2013-01-04 2016-03-22 富士フイルム株式会社 Image processing apparatus, imaging apparatus, image processing method, and image processing program
WO2014155812A1 (en) * 2013-03-27 2014-10-02 富士フイルム株式会社 Image processing device, image capturing apparatus, image processing method, and image processing program
CN105051600B (en) * 2013-03-29 2018-02-02 富士胶片株式会社 Image processing apparatus, camera device and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309210A (en) * 2000-04-27 2001-11-02 Minolta Co Ltd Digital camera
JP2009147665A (en) * 2007-12-13 2009-07-02 Canon Inc Image-pickup apparatus
JP2009276426A (en) * 2008-05-13 2009-11-26 Canon Inc Imaging apparatus
JP2012113064A (en) * 2010-11-22 2012-06-14 Olympus Corp Imaging device

Also Published As

Publication number Publication date
JPWO2014046039A1 (en) 2016-08-18
CN104641626B (en) 2018-02-27
WO2014046039A8 (en) 2015-03-12
US20150185585A1 (en) 2015-07-02
US9436064B2 (en) 2016-09-06
WO2014046039A1 (en) 2014-03-27
CN104641626A (en) 2015-05-20

Similar Documents

Publication Publication Date Title
JP5753321B2 (en) Imaging apparatus and focus confirmation display method
JP5937690B2 (en) Imaging apparatus and control method thereof
JP5542249B2 (en) Image pickup device, image pickup apparatus using the same, and image pickup method
JP5926391B2 (en) Imaging apparatus and focus confirmation display method
JP5931206B2 (en) Image processing apparatus, imaging apparatus, program, and image processing method
JP6084982B2 (en) Imaging device
JP5960286B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
US9609224B2 (en) Imaging device and image display method
WO2013190899A1 (en) Imaging device and automatic focus adjustment menthod
JP5799178B2 (en) Imaging apparatus and focus control method
JP5747124B2 (en) Imaging device
WO2014006783A1 (en) Imaging device, and image processing method
JP5833254B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
WO2014155813A1 (en) Image processing device, imaging device, image processing method and image processing program
US20150054926A1 (en) Image processing device and method, and image capturing device
WO2018168551A1 (en) Image-capture element and image-capture device
JPWO2013146066A1 (en) Image processing apparatus and method, and imaging apparatus
WO2013145821A1 (en) Imaging element and imaging device
JP5972485B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP2013211790A (en) Imaging apparatus
WO2014045741A1 (en) Image processing device, imaging device, image processing method, and image processing program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150521

R150 Certificate of patent or registration of utility model

Ref document number: 5753321

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees