WO2014157270A1 - 画像処理装置、撮像装置、プログラム及び画像処理方法 - Google Patents

画像処理装置、撮像装置、プログラム及び画像処理方法 Download PDF

Info

Publication number
WO2014157270A1
WO2014157270A1 PCT/JP2014/058407 JP2014058407W WO2014157270A1 WO 2014157270 A1 WO2014157270 A1 WO 2014157270A1 JP 2014058407 W JP2014058407 W JP 2014058407W WO 2014157270 A1 WO2014157270 A1 WO 2014157270A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
display
determination
focus
Prior art date
Application number
PCT/JP2014/058407
Other languages
English (en)
French (fr)
Inventor
智行 河合
林 淳司
克俊 井澤
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2015508570A priority Critical patent/JP5981026B2/ja
Priority to CN201480010818.XA priority patent/CN105026976B/zh
Publication of WO2014157270A1 publication Critical patent/WO2014157270A1/ja
Priority to US14/844,776 priority patent/US9456129B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/34Systems for automatic generation of focusing signals using different areas in a pupil plane
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets

Definitions

  • the present invention relates to an image processing apparatus, an imaging apparatus, a program, and an image processing method, and in particular, an image processing apparatus, an imaging apparatus, a program, and an image that generate and display an image for confirming a focused state of a subject image. It relates to the processing method.
  • a split image is displayed in a live view image (so-called through image) in order to facilitate manual focus adjustment (so-called manual focus) in an imaging apparatus such as a digital camera or a camera-equipped mobile phone.
  • the split image is an image obtained by combining a part of the right-eye image and a part of the left-eye image corresponding to a predetermined area in the subject image.
  • a shift with respect to the parallax generation direction occurs between the right-eye image and the left-eye image according to the in-focus state.
  • the user confirms the in-focus state by visually recognizing the deviation between the right-eye image and the left-eye image in the split image.
  • Patent Document 1 discloses an imaging apparatus capable of switching and displaying a split image and a part of a live view image when performing manual focus.
  • This imaging device generates image data of a live view image based on a signal obtained by photoelectrically converting an optical image formed by a light beam incident on an imaging optical system from a subject.
  • the imaging apparatus generates a split image corresponding to the phase difference between the two optical images based on a signal obtained by photoelectrically converting two optical images formed by the two divided light beams.
  • the imaging apparatus generates a partial image corresponding to a part of the image data, and switches and displays the split image and the partial image on the display means at the time of manual focus.
  • an imaging apparatus that includes a touch panel and can perform part of focus adjustment by a simple operation via the touch panel when performing manual focus.
  • Patent Document 2 discloses an imaging apparatus capable of performing focus control by a simple operation when focus control is performed in a focus detection region designated by a touch panel.
  • the imaging apparatus includes a focus adjustment unit that extracts a focus signal indicating a focused state of a subject image included in a focus detection region within an imaging range and adjusts the position of the focus lens based on the focus signal.
  • the imaging apparatus includes a touch panel that is provided on the surface of a display unit that displays an image and receives designation of the position of the focus detection region within the imaging range.
  • the focus adjusting unit detects the focus designated by the touch panel while moving the focus lens within a predetermined range based on the position of the focus lens moved according to the user operation when performing manual focus. A focus signal in the region is extracted. The focus adjusting unit adjusts the position of the focus lens based on the focus signal.
  • Patent Document 3 discloses a technique for performing a scroll operation corresponding to an operation of drawing a circular drag touch circle as a touch screen scroll method.
  • Patent Document 3 is a technique that has a problem of scrolling the entire screen with only one touch operation, and is simply referred to as the technique described in Patent Document 1 and Patent Document 2 described above. Even if it is applied to the above, adjusting the position of the focus lens may be an unnatural operation for the user.
  • the present invention has been made in view of the above problems, and provides an image processing apparatus, an imaging apparatus, a program, and an image processing method capable of performing focusing control using a split image by an intuitive operation. Objective.
  • an image processing apparatus includes first and second images in which subject images that have passed through first and second regions in an imaging lens including a focus lens are divided into pupils. Based on the first image based on the image signal output from the first pixel group and the second image based on the image signal output from the second pixel group in the imaging device having two pixel groups, the first A first divided image selected from a plurality of divided images obtained by dividing the image in a predetermined dividing direction, and a plurality of divided images obtained by dividing the second image in the dividing direction.
  • a generation unit configured to generate a display image used for focusing confirmation, in which a second divided image selected from the divided images excluding the divided image representing the divided region corresponding to the first divided image is arranged; Have a display area and display area In a state in which a display unit provided with a touch panel on the surface thereof, a display control unit that performs control to display a display image generated by the generation unit on the display unit, and a display image displayed on the display unit, A first detection unit that detects that the selection operation of the first divided image or the second divided image on the display image is performed via the touch panel; and an intersection that intersects the division direction with respect to the display image A second detection unit that detects that the movement operation in the direction is performed via the touch panel; and the detection operation is detected by the first detection unit, and then the movement operation is detected by the second detection unit.
  • a focusing control unit that performs control to move the focus lens according to the moving operation is provided for the moving unit that moves the focus lens in the optical axis direction.
  • the imaging unit includes the first and second pixel groups in which the subject image that has passed through the first and second regions in the imaging lens including the focus lens is divided into pupils and formed respectively by the generation unit.
  • An image (corresponding to a split image) is generated.
  • the display control unit performs control to display the display image generated by the generation unit on the display unit having the display area and the touch panel provided on the surface of the display area. Is called.
  • the selection operation of the first divided image or the second divided image on the display image is performed via the touch panel. It is detected that it has been done.
  • the second detection unit detects that a moving operation in the intersecting direction intersecting the dividing direction with respect to the display image is performed via the touch panel.
  • the focus lens is moved in the optical axis direction by the moving unit.
  • the focusing operation unit detects the selection operation by the first detection unit and then the movement operation is detected by the second detection unit, the focus lens is moved according to the movement operation. Control to be performed is performed on the moving unit.
  • the image processing apparatus moves when the first divided image or the second divided image in the display image (split image) is selected via the touch panel and a moving operation is further performed.
  • the focus lens is moved according to the operation.
  • the generation unit further generates a second display image used for confirming the imaging range based on the image signal output from the imaging element
  • the display control unit includes: Control for further displaying the second display image generated by the generation unit may be performed on the display unit.
  • the imaging device further includes a third pixel group that outputs a third image by forming a subject image that has passed through the imaging lens without being pupil-divided, and The unit may generate the second display image based on the third image output from the third pixel group. Thereby, focusing control using the split image can be performed while checking the imaging range.
  • the focus control unit may determine whether the selection operation detected by the first detection unit is a selection operation for the first divided image or a selection operation for the second divided image.
  • Control of moving the focus lens may be performed by determining the movement direction of the focus lens based on the result of the first determination and the result of the second determination. Thereby, focusing control can be performed by a simple operation on the split image.
  • the first image is a right-eye image
  • the second image is a left-eye image
  • the focusing control unit determines that the result of the first determination is
  • the operation is a right-eye image selection operation and the second determination result is a rightward movement operation as viewed from the operator observing the display unit
  • the in-focus position is greater than the current in-focus position.
  • the focus lens is moved in a direction approaching the image sensor
  • the first determination result is a right-eye image selection operation
  • the second determination result is leftward as viewed from the operator observing the display unit.
  • the moving unit may be controlled to move the focus lens in a direction in which the in-focus position is farther from the image sensor than the current in-focus position.
  • the first image is a right-eye image
  • the second image is a left-eye image
  • the focusing control unit determines that the result of the first determination is When it is a left-eye image selection operation and the second determination result is a rightward movement operation as viewed from the operator observing the display unit, the in-focus position is greater than the current in-focus position.
  • the imaging focus lens is moved in a direction away from the imaging device
  • the first determination result is a left-eye image selection operation
  • the second determination result is the left direction as viewed from the operator observing the display unit
  • control may be performed to move the focus lens in a direction in which the in-focus position is closer to the image sensor than the current in-focus position.
  • the first divided image and the second divided image are arranged adjacent to each other in the division direction in the display image, and the first divided image and the second divided image
  • a third detection unit that detects that the movement operation that passes through the boundary line with the divided image is performed via the touch panel, and the focusing control unit detects that the selection operation is detected by the first detection unit.
  • the movement unit may be controlled to move the focus lens according to the movement operation. Thereby, focusing control can be performed by a simple operation on the split image.
  • the focusing control unit includes a third determination for determining a position of at least one of the first divided image and the second divided image with respect to the boundary line, and a second detection unit.
  • the moving direction of the focus lens may be determined based on the above result and the result of the fifth determination, and the moving unit may be controlled to move the focus lens. Thereby, focusing control can be performed by a simple operation on the split image.
  • the first image is a right-eye image
  • the second image is a left-eye image
  • the third determination the second divided image
  • the focusing control unit performs the moving operation by the third detecting unit following the detection of the moving operation by the second detecting unit.
  • the moving operation is detected by the third detecting unit following the detection of the moving operation by the second detecting unit, and the result of the fourth determination is left as viewed from the operator observing the display unit.
  • the movement operation in the direction and the result of the fifth determination are the upward movement as viewed from the operator observing the display unit.
  • the second detection unit detects the movement operation following the detection of the movement operation by the third detection unit, and the result of the fourth determination is the leftward movement operation and the fifth determination
  • the result is a downward movement operation
  • the movement operation is detected by the second detection unit, and the result of the fourth determination is the right direction
  • the focus lens is moved in a direction in which the in-focus position is farther from the image sensor than the current in-focus position. Control may be performed on the moving unit. Thereby, focusing control can be performed by a simple operation with respect to the split image by moving in the clockwise direction.
  • the first image is a right-eye image
  • the second image is a left-eye image
  • the focus control unit performs the moving operation by the third detecting unit following the detection of the moving operation by the second detecting unit.
  • the result of the fourth determination is a leftward movement operation as viewed from the operator observing the display unit and the result of the fifth determination is the downward direction as viewed from the operator observing the display unit
  • the moving operation is detected by the third detecting unit following the detection of the moving operation by the second detecting unit, and the result of the fourth determination is viewed from the operator observing the display unit.
  • the result of the rightward moving operation and the fifth determination is upward when viewed from the operator observing the display unit. If the movement operation is a moving operation, the second detection unit detects the movement operation following the detection of the movement operation by the third detection unit, and the result of the fourth determination is the leftward movement operation and the fifth determination.
  • the focus lens is moved in a direction in which the in-focus position is closer to the image sensor than the current in-focus position. Control to be performed may be performed on the moving unit. Thereby, the focusing control can be performed by a simple operation on the split image by moving the counterclockwise.
  • the first image is a right-eye image
  • the second image is a left-eye image
  • the focus control unit performs the moving operation by the third detecting unit following the detection of the moving operation by the second detecting unit.
  • the result of the fourth determination is a rightward moving operation as viewed from the operator observing the display unit and the result of the fifth determination is the downward direction as viewed from the operator observing the display unit
  • the moving operation is detected by the third detecting unit following the detection of the moving operation by the second detecting unit, and the result of the fourth determination is viewed from the operator observing the display unit.
  • the result of the moving operation in the left direction and the fifth determination is the upward direction as viewed from the operator observing the display unit. If the movement operation is a moving operation, the second detection unit detects the movement operation following the detection of the movement operation by the third detection unit, and the result of the fourth determination is the leftward movement operation and the fifth determination.
  • the focus lens is moved in a direction in which the focus position is closer to the image sensor than the current focus position. Control to be performed may be performed on the moving unit. Thereby, it is possible to perform focusing control on the split image by a simple operation of moving clockwise.
  • the first image is a right-eye image
  • the second image is a left-eye image
  • the first divided image When it is determined that the position is above the boundary line as viewed from the operator observing the display unit, the focusing control unit performs the moving operation by the third detecting unit following the detection of the moving operation by the second detecting unit.
  • the result of the fourth determination is detected, and the moving operation in the left direction as viewed from the operator observing the display unit and the result of the fifth determination in the downward direction as viewed from the operator observing the display unit
  • the movement operation is detected by the third detection unit following the detection of the movement operation by the second detection unit, and the result of the fourth determination is the right as viewed from the operator observing the display unit.
  • the movement operation in the direction and the result of the fifth determination are the upward movement as viewed from the operator observing the display unit.
  • the second detection unit detects the movement operation following the detection of the movement operation by the third detection unit, and the result of the fourth determination is the leftward movement operation and the fifth determination
  • the result is an upward movement operation
  • the movement operation is detected by the second detection unit, and the result of the fourth determination is the right direction
  • the focus lens is moved in a direction in which the in-focus position is farther from the image sensor than the current in-focus position. You may make it perform control with respect to a moving part. As a result, it is possible to perform focus control on the split image by a simple operation of moving counterclockwise.
  • the focusing control unit may be configured such that the selection operation detected by the first detection unit is a selection operation for both the first divided image and the second divided image, and the second operation is performed.
  • the movement operation detected by the detection unit is different from each other along the crossing direction in each of the first divided image and the second divided image, the moving operation and the second division of the first divided image are performed.
  • the moving direction of the focus lens may be determined based on the moving direction of each image moving operation, and the moving unit may be controlled to move the focus lens.
  • the first image is an image for the right eye
  • the second image is an image for the left eye
  • the focusing control unit is detected by the first detection unit.
  • the selection operation is a selection operation of both the first divided image and the second divided image
  • the moving operation of the right eye image detected by the second detection unit is displayed in the direction along the intersecting direction and displayed.
  • An operation of observing the display unit in the direction along the crossing direction, and the movement operation of the left-eye image detected by the second detection unit When the movement operation is to the left as viewed from the user, the focus lens is moved in a direction in which the focus position is closer to the image sensor than the current focus position, and the selection operation detected by the first detection unit is A selection operation of both the first divided image and the second divided image, The movement operation of the right-eye image detected by the second detection unit is a leftward movement operation, and the movement operation of the left-eye image detected by the second detection unit is a rightward movement operation. If there is, the moving unit may be controlled to move the focus lens in a direction in which the in-focus position is farther from the image sensor than the current in-focus position. Thereby, it is possible to prevent an erroneous operation by designating both the right-eye image and the left-eye image, and it is possible to perform focusing control using the split image by an intuitive operation.
  • the focus control unit moves the focus lens to the contact position in the contact operation while the contact operation on the touch panel in the movement operation detected by the second detection unit is continued. Accordingly, the moving unit may be controlled to move in the optical axis direction. Thereby, the focal position of the imaging lens can be finely adjusted by an intuitive operation.
  • the focusing control unit may perform control on the moving unit to continuously move the focus lens in the moving direction according to the moving operation in the optical axis direction. .
  • focusing control using a split image can be easily performed by an intuitive operation.
  • the focusing control unit may control the moving unit to move the focus lens at a moving speed corresponding to the operation speed in the moving operation.
  • the moving speed of the focus lens can be adjusted by an intuitive and simple operation.
  • the focusing control unit may perform control for moving the focus lens on the moving unit according to the movement amount corresponding to the operation movement amount in the moving operation.
  • the moving speed of the focus lens can be adjusted by an intuitive and simple operation.
  • the focus control unit does not perform control to move the focus lens with respect to the moving unit when the operation speed in the moving operation is less than a predetermined first threshold. You may do it. Thereby, an erroneous operation can be prevented.
  • the image processing apparatus in a state where the focus lens is moved by the moving unit, after the selection operation on the touch panel is once released, the contact operation at any position in the display area is performed via the touch panel.
  • a fourth detection unit for detecting that the movement has been performed, and the focusing control unit controls the movement unit to stop the movement of the focus lens when a contact operation is detected by the fourth detection unit;
  • the movement of the imaging focus lens can be stopped by a simple operation.
  • the movement unit controls the movement unit to decelerate the moving speed of the focus lens and stop the focus lens. You may make it perform with respect to it. Thereby, the focus position of the focus lens can be finely adjusted by a simple operation.
  • the moving unit when the focusing control unit detects that the moving time in the moving operation detected by the second detecting unit is equal to or greater than a predetermined second threshold value, the second detecting unit detects While the contact operation on the touch panel in the moved operation is continued, the moving unit is controlled to move the focus lens in the optical axis direction according to the contact position in the contact operation, and the movement time is less than the second threshold value.
  • the moving unit may be controlled to continuously move the focus lens in the moving direction according to the contact position of the moving operation in the optical axis direction.
  • the image processing apparatus further includes a fifth detection unit that detects a focus state of the display image in a state where the focus lens is moved by the focus control unit, and the focus control unit includes: When it is detected by the fifth detection unit that focus is achieved, control for stopping the movement of the imaging focus lens may be performed. Thereby, the imaging focus lens can be moved to the in-focus position by a simple operation.
  • the fifth detection unit that detects the focus state of the display image and the fifth detection unit are in focus. And a notification unit that notifies the user that the subject is in focus. Further, in the image processing apparatus according to the present invention, the notification unit may notify the in-focus state by vibrating a part where a touch operation on the touch panel is performed. As a result, it is possible to notify that the in-focus state has been achieved reliably and promptly.
  • the fifth detection unit may detect the in-focus state of the display image based on the contrast of the display image. Thereby, it can be determined at high speed whether the image picked up by the focus lens is in focus.
  • the fifth detection unit detects the in-focus state of the display image based on the phase difference between the first divided image and the second divided image in the display image. Therefore, it can be determined with high accuracy whether or not the image captured by the focus lens is in focus.
  • the first divided image and the second divided image are arranged adjacent to each other in the division direction in the display image, and the first divided image and the second divided image
  • a third detection unit that detects that the movement operation that passes through the boundary line with the divided image is performed via the touch panel, and the display control unit is discontinuous with the detection of the movement operation by the second detection unit.
  • control for enlarging or reducing the display image may be performed according to the operation direction of the movement operation detected by the third detection unit. As a result, the subject image is easy to see, and the in-focus state can be easily confirmed.
  • the first divided image and the second divided image are arranged adjacent to each other in the division direction in the display image, and the first divided image and the second divided image
  • a third detection unit that detects that the movement operation that passes through the boundary line with the divided image is performed via the touch panel, and the display control unit is discontinuous with the detection of the movement operation by the second detection unit.
  • the third detection unit detects a movement operation
  • the third detection unit detects two contact positions of the touch operation on the touch panel and detects a movement operation in a direction in which the two contact positions are separated from each other.
  • the display control unit Show Image may be controlled to reduce the. Thereby, malfunction can be suppressed compared with the case where a contact position is one point.
  • the display control unit displays the display image when the size of the display image becomes equal to the size of the entire display area in accordance with the control for enlarging the display image. You may make it stop the control to expand. Further, in the image processing apparatus according to the present invention, the display control unit, when the size of the display image becomes larger than the entire display area due to the control for enlarging the display image, a part of the display image. May be controlled to be displayed in the display area. Thereby, it is possible to easily confirm the in-focus state of the split image.
  • the display control unit reduces the display image after the display image is enlarged, and the size of the display image becomes the size of the display image before the enlargement.
  • the control for reducing the display image may be stopped. Thereby, it can suppress that it becomes difficult to see a split image.
  • an imaging apparatus includes an image processing apparatus according to the present invention, an imaging lens, an imaging element having first and second pixel groups, and an imaging element. And a memory for storing an image generated based on the output image signal.
  • the imaging apparatus according to the present invention operates in the same manner as the image processing apparatus according to the present invention. Therefore, as with the image processing apparatus according to the present invention, the focus control using the split image is intuitively operated. Can be done by.
  • a program causes a computer to divide a subject image that has passed through the first and second regions in an imaging lens including a focus lens into a pupil-divided image. Based on the first image based on the image signal output from the first pixel group and the second image based on the image signal output from the second pixel group in the imaging device having the first and second pixel groups, A first divided image selected from a plurality of divided images obtained by dividing the first image in a predetermined dividing direction, and a plurality of divisions obtained by dividing the second image in the dividing direction.
  • a display control unit that performs control to display a display image generated by the generation unit on a display unit that has a touch panel on the surface of the display area, and the display image is displayed on the display unit ,
  • the first detection unit for detecting that the selection operation of the first divided image or the second divided image on the display image is performed via the touch panel, and the display image intersect with the dividing direction.
  • a second detection unit that detects that the movement operation in the intersecting direction is performed via the touch panel, and the second detection unit detects the movement operation following the selection operation detected by the first detection unit.
  • the moving unit that moves the focus lens in the optical axis direction is caused to function as a focus control unit that performs control to move the focus lens in accordance with the moving operation.
  • the focus control using the split image is intuitive as in the image processing apparatus according to the present invention. It can be done by operation.
  • the subject image that has passed through the first and second regions in the imaging lens including the focus lens is divided into pupils and formed first.
  • a first divided image selected from a plurality of divided images obtained by dividing the first image in a predetermined dividing direction, and a plurality of divisions obtained by dividing the second image in the dividing direction.
  • Generation for generating a display image used for focusing confirmation in which a second divided image selected from divided images excluding divided images representing divided areas corresponding to the first divided image is arranged.
  • Step and display area a display control step for performing control to display a display image generated by the generation step on a display unit provided with a touch panel on the surface of the display area, and display in a state where the display image is displayed on the display unit
  • a focusing control step for performing control to move the imaging focus lens according to the moving operation with respect to the moving unit that moves the focus lens in the optical axis direction.
  • the image processing method according to the present invention operates in the same manner as the image processing apparatus according to the present invention. Therefore, as with the image processing apparatus according to the present invention, the focus control using the split image is intuitive. It can be done by operation.
  • FIG. 3 is a schematic arrangement diagram illustrating an example of arrangement of color filters and light shielding members provided in an image sensor of the imaging apparatus according to the first embodiment. It is a schematic block diagram which shows an example of a structure of the phase difference pixel (1st pixel and 2nd pixel) of the image pick-up element of the imaging device which concerns on 1st Embodiment.
  • the imaging apparatus according to the first embodiment when focusing control is performed based on the phase difference between the right-eye image and the left-eye image, the time from when the focus lens starts to moving until it stops It is a graph which shows the relationship between the converted elapsed time and the position of a focus lens.
  • the process normalized by the time from the start of the movement of the focus lens to the stop when the focus control is performed based on the contrast of the image for the right eye and the image for the left eye in the imaging apparatus according to the first embodiment It is a graph which shows the relationship between time and the position of a focus lens. It is a flowchart which shows the flow of a process of the reciprocal movement process routine program which concerns on 1st Embodiment. It is a front view which shows an example of the display state of a split image when reciprocal movement operation is performed in the imaging device which concerns on 1st Embodiment. It is a front view which shows another example of the display state of a split image when reciprocal movement operation is performed in the imaging device which concerns on 1st Embodiment.
  • FIG. 3 is a schematic arrangement diagram illustrating an example of an arrangement of color filters and an arrangement of light shielding members provided in an imaging element of the imaging apparatus according to the first embodiment.
  • FIG. 3 is a schematic arrangement diagram illustrating an example of an arrangement of color filters and an arrangement of light shielding members provided in an imaging element of the imaging apparatus according to the first embodiment.
  • FIG. 3 is a schematic arrangement diagram illustrating an example of an arrangement of color filters and an arrangement of light shielding members provided in an imaging element of the imaging apparatus according to the first embodiment.
  • FIG. 3 is a schematic arrangement diagram illustrating an example of an arrangement of color filters and an arrangement of light shielding members provided in an imaging element of the imaging apparatus according to the first embodiment.
  • FIG. 3 is a schematic arrangement diagram illustrating an example of an arrangement of color filters and an arrangement of light shielding members provided in an imaging element of the imaging apparatus according to the first embodiment.
  • FIG. 3 is a schematic arrangement diagram illustrating an example of an arrangement of color filters and an arrangement of light shielding members provided in an imaging element of the imaging apparatus according to the first embodiment.
  • FIG. 14 is a front view for explaining an example of a split image display state when a split image enlargement operation is performed in the imaging apparatus according to the fourth embodiment.
  • FIG. 15 is a front view for explaining an example of a split image display state when a split image reduction operation is performed in the imaging apparatus according to the fourth embodiment.
  • It is a flowchart which shows the flow of a process of the other example 2 of the expansion / contraction control processing routine program which concerns on 4th Embodiment.
  • the imaging apparatus 100 is a lens interchangeable camera. Further, as shown in FIG. 1, the imaging apparatus 100 includes a camera body 200 and an interchangeable lens 258 that is a zoom lens that is replaceably attached to the camera body 200, and a digital camera in which the reflex mirror is omitted. It is.
  • the interchangeable lens 258 includes an imaging lens 16 having a focus lens 302 movable in the optical axis direction, a focus ring 260, a slide mechanism 303, and a motor 304 (see FIG. 3, details will be described later).
  • the camera body 200 is provided with a hybrid finder (registered trademark) 220.
  • the hybrid viewfinder 220 here refers to a viewfinder in which, for example, an optical viewfinder (hereinafter referred to as “OVF”) and an electronic viewfinder (hereinafter referred to as “EVF”) are selectively used.
  • OPF optical viewfinder
  • EMF electronic viewfinder
  • the camera body 200 and the interchangeable lens 258 are interchangeably mounted by combining a mount 256 provided in the camera body 200 and a mount 346 (see FIG. 3) on the interchangeable lens 258 side corresponding to the mount 256.
  • the lens barrel of the interchangeable lens 258 is provided with a focus ring 260 that is used in the manual focus mode.
  • the imaging apparatus 100 moves the focus lens 302 in the optical axis direction in accordance with the rotation operation of the focus ring 260, and forms subject light on the imaging element 20 (see FIG. 3) described later at a focus position corresponding to the subject distance. Can be made.
  • a front view of the camera body 200 is provided with an OVF viewfinder window 241 included in the hybrid viewfinder 220.
  • a finder switching lever 214 is provided on the front surface of the camera body 200. When the viewfinder switching lever 214 is rotated in the direction of the arrow SW, the image displayed on the viewfinder is switched between an optical image visible by the OVF and an electronic image (live view image) visible by the EVF. (Described later).
  • the OVF optical axis L2 is an optical axis different from the optical axis L1 of the interchangeable lens 258.
  • a release switch 211 and a dial 212 for setting a shooting mode, a playback mode, and the like are mainly provided on the upper surface of the camera body 200.
  • the release switch 211 serving as a shooting preparation instruction unit and a shooting instruction unit is configured to detect a two-stage pressing operation between a shooting preparation instruction state and a shooting instruction state.
  • the shooting preparation instruction state refers to a state where the release switch 211 is pressed from the standby position to the intermediate position (half-pressed position), and the shooting instruction state refers to the final pressed position (when the release switch 211 exceeds the intermediate position ( This refers to the state where it is pressed down to the fully pressed position.
  • half-pressed state a state where the button is pressed from the standby position to the half-pressed position
  • full-pressed state a state where the button is pressed from the standby position to the fully-pressed position
  • the shooting mode and the playback mode are selectively set as the operation mode in accordance with a user instruction.
  • a manual focus mode and an autofocus mode are selectively set according to a user instruction.
  • an autofocus mode a shooting control process described later is executed by pressing the release switch 211 halfway, and then exposure (shooting) is performed when the release switch 211 is fully pressed.
  • an OVF viewfinder eyepiece 242 a display input unit 216, a cross key 222, a MENU / OK key 224, and a BACK / DISP button 225 are provided on the back of the camera body 200.
  • the display input unit 216 displays an image (still image and moving image), character information, and the like, visually transmits information to the user, and detects a user operation on the displayed information. ⁇ It is a display. That is, the display input unit 216 includes a display unit 213 and a touch panel 215.
  • the display unit 213 is realized by an LCD (Liquid Crystal Display), an organic EL (Organic Electroluminescence) display, or the like.
  • the display unit 213 is used to display a continuous frame image (such as a live view image) obtained by capturing continuous frames in the shooting mode.
  • the display unit 213 is also used to display a single frame image (such as a still image) obtained by capturing a single frame when a still image shooting instruction is given. Furthermore, the display unit 213 is also used for displaying a reproduced image and a menu screen in the reproduction mode.
  • the touch panel 215 is a device that is stacked on the display unit 213 so that an image displayed on the display surface of the display unit 213 is visible, and detects coordinates indicating a position touched by a user's finger, a stylus, or the like. .
  • the touch panel 215 When the touch panel 215 is operated with a user's finger or a stylus, the touch panel 215 outputs a detection signal indicating the touched position generated due to the operation to the CPU 12.
  • the size of the display area of the display unit 213 and the size of the touch panel 215 may be completely matched, but it is not always necessary to match the two.
  • the position detection method employed in the touch panel 215 include a matrix switch method, a resistive film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, a capacitance method, and the like. Also good.
  • the cross key 222 functions as a multi-function key that outputs various command signals such as menu selection, zoom and frame advance.
  • the MENU / OK key 224 has both a function as a menu button for instructing to display a menu on the screen of the display unit 213 and an function as an OK button for instructing confirmation and execution of selection contents. Key.
  • the BACK / DISP button 225 is used to delete a desired object such as a selection item, cancel a designated content, or return to the previous operation state.
  • FIG. 3 is a block diagram illustrating an example of a hardware configuration of the imaging apparatus 100 according to the present embodiment.
  • the interchangeable lens 258 includes a slide mechanism 303 and a motor 304 which are an example of a moving unit according to the present invention.
  • the slide mechanism 303 moves the focus lens 302 in the direction of the optical axis L1 by operating the focus ring 260.
  • a focus lens 302 is attached to the slide mechanism 303 so as to be slidable in the direction of the optical axis L1.
  • a motor 304 is connected to the slide mechanism 303, and the slide mechanism 303 receives the power of the motor 304 and slides the focus lens 302 along the direction of the optical axis L1.
  • the motor 304 is connected to the camera body 200 via mounts 256 and 346, and driving is controlled according to a command from the camera body 200.
  • a stepping motor is applied as an example of the motor 304. Therefore, the motor 304 operates in synchronization with the pulse power according to a command from the camera body 200.
  • the imaging apparatus 100 is a digital camera that records captured still images and moving images, and the overall operation of the camera is controlled by a CPU (Central Processing Unit) 12 shown in FIG. As shown in the figure, the imaging apparatus 100 includes an operation unit 14, an interface unit 24, a memory 26, and an encoder 34 in addition to the CPU 12.
  • the imaging apparatus 100 includes a display control unit 36, an eyepiece detection unit 37, and an external interface (I / F) 39, which are examples of the display control unit according to the present invention.
  • the imaging apparatus 100 includes an image processing unit 28.
  • the CPU 12, the operation unit 14, the interface unit 24, the memory 26, the image processing unit 28, the encoder 34, the display control unit 36, the eyepiece detection unit 37, and the external interface (I / F) 39 are connected to each other via the bus 40.
  • the memory 26 includes a non-volatile storage area (such as an EEPROM) that stores parameters, programs, and the like, and a volatile storage area (such as an SDRAM) that temporarily stores various information such as images.
  • the CPU 12 performs focusing control by driving and controlling the focus adjustment motor so that the contrast value of the image obtained by imaging is maximized. Further, the CPU 12 calculates AE information that is a physical quantity indicating the brightness of an image obtained by imaging. When the release switch 211 is half-pressed, the CPU 12 derives the shutter speed and F value corresponding to the brightness of the image indicated by the AE information. Then, the exposure state is set by controlling each related part so that the derived shutter speed and F value are obtained.
  • the operation unit 14 is a user interface operated by the operator when giving various instructions to the imaging apparatus 100. Various instructions received by the operation unit 14 are output as operation signals to the CPU 12, and the CPU 12 executes processing according to the operation signals input from the operation unit 14.
  • the operation unit 14 includes a release switch 211, a dial 212, a display unit 213, a viewfinder switching lever 214, a cross key 222, a MENU / OK key 224, and a BACK / DISP button 225.
  • the camera body 200 includes a position detection unit 23.
  • the position detection unit 23 is connected to the CPU 12.
  • the position detection unit 23 is connected to the focus ring 260 via mounts 256 and 346, detects the rotation angle of the focus ring 260, and outputs rotation angle information indicating the rotation angle as a detection result to the CPU 12.
  • the CPU 12 executes processing according to the rotation angle information input from the position detection unit 23.
  • the image light indicating the subject is emitted from the color image sensor (for example, a CMOS sensor) 20 via the imaging lens 16 including the focus lens 302 that can be moved manually and the shutter 18.
  • An image is formed on the light receiving surface.
  • the signal charge accumulated in the image sensor 20 is sequentially read out as a digital signal corresponding to the signal charge (voltage) by a read signal applied from the device control unit 22.
  • the image sensor 20 has a so-called electronic shutter function, and controls the charge accumulation time (shutter speed) of each photosensor according to the timing of the read signal by using the electronic shutter function.
  • the image sensor 20 according to the first embodiment is a CMOS image sensor, but is not limited thereto, and may be a CCD image sensor.
  • the image sensor 20 is provided with a color filter 21 as shown in FIG.
  • the color filter 21 includes a first filter G corresponding to G (green) that contributes most to obtain a luminance signal, and second filters R and B corresponding to R (red).
  • a third filter B corresponding to (blue) is included.
  • a G filter, an R filter, and a B filter are arranged with a predetermined periodicity in each of the row direction (horizontal direction) and the column direction (vertical direction) for each pixel of the image sensor 20. . Therefore, the imaging apparatus 100 can perform processing according to a repetitive pattern when performing synchronization (interpolation) processing of R, G, and B signals.
  • the synchronization process is a process for calculating all color information for each pixel from a mosaic image corresponding to a color filter array of a single-plate color image sensor.
  • the synchronization process means a process for calculating color information of all RGB for each pixel from a mosaic image made of RGB.
  • the imaging apparatus 100 has a phase difference AF function.
  • the image sensor 20 according to the present embodiment includes a plurality of phase difference detection pixels that are used when the phase difference AF function is activated.
  • the plurality of phase difference detection pixels are arranged according to a predetermined pattern.
  • the pixel for phase difference detection is either the first pixel L in which the left half in the horizontal direction is shielded or the second pixel R in which the right half in the horizontal direction is shielded.
  • phase difference pixels when it is not necessary to distinguish between the first pixel L and the second pixel R, they are referred to as “phase difference pixels”.
  • the first pixel L has a light shielding member 20A
  • the second pixel R has a light shielding member 20B.
  • the light shielding member 20A is provided on the front side (microlens M side) of the photodiode PD, and shields the left half of the light receiving surface of the photodiode PD.
  • the light shielding member 20B is provided on the front side of the photodiode PD, and shields the right half of the light receiving surface of the photodiode PD.
  • the microlens M and the light shielding members 20A and 20B function as a pupil division unit, the first pixel L receives only the left side of the optical axis of the light beam passing through the exit pupil of the imaging lens 16, and the second pixel R is Only the right side of the optical axis of the light beam passing through the exit pupil of the imaging lens 16 is received. In this way, the light beam passing through the exit pupil is divided into left and right by the microlens M and the light shielding members 20A and 20B, which are pupil dividing portions, and enter the first pixel L and the second pixel R, respectively.
  • a subject image (left eye image) corresponding to the left half of the light flux passing through the exit pupil of the imaging lens 16 and a subject image (right) corresponding to the right half of the light flux.
  • a region in focus (in an in-focus state) in the image for eye) forms an image at the same position (in-focus position) on the image sensor 20.
  • a so-called front pin region that is in focus at a position closer to the imaging device 100 than the subject, or a so-called rear pin region that is in focus at a position farther from the subject than the imaging device 100 is, Each is incident on a different position on the image sensor 20 (phase is shifted).
  • the split image refers to an image in which a right eye divided image and a left eye divided image are arranged adjacent to each other in a predetermined direction (for example, a direction orthogonal to the parallax generation direction).
  • the right-eye divided image refers to a partial divided image selected from a plurality of divided images obtained by dividing the right-eye image in a predetermined division direction (for example, a direction orthogonal to the parallax generation direction).
  • the left eye divided image refers to a divided image selected by removing an image representing a divided region corresponding to the right eye divided image from a plurality of divided images obtained by dividing the left eye image in the dividing direction. 7, 8, 13, 14, 23, 24, 25 A, 25 B, 36, 37, 38, 46, and 47, for convenience of explanation.
  • a column image indicating a column included in the right eye divided image is referred to as a right eye image
  • a column image indicating a column included in the left eye divided image is referred to as a left eye image.
  • the right-eye image is used in the rear pin region (when the subject having the longer subject distance (the one far from the imaging lens 16) is focused on the two columns).
  • An image for the right eye which is a column image indicating a column having a shorter subject distance among the two columns
  • the left-eye image is viewed from the operator who observes the display unit 213.
  • the right eye in the front pin region (when the subject having the shorter subject distance (the one closer to the imaging lens 16) is focused on the two columns)
  • the image for the right eye (the image for the right eye, which is the column image showing the column with the longer subject distance among the two columns) is shifted in the right direction
  • the image for the left eye (the one with the longer subject distance among the two columns)
  • the left-eye image that is a column image indicating the column of the image is shifted in the left direction.
  • the imaging device 100 according to the present embodiment can acquire parallax images having different parallaxes between the right-eye image and the left-eye image.
  • the imaging apparatus 100 detects a phase shift amount based on the pixel value of the first pixel L and the pixel value of the second pixel R. Then, the adjustment of the focal position of the focus lens 302 by the user operation is assisted by presenting the detected phase shift amount.
  • the light shielding members 20A and 20B are referred to as “light shielding members” without reference numerals.
  • the image sensor 20 is classified into a first pixel group, a second pixel group, and a third pixel group.
  • the first pixel group refers to a plurality of first pixels L, for example.
  • the second pixel group refers to a plurality of second pixels R, for example.
  • the third pixel group refers to a plurality of normal pixels, for example.
  • the “normal pixel” here refers to, for example, a pixel other than the phase difference pixel (for example, a pixel having no light shielding members 20A and 20B).
  • the RAW image indicated by the image signal output from the first pixel group is referred to as a “first image”.
  • the RAW image indicated by the image signal output from the second pixel group is referred to as a “second image”.
  • the RAW image indicated by the image signal output from the third pixel group is referred to as a “third image”.
  • each pixel included in the first pixel group and the second pixel group is disposed at a position where the positions in the horizontal direction are aligned within one pixel between the first pixel group and the second pixel group.
  • each pixel included in the first pixel group and the second pixel group is disposed at a position where the positions in the vertical direction are aligned within the one pixel between the first pixel group and the second pixel group.
  • the first pixel L and the second pixel R are alternately arranged at intervals of a plurality of pixels (in this embodiment, two pixels) linearly in each of the horizontal direction and the vertical direction. Is arranged. That is, the L pixel and the R pixel are included in the same column and the same row, respectively.
  • the positions of the pixels included in the first and second pixel groups are positions that are aligned within one pixel in each of the horizontal direction and the vertical direction, but at least in the horizontal direction and the vertical direction.
  • One of the positions may be within a predetermined number of pixels (for example, within 2 pixels).
  • the position of each pixel included in the first and second pixel groups is set horizontally. It is preferable that the positions are aligned within one pixel in each of the direction and the vertical direction.
  • the phase difference pixels are 2 ⁇ 2 pixels (for example, 3rd row, 3rd column, 3rd row, 4th column, 4th row, 3rd column, and 4th row, 4th from the upper left in front view of FIG. 4). It is provided for the pixels of the G filter in a square array corresponding to the pixels in the column). In the present embodiment, the pixel in the lower right corner of the front view in FIG. 4 among the 2 ⁇ 2 pixel G filter is assigned to the phase difference pixel.
  • the light shielding member is provided for the pixel in the lower right corner of the 2 ⁇ 2 pixel G filter, and the phase difference pixel is spaced by a plurality of pixels in both the vertical direction and the horizontal direction.
  • the phase difference pixel is spaced by a plurality of pixels in both the vertical direction and the horizontal direction.
  • the interpolation accuracy in the case of interpolating the pixel values of the phase difference pixels from the pixel values of the normal pixels can be improved.
  • the pixels included in the first to third pixel groups are arranged so that the normal pixels used for interpolation do not overlap between the phase difference pixels, further improvement in interpolation accuracy can be expected.
  • the image sensor 20 outputs an image signal (digital signal indicating the pixel value of each first pixel) indicating the first image from the first pixel group, and outputs the image signal from the second pixel group.
  • An image signal indicating a second image (a digital signal indicating a pixel value of each second pixel) is output.
  • the imaging element 20 outputs an image signal indicating a third image (a digital signal indicating a pixel value of each normal pixel) from the third pixel group.
  • the third image is a chromatic image, for example, a color image having the same color array as the normal pixel array.
  • the image data indicating the first image, the second image, and the third image are temporarily stored in a volatile storage area in the memory 26 via the interface unit 24.
  • the image processing unit 28 includes a normal processing unit 30.
  • the normal processing unit 30 processes the R, G, and B signals corresponding to the third pixel group to generate a chromatic color normal image that is an example of the second display image.
  • the image processing unit 28 includes a split image processing unit 32.
  • the split image processing unit 32 processes the G signal corresponding to the first pixel group and the second pixel group to generate an achromatic split image which is an example of a second display image.
  • the image processing unit 28 according to the present embodiment is realized by an ASIC (Application Specific Integrated Circuit) that is an integrated circuit in which circuits for realizing a plurality of functions related to image processing are combined into one.
  • ASIC Application Specific Integrated Circuit
  • the CPU 12 executes a shooting control processing program, which will be described later, and causes the split image processing unit 32 to generate a split image and controls the display unit 213 to display the generated split image.
  • the hardware configuration of the image processing unit 28 is not limited to the ASIC, and may be another hardware configuration such as a computer including a programmable logic device, CPU, ROM, and RAM.
  • the encoder 34 converts the input signal into a signal of another format and outputs it.
  • the hybrid viewfinder 220 has an LCD 247 that displays an electronic image.
  • the number of pixels in a predetermined direction on the LCD 247 (for example, the number of pixels in the horizontal direction, which is a parallax generation direction) is smaller than the number of pixels in the same direction on the display unit 213.
  • the display control unit 36 is connected to the display unit 213 and the LCD 247, respectively, and an image is displayed on the LCD 247 or the display unit 213 by selectively controlling the LCD 247 and the display unit 213.
  • the display unit 213 and the LCD 247 are referred to as “display devices” when it is not necessary to distinguish between them.
  • the imaging apparatus 100 is configured to be able to switch between the manual focus mode and the autofocus mode described above using the dial 212.
  • the display control unit 36 causes the display device to display a live view image obtained by combining the split images.
  • the CPU 12 operates as a phase difference detection unit and an automatic focus adjustment unit.
  • the phase difference detection unit detects a phase difference between the first image output from the first pixel group and the second image output from the second pixel group.
  • the automatic focus adjustment unit controls the motor 304 from the device control unit 22 via the mounts 256 and 346 so that the defocus amount of the focus lens 302 is zero based on the detected phase difference, and controls the focus lens 302. Move to the in-focus position.
  • the above “defocus amount” refers to, for example, the amount of phase shift between the first image and the second image.
  • the eyepiece detection unit 37 detects that the user has looked into the viewfinder eyepiece unit 242, and outputs the detection result to the CPU 12. Therefore, the CPU 12 can grasp whether or not the finder eyepiece unit 242 is used based on the detection result of the eyepiece detection unit 37.
  • the external I / F 39 is connected to a communication network such as a LAN (Local Area Network) or the Internet, and controls transmission / reception of various information between the external device (for example, a printer) and the CPU 12 via the communication network. Therefore, when a printer is connected as an external device, the imaging apparatus 100 can output a captured still image to the printer for printing. Further, when a display is connected as an external device, the imaging apparatus 100 can output and display a captured still image or live view image on the display.
  • a communication network such as a LAN (Local Area Network) or the Internet
  • the normal processing unit 30 and the split image processing unit 32 each have a WB gain unit, a gamma correction unit, and a synchronization processing unit (not shown), and the original digital data temporarily stored in the memory 26.
  • Signal processing is sequentially performed on each signal (RAW image) in each processing unit. That is, the WB gain unit executes white balance (WB) by adjusting the gains of the R, G, and B signals.
  • the gamma correction unit performs gamma correction on each of the R, G, and B signals that have been subjected to WB in the WB gain unit.
  • the synchronization processing unit performs color interpolation processing corresponding to the arrangement of the color filters 21 of the image sensor 20, and generates synchronized R, G, B signals.
  • the normal processing unit 30 and the split image processing unit 32 perform image processing on the RAW image in parallel every time a RAW image for one screen is acquired by the image sensor 20.
  • the normal processing unit 30 receives R, G, B RAW images from the interface unit 24, and applies the first to the light-shielded pixels in the phase difference image in the R, G, B pixels of the third pixel group. Interpolation is performed using peripheral pixels (for example, adjacent G pixels) of the same color in the first pixel group and the second pixel group.
  • the normal processing unit 30 may use the image obtained by the interpolation as a normal image for display and a normal image for recording.
  • the normal processing unit 30 outputs the generated image data of the normal image for recording to the encoder 34.
  • the R, G, and B signals processed by the normal processing unit 30 are converted (encoded) into recording signals by the encoder 34 and recorded in the recording unit 42 (see FIG. 9).
  • the normal processing unit 30 outputs the generated image data of the normal image for display to the display control unit 36.
  • the term “for recording” and “for display” are used. Is referred to as a “normal image”.
  • the image sensor 20 can change the exposure conditions (shutter speed by an electronic shutter as an example) of each of the first pixel group and the second pixel group, and thereby can simultaneously acquire images having different exposure conditions. . Therefore, the image processing unit 28 can generate an image with a wide dynamic range based on images with different exposure conditions. Further, a plurality of images can be simultaneously acquired under the same exposure condition, and by adding these images, a highly sensitive image with less noise can be generated, or a high resolution image can be generated.
  • the split image processing unit 32 extracts the G signal of the first pixel group and the second pixel group from the RAW image once stored in the memory 26, and the G of the first pixel group and the second pixel group. An achromatic split image is generated based on the signal.
  • Each of the first pixel group and the second pixel group extracted from the RAW image is a pixel group including G filter pixels as described above. Therefore, the split image processing unit 32 is an achromatic left parallax image and an achromatic right parallax image based on the G signal of the first pixel group and the second pixel group. An image for the right eye can be generated.
  • the split image processing unit 32 divides the right-eye image in a predetermined division direction (front view vertical direction in FIGS. 10A and 10B) to obtain a plurality (two in this embodiment) of divided images.
  • the right-eye divided image is obtained by selecting a part of the images from the plurality of divided images.
  • the split image processing unit 32 divides the left-eye image in the division direction to obtain a plurality (two in the present embodiment) of divided images, and corresponds to the right-eye divided image from the plurality of divided images.
  • a left-eye divided image is selected except for an image representing a divided region to be performed.
  • the split image processing unit 32 generates a split image by arranging the right eye divided image and the left eye divided image in the corresponding regions. Note that the image data of the split image generated in this way is output to the display control unit 36.
  • the right-eye image 300A and the left-eye image 300B are alternately arranged in the division direction.
  • the split image 300 when the focus of the imaging lens 16 is deviated from the in-focus position, as shown in FIG. 10A, each of the right-eye image 300A and the left-eye image 300B intersects the above-described division direction ( 10A and 10B is a front view left-right direction, which is hereinafter referred to as “crossing direction”), and the image is shifted by an amount corresponding to the shift amount from the in-focus position.
  • crossing direction a front view left-right direction
  • display area information indicating the display area of the split image 300 in the display unit 213 is stored in the memory 26 in advance.
  • This display area information is information indicating the range of the display area (in the present embodiment, the central portion of the normal image 301) indicated by a predetermined coordinate system in the display area of the display unit 213.
  • the memory 26 stores division direction information indicating the division direction of the split image 300 and division number information indicating the number of divisions of the split image 300 in advance.
  • the split image processing unit 32 reads out the division direction information from the memory 26 to determine the division direction of the right eye image 300A and the left eye image 300B. Further, the split image processing unit 32 reads the division number information from the memory 26 to determine the division number of the split image 300. Then, the split image processing unit 32 generates the split image 300 based on the division direction and the number of divisions obtained by the above processing.
  • the display control unit 36 records image data corresponding to the third pixel group input from the normal processing unit 30 and the split corresponding to the first and second pixel groups input from the split image processing unit 32. Display image data is generated based on the image data of the image. For example, the display control unit 36 displays the image input from the split image processing unit 32 in the display area of the normal image indicated by the recording image data corresponding to the third pixel group input from the normal processing unit 30. The split image 300 indicated by the data is synthesized. Then, the image data obtained by the synthesis is output to the display device.
  • the split image 300 when the split image 300 is combined with the normal image 301, the split image 300 is combined instead of a part of the normal image 301.
  • the combining method is not limited to this.
  • a composition method in which the split image 300 is superimposed on the normal image 301 may be used.
  • the composition method is a method of superimposing the split image 300 by appropriately adjusting the transmittance of a part of the normal image 301 corresponding to the region on which the split image 300 is superimposed.
  • the normal image 301 and the split image 300 may be displayed by different layers. Thereby, the split image 300 can be displayed in the display area of the normal image in the live view image.
  • the live view image is an image that shows a subject image when a subject image that is continuously photographed is displayed continuously on the screen of the display device.
  • the hybrid finder 220 includes an OVF 240 and an EVF 248.
  • the OVF 240 is an inverse Galileo finder having an objective lens 244 and an eyepiece 246, and the EVF 248 has an LCD 247, a prism 245, and an eyepiece 246.
  • a liquid crystal shutter 243 is disposed in front of the objective lens 244, and the liquid crystal shutter 243 shields light so that an optical image does not enter the objective lens 244 when the EVF 248 is used.
  • the prism 245 reflects an electronic image or various information displayed on the LCD 247 and guides it to the eyepiece 246, and combines the optical image and information (electronic image and various information) displayed on the LCD 247.
  • an OVF mode in which an optical image can be visually recognized by the OVF 240 and an electronic image can be visually recognized by the EVF 248 each time it is rotated.
  • the EVF mode is switched alternately.
  • the display control unit 36 controls the liquid crystal shutter 243 to be in a non-light-shielded state so that the optical image can be viewed from the viewfinder eyepiece 242. Further, only the split image 300 is displayed on the LCD 247. Thereby, the finder image in which the split image 300 is superimposed on a part of the optical image can be displayed.
  • the display control unit 36 controls the liquid crystal shutter 243 to be in a light shielding state so that only the electronic image displayed on the LCD 247 from the viewfinder eyepiece unit 242 can be visually recognized.
  • image data equivalent to the image data obtained by combining the split image 300 output to the display unit 213 is input to the LCD 247. Accordingly, the display control unit 36 can display an electronic image in which the split image 300 is combined with a part of the normal image 301 in the same manner as the display unit 213.
  • an image signal indicating each of the normal image 301 and the split image 300 is input to the display device.
  • the display device displays the split image 300 indicated by the input image signal in the display area of the split image 300 having a rectangular shape at the center of the screen. Further, the display device displays the normal image 301 indicated by the input image signal in the outer peripheral area of the split image 300.
  • the display device displays the normal image 301 indicated by the input image signal in the display area of the display device. Display in the whole area.
  • the display device displays the split image 300 indicated by the input image signal in the display area. Let the area be a blank area.
  • the imaging apparatus 100 detects an operation on the split image 300 by the user via the touch panel 215 when the split image 300 is displayed on the display unit 213, focus adjustment is performed according to the detection result. I do.
  • a scroll operation, a flick operation, and a reciprocal movement operation are applied as operations for the split image 300.
  • the scrolling operation is an operation in which a desired position on the touch panel 215 is designated with a finger and a moving operation for moving the designated position is continuously performed for a first time (100 msec in this embodiment) or more.
  • the flick operation here refers to a second time (in this embodiment, 100 msec) after a desired position on the touch panel 215 is designated with a finger, the moving operation is performed, and the moving operation is started. This is an operation of releasing the finger from the touch panel 215 until the time elapses.
  • one point in the region of the right eye image 300A or the left eye image 300B is designated with a finger or the like, and either the right eye image 300A or the left eye image 300B is specified.
  • the selection operation for selecting one is performed immediately before.
  • the reciprocal movement operation referred to here is a selection operation for selecting each of the right-eye image 300A and the left-eye image 300B by designating one point in each of the areas of the right-eye image 300A and the left-eye image 300B. After performing the above operation, each designated position is moved in the opposite direction along the intersecting direction by a scroll operation or a flick operation.
  • FIG. 11 is a flowchart showing the flow of processing of the shooting control processing program executed by the CPU 12 when the imaging apparatus 100 is set to the manual focus mode and the dial 212 is set to the shooting mode.
  • the program is stored in advance in a predetermined storage area of the memory 26.
  • step S401 image data indicating the normal image 301 based on the image signal output from the third pixel group is acquired via the interface unit 24, and control is performed to display the normal image 301 on the display unit 213. .
  • the imaging apparatus 100 acquires the image data indicating the normal image 301 from the third pixel group, but the method of acquiring the image data is not limited to this.
  • the image data indicating the right-eye image 300A based on the image signal output from the first pixel group and the image data indicating the left-eye image 300B based on the image signal output from the second pixel group are usually used.
  • Image data indicating the image 301 may be generated.
  • a method for generating image data indicating the normal image 301 at this time for example, a method in which the image data indicating the right-eye image 300A or the left-eye image 300B is directly used as the image data indicating the normal image 301 is exemplified. Is done. Further, an interpolation pixel is arranged between adjacent pixels in the image data indicating the right-eye image 300A or the left-eye image 300B, and the average value of the pixel values surrounding the interpolation pixel is determined as the pixel value of the interpolation pixel.
  • a method of generating image data indicating the normal image 301 may be used. Further, the method of generating the normal image 301 may be a method of generating image data indicating the normal image 301 by combining image data indicating the right-eye image 300A and the left-eye image 300B.
  • the split image processing unit 32 is controlled to generate the split image 300, and the generated split image 300 is displayed on the display unit 213.
  • the CPU 12 displays the image superimposed on the central portion of the normal image 301.
  • the CPU 12 displays both the normal image 301 and the split image 300 on the display unit 213, but is not limited thereto, and only the split image 300 is displayed on the display unit 213. It may be displayed.
  • step S405 it is determined whether or not a touch operation is detected by the touch panel 215. If the determination in step S405 is affirmative, the process proceeds to step S407. If the determination is negative, the process proceeds to step S425 described later.
  • step S407 it is determined whether or not the touch operation detected by the process in step S405 is a touch operation on the right-eye image 300A or the left-eye image 300B. If an affirmative determination is made in step S407, the process proceeds to step S411 described later.
  • step S407 if a negative determination is made in step S407, the process proceeds to step S409, and after performing processing according to the touch operation, the process proceeds to step S425 described later.
  • Examples of the process corresponding to the touch operation include a process of performing automatic focusing control in a peripheral area around the designated position including the designated position by the touch operation, a process of displaying the peripheral area in an enlarged manner, and the like. .
  • step S411 it is determined whether or not the touch operation detected by the process in step S405 is a touch operation for designating one point. If the determination in step S411 is affirmative, the process proceeds to step S412. If the determination is negative, the process proceeds to step S421 described later.
  • step S412 it is determined whether or not the designated position by the touch operation has moved. In the imaging apparatus 100 according to the present embodiment, when the designated position moves more than a predetermined distance (10 pixels in the present embodiment), it is determined that the designated position has moved. If an affirmative determination is made in step S412, the process proceeds to step S413. If a negative determination is made, the process proceeds to step S409.
  • step S413 it is determined whether or not the touch operation detected by the process in step S405 is a scroll operation.
  • the CPU 12 continues the movement operation in the touch operation for the first time or more, and the designated position is predetermined in the crossing direction by the movement operation (in this embodiment, 10 pixels). ) If it is moved as described above, it is determined that the operation is a scroll operation.
  • whether or not the scroll operation is performed is determined based on the duration of the touch operation, but the determination method of the scroll operation is not limited thereto.
  • a predetermined operation applied to the scroll operation is performed via the operation unit 14, the touch operation continues for the first time or more, and the designated position is greater than or equal to the first distance by the moving operation.
  • Whether or not the operation is a scroll operation may be determined based on whether or not the user has moved.
  • step S413 If the determination in step S413 is affirmative, the process proceeds to step S415, and scroll processing described later is executed. If the determination is negative, the process proceeds to step S417.
  • step S417 it is determined whether or not the touch operation detected by the process in step S405 is a flick operation.
  • the CPU 12 performs a flick operation when the moving operation in the touch operation does not continue for the first time or more and the designated position moves by the moving operation in the intersecting direction by the first distance or more. Is determined.
  • the touch operation is a flick operation based on the duration of the touch operation and the movement distance of the specified position, but the determination method of the flick operation is limited to this.
  • a predetermined operation applied to the flick operation is performed via the operation unit 14 and the touch operation does not continue for the first time or more, and the designated position is set to the first distance by the moving operation. It may be determined whether or not the operation is a flick operation based on whether or not the movement has been performed.
  • step S417 determines whether the determination in step S417 is affirmative. If the determination in step S417 is affirmative, the process proceeds to step S419, and a flick process described later is executed. If the determination is negative, the process proceeds to step S425 described later.
  • step S421 it is determined whether or not the touch operation detected by the process in step S405 is a touch operation designating two points. If the determination in step S421 is affirmative, the process proceeds to step S423, and a reciprocal movement process described later is executed. If the determination is negative, the process proceeds to step S425.
  • step S425 it is determined whether or not an instruction to end the shooting control processing program has been input by determining whether or not the dial 212 has been set to a mode other than the shooting mode. If the determination in step S425 is affirmative, the process proceeds to S427. If the determination is negative, the process proceeds to step S431 described later.
  • step S427 control is performed to stop the display of the normal image 301 displayed on the display unit 213 by the process in step S401.
  • step S429 control for stopping the display of the split image 300 displayed on the display unit 213 by the process of step S403 is performed, and the photographing control processing program is terminated.
  • step S431 it is determined whether or not a shooting instruction has been input by determining whether or not a full press operation on the release switch 211 has been detected. If a negative determination is made in step S431, the process returns to step S405 described above. If an affirmative determination is made, the process proceeds to step S433.
  • step S433 a photographing process for recording image data indicating the normal image 301 in the memory 26 is performed, and the photographing control processing program is terminated. Note that the photographing process is a commonly performed process, and thus detailed description thereof is omitted here.
  • whether the operation is a scroll operation or a flick operation is determined based on the duration of the touch operation, but the determination method is not limited to this.
  • whether the operation is a scroll operation or a flick operation may be determined based on the movement distance by the movement operation. In this case, when the moving distance by the moving operation is equal to or greater than a predetermined distance, it is determined as a scroll operation, and when it is less than the predetermined distance, it is determined as a flick operation. And good.
  • whether the operation is a scroll operation or a flick operation may be determined by the moving speed in the moving operation. In this case, when the moving speed in the moving operation is equal to or higher than a predetermined speed, it is determined as a flick operation, and when it is lower than the predetermined speed, it is determined as a scroll operation. And good.
  • FIG. 12 is a flowchart showing a flow of processing of a scroll processing routine program executed by the CPU 12 during execution of the photographing control processing program.
  • the program is stored in advance in a predetermined storage area of the memory 26.
  • step S501 it is determined whether or not the touch operation detected by the process in step S405 is a touch operation on the right-eye image 300A. If the determination in step S501 is affirmative, the process proceeds to step S503. If the determination is negative, the touch operation detected by the process in step S405 is considered to be for the left-eye image 300B, which will be described later. The process proceeds to step S519.
  • step S503 it is determined whether or not the movement operation in the touch operation detected by the process in step S405 is the rightward movement operation. If the determination in step S503 is affirmative, the process proceeds to step S505. If the determination is negative, the movement operation is regarded as a leftward movement, and the process proceeds to step S513 described later.
  • step S505 the movement distance with respect to the crossing direction of the designated position in the touch operation detected by the process in step S405 is acquired.
  • the CPU 12 executes the process of step S505 for the first time after executing the scroll process routine program, the CPU 12 moves the distance in the intersecting direction from the specified position when the touch operation is started to the current specified position. Get as distance.
  • the execution of the process in step S505 is performed for the second time or later after the scroll process routine program is executed, the distance from the previous designated position to the current designated position is acquired as the movement distance.
  • step S507 the direction in which the focus lens 302 is focused on the subject closer to the current focus position in the optical axis direction of the focus lens 302 (the direction in which the focus position approaches the imaging apparatus 100). Are moved by a distance corresponding to the movement distance acquired in step S505.
  • a value obtained by multiplying the moving distance of the designated position by a predetermined first coefficient is set as the moving distance of the focus lens 302.
  • examples of the first coefficient include a value obtained by dividing the movable length of the focus lens 302 in the optical axis direction by the length of the detectable region on the touch panel 215 in the intersecting direction.
  • the first coefficient is not limited to this. Note that the focus lens 302 can be moved more precisely as the first coefficient is decreased, and the focus lens 302 can be moved faster as the first coefficient is increased.
  • information indicating the first coefficient may be input by the user via the operation unit 14.
  • the CPU 12 moves the focus lens 302 in the direction in which the focus position approaches the imaging apparatus 100 along the optical axis direction, so that the focus of the focus lens 302 is the in-focus position. Get closer to.
  • step S505 the moving distance of the designated position 310 in the intersecting direction is acquired.
  • step S507 the focus lens 302 is moved by a distance corresponding to the moving distance, but the present invention is not limited to this.
  • the moving speed of the designated position 310 in the intersecting direction may be acquired in step S505, and the focus lens 302 may be moved by a distance corresponding to the moving speed (for example, a distance proportional to the moving speed).
  • step S509 it is determined whether or not the touch operation detected by the process in step S405 continues to touch the touch panel 215. If an affirmative determination is made in step S509, the process returns to step S503. On the other hand, if a negative determination is made, the scroll process routine program is terminated, and the process proceeds to step S425 of the photographing control process program (main routine).
  • step S513 similarly to the process of step S505, the movement distance with respect to the crossing direction of the designated position 310 in the touch operation detected by the process of step S405 is acquired.
  • the focus lens 302 is focused on a subject farther from the current focus position in the optical axis direction of the focus lens 302 (the direction in which the focus position moves away from the imaging apparatus 100). ) Is moved by a distance corresponding to the movement distance acquired in step S513.
  • a value obtained by multiplying the moving distance of the designated position 310 by the first coefficient is set as the moving distance of the focus lens 302.
  • the CPU 12 moves the focus lens 302 in the direction in which the focus position moves away from the imaging apparatus 100 along the optical axis direction of the focus lens 302. It approaches the focus position.
  • step S517 it is determined whether or not the touch operation detected by the process in step S405 is continued. If the determination in step S517 is affirmative, the process returns to step S503. If the determination is negative, the process proceeds to step S425.
  • step S519 it is determined whether or not the moving operation in the touch operation detected by the process in step S405 is a leftward moving operation. If the determination in step S519 is affirmative, the process proceeds to step S521. If the determination is negative, the moving operation is regarded as a rightward moving operation, and the process proceeds to step S529 described later.
  • step S521 similarly to the process of step S505, the movement distance of the designated position 310 in the touch operation detected by the process of step S405 with respect to the intersecting direction is acquired.
  • step S523 similar to the processing in step S507, the focus lens 302 is moved by a distance corresponding to the movement distance acquired in step S521 in the direction in which the focal position in the optical axis direction of the focus lens 302 approaches the imaging apparatus 100. Move.
  • a value obtained by multiplying the moving distance of the designated position 310 by the first coefficient is set as the moving distance of the focus lens 302.
  • step S525 it is determined whether or not the touch operation detected by the process in step S405 is continued. If the determination in step S525 is affirmative, the process returns to step S519. If the determination is negative, the process proceeds to step S425.
  • step S529 similarly to the process of step S505, the movement distance with respect to the crossing direction of the designated position 310 in the touch operation detected by the process of step S405 is acquired.
  • step S531 similarly to the processing in step S515, the focus lens 302 is moved by a distance corresponding to the movement distance acquired in step S529 in the direction in which the focal position in the optical axis direction of the focus lens 302 moves away from the imaging device 100. Move.
  • step S533 it is determined whether or not the touch operation detected by the process in step S405 is continued. If the determination in step S533 is affirmative, the process returns to step S519. If the determination is negative, the process proceeds to step S425.
  • FIG. 15 is a flowchart showing the flow of processing of the flick processing routine program executed by the CPU 12 during the execution of the photographing control processing program.
  • the program is stored in advance in a predetermined storage area of the memory 26.
  • the memory 26 stores correspondence information indicating the relationship between the moving speed of the designated position 310 and the moving speed of the focus lens 302 in the moving operation at the time of the flick operation as shown in FIG. 16 as an example.
  • the horizontal axis indicates the moving speed of the designated position 310 in the moving operation during the flick operation
  • the vertical axis indicates the moving speed of the focus lens 302.
  • the right direction is indicated as a positive direction
  • the left direction is indicated as a negative direction.
  • the moving speed of the focus lens 302 increases as the moving speed of the designated position 310 increases.
  • the moving speed of the designated position 310 is from a predetermined first threshold value ( ⁇ 25 pixels / second in the present embodiment) to a predetermined second threshold value (25 pixels / second in the present embodiment). If it is between, the moving speed of the focus lens 302 becomes 0 (zero). This is because, when the moving speed of the moving operation is between the first threshold value and the second threshold value, it is possible that the designated position 310 has moved due to the user's intention, such as finger tremor. This is because the possibility that the designated position 310 has moved against the intention is higher.
  • the moving speed of the focus lens 302 is determined according to the moving speed of the moving operation in the flick operation.
  • step S601 it is determined whether or not the touch operation detected by the process in step S405 is a touch operation on the right-eye image 300A. If the determination in step S601 is affirmative, the process proceeds to step S603. If the determination is negative, the touch operation detected by the process in step S405 is considered to be for the left-eye image 300B, which will be described later. The process proceeds to step S617.
  • step S603 it is determined whether or not the moving operation in the touch operation detected by the process in step S405 is the rightward moving operation.
  • step S603 the process proceeds to step S605.
  • step S611 the process proceeds to step S611 described later.
  • step S605 the moving speed of the specified position 310 in the touch operation detected by the process in step S405 with respect to the intersecting direction is acquired.
  • the CPU 12 acquires a value obtained by dividing the moving distance of the designated position 310 in the moving operation by the time from the start to the end of the movement as the moving speed.
  • the moving speed of the focus lens 302 is derived.
  • the correspondence information is read from the memory 26, and the movement speed corresponding to the movement speed acquired in S605 in the correspondence information is derived.
  • the moving speed of the focus lens 302 is derived based on the moving speed of the designated position 310 and the correspondence information, but the present invention is not limited to this.
  • the moving speed of the focus lens 302 is derived based on the moving speed of the designated position 310 by using a predetermined calculation formula for deriving the moving speed of the focus lens 302 using the moving speed of the designated position 310 as a variable. Also good.
  • step S609 movement of the focus lens 302 is started at a speed corresponding to the movement speed derived in step S607 in the direction in which the focus position in the optical axis direction of the focus lens 302 approaches the imaging apparatus 100, which will be described later.
  • the process proceeds to step S631.
  • step S611 similarly to the process of step S605, the moving speed of the designated position 310 in the touch operation detected by the process of step S405 in the intersecting direction is acquired.
  • step S613 the moving speed of the focus lens 302 is derived as in the process of step S607.
  • step S615 control for starting the movement of the focus lens 302 at a speed corresponding to the movement speed derived in step S613 in the direction in which the focal position in the optical axis direction of the focus lens 302 moves away from the imaging device 100 is performed. Then, the process proceeds to step S631 described later.
  • step S617 it is determined whether or not the movement operation in the touch operation detected by the process in step S405 is the leftward movement operation. If an affirmative determination is made in step S617, the process proceeds to step S619. On the other hand, if a negative determination is made, the moving operation is regarded as a rightward movement, and the process proceeds to step S625 described later.
  • step S619 similarly to the process in step S605, the moving speed of the designated position 310 in the touch operation detected by the process in step S405 in the intersecting direction is acquired.
  • step S621 the moving speed of the focus lens 302 is derived as in the process of step S607.
  • step S623 the focus lens 302 starts to move at a speed corresponding to the moving speed derived in step S621 in the direction in which the focus position in the optical axis direction of the focus lens 302 approaches the imaging apparatus 100, which will be described later.
  • the process proceeds to step S631.
  • step S625 similarly to the process of step S605, the moving speed at which the designated position 310 in the touch operation detected by the process of step S405 moves in the intersecting direction is acquired.
  • step S627 the moving speed of the focus lens 302 is derived as in the process of step S607.
  • step S629 control is performed to start the movement of the focus lens 302 at a speed corresponding to the movement speed derived in step S627 in a direction in which the focal position moves away from the imaging device 100 in the optical axis direction of the focus lens 302.
  • the process proceeds to step S631.
  • step S631 the movement of the focus lens 302 started by any one of steps S609, S615, S623, and S629 is continued until a touch operation is detected again, and then the process proceeds to step S633.
  • the imaging device 100 when any position in the entire area of the touch panel 215 is designated again after the flick operation is performed, it is determined that the touch operation is detected again.
  • step S633 control to stop the movement of the focus lens 302 is performed, and this flick processing routine program is terminated.
  • the imaging apparatus 100 moves the focus lens 302 based on the flick operation being performed in the flick process, and the focus lens is based on the touch operation being performed again. 302 is stopped.
  • the timing at which the focus lens 302 is stopped is not limited to the timing at which the touch operation is performed again, and may be stopped by gradually decreasing the moving speed of the focus lens 302.
  • another example 1 of the flick process will be described.
  • FIG. 17 is a flowchart showing the flow of processing of the flick processing routine program executed by the CPU 12 during the execution of the shooting control processing program.
  • the program is stored in advance in a predetermined storage area of the memory 26.
  • the memory 26 stores in advance stop time information indicating a stop time that is a time from when the movement of the focus lens 302 is started until the focus lens 302 is stopped.
  • step S701 it is determined whether or not the touch operation detected by the process in step S405 is a touch operation on the right-eye image 300A. If the determination in step S701 is affirmative, the process proceeds to step S703. If the determination is negative, the touch operation detected by the process in step S405 is considered to be for the left-eye image 300B, which will be described later. The process proceeds to step S721.
  • step S703 it is determined whether or not the moving operation in the touch operation detected by the process in step S405 is the rightward moving operation. If the determination in step S703 is affirmative, the process proceeds to step S705. If the determination is negative, the movement operation is regarded as a leftward movement, and the process proceeds to step S713 described later.
  • step S705 similarly to the process of step S605, the moving speed of the designated position 310 in the touch operation detected by the process of step S405 with respect to the intersecting direction is acquired.
  • step S707 the moving speed that is the initial speed of the focus lens 302 is derived as in the process of step S607.
  • a deceleration speed for every predetermined time (1 second in this embodiment) for decelerating the moving speed of the focus lens 302 is derived.
  • the stop time information is read from the memory 26.
  • the imaging apparatus 100 according to the present embodiment when the movement of the focus lens 302 is started at the movement speed derived in step S707, the focus lens 302 is moved at the timing when the stop time elapses from the start timing.
  • the deceleration speed for stopping the movement is derived.
  • a value obtained by dividing the movement speed derived in step S707 by the time from the start of movement of the focus lens 302 to the elapse of the stop time is the deceleration speed.
  • step S711 control is performed to start the movement of the focus lens 302 at a speed corresponding to the movement speed derived in step S707 in the direction in which the focus position approaches the imaging device 100 in the optical axis direction of the focus lens 302. Then, the process proceeds to step S739 described later.
  • step S713 similarly to the process of step S705, the moving speed of the designated position 310 in the touch operation detected by the process of step S405 in the intersecting direction is acquired.
  • step S715 similarly to the process in step S707, the moving speed that is the initial speed of the specified position 310 in the touch operation detected by the process in step S405 with respect to the intersecting direction is derived.
  • step S717 similarly to the process in step S709, the deceleration speed of the focus lens 302 every predetermined time is derived.
  • step S719 control is performed to start the movement of the focus lens 302 at a speed corresponding to the movement speed derived in step S715 in a direction in which the focal position moves away from the imaging device 100 in the optical axis direction of the focus lens 302. Then, the process proceeds to step S739 described later.
  • step S721 it is determined whether or not the moving operation in the touch operation detected by the process in step S405 is the leftward moving operation. If an affirmative determination is made in step S721, the process proceeds to step S723. If a negative determination is made, the movement operation is regarded as a rightward movement, and the process proceeds to step S731 described later.
  • step S723 similarly to the process in step S705, the moving speed of the designated position 310 in the touch operation detected by the process in step S405 with respect to the intersecting direction is acquired.
  • step S725 the moving speed that is the initial speed of the focus lens 302 is derived in the same manner as in the process of step S707.
  • step S727 similarly to the process in step S709, the deceleration speed of the focus lens 302 for each predetermined time is derived.
  • step S729 control is performed to start the movement of the focus lens 302 at a speed corresponding to the movement speed derived in step S725 in a direction in which the focal position approaches the imaging device 100 in the optical axis direction of the focus lens 302. Then, the process proceeds to step S739 described later.
  • step S731 similarly to the processing in step S705, the moving speed of the designated position 310 in the touch operation detected by the processing in step S405 in the intersecting direction is acquired.
  • step S733 similarly to the process in step S707, the moving speed that is the initial speed of the focus lens 302 in the touch operation detected by the process in step S405 is derived.
  • step S735 similarly to the process in step S709, the deceleration speed of the focus lens 302 for each predetermined time is acquired.
  • step S737 control is performed to start the movement of the focus lens 302 at a speed corresponding to the movement speed derived in step S733 in a direction in which the focal position moves away from the imaging device 100 in the optical axis direction of the focus lens 302.
  • the process proceeds to step S739.
  • step S739 after waiting for a predetermined time (1 second in the present embodiment) to elapse, the process proceeds to step S741.
  • step S741 control is performed to decelerate the speed corresponding to the deceleration speed derived by any one of steps S709, S717, S727, and S735 from the moving speed of the focus lens 302.
  • step S743 it is determined whether or not the movement of the focus lens 302 is stopped. If a negative determination is made in step S743, the process returns to step S739. If an affirmative determination is made, the flick processing routine program is terminated.
  • FIG. 18 is a graph showing an example of the relationship between the elapsed time from the start of the movement of the focus lens 302 and the moving speed of the focus lens 302 in the imaging apparatus 100 according to the present embodiment.
  • the horizontal axis indicates the elapsed time since the movement of the focus lens 302 is started
  • the vertical axis indicates the movement speed of the focus lens 302.
  • the elapsed time from the start of the movement of the focus lens 302 is standardized so that the time from the start of the movement of the focus lens 302 to the stop is 1.
  • the elapsed time is standardized so that the stop time from when the movement of the focus lens 302 is started until it stops is 1.
  • the imaging apparatus 100 has a slower moving speed of the focus lens 302 as the elapsed time progresses, and the stop time has elapsed since the movement of the focus lens 302 was started. At this timing, the movement speed becomes 0 (zero).
  • the moving speed of the focus lens 302 increases as the elapsed time from the start of the movement of the focus lens 302 progresses. The focus lens 302 will eventually stop as it becomes slower.
  • the imaging apparatus 100 moves the focus lens 302 based on the flick operation performed in the flick process, and gradually reduces the moving speed of the focus lens 302.
  • the focus lens 302 may be stopped.
  • the method of stopping the focus lens 302 is not limited to the method of gradually decelerating the moving speed of the focus lens 302, and is stopped after the focus lens 302 is moved by a moving amount corresponding to the moving distance of the designated position 310. May be.
  • the focus lens 302 is driven by a pulse motor, 1000 pulses are assigned to the entire drive range of the focus lens 302.
  • the movement amount of the designated position 310 is 10% of the entire screen range of the display unit 312 (for example, 64 pixels in the longitudinal direction in the case of VGA (640 ⁇ 210))
  • the focus lens 302 is moved by 100 pulses. Stop after letting go.
  • timing at which the focus lens 302 is stopped in the flick process is not limited to these methods, and the movement of the focus lens 302 may be stopped when an image captured by the focus lens 302 is in focus.
  • another example 2 of the flick process will be described.
  • FIG. 19 is a flowchart showing the flow of processing of the flick processing routine program executed by the CPU 12 during the execution of the shooting control processing program.
  • the program is stored in advance in a predetermined storage area of the memory 26.
  • step S801 it is determined whether or not the touch operation detected by the process in step S405 is a touch operation on the right-eye image 300A. If the determination in step S801 is affirmative, the process proceeds to step 803. If the determination is negative, the touch operation detected by the process in step S405 is considered to be for the left-eye image 300B, and will be described later. The process proceeds to step S817.
  • step S803 it is determined whether or not the moving operation in the touch operation detected by the process in step S405 is the rightward moving operation. If an affirmative determination is made in step S803, the process proceeds to step S805. If a negative determination is made, the moving operation is regarded as a leftward movement, and the process proceeds to step S811 described later.
  • an in-focus determination area is determined as an area for confirming the in-focus state on the right-eye image 300A.
  • a predetermined length centered on a designated position 310 (see FIGS. 13 and 14) when a selection operation is performed (in this embodiment, 500 pixels as an example).
  • the determination method of the focus determination area is not limited to this, and may be a circular area, a rectangular area, or the like located in the center of the right-eye image 300A.
  • the length is not limited to this.
  • a predetermined length centered on the intersection of the boundary line 311 and the perpendicular line drawn from the indication position 310 to the boundary line 311 between the right-eye image 300A and the left-eye image 300B.
  • the right-eye image 300 ⁇ / b> A (the right-eye image 300 ⁇ / b> A that is a column image showing a column with a shorter subject distance among the two columns that are subjects) and the left It may be a circular region having an eye image 300B (a radius of a circle including a left eye image 300B that is a column image indicating a column having a longer subject distance among two columns that are subjects).
  • the focus lens 302 is moved at a predetermined moving speed (in the present embodiment, 50 pixels / second) in the direction in which the focus position approaches the imaging device 100 in the optical axis direction of the focus lens 302. Control to start.
  • a predetermined moving speed in the present embodiment, 50 pixels / second
  • the imaging apparatus 100 for example, the right-eye image 300A in the focus determination region (in the example illustrated in the upper diagram of FIG. 13, the shorter subject distance of the two pillars that are subjects) A right-eye image 300A that is a column image indicating a column and a left-eye image 300B (in the example illustrated in the upper diagram of FIG. 13, a column that indicates a column having a shorter subject distance among the two columns that are subjects.
  • the phase difference for each pixel of the left-eye image 300B which is an image, is derived and the derived phase difference is within a predetermined range including 0 (zero), the in-focus state is obtained. judge.
  • the imaging apparatus 100 when a main subject exists in the focus determination area, the main subject in the focus determination area (if a plurality of main subjects are included, any one of them) ) (For example, in the example shown in the upper diagram of FIG. 13, a right-eye image that is a column image indicating a column having a shorter subject distance among two columns (an example of a plurality of main subjects)).
  • 300A and the left eye image 300B which is a column image indicating the column with the shorter subject distance of the two columns, are in focus, it is determined that the image is in focus.
  • FIG. 20 is a graph showing an example of the relationship between the elapsed time from the start of the movement of the focus lens 302 and the relative position of the focus lens 302 in the imaging apparatus 100 according to the present embodiment.
  • the horizontal axis indicates the elapsed time since the movement of the focus lens 302 is started, and the vertical axis indicates the relative position of the focus lens 302.
  • the elapsed time from the start of the movement of the focus lens 302 is normalized so that the time from the start of the movement of the focus lens 302 to the stop is 1.
  • the relative position of the focus lens 302 is a relative position when the position of the focus lens 302 when the designated position 310 is selected and operated is 0 (zero).
  • the phase difference between the right-eye image 300 ⁇ / b> A and the left-eye image 300 ⁇ / b> B is reduced by moving the focus lens 302.
  • the movement of the focus lens 302 is stopped at a position where the phase difference is 0 (zero).
  • the phase difference between the right-eye image 300A and the left-eye image 300B is 0 (zero)
  • the method for determining whether or not the subject is in focus is not limited to this.
  • FIG. 21 is a graph showing an example of the relationship between the elapsed time from the start of the movement of the focus lens 302 and the relative position of the focus lens 302 in the imaging apparatus 100 according to the present embodiment, as in FIG.
  • the horizontal axis indicates the elapsed time from the start of the movement of the focus lens 302
  • the vertical axis indicates the relative position of the focus lens 302.
  • the elapsed time from the start of the movement of the focus lens 302 is set to 1 from the start of the movement of the focus lens 302 to the stop.
  • the relative position of the focus lens 302 is a relative position where the designated position 310 in the selection operation is zero.
  • the contrast value of the split image 300 is derived while moving the focus lens 302, and the movement of the focus lens 302 is stopped at the position where the contrast value is maximized.
  • the focus determination is performed based on the contrast value of the split image 300, but the present invention is not limited to this, and the focus determination may be performed based on the contrast value of the normal image 301.
  • the in-focus state when confirming the in-focus state of the normal image 301, using the mutual phase difference between the right-eye image 300A and the left-eye image 300B, the in-focus state can be confirmed at a higher speed, while the contrast value If is used, the in-focus state can be confirmed more accurately.
  • step S811 as in the process of step S805, an in-focus determination area is determined as an area for confirming the in-focus state on the right-eye image 300A.
  • a predetermined moving speed in the present embodiment, 50 pixels / in the optical axis direction of the focus lens 302 in a direction away from the imaging device 100. Second) to start the movement of the focus lens 302.
  • step S815 similarly to the process in step S809, it is repeatedly determined whether or not the normal image 301 is in focus. If it is determined that the normal image 301 is in focus, the process proceeds to step S831 described later.
  • step S817 it is determined whether or not the moving operation in the touch operation detected by the process in step S405 is the leftward moving operation. If an affirmative determination is made in step S817, the process proceeds to step S819. If a negative determination is made, the movement operation is regarded as a rightward movement, and the process proceeds to step S825 described later.
  • step S819 as in the process of step S805, an in-focus determination area is determined as an area for confirming the in-focus state on the left-eye image 300B.
  • a predetermined moving speed in the present embodiment, 50 pixels / in the optical axis direction of the focus lens 302 in the direction in which the focal position approaches the imaging device 100. Second) to start the movement of the focus lens 302.
  • step S823 similarly to the processing in step S809, it is repeatedly determined whether or not the normal image 301 is in focus. If it is determined that the normal image 301 is in focus, the process proceeds to step S831 described later.
  • step S825 as in the process of step S805, an in-focus determination area is determined as an area for confirming the in-focus state on the left-eye image 300B.
  • a predetermined moving speed in the present embodiment, 50 pixels / in the optical axis direction of the focus lens 302 in the direction away from the imaging device 100. Second) to start the movement of the focus lens 302.
  • step S829 similarly to the process in step S809, it is repeatedly determined whether or not the normal image 301 is in focus. If it is determined that the normal image 301 is in focus, the process proceeds to step S831.
  • step S831 the movement of the focus lens 302 started by any one of steps S807, S813, S821 and S827 is stopped, and this flick processing routine program is terminated.
  • FIG. 22 is a flowchart showing the flow of processing of the reciprocal movement processing routine program executed by the CPU 12 during the execution of the imaging control processing program.
  • the program is stored in advance in a predetermined storage area of the memory 26.
  • step S901 it is determined whether or not the moving operation on the right eye image 300A in the touch operation detected by the processing in step S405 is the moving operation in the right direction. If the determination in step S901 is affirmative, the process proceeds to step S903. If the determination is negative, the moving operation is regarded as a leftward movement, and the process proceeds to step S909 described later.
  • step S903 it is determined whether or not the moving operation on the left-eye image 300B in the touch operation detected by the process in step S405 is the leftward moving operation. If the determination in step S903 is affirmative, the process proceeds to step S905. If the determination is negative, the process proceeds to step S907 described later.
  • step S905 as in the process of step S507, the focus lens 302 is moved in the direction in which the focus position approaches the imaging device 100 in the optical axis direction of the focus lens 302.
  • the designated position 310 on the right eye image 300A is moved in the right direction by the user operation via the touch panel 215, and the left eye image 300B is moved.
  • the designated position 310 is moved leftward.
  • the CPU 12 moves the focus lens 302 in the direction in which the focus position approaches the imaging apparatus 100 along the optical axis direction, so that the focus of the focus lens 302 is the in-focus position. Get closer to.
  • step S907 it is determined whether or not the touch operation detected by the process in step S405 continues to touch the touch panel 215. If an affirmative determination is made in step S907, the process returns to step S901. On the other hand, if a negative determination is made, the reciprocal movement process routine program ends, and the process proceeds to step S425 of the imaging control process program (main routine). .
  • step S909 it is determined whether or not the moving operation on the left-eye image 300B in the touch operation detected in the process of step S405 is the moving operation in the right direction. If the determination in step S909 is affirmative, the process proceeds to step S911. If the determination is negative, the process proceeds to step S913 described later.
  • step S911 as in the process of step S515, the focus lens 302 is moved in the direction away from the imaging apparatus 100 in the optical axis direction of the focus lens 302.
  • the designated position 310 on the right eye image 300A is moved to the left by the user operation via the touch panel 215, and the left eye image 300B is moved.
  • the designated position 310 is moved to the right.
  • the CPU 12 moves the focus lens 302 in the direction away from the imaging device 100 along the optical axis direction, so that the focus of the focus lens 302 is in the in-focus position. Get closer to.
  • step S913 it is determined whether or not the touch operation detected in the process of step S405 continues to touch the touch panel 215. If an affirmative determination is made in step S913, the process returns to step S901. On the other hand, if a negative determination is made, the reciprocal movement process routine program ends, and the process proceeds to step S425 of the imaging control process program (main routine). .
  • the user touches each of the right eye image 300A and the left eye image 300B with two fingers, and each of the right eye image 300A and the left eye image 300B is displayed. It moves so that the position with respect to the said crossing direction may mutually correspond.
  • the focus lens 302 moves according to the positional relationship of the right-eye image 300A and the left-eye image 300B with respect to each other.
  • the image captured by the focus lens 302 is in a focused state. In this way, the user can perform focusing control by performing an intuitive operation using the split image 300.
  • a single phase difference pixel is arranged with respect to a 2 ⁇ 2 pixel G filter.
  • a 2 ⁇ 2 pixel G filter is used.
  • a pair of first pixel L and second pixel R may be arranged.
  • a pair of first pixel L and second pixel R adjacent to each other in the row direction with respect to a 2 ⁇ 2 pixel G filter may be arranged.
  • a pair of first pixel L and second pixel R adjacent to each other in the column direction with respect to a 2 ⁇ 2 pixel G filter may be arranged.
  • the positions of the first pixel L and the second pixel R are set at least in the column direction and the row direction between the first pixel group and the second pixel group. It is preferable to align one side within a predetermined number of pixels.
  • 26 and 27 show the first pixel L and the second pixel R, and the positions in the column direction and the row direction between the first pixel group and the second pixel group are one pixel. An example is shown in which they are arranged at the same positions.
  • the color filter 21 is exemplified, but the present invention is not limited to this.
  • the arrangement of the primary colors (R filter, G filter, B filter) of the color filter may be a Bayer arrangement.
  • phase difference pixels are arranged for the G filter.
  • a phase difference pixel is arranged at the center of an array pattern G1 in which the four corners and the center of a 3 ⁇ 3 pixel square matrix are G filters. Further, the first pixel L and the second pixel R are alternately arranged with the G filter for one pixel being skipped in each of the row direction and the column direction (with the G filter for one pixel in between). Yes. Further, the first pixel L and the second pixel R are arranged at positions where the positions in the column direction and the row direction are aligned within one pixel between the first pixel group and the second pixel group. ing.
  • an image based on the phase difference pixel at the center of the array pattern G1 can be interpolated using an image based on the normal pixels at the four corners of the array pattern G1, so that the interpolation accuracy is improved compared to the case without this configuration. Can be made.
  • the positions of the array patterns G1 do not overlap each other. That is, the first pixel L and the second pixel R are interpolated with the third image by the pixels included in the third pixel group adjacent to the pixels included in the first and second pixel groups.
  • the pixels included in the second image are arranged at positions that do not overlap in pixel units. Therefore, it is possible to avoid an image based on a phase difference pixel being interpolated with an image based on a normal pixel used in the interpolation of an image based on another phase difference pixel. Therefore, further improvement in interpolation accuracy can be expected.
  • the color filter 21B shown in FIG. 29 has a phase difference pixel arranged at the center of the array pattern G1 and at the lower right corner in front view in the figure.
  • the first pixel L and the second pixel R are alternately arranged by skipping the G filter for two pixels in each of the row direction and the column direction (with the G filter for two pixels in between). Yes.
  • the first pixel L and the second pixel R are arranged at positions where the positions in the column direction and the row direction are aligned within one pixel between the first pixel group and the second pixel group.
  • the first pixel L and the second pixel R can be adjacent to each other. Therefore, it is possible to suppress the occurrence of image shift due to factors other than focus shift.
  • the interpolation accuracy can be improved.
  • the positions of the array patterns G1 do not overlap each other. That is, the first pixel L and the second pixel R are interpolated with the third image by the pixels included in the third pixel group adjacent to the pixels included in the first and second pixel groups.
  • the pixels included in the second image are arranged at positions that do not overlap in a pair of pixel units.
  • the “pair of pixels” refers to, for example, a first pixel L and a second pixel R (a pair of phase difference pixels) included in each array pattern G1. Therefore, it is possible to avoid an image based on a pair of phase difference pixels being interpolated by an image based on normal pixels used in the interpolation of an image based on another pair of phase difference pixels. Therefore, further improvement in interpolation accuracy can be expected.
  • the first pixel L is arranged at the center of the array pattern G1, and the second pixel R is arranged at the lower right corner when viewed from the front in the figure.
  • the first pixel L is disposed by skipping the G filters for two pixels in each of the row direction and the column direction
  • the second pixel R is also a G filter for two pixels in each of the row direction and the column direction. It is arranged by skipping.
  • the first pixel L and the second pixel R are arranged at positions where the positions in the column direction and the row direction are aligned within the two pixels between the first pixel group and the second pixel group.
  • the first pixel L and the second pixel R can be adjacent to each other. Therefore, it is possible to suppress the occurrence of image shift due to factors other than focus shift.
  • the positions of the array patterns G1 do not overlap each other. Therefore, it is possible to avoid an image based on a phase difference pixel being interpolated with an image based on a normal pixel used in the interpolation of an image based on another phase difference pixel. Therefore, further improvement in interpolation accuracy can be expected.
  • a color filter 21D shown in FIG. 31 schematically shows an example of the arrangement of primary colors (R filter, G filter, B filter) of the color filter 21D provided in the image sensor 20 and the arrangement of the light shielding members.
  • the first to fourth row arrangements are repeatedly arranged in the column direction.
  • the first row arrangement refers to an arrangement in which B filters and G filters are alternately arranged along the row direction.
  • the second row arrangement refers to an arrangement obtained by shifting the first row arrangement by a half pitch (half pixel) in the row direction.
  • the third row arrangement refers to an arrangement in which G filters and R filters are alternately arranged along the row direction.
  • the fourth row arrangement refers to an arrangement obtained by shifting the third row arrangement by a half pitch in the row direction.
  • the first row arrangement and the second row arrangement are adjacent to each other with a half pitch shift in the column direction.
  • the second row arrangement and the third row arrangement are also adjacent to each other with a half-pitch shift in the column direction.
  • the third row arrangement and the fourth row arrangement are adjacent to each other with a half-pitch shift in the column direction.
  • the fourth row arrangement and the first row arrangement are also adjacent to each other with a half-pitch shift in the column direction. Accordingly, each of the first to fourth row arrays repeatedly appears every two pixels in the column direction.
  • the first pixel L and the second pixel R are assigned to the third and fourth row arrays as shown in FIG. 31 as an example. That is, the first pixel L is assigned to the third row array, and the second pixel R is assigned to the fourth row array. Further, the first pixel L and the second pixel R are disposed adjacent to each other (by the minimum pitch) in pairs. In the example shown in FIG. 31, the first pixel L is assigned every 6 pixels in the row direction and the column direction, and the second pixel R is also 6 pixels in each of the row direction and the column direction. Assigned to each. Thereby, the phase difference between the first pixel group and the second pixel group is calculated with higher accuracy than in the case where the present configuration is not provided.
  • G filters are assigned to the first pixel L and the second pixel R. Since the pixel provided with the G filter is more sensitive than the pixel provided with the filter of other colors, the interpolation accuracy can be increased. In addition, since the G filter has continuity compared to other color filters, pixels to which the G filter is assigned are more easily interpolated than pixels to which the other color filter is assigned.
  • the split image divided in the vertical direction is exemplified.
  • the present invention is not limited to this, and an image divided into a plurality of parts in the horizontal direction or the diagonal direction may be applied as the split image.
  • the split image 66a shown in FIG. 32 is divided into odd lines and even lines by a plurality of boundary lines 63a parallel to the row direction.
  • a line-like (eg, strip-like) phase difference image 66La generated based on the output signal outputted from the first pixel group is displayed on an odd line (even an even line is acceptable).
  • a line-shaped (eg, strip-shaped) phase difference image 66Ra generated based on the output signal output from the second pixel group is displayed on even lines.
  • the split image 66b shown in FIG. 33 is divided into two by a boundary line 63b (for example, a diagonal line of the split image 66b) having an inclination angle in the row direction.
  • the phase difference image 66Lb generated based on the output signal output from the first pixel group is displayed in one area.
  • the phase difference image 66Rb generated based on the output signal output from the second pixel group is displayed in the other region.
  • the split image 66c shown in FIGS. 34A and 34B is divided by a grid-like boundary line 63c parallel to the row direction and the column direction, respectively.
  • the phase difference image 66Lc generated based on the output signal output from the first pixel group is displayed in a checkered pattern (checker pattern).
  • the phase difference image 66Rc generated based on the output signal output from the second pixel group is displayed in a checkered pattern.
  • the image is not limited to the split image, and another image for confirmation of focus may be generated from the two phase difference images, and the image for confirmation of focus may be displayed.
  • two phase difference images may be superimposed and displayed as a composite image. If the image is out of focus, the image may be displayed as a double image, and the image may be clearly displayed when the image is in focus.
  • the present embodiment includes the same configuration and operation as those of the first embodiment, the same configuration and operation are described as such and detailed description thereof is omitted.
  • FIG. 35 is a flowchart illustrating an example of a process flow of a scroll process routine program according to the present embodiment that is executed by the CPU 12 during the shooting control process.
  • the program is stored in advance in a predetermined storage area of the memory 26.
  • step S1001 it is determined whether or not the touch operation detected by the process in step S405 is a touch operation near the boundary line 311 (see FIG. 36) between the right-eye image 300A and the left-eye image 300B.
  • a range having a width in the dividing direction centered on the boundary line 311 between the right-eye image 300A and the left-eye image 300B (a predetermined range straddling the boundary line 311) is determined in advance. If the touch-operated position is within the range, it is determined that the touch operation detected by the process of step S405 is a touch operation on the vicinity of the boundary line 311.
  • the method for determining whether or not the touch operation is in the vicinity of the boundary line 311 is not limited to this. For example, as described in the first embodiment, an in-focus determination area is determined, and the in-focus determination area is included. The determination may be made based on whether or not the boundary line 311 is included.
  • step S1001 If the determination in step S1001 is affirmative, the process proceeds to step S1003. If the determination is negative, the scroll process routine program is terminated, and the process proceeds to step S425 in the photographing control process program (main routine).
  • step S1003 it is determined whether or not the contact position (designated position) exceeds the boundary line 311. When it becomes negative determination, it will be in a standby state, but when it becomes affirmation determination, it will transfer to step S1005.
  • FIG. 36 is a front view for explaining an example of a split image display state when a scroll operation is performed in the imaging apparatus 100 according to the present embodiment.
  • FIG. 36 shows a case where an image divided into a plurality of parts is applied as the split image 300 in the same manner as the split image 66a shown in FIG. 33 of the first embodiment.
  • the contact position is the designated position 310B
  • the left-eye image 300B is located in an area above the boundary line 311.
  • step S1005 If the determination in step S1005 is affirmative, the process proceeds to step S1007. If the determination is negative, the process proceeds to step S1015 described later.
  • step S1007 it is determined whether or not the operation is to draw a clockwise circle.
  • the locus of the designated position 310 (the contact position of the user) is detected, and it is detected whether the operation is to draw a circle based on the locus and whether it is clockwise or counterclockwise. ing. If the determination is affirmative based on the detection result, the process proceeds to step S1009, whereas if the determination is negative, the process proceeds to step S1011. Note that FIG. 36 shows a trajectory when an operation of drawing a clockwise circle is performed.
  • step S ⁇ b> 1009 the focus lens 302 is moved by a predetermined distance in the direction of focusing on the subject on the farther side than the current focus position in the optical axis direction of the focus lens 302 (the direction in which the focus position moves away from the imaging apparatus 100). .
  • a distance for moving the focus lens 302 is determined in advance by one rotation operation. As described above, in the imaging device 100 of the present embodiment, when the scroll operation for drawing a clockwise circle is performed in a state where the image for left eye 300B is located in the region above the boundary line 311, in the first embodiment, It is assumed that an operation similar to that performed when the left-eye image 300B is scrolled to the right is performed.
  • FIG. 37 shows a front view for explaining an example of a split image display state when a scroll operation (clockwise) for drawing a circle is repeatedly performed. As in the example shown in FIG. 37, when the scroll operation (clockwise) for drawing a circle is repeatedly performed, the determination is affirmative. If the determination in step S1025 is affirmative, the process returns to step S1003. If the determination is negative, the scroll processing routine program is terminated, and the process proceeds to step S425 in the photographing control processing program (main routine).
  • step S1011 it is determined whether or not the operation is to draw a counterclockwise circle, contrary to the processing in step S1007.
  • the locus of the designated position 310 the contact position of the user
  • the operation is to draw a circle based on the locus, whether it is clockwise or counterclockwise. , Has been detected. If an affirmative determination is made based on the detection result, the process proceeds to step S1013. If a negative determination is made, the scroll processing routine program is terminated, and the shooting control processing program (main routine) proceeds to step S425. Transition.
  • the focus lens 302 is predetermined in a direction in which the focus lens 302 is focused on a subject closer to the current focus position (a direction in which the focus position approaches the imaging apparatus 100) in the optical axis direction of the focus lens 302.
  • the process proceeds to step S1025.
  • a distance for moving the focus lens 302 is determined in advance by one rotation operation. As described above, in the imaging apparatus 100 according to the present embodiment, when the left-eye image 300B is on the boundary line 311 and the scroll operation for drawing a left-hand circle is performed, the left-eye image is used in the first embodiment. It is assumed that the same operation as when 300B is scrolled to the left is performed.
  • step S1015 it is determined whether the right-eye image 300A is located in an area above the boundary line 311.
  • the contact position is the designated position 310A or the designated position 310C
  • the right-eye image 300A is located in a region above the boundary line 311.
  • step S1015 If the determination in step S1015 is affirmative, the process proceeds to step S1017. If the determination is negative, the scroll process routine program is terminated, and the process proceeds to step S425 in the photographing control process program (main routine).
  • step S1017 as in the process of step S1007, it is determined whether or not the operation is to draw a clockwise circle. If the determination in step S1017 is affirmative, the process proceeds to step S1019. If the determination is negative, the process proceeds to step S1021.
  • step S1019 as in the process of step S1013, the direction in which the focus lens 302 is focused on the subject closer to the current focus position in the optical axis direction of the focus lens 302 (the focus position is imaged).
  • the process proceeds to step S1025.
  • the imaging apparatus 100 when the scroll operation for drawing a clockwise circle is performed in a state where the right-eye image 300A is on the boundary line 311, the right-eye image is used in the first embodiment. It is assumed that the same operation as when 300A is scrolled to the right is performed.
  • the designated position 310 is rotated clockwise by the user operation via the touch panel 215 when the right eye image 300A is on the boundary line 311.
  • the CPU 12 moves the focus lens 302 in the direction in which the focus position approaches the imaging device 100 along the optical axis direction, so that the focus of the focus lens 302 is brought into the focus position. Get closer.
  • step S1021 it is determined whether or not the operation is to draw a counterclockwise circle, as in the process of step S1011. If the determination in step S1021 is affirmative, the process proceeds to step S1023. If the determination is negative, the scroll process routine program is terminated and the process proceeds to step S425 in the photographing control process program (main routine).
  • step S1023 in the same manner as the processing in step S1009, the direction in which the object on the far side is in focus with respect to the current focus position in the optical axis direction of the focus lens 302 (the focal position moves away from the imaging device 100). ), The process proceeds to step S1025.
  • the imaging apparatus 100 when the scroll operation for drawing a left-hand circle is performed in a state where the right-eye image 300A is on the boundary line 311, the right-eye image is used in the first embodiment. It is assumed that the same operation as when 300A is scrolled to the left is performed.
  • the imaging apparatus 100 moves the focus lens 302 based on the operation of drawing a circle in the scroll process.
  • the moving speed for moving the focus lens 302 may be changed according to the speed of the circle drawing operation.
  • another example 1 of the scroll process will be described.
  • FIG. 39 is a flowchart showing the flow of processing of a scroll processing routine program of another example executed by the CPU 12 during the execution of the photographing control processing program.
  • the program is stored in advance in a predetermined storage area of the memory 26.
  • the scroll process of the different example 1 includes the same process as the scroll process of the present embodiment, the same process is described as such and a detailed description thereof is omitted.
  • step S1101 to step S1107 corresponds to each process from step S1001 to step S1007 of the scroll process.
  • step S1107 When the image for left eye 300B is located in an area above the boundary line 311, if the operation is to draw a clockwise circle in step S1107, the determination is affirmative, and the process proceeds to step S1109. The process proceeds to S1117.
  • step S1109 the angular velocity of the circular motion in which the designated position 310 moves is acquired.
  • the acquisition method of angular velocity is not specifically limited, For example, what is necessary is just like acquiring the moving speed of 1st Embodiment.
  • the moving speed of the focus lens 302 is derived.
  • a correspondence relationship between the angular velocity of the circular motion at which the designated position 310 moves and the moving velocity of the focus lens 302 is stored in a predetermined storage area of the memory 26 in advance.
  • FIG. 40 is a graph illustrating an example of a correspondence relationship between the angular speed of the circular motion and the moving speed of the focus lens 302 in the imaging apparatus 100 according to the present embodiment.
  • the horizontal axis indicates the angular velocity of the circular motion
  • the vertical axis indicates the moving speed of the focus lens 302.
  • the moving speed of the focus lens 302 increases as the angular speed of the circular motion increases.
  • the angular velocity of the circular motion is between a predetermined third threshold ( ⁇ 40 deg / sec in the present embodiment) and a predetermined fourth threshold (40 deg / sec in the present embodiment).
  • the moving speed of the focus lens 302 is 0 (zero).
  • the memory 26 stores in advance a table corresponding to the graph shown in FIG. 40 (a table showing the correspondence between the angular velocity and the moving velocity).
  • the moving speed of the focus lens 302 is gradually increased as the angular speed of the circular motion is increased.
  • the moving speed of the focus lens 302 decreases as the angular speed of the circular motion decreases.
  • step S1111 a table indicating the correspondence illustrated in FIG. 40 is read from the memory 26, and a movement speed corresponding to the movement speed acquired in S1109 is derived in the correspondence.
  • the moving speed of the focus lens 302 is derived based on the table indicating the correspondence relationship between the angular speed and the moving speed of the circular motion at the designated position 310, but the present invention is not limited to this. .
  • the moving speed of the focus lens 302 based on the angular speed of the circular motion at the designated position 310 is used. May be derived.
  • step S ⁇ b> 1113 the direction of focusing on the object on the farther side with respect to the current in-focus position in the optical axis direction of the focus lens 302 based on the moving speed derived in step S ⁇ b> 1111 (the focus position is the imaging device 100.
  • the focus lens 302 is moved by a predetermined distance in a direction away from the focus lens 302.
  • step S1115 corresponds to the process of step S1025 of the scroll process, and determines whether or not contact with the touch panel 215 is continued. If the determination is affirmative, the process returns to step S1103. If the determination is negative, the scroll process routine program is terminated, and the process proceeds to step S425 of the photographing control process program (main routine).
  • step S1117 corresponds to the process of step S1011 of the scroll process. If the operation is to draw a counterclockwise circle in step S1117, the determination is affirmative and the process proceeds to step S1119. If the determination is negative, the scroll processing routine program is terminated and the shooting control processing program (main routine) is terminated. Control goes to step S425.
  • step S1119 similar to the processing in step S1109, the angular velocity of the circular motion in which the designated position 310 moves is acquired.
  • step S1121 the moving speed of the focus lens 302 is derived in the same manner as the process in step S1111.
  • step S1123 the direction in which the subject closer to the nearer side than the current in-focus position in the optical axis direction of the focus lens 302 is focused (the focal position is in the imaging apparatus 100) by the moving speed derived in step S1121. Then, the process proceeds to step S1115.
  • step S1125 and step S1127 that is shifted when the determination is made in step S1105 as to whether or not the left-eye image 300B is located in the region above the boundary line 311 is step S1015 of the scroll processing. And corresponding to each processing in step S1017.
  • step S1127 If the right-eye image 300A is an operation of drawing a clockwise circle in step S1127 when the right-eye image 300A is located in the region above the boundary line 311, the determination is affirmative, and the process proceeds to step S1129. The process moves to S1135.
  • step S1129 similar to the processing in step S1109, the angular velocity of the circular motion in which the designated position 310 moves is acquired.
  • step S1131 the moving speed of the focus lens 302 is derived in the same manner as the processing in step S1111.
  • step S ⁇ b> 1133 the direction of focusing on the subject closer to the nearer position than the current in-focus position among the optical axis directions of the focus lens 302 based on the moving speed derived in step S ⁇ b> 1131 (the focus position is in the imaging apparatus 100.
  • the process proceeds to step S1115.
  • step S1135 corresponds to the process of step S1021 of the scroll process. If the operation is to draw a counterclockwise circle in step S1135, the determination is affirmative and the process proceeds to step S1137. If the determination is negative, the scroll processing routine program is terminated and the shooting control processing program (main routine) is terminated. Control goes to step S425.
  • step S1137 similarly to the processing in step S1109, the angular velocity of the circular motion in which the designated position 310 moves is acquired.
  • step S1121 the moving speed of the focus lens 302 is derived in the same manner as the process in step S1111.
  • step S1141 in the optical axis direction of the focus lens 302 based on the moving speed derived in step S1139, the direction in which the object on the far side from the current focus position is focused (the focus position is the imaging device 100). After moving the focus lens 302 by a predetermined distance in a direction away from the center, the process proceeds to step S1115.
  • the imaging apparatus 100 moves the focus lens 302 based on the action of drawing a circle in the scroll process of the different example 1. Further, the moving speed of the focus lens 302 may be set to a moving speed corresponding to the angular speed of the circular motion.
  • a circular motion may be performed so as to draw a circle over a plurality of divided images.
  • each scroll process may be performed every time the boundary line 311 is crossed.
  • the present invention is not limited to this, and the movement locus of the designated position 310 straddles the crossing direction movement operation and the boundary line 311 (division). It is only necessary to be able to divide the movement movement in the direction. Note that, as in the scroll processing of this embodiment, the designated position 310 is moved so as to draw a circle so that the focus ring 260 is manually rotated to adjust the focus (so-called manual focus). Can be given to the user.
  • FIG. 41 is a block diagram illustrating an example of the configuration of the electrical system of the imaging apparatus 100 according to the present embodiment. As shown in FIG. 41, in addition to the configuration of the imaging device 100 of each of the embodiments described above, the imaging device 100 of the present embodiment includes a notification control unit 38 and a vibration member for notifying the user that the camera is in focus. 217.
  • the notification control unit 38 is connected to the vibration member 217 and controls the vibration member 217 to vibrate when the right-eye image 300A and the left-eye image 300B are in focus.
  • the vibration member 217 of the imaging apparatus 100 according to the present embodiment is provided at a site where the user of the touch panel 215 performs a contact operation.
  • FIG. 42 is a flowchart showing the flow of processing of the focus notification processing routine program executed by the CPU 12 in combination with the execution of the shooting control processing program.
  • the program is stored in advance in a predetermined storage area of the memory 26.
  • step S1201 it is determined whether or not the focus lens 302 is moving. If the determination in step S1201 is affirmative, the process proceeds to step S1203. If the determination is negative, the focus control processing routine program ends.
  • step S1203 it is determined whether or not the subject image (the right eye image 300A and the left eye image 300B) near the contact position (designated position 310) is in focus. If the split image 300 includes a plurality of subject images (right-eye image 300A and left-eye image 300B), all subject images may not be in focus. For example, in the imaging apparatus 100 of the present embodiment, one of the subject images of the subject on the far side and the subject image of the subject on the near side is in focus with respect to the imaging device 100. Therefore, in the imaging apparatus 100 of the present embodiment, the subject images (the right eye image 300A and the left eye image 300B) in the vicinity of the designated position 310 (contact position where the user is in contact) in the above embodiment are in focus. It is determined whether or not.
  • a predetermined area centering on the intersection with the right eye image 300A is provided, and it is determined whether the right eye image 300A and the left eye image 300B included in the area are in focus. Note that a method for determining whether or not the subject is in focus may be the same as the shooting control process in each of the above embodiments.
  • step S1203 If the determination in step S1203 is affirmative, the process proceeds to step S1205. If the determination is negative, the process proceeds to step S1201.
  • step S1205 after the vibrating member 217 is vibrated to notify the in-focus state, the in-focus control processing routine program is terminated.
  • the vibration member 217 vibrates the part where the user of the touch panel 215 performs the contact operation, specifically, the part corresponding to the designated position 310 as described above.
  • the part to be vibrated by the vibration member 217 is not limited to the part, and may be, for example, the entire touch panel 215 or the entire imaging apparatus 100 (camera body 200).
  • the imaging apparatus 100 indicates that the subject image (the right-eye image 300A and the left-eye image 300B) is in focus during the movement of the focus lens 302 in the focus notification process. To inform.
  • the movement of the focus lens 302 may be stopped.
  • another example 1 of the focusing notification process will be described.
  • FIG. 43 is a flowchart showing the flow of processing of a focus notification processing routine program of another example executed by the CPU 12 in combination with execution of the shooting control processing program.
  • the program is stored in advance in a predetermined storage area of the memory 26.
  • the focus notification process of the different example 1 includes the same process as the focus notification process of the present embodiment, the same process is described as such and a detailed description thereof is omitted.
  • step S1301 to step S1305 corresponds to each process from step S1201 to step S1205 of the focus notification process.
  • step S1305 when the subject image (right-eye image 300A and left-eye image 300B) near the contact position is in focus (positive determination in step S1303) while the focus lens 302 is moving (positive determination in step S1301). After the vibration member 217 is vibrated to notify the in-focus state, the process proceeds to step S1307.
  • step S1307 the movement of the focus lens 302 is stopped, and then the present process is terminated.
  • the subject images (the right-eye image 300A and the left-eye image 300B) are in focus during the movement of the focus lens 302 in the focus notification process of the another example 1.
  • the user is notified of this, and the movement of the focus lens 302 is stopped.
  • the imaging apparatus 100 moves the focus lens 302 based on the action of drawing a circle in the scroll process of the different example 1, and the moving speed of the focus lens 302 is increased.
  • the moving speed may be set according to the angular speed of the circular motion.
  • the notification is performed by vibrating the contact portion of the touch panel 215 by the vibration member 217, but the notification method is not limited to this method.
  • an audio output unit such as a speaker may be provided, and notification may be performed by outputting sound.
  • the colors of the right-eye image 300A, the left-eye image 300B, the split image 300, and the like may be changed.
  • a display notifying that the subject is in focus may be performed on the display unit 213.
  • the focus notification process is described as another process that is preferably combined with the shooting control process described in the first and second embodiments.
  • a split image is used as another process.
  • the enlargement / reduction control process 300 will be described in detail with reference to the drawings.
  • FIG. 44 is a flowchart showing the flow of processing of the enlargement / reduction control processing routine program executed by the CPU 12 in combination with the execution of the shooting control processing program.
  • the program is stored in advance in a predetermined storage area of the memory 26.
  • step S1501 it is determined whether or not a scroll operation is being performed vertically (in the division direction). If the determination in step S1501 is affirmative, the process proceeds to step S1503. If the determination is negative, the enlargement / reduction control processing routine program is terminated.
  • step S1503 the split image 300 displayed on the display unit 213 of the display input unit 216 is enlarged or reduced according to the scroll direction (the moving direction of the designated position 310, the upward direction and the downward direction), and then the main image is displayed.
  • the enlargement / reduction control processing routine program is terminated.
  • the split image 300 is enlarged or reduced according to the scroll direction.
  • the split image 300 is enlarged when the scroll direction is upward, and the split image 300 is reduced when the scroll direction is downward. It has been.
  • a predetermined enlargement rate and reduction rate corresponding to one scroll operation may be determined in advance.
  • the enlargement ratio and the reduction ratio may be determined in advance according to the scroll distance (the movement distance of the designated position 310). In this case, for example, the enlargement ratio and the reduction ratio may be determined in advance as the scroll distance is longer.
  • the imaging apparatus 100 enlarges the split image 300 in accordance with the scroll direction based on the scroll operation in the vertical direction (division direction) being performed in the enlargement / reduction control process. Or perform reduction.
  • the subject images (the right-eye image 300A and the left-eye image 300B) are easy to see, and the user can easily check the in-focus state.
  • the movement operation of the designated position 310 performed for controlling the in-focus state in the shooting control process is a movement operation in the horizontal direction. Therefore, in the imaging apparatus 100 of the present embodiment, since the direction of the movement operation (scroll operation) is different between the control of the in-focus state in the shooting control process and the enlargement / reduction control process, the two can be clearly distinguished from each other. it can.
  • the movement operation of the designated position 310 performed for controlling the in-focus state in the shooting control process is a movement operation in the horizontal direction and a movement operation in the vertical direction (division direction). Including.
  • the enlargement / reduction control processing is not limited to the processing described in the above embodiments.
  • another example of the enlargement / reduction control process will be described.
  • FIG. 45 is a flowchart showing the flow of processing of the enlargement / reduction control processing routine program of another example 1 executed by the CPU 12 in combination with the execution of the photographing control processing program.
  • the program is stored in advance in a predetermined storage area of the memory 26.
  • Example 1 Since the enlargement / reduction control process of Example 1 includes the same process as the enlargement / reduction control process of the above-described embodiment, the same process is described as such and a detailed description thereof is omitted.
  • step S1601 it is determined whether two points in the split image 300 have been touched. That is, it is determined whether there are two designated positions 210. If the determination in step S1601 is affirmative, the process proceeds to step S1603. If the determination is negative, the enlargement / reduction control processing routine program is terminated.
  • step S1603 it is determined whether or not a scroll operation (a so-called pinch oven operation (pinch out operation)) in which the designated position 310 is moved in the vertical direction is performed. If the determination in step S1603 is affirmative, the process proceeds to step S1605. If the determination is negative, the process proceeds to step S1607.
  • FIG. 46 is a front view for explaining an example of a split image display state when a split image enlargement operation is performed in the imaging apparatus 100 according to the present embodiment.
  • step S1605 after the split image 300 displayed on the display unit 213 of the display input unit 216 is enlarged, the enlargement / reduction control processing routine program is terminated.
  • FIG. 47 described later shows a state in which the split image 300 is even displayed enlarged on the display unit 213.
  • the enlargement rate may be the same as that in step S1503 of the enlargement / reduction control process.
  • step 1607 it is determined whether or not a scroll operation (a so-called pinch close operation (pinch in operation)) in which the designated position 310 moves in a direction approaching the top and bottom is performed. If the determination in step S1607 is affirmative, the process proceeds to step S1609. If the determination is negative, the enlargement / reduction control processing routine program is terminated.
  • FIG. 47 is a front view for explaining an example of a split image display state when a split image reduction operation is performed in the imaging apparatus 100 according to the present embodiment. 47 illustrates a case where the size of the enlarged split image 300 is larger than the size of the entire display area of the display unit 213.
  • step 1609 after the split image 300 displayed on the display unit 213 of the display input unit 216 is reduced, the enlargement / reduction control processing routine program is terminated.
  • the reduction ratio may be the same as that in step S1503 of the enlargement / reduction control process.
  • the two designated positions 310 are designated in the enlargement / reduction control process of the different example 1, the designated positions 310 are in the vertical direction (division direction).
  • the split image 300 is enlarged or reduced depending on whether it is away or approached.
  • FIG. 48 is a flowchart showing the flow of processing of the enlargement / reduction control processing routine program of another example 2 executed by the CPU 12 in combination with the execution of the photographing control processing program.
  • the program is stored in advance in a predetermined storage area of the memory 26.
  • the enlargement / reduction control process of the different example 2 includes the same process as the enlargement / reduction control process of the present embodiment, the same process is described as such and a detailed description thereof is omitted.
  • step S1701 corresponds to the process of step S1601 of the enlargement / reduction control process of the different example 1.
  • step S1701 it is determined whether or not two points in the split image 300 are touch-operated (there are two designated positions 210). If the determination is affirmative, the process proceeds to step S1703 while the determination is negative. In this case, the enlargement / reduction control processing routine program is terminated.
  • step S1703 it is determined whether or not the designated position 310 is at a position sandwiching the boundary line 311. For example, the determination is made based on whether or not a straight line connecting two designated positions 310 intersects the boundary line 311. 46 and 47 show a case where the designated position 310 is at a position with the boundary line 311 in between.
  • the distance from the boundary line 311 to each designated position 310 is not particularly limited, and the distances from the boundary line 311 at the two designated positions 310 may be different. If the determination is affirmative in step S1703, the process proceeds to step S1705, and if the determination is negative, the process proceeds to step S1713.
  • step S1705 corresponds to the process of step S1603 of the enlargement / reduction control process of the different example 1.
  • step S1705 it is determined whether or not a scroll operation has been performed in which the designated position 310 moves in the direction of moving up and down. If the determination is affirmative, the process proceeds to step S1707. If the determination is negative, the process proceeds to step S1709. To do.
  • the split image 300 is set as a boundary line 311 with the center in the vertical direction (division direction) sandwiched between the designated positions 310, and the center in the left and right direction (horizontal direction) as the designated position 310, and the display input unit 216
  • the enlargement / reduction control processing routine program ends.
  • the left and right positions of the two designated positions 310 are different, for example, the middle point in the left and right direction of the two designated positions 310 may be the center, or one of the designated positions 310 may be the center. good.
  • the boundary line 311 close to the center of the vertical interval between the two designated positions 310 may be used as the center.
  • step S1709 corresponds to the process of step S1607 of the enlargement / reduction control process of the first example.
  • step S1709 it is determined whether a scroll operation has been performed in which the designated position 310 moves in a direction in which the designated position 310 approaches vertically. If the determination in step S1709 is affirmative, the process proceeds to step S1711. If the determination is negative, the enlargement / reduction control processing routine program is terminated.
  • step S1711 the split image 300 is set to a boundary line 311 with the center in the vertical direction (division direction) sandwiched between the specified positions 310, and the center in the left and right direction (horizontal direction) is set to the specified position 310.
  • the enlargement / reduction control processing routine program is terminated.
  • step S1707 when the left and right positions of the two designated positions 310 are different, for example, the middle point in the left and right direction of the two designated positions 310 may be the center, or one of the designated positions is designated.
  • the position 310 may be the center.
  • step S1707 when two designated positions 310 sandwich a plurality of boundary lines 311, for example, the boundary line 311 near the center of the vertical interval between the two designated positions 310 is the center. Also good.
  • step S1713 as in step S1705, it is determined whether or not a scroll operation has been performed in which the designated position 310 moves up and down. If the determination is affirmative, the process proceeds to step S1715, while a negative determination is made. If YES, the process moves to step S1717.
  • step S1715 corresponds to the process of step S1605 of the enlargement / reduction control process of the first example.
  • step S1715 after enlarging the entire split image 300 displayed on the display unit 213 of the display input unit 216, the enlargement / reduction control processing routine program ends.
  • step S1717 as in step S1709, it is determined whether or not a scroll operation is performed in which the designated position 310 moves in the direction of approaching up and down. If the determination in step S1709 is affirmative, the process proceeds to step S1711. If the determination is negative, the enlargement / reduction control processing routine program is terminated.
  • step S1719 corresponds to the process of step S1609 of the enlargement / reduction control process of another example 1.
  • step 1719 the entire split image 300 displayed on the display unit 213 of the display input unit 216 is reduced, and then the enlargement / reduction control processing routine program ends.
  • the imaging apparatus 100 operates in the vertical direction (division direction) when two designated positions 310 are designated with the boundary line 311 interposed therebetween.
  • the split image 300 is enlarged or reduced with the boundary 311 sandwiched between the designated positions 310 and the center in the left-right direction (horizontal direction) designated as the designated position 310.
  • the center of the up / down direction (division direction) of the enlargement / reduction is set as the boundary line 311 sandwiched between the specified positions 310, and the center in the left / right direction (horizontal direction) is set as the specified position 310, so that the user can It is possible to enlarge / reduce the split image 300 (subject image) at a portion where the in-focus state is to be confirmed. Thereby, in the imaging device 100 of this embodiment, it becomes possible to realize an operation intended by the user.
  • FIG. 49 is a flowchart showing the flow of processing of the enlargement / reduction control processing routine program executed by the CPU 12 in combination with the execution of each of the enlargement / reduction control processing programs.
  • the program is stored in advance in a predetermined storage area of the memory 26.
  • the enlargement / reduction control control process shown in FIG. 49 is executed while the split image 300 is being enlarged or reduced.
  • step S1801 it is determined whether or not the split image 300 is being enlarged. If the determination in step S1801 is affirmative, the process proceeds to step S1803. If the determination is negative, the process proceeds to step S1807.
  • step S1803 it is determined whether or not the split image 300 has been enlarged to the size of the entire display area of the display unit 213. If a negative determination is made in step S1803, the process proceeds to step S1801, whereas if a positive determination is made, the process proceeds to step S1805.
  • step S1805 after the enlargement of the split image 300 is stopped, the enlargement / reduction control processing routine program is terminated.
  • step S1807 it is determined whether or not the split image 300 is being reduced. If the determination in step S1807 is affirmative, the process proceeds to step S1809. If the determination is negative, the enlargement / reduction control processing routine program is terminated.
  • step S1809 it is determined whether or not the split image 300 has been reduced to the original size.
  • the “original size” is the size of the split image 300 that is predetermined for the imaging apparatus 100 as an initial state. For example, the size of the split image 300 displayed on the display unit 213 when the imaging apparatus 100 is turned on is used. The “original size” is not limited to this, and may be the size before enlargement when the split image 300 is reduced after being enlarged. If a negative determination is made in step S1809, the process proceeds to step S1807. If an affirmative determination is made, the process proceeds to step S1811.
  • step S1811 after the reduction of the split image 300 is stopped, the enlargement / reduction control processing routine program is terminated.
  • the imaging apparatus 100 uses the maximum enlargement ratio of the split image 300 as the entire display area of the display unit 213 and the maximum reduction ratio in the enlargement / reduction control process.
  • 100 is the size of the split image 300 that is predetermined as an initial state.
  • the split image 300 By enlarging the split image 300 in this way, when a part of the subject image displayed in the normal image 301 is the split image 300, the split image 300 having the maximum enlargement ratio is displayed. However, by reducing the size slightly, the user can check the subject image shown in the periphery of the angle of view.
  • each process included in the imaging control process described in each of the above embodiments may be realized by a software configuration using a computer by executing a program, or may be realized by another hardware configuration. Also good. Further, it may be realized by a combination of a hardware configuration and a software configuration.
  • the program may be stored in a predetermined storage area (for example, the memory 26) in advance. It is not always necessary to store in the memory 26 from the beginning.
  • a program is first stored in an arbitrary “portable storage medium” such as an SSD (Solid State Drive), a CD-ROM, a DVD disk, a magneto-optical disk, or an IC card that is connected to a computer. May be. Then, the computer may acquire the program from these portable storage media and execute it.
  • each program may be stored in another computer or server device connected to the computer via the Internet, LAN (Local Area Network), etc., and the computer may acquire and execute the program from these. Good.
  • the imaging device 100 is illustrated.
  • a mobile terminal device that is a modification of the imaging device 100, for example, a mobile phone or a smartphone having a camera function, a PDA (Personal Digital Assistants), a portable game machine Etc.
  • a smartphone will be described as an example, and will be described in detail with reference to the drawings.
  • FIG. 50 is a perspective view showing an example of the appearance of the smartphone 500.
  • a smartphone 500 shown in FIG. 50 includes a flat housing 502, and a display input in which a display panel 521 as a display unit and an operation panel 522 as an input unit are integrated on one surface of the housing 502. Part 520.
  • the housing 502 includes a speaker 531, a microphone 532, an operation unit 540, and a camera unit 541.
  • the configuration of the housing 502 is not limited thereto, and for example, a configuration in which the display unit and the input unit are independent may be employed, or a configuration having a folding structure or a slide structure may be employed.
  • FIG. 51 is a block diagram showing an example of the configuration of the smartphone 500 shown in FIG.
  • the main components of the smartphone 500 include a wireless communication unit 510, a display input unit 520, a communication unit 530, an operation unit 540, a camera unit 541, a storage unit 550, and an external input / output. Part 560.
  • the smartphone 500 includes a GPS (Global Positioning System) receiving unit 570, a motion sensor unit 580, a power supply unit 590, and a main control unit 501.
  • GPS Global Positioning System
  • a wireless communication function for performing mobile wireless communication via a base station device and a mobile communication network is provided.
  • the wireless communication unit 510 performs wireless communication with a base station apparatus accommodated in the mobile communication network in accordance with an instruction from the main control unit 501. Using this wireless communication, transmission and reception of various file data such as audio data and image data, e-mail data, and reception of Web data and streaming data are performed.
  • the display input unit 520 is a so-called touch panel, and includes a display panel 521 and an operation panel 522. For this reason, the display input unit 520 displays images (still images and moving images), character information, and the like visually by controlling the main control unit 501, and visually transmits information to the user, and performs user operations on the displayed information. To detect. Note that when viewing the generated 3D image, the display panel 521 is preferably a 3D display panel.
  • the display panel 521 uses an LCD, OELD (Organic Electro-Luminescence Display), or the like as a display device.
  • the operation panel 522 is a device that is placed so that an image displayed on the display surface of the display panel 521 is visible and detects one or a plurality of coordinates operated by a user's finger or stylus. When such a device is operated by a user's finger or stylus, a detection signal generated due to the operation is output to the main control unit 501. Next, the main control unit 501 detects an operation position (coordinates) on the display panel 521 based on the received detection signal.
  • the display panel 521 and the operation panel 522 of the smartphone 500 integrally form the display input unit 520, but the operation panel 522 is disposed so as to completely cover the display panel 521. ing.
  • the operation panel 522 may have a function of detecting a user operation even in an area outside the display panel 521.
  • the operation panel 522 includes a detection area (hereinafter referred to as a display area) for an overlapping portion that overlaps the display panel 521 and a detection area (hereinafter, a non-display area) for an outer edge portion that does not overlap the other display panel 521. May be included).
  • the operation panel 522 may include two sensitive regions of the outer edge portion and the other inner portion. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 502 and the like. Furthermore, examples of the position detection method employed in the operation panel 522 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method, and any method is adopted. You can also
  • the communication unit 530 includes a speaker 531 and a microphone 532.
  • the communication unit 530 converts the user's voice input through the microphone 532 into voice data that can be processed by the main control unit 501, and outputs the voice data to the main control unit 501. Further, the communication unit 530 decodes the audio data received by the wireless communication unit 510 or the external input / output unit 560 and outputs it from the speaker 531.
  • the speaker 531 and the microphone 532 can be mounted on the same surface as the surface on which the display input unit 520 is provided.
  • the operation unit 540 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 540 is mounted on the side surface of the housing 502 of the smartphone 500 and is turned on when pressed by a finger or the like, and turned off by a restoring force such as a spring when the finger is released. It is a push button type switch.
  • the storage unit 550 stores the control program and control data of the main control unit 501, application software, address data that associates the name and telephone number of the communication partner, and transmitted / received e-mail data.
  • the storage unit 550 stores Web data downloaded by Web browsing and downloaded content data.
  • the storage unit 550 temporarily stores streaming data and the like.
  • the storage unit 550 includes an external storage unit 552 having an internal storage unit 551 built in the smartphone and a removable external memory slot.
  • Each of the internal storage unit 551 and the external storage unit 552 constituting the storage unit 550 is realized using a storage medium such as a flash memory type or a hard disk type.
  • Other storage media include multimedia card micro type, card type memory (for example, MicroSD (registered trademark) memory, etc.), RAM (Random Access Memory), ROM (Read Only Memory). ) Can be exemplified.
  • the external input / output unit 560 serves as an interface with all external devices connected to the smartphone 500, and is used to connect directly or indirectly to other external devices through communication or the like or a network. is there. Examples of communication with other external devices include universal serial bus (USB), IEEE 1394, and the like. Examples of the network include the Internet, wireless LAN, Bluetooth (Bluetooth (registered trademark)), RFID (Radio Frequency Identification), and infrared communication (Infrared Data Association: IrDA) (registered trademark). Other examples of the network include UWB (Ultra Wideband) (registered trademark), ZigBee (registered trademark), and the like.
  • Examples of the external device connected to the smartphone 500 include a wired / wireless headset, wired / wireless external charger, wired / wireless data port, and a memory card connected via a card socket.
  • Other examples of external devices include SIM (Subscriber Identity Module Card) / UIM (User Identity Module Card) cards, and external audio / video devices connected via audio / video I / O (Input / Output) terminals. It is done.
  • an external audio / video device that is wirelessly connected can be used.
  • the external input / output unit may transmit data received from such an external device to each component inside the smartphone 500, or may allow data inside the smartphone 500 to be transmitted to the external device. it can.
  • the GPS receiving unit 570 receives GPS signals transmitted from the GPS satellites ST1 to STn in accordance with instructions from the main control unit 501, performs positioning calculation processing based on the received GPS signals, and calculates the latitude of the smartphone 500 Detect the position consisting of longitude and altitude.
  • the GPS reception unit 570 can acquire position information from the wireless communication unit 510 or the external input / output unit 560 (for example, a wireless LAN), the GPS reception unit 570 can also detect the position using the position information.
  • the motion sensor unit 580 includes a triaxial acceleration sensor, for example, and detects the physical movement of the smartphone 500 in accordance with an instruction from the main control unit 501. By detecting the physical movement of the smartphone 500, the moving direction and acceleration of the smartphone 500 are detected. This detection result is output to the main control unit 501.
  • the power supply unit 590 supplies power stored in a battery (not shown) to each unit of the smartphone 500 in accordance with an instruction from the main control unit 501.
  • the main control unit 501 includes a microprocessor, operates according to a control program and control data stored in the storage unit 550, and controls each unit of the smartphone 500 in an integrated manner. Further, the main control unit 501 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 510.
  • the application processing function is realized by the main control unit 501 operating according to the application software stored in the storage unit 550.
  • Application processing functions include, for example, an infrared communication function that controls the external input / output unit 560 to perform data communication with the opposite device, an e-mail function that transmits and receives e-mails, and a web browsing function that browses web pages. .
  • the main control unit 501 has an image processing function such as displaying video on the display input unit 520 based on image data (still image data or moving image data) such as received data or downloaded streaming data.
  • the image processing function is a function in which the main control unit 501 decodes the image data, performs image processing on the decoding result, and displays an image on the display input unit 520.
  • the main control unit 501 executes display control for the display panel 521 and operation detection control for detecting a user operation through the operation unit 540 and the operation panel 522.
  • the main control unit 501 By executing the display control, the main control unit 501 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar
  • the scroll bar refers to a software key for accepting an instruction to move a display portion of an image, such as a large image that does not fit in the display area of the display panel 521.
  • the main control unit 501 detects a user operation through the operation unit 540, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 522. Or, by executing the operation detection control, the main control unit 501 accepts a display image scroll request through a scroll bar.
  • the main control unit 501 causes the operation position with respect to the operation panel 522 to overlap with the display panel 521 (display area) or other outer edge part (non-display area) that does not overlap with the display panel 521.
  • a touch panel control function for controlling the sensitive area of the operation panel 522 and the display position of the software key is provided.
  • the main control unit 501 can also detect a gesture operation on the operation panel 522 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation that draws a trajectory with a finger or the like, designates a plurality of positions at the same time, or combines these to draw a trajectory for at least one of a plurality of positions. means.
  • the camera unit 541 is a digital camera that captures an image using an image sensor such as a CMOS or a CCD, and has the same function as the image capturing apparatus 100 shown in FIG.
  • the camera unit 541 can switch between a manual focus mode and an autofocus mode.
  • the focus lens 302 of the camera unit 541 can be focused by operating a focus icon button or the like displayed on the operation unit 540 or the display input unit 520.
  • the manual focus mode the live view image obtained by combining the split images is displayed on the display panel 521 so that the in-focus state during the manual focus can be confirmed.
  • the camera unit 541 converts the image data obtained by imaging into compressed image data such as JPEG (Joint Photographic coding Experts Group) under the control of the main control unit 501.
  • the converted image data can be recorded in the storage unit 550 or output through the external input / output unit 560 or the wireless communication unit 510.
  • the camera unit 541 is mounted on the same surface as the display input unit 520.
  • the mounting position of the camera unit 541 is not limited to this, and the camera unit 541 may be mounted on the back surface of the display input unit 520.
  • a plurality of camera units 541 may be mounted. Note that when a plurality of camera units 541 are mounted, the camera unit 541 used for imaging may be switched and imaged alone, or a plurality of camera units 541 may be used simultaneously for imaging. it can.
  • the camera unit 541 can be used for various functions of the smartphone 500.
  • an image acquired by the camera unit 541 can be displayed on the display panel 521, or the image of the camera unit 541 can be used as one of operation inputs of the operation panel 522.
  • the GPS receiving unit 570 detects the position, the position can also be detected with reference to an image from the camera unit 541.
  • the optical axis direction of the camera unit 541 of the smartphone 500 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • an image from the camera unit 541 can be used in the application software.
  • various kinds of information can be added to still image or moving image data and recorded in the storage unit 550 or output through the external input / output unit 560 or the wireless communication unit 510.
  • the “various information” herein include, for example, position information acquired by the GPS receiving unit 570 and image information of the still image or moving image, audio information acquired by the microphone 532 (sound text conversion by the main control unit or the like). May be text information).
  • posture information acquired by the motion sensor unit 580 may be used.
  • the image pickup device 20 having the first to third pixel groups is illustrated, but the present invention is not limited to this, and only the first pixel group and the second pixel group.
  • An image sensor made of A digital camera having this type of image sensor generates a three-dimensional image (3D image) based on the first image output from the first pixel group and the second image output from the second pixel group. 2D images (2D images) can also be generated. In this case, the generation of the two-dimensional image is realized, for example, by performing an interpolation process between pixels of the same color in the first image and the second image. Moreover, you may employ
  • the mode in which both the normal image and the split image are simultaneously displayed on the moving image surface of the display device when the first to third images are input to the image processing unit 28 is exemplified.
  • the display control unit 36 controls the display device to continuously display the normal image as a moving image and controls the display device to continuously display the split image as a moving image.
  • “suppressing the display of a normal image” refers to not displaying a normal image on a display device, for example. Specifically, the normal image is generated, but the normal image is not displayed on the display device by not outputting the normal image to the display device, or the normal image is not displayed on the display device by generating the normal image.
  • split image refers to an image output from a phase difference pixel group (for example, a first image output from a first pixel group and a second image when a specific image sensor is used).
  • a split image based on the second image output from the pixel group can be exemplified.
  • Examples of “when using a specific image sensor” include a case where an image sensor consisting only of a phase difference pixel group (for example, a first pixel group and a second pixel group) is used. In addition to this, a case where an image sensor in which phase difference pixels (for example, a first pixel group and a second pixel group) are arranged at a predetermined ratio with respect to a normal pixel can be exemplified.
  • various conditions are conceivable as conditions for suppressing the normal image display and displaying the split image.
  • the display control unit 36 performs control to display the split image without displaying the normal image on the display device. You may make it perform.
  • the display control unit 36 may perform control to display a split image without displaying a normal image on the display device.
  • the display control unit 36 may perform control to display the split image without displaying the normal image on the display device.
  • the display control unit 36 may perform control to display the split image without displaying the normal image on the display device. Further, for example, when the face detection function for detecting the face overshoot of the subject is activated, the display control unit 36 may perform control to display the split image without displaying the normal image on the display device. .
  • the display control unit 36 suppresses the display of the normal image.
  • the present invention is not limited to this.
  • the display control unit 36 overwrites the split image of the full screen on the normal image. Control may be performed.
  • the CPU 12 or the main control unit 501 included in each device performs the above-described shooting control process in the imaging device 100 or the smartphone 500 including the imaging lens 16 including the focus lens 302.
  • the present invention is not limited to this.
  • the above-described shooting control process may be performed by remotely operating an imaging apparatus including an imaging lens including a focus lens from an external apparatus such as a personal computer or the smartphone.
  • the shooting control process in each of the above embodiments may be applied not only when the subject image is brought into focus but also when the subject image is put into a so-called out-of-focus state where the subject image is not brought into focus.

Abstract

スプリットイメージを用いた合焦制御を直観的な操作によって行うことができる画像処理装置、撮像装置、プログラム及び画像処理方法を提供する。撮像レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子から出力された画像信号に基づく第1及び第2の画像を合成して合焦確認に使用する表示用画像を、表示領域の表面にタッチパネルが設けられた表示部に表示し(S403)、表示用画像上の第1の画像または第2の画像の選択操作がタッチパネルを介して行われたことを検出し(S407)、分割方向と交差する交差方向に対する移動操作がタッチパネルを介して行われたことを検出し、選択操作が検出されたことに続いて移動操作が検出された場合、フォーカスレンズを上記移動操作に応じてフォーカスレンズの光軸方向に移動させる制御を行う(S415、S417、S419)。

Description

画像処理装置、撮像装置、プログラム及び画像処理方法
 本発明は、画像処理装置、撮像装置、プログラム及び画像処理方法に係り、特に、被写体像の合焦状態を確認するための画像を生成して表示する画像処理装置、撮像装置、プログラム、及び画像処理方法に関する。
 従来、デジタルカメラやカメラ付きの携帯電話機等の撮像装置において、手動での焦点調整(所謂マニュアルフォーカス)を行う作業を容易にするために、スプリットイメージをライブビュー画像(所謂スルー画像)内に表示する技術が用いられるようになってきた。なお、スプリットイメージとは、被写体像における所定領域に対応する右眼用画像の一部と左眼用画像の一部とを合成した画像である。このスプリットイメージにおいては、合焦状態に応じて、右眼用画像と左眼用画像との間において視差発生方向に対するずれが発生する。この技術を利用し、ユーザは、スプリットイメージにおける右眼用画像と左眼用画像とのずれを視認することにより合焦状態を確認する。
 これに関する技術として、特許文献1には、マニュアルフォーカスを行う場合に、スプリットイメージとライブビュー画像の一部とを切り換えて表示することができる撮像装置が開示されている。この撮像装置は、被写体から撮像光学系に入射した光束により形成された光学像を光電変換して得られた信号に基づいてライブビュー画像の画像データを生成する。また、この撮像装置は、光束のうち分割された2つの光束により形成された2つの光学像を光電変換して得られた信号に基づいて、2つの光学像の位相差に対応するスプリットイメージを生成する。そして、この撮像装置は、上記画像データの一部に対応する部分画像を生成し、マニュアルフォーカス時において、表示手段にスプリットイメージと部分画像とを切り換えて表示させる。
 一方、タッチパネルを備え、マニュアルフォーカスを行う場合に、焦点調整の一部をタッチパネルを介した簡単な操作によって行うことができる撮像装置が提案されている。
 これに関する技術として、特許文献2には、タッチパネルによって指定された焦点検出領域において合焦制御を行う場合に、簡単な操作によって合焦制御を行うことができる撮像装置が開示されている。この撮像装置は、撮像範囲内の焦点検出領域に含まれる被写体像の合焦状態を示す焦点信号を抽出し、当該焦点信号に基づいてフォーカスレンズの位置を調節する焦点調節手段を備えている。また、この撮像装置は、画像を表示する表示部の表面に設けられ、撮像範囲内における焦点検出領域の位置の指定を受け付けるタッチパネルを備えている。また、上記焦点調節手段は、マニュアルフォーカスを行う場合、ユーザ操作に応じて移動させたフォーカスレンズの位置を基準に、予め決められた範囲内においてフォーカスレンズを移動させながらタッチパネルによって指定された焦点検出領域における焦点信号を抽出する。そして、上記焦点調節手段は、上記焦点信号に基づいてフォーカスレンズの位置を調節する。
 また、タッチパネルをスクロールする技術として、特許文献3には、タッチスクリーンのスクロール方法として円形ドラッグタッチの円を描く動作に対応してスクロール動作を行う技術が開示されている。
特開2009-237214号公報 特開2011-151728号公報 特開2012-141978号公報
 上記特許文献1に開示された技術では、マニュアルフォーカスを行う際に、スプリットイメージと上記部分画像とを切り換えて表示することができるため、より精密に焦点調整を行うことができる。しかしながら、マニュアルフォーカス時の操作は、自動で合焦制御を行う場合(所謂オートフォーカス)に比較すると操作が複雑であり、特に、ユーザがマニュアルフォーカスでの操作に不慣れである場合には、操作方法がわかり難いという問題点があった。このため、より直観的な操作によってマニュアルフォーカスを行うことができる技術が要望されていた。
 一方、特許文献2に開示された技術では、マニュアルフォーカスを行う際に、タッチパネルを操作することにより焦点検出領域を指定することができるため、手動による焦点調整を一部省略することができる。しかしながら、ユーザが、スプリットイメージを用いて焦点調整を行う場合には、スプリットイメージにおける右眼用画像と左眼用画像とのずれを確認しながら焦点調整を行う。そのため、スプリットイメージを用いて焦点調整を行う際に焦点検出領域を指定してフォーカスレンズの位置を調整することは、ユーザにとって不自然な操作となる可能性があった。
 また、特許文献3に開示された技術は、一度のタッチ操作だけで全体画面をスクロールすることを課題とした技術であり、当該技術を、単に、上記特許文献1及び特許文献2に記載の技術に適用しても、フォーカスレンズの位置を調整することは、ユーザにとって不自然な操作となる可能性があった。
 本発明は上記問題点に鑑みてなされたものであり、スプリットイメージを用いた合焦制御を直観的な操作によって行うことができる画像処理装置、撮像装置、プログラム及び画像処理方法を提供することを目的とする。
 上記目的を達成するために、本発明に係る画像処理装置は、フォーカスレンズを含む撮像レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子における第1の画素群から出力された画像信号に基づく第1の画像及び第2の画素群から出力された画像信号に基づく第2の画像に基づいて、第1の画像を予め定められた分割方向に分割して得られた複数の分割画像から選択される第1の分割画像、及び第2の画像を分割方向に分割して得られた複数の分割画像であって、第1の分割画像に対応する分割領域を表す分割画像を除いた分割画像から選択される第2の分割画像を配置した、合焦確認に使用する表示用画像を生成する生成部と、表示領域を有し、かつ表示領域の表面にタッチパネルが設けられた表示部と、表示部に対して生成部により生成された表示用画像を表示する制御を行う表示制御部と、表示部に表示用画像が表示された状態において、表示用画像上の第1の分割画像または第2の分割画像の選択操作がタッチパネルを介して行われたことを検出する第1検出部と、表示用画像に対して、分割方向と交差する交差方向への移動操作がタッチパネルを介して行われたことを検出する第2検出部と、第1検出部により選択操作が検出されたことに続いて、第2検出部により移動操作が検出された場合、フォーカスレンズを光軸方向に移動させる移動部に対して、フォーカスレンズを移動操作に応じて移動させる制御を行う合焦制御部とを備えている。
 本発明によれば、生成部により、フォーカスレンズを含む撮像レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子から出力された画像信号に基づく第1及び第2の画像に基づいて、第1の画像を予め定められた分割方向に分割して得られた複数の分割画像の一部の第1の分割画像、及び第2の画像を分割方向に分割して得られた複数の分割画像の第1の分割画像に対応する分割領域を除く第2の分割画像を配置した合焦確認に使用する表示用画像(スプリットイメージに相当。)が生成される。また、本発明によれば、表示制御部により、表示領域を有し、かつ表示領域の表面にタッチパネルが設けられた表示部に対して生成部により生成された表示用画像を表示する制御が行われる。
 ここで、本発明では、第1検出部により、表示部に表示用画像が表示された状態において、表示用画像上の第1の分割画像または第2の分割画像の選択操作がタッチパネルを介して行われたことが検出される。また、本発明では、第2検出部により、表示用画像に対する分割方向とは交差する交差方向に対する移動操作がタッチパネルを介して行われたことが検出される。また、本発明では、移動部により、フォーカスレンズが光軸方向に移動される。そして、本発明では、合焦制御部により、第1検出部により選択操作が検出されたことに続いて、第2検出部により移動操作が検出された場合、フォーカスレンズを移動操作に応じて移動させる制御が移動部に対して行われる。
 このように、本発明に係る画像処理装置は、表示用画像(スプリットイメージ)における第1の分割画像または第2の分割画像がタッチパネルを介して選択され、さらに移動操作が行われた場合、移動操作に応じてフォーカスレンズを移動させる。これにより、ユーザがスプリットイメージを直接操作している感覚を得ながら、フォーカスレンズによる焦点位置を調整することができ、その結果、スプリットイメージを用いた合焦制御を直観的な操作によって行うことができる。
 なお、本発明に係る画像処理装置において、生成部が、撮像素子から出力された画像信号に基づいて、撮像範囲の確認に使用する第2の表示用画像を更に生成し、表示制御部が、生成部により生成された第2の表示用画像を更に表示する制御を表示部に対して行うようにしても良い。また、本発明に係る画像処理装置において、撮像素子が、撮像レンズを透過した被写体像が瞳分割されずに結像されて第3の画像を出力する第3の画素群を更に有し、生成部は、第3の画素群から出力された第3の画像に基づいて第2の表示用画像を生成するようにしても良い。これにより、撮像範囲の確認を行いながら、スプリットイメージを用いた合焦制御を行うことができる。
 また、本発明に係る画像処理装置において、合焦制御部は、第1検出部により検出された選択操作が第1の分割画像の選択操作であるか第2の分割画像の選択操作であるかを判別する第1の判別と、第2検出部により検出された移動操作が上記交差方向に沿った第1の方向および第2の方向の何れの方向への移動操作であるかを判別する第2の判別を行い、第1の判別の結果と第2の判別の結果に基づいてフォーカスレンズの移動方向を決定し、フォーカスレンズを移動させる制御を行うようにしても良い。これにより、スプリットイメージに対する簡易な操作によって合焦制御を行うことができる。
 また、本発明に係る画像処理装置において、第1の画像は、右眼用画像であり、第2の画像は、左眼用画像であり、合焦制御部は、第1の判別の結果が右眼用画像の選択操作であり、かつ第2の判別の結果が表示部を観察する操作者から見て右方向への移動操作であった場合、合焦位置が現在の合焦位置よりも撮像素子に近付く方向にフォーカスレンズを移動させ、第1の判別の結果が右眼用画像の選択操作であり、かつ第2の判別の結果が表示部を観察する操作者から見て左方向への移動操作であった場合、合焦位置が現在の合焦位置よりも撮像素子から遠ざかる方向にフォーカスレンズを移動させる制御を移動部に対して行うようにしても良い。これにより、右眼用画像のみを操作する簡易な操作によってスプリットイメージを用いた合焦制御を行うことができる。
 また、本発明に係る画像処理装置において、第1の画像は、右眼用画像であり、第2の画像は、左眼用画像であり、合焦制御部は、第1の判別の結果が左眼用画像の選択操作であり、かつ第2の判別の結果が表示部を観察する操作者から見て右方向への移動操作であった場合、合焦位置が現在の合焦位置よりも撮像素子から遠ざかる方向に撮像フォーカスレンズを移動させ、第1の判別の結果が左眼用画像の選択操作であり、かつ第2の判別の結果が表示部を観察する操作者から見て左方向への移動操作であった場合、合焦位置が現在の合焦位置よりも撮像素子に近付く方向にフォーカスレンズを移動させる制御を行うようにしても良い。これにより、左眼用画像のみを操作する簡易な操作によってスプリットイメージを用いた合焦制御を行うことができる。
 また、本発明に係る画像処理装置において、前記第1の分割画像及び前記第2の分割画像は、前記表示用画像内において前記分割方向に隣接して配置され、第1の分割画像と第2の分割画像との境界線を通過する移動操作がタッチパネルを介して行われたことを検出する第3検出部を更に備え、合焦制御部は、第1検出部により選択操作が検出されたことに続いて、第2検出部及び第3検出部により移動操作が検出された場合、フォーカスレンズを移動操作に応じて移動させる制御を移動部に対して行うようにしても良い。これにより、スプリットイメージに対する簡易な操作により合焦制御を行うことができる。
 また、本発明に係る画像処理装置において、合焦制御部は、境界線に対する第1の分割画像及び第2の分割画像の少なくとも一方の位置を判別する第3の判別と、第2検出部により検出された移動操作が上記交差方向に沿った第1の方向および第2の方向の何れの方向への移動操作であるかを判別する第4の判別と、第3検出部により検出された移動操作が分割方向に沿った第3の方向および第4の方向の何れの方向への移動操作であるかを判別する第5の判別と、を行い、第3の判別の結果と第4の判別の結果と第5の判別の結果とに基づいてフォーカスレンズの移動方向を決定し、フォーカスレンズを移動させる制御を移動部に対して行っても良い。これにより、スプリットイメージに対する簡易な操作によって合焦制御を行うことができる。
 また、本発明に係る画像処理装置において、第1の画像は、右眼用画像であり、第2の画像は、左眼用画像であり、第3の判別の結果、第2の分割画像の位置が表示部を観察する操作者から見て境界線の上側にあると判別された場合、合焦制御部は、第2検出部による移動操作の検出に続いて第3検出部により移動操作が検出され、かつ、第4の判別の結果が表示部を観察する操作者から見て右方向への移動操作及び第5の判別の結果が表示部を観察する操作者から見て下方向への移動操作であった場合、第2検出部による移動操作の検出に続いて第3検出部により移動操作が検出され、かつ、第4の判別の結果が表示部を観察する操作者から見て左方向への移動操作及び第5の判別の結果が表示部を観察する操作者から見て上方向への移動操作であった場合、第3検出部による移動操作の検出に続いて第2検出部により移動操作が検出され、かつ、第4の判別の結果が左方向への移動操作及び第5の判別の結果が下方向への移動操作であった場合、及び第3検出部による移動操作の検出に続いて第2検出部により移動操作が検出され、かつ、第4の判別の結果が右方向への移動操作及び第5の判別の結果が上方向への移動操作であった場合、の何れかの場合に、合焦位置が現在の合焦位置よりも撮像素子から遠ざかる方向にフォーカスレンズを移動させる制御を移動部に対して行っても良い。これにより、右回りに移動操作することによりスプリットイメージに対する簡易な操作によって合焦制御を行うことができる。
 また、本発明に係る画像処理装置において、第1の画像は、右眼用画像であり、第2の画像は、左眼用画像であり、第3の判別の結果、第2の分割画像の位置が、表示部を観察する操作者から見て境界線の上側にあると判別された場合、合焦制御部は、第2検出部による移動操作の検出に続いて第3検出部により移動操作が検出され、かつ、第4の判別の結果が表示部を観察する操作者から見て左方向への移動操作及び第5の判別の結果が表示部を観察する操作者から見て下方向への移動操作であった場合、第2検出部による移動操作の検出に続いて第3検出部により移動操作が検出され、かつ、第4の判別の結果が表示部を観察する操作者から見て右方向への移動操作及び第5の判別の結果が表示部を観察する操作者から見て上方向への移動操作であった場合、第3検出部による移動操作の検出に続いて第2検出部により移動操作が検出され、かつ、第4の判別の結果が左方向への移動操作及び第5の判別の結果が上方向への移動操作であった場合、及び第3検出部による移動操作の検出に続いて第2検出部により移動操作が検出され、かつ、第4の判別の結果が右方向への移動操作及び第5の判別の結果が下方向への移動操作であった場合、の何れかの場合に、合焦位置が現在の合焦位置よりも撮像素子に近付く方向にフォーカスレンズを移動させる制御を移動部に対して行っても良い。これにより、左回りに移動操作することによりスプリットイメージに対する簡易な操作によって合焦制御を行うことができる。
 また、本発明に係る画像処理装置において、第1の画像は、右眼用画像であり、第2の画像は、左眼用画像であり、第3の判別の結果、第1の分割画像の位置が、表示部を観察する操作者から見て境界線の上側にあると判別された場合、合焦制御部は、第2検出部による移動操作の検出に続いて第3検出部により移動操作が検出され、かつ、第4の判別の結果が表示部を観察する操作者から見て右方向への移動操作及び第5の判別の結果が表示部を観察する操作者から見て下方向への移動操作であった場合、第2検出部による移動操作の検出に続いて第3検出部により移動操作が検出され、かつ、第4の判別の結果が表示部を観察する操作者から見て左方向への移動操作及び第5の判別の結果が表示部を観察する操作者から見て上方向への移動操作であった場合、第3検出部による移動操作の検出に続いて第2検出部により移動操作が検出され、かつ、第4の判別の結果が左方向への移動操作及び第5の判別の結果が下方向への移動操作であった場合、及び第3検出部による移動操作の検出に続いて第2検出部により移動操作が検出され、かつ、第4の判別の結果が右方向への移動操作及び第5の判別の結果が上方向への移動操作であった場合、の何れかの場合に、合焦位置が現在の合焦位置よりも撮像素子に近付く方向にフォーカスレンズを移動させる制御を移動部に対して行っても良い。これにより、右回りに移動操作する簡易な操作によってスプリットイメージに対する合焦制御を行うことができる。
 また、本発明に係る画像処理装置において、第1の画像は、右眼用画像であり、第2の画像は、左眼用画像であり、第3の判別の結果、第1の分割画像の位置が表示部を観察する操作者から見て境界線の上側にあると判別された場合、合焦制御部は、第2検出部による移動操作の検出に続いて第3検出部により移動操作が検出され、かつ、第4の判別の結果が表示部を観察する操作者から見て左方向への移動操作及び第5の判別の結果が表示部を観察する操作者から見て下方向への移動操作であった場合、第2検出部による移動操作の検出に続いて第3検出部により移動操作が検出され、かつ、第4の判別の結果が表示部を観察する操作者から見て右方向への移動操作及び第5の判別の結果が表示部を観察する操作者から見て上方向への移動操作であった場合、第3検出部による移動操作の検出に続いて第2検出部により移動操作が検出され、かつ、第4の判別の結果が左方向への移動操作及び第5の判別の結果が上方向への移動操作であった場合、及び第3検出部による移動操作の検出に続いて第2検出部により移動操作が検出され、かつ、第4の判別の結果が右方向への移動操作及び第5の判別の結果が下方向への移動操作であった場合、の何れかの場合に、合焦位置が現在の合焦位置よりも撮像素子から遠ざかる方向にフォーカスレンズを移動させる制御を移動部に対して行うようにしても良い。これにより、左回りに移動操作する簡易な操作によってスプリットイメージに対する合焦制御を行うことができる。
 また、本発明に係る画像処理装置において、合焦制御部は、第1検出部により検出された選択操作が第1の分割画像及び第2の分割画像の双方の選択操作であり、かつ第2検出部により検出された移動操作が第1の分割画像及び第2の分割画像の各々において上記交差方向に沿って互いに異なる方向であった場合、第1の分割画像の移動操作及び第2の分割画像の移動操作の各々の移動方向に基づいてフォーカスレンズの移動方向を決定し、フォーカスレンズを移動させる制御を移動部に対して行うようにしても良い。これにより、誤操作を防止しつつ、直観的な操作によってスプリットイメージを用いた合焦制御を行うことができる。
 また、本発明に係る画像処理装置において、第1の画像は、右眼用画像であり、第2の画像は、左眼用画像であり、合焦制御部は、第1検出部により検出された選択操作が第1の分割画像及び第2の分割画像の双方の選択操作であり、かつ第2検出部により検出された右眼用画像の移動操作が、上記交差方向に沿った方向かつ表示部を観察する操作者から見て右方向への移動操作であり、かつ第2検出部により検出された左眼用画像の移動操作が、上記交差方向に沿った方向かつ表示部を観察する操作者から見て左方向への移動操作であった場合、合焦位置が現在の合焦位置よりも撮像素子に近付く方向にフォーカスレンズを移動させ、第1検出部により検出された選択操作が第1の分割画像及び第2の分割画像の双方の選択操作であり、かつ第2検出部により検出された右眼用画像の移動操作が左方向への移動操作であり、かつ第2検出部により検出された左眼用画像の移動操作が右方向への移動操作であった場合、合焦位置が現在の合焦位置よりも撮像素子から遠ざかる方向にフォーカスレンズを移動させる制御を移動部に対して行うようにしても良い。これにより、右眼用画像及び左眼用画像の双方を指定させることにより誤操作を防止することができ、かつ直観的な操作によってスプリットイメージを用いた合焦制御を行うことができる。
 また、本発明に係る画像処理装置において、合焦制御部が、第2検出部により検出された移動操作におけるタッチパネルに対する接触操作が継続されている間、フォーカスレンズを接触操作における接触位置の移動に応じて光軸方向に移動させる制御を移動部に対して行うようにしても良い。これにより、直観的な操作によって撮像レンズの焦点位置を微調整することができる。
 また、本発明に係る画像処理装置において、合焦制御部が、フォーカスレンズを光軸方向における移動操作に応じた移動方向に継続的に移動させる制御を移動部に対して行うようにしても良い。これにより、直観的な操作によって簡易にスプリットイメージを用いた合焦制御を行うことができる。
 また、本発明に係る画像処理装置において、合焦制御部が、移動操作における操作速度に応じた移動速度によってフォーカスレンズを移動させる制御を移動部に対して行うようにしても良い。これにより、直観的かつ簡易な操作によってフォーカスレンズの移動速度を調整することができる。
 また、本発明に係る画像処理装置において、合焦制御部は、移動操作における操作移動量に応じた移動量によってフォーカスレンズを移動させる制御を移動部に対して行うようにしても良い。これにより、直観的かつ簡易な操作によってフォーカスレンズの移動速度を調整することができる。
 また、本発明に係る画像処理装置において、合焦制御部が、移動操作における操作速度が予め定められた第1閾値未満であった場合、移動部に対してフォーカスレンズを移動させる制御を行わないようにしても良い。これにより、誤操作を防止することができる。
 また、本発明に係る画像処理装置において、移動部によりフォーカスレンズが移動されている状態において、タッチパネルに対する選択操作が一旦解除された後、表示領域の何れかの位置における接触操作がタッチパネルを介して行われたことを検出する第4検出部を更に備え、合焦制御部が、第4検出部により接触操作が検出された場合、フォーカスレンズの移動を停止させる制御を移動部に対して行うようにしても良い。これにより、簡易な操作によって撮像フォーカスレンズの移動を停止させることができる。
 また、本発明に係る画像処理装置において、合焦制御部が、フォーカスレンズの移動を開始させた後、移動に伴ってフォーカスレンズの移動速度を減速させてフォーカスレンズを停止させる制御を移動部に対して行うようにしても良い。これにより、簡易な操作によってフォーカスレンズの焦点位置を微調整することができる。
 また、本発明に係る画像処理装置において、合焦制御部が、第2検出部により検出された移動操作における移動時間が予め定められた第2閾値以上であった場合、第2検出部により検出された移動操作におけるタッチパネルに対する接触操作が継続されている間、フォーカスレンズを接触操作における接触位置に応じて光軸方向に移動させる制御を移動部に対して行い、移動時間が第2閾値未満であった場合、フォーカスレンズを光軸方向における移動操作の接触位置に応じた移動方向に継続的に移動させる制御を移動部に対して行うようにしても良い。これにより、撮像フォーカスレンズの焦点位置を大まかに調整することと微調整することとを直観的な操作によって切り換えることができる。
 また、本発明に係る画像処理装置において、合焦制御部によりフォーカスレンズが移動されている状態において、表示用画像の合焦状況を検出する第5検出部を更に備え、合焦制御部が、第5検出部により合焦していることが検出された場合、撮像フォーカスレンズの移動を停止させる制御を行うようにしても良い。これにより、簡易な操作によって撮像フォーカスレンズを合焦位置に移動させることができる。
 また、本発明に係る画像処理装置において、合焦制御部によりフォーカスレンズが移動されている状態において、表示用画像の合焦状況を検出する第5検出部と、第5検出部により合焦していることが検出された場合、合焦していることを報知する報知部と、を更に備えても良い。また、本発明に係る画像処理装置において、報知部は、タッチパネルに対する接触操作が行われている部位を振動させることにより、合焦していることを報知しても良い。これにより、確実かつ速やかに合焦した旨を報知することができる。
 また、本発明に係る画像処理装置において、第5検出部が、表示用画像のコントラストに基づいて表示用画像の合焦状況を検出するようにしても良い。これにより、フォーカスレンズによる撮像画像が合焦しているか否かの判断を高速に行うことができる。
 また、本発明に係る画像処理装置において、第5検出部が、表示用画像内の第1の分割画像と第2の分割画像と位相差に基づいて表示用画像の合焦状況を検出するようにしても良い。これにより、フォーカスレンズによる撮像画像が合焦しているか否かの判断を高精度に行うことができる。
 また、本発明に係る画像処理装置において、前記第1の分割画像及び前記第2の分割画像は、前記表示用画像内において前記分割方向に隣接して配置され、第1の分割画像と第2の分割画像との境界線を通過する移動操作がタッチパネルを介して行われたことを検出する第3検出部を備え、表示制御部は、第2検出部による移動操作の検出と非連続で第3検出部が移動操作を検出した場合は、第3検出部によって検出した移動操作の操作方向に応じて表示用画像を拡大または縮小する制御を行っても良い。これにより、被写体像が見易くなるため、合焦状態が確認しやすくなる。
 また、本発明に係る画像処理装置において、前記第1の分割画像及び前記第2の分割画像は、前記表示用画像内において前記分割方向に隣接して配置され、第1の分割画像と第2の分割画像との境界線を通過する移動操作がタッチパネルを介して行われたことを検出する第3検出部を備え、表示制御部は、第2検出部による移動操作の検出と非連続で第3検出部が移動操作を検出した場合は、第3検出部がタッチパネルに対する接触操作の接触位置を2点検出すると共に2点の接触位置が離れる方向の移動操作を検出した場合は、表示制御部は、表示用画像を拡大する制御を行い、第3検出部がタッチパネルに対する接触操作の接触位置を2点検出すると共に2点の接触位置が近付く方向の移動操作を検出した場合は、表示制御部は、表示用画像を縮小する制御を行っても良い。これにより、接触位置が1点の場合に比べて、誤動作を抑制することができる。
 また、本発明に係る画像処理装置において、表示制御部は、前記表示用画像を拡大する制御に伴い、表示用画像の大きさが表示領域全体の大きさと等しくなった場合は、表示用画像を拡大する制御を停止するようにしても良い。また、本発明に係る画像処理装置において、表示制御部は、前記表示用画像を拡大する制御に伴い、表示用画像の大きさが表示領域全域よりも大きくなった場合は、表示用画像の一部分を表示領域に表示させる制御を行っても良い。これにより、スプリットイメージの合焦状態を確認し易くすることができる。
 また、本発明に係る画像処理装置において、表示制御部は、表示用画像の拡大後に表示用画像を縮小する場合において、表示用画像の大きさが拡大前の表示用画像の大きさとなった場合に、表示用画像を縮小する制御を停止しても良い。これにより、スプリットイメージが見づらくなるのを抑制することができる。
 一方、上記目的を達成するために、本発明に記載の撮像装置は、本発明に記載の画像処理装置と、撮像レンズと、第1及び第2の画素群を有する撮像素子と、撮像素子から出力された画像信号に基づいて生成された画像を記憶する記憶と、を含んでいる。
 従って、本発明に係る撮像装置によれば、本発明に係る画像処理装置と同様に作用するので、本発明に係る画像処理装置と同様に、スプリットイメージを用いた合焦制御を直観的な操作によって行うことができる。
 また、上記目的を達成するために、本発明に係るプログラムは、コンピュータを、フォーカスレンズを含む撮像レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子における第1の画素群から出力された画像信号に基づく第1画像及び第2の画素群から出力された画像信号に基づく第2の画像に基づいて、第1の画像を予め定められた分割方向に分割して得られた複数の分割画像から選択される第1の分割画像、及び第2の画像を分割方向に分割して得られた複数の分割画像であって、第1の分割画像に対応する分割領域を表す分割画像を除いた分割画像から選択される第2の分割画像を配置した、合焦確認に使用する表示用画像を生成する生成部と、表示領域を有し、かつ表示領域の表面にタッチパネルが設けられた表示部に対して生成部により生成された表示用画像を表示する制御を行う表示制御部と、表示部に表示用画像が表示された状態において、表示用画像上の第1の分割画像または第2の分割画像の選択操作がタッチパネルを介して行われたことを検出する第1検出部と、表示用画像に対して、分割方向と交差する交差方向への移動操作がタッチパネルを介して行われたことを検出する第2検出部と、第1検出部により選択操作が検出されたことに続いて、第2検出部により移動操作が検出された場合、フォーカスレンズを光軸方向に移動させる移動部に対して、フォーカスレンズを移動操作に応じて移動させる制御を行う合焦制御部として機能させる。
 従って、本発明に係るプログラムによれば、コンピュータを本発明に係る画像処理装置と同様に作用させるので、本発明に係る画像処理装置と同様に、スプリットイメージを用いた合焦制御を直観的な操作によって行うことができる。
 更に、上記目的を達成するために、本発明に係る画像処理方法は、フォーカスレンズを含む撮像レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子における第1の画素群から出力された画像信号に基づく第1の画像及び第2の画素群から出力された画像信号に基づく第2の画像に基づいて、第1の画像を予め定められた分割方向に分割して得られた複数の分割画像から選択される第1の分割画像、及び第2の画像を分割方向に分割して得られた複数の分割画像であって、第1の分割画像に対応する分割領域を表す分割画像を除いた分割画像から選択される第2の分割画像を配置した、合焦確認に使用する表示用画像を生成する生成ステップと、表示領域を有し、かつ表示領域の表面にタッチパネルが設けられた表示部に対して生成ステップにより生成された表示用画像を表示する制御を行う表示制御ステップと、表示部に表示用画像が表示された状態において、表示用画像上の第1の分割画像または第2の分割画像の選択操作がタッチパネルを介して行われたことを検出する第1検出ステップと、表示用画像に対して、分割方向と交差する交差方向への移動操作がタッチパネルを介して行われたことを検出する第2検出ステップと、第1検出ステップにより選択操作が検出されたことに続いて、第2検出ステップにより移動操作が検出された場合、フォーカスレンズを光軸方向に移動させる移動部に対して、撮像フォーカスレンズを移動操作に応じて移動させる制御を行う合焦制御ステップと、を有している。
 従って、本発明に係る画像処理方法によれば、本発明に係る画像処理装置と同様に作用するので、本発明に係る画像処理装置と同様に、スプリットイメージを用いた合焦制御を直観的な操作によって行うことができる。
 本発明によれば、スプリットイメージを用いた合焦制御を直観的な操作によって行うことができる、という効果を奏する。
第1実施形態に係るレンズ交換式カメラである撮像装置の外観の一例を示す斜視図である。 第1実施形態に係る撮像装置の背面側を示す背面図である。 第1実施形態に係る撮像装置のハードウェア構成の一例を示すブロック図である。 第1実施形態に係る撮像装置の撮像素子に設けられているカラーフィルタ及び遮光部材の配置の一例を示す概略配置図である。 第1実施形態に係る撮像装置の撮像素子の位相差画素(第1の画素及び第2の画素)の構成の一例を示す概略構成図である。 撮像レンズの焦点位置と合焦位置との関係の説明に供する概略側面図である。 撮像レンズの焦点位置と右眼用画像及び左眼用画像が相互に交差方向に対してずれる方向との関係の説明に供する概略側面図である。 撮像レンズの焦点位置と右眼用画像及び左眼用画像が相互に交差方向に対してずれる方向との関係の説明に供する概略側面図である。 第1実施形態に係る撮像装置に含まれる画像処理部の要部機能の一例を示すブロック図である。 第1実施形態に係る通常画像及びスプリットイメージの表示態様の一例を示す正面図である。 第1実施形態に係る通常画像及びスプリットイメージの表示態様の一例を示す正面図である。 第1実施形態に係る撮影制御処理プログラムの処理の流れを示すフローチャートである。 第1実施形態に係るスクロール処理ルーチンプログラムの処理の流れを示すフローチャートである。 第1実施形態に係る撮像装置においてスクロール操作が行われた場合のスプリットイメージの表示状態の一例を示す正面図である。 第1実施形態に係る撮像装置においてスクロール操作が行われた場合のスプリットイメージの表示状態の別例を示す正面図である。 第1実施形態に係るフリック処理ルーチンプログラムの処理の流れを示すフローチャートである。 第1実施形態に係る撮像装置におけるタッチパネル上の指定位置の移動速度とフォーカスレンズの移動速度との関係を示すグラフである。 第1実施形態に係るフリック処理ルーチンプログラムの別例1の処理の流れを示すフローチャートである。 第1実施形態に係る撮像装置におけるフォーカスレンズの移動が開始されてから停止するまでの時間で規格化した経過時間とフォーカスレンズが移動する際の初速度で規格化したフォーカスレンズの移動速度との関係を示すグラフである。 第1実施形態に係るフリック処理ルーチンプログラムの別例2の処理の流れを示すフローチャートである。 第1実施形態に係る撮像装置において右眼用画像及び左眼用画像の相互の位相差に基づいて合焦制御を行う場合の、フォーカスレンズの移動が開始されてから停止するまでの時間で規格化した経過時間とフォーカスレンズの位置との関係を示すグラフである。 第1実施形態に係る撮像装置において右眼用画像及び左眼用画像のコントラストに基づいて合焦制御を行う場合の、フォーカスレンズの移動が開始されてから停止するまでの時間で規格化した経過時間とフォーカスレンズの位置との関係を示すグラフである。 第1実施形態に係る相反移動処理ルーチンプログラムの処理の流れを示すフローチャートである。 第1実施形態に係る撮像装置において相反移動操作が行われた場合のスプリットイメージの表示状態の一例を示す正面図である。 第1実施形態に係る撮像装置において相反移動操作が行われた場合のスプリットイメージの表示状態の別例を示す正面図である。 第1実施形態に係る撮像装置において相反移動操作が行われている状態を示す正面図である。 第1実施形態に係る撮像装置において相反移動操作が行われている状態を示す正面図である。 第1実施形態に係る撮像装置の撮像素子に設けられているカラーフィルタの配列及び遮光部材の配置の一例を示す概略配置図である。 第1実施形態に係る撮像装置の撮像素子に設けられているカラーフィルタの配列及び遮光部材の配置の一例を示す概略配置図である。 第1実施形態に係る撮像装置の撮像素子に設けられているカラーフィルタの配列及び遮光部材の配置の一例を示す概略配置図である。 第1実施形態に係る撮像装置の撮像素子に設けられているカラーフィルタの配列及び遮光部材の配置の一例を示す概略配置図である。 第1実施形態に係る撮像装置の撮像素子に設けられているカラーフィルタの配列及び遮光部材の配置の一例を示す概略配置図である。 第1実施形態に係る撮像装置の撮像素子に設けられているカラーフィルタの配列及び遮光部材の配置の一例を示す概略配置図である。 第1実施形態に係るスプリットイメージの表示領域の分割方法の一例を示す正面図である。 第1実施形態に係るスプリットイメージの表示領域の分割方法の一例を示す正面図である。 第1実施形態に係るスプリットイメージの表示領域の分割方法の一例を示す正面図である。 第1実施形態に係るスプリットイメージの表示領域の分割方法の一例を示す正面図である。 第2実施形態に係るスクロール処理ルーチンプログラムの処理の流れを示すフローチャートである。 第2実施形態に係る撮像装置においてスクロール操作が行われた場合のスプリットイメージの表示状態の一例を説明するための正面図である。 第2実施形態に係る撮像装置において円を描くスクロール操作(右回り)を繰り返し行っている場合のスプリットイメージの表示状態の一例を説明するための正面図である。 第2実施形態に係る撮像装置においてスクロール操作が行われた場合のスプリットイメージの表示状態の一例を説明するための正面図である。 第2実施形態に係るスクロール処理ルーチンプログラムの別例2の処理の流れを示すフローチャートである。 第2実施形態に係る撮像装置における円動作の角速度とフォーカスレンズの移動速度との対応関係の一例を示すグラフである。 第3実施形態に係る撮像装置の電気系の構成の一例を示すブロック図である。 第3実施形態に係る合焦報知処理ルーチンプログラムの処理の流れを示すフローチャートである。 第3実施形態に係る合焦報知処理ルーチンプログラムの別例1の処理の流れを示すフローチャートである。 第4実施形態に係る拡大・縮小制御処理ルーチンプログラムの処理の流れを示すフローチャートである。 第4実施形態に係る拡大・縮小制御処理ルーチンプログラムの別例1の処理の流れを示すフローチャートである。 第4実施形態に係る撮像装置においてスプリットイメージの拡大操作が行われた場合のスプリットイメージの表示状態の一例を説明するための正面図である。 第4実施形態に係る撮像装置においてスプリットイメージの縮小操作が行われた場合のスプリットイメージの表示状態の一例を説明するための正面図である。 第4実施形態に係る拡大・縮小制御処理ルーチンプログラムの別例2の処理の流れを示すフローチャートである。 第4実施形態に係る拡大・縮小制御処理ルーチンプログラムの処理の流れを示すフローチャートである。 第5実施形態に係るスマートフォンの外観の一例を示す斜視図である。 第5実施形態に係るスマートフォンの電気系の要部構成の一例を示すブロック図である。
 以下、添付図面に従って本発明に係る撮像装置の実施の形態の一例について説明する。
 [第1実施形態]
 本実施形態に係る撮像装置100は、レンズ交換式カメラである。また、撮像装置100は、図1に示すように、カメラ本体200と、カメラ本体200に交換可能に装着されるズームレンズである交換レンズ258と、を含み、レフレックスミラーが省略されたデジタルカメラである。交換レンズ258は、光軸方向に移動可能なフォーカスレンズ302を有する撮像レンズ16、フォーカスリング260、スライド機構303、及びモータ304を備えている(図3参照、詳細後述)。また、カメラ本体200には、ハイブリッドファインダー(登録商標)220が設けられている。ここで言うハイブリッドファインダー220とは、例えば光学ビューファインダー(以下、「OVF」という)及び電子ビューファインダー(以下、「EVF」という)が選択的に使用されるファインダーを指す。
 カメラ本体200と交換レンズ258とは、カメラ本体200に備えられたマウント256と、マウント256に対応する交換レンズ258側のマウント346(図3参照)とが結合されることにより交換可能に装着される。また、交換レンズ258の鏡筒には、マニュアルフォーカスモード時に使用されるフォーカスリング260が設けられている。撮像装置100は、フォーカスリング260の回転操作に伴ってフォーカスレンズ302を光軸方向に移動させ、被写体距離に応じた合焦位置において後述の撮像素子20(図3参照)に被写体光を結像させることができる。
 カメラ本体200の前面には、ハイブリッドファインダー220に含まれるOVFのファインダー窓241が設けられている。また、カメラ本体200の前面には、ファインダー切替えレバー214が設けられている。ファインダー切替えレバー214を矢印SW方向に回動させると、ファインダーに表示される像が、OVFによって視認可能な光学像とEVFによって視認可能な電子像(ライブビュー画像)との間で切り換わるようになっている(後述)。なお、OVFの光軸L2は、交換レンズ258の光軸L1とは異なる光軸である。また、カメラ本体200の上面には、主としてレリーズスイッチ211及び撮影モードや再生モード等の設定用のダイヤル212が設けられている。
 撮影準備指示部及び撮影指示部としてのレリーズスイッチ211は、撮影準備指示状態と撮影指示状態との2段階の押圧操作が検出可能に構成されている。撮影準備指示状態とは、レリーズスイッチ211が、待機位置から中間位置(半押し位置)まで押下される状態を指し、撮影指示状態とは、レリーズスイッチ211が、中間位置を超えた最終押下位置(全押し位置)まで押下される状態を指す。なお、以下では、「待機位置から半押し位置まで押下される状態」を「半押し状態」といい、「待機位置から全押し位置まで押下される状態」を「全押し状態」という。
 本第1実施形態に係る撮像装置100では、動作モードとして撮影モードと再生モードとがユーザの指示に応じて選択的に設定される。撮影モードでは、マニュアルフォーカスモードとオートフォーカスモードとがユーザの指示に応じて選択的に設定される。オートフォーカスモードでは、レリーズスイッチ211を半押し状態にすることにより後述する撮影制御処理が実行され、その後、レリーズスイッチ211を全押し状態にすると露光(撮影)が行われる。
 図2に示すように、カメラ本体200の背面には、OVFのファインダー接眼部242、表示入力部216、十字キー222、MENU/OKキー224、BACK/DISPボタン225が設けられている。
 本実施形態に係る表示入力部216は、画像(静止画像および動画像)や文字情報等を表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネル・ディスプレイである。すなわち、表示入力部216は、表示部213と、タッチパネル215とを備えている。表示部213は、LCD(、Liquid Crystal Display)、有機EL(Organic Electroluminescence)ディスプレイ等により実現される。また、表示部213は、撮影モード時に連続フレームを撮像されて得られた連続フレーム画像(ライブビュー画像等)の表示に用いられる。また、表示部213は、静止画撮影の指示が与えられた場合に単一フレームを撮像されて得られた単一フレーム画像(静止画像等)の表示にも用いられる。更に、表示部213は、再生モード時の再生画像の表示やメニュー画面の表示等にも用いられる。
 また、タッチパネル215は、表示部213の表示面上に表示される画像を視認可能に表示部213に積層され、ユーザの指や尖筆等によって接触された位置を示す座標を検出するデバイスである。タッチパネル215をユーザの指や尖筆によって操作すると、タッチパネル215は、操作に起因して発生する、上記接触された位置を示す検出信号をCPU12に出力する。
 なお、表示部213の表示領域の大きさとタッチパネル215の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、タッチパネル215において採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式等が挙げられ、いずれの方式を採用しても良い。
 十字キー222は、メニューの選択、ズームやコマ送り等の各種の指令信号を出力するマルチファンクションのキーとして機能する。MENU/OKキー224は、表示部213の画面上にメニューを表示させる指令を行うためのメニューボタンとしての機能と、選択内容の確定及び実行などを指令するOKボタンとしての機能とを兼備した操作キーである。BACK/DISPボタン225は、選択項目など所望の対象の消去や指定内容の取消、あるいは1つ前の操作状態に戻すときなどに使用される。
 図3は、本実施形態に係る撮像装置100のハードウェア構成の一例を示すブロック図である。
 交換レンズ258は、本発明に係る移動部の一例であるスライド機構303及びモータ304を含む。スライド機構303は、フォーカスリング260の操作が行われることによりフォーカスレンズ302を光軸L1方向に移動させる。スライド機構303には光軸L1方向へスライド可能にフォーカスレンズ302が取り付けられている。また、スライド機構303にはモータ304が接続されており、スライド機構303は、モータ304の動力を受けてフォーカスレンズ302を光軸L1方向に沿ってスライドさせる。
 モータ304は、マウント256,346を介してカメラ本体200に接続されており、カメラ本体200からの命令に従って駆動が制御される。なお、本実施形態では、モータ304の一例として、ステッピングモータを適用している。従って、モータ304は、カメラ本体200からの命令によりパルス電力に同期して動作する。
 撮像装置100は、撮影した静止画像や動画像を記録するデジタルカメラであり、カメラ全体の動作は、図3に示されるCPU(Central Processing Unit:中央処理装置)12によって統括制御されている。同図に示すように、撮像装置100は、CPU12の他に、操作部14、インタフェース部24、メモリ26及びエンコーダ34を含む。また、撮像装置100は、本発明に係る表示制御部の一例である表示制御部36、接眼検出部37及び外部インタフェース(I/F)39を含む。また、撮像装置100は、画像処理部28を含む。
 CPU12、操作部14、インタフェース部24、メモリ26、画像処理部28、エンコーダ34、表示制御部36、接眼検出部37及び外部インタフェース(I/F)39は、バス40を介して相互に接続されている。なお、メモリ26は、パラメータやプログラムなどが記憶された不揮発性の記憶領域(一例としてEEPROMなど)と画像などの各種情報が一時的に記憶される揮発性の記憶領域(一例としてSDRAMなど)とを有する。
 なお、本第1実施形態に係る撮像装置100では、CPU12が、撮像によって得られた画像のコントラスト値が最大となるように焦点調整モータを駆動制御することによって合焦制御を行う。また、CPU12は、撮像によって得られた画像の明るさを示す物理量であるAE情報を算出する。CPU12は、レリーズスイッチ211が半押し状態とされたときには、AE情報により示される画像の明るさに応じたシャッタースピード及びF値を導出する。そして、導出したシャッタースピード及びF値となるように関係各部を制御することによって露出状態の設定を行う。
 操作部14は、撮像装置100に対して各種指示を与える際に操作者によって操作されるユーザインタフェースである。操作部14によって受け付けられた各種指示は操作信号としてCPU12に出力され、CPU12は、操作部14から入力された操作信号に応じた処理を実行する。
 操作部14は、レリーズスイッチ211、ダイヤル212、表示部213、ファインダー切替えレバー214、十字キー222、MENU/OKキー224及びBACK/DISPボタン225を含む。
 カメラ本体200は、位置検出部23を含む。位置検出部23は、CPU12に接続されている。位置検出部23は、マウント256,346を介してフォーカスリング260に接続されており、フォーカスリング260の回転角度を検出し、検出結果である回転角度を示す回転角度情報をCPU12に出力する。CPU12は、位置検出部23から入力された回転角度情報に応じた処理を実行する。
 ダイヤル212により撮影モードが設定されると、被写体を示す画像光は、手動操作により移動可能なフォーカスレンズ302を含む撮像レンズ16及びシャッタ18を介してカラーの撮像素子(一例としてCMOSセンサ)20の受光面に結像される。撮像素子20に蓄積された信号電荷は、デバイス制御部22から加えられる読出し信号によって信号電荷(電圧)に応じたデジタル信号として順次読み出される。撮像素子20は、いわゆる電子シャッタ機能を有しており、電子シャッタ機能を働かせることにより、読出し信号のタイミングによって各フォトセンサの電荷蓄積時間(シャッタスピード)を制御する。なお、本第1実施形態に係る撮像素子20は、CMOS型のイメージセンサであるが、これに限らず、CCDイメージセンサでもよい。
 撮像素子20には一例として図4に示すようなカラーフィルタ21が設けられている。一例として図4に示すように、カラーフィルタ21は、輝度信号を得るために最も寄与するG(緑)に対応する第1のフィルタG、R(赤)に対応する第2のフィルタR及びB(青)に対応する第3のフィルタBを含む。図4に示す例では、撮像素子20の各画素に対してGフィルタ、Rフィルタ及びBフィルタが行方向(水平方向)及び列方向(垂直方向)の各々に所定の周期性をもって配置されている。そのため、撮像装置100は、R,G,B信号の同時化(補間)処理等を行う際に、繰り返しパターンに従って処理を行うことが可能となる。なお、同時化処理とは、単板式のカラー撮像素子のカラーフィルタ配列に対応したモザイク画像から画素毎に全ての色情報を算出する処理である。例えば、RGB3色のカラーフィルタからなる撮像素子の場合、同時化処理とは、RGBからなるモザイク画像から画素毎にRGB全ての色情報を算出する処理を意味する。
 また、本実施形態に係る撮像装置100は、位相差AF機能を有する。更に、本実施形態に係る撮像素子20は、位相差AF機能を働かせた場合に用いられる複数の位相差検出用の画素を含む。この複数の位相差検出用の画素は予め定めたパターンに従って配置されている。
 位相差検出用の画素は、水平方向の左半分が遮光された第1の画素L及び水平方向の右半分が遮光された第2の画素Rの何れかである。なお、以下では、第1の画素L及び第2の画素Rを区別して説明する必要がない場合は「位相差画素」と称する。
 一例として図5に示すように、第1の画素Lは遮光部材20Aを有し、第2の画素Rは遮光部材20Bを有する。遮光部材20Aは、フォトダイオードPDの前面側(マイクロレンズM側)に設けられており、フォトダイオードPDの受光面の左半分を遮光する。一方、遮光部材20Bは、フォトダイオードPDの前面側に設けられており、フォトダイオードPDの受光面の右半分を遮光する。
 マイクロレンズM及び遮光部材20A,20Bは瞳分割部として機能し、第1の画素Lは、撮像レンズ16の射出瞳を通過する光束の光軸の左側のみを受光し、第2の画素Rは、撮像レンズ16の射出瞳を通過する光束の光軸の右側のみを受光する。このように、射出瞳を通過する光束は、瞳分割部であるマイクロレンズM及び遮光部材20A,20Bにより左右に分割され、それぞれ第1の画素Lおよび第2の画素Rに入射する。
 また、図6に示すように、撮像レンズ16の射出瞳を通過する光束のうちの左半分の光束に対応する被写体像(左眼用画像)と、右半分の光束に対応する被写体像(右眼用画像)とにおける、焦点が合っている(合焦状態である)領域は、撮像素子20上の同じ位置(合焦位置)に結像する。これに対し、撮像装置100に対して被写体より近い位置において焦点が合っている所謂前ピンの領域、又は撮像装置100に対して被写体より遠い位置において焦点が合っている所謂後ピンの領域は、それぞれ撮像素子20上の異なる位置に入射する(位相がずれる)。
 図7及び図8には、撮像装置100が被写体距離の異なる2本の柱(ここでは一例として形状、大きさ及び色が何れも相違しない2本の柱)を被写体として撮像して得たスプリットイメージの一例が示されている。ここで、スプリットイメージとは、右眼分割画像と左眼分割画像とを所定方向(例えば、視差発生方向と直交する方向)に隣接させて配置した画像を指す。右眼分割画像とは、右眼用画像を予め定められた分割方向(一例として視差発生方向と直交する方向)に分割して得た複数の分割画像から選択される一部の分割画像を指す。左眼分割画像とは、左眼用画像を上記分割方向に分割して得た複数の分割画像から、右眼分割画像に対応する分割領域を表す画像を除いて選択される分割画像を指す。なお、図7、図8、図13、図14、図23、図24、図25A、図25B、図36、図37、図38、図46、及び図47に示す例では、説明の便宜上、右眼分割画像に含まれる柱を示す柱画像を右眼用画像と称し、左眼分割画像に含まれる柱を示す柱画像を左眼用画像と称する。
 一例として図7に示すように、上記後ピンの領域では(2本の柱のうち被写体距離が長い方(撮像レンズ16から遠い方)の柱に焦点が合っている場合)、右眼用画像(2本の柱のうち被写体距離が短い方の柱を示す柱画像である右眼用画像)は、表示部213を観察する操作者から見て左方向(図7の正面視左方向)にずれる。また、上記後ピンの領域では、左眼用画像(2本の柱のうち被写体距離が短い方の柱を示す柱画像である左眼用画像)は、表示部213を観察する操作者から見て右方向(図7の正面視右方向)にずれる。一方、一例として図8に示すように、上記前ピンの領域では(2本の柱のうち被写体距離が短い方(撮像レンズ16から近い方)の柱に焦点が合っている場合)、右眼用画像(2本の柱のうち被写体距離が長い方の柱を示す柱画像である右眼用画像)は上記右方向にずれ、左眼用画像(2本の柱のうち被写体距離が長い方の柱を示す柱画像である左眼用画像)は上記左方向にずれる。このように、本実施形態に係る撮像装置100は、右眼用画像と左眼用画像とで視差が異なる視差画像を取得することができる。
 本実施形態に係る撮像装置100は、第1の画素Lの画素値と第2の画素Rの画素値とに基づいて位相のずれ量を検出する。そして、検出した位相のずれ量を提示することによって、ユーザ操作によるフォーカスレンズ302の焦点位置の調整を補助する。なお、以下では、遮光部材20A,20Bを区別して説明する必要がない場合は符号を付さずに「遮光部材」と称する。
 本実施形態に係る撮像素子20は、第1の画素群、第2の画素群及び第3の画素群に分類される。第1の画素群とは、例えば複数の第1の画素Lを指す。第2の画素群とは、例えば複数の第2の画素Rを指す。第3の画素群とは、例えば複数の通常画素を指す。ここで言う「通常画素」とは、例えば位相差画素以外の画素(例えば遮光部材20A,20Bを有しない画素)を指す。なお、以下では、第1の画素群から出力される画像信号により示されるRAW画像を「第1の画像」と称する。また、第2の画素群から出力される画像信号により示されるRAW画像を「第2の画像」と称する。更に、第3の画素群から出力される画像信号により示されるRAW画像を「第3の画像」と称する。
 第1の画素群及び第2の画素群に含まれる各画素は、第1の画素群と第2の画素群との間で水平方向についての位置が1画素内で揃う位置に配置されている。また、第1の画素群及び第2の画素群に含まれる各画素は、第1の画素群と第2の画素群との間で垂直方向についての位置も1画素内で揃う位置に配置されている。図4に示す例では、水平方向及び垂直方向の各々について直線状に第1の画素Lと第2の画素Rとが複数画素分(本実施形態では、2画素分)の間隔を空けて交互に配置されている。すなわち、L画素及びR画素は、同一列及び同一行にそれぞれ含まれる。
 また、図4に示す例では、第1及び第2の画素群に含まれる各画素の位置を水平方向及び垂直方向の各々について1画素内で揃う位置としているが、水平方向及び垂直方向の少なくとも一方について所定画素数内(例えば2画素以内)に収まる位置としてもよい。なお、ピントずれ以外の要因で画像ずれが発生するのを最大限に抑制するためには、一例として図4に示すように、第1及び第2の画素群に含まれる各画素の位置を水平方向及び垂直方向の各々について1画素内で揃う位置とすることが好ましい。
 位相差画素は、一例として図4に示すように、2×2画素(例えば、図4の正面視左上から3行3列目、3行4列目、4行3列目、及び4行4列目の画素)に対応する正方配列のGフィルタの画素に対して設けられている。本実施形態では、2×2画素のGフィルタのうちの図4の正面視右下角の画素が位相差画素に対して割り当てられている。
 このように、カラーフィルタ21では、2×2画素のGフィルタの右下角部の画素に対して遮光部材が設けられており、垂直方向及び水平方向ともに複数画素分の間隔を空けて位相差画素が規則的に配置されている。このため、位相差画素の周囲に通常画素が比較的多く配置されるので、通常画素の画素値から位相差画素の画素値を補間する場合における補間精度を向上させることができる。しかも、位相差画素間において補間に利用する通常画素が重複しないように第1乃至第3の画素群に含まれる各画素が配置されているので、補間精度のより一層の向上が期待できる。
 図3に戻って、撮像素子20は、第1の画素群から第1の画像を示す画像信号(各第1の画素の画素値を示すデジタル信号)を出力し、第2の画素群から第2の画像を示す画像信号(各第2の画素の画素値を示すデジタル信号)を出力する。また、撮像素子20は、第3の画素群から第3の画像を示す画像信号(各通常画素の画素値を示すデジタル信号)を出力する。なお、上記第3の画像は有彩色の画像であり、例えば通常画素の配列と同じカラー配列のカラー画像である。また、上記第1の画像、上記第2の画像及び上記第3の画像を示す画像データは、インタフェース部24を介してメモリ26における揮発性の記憶領域に一時記憶される。
 また、画像処理部28は、通常処理部30を有する。通常処理部30は、第3の画素群に対応するR,G,B信号を処理することにより第2の表示用画像の一例である有彩色の通常画像を生成する。また、画像処理部28は、スプリットイメージ処理部32を有する。スプリットイメージ処理部32は、第1の画素群及び第2の画素群に対応するG信号を処理することにより第2の表示用画像の一例である無彩色のスプリットイメージを生成する。なお、本実施形態に係る画像処理部28は、一例として、画像処理に係る複数の機能を実現する回路を1つにまとめた集積回路であるASIC(Application Specific Integrated Circuit)により実現される。ここで、CPU12は、後述する撮影制御処理プログラムを実行し、スプリットイメージ処理部32にスプリットイメージを生成させ、生成されたスプリットイメージを表示部213に表示させる制御を行う。しかし、画像処理部28のハードウェア構成はASICに限定されるものではなく、例えばプログラマブルロジックデバイスやCPU、ROM及びRAMを含むコンピュータなどの他のハードウェア構成であっても良い。
 一方、エンコーダ34は、入力された信号を別の形式の信号に変換して出力する。また、ハイブリッドファインダー220は、電子像を表示するLCD247を有する。LCD247における所定方向の画素数(一例として視差発生方向である水平方向の画素数)は、表示部213における同方向の画素数よりも少ない。表示制御部36は表示部213及びLCD247に各々接続されており、LCD247及び表示部213が選択的に制御されることによりLCD247又は表示部213により画像が表示される。なお、以下では、表示部213及びLCD247を区別して説明する必要がない場合は「表示装置」と称する。
 なお、本実施形態に係る撮像装置100は、ダイヤル212により上述したマニュアルフォーカスモードとオートフォーカスモードとを切り替え可能に構成されている。何れかのフォーカスモードが選択されると、表示制御部36は、スプリットイメージが合成されたライブビュー画像を表示装置に表示させる。また、ダイヤル212によりオートフォーカスモードが選択されると、CPU12は、位相差検出部及び自動焦点調整部として動作する。位相差検出部は、第1の画素群から出力された第1の画像と第2の画素群から出力された第2の画像との位相差を検出する。自動焦点調整部は、検出された位相差に基づいてフォーカスレンズ302のデフォーカス量をゼロにするように、デバイス制御部22からマウント256,346を介してモータ304を制御し、フォーカスレンズ302を合焦位置に移動させる。なお、上記の「デフォーカス量」とは、例えば第1の画像及び第2の画像の位相ずれ量を指す。
 また、接眼検出部37は、ユーザがファインダー接眼部242を覗き込んだことを検出し、検出結果をCPU12に出力する。従って、CPU12は、接眼検出部37での検出結果に基づいてファインダー接眼部242が使用されているか否かを把握することができる。
 更に、外部I/F39は、LAN(Local Area Network)やインターネットなどの通信網に接続され、通信網を介して、外部装置(例えばプリンタ)とCPU12との間の各種情報の送受信を司る。従って、撮像装置100は、外部装置としてプリンタが接続されている場合、撮影した静止画像をプリンタに出力して印刷させることができる。また、撮像装置100は、外部装置としてディスプレイが接続されている場合は、撮影した静止画像やライブビュー画像をディスプレイに出力して表示させることができる。
 図9に示すように、通常処理部30及びスプリットイメージ処理部32は、それぞれWBゲイン部、ガンマ補正部及び同時化処理部を有し(図示省略)、メモリ26に一時記憶された元のデジタル信号(RAW画像)に対して各処理部において順次信号処理を行う。すなわち、WBゲイン部は、R,G,B信号のゲインを調整することによりホワイトバランス(WB)を実行する。ガンマ補正部は、WBゲイン部においてWBが実行された各R,G,B信号をガンマ補正する。同時化処理部は、撮像素子20のカラーフィルタ21の配列に対応した色補間処理を行い、同時化したR,G,B信号を生成する。なお、通常処理部30及びスプリットイメージ処理部32は、撮像素子20により1画面分のRAW画像が取得される毎に、そのRAW画像に対して並列に画像処理を行う。
 通常処理部30は、インタフェース部24からR,G,BのRAW画像が入力され、第3の画素群のR,G,B画素における、位相差画像において遮光されている画素に対して、第1の画素群及び第2の画素群のうちの同色の周辺画素(例えば隣接するG画素)を用いて補間する。通常処理部30は、上記補間により得られる画像を、表示用の通常画像及び記録用の通常画像としても良い。
 また、通常処理部30は、生成した記録用の通常画像の画像データをエンコーダ34に出力する。通常処理部30により処理されたR,G,B信号は、エンコーダ34により記録用の信号に変換(エンコーディング)され、記録部42(図9参照)に記録される。また、通常処理部30は、生成した表示用の通常画像の画像データを表示制御部36に出力する。なお、以下では、説明の便宜上、上記の「記録用の通常画像」及び「表示用の通常画像」を区別して説明する必要がない場合は「記録用の」との文言及び「表示用の」との文言を省略して「通常画像」と称する。
 撮像素子20は、第1の画素群及び第2の画素群の各々の露出条件(一例として電子シャッタによるシャッタ速度)を変えることができ、これにより露出条件の異なる画像を同時に取得することができる。従って、画像処理部28は、露出条件の異なる画像に基づいて広ダイナミックレンジの画像を生成することができる。また、同じ露出条件によって複数の画像を同時に取得することができ、これらの画像を加算することによりノイズの少ない高感度の画像を生成し、あるいは高解像度の画像を生成することができる。
 一方、スプリットイメージ処理部32は、メモリ26に一旦記憶されたRAW画像から第1の画素群及び第2の画素群のG信号を抽出し、第1の画素群及び第2の画素群のG信号に基づいて無彩色のスプリットイメージを生成する。RAW画像から抽出される第1の画素群及び第2の画素群の各々は、上述したようにGフィルタの画素による画素群である。そのため、スプリットイメージ処理部32は、第1の画素群及び第2の画素群のG信号に基づいて、無彩色の左の視差画像である左眼用画像及び無彩色の右の視差画像である右眼用画像を生成することができる。
 スプリットイメージ処理部32は、右眼用画像を予め定められた分割方向(図10A及び図10Bの正面視上下方向)に分割して複数(本実施形態では、2枚)の分割画像を取得し、当該複数の分割画像から一部の画像を選択することにより右眼分割画像を得る。また、スプリットイメージ処理部32は、左眼用画像を上記分割方向に分割して複数(本実施形態では、2枚)の分割画像を取得し、当該複数の分割画像から右眼分割画像に対応する分割領域を表す画像を除いて、左眼分割画像を選択する。そして、スプリットイメージ処理部32は、右眼分割画像及び左眼分割画像を各々対応する領域に配置することによりスプリットイメージを生成する。なお、このようにして生成されたスプリットイメージの画像データは表示制御部36に出力される。
 一例として図10A及び図10Bに示すように、スプリットイメージ300において、右眼用画像300A及び左眼用画像300Bが、上記分割方向に交互に配置される。スプリットイメージ300は、撮像レンズ16の焦点が合焦位置からずれている場合、図10Aに示すように、右眼用画像300A及び左眼用画像300Bの各々が上記分割方向とは交差する方向(図10A及び図10Bの正面視左右方向であり、以下、「交差方向」という。)に合焦位置からのずれ量に応じた量だけずれている画像となる。一方、スプリットイメージ300は、上記焦点が合焦位置に一致している場合、図10Bに示すように、右眼用画像300A及び左眼用画像300Bの各々が上記交差方向に対して同位置となる画像となる。
 本実施形態に係る撮像装置100では、メモリ26には、表示部213におけるスプリットイメージ300の表示領域を示す表示領域情報が予め記憶されている。この表示領域情報は、表示部213の表示領域内における予め定められた座標系によって示された、表示領域の範囲(本実施形態では、通常画像301の中央部)を示す情報である。また、本実施形態に係るメモリ26には、スプリットイメージ300の分割方向を示す分割方向情報、及びスプリットイメージ300の分割数を示す分割数情報が予め記憶されている。
 スプリットイメージ処理部32は、上記分割方向情報をメモリ26から読み出すことにより、右眼用画像300A及び左眼用画像300Bの分割方向を決定する。また、スプリットイメージ処理部32は、上記分割数情報をメモリ26から読み出すことにより、スプリットイメージ300の分割数を決定する。そして、スプリットイメージ処理部32は、以上の処理によって得られた分割方向及び分割数に基づいてスプリットイメージ300を生成する。
 表示制御部36は、通常処理部30から入力された第3の画素群に対応する記録用の画像データと、スプリットイメージ処理部32から入力された第1、第2の画素群に対応するスプリットイメージの画像データとに基づいて表示用の画像データを生成する。例えば、表示制御部36は、通常処理部30から入力された第3の画素群に対応する記録用の画像データにより示される通常画像の表示領域内に、スプリットイメージ処理部32から入力された画像データにより示されるスプリットイメージ300を合成する。そして、合成して得た画像データを表示装置に出力する。
 本実施形態では、通常画像301にスプリットイメージ300を合成する際、通常画像301の一部の画像に代えてスプリットイメージ300を嵌め込むことにより合成するが、合成方法はこれに限定されない。例えば、通常画像301の上にスプリットイメージ300を重畳させる合成方法であってもよい。また、スプリットイメージ300を重畳する際に、スプリットイメージ300が重畳される領域に対応する通常画像301の一部の画像とスプリットイメージ300との透過率を適宜調整して重畳させる合成方法であってもよい。あるいは、通常画像301及びスプリットイメージ300を各々異なるレイヤによって表示させても良い。これにより、ライブビュー画像における通常画像の表示領域内に、スプリットイメージ300を表示させることができる。なお、ライブビュー画像とは、連続的に撮影している被写体像を表示装置の画面上に連続的に表示させる際の、被写体像を示す画像である。
 また、図9に示すように、ハイブリッドファインダー220は、OVF240及びEVF248を含む。OVF240は、対物レンズ244と接眼レンズ246とを有する逆ガリレオ式ファインダーであり、EVF248は、LCD247、プリズム245及び接眼レンズ246を有する。
 また、対物レンズ244の前方には、液晶シャッタ243が配設されており、液晶シャッタ243は、EVF248を使用する際に、対物レンズ244に光学像が入射しないように遮光する。
 プリズム245は、LCD247に表示される電子像又は各種の情報を反射させて接眼レンズ246に導くと共に、光学像とLCD247に表示される情報(電子像、各種の情報)とを合成する。
 ここで、ファインダー切替えレバー214を図1に示す矢印SW方向に回動させると、回動させる毎にOVF240により光学像を視認することができるOVFモードと、EVF248により電子像を視認することができるEVFモードとが交互に切り替えられる。
 表示制御部36は、OVFモードの場合、液晶シャッタ243が非遮光状態になるように制御し、ファインダー接眼部242から光学像が視認できるようにする。また、LCD247には、スプリットイメージ300のみを表示させる。これにより、光学像の一部にスプリットイメージ300が重畳されたファインダー像を表示させることができる。
 一方、表示制御部36は、EVFモードの場合、液晶シャッタ243が遮光状態になるように制御し、ファインダー接眼部242からLCD247に表示される電子像のみが視認できるようにする。なお、LCD247には、表示部213に出力されるスプリットイメージ300が合成された画像データと同等の画像データが入力される。これにより、表示制御部36は、表示部213と同様に通常画像301の一部にスプリットイメージ300が合成された電子像を表示させることができる。
 表示装置に通常画像301及びスプリットイメージ300の各々を示す画像信号が入力されたとする。この場合、表示装置は、一例として図10A及び図10Bに示すように、入力された画像信号によって示されるスプリットイメージ300を画面中央部の矩形状とされたスプリットイメージ300の表示領域に表示する。また、表示装置は、入力された画像信号が示す通常画像301をスプリットイメージ300の外周領域に表示する。また、表示装置は、スプリットイメージ300を示す画像信号が入力されずに通常画像301を示す画像信号のみが入力された場合、入力された画像信号によって示される通常画像301を表示装置の表示領域の全域に表示する。また、表示装置は、通常画像301を示す画像信号が入力されずにスプリットイメージ300を示す画像信号が入力された場合、入力された画像信号によって示されるスプリットイメージ300を表示領域に表示し、外周領域を空白領域とする。
 ところで、本実施形態に係る撮像装置100は、スプリットイメージ300を表示部213に表示させた際に、ユーザによるタッチパネル215を介したスプリットイメージ300に対する操作を検出すると、その検出結果に応じて焦点調整を行う。
 本実施形態に係る撮像装置100では、上記スプリットイメージ300に対する操作として、スクロール操作、フリック操作、及び相反移動操作が適用される。
 ここでいうスクロール操作は、タッチパネル215上の所望の位置を指で指定し、指定位置を移動させる移動操作を第1の時間(本実施形態では、100m秒)以上継続して行う操作である。また、ここでいうフリック操作は、タッチパネル215上の所望の位置を指で指定し、上記移動操作を行い、かつ当該移動操作が開始されてから第2の時間(本実施形態では、100m秒)が経過するまでの間にタッチパネル215から指を離す操作である。
 なお、スクロール操作及びフリック操作を行う場合には、右眼用画像300Aまたは左眼用画像300Bの領域内の1点を指等で指定して右眼用画像300A及び左眼用画像300Bの何れか一方を選択する選択操作を直前に行う。
 更に、ここでいう相反移動操作は、右眼用画像300A及び左眼用画像300Bの領域内を各々1点ずつ指定して右眼用画像300A及び左眼用画像300Bの各々を選択する選択操作を行った後、スクロール操作またはフリック操作により各々の指定位置を上記交差方向に沿って相反する方向に移動させる操作である。
 次に、図11を参照して、本実施形態に係る撮像装置100の作用を説明する。なお、図11は、撮像装置100がマニュアルフォーカスモードに設定されており、かつダイヤル212が撮影モードに設定された際にCPU12によって実行される撮影制御処理プログラムの処理の流れを示すフローチャートである。本実施形態では、当該プログラムは、メモリ26の所定の記憶領域に予め記憶されている。
 まず、ステップS401では、第3の画素群から出力された画像信号に基づく通常画像301を示す画像データを、インタフェース部24を介して取得し、通常画像301を表示部213に表示させる制御を行う。
 このように、本実施形態に係る撮像装置100は、通常画像301を示す画像データを第3の画素群から取得するが、当該画像データの取得方法はこれに限定されない。例えば、第1の画素群から出力された画像信号に基づく右眼用画像300Aを示す画像データ、及び第2の画素群から出力された画像信号に基づく左眼用画像300Bを示す画像データから通常画像301を示す画像データを生成しても良い。
 また、この際の通常画像301を示す画像データを生成する方法としては、例えば、右眼用画像300Aまたは左眼用画像300Bを示す画像データをそのまま通常画像301を示す画像データとする方法が例示される。また、右眼用画像300Aまたは左眼用画像300Bを示す画像データにおいて隣接する各画素の間に補間画素を配置させ、当該補間画素を囲む画素の画素値の平均値を当該補間画素の画素値として通常画像301を示す画像データを生成する方法であっても良い。更に、通常画像301を生成する方法は、右眼用画像300A及び左眼用画像300Bを示す画像データを合成することにより通常画像301を示す画像データを生成する方法であっても良い。
 次のステップS403では、スプリットイメージ処理部32に対してスプリットイメージ300を生成させる制御を行い、生成されたスプリットイメージ300を表示部213に表示させる制御を行う。本実施形態に係る撮像装置100では、CPU12は、通常画像301の中央部に重畳させて表示させる。
 このように、本実施形態に係る撮像装置100では、CPU12は、通常画像301及びスプリットイメージ300の双方を表示部213に表示させるが、これに限定されず、スプリットイメージ300のみを表示部213に表示させても良い。
 次のステップS405では、タッチパネル215によってタッチ操作が検出されたか否かを判定する。ステップS405において肯定判定となった場合はステップS407に移行する一方、否定判定となった場合は後述するステップS425に移行する。
 ステップS407では、ステップS405の処理によって検出されたタッチ操作が、右眼用画像300Aまたは左眼用画像300Bに対するタッチ操作であるか否かを判定する。ステップS407において肯定判定となった場合は後述するステップS411に移行する。
 一方、ステップS407で否定判定となった場合はステップS409に移行し、タッチ操作に応じた処理を実行した後、後述するステップS425に移行する。なお、当該タッチ操作に応じた処理としては、例えば当該タッチ操作による指定位置を含む当該指定位置の周辺領域において自動合焦制御を行う処理や、当該周辺領域を拡大表示させる処理等が例示される。
 ステップS411では、ステップS405の処理によって検出されたタッチ操作が、1点を指定するタッチ操作であるか否かを判定する。ステップS411において肯定判定となった場合はステップS412に移行する一方、否定判定となった場合は後述するステップS421に移行する。
 ステップS412では、上記タッチ操作による指定位置が移動したか否かを判定する。本実施形態に係る撮像装置100においては、上記指定位置が予め定められた距離(本実施形態では、10ピクセル)以上移動した場合に、上記指定位置が移動したと判定する。ステップS412において肯定判定となった場合はステップS413に移行する一方、否定判定となった場合は上記ステップS409に移行する。
 ステップS413では、ステップS405の処理によって検出されたタッチ操作が、スクロール操作であるか否かを判定する。この際、CPU12は、当該タッチ操作における移動操作が上記第1の時間以上継続し、かつ当該移動操作により指定位置が上記交差方向に予め定められた第1の距離(本実施形態では、10ピクセル)以上移動した場合に、スクロール操作であると判定する。
 このように、本実施形態に係る撮像装置100ではタッチ操作の継続時間に基づきスクロール操作であるか否かを判定するが、スクロール操作の判定方法はこれに限定されない。例えば、操作部14を介してスクロール操作に適用された予め定められた操作が行われ、かつタッチ操作が上記第1の時間以上継続し、かつ当該移動操作により指定位置が上記第1の距離以上移動したか否かに基づき、スクロール操作であるか否かを判定しても良い。
 ステップS413において肯定判定となった場合はステップS415に移行し、後述するスクロール処理を実行する一方、否定判定となった場合はステップS417に移行する。
 ステップS417では、ステップS405の処理によって検出されたタッチ操作が、フリック操作であるか否かを判定する。この際、CPU12は、当該タッチ操作における移動操作が上記第1の時間以上継続せず、かつ当該移動操作により指定位置が上記交差方向に上記第1の距離以上移動した場合に、フリック操作であると判定する。
 このように、本実施形態に係る撮像装置100ではタッチ操作の継続時間及び指定位置の移動距離に基づきタッチ操作がフリック操作であるか否かを判定するが、フリック操作の判定方法はこれに限定されない。例えば、操作部14を介してフリック操作に適用させた予め定められた操作が行われ、かつタッチ操作が上記第1の時間以上継続せず、かつ当該移動操作により指定位置が上記第1の距離以上移動したか否かに基づき、フリック操作であるか否かを判定しても良い。
 ステップS417において肯定判定となった場合はステップS419に移行し、後述するフリック処理を実行する一方、否定判定となった場合は後述するステップS425に移行する。
 一方、ステップS421では、ステップS405の処理によって検出されたタッチ操作が、2点を指定するタッチ操作であるか否かを判定する。ステップS421において肯定判定となった場合は、ステップS423に移行し、後述する相反移動処理を実行する一方、否定判定となった場合はステップS425に移行する。
 ステップS425では、ダイヤル212が撮影モード以外のモードに設定されたか否かを判定することにより、撮影制御処理プログラムの終了指示が入力されたか否かを判定する。ステップS425において肯定判定となった場合はS427に移行する一方、否定判定となった場合は後述するステップS431に移行する。
 ステップS427では、ステップS401の処理によって表示部213に表示した通常画像301の表示を停止させる制御を行う。また、次のステップS429では、ステップS403の処理によって表示部213に表示したスプリットイメージ300の表示を停止させる制御を行い、本撮影制御処理プログラムを終了する。
 一方、ステップS431では、レリーズスイッチ211に対する全押し操作が検出されたか否かを判定することにより、撮影指示が入力されたか否かを判定する。ステップS431において否定判定となった場合は上述したステップS405に戻る一方、肯定判定となった場合はステップS433に移行する。
 ステップS433では、通常画像301を示す画像データをメモリ26に記録する撮影処理を行い、本撮影制御処理プログラムを終了する。なお、上記撮影処理は一般的に行われている処理であるため、ここでの詳細な説明を省略する。
 なお、本実施形態に係る撮像装置100では、スクロール操作であるかフリック操作であるかがタッチ操作の継続時間に基づき判定されるが、判定方法はこれに限定されない。例えば、スクロール操作であるかフリック操作であるかが移動操作による移動距離に基づき判定されても良い。この場合には、移動操作による移動距離が予め定められた距離以上であった場合にスクロール操作であると判定され、当該予め定められた距離未満であった場合にフリック操作であると判定されると良い。また、スクロール操作であるかフリック操作であるかは移動操作における移動速度で判定されても良い。この場合には、移動操作における移動速度が予め定められた速度以上であった場合にフリック操作であると判定され、当該予め定められた速度未満であった場合にスクロール操作であると判定されると良い。
 次に、図12を参照して、スクロール処理を行う際の撮像装置100の作用を説明する。なお、図12は、撮影制御処理プログラムの実行の途中でCPU12によって実行されるスクロール処理ルーチンプログラムの処理の流れを示すフローチャートである。本実施形態では、当該プログラムは、メモリ26の所定の記憶領域に予め記憶されている。
 まず、ステップS501では、ステップS405の処理によって検出されたタッチ操作が、右眼用画像300Aに対するタッチ操作であったか否かを判定する。ステップS501において肯定判定となった場合はステップS503に移行する一方、否定判定となった場合はステップS405の処理によって検出されたタッチ操作が左眼用画像300Bに対するものであったと見なして、後述するステップS519に移行する。
 ステップS503では、ステップS405の処理によって検出されたタッチ操作における移動操作が、上記右方向への移動操作であるか否かを判定する。ステップS503において肯定判定となった場合はステップS505に移行する一方、否定判定となった場合は上記移動操作が左方向への移動であると見なし、後述するステップS513に移行する。
 ステップS505では、ステップS405の処理によって検出されたタッチ操作における指定位置の上記交差方向に対する移動距離を取得する。CPU12は、本スクロール処理ルーチンプログラムを実行してから本ステップS505の処理を初めて行う場合には、上記タッチ操作が開始された際の指定位置から現在の指定位置までの上記交差方向に対する距離を移動距離として取得する。一方、本スクロール処理ルーチンプログラムを実行してから本ステップS505の処理の実行が2回目以降である場合は、前回の指定位置から現在の指定位置までの距離を移動距離として取得する。
 次のステップS507では、フォーカスレンズ302をフォーカスレンズ302の光軸方向のうちの現在の合焦位置に対してより近距離側の被写体に合焦する方向(焦点位置が撮像装置100に近付く方向)にステップS505において取得した移動距離に応じた距離だけ移動させる。本実施形態に係る撮像装置100では、指定位置の移動距離に予め定められた第1係数を乗算して得られた値を、フォーカスレンズ302の移動距離としている。
 なお、上記第1係数としては、フォーカスレンズ302の光軸方向に対する移動可能な長さを、タッチパネル215における検出可能領域の上記交差方向に対する長さによって除算して得られた値が例示される。しかし、第1係数はこれに限定されない。なお、第1係数を小さくするほど、フォーカスレンズ302の移動を精密に行うことができ、第1係数を大きくするほど、フォーカスレンズ302の移動を高速に行うことができる。また、ユーザにより操作部14を介して第1係数を示す情報を入力するようにしても良い。
 一例として図13の上図に示すように、上記後ピンの状態において、タッチパネル215を介するユーザ操作により右眼用画像300A上の指定位置310が右方向に移動したとする。この場合、図13の下図に示すように、CPU12は、フォーカスレンズ302を上記光軸方向に沿って焦点位置が撮像装置100に近付く方向に移動させることにより、フォーカスレンズ302の焦点が合焦位置に近付いていく。
 なお、上記ステップS505では、指定位置310の上記交差方向への移動距離を取得し、上記ステップS507では、フォーカスレンズ302を当該移動距離に応じた距離だけ移動させるが、これに限定されない。例えば、上記ステップS505において指定位置310の上記交差方向への移動速度を取得し、フォーカスレンズ302を当該移動速度に応じた距離(例えば、当該移動速度に比例する距離)だけ移動させても良い。
 次のステップS509では、ステップS405の処理によって検出されたタッチ操作におけるタッチパネル215への接触が継続しているか否かを判定する。ステップS509において肯定判定となった場合は上記ステップS503に戻る一方、否定判定となった場合は本スクロール処理ルーチンプログラムを終了して、撮影制御処理プログラム(メインルーチン)の上記ステップS425に移行する。
 一方、ステップS513では、ステップS505の処理と同様に、ステップS405の処理によって検出されたタッチ操作における指定位置310の上記交差方向に対する移動距離を取得する。
 次のステップS515では、フォーカスレンズ302を、フォーカスレンズ302の光軸方向のうちの現在の合焦位置に対してより遠距離側の被写体に合焦する方向(焦点位置が撮像装置100から遠ざかる方向)に、ステップS513において取得した移動距離に応じた距離だけ移動させる。本実施形態に係る撮像装置100では、指定位置310の移動距離に上記第1係数を乗算した値を、フォーカスレンズ302の移動距離としている。
 図14の上図に示すように、前ピンの状態において、タッチパネル215を介するユーザ操作により右眼用画像300A上の指定位置310が左方向に移動したとする。この場合、図14の下図に示すように、CPU12は、フォーカスレンズ302をフォーカスレンズ302の光軸方向に沿って焦点位置が撮像装置100から遠ざかる方向に移動させることにより、フォーカスレンズ302の焦点が合焦位置に近付いていく。
 次のステップS517では、ステップS405の処理によって検出されたタッチ操作が継続しているか否かを判定する。ステップS517において肯定判定となった場合は上記ステップS503に戻る一方、否定判定となった場合は、上記ステップS425に移行する。
 一方、ステップS519では、ステップS405の処理によって検出されたタッチ操作における移動操作が、左方向への移動操作であるか否かを判定する。ステップS519において肯定判定となった場合はステップS521に移行する一方、否定判定となった場合は上記移動操作が右方向への移動操作であると見なし、後述するステップS529に移行する。
 ステップS521では、ステップS505の処理と同様に、ステップS405の処理によって検出されたタッチ操作における指定位置310の上記交差方向に対する移動距離を取得する。
 次のステップS523では、ステップS507の処理と同様に、フォーカスレンズ302をフォーカスレンズ302の光軸方向のうちの焦点位置が撮像装置100に近付く方向にステップS521において取得した移動距離に応じた距離だけ移動させる。本実施形態に係る撮像装置100では、指定位置310の移動距離に上記第1係数を乗算した値を、フォーカスレンズ302の移動距離としている。
 次のステップS525では、ステップS405の処理によって検出されたタッチ操作が継続しているか否かを判定する。ステップS525において肯定判定となった場合は上記ステップS519に戻る一方、否定判定となった場合は、上記ステップS425に移行する。
 一方、ステップS529では、ステップS505の処理と同様に、ステップS405の処理によって検出されたタッチ操作における指定位置310の上記交差方向に対する移動距離を取得する。
 次のステップS531では、ステップS515の処理と同様に、フォーカスレンズ302をフォーカスレンズ302の光軸方向のうちの焦点位置が撮像装置100から遠ざかる方向にステップS529において取得した移動距離に応じた距離だけ移動させる。
 次のステップS533では、ステップS405の処理によって検出されたタッチ操作が継続しているか否かを判定する。ステップS533において肯定判定となった場合は上記ステップS519に戻る一方、否定判定となった場合は、上記ステップS425に移行する。
 次に、図15を参照して、フリック処理を行う際の撮像装置100の作用を説明する。なお、図15は、撮影制御処理プログラムの実行の途中でCPU12によって実行されるフリック処理ルーチンプログラムの処理の流れを示すフローチャートである。本実施形態では、当該プログラムは、メモリ26の所定の記憶領域に予め記憶されている。
 なお、本実施形態に係るメモリ26には、一例として図16に示すような、フリック操作時の移動操作における指定位置310の移動速度とフォーカスレンズ302の移動速度との関係を示す対応情報が記憶されている。なお、図16に示すグラフでは、横軸がフリック操作時の移動操作における指定位置310の移動速度を示し、縦軸がフォーカスレンズ302の移動速度を示している。また、上記指定位置の移動速度については、上記右方向をプラス方向とし、上記左方向をマイナス方向として示している。なお、図16に示すように、本実施形態に係る撮像装置100では、上記指定位置310の移動速度が速いほど、フォーカスレンズ302の移動速度が速くなる。ただし、上記指定位置310の移動速度が予め定められた第1閾値(本実施形態では、-25ピクセル/秒)から予め定められた第2閾値(本実施形態では、25ピクセル/秒)までの間である場合には、フォーカスレンズ302の移動速度が0(零)となる。これは、上記移動操作の移動速度が上記第1閾値から上記第2閾値までの間である場合には、ユーザの意思によって上記指定位置310が移動した可能性より、指の震え等、ユーザの意思に反して指定位置310が移動した可能性の方が高いからである。
 このように、本実施形態に係る撮像装置100では、タッチパネル215を介してフリック操作が行われた場合、当該フリック操作における移動操作の移動速度に応じて、フォーカスレンズ302の移動速度を決定する。
 まず、ステップS601では、ステップS405の処理によって検出されたタッチ操作が、右眼用画像300Aに対するタッチ操作であったか否かを判定する。ステップS601において肯定判定となった場合はステップS603に移行する一方、否定判定となった場合はステップS405の処理によって検出されたタッチ操作が左眼用画像300Bに対するものであったと見なして、後述するステップS617に移行する。
 ステップS603では、ステップS405の処理によって検出されたタッチ操作における移動操作が、上記右方向への移動操作であるか否かを判定する。ステップS603において肯定判定となった場合はステップS605に移行する一方、否定判定となった場合は上記移動操作が左方向への移動であると見なし、後述するステップS611に移行する。
 ステップS605では、ステップS405の処理によって検出されたタッチ操作における指定位置310の上記交差方向に対する移動速度を取得する。CPU12は、上記移動操作における指定位置310の移動距離を、移動が開始されてから終了されるまでの時間によって除算して得られた値を移動速度として取得する。
 次のステップS607では、フォーカスレンズ302の移動速度を導出する。本実施形態に係る撮像装置100では、対応情報をメモリ26から読出し、当該対応情報においてS605において取得した移動速度に対応する移動速度を導出する。このように、本実施形態に係る撮像装置100では、指定位置310の移動速度と対応情報とに基づいてフォーカスレンズ302の移動速度を導出するが、これに限定されない。例えば、指定位置310の移動速度を変数としてフォーカスレンズ302の移動速度を導出する予め定められた計算式を用いることにより、指定位置310の移動速度に基づいてフォーカスレンズ302の移動速度を導出しても良い。
 次のステップS609では、フォーカスレンズ302の光軸方向のうちの焦点位置が撮像装置100に近付く方向へのステップS607において導出した移動速度に応じた速度によってフォーカスレンズ302の移動を開始させ、後述するステップS631に移行する。
 一方、ステップS611では、ステップS605の処理と同様に、ステップS405の処理によって検出されたタッチ操作における指定位置310の上記交差方向に対する移動速度を取得する。
 次のステップS613では、ステップS607の処理と同様に、フォーカスレンズ302の移動速度を導出する。
 次のステップS615では、フォーカスレンズ302の光軸方向のうちの焦点位置が撮像装置100から遠ざかる方向へのステップS613において導出した移動速度に応じた速度でのフォーカスレンズ302の移動を開始させる制御を行い、後述するステップS631に移行する。
 一方、ステップS617では、ステップS405の処理によって検出されたタッチ操作における移動操作が、上記左方向への移動操作であるか否かを判定する。ステップS617において肯定判定となった場合はステップS619に移行する一方、否定判定となった場合は上記移動操作が右方向への移動であると見なし、後述するステップS625に移行する。
 次のステップS619では、ステップS605の処理と同様に、ステップS405の処理によって検出されたタッチ操作における指定位置310の上記交差方向に対する移動速度を取得する。
 次のステップS621では、ステップS607の処理と同様に、フォーカスレンズ302の移動速度を導出する。
 次のステップS623では、フォーカスレンズ302の光軸方向のうちの焦点位置が撮像装置100に近付く方向へのステップS621において導出した移動速度に応じた速度によってフォーカスレンズ302の移動を開始させ、後述するステップS631に移行する。
 一方、ステップS625では、ステップS605の処理と同様に、ステップS405の処理によって検出されたタッチ操作における指定位置310が上記交差方向へ移動する移動速度を取得する。
 次のステップS627では、ステップS607の処理と同様に、フォーカスレンズ302の移動速度を導出する。
 次のステップS629では、フォーカスレンズ302の光軸方向のうち、焦点位置が撮像装置100から遠ざかる方向へ、ステップS627において導出した移動速度に応じた速度によってフォーカスレンズ302の移動を開始させる制御を行い、ステップS631に移行する。
 ステップS631では、再度タッチ操作が検出されるまでステップS609、S615、S623及びS629の何れかの処理によって開始されたフォーカスレンズ302の移動を継続した後、ステップS633に移行する。本実施形態に係る撮像装置100では、フリック操作が行われた後に、タッチパネル215の領域全体における何れかの位置が再び指定された場合、再度タッチ操作が検出されたと判定する。
 ステップS633では、フォーカスレンズ302の移動を停止させる制御を行い、本フリック処理ルーチンプログラムを終了する。
 以上のように、本実施形態に係る撮像装置100は、フリック処理において、フリック操作が行われたことに基づいてフォーカスレンズ302を移動させると共に、再度タッチ操作が行われたことに基づいてフォーカスレンズ302を停止させる。
 なお、フォーカスレンズ302を停止させるタイミングは、再度タッチ操作が行われたタイミングに限定されず、フォーカスレンズ302の移動速度を徐々に低下させることにより停止させても良い。以下、フリック処理の別例1について説明する。
 次に、図17を参照して、フリック処理の別例1を行う際の撮像装置100の作用を説明する。なお、図17は、撮影制御処理プログラムの実行の途中においてCPU12によって実行されるフリック処理ルーチンプログラムの処理の流れを示すフローチャートである。本実施形態では、当該プログラムは、メモリ26の所定の記憶領域に予め記憶されている。
 なお、本実施形態に係るメモリ26には、フォーカスレンズ302の移動が開始されてから停止させるまでの時間である停止時間を示す停止時間情報が予め記憶されている。
 まず、ステップS701では、ステップS405の処理によって検出されたタッチ操作が、右眼用画像300Aに対するタッチ操作であったか否かを判定する。ステップS701において肯定判定となった場合はステップS703に移行する一方、否定判定となった場合はステップS405の処理によって検出されたタッチ操作が左眼用画像300Bに対するものであったと見なして、後述するステップS721に移行する。
 ステップS703では、ステップS405の処理によって検出されたタッチ操作における移動操作が、上記右方向への移動操作であるか否かを判定する。ステップS703において肯定判定となった場合はステップS705に移行する一方、否定判定となった場合は上記移動操作が左方向への移動であると見なし、後述するステップS713に移行する。
 ステップS705では、ステップS605の処理と同様に、ステップS405の処理によって検出されたタッチ操作における指定位置310の上記交差方向に対する移動速度を取得する。
 次のステップS707では、ステップS607の処理と同様に、フォーカスレンズ302の初速度となる移動速度を導出する。
 次のステップS709では、フォーカスレンズ302の移動速度を減速させるための所定時間(本実施形態では、1秒)毎の減速速度を導出する。まず、本実施形態に係る撮像装置100では、上記停止時間情報をメモリ26から読み出す。次に、本実施形態に係る撮像装置100では、ステップS707において導出した移動速度によってフォーカスレンズ302の移動を開始させた場合に、当該開始のタイミングから上記停止時間が経過するタイミングにおいてフォーカスレンズ302の移動を停止させるための上記減速速度を導出する。なお、本実施形態に係る撮像装置100では、ステップS707において導出した移動速度を、フォーカスレンズ302の移動を開始させてから停止時間が経過するまでの時間によって除算して得られる値を上記減速速度とする。
 次のステップS711では、フォーカスレンズ302の光軸方向のうち、焦点位置が撮像装置100に近付く方向へ、ステップS707において導出した移動速度に応じた速度によってフォーカスレンズ302の移動を開始させる制御を行い、後述するステップS739に移行する。
 一方、ステップS713では、ステップS705の処理と同様に、ステップS405の処理によって検出されたタッチ操作における指定位置310の上記交差方向に対する移動速度を取得する。
 ステップS715では、ステップS707の処理と同様に、ステップS405の処理によって検出されたタッチ操作における指定位置310の上記交差方向に対する初速度となる移動速度を導出する。
 次のステップS717では、ステップS709の処理と同様に、フォーカスレンズ302の所定時間毎の減速速度を導出する。
 次のステップS719では、フォーカスレンズ302の光軸方向のうち、焦点位置が撮像装置100から遠ざかる方向へ、ステップS715において導出した移動速度に応じた速度によってフォーカスレンズ302の移動を開始させる制御を行い、後述するステップS739に移行する。
 一方、ステップS721では、ステップS405の処理によって検出されたタッチ操作における移動操作が、上記左方向への移動操作であるか否かを判定する。ステップS721において肯定判定となった場合はステップS723に移行する一方、否定判定となった場合は上記移動操作が右方向への移動であると見なし、後述するステップS731に移行する。
 ステップS723では、ステップS705の処理と同様に、ステップS405の処理によって検出されたタッチ操作における指定位置310の上記交差方向に対する移動速度を取得する。
 次のステップS725では、ステップS707の処理と同様に、フォーカスレンズ302の初速度となる移動速度を導出する。
 次のステップS727では、ステップS709の処理と同様に、フォーカスレンズ302の所定時間毎の減速速度を導出する。
 次のステップS729では、フォーカスレンズ302の光軸方向のうち、焦点位置が撮像装置100に近付く方向へ、ステップS725において導出した移動速度に応じた速度によってフォーカスレンズ302の移動を開始させる制御を行い、後述するステップS739に移行する。
 一方、ステップS731では、ステップS705の処理と同様に、ステップS405の処理によって検出されたタッチ操作における指定位置310の上記交差方向に対する移動速度を取得する。
 次のステップS733では、ステップS707の処理と同様に、ステップS405の処理によって検出されたタッチ操作におけるフォーカスレンズ302の初速度となる移動速度を導出する。
 次のステップS735では、ステップS709の処理と同様に、フォーカスレンズ302の所定時間毎の減速速度を取得する。
 次のステップS737では、フォーカスレンズ302の光軸方向のうち、焦点位置が撮像装置100から遠ざかる方向へ、ステップS733において導出した移動速度に応じた速度によってフォーカスレンズ302の移動を開始させる制御を行い、ステップS739に移行する。
 ステップS739では、所定時間(本実施形態では、1秒)が経過するまで待機した後、ステップS741に移行する。
 ステップS741では、ステップS709、S717、S727及びS735の何れかの処理によって導出された減速速度に応じた速度をフォーカスレンズ302の移動速度から減速させる制御を行う。
 次のステップS743では、フォーカスレンズ302の移動が停止したか否かを判定する。ステップS743において否定判定となった場合は上記ステップS739に戻る一方、肯定判定となった場合は本フリック処理ルーチンプログラムを終了する。
 図18は、本実施形態に係る撮像装置100におけるフォーカスレンズ302の移動が開始されてからの経過時間とフォーカスレンズ302の移動速度との関係の一例を示すグラフである。なお、図18に示すグラフでは、横軸がフォーカスレンズ302の移動が開始されてからの経過時間を示し、縦軸がフォーカスレンズ302の移動速度を示している。また、図18では、フォーカスレンズ302の移動が開始されてからの経過時間は、フォーカスレンズ302の移動が開始されてから停止させるまでの時間が1となるように規格化されている。更に、図18では、経過時間は、フォーカスレンズ302の移動が開始されてから停止するまでの停止時間が1となるように規格化されている。
 一例として図18に示すグラフでは、本実施形態に係る撮像装置100は、上記経過時間が進むほどフォーカスレンズ302の移動速度が遅くなり、フォーカスレンズ302の移動を開始させてから上記停止時間が経過したタイミングにおいて当該移動速度が0(零)となる。このように、本実施形態に係る撮像装置100では、タッチパネル215を介してフリック操作が行われた場合、フォーカスレンズ302の移動が開始されてからの経過時間が進むほどフォーカスレンズ302の移動速度が次第に遅くなっていき、フォーカスレンズ302はやがて停止する。
 以上のように、本実施形態に係る撮像装置100は、フリック処理において、フリック操作が行われたことに基づいてフォーカスレンズ302を移動させると共に、フォーカスレンズ302の移動速度を徐々に減速させることによりフォーカスレンズ302を停止させても良い。
 なお、フォーカスレンズ302を停止させる方法は、フォーカスレンズ302の移動速度を徐々に減速させる方法に限定されず、フォーカスレンズ302を指定位置310の移動距離に応じた移動量だけ移動させた後に停止させても良い。例えば、フォーカスレンズ302の駆動をパルスモータによって行う場合、フォーカスレンズ302の全駆動範囲に対して1000パルスが割り当てられているとする。指定位置310の移動量が表示部312の全画面範囲の10%分(例えばVGA(640×210)の場合に長手方向に64画素分)であった場合にはフォーカスレンズ302を100パルス分移動させた後に停止させる。
 なお、フリック処理においてフォーカスレンズ302を停止させるタイミングは、これらの方法に限定されず、フォーカスレンズ302による撮像画像が合焦した場合にフォーカスレンズ302の移動を停止させても良い。以下、フリック処理の別例2について説明する。
 次に、図19を参照して、フリック処理を行う際の撮像装置100の作用を説明する。なお、図19は、撮影制御処理プログラムの実行の途中においてCPU12によって実行されるフリック処理ルーチンプログラムの処理の流れを示すフローチャートである。本実施形態では、当該プログラムは、メモリ26の所定の記憶領域に予め記憶されている。
 まず、ステップS801では、ステップS405の処理によって検出されたタッチ操作が、右眼用画像300Aに対するタッチ操作であったか否かを判定する。ステップS801において肯定判定となった場合はステップ803に移行する一方、否定判定となった場合はステップS405の処理によって検出されたタッチ操作が左眼用画像300Bに対するものであったと見なして、後述するステップS817に移行する。
 ステップS803では、ステップS405の処理によって検出されたタッチ操作における移動操作が、上記右方向への移動操作であるか否かを判定する。ステップS803において肯定判定となった場合はステップS805に移行する一方、否定判定となった場合は上記移動操作が左方向への移動であると見なし、後述するステップS811に移行する。
 ステップS805では、右眼用画像300A上において合焦状態を確認するための領域とする合焦判定領域を決定する。本実施形態に係る撮像装置100では、選択操作が行われた際の指定位置310(図13及び図14参照)を中心とした予め定められた長さ(本実施形態では、一例として500ピクセル)の半径を持つ円状の領域としている。しかし、合焦判定領域の決定方法はこれに限定されず、例えば、右眼用画像300Aの中央部に位置する円状、矩形状等の領域としても良い。また、これに限らず、例えば、指示位置310から右眼用画像300Aと左眼用画像300Bとの境界線311に引いた垂線と境界線311との交点を中心とした予め定められた長さの半径(図13の上図に示す例では、右眼用画像300A(被写体である2本の柱のうちの被写体距離が短い方の柱を示す柱画像である右眼用画像300A)及び左眼用画像300B(被写体である2本の柱のうちの被写体距離が長い方の柱を示す柱画像である左眼用画像300B)を包含する円の半径)を有する円状の領域としても良い。
 次のステップS807では、フォーカスレンズ302の光軸方向のうち、焦点位置が撮像装置100に近付く方向へ、予め定められた移動速度(本実施形態では、50ピクセル/秒)によってフォーカスレンズ302の移動を開始させる制御を行う。
 次のステップS809では、合焦しているか否かの判定を繰り返し行い、合焦していると判定した場合、後述するステップS831に移行する。本実施形態に係る撮像装置100では、例えば、合焦判定領域内の右眼用画像300A(図13の上図に示す例では、被写体である2本の柱のうちの被写体距離が短い方の柱を示す柱画像である右眼用画像300A)及び左眼用画像300B(図13の上図に示す例では、被写体である2本の柱のうちの被写体距離が短い方の柱を示す柱画像である左眼用画像300B)の相互の画素毎の位相差を導出し、導出した位相差が0(零)を含む予め定められた範囲内であった場合に、合焦していると判定する。
 この際、本実施形態に係る撮像装置100では、合焦判定領域内に主要被写体が存在する場合には、合焦判定領域における主要被写体(複数の主要被写体が含まれる場合は、そのうちの何れか)に対応する領域(例えば、図13の上図に示す例では、2本の柱(複数の主要被写体の一例)のうちの被写体距離が短い方の柱を示す柱画像である右眼用画像300A、及び2本の柱のうちの被写体距離が短い方の柱を示す柱画像である左眼用画像300B)が合焦している場合に、合焦していると判定する。
 図20は、本実施形態に係る撮像装置100におけるフォーカスレンズ302の移動が開始されてからの経過時間とフォーカスレンズ302の相対位置との関係の一例を示すグラフである。なお、図20に示すグラフでは、横軸がフォーカスレンズ302の移動が開始されてからの経過時間を示し、縦軸がフォーカスレンズ302の相対位置を示している。また、図20では、図18と同様に、フォーカスレンズ302の移動が開始されてからの経過時間は、フォーカスレンズ302の移動が開始されてから停止させるまでの時間が1となるように規格化されている。更に、図20では、フォーカスレンズ302の相対位置は、指定位置310を選択操作した際のフォーカスレンズ302の位置を0(零)とした場合の相対位置である。
 一例として図20に示すように、本実施形態に係る撮像装置100では、フォーカスレンズ302を移動させることによって右眼用画像300A及び左眼用画像300Bの相互の位相差が低減していき、当該位相差が0(零)となる位置においてフォーカスレンズ302の移動を停止させる。
 このように、本実施形態では、右眼用画像300A及び左眼用画像300Bの相互の位相差が0(零)となった場合に合焦していると判定するが、通常画像301が合焦しているか否かの判定方法はこれに限定されない。
 図21は、図20と同様に、本実施形態に係る撮像装置100におけるフォーカスレンズ302の移動が開始されてからの経過時間とフォーカスレンズ302の相対位置との関係の一例を示すグラフである。なお、図21に示すグラフでは、図20と同様に、横軸がフォーカスレンズ302の移動が開始されてからの経過時間を示し、縦軸がフォーカスレンズ302の相対位置を示している。また、図21では、図18及び図20と同様に、フォーカスレンズ302の移動が開始されてからの経過時間は、フォーカスレンズ302の移動が開始されてから停止させるまでの時間が1となるように規格化されている。更に、図21では、フォーカスレンズ302の相対位置は、選択操作における指定位置310を0とした相対位置である。
 一例として図21に示すように、フォーカスレンズ302を移動させながらスプリットイメージ300のコントラスト値を導出し、コントラスト値が最大となる位置においてフォーカスレンズ302の移動を停止させる。
 このように、本実施形態では、スプリットイメージ300のコントラスト値に基づき合焦の判定を行うが、これに限定されず、通常画像301のコントラスト値に基づき合焦の判定を行っても良い。
 なお、通常画像301の合焦状態を確認する際、右眼用画像300A及び左眼用画像300Bの相互の位相差を用いると、より高速に合焦状態を確認することができる一方、コントラスト値を用いると、より正確に合焦状態を確認することができる。
 一方、ステップS811では、ステップS805の処理と同様に、右眼用画像300A上において合焦状態を確認するための領域とする合焦判定領域を決定する。
 次のステップS813では、ステップS807の処理と同様に、フォーカスレンズ302の光軸方向のうち、焦点位置が撮像装置100から遠ざかる方向へ、予め定められた移動速度(本実施形態では、50ピクセル/秒)によってフォーカスレンズ302の移動を開始させる制御を行う。
 次のステップS815では、ステップS809の処理と同様に、通常画像301が合焦しているか否かの判定を繰り返し行い、合焦していると判定した場合、後述するステップS831に移行する。
 一方、ステップS817では、ステップS405の処理によって検出されたタッチ操作における移動操作が、上記左方向への移動操作であるか否かを判定する。ステップS817において肯定判定となった場合はステップS819に移行する一方、否定判定となった場合は上記移動操作が右方向への移動であると見なし、後述するステップS825に移行する。
 ステップS819では、ステップS805の処理と同様に、左眼用画像300B上において合焦状態を確認するための領域とする合焦判定領域を決定する。
 次のステップS821では、ステップS807の処理と同様に、フォーカスレンズ302の光軸方向のうち、焦点位置が撮像装置100に近付く方向へ、予め定められた移動速度(本実施形態では、50ピクセル/秒)によってフォーカスレンズ302の移動を開始させる制御を行う。
 次のステップS823では、ステップS809の処理と同様に、通常画像301が合焦しているか否かの判定を繰り返し行い、合焦していると判定した場合、後述するステップS831に移行する。
 一方、ステップS825では、ステップS805の処理と同様に、左眼用画像300B上において合焦状態を確認するための領域とする合焦判定領域を決定する。
 次のステップS827では、ステップS807の処理と同様に、フォーカスレンズ302の光軸方向のうち、焦点位置が撮像装置100から遠ざかる方向へ、予め定められた移動速度(本実施形態では、50ピクセル/秒)によってフォーカスレンズ302の移動を開始させる制御を行う。
 次のステップS829では、ステップS809の処理と同様に、通常画像301が合焦しているか否かの判定を繰り返し行い、合焦していると判定した場合、ステップS831に移行する。
 ステップS831では、ステップS807、S813、S821及びS827の何れかの処理によって開始されたフォーカスレンズ302の移動を停止させ、本フリック処理ルーチンプログラムを終了する。
 次に、図22を参照して、相反移動処理を行う際の撮像装置100の作用を説明する。なお、図22は、撮影制御処理プログラムの実行の途中においてCPU12によって実行される相反移動処理ルーチンプログラムの処理の流れを示すフローチャートである。本実施形態では、当該プログラムは、メモリ26の所定の記憶領域に予め記憶されている。
 ステップS901では、ステップS405の処理によって検出されたタッチ操作における右眼用画像300Aに対する移動操作が、上記右方向への移動操作であるか否かを判定する。ステップS901において肯定判定となった場合はステップS903に移行する一方、否定判定となった場合は上記移動操作が左方向への移動であると見なし、後述するステップS909に移行する。
 ステップS903では、ステップS405の処理によって検出されたタッチ操作における左眼用画像300Bに対する移動操作が、上記左方向への移動操作であるか否かを判定する。ステップS903において肯定判定となった場合はステップS905に移行する一方、否定判定となった場合は後述するステップS907に移行する。
 次のステップS905では、ステップS507の処理と同様に、フォーカスレンズ302をフォーカスレンズ302の光軸方向のうち、焦点位置が撮像装置100に近付く方向に移動させる。
 一例として図23の上図に示すように、上記後ピンの状態において、タッチパネル215を介するユーザ操作により右眼用画像300A上の指定位置310が右方向に移動し、かつ左眼用画像300B上の指定位置310が左方向に移動したとする。この場合、図23の下図に示すように、CPU12は、フォーカスレンズ302を上記光軸方向に沿って焦点位置が撮像装置100に近付く方向に移動させることにより、フォーカスレンズ302の焦点が合焦位置に近付いていく。
 次のステップS907では、ステップS405の処理によって検出されたタッチ操作におけるタッチパネル215への接触が継続しているか否かを判定する。ステップS907において肯定判定となった場合は上記ステップS901に戻る一方、否定判定となった場合は本相反移動処理ルーチンプログラムを終了して、撮影制御処理プログラム(メインルーチン)の上記ステップS425に移行する。
 一方、ステップS909では、ステップS405の処理において検出されたタッチ操作における左眼用画像300Bに対する移動操作が、上記右方向への移動操作であるか否かを判定する。ステップS909において肯定判定となった場合はステップS911に移行する一方、否定判定となった場合は後述するステップS913に移行する。
 次のステップS911では、ステップS515の処理と同様に、フォーカスレンズ302をフォーカスレンズ302の光軸方向のうち、焦点位置が撮像装置100から遠ざかる方向に移動させる。
 一例として図24の上図に示すように、上記前ピンの状態において、タッチパネル215を介するユーザ操作により右眼用画像300A上の指定位置310が左方向に移動し、かつ左眼用画像300B上の指定位置310が右方向に移動したとする。この場合、図24の下図に示すように、CPU12は、フォーカスレンズ302を上記光軸方向に沿って焦点位置が撮像装置100から遠ざかる方向に移動させることにより、フォーカスレンズ302の焦点が合焦位置に近付いていく。
 次のステップS913では、ステップS405の処理において検出されたタッチ操作におけるタッチパネル215への接触が継続しているか否かを判定する。ステップS913において肯定判定となった場合は上記ステップS901に戻る一方、否定判定となった場合は本相反移動処理ルーチンプログラムを終了して、撮影制御処理プログラム(メインルーチン)の上記ステップS425に移行する。
 このように、一例として図25Aに示すように、ユーザが2本の指によって右眼用画像300A及び左眼用画像300Bの各々に触れ、右眼用画像300A及び左眼用画像300Bの各々を相互の上記交差方向に対する位置が一致するように移動させる。この際、右眼用画像300A及び左眼用画像300Bの各々の相互の上記交差方向に対する位置関係に応じてフォーカスレンズ302が移動する。そして、一例として図25Bに示すように、右眼用画像300A及び左眼用画像300Bが上記交差方向に対する位置が一致した場合に、フォーカスレンズ302による撮像画像が合焦状態となる。このように、ユーザは、スプリットイメージ300を用いた直観的な操作を行うことにより合焦制御を行うことができる。
 なお、上記第1実施形態では、2×2画素のGフィルタに対して単一の位相差画素を配置する形態例を挙げて説明したが、これに限らず、例えば2×2画素のGフィルタに対して一対の第1画素L及び第2画素Rを配置してもよい。例えば図26に示すように、2×2画素のGフィルタに対して行方向に隣接した一対の第1画素L及び第2画素Rを配置してもよい。また、例えば図27に示すように、2×2画素のGフィルタに対して列方向に隣接した一対の第1画素L及び第2画素Rを配置してもよい。いずれの場合も上記第1実施形態において説明したように、第1画素L及び第2画素Rの位置を、第1の画素群と第2の画素群との間で列方向及び行方向の少なくとも一方について所定画素数内で揃えることが好ましい。なお、図26及び図27には、第1画素Lと第2画素Rとを、第1の画素群と第2の画素群との間で列方向及び行方向の各々についての位置を1画素内で揃えた位置に配置した例が示されている。
 また、上記第1実施形態では、カラーフィルタ21を例示したが、本発明はこれに限定されるものではない。例えば図28~30に示すようにカラーフィルタの原色(Rフィルタ,Gフィルタ,Bフィルタ)の配列をベイヤ配列としてもよい。図28~図30に示す例では、Gフィルタに対して位相差画素が配置されている。
 一例として図28に示すカラーフィルタ21Aは、3×3画素の正方行列の四隅及び中央がGフィルタとされた配列パターンG1の中央に位相差画素が配置されている。また、第1の画素Lと第2の画素Rとが行方向及び列方向の各々について1画素分のGフィルタを飛ばして(1画素分のGフィルタを間に置いて)交互に配置されている。また、第1画素Lと第2画素Rとが、第1の画素群と第2の画素群との間で列方向及び行方向の各々についての位置を1画素内で揃えた位置に配置されている。これにより、配列パターンG1の中央の位相差画素に基づく画像は配列パターンG1の四隅の通常画素に基づく画像を利用して補間可能となるため、本構成を有しない場合に比べ、補間精度を向上させることができる。
 しかも、配列パターンG1の各々は互いに位置が重複していない。つまり、第1の画素L及び第2の画素Rは、第1及び第2の画素群に含まれる各画素に隣接する第3の画素群に含まれる画素による第3の画像で補間する第1及び第2の画像に含まれる画素が画素単位で重複しない位置に配置されている。そのため、位相差画素に基づく画像が他の位相差画素に基づく画像の補間で利用された通常画素に基づく画像で補間されることを回避することができる。よって、補間精度のより一層の向上が期待できる。
 一例として図29に示すカラーフィルタ21Bは、配列パターンG1の中央及び図中正面視右下角に位相差画素が配置されている。また、第1の画素Lと第2の画素Rとが行方向及び列方向の各々について2画素分のGフィルタを飛ばして(2画素分のGフィルタを間に置いて)交互に配置されている。これにより、第1画素Lと第2画素Rとが、第1の画素群と第2の画素群との間で列方向及び行方向の各々についての位置を1画素内で揃えた位置に配置され、第1の画素L及び第2の画素Rを隣接させることができる。よって、ピントずれ以外の要因で画像ずれが発生するのを抑制することができる。
 しかも、各位相差画素には同色のフィルタ(Gフィルタ)が設けられた通常画素が隣接するので、補間精度を向上させることができる。その上、配列パターンG1の各々は互いに位置が重複していない。つまり、第1の画素L及び第2の画素Rは、第1及び第2の画素群に含まれる各画素に隣接する第3の画素群に含まれる画素による第3の画像で補間する第1及び第2の画像に含まれる画素が一対の画素単位で重複しない位置に配置されている。ここで言う「一対の画素」とは、例えば各配列パターンG1に含まれる第1の画素L及び第2の画素R(一対の位相差画素)を指す。そのため、一対の位相差画素に基づく画像が他の一対の位相差画素に基づく画像の補間において利用された通常画素に基づく画像によって補間されることを回避することができる。よって、補間精度のより一層の向上が期待できる。
 一例として図30に示すカラーフィルタ21Cは、配列パターンG1の中央に第1の画素Lが、図中正面視右下角に第2の画素Rが配置されている。また、第1の画素Lは行方向及び列方向の各々について2画素分のGフィルタを飛ばして配置されており、第2の画素Rも行方向及び列方向の各々について2画素分のGフィルタを飛ばして配置されている。これにより、第1画素Lと第2画素Rとが、第1の画素群と第2の画素群との間で列方向及び行方向の各々についての位置を2画素内で揃えた位置に配置され、第1の画素L及び第2の画素Rを隣接させることができる。よって、ピントずれ以外の要因で画像ずれが発生するのを抑制することができる。
 しかも、図30に示す例においても図29に示す例と同様に配列パターンG1の各々は互いに位置が重複していない。そのため、位相差画素に基づく画像が他の位相差画素に基づく画像の補間において利用された通常画素に基づく画像によって補間されることを回避することができる。よって、補間精度のより一層の向上が期待できる。
 また、カラーフィルタの他の構成例としては、例えば図31に示すカラーフィルタ21Dが挙げられる。図31には撮像素子20に設けられているカラーフィルタ21Dの原色(Rフィルタ,Gフィルタ,Bフィルタ)の配列及び遮光部材の配置の一例が模式的に示されている。図31に示すカラーフィルタ21Dでは、第1~第4の行配列が列方向について繰り返し配置されている。第1の行配列とは、行方向に沿ってBフィルタ及びGフィルタが交互に配置された配列を指す。第2の行配列とは、第1の行配列を行方向に半ピッチ(半画素分)ずらした配列を指す。第3の行配列とは、行方向に沿ってGフィルタ及びRフィルタが交互に配置された配列を指す。第4の行配列とは、第3の行配列を行方向に半ピッチずらした配列を指す。
 第1の行配列及び第2の行配列は列方向について半ピッチずれて隣接している。第2の行配列及び第3の行配列も列方向について半ピッチずれて隣接している。第3の行配列及び第4の行配列も列方向について半ピッチずれて隣接している。第4の行配列及び第1の行配列も列方向について半ピッチずれて隣接している。従って、第1~4の行配列の各々は、列方向について2画素毎に繰り返し現れる。
 第1の画素L及び第2の画素Rは、一例として図31に示すように、第3及び第4の行配列に対して割り当てられている。すなわち、第1の画素Lは、第3の行配列に対して割り当てられており、第2の画素Rは、第4の行配列に対して割り当てられている。また、第1の画素L及び第2の画素Rは、互いに隣接して(最小ピッチによって)対になって配置されている。また、図31に示す例では、第1の画素Lは、行方向及び列方向の各々について6画素毎に割り当てられており、第2の画素Rも、行方向及び列方向の各々について6画素毎に割り当てられている。これにより、第1の画素群と第2の画素群との位相差は、本構成を有しない場合と比較して、高精度に算出される。
 また、図31に示す例では、第1の画素L及び第2の画素RにはGフィルタが割り当てられている。Gフィルタが設けられた画素は他色のフィルタが設けられた画素に比べ感度が良いため、補間精度を高めることができる。しかも、Gフィルタは、他色のフィルタに比べ、連続性があるため、Gフィルタが割り当てられた画素は他色のフィルタが割り当てられた画素に比べ補間がし易くなる。
 また、上記第1実施形態では、上下方向に2分割されたスプリットイメージを例示したが、これに限らず、左右方向又は斜め方向に複数分割された画像をスプリットイメージとして適用してもよい。
 例えば、図32に示すスプリットイメージ66aは、行方向に平行な複数の境界線63aにより奇数ラインと偶数ラインとに分割されている。このスプリットイメージ66aでは、第1の画素群から出力された出力信号に基づいて生成されたライン状(一例として短冊状)の位相差画像66Laが奇数ライン(偶数ラインでも可)に表示される。また、第2の画素群から出力された出力信号に基づき生成されたライン状(一例として短冊状)の位相差画像66Raが偶数ラインに表示される。
 また、図33に示すスプリットイメージ66bは、行方向に傾き角を有する境界線63b(例えば、スプリットイメージ66bの対角線)により2分割されている。このスプリットイメージ66bでは、第1の画素群から出力された出力信号に基づき生成された位相差画像66Lbが一方の領域に表示される。また、第2の画素群から出力された出力信号に基づき生成された位相差画像66Rbが他方の領域に表示される。
 また、図34A及び図34Bに示すスプリットイメージ66cは、行方向及び列方向にそれぞれ平行な格子状の境界線63cにより分割されている。スプリットイメージ66cでは、第1の画素群から出力された出力信号に基づき生成された位相差画像66Lcが市松模様(チェッカーパターン)状に並べられて表示される。また、第2の画素群から出力された出力信号に基づき生成された位相差画像66Rcが市松模様状に並べられて表示される。
 更に、スプリットイメージに限らず、2つの位相差画像から他の合焦確認のための画像を生成し、合焦確認のための画像を表示するようにしてもよい。例えば、2つの位相差画像を重畳して合成表示し、ピントがずれている場合は2重像として表示され、ピントが合った状態ではクリアに画像が表示されるようにしてもよい。
 [第2実施形態]
 上記第1実施形態では、スクロール処理において、指定位置をスプリットイメージの右眼用画像及び左眼用画像の視差方向(水平方向)に移動させる場合について例示したが、移動方向はこれに限らない。本実施形態では、移動方向の変形例として例えば、円を描くように指定位置を移動させる動作(円動作)を行う場合について、図面を参照しつつ、詳細に説明する。
 なお、本実施形態は、第1実施形態と同様の構成及び動作を含むため、同様の構成及び動作についてはその旨を記し詳細な説明を省略する。
 本実施形態に係る撮影制御処理は、上記第1実施形態の撮影制御処理(図1参照)と比べ、ステップS415のスクロール処理(図12参照)に代えて図35に示すスクロール処理を有する点が異なる。図35は、撮影制御処理の途中においてCPU12によって実行される本実施形態に係るスクロール処理ルーチンプログラムの処理の流れの一例を示すフローチャートである。本実施形態では、当該プログラムは、メモリ26の所定の記憶領域に予め記憶されている。
 まず、ステップS1001では、ステップS405の処理によって検出されたタッチ操作が、右眼用画像300Aと左眼用画像300Bとの境界線311(図36参照)付近に対するタッチ操作か否かを判定する。本実施形態では、右眼用画像300Aと左眼用画像300Bの境界線311を中心とした分割方向に幅をもつ範囲(境界線311を跨ぐ予め定められた範囲)が予め定められており、タッチ操作された位置が当該範囲内である場合は、ステップS405の処理によって検出されたタッチ操作が、境界線311付近に対するタッチ操作であると判定する。なお、境界線311付近に対するタッチ操作であるか否かの判定方法はこれに限らず、例えば、上記第1実施形態において述べたように合焦判定領域を決定し、当該合焦判定領域内に境界線311が含まれるか否かにより判定を行うようにしてもよい。
 ステップS1001において肯定判定となった場合はステップS1003に移行する一方、否定判定となった場合は本スクロール処理ルーチンプログラムを終了して、撮影制御処理プログラム(メインルーチン)の上記ステップS425に移行する。
 ステップS1003では、接触位置(指定位置)が境界線311を越えたか否か判定する。否定判定となった場合は待機状態となる一方、肯定判定となった場合はステップS1005に移行する。
 ステップS1005では、左眼用画像300Bが境界線311より上の領域に位置するか判定する。図36には、本実施形態に係る撮像装置100においてスクロール操作が行われた場合のスプリットイメージの表示状態の一例を説明するための正面図を示す。なお、図36は、上記第1実施形態の図33に示したスプリットイメージ66aと同様に、複数分割された画像をスプリットイメージ300として適用した場合を示している。例えば、図36に示した場合では、接触位置が指定位置310Bである場合は、左眼用画像300Bが境界線311より上の領域に位置する。
 ステップS1005において肯定判定となった場合はステップS1007に移行する一方、否定判定となった場合は後述するステップS1015に移行する。
 ステップS1007では、右回りの円を描く動作か否かを判定する。本実施形態では、一例として、指定位置310(ユーザの接触位置)の軌跡を検出し、当該軌跡に基づいて円を描く動作か否かと、右回り及び左回りの何れであるかと、を検出している。当該検出結果に基づいて肯定判定となった場合はステップS1009へ移行する一方、否定判定となった場合はステップS1011へ移行する。なお、図36では、右周りの円を描く動作が行われた場合の軌跡を示している。
 ステップS1009では、フォーカスレンズ302の光軸方向のうちの現在の合焦位置に対してより遠距離側の被写体に合焦する方向(焦点位置が撮像装置100から遠ざかる方向)に所定距離だけ移動させる。なお、本実施形態に係る撮像装置100では、一例として、1回の回転操作により、フォーカスレンズ302を移動させる距離が予め定められている。このように本実施形態の撮像装置100では、左眼用画像300Bが境界線311より上の領域に位置する状態において右周りの円を描くスクロール操作を行う場合は、上記第1実施形態において、左眼用画像300Bを右方向にスクロールした場合と同様の操作が行われたとみなしている。
 次のステップS1025では、ステップS405の処理によって検出されたタッチ操作におけるタッチパネル215への接触が継続しているか否かを判定する。図37には、円を描くスクロール操作(右回り)を繰り返し行っている場合のスプリットイメージの表示状態の一例を説明するための正面図を示す。図37に示した一例のように、円を描くスクロール操作(右回り)を繰り返し行っている場合は、肯定判定となる。ステップS1025において肯定判定となった場合は上記ステップS1003に戻る一方、否定判定となった場合は本スクロール処理ルーチンプログラムを終了して、撮影制御処理プログラム(メインルーチン)の上記ステップS425に移行する。
 一方、ステップS1011では、ステップS1007の処理とは逆に、左回りの円を描く動作か否かを判定する。本実施形態では上述したように、一例として、指定位置310(ユーザの接触位置)の軌跡を検出し、当該軌跡に基づいて円を描く動作か否かと、右回り及び左回りの何れであるかと、を検出している。当該検出結果に基づいて肯定判定となった場合はステップS1013へ移行する一方、否定判定となった場合は本スクロール処理ルーチンプログラムを終了して、撮影制御処理プログラム(メインルーチン)の上記ステップS425に移行する。
 ステップ1013では、フォーカスレンズ302をフォーカスレンズ302の光軸方向のうち、現在の合焦位置に対してより近距離側の被写体に合焦する方向(焦点位置が撮像装置100に近付く方向)に所定距離だけ移動させた後、ステップS1025に移行する。なお、本実施形態に係る撮像装置100では、一例として、1回の回転操作により、フォーカスレンズ302を移動させる距離が予め定められている。このように本実施形態の撮像装置100では、左眼用画像300Bが境界線311上にある状態において左周りの円を描くスクロール操作を行う場合は、上記第1実施形態において、左眼用画像300Bを左方向にスクロールした場合と同様の操作が行われたとみなしている。
 一方、ステップS1015では、右眼用画像300Aが境界線311より上の領域に位置するか判定する。図36に示した場合では、接触位置が指定位置310Aまたは指定位置310Cである場合は、右眼用画像300Aが境界線311より上の領域に位置する。
 ステップS1015において肯定判定となった場合はステップS1017に移行する一方、否定判定となった場合は本スクロール処理ルーチンプログラムを終了して、撮影制御処理プログラム(メインルーチン)の上記ステップS425に移行する。
 ステップS1017では、ステップS1007の処理と同様に、右回りの円を描く動作か否かを判定する。ステップS1017において肯定判定となった場合はステップS1019へ移行する一方、否定判定となった場合はステップS1021へ移行する。
 ステップS1019では、ステップS1013の処理と同様に、フォーカスレンズ302をフォーカスレンズ302の光軸方向のうちの現在の合焦位置に対してより近距離側の被写体に合焦する方向(焦点位置が撮像装置100に近付く方向)に所定距離だけ移動させた後、ステップS1025に移行する。このように本実施形態の撮像装置100では、右眼用画像300Aが境界線311上にある状態において右周りの円を描くスクロール操作を行う場合は、上記第1実施形態において、右眼用画像300Aを右方向にスクロールした場合と同様の操作が行われたとみなしている。
 一例として図38の上図に示すように、上記後ピンの状態において、タッチパネル215を介するユーザ操作により右眼用画像300Aが境界線311上にある状態において指定位置310が右回りに回転移動したとする。この場合、図38の下図に示すように、CPU12は、フォーカスレンズ302を光軸方向に沿って焦点位置が撮像装置100に近付く方向に移動させることにより、フォーカスレンズ302の焦点が合焦位置に近付いていく。
 一方、ステップS1021では、ステップS1011の処理と同様に、左回りの円を描く動作か否かを判定する。ステップS1021において肯定判定となった場合はステップS1023へ移行する一方、否定判定となった場合は本スクロール処理ルーチンプログラムを終了して、撮影制御処理プログラム(メインルーチン)の上記ステップS425に移行する。
 ステップS1023では、ステップS1009の処理と同様に、フォーカスレンズ302の光軸方向のうちの現在の合焦位置に対してより遠距離側の被写体に合焦する方向(焦点位置が撮像装置100から遠ざかる方向)に所定距離だけ移動させた後、ステップS1025に移行する。このように本実施形態の撮像装置100では、右眼用画像300Aが境界線311上にある状態において左周りの円を描くスクロール操作を行う場合は、上記第1実施形態において、右眼用画像300Aを左方向にスクロールした場合と同様の操作が行われたとみなしている。
 以上のように、本実施形態に係る撮像装置100は、スクロール処理において、円を描く動作が行われたことに基づいてフォーカスレンズ302を移動させる。
 なお、フォーカスレンズ302を移動させる移動速度は、円を描く動作の速度に応じて変化させても良い。以下、スクロール処理の別例1について説明する。
 次に、図39を参照して、スクロール処理の別例1を行う際の撮像装置100の作用を説明する。なお、図39は、撮影制御処理プログラムの実行の途中においてCPU12によって実行される別例1のスクロール処理ルーチンプログラムの処理の流れを示すフローチャートである。本実施形態では、当該プログラムは、メモリ26の所定の記憶領域に予め記憶されている。
 別例1のスクロール処理は、上記本実施形態のスクロール処理と同様の処理を含むため、同様の処理についてはその旨を記し、詳細な説明を省略する。
 ステップS1101~ステップS1107の各処理は、上記スクロール処理のステップS1001~ステップS1007の各処理にそれぞれ対応している。
 左眼用画像300Bが境界線311より上の領域に位置する場合、ステップS1107において右回りの円を描く動作である場合は肯定判定となりステップS1109へ移行する一方、否定判定となった場合はステップS1117へ移行する。
 ステップS1109では、指定位置310が移動する円動作の角速度を取得する。角速度の取得方法は特に限定されないが、例えば、第1実施形態の移動速度を取得するのと同様にすればよい。
 次のステップS1111では、フォーカスレンズ302の移動速度を導出する。本実施形態に係る撮像装置100では、指定位置310が移動する円動作の角速度とフォーカスレンズ302の移動速度との対応関係がメモリ26の所定の記憶領域に予め記憶されている。図40は、本実施形態に係る撮像装置100における円動作の角速度とフォーカスレンズ302の移動速度との対応関係の一例を示すグラフである。なお、図40に示すグラフでは、横軸が円動作の角速度を示し、縦軸がフォーカスレンズ302の移動速度を示している。また、円動作の角速度については、上記右方向をプラス方向とし、上記左方向をマイナス方向として示している。一例として図40に示すグラフでは、本実施形態に係る撮像装置100では、円動作の角速度が速くなるむほどフォーカスレンズ302の移動速度が速くなる。ただし、円動作の角速度が予め定められた第3閾値(本実施形態では、-40deg/秒)から予め定められた第4閾値(本実施形態では、40deg/秒)までの間である場合には、フォーカスレンズ302の移動速度が0(零)となる。これは、上記移動操作の移動速度が上記第3閾値から上記第4閾値までの間である場合には、ユーザの意思によって上記指定位置310が移動した可能性より、指の震え等、ユーザの意思に反して指定位置310が移動した可能性の方が高いからである。なお、本実施形態では、メモリ26に、図40に示すグラフに相当するテーブル(角速度と移動速度との対応関係を示すテーブル)が予め記憶されている。
 このように、本実施形態に係る撮像装置100では、タッチパネル215を介して円を描くスクロール操作が行われた場合、円動作の角速度が速くなるほどフォーカスレンズ302の移動速度が次第に速くなる。また、円動作の角速度が遅くなるほどフォーカスレンズ302の移動速度が遅くなる。
 ステップS1111では、図40に例示した対応関係を示すテーブルをメモリ26から読出し、当該対応関係においてS1109において取得した移動速度に対応する移動速度を導出する。このように、本実施形態に係る撮像装置100では、指定位置310の円動作の角速度と移動速度との対応関係を示すテーブルに基づいてフォーカスレンズ302の移動速度を導出するが、これに限定されない。例えば、指定位置310の円動作の角速度を変数としてフォーカスレンズ302の移動速度を導出する予め定められた計算式を用いることにより、指定位置310の円動作の角速度に基づいてフォーカスレンズ302の移動速度を導出しても良い。
 次のステップS1113では、ステップS1111において導出した移動速度によってフォーカスレンズ302の光軸方向のうち、現在の合焦位置に対してより遠距離側の被写体に合焦する方向(焦点位置が撮像装置100から遠ざかる方向)に、フォーカスレンズ302を所定距離だけ移動させる。
 次のステップS1115の処理は、上記スクロール処理のステップS1025の処理にそれぞれ対応しており、タッチパネル215への接触が継続しているか否かを判定する。肯定判定となった場合は上記ステップS1103に戻る一方、否定判定となった場合は本スクロール処理ルーチンプログラムを終了して、撮影制御処理プログラム(メインルーチン)の上記ステップS425に移行する。
 一方、ステップS1117の処理は、上記スクロール処理のステップS1011の処理に対応している。ステップS1117において左回りの円を描く動作である場合は肯定判定となりステップS1119へ移行する一方、否定判定となった場合は本スクロール処理ルーチンプログラムを終了して、撮影制御処理プログラム(メインルーチン)の上記ステップS425に移行する。
 ステップS1119では、ステップS1109の処理と同様に、指定位置310が移動する円動作の角速度を取得する。次のステップS1121では、ステップS1111の処理と同様に、フォーカスレンズ302の移動速度を導出する。
 次のステップS1123では、ステップS1121導出した移動速度によってフォーカスレンズ302の光軸方向のうちの現在の合焦位置に対してより近距離側の被写体に合焦する方向(焦点位置が撮像装置100に近付く方向)に所定距離だけ移動させた後、ステップS1115に移行する。
 一方、ステップS1105において左眼用画像300Bが境界線311より上の領域に位置するかの判定において否定判定となった場合に移行するステップS1125及びステップS1127の各処理は、上記スクロール処理のステップS1015及びステップS1017の各処理にそれぞれ対応している。
 右眼用画像300Aが境界線311より上の領域に位置する場合におけるステップS1127において右回りの円を描く動作である場合は肯定判定となりステップS1129へ移行する一方、否定判定となった場合はステップS1135へ移行する。
 ステップS1129では、ステップS1109の処理と同様に、指定位置310が移動する円動作の角速度を取得する。次のステップS1131では、ステップS1111の処理と同様に、フォーカスレンズ302の移動速度を導出する。
 次のステップS1133では、ステップS1131導出した移動速度によってフォーカスレンズ302の光軸方向のうち、現在の合焦位置に対してより近距離側の被写体に合焦する方向(焦点位置が撮像装置100に近付く方向)に所定距離だけフォーカスレンズ302を移動させた後、ステップS1115に移行する。
 一方、ステップS1135の処理は、上記スクロール処理のステップS1021の処理に対応している。ステップS1135において左回りの円を描く動作である場合は肯定判定となりステップS1137へ移行する一方、否定判定となった場合は本スクロール処理ルーチンプログラムを終了して、撮影制御処理プログラム(メインルーチン)の上記ステップS425に移行する。
 ステップS1137では、ステップS1109の処理と同様に、指定位置310が移動する円動作の角速度を取得する。次のステップS1121では、ステップS1111の処理と同様に、フォーカスレンズ302の移動速度を導出する。
 次のステップS1141では、ステップS1139において導出した移動速度によってフォーカスレンズ302の光軸方向のうち、現在の合焦位置に対してより遠距離側の被写体に合焦する方向(焦点位置が撮像装置100から遠ざかる方向)に所定距離だけフォーカスレンズ302を移動させた後、ステップS1115に移行する。
 以上のように、本実施形態に係る撮像装置100は、別例1のスクロール処理において、円を描く動作が行われたことに基づいてフォーカスレンズ302を移動させる。また、フォーカスレンズ302の移動速度を円動作の角速度に応じた移動速度とさせても良い。
 このようにフォーカスレンズ302の移動速度を円動作の角速度に応じた移動速度とすることにより、指定位置を移動操作するユーザの動作(動作速度)と、フォーカスレンズ302の移動速度とを連動させることができるため、ユーザの意図を、フォーカスレンズ302の移動に反映させることができる。 
 なお、本実施形態では、二つの分割画像(右眼用分割画像及び左眼用分割画像)にわたって、円を描くように指定位置310を移動させる円動作を行う場合について詳細に説明したがこれに限らず、複数の分割画像にわたって円を描くように円動作を行うようにしてもよい。この場合、例えば、境界線311を跨ぐ毎に、上記各スクロール処理を行うようにしても良い。
 また、本実施形態では、円を描くように指定位置310を移動させる場合について説明したがこれに限らず、指定位置310の移動軌跡が、交差方向の移動動作と、境界線311を跨ぐ(分割方向の)移動動作とにわけることができればよい。なお、本実施形態のスクロール処理のように、円を描くように指定位置310を移動させることにより、あたかもフォーカスリング260を手動で回転させて焦点調整(所謂マニュアルフォーカス)を行っているような間隔をユーザに与えることができる。
 [第3実施形態]
 上記各実施形態において示した撮影制御処理は、スプリットイメージを用いて合焦を行うためのその他の処理を組み合わせても良い。本実施形態では、上記各実施形態において示した撮影制御処理と組み合わせることが好ましいその他の処理について、図面を参照しつつ、詳細に説明する。
 本実施形態では、合焦したことをユーザに対して報知する合焦報知処理について説明する。図41は、本実施形態に係る撮像装置100の電気系の構成の一例を示すブロック図である。図41に示すように、本実施形態の撮像装置100は、上記各実施形態の撮像装置100の構成に加えて、合焦したことをユーザに対して報知するための報知制御部38及び振動部材217を備えている。
 報知制御部38は、振動部材217に接続されており、右眼用画像300A及び左眼用画像300Bが合焦した場合に、振動部材217を振動させるように制御する。本実施形態の撮像装置100の振動部材217は、タッチパネル215のユーザが接触操作を行う部位に設けられている。
 図42を参照して、合焦報知処理を行う際の撮像装置100の作用を説明する。なお、図42は、撮影制御処理プログラムの実行と組み合わせてCPU12によって実行される合焦報知処理ルーチンプログラムの処理の流れを示すフローチャートである。本実施形態では、当該プログラムは、メモリ26の所定の記憶領域に予め記憶されている。
 まず、ステップS1201では、フォーカスレンズ302が移動中か否かを判定する。ステップS1201において肯定判定となった場合は、ステップS1203に移行する一方、否定判定となった場合は本合焦制御処理ルーチンプログラムを終了する。
 ステップS1203では、接触位置(指定位置310)近傍の被写体像(右眼用画像300A及び左眼用画像300B)が合焦したか否か判定する。スプリットイメージ300内に複数の被写体像(右眼用画像300A及び左眼用画像300B)が含まれている場合、全ての被写体像が合焦しない場合がある。例えば、本実施形態の撮像装置100では、撮像装置100に対して、遠距離側の被写体の被写体像と近距離側の被写体の被写体像とでは、いずれか一方の被写体像が合焦する。そのため、本実施形態の撮像装置100では、上記実施形態における指定位置310(ユーザが接触している接触位置)の近傍の被写体像(右眼用画像300A及び左眼用画像300B)が合焦したか否か判定する。なお、具体的に本実施形態の撮像装置100では、指定位置310を中心とした予め定められた領域、または、指定位置310を分割方向に境界線311に向けて移動させた場合における境界線311との交点を中心とした予め定められた領域を設けておき、当該領域内に含まれる右眼用画像300A及び左眼用画像300Bが合焦したか否かを判定する。なお、合焦したか否かの判定方法は、上記各実施形態の撮影制御処理と同様にすればよい。
 ステップS1203において肯定判定となった場合は、ステップS1205に移行する一方、否定判定となった場合はステップS1201に移行する。
 ステップS1205では、振動部材217を振動させることにより、合焦を報知させた後、本合焦制御処理ルーチンプログラムを終了する。
 本実施形態の撮像装置100では、上記のようにタッチパネル215のユーザが接触操作を行う部位、具体的には指定位置310に対応する部位を振動部材217により振動させる。なお、振動部材217により振動させる部位は当該部位に限らず、例えば、タッチパネル215全体や、撮像装置100全体(カメラ本体200)であってもよい。なお、本実施形態の撮像装置100のように、ユーザが接触操作を行う部位を振動させることにより、より確実かつ速やかに合焦した旨をユーザに報知することができる。
 以上のように、本実施形態に係る撮像装置100は、合焦報知処理において、フォーカスレンズ302の移動中に被写体像(右眼用画像300A及び左眼用画像300B)が合焦した旨をユーザに報知する。
 なお、上記合焦報知処理において、被写体像が合焦した場合は、フォーカスレンズ302の移動を停止させても良い。以下、合焦報知処理の別例1について説明する。
 次に、図43を参照して、合焦報知処理の別例1を行う際の撮像装置100の作用を説明する。なお、図43は、撮影制御処理プログラムの実行と組み合わせてCPU12によって実行される別例1の合焦報知処理ルーチンプログラムの処理の流れを示すフローチャートである。本実施形態では、当該プログラムは、メモリ26の所定の記憶領域に予め記憶されている。
 別例1の合焦報知処理は、上記本実施形態の合焦報知処理と同様の処理を含むため、同様の処理についてはその旨を記し、詳細な説明を省略する。
 ステップS1301~ステップS1305の各処理は、上記合焦報知処理のステップS1201~ステップS1205の各処理にそれぞれ対応している。
 フォーカスレンズ302の移動中(ステップS1301において肯定判定)に、接触位置近傍の被写体像(右眼用画像300A及び左眼用画像300B)が合焦した場合(ステップS1303において肯定判定)のステップS1305では、振動部材217を振動させることにより、合焦を報知させた後、ステップS1307に移行する。
 ステップS1307では、フォーカスレンズ302の移動を停止させた後、本処理を終了する。
 以上のように、本実施形態に係る撮像装置100は、別例1の合焦報知処理において、フォーカスレンズ302の移動中に被写体像(右眼用画像300A及び左眼用画像300B)が合焦した旨をユーザに報知すると共に、フォーカスレンズ302の移動を停止させる。
 以上のように、本実施形態に係る撮像装置100は、別例1のスクロール処理において、円を描く動作が行われたことに基づいてフォーカスレンズ302を移動させると共に、フォーカスレンズ302の移動速度を円動作の角速度に応じた移動速度とさせても良い。
 なお、本実施形態では、タッチパネル215の接触部位を振動部材217により振動させることにより報知を行っているが、報知方法は、当該方法に限らない。例えば、振動部材217にかわり、または、振動部材217に加えて、スピーカなど、音声出力部を設け、音声を出力することにより報知を行っても良い。また例えば、右眼用画像300A、左眼用画像300B、及びスプリットイメージ300等の色を変化させても良い。また、合焦した旨を知らせる表示を表示部213に行うようにしても良い。
 [第4実施形態]
 上記第3実施形態では、上記第1及び第2実施形態において示した撮影制御処理と組み合わせることが好ましいその他の処理として合焦報知処理について説明したが、本実施形態では、その他の処理としてスプリットイメージ300の拡大・縮小制御処理について、図面を参照しつつ、詳細に説明する。
 図44は、撮影制御処理プログラムの実行と組み合わせてCPU12によって実行される拡大・縮小制御処理ルーチンプログラムの処理の流れを示すフローチャートである。本実施形態では、当該プログラムは、メモリ26の所定の記憶領域に予め記憶されている。
 まず、ステップS1501では、上下(分割方向)にスクロール操作を行っているか否か判定する。ステップS1501において肯定判定となった場合は、ステップS1503に移行する一方、否定判定となった場合は本拡大・縮小制御処理ルーチンプログラムを終了する。
 ステップS1503では、スクロール方向(指定位置310の移動方向、上方向及び下方向)に応じて、表示入力部216の表示部213に表示されているスプリットイメージ300を拡大または縮小表示させた後、本拡大・縮小制御処理ルーチンプログラムを終了する。
 本実施形態の撮像装置100では、スクロール方向に応じてスプリットイメージ300の拡大及び縮小のいずれを行うかが予め定められている。本実施形態の撮像装置100では、具体的例として、スクロール方向が上方向の場合は、スプリットイメージ300の拡大を行い、スクロール方向が下方向の場合は、スプリットイメージ300の縮小を行うよう予め定められている。なお、スプリットイメージ300の拡大率及び縮小率としては、例えば、1回のスクロール操作に対応する所定の拡大率及び縮小率を予め定めておいても良い。また、例えば、拡大率及び縮小率は、スクロール距離(指定位置310の移動距離)に応じて予め定めておいても良い。この場合は、例えば、スクロール距離が長いほど、拡大率及び縮小率が大きくなるように予め定めておいても良い。
 以上のように、本実施形態に係る撮像装置100は、拡大・縮小制御処理において、上下方向(分割方向)のスクロール操作が行われたことに基づいて、スクロール方向に応じてスプリットイメージ300の拡大または縮小を行う。
 このように、スプリットイメージ300を拡大・縮小することにより、被写体像(右眼用画像300A及び左眼用画像300B)が見易くなるため、ユーザが合焦状態を確認しやすくなる。
 上記第1実施形態の撮像装置100では、撮影制御処理において合焦状態を制御するために行われる指定位置310の移動操作は、水平方向における移動操作である。そのため、本実施形態の撮像装置100では、撮影制御処理における合焦状態の制御と、拡大・縮小制御処理とでは、移動操作(スクロール操作)の方向が異なるため、両者を明確に区別することができる。なお、上記第2実施形態の撮像装置100では、撮影制御処理において合焦状態を制御するために行われる指定位置310の移動操作は、水平方向における移動操作と上下方向(分割方向)における移動操作とを含む。このような場合は、上下方向(分割方向)における移動操作の前後一定期間内に水平方向における移動操作がなされない場合は、本実施形態に示した拡大・縮小制御処理を行う操作であると判断すればよい。
 なお、拡大・縮小制御処理は、上記各実施の形態において説明した処理に限定されない。以下、拡大・縮小制御処理の別例について説明する。
 次に、図45を参照して、拡大・縮小制御処理の別例1を行う際の撮像装置100の作用を説明する。なお、図45は、撮影制御処理プログラムの実行と組み合わせてCPU12によって実行される別例1の拡大・縮小制御処理ルーチンプログラムの処理の流れを示すフローチャートである。本実施形態では、当該プログラムは、メモリ26の所定の記憶領域に予め記憶されている。
 別例1の拡大・縮小制御処理は、上記本実施形態の拡大・縮小制御処理と同様の処理を含むため、同様の処理についてはその旨を記し、詳細な説明を省略する。
 ステップS1601では、スプリットイメージ300内の2点がタッチ操作されたか否か判定する。すなわち、指定位置210が2箇所あるか否か判定する。ステップS1601において肯定判定となった場合は、ステップS1603に移行する一方、否定判定となった場合は本拡大・縮小制御処理ルーチンプログラムを終了する。
 ステップS1603では、指定位置310が上下に離れる方向に移動するスクロール操作(所謂ピンチオーブン操作(ピンチアウト操作))がなされているか判定する。ステップS1603において肯定判定となった場合は、ステップS1605に移行する一方、否定判定となった場合はステップS1607に移行する。図46には、本実施形態に係る撮像装置100においてスプリットイメージの拡大操作が行われた場合のスプリットイメージの表示状態の一例を説明するための正面図を示す。
 ステップS1605では、表示入力部216の表示部213に表示されているスプリットイメージ300を拡大させた後、本拡大・縮小制御処理ルーチンプログラムを終了する。なお、後述する図47は、スプリットイメージ300が表示部213に拡大表示さえている状態を示している。なお、拡大率は、上記拡大・縮小制御処理のステップS1503と同様にすれば良い。
 一方、ステップ1607では、指定位置310が上下に近付く方向に移動するスクロール操作(所謂ピンチクローズ操作(ピンチイン操作))がなされているか判定する。ステップS1607において肯定判定となった場合は、ステップS1609に移行する一方、否定判定となった場合は本拡大・縮小制御処理ルーチンプログラムを終了する。図47には、本実施形態に係る撮像装置100においてスプリットイメージの縮小操作が行われた場合のスプリットイメージの表示状態の一例を説明するための正面図を示す。なお、図47では、拡大されたスプリットイメージ300の大きさが、表示部213の表示領域の全域の大きさよりも大きい場合を示している。
 ステップ1609では、表示入力部216の表示部213に表示されているスプリットイメージ300を縮小させた後、本拡大・縮小制御処理ルーチンプログラムを終了する。なお、縮小率は、上記拡大・縮小制御処理のステップS1503と同様にすれば良い。
 以上のように、本実施形態に係る撮像装置100は、別例1の拡大・縮小制御処理において、2箇所の指定位置310が指定された場合に、指定位置310が上下方向(分割方向)に離れるか近付くかにより、スプリットイメージ300の拡大または縮小を行う。
 このように、2箇所の指定位置310が指定された場合に、スプリットイメージ300の拡大または縮小を行うことにより、1点をタッチ操作する場合と比べて、ユーザの意図しない誤動作を減少させることができる。
 次に、図48を参照して、拡大・縮小制御処理の別例2を行う際の撮像装置100の作用を説明する。なお、図48は、撮影制御処理プログラムの実行と組み合わせてCPU12によって実行される別例2の拡大・縮小制御処理ルーチンプログラムの処理の流れを示すフローチャートである。本実施形態では、当該プログラムは、メモリ26の所定の記憶領域に予め記憶されている。
 別例2の拡大・縮小制御処理は、上記本実施形態の拡大・縮小制御処理と同様の処理を含むため、同様の処理についてはその旨を記し、詳細な説明を省略する。
 ステップS1701の処理は、別例1の拡大・縮小制御処理のステップS1601の処理に対応している。ステップS1701では、スプリットイメージ300内の2点がタッチ操作されたか(指定位置210が2箇所か)否か判定し、肯定判定となった場合は、ステップS1703に移行する一方、否定判定となった場合は本拡大・縮小制御処理ルーチンプログラムを終了する。
 ステップS1703では、指定位置310が境界線311を挟んだ位置にあるか否かを判定する。例えば、2箇所の指定位置310を結んだ直線が境界線311と交差するか否かにより判定する。なお、図46及び図47は、指定位置310が境界線311を挟んだ位置にある場合を示している。なお、境界線311から各指定位置310までの距離は特に限定されず、2箇所の指定位置310の境界線311からの距離は異なっていてもよい。ステップS1703において肯定判定となった場合は、ステップS1705に移行する一方、否定判定となった場合はステップS1713に移行する。
 ステップS1705の処理は、別例1の拡大・縮小制御処理のステップS1603の処理に対応している。ステップS1705では、指定位置310が上下に離れる方向に移動するスクロール操作がなされているか判定し、肯定判定となった場合は、ステップS1707に移行する一方、否定判定となった場合はステップS1709に移行する。
 ステップS1707では、スプリットイメージ300を上下方向(分割方向)の中心を指定位置310に挟まれている境界線311とし、かつ、左右方向(水平方向)の中心を指定位置310として、表示入力部216の表示部213に表示されているスプリットイメージ300を拡大させた後、本拡大・縮小制御処理ルーチンプログラムを終了する。なお、2箇所の指定位置310の左右方向の位置が異なる場合は、例えば、2箇所の指定位置310の左右方向の中間点を中心としても良いし、いずれか一方の指定位置310を中心としても良い。また、2箇所の指定位置310が複数の境界線311を挟んでいる場合は、例えば、2箇所の指定位置310の上下方向の間隔の中央に近い境界線311を中心としても良い。
 一方ステップS1709の処理は、別例1の拡大・縮小制御処理のステップS1607の処理に対応している。ステップS1709では、指定位置310が上下に近付く方向に移動するスクロール操作がなされているか判定する。ステップS1709において肯定判定となった場合は、ステップS1711に移行する一方、否定判定となった場合は本拡大・縮小制御処理ルーチンプログラムを終了する。
 ステップS1711では、スプリットイメージ300を上下方向(分割方向)の中心を指定位置310に挟まれている境界線311とし、かつ、左右方向(水平方向)の中心を指定位置310として、表示入力部216の表示部213に表示されているスプリットイメージ300を縮小させた後、本拡大・縮小制御処理ルーチンプログラムを終了する。なお、ステップS1707と同様に、2箇所の指定位置310の左右方向の位置が異なる場合は、例えば、2箇所の指定位置310の左右方向の中間点を中心としても良いし、いずれか一方の指定位置310を中心としても良い。また、ステップS1707と同様に、2箇所の指定位置310が複数の境界線311を挟んでいる場合は、例えば、2箇所の指定位置310の上下方向の間隔の中央に近い境界線311を中心としても良い。
 一方、ステップS1713では、ステップS1705と同様に、指定位置310が上下に離れる方向に移動するスクロール操作がなされているか判定し、肯定判定となった場合は、ステップS1715に移行する一方、否定判定となった場合はステップS1717に移行する。
 ステップS1715の処理は、別例1の拡大・縮小制御処理のステップS1605の処理に対応している。ステップS1715では、表示入力部216の表示部213に表示されているスプリットイメージ300全体を拡大させた後、本拡大・縮小制御処理ルーチンプログラムを終了する。
 一方、ステップS1717では、ステップS1709と同様に、指定位置310が上下に近付く方向に移動するスクロール操作がなされているか判定する。ステップS1709において肯定判定となった場合は、ステップS1711に移行する一方、否定判定となった場合は本拡大・縮小制御処理ルーチンプログラムを終了する。
 ステップS1719の処理は、別例1の拡大・縮小制御処理のステップS1609の処理に対応している。ステップ1719では、表示入力部216の表示部213に表示されているスプリットイメージ300全体を縮小させた後、本拡大・縮小制御処理ルーチンプログラムを終了する。
 以上のように、本実施形態に係る撮像装置100は、別例2の拡大・縮小制御処理において、境界線311を挟んで2箇所の指定位置310が指定された場合に、上下方向(分割方向)の中心を指定位置310に挟まれた境界線311とし、かつ、左右方向(水平方向)の中心を指定位置310として、スプリットイメージ300の拡大または縮小を行う。
 このように、拡大・縮小の上下方向(分割方向)の中心を指定位置310に挟まれた境界線311とし、かつ、左右方向(水平方向)の中心を指定位置310とすることにより、ユーザが合焦状態を確認したい部分のスプリットイメージ300(被写体像)を拡大・縮小させることができる。これにより、本実施形態の撮像装置100では、ユーザの意図した動作を実現することができるようになる。
 次に、図49を参照して、上記各拡大・縮小制御処理に組み合わせることが好ましい拡大・縮小制御処理について図面を参照しつつ、詳細に説明する。図49は、上記各拡大・縮小制御処理プログラムの実行と組み合わせてCPU12によって実行される拡大・縮小制御処理ルーチンプログラムの処理の流れを示すフローチャートである。本実施形態では、当該プログラムは、メモリ26の所定の記憶領域に予め記憶されている。
 図49に示した、拡大・縮小制御制御処理は、スプリットイメージ300の拡大中または縮小中に実行される。
 ステップS1801では、スプリットイメージ300を拡大中か否かを判定する。ステップS1801において肯定判定となった場合は、ステップS1803に移行する一方、否定判定となった場合はステップS1807に移行する。
 ステップS1803では、スプリットイメージ300が表示部213の表示領域の全域の大きさまで拡大されたか否か判定する。ステップS1803において否定判定となった場合は、ステップS1801に移行する一方、肯定判定となった場合はステップS1805に移行する。
 ステップS1805では、スプリットイメージ300の拡大を停止させた後、本拡大・縮小制御処理ルーチンプログラムを終了する。
 一方、ステップS1807では、スプリットイメージ300を縮小中か否かを判定する。ステップS1807において肯定判定となった場合はステップS1809に移行する一方、否定判定となった場合は本拡大・縮小制御処理ルーチンプログラムを終了する。
 ステップS1809では、スプリットイメージ300が元の大きさまで縮小されたか否か判定する。なお、ここで「元の大きさ」とは、撮像装置100に初期状態として予め定められているスプリットイメージ300の大きさである。例えば、撮像装置100に電源を投入した際に、表示部213に表示されるスプリットイメージ300の大きさとしている。なお、「元の大きさ」とはこれに限らず、スプリットイメージ300が拡大された後に、縮小された場合は、拡大前の大きさとしてもよい。ステップS1809において否定判定となった場合は、ステップS1807に移行する一方、肯定判定となった場合は、ステップS1811に移行する。
 ステップS1811では、スプリットイメージ300の縮小を停止させた後、本拡大・縮小制御処理ルーチンプログラムを終了する。
 以上のように、本実施形態に係る撮像装置100は、当該拡大・縮小制御処理において、スプリットイメージ300の拡大率の最大を、表示部213の表示領域全域とし、縮小率の最大を、撮像装置100に初期状態として予め定められているスプリットイメージ300の大きさとしている。
 このようにスプリットイメージ300を拡大することにより、通常画像301に表示されている被写体像の一部がスプリットイメージ300となっている場合に、拡大率が最大のスプリットイメージ300を表示している際でも、少し縮小することにより、ユーザは、画角周辺部に写っている被写体像を確認することができる。
 なお、上記各実施形態において説明した撮影制御処理の流れはあくまでも一例である。従って、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。また、上記各実施形態において説明した撮影制御処理に含まれる各処理は、プログラムを実行することにより、コンピュータを利用してソフトウェア構成により実現されてもよいし、その他のハードウェア構成によって実現されてもよい。また、ハードウェア構成とソフトウェア構成の組み合わせによって実現してもよい。
 上記各実施形態において説明した撮影制御処理を、コンピュータによりプログラムを実行することにより実現する場合は、プログラムを所定の記憶領域(例えばメモリ26)に予め記憶しておけばよい。なお、必ずしも最初からメモリ26に記憶させておく必要はない。例えば、コンピュータに接続されて使用されるSSD(Solid State Drive)、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの任意の「可搬型の記憶媒体」に先ずはプログラムを記憶させておいてもよい。そして、コンピュータがこれらの可搬型の記憶媒体からプログラムを取得して実行するようにしてもよい。また、インターネットやLAN(Local Area Network)などを介してコンピュータに接続される他のコンピュータまたはサーバ装置などに各プログラムを記憶させておき、コンピュータがこれらからプログラムを取得して実行するようにしてもよい。
 [第5実施形態]
 上記第1実施形態では、撮像装置100を例示したが、撮像装置100の変形例である携帯端末装置としては、例えばカメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)、携帯型ゲーム機などが挙げられる。以下、スマートフォンを例に挙げ、図面を参照しつつ、詳細に説明する。
 図50は、スマートフォン500の外観の一例を示す斜視図である。図50に示すスマートフォン500は、平板状の筐体502を有し、筐体502の一方の面に表示部としての表示パネル521と、入力部としての操作パネル522とが一体となった表示入力部520を備えている。また、筐体502は、スピーカ531と、マイクロホン532と、操作部540と、カメラ部541とを備えている。なお、筐体502の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造やスライド構造を有する構成を採用したりすることもできる。
 図51は、図50に示すスマートフォン500の構成の一例を示すブロック図である。図51に示すように、スマートフォン500の主たる構成要素として、無線通信部510と、表示入力部520と、通信部530と、操作部540と、カメラ部541と、記憶部550と、外部入出力部560と、を備える。また、スマートフォン500の主たる構成要素として、GPS(Global Positioning System)受信部570と、モーションセンサ部580と、電源部590と、主制御部501と、を備える。また、スマートフォン500の主たる機能として、基地局装置と移動通信網とを介した移動無線通信を行う無線通信機能を備える。
 無線通信部510は、主制御部501の指示に従って、移動通信網に収容された基地局装置に対して無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータなどの送受信や、Webデータやストリーミングデータなどの受信を行う。
 表示入力部520は、いわゆるタッチパネルであって、表示パネル521と、操作パネル522とを備える。そのため、表示入力部520は、主制御部501の制御により、画像(静止画像および動画像)や文字情報などを表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する。なお、生成された3D画像を鑑賞する場合には、表示パネル521は、3D表示パネルであることが好ましい。
 表示パネル521は、LCD、OELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いたものである。操作パネル522は、表示パネル521の表示面上に表示される画像を視認可能に載置され、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。係るデバイスをユーザの指や尖筆によって操作すると、操作に起因して発生する検出信号を主制御部501に出力する。次いで、主制御部501は、受信した検出信号に基づいて、表示パネル521上の操作位置(座標)を検出する。
 図50に示すように、スマートフォン500の表示パネル521と操作パネル522とは一体となって表示入力部520を構成しているが、操作パネル522が表示パネル521を完全に覆うような配置となっている。この配置を採用した場合、操作パネル522は、表示パネル521外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル522は、表示パネル521に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル521に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
 なお、表示領域の大きさと表示パネル521の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル522が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。更に、外縁部分の幅は、筐体502の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル522において採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式などが挙げられ、いずれの方式を採用することもできる。
 通信部530は、スピーカ531やマイクロホン532を備える。通信部530は、マイクロホン532を通じて入力されたユーザの音声を主制御部501にて処理可能な音声データに変換して主制御部501に出力する。また、通信部530は、無線通信部510あるいは外部入出力部560により受信された音声データを復号してスピーカ531から出力する。また、図50に示すように、例えば、スピーカ531及びマイクロホン532を表示入力部520が設けられた面と同じ面に搭載することができる。
 操作部540は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図50に示すように、操作部540は、スマートフォン500の筐体502の側面に搭載され、指などによって押下されるとオンとなり、指を離すとバネなどの復元力によってオフ状態となる押しボタン式のスイッチである。
 記憶部550は、主制御部501の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータを記憶する。また、記憶部550は、WebブラウジングによりダウンロードしたWebデータや、ダウンロードしたコンテンツデータを記憶する。また、記憶部550は、ストリーミングデータなどを一時的に記憶する。また、記憶部550は、スマートフォン内蔵の内部記憶部551と着脱自在な外部メモリスロットを有する外部記憶部552を有する。なお、記憶部550を構成するそれぞれの内部記憶部551と外部記憶部552は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ
(hard disk type)などの格納媒体を用いて実現される。格納媒体としては、この他にも、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)が例示できる。
 外部入出力部560は、スマートフォン500に連結される全ての外部機器とのインタフェースの役割を果たすものであり、他の外部機器に通信等又はネットワークにより直接的又は間接的に接続するためのものである。他の外部機器に通信等としては、例えば、ユニバーサルシリアルバス(USB)、IEEE1394などが挙げられる。ネットワークとしては、例えば、インターネット、無線LAN、ブルートゥース(Bluetooth(登録商標))、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)が挙げられる。また、ネットワークの他の例としては、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)などが挙げられる。
 スマートフォン500に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)が挙げられる。外部機器の他の例としては、SIM(SubscriberIdentity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器が挙げられる。外部オーディオ・ビデオ機器の他にも、無線接続される外部オーディオ・ビデオ機器が挙げられる。また、外部オーディオ・ビデオ機器に代えて、例えば有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるPDA、有/無線接続されるパーソナルコンピュータ、イヤホンなども適用可能である。
 外部入出力部は、このような外部機器から伝送を受けたデータをスマートフォン500の内部の各構成要素に伝達することや、スマートフォン500の内部のデータが外部機器に伝送されるようにすることができる。
 GPS受信部570は、主制御部501の指示にしたがって、GPS衛星ST1乃至STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、当該スマートフォン500の緯度、経度、高度からなる位置を検出する。GPS受信部570は、無線通信部510や外部入出力部560(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部580は、例えば、3軸の加速度センサなどを備え、主制御部501の指示にしたがって、スマートフォン500の物理的な動きを検出する。スマートフォン500の物理的な動きを検出することにより、スマートフォン500の動く方向や加速度が検出される。この検出結果は、主制御部501に出力されるものである。
 電源部590は、主制御部501の指示にしたがって、スマートフォン500の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
 主制御部501は、マイクロプロセッサを備え、記憶部550が記憶する制御プログラムや制御データにしたがって動作し、スマートフォン500の各部を統括して制御するものである。また、主制御部501は、無線通信部510を通じて、音声通信やデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
 アプリケーション処理機能は、記憶部550が記憶するアプリケーションソフトウェアにしたがって主制御部501が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部560を制御して対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、Webページを閲覧するWebブラウジング機能などがある。
 また、主制御部501は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部520に表示する等の画像処理機能を備える。画像処理機能とは、主制御部501が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部520に表示する機能のことをいう。
 更に、主制御部501は、表示パネル521に対する表示制御と、操作部540、操作パネル522を通じたユーザ操作を検出する操作検出制御とを実行する。
 表示制御の実行により、主制御部501は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、あるいは電子メールを作成したりするためのウィンドウを表示する。なお、スクロールバーとは、表示パネル521の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部501は、操作部540を通じたユーザ操作を検出したり、操作パネル522を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたりする。また、操作検出制御の実行により、主制御部501は、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 更に、操作検出制御の実行により主制御部501は、操作パネル522に対する操作位置が、表示パネル521に重なる重畳部分(表示領域)か、それ以外の表示パネル521に重ならない外縁部分(非表示領域)かを判定する。そして、この判定結果を受けて、操作パネル522の感応領域や、ソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部501は、操作パネル522に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部541は、CMOSやCCDなどの撮像素子を用いて撮像するデジタルカメラであり、図1等に示す撮像装置100と同様の機能を備えている。
 また、カメラ部541は、マニュアルフォーカスモードとオートフォーカスモードとを切り替え可能である。マニュアルフォーカスモードが選択されると、操作部540又は表示入力部520に表示されるフォーカス用のアイコンボタン等を操作することにより、カメラ部541のフォーカスレンズ302のピント合わせを行うことができる。そして、マニュアルフォーカスモード時には、スプリットイメージが合成されたライブビュー画像を表示パネル521に表示させ、これによりマニュアルフォーカス時の合焦状態を確認できるようにしている。なお、図9に示すハイブリッドファインダー220をスマートフォン500に設けるようにしてもよい。
 また、カメラ部541は、主制御部501の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic coding Experts Group)などの圧縮した画像データに変換する。そして、変換して得た画像データを記憶部550に記録したり、外部入出力部560や無線通信部510を通じて出力したりすることができる。図50に示すにスマートフォン500において、カメラ部541は表示入力部520と同じ面に搭載されているが、カメラ部541の搭載位置はこれに限らず、表示入力部520の背面に搭載されてもよいし、あるいは、複数のカメラ部541が搭載されてもよい。なお、複数のカメラ部541が搭載されている場合には、撮像に供するカメラ部541を切り替えて単独にて撮像したり、あるいは、複数のカメラ部541を同時に使用して撮像したりすることもできる。
 また、カメラ部541はスマートフォン500の各種機能に利用することができる。例えば、表示パネル521にカメラ部541によって取得した画像を表示することや、操作パネル522の操作入力のひとつとして、カメラ部541の画像を利用することができる。また、GPS受信部570が位置を検出する際に、カメラ部541からの画像を参照して位置を検出することもできる。更には、カメラ部541からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン500のカメラ部541の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部541からの画像をアプリケーションソフトウェア内において利用することもできる。
 その他、静止画又は動画の画像データに各種情報を付加して記憶部550に記録したり、外部入出力部560や無線通信部510を通じて出力したりすることもできる。ここで言う「各種情報」としては、例えば、静止画又は動画の画像データにGPS受信部570により取得した位置情報、マイクロホン532により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)が挙げられる。この他にも、モーションセンサ部580により取得した姿勢情報等などであってもよい。
 なお、上記各実施形態では、第1乃至第3の画素群を有する撮像素子20を例示したが、本発明はこれに限定されるものではなく、第1の画素群及び第2の画素群のみからなる撮像素子であってもよい。この種の撮像素子を有するデジタルカメラは、第1の画素群から出力された第1の画像及び第2の画素群から出力された第2の画像に基づいて3次元画像(3D画像)を生成することができるし、2次元画像(2D画像)も生成することができる。この場合、2次元画像の生成は、例えば第1の画像及び第2の画像の相互における同色の画素間において補間処理を行うことにより実現される。また、補間処理を行わずに、第1の画像又は第2の画像を2次元画像として採用してもよい。
 また、上記各実施形態では、第1乃至第3の画像が画像処理部28に入力された場合に通常画像とスプリットイメージとの双方を表示装置の動画面に同時に表示する態様を例示したが、本発明はこれに限定されるものではない。例えば、表示制御部36が、表示装置に対して通常画像の動画像としての連続した表示を抑止し、かつ、表示装置に対してスプリットイメージを動画像として連続して表示させる制御を行うようにしてもよい。ここで言う「通常画像の表示を抑止する」とは、例えば表示装置に対して通常画像を表示させないことを指す。具体的には、通常画像の生成は行うが、表示装置に通常画像を出力しないことにより表示装置に対して通常画像を表示させないことや通常画像を生成しないことにより表示装置に対して通常画像を表示させないことを指す。表示装置の画面(例えば、表示部213の表示領域)全体を利用してスプリットイメージを表示させても良いし、スプリットイメージの表示領域の全体を利用してスプリットイメージを表示させても良い。なお、ここで言う「スプリットイメージ」としては、特定の撮像素子を使用する場合において、位相差画素群から出力された画像(例えば第1の画素群から出力された第1の画像及び第2の画素群から出力された第2の画像)に基づくスプリットイメージが例示できる。「特定の撮像素子を使用する場合」としては、例えば位相差画素群(例えば、第1の画素群及び第2の画素群)のみからなる撮像素子を使用する場合が挙げられる。この他にも、通常画素に対して所定の割合で位相差画素(例えば第1の画素群及び第2の画素群)が配置された撮像素子を使用する場合が例示できる。
 また、通常画像の表示を抑止してスプリットイメージを表示させるための条件としては、様々な条件が考えられる。例えば、スプリットイメージの表示が指示されている状態において、通常画像の表示指示が解除された場合に、表示制御部36が表示装置に対して通常画像を表示させずにスプリットイメージを表示させる制御を行うようにしてもよい。また、例えば、ユーザがハイブリッドファインダー220を覗き込んだ場合に表示制御部36が表示装置に対して通常画像を表示させずにスプリットイメージを表示させる制御を行うようにしても良い。また、例えば、レリーズスイッチ211が半押し状態にされた場合に表示制御部36が表示装置に対して通常画像を表示させずにスプリットイメージを表示させる制御を行うようにしても良い。また、例えば、レリーズスイッチ211に対して押圧操作が行われていない場合に表示制御部36が表示装置に対して通常画像を表示させずにスプリットイメージを表示させる制御を行うようにしてもよい。また、例えば、被写体の顔オーバーシュートを検出する顔検出機能を働かせた場合に表示制御部36が表示装置に対して通常画像を表示させずにスプリットイメージを表示させる制御を行うようにしてもよい。なお、ここでは、表示制御部36が通常画像の表示を抑止する変形例を挙げたが、これに限らず、例えば、表示制御部36は、通常画像に全画面のスプリットイメージを上書きするように制御を行っても良い。
 また、上記各実施形態では、フォーカスレンズ302を含む撮像レンズ16を備えた撮像装置100またはスマートフォン500において、各装置が備えるCPU12または主制御部501が上述した撮影制御処理を行う場合について説明したが、これに限定されない。例えば、フォーカスレンズを含む撮像レンズを備えた撮像装置に対して、パーソナルコンピュータ、上記スマートフォン等の外部装置から遠隔操作を行うことにより、上述した撮影制御処理を行っても良い。
 また、上記各実施形態における撮影制御処理は、被写体像を合焦状態にする場合だけではなく、被写体像を合焦状態にしない、いわゆるピンぼけ状態にする場合に適用しても良い。
12 CPU
20 撮像素子
26 メモリ
28 画像処理部
30 通常処理部
32 スプリットイメージ処理部
36 表示制御部
38 報知制御部
100 撮像装置
213 表示部
217 振動部材
241 LCD

Claims (35)

  1.  フォーカスレンズを含む撮像レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子における第1の画素群から出力された画像信号に基づく第1の画像及び第2の画素群から出力された画像信号に基づく第2の画像に基づいて、前記第1の画像を予め定められた分割方向に分割して得られた複数の分割画像から選択される第1の分割画像、及び前記第2の画像を前記分割方向に分割して得られた複数の分割画像であって、前記第1の分割画像に対応する分割領域を表す分割画像を除いた分割画像から選択される第2の分割画像を配置した、合焦確認に使用する表示用画像を生成する生成部と、
     表示領域を有し、かつ当該表示領域の表面にタッチパネルが設けられた表示部と、
     前記表示部に対して前記生成部により生成された前記表示用画像を表示する制御を行う表示制御部と、
     前記表示部に前記表示用画像が表示された状態において、当該表示用画像上の前記第1の分割画像または前記第2の分割画像の選択操作が前記タッチパネルを介して行われたことを検出する第1検出部と、
     前記表示用画像に対して、前記分割方向と交差する交差方向への移動操作が前記タッチパネルを介して行われたことを検出する第2検出部と、
     前記第1検出部により前記選択操作が検出されたことに続いて、前記第2検出部により前記移動操作が検出された場合、前記フォーカスレンズを光軸方向に移動させる移動部に対して、前記フォーカスレンズを前記移動操作に応じて移動させる制御を行う合焦制御部と、
     を備えた画像処理装置。
  2.  前記生成部は、前記撮像素子から出力された画像信号に基づいて、撮像範囲の確認に使用する第2の表示用画像を更に生成し、
     前記表示制御部は、前記表示部に対して前記生成部により生成された前記第2の表示用画像を更に表示する制御を行う
     請求項1記載の画像処理装置。
  3.  前記撮像素子は、前記撮像レンズを透過した被写体像が瞳分割されずに結像されて第3の画像を出力する第3の画素群を更に有し、
     前記生成部は、前記第3の画素群から出力された前記第3の画像に基づいて前記第2の表示用画像を生成する
     請求項2記載の画像処理装置。
  4.  前記合焦制御部は、前記第1検出部により検出された選択操作が前記第1の分割画像の選択操作であるか前記第2の分割画像の選択操作であるかを判別する第1の判別と、前記第2検出部により検出された移動操作が前記交差方向に沿った第1の方向および第2の方向の何れの方向への移動操作であるかを判別する第2の判別を行い、前記第1の判別の結果と前記第2の判別の結果に基づいて前記フォーカスレンズの移動方向を決定し、前記フォーカスレンズを移動させる制御を前記移動部に対して行う
     請求項1乃至3の何れか1項記載の画像処理装置。
  5.  前記第1の画像は、右眼用画像であり、
     前記第2の画像は、左眼用画像であり、
     前記合焦制御部は、前記第1の判別の結果が前記右眼用画像の選択操作であり、かつ前記第2の判別の結果が前記表示部を観察する操作者から見て右方向への移動操作であった場合、合焦位置が現在の合焦位置よりも前記撮像素子に近付く方向に前記フォーカスレンズを移動させ、前記第1の判別の結果が前記右眼用画像の選択操作であり、かつ前記第2の判別の結果が前記表示部を観察する操作者から見て前記左方向への移動操作であった場合、合焦位置が現在の合焦位置よりも前記撮像素子から遠ざかる方向に前記フォーカスレンズを移動させる制御を前記移動部に対して行う
     請求項4記載の画像処理装置。
  6.  前記第1の画像は、右眼用画像であり、
     前記第2の画像は、左眼用画像であり、
     前記合焦制御部は、前記第1の判別の結果が前記左眼用画像の選択操作であり、かつ前記第2の判別の結果が前記表示部を観察する操作者から見て右方向への移動操作であった場合、合焦位置が現在の合焦位置よりも前記撮像素子から遠ざかる方向に前記フォーカスレンズを移動させ、前記第1の判別の結果が前記左眼用画像の選択操作であり、かつ前記第2の判別の結果が前記表示部を観察する操作者から見て左方向への移動操作であった場合、合焦位置が現在の合焦位置よりも前記撮像素子に近付く方向に前記フォーカスレンズを移動させる制御を前記移動部に対して行う
     請求項4記載の画像処理装置。
  7.  前記第1の分割画像及び前記第2の分割画像は、前記表示用画像内において前記分割方向に隣接して配置され、前記第1の分割画像と前記第2の分割画像との境界線を通過する移動操作が前記タッチパネルを介して行われたことを検出する第3検出部を更に備え、
     前記合焦制御部は、前記第1検出部により前記選択操作が検出されたことに続いて、前記第2検出部及び前記第3検出部により移動操作が検出された場合、前記フォーカスレンズを前記移動操作に応じて移動させる制御を前記移動部に対して行う
     請求項1乃至3の何れか1項記載の画像処理装置。
  8.  前記合焦制御部は、
    前記境界線に対する前記第1の分割画像及び前記第2の分割画像の少なくとも一方の位置を判別する第3の判別と、
     前記第2検出部により検出された移動操作が前記交差方向に沿った第1の方向および第2の方向の何れの方向への移動操作であるかを判別する第4の判別と、
     前記第3検出部により検出された移動操作が前記分割方向に沿った第3の方向および第4の方向の何れの方向への移動操作であるかを判別する第5の判別と、を行い、
     前記第3の判別の結果と前記第4の判別の結果と前記第5の判別の結果とに基づいて前記フォーカスレンズの移動方向を決定し、前記フォーカスレンズを移動させる制御を前記移動部に対して行う
     請求項7記載の画像処理装置。
  9.  前記第1の画像は、右眼用画像であり、
     前記第2の画像は、左眼用画像であり、
     前記第3の判別の結果、前記第2の分割画像の位置が、前記表示部を観察する操作者から見て前記境界線の上側にあると判別された場合、
     前記合焦制御部は、
     前記第2検出部による移動操作の検出に続いて前記第3検出部により移動操作が検出され、かつ、前記第4の判別の結果が前記表示部を観察する操作者から見て右方向への移動操作及び前記第5の判別の結果が前記表示部を観察する操作者から見て下方向への移動操作であった場合、
     前記第2検出部による移動操作の検出に続いて前記第3検出部により移動操作が検出され、かつ、前記第4の判別の結果が前記表示部を観察する操作者から見て左方向への移動操作及び前記第5の判別の結果が前記表示部を観察する操作者から見て上方向への移動操作であった場合、
     前記第3検出部による移動操作の検出に続いて前記第2検出部により移動操作が検出され、かつ、前記第4の判別の結果が前記左方向への移動操作及び前記第5の判別の結果が前記下方向への移動操作であった場合、
     及び前記第3検出部による移動操作の検出に続いて前記第2検出部により移動操作が検出され、かつ、前記第4の判別の結果が前記右方向への移動操作及び前記第5の判別の結果が前記上方向への移動操作であった場合、
     の何れかの場合に、合焦位置が現在の合焦位置よりも前記撮像素子から遠ざかる方向に前記フォーカスレンズを移動させる制御を前記移動部に対して行う
     請求項8記載の画像処理装置。
  10.  前記第1の画像は、右眼用画像であり、
     前記第2の画像は、左眼用画像であり、
     前記第3の判別の結果、前記第2の分割画像の位置が、前記表示部を観察する操作者から見て前記境界線の上側にあると判別された場合、
     前記合焦制御部は、
     前記第2検出部による移動操作の検出に続いて前記第3検出部により移動操作が検出され、かつ、前記第4の判別の結果が前記表示部を観察する操作者から見て左方向への移動操作及び前記第5の判別の結果が前記表示部を観察する操作者から見て下方向への移動操作であった場合、
     前記第2検出部による移動操作の検出に続いて前記第3検出部により移動操作が検出され、かつ、前記第4の判別の結果が前記表示部を観察する操作者から見て右方向への移動操作及び前記第5の判別の結果が前記表示部を観察する操作者から見て上方向への移動操作であった場合、
     前記第3検出部による移動操作の検出に続いて前記第2検出部により移動操作が検出され、かつ、前記第4の判別の結果が前記左方向への移動操作及び前記第5の判別の結果が前記上方向への移動操作であった場合、
     及び前記第3検出部による移動操作の検出に続いて前記第2検出部により移動操作が検出され、かつ、前記第4の判別の結果が前記右方向への移動操作及び前記第5の判別の結果が前記下方向への移動操作であった場合、
     の何れかの場合に、合焦位置が現在の合焦位置よりも前記撮像素子に近付く方向に前記フォーカスレンズを移動させる制御を前記移動部に対して行う
     請求項8記載の画像処理装置。
  11.  前記第1の画像は、右眼用画像であり、
     前記第2の画像は、左眼用画像であり、
     前記第3の判別の結果、前記第1の分割画像の位置が、前記表示部を観察する操作者から見て前記境界線の上側にあると判別された場合、
     前記合焦制御部は、
     前記第2検出部による移動操作の検出に続いて前記第3検出部により移動操作が検出され、かつ、前記第4の判別の結果が前記表示部を観察する操作者から見て右方向への移動操作及び前記第5の判別の結果が前記表示部を観察する操作者から見て下方向への移動操作であった場合、
     前記第2検出部による移動操作の検出に続いて前記第3検出部により移動操作が検出され、かつ、前記第4の判別の結果が前記表示部を観察する操作者から見て左方向への移動操作及び前記第5の判別の結果が前記表示部を観察する操作者から見て上方向への移動操作であった場合、
     前記第3検出部による移動操作の検出に続いて前記第2検出部により移動操作が検出され、かつ、前記第4の判別の結果が前記左方向への移動操作及び前記第5の判別の結果が前記下方向への移動操作であった場合、
     及び前記第3検出部による移動操作の検出に続いて前記第2検出部により移動操作が検出され、かつ、前記第4の判別の結果が前記右方向への移動操作及び前記第5の判別の結果が前記上方向への移動操作であった場合、
     の何れかの場合に、合焦位置が現在の合焦位置よりも前記撮像素子に近付く方向に前記フォーカスレンズを移動させる制御を前記移動部に対して行う請求項8記載の画像処理装置。
  12.  前記第1の画像は、右眼用画像であり、
     前記第2の画像は、左眼用画像であり、
     前記第3の判別の結果、前記第1の分割画像の位置が、前記表示部を観察する操作者から見て前記境界線の上側にあると判別された場合、
     前記合焦制御部は、
     前記第2検出部による移動操作の検出に続いて前記第3検出部により移動操作が検出され、かつ、前記第4の判別の結果が前記表示部を観察する操作者から見て左方向への移動操作及び前記第5の判別の結果が前記表示部を観察する操作者から見て下方向への移動操作であった場合、
     前記第2検出部による移動操作の検出に続いて前記第3検出部により移動操作が検出され、かつ、前記第4の判別の結果が前記表示部を観察する操作者から見て右方向への移動操作及び前記第5の判別の結果が前記表示部を観察する操作者から見て上方向への移動操作であった場合、
     前記第3検出部による移動操作の検出に続いて前記第2検出部により移動操作が検出され、かつ、前記第4の判別の結果が前記左方向への移動操作及び前記第5の判別の結果が前記上方向への移動操作であった場合、
     及び前記第3検出部による移動操作の検出に続いて前記第2検出部により移動操作が検出され、かつ、前記第4の判別の結果が前記右方向への移動操作及び前記第5の判別の結果が前記下方向への移動操作であった場合、
     の何れかの場合に、合焦位置が現在の合焦位置よりも前記撮像素子から遠ざかる方向に前記フォーカスレンズを移動させる制御を前記移動部に対して行う
     請求項8記載の画像処理装置。
  13.  前記合焦制御部は、前記第1検出部により検出された選択操作が前記第1の分割画像及び第2の分割画像の双方の選択操作であり、かつ前記第2検出部により検出された移動操作が前記第1の分割画像及び前記第2の分割画像の各々において前記交差方向に沿って互いに異なる方向であった場合、前記第1の分割画像の移動操作及び第2の分割画像の移動操作の各々の移動方向に基づいて前記フォーカスレンズの移動方向を決定し、前記フォーカスレンズを移動させる制御を前記移動部に対して行う
     請求項1乃至3の何れか1項記載の画像処理装置。
  14.  前記第1の画像は、右眼用画像であり、
     前記第2の画像は、左眼用画像であり、
     前記合焦制御部は、前記第1検出部により検出された選択操作が前記第1の分割画像及び第2の分割画像の双方の選択操作であり、かつ前記第2検出部により検出された前記右眼用画像の移動操作が、前記交差方向に沿った方向かつ前記表示部を観察する操作者から見て右方向への移動操作であり、かつ前記第2検出部により検出された前記左眼用画像の移動操作が、前記交差方向に沿った方向かつ前記表示部を観察する操作者から見て左方向への移動操作であった場合、合焦位置が現在の合焦位置よりも前記撮像素子に近付く方向に前記フォーカスレンズを移動させ、前記第1検出部により検出された選択操作が前記第1の分割画像及び第2の分割画像の双方の選択操作であり、かつ前記第2検出部により検出された前記右眼用画像の移動操作が前記左方向への移動操作であり、かつ前記第2検出部により検出された前記左眼用画像の移動操作が前記右方向への移動操作であった場合、合焦位置が現在の合焦位置よりも前記撮像素子から遠ざかる方向に前記フォーカスレンズを移動させる制御を前記移動部に対して行う
     請求項13記載の画像処理装置。
  15.  前記合焦制御部は、前記第2検出部により検出された移動操作における前記タッチパネルに対する接触操作が継続されている間、前記フォーカスレンズを前記接触操作における接触位置の移動に応じて前記光軸方向に移動させる制御を前記移動部に対して行う
     請求項1乃至14の何れか1項記載の画像処理装置。
  16.  前記合焦制御部は、前記フォーカスレンズを前記光軸方向における当該移動操作に応じた移動方向に継続的に移動させる制御を前記移動部に対して行う
     請求項1乃至14の何れか1項記載の画像処理装置。
  17.  前記合焦制御部は、前記移動操作における操作速度に応じた移動速度によって前記フォーカスレンズを移動させる制御を前記移動部に対して行う
     請求項1乃至16の何れか1項記載の画像処理装置。
  18.  前記合焦制御部は、前記移動操作における操作移動量に応じた移動量によって前記フォーカスレンズを移動させる制御を前記移動部に対して行う
     請求項1乃至16の何れか1項記載の画像処理装置。
  19.  前記合焦制御部は、前記操作速度が予め定められた第1閾値未満であった場合、前記移動部に対して前記フォーカスレンズを移動させる制御を行わない
     請求項17記載の画像処理装置。
  20.  前記移動部により前記フォーカスレンズが移動されている状態において、前記タッチパネルに対する選択操作が一旦解除された後、前記表示領域の何れかの位置における接触操作が前記タッチパネルを介して行われたことを検出する第4検出部を更に備え、
     前記合焦制御部は、前記第4検出部により前記接触操作が検出された場合、前記フォーカスレンズの移動を停止させる制御を前記移動部に対して行う
     請求項16記載の画像処理装置。
  21.  前記合焦制御部は、前記フォーカスレンズの移動を開始させた後、当該移動に伴って当該フォーカスレンズの移動速度を減速させて当該フォーカスレンズを停止させる制御を前記移動部に対して行う
     請求項16記載の画像処理装置。
  22.  前記合焦制御部は、前記第2検出部により検出された前記移動操作における移動時間が予め定められた第2閾値以上であった場合、前記第2検出部により検出された移動操作における前記タッチパネルに対する接触操作が継続されている間、前記フォーカスレンズを前記接触操作における接触位置に応じて前記光軸方向に移動させる制御を前記移動部に対して行い、前記移動時間が前記第2閾値未満であった場合、前記フォーカスレンズを前記光軸方向における当該接触位置に応じた移動方向に継続的に移動させる制御を前記移動部に対して行う
     請求項1乃至14の何れか1項記載の画像処理装置。
  23.  前記合焦制御部により前記フォーカスレンズが移動されている状態において、前記表示用画像の合焦状況を検出する第5検出部を更に備え、
     前記合焦制御部は、前記第5検出部により合焦していることが検出された場合、前記フォーカスレンズの移動を停止させる制御を前記移動部に対して行う
     請求項1乃至22の何れか1項記載の画像処理装置。
  24.  前記合焦制御部により前記フォーカスレンズが移動されている状態において、前記表示用画像の合焦状況を検出する第5検出部と、
     前記第5検出部により合焦していることが検出された場合、合焦していることを報知する報知部と、
     を更に備えた
     請求項1乃至23の何れか1項記載の画像処理装置。
  25.  前記報知部は、前記タッチパネルに対する接触操作が行われている部位を振動させることにより、合焦していることを報知する
     請求項24記載の画像処理装置。
  26.  前記第5検出部は、前記表示用画像のコントラストに基づいて前記表示用画像の合焦状況を検出する
     請求項23乃至25の何れか1項記載の画像処理装置。
  27.  前記第5検出部は、前記表示用画像内の前記第1の分割画像と前記第2の分割画像との位相差に基づいて前記表示用画像の合焦状況を検出する
     請求項23乃至26の何れか1項記載の画像処理装置。
  28.  前記第1の分割画像及び前記第2の分割画像は、前記表示用画像内において前記分割方向に隣接して配置され、
     前記第1の分割画像と前記第2の分割画像との境界線を通過する移動操作が前記タッチパネルを介して行われたことを検出する第3検出部を備え、
     前記表示制御部は、前記第2検出部による移動操作の検出と非連続で前記第3検出部が移動操作を検出した場合は、前記第3検出部によって検出した移動操作の操作方向に応じて前記表示用画像を拡大または縮小する制御を行う
     請求項1乃至6又は13の何れか1項記載の画像処理装置。
  29.  前記第1の分割画像及び前記第2の分割画像は、前記表示用画像内において前記分割方向に隣接して配置され、
     前記第1の分割画像と前記第2の分割画像との境界線を通過する移動操作が前記タッチパネルを介して行われたことを検出する第3検出部を備え、
     前記表示制御部は、前記第2検出部による移動操作の検出と非連続で前記第3検出部が移動操作を検出した場合は、
     前記第3検出部が前記タッチパネルに対する接触操作の接触位置を2点検出すると共に2点の接触位置が離れる方向の移動操作を検出した場合は、前記表示制御部は、前記表示用画像を拡大する制御を行い、
     前記第3検出部が前記タッチパネルに対する接触操作の接触位置を2点検出すると共に2点の接触位置が近付く方向の移動操作を検出した場合は、前記表示制御部は、前記表示用画像を縮小する制御を行う
     請求項1乃至6又は13の何れか1項記載の画像処理装置。
  30.  前記表示制御部は、前記表示用画像を拡大する制御に伴い、前記表示用画像の大きさが前記表示領域全体の大きさと等しくなった場合は、前記表示用画像を拡大する制御を停止する
     請求項28または29記載の画像処理装置。
  31.  前記表示制御部は、前記表示用画像を拡大する制御に伴い、前記表示用画像の大きさが前記表示領域全域よりも大きくなった場合は、前記表示用画像の一部分を前記表示領域に表示させる制御を行う
     請求項28または29記載の画像処理装置。
  32.  前記表示制御部は、前記表示用画像の拡大後に前記表示用画像を縮小する場合において、前記表示用画像の大きさが拡大前の前記表示用画像の大きさとなった場合に、前記表示用画像を縮小する制御を停止する
     請求項28乃至30の何れか1項記載の画像処理装置。
  33.  請求項1乃至32の何れか1項記載の画像処理装置と、
     前記撮像レンズと、
     前記第1及び第2の画素群を有する撮像素子と、
     前記撮像素子から出力された画像信号に基づいて生成された画像を記憶する記憶部と、
     を含む撮像装置。
  34.  コンピュータを、
     フォーカスレンズを含む撮像レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子における第1の画素群から出力された画像信号に基づく第1の画像及び第2の画素群から出力された画像信号に基づく第2の画像に基づいて、前記第1の画像を予め定められた分割方向に分割して得られた複数の分割画像から選択される第1の分割画像、及び前記第2の画像を前記分割方向に分割して得られた複数の分割画像であって、前記第1の分割画像に対応する分割領域を表す分割画像を除いた分割画像から選択される第2の分割画像を配置した、合焦確認に使用する表示用画像を生成する生成部と、
     表示領域を有し、かつ当該表示領域の表面にタッチパネルが設けられた表示部に対して前記生成部により生成された前記表示用画像を表示する制御を行う表示制御部と、
     前記表示部に前記表示用画像が表示された状態において、当該表示用画像上の前記第1の分割画像または前記第2の分割画像の選択操作が前記タッチパネルを介して行われたことを検出する第1検出部と、
     前記表示用画像に対して、前記分割方向と交差する交差方向への移動操作が前記タッチパネルを介して行われたことを検出する第2検出部と、
     前記第1検出部により前記選択操作が検出されたことに続いて、前記第2検出部により前記移動操作が検出された場合、前記フォーカスレンズを光軸方向に移動させる移動部に対して、前記フォーカスレンズを前記移動操作に応じて移動させる制御を行う合焦制御部と、
     として機能させるためのプログラム。
  35.  フォーカスレンズを含む撮像レンズにおける第1及び第2の領域を通過した被写体像が瞳分割されてそれぞれ結像される第1及び第2の画素群を有する撮像素子における第1の画素群から出力された画像信号に基づく第1の画像及び第2の画素群から出力された画像信号に基づく第2の画像に基づいて、前記第1の画像を予め定められた分割方向に分割して得られた複数の分割画像から選択される第1の分割画像、及び前記第2の画像を前記分割方向に分割して得られた複数の分割画像であって、前記第1の分割画像に対応する分割領域を表す分割画像を除いた分割画像から選択される第2の分割画像を配置した、合焦確認に使用する表示用画像を生成する生成ステップと、
     表示領域を有し、かつ当該表示領域の表面にタッチパネルが設けられた表示部に対して前記生成ステップにより生成された前記表示用画像を表示する制御を行う表示制御ステップと、
     前記表示部に前記表示用画像が表示された状態において、当該表示用画像上の前記第1の分割画像または前記第2の分割画像の選択操作が前記タッチパネルを介して行われたことを検出する第1検出ステップと、
     前記表示用画像に対して、前記分割方向と交差する交差方向への移動操作が前記タッチパネルを介して行われたことを検出する第2検出ステップと、
     前記第1検出ステップにより前記選択操作が検出されたことに続いて、前記第2検出ステップにより前記移動操作が検出された場合、前記フォーカスレンズを光軸方向に移動させる移動部に対して、前記フォーカスレンズを前記移動操作に応じて移動させる制御を行う合焦制御ステップと、
     を備えた画像処理方法。
PCT/JP2014/058407 2013-03-29 2014-03-26 画像処理装置、撮像装置、プログラム及び画像処理方法 WO2014157270A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015508570A JP5981026B2 (ja) 2013-03-29 2014-03-26 画像処理装置、撮像装置、プログラム及び画像処理方法
CN201480010818.XA CN105026976B (zh) 2013-03-29 2014-03-26 图像处理装置、摄像装置及图像处理方法
US14/844,776 US9456129B2 (en) 2013-03-29 2015-09-03 Image processing device, imaging device, program, and image processing method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013074278 2013-03-29
JP2013-074278 2013-03-29
JP2013-174876 2013-08-26
JP2013174876 2013-08-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/844,776 Continuation US9456129B2 (en) 2013-03-29 2015-09-03 Image processing device, imaging device, program, and image processing method

Publications (1)

Publication Number Publication Date
WO2014157270A1 true WO2014157270A1 (ja) 2014-10-02

Family

ID=51624236

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/058407 WO2014157270A1 (ja) 2013-03-29 2014-03-26 画像処理装置、撮像装置、プログラム及び画像処理方法

Country Status (4)

Country Link
US (1) US9456129B2 (ja)
JP (1) JP5981026B2 (ja)
CN (1) CN105026976B (ja)
WO (1) WO2014157270A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019188035A1 (ja) * 2018-03-28 2019-10-03 ソニー株式会社 撮像装置及び撮像装置における通知制御方法、並びに情報処理装置

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5767755B2 (ja) * 2012-11-05 2015-08-19 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6231869B2 (ja) * 2013-12-12 2017-11-15 キヤノン株式会社 撮像装置、通信機器およびそれらの制御方法、プログラム
WO2015097892A1 (ja) 2013-12-27 2015-07-02 パイオニア株式会社 端末装置、キャリブレーション方法及びキャリブレーションプログラム
JP6587380B2 (ja) 2014-09-12 2019-10-09 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラム、記憶媒体
JP6822473B2 (ja) * 2016-06-28 2021-01-27 株式会社ニコン 表示装置
US10387477B2 (en) * 2017-05-30 2019-08-20 Qualcomm Incorporated Calibration for phase detection auto focus (PDAF) camera systems
CN107390685B (zh) * 2017-07-14 2020-10-16 深圳市优必选科技有限公司 一种机器人的回充控制方法、机器人及机器人系统
JP6971696B2 (ja) * 2017-08-04 2021-11-24 キヤノン株式会社 電子機器およびその制御方法
JP7158841B2 (ja) * 2017-11-08 2022-10-24 キヤノン株式会社 撮像装置、撮像方法、プログラム、記録媒体および画像処理装置
TWI632527B (zh) * 2017-11-22 2018-08-11 東友科技股份有限公司 影像擷取與輸出方法
US10735640B2 (en) * 2018-02-08 2020-08-04 Facebook Technologies, Llc Systems and methods for enhanced optical sensor devices
JP7049163B2 (ja) * 2018-04-09 2022-04-06 キヤノン株式会社 電子機器およびその制御方法、プログラム並びに記憶媒体
JP2020020991A (ja) * 2018-08-02 2020-02-06 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 制御装置、方法およびプログラム
CN109862243B (zh) * 2019-01-31 2020-10-09 维沃移动通信有限公司 终端设备及终端设备的控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007079929A (ja) * 2005-09-14 2007-03-29 Make Softwear:Kk 写真シール作成装置、写真シール作成装置の制御方法及び写真シール作成装置の制御プログラム。
JP2009237214A (ja) * 2008-03-27 2009-10-15 Canon Inc 撮像装置
JP2009276426A (ja) * 2008-05-13 2009-11-26 Canon Inc 撮像装置
JP2012173531A (ja) * 2011-02-22 2012-09-10 Sony Corp 撮像装置、およびフォーカス制御方法、並びにプログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5950671A (ja) * 1982-09-16 1984-03-23 Olympus Optical Co Ltd テレビジヨンカメラ等の焦点情報表示方法
US7099575B2 (en) * 2002-07-08 2006-08-29 Fuji Photo Film Co., Ltd. Manual focus device and autofocus camera
JP2004191629A (ja) * 2002-12-11 2004-07-08 Canon Inc 焦点検出装置
JP4182117B2 (ja) * 2006-05-10 2008-11-19 キヤノン株式会社 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP5043626B2 (ja) * 2007-12-13 2012-10-10 キヤノン株式会社 撮像装置
US8279318B2 (en) * 2007-12-14 2012-10-02 Canon Kabushiki Kaisha Image pickup apparatus and display control method for the same
JP4868075B2 (ja) * 2009-10-09 2012-02-01 株式会社ニコン 撮像装置
JP2011119930A (ja) * 2009-12-02 2011-06-16 Seiko Epson Corp 撮像装置、撮像方法および撮像プログラム
JP2011151728A (ja) 2010-01-25 2011-08-04 Canon Inc 撮像装置及びその制御方法
JP5459031B2 (ja) * 2010-04-13 2014-04-02 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US8588600B2 (en) * 2010-07-27 2013-11-19 Texas Instruments Incorporated Stereoscopic auto-focus based on coordinated lens positions
KR101662726B1 (ko) 2010-12-29 2016-10-14 삼성전자주식회사 전자 기기의 스크롤 방법 및 장치
JP5848561B2 (ja) * 2011-09-20 2016-01-27 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体
WO2013179899A1 (ja) * 2012-06-01 2013-12-05 富士フイルム株式会社 撮像装置
WO2013183406A1 (ja) * 2012-06-07 2013-12-12 富士フイルム株式会社 撮像装置及び画像表示方法
WO2014046036A1 (ja) * 2012-09-19 2014-03-27 富士フイルム株式会社 撮像装置及びその制御方法
JP5926391B2 (ja) * 2012-09-19 2016-05-25 富士フイルム株式会社 撮像装置及び合焦確認表示方法
JP5901781B2 (ja) * 2012-09-19 2016-04-13 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
WO2014046039A1 (ja) * 2012-09-19 2014-03-27 富士フイルム株式会社 撮像装置及び合焦確認表示方法
WO2014045740A1 (ja) * 2012-09-19 2014-03-27 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
WO2014045689A1 (ja) * 2012-09-19 2014-03-27 富士フイルム株式会社 画像処理装置、撮像装置、プログラム及び画像処理方法
JP5937690B2 (ja) * 2012-09-19 2016-06-22 富士フイルム株式会社 撮像装置及びその制御方法
JP5960286B2 (ja) * 2012-12-19 2016-08-02 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP5889441B2 (ja) * 2013-01-04 2016-03-22 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP5901801B2 (ja) * 2013-01-04 2016-04-13 富士フイルム株式会社 画像処理装置、撮像装置、プログラム及び画像処理方法
CN105075235B (zh) * 2013-03-27 2018-07-06 富士胶片株式会社 图像处理装置、摄像装置以及图像处理方法
WO2014155813A1 (ja) * 2013-03-29 2014-10-02 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007079929A (ja) * 2005-09-14 2007-03-29 Make Softwear:Kk 写真シール作成装置、写真シール作成装置の制御方法及び写真シール作成装置の制御プログラム。
JP2009237214A (ja) * 2008-03-27 2009-10-15 Canon Inc 撮像装置
JP2009276426A (ja) * 2008-05-13 2009-11-26 Canon Inc 撮像装置
JP2012173531A (ja) * 2011-02-22 2012-09-10 Sony Corp 撮像装置、およびフォーカス制御方法、並びにプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019188035A1 (ja) * 2018-03-28 2019-10-03 ソニー株式会社 撮像装置及び撮像装置における通知制御方法、並びに情報処理装置

Also Published As

Publication number Publication date
CN105026976B (zh) 2017-05-03
US20150381883A1 (en) 2015-12-31
US9456129B2 (en) 2016-09-27
CN105026976A (zh) 2015-11-04
JP5981026B2 (ja) 2016-08-31
JPWO2014157270A1 (ja) 2017-02-16

Similar Documents

Publication Publication Date Title
JP5981026B2 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
KR102145542B1 (ko) 촬영 장치, 복수의 촬영 장치를 이용하여 촬영하는 촬영 시스템 및 그 촬영 방법
JP5931206B2 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
JP5901801B2 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
JP5960286B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP6302564B2 (ja) 動画編集装置、動画編集方法及び動画編集プログラム
JP5833254B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP5955417B2 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
JP6222951B2 (ja) 撮像装置、撮像システム及び撮像方法
JP2012015619A (ja) 立体表示装置及び立体撮影装置
US10015405B2 (en) Image processing device, imaging device, image processing method, and image processing program
CN107295247B (zh) 图像记录装置及其控制方法
JP6257255B2 (ja) 表示制御装置及び表示制御装置の制御方法
JP5934844B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP7389662B2 (ja) 撮像装置、制御方法、プログラムならびに記憶媒体
US20230281768A1 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
JP6301002B2 (ja) 表示制御装置及び表示制御装置の制御方法
JP2022183845A (ja) 情報処理装置、制御方法、プログラム、および記憶媒体
JP2016015602A (ja) 撮像装置、その制御方法及びプログラム並びに記録媒体
JP2023117615A (ja) 電子機器、電子機器の制御方法、プログラム、および記憶媒体
JP2022184712A (ja) 情報処理装置、撮像装置、制御方法、プログラム、および記憶媒体
JP2022183846A (ja) 電子機器及びその制御方法及びプログラム及び記録媒体
JP2022183656A (ja) 電子機器、制御方法、プログラム、および記憶媒体
WO2014045741A1 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
JP2019197557A (ja) 表示制御装置及び表示制御装置の制御方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480010818.X

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14773408

Country of ref document: EP

Kind code of ref document: A1

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
ENP Entry into the national phase

Ref document number: 2015508570

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14773408

Country of ref document: EP

Kind code of ref document: A1