WO2016080081A1 - 撮像装置、撮像方法及びプログラム - Google Patents

撮像装置、撮像方法及びプログラム Download PDF

Info

Publication number
WO2016080081A1
WO2016080081A1 PCT/JP2015/077674 JP2015077674W WO2016080081A1 WO 2016080081 A1 WO2016080081 A1 WO 2016080081A1 JP 2015077674 W JP2015077674 W JP 2015077674W WO 2016080081 A1 WO2016080081 A1 WO 2016080081A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
optical system
captured
state
optical
Prior art date
Application number
PCT/JP2015/077674
Other languages
English (en)
French (fr)
Inventor
小野 修司
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2016560102A priority Critical patent/JP6291595B2/ja
Priority to CN201580061053.7A priority patent/CN107005627B/zh
Priority to EP15860231.8A priority patent/EP3223505B1/en
Publication of WO2016080081A1 publication Critical patent/WO2016080081A1/ja
Priority to US15/498,405 priority patent/US10038856B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/07Roll-film cameras having more than one objective
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits

Definitions

  • the present invention relates to an image pickup apparatus, an image pickup method, and a program for shooting using a plurality of types of optical systems having different optical characteristics, and in particular, the image quality of a shot image that can be deteriorated due to interference (crosstalk) of shooting light between the optical systems.
  • a program for shooting using a plurality of types of optical systems having different optical characteristics and in particular, the image quality of a shot image that can be deteriorated due to interference (crosstalk) of shooting light between the optical systems.
  • crosstalk interference
  • Patent Document 1 discloses an imaging device in which a variety of lenses having various optical characteristics and a directional sensor are combined. According to this imaging apparatus, it is possible to acquire a plurality of captured images in which at least one of the focal length and the focusing distance is different by using pupil division.
  • photographing light interferes (crosstalk) between lenses (optical systems) having different optical characteristics, and the image is intended on the originally intended image.
  • image components that have not been superimposed may be superimposed.
  • various lenses include a wide-angle lens and a telephoto lens
  • the wide-angle image component and the telephoto image component are mixed, and as a result, the telephoto image overlaps the wide-angle image, or the wide-angle image overlaps the telephoto image. .
  • the imaging apparatus disclosed in Patent Document 3 performs interference processing by performing image processing according to the optical characteristics of each lens. Has been reduced.
  • the interference component in the image captured by the imaging device in which the various lenses and the directivity sensor are combined can be reduced by image processing.
  • the various lenses and the directional sensor, and other shooting conditions it may be difficult to effectively remove such interference components from the image.
  • a new technique for reducing the influence of the interference of the photographing light between the optical systems is proposed from a viewpoint different from the conventional technique.
  • a proposal for a new image quality improvement technique with a configuration is desired.
  • the present invention has been made in view of the above circumstances, and an imaging method capable of acquiring a high-quality image by reducing the influence of imaging light interference between optical systems with a simple processing configuration and its application.
  • the purpose is to provide technology.
  • One aspect of the present invention is a first optical system and a second optical system having a common optical axis, the first optical system and the second optical system having mutually different focal lengths,
  • An image sensor including a first sensor group that selectively receives light that has passed through one optical system, and a second sensor group that selectively receives light that has passed through the second optical system, and an output from the first sensor group
  • An image generating unit that generates a first generated image based on the first captured image and generates a second generated image based on the second captured image output from the second sensor group.
  • a first generation image is generated by combining, and the optical axis of the second optical system is different It aligns the plurality of second captured image to be Oite imaging, an imaging apparatus for generating a second generated image by combining a plurality of second captured image in alignment.
  • the first generated image is generated by combining the plurality of aligned first captured images. Therefore, even if an interference image due to light that has passed through the second optical system is included in the first captured image, the influence of such interference image is reduced in the first generated image, and due to the light that has passed through the first optical system. The sharpness of the desired image can be improved.
  • the second generated image is generated by synthesizing the plurality of aligned second captured images, the influence of the interference image due to the light passing through the first optical system is weakened in the second generated image, The sharpness of the desired image by the light that has passed through the second optical system can be improved.
  • the optical processing is performed with a simple processing configuration.
  • a high-quality image can be acquired by reducing the influence of interference of photographing light between systems.
  • the plurality of first captured images are captured in a state where the directions of the optical axes of the first optical system are different and output from the first sensor group, and the plurality of second captured images are the optical axes of the second optical system. Are captured and output from the second sensor group.
  • the relative position between the desired image by the light that has passed through the first optical system and the interference image by the light that has passed through the second optical system can be changed between the plurality of first captured images. It is possible to effectively weaken the influence of the interference image in the generated image. Similarly, the relative position of the desired image by the light that has passed through the second optical system and the interference image by the light that has passed through the first optical system can be changed between the plurality of second captured images. The influence of the interference image can be effectively reduced.
  • the plurality of first captured images are captured and output from the first sensor group in a state where the relative positions of the optical axes of the first optical system with respect to the subject are different, and the plurality of second captured images are the second captured image with respect to the subject. Images are taken and output from the second sensor group in a state where the relative positions of the optical axes of the optical system are different.
  • the relative position of the desired image by the light that has passed through the first optical system and the interference image by the light that has passed through the second optical system can be changed between the plurality of first captured images. It is possible to effectively weaken the influence of the interference image in the generated image. Similarly, the relative position of the desired image by the light that has passed through the second optical system and the interference image by the light that has passed through the first optical system can be changed between the plurality of second captured images. The influence of the interference image can be effectively reduced.
  • the image composition unit aligns the plurality of first captured images based on the state of the optical axis of the first optical system and the focal length of the first optical system, and the state of the optical axis of the second optical system. And based on the focal distance of a 2nd optical system, position alignment of several 2nd picked-up image is performed.
  • the method by which the image composition unit acquires the focal length of the first optical system and the focal length of the second optical system is not particularly limited.
  • the image composition unit performs the focal length of the first optical system and the second optical system each time the photographing optical system is exchanged. It is preferable to obtain the focal length.
  • the photographing optical system the first optical system and the second optical system
  • the image composition unit stores and holds the focal length of the first optical system and the focal length of the second optical system in advance. Also good.
  • the image composition unit may acquire the focal length of the first optical system from data associated with the first captured image, or may acquire the focal length of the second optical system from data associated with the second captured image. Also good.
  • the image composition unit analyzes the plurality of first photographed images to acquire the position of the first reference image part in each of the plurality of first photographed images, and based on the position of the first reference image part, The first photographed image is aligned, the plurality of second photographed images are analyzed, the position of the second reference image portion in each of the plurality of second photographed images is acquired, and based on the position of the second reference image portion. A plurality of second captured images are aligned.
  • the image composition unit adds the data of the plurality of first captured images that have been aligned and calculates the average of the data after the addition, thereby synthesizing the plurality of first captured images and performing alignment.
  • the plurality of second photographed images are synthesized.
  • a plurality of first photographed images and a plurality of second photographed images can be synthesized by the averaging process.
  • the image composition unit calculates a plurality of weighted averages of the data of the plurality of first captured images based on weights determined according to the state of the optical axis of the first optical system at the time of imaging.
  • the image composition unit calculates a plurality of weighted averages of the data of the plurality of first captured images based on weights determined according to the state of the optical axis of the first optical system at the time of imaging.
  • a plurality of first captured images and a plurality of second captured images can be combined by weighted average calculation processing.
  • the weight determined according to the state of the optical axis of the first optical system is determined by a Gaussian distribution based on the state of the optical axis of the first optical system, and determined according to the state of the optical axis of the second optical system.
  • the weight to be given is determined by a Gaussian distribution based on the state of the optical axis of the second optical system.
  • a plurality of first photographed images and a plurality of second photographed images can be synthesized by a weighted average calculation process using a weight determined by a Gaussian distribution based on the state of the optical axis.
  • the interference image in the first generated image and the second generated image can be smoothly blurred.
  • the plurality of first captured images are imaged more densely as the optical axis of the first optical system is closer to the reference state, and are imaged more sparsely and output from the first sensor group as the distance from the reference state is larger.
  • the second captured image is imaged more densely as the optical axis of the second optical system is closer to the reference state, and is imaged more sparsely as the optical axis of the second optical system is away from the reference state, and is output from the second sensor group.
  • the distribution density of the plurality of first photographed images is changed according to the relationship between the optical axis state of the first optical system and the reference state, and the interference image is effectively blurred in the first generated image.
  • the distribution density of the plurality of second photographed images is changed according to the relationship between the optical axis state of the second optical system and the reference state, and the interference image can be effectively blurred in the second generated image.
  • the distribution density of the state of the optical axis of the first optical system when capturing a plurality of first captured images is determined based on a Gaussian distribution, and the second optical when capturing a plurality of second captured images.
  • the distribution density of the state of the optical axis of the system is determined based on a Gaussian distribution.
  • the interference image in the first generated image and the second generated image can be smoothly blurred.
  • the image generation unit is an image correction unit that corrects the first captured image and the second captured image, and reduces the influence of light that has passed through the second optical system in the first captured image.
  • An image correction unit that reduces the influence of light that has passed through the first optical system in the image is further included.
  • an interference image is effective.
  • the first generated image and the second generated image that are reduced in number can be generated.
  • the image correction unit performs correction based on an inverse matrix of a matrix constituted by the detection gain distribution and the interference gain distribution of the first captured image and the second captured image.
  • the image correction unit further corrects the first captured image to reduce the influence of the aberration of the first optical system, and corrects the second captured image to reduce the influence of the aberration of the second optical system.
  • the influence of the aberration in the first captured image and the second captured image is reduced, and the image quality of the first generated image and the second generated image can be improved.
  • the plurality of first captured images are captured in a state where the optical axes of the first optical system are one-dimensionally different and output from the first sensor group, and the plurality of second captured images are captured by the second optical system. Images are taken in a state where the optical axes are one-dimensionally different and output from the second sensor group.
  • a plurality of first captured images are captured in a state where the optical axis of the first optical system is one-dimensionally different, and a plurality of second images are captured in a state where the optical axis of the second optical system is one-dimensionally different.
  • a captured image is captured. “The state in which the optical axes are different one-dimensionally” can be realized, for example, by linearly changing the direction (angle) of the optical axis and the relative position of the optical axis with respect to the subject.
  • the plurality of first captured images are captured in a state where the optical axes of the first optical system are two-dimensionally different and output from the first sensor group, and the plurality of second captured images are captured by the second optical system. Images are taken and output from the second sensor group in a state where the optical axes are two-dimensionally different.
  • a plurality of first captured images are captured in a state where the optical axes of the first optical system are two-dimensionally different, and a plurality of second images are captured in a state where the optical axes of the second optical system are two-dimensionally different.
  • a captured image is captured.
  • the “state in which the optical axes are two-dimensionally different” can be realized, for example, by changing the direction (angle) of the optical axis and the relative position of the optical axis with respect to the subject in a planar shape.
  • the imaging apparatus further includes an optical actuator that can move the imaging optical system to change the state of the optical axes of the first optical system and the second optical system.
  • the states of the optical axes of the first optical system and the second optical system can be actively changed by the optical system actuator.
  • the optical system actuator is a pan / tilt device for panning and tilting the photographing optical system.
  • the state (particularly the direction) of the optical axes of the first optical system and the second optical system can be easily changed by the pan / tilt device.
  • the imaging apparatus further includes a subject holding unit that holds the subject and a subject actuator that moves the subject holding unit.
  • the state of the optical axes of the first optical system and the second optical system with respect to the subject can be changed by moving the subject.
  • Another aspect of the present invention is a first optical system and a second optical system having a common optical axis, the first optical system and the second optical system having mutually different focal lengths;
  • An imaging device including a first sensor group that selectively receives light that has passed through the first optical system, and a second sensor group that selectively receives light that has passed through the second optical system;
  • Imaging in an imaging device including an image generation unit that generates a first generated image based on the output first captured image and generates a second generated image based on the second captured image output from the second sensor group
  • the method includes the step of aligning a plurality of first photographed images captured in a state where the optical axes of the first optical system are different in the image generating unit, and combining the plurality of aligned first photographed images.
  • Generating a first generated image by A step of aligning a plurality of second photographed images picked up with different optical axes of the second optical system, and generating a second generated image by combining the plurality of aligned second photographed images
  • an imaging method including:
  • Another aspect of the present invention is a first optical system and a second optical system having a common optical axis, the first optical system and the second optical system having mutually different focal lengths;
  • An imaging device including a first sensor group that selectively receives light that has passed through the first optical system, and a second sensor group that selectively receives light that has passed through the second optical system;
  • Imaging in an imaging device including an image generation unit that generates a first generated image based on the output first captured image and generates a second generated image based on the second captured image output from the second sensor group
  • a plurality of first captured images A procedure for generating a first generated image, a procedure for aligning a plurality of second captured images captured in a state where the optical axes of the second optical system are different, and a plurality of second captured images that are aligned
  • the present invention relates to a program for causing a computer to execute a procedure for generating a second generated image by combining images.
  • a plurality of first captured images that have been aligned are combined to generate a first generated image.
  • the influence of an interference image due to light that has passed through the second optical system is reduced.
  • the sharpness of the desired image by the light that has passed through the first optical system can be improved.
  • a plurality of second captured images that have been aligned are combined to generate a second generated image.
  • the influence of the interference image due to the light that has passed through the first optical system is weakened. Therefore, the sharpness of the desired image by the light that has passed through the second optical system can be improved.
  • the optical processing is performed with a simple processing configuration.
  • a high-quality image can be acquired by reducing the influence of interference of photographing light between systems.
  • FIG. 1 is a perspective view showing an example of a digital camera (imaging device) to which the present invention can be applied.
  • FIG. 2 is a perspective view showing an example of an automatic tracking imaging apparatus (imaging apparatus) to which the present invention can be applied.
  • FIG. 3 is a diagram illustrating a cross-sectional configuration of the imaging optical system and the imaging element according to the first embodiment.
  • FIG. 4 is a diagram illustrating a detailed cross-sectional configuration example of the image sensor illustrated in FIG. 3.
  • FIG. 5 is a diagram illustrating an optical path of wide-angle image light incident on the imaging optical system (particularly the first optical system) and the image sensor (particularly the first sensor group (see FIG. 4)) illustrated in FIG.
  • FIG. 1 is a perspective view showing an example of a digital camera (imaging device) to which the present invention can be applied.
  • FIG. 2 is a perspective view showing an example of an automatic tracking imaging apparatus (imaging apparatus) to which the present invention can be applied.
  • FIG. 3 is a diagram
  • FIG. 6 is a diagram illustrating an optical path of telephoto image light incident on the imaging optical system (particularly the second optical system) and the image sensor (particularly the second sensor group (see FIG. 4)) illustrated in FIG. 3.
  • FIG. 7 is a block diagram illustrating a functional configuration example of the imaging apparatus according to the first embodiment.
  • FIG. 8 is a block diagram illustrating a functional configuration example of the image composition unit.
  • FIG. 9 is a block diagram illustrating an example of processing of the alignment data acquisition unit and the synthesis processing unit.
  • FIG. 10 is a block diagram illustrating another example of processing of the alignment data acquisition unit and the synthesis processing unit.
  • FIG. 11 is a flowchart illustrating a generation flow of generated image data (first generated image data and second generated image data) in the image generation unit according to the first embodiment.
  • FIG. 12 is a block diagram illustrating an example of a case in which the imaging main body is movable by an optical system actuator.
  • FIG. 13 is a flowchart illustrating an example of a case in which generated image data is acquired by a synthesis method using an addition average of captured image data.
  • FIG. 14 is a flowchart illustrating an example of a case where generated image data is acquired by a synthesis method using a weighted average of captured image data.
  • FIGS. 15A to 15C are conceptual diagrams for explaining an operation of convolving “shift distribution” with “a signal having a two-dimensional spatial distribution”.
  • FIG. FIG. 15B illustrates a “shifted distribution (convolution kernel)” that defines weights according to positions, and FIG.
  • FIG. 15C illustrates a “signal (image data)” having a luminance distribution.
  • FIG. 16 is a diagram illustrating an example of an intensity distribution of a plurality of delta functions constituting a shift-combined distribution, and is a diagram for explaining an example of setting an intensity distribution (weight) of a plurality of delta functions according to a Gaussian distribution. It is.
  • FIGS. 17A and 17B are diagrams showing another example of the intensity distribution of a plurality of delta functions constituting the shifted composite distribution.
  • FIG. 17A shows the density difference in the intensity distribution based on the position.
  • FIG.17 (b) is a figure for demonstrating the example which sets the density difference according to Gaussian distribution.
  • 18A and 18B are diagrams for explaining the amount of displacement of the telephoto image due to the pan operation, in which FIG. 18A shows a second captured image (telephoto image) captured at the first pan position, and FIG. The 2nd picked-up image (telephoto image) imaged in 2 pan positions is shown.
  • FIGS. 19A and 19B are diagrams for explaining a shift amount of a wide-angle image due to a pan operation.
  • FIG. 19A illustrates a first captured image (wide-angle image) captured at the first pan position
  • FIG. 19A illustrates a first captured image (wide-angle image) captured at the first pan position
  • FIG. 19A illustrates a first captured image (wide-angle image) captured at the first pan position
  • FIG. 20 is a diagram for explaining a shift amount of a telephoto image (desired image) including an interference image (wide-angle image).
  • FIG. 20A is a second captured image (telephoto image) captured at the first pan position.
  • B shows a second captured image (telephoto image) captured at the second pan position.
  • FIG. 21 is a diagram for explaining a shift amount of a wide-angle image (desired image) including an interference image (telephoto image), and (a) is a first captured image (wide-angle image) captured at the first pan position. ), And (b) shows a first captured image (wide-angle image) captured at the second pan position.
  • FIG. 20 is a diagram for explaining a shift amount of a telephoto image (desired image) including an interference image (wide-angle image).
  • FIG. 20A is a second captured image (telephoto image) captured at the first pan position.
  • B shows a second captured image (telephoto image) captured at the second pan position.
  • FIG. 21
  • FIG. 22 is a diagram for explaining the synthesis mechanism of the captured image in the first embodiment.
  • A is a telephoto image (desired image including a crosstalk image (wide-angle image) acquired at the first pan position. ) ",
  • B) shows an outline of the positional relationship between a part of the telephoto image (desired image) shown in (a) and the interference image (wide-angle image), and
  • c) shows the positional relationship shown in (b).
  • FIG. 23A and 23B are diagrams illustrating an example of generating a telephoto image acquired by the imaging apparatus according to the first embodiment.
  • FIG. 23A and 23B are diagrams illustrating an example of generating a telephoto image acquired by the imaging apparatus according to the first embodiment.
  • FIG. 23A illustrates a plurality of captured images (telephoto images).
  • FIG. 23B shows an example of a telephoto image generated by alignment and synthesis of a plurality of captured images.
  • 24A and 24B are diagrams illustrating an example of generating a wide-angle image acquired by the imaging apparatus according to the first embodiment, and FIG. 24A illustrates a plurality of captured images (wide-angle images).
  • FIG. 24B shows an example of a wide-angle image generated by alignment and synthesis of a plurality of captured images.
  • FIG. 25 is a block diagram illustrating a functional configuration example of an image generation unit according to the second embodiment.
  • FIG. 26A and 26B are wide-angle images affected by image quality degradation due to interference (crosstalk) of photographing light between the first optical system and the second optical system (see FIG. 26A). ) And telephoto images (see FIG. 26B).
  • FIG. 27 is a conceptual diagram for explaining a mechanism of interference of photographing light between optical systems.
  • FIG. 28 is a diagram illustrating a relationship of a matrix composed of a true wide-angle image, a true telephoto image, an output wide-angle image, an output telephoto image, a detection gain distribution, and an interference gain distribution.
  • FIG. 29 is a diagram illustrating a determinant obtained by applying an inverse matrix of “matrix configured by detection gain distribution and interference gain distribution” to the determinant illustrated in FIG. 28.
  • FIGS. 34 (a) to 34 (b) show examples of images when “correction processing based on an inverse matrix of a matrix constituted by detection gain distribution and interference gain distribution” is performed, and FIG. 34 (a) shows a wide-angle image. An example is shown, and FIG. 34B shows an example of a telephoto image.
  • FIG. 35A and 35B show “composition processing after alignment” according to the first embodiment after “correction processing based on an inverse matrix of a matrix constituted by detection gain distribution and interference gain distribution” is performed.
  • FIG. 35A shows an example of a wide-angle image
  • FIG. 35B shows an example of a telephoto image.
  • FIG. 36 shows another example of the case where the “composition processing after alignment” according to the first embodiment is performed after the “correction processing based on the inverse matrix of the matrix constituted by the detection gain distribution and the interference gain distribution”.
  • An example image is shown.
  • FIG. 37 is a block diagram illustrating a modification of the functional configuration of the image generation unit.
  • FIG. 38 is a block diagram illustrating another modification of the functional configuration of the image generation unit.
  • FIG. 39 is a block diagram illustrating an imaging apparatus according to the third embodiment.
  • FIG. 40 is a diagram illustrating an appearance of a smartphone that is an embodiment of the imaging apparatus of the present invention.
  • FIG. 41 is a block diagram showing a configuration of the smartphone shown in FIG.
  • the present invention can be widely applied to an imaging apparatus, an imaging method, an imaging procedure, and application techniques thereof capable of capturing a plurality of types of images using a shooting optical system having a plurality of types of optical characteristics.
  • the technical field is not particularly limited.
  • the present invention can be applied not only to an imaging device that performs shooting in response to a user operation but also to an imaging device that automatically performs shooting, and not only to an imaging device that captures still images, but also to moving images.
  • the present invention can also be applied to an imaging apparatus that performs imaging.
  • FIG. 1 is a perspective view showing an example of a digital camera 10 (imaging device 30) to which the present invention can be applied.
  • a photographing optical system 11 and a flash 13 are provided on the front surface of the camera body of the digital camera 10, and a release button 12 is provided on the upper surface of the camera body.
  • the symbol “L” in FIG. 1 represents the optical axis of the photographing optical system 11.
  • FIG. 2 is a perspective view showing an example of the automatic tracking imaging device 14 (imaging device 30) to which the present invention can be applied.
  • a holding unit 18 including a gear 19 and a photographing optical system 11 attached to the holding unit 18 are fixedly installed on a pedestal 16 provided on the apparatus main body 15. .
  • the pedestal 16 is provided so as to be rotatable about an axis in the vertical direction Z of the apparatus body 15, and a panning operation about the axis in the vertical direction Z is performed by a pan driving unit (not shown).
  • the gear 19 is provided coaxially with the axis in the horizontal direction X, and when the driving force is transmitted through a gear 19 from a tilt driving unit (not shown), the photographing optical system 11 is rotated in the vertical direction to perform a tilt operation. Is done.
  • the photographing optical system 11, the holding portion 18 (gear 19), and the base 16 are covered with a dome cover 17 for dustproofing and dripproofing.
  • FIG. 3 is a diagram illustrating a cross-sectional configuration of the imaging optical system 11 and the imaging element 24 according to the first embodiment.
  • the photographing optical system 11 includes a first optical system 21 and a second optical system 22 having mutually independent characteristics.
  • the first optical system 21 and the second optical system 22 are optical systems having different focal lengths. Is configured. That is, the photographing optical system 11 of the present embodiment includes a first optical system 21 configured by a “wide-angle image capturing lens group” and a second optical system 22 configured by a “telephoto image capturing lens group”. A wide-angle image and a telephoto image are taken simultaneously by the element 24.
  • the first optical system 21 shown in FIG. 3 is common to a first wide-angle lens 21a, a second wide-angle lens 21b, a third wide-angle lens 21c, a fourth wide-angle lens 21d, which are arranged on the same optical axis L.
  • a lens 23 is included.
  • the second optical system 22 includes a first telephoto reflector 22b provided with a first telephoto lens 22a, a first telephoto reflective mirror 22c, and a second telephoto reflector provided with a second telephoto reflective mirror 22e. 22d and a common lens 23.
  • the first optical system 21 (particularly, the first wide-angle lens 21a, the second wide-angle lens 21b, the third wide-angle lens 21c, and the fourth wide-angle lens 21d) of this example forms a central optical system.
  • the second optical system 22 of this example (particularly, the first telephoto lens 22a, the first telephoto reflector 22b, the first telephoto reflector 22c, the second telephoto reflector 22d, and the second telephoto reflector 22e).
  • the common lens 23 is disposed on the optical axis L and is shared between the first optical system 21 and the second optical system 22.
  • the imaging optical system 11 of the present example is the first optical system 21 and the second optical system 22 having the common optical axis L, and the first optical system 21 and the second optical system having mutually different focal lengths.
  • System 22 is included.
  • the image sensor 24 is configured by two-dimensionally arranging a plurality of light receiving sensors 25 in a direction perpendicular to the optical axis L.
  • the image sensor 24 of the present embodiment simultaneously receives the wide-angle image light irradiated via the first optical system 21 and the telephoto image light irradiated via the second optical system 22 to obtain a wide-angle image (first A directional sensor capable of outputting an imaging signal for generating a (captured image) and an imaging signal for generating a telephoto image (second captured image) is configured.
  • the image sensor 24 of the present embodiment is a plurality of light receiving sensors 25 provided corresponding to each of the first optical system 21 and the second optical system 22, and includes the first optical system 21 and the second optical system 22. Among them, a plurality of light receiving sensors 25 for selectively receiving the light that has passed through the corresponding optical system by dividing the pupil.
  • FIG. 4 is a diagram showing a detailed cross-sectional configuration example of the image sensor 24 shown in FIG.
  • the plurality of light receiving sensors 25 constituting the image pickup device 24 of the present example include a “first light receiving sensor 25a for wide-angle images” corresponding to the first optical system 21 and a “for telephoto image corresponding to the second optical system 22.
  • the second light receiving sensor 25b ", and the first light receiving sensor 25a and the second light receiving sensor 25b are alternately arranged two-dimensionally.
  • the plurality of first light receiving sensors 25a included in the imaging element 24 constitutes “a first sensor group 24a that selectively receives light that has passed through the first optical system 21”, and is used to generate a wide-angle image. Output a signal.
  • the plurality of second light receiving sensors 25b included in the image pickup device 24 constitute a “second sensor group 24b that selectively receives light that has passed through the second optical system 22”, and generates a telephoto image. Output the imaging signal.
  • the image sensor 24 of the present example includes the first sensor group 24 a corresponding to the first optical system 21 and the second sensor group 24 b corresponding to the second optical system 22.
  • Each of the first light receiving sensor 25a and the second light receiving sensor 25b has a micro lens 26, a photodiode 29, and an intermediate layer 27 in which the micro lens 26 and the photodiode 29 are disposed.
  • the intermediate layer 27 is provided with a light shielding mask 28.
  • the light shielding mask 28 is disposed in the periphery of the light receiving surface of the photodiode 29, and in the second light receiving sensor 25b, the photodiode 29 is provided.
  • a light shielding mask 28 is disposed at the center of the light receiving surface. The arrangement of the light shielding mask 28 is determined according to which one of the first optical system 21 and the second optical system 22 corresponds, and each light shielding mask 28 blocks light from the optical system that does not correspond. The light from the corresponding optical system is received by the photodiode 29 without blocking.
  • a plurality of light receiving sensors that selectively receive the light that has passed through the corresponding optical system of the first optical system 21 and the second optical system 22 by pupil division by the light receiving sensor 25 including the light shielding mask 28.
  • pupil division may be realized by other means.
  • a light shielding mask 28 may be provided before the microlens 26 (for example, between the microlens 26 and the common lens 23 (see FIG. 3)), or light shielding means other than the light shielding mask 28 (for example, a liquid crystal shutter). May be used.
  • members other than the light shielding mask 28 may be provided in the intermediate layer 27, and color filters such as RGB (red, green, blue) and wiring / circuits may be provided in the intermediate layer 27.
  • color filters such as RGB (red, green, blue) and wiring / circuits may be provided in the intermediate layer 27.
  • FIG. 5 is a diagram illustrating an optical path of the wide-angle image light W incident on the imaging optical system 11 (particularly the first optical system 21) and the image sensor 24 (particularly the first sensor group 24a (see FIG. 4)) illustrated in FIG. is there.
  • the wide-angle image light W sequentially passes through the first wide-angle lens 21a, the second wide-angle lens 21b, the third wide-angle lens 21c, the fourth wide-angle lens 21d, and the common lens 23 of the first optical system 21. Then, a wide-angle image is formed on the image sensor 24.
  • FIG. 6 is a diagram showing an optical path of the telephoto image light T incident on the photographing optical system 11 (particularly the second optical system 22) and the image sensor 24 (particularly the second sensor group 24b (see FIG. 4)) shown in FIG. is there.
  • the telephoto image light T passes (transmits) through the first telephoto lens 22a, passes through the common lens 23 after being reflected by each of the first telephoto reflection mirror 22c and the second telephoto reflection mirror 22e. Then, a telephoto image is formed on the image sensor 24.
  • the optical axis L of the second optical system 22 for taking a telephoto image with a long focal length is reflected by each of the first telephoto reflecting mirror 22c and the second telephoto reflecting mirror 22e and folded back.
  • the length with respect to the direction can be shortened.
  • the pupil division performance of the wide-angle image light that reaches the image sensor 24 via the first optical system 21 and the telephoto image light that reaches the image sensor 24 via the second optical system 22 If it is not sufficient, the separation of the wide-angle image light and the telephoto image light becomes insufficient, and an image in which the wide-angle image and the telephoto image are mixed together is obtained. That is, if the telephoto image light leaks into the first sensor group 24a intended to receive only the wide-angle image light (the photodiode 29 of the first light-receiving sensor 25a (see FIG. 4)), one of the telephoto image components A wide-angle image with the portion superimposed is obtained.
  • each light receiving sensor that constitutes the image sensor 24.
  • a signal of an image component that is supposed to be separated and should not be received is mixed.
  • the present inventor has developed an image between a wide-angle image and a telephoto image when the imaging device 30 (the imaging optical system 11) moves relative to the subject. Focusing on the difference in position change, we found a new method to acquire both high-quality wide-angle images and telephoto images by image processing using such differences in image position changes.
  • the first optical system 21 used for photographing a wide-angle image and the second optical system 22 used for photographing a telephoto image have a common optical axis L, and The image center and the image center of the telephoto image are the same.
  • the size of the image on the image sensor 24 is the subject that has passed through the second optical system 22.
  • the image (telephoto image) is larger than the subject image (wide-angle image) that has passed through the first optical system 21.
  • the subject image in the telephoto image is larger than the subject image in the wide-angle image.
  • the image position when the state of the optical axis L of the first optical system 21 and the second optical system 22 changes due to panning, tilting, or the like is relatively small in the wide-angle image and is changed in the telephoto image.
  • the amount is relatively large.
  • the ratio of the size of the subject image between the wide-angle image and the telephoto image is the same as the focal length of the wide-angle lens (first optical system 21) and the telephoto lens (second optical lens) unless other effects such as aberration are taken into consideration.
  • the constant is represented by “k”
  • the focal length of the wide-angle lens (first optical system 21) is represented by “fw”
  • the focal length of the telephoto lens (second optical system 22) is represented by “ft”.
  • the pan angle of the imaging device 30 including the system 11 is represented by “ ⁇ ”, and the amount of movement of the image that has passed through the wide-angle lens (first optical system 21) on the imaging device 24 (first sensor group 24a) is represented by “Sw”. And the amount of movement of the image that has passed through the telephoto lens (second optical system 22) on the image sensor 24 (second sensor group 24b) is represented by “St”, the following equations (1) and ( 2) is established.
  • the present inventor uses the “deviation of the positional relationship between the desired image and the interference image before and after the change of the optical axis L” to greatly influence the influence of the components of the interference image in each of the wide-angle image and the telephoto image. And a new technique that can effectively prevent the deterioration of the visibility of wide-angle images and telephoto images.
  • FIG. 7 is a block diagram illustrating a functional configuration example of the imaging device 30 according to the first embodiment.
  • the imaging apparatus 30 of this example generates an image in addition to the above-described imaging optical system 11 (first optical system 21 and second optical system 22) and imaging element 24 (first sensor group 24a and second sensor group 24b).
  • a unit 32 image composition unit 33
  • a main controller 37 controls the image processing unit 38
  • an image storage unit 39 controls the image storage unit 39
  • a display controller 40 controls the image storage unit 39
  • a display controller 40 controls the image storage unit 39
  • the image generation unit 32 (image synthesis unit 33), the main controller 37, and the image processing unit 38 are realized by, for example, one or a plurality of microprocessors executing various software stored in a storage unit (not shown). .
  • the image generation unit 32 generates first generated image data D21 based on the first captured image data D11 output from the first sensor group 24a, and generates the second captured image data D12 output from the second sensor group 24b. Based on this, the second generated image data D22 is generated.
  • the image generation unit 32 of this example includes an image synthesis unit 33, and the image synthesis unit 33 generates generated image data by synthesizing a plurality of captured images. That is, the image composition unit 33 aligns the plurality of first photographed image data D11 captured in a state where the optical axis L of the first optical system 21 is different, and the plurality of first photographed image data thus aligned.
  • the first generated image data D21 is generated by synthesizing D11.
  • the image composition unit 33 aligns the plurality of second photographed image data D12 captured in a state where the optical axis L of the second optical system 22 is different, and the plurality of second photographed images that are aligned.
  • the second generated image data D22 is generated by combining the data D12.
  • the clarity of a desired image component can be improved.
  • the interference image components included in the desired image are arranged at different locations between the captured images by performing alignment of the captured images, so that the generated image data after synthesis has a relatively low intensity. It becomes inconspicuous. This effect becomes more prominent as the number of captured image data to be combined increases.
  • each of the plurality of first photographed image data D11 is preferably related to an image whose subject is the same subject
  • each of the plurality of second photographed image data D12 is preferably relevant to an image whose subject is the same subject. Therefore, when the subject changes with time, the influence of the movement of the subject is prevented from appearing in the plurality of first photographed image data D11 and the plurality of second photographed image data D12 by shortening the photographing cycle between images. It is preferable to make it.
  • the first generation image data D21 and the second generation image data D22 generated in the image generation unit 32 are sent to, for example, the image processing unit 38, the image storage unit 39, the display controller 40, and the like provided in the subsequent stage, or the image generation Sent to the main controller 37 for controlling the unit 32.
  • the image processing unit 38 performs arbitrary image processing on the first generated image data D21 and the second generated image data D22 that are sent, and the first generated image data D21 and the second generated image data D22 after image processing are performed. May be sent to the image storage unit 39, the display controller 40, or the main controller 37.
  • the image storage unit 39 stores the first generated image data D21 and the second generated image data D22 that are sent.
  • the display controller 40 displays a wide-angle image (first generated image) and / or a telephoto image (second generated image) reproduced based on the first generated image data D21 and the second generated image data D22 sent thereto. 41 is displayed.
  • the main controller 37 includes the imaging optical system 11, the imaging device 24, the image generation unit 32, the image processing unit 38, the image storage unit 39, the display controller 40, the display unit 41, the user operation unit 42, and other components that configure the imaging device 30. Connected to each unit to control processing functions in each unit.
  • the user operation unit 42 is operated by the user to input various instruction commands, and the various instruction commands input to the user operation unit 42 are transmitted to the main controller 37, and the main controller 37 receives from the user operation unit 42.
  • Each unit of the imaging device 30 can be controlled based on the instruction command.
  • FIG. 8 is a block diagram illustrating a functional configuration example of the image composition unit 33.
  • the image composition unit 33 of the present example includes an alignment data acquisition unit 34 and a composition processing unit 35, generates first generated image data D21 from a plurality of first captured image data D11, and a plurality of second captured image data. Second generation image data D22 is generated from D12.
  • Alignment data acquisition unit 34 acquires a positional shift amount between the plurality of first captured image data D11 and a positional shift amount between the plurality of second captured image data D12. That is, a plurality of first photographed image data D11 captured in a state where the optical axis L of the first optical system 21 is different is input to the image composition unit 33, and the deviation of the optical axis L of the first optical system 21 is eliminated.
  • the “alignment amount between the plurality of input first captured image data D11” necessary for this is acquired by the alignment data acquisition unit 34 as alignment data.
  • a plurality of second photographed image data D12 captured in a state where the optical axis L of the second optical system 22 is different is input to the image composition unit 33, and the deviation of the optical axis L of the second optical system 22 is eliminated.
  • the “alignment amount between the input plurality of second photographed image data D12” necessary for this is acquired by the alignment data acquisition unit 34 as alignment data.
  • the “position shift amount” referred to here can be determined from an arbitrary viewpoint. For example, regarding each of the “plurality of first photographed image data D11” and the “plurality of second photographed image data D12”, It can be expressed by a pixel shift amount necessary to make the position of the desired image (for example, the main subject) the same position.
  • the composition processing unit 35 performs alignment of the plurality of first captured images (wide-angle images) based on “the amount of positional deviation between the plurality of first captured image data D11” acquired by the alignment data acquiring unit 34.
  • the first generated image data D21 is generated by synthesizing the plurality of first captured images (wide-angle images) that have been aligned.
  • the composition processing unit 35 determines the positions of the plurality of second photographed images (telephoto images) based on the “positional shift amount between the plurality of second photographed image data D12” obtained by the alignment data obtaining unit 34.
  • the second generated image data D22 is generated by combining the plurality of second captured images (telephoto images) that have been aligned.
  • the processing methods in the alignment data acquisition unit 34 and the composition processing unit 35 are not particularly limited, and “positioning and composition of the plurality of first photographed image data D11” and “the plurality of second photographed image data D12 can be performed by any method. Registration and composition "can be performed.
  • FIG. 9 is a block diagram illustrating an example of the processing of the alignment data acquisition unit 34 and the synthesis processing unit 35.
  • the alignment data acquisition unit 34 of this example acquires the alignment data D32 from the movement amount basic data D31. That is, the alignment data acquisition unit 34 calculates the “positional displacement amount between the plurality of first photographed image data D11” and “positional displacement amount between the plurality of second photographed image data D12”. Based on (for example, the above formula (1) and formula (2)), basic data (for example, the constant “k” described above, the first optical system 21 and the second optical system 22 described above) The focal lengths “fw” and “ft” and the pan angle “ ⁇ ” of the imaging device 30 including the imaging optical system 11) are acquired as the movement amount basic data D31 from the main controller 37 and the like, and the alignment data D32 is calculated. .
  • the compositing processing unit 35 Based on the alignment data D32 sent from the alignment data acquisition unit 34, the compositing processing unit 35 generates the first generated image data D21 by aligning and synthesizing the plurality of first captured image data D11. Further, the second generated image data D22 is generated by aligning and synthesizing the plurality of second photographed image data D12.
  • the alignment data acquisition unit 34 (image synthesis unit 33) of the present example is configured to store a plurality of first captured images based on the state of the optical axis L of the first optical system 21 and the focal length fw of the first optical system 21. Position alignment is performed, and a plurality of second captured images are aligned based on the state of the optical axis L of the second optical system 22 and the focal length ft of the second optical system 22. Therefore, in this example, “the amount of difference in the state of the optical axis L of the first optical system 21 when acquiring the plurality of first captured image data D11” and “the second amount when acquiring the plurality of second captured image data D12”.
  • FIG. 10 is a block diagram illustrating another example of the processing of the alignment data acquisition unit 34 and the synthesis processing unit 35.
  • the alignment data acquisition unit 34 of this example acquires the alignment data D32 by analyzing the first captured image data D11 and the second captured image data D12. That is, the alignment data acquisition unit 34 analyzes “a plurality of first captured image data D11” to acquire “a positional shift amount between the plurality of first captured image data D11”, and a plurality of second captured image data D12. To obtain “a positional deviation amount between the plurality of second photographed image data D12”.
  • the image analysis technique for acquiring the positional deviation amount is not particularly limited, and the alignment data acquisition unit 34 performs arbitrary image analysis to obtain “the positional deviation amount between the plurality of first captured image data D11.
  • “And” the amount of positional deviation between the plurality of second photographed image data D12 "can be acquired.
  • the positions of “a reference image portion in each of a plurality of first captured images (wide-angle images)” and “a reference image portion in each of a plurality of second captured images (telephoto images)” are obtained by image analysis and analyzed. Based on the acquired “position of the reference image portion”, “a positional shift amount between the plurality of first captured image data D11” and “a positional shift amount between the plurality of second captured image data D12” are acquired. May be.
  • the reference image portion referred to here can be determined from an arbitrary viewpoint, and may be determined based on image feature data related to an edge (contour), image feature data related to a frequency, or the like. Accordingly, the alignment data acquisition unit 34 may use a main subject image detected using subject recognition processing such as face recognition processing as a reference image unit, for example, based on the position of the main subject in the captured image. You may acquire "the positional offset amount between the 1st picked-up image data D11" and "the positional offset amount between the some 2nd picked-up image data D12."
  • the compositing processing unit 35 Based on the alignment data D32 sent from the alignment data acquisition unit 34, the compositing processing unit 35 generates the first generated image data D21 by aligning and synthesizing the plurality of first captured image data D11. Further, the second generated image data D22 is generated by aligning and synthesizing the plurality of second photographed image data D12.
  • the alignment data acquisition unit 34 analyzes the plurality of first photographed image data D11, and the position of the first reference image part in each of the plurality of first photographed image data D11. , And aligns the plurality of first photographed image data D11 based on the position of the first reference image portion, and analyzes the plurality of second photographed image data D12 to obtain the plurality of second photographed image data.
  • the position of the second reference image portion in each of D12 is acquired, and the plurality of second photographed image data D12 are aligned based on the position of the second reference image portion.
  • the present invention is applicable not only to a case where the “difference amount of the state of the optical axis L of the two optical systems 22” can be grasped in advance, but also to a case where the difference amount thereof cannot be grasped in advance. Therefore, this example may be applied, for example, when the state of the optical axis L of the photographing optical system 11 is actively controlled and changed by the automatic tracking imaging device 14 (see FIG. 2) or the digital camera 10 ( This may be applied to the case where the state of the optical axis L of the photographing optical system 11 changes randomly due to camera shake or the like shown in FIG.
  • FIG. 11 is a flowchart showing a generation flow of generated image data (first generated image data D21 and second generated image data D22) in the image generation unit 32 according to the first embodiment.
  • captured image data (first captured image data D11 and second captured image data D12) is acquired by the image generation unit 32 (step S11 in FIG. 11).
  • captured image data output from the image sensor 24 (the first sensor group 24a and the second sensor group 24b) may be directly input to the image generation unit 32 or indirectly input to the image generation unit 32.
  • the captured image data may be input from the image sensor 24 to another processing unit and input from the other processing unit to the image generation unit 32.
  • the image composition unit 33 (alignment data acquisition unit 34) of the image generation unit 32, “the plurality of input first photographed image data D11 that are input is necessary to eliminate the deviation of the optical axis L of the first optical system 21.
  • Alignment data indicating “positional displacement amount between each other” and “positional displacement amount between a plurality of inputted second photographed image data D12” necessary for eliminating the displacement of the optical axis L of the second optical system 22 Is acquired (S12).
  • the alignment is performed (S13), and the first generated image (wide-angle image: first generated image data D21) is generated by combining the plurality of aligned first captured images (first captured image data D11).
  • S14 Similarly, a plurality of second captured images (second captured image data D12) captured in a state where the optical axis L of the second optical system 22 is different in the image composition unit 33 (composition processing unit 35) of the image generation unit 32.
  • are aligned (S13), and the plurality of aligned second captured images (second captured image data D12) are combined to generate a second generated image (telephoto image: second generated image data D22). Is generated (S14).
  • the application target of the above-described series of processing illustrated in FIG. 11 is not particularly limited.
  • the series of processes described above may be applied to the photographed image data D11 and the second photographed image data D12).
  • the above-described series of processing may be applied to captured image data (first captured image data D11 and second captured image data D12) captured and acquired by the automatic tracking imaging device 14 as illustrated in FIG. .
  • the state of the optical axis L of the photographing optical system 11 the first optical system 21 and the second optical system 22
  • the image quality of the generated images first generated image data D21 and second generated image data D22
  • FIG. 12 is a block diagram illustrating an example of a case in which the imaging main body 44 can be moved by the optical system actuator 45.
  • the imaging main body 44 the imaging optical system 11 and the imaging device 24
  • the optical system actuator 45 the main controller 37
  • the imaging apparatus 30 shown in FIG. 10 is also included.
  • the optical system actuator 45 of this example controls the imaging main body 44 including the imaging optical system 11 and the imaging element 24 under the control of the main controller 37 to move the imaging optical system 11 and the first optical system 21 and The state of the optical axis L of the second optical system 22 can be changed.
  • the specific form of the optical system actuator 45 is not particularly limited, and may be a pan / tilt device for panning and tilting the photographing optical system 11 as shown in FIG.
  • the optical system actuator 45 includes a pan driving unit and a tilt driving unit, and the optical system actuator 45 performs the pan operation and the tilt operation of the imaging main body unit 44 (the imaging optical system 11 and the imaging element 24), whereby the first The optical axis L of the optical system 21 and the optical axis L of the second optical system 22 can be two-dimensionally different.
  • the optical system actuator 45 performs the pan / tilt operation of the imaging main body 44 (the imaging optical system 11 and the imaging element 24) according to the position information (movement amount information) preset by the main controller 37.
  • the amount of movement of the subject image that occurs in each of the first captured image (wide-angle image) and the second captured image (telephoto image) based on a preset pan / tilt amount is calculated in advance from the design value of the imaging device 30. It is possible to measure in advance by performing calibration shooting in the actual device of the imaging device 30. Based on the “movement amount of the subject image in each image of the first photographed image (wide-angle image) and the second photographed image (telephoto image)” obtained in this way, due to the state change of the optical axis L of the photographing optical system 11. Correction (positioning processing) is performed on the captured image group so as to cancel the change in position of the desired image.
  • the plurality of first captured images are captured and output from the first sensor group 24a in a state where the optical axis L of the first optical system 21 is two-dimensionally different. It is preferable. However, for example, an image may be captured and output from the first sensor group 24a in a state where the optical axis L of the first optical system 21 is one-dimensionally different.
  • a plurality of second photographed images are preferably captured and output from the second sensor group 24b in a state where the optical axis L of the second optical system 22 is two-dimensionally different. However, for example, an image may be captured and output from the second sensor group 24b in a state where the optical axis L of the second optical system 22 is one-dimensionally different.
  • a pan head that can control the pan / tilt operation by the main controller 37 can be used as the optical system actuator 45.
  • the imaging device 30 may be configured by installing and fixing the digital camera 10 as shown in FIG. 1 on such a platform (optical system actuator 45).
  • the aspect of "change of the state of the optical axis L of the 1st optical system 21 and the 2nd optical system 22" by the optical system actuator 45 is not specifically limited.
  • the optical system actuator 45 may change the “direction” of the optical axis L of the first optical system 21 and the second optical system 22, or the optical axis of the first optical system 21 and the second optical system 22 with respect to the subject.
  • the “relative position” of L may be changed. That is, the plurality of first photographed image data D11 input to the image generation unit 32 (image composition unit 33) is imaged in a state where the directions of the optical axes L of the first optical system 21 are different from the first sensor group 24a.
  • the image may be output, or may be captured and output from the first sensor group 24a in a state where the relative position of the optical axis L of the first optical system 21 with respect to the subject is different.
  • a plurality of second photographed image data D12 input to the image generation unit 32 (image composition unit 33) is captured and output from the second sensor group 24b in a state where the directions of the optical axes L of the second optical system 22 are different.
  • the image may be captured and output from the second sensor group 24b in a state where the relative position of the optical axis L of the second optical system 22 with respect to the subject is different.
  • the method of changing the “direction” and “relative position” of the optical axis L of the first optical system 21 and the second optical system 22 is not particularly limited. For example, by changing the direction (angle) of the optical axis L by pan-tilting the first optical system 21 and the second optical system 22 with a pan / tilt device as shown in FIG. 2, the “direction of the optical axis L” is changed. Can do. Further, the “relative position of the optical axis L” is changed by sliding the first optical system 21 and the second optical system 22 relative to the subject and moving the optical axis L in the horizontal direction and / or the vertical direction. (See FIG. 39 described later).
  • the optical system actuator 45 actively controls the state of the optical axis L of the photographing optical system 11 (the first optical system 21 and the second optical system 22) under the control of the main controller 37, whereby the first generation is performed. It is possible to obtain a plurality of first photographed image data D11 and a plurality of second photographed image data D12 that are the basis of the image data D21 and the second generated image data D22 in a predetermined desired optical axis state. As a result, the image generation unit 32 (image composition unit 33) generates high-quality first generated image data D21 and second generated image data D22 from the plurality of first captured image data D11 and the plurality of second captured image data D12. can do.
  • the image compositing unit 33 can acquire the generated image data by a compositing method using an addition average of photographed image data.
  • the image composition unit 33 adds the plurality of aligned first photographed image data D11 and calculates the average of the added data, thereby synthesizing the plurality of first photographed images to generate the first generated image.
  • Data D21 can be generated.
  • the image composition unit 33 adds the plurality of aligned second captured image data D12 and calculates the average of the added data, thereby synthesizing the plurality of second captured images to generate the second generated image.
  • Data D22 can be generated.
  • FIG. 13 is a flowchart illustrating an example of a case in which generated image data is acquired by a synthesis method using an addition average of captured image data.
  • the state of the optical axis L for photographing is determined by the main controller 37 (S21 in FIG. 13).
  • the optical system actuator 45 controls the imaging main body 44 to move the optical axis L of the photographing optical system 11 (the first optical system 21 and the second optical system 22), while the imaging main body 44 ( The plurality of first photographed image data D11 and the plurality of second photographed image data D12 are imaged by the photographing optical system 11 and the imaging element 24) (S22).
  • the plurality of first photographed image data D11 and the plurality of second photographed image data D12 photographed in accordance with the state of the photographing optical axis L determined in advance by the main controller 37 are stored in the image generation unit 32 (image composition unit). 33), the first generated image data D21 and the second generated image data D22 are generated.
  • the image composition unit 33 can acquire the generated image data by a composition method using a weighted average of the photographed image data. That is, the image composition unit 33 calculates a plurality of weighted averages of the plurality of first photographed image data D11 based on weights determined according to the state of the optical axis L of the first optical system 21 at the time of imaging.
  • the first generated image data D21 can be generated by combining the first captured images.
  • by calculating the weighted average of the plurality of second photographed image data D12 based on the weight determined according to the state of the optical axis L of the second optical system 22 at the time of imaging a plurality of second photographed images are calculated.
  • the second generated image data D22 can be generated by combining the images.
  • FIG. 14 is a flowchart illustrating an example of a case where generated image data is acquired by a synthesis method using a weighted average of captured image data.
  • the state of the optical axis L for imaging is determined by the main controller 37 (S ⁇ b> 31 in FIG. 14), and the imaging optical system 11 ( The optical axis L of the first optical system 21 and the second optical system 22) is moved, and a plurality of first photographed image data D11 and a plurality of second photographs are taken by the imaging main body 44 (the photographing optical system 11 and the imaging element 24).
  • Image acquisition of the image data D12 is performed (S32).
  • the weighting factor for synthesis is determined by the main controller 37 (S33). Then, the image generation unit 32 (image composition unit 33) aligns the plurality of first photographed image data D11 and the plurality of second photographed image data D12, and uses a weighting average for composition to calculate the weighted average. The calculation is performed to synthesize the captured image (S34), and the first generated image data D21 and the second generated image data D22 are generated.
  • the optical axis L of the photographing optical system 11 (the first optical system 21 and the second optical system 22) can be actively adjusted to a desired state by the optical system actuator 45 as described above, a plurality of first By devising the state pattern of the optical axis L when capturing the captured image data D11 and the plurality of second captured image data D12, it is possible to more effectively reduce the interference component.
  • the state distribution of the optical axis L when photographing the plurality of first photographed image data D11 and the plurality of second photographed image data D12 may be set according to a one-dimensional or two-dimensional Gaussian distribution.
  • the interference image component remaining in each of the first generated image data D21 and the second generated image data D22 after image synthesis is the interference image component included in the first captured image data D11 and the second captured image data D12. Since this is based on convolution with a Gaussian distribution, the image is very smoothly blurred. Therefore, each of the images (the wide-angle image and the telephoto image) based on the first generated image data D21 and the second generated image data D22 has a favorable image quality because the interference component is not conspicuous at the time of observation.
  • FIG. 15 is a conceptual diagram for explaining an operation of convolving “shifted distribution g” with “signal f having a two-dimensional spatial distribution”.
  • FIG. 15A shows a “signal having a luminance distribution according to position. f (image data) ", (b) exemplifies” shift composition distribution g (convolution kernel) "that defines weights according to positions, and (c) shows the signal f shown in (a).
  • the vertical axis indicates the magnitude of luminance
  • the horizontal axis indicates a one-dimensional position.
  • FIG. 15B the vertical axis indicates the weight of the shifted composite distribution g, and the horizontal axis indicates the one-dimensional position.
  • FIG. 15C a plurality of images relating to the same subject are included in the image signal shown in FIG. 15A by two-dimensionally shifting and superimposing each other.
  • the high-frequency spatial frequency component that is generated is strongly suppressed compared to the low-frequency spatial frequency component.
  • the composite image is a so-called blurred image.
  • FIGS. 15A to 15C show a relationship example based on a one-dimensional position, but the same relationship example is established when a two-dimensional position is used as a reference. Yes.
  • the “distribution composition distribution g” that is the kernel of the convolution operation is transmitted based on the sum of a plurality of delta functions.
  • a function obtained by Fourier transforming the transfer function represents a frequency transfer characteristic.
  • FIG. 16 is a diagram illustrating an example of an intensity distribution of a plurality of delta functions constituting the shift-combination distribution g.
  • intensity distributions (weights) of a plurality of delta functions are set according to a Gaussian distribution G.
  • FIG. 16 the vertical axis indicates the magnitude of the intensity (weight), and the horizontal axis indicates the position.
  • the “convolution calculation kernel (shift synthesis distribution)” has the effect of a low-pass filter. Is possible.
  • the application of the “shift-composition distribution g” as shown in FIG. 16 to the interference image is, for example, with respect to the intensity (for example, luminance) of the image obtained by shooting with the positions shifted equally (ie, luminance). This is equivalent to a synthesis process in which the closer to the reference position, the greater the weight of the delta function is and the weighted average of the captured image data is performed.
  • the weight determined according to the state of the optical axis L of the first optical system 21 is The weight determined according to the Gaussian distribution based on the state of the optical axis L of the first optical system 21 or the weight determined according to the state of the optical axis L of the second optical system 22 is based on the state of the optical axis L of the second optical system 22.
  • the interference image can be clearly blurred.
  • FIG. 17 is a diagram illustrating another example of intensity distributions of a plurality of delta functions constituting the shift-combination distribution g.
  • FIG. 17A is a diagram for explaining an example in which a density difference is provided in the position-based intensity distribution.
  • (B) is a figure for demonstrating the example which sets the density difference according to the Gaussian distribution G.
  • FIG. 17A the vertical axis indicates the magnitude of intensity (weight), and the horizontal axis indicates the position.
  • the vertical axis indicates the frequency (the number of existence) of the delta function, and the horizontal axis indicates the distance from the position indicating the reference state.
  • the density distribution in the delta function in accordance with the position has a density.
  • a difference g is provided so that the delta function is denser as the position is closer to the reference state of the optical axis L, and the combined distribution g is determined so that the delta function is sparser as the position is farther from the reference state of the optical axis L.
  • Applying the “shifted composite distribution g” as shown in FIG. 17A to an interference image makes the arrangement distribution of the optical axis L uneven when, for example, photographing is performed while shifting the position of the optical axis L.
  • This corresponds to a composition process in which a position closer to the center position (that is, the position in the reference state) is photographed with higher density to obtain a large number of photographed images, and an average of the photographed image data obtained by the photographing is performed.
  • the image combining unit 33 acquires the generated image data by the combining method using the addition average as described above, the closer the optical axis L of the first optical system 21 is to the reference state, the more the plurality of first captured images. As the optical axis L of the first optical system 21 moves away from the reference state, a plurality of first captured images are captured sparsely, and the first captured image data D11 is output from the first sensor group 24a.
  • the interference image can be clearly blurred.
  • the frequency (existence number) of the delta function constituting the shifted composite distribution g is determined according to the Gaussian distribution G with respect to the distance from the reference state, thereby more effectively causing interference.
  • a low-pass filter effect on the image can be realized.
  • the frequency (existence number) of the delta function shown in FIG. 17B is determined based on the number of delta functions existing within a predetermined distance from the reference state.
  • the distribution density of the state of the optical axis L of the first optical system 21 when capturing a plurality of first captured images is determined based on the Gaussian distribution, or when capturing a plurality of second captured images. Since the distribution density of the state of the optical axis L of the two optical system 22 is determined based on the Gaussian distribution, the interference image can be more clearly blurred.
  • 16 and 17 show a relationship example based on a one-dimensional position, but a similar relationship example can be established when a two-dimensional position is used as a reference.
  • the example shown in FIG. 16 and the example shown in FIG. 17 may be combined. That is, in a case where the image composition unit 33 acquires the generated image data by a composition method using a weighted average, a plurality of captured images are captured more densely as the optical axis L is closer to the reference state, and the optical axis L is in the reference state. A plurality of first captured images are captured sparsely as the distance from the optical axis L is increased, and a weight determined according to the state of the optical axis L of the imaging optical system 11 (the first optical system 21 and the second optical system 22) is set to the optical axis L.
  • the distribution density of the state of the optical axis L of the photographing optical system 11 (the first optical system 21 and the second optical system 22) when picking up a photographed image is determined by a Gaussian distribution based on the state of Also in this case, as shown in FIG. 17B, the distribution density of the state of the optical axis L of the photographing optical system 11 (the first optical system 21 and the second optical system 22) when picking up a photographed image. Is preferably determined based on a Gaussian distribution.
  • each delta function constituting the shift synthesis distribution g may be determined according to a distribution other than the Gaussian distribution G (see FIG. 16), and a plurality of deltas constituting the shift synthesis distribution g.
  • the density difference of the intensity distribution of the function may also be determined according to a distribution other than the Gaussian distribution (see FIG. 17B).
  • the optical axis L state of the photographing optical system 11 is actively controlled by the optical actuator 45 has been described.
  • the “image generation method for performing the above” is applicable to a case where the state of the optical axis L of the photographing optical system 11 is not actively controlled. That is, when the user holds the digital camera 10 shown in FIG. 1 with his / her hand to capture an image, the interference occurs in the same manner as the “case where the optical axis L of the photographing optical system 11 is actively controlled” as described above. It is possible to obtain a desired image with reduced influence of the image.
  • a blur correction technique is generally used in which a captured image is analyzed to detect a blur component of the image and the influence of the blur is reduced based on the blur component. Therefore, even when a wide-angle image and a telephoto image as described above are taken by the digital camera 10, the desired image in each of the wide-angle image and the telephoto image has a signal strength stronger than that of the interference image, and a blur component that is generally performed.
  • a detection method it is possible to detect a camera shake (camera shake) of a desired image (main subject or the like).
  • the imaging apparatus 30 that is held by the user and performs imaging, such as the digital camera 10, does not need to be provided with the optical system actuator 45 like the pan / tilt apparatus, and thus the apparatus configuration is simplified. It can be realized at low cost and can be easily downsized.
  • FIGS. 18A and 18B are diagrams for explaining the amount of displacement of the telephoto image due to the pan operation, in which FIG. 18A shows a second captured image (telephoto image) captured at the first pan position, and FIG. The 2nd picked-up image (telephoto image) imaged in the 2 pan position is shown.
  • FIGS. 19A and 19B are diagrams for explaining the shift amount of the wide-angle image by the pan operation, in which FIG. 19A shows the first captured image (wide-angle image) captured at the first pan position, and FIG. The 1st picked-up image (wide-angle image) imaged in the 2 pan position is shown.
  • FIG. 18A and FIG. 19A are images captured using the first optical system 21 and the second optical system 22 having the same optical axis L, respectively.
  • FIGS. 18B and 19B are images captured using the first optical system 21 and the second optical system 22 having the same optical axis L, respectively.
  • “Sw” shown in FIGS. 18A and 18B is the difference in position (position) of the same image location in the telephoto image between the first pan position and the second pan position. Deviation amount), which can be expressed by the above-mentioned formula (1).
  • “St” shown in FIGS. 19A and 19B is the position of the same image location in the wide-angle image between the first pan position and the second pan position. It shows the difference (positional shift amount) and can be expressed by the above equation (2). Note that the positional deviation amounts represented by “Sw” and “St” indicate the positional deviation amounts at the same location in FIGS. 18 and 19.
  • the position shift amount of the telephoto image and the position shift amount of the wide-angle image are different, and in general, the position shift amount of the telephoto image is wider. It is larger than the positional deviation amount of the image (Sw> St).
  • FIG. 20 is a diagram for explaining a shift amount of a telephoto image (desired image) including an interference image (wide-angle image).
  • FIG. 20A is a second captured image (telephoto image) captured at the first pan position.
  • (B) shows a second captured image (telephoto image) captured at the second pan position.
  • FIG. 21 is a diagram for explaining a shift amount of a wide-angle image (desired image) including an interference image (telephoto image), and (a) is a first captured image (wide-angle image) captured at the first pan position. ), And (b) shows a first captured image (wide-angle image) captured at the second pan position.
  • the above-described principle regarding the positional deviation described with reference to FIGS. 18 and 19 is similarly applied to a case where the captured image includes an interference image in addition to the original desired image. That is, regardless of whether the photographed image is a telephoto image (see FIG. 20) or a wide-angle image (see FIG. 21), the photographing optical system 11 (the first optical system 21 and the second optical system). The positional shift amount based on the difference in the state of the optical axis L in 22) is larger in the telephoto image than in the wide-angle image (Sw> St).
  • FIG. 22 is a diagram for explaining a composite mechanism of a captured image in the first embodiment.
  • FIG. 22A is a telephoto image (desired image including a crosstalk image (wide-angle image) acquired at the first pan position. ) ", (B) shows an outline of the positional relationship between a part of the telephoto image (desired image) shown in (a) and the interference image (wide-angle image), and (c) shows the positional relationship shown in (b).
  • (D) shows a "telephoto image (desired image) including a crosstalk image (wide-angle image)" acquired at the second pan position
  • (e) shows a telephoto image shown in (d)
  • (F) shows a simplified positional relationship shown in (e)
  • (g) shows a schematic diagram shown in (b), and shows a schematic positional relationship between a part of a desired image) and an interference image (wide-angle image).
  • a schematic display example shown in (e), and (h) is based on the simplified diagram shown in (c) and the simplified diagram shown in (f). It shows a conceptual diagram of the synthesis.
  • the relative position between the interference image (wide-angle image) and the desired image (telephoto image) changes according to the state of the optical axis L. Accordingly, for example, “interference image (wide-angle image; see first interference component C1) and desired image (telephoto image; see first desired image component R1) at the first pan position shown in FIGS. 22 (a) to 22 (c)”.
  • the desired image (telephoto image; first desired image)
  • the image component R1 and the second desired image component R2) are synthesized in a state where the positions coincide with each other, so that a very clear image is obtained.
  • the crosstalk image wide-angle image; see the first crosstalk component C1 and the second crosstalk component C2
  • the image strength is relatively lowered and is not noticeable.
  • FIG. 23 is a diagram illustrating a generation example of a telephoto image acquired by the imaging device 30 according to the first embodiment.
  • FIG. 23A shows a plurality of photographed images (telephoto images), and
  • FIG. 23B shows an example of a telephoto image generated by alignment and synthesis of the plurality of photographed images.
  • FIG. 24 is a diagram illustrating a generation example of a wide-angle image acquired by the imaging device 30 according to the first embodiment.
  • FIG. 24A shows a plurality of photographed images (wide-angle images)
  • FIG. 24B shows an example of a wide-angle image generated by alignment and synthesis of the plurality of photographed images.
  • FIG. 25 is a block diagram illustrating a functional configuration example of the image generation unit 32 according to the second embodiment.
  • the image generation unit 32 includes an image correction unit 60 that corrects the first captured image (wide-angle image) and the second captured image (telephoto image) in addition to the image composition unit 33 described above.
  • the image correction unit 60 corrects the first photographed image data D11 and the second photographed image data D12 sent from the image sensor 24 (the first sensor group 24a and the second sensor group 24b), and the first photographed image ( The influence of light passing through the second optical system 22 in the wide-angle image) is reduced, and the influence of light passing through the first optical system 21 in the second captured image (telephoto image) is reduced. Then, the first captured image data D11 and the second captured image data D12 corrected by the image correcting unit 60 are sent to the image composition unit 33, and the first generated image data D21 and the second generated image data D22 are converted by the image composition unit 33. Generated.
  • the specific method of the above-described interference removal processing in the image correction unit 60 is not particularly limited.
  • the image correction unit 60 can reduce the influence of unnecessary light from the captured image according to the following method.
  • FIG. 26 shows a wide-angle image (see FIG. 26A) and a telephoto image (see FIG. 26A) affected by image quality degradation due to interference (crosstalk) of photographing light between the first optical system 21 and the second optical system 22.
  • An example is shown in FIG.
  • the first sensor group 24a (see FIG. 4) intended to receive only the wide-angle image light receives the telephoto image light.
  • the second sensor group 24b (see FIG. 4) that is intended to receive only the telephoto image light is obtained because a wide-angle image in which a part of the telephoto image component is superimposed is obtained (see FIG. 26 (a)). Since wide-angle image light leaks into the image, a telephoto image in which a part of the wide-angle image component is superimposed is obtained (see FIG. 26B).
  • FIG. 27 is a conceptual diagram for explaining a mechanism of interference of photographing light between optical systems.
  • the symbol “Iw1” indicates a true wide-angle image
  • the symbol “It1” indicates a true telephoto image.
  • the symbol “Iw2” indicates an output wide-angle image generated from the imaging signal actually output from the first sensor group 24a (first light receiving sensor 25a)
  • “It2” indicates the second sensor group 24b (second sensor). The output telephoto image produced
  • the imaging device 30 When a wide-angle image and a telephoto image are taken by the imaging device 30 (see FIGS. 1 and 2) including the imaging optical system 11 and the imaging device 24 shown in FIG. 3, the imaging device 30 (especially the light shielding mask 28 of the imaging device 24). ) Has sufficient pupil division performance, imaging signals representing the true wide-angle image Iw1 and the true telephoto image It1 shown in FIG. However, as described above, when the pupil division performance is not sufficient and there is interference between the wide-angle image light and the telephoto image light, the wide-angle image is output like the output wide-angle image Iw2 and the output telephoto image It2 shown in FIG. And an imaging signal representing a multiplexed image in which a telephoto image is mixed is output from each of the first sensor group 24a and the second sensor group 24b.
  • distribution information (index) indicating components appropriately received by the first sensor group 24a (first light receiving sensor 25a) in the photographing light of the true wide angle image Iw1 is “wide angle detection”.
  • the distribution information indicating the component improperly received by the second sensor group 24b (second light receiving sensor 25b) is referred to as “wide-angle interference gain distribution D2”.
  • distribution information indicating a component that is improperly received by the first sensor group 24a (first light receiving sensor 25a) in the photographed light of the true telephoto image It1 is referred to as “telephoto interference gain distribution D3”, and the second sensor.
  • Distribution information indicating components appropriately received by the group 24b (second light receiving sensor 25b) is referred to as “telephoto detection gain distribution D4”.
  • a wide-angle image component obtained by applying the wide-angle detection gain distribution D1 to the true wide-angle image Iw1 and received by the first sensor group 24a (first light-receiving sensor 25a) is obtained. Let it be a “true wide-angle image component E1”. Further, the telephoto image component obtained by applying the telephoto interference gain distribution D3 to the true telephoto image It1, and the telephoto image component received by the first sensor group 24a (the first light receiving sensor 25a) is “interference”. The telephoto image component E2 ”.
  • the wide-angle image component obtained by applying the wide-angle interference gain distribution D2 to the true wide-angle image Iw1 and received by the second sensor group 24b (second light receiving sensor 25b) is referred to as “interference”.
  • Wide-angle image component E3 ".
  • the telephoto image component obtained by applying the telephoto detection gain distribution D4 to the true telephoto image It1 and received by the second sensor group 24b (second light receiving sensor 25b) is expressed as “true”.
  • the telephoto image component E4 ”.
  • the output wide-angle image Iw2 generated by the imaging signal output from the first sensor group 24a is obtained by adding the true wide-angle image component E1 and the interference telephoto image component E2. Based on images.
  • the output telephoto image It2 generated by the imaging signal output from the second sensor group 24b is an image obtained by adding the interference wide-angle image component E3 and the true telephoto image component E4. Based.
  • the pupil division performance of the image pickup device is inferior, the wide-angle image light and the telephoto image light are not sufficiently separated and received by the image pickup device 24, and the component ratio of the interference telephoto image component E2 and the interference wide-angle image component E3 increases.
  • the ratio of the interference telephoto image component E2 in the output wide-angle image Iw2 increases, and the ratio of the interference wide-angle image component E3 in the output telephoto image It2 increases.
  • the image pickup signal output from the image pickup device 24 is an image component obtained by applying the detection gain distribution to a true image and an interference gain for an image of another channel. This corresponds to a sum of image components obtained by applying the distribution.
  • An image (imaging signal) in which a wide-angle image and a telephoto image are overlapped is output by crosstalk (crosstalk) in such a directivity sensor (imaging device 24). A deteriorated captured image is output.
  • the image correction unit 60 performs correction processing on the wide-angle image data and the telephoto image data, and reads “the telephoto image component mixed in the wide-angle image (that is, passing through the second optical system 22).
  • the influence of the “photographing light component of a wide-angle image)” is suppressed.
  • the image correction unit 60 includes the detection gain distribution of the wide-angle image (first captured image) and the telephoto image (second captured image) and It is possible to perform correction processing on the wide-angle image and the telephoto image based on the inverse matrix of the matrix constituted by the interference gain distribution.
  • FIG. 28 is a diagram showing the relationship of the matrix M composed of the true wide-angle image Iw1, the true telephoto image It1, the output wide-angle image Iw2, the output telephoto image It2, and the detection gain distribution and the interference gain distribution.
  • “true wide-angle image Iw1, true telephoto image It1, output wide-angle image Iw2 and output telephoto image It2” shown in FIG. 28 are respectively “true wide-angle image Iw1, true telephoto image It1, and output wide-angle”. This corresponds to the image Iw2 and the output telephoto image It2.
  • the output wide-angle image Iw2 and the output telephoto image It2 generated from the imaging signal output from the imaging element 24 are “detected gain distribution”.
  • true telephoto image It1 the true telephoto image It1 ”.
  • the matrix M composed of the detection gain distribution and the interference gain distribution is composed of a wide angle detection gain distribution D1, a wide angle interference gain distribution D2, a telephoto interference gain distribution D3, and a telephoto detection gain distribution D4.
  • X2 matrix the “wide-angle detection gain distribution D1, wide-angle interference gain distribution D2, telephoto interference gain distribution D3, and telephoto detection gain distribution D4” shown in FIG. 28 are “wide-angle detection gain distribution D1, wide-angle interference gain distribution D2, This corresponds to the telephoto interference gain distribution D3 and the telephoto detection gain distribution D4 ".
  • FIG. 29 is a diagram illustrating a determinant obtained by applying an inverse matrix M ⁇ 1 of “matrix M configured by detection gain distribution and interference gain distribution” to the determinant illustrated in FIG. 28.
  • the “true wide-angle image Iw1 and true telephoto image It1 that are the original wide-angle image and the telephoto image” can be obtained by the product of the output wide-angle image Iw2 and the output telephoto image It2 generated from the captured image signal. it can.
  • FIG. 30 shows a determinant obtained by simplifying the determinant of FIG.
  • W1 collectively represents pixel components (pixel values) of the true wide-angle image Iw1
  • T1 collectively represents pixel components of the true telephoto image It1
  • W2 represents the output wide-angle image.
  • the pixel components of Iw2 are collectively represented
  • T2 collectively represents the pixel components of the output telephoto image It2.
  • A”, “B”, “C”, and “D” are elements constituting the wide-angle detection gain distribution D1, the telephoto interference gain distribution D3, the wide-angle interference gain distribution D2, and the telephoto detection gain distribution D4, respectively. Represent collectively.
  • FIG. 31 shows elements w1_11 to w1_mn constituting “W1” shown in FIG. That is, “W1” is configured by elements w1_11 to w1_mn corresponding to the pixel components (pixel values) of the true wide-angle image Iw1.
  • M and “n” each represent an integer of 2 or more, and “m” and “n” may be the same or different.
  • “W2”, “T1”, and “T2” illustrated in FIG. 30 are elements w2_11 to w2_mn corresponding to the pixel components (pixel values) of the output wide-angle image Iw2, the true telephoto image It1, and the output telephoto image It2, respectively.
  • T1_11 to t1_mn and t2_11 to t2_mn (not shown).
  • “A”, “B”, “C”, and “D” shown in FIG. 30 are elements a11 to amn, b11 to bmn, c11 to cmn, and d11 that are determined according to the pixels of the wide-angle image and the telephoto image, respectively. To dmn (not shown).
  • FIG. 32 shows a calculation formula of “w1_ij” derived based on the determinant shown in FIG.
  • FIG. 33 shows a calculation formula of “t1_ij” derived based on the determinant shown in FIG. 32 and 33, “i” represents any integer from 1 to m, and “j” represents any integer from 1 to n.
  • i represents any integer from 1 to m
  • j represents any integer from 1 to n.
  • elements w1_11 to w1_mn corresponding to the pixel components (pixel values) of the true wide-angle image Iw1 and elements t1_11 to t1_mn corresponding to the pixel components (pixel values) of the true telephoto image It1 are
  • the output wide-angle image Iw2, the output telephoto image It2, and the inverse matrix M- 1 can be calculated by calculation.
  • the image correction unit 60 corrects wide-angle image data (first captured image data D11) and telephoto image data (second captured image data D12) based on the arithmetic expressions shown in FIGS. By performing the above, it is possible to reduce the influence of “the telephoto image component mixed in the wide-angle image” or the “wide-angle image component mixed in the telephoto image”.
  • the detection gain distribution and the interference gain distribution are configured by the same number of elements as the number of pixels constituting each of the wide-angle image and the telephoto image, thereby forming the detection gain distribution and the interference gain distribution. It is preferable that an inverse matrix M ⁇ 1 for each element (for each corresponding pixel) is used in the image correction unit 60.
  • M ⁇ 1 for each element (for each corresponding pixel) is used in the image correction unit 60.
  • the “elements that make up the detection gain distribution and interference gain distribution” approximate in “a part or all of the pixels that make up the wide-angle image and the telephoto image”, such as when shading is small, the calculation cost is given priority.
  • “elements constituting the detection gain distribution and the interference gain distribution” may be represented by a common representative value in the approximate range.
  • the detection gain distribution and the interference gain distribution can be represented by a single representative value, and “the detection gain distribution and the interference gain distribution are configured.
  • the correction processing based on the inverse of the matrix to be performed can be performed simply and at high speed.
  • the image correcting unit 60 stores and holds elements of the inverse matrix M ⁇ 1 derived in advance from the matrix M, and outputs the elements of the inverse matrix M ⁇ 1 stored and held as the output wide-angle image Iw2 and the output telephoto image. By applying it to It2, it is possible to reduce the influence of the photographing light of the telephoto image in the wide-angle image and to reduce the influence of the photographing light of the wide-angle image in the telephoto image.
  • the “correction processing based on the inverse matrix M ⁇ 1 of the matrix M composed of the detection gain distribution and the interference gain distribution” in the image correction unit 60 described above is a wide-angle image data (first captured image) acquired from the image sensor 24. Although it is performed on the data D11) and the telephoto image data (second photographed image data D12), it is not limited to this. For example, for the wide-angle image data (first photographed image data D11) and telephoto image data (second photographed image data D12) stored in a memory such as the image storage unit 39 and output to the image generation unit 32, the image correction unit 60 The “correction process based on the inverse matrix of the matrix constituted by the detection gain distribution and the interference gain distribution” in FIG.
  • the “correction processing based on the inverse matrix M ⁇ 1 of the matrix M composed of the detection gain distribution and the interference gain distribution” in the image correction unit 60 described above is actually the color that forms the wide-angle image data and the telephoto image data. This is done for each channel.
  • the image correction unit 60 stores and holds “an inverse matrix M ⁇ 1 of the matrix M configured by the detection gain distribution and the interference gain distribution” for each of the color channels.
  • the image sensor 24 (the first light receiving sensor 25a and the second light receiving sensor 25b) has RGB (red, green, blue) color filters, and wide-angle image data (first captured image data D11) configured by RGB data.
  • the image correction unit 60 is configured by “detection gain distribution and interference gain distribution for each color channel of RGB.
  • the inverse matrix M ⁇ 1 ”of the matrix M is retained and applied to the output wide-angle image Iw2 and the output telephoto image It2.
  • FIG. 34 shows an example of an image when “correction processing based on an inverse matrix M ⁇ 1 of a matrix M composed of a detection gain distribution and interference gain distribution” is performed, (a) shows an example of a wide angle image, b) shows an example of a telephoto image.
  • FIG. 35 shows that “composition processing after alignment” according to the first embodiment is performed after performing “correction processing based on inverse matrix M ⁇ 1 of matrix M configured by detection gain distribution and interference gain distribution”.
  • An example of the image is shown, (a) shows an example of a wide angle image, and (b) shows an example of a telephoto image.
  • a mixture of bright pixel components among the telephoto image components is somewhat conspicuous.
  • a mixture of sharp outline components among the wide-angle image components is somewhat conspicuous.
  • the wide-angle image example shown in FIG. 35A and the telephoto image example shown in FIG. 35B according to the present embodiment the wide-angle image example shown in FIG. 34A and the telephoto image shown in FIG. In the example, the conspicuous mixed component is reduced, and the image is high quality with excellent visibility as a whole.
  • FIG. 36 after performing “correction processing based on the inverse matrix M ⁇ 1 of the matrix M composed of detection gain distribution and interference gain distribution”, “composition processing after alignment” according to the first embodiment is performed. Another example of the image is shown.
  • FIG. 36A shows an example of a telephoto image (second captured image data D12) output from the image sensor 24 (second sensor group 24b).
  • the wide-angle image component and the telephoto image component are “wide-angle image components:
  • the telephoto image component is mixed at a ratio of 0.49: 0.51.
  • FIG. 36B shows an example of a wide-angle captured image (first captured image data D11) output from the image sensor 24 (first sensor group 24a).
  • the wide-angle image component and the telephoto image component are “wide-angle image components:
  • the telephoto image component is mixed at a ratio of 0.51: 0.49.
  • FIG. 36 (c) shows the telephoto imaging shown in FIG. 36 (a) for “a correction process based on the inverse matrix M ⁇ 1 of the matrix M composed of the detection gain distribution and the interference gain distribution (see FIGS. 28 to 33)”.
  • the telephoto image (2nd picked-up image data D12) obtained by applying to an image is shown.
  • the interference component wide-angle image component
  • a removal residual remains.
  • FIG. 36 (d) shows the “correction processing based on the inverse matrix M ⁇ 1 of the matrix M composed of the detection gain distribution and the interference gain distribution (see FIGS. 28 to 33)” as shown in FIG. 36 (b).
  • the wide-angle image (1st picked-up image data D11) obtained by applying to an image is shown.
  • the interference component telephoto image component
  • the interference component cannot be completely removed by the “correction processing based on the inverse matrix M ⁇ 1 ”, and a removal residual remains.
  • FIG. 36E shows a plurality of telephoto images (second photo image data D12) acquired by changing the state of the optical axis L of the second optical system 22 two-dimensionally, and “detection gain distribution”. And a plurality of telephoto images (see FIG. 36C) after applying the “correction processing based on the inverse matrix M ⁇ 1 of the matrix M composed of interference gain distributions (see FIGS. 28 to 33)”.
  • FIG. 36F shows a plurality of wide-angle photographed images (first photographed image data D11) acquired by changing the state of the optical axis L of the first optical system 21 two-dimensionally.
  • a plurality of wide-angle photographed images (see FIG. 36 (d)) after applying the “correction process based on the inverse matrix M ⁇ 1 of the matrix M composed of interference gain distributions (see FIGS. 28 to 33)” are shown.
  • FIG. 36G shows a telephoto generation image obtained by performing “positioning processing and composition processing (see FIG. 23)” of the plurality of telephoto images (second captured image data D12) shown in FIG. (Second generation image data D22) is shown.
  • the ratio of the focal length of the first optical system 21 (wide-angle image optical system) to the focal length of the second optical system 22 (telephoto image optical system) is “7: 1”.
  • 9 pixels in the horizontal direction H (pan direction) and 9 pixels in the vertical direction V (tilt direction), and a total of 81 ( 9 ⁇ 9) telephoto
  • a telephoto generation image (second generation image data D22) obtained from the captured image (second captured image data D12) is shown.
  • FIG. 36 (h) shows a wide-angle generated image obtained by performing “positioning processing and composition processing (see FIG. 24)” of the plurality of wide-angle captured images (first captured image data D11) shown in FIG. 36 (f).
  • First generation image data D21 is shown.
  • the ratio between the focal length of the first optical system 21 (wide-angle image optical system) and the focal length of the second optical system 22 (telephoto image optical system) is “7: 1”.
  • a total of 81 ( 9 ⁇ 9) wide angles by moving by 9 pixels in the horizontal direction H (pan direction) and moving by 9 pixels in the vertical direction V (tilt direction).
  • a wide-angle generated image (first generated image data D21) obtained from a captured image (first captured image data D11) is shown.
  • the proportion of the image is very large.
  • FIG. As shown in h by combining the correction processing by the image correction unit 60 and the correction processing by the image composition unit 33 as in the image generation unit 32 of the present embodiment, FIG. As shown in h), it is possible to acquire the generated images (first generated image data D21 and second generated image data D22) reduced to a level at which the interference component cannot be almost visually recognized. Therefore, according to the present embodiment, even with an inexpensive image sensor 24 with low image separation performance (pupil division performance), it is possible to acquire a high-quality generated image in which interference components are efficiently reduced. Useful.
  • the image correction unit 60 may perform correction processing other than the “correction processing based on the inverse matrix M ⁇ 1 of the matrix M configured by the detection gain distribution and the interference gain distribution” described above.
  • the image correcting unit 60 for example, “correction processing for correcting the wide-angle image data (first captured image data D11) to reduce the influence of the aberration of the first optical system 21” or “telephoto image data (second captured image data D12). ) To reduce the influence of the aberration of the second optical system 22 ”.
  • the image correction unit 60 also performs deformation such as trapezoid correction reflecting the optical characteristics of the photographing optical system 11 (the first optical system 21 and the second optical system 22).
  • unnecessary components such as noise and blur are reduced for the originally intended image component, and a clearer generated image (first generated image data D21). And second generated image data D22) can be obtained.
  • FIG. 25 shows an example in which the image correction unit 60 is provided before the image composition unit 33, but the position where the image correction unit 60 is provided is not particularly limited.
  • a plurality of image correction units (a first image correction unit 60a and a second image correction unit 60b) may be provided in the image generation unit 32.
  • An image correction unit (the first image correction unit 60a and the second image correction unit 60b) may be provided in the subsequent stage.
  • the first image correction unit 60a performs the above-described “correction processing based on the inverse matrix M ⁇ 1 of the matrix M composed of the detection gain distribution and the interference gain distribution”.
  • the combining unit 33 generates image data (first generated image data D21 and second generated image data D22) from the captured image data (first captured image data D11 and second captured image data D12) corrected by the first image correcting unit 60a. ) And the second image correction unit 60b may perform other correction processing on the generated image data (first generated image data D21 and second generated image data D22). As shown in FIG. 38, an image correction unit 60 may be provided in the image generation unit 32 at a later stage than the image synthesis unit 33.
  • a plurality of first captured images (with the optical axis L of the first optical system 21 being different) Wide-angle image) is captured, and a plurality of second captured images (telephoto images) are captured in a state where the optical axis L of the second optical system 22 is different.
  • a plurality of first captured images (wide-angle images) are captured in a state where the optical axis L of the first optical system 21 is different, and the second optical A plurality of second captured images (telephoto images) are captured in a state where the optical axis L of the system 22 is different.
  • the present embodiment described below is suitable when the imaging device 30 is configured by a microscope or the like, for example.
  • FIG. 39 is a block diagram illustrating an imaging apparatus 30 according to the third embodiment. 39 shows only the imaging main body 44 (the imaging optical system 11 and the imaging device 24), the optical system actuator 45, the main controller 37, the subject 64, the subject holding unit 65, and the subject actuator 66.
  • the imaging device 30 shown in FIG. 7 also includes each unit shown in FIGS. 7 to 10 (for example, the image generation unit 32).
  • the imaging apparatus 30 of the present embodiment further includes a subject holding unit 65 that holds the subject 64 and a subject actuator 66 that moves the subject holding unit 65 under the control of the main controller 37.
  • the subject holding unit 65 is not particularly limited as long as the subject 64 can hold the subject 64 in a fixed manner.
  • the subject holding unit 65 of this example is slid by a subject actuator 66, and the subject actuator 66 is in a direction perpendicular to the optical axis L of the photographing optical system 11 (the first optical system 21 and the second optical system 22).
  • the subject holding unit 65 can be moved two-dimensionally.
  • the subject 64 under the control of the main controller 37, the subject 64 is imaged by the imaging main body 44 while moving the subject 64 by the subject holding unit 65.
  • the subject images in the captured images (first captured image data D11 and second captured image data D12) acquired by the imaging main body 44 are “subject actuator 66 and subject. It moves in a direction opposite to the “moving direction of the subject 64 by the holding unit 65”. For example, when the subject 64 slides 10 cm in the horizontal right direction HR (see FIG. 39), the subject images in the captured images (first captured image data D11 and second captured image data D12) are relatively horizontally left (reference numerals in FIG. 39). Slide 10 cm (see “HL”).
  • the imaging apparatus 30 is suitable for a case where the state of the optical axis L of the photographing optical system 11 needs to be precisely changed, such as when imaging a relatively small subject 64. is there.
  • the movement of the subject 64 by the subject actuator 66 and the subject holding unit 65 and the movement of the imaging main body 44 (the imaging optical system 11 and the imaging element 24) by the optical system actuator 45 are combined to provide a plurality of Captured images (first captured image data D11 and second captured image data D12) may be acquired.
  • the above-described embodiments may be appropriately combined, and the “detection gain” according to the above-described second embodiment is added to the above-described imaging device 30 according to the above-described third embodiment.
  • the correction processing based on the inverse matrix M ⁇ 1 of the matrix M configured by the distribution and the interference gain distribution ” may be applied.
  • the photographing optical system 11 is configured by two types of optical systems (the first optical system 21 and the second optical system 22) has been described, but the photographing optical system is configured by three or more types of optical systems. 11 may be configured.
  • each of the above-described configurations and functions can be appropriately realized by arbitrary hardware, software, or a combination of both.
  • a computer-readable recording medium non-transitory recording medium
  • the present invention can be applied.
  • the aspect to which the present invention can be applied is not limited to the digital camera 10 shown in FIG. 1 and the automatic tracking imaging device 14 shown in FIG. 2, in addition to the cameras whose main function is imaging, in addition to the imaging function.
  • the present invention can also be applied to mobile devices having functions other than imaging (call function, communication function, or other computer functions).
  • Other aspects to which the present invention can be applied include, for example, mobile phones and smartphones having a camera function, PDAs (Personal Digital Assistants), and portable game machines.
  • PDAs Personal Digital Assistants
  • portable game machines Portable game machines.
  • FIG. 40 is a diagram illustrating an appearance of a smartphone 101 that is an embodiment of the imaging apparatus of the present invention.
  • a smartphone 101 illustrated in FIG. 40 includes a flat housing 102, and a display panel 121 as a display unit and an operation panel 122 as an input unit are integrally formed on one surface of the housing 102.
  • a display input unit 120 is provided.
  • the housing 102 includes a speaker 131, a microphone 132, an operation unit 140, and a camera unit 141. Note that the configuration of the housing 102 is not limited to this, and for example, a configuration in which a display unit and an input unit are provided independently, or a configuration having a folding structure and a slide mechanism can be employed.
  • FIG. 41 is a block diagram showing a configuration of the smartphone 101 shown in FIG.
  • the main components of the smartphone 101 include a wireless communication unit 110, a display input unit 120, a call unit 130, an operation unit 140, a camera unit 141, a storage unit 150, and an external input / output.
  • Unit 160 GPS (Global Positioning System) receiving unit 170, motion sensor unit 180, power supply unit 190, and main control unit 100.
  • a wireless communication function for performing mobile wireless communication via a base station device and a mobile communication network is provided.
  • the wireless communication unit 110 performs wireless communication with a base station device connected to the mobile communication network in accordance with an instruction from the main control unit 100.
  • the wireless communication is used to transmit and receive various file data such as audio data and image data, e-mail data, and receive Web data and streaming data.
  • the display input unit 120 is a so-called touch panel including a display panel 121 and an operation panel 122, and displays images (still images and moving images), character information, and the like visually to the user under the control of the main control unit 100. , And detects user operations on the displayed information.
  • the display panel 121 uses an LCD (Liquid Crystal Display) or an OELD (Organic Electro-Luminescence Display) as a display device.
  • the operation panel 122 is a device that is provided in a state where an image displayed on the display surface of the display panel 121 is visible, and detects one or more coordinates operated by a user's finger or stylus. When the device is operated by the user's finger or stylus, the operation panel 122 outputs a detection signal generated due to the operation to the main control unit 100. Next, the main control unit 100 detects an operation position (coordinates) on the display panel 121 based on the received detection signal.
  • the display panel 121 and the operation panel 122 of the smartphone 101 illustrated in FIG. 40 as an embodiment of the imaging apparatus of the present invention integrally form the display input unit 120, and the operation panel 122 completely covers the display panel 121. It is arranged to cover.
  • the operation panel 122 may have a function of detecting a user operation even in an area outside the display panel 121.
  • the operation panel 122 includes a detection area (hereinafter referred to as “display area”) for the overlapping portion overlapping the display panel 121 and a detection area (hereinafter referred to as “display area”) for the other outer edge portion that does not overlap the display panel 121. (Referred to as “non-display area”).
  • the operation panel 122 may be provided with two sensitive areas of an outer edge part and the other inner part. Further, the width of the outer edge portion is appropriately designed according to the size of the housing 102 and the like. Furthermore, examples of the position detection method employed in the operation panel 122 include a matrix switch method, a resistance film method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, and a capacitance method. It may be adopted.
  • the call unit 130 includes a speaker 131 and a microphone 132, converts user's voice input through the microphone 132 into voice data that can be processed by the main control unit 100, and outputs the voice data to the main control unit 100, or a wireless communication unit. 110 or the audio data received by the external input / output unit 160 is decoded and output from the speaker 131.
  • the speaker 131 can be mounted on the same surface as the surface on which the display input unit 120 is provided, and the microphone 132 can be mounted on the side surface of the housing 102.
  • the operation unit 140 is a hardware key using a key switch or the like, and receives an instruction from the user.
  • the operation unit 140 is mounted on the side surface of the housing 102 of the smartphone 101 and is switched on when pressed by a finger or the like, and is switched off by a restoring force such as a spring when the finger is released. It is a push button type switch that is in a state.
  • the storage unit 150 includes a control program and control data of the main control unit 100, application software, address data that associates the name and telephone number of a communication partner, transmitted and received e-mail data, Web data downloaded by Web browsing, and Stores downloaded content data and the like, and temporarily stores streaming data and the like.
  • the storage unit 150 includes an internal storage unit 151 with a built-in smartphone and an external storage unit 152 having a removable external memory slot. Note that each of the internal storage unit 151 and the external storage unit 152 included in the storage unit 150 includes a flash memory type and a hard disk type.
  • multimedia card micro type multimedia card
  • a storage medium such as a micro type
  • a card type memory for example, a MicroSD (registered trademark) memory
  • a RAM Random Access Memory
  • ROM Read Only Memory
  • the external input / output unit 160 serves as an interface with all external devices connected to the smartphone 101, and can be used for communication (for example, Universal Serial Bus (USB), IEEE 1394, etc.) or a network (for example, the Internet).
  • USB Universal Serial Bus
  • IEEE 1394 IEEE 1394
  • a network for example, the Internet.
  • Wireless LAN Bluetooth (registered trademark), RFID (Radio Frequency Identification), Infrared Data Association (IrDA) (registered trademark), UWB (Ultra Wideband) (registered trademark), ZigBee (Z) Etc.) to directly or indirectly connect to other external devices.
  • Bluetooth registered trademark
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra Wideband
  • Examples of the external device connected to the smartphone 101 include a wired / wireless headset, a wired / wireless external charger, a wired / wireless data port, a memory card (Memory card) connected via a card socket, and a SIM (Subscriber).
  • Identity Module Card / UIM User Identity Module Card
  • external audio / video device connected via audio / video I / O (Input / Output) terminal
  • external audio / video device connected wirelessly wired /
  • the external input / output unit 160 is configured to transmit data received from such an external device to each component inside the smartphone 101, or to transmit data inside the smartphone 101 to the external device. May be.
  • the GPS receiving unit 170 receives GPS signals transmitted from the GPS satellites ST1, ST2 to STn according to instructions from the main control unit 100, executes positioning calculation processing based on the received GPS signals, and calculates the latitude of the smartphone 101. Detect the position specified by longitude and altitude. If the GPS receiving unit 170 can acquire position information from the wireless communication unit 110 and / or the external input / output unit 160 (for example, a wireless LAN (Local Area Network)), the GPS receiving unit 170 detects the position using the position information. You can also.
  • the motion sensor unit 180 includes, for example, a triaxial acceleration sensor and detects the physical movement of the smartphone 101 in accordance with an instruction from the main control unit 100. By detecting the physical movement of the smartphone 101, the moving direction and acceleration of the smartphone 101 are detected. The detection result is output to the main control unit 100.
  • the power supply unit 190 supplies power stored in a battery (not shown) to each unit of the smartphone 101 in accordance with an instruction from the main control unit 100.
  • the main control unit 100 includes one or more microprocessors, operates according to a control program and control data stored in the storage unit 150, and controls each unit of the smartphone 101 in an integrated manner.
  • the main control unit plays the role of, for example, the image generation unit 32 (image synthesis unit 33), the main controller 37, and the image processing unit 38.
  • the main control unit 100 includes a mobile communication control function for controlling each unit of the communication system and an application processing function in order to perform voice communication and data communication through the wireless communication unit 110.
  • the application processing function is realized by the main control unit 100 operating according to the application software stored in the storage unit 150.
  • Application processing functions include, for example, an infrared communication function for performing data communication with the opposite device by controlling the external input / output unit 160, an e-mail function for transmitting and receiving e-mails, and a web browsing function for browsing web pages. There is.
  • the main control unit 100 also has an image processing function such as displaying video on the display input unit 120 based on image data (still image or moving image data) such as received data or downloaded streaming data.
  • the image processing function refers to a function in which the main control unit 100 decodes the image data, performs image processing on the decoding result, and displays an image obtained through the image processing on the display input unit 120. .
  • the main control unit 100 executes display control for the display panel 121 and operation detection control for detecting a user operation through the operation unit 140 or the operation panel 122.
  • the main control unit 100 By executing the display control, the main control unit 100 displays an icon for starting application software, a software key such as a scroll bar, or a window for creating an e-mail.
  • a software key such as a scroll bar, or a window for creating an e-mail.
  • the scroll bar refers to a software key for accepting an instruction to move the display portion of a large image that does not fit in the display area of the display panel 121.
  • the main control unit 100 detects a user operation through the operation unit 140, or accepts an operation on the icon or an input of a character string in the input field of the window through the operation panel 122. Or a display image scroll request through a scroll bar.
  • the main control unit 100 causes the operation position with respect to the operation panel 122 to correspond to the overlapping portion (display area) overlapping the display panel 121 or the outer edge portion not overlapping the other display panel 121.
  • a touch panel control function is provided for determining whether it corresponds to (non-display area) and controlling the sensitive area of the operation panel 122 and the display position of the software key.
  • the main control unit 100 can also detect a gesture operation on the operation panel 122 and execute a preset function according to the detected gesture operation.
  • Gesture operation is not a conventional simple touch operation, but an operation of drawing a trajectory with at least one position from a plurality of positions by drawing a trajectory with a finger or the like, or specifying a plurality of positions simultaneously. means.
  • the camera unit 141 is a CMOS (Complementary Metal Oxide). This is a digital camera that performs electronic photography using an imaging device such as a semiconductor. Further, the camera unit 141 converts image data obtained by imaging into compressed image data such as JPEG (Joint Photographic Experts Group) under the control of the main control unit 100, and records the image data in the storage unit 150. Or can be output through the external input / output unit 160 or the wireless communication unit 110. As shown in FIG. 40, in the smartphone 101, the camera unit 141 is mounted on the same surface as the display input unit 120. However, the mounting position of the camera unit 141 is not limited to this, and the housing 102 in which the display input unit 120 is provided.
  • JPEG Joint Photographic Experts Group
  • the camera unit 141 may be mounted not on the front surface of the housing 102 but on the back surface of the housing 102, or a plurality of camera units 141 may be mounted on the housing 102.
  • the camera unit 141 used for shooting may be switched and shooting may be performed by the single camera unit 141, or a plurality of camera units 141 may be used simultaneously. Then, shooting may be performed.
  • the camera unit 141 can be used for various functions of the smartphone 101.
  • an image acquired by the camera unit 141 may be displayed on the display panel 121, or an image captured and acquired by the camera unit 141 may be used as one of the operation input methods of the operation panel 122.
  • the GPS receiving unit 170 detects the position, the position may be detected by referring to an image from the camera unit 141.
  • the image from the camera unit 141 is referred to, and the optical axis direction of the camera unit 141 of the smartphone 101 is determined without using the triaxial acceleration sensor or in combination with the triaxial acceleration sensor. It is also possible to determine the current usage environment.
  • the image from the camera unit 141 can also be used in the application software.
  • the above-described image generation unit 32, image processing unit 38, display controller 40, main controller 37, and the like can be realized by the main control unit 100, for example.
  • Display input section 121 ... Display panel, 122 ... Operation panel , 130 ... Calling unit, 131 ... Speaker, 132 ... Microphone, 140 ... Operation unit, 141 ... Camera unit, 150 ... Storage unit, 151 ... Inside Storage unit, 152 ... external storage, 160 ... external input and output unit, 170 ... GPS receiver, 180 ... motion sensor unit, 190 ... power supply unit

Abstract

 簡素な処理構成によって、光学系間における撮影光の干渉の影響を低減して高品質の画像を取得することができる撮像装置、撮像方法及びプログラムを提供する。撮像装置30は、共通の光軸を有し相互に異なる焦点距離を有する第1光学系21及び第2光学系22を含む撮影光学系11と、第1光学系21を通過した光を選択的に受光する第1センサ群24aと、第2光学系22を通過した光を選択的に受光する第2センサ群24bとを含む撮像素子24と、第1光学系21の光軸Lが異なる状態で撮像される複数の第1撮影画像の位置合わせを行い、位置合わせされた複数の第1撮影画像を合成することで第1生成画像を生成し、第2光学系22の光軸Lが異なる状態で撮像される複数の第2撮影画像の位置合わせを行い、位置合わせされた複数の第2撮影画像を合成することで第2生成画像を生成する画像合成部33とを備える。

Description

撮像装置、撮像方法及びプログラム
 本発明は、光学特性が異なる複数種類の光学系を使って撮影を行う撮像装置、撮像方法及びプログラムに係り、特に光学系間における撮影光の干渉(クロストーク)によって低下しうる撮影画像の画質を改善する技術に関する。
 撮像装置の技術分野では、複数の特性を有する光学系を用いて撮影を行うことにより、複数種類の画像を同時に取得する技術が知られている。
 例えば特許文献1は、多彩な光学特性を有する多様レンズと指向性センサとが組み合わされた撮像装置を開示する。この撮像装置によれば、瞳分割が利用されて焦点距離及び合焦距離のうち少なくともいずれか一方が異なる複数の撮影画像を取得することができる。
 このような多様レンズと指向性センサとが組み合わされた撮像装置では、光学特性の異なるレンズ(光学系)間で撮影光が干渉(クロストーク)してしまい、本来意図されている画像上に意図していない画像成分が重畳してしまうことがある。例えば多様レンズが広角レンズと望遠レンズとを含む場合に、広角画像成分と望遠画像成分とが混ざってしまい、その結果広角画像上に望遠画像が重なったり、望遠画像上に広角画像が重なったりする。
 光学特性の異なるレンズ(光学系)間におけるこのような撮影光の干渉(クロストーク)に関し、特許文献3に開示の撮像装置では、各レンズの光学特性に応じた画像処理を行うことにより混信成分が低減されている。
国際公開第2013/146506号
 上述のように、多様レンズと指向性センサとが組み合わされた撮像装置によって撮像された画像における混信成分を、画像処理によって低減することができる。しかしながら、被写体、多様レンズ及び指向性センサの特性、及びその他の撮影条件によっては、そのような混信成分を画像から効果的に除去することが難しい場合がある。
 特に、実際に使用される指向性センサのサンプリング密度が低くチャンネル間の空間位相の差が無視できないケース、使用する指向性センサの線形性が悪いケース、指向性センサによって受光される撮影光の強度が強過ぎたり又は弱過ぎたりするケース、指向性センサの隣接画素に画像光(撮像信号)が漏れているケース、或いは被写体像が鋭いエッジ(輪郭)成分を持つケースでは、特許文献3に開示されているような画像処理の処理強度を強くすると、混入した撮影光が却って強調されてしまい画質が十分に改善されないことがある。このように、多様レンズと指向性センサとが組み合わされた撮像装置によって撮像された画像における混信成分を画像処理によって低減する場合には、画像品質上の弊害が生じる懸念があり、とりわけ混信の度合いが大きい指向性センサを使用した場合には良質な画像を得ることが困難であった。
 また光学系間における撮影光の干渉(クロストーク)の影響を低減する画像処理を行う際には、そのような画像処理に必要な演算時間(処理時間)、コスト及び画像処理回路や画像処理プログラムの実装に伴うシステム上の影響を考慮する必要がある。例えば演算処理に長時間を要したり、画像処理を実現するためのコストが高かったり、画像処理回路や画像処理プログラムの実装が面倒だったりすることは、そのような画像処理の実現を阻害する要因となり好ましくない。
 したがって光学系間における撮影光の干渉の影響を低減するための新たな技術が、従来の技術とは異なる観点から提案されることが望まれている。特に、実際の撮影状況が好ましくない場合であっても、複数種類の画像を同時に取得することが可能であるという撮像装置の特性を損なうことなく、高品質の所望画像を提供可能な簡素な処理構成の新たな画質改善技術の提案が望まれている。
 本発明は上述の事情に鑑みてなされたものであり、簡素な処理構成によって、光学系間における撮影光の干渉の影響を低減して高品質の画像を取得することができる撮像手法及びその応用技術を提供することを目的とする。
 本発明の一態様は、共通の光軸を有する第1光学系及び第2光学系であって、相互に異なる焦点距離を有する第1光学系及び第2光学系を含む撮影光学系と、第1光学系を通過した光を選択的に受光する第1センサ群と、第2光学系を通過した光を選択的に受光する第2センサ群とを含む撮像素子と、第1センサ群から出力される第1撮影画像に基づいて第1生成画像を生成し、第2センサ群から出力される第2撮影画像に基づいて第2生成画像を生成する画像生成部と、を備え、画像生成部は画像合成部を有し、画像合成部は、第1光学系の光軸が異なる状態において撮像される複数の第1撮影画像の位置合わせを行い、位置合わせされた複数の第1撮影画像を合成することにより第1生成画像を生成し、第2光学系の光軸が異なる状態において撮像される複数の第2撮影画像の位置合わせを行い、位置合わせされた複数の第2撮影画像を合成することにより第2生成画像を生成する撮像装置に関する。
 本態様によれば、位置合わせされた複数の第1撮影画像が合成されて第1生成画像が生成される。したがって第2光学系を通過した光による混信像が第1撮影画像に含まれていても、第1生成画像では、そのような混信像の影響が弱められ、第1光学系を通過した光による所望像の鮮明度を良好にすることができる。同様に、位置合わせされた複数の第2撮影画像が合成されて第2生成画像が生成されるため、第2生成画像では、第1光学系を通過した光による混信像の影響が弱められ、第2光学系を通過した光による所望像の鮮明度を良好にすることができる。このように画像処理によって第1撮影画像から第1生成画像が生成され第2撮影画像から第2生成画像を生成されるため、特別なハードウェアを追加する必要が無く簡素な処理構成によって、光学系間における撮影光の干渉の影響を低減して高品質の画像を取得することができる。
 望ましくは、複数の第1撮影画像は、第1光学系の光軸の方向が異なる状態において撮像されて第1センサ群から出力され、複数の第2撮影画像は、第2光学系の光軸の方向が異なる状態において撮像されて第2センサ群から出力される。
 本態様によれば、複数の第1撮影画像間において、第1光学系を通過した光による所望像と第2光学系を通過した光による混信像との相対位置を変えることができ、第1生成画像において混信像の影響を効果的に弱めることができる。同様に、複数の第2撮影画像間において、第2光学系を通過した光による所望像と第1光学系を通過した光による混信像との相対位置を変えることができ、第2生成画像において混信像の影響を効果的に弱めることができる。
 望ましくは、複数の第1撮影画像は、被写体に対する第1光学系の光軸の相対位置が異なる状態において撮像されて第1センサ群から出力され、複数の第2撮影画像は、被写体に対する第2光学系の光軸の相対位置が異なる状態において撮像されて第2センサ群から出力される。
 本態様によれば、複数の第1撮影画像間で、第1光学系を通過した光による所望像と第2光学系を通過した光による混信像との相対位置を変えることができ、第1生成画像において混信像の影響を効果的に弱めることができる。同様に、複数の第2撮影画像間において、第2光学系を通過した光による所望像と第1光学系を通過した光による混信像との相対位置を変えることができ、第2生成画像において混信像の影響を効果的に弱めることができる。
 望ましくは、画像合成部は、第1光学系の光軸の状態及び第1光学系の焦点距離に基づいて、複数の第1撮影画像の位置合わせを行い、第2光学系の光軸の状態及び第2光学系の焦点距離に基づいて、複数の第2撮影画像の位置合わせを行う。
 本態様によれば、第1光学系の焦点距離に基づいて複数の第1撮影画像の位置合わせを能動的に行うことができ、第2光学系の焦点距離に基づいて複数の第2撮影画像の位置合わせを能動的に行うことができる。
 画像合成部が第1光学系の焦点距離及び第2光学系の焦点距離を取得する手法は特に限定されない。例えば撮影光学系(第1光学系及び第2光学系)が交換可能な場合には、撮影光学系が交換される度に、画像合成部は第1光学系の焦点距離及び第2光学系の焦点距離を取得することが好ましい。一方、撮影光学系(第1光学系及び第2光学系)が交換不可能な場合、画像合成部は、予め第1光学系の焦点距離及び第2光学系の焦点距離を記憶保持していてもよい。また画像合成部は、第1撮影画像に付随するデータから第1光学系の焦点距離を取得してもよいし、第2撮影画像に付随するデータから第2光学系の焦点距離を取得してもよい。
 望ましくは、画像合成部は、複数の第1撮影画像を解析して複数の第1撮影画像の各々における第1基準像部の位置を取得し、第1基準像部の位置に基づいて複数の第1撮影画像の位置合わせを行い、複数の第2撮影画像を解析して複数の第2撮影画像の各々における第2基準像部の位置を取得し、第2基準像部の位置に基づいて複数の第2撮影画像の位置合わせを行う。
 本態様によれば、第1光学系の焦点距離及び第2光学系の焦点距離を取得することなく、複数の第1撮影画像の位置合わせ及び複数の第2撮影画像の位置合わせを行うことができる。
 望ましくは、画像合成部は、位置合わせされた複数の第1撮影画像のデータを加算して加算後のデータの平均を算出することにより、複数の第1撮影画像の合成を行い、位置合わせされた複数の第2撮影画像のデータを加算して加算後のデータの平均を算出することにより、複数の第2撮影画像の合成を行う。
 本態様によれば、加算平均演算処理によって、複数の第1撮影画像の合成及び複数の第2撮影画像の合成を行うことができる。
 望ましくは、画像合成部は、撮像の際の第1光学系の光軸の状態に応じて定められる重みに基づいて複数の第1撮影画像のデータの重み付き平均を算出することにより、複数の第1撮影画像の合成を行い、撮像の際の第2光学系の光軸の状態に応じて定められる重みに基づいて複数の第2撮影画像のデータの重み付き平均を算出することにより、複数の第2撮影画像の合成を行う。
 本態様によれば、重み付き平均演算処理によって、複数の第1撮影画像の合成及び複数の第2撮影画像の合成を行うことができる。
 望ましくは、第1光学系の光軸の状態に応じて定められる重みは、第1光学系の光軸の状態に基づくガウス分布によって定められ、第2光学系の光軸の状態に応じて定められる重みは、第2光学系の光軸の状態に基づくガウス分布によって定められる。
 本態様によれば、光軸の状態に基づくガウス分布によって定められる重みを使った重み付き平均演算処理により、複数の第1撮影画像の合成及び複数の第2撮影画像の合成を行うことができ、第1生成画像及び第2生成画像における混信像を滑らかにぼかすことができる。
 望ましくは、複数の第1撮影画像は、第1光学系の光軸が基準状態に近い程、密に撮像され、基準状態から離れる程、疎に撮像されて第1センサ群から出力され、複数の第2撮影画像は、第2光学系の光軸が基準状態に近い程、密に撮像され、基準状態から離れる程、疎に撮像されて第2センサ群から出力される。
 本態様によれば、第1光学系の光軸の状態と基準状態との関係に応じて複数の第1撮影画像の分布密度が変えられ、第1生成画像において混信像を効果的にぼかすことができる。同様に、第2光学系の光軸の状態と基準状態との関係に応じて複数の第2撮影画像の分布密度が変えられ、第2生成画像において混信像を効果的にぼかすことができる。
 望ましくは、複数の第1撮影画像を撮像する際の第1光学系の光軸の状態の分布密度は、ガウス分布に基づいて定められ、複数の第2撮影画像を撮像する際の第2光学系の光軸の状態の分布密度は、ガウス分布に基づいて定められる。
 本態様によれば、光軸の状態の分布密度がガウス分布に基づいて定められるため、第1生成画像及び第2生成画像における混信像を滑らかにぼかすことができる。
 望ましくは、画像生成部は、第1撮影画像及び第2撮影画像の補正を行う画像補正部であって、第1撮影画像における第2光学系を通過した光の影響を低減し、第2撮影画像における第1光学系を通過した光の影響を低減する画像補正部を更に有する。
 本態様によれば、第1撮影画像における第2光学系を通過した光の影響が低減され、第2撮影画像における第1光学系を通過した光の影響が低減されるため、混信像が効果的に低減された第1生成画像及び第2生成画像を生成することができる。
 望ましくは、画像補正部は、第1撮影画像及び第2撮影画像の検出ゲイン分布及び混信ゲイン分布によって構成される行列の逆行列に基づいて補正を行う。
 本態様によれば、行列を使った演算処理によって、簡便に、第1撮影画像における第2光学系を通過した光の影響を低減することができ、第2撮影画像における第1光学系を通過した光の影響を低減することができる。
 望ましくは、画像補正部は、更に、第1撮影画像を補正して第1光学系の収差の影響を低減し、第2撮影画像を補正して第2光学系の収差の影響を低減する。
 本態様によれば、第1撮影画像及び第2撮影画像における収差の影響が低減され、第1生成画像及び第2生成画像の画質を向上させることができる。
 望ましくは、複数の第1撮影画像は、第1光学系の光軸が1次元的に異なる状態において撮像されて第1センサ群から出力され、複数の第2撮影画像は、第2光学系の光軸が1次元的に異なる状態において撮像されて第2センサ群から出力される。
 本態様によれば、第1光学系の光軸が1次元的に異なる状態において複数の第1撮影画像が撮像され、第2光学系の光軸が1次元的に異なる状態において複数の第2撮影画像が撮像される。「光軸が1次元的に異なる状態」は、例えば、光軸の方向(角度)や被写体に対する光軸の相対位置を直線的に変化させることにより実現可能である。
 望ましくは、複数の第1撮影画像は、第1光学系の光軸が2次元的に異なる状態において撮像されて第1センサ群から出力され、複数の第2撮影画像は、第2光学系の光軸が2次元的に異なる状態において撮像されて第2センサ群から出力される。
 本態様によれば、第1光学系の光軸が2次元的に異なる状態において複数の第1撮影画像が撮像され、第2光学系の光軸が2次元的に異なる状態において複数の第2撮影画像が撮像される。「光軸が2次元的に異なる状態」は、例えば、光軸の方向(角度)や被写体に対する光軸の相対位置を平面状に変化させることにより実現可能である。
 望ましくは、撮像装置は、撮影光学系を移動して第1光学系及び第2光学系の光軸の状態を変えられる光学系アクチュエータを更に備える。
 本態様によれば、第1光学系及び第2光学系の光軸の状態を光学系アクチュエータによって能動的に変えることができる。
 望ましくは、光学系アクチュエータは、撮影光学系をパン及びチルトするパンチルト装置である。
 本態様によれば、パンチルト装置によって第1光学系及び第2光学系の光軸の状態(特に方向)を簡便に変えることができる。
 望ましくは、撮像装置は、被写体を保持する被写体保持部と、被写体保持部を移動させる被写体アクチュエータとを更に備える。
 本態様によれば、被写体を移動させて、被写体に対する第1光学系及び第2光学系の光軸の状態を変えることができる。
 本発明の他の態様は、共通の光軸を有する第1光学系及び第2光学系であって、相互に異なる焦点距離を有する第1光学系及び第2光学系を含む撮影光学系と、第1光学系を通過した光を選択的に受光する第1センサ群と、第2光学系を通過した光を選択的に受光する第2センサ群とを含む撮像素子と、第1センサ群から出力される第1撮影画像に基づいて第1生成画像を生成し、第2センサ群から出力される第2撮影画像に基づいて第2生成画像を生成する画像生成部とを備える撮像装置における撮像方法であって、画像生成部において、第1光学系の光軸が異なる状態において撮像される複数の第1撮影画像の位置合わせを行うステップと、位置合わせされた複数の第1撮影画像を合成することにより第1生成画像を生成するステップと、第2光学系の光軸が異なる状態で撮像される複数の第2撮影画像の位置合わせを行うステップと、位置合わせされた複数の第2撮影画像を合成することにより第2生成画像を生成するステップと、を含む撮像方法に関する。
 本発明の他の態様は、共通の光軸を有する第1光学系及び第2光学系であって、相互に異なる焦点距離を有する第1光学系及び第2光学系を含む撮影光学系と、第1光学系を通過した光を選択的に受光する第1センサ群と、第2光学系を通過した光を選択的に受光する第2センサ群とを含む撮像素子と、第1センサ群から出力される第1撮影画像に基づいて第1生成画像を生成し、第2センサ群から出力される第2撮影画像に基づいて第2生成画像を生成する画像生成部とを備える撮像装置における撮像方法の手順をコンピュータに実行させるためのプログラムであって、画像生成部において、第1光学系の光軸が異なる状態において撮像される複数の第1撮影画像の位置合わせを行う手順と、位置合わせされた複数の第1撮影画像を合成することにより第1生成画像を生成する手順と、第2光学系の光軸が異なる状態において撮像される複数の第2撮影画像の位置合わせを行う手順と、位置合わせされた複数の第2撮影画像を合成することにより第2生成画像を生成する手順と、をコンピュータに実行させるためのプログラムに関する。
 本発明によれば、位置合わせされた複数の第1撮影画像が合成されて第1生成画像が生成され、第1生成画像では、第2光学系を通過した光による混信像の影響は弱められ、第1光学系を通過した光による所望像の鮮明度を良好にすることができる。また本発明によれば、位置合わせされた複数の第2撮影画像が合成されて第2生成画像が生成され、第2生成画像では、第1光学系を通過した光による混信像の影響は弱められ、第2光学系を通過した光による所望像の鮮明度を良好にすることができる。このように画像処理によって第1撮影画像から第1生成画像が生成され第2撮影画像から第2生成画像を生成されるため、特別なハードウェアを追加する必要が無く簡素な処理構成によって、光学系間における撮影光の干渉の影響を低減して高品質の画像を取得することができる。
図1は、本発明を適用可能なデジタルカメラ(撮像装置)の一例を示す斜視図である。 図2は、本発明を適用可能な自動追尾撮像装置(撮像装置)の一例を示す斜視図である。 図3は、第1実施形態に係る撮影光学系及び撮像素子の断面構成を示す図である。 図4は、図3に示す撮像素子の詳細な断面構成例を示す図である。 図5は、図3に示す撮影光学系(特に第1光学系)及び撮像素子(特に第1センサ群(図4参照))に入射する広角画像光の光路を示す図である。 図6は、図3に示す撮影光学系(特に第2光学系)及び撮像素子(特に第2センサ群(図4参照))に入射する望遠画像光の光路を示す図である。 図7は、第1実施形態に係る撮像装置の機能構成例を示すブロック図である。 図8は、画像合成部の機能構成例を示すブロック図である。 図9は、アライメントデータ取得部及び合成処理部の処理の一例を示すブロック図である。 図10は、アライメントデータ取得部及び合成処理部の処理の他の例を示すブロック図である。 図11は、第1実施形態に係る画像生成部における生成画像データ(第1生成画像データ及び第2生成画像データ)の生成フローを示すフローチャートである。 図12は、撮像本体部が光学系アクチュエータによって移動可能であるケースの一例を示すブロック図である。 図13は、撮影画像データの加算平均を利用した合成手法により生成画像データを取得するケースの一例を示すフローチャートである。 図14は、撮影画像データの重み付き平均を利用した合成手法により生成画像データを取得するケースの一例を示すフローチャートである。 図15(a)~(c)は、「2次元の空間分布を持つ信号」に「ずらし合成の分布」を畳み込む演算を説明するための概念図であり、図15(a)は位置に応じた輝度分布を持つ「信号(画像データ)」を例示し、図15(b)は位置に応じた重みを規定する「ずらし合成の分布(畳み込みカーネル)」を例示し、図15(c)は図15(a)に示す信号に対して図15(b)に示すずらし合成の分布を畳み込む演算を行った結果を例示する。 図16は、ずらし合成の分布を構成する複数のデルタ関数の強度分布の一例を示す図であり、特に複数のデルタ関数の強度分布(重み)をガウス分布に従って設定する例を説明するための図である。 図17(a)~(b)は、ずらし合成の分布を構成する複数のデルタ関数の強度分布の他の例を示す図であり、図17(a)は位置に基づく強度分布に密度差を設ける例を説明するための図であり、図17(b)はその密度差をガウス分布に従って設定する例を説明するための図である。 図18は、パン動作による望遠画像のズレ量を説明するための図であり、(a)は第1のパン位置で撮像された第2撮影画像(望遠画像)を示し、(b)は第2のパン位置で撮像された第2撮影画像(望遠画像)を示す。 図19は、パン動作による広角画像のズレ量を説明するための図であり、(a)は第1のパン位置で撮像された第1撮影画像(広角画像)を示し、(b)は第2のパン位置で撮像された第1撮影画像(広角画像)を示す。 図20は、混信像(広角画像)を含む望遠画像(所望像)のズレ量を説明するための図であり、(a)は第1のパン位置で撮像された第2撮影画像(望遠画像)を示し、(b)は第2のパン位置で撮像された第2撮影画像(望遠画像)を示す。 図21は、混信像(望遠画像)を含む広角画像(所望像)のズレ量を説明するための図であり、(a)は第1のパン位置で撮像された第1撮影画像(広角画像)を示し、(b)は第2のパン位置で撮像された第1撮影画像(広角画像)を示す。 図22は、第1実施形態における撮影画像の合成メカニズムを説明するための図であり、(a)は第1のパン位置で取得された「混信像(広角画像)を含む望遠画像(所望像)」を示し、(b)は(a)に示す望遠画像(所望像)の一部と混信像(広角画像)との位置関係の概略を示し、(c)は(b)に示す位置関係を簡略的に示し、(d)は第2のパン位置で取得された「混信像(広角画像)を含む望遠画像(所望像)」を示し、(e)は(d)に示す望遠画像(所望像)の一部と混信像(広角画像)との位置関係の概略を示し、(f)は(e)に示す位置関係を簡略的に示し、(g)は(b)に示す概略図と(e)に示す概略図とに基づく合成表示例を示し、(h)は(c)に示す簡略図と(f)に示す簡略図とに基づく合成に関する概念図を示す。 図23(a)~(b)は、第1実施形態に係る撮像装置によって取得される望遠画像の生成例を示す図であり、図23(a)は複数の撮影画像(望遠画像)を示し、図23(b)は複数の撮影画像の位置合わせ及び合成によって生成される望遠画像の一例を示す。 図24(a)~(b)は、第1実施形態に係る撮像装置によって取得される広角画像の生成例を示す図であり、図24(a)は複数の撮影画像(広角画像)を示し、図24(b)は複数の撮影画像の位置合わせ及び合成によって生成される広角画像の一例を示す。 図25は、第2実施形態に係る画像生成部の機能構成例を示すブロック図である。 図26(a)~(b)は、第1光学系と第2光学系との間における撮影光の干渉(クロストーク)による画質の低下の影響を受けた広角画像(図26(a)参照)及び望遠画像(図26(b)参照)の一例を示す。 図27は、光学系間における撮影光の干渉のメカニズムを説明するための概念図である。 図28は、真の広角画像、真の望遠画像、出力広角画像、出力望遠画像及び検出ゲイン分布及び混信ゲイン分布によって構成される行列の関係を示す図である。 図29は、図28に示す行列式に対して「検出ゲイン分布及び混信ゲイン分布によって構成される行列」の逆行列を適用して得られる行列式を示す図である。 図30は、図29の行列式を簡略化して表した行列式を示す。 図31は、図30に示す「W1」を構成する要素を示す。 図32は、図30に示す行列式に基づいて導出される「w1_ij」の算出式を示す。 図33は、図30に示す行列式に基づいて導出される「t1_ij」の算出式を示す。 図34(a)~(b)は、「検出ゲイン分布及び混信ゲイン分布によって構成される行列の逆行列に基づく補正処理」を行った場合の画像例を示し、図34(a)は広角画像例を示し、図34(b)は望遠画像例を示す。 図35(a)~(b)は、「検出ゲイン分布及び混信ゲイン分布によって構成される行列の逆行列に基づく補正処理」を行った後に第1実施形態に係る「位置合わせ後の合成処理」を行った場合の画像例を示し、図35(a)は広角画像例を示し、図35(b)は望遠画像例を示す。 図36は、「検出ゲイン分布及び混信ゲイン分布によって構成される行列の逆行列に基づく補正処理」を行った後に第1実施形態に係る「位置合わせ後の合成処理」を行った場合の他の画像例を示す。 図37は、画像生成部の機能構成の一変形例を示すブロック図である。 図38は、画像生成部の機能構成の他の変形例を示すブロック図である。 図39は、第3実施形態に係る撮像装置を例示するブロック図である。 図40は、本発明の撮像装置の一実施形態であるスマートフォンの外観を示す図である。 図41は、図40に示すスマートフォンの構成を示すブロック図である。
 以下、図面を参照して本発明の実施形態について説明する。
 本発明は、複数種類の光学特性を有する撮影光学系を使って複数種類の画像を撮影可能な撮像装置、撮像方法、撮像手順及びそれらの応用技術に対して広く適用可能であり、その適用可能な技術分野は特に限定されない。例えば、ユーザ操作に応じて撮影を行う撮像装置だけではなく、自動的に撮影を行う撮像装置に対しても本発明は適用可能であり、また静止画を撮影する撮像装置だけではなく、動画を撮影する撮像装置に対しても本発明は適用可能である。
 図1は、本発明を適用可能なデジタルカメラ10(撮像装置30)の一例を示す斜視図である。図1に示す例では、デジタルカメラ10のカメラ本体の前面に撮影光学系11及びフラッシュ13等が設けられ、カメラ本体の上面にレリーズボタン12等が設けられている。図1の符号「L」は、撮影光学系11の光軸を表す。
 図2は、本発明を適用可能な自動追尾撮像装置14(撮像装置30)の一例を示す斜視図である。図2に示す自動追尾撮像装置14では、ギア19を含む保持部18と保持部18に取り付けられた撮影光学系11とが、装置本体15上に設けられる台座16に固定的に据え付けられている。台座16は、装置本体15の垂直方向Zの軸を中心に回転自在に設けられており、図示しないパン駆動部により垂直方向Zの軸を中心にしたパン動作が行われる。ギア19は水平方向Xの軸と同軸上に設けられ、図示しないチルト駆動部からギア19を介して駆動力が伝達されることにより、撮影光学系11が上下方向に回動させられてチルト動作が行われる。これらの撮影光学系11、保持部18(ギア19)及び台座16は、防塵及び防滴用のドームカバー17によって覆われている。
 以下に説明する本発明の各実施形態及び各変形例は、例えば図1に示すようなデジタルカメラ10に対して適用されてもよいし、図2に示すような自動追尾撮像装置14に対して適用されてもよい。
 <第1実施形態>
 図3は、第1実施形態に係る撮影光学系11及び撮像素子24の断面構成を示す図である。
 撮影光学系11は、相互に独立した特性を有する第1光学系21及び第2光学系22を含み、特に本実施形態では焦点距離の異なる光学系によって第1光学系21及び第2光学系22が構成される。すなわち本実施形態の撮影光学系11は、「広角画像撮影レンズ群」によって構成される第1光学系21と、「望遠画像撮影レンズ群」によって構成される第2光学系22とを含み、撮像素子24によって広角画像及び望遠画像が同時的に撮影される。
 図3に示す第1光学系21は、同一の光軸L上に配置される第1広角用レンズ21a、第2広角用レンズ21b、第3広角用レンズ21c、第4広角用レンズ21d及び共通レンズ23を含む。一方、第2光学系22は、第1望遠用レンズ22a、第1望遠用反射ミラー22cが設けられる第1望遠用反射体22b、第2望遠用反射ミラー22eが設けられる第2望遠用反射体22d、及び共通レンズ23を含む。本例の第1光学系21(特に第1広角用レンズ21a、第2広角用レンズ21b、第3広角用レンズ21c及び第4広角用レンズ21d)は、中央光学系を形成する。一方、本例の第2光学系22(特に第1望遠用レンズ22a、第1望遠用反射体22b、第1望遠用反射ミラー22c、第2望遠用反射体22d及び第2望遠用反射ミラー22e)は、第1光学系21が形成する中央光学系の周辺に設けられ、第1光学系21が形成する中央光学系とともに同心円を形成する。なお共通レンズ23は、光軸L上に配置され、第1光学系21と第2光学系22との間において共用される。
 このように本例の撮影光学系11は、共通の光軸Lを有する第1光学系21及び第2光学系22であって、相互に異なる焦点距離を有する第1光学系21及び第2光学系22を含む。
 撮像素子24は、光軸Lと垂直を形成する方向に関し、複数の受光センサ25が2次元的に配置されることにより構成される。特に本実施形態の撮像素子24は、第1光学系21を介して照射される広角画像光と第2光学系22を介して照射される望遠画像光とを同時に受光し、広角画像(第1撮影画像)を生成するための撮像信号と望遠画像(第2撮影画像)を生成するための撮像信号とを出力可能な指向性センサを構成する。すなわち本実施形態の撮像素子24は、第1光学系21及び第2光学系22の各々に対応して設けられる複数の受光センサ25であって、第1光学系21及び第2光学系22のうち対応の光学系を通過した光を瞳分割して選択的に受光する複数の受光センサ25を有する。
 図4は、図3に示す撮像素子24の詳細な断面構成例を示す図である。
 本例の撮像素子24を構成する複数の受光センサ25は、第1光学系21に対応する「広角画像用の第1の受光センサ25a」と、第2光学系22に対応する「望遠画像用の第2の受光センサ25b」とを含み、これらの第1の受光センサ25a及び第2の受光センサ25bは2次元的に交互に配置される。撮像素子24に含まれる複数の第1の受光センサ25aは、「第1光学系21を通過した光を選択的に受光する第1センサ群24a」を構成し、広角画像を生成するための撮像信号を出力する。また撮像素子24に含まれる複数の第2の受光センサ25bは、「第2光学系22を通過した光を選択的に受光する第2センサ群24b」を構成し、望遠画像を生成するための撮像信号を出力する。このように本例の撮像素子24は、第1光学系21に対応する第1センサ群24aと第2光学系22に対応する第2センサ群24bとを含む。
 第1の受光センサ25a及び第2の受光センサ25bの各々は、マイクロレンズ26、フォトダイオード29、及びマイクロレンズ26とフォトダイオード29とが配置される中間層27を有する。中間層27には遮光マスク28が設けられており、第1の受光センサ25aではフォトダイオード29の受光面の周辺部に遮光マスク28が配置され、また第2の受光センサ25bではフォトダイオード29の受光面の中央部に遮光マスク28が配置される。遮光マスク28の配置は、第1光学系21及び第2光学系22のうちのいずれに対応するかに応じて決定され、各遮光マスク28は、対応しない光学系からの光をブロックする一方で対応する光学系からの光をブロックすることなくフォトダイオード29に受光させる。
 本例では、遮光マスク28を含む受光センサ25によって、第1光学系21及び第2光学系22のうち対応の光学系を通過した光を瞳分割して選択的に受光する複数の受光センサが実現されているが、他の手段によって瞳分割が実現されてもよい。例えば、マイクロレンズ26の前段(例えばマイクロレンズ26と共通レンズ23(図3参照)との間)に遮光マスク28が設けられてもよいし、遮光マスク28以外の遮光手段(例えば液晶シャッター等)が用いられてもよい。
 なお、中間層27には遮光マスク28以外の部材が設けられてもよく、例えばRGB(赤緑青)等のカラーフィルタや配線・回路類が中間層27に設けられてもよい。
 図5は、図3に示す撮影光学系11(特に第1光学系21)及び撮像素子24(特に第1センサ群24a(図4参照))に入射する広角画像光Wの光路を示す図である。本実施形態において広角画像光Wは、第1光学系21の第1広角用レンズ21a、第2広角用レンズ21b、第3広角用レンズ21c、第4広角用レンズ21d及び共通レンズ23を順次通過し、撮像素子24上に広角画像が結像する。
 図6は、図3に示す撮影光学系11(特に第2光学系22)及び撮像素子24(特に第2センサ群24b(図4参照))に入射する望遠画像光Tの光路を示す図である。本実施形態において望遠画像光Tは、第1望遠用レンズ22aを通過(透過)し、第1望遠用反射ミラー22c及び第2望遠用反射ミラー22eの各々により反射された後に共通レンズ23を通過し、撮像素子24上に望遠画像が結像する。このように、第1望遠用反射ミラー22c及び第2望遠用反射ミラー22eの各々により反射されて光路が折り返されることにより、焦点距離の長い望遠画像撮影用の第2光学系22の光軸Lの方向に関する長さを短くすることができる。
 次に、上述の撮影光学系11及び撮像素子24によって取得される広角画像(第1撮影画像)及び望遠画像(第2撮影画像)において生じうる画質の低下について説明する。
 撮影光学系11及び撮像素子24において、第1光学系21を経て撮像素子24に到達する広角画像光と第2光学系22を経て撮像素子24に到達する望遠画像光との瞳分割の性能が十分ではない場合、広角画像光と望遠画像光との分離が不十分となって、広角画像と望遠画像とが重畳的に混在した画像が得られる。すなわち、広角画像光のみを受光することが意図された第1センサ群24a(第1の受光センサ25aのフォトダイオード29(図4参照))に望遠画像光が漏れ込むと、望遠画像成分の一部が重畳された広角画像が得られる。同様に、望遠画像光のみを受光することが意図された第2センサ群24b(第2の受光センサ25bのフォトダイオード29(図4参照))に広角画像光が漏れ込むと、広角画像成分の一部が重畳された望遠画像が得られる。
 このように第1光学系21を経た撮影光(広角画像光)と第2光学系22を経た撮影光(望遠画像光)との間において干渉があると、撮像素子24を構成する各受光センサ25の出力には、本来分離されて受光されないはずの画像成分の信号が混ざり込んでしまう。
 本件発明者は、上述の事情に鑑みて鋭意研究を重ねた結果、被写体に対して撮像装置30(撮影光学系11)が相対的に移動した場合に、広角画像と望遠画像との間において像位置の変化が異なることに注目し、そのような像位置変化の相違を利用した画像処理によって高品質な広角画像及び望遠画像の両者を取得する手法を新たに見いだした。
 例えば図3に示す撮影光学系11において、広角画像の撮影に用いられる第1光学系21と望遠画像の撮影に用いられる第2光学系22とは、共通の光軸Lを持ち、広角画像の画像中心と望遠画像の画像中心とは同一である。一方、同一の被写体を第1光学系21及び第2光学系22を使って広角画像及び望遠画像として撮影する場合、撮像素子24上における像の大きさについては第2光学系22を通過した被写体像(望遠画像)の方が第1光学系21を通過した被写体像(広角画像)よりも大きくなる。このように同一被写体を広角画像及び望遠画像として撮影する場合に、望遠画像における被写体像の方が広角画像における被写体像よりも大きくなる。そのため、パン及びチルト等によって第1光学系21及び第2光学系22の光軸Lの状態が変化した場合の像位置に関しても、広角画像では変化量が相対的に小さくなり、望遠画像では変化量が相対的に大きくなる。
 なお、広角画像と望遠画像との間における被写体像の大きさの比は、収差等の他の影響を考慮しなければ、広角レンズ(第1光学系21)の焦点距離と望遠レンズ(第2光学系22)の焦点距離との比に概ね一致する。例えば、定数を「k」により表し、広角レンズ(第1光学系21)の焦点距離を「fw」により表し、望遠レンズ(第2光学系22)の焦点距離を「ft」により表し、撮影光学系11を含む撮像装置30のパンの角度を「θ」により表し、広角レンズ(第1光学系21)を通過した像の撮像素子24(第1センサ群24a)上での移動量を「Sw」により表し、望遠レンズ(第2光学系22)を通過した像の撮像素子24(第2センサ群24b)上での移動量を「St」により表すと、以下の式(1)及び式(2)が成立する。
(1)   Sw=k・fw・tan(θ)
(2)   St=k・ft・tan(θ)
 第1光学系21と第2光学系22との間において撮影光が干渉し合って混信が生じていても、パン及びチルト等によって第1光学系21及び第2光学系22の光軸Lの状態が変化した場合の像位置の移動量は、広角画像と望遠画像との間において異なる。そのため、第1光学系21及び第2光学系22の光軸Lの状態の変化の前後において、本来意図されている所望像と本来意図されていない混信像との間において位置関係にずれが生じることになる。
 本件発明者は、この「光軸Lの変化の前後における、所望像と混信像との位置関係のずれ」を利用することにより、広角画像及び望遠画像の各々において混信像の成分の影響を大幅に低減し、広角画像及び望遠画像の視認性の悪化を非常に効果的に防ぐことができる新たな手法を見いだした。
 図7は、第1実施形態に係る撮像装置30の機能構成例を示すブロック図である。
 本例の撮像装置30は、上述の撮影光学系11(第1光学系21及び第2光学系22)及び撮像素子24(第1センサ群24a及び第2センサ群24b)の他に、画像生成部32(画像合成部33)、メインコントローラ37、画像処理部38、画像記憶部39、表示コントローラ40、表示部41及びユーザ操作部42を有する。画像生成部32(画像合成部33)、メインコントローラ37、及び画像処理部38は、例えば1つ又は複数のマイクロプロセッサが図示しない記憶部に記憶されている各種ソフトウェアを実行することにより実現される。
 画像生成部32は、第1センサ群24aから出力される第1撮影画像データD11に基づいて第1生成画像データD21を生成し、第2センサ群24bから出力される第2撮影画像データD12に基づいて第2生成画像データD22を生成する。本例の画像生成部32は画像合成部33を有し、この画像合成部33が複数の撮影画像を合成することにより生成画像データを生成する。すなわち画像合成部33は、第1光学系21の光軸Lが異なる状態において撮像される複数の第1撮影画像データD11の位置合わせを行い、それらの位置合わせされた複数の第1撮影画像データD11を合成することにより第1生成画像データD21を生成する。同様に画像合成部33は、第2光学系22の光軸Lが異なる状態において撮像される複数の第2撮影画像データD12の位置合わせを行い、それらの位置合わせされた複数の第2撮影画像データD12を合成することで第2生成画像データD22を生成する。
 このように複数の撮影画像データを位置合わせ後に合成することにより、所望の画像成分については明瞭さを向上させることができる。一方、所望の画像に含まれる混信画像成分は、撮影画像の位置合わせが行われることにより撮影画像間で異なる場所に配置されるので、合成後の生成画像データにおいては、相対的に強度が小さくなり目立たなくなる。この効果は、合成する撮影画像データの数を多くするほど顕著になる。
 画像合成部33による位置合わせ処理及び合成処理の具体例については後述する。
 なお、複数の第1撮影画像データD11の各々は同じ被写体を撮影対象とした画像に関し、また複数の第2撮影画像データD12の各々も同じ被写体を撮影対象とした画像に関することが好ましい。したがって、被写体が経時的に変化する場合には画像間の撮影周期を短くすることにより、被写体の動きの影響が複数の第1撮影画像データD11及び複数の第2撮影画像データD12に現れないようにすることが好ましい。
 画像生成部32において生成された第1生成画像データD21及び第2生成画像データD22は、例えば、後段に設けられる画像処理部38、画像記憶部39及び表示コントローラ40等に送られたり、画像生成部32を制御するメインコントローラ37に送られる。
 画像処理部38は、送られてくる第1生成画像データD21及び第2生成画像データD22に対して任意の画像処理を行い、画像処理後の第1生成画像データD21及び第2生成画像データD22を画像記憶部39、表示コントローラ40或いはメインコントローラ37に送ってもよい。画像記憶部39は、送られてくる第1生成画像データD21及び第2生成画像データD22を記憶する。表示コントローラ40は、送られてくる第1生成画像データD21及び第2生成画像データD22に基づいて再現される広角画像(第1生成画像)及び/又は望遠画像(第2生成画像)を表示部41に表示させる。
 メインコントローラ37は、撮影光学系11、撮像素子24、画像生成部32、画像処理部38、画像記憶部39、表示コントローラ40、表示部41、ユーザ操作部42及び撮像装置30を構成するその他の各部に接続されて、各部における処理機能を制御する。ユーザ操作部42は、ユーザによって操作されて各種の指示コマンドが入力され、ユーザ操作部42に入力された各種の指示コマンドはメインコントローラ37に送信され、メインコントローラ37は、ユーザ操作部42からの指示コマンドに基づいて撮像装置30の各部を制御することができる。
 図8は、画像合成部33の機能構成例を示すブロック図である。
 本例の画像合成部33は、アライメントデータ取得部34及び合成処理部35を有し、複数の第1撮影画像データD11から第1生成画像データD21を生成し、また複数の第2撮影画像データD12から第2生成画像データD22を生成する。
 アライメントデータ取得部34は、複数の第1撮影画像データD11の相互間の位置ズレ量及び複数の第2撮影画像データD12の相互間の位置ズレ量を取得する。すなわち、画像合成部33には第1光学系21の光軸Lが異なる状態において撮像される複数の第1撮影画像データD11が入力され、第1光学系21の光軸Lのズレを解消するために必要な「入力された複数の第1撮影画像データD11の相互間の位置ズレ量」がアライメントデータとしてアライメントデータ取得部34により取得される。同様に、画像合成部33には第2光学系22の光軸Lが異なる状態において撮像される複数の第2撮影画像データD12が入力され、第2光学系22の光軸Lのズレを解消するために必要な「入力された複数の第2撮影画像データD12の相互間の位置ズレ量」がアライメントデータとしてアライメントデータ取得部34により取得される。ここで言う「位置ズレ量」は、任意の観点によって定めることが可能であり、例えば「複数の第1撮影画像データD11」及び「複数の第2撮影画像データD12」の各々に関して、画像中の所望像(例えば主要被写体)の位置を同じ位置とするために必要なピクセルシフト量によって表現可能である。
 合成処理部35は、アライメントデータ取得部34によって取得された「複数の第1撮影画像データD11の相互間の位置ズレ量」に基づいて複数の第1撮影画像(広角画像)の位置合わせを行い、位置合わせされた複数の第1撮影画像(広角画像)を合成することにより第1生成画像データD21を生成する。同様に、合成処理部35は、アライメントデータ取得部34によって取得された「複数の第2撮影画像データD12の相互間の位置ズレ量」に基づいて複数の第2撮影画像(望遠画像)の位置合わせを行い、位置合わせされた複数の第2撮影画像(望遠画像)を合成することにより第2生成画像データD22を生成する。このように位置合わせ後に画像合成を行うことにより、本来意図されている所望像の画質を維持或いは向上しつつ、本来意図されていない混信像の影響を大幅に低減することができる。
 なおアライメントデータ取得部34及び合成処理部35における処理手法は特に限定されず、任意の手法によって「複数の第1撮影画像データD11の位置合わせ及び合成」及び「複数の第2撮影画像データD12の位置合わせ及び合成」を行うことができる。
 図9は、アライメントデータ取得部34及び合成処理部35の処理の一例を示すブロック図である。
 本例のアライメントデータ取得部34は、移動量基礎データD31からアライメントデータD32を取得する。すなわちアライメントデータ取得部34は、「複数の第1撮影画像データD11の相互間の位置ズレ量」及び「複数の第2撮影画像データD12の相互間の位置ズレ量」を算出するための演算式(例えば上記の式(1)及び式(2)参照)に基づき、その位置ズレ量の算出に必要な基礎データ(例えば上述の定数「k」、第1光学系21及び第2光学系22の焦点距離「fw」及び「ft」、及び撮影光学系11を含む撮像装置30のパンの角度「θ」等)をメインコントローラ37等から移動量基礎データD31として取得し、アライメントデータD32を算出する。そして合成処理部35は、アライメントデータ取得部34から送られてくるアライメントデータD32に基づいて、複数の第1撮影画像データD11の位置合わせ及び合成を行うことにより第1生成画像データD21を生成し、また複数の第2撮影画像データD12の位置合わせ及び合成を行うことにより第2生成画像データD22を生成する。
 このように本例のアライメントデータ取得部34(画像合成部33)は、第1光学系21の光軸Lの状態及び第1光学系21の焦点距離fwに基づいて複数の第1撮影画像の位置合わせを行い、第2光学系22の光軸Lの状態及び第2光学系22の焦点距離ftに基づいて複数の第2撮影画像の位置合わせを行う。したがって本例は、「複数の第1撮影画像データD11を取得する際の第1光学系21の光軸Lの状態の相違量」及び「複数の第2撮影画像データD12を取得する際の第2光学系22の光軸Lの状態の相違量」が予め把握可能なケースに好適であり、例えば、自動追尾撮像装置14(図2参照)等によって撮影光学系11の光軸Lの状態を能動的にコントロールして変えることができる場合に適用可能である。
 図10は、アライメントデータ取得部34及び合成処理部35の処理の他の例を示すブロック図である。
 本例のアライメントデータ取得部34は、第1撮影画像データD11及び第2撮影画像データD12を解析することによりアライメントデータD32を取得する。すなわちアライメントデータ取得部34は、複数の第1撮影画像データD11を解析することにより「複数の第1撮影画像データD11の相互間の位置ズレ量」を取得し、複数の第2撮影画像データD12を解析することにより「複数の第2撮影画像データD12の相互間の位置ズレ量」を取得する。
 なお、位置ズレ量を取得するための画像解析の手法は特に限定されず、アライメントデータ取得部34は、任意の画像解析を行って「複数の第1撮影画像データD11の相互間の位置ズレ量」及び「複数の第2撮影画像データD12の相互間の位置ズレ量」を取得することができる。例えば、「複数の第1撮影画像(広角画像)の各々における基準像部」及び「複数の第2撮影画像(望遠画像)の各々における基準像部」の位置を画像解析によって取得し、解析によって取得される「基準像部の位置」に基づいて「複数の第1撮影画像データD11の相互間の位置ズレ量」及び「複数の第2撮影画像データD12の相互間の位置ズレ量」を取得してもよい。なお、ここで言う基準像部は、任意の観点で定めることができ、エッジ(輪郭)に関する画像特徴データや周波数に関する画像特徴データ等に基づいて定められてもよい。したがってアライメントデータ取得部34は、例えば顔認識処理等の被写体認識処理を使って検出される主要被写体像を基準像部として使ってもよく、撮影画像中の主要被写体の位置に基づいて「複数の第1撮影画像データD11の相互間の位置ズレ量」及び「複数の第2撮影画像データD12の相互間の位置ズレ量」を取得してもよい。
 そして合成処理部35は、アライメントデータ取得部34から送られてくるアライメントデータD32に基づいて、複数の第1撮影画像データD11の位置合わせ及び合成を行うことにより第1生成画像データD21を生成し、また複数の第2撮影画像データD12の位置合わせ及び合成を行うことにより第2生成画像データD22を生成する。
 このように本例のアライメントデータ取得部34(画像合成部33)は、複数の第1撮影画像データD11を解析してその複数の第1撮影画像データD11の各々における第1基準像部の位置を取得し、その第1基準像部の位置に基づいて複数の第1撮影画像データD11の位置合わせを行い、また複数の第2撮影画像データD12を解析してその複数の第2撮影画像データD12の各々における第2基準像部の位置を取得し、その第2基準像部の位置に基づいて複数の第2撮影画像データD12の位置合わせを行う。したがって本例は、「複数の第1撮影画像データD11を取得する際の第1光学系21の光軸Lの状態の相違量」及び「複数の第2撮影画像データD12を取得する際の第2光学系22の光軸Lの状態の相違量」が予め把握可能なケースだけではなく、それらの相違量を予め把握できないケースにも適用可能である。そのため本例は、例えば、自動追尾撮像装置14(図2参照)等によって撮影光学系11の光軸Lの状態を能動的にコントロールして変える場合に適用されてもよいし、デジタルカメラ10(図1参照)の手振れ等によって撮影光学系11の光軸Lの状態がランダムに変わる場合に適用されてもよい。
 図11は、第1実施形態に係る画像生成部32における生成画像データ(第1生成画像データD21及び第2生成画像データD22)の生成フローを示すフローチャートである。
 まず、撮影画像データ(第1撮影画像データD11及び第2撮影画像データD12)が画像生成部32によって取得される(図11のステップS11)。なお撮像素子24(第1センサ群24a及び第2センサ群24b)から出力される撮影画像データが直接的に画像生成部32に入力されてもよいし間接的に画像生成部32に入力されてもよく、撮影画像データが撮像素子24から他の処理部に入力され、この他の処理部から画像生成部32に入力されてもよい。
 そして画像生成部32の画像合成部33(アライメントデータ取得部34)において、第1光学系21の光軸Lのズレを解消するために必要な「入力された複数の第1撮影画像データD11の相互間の位置ズレ量」及び第2光学系22の光軸Lのズレを解消するために必要な「入力された複数の第2撮影画像データD12の相互間の位置ズレ量」を示すアライメントデータが取得される(S12)。
 そして画像生成部32の画像合成部33(合成処理部35)において、第1光学系21の光軸Lが異なる状態において撮像される複数の第1撮影画像(第1撮影画像データD11)の位置合わせが行われ(S13)、位置合わせされた複数の第1撮影画像(第1撮影画像データD11)が合成されることにより第1生成画像(広角画像:第1生成画像データD21)が生成される(S14)。同様に、画像生成部32の画像合成部33(合成処理部35)において、第2光学系22の光軸Lが異なる状態において撮像される複数の第2撮影画像(第2撮影画像データD12)の位置合わせが行われ(S13)、位置合わせされたその複数の第2撮影画像(第2撮影画像データD12)が合成されることにより第2生成画像(望遠画像:第2生成画像データD22)が生成される(S14)。
 図11に示す上述の一連の処理の適用対象は特に限定されず、例えば図1に示すようなデジタルカメラ10をユーザが手で保持して撮影を行うことで取得される撮影画像データ(第1撮影画像データD11及び第2撮影画像データD12)に対して上述の一連の処理が適用されてもよい。また、図2に示すような自動追尾撮像装置14によって撮影取得される撮影画像データ(第1撮影画像データD11及び第2撮影画像データD12)に対して上述の一連の処理が適用されてもよい。特に、図2の自動追尾撮像装置14のように撮影光学系11(第1光学系21及び第2光学系22)の光軸Lの状態を能動的且つ正確に変えることができる場合には、下述のように、生成画像(第1生成画像データD21及び第2生成画像データD22)の画質を効果的に向上させることができる。
 図12は、撮像本体部44が光学系アクチュエータ45によって移動可能であるケースの一例を示すブロック図である。なお図12には、撮像本体部44(撮影光学系11及び撮像素子24)、光学系アクチュエータ45及びメインコントローラ37のみが図示されているが、図12に示す撮像装置30は、図7~図10に示す各部(例えば画像生成部32等)も含む。
 本例の光学系アクチュエータ45は、メインコントローラ37の制御下で、撮影光学系11及び撮像素子24を含む撮像本体部44をコントロールして、撮影光学系11を移動して第1光学系21及び第2光学系22の光軸Lの状態を変えられる。
 光学系アクチュエータ45の具体的な形態は特に限定されず、例えば図2に示すような撮影光学系11をパン及びチルトするパンチルト装置であってもよい。すなわち、光学系アクチュエータ45がパン駆動部及びチルト駆動部を含み、この光学系アクチュエータ45によって撮像本体部44(撮影光学系11及び撮像素子24)のパン動作及びチルト動作を行うことにより、第1光学系21の光軸L及び第2光学系22の光軸Lを2次元的に異なる状態とすることができる。この場合、光学系アクチュエータ45は、メインコントローラ37により予め設定された位置情報(移動量情報)に従って、撮像本体部44(撮影光学系11及び撮像素子24)のパンチルト動作を行うことが好ましい。予め設定されたパンチルト量に基づいて第1撮影画像(広角画像)及び第2撮影画像(望遠画像)の各画像に生じる被写体像の移動量は、撮像装置30の設計値から予め算出されたり、撮像装置30の実機においてキャリブレーション撮影を行うことにより予め計測されたりしておくことが可能である。このようにして得られる「第1撮影画像(広角画像)及び第2撮影画像(望遠画像)の各画像における被写体像の移動量」に基づいて、撮影光学系11の光軸Lの状態変化による所望像の位置変化を打ち消すように、撮像された画像群に対して補正(位置合わせ処理)が行われる。
 なお上述のように複数の第1撮影画像(第1撮影画像データD11)は、第1光学系21の光軸Lが2次元的に異なる状態において撮像されて第1センサ群24aから出力されることが好ましい。しかし、例えば第1光学系21の光軸Lが1次元的に異なる状態において撮像されて第1センサ群24aから出力されてもよい。同様に複数の第2撮影画像(第2撮影画像データD12)は、第2光学系22の光軸Lが2次元的に異なる状態で撮像されて第2センサ群24bから出力されることが好ましいが、例えば第2光学系22の光軸Lが1次元的に異なる状態において撮像されて第2センサ群24bから出力されてもよい。
 またメインコントローラ37によりパンチルト動作を制御可能な雲台を光学系アクチュエータ45として使用することもできる。この場合、例えば図1に示すようなデジタルカメラ10をそのような雲台(光学系アクチュエータ45)に据え付け固定することにより撮像装置30を構成してもよい。
 なお光学系アクチュエータ45による「第1光学系21及び第2光学系22の光軸Lの状態の変更」の態様は特に限定されない。光学系アクチュエータ45は、例えば、第1光学系21及び第2光学系22の光軸Lの「方向」を変えてもよいし、被写体に対する第1光学系21及び第2光学系22の光軸Lの「相対位置」を変えてもよい。すなわち、画像生成部32(画像合成部33)に入力される複数の第1撮影画像データD11は、第1光学系21の光軸Lの方向が異なる状態において撮像されて第1センサ群24aから出力されてもよいし、被写体に対する第1光学系21の光軸Lの相対位置が異なる状態において撮像されて第1センサ群24aから出力されてもよい。また画像生成部32(画像合成部33)に入力される複数の第2撮影画像データD12は、第2光学系22の光軸Lの方向が異なる状態において撮像されて第2センサ群24bから出力されてもよいし、被写体に対する第2光学系22の光軸Lの相対位置が異なる状態において撮像されて第2センサ群24bから出力されてもよい。
 なお、第1光学系21及び第2光学系22の光軸Lの「方向」や「相対位置」を変える手法は特に限定されない。例えば、図2に示すようなパンチルト装置によって第1光学系21及び第2光学系22をパンチルト動作させて光軸Lの向き(角度)を変えることにより、「光軸Lの方向」を変えることができる。また第1光学系21及び第2光学系22を被写体に対して相対的にスライドさせて光軸Lを水平方向及び/又は鉛直方向に移動させることにより、「光軸Lの相対位置」を変えることができる(後述の図39参照)。
 このようにメインコントローラ37の制御下において光学系アクチュエータ45が撮影光学系11(第1光学系21及び第2光学系22)の光軸Lの状態を能動的にコントロールすることにより、第1生成画像データD21及び第2生成画像データD22の基礎となる複数の第1撮影画像データD11及び複数の第2撮影画像データD12を、予め定められる所望の光軸状態において取得することが可能になる。これにより画像生成部32(画像合成部33)は、複数の第1撮影画像データD11及び複数の第2撮影画像データD12から高画質の第1生成画像データD21及び第2生成画像データD22を生成することができる。
 例えば、画像合成部33は、撮影画像データの加算平均を利用した合成手法により生成画像データを取得することができる。すなわち画像合成部33は、位置合わせされた複数の第1撮影画像データD11を加算して加算後のデータの平均を算出することにより、複数の第1撮影画像の合成を行って第1生成画像データD21を生成することができる。また画像合成部33は、位置合わせされた複数の第2撮影画像データD12を加算して加算後のデータの平均を算出することにより、複数の第2撮影画像の合成を行って第2生成画像データD22を生成することができる。
 図13は、撮影画像データの加算平均を利用した合成手法により生成画像データを取得するケースの一例を示すフローチャートである。まず、メインコントローラ37によって撮影用の光軸Lの状態が決定される(図13のS21)。そして、その決定に従って光学系アクチュエータ45が撮像本体部44をコントロールして撮影光学系11(第1光学系21及び第2光学系22)の光軸Lを移動させる一方で、撮像本体部44(撮影光学系11及び撮像素子24)によって複数の第1撮影画像データD11及び複数の第2撮影画像データD12の撮像が行われる(S22)。このように、メインコントローラ37により予め決定された撮影用の光軸Lの状態に従って撮像された複数の第1撮影画像データD11及び複数の第2撮影画像データD12は画像生成部32(画像合成部33)において位置合わせされて合成され(S23)、第1生成画像データD21及び第2生成画像データD22が生成される。
 また画像合成部33は、撮影画像データの重み付き平均を利用した合成手法により生成画像データを取得することができる。すなわち画像合成部33は、撮像の際の第1光学系21の光軸Lの状態に応じて定められる重みに基づいて複数の第1撮影画像データD11の重み付き平均を算出することにより、複数の第1撮影画像の合成を行って第1生成画像データD21を生成することができる。また撮像の際の第2光学系22の光軸Lの状態に応じて定められる重みに基づいて複数の第2撮影画像データD12の重み付き平均を算出することにより、複数の第2撮影画像の合成を行って第2生成画像データD22を生成することができる。
 図14は、撮影画像データの重み付き平均を利用した合成手法により生成画像データを取得するケースの一例を示すフローチャートである。本例においても、図13に示す例と同様に、メインコントローラ37によって撮影用の光軸Lの状態が決定され(図14のS31)、その決定に従って、光学系アクチュエータ45により撮影光学系11(第1光学系21及び第2光学系22)の光軸Lが移動させられ、撮像本体部44(撮影光学系11及び撮像素子24)により複数の第1撮影画像データD11及び複数の第2撮影画像データD12の撮像取得が行われる(S32)。ただし本例では、「複数の第1撮影画像データD11」及び「複数の第2撮影画像データD12」の各々に関し、合成用の重み係数がメインコントローラ37によって決定される(S33)。そして画像生成部32(画像合成部33)は、複数の第1撮影画像データD11の位置合わせ及び複数の第2撮影画像データD12の位置合わせを行い、合成用の重み係数を使って重み付き平均演算を行って撮影画像の合成を行って(S34)、第1生成画像データD21及び第2生成画像データD22を生成する。
 なお、上述のように撮影光学系11(第1光学系21及び第2光学系22)の光軸Lを光学系アクチュエータ45によって能動的に所望状態に調整可能な場合には、複数の第1撮影画像データD11及び複数の第2撮影画像データD12を撮影する際の光軸Lの状態パターンを工夫することにより、より一層効果的に混信成分を低減することができる。
 例えば、複数の第1撮影画像データD11及び複数の第2撮影画像データD12を撮影する際の光軸Lの状態分布を、1次元又は2次元のガウス分布に従って設定してもよい。この場合、画像合成後の第1生成画像データD21及び第2生成画像データD22の各々に残存する混信画像成分は、第1撮影画像データD11及び第2撮影画像データD12に含まれる混信画像成分とガウス分布との畳み込みに基づくことになるため、非常に滑らかにボケた像となる。そのため第1生成画像データD21及び第2生成画像データD22に基づく画像(広角画像及び望遠画像)の各々は、観察時に混信成分が目立たず、好ましい画質を持つことになる。
 なお、同一の被写体に関する複数の画像を2次元的に相互に少しずつ位置をずらして重ねて合成することは、数学的には、「2次元の空間分布を持つ信号f」に「ずらし合成の分布g」を畳み込む演算(コンボリューション:f*g)によって表現可能である。
 図15は、「2次元の空間分布を持つ信号f」に「ずらし合成の分布g」を畳み込む演算を説明するための概念図であり、(a)は位置に応じた輝度分布を持つ「信号f(画像データ)」を例示し、(b)は位置に応じた重みを規定する「ずらし合成の分布g(畳み込みカーネル)」を例示し、(c)は(a)に示す信号fに対して(b)に示すずらし合成の分布gを畳み込む演算を行った結果を例示する。なお図15(a)及び図15(c)において、縦軸は輝度の大きさを示し、横軸は1次元的な位置を示す。また図15(b)において、縦軸はずらし合成の分布gの重みの大きさを示し、横軸は1次元的な位置を示す。
 図15(c)からも明らかなように、同一の被写体に関する複数の画像を2次元的に相互に少しずつ位置をずらして重ねて合成することにより、図15(a)に示す画像信号に含まれる高周波の空間周波数成分は、低周波の空間周波数成分に比べて強く抑制される。その結果、合成画像はいわゆる細部がボケた画像となる。なお説明の便宜上、図15(a)~図15(c)は1次元的な位置を基準とした関係例を示すが、2次元的な位置を基準とした場合にも同様の関係例が成立しうる。
 合成の基礎となる複数の画像を有限個であるとすると、位置のずらし量は離散的になるため、畳み込み演算のカーネルである「ずらし合成の分布g」は複数のデルタ関数の和に基づく伝達関数となり、その伝達関数をフーリエ変換して得られる関数は周波数伝達特性を表す。
 混信画像成分を「綺麗にぼかす」という目的の場合、伝達関数として、高周波成分を低減させるローパスフィルタを用いると好ましい結果が得られることが知られている。上述の複数のデルタ関数の和により構成される「畳み込み演算のカーネル(ずらし合成の分布g)」にローパスフィルタの効果を持たせるには、例えば以下の手法1及び/又は手法2を利用することができる。
(手法1)複数のデルタ関数の強度分布をガウス分布状に設定する。
(手法2)複数のデルタ関数の密度分布をガウス分布状に設定する。
 図16は、ずらし合成の分布gを構成する複数のデルタ関数の強度分布の一例を示す図であり、特に複数のデルタ関数の強度分布(重み)をガウス分布Gに従って設定する例を説明するための図である。図16において、縦軸は強度(重み)の大きさを示し、横軸は位置を示す。本例のように、ずらし合成の分布gを構成する各デルタ関数の強度(重み)をガウス分布Gに従って定めることにより、「畳み込み演算のカーネル(ずらし合成の分布)」にローパスフィルタの効果を持たせることが可能である。
 図16に示すような「ずらし合成の分布g」を混信像に適用することは、例えば、均等に位置をずらして撮影することにより取得される画像の強度(例えば輝度)に関し、中央位置(すなわち基準状態の位置)に近いほどデルタ関数に大きな重みを持たせて、撮影画像データの重み付き平均を行うという合成処理に相当する。
 したがって、上述のように画像合成部33が重み付き平均を利用した合成手法により生成画像データを取得するケースにおいて、例えば第1光学系21の光軸Lの状態に応じて定められる重みを、第1光学系21の光軸Lの状態に基づくガウス分布よって定めたり、第2光学系22の光軸Lの状態に応じて定められる重みを、第2光学系22の光軸Lの状態に基づくガウス分布よって定めたりすることにより、混信像を綺麗にぼかすことができる。
 図17は、ずらし合成の分布gを構成する複数のデルタ関数の強度分布の他の例を示す図であり、(a)は位置に基づく強度分布に密度差を設ける例を説明するための図であり、(b)はその密度差をガウス分布Gに従って設定する例を説明するための図である。図17(a)において、縦軸は強度(重み)の大きさを示し、横軸は位置を示す。図17(b)において、縦軸はデルタ関数の頻度(存在数)を示し、横軸は基準状態を示す位置からの距離を示す。
 図17(a)に示す例のように、ずらし合成の分布gを構成する複数のデルタ関数の強度(重み)が相互に同じであっても、位置に応じたのデルタ関数の強度分布に密度差を設けて、光軸Lの基準状態に近い位置ほどデルタ関数が密に存在し、光軸Lの基準状態から離れた位置ほどデルタ関数が疎に存在するようにずらし合成の分布gを定めることにより、「畳み込み演算のカーネル(ずらし合成の分布)」にローパスフィルタの効果を持たせることが可能である。
 図17(a)に示すような「ずらし合成の分布g」を混信像に適用することは、例えば、光軸Lの位置をずらして撮影を行う場合に光軸Lの配置分布を不均等にし、中央位置(すなわち基準状態の位置)に近い位置ほど高密度に撮影を行って多数の撮影画像を取得し、その撮影により得られる撮影画像データの加算平均を行うという合成処理に相当する。
 したがって、上述のように画像合成部33が加算平均を利用した合成手法により生成画像データを取得するケースにおいて、第1光学系21の光軸Lが基準状態に近い程、複数の第1撮影画像が密に撮像され、第1光学系21の光軸Lがその基準状態から離れる程、複数の第1撮影画像が疎に撮像されて、第1撮影画像データD11が第1センサ群24aから出力されたり、第2光学系22の光軸Lが基準状態に近い程、複数の第2撮影画像が密に撮像され、第2光学系22の光軸Lがその基準状態から離れる程、複数の第2撮影画像が疎に撮像されて、第2撮影画像データD12第2センサ群24bから出力されることにより、混信像を綺麗にぼかすことができる。
 また、とりわけ図17(b)に示すように、ずらし合成の分布gを構成するデルタ関数の頻度(存在数)を、基準状態からの距離に関してガウス分布Gに従って定めることにより、より効果的に混信像に対するローパスフィルタ効果を実現することができる。なお、図17(b)に示すデルタ関数の頻度(存在数)は、基準状態から所定の距離の範囲内に存在するデルタ関数の数に基づいて定められる。このように複数の第1撮影画像を撮像する際の第1光学系21の光軸Lの状態の分布密度がガウス分布に基づいて定められたり、複数の第2撮影画像を撮像する際の第2光学系22の光軸Lの状態の分布密度がガウス分布に基づいて定められることにより、混信像をより綺麗にぼかすことができる。
 なお図16及び図17は1次元的な位置を基準とした関係例を示すが、2次元的な位置を基準とした場合にも同様の関係例が成立しうる。
 また、図16に示す例と図17に示す例とを組み合わせてもよい。すなわち画像合成部33が重み付き平均を利用した合成手法により生成画像データを取得するケースにおいて、光軸Lが基準状態に近いほど複数の撮影画像が密に撮像され、光軸Lがその基準状態から離れるほど複数の第1撮影画像が疎に撮像され、撮影光学系11(第1光学系21及び第2光学系22)の光軸Lの状態に応じて定められる重みを、その光軸Lの状態に基づくガウス分布よって定めることが好ましい。また、この場合にも、図17(b)に示すように、撮影画像を撮像する際の撮影光学系11(第1光学系21及び第2光学系22)の光軸Lの状態の分布密度がガウス分布に基づいて定められることが好ましい。
 なお、ずらし合成の分布gを構成する各デルタ関数の強度(重み)は、ガウス分布G(図16参照)以外の分布に従って定められてもよく、またずらし合成の分布gを構成する複数のデルタ関数の強度分布の密度差も、ガウス分布(図17(b)参照)以外の分布に従って定められてもよい。
 図12~図17に示す上記例では、撮影光学系11の光軸Lの状態を光学系アクチュエータ45によって能動的にコントロールするケースを説明したが、上述の「複数の撮影画像の位置合わせ及び合成を行う画像生成手法」は、撮影光学系11の光軸Lの状態を能動的にコントロールしないケースにも適用可能である。すなわち図1に示すデジタルカメラ10をユーザが手で保持して画像撮影を行う場合にも、上述の「撮影光学系11の光軸Lの状態を能動的にコントロールするケース」と同様に、混信像の影響を低減した所望像を取得することが可能である。
 例えば、撮影画像を解析して画像のぶれ成分を検出し、そのぶれ成分に基づいてぶれの影響を低減するぶれ補正技術が一般的に使用されている。したがって上述のような広角画像及び望遠画像をデジタルカメラ10によって撮影する場合にも、広角画像及び望遠画像の各々における所望像は混信像よりも信号強度が強く、一般的に行われているぶれ成分検出手法を用いることにより、所望像(主要被写体等)の撮影ぶれ(手ぶれ)を検出することは可能である。複数の画像を撮影する際に撮影ぶれが生じると、結果的に、撮影光学系11(第1光学系21及び第2光学系22)の光軸Lが異なる状態において画像が撮影される。したがって、撮影ぶれ(手ぶれ)を伴って取得される複数の撮影画像(第1撮影画像データD11及び第2撮影画像データD12)に対して、上述の「撮影光学系11の光軸Lの状態を能動的にコントロールするケース」と同様に、所望像の位置合わせを行って合成処理を行うことにより、所望像におけるぶれの影響を低減できるだけではなく、生成画像(第1生成画像データD21及び第2生成画像データD22)における混信像の影響を低減できる。また本例のように、デジタルカメラ10等のようにユーザによって保持されて撮影が行われる撮像装置30は、パンチルト装置のような光学系アクチュエータ45を設ける必要がないため、装置構成を簡素化することができ、低コストに実現され、また小型化も容易である。
 次に、本実施形態の具体的な実施例について説明する。
 図18は、パン動作による望遠画像のズレ量を説明するための図であり、(a)は第1のパン位置で撮像された第2撮影画像(望遠画像)を示し、(b)は第2のパン位置において撮像された第2撮影画像(望遠画像)を示す。図19は、パン動作による広角画像のズレ量を説明するための図であり、(a)は第1のパン位置において撮像された第1撮影画像(広角画像)を示し、(b)は第2のパン位置において撮像された第1撮影画像(広角画像)を示す。なお図18(a)及び図19(a)は、それぞれ同一の光軸Lを有する第1光学系21及び第2光学系22を使って撮像された画像である。同様に、図18(b)及び図19(b)は、それぞれ同一の光軸Lを有する第1光学系21及び第2光学系22を使って撮像された画像である。また図18(a)及び図18(b)に表されている「Sw」は、第1のパン位置と第2のパン位置との間における望遠画像中の同じ像箇所の位置の相違(位置ズレ量)を示し、上記の式(1)によって表されうる。同様に、また図19(a)及び図19(b)に表されている「St」は、第1のパン位置と第2のパン位置との間における広角画像中の同じ像箇所の位置の相違(位置ズレ量)を示し、上記の式(2)によって表されうる。なお「Sw」及び「St」によって表される位置ズレ量は、図18及び図19において、同一箇所の位置ズレ量を示す。
 図18及び図19からも明らかなように、同じパン移動量であっても、望遠画像の位置ズレ量と広角画像の位置ズレ量は相違し、一般に、望遠画像の位置ズレ量の方が広角画像の位置ズレ量よりも大きい(Sw>St)。
 図20は、混信像(広角画像)を含む望遠画像(所望像)のズレ量を説明するための図であり、(a)は第1のパン位置において撮像された第2撮影画像(望遠画像)を示し、(b)は第2のパン位置において撮像された第2撮影画像(望遠画像)を示す。図21は、混信像(望遠画像)を含む広角画像(所望像)のズレ量を説明するための図であり、(a)は第1のパン位置において撮像された第1撮影画像(広角画像)を示し、(b)は第2のパン位置で撮像された第1撮影画像(広角画像)を示す。
 図18及び図19を参照して説明した位置ズレに関する上述の原則は、撮影画像が本来の所望像に加えて混信像を含むケースにおいても同様に適用される。すなわち、撮影画像が望遠画像(図20参照)及び広角画像(図21参照)のうちのいずれの画像を意図したものであっても、撮影光学系11(第1光学系21及び第2光学系22)の光軸Lの状態の相違に基づく位置ズレ量は、望遠画像の方が広角画像よりも大きくなる(Sw>St)。
 図22は、第1実施形態における撮影画像の合成メカニズムを説明するための図であり、(a)は第1のパン位置において取得された「混信像(広角画像)を含む望遠画像(所望像)」を示し、(b)は(a)に示す望遠画像(所望像)の一部と混信像(広角画像)との位置関係の概略を示し、(c)は(b)に示す位置関係を簡略的に示し、(d)は第2のパン位置において取得された「混信像(広角画像)を含む望遠画像(所望像)」を示し、(e)は(d)に示す望遠画像(所望像)の一部と混信像(広角画像)との位置関係の概略を示し、(f)は(e)に示す位置関係を簡略的に示し、(g)は(b)に示す概略図と(e)に示す概略図とに基づく合成表示例を示し、(h)は(c)に示す簡略図と(f)に示す簡略図とに基づく合成に関する概念図を示す。
 上述のように混信像(広角画像)と所望像(望遠画像)との相対位置は、光軸Lの状態に応じて変化する。したがって、例えば図22(a)~図22(c)に示す第1のパン位置における「混信像(広角画像;第1混信成分C1参照)と所望像(望遠画像;第1所望画像成分R1参照)との間の相対距離」は、図22(d)~図22(f)に示す第2のパン位置における「混信像(広角画像;第2混信成分C2参照)と所望像(望遠画像;第2所望画像成分R2参照)との間の相対距離」よりも大きい。図22(g)及び図22(h)に示すように、所望像(第1所望画像成分R1及び第2所望画像成分R2参照)の位置に基づいて、第1のパン位置において撮像された撮影画像と第2のパン位置において撮像された撮影画像との位置合わせを行うと、「第1のパン位置において撮像された撮影画像に含まれる混信像(第1混信成分C1参照)」と「第2のパン位置において撮像された撮影画像に含まれる混信像(第2混信成分C2参照)」との間で位置がずれる。そのため所望像の位置に基づいて位置合わせされた「第1のパン位置において撮像された望遠画像及び第2のパン位置において撮像された望遠画像」を合成すると、所望像(望遠画像;第1所望画像成分R1及び第2所望画像成分R2参照)は位置が一致した状態において合成されるため非常に鮮明な画像となる。しかし、混信像(広角画像;第1混信成分C1及び第2混信成分C2参照)は位置が一致しない状態において合成されるため相対的に画像強度が下がり目立たなくなる。
 図23は、第1実施形態に係る撮像装置30によって取得される望遠画像の生成例を示す図である。図23(a)は複数の撮影画像(望遠画像)を示し、図23(b)は複数の撮影画像の位置合わせ及び合成によって生成される望遠画像の一例を示す。図24は、第1実施形態に係る撮像装置30によって取得される広角画像の生成例を示す図である。図24(a)は複数の撮影画像(広角画像)を示し、図24(b)は複数の撮影画像の位置合わせ及び合成によって生成される広角画像の一例を示す。
 図23及び図24の各々に示す例は、第1光学系21(広角画像用光学系)の焦点距離と第2光学系22(望遠画像用光学系)の焦点距離との比が「7:1」であり、水平方向H(パン方向)に1画素単位で9画素相当移動させるとともに垂直方向V(チルト方向)に1画素単位で9画素相当移動させて合計81枚(=9×9)の撮影画像(第1撮影画像データD11及び第2撮影画像データD12)が取得される(図23(a)及び図24(a)参照)。そして、81枚の撮影画像の位置合わせ処理及び合成処理が行われて生成画像(第1生成画像データD21(図24(b)参照)及び第2生成画像データD22(図23(b)参照))が取得される。
 「図23(b)」と「図20(a)及び図20(b)」との比較や「図24(b)」と「図21(a)及び図21(b)」との比較からも明らかなように、本実施形態のように光軸Lが異なる状態において取得される複数の撮影画像の位置合わせを行った後に合成処理を行うことにより、混信像の影響を非常に効果的に低減することができる。特に本実施形態の撮像装置30では、焦点距離の異なる光学系により同時に撮像された複数種類の画像(広角画像及び望遠画像)のうちのいずれの画質も損なうことなく、全ての種類の画像の画質を改善することができる。
 <第2実施形態>
 本実施形態において、上述の第1実施形態に係る撮像装置30と同一又は類似の構成には同一の符号を付し、その詳細な説明は省略する。
 図25は、第2実施形態に係る画像生成部32の機能構成例を示すブロック図である。
 本実施形態に係る画像生成部32は、上述の画像合成部33に加え、第1撮影画像(広角画像)及び第2撮影画像(望遠画像)の補正を行う画像補正部60を有する。
 この画像補正部60は、撮像素子24(第1センサ群24a及び第2センサ群24b)から送られてくる第1撮影画像データD11及び第2撮影画像データD12を補正し、第1撮影画像(広角画像)における第2光学系22を通過した光の影響を低減し、第2撮影画像(望遠画像)における第1光学系21を通過した光の影響を低減する。そして画像補正部60によって補正された第1撮影画像データD11及び第2撮影画像データD12は画像合成部33に送られ、画像合成部33において第1生成画像データD21及び第2生成画像データD22が生成される。
 画像補正部60における上述の混信除去処理の具体的な手法は特に限定されず、例えば以下の手法に従って、画像補正部60は撮影画像から不要光の影響を低減することができる。
 <混信除去処理例>
 図26は、第1光学系21と第2光学系22との間における撮影光の干渉(クロストーク)による画質の低下の影響を受けた広角画像(図26(a)参照)及び望遠画像(図26(b)参照)の一例を示す。
 上述のように、撮影光学系11及び撮像素子24において瞳分割の性能が十分ではない場合、広角画像光のみを受光することが意図された第1センサ群24a(図4参照)に望遠画像光が漏れ込むため望遠画像成分の一部が重畳された広角画像が得られ(図26(a)参照)、望遠画像光のみを受光することが意図された第2センサ群24b(図4参照)に広角画像光が漏れ込むため広角画像成分の一部が重畳された望遠画像が得られる(図26(b)参照)。
 図27は、光学系間における撮影光の干渉のメカニズムを説明するための概念図である。
 図27において符号「Iw1」は真の広角画像を示し、符号「It1」は真の望遠画像を示す。ここで言う「真の広角画像Iw1」及び「真の望遠画像It1」は、第1光学系21を通過する撮影光と第2光学系22を通過する撮影光との間で干渉が起きていない状態において撮影取得される画像である。一方、符号「Iw2」は第1センサ群24a(第1の受光センサ25a)から実際に出力される撮像信号から生成される出力広角画像を示し、「It2」は第2センサ群24b(第2の受光センサ25b)から実際に出力される撮像信号から生成される出力望遠画像を示す。
 図3に示す撮影光学系11及び撮像素子24を具備する撮像装置30(図1及び図2参照)によって広角画像及び望遠画像を撮影する場合に、撮像装置30(特に撮像素子24の遮光マスク28)が十分な瞳分割性能を有していれば、図27に示す真の広角画像Iw1及び真の望遠画像It1を表す撮像信号が撮像素子24から出力される。しかしながら上述のように、瞳分割性能が十分ではなく広角画像光と望遠画像光との間において干渉がある場合には、図27に示す出力広角画像Iw2及び出力望遠画像It2のように、広角画像及び望遠画像が混在した多重画像を表す撮像信号が第1センサ群24a及び第2センサ群24bの各々から出力される。
 例えば図27に示すように、真の広角画像Iw1の撮影光のうち、第1センサ群24a(第1の受光センサ25a)によって適切に受光される成分を示す分布情報(指標)を「広角検出ゲイン分布D1」とし、第2センサ群24b(第2の受光センサ25b)によって不適切に受光される成分を示す分布情報を「広角混信ゲイン分布D2」とする。また真の望遠画像It1の撮影光のうち、第1センサ群24a(第1の受光センサ25a)によって不適切に受光される成分を示す分布情報を「望遠混信ゲイン分布D3」とし、第2センサ群24b(第2の受光センサ25b)によって適切に受光される成分を示す分布情報を「望遠検出ゲイン分布D4」とする。
 この場合、真の広角画像Iw1に対して広角検出ゲイン分布D1を適用することにより得られる広角画像成分であって第1センサ群24a(第1の受光センサ25a)に受光される広角画像成分を「真広角画像成分E1」とする。また真の望遠画像It1に対して望遠混信ゲイン分布D3を適用することにより得られる望遠画像成分であって第1センサ群24a(第1の受光センサ25a)に受光される望遠画像成分を「混信望遠画像成分E2」とする。また真の広角画像Iw1に対して広角混信ゲイン分布D2を適用することにより得られる広角画像成分であって第2センサ群24b(第2の受光センサ25b)に受光される広角画像成分を「混信広角画像成分E3」とする。また真の望遠画像It1に対して望遠検出ゲイン分布D4を適用することにより得られる望遠画像成分であって第2センサ群24b(第2の受光センサ25b)に受光される望遠画像成分を「真望遠画像成分E4」とする。
 この場合、第1センサ群24a(第1の受光センサ25a)から出力される撮像信号によって生成される出力広角画像Iw2は、真広角画像成分E1と混信望遠画像成分E2とを加算して得られる画像に基づく。また第2センサ群24b(第2の受光センサ25b)から出力される撮像信号によって生成される出力望遠画像It2は、混信広角画像成分E3と真望遠画像成分E4とを加算して得られる画像に基づく。
 撮像装置の瞳分割性能が優れているほど、広角画像光と望遠画像光とは精度良く分離されて撮像素子24により受光され、混信望遠画像成分E2及び混信広角画像成分E3の成分割合はゼロ(ブランク)に近づき、出力広角画像Iw2は真の広角画像Iw1に近づき、出力望遠画像It2は真の望遠画像It1に近づく。一方、撮像装置の瞳分割性能が劣るほど、広角画像光と望遠画像光とは十分に分離されずに撮像素子24により受光され、混信望遠画像成分E2及び混信広角画像成分E3の成分割合は増え、出力広角画像Iw2において混信望遠画像成分E2の割合が大きくなり、出力望遠画像It2において混信広角画像成分E3の割合が大きくなる。
 このように光学系間において撮影光の干渉がある場合に撮像素子24から出力される撮像信号は、真の画像に検出ゲイン分布を適用して得られる画像成分と、別チャンネルの画像に混信ゲイン分布を適用して得られる画像成分とが加算されたものに相当する。このような指向性センサ(撮像素子24)における混信(クロストーク)により、広角画像及び望遠画像が重なった画像(撮像信号)が出力されるため、瞳分割性能が十分ではない撮像装置からは画質劣化した撮影画像が出力されることとなる。
 そこで本実施形態の画像補正部60(図25参照)は、広角画像データ及び望遠画像データの補正処理を行って、「広角画像に混入した望遠画像成分(すなわち第2光学系22を通過して第1の受光センサ25aにより受信された望遠画像の撮影光成分)」の影響及び「望遠画像に混入した広角画像成分(すなわち第1光学系21を通過して第2の受光センサ25bにより受信された広角画像の撮影光成分)」の影響を抑制する。
 画像補正部60において行われる補正処理の具体的な手法は特に限定されず、例えば、画像補正部60は、広角画像(第1撮影画像)及び望遠画像(第2撮影画像)の検出ゲイン分布及び混信ゲイン分布によって構成される行列の逆行列に基づいて広角画像及び望遠画像の補正処理を行うことができる。
 以下、検出ゲイン分布及び混信ゲイン分布によって構成される行列の逆行列に基づく画像補正処理の具体例について説明する。
 図28は、真の広角画像Iw1、真の望遠画像It1、出力広角画像Iw2、出力望遠画像It2及び検出ゲイン分布及び混信ゲイン分布によって構成される行列Mの関係を示す図である。なお図28に示す「真の広角画像Iw1、真の望遠画像It1、出力広角画像Iw2及び出力望遠画像It2」は、それぞれ図27に示す「真の広角画像Iw1、真の望遠画像It1、出力広角画像Iw2及び出力望遠画像It2」に対応する。
 撮像素子24(第1の受光センサ25a及び第2の受光センサ25b)から出力される撮像信号から生成される出力広角画像Iw2及び出力望遠画像It2は、図28に示すように、「検出ゲイン分布及び混信ゲイン分布によって構成される行列M」と、「第1光学系21及び第2光学系22の各々を通過した撮影光によって生成される本来の広角画像及び望遠画像である真の広角画像Iw1及び真の望遠画像It1」との積で表される。
 検出ゲイン分布及び混信ゲイン分布によって構成される行列Mは、図28に示すように、広角検出ゲイン分布D1、広角混信ゲイン分布D2、望遠混信ゲイン分布D3及び望遠検出ゲイン分布D4によって構成される2×2行列である。なお図28に示す「広角検出ゲイン分布D1、広角混信ゲイン分布D2、望遠混信ゲイン分布D3及び望遠検出ゲイン分布D4」は、それぞれ図27に示す「広角検出ゲイン分布D1、広角混信ゲイン分布D2、望遠混信ゲイン分布D3及び望遠検出ゲイン分布D4」に対応する。
 図29は、図28に示す行列式に対して「検出ゲイン分布及び混信ゲイン分布によって構成される行列M」の逆行列M-1を適用して得られる行列式を示す図である。図29に示すように、「検出ゲイン分布及び混信ゲイン分布によって構成される行列M」の逆行列M-1と「撮像素子24(第1の受光センサ25a及び第2の受光センサ25b)から出力される撮像信号から生成される出力広角画像Iw2及び出力望遠画像It2」との積によって、「本来の広角画像及び望遠画像である真の広角画像Iw1及び真の望遠画像It1」を取得することができる。
 図30は、図29の行列式を簡略化して表した行列式を示す。図30において「W1」は真の広角画像Iw1の画素成分(画素値)を集合的に表し、「T1」は真の望遠画像It1の画素成分を集合的に表し、「W2」は出力広角画像Iw2の画素成分を集合的に表し、「T2」は出力望遠画像It2の画素成分を集合的に表す。また図30において「A」、「B」、「C」及び「D」は、それぞれ広角検出ゲイン分布D1、望遠混信ゲイン分布D3、広角混信ゲイン分布D2及び望遠検出ゲイン分布D4を構成する要素を集合的に表す。
 図31は、図30に示す「W1」を構成する要素w1_11~w1_mnを示す。すなわち「W1」は、真の広角画像Iw1の画素成分(画素値)に対応する要素w1_11~w1_mnによって構成される。なお「m」及び「n」はそれぞれ2以上の整数を示し、「m」と「n」とは同じであってもよいし異なっていてもよい。
 同様に、図30に示す「W2」、「T1」及び「T2」も、それぞれ出力広角画像Iw2、真の望遠画像It1及び出力望遠画像It2の画素成分(画素値)に対応する要素w2_11~w2_mn、t1_11~t1_mn及びt2_11~t2_mnによって構成される(図示省略)。また図30に示す「A」、「B」、「C」及び「D」も、それぞれ広角画像及び望遠画像の各画素に応じて定められる要素a11~amn、b11~bmn、c11~cmn及びd11~dmnによって構成される(図示省略)。
 図32は、図30に示す行列式に基づいて導出される「w1_ij」の算出式を示す。図33は、図30に示す行列式に基づいて導出される「t1_ij」の算出式を示す。図32及び図33において「i」は1~mのうちのいずれかの整数を示し、「j」は1~nのうちのいずれかの整数を示す。図32及び図33に示すように、真の広角画像Iw1の画素成分(画素値)に対応する要素w1_11~w1_mn及び真の望遠画像It1の画素成分(画素値)に対応する要素t1_11~t1_mnは、出力広角画像Iw2及び出力望遠画像It2と逆行列M-1とから演算により算出することができる。
 本実施形態の画像補正部60は、図32及び図33により表される演算式に基づいて広角画像データ(第1撮影画像データD11)及び望遠画像データ(第2撮影画像データD12)の補正処理を行うことにより、「広角画像に混入した望遠画像成分」の影響又は「望遠画像に混入した広角画像成分」の影響を低減することができる。
 厳密に補正処理を行う観点からは、検出ゲイン分布及び混信ゲイン分布は広角画像及び望遠画像の各々を構成する画素の数と同じ数の要素によって構成され、検出ゲイン分布及び混信ゲイン分布を構成する要素毎(対応画素毎)の逆行列M-1が画像補正部60において用いられることが好ましい。ただし、シェーディングが小さい場合等のように「検出ゲイン分布及び混信ゲイン分布を構成する要素」が「広角画像及び望遠画像を構成する画素の一部又は全部」において近似するケースでは、計算コストを優先させる観点から、その近似範囲において共通の代表値によって「検出ゲイン分布及び混信ゲイン分布を構成する要素」を表してもよい。したがって「広角画像及び望遠画像を構成する画素の全部」が近似する場合には、検出ゲイン分布及び混信ゲイン分布を単一の代表値によって表すことができ、「検出ゲイン分布及び混信ゲイン分布によって構成される行列の逆行列に基づく補正処理」を簡素且つ高速に行うことが可能になる。
 なお広角検出ゲイン分布D1、広角混信ゲイン分布D2、望遠混信ゲイン分布D3及び望遠検出ゲイン分布D4に基づく行列M(図28~図30の「A」、「C」、「B」及び「D」参照)は、撮影に使用する撮影光学系11及び撮像素子24によって定められる。画像補正部60は、この行列Mから予め導出される逆行列M-1の要素を記憶保持しており、その記憶保持している逆行列M-1の要素を出力広角画像Iw2及び出力望遠画像It2に適用することにより、広角画像における望遠画像の撮影光の影響を低減し、望遠画像における広角画像の撮影光の影響を低減することができる。
 また上述の画像補正部60における「検出ゲイン分布及び混信ゲイン分布によって構成される行列Mの逆行列M-1に基づく補正処理」は、撮像素子24から取得される広角画像データ(第1撮影画像データD11)及び望遠画像データ(第2撮影画像データD12)に対して行われるが、これに限定されない。例えば、画像記憶部39等のメモリに記憶され画像生成部32に出力される広角画像データ(第1撮影画像データD11)及び望遠画像データ(第2撮影画像データD12)に対し、画像補正部60における「検出ゲイン分布及び混信ゲイン分布によって構成される行列の逆行列に基づく補正処理」が行われてもよい。
 また上述の画像補正部60における「検出ゲイン分布及び混信ゲイン分布によって構成される行列Mの逆行列M-1に基づく補正処理」は、実際には、広角画像データ及び望遠画像データを構成する色チャンネル毎に行われる。画像補正部60は、その色チャンネルの各々に関する「検出ゲイン分布及び混信ゲイン分布によって構成される行列Mの逆行列M-1」を記憶保持する。例えば、撮像素子24(第1の受光センサ25a及び第2の受光センサ25b)がRGB(赤緑青)のカラーフィルタを有し、RGBデータによって構成される広角画像データ(第1撮影画像データD11)及び望遠画像データ(第2撮影画像データD12)が撮像信号として撮像素子24から出力される場合、画像補正部60は、RGBの各々の色チャンネルに関する「検出ゲイン分布及び混信ゲイン分布によって構成される行列Mの逆行列M-1」を保持して出力広角画像Iw2及び出力望遠画像It2に適用する。
 図34は、「検出ゲイン分布及び混信ゲイン分布によって構成される行列Mの逆行列M-1に基づく補正処理」を行った場合の画像例を示し、(a)は広角画像例を示し、(b)は望遠画像例を示す。図35は、「検出ゲイン分布及び混信ゲイン分布によって構成される行列Mの逆行列M-1に基づく補正処理」を行った後に第1実施形態に係る「位置合わせ後の合成処理」を行った場合の画像例を示し、(a)は広角画像例を示し、(b)は望遠画像例を示す。
 図34(a)に示す広角画像例では、望遠画像成分のうち明るい画素成分の混在が多少目立つ。また図34(b)に示す望遠画像例では、広角画像成分のうち鋭い輪郭成分の混在が多少目立つ。一方、本実施形態に係る図35(a)に示す広角画像例及び図35(b)に示す望遠画像例では、図34(a)に示す広角画像例及び図34(b)に示す望遠画像例において目立った混在成分が低減され、全体として視認性に優れた高画質の画像となっている。
 図36は、「検出ゲイン分布及び混信ゲイン分布によって構成される行列Mの逆行列M-1に基づく補正処理」を行った後に第1実施形態に係る「位置合わせ後の合成処理」を行った場合の他の画像例を示す。
 図36(a)は、撮像素子24(第2センサ群24b)から出力される望遠撮影画像(第2撮影画像データD12)の一例を示し、広角画像成分及び望遠画像成分が「広角画像成分:望遠画像成分=0.49:0.51」の比率で混合している。
 図36(b)は、撮像素子24(第1センサ群24a)から出力される広角撮影画像(第1撮影画像データD11)の一例を示し、広角画像成分及び望遠画像成分が「広角画像成分:望遠画像成分=0.51:0.49」の比率で混合している。
 図36(c)は、「検出ゲイン分布及び混信ゲイン分布によって構成される行列Mの逆行列M-1に基づく補正処理(図28~図33参照)」を図36(a)に示す望遠撮影画像に適用することにより得られる望遠画像(第2撮影画像データD12)を示す。図36(c)に示す例では、「逆行列M-1に基づく補正処理」では混信成分(広角画像成分)を完全には除去することができず、除去残差が残っている。
 図36(d)は、「検出ゲイン分布及び混信ゲイン分布によって構成される行列Mの逆行列M-1に基づく補正処理(図28~図33参照)」を図36(b)に示す広角撮影画像に適用することにより得られる広角画像(第1撮影画像データD11)を示す。図36(d)に示す例では、「逆行列M-1に基づく補正処理」では混信成分(望遠画像成分)を完全には除去することができず、除去残差が残っている。
 図36(e)は、第2光学系22の光軸Lの状態を2次元的に変えることにより取得される複数の望遠撮影画像(第2撮影画像データD12)であって、「検出ゲイン分布及び混信ゲイン分布によって構成される行列Mの逆行列M-1に基づく補正処理(図28~図33参照)」を適用した後の望遠撮影画像(図36(c)参照)を複数示す。
 図36(f)は、第1光学系21の光軸Lの状態を2次元的に変えることにより取得される複数の広角撮影画像(第1撮影画像データD11)であって、「検出ゲイン分布及び混信ゲイン分布によって構成される行列Mの逆行列M-1に基づく補正処理(図28~図33参照)」を適用した後の広角撮影画像(図36(d)参照)を複数示す。
 図36(g)は、図36(e)に示す複数の望遠撮影画像(第2撮影画像データD12)の「位置合わせ処理及び合成処理(図23参照)」を行うことにより得られる望遠生成画像(第2生成画像データD22)を示す。図36(g)に示す例は、第1光学系21(広角画像用光学系)の焦点距離と第2光学系22(望遠画像用光学系)の焦点距離との比が「7:1」であり、水平方向H(パン方向)に1画素単位で9画素相当移動させるとともに垂直方向V(チルト方向)に1画素単位で9画素相当移動させて合計81枚(=9×9)の望遠撮影画像(第2撮影画像データD12)から得られる望遠生成画像(第2生成画像データD22)を示す。
 図36(h)は、図36(f)に示す複数の広角撮影画像(第1撮影画像データD11)の「位置合わせ処理及び合成処理(図24参照)」を行うことにより得られる広角生成画像(第1生成画像データD21)を示す。図36(h)に示す例は、第1光学系21(広角画像用光学系)の焦点距離と第2光学系22(望遠画像用光学系)の焦点距離との比が「7:1」であり、水平方向H(パン方向)に1画素単位で9画素相当移動させるとともに垂直方向V(チルト方向)に1画素単位で9画素相当移動させて合計81枚(=9×9)の広角撮影画像(第1撮影画像データD11)から得られる広角生成画像(第1生成画像データD21)を示す。
 「図36(g)及び図36(h)」と「図36(c)及び図36(d)」との比較からも明らかなように、「検出ゲイン分布及び混信ゲイン分布によって構成される行列Mの逆行列M-1に基づく補正処理」に「位置合わせ処理及び合成処理」を組み合わせることにより、混信成分が低減され、全体として視認性に優れた高画質の画像を提供することができる。また「図36(g)及び図36(h)」と「図23(b)及び図24(b)」との比較からも明らかなように、「位置合わせ処理及び合成処理」に対して「検出ゲイン分布及び混信ゲイン分布によって構成される行列Mの逆行列M-1に基づく補正処理」を組み合わせることにより、より一層効果的に混信成分を低減することができる。
 特に図36(a)に示す望遠画像及び図36(b)に示す広角画像は、それぞれ混信成分の比率が「0.49(=49%)」であり、本来意図されている所望像に対する混信像の割合が非常に大きい。そのような場合であっても、本実施形態の画像生成部32のように画像補正部60による補正処理と画像合成部33による補正処理とを組み合わせることにより、図36(g)及び図36(h)に示すように混信成分をほぼ視認することができないレベルにまで低減した生成画像(第1生成画像データD21及び第2生成画像データD22)を取得することができる。したがって本実施形態によれば、画像分離性能(瞳分割性能)が低い安価な撮像素子24であっても、混信成分を効率的に低減した高画質の生成画像を取得することができ、非常に有用である。
 なお画像補正部60は、上述の「検出ゲイン分布及び混信ゲイン分布によって構成される行列Mの逆行列M-1に基づく補正処理」以外の補正処理を行ってもよい。画像補正部60は、例えば「広角画像データ(第1撮影画像データD11)を補正して第1光学系21の収差の影響を低減する補正処理」や「望遠画像データ(第2撮影画像データD12)を補正して第2光学系22の収差の影響を低減する補正処理」を行ってもよい。また画像補正部60は、位置補正(平行移動)などの幾何的な補正に加え、撮影光学系11(第1光学系21及び第2光学系22)の光学特性を反映した台形補正等の変形補正や、シェーディング或いは色調を調整する補正を行うための処理を行ってもよい。画像補正部60によって適切な画像補正処理を行うことにより、本来意図される所望の画像成分については、ノイズやブレなどの不要成分が低減され、より一層明瞭な生成画像(第1生成画像データD21及び第2生成画像データD22)を得ることができる。
 また、図25には画像合成部33よりも前段に画像補正部60が設けられる例が示されているが、画像補正部60が設けられる位置は特に限定されない。例えば図37に示すように、画像生成部32において複数の画像補正部(第1画像補正部60a及び第2画像補正部60b)が設けられてもよく、画像合成部33よりも前段だけではなく後段に画像補正部(第1画像補正部60a及び第2画像補正部60b)が設けられてもよい。図37に示す画像生成部32では、例えば、第1画像補正部60aが上述の「検出ゲイン分布及び混信ゲイン分布によって構成される行列Mの逆行列M-1に基づく補正処理」を行い、画像合成部33が第1画像補正部60aによる補正後の撮影画像データ(第1撮影画像データD11及び第2撮影画像データD12)から生成画像データ(第1生成画像データD21及び第2生成画像データD22)を生成し、第2画像補正部60bが生成画像データ(第1生成画像データD21及び第2生成画像データD22)に対して他の補正処理を行ってもよい。また図38に示すように、画像生成部32において画像合成部33よりも後段に画像補正部60が設けられてもよい。
 <第3実施形態>
 本実施形態において、上述の実施形態に係る撮像装置30と同一又は類似の構成には同一の符号を付し、その詳細な説明は省略する。
 上述の実施形態では、撮影光学系11及び撮像素子24を含む撮像本体部44を移動させながら撮像を行うことにより、第1光学系21の光軸Lが異なる状態において複数の第1撮影画像(広角画像)が撮像され、第2光学系22の光軸Lが異なる状態において複数の第2撮影画像(望遠画像)が撮像される。これに対して本実施形態では、被写体を移動させながら撮像を行うことにより、第1光学系21の光軸Lが異なる状態において複数の第1撮影画像(広角画像)が撮像され、第2光学系22の光軸Lが異なる状態において複数の第2撮影画像(望遠画像)が撮像される。
 したがって以下に説明する本実施形態は、例えば顕微鏡等によって撮像装置30が構成される場合に好適である。
 図39は、第3実施形態に係る撮像装置30を例示するブロック図である。図39には、撮像本体部44(撮影光学系11及び撮像素子24)、光学系アクチュエータ45、メインコントローラ37、被写体64、被写体保持部65及び被写体アクチュエータ66のみが図示されているが、図39に示す撮像装置30は、図7~図10に示す各部(例えば画像生成部32等)も含む。
 本実施形態の撮像装置30は、被写体64を保持する被写体保持部65と、メインコントローラ37の制御下において被写体保持部65を移動させる被写体アクチュエータ66とを更に備える。
 被写体保持部65は、被写体64を固定的に保持可能であれば、具体的な保持手法は特に限定されない。
 また本例の被写体保持部65は、被写体アクチュエータ66によってスライド移動し、被写体アクチュエータ66は、撮影光学系11(第1光学系21及び第2光学系22)の光軸Lと垂直を成す方向に2次元的に被写体保持部65を移動させることができる。
 本実施形態の撮像装置30において、メインコントローラ37の制御下において、被写体64を被写体保持部65によって移動させながら撮像本体部44によって被写体64の撮像を行うことにより、「第1光学系21の光軸Lが異なる状態において撮像される複数の広角画像(第1撮影画像)」及び「第2光学系22の光軸Lが異なる状態において撮像される複数の望遠画像(第2撮影画像)」を取得することができる。
 なお本実施形態のように被写体64を移動させる場合、撮像本体部44によって取得される撮影画像(第1撮影画像データD11及び第2撮影画像データD12)における被写体像は、「被写体アクチュエータ66及び被写体保持部65による被写体64の移動方向」とは逆方向に移動する。例えば被写体64が水平右方向HR(図39参照)に10cmスライドすると、撮影画像(第1撮影画像データD11及び第2撮影画像データD12)における被写体像は相対的に水平左方向(図39の符号「HL」参照)に10cmスライドする。
 パンチルト装置による撮影光学系11の光軸Lの「向き(角度)」を変えるケースに比べ、本実施形態のように撮影光学系11の光軸Lの「相対位置」を変えるケースでは、撮影画像(第1撮影画像データD11及び第2撮影画像データD12)における被写体像の動き量は小さくなる傾向がある。したがって比較的小さな被写体64の撮像を行う場合のように、撮影光学系11の光軸Lの状態を緻密に変化させることが必要とされるケースに対して本実施形態の撮像装置30は好適である。
 なお本実施形態において、被写体アクチュエータ66及び被写体保持部65による被写体64の移動と、光学系アクチュエータ45による撮像本体部44(撮影光学系11及び撮像素子24)の移動とが組み合わされて、複数の撮影画像(第1撮影画像データD11及び第2撮影画像データD12)が取得されてもよい。
 <他の変形例>
 本発明は上述の実施形態及びその変形例に限定されず、本発明の精神を逸脱しない範囲において種々の変形が可能である。
 例えば上述の実施形態同士が適宜組み合わされてもよく、「被写体64側を移動させて撮像を行う」上述の第3実施形態に係る撮像装置30に、上述の第2実施形態に係る「検出ゲイン分布及び混信ゲイン分布によって構成される行列Mの逆行列M-1に基づく補正処理」を適用してもよい。
 また上述の実施形態では、2種類の光学系(第1光学系21及び第2光学系22)によって撮影光学系11が構成される例について説明したが、3種類以上の光学系によって撮影光学系11が構成されてもよい。
 また、上述の各構成及び各機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的記録媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。
 また、本発明を適用可能な態様は図1に示すデジタルカメラ10及び図2に示す自動追尾撮像装置14には限定されず、撮像を主たる機能とするカメラ類の他に、撮像機能に加えて撮像以外の他の機能(通話機能、通信機能、或いはその他のコンピュータ機能)を備えるモバイル機器類に対しても本発明を適用することが可能である。本発明を適用可能な他の態様としては、例えば、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistants)及び携帯型ゲーム機が挙げられる。以下、本発明を適用可能なスマートフォンの一例について説明する。
 <スマートフォンの構成>
 図40は、本発明の撮像装置の一実施形態であるスマートフォン101の外観を示す図である。図40に示すスマートフォン101は、平板状の筐体102を有し、筐体102の一方の面に表示部としての表示パネル121と、入力部としての操作パネル122とが一体となって形成される表示入力部120が設けられる。また、その筐体102は、スピーカ131と、マイクロホン132と、操作部140と、カメラ部141とを備える。なお、筐体102の構成はこれに限定されず、例えば、表示部と入力部とが独立して設けられる構成を採用したり、折り畳み構造やスライド機構を有する構成を採用することもできる。
 図41は、図40に示すスマートフォン101の構成を示すブロック図である。図41に示すように、スマートフォン101の主たる構成要素として、無線通信部110と、表示入力部120と、通話部130と、操作部140と、カメラ部141と、記憶部150と、外部入出力部160と、GPS(Global Positioning System)受信部170と、モーションセンサ部180と、電源部190と、主制御部100とを備える。また、スマートフォン101の主たる機能として、基地局装置と移動通信網とを介した移動無線通信を行う無線通信機能を備える。
 無線通信部110は、主制御部100の指示に従って、移動通信網に接続された基地局装置との間で無線通信を行う。その無線通信が使用されて、音声データ及び画像データ等の各種ファイルデータや電子メールデータなどの送受信、及びWebデータやストリーミングデータなどの受信が行われる。
 表示入力部120は、表示パネル121及び操作パネル122を備えるいわゆるタッチパネルであり、主制御部100の制御により、画像(静止画像及び動画像)や文字情報などを表示して視覚的にユーザに情報を伝達し、また表示した情報に対するユーザ操作を検出する。
 表示パネル121は、LCD(Liquid Crystal Display)又はOELD(Organic Electro-Luminescence Display)などを表示デバイスとして用いる。操作パネル122は、表示パネル121の表示面上に表示される画像が視認可能な状態によりお設けられ、ユーザの指や尖筆によって操作される一又は複数の座標を検出するデバイスである。そのデバイスがユーザの指や尖筆によって操作されると、操作パネル122は、操作に起因して発生する検出信号を主制御部100に出力する。次いで、主制御部100は、受信した検出信号に基づいて、表示パネル121上の操作位置(座標)を検出する。
 本発明の撮像装置の一実施形態として図40に例示されるスマートフォン101の表示パネル121と操作パネル122とは一体となって表示入力部120を構成し、操作パネル122が表示パネル121を完全に覆うような配置となっている。その配置を採用した場合、操作パネル122は、表示パネル121外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル122は、表示パネル121に重なる重畳部分についての検出領域(以下、「表示領域」と称する)と、それ以外の表示パネル121に重ならない外縁部分についての検出領域(以下、「非表示領域」と称する)とを備えていてもよい。
 なお、表示領域の大きさと表示パネル121の大きさとを完全に一致させてもよいが、両者を必ずしも一致させる必要はない。また、操作パネル122が、外縁部分及びそれ以外の内側部分の2つの感応領域を備えていてもよい。さらに、その外縁部分の幅は、筐体102の大きさなどに応じて適宜設計されるものである。更にまた、操作パネル122において採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、及び静電容量方式などが挙げられ、いずれの方式が採用されてもよい。
 通話部130は、スピーカ131及びマイクロホン132を備え、マイクロホン132を通じて入力されたユーザの音声を主制御部100にて処理可能な音声データに変換して主制御部100に出力したり、無線通信部110或いは外部入出力部160により受信された音声データを復号してスピーカ131から出力したりする。また、図40に示すように、例えば、スピーカ131を表示入力部120が設けられた面と同じ面に搭載し、マイクロホン132を筐体102の側面に搭載することができる。
 操作部140は、キースイッチなどを用いたハードウェアキーであって、ユーザからの指示を受け付ける。例えば、図40に示すように、操作部140は、スマートフォン101の筐体102の側面に搭載され、指などにより押下されるとスイッチオン状態となり、指を離すとバネなどの復元力によってスイッチオフ状態となる押しボタン式のスイッチである。
 記憶部150は、主制御部100の制御プログラムや制御データ、アプリケーションソフトウェア、通信相手の名称や電話番号などを対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータ、及びダウンロードしたコンテンツデータ等を記憶し、またストリーミングデータなどを一時的に記憶する。また、記憶部150は、スマートフォン内蔵の内部記憶部151と着脱自在な外部メモリスロットを有する外部記憶部152とにより構成される。なお、記憶部150を構成する内部記憶部151及び外部記憶部152のそれぞれは、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk
 type)、マルチメディアカードマイクロタイプ(multimedia card
 micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、或いはROM(Read Only Memory)などの格納媒体を用いて実現される。
 外部入出力部160は、スマートフォン101に連結される全ての外部機器とのインターフェースの役割を果たし、通信等(例えば、ユニバーサルシリアルバス(USB:Universal Serial Bus)、IEEE1394など)又はネットワーク(例えば、インターネット、無線LAN、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)など)により他の外部機器に直接的又は間接的に接続する。
 スマートフォン101に連結される外部機器としては、例えば、有線/無線ヘッドセット、有線/無線外部充電器、有線/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)やSIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有線/無線接続されるスマートフォン、有線/無線接続されるパーソナルコンピュータ、有線/無線接続されるPDA、及び有線/無線接続されるイヤホンなどがある。外部入出力部160は、このような外部機器から伝送を受けたデータをスマートフォン101の内部の各構成要素に伝達したり、スマートフォン101の内部のデータが外部機器に伝送されたりするように構成されてもよい。
 GPS受信部170は、主制御部100の指示に従って、GPS衛星ST1、ST2~STnから送信されるGPS信号を受信し、受信した複数のGPS信号に基づく測位演算処理を実行し、スマートフォン101の緯度、経度及び高度によって特定される位置を検出する。GPS受信部170は、無線通信部110及び/又は外部入出力部160(例えば、無線LAN(Local Area Network))から位置情報を取得できる場合には、その位置情報を用いて位置を検出することもできる。
 モーションセンサ部180は、例えば、3軸の加速度センサなどを備え、主制御部100の指示に従って、スマートフォン101の物理的な動きを検出する。スマートフォン101の物理的な動きを検出することにより、スマートフォン101の動く方向や加速度が検出される。その検出の結果は、主制御部100に出力される。
 電源部190は、主制御部100の指示に従って、スマートフォン101の各部に、バッテリ(図示しない)に蓄えられる電力を供給する。
 主制御部100は、1つ又は複数のマイクロプロセッサを備え、記憶部150が記憶する制御プログラムや制御データに従って動作し、スマートフォン101の各部を統括して制御する。本例においては、例えば画像生成部32(画像合成部33)、メインコントローラ37、及び画像処理部38の役割を主制御部が果たす。また、主制御部100は、無線通信部110を通じて音声通信及びデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能とを備える。
 アプリケーション処理機能は、記憶部150が記憶するアプリケーションソフトウェアに従って主制御部100が動作することにより実現される。アプリケーション処理機能としては、例えば、外部入出力部160を制御することにより対向機器とデータ通信を行う赤外線通信機能や、電子メールの送受信を行う電子メール機能、及びWebページを閲覧するWebブラウジング機能などがある。
 また、主制御部100は、受信データやダウンロードしたストリーミングデータなどの画像データ(静止画像や動画像のデータ)に基づいて、映像を表示入力部120に表示する等の画像処理機能を備える。画像処理機能とは、主制御部100が、上記画像データを復号し、その復号結果に画像処理を施して、その画像処理を経て得られる画像を表示入力部120に表示する機能のことをいう。
 さらに、主制御部100は、表示パネル121に対する表示制御と、操作部140や操作パネル122を通じたユーザ操作を検出する操作検出制御とを実行する。
 表示制御の実行により、主制御部100は、アプリケーションソフトウェアを起動するためのアイコンや、スクロールバーなどのソフトウェアキーを表示したり、或いは電子メールを作成するためのウィンドウを表示する。なお、スクロールバーとは、表示パネル121の表示領域に収まりきれない大きな画像などについて、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
 また、操作検出制御の実行により、主制御部100は、操作部140を通じたユーザ操作を検出したり、操作パネル122を通じて、上記アイコンに対する操作や、上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、或いは、スクロールバーを通じた表示画像のスクロール要求を受け付ける。
 さらに、操作検出制御の実行により主制御部100は、操作パネル122に対する操作位置が、表示パネル121に重なる重畳部分(表示領域)に該当するか、或いはそれ以外の表示パネル121に重ならない外縁部分(非表示領域)に該当するかを判定し、操作パネル122の感応領域やソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
 また、主制御部100は、操作パネル122に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指などによって軌跡を描いたり、複数の位置を同時に指定したり、或いはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
 カメラ部141は、CMOS(Complementary Metal Oxide
 Semiconductor)などの撮像素子を用いて電子撮影するデジタルカメラである。また、カメラ部141は、主制御部100の制御により、撮像によって得た画像データを例えばJPEG(Joint Photographic Experts Group)などの圧縮した画像データに変換し、その画像データを記憶部150に記録したり、外部入出力部160や無線通信部110を通じて出力したりすることができる。図40に示すようにスマートフォン101において、カメラ部141は表示入力部120と同じ面に搭載されているが、カメラ部141の搭載位置はこれに限らず、表示入力部120が設けられる筐体102の表面ではなく筐体102の背面にカメラ部141が搭載されてもよいし、或いは複数のカメラ部141が筐体102に搭載されてもよい。なお、複数のカメラ部141が搭載されている場合には、撮影に供するカメラ部141を切り替えて単独のカメラ部141によって撮影が行われてもよいし、或いは、複数のカメラ部141を同時に使用して撮影が行われてもよい。
 また、カメラ部141はスマートフォン101の各種機能に利用することができる。例えば、カメラ部141で取得した画像が表示パネル121に表示さてもよいし、操作パネル122の操作入力手法の一つとして、カメラ部141で撮影取得される画像が利用さてもよい。また、GPS受信部170が位置を検出する際に、カメラ部141からの画像が参照されて位置が検出されてもよい。さらには、カメラ部141からの画像が参照されて、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン101のカメラ部141の光軸方向を判断することや、現在の使用環境を判断することもできる。勿論、カメラ部141からの画像をアプリケーションソフトウェア内で利用することもできる。
 その他、GPS受信部170により取得された位置情報、マイクロホン132により取得された音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、及びモーションセンサ部180により取得された姿勢情報等などを静止画又は動画の画像データに付加して得られるデータを、記憶部150に記録したり、外部入出力部160や無線通信部110を通じて出力したりすることもできる。
 なお上述の画像生成部32、画像処理部38、表示コントローラ40及びメインコントローラ37等(図7参照)は、例えば主制御部100によって実現可能である。
 10…デジタルカメラ、11…撮影光学系、12…レリーズボタン、13…フラッシュ、14…自動追尾撮像装置、15…装置本体、16…台座、17…ドームカバー、18…保持部、19…ギア、21a…第1広角用レンズ、21b…第2広角用レンズ、21c…第3広角用レンズ、21d…第4広角用レンズ、21…第1光学系、22a…第1望遠用レンズ、22b…第1望遠用反射体、22c…第1望遠用反射ミラー、22d…第2望遠用反射体、22e…第2望遠用反射ミラー、22…第2光学系、23…共通レンズ、24a…第1センサ群、24b…第2センサ群、24…撮像素子、25a…第1の受光センサ、25b…第2の受光センサ、25…受光センサ、26…マイクロレンズ、27…中間層、28…遮光マスク、29…フォトダイオード、30…撮像装置、32…画像生成部、33…画像合成部、34…アライメントデータ取得部、35…合成処理部、37…メインコントローラ、38…画像処理部、39…画像記憶部、40…表示コントローラ、41…表示部、42…ユーザ操作部、44…撮像本体部、45…光学系アクチュエータ、60a…第1画像補正部、60b…第2画像補正部、60…画像補正部、64…被写体、65…被写体保持部、66…被写体アクチュエータ、100…主制御部、101…スマートフォン、102…筐体、110…無線通信部、120…表示入力部、121…表示パネル、122…操作パネル、130…通話部、131…スピーカ、132…マイクロホン、140…操作部、141…カメラ部、150…記憶部、151…内部記憶部、152…外部記憶部、160…外部入出力部、170…GPS受信部、180…モーションセンサ部、190…電源部

Claims (20)

  1.  共通の光軸を有する第1光学系及び第2光学系であって、相互に異なる焦点距離を有する第1光学系及び第2光学系を含む撮影光学系と、
     前記第1光学系を通過した光を選択的に受光する第1センサ群と、前記第2光学系を通過した光を選択的に受光する第2センサ群とを含む撮像素子と、
     前記第1センサ群から出力される第1撮影画像に基づいて第1生成画像を生成し、前記第2センサ群から出力される第2撮影画像に基づいて第2生成画像を生成する画像生成部と、を備え、
     前記画像生成部は画像合成部を有し、当該画像合成部は、
     前記第1光学系の光軸が異なる状態において撮像される複数の前記第1撮影画像の位置合わせを行い、位置合わせされた当該複数の第1撮影画像を合成することにより前記第1生成画像を生成し、
     前記第2光学系の光軸が異なる状態において撮像される複数の前記第2撮影画像の位置合わせを行い、位置合わせされた当該複数の第2撮影画像を合成することにより前記第2生成画像を生成する撮像装置。
  2.  前記複数の第1撮影画像は、前記第1光学系の光軸の方向が異なる状態において撮像されて前記第1センサ群から出力され、
     前記複数の第2撮影画像は、前記第2光学系の光軸の方向が異なる状態において撮像されて前記第2センサ群から出力される請求項1に記載の撮像装置。
  3.  前記複数の第1撮影画像は、被写体に対する前記第1光学系の光軸の相対位置が異なる状態において撮像されて前記第1センサ群から出力され、
     前記複数の第2撮影画像は、被写体に対する前記第2光学系の光軸の相対位置が異なる状態において撮像されて前記第2センサ群から出力される請求項1に記載の撮像装置。
  4.  前記画像合成部は、
     前記第1光学系の光軸の状態及び前記第1光学系の焦点距離に基づいて、前記複数の第1撮影画像の位置合わせを行い、
     前記第2光学系の光軸の状態及び前記第2光学系の焦点距離に基づいて、前記複数の第2撮影画像の位置合わせを行う請求項1~3のいずれか一項に記載の撮像装置。
  5.  前記画像合成部は、
     前記複数の第1撮影画像を解析して当該複数の第1撮影画像の各々における第1基準像部の位置を取得し、当該第1基準像部の位置に基づいて前記複数の第1撮影画像の位置合わせを行い、
     前記複数の第2撮影画像を解析して当該複数の第2撮影画像の各々における第2基準像部の位置を取得し、当該第2基準像部の位置に基づいて前記複数の第2撮影画像の位置合わせを行う請求項1~3のいずれか一項に記載の撮像装置。
  6.  前記画像合成部は、
     位置合わせされた前記複数の第1撮影画像のデータを加算して加算後の当該データの平均を算出することにより、前記複数の第1撮影画像の合成を行い、
     位置合わせされた前記複数の第2撮影画像のデータを加算して加算後の当該データの平均を算出することにより、前記複数の第2撮影画像の合成を行う請求項1~5のいずれか一項に記載の撮像装置。
  7.  前記画像合成部は、
     撮像の際の前記第1光学系の光軸の状態に応じて定められる重みに基づいて前記複数の第1撮影画像のデータの重み付き平均を算出することにより、前記複数の第1撮影画像の合成を行い、
     撮像の際の前記第2光学系の光軸の状態に応じて定められる重みに基づいて前記複数の第2撮影画像のデータの重み付き平均を算出することにより、前記複数の第2撮影画像の合成を行う請求項1~5のいずれか一項に記載の撮像装置。
  8.  前記第1光学系の光軸の状態に応じて定められる前記重みは、前記第1光学系の光軸の状態に基づくガウス分布によって定められ、
     前記第2光学系の光軸の状態に応じて定められる前記重みは、前記第2光学系の光軸の状態に基づくガウス分布によって定められる請求項7に記載の撮像装置。
  9.  前記複数の第1撮影画像は、前記第1光学系の光軸が基準状態に近い程、密に撮像され、当該基準状態から離れる程、疎に撮像されて前記第1センサ群から出力され、
     前記複数の第2撮影画像は、前記第2光学系の光軸が基準状態に近い程、密に撮像され、当該基準状態から離れる程、疎に撮像されて前記第2センサ群から出力される請求項1~8のいずれか一項に記載の撮像装置。
  10.  前記複数の第1撮影画像を撮像する際の前記第1光学系の光軸の状態の分布密度は、ガウス分布に基づいて定められ、
     前記複数の第2撮影画像を撮像する際の前記第2光学系の光軸の状態の分布密度は、ガウス分布に基づいて定められる請求項9に記載の撮像装置。
  11.  前記画像生成部は、前記第1撮影画像及び前記第2撮影画像の補正を行う画像補正部であって、前記第1撮影画像における前記第2光学系を通過した光の影響を低減し、前記第2撮影画像における前記第1光学系を通過した光の影響を低減する画像補正部を更に有する請求項1~10のいずれか一項に記載の撮像装置。
  12.  前記画像補正部は、前記第1撮影画像及び前記第2撮影画像の検出ゲイン分布及び混信ゲイン分布によって構成される行列の逆行列に基づいて前記補正を行う請求項11に記載の撮像装置。
  13.  前記画像補正部は、更に、前記第1撮影画像を補正して前記第1光学系の収差の影響を低減し、前記第2撮影画像を補正して前記第2光学系の収差の影響を低減する請求項11又は12に記載の撮像装置。
  14.  前記複数の第1撮影画像は、前記第1光学系の光軸が1次元的に異なる状態において撮像されて前記第1センサ群から出力され、
     前記複数の第2撮影画像は、前記第2光学系の光軸が1次元的に異なる状態において撮像されて前記第2センサ群から出力される請求項1~13のいずれか一項に記載の撮像装置。
  15.  前記複数の第1撮影画像は、前記第1光学系の光軸が2次元的に異なる状態において撮像されて前記第1センサ群から出力され、
     前記複数の第2撮影画像は、前記第2光学系の光軸が2次元的に異なる状態において撮像されて前記第2センサ群から出力される請求項1~13のいずれか一項に記載の撮像装置。
  16.  前記撮影光学系を移動して前記第1光学系及び前記第2光学系の光軸の状態を変えられる光学系アクチュエータを更に備える請求項1~15のいずれか一項に記載の撮像装置。
  17.  前記光学系アクチュエータは、前記撮影光学系をパン及びチルトするパンチルト装置である請求項16に記載の撮像装置。
  18.  被写体を保持する被写体保持部と、
     前記被写体保持部を移動させる被写体アクチュエータとを更に備える請求項1~17のいずれか一項に記載の撮像装置。
  19.  共通の光軸を有する第1光学系及び第2光学系であって、相互に異なる焦点距離を有する第1光学系及び第2光学系を含む撮影光学系と、前記第1光学系を通過した光を選択的に受光する第1センサ群と、前記第2光学系を通過した光を選択的に受光する第2センサ群とを含む撮像素子と、前記第1センサ群から出力される第1撮影画像に基づいて第1生成画像を生成し、前記第2センサ群から出力される第2撮影画像に基づいて第2生成画像を生成する画像生成部とを備える撮像装置における撮像方法であって、
     前記画像生成部において、
     前記第1光学系の光軸が異なる状態において撮像される複数の前記第1撮影画像の位置合わせを行うステップと、
     位置合わせされた前記複数の第1撮影画像を合成することにより前記第1生成画像を生成するステップと、
     前記第2光学系の光軸が異なる状態において撮像される複数の前記第2撮影画像の位置合わせを行うステップと、
     位置合わせされた当該複数の第2撮影画像を合成することにより前記第2生成画像を生成するステップと、を含む撮像方法。
  20.  共通の光軸を有する第1光学系及び第2光学系であって、相互に異なる焦点距離を有する第1光学系及び第2光学系を含む撮影光学系と、前記第1光学系を通過した光を選択的に受光する第1センサ群と、前記第2光学系を通過した光を選択的に受光する第2センサ群とを含む撮像素子と、前記第1センサ群から出力される第1撮影画像に基づいて第1生成画像を生成し、前記第2センサ群から出力される第2撮影画像に基づいて第2生成画像を生成する画像生成部とを備える撮像装置における撮像方法の手順をコンピュータに実行させるためのプログラムであって、
     前記画像生成部において、
     前記第1光学系の光軸が異なる状態において撮像される複数の前記第1撮影画像の位置合わせを行う手順と、
     位置合わせされた前記複数の第1撮影画像を合成することにより前記第1生成画像を生成する手順と、
     前記第2光学系の光軸が異なる状態において撮像される複数の前記第2撮影画像の位置合わせを行う手順と、
     位置合わせされた当該複数の第2撮影画像を合成することにより前記第2生成画像を生成する手順と、をコンピュータに実行させるためのプログラム。
PCT/JP2015/077674 2014-11-21 2015-09-30 撮像装置、撮像方法及びプログラム WO2016080081A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016560102A JP6291595B2 (ja) 2014-11-21 2015-09-30 撮像装置、撮像方法及びプログラム
CN201580061053.7A CN107005627B (zh) 2014-11-21 2015-09-30 摄像装置、摄像方法及记录介质
EP15860231.8A EP3223505B1 (en) 2014-11-21 2015-09-30 Imaging device, imaging method, and program
US15/498,405 US10038856B2 (en) 2014-11-21 2017-04-26 Imaging device, imaging method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014236546 2014-11-21
JP2014-236546 2014-11-21

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/498,405 Continuation US10038856B2 (en) 2014-11-21 2017-04-26 Imaging device, imaging method, and program

Publications (1)

Publication Number Publication Date
WO2016080081A1 true WO2016080081A1 (ja) 2016-05-26

Family

ID=56013640

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/077674 WO2016080081A1 (ja) 2014-11-21 2015-09-30 撮像装置、撮像方法及びプログラム

Country Status (5)

Country Link
US (1) US10038856B2 (ja)
EP (1) EP3223505B1 (ja)
JP (1) JP6291595B2 (ja)
CN (1) CN107005627B (ja)
WO (1) WO2016080081A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180114296A (ko) * 2017-04-10 2018-10-18 삼성전자주식회사 포커스 제어 방법 및 이를 지원하는 전자 장치
WO2018211926A1 (ja) * 2017-05-16 2018-11-22 富士フイルム株式会社 画像生成装置、画像生成システム、画像生成方法、及び画像生成プログラム
WO2019244621A1 (ja) * 2018-06-21 2019-12-26 富士フイルム株式会社 撮像装置、無人移動体、撮像方法、システム、及びプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9185291B1 (en) * 2013-06-13 2015-11-10 Corephotonics Ltd. Dual aperture zoom digital camera
KR102318013B1 (ko) * 2017-10-13 2021-10-27 삼성전자 주식회사 복수의 이미지들을 합성하는 전자장치 및 방법
TWI791206B (zh) * 2021-03-31 2023-02-01 圓展科技股份有限公司 雙鏡頭移動控制系統及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013024636A1 (ja) * 2011-08-16 2013-02-21 富士フイルム株式会社 撮像装置
WO2013146506A1 (ja) * 2012-03-27 2013-10-03 富士フイルム株式会社 撮像装置及び撮像方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100134641A1 (en) * 2008-12-01 2010-06-03 Samsung Electronics Co., Ltd. Image capturing device for high-resolution images and extended field-of-view images
CN102934025B (zh) * 2010-06-30 2015-07-22 富士胶片株式会社 摄像装置及摄像方法
CN103782586B (zh) * 2011-08-24 2015-06-17 富士胶片株式会社 成像设备
US9197816B2 (en) * 2013-10-18 2015-11-24 The Lightco Inc. Zoom related methods and apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013024636A1 (ja) * 2011-08-16 2013-02-21 富士フイルム株式会社 撮像装置
WO2013146506A1 (ja) * 2012-03-27 2013-10-03 富士フイルム株式会社 撮像装置及び撮像方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3223505A4 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180114296A (ko) * 2017-04-10 2018-10-18 삼성전자주식회사 포커스 제어 방법 및 이를 지원하는 전자 장치
KR102426728B1 (ko) 2017-04-10 2022-07-29 삼성전자주식회사 포커스 제어 방법 및 이를 지원하는 전자 장치
WO2018211926A1 (ja) * 2017-05-16 2018-11-22 富士フイルム株式会社 画像生成装置、画像生成システム、画像生成方法、及び画像生成プログラム
US11100671B2 (en) 2017-05-16 2021-08-24 Fujifilm Corporation Image generation apparatus, image generation system, image generation method, and image generation program
WO2019244621A1 (ja) * 2018-06-21 2019-12-26 富士フイルム株式会社 撮像装置、無人移動体、撮像方法、システム、及びプログラム
US11122215B2 (en) 2018-06-21 2021-09-14 Fujifilm Corporation Imaging apparatus, unmanned moving object, imaging method, system, and program

Also Published As

Publication number Publication date
EP3223505B1 (en) 2019-12-04
US10038856B2 (en) 2018-07-31
CN107005627A (zh) 2017-08-01
CN107005627B (zh) 2020-03-31
US20170289461A1 (en) 2017-10-05
JPWO2016080081A1 (ja) 2017-09-28
EP3223505A1 (en) 2017-09-27
JP6291595B2 (ja) 2018-03-14
EP3223505A4 (en) 2017-10-11

Similar Documents

Publication Publication Date Title
JP6291595B2 (ja) 撮像装置、撮像方法及びプログラム
JP6214481B2 (ja) 撮像装置
US9179059B2 (en) Image capture device and image display method
JP5697801B2 (ja) 撮像装置及び自動焦点調節方法
JP5775977B2 (ja) 画像処理装置、撮像装置、画像処理方法、及び画像処理プログラム
JP5851650B2 (ja) 復元フィルタ生成装置及び方法、画像処理装置、撮像装置、復元フィルタ生成プログラム並びに記録媒体
JP6165680B2 (ja) 撮像装置
JP5799178B2 (ja) 撮像装置及び合焦制御方法
US9800774B2 (en) Image capture device with restoration processing and image restoration processing method
JP5870231B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
WO2013146066A1 (ja) 画像処理装置及び方法並びに撮像装置
JP7060634B2 (ja) 撮像装置及び画像処理方法
WO2015118727A1 (ja) 撮像装置及び合焦制御方法
WO2015141081A1 (ja) 撮像装置及び合焦制御方法
US10559068B2 (en) Image processing device, image processing method, and program processing image which is developed as a panorama
WO2015146214A1 (ja) 撮像装置及び合焦制御方法
JP6324879B2 (ja) 撮像装置及びその制御方法
US10110799B2 (en) Imaging device including a focus adjustment unit and a focus controller for adjusting actuators, and imaging method
WO2019202983A1 (ja) 撮像装置並びに距離計測方法、距離計測プログラム及び記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15860231

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016560102

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015860231

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE