WO2021124942A1 - 撮像装置、情報処理方法、およびプログラム - Google Patents

撮像装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2021124942A1
WO2021124942A1 PCT/JP2020/045370 JP2020045370W WO2021124942A1 WO 2021124942 A1 WO2021124942 A1 WO 2021124942A1 JP 2020045370 W JP2020045370 W JP 2020045370W WO 2021124942 A1 WO2021124942 A1 WO 2021124942A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
unit
viewpoint
individual eye
individual
Prior art date
Application number
PCT/JP2020/045370
Other languages
English (en)
French (fr)
Inventor
櫛田 英功
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to EP20901441.4A priority Critical patent/EP4068756A4/en
Priority to JP2021565478A priority patent/JPWO2021124942A1/ja
Priority to US17/784,886 priority patent/US20230016712A1/en
Priority to KR1020227020566A priority patent/KR20220116183A/ko
Priority to CN202080086197.9A priority patent/CN114788258A/zh
Publication of WO2021124942A1 publication Critical patent/WO2021124942A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/17Bodies with reflectors arranged in beam forming the photographic image, e.g. for reducing dimensions of camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/07Roll-film cameras having more than one objective
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • G03B35/10Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the present disclosure relates to an image pickup apparatus, an information processing method, and a program, and in particular, an image pickup apparatus and information processing capable of more easily grasping the parallax between a plurality of images with different individual eye optical systems as viewpoints. Regarding methods and programs.
  • the present disclosure has been made in view of such a situation, and makes it possible to more easily grasp the parallax between a plurality of images with different individual eye optical systems as viewpoints.
  • the image pickup device on one side of the present technology selectively and dynamically switches one of a plurality of images having a plurality of individual eye optical systems whose optical paths are independent of each other as a viewpoint, and displays a display unit. It is an image pickup apparatus provided with a display control unit for displaying with.
  • the information processing method of one aspect of the present technology selectively and dynamically switches and displays any one of a plurality of images whose viewpoints are a plurality of individual eye optical systems whose optical paths are independent of each other. This is an information processing method that is displayed by the department.
  • the program of one aspect of the present technology selectively and dynamically switches the computer to any one of a plurality of images having a viewpoint of a plurality of individual eye optical systems whose optical paths are independent of each other. It is a program that functions as a display control unit to be displayed on the display unit.
  • any one of a plurality of images viewed from a plurality of individual eye optical systems whose optical paths are independent of each other is selectively and. It is displayed on the display while being dynamically switched.
  • FIG. 1 is a perspective view showing a configuration example of an embodiment of a camera to which the present technology is applied.
  • the camera 10 has a built-in image sensor, receives light rays focused by the lens, and performs photoelectric conversion to image the subject.
  • the image obtained by such imaging is also referred to as a captured image.
  • the camera 10 is provided with a lens barrel 20 on the front side (the side on which light is incident) of the image sensor, and the lens barrel 20 has five individual eye optical systems 310 , 31 1 , 31 as a plurality. 2, 31 3, and a 31 4.
  • ommatidium optical system 31 or ommatidium optical system 31 i.
  • the plurality of individual eye optical systems 31 are configured so that the optical paths of light passing through them are independent of each other. That is, the light that has passed through each individual eye optical system 31 of the lens barrel 20 irradiates different positions on the light receiving surface (for example, the effective pixel region) of the image sensor without incident on the other individual eye optical system 31. At least, the optical axes of the individual eye optical systems 31 are located at different positions on the light receiving surface of the image sensor, and at least a part of the light passing through each individual eye optical system 31 is different from each other on the light receiving surface of the image sensor. Irradiate the position.
  • the images of the subjects imaged via each individual eye optical system 31 are formed at different positions.
  • an captured image also referred to as a viewpoint image
  • the camera 10 can obtain a plurality of viewpoint images by photographing the subject.
  • the plurality of viewpoint images can be used, for example, for generation of depth information and processing such as refocusing using the depth information.
  • the number of the individual eye optical systems 31 is arbitrary as long as it is two or more.
  • ommatidium optical system 31 is perpendicular to the optical axis of the lens barrel 20 (the light receiving surface of the image sensor (parallel to the imaging plane)) on a two-dimensional plane, the center of the ommatidium optical system 31 0 (center of gravity) As a result, the other four individual eye optical systems 31 1 to 31 4 are provided so as to form the vertices of the rectangle.
  • the arrangement shown in FIG. 1 is an example, and the positional relationship of each individual eye optical system 31 is arbitrary as long as the optical paths are independent of each other.
  • FIG. 2 is a view of the camera 10 as viewed from the rear side.
  • a display panel unit 33, a viewfinder unit 34, a dial 35, and a button 36 are provided on the back side of the housing of the camera 10.
  • the display panel unit 33 and the view finder unit 34 are composed of display devices such as a liquid crystal display and an organic EL display (OELD (Organic Electro Luminescence Display)), and display a through image before imaging or for confirmation after imaging. The captured image can be displayed.
  • OELD Organic Electro Luminescence Display
  • the dial 35 and the button 36 are examples of input devices, and the user can accept the user's operation by operating them.
  • FIG. 3 is a block diagram showing an example of an electrical configuration of the camera 10.
  • the camera 10 includes a multi-eye optical system 30, an image sensor 51, a RAW signal processing unit 52, an area extraction unit 53, a camera signal processing unit 54, a display image generation unit 55, an area identification unit 56, and an image reconstruction processing unit 57. It includes a bus 60, a display unit 61, a storage unit 62, a communication unit 64, a file conversion unit 65, a control unit 81, a storage unit 82, and an optical system control unit 84.
  • Multiview optical system 30 is composed of the above-mentioned single-eye optical system 31 (e.g. ommatidium optical system 31 0 to ommatidium optical system 31 4).
  • Each individual eye optical system 31 of the multi-eye optical system 30 collects light rays from the subject on the image sensor 51 of the camera 10. It is assumed that the specifications of the individual eye optical systems 31 are the same as each other.
  • the individual eye optical system 31 includes, for example, a plurality of lenses arranged in the optical axis direction of the lens barrel optical axis, and light incident on the image sensor 51 through the plurality of lenses by controlling the degree of opening of the shield. It has an optical system element such as an aperture, which is a mechanism for adjusting the amount (F value) of the lens.
  • the individual eye optical system 31 may be able to control the zoom magnification by controlling the position of the lens.
  • the image sensor 51 is, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, which images a subject and generates an captured image.
  • the light receiving surface of the image sensor 51 light rays are condensed is irradiated by the respective ommatidium optical system 31 0 to 31 4.
  • An image corresponding to a region in which the irradiation light emitted to the image sensor 51 via one individual eye optical system 31 in the captured image is input is also referred to as an individual eye image. That is, the image sensor 51 receives the light rays (irradiation light) and performs photoelectric conversion to generate an captured image including an individual eye image with each individual eye optical system 31 as a viewpoint.
  • each optical axis of each individual eye optical system 31 corresponds to a position different from that of the image sensor 51. Therefore, in the captured image (or captured image) generated by the image sensor 51, at least a part of each individual eye image is generated at a different position from each other (all individual eye images are generated at completely the same position). Absent). In addition, the individual eye image has a portion around which is not effective as an image. In addition, a captured image including all individual eye images (that is, the entire captured image generated by the image sensor 51, or a part of a region outside the captured image from all the captured images. Or an image in which all are deleted) is also referred to as an entire image.
  • the image sensor 51 may be a monochromatic (so-called monochrome) image sensor, or may be a color image sensor in which, for example, a Bayer array color filter is arranged in a pixel group. That is, the captured image output by the image sensor 51 may be a monochrome image or a color image. In the following, the image sensor 51 will be described as a color image sensor that generates and outputs a captured image in a RAW format.
  • the RAW format means an image in which the positional relationship of the arrangement of the color filters of the image sensor 51 is maintained, and the image size conversion process for the image output from the image sensor 51 is performed. It is also possible to include an image that has undergone signal processing such as noise reduction processing, defect correction processing of the image sensor 51, and compression coding. In addition, the captured image in RAW format does not include a monochrome image.
  • the image sensor 51 can output a RAW format captured image (whole image) generated by photoelectric conversion of the irradiation light.
  • the image sensor 51 supplies the captured image (whole image) in the RAW format to at least one of the bus 60, the RAW signal processing unit 52, the area extraction unit 53, and the area identification unit 56. be able to.
  • the image sensor 51 can supply the captured image (whole image) in the RAW format to the storage unit 62 via the bus 60 and store it in the storage medium 63. Further, the image sensor 51 can supply the captured image (whole image) in the RAW format to the communication unit 64 via the bus 60 and transmit it to the outside of the camera 10. Further, the image sensor 51 can supply the captured image (whole image) in the RAW format to the file forming unit 65 via the bus 60 and make it into a file. Further, the image sensor 51 can supply the captured image (whole image) in the RAW format to the image reconstruction processing unit 57 via the bus 60 to perform the image reconstruction processing.
  • the image sensor 51 may be a single plate type image sensor, or may be a set of image sensors (also referred to as a plurality of plate type image sensor) composed of a plurality of image sensors such as a three-plate type image sensor. Good.
  • the three-plate image sensor has three image sensors (image sensor 51-1 to image sensor 51-3) for each of RGB (Red, Green, Blue) as shown in FIG. There is.
  • the light rays from the subject are separated for each wavelength range by using an optical system (optical path separation unit) such as a prism, and are incident on each image sensor.
  • Each of the image sensor 51-1 to the image sensor 51-3 photoelectrically converts the incident light. That is, the image sensor 51-1 to the image sensor 51-3 photoelectrically convert light in different wavelength ranges from each other at substantially the same timing.
  • each image sensor obtains images captured at substantially the same time and at substantially the same angle of view (that is, images having substantially the same pattern only in different wavelength ranges). Be done. Therefore, the positions and sizes of the viewpoint image regions (described later) in the captured images obtained by each image sensor are substantially the same as each other.
  • the combination of the R image, the G image, and the B image can be regarded as a captured image in the RAW format.
  • each image sensor is not limited to one for each of RGB, and may be all monochrome, or all may be equipped with a color filter such as a Bayer array.
  • a color filter such as a Bayer array
  • noise reduction can be performed by making all arrays the same and matching the positional relationship of the pixels with each other, and the positional relationship of each RGB image sensor. It is also possible to improve the image quality by using the effect of the spatial pixel shift.
  • a plurality of individual eye images and a plurality of viewpoint images are included in each image sensor, that is, the captured image output from one image sensor.
  • the RAW signal processing unit 52 performs processing related to signal processing for an image in RAW format.
  • the RAW signal processing unit 52 can acquire a RAW format captured image (whole image) supplied from the image sensor 51.
  • the RAW signal processing unit 52 can perform predetermined signal processing on the acquired captured image.
  • the content of this signal processing is arbitrary. For example, it may be defect correction, noise reduction, compression (encoding), or the like, or it may be signal processing other than these.
  • the RAW signal processing unit 52 can also perform a plurality of signal processing on the captured image.
  • the image after the signal processing is an image in which the positional relationship of the arrangement of the color filters of the image sensor 51 is maintained as described above (in the case of a multi-plate image pickup device). Is limited to images that are in the state of R image, G image, and B image).
  • the RAW signal processing unit 52 supplies a signal-processed RAW format image (RAW') or a compressed (encoded) image (compressed RAW) to the storage unit 62 via the bus 60, and supplies the storage medium. It can be stored in 63. Further, the RAW signal processing unit 52 supplies a signal-processed RAW format image (RAW') or a compressed (encoded) image (compressed RAW) to the communication unit 64 via the bus 60. Can be sent. Further, the RAW signal processing unit 52 supplies a signal-processed RAW format image (RAW') or a compressed (encoded) image (compressed RAW) to the file file 65 via the bus 60. , Can be made into a file.
  • RAW' signal-processed RAW format image
  • compressed RAW compressed (encoded)
  • the RAW signal processing unit 52 transmits a signal-processed RAW format image (RAW') or a compressed (encoded) image (compressed RAW) to the image reconstruction processing unit 57 via the bus 60. It can be supplied and image reconstruction processing can be performed. When it is not necessary to distinguish between these RAW, RAW', and compressed RAW (all of FIG. 3), they are referred to as RAW images.
  • RAW images When it is not necessary to distinguish between these RAW, RAW', and compressed RAW (all of FIG. 3), they are referred to as RAW images.
  • the area extraction unit 53 performs processing related to extraction of a part of the area (cutting out a partial image) from the captured image in the RAW format.
  • the region extraction unit 53 can acquire a RAW format captured image (whole image) supplied from the image sensor 51. Further, the region extraction unit 53 can acquire information (also referred to as extraction region information) indicating a region to be extracted from the captured image, which is supplied from the region identification unit 56. Then, the region extraction unit 53 can extract a part of the region (cut out a partial image) from the captured image based on the extraction region information.
  • the region extraction unit 53 can cut out an image with each individual eye optical system 31 as a viewpoint from the captured image (overall image). That is, the region extraction unit 53 can cut out an effective portion from the region of each individual eye image included in the captured image as an image with each individual eye optical system 31 as a viewpoint.
  • the image of the effective portion (a part of the individual eye image) cut out is also referred to as a viewpoint image.
  • the region to be cut out (the region corresponding to the viewpoint image) in the captured image is also referred to as a viewpoint image region.
  • the area extraction unit 53 acquires the viewpoint-related information supplied from the area identification unit 56, which is information used for specifying the viewpoint image area, as the extraction area information, and obtains the viewpoint-related information from the captured image.
  • Each viewpoint image area shown in (1) can be extracted (each viewpoint image is cut out). Then, the area extraction unit 53 can supply each of the cut-out viewpoint images (RAW format) to the camera signal processing unit 54.
  • the region extraction unit 53 can synthesize each viewpoint image cut out from the captured image (whole image) to generate a composite image.
  • the composite image is one in which each viewpoint image is combined into one data or one image.
  • the region extraction unit 53 can generate one image (composite image) in which each viewpoint image is arranged in a plane.
  • the region extraction unit 53 can supply the generated composite image (RAW format) to the camera signal processing unit 54.
  • the area extraction unit 53 can supply the entire image to the camera signal processing unit 54.
  • the region extraction unit 53 extracts a part of the region including all the individual eye images from the acquired captured image (that is, cuts out the partial image including all the individual eye images), and the cut out partial image (that is, the partial image including all the individual eye images is cut out). That is, an image in which a part or all of the region outside the individual eye image included in the captured image is deleted) can be supplied to the camera signal processing unit 54 as an entire image in the RAW format.
  • the location (range) of the region to be extracted in this case may be predetermined in the region extraction unit 53, or may be specified by the viewpoint-related information supplied from the region identification unit 56.
  • the region extraction unit 53 supplies the acquired captured image (that is, the entire captured image, not the partial image including all the cut out individual eye images) to the camera signal processing unit 54 as the entire image in the RAW format. You can also do it.
  • the area extraction unit 53 stores the RAW format partial image (whole image, viewpoint image, or composite image) cut out from the captured image as described above via the bus 60, as in the case of the image sensor 51. It can be supplied to the unit 62, the communication unit 64, the file conversion unit 65, the image reconstruction processing unit 57, and the like.
  • the area extraction unit 53 supplies a partial image (whole image, viewpoint image, or composite image) in the RAW format to the RAW signal processing unit 52 to perform predetermined signal processing or compress (encode) the partial image. You can also let them do it.
  • the RAW signal processing unit 52 communicates the signal-processed RAW format image (RAW') or the compressed (encoded) image (compressed RAW) with the storage unit 62 via the bus 60. It can be supplied to the unit 64, the file conversion unit 65, the image reconstruction processing unit 57, and the like.
  • At least one of the captured image (or the whole image), the viewpoint image, and the composite image may be a RAW image.
  • the camera signal processing unit 54 performs processing related to camera signal processing on the image.
  • the camera signal processing unit 54 can acquire an image (whole image, viewpoint image, or composite image) supplied from the area extraction unit 53. Further, the camera signal processing unit 54 can perform camera signal processing (camera process) on the acquired image.
  • the camera signal processing unit 54 separates each RGB color from the image to be processed and generates an R image, a G image, and a B image having the same number of pixels as the image to be processed (color separation processing).
  • the camera signal processing unit 54 can perform processing such as defect correction, noise reduction, AWB (Automatic White Balance), or gamma correction on the image to be processed. Further, the camera signal processing unit 54 can also compress (encode) the image to be processed. Of course, the camera signal processing unit 54 can perform a plurality of camera signal processing on the image to be processed, and can also perform camera signal processing other than the above-described example.
  • the camera signal processing unit 54 acquires an image in RAW format, performs color separation processing and YC conversion on the image, and outputs an image (YC) in YC format.
  • This image may be a whole image, each viewpoint image, or a composite image.
  • the image (YC) in this YC format may or may not be encoded. That is, the data output from the camera signal processing unit 54 may be encoded data or unencoded image data.
  • At least one of the captured image (or the whole image), the viewpoint image, and the composite image may be an image in the YC format (also referred to as a YC image).
  • the image output by the camera signal processing unit 54 is not completely developed, and is related to irreversible image quality adjustment (color adjustment) such as gamma correction and color matrix as an image (YC) in YC format. It may not have been partially or completely processed. In this case, the YC format image (YC) can be returned to the RAW format image with almost no deterioration in the latter stage or during playback.
  • the camera signal processing unit 54 can supply, for example, a YC format image (YC) subjected to camera signal processing to the display unit 61 via the bus 60 and display the image (YC). Further, the camera signal processing unit 54 can supply the YC format image (YC) subjected to the camera signal processing to the storage unit 62 via the bus 60 and store the image (YC) in the storage medium 63. Further, the camera signal processing unit 54 can supply the YC format image (YC) subjected to the camera signal processing to the communication unit 64 via the bus 60 and transmit it to the outside. Further, the camera signal processing unit 54 can supply the YC format image (YC) to which the camera signal processing has been performed to the file conversion unit 65 via the bus 60 to file the image (YC). Further, the camera signal processing unit 54 can supply the YC format image (YC) subjected to the camera signal processing to the image reconstruction processing unit 57 via the bus 60 to perform the image reconstruction processing.
  • YC YC format image
  • YC
  • the camera signal processing unit 54 can supply the YC format image (YC) to the display image generation unit 55.
  • the camera signal processing unit 54 When a RAW format image (whole image, viewpoint image, or partial image) is stored in the storage medium 63, the camera signal processing unit 54 reads the RAW format image from the storage medium 63 and performs signal processing. It may be possible to apply. In this case as well, the camera signal processing unit 54 displays the YC format image (YC) subjected to the camera signal processing via the bus 60 into the display unit 61, the storage unit 62, the communication unit 64, the file conversion unit 65, or the image. It can be supplied to the reconstruction processing unit 57 and the like.
  • YC YC format image
  • the camera signal processing unit 54 performs camera signal processing on the RAW format captured image (whole image) output from the image sensor 51, and the area extraction unit is used from the captured image (whole image) after the camera signal processing. 53 may be made to extract a part of the region.
  • the display image generation unit 55 performs processing related to the generation of the display image displayed on the display unit 61.
  • the display image generation unit 55 can generate a through image.
  • the through image is an image displayed for the user to confirm the image being prepared for shooting at the time of shooting or preparation for shooting (during non-recording). That is, the through image is generated by using the display image (also referred to as the captured image) generated by the image sensor 51.
  • the through image is also referred to as a live view image or an EE (Electronic to Electronic) image.
  • the image is an image before shooting, but when shooting a moving image, a through image corresponding to the image being shot (recorded) as well as being prepared for shooting is displayed.
  • the captured image is an image other than the captured image generated by the image sensor 51. That is, the captured image can be generated at a timing other than the timing at which the captured image is generated. Further, the captured image is an image generated by photoelectric conversion of the light received by the image sensor 51, as in the case of the captured image. However, the usage of the captured image is different from that of the captured image. While the captured image is an image for recording (preservation), the captured image is an image for being displayed as a through image or the like by the display unit 61 (display panel unit 33 or viewfinder unit 34). Further, while the captured image is a still image (may be a moving image), the captured image (through image) is basically displayed as a moving image (an image composed of a plurality of frames). The specifications of the captured image (for example, resolution, aspect ratio, color, etc.) are arbitrary and may be the same as the captured image or may be different from the captured image. For example, the captured image may have a lower resolution than the captured image.
  • the captured image As in the case of the captured image, a part of the captured image may be extracted by the region extraction unit 53, or the camera signal processing may be performed by the camera signal processing unit 54. That is, the captured image can be supplied to the display image generation unit 55 as, for example, a YC format image (whole image, viewpoint image, or composite image) as in the case of the captured image.
  • a YC format image whole image, viewpoint image, or composite image
  • the display image generation unit 55 can acquire the captured image (for example, the entire image, the viewpoint image, or the composite image) supplied from the camera signal processing unit 54. Further, the display image generation unit 55 generates a display image by performing image size (resolution) conversion that converts the acquired captured image into, for example, an image size corresponding to the resolution of the display unit 61. be able to. Further, the display image generation unit 55 can supply the generated display image to the display unit 61 via the bus 60 and display it as a through image.
  • the specifications of the display image are arbitrary and may be the same as the captured image or may be different from the captured image.
  • the display image generation unit 55 can also generate a confirmation image of the captured image.
  • the camera 10 takes an image of the subject using an image sensor 51 or the like and generates an image for recording (preservation).
  • the camera 10 generates a confirmation image (that is, a display image) using the captured image in order to allow the user to confirm the generated captured image (that is, the imaging result), and displays the image for display (that is, a display image). It is displayed on the display panel unit 33 and the viewfinder unit 34).
  • the display image generation unit 55 can generate this confirmation image.
  • the display image generation unit 55 can acquire, for example, an captured image (for example, an entire image, a viewpoint image, or a composite image) supplied from the camera signal processing unit 54.
  • the display image generation unit 55 can generate a display image using the acquired captured image.
  • the display image generation unit 55 can supply the generated display image to the display unit 61 via the bus 60 and display it as a confirmation image.
  • the specifications of the confirmation image are arbitrary as in the case of the above-mentioned display image.
  • the display image generation unit 55 can also generate a display image of a recorded (saved) captured image.
  • the camera 10 can display the captured image read from the storage medium 63 or acquired from another device via the communication unit 64 on the display unit 61.
  • the display image generation unit 55 can generate a display image of the captured image.
  • the display image generation unit 55 is the captured image read from the storage medium 63 by the storage unit 62 or the captured image (for example, the whole image, the viewpoint image) acquired from another device via the communication unit 64. , Or a composite image) can be obtained.
  • the display image generation unit 55 can generate a display image using the acquired captured image.
  • the display image generation unit 55 can supply the generated display image to the display unit 61 via the bus 60 and display the generated image.
  • the specifications of this display image are arbitrary.
  • the display image generation unit 55 acquires the viewpoint-related information (VI or VI') supplied from the area identification unit 56, and uses the acquired viewpoint-related information to generate these display images. Can be done. Further, the display image generation unit 55 can acquire the control information supplied from the control unit 81 and use the control information to generate these display images.
  • the area identification unit 56 performs processing related to identification (setting) of the area extracted from the captured image by the area extraction unit 53. For example, the area identification unit 56 identifies the viewpoint-related information (VI) and supplies the viewpoint image area to the area extraction unit 53.
  • the area identification unit 56 identifies the viewpoint-related information (VI) and supplies the viewpoint image area to the area extraction unit 53.
  • the viewpoint-related information (VI) includes, for example, the viewpoint area information indicating the viewpoint image area in the captured image.
  • the viewpoint area information may represent the viewpoint image area in any way.
  • the viewpoint image area is determined by the coordinates indicating the position corresponding to the optical axis of the individual eye optical system 31 in the captured image (also referred to as the center coordinates of the viewpoint image area) and the resolution (number of pixels) of the viewpoint image (viewpoint image area). May be represented.
  • the viewpoint region information may include the center coordinates of the viewpoint image region in the captured image and the resolution of the viewpoint image region. In this case, the location of the viewpoint image area in the entire image can be specified from the center coordinates of the viewpoint image area and the resolution (number of pixels) of the viewpoint image area.
  • the viewpoint area information is set for each viewpoint image area. That is, when the captured image includes a plurality of viewpoint images, the viewpoint-related information (VI) is the viewpoint identification information (for example, identification number) for identifying the viewpoint image (region) for each viewpoint image (each viewpoint image area). ) And viewpoint area information.
  • the viewpoint-related information is the viewpoint identification information (for example, identification number) for identifying the viewpoint image (region) for each viewpoint image (each viewpoint image area).
  • the viewpoint-related information (VI) may include any other information.
  • the viewpoint-related information (VI) may include the viewpoint time information indicating the time when the captured image from which the viewpoint image is extracted is captured.
  • the viewpoint-related information (VI) may include the viewpoint image inclusion area information indicating the viewpoint image inclusion area including the viewpoint image area, which is a region cut out from the individual eye image.
  • the viewpoint-related information (VI) may include spot light information (SI) which is information about a spot light image formed in a region which is neither a viewpoint image region nor an individual eye image region of the captured image.
  • SI spot light information
  • the area identification unit 56 supplies such viewpoint-related information (VI) to the area extraction unit 53 as information indicating the specified viewpoint image area, so that the area extraction unit 53 can use the viewpoint-related information (VI). Based on this, the viewpoint image area specified by the area specifying unit 56 can be extracted (viewpoint image is cut out).
  • the area identification unit 56 can supply the viewpoint-related information (VI) to the bus 60.
  • the area identification unit 56 can supply the viewpoint-related information (VI) to the storage unit 62 via the bus 60 and store it in the storage medium 63.
  • the area specifying unit 56 can supply the viewpoint-related information (VI) to the communication unit 64 via the bus 60 and transmit it.
  • the area specifying unit 56 can supply the viewpoint-related information (VI) to the file forming unit 65 via the bus 60 and make it into a file.
  • the area specifying unit 56 can supply the viewpoint-related information (VI) to the image reconstruction processing unit 57 via the bus 60 and use it for the image reconstruction processing.
  • the area identification unit 56 may acquire such viewpoint-related information (VI) from the control unit 81 and supply the acquired viewpoint-related information (VI) to the area extraction unit 53 or the bus 60.
  • the control unit 81 reads out the viewpoint-related information (VI) stored in the storage medium 83 via the storage unit 82 and supplies it to the area identification unit 56.
  • the area identification unit 56 supplies the viewpoint-related information (VI) to the area extraction unit 53 and the bus 60.
  • the viewpoint-related information (VI) may include spot light information (SI).
  • the viewpoint-related information (VI) supplied to the storage unit 62, the communication unit 64, or the file conversion unit 65 via the bus 60 in this way is associated with an image (whole image, viewpoint image, or composite image) there. ..
  • the storage unit 62 can associate the supplied viewpoint-related information (VI) with an image (whole image, viewpoint image, or composite image) and store it in the storage medium 63.
  • the communication unit 64 can associate the supplied viewpoint-related information (VI) with an image (whole image, viewpoint image, or composite image) and transmit it to the outside.
  • the file forming unit 65 can associate the supplied viewpoint-related information (VI) with an image (whole image, viewpoint image, or composite image) and generate one file including them.
  • the area specifying unit 56 acquires a RAW format captured image supplied from the image sensor 51, generates viewpoint-related information (VI') based on the captured image, and generates the viewpoint-related information (VI'). ) May be supplied to the region extraction unit 53 or the bus 60.
  • the area specifying unit 56 identifies each viewpoint image area from the captured image and indicates the viewpoint image area (for example, the viewpoint image area is determined by the center coordinates of the viewpoint image area in the captured image, the resolution of the viewpoint image area, and the like. (Show) Generate viewpoint-related information (VI'). Then, the area identification unit 56 supplies the generated viewpoint-related information (VI') to the area extraction unit 53 and the bus 60.
  • the viewpoint-related information (VI') may include spot light information (SI') generated by the region identification unit 56 based on the captured image.
  • the area identification unit 56 acquires the viewpoint-related information (VI) from the control unit 81, acquires the captured image in the RAW format supplied from the image sensor 51, and based on the captured image, the spot light information (SI'. ), The spot light information (SI') may be added to the viewpoint-related information (VI), and the spot light information (SI') may be supplied to the region extraction unit 53 or the bus 60.
  • the control unit 81 reads out the viewpoint-related information (VI) stored in the storage medium 83 via the storage unit 82 and supplies it to the area identification unit 56.
  • the area specifying unit 56 adds spot light information (SI') to the viewpoint-related information (VI) to generate viewpoint-related information (VI').
  • the area identification unit 56 supplies the viewpoint-related information (VI') to the area extraction unit 53 and the bus 60.
  • the area specifying unit 56 acquires the viewpoint-related information (VI) from the control unit 81, acquires the captured image in the RAW format supplied from the image sensor 51, and based on the captured image, the spot light information (SI'. ) Is generated, the viewpoint-related information (VI) is corrected using the spot light information (SI'), and the corrected viewpoint-related information (VI') may be supplied to the region extraction unit 53 or the bus 60. ..
  • the control unit 81 reads out the viewpoint-related information (VI) stored in the storage medium 83 via the storage unit 82 and supplies it to the area identification unit 56.
  • the area specifying unit 56 corrects the viewpoint-related information (VI) using the spot light information (SI'), and generates the viewpoint-related information (VI').
  • the area identification unit 56 supplies the viewpoint-related information (VI') to the area extraction unit 53 and the bus 60.
  • the area identification unit 56 can also supply the viewpoint-related information (VI or VI') to the display image generation unit 55.
  • the image reconstruction processing unit 57 performs processing related to image reconstruction.
  • the image reconstruction processing unit 57 can acquire a YC format image (whole image, viewpoint image, or composite image) from the camera signal processing unit 54 or the storage unit 62 via the bus 60. Further, the image reconstruction processing unit 57 can acquire viewpoint-related information from the area identification unit 56 and the storage unit 62 via the bus 60.
  • the image reconstruction processing unit 57 uses the acquired image and the viewpoint-related information associated with the acquired image to generate, for example, depth information or an image focused on an arbitrary subject ( Image processing such as refocusing can be performed. For example, when the viewpoint image is the processing target, the image reconstruction processing unit 57 performs processing such as generation of depth information and refocusing using each viewpoint image. When a captured image or a composite image is to be processed, the image reconstruction processing unit 57 extracts each viewpoint image from the captured image or the composite image, and generates or refocuses depth information using the extracted viewpoint image. Etc. are performed.
  • the image reconstruction processing unit 57 can supply the generated depth information and the refocused image as a processing result to the storage unit 62 via the bus 60 and store the generated depth information and the refocused image in the storage medium 63 externally. Further, the image reconstruction processing unit 57 can supply the generated depth information and the refocused image as the processing result to the communication unit 64 via the bus 60 and transmit the processed image. Further, the image reconstruction processing unit 57 can supply the generated depth information and the refocused image as a processing result to the file conversion unit 65 via the bus 60 to create a file.
  • the bus 60 includes an image sensor 51, a RAW signal processing unit 52, an area extraction unit 53, a camera signal processing unit 54, a display image generation unit 55, an area identification unit 56, an image reconstruction processing unit 57, a display unit 61, and a storage unit.
  • the unit 62, the communication unit 64, and the file conversion unit 65 are connected.
  • the bus 60 functions as a transmission medium (transmission line) for various data exchanged between these blocks.
  • the bus 60 may be realized by wire or by wireless communication.
  • the display unit 61 includes, for example, a display panel unit 33 and a viewfinder unit 34.
  • the display unit 61 performs processing related to displaying an image.
  • the display unit 61 acquires a display image of a captured image, which is a YC format supplied from the display image generation unit 55, converts it into an RGB format, and displays the display panel unit 33 and the viewfinder unit as a through image. It can be displayed on 34.
  • the display unit 61 can also display information such as menus and settings of the camera 10.
  • the display unit 61 can acquire a confirmation image of the captured image supplied from the display image generation unit 55 and display it on the display panel unit 33 or the viewfinder unit 34. Further, the display unit 61 can acquire a display image of the recorded (saved) captured image supplied from the display image generation unit 55 and display it on the display panel unit 33 or the viewfinder unit 34. .. The display unit 61 may be able to display a thumbnail image of the captured image.
  • the storage unit 62 controls the storage of the storage medium 63 made of, for example, a semiconductor memory or the like.
  • the storage medium 63 may be a removable storage medium or a storage medium built in the camera 10.
  • the storage unit 62 can store an image (captured image, viewpoint image, or composite image) supplied via the bus 60 in the storage medium 63 according to the operation of the control unit 81 or the user.
  • the storage unit 62 can acquire a RAW format image (whole image, viewpoint image, or composite image) supplied from the image sensor 51 or the area extraction unit 53 and store it in the storage medium 63. Further, the storage unit 62 may acquire a signal-processed RAW format image (whole image, viewpoint image, or composite image) supplied from the RAW signal processing unit 52 and store it in the storage medium 63. it can. Further, the storage unit 62 can acquire a compressed (encoded) RAW format image (whole image, viewpoint image, or composite image) supplied from the RAW signal processing unit 52 and store it in the storage medium 63. .. Further, the storage unit 62 can acquire a YC format image (whole image, viewpoint image, or composite image) supplied from the camera signal processing unit 54 and store it in the storage medium 63.
  • a RAW format image whole image, viewpoint image, or composite image supplied from the image sensor 51 or the area extraction unit 53 and store it in the storage medium 63.
  • the storage unit 62 may acquire a signal-
  • the image (whole image, viewpoint image, or composite image) and the viewpoint-related information can be associated with each other and stored in the storage medium 63.
  • the storage unit 62 can acquire the viewpoint-related information supplied from the area identification unit 56, associate it with the above-mentioned image (whole image, viewpoint image, or composite image), and store it in the storage medium 63. That is, the storage unit 62, that is, the storage unit 62 functions as an association unit that associates at least one of the entire image, the viewpoint image, and the composite image with the viewpoint-related information.
  • the storage unit 62 can acquire the depth information and the refocused image supplied from the image reconstruction processing unit 57 and store them in the storage medium 63. Further, the storage unit 62 can acquire the file supplied from the file conversion unit 65 and store it in the storage medium 63.
  • This file contains images (whole image, viewpoint image, or composite image) and viewpoint related information. That is, in this file, the image (whole image, viewpoint image, or composite image) and viewpoint-related information are associated with each other.
  • the storage unit 62 can read data, files, and the like stored in the storage medium 63 in response to operations of the control unit 81 and the user.
  • the storage unit 62 can read a YC format captured image (whole image, viewpoint image, or composite image) from the storage medium 63, supply it to the display image generation unit 55, and generate the display image. .. Further, the storage unit 62 can read an image in RAW format (whole image, viewpoint image, or composite image) from the storage medium 63 and supply it to the camera signal processing unit 54 to perform camera signal processing.
  • a YC format captured image whole image, viewpoint image, or composite image
  • RAW format whole image, viewpoint image, or composite image
  • the storage unit 62 can read out the viewpoint-related information associated with the image as well as the image (whole image, viewpoint image, or composite image). For example, the storage unit 62 reads out data of images (whole image, viewpoint image, or composite image) and viewpoint-related information associated with each other from the storage medium 63, supplies them to the image reconstruction processing unit 57, and has a depth. It is possible to perform processing such as information generation and refocusing. Further, the storage unit 62 reads a file including an image (whole image, viewpoint image, or composite image) and viewpoint-related information associated with each other from the storage medium 63, and supplies the file to the image reconstruction processing unit 57. , Depth information can be generated and processing such as refocusing can be performed.
  • the storage unit 62 reads data or files of images (whole image, viewpoint image, or composite image) and viewpoint-related information associated with each other from the storage medium 63, supplies them to the communication unit 64, and causes the communication unit 64 to transmit the data or files. be able to. Further, the storage unit 62 reads data of images (whole image, viewpoint image, or composite image) and viewpoint-related information associated with each other from the storage medium 63, supplies them to the file conversion unit 65, and files them. be able to.
  • the storage medium 63 may be a ROM (Read Only Memory) or a rewritable memory such as a RAM (Random Access Memory) or a flash memory. In the case of a rewritable memory, the storage medium 63 can store arbitrary information.
  • the communication unit 64 communicates with a server on the Internet, a PC on a wired or wireless LAN, another external device, or the like by an arbitrary communication method.
  • the communication unit 64 uploads data or files such as images (captured images, viewpoint images, or composite images) and viewpoint-related information by streaming method or uploading by the communication in response to the control of the control unit 81 or the operation of the user. It can be transmitted to a communication partner (external device) depending on the method or the like.
  • the communication unit 64 can acquire and transmit a RAW format image (captured image, viewpoint image, or composite image) supplied from the image sensor 51 or the area extraction unit 53. Further, the communication unit 64 uses a signal-processed RAW format image (captured image, viewpoint image, or composite image) supplied from the RAW signal processing unit 52 or a compressed (encoded) image (captured image, viewpoint image). , Or a composite image) can be acquired and transmitted. Further, the communication unit 64 can acquire and transmit a YC format image (captured image, viewpoint image, or composite image) supplied from the camera signal processing unit 54.
  • a YC format image capturedd image, viewpoint image, or composite image
  • the communication unit 64 can acquire the viewpoint-related information supplied from the area identification unit 56 and associate it with the above-mentioned image (overall image, viewpoint image, or composite image). That is, the communication unit 64 can transmit the image (whole image, viewpoint image, or composite image) and the viewpoint-related information in association with each other. For example, when transmitting an image by a streaming method, the communication unit 64 acquires an image to be transmitted (whole image, viewpoint image, or composite image) from a processing unit that supplies the image, and the area specifying unit 56 is attached to the image. The process of associating and transmitting the viewpoint-related information supplied from is repeated. That is, the communication unit 64 functions as an association unit that associates at least one of the entire image, the viewpoint image, and the composite image with the viewpoint-related information.
  • the communication unit 64 can acquire and transmit the depth information and the refocused image supplied from the image reconstruction processing unit 57. Further, the communication unit 64 can acquire and transmit the file supplied from the file conversion unit 65.
  • This file contains, for example, an image (whole image, viewpoint image, or composite image) and viewpoint related information. That is, in this file, the image (whole image, viewpoint image, or composite image) and viewpoint-related information are associated with each other.
  • the communication unit 64 can also acquire data and files of images (whole image, viewpoint image, or composite image) and viewpoint-related information from an external device (communication partner) of the camera 10.
  • the file conversion unit 65 performs processing related to file generation.
  • the file creation unit 65 can acquire a RAW format image (whole image, viewpoint image, or composite image) supplied from the image sensor 51 or the area extraction unit 53.
  • the file forming unit 65 is a signal-processed RAW format image (whole image, viewpoint image, or composite image) supplied from the RAW signal processing unit 52 or a compressed (encoded) RAW format image (whole).
  • An image, a viewpoint image, or a composite image) can be acquired.
  • the file conversion unit 65 can acquire a YC format image (whole image, viewpoint image, or composite image) supplied from the camera signal processing unit 54.
  • the file forming unit 65 can acquire the viewpoint-related information supplied from the area specifying unit 56.
  • the file conversion unit 65 can associate the plurality of data with each other by converting the acquired plurality of data into a file and generating one file containing the plurality of data.
  • the file creation unit 65 can associate them with each other by generating one file from the above-mentioned images (whole image, viewpoint image, or composite image) and viewpoint-related information. That is, the file conversion unit 65 functions as an association unit that associates at least one of the entire image, the viewpoint image, and the composite image with the viewpoint-related information.
  • the file conversion unit 65 can acquire the depth information and the refocused image supplied from the image reconstruction processing unit 57 and create a file. Further, the file forming unit 65 can generate one file from the images (whole image, viewpoint image, or composite image) and the viewpoint related information supplied from the storage unit 62.
  • the file conversion unit 65 can generate a thumbnail image of the image to be filed (for example, a viewpoint image) and include it in the generated file. That is, the file conversion unit 65 can associate this thumbnail image with an image (whole image, viewpoint image, or composite image) or viewpoint-related information by creating a file.
  • the file conversion unit 65 can supply the generated files (images and viewpoint-related information associated with each other) to the storage unit 62 via, for example, the bus 60, and store the generated files in the storage medium 63.
  • the file conversion unit 65 can supply the generated files (images and viewpoint-related information associated with each other) to the communication unit 64 via, for example, the bus 60 and have them transmit the files.
  • association unit 70 associates an image (whole image, viewpoint image, or composite image) with viewpoint-related information.
  • the storage unit 62 can store at least one of the whole image, the viewpoint image, and the composite image in the storage medium 63 in association with the viewpoint-related information.
  • the communication unit 64 can transmit at least one of the whole image, the viewpoint image, and the composite image in association with the viewpoint-related information.
  • the file forming unit 65 can associate them by generating one file from at least one of the whole image, the viewpoint image, and the composite image and the viewpoint-related information.
  • the control unit 81 performs control processing related to the camera 10. That is, the control unit 81 can control each unit of the camera 10 and execute the process. For example, the control unit 81 can control the multi-eye optical system 30 (each individual eye optical system 31) via the optical system control unit 84 to set the optical system related to imaging such as the aperture and the focus position. Further, the control unit 81 can control the image sensor 51 and cause the image sensor 51 to perform imaging (photoelectric conversion) to generate an captured image.
  • control unit 81 can supply the viewpoint-related information (VI) to the region identification unit 56 to specify the region to be extracted from the captured image.
  • the viewpoint-related information (VI) may include spot light information (SI).
  • control unit 81 may read out the viewpoint-related information (VI) stored in the storage medium 83 via the storage unit 82 and supply it to the area identification unit 56.
  • control unit 81 may supply control information regarding the generation of the display image to the display image generation unit 55.
  • the control unit 81 receives a user's operation via an input device such as a dial 35 or a button 36, generates control information according to the received operation, and supplies the control information to the display image generation unit 55. May be good.
  • the control unit 81 may acquire the control information read from the storage medium 83 by the storage unit 82 and supply it to the display image generation unit 55.
  • the control unit 81 acquires the control information read from the storage medium 83 by the storage unit 82, accepts the user's operation via an input device such as a dial 35 or a button 36, and receives the control information according to the accepted operation. May be updated and supplied to the display image generation unit 55.
  • control unit 81 can acquire an image via the bus 60 and control the aperture via the optical system control unit 84 based on the brightness of the image. Further, the control unit 81 can control the focus via the optical system control unit 84 based on the sharpness of the image. Further, the control unit 81 can control the camera signal processing unit 54 based on the RGB ratio of the image to control the white balance gain.
  • the storage unit 82 controls the storage of the storage medium 83 made of, for example, a semiconductor memory or the like.
  • the storage medium 83 may be a removable storage medium or a built-in memory.
  • viewpoint-related information (VI) is stored in the storage medium 83.
  • This viewpoint-related information (VI) is information corresponding to the multi-eye optical system 30 (each individual eye optical system 31) and the image sensor 51. That is, the viewpoint-related information (VI) is information about a viewpoint image with each individual eye optical system 31 of the multi-eye optical system 30 as a viewpoint, and is information used to specify the viewpoint image region.
  • this viewpoint-related information (VI) may include spot light information (SI).
  • the storage unit 82 can read out the viewpoint-related information (VI) stored in the storage medium 83 and supply it to the control unit 81 in response to a request from the control unit 81, a user operation, or the like.
  • VI viewpoint-related information
  • the storage medium 83 may be a ROM or a rewritable memory such as RAM or flash memory. In the case of a rewritable memory, the storage medium 83 can store arbitrary information.
  • the storage medium 83 stores the control information related to the generation of the display image, and the storage unit 82 reads the control information in response to a request from the control unit 81, a user operation, or the like, and supplies the control information to the control unit 81. You may.
  • the storage unit 82 and the storage medium 83 may be replaced by the storage unit 62 and the storage medium 63. That is, the information (viewpoint-related information (VI), etc.) to be stored in the storage medium 83 described above may be stored in the storage medium 63. In that case, the storage unit 82 and the storage medium 83 may be omitted.
  • the optical system control unit 84 controls the multi-eye optical system 30 (each individual eye optical system 31) according to the control of the control unit 81.
  • the optical system control unit 84 can control the lens group and aperture of each individual eye optical system 31 and control the focal length and / or F value of each individual eye optical system 31.
  • the optical system control unit 84 can control the focus (focal length) of the multi-eye optical system 30 (of each individual eye optical system 31).
  • the optical system control unit 84 may be able to control the aperture (F value) of each individual eye optical system 31.
  • the camera 10 is provided with a mechanism (physical configuration) for adjusting the focal length by manually operating the focus ring provided on the lens barrel. May be good. In that case, the optical system control unit 84 can be omitted.
  • the camera 10 can extract a viewpoint image with each individual eye optical system 31 as a viewpoint from the captured image. Since the plurality of viewpoint images extracted from one captured image are images of different viewpoints, these viewpoint images are used, for example, to estimate the depth by multi-eye matching and to correct for suppressing the mounting error of the multi-eye lens. Etc. can be performed. However, in order to perform these processes, information such as the relative position between the viewpoint images is required.
  • the camera 10 associates the output overall image, viewpoint image, or composite image with viewpoint-related information, which is information used to specify a plurality of viewpoint image regions in the captured image.
  • the term "associate" means, for example, to make the other data available (linkable) when processing one data. That is, the form of the captured image and the viewpoint-related information as data (file) is arbitrary. For example, the captured image and the viewpoint-related information may be combined as one data (file), or may be individual data (file). For example, the viewpoint-related information associated with the captured image may be transmitted on a transmission path different from that of the captured image. Further, for example, the viewpoint-related information associated with the captured image may be recorded on a recording medium (or another recording area of the same recording medium) different from the captured image. Of course, the captured image and the viewpoint-related information may be combined into one stream data or one file.
  • the image associated with the viewpoint-related information may be a still image or a moving image.
  • a moving image it is possible to extract a region, associate viewpoint-related information, and the like in each frame image in the same manner as in the case of a still image.
  • this "association" may be a part of the data (file) instead of the entire data.
  • the viewpoint-related information may be associated with an arbitrary unit of the captured image, such as a plurality of frames, one frame, or a part within the frame. ..
  • the captured image and the viewpoint-related information can be related to each other by assigning the same identification number to both the captured image and the viewpoint-related information. Further, when the captured image and the viewpoint-related information are combined into one file, the viewpoint-related information may be added to the header of the captured image, for example.
  • the target to which the viewpoint-related information is associated may be a captured image (whole image), a viewpoint image, or a composite image of the viewpoint image.
  • the whole image 130 includes an individual eye image corresponding to each individual eye optical system 31 (an image obtained by photoelectrically converting light from a subject incident through each individual eye optical system 31). ..
  • an ommatidium image center of the image of the entire image 130 corresponds to the ommatidium optical system 31 0.
  • the image on the upper right of the whole image 130 is an individual eye image corresponding to the individual eye optical system 31 1.
  • it is ommatidium images image in the upper left of the entire image 130 corresponds to the ommatidium optical system 31 2.
  • ommatidium image lower left image of the entire image 130 corresponds to the ommatidium optical system 31 3. Furthermore, it is ommatidium images image in the lower right of the entire image 130 corresponds to the ommatidium optical system 31 4.
  • the entire image 130 may be the entire captured image generated by the image sensor 51, or may be a partial image (however, including all individual eye images) cut out from the captured image. .. Further, the whole image 130 may be an image in RAW format or an image in YC format.
  • a part (effective part) of each individual eye image is designated as the viewpoint image area with respect to the entire image 130.
  • the viewpoint image area For example, in the case of FIG. 5, the area surrounded by the dotted line frame of the entire image 130 is the viewpoint image area. That is, some of the ommatidium images corresponding to the ommatidium optical system 31 0 (effective portion) is designated as the viewpoint image region 131 0.
  • a part (effective part) of the individual eye image corresponding to the individual eye optical system 31 1 is designated as the viewpoint image area 131 1.
  • some of the ommatidium images corresponding to the ommatidium optical system 31 2 (effective portion) is designated as the viewpoint image area 131 2.
  • some of the ommatidium images corresponding to the ommatidium optical system 31 3 (effective portion) is designated as the viewpoint image region 131 3.
  • some of the ommatidium images corresponding to the ommatidium optical system 31 4 (effective portion) is designated as the viewpoint image area 131 4.
  • a viewpoint image area 131 when there is no need to distinguish the viewpoint image region 131 0 to view image area 131 4 together, referred to as a viewpoint image area 131.
  • the association unit 70 When outputting such an overall image 130, acquires the entire image 130 from the image sensor 51, the RAW signal processing unit 52, or the camera signal processing unit 54, and supplies the entire image 130 from the area specifying unit 56.
  • the viewpoint-related information corresponding to the multi-eye optical system 30 is associated with the entire image 130.
  • the association unit 70 outputs the entire image and the viewpoint-related information associated with each other.
  • the storage unit 62 may store the entire image and the viewpoint-related information associated with each other in the storage medium 63.
  • the communication unit 64 may transmit the whole image and the viewpoint-related information associated with each other.
  • the file conversion unit 65 may file the entire image and the viewpoint-related information associated with each other.
  • the association between the entire image and the viewpoint-related information may be performed by the area extraction unit 53. That is, the area extraction unit 53 associates the viewpoint-related information supplied from the area identification unit 56 with the output overall image, and the bus 60, the RAW signal processing unit 52, or the viewpoint-related information associates the entire image and the viewpoint-related information associated with each other. It may be supplied to the camera signal processing unit 54.
  • the viewpoint-related information in this case includes the viewpoint area information indicating a plurality of viewpoint image areas in the captured image.
  • the viewpoint area information may represent the viewpoint image area in any way.
  • the viewpoint image area is represented by the coordinates (center coordinates of the viewpoint image area) indicating the position corresponding to the optical axis of the individual eye optical system 31 in the captured image and the resolution (number of pixels) of the viewpoint image (viewpoint image area). It may be done.
  • the viewpoint region information may include the center coordinates of the viewpoint image region in the captured image and the resolution of the viewpoint image region.
  • the location of the viewpoint image area in the entire image 130 can be specified from the center coordinates of the viewpoint image area and the resolution (number of pixels) of the viewpoint image area.
  • viewpoint-related information By associating such viewpoint-related information with the captured image, it is used for post-stage processing such as depth estimation by multi-eye matching and processing for suppressing errors that occur when the multi-eye optical system 30 is attached (installed).
  • This viewpoint-related information can be used in extracting the viewpoint image as preprocessing.
  • the image reconstruction processing unit 57 extracts each viewpoint image based on the viewpoint region information included in the viewpoint-related information, and then performs depth estimation by multi-eye matching, refocus processing, and multi-eye optical system 30.
  • Post-stage processing such as processing for suppressing errors that occur during installation can be performed.
  • the image reconstruction processing unit 57 may be able to specify the viewpoint image area included in the overall image 130 by image processing. , It may be difficult to accurately specify the viewpoint image area in the captured image depending on the imaging conditions and the like. Therefore, by associating the viewpoint-related information with the entire image 130 as described above, the image reconstruction processing unit 57 more easily and more accurately obtains the viewpoint image region from the above-mentioned overall image 130 based on the viewpoint-related information. Can be extracted.
  • FIG. 6 is a diagram showing an example of a cut-out viewpoint image.
  • the viewpoint image 132 0 is an image obtained by extracting the viewpoint image area 131 0 from the entire image 130 (FIG. 5).
  • the viewpoint image 132 1 is an image obtained by extracting the viewpoint image area 131 1 from the entire image 130.
  • the viewpoint image 132 2 is an image obtained by extracting the viewpoint image area 131 2 from the entire image 130.
  • the viewpoint image 132 3 is an image obtained by extracting the viewpoint image area 131 3 from the entire image 130.
  • the viewpoint image 132 4 is an image obtained by extracting the viewpoint image area 131 4 from the entire image 130.
  • the viewpoint image 132 is referred to as the viewpoint image 132.
  • the area extraction unit 53 When outputting such a viewpoint image, the area extraction unit 53 outputs each viewpoint image 132 cut out as in the example of FIG. 6 as independent data (or file).
  • the area extraction unit 53 cuts out a viewpoint image from the captured image (overall image) according to the viewpoint-related information supplied from the area identification unit 56.
  • the area extraction unit 53 assigns viewpoint identification information (for example, an identification number) for identifying each viewpoint to each of the cut-out viewpoint images.
  • the area extraction unit 53 supplies each viewpoint image to which the viewpoint identification information is assigned to the camera signal processing unit 54.
  • the camera signal processing unit 54 performs camera signal processing on each viewpoint image in the RAW format to generate each viewpoint image in the YC format.
  • the camera signal processing unit 54 supplies each viewpoint image in the YC format to the association unit 70.
  • the area identification unit 56 supplies the viewpoint-related information supplied to the area extraction unit 53 to the association unit 70.
  • the association unit 70 associates each viewpoint image with viewpoint-related information corresponding to the viewpoint image.
  • the viewpoint-related information may include viewpoint identification information (for example, a viewpoint identification number) for identifying each viewpoint. Based on this viewpoint identification information, the association unit 70 associates each viewpoint image with viewpoint-related information corresponding to the viewpoint image.
  • viewpoint identification information for example, a viewpoint identification number
  • the association unit 70 can easily grasp which viewpoint-related information corresponds to which viewpoint image. That is, the associating unit 70 can more easily and correctly associate each viewpoint image and the viewpoint-related information by using this viewpoint identification information.
  • the association unit 70 outputs each viewpoint image and viewpoint-related information associated with each other.
  • the storage unit 62 may store each viewpoint image and viewpoint-related information associated with each other in the storage medium 63.
  • the communication unit 64 may transmit each viewpoint image and viewpoint-related information associated with each other.
  • the file-forming unit 65 may file each viewpoint image and viewpoint-related information associated with each other.
  • each viewpoint image and the viewpoint-related information may be performed by the area extraction unit 53. That is, the area extraction unit 53 associates the viewpoint-related information supplied from the area identification unit 56 with each output viewpoint image, and the viewpoint images and viewpoint-related information associated with each other are associated with the bus 60 and the RAW signal processing unit 52. , Or may be supplied to the camera signal processing unit 54.
  • the viewpoint-related information may include the viewpoint time information indicating the time and order in which the captured images from which the viewpoint images are extracted are captured.
  • viewpoint time information indicating the generation time and order of the captured images
  • each viewpoint image at the same time can be specified.
  • the individual eye image may be cut out from the captured image and processed or recorded.
  • FIG. 7 is a diagram showing an example of a composite image obtained by synthesizing each viewpoint image.
  • one composite image 133 is generated by synthesizing the viewpoint image 132 0 to the viewpoint image 132 4 extracted in the example of FIG. 6 so as to be displayed side by side in one image.
  • each viewpoint image 132 is combined into one data (one frame) or one file.
  • the composite image 133 may have the margin region, has It does not have to be. Further, the shape of the composite image 133 may be rectangular, and the arrangement method (arrangement method) of each viewpoint image 132 is arbitrary. As in the example of FIG. 7, the blank area (the area corresponding to the sixth viewpoint image 132) generated when the five viewpoint images 132 are arranged in 2 rows and 3 columns is represented by null data or a fixed value. You may.
  • the area extraction unit 53 cuts out a viewpoint image from the captured image (overall image) according to the viewpoint-related information supplied from the area identification unit 56.
  • the area extraction unit 53 generates a composite image by synthesizing the cut-out viewpoint images so that they are displayed side by side in one image. At that time, by predetermining the arrangement order (position) of each viewpoint image, it is possible to easily grasp which viewpoint image each viewpoint image included in the composite image is.
  • the viewpoint identification information (for example, the identification number) may be assigned to each viewpoint image before synthesizing. In this case as well, it is possible to easily grasp which viewpoint image each viewpoint image included in the composite image is. In the following, it is assumed that the order of the viewpoint images in the composite image is predetermined.
  • the area extraction unit 53 supplies the composite image to which the viewpoint identification information is assigned to the camera signal processing unit 54.
  • the camera signal processing unit 54 performs camera signal processing on the RAW format composite image to generate a YC format composite image.
  • the camera signal processing unit 54 supplies the YC format composite image to the association unit 70.
  • the area identification unit 56 supplies the viewpoint-related information supplied to the area extraction unit 53 to the association unit 70.
  • the association unit 70 associates viewpoint-related information with the composite image.
  • the viewpoint of each viewpoint image included in the composite image is clear from the position of the viewpoint image in the composite image. That is, it is possible to easily grasp which viewpoint area information of the viewpoint-related information corresponds to each viewpoint image.
  • the association unit 70 outputs the composite image and the viewpoint-related information associated with each other.
  • the storage unit 62 may store the composite image and the viewpoint-related information associated with each other in the storage medium 63.
  • the communication unit 64 may transmit the composite image and the viewpoint-related information associated with each other.
  • the file-forming unit 65 may file the images and viewpoint-related information associated with each other.
  • the composite image and the viewpoint-related information may be associated with each other in the area extraction unit 53. That is, the area extraction unit 53 associates the viewpoint-related information supplied from the area identification unit 56 with the output composite image, and the composite image and the viewpoint-related information associated with each other are combined with the bus 60, the RAW signal processing unit 52, or the viewpoint-related information. It may be supplied to the camera signal processing unit 54.
  • ⁇ Capture of the subject> For example, suppose that the camera 10 is used to image the subject 141 and the subject 142 as in the example of FIG. As shown in FIG. 8, it is assumed that the subject 141 is located closer (to the front side) than the subject 142 when viewed from the camera 10.
  • the whole image 130 shown in FIG. 9 is an example of the whole image obtained as a captured image or a captured image by the camera 10 in that case. Similar to the case of the example of FIG. 5, the whole image 130 includes an individual eye image corresponding to each individual eye optical system 31 (that is, with each individual eye optical system 31 as a viewpoint).
  • the subject 141 0 and the object 142 0 of the entire image 130 is an image of the image sensor 51 is ommatidium optical system 31 0 subject 141 is generated by photoelectrically converting the received light through and the object 142.
  • the subject 141 0 and the object 142 0 is the image of a number of ocular optical system 31 0 and perspective (corresponding to ommatidium optics 31 0) object 141 and object 142.
  • the subject 141 1 and the subject 142 1 of the overall image 130 are images of the subject 141 and the subject 142 generated by photoelectric conversion of the light received by the image sensor 51 via the individual eye optical system 31 1. That is, the subject 141 1 and the subject 142 1 are images of the subject 141 and the subject 142 with the individual eye optical system 31 1 as the viewpoint (corresponding to the individual eye optical system 31 1).
  • the object 141 2 and the object 142 2 of the entire image 130 is an image of the image sensor 51 is ommatidium optical system 31 object 141 to generate the light received by photoelectric conversion 2 and through the object 142. That is, the object 141 2 and the object 142 2 is an image of a number of ocular optical system 31 2 and the viewpoint (corresponding to ommatidium optical system 31 2) object 141 and object 142. Also, the subject 141 3 and the subject 142 3 of the entire image 130 is an image of the image sensor 51 is ommatidium optical system 31 object 141 to generate the light received by photoelectric conversion 3 and through the object 142.
  • the subject 141 3 and the subject 142 3 is an image of the ommatidium optical system 31 3 to the viewpoint (corresponding to ommatidium optical system 31 3) the subject 141 and the subject 142.
  • the object 141 4 and the object 142 4 of the whole image 130 is an image of the image sensor 51 is ommatidium optical system 31 4 object 141 and the object 142 is generated by photoelectrically converting the received light through.
  • the subject 141 4 and the object 142 4 is an image of the ommatidium optical system 31 4 and perspective (corresponding to ommatidium optical system 31 4) the subject 141 and the subject 142.
  • the camera 10 can display an image on, for example, a display panel unit 33 or a viewfinder unit 34.
  • the camera 10 generates a display image from the captured image and passes through the display image so that the user can confirm the composition before capturing the subject by pressing the shutter button or the like. It can be displayed as an image.
  • the camera 10 makes such a display for each frame of the captured image captured by the image sensor 51. The user can more easily take an image according to the user's intention by performing framing (adjustment of the angle of view) or the like while checking the image (also referred to as a display image) displayed in this way.
  • the camera 10 displays an image for display from the captured image so that the imaging result (that is, the captured image) can be confirmed immediately after the subject is imaged by the user pressing the shutter button or the like. It can be generated and the display image can be displayed as a confirmation image. Further, for example, the camera 10 generates a display image from the image stored in the storage medium 83 or the like so that the user can check the captured image captured and saved in the past, and the display image is generated. It can be displayed.
  • the entire image formed on the image sensor 51 is displayed as a through image.
  • the whole image 130 includes the individual image with each individual eye optical system 31 as the viewpoint, and thus the whole image 130.
  • the display unit 61 display panel unit 33, viewfinder unit 34, etc.
  • each individual eye image becomes very small as compared with the case of imaging using a monocular optical system, and the image is displayed.
  • the individual eye image to be displayed is dynamically switched. For example, in the case of the whole image 130 of FIG. 9, the individual eye cutout image 151 0 , the individual eye cutout image 151 1 , the individual eye cutout image 151 2 , the individual eye cutout image 151 3 , and the individual eye cutout image 151 4 are cut out.
  • Ommatidium cutout image 151 0 is a part or all of the ommatidium images corresponding to the ommatidium optical system 31 0, including the subject 141 0 and the subject 142 0.
  • the individual eye cutout image 151 1 is a part or all of the individual eye image corresponding to the individual eye optical system 31 1 , and includes the subject 141 1 and the subject 142 1 .
  • Ommatidium cutout image 151 2 is part or all of the ommatidium images corresponding to the ommatidium optical system 31 2, including the subject 141 2 and the subject 142 2.
  • Ommatidium cutout image 151 3 is a part or all of the ommatidium images corresponding to the ommatidium optical system 31 3, including the subject 141 3 and the subject 142 3.
  • Ommatidium cutout image 151 4 is a part or all of the ommatidium images corresponding to the ommatidium optical system 31 4, including the subject 141 4 and the subject 142 4.
  • ommatidium cut image 151 when there is no need to distinguish the ommatidium cut image 151 4 to the ommatidium cut image 151 4 together, referred to as ommatidium cut image 151.
  • the region of the individual eye cutout image 151 in the image before cutting out (for example, the whole image 130) is also referred to as an individual eye cutout region.
  • each individual-eye cut-out image 151 is divided into individual-eye cut-out image 151 0 , individual-eye cut-out image 151 3 , individual-eye cut-out image 151 2 , individual-eye cut-out image 151 1 , and individual-eye cut-out image 151. Display repeatedly in the order of 4.
  • each individual eye cutout image 151 can be displayed larger than the case where the entire image 130 is displayed, the reduction in visibility can be suppressed. Therefore, the angle of view (composition) can be adjusted (framing) or the like more easily based on the displayed image. That is, it is possible to realize the ease of visually recognizing the subject and the ease of framing, and also to facilitate the grasping of the parallax of the image by each individual eye.
  • any one of a plurality of images whose viewpoints are a plurality of individual eye optical systems whose optical paths are independent of each other is selectively and dynamically switched and displayed on the display unit.
  • one of a plurality of images whose viewpoints are a plurality of individual eye optical systems whose optical paths are independent of each other is selectively and dynamically switched and displayed on the display unit.
  • a display control unit is provided.
  • a program allows the computer to selectively and dynamically switch any one of a plurality of images whose viewpoints are a plurality of individual eye optical systems whose optical paths are independent of each other.
  • a display control unit to be displayed with.
  • a part or all of the plurality of images may be selected and displayed one by one in a predetermined order.
  • the camera 10 when displaying a through image, the camera 10 (display image generation unit 55) extracts and displays individual eye cutout images 151 one by one from each frame of the captured image which is a moving image.
  • the camera 10 when displaying a confirmation image of the captured image, the camera 10 (display image generation unit 55) obtains a plurality of individual eye cutout images 151 from the captured image which is a still image. Extract and display sequentially. The same applies when displaying a saved captured image.
  • the camera 10 When the captured image is a moving image, the camera 10 (display image generation unit 55) extracts and displays one individual-eye cutout image 151 from each frame, as in the case of the through image.
  • the size of the individual eye cutout area is arbitrary as long as it does not exceed the individual eye image.
  • the size of the individual eye cutout region may be the same as that of the viewpoint image region.
  • the size of the individual eye cutout area may be variable (for example, it may be set by the user), but here, it will be described as fixed. Further, from the viewpoint of easy viewing of the displayed image, it is desirable that the size of each individual eye cutout area is the same as each other.
  • the shape of the individual eye cutout area is arbitrary. Here, it is described as being a rectangle. Further, from the viewpoint of easy viewing of the displayed image, it is desirable that the shapes of the individual eye cutout regions are the same.
  • each individual eye image has parallax, and the position of the subject in each individual eye image shifts in the direction of the parallax. That is, by shifting the position of each individual eye cutout region in the individual eye image in the direction of the parallax and making the position of the desired subject in each individual eye cutout image 151 the same as each other, the subject is displayed without blurring. be able to.
  • the direction of this shift depends on the arrangement pattern of the individual-eye cutout image 151 (or individual-eye image), that is, the layout (number, position, etc.) of the individual-eye optical system 31 in the multi-eye optical system 30. ..
  • the parallax of the individual eye image will be explained.
  • the positional deviation of the subject 141 in each individual eye image is larger than the positional deviation of the subject 142.
  • the shift amount of the individual eye cutout area the smaller the blur width of the subject closer to the camera 10, and the smaller the shift amount of the individual eye cutout area, the wider the blur width of the subject farther from the camera 10. Can be reduced. That is, the shift amount of the individual eye cutout region depends on the distance between the subject and the camera 10 that reduce the blur width (typically display without blurring).
  • the shift amount may be controlled by the user, application, or the like. As described above, the shift amount is determined by the distance from the camera 10 to the subject that reduces the blur width on the display screen. Therefore, the user or the application can specify this shift amount to correspond to the shift amount from the camera 10. It is possible to reduce the blur width of a subject at a distance.
  • this shift amount may be specified as vector information (direction and magnitude).
  • the direction and magnitude of the ommatidium clipped image 151 1 of a region of the shift is specified by the shift amount 161 1 is vector information.
  • the direction and magnitude of the ommatidium cutout image 151 2 of area of the shift designated by the shift amount 161 2
  • the direction and magnitude of the ommatidium clipped image 151 3 regions of shift is designated by the shift amount 161 4.
  • shift amounts 161 1 to 161 4 when it is not necessary to distinguish the shift amounts 161 1 to 161 4 from each other, they are referred to as shift amounts 161. Since the region of the individual eye cutout image 151 10 is located in the center of the entire image 130, it is used as a reference and is not shifted (fixed).
  • the user or the application sets the shift amount 161 corresponding to the distance between the desired subject and the camera 10. For example, when a user or an application specifies a distance, a shift amount 161 corresponding to the specified distance may be set.
  • the individual eye cutout area is shifted according to this setting, and the blur width of the desired subject in the displayed image is suppressed (typically, blurring can be prevented). That is, the camera 10 can reduce the blur width of the subject at an arbitrary distance from the camera 10 in the displayed image.
  • FIG. 13 shows an example in which the individual eye cutout region is shifted so as to reduce the blur width of the subject 142.
  • number position of the subject 142 0 in the eye cutout image 151 0 number position of the object 142 1 in the eye clipped image 151 1
  • the position of the subject 142 2 in ommatidium cutout image 151 2 ommatidium clipped image position of the subject 142 3 at 151 3
  • the position of the subject 142 4 in ommatidium cutout image 151 4 are identical to each other. That is, the positions of the subjects 142 in each individual eye cutout image 151 are the same as each other.
  • the displayed image is as shown in FIG. That is, as shown in FIG. 14, the camera 10 can display the individual eye cutout image 151 so that the subject 142 can be seen without blurring and the subject 141 can be seen as blurring.
  • the method of measuring the distance between the camera 10 and the subject is arbitrary.
  • the user may visually measure the distance between the camera 10 and the subject and specify the distance, or the distance between the camera 10 and the subject may be measured by a distance measurement sensor or the like.
  • this shift amount may be fixed.
  • the shift amount may be fixed to a value corresponding to the recommended shooting distance according to the optical characteristics of the individual eye optical system 31 (lens).
  • the photographer adjusts the distance between the camera 10 and the subject so that the parallax of the subject (that is, the movement of the subject in the displayed image) becomes small, so that the photographer shoots at a distance that matches the recommended shooting distance. be able to. That is, the user can easily measure the distance to the subject by using this display function.
  • the individual-eye cut-out image 151 to be displayed may be switched at predetermined intervals.
  • the switching cycle is arbitrary. For example, it may be every frame (singular frame) or a plurality of frames.
  • the user may be able to switch the switching cycle.
  • the user may be able to set the switching cycle by operating an input device such as a dial 35 or a button 36 of the camera 10.
  • the control unit 81 may receive the designation of the switching cycle by the user input in this way, and may supply the control information indicating the switching cycle to the display image generation unit 55.
  • the display image generation unit 55 does not extract and does not display the individual eye cutout image 151 0.
  • the display image generation unit 55 captures the individual-eye cut-out image 151 3 , the individual-eye cut-out image 151 2 , the individual-eye cut-out image 151 1 , and the individual-eye cut-out image 151 4 in this order, and captures the image (or the individual-eye cut-out image 151). It is extracted from the captured image) and displayed on the display unit 61.
  • the display image generation unit 55 displays (a part or all of) the individual eye cutout image 151 (a part or all) located on the outer peripheral portion in the relative positional relationship among the plurality of individual eye cutout images 151. They are extracted one by one in a predetermined order and displayed on the display unit 61.
  • the subject 142 appears to move so as to draw a quadrangle. Therefore, when the user follows the movement of the subject 142, the movement direction of the user's line of sight is limited to the vertical direction and the horizontal direction, and the direction is also limited. In other words, the movement of the user's line of sight is simplified to a movement that draws a quadrangle. Therefore, the user can more easily follow the movement of the subject 142 as compared with the case where the position of the subject 142 changes randomly. That is, the appearance of the subject 142 becomes smoother.
  • the entire range in which the position of the subject 142 that appears to be blurred changes can be expressed by this display. For example, even if only the individual-eye cut-out image 151 0 and the individual-eye cut-out image 151 3 are displayed, only a part of the range in which the position of the subject 142 changes can be expressed. For example, the position of the subject 142 in the individual eye cutout image 151 1 cannot be expressed. Therefore, it may be difficult to grasp the actual parallax. On the other hand, by displaying as in the example of FIG. 15, the user can grasp the magnitude of parallax more accurately.
  • one individual-eye cut-out image 151 may be displayed a plurality of times during one cycle of the display of the individual-eye cut-out image 151 as shown in FIGS. 10 and 15.
  • the individual eye cutout image 151 may be extracted and displayed in the order shown in FIGS. 16 and 17.
  • the individual-eye cut-out image 151 0 is displayed twice during one cycle of the display of the individual-eye cut-out image 151.
  • the display image generation unit 55 has an individual-eye cut-out image 151 0 , an individual-eye cut-out image 151 3 , an individual-eye cut-out image 151 2 , an individual-eye cut-out image 151 0 , and an individual-eye cut-out image 151.
  • 1, number in the order of eye clipped image 151 4, extracted from their ommatidium cut image 151 captured image (or captured image) may be displayed on the display unit 61.
  • the movement of the subject 142 appears to be line-symmetrical in the horizontal and vertical directions in the displayed image. Therefore, when the user follows the movement of the subject 142, the movement of the user's line of sight is also line-symmetrical, and the continuity of the viewpoint movement is improved. Therefore, the user can more easily follow the movement of the subject 142 as compared with the case where the position of the subject 142 changes randomly. That is, the appearance of the subject 142 becomes smoother.
  • the display image generation unit 55 has an individual-eye cut-out image 151 0 , an individual-eye cut-out image 151 3 , an individual-eye cut-out image 151 2 , an individual-eye cut-out image 151 0 , and an individual-eye cut-out image 151. 4.
  • the individual-eye cut-out image 151 may be extracted from the captured image (or captured image) and displayed on the display unit 61.
  • the movement of the subject 142 appears to be rotationally symmetric (in this case, point symmetric) in the displayed image. Therefore, when the user follows the movement of the subject 142, the movement of the user's line of sight also becomes rotationally symmetric (point object), and the continuity of viewpoint movement is improved. Therefore, the user can more easily follow the movement of the subject 142 as compared with the case where the position of the subject 142 changes randomly. That is, the appearance of the subject 142 becomes smoother.
  • the user can use, for example, an abnormality of any one of the individual eye optical systems 31 (for example, dust is attached to the lens). Etc.) can be confirmed.
  • the selection order (display order) of the individual eye cutout image 151 may be other than the above-mentioned example.
  • the start position of one cycle (first individual eye cutout image 151) may be different from the above-mentioned example. That is, in each of the examples of FIGS. 10, 15 to 17, one cycle may be started from a display sequence number other than "0".
  • the pattern in the selection order (display order) of each of the above examples may be rotated.
  • the display image generation unit 55 rotates the pattern of the example of FIG. 10, and the individual eye cut-out image 151 0 , the individual eye cut-out image 151 1 , the individual eye cut-out image 151 4 , the individual eye cut-out image 151 3 , and the individual eye
  • the individual-eye cut-out images 151 may be extracted from the captured image (or captured image) in the order of the cut-out images 151 and 2 and displayed on the display unit 61.
  • the display image generation unit 55 rotates the pattern of the example of FIG.
  • the individual-eye cut-out image 151 0 , the individual-eye cut-out image 151 2 , the individual-eye cut-out image 151 1 , the individual-eye cut-out image 151 0 , The individual-eye cut-out image 151 4 and the individual-eye cut-out image 151 3 may be extracted from the captured image (or captured image) in this order and displayed on the display unit 61. Also in this case, the movement of the subject 142 appears to be line-symmetrical in the left-right direction and the up-down direction in the displayed image. Further, for example, the display image generation unit 55 rotates the pattern of the example of FIG.
  • the individual-eye cut-out image 151 3 and the individual-eye cut-out image 151 4 may be extracted from the captured image (or captured image) in this order and displayed on the display unit 61. In this case, the movement of the subject 142 appears to be rotationally symmetric (point symmetric) in the displayed image.
  • the pattern of the selection order (display order) of each of the above examples may be turned upside down.
  • the display image generation unit 55 flips the pattern of the example of FIG. 10 upside down, and the individual-eye cut-out image 151 0 , the individual-eye cut-out image 151 2 , the individual-eye cut-out image 151 3 , the individual-eye cut-out image 151 4 , and so on.
  • the individual eye cutout images 151 may be extracted from the captured image (or captured image) in the order of the eye cutout images 151 1 and displayed on the display unit 61.
  • the display image generation unit 55 flips the pattern of the example of FIG.
  • the individual eye cutout images 151 may be extracted from the captured image (or captured image) and displayed on the display unit 61. Further, for example, the display image generation unit 55 flips the pattern of the example of FIG.
  • the individual-eye cut-out image 151 4 , and the individual-eye cut-out image 151 1 may be extracted from the captured image (or captured image) in this order and displayed on the display unit 61. Further, for example, the display image generation unit 55 flips the pattern of the example of FIG.
  • the individual-eye cut-out image 151 1 and the individual-eye cut-out image 151 4 may be extracted from the captured image (or captured image) in this order and displayed on the display unit 61.
  • the pattern of the selection order (display order) of each of the above examples may be reversed left and right.
  • the display image generation unit 55 flips the pattern of the example of FIG. 10 left and right, and the individual eye cutout image 151 0 , the individual eye cutout image 151 4 , the individual eye cutout image 151 1 , the individual eye cutout image 151 2 , and so on.
  • the individual eye cutout images 151 may be extracted from the captured image (or captured image) in the order of the eye cutout images 151 3 and displayed on the display unit 61. Further, for example, the display image generation unit 55 flips the pattern of the example of FIG.
  • the individual eye cutout images 151 may be extracted from the captured image (or captured image) and displayed on the display unit 61. Further, for example, the display image generation unit 55 flips the pattern of the example of FIG.
  • the individual-eye cut-out image 151 2 and the individual-eye cut-out image 151 3 may be extracted from the captured image (or captured image) in this order and displayed on the display unit 61. Further, for example, the display image generation unit 55 flips the pattern of the example of FIG.
  • the individual-eye cut-out image 151 3 , and the individual-eye cut-out image 151 2 may be extracted from the captured image (or captured image) in this order and displayed on the display unit 61.
  • the reversing direction is arbitrary, and may be a direction other than the above-mentioned vertical direction and horizontal direction (that is, an oblique direction).
  • the selection may be performed in the reverse order of the selection order (display order) of each of the above examples.
  • the display image generation unit 55 reverses the order of the patterns in the example of FIG. 10, and the individual-eye cut-out image 151 4 , the individual-eye cut-out image 151 1 , the individual-eye cut-out image 151 2 , the individual-eye cut-out image 151 3 , in the order of ommatidium clipped image 151 0, extracted from their ommatidium cut image 151 captured image (or captured image) may be displayed on the display unit 61.
  • the display image generation unit 55 reverses the order of the patterns in the example of FIG.
  • those individual eye cutout images 151 may be extracted from the captured image (or captured image) and displayed on the display unit 61. Further, for example, the display image generation unit 55 reverses the order of the patterns in the example of FIG. 16, and the individual-eye cut-out image 151 4 , the individual-eye cut-out image 151 1 , the individual-eye cut-out image 151 0 , and the individual-eye cut-out image 151 2.
  • the individual-eye cut-out image 151 3 and the individual-eye cut-out image 151 0 may be extracted from the captured image (or captured image) in this order and displayed on the display unit 61. Further, for example, the display image generation unit 55 reverses the order of the patterns in the example of FIG. 17, and the individual-eye cut-out image 151 1 , the individual-eye cut-out image 151 4 , the individual-eye cut-out image 151 0 , and the individual-eye cut-out image 151 2.
  • the individual-eye cut-out image 151 3 and the individual-eye cut-out image 151 0 may be extracted from the captured image (or captured image) in this order and displayed on the display unit 61.
  • the selection order (display order) of the individual eye cutout image 151 as described above may be specified by the user or the application.
  • the user may operate the dial 35 or the button 36 to specify the selection order (display order) of the individual eye cutout image 151.
  • the application may specify the selection order (display order) of the individual eye cutout image 151 according to the operation mode of the camera 10. For example, a plurality of candidates for the selection order (display order) of the individual-eye cutout image 151 may be prepared in advance, and the order in which the user or the application applies may be specified. Further, the user or the application may be able to set one cycle in any order.
  • FIG. 18 is a block diagram showing a main configuration example of the display image generation unit 55 (FIG. 3).
  • the display image generation unit 55 includes a display individual eye selection unit 201, a shift amount determination unit 202, an individual eye cutout area setting unit 203, and a cutout processing unit 204.
  • the display individual eye selection unit 201 performs processing related to selection of an individual eye image. That is, the display individual eye selection unit 201 performs processing related to selection of the individual eye optical system 31. That is, the display individual eye selection unit 201 performs processing related to selection of the viewpoint.
  • the display individual eye selection unit 201 can acquire viewpoint-related information (VI or VI') supplied from the area identification unit 56.
  • the viewpoint-related information includes information indicating the area (coordinates) of each individual eye image and identification information of each individual eye image.
  • This identification information may be any information, and may be, for example, an identification number (also referred to as an individual eye number) for identifying an individual eye image. In the following, it will be described that the individual eye number is included in the viewpoint-related information as this identification information.
  • the display individual eye selection unit 201 can grasp the number of individual eye images included in the entire image, the area of each individual eye image, and the individual eye number based on this viewpoint-related information. Therefore, the display individual eye selection unit 201 can select an individual eye image for extracting the individual eye cutout image 151 to be displayed as a display image based on the viewpoint-related information. That is, the display individual eye selection unit 201 can select the individual eye optical system 31 from which the display image can be obtained based on the viewpoint-related information. That is, the display individual eye selection unit 201 can select the viewpoint of the display image based on the viewpoint-related information.
  • the display individual eye selection unit 201 may use the individual eye images (, individual eye optical system 31, or viewpoint) in a predetermined order determined in advance or in an order specified by the user or application based on the viewpoint-related information. ) Is selected.
  • the display individual eye selection unit 201 may acquire control information indicating designation by a user, an application, or the like from the control unit 81, and may select an individual eye image based on the control information.
  • the display individual eye selection unit 201 acquires control information regarding the switching pattern (selection order) and switching cycle of the individual eye images from the control unit 81, and selects the individual eye image based on the control information. It may be.
  • the display individual eye selection unit 201 supplies the individual eye number indicating the selected individual eye image to the shift amount determination unit 202 and the individual eye cutout area setting unit 203.
  • the display individual eye selection unit 201 selectively and dynamically switches any one of the plurality of individual eye cutout images whose viewpoints are the plurality of individual eye optical systems whose optical paths are independent of each other. While displaying on the display. That is, the display individual eye selection unit 201 controls the display of the display image.
  • the shift amount determination unit 202 performs processing related to determination of the shift amount (direction and size) of the individual eye cutout region. For example, the shift amount determination unit 202 can acquire the individual eye number supplied from the display individual eye selection unit 201. This individual eye number is identification information for designating an individual eye image to be displayed (that is, an individual eye image from which the individual eye cutout image 151 is extracted). Further, the shift amount determination unit 202 can acquire the viewpoint-related information (VI or VI') supplied from the area identification unit 56. The viewpoint-related information includes information indicating the area (coordinates) of each individual eye image and the individual eye number of each individual eye image.
  • the shift amount determination unit 202 can acquire the shift amount control information supplied from the control unit 81.
  • This shift amount control information includes information used for determining the shift amount. For example, it may include information indicating a distance (distance between the camera 10 and the subject) specified by a user, an application, or the like. Further, for example, information on an operation mode specified by a user, an application, or the like, such as whether the shift amount is variable or fixed, may be included. For example, when the control unit 81 receives a designation regarding the shift amount from the user or the application, the control unit 81 generates shift amount control information including the information and supplies the shift amount control information to the shift amount determination unit 202.
  • the shift amount determination unit 202 grasps the arrangement of each individual eye image based on the supplied viewpoint-related information, and grasps which individual eye image is selected based on the supplied individual eye number. As a result, the shift amount determination unit 202 can determine the shift direction of the individual eye cutout region. Further, the shift amount determination unit 202 can determine the shift size of the individual eye cutout region based on the shift amount control information. For example, the shift amount determination unit 202 can determine the magnitude of the shift amount according to the distance specified in the shift amount control information.
  • the shift amount determination unit 202 can determine the shift direction and magnitude of the individual eye cutout region as described above, and can generate the shift amount (vector information).
  • the shift amount determination unit 202 can supply the shift amount to the individual eye cutout area setting unit 203.
  • the shift amount determination unit 202 can control the shift amount (direction and size) of the position of the individual eye cutout region.
  • the individual eye cutout area setting unit 203 performs processing related to the setting of the individual eye cutout area.
  • the individual eye cutout area setting unit 203 can acquire the viewpoint-related information (VI or VI') supplied from the area identification unit 56.
  • the viewpoint-related information includes information indicating the area (coordinates) of each individual eye image and the individual eye number of each individual eye image.
  • the individual eye cutout area setting unit 203 can acquire the individual eye number supplied from the display individual eye selection unit 201.
  • This individual eye number is identification information for designating an individual eye image to be displayed (that is, an individual eye image from which the individual eye cutout image 151 is extracted).
  • the individual eye cutout area setting unit 203 can acquire the shift amount (vector information) supplied from the shift amount determination unit 202.
  • This shift amount is information indicating the shift direction and magnitude of the individual eye cutout region.
  • the individual eye cutout area setting unit 203 can specify the area of the individual eye image corresponding to the supplied individual eye number (for example, the center coordinates and range (resolution) of the area) based on the viewpoint-related information. Then, the individual eye cutout area setting unit 203 can set the initial value of the image cutout area (for example, the center coordinates and the range (resolution) of the area) corresponding to the individual eye image. Further, the individual eye cutout area setting unit 203 can shift the image cutout area based on the shift amount and update the position of the image cutout area.
  • the individual eye cutout area setting unit 203 can supply the cutout coordinates, which are coordinate information indicating the image cutout area set in this way, to the cutout processing unit 204.
  • the cutout processing unit 204 performs processing related to extraction of the individual eye cutout image. For example, the cutout processing unit 204 can acquire the entire captured image supplied from the camera signal processing unit 54. Further, the cutout processing unit 204 can acquire the cutout coordinates supplied from the individual eye cutout area setting unit 203.
  • the cutout processing unit 204 can extract the area specified by the cutout coordinates from the acquired captured image (whole image).
  • the cutout processing unit 204 can supply the extracted individual eye cutout image to the display unit 61 as a display image (through image).
  • the cutout processing unit 204 cuts out the individual eye cutout image from the individual eye image having the same individual eye optical system as the individual eye image selected by the display individual eye selection unit 201.
  • the cutout processing unit 204 can also extract an individual eye cutout image from the viewpoint image or the composite image. In that case, the cutout processing unit 204 acquires a viewpoint image or a composite image.
  • the display image generation unit 55 can also generate a confirmation image of the captured image and a display image of the saved captured image.
  • the cutout processing unit 204 can acquire an captured image from the camera signal processing unit 54 or the storage unit 62, and can extract the individual eye cutout image from the captured image.
  • the captured image may include a whole image, a viewpoint image, and a composite image generated from the captured image.
  • the display image generation unit 55 can dynamically switch the individual eye image to be displayed. As a result, the user can more easily grasp the parallax between a plurality of images with different individual eye optical systems as viewpoints by checking the displayed image.
  • the cutout processing unit 204 may cut out the individual eye cutout area of the RAW format image to generate the individual eye cutout image of the RAW format. In that case, color separation processing and YC conversion are performed on the individual-eye cut-out image of the RAW format so that the individual-eye cut-out image of the YC format is generated, and the individual-eye cut-out image of the YC format is displayed on the display unit 61. It should be supplied to. For example, the RAW format individual-eye cut-out image cut out by the cut-out processing unit 204 may be returned to the camera signal processing unit 54 to perform color separation processing and YC conversion.
  • FIG. 19 is a flowchart illustrating an example of the flow of the imaging process.
  • the display individual eye selection unit 201, the shift amount determination unit 202, and the individual eye cutout area setting unit 203 of the display image generation unit 55 are supplied from the area identification unit 56 in step S101. Acquire and set viewpoint-related information.
  • step S102 the shift amount determination unit 202 acquires and sets the shift amount control information supplied from the control unit 81.
  • step S103 the display image generation unit 55 and the display unit 61 execute the through image display process to generate and display the through image.
  • the details of this through image display processing will be described later.
  • step S104 the control unit 81 determines whether or not to prepare for imaging. For example, when a user, an application, or the like performs control related to imaging such as control of focus, aperture, and imaging mode, the control unit 81 prepares for imaging according to the control (also referred to as imaging preparation process). Is determined to be performed. In that case, the process proceeds to step S105.
  • control also referred to as imaging preparation process
  • step S105 the control unit 81 appropriately controls each processing unit such as the optical system control unit 84 to perform the imaging preparation process.
  • This imaging preparation process may be any process as long as it is a process related to imaging. For example, at least one of focus and aperture adjustment, imaging mode setting, flash setting, image quality setting, and the like may be included, or processing other than these may be included.
  • step S105 When the process of step S105 is completed, the process proceeds to step S106. If it is determined in step S104 that the imaging preparation process is not performed, the process proceeds to step S106.
  • step S106 the control unit 81 determines whether or not to perform imaging. For example, when it is determined that the image is to be taken by the user pressing the shutter button or the like, the process proceeds to step S107.
  • step S107 the image sensor 51, the area extraction unit 53, the camera signal processing unit 54, and the like capture a subject and generate an captured image, and generate an overall image, a viewpoint image, or a composite image from the captured image.
  • step S108 the storage unit 62 and the communication unit 64 output the entire image, the viewpoint image, or the composite image generated in step S107.
  • the storage unit 62 stores the image (whole image, viewpoint image, composite image) in the storage medium 63.
  • the communication unit 64 supplies the image (overall image, viewpoint image, composite image) to an external device of the camera 10. Note that this image may be output after being filed by the file conversion unit 65.
  • step S108 When the process of step S108 is completed, the process proceeds to step S109. If it is determined in step S106 that imaging is not performed, the process proceeds to step S109.
  • step S109 the control unit 81 determines whether or not to end the imaging process. If it is determined that the imaging process is not completed, the process returns to step S103, and the subsequent processes are repeated.
  • step S109 when it is determined that the imaging process is completed, the imaging process is completed.
  • the display individual eye selection unit 201 executes the display individual eye selection process in step S121 and selects the individual eye image to be displayed based on the viewpoint-related information and the like.
  • step S122 the shift amount determination unit 202 determines the shift amount (direction and size) of the individual eye cutout region extracted from the individual eye image selected in step S121 based on the viewpoint-related information, the shift amount control information, and the like. decide.
  • step S123 the individual eye cutout area setting unit 203 extracts the individual eye cutout area (cutout coordinates) from the individual eye image selected in step S121 based on the viewpoint-related information, the shift amount set in step S122, and the like. ) Is set.
  • step S124 the cutout processing unit 204 acquires the entire image of the captured image generated by the area extraction unit 53.
  • step S125 the cutout processing unit 204 cuts out the individual eye cutout area set in step S123 from the entire image acquired in step S124, and generates an individual eye cutout image.
  • step S126 the display unit 61 displays the individual eye cutout image extracted as described above as a through image.
  • step S126 When the process of step S126 is completed, the through image display process is completed, and the process returns to FIG.
  • the display individual eye selection unit 201 determines in step S141 whether or not the number of displayed frames has reached the individual eye switching cycle.
  • the number of displayed frames is a variable indicating how many frames of the same individual-eye cutout image are displayed.
  • the individual eye switching cycle is a set value that specifies how many frames the same individual eye cutout image is displayed. This individual eye switching cycle may be a predetermined fixed value, or may be set by a user, an application, or the like.
  • step S142 When it is determined that the number of displayed frames has reached the individual eye switching cycle, that is, when it is determined that it is the timing (frame) for switching the individual eye cutout image to be displayed, the process proceeds to step S142.
  • step S142 the display individual eye selection unit 201 sets the number of displayed frames (variable) to an initial value (for example, "1").
  • This initial value is arbitrary and may be other than "1” such as "0".
  • step S143 the display individual eye selection unit 201 updates the display sequence number.
  • the display sequence number is a number (variable) indicating the display order in the switching pattern of the individual-eye cutout image, and is updated as in the following equation (1).
  • Display sequence number (Display sequence number + 1) mod Number of display sequences ... (1)
  • the number of display sequences is the number of individual-eye cut-out images constituting one cycle of the individual-eye cut-out image switching pattern.
  • the display sequence number is a number indicating the order of the current processing target in the sequence of one cycle.
  • one cycle of the switching pattern of the individual eye cutout image 151 is composed of five individual eye cutout images 151. Therefore, the number of display sequences in this case is "5", and the display sequence number is any of "0" to "4" (that is, any of the five values).
  • one cycle of the switching pattern of the individual eye cutout image 151 is composed of four individual eye cutout images 151. Therefore, the number of display sequences in this case is "4", and the display sequence number is any of "0" to "3" (that is, any of the four values).
  • one cycle of the switching pattern of the individual eye cutout image 151 is composed of six individual eye cutout images 151. Therefore, the number of display sequences in this case is "6", and the display sequence number is any of "0" to "5" (that is, any of the six values).
  • the function mod indicates the remainder of the division. That is, the value of the number of display sequences is incremented by 1 by the process of step S143, and is returned to "0" when the number of display sequences is reached. That is, for example, in the case of FIG. 10, the display sequence number is "0" to "4" such as "0"-> "1"-> "2"-> "3"-> "4"-> "0”-> ... Repeat the value of.
  • step S144 the display individual eye selection unit 201 acquires the individual eye number corresponding to the display sequence number updated by the process of step S143 from the table information.
  • the display individual eye selection unit 201 has table information indicating one cycle of the switching pattern of the individual eye cutout image. This table information is information indicating which individual eye image (individual eye cutout image) is to be displayed in what order, and indicates the correspondence between each display sequence number and the individual eye number.
  • the display individual eye selection unit 201 identifies the individual eye number corresponding to the updated display sequence number based on the table information.
  • the display individual eye selection unit 201 is a table corresponding to the applied pattern.
  • the individual eye number may be specified based on the information.
  • the display individual eye selection unit 201 has a plurality of types of table information as candidates in advance, and among the candidates, table information corresponding to an instruction from the control unit 81 (designation of a pattern by a user, an application, or the like) is included in the candidates. You may choose from.
  • the display individual eye selection unit 201 may generate table information corresponding to the applied pattern based on the information from the control unit 81.
  • the display individual eye selection unit 201 has an individual eye having the maximum coordinates in the vertical direction, an individual eye having the maximum coordinates in the horizontal direction, an individual eye having the minimum coordinates in the vertical direction, and an individual eye having the minimum coordinates in the horizontal direction.
  • Table information may be generated based on the above criteria.
  • step S145 the display individual eye selection unit 201 sets the individual eye number as the display individual eye number.
  • the display individual eye number is an individual eye number indicating the individual eye image to be displayed. That is, the display individual eye selection unit 201 supplies the display individual eye number to the shift amount determination unit 202 and the individual eye cutout area setting unit 203.
  • step S145 When the process of step S145 is completed, the display individual selection process is completed, and the process returns to FIG.
  • step S141 when it is determined that the number of displayed frames has not reached the individual eye switching cycle, that is, when it is determined that it is not the timing (frame) for switching the individual eye cutout image to be displayed, the process is step S146. Proceed to.
  • step S146 the display individual eye selection unit 201 increments the number of displayed frames (variable) by "+1" without switching (without updating) the individual eye cutout image.
  • step S147 the display individual eye selection unit 201 sets the previous (previous frame) display individual eye number as the current display individual eye number. That is, the display individual number is not updated. As a result, the display individual eye selection unit 201 supplies the same display individual eye number as the previous frame to the shift amount determination unit 202 and the individual eye cutout area setting unit 203.
  • step S147 When the process of step S147 is completed, the display individual selection process is completed, and the process returns to FIG.
  • the display image generation unit 55 can dynamically switch the individual eye image to be displayed. As a result, the user can more easily grasp the parallax between a plurality of images with different individual eye optical systems as viewpoints by checking the displayed image.
  • the captured image When displaying a confirmation image of a captured image or a saved captured image, the captured image may be subjected to the same processing as the above-mentioned through image display processing.
  • the number of individual eye optical systems 31 (number of individual eyes) constituting the multi-eye optical system 30 may be a plurality, and is not limited to the above-mentioned five eyes (five individual eye optical systems 31).
  • the number of individual eyes may be an odd number or an even number.
  • the arrangement pattern (relative positional relationship) of each individual eye optical system 31 is also arbitrary.
  • the number of individual eyes may be 7 (7 individual eye optical systems 31).
  • FIG. 22 shows an example of the entire image of the captured image (or captured image) generated by the camera 10 in that case.
  • the entire image 130 in this case includes seven subjects 141 and seven subjects 142. That is, the whole image 130 includes seven individual eye images. That is, in the case of the whole image 130, seven types of individual-eye cut-out images 151 can be extracted as shown in FIG. 22 from the individual-eye cut-out image 151 0 to the individual-eye cut-out image 151 6.
  • the switching pattern of the individual eye cutout image is arbitrary as in the case of the five eyes.
  • it may be a switching pattern in which the all-eye optical system 31 is selected once.
  • individual eye cutout image 151 0 ⁇ individual eye cutout image 151 1 ⁇ individual eye cutout image 151 2 ⁇ individual eye cutout image 151 3 ⁇ individual eye cutout image 151 4 ⁇ individual eye cutout image 151 5 ⁇ individual eye cutout image 151 6
  • the pattern of switching in the order of ( ⁇ individual-eye cutout image 151 0) may be one cycle.
  • a switching pattern may be used to select (a part or all of) the individual eye cutout image 151 located on the outer peripheral portion in the relative positional relationship among these individual eye cutout images 151.
  • the pattern of switching in the order of 1) may be one cycle.
  • a switching pattern in which a part or all of these individual eye cutout images 151 are selected one by one in the order in which the scanning loci are line-symmetrical with respect to an arbitrary direction in their relative positional relationship May be good.
  • it may be line-symmetrical in the vertical direction, line-symmetrical in the left-right direction, or line-symmetrical in the diagonal direction.
  • a part or all of these individual eye cutout images 151 may be selected one by one in the order in which the scanning loci are rotationally symmetric (for example, point symmetric) in their relative positional relationship.
  • the pattern of switching in the order of 151 0 ⁇ individual-eye cut-out image 151 5 ⁇ individual-eye cut-out image 151 6 ( ⁇ individual-eye cut-out image 151 0 ) may be set as one cycle.
  • a part or all of these individual eye cutout images 151 is selected so that the maximum parallax in the vertical direction can be grasped and the maximum parallax in the horizontal direction can be grasped. It may be used as a switching pattern. For example, the pattern of switching in the order of individual eye cutout image 151 1 ⁇ individual eye cutout image 151 2 ⁇ individual eye cutout image 151 4 ⁇ individual eye cutout image 151 5 ( ⁇ individual eye cutout image 151 1 ) may be set as one cycle.
  • a plurality of images in which the parallax between the individual-eye cut-out images is larger than the parallax between the other images are selected, and the selected plurality of images are selected and displayed one by one. You may do so.
  • the pattern in the selection order (display order) of each of the above examples may be rotated. Further, the pattern of the selection order (display order) of each of the above examples may be reversed in an arbitrary direction (vertical direction, horizontal direction, or diagonal direction). Further, the selection (display) may be performed in the reverse order of the selection order (display order) of each of the above examples.
  • each method such as rotation and reversal of patterns and reversal of order as described above may be appropriately combined. Then, the pattern of each of the above examples may be specified by the user or the application.
  • the number of individual eyes may be 9 (9 individual eye optical systems 31).
  • FIG. 23 shows an example of the entire image of the captured image (or captured image) generated by the camera 10 in that case.
  • the entire image 130 in this case includes nine subjects 141 and nine subjects 142. That is, the whole image 130 includes nine individual eye images. That is, in the case of the whole image 130, nine types of individual-eye cut-out images 151 can be extracted as shown in FIG. 23, such as the individual-eye cut-out image 151 0 to the individual-eye cut-out image 151 8.
  • the switching pattern of the individual eye cutout image is arbitrary as in the case of the five eyes.
  • it may be a switching pattern in which the all-eye optical system 31 is selected once.
  • individual eye cutout image 151 0 ⁇ individual eye cutout image 151 1 ⁇ individual eye cutout image 151 2 ⁇ individual eye cutout image 151 3 ⁇ individual eye cutout image 151 4 ⁇ individual eye cutout image 151 5 ⁇ individual eye cutout image 151 6 ⁇ Individual-eye cut-out image 151 7 ⁇ Individual-eye cut-out image 151 8 ( ⁇ Individual-eye cut-out image 151 0 ) may be switched in this order as one cycle.
  • a switching pattern may be used to select (a part or all of) the individual eye cutout image 151 located on the outer peripheral portion in the relative positional relationship among these individual eye cutout images 151.
  • individual eye cutout image 151 1 ⁇ individual eye cutout image 151 2 ⁇ individual eye cutout image 151 3 ⁇ individual eye cutout image 151 4 ⁇ individual eye cutout image 151 5 ⁇ individual eye cutout image 151 6 ⁇ individual eye cutout image 151 7 ⁇
  • the pattern of switching in the order of the individual-eye cut-out image 151 8 ( ⁇ individual-eye cut-out image 151 1) may be set as one cycle.
  • a switching pattern in which a part or all of these individual eye cutout images 151 are selected one by one in the order in which the scanning loci are line-symmetrical with respect to an arbitrary direction in their relative positional relationship May be good.
  • it may be line-symmetrical in the vertical direction, line-symmetrical in the horizontal direction, or line-symmetrical in the diagonal direction.
  • a part or all of these individual eye cutout images 151 may be selected one by one in the order in which the scanning loci are rotationally symmetric (for example, point symmetric) in their relative positional relationship.
  • the pattern of switching in the order of individual eye cutout image 151 1 ⁇ individual eye cutout image 151 3 ⁇ individual eye cutout image 151 5 ⁇ individual eye cutout image 151 7 ( ⁇ individual eye cutout image 151 1 ) may be set as one cycle.
  • a part or all of these individual eye cutout images 151 is selected so that the maximum parallax in the vertical direction can be grasped and the maximum parallax in the horizontal direction can be grasped. It may be used as a character switching pattern. For example, the pattern of switching in the order of individual eye cutout image 151 1 ⁇ individual eye cutout image 151 3 ⁇ individual eye cutout image 151 7 ⁇ individual eye cutout image 151 5 ( ⁇ individual eye cutout image 151 1 ) may be set as one cycle.
  • a part or all of these individual eye cutout images 151 is selected so that the maximum parallax in the vertical direction can be grasped and the maximum parallax in the horizontal direction can be grasped. It may be used as a switching pattern. For example, the pattern of switching in the order of individual-eye cut-out image 151 1 ⁇ individual-eye cut-out image 151 5 ( ⁇ individual-eye cut-out image 151 1 ) may be set as one cycle.
  • the pattern in the selection order (display order) of each of the above examples may be rotated. Further, the pattern of the selection order (display order) of each of the above examples may be reversed in an arbitrary direction (vertical direction, horizontal direction, or diagonal direction). Further, the selection (display) may be performed in the reverse order of the selection order (display order) of each of the above examples.
  • each method such as rotation and reversal of patterns and reversal of order as described above may be appropriately combined. Then, the pattern of each of the above examples may be specified by the user or the application.
  • Second Embodiment> ⁇ Camera system>
  • the present technology has been described by taking the camera 10 provided with the multi-eye optical system 30 as an example, but the present technology can also be applied to other configurations.
  • the optical system including the multi-eye optical system 30 may be interchangeable. That is, the multi-lens optical system 30 may be configured to be detachable from the camera 10.
  • FIG. 24 is a perspective view showing a configuration example of an embodiment of a camera system to which the present technology is applied.
  • the camera system 301 shown in FIG. 24 includes a camera body 310 and a multi-lens interchangeable lens 320 (lens unit).
  • the camera system 301 In a state where the multi-lens interchangeable lens 320 is attached to the camera body 310, the camera system 301 has the same configuration as the camera 10, and basically performs the same processing. That is, the camera system 301 functions as an imaging device similar to the camera 10 that captures a subject and generates image data of the captured image.
  • the camera body 310 has a removable multi-lens interchangeable lens 320. That is, the camera body 310 has a camera mount 311, and the multi-lens interchangeable lens 320 (lens mount 322) is attached to the camera mount 311 so that the multi-lens interchangeable lens 320 is attached to the camera body 310. It is installed.
  • a general interchangeable lens other than the multi-lens interchangeable lens 320 may be attached to and detached from the camera body 310.
  • the camera body 310 has a built-in image sensor 51.
  • the image sensor 51 captures a subject by receiving light rays focused by a multi-lens interchangeable lens 320 or other interchangeable lenses mounted on the camera body 310 (camera mount 311) and performing photoelectric conversion.
  • the multi-lens interchangeable lens 320 has a lens barrel 321 and a lens mount 322. Also, the multiview interchangeable lens 320, 5 ommatidium optical system as a plurality 31 0, 31 1, 31 2, 31 3, and a 31 4.
  • the plurality of individual eye optical systems 31 in this case are configured so that the optical paths of light passing through them are independent of each other. That is, the light that has passed through each individual eye optical system 31 irradiates the light receiving surface (for example, the effective pixel region) of the image sensor 51 at different positions without incident on the other individual eye optical system 31. At least, the optical axes of each individual eye optical system 31 are located at different positions on the light receiving surface of the image sensor 51, and at least a part of the light passing through each individual eye optical system 31 is on the light receiving surface of the image sensor 51. Irradiate different positions.
  • the images of the subjects formed via the individual eye optical systems 31 are different from each other in the captured images (the entire image output by the image sensor 51) generated by the image sensor 51. Formed in position.
  • an captured image also referred to as a viewpoint image
  • a plurality of viewpoint images can be obtained by attaching the multi-eye interchangeable lens 320 to the camera body 310 and photographing the subject.
  • the lens barrel 321 has a substantially cylindrical shape, and a lens mount 322 is formed on the bottom surface side of one of the cylindrical shapes.
  • the lens mount 322 is attached to the camera mount 311 of the camera body 310 when the multi-lens interchangeable lens 320 is attached to the camera body 310.
  • the five individual eye optical systems 31 are arranged on a two-dimensional plane orthogonal to the lens barrel optical axis (parallel to the light receiving surface (imaging surface) of the image sensor 51) with the individual eye optical system 310 as the center (center of gravity).
  • the other four individual eye optical systems 31 1 to the individual eye optical system 3 14 are provided on the multi-lens interchangeable lens 320 so as to form a rectangular apex.
  • the arrangement shown in FIG. 24 is an example, and the positional relationship of each individual eye optical system 31 is arbitrary as long as the optical paths are independent of each other.
  • FIG. 25 is a block diagram showing an example of an electrical configuration of the camera system 301 of FIG. 24.
  • the camera body 310 includes an image sensor 51, a RAW signal processing unit 52, an area extraction unit 53, a camera signal processing unit 54, a display image generation unit 55, an area identification unit 56, and an image reconstruction processing unit 57. It has a bus 60, a display unit 61, a storage unit 62, a communication unit 64, a file conversion unit 65, a control unit 81, and a storage unit 82. That is, the camera body 310 has a configuration other than the multi-eye optical system 30 and the optical system control unit 84 provided in the lens barrel 20 of the camera 10.
  • the camera body 310 has a communication unit 341 in addition to the above configuration.
  • the communication unit 341 is a processing unit that communicates with the multi-lens interchangeable lens 320 (communication unit 351) correctly attached to the camera body 310 to exchange information and the like.
  • the communication unit 341 can communicate with the multi-lens interchangeable lens 320 by any communication method.
  • the communication may be wired communication or wireless communication.
  • the communication unit 341 is controlled by the control unit 81, performs the communication, and acquires the information supplied from the multi-lens interchangeable lens 320. Further, for example, the communication unit 341 supplies the information supplied from the control unit 81 to the multi-lens interchangeable lens 320 by the communication.
  • the information exchanged with the multi-lens interchangeable lens 320 is arbitrary. For example, it may be data or control information such as commands and control parameters.
  • the multi-lens interchangeable lens 320 has a communication unit 351 and a storage unit 352 in addition to the multi-lens optical system 30 and the optical system control unit 84.
  • the communication unit 351 communicates with the communication unit 341 in the multi-lens interchangeable lens 320 correctly attached to the camera body 310. Through this communication, information is exchanged between the camera body 310 and the multi-lens interchangeable lens 320.
  • the communication method of the communication unit 351 is arbitrary, and may be wired communication or wireless communication. Further, the information exchanged by this communication may be data or control information such as commands and control parameters.
  • the communication unit 351 acquires the control information transmitted from the camera body 310 via the communication unit 341.
  • the communication unit 351 can supply the information acquired in this way to the optical system control unit 84, if necessary, and use it for controlling the multi-eye optical system 30.
  • the communication unit 351 can supply the acquired information to the storage unit 352 and store it in the storage medium 353. Further, the communication unit 351 can read the information stored in the storage medium 353 via the storage unit 352 and transmit it to the camera body 310 (communication unit 341).
  • the storage medium 353 may be a ROM or a rewritable memory such as RAM or flash memory. In the case of a rewritable memory, the storage medium 353 can store arbitrary information.
  • the storage location of the viewpoint-related information corresponding to the multi-lens interchangeable lens 320 (that is, the multi-lens optical system 30) is arbitrary. For example, it may be stored in the storage medium 353 of the multi-lens interchangeable lens 320. Then, for example, the control unit 81 of the camera body 310 may access the storage unit 352 via the communication unit 351 and the communication unit 341 and have the viewpoint-related information read from the storage medium 353. Then, the viewpoint-related information may be set in the area specifying unit 56 via the control unit 81, and further set in the display image generation unit 55.
  • the multi-lens interchangeable lens 320 when the multi-lens interchangeable lens 320 is correctly attached to the camera body 310, when the power is turned on to the camera system 301, or when the drive mode of the camera system 301 shifts to an imaging mode capable of imaging a subject, etc. Such processing may be performed at an arbitrary timing or trigger before the imaging.
  • the camera body 310 can perform image processing using the viewpoint image by using the viewpoint-related information corresponding to the multi-eye interchangeable lens 320 (that is, the multi-eye optical system 30). That is, the display image generation unit 55 corresponds to the multi-lens interchangeable lens 320 mounted on the camera body 310, correctly selects an individual eye image, and appropriately sets the shift amount of the individual eye cutout region. Can be done. That is, in the case of the camera system 301 as well, as in the case of the camera 10, the display image generation unit 55 can dynamically switch the individual eye image to be displayed. As a result, the camera 500 can perform the same display as in the case of the camera 10. Therefore, by checking the displayed image, the user can more easily grasp the parallax between a plurality of images with different individual eye optical systems as viewpoints.
  • the control unit 81 supplies the viewpoint-related information of the multi-eye interchangeable lens 320 acquired from the multi-eye interchangeable lens 320 to the storage unit 82 together with the identification information (hereinafter referred to as ID) of the multi-eye interchangeable lens 320. , May be memorized.
  • the storage unit 82 stores the supplied identification information and the viewpoint-related information in the storage medium 83 in association with each other. That is, the camera body 310 can manage the viewpoint-related information and the ID of the multi-lens interchangeable lens 320. Therefore, the camera body 310 can manage the viewpoint-related information of the plurality of multi-lens interchangeable lenses 320.
  • control unit 81 can read the viewpoint-related information corresponding to the ID from the storage unit 82 (storage medium 83) by acquiring the ID of the multi-lens interchangeable lens 320 from the next time. .. That is, the control unit 81 can easily acquire the viewpoint-related information corresponding to the multi-lens interchangeable lens 320.
  • the storage medium 83 may store the viewpoint-related information of the plurality of multi-lens interchangeable lenses 320 in advance in association with the ID of the multi-eye interchangeable lens 320. That is, in this case, the camera body 310 manages the viewpoint-related information of the plurality of multi-lens interchangeable lenses 320 in advance.
  • control unit 81 can easily obtain the viewpoint-related information corresponding to the ID from the storage unit 82 (storage medium 83) by using the ID of the multi-lens interchangeable lens 320 correctly mounted on the camera body 310. Can be read to.
  • one image sensor 51 receives light that has passed through a plurality of individual eye optical systems 31 and performs photoelectric conversion to generate an captured image.
  • the present invention is not limited to this, and each individual eye light is not limited to this.
  • the light that has passed through the department 31 may be received by different image sensors. A configuration example in that case is shown in FIG.
  • the camera 500 is an embodiment of an imaging device to which the present technology is applied.
  • the camera 500 is basically the same device as the camera 10, has the same configuration as the camera 10, and performs the same processing.
  • camera 500 in place of the multi-view optical system 30 and the image sensor 51 of the camera 10, has a single-eye imaging unit 511 0 through ommatidium image pickup unit 511 4.
  • Ommatidium image pickup unit 511 0 includes a single-eye optical system 31 0 and the image sensor 51 0.
  • the individual eye imaging unit 511 1 has an individual eye optical system 31 1 and an image sensor 51 1 .
  • Ommatidium image pickup unit 511 2 includes a single-eye optical system 31 2 and the image sensor 51 2.
  • Ommatidium image pickup unit 511 3 has a single-eye optical system 31 3 and the image sensor 51 3.
  • Ommatidium image pickup unit 511 4 has a single-eye optical system 31 4, and the image sensor 51 4.
  • ommatidium image pickup section 511 when there is no need to distinguish the ommatidium image pickup unit 511 0 through ommatidium image pickup unit 511 4 together, it referred to as ommatidium image pickup section 511.
  • the camera 500 has a plurality of individual eye imaging units 511.
  • the light that has passed through the individual eye optical system 31 of each individual eye imaging unit 511 is incident on the image sensor 51 of the individual eye imaging unit 511 and is photoelectrically converted to generate an captured image. That is, each individual eye imaging unit 511 generates an captured image of the individual eye image.
  • the captured images (individual eye images) generated by the image sensor 51 of each individual eye imaging unit 511 are the RAW signal processing unit 52, the area extraction unit 53, the area identification unit 56, and the bus 60, respectively, as in the case of FIG. Etc. are supplied.
  • the optical system control unit 84 controls the lens group, the aperture, and the like of the individual eye optical system 31 of each individual eye imaging unit 511, as in the case of FIG. Further, the control unit 81 controls each individual eye imaging unit 511 (image sensor 51) to image the subject.
  • the camera signal processing unit 54 supplies the individual eye image to the display image generation unit 55.
  • the display image generation unit 55 generates a display image from the individual eye image. Also in this case, the display image generation unit 55 dynamically switches the individual eye image as the display image.
  • the camera 500 can perform the same display as in the case of the camera 10. Therefore, by checking the displayed image, the user can more easily grasp the parallax between a plurality of images with different individual eye optical systems as viewpoints.
  • FIG. 27 is a block diagram showing a main configuration example of the display image generation unit 55 in this case. As shown in FIG. 27, in this case, the display image generation unit 55 has an image selection unit 521 in addition to the configuration of the camera 10 shown in FIG.
  • the image selection unit 521 acquires and holds each individual eye image (captured image generated by each individual eye imaging unit 511) supplied from the camera signal processing unit 54. Then, when the image selection unit 521 acquires the individual eye number supplied from the display individual eye selection unit 201 (the individual eye number indicating the individual eye image selected by the display individual eye selection unit 201), the image selection unit 521 uses the individual eye number as the individual eye number. The corresponding individual eye image is supplied to the cutout processing unit 204.
  • the display individual eye selection unit 201 supplies the individual eye number of the selected individual eye image to the shift amount determination unit 202, the individual eye cutout area setting unit 203, and the image selection unit 521.
  • the cutout processing unit 204 When the cutout processing unit 204 acquires the individual eye image supplied from the image selection unit 521, the cutout processing unit 204 obtains the individual eye cutout area indicated by the cutout coordinates supplied from the individual eye cutout area setting unit 203 from the individual eye image. Extract. In this case, the cutout processing unit 204 converts the coordinates in the individual eye image and the coordinates in the entire image into either one, and appropriately extracts the image. The cutout processing unit 204 supplies the cut out individual eye cutout image to the display unit 61 and displays it.
  • step S504 the image selection unit 521 selects an individual eye image corresponding to the individual eye number (display individual eye number) indicating the individual eye image selected by the display individual eye selection process (FIG. 21) in step S501.
  • step S505 the cutout processing unit 204 extracts the individual eye cutout region set in step S503 from the individual eye image selected in step S504, and generates an individual eye cutout image.
  • step S506 is executed in the same manner as the process of step S126 (FIG. 20). When the process of step S506 is completed, the process returns to FIG.
  • the display image generation unit 55 can dynamically switch the individual eye image as the display image.
  • the display unit 61 can perform the same display as in the case of the camera 10. Therefore, by checking the displayed image, the user can more easily grasp the parallax between a plurality of images with different individual eye optical systems as viewpoints.
  • the present technology can be applied to the display of the image for confirmation of the captured image and the saved captured image in the same manner as the display of the through image described above.
  • the captured image may be subjected to the same processing as the through image display processing described above.
  • the number of individual eye imaging units 511 is arbitrary and may be an odd number or an even number.
  • the drive of each individual eye imaging unit 511 can be controlled individually. Therefore, for example, in displaying a through image, the individual eye image may be selected by controlling (selecting) the individual eye imaging unit 511 to be driven. In other words, the drive of the individual eye imaging unit 511 that generates the individual eye image that is not selected as the display image may be stopped (that is, the individual eye image is not generated). At that time, the control unit 81 may stop controlling the aperture and focus of the individual eye imaging unit 511 for stopping the drive. Further, the control unit 81 may stop the control of the white balance gain for the captured image obtained by the individual eye imaging unit 511 that stops the drive. By doing so, the number of individual eye imaging units 511 to be driven can be reduced, and an increase in power consumption can be suppressed.
  • FIG. 29 is a block diagram showing a main configuration example of the display image generation unit 55 in this case. As shown in FIG. 29, in this case, the display image generation unit 55 has the same configuration as that of the camera 10 shown in FIG.
  • the display individual eye selection unit 201 in this case supplies the individual eye number of the selected individual eye image to the control unit 81 as power control information.
  • the control unit 81 controls the optical system control unit 84 based on the power control information, and stops driving the individual eye imaging unit 511 corresponding to the individual eye image not selected by the display individual eye selection unit 201.
  • the optical system control unit 84 stops driving the individual eye imaging unit 511 corresponding to the individual eye image not selected by the display individual eye selection unit 201 according to the control of the control unit 81. As a result, only the individual eye imaging unit 511 that generates the individual eye image selected by the display individual eye selection unit 201 is driven, and only the individual eye image selected by the display individual eye selection unit 201 is generated. That is, the display image generation unit 55 is supplied with the individual eye image selected by the display individual eye selection unit 201.
  • the cutout processing unit 204 extracts the individual eye cutout region from the supplied individual eye image (the individual eye image selected by the display individual eye selection unit 201), generates an individual eye cutout image, and displays the individual eye cutout image. To supply and display.
  • step S524 the display individual eye selection unit 201 corresponds to the individual eye number (display individual eye number) indicating the individual eye image selected by the display individual eye selection process (FIG. 21) in step S501.
  • the cutout processing unit 204 acquires the individual eye image selected by the display individual eye selection process (FIG. 21) in step S501, which is supplied in this way.
  • step S525 and step S526 are executed in the same manner as each process of step S505 and step S506 of FIG. 28.
  • the process of step S526 is completed, the process returns to FIG.
  • the display image generation unit 55 can dynamically switch the individual eye image as the display image.
  • the display unit 61 can perform the same display as in the case of the camera 10. Therefore, by checking the displayed image, the user can more easily grasp the parallax between a plurality of images with different individual eye optical systems as viewpoints.
  • FIG. 31 is a block diagram showing a configuration example of computer hardware that executes the above-mentioned series of processes programmatically.
  • the CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the input / output interface 910 is also connected to the bus 904.
  • An input unit 911, an output unit 912, a storage unit 913, a communication unit 914, and a drive 915 are connected to the input / output interface 910.
  • the input unit 911 includes, for example, a keyboard, a mouse, a microphone, a touch panel, an input terminal, and the like.
  • the output unit 912 includes, for example, a display, a speaker, an output terminal, and the like.
  • the storage unit 913 is composed of, for example, a hard disk, a RAM disk, a non-volatile memory, or the like.
  • the communication unit 914 includes, for example, a network interface.
  • the drive 915 drives a removable medium 921 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 901 loads the program stored in the storage unit 913 into the RAM 903 via the input / output interface 910 and the bus 904 and executes the above-described series. Is processed.
  • the RAM 903 also appropriately stores data and the like necessary for the CPU 901 to execute various processes.
  • the program executed by the computer can be recorded and applied to the removable media 921 as a package media or the like, for example.
  • the program can be installed in the storage unit 913 via the input / output interface 910 by mounting the removable media 921 in the drive 915.
  • This program can also be provided via wired or wireless transmission media such as local area networks, the Internet, and digital satellite broadcasting. In that case, the program can be received by the communication unit 914 and installed in the storage unit 913.
  • this program can be installed in advance in ROM 902 or storage unit 913.
  • the present technology can be applied to any configuration.
  • the present technology is a device such as a processor as a system LSI (Large Scale Integration), a module using a plurality of processors, a unit using a plurality of modules, or a set in which other functions are added to the unit. It can also be implemented as a partial configuration.
  • this technology can be applied to a network system composed of a plurality of devices.
  • the present technology may be implemented as cloud computing that is shared and jointly processed by a plurality of devices via a network.
  • the present technology may be implemented in a cloud service that provides services to arbitrary terminals such as computers, portable information processing terminals, and IoT (Internet of Things) devices.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..
  • Systems, devices, processing departments, etc. to which this technology is applied can be used in any field such as transportation, medical care, crime prevention, agriculture, livestock industry, mining, beauty, factories, home appliances, weather, nature monitoring, etc. .. Moreover, the use is arbitrary.
  • the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units).
  • the configurations described above as a plurality of devices (or processing units) may be collectively configured as one device (or processing unit).
  • a configuration other than the above may be added to the configuration of each device (or each processing unit).
  • a part of the configuration of one device (or processing unit) may be included in the configuration of another device (or other processing unit). ..
  • the above-mentioned program may be executed in any device.
  • the device may have necessary functions (functional blocks, etc.) so that necessary information can be obtained.
  • each step of one flowchart may be executed by one device, or may be shared and executed by a plurality of devices.
  • the plurality of processes may be executed by one device, or may be shared and executed by a plurality of devices.
  • a plurality of processes included in one step can be executed as processes of a plurality of steps.
  • the processes described as a plurality of steps can be collectively executed as one step.
  • the processing of the steps for writing the program may be executed in chronological order in the order described in the present specification, and the calls may be made in parallel or in parallel. It may be executed individually at the required timing such as when it is broken. That is, as long as there is no contradiction, the processing of each step may be executed in an order different from the above-mentioned order. Further, the processing of the step for writing this program may be executed in parallel with the processing of another program, or may be executed in combination with the processing of another program.
  • a plurality of technologies related to this technology can be independently implemented independently as long as there is no contradiction.
  • any plurality of the present technologies can be used in combination.
  • some or all of the techniques described in any of the embodiments may be combined with some or all of the techniques described in other embodiments. It is also possible to carry out a part or all of any of the above-mentioned techniques in combination with other techniques not described above.
  • the present technology can also have the following configurations.
  • a display control unit that selectively and dynamically switches one of a plurality of images from a plurality of individual eye optical systems whose optical paths are independent of each other and displays them on the display unit.
  • An image pickup device equipped.
  • (3) The display control unit selects and displays a part or all of the plurality of images one by one in the order in which the scanning loci are line-symmetrical in the relative positional relationship of the viewpoints of the plurality of images.
  • the image pickup apparatus according to (2).
  • the display control unit selects and displays a part or all of the plurality of images one by one in the order in which the scanning loci are rotationally symmetric in the relative positional relationship of the viewpoints of the plurality of images.
  • the image pickup apparatus according to (2) or (3).
  • the display control unit selects a plurality of images in which the parallax between the images is larger than the parallax between the other images, and selects the selected plurality of images one by one.
  • the image pickup apparatus according to any one of (2) to (4).
  • the display control unit selects and displays a part or all of the images located on the outer peripheral portion in the relative positional relationship of the viewpoints of the plurality of images one by one in the predetermined order (2). ) To (5).
  • a selection order designation unit for designating the selection order of the images is further provided.
  • Imaging device. (8) The image pickup apparatus according to any one of (1) to (7), wherein the display control unit switches the selected image at predetermined intervals.
  • a cycle designation unit for designating the cycle is further provided. The image pickup apparatus according to (8) or (9), wherein the display control unit switches the selected image for each cycle designated by the cycle designation unit.
  • a shift amount control unit for controlling the shift amount of the position of the region is provided.
  • the imaging apparatus according to (12), wherein the area setting unit sets the area using the shift amount controlled by the shift amount control unit.
  • an imaging unit is further provided in which the optical axes of the plurality of individual eye optical systems correspond to different positions.
  • the display control unit moves the image for displaying any one of the plurality of images included in the image generated by the imaging unit with each of the plurality of individual eye optical systems as a viewpoint.
  • the image pickup apparatus according to any one of (1) to (13), which is selected and displayed so as to be switched.
  • the display control unit selects a part or all of the plurality of images included in the captured image generated by the imaging unit one by one and displays them so as to be dynamically switched (14).
  • the image pickup apparatus according to (15).
  • a plurality of imaging units corresponding to the respective optical axes of the plurality of individual eye optical systems are further provided.
  • the display control unit dynamically switches the image for displaying any one of the plurality of images with each of the plurality of individual eye optical systems generated by the plurality of imaging units as a viewpoint.
  • the image pickup apparatus according to any one of (1) to (16), which is selected and displayed as described above.
  • Computer A program that functions as a display control unit that displays on the display unit while selectively and dynamically switching any one of a plurality of images whose viewpoints are multiple individual eye optical systems whose optical paths are independent of each other. ..

Abstract

本開示は、互いに異なる個眼光学系を視点とする複数の画像同士の視差をより容易に把握することができるようにする撮像装置、情報処理方法、およびプログラムに関する。 光路が互いに独立している複数の個眼光学系を視点とする複数の画像の内のいずれか1つを選択的、かつ、動的に切り替えながら表示させる。本開示は、例えば、撮像装置、電子機器、複数の個眼レンズが繰り出す交換レンズやカメラシステム、情報処理方法、またはプログラム等に適用することができる。

Description

撮像装置、情報処理方法、およびプログラム
 本開示は、撮像装置、情報処理方法、およびプログラムに関し、特に、互いに異なる個眼光学系を視点とする複数の画像同士の視差をより容易に把握することができるようにした撮像装置、情報処理方法、およびプログラムに関する。
 従来、光路が互いに独立している複数の個眼光学系を用いて撮像を行う撮像装置等において、撮像画像の全領域を表示したり、個眼光学系を視点とする個眼画像を表示したりする方法が考えられた(例えば、特許文献1参照)。
国際公開第2019/065260号
 しかしながら、特許文献1に記載の方法の場合、被写体がどの程度の視差をもって撮像されるのかが直感的に把握し難くかった。
 本開示は、このような状況に鑑みてなされたものであり、互いに異なる個眼光学系を視点とする複数の画像同士の視差をより容易に把握することができるようにするものである。
 本技術の一側面の撮像装置は、光路が互いに独立している複数の個眼光学系を視点とする複数の画像の内のいずれか1つを選択的、かつ、動的に切り替えながら表示部で表示させる表示制御部を備える撮像装置である。
 本技術の一側面の情報処理方法は、光路が互いに独立している複数の個眼光学系を視点とする複数の画像の内のいずれか1つを選択的、かつ、動的に切り替えながら表示部で表示させる情報処理方法である。
 本技術の一側面のプログラムは、コンピュータを、光路が互いに独立している複数の個眼光学系を視点とする複数の画像の内のいずれか1つを選択的、かつ、動的に切り替えながら表示部で表示させる表示制御部として機能させるプログラムである。
 本技術の一側面の撮像装置、情報処理方法、およびプログラムにおいては、光路が互いに独立している複数の個眼光学系を視点とする複数の画像の内のいずれか1つが選択的、かつ、動的に切り替えられながら表示部で表示される。
本技術を適用したカメラの一実施の形態の構成例を示す斜視図である。 本技術を適用したカメラの一実施の形態の構成例を示す図である。 カメラの電気的構成例を示すブロック図である。 3板式のイメージセンサの例を示す図である。 全体画像の例を示す図である。 個眼画像の例を示す図である。 合成画像の例を示す図である。 カメラと被写体との位置関係の例を説明する図である。 全体画像における個眼切り出し画像の例を示す図である。 個眼切り出し画像の表示順の例を説明する図である。 表示された画像の例を説明する図である。 シフトの例について説明する図である。 全体画像における個眼切り出し画像の例を示す図である。 表示された画像の例を説明する図である。 個眼切り出し画像の表示順の例を説明する図である。 個眼切り出し画像の表示順の例を説明する図である。 個眼切り出し画像の表示順の例を説明する図である。 表示用画像生成部の主な構成例を示すブロック図である。 撮像処理の流れの例を説明するフローチャートである。 表示用画像表示処理の流れの例を説明するフローチャートである。 表示個眼選択処理の流れの例を説明するフローチャートである。 表示された画像の例を説明する図である。 表示された画像の例を説明する図である。 本技術を適用したカメラの一実施の形態の構成例を示す斜視図である。 カメラシステムの電気的構成例を示すブロック図である。 カメラの電気的構成例を示すブロック図である。 表示用画像生成部の主な構成例を示すブロック図である。 表示用画像表示処理の流れの例を説明するフローチャートである。 表示用画像生成部の主な構成例を示すブロック図である。 表示用画像表示処理の流れの例を説明するフローチャートである。 コンピュータの主な構成例を示すブロック図である。
 以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
 1.第1の実施の形態(カメラ)
 2.第2の実施の形態(カメラシステム)
 3.第3の実施の形態(カメラ)
 4.付記
 <1.第1の実施の形態>
  <カメラ外観>
 図1は、本技術を適用したカメラの一実施の形態の構成例を示す斜視図である。
 カメラ10は、イメージセンサを内蔵し、レンズによって集光される光線を受光して光電変換を行うことにより被写体を撮像する。以下において、このような撮像により得られる画像を、撮像画像ともいう。
 カメラ10は、そのイメージセンサの正面側(光が入射する側)に鏡筒20が設けられており、その鏡筒20に、複数としての5個の個眼光学系310,311,312,313、および、314を有する。以下においては、個眼光学系310乃至個眼光学系314を互いに区別して説明する必要がない場合、個眼光学系31(または個眼光学系31)と称する。
 複数の個眼光学系31は、それぞれを通過する光の光路が互いに独立するように構成される。つまり、鏡筒20の各個眼光学系31を通過した光は、他の個眼光学系31に入射せずにイメージセンサの受光面(例えば有効画素領域)の互いに異なる位置に照射する。少なくとも、各個眼光学系31の光軸は、イメージセンサの受光面の互いに異なる場所に位置しており、各個眼光学系31を通過した光の少なくとも一部が、イメージセンサの受光面の互いに異なる位置に照射する。
 したがって、イメージセンサにより生成される撮像画像(イメージセンサの出力する画像全体)には、各個眼光学系31を介して結像された被写体の画像が互いに異なる位置に形成される。換言するに、その撮像画像から、各個眼光学系31を視点とする撮像画像(視点画像とも称する)が得られる。つまり、カメラ10は、被写体を撮像することにより、複数の視点画像を得ることができる。この複数の視点画像は、例えば、奥行情報の生成や、その奥行情報を用いたリフォーカス等の処理に利用することができる。
 なお、以下においては、カメラ10が5個の個眼光学系31を有する例を用いて説明するが、この個眼光学系31の数は2以上であれば任意である。
 5個の個眼光学系31は、鏡筒20の光軸に直交する(イメージセンサの受光面(撮像面)に平行な)2次元平面上において、個眼光学系310を中心(重心)として、他の4個の個眼光学系311乃至個眼光学系314が、長方形の頂点を構成するように配置される形で設けられている。もちろん、図1に示される配置は一例であり、各個眼光学系31の位置関係は、光路が互いに独立している限り任意である。
 また、カメラ10については、被写体からの光が入射する側の面を、正面とする。図2は、カメラ10を背面側から見た図である。図2に示されるように、カメラ10の筐体の背面側には、表示パネル部33、ビューファインダー部34、ダイヤル35、およびボタン36が設けられている。
 表示パネル部33やビューファインダー部34は、例えば液晶ディスプレイや有機ELディスプレイ(OELD(Organic Electro Luminescence Display))等の表示デバイスよりなり、撮像前にスルー画像を表示したり、撮像後に確認のために撮像画像を表示したりすることができる。ダイヤル35やボタン36は、入力デバイスの一例であり、ユーザがこれらを操作することにより、ユーザの操作を受け付けることができる。
 <カメラの電気的構成例>
 図3は、カメラ10の電気的構成例を示すブロック図である。カメラ10は、多眼光学系30、イメージセンサ51、RAW信号処理部52、領域抽出部53、カメラ信号処理部54、表示用画像生成部55、領域特定部56、画像再構成処理部57、バス60、表示部61、記憶部62、通信部64、ファイル化部65、制御部81、記憶部82、および光学系制御部84を有する。
   <多眼光学系>
 多眼光学系30は、上述の個眼光学系31(例えば個眼光学系310乃至個眼光学系314)からなる。多眼光学系30の各個眼光学系31は、被写体からの光線をカメラ10のイメージセンサ51に集光させる。各個眼光学系31の仕様は互いに同一であるものとする。
 個眼光学系31は、例えば、鏡筒光軸の光軸方向に並べられた複数のレンズや、遮蔽物の開き度合いを制御することによりその複数のレンズを介してイメージセンサ51に入射する光の量(F値)を調整する機構である絞り等の光学系素子を有する。なお、個眼光学系31が、レンズの位置を制御することにより、ズーム倍率を制御することができるようにしてもよい。
   <イメージセンサ>
 イメージセンサ51は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサであり、被写体を撮像し、撮像画像を生成する。イメージセンサ51の受光面には、個眼光学系310乃至314それぞれにより集光される光線が照射される。撮像画像における、1つの個眼光学系31を介してイメージセンサ51に照射される照射光が入力された領域に対応する画像を個眼画像とも称する。つまり、イメージセンサ51は、それらの光線(照射光)を受光して光電変換を行うことにより、各個眼光学系31を視点とする個眼画像を含む撮像画像を生成する。
 なお、各個眼光学系31のそれぞれの光軸は、イメージセンサ51の互いに異なる位置に対応する。したがって、イメージセンサ51が生成する撮像画像(または取り込み画像)において、各個眼画像は少なくともその一部が互いに異なる位置に生成される(全個眼画像が完全に同一の位置に生成されることはない)。また、個眼画像は、周辺に画像としては有効でない部分を有する。また、全ての個眼画像を含む撮像画像(つまり、イメージセンサ51により生成された撮像画像全体や、その撮像画像から、その撮像画像に含まれる全ての個眼画像よりも外側の領域の一部または全部を削除した画像)のことを全体画像とも称する。
 なお、イメージセンサ51は、単色(所謂モノクロ)のイメージセンサであってもよいし、画素群に例えばベイヤ配列のカラーフィルタが配置されたカラーイメージセンサであってもよい。つまり、イメージセンサ51が出力する撮像画像は、モノクロ画像であってもよいし、カラー画像であってもよい。以下においては、イメージセンサ51が、カラーイメージセンサであって、RAWフォーマットの撮像画像を生成し、出力するものとして説明する。
 なお、本実施の形態においてRAWフォーマットとは、イメージセンサ51のカラーフィルタの配置の位置関係を維持した状態の画像を意味し、イメージセンサ51から出力された画像に対して画サイズの変換処理、ノイズリダクション処理、イメージセンサ51の欠陥補正処理等の信号処理や圧縮符号化がなされた画像も含み得るものとする。また、RAWフォーマットの撮像画像は、モノクロの画像は含まないものとする。
 イメージセンサ51は、照射光を光電変換して生成したRAWフォーマットの撮像画像(全体画像)を出力することができる。例えば、イメージセンサ51は、そのRAWフォーマットの撮像画像(全体画像)を、バス60、RAW信号処理部52、領域抽出部53、および領域特定部56の内の、少なくともいずれか1つに供給することができる。
 例えば、イメージセンサ51は、そのRAWフォーマットの撮像画像(全体画像)を、バス60を介して記憶部62に供給し、記憶媒体63に記憶させることができる。また、イメージセンサ51は、そのRAWフォーマットの撮像画像(全体画像)を、バス60を介して通信部64に供給し、カメラ10の外部へ送信させることができる。さらに、イメージセンサ51は、そのRAWフォーマットの撮像画像(全体画像)を、バス60を介してファイル化部65に供給し、ファイル化させることができる。また、イメージセンサ51は、そのRAWフォーマットの撮像画像(全体画像)を、バス60を介して画像再構成処理部57に供給し、画像再構成処理を行わせることができる。
 なお、イメージセンサ51は、単板式のイメージセンサであってもよいし、例えば3板式のイメージセンサ等、複数のイメージセンサからなる1組のイメージセンサ(複数板式イメージセンサとも称する)であってもよい。
 例えば、3板式のイメージセンサとしては、図4に示されるような、RGB(Red, Green, Blue)それぞれのための3つのイメージセンサ(イメージセンサ51-1乃至イメージセンサ51-3)を有するものがある。この場合、被写体からの光線は、プリズムなどの光学系(光路分離部)を利用して波長域毎に分離され、各イメージセンサに入射する。イメージセンサ51-1乃至イメージセンサ51-3は、それぞれ入射された光を光電変換する。つまり、イメージセンサ51-1乃至イメージセンサ51-3は、互いに異なる波長域の光を互いに略同一のタイミングで光電変換する。したがって、複数板式のイメージセンサの場合、各イメージセンサにおいて、互いに略同時刻に略同一の画角で撮像された撮像画像(つまり、波長域が互いに異なるだけで略同一の絵柄の画像)が得られる。したがって、各イメージセンサで得られる撮像画像における視点画像領域(後述する)の位置や大きさは、互いに略同一となる。この場合、R画像、G画像、B画像を合わせたものを、RAWフォーマットの撮像画像と捉えることができる。
 なお、複数板式のイメージセンサの場合、各イメージセンサはRGBそれぞれのためのものに限らず全てモノクロであっても良いし、全てがベイヤ配列等のカラーフィルタを備えたものであっても良い。なお、全てがベイヤ配列等のカラーフィルタとする場合、全ての配列を同じものとし、互いの画素の位置関係を合わせておけば例えばノイズリダクションを行うことができ、RGBの各イメージセンサの位置関係をずらしておけば所為空間画素ずらしによる効果を用いて高画質化することも可能である。
 このような複数板式撮像装置の場合も各イメージセンサ、すなわち1つのイメージセンサから出力された撮像画像内に、複数の個眼画像や複数の視点画像が含まれることになる。
   <RAW信号処理部>
 RAW信号処理部52は、RAWフォーマットの画像に対する信号処理に関する処理を行う。例えば、RAW信号処理部52は、イメージセンサ51から供給されるRAWフォーマットの撮像画像(全体画像)を取得することができる。また、RAW信号処理部52は、その取得した撮像画像に対して、所定の信号処理を施すことができる。この信号処理の内容は任意である。例えば、欠陥補正、ノイズリダクション、または圧縮(符号化)等であってもよいし、それら以外の信号処理であってもよい。勿論、RAW信号処理部52は、撮像画像に対して複数の信号処理を行うこともできる。なお、RAWフォーマットの画像に対して様々な信号処理は、信号処理後の画像が、上述したようにイメージセンサ51のカラーフィルタの配置の位置関係を維持した状態の画像(複数板式撮像装置の場合はR画像、G画像、B画像の状態のままの画像)であるものに限定される。
 RAW信号処理部52は、信号処理を施したRAWフォーマットの撮像画像(RAW')または圧縮(符号化)した撮像画像(圧縮RAW)を、バス60を介して記憶部62に供給し、記憶媒体63に記憶させることができる。また、RAW信号処理部52は、信号処理を施したRAWフォーマットの撮像画像(RAW')または圧縮(符号化)した撮像画像(圧縮RAW)を、バス60を介して通信部64に供給し、送信させることができる。さらに、RAW信号処理部52は、信号処理を施したRAWフォーマットの撮像画像(RAW')または圧縮(符号化)した撮像画像(圧縮RAW)を、バス60を介してファイル化部65に供給し、ファイル化させることができる。また、RAW信号処理部52は、信号処理を施したRAWフォーマットの撮像画像(RAW')または圧縮(符号化)した撮像画像(圧縮RAW)を、バス60を介して画像再構成処理部57に供給し、画像再構成処理を行わせることができる。なお、これらの、RAW、RAW'、および圧縮RAW(いずれも図3)を互いに区別して説明する必要が無い場合、RAW画像と称する。
   <領域抽出部>
 領域抽出部53は、RAWフォーマットの撮像画像からの一部の領域の抽出(部分画像の切り出し)に関する処理を行う。例えば、領域抽出部53は、イメージセンサ51から供給されるRAWフォーマットの撮像画像(全体画像)を取得することができる。また、領域抽出部53は、領域特定部56から供給される、撮像画像から抽出する領域を示す情報(抽出領域情報とも称する)を取得することができる。そして、領域抽出部53は、その抽出領域情報に基づいて、撮像画像から一部の領域を抽出する(部分画像を切り出す)ことができる。
 例えば、領域抽出部53は、撮像画像(全体画像)から、各個眼光学系31を視点とする画像を切り出すことができる。つまり、領域抽出部53は、各個眼光学系31を視点とする画像として、撮像画像に含まれる各個眼画像の領域から有効な部分を切り出すことができる。この切り出された有効な部分の画像(個眼画像の一部)を視点画像とも称する。また、撮像画像におけるその切り出される領域(視点画像に対応する領域)を視点画像領域とも称する。例えば、領域抽出部53は、領域特定部56から供給される、視点画像領域を特定するために用いられる情報である視点関連情報を、抽出領域情報として取得し、撮像画像から、その視点関連情報において示される各視点画像領域を抽出する(各視点画像を切り出す)ことができる。そして、領域抽出部53は、その切り出した各視点画像(RAWフォーマット)をカメラ信号処理部54に供給することができる。
 また、例えば、領域抽出部53は、撮像画像(全体画像)から切り出した各視点画像を合成し、合成画像を生成することができる。合成画像は、各視点画像が合成されて、1データ化、または、1枚の画像とされたものである。例えば、領域抽出部53は、各視点画像を平面状に並べた1枚の画像(合成画像)を生成することができる。領域抽出部53は、その生成した合成画像(RAWフォーマット)をカメラ信号処理部54に供給することができる。
 また、例えば、領域抽出部53は、全体画像をカメラ信号処理部54に供給することができる。例えば、領域抽出部53は、取得した撮像画像から、全ての個眼画像を含む一部の領域を抽出し(つまり、全ての個眼画像を含む部分画像を切り出し)、その切り出した部分画像(つまり、撮像画像に含まれる全ての個眼画像よりも外側の領域の一部または全部を削除した画像)を、RAWフォーマットの全体画像としてカメラ信号処理部54に供給することができる。この場合の抽出する領域の場所(範囲)は、領域抽出部53において予め定められていてもよいし、領域特定部56から供給される視点関連情報により指定されるようにしてもよい。
 また、領域抽出部53は、取得した撮像画像を(すなわち、切り出された全ての個眼画像を含む部分画像ではなく撮像画像全体を)、RAWフォーマットの全体画像としてカメラ信号処理部54に供給することもできる。
 なお、領域抽出部53は、上述のように撮像画像から切り出したRAWフォーマットの部分画像(全体画像、視点画像、または合成画像)を、イメージセンサ51の場合と同様に、バス60を介して記憶部62、通信部64、ファイル化部65、または画像再構成処理部57等に供給することができる。
 また、領域抽出部53は、そのRAWフォーマットの部分画像(全体画像、視点画像、または合成画像)を、RAW信号処理部52に供給し、所定の信号処理を施させたり、圧縮(符号化)させたりすることもできる。この場合も、RAW信号処理部52は、信号処理を施したRAWフォーマットの撮像画像(RAW')または圧縮(符号化)した撮像画像(圧縮RAW)を、バス60を介して記憶部62、通信部64、ファイル化部65、または画像再構成処理部57等に供給することができる。
 つまり、撮像画像(または全体画像)、視点画像、および合成画像の内の少なくともいずれか1つは、RAW画像であるようにしてもよい。
   <カメラ信号処理部>
 カメラ信号処理部54は、画像に対するカメラ信号処理に関する処理を行う。例えば、カメラ信号処理部54は、領域抽出部53から供給される画像(全体画像、視点画像、または合成画像)を取得することができる。また、カメラ信号処理部54は、その取得した画像に対して、カメラ信号処理(カメラプロセス)を施すことができる。例えば、カメラ信号処理部54は、処理対象の画像に対して、RGBの各色を分離してそれぞれ処理対象の画像と同じ画素数のR画像、G画像、およびB画像を生成する色分離処理(ベイヤ配列等のモザイクカラーフィルタを用いた場合はデモザイク処理)や、その色分離後の画像の色空間をRGBからYC(輝度・色差)に変換するYC変換処理等を行うことができる。また、カメラ信号処理部54は、処理対象の画像に対して、欠陥補正、ノイズリダクション、AWB(Automatic White Balance)、またはガンマ補正等の処理を行うことができる。さらに、カメラ信号処理部54は、処理対象の画像を圧縮(符号化)することもできる。勿論、カメラ信号処理部54は、処理対象の画像に対して複数のカメラ信号処理を行うこともできるし、上述した例以外のカメラ信号処理を行うこともできる。
 なお、以下においては、カメラ信号処理部54が、RAWフォーマットの画像を取得し、その画像に対して色分離処理やYC変換を行い、YCフォーマットの画像(YC)を出力するものとする。この画像は、全体画像であってもよいし、各視点画像であってもよいし、合成画像であってもよい。また、このYCフォーマットの画像(YC)は、符号化されていてもよいし、符号化されていなくてもよい。つまり、カメラ信号処理部54から出力されるデータは、符号化データであってもよいし、符号化されていない画像データであってもよい。
 つまり、撮像画像(または全体画像)、視点画像、および合成画像の内の少なくともいずれか1つは、そのYCフォーマットの画像(YC画像とも称する)であるようにしてもよい。
 また、カメラ信号処理部54が出力する画像は、完全な現像処理をするものではなく、YCフォーマットの画像(YC)として、ガンマ補正やカラーマトリクス等の非可逆的な画質調整(色調整)に関する処理の一部または全部を施していないものであっても良い。この場合、後段や再生時等において、YCフォーマットの画像(YC)をほぼ劣化なくRAWフォーマットの画像に戻すことができる。
 カメラ信号処理部54は、例えば、カメラ信号処理を施したYCフォーマットの画像(YC)を、バス60を介して表示部61に供給し、表示させることができる。また、カメラ信号処理部54は、カメラ信号処理を施したYCフォーマットの画像(YC)を、バス60を介して記憶部62に供給し、記憶媒体63に記憶させることができる。さらに、カメラ信号処理部54は、カメラ信号処理を施したYCフォーマットの画像(YC)を、バス60を介して通信部64に供給し、外部に送信させることができる。また、カメラ信号処理部54は、カメラ信号処理を施したYCフォーマットの画像(YC)を、バス60を介してファイル化部65に供給し、ファイル化させることができる。さらに、カメラ信号処理部54は、カメラ信号処理を施したYCフォーマットの画像(YC)を、バス60を介して画像再構成処理部57に供給し、画像再構成処理を行わせることができる。
 また、例えば、カメラ信号処理部54は、そのYCフォーマットの画像(YC)を表示用画像生成部55に供給することもできる。
 なお、RAWフォーマットの画像(全体画像、視点画像、または部分画像)が記憶媒体63に記憶されている場合、カメラ信号処理部54は、そのRAWフォーマットの画像を記憶媒体63から読み出し、信号処理を施すことができるようにしてもよい。この場合も、カメラ信号処理部54は、カメラ信号処理を施したYCフォーマットの画像(YC)を、バス60を介して表示部61、記憶部62、通信部64、ファイル化部65、または画像再構成処理部57等に供給することができる。
 また、イメージセンサ51から出力されるRAWフォーマットの撮像画像(全体画像)に対してカメラ信号処理部54がカメラ信号処理を施し、そのカメラ信号処理後の撮像画像(全体画像)から、領域抽出部53が一部の領域を抽出するようにしてもよい。
   <表示用画像生成部>
 表示用画像生成部55は、表示部61において表示される表示用画像の生成に関する処理を行う。例えば、表示用画像生成部55は、スルー画像を生成することができる。スルー画像は、撮影時または撮影準備時(非記録時)にユーザが撮影準備中の画像を確認するために表示される画像である。つまり、スルー画像は、イメージセンサ51により生成される表示用の画像(取り込み画像とも称する)を用いて生成される。なお、スルー画像は、ライブビュー画像やEE(Electronic to Electronic)画とも称する。なお、静止画撮影時は撮影前の画像であるが、動画撮影時は、撮影準備中だけでなく撮影(記録)中の画像に対応するスルー画像も表示される。
 取り込み画像は、イメージセンサ51において生成される撮像画像以外の画像である。つまり、取り込み画像は、撮像画像が生成されるタイミング以外のタイミングにおいて生成され得る。また、取り込み画像は、撮像画像の場合と同様に、イメージセンサ51が受光した光を光電変換することにより生成される画像である。ただし、取り込み画像の用途は撮像画像の用途と異なる。撮像画像が記録用(保存用)の画像であるのに対して、取り込み画像は表示部61(表示パネル部33やビューファインダー部34)によりスルー画像等として表示されるための画像である。さらに、撮像画像が静止画像(動画像でもよい)であるのに対して、取り込み画像(スルー画像)は基本的に動画像(複数フレームからなる画像)として表示される。なお、取り込み画像の仕様(例えば、解像度、アスペクト比、色等)は任意であり、撮像画像と同一であってもよいし、撮像画像と異なっていてもよい。例えば、取り込み画像が撮像画像よりも低解像度であってもよい。
 この取り込み画像は、撮像画像の場合と同様に、領域抽出部53により一部の領域が抽出されたり、カメラ信号処理部54によりカメラ信号処理が施されたりし得る。つまり、取り込み画像は、撮像画像の場合と同様に、例えば、YCフォーマットの画像(全体画像、視点画像、または合成画像)として、表示用画像生成部55に供給され得る。
 この場合、表示用画像生成部55は、カメラ信号処理部54から供給される取り込み画像(例えば全体画像、視点画像、または合成画像)を取得することができる。また、表示用画像生成部55は、その取得した取り込み画像を用いて、例えば表示部61の解像度に応じた画サイズに変換する画サイズ(解像度)変換を行うことで、表示用画像を生成することができる。さらに、表示用画像生成部55は、その生成した表示用画像を、バス60を介して表示部61に供給し、スルー画像として表示させることができる。なお、この表示用画像の仕様は任意であり、撮像画像と同一であってもよいし、撮像画像と異なっていてもよい。
 また、例えば、表示用画像生成部55は、撮像画像の確認用画像を生成することもできる。例えばユーザがシャッタボタンを押下する等して撮像を指示すると、カメラ10は、イメージセンサ51等を用いて被写体を撮像して記録用(保存用)の撮像画像を生成する。その際、カメラ10は、その生成した撮像画像(つまり撮像結果)をユーザに確認させるために、その撮像画像を用いて確認用画像(つまり表示用画像)を生成し、それを表示部61(表示パネル部33やビューファインダー部34)に表示させる。表示用画像生成部55は、この確認用画像の生成を行うことができる。
 つまり、この場合、表示用画像生成部55は、例えばカメラ信号処理部54から供給される撮像画像(例えば全体画像、視点画像、または合成画像)を取得することができる。また、表示用画像生成部55は、その取得した撮像画像を用いて表示用画像を生成することができる。さらに、表示用画像生成部55は、その生成した表示用画像を、バス60を介して表示部61に供給し、確認用画像として表示させることができる。なお、この確認用画像の仕様は、上述の表示用画像の場合と同様、任意である。
 さらに、例えば、表示用画像生成部55は、記録済み(保存済み)の撮像画像の表示用画像を生成することもできる。例えば、カメラ10は、記憶媒体63から読み出したり通信部64を介して他の装置から取得したりした撮像画像を、表示部61に表示させることができる。表示用画像生成部55は、この撮像画像の表示用画像の生成を行うことができる。
 つまり、この場合、表示用画像生成部55は、記憶部62により記憶媒体63から読み出された撮像画像や、通信部64を介して他の装置から取得した撮像画像(例えば全体画像、視点画像、または合成画像)を取得し得る。また、表示用画像生成部55は、その取得した撮像画像を用いて表示用画像を生成することができる。さらに、表示用画像生成部55は、その生成した表示用画像を、バス60を介して表示部61に供給して表示させることができる。なお、この表示用画像の仕様は任意である。
 なお、表示用画像生成部55は、領域特定部56から供給される視点関連情報(VIまたはVI')を取得し、その取得した視点関連情報を用いて、これらの表示用画像生成を行うことができる。また、表示用画像生成部55は、制御部81から供給される制御情報を取得し、その制御情報を用いて、これらの表示用画像生成を行うことができる。
   <領域特定部>
 領域特定部56は、領域抽出部53が撮像画像から抽出する領域の特定(設定)に関する処理を行う。例えば、領域特定部56は、視点関連情報(VI)を特定し、領域抽出部53に視点画像領域を供給する。
 視点関連情報(VI)は、例えば、撮像画像における視点画像領域を示す視点領域情報を含む。視点領域情報は、視点画像領域をどのように表してもよい。例えば、撮像画像における個眼光学系31の光軸に対応する位置を示す座標(視点画像領域の中心座標とも称する)と視点画像(視点画像領域)の解像度(画素数)とにより、視点画像領域が表されるようにしてもよい。つまり、視点領域情報が、撮像画像における視点画像領域の中心座標と視点画像領域の解像度とを含むようにしてもよい。この場合、視点画像領域の中心座標とその視点画像領域の解像度(画素数)から、全体画像の内の視点画像領域の場所の特定が可能になる。
 なお、視点領域情報は、視点画像領域毎に設定される。つまり、撮像画像に複数の視点画像が含まれる場合、視点関連情報(VI)は、各視点画像(各視点画像領域)について、視点画像(領域)を識別するための視点識別情報(例えば識別番号)と視点領域情報とを含み得る。
 また、視点関連情報(VI)は、その他の任意の情報を含み得る。例えば、視点関連情報(VI)が、視点画像が抽出される撮像画像が撮像された時刻を示す視点時刻情報を含むようにしてもよい。また、視点関連情報(VI)が、個眼画像から切り出す領域であって、視点画像領域を内包する視点画像包含領域を示す視点画像包含領域情報を含むようにしてもよい。さらに、視点関連情報(VI)が、撮像画像の視点画像領域でも個眼画像の領域でもない領域に形成されるスポット光の画像に関する情報であるスポット光情報(SI)を含むようにしてもよい。
 領域特定部56が、このような視点関連情報(VI)を、特定した視点画像領域を示す情報として領域抽出部53に供給することにより、領域抽出部53は、その視点関連情報(VI)に基づいて、領域特定部56により特定された視点画像領域を抽出する(視点画像を切り出す)ことができる。
 また、領域特定部56は、視点関連情報(VI)をバス60に供給することができる。例えば、領域特定部56は、視点関連情報(VI)を、バス60を介して記憶部62に供給し、記憶媒体63に記憶させることができる。また、領域特定部56は、視点関連情報(VI)を、バス60を介して通信部64に供給し、送信させることができる。さらに、領域特定部56は、視点関連情報(VI)を、バス60を介してファイル化部65に供給し、ファイル化させることができる。また、領域特定部56は、視点関連情報(VI)を、バス60を介して画像再構成処理部57に供給し、画像再構成処理に利用させることができる。
 例えば、領域特定部56は、このような視点関連情報(VI)を制御部81から取得し、その取得した視点関連情報(VI)を領域抽出部53やバス60に供給してもよい。この場合、制御部81は、記憶媒体83に記憶されている視点関連情報(VI)を、記憶部82を介して読み出し、領域特定部56に供給する。領域特定部56は、その視点関連情報(VI)を領域抽出部53やバス60に供給する。なお、この視点関連情報(VI)には、スポット光情報(SI)が含まれていてもよい。
 このようにバス60を介して記憶部62、通信部64、またはファイル化部65に供給された視点関連情報(VI)は、そこにおいて画像(全体画像、視点画像、または合成画像)と関連付けられる。例えば、記憶部62は、供給された視点関連情報(VI)を画像(全体画像、視点画像、または合成画像)と関連付け、記憶媒体63に記憶させることができる。また、通信部64は、供給された視点関連情報(VI)を画像(全体画像、視点画像、または合成画像)と関連付け、外部に送信することができる。さらに、ファイル化部65は、供給された視点関連情報(VI)を画像(全体画像、視点画像、または合成画像)と関連付け、それらを含む1つのファイルを生成することができる。
 また、領域特定部56は、イメージセンサ51から供給されるRAWフォーマットの撮像画像を取得し、その撮像画像に基づいて視点関連情報(VI’)を生成し、その生成した視点関連情報(VI’)を領域抽出部53やバス60に供給してもよい。この場合、領域特定部56は、撮像画像から各視点画像領域を特定し、その視点画像領域を示す(例えば、撮像画像における視点画像領域の中心座標と視点画像領域の解像度等により視点画像領域を示す)視点関連情報(VI’)を生成する。そして、領域特定部56は、その生成した視点関連情報(VI’)を領域抽出部53やバス60に供給する。なお、この視点関連情報(VI’)には、領域特定部56が撮像画像に基づいて生成したスポット光情報(SI’)が含まれていてもよい。
 さらに、領域特定部56は、視点関連情報(VI)を制御部81から取得し、イメージセンサ51から供給されるRAWフォーマットの撮像画像を取得し、その撮像画像に基づいてスポット光情報(SI’)を生成し、視点関連情報(VI)にそのスポット光情報(SI’)を付加し、領域抽出部53やバス60に供給してもよい。この場合、制御部81は、記憶媒体83に記憶されている視点関連情報(VI)を、記憶部82を介して読み出し、領域特定部56に供給する。領域特定部56は、その視点関連情報(VI)にスポット光情報(SI’)を付加して視点関連情報(VI’)を生成する。領域特定部56は、その視点関連情報(VI’)を領域抽出部53やバス60に供給する。
 また、領域特定部56は、視点関連情報(VI)を制御部81から取得し、イメージセンサ51から供給されるRAWフォーマットの撮像画像を取得し、その撮像画像に基づいてスポット光情報(SI’)を生成し、そのスポット光情報(SI’)を用いて視点関連情報(VI)を補正し、補正後の視点関連情報(VI’)を領域抽出部53やバス60に供給してもよい。この場合、制御部81は、記憶媒体83に記憶されている視点関連情報(VI)を、記憶部82を介して読み出し、領域特定部56に供給する。領域特定部56は、その視点関連情報(VI)を、スポット光情報(SI’)を用いて補正し、視点関連情報(VI’)を生成する。領域特定部56は、その視点関連情報(VI’)を領域抽出部53やバス60に供給する。
 なお、領域特定部56は、視点関連情報(VIまたはVI')を表示用画像生成部55に供給することもできる。
   <画像再構成処理部>
 画像再構成処理部57は、画像の再構成に関する処理を行う。例えば、画像再構成処理部57は、バス60を介してカメラ信号処理部54や記憶部62からYCフォーマットの画像(全体画像、視点画像、または合成画像)を取得することができる。また、画像再構成処理部57は、バス60を介して領域特定部56や記憶部62から視点関連情報を取得することができる。
 さらに、画像再構成処理部57は、その取得した画像と取得した画像に関連付けられた視点関連情報とを用いて、例えば、奥行情報の生成や、任意の被写体にフォーカスを合わせた画像を生成(再構成)するリフォーカス等の画像処理を行うことができる。例えば、視点画像を処理対象とする場合、画像再構成処理部57は、その各視点画像を用いて奥行情報の生成やリフォーカス等の処理を行う。また、撮像画像や合成画像を処理対象とする場合、画像再構成処理部57は、その撮像画像や合成画像から各視点画像を抽出し、抽出した視点画像を用いて奥行情報の生成やリフォーカス等の処理を行う。
 画像再構成処理部57は、生成した奥行情報やリフォーカスされた画像を処理結果として、バス60を介して記憶部62に供給し、外部に記憶媒体63に記憶させることができる。また、画像再構成処理部57は、生成した奥行情報やリフォーカスされた画像を処理結果として、バス60を介して通信部64に供給し、送信させることができる。さらに、画像再構成処理部57は、生成した奥行情報やリフォーカスされた画像を処理結果として、バス60を介してファイル化部65に供給し、ファイル化させることができる。
   <バス>
 バス60には、イメージセンサ51、RAW信号処理部52、領域抽出部53、カメラ信号処理部54、表示用画像生成部55、領域特定部56、画像再構成処理部57、表示部61、記憶部62、通信部64、およびファイル化部65が接続される。バス60は、これらのブロック間で授受される各種データの伝送媒体(伝送路)として機能する。なお、このバス60は、有線により実現されてもよいし、無線通信により実現されてもよい。
   <表示部>
 表示部61は、例えば、表示パネル部33やビューファインダー部34を有する。表示部61は、画像の表示に関する処理を行う。例えば、表示部61は、表示用画像生成部55から供給されるYCフォーマットである取り込み画像の表示用画像を取得し、それをRGBフォーマットに変換してスルー画像として表示パネル部33やビューファインダー部34に表示させることができる。その他、表示部61は、例えば、メニュー、カメラ10の設定等の情報を表示することもできる。
 また、表示部61は、表示用画像生成部55から供給される撮像画像の確認用画像を取得し、表示パネル部33やビューファインダー部34に表示させることができる。さらに、表示部61は、表示用画像生成部55から供給される、記録済み(保存済み)の撮像画像の表示用画像を取得し、表示パネル部33やビューファインダー部34に表示させることができる。なお、表示部61が撮像画像のサムネイル画像を表示することができるようにしてもよい。
   <記憶部>
 記憶部62は、例えば、半導体メモリ等よりなる記憶媒体63の記憶を制御する。この記憶媒体63は、リムーバブルな記憶媒体であってもよいし、カメラ10に内蔵される記憶媒体であってもよい。
 記憶部62は、制御部81やユーザの操作等に応じて、バス60を介して供給される画像(撮像画像、視点画像、または合成画像)を記憶媒体63に記憶させることができる。
 例えば、記憶部62は、イメージセンサ51または領域抽出部53から供給されるRAWフォーマットの画像(全体画像、視点画像、または合成画像)を取得し、それを記憶媒体63に記憶させることができる。また、記憶部62は、RAW信号処理部52から供給される信号処理を施したRAWフォーマットの画像(全体画像、視点画像、または合成画像)を取得し、それを記憶媒体63に記憶させることができる。さらに、記憶部62は、RAW信号処理部52から供給される圧縮(符号化)したRAWフォーマットの画像(全体画像、視点画像、または合成画像)を取得し、記憶媒体63に記憶させることができる。また、記憶部62は、カメラ信号処理部54から供給されるYCフォーマットの画像(全体画像、視点画像、または合成画像)を取得し、それを記憶媒体63に記憶させることができる。
 その際、画像(全体画像、視点画像、または合成画像)と視点関連情報を互いに関連付けて、記憶媒体63に記憶させることができる。例えば、記憶部62は、領域特定部56から供給される視点関連情報を取得し、上述の画像(全体画像、視点画像、または合成画像)に関連付けて、記憶媒体63に記憶させることができる。つまり、記憶部62は、つまり、記憶部62は、全体画像、視点画像、および合成画像の内の少なくとも1つと視点関連情報とを関連付ける関連付け部として機能することになる。
 その他、記憶部62は、画像再構成処理部57から供給される奥行情報やリフォーカスされた画像を取得し、記憶媒体63に記憶させることができる。また、記憶部62は、ファイル化部65から供給されるファイルを取得し、記憶媒体63に記憶させることができる。このファイルは、画像(全体画像、視点画像、または合成画像)および視点関連情報を含む。つまり、このファイルにおいて、画像(全体画像、視点画像、または合成画像)および視点関連情報が互いに関連付けられている。
 また、記憶部62は、制御部81やユーザの操作等に応じて、記憶媒体63に記憶されているデータやファイル等を読み出すことができる。
 例えば、記憶部62は、記憶媒体63からYCフォーマットの撮像画像(全体画像、視点画像、または合成画像)を読み出し、表示用画像生成部55に供給し、その表示用画像を生成させることができる。また、記憶部62は、記憶媒体63からRAWフォーマットの画像(全体画像、視点画像、または合成画像)を読み出し、カメラ信号処理部54に供給し、カメラ信号処理を施させることができる。
 さらに、記憶部62は、画像(全体画像、視点画像、または合成画像)とともにその画像に関連付けられている視点関連情報も読み出すことができる。例えば、記憶部62は、記憶媒体63から、互いに関連付けられた画像(全体画像、視点画像、または合成画像)および視点関連情報のデータを読み出し、それらを画像再構成処理部57に供給し、奥行情報の生成やリフォーカス等の処理を行わせることができる。また、記憶部62は、記憶媒体63から、互いに関連付けられた画像(全体画像、視点画像、または合成画像)および視点関連情報を含むファイルを読み出し、そのファイルを画像再構成処理部57に供給し、奥行情報の生成やリフォーカス等の処理を行わせることができる。
 さらに、記憶部62は、記憶媒体63から、互いに関連付けられた画像(全体画像、視点画像、または合成画像)および視点関連情報のデータやファイルを読み出し、それらを通信部64に供給し、送信させることができる。また、記憶部62は、記憶媒体63から、互いに関連付けられた画像(全体画像、視点画像、または合成画像)および視点関連情報のデータを読み出し、それらをファイル化部65に供給し、ファイル化させることができる。
 なお、記憶媒体63は、ROM(Read Only Memory)であってもよいし、RAM(Random Access Memory)やフラッシュメモリ等のような書き換え可能なメモリであってもよい。書き換え可能なメモリの場合、記憶媒体63は、任意の情報を記憶することができる。
   <通信部>
 通信部64は、任意の通信方式により、インターネット上のサーバや、有線または無線LAN上のPC、その他の外部のデバイス等との間で通信を行う。通信部64は、制御部81の制御やユーザの操作等に応じて、その通信により、画像(撮像画像、視点画像、または合成画像)や視点関連情報等のデータやファイルを、ストリーミング方式やアップロード方式等により、通信相手(外部のデバイス)に送信することができる。
 例えば、通信部64は、イメージセンサ51や領域抽出部53から供給されるRAWフォーマットの画像(撮像画像、視点画像、または合成画像)を取得し、送信することができる。また、通信部64は、RAW信号処理部52から供給される信号処理を施したRAWフォーマットの画像(撮像画像、視点画像、または合成画像)や圧縮(符号化)した画像(撮像画像、視点画像、または合成画像)を取得し、送信することができる。さらに、通信部64は、カメラ信号処理部54から供給されるYCフォーマットの画像(撮像画像、視点画像、または合成画像)を取得し、送信することができる。
 その際、通信部64は、領域特定部56から供給される視点関連情報を取得し、上述の画像(全体画像、視点画像、または合成画像)に関連付けることができる。つまり、通信部64は、画像(全体画像、視点画像、または合成画像)と視点関連情報を互いに関連付けて、送信することができる。例えば、画像をストリーミング方式で送信する場合、通信部64は、送信する画像(全体画像、視点画像、または合成画像)を、その画像を供給する処理部から取得し、その画像に領域特定部56から供給される視点関連情報を関連付けて送信する処理を繰り返す。つまり、通信部64は、全体画像、視点画像、および合成画像の内の少なくとも1つと視点関連情報とを関連付ける関連付け部として機能することになる。
 また、例えば、通信部64は、画像再構成処理部57から供給される奥行情報やリフォーカスされた画像を取得し、送信することができる。さらに、通信部64は、ファイル化部65から供給されるファイルを取得し、送信することができる。このファイルは、例えば、画像(全体画像、視点画像、または合成画像)および視点関連情報を含む。つまり、このファイルにおいて、画像(全体画像、視点画像、または合成画像)および視点関連情報が互いに関連付けられている。
 なお、通信部64は、カメラ10の外部の装置(通信相手)から、画像(全体画像、視点画像、または合成画像)や視点関連情報のデータやファイルを取得することもできる。
   <ファイル化部>
 ファイル化部65は、ファイルの生成に関する処理を行う。例えば、ファイル化部65は、イメージセンサ51または領域抽出部53から供給されるRAWフォーマットの画像(全体画像、視点画像、または合成画像)を取得することができる。また、ファイル化部65は、RAW信号処理部52から供給される信号処理を施したRAWフォーマットの画像(全体画像、視点画像、または合成画像)または圧縮(符号化)したRAWフォーマットの画像(全体画像、視点画像、または合成画像)を取得することができる。さらに、ファイル化部65は、カメラ信号処理部54から供給されるYCフォーマットの画像(全体画像、視点画像、または合成画像)を取得することができる。また、例えば、ファイル化部65は、領域特定部56から供給される視点関連情報を取得することができる。
 ファイル化部65は、取得した複数のデータをファイル化して、その複数のデータを含む1つのファイルを生成することにより、その複数のデータを互いに関連付けることができる。例えば、ファイル化部65は、上述の画像(全体画像、視点画像、または合成画像)および視点関連情報から1つのファイルを生成することにより、それらを互いに関連付けることができる。つまり、ファイル化部65は、全体画像、視点画像、および合成画像の内の少なくとも1つと視点関連情報とを関連付ける関連付け部として機能することになる。
 また、例えば、ファイル化部65は、画像再構成処理部57から供給される奥行情報やリフォーカスされた画像を取得し、ファイル化することができる。さらに、ファイル化部65は、記憶部62から供給される、互いに関連付けられた画像(全体画像、視点画像、または合成画像)および視点関連情報から1つのファイルを生成することができる。
 なお、ファイル化部65は、ファイル化する画像(例えば視点画像)のサムネイル画像を生成し、それを生成したファイルに含めることができる。つまり、ファイル化部65は、ファイル化することにより、このサムネイル画像を、画像(全体画像、視点画像、または合成画像)や視点関連情報に関連付けることができる。
 ファイル化部65は、生成したファイル(互いに関連付けられた画像および視点関連情報)を、例えば、バス60を介して記憶部62に供給し、記憶媒体63に記憶させることができる。また、ファイル化部65は、生成したファイル(互いに関連付けられた画像および視点関連情報)を、例えば、バス60を介して通信部64に供給し、送信させることができる。
   <関連付け部>
 これらの記憶部62、通信部64、およびファイル化部65を関連付け部70とも称する。関連付け部70は、画像(全体画像、視点画像、または合成画像)と、視点関連情報とを関連付ける。例えば、記憶部62は、全体画像、視点画像、および合成画像の内の少なくとも1つと視点関連情報とを関連付けて記憶媒体63に記憶させることができる。また、通信部64は、全体画像、視点画像、および合成画像の内の少なくとも1つと視点関連情報とを関連付けて送信することができる。さらに、ファイル化部65は、全体画像、視点画像、および合成画像の内の少なくとも1つと視点関連情報とから1つのファイルを生成することにより、それらを関連付けることができる。
   <制御部>
 制御部81は、カメラ10に関する制御処理を行う。つまり、制御部81は、カメラ10の各部を制御し、処理を実行させることができる。例えば、制御部81は、光学系制御部84を介して多眼光学系30(各個眼光学系31)を制御し、絞りやフォーカス位置等の撮像に関する光学系の設定を行わせることができる。また、制御部81は、イメージセンサ51を制御し、イメージセンサ51に撮像(光電変換)を行わせ、撮像画像を生成させることができる。
 さらに、制御部81は、視点関連情報(VI)を領域特定部56に供給し、撮像画像から抽出する領域を特定させることができる。なお、この視点関連情報(VI)には、スポット光情報(SI)が含まれていてもよい。また、制御部81は、記憶媒体83に記憶されている視点関連情報(VI)を、記憶部82を介して読み出し、領域特定部56に供給してもよい。
 また、制御部81は、表示用画像の生成に関する制御情報を表示用画像生成部55に供給してもよい。例えば、制御部81は、ダイヤル35やボタン36等の入力デバイスを介してユーザの操作を受け付け、その受け付けた操作に応じて制御情報を生成し、それを表示用画像生成部55に供給してもよい。また、制御部81は、記憶部82が記憶媒体83から読み出した制御情報を取得し、それを表示用画像生成部55に供給してもよい。さらに、制御部81は、記憶部82が記憶媒体83から読み出した制御情報を取得し、ダイヤル35やボタン36等の入力デバイスを介してユーザの操作を受け付け、その受け付けた操作に応じて制御情報を更新し、それを表示用画像生成部55に供給してもよい。
 また、制御部81は、バス60を介して画像を取得し、その画像の明るさに基づいて、光学系制御部84を介して絞りを制御することができる。さらに、制御部81は、その画像の鮮鋭度に基づいて、光学系制御部84を介してフォーカスを制御することができる。また、制御部81は、その画像のRGB比率に基づいてカメラ信号処理部54を制御し、ホワイトバランスゲインを制御することができる。
   <記憶部>
 記憶部82は、例えば、半導体メモリ等よりなる記憶媒体83の記憶を制御する。この記憶媒体83は、リムーバブルな記憶媒体であってもよいし、内蔵メモリであってもよい。この記憶媒体83には、例えば、視点関連情報(VI)が記憶されている。この視点関連情報(VI)は、多眼光学系30(の各個眼光学系31)およびイメージセンサ51に対応する情報である。つまり、視点関連情報(VI)は、この多眼光学系30の各個眼光学系31を視点とする視点画像に関する情報であり、その視点画像領域を特定するために用いられる情報である。例えば、この視点関連情報(VI)には、スポット光情報(SI)が含まれていてもよい。
 例えば、記憶部82は、制御部81からの要求やユーザの操作等に応じて、記憶媒体83に記憶されている視点関連情報(VI)を読み出し、制御部81に供給することができる。
 なお、記憶媒体83は、ROMであってもよいし、RAMやフラッシュメモリ等のような書き換え可能なメモリであってもよい。書き換え可能なメモリの場合、記憶媒体83は、任意の情報を記憶することができる。
 また、記憶媒体83が、表示用画像の生成に関する制御情報を記憶し、記憶部82が、制御部81からの要求やユーザの操作等に応じて、その制御情報を読み出し、制御部81に供給してもよい。
 また、記憶部82および記憶媒体83を記憶部62および記憶媒体63により代用してもよい。つまり、上述した記憶媒体83に記憶させる情報(視点関連情報(VI)等)を記憶媒体63に記憶させてもよい。その場合、記憶部82および記憶媒体83は、省略してもよい。
   <光学系制御部>
 光学系制御部84は、制御部81の制御に従って、多眼光学系30(の各個眼光学系31)を制御する。例えば、光学系制御部84は、各個眼光学系31のレンズ群や絞りを制御し、各個眼光学系31の焦点距離若しくはF値、またはその両方を制御することができる。なお、カメラ10が電動フォーカス調整機能を有する場合、光学系制御部84は、多眼光学系30(の各個眼光学系31の)フォーカス(焦点距離)を制御することができる。また、光学系制御部84が、各個眼光学系31の絞り(F値)を制御することができるようにしてもよい。
 なお、カメラ10が、このような電動フォーカス調整機能を備える代わりに、鏡筒に設けられたフォーカスリングを手動により操作することにより、焦点距離を調整する機構(物理的構成)を備えるようにしてもよい。その場合、この光学系制御部84は、省略することができる。
  <視点関連情報の関連付け>
 カメラ10は、撮像画像から、各個眼光学系31を視点とする視点画像を抽出し得る。1枚の撮像画像から抽出された複数の視点画像は互いに異なる視点の画像であるので、これらの視点画像を用いて、例えば多眼マッチングによる奥行推定や多眼レンズの取り付け誤差抑制のための補正等の処理を行うことができる。ただし、これらの処理を行うためには、各視点画像間の相対位置等の情報が必要である。
 そこで、カメラ10は、出力する全体画像、視点画像、または、合成画像に対して、撮像画像における複数の視点画像の領域を特定するために用いられる情報である視点関連情報を関連付ける。
 ここで、「関連付ける」という用語は、例えば、一方のデータを処理する際に他方のデータを利用し得る(リンクさせ得る)ようにすることを意味する。つまり、撮像画像と視点関連情報のデータ(ファイル)としての形態は任意である。例えば、撮像画像と視点関連情報とが、1つのデータ(ファイル)としてまとめられてもよいし、それぞれ個別のデータ(ファイル)としてもよい。例えば、撮像画像に関連付けられた視点関連情報は、その撮像画像とは別の伝送路上で伝送されるようにしてもよい。また、例えば、撮像画像に関連付けられた視点関連情報は、その撮像画像とは別の記録媒体(または同一の記録媒体の別の記録エリア)に記録されるようにしてもよい。勿論、撮像画像と視点関連情報とをまとめて、1つのストリームデータにしたり、1つのファイルにしたりしてもよい。
 なお、視点関連情報を関連付ける画像は、静止画像でもよいし動画像でもよい。動画像の場合、各フレーム画像において、静止画像の場合と同様に領域抽出や視点関連情報の関連付け等を行うことができる。
 また、この「関連付け」は、データ全体でなく、データ(ファイル)の一部であってもよい。例えば、撮像画像が複数フレームからなる動画像である場合、視点関連情報が、撮像画像の、複数フレーム、1フレーム、またはフレーム内の一部分などの任意の単位に対して関連付けられるようにしてもよい。
 なお、撮像画像と視点関連情報とが個別のデータ(ファイル)とされる場合は、その撮像画像と視点関連情報の双方に同じ識別番号を付与することなどで、両者を関連付けることができる。また、撮像画像と視点関連情報とが1つのファイルにまとめられる場合、例えば、撮像画像のヘッダ等に視点関連情報が付与されるようにしてもよい。なお、視点関連情報が関連付けられる対象は、撮像画像(全体画像)であってもよいし、視点画像であってもよいし、視点画像の合成画像であってもよい。
  <全体画像の出力>
 全体画像を出力する場合について説明する。全体画像の例を図5に示す。図5に示されるように、全体画像130には、各個眼光学系31に対応する個眼画像(各個眼光学系31を介して入射された被写体からの光を光電変換した画像)が含まれる。例えば、全体画像130の中央の画像が個眼光学系310に対応する個眼画像である。また、全体画像130の右上の画像が個眼光学系311に対応する個眼画像である。さらに、全体画像130の左上の画像が個眼光学系312に対応する個眼画像である。また、全体画像130の左下の画像が個眼光学系313に対応する個眼画像である。さらに、全体画像130の右下の画像が個眼光学系314に対応する個眼画像である。
 なお、この全体画像130は、イメージセンサ51により生成される撮像画像全体であってもよいし、その撮像画像より切り出された部分画像(ただし、全ての個眼画像を含む)であってもよい。また、この全体画像130は、RAWフォーマットの画像であってもよいし、YCフォーマットの画像であってもよい。
 視点領域情報により、全体画像130に対して各個眼画像の一部(有効な部分)が視点画像領域として指定される。例えば図5の場合、全体画像130の、点線枠で囲まれた領域が視点画像領域である。つまり、個眼光学系310に対応する個眼画像の一部(有効な部分)が視点画像領域1310として指定される。同様に、個眼光学系311に対応する個眼画像の一部(有効な部分)が視点画像領域1311として指定される。また、個眼光学系312に対応する個眼画像の一部(有効な部分)が視点画像領域1312として指定される。さらに、個眼光学系313に対応する個眼画像の一部(有効な部分)が視点画像領域1313として指定される。また、個眼光学系314に対応する個眼画像の一部(有効な部分)が視点画像領域1314として指定される。なお、以下において、視点画像領域1310乃至視点画像領域1314を互いに区別して説明する必要がない場合、視点画像領域131と称する。
 このような全体画像130を出力する場合、関連付け部70は、イメージセンサ51、RAW信号処理部52、または、カメラ信号処理部54からこの全体画像130を取得し、領域特定部56から供給される多眼光学系30に対応する視点関連情報を、その全体画像130に関連付ける。そして、関連付け部70は、その互いに関連付けた全体画像および視点関連情報を出力する。出力の例としては、例えば、記憶部62が、その互いに関連付けた全体画像および視点関連情報を記憶媒体63に記憶させてもよい。また、通信部64が、その互いに関連付けた全体画像および視点関連情報を送信してもよい。さらに、ファイル化部65が、その互いに関連付けた全体画像および視点関連情報をファイル化してもよい。
 なお、全体画像と視点関連情報との関連付けは、領域抽出部53において行われるようにしてもよい。つまり、領域抽出部53が、出力する全体画像に対して領域特定部56から供給された視点関連情報を関連付け、その互いに関連付けた全体画像および視点関連情報をバス60、RAW信号処理部52、またはカメラ信号処理部54に供給するようにしてもよい。
 この場合の視点関連情報は、撮像画像における複数の視点画像領域を示す視点領域情報を含む。視点領域情報は、視点画像領域をどのように表してもよい。例えば、撮像画像における個眼光学系31の光軸に対応する位置を示す座標(視点画像領域の中心座標)と視点画像(視点画像領域)の解像度(画素数)とにより、視点画像領域が表されるようにしてもよい。つまり、視点領域情報が、撮像画像における視点画像領域の中心座標と視点画像領域の解像度とを含むようにしてもよい。この場合、視点画像領域の中心座標とその視点画像領域の解像度(画素数)から、全体画像130の内の視点画像領域の場所を特定することができる。
 撮像画像にこのような視点関連情報を関連付けることにより、多眼マッチングによる奥行推定や、多眼光学系30の取り付け(設置)の際に生じる誤差の抑制のための処理等の後段処理のための事前処理としての視点画像の抽出において、この視点関連情報を用いることができる。例えば、画像再構成処理部57は、この視点関連情報に含まれる視点領域情報に基づいて各視点画像を抽出したうえで、多眼マッチングによる奥行推定や、リフォーカス処理、多眼光学系30の取り付け(設置)の際に生じる誤差の抑制のための処理等の後段処理を行うことができる。
 なお、全体画像130に視点関連情報が関連付けられていなくても、例えば画像再構成処理部57は、画像処理により、全体画像130に含まれる視点画像領域を特定することができる可能性があるが、撮像条件などによって撮像画像の内の視点画像領域を正確に特定することは困難な可能性がある。そこで、上述のように視点関連情報を全体画像130に関連付けることにより、画像再構成処理部57は、その視点関連情報に基づいて、より容易かつより正確に上述の全体画像130から視点画像領域を抽出することができる。
  <視点画像の出力>
 次に、視点画像を出力する場合について説明する。図6は、切り出された視点画像の例を示す図である。図6において、視点画像1320は、全体画像130(図5)から視点画像領域1310を抽出した画像である。視点画像1321は、全体画像130から視点画像領域1311を抽出した画像である。視点画像1322は、全体画像130から視点画像領域1312を抽出した画像である。視点画像1323は、全体画像130から視点画像領域1313を抽出した画像である。視点画像1324は、全体画像130から視点画像領域1314を抽出した画像である。以下において、視点画像1320乃至視点画像1324を互いに区別して説明する必要がない場合、視点画像132と称する。
 このような視点画像を出力する場合、領域抽出部53は、この図6の例のように切り出した各視点画像132を、それぞれ独立したデータ(またはファイル)として出力する。
 例えば、領域抽出部53は、領域特定部56から供給された視点関連情報に従って撮像画像(全体画像)から視点画像を切り出す。領域抽出部53は、その切り出した各視点画像に、各視点を識別するための視点識別情報(例えば、識別番号)を割り当てる。領域抽出部53は、その視点識別情報を割り当てた各視点画像をカメラ信号処理部54に供給する。カメラ信号処理部54は、そのRAWフォーマットの各視点画像にカメラ信号処理を施し、YCフォーマットの各視点画像を生成する。カメラ信号処理部54は、そのYCフォーマットの各視点画像を関連付け部70に供給する。また、領域特定部56は、領域抽出部53に供給した視点関連情報を関連付け部70に供給する。
 関連付け部70は、各視点画像に対して、その視点画像に対応する視点関連情報を関連付ける。視点関連情報は、各視点を識別するための視点識別情報(例えば、視点識別番号)を含み得る。関連付け部70は、この視点識別情報に基づいて、各視点画像に対して、その視点画像に対応する視点関連情報を関連付ける。この視点識別情報を参照することにより、関連付け部70は、どの視点関連情報がどの視点画像に対応するかを容易に把握することができる。つまり、関連付け部70は、この視点識別情報を用いることにより、より容易に、各視点画像および視点関連情報を正しく関連付けることができる。
 そして、関連付け部70は、その互いに関連付けた各視点画像および視点関連情報を出力する。例えば、記憶部62が、その互いに関連付けた各視点画像および視点関連情報を記憶媒体63に記憶させてもよい。また、通信部64が、その互いに関連付けた各視点画像および視点関連情報を送信してもよい。さらに、ファイル化部65が、その互いに関連付けた各視点画像および視点関連情報をファイル化してもよい。
 なお、各視点画像と視点関連情報との関連付けは、領域抽出部53において行われるようにしてもよい。つまり、領域抽出部53が、出力する各視点画像に対して領域特定部56から供給された視点関連情報を関連付け、その互いに関連付けた各視点画像および視点関連情報をバス60、RAW信号処理部52、またはカメラ信号処理部54に供給するようにしてもよい。
 また、視点関連情報に、視点画像が抽出される撮像画像が撮像された時刻や順番を示す視点時刻情報が含まれるようにしてもよい。複数の撮像画像から抽出された視点画像が混在する場合や動画像や連写画像である場合、どの視点画像がどの撮像画像から抽出されたものであるかの識別が困難になるおそれがある。撮像画像の生成時刻や順番を示す視点時刻情報を視点画像に関連付けることにより、各視点画像に対応する撮像画像(各視点画像が抽出された撮像画像)の識別をより容易に行うことができる。換言するに、互いに同一の撮像画像から抽出された複数の視点画像をより容易に特定することができる。付言するに、記録されたファイルが一括管理されていない場合においても、同時刻の各視点画像を特定することができる。
 なお、視点画像の場合と同様に個眼画像を撮像画像から切り出し、処理したり記録したりしてもよい。
  <合成画像の出力>
 次に、合成画像を出力する場合について説明する。図7は、各視点画像を合成した合成画像の例を示す図である。図7の例の場合、図6の例において抽出された視点画像1320乃至視点画像1324が1枚の画像内に並んで表示されるように合成されてなる1枚の合成画像133が生成されている。つまり、合成画像133は、各視点画像132が合成されて、1データ化(1フレーム化)、または、1ファイル化されたものである。
 なお、図7においては、合成画像133の視点画像1320乃至視点画像1324の周囲に余白領域が示されているが、合成画像133がこの余白領域を有していてもよいし、有していなくてもよい。また、合成画像133の形状は、矩形であればよく、各視点画像132の配置方法(並べ方)は任意である。図7の例のように、5枚の視点画像132を2行3列に並べる場合に生ずる空白領域(6枚目の視点画像132に相当する領域)は、null dataや固定値で表すようにしてもよい。
 例えば、領域抽出部53は、領域特定部56から供給された視点関連情報に従って撮像画像(全体画像)から視点画像を切り出す。領域抽出部53は、その切り出した各視点画像を1枚の画像内に並んで表示されるように合成して合成画像を生成する。その際、各視点画像の並び順(位置)を予め定めておくことにより、合成画像に含まれる各視点画像がどの視点の画像であるかを容易に把握することができる。
 また、各視点画像に視点識別情報(例えば、識別番号)を割り当ててから合成するようにしてもよい。この場合も同様に、合成画像に含まれる各視点画像がどの視点の画像であるかを容易に把握することができる。以下においては、合成画像における各視点画像の並び順が予め定められているものとする。
 領域抽出部53は、視点識別情報を割り当てた合成画像をカメラ信号処理部54に供給する。カメラ信号処理部54は、そのRAWフォーマットの合成画像にカメラ信号処理を施し、YCフォーマットの合成画像を生成する。カメラ信号処理部54は、そのYCフォーマットの合成画像を関連付け部70に供給する。また、領域特定部56は、領域抽出部53に供給した視点関連情報を関連付け部70に供給する。
 関連付け部70は、合成画像に対して視点関連情報を関連付ける。合成画像に含まれる各視点画像の視点は、合成画像におけるその視点画像の位置により明らかである。つまり、各視点画像が視点関連情報のどの視点領域情報に対応するかは、容易に把握することができる。
 そして、関連付け部70は、その互いに関連付けた合成画像および視点関連情報を出力する。例えば、記憶部62が、その互いに関連付けた合成画像および視点関連情報を記憶媒体63に記憶させてもよい。また、通信部64が、その互いに関連付けた合成画像および視点関連情報を送信してもよい。さらに、ファイル化部65が、その互いに関連付けた画像および視点関連情報をファイル化してもよい。
 なお、合成画像と視点関連情報との関連付けは、領域抽出部53において行われるようにしてもよい。つまり、領域抽出部53が、出力する合成画像に対して領域特定部56から供給された視点関連情報を関連付け、その互いに関連付けた合成画像および視点関連情報をバス60、RAW信号処理部52、またはカメラ信号処理部54に供給するようにしてもよい。
  <被写体の撮像>
 例えば、図8の例のように、カメラ10を用いて被写体141および被写体142を撮像するとする。図8に示されるように、カメラ10から見て、被写体141の方が被写体142よりも近くに(手前側に)位置するものとする。
 図9に示される全体画像130は、その場合の、カメラ10において取り込み画像または撮像画像として得られる全体画像の一例である。図5の例の場合と同様に、この全体画像130には、各個眼光学系31に対応する(つまり各個眼光学系31を視点とする)個眼画像が含まれる。
 例えば、全体画像130の被写体1410および被写体1420は、イメージセンサ51が個眼光学系310を介して受光した光を光電変換して生成した被写体141および被写体142の画像である。つまり、被写体1410および被写体1420は、個眼光学系310を視点とする(個眼光学系310に対応する)被写体141および被写体142の画像である。また、全体画像130の被写体1411および被写体1421は、イメージセンサ51が個眼光学系311を介して受光した光を光電変換して生成した被写体141および被写体142の画像である。つまり、被写体1411および被写体1421は、個眼光学系311を視点とする(個眼光学系311に対応する)被写体141および被写体142の画像である。
 同様に、全体画像130の被写体1412および被写体1422は、イメージセンサ51が個眼光学系312を介して受光した光を光電変換して生成した被写体141および被写体142の画像である。つまり、被写体1412および被写体1422は、個眼光学系312を視点とする(個眼光学系312に対応する)被写体141および被写体142の画像である。また、全体画像130の被写体1413および被写体1423は、イメージセンサ51が個眼光学系313を介して受光した光を光電変換して生成した被写体141および被写体142の画像である。つまり、被写体1413および被写体1423は、個眼光学系313を視点とする(個眼光学系313に対応する)被写体141および被写体142の画像である。さらに、全体画像130の被写体1414および被写体1424は、イメージセンサ51が個眼光学系314を介して受光した光を光電変換して生成した被写体141および被写体142の画像である。つまり、被写体1414および被写体1424は、個眼光学系314を視点とする(個眼光学系314に対応する)被写体141および被写体142の画像である。
  <画像表示>
 カメラ10は、画像を例えば表示パネル部33やビューファインダー部34に表示させることができる。例えば、ユーザがシャッタボタンを押下する等して被写体を撮像する前に構図の確認等を行うことができるように、カメラ10は、取り込み画像から表示用画像を生成し、その表示用画像をスルー画像として表示させることができる。カメラ10は、このような表示をイメージセンサ51が取り込んだ取り込み画像の毎フレームについて行う。ユーザは、このように表示された画像(表示画像とも称する)を確認しながらフレーミング(画角の調整)等を行うことにより、より容易にユーザの意図に応じた撮像を行うことができる。
 また、例えば、ユーザがシャッタボタンを押下する等して被写体を撮像した直後にその撮像結果(つまり、撮像画像)の確認を行うことができるように、カメラ10は、撮像画像から表示用画像を生成し、その表示用画像を確認用画像として表示させることができる。さらに、例えば、ユーザが過去に撮像し保存した撮像画像の確認を行うことができるように、カメラ10は、記憶媒体83等に保存された画像から表示用画像を生成し、その表示用画像を表示させることができる。
 一般的に、単眼の光学系を用いて撮像する場合、イメージセンサ51に結像される像全体がスルー画像として表示される。しかしながら、複数の個眼光学系31を用いて撮像された全体画像130(図9)の場合、各個眼光学系31を視点とする個眼画像が全体画像130に含まれるため、この全体画像130をスルー画像等として表示部61(表示パネル部33やビューファインダー部34等)に表示させると、単眼の光学系を用いて撮像する場合に比べて各個眼画像が非常に小さくなり、その表示された画像においてユーザによる被写体の視認が困難になるおそれがあった。そのため、例えば、その表示された画像に基づいて、ユーザが、画角(構図)の調整(フレーミング)等を行うことが困難になるおそれがあった。
 撮像画像の確認用画像や保存済みの画像の表示用画像を表示させる場合も同様であり、全体画像130では、その表示された画像においてユーザによる被写体の視認が困難になるおそれがあった。
 そこで、1つの個眼画像を切り出して表示する方法が考えられた。例えば図9の場合、被写体1410および被写体1420を含む領域を切り出し、その領域の画像をスルー画像等として表示部61(表示パネル部33やビューファインダー部34等)に表示させる。このようにすることにより、表示部61において、被写体を大きく表示させることができ、ユーザがより容易に被写体を視認することができる。
 しかしながら、この方法の場合、1つの個眼画像しか表示されないため、ユーザがその表示された画像に基づいて各個眼画像がどの程度の視差を持つかを確認することが困難であった。
  <複数個眼画像のローテーション表示>
 そこで、表示する個眼画像を動的に切り替えるようにする。例えば、図9の全体画像130の場合、個眼切り出し画像1510、個眼切り出し画像1511、個眼切り出し画像1512、個眼切り出し画像1513、および個眼切り出し画像1514を切り出す。
 個眼切り出し画像1510は、個眼光学系310に対応する個眼画像の一部または全部であり、被写体1410および被写体1420を含む。個眼切り出し画像1511は、個眼光学系311に対応する個眼画像の一部または全部であり、被写体1411および被写体1421を含む。個眼切り出し画像1512は、個眼光学系312に対応する個眼画像の一部または全部であり、被写体1412および被写体1422を含む。個眼切り出し画像1513は、個眼光学系313に対応する個眼画像の一部または全部であり、被写体1413および被写体1423を含む。個眼切り出し画像1514は、個眼光学系314に対応する個眼画像の一部または全部であり、被写体1414および被写体1424を含む。
 以下において、個眼切り出し画像1514乃至個眼切り出し画像1514を互いに区別して説明する必要がない場合、個眼切り出し画像151と称する。また、切り出し前の画像(例えば全体画像130)における個眼切り出し画像151の領域を個眼切り出し領域とも称する。
 そして、このような各個眼切り出し画像151の一部または全部を、所定の順に動的に切り替えながら表示させる。例えば、図10に示されるように、各個眼切り出し画像151を、個眼切り出し画像1510、個眼切り出し画像1513、個眼切り出し画像1512、個眼切り出し画像1511、個眼切り出し画像1514の順に、繰り返し表示させる。
 各個眼切り出し画像151は、視点位置が異なるので、画像間で視差が生じる。したがって、図11に示されるように、個眼切り出し画像1510乃至個眼切り出し画像1514を互いに同じ位置に重畳させると、被写体1420乃至被写体1424の位置が互いにズレる。つまり、各個眼切り出し画像151を連続して表示すると、ユーザには、図11に示されるように、被写体142がブレているように見える。ユーザはこのブレの大きさにより、被写体がどの程度の視差をもって撮像されるのかを直感的に把握することができる。
 また、この場合、全体画像130を表示させる場合よりも、各個眼切り出し画像151を大きく表示させることができるので、視認性の低減を抑制することができる。したがって、この表示された画像に基づいて画角(構図)の調整(フレーミング)等をより容易に行うことができる。つまり、被写体の視認のしやすさとフレーミングのしやすさを実現するとともに、各個眼による画像の視差の把握の容易化を実現することができる。
 以上のように、光路が互いに独立している複数の個眼光学系を視点とする複数の画像の内のいずれか1つを選択的、かつ、動的に切り替えながら表示部で表示させる。
 例えば、情報処理装置において、光路が互いに独立している複数の個眼光学系を視点とする複数の画像の内のいずれか1つを選択的、かつ、動的に切り替えながら表示部で表示させる表示制御部を備えるようにする。
 また、例えば、プログラムにより、コンピュータを、光路が互いに独立している複数の個眼光学系を視点とする複数の画像の内のいずれか1つを選択的、かつ、動的に切り替えながら表示部で表示させる表示制御部として機能させるようにする。
 このようにすることにより、互いに異なる個眼光学系を視点とする複数の画像同士の視差をより容易に把握することができる。
 例えば、図10の例のように、その複数の画像の一部または全部を、所定の順に1つずつ選択して表示させるようにしてもよい。
 例えば、スルー画像を表示する場合、カメラ10(表示用画像生成部55)は、動画像である取り込み画像の各フレームから個眼切り出し画像151を1つずつ抽出し、表示させる。
 また、撮像画像が静止画像であるとするとその撮像画像の確認用画像を表示する場合、カメラ10(表示用画像生成部55)は、静止画像である撮像画像から複数の個眼切り出し画像151を抽出し、順次表示させる。保存済みの撮像画像を表示させる場合も同様である。なお、撮像画像が動画像である場合、カメラ10(表示用画像生成部55)は、スルー画像の場合と同様に、各フレームから個眼切り出し画像151を1つずつ抽出し、表示させる。
  <個眼切り出し領域>
 次に、以上のように切り出す個眼切り出し領域について説明する。全体画像130において、各個眼画像の一部または全部の領域が、それぞれ個眼切り出し領域として設定される。つまり、全体画像130に設定される個眼切り出し領域の数と大まかな位置は、個眼画像と同様になる。
 個眼切り出し領域の大きさは、個眼画像を超えない範囲で任意である。例えば、個眼切り出し領域の大きさを視点画像領域と同一としてもよい。また、個眼切り出し領域の大きさは、可変としてもよい(例えばユーザが設定できるようにしてもよい)が、ここでは固定として説明する。さらに、表示画像の見やすさから、各個眼切り出し領域の大きさは互いに同一であることが望ましい。
 個眼切り出し領域の形状は任意である。ここでは矩形であるとして説明する。また、表示画像の見やすさから、各個眼切り出し領域の形状は互いに同一であることが望ましい。
  <個眼切り出し領域のシフト>
 ところで、図9の例の場合、各個眼切り出し画像151において被写体141の位置が互いに同一である(中央に位置する)。したがって、これらの個眼切り出し画像151を連続して表示させた場合、図10の例のように、被写体141はブレない。つまり、所望の被写体の各個眼切り出し画像151における位置を互いに同一にすることにより、その被写体をブレないように表示させることができる。
 上述したように各個眼画像は視差を有しており、被写体の各個眼画像における位置は、その視差の方向にシフトする。つまり、各個眼切り出し領域の個眼画像における位置を、その視差の方向にシフトさせ、所望の被写体の各個眼切り出し画像151における位置を互いに同一にすることにより、その被写体をブレないように表示させることができる。
 このシフトの方向(視差の方向)は、個眼切り出し画像151(または個眼画像)の配置パタン、つまり、多眼光学系30における個眼光学系31のレイアウト(数や位置等)に依存する。
 ここで個眼画像の視差について説明する。一般的に、個眼画像間において、カメラ10に近い被写体程その視差は大きくなり、カメラ10から遠い被写体程その視差は小さくなる。例えば、図9の場合、各個眼画像の被写体141の位置ズレの方が、被写体142の位置ズレより大きい。
 したがって、個眼切り出し領域のシフト量を大きくする程、カメラ10により近い被写体のブレ幅を低減させることができ、個眼切り出し領域のシフト量を小さくする程、カメラ10からより遠い被写体のブレ幅を低減させることができる。つまり、個眼切り出し領域のシフト量は、ブレ幅を低減させる(典型的にはブレないように表示させる)被写体とカメラ10との距離に依存する。
 このシフト量をユーザやアプリケーション等が制御することができるようにしてもよい。上述のように、シフト量は、カメラ10から、表示画面においてブレ幅を低減させる被写体までの距離によって定まるので、ユーザやアプリケーションがこのシフト量を指定することにより、カメラ10からそのシフト量に対応する距離にある被写体のブレ幅を低減させることができる。
 例えば、図12に示されるように、このシフト量をベクトル情報(方向および大きさ)として指定するようにしてもよい。図12の例の場合、個眼切り出し画像1511の領域のシフトの方向および大きさが、ベクトル情報であるシフト量1611により指定される。同様に、個眼切り出し画像1512の領域のシフトの方向および大きさが、シフト量1612により指定され、個眼切り出し画像1513の領域のシフトの方向および大きさが、シフト量1613により指定され、個眼切り出し画像1514の領域のシフトの方向および大きさが、シフト量1614により指定される。以下において、シフト量1611乃至シフト量1614を互いに区別して説明する必要がない場合、シフト量161と称する。なお、個眼切り出し画像1510の領域は、全体画像130の中央に位置するので基準とし、シフトさせない(固定である)。
 例えば、ユーザやアプリケーションは、所望の被写体とカメラ10との距離に対応するシフト量161を設定する。例えば、ユーザやアプリケーションが距離を指定すると、その指定された距離に対応するシフト量161が設定されるようにしてもよい。この設定に応じて個眼切り出し領域がシフトされ、表示画像においてその所望の被写体のブレ幅が抑制される(典型的にはブレないようにすることができる)。つまり、カメラ10は、表示画像において、そのカメラ10から任意の距離にある被写体のブレ幅を低減させることができる。
 被写体142のブレ幅を低減させるように、個眼切り出し領域をシフトさせた場合の例を、図13に示す。図13の例の場合、個眼切り出し画像1510における被写体1420の位置、個眼切り出し画像1511における被写体1421の位置、個眼切り出し画像1512における被写体1422の位置、個眼切り出し画像1513における被写体1423の位置、並びに、個眼切り出し画像1514における被写体1424の位置が互いに同一である。つまり、各個眼切り出し画像151における被写体142の位置が互いに同一である。
 したがって、これらの個眼切り出し画像151を順次表示させた場合、その表示画像は、図14のようになる。つまり、カメラ10は、図14に示されるように、ユーザに、被写体142がブレずに見え、被写体141がブレて見えるように、個眼切り出し画像151を表示することができる。
 なお、カメラ10と被写体との距離の計測方法は、任意である。例えば、ユーザが目視でカメラ10と被写体との距離を計測し、指定してもよいし、距離計測センサ等によりカメラ10と被写体との距離を計測するようにしてもよい。
 なお、このシフト量は固定としてもよい。例えば、シフト量を、個眼光学系31(レンズ)の光学特性に応じた推奨撮影距離に対応した値等に固定してもよい。その場合、撮影者は、被写体の視差(つまり、表示画像における被写体の動き)が小さくなるように、カメラ10と被写体との距離を調整することで、推奨撮影距離に合致した距離で撮影を行うことができる。つまり、ユーザは、この表示機能を用いて、被写体との距離を簡易的に計測することができる。
  <切り替えの周期>
 なお、以上のように表示させる個眼切り出し画像151を動的に切り替える場合に、その表示させる個眼切り出し画像151を所定の周期毎に切り替えるようにしてもよい。
 この切り替えの周期は任意である。例えば、毎フレーム(単数フレーム)であってもよいし、複数フレームであってもよい。
 また、この切り替えの周期をユーザ(撮影者)が切り替えることができるようにしてもよい。例えば、ユーザがカメラ10のダイヤル35やボタン36等の入力デバイスを操作することにより、その切り替え周期を設定することができるようにしてもよい。例えば、このように入力されたユーザにより切り替え周期の指定を制御部81が受け付け、その切り替え周期を示す制御情報を表示用画像生成部55に供給するようにしてもよい。
  <個眼切り出し画像の表示順>
 なお、このような個眼切り出し画像151を動的に切り替えて表示させる場合の、個眼切り出し画像151の選択順(表示順)の例を図10に示したが、この選択順は任意であり、図10の例に限定されない。図10の例のように、カメラ10が全ての個眼切り出し画像151を順次表示するようにしてもよいし、図15の例のように、カメラ10が一部の個眼切り出し画像151を所定の順に表示するようにしてもよい。
 図15の例の場合、表示用画像生成部55は、個眼切り出し画像1510を抽出せず、表示させない。表示用画像生成部55は、個眼切り出し画像1513、個眼切り出し画像1512、個眼切り出し画像1511、個眼切り出し画像1514の順に、それらの個眼切り出し画像151を取り込み画像(または撮像画像)から抽出し、表示部61に表示させる。
 つまり、この場合、表示用画像生成部55は、複数の個眼切り出し画像151の内、それらの相対的な位置関係において外周部に位置する個眼切り出し画像151(の一部または全部)を、所定の順に1つずつ抽出し、表示部61に表示させている。
 このようにすることにより、表示部61により表示された表示画像において、被写体142が四角形を描くように移動するように見える。したがって、ユーザがこの被写体142の動きを追う場合、ユーザの視線の移動方向が上下方向および左右方向に限定され、かつ、その向きも限定される。つまり、ユーザの視線の動きは四角形を描くような動きに単純化される。そのため、ユーザは、被写体142の位置がランダムに変化する場合に比べて、より容易に被写体142の動きを追うことができる。つまり、被写体142の見え方がよりスムーズになる。
 また、図15の例の場合、外周部の個眼切り出し画像151が表示されるので、この表示により、ブレて見える被写体142の位置が変化する範囲の全体が表現することができる。例えば、個眼切り出し画像1510および個眼切り出し画像1513のみを表示させても被写体142の位置が変化する範囲の一部しか表現することができない。例えば個眼切り出し画像1511における被写体142の位置は表現することができない。そのため、実際の視差がどの程度であるかを把握することが困難になるおそれがある。これに対して図15の例のように表示を行うことにより、ユーザは視差の大きさをより正確に把握することができる。
 また、図10や図15に示されるような個眼切り出し画像151の表示の1周期の間に、1つの個眼切り出し画像151を複数回表示してもよい。例えば、図16や図17に示されるような順で個眼切り出し画像151を抽出し、表示させるようにしてもよい。図16や図17の例の場合、個眼切り出し画像151の表示の1周期の間に、個眼切り出し画像1510が2回表示される。
 また、複数の個眼切り出し画像151の一部または全部を、その複数の個眼切り出し画像151(の各視点)の相対的な位置関係において走査の軌跡が線対称となる順に、1つずつ選択して表示させるようにしてもよい。例えば図16に示されるように、表示用画像生成部55が、個眼切り出し画像1510、個眼切り出し画像1513、個眼切り出し画像1512、個眼切り出し画像1510、個眼切り出し画像1511、個眼切り出し画像1514の順に、それらの個眼切り出し画像151を取り込み画像(または撮像画像)から抽出し、表示部61に表示させるようにしてもよい。
 このようにすることにより、表示画像において被写体142の動きが左右方向および上下方向に線対称に見える。したがって、ユーザがこの被写体142の動きを追う場合、ユーザの視線の動きも線対称となり、視点移動の連続性が向上する。そのため、ユーザは、被写体142の位置がランダムに変化する場合に比べて、より容易に被写体142の動きを追うことができる。つまり、被写体142の見え方がよりスムーズになる。
 また、複数の個眼切り出し画像151の一部または全部を、その複数の個眼切り出し画像151(の各視点)の相対的な位置関係において走査の軌跡が回転対称となる順に、1つずつ選択して表示させるようにしてもよい。例えば図17に示されるように、表示用画像生成部55が、個眼切り出し画像1510、個眼切り出し画像1513、個眼切り出し画像1512、個眼切り出し画像1510、個眼切り出し画像1514、個眼切り出し画像1511の順に、それらの個眼切り出し画像151を取り込み画像(または撮像画像)から抽出し、表示部61に表示させるようにしてもよい。
 このようにすることにより、表示画像において被写体142の動きが回転対称(この場合点対称)に見える。したがって、ユーザがこの被写体142の動きを追う場合、ユーザの視線の動きも回転対称(点対象)となり視点移動の連続性が向上する。そのため、ユーザは、被写体142の位置がランダムに変化する場合に比べて、より容易に被写体142の動きを追うことができる。つまり、被写体142の見え方がよりスムーズになる。
 なお、図16や図17の例の場合、全ての個眼切り出し画像151が表示されるので、ユーザは、例えばいずれか1つの個眼光学系31の異常(例えばレンズにゴミが付着している等)を確認することができる。
 また、個眼切り出し画像151の選択順(表示順)は、上述した例以外であってもよい。例えば、1周期の開始位置(最初の個眼切り出し画像151)が上述した例と異なっていてもよい。つまり、図10、図15乃至図17の各例において、「0」以外の表示シーケンス番号から1周期を開始してもよい。
 また、上述の各例の選択順(表示順)のパタンを回転させてもよい。例えば、表示用画像生成部55が、図10の例のパタンを回転させ、個眼切り出し画像1510、個眼切り出し画像1511、個眼切り出し画像1514、個眼切り出し画像1513、個眼切り出し画像1512の順に、それらの個眼切り出し画像151を取り込み画像(または撮像画像)から抽出し、表示部61に表示させてもよい。また、例えば、表示用画像生成部55が、図16の例のパタンを回転させ、個眼切り出し画像1510、個眼切り出し画像1512、個眼切り出し画像1511、個眼切り出し画像1510、個眼切り出し画像1514、個眼切り出し画像1513の順に、それらの個眼切り出し画像151を取り込み画像(または撮像画像)から抽出し、表示部61に表示させてもよい。この場合も、表示画像において被写体142の動きは左右方向および上下方向に線対称に見える。さらに、例えば、表示用画像生成部55が、図17の例のパタンを回転させ、個眼切り出し画像1510、個眼切り出し画像1512、個眼切り出し画像1511、個眼切り出し画像1510、個眼切り出し画像1513、個眼切り出し画像1514の順に、それらの個眼切り出し画像151を取り込み画像(または撮像画像)から抽出し、表示部61に表示させてもよい。この場合、表示画像において被写体142の動きは、回転対称(点対称)に見える。
 さらに、上述の各例の選択順(表示順)のパタンを上下反転させてもよい。例えば、表示用画像生成部55が、図10の例のパタンを上下反転させ、個眼切り出し画像1510、個眼切り出し画像1512、個眼切り出し画像1513、個眼切り出し画像1514、個眼切り出し画像1511の順に、それらの個眼切り出し画像151を取り込み画像(または撮像画像)から抽出し、表示部61に表示させてもよい。また、例えば、表示用画像生成部55が、図15の例のパタンを上下反転させ、個眼切り出し画像1512、個眼切り出し画像1513、個眼切り出し画像1514、個眼切り出し画像1511の順に、それらの個眼切り出し画像151を取り込み画像(または撮像画像)から抽出し、表示部61に表示させてもよい。さらに、例えば、表示用画像生成部55が、図16の例のパタンを上下反転させ、個眼切り出し画像1510、個眼切り出し画像1512、個眼切り出し画像1513、個眼切り出し画像1510、個眼切り出し画像1514、個眼切り出し画像1511の順に、それらの個眼切り出し画像151を取り込み画像(または撮像画像)から抽出し、表示部61に表示させてもよい。また、例えば、表示用画像生成部55が、図17の例のパタンを上下反転させ、個眼切り出し画像1510、個眼切り出し画像1512、個眼切り出し画像1513、個眼切り出し画像1510、個眼切り出し画像1511、個眼切り出し画像1514の順に、それらの個眼切り出し画像151を取り込み画像(または撮像画像)から抽出し、表示部61に表示させてもよい。
 また、上述の各例の選択順(表示順)のパタンを左右反転させてもよい。例えば、表示用画像生成部55が、図10の例のパタンを左右反転させ、個眼切り出し画像1510、個眼切り出し画像1514、個眼切り出し画像1511、個眼切り出し画像1512、個眼切り出し画像1513の順に、それらの個眼切り出し画像151を取り込み画像(または撮像画像)から抽出し、表示部61に表示させてもよい。また、例えば、表示用画像生成部55が、図15の例のパタンを左右反転させ、個眼切り出し画像1514、個眼切り出し画像1511、個眼切り出し画像1512、個眼切り出し画像1513の順に、それらの個眼切り出し画像151を取り込み画像(または撮像画像)から抽出し、表示部61に表示させてもよい。さらに、例えば、表示用画像生成部55が、図16の例のパタンを左右反転させ、個眼切り出し画像1510、個眼切り出し画像1514、個眼切り出し画像1511、個眼切り出し画像1510、個眼切り出し画像1512、個眼切り出し画像1513の順に、それらの個眼切り出し画像151を取り込み画像(または撮像画像)から抽出し、表示部61に表示させてもよい。また、例えば、表示用画像生成部55が、図17の例のパタンを左右反転させ、個眼切り出し画像1510、個眼切り出し画像1514、個眼切り出し画像1511、個眼切り出し画像1510、個眼切り出し画像1513、個眼切り出し画像1512の順に、それらの個眼切り出し画像151を取り込み画像(または撮像画像)から抽出し、表示部61に表示させてもよい。
 もちろん、反転方向は任意であり、上述の上下方向および左右方向以外の方向(つまり斜め方向)であってもよい。
 さらに、上述の各例の選択順(表示順)の逆順に選択(表示)させてもよい。例えば、表示用画像生成部55が、図10の例のパタンの順序を逆転させ、個眼切り出し画像1514、個眼切り出し画像1511、個眼切り出し画像1512、個眼切り出し画像1513、個眼切り出し画像1510の順に、それらの個眼切り出し画像151を取り込み画像(または撮像画像)から抽出し、表示部61に表示させてもよい。また、例えば、表示用画像生成部55が、図15の例のパタンの順序を逆転させ、個眼切り出し画像1514、個眼切り出し画像1511、個眼切り出し画像1512、個眼切り出し画像1513の順に、それらの個眼切り出し画像151を取り込み画像(または撮像画像)から抽出し、表示部61に表示させてもよい。さらに、例えば、表示用画像生成部55が、図16の例のパタンの順序を逆転させ、個眼切り出し画像1514、個眼切り出し画像1511、個眼切り出し画像1510、個眼切り出し画像1512、個眼切り出し画像1513、個眼切り出し画像1510の順に、それらの個眼切り出し画像151を取り込み画像(または撮像画像)から抽出し、表示部61に表示させてもよい。また、例えば、表示用画像生成部55が、図17の例のパタンの順序を逆転させ、個眼切り出し画像1511、個眼切り出し画像1514、個眼切り出し画像1510、個眼切り出し画像1512、個眼切り出し画像1513、個眼切り出し画像1510の順に、それらの個眼切り出し画像151を取り込み画像(または撮像画像)から抽出し、表示部61に表示させてもよい。
 また、上述のようなパタンの回転や反転、順序の逆転等の各手法を適宜組み合わせてもよい。
 なお、以上のような個眼切り出し画像151の選択順(表示順)は、ユーザやアプリケーションが指定することができるようにしてもよい。例えば、ユーザがダイヤル35やボタン36を操作して、個眼切り出し画像151の選択順(表示順)を指定するようにしてもよい。また、例えば、アプリケーションがカメラ10の動作モード等に応じて、個眼切り出し画像151の選択順(表示順)を指定するようにしてもよい。例えば、個眼切り出し画像151の選択順(表示順)の候補が予め複数用意され、ユーザやアプリケーションがその中から適用する順を指定するようにしてもよい。また、ユーザやアプリケーションが任意の順の1周期を設定することができるようにしてもよい。
  <表示用画像生成部>
 図18は、表示用画像生成部55(図3)の主な構成例を示すブロック図である。図18に示されるように、表示用画像生成部55は、表示個眼選択部201、シフト量決定部202、個眼切り出し領域設定部203、および切り出し処理部204を有する。
 表示個眼選択部201は、個眼画像の選択に関する処理を行う。つまり、表示個眼選択部201は、個眼光学系31の選択に関する処理を行う。つまり、表示個眼選択部201は、視点の選択に関する処理を行う。
 例えば、表示個眼選択部201は、領域特定部56から供給される視点関連情報(VIまたはVI')を取得することができる。この視点関連情報には、各個眼画像の領域(座標)を示す情報と、各個眼画像の識別情報とが含まれる。この識別情報はどのような情報であってもよいが、例えば、個眼画像を識別するための識別番号(個眼番号とも称する)であってもよい。以下においては、この識別情報として個眼番号が視点関連情報に含まれるものとして説明する。
 表示個眼選択部201は、この視点関連情報に基づいて、全体画像に含まれる個眼画像の数、並びに、各個眼画像の領域および個眼番号を把握することができる。したがって、表示個眼選択部201は、その視点関連情報に基づいて、表示用画像として表示させる個眼切り出し画像151を抽出する個眼画像を選択することができる。つまり、表示個眼選択部201は、この視点関連情報に基づいて、表示用画像が得られる個眼光学系31を選択することができる。つまり、表示個眼選択部201は、この視点関連情報に基づいて、表示用画像の視点を選択することができる。
 例えば、表示個眼選択部201は、この視点関連情報に基づいて、予め定められた所定の順、または、ユーザやアプリケーションにより指定された順に、個眼画像(、個眼光学系31、または視点)を選択する。例えば、表示個眼選択部201は、ユーザやアプリケーション等による指定を示す制御情報を制御部81から取得することができ、その制御情報に基づいて個眼画像の選択を行うようにしてもよい。例えば、表示個眼選択部201は、個眼画像の切り替えのパタン(選択順)や切り替え周期等に関する制御情報を制御部81から取得し、その制御情報に基づいて個眼画像の選択を行うようにしてもよい。
 表示個眼選択部201は、その選択した個眼画像を示す個眼番号を、シフト量決定部202および個眼切り出し領域設定部203に供給する。
 つまり、表示個眼選択部201は、光路が互いに独立している複数の個眼光学系を視点とする複数の個眼切り出し画像の内のいずれか1つを選択的、かつ、動的に切り替えながら表示部で表示させる。つまり、表示個眼選択部201は、表示用画像の表示制御を行う。
 シフト量決定部202は、個眼切り出し領域のシフト量(方向および大きさ)の決定に関する処理を行う。例えば、シフト量決定部202は、表示個眼選択部201から供給される個眼番号を取得することができる。この個眼番号は、表示させる個眼画像(すなわち個眼切り出し画像151を抽出する個眼画像)を指定する識別情報である。また、シフト量決定部202は、領域特定部56から供給される視点関連情報(VIまたはVI')を取得することができる。この視点関連情報には、各個眼画像の領域(座標)を示す情報と、各個眼画像の個眼番号とが含まれる。
 さらに、シフト量決定部202は、制御部81から供給されるシフト量制御情報を取得することができる。このシフト量制御情報は、シフト量の決定のために用いられる情報を含む。例えば、ユーザやアプリケーション等により指定された距離(カメラ10と被写体との距離)を示す情報が含まれていてもよい。また、例えば、シフト量を可変にするか固定にするか等、ユーザやアプリケーション等により指定された動作モードに関する情報が含まれていてもよい。例えば、制御部81は、ユーザやアプリケーションからシフト量に関する指定を受け付けると、その情報を含むシフト量制御情報を生成し、シフト量決定部202に供給する。
 シフト量決定部202は、供給された視点関連情報に基づいて各個眼画像の配置を把握し、供給された個眼番号に基づいて、そのうちのいずれの個眼画像が選択されたかを把握する。これにより、シフト量決定部202は、個眼切り出し領域のシフトの方向を決定することができる。また、シフト量決定部202は、シフト量制御情報に基づいて、個眼切り出し領域のシフトの大きさを決定することができる。例えば、シフト量決定部202は、シフト量の大きさを、シフト量制御情報において指定された距離に応じた大きさに決定することができる。
 シフト量決定部202は、以上のように個眼切り出し領域のシフトの方向おおよび大きさを決定し、シフト量(ベクトル情報)を生成することができる。シフト量決定部202は、そのシフト量を個眼切り出し領域設定部203に供給することができる。
 つまり、シフト量決定部202は、個眼切り出し領域の位置のシフト量(方向および大きさ)を制御することができる。
 個眼切り出し領域設定部203は、個眼切り出し領域の設定に関する処理を行う。例えば、個眼切り出し領域設定部203は、領域特定部56から供給される視点関連情報(VIまたはVI')を取得することができる。この視点関連情報には、各個眼画像の領域(座標)を示す情報と、各個眼画像の個眼番号とが含まれる。
 また、個眼切り出し領域設定部203は、表示個眼選択部201から供給される個眼番号を取得することができる。この個眼番号は、表示させる個眼画像(すなわち個眼切り出し画像151を抽出する個眼画像)を指定する識別情報である。
 さらに、個眼切り出し領域設定部203は、シフト量決定部202から供給されるシフト量(ベクトル情報)を取得することができる。このシフト量は、個眼切り出し領域のシフトの方向および大きさを示す情報である。
 個眼切り出し領域設定部203は、視点関連情報に基づいて、供給された個眼番号に対応する個眼画像の領域(例えば領域の中心座標と範囲(解像度))を特定することができる。そして、個眼切り出し領域設定部203は、その個眼画像に対応する画像切り出し領域(例えば領域の中心座標と範囲(解像度))の初期値を設定することができる。さらに、個眼切り出し領域設定部203は、シフト量に基づいて、その画像切り出し領域をシフトさせ、画像切り出し領域の位置を更新することができる。
 個眼切り出し領域設定部203は、このように設定した画像切り出し領域を示す座標情報である切り出し座標を切り出し処理部204に供給することができる。
 切り出し処理部204は、個眼切り出し画像の抽出に関する処理を行う。例えば、切り出し処理部204は、カメラ信号処理部54から供給される取り込み画像の全体画像を取得することができる。また、切り出し処理部204は、個眼切り出し領域設定部203から供給される切り出し座標を取得することができる。
 切り出し処理部204は、取得した取り込み画像(全体画像)から、切り出し座標により指定される領域を抽出することができる。切り出し処理部204は、その抽出した個眼切り出し画像を表示用画像(スルー画像)として、表示部61に供給することができる。
 つまり、切り出し処理部204は、表示個眼選択部201により選択された個眼画像と同一の個眼光学系を視点とする個眼画像から、個眼切り出し画像を切り出す。
 なお、切り出し処理部204は、視点画像や合成画像から個眼切り出し画像を抽出することもできる。その場合、切り出し処理部204は、視点画像や合成画像を取得する。
 また、表示用画像生成部55は、撮像画像の確認用画像や、保存済みの撮像画像の表示用画像を生成することもできる。その場合、切り出し処理部204は、カメラ信号処理部54や記憶部62から撮像画像を取得し、その撮像画像から個眼切り出し画像を抽出することができる。この撮像画像には、撮像画像から生成される全体画像、視点画像、および合成画像を含み得る。
 以上のような構成を備えることにより、表示用画像生成部55は、表示させる個眼画像を動的に切り替えることができる。これにより、ユーザはその表示画像を確認することにより、互いに異なる個眼光学系を視点とする複数の画像同士の視差をより容易に把握することができる。
 なお、切り出し処理部204が、RAWフォーマットの画像の個眼切り出し領域を切り出してRAWフォーマットの個眼切り出し画像を生成するようにしてもよい。その場合、そのRAWフォーマットの個眼切り出し画像に対して色分離処理やYC変換が行われ、YCフォーマットの個眼切り出し画像が生成されるようにし、そのYCフォーマットの個眼切り出し画像が表示部61に供給されるようにすればよい。例えば、切り出し処理部204が切り出したRAWフォーマットの個眼切り出し画像をカメラ信号処理部54に戻し、色分離処理やYC変換を行うようにしてもよい。
  <撮像処理の流れ>
 次に、このようなカメラ10による画像表示に関する処理の流れについて説明する。なお、以下においては、スルー画像の表示を例に説明する。例えば、ユーザ等によりカメラ10の電源がオンにされたり、カメラ10の動作モードが撮像を行う撮像モードに切り替えられたりすると、撮像処理が開始される。図19は、この撮像処理の流れの例を説明するフローチャートである。
 撮像処理が開始されると、表示用画像生成部55の表示個眼選択部201、シフト量決定部202、および個眼切り出し領域設定部203は、ステップS101において、領域特定部56から供給される視点関連情報を取得し、セットする。
 ステップS102において、シフト量決定部202は、制御部81から供給されるシフト量制御情報を取得し、セットする。
 ステップS103において、表示用画像生成部55および表示部61は、スルー画像表示処理を実行し、スルー画像を生成し、表示する。このスルー画像表示処理の詳細については後述する。
 ステップS104において、制御部81は、撮像の準備を行うか否かを判定する。例えば、ユーザやアプリケーション等により、例えばフォーカス、絞り、撮像モードの制御等、撮像に関する制御が行われると、制御部81は、その制御に応じた撮像のための準備処理(撮像準備処理とも称する)を行うと判定する。その場合、処理はステップS105に進む。
 ステップS105において、制御部81は、光学系制御部84等、各処理部を適宜制御して撮像準備処理を行う。この撮像準備処理は、撮像に関する処理であればどのような処理であってもよい。例えば、フォーカスや絞りの調整、撮像モードの設定、フラッシュ等の設定、画質の設定等の内の少なくとも1つが含まれていてもよいし、これら以外の処理が含まれていてもよい。
 ステップS105の処理が終了すると処理はステップS106に進む。また、ステップS104において、撮像準備処理を行わないと判定された場合、処理はステップS106に進む。
 ステップS106において、制御部81は、撮像を行うか否かを判定する。例えば、ユーザにシャッタボタンを押下される等して、撮像を行うと判定された場合、処理はステップS107に進む。
 ステップS107において、イメージセンサ51、領域抽出部53、およびカメラ信号処理部54等は、被写体を撮像して撮像画像を生成し、その撮像画像から全体画像、視点画像、または合成画像を生成する。
 ステップS108において、記憶部62および通信部64は、ステップS107において生成された全体画像、視点画像、または合成画像を出力する。例えば、記憶部62は、その画像(全体画像、視点画像、合成画像)を記憶媒体63に記憶させる。また、通信部64は、その画像(全体画像、視点画像、合成画像)をカメラ10の外部のデバイスに供給する。なお、この画像は、ファイル化部65がファイル化してから出力されるようにしてもよい。
 ステップS108の処理が終了すると、処理はステップS109に進む。また、ステップS106において撮像を行わないと判定された場合、処理はステップS109に進む。
 ステップS109において、制御部81は、撮像処理を終了するか否かを判定する。撮像処理を終了しないと判定された場合、処理はステップS103に戻り、それ以降の処理が繰り返される。
 つまり、ステップS103乃至ステップS109の各処理が、フレーム毎に実行される。そして、ステップS109において、撮像処理を終了すると判定された場合、撮像処理が終了する。
  <スルー画像表示処理の流れ>
 次に、図20のフローチャートを参照して、図19のステップS103において実行されるスルー画像表示処理の流れの例を説明する。なお、ここでは、取り込み画像の全体画像から個眼切り出し画像を抽出する場合について説明する。
 スルー画像表示処理が開始されると、表示個眼選択部201は、ステップS121において、表示個眼選択処理を実行し、視点関連情報等に基づいて、表示する個眼画像を選択する。
 ステップS122において、シフト量決定部202は、視点関連情報およびシフト量制御情報等に基づいて、ステップS121において選択された個眼画像から抽出する個眼切り出し領域のシフト量(方向および大きさ)を決定する。
 ステップS123において、個眼切り出し領域設定部203は、視点関連情報や、ステップS122において設定されたシフト量等に基づいて、ステップS121において選択された個眼画像から抽出する個眼切り出し領域(切り出し座標)を設定する。
 ステップS124において、切り出し処理部204は、領域抽出部53により生成される取り込み画像の全体画像を取得する。
 ステップS125において、切り出し処理部204は、ステップS124において取得した全体画像からステップS123において設定された個眼切り出し領域を切り出し、個眼切り出し画像を生成する。
 ステップS126において、表示部61は、以上のように抽出された個眼切り出し画像をスルー画像として表示する。
 ステップS126の処理が終了すると、スルー画像表示処理が終了し、処理は図19に戻る。
  <表示個眼選択処理の流れ>
 次に、図20のステップS121において実行される表示個眼選択処理の流れの例を、図21のフローチャートを参照して説明する。
 表示個眼選択処理が開始されると、表示個眼選択部201は、ステップS141において、表示済みフレーム数が個眼切り替え周期に達したか否かを判定する。ここで表示済みフレーム数は、同一の個眼切り出し画像を何フレーム表示したかを示す変数である。また、個眼切り替え周期は、同一の個眼切り出し画像を何フレーム表示させるかを指定する設定値である。この個眼切り替え周期は、予め定められている固定値であってもよいし、ユーザやアプリケーション等により設定することができてもよい。
 表示済みフレーム数が個眼切り替え周期に達したと判定された場合、すなわち、表示する個眼切り出し画像を切り替えるタイミング(フレーム)になったと判定された場合、処理はステップS142に進む。
 ステップS142において、表示個眼選択部201は、表示済みフレーム数(変数)を初期値(例えば「1」)に設定する。なお、この初期値は任意であり、例えば「0」等、「1」以外であってもよい。
 ステップS143において、表示個眼選択部201は、表示シーケンス番号を更新する。表示シーケンス番号は、個眼切り出し画像の切り替えパタンにおける表示順を示す番号(変数)であり、以下の式(1)のように更新される。
 表示シーケンス番号=(表示シーケンス番号+1) mod 表示シーケンス数
 ・・・(1)
 ここで、表示シーケンス数は、個眼切り出し画像の切り替えパタンの1周期を構成する個眼切り出し画像の数である。表示シーケンス番号は、その1周期のシーケンスの内の、現在の処理対象となる順番を示す番号である。
 例えば、図10の場合、個眼切り出し画像151の切り替えパタンの1周期は、5枚の個眼切り出し画像151により構成される。したがって、この場合の表示シーケンス数は「5」であり、表示シーケンス番号は「0」乃至「4」のいずれか(つまり5つの値の内のいずれか)となる。図15の例の場合、個眼切り出し画像151の切り替えパタンの1周期は、4枚の個眼切り出し画像151により構成される。したがって、この場合の表示シーケンス数は「4」であり、表示シーケンス番号は「0」乃至「3」のいずれか(つまり4つの値の内のいずれか)となる。図16および図17の例の場合、個眼切り出し画像151の切り替えパタンの1周期は、6枚の個眼切り出し画像151により構成される。したがって、この場合の表示シーケンス数は「6」であり、表示シーケンス番号は「0」乃至「5」のいずれか(つまり6つの値の内のいずれか)となる。
 式(1)において、関数modは、除算の余りを示す。つまり、ステップS143の処理により表示シーケンス数の値は、1ずつインクリメントされ、表示シーケンス数に達すると「0」に戻される。つまり、例えば図10の場合、表示シーケンス番号は、「0」→「1」→「2」→「3」→「4」→「0」→・・・のように、「0」乃至「4」の値を繰り返す。
 ステップS144において、表示個眼選択部201は、ステップS143の処理により更新された表示シーケンス番号に対応する個眼番号をテーブル情報から取得する。表示個眼選択部201は、個眼切り出し画像の切り替えパタンの1周期を示すテーブル情報を有している。このテーブル情報は、どの個眼画像(個眼切り出し画像)をどの順で表示させるかを示す情報であり、各表示シーケンス番号と個眼番号との対応関係を示す。表示個眼選択部201は、そのテーブル情報に基づいて、更新後の表示シーケンス番号に対応する個眼番号を特定する。
 なお、個眼切り出し画像の切り替えパタンが可変である場合、つまり、ユーザやアプリケーション等により適用するパタンを設定することができる場合、表示個眼選択部201は、その適用されたパタンに対応するテーブル情報に基づいて個眼番号を特定するようにしてもよい。例えば、表示個眼選択部201は、予め複数種類のテーブル情報を候補として有しており、制御部81からの指示(ユーザやアプリケーション等によるパタンの指定)に対応するテーブル情報をその候補の中から選択するようにしてもよい。
 また、制御部81からの情報に基づいて、表示個眼選択部201は、適用されたパタンに対応するテーブル情報を生成するようにしてもよい。例えば、表示個眼選択部201が、縦方向最大の座標を持つ個眼、横向最大の座標を持つ個眼、縦方向最小の座標を持つ個眼、横向最小の座標を持つ個眼、のような基準で、テーブル情報を生成してもよい。
 ステップS145において、表示個眼選択部201は、その個眼番号を表示個眼番号とする。表示個眼番号は、表示させる個眼画像を示す個眼番号である。つまり、表示個眼選択部201は、この表示個眼番号を、シフト量決定部202や個眼切り出し領域設定部203に供給する。
 ステップS145の処理が終了すると、表示個眼選択処理が終了し、処理は図20に戻る。
 また、ステップS141において、表示済みフレーム数が個眼切り替え周期に達していないと判定された場合、すなわち、表示する個眼切り出し画像を切り替えるタイミング(フレーム)でないと判定された場合、処理はステップS146に進む。
 ステップS146において、表示個眼選択部201は、個眼切り出し画像を切り替えずに(更新せずに)、表示済みフレーム数(変数)を「+1」インクリメントする。
 ステップS147において、表示個眼選択部201は、前回(1つ前のフレーム)の表示個眼番号を今回の表示個眼番号とする。つまり、表示個眼番号を更新しない。これにより、表示個眼選択部201は、1つ前のフレームと同じ表示個眼番号を、シフト量決定部202や個眼切り出し領域設定部203に供給する。
 ステップS147の処理が終了すると、表示個眼選択処理が終了し、処理は図20に戻る。
 以上のように各処理を実行することにより、表示用画像生成部55は、表示させる個眼画像を動的に切り替えることができる。これにより、ユーザはその表示画像を確認することにより、互いに異なる個眼光学系を視点とする複数の画像同士の視差をより容易に把握することができる。
 なお、撮像画像の確認用画像や、保存済みの撮像画像を表示させる場合は、撮像画像に対して、上述したスルー画像表示処理と同様の処理を行えば良い。
  <個眼数>
 なお、多眼光学系30を構成する個眼光学系31の数(個眼数)は、複数であればよく、上述の5眼(5つの個眼光学系31)に限定されない。個眼数は、奇数であってもよいし、偶数であってもよい。また、各個眼光学系31の配置パタン(相対位置関係)も任意である。
   <7眼>
 例えば、個眼数が7眼(7つの個眼光学系31)であってもよい。その場合のカメラ10により生成される取り込み画像(または撮像画像)の全体画像の例を図22に示す。
 図22に示されるように、この場合の全体画像130には、被写体141および被写体142が7つずつ含まれる。つまり、この全体画像130には、7つの個眼画像が含まれる。つまりこの全体画像130の場合、図22に示される個眼切り出し画像1510乃至個眼切り出し画像1516のように、7種類の個眼切り出し画像151を抽出することができる。
 この場合も、個眼切り出し画像の切り替えパタンは、5眼の場合と同様、任意である。例えば、全個眼光学系31を1回ずつ選択する切り替えパタンとしてもよい。例えば、個眼切り出し画像1510 → 個眼切り出し画像1511 → 個眼切り出し画像1512 → 個眼切り出し画像1513 → 個眼切り出し画像1514 → 個眼切り出し画像1515 → 個眼切り出し画像1516( → 個眼切り出し画像1510)の順に切り替えるパタンを1周期としてもよい。
 また、例えば、これらの個眼切り出し画像151の内、それらの相対的な位置関係において外周部に位置する個眼切り出し画像151(の一部または全部)を選択する切り替えパタンとしてもよい。例えば、個眼切り出し画像1511 → 個眼切り出し画像1512 → 個眼切り出し画像1513 → 個眼切り出し画像1514 → 個眼切り出し画像1515 → 個眼切り出し画像1516( → 個眼切り出し画像1511)の順に切り替えるパタンを1周期としてもよい。
 さらに、例えば、これらの個眼切り出し画像151の一部または全部を、それらの相対的な位置関係において走査の軌跡が任意の方向に対して線対称となる順に、1つずつ選択する切り替えパタンとしてもよい。例えば、上下方向に線対称であってもよいし、左右方向に線対称であってもよいし、斜め方向に線対称であってもよい。例えば、個眼切り出し画像1510 → 個眼切り出し画像1511 → 個眼切り出し画像1512 → 個眼切り出し画像1513 → 個眼切り出し画像1510 → 個眼切り出し画像1514 → 個眼切り出し画像1515 → 個眼切り出し画像1516 → ( → 個眼切り出し画像1510)の順に切り替えるパタンを1周期としてもよい。
 また、例えば、これらの個眼切り出し画像151の一部または全部を、それらの相対的な位置関係において走査の軌跡が回転対称(例えば点対称)となる順に、1つずつ選択する切り替えパタンとしてもよい。例えば、個眼切り出し画像1510 → 個眼切り出し画像1511 → 個眼切り出し画像1512 → 個眼切り出し画像1513 → 個眼切り出し画像1510 → 個眼切り出し画像1516 → 個眼切り出し画像1515 → 個眼切り出し画像1514 → ( → 個眼切り出し画像1510)の順に切り替えるパタンを1周期としてもよい。また、例えば、個眼切り出し画像1510 → 個眼切り出し画像1511 → 個眼切り出し画像1512 → 個眼切り出し画像1510 → 個眼切り出し画像1513 → 個眼切り出し画像1514 → 個眼切り出し画像1510 → 個眼切り出し画像1515 → 個眼切り出し画像1516( → 個眼切り出し画像1510)の順に切り替えるパタンを1周期としてもよい。
 さらに、例えば、これらの個眼切り出し画像151の一部または全部を、上下方向の最大視差を把握することができ、かつ、左右方向の最大視差を把握することができるように選択する最小構成の切り替えパタンとしてもよい。例えば、個眼切り出し画像1511 → 個眼切り出し画像1512 → 個眼切り出し画像1514 → 個眼切り出し画像1515( → 個眼切り出し画像1511)の順に切り替えるパタンを1周期としてもよい。つまり、複数の個眼切り出し画像のうち、個眼切り出し画像同士の視差が他の画像同士の視差より大きくなる複数の画像を選択し、選択した複数の画像を、1つずつ選択して表示させるようにしてもよい。
 5眼の場合と同様に、上述の各例の選択順(表示順)のパタンを回転させてもよい。また、上述の各例の選択順(表示順)のパタンを任意の方向(上下方向、左右方向、または斜め方向)に反転させてもよい。さらに、上述の各例の選択順(表示順)の逆順に選択(表示)させてもよい。また、上述のようなパタンの回転や反転、順序の逆転等の各手法を適宜組み合わせてもよい。そして、上述の各例のパタンは、ユーザやアプリケーションが指定することができるようにしてもよい。
   <9眼>
 例えば、個眼数が9眼(9つの個眼光学系31)であってもよい。その場合のカメラ10により生成される取り込み画像(または撮像画像)の全体画像の例を図23に示す。
 図23に示されるように、この場合の全体画像130には、被写体141および被写体142が9つずつ含まれる。つまり、この全体画像130には、9つの個眼画像が含まれる。つまりこの全体画像130の場合、図23に示される個眼切り出し画像1510乃至個眼切り出し画像1518のように、9種類の個眼切り出し画像151を抽出することができる。
 この場合も、個眼切り出し画像の切り替えパタンは、5眼の場合と同様、任意である。例えば、全個眼光学系31を1回ずつ選択する切り替えパタンとしてもよい。例えば、個眼切り出し画像1510 → 個眼切り出し画像1511 → 個眼切り出し画像1512 → 個眼切り出し画像1513 → 個眼切り出し画像1514 → 個眼切り出し画像1515 → 個眼切り出し画像1516 → 個眼切り出し画像1517 → 個眼切り出し画像1518 ( → 個眼切り出し画像1510)の順に切り替えるパタンを1周期としてもよい。
 また、例えば、これらの個眼切り出し画像151の内、それらの相対的な位置関係において外周部に位置する個眼切り出し画像151(の一部または全部)を選択する切り替えパタンとしてもよい。例えば、個眼切り出し画像1511 → 個眼切り出し画像1512 → 個眼切り出し画像1513 → 個眼切り出し画像1514 → 個眼切り出し画像1515 → 個眼切り出し画像1516 → 個眼切り出し画像1517 → 個眼切り出し画像1518( → 個眼切り出し画像1511)の順に切り替えるパタンを1周期としてもよい。
 さらに、例えば、これらの個眼切り出し画像151の一部または全部を、それらの相対的な位置関係において走査の軌跡が任意の方向に対して線対称となる順に、1つずつ選択する切り替えパタンとしてもよい。例えば、上下方向に線対称であってもよいし、左右方向に線対称であってもよいし、斜め方向に線対称であってもよい。例えば、個眼切り出し画像1510 → 個眼切り出し画像1518 → 個眼切り出し画像1511 → 個眼切り出し画像1512 → 個眼切り出し画像1513 → 個眼切り出し画像1514 → 個眼切り出し画像1510 → 個眼切り出し画像1514 → 個眼切り出し画像1515 → 個眼切り出し画像1516 → 個眼切り出し画像1517 → 個眼切り出し画像1518( → 個眼切り出し画像1510)の順に切り替えるパタンを1周期としてもよい。
 また、例えば、これらの個眼切り出し画像151の一部または全部を、それらの相対的な位置関係において走査の軌跡が回転対称(例えば点対称)となる順に、1つずつ選択する切り替えパタンとしてもよい。例えば、個眼切り出し画像1510 → 個眼切り出し画像1518 → 個眼切り出し画像1511 → 個眼切り出し画像1512 → 個眼切り出し画像1513 → 個眼切り出し画像1514 → 個眼切り出し画像1510 → 個眼切り出し画像1518 → 個眼切り出し画像1517 → 個眼切り出し画像1516 → 個眼切り出し画像1515 → 個眼切り出し画像1514( → 個眼切り出し画像1510)の順に切り替えるパタンを1周期としてもよい。また、例えば、個眼切り出し画像1510 → 個眼切り出し画像1511 → 個眼切り出し画像1512 → 個眼切り出し画像1510 → 個眼切り出し画像1513 → 個眼切り出し画像1514 → 個眼切り出し画像1510 → 個眼切り出し画像1515 → 個眼切り出し画像1516 → 個眼切り出し画像1510 → 個眼切り出し画像1517 → 個眼切り出し画像1518( → 個眼切り出し画像1510)の順に切り替えるパタンを1周期としてもよい。
 さらに、例えば、これらの個眼切り出し画像151の一部または全部を、上下方向の最大視差を把握することができ、かつ、左右方向の最大視差を把握することができるように選択する切り替えパタンとしてもよい。例えば、個眼切り出し画像1511 → 個眼切り出し画像1513 → 個眼切り出し画像1515 → 個眼切り出し画像1517( → 個眼切り出し画像1511)の順に切り替えるパタンを1周期としてもよい。
 さらに、例えば、これらの個眼切り出し画像151の一部または全部を、上下方向の最大視差を把握することができ、かつ、左右方向の最大視差を把握することができるように選択する横8の字の切り替えパタンとしてもよい。例えば、個眼切り出し画像1511 → 個眼切り出し画像1513 → 個眼切り出し画像1517 → 個眼切り出し画像1515( → 個眼切り出し画像1511)の順に切り替えるパタンを1周期としてもよい。
 さらに、例えば、これらの個眼切り出し画像151の一部または全部を、上下方向の最大視差を把握することができ、かつ、左右方向の最大視差を把握することができるように選択する最小構成の切り替えパタンとしてもよい。例えば、個眼切り出し画像1511 → 個眼切り出し画像1515( → 個眼切り出し画像1511)の順に切り替えるパタンを1周期としてもよい。
 5眼の場合と同様に、上述の各例の選択順(表示順)のパタンを回転させてもよい。また、上述の各例の選択順(表示順)のパタンを任意の方向(上下方向、左右方向、または斜め方向)に反転させてもよい。さらに、上述の各例の選択順(表示順)の逆順に選択(表示)させてもよい。また、上述のようなパタンの回転や反転、順序の逆転等の各手法を適宜組み合わせてもよい。そして、上述の各例のパタンは、ユーザやアプリケーションが指定することができるようにしてもよい。
 <2.第2の実施の形態>
  <カメラシステム>
 第1の実施の形態においては、多眼光学系30を備えるカメラ10を例に本技術を説明したが、本技術はその他の構成にも適用することができる。例えば、多眼光学系30を含む光学系を交換可能としてもよい。つまり、多眼光学系30は、カメラ10から着脱可能に構成されるようにしてもよい。
   <カメラシステムの外観>
 図24は、本技術を適用したカメラシステムの一実施の形態の構成例を示す斜視図である。図24に示されるカメラシステム301は、カメラ本体310と多眼交換レンズ320(レンズ部)とで構成される。多眼交換レンズ320がカメラ本体310に装着された状態においてカメラシステム301は、カメラ10と同様の構成となり、基本的に同様の処理を行う。つまり、カメラシステム301は、カメラ10と同様の、被写体を撮像して撮像画像の画像データを生成する撮像装置として機能する。
 カメラ本体310は、多眼交換レンズ320が着脱可能なようになっている。すなわち、カメラ本体310は、カメラマウント311を有し、そのカメラマウント311に対して、多眼交換レンズ320(のレンズマウント322)が取り付けられることで、カメラ本体310に、多眼交換レンズ320が装着される。なお、カメラ本体310に対しては、多眼交換レンズ320以外の一般的な交換レンズも着脱することができるようにされてもよい。
 カメラ本体310は、イメージセンサ51を内蔵する。イメージセンサ51は、カメラ本体310(のカメラマウント311)に装着された多眼交換レンズ320その他の交換レンズによって集光される光線を受光して光電変換を行うことにより被写体を撮像する。
 多眼交換レンズ320は、鏡筒321およびレンズマウント322を有する。また、多眼交換レンズ320は、複数としての5個の個眼光学系310,311,312,313、および、314を有する。
 カメラ10の場合と同様に、この場合の複数の個眼光学系31は、それぞれを通過する光の光路が互いに独立するように構成される。つまり、各個眼光学系31を通過した光は、他の個眼光学系31に入射せずにイメージセンサ51の受光面(例えば有効画素領域)の互いに異なる位置に照射する。少なくとも、各個眼光学系31の光軸は、イメージセンサ51の受光面の互いに異なる場所に位置しており、各個眼光学系31を通過した光の少なくとも一部が、イメージセンサ51の受光面の互いに異なる位置に照射する。
 したがって、カメラ10の場合と同様に、イメージセンサ51により生成される撮像画像(イメージセンサ51の出力する画像全体)には、各個眼光学系31を介して結像された被写体の画像が互いに異なる位置に形成される。換言するに、その撮像画像から、各個眼光学系31を視点とする撮像画像(視点画像とも称する)が得られる。つまり、多眼交換レンズ320をカメラ本体310に装着して被写体を撮像することにより、複数の視点画像を得ることができる。
 鏡筒321は、略円筒状をしており、その円筒状の1つの底面側に、レンズマウント322が形成されている。レンズマウント322は、多眼交換レンズ320がカメラ本体310に装着されるときに、カメラ本体310のカメラマウント311に取り付けられる。
 5個の個眼光学系31は、鏡筒光軸に直交する(イメージセンサ51の受光面(撮像面)に平行な)2次元平面上において、個眼光学系310を中心(重心)として、他の4個の個眼光学系311乃至個眼光学系314が、長方形の頂点を構成するように配置される形で、多眼交換レンズ320に設けられている。もちろん、図24に示される配置は一例であり、各個眼光学系31の位置関係は、光路が互いに独立している限り任意である。
  <カメラシステムの電気的構成例>
 図25は、図24のカメラシステム301の電気的構成例を示すブロック図である。
   <カメラ本体>
 カメラシステム301において、カメラ本体310は、イメージセンサ51、RAW信号処理部52、領域抽出部53、カメラ信号処理部54、表示用画像生成部55、領域特定部56、画像再構成処理部57、バス60、表示部61、記憶部62、通信部64、ファイル化部65、制御部81、および記憶部82を有する。つまり、カメラ本体310は、カメラ10の鏡筒20の部分に設けられる多眼光学系30および光学系制御部84以外の構成を有する。
 なお、カメラ本体310は、上述の構成に加え、通信部341を有する。この通信部341は、カメラ本体310に正しく装着された状態の多眼交換レンズ320(の通信部351)と通信を行い、情報の授受等を行う処理部である。通信部341は、任意の通信方式で多眼交換レンズ320と通信を行うことができる。その通信は、有線通信であってもよいし、無線通信であってもよい。
 例えば、通信部341は、制御部81により制御され、その通信を行い、多眼交換レンズ320から供給される情報を取得する。また、例えば、通信部341は、その通信により、制御部81から供給される情報を多眼交換レンズ320に供給する。この多眼交換レンズ320と授受する情報は任意である。例えば、データであってもよいし、コマンドや制御パラメータ等の制御情報であってもよい。
   <多眼交換レンズ>
 カメラシステム301において、多眼交換レンズ320は、多眼光学系30および光学系制御部84の他に、通信部351および記憶部352を有する。通信部351は、カメラ本体310に正しく装着された状態の多眼交換レンズ320において、通信部341と通信を行う。この通信により、カメラ本体310と多眼交換レンズ320との間の情報の授受を実現する。通信部351の通信方式は、任意であり、有線通信であってもよいし、無線通信であってもよい。また、この通信により授受される情報は、データであってもよいし、コマンドや制御パラメータ等の制御情報であってもよい。
 例えば、通信部351は、通信部341を介してカメラ本体310から送信される制御情報を取得する。通信部351は、このように取得した情報を、必要に応じて、光学系制御部84に供給し、多眼光学系30の制御に利用させることができる。
 また、通信部351は、その取得した情報を記憶部352に供給し、記憶媒体353に記憶させることができる。また、通信部351は、記憶媒体353に記憶されている情報を、記憶部352を介して読み出し、それをカメラ本体310(通信部341)に送信することができる。
 なお、記憶媒体353は、ROMであってもよいし、RAMやフラッシュメモリ等のような書き換え可能なメモリであってもよい。書き換え可能なメモリの場合、記憶媒体353は、任意の情報を記憶することができる。
   <視点関連情報の記憶1>
 このような構成のカメラシステム301において、多眼交換レンズ320(すなわち、多眼光学系30)に対応する視点関連情報の記憶場所は任意である。例えば、多眼交換レンズ320の記憶媒体353に記憶されていてもよい。そして、例えば、カメラ本体310の制御部81が、通信部351および通信部341を介して記憶部352にアクセスし、その記憶媒体353からその視点関連情報を読み出させてもよい。そして、その視点関連情報が制御部81を介して領域特定部56にセットされ、さらに、表示用画像生成部55にセットされるようにしてもよい。
 例えば、多眼交換レンズ320をカメラ本体310に正しく装着した際、カメラシステム301に電源を投入した際、または、カメラシステム301の駆動モードが、被写体の撮像を行い得る撮像モードに移行した際等の、撮像より時間的に前の任意のタイミングまたはきっかけにおいて、このような処理が行われてもよい。
 このようにすることにより、カメラ本体310は、多眼交換レンズ320(すなわち、多眼光学系30)に対応する視点関連情報を用いて、視点画像を利用した画像処理を行うことができる。つまり、表示用画像生成部55は、カメラ本体310に装着された多眼交換レンズ320に対応し、正しく個眼画像を選択したり、適切に個眼切り出し領域のシフト量をセットしたりすることができる。つまり、このカメラシステム301の場合も、カメラ10の場合と同様に、表示用画像生成部55は、表示させる個眼画像を動的に切り替えることができる。これにより、カメラ500は、カメラ10の場合と同様の表示を行うことができる。したがって、ユーザはその表示画像を確認することにより、互いに異なる個眼光学系を視点とする複数の画像同士の視差をより容易に把握することができる。
   <視点関連情報の記憶2>
 また、制御部81が、多眼交換レンズ320から取得したその多眼交換レンズ320の視点関連情報を、その多眼交換レンズ320の識別情報(以下、IDと称する)とともに記憶部82に供給し、記憶させてもよい。その場合、記憶部82は、供給された識別情報と視点関連情報とを対応付けて記憶媒体83に記憶させる。つまり、カメラ本体310において、多眼交換レンズ320の視点関連情報とIDとを管理することができる。したがって、カメラ本体310は、複数の多眼交換レンズ320の視点関連情報を管理することができる。
 このようにすることにより、制御部81は、次回からは多眼交換レンズ320のIDを取得することにより、記憶部82(記憶媒体83)からそのIDに対応する視点関連情報を読み出すことができる。つまり、制御部81は、多眼交換レンズ320に対応する視点関連情報を容易に取得することができる。
   <視点関連情報の記憶3>
 また、記憶媒体83が、予め、複数の多眼交換レンズ320の視点関連情報を、その多眼交換レンズ320のIDに関連付けて記憶していてもよい。つまり、この場合、カメラ本体310が、予め、複数の多眼交換レンズ320の視点関連情報を管理している。
 このようにすることにより、制御部81は、カメラ本体310に正しく装着された多眼交換レンズ320のIDを用いて、記憶部82(記憶媒体83)からそのIDに対応する視点関連情報を容易に読み出すことができる。
 <3.第3の実施の形態>
  <複数イメージセンサ>
 なお、以上においては、複数の個眼光学系31を通過した光を1つのイメージセンサ51が受光し、光電変換を行って撮像画像を生成するように説明したが、これに限らず、各個眼光学系31を通過した光を互いに異なるイメージセンサが受光するようにしてもよい。その場合の構成例を図26に示す。
 図26において、カメラ500は、本技術を適用した撮像装置の一実施の形態である。カメラ500は、基本的に、カメラ10と同様の装置であり、カメラ10と同様の構成を有し、同様の処理を行う。ただし、カメラ500は、カメラ10の多眼光学系30およびイメージセンサ51の代わりに、個眼撮像部5110乃至個眼撮像部5114を有する。個眼撮像部5110は、個眼光学系310およびイメージセンサ510を有する。個眼撮像部5111は、個眼光学系311およびイメージセンサ511を有する。個眼撮像部5112は、個眼光学系312およびイメージセンサ512を有する。個眼撮像部5113は、個眼光学系313およびイメージセンサ513を有する。個眼撮像部5114は、個眼光学系314およびイメージセンサ514を有する。なお、以下において、個眼撮像部5110乃至個眼撮像部5114を互いに区別して説明する必要が無い場合、個眼撮像部511と称する。
 つまり、カメラ500は、複数の個眼撮像部511を有する。各個眼撮像部511の個眼光学系31を通過した光は、その個眼撮像部511のイメージセンサ51に入射し、光電変換され、撮像画像が生成される。つまり、各個眼撮像部511において、個眼画像の撮像画像が生成される。各個眼撮像部511のイメージセンサ51において生成された撮像画像(個眼画像)は、それぞれ、図3の場合と同様に、RAW信号処理部52、領域抽出部53、領域特定部56、バス60等に供給される。
 また、この場合、光学系制御部84は、図3の場合と同様に、各個眼撮像部511の個眼光学系31のレンズ群や絞り等を制御する。また、制御部81は、各個眼撮像部511(のイメージセンサ51)を制御し、被写体を撮像させる。
 このような構成の場合、カメラ信号処理部54は、個眼画像を表示用画像生成部55に供給する。表示用画像生成部55は、その個眼画像から表示用画像を生成する。この場合も、表示用画像生成部55は、表示用画像とする個眼画像を動的に切り替える。これにより、カメラ500は、カメラ10の場合と同様の表示を行うことができる。したがって、ユーザはその表示画像を確認することにより、互いに異なる個眼光学系を視点とする複数の画像同士の視差をより容易に把握することができる。
  <表示用画像生成部>
 図27は、この場合の表示用画像生成部55の主な構成例を示すブロック図である。図27に示されるように、この場合、表示用画像生成部55は、図18に示したカメラ10の場合の構成に加え、画像選択部521を有する。
 画像選択部521は、カメラ信号処理部54から供給される各個眼画像(各個眼撮像部511において生成された撮像画像)を取得し、保持する。そして、画像選択部521は、表示個眼選択部201から供給される個眼番号(表示個眼選択部201により選択された個眼画像を示す個眼番号)を取得すると、その個眼番号に対応する個眼画像を切り出し処理部204に供給する。
 なお、この場合、表示個眼選択部201は、選択した個眼画像の個眼番号をシフト量決定部202、個眼切り出し領域設定部203、および画像選択部521に供給する。
 切り出し処理部204は、そのお画像選択部521から供給される個眼画像を取得すると、その個眼画像から、個眼切り出し領域設定部203から供給される切り出し座標により示される個眼切り出し領域を抽出する。なおこの場合、切り出し処理部204は、個眼画像における座標と全体画像における座標とをいずれか一方に換算して、適切に画像の抽出を行う。切り出し処理部204は、切り出した個眼切り出し画像を表示部61に供給し、表示させる。
  <スルー画像表示処理の流れ>
 この場合のスルー画像表示処理の流れの例を図28のフローチャートを参照して説明する。スルー画像表示処理が開始されると、ステップS501乃至ステップS503の各処理が、図20のステップS121乃至ステップS123の各処理と同様に実行される。
 ステップS504において、画像選択部521は、ステップS501の表示個眼選択処理(図21)により選択された個眼画像を示す個眼番号(表示個眼番号)に対応する個眼画像を選択する。
 ステップS505において、切り出し処理部204は、ステップS504において選択された個眼画像から、ステップS503において設定された個眼切り出し領域を抽出し、個眼切り出し画像を生成する。
 ステップS506の処理は、ステップS126(図20)の処理と同様に実行される。ステップS506の処理が終了すると処理は図19に戻る。
 このようにすることにより、表示用画像生成部55は、表示用画像とする個眼画像を動的に切り替えることができる。これにより、表示部61は、カメラ10の場合と同様の表示を行うことができる。したがって、ユーザはその表示画像を確認することにより、互いに異なる個眼光学系を視点とする複数の画像同士の視差をより容易に把握することができる。
 もちろんこの場合も、撮像画像の確認用画像や保存済みの撮像画像の表示においても、上述したスルー画像の表示と同様に、本技術を適用することができる。なお、撮像画像の確認用画像や、保存済みの撮像画像を表示させる場合は、撮像画像に対して、上述したスルー画像表示処理と同様の処理を行えば良い。
 また、多眼光学系30の場合と同様に、個眼撮像部511の数(個眼数)は任意であり、奇数であってもよいし、偶数であってもよい。
  <個眼撮像部の駆動制御>
 またカメラ500の場合、各個眼撮像部511の駆動を個別に制御することができる。そこで、例えばスルー画像の表示において、駆動させる個眼撮像部511を制御する(選択する)ことにより、個眼画像の選択を行うようにしてもよい。換言するに、表示用画像として選択しない個眼画像を生成する個眼撮像部511の駆動を停止させる(つまり、その個眼画像を生成させない)ようにしてもよい。また、その際、制御部81による、駆動を停止させる個眼撮像部511の絞りやフォーカスの制御を停止してもよい。さらに、制御部81による、駆動を停止させる個眼撮像部511により得られる撮像画像に対するホワイトバランスゲインの制御を停止してもよい。このようにすることにより、駆動する個眼撮像部511の数を低減させることができ、消費電力の増大を抑制することができる。
  <表示用画像生成部>
 図29は、この場合の表示用画像生成部55の主な構成例を示すブロック図である。図29に示されるように、この場合、表示用画像生成部55は、図18に示したカメラ10の場合と同様の構成を有する。
 ただし、この場合の表示個眼選択部201は、選択した個眼画像の個眼番号を、電力制御情報として制御部81に供給する。制御部81は、その電力制御情報に基づいて光学系制御部84を制御し、表示個眼選択部201により選択されていない個眼画像に対応する個眼撮像部511の駆動を停止させる。
 光学系制御部84は、その制御部81の制御に従って、表示個眼選択部201により選択されていない個眼画像に対応する個眼撮像部511の駆動を停止させる。これにより、表示個眼選択部201により選択された個眼画像を生成する個眼撮像部511のみが駆動し、その表示個眼選択部201により選択された個眼画像のみが生成される。つまり、表示用画像生成部55には、その表示個眼選択部201により選択された個眼画像が供給される。
 切り出し処理部204は、その供給された個眼画像(表示個眼選択部201により選択された個眼画像)から個眼切り出し領域を抽出し、個眼切り出し画像を生成し、それを表示部61に供給し、表示させる。
  <スルー画像表示処理の流れ>
 この場合のスルー画像表示処理の流れの例を図30のフローチャートを参照して説明する。スルー画像表示処理が開始されると、ステップS521乃至ステップS523の各処理が、図28のステップS501乃至ステップS503の各処理と同様に実行される。
 ステップS524において、表示個眼選択部201は、ステップS501の表示個眼選択処理(図21)により選択された個眼画像を示す個眼番号(表示個眼番号)に対応する個眼撮像部511を駆動させる。切り出し処理部204は、このようにして供給される、ステップS501の表示個眼選択処理(図21)により選択された個眼画像を取得する。
 ステップS525およびステップS526の各処理は、図28のステップS505およびステップS506の各処理と同様に実行される。ステップS526の処理が終了すると処理は図19に戻る。
 このようにすることにより、表示用画像生成部55は、表示用画像とする個眼画像を動的に切り替えることができる。これにより、表示部61は、カメラ10の場合と同様の表示を行うことができる。したがって、ユーザはその表示画像を確認することにより、互いに異なる個眼光学系を視点とする複数の画像同士の視差をより容易に把握することができる。
 <4.付記>
  <コンピュータ>
 上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
 図31は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 図31に示されるコンピュータ900において、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903は、バス904を介して相互に接続されている。
 バス904にはまた、入出力インタフェース910も接続されている。入出力インタフェース910には、入力部911、出力部912、記憶部913、通信部914、およびドライブ915が接続されている。
 入力部911は、例えば、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部912は、例えば、ディスプレイ、スピーカ、出力端子などよりなる。記憶部913は、例えば、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部914は、例えば、ネットワークインタフェースよりなる。ドライブ915は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア921を駆動する。
 以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部913に記憶されているプログラムを、入出力インタフェース910およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。RAM903にはまた、CPU901が各種の処理を実行する上において必要なデータなども適宜記憶される。
 コンピュータが実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア921に記録して適用することができる。その場合、プログラムは、リムーバブルメディア921をドライブ915に装着することにより、入出力インタフェース910を介して、記憶部913にインストールすることができる。
 また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、プログラムは、通信部914で受信し、記憶部913にインストールすることができる。
 その他、このプログラムは、ROM902や記憶部913に、あらかじめインストールしておくこともできる。
  <本技術の適用対象>
 本技術は、任意の構成に適用することができる。例えば、本技術は、システムLSI(Large Scale Integration)等としてのプロセッサ、複数のプロセッサ等を用いるモジュール、複数のモジュール等を用いるユニット、または、ユニットにさらにその他の機能を付加したセット等、装置の一部の構成として実施することもできる。
 また、例えば、本技術は、複数の装置により構成されるネットワークシステムにも適用することもできる。例えば、本技術を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングとして実施するようにしてもよい。例えば、コンピュータ、携帯型情報処理端末、IoT(Internet of Things)デバイス等の任意の端末に対してサービスを提供するクラウドサービスにおいて本技術を実施するようにしてもよい。
 なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
  <本技術を適用可能な分野・用途>
 本技術を適用したシステム、装置、処理部等は、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野に利用することができる。また、その用途も任意である。
  <その他>
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
 また、例えば、上述したプログラムは、任意の装置において実行されるようにしてもよい。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
 また、例えば、1つのフローチャートの各ステップを、1つの装置が実行するようにしてもよいし、複数の装置が分担して実行するようにしてもよい。さらに、1つのステップに複数の処理が含まれる場合、その複数の処理を、1つの装置が実行するようにしてもよいし、複数の装置が分担して実行するようにしてもよい。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。
 また、例えば、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
 また、例えば、本技術に関する複数の技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
 なお、本技術は以下のような構成も取ることができる。
 (1) 光路が互いに独立している複数の個眼光学系を視点とする複数の画像の内のいずれか1つを選択的、かつ、動的に切り替えながら表示部で表示させる表示制御部
 を備える撮像装置。
 (2) 前記表示制御部は、前記複数の画像の一部または全部を、所定の順に1つずつ選択して表示させる
 (1)に記載の撮像装置。
 (3) 前記表示制御部は、前記複数の画像の一部または全部を、前記複数の画像の視点の相対的な位置関係において走査の軌跡が線対称となる順に、1つずつ選択して表示させる
 (2)に記載の撮像装置。
 (4) 前記表示制御部は、前記複数の画像の一部または全部を、前記複数の画像の視点の相対的な位置関係において走査の軌跡が回転対称となる順に、1つずつ選択して表示させる
 (2)または(3)に記載の撮像装置。
 (5) 前記表示制御部は、前記複数の画像のうち、前記画像同士の視差が他の画像同士の視差より大きくなる複数の画像を選択し、選択した複数の画像を、1つずつ選択して表示させる
 (2)乃至(4)のいずれかに記載の撮像装置。
 (6) 前記表示制御部は、前記複数の画像の視点の相対的な位置関係において外周部に位置する前記画像の一部または全部を、前記所定の順に1つずつ選択して表示させる
 (2)乃至(5)のいずれかに記載の撮像装置。
 (7) 前記画像の選択順を指定する選択順指定部をさらに備え、
 前記表示制御部は、前記複数の画像の一部または全部を、前記選択順指定部により指定された選択順に、1つずつ選択して表示させる
 (1)乃至(6)のいずれかに記載の撮像装置。
 (8) 前記表示制御部は、選択する前記画像を所定の周期毎に切り替える
 (1)乃至(7)のいずれかに記載の撮像装置。
 (9) 前記周期は、単数フレームまたは複数フレームである
 (8)に記載の撮像装置。
 (10) 前記周期を指定する周期指定部をさらに備え、
 前記表示制御部は、選択する前記画像を、前記周期指定部により指定された前記周期毎に切り替える
 (8)または(9)に記載の撮像装置。
 (11) 前記表示制御部により選択された前記画像と同一の前記個眼光学系を視点とする個眼画像から、前記画像を切り出す切り出し部をさらに備える
 (1)乃至(10)のいずれかに記載の撮像装置。
 (12) 前記個眼画像から切り出す領域を設定する領域設定部をさらに備え、
 前記切り出し部は、前記個眼画像の、前記領域設定部により設定された前記領域を前記画像として切り出す
 (11)に記載の撮像装置。
 (13) 前記領域の位置のシフト量を制御するシフト量制御部をさらに備え、
 前記領域設定部は、前記シフト量制御部により制御された前記シフト量を用いて、前記領域を設定する
 (12)に記載の撮像装置。
 (14) 前記複数の個眼光学系のそれぞれの光軸が互いに異なる位置に対応する撮像部をさらに備え、
 前記表示制御部は、前記撮像部により生成される画像に含まれる、前記複数の個眼光学系のそれぞれを視点とする前記複数の画像の内のいずれか1つを、表示させる前記画像を動的に切り替えるように、選択して表示させる
 (1)乃至(13)のいずれかに記載の撮像装置。
 (15) 前記表示制御部は、前記撮像部により生成される取り込み画像の各フレームにおいて、前記複数の画像の内のいずれか1つを選択して表示させる
 (14)に記載の撮像装置。
 (16) 前記表示制御部は、前記撮像部により生成される撮像画像に含まれる前記複数の画像の一部または全部を、1つずつ選択し、動的に切り替えるように表示させる
 (14)または(15)に記載の撮像装置。
 (17) 前記複数の個眼光学系のそれぞれの光軸に対応する複数の撮像部をさらに備え、
 前記表示制御部は、前記複数の撮像部により生成される前記複数の個眼光学系のそれぞれを視点とする前記複数の画像の内のいずれか1つを、表示させる前記画像を動的に切り替えるように、選択して表示させる
 (1)乃至(16)のいずれかに記載の撮像装置。
 (18) 前記表示制御部は、前記複数の個眼光学系の内、選択した画像に対応する前記個眼光学系のみを駆動させる
 (17)に記載の撮像装置。
 (19) 光路が互いに独立している複数の個眼光学系を視点とする複数の画像の内のいずれか1つを選択的、かつ、動的に切り替えながら表示部で表示させる
 情報処理方法。
 (20) コンピュータを、
  光路が互いに独立している複数の個眼光学系を視点とする複数の画像の内のいずれか1つを選択的、かつ、動的に切り替えながら表示部で表示させる表示制御部
 として機能させるプログラム。
 10 カメラ, 30 多眼光学系, 31 個眼光学系, 33 表示パネル部, 34 ビューファインダー部, 35 ダイヤル, 36 ボタン, 51 イメージセンサ, 52 RAW信号処理部, 53 領域抽出部, 54 カメラ信号処理部, 55 表示用画像生成部, 56 領域特定部, 57 画像再構成処理部, 60 バス, 61 表示部, 62 記憶部, 63 記憶媒体, 64 通信部, 65 ファイル化部, 70 関連付け部, 81 制御部, 82 記憶部, 83 記憶媒体, 84 光学系制御部, 141および142 被写体, 151 個眼切り出し画像, 201 表示個眼選択部, 202シフト量決定部, 203 個眼切り出し領域設定部, 204 切り出し処理部, 301 カメラシステム, 310 カメラ本体, 320 多眼交換レンズ, 341 通信部, 351 通信部, 352 記憶部, 353 記憶媒体, 500 カメラ, 521 画像選択部

Claims (20)

  1.  光路が互いに独立している複数の個眼光学系を視点とする複数の画像の内のいずれか1つを選択的、かつ、動的に切り替えながら表示部で表示させる表示制御部
     を備える撮像装置。
  2.  前記表示制御部は、前記複数の画像の一部または全部を、所定の順に1つずつ選択して表示させる
     請求項1に記載の撮像装置。
  3.  前記表示制御部は、前記複数の画像の一部または全部を、前記複数の画像の視点の相対的な位置関係において走査の軌跡が線対称となる順に、1つずつ選択して表示させる
     請求項2に記載の撮像装置。
  4.  前記表示制御部は、前記複数の画像の一部または全部を、前記複数の画像の視点の相対的な位置関係において走査の軌跡が回転対称となる順に、1つずつ選択して表示させる
     請求項2に記載の撮像装置。
  5.  前記表示制御部は、前記複数の画像のうち、前記画像同士の視差が他の画像同士の視差より大きくなる複数の画像を選択し、選択した複数の画像を、1つずつ選択して表示させる
     請求項2に記載の撮像装置。
  6.  前記表示制御部は、前記複数の画像の視点の相対的な位置関係において外周部に位置する前記画像の一部または全部を、前記所定の順に1つずつ選択して表示させる
     請求項2に記載の撮像装置。
  7.  前記画像の選択順を指定する選択順指定部をさらに備え、
     前記表示制御部は、前記複数の画像の一部または全部を、前記選択順指定部により指定された選択順に、1つずつ選択して表示させる
     請求項1に記載の撮像装置。
  8.  前記表示制御部は、選択する前記画像を所定の周期毎に切り替える
     請求項1に記載の撮像装置。
  9.  前記周期は、単数フレームまたは複数フレームである
     請求項8に記載の撮像装置。
  10.  前記周期を指定する周期指定部をさらに備え、
     前記表示制御部は、選択する前記画像を、前記周期指定部により指定された前記周期毎に切り替える
     請求項8に記載の撮像装置。
  11.  前記表示制御部により選択された前記画像と同一の前記個眼光学系を視点とする個眼画像から、前記画像を切り出す切り出し部をさらに備える
     請求項1に記載の撮像装置。
  12.  前記個眼画像から切り出す領域を設定する領域設定部をさらに備え、
     前記切り出し部は、前記個眼画像の、前記領域設定部により設定された前記領域を前記画像として切り出す
     請求項11に記載の撮像装置。
  13.  前記領域の位置のシフト量を制御するシフト量制御部をさらに備え、
     前記領域設定部は、前記シフト量制御部により制御された前記シフト量を用いて、前記領域を設定する
     請求項12に記載の撮像装置。
  14.  前記複数の個眼光学系のそれぞれの光軸が互いに異なる位置に対応する撮像部をさらに備え、
     前記表示制御部は、前記撮像部により生成される画像に含まれる、前記複数の個眼光学系のそれぞれを視点とする前記複数の画像の内のいずれか1つを、表示させる前記画像を動的に切り替えるように、選択して表示させる
     請求項1に記載の撮像装置。
  15.  前記表示制御部は、前記撮像部により生成される取り込み画像の各フレームにおいて、前記複数の画像の内のいずれか1つを選択して表示させる
     請求項14に記載の撮像装置。
  16.  前記表示制御部は、前記撮像部により生成される撮像画像に含まれる前記複数の画像の一部または全部を、1つずつ選択し、動的に切り替えるように表示させる
     請求項14に記載の撮像装置。
  17.  前記複数の個眼光学系のそれぞれの光軸に対応する複数の撮像部をさらに備え、
     前記表示制御部は、前記複数の撮像部により生成される前記複数の個眼光学系のそれぞれを視点とする前記複数の画像の内のいずれか1つを、表示させる前記画像を動的に切り替えるように、選択して表示させる
     請求項1に記載の撮像装置。
  18.  前記表示制御部は、前記複数の個眼光学系の内、選択した画像に対応する前記個眼光学系のみを駆動させる
     請求項17に記載の撮像装置。
  19.  光路が互いに独立している複数の個眼光学系を視点とする複数の画像の内のいずれか1つを選択的、かつ、動的に切り替えながら表示部で表示させる
     情報処理方法。
  20.  コンピュータを、
      光路が互いに独立している複数の個眼光学系を視点とする複数の画像の内のいずれか1つを選択的、かつ、動的に切り替えながら表示部で表示させる表示制御部
     として機能させるプログラム。
PCT/JP2020/045370 2019-12-20 2020-12-07 撮像装置、情報処理方法、およびプログラム WO2021124942A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP20901441.4A EP4068756A4 (en) 2019-12-20 2020-12-07 IMAGE DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
JP2021565478A JPWO2021124942A1 (ja) 2019-12-20 2020-12-07
US17/784,886 US20230016712A1 (en) 2019-12-20 2020-12-07 Imaging device, information processing method, and program
KR1020227020566A KR20220116183A (ko) 2019-12-20 2020-12-07 촬상 장치, 정보 처리 방법, 및 프로그램
CN202080086197.9A CN114788258A (zh) 2019-12-20 2020-12-07 成像设备、信息处理方法和程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019230034 2019-12-20
JP2019-230034 2019-12-20

Publications (1)

Publication Number Publication Date
WO2021124942A1 true WO2021124942A1 (ja) 2021-06-24

Family

ID=76477474

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/045370 WO2021124942A1 (ja) 2019-12-20 2020-12-07 撮像装置、情報処理方法、およびプログラム

Country Status (6)

Country Link
US (1) US20230016712A1 (ja)
EP (1) EP4068756A4 (ja)
JP (1) JPWO2021124942A1 (ja)
KR (1) KR20220116183A (ja)
CN (1) CN114788258A (ja)
WO (1) WO2021124942A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171358A1 (ja) * 2022-03-07 2023-09-14 ソニーグループ株式会社 マスクユニット、並びに撮像装置および撮像装置の作動方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04345378A (ja) * 1991-05-23 1992-12-01 Konica Corp 電子スチルビデオカメラ
JP2006119843A (ja) * 2004-10-20 2006-05-11 Olympus Corp 画像生成方法およびその装置
JP2007049484A (ja) * 2005-08-10 2007-02-22 Fujifilm Holdings Corp デジタルカメラ
WO2009150895A1 (ja) * 2008-06-13 2009-12-17 株式会社ニコン 電子カメラ
US20100007714A1 (en) * 2008-07-10 2010-01-14 Samsung Electronics Co., Ltd. Flexible image photographing apparatus with a plurality of image forming units and method for manufacturing the same
JP2010177921A (ja) * 2009-01-28 2010-08-12 Fujifilm Corp 立体撮像装置および立体撮像方法
JP2015181214A (ja) * 2014-03-07 2015-10-15 キヤノン株式会社 複眼撮像装置
WO2019065260A1 (ja) 2017-09-27 2019-04-04 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム、並びに、交換レンズ

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8508537B2 (en) * 2008-11-17 2013-08-13 Disney Enterprises, Inc. System and method for dependency graph evaluation for animation
JP5640143B2 (ja) * 2011-03-31 2014-12-10 富士フイルム株式会社 撮像装置及び撮像方法
KR20140045458A (ko) * 2011-06-28 2014-04-16 펠리칸 이매징 코포레이션 어레이 카메라와 함께 사용하는 광학 장치
JP5667304B2 (ja) * 2011-09-13 2015-02-12 富士フイルム株式会社 立体撮像装置
JP2013061440A (ja) * 2011-09-13 2013-04-04 Canon Inc 撮像装置および撮像装置の制御方法
JP5896680B2 (ja) * 2011-10-12 2016-03-30 キヤノン株式会社 撮像装置、画像処理装置、及び画像処理方法
EP2592823A3 (en) * 2011-10-12 2013-06-19 Canon Kabushiki Kaisha Image-capturing device
JP6239993B2 (ja) * 2014-02-07 2017-11-29 オリンパス株式会社 撮像装置、表示装置、及び制御方法
US10255664B2 (en) * 2014-07-04 2019-04-09 Sony Corporation Image processing device and method
CN107924572B (zh) * 2015-04-17 2021-06-15 快图有限公司 使用阵列相机执行高速视频捕获和深度估计的系统和方法
EP3444114B1 (de) 2017-08-18 2023-10-25 Ems-Chemie Ag Verstärkte polyamid-formmassen mit geringem haze und formkörper daraus
EP3776055A1 (en) * 2018-04-12 2021-02-17 Life Technologies Corporation Apparatuses, systems and methods for generating color video with a monochrome sensor

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04345378A (ja) * 1991-05-23 1992-12-01 Konica Corp 電子スチルビデオカメラ
JP2006119843A (ja) * 2004-10-20 2006-05-11 Olympus Corp 画像生成方法およびその装置
JP2007049484A (ja) * 2005-08-10 2007-02-22 Fujifilm Holdings Corp デジタルカメラ
WO2009150895A1 (ja) * 2008-06-13 2009-12-17 株式会社ニコン 電子カメラ
US20100007714A1 (en) * 2008-07-10 2010-01-14 Samsung Electronics Co., Ltd. Flexible image photographing apparatus with a plurality of image forming units and method for manufacturing the same
JP2010177921A (ja) * 2009-01-28 2010-08-12 Fujifilm Corp 立体撮像装置および立体撮像方法
JP2015181214A (ja) * 2014-03-07 2015-10-15 キヤノン株式会社 複眼撮像装置
WO2019065260A1 (ja) 2017-09-27 2019-04-04 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム、並びに、交換レンズ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4068756A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023171358A1 (ja) * 2022-03-07 2023-09-14 ソニーグループ株式会社 マスクユニット、並びに撮像装置および撮像装置の作動方法

Also Published As

Publication number Publication date
EP4068756A1 (en) 2022-10-05
US20230016712A1 (en) 2023-01-19
EP4068756A4 (en) 2023-01-11
JPWO2021124942A1 (ja) 2021-06-24
KR20220116183A (ko) 2022-08-22
CN114788258A (zh) 2022-07-22

Similar Documents

Publication Publication Date Title
JP6818015B2 (ja) マルチスコピック雑音削減およびハイ・ダイナミック・レンジのためのシステムおよび方法
US20140028806A1 (en) Imaging device and imaging method
WO2011052064A1 (ja) 情報処理装置および方法
JP5096048B2 (ja) 撮像装置、立体画像再生装置及び立体画像再生プログラム
US20080158369A1 (en) Image generating apparatus and image regenerating apparatus
JP2012253748A (ja) 画像処理装置およびその方法
US20100315517A1 (en) Image recording device and image recording method
JP2010213083A (ja) 撮像装置および方法
CN105323423A (zh) 图像处理方法、图像处理装置及摄像装置
JP5214547B2 (ja) 画像表示装置および方法並びにプログラム
JP2010206643A (ja) 撮像装置、方法およびプログラム
WO2021124942A1 (ja) 撮像装置、情報処理方法、およびプログラム
JP2008312058A (ja) 撮像装置、撮像方法及びプログラム
CN103155576A (zh) 立体图像显示装置和立体图像显示方法
US11899276B2 (en) Imaging apparatus, information processing method, program, and interchangeable lens
JP5191864B2 (ja) 3次元表示装置および方法並びにプログラム
US11899342B2 (en) Interchangeable lens, information processing apparatus, information processing method, and program
US11765336B2 (en) Image-capturing apparatus, information processing method, and program
WO2021124940A1 (ja) 情報処理装置および方法、撮像装置および方法、プログラム、並びに、交換レンズ
JP2012124650A (ja) 撮像装置および撮像方法
JP2019208214A (ja) 画像処理装置、画像処理方法およびプログラム、並びに撮像装置
US10334161B2 (en) Image processing apparatus, image processing method, computer program and imaging apparatus
JP2008278425A (ja) 画像記録装置、方法およびプログラム
JP5307189B2 (ja) 立体画像表示装置、複眼撮像装置及び立体画像表示プログラム
JP2014228727A (ja) 撮像装置およびその制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20901441

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021565478

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2020901441

Country of ref document: EP

Effective date: 20220629

NENP Non-entry into the national phase

Ref country code: DE