WO2021124940A1 - 情報処理装置および方法、撮像装置および方法、プログラム、並びに、交換レンズ - Google Patents

情報処理装置および方法、撮像装置および方法、プログラム、並びに、交換レンズ Download PDF

Info

Publication number
WO2021124940A1
WO2021124940A1 PCT/JP2020/045368 JP2020045368W WO2021124940A1 WO 2021124940 A1 WO2021124940 A1 WO 2021124940A1 JP 2020045368 W JP2020045368 W JP 2020045368W WO 2021124940 A1 WO2021124940 A1 WO 2021124940A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
viewpoint
area
unit
imaging mode
Prior art date
Application number
PCT/JP2020/045368
Other languages
English (en)
French (fr)
Inventor
健吾 早坂
功久 井藤
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to US17/777,451 priority Critical patent/US20220408021A1/en
Publication of WO2021124940A1 publication Critical patent/WO2021124940A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/1006Beam splitting or combining systems for splitting or combining different wavelengths
    • G02B27/1013Beam splitting or combining systems for splitting or combining different wavelengths for colour or multispectral image sensors, e.g. splitting an image into monochromatic image components on respective sensors
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/18Focusing aids
    • G03B13/20Rangefinders coupled with focusing arrangements, e.g. adjustment of rangefinder automatically focusing camera
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/07Roll-film cameras having more than one objective
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Definitions

  • the present disclosure relates to information processing devices and methods, imaging devices and methods, programs, and interchangeable lenses, and in particular, information processing devices and methods, imaging devices and methods that enable a viewpoint image according to an imaging mode to be obtained. , Programs, and interchangeable lenses.
  • Patent Document 1 Conventionally, a method of generating an image obtained through a wide-angle lens and an image obtained through a telephoto lens at different positions on the same imaging surface has been considered (see, for example, Patent Document 1).
  • This disclosure was made in view of such a situation, and makes it possible to obtain a viewpoint image according to the imaging mode.
  • the information processing device on one aspect of the present technology refers to an image generated by an image sensor in which each irradiation light passing through each of a plurality of individual eye optical systems whose optical paths are independent of each other irradiates different positions.
  • An information processing device including a setting unit that sets a viewpoint image region, which is a region of each viewpoint image corresponding to each individual eye optical system, according to an imaging mode of the captured image.
  • the information processing method of one aspect of the present technology is applied to an image generated by an image sensor in which each irradiation light passing through each of a plurality of individual eye optical systems whose optical paths are independent of each other irradiates different positions.
  • This is an information processing method for setting a viewpoint image region, which is a region of each viewpoint image corresponding to each individual eye optical system, according to an imaging mode of the captured image.
  • the program of one aspect of the present technology is for an image image generated by an image sensor in which each irradiation light passing through each of a plurality of individual eye optical systems whose optical paths are independent of each other irradiates a computer at different positions.
  • This is a program that functions as a setting unit that sets the viewpoint image area, which is the area of each viewpoint image corresponding to each individual eye optical system, according to the imaging mode of the captured image.
  • the image pickup device on the other side of the present technology photoelectrically converts each irradiation light that passes through each of a plurality of individual eye optical systems whose optical paths are independent of each other and irradiates them at different positions in a predetermined imaging mode.
  • a viewpoint image region that is a region of each viewpoint image corresponding to each individual eye optical system is set according to the imaging mode. It is an imaging device including a setting unit.
  • each irradiation light that passes through each of a plurality of individual eye optical systems whose optical paths are independent of each other and irradiates at different positions is photoelectrically converted in a predetermined imaging mode.
  • This is an imaging method in which an captured image is generated and a viewpoint image region, which is a region of each viewpoint image corresponding to each individual eye optical system, is set for the generated captured image according to the imaging mode.
  • the program of the other aspect of the present technology photoelectrically converts each irradiation light that irradiates the computer at different positions through each of a plurality of individual eye optical systems whose optical paths are independent of each other in a predetermined imaging mode.
  • the imaging unit that generates the captured image and the viewpoint image region that is the region of each viewpoint image corresponding to each individual eye optical system with respect to the captured image generated by the imaging unit are set according to the imaging mode. It is a program that functions as a setting unit for setting.
  • the interchangeable lens on the other side of the present technology has a plurality of individual eye optical systems in which the optical paths are independent of each other, and each imaging mode indicating a viewpoint image region which is an region of each viewpoint image corresponding to each individual eye optical system. It is an interchangeable lens provided with a storage unit for storing information in the viewpoint area.
  • each irradiation light passing through each of a plurality of individual eye optical systems whose optical paths are independent of each other is generated by an image sensor that irradiates different positions.
  • a viewpoint image region which is a region of each viewpoint image corresponding to each individual eye optical system, is set for the captured image according to the imaging mode of the captured image.
  • each irradiation light that passes through each of a plurality of individual eye optical systems whose optical paths are independent of each other and irradiates different positions with each other is predetermined.
  • a captured image is generated by photoelectric conversion in the imaging mode, and a viewpoint image region, which is a region of each viewpoint image corresponding to each individual eye optical system, is set for the generated captured image according to the imaging mode.
  • each imaging mode indicates a plurality of individual eye optical systems whose optical paths are independent of each other and a viewpoint image area which is an area of each viewpoint image corresponding to each individual eye optical system. It is provided with a storage unit for storing the viewpoint area information which is the information of the above.
  • FIG. 1 is a perspective view showing a configuration example of an embodiment of a camera to which the present technology is applied.
  • the camera 10 has a built-in image sensor, receives light rays focused by the lens, and performs photoelectric conversion to image the subject.
  • the image obtained by such imaging is also referred to as a captured image.
  • the camera 10 is provided with a lens barrel 20 on the front side (the side on which light is incident) of the image sensor, and the lens barrel 20 has five individual eye optical systems 310 , 31 1 , 31 as a plurality. 2, 31 3, and a 31 4.
  • ommatidium optical system 31 or ommatidium optical system 31 i.
  • the plurality of individual eye optical systems 31 are configured so that the optical paths of light passing through them are independent of each other. That is, the light that has passed through each individual eye optical system 31 of the lens barrel 20 irradiates different positions on the light receiving surface (for example, the effective pixel region) of the image sensor without incident on the other individual eye optical system 31. At least, the optical axes of the individual eye optical systems 31 are located at different positions on the light receiving surface of the image sensor, and at least a part of the light passing through each individual eye optical system 31 is different from each other on the light receiving surface of the image sensor. Irradiate the position.
  • the images of the subjects imaged via each individual eye optical system 31 are formed at different positions.
  • an captured image also referred to as a viewpoint image
  • the camera 10 can obtain a plurality of viewpoint images by photographing the subject.
  • the plurality of viewpoint images can be used, for example, for generation of depth information and processing such as refocusing using the depth information.
  • the number of the individual eye optical systems 31 is arbitrary as long as it is two or more.
  • ommatidium optical system 31 is perpendicular to the optical axis of the lens barrel 20 (the light receiving surface of the image sensor (parallel to the imaging plane)) on a two-dimensional plane, the center of the ommatidium optical system 31 0 (center of gravity) As a result, the other four individual eye optical systems 31 1 to 31 4 are provided so as to form the vertices of a rectangle.
  • the arrangement shown in FIG. 1 is an example, and the positional relationship of each individual eye optical system 31 is arbitrary as long as the optical paths are independent of each other.
  • the surface on the side where the light from the subject is incident is the front surface.
  • FIG. 2 is a block diagram showing an example of an electrical configuration of the camera 10 of FIG.
  • the camera 10 includes a multi-eye optical system 30, an image sensor 51, a RAW signal processing unit 52, a region extraction unit 53, a camera signal processing unit 54, a through image generation unit 55, an area identification unit 56, an image reconstruction processing unit 57, and a bus. It has 60, a display unit 61, a storage unit 62, a communication unit 64, a file conversion unit 65, a control unit 81, a storage unit 82, and an optical system control unit 84.
  • Multiview optical system 30 is composed of the above-mentioned single-eye optical system 31 (e.g. ommatidium optical system 31 0 to ommatidium optical system 31 4).
  • Each individual eye optical system 31 of the multi-eye optical system 30 collects light rays from the subject on the image sensor 51 of the camera 10. It is assumed that the specifications of the individual eye optical systems 31 are the same as each other.
  • the image sensor 51 is, for example, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, which images a subject and generates an captured image.
  • the light receiving surface of the image sensor 51 light rays are condensed is irradiated by the respective ommatidium optical system 31 0 to 31 4.
  • An image corresponding to a region in which the irradiation light emitted to the image sensor 51 via one individual eye optical system 31 in the captured image is input is also referred to as an individual eye image. That is, the image sensor 51 receives the light rays (irradiation light) and performs photoelectric conversion to generate an captured image including an individual eye image with each individual eye optical system 31 as a viewpoint.
  • the individual eye image has a portion around which is not effective as an image.
  • a captured image including all individual eye images that is, the entire captured image generated by the image sensor 51, or a part of a region outside the captured image from all the captured images. Or an image in which all are deleted) is also referred to as an entire image.
  • the image sensor 51 may be a monochromatic (so-called monochrome) image sensor, or may be a color image sensor in which, for example, a Bayer array color filter is arranged in a pixel group. That is, the captured image output by the image sensor 51 may be a monochrome image or a color image. In the following, the image sensor 51 will be described as a color image sensor that generates and outputs a captured image in a RAW format.
  • the RAW format means an image in which the positional relationship of the arrangement of the color filters of the image sensor 51 is maintained, and the image size conversion process for the image output from the image sensor 51 is performed. It is also possible to include an image that has undergone signal processing such as noise reduction processing, defect correction processing of the image sensor 51, and compression coding. In addition, the captured image in RAW format does not include a monochrome image.
  • the image sensor 51 can output a RAW format captured image (whole image) generated by photoelectric conversion of the irradiation light.
  • the image sensor 51 supplies the captured image (whole image) in the RAW format to at least one of the bus 60, the RAW signal processing unit 52, the area extraction unit 53, and the area identification unit 56. be able to.
  • the image sensor 51 can supply the captured image (whole image) in the RAW format to the storage unit 62 via the bus 60 and store it in the storage medium 63. Further, the image sensor 51 can supply the captured image (whole image) in the RAW format to the communication unit 64 via the bus 60 and transmit it to the outside of the camera 10. Further, the image sensor 51 can supply the captured image (whole image) in the RAW format to the file forming unit 65 via the bus 60 and make it into a file. Further, the image sensor 51 can supply the captured image (whole image) in the RAW format to the image reconstruction processing unit 57 via the bus 60 to perform the image reconstruction processing.
  • the image sensor 51 may be a single plate type image sensor, or may be a set of image sensors (also referred to as a plurality of plate type image sensor) composed of a plurality of image sensors such as a three-plate type image sensor. Good.
  • the three-plate image sensor has three image sensors (image sensor 51-1 to image sensor 51-3) for each of RGB (Red, Green, Blue) as shown in FIG. There is.
  • the light rays from the subject are separated for each wavelength range by using an optical system (optical path separation unit) such as a prism, and are incident on each image sensor.
  • Each of the image sensor 51-1 to the image sensor 51-3 photoelectrically converts the incident light. That is, the image sensor 51-1 to the image sensor 51-3 photoelectrically convert light in different wavelength ranges from each other at substantially the same timing.
  • each image sensor obtains images captured at substantially the same time and at substantially the same angle of view (that is, images having substantially the same pattern only in different wavelength ranges). Be done. Therefore, the positions and sizes of the viewpoint image regions (described later) in the captured images obtained by each image sensor are substantially the same as each other.
  • the combination of the R image, the G image, and the B image can be regarded as a captured image in the RAW format.
  • each image sensor is not limited to one for each of RGB, and may be all monochrome, or all may be equipped with a color filter such as a Bayer array.
  • a color filter such as a Bayer array
  • noise reduction can be performed by making all arrays the same and matching the positional relationship of the pixels with each other, and the positional relationship of each RGB image sensor. It is also possible to improve the image quality by using the effect of the spatial pixel shift.
  • a plurality of individual eye images and a plurality of viewpoint images are included in each image sensor, that is, the captured image output from one image sensor.
  • the RAW signal processing unit 52 performs processing related to signal processing for an image in RAW format.
  • the RAW signal processing unit 52 can acquire a RAW format captured image (whole image) supplied from the image sensor 51.
  • the RAW signal processing unit 52 can perform predetermined signal processing on the acquired captured image.
  • the content of this signal processing is arbitrary. For example, it may be defect correction, noise reduction, compression (encoding), or the like, or it may be signal processing other than these.
  • the RAW signal processing unit 52 can also perform a plurality of signal processing on the captured image.
  • the image after the signal processing is an image in which the positional relationship of the arrangement of the color filters of the image sensor 51 is maintained as described above (in the case of a multi-plate image pickup device). Is limited to images that are in the state of R image, G image, and B image).
  • the RAW signal processing unit 52 supplies a signal-processed RAW format image (RAW') or a compressed (encoded) image (compressed RAW) to the storage unit 62 via the bus 60, and supplies the storage medium. It can be stored in 63. Further, the RAW signal processing unit 52 supplies a signal-processed RAW format image (RAW') or a compressed (encoded) image (compressed RAW) to the communication unit 64 via the bus 60. Can be sent. Further, the RAW signal processing unit 52 supplies a signal-processed RAW format image (RAW') or a compressed (encoded) image (compressed RAW) to the file file 65 via the bus 60. , Can be made into a file.
  • RAW' signal-processed RAW format image
  • compressed RAW compressed (encoded)
  • the RAW signal processing unit 52 transmits a signal-processed RAW format image (RAW') or a compressed (encoded) image (compressed RAW) to the image reconstruction processing unit 57 via the bus 60. It can be supplied and image reconstruction processing can be performed. When it is not necessary to distinguish between these RAW, RAW', and compressed RAW (all of FIG. 2), they are referred to as RAW images.
  • RAW images When it is not necessary to distinguish between these RAW, RAW', and compressed RAW (all of FIG. 2), they are referred to as RAW images.
  • the area extraction unit 53 performs processing related to extraction of a part of the area (cutting out a partial image) from the captured image in the RAW format.
  • the region extraction unit 53 can acquire a RAW format captured image (whole image) supplied from the image sensor 51. Further, the region extraction unit 53 can acquire information (also referred to as extraction region information) indicating a region to be extracted from the captured image, which is supplied from the region identification unit 56. Then, the region extraction unit 53 can extract a part of the region (cut out a partial image) from the captured image based on the extraction region information.
  • the region extraction unit 53 can cut out an image with each individual eye optical system 31 as a viewpoint from the captured image (overall image). That is, the region extraction unit 53 can cut out an effective portion from the region of each individual eye image included in the captured image as an image with each individual eye optical system 31 as a viewpoint.
  • the image of the effective portion (a part of the individual eye image) cut out is also referred to as a viewpoint image.
  • the region to be cut out (the region corresponding to the viewpoint image) in the captured image is also referred to as a viewpoint image region.
  • the area extraction unit 53 acquires the viewpoint-related information supplied from the area identification unit 56, which is information used for specifying the viewpoint image area, as the extraction area information, and obtains the viewpoint-related information from the captured image.
  • Each viewpoint image area shown in (1) can be extracted (each viewpoint image is cut out). Then, the area extraction unit 53 can supply each of the cut-out viewpoint images (RAW format) to the camera signal processing unit 54.
  • the region extraction unit 53 can synthesize each viewpoint image cut out from the captured image (whole image) to generate a composite image.
  • the composite image is one in which each viewpoint image is combined into one data or one image.
  • the region extraction unit 53 can generate one image (composite image) in which each viewpoint image is arranged in a plane.
  • the region extraction unit 53 can supply the generated composite image (RAW format) to the camera signal processing unit 54.
  • the area extraction unit 53 can supply the entire image to the camera signal processing unit 54.
  • the region extraction unit 53 extracts a part of the region including all the individual eye images from the acquired captured image (that is, cuts out the partial image including all the individual eye images), and the cut out partial image (that is, the partial image including all the individual eye images is cut out). That is, an image in which a part or all of the region outside the individual eye image included in the captured image is deleted) can be supplied to the camera signal processing unit 54 as an entire image in the RAW format.
  • the location (range) of the region to be extracted in this case may be predetermined in the region extraction unit 53, or may be specified by the viewpoint-related information supplied from the region identification unit 56.
  • the region extraction unit 53 supplies the acquired captured image (that is, the entire captured image, not the partial image including all the cut out individual eye images) to the camera signal processing unit 54 as the entire image in the RAW format. You can also do it.
  • the area extraction unit 53 stores the RAW format partial image (whole image, viewpoint image, or composite image) cut out from the captured image as described above via the bus 60, as in the case of the image sensor 51. It can be supplied to the unit 62, the communication unit 64, the file conversion unit 65, the image reconstruction processing unit 57, and the like.
  • the area extraction unit 53 supplies a partial image (whole image, viewpoint image, or composite image) in the RAW format to the RAW signal processing unit 52 to perform predetermined signal processing or compress (encode) the partial image. You can also let them do it.
  • the RAW signal processing unit 52 communicates the signal-processed RAW format image (RAW') or the compressed (encoded) image (compressed RAW) with the storage unit 62 via the bus 60. It can be supplied to the unit 64, the file conversion unit 65, the image reconstruction processing unit 57, and the like.
  • At least one of the captured image (or the whole image), the viewpoint image, and the composite image may be a RAW image.
  • the camera signal processing unit 54 performs processing related to camera signal processing on the image.
  • the camera signal processing unit 54 can acquire an image (whole image, viewpoint image, or composite image) supplied from the area extraction unit 53. Further, the camera signal processing unit 54 can perform camera signal processing (camera process) on the acquired image.
  • the camera signal processing unit 54 separates each RGB color from the image to be processed and generates an R image, a G image, and a B image having the same number of pixels as the image to be processed (color separation processing).
  • the camera signal processing unit 54 can perform processing such as defect correction, noise reduction, AWB (Automatic White Balance), or gamma correction on the image to be processed. Further, the camera signal processing unit 54 can also compress (encode) the image to be processed. Of course, the camera signal processing unit 54 can perform a plurality of camera signal processing on the image to be processed, and can also perform camera signal processing other than the above-described example.
  • the camera signal processing unit 54 acquires an image in RAW format, performs color separation processing and YC conversion on the image, and outputs an image (YC) in YC format.
  • This image may be a whole image, each viewpoint image, or a composite image.
  • the image (YC) in this YC format may or may not be encoded. That is, the data output from the camera signal processing unit 54 may be encoded data or unencoded image data.
  • At least one of the captured image (or the whole image), the viewpoint image, and the composite image may be an image in the YC format (also referred to as a YC image).
  • the image output by the camera signal processing unit 54 is not completely developed, and is related to irreversible image quality adjustment (color adjustment) such as gamma correction and color matrix as an image (YC) in YC format. It may not have been partially or completely processed. In this case, the YC format image (YC) can be returned to the RAW format image with almost no deterioration in the latter stage or during playback.
  • the camera signal processing unit 54 can supply, for example, a YC format image (YC) subjected to camera signal processing to the display unit 61 via the bus 60 and display the image (YC). Further, the camera signal processing unit 54 can supply the YC format image (YC) subjected to the camera signal processing to the storage unit 62 via the bus 60 and store the image (YC) in the storage medium 63. Further, the camera signal processing unit 54 can supply the YC format image (YC) subjected to the camera signal processing to the communication unit 64 via the bus 60 and transmit it to the outside. Further, the camera signal processing unit 54 can supply the YC format image (YC) to which the camera signal processing has been performed to the file conversion unit 65 via the bus 60 to file the image (YC). Further, the camera signal processing unit 54 can supply the YC format image (YC) subjected to the camera signal processing to the image reconstruction processing unit 57 via the bus 60 to perform the image reconstruction processing.
  • YC YC format image
  • YC
  • the camera signal processing unit 54 can supply the YC format image (YC) to the through image generation unit 55.
  • the camera signal processing unit 54 When a RAW format image (whole image, viewpoint image, or partial image) is stored in the storage medium 63, the camera signal processing unit 54 reads the RAW format image from the storage medium 63 and performs signal processing. It may be possible to apply. In this case as well, the camera signal processing unit 54 displays the YC format image (YC) subjected to the camera signal processing via the bus 60 into the display unit 61, the storage unit 62, the communication unit 64, the file conversion unit 65, or the image. It can be supplied to the reconstruction processing unit 57 and the like.
  • YC YC format image
  • the camera signal processing unit 54 performs camera signal processing on the RAW format captured image (whole image) output from the image sensor 51, and the area extraction unit is used from the captured image (whole image) after the camera signal processing. 53 may be made to extract a part of the region.
  • the through image generation unit 55 performs processing related to generation of the through image.
  • the through image is an image displayed for the user to confirm the image being prepared for shooting at the time of shooting or preparation for shooting (during non-recording). Through images are also referred to as live view images and EE (Electronic to Electronic) images.
  • EE Electronic to Electronic
  • the through image generation unit 55 can acquire an image (overall image, viewpoint image, or composite image) supplied from the camera signal processing unit 54. Further, the through image generation unit 55 uses the acquired image to perform image size (resolution) conversion for converting to an image size according to the resolution of the display unit 61, for example, to obtain a through image which is a display image. Can be generated. The through image generation unit 55 can supply the generated through image to the display unit 61 via the bus 60 and display the generated through image.
  • the area identification unit 56 performs processing related to identification (setting) of the area extracted from the captured image by the area extraction unit 53. For example, the area identification unit 56 identifies the viewpoint-related information (VI) and supplies the viewpoint image area to the area extraction unit 53.
  • the area identification unit 56 identifies the viewpoint-related information (VI) and supplies the viewpoint image area to the area extraction unit 53.
  • the viewpoint-related information (VI) includes, for example, the viewpoint area information indicating the viewpoint image area in the captured image.
  • the viewpoint area information may represent the viewpoint image area in any way.
  • the viewpoint image area is determined by the coordinates indicating the position corresponding to the optical axis of the individual eye optical system 31 in the captured image (also referred to as the center coordinates of the viewpoint image area) and the resolution (number of pixels) of the viewpoint image (viewpoint image area). May be represented.
  • the viewpoint region information may include the center coordinates of the viewpoint image region in the captured image and the resolution of the viewpoint image region. In this case, the location of the viewpoint image area in the entire image can be specified from the center coordinates of the viewpoint image area and the resolution (number of pixels) of the viewpoint image area.
  • the viewpoint area information is set for each viewpoint image area. That is, when the captured image includes a plurality of viewpoint images, the viewpoint-related information (VI) is the viewpoint identification information (for example, identification number) for identifying the viewpoint image (region) for each viewpoint image (each viewpoint image area). ) And viewpoint area information.
  • the viewpoint-related information is the viewpoint identification information (for example, identification number) for identifying the viewpoint image (region) for each viewpoint image (each viewpoint image area).
  • the viewpoint-related information (VI) may include any other information.
  • the viewpoint-related information (VI) may include the viewpoint time information indicating the time when the captured image from which the viewpoint image is extracted is captured.
  • the viewpoint-related information (VI) may include the viewpoint image inclusion area information indicating the viewpoint image inclusion area including the viewpoint image area, which is a region cut out from the individual eye image.
  • the viewpoint-related information (VI) may include spot light information (SI) which is information about a spot light image formed in a region which is neither a viewpoint image region nor an individual eye image region of the captured image.
  • SI spot light information
  • the area identification unit 56 supplies such viewpoint-related information (VI) to the area extraction unit 53 as information indicating the specified viewpoint image area, so that the area extraction unit 53 can use the viewpoint-related information (VI). Based on this, the viewpoint image area specified by the area specifying unit 56 can be extracted (viewpoint image is cut out).
  • the area identification unit 56 can supply the viewpoint-related information (VI) to the bus 60.
  • the area identification unit 56 can supply the viewpoint-related information (VI) to the storage unit 62 via the bus 60 and store it in the storage medium 63.
  • the area specifying unit 56 can supply the viewpoint-related information (VI) to the communication unit 64 via the bus 60 and transmit it.
  • the area specifying unit 56 can supply the viewpoint-related information (VI) to the file forming unit 65 via the bus 60 and make it into a file.
  • the area specifying unit 56 can supply the viewpoint-related information (VI) to the image reconstruction processing unit 57 via the bus 60 and use it for the image reconstruction processing.
  • the area identification unit 56 may acquire such viewpoint-related information (VI) from the control unit 81 and supply the acquired viewpoint-related information (VI) to the area extraction unit 53 or the bus 60.
  • the control unit 81 reads out the viewpoint-related information (VI) stored in the storage medium 83 via the storage unit 82 and supplies it to the area identification unit 56.
  • the area identification unit 56 supplies the viewpoint-related information (VI) to the area extraction unit 53 and the bus 60.
  • the viewpoint-related information (VI) may include spot light information (SI).
  • the viewpoint-related information (VI) supplied to the storage unit 62, the communication unit 64, or the file conversion unit 65 via the bus 60 in this way is associated with an image (whole image, viewpoint image, or composite image) there. ..
  • the storage unit 62 can associate the supplied viewpoint-related information (VI) with an image (whole image, viewpoint image, or composite image) and store it in the storage medium 63.
  • the communication unit 64 can associate the supplied viewpoint-related information (VI) with an image (whole image, viewpoint image, or composite image) and transmit it to the outside.
  • the file forming unit 65 can associate the supplied viewpoint-related information (VI) with an image (whole image, viewpoint image, or composite image) and generate one file including them.
  • the area specifying unit 56 acquires a RAW format captured image supplied from the image sensor 51, generates viewpoint-related information (VI') based on the captured image, and generates the viewpoint-related information (VI'). ) May be supplied to the region extraction unit 53 or the bus 60.
  • the area specifying unit 56 identifies each viewpoint image area from the captured image and indicates the viewpoint image area (for example, the viewpoint image area is determined by the center coordinates of the viewpoint image area in the captured image, the resolution of the viewpoint image area, and the like. (Show) Generate viewpoint-related information (VI'). Then, the area identification unit 56 supplies the generated viewpoint-related information (VI') to the area extraction unit 53 and the bus 60.
  • the viewpoint-related information (VI') may include spot light information (SI') generated by the region identification unit 56 based on the captured image.
  • the area identification unit 56 acquires the viewpoint-related information (VI) from the control unit 81, acquires the captured image in the RAW format supplied from the image sensor 51, and based on the captured image, the spot light information (SI'. ), The spot light information (SI') may be added to the viewpoint-related information (VI), and the spot light information (SI') may be supplied to the region extraction unit 53 or the bus 60.
  • the control unit 81 reads out the viewpoint-related information (VI) stored in the storage medium 83 via the storage unit 82 and supplies it to the area identification unit 56.
  • the area specifying unit 56 adds spot light information (SI') to the viewpoint-related information (VI) to generate viewpoint-related information (VI').
  • the area identification unit 56 supplies the viewpoint-related information (VI') to the area extraction unit 53 and the bus 60.
  • the area specifying unit 56 acquires the viewpoint-related information (VI) from the control unit 81, acquires the captured image in the RAW format supplied from the image sensor 51, and based on the captured image, the spot light information (SI'. ) Is generated, the viewpoint-related information (VI) is corrected using the spot light information (SI'), and the corrected viewpoint-related information (VI') may be supplied to the region extraction unit 53 or the bus 60. ..
  • the control unit 81 reads out the viewpoint-related information (VI) stored in the storage medium 83 via the storage unit 82 and supplies it to the area identification unit 56.
  • the area specifying unit 56 corrects the viewpoint-related information (VI) using the spot light information (SI'), and generates the viewpoint-related information (VI').
  • the area identification unit 56 supplies the viewpoint-related information (VI') to the area extraction unit 53 and the bus 60.
  • the image reconstruction processing unit 57 performs processing related to image reconstruction.
  • the image reconstruction processing unit 57 can acquire a YC format image (whole image, viewpoint image, or composite image) from the camera signal processing unit 54 or the storage unit 62 via the bus 60. Further, the image reconstruction processing unit 57 can acquire viewpoint-related information from the area identification unit 56 and the storage unit 62 via the bus 60.
  • the image reconstruction processing unit 57 uses the acquired image and the viewpoint-related information associated with the acquired image to generate, for example, depth information or an image focused on an arbitrary subject ( Image processing such as refocusing can be performed. For example, when the viewpoint image is the processing target, the image reconstruction processing unit 57 performs processing such as generation of depth information and refocusing using each viewpoint image. When a captured image or a composite image is to be processed, the image reconstruction processing unit 57 extracts each viewpoint image from the captured image or the composite image, and generates or refocuses depth information using the extracted viewpoint image. Etc. are performed.
  • the image reconstruction processing unit 57 can supply the generated depth information and the refocused image as a processing result to the storage unit 62 via the bus 60 and store the generated depth information and the refocused image in the storage medium 63. Further, the image reconstruction processing unit 57 can supply the generated depth information and the refocused image as a processing result to the communication unit 64 via the bus 60 and transmit the generated depth information to the outside. Further, the image reconstruction processing unit 57 can supply the generated depth information and the refocused image as a processing result to the file conversion unit 65 via the bus 60 to create a file.
  • the bus 60 includes an image sensor 51, a RAW signal processing unit 52, an area extraction unit 53, a camera signal processing unit 54, a through image generation unit 55, an area identification unit 56, an image reconstruction processing unit 57, a display unit 61, and a storage unit. 62, the communication unit 64, and the file conversion unit 65 are connected.
  • the bus 60 functions as a transmission medium (transmission line) for various data exchanged between these blocks.
  • the bus 60 may be realized by wire or by wireless communication.
  • the display unit 61 is composed of, for example, a liquid crystal panel, an organic EL (Electro Luminescence) panel, or the like, and is provided integrally with or separately from the housing of the camera 10.
  • the display unit 61 may be provided on the back surface of the housing of the camera 10 (the surface opposite to the surface on which the multi-lens optical system 30 is provided).
  • the display unit 61 performs processing related to image display. For example, the display unit 61 can acquire a through image in the YC format supplied from the through image generation unit 55, convert it into an RGB format, and display it. In addition, the display unit 61 can also display information such as menus and settings of the camera 10.
  • the display unit 61 can acquire and display a YC format image (captured image, viewpoint image, or composite image) supplied from the storage unit 62. Further, the display unit 61 can acquire and display a thumbnail image in the YC format supplied from the storage unit 62. Further, the display unit 61 can acquire and display a YC format image (captured image, viewpoint image, or composite image) supplied from the camera signal processing unit 54.
  • the storage unit 62 controls the storage of the storage medium 63 made of, for example, a semiconductor memory or the like.
  • the storage medium 63 may be a removable storage medium or a storage medium built in the camera 10.
  • the storage unit 62 can store an image (captured image, viewpoint image, or composite image) supplied via the bus 60 in the storage medium 63 in response to an operation of the control unit 81 or the user.
  • the storage unit 62 can acquire a RAW format image (whole image, viewpoint image, or composite image) supplied from the image sensor 51 or the area extraction unit 53 and store it in the storage medium 63.
  • the storage unit 62 is a signal-processed RAW format image (whole image, viewpoint image, or composite image) supplied from the RAW signal processing unit 52 or a compressed (encoded) RAW format image (whole image).
  • a viewpoint image, or a composite image) can be acquired and stored in the storage medium 63.
  • the storage unit 62 can acquire a YC format image (whole image, viewpoint image, or composite image) supplied from the camera signal processing unit 54 and store it in the storage medium 63.
  • the storage unit 62 can acquire the viewpoint-related information supplied from the area identification unit 56 and associate it with the above-mentioned image (overall image, viewpoint image, or composite image). That is, the storage unit 62 can store the image (whole image, viewpoint image, or composite image) and the viewpoint-related information in the storage medium 63 in association with each other. That is, the storage unit 62 functions as an association unit that associates at least one of the entire image, the viewpoint image, and the composite image with the viewpoint-related information.
  • the storage unit 62 can acquire the depth information and the refocused image supplied from the image reconstruction processing unit 57 and store them in the storage medium 63. Further, the storage unit 62 can acquire the file supplied from the file conversion unit 65 and store it in the storage medium 63.
  • This file contains, for example, an image (whole image, viewpoint image, or composite image) and viewpoint related information. That is, in this file, the image (whole image, viewpoint image, or composite image) and viewpoint-related information are associated with each other.
  • the storage unit 62 reads out the data, files, etc. stored in the storage medium 63 in response to the operation of the control unit 81 or the user, and the camera signal processing unit 54 and the display unit via the bus 60. It can be supplied to the 61, the communication unit 64, the file conversion unit 65, the image reconstruction processing unit 57, and the like.
  • the storage unit 62 can read an image in YC format (whole image, viewpoint image, or composite image) from the storage medium 63, supply it to the display unit 61, and display it.
  • the storage unit 62 can read an image in RAW format (whole image, viewpoint image, or composite image) from the storage medium 63 and supply it to the camera signal processing unit 54 to perform camera signal processing.
  • the storage unit 62 reads out the data or file of the image (whole image, viewpoint image, or composite image) and the viewpoint-related information stored in the storage medium 63 in association with each other, and supplies the data or file to another processing unit. Can be done.
  • the storage unit 62 reads out images (whole image, viewpoint image, or composite image) and viewpoint-related information associated with each other from the storage medium 63, supplies them to the image reconstruction processing unit 57, and supplies the depth information to the image reconstruction processing unit 57. It is possible to perform processing such as generation and refocusing.
  • the storage unit 62 can read images (whole image, viewpoint image, or composite image) and viewpoint-related information associated with each other from the storage medium 63, supply them to the communication unit 64, and transmit them.
  • the storage unit 62 can read images (whole image, viewpoint image, or composite image) and viewpoint-related information associated with each other from the storage medium 63, supply them to the file conversion unit 65, and file them. it can.
  • the storage medium 63 may be a ROM (Read Only Memory) or a rewritable memory such as a RAM (Random Access Memory) or a flash memory. In the case of a rewritable memory, the storage medium 63 can store arbitrary information.
  • the communication unit 64 communicates with a server on the Internet, a PC on a wired or wireless LAN, another external device, or the like by an arbitrary communication method.
  • the communication unit 64 streams data or files such as an image (captured image, viewpoint image, or composite image) or viewpoint-related information by the communication in response to the control of the control unit 81 or the operation of the user. It can be sent to the communication partner (external device) by the upload method or the like.
  • the communication unit 64 can acquire and transmit a RAW format image (captured image, viewpoint image, or composite image) supplied from the image sensor 51 or the area extraction unit 53. Further, the communication unit 64 uses a signal-processed RAW format image (captured image, viewpoint image, or composite image) supplied from the RAW signal processing unit 52 or a compressed (encoded) image (captured image, viewpoint image). , Or a composite image) can be acquired and transmitted. Further, the communication unit 64 can acquire and transmit a YC format image (captured image, viewpoint image, or composite image) supplied from the camera signal processing unit 54.
  • a YC format image capturedd image, viewpoint image, or composite image
  • the communication unit 64 can acquire the viewpoint-related information supplied from the area identification unit 56 and associate it with the above-mentioned image (overall image, viewpoint image, or composite image). That is, the communication unit 64 can transmit the image (whole image, viewpoint image, or composite image) and the viewpoint-related information in association with each other. For example, when transmitting an image by a streaming method, the communication unit 64 acquires an image to be transmitted (whole image, viewpoint image, or composite image) from a processing unit that supplies the image, and the area specifying unit 56 is attached to the image. The process of associating and transmitting the viewpoint-related information supplied from is repeated. That is, the communication unit 64 functions as an association unit that associates at least one of the entire image, the viewpoint image, and the composite image with the viewpoint-related information.
  • the communication unit 64 can acquire and transmit the depth information and the refocused image supplied from the image reconstruction processing unit 57. Further, the communication unit 64 can acquire and transmit the file supplied from the file conversion unit 65.
  • This file contains, for example, an image (whole image, viewpoint image, or composite image) and viewpoint related information. That is, in this file, the image (whole image, viewpoint image, or composite image) and viewpoint-related information are associated with each other.
  • the file conversion unit 65 performs processing related to file generation.
  • the file creation unit 65 can acquire a RAW format image (whole image, viewpoint image, or composite image) supplied from the image sensor 51 or the area extraction unit 53.
  • the file forming unit 65 is a signal-processed RAW format image (whole image, viewpoint image, or composite image) supplied from the RAW signal processing unit 52 or a compressed (encoded) RAW format image (whole).
  • An image, a viewpoint image, or a composite image) can be acquired.
  • the file conversion unit 65 can acquire a YC format image (whole image, viewpoint image, or composite image) supplied from the camera signal processing unit 54.
  • the file forming unit 65 can acquire the viewpoint-related information supplied from the area specifying unit 56.
  • the file conversion unit 65 can associate the plurality of data with each other by converting the acquired plurality of data into a file and generating one file containing the plurality of data.
  • the file creation unit 65 can associate them with each other by generating one file from the above-mentioned images (whole image, viewpoint image, or composite image) and viewpoint-related information. That is, the file conversion unit 65 functions as an association unit that associates at least one of the entire image, the viewpoint image, and the composite image with the viewpoint-related information.
  • the file conversion unit 65 can acquire the depth information and the refocused image supplied from the image reconstruction processing unit 57 and create a file. Further, the file forming unit 65 can generate one file from the images (whole image, viewpoint image, or composite image) and the viewpoint related information supplied from the storage unit 62.
  • the file conversion unit 65 can generate a thumbnail image of the image to be filed (for example, a viewpoint image) and include it in the generated file. That is, the file conversion unit 65 can associate this thumbnail image with an image (whole image, viewpoint image, or composite image) or viewpoint-related information by creating a file.
  • the file conversion unit 65 can supply the generated files (images and viewpoint-related information associated with each other) to the storage unit 62 via, for example, the bus 60, and store the generated files in the storage medium 63.
  • the file conversion unit 65 can supply the generated files (images and viewpoint-related information associated with each other) to the communication unit 64 via, for example, the bus 60 and have them transmit the files.
  • association unit 70 associates an image (whole image, viewpoint image, or composite image) with viewpoint-related information.
  • the storage unit 62 can store at least one of the whole image, the viewpoint image, and the composite image in the storage medium 63 in association with the viewpoint-related information.
  • the communication unit 64 can transmit at least one of the whole image, the viewpoint image, and the composite image in association with the viewpoint-related information.
  • the file forming unit 65 can associate them by generating one file from at least one of the whole image, the viewpoint image, and the composite image and the viewpoint-related information.
  • the control unit 81 performs control processing related to the camera 10. That is, the control unit 81 can control each unit of the camera 10 and execute the process. For example, the control unit 81 can control the multi-eye optical system 30 (each individual eye optical system 31) via the optical system control unit 84 to set the optical system related to imaging such as the aperture and the focus position. Further, the control unit 81 can control the image sensor 51 and cause the image sensor 51 to perform imaging (photoelectric conversion) to generate an captured image.
  • control unit 81 can supply the viewpoint-related information (VI) to the region identification unit 56 to specify the region to be extracted from the captured image.
  • the viewpoint-related information (VI) may include spot light information (SI).
  • control unit 81 may read out the viewpoint-related information (VI) stored in the storage medium 83 via the storage unit 82 and supply it to the area identification unit 56.
  • control unit 81 can acquire an image via the bus 60 and control the aperture via the optical system control unit 84 based on the brightness of the image. Further, the control unit 81 can control the focus via the optical system control unit 84 based on the sharpness of the image. Further, the control unit 81 can control the camera signal processing unit 54 based on the RGB ratio of the image to control the white balance gain.
  • the storage unit 82 controls the storage of the storage medium 83 made of, for example, a semiconductor memory or the like.
  • the storage medium 83 may be a removable storage medium or a built-in memory.
  • viewpoint-related information (VI) is stored in the storage medium 83.
  • This viewpoint-related information (VI) is information corresponding to the multi-eye optical system 30 (each individual eye optical system 31) and the image sensor 51. That is, the viewpoint-related information (VI) is information about a viewpoint image with each individual eye optical system 31 of the multi-eye optical system 30 as a viewpoint, and is information used to specify the viewpoint image region.
  • this viewpoint-related information (VI) may include spot light information (SI).
  • the storage unit 82 can read out the viewpoint-related information (VI) stored in the storage medium 83 and supply it to the control unit 81 in response to an operation of the control unit 81 or the user.
  • VI viewpoint-related information
  • the storage medium 83 may be a ROM or a rewritable memory such as RAM or flash memory. In the case of a rewritable memory, the storage medium 83 can store arbitrary information.
  • the storage unit 82 and the storage medium 83 may be replaced by the storage unit 62 and the storage medium 63. That is, the information (viewpoint-related information (VI), etc.) to be stored in the storage medium 83 described above may be stored in the storage medium 63. In that case, the storage unit 82 and the storage medium 83 may be omitted.
  • the optical system control unit 84 controls the multi-eye optical system 30 (each individual eye optical system 31) according to the control of the control unit 81.
  • the optical system control unit 84 can control the lens group and aperture of each individual eye optical system 31 and control the focal length and / or F value of each individual eye optical system 31.
  • the optical system control unit 84 can control the focus (focal length) of the multi-eye optical system 30 (of each individual eye optical system 31).
  • the optical system control unit 84 may be able to control the aperture (F value) of each individual eye optical system 31.
  • the camera 10 is provided with a mechanism (physical configuration) for adjusting the focal length by manually operating the focus ring provided on the lens barrel. May be good. In that case, the optical system control unit 84 can be omitted.
  • the camera 10 can extract a viewpoint image with each individual eye optical system 31 as a viewpoint from the captured image. Since the plurality of viewpoint images extracted from one captured image are images of different viewpoints, these viewpoint images are used, for example, to estimate the depth by multi-eye matching and to correct for suppressing the mounting error of the multi-eye lens. Etc. can be performed. However, in order to perform these processes, information such as the relative position between the viewpoint images is required.
  • the camera 10 associates the output overall image, viewpoint image, or composite image with viewpoint-related information, which is information used to specify a plurality of viewpoint image regions in the captured image.
  • the term "associate" means, for example, to make the other data available (linkable) when processing one data. That is, the form of the captured image and the viewpoint-related information as data (file) is arbitrary. For example, the captured image and the viewpoint-related information may be combined as one data (file), or may be individual data (file). For example, the viewpoint-related information associated with the captured image may be transmitted on a transmission path different from that of the captured image. Further, for example, the viewpoint-related information associated with the captured image may be recorded on a recording medium (or another recording area of the same recording medium) different from the captured image. Of course, the captured image and the viewpoint-related information may be combined into one stream data or one file.
  • the image associated with the viewpoint-related information may be a still image or a moving image.
  • a moving image it is possible to extract a region, associate viewpoint-related information, and the like in each frame image in the same manner as in the case of a still image.
  • this "association" may be a part of the data (file) instead of the entire data.
  • the viewpoint-related information may be associated with an arbitrary unit of the captured image, such as a plurality of frames, one frame, or a part within the frame. ..
  • the captured image and the viewpoint-related information can be related to each other by assigning the same identification number to both the captured image and the viewpoint-related information. Further, when the captured image and the viewpoint-related information are combined into one file, the viewpoint-related information may be added to the header of the captured image, for example.
  • the target to which the viewpoint-related information is associated may be a captured image (whole image), a viewpoint image, or a composite image of the viewpoint image.
  • the whole image 130 includes an individual eye image corresponding to each individual eye optical system 31 (an image obtained by photoelectrically converting light from a subject incident through each individual eye optical system 31). ..
  • an ommatidium image center of the image of the entire image 130 corresponds to the ommatidium optical system 31 0.
  • the image on the upper right of the whole image 130 is an individual eye image corresponding to the individual eye optical system 31 1.
  • it is ommatidium images image in the upper left of the entire image 130 corresponds to the ommatidium optical system 31 2.
  • ommatidium image lower left image of the entire image 130 corresponds to the ommatidium optical system 31 3. Furthermore, it is ommatidium images image in the lower right of the entire image 130 corresponds to the ommatidium optical system 31 4.
  • the entire image 130 may be the entire captured image generated by the image sensor 51, or may be a partial image (however, including all individual eye images) cut out from the captured image. .. Further, the whole image 130 may be an image in RAW format or an image in YC format.
  • a part (effective part) of each individual eye image is designated as the viewpoint image area with respect to the entire image 130.
  • the viewpoint image area For example, in the case of FIG. 4, the area surrounded by the dotted line frame of the entire image 130 is the viewpoint image area. That is, some of the ommatidium images corresponding to the ommatidium optical system 31 0 (effective portion) is designated as the viewpoint image region 131 0.
  • a part (effective part) of the individual eye image corresponding to the individual eye optical system 31 1 is designated as the viewpoint image area 131 1.
  • some of the ommatidium images corresponding to the ommatidium optical system 31 2 (effective portion) is designated as the viewpoint image area 131 2.
  • some of the ommatidium images corresponding to the ommatidium optical system 31 3 (effective portion) is designated as the viewpoint image region 131 3.
  • some of the ommatidium images corresponding to the ommatidium optical system 31 4 (effective portion) is designated as the viewpoint image area 131 4.
  • a viewpoint image area 131 when there is no need to distinguish the viewpoint image region 131 0 to view image area 131 4 together, referred to as a viewpoint image area 131.
  • the association unit 70 When outputting such an overall image 130, acquires the entire image 130 from the image sensor 51, the RAW signal processing unit 52, or the camera signal processing unit 54, and supplies the entire image 130 from the area specifying unit 56.
  • the viewpoint-related information corresponding to the multi-eye optical system 30 is associated with the entire image 130.
  • the association unit 70 outputs the entire image and the viewpoint-related information associated with each other.
  • the storage unit 62 may store the entire image and the viewpoint-related information associated with each other in the storage medium 63.
  • the communication unit 64 may transmit the whole image and the viewpoint-related information associated with each other.
  • the file conversion unit 65 may file the entire image and the viewpoint-related information associated with each other.
  • the association between the entire image and the viewpoint-related information may be performed by the area extraction unit 53. That is, the area extraction unit 53 associates the viewpoint-related information supplied from the area identification unit 56 with the output overall image, and the bus 60, the RAW signal processing unit 52, or the viewpoint-related information associates the entire image and the viewpoint-related information associated with each other. It may be supplied to the camera signal processing unit 54.
  • the viewpoint-related information in this case includes the viewpoint area information indicating a plurality of viewpoint image areas in the captured image.
  • the viewpoint area information may represent the viewpoint image area in any way.
  • the viewpoint image area is represented by the coordinates (center coordinates of the viewpoint image area) indicating the position corresponding to the optical axis of the individual eye optical system 31 in the captured image and the resolution (number of pixels) of the viewpoint image (viewpoint image area). It may be done.
  • the viewpoint region information may include the center coordinates of the viewpoint image region in the captured image and the resolution of the viewpoint image region.
  • the location of the viewpoint image area in the entire image 130 can be specified from the center coordinates of the viewpoint image area and the resolution (number of pixels) of the viewpoint image area.
  • viewpoint-related information By associating such viewpoint-related information with the captured image, it is used for post-stage processing such as depth estimation by multi-eye matching and processing for suppressing errors that occur when the multi-eye optical system 30 is attached (installed).
  • This viewpoint-related information can be used in extracting the viewpoint image as preprocessing.
  • the image reconstruction processing unit 57 extracts each viewpoint image based on the viewpoint region information included in the viewpoint-related information, and then performs depth estimation by multi-eye matching, refocus processing, and multi-eye optical system 30.
  • Post-stage processing such as processing for suppressing errors that occur during installation can be performed.
  • the image reconstruction processing unit 57 may be able to specify the viewpoint image area included in the overall image 130 by image processing. , It may be difficult to accurately specify the viewpoint image area in the captured image depending on the imaging conditions and the like. Therefore, by associating the viewpoint-related information with the entire image 130 as described above, the image reconstruction processing unit 57 more easily and more accurately obtains the viewpoint image region from the above-mentioned overall image 130 based on the viewpoint-related information. Can be extracted.
  • FIG. 5 is a diagram showing an example of a cut-out viewpoint image.
  • the viewpoint image 132 0 is an image obtained by extracting the viewpoint image area 131 0 from the entire image 130 (FIG. 4).
  • the viewpoint image 132 1 is an image obtained by extracting the viewpoint image area 131 1 from the entire image 130.
  • the viewpoint image 132 2 is an image obtained by extracting the viewpoint image area 131 2 from the entire image 130.
  • the viewpoint image 132 3 is an image obtained by extracting the viewpoint image area 131 3 from the entire image 130.
  • the viewpoint image 132 4 is an image obtained by extracting the viewpoint image area 131 4 from the entire image 130.
  • the viewpoint image 132 is referred to as the viewpoint image 132.
  • the area extraction unit 53 When outputting such a viewpoint image, the area extraction unit 53 outputs each viewpoint image 132 cut out as in the example of FIG. 5 as independent data (or file).
  • the area extraction unit 53 cuts out a viewpoint image from the captured image (overall image) according to the viewpoint-related information supplied from the area identification unit 56.
  • the area extraction unit 53 assigns viewpoint identification information (for example, an identification number) for identifying each viewpoint to each of the cut-out viewpoint images.
  • the area extraction unit 53 supplies each viewpoint image to which the viewpoint identification information is assigned to the camera signal processing unit 54.
  • the camera signal processing unit 54 performs camera signal processing on each viewpoint image in the RAW format to generate each viewpoint image in the YC format.
  • the camera signal processing unit 54 supplies each viewpoint image in the YC format to the association unit 70.
  • the area identification unit 56 supplies the viewpoint-related information supplied to the area extraction unit 53 to the association unit 70.
  • the association unit 70 associates each viewpoint image with viewpoint-related information corresponding to the viewpoint image.
  • the viewpoint-related information may include viewpoint identification information (for example, a viewpoint identification number) for identifying each viewpoint. Based on this viewpoint identification information, the association unit 70 associates each viewpoint image with viewpoint-related information corresponding to the viewpoint image.
  • viewpoint identification information for example, a viewpoint identification number
  • the association unit 70 can easily grasp which viewpoint-related information corresponds to which viewpoint image. That is, the associating unit 70 can more easily and correctly associate each viewpoint image and the viewpoint-related information by using this viewpoint identification information.
  • the association unit 70 outputs each viewpoint image and viewpoint-related information associated with each other.
  • the storage unit 62 may store each viewpoint image and viewpoint-related information associated with each other in the storage medium 63.
  • the communication unit 64 may transmit each viewpoint image and viewpoint-related information associated with each other.
  • the file-forming unit 65 may file each viewpoint image and viewpoint-related information associated with each other.
  • each viewpoint image and the viewpoint-related information may be performed by the area extraction unit 53. That is, the area extraction unit 53 associates the viewpoint-related information supplied from the area identification unit 56 with each output viewpoint image, and the viewpoint images and viewpoint-related information associated with each other are associated with the bus 60 and the RAW signal processing unit 52. , Or may be supplied to the camera signal processing unit 54.
  • the viewpoint-related information may include the viewpoint time information indicating the time and order in which the captured images from which the viewpoint images are extracted are captured.
  • viewpoint time information indicating the generation time and order of the captured images
  • each viewpoint image at the same time can be specified.
  • the individual eye image may be cut out from the captured image and processed or recorded.
  • FIG. 6 is a diagram showing an example of a composite image obtained by synthesizing each viewpoint image.
  • one composite image 133 is generated by synthesizing the viewpoint image 132 0 to the viewpoint image 132 4 extracted in the example of FIG. 5 so as to be displayed side by side in one image.
  • each viewpoint image 132 is combined into one data (one frame) or one file.
  • the composite image 133 may have the margin region, has It does not have to be. Further, the shape of the composite image 133 may be rectangular, and the arrangement method (arrangement method) of each viewpoint image 132 is arbitrary. As in the example of FIG. 6, the blank area (the area corresponding to the sixth viewpoint image 132) generated when the five viewpoint images 132 are arranged in 2 rows and 3 columns is represented by null data or a fixed value. You may.
  • the area extraction unit 53 cuts out a viewpoint image from the captured image (overall image) according to the viewpoint-related information supplied from the area identification unit 56.
  • the area extraction unit 53 generates a composite image by synthesizing the cut-out viewpoint images so that they are displayed side by side in one image. At that time, by predetermining the arrangement order (position) of each viewpoint image, it is possible to easily grasp which viewpoint image each viewpoint image included in the composite image is.
  • the viewpoint identification information (for example, the identification number) may be assigned to each viewpoint image before synthesizing. In this case as well, it is possible to easily grasp which viewpoint image each viewpoint image included in the composite image is. In the following, it is assumed that the order of the viewpoint images in the composite image is predetermined.
  • the area extraction unit 53 supplies the composite image to which the viewpoint identification information is assigned to the camera signal processing unit 54.
  • the camera signal processing unit 54 performs camera signal processing on the RAW format composite image to generate a YC format composite image.
  • the camera signal processing unit 54 supplies the YC format composite image to the association unit 70.
  • the area identification unit 56 supplies the viewpoint-related information supplied to the area extraction unit 53 to the association unit 70.
  • the association unit 70 associates viewpoint-related information with the composite image.
  • the viewpoint of each viewpoint image included in the composite image is clear from the position of the viewpoint image in the composite image. That is, it is possible to easily grasp which viewpoint area information of the viewpoint-related information corresponds to each viewpoint image.
  • the association unit 70 outputs the composite image and the viewpoint-related information associated with each other.
  • the storage unit 62 may store the composite image and the viewpoint-related information associated with each other in the storage medium 63.
  • the communication unit 64 may transmit the composite image and the viewpoint-related information associated with each other.
  • the file-forming unit 65 may file the images and viewpoint-related information associated with each other.
  • the composite image and the viewpoint-related information may be associated with each other in the area extraction unit 53. That is, the area extraction unit 53 associates the viewpoint-related information supplied from the area identification unit 56 with the output composite image, and the composite image and the viewpoint-related information associated with each other are combined with the bus 60, the RAW signal processing unit 52, or the viewpoint-related information. It may be supplied to the camera signal processing unit 54.
  • control unit 81 can specify an imaging mode, control the image sensor 51, and perform imaging in the designated imaging mode.
  • the control unit 81 specifies the imaging mode based on an instruction from a user or the like input via an input unit (not shown). For example, the control unit 81 selects a desired imaging mode from a plurality of candidates prepared in advance. This candidate may include any imaging mode. For example, a still image imaging mode for generating a captured image of a still image and a moving image imaging mode for generating an captured image of a moving image may be included. In the following, for convenience of explanation, it is assumed that two imaging modes, a still image imaging mode and a moving image imaging mode, are prepared as candidates.
  • the control unit 81 controls the image sensor 51 to perform imaging in the designated imaging mode and generate an captured image. That is, the control unit 81 selects whether to perform imaging in the still image imaging mode or the moving image imaging mode, and causes the control unit 81 to perform imaging in the selected imaging mode.
  • control unit 81 can also perform processing related to setting the viewpoint image area.
  • the control unit 81 can set a viewpoint image area corresponding to the image pickup mode set as described above (that is, the image pickup mode of the image pickup performed by the image sensor 51).
  • the control unit 81 can include the viewpoint area information that defines the set viewpoint image area in the viewpoint-related information VI and supply it to the area identification unit 56.
  • the setting method of this viewpoint image area is arbitrary.
  • the control unit 81 selects and reads (acquires) the viewpoint area information corresponding to the set image pickup mode from the viewpoint area information for each image pickup mode stored in the storage medium 83 via the storage unit 82. By doing so, the viewpoint image area corresponding to the imaging mode may be set.
  • the storage medium 83 can store the viewpoint area information set for each imaging mode.
  • the storage medium 83 provides still image imaging mode viewpoint area information, which is viewpoint area information used in still image imaging mode imaging, and moving image imaging mode viewpoint area information, which is viewpoint area information used in moving image imaging mode imaging. Can be remembered.
  • each viewpoint image area is defined so that a viewpoint image in the still image imaging mode can be obtained.
  • each viewpoint image area is defined so that the viewpoint image of the moving image imaging mode can be obtained. The details of the viewpoint area information will be described later.
  • the storage medium 83 can store the viewpoint area information corresponding to any imaging mode.
  • the storage medium 83 stores in advance the viewpoint area information corresponding to the candidate imaging mode
  • the storage unit 82 stores the viewpoint area information corresponding to the imaging mode designated by the control unit 81. Can be read out and supplied to the control unit 81.
  • the imaging mode of the camera 10 there may be a plurality of moving image imaging modes having different aspect ratios, and the storage medium 83 may store the viewpoint area information corresponding to each of the moving image imaging modes.
  • the storage medium 83 stores the viewpoint area information corresponding to each of the still image imaging modes. You may.
  • the imaging mode of the camera 10 there is a vertical shooting mode in which the captured image is rotated by 90 degrees according to the posture of the camera 10, and the storage medium 83 stores the viewpoint area information corresponding to the vertical shooting mode. You may do so.
  • ommatidium image area 151 0 indicates a region where light is irradiated from the subject passing through the ommatidia optical system 31 0.
  • Image of the ommatidium image area 151 0 is ommatidium images corresponding to the ommatidium optical system 31 0.
  • the viewpoint image area 131 0 is set within this individual eye image area 151 0. Images of the viewpoint image area 131 0 is viewpoint image 132 0 (Fig. 5).
  • the individual eye image region 151 1 indicates an region where light from a subject that has passed through the individual eye optical system 31 1 is irradiated.
  • the image of the individual eye image region 151 1 is an individual eye image corresponding to the individual eye optical system 31 1.
  • the viewpoint image area 131 1 is set in the individual eye image area 151 1.
  • the image of the viewpoint image area 131 1 is the viewpoint image 132 1 (FIG. 5).
  • Ommatidium image area 151 2 indicates a region where light is irradiated from the subject passing through the ommatidia optical system 31 2.
  • Image of the ommatidium image area 151 2 is ommatidium images corresponding to the ommatidium optical system 31 2.
  • the viewpoint image area 131 2 is set in the individual eye image area 151 2.
  • the image of the viewpoint image area 131 2 is the viewpoint image 132 2 (FIG. 5).
  • Ommatidium image area 151. 3 shows the area to be irradiated with light from a subject which has passed through the ommatidia optical system 31 3.
  • the image of the ommatidium image region 151 3 is ommatidium images corresponding to the ommatidium optical system 31 3.
  • the viewpoint image area 131 3 is set in the individual eye image area 151 3.
  • the image of the viewpoint image area 131 3 is the viewpoint image 132 3 (FIG. 5).
  • Ommatidium image area 151. 4 shows a region where light is irradiated from the subject passing through the ommatidia optical system 31 4.
  • Image of the ommatidium image region 151 4 is ommatidium images corresponding to the ommatidium optical system 31 4.
  • the viewpoint image area 131 4 is set in the individual eye image area 151 4.
  • the image of the viewpoint image area 131 4 is the viewpoint image 132 4 (FIG. 5).
  • a conventional imaging device that images a subject through a single optical system other than a multi-lens optical system and generates an captured image
  • it corresponds to a plurality of imaging modes such as a still image imaging mode and a moving image imaging mode.
  • imaging modes such as a still image imaging mode and a moving image imaging mode.
  • the effective pixel area 150 is maximized and the aspect ratio (horizontal: vertical) is 3: 2 as in the effective pixel area 150A shown in FIG. 8A.
  • the image is taken as. That is, in this case, the highest resolution captured image with an aspect ratio of 3: 2 is generated.
  • the pixel area of the image sensor has an effective pixel area (also referred to as a maximum effective pixel area) that can be used for the captured image and a non-effective pixel area that is used for detecting optical black or the like.
  • the effective pixel area 150A and the effective pixel area 150B indicate a pixel area adopted as an image to be captured in each imaging mode, and are areas that can be set with an arbitrary size and aspect ratio within the above-mentioned maximum effective pixel area. Is.
  • each viewpoint image region (each viewpoint image) can be changed for each imaging mode.
  • the viewpoint image area which is the area of the viewpoint image, is set according to the imaging mode of the captured image.
  • each individual eye optics is used for an image generated by an image sensor in which each irradiation light passing through each of a plurality of individual eye optical systems whose optical paths are independent of each other irradiates images at different positions.
  • a setting unit for setting the viewpoint image area which is the area of each viewpoint image corresponding to the system, according to the imaging mode of the captured image is provided.
  • the viewpoint image area which is the area of each viewpoint image corresponding to each individual eye optical system, is made to function as a setting unit for setting according to the imaging mode of the captured image.
  • control unit 81 sets the viewpoint image area according to the imaging mode as such a setting unit. By doing so, it is possible to obtain a viewpoint image according to the imaging mode.
  • each irradiation light that passes through each of a plurality of individual eye optical systems whose optical paths are independent of each other and irradiates at different positions is photoelectrically converted in a predetermined imaging mode to generate an captured image, and the image is generated.
  • the viewpoint image area which is the area of each viewpoint image corresponding to each individual eye optical system, is set for the captured image according to the imaging mode.
  • each irradiation light that passes through each of a plurality of individual eye optical systems whose optical paths are independent of each other and irradiates at different positions is photoelectrically converted in a predetermined imaging mode to generate an captured image. It is provided with an imaging unit and a setting unit for setting a viewpoint image area, which is a region of each viewpoint image corresponding to each individual eye optical system, according to the imaging mode for the captured image generated by the imaging unit.
  • each irradiation light that irradiates a computer at different positions by passing through each of a plurality of individual eye optical systems whose optical paths are independent of each other is photoelectrically converted and imaged in a predetermined imaging mode.
  • the image sensor 51 images the subject in a desired imaging mode via the multi-eye optical system 30 as such an imaging unit, and the control unit 81 captures the viewpoint image region as such a setting unit. Set according to the mode. By doing so, it is possible to image the subject from a plurality of viewpoints in a desired imaging mode and obtain a viewpoint image corresponding to the imaging mode.
  • the parameters related to the viewpoint image area set according to the imaging mode may be those related to the size and shape of the viewpoint image (or viewpoint image area).
  • the viewpoint image area may be set based on the aspect ratio set corresponding to the imaging mode. By doing so, it is possible to obtain a viewpoint image having an aspect ratio according to the imaging mode.
  • the viewpoint image area may be set based on the resolution set corresponding to the imaging mode. By doing so, it is possible to obtain a viewpoint image having a resolution corresponding to the imaging mode.
  • the parameters related to the viewpoint image area set according to the imaging mode are not limited to the above example. Further, this parameter may be plural. For example, both the aspect ratio and the resolution of the area of the viewpoint image may be set according to the imaging mode. By doing so, it is possible to obtain a viewpoint image having an aspect ratio and a resolution corresponding to the imaging mode.
  • the control unit 81 can set the viewpoint image area by including the viewpoint area information in the viewpoint-related information and supplying it to the area specifying unit 56. That is, the control unit 81 can set the viewpoint image area corresponding to the imaging mode by selecting the viewpoint area information corresponding to the applied imaging mode.
  • the viewpoint area information only needs to show the coordinates of a predetermined position in the viewpoint image.
  • the viewpoint image area that is, the viewpoint image
  • the viewpoint image is specified by designating the coordinates of the predetermined position of the viewpoint image (for example, the upper right edge, the lower left edge, or the center (center of gravity) of the viewpoint image) in the captured image (effective pixel area of the image sensor 51).
  • the range of the image area can be specified.
  • the viewpoint area information of each imaging mode includes a predetermined size and shape of each viewpoint image corresponding to the imaging mode. It suffices if the coordinates of the position of are shown.
  • the still image imaging mode viewpoint area information may indicate the coordinates applied in the still image imaging mode at a predetermined position of each viewpoint image.
  • the moving image imaging mode viewpoint area information may indicate the coordinates applied in the moving image capturing mode at a predetermined position of each viewpoint image.
  • control unit 81 can specify the coordinates of a predetermined position of each viewpoint image corresponding to the imaging mode by selecting the viewpoint region information corresponding to the applied imaging mode. Since the size and shape of each viewpoint image are known as described above, the control unit 81 can set the viewpoint image area corresponding to the imaging mode.
  • the size and shape of the viewpoint image may also be defined by the viewpoint area information. That is, in this case, not only the coordinates of the predetermined position of each viewpoint image but also the size and shape of each viewpoint image are specified in the viewpoint area information of each imaging mode. That is, by selecting the viewpoint area information corresponding to the imaging mode, the control unit 81 specifies not only the coordinates of the predetermined position of each viewpoint image corresponding to the imaging mode but also the size and shape of each viewpoint image. be able to. Therefore, in this case, even if the size and shape of the viewpoint image area are unknown on the system, the control unit 81 selects the viewpoint area information corresponding to the imaging mode to select the viewpoint image area corresponding to the imaging mode. Can be set.
  • the shape of the viewpoint image (viewpoint image area) may be represented by, for example, the "aspect ratio (horizontal: vertical)" of the viewpoint image (viewpoint image area).
  • the aspect ratio of the viewpoint image in the still image imaging mode may be 3: 2
  • the aspect ratio of the viewpoint image in the moving image imaging mode may be 16: 9.
  • the aspect ratio of each imaging mode is arbitrary and is not limited to this example. For example, it may be 4: 3, 1.85: 1, 2.35: 1, 16:10, etc., or other than these. That is, the aspect ratio of each viewpoint image may be indicated in the viewpoint area information.
  • the size of the viewpoint image (viewpoint image area) may be represented by, for example, the "resolution" of the viewpoint image (viewpoint image area). Since the pixel spacing is a fixed value in the pixel region, the “resolution” here is information representing the size of the image (region). Specifically, any information may be used. For example, it may be the diagonal length (number of pixels) of the rectangular viewpoint image (viewpoint image area) or the length (number of pixels) of one side (vertical or horizontal). Further, this value may be an absolute value or a relative value with respect to a predetermined reference.
  • pixels in the area may be thinned out, for example, as in the interlaced method.
  • information regarding such thinning out for example, information indicating whether or not to thin out pixels, information indicating which pixel is thinned out, etc. may be included in this "resolution”.
  • viewpoint image area for each imaging mode ⁇ When including outside the effective pixel area>
  • the image sensor 51 corresponds to the still image imaging mode or the moving image imaging mode (imaging can be performed in those imaging modes).
  • the effective pixel area of the image sensor 51 is set in each imaging mode as shown in the example of FIG. More specifically, in the still image imaging mode, it is assumed that the maximum effective pixel area 150A having an aspect ratio of 3: 2 is set (A in FIG. 8).
  • the aspect ratio (horizontal: vertical) is 16: 9, which is narrower than the effective pixel area 150A (the upper and lower partial areas of the effective pixel area 150A are regarded as invalid pixel areas). It is assumed that the pixel area 150B is set (B in FIG. 8).
  • the imaging mode is arbitrary, and may be other than the still image imaging mode and the moving image imaging mode.
  • the size and shape of the effective pixel region are arbitrary and are not limited to the above examples.
  • the size and shape of the effective pixel regions may be the same in each imaging mode.
  • FIG. 9 shows an example of the viewpoint image area of each imaging mode when the viewpoint image area can include outside the effective pixel area.
  • FIG. 9A is a diagram showing an example of a viewpoint image region or the like in the still image imaging mode in that case. For example, when the control unit 81 selects the still image imaging mode viewpoint area information, the viewpoint image area as shown in FIG. 9A is set.
  • the individual eye image region 151 0 to the individual eye image region 151 4 are formed in the effective pixel region 150A. Then, a viewpoint image area 131A (viewpoint image area 131A 0 to viewpoint image area 131A 4 ) having a size and shape applied in the still image imaging mode is set in each of the individual eye image areas 151.
  • the aspect ratio of this viewpoint image area 131A is, for example, 3: 2.
  • the position of each viewpoint image area 131A is designated by the coordinates of the center (intersection of diagonal lines as indicated by x in the figure).
  • FIG. 9B is a diagram showing an example of a viewpoint image area or the like in a moving image imaging mode. For example, when the control unit 81 selects the moving image imaging mode viewpoint area information, the viewpoint image area as shown in FIG. 9B is set.
  • each individual eye optical system 31 Since the position of the optical axis of each individual eye optical system 31 is fixed regardless of the imaging mode, the light from the subject passing through each individual eye optical system 31 is the same as the light receiving surface of the image sensor 51 regardless of the imaging mode. The position is illuminated. Therefore, as shown in B of FIG. 9, in the effective pixel region 150B, the individual eye image region 151 0 to the individual eye image region 151 4 are formed at the same positions as in the case of A of FIG. 9, and each of them is formed. , The viewpoint image area 131B (viewpoint image area 131B 0 to viewpoint image area 131B 4 ) having a size and shape applied in the moving image imaging mode is set. The position of each viewpoint image area 131B is designated at the same position as the viewpoint image area 131A.
  • a portion of the upper viewpoint image area 131B 1 is an effective pixel region 150B outside, and a defective region 161 1.
  • a portion of the upper viewpoint image region 131B 2 valid pixel region 150B outside, and a defective region 161 2.
  • part of the lower viewpoint image region 131B 3 becomes effective pixel region 150B outside, and a defective region 161 3.
  • a portion of the lower viewpoint image region 131B 4 becomes effective pixel region 150B outside, and a defective region 161 4.
  • these missing region 161 0 to defect region 161 4 can not be used for multiview matching or the like which is matching for the depth information generation using the respective viewpoint images. That is, the common area of each viewpoint image area 131 (the area existing in all the viewpoint image areas 131) is the actual resolution area that can be used for multi-eye matching and the like.
  • the actual resolution region 163 0 is a region obtained by removing the partial region 162 0-1 and the partial region 162 0-2 from the viewpoint image region 131B 0.
  • the partial region 162 0-1 is a region having the same position and size as the defective region 16 1 1 and the defective region 16 12 2.
  • Partial region 162 0-2 is a region of the same position and size as the defective region 161 3 and the defective region 161 4.
  • the actual resolution area 163 1 is an area obtained by removing the missing area 161 1 and the partial area 162 1 from the viewpoint image area 131B 1.
  • Partial region 162 1 is a region of the same position and size as the defective region 161 3 and the defective region 161 4.
  • Partial region 162 2 is a region of the same position and size as the defective region 161 3 and the defective region 161 4.
  • the actual resolution area 163 3 is an area obtained by removing the partial area 162 3 and the missing area 161 3 from the viewpoint image area 131B 3.
  • the partial region 162 3 is a region having the same position and size as the defective region 16 1 1 and the defective region 16 12 2.
  • the partial region 162 4 is a region having the same position and size as the defective region 16 1 1 and the defective region 16 12 2.
  • the size and shape of the viewpoint image area 131B are set so that an image of a desired size and shape can be obtained in the actual resolution area.
  • the aspect ratio and resolution of the viewpoint image area 131B so that the image can be obtained in the actual resolution area.
  • the moving image imaging mode viewpoint area information indicating the viewpoint image area 131B having such an aspect ratio and resolution may be generated. That is, such moving image imaging mode viewpoint area information may be stored in the storage medium 83, and the control unit 81 may select the moving image imaging mode viewpoint area information in the moving image imaging mode.
  • control unit 81 determines in step S101 whether or not the imaging mode is the still image imaging mode. If it is determined that the still image imaging mode is used, the process proceeds to step S102.
  • step S102 the control unit 81 sets the viewpoint image area corresponding to the still image imaging mode. For example, the control unit 81 selects and reads out the still image imaging mode viewpoint area information stored in the storage medium 83 via the storage unit 82, includes it in the viewpoint-related information, and supplies it to the area identification unit 56.
  • This still image imaging mode viewpoint area information indicates a viewpoint image area 131A having a size and shape applied in the still image imaging mode, for example, as shown in FIG. 9A. That is, the control unit 81 selects the still image imaging mode viewpoint area information, so that the viewpoint image area corresponding to the still image imaging mode is set.
  • step S103 the image sensor 51 images the subject in the still image imaging mode under the control of the control unit 81, and generates an captured image of the still image.
  • step S104 the area identification unit 56 performs an area identification process on the captured image generated in step S103 using the still image imaging mode viewpoint area information selected in step S102.
  • the area specifying unit 56 supplies the still image imaging mode viewpoint area information (including viewpoint-related information) supplied in step S102 to the association unit 70 as this area specifying process, and the captured image generated in step S103. Associate with (or the whole image).
  • the area identification unit 56 supplies the still image imaging mode viewpoint area information (including viewpoint-related information) supplied in step S102 to the area extraction unit 53 as this area identification process, and is generated in step S103. The viewpoint image is cut out (extracted) from the captured image.
  • each processing unit performs signal processing on an image or the like.
  • the RAW signal processing unit 52 performs predetermined signal processing on a captured image or an entire image in a RAW format.
  • the region extraction unit 53 extracts a part of the region from the captured image in the RAW format (cuts out a partial image) based on the viewpoint-related information supplied from the region identification unit 56.
  • the region extraction unit 53 extracts an entire image or a plurality of viewpoint images from the captured image, or generates a composite image using the plurality of viewpoint images.
  • the area extraction unit 53 outputs the cut out image (whole image, viewpoint image, composite image, etc.) (supplies to the RAW signal processing unit 52 and the camera signal processing unit 54).
  • the region extraction unit 53 can also output the captured image without extracting the partial image.
  • the camera signal processing unit 54 performs predetermined camera signal processing on the image (captured image, viewpoint image, composite image, etc.) supplied from the area extraction unit 53. Further, the associating unit 70 associates the supplied image (captured image, viewpoint image, or composite image) with the viewpoint-related information supplied from the area specifying unit 56. Note that these signal processings can be omitted (skipped).
  • step S106 the image reconstruction processing unit 57 performs image reconstruction processing on the image (captured image, viewpoint image, or composite image).
  • the content of this image reconstruction process is arbitrary. For example, depth information may be generated, or refocusing may be performed to generate (reconstruct) an image in which an arbitrary subject is focused. Note that this image reconstruction process can be omitted (skipped).
  • step S107 the association unit 70 outputs an image (captured image, viewpoint image, or composite image).
  • the storage unit 62 stores an image (captured image, viewpoint image, or composite image) in the storage medium 63.
  • the viewpoint-related information may be associated with this image by the process of step S105.
  • the communication unit 64 transmits an image (captured image, viewpoint image, or composite image) to another device.
  • the communication unit 64 can transmit data such as an image by a streaming method, a download method, or the like.
  • the viewpoint-related information may be associated with this image by the process of step S105.
  • the file conversion unit 65 outputs an image (captured image, viewpoint image, or composite image) filed by the process of step S105.
  • the file conversion unit 65 may supply a file including this image (captured image, viewpoint image, or composite image) to the storage unit 62 and store it in the storage medium 63, or supply it to the communication unit 64. You may send it to another device.
  • the viewpoint-related information may be associated with this image by the process of step S105. That is, in the file output by the file conversion unit 65, the still image imaging mode viewpoint region information (including viewpoint-related information) set in step S102 is stored together with the image (captured image, viewpoint image, or composite image). You may.
  • step S107 When the process of step S107 is completed, the imaging process is completed.
  • step S101 If it is determined in step S101 that the mode is not the still image imaging mode (the moving image imaging mode), the process proceeds to step S111.
  • step S111 the control unit 81 sets a viewpoint image area corresponding to the moving image imaging mode in consideration of the missing area. That is, the control unit 81 sets the viewpoint image region so that an image having a desired size and shape can be obtained in the actual resolution region, as described with reference to FIG. 9B. For example, the control unit 81 selects and reads out the moving image imaging mode viewpoint area information stored in the storage medium 83 via the storage unit 82, and supplies the information to the area identification unit 56.
  • This moving image imaging mode viewpoint area information indicates a viewpoint image area 131B set so as to obtain an image of a desired size and shape in an actual resolution area, for example, as shown in FIG. 9B. That is, when the control unit 81 selects the moving image imaging mode viewpoint area information, the viewpoint image area corresponding to the moving image imaging mode in consideration of the missing area is set.
  • step S112 the image sensor 51 images the subject in the moving image imaging mode under the control of the control unit 81, and generates an captured image as one frame of the moving image.
  • step S113 the area identification unit 56 performs an area identification process on the captured image generated in step S112 using the moving image imaging mode viewpoint area information selected in step S111. This process is executed in the same manner as the process in step S104.
  • step S114 each processing unit performs signal processing on an image or the like. This process is executed in the same manner as the process in step S105.
  • step S115 the image reconstruction processing unit 57 performs image reconstruction processing on the image (captured image, viewpoint image, or composite image). This process is executed in the same manner as the process in step S106.
  • step S116 the association unit 70 outputs an image (captured image, viewpoint image, or composite image). This process is executed in the same manner as the process in step S107.
  • step S117 the control unit 81 determines whether or not to end the imaging based on, for example, an instruction from a user or the like. If it is determined that the imaging is not completed, the process returns to step S112, and the subsequent processes are repeated. By executing the processes of steps S112 to S117, processing for one frame of the moving image is performed. Then, each process of steps S112 to S117 is repeatedly executed until it is determined in step S117 that the imaging is completed, and each frame of the moving image is generated.
  • step S117 If it is determined in step S117 to end the imaging, the imaging process ends.
  • FIG. 11 shows an example of the viewpoint image area of each imaging mode when the viewpoint image area cannot include the outside of the effective pixel area.
  • the image sensor 51 corresponds to the still image imaging mode or the moving image imaging mode. Further, it is assumed that the effective pixel area of the image sensor 51 is set in each imaging mode as shown in the example of FIG.
  • the imaging mode is arbitrary, and may be other than the still image imaging mode and the moving image imaging mode.
  • the size and shape of the effective pixel region are arbitrary and are not limited to the above examples.
  • FIG. 11A is a diagram showing an example of a viewpoint image area or the like in the still image imaging mode in this case.
  • the viewpoint image area 131A as shown in FIG. 11A is set.
  • each individual eye image region 151 is formed in the effective pixel region 150A in the same manner as in the case of FIG. 9A, and each viewpoint image region 131A is in the case of FIG. 9A. It is set in the same way as.
  • FIG. 11B is a diagram showing an example of a viewpoint image area or the like in a moving image imaging mode. For example, when the control unit 81 selects the moving image imaging mode viewpoint area information, the viewpoint image area as shown in FIG. 11B is set.
  • each individual eye optical system 31 Since the position of the optical axis of each individual eye optical system 31 is fixed regardless of the imaging mode, the light from the subject passing through each individual eye optical system 31 is the same as the light receiving surface of the image sensor 51 regardless of the imaging mode. The position is illuminated. Therefore, as shown in B of FIG. 11, in the effective pixel region 150B, the individual eye image region 151 0 to the individual eye image region 151 4 are formed at the same positions as in the case of A of FIG. 11, and each of them is formed. , The viewpoint image area 131B (viewpoint image area 131B 0 to viewpoint image area 131B 4 ) having a size and shape applied in the moving image imaging mode is set. The position of each viewpoint image area 131B is designated at the same position as the viewpoint image area 131A.
  • each viewpoint image area 131B is set to be included in the effective pixel area 150B. Therefore, there is no missing region in the viewpoint image region in this case. Therefore, the size and shape of the viewpoint image area 131B are set so that an image of a desired size and shape can be obtained in the viewpoint image area. That is, the viewpoint image area 131B having a size and shape applied in the moving image imaging mode is set.
  • a viewpoint image area 131A having a desired resolution with an aspect ratio of 3: 2 is shown, and in the moving image imaging mode viewpoint area information, a viewpoint image having an aspect ratio of 16: 9 is shown.
  • the viewpoint image region 131B having a lower resolution than the region 131A is shown.
  • each process of steps S201 to S207 is executed in the same manner as each process of steps S101 to S107 of FIG.
  • step S201 If it is determined in step S201 that the mode is not the still image imaging mode (the moving image imaging mode), the process proceeds to step S211.
  • step S211 the control unit 81 sets the viewpoint image area corresponding to the moving image imaging mode. That is, as described with reference to B in FIG. 11, the viewpoint image area is set so that an image having a desired size and shape can be obtained in the entire viewpoint image area.
  • the control unit 81 selects and reads out the moving image imaging mode viewpoint area information stored in the storage medium 83 via the storage unit 82, and supplies the information to the area identification unit 56.
  • This moving image imaging mode viewpoint area information indicates a viewpoint image area 131B set so that an image of a desired size and shape can be obtained in the entire viewpoint image area, for example, as shown in FIG. 11B. That is, when the control unit 81 selects the moving image imaging mode viewpoint area information, the viewpoint image area corresponding to the moving image imaging mode is set.
  • step S212 to S217 is executed in the same manner as each process of steps S112 to S117 of FIG. Then, in step S217, when it is determined that the imaging is finished, the imaging process is finished.
  • the control unit 81 may be an independent device. Further, the control unit 81, the storage unit 82, and the storage medium 83 may be independent devices. Further, these independent devices include a RAW signal processing unit 52, an area extraction unit 53, a camera signal processing unit 54, a through image generation unit 55, an area identification unit 56, an image reconstruction processing unit 57, an association unit 70, or You may have two or more of them. That is, the present technology can also be applied to an information processing device (or image processing device) that does not have an imaging function.
  • Second Embodiment> ⁇ Camera system>
  • the present technology has been described by taking the camera 10 provided with the multi-eye optical system 30 as an example, but the present technology can also be applied to other configurations.
  • the optical system including the multi-eye optical system 30 may be interchangeable. That is, the multi-lens optical system 30 may be configured to be detachable from the camera 10.
  • FIG. 13 is a perspective view showing a configuration example of an embodiment of a camera system to which the present technology is applied.
  • the camera system 301 shown in FIG. 13 includes a camera body 310 and a multi-lens interchangeable lens 320 (lens unit).
  • the camera system 301 In a state where the multi-lens interchangeable lens 320 is attached to the camera body 310, the camera system 301 has the same configuration as the camera 10, and basically performs the same processing. That is, the camera system 301 functions as an imaging device similar to the camera 10 that captures a subject and generates image data of the captured image.
  • the camera body 310 has a removable multi-lens interchangeable lens 320. That is, the camera body 310 has a camera mount 311, and the multi-lens interchangeable lens 320 (lens mount 322) is attached to the camera mount 311 so that the multi-lens interchangeable lens 320 is attached to the camera body 310. It is installed.
  • a general interchangeable lens other than the multi-lens interchangeable lens 320 may be attached to and detached from the camera body 310.
  • the camera body 310 has a built-in image sensor 51.
  • the image sensor 51 captures a subject by receiving light rays focused by a multi-lens interchangeable lens 320 or other interchangeable lenses mounted on the camera body 310 (camera mount 311) and performing photoelectric conversion.
  • the multi-lens interchangeable lens 320 has a lens barrel 321 and a lens mount 322. Also, the multiview interchangeable lens 320, 5 ommatidium optical system as a plurality 31 0, 31 1, 31 2, 31 3, and a 31 4.
  • the plurality of individual eye optical systems 31 in this case are configured so that the optical paths of light passing through them are independent of each other. That is, the light that has passed through each individual eye optical system 31 irradiates the light receiving surface (for example, the effective pixel region) of the image sensor 51 at different positions without incident on the other individual eye optical system 31. At least, the optical axes of each individual eye optical system 31 are located at different positions on the light receiving surface of the image sensor 51, and at least a part of the light passing through each individual eye optical system 31 is on the light receiving surface of the image sensor 51. Irradiate different positions.
  • the images of the subjects formed via the individual eye optical systems 31 are different from each other in the captured images (the entire image output by the image sensor 51) generated by the image sensor 51. Formed in position.
  • an captured image also referred to as a viewpoint image
  • a plurality of viewpoint images can be obtained by attaching the multi-eye interchangeable lens 320 to the camera body 310 and photographing the subject.
  • the lens barrel 321 has a substantially cylindrical shape, and a lens mount 322 is formed on the bottom surface side of one of the cylindrical shapes.
  • the lens mount 322 is attached to the camera mount 311 of the camera body 310 when the multi-lens interchangeable lens 320 is attached to the camera body 310.
  • the five individual eye optical systems 31 are arranged on a two-dimensional plane orthogonal to the lens barrel optical axis (parallel to the light receiving surface (imaging surface) of the image sensor 51) with the individual eye optical system 310 as the center (center of gravity).
  • the other four individual eye optical systems 31 1 to the individual eye optical system 3 14 are provided on the multi-lens interchangeable lens 320 so as to form a rectangular apex.
  • the arrangement shown in FIG. 21 is an example, and the positional relationship of each individual eye optical system 31 is arbitrary as long as the optical paths are independent of each other.
  • FIG. 14 is a block diagram showing an example of an electrical configuration of the camera system 301 of FIG.
  • the camera body 310 includes an image sensor 51, a RAW signal processing unit 52, an area extraction unit 53, a camera signal processing unit 54, a through image generation unit 55, an area identification unit 56, an image reconstruction processing unit 57, and a bus. It has 60, a display unit 61, a storage unit 62, a communication unit 64, a file conversion unit 65, a control unit 81, and a storage unit 82. That is, the camera body 310 has a configuration other than the multi-eye optical system 30 and the optical system control unit 84 provided in the lens barrel 20 of the camera 10.
  • the camera body 310 has a communication unit 341 in addition to the above configuration.
  • the communication unit 341 is a processing unit that communicates with the multi-lens interchangeable lens 320 (communication unit 351) correctly attached to the camera body 310 to exchange information and the like.
  • the communication unit 341 can communicate with the multi-lens interchangeable lens 320 by any communication method.
  • the communication may be wired communication or wireless communication.
  • the communication unit 341 is controlled by the control unit 81, performs the communication, and acquires the information supplied from the multi-lens interchangeable lens 320. Further, for example, the communication unit 341 supplies the information supplied from the control unit 81 to the multi-lens interchangeable lens 320 by the communication.
  • the information exchanged with the multi-lens interchangeable lens 320 is arbitrary. For example, it may be data or control information such as commands and control parameters.
  • the multi-lens interchangeable lens 320 has a communication unit 351 and a storage unit 352 in addition to the multi-lens optical system 30 and the optical system control unit 84.
  • the communication unit 351 communicates with the communication unit 341 in the multi-lens interchangeable lens 320 correctly attached to the camera body 310. Through this communication, information is exchanged between the camera body 310 and the multi-lens interchangeable lens 320.
  • the communication method of the communication unit 351 is arbitrary, and may be wired communication or wireless communication. Further, the information exchanged by this communication may be data or control information such as commands and control parameters.
  • the communication unit 351 acquires the control information transmitted from the camera body 310 via the communication unit 341.
  • the communication unit 351 can supply the information acquired in this way to the optical system control unit 84, if necessary, and use it for controlling the multi-eye optical system 30.
  • the communication unit 351 can supply the acquired information to the storage unit 352 and store it in the storage medium 353. Further, the communication unit 351 can read the information stored in the storage medium 353 via the storage unit 352 and transmit it to the camera body 310 (communication unit 341).
  • the storage medium 353 may be a ROM or a rewritable memory such as RAM or flash memory. In the case of a rewritable memory, the storage medium 353 can store arbitrary information.
  • the control unit 81 sets the viewpoint image area according to the imaging mode, as in the case of the camera 10 described in the first embodiment. By doing so, it is possible to obtain a viewpoint image according to the imaging mode. That is, even in the camera system 301, by applying the present technology, various effects similar to those in the case of the camera 10 described in the first embodiment can be obtained.
  • the viewpoint area information can be stored in any storage medium.
  • it may be stored in the storage medium 353 of the multi-lens interchangeable lens 320.
  • FIG. 15 is a block diagram showing a configuration example of computer hardware that executes the above-mentioned series of processes programmatically.
  • the CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the input / output interface 910 is also connected to the bus 904.
  • An input unit 911, an output unit 912, a storage unit 913, a communication unit 914, and a drive 915 are connected to the input / output interface 910.
  • the input unit 911 includes, for example, a keyboard, a mouse, a microphone, a touch panel, an input terminal, and the like.
  • the output unit 912 includes, for example, a display, a speaker, an output terminal, and the like.
  • the storage unit 913 is composed of, for example, a hard disk, a RAM disk, a non-volatile memory, or the like.
  • the communication unit 914 includes, for example, a network interface.
  • the drive 915 drives a removable recording medium 921 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 901 loads the program stored in the storage unit 913 into the RAM 903 via the input / output interface 910 and the bus 904 and executes the above-described series. Is processed.
  • the RAM 903 also appropriately stores data and the like necessary for the CPU 901 to execute various processes.
  • the program executed by the computer can be recorded and applied to, for example, a removable recording medium 921 as a package medium or the like.
  • the program can be installed in the storage unit 913 via the input / output interface 910 by mounting the removable recording medium 921 in the drive 915.
  • This program can also be provided via wired or wireless transmission media such as local area networks, the Internet, and digital satellite broadcasting. In that case, the program can be received by the communication unit 914 and installed in the storage unit 913.
  • this program can be installed in advance in ROM 902 or storage unit 913.
  • the present technology can be applied to any configuration.
  • the present technology is a device such as a processor as a system LSI (Large Scale Integration), a module using a plurality of processors, a unit using a plurality of modules, or a set in which other functions are added to the unit. It can also be implemented as a partial configuration.
  • this technology can be applied to a network system composed of a plurality of devices.
  • the present technology may be implemented as cloud computing that is shared and jointly processed by a plurality of devices via a network.
  • the present technology may be implemented in a cloud service that provides services to arbitrary terminals such as computers, portable information processing terminals, and IoT (Internet of Things) devices.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..
  • Systems, devices, processing departments, etc. to which this technology is applied can be used in any field such as transportation, medical care, crime prevention, agriculture, livestock industry, mining, beauty, factories, home appliances, weather, nature monitoring, etc. .. Moreover, the use is arbitrary.
  • the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units).
  • the configurations described above as a plurality of devices (or processing units) may be collectively configured as one device (or processing unit).
  • a configuration other than the above may be added to the configuration of each device (or each processing unit).
  • a part of the configuration of one device (or processing unit) may be included in the configuration of another device (or other processing unit). ..
  • the above-mentioned program may be executed in any device.
  • the device may have necessary functions (functional blocks, etc.) so that necessary information can be obtained.
  • each step of one flowchart may be executed by one device, or may be shared and executed by a plurality of devices.
  • the plurality of processes may be executed by one device, or may be shared and executed by a plurality of devices.
  • a plurality of processes included in one step can be executed as processes of a plurality of steps.
  • the processes described as a plurality of steps can be collectively executed as one step.
  • the processing of the steps for writing the program may be executed in chronological order in the order described in the present specification, and the calls may be made in parallel or in parallel. It may be executed individually at the required timing such as when it is broken. That is, as long as there is no contradiction, the processing of each step may be executed in an order different from the above-mentioned order. Further, the processing of the step for writing this program may be executed in parallel with the processing of another program, or may be executed in combination with the processing of another program.
  • a plurality of technologies related to this technology can be independently implemented independently as long as there is no contradiction.
  • any plurality of the present technologies can be used in combination.
  • some or all of the techniques described in any of the embodiments may be combined with some or all of the techniques described in other embodiments. It is also possible to carry out a part or all of any of the above-mentioned techniques in combination with other techniques not described above.
  • the present technology can also have the following configurations.
  • (1) Corresponds to each individual eye optical system for an image generated by an image sensor in which each irradiation light passing through each of a plurality of individual eye optical systems whose optical paths are independent of each other irradiates at different positions.
  • An information processing device including a setting unit that sets a viewpoint image area, which is an area of each viewpoint image, according to an imaging mode of the captured image.
  • (2) The information processing apparatus according to (1), wherein the setting unit sets the viewpoint image area based on the aspect ratio set corresponding to the imaging mode.
  • (3) The information processing apparatus according to (1) or (2), wherein the setting unit sets the viewpoint image area based on a resolution set corresponding to the imaging mode.
  • the setting unit is an actual resolution area that is a portion of the viewpoint image candidate area other than the defective area.
  • the setting unit sets the viewpoint image area by designating the coordinates of a predetermined position in the viewpoint image.
  • the setting unit further sets the viewpoint image area by designating the size and shape of the viewpoint image.
  • the setting unit sets the viewpoint image area according to any of (1) to (6) by selecting the viewpoint area information which is the information indicating the viewpoint image area according to the imaging mode.
  • the information processing device described. (8) Further provided with a storage unit for storing the viewpoint area information for each imaging mode.
  • (9) Further includes an association unit that associates the viewpoint area information, which is information indicating the viewpoint image area set by the setting unit, with the captured image or an image generated by using the captured image (1) to The information processing apparatus according to any one of (8).
  • the information processing apparatus according to any one of (1) to (9), further comprising a cutting unit for cutting out an image of the viewpoint image region set by the setting unit from the captured image.
  • (11) Corresponds to each individual eye optical system for an image generated by an image sensor in which each irradiation light passing through each of a plurality of individual eye optical systems whose optical paths are independent of each other irradiates at different positions.
  • An information processing method for setting a viewpoint image area which is an area of each viewpoint image, according to an imaging mode of the captured image.
  • An imaging unit that generates an image by photoelectrically converting each irradiation light that passes through each of a plurality of individual eye optical systems whose optical paths are independent of each other and irradiates them at different positions in a predetermined imaging mode.
  • An imaging device including a setting unit that sets a viewpoint image region, which is a region of each viewpoint image corresponding to each individual eye optical system, according to the imaging mode with respect to the captured image generated by the imaging unit.
  • the image pickup apparatus according to (13), wherein the setting unit sets the viewpoint image area by selecting the viewpoint area information, which is information indicating the viewpoint image area, according to the image pickup mode.
  • a communication unit that communicates with a multi-lens interchangeable optical system including a plurality of the individual eye optical systems and a storage unit that stores the viewpoint area information for each imaging mode is further provided.
  • the setting unit acquires the viewpoint area information for each imaging mode stored in the storage unit of the multi-eye interchangeable optical system via the communication unit, and from the acquired viewpoint area information, the said The imaging apparatus according to (14), which selects the viewpoint region information corresponding to the imaging mode.
  • a storage unit for storing the viewpoint area information for each imaging mode is further provided.
  • the imaging apparatus according to any one of (13) to (16), further comprising a plurality of the individual eye optical systems.
  • Each irradiation light that passes through each of a plurality of individual eye optical systems whose optical paths are independent of each other and irradiates at different positions is photoelectrically converted in a predetermined imaging mode to generate an captured image.
  • Computer An imaging unit that generates an image by photoelectric conversion of each irradiation light that passes through each of a plurality of individual eye optical systems whose optical paths are independent of each other and irradiates them at different positions in a predetermined imaging mode.
  • a program that functions as a setting unit that sets a viewpoint image area, which is a region of each viewpoint image corresponding to each individual eye optical system, with respect to the captured image generated by the imaging unit, according to the imaging mode.
  • An interchangeable lens including a storage unit that stores viewpoint area information, which is information for each imaging mode indicating a viewpoint image area, which is an area of each viewpoint image corresponding to each individual eye optical system.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)

Abstract

本開示は、撮像モードに応じた視点画像を得ることができるようにする情報処理装置および方法、撮像装置および方法、プログラム、並びに、交換レンズに関する。 光路が互いに独立している複数の個眼光学系のそれぞれを通過した各照射光が互いに異なる位置に照射するイメージセンサにより生成された撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、その撮像画像の撮像モードに応じて設定する。本開示は、例えば、情報処理装置、電子機器、複数の個眼光学系を備える交換レンズやカメラシステム、情報処理方法、撮像方法、またはプログラム等に適用することができる。

Description

情報処理装置および方法、撮像装置および方法、プログラム、並びに、交換レンズ
 本開示は、情報処理装置および方法、撮像装置および方法、プログラム、並びに、交換レンズに関し、特に、撮像モードに応じた視点画像を得ることができるようにした情報処理装置および方法、撮像装置および方法、プログラム、並びに、交換レンズに関する。
 従来、広角レンズを介して得られる撮像画像と、望遠レンズを介して得られる撮像画像とを互いに同一の撮像面の異なる位置で生成する方法が考えられた(例えば、特許文献1参照)。
特開2015-148765号公報
 しかしながら、特許文献1に記載の方法の場合、撮像モードに応じて撮像画像の大きさや形状を設定することは考慮されていなかった。
 本開示は、このような状況に鑑みてなされたものであり、撮像モードに応じた視点画像を得ることができるようにするものである。
 本技術の一側面の情報処理装置は、光路が互いに独立している複数の個眼光学系のそれぞれを通過した各照射光が互いに異なる位置に照射するイメージセンサにより生成された撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、前記撮像画像の撮像モードに応じて設定する設定部を備える情報処理装置である。
 本技術の一側面の情報処理方法は、光路が互いに独立している複数の個眼光学系のそれぞれを通過した各照射光が互いに異なる位置に照射するイメージセンサにより生成された撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、前記撮像画像の撮像モードに応じて設定する情報処理方法である。
 本技術の一側面のプログラムは、コンピュータを、光路が互いに独立している複数の個眼光学系のそれぞれを通過した各照射光が互いに異なる位置に照射するイメージセンサにより生成された撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、前記撮像画像の撮像モードに応じて設定する設定部として機能させるプログラムである。
 本技術の他の側面の撮像装置は、光路が互いに独立している複数の個眼光学系のそれぞれを通過して互いに異なる位置に照射する各照射光を、所定の撮像モードで光電変換して撮像画像を生成する撮像部と、前記撮像部により生成された前記撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、前記撮像モードに応じて設定する設定部とを備える撮像装置である。
 本技術の他の側面の撮像方法は、光路が互いに独立している複数の個眼光学系のそれぞれを通過して互いに異なる位置に照射する各照射光を、所定の撮像モードで光電変換して撮像画像を生成し、生成された前記撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、前記撮像モードに応じて設定する撮像方法である。
 本技術の他の側面のプログラムは、コンピュータを、光路が互いに独立している複数の個眼光学系のそれぞれを通過して互いに異なる位置に照射する各照射光を、所定の撮像モードで光電変換して撮像画像を生成する撮像部と、前記撮像部により生成された前記撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、前記撮像モードに応じて設定する設定部として機能させるプログラムである。
 本技術のさらに他の側面の交換レンズは、光路が互いに独立している複数の個眼光学系と、各個眼光学系に対応する各視点画像の領域である視点画像領域を示す撮像モード毎の情報である視点領域情報を記憶する記憶部とを備える交換レンズである。
 本技術の一側面の情報処理装置および方法、並びに、プログラムにおいては、光路が互いに独立している複数の個眼光学系のそれぞれを通過した各照射光が互いに異なる位置に照射するイメージセンサにより生成された撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域が、その撮像画像の撮像モードに応じて設定される。
 本技術の他の側面の撮像装置および方法、並びに、プログラムにおいては、光路が互いに独立している複数の個眼光学系のそれぞれを通過して互いに異なる位置に照射する各照射光が、所定の撮像モードで光電変換されて撮像画像が生成され、その生成された撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域が、その撮像モードに応じて設定される。
 本技術のさらに他の側面の交換レンズにおいては、光路が互いに独立している複数の個眼光学系と、各個眼光学系に対応する各視点画像の領域である視点画像領域を示す撮像モード毎の情報である視点領域情報を記憶する記憶部とが備えられる。
本技術を適用したカメラの一実施の形態の構成例を示す斜視図である。 カメラの電気的構成例を示すブロック図である。 3板式のイメージセンサの例を示す図である。 全体画像の例を示す図である。 視点画像の例を示す図である。 合成画像の例を示す図である。 有効画素領域に照射される照射光の例について説明する図である。 撮像モードに応じた有効画素領域の例について説明する図である。 撮像モードに応じた視点画像領域設定の様子の例を示す図である。 撮像処理の流れの例を説明するフローチャートである。 撮像モードに応じた視点画像領域設定の様子の例を示す図である。 撮像処理の流れの例を説明するフローチャートである。 本技術を適用したカメラシステムの一実施の形態の構成例を示す斜視図である。 カメラシステムの電気的構成例を示すブロック図である。 コンピュータの主な構成例を示すブロック図である。
 以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
 1.第1の実施の形態(カメラ)
 2.第2の実施の形態(カメラシステム)
 3.付記
 <1.第1の実施の形態>
  <カメラ外観>
 図1は、本技術を適用したカメラの一実施の形態の構成例を示す斜視図である。
 カメラ10は、イメージセンサを内蔵し、レンズによって集光される光線を受光して光電変換を行うことにより被写体を撮像する。以下において、このような撮像により得られる画像を、撮像画像ともいう。
 カメラ10は、そのイメージセンサの正面側(光が入射する側)に鏡筒20が設けられており、その鏡筒20に、複数としての5個の個眼光学系310,311,312,313、および、314を有する。以下においては、個眼光学系310乃至個眼光学系314を互いに区別して説明する必要がない場合、個眼光学系31(または個眼光学系31)と称する。
 複数の個眼光学系31は、それぞれを通過する光の光路が互いに独立するように構成される。つまり、鏡筒20の各個眼光学系31を通過した光は、他の個眼光学系31に入射せずにイメージセンサの受光面(例えば有効画素領域)の互いに異なる位置に照射する。少なくとも、各個眼光学系31の光軸は、イメージセンサの受光面の互いに異なる場所に位置しており、各個眼光学系31を通過した光の少なくとも一部が、イメージセンサの受光面の互いに異なる位置に照射する。
 したがって、イメージセンサにより生成される撮像画像(イメージセンサの出力する画像全体)には、各個眼光学系31を介して結像された被写体の画像が互いに異なる位置に形成される。換言するに、その撮像画像から、各個眼光学系31を視点とする撮像画像(視点画像とも称する)が得られる。つまり、カメラ10は、被写体を撮像することにより、複数の視点画像を得ることができる。この複数の視点画像は、例えば、奥行情報の生成や、その奥行情報を用いたリフォーカス等の処理に利用することができる。
 なお、以下においては、カメラ10が5個の個眼光学系31を有する例を用いて説明するが、この個眼光学系31の数は2以上であれば任意である。
 5個の個眼光学系31は、鏡筒20の光軸に直交する(イメージセンサの受光面(撮像面)に平行な)2次元平面上において、個眼光学系310を中心(重心)として、他の4個の個眼光学系311乃至個眼光学系314が、長方形の頂点を構成するように配置される形で、設けられている。もちろん、図1に示される配置は一例であり、各個眼光学系31の位置関係は、光路が互いに独立している限り任意である。
 また、カメラ10については、被写体からの光が入射する側の面を、正面とする。
 <カメラの電気的構成例>
 図2は、図1のカメラ10の電気的構成例を示すブロック図である。カメラ10は、多眼光学系30、イメージセンサ51、RAW信号処理部52、領域抽出部53、カメラ信号処理部54、スルー画像生成部55、領域特定部56、画像再構成処理部57、バス60、表示部61、記憶部62、通信部64、ファイル化部65、制御部81、記憶部82、および光学系制御部84を有する。
   <多眼光学系>
 多眼光学系30は、上述の個眼光学系31(例えば個眼光学系310乃至個眼光学系314)からなる。多眼光学系30の各個眼光学系31は、被写体からの光線をカメラ10のイメージセンサ51に集光させる。各個眼光学系31の仕様は互いに同一であるものとする。
   <イメージセンサ>
 イメージセンサ51は、例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサであり、被写体を撮像し、撮像画像を生成する。イメージセンサ51の受光面には、個眼光学系310乃至314それぞれにより集光される光線が照射される。撮像画像における、1つの個眼光学系31を介してイメージセンサ51に照射される照射光が入力された領域に対応する画像を個眼画像とも称する。つまり、イメージセンサ51は、それらの光線(照射光)を受光して光電変換を行うことにより、各個眼光学系31を視点とする個眼画像を含む撮像画像を生成する。なお、個眼画像は、周辺に画像としては有効でない部分を有する。また、全ての個眼画像を含む撮像画像(つまり、イメージセンサ51により生成された撮像画像全体や、その撮像画像から、その撮像画像に含まれる全ての個眼画像よりも外側の領域の一部または全部を削除した画像)のことを全体画像とも称する。
 なお、イメージセンサ51は、単色(所謂モノクロ)のイメージセンサであってもよいし、画素群に例えばベイヤ配列のカラーフィルタが配置されたカラーイメージセンサであってもよい。つまり、イメージセンサ51が出力する撮像画像は、モノクロ画像であってもよいし、カラー画像であってもよい。以下においては、イメージセンサ51が、カラーイメージセンサであって、RAWフォーマットの撮像画像を生成し、出力するものとして説明する。
 なお、本実施の形態においてRAWフォーマットとは、イメージセンサ51のカラーフィルタの配置の位置関係を維持した状態の画像を意味し、イメージセンサ51から出力された画像に対して画サイズの変換処理、ノイズリダクション処理、イメージセンサ51の欠陥補正処理等の信号処理や圧縮符号化がなされた画像も含み得るものとする。また、RAWフォーマットの撮像画像は、モノクロの画像は含まないものとする。
 イメージセンサ51は、照射光を光電変換して生成したRAWフォーマットの撮像画像(全体画像)を出力することができる。例えば、イメージセンサ51は、そのRAWフォーマットの撮像画像(全体画像)を、バス60、RAW信号処理部52、領域抽出部53、および領域特定部56の内の、少なくともいずれか1つに供給することができる。
 例えば、イメージセンサ51は、そのRAWフォーマットの撮像画像(全体画像)を、バス60を介して記憶部62に供給し、記憶媒体63に記憶させることができる。また、イメージセンサ51は、そのRAWフォーマットの撮像画像(全体画像)を、バス60を介して通信部64に供給し、カメラ10の外部へ送信させることができる。さらに、イメージセンサ51は、そのRAWフォーマットの撮像画像(全体画像)を、バス60を介してファイル化部65に供給し、ファイル化させることができる。また、イメージセンサ51は、そのRAWフォーマットの撮像画像(全体画像)を、バス60を介して画像再構成処理部57に供給し、画像再構成処理を行わせることができる。
 なお、イメージセンサ51は、単板式のイメージセンサであってもよいし、例えば3板式のイメージセンサ等、複数のイメージセンサからなる1組のイメージセンサ(複数板式イメージセンサとも称する)であってもよい。
 例えば、3板式のイメージセンサとしては、図3に示されるような、RGB(Red, Green, Blue)それぞれのための3つのイメージセンサ(イメージセンサ51-1乃至イメージセンサ51-3)を有するものがある。この場合、被写体からの光線は、プリズムなどの光学系(光路分離部)を利用して波長域毎に分離され、各イメージセンサに入射する。イメージセンサ51-1乃至イメージセンサ51-3は、それぞれ入射された光を光電変換する。つまり、イメージセンサ51-1乃至イメージセンサ51-3は、互いに異なる波長域の光を互いに略同一のタイミングで光電変換する。したがって、複数板式のイメージセンサの場合、各イメージセンサにおいて、互いに略同時刻に略同一の画角で撮像された撮像画像(つまり、波長域が互いに異なるだけで略同一の絵柄の画像)が得られる。したがって、各イメージセンサで得られる撮像画像における視点画像領域(後述する)の位置や大きさは、互いに略同一となる。この場合、R画像、G画像、B画像を合わせたものを、RAWフォーマットの撮像画像と捉えることができる。
 なお、複数板式のイメージセンサの場合、各イメージセンサはRGBそれぞれのためのものに限らず全てモノクロであっても良いし、全てがベイヤ配列等のカラーフィルタを備えたものであっても良い。なお、全てがベイヤ配列等のカラーフィルタとする場合、全ての配列を同じものとし、互いの画素の位置関係を合わせておけば例えばノイズリダクションを行うことができ、RGBの各イメージセンサの位置関係をずらしておけば所為空間画素ずらしによる効果を用いて高画質化することも可能である。
 このような複数板式撮像装置の場合も各イメージセンサ、すなわち1つのイメージセンサから出力された撮像画像内に、複数の個眼画像や複数の視点画像が含まれることになる。
   <RAW信号処理部>
 RAW信号処理部52は、RAWフォーマットの画像に対する信号処理に関する処理を行う。例えば、RAW信号処理部52は、イメージセンサ51から供給されるRAWフォーマットの撮像画像(全体画像)を取得することができる。また、RAW信号処理部52は、その取得した撮像画像に対して、所定の信号処理を施すことができる。この信号処理の内容は任意である。例えば、欠陥補正、ノイズリダクション、または圧縮(符号化)等であってもよいし、それら以外の信号処理であってもよい。勿論、RAW信号処理部52は、撮像画像に対して複数の信号処理を行うこともできる。なお、RAWフォーマットの画像に対して様々な信号処理は、信号処理後の画像が、上述したようにイメージセンサ51のカラーフィルタの配置の位置関係を維持した状態の画像(複数板式撮像装置の場合はR画像、G画像、B画像の状態のままの画像)であるものに限定される。
 RAW信号処理部52は、信号処理を施したRAWフォーマットの撮像画像(RAW')または圧縮(符号化)した撮像画像(圧縮RAW)を、バス60を介して記憶部62に供給し、記憶媒体63に記憶させることができる。また、RAW信号処理部52は、信号処理を施したRAWフォーマットの撮像画像(RAW')または圧縮(符号化)した撮像画像(圧縮RAW)を、バス60を介して通信部64に供給し、送信させることができる。さらに、RAW信号処理部52は、信号処理を施したRAWフォーマットの撮像画像(RAW')または圧縮(符号化)した撮像画像(圧縮RAW)を、バス60を介してファイル化部65に供給し、ファイル化させることができる。また、RAW信号処理部52は、信号処理を施したRAWフォーマットの撮像画像(RAW')または圧縮(符号化)した撮像画像(圧縮RAW)を、バス60を介して画像再構成処理部57に供給し、画像再構成処理を行わせることができる。なお、これらの、RAW、RAW'、および圧縮RAW(いずれも図2)を互いに区別して説明する必要が無い場合、RAW画像と称する。
   <領域抽出部>
 領域抽出部53は、RAWフォーマットの撮像画像からの一部の領域の抽出(部分画像の切り出し)に関する処理を行う。例えば、領域抽出部53は、イメージセンサ51から供給されるRAWフォーマットの撮像画像(全体画像)を取得することができる。また、領域抽出部53は、領域特定部56から供給される、撮像画像から抽出する領域を示す情報(抽出領域情報とも称する)を取得することができる。そして、領域抽出部53は、その抽出領域情報に基づいて、撮像画像から一部の領域を抽出する(部分画像を切り出す)ことができる。
 例えば、領域抽出部53は、撮像画像(全体画像)から、各個眼光学系31を視点とする画像を切り出すことができる。つまり、領域抽出部53は、各個眼光学系31を視点とする画像として、撮像画像に含まれる各個眼画像の領域から有効な部分を切り出すことができる。この切り出された有効な部分の画像(個眼画像の一部)を視点画像とも称する。また、撮像画像におけるその切り出される領域(視点画像に対応する領域)を視点画像領域とも称する。例えば、領域抽出部53は、領域特定部56から供給される、視点画像領域を特定するために用いられる情報である視点関連情報を、抽出領域情報として取得し、撮像画像から、その視点関連情報において示される各視点画像領域を抽出する(各視点画像を切り出す)ことができる。そして、領域抽出部53は、その切り出した各視点画像(RAWフォーマット)をカメラ信号処理部54に供給することができる。
 また、例えば、領域抽出部53は、撮像画像(全体画像)から切り出した各視点画像を合成し、合成画像を生成することができる。合成画像は、各視点画像が合成されて、1データ化、または、1枚の画像とされたものである。例えば、領域抽出部53は、各視点画像を平面状に並べた1枚の画像(合成画像)を生成することができる。領域抽出部53は、その生成した合成画像(RAWフォーマット)をカメラ信号処理部54に供給することができる。
 また、例えば、領域抽出部53は、全体画像をカメラ信号処理部54に供給することができる。例えば、領域抽出部53は、取得した撮像画像から、全ての個眼画像を含む一部の領域を抽出し(つまり、全ての個眼画像を含む部分画像を切り出し)、その切り出した部分画像(つまり、撮像画像に含まれる全ての個眼画像よりも外側の領域の一部または全部を削除した画像)を、RAWフォーマットの全体画像としてカメラ信号処理部54に供給することができる。この場合の抽出する領域の場所(範囲)は、領域抽出部53において予め定められていてもよいし、領域特定部56から供給される視点関連情報により指定されるようにしてもよい。
 また、領域抽出部53は、取得した撮像画像を(すなわち、切り出された全ての個眼画像を含む部分画像ではなく撮像画像全体を)、RAWフォーマットの全体画像としてカメラ信号処理部54に供給することもできる。
 なお、領域抽出部53は、上述のように撮像画像から切り出したRAWフォーマットの部分画像(全体画像、視点画像、または合成画像)を、イメージセンサ51の場合と同様に、バス60を介して記憶部62、通信部64、ファイル化部65、または画像再構成処理部57等に供給することができる。
 また、領域抽出部53は、そのRAWフォーマットの部分画像(全体画像、視点画像、または合成画像)を、RAW信号処理部52に供給し、所定の信号処理を施させたり、圧縮(符号化)させたりすることもできる。この場合も、RAW信号処理部52は、信号処理を施したRAWフォーマットの撮像画像(RAW')または圧縮(符号化)した撮像画像(圧縮RAW)を、バス60を介して記憶部62、通信部64、ファイル化部65、または画像再構成処理部57等に供給することができる。
 つまり、撮像画像(または全体画像)、視点画像、および合成画像の内の少なくともいずれか1つは、RAW画像であるようにしてもよい。
   <カメラ信号処理部>
 カメラ信号処理部54は、画像に対するカメラ信号処理に関する処理を行う。例えば、カメラ信号処理部54は、領域抽出部53から供給される画像(全体画像、視点画像、または合成画像)を取得することができる。また、カメラ信号処理部54は、その取得した画像に対して、カメラ信号処理(カメラプロセス)を施すことができる。例えば、カメラ信号処理部54は、処理対象の画像に対して、RGBの各色を分離してそれぞれ処理対象の画像と同じ画素数のR画像、G画像、およびB画像を生成する色分離処理(ベイヤ配列等のモザイクカラーフィルタを用いた場合はデモザイク処理)や、その色分離後の画像の色空間をRGBからYC(輝度・色差)に変換するYC変換処理等を行うことができる。また、カメラ信号処理部54は、処理対象の画像に対して、欠陥補正、ノイズリダクション、AWB(Automatic White Balance)、またはガンマ補正等の処理を行うことができる。さらに、カメラ信号処理部54は、処理対象の画像を圧縮(符号化)することもできる。勿論、カメラ信号処理部54は、処理対象の画像に対して複数のカメラ信号処理を行うこともできるし、上述した例以外のカメラ信号処理を行うこともできる。
 なお、以下においては、カメラ信号処理部54が、RAWフォーマットの画像を取得し、その画像に対して色分離処理やYC変換を行い、YCフォーマットの画像(YC)を出力するものとする。この画像は、全体画像であってもよいし、各視点画像であってもよいし、合成画像であってもよい。また、このYCフォーマットの画像(YC)は、符号化されていてもよいし、符号化されていなくてもよい。つまり、カメラ信号処理部54から出力されるデータは、符号化データであってもよいし、符号化されていない画像データであってもよい。
 つまり、撮像画像(または全体画像)、視点画像、および合成画像の内の少なくともいずれか1つは、そのYCフォーマットの画像(YC画像とも称する)であるようにしてもよい。
 また、カメラ信号処理部54が出力する画像は、完全な現像処理をするものではなく、YCフォーマットの画像(YC)として、ガンマ補正やカラーマトリクス等の非可逆的な画質調整(色調整)に関する処理の一部または全部を施していないものであっても良い。この場合、後段や再生時等において、YCフォーマットの画像(YC)をほぼ劣化なくRAWフォーマットの画像に戻すことができる。
 カメラ信号処理部54は、例えば、カメラ信号処理を施したYCフォーマットの画像(YC)を、バス60を介して表示部61に供給し、表示させることができる。また、カメラ信号処理部54は、カメラ信号処理を施したYCフォーマットの画像(YC)を、バス60を介して記憶部62に供給し、記憶媒体63に記憶させることができる。さらに、カメラ信号処理部54は、カメラ信号処理を施したYCフォーマットの画像(YC)を、バス60を介して通信部64に供給し、外部に送信させることができる。また、カメラ信号処理部54は、カメラ信号処理を施したYCフォーマットの画像(YC)を、バス60を介してファイル化部65に供給し、ファイル化させることができる。さらに、カメラ信号処理部54は、カメラ信号処理を施したYCフォーマットの画像(YC)を、バス60を介して画像再構成処理部57に供給し、画像再構成処理を行わせることができる。
 また、例えば、カメラ信号処理部54は、そのYCフォーマットの画像(YC)をスルー画像生成部55に供給することもできる。
 なお、RAWフォーマットの画像(全体画像、視点画像、または部分画像)が記憶媒体63に記憶されている場合、カメラ信号処理部54は、そのRAWフォーマットの画像を記憶媒体63から読み出し、信号処理を施すことができるようにしてもよい。この場合も、カメラ信号処理部54は、カメラ信号処理を施したYCフォーマットの画像(YC)を、バス60を介して表示部61、記憶部62、通信部64、ファイル化部65、または画像再構成処理部57等に供給することができる。
 また、イメージセンサ51から出力されるRAWフォーマットの撮像画像(全体画像)に対してカメラ信号処理部54がカメラ信号処理を施し、そのカメラ信号処理後の撮像画像(全体画像)から、領域抽出部53が一部の領域を抽出するようにしてもよい。
   <スルー画像生成部>
 スルー画像生成部55は、スルー画像の生成に関する処理を行う。スルー画像は、撮影時または撮影準備時(非記録時)にユーザが撮影準備中の画像を確認するために表示される画像である。スルー画像は、ライブビュー画像やEE(Electronic to Electronic)画とも称する。なお、静止画撮影時は撮影前の画像であるが、動画撮影時は、撮影準備中だけでなく撮影(記録)中の画像に対応するスルー画像も表示される。
 例えば、スルー画像生成部55は、カメラ信号処理部54から供給される画像(全体画像、視点画像、または合成画像)を取得することができる。また、スルー画像生成部55は、その取得した画像を用いて、例えば表示部61の解像度に応じた画サイズに変換する画サイズ(解像度)変換を行うことで、表示用画像であるスルー画像を生成することができる。スルー画像生成部55は、生成したスルー画像を、バス60を介して表示部61に供給し、表示させることができる。
   <領域特定部>
 領域特定部56は、領域抽出部53が撮像画像から抽出する領域の特定(設定)に関する処理を行う。例えば、領域特定部56は、視点関連情報(VI)を特定し、領域抽出部53に視点画像領域を供給する。
 視点関連情報(VI)は、例えば、撮像画像における視点画像領域を示す視点領域情報を含む。視点領域情報は、視点画像領域をどのように表してもよい。例えば、撮像画像における個眼光学系31の光軸に対応する位置を示す座標(視点画像領域の中心座標とも称する)と視点画像(視点画像領域)の解像度(画素数)とにより、視点画像領域が表されるようにしてもよい。つまり、視点領域情報が、撮像画像における視点画像領域の中心座標と視点画像領域の解像度とを含むようにしてもよい。この場合、視点画像領域の中心座標とその視点画像領域の解像度(画素数)から、全体画像の内の視点画像領域の場所の特定が可能になる。
 なお、視点領域情報は、視点画像領域毎に設定される。つまり、撮像画像に複数の視点画像が含まれる場合、視点関連情報(VI)は、各視点画像(各視点画像領域)について、視点画像(領域)を識別するための視点識別情報(例えば識別番号)と視点領域情報とを含み得る。
 また、視点関連情報(VI)は、その他の任意の情報を含み得る。例えば、視点関連情報(VI)が、視点画像が抽出される撮像画像が撮像された時刻を示す視点時刻情報を含むようにしてもよい。また、視点関連情報(VI)が、個眼画像から切り出す領域であって、視点画像領域を内包する視点画像包含領域を示す視点画像包含領域情報を含むようにしてもよい。さらに、視点関連情報(VI)が、撮像画像の視点画像領域でも個眼画像の領域でもない領域に形成されるスポット光の画像に関する情報であるスポット光情報(SI)を含むようにしてもよい。
 領域特定部56が、このような視点関連情報(VI)を、特定した視点画像領域を示す情報として領域抽出部53に供給することにより、領域抽出部53は、その視点関連情報(VI)に基づいて、領域特定部56により特定された視点画像領域を抽出する(視点画像を切り出す)ことができる。
 また、領域特定部56は、視点関連情報(VI)をバス60に供給することができる。例えば、領域特定部56は、視点関連情報(VI)を、バス60を介して記憶部62に供給し、記憶媒体63に記憶させることができる。また、領域特定部56は、視点関連情報(VI)を、バス60を介して通信部64に供給し、送信させることができる。さらに、領域特定部56は、視点関連情報(VI)を、バス60を介してファイル化部65に供給し、ファイル化させることができる。また、領域特定部56は、視点関連情報(VI)を、バス60を介して画像再構成処理部57に供給し、画像再構成処理に利用させることができる。
 例えば、領域特定部56は、このような視点関連情報(VI)を制御部81から取得し、その取得した視点関連情報(VI)を領域抽出部53やバス60に供給してもよい。この場合、制御部81は、記憶媒体83に記憶されている視点関連情報(VI)を、記憶部82を介して読み出し、領域特定部56に供給する。領域特定部56は、その視点関連情報(VI)を領域抽出部53やバス60に供給する。なお、この視点関連情報(VI)には、スポット光情報(SI)が含まれていてもよい。
 このようにバス60を介して記憶部62、通信部64、またはファイル化部65に供給された視点関連情報(VI)は、そこにおいて画像(全体画像、視点画像、または合成画像)と関連付けられる。例えば、記憶部62は、供給された視点関連情報(VI)を画像(全体画像、視点画像、または合成画像)と関連付け、記憶媒体63に記憶させることができる。また、通信部64は、供給された視点関連情報(VI)を画像(全体画像、視点画像、または合成画像)と関連付け、外部に送信することができる。さらに、ファイル化部65は、供給された視点関連情報(VI)を画像(全体画像、視点画像、または合成画像)と関連付け、それらを含む1つのファイルを生成することができる。
 また、領域特定部56は、イメージセンサ51から供給されるRAWフォーマットの撮像画像を取得し、その撮像画像に基づいて視点関連情報(VI’)を生成し、その生成した視点関連情報(VI’)を領域抽出部53やバス60に供給してもよい。この場合、領域特定部56は、撮像画像から各視点画像領域を特定し、その視点画像領域を示す(例えば、撮像画像における視点画像領域の中心座標と視点画像領域の解像度等により視点画像領域を示す)視点関連情報(VI’)を生成する。そして、領域特定部56は、その生成した視点関連情報(VI’)を領域抽出部53やバス60に供給する。なお、この視点関連情報(VI’)には、領域特定部56が撮像画像に基づいて生成したスポット光情報(SI’)が含まれていてもよい。
 さらに、領域特定部56は、視点関連情報(VI)を制御部81から取得し、イメージセンサ51から供給されるRAWフォーマットの撮像画像を取得し、その撮像画像に基づいてスポット光情報(SI’)を生成し、視点関連情報(VI)にそのスポット光情報(SI’)を付加し、領域抽出部53やバス60に供給してもよい。この場合、制御部81は、記憶媒体83に記憶されている視点関連情報(VI)を、記憶部82を介して読み出し、領域特定部56に供給する。領域特定部56は、その視点関連情報(VI)にスポット光情報(SI’)を付加して視点関連情報(VI’)を生成する。領域特定部56は、その視点関連情報(VI’)を領域抽出部53やバス60に供給する。
 また、領域特定部56は、視点関連情報(VI)を制御部81から取得し、イメージセンサ51から供給されるRAWフォーマットの撮像画像を取得し、その撮像画像に基づいてスポット光情報(SI’)を生成し、そのスポット光情報(SI’)を用いて視点関連情報(VI)を補正し、補正後の視点関連情報(VI’)を領域抽出部53やバス60に供給してもよい。この場合、制御部81は、記憶媒体83に記憶されている視点関連情報(VI)を、記憶部82を介して読み出し、領域特定部56に供給する。領域特定部56は、その視点関連情報(VI)を、スポット光情報(SI’)を用いて補正し、視点関連情報(VI’)を生成する。領域特定部56は、その視点関連情報(VI’)を領域抽出部53やバス60に供給する。
   <画像再構成処理部>
 画像再構成処理部57は、画像の再構成に関する処理を行う。例えば、画像再構成処理部57は、バス60を介してカメラ信号処理部54や記憶部62からYCフォーマットの画像(全体画像、視点画像、または合成画像)を取得することができる。また、画像再構成処理部57は、バス60を介して領域特定部56や記憶部62から視点関連情報を取得することができる。
 さらに、画像再構成処理部57は、その取得した画像と取得した画像に関連付けられた視点関連情報とを用いて、例えば、奥行情報の生成や、任意の被写体にフォーカスを合わせた画像を生成(再構成)するリフォーカス等の画像処理を行うことができる。例えば、視点画像を処理対象とする場合、画像再構成処理部57は、その各視点画像を用いて奥行情報の生成やリフォーカス等の処理を行う。また、撮像画像や合成画像を処理対象とする場合、画像再構成処理部57は、その撮像画像や合成画像から各視点画像を抽出し、抽出した視点画像を用いて奥行情報の生成やリフォーカス等の処理を行う。
 画像再構成処理部57は、生成した奥行情報やリフォーカスされた画像を処理結果として、バス60を介して記憶部62に供給し、記憶媒体63に記憶させることができる。また、画像再構成処理部57は、生成した奥行情報やリフォーカスされた画像を処理結果として、バス60を介して通信部64に供給し、外部に送信させることができる。さらに、画像再構成処理部57は、生成した奥行情報やリフォーカスされた画像を処理結果として、バス60を介してファイル化部65に供給し、ファイル化させることができる。
   <バス>
 バス60には、イメージセンサ51、RAW信号処理部52、領域抽出部53、カメラ信号処理部54、スルー画像生成部55、領域特定部56、画像再構成処理部57、表示部61、記憶部62、通信部64、およびファイル化部65が接続される。バス60は、これらのブロック間で授受される各種データの伝送媒体(伝送路)として機能する。なお、このバス60は、有線により実現されてもよいし、無線通信により実現されてもよい。
   <表示部>
 表示部61は、例えば、液晶パネルや有機EL(Electro Luminescence)パネル等で構成され、カメラ10の筐体と一体、または別体に設けられている。例えば、表示部61は、カメラ10の筐体の背面(多眼光学系30が設けられている面と反対側の面)に設けられていてもよい。
 表示部61は、画像の表示に関する処理を行う。例えば、表示部61は、スルー画像生成部55から供給されるYCフォーマットであるスルー画像を取得し、RGBフォーマットに変換して表示することができる。その他、表示部61は、例えば、メニュー、カメラ10の設定等の情報を表示することもできる。
 また、表示部61は、記憶部62から供給されるYCフォーマットの画像(撮像画像、視点画像、または合成画像)を取得し、表示することができる。また、表示部61は、記憶部62から供給されるYCフォーマットのサムネイル画像を取得し、表示することができる。さらに、表示部61は、カメラ信号処理部54から供給されるYCフォーマットの画像(撮像画像、視点画像、または合成画像)を取得し、表示することができる。
   <記憶部>
 記憶部62は、例えば、半導体メモリ等よりなる記憶媒体63の記憶を制御する。この記憶媒体63は、リムーバブルな記憶媒体であってもよいし、カメラ10に内蔵される記憶媒体であってもよい。例えば、記憶部62は、制御部81やユーザの操作等に応じて、バス60を介して供給される画像(撮像画像、視点画像、または合成画像)を記憶媒体63に記憶させることができる。
 例えば、記憶部62は、イメージセンサ51または領域抽出部53から供給されるRAWフォーマットの画像(全体画像、視点画像、または合成画像)を取得し、記憶媒体63に記憶させることができる。また、記憶部62は、RAW信号処理部52から供給される信号処理を施したRAWフォーマットの画像(全体画像、視点画像、または合成画像)または圧縮(符号化)したRAWフォーマットの画像(全体画像、視点画像、または合成画像)を取得し、記憶媒体63に記憶させることができる。さらに、記憶部62は、カメラ信号処理部54から供給されるYCフォーマットの画像(全体画像、視点画像、または合成画像)を取得し、記憶媒体63に記憶させることができる。
 その際、記憶部62は、領域特定部56から供給される視点関連情報を取得し、上述の画像(全体画像、視点画像、または合成画像)に関連付けることができる。つまり、記憶部62は、画像(全体画像、視点画像、または合成画像)と視点関連情報を互いに関連付けて、記憶媒体63に記憶させることができる。つまり、記憶部62は、全体画像、視点画像、および合成画像の内の少なくとも1つと視点関連情報とを関連付ける関連付け部として機能することになる。
 また、例えば、記憶部62は、画像再構成処理部57から供給される奥行情報やリフォーカスされた画像を取得し、記憶媒体63に記憶させることができる。さらに、記憶部62は、ファイル化部65から供給されるファイルを取得し、記憶媒体63に記憶させることができる。このファイルは、例えば、画像(全体画像、視点画像、または合成画像)および視点関連情報を含む。つまり、このファイルにおいて、画像(全体画像、視点画像、または合成画像)および視点関連情報が互いに関連付けられている。
 また、例えば、記憶部62は、制御部81やユーザの操作等に応じて、記憶媒体63に記憶されているデータやファイル等を読み出し、バス60を介して、カメラ信号処理部54、表示部61、通信部64、ファイル化部65、または画像再構成処理部57等に供給することができる。例えば、記憶部62は、記憶媒体63からYCフォーマットの画像(全体画像、視点画像、または合成画像)を読み出し、表示部61に供給し、表示させることができる。また、記憶部62は、記憶媒体63からRAWフォーマットの画像(全体画像、視点画像、または合成画像)を読み出し、カメラ信号処理部54に供給し、カメラ信号処理を施させることができる。
 また、記憶部62は、互いに関連付けられて記憶媒体63に記憶されている画像(全体画像、視点画像、または合成画像)および視点関連情報のデータまたはファイルを読み出し、他の処理部に供給することができる。例えば、記憶部62は、記憶媒体63から、互いに関連付けられた画像(全体画像、視点画像、または合成画像)および視点関連情報を読み出し、それらを画像再構成処理部57に供給し、奥行情報の生成やリフォーカス等の処理を行わせることができる。また、記憶部62は、記憶媒体63から、互いに関連付けられた画像(全体画像、視点画像、または合成画像)および視点関連情報を読み出し、それらを通信部64に供給し、送信させることができる。さらに、記憶部62は、記憶媒体63から、互いに関連付けられた画像(全体画像、視点画像、または合成画像)および視点関連情報を読み出し、それらをファイル化部65に供給し、ファイル化させることができる。
 なお、記憶媒体63は、ROM(Read Only Memory)であってもよいし、RAM(Random Access Memory)やフラッシュメモリ等のような書き換え可能なメモリであってもよい。書き換え可能なメモリの場合、記憶媒体63は、任意の情報を記憶することができる。
   <通信部>
 通信部64は、任意の通信方式により、インターネット上のサーバや、有線または無線LAN上のPC、その他の外部のデバイス等との間で通信を行う。例えば、通信部64は、制御部81の制御やユーザの操作等に応じて、その通信により、画像(撮像画像、視点画像、または合成画像)や視点関連情報等のデータやファイルを、ストリーミング方式やアップロード方式等により、通信相手(外部のデバイス)に送信することができる。
 例えば、通信部64は、イメージセンサ51や領域抽出部53から供給されるRAWフォーマットの画像(撮像画像、視点画像、または合成画像)を取得し、送信することができる。また、通信部64は、RAW信号処理部52から供給される信号処理を施したRAWフォーマットの画像(撮像画像、視点画像、または合成画像)や圧縮(符号化)した画像(撮像画像、視点画像、または合成画像)を取得し、送信することができる。さらに、通信部64は、カメラ信号処理部54から供給されるYCフォーマットの画像(撮像画像、視点画像、または合成画像)を取得し、送信することができる。
 その際、通信部64は、領域特定部56から供給される視点関連情報を取得し、上述の画像(全体画像、視点画像、または合成画像)に関連付けることができる。つまり、通信部64は、画像(全体画像、視点画像、または合成画像)と視点関連情報を互いに関連付けて、送信することができる。例えば、画像をストリーミング方式で送信する場合、通信部64は、送信する画像(全体画像、視点画像、または合成画像)を、その画像を供給する処理部から取得し、その画像に領域特定部56から供給される視点関連情報を関連付けて送信する処理を繰り返す。つまり、通信部64は、全体画像、視点画像、および合成画像の内の少なくとも1つと視点関連情報とを関連付ける関連付け部として機能することになる。
 また、例えば、通信部64は、画像再構成処理部57から供給される奥行情報やリフォーカスされた画像を取得し、送信することができる。さらに、通信部64は、ファイル化部65から供給されるファイルを取得し、送信することができる。このファイルは、例えば、画像(全体画像、視点画像、または合成画像)および視点関連情報を含む。つまり、このファイルにおいて、画像(全体画像、視点画像、または合成画像)および視点関連情報が互いに関連付けられている。
   <ファイル化部>
 ファイル化部65は、ファイルの生成に関する処理を行う。例えば、ファイル化部65は、イメージセンサ51または領域抽出部53から供給されるRAWフォーマットの画像(全体画像、視点画像、または合成画像)を取得することができる。また、ファイル化部65は、RAW信号処理部52から供給される信号処理を施したRAWフォーマットの画像(全体画像、視点画像、または合成画像)または圧縮(符号化)したRAWフォーマットの画像(全体画像、視点画像、または合成画像)を取得することができる。さらに、ファイル化部65は、カメラ信号処理部54から供給されるYCフォーマットの画像(全体画像、視点画像、または合成画像)を取得することができる。また、例えば、ファイル化部65は、領域特定部56から供給される視点関連情報を取得することができる。
 ファイル化部65は、取得した複数のデータをファイル化して、その複数のデータを含む1つのファイルを生成することにより、その複数のデータを互いに関連付けることができる。例えば、ファイル化部65は、上述の画像(全体画像、視点画像、または合成画像)および視点関連情報から1つのファイルを生成することにより、それらを互いに関連付けることができる。つまり、ファイル化部65は、全体画像、視点画像、および合成画像の内の少なくとも1つと視点関連情報とを関連付ける関連付け部として機能することになる。
 また、例えば、ファイル化部65は、画像再構成処理部57から供給される奥行情報やリフォーカスされた画像を取得し、ファイル化することができる。さらに、ファイル化部65は、記憶部62から供給される、互いに関連付けられた画像(全体画像、視点画像、または合成画像)および視点関連情報から1つのファイルを生成することができる。
 なお、ファイル化部65は、ファイル化する画像(例えば視点画像)のサムネイル画像を生成し、それを生成したファイルに含めることができる。つまり、ファイル化部65は、ファイル化することにより、このサムネイル画像を、画像(全体画像、視点画像、または合成画像)や視点関連情報に関連付けることができる。
 ファイル化部65は、生成したファイル(互いに関連付けられた画像および視点関連情報)を、例えば、バス60を介して記憶部62に供給し、記憶媒体63に記憶させることができる。また、ファイル化部65は、生成したファイル(互いに関連付けられた画像および視点関連情報)を、例えば、バス60を介して通信部64に供給し、送信させることができる。
   <関連付け部>
 これらの記憶部62、通信部64、およびファイル化部65を関連付け部70とも称する。関連付け部70は、画像(全体画像、視点画像、または合成画像)と、視点関連情報とを関連付ける。例えば、記憶部62は、全体画像、視点画像、および合成画像の内の少なくとも1つと視点関連情報とを関連付けて記憶媒体63に記憶させることができる。また、通信部64は、全体画像、視点画像、および合成画像の内の少なくとも1つと視点関連情報とを関連付けて送信することができる。さらに、ファイル化部65は、全体画像、視点画像、および合成画像の内の少なくとも1つと視点関連情報とから1つのファイルを生成することにより、それらを関連付けることができる。
   <制御部>
 制御部81は、カメラ10に関する制御処理を行う。つまり、制御部81は、カメラ10の各部を制御し、処理を実行させることができる。例えば、制御部81は、光学系制御部84を介して多眼光学系30(各個眼光学系31)を制御し、絞りやフォーカス位置等の撮像に関する光学系の設定を行わせることができる。また、制御部81は、イメージセンサ51を制御し、イメージセンサ51に撮像(光電変換)を行わせ、撮像画像を生成させることができる。
 さらに、制御部81は、視点関連情報(VI)を領域特定部56に供給し、撮像画像から抽出する領域を特定させることができる。なお、この視点関連情報(VI)には、スポット光情報(SI)が含まれていてもよい。また、制御部81は、記憶媒体83に記憶されている視点関連情報(VI)を、記憶部82を介して読み出し、領域特定部56に供給してもよい。
 また、制御部81は、バス60を介して画像を取得し、その画像の明るさに基づいて、光学系制御部84を介して絞りを制御することができる。さらに、制御部81は、その画像の鮮鋭度に基づいて、光学系制御部84を介してフォーカスを制御することができる。また、制御部81は、その画像のRGB比率に基づいてカメラ信号処理部54を制御し、ホワイトバランスゲインを制御することができる。
   <記憶部>
 記憶部82は、例えば、半導体メモリ等よりなる記憶媒体83の記憶を制御する。この記憶媒体83は、リムーバブルな記憶媒体であってもよいし、内蔵メモリであってもよい。この記憶媒体83には、例えば、視点関連情報(VI)が記憶されている。この視点関連情報(VI)は、多眼光学系30(の各個眼光学系31)およびイメージセンサ51に対応する情報である。つまり、視点関連情報(VI)は、この多眼光学系30の各個眼光学系31を視点とする視点画像に関する情報であり、その視点画像領域を特定するために用いられる情報である。例えば、この視点関連情報(VI)には、スポット光情報(SI)が含まれていてもよい。
 例えば、記憶部82は、制御部81やユーザの操作等に応じて、記憶媒体83に記憶されている視点関連情報(VI)を読み出し、制御部81に供給することができる。
 なお、記憶媒体83は、ROMであってもよいし、RAMやフラッシュメモリ等のような書き換え可能なメモリであってもよい。書き換え可能なメモリの場合、記憶媒体83は、任意の情報を記憶することができる。
 また、記憶部82および記憶媒体83を記憶部62および記憶媒体63により代用してもよい。つまり、上述した記憶媒体83に記憶させる情報(視点関連情報(VI)等)を記憶媒体63に記憶させてもよい。その場合、記憶部82および記憶媒体83は、省略してもよい。
   <光学系制御部>
 光学系制御部84は、制御部81の制御に従って、多眼光学系30(の各個眼光学系31)を制御する。例えば、光学系制御部84は、各個眼光学系31のレンズ群や絞りを制御し、各個眼光学系31の焦点距離若しくはF値、またはその両方を制御することができる。なお、カメラ10が電動フォーカス調整機能を有する場合、光学系制御部84は、多眼光学系30(の各個眼光学系31の)フォーカス(焦点距離)を制御することができる。また、光学系制御部84が、各個眼光学系31の絞り(F値)を制御することができるようにしてもよい。
 なお、カメラ10が、このような電動フォーカス調整機能を備える代わりに、鏡筒に設けられたフォーカスリングを手動により操作することにより、焦点距離を調整する機構(物理的構成)を備えるようにしてもよい。その場合、この光学系制御部84は、省略することができる。
  <視点関連情報の関連付け>
 カメラ10は、撮像画像から、各個眼光学系31を視点とする視点画像を抽出し得る。1枚の撮像画像から抽出された複数の視点画像は互いに異なる視点の画像であるので、これらの視点画像を用いて、例えば多眼マッチングによる奥行推定や多眼レンズの取り付け誤差抑制のための補正等の処理を行うことができる。ただし、これらの処理を行うためには、各視点画像間の相対位置等の情報が必要である。
 そこで、カメラ10は、出力する全体画像、視点画像、または、合成画像に対して、撮像画像における複数の視点画像の領域を特定するために用いられる情報である視点関連情報を関連付ける。
 ここで、「関連付ける」という用語は、例えば、一方のデータを処理する際に他方のデータを利用し得る(リンクさせ得る)ようにすることを意味する。つまり、撮像画像と視点関連情報のデータ(ファイル)としての形態は任意である。例えば、撮像画像と視点関連情報とが、1つのデータ(ファイル)としてまとめられてもよいし、それぞれ個別のデータ(ファイル)としてもよい。例えば、撮像画像に関連付けられた視点関連情報は、その撮像画像とは別の伝送路上で伝送されるようにしてもよい。また、例えば、撮像画像に関連付けられた視点関連情報は、その撮像画像とは別の記録媒体(または同一の記録媒体の別の記録エリア)に記録されるようにしてもよい。勿論、撮像画像と視点関連情報とをまとめて、1つのストリームデータにしたり、1つのファイルにしたりしてもよい。
 なお、視点関連情報を関連付ける画像は、静止画像でもよいし動画像でもよい。動画像の場合、各フレーム画像において、静止画像の場合と同様に領域抽出や視点関連情報の関連付け等を行うことができる。
 また、この「関連付け」は、データ全体でなく、データ(ファイル)の一部であってもよい。例えば、撮像画像が複数フレームからなる動画像である場合、視点関連情報が、撮像画像の、複数フレーム、1フレーム、またはフレーム内の一部分などの任意の単位に対して関連付けられるようにしてもよい。
 なお、撮像画像と視点関連情報とが個別のデータ(ファイル)とされる場合は、その撮像画像と視点関連情報の双方に同じ識別番号を付与することなどで、両者を関連付けることができる。また、撮像画像と視点関連情報とが1つのファイルにまとめられる場合、例えば、撮像画像のヘッダ等に視点関連情報が付与されるようにしてもよい。なお、視点関連情報が関連付けられる対象は、撮像画像(全体画像)であってもよいし、視点画像であってもよいし、視点画像の合成画像であってもよい。
  <全体画像の出力>
 全体画像を出力する場合について説明する。全体画像の例を図4に示す。図4に示されるように、全体画像130には、各個眼光学系31に対応する個眼画像(各個眼光学系31を介して入射された被写体からの光を光電変換した画像)が含まれる。例えば、全体画像130の中央の画像が個眼光学系310に対応する個眼画像である。また、全体画像130の右上の画像が個眼光学系311に対応する個眼画像である。さらに、全体画像130の左上の画像が個眼光学系312に対応する個眼画像である。また、全体画像130の左下の画像が個眼光学系313に対応する個眼画像である。さらに、全体画像130の右下の画像が個眼光学系314に対応する個眼画像である。
 なお、この全体画像130は、イメージセンサ51により生成される撮像画像全体であってもよいし、その撮像画像より切り出された部分画像(ただし、全ての個眼画像を含む)であってもよい。また、この全体画像130は、RAWフォーマットの画像であってもよいし、YCフォーマットの画像であってもよい。
 視点領域情報により、全体画像130に対して各個眼画像の一部(有効な部分)が視点画像領域として指定される。例えば図4の場合、全体画像130の、点線枠で囲まれた領域が視点画像領域である。つまり、個眼光学系310に対応する個眼画像の一部(有効な部分)が視点画像領域1310として指定される。同様に、個眼光学系311に対応する個眼画像の一部(有効な部分)が視点画像領域1311として指定される。また、個眼光学系312に対応する個眼画像の一部(有効な部分)が視点画像領域1312として指定される。さらに、個眼光学系313に対応する個眼画像の一部(有効な部分)が視点画像領域1313として指定される。また、個眼光学系314に対応する個眼画像の一部(有効な部分)が視点画像領域1314として指定される。なお、以下において、視点画像領域1310乃至視点画像領域1314を互いに区別して説明する必要がない場合、視点画像領域131と称する。
 このような全体画像130を出力する場合、関連付け部70は、イメージセンサ51、RAW信号処理部52、または、カメラ信号処理部54からこの全体画像130を取得し、領域特定部56から供給される多眼光学系30に対応する視点関連情報を、その全体画像130に関連付ける。そして、関連付け部70は、その互いに関連付けた全体画像および視点関連情報を出力する。出力の例としては、例えば、記憶部62が、その互いに関連付けた全体画像および視点関連情報を記憶媒体63に記憶させてもよい。また、通信部64が、その互いに関連付けた全体画像および視点関連情報を送信してもよい。さらに、ファイル化部65が、その互いに関連付けた全体画像および視点関連情報をファイル化してもよい。
 なお、全体画像と視点関連情報との関連付けは、領域抽出部53において行われるようにしてもよい。つまり、領域抽出部53が、出力する全体画像に対して領域特定部56から供給された視点関連情報を関連付け、その互いに関連付けた全体画像および視点関連情報をバス60、RAW信号処理部52、またはカメラ信号処理部54に供給するようにしてもよい。
 この場合の視点関連情報は、撮像画像における複数の視点画像領域を示す視点領域情報を含む。視点領域情報は、視点画像領域をどのように表してもよい。例えば、撮像画像における個眼光学系31の光軸に対応する位置を示す座標(視点画像領域の中心座標)と視点画像(視点画像領域)の解像度(画素数)とにより、視点画像領域が表されるようにしてもよい。つまり、視点領域情報が、撮像画像における視点画像領域の中心座標と視点画像領域の解像度とを含むようにしてもよい。この場合、視点画像領域の中心座標とその視点画像領域の解像度(画素数)から、全体画像130の内の視点画像領域の場所を特定することができる。
 撮像画像にこのような視点関連情報を関連付けることにより、多眼マッチングによる奥行推定や、多眼光学系30の取り付け(設置)の際に生じる誤差の抑制のための処理等の後段処理のための事前処理としての視点画像の抽出において、この視点関連情報を用いることができる。例えば、画像再構成処理部57は、この視点関連情報に含まれる視点領域情報に基づいて各視点画像を抽出したうえで、多眼マッチングによる奥行推定や、リフォーカス処理、多眼光学系30の取り付け(設置)の際に生じる誤差の抑制のための処理等の後段処理を行うことができる。
 なお、全体画像130に視点関連情報が関連付けられていなくても、例えば画像再構成処理部57は、画像処理により、全体画像130に含まれる視点画像領域を特定することができる可能性があるが、撮像条件などによって撮像画像の内の視点画像領域を正確に特定することは困難な可能性がある。そこで、上述のように視点関連情報を全体画像130に関連付けることにより、画像再構成処理部57は、その視点関連情報に基づいて、より容易かつより正確に上述の全体画像130から視点画像領域を抽出することができる。
  <視点画像の出力>
 次に、視点画像を出力する場合について説明する。図5は、切り出された視点画像の例を示す図である。図5において、視点画像1320は、全体画像130(図4)から視点画像領域1310を抽出した画像である。視点画像1321は、全体画像130から視点画像領域1311を抽出した画像である。視点画像1322は、全体画像130から視点画像領域1312を抽出した画像である。視点画像1323は、全体画像130から視点画像領域1313を抽出した画像である。視点画像1324は、全体画像130から視点画像領域1314を抽出した画像である。以下において、視点画像1320乃至視点画像1324を互いに区別して説明する必要がない場合、視点画像132と称する。
 このような視点画像を出力する場合、領域抽出部53は、この図5の例のように切り出した各視点画像132を、それぞれ独立したデータ(またはファイル)として出力する。
 例えば、領域抽出部53は、領域特定部56から供給された視点関連情報に従って撮像画像(全体画像)から視点画像を切り出す。領域抽出部53は、その切り出した各視点画像に、各視点を識別するための視点識別情報(例えば、識別番号)を割り当てる。領域抽出部53は、その視点識別情報を割り当てた各視点画像をカメラ信号処理部54に供給する。カメラ信号処理部54は、そのRAWフォーマットの各視点画像にカメラ信号処理を施し、YCフォーマットの各視点画像を生成する。カメラ信号処理部54は、そのYCフォーマットの各視点画像を関連付け部70に供給する。また、領域特定部56は、領域抽出部53に供給した視点関連情報を関連付け部70に供給する。
 関連付け部70は、各視点画像に対して、その視点画像に対応する視点関連情報を関連付ける。視点関連情報は、各視点を識別するための視点識別情報(例えば、視点識別番号)を含み得る。関連付け部70は、この視点識別情報に基づいて、各視点画像に対して、その視点画像に対応する視点関連情報を関連付ける。この視点識別情報を参照することにより、関連付け部70は、どの視点関連情報がどの視点画像に対応するかを容易に把握することができる。つまり、関連付け部70は、この視点識別情報を用いることにより、より容易に、各視点画像および視点関連情報を正しく関連付けることができる。
 そして、関連付け部70は、その互いに関連付けた各視点画像および視点関連情報を出力する。例えば、記憶部62が、その互いに関連付けた各視点画像および視点関連情報を記憶媒体63に記憶させてもよい。また、通信部64が、その互いに関連付けた各視点画像および視点関連情報を送信してもよい。さらに、ファイル化部65が、その互いに関連付けた各視点画像および視点関連情報をファイル化してもよい。
 なお、各視点画像と視点関連情報との関連付けは、領域抽出部53において行われるようにしてもよい。つまり、領域抽出部53が、出力する各視点画像に対して領域特定部56から供給された視点関連情報を関連付け、その互いに関連付けた各視点画像および視点関連情報をバス60、RAW信号処理部52、またはカメラ信号処理部54に供給するようにしてもよい。
 また、視点関連情報に、視点画像が抽出される撮像画像が撮像された時刻や順番を示す視点時刻情報が含まれるようにしてもよい。複数の撮像画像から抽出された視点画像が混在する場合や動画像や連写画像である場合、どの視点画像がどの撮像画像から抽出されたものであるかの識別が困難になるおそれがある。撮像画像の生成時刻や順番を示す視点時刻情報を視点画像に関連付けることにより、各視点画像に対応する撮像画像(各視点画像が抽出された撮像画像)の識別をより容易に行うことができる。換言するに、互いに同一の撮像画像から抽出された複数の視点画像をより容易に特定することができる。付言するに、記録されたファイルが一括管理されていない場合においても、同時刻の各視点画像を特定することができる。
 なお、視点画像の場合と同様に個眼画像を撮像画像から切り出し、処理したり記録したりしてもよい。
  <合成画像の出力>
 次に、合成画像を出力する場合について説明する。図6は、各視点画像を合成した合成画像の例を示す図である。図6の例の場合、図5の例において抽出された視点画像1320乃至視点画像1324が1枚の画像内に並んで表示されるように合成されてなる1枚の合成画像133が生成されている。つまり、合成画像133は、各視点画像132が合成されて、1データ化(1フレーム化)、または、1ファイル化されたものである。
 なお、図6においては、合成画像133の視点画像1320乃至視点画像1324の周囲に余白領域が示されているが、合成画像133がこの余白領域を有していてもよいし、有していなくてもよい。また、合成画像133の形状は、矩形であればよく、各視点画像132の配置方法(並べ方)は任意である。図6の例のように、5枚の視点画像132を2行3列に並べる場合に生ずる空白領域(6枚目の視点画像132に相当する領域)は、null dataや固定値で表すようにしてもよい。
 例えば、領域抽出部53は、領域特定部56から供給された視点関連情報に従って撮像画像(全体画像)から視点画像を切り出す。領域抽出部53は、その切り出した各視点画像を1枚の画像内に並んで表示されるように合成して合成画像を生成する。その際、各視点画像の並び順(位置)を予め定めておくことにより、合成画像に含まれる各視点画像がどの視点の画像であるかを容易に把握することができる。
 また、各視点画像に視点識別情報(例えば、識別番号)を割り当ててから合成するようにしてもよい。この場合も同様に、合成画像に含まれる各視点画像がどの視点の画像であるかを容易に把握することができる。以下においては、合成画像における各視点画像の並び順が予め定められているものとする。
 領域抽出部53は、視点識別情報を割り当てた合成画像をカメラ信号処理部54に供給する。カメラ信号処理部54は、そのRAWフォーマットの合成画像にカメラ信号処理を施し、YCフォーマットの合成画像を生成する。カメラ信号処理部54は、そのYCフォーマットの合成画像を関連付け部70に供給する。また、領域特定部56は、領域抽出部53に供給した視点関連情報を関連付け部70に供給する。
 関連付け部70は、合成画像に対して視点関連情報を関連付ける。合成画像に含まれる各視点画像の視点は、合成画像におけるその視点画像の位置により明らかである。つまり、各視点画像が視点関連情報のどの視点領域情報に対応するかは、容易に把握することができる。
 そして、関連付け部70は、その互いに関連付けた合成画像および視点関連情報を出力する。例えば、記憶部62が、その互いに関連付けた合成画像および視点関連情報を記憶媒体63に記憶させてもよい。また、通信部64が、その互いに関連付けた合成画像および視点関連情報を送信してもよい。さらに、ファイル化部65が、その互いに関連付けた画像および視点関連情報をファイル化してもよい。
 なお、合成画像と視点関連情報との関連付けは、領域抽出部53において行われるようにしてもよい。つまり、領域抽出部53が、出力する合成画像に対して領域特定部56から供給された視点関連情報を関連付け、その互いに関連付けた合成画像および視点関連情報をバス60、RAW信号処理部52、またはカメラ信号処理部54に供給するようにしてもよい。
   <撮像モード制御>
 次に制御部81の処理の例について説明する。制御部81は、例えば、撮像モードを指定し、イメージセンサ51を制御して、その指定した撮像モードで撮像を行わせることができる。
 例えば、制御部81は、図示せぬ入力部を介して入力されるユーザ等の指示に基づいて、撮像モードの指定を行う。例えば、制御部81は、予め用意された複数の候補の中から、所望の撮像モードを選択する。この候補には、どのような撮像モードが含まれていてもよい。例えば、静止画像の撮像画像を生成する静止画撮像モードや、動画像の撮像画像を生成する動画像撮像モードが含まれていてもよい。以下においては、説明の便宜上、静止画撮像モードと動画撮像モードの2つの撮像モードが候補として用意されているものとする。
 撮像モードを指定(選択)すると、制御部81は、イメージセンサ51を制御し、その指定した撮像モードで撮像を行わせ、撮像画像を生成させる。つまり、制御部81は、静止画撮像モードで撮像を行うか動画像撮像モードで撮像を行うかを選択し、その選択した撮像モードで撮像を行わせる。
   <視点画像領域の設定>
 また、制御部81は、視点画像領域の設定に関する処理を行うこともできる。例えば、制御部81は、上述のように設定した撮像モード(つまりイメージセンサ51が行う撮像の撮像モード)に対応する視点画像領域を設定することができる。その際、制御部81は、その設定した視点画像領域を定義する視点領域情報を視点関連情報VIに含めて領域特定部56に供給することができる。
 この視点画像領域の設定方法は任意である。例えば、制御部81が、記憶部82を介して、記憶媒体83に記憶されている撮像モード毎の視点領域情報の中から、設定した撮像モードに対応する視点領域情報を選択して読み出す(取得する)ことにより、その撮像モードに対応する視点画像領域を設定するようにしてもよい。
   <視点領域情報>
 記憶媒体83は、撮像モード毎に設定された視点領域情報を記憶することができる。例えば、記憶媒体83は、静止画撮像モードの撮像において用いられる視点領域情報である静止画撮像モード視点領域情報と、動画撮像モードの撮像において用いられる視点領域情報である動画撮像モード視点領域情報を記憶することができる。
 例えば、静止画撮像モード視点領域情報には、静止画撮像モードの視点画像が得られるように各視点画像領域が定義されている。また、動画撮像モード視点領域情報には、動画撮像モードの視点画像が得られるように各視点画像領域が定義されている。視点領域情報の詳細については後述する。
 なお、記憶媒体83は、任意の撮像モードに対応する視点領域情報を記憶することができる。例えば、記憶媒体83には、候補となる撮像モードに対応する視点領域情報が予め記憶されており、記憶部82は、その中から、制御部81により指定された撮像モードに対応する視点領域情報を読み出し、制御部81に供給することができる。
 例えば、カメラ10の撮像モードとして、アスペクト比が互いに異なる複数の動画撮像モードが存在し、記憶媒体83が、それらの動画撮像モードのそれぞれに対応する視点領域情報を記憶するようにしてもよい。また、例えば、カメラ10の撮像モードとして、アスペクト比が互いに異なる複数の静止画撮像モードが存在し、記憶媒体83が、それらの静止画撮像モードのそれぞれに対応する視点領域情報を記憶するようにしてもよい。さらに例えば、カメラ10のお撮像モードとして、カメラ10の姿勢に応じて撮像画像を90度回転させる縦撮りモードが存在し、記憶媒体83が、その縦撮りモードに対応する視点領域情報を記憶するようにしてもよい。
  <撮像モードに応じた視点画像領域の制御>
 ここで、視点画像領域について説明する。各個眼光学系31を通過した被写体からの光は、図7の例のように、イメージセンサ51の有効画素領域150に照射される。図7において、個眼画像領域1510は、個眼光学系310を通過した被写体からの光が照射される領域を示す。この個眼画像領域1510の画像が個眼光学系310に対応する個眼画像である。視点画像領域1310はこの個眼画像領域1510内に設定される。この視点画像領域1310の画像が視点画像1320(図5)である。
 同様に、個眼画像領域1511は、個眼光学系311を通過した被写体からの光が照射される領域を示す。この個眼画像領域1511の画像が個眼光学系311に対応する個眼画像である。視点画像領域1311はこの個眼画像領域1511内に設定される。この視点画像領域1311の画像が視点画像1321(図5)である。
 個眼画像領域1512は、個眼光学系312を通過した被写体からの光が照射される領域を示す。この個眼画像領域1512の画像が個眼光学系312に対応する個眼画像である。視点画像領域1312はこの個眼画像領域1512内に設定される。この視点画像領域1312の画像が視点画像1322(図5)である。
 個眼画像領域1513は、個眼光学系313を通過した被写体からの光が照射される領域を示す。この個眼画像領域1513の画像が個眼光学系313に対応する個眼画像である。視点画像領域1313はこの個眼画像領域1513内に設定される。この視点画像領域1313の画像が視点画像1323(図5)である。
 個眼画像領域1514は、個眼光学系314を通過した被写体からの光が照射される領域を示す。この個眼画像領域1514の画像が個眼光学系314に対応する個眼画像である。視点画像領域1314はこの個眼画像領域1514内に設定される。この視点画像領域1314の画像が視点画像1324(図5)である。
 ところで、多眼光学系ではない単数の光学系を介して被写体を撮像し、撮像画像を生成する従来の撮像装置において、例えば静止画撮像モードと動画撮像モードのように複数の撮像モードに対応するものがあった。そしてそのような撮像装置において、各撮像モードに応じてイメージセンサの有効画素領域(撮像画像のアスペクト比や解像度等)を変えるものがあった。
 例えば、静止画の撮像画像を得る静止画撮像モードの場合、図8のAに示される有効画素領域150Aのように、有効画素領域150を最大化してアスペクト比(横:縦)を3:2として撮像が行われる。つまり、この場合、アスペクト比3:2の最高解像度の撮像画像が生成される。
 これに対して、動画撮像モードの場合、図8のBに示される有効画素領域150Bのように、有効画素領域150Aの一部を切り出し、アスペクト比(横:縦)を16:9として撮像が行われる。
 つまり、このような撮像装置の場合、動画撮像モードと静止画撮像モードとで大きさや形状が互いに異なる撮像画像が生成される。
 なお、一般的に、イメージセンサの画素領域は、撮像画像に用いられ得る有効画素領域(最大有効画素領域とも称する)と、オプティカルブラックの検出等に用いられる非有効画素領域とを有する。有効画素領域150Aおよび有効画素領域150Bは、それぞれの撮像モードにおいて撮像画像として採用される画素領域を示すものであり、上述の最大有効画素領域内において任意の大きさおよびアスペクト比で設定可能な領域である。
 多眼光学系30を用いた撮像においても、これと同様に、撮像モード毎に各視点画像領域(各視点画像)の大きさや形状等を変更可能とすることが望まれていた。
 そこで、光路が互いに独立している複数の個眼光学系のそれぞれを通過した各照射光が互いに異なる位置に照射するイメージセンサにより生成された撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、その撮像画像の撮像モードに応じて設定するようにする。
 例えば、情報処理装置において、光路が互いに独立している複数の個眼光学系のそれぞれを通過した各照射光が互いに異なる位置に照射するイメージセンサにより生成された撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、その撮像画像の撮像モードに応じて設定する設定部を備えるようにする。
 また、例えば、プログラムにおいて、コンピュータを、光路が互いに独立している複数の個眼光学系のそれぞれを通過した各照射光が互いに異なる位置に照射するイメージセンサにより生成された撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、その撮像画像の撮像モードに応じて設定する設定部として機能させるようにする。
 例えば、制御部81が、このような設定部として、視点画像領域を撮像モードに応じて設定するようにする。このようにすることにより、撮像モードに応じた視点画像を得ることができる。
 また、光路が互いに独立している複数の個眼光学系のそれぞれを通過して互いに異なる位置に照射する各照射光を、所定の撮像モードで光電変換して撮像画像を生成し、その生成された撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、その撮像モードに応じて設定するようにする。
 例えば、撮像装置において、光路が互いに独立している複数の個眼光学系のそれぞれを通過して互いに異なる位置に照射する各照射光を、所定の撮像モードで光電変換して撮像画像を生成する撮像部と、その撮像部により生成された撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、その撮像モードに応じて設定する設定部とを備えるようにする。
 また、例えば、プログラムにおいて、コンピュータを、光路が互いに独立している複数の個眼光学系のそれぞれを通過して互いに異なる位置に照射する各照射光を、所定の撮像モードで光電変換して撮像画像を生成する撮像部と、その撮像部により生成された撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、その撮像モードに応じて設定する設定部として機能させるようにする。
 例えば、イメージセンサ51が、このような撮像部として、多眼光学系30を介して所望の撮像モードで被写体を撮像し、制御部81が、このような設定部として、視点画像領域をその撮像モードに応じて設定するようにする。このようにすることにより、所望の撮像モードで被写体を複数視点から撮像し、その撮像モードに応じた視点画像を得ることができる。
 撮像モードに応じて設定する視点画像領域に関するパラメータは、視点画像(または視点画像領域)の大きさや形状に関するものであればよい。例えば、撮像モードに対応して設定されているアスペクト比に基づいて視点画像領域が設定されるようにしてもよい。このようにすることにより、撮像モードに応じたアスペクト比の視点画像を得ることができる。
 また、例えば、撮像モードに対応して設定されている解像度に基づいて視点画像領域が設定されるようにしてもよい。このようにすることにより、撮像モードに応じた解像度の視点画像を得ることができる。
 勿論、撮像モードに応じて設定する視点画像領域に関するパラメータは、上述の例に限定されない。また、このパラメータは、複数であってもよい。例えば、視点画像の領域のアスペクト比と解像度の両方が撮像モードに応じて設定されるようにしてもよい。このようにすることにより、撮像モードに応じたアスペクト比および解像度の視点画像を得ることができる。
  <視点領域情報>
 次に、視点画像領域を示す視点領域情報について説明する。制御部81は、視点領域情報を視点関連情報に含めて領域特定部56に供給することにより、視点画像領域を設定することができる。つまり、制御部81は、適用された撮像モードに対応する視点領域情報を選択することにより、その撮像モードに対応する視点画像領域を設定することができる。
 この視点領域情報には、視点画像内の所定の位置の座標が示されていればよい。例えば視点画像領域(つまり視点画像)の大きさや形状がシステムにおいて予め定められている(システムが把握している)とする。この場合、視点画像の所定の位置(例えば、視点画像の右上端、左下端、または中央(重心)等)の、撮像画像(イメージセンサ51の有効画素領域)における座標を指定することにより、視点画像領域の範囲を指定することができる。
 撮像モード毎に視点画像領域の大きさや形状が異なる場合、各視点画像の所定の位置の座標も撮像モード毎に変化し得る。したがって、例えば各撮像モードに対応する視点画像領域の大きさや形状がシステム上既知である場合、各撮像モードの視点領域情報には、その撮像モードに対応する大きさおよび形状の各視点画像の所定の位置の座標が示されていればよい。例えば、静止画撮像モード視点領域情報には、各視点画像の所定の位置の静止画撮像モードで適用される座標が示されていればよい。同様に、動画撮像モード視点領域情報には、各視点画像の所定の位置の動画撮像モードで適用される座標が示されていればよい。
 この場合、制御部81は、適用された撮像モードに対応する視点領域情報を選択することにより、その撮像モードに対応した各視点画像の所定の位置の座標を指定することができる。上述のように各視点画像の大きさや形状が既知であるので、制御部81は、その撮像モードに対応した視点画像領域を設定することができる。
 勿論、視点領域情報により視点画像の大きさや形状も定義されるようにしてもよい。つまり、この場合、各撮像モードの視点領域情報には、各視点画像の所定の位置の座標だけでなく、各視点画像の大きさや形状も指定されている。つまり、制御部81は、撮像モードに対応する視点領域情報を選択することにより、その撮像モードに対応した各視点画像の所定の位置の座標だけでなく、各視点画像の大きさや形状も指定することができる。したがって、この場合、視点画像領域の大きさや形状がシステム上未知であっても、制御部81は、撮像モードに対応する視点領域情報を選択することにより、その撮像モードに対応した視点画像領域を設定することができる。
 視点画像(視点画像領域)の形状は、例えば、視点画像(視点画像領域)の「アスペクト比(横:縦)」により表すようにしてもよい。例えば、静止画撮像モードの視点画像のアスペクト比を3:2とし、動画撮像モードの視点画像のアスペクト比を16:9としてもよい。勿論、各撮像モードのアスペクト比は任意であり、この例に限定されない。例えば、4:3、1.85:1、2.35:1、16:10等であってもよいし、これら以外であってもよい。つまり、視点領域情報において、各視点画像のアスペクト比が示されるようにしてもよい。
 また、視点画像(視点画像領域)の大きさは、例えば、視点画像(視点画像領域)の「解像度」により表すようにしてもよい。画素領域において画素間隔は固定値であるので、ここで「解像度」とは、画像(領域)の大きさを表す情報である。具体的にはどのような情報であってもよい。例えば、矩形である視点画像(視点画像領域)の対角線の長さ(画素数)や、一辺(縦または横)の長さ(画素数)であってもよい。また、この値は絶対値であってもよいし、所定の基準に対する相対値であってもよい。
 なお、例えばインターレース方式のように領域内の一部の画素を間引くことができるようにしてもよい。その場合、そのような間引きに関する情報(例えば、画素を間引くか否かを示す情報や、どの画素を間引くかを示す情報等)がこの「解像度」に含まれていてもよい。
  <撮像モード毎の視点画像領域の具体例>
   <有効画素領域外を含む場合>
 次に、上述のような撮像モード毎の視点画像領域の具体例について説明する。なお、ここでは、イメージセンサ51が、静止画撮像モードまたは動画撮像モードに対応する(それらの撮像モードで撮像を行うことができる)ものとする。また、イメージセンサ51の有効画素領域が各撮像モードにおいて図8の例のように設定されるものとする。より具体的には、静止画撮像モードの場合、アスペクト比3:2の最大の有効画素領域150Aが設定されるものとする(図8のA)。また、動画撮像モードの場合、アスペクト比(横:縦)を16:9の、有効画素領域150Aよりも狭い(有効画素領域150Aの上側および下側の部分領域が無効画素領域とされた)有効画素領域150Bが設定されるものとする(図8のB)。
 勿論、撮像モードは任意であり、静止画撮像モードおよび動画撮像モード以外であってもよい。また、有効画素領域の大きさおよび形状は任意であり、上述の例に限定されない。例えば、各撮像モードで有効画素領域の大きさおよび形状が互いに同一であってもよい。
 視点画像領域が有効画素領域外も含み得る場合の、各撮像モードの視点画像領域の例を図9に示す。図9のAは、その場合の静止画撮像モードの視点画像領域等の例を示す図である。例えば、制御部81が、静止画撮像モード視点領域情報を選択すると図9のAのような視点画像領域が設定される。
 図9のAに示されるように、有効画素領域150Aには個眼画像領域1510乃至個眼画像領域1514が形成されている。そして、その個眼画像領域151のそれぞれに、静止画撮像モードにおいて適用される大きさおよび形状の視点画像領域131A(視点画像領域131A0乃至視点画像領域131A4)が設定されている。この視点画像領域131Aのアスペクト比は例えば3:2である。各視点画像領域131Aの位置は、それぞれの中央(図中×印で示されるような対角線の交点)の座標により指定されている。
 図9のBは、動画撮像モードの視点画像領域等の例を示す図である。例えば、制御部81が、動画撮像モード視点領域情報を選択すると図9のBのような視点画像領域が設定される。
 撮像モードに関わらず各個眼光学系31の光軸の位置は固定であるので、各個眼光学系31を通過した被写体からの光は、撮像モードによらず、イメージセンサ51の受光面の同一の位置に照射される。したがって、図9のBに示されるように、有効画素領域150Bには、図9のAの場合と同一の位置に個眼画像領域1510乃至個眼画像領域1514が形成され、そのそれぞれに、動画撮像モードにおいて適用される大きさおよび形状の視点画像領域131B(視点画像領域131B0乃至視点画像領域131B4)が設定されている。各視点画像領域131Bの位置は、視点画像領域131Aと同じ位置に指定されている。
 ここで、例えば図9のBに示されるように、視点画像領域131B1の上側の一部が有効画素領域150B外となり、欠損領域1611となるとする。同様に、視点画像領域131B2の上側の一部も有効画素領域150B外となり、欠損領域1612となるとする。また、視点画像領域131B3の下側の一部が有効画素領域150B外となり、欠損領域1613となるとする。同様に、視点画像領域131B4の下側の一部も有効画素領域150B外となり、欠損領域1614となるとする。
 この場合、これらの欠損領域1610乃至欠損領域1614は、各視点画像を用いた奥行情報生成のためのマッチングである多眼マッチング等に利用することができない。つまり、各視点画像領域131の共通の領域(全ての視点画像領域131に存在する領域)が、多眼マッチング等に利用可能な実解像度領域となる。
 例えば、図9のBにおいて、実解像度領域1630は、視点画像領域131B0から、部分領域1620-1および部分領域1620-2を除いた領域である。部分領域1620-1は、欠損領域1611や欠損領域1612と同じ位置および大きさの領域である。部分領域1620-2は、欠損領域1613や欠損領域1614と同じ位置および大きさの領域である。
 また、実解像度領域1631は、視点画像領域131B1から、欠損領域1611および部分領域1621を除いた領域である。部分領域1621は、欠損領域1613や欠損領域1614と同じ位置および大きさの領域である。
 さらに、実解像度領域1632は、視点画像領域131B2から、欠損領域1612および部分領域1622を除いた領域である。部分領域1622は、欠損領域1613や欠損領域1614と同じ位置および大きさの領域である。
 また、実解像度領域1633は、視点画像領域131B3から、部分領域1623および欠損領域1613を除いた領域である。部分領域1623は、欠損領域1611や欠損領域1612と同じ位置および大きさの領域である。
 さらに、実解像度領域1634は、視点画像領域131B4から、部分領域1624および欠損領域1614を除いた領域である。部分領域1624は、欠損領域1611や欠損領域1612と同じ位置および大きさの領域である。
 そのため、このような場合、視点画像領域131Bの大きさおよび形状は、実解像度領域において所望の大きさおよび形状の画像が得られるように設定される。例えば、多眼マッチング等に利用可能な視点画像としてアスペクト比16:9の所望の解像度の画像が求められる場合、実解像度領域においてその画像が得られるように、視点画像領域131Bのアスペクト比や解像度を設計すればよい。換言するに、そのようなアスペクト比や解像度の視点画像領域131Bを示す動画撮像モード視点領域情報を生成すればよい。つまり、そのような動画撮像モード視点領域情報を記憶媒体83に記憶させ、動画撮像モードにおいて、制御部81がその動画撮像モード視点領域情報を選択するようにすればよい。
 このようにすることにより、撮像モードに応じた視点画像を得ることができる。
   <撮像処理の流れ>
 被写体の撮像が指示されると、カメラ10は、撮像処理を実行し、撮像モードに応じた撮像を開始する。この場合の撮像処理の流れの例を、図10のフローチャートを参照して説明する。
 撮像処理が開始されると、制御部81は、ステップS101において、撮像モードが静止画撮像モードであるか否かを判定する。静止画撮像モードであると判定された場合、処理はステップS102に進む。
 ステップS102において、制御部81は、静止画撮像モードに対応する視点画像領域を設定する。例えば、制御部81は、記憶部82を介して記憶媒体83に記憶されている静止画撮像モード視点領域情報を選択して読み出し、それを視点関連情報に含めて領域特定部56に供給する。
 この静止画撮像モード視点領域情報は、例えば図9のAに示されるような、静止画撮像モードにおいて適用される大きさおよび形状の視点画像領域131Aを示す。つまり、制御部81がこの静止画撮像モード視点領域情報を選択することにより、静止画撮像モードに対応する視点画像領域が設定される。
 ステップS103において、イメージセンサ51は、制御部81の制御に従って、静止画撮像モードで被写体を撮像し、静止画像の撮像画像を生成する。
 ステップS104において、領域特定部56は、ステップS102において選択された静止画撮像モード視点領域情報を用いて、ステップS103において生成された撮像画像に対して領域特定処理を行う。
 例えば、領域特定部56は、この領域特定処理として、ステップS102において供給された静止画撮像モード視点領域情報(を含む視点関連情報)を関連付け部70に供給し、ステップS103において生成された撮像画像(または全体画像)と関連付けさせる。また、例えば、領域特定部56は、この領域特定処理として、ステップS102において供給された静止画撮像モード視点領域情報(を含む視点関連情報)を領域抽出部53に供給し、ステップS103において生成された撮像画像から視点画像を切り出させる(抽出させる)。
 ステップS105において、各処理部が画像等に対して信号処理を行う。例えば、RAW信号処理部52は、RAWフォーマットの撮像画像または全体画像に対して所定の信号処理を施す。また、領域抽出部53は、領域特定部56から供給される視点関連情報に基づいて、RAWフォーマットの撮像画像から一部の領域を抽出する(部分画像を切り出す)。例えば、領域抽出部53は、撮像画像から全体画像や複数の視点画像を抽出したり、その複数の視点画像を用いて合成画像を生成したりする。そして、領域抽出部53は、切り出した画像(全体画像、視点画像、合成画像等)を出力する(RAW信号処理部52やカメラ信号処理部54に供給する)。なお、領域抽出部53は、部分画像の抽出を行わずに撮像画像を出力することもできる。
 さらに、カメラ信号処理部54は、領域抽出部53から供給された画像(撮像画像、視点画像、または合成画像等)に対して、所定のカメラ信号処理を施す。また、関連付け部70は、供給された画像(撮像画像、視点画像、または合成画像)に対して、領域特定部56から供給される視点関連情報を関連付ける。なお、これらの信号処理は省略(スキップ)することもできる。
 ステップS106において、画像再構成処理部57は、画像(撮像画像、視点画像、または合成画像)に対して、画像再構成処理を行う。この画像再構成処理の内容は任意である。例えば、奥行情報の生成や、任意の被写体にフォーカスを合わせた画像を生成(再構成)するリフォーカス等であってもよい。なお、この画像再構成処理は省略(スキップ)することもできる。
 ステップS107において、関連付け部70は、画像(撮像画像、視点画像、または合成画像)を出力する。例えば、記憶部62は、画像(撮像画像、視点画像、または合成画像)を、記憶媒体63に記憶させる。なお、ステップS105の処理により、この画像に視点関連情報が関連付けられていてもよい。
 また、例えば、通信部64は、画像(撮像画像、視点画像、または合成画像)を、他のデバイス宛てに送信する。例えば、通信部64は、画像等のデータをストリーミング方式やダウンロード方式等で送信することができる。なお、ステップS105の処理により、この画像に視点関連情報が関連付けられていてもよい。
 さらに、例えば、ファイル化部65は、ステップS105の処理によりファイル化された画像(撮像画像、視点画像、または合成画像)を出力する。例えば、ファイル化部65は、この画像(撮像画像、視点画像、または合成画像)を含むファイルを、記憶部62に供給して記憶媒体63に記憶させてもよいし、通信部64に供給して他のデバイス宛てに送信させてもよい。なお、ステップS105の処理により、この画像に視点関連情報が関連付けられていてもよい。つまり、ファイル化部65が出力するファイルに、画像(撮像画像、視点画像、または合成画像)とともに、ステップS102において設定された静止画撮像モード視点領域情報(を含む視点関連情報)が格納されていてもよい。
 ステップS107の処理が終了すると、撮像処理が終了する。
 また、ステップS101において、静止画撮像モードでない(動画撮像モードである)と判定された場合、処理はステップS111に進む。
 ステップS111において、制御部81は、欠損領域を考慮した動画撮像モードに対応する視点画像領域を設定する。つまり、制御部81は、図9のBを参照して説明したように、実解像度領域において所望の大きさおよび形状の画像が得られるように、視点画像領域を設定する。例えば、制御部81は、記憶部82を介して記憶媒体83に記憶されている動画撮像モード視点領域情報を選択して読み出し、それを領域特定部56に供給する。
 この動画撮像モード視点領域情報は、例えば図9のBに示されるような、実解像度領域において所望の大きさおよび形状の画像が得られるように設定された視点画像領域131Bを示す。つまり、制御部81がこの動画撮像モード視点領域情報を選択することにより、欠損領域を考慮した動画撮像モードに対応する視点画像領域が設定される。
 ステップS112において、イメージセンサ51は、制御部81の制御に従って、動画撮像モードで被写体を撮像し、動画像の1フレームとして撮像画像を生成する。
 ステップS113において、領域特定部56は、ステップS111において選択された動画撮像モード視点領域情報を用いて、ステップS112において生成された撮像画像に対して領域特定処理を行う。この処理は、ステップS104の処理と同様に実行される。
 ステップS114において、各処理部が画像等に対して信号処理を行う。この処理は、ステップS105の処理と同様に実行される。
 ステップS115において、画像再構成処理部57は、画像(撮像画像、視点画像、または合成画像)に対して、画像再構成処理を行う。この処理は、ステップS106の処理と同様に実行される。
 ステップS116において、関連付け部70は、画像(撮像画像、視点画像、または合成画像)を出力する。この処理は、ステップS107の処理と同様に実行される。
 ステップS117において、制御部81は、例えばユーザ等の指示に基づいて、撮像を終了するか否かを判定する。撮像を終了しないと判定された場合、処理はステップS112に戻り、それ以降の処理を繰り返す。ステップS112乃至ステップS117の処理を実行することにより、動画像の1フレーム分の処理が行われる。そして、ステップS117において撮像を終了すると判定されるまで、ステップS112乃至ステップS117の各処理が繰り返し実行され、動画像の各フレームが生成される。
 ステップS117において、撮像を終了すると判定された場合、撮像処理が終了する。
 このように撮像処理を実行することにより、撮像モードに応じた視点画像を得ることができる。
   <有効画素領域外を含まない場合>
 視点画像領域が有効画素領域外を含み得ない場合の、各撮像モードの視点画像領域の例を図11に示す。<有効画素領域外を含む場合>と同様に、イメージセンサ51が、静止画撮像モードまたは動画撮像モードに対応するものとする。また、イメージセンサ51の有効画素領域が各撮像モードにおいて図8の例のように設定されるものとする。
 勿論、撮像モードは任意であり、静止画撮像モードおよび動画撮像モード以外であってもよい。また、有効画素領域の大きさおよび形状は任意であり、上述の例に限定されない。
 図11のAは、この場合の静止画撮像モードの視点画像領域等の例を示す図である。例えば、制御部81が、静止画撮像モード視点領域情報を選択すると図11のAのような視点画像領域131Aが設定される。
 図11のAに示されるように、この場合も、有効画素領域150Aには各個眼画像領域151が図9のAの場合と同様に形成され、各視点画像領域131Aが図9のAの場合と同様に設定されている。
 図11のBは、動画撮像モードの視点画像領域等の例を示す図である。例えば、制御部81が、動画撮像モード視点領域情報を選択すると図11のBのような視点画像領域が設定される。
 撮像モードに関わらず各個眼光学系31の光軸の位置は固定であるので、各個眼光学系31を通過した被写体からの光は、撮像モードによらず、イメージセンサ51の受光面の同一の位置に照射される。したがって、図11のBに示されるように、有効画素領域150Bには、図11のAの場合と同一の位置に個眼画像領域1510乃至個眼画像領域1514が形成され、そのそれぞれに、動画撮像モードにおいて適用される大きさおよび形状の視点画像領域131B(視点画像領域131B0乃至視点画像領域131B4)が設定されている。各視点画像領域131Bの位置は、視点画像領域131Aと同じ位置に指定されている。
 図11のBの例の場合、各視点画像領域131Bは、全て有効画素領域150Bに内包されるように設定されている。したがってこの場合の視点画像領域には欠損領域が存在しない。したがって、視点画像領域131Bの大きさおよび形状は、視点画像領域において所望の大きさおよび形状の画像が得られるように設定される。つまり、動画撮像モードにおいて適用される大きさおよび形状の視点画像領域131Bが設定される。
 例えば、静止画撮像モード視点領域情報においては、アスペクト比が3:2の所望の解像度の視点画像領域131Aが示され、動画撮像モード視点領域情報においては、アスペクト比が16:9の、視点画像領域131Aよりも低解像度の視点画像領域131Bが示される。
 このようにすることにより、撮像モードに応じた視点画像を得ることができる。
   <撮像処理の流れ>
 この場合の撮像処理の流れの例を、図12のフローチャートを参照して説明する。
 この場合の撮像処理において、ステップS201乃至ステップS207の各処理は、図10のステップS101乃至ステップS107の各処理と同様に実行される。
 また、ステップS201において、静止画撮像モードでない(動画撮像モードである)と判定された場合、処理はステップS211に進む。
 ステップS211において、制御部81は、動画撮像モードに対応する視点画像領域を設定する。つまり、図11のBを参照して説明したように、視点画像領域全体において所望の大きさおよび形状の画像が得られるように、視点画像領域を設定する。例えば、制御部81は、記憶部82を介して記憶媒体83に記憶されている動画撮像モード視点領域情報を選択して読み出し、それを領域特定部56に供給する。
 この動画撮像モード視点領域情報は、例えば図11のBに示されるような、視点画像領域全体において所望の大きさおよび形状の画像が得られるように設定された視点画像領域131Bを示す。つまり、制御部81がこの動画撮像モード視点領域情報を選択することにより、動画撮像モードに対応する視点画像領域が設定される。
 ステップS212乃至ステップS217の各処理は、図10のステップS112乃至ステップS117の各処理と同様に実行される。そして、ステップS217において、撮像を終了すると判定された場合、撮像処理が終了する。
 このように撮像処理を実行することにより、撮像モードに応じた視点画像を得ることができる。したがって、多眼光学系30を用いた撮像において、より正確な奥行推定が可能になる。その奥行推定により導出した奥行情報を用いたアプリケーションは、レンズエミュレーションやCG(Computer Graphics)や撮像画像同士の奥行を用いた合成など映像制作分野への応用も可能となる。
  <その他の構成例>
 なお制御部81は、独立した装置としてもよい。また、制御部81、記憶部82、および記憶媒体83を独立した装置としてもよい。また、それらの独立した装置が、RAW信号処理部52、領域抽出部53、カメラ信号処理部54、スルー画像生成部55、領域特定部56、画像再構成処理部57、関連付け部70、または、それらの内の2つ以上を有するようにしてもよい。つまり、本技術は、撮像機能を有しない情報処理装置(または画像処理装置)にも適用することができる。
 <2.第2の実施の形態>
  <カメラシステム>
 第1の実施の形態においては、多眼光学系30を備えるカメラ10を例に本技術を説明したが、本技術はその他の構成にも適用することができる。例えば、多眼光学系30を含む光学系を交換可能としてもよい。つまり、多眼光学系30は、カメラ10から着脱可能に構成されるようにしてもよい。
   <カメラシステムの外観>
 図13は、本技術を適用したカメラシステムの一実施の形態の構成例を示す斜視図である。図13に示されるカメラシステム301は、カメラ本体310と多眼交換レンズ320(レンズ部)とで構成される。多眼交換レンズ320がカメラ本体310に装着された状態においてカメラシステム301は、カメラ10と同様の構成となり、基本的に同様の処理を行う。つまり、カメラシステム301は、カメラ10と同様の、被写体を撮像して撮像画像の画像データを生成する撮像装置として機能する。
 カメラ本体310は、多眼交換レンズ320が着脱可能なようになっている。すなわち、カメラ本体310は、カメラマウント311を有し、そのカメラマウント311に対して、多眼交換レンズ320(のレンズマウント322)が取り付けられることで、カメラ本体310に、多眼交換レンズ320が装着される。なお、カメラ本体310に対しては、多眼交換レンズ320以外の一般的な交換レンズも着脱することができるようにされていてもよい。
 カメラ本体310は、イメージセンサ51を内蔵する。イメージセンサ51は、カメラ本体310(のカメラマウント311)に装着された多眼交換レンズ320その他の交換レンズによって集光される光線を受光して光電変換を行うことにより被写体を撮像する。
 多眼交換レンズ320は、鏡筒321およびレンズマウント322を有する。また、多眼交換レンズ320は、複数としての5個の個眼光学系310,311,312,313、および、314を有する。
 カメラ10の場合と同様に、この場合の複数の個眼光学系31は、それぞれを通過する光の光路が互いに独立するように構成される。つまり、各個眼光学系31を通過した光は、他の個眼光学系31に入射せずにイメージセンサ51の受光面(例えば有効画素領域)の互いに異なる位置に照射する。少なくとも、各個眼光学系31の光軸は、イメージセンサ51の受光面の互いに異なる場所に位置しており、各個眼光学系31を通過した光の少なくとも一部が、イメージセンサ51の受光面の互いに異なる位置に照射する。
 したがって、カメラ10の場合と同様に、イメージセンサ51により生成される撮像画像(イメージセンサ51の出力する画像全体)には、各個眼光学系31を介して結像された被写体の画像が互いに異なる位置に形成される。換言するに、その撮像画像から、各個眼光学系31を視点とする撮像画像(視点画像とも称する)が得られる。つまり、多眼交換レンズ320をカメラ本体310に装着して被写体を撮像することにより、複数の視点画像を得ることができる。
 鏡筒321は、略円筒状をしており、その円筒状の1つの底面側に、レンズマウント322が形成されている。レンズマウント322は、多眼交換レンズ320がカメラ本体310に装着されるときに、カメラ本体310のカメラマウント311に取り付けられる。
 5個の個眼光学系31は、鏡筒光軸に直交する(イメージセンサ51の受光面(撮像面)に平行な)2次元平面上において、個眼光学系310を中心(重心)として、他の4個の個眼光学系311乃至個眼光学系314が、長方形の頂点を構成するように配置される形で、多眼交換レンズ320に設けられている。もちろん、図21に示される配置は一例であり、各個眼光学系31の位置関係は、光路が互いに独立している限り任意である。
  <カメラシステムの電気的構成例>
 図14は、図21のカメラシステム301の電気的構成例を示すブロック図である。
   <カメラ本体>
 カメラシステム301において、カメラ本体310は、イメージセンサ51、RAW信号処理部52、領域抽出部53、カメラ信号処理部54、スルー画像生成部55、領域特定部56、画像再構成処理部57、バス60、表示部61、記憶部62、通信部64、ファイル化部65、制御部81、および記憶部82を有する。つまり、カメラ本体310は、カメラ10の鏡筒20の部分に設けられる多眼光学系30および光学系制御部84以外の構成を有する。
 なお、カメラ本体310は、上述の構成に加え、通信部341を有する。この通信部341は、カメラ本体310に正しく装着された状態の多眼交換レンズ320(の通信部351)と通信を行い、情報の授受等を行う処理部である。通信部341は、任意の通信方式で多眼交換レンズ320と通信を行うことができる。その通信は、有線通信であってもよいし、無線通信であってもよい。
 例えば、通信部341は、制御部81により制御され、その通信を行い、多眼交換レンズ320から供給される情報を取得する。また、例えば、通信部341は、その通信により、制御部81から供給される情報を多眼交換レンズ320に供給する。この多眼交換レンズ320と授受する情報は任意である。例えば、データであってもよいし、コマンドや制御パラメータ等の制御情報であってもよい。
   <多眼交換レンズ>
 カメラシステム301において、多眼交換レンズ320は、多眼光学系30および光学系制御部84の他に、通信部351および記憶部352を有する。通信部351は、カメラ本体310に正しく装着された状態の多眼交換レンズ320において、通信部341と通信を行う。この通信により、カメラ本体310と多眼交換レンズ320との間の情報の授受を実現する。通信部351の通信方式は、任意であり、有線通信であってもよいし、無線通信であってもよい。また、この通信により授受される情報は、データであってもよいし、コマンドや制御パラメータ等の制御情報であってもよい。
 例えば、通信部351は、通信部341を介してカメラ本体310から送信される制御情報を取得する。通信部351は、このように取得した情報を、必要に応じて、光学系制御部84に供給し、多眼光学系30の制御に利用させることができる。
 また、通信部351は、その取得した情報を記憶部352に供給し、記憶媒体353に記憶させることができる。また、通信部351は、記憶媒体353に記憶されている情報を、記憶部352を介して読み出し、それをカメラ本体310(通信部341)に送信することができる。
 なお、記憶媒体353は、ROMであってもよいし、RAMやフラッシュメモリ等のような書き換え可能なメモリであってもよい。書き換え可能なメモリの場合、記憶媒体353は、任意の情報を記憶することができる。
 このような構成の場合であっても、第1の実施の形態において説明したカメラ10の場合と同様に、制御部81が、視点画像領域を撮像モードに応じて設定するようにする。このようにすることにより、撮像モードに応じた視点画像を得ることができる。つまり、カメラシステム301においても、本技術を適用することにより、第1の実施の形態において説明したカメラ10の場合と同様の各種効果を得ることができる。
 なお、視点領域情報は、任意の記憶媒体に記憶させることができる。例えば、図14のカメラシステム301の場合、多眼交換レンズ320の記憶媒体353に記憶されるようにしてもよい。
 <3.付記>
  <コンピュータ>
 上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
 図15は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 図15に示されるコンピュータ900において、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903は、バス904を介して相互に接続されている。
 バス904にはまた、入出力インタフェース910も接続されている。入出力インタフェース910には、入力部911、出力部912、記憶部913、通信部914、およびドライブ915が接続されている。
 入力部911は、例えば、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部912は、例えば、ディスプレイ、スピーカ、出力端子などよりなる。記憶部913は、例えば、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部914は、例えば、ネットワークインタフェースよりなる。ドライブ915は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体921を駆動する。
 以上のように構成されるコンピュータでは、CPU901が、例えば、記憶部913に記憶されているプログラムを、入出力インタフェース910およびバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。RAM903にはまた、CPU901が各種の処理を実行する上において必要なデータなども適宜記憶される。
 コンピュータが実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体921に記録して適用することができる。その場合、プログラムは、リムーバブル記録媒体921をドライブ915に装着することにより、入出力インタフェース910を介して、記憶部913にインストールすることができる。
 また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、プログラムは、通信部914で受信し、記憶部913にインストールすることができる。
 その他、このプログラムは、ROM902や記憶部913に、あらかじめインストールしておくこともできる。
  <本技術の適用対象>
 本技術は、任意の構成に適用することができる。例えば、本技術は、システムLSI(Large Scale Integration)等としてのプロセッサ、複数のプロセッサ等を用いるモジュール、複数のモジュール等を用いるユニット、または、ユニットにさらにその他の機能を付加したセット等、装置の一部の構成として実施することもできる。
 また、例えば、本技術は、複数の装置により構成されるネットワークシステムにも適用することもできる。例えば、本技術を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングとして実施するようにしてもよい。例えば、コンピュータ、携帯型情報処理端末、IoT(Internet of Things)デバイス等の任意の端末に対してサービスを提供するクラウドサービスにおいて本技術を実施するようにしてもよい。
 なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
  <本技術を適用可能な分野・用途>
 本技術を適用したシステム、装置、処理部等は、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野に利用することができる。また、その用途も任意である。
  <その他>
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
 また、例えば、上述したプログラムは、任意の装置において実行されるようにしてもよい。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
 また、例えば、1つのフローチャートの各ステップを、1つの装置が実行するようにしてもよいし、複数の装置が分担して実行するようにしてもよい。さらに、1つのステップに複数の処理が含まれる場合、その複数の処理を、1つの装置が実行するようにしてもよいし、複数の装置が分担して実行するようにしてもよい。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。
 また、例えば、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
 また、例えば、本技術に関する複数の技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
 なお、本技術は以下のような構成も取ることができる。
 (1) 光路が互いに独立している複数の個眼光学系のそれぞれを通過した各照射光が互いに異なる位置に照射するイメージセンサにより生成された撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、前記撮像画像の撮像モードに応じて設定する設定部
 を備える情報処理装置。
 (2) 前記設定部は、前記撮像モードに対応して設定されているアスペクト比に基づいて前記視点画像領域を設定する
 (1)に記載の情報処理装置。
 (3) 前記設定部は、前記撮像モードに対応して設定されている解像度に基づいて前記視点画像領域を設定する
 (1)または(2)に記載の情報処理装置。
 (4) 前記設定部は、前記視点画像の候補である視点画像候補領域に有効画素領域外となる欠損領域が含まれる場合、前記視点画像候補領域の前記欠損領域以外の部分である実解像度領域において所望のサイズおよびアスペクト比の画像が得られるように、前記視点画像領域を設定する
 (1)乃至(3)のいずれかに記載の情報処理装置。
 (5) 前記設定部は、前記視点画像内の所定の位置の座標を指定することにより、前記視点画像領域を設定する
 (1)乃至(4)のいずれかに記載の情報処理装置。
 (6) 前記設定部は、さらに、前記視点画像の大きさと形状とを指定することにより、前記視点画像領域を設定する
 (5)のいずれかに記載の情報処理装置。
 (7) 前記設定部は、前記視点画像領域を示す情報である視点領域情報を前記撮像モードに応じて選択することにより、前記視点画像領域を設定する
 (1)乃至(6)のいずれかに記載の情報処理装置。
 (8) 撮像モード毎の前記視点領域情報を記憶する記憶部をさらに備え、
 前記設定部は、前記撮像モードに対応する前記視点領域情報を、前記記憶部に記憶されている撮像モード毎の前記視点領域情報の中から選択する
 (7)に記載の情報処理装置。
 (9) 前記設定部が設定した前記視点画像領域を示す情報である視点領域情報を、前記撮像画像、または、前記撮像画像を用いて生成された画像に関連付ける関連付け部をさらに備える
 (1)乃至(8)のいずれかに記載の情報処理装置。
 (10) 前記設定部が設定した前記視点画像領域の画像を前記撮像画像から切り出す切り出し部をさらに備える
 (1)乃至(9)のいずれかに記載の情報処理装置。
 (11) 光路が互いに独立している複数の個眼光学系のそれぞれを通過した各照射光が互いに異なる位置に照射するイメージセンサにより生成された撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、前記撮像画像の撮像モードに応じて設定する
 情報処理方法。
 (12) コンピュータを、
 光路が互いに独立している複数の個眼光学系のそれぞれを通過した各照射光が互いに異なる位置に照射するイメージセンサにより生成された撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、前記撮像画像の撮像モードに応じて設定する設定部
 として機能させるプログラム。
 (13) 光路が互いに独立している複数の個眼光学系のそれぞれを通過して互いに異なる位置に照射する各照射光を、所定の撮像モードで光電変換して撮像画像を生成する撮像部と、
 前記撮像部により生成された前記撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、前記撮像モードに応じて設定する設定部と
 を備える撮像装置。
 (14) 前記設定部は、前記視点画像領域を示す情報である視点領域情報を前記撮像モードに応じて選択することにより、前記視点画像領域を設定する
 (13)に記載の撮像装置。
 (15) 複数の前記個眼光学系と、撮像モード毎の前記視点領域情報を記憶する記憶部とを備える多眼交換光学系と通信を行う通信部をさらに備え、
 前記設定部は、前記通信部を介して、前記多眼交換光学系の前記記憶部に記憶されている撮像モード毎の前記視点領域情報を取得し、取得した前記視点領域情報の中から、前記撮像モードに対応する前記視点領域情報を選択する
 (14)に記載の撮像装置。
 (16) 撮像モード毎の前記視点領域情報を記憶する記憶部をさらに備え、
 前記設定部は、前記撮像モードに対応する前記視点領域情報を、前記記憶部に記憶されている撮像モード毎の前記視点領域情報の中から選択する
 (14)に記載の撮像装置。
 (17) 複数の前記個眼光学系をさらに備える
 (13)乃至(16)のいずれかに記載の撮像装置。
 (18) 光路が互いに独立している複数の個眼光学系のそれぞれを通過して互いに異なる位置に照射する各照射光を、所定の撮像モードで光電変換して撮像画像を生成し、
 生成された前記撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、前記撮像モードに応じて設定する
 撮像方法。
 (19) コンピュータを、
 光路が互いに独立している複数の個眼光学系のそれぞれを通過して互いに異なる位置に照射する各照射光を、所定の撮像モードで光電変換して撮像画像を生成する撮像部と、
 前記撮像部により生成された前記撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、前記撮像モードに応じて設定する設定部と
 として機能させるプログラム。
 (20) 光路が互いに独立している複数の個眼光学系と、
 各個眼光学系に対応する各視点画像の領域である視点画像領域を示す撮像モード毎の情報である視点領域情報を記憶する記憶部と
 を備える交換レンズ。
 10 カメラ, 30 多眼光学系, 31 個眼光学系, 51 イメージセンサ, 52 RAW信号処理部, 53 領域抽出部, 54 カメラ信号処理部, 55 スルー画像生成部, 56 領域特定部, 57 画像再構成処理部, 60 バス, 61 表示部, 62 記憶部, 63 記憶媒体, 64 通信部, 65 ファイル化部, 70 関連付け部, 81 制御部, 82 記憶部, 83 記憶媒体, 84 光学系制御部, 301 カメラシステム, 310 カメラ本体, 320 多眼交換レンズ, 341 通信部, 351 通信部, 352 記憶部, 353 記憶媒体

Claims (20)

  1.  光路が互いに独立している複数の個眼光学系のそれぞれを通過した各照射光が互いに異なる位置に照射するイメージセンサにより生成された撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、前記撮像画像の撮像モードに応じて設定する設定部
     を備える情報処理装置。
  2.  前記設定部は、前記撮像モードに対応して設定されているアスペクト比に基づいて前記視点画像領域を設定する
     請求項1に記載の情報処理装置。
  3.  前記設定部は、前記撮像モードに対応して設定されている解像度に基づいて前記視点画像領域を設定する
     請求項1に記載の情報処理装置。
  4.  前記設定部は、前記視点画像の候補である視点画像候補領域に有効画素領域外となる欠損領域が含まれる場合、前記視点画像候補領域の前記欠損領域以外の部分である実解像度領域において所望のサイズおよびアスペクト比の画像が得られるように、前記視点画像領域を設定する
     請求項1に記載の情報処理装置。
  5.  前記設定部は、前記視点画像内の所定の位置の座標を指定することにより、前記視点画像領域を設定する
     請求項1に記載の情報処理装置。
  6.  前記設定部は、さらに、前記視点画像の大きさと形状とを指定することにより、前記視点画像領域を設定する
     請求項5に記載の情報処理装置。
  7.  前記設定部は、前記視点画像領域を示す情報である視点領域情報を前記撮像モードに応じて選択することにより、前記視点画像領域を設定する
     請求項1に記載の情報処理装置。
  8.  撮像モード毎の前記視点領域情報を記憶する記憶部をさらに備え、
     前記設定部は、前記撮像モードに対応する前記視点領域情報を、前記記憶部に記憶されている撮像モード毎の前記視点領域情報の中から選択する
     請求項7に記載の情報処理装置。
  9.  前記設定部が設定した前記視点画像領域を示す情報である視点領域情報を、前記撮像画像、または、前記撮像画像を用いて生成された画像に関連付ける関連付け部をさらに備える
     請求項1に記載の情報処理装置。
  10.  前記設定部が設定した前記視点画像領域の画像を前記撮像画像から切り出す切り出し部をさらに備える
     請求項1に記載の情報処理装置。
  11.  光路が互いに独立している複数の個眼光学系のそれぞれを通過した各照射光が互いに異なる位置に照射するイメージセンサにより生成された撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、前記撮像画像の撮像モードに応じて設定する
     情報処理方法。
  12.  コンピュータを、
     光路が互いに独立している複数の個眼光学系のそれぞれを通過した各照射光が互いに異なる位置に照射するイメージセンサにより生成された撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、前記撮像画像の撮像モードに応じて設定する設定部
     として機能させるプログラム。
  13.  光路が互いに独立している複数の個眼光学系のそれぞれを通過して互いに異なる位置に照射する各照射光を、所定の撮像モードで光電変換して撮像画像を生成する撮像部と、
     前記撮像部により生成された前記撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、前記撮像モードに応じて設定する設定部と
     を備える撮像装置。
  14.  前記設定部は、前記視点画像領域を示す情報である視点領域情報を前記撮像モードに応じて選択することにより、前記視点画像領域を設定する
     請求項13に記載の撮像装置。
  15.  複数の前記個眼光学系と、撮像モード毎の前記視点領域情報を記憶する記憶部とを備える多眼交換光学系と通信を行う通信部をさらに備え、
     前記設定部は、前記通信部を介して、前記多眼交換光学系の前記記憶部に記憶されている撮像モード毎の前記視点領域情報を取得し、取得した前記視点領域情報の中から、前記撮像モードに対応する前記視点領域情報を選択する
     請求項14に記載の撮像装置。
  16.  撮像モード毎の前記視点領域情報を記憶する記憶部をさらに備え、
     前記設定部は、前記撮像モードに対応する前記視点領域情報を、前記記憶部に記憶されている撮像モード毎の前記視点領域情報の中から選択する
     請求項14に記載の撮像装置。
  17.  複数の前記個眼光学系をさらに備える
     請求項13に記載の撮像装置。
  18.  光路が互いに独立している複数の個眼光学系のそれぞれを通過して互いに異なる位置に照射する各照射光を、所定の撮像モードで光電変換して撮像画像を生成し、
     生成された前記撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、前記撮像モードに応じて設定する
     撮像方法。
  19.  コンピュータを、
     光路が互いに独立している複数の個眼光学系のそれぞれを通過して互いに異なる位置に照射する各照射光を、所定の撮像モードで光電変換して撮像画像を生成する撮像部と、
     前記撮像部により生成された前記撮像画像に対して、各個眼光学系に対応する各視点画像の領域である視点画像領域を、前記撮像モードに応じて設定する設定部と
     として機能させるプログラム。
  20.  光路が互いに独立している複数の個眼光学系と、
     各個眼光学系に対応する各視点画像の領域である視点画像領域を示す撮像モード毎の情報である視点領域情報を記憶する記憶部と
     を備える交換レンズ。
PCT/JP2020/045368 2019-12-20 2020-12-07 情報処理装置および方法、撮像装置および方法、プログラム、並びに、交換レンズ WO2021124940A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/777,451 US20220408021A1 (en) 2019-12-20 2020-12-07 Information processing device and method, imaging apparatus and method, program, and interchangeable lens

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019230032 2019-12-20
JP2019-230032 2019-12-20

Publications (1)

Publication Number Publication Date
WO2021124940A1 true WO2021124940A1 (ja) 2021-06-24

Family

ID=76476574

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/045368 WO2021124940A1 (ja) 2019-12-20 2020-12-07 情報処理装置および方法、撮像装置および方法、プログラム、並びに、交換レンズ

Country Status (2)

Country Link
US (1) US20220408021A1 (ja)
WO (1) WO2021124940A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1070675A (ja) * 1996-08-26 1998-03-10 Sony Corp アスペクト比変換機能を有するビデオカメラのビューファインダーの有効エリア表示方法および表示装置
JP2006254116A (ja) * 2005-03-10 2006-09-21 Matsushita Electric Ind Co Ltd 撮像装置、撮像方法、及び記録媒体
WO2019065260A1 (ja) * 2017-09-27 2019-04-04 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム、並びに、交換レンズ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1070675A (ja) * 1996-08-26 1998-03-10 Sony Corp アスペクト比変換機能を有するビデオカメラのビューファインダーの有効エリア表示方法および表示装置
JP2006254116A (ja) * 2005-03-10 2006-09-21 Matsushita Electric Ind Co Ltd 撮像装置、撮像方法、及び記録媒体
WO2019065260A1 (ja) * 2017-09-27 2019-04-04 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム、並びに、交換レンズ

Also Published As

Publication number Publication date
US20220408021A1 (en) 2022-12-22

Similar Documents

Publication Publication Date Title
US10897609B2 (en) Systems and methods for multiscopic noise reduction and high-dynamic range
JP5956808B2 (ja) 画像処理装置およびその方法
JP5142701B2 (ja) 符号化方法、電子カメラ、符号化プログラム、及び復号方法
WO2021124942A1 (ja) 撮像装置、情報処理方法、およびプログラム
WO2021124940A1 (ja) 情報処理装置および方法、撮像装置および方法、プログラム、並びに、交換レンズ
US11899276B2 (en) Imaging apparatus, information processing method, program, and interchangeable lens
US11899342B2 (en) Interchangeable lens, information processing apparatus, information processing method, and program
US11765336B2 (en) Image-capturing apparatus, information processing method, and program
JP2013150071A (ja) 符号化装置、符号化方法、プログラム及び記憶媒体
US10334161B2 (en) Image processing apparatus, image processing method, computer program and imaging apparatus
JP2018182621A (ja) 撮像装置、その制御方法、プログラム及び記録媒体
WO2021249955A1 (en) Metadata to describe color filter on top on camera sensors
JP2007295611A (ja) 検出装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20903219

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20903219

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP