WO2011142086A1 - カメラ本体、交換レンズユニット、撮像装置、カメラ本体の制御方法、交換レンズユニットの制御方法、プログラムおよびプログラムを記録した記録媒体 - Google Patents

カメラ本体、交換レンズユニット、撮像装置、カメラ本体の制御方法、交換レンズユニットの制御方法、プログラムおよびプログラムを記録した記録媒体 Download PDF

Info

Publication number
WO2011142086A1
WO2011142086A1 PCT/JP2011/002343 JP2011002343W WO2011142086A1 WO 2011142086 A1 WO2011142086 A1 WO 2011142086A1 JP 2011002343 W JP2011002343 W JP 2011002343W WO 2011142086 A1 WO2011142086 A1 WO 2011142086A1
Authority
WO
WIPO (PCT)
Prior art keywords
eye
image
image data
interchangeable lens
lens unit
Prior art date
Application number
PCT/JP2011/002343
Other languages
English (en)
French (fr)
Inventor
浩 上田
剛治 澁野
万博 池田
充義 岡本
孝行 林
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2012514696A priority Critical patent/JPWO2011142086A1/ja
Priority to CN201180004777XA priority patent/CN102640488A/zh
Priority to US13/512,884 priority patent/US20120236128A1/en
Priority to EP11780346A priority patent/EP2571246A1/en
Publication of WO2011142086A1 publication Critical patent/WO2011142086A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • G03B17/14Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • G03B35/10Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position

Definitions

  • the technology disclosed herein relates to a camera body, an interchangeable lens unit, and an imaging device that can be mounted with an interchangeable lens unit.
  • the technology disclosed herein relates to a camera body control method, an interchangeable lens unit control method, a program, and a recording medium on which the program is recorded.
  • an interchangeable lens type digital camera is known as an imaging device.
  • the interchangeable lens digital camera includes an interchangeable lens unit and a camera body.
  • the camera body includes an image sensor such as a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor.
  • the image sensor converts an optical image formed by the interchangeable lens unit into an image signal.
  • the image data of the subject can be acquired.
  • Patent Document 2 describes that an optical system for three-dimensional imaging employing a time-division imaging method is used for an interchangeable lens camera.
  • Patent Document 2 does not specifically propose a camera body that can handle various interchangeable lens units, such as an interchangeable lens unit that supports three-dimensional imaging and an interchangeable lens unit that does not support it.
  • an interchangeable lens unit for three-dimensional imaging is attached to a camera body that does not support three-dimensional imaging is assumed in the future. In such a case, if photographing is performed, image data that is not suitable for three-dimensional display is acquired, or image data that is not suitable for two-dimensional display is acquired. Accordingly, there is a need for an interchangeable lens unit that can accommodate various camera bodies.
  • the camera body includes a body mount, an image sensor, and an identification information acquisition unit.
  • the body mount is provided so that an interchangeable lens unit can be mounted.
  • the image sensor converts an optical image into an image signal.
  • the identification information acquisition unit can acquire lens identification information indicating whether or not the interchangeable lens unit is compatible with three-dimensional imaging from the interchangeable lens unit attached to the body mount.
  • the lens identification information is acquired by the identification information acquisition unit from the interchangeable lens unit mounted on the body mount. For this reason, when an interchangeable lens unit compatible with three-dimensional imaging is attached to the body mount, it can be determined that the interchangeable lens unit is compatible with three-dimensional imaging based on the lens identification information. Conversely, when an interchangeable lens unit that does not support 3D imaging is attached to the camera body, it can be determined that the interchangeable lens unit does not support 3D imaging based on the lens identification information.
  • this camera body can be used for various interchangeable lens units such as an interchangeable lens unit compatible with three-dimensional imaging and an incompatible lens unit.
  • the camera body according to the second feature includes a body mount, an image sensor, and a control unit.
  • the body mount is provided so that an interchangeable lens unit can be mounted.
  • the imaging element has a light receiving surface that receives an optical image, and converts the optical image into an image signal.
  • the control unit generates left-eye image data and right-eye image data from an image signal generated by the image sensor.
  • the light receiving surface includes a first region and a second region disposed adjacent to the first region.
  • the interchangeable lens unit attached to the body mount has a first optical system that forms a left-eye optical image in the first region and a second optical system that forms a right-eye optical image in the second region.
  • the control unit generates left-eye image data from the image signal corresponding to the first region, and generates right-eye image data from the image signal corresponding to the second region.
  • the interchangeable lens unit attached to the body mount has a third optical system that forms an optical image for the left eye in the second region and a fourth optical system that forms an optical image for the right eye in the first region.
  • the control unit generates left-eye image data from the image signal corresponding to the second area, and generates right-eye image data from the image signal corresponding to the first area.
  • a camera body includes a body mount, an image sensor, and a control unit.
  • the body mount is provided so that an interchangeable lens unit can be mounted.
  • the imaging element has a light receiving surface that receives an optical image, and converts the optical image into an image signal.
  • the control unit generates left-eye image data and right-eye image data from an image signal generated by the image sensor.
  • the control unit When the interchangeable lens unit that forms the optical image rotated with respect to the subject on the light receiving surface is attached to the body mount, the control unit reproduces a pair of image data for the left eye and image data for the right eye. Image data for the left eye and image data for the right eye are generated so that the top and bottom of the image substantially coincide with the top and bottom of the subject.
  • the interchangeable lens unit mounted on the body mount has a first stereoscopic imaging optical system that forms an optical image rotated with respect to the subject on the light receiving surface
  • the control unit has image data for the left eye.
  • the left-eye image data and the right-eye image data are generated so that the top and bottom of the pair of images reproduced by the right-eye image data substantially coincide with the top and bottom of the subject.
  • the control unit When the interchangeable lens unit mounted on the body mount has a second stereoscopic imaging optical system that does not rotate the optical image with respect to the subject on the light receiving surface, the control unit performs image data for the left eye and the right eye.
  • the left-eye image data and the right-eye image data are generated so that the top and bottom of the pair of images reproduced by the image data for the image substantially coincide with the top and bottom of the subject.
  • an interchangeable lens unit that forms an optical image rotated with respect to a subject on a light receiving surface is attached to a body mount, a pair reproduced with left-eye image data and right-eye image data.
  • the left-eye image data and the right-eye image data are generated by the control unit so that the top and bottom of the image in FIG.
  • the interchangeable lens unit mounted on the body mount has a first stereoscopic imaging optical system that forms an optical image rotated with respect to the subject on the light receiving surface
  • the image for the left eye The control unit generates left-eye image data and right-eye image data so that the top and bottom of the pair of images reproduced by the data and the right-eye image data substantially coincide with the top and bottom of the subject.
  • the interchangeable lens unit mounted on the body mount has the second stereoscopic imaging optical system that does not rotate the optical image with respect to the subject on the light receiving surface, the image data for the left eye and the image for the right eye
  • the control unit generates image data for the left eye and image data for the right eye so that the upper and lower sides of the pair of images reproduced by the data substantially coincide with the upper and lower sides of the subject. Therefore, this camera body can be used for various interchangeable lens units.
  • the top and bottom of the pair of images reproduced by the left eye image data and the right eye image data substantially coincide with the top and bottom of the subject is reproduced by the left eye image data and the right eye image data.
  • the left-eye image data and The case where the top and bottom of a pair of images reproduced with the right-eye image data are shifted from the top and bottom of the subject is also included.
  • a pair of images reproduced by image data for the left eye and image data for the right eye is displayed on, for example, a display unit mounted on the camera body or a display device provided separately from the camera body. This means a stereo image for stereoscopic viewing.
  • the top and bottom of the pair of images reproduced by the left-eye image data and the right-eye image data are roughly the top and bottom of the subject. It can be determined whether or not they match.
  • a camera body includes a body mount, an image sensor, and a control unit.
  • the body mount is provided so that an interchangeable lens unit can be mounted.
  • the imaging element has a light receiving surface that receives an optical image, and converts the optical image into an image signal.
  • the control unit generates left-eye image data and right-eye image data from an image signal generated by the image sensor.
  • the interchangeable lens unit that mirrors the left-eye optical image corresponding to the left-eye image data on the light receiving surface with respect to the subject is mounted on the body mount, the left-eye image is reproduced with the left-eye image data
  • the control unit generates image data for the left eye so that the top and bottom and the left and right of the image generally coincide with the top and bottom and the left and right of the subject.
  • this camera body when an interchangeable lens unit that mirror-inverts the optical image for the left eye corresponding to the image data for the left eye on the light receiving surface with respect to the subject is mounted on the body mount, it is reproduced with the image data for the left eye.
  • the left-eye image data is generated by the control unit so that the vertical and horizontal sides of the left-eye image substantially coincide with the vertical and horizontal sides of the subject. Therefore, this camera body can be used for various interchangeable lens units.
  • the top and bottom and the left and right of the left-eye image reproduced with the left-eye image data substantially coincide with the top and bottom and the left and right of the subject means that the left-eye image reproduced with the left-eye image data
  • the left reproduced in the image data for the left eye within a range where the effect of being able to correspond to various interchangeable lens units is obtained.
  • the case where the top and bottom and the left and right of the ophthalmic image are shifted from the top and bottom and the left and right of the subject is also included.
  • the “left-eye image reproduced with the left-eye image data” refers to, for example, a left-eye image displayed on a display unit mounted on the camera body or a display device provided separately from the camera body. I mean.
  • the upper and lower sides and the left and right sides of the left eye image reproduced with the left eye image data substantially coincide with the upper and lower sides and right and left sides of the subject. It can be determined whether or not.
  • a camera body includes a body mount, an image sensor, and a control unit.
  • the body mount is provided so that an interchangeable lens unit can be mounted.
  • the imaging element has a light receiving surface that receives an optical image, and converts the optical image into an image signal.
  • the control unit reproduces the right-eye image data when the interchangeable lens unit that mirrors the right-eye optical image corresponding to the right-eye image data on the light receiving surface with respect to the subject is mounted on the body mount.
  • the right-eye image data is generated so that the top and bottom and the left and right of the right-eye image substantially coincide with the top and bottom and the left and right of the subject.
  • this camera body when an interchangeable lens unit that mirrors the right-eye optical image corresponding to the right-eye image data on the light receiving surface with respect to the subject is mounted on the body mount, the right-eye image data is reproduced.
  • the right-eye image data is generated by the control unit so that the vertical and horizontal sides of the right-eye image substantially coincide with the vertical and horizontal sides of the subject. Therefore, this camera body can be used for various interchangeable lens units.
  • the vertical and horizontal sides of the right-eye image reproduced with the right-eye image data substantially coincide with the vertical and horizontal sides of the subject means that the right-eye image reproduced with the right-eye image data
  • the right that is reproduced with the right-eye image data within the range that can be used for various interchangeable lens units.
  • the case where the top and bottom and the left and right of the ophthalmic image are shifted from the top and bottom and the left and right of the subject is also included.
  • the “right-eye image reproduced with right-eye image data” refers to, for example, a right-eye image displayed on a display unit mounted on the camera body or a display device provided separately from the camera body. I mean.
  • the upper and lower sides and the left and right sides of the right eye image reproduced with the right eye image data substantially coincide with the upper and lower sides and right and left sides of the subject It can be determined whether or not.
  • a camera body includes a body mount, an image sensor, and a control unit.
  • the body mount is provided so that an interchangeable lens unit can be mounted.
  • the image sensor converts an optical image into an image signal.
  • the control unit restricts execution of the 3D imaging mode at least until an operation by the user is performed.
  • execution of the 3D imaging mode is restricted by the control unit until at least an operation by the user is performed. Therefore, this camera body can be used for various interchangeable lens units.
  • the interchangeable lens unit according to the seventh feature includes a three-dimensional optical system, a lens side determination unit, and a state information generation unit.
  • the three-dimensional optical system forms a stereoscopic optical image of the subject.
  • the lens side determination unit determines whether or not the camera body is compatible with three-dimensional imaging.
  • the state information generation unit generates restriction information for restricting shooting with the camera body when the lens side determination unit determines that the camera body does not support 3D shooting.
  • this interchangeable lens unit when the lens side determination unit determines that the camera body does not support three-dimensional shooting, restriction information for limiting shooting with the camera body is generated. Therefore, it is possible to prevent two-dimensional imaging from being accidentally performed by the camera body using the three-dimensional optical system. That is, this interchangeable lens unit can be used for various camera bodies such as a camera body that supports three-dimensional imaging and a camera body that does not support it.
  • a control method according to an eighth feature is a camera body control method for generating image data based on an optical image formed by an interchangeable lens unit, and whether the interchangeable lens unit is compatible with three-dimensional imaging. Is obtained by the camera body from the interchangeable lens unit attached to the body mount.
  • lens identification information is acquired by the camera body from the interchangeable lens unit attached to the body mount. For this reason, when an interchangeable lens unit compatible with three-dimensional imaging is attached to the body mount, it can be determined that the interchangeable lens unit is compatible with three-dimensional imaging based on the lens identification information. Conversely, when an interchangeable lens unit that does not support 3D imaging is attached to the camera body, it can be determined that the interchangeable lens unit does not support 3D imaging based on the lens identification information.
  • a camera body using this control method can correspond to various interchangeable lens units such as an interchangeable lens unit compatible with three-dimensional imaging and an incompatible lens unit.
  • a program according to a ninth feature is a program for causing a computer to execute a control method of a camera body that generates image data based on an optical image formed by an interchangeable lens unit, and the interchangeable lens unit performs three-dimensional imaging.
  • the computer executes an identification information acquisition step in which lens identification information indicating whether or not the camera body is acquired by the camera body from the interchangeable lens unit mounted on the body mount.
  • a computer-readable recording medium is a recording medium storing a program for causing a computer to execute a control method of a camera body that generates image data based on an optical image formed by an interchangeable lens unit.
  • An identification information acquisition step in which the lens identification information indicating whether or not the interchangeable lens unit is compatible with 3D imaging is acquired by the camera body from the interchangeable lens unit mounted on the body mount is stored in the computer.
  • a program to be executed is recorded. When the program recorded on the recording medium is executed by the camera body, lens identification information is acquired by the camera body from the interchangeable lens unit mounted on the body mount.
  • a control method includes an image sensor that converts an optical image formed by an interchangeable lens unit into an image signal, and image data for the left eye and image data for the right eye that are generated from the image signal generated by the image sensor.
  • a control unit for generating a camera body comprising: An interchangeable lens unit attached to the camera body includes a first optical system that forms a left-eye optical image in the first area of the image sensor, and a second area of the image sensor that is disposed adjacent to the first area.
  • a second optical system for forming a right-eye optical image the left-eye image data is generated by the control unit from the image signal corresponding to the first area, and corresponds to the second area.
  • the interchangeable lens unit mounted on the body mount has a third optical system that forms a left-eye optical image in the second region and a fourth optical system that forms a right-eye optical image in the first region.
  • the left eye image data is generated from the image signal corresponding to the second region by the control unit
  • the right eye image data is generated from the image signal corresponding to the first region by the control unit. Steps, It has.
  • a program according to a twelfth feature is a program for causing a computer to execute a camera body control method for generating image data based on an optical image formed by an interchangeable lens unit,
  • An interchangeable lens unit attached to the camera body includes a first optical system that forms a left-eye optical image in the first area of the image sensor, and a second area of the image sensor that is disposed adjacent to the first area.
  • a second optical system for forming a right-eye optical image the left-eye image data is generated by the control unit from the image signal corresponding to the first area, and corresponds to the second area.
  • the interchangeable lens unit mounted on the body mount has a third optical system that forms a left-eye optical image in the second region and a fourth optical system that forms a right-eye optical image in the first region.
  • the left eye image data is generated from the image signal corresponding to the second region by the control unit
  • the right eye image data is generated from the image signal corresponding to the first region by the control unit.
  • a computer-readable recording medium is a recording medium storing a program for causing a computer to execute a camera body control method for generating image data based on an optical image formed by an interchangeable lens unit.
  • An interchangeable lens unit attached to the camera body includes a first optical system that forms a left-eye optical image in the first area of the image sensor, and a second area of the image sensor that is disposed adjacent to the first area.
  • a second optical system for forming a right-eye optical image the left-eye image data is generated by the control unit from the image signal corresponding to the first area, and corresponds to the second area.
  • the interchangeable lens unit mounted on the body mount has a third optical system that forms a left-eye optical image in the second region and a fourth optical system that forms a right-eye optical image in the first region.
  • the left eye image data is generated from the image signal corresponding to the second region by the control unit
  • the right eye image data is generated from the image signal corresponding to the first region by the control unit.
  • the interchangeable lens unit When the program recorded on the recording medium is executed by the camera body, the interchangeable lens unit has the first and second optical systems, or the interchangeable lens unit has the third and fourth optical systems. Even in this case, the left-eye image data and the right-eye image data can be correctly generated by the camera body. Therefore, any camera body using the program recorded on the recording medium can be used for various interchangeable lens units.
  • a control method is a control method of a camera body that generates image data based on an optical image formed by an interchangeable lens unit,
  • the interchangeable lens unit mounted on the body mount has a first stereoscopic imaging optical system that forms an optical image rotated with respect to the subject on the light receiving surface of the image sensor, image data for the left eye
  • the step of generating the left-eye image data and the right-eye image data by the control unit so that the top and bottom of the pair of images reproduced by the right-eye image data substantially coincide with the top and bottom of the subject
  • the interchangeable lens unit mounted on the body mount has the second stereoscopic imaging optical system that does not rotate the optical image with respect to the subject on the light receiving surface, the left-eye image data and the right-eye image data are used.
  • the control unit generates image data for the left eye and image data for the right eye so that the upper and lower sides of the pair of images to be reproduced substantially coincide with the upper and lower sides of the subject; It has.
  • an interchangeable lens unit that forms an optical image rotated with respect to a subject on a light receiving surface is mounted on a body mount, a pair reproduced with left-eye image data and right-eye image data.
  • the left-eye image data and the right-eye image data are generated by the control unit so that the top and bottom of the image in FIG.
  • the interchangeable lens unit mounted on the body mount has a first stereoscopic imaging optical system that forms an optical image rotated with respect to the subject on the light receiving surface, the image for the left eye
  • the control unit generates left-eye image data and right-eye image data so that the top and bottom of the pair of images reproduced by the data and the right-eye image data substantially coincide with the top and bottom of the subject.
  • the interchangeable lens unit mounted on the body mount has the second stereoscopic imaging optical system that does not rotate the optical image with respect to the subject on the light receiving surface, the image data for the left eye and the image for the right eye
  • the control unit generates image data for the left eye and image data for the right eye so that the upper and lower sides of the pair of images reproduced by the data substantially coincide with the upper and lower sides of the subject. Therefore, any camera body using this control method can be used for various interchangeable lens units.
  • a program according to a fifteenth feature is a program for causing a computer to execute a camera body control method for generating image data based on an optical image formed by an interchangeable lens unit,
  • the interchangeable lens unit mounted on the body mount has a first stereoscopic imaging optical system that forms an optical image rotated with respect to the subject on the light receiving surface of the image sensor, image data for the left eye
  • the interchangeable lens unit mounted on the body mount has the second stereoscopic imaging optical system that does not rotate the optical image with respect to the subject on the light receiving surface, the left-eye image data and the right-eye image data are used.
  • the control unit generates image data for the left eye and image data for the right eye so that the upper and lower sides of the pair of images to be reproduced substantially coincide with the upper and lower sides of the subject;
  • the image data for the left eye and the image data for the right eye are generated by the control unit so that the top and bottom of the pair of images reproduced in FIG.
  • the image for the left eye The control unit generates left-eye image data and right-eye image data so that the top and bottom of the pair of images reproduced by the data and the right-eye image data substantially coincide with the top and bottom of the subject.
  • the interchangeable lens unit mounted on the body mount has the second stereoscopic imaging optical system that does not rotate the optical image with respect to the subject on the light receiving surface, the image data for the left eye and the image for the right eye
  • the control unit generates image data for the left eye and image data for the right eye so that the upper and lower sides of the pair of images reproduced by the data substantially coincide with the upper and lower sides of the subject. Therefore, any camera body using this program can be used for various interchangeable lens units.
  • a recording medium readable by a computer is a recording medium storing a program for causing a computer to execute a control method of a camera body that generates image data based on an optical image formed by an interchangeable lens unit.
  • a medium When the interchangeable lens unit mounted on the body mount has a first stereoscopic imaging optical system that forms an optical image rotated with respect to the subject on the light receiving surface of the image sensor, image data for the left eye And the step of generating the left-eye image data and the right-eye image data by the control unit so that the top and bottom of the pair of images reproduced by the right-eye image data substantially coincide with the top and bottom of the subject;
  • the interchangeable lens unit mounted on the body mount has the second stereoscopic imaging optical system that does not rotate the optical image with respect to the subject on the light receiving surface, the left-eye image data and the right-eye image data are used.
  • the control unit generates image data for the left eye and image data for the right eye so that the upper and lower sides of the pair of images to
  • control unit When the program recorded on this recording medium is executed by the camera body, when an interchangeable lens unit that forms an optical image rotated with respect to the subject on the light receiving surface is attached to the body mount, image data for the left eye
  • the control unit generates left-eye image data and right-eye image data so that the top and bottom of the pair of images reproduced by the right-eye image data substantially coincide with the top and bottom of the subject.
  • the interchangeable lens unit mounted on the body mount has a first stereoscopic imaging optical system that forms an optical image rotated with respect to the subject on the light receiving surface
  • the image for the left eye The control unit generates left-eye image data and right-eye image data so that the top and bottom of the pair of images reproduced by the data and the right-eye image data substantially coincide with the top and bottom of the subject.
  • the interchangeable lens unit mounted on the body mount has the second stereoscopic imaging optical system that does not rotate the optical image with respect to the subject on the light receiving surface, the image data for the left eye and the image for the right eye
  • the control unit generates image data for the left eye and image data for the right eye so that the upper and lower sides of the pair of images reproduced by the data substantially coincide with the upper and lower sides of the subject. Therefore, any camera body using the program recorded on this recording medium can be used for various interchangeable lens units.
  • the top and bottom of the pair of images reproduced by the left eye image data and the right eye image data substantially coincide with the top and bottom of the subject is reproduced by the left eye image data and the right eye image data.
  • the left-eye image data and The case where the top and bottom of a pair of images reproduced with the right-eye image data are shifted from the top and bottom of the subject is also included.
  • a pair of images reproduced by image data for the left eye and image data for the right eye is displayed on, for example, a display unit mounted on the camera body or a display device provided separately from the camera body. This means a stereo image for stereoscopic viewing.
  • the top and bottom of the pair of images reproduced by the left-eye image data and the right-eye image data are roughly the top and bottom of the subject. It can be determined whether or not they match.
  • a control method is a camera body control method for generating image data based on an optical image formed by an interchangeable lens unit,
  • an interchangeable lens unit that mirrors the left-eye optical image corresponding to the left-eye image data on the light-receiving surface of the image sensor with respect to the subject is mounted on the body mount, the left that is reproduced with the left-eye image data
  • There is a left eye image generation step in which the left eye image data is generated by the control unit so that the upper and lower sides and the left and right sides of the ophthalmic image substantially coincide with the upper and lower sides and left and right sides of the subject.
  • a program according to an eighteenth feature is a program for causing a computer to execute a camera body control method for generating image data based on an optical image formed by an interchangeable lens unit,
  • an interchangeable lens unit that mirrors the left-eye optical image corresponding to the left-eye image data on the light-receiving surface of the image sensor with respect to the subject is mounted on the body mount, the left that is reproduced with the left-eye image data
  • the computer causes the computer to execute a left eye image generation step in which the left eye image data is generated by the control unit so that the upper and lower sides and the left and right sides of the eye image substantially coincide with the upper and lower sides and left and right sides of the subject.
  • a computer-readable recording medium is a recording medium storing a program for causing a computer to execute a camera body control method for generating image data based on an optical image formed by an interchangeable lens unit.
  • a medium When an interchangeable lens unit that mirror-inverts the optical image for the left eye corresponding to the image data for the left eye with respect to the subject on the light receiving surface of the image sensor is attached to the body mount, the left reproduced with the image data for the left eye
  • a program for causing a computer to execute a left-eye image generation step in which left-eye image data is generated by the control unit so that the upper and lower sides and the left and right sides of the eye image substantially coincide with the upper and lower sides and left and right sides of the subject is recorded.
  • an interchangeable lens unit is mounted on the body mount that mirrors the optical image for the left eye corresponding to the image data for the left eye on the light receiving surface with respect to the subject.
  • the left eye image data is generated by the control unit so that the upper and lower sides and the left and right sides of the left eye image reproduced by the left eye image data are substantially coincident with the upper and lower sides and the left and right sides of the subject. Therefore, any camera body using the program recorded on the recording medium can be used for various interchangeable lens units.
  • the top and bottom and the left and right of the left-eye image reproduced with the left-eye image data substantially coincide with the top and bottom and the left and right of the subject means that the left-eye image reproduced with the left-eye image data
  • the left reproduced in the image data for the left eye within a range where the effect of being able to correspond to various interchangeable lens units is obtained.
  • the case where the top and bottom and the left and right of the ophthalmic image are shifted from the top and bottom and the left and right of the subject is also included.
  • the “left-eye image reproduced with the left-eye image data” refers to, for example, a left-eye image displayed on a display unit mounted on the camera body or a display device provided separately from the camera body. I mean.
  • the upper and lower sides and the left and right sides of the left eye image reproduced with the left eye image data substantially coincide with the upper and lower sides and right and left sides of the subject. It can be determined whether or not.
  • a control method is a camera body control method for generating image data based on an optical image formed by an interchangeable lens unit,
  • the interchangeable lens unit that mirrors the right-eye optical image corresponding to the right-eye image data on the light receiving surface with respect to the subject is mounted on the body mount, the right-eye image that is reproduced with the right-eye image data Is further provided with a right eye image generation step in which the right eye image data is generated by the control unit so that the upper and lower sides and right and left sides of the subject substantially coincide with the upper and lower sides and left and right sides of the subject.
  • a program according to a twenty-first feature is a program for causing a computer to execute a camera body control method for generating image data based on an optical image formed by an interchangeable lens unit,
  • an interchangeable lens unit that mirrors the right-eye optical image corresponding to the right-eye image data on the light-receiving surface of the image sensor with respect to the subject is mounted on the body mount, the right that is reproduced with the right-eye image data
  • the computer causes the computer to execute a right eye image generation step in which the right eye image data is generated by the control unit so that the upper and lower sides and the left and right sides of the eye image substantially coincide with the upper and lower sides and the left and right sides of the subject.
  • a computer-readable recording medium is a recording medium storing a program for causing a computer to execute a camera body control method for generating image data based on an optical image formed by an interchangeable lens unit.
  • a medium When an interchangeable lens unit that mirror-inverts the right-eye optical image corresponding to the right-eye image data on the light-receiving surface of the image sensor with respect to the subject is mounted on the body mount, the right image that is reproduced with the right-eye image data
  • an interchangeable lens unit is mounted on the body mount that mirrors the optical image for the right eye corresponding to the image data for the right eye on the light receiving surface with respect to the subject.
  • the right-eye image data is generated by the control unit so that the upper and lower sides and the left and right sides of the right-eye image reproduced from the right-eye image data substantially coincide with the upper and lower sides and the left and right sides of the subject. Therefore, any camera body using the program recorded on the recording medium can be used for various interchangeable lens units.
  • the vertical and horizontal sides of the right-eye image reproduced with the right-eye image data substantially coincide with the vertical and horizontal sides of the subject means that the right-eye image reproduced with the right-eye image data
  • the right that is reproduced with the right-eye image data within the range that can be used for various interchangeable lens units.
  • the case where the top and bottom and the left and right of the ophthalmic image are shifted from the top and bottom and the left and right of the subject is also included.
  • the “right-eye image reproduced with right-eye image data” refers to, for example, a right-eye image displayed on a display unit mounted on the camera body or a display device provided separately from the camera body. I mean.
  • the upper and lower sides and the left and right sides of the right eye image reproduced with the right eye image data substantially coincide with the upper and lower sides and right and left sides of the subject It can be determined whether or not.
  • a control method includes an image sensor that converts an optical image formed by the interchangeable lens unit into an image signal, and image data for the left eye and image data for the right eye that are generated from the image signal generated by the image sensor.
  • a control unit for generating a camera body comprising: When an interchangeable lens unit that does not support three-dimensional imaging is attached to the camera body, the control unit includes a step in which execution of the three-dimensional imaging mode is restricted at least until a user operation is performed. In this control method, when an interchangeable lens unit that does not support 3D imaging is attached to the body mount, execution of the 3D imaging mode is restricted by the control unit until at least an operation by the user is performed. Therefore, any camera body using this control method can be used for various interchangeable lens units.
  • a program according to a twenty-fourth feature is a program for causing a computer to execute a camera body control method for generating image data based on an optical image formed by an interchangeable lens unit,
  • the computer is caused to execute a step of restricting execution of the 3D imaging mode at least until an operation by the user is performed.
  • this program is executed on the camera body, if an interchangeable lens unit that does not support 3D imaging is mounted on the body mount, the control unit will execute the 3D imaging mode at least until the user performs an operation. Limited. Therefore, any camera body using this program can be used for various interchangeable lens units.
  • a computer-readable recording medium is a recording medium storing a program for causing a computer to execute a camera body control method for generating image data based on an optical image formed by an interchangeable lens unit.
  • a medium When an interchangeable lens unit that does not support 3D imaging is mounted on the camera body, the computer executes a step in which execution of the 3D imaging mode is restricted by the control unit at least until a user operation is performed. The program is recorded.
  • the program recorded on this recording medium is executed by the camera body, when an interchangeable lens unit that does not support 3D imaging is mounted on the body mount, at least until a user operation is performed, the 3D imaging mode is set. Is limited by the control unit. Therefore, any camera body using the program recorded on the recording medium can be used for various interchangeable lens units.
  • a control method is a control method of an interchangeable lens unit that can be attached to a camera body, A determination step of determining whether or not the camera body supports three-dimensional imaging; A state information generating step for generating restriction information for restricting shooting with the camera body when it is determined that the camera body does not support 3D shooting; It has.
  • restriction information for limiting shooting with the camera body is generated. Therefore, it is possible to prevent two-dimensional imaging from being accidentally performed by the camera body using the three-dimensional optical system. That is, the interchangeable lens unit using this control method can support various camera bodies such as a camera body that supports three-dimensional imaging and a camera body that does not support it.
  • a program according to a twenty-seventh feature is a program for causing a computer to execute a control method of an interchangeable lens unit that can be attached to a camera body.
  • restriction information for restricting shooting with the camera body is generated when it is determined that the camera body does not support 3D shooting. Therefore, it is possible to prevent two-dimensional imaging from being accidentally performed by the camera body using the three-dimensional optical system. That is, the interchangeable lens unit using this program can support various camera bodies such as a camera body that supports three-dimensional imaging and a camera body that does not support it.
  • a computer-readable recording medium is a recording medium that records a program for causing a computer to execute a method for controlling an interchangeable lens unit that can be attached to a camera body.
  • a program for causing a computer to execute is recorded.
  • restriction information for restricting shooting with the camera body is generated when it is determined that the camera body does not support 3D shooting.
  • an interchangeable lens unit using a program recorded on this recording medium can be used for various camera bodies such as a camera body that supports three-dimensional imaging and a camera body that does not support it.
  • FIG. 1 A perspective view of the camera body 100 Rear view of camera body 100 Schematic block diagram of digital camera 1 Schematic block diagram of the interchangeable lens unit 200 Schematic block diagram of the camera body 100
  • Explanation of each parameter Illustration of convergence angle A) Explanatory drawing of measurement test at the time of shipment, (B) Image for left eye obtained by measurement test, (C) Image for right eye obtained by measurement test (interchangeable lens unit)
  • FIG. 300 Schematic diagram of the interchangeable lens unit 300, (B) a view of the subject viewed from the shooting point, and (C) an optical image on the image sensor viewed from the back side of the camera.
  • FIG. 1 Schematic diagram of the adapter 400 and the interchangeable lens unit 600, (B) a view of the subject viewed from the shooting point, (C) primary imaging (aerial image on the virtual plane) viewed from the back side of the camera, ( D) Secondary imaging on the image sensor as seen from the back side of the camera
  • FIG. 1 Schematic diagram of the interchangeable lens unit 700, (B) a view of the subject viewed from the shooting point, and (C) an optical image on the image sensor viewed from the back side of the camera. Examples of flags and patterns Examples of flags and patterns Flow chart at power ON Flow chart at power ON Flow chart during shooting
  • the digital camera 1 is an imaging device capable of three-dimensional imaging, and is a digital camera with interchangeable lenses. As shown in FIGS. 1 to 3, the digital camera 1 includes an interchangeable lens unit 200 and a camera body 100 to which the interchangeable lens unit 200 can be attached.
  • the interchangeable lens unit 200 is a lens unit that supports three-dimensional imaging, and forms an optical image of a subject (an optical image for the left eye and an optical image for the right eye).
  • the camera body 100 can handle two-dimensional imaging and three-dimensional imaging, and generates image data based on an optical image formed by the interchangeable lens unit 200.
  • an interchangeable lens unit that does not support 3D shooting can be attached to the camera body 100. That is, the camera body 100 is compatible with both two-dimensional imaging and three-dimensional imaging.
  • the interchangeable lens unit 200 is a lens unit that supports three-dimensional imaging.
  • the interchangeable lens unit 200 of the present embodiment employs a side-by-side imaging method in which two optical images are formed on one image sensor by a pair of left and right optical systems. As shown in FIGS.
  • the interchangeable lens unit 200 includes a three-dimensional optical system G, a first drive unit 271, a second drive unit 272, a shake amount detection sensor 275, and a lens controller 240. Further, the interchangeable lens unit 200 includes a lens mount 250, a lens barrel 290, a zoom ring 213, and a focus ring 234. When the interchangeable lens unit 200 is attached to the camera body 100, the lens mount 250 is attached to a body mount 150 (described later) of the camera body 100. As shown in FIG. 1, a zoom ring 213 and a focus ring 234 are rotatably provided outside the lens tube 290.
  • the three-dimensional optical system G is an optical system corresponding to the juxtaposed imaging method, and includes a left-eye optical system OL and a right-eye optical system OR.
  • the left-eye optical system OL and the right-eye optical system OR are arranged side by side.
  • the left-eye optical system is an optical system corresponding to the left viewpoint, and specifically, the optical element arranged closest to the subject (front side) is arranged on the left side toward the subject.
  • the right-eye optical system is an optical system corresponding to the right viewpoint, and specifically, the optical element arranged closest to the subject (front side) is arranged on the right side toward the subject.
  • the left-eye optical system OL is an optical system for photographing a subject from the left viewpoint toward the subject, and includes a zoom lens 210L, an OIS lens 220L, an aperture unit 260L, and a focus lens 230L.
  • the left-eye optical system OL has a first optical axis AX1, and is housed inside the lens barrel 290 in a state of being aligned with the right-eye optical system OR.
  • the zoom lens 210L is a lens for changing the focal length of the left-eye optical system OL, and is arranged to be movable in a direction parallel to the first optical axis AX1.
  • the zoom lens 210L is composed of one or a plurality of lenses.
  • the zoom lens 210L is driven by a zoom motor 214L (described later) of the first drive unit 271.
  • the focal length of the left-eye optical system OL can be adjusted by driving the zoom lens 210L in a direction parallel to the first optical axis AX1.
  • the OIS lens 220L is a lens for suppressing displacement of an optical image formed by the left-eye optical system OL with respect to the CMOS image sensor 110 (described later).
  • the OIS lens 220L is composed of one or a plurality of lenses. Based on the control signal transmitted from the OIS IC 223L, the OIS motor 221L drives the OIS lens 220L so as to move in a plane perpendicular to the first optical axis AX1.
  • the OIS motor 221L can be realized by, for example, a magnet (not shown) and a flat coil (not shown).
  • the position of the OIS lens 220L is detected by a position detection sensor 222L (described later) of the first drive unit 271.
  • an optical method is used as a shake correction method.
  • an electronic device that performs correction processing on image data generated by the CMOS image sensor 110, or an image sensor such as the CMOS image sensor 110.
  • a sensor shift type that drives the lens in a plane perpendicular to the first optical axis AX1 may be employed as a shake correction method.
  • the aperture unit 260L adjusts the amount of light transmitted through the left-eye optical system OL.
  • the aperture unit 260L has a plurality of aperture blades (not shown). The aperture blades are driven by an aperture motor 235L (described later) of the first drive unit 271.
  • a camera controller 140 controls the aperture motor 235L.
  • the focus lens 230L is a lens for adjusting a subject distance (also referred to as an object point distance) of the left-eye optical system OL, and is arranged to be movable in a direction parallel to the first optical axis AX1.
  • the focus lens 230L is driven by a focus motor 233L (described later) of the first drive unit 271.
  • the focus lens 230L is composed of one or a plurality of lenses.
  • the right-eye optical system OR is an optical system for photographing the subject from the right viewpoint toward the subject, and includes a zoom lens 210R, an OIS lens 220R, an aperture unit 260R, and a focus lens 230R.
  • the right-eye optical system OR has a second optical axis AX2, and is housed inside the lens tube 290 in a state of being side by side with the left-eye optical system OL.
  • the specification of the right-eye optical system OR is the same as the specification of the left-eye optical system OL. Note that the angle (convergence angle) formed by the first optical axis AX1 and the second optical axis AX2 is an angle ⁇ 1 shown in FIG.
  • the zoom lens 210R is a lens for changing the focal length of the right-eye optical system OR, and is arranged to be movable in a direction parallel to the second optical axis AX2.
  • the zoom lens 210R is composed of one or a plurality of lenses.
  • the zoom lens 210R is driven by a zoom motor 214R (described later) of the second drive unit 272.
  • the focal length of the right-eye optical system OR can be adjusted by driving the zoom lens 210R in a direction parallel to the second optical axis AX2.
  • the driving of the zoom lens 210R is synchronized with the driving of the zoom lens 210L. Accordingly, the focal length of the right-eye optical system OR is the same as the focal length of the left-eye optical system OL.
  • the OIS lens 220R is a lens for suppressing the displacement of the optical image formed by the right-eye optical system OR with respect to the CMOS image sensor 110.
  • the OIS lens 220R includes one or a plurality of lenses.
  • the OIS motor 221R drives the OIS lens 220R so as to move in a plane perpendicular to the second optical axis AX2.
  • the OIS motor 221R can be realized by, for example, a magnet (not shown) and a flat coil (not shown).
  • the position of the OIS lens 220R is detected by a position detection sensor 222R (described later) of the second drive unit 272.
  • an optical method is used as a shake correction method.
  • an electronic method that performs correction processing on image data generated by a CMOS image sensor 110 (described later), a CMOS image sensor 110, or the like.
  • a sensor shift type that drives the imaging element in a plane perpendicular to the second optical axis AX2 may be employed as a shake correction method.
  • the aperture unit 260R adjusts the amount of light that passes through the right-eye optical system OR.
  • the aperture unit 260R has a plurality of aperture blades (not shown).
  • the aperture blades are driven by an aperture motor 235R (described later) of the second drive unit 272.
  • the camera controller 140 controls the aperture motor 235R.
  • the driving of the diaphragm unit 260R is synchronized with the driving of the diaphragm unit 260L. Therefore, the aperture value of the right-eye optical system OR is the same as the aperture value of the left-eye optical system OL.
  • the focus lens 230R is a lens for adjusting a subject distance (also referred to as an object point distance) of the right-eye optical system OR, and is disposed so as to be movable in a direction parallel to the second optical axis AX2.
  • the focus lens 230R is driven by a focus motor 233R (described later) of the second drive unit 272.
  • the focus lens 230R is composed of one or a plurality of lenses.
  • the first drive unit 271 is provided to adjust the state of the left-eye optical system OL.
  • the zoom motor 214L, the OIS motor 221L, the position detection sensor 222L, the OIS IC 223L, the diaphragm A motor 235L and a focus motor 233L are provided.
  • the zoom motor 214L drives the zoom lens 210L.
  • the zoom motor 214L is controlled by the lens controller 240.
  • the OIS motor 221L drives the OIS lens 220L.
  • the position detection sensor 222L is a sensor that detects the position of the OIS lens 220L.
  • the position detection sensor 222L is, for example, a Hall element, and is disposed close to the magnet of the OIS motor 221L.
  • the OIS IC 223L controls the OIS motor 221L based on the detection result of the position detection sensor 222L and the detection result of the shake amount detection sensor 275.
  • the OIS IC 223L acquires the detection result of the shake amount detection sensor 275 from the lens controller 240.
  • the OIS IC 223L transmits a signal indicating the position of the OIS lens 220L to the lens controller 240 at a predetermined cycle.
  • the aperture motor 235L drives the aperture unit 260L.
  • the aperture motor 235L is controlled by the lens controller 240.
  • the focus motor 233L drives the focus lens 230L.
  • the focus motor 233L is controlled by the lens controller 240.
  • the lens controller 240 also controls the focus motor 233R, and synchronizes the focus motor 233L and the focus motor 233R.
  • the subject distance of the left-eye optical system OL is the same as the subject distance of the right-eye optical system OR.
  • Examples of the focus motor 233L include a DC motor, a stepping motor, a servo motor, and an ultrasonic motor.
  • Second drive unit 272 The second drive unit 272 is provided to adjust the state of the right-eye optical system OR. As shown in FIG. 5, the zoom motor 214R, the OIS motor 221R, the position detection sensor 222R, the OIS IC 223R, the diaphragm A motor 235R and a focus motor 233R are provided.
  • the zoom motor 214R drives the zoom lens 210R.
  • the zoom motor 214R is controlled by the lens controller 240.
  • the OIS motor 221R drives the OIS lens 220R.
  • the position detection sensor 222R is a sensor that detects the position of the OIS lens 220R.
  • the position detection sensor 222R is, for example, a Hall element, and is disposed close to the magnet of the OIS motor 221R.
  • the OIS IC 223R controls the OIS motor 221R based on the detection result of the position detection sensor 222R and the detection result of the shake amount detection sensor 275.
  • the OIS IC 223R acquires the detection result of the shake amount detection sensor 275 from the lens controller 240.
  • the OIS IC 223R transmits a signal indicating the position of the OIS lens 220R to the lens controller 240 at a predetermined cycle.
  • the aperture motor 235R drives the aperture unit 260R.
  • the aperture motor 235R is controlled by the lens controller 240.
  • the focus motor 233R drives the focus lens 230R.
  • the focus motor 233R is controlled by the lens controller 240.
  • the lens controller 240 synchronizes the focus motor 233L and the focus motor 233R.
  • the subject distance of the right-eye optical system OR becomes the same as the subject distance of the left-eye optical system OL.
  • Examples of the focus motor 233R include a DC motor, a stepping motor, a servo motor, and an ultrasonic motor.
  • Lens controller 240 controls each part (for example, the first drive unit 271 and the second drive unit 272) of the interchangeable lens unit 200 based on the control signal transmitted from the camera controller 140.
  • the lens controller 240 performs transmission / reception with the camera controller 140 via the lens mount 250 and the body mount 150.
  • the lens controller 240 uses the DRAM 241 as a work memory during control.
  • the lens controller 240 has a CPU (Central Processing Unit) 240a, a ROM (Read Only Memory) 240b, and a RAM (Random Access Memory) 240c, and is stored in the ROM 240b (an example of a computer-readable recording medium).
  • the flash memory 242 (an example of an identification information storage unit) stores programs and parameters used when the lens controller 240 is controlled. For example, lens identification information F1 (see FIG. 7A) indicating that the interchangeable lens unit 200 supports three-dimensional imaging (see FIG. 7A), lens characteristic information F2 including parameters and flags indicating the characteristics of the three-dimensional optical system G ( The flash memory 242 stores in advance (see FIG. 7B).
  • Lens state information F3 (see FIG. 7C) indicating whether or not the interchangeable lens unit 200 is ready for photographing is stored in the RAM 240c, for example.
  • the lens identification information F1 is information indicating whether or not the interchangeable lens unit is compatible with three-dimensional imaging, and is stored in advance in the flash memory 242, for example.
  • the lens identification information F1 is a three-dimensional imaging determination flag stored at a predetermined address in the flash memory 242.
  • FIGS. 8A and 8B three-dimensional imaging is performed during initial communication between the camera body and the interchangeable lens unit when the power is turned on or when the interchangeable lens unit is attached to the camera body. The determination flag is transmitted from the interchangeable lens unit to the camera body.
  • the lens characteristic information F2 is data indicating the characteristics of the optical system of the interchangeable lens unit, and includes the following parameters and flags as shown in FIG. 7B.
  • A Baseline length Baseline length L1 of the stereo optical system
  • B Optical axis position Distance L2 from the center C0 (see FIG. 9) of the image sensor (CMOS image sensor 110) to the optical axis center (center ICL of image circle IL or center ICR of image circle IR shown in FIG. 9) Design value)
  • C Angle of convergence Angle ⁇ 1 formed by the first optical axis (AX1) and the second optical axis (AX2) (see FIG.
  • FIG. 9 is a diagram of the CMOS image sensor 110 viewed from the subject side.
  • the CMOS image sensor 110 has a light receiving surface 110 a (see FIGS. 6 and 9) that receives light transmitted through the interchangeable lens unit 200.
  • An optical image of the subject is formed on the light receiving surface 110a.
  • the light receiving surface 110a includes a first region 110L and a second region 110R disposed adjacent to the first region 110L.
  • the area of the first region 110L is the same as the area of the second region 110R.
  • FIG. 9 is a diagram of the CMOS image sensor 110 viewed from the subject side.
  • the CMOS image sensor 110 has a light receiving surface 110 a (see FIGS. 6 and 9) that receives light transmitted through the interchangeable lens unit 200.
  • An optical image of the subject is formed on the light receiving surface 110a.
  • the light receiving surface 110a includes a first region 110L and a second region 110R disposed adjacent to the first region 110L.
  • the first region 110L is the left half of the light receiving surface 110a
  • the second region 110R is the right half of the light receiving surface 110a. is occupying.
  • the left eye optical image QL1 is formed in the first region 110L
  • the right eye optical image is formed in the second region 110R. QR1 is formed.
  • the designed image circle IL of the left-eye optical system OL and image circle IR of the right-eye optical system OR are defined on the CMOS image sensor 110.
  • the center ICL (an example of the first reference position) of the image circle IL coincides with the design position of the first optical axis AX1 of the optical system OL for the left eye, and the center ICR (the first reference position of the image circle IR).
  • the base line length is the designed distance L1 between the first optical axis AX1 and the second optical axis AX2 on the CMOS image sensor 110.
  • the optical axis position is a design distance L2 between the center C0 of the light receiving surface 110a and the first optical axis AX1 (or a design distance L2 between the center C0 and the second optical axis AX2).
  • an extractable range AL1 is set based on the center ICL
  • an extractable range AR1 is set based on the center ICR. Since the center ICL is set at a substantially central position of the first region 110L of the light receiving surface 110a, a wide extractable range AL1 in the image circle IL can be secured. In addition, since the center ICR is set at a substantially central position of the second region 110R, a wide extractable range AR1 in the image circle IR can be secured.
  • the extraction areas AL0 and AR0 shown in FIG. 9 are areas that serve as a reference when extracting image data for the left eye and image data for the right eye.
  • the design extraction area AL0 of the image data for the left eye is set based on the center ICL (or the first optical axis AX1) of the image circle IL, and is located at the center of the extractable range AL1.
  • the design extraction area AR0 of the image data for the right eye is set with reference to the center ICR (second optical axis AX2) of the image circle IR, and is located at the center of the extractable range AR1.
  • the position of the image circle may deviate from the design position for each interchangeable lens unit due to individual differences in products.
  • the interchangeable lens unit is usually bayonet-coupled to the body mount of the camera body, and the rotation position with respect to the camera body is determined by a lock pin.
  • a bayonet (not shown) formed in the lens mount 250 is fitted into a bayonet groove 155 formed in the body mount 150, and the interchangeable lens unit 200 is attached to the camera body 100.
  • the lock pin 156 fits into a hole (not shown) of the lens mount 250. A minute gap exists between the lock pin 156 and the hole.
  • the optical image formed on the image sensor is rotated. Some rotation is allowed for two-dimensional imaging, but when three-dimensional imaging is performed, the rotation of the optical image promotes the positional deviation in the vertical direction of the optical image for the left eye and the optical image for the right eye. It may affect.
  • the left eye deviation amount DL, the right eye deviation amount DR, and the tilt angle ⁇ 2 are measured for each product at the time of shipment.
  • a method for measuring the left eye shift amount DL, the right eye shift amount DR, and the tilt angle ⁇ 2 will be described.
  • the left eye deviation DL and the right eye deviation DR are caused by individual differences of the interchangeable lens units. Accordingly, the left eye deviation DL and the right eye deviation DR are measured for each interchangeable lens unit. For example, as shown in FIG.
  • measurement of the left eye deviation amount DL and the right eye deviation amount DR is performed using the chart 550 and the measurement camera body 510.
  • a cross line 551 is drawn on the chart 550.
  • the camera body 510 is fixed to a fixed base (not shown).
  • the position of the camera body 510 with respect to the chart 550 is adjusted in advance using an interchangeable lens unit for three-dimensional imaging as a reference.
  • a reference interchangeable lens unit is attached to the camera body 510, and the collimator lens 500 is disposed between the interchangeable lens unit and the chart 550.
  • the horizontal line 552 and the vertical line 553 of the cross line 551 are parallel to the long and short sides of the image, and the center P0 of the cross line 551 is the center ICL of the image circle IL and the ICR of the image circle IR.
  • the position of the camera body 510 is adjusted so as to match. By using the camera body 510 whose position has been adjusted, it is possible to measure the left eye deviation amount DL and the right eye deviation amount DR caused by individual differences of the interchangeable lens units based on the chart 550 in the image.
  • the positions of the cross line 551 in the image for the left eye and the image for the right eye taken at this time are set as reference lines PL0 and PR0.
  • the interchangeable lens unit 200 when the interchangeable lens unit 200 is attached to the camera body 510 and shooting is performed, an image for the left eye and an image for the right eye shown in FIGS. 11B and 11C are obtained.
  • the chart 550 is shifted from the reference lines PL0 and PR0 in the left-eye image and the right-eye image due to a dimensional error of each part of the interchangeable lens unit 200 and the like.
  • the position of the cross line 551 in the left-eye image is different from the position of the cross line 551 in the right-eye image.
  • a left-eye shift amount DL (horizontal direction: DLx, vertical direction: DLy) and a right-eye shift amount DR (horizontal direction: DRx, vertical direction: DRy) are calculated.
  • the left eye deviation DL and the right eye deviation DR are calculated based on the center P0 of the cross line 551, the center ICL of the reference line PL0, and the center ICR of the reference line PR0.
  • the left-eye shift amount DL and the right-eye shift amount DR are stored as lens characteristic information F2 in the flash memory 242 of the interchangeable lens unit 200, and the interchangeable lens unit 200 is shipped as a product.
  • the tilt angle ⁇ 2 is caused by individual differences in the camera body. Therefore, the tilt angle ⁇ 2 is measured for each camera body.
  • the tilt angle ⁇ 2 is measured using a chart 550 and a measurement interchangeable lens unit 520.
  • the interchangeable lens unit 520 is fixed to a fixed base (not shown).
  • the position of the interchangeable lens unit 520 with respect to the chart 550 is adjusted in advance using a reference three-dimensional camera body. Specifically, the reference camera body is attached to the interchangeable lens unit 520.
  • a collimator lens 500 is disposed in advance between the interchangeable lens unit 520 and the chart 550.
  • a left-eye image and a right-eye image in which the chart 550 is captured are obtained.
  • the horizontal line 552 and the vertical line 553 of the cross line 551 are parallel to the long and short sides of the image
  • the center P0 of the cross line 551 is the center ICL of the image circle IL and the ICR of the image circle IR.
  • the position of the interchangeable lens unit 520 is adjusted so as to match. By using the interchangeable lens unit 520 whose position has been adjusted, it is possible to measure the tilt angle ⁇ 2 caused by the individual difference of the camera body based on the chart 550 in the image.
  • the left-eye image and the right-eye image shown in FIGS. 12B and 12C are obtained.
  • the chart 550 deviates from the reference lines PL0 and PR0 in the left-eye image and the right-eye image due to the dimensional error of each part of the camera body 100 and the attachment error with the interchangeable lens unit 520, and the chart 550 is the reference line PL0 and Tilt to PR0.
  • the tilt angle ⁇ 2 is calculated from these two test images. For example, the inclination angle ⁇ 2 is calculated based on the horizontal line 552.
  • the tilt angle ⁇ 2 is stored in the ROM 240b of the camera controller 140, and the camera body 100 is shipped as a product.
  • the positions of the extraction areas AL2 and AR2 can be adjusted according to individual differences of the camera body.
  • the lens characteristic information F2 includes a 180 degree rotation flag, an arrangement change flag, and a mirror inversion flag. Hereinafter, these flags will be described.
  • the left-eye optical image QL1 formed by the left-eye optical system OL is the first region 110L.
  • the right-eye optical image QR1 formed above and formed by the right-eye optical system OR is formed on the second region 110R.
  • the left-eye optical image QL1 and the right-eye optical image QR1 are rotated by 180 degrees compared to the subject. This is basically the same as an optical system for ordinary two-dimensional imaging.
  • the three-dimensional optical system G3 of the interchangeable lens unit 300 shown in FIG. 15A has a left-eye optical system OL3 and a right-eye optical system OR3.
  • the left-eye optical system OL3 includes a first left-eye mirror 312, a second left-eye mirror 310, and an optical system 304.
  • the right-eye optical system OR3 includes a first right-eye mirror 308, a second right-eye mirror 306, and an optical system 302. Incident light in the right half toward the subject is guided to the second region 110R by the first left eye mirror 312, the second left eye mirror 310, and the optical system 304. On the other hand, incident light in the left half toward the subject passes through the first right eye mirror 308, the second right eye mirror 306, and the optical system 302 and is guided to the first region 110L. That is, when the subject shown in FIG. 15B is photographed as in the case of the three-dimensional optical system G, as shown in FIG.
  • a left-eye optical image QL3 is formed in the second region 110R.
  • the right-eye optical image QR3 is formed in the first region 110L. Therefore, as compared with the three-dimensional optical system G of the interchangeable lens unit 200, the optical image is rotated by 180 degrees, but the arrangement of the left-eye optical image and the right-eye optical image is interchanged. It is different.
  • the interchangeable lens unit 300 is mounted on the camera body 100 and the same processing is performed on the camera body 100, the left eye image (left eye) in the stereo image (image reproduced by the stereo image data) is obtained.
  • the arrangement of the image reproduced by the image data for the right eye) and the image data for the right eye are exchanged.
  • an adapter 400 may be inserted between the interchangeable lens unit 600 for normal two-dimensional imaging and the camera body 100.
  • the adapter 400 includes optical systems 401, 402L, and 402R.
  • the optical system 402L is disposed in front of the second region 110R of the CMOS image sensor 110.
  • the optical system 402R is disposed on the front side of the first region 110L.
  • Light incident on the interchangeable lens unit 600 from the left half toward the subject is guided to the second region 110R by the optical system 401 and the optical system 402L.
  • Light incident on the interchangeable lens unit 600 from the right half toward the subject is guided to the first region 110L by the optical system 401 and the optical system 402R.
  • FIG. 16B is photographed as in the case of the three-dimensional optical system G, as shown in FIG.
  • the imaged optical image Q3 rotates 180 degrees compared to the subject.
  • FIG. 16D on the light receiving surface 110a, the left-eye optical image QL3 is formed in the second region 110R, and the right-eye optical image QR3 is formed in the first region 110L. Therefore, it differs from the three-dimensional optical system G of the interchangeable lens unit 200 in that the optical image is not rotated, and further differs in that the arrangement of the left-eye optical image and the right-eye optical image is switched.
  • the light from the subject is not reversed by two reflections, but the optical system in which the light from the subject is reflected an odd number of times.
  • the optical image may be reversed on the image sensor.
  • the three-dimensional optical system G7 of the interchangeable lens unit 700 shown in FIG. 17A has a left-eye optical system OL7 and a right-eye optical system OR7.
  • the left-eye optical system OL7 includes a front left-eye mirror 701, a first left-eye mirror 312, a second left-eye mirror 310, and an optical system 304.
  • the right-eye optical system OR3 includes a front right-eye mirror 702, a first right-eye mirror 308, a second right-eye mirror 306, and an optical system 302.
  • the interchangeable lens unit 700 differs from the above-described three-dimensional optical system G3 in that it includes a front left eye mirror 701 and a front right eye mirror 702.
  • the incident light in the right half toward the subject is guided to the second region 110R by the front left eye mirror 701, the first left eye mirror 312, the second left eye mirror 310, and the optical system 304.
  • incident light in the left half toward the subject passes through the front right eye mirror 702, the first right eye mirror 308, the second right eye mirror 306, and the optical system 302 and is guided to the first region 110L. That is, when the subject shown in FIG. 17B is photographed as in the case of the three-dimensional optical systems G and G3, the left-eye optical image QL4 is formed in the second region 110R as shown in FIG. 17C. Thus, the right-eye optical image QR4 is formed in the first region 110L.
  • 15C is further mirror-inverted left and right by the front left eye mirror 701 and the front right eye mirror 702.
  • an interchangeable lens unit 700 is attached to the camera body 100, if the same processing as that of the interchangeable lens unit 200 is performed in the camera body 100, a left-eye image in a stereo image (image reproduced by stereo image data)
  • image reproduced by stereo image data The arrangement of (image reproduced by image data for left eye) and image data for right eye (image reproduced by image data for right eye) is switched, which is not preferable.
  • the camera body 100 performs processing according to the characteristics of the interchangeable lens unit to be mounted by including the 180 degree rotation flag, the arrangement change flag, and the mirror inversion flag in the lens characteristic information F2. Can be changed.
  • the combinations of these 180 degree rotation flag, arrangement change flag, and mirror inversion flag can be patterns 1 to 8 shown in FIG.
  • the criteria for setting these flags will be described.
  • the status of the 180-degree rotation flag, the arrangement change flag, and the mirror inversion flag is set based on an image obtained by rotating the optical image formed on the image sensor when viewed from the back side of the camera by 180 degrees. I will decide. Of course, what kind of image is used as a reference can be arbitrarily selected.
  • FIG. 14 Check which of the patterns 1 to 8 shown in FIG. 13 corresponds to the configuration shown in FIGS. 14A, 15A, 16A, and 17A.
  • the picture shown in FIG. 14 (C) is rotated by 180 degrees, so the determination is made based on the picture shown in the upper part of FIG. Then, each flag becomes “no rotation”, “no arrangement change”, and “no mirror inversion”, and it is understood that the interchangeable lens unit 200 is an optical system of pattern 1.
  • the first region 110L is defined as a region for generating left-eye image data
  • the second region 110R is defined as a region for generating right-eye image data.
  • the determination criterion for the arrangement change flag is not the arrangement of the left and right appearances in the picture shown in FIG. 18, but the positional relationship between the first area 110L and the second area 110R. For example, if the left-eye optical image is formed in the second region 110R, the arrangement change flag becomes “with arrangement change”.
  • the lens state information F3 is standby information indicating whether or not the photographing state of the interchangeable lens unit 200 is ready, and is stored at a predetermined address in the RAM 240c as a photographing availability flag (an example of restriction information).
  • the state in which the photographing state of the three-dimensional optical system G is in place means, for example, that the initialization of the left-eye optical system OL, the right-eye optical system OR, the first drive unit 271 and the second drive unit 272 is completed. It means the state.
  • the shooting availability flag is a flag that can be recognized by the camera body even when the camera body does not support 3D shooting.
  • the camera body restricts photographing, so the lens state information F3 can also be referred to as restriction information for restricting photographing with the camera body.
  • restriction information in addition to the above-described standby information, for example, error information indicating an error of the interchangeable lens unit 200 can be considered.
  • the lens controller 240 determines whether or not the camera body is compatible with three-dimensional imaging. Specifically, as illustrated in FIG. 5, the lens controller 240 includes a lens side determination unit 244 and a state information generation unit 243. The lens side determination unit 244 determines whether or not the camera body 100 is compatible with three-dimensional imaging. More specifically, the lens-side determination unit 244 determines that the camera body supports three-dimensional imaging when a characteristic information transmission command that requests transmission of the lens characteristic information F2 is not sent from the camera body during a predetermined period. Judge that it is not.
  • the state information generation unit 243 is based on the state of the interchangeable lens unit 200 and the determination result of the lens side determination unit 244, and indicates whether or not the shooting state of the three-dimensional optical system G is ready (an example of restriction information). ) Status. Normally, when the initialization of each unit of the interchangeable lens unit 200 is completed, the state information generation unit 243 sets the photographing availability flag to “permitted”. However, for example, as illustrated in FIG. 7C, when the lens-side determination unit 244 determines that the camera body does not support 3D imaging, the state information generation unit 243 initializes each unit. Regardless of whether or not it is completed, the status of the photographing availability flag is set to “impossible”.
  • the status information generation unit 243 sets the status of the imaging availability flag to “OK” after the initialization of each unit is completed. Set to.
  • the camera body 100 includes a CMOS image sensor 110, a camera monitor 120, an electronic viewfinder 180, a display control unit 125, an operation unit 130, a card slot 170, a shutter unit 190, a body mount 150, A DRAM 141, an image processing unit 10, and a camera controller 140 (an example of a control unit) are provided. Each of these units is connected to the bus 20, and data can be transmitted / received to / from each other via the bus 20.
  • CMOS image sensor 110 The CMOS image sensor 110 converts an optical image of a subject (hereinafter also referred to as a subject image) formed by the interchangeable lens unit 200 into an image signal. As shown in FIG.
  • the CMOS image sensor 110 outputs an image signal based on the timing signal generated by the timing generator 112.
  • An image signal generated by the CMOS image sensor 110 is digitized by a signal processing unit 15 (described later) and converted into image data.
  • Still image data and moving image data can be acquired by the CMOS image sensor 110.
  • the acquired moving image data is also used for displaying a through image.
  • the through image is an image that is not recorded in the memory card 171 in the moving image data.
  • the through image is mainly a moving image, and is displayed on the camera monitor 120 or the electronic viewfinder (hereinafter also referred to as EVF) 180 in order to determine the composition of the moving image or the still image.
  • the CMOS image sensor 110 has the light receiving surface 110 a (see FIGS. 6 and 9) that receives the light transmitted through the interchangeable lens unit 200.
  • An optical image of the subject is formed on the light receiving surface 110a.
  • the first region 110L occupies the left half of the light receiving surface 110a
  • the second region 110R occupies the right half of the light receiving surface 110a.
  • a left-eye optical image is formed in the first region 110L
  • a right-eye optical image is formed in the second region 110R.
  • the CMOS image sensor 110 is an example of an image sensor that converts an optical image of a subject into an electrical image signal.
  • the imaging element is a concept including a photoelectric conversion element such as a CMOS image sensor 110 or a CCD image sensor.
  • the camera monitor 120 is a liquid crystal display, for example, and displays the display image data as an image.
  • the display image data is image data that has undergone image processing, data for displaying shooting conditions, operation menus, and the like of the digital camera 1 as images, and is generated by the camera controller 140.
  • the camera monitor 120 can selectively display both moving images and still images. As shown in FIG. 5, in this embodiment, the camera monitor 120 is disposed on the back surface of the camera body 100, but the camera monitor 120 may be disposed anywhere on the camera body 100.
  • the camera monitor 120 is an example of a display unit provided in the camera body 100.
  • the display unit other devices that can display an image, such as an organic EL, an inorganic EL, and a plasma display panel, can be used.
  • the electronic viewfinder 180 displays the display image data generated by the camera controller 140 as an image.
  • the EVF 180 can selectively display both moving images and still images. Further, the EVF 180 and the camera monitor 120 may display the same content or display different content, both of which are controlled by the display control unit 125.
  • Operation unit 130 As shown in FIGS. 1 and 2, the operation unit 130 includes a release button 131 and a power switch 132.
  • the release button 131 accepts a shutter operation by the user.
  • the power switch 132 is a rotary lever switch provided on the upper surface of the camera body 100.
  • the operation unit 130 only needs to accept an operation by the user, and includes a button, a lever, a dial, a touch panel, and the like.
  • the card slot 170 can be loaded with a memory card 171.
  • the card slot 170 controls the memory card 171 based on the control from the camera controller 140.
  • the card slot 170 stores image data in the memory card 171 and outputs image data from the memory card 171.
  • the card slot 170 stores moving image data in the memory card 171 and outputs moving image data from the memory card 171.
  • the memory card 171 can store image data generated by the camera controller 140 through image processing.
  • the memory card 171 can store an uncompressed RAW image file, a compressed JPEG image file, and the like.
  • the memory card 171 can store a stereo image file in a multi-picture format (MPF) format.
  • MPF multi-picture format
  • image data stored in advance can be output from the memory card 171 via the card slot 170.
  • the image data or image file output from the memory card 171 is subjected to image processing by the camera controller 140.
  • the camera controller 140 generates display image data by decompressing image data or an image file acquired from the memory card 171.
  • the memory card 171 can further store moving image data generated by the camera controller 140 through image processing.
  • the memory card 171 is a video compression standard H.264.
  • a moving image file compressed according to H.264 / AVC can be stored.
  • a stereo video file can also be stored.
  • the moving image data or moving image file stored in advance can be output from the memory card 171 via the card slot 170.
  • the moving image data or moving image file output from the memory card 171 is subjected to image processing by the camera controller 140.
  • the camera controller 140 performs a decompression process on the moving image data or the moving image file acquired from the memory card 171 to generate display moving image data.
  • Shutter unit 190 The shutter unit 190 is a so-called focal plane shutter, and is disposed between the body mount 150 and the CMOS image sensor 110 as shown in FIG.
  • the shutter unit 190 is charged by a shutter motor 199.
  • the shutter motor 199 is a stepping motor, for example, and is controlled by the camera controller 140.
  • Body mount 150 The body mount 150 can be mounted with the interchangeable lens unit 200, and holds the interchangeable lens unit 200 with the interchangeable lens unit 200 mounted.
  • the body mount 150 can be mechanically and electrically connected to the lens mount 250 of the interchangeable lens unit 200. Data and / or control signals can be transmitted and received between the camera body 100 and the interchangeable lens unit 200 via the body mount 150 and the lens mount 250. Specifically, the body mount 150 and the lens mount 250 transmit and receive data and / or control signals between the camera controller 140 and the lens controller 240.
  • Camera controller 140 controls the entire camera body 100.
  • the camera controller 140 is electrically connected to the operation unit 130.
  • An operation signal is input from the operation unit 130 to the camera controller 140.
  • the camera controller 140 uses the DRAM 141 as a work memory during a control operation or an image processing operation described later. Further, the camera controller 140 transmits a signal for controlling the interchangeable lens unit 200 to the lens controller 240 via the body mount 150 and the lens mount 250, and indirectly controls each part of the interchangeable lens unit 200.
  • the camera controller 140 receives various signals from the lens controller 240 via the body mount 150 and the lens mount 250.
  • the camera controller 140 includes a CPU (Central Processing Unit) 140a, a ROM (Read Only Memory) 140b, and a RAM (Random Access Memory) 140c, and is stored in the ROM 140b (an example of a computer-readable recording medium). Various functions can be realized by reading the program into the CPU 140a. (Details of camera controller 140) Here, the details of the function of the camera controller 140 will be described.
  • the camera controller 140 detects whether or not the interchangeable lens unit 200 is attached to the camera body 100 (more specifically, the body mount 150). Specifically, as shown in FIG. 6, the camera controller 140 has a lens detection unit 146. When the interchangeable lens unit 200 is mounted on the camera body 100, signals are transmitted and received between the camera controller 140 and the lens controller 240. The lens detection unit 146 determines whether or not the interchangeable lens unit 200 is attached based on signal transmission / reception.
  • the camera controller 140 has a function of determining whether or not the interchangeable lens unit attached to the body mount 150 is compatible with 3D imaging, and a function of acquiring information related to 3D imaging from the interchangeable lens unit. It has various functions.
  • the camera controller 140 includes an identification information acquisition unit 142, a characteristic information acquisition unit 143, a camera side determination unit 144, a state information acquisition unit 145, an area determination unit 149, a metadata generation unit 147, and an image file generation unit 148.
  • the identification information acquisition unit 142 acquires lens identification information F ⁇ b> 1 indicating whether or not the interchangeable lens unit 200 is compatible with three-dimensional imaging from the interchangeable lens unit 200 attached to the body mount 150. As shown in FIG.
  • the lens identification information F1 is information indicating whether or not the interchangeable lens unit mounted on the body mount 150 is compatible with three-dimensional imaging.
  • the lens controller 240 flashes.
  • the lens identification information F1 is a three-dimensional imaging determination flag stored at a predetermined address in the flash memory 242.
  • the identification information acquisition unit 142 temporarily stores the acquired lens identification information F1 in the DRAM 141, for example.
  • the camera side determination unit 144 determines whether or not the interchangeable lens unit 200 attached to the body mount 150 is compatible with three-dimensional imaging. .
  • the camera controller 140 allows execution of the 3D shooting mode.
  • the camera controller 140 restricts execution of the 3D shooting mode. In this case, the camera controller 140 allows execution of the two-dimensional imaging mode.
  • the characteristic information acquisition unit 143 acquires lens characteristic information F2 indicating the characteristics of the optical system mounted on the interchangeable lens unit 200 from the interchangeable lens unit 200. Specifically, the characteristic information acquisition unit 143 receives the lens characteristic information F2 from the interchangeable lens unit 200 when the camera-side determination unit 144 determines that the interchangeable lens unit 200 is compatible with three-dimensional imaging. get. The characteristic information acquisition unit 143 temporarily stores the acquired lens characteristic information F2 in the DRAM 141, for example.
  • the characteristic information acquisition unit 143 includes a rotation information acquisition unit 143a, an arrangement information acquisition unit 143b, and a reverse information acquisition unit 143c.
  • the rotation information acquisition unit 143a acquires status information (an example of rotation information) of the 180-degree rotation flag of the lens characteristic information F2 from the interchangeable lens unit attached to the body mount 150.
  • the 180-degree rotation flag indicates whether or not the interchangeable lens unit forms an optical image rotated with respect to the subject on the image sensor. Specifically, the 180-degree rotation flag indicates whether the interchangeable lens unit has an optical system such as the three-dimensional optical system G or a three-dimensional optical system G4 (an example of a second stereoscopic imaging optical system described later, FIG. 16).
  • the 180-degree rotation flag it is necessary to rotate the extraction region when extracting the left-eye image data and the right-eye image data. More specifically, if the 180-degree rotation flag is set, it is necessary to change from the position based on the start position of the extraction process when extracting the image data for the left eye and the image data for the right eye.
  • the arrangement information acquisition unit 143b acquires the status (an example of arrangement information) of the arrangement change flag of the lens characteristic information F2 from the interchangeable lens unit attached to the body mount 150.
  • the arrangement flag indicates whether the positional relationship between the left-eye optical image formed by the left-eye optical system and the right-eye optical image formed by the right-eye optical system is switched between right and left.
  • the arrangement flag has an interchangeable lens unit having an optical system such as a three-dimensional optical system G, or an optical system such as a later-described three-dimensional optical system G3 (see FIG. 15).
  • the arrangement flag Indicates whether or not If the arrangement flag is set, it is necessary to switch the positional relationship between the left image data extraction area and the right eye image data extraction area when extracting the left eye image data and the right eye image data. More specifically, if the arrangement flag is set, when extracting the left-eye image data and the right-eye image data, the start point position of the left-eye image data extraction process and the start point of the right-eye image data extraction process are extracted. Each position needs to be changed.
  • the inversion information acquisition unit 143c acquires the status of the mirror inversion flag (part of the inversion information) from the interchangeable lens unit attached to the body mount 150.
  • the mirror inversion flag indicates whether the left-eye optical image and the right-eye optical image are mirror-inverted on the image sensor. If the mirror inversion flag is set, when extracting the image data for the left eye and the image data for the right eye, it is necessary to perform mirror inversion of the extraction regions to the left and right respectively. More specifically, if the mirror inversion flag is set, when the left-eye image data and the right-eye image data are extracted, the start position of the left-side image data extraction process and the right-eye image data extraction process are extracted. It is necessary to change the start point position.
  • the state information acquisition unit 145 acquires the lens state information F3 (shooting permission / inhibition flag) generated by the state information generation unit 243. This lens state information F3 is used to determine whether or not the interchangeable lens unit 200 is ready for photographing.
  • the state information acquisition unit 145 temporarily stores the acquired lens state information F3 in the DRAM 141, for example.
  • the region determination unit 149 determines the sizes and positions of the extraction regions AL2 and AR2 used when the image extraction unit 16 extracts the left-eye image data and the right-eye image data. Specifically, the region determination unit 149 determines the image for the left eye based on the radius r of the image circle IL and IR, the left eye shift amount DL, the right eye shift amount DR, and the tilt angle ⁇ 2 included in the lens characteristic information F2. The size and position of the extraction areas AL2 and AR2 of the data and the right-eye image data are determined. Further, the region determination unit 149 determines whether the image data for the left eye and the image data for the right eye are correctly extracted based on the 180 degree rotation flag, the arrangement change flag, and the mirror inversion flag of the lens characteristic information F2.
  • the starting point of the extraction process in is determined.
  • the image extraction unit 16 sets the start point of the left eye image data extraction area AL2 to the point PL11, and sets the start point of the right eye image data extraction area AR2 to the point PR11.
  • the image extraction unit 16 sets the start point of the extraction area AL2 to the point PL21 and sets the start point of the extraction area AR2 to the point PR21.
  • the image extraction unit 16 sets the start point of the extraction area AL2 to the point PL41 and sets the start point of the extraction area AR2 to the point PR41.
  • the image extraction unit 16 sets the start point of the extraction area AL2 to the point PL31 and sets the start point of the extraction area AR2 to the point PR31. In this way, by changing the starting point of the extraction process based on the status of each flag, the image extraction unit 16 extracts the image data for the left eye and the image data for the right eye according to the type of the optical system of the interchangeable lens unit. Can be done correctly.
  • the metadata generation unit 147 generates metadata in which the base line length and the convergence angle are set. The baseline length and the convergence angle are used when displaying a stereo image.
  • the image file generation unit 148 generates MPF format stereo image files by combining the left-eye and right-eye image data compressed by the image compression unit 17 (described later) and the metadata. The generated image file is transmitted to, for example, the card slot 170 and stored in the memory card 171.
  • Image processing unit 10 includes a signal processing unit 15, an image extraction unit 16, a correction processing unit 18, and an image compression unit 17.
  • the signal processing unit 15 digitizes an image signal generated by the CMOS image sensor 110 and generates basic image data of an optical image formed on the CMOS image sensor 110.
  • the signal processing unit 15 converts an image signal output from the CMOS image sensor 110 into a digital signal, and performs digital signal processing such as noise removal and contour enhancement on the digital signal.
  • the image data generated by the signal processing unit 15 is temporarily stored in the DRAM 141 as RAW data.
  • the image data generated by the signal processing unit 15 is referred to as basic image data.
  • the image extraction unit 16 extracts left-eye image data and right-eye image data from the basic image data generated by the signal processing unit 15.
  • the left-eye image data corresponds to a part of the left-eye optical image QL1 formed by the left-eye optical system OL.
  • the right-eye image data corresponds to a part of the right-eye optical image QR1 formed by the right-eye optical system OR.
  • the image extraction unit 16 Based on the extraction areas AL2 and AR2 determined by the area determination unit 149, the image extraction unit 16 extracts left-eye image data and right-eye image data from the basic image data stored in the DRAM 141.
  • the left-eye image data and right-eye image data extracted by the image extraction unit 16 are temporarily stored in the DRAM 141.
  • the correction processing unit 18 performs correction processing such as distortion correction and shading correction on each of the extracted left-eye image data and right-eye image data. After the correction process, the image data for the left eye and the image data for the right eye are temporarily stored in the DRAM 141.
  • the image compression unit 17 performs compression processing on the corrected left-eye image data and right-eye image data stored in the DRAM 141 based on a command from the camera controller 140. By this compression processing, the data size of the image data becomes smaller than the original data size.
  • a method for compressing image data for example, a JPEG (Joint Photographic Experts Group) method for compressing each frame of image data can be considered.
  • the compressed left-eye image data and right-eye image data are temporarily stored in the DRAM 141.
  • the lens identification information F1 is acquired from the interchangeable lens unit 200 by the identification information acquisition unit 142 of the camera controller 140 (step S2).
  • the camera controller 140 transmits a type confirmation command to the lens controller 240.
  • This type confirmation command is a command for requesting the lens controller 240 to transmit the status of the three-dimensional imaging determination flag of the lens identification information F1.
  • the lens controller 240 since the interchangeable lens unit 200 supports 3D imaging, the lens controller 240 receives the lens identification information F1 (3D imaging determination flag) when receiving the type confirmation command. Send to.
  • the identification information acquisition unit 142 temporarily stores the status of the three-dimensional imaging determination flag in the DRAM 141.
  • normal initial communication is executed between the camera body 100 and the interchangeable lens unit 200 (step S3).
  • the normal initial communication is communication performed between an interchangeable lens unit and a camera body that are not compatible with three-dimensional imaging.
  • information (focal length, F value, etc.) on the specifications of the interchangeable lens unit 200 is the interchangeable lens unit. 200 to the camera body 100.
  • the camera side determination unit 144 determines whether or not the interchangeable lens unit 200 attached to the body mount 150 is compatible with three-dimensional imaging (step S4). Specifically, based on the lens identification information F1 (three-dimensional imaging determination flag) acquired by the identification information acquisition unit 142, it is determined whether the mounted interchangeable lens unit 200 is compatible with three-dimensional imaging. It is determined by the side determination unit 144.
  • step S10 the interchangeable lens unit is ready for photographing, a normal two-dimensional photographed image is displayed in live view on the camera monitor 120, and the digital camera 1 is ready for photographing (step S17 in FIG. 21).
  • the lens characteristic information F2 is acquired from the interchangeable lens unit 200 by the characteristic information acquisition unit 143 (step S5). ). Specifically, as shown in FIG. 8B, a characteristic information transmission command is transmitted from the characteristic information acquisition unit 143 to the lens controller 240. This characteristic information transmission command is a command for requesting transmission of the lens characteristic information F2.
  • the lens-side determination unit 244 determines that the camera body does not support 3D shooting when the characteristic information transmission command is not sent from the camera body during a predetermined period (see FIG. 8A). ).
  • the lens-side determination unit 244 of the lens controller 240 receives the above-described characteristic information transmission command
  • the lens-side determination unit 244 determines that the camera body 100 is compatible with three-dimensional imaging (8 ( B)).
  • the lens controller 240 transmits the lens characteristic information F2 to the characteristic information acquisition unit 143 of the camera controller 140.
  • the characteristic information acquisition unit 143 stores the lens characteristic information F2 in the DRAM 141, for example. As shown in FIG.
  • the size and extraction method of the extraction areas AL2 and AR2 are determined by the image extraction unit 16 based on the lens characteristic information F2 (steps S6 and S7). For example, as described above, based on the optical axis position, the imaging effective area (radius r), the left eye deviation amount DL, the right eye deviation amount DR, the 180 degree rotation flag, the arrangement change flag, and the mirror inversion flag, the extraction area AL2
  • the area determination unit 149 determines an extraction method for extracting the image of the size and position of AR2 and the extraction areas AL2 and AR2 as the right-eye image, rotating the image, or mirror-inverting the image. . Specifically, an extraction method that determines the starting point of the extraction process, the direction of the extraction process, and the like is determined.
  • the state information acquisition unit 145 confirms whether or not the interchangeable lens unit is in a photographing enabled state (step S11). Specifically, in the interchangeable lens unit 200, when the lens-side determination unit 244 receives the above-described characteristic information transmission command, the lens-side determination unit 244 determines that the camera body 100 is compatible with 3D imaging (8). (See (B)). On the other hand, the lens-side determination unit 244 determines that the camera body does not support 3D imaging when the characteristic information transmission command is not sent from the camera body during a predetermined period (see FIG. 8A). ).
  • the state information generation unit 243 sets the status of a shooting availability flag (an example of restriction information) indicating whether or not the shooting state of the three-dimensional optical system G is ready based on the determination result of the lens side determination unit 244. To do.
  • the state information generation unit 243 sets the imaging availability flag after completion of initialization of each unit. Set the status to “Yes”.
  • the state information generation unit 243 completes initialization of each unit. Regardless of whether or not it is present, the status of the photographing availability flag is set to “impossible”.
  • the state information generation unit 243 of the interchangeable lens unit 200 Transmits the status information of the photographing availability flag to the camera controller 140.
  • the status information acquisition unit 145 temporarily stores the status information of the photographing availability flag transmitted from the lens controller 240 at a predetermined address of the DRAM 141.
  • the state information acquisition unit 145 determines whether the interchangeable lens unit 200 is in a photographing enabled state (step S12). When the interchangeable lens unit 200 is not ready for photographing, the processes of step S11 and step S12 are repeated at a predetermined cycle. On the other hand, when the interchangeable lens unit 200 is ready for photographing, one of the left-eye image data and the right-eye image data is selected as an image for live view display (step S13). For example, the user may be allowed to select from left-eye and right-eye image data, or the one determined in advance by the camera controller 140 may be set for display. The selected image data is set as a display image and extracted by the image extraction unit 16 (step S14A or 14B).
  • correction processing such as distortion correction and shading correction is performed on the extracted image data by the correction processing unit 18 (step S15).
  • the display control unit 125 performs size adjustment processing on the corrected image data to generate display image data (step S16).
  • This display image data is temporarily stored in the DRAM 141.
  • the display image data generated in step S16 is displayed as a visible image on the camera monitor 120 (step S17).
  • Step S17 for example, the left image, the right eye image, the left eye image and the right eye image combined on the camera monitor 120, or the left eye image and the right eye image 3 are used.
  • Dimension display is displayed live view.
  • step S21 and S22 When the user presses the release button 131, autofocus (AF) and automatic exposure (AE) are executed, and then exposure is started (steps S21 and S22).
  • An image signal (data of all pixels) is taken into the signal processing unit 15 from the CMOS image sensor 110, and signal processing such as AD conversion is performed on the image signal in the signal processing unit 15 (steps S23 and S24).
  • the basic image data generated by the signal processing unit 15 is temporarily stored in the DRAM 141.
  • the image extraction unit 16 extracts left-eye image data and right-eye image data from the basic image data (step S25).
  • the values determined in steps S6 and S7 are used for the sizes, positions, and extraction methods of the extraction areas AL2 and AR2 at this time.
  • a motion vector may be calculated from the basic image, and the positions of the extraction areas AL2 and AR2 may be adjusted using the motion vector.
  • the correction processing unit 18 performs correction processing on the extracted left-eye image data and right-eye image data
  • the image compression unit 17 performs compression processing such as JPEG compression on the left-eye image data and right-eye image data. This is performed on the image data (steps S26 and S27).
  • the metadata generation unit 147 of the camera controller 140 generates metadata in which the base line length and the convergence angle are set (step S28).
  • the image file generation unit 148 generates an image file in MPF format by combining the compressed image data for left eye and right eye and the metadata (step S29).
  • the generated image file is transmitted to, for example, the card slot 170 and stored in the memory card 171.
  • this image file is three-dimensionally displayed using the base line length and the convergence angle, the displayed image can be stereoscopically viewed using dedicated glasses or the like.
  • the lens identification information is acquired by the identification information acquisition unit 142 from the interchangeable lens unit attached to the body mount 150.
  • the identification information acquisition unit 142 acquires the lens identification information F1 indicating whether or not the interchangeable lens unit 200 is compatible with three-dimensional imaging from the interchangeable lens unit 200 attached to the body mount 150.
  • the camera-side determination unit determines that the interchangeable lens unit 200 supports three-dimensional imaging based on the lens identification information F1.
  • the camera side determination unit 144 determines that the interchangeable lens unit does not support 3D shooting based on the lens identification information F1. to decide.
  • the camera main body 100 can correspond to various interchangeable lens units such as an interchangeable lens unit compatible with three-dimensional imaging and an incompatible lens unit.
  • the lens information F2 indicating the characteristics of the interchangeable lens unit is acquired by the characteristics information acquisition unit 143.
  • the lens characteristic information F2 indicating the characteristics of the three-dimensional optical system G mounted on the interchangeable lens unit 200 is acquired from the interchangeable lens unit 200 by the characteristic information acquisition unit 143. Therefore, operations such as image processing in the camera body 100 can be adjusted according to the characteristics of the three-dimensional optical system mounted on the interchangeable lens unit.
  • the camera side determination unit 144 determines that the interchangeable lens unit mounted on the body mount 150 is compatible with three-dimensional imaging
  • the lens characteristic information F2 is obtained from the interchangeable lens unit by the characteristic information acquisition unit 143. To be acquired. Therefore, when the interchangeable lens unit is not compatible with three-dimensional imaging, it is possible to omit the exchange of extra data, and it can be expected that the processing in the camera body 100 is accelerated.
  • the region determination unit 149 uses the radius r, the left eye shift amount DL, the right eye shift amount DR, and the tilt angle ⁇ 2, and the left eye image data and the right eye image for the image signal.
  • the sizes and positions of the data extraction areas AL2 and AR2 are determined. Therefore, it is possible to suppress the left eye image data and right eye image data extraction areas AL2 and AR2 from being greatly deviated from the areas to be actually extracted due to individual differences or attachment errors of the interchangeable lens units. Thereby, the deterioration of the quality of the stereo image resulting from the individual difference of a product can be suppressed.
  • the region determination unit 149 determines the extraction method (for example, the starting point of the extraction process, the direction of the process, etc.). .
  • the camera controller 140 an example of a control unit
  • appropriate stereo image data can be generated.
  • the region determination unit 149 determines the extraction method based on the 180-degree rotation flag. Therefore, even if an interchangeable lens unit that forms an optical image rotated with respect to the subject on the light receiving surface 110a is attached to the body mount 150 (for example, as shown in FIGS. 16A to 16D), the left side The image extraction unit 16 generates left-eye image data and right-eye image data so that the top and bottom of a pair of images reproduced by the eye image data and right-eye image data match the top and bottom of the subject. can do. Therefore, the stereo image can be prevented from being turned upside down no matter what interchangeable lens unit 200 is attached to the body mount 150. (6) Also, the region determination unit 149 determines the starting point of the extraction process based on the arrangement change flag.
  • the interchangeable lens unit 200 attached to the body mount 150 forms the left-eye optical system OL (first optical system) that forms the left-eye optical image QL1 in the first region 110L.
  • a right-eye optical system OR (an example of a second optical system) that forms the right-eye optical image QR1 in the second region 110R.
  • left-eye image data can be generated from the image signal corresponding to the first region 110L
  • right-eye image data can be generated from the image signal corresponding to the second region 110R.
  • the interchangeable lens unit 300 attached to the body mount 150 forms the left-eye optical system OL3 (third optical system) that forms the left-eye optical image QL2 in the second region 110R.
  • the right-eye optical system OR3 (an example of the fourth optical system) that forms the right-eye optical image QR2 in the first region 110L.
  • Image data for the left eye can be generated from an image signal corresponding to the second area 110R
  • image data for the right eye can be generated from an image signal corresponding to the first area 110L.
  • this camera body 100 when an interchangeable lens unit is mounted such that the positional relationship between the left-eye optical image and the right-eye optical image on the light receiving surface 110a of the CMOS image sensor 110 is switched. Even in such a case, image data for the left eye is generated based on the optical image for the left eye, and image data for the right eye is generated based on the optical image for the right eye. Therefore, no matter what interchangeable lens unit is attached to the body mount 150, the positional relationship between the viewpoint of the left-eye image data and the viewpoint of the right-eye image data is prevented from being switched when performing three-dimensional imaging. it can.
  • the image extraction unit 16 determines the starting point of the extraction process based on the mirror inversion flag. Therefore, even if the interchangeable lens unit that mirrors the left-eye optical image corresponding to the left-eye image data on the light receiving surface 110a with respect to the subject is mounted on the body mount 150, it is reproduced with the left-eye image data.
  • the image extraction unit 16 can generate image data for the left eye so that the top and bottom and the left and right of the left-eye image coincide with the top and bottom and the left and right of the subject. Even when the interchangeable lens unit 200 that mirrors the right-eye optical image corresponding to the right-eye image data on the light receiving surface 110a with respect to the subject is mounted on the body mount 150, the right-eye image data is reproduced.
  • the image extraction unit 16 can generate right-eye image data so that the vertical and horizontal sides of the right-eye image coincide with the vertical and horizontal sides of the subject.
  • the camera controller 140 restricts execution of the 3D imaging mode at least until an operation by the user is performed. Therefore, the camera body 100 can prevent an image that is undesirable for stereoscopic viewing from being taken.
  • the camera body 100 can support various interchangeable lens units such as an interchangeable lens unit compatible with three-dimensional imaging and an incompatible lens unit. .
  • the interchangeable lens unit 200 also has the following characteristics. (1) In the interchangeable lens unit 200, when the lens body determination unit 244 determines that the camera body 100 is not compatible with three-dimensional imaging, the imaging of the three-dimensional optical system G is performed according to the state information transmission command.
  • the status information generation unit 243 transmits status information (an example of restriction information) of a photographing availability flag indicating that the state is not ready to the camera body. Therefore, it is possible to prevent the two-dimensional photographing from being erroneously performed by the optical system for three-dimensional photographing.
  • the lens side determination unit 244 determines that the camera body does not support 3D imaging. Therefore, even if the camera body does not assume 3D shooting at all, the interchangeable lens unit 200 can determine that the camera body does not support 3D shooting.
  • the interchangeable lens unit 200 is described as an example, but the configuration of the three-dimensional optical system is not limited to the above-described embodiment.
  • the three-dimensional optical system may have other configurations as long as one image sensor can cope with it.
  • the three-dimensional optical system G is not limited to the juxtaposed shooting method, and for example, a time-division shooting method may be adopted as the optical system of the interchangeable lens unit.
  • the normal juxtaposed photographing method is described as an example, but the horizontal compression juxtaposed photographing method in which the images for the left eye and the right eye are compressed in the horizontal direction, or for the left eye and the right
  • a rotational juxtaposition imaging method in which the ophthalmic image is rotated by 90 degrees may be employed.
  • step S3 The flowcharts shown in FIGS. 20 to 22 are examples, and the flowcharts are not limited to these.
  • the normal initial communication (step S3) shown in FIG. 20 may be executed by step S14 for acquiring the lens state.
  • step S14 the processing of steps S6 to S13 shown in FIG. 20 may be executed after step S14.
  • the camera-side determination unit 144 determines whether or not the interchangeable lens unit is compatible with three-dimensional imaging based on the three-dimensional imaging determination flag of the lens identification information F1. That is, the camera-side determination unit 144 performs determination based on information that the interchangeable lens unit is compatible with three-dimensional imaging. However, whether or not the interchangeable lens unit is compatible with three-dimensional imaging may be determined using other information. For example, when the information indicating that the interchangeable lens unit is compatible with two-dimensional imaging is included in the lens identification information F1, it may be determined that the interchangeable lens unit does not support three-dimensional imaging. .
  • the interchangeable lens unit may be determined whether or not the interchangeable lens unit supports three-dimensional imaging based on a lens ID stored in advance in the lens controller 240 of the interchangeable lens unit.
  • the lens ID may be information that can identify the interchangeable lens unit.
  • the lens ID for example, the model number of the product of the interchangeable lens unit can be considered.
  • the camera controller 140 stores a list of lens IDs in advance. This list shows which interchangeable lens units support 3D shooting. Compare this list with the lens ID obtained from the interchangeable lens unit, and the interchangeable lens unit supports 3D shooting. Whether or not the camera side determination unit 144 determines. Thus, it is possible to determine whether or not the interchangeable lens unit is compatible with three-dimensional imaging using the lens ID. Note that this list may be updated to the latest list by updating the software of the camera controller 140, for example.
  • the camera body disclosed herein can be used for various interchangeable lens units.
  • the interchangeable lens unit disclosed herein can be used for various camera bodies. Therefore, the imaging apparatus having the camera body and the interchangeable lens unit disclosed herein can correctly capture a stereo image. That is, the technology disclosed herein can be applied to a camera body, an interchangeable lens unit, and an imaging device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Structure And Mechanism Of Cameras (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Accessories Of Cameras (AREA)

Abstract

 カメラ本体(100)は、ボディマウント(150)と、CMOSイメージセンサー(110)と、識別情報取得部(142)と、を備えている。ボディマウント(150)は交換レンズユニット(200)を装着可能に設けられている。CMOSイメージセンサー(110)は光学像を画像信号に変換する。識別情報取得部(142)は、交換レンズユニット(200)が3次元撮影に対応しているか否かを示すレンズ識別情報(F1)を、ボディマウント(150)に装着されている交換レンズユニット(200)から取得可能である。

Description

カメラ本体、交換レンズユニット、撮像装置、カメラ本体の制御方法、交換レンズユニットの制御方法、プログラムおよびプログラムを記録した記録媒体
 ここに開示されている技術は、交換レンズユニットを装着可能なカメラ本体、交換レンズユニットおよび撮像装置に関する。また、ここに開示されている技術は、カメラ本体の制御方法、交換レンズユニットの制御方法、プログラムおよびプログラムを記録した記録媒体に関する。
 撮像装置として、例えばレンズ交換式のデジタルカメラが知られている。レンズ交換式のデジタルカメラは、交換レンズユニットと、カメラ本体と、を備えている。このカメラ本体は、CCD(Charge Coupled Device)イメージセンサーやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサーなどの撮像素子を有している。撮像素子は交換レンズユニットで形成された光学像を画像信号に変換する。こうして、被写体の画像データを取得することができる。
特開平7-274214号公報 特開2003-92770号公報
 ところで、近年、いわゆる3次元表示用のディスプレイの開発が進められている。それに伴い、いわゆるステレオ画像データ(左眼用画像および右眼用画像を含む3次元表示用の画像データ)を生成する撮像装置の開発も進められている。
 しかし、視差を有するステレオ画像を生成するためには、3次元撮影用の光学系を用いる必要がある。
 そこで、3次元撮影用のアダプタの着脱に基づいて2次元撮影モードと3次元撮影モードとを自動的に切り替えるビデオカメラが提案されている(例えば、特許文献1を参照)。
 しかし、特許文献1に記載のビデオカメラでは、通常の光学系の前側に単に3次元撮影用の光学系を装着するだけである。したがって、レンズ交換式の撮像装置にこのような技術を採用したとしても、3次元撮影に対応している交換レンズユニットも含めて、様々な交換レンズユニットにカメラ本体を対応させることができない。
 また、特許文献2には、時分割撮影方式が採用された3次元撮影用の光学系をレンズ交換式カメラに用いることが記載されている。
 しかし、特許文献2では、3次元撮影に対応している交換レンズユニットや対応していない交換レンズユニットなど、様々な交換レンズユニットに対応可能なカメラ本体は具体的に提案がなされていない。
 また、3次元撮影用の交換レンズユニットが3次元撮影に対応していないカメラ本体に装着される場合も今後は想定される。このような場合に、撮影が行われてしまうと、3次元表示に適さない画像データを取得してしまったり、あるいは、2次元表示にも適さない画像データを取得してしまったりする。したがって、様々なカメラ本体に対応可能な交換レンズユニットが求められている。
 第1の特徴に係るカメラ本体は、ボディマウントと、撮像素子と、識別情報取得部と、を備えている。ボディマウントは交換レンズユニットを装着可能に設けられている。撮像素子は光学像を画像信号に変換する。識別情報取得部は、交換レンズユニットが3次元撮影に対応しているか否かを示すレンズ識別情報を、ボディマウントに装着されている交換レンズユニットから取得可能である。
 このカメラ本体では、ボディマウントに装着されている交換レンズユニットから識別情報取得部によりレンズ識別情報が取得される。このため、3次元撮影に対応している交換レンズユニットがボディマウントに装着されると、レンズ識別情報に基づいて交換レンズユニットが3次元撮影に対応していると判断することができる。逆に、3次元撮影に対応していない交換レンズユニットがカメラ本体に装着されると、レンズ識別情報に基づいて交換レンズユニットが3次元撮影に対応していないと判断することができる。
 このように、このカメラ本体であれば、3次元撮影に対応している交換レンズユニットや対応していない交換レンズユニットなど、様々な交換レンズユニットに対応することができる。
 第2の特徴に係るカメラ本体は、ボディマウントと、撮像素子と、制御部と、を備えている。ボディマウントは交換レンズユニットを装着可能に設けられている。撮像素子は、光学像を受ける受光面を有しており、光学像を画像信号に変換する。制御部は撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する。受光面は、第1領域と、第1領域に隣接して配置された第2領域と、を有している。ボディマウントに装着されている交換レンズユニットが、左眼用光学像を第1領域に形成する第1光学系と、右眼用光学像を第2領域に形成する第2光学系と、を有している場合、制御部は、第1領域に対応する画像信号から左眼用画像データを生成し、かつ、第2領域に対応する画像信号から右眼用画像データを生成する。ボディマウントに装着されている交換レンズユニットが、左眼用光学像を第2領域に形成する第3光学系と、右眼用光学像を第1領域に形成する第4光学系と、を有している場合、制御部は、第2領域に対応する画像信号から左眼用画像データを生成し、かつ、第1領域に対応する画像信号から右眼用画像データを生成する。
 このカメラ本体では、交換レンズユニットが第1および第2光学系を有している場合や、交換レンズユニットが第3および第4光学系を有している場合でも、カメラ本体により左眼用画像データおよび右眼用画像データを正しく生成できる。したがって、このカメラ本体は、様々な交換レンズユニットに対応することができる。
 第3の特徴に係るカメラ本体は、ボディマウントと、撮像素子と、制御部と、を備えている。ボディマウントは交換レンズユニットを装着可能に設けられている。撮像素子は、光学像を受ける受光面を有しており、光学像を画像信号に変換する。制御部は、撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する。制御部は、被写体に対して回転された光学像を受光面上に形成する交換レンズユニットがボディマウントに装着された場合、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように左眼用画像データおよび右眼用画像データを生成する。制御部は、ボディマウントに装着されている交換レンズユニットが、被写体に対して回転された光学像を受光面上に形成する第1立体撮影光学系を有している場合、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように左眼用画像データおよび右眼用画像データを生成する。制御部は、ボディマウントに装着されている交換レンズユニットが、受光面上において被写体に対して光学像を回転させない第2立体撮影光学系を有している場合、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように左眼用画像データおよび右眼用画像データを生成する。
 このカメラ本体では、被写体に対して回転された光学像を受光面上に形成する交換レンズユニットがボディマウントに装着された場合、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように、制御部により左眼用画像データおよび右眼用画像データが生成される。具体的には、ボディマウントに装着されている交換レンズユニットが、被写体に対して回転された光学像を受光面上に形成する第1立体撮影光学系を有している場合、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように左眼用画像データおよび右眼用画像データが制御部により生成される。また、ボディマウントに装着されている交換レンズユニットが、受光面上において被写体に対して光学像を回転させない第2立体撮影光学系を有している場合、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように左眼用画像データおよび右眼用画像データが制御部により生成される。したがって、このカメラ本体は、様々な交換レンズユニットに対応することができる。
 ここで、「左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致する」とは、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と完全に一致している場合の他に、様々な交換レンズユニットに対応することができるという効果が得られる範囲内で、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下とずれている場合も含まれる。
 また、「左眼用画像データおよび右眼用画像データで再現される1対の画像」とは、例えば、カメラ本体に搭載された表示部やカメラ本体とは別に設けられた表示装置に表示される立体視用のステレオ画像を意味している。例えば、表示部や表示装置の画面の長手方向が水平方向と一致する状態を基準として、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するか否かを判断することができる。
 第4の特徴に係るカメラ本体は、ボディマウントと、撮像素子と、制御部と、を備えている。ボディマウントは交換レンズユニットを装着可能に設けられている。撮像素子は、光学像を受ける受光面を有しており、光学像を画像信号に変換する。制御部は、撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する。左眼用画像データに対応する左眼用光学像を被写体に対して受光面上でミラー反転させる交換レンズユニットがボディマウントに装着された場合、左眼用画像データで再現される左眼用画像の上下および左右が被写体の上下および左右と概ね一致するように、制御部は左眼用画像データを生成する。
 このカメラ本体では、左眼用画像データに対応する左眼用光学像を被写体に対して受光面上でミラー反転させる交換レンズユニットがボディマウントに装着された場合、左眼用画像データで再現される左眼用画像の上下および左右が被写体の上下および左右と概ね一致するように、制御部により左眼用画像データが生成される。したがって、このカメラ本体は、様々な交換レンズユニットに対応することができる。
 ここで、「左眼用画像データで再現される左眼用画像の上下および左右が被写体の上下および左右と概ね一致する」とは、左眼用画像データで再現される左眼用画像の上下および左右が被写体の上下および左右と完全に一致している場合の他に、様々な交換レンズユニットに対応することができるという効果が得られる範囲内で、左眼用画像データで再現される左眼用画像の上下および左右が被写体の上下および左右とずれている場合も含まれる。
 また、「左眼用画像データで再現される左眼用画像」とは、例えば、カメラ本体に搭載された表示部やカメラ本体とは別に設けられた表示装置に表示される左眼用画像を意味している。例えば、表示部や表示装置の画面の長手方向が水平方向と一致する状態を基準として、左眼用画像データで再現される左眼用画像の上下および左右が被写体の上下および左右と概ね一致するか否かを判断することができる。
 第5の特徴に係るカメラ本体は、ボディマウントと、撮像素子と、制御部と、を備えている。ボディマウントは交換レンズユニットを装着可能に設けられている。撮像素子は、光学像を受ける受光面を有しており、光学像を画像信号に変換する。制御部は、右眼用画像データに対応する右眼用光学像を被写体に対して受光面上でミラー反転させる交換レンズユニットがボディマウントに装着された場合、右眼用画像データで再現される右眼用画像の上下および左右が被写体の上下および左右と概ね一致するように右眼用画像データを生成する。
 このカメラ本体では、右眼用画像データに対応する右眼用光学像を被写体に対して受光面上でミラー反転させる交換レンズユニットがボディマウントに装着された場合、右眼用画像データで再現される右眼用画像の上下および左右が被写体の上下および左右と概ね一致するように、制御部により右眼用画像データが生成される。したがって、このカメラ本体は、様々な交換レンズユニットに対応することができる。
 ここで、「右眼用画像データで再現される右眼用画像の上下および左右が被写体の上下および左右と概ね一致する」とは、右眼用画像データで再現される右眼用画像の上下および左右が被写体の上下および左右と完全に一致している場合の他に、様々な交換レンズユニットに対応することができるという効果が得られる範囲内で、右眼用画像データで再現される右眼用画像の上下および左右が被写体の上下および左右とずれている場合も含まれる。
 また、「右眼用画像データで再現される右眼用画像」とは、例えば、カメラ本体に搭載された表示部やカメラ本体とは別に設けられた表示装置に表示される右眼用画像を意味している。例えば、表示部や表示装置の画面の長手方向が水平方向と一致する状態を基準として、右眼用画像データで再現される右眼用画像の上下および左右が被写体の上下および左右と概ね一致するか否かを判断することができる。
 第6の特徴に係るカメラ本体は、ボディマウントと、撮像素子と、制御部と、を備えている。ボディマウントは交換レンズユニットを装着可能に設けられている。撮像素子は光学像を画像信号に変換する。制御部は、3次元撮影に対応していない交換レンズユニットがボディマウントに装着された場合、少なくともユーザーによる操作が行われるまでは3次元撮影モードの実行を制限する。
 このカメラ本体では、3次元撮影に対応していない交換レンズユニットがボディマウントに装着された場合、少なくともユーザーによる操作が行われるまでは3次元撮影モードの実行が制御部により制限される。したがって、このカメラ本体は、様々な交換レンズユニットに対応することができる。
 第7の特徴に係る交換レンズユニットは、3次元光学系と、レンズ側判定部と、状態情報生成部と、を備えている。3次元光学系は被写体の立体視用光学像を形成する。レンズ側判定部はカメラ本体が3次元撮影に対応しているか否かを判定する。状態情報生成部は、レンズ側判定部によりカメラ本体が3次元撮影に対応していないと判定された場合に、カメラ本体での撮影を制限する制限情報を生成する。
 この交換レンズユニットでは、レンズ側判定部によりカメラ本体が3次元撮影に対応していないと判定された場合に、カメラ本体での撮影を制限する制限情報が生成する。したがって、誤って3次元光学系を用いてカメラ本体により2次元撮影が行われるのを防止することができる。つまり、この交換レンズユニットでは、3次元撮影に対応しているカメラ本体や対応していないカメラ本体など、様々なカメラ本体に対応することができる。
 第8の特徴に係る制御方法は、交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法であって、交換レンズユニットが3次元撮影に対応しているか否かを示すレンズ識別情報が、ボディマウントに装着されている交換レンズユニットからカメラ本体により取得される識別情報取得ステップを備えている。
 この制御方法では、ボディマウントに装着されている交換レンズユニットからカメラ本体によりレンズ識別情報が取得される。このため、3次元撮影に対応している交換レンズユニットがボディマウントに装着されると、レンズ識別情報に基づいて交換レンズユニットが3次元撮影に対応していると判断することができる。逆に、3次元撮影に対応していない交換レンズユニットがカメラ本体に装着されると、レンズ識別情報に基づいて交換レンズユニットが3次元撮影に対応していないと判断することができる。
 このように、この制御方法を用いたカメラ本体であれば、3次元撮影に対応している交換レンズユニットや対応していない交換レンズユニットなど、様々な交換レンズユニットに対応することができる。
 第9の特徴に係るプログラムは、交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法をコンピュータに実行させるためのプログラムであって、交換レンズユニットが3次元撮影に対応しているか否かを示すレンズ識別情報が、ボディマウントに装着されている交換レンズユニットからカメラ本体により取得される識別情報取得ステップをコンピュータに実行させる。
 このプログラムがカメラ本体で実行されると、ボディマウントに装着されている交換レンズユニットからカメラ本体によりレンズ識別情報が取得される。このため、3次元撮影に対応している交換レンズユニットがボディマウントに装着されると、レンズ識別情報に基づいて交換レンズユニットが3次元撮影に対応していると判断することができる。逆に、3次元撮影に対応していない交換レンズユニットがカメラ本体に装着されると、レンズ識別情報に基づいて交換レンズユニットが3次元撮影に対応していないと判断することができる。
 このように、このプログラムを用いたカメラ本体であれば、3次元撮影に対応している交換レンズユニットや対応していない交換レンズユニットなど、様々な交換レンズユニットに対応することができる。
 第10の特徴に係る、コンピュータにより読み取り可能な記録媒体は、交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法をコンピュータに実行させるためのプログラムを記録した記録媒体であって、交換レンズユニットが3次元撮影に対応しているか否かを示すレンズ識別情報が、ボディマウントに装着されている交換レンズユニットからカメラ本体により取得される識別情報取得ステップをコンピュータに実行させるためのプログラムを記録している。
 この記録媒体に記録されたプログラムがカメラ本体で実行されると、ボディマウントに装着されている交換レンズユニットからカメラ本体によりレンズ識別情報が取得される。このため、3次元撮影に対応している交換レンズユニットがボディマウントに装着されると、レンズ識別情報に基づいて交換レンズユニットが3次元撮影に対応していると判断することができる。逆に、3次元撮影に対応していない交換レンズユニットがカメラ本体に装着されると、レンズ識別情報に基づいて交換レンズユニットが3次元撮影に対応していないと判断することができる。
 このように、この記録媒体に記録されたプログラムを用いたカメラ本体であれば、3次元撮影に対応している交換レンズユニットや対応していない交換レンズユニットなど、様々な交換レンズユニットに対応することができる。
 第11の特徴に係る制御方法は、交換レンズユニットにより形成される光学像を画像信号に変換する撮像素子と、撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備えたカメラ本体の制御方法であって、
 カメラ本体に装着されている交換レンズユニットが、撮像素子の第1領域に左眼用光学像を形成する第1光学系と、第1領域に隣接して配置された撮像素子の第2領域に右眼用光学像を形成する第2光学系と、を有している場合に、第1領域に対応する画像信号から左眼用画像データが制御部により生成され、かつ、第2領域に対応する画像信号から右眼用画像データが制御部により生成されるステップと、
 ボディマウントに装着されている交換レンズユニットが、左眼用光学像を第2領域に形成する第3光学系と、右眼用光学像を第1領域に形成する第4光学系と、を有している場合に、第2領域に対応する画像信号から左眼用画像データが制御部により生成され、かつ、第1領域に対応する画像信号から右眼用画像データが制御部により生成されるステップと、
を備えている。
 この制御方法では、交換レンズユニットが第1および第2光学系を有している場合や、交換レンズユニットが第3および第4光学系を有している場合でも、カメラ本体により左眼用画像データおよび右眼用画像データを正しく生成できる。したがって、この制御方法を用いたカメラ本体であれば、様々な交換レンズユニットに対応することができる。
 第12の特徴に係るプログラムは、交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法をコンピュータに実行させるためのプログラムであって、
 カメラ本体に装着されている交換レンズユニットが、撮像素子の第1領域に左眼用光学像を形成する第1光学系と、第1領域に隣接して配置された撮像素子の第2領域に右眼用光学像を形成する第2光学系と、を有している場合に、第1領域に対応する画像信号から左眼用画像データが制御部により生成され、かつ、第2領域に対応する画像信号から右眼用画像データが制御部により生成されるステップと、
 ボディマウントに装着されている交換レンズユニットが、左眼用光学像を第2領域に形成する第3光学系と、右眼用光学像を第1領域に形成する第4光学系と、を有している場合に、第2領域に対応する画像信号から左眼用画像データが制御部により生成され、かつ、第1領域に対応する画像信号から右眼用画像データが制御部により生成されるステップと、
をコンピュータに実行させる。
 このプログラムがカメラ本体で実行されると、交換レンズユニットが第1および第2光学系を有している場合や、交換レンズユニットが第3および第4光学系を有している場合でも、カメラ本体により左眼用画像データおよび右眼用画像データを正しく生成できる。したがって、このプログラムを用いたカメラ本体であれば、様々な交換レンズユニットに対応することができる。
 第13の特徴に係る、コンピュータにより読み取り可能な記録媒体は、交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法をコンピュータに実行させるためのプログラムを記録した記録媒体であって、
 カメラ本体に装着されている交換レンズユニットが、撮像素子の第1領域に左眼用光学像を形成する第1光学系と、第1領域に隣接して配置された撮像素子の第2領域に右眼用光学像を形成する第2光学系と、を有している場合に、第1領域に対応する画像信号から左眼用画像データが制御部により生成され、かつ、第2領域に対応する画像信号から右眼用画像データが制御部により生成されるステップと、
 ボディマウントに装着されている交換レンズユニットが、左眼用光学像を第2領域に形成する第3光学系と、右眼用光学像を第1領域に形成する第4光学系と、を有している場合に、第2領域に対応する画像信号から左眼用画像データが制御部により生成され、かつ、第1領域に対応する画像信号から右眼用画像データが制御部により生成されるステップと、
をコンピュータに実行させるためのプログラムを記録している。
 この記録媒体に記録されたプログラムがカメラ本体で実行されると、交換レンズユニットが第1および第2光学系を有している場合や、交換レンズユニットが第3および第4光学系を有している場合でも、カメラ本体により左眼用画像データおよび右眼用画像データを正しく生成できる。したがって、この記録媒体に記録されたプログラムを用いたカメラ本体であれば、様々な交換レンズユニットに対応することができる。
 第14の特徴に係る制御方法は、交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法であって、
 ボディマウントに装着されている交換レンズユニットが、被写体に対して回転された光学像を撮像素子の受光面上に形成する第1立体撮影光学系を有している場合に、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように左眼用画像データおよび右眼用画像データが制御部により生成されるステップと、
 ボディマウントに装着されている交換レンズユニットが、受光面上において被写体に対して光学像を回転させない第2立体撮影光学系を有している場合、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように左眼用画像データおよび右眼用画像データが制御部により生成されるステップと、
を備えている。
 この制御方法では、被写体に対して回転された光学像を受光面上に形成する交換レンズユニットがボディマウントに装着された場合、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように、制御部により左眼用画像データおよび右眼用画像データが生成される。具体的には、ボディマウントに装着されている交換レンズユニットが、被写体に対して回転された光学像を受光面上に形成する第1立体撮影光学系を有している場合、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように左眼用画像データおよび右眼用画像データが制御部により生成される。また、ボディマウントに装着されている交換レンズユニットが、受光面上において被写体に対して光学像を回転させない第2立体撮影光学系を有している場合、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように左眼用画像データおよび右眼用画像データが制御部により生成される。したがって、この制御方法を用いたカメラ本体であれば、様々な交換レンズユニットに対応することができる。
 第15の特徴に係るプログラムは、交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法をコンピュータに実行させるためのプログラムであって、
 ボディマウントに装着されている交換レンズユニットが、被写体に対して回転された光学像を撮像素子の受光面上に形成する第1立体撮影光学系を有している場合に、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように左眼用画像データおよび右眼用画像データが制御部により生成されるステップと、
 ボディマウントに装着されている交換レンズユニットが、受光面上において被写体に対して光学像を回転させない第2立体撮影光学系を有している場合、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように左眼用画像データおよび右眼用画像データが制御部により生成されるステップと、
をコンピュータに実行させる。
 このプログラムがカメラ本体で実行されると、被写体に対して回転された光学像を受光面上に形成する交換レンズユニットがボディマウントに装着された場合、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように、制御部により左眼用画像データおよび右眼用画像データが生成される。具体的には、ボディマウントに装着されている交換レンズユニットが、被写体に対して回転された光学像を受光面上に形成する第1立体撮影光学系を有している場合、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように左眼用画像データおよび右眼用画像データが制御部により生成される。また、ボディマウントに装着されている交換レンズユニットが、受光面上において被写体に対して光学像を回転させない第2立体撮影光学系を有している場合、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように左眼用画像データおよび右眼用画像データが制御部により生成される。したがって、このプログラムを用いたカメラ本体であれば、様々な交換レンズユニットに対応することができる。
 第16の特徴に係る、コンピュータにより読み取り可能な記録媒体は、交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法をコンピュータに実行させるためのプログラムを記録した記録媒体であって、
 ボディマウントに装着されている交換レンズユニットが、被写体に対して回転された光学像を撮像素子の受光面上に形成する第1立体撮影光学系を有している場合に、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように左眼用画像データおよび右眼用画像データが制御部により生成されるステップと、
 ボディマウントに装着されている交換レンズユニットが、受光面上において被写体に対して光学像を回転させない第2立体撮影光学系を有している場合、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように左眼用画像データおよび右眼用画像データが制御部により生成されるステップと、
をコンピュータに実行させるためのプログラムを記録している。
 この記録媒体に記録されたプログラムがカメラ本体で実行されると、被写体に対して回転された光学像を受光面上に形成する交換レンズユニットがボディマウントに装着された場合、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように、制御部により左眼用画像データおよび右眼用画像データが生成される。具体的には、ボディマウントに装着されている交換レンズユニットが、被写体に対して回転された光学像を受光面上に形成する第1立体撮影光学系を有している場合、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように左眼用画像データおよび右眼用画像データが制御部により生成される。また、ボディマウントに装着されている交換レンズユニットが、受光面上において被写体に対して光学像を回転させない第2立体撮影光学系を有している場合、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するように左眼用画像データおよび右眼用画像データが制御部により生成される。したがって、この記録媒体に記録されたプログラムを用いたカメラ本体であれば、様々な交換レンズユニットに対応することができる。
 ここで、「左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致する」とは、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と完全に一致している場合の他に、様々な交換レンズユニットに対応することができるという効果が得られる範囲内で、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下とずれている場合も含まれる。
 また、「左眼用画像データおよび右眼用画像データで再現される1対の画像」とは、例えば、カメラ本体に搭載された表示部やカメラ本体とは別に設けられた表示装置に表示される立体視用のステレオ画像を意味している。例えば、表示部や表示装置の画面の長手方向が水平方向と一致する状態を基準として、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下と概ね一致するか否かを判断することができる。
 第17の特徴に係る制御方法は、交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法であって、
 左眼用画像データに対応する左眼用光学像を被写体に対して撮像素子の受光面上でミラー反転させる交換レンズユニットがボディマウントに装着された場合、左眼用画像データで再現される左眼用画像の上下および左右が被写体の上下および左右と概ね一致するように左眼用画像データが制御部により生成される左眼画像生成ステップを備えている。
 この制御方法では、左眼用画像データに対応する左眼用光学像を被写体に対して受光面上でミラー反転させる交換レンズユニットがボディマウントに装着された場合、左眼用画像データで再現される左眼用画像の上下および左右が被写体の上下および左右と概ね一致するように、制御部により左眼用画像データが生成される。したがって、この制御方法を用いたカメラ本体では、様々な交換レンズユニットに対応することができる。
 第18の特徴に係るプログラムは、交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法をコンピュータに実行させるためのプログラムであって、
 左眼用画像データに対応する左眼用光学像を被写体に対して撮像素子の受光面上でミラー反転させる交換レンズユニットがボディマウントに装着された場合、左眼用画像データで再現される左眼用画像の上下および左右が被写体の上下および左右と概ね一致するように左眼用画像データが制御部により生成される左眼画像生成ステップをコンピュータに実行させる。
 このプログラムがカメラ本体で実行されると、左眼用画像データに対応する左眼用光学像を被写体に対して受光面上でミラー反転させる交換レンズユニットがボディマウントに装着された場合、左眼用画像データで再現される左眼用画像の上下および左右が被写体の上下および左右と概ね一致するように、制御部により左眼用画像データが生成される。したがって、このプログラムを用いたカメラ本体であれば、様々な交換レンズユニットに対応することができる。
 第19の特徴に係る、コンピュータにより読み取り可能な記録媒体は、交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法をコンピュータに実行させるためのプログラムを記録した記録媒体であって、
 左眼用画像データに対応する左眼用光学像を被写体に対して撮像素子の受光面上でミラー反転させる交換レンズユニットがボディマウントに装着された場合、左眼用画像データで再現される左眼用画像の上下および左右が被写体の上下および左右と概ね一致するように左眼用画像データが制御部により生成される左眼画像生成ステップをコンピュータに実行させるためのプログラムを記録している。
 この記録媒体に記録されたプログラムがカメラ本体で実行されると、左眼用画像データに対応する左眼用光学像を被写体に対して受光面上でミラー反転させる交換レンズユニットがボディマウントに装着された場合、左眼用画像データで再現される左眼用画像の上下および左右が被写体の上下および左右と概ね一致するように、制御部により左眼用画像データが生成される。したがって、この記録媒体に記録されたプログラムを用いたカメラ本体であれば、様々な交換レンズユニットに対応することができる。
 ここで、「左眼用画像データで再現される左眼用画像の上下および左右が被写体の上下および左右と概ね一致する」とは、左眼用画像データで再現される左眼用画像の上下および左右が被写体の上下および左右と完全に一致している場合の他に、様々な交換レンズユニットに対応することができるという効果が得られる範囲内で、左眼用画像データで再現される左眼用画像の上下および左右が被写体の上下および左右とずれている場合も含まれる。
 また、「左眼用画像データで再現される左眼用画像」とは、例えば、カメラ本体に搭載された表示部やカメラ本体とは別に設けられた表示装置に表示される左眼用画像を意味している。例えば、表示部や表示装置の画面の長手方向が水平方向と一致する状態を基準として、左眼用画像データで再現される左眼用画像の上下および左右が被写体の上下および左右と概ね一致するか否かを判断することができる。
 第20の特徴に係る制御方法は、交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法であって、
 右眼用画像データに対応する右眼用光学像を被写体に対して受光面上でミラー反転させる交換レンズユニットがボディマウントに装着された場合、右眼用画像データで再現される右眼用画像の上下および左右が被写体の上下および左右と概ね一致するように右眼用画像データが制御部により生成される右眼画像生成ステップをさらに備えている。
 この制御方法では、右眼用画像データに対応する右眼用光学像を被写体に対して受光面上でミラー反転させる交換レンズユニットがボディマウントに装着された場合、右眼用画像データで再現される右眼用画像の上下および左右が被写体の上下および左右と概ね一致するように、制御部により右眼用画像データが生成される。したがって、この制御方法を用いたカメラ本体であれば、様々な交換レンズユニットに対応することができる。
 第21の特徴に係るプログラムは、交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法をコンピュータに実行させるためのプログラムであって、
 右眼用画像データに対応する右眼用光学像を被写体に対して撮像素子の受光面上でミラー反転させる交換レンズユニットがボディマウントに装着された場合、右眼用画像データで再現される右眼用画像の上下および左右が被写体の上下および左右と概ね一致するように右眼用画像データが制御部により生成される右眼画像生成ステップをコンピュータに実行させる。
 このプログラムがカメラ本体で実行されると、右眼用画像データに対応する右眼用光学像を被写体に対して受光面上でミラー反転させる交換レンズユニットがボディマウントに装着された場合、右眼用画像データで再現される右眼用画像の上下および左右が被写体の上下および左右と概ね一致するように、制御部により右眼用画像データが生成される。したがって、このプログラムを用いたカメラ本体であれば、様々な交換レンズユニットに対応することができる。
 第22の特徴に係る、コンピュータにより読み取り可能な記録媒体は、交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法をコンピュータに実行させるためのプログラムを記録した記録媒体であって、
 右眼用画像データに対応する右眼用光学像を被写体に対して撮像素子の受光面上でミラー反転させる交換レンズユニットがボディマウントに装着された場合、右眼用画像データで再現される右眼用画像の上下および左右が被写体の上下および左右と概ね一致するように右眼用画像データが制御部により生成される右眼画像生成ステップをコンピュータに実行させるためのプログラムを記録している。
 この記録媒体に記録されたプログラムがカメラ本体で実行されると、右眼用画像データに対応する右眼用光学像を被写体に対して受光面上でミラー反転させる交換レンズユニットがボディマウントに装着された場合、右眼用画像データで再現される右眼用画像の上下および左右が被写体の上下および左右と概ね一致するように、制御部により右眼用画像データが生成される。したがって、この記録媒体に記録されたプログラムを用いたカメラ本体であれば、様々な交換レンズユニットに対応することができる。
 ここで、「右眼用画像データで再現される右眼用画像の上下および左右が被写体の上下および左右と概ね一致する」とは、右眼用画像データで再現される右眼用画像の上下および左右が被写体の上下および左右と完全に一致している場合の他に、様々な交換レンズユニットに対応することができるという効果が得られる範囲内で、右眼用画像データで再現される右眼用画像の上下および左右が被写体の上下および左右とずれている場合も含まれる。
 また、「右眼用画像データで再現される右眼用画像」とは、例えば、カメラ本体に搭載された表示部やカメラ本体とは別に設けられた表示装置に表示される右眼用画像を意味している。例えば、表示部や表示装置の画面の長手方向が水平方向と一致する状態を基準として、右眼用画像データで再現される右眼用画像の上下および左右が被写体の上下および左右と概ね一致するか否かを判断することができる。
 第23の特徴に係る制御方法は、交換レンズユニットにより形成される光学像を画像信号に変換する撮像素子と、撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備えたカメラ本体の制御方法であって、
 3次元撮影に対応していない交換レンズユニットがカメラ本体に装着された場合、少なくともユーザーによる操作が行われるまでは3次元撮影モードの実行が制御部により制限されるステップを備えている。
 この制御方法では、3次元撮影に対応していない交換レンズユニットがボディマウントに装着された場合、少なくともユーザーによる操作が行われるまでは3次元撮影モードの実行が制御部により制限される。したがって、この制御方法を用いたカメラ本体であれば、様々な交換レンズユニットに対応することができる。
 第24の特徴に係るプログラムは、交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法をコンピュータに実行させるためのプログラムであって、
 3次元撮影に対応していない交換レンズユニットがカメラ本体に装着された場合、少なくともユーザーによる操作が行われるまでは3次元撮影モードの実行を制限するステップをコンピュータに実行させる。
 このプログラムがカメラ本体で実行されると、3次元撮影に対応していない交換レンズユニットがボディマウントに装着された場合、少なくともユーザーによる操作が行われるまでは3次元撮影モードの実行が制御部により制限される。したがって、このプログラムを用いたカメラ本体であれば、様々な交換レンズユニットに対応することができる。
 第25の特徴に係る、コンピュータにより読み取り可能な記録媒体は、交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法をコンピュータに実行させるためのプログラムを記録した記録媒体であって、
 3次元撮影に対応していない交換レンズユニットがカメラ本体に装着された場合、少なくともユーザーによる操作が行われるまでは3次元撮影モードの実行が制御部により制限されるステップをコンピュータに実行させるためのプログラムを記録している。
 この記録媒体に記録されたプログラムがカメラ本体で実行されると、3次元撮影に対応していない交換レンズユニットがボディマウントに装着された場合、少なくともユーザーによる操作が行われるまでは3次元撮影モードの実行が制御部により制限される。したがって、この記録媒体に記録されたプログラムを用いたカメラ本体であれば、様々な交換レンズユニットに対応することができる。
 第26の特徴に係る制御方法は、カメラ本体に装着可能な交換レンズユニットの制御方法であって、
 カメラ本体が3次元撮影に対応しているか否かを判定する判定ステップと、
 カメラ本体が3次元撮影に対応していないと判定された場合にカメラ本体での撮影を制限する制限情報を生成する状態情報生成ステップと、
を備えている。
 この制御方法では、カメラ本体が3次元撮影に対応していないと判定された場合に、カメラ本体での撮影を制限する制限情報が生成される。したがって、誤って3次元光学系を用いてカメラ本体により2次元撮影が行われるのを防止することができる。つまり、この制御方法を用いた交換レンズユニットでは、3次元撮影に対応しているカメラ本体や対応していないカメラ本体など、様々なカメラ本体に対応することができる。
 第27の特徴に係るプログラムは、カメラ本体に装着可能な交換レンズユニットの制御方法をコンピュータに実行させるためのプログラムであって、
 カメラ本体が3次元撮影に対応しているか否かを判定する判定ステップと、
 カメラ本体が3次元撮影に対応していないと判定された場合にカメラ本体での撮影を制限する制限情報を生成する状態情報生成ステップと、
をコンピュータに実行させる。
 このプログラムが交換レンズユニットで実行されると、カメラ本体が3次元撮影に対応していないと判定された場合に、カメラ本体での撮影を制限する制限情報が生成される。したがって、誤って3次元光学系を用いてカメラ本体により2次元撮影が行われるのを防止することができる。つまり、このプログラムを用いた交換レンズユニットでは、3次元撮影に対応しているカメラ本体や対応していないカメラ本体など、様々なカメラ本体に対応することができる。
 第28の特徴に係る、コンピュータにより読み取り可能な記録媒体は、カメラ本体に装着可能な交換レンズユニットの制御方法をコンピュータに実行させるためのプログラムを記録した記録媒体であって、
 カメラ本体が3次元撮影に対応しているか否かを判定する判定ステップと、
 カメラ本体が3次元撮影に対応していないと判定された場合にカメラ本体での撮影を制限する制限情報を生成する状態情報生成ステップと、
をコンピュータに実行させるためのプログラムを記録している。
 この記録媒体に記録されたプログラムが交換レンズユニットで実行されると、カメラ本体が3次元撮影に対応していないと判定された場合に、カメラ本体での撮影を制限する制限情報が生成される。したがって、誤って3次元光学系を用いてカメラ本体により2次元撮影が行われるのを防止することができる。つまり、この記録媒体に記録されたプログラムを用いた交換レンズユニットであれば、3次元撮影に対応しているカメラ本体や対応していないカメラ本体など、様々なカメラ本体に対応することができる。
デジタルカメラ1の斜視図 カメラ本体100の斜視図 カメラ本体100の背面図 デジタルカメラ1の概略ブロック図 交換レンズユニット200の概略ブロック図 カメラ本体100の概略ブロック図 (A)レンズ識別情報F1の構成例、(B)レンズ特性情報F2の構成例、(C)レンズ状態情報F3の構成例 (A)カメラ本体および交換レンズユニットの間のタイムチャート(カメラ本体が3次元撮影に対応していない場合)、(B)カメラ本体および交換レンズユニットの間のタイムチャート(カメラ本体および交換レンズユニットが3次元撮影に対応している場合) 各パラメータの説明図 輻輳角の説明図 (A)出荷時の測定試験の説明図、(B)測定試験で得られた左眼用画像、(C)測定試験で得られた右眼用画像(交換レンズユニット) (A)出荷時の測定試験の説明図、(B)測定試験で得られた左眼用画像、(C)測定試験で得られた右眼用画像(カメラ本体) 180度回転フラグ、配置変更フラグおよびミラー反転フラグのパターンを示す図 (A)交換レンズユニット200の概略図、(B)撮影地点から見た被写体の図、(C)カメラの背面側から見た撮像素子上の光学像 (A)交換レンズユニット300の概略図、(B)撮影地点から見た被写体の図、(C)カメラの背面側から見た撮像素子上の光学像 (A)アダプタ400および交換レンズユニット600の概略図、(B)撮影地点から見た被写体の図、(C)カメラの背面側から見た1次結像(仮想面上の空中像)、(D)カメラの背面側から見た撮像素子上の2次結像 (A)交換レンズユニット700の概略図、(B)撮影地点から見た被写体の図、(C)カメラの背面側から見た撮像素子上の光学像 各フラグおよびパターンの例 各フラグおよびパターンの例 電源ON時のフローチャート 電源ON時のフローチャート 撮影時のフローチャート
 〔デジタルカメラの構成〕
 デジタルカメラ1は、3次元撮影が可能な撮像装置であり、レンズ交換式のデジタルカメラである。図1~図3に示すように、デジタルカメラ1は、交換レンズユニット200と、交換レンズユニット200を装着可能なカメラ本体100と、を備えている。交換レンズユニット200は、3次元撮影に対応しているレンズユニットであり、被写体の光学像(左眼用光学像および右眼用光学像)を形成する。カメラ本体100は、2次元撮影および3次元撮影に対応可能であり、交換レンズユニット200により形成される光学像に基づいて画像データを生成する。カメラ本体100には、3次元撮影に対応している交換レンズユニット200の他に、3次元撮影に対応していない交換レンズユニットも取り付けることができる。つまり、カメラ本体100は2次元撮影にも3次元撮影にも対応している。
 なお、説明の便宜のため、デジタルカメラ1の被写体側を前、被写体と反対側を後ろまたは背、デジタルカメラ1の通常姿勢(以下、横撮り姿勢ともいう)における鉛直上側を上、鉛直下側を下ともいう。
 <1:交換レンズユニットの構成>
 交換レンズユニット200は3次元撮影に対応しているレンズユニットである。本実施形態の交換レンズユニット200には、2つの光学像が左右1対の光学系により1つの撮像素子上に形成される並置撮影方式が採用されている。
 図1~図4に示すように、交換レンズユニット200は、3次元光学系Gと、第1駆動ユニット271、第2駆動ユニット272、振れ量検出センサー275およびレンズコントローラー240を有している。さらに、交換レンズユニット200は、レンズマウント250、レンズ筒290、ズームリング213およびフォーカスリング234を有している。交換レンズユニット200をカメラ本体100に装着する際、レンズマウント250がカメラ本体100のボディマウント150(後述)に取り付けられる。図1に示すように、レンズ筒290の外部にはズームリング213とフォーカスリング234とが回転可能に設けられている。
 (1)3次元光学系G
 図4および図5に示すように、3次元光学系Gは、並置撮影方式に対応した光学系であり、左眼用光学系OLと右眼用光学系ORとを有している。左眼用光学系OLと右眼用光学系ORとは左右に並んで配置されている。ここで、左眼用光学系とは、左側の視点に対応した光学系であり、具体的には、最も被写体側(前側)に配置されている光学素子が被写体に向かって左側に配置されている光学系をいう。同様に、右眼用光学系とは、右側の視点に対応した光学系であり、具体的には、最も被写体側(前側)に配置されている光学素子が被写体に向かって右側に配置されている光学系をいう。
 左眼用光学系OLは、被写体に向かって左側の視点から被写体を撮影するための光学系であり、ズームレンズ210L、OISレンズ220L、絞りユニット260Lおよびフォーカスレンズ230Lを含んでいる。左眼用光学系OLは、第1光軸AX1を有しており、右眼用光学系ORと左右に並んだ状態でレンズ筒290の内部に収容されている。
 ズームレンズ210Lは、左眼用光学系OLの焦点距離を変化させるためのレンズであり、第1光軸AX1と平行な方向に移動可能に配置されている。ズームレンズ210Lは1枚または複数枚のレンズで構成されている。ズームレンズ210Lは第1駆動ユニット271のズームモータ214L(後述)により駆動される。ズームレンズ210Lを第1光軸AX1と平行な方向に駆動することにより、左眼用光学系OLの焦点距離を調整することができる。
 OISレンズ220Lは、左眼用光学系OLで形成される光学像のCMOSイメージセンサー110(後述)に対する変位を抑制するためのレンズである。OISレンズ220Lは1枚または複数枚のレンズで構成される。OISモータ221Lは、OIS用IC223Lから送信される制御信号に基づいて、第1光軸AX1に垂直な面内で移動するようにOISレンズ220Lを駆動する。OISモータ221Lは、例えば、マグネット(図示せず)および平板コイル(図示せず)で実現可能である。OISレンズ220Lの位置は第1駆動ユニット271の位置検出センサー222L(後述)により検出される。
 なお、本実施形態では、振れ補正の方式として光学式が採用されているが、例えばCMOSイメージセンサー110で生成される画像データに補正処理を施す電子式、あるいは、CMOSイメージセンサー110などの撮像素子を第1光軸AX1と垂直な面内で駆動するセンサーシフト式が振れ補正の方式として採用されてもよい。
 絞りユニット260Lは左眼用光学系OLを透過する光の量を調整する。絞りユニット260Lは複数の絞り羽根(図示せず)を有している。絞り羽根は第1駆動ユニット271の絞りモータ235L(後述)により駆動される。カメラコントローラー140(後述)は絞りモータ235Lを制御する。
 フォーカスレンズ230Lは、左眼用光学系OLの被写体距離(物点距離ともいう)を調整するためのレンズであり、第1光軸AX1に平行な方向に移動可能に配置されている。フォーカスレンズ230Lは第1駆動ユニット271のフォーカスモータ233L(後述)により駆動される。フォーカスレンズ230Lは1枚または複数枚のレンズで構成されている。
 右眼用光学系ORは、被写体に向かって右側の視点から被写体を撮影するための光学系であり、ズームレンズ210R、OISレンズ220R、絞りユニット260Rおよびフォーカスレンズ230Rを含んでいる。右眼用光学系ORは、第2光軸AX2を有しており、左眼用光学系OLと左右に並んだ状態でレンズ筒290の内部に収容されている。右眼用光学系ORの仕様は左眼用光学系OLの仕様と同じである。なお、第1光軸AX1と第2光軸AX2とのなす角度(輻輳角)とは、図10に示す角度θ1をいう。
 ズームレンズ210Rは、右眼用光学系ORの焦点距離を変化させるためのレンズであり、第2光軸AX2と平行な方向に移動可能に配置されている。ズームレンズ210Rは1枚または複数枚のレンズで構成されている。ズームレンズ210Rは第2駆動ユニット272のズームモータ214R(後述)により駆動される。ズームレンズ210Rを第2光軸AX2と平行な方向に駆動することにより、右眼用光学系ORの焦点距離を調整することができる。ズームレンズ210Rの駆動はズームレンズ210Lの駆動と同期がとられている。したがって、右眼用光学系ORの焦点距離は左眼用光学系OLの焦点距離と同じである。
 OISレンズ220Rは、右眼用光学系ORで形成される光学像のCMOSイメージセンサー110に対する変位を抑制するためのレンズである。OISレンズ220Rは1枚または複数枚のレンズで構成される。OISモータ221Rは、OIS用IC223Rから送信される制御信号に基づいて、第2光軸AX2に垂直な面内で移動するようにOISレンズ220Rを駆動する。OISモータ221Rは、例えば、マグネット(図示せず)および平板コイル(図示せず)で実現可能である。OISレンズ220Rの位置は第2駆動ユニット272の位置検出センサー222R(後述)により検出される。
 なお、本実施形態では、振れ補正の方式として光学式が採用されているが、例えばCMOSイメージセンサー110(後述)で生成される画像データに補正処理を施す電子式、あるいは、CMOSイメージセンサー110などの撮像素子を第2光軸AX2と垂直な面内で駆動するセンサーシフト式が振れ補正の方式として採用されてもよい。
 絞りユニット260Rは右眼用光学系ORを透過する光の量を調整する。絞りユニット260Rは複数の絞り羽根(図示せず)を有している。絞り羽根は第2駆動ユニット272の絞りモータ235R(後述)により駆動される。カメラコントローラー140は絞りモータ235Rを制御する。絞りユニット260Rの駆動は絞りユニット260Lの駆動と同期がとられる。したがって、右眼用光学系ORの絞り値は左眼用光学系OLの絞り値と同じである。
 フォーカスレンズ230Rは、右眼用光学系ORの被写体距離(物点距離ともいう)を調整するためのレンズであり、第2光軸AX2に平行な方向に移動可能に配置されている。フォーカスレンズ230Rは第2駆動ユニット272のフォーカスモータ233R(後述)により駆動される。フォーカスレンズ230Rは1枚または複数枚のレンズで構成されている。
 (2)第1駆動ユニット271
 第1駆動ユニット271は、左眼用光学系OLの状態を調整するために設けられており、図5に示すように、ズームモータ214L、OISモータ221L、位置検出センサー222L、OIS用IC223L、絞りモータ235Lおよびフォーカスモータ233Lを有している。
 ズームモータ214Lはズームレンズ210Lを駆動する。ズームモータ214Lはレンズコントローラー240により制御される。
 OISモータ221LはOISレンズ220Lを駆動する。位置検出センサー222LはOISレンズ220Lの位置を検出するセンサーである。位置検出センサー222Lは、例えばホール素子であり、OISモータ221Lのマグネットに近接して配置されている。OIS用IC223Lは、位置検出センサー222Lの検出結果および振れ量検出センサー275の検出結果に基づいて、OISモータ221Lを制御する。OIS用IC223Lはレンズコントローラー240から振れ量検出センサー275の検出結果を取得する。また、OIS用IC223Lはレンズコントローラー240へOISレンズ220Lの位置を示す信号を所定の周期で送信する。
 絞りモータ235Lは絞りユニット260Lを駆動する。絞りモータ235Lはレンズコントローラー240により制御される。
 フォーカスモータ233Lはフォーカスレンズ230Lを駆動する。フォーカスモータ233Lはレンズコントローラー240により制御される。レンズコントローラー240は、フォーカスモータ233Rも制御しており、フォーカスモータ233Lおよびフォーカスモータ233Rを同期させる。これにより、左眼用光学系OLの被写体距離が右眼用光学系ORの被写体距離と同じになる。フォーカスモータ233Lとしては、例えばDCモータやステッピングモータ、サーボモータ、超音波モータが考えられる。
 (3)第2駆動ユニット272
 第2駆動ユニット272は、右眼用光学系ORの状態を調整するために設けられており、図5に示すように、ズームモータ214R、OISモータ221R、位置検出センサー222R、OIS用IC223R、絞りモータ235Rおよびフォーカスモータ233Rを有している。
 ズームモータ214Rはズームレンズ210Rを駆動する。ズームモータ214Rはレンズコントローラー240により制御される。
 OISモータ221RはOISレンズ220Rを駆動する。位置検出センサー222RはOISレンズ220Rの位置を検出するセンサーである。位置検出センサー222Rは、例えばホール素子であり、OISモータ221Rのマグネットに近接して配置されている。OIS用IC223Rは、位置検出センサー222Rの検出結果および振れ量検出センサー275の検出結果に基づいて、OISモータ221Rを制御する。OIS用IC223Rはレンズコントローラー240から振れ量検出センサー275の検出結果を取得する。また、OIS用IC223Rはレンズコントローラー240へOISレンズ220Rの位置を示す信号を所定の周期で送信する。
 絞りモータ235Rは絞りユニット260Rを駆動する。絞りモータ235Rはレンズコントローラー240により制御される。
 フォーカスモータ233Rはフォーカスレンズ230Rを駆動する。フォーカスモータ233Rはレンズコントローラー240により制御される。レンズコントローラー240はフォーカスモータ233Lおよびフォーカスモータ233Rを同期させる。これにより、右眼用光学系ORの被写体距離が左眼用光学系OLの被写体距離と同じになる。フォーカスモータ233Rとしては、例えばDCモータやステッピングモータ、サーボモータ、超音波モータが考えられる。
 (4)レンズコントローラー240
 レンズコントローラー240は、カメラコントローラー140から送信される制御信号に基づいて交換レンズユニット200の各部(例えば、第1駆動ユニット271および第2駆動ユニット272)を制御する。レンズコントローラー240はカメラコントローラー140との送受信をレンズマウント250およびボディマウント150を介して行う。レンズコントローラー240は、制御の際、DRAM241をワークメモリとして使用する。
 レンズコントローラー240は、CPU(Central Processing Unit)240a、ROM(Read Only Memory)240bおよびRAM(Random Access Memory)240cを有しており、ROM240b(コンピュータにより読み取り可能な記録媒体の一例)に格納されたプログラムがCPU240aに読み込まれることで様々な機能を実現し得る。
 また、フラッシュメモリ242(識別情報記憶部の一例)は、レンズコントローラー240の制御の際に使用するプログラムやパラメータを保存する。例えば、交換レンズユニット200が3次元撮影に対応していることを示すレンズ識別情報F1(図7(A)参照)、3次元光学系Gの特性を示すパラメータおよびフラグを含むレンズ特性情報F2(図7(B)参照)をフラッシュメモリ242は予め記憶している。交換レンズユニット200が撮影可能な状態か否かを示すレンズ状態情報F3(図7(C)参照)は、例えばRAM240cに格納されている。
 ここで、レンズ識別情報F1、レンズ特性情報F2およびレンズ状態情報F3について説明する。
  (レンズ識別情報F1)
 レンズ識別情報F1は、交換レンズユニットが3次元撮影に対応しているか否かを示す情報であり、例えばフラッシュメモリ242に予め格納されている。図7(A)に示すように、レンズ識別情報F1は、フラッシュメモリ242内の所定のアドレスに格納された3次元撮影判定フラグである。図8(A)および図8(B)に示すように、カメラ本体および交換レンズユニットの間で、電源ON時または交換レンズユニットがカメラ本体に装着された時に行われる初期通信において、3次元撮影判定フラグは交換レンズユニットからカメラ本体へ送信される。
 3次元撮影判定フラグが立っている場合は、その交換レンズユニットが3次元撮影に対応しており、3次元撮影判定フラグが立っていない場合は、その交換レンズユニットは3次元撮影に対応していない。3次元撮影判定フラグのアドレスは、3次元撮影に対応していない通常の交換レンズユニットで使用されていない領域が用いられる。これにより、3次元撮影に対応していない交換レンズユニットでは、3次元撮影判定フラグの設定を行わなくても、3次元撮影判定フラグが立っていない状態となり得る。
  (レンズ特性情報F2)
 レンズ特性情報F2は、交換レンズユニットの光学系の特性を示すデータであり、図7(B)に示すように、以下のパラメータおよびフラグを含んでいる。
 (A)基線長
 立体光学系(G)の基線長L1
 (B)光軸位置
 撮像素子(CMOSイメージセンサー110)の中心C0(図9参照)から光軸中心(図9に示すイメージサークルILの中心ICLまたはイメージサークルIRの中心ICR)までの距離L2(設計値)
 (C)輻輳角
 第1光軸(AX1)および第2光軸(AX2)のなす角度θ1(図10参照)
 (D)左眼ズレ量
 左眼用光学系(OL)の撮像素子(CMOSイメージセンサー110)上での光軸位置(設計値)に対する左眼用光学像(QL1)のズレ量DL(水平方向:DLx、鉛直方向:DLy)
 (E)右眼ズレ量
 右眼用光学系(右眼用光学系OR)の撮像素子(CMOSイメージセンサー110)上での光軸位置(設計値)に対する右眼用光学像(右眼用光学像QR1)のズレ量DR(水平方向:DRx、鉛直方向:DRy)
 (F)撮像有効エリア
 左眼用光学系(OL)および右眼用光学系(OR)のイメージサークル(AL1、AR1)の半径r(図9参照)
 (G)180度回転フラグ
 撮像素子(CMOSイメージセンサー110)上で光学像が180度回転しているか否かを示すフラグ
 (H)配置変更フラグ
 撮像素子(CMOSイメージセンサー110)上での左眼用光学像(QL1)および右眼用光学像(QR1)の位置関係が入れ替わっているか否かを示すフラグ
 (I)ミラー反転フラグ
 撮像素子(CMOSイメージセンサー110)上の光学像がミラー反転しているか否かを示すフラグ
 上記のパラメータのうち、光軸位置、左眼ズレ量および右眼ズレ量は、並置撮影方式の3次元光学系特有のパラメータである。つまり、レンズ特性情報F2は、交換レンズユニット200に並置撮影方式が採用されているか否かを識別可能なデータを含んでいる、と言える。
 図9~図16を用いて、上記のパラメータについて説明をする。図9はCMOSイメージセンサー110を被写体側から見た図である。CMOSイメージセンサー110は、交換レンズユニット200を透過した光を受ける受光面110a(図6および図9参照)を有している。受光面110a上には被写体の光学像が形成される。図9に示すように、受光面110aは、第1領域110Lと、第1領域110Lに隣接して配置された第2領域110Rと、を有している。第1領域110Lの面積は第2領域110Rの面積と同じである。図14(C)に示すように、カメラ本体100の背面側から見た場合(透視した場合)、第1領域110Lは受光面110aの左半分、第2領域110Rは受光面110aの右半分を占めている。図14(C)に示すように、交換レンズユニット200を用いて撮影を行う場合は、第1領域110Lには左眼用光学像QL1が形成され、第2領域110Rには右眼用光学像QR1が形成される。
 図9に示すように、設計上の左眼用光学系OLのイメージサークルILおよび右眼用光学系ORのイメージサークルIRをCMOSイメージセンサー110上に定義する。イメージサークルILの中心ICL(第1基準位置の一例)は左眼用光学系OLの第1光軸AX1の設計上の位置と一致しており、イメージサークルIRの中心ICR(第1基準位置の一例)は右眼用光学系ORの第2光軸AX2の設計上の位置と一致している。したがって、基線長はCMOSイメージセンサー110上での第1光軸AX1および第2光軸AX2の間の設計上の距離L1となる。また、光軸位置は受光面110aの中心C0および第1光軸AX1の間の設計上の距離L2(あるいは中心C0および第2光軸AX2の間の設計上の距離L2)となる。
 また図9に示すように、中心ICLに基づいて抽出可能範囲AL1が設定され、中心ICRに基づいて抽出可能範囲AR1が設定されている。中心ICLが受光面110aの第1領域110Lのほぼ中央位置に設定されているので、イメージサークルIL内の抽出可能範囲AL1を広く確保できる。また、中心ICRが第2領域110Rのほぼ中央位置に設定されているので、イメージサークルIR内の抽出可能範囲AR1を広く確保できる。
 図9に示す抽出領域AL0およびAR0は、左眼用画像データおよび右眼用画像データを抽出する際の基準となる領域である。左眼用画像データの設計上の抽出領域AL0は、イメージサークルILの中心ICL(あるいは第1光軸AX1)を基準に設定されており、抽出可能範囲AL1の中央に位置している。また、右眼用画像データの設計上の抽出領域AR0は、イメージサークルIRの中心ICR(第2光軸AX2)を基準に設定されており、抽出可能範囲AR1の中央に位置している。
 しかし、実際には製品の個体差によってイメージサークルの位置が交換レンズユニットごとで設計上の位置からずれる場合がある。特に、3次元撮影を行う際、左眼用光学像QL1および右眼用光学像QR1の上下方向の位置が互いに大きくずれると、立体視する際にユーザーがうまく3次元画像を認識できない場合も出てくる。
 さらに、製品の個体差によって交換レンズユニットとカメラ本体との間に取付誤差も生じる。交換レンズユニットは通常、カメラ本体のボディマウントにバヨネット結合され、ロックピンでカメラ本体に対する回転位置が決まる。デジタルカメラ1の場合、図2に示すように、ボディマウント150に形成されたバヨネット溝155にレンズマウント250に形成されたバヨネット(図示せず)が嵌め込まれ、交換レンズユニット200をカメラ本体100に対して回転させると、ロックピン156がレンズマウント250の孔(図示せず)に嵌り込む。ロックピン156と孔との間には微小な隙間が存在する。この隙間によって交換レンズユニットの固定位置がカメラ本体に対して回転方向にずれると、撮像素子上に形成される光学像が回転してしまう。2次元撮影であれば多少の回転は許容されるが、3次元撮影を行う場合、光学像の回転は左眼用光学像および右眼用光学像の上下方向の位置ずれを助長し、立体視に影響を及ぼしかねない。
 以上のように、3次元撮影を行う際、製品の個体差に応じて設計上の位置を基準に実際の抽出領域AL2およびAR2の位置を調整するのが好ましい。
 そこで、抽出領域AL2およびAR2の位置を調整するために、左眼ズレ量DL、右眼ズレ量DRおよび傾き角度θ2が出荷時に製品ごとに測定される。ここで、左眼ズレ量DL、右眼ズレ量DRおよび傾き角度θ2の測定方法について説明する。
 まず、左眼ズレ量DLおよび右眼ズレ量DRは交換レンズユニットの個体差によって生じる。したがって、左眼ズレ量DLおよび右眼ズレ量DRは交換レンズユニットごとに測定される。例えば図11(A)に示すように、チャート550および測定用カメラ本体510を用いて左眼ズレ量DLおよび右眼ズレ量DRの測定が行われる。チャート550には十字ライン551が描かれている。カメラ本体510は図示しない固定台に固定されている。チャート550に対するカメラ本体510の位置は、基準とする3次元撮影用の交換レンズユニットを用いて予め調整されている。具体的には、基準の交換レンズユニットをカメラ本体510に装着して、交換レンズユニットとチャート550との間にコリメータレンズ500を配置する。この状態で撮影を行うと、チャート550が写った左眼用画像および右眼用画像が得られる。これらの画像内において、十字ライン551の水平ライン552および垂直ライン553が画像の長辺および短辺と平行になり、さらに十字ライン551の中心P0がイメージサークルILの中心ICLおよびイメージサークルIRのICRと一致するように、カメラ本体510の位置が調整される。位置調整されたカメラ本体510を用いることで、画像内のチャート550に基づいて、交換レンズユニットの個体差により生じる左眼ズレ量DLおよび右眼ズレ量DRを測定することができる。このときに撮影した左眼用画像および右眼用画像における十字ライン551の位置を基準ラインPL0およびPR0とする。
 例えば交換レンズユニット200をカメラ本体510に装着して撮影を行うと、図11(B)および図11(C)に示す左眼用画像および右眼用画像が得られる。交換レンズユニット200の各部の寸法誤差等により、左眼用画像および右眼用画像においてチャート550が基準ラインPL0およびPR0からずれる。場合によっては、左眼用画像における十字ライン551の位置と右眼用画像における十字ライン551の位置とが互いに異なってくる。これら2枚のテスト画像から、左眼ズレ量DL(水平方向:DLx、鉛直方向:DLy)および右眼ズレ量DR(水平方向:DRx、鉛直方向:DRy)を算出する。左眼ズレ量DLおよび右眼ズレ量DRは、十字ライン551の中心P0、基準ラインPL0の中心ICLおよび基準ラインPR0の中心ICRを基準に算出される。左眼ズレ量DLおよび右眼ズレ量DRはレンズ特性情報F2として交換レンズユニット200のフラッシュメモリ242に格納され、交換レンズユニット200が製品として出荷される。これらのデータを用いることで、抽出領域AL2およびAR2の位置を交換レンズユニットの個体差に応じて調整することができる。
 一方、傾き角度θ2はカメラ本体の個体差によって生じる。したがって、傾き角度θ2はカメラ本体ごとに測定される。例えば図12(A)に示すように、チャート550および測定用交換レンズユニット520を用いて傾き角度θ2の測定が行われる。交換レンズユニット520は図示しない固定台に固定されている。チャート550に対する交換レンズユニット520の位置は、基準とする3次元撮影用のカメラ本体を用いて予め調整されている。具体的には、基準のカメラ本体を交換レンズユニット520に装着する。交換レンズユニット520とチャート550との間には、予めコリメータレンズ500が配置されている。この状態で撮影を行うと、チャート550が写った左眼用画像および右眼用画像が得られる。これらの画像内において、十字ライン551の水平ライン552および垂直ライン553が画像の長辺および短辺と平行になり、さらに十字ライン551の中心P0がイメージサークルILの中心ICLおよびイメージサークルIRのICRと一致するように、交換レンズユニット520の位置が調整される。位置調整された交換レンズユニット520を用いることで、画像内のチャート550に基づいて、カメラ本体の個体差により生じる傾き角度θ2を測定することができる。
 例えばカメラ本体100を交換レンズユニット520に装着して撮影を行うと、図12(B)および図12(C)に示す左眼用画像および右眼用画像が得られる。カメラ本体100の各部の寸法誤差等や交換レンズユニット520との間の取付誤差により、左眼用画像および右眼用画像においてチャート550が基準ラインPL0およびPR0からずれ、チャート550が基準ラインPL0およびPR0に対して傾く。これら2枚のテスト画像から傾き角度θ2を算出する。傾き角度θ2は例えば水平ライン552を基準に算出される。傾き角度θ2はカメラコントローラー140のROM240bに格納され、カメラ本体100が製品として出荷される。これらのデータを用いることで、抽出領域AL2およびAR2の位置をカメラ本体の個体差に応じて調整することができる。
 さらに、レンズ特性情報F2には、180度回転フラグ、配置変更フラグおよびミラー反転フラグが含まれている。以下、これらのフラグについて説明する。
 図14(A)に示す被写体を撮影する場合、図14(B)および図14(C)に示すように、左眼用光学系OLにより形成された左眼用光学像QL1は第1領域110L上に形成され、右眼用光学系ORにより形成された右眼用光学像QR1は第2領域110R上に形成される。カメラ本体100の背面側から見た場合、被写体と比較して左眼用光学像QL1および右眼用光学像QR1は180度回転する。これは、通常の2次元撮影用の光学系と基本的に同じである。
 一方、図15(A)に示す交換レンズユニット300の3次元光学系G3は、左眼用光学系OL3および右眼用光学系OR3を有している。左眼用光学系OL3は、第1左眼ミラー312と、第2左眼ミラー310と、光学系304と、を有している。右眼用光学系OR3は、第1右眼ミラー308と、第2右眼ミラー306と、光学系302と、を有している。被写体に向かって右半分の入射光は第1左眼ミラー312、第2左眼ミラー310および光学系304により第2領域110Rに導かれる。一方、被写体に向かって左半分の入射光は第1右眼ミラー308、第2右眼ミラー306および光学系302を透過して第1領域110Lに導かれる。つまり、3次元光学系Gの場合と同じ様に図15(B)に示す被写体を撮影すると、図15(C)に示すように、左眼用光学像QL3が第2領域110Rに形成され、右眼用光学像QR3が第1領域110Lに形成される。したがって、交換レンズユニット200の3次元光学系Gと比較すると、光学像が180度回転している点は同じであるが、左眼用光学像および右眼用光学像の配置が入れ替わっている点で異なる。このような交換レンズユニット300をカメラ本体100に装着する場合にカメラ本体100で交換レンズユニット200同じ処理を行うと、ステレオ画像(ステレオ画像データにより再現される画像)における左眼用画像(左眼用画像データにより再現される画像)および右眼用画像データ(右眼用画像データにより再現される画像)の配置が入れ替わってしまい好ましくない。
 さらに、図16(A)に示すように、通常の2次元撮影用の交換レンズユニット600とカメラ本体100との間にアダプタ400を挿入する場合もあり得る。アダプタ400は、光学系401、402Lおよび402Rを有している。光学系402LはCMOSイメージセンサー110の第2領域110Rの前側に配置されている。光学系402Rは第1領域110Lの前側に配置されている。被写体に向かって左半分から交換レンズユニット600に入射した光は光学系401および光学系402Lにより第2領域110Rに導かれる。被写体に向かって右半分から交換レンズユニット600に入射した光は光学系401および光学系402Rにより第1領域110Lに導かれる。
 この場合、3次元光学系Gの場合と同様に図16(B)に示す被写体を撮影すると、図16(C)に示すように、光学系401の主点を含む仮想面405に1次結像した光学像Q3は被写体と比較して180度回転する。さらに、図16(D)に示すように、受光面110a上では左眼用光学像QL3が第2領域110Rに形成され、右眼用光学像QR3が第1領域110Lに形成される。したがって、交換レンズユニット200の3次元光学系Gと比較すると、光学像が回転していない点で異なり、さらに、左眼用光学像および右眼用光学像の配置が入れ替わっている点でも異なる。このような交換レンズユニット300をカメラ本体100に装着する場合にカメラ本体100で交換レンズユニット200と同じ処理を行うと、ステレオ画像における左眼用画像および右眼用画像の左右の配置や上下が入れ替わってしまい好ましくない。
 さらに、図15(A)に示すように、交換レンズユニット300では、被写体からの光が2回の反射により反転しないようになっているが、被写体からの光が奇数回反射するような光学系を有する交換レンズユニットの場合、撮像素子上において光学像が反転することがある。このような交換レンズユニットをカメラ本体100に装着する場合にカメラ本体100で交換レンズユニット200と同じ処理を行うと、画像がミラー反転してしまい好ましくない。
 例えば、図17(A)に示す交換レンズユニット700の3次元光学系G7は、左眼用光学系OL7および右眼用光学系OR7を有している。左眼用光学系OL7は、前側左眼ミラー701と、第1左眼ミラー312と、第2左眼ミラー310と、光学系304と、を有している。右眼用光学系OR3は、前側右眼ミラー702と、第1右眼ミラー308と、第2右眼ミラー306と、光学系302と、を有している。交換レンズユニット700は、前述の3次元光学系G3に比べて、前側左眼ミラー701および前側右眼ミラー702を有している点で、その構成が異なっている。
 被写体に向かって右半分の入射光は、前側左眼ミラー701、第1左眼ミラー312、第2左眼ミラー310および光学系304により第2領域110Rに導かれる。一方、被写体に向かって左半分の入射光は、前側右眼ミラー702、第1右眼ミラー308、第2右眼ミラー306および光学系302を透過して第1領域110Lに導かれる。つまり、3次元光学系GおよびG3の場合と同じ様に図17(B)に示す被写体を撮影すると、図17(C)に示すように、左眼用光学像QL4が第2領域110Rに形成され、右眼用光学像QR4が第1領域110Lに形成される。前側左眼ミラー701および前側右眼ミラー702により、図15(C)に示す光学像がさらに左右にミラー反転されている。このような交換レンズユニット700をカメラ本体100に装着する場合にカメラ本体100で交換レンズユニット200の場合と同じ処理を行うと、ステレオ画像(ステレオ画像データにより再現される画像)における左眼用画像(左眼用画像データにより再現される画像)および右眼用画像データ(右眼用画像データにより再現される画像)の配置が入れ替わってしまい好ましくない。
 そこで、図7(B)に示すように、180度回転フラグ、配置変更フラグおよびミラー反転フラグをレンズ特性情報F2に含めることで、カメラ本体100は装着される交換レンズユニットの特性に応じて処理を変えることができる。
 これら180度回転フラグ、配置変更フラグおよびミラー反転フラグの組み合わせは図13に示すパターン1~8が考えられる。
 ここで、これらのフラグを設定する基準について説明しておく。通常の2次元撮影用の光学系を用いると、被写体に対して光学像は180度回転する。この場合、表示される画像の上下が被写体の上下と合うように、電荷読み出し時あるいは画像処理時に画像を180度回転させる処理が行われる。したがって、本願では、カメラの背面側から見て撮像素子上に形成される光学像を180度回転させて得られた像を基準に、180度回転フラグ、配置変更フラグおよびミラー反転フラグのステータスを決定することにする。もちろん、基準をどのような像にするかは、任意に選択可能である。
 図14(A)、図15(A)、図16(A)および図17(A)に示す構成が図13に示すパターン1~8のどのパターンに相当するのか確認する。まず、図14(A)に示す交換レンズユニット200の場合は、図14(C)に示す絵を180度回転させることになるので、図18の上段に示す絵で判断することになる。そうすると、各フラグは「回転なし」、「配置変更なし」および「ミラー反転なし」となり、交換レンズユニット200はパターン1の光学系であることが分かる。ここでは、第1領域110Lが左眼用画像データを生成するための領域と定義され、第2領域110Rが右眼用画像データを生成するための領域と定義されている。したがって、配置変更フラグの判断基準は、図18に示す絵における見た目の左右の配置ではなく、第1領域110Lおよび第2領域110Rとの位置関係となる。例えば、左眼用光学像が第2領域110Rに形成されていれば、配置変更フラグは「配置変更あり」となる。
 また、図15(C)の場合は、図18の下段に示す絵で判断することになるので、各フラグは「回転なし」、「配置変更あり」および「ミラー反転なし」となり、交換レンズユニット300はパターン3に対応する光学系であることが分かる。
 一方、図17(C)の場合は、図19の上段に示す絵で判断することになるので、各フラグは「回転なし」、「配置変更あり」および「ミラー反転あり」となり、交換レンズユニット700はパターン4に対応する光学系であることが分かる。
 さらに、図16(D)の場合は、図19の下段に示す絵で判断することになるので、各フラグは「回転あり」、「配置変更あり」および「ミラー反転なし」となり、交換レンズユニット200およびアダプタ400により構成される光学系はパターン8に対応する光学系であることが分かる。
 以上に説明したレンズ特性情報F2を用いることで、左眼用画像データおよび右眼用画像データを正しく抽出することができる。
  (レンズ状態情報F3)
 レンズ状態情報F3は、交換レンズユニット200の撮影状態が整っているか否かを示す待機情報であり、撮影可否フラグ(制限情報の一例)としてRAM240cの所定のアドレスに格納される。3次元光学系Gの撮影状態が整っている状態とは、例えば、左眼用光学系OL、右眼用光学系OR、第1駆動ユニット271および第2駆動ユニット272の初期化が完了している状態を意味している。撮影可否フラグは、カメラ本体が3次元撮影に対応していない場合でもカメラ本体が認識し得るフラグである。3次元光学系Gの撮影状態が整っていない場合はカメラ本体が撮影を制限するので、レンズ状態情報F3はカメラ本体での撮影を制限する制限情報ということもできる。制限情報としては、前述の待機情報の他に、例えば、交換レンズユニット200のエラーを示すエラー情報が考えられる。
  (レンズコントローラー240の詳細)
 レンズコントローラー240は、カメラ本体が3次元撮影に対応しているか否かを判定する。具体的には図5に示すように、レンズコントローラー240は、レンズ側判定部244と、状態情報生成部243と、を有している。
 レンズ側判定部244はカメラ本体100が3次元撮影に対応しているか否かを判定する。より詳細には、レンズ側判定部244は、レンズ特性情報F2の送信を要求する特性情報送信コマンドが所定期間の間にカメラ本体から送られてこない場合に、カメラ本体が3次元撮影に対応していないと判定する。
 状態情報生成部243は、交換レンズユニット200の状態およびレンズ側判定部244の判定結果に基づいて、3次元光学系Gの撮影状態が整っているか否かを示す撮影可否フラグ(制限情報の一例)のステータスを設定する。通常、交換レンズユニット200の各部の初期化が完了すると、状態情報生成部243は撮影可否フラグを「可」に設定する。しかし、例えば図7(C)に示すように、レンズ側判定部244によりカメラ本体が3次元撮影に対応していないと判定された場合には、状態情報生成部243は、各部の初期化が完了しているか否かに関わらず、撮影可否フラグのステータスを「不可」に設定する。一方、状態情報生成部243は、レンズ側判定部244によりカメラ本体が3次元撮影に対応していると判定された場合には、各部の初期化完了後、撮影可否フラグのステータスを「可」に設定する。撮影可否フラグの設定時にカメラ本体が3次元撮影に対応しているか否かを判定することで、カメラ本体が3次元撮影に対応していない場合に、3次元撮影が可能であると思い込んでユーザーが撮影を行ってしまうのを防止できる。もちろん、撮影可否フラグは、他の条件によりカメラ本体の撮影を停止するために使用可能である。
 <2:カメラ本体の構成>
 図4および図6に示すように、カメラ本体100は、CMOSイメージセンサー110、カメラモニタ120、電子ビューファインダー180、表示制御部125、操作部130、カードスロット170、シャッターユニット190、ボディマウント150、DRAM141、画像処理部10、カメラコントローラー140(制御部の一例)を備えている。これら各部は、バス20に接続されており、バス20を介して互いにデータの送受信が可能となっている。
 (1)CMOSイメージセンサー110
 CMOSイメージセンサー110は、交換レンズユニット200により形成される被写体の光学像(以下、被写体像ともいう)を画像信号に変換する。図6に示すように、CMOSイメージセンサー110はタイミングジェネレータ112で生成されるタイミング信号に基づいて画像信号を出力する。CMOSイメージセンサー110で生成された画像信号は、信号処理部15(後述)でデジタル化され画像データに変換される。CMOSイメージセンサー110により静止画データおよび動画データを取得できる。取得された動画データはスルー画像の表示にも用いられる。
 ここで、スルー画像とは、動画データのうちメモリーカード171に記録されない画像である。スルー画像は、主に動画であり、動画または静止画の構図を決めるためにカメラモニタ120または電子ビューファインダー(以下、EVFとも言う)180に表示される。
 前述のように、CMOSイメージセンサー110は、交換レンズユニット200を透過した光を受ける受光面110a(図6および図9参照)を有している。受光面110a上には被写体の光学像が形成される。図9に示すように、カメラ本体100の背面側から見た場合、第1領域110Lは受光面110aの左半分、第2領域110Rは受光面110aの右半分を占めている。交換レンズユニット200を用いて撮影を行う場合は、第1領域110Lには左眼用光学像が形成され、第2領域110Rには右眼用光学像が形成される。
 なお、CMOSイメージセンサー110は被写体の光学像を電気的な画像信号に変換する撮像素子の一例である。撮像素子は、CMOSイメージセンサー110やCCDイメージセンサー等の光電変換素子を含む概念である。
 (2)カメラモニタ120
 カメラモニタ120は、例えば液晶ディスプレイであり、表示用画像データを画像として表示する。表示用画像データは、画像処理された画像データや、デジタルカメラ1の撮影条件、操作メニュー等を画像として表示するためのデータ等であり、カメラコントローラー140で生成される。カメラモニタ120は、動画も静止画も選択的に表示可能である。図5に示すように、本実施形態では、カメラモニタ120はカメラ本体100の背面に配置されているが、カメラモニタ120はカメラ本体100のどこに配置されていてもよい。
 なお、カメラモニタ120はカメラ本体100に設けられた表示部の一例である。表示部としては、他にも、有機EL、無機EL、プラズマディスプレイパネル等、画像を表示できる装置を用いることができる。
 (3)電子ビューファインダー180
 電子ビューファインダー180は、カメラコントローラー140で生成された表示用画像データを画像として表示する。EVF180は、動画も静止画も選択的に表示可能である。また、EVF180とカメラモニタ120とは、同じ内容を表示する場合と、異なる内容を表示する場合とがあり、ともに表示制御部125によって制御される。
 (4)操作部130
 図1および図2に示すように、操作部130は、レリーズ釦131と、電源スイッチ132と、を有している。レリーズ釦131はユーザーによるシャッター操作を受け付ける。電源スイッチ132は、カメラ本体100の上面に設けられた回転式のレバースイッチである。操作部130は、ユーザーによる操作を受け付けることができればよく、ボタン、レバー、ダイアル、タッチパネル等を含む。
 (5)カードスロット170
 カードスロット170は、メモリーカード171を装着可能である。カードスロット170は、カメラコントローラー140からの制御に基づいて、メモリーカード171を制御する。具体的には、カードスロット170は、メモリーカード171に画像データを格納し、メモリーカード171から画像データを出力する。例えば、カードスロット170は、メモリーカード171に動画データを格納し、メモリーカード171から動画データを出力する。
 メモリーカード171は、カメラコントローラー140が画像処理により生成した画像データを格納可能である。例えば、メモリーカード171は、非圧縮のRAW画像ファイルや圧縮されたJPEG画像ファイル等を格納できる。さらに、メモリーカード171はマルチピクチャーフォーマット(MPF)形式のステレオ画像ファイルを格納することもできる。
 また、カードスロット170を介して、予め内部に格納された画像データをメモリーカード171から出力できる。メモリーカード171から出力された画像データまたは画像ファイルは、カメラコントローラー140で画像処理される。例えば、カメラコントローラー140は、メモリーカード171から取得した画像データまたは画像ファイルを伸張などして表示用画像データを生成する。
 メモリーカード171は、さらに、カメラコントローラー140が画像処理により生成した動画データを格納可能である。例えば、メモリーカード171は、動画圧縮規格であるH.264/AVCに従って圧縮された動画ファイルを格納できる。また、ステレオ動画ファイルを格納することもできる。また、カードスロット170を介して、予め内部に格納された動画データまたは動画ファイルをメモリーカード171から出力できる。メモリーカード171から出力された動画データまたは動画ファイルは、カメラコントローラー140で画像処理される。例えば、カメラコントローラー140は、メモリーカード171から取得した動画データまたは動画ファイルに伸張処理を施し、表示用動画データを生成する。
 (6)シャッターユニット190
 シャッターユニット190は、いわゆるフォーカルプレーンシャッターであり、図3に示すように、ボディマウント150とCMOSイメージセンサー110との間に配置される。シャッターユニット190のチャージはシャッターモーター199により行われる。シャッターモーター199は、例えばステッピングモータであり、カメラコントローラー140により制御される。
 (7)ボディマウント150
 ボディマウント150は、交換レンズユニット200を装着可能であり、交換レンズユニット200が装着された状態で交換レンズユニット200を保持する。ボディマウント150は、交換レンズユニット200のレンズマウント250と機械的および電気的に接続可能である。ボディマウント150とレンズマウント250とを介して、カメラ本体100と交換レンズユニット200との間で、データおよび/または制御信号を送受信可能である。具体的には、ボディマウント150とレンズマウント250とは、カメラコントローラー140とレンズコントローラー240との間で、データおよび/または制御信号を送受信する。
 (8)カメラコントローラー140
 カメラコントローラー140はカメラ本体100全体を制御する。カメラコントローラー140は操作部130と電気的に接続されている。カメラコントローラー140には操作部130から操作信号が入力される。カメラコントローラー140は、制御動作や後述の画像処理動作の際に、DRAM141をワークメモリとして使用する。
 また、カメラコントローラー140は、交換レンズユニット200を制御するための信号を、ボディマウント150およびレンズマウント250を介してレンズコントローラー240に送信し、交換レンズユニット200の各部を間接的に制御する。また、カメラコントローラー140は、ボディマウント150およびレンズマウント250を介して、レンズコントローラー240から各種信号を受信する。
 カメラコントローラー140は、CPU(Central Processing Unit)140a、ROM(Read Only Memory)140bおよびRAM(Random Access Memory)140cを有しており、ROM140b(コンピュータにより読み取り可能な記録媒体の一例)に格納されたプログラムがCPU140aに読み込まれることで様々な機能を実現し得る。
  (カメラコントローラー140の詳細)
 ここで、カメラコントローラー140の機能の詳細について説明する。
 まず、カメラコントローラー140は、交換レンズユニット200がカメラ本体100(より詳細には、ボディマウント150)に装着されているか否かを検知する。具体的には図6に示すように、カメラコントローラー140はレンズ検知部146を有している。交換レンズユニット200がカメラ本体100に装着されると、カメラコントローラー140とレンズコントローラー240との間で信号の送受信が行われる。レンズ検知部146は、信号の送受信に基づいて交換レンズユニット200が装着されているか否かを判定する。
 また、カメラコントローラー140は、ボディマウント150に装着されている交換レンズユニットが3次元撮影に対応しているか否かを判定する機能、および交換レンズユニットから3次元撮影に関係する情報を取得する機能など、様々な機能を有している。カメラコントローラー140は、識別情報取得部142、特性情報取得部143、カメラ側判定部144、状態情報取得部145、領域決定部149、メタデータ生成部147および画像ファイル生成部148を有している。
 識別情報取得部142は、交換レンズユニット200が3次元撮影に対応しているか否かを示すレンズ識別情報F1を、ボディマウント150に装着されている交換レンズユニット200から取得する。図7(A)に示すように、レンズ識別情報F1は、ボディマウント150に装着されている交換レンズユニットが3次元撮影に対応しているか否かを示す情報であり、例えばレンズコントローラー240のフラッシュメモリ242に格納されている。レンズ識別情報F1はフラッシュメモリ242の所定のアドレスに格納された3次元撮影判定フラグである。識別情報取得部142は取得したレンズ識別情報F1を例えばDRAM141に一時的に格納する。
 カメラ側判定部144は、識別情報取得部142により取得されたレンズ識別情報F1に基づいて、ボディマウント150に装着されている交換レンズユニット200が3次元撮影に対応しているか否かを判定する。ボディマウント150に装着されている交換レンズユニット200が3次元撮影に対応しているとカメラ側判定部144により判定された場合、カメラコントローラー140は3次元撮影モードの実行を許容する。一方、ボディマウント150に装着されている交換レンズユニット200が3次元撮影に対応していないとカメラ側判定部144により判定された場合、カメラコントローラー140は3次元撮影モードの実行を制限する。この場合、カメラコントローラー140は2次元撮影モードの実行を許容する。
 特性情報取得部143は、交換レンズユニット200に搭載されている光学系の特性を示すレンズ特性情報F2を交換レンズユニット200から取得する。具体的には、特性情報取得部143は、交換レンズユニット200が3次元撮影に対応しているとカメラ側判定部144により判定された場合に、前述のレンズ特性情報F2を交換レンズユニット200から取得する。特性情報取得部143は、取得したレンズ特性情報F2を例えばDRAM141に一時的に格納する。
 特性情報取得部143の機能をより詳細に説明すると、特性情報取得部143は、回転情報取得部143a、配置情報取得部143bおよび反転情報取得部143cを有している。
 回転情報取得部143aはボディマウント150に装着された交換レンズユニットからレンズ特性情報F2の180度回転フラグのステータス情報(回転情報の一例)を取得する。180度回転フラグは被写体に対して回転された光学像を交換レンズユニットが撮像素子上に形成するか否かを示している。具体的には、180度回転フラグは、交換レンズユニットが3次元光学系Gのような光学系を有しているか、後述の3次元光学系G4(第2立体撮影光学系の一例、図16(A)参照)のような光学系を有しているか、を示している。180度回転フラグが立っていれば、左眼用画像データおよび右眼用画像データを抽出する際に、抽出領域を回転させる必要がある。より詳細には、180度回転フラグが立っていれば、左眼用画像データおよび右眼用画像データを抽出する際に、抽出処理の始点位置を基準とする位置から変更する必要がある。
 配置情報取得部143bはボディマウント150に装着された交換レンズユニットからレンズ特性情報F2の配置変更フラグのステータス(配置情報の一例)を取得する。配置フラグは左眼用光学系により形成される左眼用光学像と右眼用光学系により形成される右眼用光学像との位置関係が左右で入れ替わっているか否かを示している。具体的には、配置フラグは、交換レンズユニットが3次元光学系Gのような光学系を有しているか、後述の3次元光学系G3(図15参照)のような光学系を有しているのか、を示している。配置フラグが立っていれば、左眼用画像データおよび右眼用画像データを抽出する際に、左側画像データの抽出領域および右眼用画像データの抽出領域の位置関係を入れ替える必要がある。より詳細には、配置フラグが立っていれば、左眼用画像データおよび右眼用画像データを抽出する際に、左側画像データの抽出処理の始点位置および右眼用画像データの抽出処理の始点位置をそれぞれ変更する必要がある。
 反転情報取得部143cはボディマウント150に装着されている交換レンズユニットからミラー反転フラグのステータス(反転情報の一部)を取得する。ミラー反転フラグは、左眼用光学像および右眼用光学像がそれぞれ撮像素子上でミラー反転しているか否かを示している。ミラー反転フラグが立っていれば、左眼用画像データおよび右眼用画像データを抽出する際に、抽出領域をそれぞれ左右にミラー反転させる必要がある。より詳細には、ミラー反転フラグが立っていれば、左眼用画像データおよび右眼用画像データを抽出する際に、左側画像データの抽出処理の始点位置および右眼用画像データの抽出処理の始点位置をそれぞれ変更する必要がある。
 状態情報取得部145は状態情報生成部243により生成されたレンズ状態情報F3(撮影可否フラグ)を取得する。このレンズ状態情報F3は交換レンズユニット200が撮影可能な状態か否かを判定するのに用いられる。状態情報取得部145は取得したレンズ状態情報F3を例えばDRAM141に一時的に格納する。
 領域決定部149は、画像抽出部16で左眼用画像データおよび右眼用画像データを抽出する際に用いられる抽出領域AL2およびAR2のサイズおよび位置を決定する。具体的には、領域決定部149は、イメージサークルILおよびIRの半径r、レンズ特性情報F2に含まれる左眼ズレ量DL、右眼ズレ量DRおよび傾き角度θ2に基づいて、左眼用画像データおよび右眼用画像データの抽出領域AL2およびAR2のサイズおよび位置を決定する。さらに、領域決定部149は、レンズ特性情報F2の180度回転フラグ、配置変更フラグおよびミラー反転フラグに基づいて、左眼用画像データおよび右眼用画像データを正しく抽出できるように、画像データ上における抽出処理の始点を決定する。
 例えば、図18に示すパターン1の場合、画像抽出部16は、左眼用画像データの抽出領域AL2の始点を点PL11に設定し、右眼用画像データの抽出領域AR2の始点を点PR11に設定する。図18に示すパターン3の場合は、画像抽出部16は、抽出領域AL2の始点を点PL21に設定し、抽出領域AR2の始点を点PR21に設定する。図19に示すパターン4の場合は、画像抽出部16は、抽出領域AL2の始点を点PL41に設定し、抽出領域AR2の始点を点PR41に設定する。図19に示すパターン8の場合は、画像抽出部16は、抽出領域AL2の始点を点PL31に設定し、抽出領域AR2の始点を点PR31に設定する。このように各フラグのステータスに基づいて抽出処理の始点を変えることで、交換レンズユニットの光学系の種類に応じて、画像抽出部16による左眼用画像データおよび右眼用画像データの抽出処理を正しく行うことができる。
 メタデータ生成部147は基線長および輻輳角を設定したメタデータを生成する。基線長および輻輳角はステレオ画像を表示する際に用いられる。
 画像ファイル生成部148は、画像圧縮部17(後述)により圧縮された左眼用および右眼用画像データとメタデータとを組み合わせて、MPF形式のステレオ画像ファイルを生成する。生成された画像ファイルは、例えばカードスロット170に送信されメモリーカード171に保存される。
 (9)画像処理部10
 画像処理部10は、信号処理部15、画像抽出部16、補正処理部18および画像圧縮部17を有している。
 信号処理部15は、CMOSイメージセンサー110で生成される画像信号をデジタル化してCMOSイメージセンサー110上に結像する光学像の基本画像データを生成する。具体的には、信号処理部15は、CMOSイメージセンサー110から出力される画像信号をデジタル信号に変換し、そのデジタル信号に対してノイズ除去や輪郭強調等のデジタル信号処理を施す。信号処理部15により生成された画像データはRAWデータとしてDRAM141に一時的に記憶される。ここでは、信号処理部15により生成された画像データを基本画像データと呼ぶ。
 画像抽出部16は信号処理部15で生成された基本画像データから左眼用画像データおよび右眼用画像データを抽出する。左眼用画像データは左眼用光学系OLにより形成される左眼用光学像QL1の一部に対応している。右眼用画像データは右眼用光学系ORにより形成される右眼用光学像QR1の一部に対応している。領域決定部149により決定された抽出領域AL2およびAR2に基づいて、DRAM141に格納された基本画像データから画像抽出部16は左眼用画像データおよび右眼用画像データを抽出する。画像抽出部16により抽出された左眼用画像データおよび右眼用画像データはDRAM141に一時的に格納される。
 補正処理部18は、抽出した左眼用画像データおよび右眼用画像データのそれぞれに対して歪曲収差補正およびシェーディング補正などの補正処理を行う。補正処理後、左眼用画像データおよび右眼用画像データはDRAM141に一時的に格納される。
 画像圧縮部17はカメラコントローラー140の命令に基づいてDRAM141に記憶された補正後の左眼用および右眼用画像データに圧縮処理を施す。この圧縮処理により、画像データのデータサイズは元のデータサイズよりも小さくなる。画像データの圧縮方法として、例えば1フレームの画像データ毎に圧縮するJPEG(Joint Photographic Experts Group)方式が考えられる。圧縮された左眼用画像データおよび右眼用画像データはDRAM141に一時的に格納される。
 〔デジタルカメラの動作〕
 (1)電源ON時
 交換レンズユニット200が3次元撮影に対応しているか否かの判定は、カメラ本体100の電源がONの状態で交換レンズユニット200がカメラ本体100に装着されたとき、あるいは、交換レンズユニット200がカメラ本体100に装着された状態でカメラ本体100の電源がONになったとき、が考えられる。ここでは、後者の場合を例にデジタルカメラ1の動作を図8(A)、図8(B)、図20および図21のフローを用いて説明する。もちろん、前者の場合にも、同様の動作を行ってもよい。なお、図8(B)はデジタルカメラ1の動作を示しているが、図8(A)は3次元撮影に対応していないカメラ本体に交換レンズユニット200が装着された場合のカメラ本体および交換レンズユニット200の動作を示している。また、図20および図21のフローチャートは、3次元撮影に対応しているカメラ本体100の動作を示している。
 図20に示すように、電源がONになると、表示制御部125の制御によりカメラモニタ120に黒画面が表示され、カメラモニタ120のブラックアウトの状態が保持される(ステップS1)。次に、カメラコントローラー140の識別情報取得部142により交換レンズユニット200からレンズ識別情報F1が取得される(ステップS2)。具体的には図8(B)に示すように、カメラコントローラー140のレンズ検知部146により交換レンズユニット200の装着が検知されると、カメラコントローラー140はレンズコントローラー240に種別確認コマンドを送信する。この種別確認コマンドは、レンズ識別情報F1の3次元撮影判定フラグのステータスを送信するようレンズコントローラー240に要求するコマンドである。図8(B)に示すように、交換レンズユニット200が3次元撮影に対応しているので、種別確認コマンドを受信するとレンズコントローラー240がレンズ識別情報F1(3次元撮影判定フラグ)をカメラ本体100に送信する。識別情報取得部142はこの3次元撮影判定フラグのステータスをDRAM141に一時的に格納する。
 次に、図20に示すように、通常初期通信がカメラ本体100および交換レンズユニット200の間で実行される(ステップS3)。通常初期通信とは、3次元撮影に対応していない交換レンズユニットおよびカメラ本体の間でも行われる通信であり、例えば交換レンズユニット200の仕様に関する情報(焦点距離、F値等)が交換レンズユニット200からカメラ本体100に送信される。
 通常初期通信の後、カメラ側判定部144により、ボディマウント150に装着されている交換レンズユニット200が3次元撮影に対応しているか否かが判定される(ステップS4)。具体的には、識別情報取得部142により取得されたレンズ識別情報F1(3次元撮影判定フラグ)に基づいて、装着されている交換レンズユニット200が3次元撮影に対応しているか否かがカメラ側判定部144により判定される。
 装着されている交換レンズユニットが3次元撮影に対応していない場合、2次元撮影に対応している通常のシーケンスが実行され、交換レンズユニットが撮影可能状態にあるか否かを示すレンズ状態情報が状態情報取得部145により確認される(ステップS4、S8およびS9)。交換レンズユニットが撮影可能状態になるまで、状態情報取得部145によるレンズ状態情報の確認が定期的に繰り返される(ステップS10)。交換レンズユニットが撮影可能状態になれば、通常の2次元撮影画像がカメラモニタ120にライブビュー表示され、デジタルカメラ1は撮影可能状態となる(図21のステップS17)。
 一方、交換レンズユニット200のように3次元撮影に対応している交換レンズユニットが装着されている場合は、特性情報取得部143によりレンズ特性情報F2が交換レンズユニット200から取得される(ステップS5)。具体的には図8(B)に示すように、特性情報取得部143からレンズコントローラー240に特性情報送信コマンドが送信される。この特性情報送信コマンドはレンズ特性情報F2の送信を要求するコマンドである。
 また、レンズ側判定部244は、特性情報送信コマンドが所定期間の間にカメラ本体から送られてこない場合に、カメラ本体が3次元撮影に対応していないと判定する(図8(A)参照)。
 交換レンズユニット200では、前述の特性情報送信コマンドをレンズコントローラー240のレンズ側判定部244が受信すると、レンズ側判定部244はカメラ本体100が3次元撮影に対応していると判定する(8(B)参照)。レンズコントローラー240が特性情報送信コマンドを受信すると、レンズコントローラー240はレンズ特性情報F2をカメラコントローラー140の特性情報取得部143に送信する。特性情報取得部143はレンズ特性情報F2を例えばDRAM141に格納する。
 図20に示すように、レンズ特性情報F2の取得後、レンズ特性情報F2に基づいて画像抽出部16により抽出領域AL2およびAR2のサイズおよび抽出方法が決定される(ステップS6およびS7)。例えば、前述のように、光軸位置、撮像有効エリア(半径r)、左眼ズレ量DL、右眼ズレ量DR、180度回転フラグ、配置変更フラグおよびミラー反転フラグに基づいて、抽出領域AL2およびAR2のサイズ、位置および抽出領域AL2およびAR2のいずれの画像を右眼用画像として抽出するか、画像を回転するか、画像をミラー反転するかといった抽出方法が領域決定部149により決定される。具体的には、抽出処理の始点、抽出処理の方向等を定めた抽出方法が決定される。
 図21に示すように、抽出方法の決定後、交換レンズユニットが撮影可能状態にあるか否かが状態情報取得部145により確認される(ステップS11)。具体的には、交換レンズユニット200では、前述の特性情報送信コマンドをレンズ側判定部244が受信すると、レンズ側判定部244はカメラ本体100が3次元撮影に対応していると判定する(8(B)参照)。一方、レンズ側判定部244は、特性情報送信コマンドが所定期間の間にカメラ本体から送られてこない場合に、カメラ本体が3次元撮影に対応していないと判定する(図8(A)参照)。
 さらに、状態情報生成部243は、レンズ側判定部244の判定結果に基づいて、3次元光学系Gの撮影状態が整っているか否かを示す撮影可否フラグ(制限情報の一例)のステータスを設定する。状態情報生成部243は、レンズ側判定部244によりカメラ本体が3次元撮影に対応していると判定された場合には(図8(B))、各部の初期化完了後、撮影可否フラグのステータスを「可」に設定する。一方、レンズ側判定部244によりカメラ本体が3次元撮影に対応していないと判定された場合には(図8(A)参照)、状態情報生成部243は、各部の初期化が完了しているか否かに関わらず、撮影可否フラグのステータスを「不可」に設定する。カメラ本体100の場合、ステップS9およびS11において、撮影可否フラグのステータス情報の送信を要求するコマンドが状態情報取得部145からレンズコントローラー240へ送信されると、交換レンズユニット200の状態情報生成部243が撮影可否フラグのステータス情報をカメラコントローラー140に送信する。カメラ本体100では、レンズコントローラー240から送信された撮影可否フラグのステータス情報を状態情報取得部145がDRAM141の所定のアドレスに一時的に格納する。
 さらに、格納された撮影可否フラグに基づいて状態情報取得部145により交換レンズユニット200が撮影可能状態か否かが判定される(ステップS12)。交換レンズユニット200が撮影可能状態になっていない場合は、ステップS11およびステップS12の処理が所定の周期で繰り返される。
 一方、交換レンズユニット200が撮影可能状態になっている場合は、ライブビュー表示用の画像として左眼用および右眼用画像データのうち一方が選択される(ステップS13)。例えば、左眼用および右眼用画像データからユーザーに選択させるようにしてもよいし、また、カメラコントローラー140において予め決定されている方を表示用として設定してもよい。選択された方の画像データが表示用画像として設定され、画像抽出部16により抽出される(ステップS14Aまたは14B)。
 続いて、抽出された画像データに対して、歪曲収差補正やシェーディング補正などの補正処理が補正処理部18により施される(ステップS15)。さらに、表示制御部125により補正後の画像データにサイズ調整処理が施され、表示用の画像データが生成される(ステップS16)。この表示用画像データはDRAM141に一時的に格納される。
 ステップS16で生成された表示用画像データをカメラモニタ120に可視画像として表示させる(ステップS17)。ステップS17以降は、例えばカメラモニタ120に左眼用画像、右眼用画像、左眼用画像と右眼用画像を組み合わせた画像、または、左眼用画像と右眼用画像とを用いた3次元表示がライブビュー表示される。
 (2)3次元静止画撮影
 次に、図22を用いて3次元静止画撮影時の動作について説明する。
 ユーザーがレリーズ釦131を押すと、オートフォーカス(AF)および自動露出(AE)が実行され、続いて露光が開始される(ステップS21およびS22)。CMOSイメージセンサー110から画像信号(全画素のデータ)が信号処理部15に取り込まれ、信号処理部15においてAD変換などの信号処理が画像信号に施される(ステップS23およびS24)。信号処理部15により生成された基本画像データはDRAM141に一時的に格納される。
 次に、画像抽出部16により、左眼用画像データおよび右眼用画像データが基本画像データから抽出される(ステップS25)。このときの抽出領域AL2およびAR2のサイズ、位置および抽出方法は、ステップS6およびS7で決定された値が用いられる。なお、抽出領域AL2およびAR2の位置を決定する際に、基本画像から動きベクトルを算出して、その動きベクトルを利用して抽出領域AL2およびAR2の位置を調整してもよい。
 さらに、補正処理部18により、抽出された左眼用画像データおよび右眼用画像データに補正処理が施され、画像圧縮部17によりJPEG圧縮などの圧縮処理が左眼用画像データおよび右眼用画像データに対して行われる(ステップS26およびS27)。
 圧縮処理後、カメラコントローラー140のメタデータ生成部147により、基線長および輻輳角を設定したメタデータが生成される(ステップS28)。
 メタデータ生成後、圧縮された左眼用および右眼用画像データとメタデータとを組み合わせて、MPF形式の画像ファイルが画像ファイル生成部148により生成される(ステップS29)。生成された画像ファイルは、例えばカードスロット170に送信されメモリーカード171に保存される。この画像ファイルを基線長および輻輳角を用いて3次元表示すると、専用メガネなどを用いれば表示された画像を立体視することができる。
 〔カメラ本体の特徴〕
 以上に説明したカメラ本体の特徴を以下にまとめる。
 (1)カメラ本体100では、ボディマウント150に装着されている交換レンズユニットから識別情報取得部142によりレンズ識別情報が取得される。例えば、交換レンズユニット200が3次元撮影に対応しているか否かを示すレンズ識別情報F1が、ボディマウント150に装着されている交換レンズユニット200から識別情報取得部142により取得される。このため、3次元撮影に対応している交換レンズユニット200がカメラ本体100に装着されると、レンズ識別情報F1に基づいて交換レンズユニット200が3次元撮影に対応しているとカメラ側判定部144が判断する。逆に、3次元撮影に対応していない交換レンズユニットがカメラ本体100に装着されると、レンズ識別情報F1に基づいて交換レンズユニットが3次元撮影に対応していないとカメラ側判定部144が判断する。
 このように、このカメラ本体100であれば、3次元撮影に対応している交換レンズユニットや対応していない交換レンズユニットなど、様々な交換レンズユニットに対応することができる。
 (2)また、カメラ本体100では、交換レンズユニットの特性(例えば光学系の特性)を示すレンズ特性情報F2が特性情報取得部143により取得される。例えば、交換レンズユニット200に搭載されている3次元光学系Gの特性を示すレンズ特性情報F2が交換レンズユニット200から特性情報取得部143により取得される。したがって、交換レンズユニットに搭載されている3次元光学系の特性に応じて、カメラ本体100における画像処理などの動作を調整することができる。
 また、ボディマウント150に装着されている交換レンズユニットが3次元撮影に対応しているとカメラ側判定部144により判定された場合に、レンズ特性情報F2が交換レンズユニットから特性情報取得部143により取得される。したがって、交換レンズユニットが3次元撮影に対応していない場合に、余分なデータのやりとりを省略することができ、カメラ本体100での処理の高速化が期待できる。
 (3)このカメラ本体100では、領域決定部149は、半径r、左眼ズレ量DL、右眼ズレ量DRおよび傾き角度θ2を用いて、画像信号に対する左眼用画像データおよび右眼用画像データの抽出領域AL2およびAR2のサイズおよび位置を決定する。したがって、交換レンズユニットの個体差あるいは取付誤差により左眼用画像データおよび右眼用画像データの抽出領域AL2およびAR2が実際に抽出すべき領域から大きくずれるのを抑制できる。これにより、製品の個体差に起因するステレオ画像の品質の低下を抑制できる。
 (4)また、180度回転フラグ、配置変更フラグ、ミラー反転フラグ、または、これらの組み合わせに基づいて、領域決定部149により抽出方法(例えば抽出処理の始点や処理の方向など)が決定される。これにより、カメラコントローラー140(制御部の一例)は、受光面110a上で光学像が回転してしまうような場合、左眼用光学像と右眼用光学像との位置関係が入れ替わるような場合、あるいは、左眼用および右眼用光学像がそれぞれミラー反転するような場合であっても、適切なステレオ画像データを生成することができる。
 (5)例えば、180度回転フラグに基づいて領域決定部149が抽出方法を決定する。したがって、被写体に対して回転された光学像を受光面110a上に形成する交換レンズユニットがボディマウント150に装着されても(例えば図16(A)~図16(D)に示す場合)、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が被写体の上下に対して一致するように、画像抽出部16が左眼用画像データおよび右眼用画像データを生成することができる。したがって、どのような交換レンズユニット200がボディマウント150に装着されても、ステレオ画像が上下逆さまになってしまうのを防止できる。
 (6)また、配置変更フラグに基づいて領域決定部149が抽出処理の始点を決定する。したがって、図18の上段に示すように、ボディマウント150に装着されている交換レンズユニット200が、左眼用光学像QL1を第1領域110Lに形成する左眼用光学系OL(第1光学系の一例)と、右眼用光学像QR1を第2領域110Rに形成する右眼用光学系OR(第2光学系の一例)と、を有している場合、画像抽出部16(制御部の一例)は、第1領域110Lに対応する画像信号から左眼用画像データを生成し、かつ、第2領域110Rに対応する画像信号から右眼用画像データを生成することができる。
 また、図18の下段に示すように、ボディマウント150に装着されている交換レンズユニット300が、左眼用光学像QL2を第2領域110Rに形成する左眼用光学系OL3(第3光学系の一例)と、右眼用光学像QR2を第1領域110Lに形成する右眼用光学系OR3(第4光学系の一例)と、を有している場合、画像抽出部16(制御部の一例)第2領域110Rに対応する画像信号から左眼用画像データを生成し、かつ、第1領域110Lに対応する画像信号から右眼用画像データを生成することができる。
 このように、このカメラ本体100では、CMOSイメージセンサー110の受光面110a上での左眼用光学像および右眼用光学像の位置関係が入れ替わってしまうような交換レンズユニットが装着された場合であっても、左眼用光学像に基づいて左眼用画像データが生成され、右眼用光学像に基づいて右眼用画像データが生成される。したがって、どのような交換レンズユニットがボディマウント150に装着されても、3次元撮影を行う際に左眼用画像データの視点および右眼用画像データの視点の位置関係が入れ替わってしまうのを防止できる。
 (7)さらに、ミラー反転フラグに基づいて画像抽出部16が抽出処理の始点を決定する。したがって、左眼用画像データに対応する左眼用光学像を被写体に対して受光面110a上でミラー反転させる交換レンズユニットがボディマウント150に装着されても、左眼用画像データで再現される左眼用画像の上下および左右が被写体の上下および左右と一致するように、画像抽出部16が左眼用画像データを生成することができる。
 また、右眼用画像データに対応する右眼用光学像を被写体に対して受光面110a上でミラー反転させる交換レンズユニット200がボディマウント150に装着されても、右眼用画像データで再現される右眼用画像の上下および左右が被写体の上下および左右と一致するように、画像抽出部16が右眼用画像データを生成することができる。
 (8)なお、3次元撮影に対応していない交換レンズユニットがボディマウント150に装着された場合、カメラコントローラー140は、少なくともユーザーによる操作が行われるまでは3次元撮影モードの実行を制限する。したがって、このカメラ本体100では、立体視するのに好ましくない画像が撮影されてしまうのを防止できる。
 (9)以上のように、このカメラ本体100であれば、3次元撮影に対応している交換レンズユニットや対応していない交換レンズユニットなど、様々な交換レンズユニットに対応することが可能となる。
 〔交換レンズユニットの特徴〕
 また、交換レンズユニット200も以下のような特徴を有している。
 (1)この交換レンズユニット200では、レンズ側判定部244によりカメラ本体100が3次元撮影に対応していないと判定された場合に、状態情報送信コマンドに応じて、3次元光学系Gの撮影状態が整っていないことを示す撮影可否フラグのステータス情報(制限情報の一例)を状態情報生成部243がカメラ本体に送信する。したがって、誤って3次元撮影用の光学系で2次元撮影が行われるのを防止することができる。
 (2)また、レンズ特性情報F2の送信を要求する特性情報送信コマンドがカメラ本体から送られてこない場合に、レンズ側判定部244はカメラ本体が3次元撮影に対応していないと判定する。したがって、カメラ本体が3次元撮影を全く想定していない場合であっても、カメラ本体が3次元撮影に対応していないことを交換レンズユニット200側で判断することができる。
 〔他の実施形態〕
 本発明は、前述の実施形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形および修正が可能である。
 (A)ミラーボックスを有していないデジタルカメラ1を例に、撮像装置およびカメラ本体について説明しているが、ミラーボックスを有するデジタル一眼レフカメラであっても、3次元撮影に対応させることは可能である。なお、撮像装置は静止画だけでなく動画撮影が可能な装置であってもよい。
 (B)交換レンズユニット200を例に、交換レンズユニットについて説明しているが、3次元光学系の構成は前述の実施形態に限定されない。1つの撮像素子で対応できるのであれば、3次元光学系が他の構成を有していてもよい。
 (C)3次元光学系Gは並置撮影方式に限定されず、例えば交換レンズユニットの光学系として時分割撮影方式が採用されていてもよい。また、前述の実施形態では、通常の並置撮影方式を例に記載しているが、水平方向に左眼用および右眼用画像が圧縮される水平圧縮並置撮影方式、あるいは、左眼用および右眼用画像を90度回転させた回転並置撮影方式が採用されていてもよい。
 (D)図20~図22に示すフローチャートは一例であって、フローチャートはこれらに限定されない。例えば、図20に示す通常初期通信(ステップS3)は、レンズ状態を取得するステップS14までに実行されればよい。また、図20に示すステップS6~S13の処理はステップS14より後に実行されてもよい。
 (E)前述の実施形態では、180度回転フラグ、配置変更フラグおよびミラー反転フラグを別々のフラグとして記載しているが、これら3つのフラグが1つのフラグにまとめられていてもよいし、これらの3つのうち一部のフラグが1つのフラグにまとめられていてもよい。
 (F)前述の実施形態では、レンズ識別情報F1の3次元撮影判定フラグに基づいて、交換レンズユニットが3次元撮影に対応しているか否かがカメラ側判定部144により判定される。つまり、カメラ側判定部144は、交換レンズユニットが3次元撮影に対応している、という情報に基づいて判定を行っている。
 しかしながら、交換レンズユニットが3次元撮影に対応しているか否かの判定を、他の情報を用いて行ってもよい。例えば、交換レンズユニットが2次元撮影に対応していることを示す情報がレンズ識別情報F1に含まれている場合に、交換レンズユニットが3次元撮影に対応していない、と判断してもよい。
 また、交換レンズユニットのレンズコントローラー240に予め格納されているレンズIDに基づいて交換レンズユニットが3次元撮影に対応しているか否かを判定してもよい。レンズIDは交換レンズユニットを識別できる情報であればよい。レンズIDとしては、例えば、交換レンズユニットの製品の型番などが考えられる。レンズIDを用いて交換レンズユニットが3次元撮影に対応しているか否かを判定する場合、例えば、カメラコントローラー140には予めレンズIDのリストが格納されている。このリストは、どの交換レンズユニットが3次元撮影に対応しているかを示しており、このリストと、交換レンズユニットから取得したレンズIDと、を比較して、交換レンズユニットが3次元撮影に対応しているか否かをカメラ側判定部144が判定する。このように、レンズIDを用いて、交換レンズユニットが3次元撮影に対応しているか否かを判定することもできる。なお、例えばカメラコントローラー140のソフトウェアのアップデートにより、このリストが最新のリストに更新できるようにしてもよい。
 ここに開示されるカメラ本体では、様々な交換レンズユニットに対応することができる。また、ここに開示される交換レンズユニットでは、様々なカメラ本体に対応することができる。したがって、ここに開示されるカメラ本体および交換レンズユニットを有する撮像装置であれば、ステレオ画像の撮影を正しく行うことができる。つまり、ここに開示される技術は、カメラ本体、交換レンズユニットおよび撮像装置に適用できる。
 1 デジタルカメラ(撮像装置の一例)
 15 信号処理部(信号処理部の一例)
 16 画像抽出部
 17 画像圧縮部
 18 補正処理部
 100カメラ本体
 110 CMOSイメージセンサー(撮像素子の一例)
 140 カメラコントローラー(制御部の一例)
 140a CPU
 140b ROM(角度記憶部の一例、コンピュータにより読み取り可能な記録媒体の一例)
 140c RAM
 141 DRAM
 142 識別情報取得部(識別情報取得部の一例)
 143 特性情報取得部
 144 カメラ側判定部(カメラ側判定部の一例)
 145 状態情報取得部
 146 レンズ検知部
 147 メタデータ生成部
 148 画像ファイル生成部
 149 領域決定部(領域決定部の一例)
 150 ボディマウント(ボディマウントの一例)
 200 交換レンズユニット(交換レンズユニットの一例)
 240 レンズコントローラー
 240a CPU
 240b ROM(コンピュータにより読み取り可能な記録媒体の一例)
 240c RAM
 241 DRAM
 242 フラッシュメモリ(特性情報記憶部の一例)
 243 状態情報生成部(状態情報生成部の一例)
 244 レンズ側判定部
 OL 左眼用光学系
 OR 右眼用光学系
 QL1 左眼用光学像
 QR1 右眼用光学像
 F1 レンズ識別情報(レンズ識別情報の一例)
 F2 レンズ特性情報(レンズ特性情報の一例)
 F3 レンズ状態情報
 300 交換レンズユニット
 400 アダプタ
 500 コリメータレンズ
 510 測定用カメラ本体
 520 測定用交換レンズユニット
 550 チャート
 600 交換レンズユニット

Claims (59)

  1.  交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体であって、
     前記交換レンズユニットを装着可能に設けられたボディマウントと、
     前記光学像を画像信号に変換する撮像素子と、
     前記交換レンズユニットが3次元撮影に対応しているか否かを示すレンズ識別情報を、前記ボディマウントに装着されている前記交換レンズユニットから取得可能な識別情報取得部と、
    を備えたカメラ本体。
  2.  前記レンズ識別情報に基づいて、前記ボディマウントに装着されている前記交換レンズユニットが3次元撮影に対応しているか否かを判定するカメラ側判定部をさらに備えた、
    請求項1に記載のカメラ本体。
  3.  前記交換レンズユニットに搭載されている光学系の特性を示すレンズ特性情報を前記交換レンズユニットから取得可能な特性情報取得部をさらに備え、
     前記特性情報取得部は、前記交換レンズユニットが3次元撮影に対応していると前記カメラ側判定部により判定された場合に、前記レンズ特性情報を前記交換レンズユニットから取得する、
    請求項2に記載のカメラ本体。
  4.  前記レンズ特性情報は、前記交換レンズユニットに並置撮影方式が採用されているか否かを識別可能なデータを含んでいる、
    請求項3に記載のカメラ本体。
  5.  前記レンズ特性情報は、右眼用光学像と左眼用光学像とを前記撮像素子の受光面上に並べて形成できる3次元光学系を前記交換レンズユニットが有しているか否かを識別可能な情報である、
    請求項3または4に記載のカメラ本体。
  6.  前記撮像素子で生成される画像信号をデジタル化して、前記撮像素子上に結像する光学像の基本画像データを生成する、信号処理部と、
     前記基本画像データの一部を抽出するための領域であって、前記左眼用光学像の少なくとも一部に対応する左眼用画像データを抽出するための第1抽出領域と、前記右眼用光学像の少なくとも一部に対応する右眼用画像データを抽出するための第2抽出領域と、を決定する領域決定部と、をさらに備えた、
    請求項5に記載のカメラ本体。
  7.  前記受光面の長辺方向に対する前記左眼用光学像内または前記右眼用光学像内での被写体の水平方向の傾き角度を記憶する角度記憶部をさらに備えた、
    請求項6に記載のカメラ本体。
  8.  前記領域決定部は、前記傾き角度を用いて、前記基本画像データにおける前記第1抽出領域の位置および前記第2抽出領域の位置を決定する、
    請求項7に記載のカメラ本体。
  9.  前記レンズ特性情報は、前記撮像素子の受光面上での前記左眼用光学系および前記右眼用光学系のイメージサークルの半径を含んでおり、
     前記領域決定部は、前記イメージサークルの半径に基づいて前記第1抽出領域のサイズおよび前記第2抽出領域のサイズを決定する、
    請求項6から8のいずれかに記載のカメラ本体。
  10.  前記左眼用光学像を形成する左眼用光学系と前記右眼用光学像を形成する右眼用光学系とを前記3次元光学系が有している場合、前記レンズ特性情報は、前記受光面上における前記左眼用光学像と前記右眼用光学像との相対的な位置関係を含んでおり、
     前記領域決定部は、前記相対的な位置関係に基づいて、前記基本画像データにおける前記第1抽出領域の位置および前記第2抽出領域の位置を決定する、
    請求項6から9のいずれかに記載のカメラ本体。
  11.  前記左眼用光学像を形成する左眼用光学系と前記右眼用光学像を形成する右眼用光学系とを前記3次元光学系が有している場合、前記レンズ特性情報は、前記受光面上における前記左眼用光学像が結像すべき第1基準位置に対する前記左眼用光学像の左眼ズレ量と、前記受光面上における前記右眼用光学像が結像すべき第2基準位置に対する前記右眼用光学像の右眼ズレ量と、を含んでおり、
     前記領域決定部は、前記左眼ズレ量および前記右眼ズレ量に基づいて、前記基本画像データにおける前記第1抽出領域の位置および前記第2抽出領域の位置を決定する、
    請求項6から9のいずれかに記載のカメラ本体。
  12.  交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体であって、
     前記交換レンズユニットを装着可能に設けられたボディマウントと、
     前記光学像を受ける受光面を有し前記光学像を画像信号に変換する撮像素子と、
     前記撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備え、
     前記受光面は、第1領域と、前記第1領域に隣接して配置された第2領域と、を有しており、
     前記制御部は、前記ボディマウントに装着されている交換レンズユニットが、左眼用光学像を前記第1領域に形成する第1光学系と、右眼用光学像を前記第2領域に形成する第2光学系と、を有している場合、前記第1領域に対応する画像信号から前記左眼用画像データを生成し、かつ、前記第2領域に対応する画像信号から前記右眼用画像データを生成し、
     前記制御部は、前記ボディマウントに装着されている交換レンズユニットが、左眼用光学像を前記第2領域に形成する第3光学系と、右眼用光学像を前記第1領域に形成する第4光学系と、を有している場合、前記第2領域に対応する画像信号から前記左眼用画像データを生成し、かつ、前記第1領域に対応する画像信号から前記右眼用画像データを生成する、
    カメラ本体。
  13.  前記ボディマウントに装着されている交換レンズユニットが前記第1光学系および前記第2光学系を有しているのか前記第3光学系および前記第4光学系を有しているのかを示す配置情報を取得可能な配置情報取得部をさらに備えた、
    請求項12に記載のカメラ本体。
  14.  交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体であって、
     前記交換レンズユニットを装着可能に設けられたボディマウントと、
     前記光学像を受ける受光面を有し前記光学像を画像信号に変換する撮像素子と、
     前記撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備え、
     前記制御部は、前記ボディマウントに装着されている交換レンズユニットが、被写体に対して回転された前記光学像を前記受光面上に形成する第1立体撮影光学系を有している場合、前記左眼用画像データおよび前記右眼用画像データで再現される1対の画像の上下が前記被写体の上下と概ね一致するように前記左眼用画像データおよび前記右眼用画像データを生成し、
     前記制御部は、前記ボディマウントに装着されている交換レンズユニットが、前記受光面上において被写体に対して前記光学像を回転させない第2立体撮影光学系を有している場合、前記左眼用画像データおよび前記右眼用画像データで再現される1対の画像の上下が前記被写体の上下と概ね一致するように前記左眼用画像データおよび前記右眼用画像データを生成する、
    カメラ本体。
  15.  交換レンズユニットが前記第1立体撮影光学系を有しているのか前記第2立体撮影光学系を有しているのかを示す回転情報を前記ボディマウントに装着されている交換レンズユニットから取得可能な回転情報取得部をさらに備えた、
    請求項14に記載のカメラ本体。
  16.  交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体であって、
     前記交換レンズユニットを装着可能に設けられたボディマウントと、
     前記光学像を受ける受光面を有し前記光学像を画像信号に変換する撮像素子と、
     前記撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備え、
     前記制御部は、前記左眼用画像データに対応する左眼用光学像を被写体に対して前記受光面上でミラー反転させる交換レンズユニットが前記ボディマウントに装着された場合、前記左眼用画像データで再現される左眼用画像の上下および左右が前記被写体の上下および左右と概ね一致するように前記左眼用画像データを生成する、
    カメラ本体。
  17.  前記左眼用画像データに対応する左眼用光学像を被写体に対して前記受光面上でミラー反転させる第1左眼用光学系を交換レンズユニットが有しているか否かを示す反転情報を前記ボディマウントに装着されている前記交換レンズユニットから取得可能な反転情報取得部をさらに備えた、
    請求項16に記載のカメラ本体。
  18.  交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体であって、
     前記交換レンズユニットを装着可能に設けられたボディマウントと、
     前記光学像を受ける受光面を有し前記光学像を画像信号に変換する撮像素子と、
     前記撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備え、
     前記制御部は、前記右眼用画像データに対応する右眼用光学像を被写体に対して前記受光面上でミラー反転させる交換レンズユニットが前記ボディマウントに装着された場合、前記右眼用画像データで再現される右眼用画像の上下および左右が前記被写体の上下および左右と概ね一致するように前記右眼用画像データを生成する、
    カメラ本体。
  19.  前記反転情報は、前記右眼用画像データに対応する右眼用光学像を被写体に対して前記受光面上でミラー反転させる第1右眼用光学系を交換レンズユニットが有しているか否かを示している、
    請求項18に記載のカメラ本体。
  20.  交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体であって、
     前記交換レンズユニットを装着可能に設けられたボディマウントと、
     前記光学像を画像信号に変換する撮像素子と、
     3次元撮影に対応していない交換レンズユニットが前記ボディマウントに装着された場合、少なくともユーザーによる操作が行われるまでは3次元撮影モードの実行を制限する制御部と、
    を備えたカメラ本体。
  21.  撮像素子を有するカメラ本体に装着可能な交換レンズユニットであって、
     被写体の立体視用光学像を形成する3次元光学系と、
     前記カメラ本体が3次元撮影に対応しているか否かを判定するレンズ側判定部と、
     前記レンズ側判定部により前記カメラ本体が3次元撮影に対応していないと判定された場合に前記カメラ本体での撮影を制限する制限情報を生成する状態情報生成部と、
    を備えた交換レンズユニット。
  22.  前記光学系の特性を示すパラメータを含むレンズ特性情報を記憶する識別情報記憶部をさらに備えた、
    請求項21に記載の交換レンズユニット。
  23.  前記レンズ側判定部は、前記レンズ特性情報の送信を要求する命令が前記カメラ本体から送られてこない場合に、前記カメラ本体が3次元撮影に対応していないと判定する、
    請求項22に記載の交換レンズユニット。
  24.  請求項1から20のいずれかに記載のカメラ本体と、
     請求項21から23のいずれかに記載の交換レンズユニットと、
    を備えた撮像装置。
  25.  交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法であって、
     前記交換レンズユニットが3次元撮影に対応しているか否かを示すレンズ識別情報が、前記ボディマウントに装着されている前記交換レンズユニットから取得される識別情報取得ステップ、
    を備えたカメラ本体の制御方法。
  26.  前記レンズ識別情報に基づいて、前記ボディマウントに装着されている前記交換レンズユニットが3次元撮影に対応しているか否かを判定する判定ステップをさらに備えた、
    請求項25に記載のカメラ本体の制御方法。
  27.  前記交換レンズユニットが3次元撮影に対応していると前記判定ステップにおいて判定された場合に、前記交換レンズユニットに搭載されている光学系の特性を示すレンズ特性情報を前記交換レンズユニットから取得する特性情報取得ステップをさらに備えた、
    請求項26に記載のカメラ本体の制御方法。
  28.  前記レンズ特性情報は、前記交換レンズユニットに並置撮影方式が採用されているか否かを識別可能なデータを含んでいる、
    請求項27に記載のカメラ本体の制御方法。
  29.  前記レンズ特性情報は、右眼用光学像と左眼用光学像とを前記撮像素子の受光面上に並べて形成できる3次元光学系を前記交換レンズユニットが有しているか否かを識別可能な情報である、
    請求項27または28に記載のカメラ本体の制御方法。
  30.  前記撮像素子で生成される画像信号をデジタル化して、前記撮像素子上に結像する光学像の基本画像データを生成する、信号処理ステップと、
     前記基本画像データの一部を抽出するための領域であって、前記左眼用光学像の少なくとも一部に対応する左眼用画像データを抽出するための第1抽出領域と、前記右眼用光学像の少なくとも一部に対応する右眼用画像データを抽出するための第2抽出領域と、を決定する領域決定ステップと、をさらに備えた、
    請求項29に記載のカメラ本体の制御方法。
  31.  前記領域決定ステップでは、前記受光面の長辺方向に対する前記左眼用光学像内または前記右眼用光学像内での被写体の水平方向の傾き角度を用いて、前記基本画像データにおける前記第1抽出領域の位置および前記第2抽出領域の位置が決定される、
    請求項30に記載のカメラ本体の制御方法。
  32.  前記レンズ特性情報は、前記撮像素子の受光面上での前記左眼用光学系および前記右眼用光学系のイメージサークルの半径を含んでおり、
     前記領域決定ステップでは、前記イメージサークルの半径に基づいて前記第1抽出領域のサイズおよび前記第2抽出領域のサイズが決定される、
    請求項30または31に記載のカメラ本体の制御方法。
  33.  前記左眼用光学像を形成する左眼用光学系と前記右眼用光学像を形成する右眼用光学系とを前記3次元光学系が有している場合、前記レンズ特性情報は、前記受光面上における前記左眼用光学像と前記右眼用光学像との相対的な位置関係を含んでおり、
     前記領域決定部は、前記相対的な位置関係に基づいて、前記基本画像データにおける前記第1抽出領域の位置および前記第2抽出領域の位置を決定する、
    請求項30から32のいずれかに記載のカメラ本体の制御方法。
  34.  前記左眼用光学像を形成する左眼用光学系と前記右眼用光学像を形成する右眼用光学系とを前記3次元光学系が有している場合、前記レンズ特性情報は、前記受光面上における前記左眼用光学像が結像すべき第1基準位置に対する前記左眼用光学像の左眼ズレ量と、前記受光面上における前記右眼用光学像が結像すべき第2基準位置に対する前記右眼用光学像の右眼ズレ量と、を含んでおり、
     前記領域決定ステップでは、前記左眼ズレ量および前記右眼ズレ量に基づいて、前記基本画像データにおける前記第1抽出領域の位置および前記第2抽出領域の位置が決定される、
    請求項30から33のいずれかに記載のカメラ本体の制御方法。
  35.  交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法をコンピュータに実行させるためのプログラムであって、
     前記交換レンズユニットが3次元撮影に対応しているか否かを示すレンズ識別情報が、前記ボディマウントに装着されている前記交換レンズユニットから前記カメラ本体により取得される識別情報取得ステップ、
    をコンピュータに実行させるためのプログラム。
  36.  交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法をコンピュータに実行させるためのプログラムを記録した記録媒体であって、
     前記交換レンズユニットが3次元撮影に対応しているか否かを示すレンズ識別情報が、前記ボディマウントに装着されている前記交換レンズユニットから前記カメラ本体により取得される識別情報取得ステップ、
    をコンピュータに実行させるためのプログラムを記録した、コンピュータにより読み取り可能な記録媒体。
  37.  交換レンズユニットにより形成される光学像を画像信号に変換する撮像素子と、前記撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備えたカメラ本体の制御方法であって、
     前記カメラ本体に装着されている交換レンズユニットが、前記撮像素子の第1領域に左眼用光学像を形成する第1光学系と、前記第1領域に隣接して配置された前記撮像素子の第2領域に右眼用光学像を形成する第2光学系と、を有している場合に、前記第1領域に対応する画像信号から左眼用画像データが前記制御部により生成され、かつ、前記第2領域に対応する画像信号から右眼用画像データが前記制御部により生成されるステップと、
     前記ボディマウントに装着されている交換レンズユニットが、前記左眼用光学像を前記第2領域に形成する第3光学系と、前記右眼用光学像を前記第1領域に形成する第4光学系と、を有している場合に、前記第2領域に対応する画像信号から前記左眼用画像データが前記制御部により生成され、かつ、前記第1領域に対応する画像信号から前記右眼用画像データが前記制御部により生成されるステップと、
    を備えた、カメラ本体の制御方法。
  38.  前記カメラ本体に装着されている前記交換レンズユニットが前記第1光学系および前記第2光学系を有しているのか前記第3光学系および前記第4光学系を有しているのかを示す配置情報が前記カメラ本体により取得される配置情報取得ステップをさらに備えた、
    請求項37に記載のカメラ本体の制御方法。
  39.  交換レンズユニットにより形成される光学像を画像信号に変換する撮像素子と、前記撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備えたカメラ本体の制御方法をコンピュータに実行させるためのプログラムであって、
     前記カメラ本体に装着されている交換レンズユニットが、撮像素子の第1領域に左眼用光学像を形成する第1光学系と、前記第1領域に隣接して配置された前記撮像素子の第2領域に右眼用光学像を形成する第2光学系と、を有している場合に、前記第1領域に対応する画像信号から左眼用画像データが前記制御部により生成され、かつ、前記第2領域に対応する画像信号から右眼用画像データが前記制御部により生成されるステップと、
     前記ボディマウントに装着されている交換レンズユニットが、前記左眼用光学像を前記第2領域に形成する第3光学系と、前記右眼用光学像を前記第1領域に形成する第4光学系と、を有している場合に、前記第2領域に対応する画像信号から前記左眼用画像データが前記制御部により生成され、かつ、前記第1領域に対応する画像信号から前記右眼用画像データが前記制御部により生成されるステップと、
    をコンピュータに実行させるためのプログラム。
  40.  交換レンズユニットにより形成される光学像を画像信号に変換する撮像素子と、前記撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備えたカメラ本体の制御方法をコンピュータに実行させるためのプログラムを記録した記録媒体であって、
     前記カメラ本体に装着されている交換レンズユニットが、撮像素子の第1領域に左眼用光学像を形成する第1光学系と、前記第1領域に隣接して配置された前記撮像素子の第2領域に右眼用光学像を形成する第2光学系と、を有している場合に、前記第1領域に対応する画像信号から左眼用画像データが前記制御部により生成され、かつ、前記第2領域に対応する画像信号から右眼用画像データが前記制御部により生成されるステップと、
     前記ボディマウントに装着されている交換レンズユニットが、前記左眼用光学像を前記第2領域に形成する第3光学系と、前記右眼用光学像を前記第1領域に形成する第4光学系と、を有している場合に、前記第2領域に対応する画像信号から前記左眼用画像データが前記制御部により生成され、かつ、前記第1領域に対応する画像信号から前記右眼用画像データが前記制御部により生成されるステップと、
    をコンピュータに実行させるためのプログラムを記録した、コンピュータにより読み取り可能な記録媒体。
  41.  交換レンズユニットにより形成される光学像を画像信号に変換する撮像素子と、前記撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備えたカメラ本体の制御方法であって、
     前記ボディマウントに装着されている交換レンズユニットが、被写体に対して回転された前記光学像を撮像素子の受光面上に形成する第1立体撮影光学系を有している場合に、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が前記被写体の上下と概ね一致するように前記左眼用画像データおよび前記右眼用画像データが前記制御部により生成されるステップと、
     前記ボディマウントに装着されている交換レンズユニットが、前記受光面上において被写体に対して前記光学像を回転させない第2立体撮影光学系を有している場合、前記左眼用画像データおよび前記右眼用画像データで再現される1対の画像の上下が前記被写体の上下と概ね一致するように前記左眼用画像データおよび前記右眼用画像データが前記制御部により生成されるステップと、
    を備えた、カメラ本体の制御方法。
  42.  交換レンズユニットが前記第1立体撮影光学系を有しているのか前記第2立体撮影光学系を有しているのかを示す回転情報が、前記カメラ本体に装着されている交換レンズユニットから前記カメラ本体により取得される回転情報取得ステップをさらに備えた、
    請求項41に記載のカメラ本体の制御方法。
  43.  交換レンズユニットにより形成される光学像を画像信号に変換する撮像素子と、前記撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備えたカメラ本体の制御方法をコンピュータに実行させるためのプログラムであって、
     前記ボディマウントに装着されている交換レンズユニットが、被写体に対して回転された前記光学像を撮像素子の受光面上に形成する第1立体撮影光学系を有している場合に、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が前記被写体の上下と概ね一致するように前記左眼用画像データおよび前記右眼用画像データが前記制御部により生成されるステップと、
     前記ボディマウントに装着されている交換レンズユニットが、前記受光面上において被写体に対して前記光学像を回転させない第2立体撮影光学系を有している場合、前記左眼用画像データおよび前記右眼用画像データで再現される1対の画像の上下が前記被写体の上下と概ね一致するように前記左眼用画像データおよび前記右眼用画像データが前記制御部により生成されるステップと、
    をコンピュータに実行させるためのプログラム。
  44.  交換レンズユニットにより形成される光学像を画像信号に変換する撮像素子と、前記撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備えたカメラ本体の制御方法をコンピュータに実行させるためのプログラムを記録した記録媒体であって、
     前記ボディマウントに装着されている交換レンズユニットが、被写体に対して回転された前記光学像を撮像素子の受光面上に形成する第1立体撮影光学系を有している場合に、左眼用画像データおよび右眼用画像データで再現される1対の画像の上下が前記被写体の上下と概ね一致するように前記左眼用画像データおよび前記右眼用画像データが前記制御部により生成されるステップと、
     前記ボディマウントに装着されている交換レンズユニットが、前記受光面上において被写体に対して前記光学像を回転させない第2立体撮影光学系を有している場合、前記左眼用画像データおよび前記右眼用画像データで再現される1対の画像の上下が前記被写体の上下と概ね一致するように前記左眼用画像データおよび前記右眼用画像データが前記制御部により生成されるステップと、
    をコンピュータに実行させるためのプログラムを記録した、コンピュータにより読み取り可能な記録媒体。
  45.  交換レンズユニットにより形成される光学像を画像信号に変換する撮像素子と、前記撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備えたカメラ本体の制御方法であって、
     左眼用画像データに対応する左眼用光学像を被写体に対して撮像素子の受光面上でミラー反転させる交換レンズユニットが前記ボディマウントに装着された場合、前記左眼用画像データで再現される左眼用画像の上下および左右が前記被写体の上下および左右と概ね一致するように前記左眼用画像データが前記制御部により生成される左眼画像生成ステップ、
    を備えた、カメラ本体の制御方法。
  46.  前記左眼用画像データに対応する左眼用光学像を被写体に対して前記受光面上でミラー反転させる第1左眼用光学系を交換レンズユニットが有しているか否かを示す反転情報を前記ボディマウントに装着されている前記交換レンズユニットから取得される反転情報取得ステップをさらに備えた、
    請求項45に記載のカメラ本体。
  47.  交換レンズユニットにより形成される光学像を画像信号に変換する撮像素子と、前記撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備えたカメラ本体の制御方法をコンピュータに実行させるためのプログラムであって、
     左眼用画像データに対応する左眼用光学像を被写体に対して撮像素子の受光面上でミラー反転させる交換レンズユニットが前記ボディマウントに装着された場合、前記左眼用画像データで再現される左眼用画像の上下および左右が前記被写体の上下および左右と概ね一致するように前記左眼用画像データが前記制御部により生成される左眼画像生成ステップ、
    をコンピュータに実行させるためのプログラム。
  48.  交換レンズユニットにより形成される光学像を画像信号に変換する撮像素子と、前記撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備えたカメラ本体の制御方法をコンピュータに実行させるためのプログラムを記録した記録媒体であって、
     左眼用画像データに対応する左眼用光学像を被写体に対して撮像素子の受光面上でミラー反転させる交換レンズユニットが前記ボディマウントに装着された場合、前記左眼用画像データで再現される左眼用画像の上下および左右が前記被写体の上下および左右と概ね一致するように前記左眼用画像データが前記制御部により生成される左眼画像生成ステップ、
    をコンピュータに実行させるためのプログラムを記録した、コンピュータにより読み取り可能な記録媒体。
  49.  交換レンズユニットにより形成される光学像を画像信号に変換する撮像素子と、前記撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備えたカメラ本体の制御方法であって、
     前記右眼用画像データに対応する右眼用光学像を被写体に対して前記受光面上でミラー反転させる交換レンズユニットが前記ボディマウントに装着された場合、前記右眼用画像データで再現される右眼用画像の上下および左右が前記被写体の上下および左右と概ね一致するように前記右眼用画像データが前記制御部により生成される右眼画像生成ステップ、
    を備えた、カメラ本体の制御方法。
  50.  前記反転情報は、前記右眼用画像データに対応する右眼用光学像を被写体に対して前記受光面上でミラー反転させる第1右眼用光学系を交換レンズユニットが有しているか否かを示している、
    請求項49に記載のカメラ本体。
  51.  交換レンズユニットにより形成される光学像を画像信号に変換する撮像素子と、前記撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備えたカメラ本体の制御方法をコンピュータに実行させるためのプログラムであって、
     右眼用画像データに対応する右眼用光学像を被写体に対して撮像素子の受光面上でミラー反転させる交換レンズユニットが前記ボディマウントに装着された場合、前記右眼用画像データで再現される右眼用画像の上下および左右が前記被写体の上下および左右と概ね一致するように前記右眼用画像データが前記制御部により生成される右眼画像生成ステップ、
    をコンピュータに実行させるためのプログラム。
  52.  交換レンズユニットにより形成される光学像を画像信号に変換する撮像素子と、前記撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備えたカメラ本体の制御方法をコンピュータに実行させるためのプログラムを記録した記録媒体であって、
     右眼用画像データに対応する右眼用光学像を被写体に対して撮像素子の受光面上でミラー反転させる交換レンズユニットが前記ボディマウントに装着された場合、前記右眼用画像データで再現される右眼用画像の上下および左右が前記被写体の上下および左右と概ね一致するように前記右眼用画像データが前記制御部により生成される右眼画像生成ステップ、
    をコンピュータに実行させるためのプログラムを記録した、コンピュータにより読み取り可能な記録媒体。
  53.  交換レンズユニットにより形成される光学像を画像信号に変換する撮像素子と、撮像素子で生成される画像信号から左眼用画像データおよび右眼用画像データを生成する制御部と、を備えたカメラ本体の制御方法であって、
     3次元撮影に対応していない交換レンズユニットが前記カメラ本体に装着された場合、少なくともユーザーによる操作が行われるまでは3次元撮影モードの実行が前記制御部により制限されるステップ、
    を備えた、カメラ本体の制御方法。
  54.  交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法をコンピュータに実行させるためのプログラムであって、
     3次元撮影に対応していない交換レンズユニットが前記カメラ本体に装着された場合、少なくともユーザーによる操作が行われるまでは3次元撮影モードの実行を制限するステップ、
    をコンピュータに実行させるためのプログラム。
  55.  交換レンズユニットにより形成される光学像に基づいて画像データを生成するカメラ本体の制御方法をコンピュータに実行させるためのプログラムを記録した記録媒体であって、
     3次元撮影に対応していない交換レンズユニットが前記カメラ本体に装着された場合、少なくともユーザーによる操作が行われるまでは3次元撮影モードの実行を制限するステップ、
    をコンピュータに実行させるためのプログラムを記録した、コンピュータにより読み取り可能な記録媒体。
  56.  カメラ本体に装着可能な交換レンズユニットの制御方法であって、
     前記カメラ本体が3次元撮影に対応しているか否かを判定する判定ステップと、
     前記カメラ本体が3次元撮影に対応していないと判定された場合に前記カメラ本体での撮影を制限する制限情報を生成する状態情報生成ステップと、
    を備えた、交換レンズユニットの制御方法。
  57.  前記判定ステップでは、前記光学系の特性を示すパラメータを含み識別情報記憶部に記憶されたレンズ特性情報の送信を要求する命令が前記カメラ本体から送られてこない場合に、前記カメラ本体が3次元撮影に対応していないと制御部により判定される、
    請求項56に記載の交換レンズユニットの制御方法。
  58.  カメラ本体に装着可能な交換レンズユニットの制御方法をコンピュータに実行させるためのプログラムであって、
     前記カメラ本体が3次元撮影に対応しているか否かを判定するステップと、
     前記カメラ本体が3次元撮影に対応していないと判定された場合に前記カメラ本体での撮影を制限する制限情報を生成するステップと、
    をコンピュータに実行させるためのプログラム。
  59.  カメラ本体に装着可能な交換レンズユニットの制御方法をコンピュータに実行させるためのプログラムを記録した記録媒体であって、
     前記カメラ本体が3次元撮影に対応しているか否かを判定するステップと、
     前記カメラ本体が3次元撮影に対応していないと判定された場合に前記カメラ本体での撮影を制限する制限情報を生成するステップと、
    をコンピュータに実行させるためのプログラムを記録した、コンピュータにより読み取り可能な記録媒体。
PCT/JP2011/002343 2010-05-14 2011-04-21 カメラ本体、交換レンズユニット、撮像装置、カメラ本体の制御方法、交換レンズユニットの制御方法、プログラムおよびプログラムを記録した記録媒体 WO2011142086A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012514696A JPWO2011142086A1 (ja) 2010-05-14 2011-04-21 カメラ本体、交換レンズユニット、撮像装置、カメラ本体の制御方法、交換レンズユニットの制御方法、プログラムおよびプログラムを記録した記録媒体
CN201180004777XA CN102640488A (zh) 2010-05-14 2011-04-21 照相机主体、可换镜头单元、摄像装置、照相机主体的控制方法、可换镜头单元的控制方法、程序以及记录有程序的记录介质
US13/512,884 US20120236128A1 (en) 2010-05-14 2011-04-21 Camera body, method for controlling camera body, program, and storage recording medium to store program
EP11780346A EP2571246A1 (en) 2010-05-14 2011-04-21 Camera body, interchangeable lens unit, image capturing device, method for controlling camera body, method for controlling interchangeable lens unit, program, and recording medium on which program is recorded

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-112670 2010-05-14
JP2010112670 2010-05-14

Publications (1)

Publication Number Publication Date
WO2011142086A1 true WO2011142086A1 (ja) 2011-11-17

Family

ID=44911452

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/002343 WO2011142086A1 (ja) 2010-05-14 2011-04-21 カメラ本体、交換レンズユニット、撮像装置、カメラ本体の制御方法、交換レンズユニットの制御方法、プログラムおよびプログラムを記録した記録媒体

Country Status (5)

Country Link
US (5) US20120236128A1 (ja)
EP (1) EP2571246A1 (ja)
JP (1) JPWO2011142086A1 (ja)
CN (1) CN102640488A (ja)
WO (1) WO2011142086A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016080088A1 (ja) * 2014-11-18 2016-05-26 富士フイルム株式会社 撮像装置及びその制御方法
KR20180050977A (ko) * 2016-11-07 2018-05-16 엘지이노텍 주식회사 카메라 모듈 및 카메라 모듈의 동작 방법
KR20200064999A (ko) * 2017-10-20 2020-06-08 소니 주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램, 그리고 교환 렌즈

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5754880B2 (ja) * 2009-08-31 2015-07-29 キヤノン株式会社 撮像装置、レンズユニット、およびその制御方法
JP5605030B2 (ja) 2010-07-06 2014-10-15 株式会社ニコン カメラボディおよび交換レンズ
US20130169761A1 (en) * 2010-07-27 2013-07-04 Panasonic Corporation Image capturing device
JP2012075078A (ja) * 2010-08-31 2012-04-12 Panasonic Corp カメラ本体、撮像装置、カメラ本体の制御方法、プログラムおよびプログラムを記録した記録媒体
KR101735311B1 (ko) * 2010-12-10 2017-05-15 삼성전자 주식회사 3차원카메라장치 및 3차원카메라장치 제어방법
KR20130024504A (ko) * 2011-08-31 2013-03-08 삼성전기주식회사 삼차원 카메라 시스템 및 주시각 조정 방법
JP2013115668A (ja) * 2011-11-29 2013-06-10 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP5889719B2 (ja) * 2012-05-31 2016-03-22 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
ITTO20120583A1 (it) 2012-07-02 2014-01-03 St Microelectronics Srl Dispositivo optoelettronico integrato con guida d'onda e relativo procedimento di fabbricazione
US9256027B2 (en) 2012-07-02 2016-02-09 Stmicroelectronics S.R.L. Integrated optoelectronic device and system with waveguide and manufacturing process thereof
ITTO20120647A1 (it) 2012-07-24 2014-01-25 St Microelectronics Srl Procedimenti e sistemi per il trattamento di immagini stereoscopiche, prodotti informatici e supporto relativi
JP2014107669A (ja) * 2012-11-27 2014-06-09 Canon Inc 立体撮影レンズシステムおよびそれを有する撮影システム
JP5988860B2 (ja) * 2012-12-21 2016-09-07 キヤノン株式会社 撮像装置及び撮像装置の制御方法
DE102013222780B3 (de) * 2013-11-08 2015-04-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturvorrichtung und verfahren zur erfassung eines objektbereichs
EP3515058B1 (en) * 2016-09-13 2023-11-01 LG Innotek Co., Ltd. Dual camera module
JP1613801S (ja) * 2017-12-27 2018-09-18
JP6558480B1 (ja) 2018-07-20 2019-08-14 株式会社ニコン カメラボディ
JP6590042B1 (ja) 2018-07-20 2019-10-16 株式会社ニコン カメラアクセサリ
WO2020213595A1 (ja) * 2019-04-18 2020-10-22 ソニー株式会社 交換レンズ、情報処理装置、情報処理方法、及び、プログラム
US20220408021A1 (en) * 2019-12-20 2022-12-22 Sony Group Corporation Information processing device and method, imaging apparatus and method, program, and interchangeable lens
JP2023042434A (ja) * 2021-09-14 2023-03-27 キヤノン株式会社 交換レンズ、及び撮像装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07274214A (ja) 1994-03-30 1995-10-20 Sanyo Electric Co Ltd 立体ビデオカメラ
JPH10336705A (ja) * 1997-06-02 1998-12-18 Canon Inc 複眼カメラ
JP2001222083A (ja) * 2000-02-07 2001-08-17 Canon Inc 撮像装置、撮像装置の制御方法、及び制御方法が記載されたプログラムをコンピュータに供給する媒体
JP2002077945A (ja) * 2000-06-07 2002-03-15 Canon Inc 録画装置、撮像装置、撮像システム、信号処理方法、記録制御方法及び記憶媒体
JP2002244195A (ja) * 2001-02-14 2002-08-28 Canon Inc 交換ズームレンズ装置、カメラおよびカメラシステム
JP2002330333A (ja) * 2001-04-26 2002-11-15 Canon Inc 撮像システム、撮像装置、交換レンズ、撮像機能制御方法、記録媒体およびプログラム
JP2003092770A (ja) 2001-09-18 2003-03-28 Canon Inc 立体映像撮影装置
JP2007003646A (ja) * 2005-06-22 2007-01-11 Fujifilm Holdings Corp カメラシステム、レンズユニット、及びアクセサリ
WO2009016836A1 (ja) * 2007-07-31 2009-02-05 Panasonic Corporation カメラシステムおよびカメラ本体
JP2009290787A (ja) * 2008-05-30 2009-12-10 Olympus Imaging Corp カメラ

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005215325A (ja) * 2004-01-29 2005-08-11 Arisawa Mfg Co Ltd 立体画像表示装置
US7593055B2 (en) * 2004-07-27 2009-09-22 Fujifilm Corporation Camera system, camera main body, and camera head
CN101064773A (zh) * 2006-04-26 2007-10-31 杭州草莓资讯有限公司 多镜头实景合成数码照像机系统与方法
JP5278819B2 (ja) * 2009-05-11 2013-09-04 株式会社リコー ステレオカメラ装置及びそれを用いた車外監視装置
JP2012085252A (ja) * 2010-09-17 2012-04-26 Panasonic Corp 画像生成装置、画像生成方法、プログラムおよびプログラムを記録した記録媒体

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07274214A (ja) 1994-03-30 1995-10-20 Sanyo Electric Co Ltd 立体ビデオカメラ
JPH10336705A (ja) * 1997-06-02 1998-12-18 Canon Inc 複眼カメラ
JP2001222083A (ja) * 2000-02-07 2001-08-17 Canon Inc 撮像装置、撮像装置の制御方法、及び制御方法が記載されたプログラムをコンピュータに供給する媒体
JP2002077945A (ja) * 2000-06-07 2002-03-15 Canon Inc 録画装置、撮像装置、撮像システム、信号処理方法、記録制御方法及び記憶媒体
JP2002244195A (ja) * 2001-02-14 2002-08-28 Canon Inc 交換ズームレンズ装置、カメラおよびカメラシステム
JP2002330333A (ja) * 2001-04-26 2002-11-15 Canon Inc 撮像システム、撮像装置、交換レンズ、撮像機能制御方法、記録媒体およびプログラム
JP2003092770A (ja) 2001-09-18 2003-03-28 Canon Inc 立体映像撮影装置
JP2007003646A (ja) * 2005-06-22 2007-01-11 Fujifilm Holdings Corp カメラシステム、レンズユニット、及びアクセサリ
WO2009016836A1 (ja) * 2007-07-31 2009-02-05 Panasonic Corporation カメラシステムおよびカメラ本体
JP2009290787A (ja) * 2008-05-30 2009-12-10 Olympus Imaging Corp カメラ

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016080088A1 (ja) * 2014-11-18 2016-05-26 富士フイルム株式会社 撮像装置及びその制御方法
JP2016100607A (ja) * 2014-11-18 2016-05-30 富士フイルム株式会社 撮像装置及びその制御方法
KR20180050977A (ko) * 2016-11-07 2018-05-16 엘지이노텍 주식회사 카메라 모듈 및 카메라 모듈의 동작 방법
KR102637778B1 (ko) * 2016-11-07 2024-02-19 엘지이노텍 주식회사 카메라 모듈 및 카메라 모듈의 동작 방법
KR20200064999A (ko) * 2017-10-20 2020-06-08 소니 주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램, 그리고 교환 렌즈
JPWO2019078032A1 (ja) * 2017-10-20 2020-11-19 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム、並びに、交換レンズ
JP7180608B2 (ja) 2017-10-20 2022-11-30 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム、並びに、交換レンズ
KR102512247B1 (ko) * 2017-10-20 2023-03-22 소니그룹주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램, 그리고 교환 렌즈

Also Published As

Publication number Publication date
EP2571246A1 (en) 2013-03-20
CN102640488A (zh) 2012-08-15
US20110279654A1 (en) 2011-11-17
US20120236128A1 (en) 2012-09-20
US20110280564A1 (en) 2011-11-17
US20110280562A1 (en) 2011-11-17
US20110280563A1 (en) 2011-11-17
JPWO2011142086A1 (ja) 2013-07-22

Similar Documents

Publication Publication Date Title
WO2011142086A1 (ja) カメラ本体、交換レンズユニット、撮像装置、カメラ本体の制御方法、交換レンズユニットの制御方法、プログラムおよびプログラムを記録した記録媒体
JP5789793B2 (ja) 3次元撮像装置、レンズ制御装置、およびプログラム
JP2012075078A (ja) カメラ本体、撮像装置、カメラ本体の制御方法、プログラムおよびプログラムを記録した記録媒体
EP2590421B1 (en) Single-lens stereoscopic image capture device
JP2012085258A (ja) カメラ本体、撮像装置、カメラ本体の制御方法、プログラムおよびプログラムを記録した記録媒体
WO2012017684A1 (ja) レンズユニット
JP2011259168A (ja) 立体パノラマ画像撮影装置
JP5275789B2 (ja) カメラ
JP2012239135A (ja) 電子機器
JP2011048120A (ja) 二眼式デジタルカメラ
WO2012014347A1 (ja) カメラ本体、交換レンズユニット、撮像装置、カメラ本体の制御方法、プログラムおよびプログラムを記録した記録媒体
KR20140020901A (ko) 입체 영상 촬상 장치, 폭주 거리 조정 방법 및 프로그램
JP5638791B2 (ja) 撮像装置
WO2011132383A1 (ja) カメラシステム、カメラ本体ユニット、3d撮影用レンズユニット
WO2013069296A1 (ja) 撮像装置、撮像システムおよびプログラム
JP2012085252A (ja) 画像生成装置、画像生成方法、プログラムおよびプログラムを記録した記録媒体
JP2012004949A (ja) カメラ本体、交換レンズユニットおよび撮像装置
WO2016051871A1 (ja) 多眼撮像装置及びその製造方法、情報端末装置
JP2012237937A (ja) 電子機器
JP2012239134A (ja) 電子機器
JP2014155126A (ja) 表示装置、表示方法およびプログラム
JP2013217947A (ja) レンズユニット
WO2012014453A1 (ja) レンズユニット
JP5307189B2 (ja) 立体画像表示装置、複眼撮像装置及び立体画像表示プログラム
JP2015028548A (ja) 撮像装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180004777.X

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11780346

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012514696

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13512884

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2011780346

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE