JP2011250022A - Camera system - Google Patents

Camera system Download PDF

Info

Publication number
JP2011250022A
JP2011250022A JP2010119588A JP2010119588A JP2011250022A JP 2011250022 A JP2011250022 A JP 2011250022A JP 2010119588 A JP2010119588 A JP 2010119588A JP 2010119588 A JP2010119588 A JP 2010119588A JP 2011250022 A JP2011250022 A JP 2011250022A
Authority
JP
Japan
Prior art keywords
camera
image
image generation
subject
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010119588A
Other languages
Japanese (ja)
Inventor
Sumio Kawai
澄夫 川合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Imaging Corp
Original Assignee
Olympus Imaging Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Imaging Corp filed Critical Olympus Imaging Corp
Priority to JP2010119588A priority Critical patent/JP2011250022A/en
Publication of JP2011250022A publication Critical patent/JP2011250022A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a camera system capable of: varying a baseline length and correcting a deviation of an image according to a distance from a subject; and easily taking a stereoscopic image without blur or image separation.SOLUTION: The camera system of this invention includes a first camera and a second camera capable of being coupled with the first camera through a coupling part. The first camera is capable of generating a cut-out image from the optical image formed in a first image generation area which is movable and has a prescribed size. The second camera is capable of generating a cut-out image from the optical image formed in a second image generation area which is movable and has a prescribed size. A stereoscopically visible stereoscopic image is generated from a pair of cut-out images generated by the first camera and the second camera.

Description

本発明は、複数のカメラによって異なる視点から被写体を撮影することにより立体視画像を生成するカメラシステムに関する。   The present invention relates to a camera system that generates a stereoscopic image by photographing a subject from different viewpoints using a plurality of cameras.

視差を有する異なる視点から同一の被写体を撮影することによって、立体視可能な静止画像又は立体視可能な動画像(以下では、単に立体視画像と称する)を撮影する技術が知られている。立体視画像は、ステレオ画像、3D画像又は立体画像等とも称される。   2. Description of the Related Art A technique for capturing a stereoscopically visible still image or a stereoscopically viewable moving image (hereinafter simply referred to as a stereoscopic image) by capturing the same subject from different viewpoints having parallax is known. The stereoscopic image is also referred to as a stereo image, a 3D image, a stereoscopic image, or the like.

立体視画像を撮影する方法としては、例えば特開平11−27702号公報に開示されているように、2つの撮影用レンズを備えたカメラを用いて撮影する方法や、例えば特開2006−33395号公報に開示されているように、2台のカメラを離して配置し撮影する方法等が知られている。   As a method for photographing a stereoscopic image, for example, as disclosed in Japanese Patent Laid-Open No. 11-27702, a method of photographing using a camera including two photographing lenses, or for example, Japanese Patent Laid-Open No. 2006-33395 is disclosed. As disclosed in the official gazette, a method is known in which two cameras are placed apart and photographed.

特開平11−27702号公報JP-A-11-27702 特開2006−33395号公報JP 2006-33395 A

立体視画像の撮影において、複数のカメラで撮影される同一被写体の複数の画像において、視野のずれや基線に対する視野の傾きが生じてしまうと、立体視画像を鑑賞した場合に、画像がぼやけて見えたり、2重像として見えてしまう。また、立体視画像の撮影では、鑑賞者により明確な立体感を与えるために、カメラと被写体との距離に応じて基線長及び輻輳角が変更可能であることが好ましい。   When shooting stereoscopic images, if multiple images of the same subject captured by multiple cameras cause a field of view shift or a tilt of the field of view with respect to the baseline, the image becomes blurred when viewing the stereoscopic image. It can be seen as a double image. Further, in capturing a stereoscopic image, it is preferable that the base line length and the convergence angle can be changed according to the distance between the camera and the subject in order to give the viewer a clear stereoscopic effect.

例えば、特開平11−27702号公報に開示されているカメラでは、基線長及び輻輳角が固定されているため、基線軸方向以外の画像ズレは初期にカメラとして設定しておけば、画像ズレを無くすことは容易である。しかしながら、被写体距離に応じて基線長及び輻輳角を変化させることができないため、多様な被写体について立体視画像を撮影することができない。   For example, in the camera disclosed in Japanese Patent Application Laid-Open No. 11-27702, since the baseline length and the convergence angle are fixed, if the image misalignment other than the baseline axis direction is initially set as a camera, the image misalignment is corrected. It is easy to lose. However, since the baseline length and the convergence angle cannot be changed according to the subject distance, stereoscopic images cannot be taken for various subjects.

また、特開2006−33395号公報に開示されているような、2台のカメラを離して配置し撮影する方法では、被写体距離に応じて基線長及び輻輳角を適切な値に変化させることができる。しかしながら、分離して配置された2台のカメラ同士を、立体視画像が得られるように正確に配置することは困難である。   Moreover, in the method of disposing and photographing two cameras as disclosed in Japanese Patent Laid-Open No. 2006-33395, the baseline length and the convergence angle can be changed to appropriate values according to the subject distance. it can. However, it is difficult to accurately arrange two cameras arranged separately so that a stereoscopic image can be obtained.

本発明は、上記問題点に鑑みてなされたものであり、被写体との距離に応じて基線長を変更可能かつ画像のずれを補正可能であり、ボケや像分離の無い立体視画像を容易に撮影することができるカメラシステムを提供する。   The present invention has been made in view of the above problems, and the baseline length can be changed according to the distance from the subject and the shift of the image can be corrected, so that a stereoscopic image without blur or image separation can be easily obtained. A camera system capable of photographing is provided.

本発明のカメラシステムは、被写体の光学像を結像する第1撮影レンズ、及び前記第1撮影レンズの結像位置に配置された第1受光可能領域を有する第1撮像部を具備してなる第1カメラと、前記第1カメラに結合部を介して結合可能であって、前記第1カメラに結合された状態において前記被写体の光学像を結像する第2撮影レンズ、及び前記第2撮影レンズの結像位置に配置された第2受光可能領域を有する第2撮像部を具備してなる第2カメラと、を具備し、前記第1カメラは、前記第1受光可能領域内において移動可能な所定の大きさの第1画像生成領域内に結像された前記光学像の切り出し画像を生成可能であり、前記第2カメラは、前記第2受光可能領域内において移動可能な所定の大きさの第2画像生成領域内に結像された前記光学像の切り出し画像を生成可能であり、前記第1カメラ及び第2カメラが生成する一対の切り出し画像から立体視可能な立体視画像を生成することを特徴とする。   The camera system of the present invention includes a first imaging lens that forms an optical image of a subject, and a first imaging unit having a first light-receiving area disposed at the imaging position of the first imaging lens. A first camera, a second photographing lens that can be coupled to the first camera via a coupling unit, and forms an optical image of the subject in a state coupled to the first camera, and the second photographing A second camera having a second imaging unit having a second light-receiving area disposed at an image forming position of the lens, wherein the first camera is movable within the first light-receiving area A cut-out image of the optical image formed in the first image generation area having a predetermined size can be generated, and the second camera has a predetermined size movable in the second light-receiving area. Before being imaged in the second image generation area It is capable of generating a clipped image of the optical image, and generating a stereoscopic image stereoscopically viewable from a pair of cut-out images of the first camera and the second camera is generated.

本発明によれば、被写体との距離に応じて基線長を変更可能でありながら、ボケや像分離の無い立体視画像を容易に撮影することができる。   According to the present invention, it is possible to easily capture a stereoscopic image without blurring or image separation while the base line length can be changed according to the distance to the subject.

カメラシステムの前面側を示す斜視図である。It is a perspective view which shows the front side of a camera system. カメラシステムの背面側を示す斜視図である。It is a perspective view which shows the back side of a camera system. 第1カメラの構成を説明する図である。It is a figure explaining the structure of a 1st camera. 第2カメラの構成を説明する図である。It is a figure explaining the structure of a 2nd camera. 第1及び第2受光可能範囲と第1及び第2画像生成領域を説明する図である。It is a figure explaining the 1st and 2nd light receivable range and the 1st and 2nd image generation area. 被写体とカメラシステムの配置を示す上視図である。It is a top view which shows arrangement | positioning of a to-be-photographed object and a camera system. 第1カメラ及び第2カメラの視野がずれている状態を説明する図である。It is a figure explaining the state which the visual field of the 1st camera and the 2nd camera has shifted | deviated. 視野調整処理を説明する図である。It is a figure explaining a visual field adjustment process. 被写体とカメラシステムの配置を示す上視図である。It is a top view which shows arrangement | positioning of a to-be-photographed object and a camera system. 人間が両眼視した場合の被写体距離と視差角の関係を示す図である。It is a figure which shows the relationship between a to-be-photographed object distance and a parallax angle when a human sees with both eyes. 被写体距離3mの場合の視差量を各被写体距離での像界側での視差量を節点距離で換算した図である。FIG. 6 is a diagram in which the parallax amount in the case of a subject distance of 3 m is converted into a parallax amount on the image field side at each subject distance by a nodal distance. カメラシステムの撮像素子間隔と視差量の関係を示す図である。It is a figure which shows the relationship between the image pick-up element space | interval of a camera system, and the amount of parallax. カメラシステムの動作を説明するフローチャートである。It is a flowchart explaining operation | movement of a camera system. 第2の実施形態における第1及び第2受光可能範囲と第1及び第2画像生成領域を説明する図である。It is a figure explaining the 1st and 2nd light receivable range and 1st and 2nd image generation area in 2nd Embodiment.

以下に、本発明の好ましい形態について図面を参照して説明する。なお、以下の説明に用いる各図においては、各構成要素を図面上で認識可能な程度の大きさとするため、各構成要素毎に縮尺を異ならせてあるものであり、本発明は、これらの図に記載された構成要素の数量、構成要素の形状、構成要素の大きさの比率、及び各構成要素の相対的な位置関係のみに限定されるものではない。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In each drawing used for the following description, the scale is different for each component in order to make each component large enough to be recognized on the drawing. It is not limited only to the quantity of the component described in the figure, the shape of the component, the ratio of the size of the component, and the relative positional relationship of each component.

(第1の実施形態)
本実施形態のカメラシステム1は、立体視可能な静止画像及び立体視可能な動画像の少なくとも一方(以下、単に立体視画像と称する)を撮影可能な装置である。立体視画像は、一般にステレオ画像、3D画像、又は立体画像等と称される。カメラシステム1は、位置の異なる2つの視点から同一の被写体を撮影するための2つのカメラを具備して構成されている。
(First embodiment)
The camera system 1 of the present embodiment is an apparatus that can capture at least one of a stereoscopically viewable still image and a stereoscopically viewable moving image (hereinafter simply referred to as a stereoscopic image). A stereoscopic image is generally referred to as a stereo image, a 3D image, or a stereoscopic image. The camera system 1 includes two cameras for photographing the same subject from two viewpoints at different positions.

本実施形態では図1に示すように、カメラシステム1は、詳しくは後述する結合部を介して離合可能な第1カメラ10及び第2カメラ300を具備して構成されている。第1カメラ10及び第2カメラ300は、それぞれ異なる視点から被写体を撮影するためのものであって、被写体の光学像を結像するための撮影レンズ、及び例えば電荷結合素子(CCD)やCMOSセンサ等と称される撮像素子を具備してなる撮像部を有して構成されている。詳しくは後述するが、第1カメラ10及び第2カメラ300は、通信部によって有線通信又は無線通信が可能に構成されている。   In the present embodiment, as shown in FIG. 1, the camera system 1 includes a first camera 10 and a second camera 300 that can be separated from each other via a coupling portion described in detail later. The first camera 10 and the second camera 300 are for photographing a subject from different viewpoints, and are a photographing lens for forming an optical image of the subject, for example, a charge coupled device (CCD) or a CMOS sensor. And an image pickup unit including an image pickup device called “etc.”. Although described later in detail, the first camera 10 and the second camera 300 are configured to be capable of wired communication or wireless communication by a communication unit.

結合部は、第1カメラ10及び第2カメラ300を例えば嵌め合いやネジ止め、又は電磁力等によって位置決めして結合する構成を有する。また、図1及び図2に示すように、結合部は、第1カメラ10及び第2カメラ300の間に、中間部材400を配設した状態で第1カメラ10及び第2カメラ300を結合することもできる。図1は、中間部材400を介して第1カメラ10及び第2カメラ300を機械的に結合した状態を示している。   The coupling unit has a configuration in which the first camera 10 and the second camera 300 are positioned and coupled by, for example, fitting, screwing, electromagnetic force, or the like. 1 and 2, the coupling unit couples the first camera 10 and the second camera 300 with the intermediate member 400 disposed between the first camera 10 and the second camera 300. You can also. FIG. 1 shows a state in which the first camera 10 and the second camera 300 are mechanically coupled via the intermediate member 400.

以下の説明において、ボディユニット100から被写体に向かう方向を前方と称し、その反対を後方と称する。また、第1カメラ10の光軸O1に平行な軸をZ軸とし、Z軸に直交する平面上において互いに直交する2つの軸をX軸及びY軸とする。   In the following description, the direction from the body unit 100 toward the subject is referred to as the front, and the opposite is referred to as the rear. In addition, an axis parallel to the optical axis O1 of the first camera 10 is defined as a Z axis, and two axes orthogonal to each other on a plane orthogonal to the Z axis are defined as an X axis and a Y axis.

そして、第1カメラ10及び第2カメラ300が結合された状態においてカメラシステム1を被写体側(前側)から見た場合に、第1カメラ10の視点(節点)と第2カメラ300の視点(節点)を結ぶ線分である基線と、Y軸とが平行となるものとする。   When the camera system 1 is viewed from the subject side (front side) in a state where the first camera 10 and the second camera 300 are coupled, the viewpoint (node) of the first camera 10 and the viewpoint (node) of the second camera 300 ) And the Y axis are parallel to each other.

したがって、カメラシステム1によって基線を水平とした状態で立体視画像を撮影する場合には、図1に示すように、Y軸が略水平となる。なお、図1では、カメラシステム1の撮影姿勢の一例として、被写体側から見た場合に第1カメラ10の左側に第2カメラ300が位置する状態を示しているが、カメラシステム1の撮影姿勢は、第2カメラ300が第1カメラ10の右側に位置する状態も選択可能である。   Therefore, when a stereoscopic image is taken with the camera system 1 in a state where the baseline is horizontal, the Y axis is substantially horizontal as shown in FIG. 1 shows a state in which the second camera 300 is located on the left side of the first camera 10 when viewed from the subject side as an example of the shooting posture of the camera system 1, the shooting posture of the camera system 1 is shown. The state where the second camera 300 is located on the right side of the first camera 10 can also be selected.

まず、第1カメラ10の詳細な構成について説明する。本実施形態の第1カメラ10は、図3に示すように、被写体の光学像を結像する第1撮影レンズ202と、第1撮影レンズ202の結像位置に配置された、例えば電荷結合素子(CCD)やCMOSセンサ等の撮像素子と称される形態を有する第1撮像部117と、を具備して構成されている。また、第1カメラ10は、第1撮像部117を有するボディユニット100と、該ボディユニット100に着脱可能に構成され、第1撮像レンズ202を有するレンズユニット200と、によって構成されている。   First, the detailed configuration of the first camera 10 will be described. As shown in FIG. 3, the first camera 10 of the present embodiment includes a first photographing lens 202 that forms an optical image of a subject, and, for example, a charge coupled device disposed at the imaging position of the first photographing lens 202. And a first image pickup unit 117 having a form called an image pickup device such as a (CCD) or a CMOS sensor. The first camera 10 includes a body unit 100 having a first imaging unit 117 and a lens unit 200 that is detachably attached to the body unit 100 and has a first imaging lens 202.

本実施形態では、レンズユニット200の動作は、レンズユニット200に配設されたレンズ制御用マイクロコンピュータ(以下、“Lucom”と称する)201によって制御される。また、ボディユニット100の動作は、ボディユニット100に配設されたボディ制御用マイクロコンピュータ(以下、“Bucom”と称する)101によって制御される。   In the present embodiment, the operation of the lens unit 200 is controlled by a lens control microcomputer (hereinafter referred to as “Lucom”) 201 disposed in the lens unit 200. The operation of the body unit 100 is controlled by a body control microcomputer (hereinafter referred to as “Bucom”) 101 disposed in the body unit 100.

ボディユニット100にレンズユニット200を装着した状態において、Lucom201とBucom101とは、通信コネクタ102を介して互いに通信可能に電気的に接続される。そして、Lucom201はBucom101に従属的に協働しながら稼動するように構成されている。   In a state where the lens unit 200 is attached to the body unit 100, the Lucom 201 and the Bucom 101 are electrically connected to each other via the communication connector 102 so as to communicate with each other. The Lucom 201 is configured to operate in cooperation with the Bucom 101 in a dependent manner.

なお、レンズユニット200は、ボディユニット100と一体に構成される形態であってもよい。また、レンズユニット200の動作は、Bucom101のみによって制御される構成であってもよい。   The lens unit 200 may be configured integrally with the body unit 100. The operation of the lens unit 200 may be configured to be controlled only by the Bucom 101.

第1撮像レンズ202は、レンズユニット200内に保持されている。レンズユニット200は、ボディユニット100の被写体に対向する側に設けられた図示しないレンズマウントを介して着脱自在である。この構成により、第1カメラ10は、第1撮影レンズ202を、例えば異なる焦点距離を有するものに交換して装着し撮影することができる。   The first imaging lens 202 is held in the lens unit 200. The lens unit 200 is detachable through a lens mount (not shown) provided on the side of the body unit 100 facing the subject. With this configuration, the first camera 10 can be mounted and photographed by replacing the first photographing lens 202 with a lens having a different focal length, for example.

本実施形態では、第1撮影レンズ202は、フォーカスレンズ202aと変倍レンズ202bとによって構成されている。フォーカスレンズ202aは、レンズ駆動機構204内に設けられた図示しないステッピングモータ等のアクチュエータによって駆動される。変倍レンズ202bは、ズーム駆動機構206内に設けられた図示しないステッピングモータ等のアクチュエータによって駆動される。   In the present embodiment, the first photographing lens 202 includes a focus lens 202a and a variable power lens 202b. The focus lens 202a is driven by an actuator such as a stepping motor (not shown) provided in the lens driving mechanism 204. The variable magnification lens 202b is driven by an actuator such as a stepping motor (not shown) provided in the zoom drive mechanism 206.

また、レンズユニット200には、絞り203が配設されている。絞り203は、絞り駆動機構205内に設けられた図示しないステッピングモータ等のアクチュエータによって駆動される。第1撮影レンズ202の合焦距離、焦点距離、及び絞り値の情報は、図示しない位置エンコーダ等によって検出され、Lucom201及び通信コネクタ102を介して、Bucom101に入力される。   The lens unit 200 is provided with a diaphragm 203. The diaphragm 203 is driven by an actuator such as a stepping motor (not shown) provided in the diaphragm drive mechanism 205. Information on the focusing distance, focal length, and aperture value of the first photographic lens 202 is detected by a position encoder (not shown) and the like, and is input to the Bucom 101 via the Lucom 201 and the communication connector 102.

第1撮像部117は、後述する撮像部移動機構部159を介してボディユニット100内に保持されている。第1撮像部117は、図5に示すように、矩形状の第1受光可能領域117aを有する。   The first imaging unit 117 is held in the body unit 100 via an imaging unit moving mechanism unit 159 described later. As shown in FIG. 5, the first imaging unit 117 includes a rectangular first light-receiving area 117 a.

第1撮像部117は、受光面である第1受光可能領域117aがZ軸と略直交し、かつ第1受光可能領域117aの長辺L1がX軸と平行となるように、ボディユニット100内に配設されている。すなわち、第1カメラ10及び第2カメラ300が結合された状態のカメラシステム1を被写体側から見た場合に、第1受光可能領域117aの長辺L1は、第1カメラ10及び第2カメラ300がなす基線に対して略直交している。例えば、図1に示すように、基線が水平となるようにカメラシステム1を保持した場合には、第1撮像部117の第1受光可能領域117aの長辺L1は鉛直な平面に沿う。   The first imaging unit 117 includes a first light receiving area 117a which is a light receiving surface in the body unit 100 so that the first light receiving area 117a is substantially orthogonal to the Z axis and the long side L1 of the first light receiving area 117a is parallel to the X axis. It is arranged. That is, when the camera system 1 in a state in which the first camera 10 and the second camera 300 are combined is viewed from the subject side, the long side L1 of the first light receiving area 117a is the first camera 10 and the second camera 300. Is substantially orthogonal to the base line formed by For example, as shown in FIG. 1, when the camera system 1 is held so that the base line is horizontal, the long side L1 of the first light receiving area 117a of the first imaging unit 117 is along a vertical plane.

なお本実施形態では、第1撮像部117の前側には、ローパスフィルタ等の光学フィルタ118及び防塵フィルタ119が配設されている。防塵フィルタ119の周縁部には、圧電素子120が取り付けられている。圧電素子120は、防塵フィルタ制御回路121によって、防塵フィルタ119を寸法や材質によって定まる所定の周波数で振動させるように構成されている。圧電素子120の振動によって、防塵フィルタ119に付着した塵埃を除去することができる。   In the present embodiment, an optical filter 118 such as a low-pass filter and a dustproof filter 119 are disposed on the front side of the first imaging unit 117. A piezoelectric element 120 is attached to the periphery of the dust filter 119. The piezoelectric element 120 is configured to vibrate the dust filter 119 at a predetermined frequency determined by the size and material by the dust filter control circuit 121. Due to the vibration of the piezoelectric element 120, dust attached to the dustproof filter 119 can be removed.

防塵フィルタ119の前側には、一般にフォーカルプレーンシャッタと称される形態を有するシャッタ108が配設されている。また、ボディユニット100内には、シャッタ108の先幕と後幕を駆動するばねをチャージするシャッターチャージ機構112と、これら先幕と後幕の動きを制御するシャッタ制御回路113が設けられている。なお、光学フィルタ118、防塵フィルタ119及びシャッタ108は、必要に応じて適宜に配設されるものであり、第1カメラ10はこれらを具備しない構成であってもよい。   A shutter 108 having a form generally referred to as a focal plane shutter is disposed on the front side of the dust filter 119. The body unit 100 also includes a shutter charge mechanism 112 that charges a spring that drives the front curtain and rear curtain of the shutter 108, and a shutter control circuit 113 that controls the movement of the front curtain and rear curtain. . Note that the optical filter 118, the dustproof filter 119, and the shutter 108 are appropriately disposed as necessary, and the first camera 10 may be configured not to include them.

第1撮像部117は、第1撮像部117の動作を制御する撮像部インターフェース回路122を介して画像処理部126に電気的に接続されている。画像処理部126は、第1撮像部117から出力される信号に基づいて画像を生成する構成を有する。   The first imaging unit 117 is electrically connected to the image processing unit 126 via an imaging unit interface circuit 122 that controls the operation of the first imaging unit 117. The image processing unit 126 has a configuration for generating an image based on a signal output from the first imaging unit 117.

具体的に、画像処理部126は、第1撮像部117の第1受光可能領域117aの全体に結像された光学像に応じた画像を生成する。また、画像処理部126は、図5に示すように、第1撮像部117の第1受光可能領域117a内における、所定の領域である第1画像生成領域117b内に結像された光学像に応じた画像(以下、切り出し画像と称する)を生成することも可能である。この切り出し画像は、カメラシステム1によって撮影される立体視画像における、第1カメラ10の視点から撮影された画像となる。   Specifically, the image processing unit 126 generates an image corresponding to the optical image formed on the entire first light-receivable region 117a of the first imaging unit 117. Further, as shown in FIG. 5, the image processing unit 126 converts the optical image formed in the first image generation region 117 b which is a predetermined region in the first light receiving area 117 a of the first imaging unit 117. A corresponding image (hereinafter referred to as a cutout image) can be generated. This cut-out image is an image taken from the viewpoint of the first camera 10 in the stereoscopic image taken by the camera system 1.

ここで、第1画像生成領域117bは矩形状であり、第1画像生成領域117bの長辺は、Y軸と略平行である。言い換えれば、第1カメラ10及び第2カメラ300が結合された状態のカメラシステム1を被写体側から見た場合に、第1画像生成領域117bの長辺は、第1カメラ10及び第2カメラ300がなす基線に対して略平行となる。したがって、本実施形態では、第1画像生成領域117bの長辺は、第1受光可能領域117aの長辺と略直交する。   Here, the first image generation area 117b has a rectangular shape, and the long side of the first image generation area 117b is substantially parallel to the Y axis. In other words, when the camera system 1 in a state where the first camera 10 and the second camera 300 are combined is viewed from the subject side, the long side of the first image generation region 117b is the first camera 10 and the second camera 300. Is substantially parallel to the baseline formed by. Therefore, in the present embodiment, the long side of the first image generation region 117b is substantially orthogonal to the long side of the first light receiving region 117a.

そして、第1画像生成領域117bは、第1受光可能領域117a内において、少なくとも第1受光可能領域117aの長辺に平行な方向(X軸方向)に移動可能である。   The first image generation region 117b is movable in the first light receivable region 117a at least in a direction parallel to the long side of the first light receivable region 117a (X-axis direction).

具体的に本実施形態においては、第1画像生成領域117bの長辺は、第1受光可能領域117aの短辺よりも短い。このため、第1画像生成領域117bは、第1受光可能領域117a内において、X軸方向及びY軸方向の互いに直交する2方向に移動可能であると共に、Z軸に平行な軸周りに回転可能である。矩形状の第1画像生成領域117bは、大きさの変更及び縦横比の変更が可能であってもよい。   Specifically, in the present embodiment, the long side of the first image generation region 117b is shorter than the short side of the first light receiving region 117a. For this reason, the first image generation region 117b can move in two directions orthogonal to each other in the X-axis direction and the Y-axis direction in the first light-receivable region 117a, and can rotate around an axis parallel to the Z-axis. It is. The rectangular first image generation region 117b may be changeable in size and aspect ratio.

なお、第1カメラ10において切り出し画像を生成する構成は特に限定されるものではない。例えば、第1カメラ10は、撮像素子である第1撮像部117の第1受光可能領域117aに配列された受光素子のうちの、一部のみを駆動することによって、第1画像生成領域117bにおける切り出し画像を生成する構成であってもよい。また例えば、第1撮像部117の第1受光可能領域117a全体における画像を生成した後に、第1画像生成領域117bに対応した領域を抽出して切り出し画像を生成する構成であってもよい。   In addition, the structure which produces | generates a cut-out image in the 1st camera 10 is not specifically limited. For example, the first camera 10 drives only a part of the light receiving elements arranged in the first light receivable area 117a of the first image pickup unit 117 that is an image pickup element, and thereby in the first image generation area 117b. The structure which produces | generates a cut-out image may be sufficient. Further, for example, after generating an image in the entire first light receiving area 117a of the first imaging unit 117, an area corresponding to the first image generation area 117b may be extracted to generate a cutout image.

画像処理部126は、SDRAM124やFlashROM125等の記憶領域を使用して、画像に対して所定の画像処理を行う構成を有する。画像処理部126は、いわゆるコントラスト検出方式によるオートフォーカスを行うために、生成した画像について、所定の領域(フォーカスエリア)におけるコントラスト値を算出することができる。   The image processing unit 126 has a configuration for performing predetermined image processing on an image using a storage area such as the SDRAM 124 or the Flash ROM 125. The image processing unit 126 can calculate a contrast value in a predetermined region (focus area) for the generated image in order to perform autofocus by a so-called contrast detection method.

また、画像処理部126は、複数の画像を比較することによって複数の画像間の相関係数を算出することが可能であり、例えば、ある画像内における、予め登録された画像との一致度が高い領域を検出する、いわゆるパターンマッチングを行うことができる。   Further, the image processing unit 126 can calculate a correlation coefficient between a plurality of images by comparing the plurality of images. For example, the degree of coincidence with a pre-registered image in a certain image can be calculated. It is possible to perform so-called pattern matching that detects a high region.

画像処理部126は、ボディユニット100の後方に配設された画像表示装置123に電気的に接続されており、画像表示装置123に画像を表示することができる。画像表示装置123は、第1カメラ10による撮影構図をリアルタイムに表示する、いわゆる電子ビューファインダとしても機能する。なお、画像表示装置123は、立体視画像を人が裸眼で鑑賞することが可能な構成を有することが好ましい。   The image processing unit 126 is electrically connected to an image display device 123 disposed behind the body unit 100 and can display an image on the image display device 123. The image display device 123 also functions as a so-called electronic viewfinder that displays in real time the composition taken by the first camera 10. Note that the image display device 123 preferably has a configuration that allows a person to view a stereoscopic image with the naked eye.

記録メディア127は、フラッシュメモリやHDD等の記録媒体であり、ボディユニット100内に着脱可能に設けられている。記録メディア127は、第1カメラ10及び第2カメラ300で撮像された立体視画像等のデータを記録する。   The recording medium 127 is a recording medium such as a flash memory or an HDD, and is detachably provided in the body unit 100. The recording medium 127 records data such as a stereoscopic image captured by the first camera 10 and the second camera 300.

不揮発性メモリ128は、カメラシステム1の制御に必要な所定の制御パラメータを記憶する、例えばEEPROMからなる記憶部である。不揮発性メモリ128は、Bucom101からアクセス可能に設けられている。不揮発性メモリ128には、詳しくは後述するが、立体視画像の基線長を求めるために必要な、第1カメラ10の形状情報等が記憶されている。   The nonvolatile memory 128 is a storage unit made of, for example, an EEPROM that stores predetermined control parameters necessary for controlling the camera system 1. The nonvolatile memory 128 is provided so as to be accessible from the Bucom 101. As will be described in detail later, the nonvolatile memory 128 stores shape information of the first camera 10 and the like necessary for obtaining the baseline length of the stereoscopic image.

Bucom101には、第1カメラ10の動作状態を表示出力によってユーザへ告知するための動作表示用LED130と、カメラ操作SW131と、外部ストロボ1を駆動するストロボ制御回路133と、が接続されている。カメラ操作SW131は、例えばレリーズSW、モード変更SW及びパワーSWなど、第1カメラ10を操作するために必要な操作釦を含むスイッチ群である。   The Bucom 101 is connected to an operation display LED 130 for notifying the user of the operation state of the first camera 10 by display output, a camera operation SW 131, and a strobe control circuit 133 that drives the external strobe 1. The camera operation SW 131 is a switch group including operation buttons necessary for operating the first camera 10 such as a release SW, a mode change SW, and a power SW.

さらに、該ボディユニット100内には、電源としての電池134と、該電池134の電圧を、当該第1カメラ10を構成する各回路ユニットが必要とする電圧に変換して供給する電源回路135が設けられ、また、外部電源から不図示のジャックを介して電流が供給されたときの電圧変化を検知する電圧検出回路(図示せず)も設けられている。   Further, in the body unit 100, a battery 134 as a power source, and a power supply circuit 135 that converts the voltage of the battery 134 into a voltage required by each circuit unit constituting the first camera 10 and supplies the converted voltage. There is also provided a voltage detection circuit (not shown) for detecting a voltage change when current is supplied from an external power source via a jack (not shown).

本実施形態の第1カメラ10は、第1撮像部117をX軸方向及びY軸方向に移動させることが可能に構成された、撮像部移動機構部159を具備している。撮像部移動機構部159を介して第1撮像部117を保持していることによって、本実施形態の第1カメラ10は、第1撮像部117の第1画像生成領域117bを、X軸方向及びY軸方向に機械的に移動させることができる。   The first camera 10 of the present embodiment includes an imaging unit moving mechanism unit 159 configured to be able to move the first imaging unit 117 in the X-axis direction and the Y-axis direction. By holding the first imaging unit 117 via the imaging unit moving mechanism unit 159, the first camera 10 of the present embodiment moves the first image generation region 117 b of the first imaging unit 117 in the X-axis direction and It can be moved mechanically in the Y-axis direction.

具体的に撮像部移動機構部159は、X軸ジャイロ160、Y軸ジャイロ161、防振制御回路162、X軸アクチュエータ163、Y軸アクチュエータ164、X枠165、Y枠166、フレーム167、位置検出センサ168及びアクチュエータ駆動回路169を具備して構成されている。   Specifically, the imaging unit moving mechanism unit 159 includes an X-axis gyro 160, a Y-axis gyro 161, an image stabilization control circuit 162, an X-axis actuator 163, a Y-axis actuator 164, an X frame 165, a Y frame 166, a frame 167, and position detection. A sensor 168 and an actuator drive circuit 169 are provided.

フレーム167は、ボディユニット100に固定されており、該フレーム167によって、X枠165がX軸方向に移動可能に支持されている。また、X枠165によって、第1撮像部117を保持するY枠166が、Y軸方向に移動可能に支持されている。そして、X軸アクチュエータ163及びY軸アクチュエータ164は、X枠165及びY枠166をそれぞれX軸方向及びY軸方向に駆動する構成を有する。X枠165及びY枠166の位置制御は、X枠165及びY枠166の位置を検出する位置検出センサ168と、X軸アクチュエータ163及びY軸アクチュエータ164の動作を制御するアクチュエータ駆動回路169によって行われる。   The frame 167 is fixed to the body unit 100, and the X frame 165 is supported by the frame 167 so as to be movable in the X-axis direction. In addition, the Y frame 166 holding the first imaging unit 117 is supported by the X frame 165 so as to be movable in the Y axis direction. The X-axis actuator 163 and the Y-axis actuator 164 are configured to drive the X frame 165 and the Y frame 166 in the X axis direction and the Y axis direction, respectively. The position control of the X frame 165 and the Y frame 166 is performed by a position detection sensor 168 that detects the positions of the X frame 165 and the Y frame 166 and an actuator drive circuit 169 that controls the operations of the X axis actuator 163 and the Y axis actuator 164. Is called.

X軸ジャイロ160は、第1カメラ10のX軸回りの回動(ブレ)の角速度を検出し、Y軸ジャイロ161は、第1カメラ10のY軸周りの回動の角速度を検出する。防振制御回路162は、検出された第1カメラ10の角速度から、手ブレ補償量を演算し、第1撮像部117をブレを補償するように変位移動させる。なお、撮像部移動機構部159において、第1撮像部117を移動させるアクチュエータの構成は、回転モータ、リニアモータ、超音波モータ等、特に限定されるものではない。   The X-axis gyro 160 detects the angular velocity of rotation (blur) around the X axis of the first camera 10, and the Y-axis gyro 161 detects the angular velocity of rotation of the first camera 10 around the Y axis. The image stabilization control circuit 162 calculates a camera shake compensation amount from the detected angular velocity of the first camera 10, and displaces and moves the first imaging unit 117 so as to compensate for the shake. In the imaging unit moving mechanism unit 159, the configuration of the actuator that moves the first imaging unit 117 is not particularly limited, such as a rotary motor, a linear motor, or an ultrasonic motor.

以上のような構成を有する撮像素子移動機構部159は、第1カメラ10の動きに応じて第1撮像部117を移動させることによって、第1カメラ10の動きに起因する第1撮像部117の受光可能領域117aに対する被写体像のブレを抑制する機能、いわゆる撮像素子シフト方式の手振れ補正機能を有する。   The imaging element moving mechanism unit 159 having the above-described configuration moves the first imaging unit 117 according to the movement of the first camera 10, thereby causing the first imaging unit 117 caused by the movement of the first camera 10. It has a function of suppressing blurring of the subject image with respect to the light receiving area 117a, that is, a so-called image sensor shift type camera shake correction function.

第1カメラ10のボディユニット100には、結合部180が設けられている。結合部180は、中間部材400、第2カメラ300、外部ストロボ装置(不図示)又は電子ビューファインダ(不図示)等を固定可能な、一般にアクセサリーシュー又はホットシュー等と称される形状を有する。   The body unit 100 of the first camera 10 is provided with a coupling portion 180. The coupling unit 180 has a shape generally referred to as an accessory shoe or a hot shoe that can fix the intermediate member 400, the second camera 300, an external strobe device (not shown), an electronic viewfinder (not shown), or the like.

本実施形態では、結合部180には、外部ストロボ装置と、ボディユニット100内に配設されたストロボ制御回路133とを電気的に接続するためのストロボ接点136が設けられている。   In the present embodiment, the coupling unit 180 is provided with a strobe contact 136 for electrically connecting an external strobe device and a strobe control circuit 133 disposed in the body unit 100.

また、結合部180には、第1カメラ10と第2カメラ300及び中間部材400とを電気的に接続するための通信コネクタ181が設けられている。通信コネクタ181は、第1カメラ10と第2カメラ300及び中間部材400との間の通信を行うための通信部を構成するものである。また本実施形態では、通信コネクタ181は、第1カメラ10と第2カメラ300及び中間部材400と間の通信用の端子以外に、第1カメラ10から第2カメラ300及び中間部材400へ電力を供給するための端子も備えている。   In addition, the coupling unit 180 is provided with a communication connector 181 for electrically connecting the first camera 10, the second camera 300, and the intermediate member 400. The communication connector 181 constitutes a communication unit for performing communication between the first camera 10, the second camera 300, and the intermediate member 400. In the present embodiment, the communication connector 181 supplies power from the first camera 10 to the second camera 300 and the intermediate member 400 in addition to the communication terminal between the first camera 10, the second camera 300, and the intermediate member 400. A terminal for supplying is also provided.

なお、通信部は、無線によって第1カメラ10と第2カメラ300及び中間部材400との間の通信を行う形態であってもよい。また、第1カメラ10から第2カメラ200及び中間部材400への電力供給は、電磁誘導等の非接触の形態によって行われるものであってもよい。また、第2カメラ300及び中間部材400が独立した電源を具備する場合には、第1カメラ10から第2カメラ200及び中間部材400への電力供給は不要であることは言うまでもない。   The communication unit may be configured to perform communication between the first camera 10, the second camera 300, and the intermediate member 400 by radio. The power supply from the first camera 10 to the second camera 200 and the intermediate member 400 may be performed in a non-contact manner such as electromagnetic induction. Needless to say, when the second camera 300 and the intermediate member 400 have independent power supplies, it is not necessary to supply power from the first camera 10 to the second camera 200 and the intermediate member 400.

次に、第2カメラ300の構成について説明する。図4に示すように、第2カメラ300は、被写体の光学像を結像する第2撮影レンズ302と、第2撮影レンズ302の結像位置に配置された、CCDやCMOSセンサ等からなる第2撮像部317と、を具備して構成されている。本実施形態では、第2カメラ300は、第2撮像部317を保持するボディ部と、第2撮影レンズ302を保持するレンズ鏡筒部とが一体に構成されている。   Next, the configuration of the second camera 300 will be described. As shown in FIG. 4, the second camera 300 includes a second photographic lens 302 that forms an optical image of a subject, and a second camera 300 that includes a CCD, a CMOS sensor, and the like that are disposed at the imaging position of the second photographic lens 302. 2 imaging unit 317. In the present embodiment, in the second camera 300, a body part that holds the second imaging unit 317 and a lens barrel part that holds the second photographing lens 302 are integrally configured.

本実施形態では、第2撮影レンズ302の動作は、Lucom301によって制御される。また、第2カメラ300の全体の動作は、Bucom321によって制御される。   In the present embodiment, the operation of the second photographic lens 302 is controlled by the Lucom 301. The overall operation of the second camera 300 is controlled by the Bucom 321.

第2カメラ300のレンズ鏡筒部は、前述した第1カメラ10と同様に、Lucom301、第2撮影レンズ302及び絞り303を備えて構成されている。第2撮影レンズ302は、フォーカスレンズ302aと変倍レンズ302bとによって構成されている。フォーカスレンズ302aは、レンズ駆動機構304内に設けられた図示しないステッピングモータ等のアクチュエータによって駆動される。変倍レンズ302bは、ズーム駆動機構306内に設けられた図示しないステッピングモータ等のアクチュエータによって駆動される。また、絞り303は、絞り駆動機構305内に設けられた図示しないステッピングモータ等のアクチュエータによって駆動される。   Similar to the first camera 10 described above, the lens barrel of the second camera 300 includes a Lucom 301, a second photographing lens 302, and a diaphragm 303. The second photographic lens 302 includes a focus lens 302a and a variable power lens 302b. The focus lens 302 a is driven by an actuator such as a stepping motor (not shown) provided in the lens driving mechanism 304. The variable power lens 302b is driven by an actuator such as a stepping motor (not shown) provided in the zoom drive mechanism 306. The diaphragm 303 is driven by an actuator such as a stepping motor (not shown) provided in the diaphragm driving mechanism 305.

また、本実施形態の第2カメラ300は、第1カメラ10と異なり、いわゆるレンズシャッタ形式のシャッタ308を備えている。すなわち、シャッタ308は、レンズ鏡筒部に配設されている。シャッタ308は、バネで付勢された遮光羽根を、プランジャにより駆動する公知の形式で、第1カメラ10が有するシャッターチャージ機構112は不用である。なお、シャッタ308は、第1カメラ10と同様に、いわゆるフォーカルプレーンシャッタ形式であってもよい。   Further, unlike the first camera 10, the second camera 300 of the present embodiment includes a so-called lens shutter type shutter 308. That is, the shutter 308 is disposed in the lens barrel portion. The shutter 308 is a known type in which a light shielding blade biased by a spring is driven by a plunger, and the shutter charge mechanism 112 of the first camera 10 is unnecessary. Note that the shutter 308 may be of a so-called focal plane shutter type, similar to the first camera 10.

第2撮影レンズ302の合焦距離、焦点距離、及び絞り値は、図示しない位置エンコーダ等によって検出され、Lucom301を介して、Bucom321に入力される。   The in-focus distance, focal length, and aperture value of the second photographic lens 302 are detected by a position encoder (not shown) or the like, and input to the Bucom 321 via the Lucom 301.

第2撮像部317は、図5に示すように、矩形状の第2受光可能領域317aを有する。第1カメラ10及び第2カメラ300が結合された状態のカメラシステム1を被写体側から見た場合に、第2受光可能領域317aの長辺L2は、第1カメラ10及び第2カメラ300がなす基線に対して略平行となる。例えば、図1に示すように、基線が水平となるようにカメラシステム1を保持した場合には、第2撮像部317の第2受光可能領域317aの長辺L2は水平な平面に沿う。   As shown in FIG. 5, the second imaging unit 317 includes a rectangular second light-receiving area 317 a. When the camera system 1 in a state where the first camera 10 and the second camera 300 are combined is viewed from the subject side, the long side L2 of the second light receivable region 317a is formed by the first camera 10 and the second camera 300. It is substantially parallel to the baseline. For example, as shown in FIG. 1, when the camera system 1 is held so that the base line is horizontal, the long side L2 of the second light-receivable region 317a of the second imaging unit 317 is along a horizontal plane.

言い換えれば、本実施形態のカメラシステム1では、第1カメラ10及び第2カメラ300が結合された状態を被写体側から見た場合に、第1受光可能領域117aの長辺L1及び第2受光可能領域317aの長辺L2が略直交するように、第1撮像部117及び第2撮像部317が配設されている。   In other words, in the camera system 1 of the present embodiment, when the state where the first camera 10 and the second camera 300 are combined is viewed from the subject side, the long side L1 of the first light receiving area 117a and the second light receiving are possible. The first imaging unit 117 and the second imaging unit 317 are arranged so that the long side L2 of the region 317a is substantially orthogonal.

すなわち、本実施形態のカメラシステム1において、第1カメラ10及び第2カメラ300が結合された状態を被写体側から見た場合に、第1受光可能領域117aの長辺L1は基線に略直交し、第2受光可能領域317aの長辺L2は基線に略平行となる。   That is, in the camera system 1 according to the present embodiment, when the state in which the first camera 10 and the second camera 300 are combined is viewed from the subject side, the long side L1 of the first light receiving area 117a is substantially orthogonal to the base line. The long side L2 of the second light receivable region 317a is substantially parallel to the base line.

なお本実施形態では、第2撮像部317の前側には、ローパスフィルタ等の光学フィルタ318が配設されている。   In the present embodiment, an optical filter 318 such as a low-pass filter is disposed on the front side of the second imaging unit 317.

第2撮像部317は、第2撮像部317の動作を制御する撮像部インターフェース回路322を介して画像処理部326に電気的に接続されている。画像処理部326は、第2撮像部317から出力される信号に基づいて画像を生成する構成を有する。   The second imaging unit 317 is electrically connected to the image processing unit 326 via an imaging unit interface circuit 322 that controls the operation of the second imaging unit 317. The image processing unit 326 has a configuration for generating an image based on a signal output from the second imaging unit 317.

具体的に、画像処理部326は、第2撮像部317の第2受光可能領域317aの全体に結像された光学像に応じた画像を生成する。また、画像処理部326は、図5に示すように、第2撮像部317の第2受光可能領域317a内における、所定の領域である第2画像生成領域317b内に結像された光学像に応じた切り出し画像を生成することも可能である。この切り出し画像は、カメラシステム1によって撮影される立体視画像における、第2カメラ300の視点から撮影された画像となる。   Specifically, the image processing unit 326 generates an image corresponding to the optical image formed on the entire second light receivable region 317a of the second imaging unit 317. Further, as shown in FIG. 5, the image processing unit 326 forms an optical image formed in the second image generation region 317 b that is a predetermined region in the second light receiving area 317 a of the second imaging unit 317. A corresponding cutout image can be generated. This cut-out image is an image taken from the viewpoint of the second camera 300 in the stereoscopic image taken by the camera system 1.

ここで、第2画像生成領域317bは矩形状であり、第2画像生成領域317bの長辺は、Y軸と略平行である。言い換えれば、第1カメラ10及び第2カメラ300が結合された状態のカメラシステム1を被写体側から見た場合に、第2画像生成領域317bの長辺は、第1カメラ10及び第2カメラ300がなす基線に対して略平行となる。   Here, the second image generation region 317b has a rectangular shape, and the long side of the second image generation region 317b is substantially parallel to the Y axis. In other words, when the camera system 1 in a state where the first camera 10 and the second camera 300 are combined is viewed from the subject side, the long side of the second image generation region 317b is the first camera 10 and the second camera 300. Is substantially parallel to the baseline formed by.

したがって、本実施形態では、第1カメラ10及び第2カメラ300が結合された状態のカメラシステム1を被写体側から見た場合に、第1カメラ10の第1画像生成領域117bの長辺と、第2カメラ300の第2画像生成領域317bの長辺とは、略平行となる。   Therefore, in this embodiment, when the camera system 1 in a state where the first camera 10 and the second camera 300 are combined is viewed from the subject side, the long side of the first image generation region 117b of the first camera 10; The long side of the second image generation area 317b of the second camera 300 is substantially parallel.

言い換えれば、カメラシステム1において、第1カメラ10及び第2カメラ300がそれぞれ生成する切り出し画像の長辺は、被写体側から見て基線と略平行となる。そして、本実施形態では、この長辺が基線に沿う一対の切り出し画像が、立体視画像を構成する。   In other words, in the camera system 1, the long sides of the cut-out images generated by the first camera 10 and the second camera 300 are substantially parallel to the base line when viewed from the subject side. In the present embodiment, a pair of cut-out images whose long sides are along the base line constitute a stereoscopic image.

そして、第2画像生成領域317bは、第2受光可能領域317a内において、少なくとも第2受光可能領域317aの長辺に平行な方向に移動可能である。   The second image generation area 317b is movable in a direction parallel to at least the long side of the second light receiving area 317a in the second light receiving area 317a.

具体的に本実施形態においては、第2画像生成領域317bの長辺は、第2受光可能領域317aの長辺よりも短い。このため、第2画像生成領域317bは、第2受光可能領域317a内において、第2受光可能領域317aの長辺方向及び短辺方向の互いに直交する2方向に移動可能であると共に、第2受光可能領域317aに直交する軸周りに回転可能である。矩形状の第2画像生成領域317bは、大きさの変更及び縦横比の変更が可能であってもよい。   Specifically, in the present embodiment, the long side of the second image generation region 317b is shorter than the long side of the second light receiving region 317a. For this reason, the second image generation region 317b is movable in two directions orthogonal to each other in the long side direction and the short side direction of the second light receiving region 317a in the second light receiving region 317a. It can rotate around an axis orthogonal to the possible region 317a. The rectangular second image generation region 317b may be changeable in size and aspect ratio.

なお、第1カメラ10と同様に、第2カメラ300において切り出し画像を生成する構成は特に限定されるものではない。例えば、第2カメラ300は、撮像素子である第2撮像部317の第2受光可能領域317aに配列された受光素子のうちの、一部のみを駆動することによって、第2画像生成領域317bにおける切り出し画像を生成する構成であってもよい。また例えば、第2撮像部317の第2受光可能領域317a全体における画像を生成した後に、第2画像生成領域317bに対応した領域を抽出して切り出し画像を生成する構成であってもよい。   Similar to the first camera 10, the configuration for generating a cut-out image in the second camera 300 is not particularly limited. For example, the second camera 300 drives only a part of the light receiving elements arranged in the second light receiving area 317a of the second imaging unit 317, which is an imaging element, in the second image generation area 317b. The structure which produces | generates a cut-out image may be sufficient. Further, for example, after generating an image in the entire second light receivable region 317a of the second imaging unit 317, a configuration may be used in which a region corresponding to the second image generation region 317b is extracted to generate a cutout image.

画像処理部326において生成された画像は、通信部を介して第1カメラ10に送信され、SDRAM124や記録メディア127に記憶される。   The image generated by the image processing unit 326 is transmitted to the first camera 10 via the communication unit and stored in the SDRAM 124 and the recording medium 127.

また、画像処理部326は、SDRAM324やFlashROM325等の記憶領域を使用して、画像に対して所定の画像処理を行う構成を有する。画像処理部326は、いわゆるコントラスト検出方式によるオートフォーカスを行うために、生成した画像について、所定の領域(フォーカスエリア)におけるコントラスト値を算出することができる。   The image processing unit 326 has a configuration for performing predetermined image processing on an image using a storage area such as the SDRAM 324 or the Flash ROM 325. The image processing unit 326 can calculate a contrast value in a predetermined region (focus area) for the generated image in order to perform autofocus using a so-called contrast detection method.

ここで、本実施形態のカメラシステム1では、第1カメラ10が生成する切り出し画像の視野と、第2カメラ300が生成する切り出し画像の視野とが、略一致するように、第1撮影レンズ202及び第2撮影レンズ302の焦点距離と第1画像生成領域117b及び第2画像生成領域317bの形状及び大きさが定められている。ここで、第1画像生成領域117b及び第2画像生成領域317bは矩形状であることから、第1画像生成領域117b及び第2画像生成領域317bの形状とは、それぞれの長辺と短辺との比のことを指す。   Here, in the camera system 1 of the present embodiment, the first photographic lens 202 is set so that the field of view of the clipped image generated by the first camera 10 and the field of view of the clipped image generated by the second camera 300 substantially match. The focal length of the second photographic lens 302 and the shapes and sizes of the first image generation area 117b and the second image generation area 317b are determined. Here, since the first image generation region 117b and the second image generation region 317b are rectangular, the shapes of the first image generation region 117b and the second image generation region 317b are the long side and the short side, respectively. Refers to the ratio of.

具体的に本実施形態では、第1撮影レンズ202及び第2撮影レンズ302は略同一のの焦点距離を有し、第1画像生成領域117b及び第2画像生成領域317bは略同一の形状及び大きさを有している。また、本実施形態では、第1カメラ10が生成する切り出し画像の画素数と、第2カメラ300が生成する切り出し画像の画素数とが略一致するように、第1撮像部117及び第2撮像部317を構成する受光素子の配列ピッチが定められている。   Specifically, in the present embodiment, the first photographing lens 202 and the second photographing lens 302 have substantially the same focal length, and the first image generation region 117b and the second image generation region 317b have substantially the same shape and size. Have Further, in the present embodiment, the first imaging unit 117 and the second imaging are performed so that the number of pixels of the cutout image generated by the first camera 10 and the number of pixels of the cutout image generated by the second camera 300 substantially match. The arrangement pitch of the light receiving elements constituting the portion 317 is determined.

このように本実施形態では、第1カメラ10及び第2カメラ300が生成する一対の切り出し画像の視野及び画素数が略同一であることから、画像処理等の後処理を加えることなく、立体視画像を構成する右視点及び左視点の双方の画像の画質を略同一とすることができる。また、本実施形態では、第1撮影レンズ202及び第2撮影レンズ302は略同一の焦点距離を有し、かつ第1撮像部117及び第2撮像部317を構成する受光素子の配列ピッチが略同一であることから、第1カメラ10及び第2カメラ300が生成する一対の切り出し画像の被写界深度も略同一にすることができる。   As described above, in the present embodiment, since the field of view and the number of pixels of the pair of cut-out images generated by the first camera 10 and the second camera 300 are substantially the same, the stereoscopic view is not added without post-processing such as image processing. The image quality of both the right viewpoint and the left viewpoint constituting the image can be made substantially the same. In the present embodiment, the first photographing lens 202 and the second photographing lens 302 have substantially the same focal length, and the arrangement pitch of the light receiving elements constituting the first imaging unit 117 and the second imaging unit 317 is approximately. Since they are the same, the depth of field of the pair of cut-out images generated by the first camera 10 and the second camera 300 can be made substantially the same.

このように、本実施形態のカメラシステム1では、一対の切り出し画像の画質が略同一であることから、一対の切り出し画像に対して画像処理等の補正を施すことなく、立体視画像を生成することができる。例えば、立体視画像を構成する右視点画像及び左視点画像の画角、画素数及び被写界深度のうち少なくとも一つが異なる場合には、画像処理によってこの差異を小さくする必要がある。本実施形態のカメラシステム1では、このような、右視点画像及び左視点画像の差異を非常に小さくすることができるため、画像処理を行う必要が無かったり、仮に画像処置が必要であったとしても簡単な画像処理で済ませることができ、高速に高画質な立体視画像を得ることができる。   As described above, in the camera system 1 of the present embodiment, the image quality of the pair of clipped images is substantially the same, and thus a stereoscopic image is generated without performing correction such as image processing on the pair of clipped images. be able to. For example, when at least one of the angle of view, the number of pixels, and the depth of field of the right viewpoint image and the left viewpoint image constituting the stereoscopic image is different, it is necessary to reduce this difference by image processing. In the camera system 1 of the present embodiment, such a difference between the right viewpoint image and the left viewpoint image can be made very small, so that it is not necessary to perform image processing or image processing is temporarily required. However, simple image processing can be used, and a high-quality stereoscopic image can be obtained at high speed.

なお、本実施形態では、第1カメラ10のレンズユニット200が交換可能であることから、第2カメラ300の撮影レンズ302は、いわゆるズームレンズであって、レンズユニット200の交換に伴う焦点距離の変化(視野角の変化)に対応可能な、焦点距離の可変範囲を有することが好ましい。   In the present embodiment, since the lens unit 200 of the first camera 10 can be exchanged, the photographing lens 302 of the second camera 300 is a so-called zoom lens, and has a focal length associated with the exchange of the lens unit 200. It is preferable to have a variable range of focal length that can cope with a change (change in viewing angle).

不揮発性メモリ328は、カメラシステム1の制御に必要な所定の制御パラメータを記憶する、例えばEEPROMからなる記憶部である。不揮発性メモリ328は、Bucom321からアクセス可能に設けられている。不揮発性メモリ328には、詳しくは後述するが、立体視画像の基線長を求めるために必要な、第2カメラ300の形状情報等が記憶されている。   The nonvolatile memory 328 is a storage unit made of, for example, an EEPROM that stores predetermined control parameters necessary for controlling the camera system 1. The nonvolatile memory 328 is provided so as to be accessible from the Bucom 321. As will be described in detail later, the nonvolatile memory 328 stores shape information and the like of the second camera 300 necessary for obtaining the baseline length of the stereoscopic image.

Bucom321には、第2カメラ300の動作状態を表示出力によってユーザへ告知するための動作表示用LED329が接続されている。また、第2カメラ300には、後述する通信コネクタ381を介して第1カメラ10から供給された電力を当該第2カメラ300を構成する各回路ユニットへ分配する電源回路335が配設されている。   An operation display LED 329 for notifying the user of the operation state of the second camera 300 by display output is connected to the Bucom 321. Further, the second camera 300 is provided with a power supply circuit 335 that distributes the power supplied from the first camera 10 to the circuit units constituting the second camera 300 via a communication connector 381 described later. .

なお、第2カメラ300は、第1カメラ10が有するような画像を表示する部材や、使用者が動作指示を入力するスイッチ等の部材を具備していない。本実施形態ではこれらの機能は通信コネクタ381を介した通信によって、第1カメラ10側で実現される。すなわち、第2カメラ300と第1カメラ10とを結合した状態での第2カメラ300の操作は、第1カメラ10に備えられたカメラ操作SW131及び画像表示装置123等を介して行われる。   Note that the second camera 300 does not include a member for displaying an image as the first camera 10 has, or a member such as a switch for a user to input an operation instruction. In the present embodiment, these functions are realized on the first camera 10 side by communication via the communication connector 381. That is, the operation of the second camera 300 in a state where the second camera 300 and the first camera 10 are coupled is performed via the camera operation SW 131 and the image display device 123 provided in the first camera 10.

また、本実施形態では、第2カメラ300は電池及び記録メディアを具備していないが、第2カメラ300は、第1カメラ10とは独立してこれらを具備する構成であってもよい。また逆に、Bucom321、Lucom301及び画像処理部326等の、第1カメラ10が有する回路と機能が重複する構成は、第1カメラ10側に集約して、第2カメラ300に配設しない構成であってもよい。   In the present embodiment, the second camera 300 does not include a battery and a recording medium, but the second camera 300 may be configured to include these independently of the first camera 10. On the other hand, the configuration in which the functions of the first camera 10 such as the Bucom 321, the Lucom 301, and the image processing unit 326 overlap with each other is a configuration that is aggregated on the first camera 10 side and not disposed in the second camera 300. There may be.

結合部380は、第1カメラ10に設けられた結合部180と機械的に結合する構成を有する。具体的には、アクセサリーシューに係合して、第1カメラ10と第2カメラ300とを機械的に結合する形状を有する。   The coupling unit 380 has a configuration that mechanically couples with the coupling unit 180 provided in the first camera 10. Specifically, the first camera 10 and the second camera 300 are mechanically coupled by engaging with the accessory shoe.

結合部380には、第1カメラ10と第2カメラ300との間の通信を行うための通信部を構成する通信コネクタ381が配設されている。通信コネクタ381は、第1カメラ10に設けられた通信コネクタ181と係合し、第1カメラ10と第2カメラ300とを電気的に接続する構成を有する。第1カメラ10と第2カメラ300とが電気的に接続されることによって、第1カメラ10及び第2カメラ300間の通信、及び第1カメラ10から第2カメラ300への電力の供給が可能となる。   The coupling unit 380 is provided with a communication connector 381 that forms a communication unit for performing communication between the first camera 10 and the second camera 300. The communication connector 381 is configured to engage with a communication connector 181 provided on the first camera 10 and to electrically connect the first camera 10 and the second camera 300. By electrically connecting the first camera 10 and the second camera 300, communication between the first camera 10 and the second camera 300 and power supply from the first camera 10 to the second camera 300 are possible. It becomes.

また、本実施形態では、図1及び図6に示すように、第2カメラ300が第1カメラ10に結合された状態において、第2カメラ300は、第2撮像部317の第2受光可能領域317aの中心位置を通りX軸と平行なR軸周りに回動可能に支持されている。   In the present embodiment, as shown in FIGS. 1 and 6, in the state where the second camera 300 is coupled to the first camera 10, the second camera 300 has the second light receiving area of the second imaging unit 317. It is supported so as to be rotatable around an R axis passing through the center position of 317a and parallel to the X axis.

具体的には、第2カメラ300は、結合部380からフォーク状に延出する一対の支持腕383によって、R軸周りに回動可能に支持されている。第2カメラ300のR軸周りの回動は、回動軸端部に設けられたネジ381を締め付けることによって、任意の位置に位置決めして固定することができる。なお、第2カメラ300は、電動モータ等のアクチュエータによってR軸周りに駆動される構成であってもよい。   Specifically, the second camera 300 is supported by a pair of support arms 383 extending from the coupling portion 380 in a fork shape so as to be rotatable around the R axis. The rotation of the second camera 300 around the R axis can be positioned and fixed at an arbitrary position by tightening a screw 381 provided at the end of the rotation shaft. The second camera 300 may be configured to be driven around the R axis by an actuator such as an electric motor.

そして、第2カメラ300には、第2カメラ300のR軸周りの角度を検出する角度検出機構353が配設されている。角度検出機構353の構成は、第2カメラ300のR軸周りの回動位置を検出可能な構成であれば特に限定されるものではないが、磁気スケールや用いたロータリーエンコーダ、光学式ロータリーエンコーダ、可変抵抗を用いたロータリーポテンショメータ等を用いることが可能である。   The second camera 300 is provided with an angle detection mechanism 353 that detects an angle around the R axis of the second camera 300. The configuration of the angle detection mechanism 353 is not particularly limited as long as the rotation position around the R axis of the second camera 300 can be detected, but a magnetic scale, a rotary encoder used, an optical rotary encoder, It is possible to use a rotary potentiometer using a variable resistor.

中間部材400は、一端に、第1カメラ10に設けられた結合部180と機械的に結合可能な結合部401が設けられており、他端に、第2カメラ300の結合部380と機械的に結合可能な結合部403が設けられた部材である。すなわち、中間部材400の一端は、第2カメラ300の結合部380と同等の形状であり、中間部材400の他端は、第1カメラ10の結合部180と同等の形状である。これにより、中間部材400を間に配設した状態で、第1カメラ10及び第2カメラ300を機械的に結合することができる。   The intermediate member 400 is provided at one end with a coupling portion 401 that can be mechanically coupled with the coupling portion 180 provided on the first camera 10, and at the other end with the coupling portion 380 of the second camera 300. This is a member provided with a coupling portion 403 that can be coupled to the. That is, one end of the intermediate member 400 has a shape equivalent to that of the coupling portion 380 of the second camera 300, and the other end of the intermediate member 400 has a shape equivalent to that of the coupling portion 180 of the first camera 10. Accordingly, the first camera 10 and the second camera 300 can be mechanically coupled with the intermediate member 400 disposed therebetween.

また、中間部材400の結合部401には、第1カメラ10の通信コネクタ181と係合する通信コネクタ402が設けられており、結合部403には、第2カメラ300の通信コネクタ381と係合する通信コネクタ404が設けられている。そして、中間部材400の通信コネクタ402及び404は、電気的に接続されている。これにより、中間部材400を間に配設した状態で、第1カメラ10及び第2カメラ300を機械的に結合した場合において、第1カメラ10及び第2カメラ300を電気的に接続することができる。   The connecting portion 401 of the intermediate member 400 is provided with a communication connector 402 that engages with the communication connector 181 of the first camera 10. The connecting portion 403 is engaged with the communication connector 381 of the second camera 300. A communication connector 404 is provided. The communication connectors 402 and 404 of the intermediate member 400 are electrically connected. Thus, when the first camera 10 and the second camera 300 are mechanically coupled with the intermediate member 400 disposed therebetween, the first camera 10 and the second camera 300 can be electrically connected. it can.

以上のように、中間部材400は、第1カメラ10と第2カメラ300との間に配設されることによって両者間の距離を変更する、いわゆるスペーサとしての役割を有する。   As described above, the intermediate member 400 has a role as a so-called spacer that is disposed between the first camera 10 and the second camera 300 to change the distance between the two.

また、中間部材400には、例えばEEPROMからなる記憶部である不揮発性メモリ405が配設されている。不揮発性メモリ405は、中間部材400が第1カメラ10に機械的に結合された状態において、第1カメラ10のBucom101との間で通信可能なように設けられている。不揮発性メモリ405には、詳しくは後述するが、中間部材400の形状情報が記憶されている。また、Bucom101は、不揮発性メモリ405と通信可能である場合に、第1カメラ10の結合部180に中間部材400が結合されていると認識する。   Further, the intermediate member 400 is provided with a nonvolatile memory 405 that is a storage unit made of, for example, an EEPROM. The nonvolatile memory 405 is provided so as to be able to communicate with the Bucom 101 of the first camera 10 in a state where the intermediate member 400 is mechanically coupled to the first camera 10. The nonvolatile memory 405 stores shape information of the intermediate member 400, which will be described in detail later. Further, the Bucom 101 recognizes that the intermediate member 400 is coupled to the coupling unit 180 of the first camera 10 when communication with the nonvolatile memory 405 is possible.

以上のような構成を有するカメラシステム1において、第1カメラ10及び第2カメラ300が結合された状態では、第1撮像部117に対して第2撮像部317がY軸方向に所定の距離Dだけ離間した位置に配置される。具体的に本実施形態のカメラシステム1では、図6に示すように、第1カメラ10の第1撮像部117の第1受光可能領域117aの中心C1に対して、第2撮像部317の第2受光可能領域317aの中心C2がY軸方向のみに所定の距離Dだけ離間するように、第2カメラ300は第1カメラ10に対して固定される。   In the camera system 1 having the above-described configuration, when the first camera 10 and the second camera 300 are coupled, the second imaging unit 317 is a predetermined distance D in the Y-axis direction with respect to the first imaging unit 117. It is arrange | positioned in the position only spaced apart. Specifically, in the camera system 1 of the present embodiment, as shown in FIG. 6, the second imaging unit 317 has a second center with respect to the center C1 of the first light receiving area 117a of the first imaging unit 117 of the first camera 10. The second camera 300 is fixed with respect to the first camera 10 so that the center C2 of the two light-receiving areas 317a is separated by a predetermined distance D only in the Y-axis direction.

そして、第1カメラ10の不揮発性メモリ128には、結合部180と第1撮像部117の第1受光可能領域117aの中心C1とのY方向間隔D1が記憶されている。また、第2カメラ300の不揮発性メモリ328には、結合部380と第2撮像部317の第2受光可能領域317aの中心C2とのY方向間隔D2が記憶されている。また、中間部材400の不揮発性メモリ405には、結合部401と結合部403のY方向間隔D3が記憶されている。   The non-volatile memory 128 of the first camera 10 stores a Y-direction interval D1 between the coupling unit 180 and the center C1 of the first light receiving area 117a of the first imaging unit 117. In addition, the non-volatile memory 328 of the second camera 300 stores a Y-direction interval D2 between the coupling unit 380 and the center C2 of the second light receiving area 317a of the second imaging unit 317. Further, the non-volatile memory 405 of the intermediate member 400 stores the Y-direction interval D3 between the coupling portion 401 and the coupling portion 403.

本実施形態では、Bucom101が通信部を介して、D1、D2及びD3の値を取得し、これらの値に基づいて、距離Dを算出する。例えば、中間部材400を介さずに第1カメラ10及び第2カメラ300が機械的に結合されている場合には、D=D1+D2で求められる。また例えば、中間部材400を介して第1カメラ10及び第2カメラ300が機械的に結合されている場合には、D=D1+D2+D3で求められる。   In this embodiment, Bucom 101 acquires the values of D1, D2, and D3 via the communication unit, and calculates the distance D based on these values. For example, when the first camera 10 and the second camera 300 are mechanically coupled without the intermediate member 400, D = D1 + D2. Further, for example, when the first camera 10 and the second camera 300 are mechanically coupled via the intermediate member 400, D = D1 + D2 + D3.

このように、本実施形態のカメラシステム1における結合部は、第1カメラ10及び第2カメラ300の間での通信を可能としながら、第2撮像部317及び第1撮像部117の距離Dを変化させることができるように構成されている。そして、本実施形態のカメラシステム1では、第2撮像部317及び第1撮像部117の距離Dを算出するための情報が記憶部に記憶されている。   As described above, the coupling unit in the camera system 1 of the present embodiment enables the distance D between the second imaging unit 317 and the first imaging unit 117 while enabling communication between the first camera 10 and the second camera 300. It is configured so that it can be changed. In the camera system 1 of the present embodiment, information for calculating the distance D between the second imaging unit 317 and the first imaging unit 117 is stored in the storage unit.

本実施形態のカメラシステム1では、第1カメラ10の制御部であるBucom101は、第1撮影レンズ202の焦点距離及び合焦距離の情報、及び不揮発性メモリ128に記憶されたD1の値を取得する。またBucom101は、通信部を介して、第2カメラ30の第2撮影レンズ302の焦点距離及び合焦距離の情報、不揮発性メモリ328に記憶されたD2の値、及び角度検出機構353によって検出された輻輳角αの値を取得する。また、Bucom101は、第1カメラ10に中間部材400が結合されていると判定した場合には、通信部を介して、中間部材400の不揮発性メモリ405に記憶されたD3の値を取得する。   In the camera system 1 of the present embodiment, the Bucom 101 that is the control unit of the first camera 10 acquires information on the focal length and the focusing distance of the first photographing lens 202 and the value of D1 stored in the nonvolatile memory 128. To do. The Bucom 101 is detected by the information of the focal length and the focusing distance of the second photographing lens 302 of the second camera 30, the value of D2 stored in the nonvolatile memory 328, and the angle detection mechanism 353 via the communication unit. Obtain the value of the convergence angle α. When the Bucom 101 determines that the intermediate member 400 is coupled to the first camera 10, the Bucom 101 acquires the value of D3 stored in the nonvolatile memory 405 of the intermediate member 400 via the communication unit.

そして、これらの情報に基づいて、Bucom101は、基線長BLを算出する。図6に示すように、基線長BLは、例えば、第2撮影レンズ302の象面から節点までの節点距離Nを用いて、BL=D−N・sinαの式から求められる。すなわち、第2撮像部317及び第1撮像部117の中心位置間隔Dは、基線長BLを算出するための値である。基線長BLの値は、立体視画像の撮影時に利用される(詳細は後で述べる)。   Based on these pieces of information, the Bucom 101 calculates a baseline length BL. As shown in FIG. 6, the base line length BL is obtained from the equation BL = DN · sin α using, for example, the nodal distance N from the elephant surface of the second photographing lens 302 to the nodal point. That is, the center position interval D between the second imaging unit 317 and the first imaging unit 117 is a value for calculating the baseline length BL. The value of the baseline length BL is used when capturing a stereoscopic image (details will be described later).

次に、カメラシステム1における輻輳角αを自動的に調整するための構成について説明する。以上に説明した構成を有するカメラシステム1は、第1カメラ10及び第2カメラ300の輻輳角αを自動的に調整することができるように構成されている。   Next, a configuration for automatically adjusting the convergence angle α in the camera system 1 will be described. The camera system 1 having the above-described configuration is configured so that the convergence angle α of the first camera 10 and the second camera 300 can be automatically adjusted.

ここで、前述したように本実施形態のカメラシステム1における立体視画像は、第1撮像部117の第1画像生成領域117bにおける切り出し画像、及び第2撮像部317の第2画像生成領域317bにおける切り出し画像によって構成されている。このため、カメラシステム1の輻輳角αは、図6に示すように、第1画像生成領域117bの中心C1及び第1撮影レンズ202の節点を結ぶ軸O1と、第2画像生成領域317aの中心C2及び第2撮影レンズ302の節点を結ぶ軸O2とのなす角度となる。   Here, as described above, the stereoscopic image in the camera system 1 of the present embodiment is the cut-out image in the first image generation region 117b of the first imaging unit 117 and the second image generation region 317b of the second imaging unit 317. It is composed of cut-out images. For this reason, as shown in FIG. 6, the convergence angle α of the camera system 1 is the axis O1 connecting the center C1 of the first image generation region 117b and the node of the first photographing lens 202, and the center of the second image generation region 317a. This is an angle formed by C2 and an axis O2 connecting the nodes of the second photographic lens 302.

まず、本実施形態のカメラシステム1では、第2カメラ300を、R軸周りに回動させることによって、機械的に輻輳角αを変更することができる。また、第2カメラ300の第2撮像部300は、第2画像生成領域317bを、基線と平行なY−Z平面に略平行に電子的に移動させることができる。すなわち、第2撮像部300は、第2画像生成領域317bの中心C2を移動させることによって、輻輳角αを変化させることができる。   First, in the camera system 1 of the present embodiment, the convergence angle α can be mechanically changed by rotating the second camera 300 about the R axis. Further, the second imaging unit 300 of the second camera 300 can electronically move the second image generation region 317b substantially parallel to the YZ plane parallel to the base line. That is, the second imaging unit 300 can change the convergence angle α by moving the center C2 of the second image generation region 317b.

例えば、第2撮影レンズ302の節点と第2受光可能領域317aとの距離をN2とした場合、第2画像生成領域317bのY−Z平面に平行に平行な移動量Δyと輻輳角αの変化量Δαとの関係は、tanΔα=Δy/N2となる。   For example, when the distance between the node of the second photographic lens 302 and the second light-receivable region 317a is N2, the change in the movement amount Δy and the convergence angle α parallel to the YZ plane of the second image generation region 317b. The relationship with the amount Δα is tan Δα = Δy / N2.

また、本実施形態のカメラシステム1では、第1カメラ10の第1撮像部117は、撮像部移動機構部159によってY軸方向に移動可能に保持されている。さらに、第1撮像部117は、第1画像生成領域117bを、Y軸方向に移動させることができる。すなわち、第1カメラ10は、第1画像生成領域117bの中心C1をY軸方向に移動させることによって、輻輳角αを変化させることができる。   In the camera system 1 of the present embodiment, the first imaging unit 117 of the first camera 10 is held by the imaging unit moving mechanism unit 159 so as to be movable in the Y-axis direction. Furthermore, the first imaging unit 117 can move the first image generation region 117b in the Y-axis direction. That is, the first camera 10 can change the convergence angle α by moving the center C1 of the first image generation region 117b in the Y-axis direction.

例えば、第1撮影レンズ102の節点と第1受光可能領域117aとの距離をN1とした場合、第1画像生成領域117bのY軸方向への移動量Δyと輻輳角αの変化量Δαとの関係は、tanΔα=Δy/N1となる。   For example, when the distance between the node of the first photographic lens 102 and the first light-receiving area 117a is N1, the amount of movement Δy of the first image generation area 117b in the Y-axis direction and the amount of change Δα of the convergence angle α The relationship is tan Δα = Δy / N1.

以上のように、本実施形態のカメラシステム1は、第2カメラ300をR軸周りに回動させることによってだけではなく、第1画像生成領域117b及び第2画像生成領域317bを移動させることによって、自動的に輻輳角αを変更することができる。そして、第1画像生成領域117b及び第2画像生成領域317bの移動は、迅速かつ精密に行うことが可能であることから、輻輳角αを素早く精密に調整することができる。   As described above, the camera system 1 of the present embodiment not only rotates the second camera 300 around the R axis, but also moves the first image generation area 117b and the second image generation area 317b. The convergence angle α can be automatically changed. Since the first image generation area 117b and the second image generation area 317b can be moved quickly and precisely, the convergence angle α can be adjusted quickly and accurately.

輻輳角αの自動調整において、第1画像生成領域117b及び第2画像生成領域317bのいずれを移動させるかは特に限定されるものではない。本実施形態においては、第2撮像部317の受光可能領域317aの長辺L2が、基線と略平行なY−Z平面に略平行となるように配設されているため、第2画像生成領域317bのY−Z平面に略平行な方向への移動可能範囲が比較的広い。そこで、本実施形態では一例として、輻輳角αの調整処理においては、第2画像生成領域317aを主に移動させるものとする。   In the automatic adjustment of the convergence angle α, it is not particularly limited which of the first image generation area 117b and the second image generation area 317b is moved. In the present embodiment, since the long side L2 of the light receivable region 317a of the second imaging unit 317 is disposed so as to be substantially parallel to the YZ plane substantially parallel to the base line, the second image generation region The movable range in a direction substantially parallel to the YZ plane of 317b is relatively wide. Therefore, in the present embodiment, as an example, in the adjustment process of the convergence angle α, the second image generation region 317a is mainly moved.

次に、カメラシステム1における、視野調整処理について説明する。以上に説明した構成を有するカメラシステム1は、第1カメラ10及び第2カメラ300の視野にずれが生じた場合に、そのずれを無くすように補正する、視野調整処理を行うことができるように構成されている。   Next, the visual field adjustment process in the camera system 1 will be described. The camera system 1 having the above-described configuration is capable of performing a visual field adjustment process that corrects so as to eliminate the deviation when the visual fields of the first camera 10 and the second camera 300 are shifted. It is configured.

まず、本実施形態のカメラシステム1では、第1カメラ10及び第2カメラ300が結合部を介して着脱可能である。このため、結合部における寸法誤差や、使用者による結合部の取扱のばらつきや、衝撃が加えられることによる部材の変形等によって、第1カメラ10及び第2カメラ300の視線が輻輳せず、立体視に必要な条件からずれてしまう可能性がある。また、同様の原因により、第1カメラ10及び第2カメラ300の視野が基線に対して傾いてしまう可能性もある。   First, in the camera system 1 of the present embodiment, the first camera 10 and the second camera 300 are detachable via a coupling unit. For this reason, the line of sight of the first camera 10 and the second camera 300 is not congested due to dimensional errors in the coupling portion, variations in handling of the coupling portion by the user, deformation of members due to an impact, and the like. There is a possibility of deviating from the conditions necessary for viewing. For the same reason, the fields of view of the first camera 10 and the second camera 300 may be inclined with respect to the base line.

そこで本実施形態のカメラシステム1は、以下に示すような、第1カメラ10及び第2カメラ300が生成する切り出し画像の視野のずれ及び傾きを修正する、視野調整処理を行うことができる。   Therefore, the camera system 1 of the present embodiment can perform visual field adjustment processing for correcting the shift and inclination of the visual field of the cut-out images generated by the first camera 10 and the second camera 300 as described below.

図7は、一例として、第1カメラ10及び第2カメラ300を結合した状態において、第1カメラ10及び第2カメラ300の撮影光軸が輻輳せず、かつ一方の視野が基線に対して傾いている状態を示している。   FIG. 7 shows, as an example, in a state in which the first camera 10 and the second camera 300 are coupled, the imaging optical axes of the first camera 10 and the second camera 300 do not converge, and one field of view is inclined with respect to the base line. It shows the state.

ここで、第1カメラ10において、第1撮像部117の第1画像生成領域117bの中心C1が第1受光可能領域117aの中心と一致し、第1画像生成領域117bの長辺が第1受光可能領域117aの長辺と平行であり、かつ第1撮像部117が撮像部移動機構部159のX軸方向及びY軸方向のそれぞれの移動可能範囲の略中央に位置決めされた状態を、第1カメラ10の第1画像生成領域117bが中立位置にある、と称するものとする。   Here, in the first camera 10, the center C1 of the first image generation area 117b of the first imaging unit 117 coincides with the center of the first light reception possible area 117a, and the long side of the first image generation area 117b is the first light reception. A state in which the first imaging unit 117 is positioned substantially at the center of each movable range in the X-axis direction and the Y-axis direction of the imaging unit moving mechanism unit 159 is parallel to the long side of the possible region 117a. Assume that the first image generation region 117b of the camera 10 is in the neutral position.

また、第2カメラ300において、第2撮像部317の第2画像生成領域317bの中心C2が第2受光可能領域317aの中心と一致し、かつ第2画像生成領域317bの長辺が第2受光可能領域317aの長辺と平行である状態を、第2カメラ300の第2画像生成領域317bが中立位置にあると称するものとする。   In the second camera 300, the center C2 of the second image generation area 317b of the second imaging unit 317 coincides with the center of the second light reception possible area 317a, and the long side of the second image generation area 317b is the second light reception. The state parallel to the long side of the possible area 317a is referred to as the second image generation area 317b of the second camera 300 being in the neutral position.

すなわち、図7は、第1カメラ10の第1画像生成領域117b及び第2カメラ300の第2画像生成領域317bが共に中立位置にある状態において、第1カメラ10及び第2カメラ300が生成する一対の切り出し画像の視野の中心及び視野の傾きが一致していない状態を示している。図7に示す状態では、第1カメラ10及び第2カメラ300から生成される一対の切り出し画像間において被写体がずれた状態で写ってしまう。   That is, FIG. 7 shows that the first camera 10 and the second camera 300 generate in the state where the first image generation area 117b of the first camera 10 and the second image generation area 317b of the second camera 300 are both in the neutral position. The center of the visual field of a pair of cut-out images and the inclination of the visual field do not match. In the state shown in FIG. 7, the subject appears in a state of being shifted between a pair of cut-out images generated from the first camera 10 and the second camera 300.

以下の説明では、一対の切り出し画像間の、基線に平行な方向への中心のずれ量をΔyであるものとし、基線に直交する方向への中心のずれ量をΔxであるものとする。また、本実施形態では、一対の切り出し画像間の、相対的な角度のずれ量をΔθとする。   In the following description, it is assumed that the center shift amount in the direction parallel to the base line between the pair of cut-out images is Δy, and the center shift amount in the direction orthogonal to the base line is Δx. In the present embodiment, the relative angle shift amount between the pair of cut-out images is Δθ.

本実施形態のカメラシステム1における視野調整処理は、概略的には、画像処理部126において、第1カメラ10及び第2カメラ300が生成する一対の切り出し画像同士を比較することによって、一対の切り出し画像間の相対的なずれ量Δx、Δy及びΔθを算出する。なお、ずれ量の算出は、Δx、Δy及びΔθのうちの少なくとも一つであってもよい。   The visual field adjustment processing in the camera system 1 according to the present embodiment is roughly performed by comparing the pair of cutout images generated by the first camera 10 and the second camera 300 in the image processing unit 126, thereby pairing the cutouts. Relative shift amounts Δx, Δy, and Δθ between images are calculated. Note that the calculation of the shift amount may be at least one of Δx, Δy, and Δθ.

画像処理部126において、ずれ量Δx、Δy及びΔθを算出する方法は、特に限定されるものではないが、本実施形態では一例として、一対の切り出し画像に対して、パターンマッチングと称される画像処理を行うことによってΔx、Δy及びΔθを算出するものとする。パターンマッチングとは、所定の画像をテンプレートとして記憶し、パターンマッチングを行う画像中において、テンプレートとの相関値が高い領域(テンプレートと似ている領域)の位置及び角度を検出する処理である。なお、パターンマッチングは、周知の技術であるため、詳細な説明は省略するものとする。   The method for calculating the shift amounts Δx, Δy, and Δθ in the image processing unit 126 is not particularly limited, but in the present embodiment, as an example, an image referred to as pattern matching for a pair of cut-out images. It is assumed that Δx, Δy, and Δθ are calculated by performing processing. Pattern matching is processing for storing a predetermined image as a template and detecting the position and angle of a region (region similar to the template) having a high correlation value with the template in the image to be subjected to pattern matching. Since pattern matching is a well-known technique, detailed description thereof will be omitted.

本実施形態のカメラシステム1は、画像処理部126において、第2カメラ300の切り出し画像中の、図5中に波線で示す所定の少なくとも一つの比較領域317cにおける画像をテンプレートとして、第1カメラ10の第1撮像部117が生成する画像に対してパターンマッチングを行うことができる。   In the camera system 1 of the present embodiment, the image processing unit 126 uses the image in the predetermined at least one comparison region 317c indicated by the wavy line in FIG. 5 in the cut-out image of the second camera 300 as a template. Pattern matching can be performed on the image generated by the first imaging unit 117.

なお、図5では複数の比較領域317cを示しているが、比較領域317cは1箇所であってもよい。比較領域317cが所定の距離だけ離間した複数箇所に設けられる場合、一対の切り出し画像の角度のずれ量Δθの検出精度が向上するため好ましい。また、比較領域317cは、第2画像生成領域317bと略同一の大きさであってもよい。   In addition, although the several comparison area | region 317c is shown in FIG. 5, the comparison area | region 317c may be one place. It is preferable that the comparison region 317c is provided at a plurality of locations separated by a predetermined distance because the detection accuracy of the angle deviation amount Δθ between the pair of cut-out images is improved. The comparison area 317c may be approximately the same size as the second image generation area 317b.

そして、視野調整処理では、画像処理部126が算出したずれ量Δx、Δy及びΔθに基づいて、第1画像生成領域117b及び第2画像生成領域317bの少なくとも一方を移動させることにより、ずれ量Δx、Δy及びΔθを所定の許容値以下にする。ここで、ずれ量Δx、Δy及びΔθの所定の許容値とは、立体視画像を人間が鑑賞する際に不快感や違和感を感じることない許容値であって、予め行われる実験等によって定められる値である。第1画像生成領域117b及び第2画像生成領域317bの移動は、画像処理部126及び326における補間等の画像処理によって、それぞれの画素ピッチよりも短い距離であっても可能である。   In the visual field adjustment process, the shift amount Δx is obtained by moving at least one of the first image generation region 117b and the second image generation region 317b based on the shift amounts Δx, Δy, and Δθ calculated by the image processing unit 126. , Δy, and Δθ are set to a predetermined allowable value or less. Here, the predetermined allowable values of the shift amounts Δx, Δy, and Δθ are allowable values that do not cause discomfort or discomfort when a human views a stereoscopic image, and are determined by experiments that are performed in advance. Value. The first image generation region 117b and the second image generation region 317b can be moved by a distance shorter than the pixel pitch by image processing such as interpolation in the image processing units 126 and 326.

なお、第1画像生成領域117b及び第2画像生成領域317bを移動させた後に、再びずれ量Δx、Δy及びΔθを算出し、その結果、ずれ量Δx、Δy及びΔθが許容値よりも大きい場合には再び視野調整処理を行う、いわゆるフィードバック制御を行う形態であってもよい。   When the first image generation area 117b and the second image generation area 317b are moved, the deviation amounts Δx, Δy, and Δθ are calculated again, and as a result, the deviation amounts Δx, Δy, and Δθ are larger than the allowable values. Alternatively, the visual field adjustment processing may be performed again, so-called feedback control may be performed.

なお、視野調整処理において、ずれ量Δx、Δy及びΔθを所定の許容値以下とするために第1画像生成領域117b及び第2画像生成領域317bの少なくとも一方を移動させる方法は、特に限定されるものではない。本実施形態においては、第1撮像部117の方が、第2撮像部317よりも広い第1受光可能領域117aを有しており、かつ、第1撮像部117は撮像部移動機構部159によって移動可能に保持されている。このため、本実施形態では第1画像生成領域117bの移動可能範囲の方が、第2画像生成領域317bよりも広い。したがって、本実施形態では一例として、視野調整処理においては、第1画像生成領域117bを主に移動させるものとする。   In the visual field adjustment process, a method for moving at least one of the first image generation region 117b and the second image generation region 317b in order to set the shift amounts Δx, Δy, and Δθ to be equal to or less than a predetermined allowable value is particularly limited. It is not a thing. In the present embodiment, the first imaging unit 117 has a first light-receivable region 117a that is wider than the second imaging unit 317, and the first imaging unit 117 is moved by the imaging unit moving mechanism unit 159. It is held movable. For this reason, in this embodiment, the movable range of the first image generation area 117b is wider than the second image generation area 317b. Therefore, in the present embodiment, as an example, the first image generation region 117b is mainly moved in the visual field adjustment processing.

なお、視野調整処理において、第1カメラ10及び第2カメラ300が生成する一対の切り出し画像間に撮影倍率のずれ(視野角のずれ)がある場合には、第1画像生成領域117b及び第2画像生成領域317bの少なくとも一方の大きさを変化させることによって、撮影倍率のずれを調整することも可能である。   In the visual field adjustment process, when there is a photographing magnification shift (view angle shift) between the pair of cut-out images generated by the first camera 10 and the second camera 300, the first image generation region 117b and the second image generation region 117b By changing the size of at least one of the image generation regions 317b, it is also possible to adjust the deviation in photographing magnification.

具体的に本実施形態のカメラシステム1の視野調整処理では、画像処理部126は、第2カメラ300の切り出し画像の所定の比較領域317c中の画像をテンプレートとして記憶し、該テンプレートを用いて第1カメラ10の切り出し画像に対してパターンマッチング処理を行う。そして、画像処理部126は、第1カメラ10の切り出し画像における、テンプレートとの最も相関値の高い領域(図8に符号117dで示す領域)を検出し、第1カメラ10の切り出し画像中における該領域117dの座標及び傾きを算出する。   Specifically, in the visual field adjustment processing of the camera system 1 of the present embodiment, the image processing unit 126 stores an image in the predetermined comparison area 317c of the cut-out image of the second camera 300 as a template, and uses the template to store the first image. Pattern matching processing is performed on the cut-out image of one camera 10. Then, the image processing unit 126 detects a region (region denoted by reference numeral 117d in FIG. 8) having the highest correlation value with the template in the cutout image of the first camera 10, and the image processing unit 126 in the cutout image of the first camera 10 The coordinates and inclination of the area 117d are calculated.

そして画像処理部126は、第2画像中における比較領域317cの座標及び傾きと、第1カメラ10の切り出し画像中における該領域117dの座標及び傾きとの差から、一対の切り出し画像間の相対的なずれ量Δx、Δy及びΔθを算出する。そして、本実施形態のカメラシステム1は、ずれ量Δx、Δy及びΔθの値に基づいて、図8に符号117eで示す位置に第1カメラ10の第1画像生成領域117bを移動させ、第1カメラ10の切り出し画像中における被写体の位置と、第2カメラ300の切り出し画像中における被写体の位置とを近似させる。   Then, the image processing unit 126 calculates the relative relationship between the pair of cutout images based on the difference between the coordinates and inclination of the comparison region 317c in the second image and the coordinates and inclination of the region 117d in the cutout image of the first camera 10. The shift amounts Δx, Δy, and Δθ are calculated. Then, the camera system 1 of the present embodiment moves the first image generation region 117b of the first camera 10 to the position indicated by reference numeral 117e in FIG. 8 based on the values of the shift amounts Δx, Δy, and Δθ. The position of the subject in the clipped image of the camera 10 and the position of the subject in the clipped image of the second camera 300 are approximated.

なお、図8では、第1カメラ10の第1画像生成領域117bを、受光可能領域117aに対して移動させているが、第1画像生成領域117bの移動は、撮像部移動機構部159によっても可能なことは前述した通りである。以上により、カメラシステム1の視野調整処理が終了する。   In FIG. 8, the first image generation area 117b of the first camera 10 is moved with respect to the light receiving area 117a. However, the movement of the first image generation area 117b is also performed by the imaging unit moving mechanism unit 159. What is possible is as described above. Thus, the visual field adjustment process of the camera system 1 is completed.

以上に説明したような視野調整処理によって、本実施形態のカメラシステム1では、第1カメラ10及び第2カメラ300が生成する一対の切り出し画像間の視野のずれが解消される。このため、本実施形態のカメラシステム1では、第1カメラ10及び第2カメラ300が着脱可能でありながら、左右の視点の画像の視線が正しく輻輳し、かつ基線に対する傾きのない立体視画像を撮影することができる。   By the visual field adjustment process as described above, in the camera system 1 of the present embodiment, the visual field shift between the pair of cut-out images generated by the first camera 10 and the second camera 300 is eliminated. For this reason, in the camera system 1 of the present embodiment, the first camera 10 and the second camera 300 are detachable, but the right and left viewpoint images have a correctly converged line of sight and are not tilted with respect to the base line. You can shoot.

次に、第1実施形態のカメラシステム1を用いた立体視画像の撮影動作についてさらに詳しく説明する。図9は、立体視画像撮影時における被写体とカメラシステム1の配置を示す上視図である。図10は人間が両眼視した場合の被写体距離と視差角の関係を示す図である。図11は図10で示した視差角に対応する被写体距離3m(立体視画像を観察する距離を3mと想定)での場合の被写界での視差量を各被写体距離での像界側での視差量を節点距離50mm(焦点距離とほぼ等しい)で換算したものである。図10及び図11での眼幅65mm、70mmは基線長BLに対応している。図12はカメラシステム1の撮像素子間隔Dと視差量の関係を示す図である。被写体距離は3mに設定し、節点距離(ほぼ焦点距離と同じ)は50mm、100mm、150mmの場合が示してある。   Next, a stereoscopic image capturing operation using the camera system 1 of the first embodiment will be described in more detail. FIG. 9 is a top view showing the arrangement of the subject and the camera system 1 during stereoscopic image shooting. FIG. 10 is a diagram illustrating the relationship between the subject distance and the parallax angle when a human views with both eyes. FIG. 11 shows the amount of parallax in the object scene when the object distance corresponds to the parallax angle shown in FIG. 10 (assuming that the distance for observing a stereoscopic image is 3 m) on the image field side at each object distance. Is converted at a nodal distance of 50 mm (approximately equal to the focal length). The eye widths 65 mm and 70 mm in FIGS. 10 and 11 correspond to the baseline length BL. FIG. 12 is a diagram illustrating a relationship between the imaging element interval D and the parallax amount of the camera system 1. The object distance is set to 3 m, and the nodal distance (substantially the same as the focal distance) is shown as 50 mm, 100 mm, and 150 mm.

図9に示すように、立体視画像のもととなる複数の2次元画像上では、基準の被写体点On、Ofに対する視差角は第1カメラ10では第1撮影レンズ202の光軸O1上に被写体点On、Ofがあるため零度となる。一方、第2カメラ300では被写体点On、Ofからの光線は撮影レンズ303の光学上の節点をNW2とすると、撮影レンズの光軸に対する角度は変化しないので、図9におけるθWが視差角となる。撮像素子の中心点C2から節点NW2までの距離fWは第2カメラ300の撮影レンズの固有なデータであり、撮影レンズの焦点距離と被写体までの距離によって一意に決る。被写体までの距離は先に述べた自動焦点で合焦した時のフォーカスレンズ位置から求めることができる。   As shown in FIG. 9, the parallax angle with respect to the reference subject points On and Of is on the optical axis O <b> 1 of the first photographing lens 202 in the first camera 10 on a plurality of two-dimensional images that are the basis of the stereoscopic image. Since there are subject points On and Of, it becomes zero. On the other hand, in the second camera 300, if the optical node of the photographing lens 303 is NW2 with respect to the light rays from the subject points On and Of, the angle with respect to the optical axis of the photographing lens does not change, so θW in FIG. 9 becomes the parallax angle. . The distance fW from the center point C2 of the image sensor to the node NW2 is unique data of the photographing lens of the second camera 300, and is uniquely determined by the focal length of the photographing lens and the distance to the subject. The distance to the subject can be obtained from the focus lens position when the above-described automatic focus is achieved.

一方、図10には人間の目に生ずる視差角と被写体距離の関係を示してある。ここでは眼の焦点距離を16.68mm、眼幅を65mmと70mm、視差を生ずる被写体は被写体距離にある被写体の1.1倍の距離にあるとして算出したものである。人間の眼福は65mmから70mmの間にあるので、上記のような被写体の距離に対して図10のような視差角を得る画像から立体視画像を生成するようにするのが最も自然な立体画像を与えることになる。   On the other hand, FIG. 10 shows the relationship between the parallax angle generated by the human eye and the subject distance. Here, the calculation is performed assuming that the focal distance of the eyes is 16.68 mm, the eye widths are 65 mm and 70 mm, and the subject causing the parallax is 1.1 times as long as the subject at the subject distance. Since the human eyeball is between 65 mm and 70 mm, it is most natural to generate a stereoscopic image from an image that obtains a parallax angle as shown in FIG. 10 with respect to the distance of the subject as described above. Will give.

より具体的な画像として3mの距離に立体視画像を得るための2次元画像を表示した場合の図10の視差角に対応する被写界での視差量を節点距離50mm(ほぼ焦点距離50mmに相当)のレンズで結像させた場合に像界側での視差量とした場合を示したのが図11である。視差量も図10と同様な双曲線的なグラフとなる。   When a two-dimensional image for obtaining a stereoscopic image at a distance of 3 m is displayed as a more specific image, the amount of parallax in the object scene corresponding to the parallax angle in FIG. 10 is set to a nodal distance of 50 mm (approximately 50 mm in focal length). FIG. 11 shows a case where the parallax amount on the image field side is obtained when an image is formed by a corresponding lens. The parallax amount is also a hyperbolic graph similar to FIG.

また、図10より、主要被写体距離が遠方になった場合は視差角が小さくなり、人間の眼の判別可能な視差角は1分(視力が1.0の場合)程度であるので、およそ30m以上の距離にある主要被写体を裸眼で見た場合にその距離の10%程度以上主要被写体から離れた被写体の立体感は無くなることになる。   Also, from FIG. 10, when the main subject distance is far away, the parallax angle becomes small, and the parallax angle that can be discerned by the human eye is about 1 minute (when the visual acuity is 1.0). When the main subject at the above distance is viewed with the naked eye, the stereoscopic effect of the subject away from the main subject by about 10% or more of the distance is lost.

このような問題に対し、本実施形態のシステムカメラ1では、被写体が遠方にあって立体感がなくなる視差角度になる場合には、中間部材400を使用して中心位置間隔Dを変更し、撮影レンズの焦点距離と撮影画面サイズを調整することによって図10の2〜3m付近の視差角になるように自動的に調整する。その結果、本実施形態では、例え遠方の被写体であっても立体感のある立体視画像を撮影することができる。   With respect to such a problem, in the system camera 1 of the present embodiment, when the subject is far away and the parallax angle disappears, the intermediate position 400 is used to change the center position interval D and the shooting is performed. By adjusting the focal length of the lens and the shooting screen size, the parallax angle is automatically adjusted to be around 2 to 3 m in FIG. As a result, in the present embodiment, a stereoscopic image having a stereoscopic effect can be taken even if the subject is far away.

図12に同じ撮像素子の撮影範囲の同じ2つのカメラで撮影した場合の撮影レンズの節点距離(被写体距離3m設定としてあり、ほぼ撮影レンズの焦点距離と同じ)間隔Dと像面側の視差量の関係を示す。視差量を変化できるパラメータとして撮像素子の中心から撮影レンズの節点までの距離(節点距離)fWを変化した場合も示してある。ここで、主要被写体より遠方にある被写体は主要被写体距離の1.1倍(10%遠方)の距離が設定してある。Lnが3mの時の視差角と同じ視差量を得ようとすると節点距離fW(焦点距離)、カメラの間隔Dを調節すればよいことがわかる。図12に示すように節点距離fWと間隔Dに比例して視差量は変化している。つまり、適正な視差量を得るためには節点距離fW(撮影レンズの焦点距離)のみでなくカメラの間隔D(ここでは撮像素子間隔としているが直接に視差量と関係するのは節点間隔である。節点間隔は撮像素子間隔Dから算出することができる)を調節する必要がある。なお、節点距離fWで視差量を調整すると、撮影する画像の画角が変化するが、撮像素子間隔Dの調整では画角が変化することはない。   FIG. 12 shows the distance D between the nodal distance of the photographing lens (subject distance is set to 3 m, which is almost the same as the focal length of the photographing lens) and the parallax amount on the image plane side when photographing with two cameras having the same photographing range of the same image sensor. The relationship is shown. Also shown is a case where the distance (node distance) fW from the center of the image sensor to the nodal point of the taking lens is changed as a parameter capable of changing the amount of parallax. Here, the distance of the subject farther from the main subject is set to 1.1 times the distance of the main subject (10% farther). In order to obtain the same amount of parallax as the parallax angle when Ln is 3 m, it is understood that the nodal distance fW (focal length) and the camera interval D may be adjusted. As shown in FIG. 12, the amount of parallax changes in proportion to the nodal distance fW and the interval D. That is, in order to obtain an appropriate amount of parallax, not only the nodal distance fW (focal length of the photographing lens) but also the camera distance D (here, the distance between the imaging elements is directly related to the amount of parallax. The node interval can be calculated from the image sensor interval D). Note that when the parallax amount is adjusted with the nodal distance fW, the angle of view of the image to be captured changes, but the angle of view does not change when the imaging element interval D is adjusted.

本実施形態では第2カメラ300は第1カメラ10に容易に着脱可能であり、また中間部材400も容易に着脱可能である。このため、容易な操作で、基線長BLを変更し、適切な視差量を持つ立体視画像を撮影する事ができる。また、本実施形態では、第1カメラ10及び第2カメラ300の結合状態にずれが生じてしまった場合であっても、自動的に視野調整処理が行われるため、左右の視点の画像の視線が正しく輻輳し、かつ基線に対する傾きのない立体視画像を撮影することができる。以上のことから、本実施形態のカメラシステム1は、被写体との距離に応じて基線長を変更可能でありながら、ボケや像分離の無い立体視画像を容易に撮影することができる。   In the present embodiment, the second camera 300 can be easily attached to and detached from the first camera 10, and the intermediate member 400 can be easily attached and detached. For this reason, it is possible to change the baseline length BL and capture a stereoscopic image having an appropriate amount of parallax with an easy operation. In the present embodiment, since the visual field adjustment processing is automatically performed even when the coupling state of the first camera 10 and the second camera 300 is shifted, the line of sight of the left and right viewpoint images is displayed. Can correctly capture a stereoscopic image with no inclination with respect to the base line. From the above, the camera system 1 of the present embodiment can easily capture a stereoscopic image without blurring or image separation, while the base line length can be changed according to the distance to the subject.

また本実施形態では、第2カメラ300は、それぞれ距離D2の情報を記憶しており、また、第1カメラ10と第2カメラ300とは通信可能である。このため、第2カメラ300を交換した場合でも、自動的に撮像素子間隔Dを算出し、適正な視差量が得られる状態にカメラがあるか否かを自動的に判定することができる。   In the present embodiment, the second camera 300 stores information on the distance D2, and the first camera 10 and the second camera 300 can communicate with each other. For this reason, even when the second camera 300 is replaced, it is possible to automatically calculate the imaging element interval D and automatically determine whether or not the camera is in a state where an appropriate amount of parallax can be obtained.

また、立体視画像では、第1カメラ10の撮影レンズ203の光学倍率と第1撮像部117のサイズから決る視野角と、第2カメラ300の撮影レンズ303の光学倍率と第2撮像部317のサイズから決る視野角を同じにする必要があるが、これらの情報も各カメラにカメラ固有の情報として記憶されているので、カメラシステム1が立体視画像の撮影に適正な状態にあるか否かの判定を自動で行うことができる。なお、撮影レンズの光学倍率は焦点距離の調整によって調整することができる。   In the stereoscopic image, the viewing angle determined from the optical magnification of the photographing lens 203 of the first camera 10 and the size of the first imaging unit 117, the optical magnification of the photographing lens 303 of the second camera 300, and the second imaging unit 317. Although the viewing angles determined from the sizes need to be the same, since these pieces of information are also stored as camera-specific information in each camera, whether or not the camera system 1 is in an appropriate state for taking a stereoscopic image. Can be automatically determined. The optical magnification of the photographic lens can be adjusted by adjusting the focal length.

上述の特徴を詳しく説明する為、Bucom101が行なう制御について、図13を参照しながら具体的な制御動作について説明する。図13は、本実施形態のカメラシステム1の動作をフローチャートで表わしている。これらの動作は、Bucom101によって制御される。   In order to explain the above features in detail, a specific control operation of the control performed by the Bucom 101 will be described with reference to FIG. FIG. 13 is a flowchart showing the operation of the camera system 1 of the present embodiment. These operations are controlled by the Bucom 101.

Bucom101で稼動可能な図13示すフローチャートに係わる制御プログラムは、カメラのボディユニット100の電源SW(不図示)がON操作されると、その稼動を開始する。   The control program related to the flowchart shown in FIG. 13 that can be operated by the Bucom 101 starts its operation when the power SW (not shown) of the camera body unit 100 is turned on.

最初に、第1カメラ10を起動するための処理が実行される(ステップS100)。即ち、電源回路135を制御して当該第1カメラ10を構成する各回路ユニットへ電力を供給する。また、各回路の初期設定を行なう。また、第1カメラ10に装着されているレンズユニット200の初期化動作も行う。   First, a process for starting the first camera 10 is executed (step S100). That is, the power supply circuit 135 is controlled to supply power to each circuit unit constituting the first camera 10. Also, initial setting of each circuit is performed. The initialization operation of the lens unit 200 attached to the first camera 10 is also performed.

また、ステップS100では、被写体距離3mでの視差量(図12の節点距離50mm)演算に必要な各撮影レンズの焦点距離(フォーカスレンズの繰り出し量と合わせて節点距離が演算できる)、輻輳角αが第1カメラ10のBucom101に読み込まれる。   In step S100, the focal length of each photographing lens necessary for calculating the amount of parallax at the subject distance of 3 m (the node distance of 50 mm in FIG. 12) (the node distance can be calculated together with the amount of extension of the focus lens), the convergence angle α Is read into the Bucom 101 of the first camera 10.

次に、ステップS101において、使用者によって立体視画像の撮影モードが選択されているかを判定する。立体視画像の撮影モードが選択されていない場合には、通常の2次元画像の撮影動作を実行する。通常の2次元画像の撮影動作は、周知のものであるため説明を省略する。   Next, in step S101, it is determined whether or not the stereoscopic image shooting mode is selected by the user. When the stereoscopic image capturing mode is not selected, a normal two-dimensional image capturing operation is executed. A normal two-dimensional image capturing operation is well known and will not be described.

一方、立体視画像の撮影モードが選択されている場合には、ステップS102へ移行する。ステップS102では、アクセサリである第2カメラ300及び中間部材400の検出動作を実行する。そして、ステップS103において、立体視画像の撮影に必要である第2カメラ300が装着されているか否かを判定する。第2カメラ300が装着されていない場合には、ステップS104に移行し、画像表示装置123等に、使用者に第2カメラ300の装着を促す警告表示をする。   On the other hand, if the stereoscopic image shooting mode is selected, the process proceeds to step S102. In step S102, the detection operation of the second camera 300 and the intermediate member 400, which are accessories, is executed. In step S103, it is determined whether or not the second camera 300 necessary for capturing a stereoscopic image is attached. If the second camera 300 is not attached, the process proceeds to step S104, and a warning display for prompting the user to attach the second camera 300 is displayed on the image display device 123 or the like.

一方、第2カメラ300が装着されている場合には、ステップS105において、第1カメラ10及び第2カメラ300の第1画像生成領域117b及び第2画像生成領域317bを中立位置に移動させる。   On the other hand, if the second camera 300 is attached, the first image generation area 117b and the second image generation area 317b of the first camera 10 and the second camera 300 are moved to the neutral position in step S105.

次に、ステップS106において、被写体に応じて輻輳角αを調整する。ここでは、画像表示装置123に第1カメラ10及び第2カメラ300によって撮影された画像を重ね合わせて表示する。使用者は、主要被写体が2つの画像に写り込むように第2カメラ300を軸Rの周りに回転させ、ネジ381を締め付けて輻輳角αを固定する。この状態で検出された輻輳角αはBucom301に送られた後、送信部を介してBucom101に伝達される。   Next, in step S106, the convergence angle α is adjusted according to the subject. Here, the images captured by the first camera 10 and the second camera 300 are superimposed on the image display device 123 and displayed. The user rotates the second camera 300 around the axis R so that the main subject appears in the two images, and tightens the screw 381 to fix the convergence angle α. The convergence angle α detected in this state is transmitted to the Bucom 301 and then transmitted to the Bucom 101 via the transmission unit.

第2カメラ300の軸R周りの角度が固定されることにより、大まかな輻輳角αが定められる。この後、第2画像生成領域317bを、基線と平行なY−Z平面に略平行に移動させることによって、輻輳角αをより精密に自動調整する。言い換えれば、第2画像生成領域317bの中心C2を移動させることによって、輻輳角αを自動調整する。   By fixing the angle around the axis R of the second camera 300, a rough convergence angle α is determined. Thereafter, the convergence angle α is automatically adjusted more precisely by moving the second image generation region 317b substantially parallel to the YZ plane parallel to the base line. In other words, the convergence angle α is automatically adjusted by moving the center C2 of the second image generation region 317b.

次に、ステップS107において、上述した視野調整処理を行う。なお、ステップS106における第2画像生成領域317bを移動させることによる輻輳角αの自動調整と、ステップS107における視野調整処理は同時に行われる形態であってもよい。ステップS107によって、第1カメラ10及び第2カメラ300が生成する一対の切り出し画像の視野のずれが解消される。   Next, in step S107, the visual field adjustment process described above is performed. Note that the automatic adjustment of the convergence angle α by moving the second image generation region 317b in step S106 and the visual field adjustment process in step S107 may be performed simultaneously. By step S107, the shift | offset | difference of the visual field of a pair of cut-out image which the 1st camera 10 and the 2nd camera 300 produce | generate is eliminated.

次に、ステップS108において、Bucom101は、D1、D2及びD3の値と、各撮影レンズの焦点距離と合焦距離から算出される節点距離fWと、輻輳角αとから被写体距離3mでの視差量を算出する。   Next, in step S108, the Bucom 101 determines the amount of parallax at the subject distance 3m from the values of D1, D2, and D3, the nodal distance fW calculated from the focal length and the focusing distance of each photographing lens, and the convergence angle α. Is calculated.

そしてステップS109において、この視差量が、事前に設定された設定視差量範囲(例えば図12の節点距離50mmでの基線長59mmから70mmの範囲の視差量)にあるか否かを判定する。算出された視差量が、設定視差量範囲内に入っていれば、第1カメラ10の第1撮像部117及び第2カメラ300が生成する一対の切り出し画像を、立体視画像として紐付けして記録メディア127に記録される(ステップS110)。   Then, in step S109, it is determined whether or not the parallax amount is within a preset parallax amount range (for example, a parallax amount in a range of a base line length of 59 mm to 70 mm at a node distance of 50 mm in FIG. 12). If the calculated parallax amount is within the set parallax amount range, the pair of cut-out images generated by the first imaging unit 117 and the second camera 300 of the first camera 10 are linked as stereoscopic images. It is recorded on the recording medium 127 (step S110).

一方、ステップS108で算出された視差量が設定視差量範囲外であった場合には、ステップS111へ移行する。ステップS111では、撮影レンズの節点距離(実際に変えるの焦点距離)を変更することによって、視差量を設定視差量範囲に収めることが可能か否かを判定する。   On the other hand, when the parallax amount calculated in step S108 is outside the set parallax amount range, the process proceeds to step S111. In step S111, it is determined whether or not the parallax amount can fall within the set parallax amount range by changing the nodal distance (actually changed focal length) of the photographing lens.

ステップS111の判定において、撮影レンズの節点調節によって視差量を設定視差量範囲内に設定可能であれば、ステップS112へ移行して撮影レンズの焦点距離をその値に設定する。そして、ステップS113において、輻輳角αの自動調整を行い、ステップS114において、視野調整処理を行った後にステップS106へ戻る。   If it is determined in step S111 that the parallax amount can be set within the set parallax amount range by adjusting the nodal point of the photographing lens, the process proceeds to step S112, and the focal length of the photographing lens is set to that value. In step S113, the convergence angle α is automatically adjusted. In step S114, the visual field adjustment process is performed, and then the process returns to step S106.

一方、ステップS111の判定において、撮影レンズの節点調節によって視差量を設定視差量範囲内に設定することが不可能であれば、ステップS120へ移行して、撮影レンズの交換で視差量を設定視差量範囲に設定できるかを判定する。   On the other hand, if it is not possible to set the parallax amount within the set parallax amount range by adjusting the nodal point of the photographing lens in the determination of step S111, the process proceeds to step S120, and the parallax amount is set by exchanging the photographing lens. Judge whether it can be set to the amount range.

ステップS120の判定において、撮影レンズの交換で視差量を設定視差量範囲内に設定可能な場合には、ステップS121へ移行し、交換すべき焦点距離値を画像表示装置123に表示して使用者に告知する。   If it is determined in step S120 that the parallax amount can be set within the set parallax amount range by exchanging the photographic lens, the process proceeds to step S121, and the focal length value to be exchanged is displayed on the image display device 123 to display the user. To announce.

ステップS120の判定において、撮影レンズを交換しても、視差量を設定視差量範囲内に設定できない場合は、ステップS122へ移行し、中間部材400の装着もしくは取り外しにより、視差量を設定視差量範囲に設定できるかを判定する。   If it is determined in step S120 that the parallax amount cannot be set within the set parallax amount range even after the taking lens is replaced, the process proceeds to step S122, and the parallax amount is set or set by removing or attaching the intermediate member 400. Judge whether it can be set.

ステップS122において、中間部材400の脱着によって視差量を設定視差量範囲内に設定可能な場合には、ステップS123へ移行し、装着すべき中間部材400のD3の値、もしくは中間部材400を取り外すべき警告を、画像表示装置123に表示し、使用者に告知する。   In step S122, when the parallax amount can be set within the set parallax amount range by attaching / detaching the intermediate member 400, the process proceeds to step S123, and the value of D3 of the intermediate member 400 to be attached or the intermediate member 400 should be removed. A warning is displayed on the image display device 123 to notify the user.

一方、ステップS122において、中間部材400の脱着によっても視差量を設定視差量範囲内に設定することができない場合には、ステップS124へ移行し、「3D撮影不可」等の警告表示を画像表示装置123に表示し、使用者に告知する。   On the other hand, if the parallax amount cannot be set within the set parallax amount range even when the intermediate member 400 is attached or detached in step S122, the process proceeds to step S124, and a warning display such as “3D shooting impossible” is displayed on the image display device. 123 and displayed to the user.

さらに、別アクセサリの推奨情報を表示してもよい。また、画像表示装置123を立体視画像を表示可能なものとして、立体視の効果を目視で確認できるようにしてもよい。本発明では、立体視画像の撮影時に利用するアクセサリの選択や輻輳角の調整などが簡単にでき、これらの調整によって、近い被写体から遠い被写体まで、様々な条件の被写体に対応した立体視画像撮影システムを提供することができる。   Furthermore, recommendation information of another accessory may be displayed. Further, the image display device 123 may be capable of displaying a stereoscopic image so that the effect of the stereoscopic vision can be confirmed visually. In the present invention, it is possible to easily select an accessory to be used at the time of shooting a stereoscopic image, adjust the convergence angle, and the like. By these adjustments, stereoscopic image shooting corresponding to subjects under various conditions from a close subject to a far subject can be performed. A system can be provided.

(第2の実施形態)
以下に、本発明の第2の実施形態を図14を参照して説明する。第2の実施形態のカメラシステム1は、第1カメラ10の第1撮像部117の配設方向が第1の実施形態と異なる。以下では第1の実施形態との相違点のみを説明するものとし、第1の実施形態と同様の構成要素については同一の符号を付し、その説明を適宜に省略するものとする
図14に示すように、本実施形態では、第1カメラ10の第1撮像部117は、第1受光可能領域117aの長辺L1がY軸と平行となるように配設されている。このように、第1の受光可能領域117aの長辺L1がY軸と平行であっても、第1の実施形態と同様の作用及び効果が得られる。
(Second Embodiment)
Below, the 2nd Embodiment of this invention is described with reference to FIG. The camera system 1 according to the second embodiment is different from the first embodiment in the arrangement direction of the first imaging unit 117 of the first camera 10. In the following, only differences from the first embodiment will be described, and the same components as those in the first embodiment will be denoted by the same reference numerals, and the description thereof will be omitted as appropriate. As shown, in the present embodiment, the first imaging unit 117 of the first camera 10 is disposed so that the long side L1 of the first light-receiving area 117a is parallel to the Y axis. As described above, even when the long side L1 of the first light-receivable region 117a is parallel to the Y axis, the same operations and effects as those of the first embodiment can be obtained.

なお、以上に述べた実施形態では、第1カメラ10及び第2カメラ300が直接的に生成した一対の切り出し画像を用いて立体視画像を生成しているが、本発明はこの形態に限られるものではない。   In the embodiment described above, a stereoscopic image is generated using a pair of cut-out images directly generated by the first camera 10 and the second camera 300, but the present invention is limited to this embodiment. It is not a thing.

例えば、第2カメラ300は、被写体に対する第1カメラ10との視差情報のみを取得するためのものであってもよい。この場合、第2カメラ300の第2撮像部317は、被写体の画像を生成するが、この第2撮像部317bが生成した画像は、第1カメラ10の視点に対する、第2カメラ300の視点における被写体の写り方の違いを検出するのみに用いられる。   For example, the second camera 300 may be for acquiring only parallax information with the first camera 10 for the subject. In this case, the second imaging unit 317 of the second camera 300 generates an image of the subject, but the image generated by the second imaging unit 317b is at the viewpoint of the second camera 300 with respect to the viewpoint of the first camera 10. It is used only to detect differences in the way the subject appears.

このような形態のカメラシステム1では、この第2カメラ300によって得られた視差情報に基づいて、第1カメラ10が生成した画像に対して加工等の画像処理を行うことによって、第2カメラ300の視点から被写体を見た画像を擬似的に生成する。このような形態のカメラシステム1であれば、第2カメラ300が第1カメラ10と同等の解像度や画質を備える必要がないため、第2カメラ300を小型かつ安価に構成することができる。   In the camera system 1 having such a configuration, the second camera 300 is subjected to image processing such as processing on the image generated by the first camera 10 based on the parallax information obtained by the second camera 300. An image in which the subject is viewed from the viewpoint is generated in a pseudo manner. With the camera system 1 having such a configuration, the second camera 300 does not need to have the same resolution and image quality as the first camera 10, and thus the second camera 300 can be configured to be small and inexpensive.

なお、本発明は、上述した実施形態に限られるものではなく、請求の範囲及び明細書全体から読み取れる発明の要旨或いは思想に反しない範囲で適宜変更可能であり、そのような変更を伴うカメラ及びカメラシステムもまた本発明の技術的範囲に含まれるものである。   Note that the present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the spirit or idea of the invention that can be read from the claims and the entire specification. A camera system is also included in the technical scope of the present invention.

本発明は、上述の実施形態で説明したデジタルカメラの形態に限らず、撮影機能を備えた録音機器、携帯電話、PDA、パーソナルコンピューター、ゲーム機、デジタルメディアプレーヤー、テレビ、GPS、時計等の電子機器にも適用可能である。   The present invention is not limited to the form of the digital camera described in the above-described embodiment, but is an electronic device such as a recording device, a mobile phone, a PDA, a personal computer, a game machine, a digital media player, a television, a GPS, a clock, etc. It can also be applied to equipment.

1 カメラシステム、
10 第1カメラ、
100 カメラボディ、
101 ボディ制御用マイクロコンピュータ(制御部、識別部、算出部)、
117 第1撮像部、
117a 第1受光可能領域、
117b 第1画像生成領域、
126 画像処理部、
128 不揮発性メモリ(記憶部)、
135 電源回路、
159 撮像部移動機構部、
180 結合部、
181 通信コネクタ(通信部)、
200 レンズユニット、
201 レンズ制御用マイクロコンピュータ、
202 第1撮影レンズ、
300 第2カメラ、
302 第2撮影レンズ、
317 第2撮像部、
317a 第2受光可能領域、
317b 第2画像生成領域、
317c 比較領域、
321 ボディ制御用マイクロコンピュータ、
328 不揮発性メモリ(記憶部)、
335 電源回路、
353 角度検出機構、
380 結合部、
381 通信コネクタ(通信部)、
400 中間部材、
401 結合部、
402 通信コネクタ(通信部)、
403 結合部、
404 通信コネクタ、
405 不揮発性メモリ(記憶部)、
L1 第1受光可能領域の長辺、
L2 第2受光可能領域の長辺。
1 camera system,
10 First camera,
100 camera body,
101 microcomputer for body control (control unit, identification unit, calculation unit),
117 first imaging unit,
117a first light receiving area,
117b first image generation region,
126 image processing unit,
128 non-volatile memory (storage unit),
135 power supply circuit,
159 imaging unit moving mechanism unit,
180 joints,
181 communication connector (communication unit),
200 lens unit,
201 a lens control microcomputer;
202 first taking lens,
300 Second camera,
302 second photographic lens,
317 second imaging unit,
317a second light receiving area,
317b second image generation area,
317c comparison area,
321 microcomputer for body control,
328 nonvolatile memory (storage unit),
335 power circuit,
353 angle detection mechanism,
380 joint,
381 communication connector (communication unit),
400 intermediate member,
401 coupling part,
402 communication connector (communication unit),
403 coupling part,
404 communication connector,
405 non-volatile memory (storage unit),
L1 long side of the first light receiving area,
L2 Long side of the second light receiving area.

Claims (8)

被写体の光学像を結像する第1撮影レンズ、及び前記第1撮影レンズの結像位置に配置された第1受光可能領域を有する第1撮像部を具備してなる第1カメラと、
前記第1カメラに結合部を介して結合可能であって、前記第1カメラに結合された状態において前記被写体の光学像を結像する第2撮影レンズ、及び前記第2撮影レンズの結像位置に配置された第2受光可能領域を有する第2撮像部を具備してなる第2カメラと、
を具備し、
前記第1カメラは、前記第1受光可能領域内において移動可能な所定の大きさの第1画像生成領域内に結像された前記光学像の切り出し画像を生成可能であり、
前記第2カメラは、前記第2受光可能領域内において移動可能な所定の大きさの第2画像生成領域内に結像された前記光学像の切り出し画像を生成可能であり、
前記第1カメラ及び第2カメラが生成する一対の切り出し画像から立体視可能な立体視画像を生成することを特徴とするカメラシステム。
A first camera that includes a first imaging lens that forms an optical image of a subject, and a first imaging unit that includes a first light-receiving area disposed at an imaging position of the first imaging lens;
A second photographing lens that can be coupled to the first camera via a coupling unit and forms an optical image of the subject in a state coupled to the first camera, and an imaging position of the second photographing lens A second camera comprising a second imaging unit having a second light-receiving area disposed in
Comprising
The first camera is capable of generating a cut-out image of the optical image formed in a first image generation area having a predetermined size that is movable in the first light-receiving area,
The second camera can generate a cut-out image of the optical image formed in a second image generation area of a predetermined size that is movable in the second light-receiving area,
A camera system that generates a stereoscopic image that can be stereoscopically viewed from a pair of cut-out images generated by the first camera and the second camera.
前記前記第1画像生成領域及び前記第2画像生成領域の少なくとも一方を、前記基線に平行に移動させることによって前記第1カメラ及び前記第2カメラの輻輳角を変更することを特徴とする請求項1に記載のカメラシステム。   The convergence angle of the first camera and the second camera is changed by moving at least one of the first image generation area and the second image generation area in parallel with the base line. The camera system according to 1. 前記一対の切り出し画像を比較することによって、前記一対の切り出し画像間における前記被写体の位置のずれ量を算出する画像処理部を備え、
前記ずれ量に応じて前記第1画像生成領域及び前記第2画像生成領域の少なくとも一方を移動させることによって、前記一対の切り出し画像間における前記被写体のずれを解消することを特徴とする請求項1又は2に記載のカメラシステム。
An image processing unit that calculates a shift amount of the position of the subject between the pair of clipped images by comparing the pair of clipped images;
2. The shift of the subject between the pair of cut-out images is eliminated by moving at least one of the first image generation area and the second image generation area according to the shift amount. Or the camera system of 2.
前記第1画像生成領域及び前記第2画像生成領域の少なくとも一方は、回転可能であることを特徴とする請求項3に記載のカメラシステム。   The camera system according to claim 3, wherein at least one of the first image generation area and the second image generation area is rotatable. 前記第1受光可能領域及び前記第2受光可能領域は矩形であって、
前記第1カメラ及び前記第2カメラが結合された状態を被写体側から見た場合に、前記第1受光可能領域及び前記第2受光可能領域は、それぞれの長辺が直交するように配置されており、
前記第1画像生成領域及び前記第2画像生成領域は、それぞれの長辺が前記第1カメラ及び前記第2カメラがなす基線に沿うように配されることを特徴とする請求項1から4のいずれか一項に記載のカメラシステム。
The first light receiving region and the second light receiving region are rectangular,
When the combined state of the first camera and the second camera is viewed from the subject side, the first light-receiving area and the second light-receiving area are arranged so that their long sides are orthogonal to each other. And
The first image generation area and the second image generation area are arranged such that their long sides are along a base line formed by the first camera and the second camera, respectively. The camera system according to any one of the above.
前記第1カメラ及び前記第2カメラが結合された状態を被写体側から見た場合に、前記第1画像生成領域は、前記基線に直交する方向に移動可能であって、前記第2画像生成領域は、前記基線に平行な方向に移動可能であることを特徴とする請求項5に記載のカメラシステム。   When the state where the first camera and the second camera are combined is viewed from the subject side, the first image generation area is movable in a direction orthogonal to the base line, and the second image generation area The camera system according to claim 5, wherein the camera system is movable in a direction parallel to the base line. 前記第1撮像レンズ及び前記第2撮像レンズは同一の焦点距離を有し、
前記第1受光可能領域及び前記第2受光可能領域は同一の寸法形状を有することを特徴とする請求項1から6のいずれか一項に記載のカメラシステム。
The first imaging lens and the second imaging lens have the same focal length;
The camera system according to any one of claims 1 to 6, wherein the first light-receiving area and the second light-receiving area have the same size and shape.
前記第1撮像部及び前記第2撮像部は、同一の画素数の前記切り出し画像を生成することを特徴とする請求項7に記載のカメラシステム。   The camera system according to claim 7, wherein the first imaging unit and the second imaging unit generate the cut-out image having the same number of pixels.
JP2010119588A 2010-05-25 2010-05-25 Camera system Pending JP2011250022A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010119588A JP2011250022A (en) 2010-05-25 2010-05-25 Camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010119588A JP2011250022A (en) 2010-05-25 2010-05-25 Camera system

Publications (1)

Publication Number Publication Date
JP2011250022A true JP2011250022A (en) 2011-12-08

Family

ID=45414761

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010119588A Pending JP2011250022A (en) 2010-05-25 2010-05-25 Camera system

Country Status (1)

Country Link
JP (1) JP2011250022A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013105002A (en) * 2011-11-14 2013-05-30 Bi2−Vision株式会社 3d video photography control system, 3d video photography control method, and program
US9161020B2 (en) 2013-04-26 2015-10-13 B12-Vision Co., Ltd. 3D video shooting control system, 3D video shooting control method and program
WO2016051871A1 (en) * 2014-09-30 2016-04-07 富士フイルム株式会社 Multi-lens imaging device, method for manufacturing same, and information terminal device
KR20190035167A (en) * 2017-09-26 2019-04-03 (주)참메드 Stroboscope using total shutter image sensor
WO2022024592A1 (en) * 2020-07-30 2022-02-03 富士フイルム株式会社 Imaging system, method for operating imaging system, and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013105002A (en) * 2011-11-14 2013-05-30 Bi2−Vision株式会社 3d video photography control system, 3d video photography control method, and program
US9161020B2 (en) 2013-04-26 2015-10-13 B12-Vision Co., Ltd. 3D video shooting control system, 3D video shooting control method and program
WO2016051871A1 (en) * 2014-09-30 2016-04-07 富士フイルム株式会社 Multi-lens imaging device, method for manufacturing same, and information terminal device
KR20190035167A (en) * 2017-09-26 2019-04-03 (주)참메드 Stroboscope using total shutter image sensor
KR101976812B1 (en) 2017-09-26 2019-06-14 (주)참메드 Stroboscope using total shutter image sensor
WO2022024592A1 (en) * 2020-07-30 2022-02-03 富士フイルム株式会社 Imaging system, method for operating imaging system, and program
JP7291859B2 (en) 2020-07-30 2023-06-15 富士フイルム株式会社 IMAGING SYSTEM, OPERATION METHOD OF IMAGING SYSTEM, AND PROGRAM

Similar Documents

Publication Publication Date Title
US9148570B2 (en) Image pickup apparatus that allows for short-distance photographing
JP5789793B2 (en) Three-dimensional imaging device, lens control device, and program
KR101446767B1 (en) Stereoscopic imaging device
US20110280564A1 (en) Interchangeable lens unit, imaging device, method for controlling interchangeable lens unit, program, and storage medium storing program
JP2001142166A (en) 3d camera
JP7325216B2 (en) Vibration isolation control device and method, and imaging device
JP5830662B2 (en) Imaging device
JP2011166756A (en) Photographing apparatus and photographing system
JP2011259168A (en) Stereoscopic panoramic image capturing device
JP2012186612A (en) Imaging device
JP2011250022A (en) Camera system
JP5543762B2 (en) Camera system
EP2600624A1 (en) Image capturing device
US20120307016A1 (en) 3d camera
US10554949B2 (en) Camera module and mobile terminal including same
JP5293947B2 (en) Imaging device
US20130088580A1 (en) Camera body, interchangeable lens unit, image capturing device, method for controlling camera body, program, and recording medium on which program is recorded
JP2013074473A (en) Panorama imaging apparatus
JP2005173270A (en) Optical device for stereoscopic photography, photographing device, and system and device for stereoscopic photography
JP2013061560A (en) Distance measuring device, and imaging device
JP2001016619A (en) Image pickup device, its convergence distance decision method, storage medium and optical device
JP2005062729A (en) Camera
JP2001016620A (en) Image pickup device, its convergence distance decision method, storage medium and optical device
JP2011146815A (en) Deviation correcting device, three-dimensional digital camera with the same, deviation correcting method and deviation correcting program
JP6764308B2 (en) Correction device and its control method, imaging device, program and storage medium