JP2009094724A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2009094724A
JP2009094724A JP2007262503A JP2007262503A JP2009094724A JP 2009094724 A JP2009094724 A JP 2009094724A JP 2007262503 A JP2007262503 A JP 2007262503A JP 2007262503 A JP2007262503 A JP 2007262503A JP 2009094724 A JP2009094724 A JP 2009094724A
Authority
JP
Japan
Prior art keywords
imaging
camera unit
unit
image
mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007262503A
Other languages
Japanese (ja)
Inventor
Itou Cho
貽▲トウ▼ 張
Kenichiro Ayaki
健一郎 綾木
Masahiko Sugimoto
雅彦 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007262503A priority Critical patent/JP2009094724A/en
Publication of JP2009094724A publication Critical patent/JP2009094724A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of obtaining merits of both integrated type compound eye camera and separation type compound eye camera and easily determining a composition when picking up images. <P>SOLUTION: A camera unit is a monocular electronic camera. When the other camera unit is not connected to the camera unit and the operation mode of the camera unit is set to a compound eye mode (step S12), the imaging apparatus functions as the separation type compound eye camera. When the other camera unit is connected through a connector to the camera unit and the operation mode of the camera unit is set to the compound eye mode (S34), the imaging apparatus functions as the integrated type compound eye camera. When the operation mode of the camera unit is set to a monocular mode (S34), an imaging unit can be independently controlled (S38). <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は撮像装置に係り、特に複数の撮像手段により被写体の撮像が可能な撮像装置に関する。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus capable of imaging a subject by a plurality of imaging means.

特許文献1には、2つの撮像光学系を備えた一体型の複眼画像処理装置が開示されている。   Patent Document 1 discloses an integrated compound eye image processing apparatus including two imaging optical systems.

特許文献2には、メインカメラレンズ部とサブカメラレンズ部を有し、それぞれのカメラレンズ部によって撮像された被写体像を同一のビュ−ファインダで視認可能なカメラが開示されている。
特開平10−32842号公報 特開平5−95497号公報
Patent Document 2 discloses a camera that has a main camera lens unit and a sub camera lens unit and can visually recognize a subject image captured by each camera lens unit with the same viewfinder.
JP-A-10-32842 JP-A-5-95497

複数の撮像光学系が1つの筐体に設けられた一体型複眼カメラ(例えば、特許文献1)では、各撮像光学系の相対位置が固定されており、撮像光学系の相対位置が変化しないので、キャリブレーションを必要としない。しかしながら、一体型複眼カメラでは、撮像光学系の間の距離が短く、各撮像光学系から得られる視差が小さい。このため、一体型複眼カメラで撮像した3次元画像(3D画像)の立体感が弱いという問題がある。   In an integrated compound eye camera (for example, Patent Document 1) in which a plurality of imaging optical systems are provided in one housing, the relative position of each imaging optical system is fixed, and the relative position of the imaging optical system does not change. Does not require calibration. However, in the integrated compound eye camera, the distance between the imaging optical systems is short, and the parallax obtained from each imaging optical system is small. For this reason, there exists a problem that the three-dimensional effect of the three-dimensional image (3D image) imaged with the integral compound eye camera is weak.

一方、複数の撮像光学系が分離した分離型複眼カメラでは、撮像光学系の間の距離が長く、立体感がある立体画像を撮像することが可能である。しかしながら、分離型複眼カメラでは、撮像光学系の設置の都度、撮像光学系の相対位置が変化するため、キャリブレーションが必要になる。このため、分離型複眼カメラは、立体画像の撮像に手間がかかり不便であるという問題がある。   On the other hand, in a separation-type compound eye camera in which a plurality of imaging optical systems are separated, a distance between the imaging optical systems is long, and a stereoscopic image having a stereoscopic effect can be captured. However, the separation-type compound eye camera requires calibration because the relative position of the imaging optical system changes each time the imaging optical system is installed. For this reason, the separation-type compound eye camera has a problem that it is inconvenient because it takes time and effort to capture a stereoscopic image.

また、特許文献2に記載のカメラにおいて、メインカメラレンズ部とサブカメラレンズ部は別々の被写体を視認するための画像の撮像を行うことを目的とする為、3D画像作成と構図の決定には不便であった。   In the camera described in Patent Document 2, the main camera lens unit and the sub camera lens unit are intended to capture images for viewing different subjects, so that 3D image creation and composition determination are performed. It was inconvenient.

本発明はこのような事情に鑑みてなされたもので、一体型複眼カメラと分離型複眼カメラの両方の利点を得ることができるとともに、画像の撮像時に構図の決定を容易に行うことが可能な撮像装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and can obtain the advantages of both an integrated compound camera and a separate compound camera, and can easily determine the composition at the time of image capture. An object is to provide an imaging device.

上記課題を解決するために、本発明の第1の態様に係る撮像装置は、メインカメラユニットと、1以上のサブカメラユニットを含む複数のカメラユニットを備えており、前記メインカメラユニットは、画像を撮像するための第1の撮像手段と、前記撮像手段によって撮像された画像を記録する第1の記録手段と、前記サブカメラユニットを一体的に連結するための第1の連結手段と、前記第1の連結手段を介して前記サブカメラユニットが連結されているかどうかを検出する第1の連結状態検出手段と、前記第1の連結手段を介して前記サブカメラユニットが接続されていない場合に、前記サブカメラユニットと通信するための第1の通信手段と、前記メインカメラユニットにより2次元画像を撮像するための単眼モードと、前記メインカメラユニット及びサブカメラユニットにより複数視点から被写体を撮像して視差画像を取得するための複眼モードとの間で撮像モードを切り替える第1の撮像モード切替手段と、前記メインカメラユニットの撮像モードが複眼モードに切り替えられた場合に、前記サブカメラユニットとの相対位置を検出する相対位置検出手段と、前記相対位置検出手段によって検出された相対位置に基づいてキャリブレーションを行うキャリブレーション手段と、前記第1の撮像手段に画像の撮像指示を入力するための撮像指示手段と、前記複眼モード時に前記撮像指示が入力された場合に、前記サブカメラユニットに設けられた第2の撮像手段に撮像指示信号を送信して、前記第1及び第2の撮像手段と同期して撮像を実行させる第1の撮像制御手段と、前記撮像指示信号に応じて前記第2の撮像手段によって撮像された第2の画像を受信する受信手段と、前記複眼モード時に前記第1の撮像手段によって撮像した第1の画像と前記第2の画像とを用いて3次元画像を生成する3次元画像生成手段とを備え、前記サブカメラユニットは、画像を撮像するための第2の撮像手段と、前記撮像手段によって撮像された画像を記録する第2の記録手段と、前記メインカメラユニットに設けられた第1の連結手段を介して前記メインカメラユニットと一体的に連結するための第2の連結手段と、前記第2の連結手段を介して前記メインカメラユニットが連結されているかどうかを検出する連結状態検出手段と、前記第2の連結手段を介して前記メインカメラユニットが接続されていない場合に、前記メインカメラユニットに設けられた第1の通信手段を介して前記メインカメラユニットと通信するための第2の通信手段と、前記サブカメラユニットにより2次元画像を撮像するための単眼モードと、前記メインカメラユニット及びサブカメラユニットにより複数視点から被写体を撮像して視差画像を取得するための複眼モードとの間で撮像モードを切り替える第2の撮像モード切替手段と、前記複眼モード時に前記メインカメラユニットからの撮像指示信号に応じて前記第2の撮像手段により撮像を実行する第2の撮像制御手段と、前記複眼モード時に前記第2の撮像手段によって撮像された画像を前記メインカメラユニットに送信する送信手段とを備えることを特徴とする。   In order to solve the above-described problem, the imaging apparatus according to the first aspect of the present invention includes a plurality of camera units including a main camera unit and one or more sub camera units, and the main camera unit includes an image. First imaging means for imaging the image, first recording means for recording an image captured by the imaging means, first connection means for integrally connecting the sub camera unit, and A first connected state detecting means for detecting whether or not the sub camera unit is connected via the first connecting means; and a case where the sub camera unit is not connected via the first connecting means. A first communication means for communicating with the sub camera unit, a monocular mode for taking a two-dimensional image with the main camera unit, and the main camera. A first imaging mode switching means for switching an imaging mode between a compound eye mode for imaging a subject from a plurality of viewpoints and acquiring a parallax image by the unit and the sub camera unit; and an imaging mode of the main camera unit is a compound eye mode A relative position detecting means for detecting a relative position with respect to the sub camera unit, a calibration means for performing calibration based on the relative position detected by the relative position detecting means, and the first An imaging instruction means for inputting an imaging instruction of an image to the imaging means, and when the imaging instruction is input in the compound eye mode, an imaging instruction signal is sent to a second imaging means provided in the sub camera unit. First imaging control means for transmitting and executing imaging in synchronization with the first and second imaging means; A receiving unit that receives a second image captured by the second imaging unit in response to an imaging instruction signal; a first image and the second image that are captured by the first imaging unit in the compound eye mode; 3D image generation means for generating a 3D image using the second imaging means, and the sub-camera unit records second images captured by the imaging means and second imaging means for capturing images. Two recording means, a second connecting means for connecting to the main camera unit integrally via a first connecting means provided on the main camera unit, and a second connecting means. When the main camera unit is not connected via the connection state detecting means for detecting whether or not the main camera unit is connected and the second connecting means, the main camera unit is connected. A second communication means for communicating with the main camera unit via a first communication means provided in the camera unit; a monocular mode for taking a two-dimensional image by the sub camera unit; and the main camera. A second imaging mode switching means for switching an imaging mode between a compound eye mode for imaging a subject from a plurality of viewpoints and acquiring a parallax image by the unit and the sub camera unit; and from the main camera unit in the compound eye mode A second imaging control unit that executes imaging by the second imaging unit in response to an imaging instruction signal; and a transmission unit that transmits an image captured by the second imaging unit in the compound eye mode to the main camera unit. It is characterized by providing.

上記第1の態様によれば、カメラユニットを連結することにより一体型複眼カメラとして使用可能にするとともに、通信手段を用いることにより分離型複眼カメラとしても使用することができる。これにより、一体型複眼カメラの携帯性の利点と、分離型複眼カメラの立体感がよい画像を撮像することができるという利点の両方の利点を得ることができ、画像の撮像を容易に行うことができる。   According to the first aspect, the camera unit can be used as an integral compound eye camera by connecting the camera units, and can also be used as a separate compound eye camera by using the communication means. As a result, it is possible to obtain both the advantages of portability of the integrated compound-eye camera and the advantage of being able to capture an image with a good stereoscopic effect of the separate compound-eye camera, and to easily capture the image. Can do.

本発明の第2の態様に係る撮像装置は、上記第1の態様において、前記メインカメラユニットは、前記サブカメラユニットと連結されたときにおける前記第1及び第2の撮像手段の相対位置に関する情報を記録する相対位置記録手段を更に備え、前記相対位置検出手段は、前記メインカメラユニットと前記サブカメラユニットとが連結されたときに、前記相対位置記録手段から前記第1及び第2の撮像手段の相対位置に関する情報を取得することを特徴とする。   The imaging device according to a second aspect of the present invention is the imaging device according to the first aspect, wherein the main camera unit is related to a relative position of the first and second imaging means when connected to the sub camera unit. Relative position recording means for recording the first and second imaging means from the relative position recording means when the main camera unit and the sub camera unit are connected. The information regarding the relative position of is acquired.

本発明の第3の態様に係る撮像装置は、上記第1又は2の態様において、前記相対位置検出手段は、前記サブカメラユニットに位置検出信号を発信して、前記サブカメラユニットとの相対位置を検出することを特徴とする。   The imaging apparatus according to a third aspect of the present invention is the imaging apparatus according to the first or second aspect, wherein the relative position detecting means transmits a position detection signal to the sub camera unit, and the relative position with respect to the sub camera unit. Is detected.

上記第2及び3の態様は、各カメラユニット間の相対位置の検出方法について限定したものである。   In the second and third aspects, the method for detecting the relative position between the camera units is limited.

本発明の第4の態様に係る撮像装置は、上記第1から3の態様において、前記メインカメラユニットは、前記第1の撮像手段によって撮像された画像を表示する第1の表示手段を備え、前記サブカメラユニットは、前記第2の撮像手段によって撮像された画像を表示する第2の表示手段と、前記メインカメラユニットと前記サブカメラユニットとが連結され、且つ、前記撮像モードが単眼モードに設定された場合に、第2の撮像手段を前記第1の撮像手段と独立して制御するための制御手段を更に備えることを特徴とする。   In the imaging device according to a fourth aspect of the present invention, in the first to third aspects, the main camera unit includes a first display unit that displays an image captured by the first imaging unit, The sub camera unit includes a second display unit that displays an image captured by the second imaging unit, the main camera unit and the sub camera unit, and the imaging mode is set to a monocular mode. When set, it further comprises control means for controlling the second imaging means independently of the first imaging means.

上記第4の態様によれば、例えば、第1及び第2の撮像手段のズーミング、フォーカシングを独立制御することにより、第2の撮像手段を用いて画角及び被写体の確認用の画像(ライブビュー画像)を撮像することができ、構図の決定が容易になる。   According to the fourth aspect, for example, by independently controlling zooming and focusing of the first and second imaging means, an image for checking the angle of view and the subject (live view) using the second imaging means. Image) and the composition can be easily determined.

本発明の第5の態様に係る撮像装置は、上記第4の態様において、前記第1及び第2の撮像手段は、それぞれズームレンズを備えており、前記制御手段は、前記メインカメラユニットと前記サブカメラユニットとが連結され、且つ、前記撮像モードが単眼モードに設定された場合に、前記第2の撮像手段のズームレンズを前記第1の撮像手段のズームレンズよりもワイド側に移動させることを特徴とする。   In the imaging device according to a fifth aspect of the present invention, in the fourth aspect, the first and second imaging means each include a zoom lens, and the control means includes the main camera unit and the When the sub camera unit is connected and the imaging mode is set to the monocular mode, the zoom lens of the second imaging unit is moved to the wide side with respect to the zoom lens of the first imaging unit. It is characterized by.

上記第5の態様によれば、第2の撮像手段により被写体の周囲の状況を広範囲に撮像することができるので、構図の決定が容易になる。   According to the fifth aspect, since the situation around the subject can be imaged over a wide range by the second imaging means, it is easy to determine the composition.

本発明の第6の態様に係る撮像装置は、上記第5の態様において、前記メインカメラユニット又はサブカメラユニットは、前記メインカメラユニットと前記サブカメラユニットとが連結され、且つ、前記撮像モードが単眼モードに設定された場合に、前記第2の撮像手段によって撮像された画像を解析する構図解析手段を更に備え、前記第2の表示手段は、前記構図の解析結果に基づいて、最適な構図を示す情報を表示することを特徴とする。   The imaging device according to a sixth aspect of the present invention is the imaging device according to the fifth aspect, wherein the main camera unit or the sub camera unit is connected to the main camera unit and the sub camera unit, and the imaging mode is The apparatus further comprises composition analysis means for analyzing an image picked up by the second image pickup means when the monocular mode is set, and the second display means is configured to perform optimal composition based on the analysis result of the composition. It displays the information which shows.

本発明の第7の態様に係る撮像装置は、上記第6の態様において、前記第2の表示手段は、前記最適な構図を示す枠を前記第2の表示手段によって撮像された画像に重ねて表示することを特徴とする。   In the imaging device according to a seventh aspect of the present invention, in the sixth aspect, the second display means overlaps an image captured by the second display means with a frame indicating the optimum composition. It is characterized by displaying.

上記第6及び7の態様によれば、最適な構図を算出して表示することにより、構図の決定が容易になる。   According to the sixth and seventh aspects, the composition can be easily determined by calculating and displaying the optimum composition.

本発明の第8の態様に係る撮像装置は、上記第6又は7の態様において、前記メインカメラユニット又はサブカメラユニットは、前記第1の撮像手段によって撮像可能な視野範囲を前記最適な構図に一致させるときに前記撮像装置を移動させる移動方向を算出する移動方向算出手段を更に備え、前記第1の表示手段は、前記移動方向算出手段によって算出された移動方向を前記第1の撮像手段によって撮像された画像とともに表示することを特徴とする。   The imaging device according to an eighth aspect of the present invention is the imaging device according to the sixth or seventh aspect, wherein the main camera unit or the sub camera unit has a field-of-view range that can be imaged by the first imaging means in the optimum composition. It further comprises a movement direction calculation means for calculating a movement direction for moving the imaging device when matching, and the first display means displays the movement direction calculated by the movement direction calculation means by the first imaging means. It is characterized by being displayed together with the captured image.

上記第8の態様によれば、撮像装置の移動方向を表示することにより、構図の決定が容易になる。   According to the eighth aspect, the composition can be easily determined by displaying the moving direction of the imaging apparatus.

本発明の第9の態様に係る撮像装置は、上記第6から8の態様において、前記メインカメラユニット又はサブカメラユニットは、前記第1の撮像手段によって撮像された画像の構図を評価する構図評価手段と、前記構図の評価結果を出力する構図評価出力手段とを更に備えることを特徴とする。   In the imaging device according to a ninth aspect of the present invention, in the sixth to eighth aspects, the main camera unit or the sub camera unit evaluates a composition of an image captured by the first imaging means. And a composition evaluation output means for outputting an evaluation result of the composition.

本発明の第10の態様に係る撮像装置は、上記第9の態様において、前記構図評価出力手段は、前記構図評価結果を数値、図形又は音声の少なくとも1つの手段により出力することを特徴とする。   The imaging apparatus according to a tenth aspect of the present invention is characterized in that, in the ninth aspect, the composition evaluation output means outputs the composition evaluation result by at least one means of a numerical value, a figure, or a sound. .

上記第9及び10の態様によれば、構図評価結果を表示することにより、構図の決定が容易になる。   According to the ninth and tenth aspects, composition determination is facilitated by displaying the composition evaluation result.

本発明の第11の態様に係る撮像装置は、上記第1から10の態様において、複数のカメラユニットの中からメインカメラユニットとして使用するカメラユニットを指定する指定手段を更に備えることを特徴とする。   The image pickup apparatus according to an eleventh aspect of the present invention is characterized in that, in the first to tenth aspects, the image pickup apparatus further comprises designation means for designating a camera unit to be used as a main camera unit from the plurality of camera units. .

上記第11の態様によれば、例えば、ユーザの利き腕等に応じてメインカメラユニットを選択できるので、視差画像を撮像する際の構図の決定が容易になる。   According to the eleventh aspect, for example, the main camera unit can be selected according to the user's dominant arm or the like, so that it is easy to determine the composition when capturing a parallax image.

本発明によれば、カメラユニットを連結することにより一体型複眼カメラとして使用可能にするとともに、通信手段を用いることにより分離型複眼カメラとしても使用することができる。これにより、一体型複眼カメラの携帯性の利点と、分離型複眼カメラの立体感がよい画像を撮像することができるという利点の両方の利点を得ることができ、画像の撮像を容易に行うことができる。   According to the present invention, it can be used as an integrated compound eye camera by connecting camera units, and can also be used as a separate compound eye camera by using communication means. As a result, it is possible to obtain both the advantages of portability of the integrated compound-eye camera and the advantage of being able to capture an image with a good stereoscopic effect of the separate compound-eye camera, and to easily capture the image. Can do.

以下、添付図面に従って本発明に係る撮像装置の好ましい実施の形態について説明する。   Hereinafter, preferred embodiments of an imaging device according to the present invention will be described with reference to the accompanying drawings.

図1は、本発明の一実施形態に係る撮像装置の主要構成を示すブロック図である。図1に示すように、本実施形態に係る撮像装置10は、2つのカメラユニット12A及び12Bを含んでいる。各カメラユニット12A及び12Bは、CPU14、操作部16、撮像モード設定スイッチ(撮像モード設定SW)18、メイン/サブ切替スイッチ(メイン/サブ切替SW)20、表示部22、記録媒体24、撮像部28、信号処理部30、相対位置検出部32、3D画像生成部34、通信部36、コネクタ38及び40をそれぞれ備えており、単眼の電子カメラとして機能する。   FIG. 1 is a block diagram showing the main configuration of an imaging apparatus according to an embodiment of the present invention. As shown in FIG. 1, the imaging device 10 according to the present embodiment includes two camera units 12A and 12B. Each camera unit 12A and 12B includes a CPU 14, an operation unit 16, an imaging mode setting switch (imaging mode setting SW) 18, a main / sub changeover switch (main / sub changeover SW) 20, a display unit 22, a recording medium 24, and an imaging unit. 28, a signal processing unit 30, a relative position detection unit 32, a 3D image generation unit 34, a communication unit 36, and connectors 38 and 40, and functions as a monocular electronic camera.

CPU14は、操作部16、動作モード設定SW18及びメイン/サブ切替SW20を含む操作部材からの操作入力に基づき所定の制御プログラムに従って撮像装置1全体の動作を統括制御する制御手段である。   The CPU 14 is a control unit that performs overall control of the entire operation of the imaging apparatus 1 according to a predetermined control program based on operation inputs from operation members including the operation unit 16, the operation mode setting SW 18, and the main / sub switch SW 20.

操作部16は、電源スイッチ及びシャッタボタン42を含む操作入力手段である。電源スイッチは、各カメラユニット12の電源のオン・オフを切り替えるスイッチである。シャッタボタン42は、いわゆる「半押し」と「全押し」とからなる2段ストローク式のスイッチで構成されている。静止画を撮像する場合には、CPU14は、シャッタボタン42の半押しに応じて、撮像準備処理(即ち、AE(Automatic Exposure:自動露出)、AF(Auto Focus:自動焦点合わせ)、AWB(Automatic White Balance:自動ホワイトバランス))を実行し、シャッタボタン42の全押しに応じて、画像の撮像・記録処理を実行する。また、動画を撮像する場合には、CPU14は、シャッタボタン42の全押しに応じて動画の撮像を開始し、再度の全押しに応じて動画の撮像を終了する。   The operation unit 16 is operation input means including a power switch and a shutter button 42. The power switch is a switch for switching on / off the power of each camera unit 12. The shutter button 42 is configured by a two-stage stroke type switch composed of so-called “half press” and “full press”. When capturing a still image, the CPU 14 performs imaging preparation processing (that is, AE (Automatic Exposure), AF (Auto Focus), AWB (Automatic) in response to half-pressing of the shutter button 42. White Balance (automatic white balance)) is executed, and image capturing / recording processing is executed in response to the shutter button 42 being fully pressed. When capturing a moving image, the CPU 14 starts capturing the moving image in response to the shutter button 42 being fully pressed, and ends capturing the moving image in response to the full press again.

動作モード設定SW18は、撮像装置10の動作モードを設定するための操作手段である。CPU14は、動作モード設定SW18からの操作入力に応じて、撮像モード(カメラユニット12Aを用いて2次元画像(2D画像)・(静止画又は動画)を撮像する単眼モード、及びカメラユニット12A及び12Bを用いて複数視点から画像(静止画又は動画)を撮像して3次元画像を生成する複眼モード)及び画像を再生するための再生モードの間で、撮像装置10の動作モードを切り替える。   The operation mode setting SW 18 is an operation unit for setting the operation mode of the imaging apparatus 10. The CPU 14, in response to an operation input from the operation mode setting SW 18, captures an imaging mode (a monocular mode for capturing a two-dimensional image (2D image) / (still image or moving image) using the camera unit 12A), and camera units 12A and 12B. The operation mode of the image capturing apparatus 10 is switched between a reproduction mode for reproducing an image (a compound eye mode in which images (still images or moving images) are captured from a plurality of viewpoints to generate a three-dimensional image) and images.

メイン/サブ切替SW20は、各カメラユニット12A及び12Bのカメラモード(メインカメラモード又はサブカメラモード)を設定するための操作手段である。なお、以下の説明では、カメラユニット12Aをメインカメラユニットとして説明する。   The main / sub switch SW20 is an operation means for setting the camera mode (main camera mode or sub camera mode) of each of the camera units 12A and 12B. In the following description, the camera unit 12A will be described as the main camera unit.

表示部22は、例えば、カラー液晶パネルを備えた表示装置により構成され、撮像済み画像を表示するための画像表示部として機能するとともに、各種設定時にGUIとして機能する。また、表示部22は、撮像モード時にライブビュー画像(スルー画)を表示するための電子ファインダとして機能する。表示部22は、3次元の画像を表示可能となっている。3次元表示の方式としては、例えば、表示部22前面に垂直方向のスリットを形成し、スリット後方の表示部22の表示面に左右の像を示す短冊状の画像断片を交互に配列して表示するパララックスバリア(視差バリア)方式、かまぼこ状のレンズ群を有したいわゆるレンチキュラレンズを表示部22の表面に配置するレンチキュラ方式、マイクロレンズアレイシートを用いるインテグラルフォトグラフィ方式、干渉現象を利用するホログラフィ方式を適用可能である。   The display unit 22 is configured by, for example, a display device including a color liquid crystal panel, and functions as an image display unit for displaying captured images, and also functions as a GUI during various settings. The display unit 22 functions as an electronic viewfinder for displaying a live view image (through image) in the imaging mode. The display unit 22 can display a three-dimensional image. As a three-dimensional display method, for example, a vertical slit is formed on the front surface of the display unit 22, and strip-shaped image fragments showing left and right images are alternately arranged and displayed on the display surface of the display unit 22 behind the slit. A parallax barrier method, a so-called lenticular lens having a semi-cylindrical lens group on the surface of the display unit 22, an integral photography method using a microlens array sheet, and an interference phenomenon. A holographic method can be applied.

記録媒体24は、画像データを含む各種データを記録するための手段であり、各カメラユニット12に着脱可能となっている。記録媒体24としては、例えば、xDピクチャカード(登録商標)、SDカード(登録商標)、スマートメディア(登録商標)に代表される半導体メモリカード、可搬型小型ハードディスク、磁気ディスク、光ディスク、光磁気ディスク等、種々の媒体を用いることができる。   The recording medium 24 is a means for recording various data including image data, and is detachable from each camera unit 12. Examples of the recording medium 24 include a semiconductor memory card represented by xD picture card (registered trademark), SD card (registered trademark), and smart media (registered trademark), a portable small hard disk, a magnetic disk, an optical disk, and a magneto-optical disk. For example, various media can be used.

相対位置検出部32は、距離センサを備えており、他のカメラユニットに位置検出信号を発信して、当該カメラユニットとの間の相対位置(例えば、カメラユニット12Aと12Bの間の距離、撮像部28A及び28Bの光軸の角度)を検出する。   The relative position detection unit 32 includes a distance sensor, transmits a position detection signal to another camera unit, and is positioned relative to the camera unit (for example, the distance between the camera units 12A and 12B, imaging). The angles of the optical axes of the sections 28A and 28B).

通信部36は、カメラユニット12Aと12Bとの間で無線通信(例えば、電波又は赤外線による無線通信)を行うための手段である。   The communication unit 36 is means for performing wireless communication (for example, wireless communication using radio waves or infrared rays) between the camera units 12A and 12B.

コネクタ38及び40は、カメラユニット12Aと12Bを連結するための手段である。   The connectors 38 and 40 are means for connecting the camera units 12A and 12B.

図2は、コネクタ38及び40を介してカメラユニット12A及び12Bを連結した状態を示す斜視図である。図2に示すように、各カメラユニット12A及び12Bの左右の側面にはそれぞれコネクタ38及び40が設けられている。コネクタ38は凹形状であり、コネクタ40は凸形状である。コネクタ40は、各カメラユニット12A及び12Bの筐体内部に収納可能となっている。各カメラユニット12A及び12Bは、コネクタ38Aとコネクタ40Bとを嵌め合わせることにより相互に固定される。これにより、カメラユニット12A及び12Bは、一体型複眼カメラとして使用可能になる。なお、3つ以上のカメラユニットを数珠つなぎに連結することも可能である。   FIG. 2 is a perspective view showing a state in which the camera units 12A and 12B are connected via the connectors 38 and 40. FIG. As shown in FIG. 2, connectors 38 and 40 are provided on the left and right side surfaces of the camera units 12A and 12B, respectively. The connector 38 has a concave shape, and the connector 40 has a convex shape. The connector 40 can be housed inside the housing of each camera unit 12A and 12B. The camera units 12A and 12B are fixed to each other by fitting the connector 38A and the connector 40B. Thereby, the camera units 12A and 12B can be used as an integrated compound eye camera. It is also possible to connect three or more camera units in a daisy chain.

次に、カメラユニット12の撮像機能について説明する。撮像部28は、撮像光学系(ズームレンズ、フォーカスレンズ及び絞りを含む)、撮像光学系の駆動用モータ及び撮像素子を含んでいる。   Next, the imaging function of the camera unit 12 will be described. The imaging unit 28 includes an imaging optical system (including a zoom lens, a focus lens, and a diaphragm), a driving motor for the imaging optical system, and an imaging element.

CPU14は、撮像部28に制御信号を出力して、ズームレンズ及びフォーカスレンズを移動させることにより、ズーミング及びフォーカシングを行う。また、CPU14は、撮像部28に制御信号を出力して絞りの開口量(絞り値)を制御し、撮像素子に入射する被写体の光量を制御する。   The CPU 14 performs zooming and focusing by outputting a control signal to the imaging unit 28 and moving the zoom lens and the focus lens. Further, the CPU 14 outputs a control signal to the imaging unit 28 to control the aperture amount (aperture value) of the diaphragm, and controls the amount of light of the subject incident on the imaging element.

撮像素子は、例えば、カラーCCD固体撮像素子により構成されている。なお、撮像素子としては、CMOSセンサ等の他の構成の撮像素子を用いることもできる。撮像素子(CCD)の受光面には、多数のフォトダイオードが2次元的に配列されており、各フォトダイオードにはカラーフィルタ(例えば、3原色)が所定の配列で配置されている。撮像光学系によって撮像素子の受光面上に結像された被写体の光学像は、このフォトダイオードによって入射光量に応じた信号電荷に変換される。各フォトダイオードに蓄積された信号電荷は、CPU14の指令に従って電圧信号(画像信号)として撮像素子から順次読み出される。撮像素子は、電子シャッタ機能を備えており、フォトダイオードへの電荷蓄積時間を制御することにより、露光時間(シャッタ速度)が制御される。   The image sensor is composed of, for example, a color CCD solid-state image sensor. Note that an image sensor having another configuration such as a CMOS sensor may be used as the image sensor. A large number of photodiodes are two-dimensionally arranged on the light receiving surface of the image sensor (CCD), and color filters (for example, three primary colors) are arranged in a predetermined arrangement on each photodiode. The optical image of the subject formed on the light receiving surface of the image sensor by the imaging optical system is converted into signal charges corresponding to the amount of incident light by the photodiode. The signal charges accumulated in each photodiode are sequentially read out from the image sensor as a voltage signal (image signal) in accordance with a command from the CPU 14. The image sensor has an electronic shutter function, and the exposure time (shutter speed) is controlled by controlling the charge accumulation time in the photodiode.

信号処理部30は、撮像素子から出力された画像信号に含まれるリセットノイズ(低周波)を除去するための相関2重サンプリング回路(CDS)、画像信号を増幅して一定レベルの大きさにコントロールするためのAGS回路を含んでいる。信号処理部30は、撮像素子から出力される画像信号を相関2重サンプリング処理するとともに増幅して、デジタルの画像信号に変換する。   The signal processing unit 30 is a correlated double sampling circuit (CDS) for removing reset noise (low frequency) included in the image signal output from the image sensor, and amplifies the image signal to control it to a certain level. An AGS circuit is included. The signal processing unit 30 performs correlated double sampling processing on the image signal output from the image sensor and amplifies it to convert it into a digital image signal.

信号処理部30から出力されたデジタルの画像信号は、同時化処理(単板CCDのカラーフィルタ配列に伴う色信号の空間的なズレを補間して色信号を同時式に変換する処理)、ホワイトバランス調整、階調変換(例えば、ガンマ補正)、輪郭補正、輝度・色差信号生成等の処理がCPU14により施された後、輝度信号及び色差信号(Y/C信号)として出力される。   The digital image signal output from the signal processing unit 30 is subjected to a synchronization process (a process of converting a color signal into a simultaneous type by interpolating a spatial shift of the color signal associated with the color filter array of the single CCD), white Processing such as balance adjustment, gradation conversion (for example, gamma correction), contour correction, luminance / color difference signal generation, and the like are performed by the CPU 14 and then output as a luminance signal and a color difference signal (Y / C signal).

ライブビュー画像(スルー画)を表示する際には、上記Y/C信号は、表示部22に出力され、表示用のビデオ信号に変換されて表示部22に出力される。   When displaying a live view image (through image), the Y / C signal is output to the display unit 22, converted into a video signal for display, and output to the display unit 22.

静止画を撮像する際には、シャッタボタンの半押し(S1オン)に応じて、CPU14は、AE処理及びAF処理を実行する。AE処理において、CPU14は、分割測光により検出した被写体輝度から露出値(撮像EV値)を算出し、この露出値と所定のプログラム線図に従って絞り値及びシャッタスピードを決定する。また、CPU14は、オートモードの場合に、フラッシュ発光のオン・オフの設定、及びフラッシュの発光光量の算出を行う。また、AF処理において、CPU14は、例えば、画像信号のG信号の高周波成分が極大になるようにフォーカスレンズを移動させる。また、CPU14は、自動ホワイトバランス制御時に、上記のR、G、B信号に基づいて光源種の判別を行い、R、G、B信号にゲインをかける。   When capturing a still image, the CPU 14 executes AE processing and AF processing in response to half-pressing of the shutter button (S1 on). In the AE process, the CPU 14 calculates an exposure value (imaging EV value) from the subject brightness detected by the division photometry, and determines an aperture value and a shutter speed according to the exposure value and a predetermined program diagram. Further, in the auto mode, the CPU 14 performs setting of flash emission on / off and calculation of the flash emission amount. In the AF process, for example, the CPU 14 moves the focus lens so that the high-frequency component of the G signal of the image signal is maximized. Further, during automatic white balance control, the CPU 14 determines the light source type based on the R, G, and B signals, and applies a gain to the R, G, and B signals.

レリーズスイッチの半押し(S1オン)によってAE処理及びAF処理が行われた後、レリーズスイッチが全押しされると(S2オン)、記録用の撮像動作がスタートする。S2オンに応じて取得された画像信号は、CPU14によってY/C信号に変換され、ガンマ補正等の所定の処理が施された後、所定のフォーマットに従って圧縮された後、記録媒体24に記録される。例えば、静止画についてはJPEG(Joint Photographic Experts Group)形式、動画についてはAVI(Audio Video Interleaving)形式の画像ファイルとして記録される。   After the AE process and the AF process are performed by half-pressing the release switch (S1 on) and then the release switch is fully pressed (S2 on), the recording imaging operation starts. The image signal acquired in response to S2 ON is converted into a Y / C signal by the CPU 14, subjected to predetermined processing such as gamma correction, compressed according to a predetermined format, and then recorded on the recording medium 24. The For example, still images are recorded as JPEG (Joint Photographic Experts Group) format, and moving images are recorded as AVI (Audio Video Interleaving) format image files.

再生モード時には、記録媒体24に記録されている最終の画像ファイル(最後に記録された画像ファイル)の圧縮データが読み出される。最後の記録に係る画像ファイルが静止画ファイルの場合、この読み出された画像圧縮データは、CPU14によって非圧縮のY/C信号に伸張され、表示部22に出力される。静止画の1コマ再生中(動画の先頭フレーム再生中も含む)に、操作部16の操作によって、再生対象の画像ファイルを切り換えること(順コマ送り/逆コマ送り)ができる。コマ送りされた位置の画像ファイルが記録媒体24から読み出されて表示部22に再生表示される。   In the reproduction mode, the compressed data of the last image file (last recorded image file) recorded on the recording medium 24 is read. When the image file related to the last recording is a still image file, the read image compressed data is decompressed by the CPU 14 into an uncompressed Y / C signal and output to the display unit 22. During single frame playback of a still image (including playback of the first frame of a moving image), the operation target 16 can be used to switch the image file to be played back (forward frame advance / reverse frame advance). The image file at the frame-advanced position is read from the recording medium 24 and reproduced and displayed on the display unit 22.

次に、撮像装置10を分離型複眼カメラとして使用する場合について説明する。カメラユニット12Aの動作モードが複眼モードに設定されると、CPU14Aは、通信部36Aから探索信号を発信して、通信可能な範囲内にある他のカメラユニット12Bを検出する。カメラユニット12Bは、通信部36Bを介して、カメラユニット12Aからの探索信号を受信すると、カメラユニット12Aに対して応答信号を発信する。   Next, the case where the imaging device 10 is used as a separation type compound eye camera will be described. When the operation mode of the camera unit 12A is set to the compound eye mode, the CPU 14A transmits a search signal from the communication unit 36A to detect another camera unit 12B within a communicable range. Upon receiving the search signal from the camera unit 12A via the communication unit 36B, the camera unit 12B transmits a response signal to the camera unit 12A.

CPU14Aは、カメラユニット12Bから応答信号を受信すると、メイン/サブ切替SW20Aを制御して、カメラユニット12Aのカメラモードをメインカメラモードに設定するとともに、カメラユニット12Bに制御信号を送信して、カメラユニット12Bのカメラモードをサブカメラモードに設定する。   When the CPU 14A receives the response signal from the camera unit 12B, the CPU 14A controls the main / sub switch SW 20A to set the camera mode of the camera unit 12A to the main camera mode and transmits a control signal to the camera unit 12B. The camera mode of the unit 12B is set to the sub camera mode.

なお、カメラモードの設定は、各カメラユニット12A及び12Bのメイン/サブ切替SW20A及び20Bにより手動で行われるようにしてもよいし、カメラユニット12A及び12Bの連結後に最初に操作された方のカメラユニット又は所定の(例えば、右側の)カメラユニットが自動的にメインカメラモードに設定されるようにしてもよい。   The camera mode may be set manually by the main / sub switch SW 20A and 20B of each camera unit 12A and 12B, or the camera that is operated first after the camera units 12A and 12B are connected. A unit or a predetermined (eg, right) camera unit may be automatically set to the main camera mode.

サブカメラユニット12BのCPU14B(以下、サブCPU14Bという)は、メインカメラユニット12AのCPU14A(以下、メインCPU14Aという)からの制御信号に従って、サブカメラユニット12B内の各部の制御を行う。なお、サブカメラユニット12Bの操作部材(操作部16B、動作モード設定SW18B及びメイン/サブ切替SW20B)からの操作入力が無効化されるようにしてもよい。   The CPU 14B (hereinafter referred to as sub CPU 14B) of the sub camera unit 12B controls each part in the sub camera unit 12B in accordance with a control signal from the CPU 14A (hereinafter referred to as main CPU 14A) of the main camera unit 12A. Note that the operation input from the operation members (the operation unit 16B, the operation mode setting SW 18B, and the main / sub switch SW 20B) of the sub camera unit 12B may be invalidated.

また、CPU14Aは、通信部36Aを介して応答信号を受信すると、相対位置検出部32Aを用いてカメラユニット12Aと12Bとの相対位置(特に、撮像部28Aと28Bの相対位置)を検出する。   Further, when receiving the response signal via the communication unit 36A, the CPU 14A detects the relative position between the camera units 12A and 12B (particularly, the relative position between the imaging units 28A and 28B) using the relative position detection unit 32A.

図3は、カメラユニット12A及び12Bの相対位置の測定処理を説明するための図である。相対位置検出部32Aは、図3に示すように、カメラユニット12Aの所定の位置P10から位置検出信号(例えば、電波、超音波又は赤外線)を発信する。カメラユニット12Bは、所定の位置P12からP16に位置検出信号の受信器を有している。また、カメラユニット12A及び12Bは、それぞれカメラユニット12A及び12Bの傾きを検出する傾斜センサP18及びP20を有している。サブCPU14Bは、各受信器P12からP16における位置検出信号の受信時刻を測定し、受信器P12からP16の位置と、傾斜センサP20により取得したカメラユニット12Bの傾きに関する情報とをメインカメラユニット12Aに送信する。メインCPU14Aは、位置検出信号の発信時刻と受信器P12及びP16における位置検出信号の受信時刻に基づいて、受信器P12からP16までの距離を算出するとともに、傾斜センサP18及びP20によりカメラユニット12A及び12Bの傾きを検出し、カメラユニット12Aと12Bの間の相対位置(例えば、カメラユニット12Aと12Bの間の距離、撮像部28Aの光軸LAと撮像部28Bの光軸LBがなす角度θ)を測定する。   FIG. 3 is a diagram for explaining measurement processing of the relative positions of the camera units 12A and 12B. As shown in FIG. 3, the relative position detector 32A transmits a position detection signal (for example, radio waves, ultrasonic waves, or infrared rays) from a predetermined position P10 of the camera unit 12A. The camera unit 12B has a position detection signal receiver at predetermined positions P12 to P16. The camera units 12A and 12B have inclination sensors P18 and P20 that detect the inclinations of the camera units 12A and 12B, respectively. The sub CPU 14B measures the reception time of the position detection signal in each of the receivers P12 to P16, and informs the main camera unit 12A of the positions of the receivers P12 to P16 and the information about the tilt of the camera unit 12B acquired by the tilt sensor P20. Send. The main CPU 14A calculates the distance from the receivers P12 to P16 based on the transmission time of the position detection signals and the reception times of the position detection signals at the receivers P12 and P16, and the camera units 12A and P20 by the inclination sensors P18 and P20. The inclination of 12B is detected, and the relative position between the camera units 12A and 12B (for example, the distance between the camera units 12A and 12B, the angle θ formed by the optical axis LA of the imaging unit 28A and the optical axis LB of the imaging unit 28B). Measure.

メインCPU14Aは、撮像部28Aにおいてピントが合っているのと同一の被写体(以下、標準被写体という)にピントが合うように撮像部28BにおけるAF制御を行うとともに、標準被写体の明るさが同じになるように露出制御を行う。なお、操作部16Aからの操作入力に応じて標準被写体を指定できるようにしてもよい。撮像部28Aによって撮像されたスルー画は、表示部22Aに表示され、撮像部28Bによって撮像されたスルー画は表示部22Bに表示される。なお、サブカメラユニット12Bの撮像部28Bによって撮像されたスルー画をメインカメラユニット12Aに送信して表示部22Aに表示できるようにしてもよい。   The main CPU 14A performs AF control in the imaging unit 28B so that the same subject (hereinafter referred to as a standard subject) that is in focus in the imaging unit 28A is in focus, and the brightness of the standard subject is the same. The exposure is controlled as follows. Note that a standard subject may be designated in accordance with an operation input from the operation unit 16A. The through image captured by the imaging unit 28A is displayed on the display unit 22A, and the through image captured by the imaging unit 28B is displayed on the display unit 22B. Note that the through image captured by the imaging unit 28B of the sub camera unit 12B may be transmitted to the main camera unit 12A and displayed on the display unit 22A.

メインCPU14Aは、シャッタボタン42Aの半押しに応じて、撮像部28Aから得られた画像信号に基づいてAE処理及びAF処理を行うとともに、サブCPU14Bに制御信号を送信して、撮像部28Bから得られた画像信号に基づいてAE処理及びAF処理を行わせる。そして、メインCPU14Aは、シャッタボタン42Aの全押しに応じて、撮像部28A及び28Bによる記録用の撮像を同時に行う。メインCPU14A及びサブCPU14Bは、カメラユニット12Aと12Bの間の相対位置に基づいて、撮像指示信号の伝達に要する時間等を算出し、同一のタイミングで静止画の撮像が行われるように撮像部28A及び28Bを制御する。撮像部28Bによって撮像された静止画は、通信部36B及び36Aを介してメインカメラユニット12Aに送信される。3D画像生成部34Aは、撮像部28A及び28Bによって撮像された複数視点の静止画、及び撮像部28Aと28Bの相対位置に関する情報を用いて3次元画像(3D画像)を生成する。3D画像生成部34Aによって生成された3D画像は、所定のフォーマットの画像ファイルに変換されて記録媒体24Aに記録される。   The main CPU 14A performs AE processing and AF processing based on the image signal obtained from the imaging unit 28A in response to half-pressing of the shutter button 42A, and transmits a control signal to the sub CPU 14B to obtain from the imaging unit 28B. AE processing and AF processing are performed based on the received image signal. The main CPU 14A simultaneously performs recording for recording by the imaging units 28A and 28B in response to the full depression of the shutter button 42A. The main CPU 14A and the sub CPU 14B calculate the time required to transmit the imaging instruction signal based on the relative position between the camera units 12A and 12B, and the imaging unit 28A so that still images are captured at the same timing. And 28B are controlled. The still image captured by the imaging unit 28B is transmitted to the main camera unit 12A via the communication units 36B and 36A. The 3D image generation unit 34A generates a three-dimensional image (3D image) using still images from a plurality of viewpoints captured by the imaging units 28A and 28B and information regarding the relative positions of the imaging units 28A and 28B. The 3D image generated by the 3D image generation unit 34A is converted into an image file of a predetermined format and recorded on the recording medium 24A.

3Dの動画を撮像する場合には、シャッタボタン42Aの全押しに応じて各撮像部28A及び28Bによって動画の撮像が同期して行われ、シャッタボタン42Aの再度の全押しに応じて動画の撮像が終了する。各撮像部28A及び28Bによって撮像された動画は、それぞれ記録媒体24A及び24Bに記録される。そして、撮像部28Bによって撮像された動画は、通信部36B及び36Aを介してメインカメラユニット12Aに送信される。3D画像生成部34Aは、撮像部28A及び28Bによって撮像された複数視点の動画、及び撮像部28Aと28Bの相対位置に関する情報を用いて3D画像を生成する。3D画像生成部34Aによって生成された3D画像は、所定のフォーマットの画像ファイルに変換されて記録媒体24Aに記録される。   When a 3D moving image is captured, moving image capturing is performed in synchronization by the imaging units 28A and 28B in response to the shutter button 42A being fully pressed, and moving image capturing is performed in response to the shutter button 42A being fully pressed again. Ends. The moving images imaged by the imaging units 28A and 28B are recorded in the recording media 24A and 24B, respectively. Then, the moving image captured by the imaging unit 28B is transmitted to the main camera unit 12A via the communication units 36B and 36A. The 3D image generation unit 34A generates a 3D image by using the moving images of the multiple viewpoints captured by the imaging units 28A and 28B and information regarding the relative positions of the imaging units 28A and 28B. The 3D image generated by the 3D image generation unit 34A is converted into an image file of a predetermined format and recorded on the recording medium 24A.

なお、記録媒体24Aに空き領域がない場合には、サブカメラユニット12Bの記録媒体24Bに3D画像を送信して記録するようにしてもよい。また、この場合、撮像部28Aによって撮像された画像をサブカメラユニット12Bに送信して、サブカメラユニット12Bの3D画像生成部34Bによって3D画像の生成を行うようにしてもよい。   If there is no free space on the recording medium 24A, a 3D image may be transmitted and recorded on the recording medium 24B of the sub camera unit 12B. In this case, an image captured by the imaging unit 28A may be transmitted to the sub camera unit 12B, and a 3D image may be generated by the 3D image generation unit 34B of the sub camera unit 12B.

次に、撮像装置10を一体型複眼カメラとして使用する場合について説明する。カメラユニット12Aと12Bがコネクタ38A及び40Bを介して連結され、カメラユニット12Aの動作モードが複眼モードに設定された場合、CPU14Aは、メイン/サブ切替SW20Aを制御して、カメラユニット12Aのカメラモードをメインカメラモードに設定する。また、CPU14Aは、コネクタ38A及び40Bを介してカメラユニット12Bに制御信号を送信し、カメラユニット12Bのカメラモードをサブカメラモードに設定する。   Next, a case where the imaging device 10 is used as an integrated compound eye camera will be described. When the camera units 12A and 12B are connected via the connectors 38A and 40B and the operation mode of the camera unit 12A is set to the compound eye mode, the CPU 14A controls the main / sub switching SW 20A to control the camera mode of the camera unit 12A. Set to the main camera mode. The CPU 14A transmits a control signal to the camera unit 12B via the connectors 38A and 40B, and sets the camera mode of the camera unit 12B to the sub camera mode.

なお、カメラモードの設定は、各カメラユニット12A及び12Bのメイン/サブ切替SW20A及び20Bにより手動で行われるようにしてもよいし、カメラユニット12A及び12Bの連結後に最初に操作された方のカメラユニット又は所定の(例えば、右側の)カメラユニットが自動的にメインカメラモードに設定されるようにしてもよい。   The camera mode may be set manually by the main / sub switch SW 20A and 20B of each camera unit 12A and 12B, or the camera that is operated first after the camera units 12A and 12B are connected. A unit or a predetermined (eg, right) camera unit may be automatically set to the main camera mode.

サブカメラユニット12BのCPU(サブCPU)14Bは、メインカメラユニット12AのCPU(メインCPU)14Aからの制御信号に従って、サブカメラユニット12B内の各部の制御を行う。なお、サブカメラユニット12Bの操作部材(操作部16B、動作モード設定SW18B及びメイン/サブ切替SW20B)からの操作入力が無効化されるようにしてもよい。   The CPU (sub CPU) 14B of the sub camera unit 12B controls each part in the sub camera unit 12B in accordance with a control signal from the CPU (main CPU) 14A of the main camera unit 12A. Note that the operation input from the operation members (the operation unit 16B, the operation mode setting SW 18B, and the main / sub switch SW 20B) of the sub camera unit 12B may be invalidated.

また、CPU14Aは、通信部36Aを介して応答信号を受信すると、カメラユニット12Aと12Bとの相対位置情報及び撮像部28Aと28Bの相対位置情報を取得する。カメラユニット12Aと12Bとの相対位置情報及び撮像部28Aと28Bの相対位置情報は、例えば、各カメラユニット12A及び12Bの内蔵メモリに記録されている。なお、相対位置情報は、図3と同様にして検出するようにしてもよい。   Further, when receiving the response signal via the communication unit 36A, the CPU 14A acquires the relative position information of the camera units 12A and 12B and the relative position information of the imaging units 28A and 28B. The relative position information of the camera units 12A and 12B and the relative position information of the imaging units 28A and 28B are recorded, for example, in the built-in memories of the camera units 12A and 12B. The relative position information may be detected in the same manner as in FIG.

画像を撮像する際には、メインCPU14Aは、操作部16Aからの操作入力に応じて撮像部28A及び28Bを制御し、常に同じ焦点距離(ズーム倍率)となり、且つ、常に同じ被写体にピントが合うように焦点調節を行うとともに、常に同じ絞り値となるように絞りの調整を行う。撮像部28Aによって撮像されたスルー画は、表示部22Aに表示され、撮像部28Bによって撮像されたスルー画は表示部22Bに表示される。   When capturing an image, the main CPU 14A controls the image capturing units 28A and 28B in accordance with an operation input from the operation unit 16A, always having the same focal length (zoom magnification), and always focusing on the same subject. Thus, the aperture is adjusted so that the aperture value is always the same. The through image captured by the imaging unit 28A is displayed on the display unit 22A, and the through image captured by the imaging unit 28B is displayed on the display unit 22B.

メインCPU14Aは、シャッタボタン42Aの半押しに応じて、メインカメラユニット12Aの各部、及びサブCPU14Bに制御信号を送信して、撮像部28A及び28Bのいずれか一方から得られた画像信号に基づいてAE処理及びAF処理を行う。そして、メインCPU14Aは、シャッタボタン42Aの全押しに応じて、撮像部28A及び28Bによる静止画の撮像を同時に行う。撮像部28Bによって撮像された静止画は、コネクタ38A及び40Bを介してメインカメラユニット12Aに送信される。3D画像生成部34Aは、撮像部28A及び28Bによって複数視点から撮像された静止画、及び撮像部28Aと28Bの相対位置に関する情報を用いて3次元画像(3D画像)を生成する。3D画像生成部34Aによって生成された3D画像は、所定のフォーマットの画像ファイルに変換されて記録媒体24Aに記録される。   The main CPU 14A transmits a control signal to each part of the main camera unit 12A and the sub CPU 14B in response to half-pressing of the shutter button 42A, and based on the image signal obtained from one of the imaging units 28A and 28B. AE processing and AF processing are performed. The main CPU 14A simultaneously captures still images by the imaging units 28A and 28B in response to the full press of the shutter button 42A. The still image imaged by the imaging unit 28B is transmitted to the main camera unit 12A via the connectors 38A and 40B. The 3D image generation unit 34A generates a three-dimensional image (3D image) using still images captured from a plurality of viewpoints by the imaging units 28A and 28B and information regarding the relative positions of the imaging units 28A and 28B. The 3D image generated by the 3D image generation unit 34A is converted into an image file of a predetermined format and recorded on the recording medium 24A.

3Dの動画を撮像する場合には、シャッタボタン42Aの全押しに応じて各撮像部28A及び28Bによって動画の撮像が同期して行われ、シャッタボタン42Aの再度の全押しに応じて動画の撮像が終了する。各撮像部28A及び28Bによって撮像された動画は、それぞれ記録媒体24A及び24Bに記録される。そして、撮像部28Bによって撮像された動画は、通信部36B及び36Aを介してメインカメラユニット12Aに送信される。3D画像生成部34Aは、撮像部28A及び28Bによって撮像された複数視点の動画、及び撮像部28Aと28Bの相対位置に関する情報を用いて3D画像を生成する。3D画像生成部34Aによって生成された3D画像は、所定のフォーマットの画像ファイルに変換されて記録媒体24Aに記録される。   When a 3D moving image is captured, moving image capturing is performed in synchronization by the imaging units 28A and 28B in response to the shutter button 42A being fully pressed, and moving image capturing is performed in response to the shutter button 42A being fully pressed again. Ends. The moving images imaged by the imaging units 28A and 28B are recorded in the recording media 24A and 24B, respectively. Then, the moving image captured by the imaging unit 28B is transmitted to the main camera unit 12A via the communication units 36B and 36A. The 3D image generation unit 34A generates a 3D image by using the moving images of the multiple viewpoints captured by the imaging units 28A and 28B and information regarding the relative positions of the imaging units 28A and 28B. The 3D image generated by the 3D image generation unit 34A is converted into an image file of a predetermined format and recorded on the recording medium 24A.

なお、記録媒体24Aに空き領域がない場合には、サブカメラユニット12Bの記録媒体24Bに3D画像を送信して記録するようにしてもよい。また、この場合、撮像部28Aによって撮像された画像をサブカメラユニット12Bに送信して、サブカメラユニット12Bの3D画像生成部34Bによって3D画像の生成を行うようにしてもよい。   If there is no free space on the recording medium 24A, a 3D image may be transmitted and recorded on the recording medium 24B of the sub camera unit 12B. In this case, an image captured by the imaging unit 28A may be transmitted to the sub camera unit 12B, and a 3D image may be generated by the 3D image generation unit 34B of the sub camera unit 12B.

一方、カメラユニット12Aと12Bの連結時において、連結されたカメラユニット12A及び12Bのいずれか一方の動作モードが単眼モードに設定された場合、各カメラユニット12A及び12Bは、個別に制御が可能になる。即ち、撮像部28A及び28Bのズーミング、フォーカシング及び絞りの調整は、それぞれ操作部16A及び16Bからの操作入力に応じて個別に制御可能になる。   On the other hand, when the camera units 12A and 12B are connected, if one of the connected camera units 12A and 12B is set to the monocular mode, each camera unit 12A and 12B can be controlled individually. Become. That is, zooming, focusing, and adjustment of the aperture of the imaging units 28A and 28B can be individually controlled according to operation inputs from the operation units 16A and 16B, respectively.

静止画撮像時には、シャッタボタン42Aの全押しに応じて、メインカメラユニット12Aによって画像が撮像され、記録媒体24Aに記録される。   When a still image is captured, an image is captured by the main camera unit 12A and recorded on the recording medium 24A in response to the full press of the shutter button 42A.

なお、シャッタボタン42Aの全押しに応じて、サブカメラユニット12Bでも同時に画像を撮像して、メインカメラユニット12Aによって撮像された画像と関連付けて記録媒体24Aに記録するようにしてもよい。また、記録媒体24Aに空き領域がない場合には、サブカメラユニット12Bの記録媒体24Bに画像を送信して記録するようにしてもよい。   Note that in response to the full press of the shutter button 42A, the sub camera unit 12B may simultaneously capture an image and record it on the recording medium 24A in association with the image captured by the main camera unit 12A. If there is no free space on the recording medium 24A, an image may be transmitted and recorded on the recording medium 24B of the sub camera unit 12B.

また、カメラモードの設定は、各カメラユニット12A及び12Bのメイン/サブ切替SW20A及び20Bにより手動で設定されるようにしてもよいし、カメラユニット12A及び12Bの連結後に最初に操作された方のカメラユニット又は右側のカメラユニットが自動的にメインカメラモードに設定されるようにしてもよい。   The camera mode may be set manually by the main / sub switch SW 20A and 20B of each camera unit 12A and 12B, or the camera unit 12A and 12B that is operated first after connection. The camera unit or the right camera unit may be automatically set to the main camera mode.

本実施形態に係る撮像装置10は、カメラユニット12Aと12Bの連結時に単眼モードに設定された場合において、メインカメラユニット12Aにおける2D画像の撮像をアシストするための撮像アシストモードを有している。   The imaging apparatus 10 according to the present embodiment has an imaging assist mode for assisting the imaging of the 2D image in the main camera unit 12A when the monocular mode is set when the camera units 12A and 12B are connected.

図4は、撮像アシストモード時における撮像装置10の動作を説明するための図である。撮像アシストモードに設定されると、図4に示すように、メインCPU14Aは、サブカメラユニット12Bの撮像部28Bに制御信号を送信し、撮像部28Bのズームレンズがメインカメラユニット12Aの撮像部28Aのズームレンズよりもワイド側(例えば、ワイド端)に位置するように制御する。これにより、サブカメラユニット12Bの表示部22Bにワイド側にズーミングされたスルー画が表示され、ユーザは、被写体の周囲の状況を視認することができる。   FIG. 4 is a diagram for explaining the operation of the imaging apparatus 10 in the imaging assist mode. When the imaging assist mode is set, as shown in FIG. 4, the main CPU 14A transmits a control signal to the imaging unit 28B of the sub camera unit 12B, and the zoom lens of the imaging unit 28B is set to the imaging unit 28A of the main camera unit 12A. The zoom lens is controlled to be positioned on the wide side (for example, the wide end) from the zoom lens. Thereby, a through image zoomed to the wide side is displayed on the display unit 22B of the sub camera unit 12B, and the user can visually recognize the situation around the subject.

図5は、撮像アシストモードの第2の実施例を説明するための図である。本実施例では、図5に示すように、表示部22Bに、ワイド側にズーミングされたスルー画とともに、最適な構図を示す最適構図枠F10が表示され、表示部22Aに、構図アドバイス(矢印A10)が表示される。構図アドバイス(矢印A10)は、撮像装置10を移動させて撮像部28Aの視野(画角)と最適構図枠F10とを一致させるときの撮像装置10の移動方向を示している。   FIG. 5 is a diagram for explaining a second embodiment of the imaging assist mode. In this embodiment, as shown in FIG. 5, an optimal composition frame F10 indicating the optimal composition is displayed on the display unit 22B together with the through image zoomed to the wide side, and composition advice (arrow A10) is displayed on the display unit 22A. ) Is displayed. The composition advice (arrow A10) indicates the moving direction of the imaging apparatus 10 when the imaging apparatus 10 is moved so that the field of view (view angle) of the imaging unit 28A matches the optimal composition frame F10.

最適構図枠F10の位置を算出する場合、メインCPU14Aは、撮像部28Aによって撮像された画像の中から合焦している被写体O10を抽出する。次に、メインCPU14Aは、撮像部28Bによって撮像された画像を取得して、当該画像中から被写体O10を抽出する。そして、CPU14Aは、被写体O10が最適構図枠F10の中央に位置するように最適構図枠F10の位置を算出する。最適構図枠F10のサイズは、例えば、撮像部28Aにおけるズーム倍率に応じた大きさとなる。最適構図枠F10は、撮像装置10の移動に連動して移動する。   When calculating the position of the optimum composition frame F10, the main CPU 14A extracts the focused subject O10 from the image captured by the imaging unit 28A. Next, the main CPU 14A acquires an image captured by the imaging unit 28B, and extracts the subject O10 from the image. Then, the CPU 14A calculates the position of the optimal composition frame F10 so that the subject O10 is positioned at the center of the optimal composition frame F10. The size of the optimal composition frame F10 is, for example, a size corresponding to the zoom magnification in the imaging unit 28A. The optimum composition frame F10 moves in conjunction with the movement of the imaging device 10.

また、構図アドバイスの矢印A10の向き及び長さは、上記最適構図枠F10の位置と撮像部28Aの視野の相対位置に基づいて算出される。   The direction and length of the arrow A10 for composition advice are calculated based on the position of the optimum composition frame F10 and the relative position of the field of view of the imaging unit 28A.

本実施例によれば、撮像部28Aによって2D画像を撮像する際に最適構図枠F10に合わせるのが容易になる。   According to the present embodiment, it is easy to adjust to the optimum composition frame F10 when a 2D image is captured by the imaging unit 28A.

なお、最適構図枠F10は、例えば、撮像部28Bのズームレンズを撮像部28Aのズームレンズよりもかなりワイド側(例えば、ワイド端)にすることにより、撮像装置10の移動に伴う最適構図枠F10をほぼ固定するようにしてもよい。また、撮像部28Aの視野と最適構図枠F10が一致したことがメインCPU14Aによって検出されると、構図アドバイス(矢印A10)の表示を消去するようにしてもよい。   The optimal composition frame F10 is, for example, an optimal composition frame F10 that accompanies the movement of the imaging apparatus 10 by making the zoom lens of the imaging unit 28B considerably wider (for example, the wide end) than the zoom lens of the imaging unit 28A. May be substantially fixed. Further, when the main CPU 14A detects that the field of view of the imaging unit 28A matches the optimal composition frame F10, the composition advice (arrow A10) display may be erased.

また、最適構図枠F10の位置等の算出は、サブCPU14Bによって行われるようにしてもよい。   The calculation of the position of the optimum composition frame F10 and the like may be performed by the sub CPU 14B.

図6は、撮像アシストモードの第3の実施例を説明するための図である。本実施例では、図6に示すように、現在の撮像部28Aにおける構図の評価値(スコア)H10が表示部22Aに表示される。CPU14Aは、例えば、撮像部28Aの視野と最適構図枠F10の一致の度合、被写体O10のサイズ、被写体O10と背景部分とのバランスに基づいて現在の構図の評価値を数値化して表示部22Aに表示する。なお、構図評価値は、例えば、図形(例えば、◎、〇又は△)やメッセージ(例えば、文字又は音声)により表示されるようにしてもよい。   FIG. 6 is a diagram for explaining a third embodiment of the imaging assist mode. In the present embodiment, as shown in FIG. 6, the composition evaluation value (score) H10 in the current imaging unit 28A is displayed on the display unit 22A. The CPU 14A quantifies the evaluation value of the current composition based on, for example, the degree of coincidence between the field of view of the imaging unit 28A and the optimum composition frame F10, the size of the subject O10, and the balance between the subject O10 and the background portion, and displays it on the display unit 22A. indicate. The composition evaluation value may be displayed by, for example, a graphic (for example, ◎, ◯ or Δ) or a message (for example, a character or a voice).

本実施例によれば、撮像部28Aによって2D画像を撮像する際に構図の評価値をユーザに提供することが可能になる。   According to the present embodiment, it is possible to provide a composition evaluation value to the user when a 2D image is captured by the imaging unit 28A.

図7は、画像の撮像時における撮像装置10の処理を示すフローチャートである。まず、カメラユニット12Aに他のカメラユニットが連結されておらず(ステップS10のNo)、カメラユニット12Aの動作モードが単眼モードに設定されている場合には(ステップS12)、カメラユニット12Aは、単眼の電子カメラとして機能し、2D画像の撮像が可能になる(ステップS14)。   FIG. 7 is a flowchart illustrating processing of the imaging apparatus 10 at the time of capturing an image. First, when no other camera unit is connected to the camera unit 12A (No in step S10) and the operation mode of the camera unit 12A is set to the monocular mode (step S12), the camera unit 12A It functions as a monocular electronic camera and can capture 2D images (step S14).

一方、ステップS12においてカメラユニット12Aの動作モードが複眼モードに設定されている場合には、通信部36Aを介して通信可能な範囲内に他のカメラユニットがあるかどうか検出される(ステップS16)。他のカメラユニットが検出されなかった場合には(ステップS16のNo)、カメラユニット12Aは、単眼の電子カメラとして機能する(ステップS14)。   On the other hand, if the operation mode of the camera unit 12A is set to the compound eye mode in step S12, it is detected whether there is another camera unit within a communicable range via the communication unit 36A (step S16). . If no other camera unit is detected (No in step S16), the camera unit 12A functions as a monocular electronic camera (step S14).

一方、他のカメラユニット12Bが検出された場合には(ステップS16のYes)、検出されたカメラユニット12Bとの相対位置(例えば、カメラユニット12Aと12B間の距離、及び各カメラユニット12A及び12Bの撮像光学系の光軸がなす角)が相対位置検出部32Aによって検出される(ステップS18)。そして、ステップS18において検出された相対位置に基づいて、各カメラユニット12A及び12Bの視野内の同一の被写体(標準被写体)に合わせて、各カメラユニット12A及び12Bのキャリブレーションが行われる(ステップS20)。ステップS20では、メインCPU14Aからの制御信号に応じて、各カメラユニット12A及び12Bにおいて、例えば、標準被写体にピントが合うようにAF制御が行われるとともに、標準被写体の明るさが同じになるように露出制御が行われる。   On the other hand, when another camera unit 12B is detected (Yes in step S16), the relative position to the detected camera unit 12B (for example, the distance between the camera units 12A and 12B, and the camera units 12A and 12B). The angle formed by the optical axis of the imaging optical system is detected by the relative position detector 32A (step S18). Based on the relative position detected in step S18, calibration of each camera unit 12A and 12B is performed in accordance with the same subject (standard subject) in the field of view of each camera unit 12A and 12B (step S20). ). In step S20, according to the control signal from the main CPU 14A, each camera unit 12A and 12B performs AF control so that the standard subject is in focus, for example, and the brightness of the standard subject is the same. Exposure control is performed.

次に、シャッタボタン42Aが全押しされると、メインカメラユニット12Aからサブカメラユニット12Bに撮像指示信号が送信されて、メインカメラユニット12A及びサブカメラユニット12Bによって画像の撮像が同時に行われる(ステップS22)。ステップS22では、メインCPU14A及びサブCPU14Bは、カメラユニット12A及び12B間の相対位置に基づいて、撮像指示信号の伝達に要する時間等を算出し、同一のタイミングで画像の撮像が行われるように撮像部28A及び28Bを制御する。   Next, when the shutter button 42A is fully pressed, an imaging instruction signal is transmitted from the main camera unit 12A to the sub camera unit 12B, and images are simultaneously captured by the main camera unit 12A and the sub camera unit 12B (steps). S22). In step S22, the main CPU 14A and the sub CPU 14B calculate the time required for transmitting the imaging instruction signal based on the relative position between the camera units 12A and 12B, and perform imaging so that images are captured at the same timing. The units 28A and 28B are controlled.

サブカメラユニット12Bによって撮像された画像は、メインカメラユニット12Aに送信され(ステップS32)、メインカメラユニット12Aによって受信される(ステップS26)。そして、メインカメラユニット12Aによって撮像された画像とサブカメラユニット12Bによって撮像された画像は、メインカメラユニット12Aの3D画像生成部34Aにおいて処理されて3D画像データが合成され(ステップS28)、記録媒体24Aに記録される(ステップS30)。   An image captured by the sub camera unit 12B is transmitted to the main camera unit 12A (step S32) and received by the main camera unit 12A (step S26). Then, the image captured by the main camera unit 12A and the image captured by the sub camera unit 12B are processed by the 3D image generation unit 34A of the main camera unit 12A to synthesize 3D image data (step S28), and the recording medium 24A is recorded (step S30).

次に、カメラユニット12Aにカメラユニット12Bがコネクタ38A及び40Bを介して連結されている場合(ステップS10のYes)について説明する。カメラユニット12Aの動作モードが複眼モードに設定されている場合には(ステップS34)、メインCPU14Aによって、カメラユニット12A及び12Bの相対位置情報(例えば、カメラユニット12Aと12B間の距離及び輻輳角)が相対位置検出部32Aによって取得される(ステップS36)。なお、相対位置情報は、カメラユニット12Aと12Bを連結する都度測定するようにしてもよいし、カメラユニット12A及び12Bに予め記憶しておくようにしてもよい。   Next, the case where the camera unit 12B is connected to the camera unit 12A via the connectors 38A and 40B (Yes in step S10) will be described. When the operation mode of the camera unit 12A is set to the compound eye mode (step S34), the main CPU 14A causes the relative position information of the camera units 12A and 12B (for example, the distance and the convergence angle between the camera units 12A and 12B). Is acquired by the relative position detector 32A (step S36). The relative position information may be measured every time the camera units 12A and 12B are connected, or may be stored in advance in the camera units 12A and 12B.

次に、シャッタボタン42Aが全押しされると、メインカメラユニット12Aからサブカメラユニット12Bに撮像指示信号が送信されて、メインカメラユニット12A及びサブカメラユニット12Bによって画像の撮像が同時に行われる(ステップS22)。ステップS22では、メインCPU14A及びサブCPU14Bは、カメラユニット12A及び12B間の相対位置に基づいて、撮像指示信号の伝達に要する時間等を算出し、同一のタイミングで画像の撮像が行われるように撮像部28A及び28Bを制御する。また、カメラユニット12Aにカメラユニット12Bが連結されている場合には、撮像部28A及び28Bは、常に同じ焦点距離(ズーム倍率)に設定され、常に同じ被写体にピントが合うように焦点調節が行われる。また、常に同じ絞り値となるように絞りが調整される。   Next, when the shutter button 42A is fully pressed, an imaging instruction signal is transmitted from the main camera unit 12A to the sub camera unit 12B, and images are simultaneously captured by the main camera unit 12A and the sub camera unit 12B (steps). S22). In step S22, the main CPU 14A and the sub CPU 14B calculate the time required for transmitting the imaging instruction signal based on the relative position between the camera units 12A and 12B, and perform imaging so that images are captured at the same timing. The units 28A and 28B are controlled. When the camera unit 12B is connected to the camera unit 12A, the imaging units 28A and 28B are always set to the same focal length (zoom magnification), and focus adjustment is performed so that the same subject is always in focus. Is called. In addition, the aperture is adjusted so that the same aperture value is always obtained.

サブカメラユニット12Bによって撮像された画像は、メインカメラユニット12Aに送信され(ステップS32)、メインカメラユニット12Aによって受信される(ステップS26)。そして、メインカメラユニット12Aによって撮像された画像とサブカメラユニット12Bによって撮像された画像は、メインカメラユニット12Aの3D画像生成部34Aにおいて処理されて3D画像データが合成され(ステップS28)、記録媒体24Aに記録される(ステップS30)。   An image captured by the sub camera unit 12B is transmitted to the main camera unit 12A (step S32) and received by the main camera unit 12A (step S26). Then, the image captured by the main camera unit 12A and the image captured by the sub camera unit 12B are processed by the 3D image generation unit 34A of the main camera unit 12A to synthesize 3D image data (step S28), and the recording medium 24A is recorded (step S30).

一方、ステップS34において、カメラユニット12Aの動作モードが単眼モードに設定されている場合には、各カメラユニット12A及び12Bの撮像部(それぞれ28A及び28B)が独立して(別々に)制御可能に設定される(ステップS38)。ステップS38では、例えば、そしてシャッタボタン42Aが全押しされると、メインカメラユニット12Aの撮像部28Aによって画像が撮像され(ステップS40)、記録媒体24Aに記録される(ステップS42)。   On the other hand, in step S34, when the operation mode of the camera unit 12A is set to the monocular mode, the imaging units (28A and 28B) of the camera units 12A and 12B can be controlled independently (separately). It is set (step S38). In step S38, for example, when the shutter button 42A is fully pressed, an image is captured by the imaging unit 28A of the main camera unit 12A (step S40) and recorded on the recording medium 24A (step S42).

本実施形態によれば、カメラユニット12A及び12Bを連結することにより一体型複眼カメラとして使用可能にするとともに、無線通信を用いることにより分離型複眼カメラとしても使用することができる。これにより、一体型複眼カメラの携帯性の利点と、分離型複眼カメラの立体感がよい画像を撮像することができるという利点の両方の利点を得ることができ、画像の撮像を容易に行うことができる。   According to the present embodiment, the camera units 12A and 12B can be connected to be used as an integrated compound eye camera, and can also be used as a separate compound eye camera by using wireless communication. As a result, it is possible to obtain both the advantages of portability of the integrated compound-eye camera and the advantage of being able to capture an image with a good stereoscopic effect of the separate compound-eye camera, and to easily capture the image. Can do.

なお、本実施形態では、カメラユニットを2つとしたが、3つ以上のカメラユニットにより視差画像を撮像できるようにしてもよい。   In the present embodiment, two camera units are used. However, a parallax image may be captured by three or more camera units.

本発明の一実施形態に係る撮像装置の主要構成を示すブロック図1 is a block diagram illustrating a main configuration of an imaging apparatus according to an embodiment of the present invention. コネクタ38及び40を介してカメラユニット12A及び12Bを連結した状態を示す斜視図The perspective view which shows the state which connected camera unit 12A and 12B via the connectors 38 and 40. FIG. カメラユニット12A及び12Bの相対位置の測定処理を説明するための図The figure for demonstrating the measurement process of the relative position of camera unit 12A and 12B 撮像アシストモード時における撮像装置10の動作を説明するための図The figure for demonstrating operation | movement of the imaging device 10 at the time of imaging assistance mode 撮像アシストモードの第2の実施例を説明するための図The figure for demonstrating the 2nd Example of imaging assistance mode 撮像アシストモードの第3の実施例を説明するための図The figure for demonstrating the 3rd Example of imaging assistance mode 画像の撮像時における撮像装置10の処理を示すフローチャートThe flowchart which shows the process of the imaging device 10 at the time of imaging of an image

符号の説明Explanation of symbols

10…撮像装置、12…カメラユニット、14…CPU、16…操作部、18…撮像モード設定スイッチ(撮像モード設定SW)、20…メイン/サブ切替スイッチ(メイン/サブ切替SW)、22…表示部、24…記録媒体、28…撮像部、30…信号処理部、32…相対位置検出部、34…3D画像生成部、36…通信部、38、40…コネクタ、42…シャッタボタン   DESCRIPTION OF SYMBOLS 10 ... Imaging device, 12 ... Camera unit, 14 ... CPU, 16 ... Operation part, 18 ... Imaging mode setting switch (imaging mode setting SW), 20 ... Main / sub changeover switch (main / sub changeover SW), 22 ... Display , 24 ... recording medium, 28 ... imaging unit, 30 ... signal processing unit, 32 ... relative position detection unit, 34 ... 3D image generation unit, 36 ... communication unit, 38, 40 ... connector, 42 ... shutter button

Claims (11)

メインカメラユニットと、1以上のサブカメラユニットを含む複数のカメラユニットを備えており、
前記メインカメラユニットは、
画像を撮像するための第1の撮像手段と、
前記撮像手段によって撮像された画像を記録する第1の記録手段と、
前記サブカメラユニットを一体的に連結するための第1の連結手段と、
前記第1の連結手段を介して前記サブカメラユニットが連結されているかどうかを検出する第1の連結状態検出手段と、
前記第1の連結手段を介して前記サブカメラユニットが接続されていない場合に、前記サブカメラユニットと通信するための第1の通信手段と、
前記メインカメラユニットにより2次元画像を撮像するための単眼モードと、前記メインカメラユニット及びサブカメラユニットにより複数視点から被写体を撮像して視差画像を取得するための複眼モードとの間で撮像モードを切り替える第1の撮像モード切替手段と、
前記メインカメラユニットの撮像モードが複眼モードに切り替えられた場合に、前記サブカメラユニットとの相対位置を検出する相対位置検出手段と、
前記相対位置検出手段によって検出された相対位置に基づいてキャリブレーションを行うキャリブレーション手段と、
前記第1の撮像手段に画像の撮像指示を入力するための撮像指示手段と、
前記複眼モード時に前記撮像指示が入力された場合に、前記サブカメラユニットに設けられた第2の撮像手段に撮像指示信号を送信して、前記第1及び第2の撮像手段と同期して撮像を実行させる第1の撮像制御手段と、
前記撮像指示信号に応じて前記第2の撮像手段によって撮像された第2の画像を受信する受信手段と、
前記複眼モード時に前記第1の撮像手段によって撮像した第1の画像と前記第2の画像とを用いて3次元画像を生成する3次元画像生成手段とを備え、
前記サブカメラユニットは、
画像を撮像するための第2の撮像手段と、
前記撮像手段によって撮像された画像を記録する第2の記録手段と、
前記メインカメラユニットに設けられた第1の連結手段を介して前記メインカメラユニットと一体的に連結するための第2の連結手段と、
前記第2の連結手段を介して前記メインカメラユニットが連結されているかどうかを検出する連結状態検出手段と、
前記第2の連結手段を介して前記メインカメラユニットが接続されていない場合に、前記メインカメラユニットに設けられた第1の通信手段を介して前記メインカメラユニットと通信するための第2の通信手段と、
前記サブカメラユニットにより2次元画像を撮像するための単眼モードと、前記メインカメラユニット及びサブカメラユニットにより複数視点から被写体を撮像して視差画像を取得するための複眼モードとの間で撮像モードを切り替える第2の撮像モード切替手段と、
前記複眼モード時に前記メインカメラユニットからの撮像指示信号に応じて前記第2の撮像手段により撮像を実行する第2の撮像制御手段と、
前記複眼モード時に前記第2の撮像手段によって撮像された画像を前記メインカメラユニットに送信する送信手段と、
を備えることを特徴とする撮像装置。
A plurality of camera units including a main camera unit and one or more sub camera units are provided.
The main camera unit is
First imaging means for capturing an image;
First recording means for recording an image picked up by the image pickup means;
First connecting means for integrally connecting the sub camera units;
First connection state detection means for detecting whether or not the sub camera unit is connected via the first connection means;
First communication means for communicating with the sub camera unit when the sub camera unit is not connected via the first coupling means;
An imaging mode between a monocular mode for capturing a two-dimensional image by the main camera unit and a compound eye mode for acquiring a parallax image by capturing an object from a plurality of viewpoints by the main camera unit and sub camera unit First imaging mode switching means for switching;
When the imaging mode of the main camera unit is switched to the compound eye mode, a relative position detecting means for detecting a relative position with respect to the sub camera unit;
Calibration means for performing calibration based on the relative position detected by the relative position detection means;
An imaging instruction means for inputting an imaging instruction of an image to the first imaging means;
When the imaging instruction is input in the compound eye mode, an imaging instruction signal is transmitted to the second imaging unit provided in the sub camera unit, and imaging is performed in synchronization with the first and second imaging units. First imaging control means for executing
Receiving means for receiving a second image imaged by the second imaging means in response to the imaging instruction signal;
Three-dimensional image generation means for generating a three-dimensional image using the first image and the second image captured by the first imaging means in the compound eye mode;
The sub camera unit is
A second imaging means for capturing an image;
Second recording means for recording an image picked up by the image pickup means;
Second connection means for connecting integrally with the main camera unit via first connection means provided in the main camera unit;
A connection state detection means for detecting whether or not the main camera unit is connected via the second connection means;
Second communication for communicating with the main camera unit via first communication means provided in the main camera unit when the main camera unit is not connected via the second connecting means Means,
An imaging mode between a monocular mode for capturing a two-dimensional image by the sub camera unit and a compound eye mode for acquiring a parallax image by capturing a subject from a plurality of viewpoints by the main camera unit and the sub camera unit. Second imaging mode switching means for switching;
Second imaging control means for performing imaging by the second imaging means in response to an imaging instruction signal from the main camera unit in the compound eye mode;
Transmitting means for transmitting an image captured by the second imaging means to the main camera unit in the compound eye mode;
An imaging apparatus comprising:
前記メインカメラユニットは、前記サブカメラユニットと連結されたときにおける前記第1及び第2の撮像手段の相対位置に関する情報を記録する相対位置記録手段を更に備え、
前記相対位置検出手段は、前記メインカメラユニットと前記サブカメラユニットとが連結されたときに、前記相対位置記録手段から前記第1及び第2の撮像手段の相対位置に関する情報を取得することを特徴とする請求項1記載の撮像装置。
The main camera unit further includes a relative position recording unit that records information about a relative position of the first and second imaging units when connected to the sub camera unit.
The relative position detection means acquires information on the relative positions of the first and second imaging means from the relative position recording means when the main camera unit and the sub camera unit are connected. The imaging apparatus according to claim 1.
前記相対位置検出手段は、前記サブカメラユニットに位置検出信号を発信して、前記サブカメラユニットとの相対位置を検出することを特徴とする請求項1又は2記載の撮像装置。   The imaging apparatus according to claim 1, wherein the relative position detection unit transmits a position detection signal to the sub camera unit to detect a relative position with respect to the sub camera unit. 前記メインカメラユニットは、前記第1の撮像手段によって撮像された画像を表示する第1の表示手段を備え、
前記サブカメラユニットは、
前記第2の撮像手段によって撮像された画像を表示する第2の表示手段と、
前記メインカメラユニットと前記サブカメラユニットとが連結され、且つ、前記撮像モードが単眼モードに設定された場合に、第2の撮像手段を前記第1の撮像手段と独立して制御するための制御手段を更に備えることを特徴とする請求項1から3のいずれか1項記載の撮像装置。
The main camera unit includes first display means for displaying an image picked up by the first image pickup means,
The sub camera unit is
Second display means for displaying an image picked up by the second image pickup means;
Control for controlling the second imaging unit independently of the first imaging unit when the main camera unit and the sub camera unit are connected and the imaging mode is set to the monocular mode. The imaging apparatus according to claim 1, further comprising means.
前記第1及び第2の撮像手段は、それぞれズームレンズを備えており、
前記制御手段は、前記メインカメラユニットと前記サブカメラユニットとが連結され、且つ、前記撮像モードが単眼モードに設定された場合に、前記第2の撮像手段のズームレンズを前記第1の撮像手段のズームレンズよりもワイド側に移動させることを特徴とする請求項4記載の撮像装置。
Each of the first and second imaging means includes a zoom lens,
When the main camera unit and the sub camera unit are connected and the imaging mode is set to a monocular mode, the control unit controls the zoom lens of the second imaging unit to the first imaging unit. The image pickup apparatus according to claim 4, wherein the image pickup apparatus is moved to the wide side of the zoom lens.
前記メインカメラユニット又はサブカメラユニットは、前記メインカメラユニットと前記サブカメラユニットとが連結され、且つ、前記撮像モードが単眼モードに設定された場合に、前記第2の撮像手段によって撮像された画像を解析する構図解析手段を更に備え、
前記第2の表示手段は、前記構図の解析結果に基づいて、最適な構図を示す情報を表示することを特徴とする請求項5記載の撮像装置。
The main camera unit or the sub camera unit is an image captured by the second imaging unit when the main camera unit and the sub camera unit are connected and the imaging mode is set to a monocular mode. Further comprising a composition analysis means for analyzing
The imaging apparatus according to claim 5, wherein the second display unit displays information indicating an optimum composition based on an analysis result of the composition.
前記第2の表示手段は、前記最適な構図を示す枠を前記第2の表示手段によって撮像された画像に重ねて表示することを特徴とする請求項6記載の撮像装置。   The image pickup apparatus according to claim 6, wherein the second display unit displays a frame indicating the optimum composition so as to overlap the image picked up by the second display unit. 前記メインカメラユニット又はサブカメラユニットは、前記第1の撮像手段によって撮像可能な視野範囲を前記最適な構図に一致させるときに前記撮像装置を移動させる移動方向を算出する移動方向算出手段を更に備え、
前記第1の表示手段は、前記移動方向算出手段によって算出された移動方向を前記第1の撮像手段によって撮像された画像とともに表示することを特徴とする請求項6又は7記載の撮像装置。
The main camera unit or the sub camera unit further includes a moving direction calculating unit that calculates a moving direction in which the imaging device is moved when the visual field range that can be imaged by the first imaging unit matches the optimal composition. ,
The imaging apparatus according to claim 6 or 7, wherein the first display means displays the movement direction calculated by the movement direction calculation means together with an image captured by the first imaging means.
前記メインカメラユニット又はサブカメラユニットは、
前記第1の撮像手段によって撮像された画像の構図を評価する構図評価手段と、
前記構図の評価結果を出力する構図評価出力手段と、
を更に備えることを特徴とする請求項6から8のいずれか1項記載の撮像装置。
The main camera unit or sub camera unit is
Composition evaluation means for evaluating the composition of an image captured by the first imaging means;
Composition evaluation output means for outputting an evaluation result of the composition;
The imaging apparatus according to claim 6, further comprising:
前記構図評価出力手段は、前記構図評価結果を数値、図形又は音声の少なくとも1つの手段により出力することを特徴とする請求項9記載の撮像装置。   The imaging apparatus according to claim 9, wherein the composition evaluation output unit outputs the composition evaluation result by at least one of a numerical value, a graphic, and a sound. 複数のカメラユニットの中からメインカメラユニットとして使用するカメラユニットを指定する指定手段を更に備えることを特徴とする請求項1から10のいずれか1項記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a designation unit that designates a camera unit to be used as a main camera unit from a plurality of camera units.
JP2007262503A 2007-10-05 2007-10-05 Imaging apparatus Pending JP2009094724A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007262503A JP2009094724A (en) 2007-10-05 2007-10-05 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007262503A JP2009094724A (en) 2007-10-05 2007-10-05 Imaging apparatus

Publications (1)

Publication Number Publication Date
JP2009094724A true JP2009094724A (en) 2009-04-30

Family

ID=40666253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007262503A Pending JP2009094724A (en) 2007-10-05 2007-10-05 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2009094724A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110096142A1 (en) * 2009-10-22 2011-04-28 Olympus Corporation Imaging device, imaging method, and imaging system
JP2012027380A (en) * 2010-07-27 2012-02-09 Canon Inc Lens apparatus
JP2012213039A (en) * 2011-03-31 2012-11-01 Canon Inc Lens device and imaging system including the same
JP2012227720A (en) * 2011-04-19 2012-11-15 Sanyo Electric Co Ltd Complexed camera device
WO2012164858A1 (en) * 2011-06-03 2012-12-06 Sony Corporation Stereoscopic video imaging system and synchronous control method
JP2012244434A (en) * 2011-05-19 2012-12-10 Fujitsu Ltd Portable communication device and composite image generation program
JP2013005275A (en) * 2011-06-17 2013-01-07 Sony Corp Imaging control apparatus and imaging control method
JP2013026880A (en) * 2011-07-22 2013-02-04 Sony Corp Stereoscopic image capturing system, recording control method, stereoscopic image reproduction system, and reproduction control method
JP2013520927A (en) * 2010-04-01 2013-06-06 キャメロン ジェームズ Frame-linked 2D / 3D camera system
WO2013111415A1 (en) * 2012-01-26 2013-08-01 ソニー株式会社 Image processing apparatus and image processing method
JP5315480B2 (en) * 2011-03-25 2013-10-16 富士フイルム株式会社 Lens control device and lens control method
EP2819409A4 (en) * 2012-02-23 2015-09-30 Nec Corp Terminal device, image capture system, and image capture method
US9225947B2 (en) 2011-12-16 2015-12-29 Samsung Electronics Co., Ltd. Image pickup apparatus, method of providing composition of image pickup and computer-readable recording medium
WO2017043078A1 (en) * 2015-09-10 2017-03-16 日本電気株式会社 Distance estimation device, system, distance estimation method, and recording medium

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110096142A1 (en) * 2009-10-22 2011-04-28 Olympus Corporation Imaging device, imaging method, and imaging system
US8581960B2 (en) 2009-10-22 2013-11-12 Olympus Corporation Imaging device, imaging method, and imaging system
JP2013520927A (en) * 2010-04-01 2013-06-06 キャメロン ジェームズ Frame-linked 2D / 3D camera system
JP2012027380A (en) * 2010-07-27 2012-02-09 Canon Inc Lens apparatus
JP5315480B2 (en) * 2011-03-25 2013-10-16 富士フイルム株式会社 Lens control device and lens control method
JP2012213039A (en) * 2011-03-31 2012-11-01 Canon Inc Lens device and imaging system including the same
US8947541B2 (en) 2011-03-31 2015-02-03 Canon Kabushiki Kaisha Lens apparatus controllable via multiple control sources and image pickup system including the lens apparatus
JP2012227720A (en) * 2011-04-19 2012-11-15 Sanyo Electric Co Ltd Complexed camera device
JP2012244434A (en) * 2011-05-19 2012-12-10 Fujitsu Ltd Portable communication device and composite image generation program
JP2012253599A (en) * 2011-06-03 2012-12-20 Sony Corp Stereoscopic video imaging system and synchronous control method
CN103782594A (en) * 2011-06-03 2014-05-07 索尼公司 Stereoscopic video imaging system and synchronous control method
US9967548B2 (en) 2011-06-03 2018-05-08 Sony Corporation Stereoscopic video imaging system and synchronous control method
WO2012164858A1 (en) * 2011-06-03 2012-12-06 Sony Corporation Stereoscopic video imaging system and synchronous control method
US20140085419A1 (en) * 2011-06-03 2014-03-27 Sony Corporation Stereoscopic video imaging system and synchronous control method
US9325970B2 (en) 2011-06-17 2016-04-26 Sony Corporation Imaging control device and imaging control method
JP2013005275A (en) * 2011-06-17 2013-01-07 Sony Corp Imaging control apparatus and imaging control method
JP2013026880A (en) * 2011-07-22 2013-02-04 Sony Corp Stereoscopic image capturing system, recording control method, stereoscopic image reproduction system, and reproduction control method
US9225947B2 (en) 2011-12-16 2015-12-29 Samsung Electronics Co., Ltd. Image pickup apparatus, method of providing composition of image pickup and computer-readable recording medium
JPWO2013111415A1 (en) * 2012-01-26 2015-05-11 ソニー株式会社 Image processing apparatus and image processing method
WO2013111415A1 (en) * 2012-01-26 2013-08-01 ソニー株式会社 Image processing apparatus and image processing method
US9826170B2 (en) 2012-01-26 2017-11-21 Sony Corporation Image processing of captured three-dimensional images
EP2819409A4 (en) * 2012-02-23 2015-09-30 Nec Corp Terminal device, image capture system, and image capture method
US9762891B2 (en) 2012-02-23 2017-09-12 Nec Corporation Terminal device, image shooting system and image shooting method
WO2017043078A1 (en) * 2015-09-10 2017-03-16 日本電気株式会社 Distance estimation device, system, distance estimation method, and recording medium
JPWO2017043078A1 (en) * 2015-09-10 2018-06-28 日本電気株式会社 Distance estimation apparatus, system, distance estimation method, and computer program

Similar Documents

Publication Publication Date Title
JP2009094724A (en) Imaging apparatus
EP2590023B1 (en) Imaging device and imaging method
JP4939901B2 (en) Distance image generation method and apparatus
JP5595499B2 (en) Monocular stereoscopic imaging device
JP4533735B2 (en) Stereo imaging device
JP5096048B2 (en) Imaging apparatus, stereoscopic image reproduction apparatus, and stereoscopic image reproduction program
JP5371845B2 (en) Imaging apparatus, display control method thereof, and three-dimensional information acquisition apparatus
US8823778B2 (en) Imaging device and imaging method
JP4763827B2 (en) Stereoscopic image display device, compound eye imaging device, and stereoscopic image display program
JP5231771B2 (en) Stereo imaging device
JP2010230879A (en) Double eye camera device
JP2011075675A (en) Compound-eye imaging apparatus
US9838667B2 (en) Image pickup apparatus, image pickup method, and non-transitory computer-readable medium
JP2011101240A (en) Stereoscopic photographing device and photographing control method
JP2011087128A (en) Pantoscopic camera and method for discrimination of object
JP2006162991A (en) Stereoscopic image photographing apparatus
JPWO2014046184A1 (en) Apparatus and method for measuring distance of multiple subjects
JP2010206643A (en) Image capturing apparatus and method, and program
JP2010226362A (en) Imaging apparatus and control method thereof
US20130100251A1 (en) Image capturing device and image capturing method
JP5322817B2 (en) 3D image pickup apparatus and 3D image display method
JP5611469B2 (en) Stereoscopic imaging apparatus and method
JP2010114577A (en) Imaging apparatus, image processor, control method and image processing method of imaging apparatus
JP5366693B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND COMPUTER PROGRAM
JP2007248698A (en) Method and apparatus for imaging