JP2012239134A - Electronic apparatus - Google Patents

Electronic apparatus Download PDF

Info

Publication number
JP2012239134A
JP2012239134A JP2011108388A JP2011108388A JP2012239134A JP 2012239134 A JP2012239134 A JP 2012239134A JP 2011108388 A JP2011108388 A JP 2011108388A JP 2011108388 A JP2011108388 A JP 2011108388A JP 2012239134 A JP2012239134 A JP 2012239134A
Authority
JP
Japan
Prior art keywords
camera
imaging device
image
cpu
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011108388A
Other languages
Japanese (ja)
Inventor
Kanetaka Shinoda
兼崇 篠田
Hideki Sasao
英樹 笹尾
Naoki Sekiguchi
直樹 關口
Takanori Komatsu
崇徳 小松
Masaichi Sekiguchi
政一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011108388A priority Critical patent/JP2012239134A/en
Publication of JP2012239134A publication Critical patent/JP2012239134A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus that is more convenient in photographing an image in a state where two imaging apparatuses are connected.SOLUTION: An electronic apparatus comprises: a recording device for recording an image captured by a first imaging apparatus in a storage medium; a detection unit; and a control unit. The detection unit detects that a second imaging apparatus attachable/detachable to/from the first imaging apparatus and capable of capturing video is mounted on the first imaging apparatus. The control unit causes video captured by the second imaging apparatus to be stored in the storage medium when the second imaging apparatus is mounted on the first imaging apparatus.

Description

本発明は、電子機器に関する。   The present invention relates to an electronic device.

従来から、着脱可能な2つの撮像機器を用いて立体画像やパノラマ画像を撮影する撮像装置が提案されている。   2. Description of the Related Art Conventionally, an imaging device that captures a stereoscopic image or a panoramic image using two detachable imaging devices has been proposed.

特開平11−355624号公報JP-A-11-355624

従来の撮像装置では、2つの撮像機器が接続された状態で動画像を撮影するときに、各撮像機器を如何に動作させるかについては提案されていない。   In the conventional imaging apparatus, it has not been proposed how to operate each imaging device when capturing a moving image in a state where two imaging devices are connected.

上記事情に鑑み、2つの撮像機器が接続された状態で画像を撮影するときに、より利便性の高い電子機器を提供する。   In view of the above circumstances, an electronic device with higher convenience is provided when an image is taken with two imaging devices connected.

本発明を例示する電子機器の一態様は、第1撮像機器で撮像された画像を記憶媒体に記録する記録装置と、検出部と、制御部とを備える。検出部は、第1撮像機器に着脱可能で動画を撮像可能な第2撮像機器が、第1撮像機器に装着されていることを検出する。制御部は、第1撮像機器に第2撮像機器が装着されているときに、第2撮像機器で撮像した動画を記憶媒体に記憶させる。   One aspect of an electronic device illustrating the present invention includes a recording device that records an image captured by a first imaging device on a storage medium, a detection unit, and a control unit. The detection unit detects that a second imaging device that can be attached to and detached from the first imaging device and can capture a moving image is attached to the first imaging device. The control unit stores the moving image captured by the second imaging device in the storage medium when the second imaging device is attached to the first imaging device.

本発明を例示する電子機器の他の態様は、検出部と、制御部とを備える。検出部は、第1撮像機器に着脱可能な第2撮像機器が、第1撮像機器に装着されていることを検出する。制御部は、第1撮像機器に第2撮像機器が装着されているときに、第2撮像機器で取得した被写体の情報を用いて、第1撮像機器で画像を撮像するときの焦点位置を調整する。   Another aspect of the electronic device exemplifying the present invention includes a detection unit and a control unit. The detection unit detects that a second imaging device that is detachable from the first imaging device is attached to the first imaging device. The control unit adjusts a focal position when an image is captured by the first imaging device, using information on the subject acquired by the second imaging device when the second imaging device is attached to the first imaging device. To do.

2つの撮像機器が接続された状態で画像を撮影するときに、より利便性の高い電子機器を提供できる。   When taking an image with two imaging devices connected, it is possible to provide a more convenient electronic device.

本実施形態の一例のカメラシステムを示す斜視図である。It is a perspective view which shows the camera system of an example of this embodiment. メインカメラを示す背面図である。It is a rear view which shows a main camera. サブカメラを示す背面図である。It is a rear view which shows a sub camera. サブカメラを示す背面側斜視図である。It is a back side perspective view showing a sub camera. サブカメラに設けた接続部を示す斜視図である。It is a perspective view which shows the connection part provided in the sub camera. 互いの光軸が交差するように互いのカメラを回転する様子を示す平面図である。It is a top view which shows a mode that a mutual camera is rotated so that a mutual optical axis may cross | intersect. 互いの光軸が上下方に振られるように互いのカメラを回転する様子を示す右側面図である。It is a right view which shows a mode that a mutual camera is rotated so that a mutual optical axis may be swung up and down. 互いの光軸を平行にして接続した時にサブカメラの底面に隙間が生じる様子を示す正面図である。It is a front view which shows a mode that a clearance gap produces on the bottom face of a subcamera when it connects so that a mutual optical axis may be parallel. 接続部を互いのカメラにそれぞれ接続するようにした他の実施形態を示す要部斜視図である。It is a principal part perspective view which shows other embodiment which was made to connect a connection part to a mutual camera, respectively. カメラシステムのメインカメラ11及びサブカメラ12の構成を示すブロック図である。It is a block diagram which shows the structure of the main camera 11 and the sub camera 12 of a camera system. CPUの構成を示すブロック図である。It is a block diagram which shows the structure of CPU. カメラシステムによる照明撮影の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of illumination photography by a camera system. カメラシステムによるAF制御の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of AF control by a camera system. 撮影レンズのレンズ位置に応じた駆動方向を示す図である。It is a figure which shows the drive direction according to the lens position of an imaging lens. カメラシステムによる動画撮影の一例を示すフローチャートである。It is a flowchart which shows an example of the moving image photography by a camera system. メインカメラとサブカメラとの撮像タイミングの一例を示す図である。It is a figure which shows an example of the imaging timing with a main camera and a subcamera. メインカメラとサブカメラとの撮像タイミングの一例を示す図である。It is a figure which shows an example of the imaging timing with a main camera and a subcamera. カメラシステムによる動画撮影の一例を示すフローチャートである。It is a flowchart which shows an example of the moving image photography by a camera system. メインカメラとサブカメラとの撮像タイミングの一例を示す図である。It is a figure which shows an example of the imaging timing with a main camera and a subcamera.

本発明の一実施の形態によるカメラシステム10は、図1に示すように、メインの電子カメラ(以下、「メインカメラ」と称す)11と、サブの電子カメラ(以下、「サブカメラ」と称す)12とで構成されている。メインカメラ11とサブカメラ12とは、それぞれ単独で静止画や動画を撮影することができる。   As shown in FIG. 1, a camera system 10 according to an embodiment of the present invention includes a main electronic camera (hereinafter referred to as “main camera”) 11 and a sub electronic camera (hereinafter referred to as “sub camera”). ) 12. The main camera 11 and the sub camera 12 can each shoot a still image or a moving image.

サブカメラ12には、左側面(マイナスY側)に接続部13が取り付けられている。接続部13は、先端に雄コネクタ14が設けられており、雄コネクタ14は、メインカメラ11の右側面に設けた雌コネクタ15に物理的かつ電気的に接続される。サブカメラ12は、接続部13を介してメインカメラ11に対して着脱自在に取り付けられる。本実施形態においては、接続部13は、メインカメラ11をサブカメラ12に接続した状態を物理的に保持し、この状態で撮影動作が行われる。   The sub camera 12 has a connection portion 13 attached to the left side surface (minus Y side). The connection portion 13 is provided with a male connector 14 at the tip, and the male connector 14 is physically and electrically connected to a female connector 15 provided on the right side surface of the main camera 11. The sub camera 12 is detachably attached to the main camera 11 via the connection unit 13. In the present embodiment, the connection unit 13 physically holds the state in which the main camera 11 is connected to the sub camera 12, and the photographing operation is performed in this state.

メインカメラ11は、正面に撮影レンズ16、ステレオマイクロフォン17、及び照明窓18が、また、上面には、レリーズボタン19、及び電源スイッチ20がそれぞれ設けられている。ステレオマイクロフォン17は、右チャンネル用のマイクロフォン(以下、「マイク」と称す)17aと、左チャンネル用のマイク17bとで構成されている。   The main camera 11 is provided with a photographic lens 16, a stereo microphone 17, and an illumination window 18 on the front, and a release button 19 and a power switch 20 on the top. The stereo microphone 17 includes a right channel microphone (hereinafter referred to as “microphone”) 17a and a left channel microphone 17b.

ステレオマイク17は、撮影レンズ16を挟んだ両側にそれぞれ配されており、一方のマイク17aは、他方のマイク17bよりも雌コネクタ15から離れた位置に配されている。つまり他方のマイク17bは、雌コネクタ15に近く、かつサブカメラ12に近い位置に配されている。   The stereo microphones 17 are respectively disposed on both sides of the photographing lens 16, and one microphone 17a is disposed at a position farther from the female connector 15 than the other microphone 17b. That is, the other microphone 17 b is arranged at a position near the female connector 15 and near the sub camera 12.

サブカメラ12には、正面に撮影レンズ21、ステレオマイク22、及び照明窓23が、上面には、レリーズボタン24、及び電源スイッチ25がそれぞれ設けられている。ステレオマイク22は、右チャンネル用のマイク22aと、左チャンネル用のマイク22bとで構成されている。   The sub camera 12 is provided with a photographic lens 21, a stereo microphone 22, and an illumination window 23 on the front, and a release button 24 and a power switch 25 on the top. The stereo microphone 22 includes a right channel microphone 22a and a left channel microphone 22b.

ステレオマイク22a,22bは、撮影レンズ16を挟んだ両側にそれぞれ配されている。マイク22aは、撮影レンズ21を挟んで接続部13側に配されており、マイク22bは、接続部13から離れる位置に配されている。   Stereo microphones 22a and 22b are arranged on both sides of the photographing lens 16, respectively. The microphone 22 a is disposed on the connection unit 13 side with the photographing lens 21 interposed therebetween, and the microphone 22 b is disposed at a position away from the connection unit 13.

メインカメラ11のステレオマイク17は、被写界の音声を集音するものであり、不図示の音声回路を介して後述のCPU117に接続されている。メインカメラ11とサブカメラ12とを接続した時には、4つのマイク17a,17b,22a,22bの全てを用いて集音を行って4チャンネルマイクとすることもできる。   The stereo microphone 17 of the main camera 11 collects the sound of the object scene and is connected to a CPU 117 (described later) via an audio circuit (not shown). When the main camera 11 and the sub camera 12 are connected, sound can be collected using all of the four microphones 17a, 17b, 22a, and 22b to form a four-channel microphone.

また、メインカメラ11とサブカメラ12とを接続した時には、接続部13から離れた位置に配されている2つのマイク17a,22bで集音してもよい。この場合、接続部13に近いマイク17b,22aとの少なくとも一方の近傍にスピーカを設け、マイク17b,22aとで集音した音と逆位相の音をスピーカから出力すれば、撮影レンズ16,21を駆動する時の機械部品の騒音(ノイズ)を打ち消す(キャンセルする)ことができる。   Further, when the main camera 11 and the sub camera 12 are connected, sound may be collected by the two microphones 17a and 22b arranged at positions away from the connection unit 13. In this case, if a speaker is provided in the vicinity of at least one of the microphones 17b and 22a close to the connection unit 13 and a sound having a phase opposite to that collected by the microphones 17b and 22a is output from the speaker, the photographing lenses 16 and 21 are provided. It is possible to cancel (cancel) the noise of the machine parts when driving the motor.

撮影レンズ16は、ズームレンズやフォーカスレンズを含む複数のレンズ群で構成され、被写体像を後述の撮像素子の撮像面に結像させる。撮影レンズ16のレンズ位置は、メインカメラ11のレンズ駆動部(不図示)によって光軸16a方向(X軸方向)に調整される。サブカメラ12の撮影レンズ21もズームレンズやフォーカスレンズを有しており、撮影レンズ16と同じ構成としてもよく、群構成やレンズ枚数を異ならせるようにしてもよい。   The photographic lens 16 is composed of a plurality of lens groups including a zoom lens and a focus lens, and forms a subject image on an imaging surface of an imaging device described later. The lens position of the photographic lens 16 is adjusted in the direction of the optical axis 16a (X-axis direction) by a lens driving unit (not shown) of the main camera 11. The photographing lens 21 of the sub camera 12 also has a zoom lens and a focus lens, and may have the same configuration as the photographing lens 16 or may have a different group configuration and number of lenses.

照明窓18は、内部に照明装置を有し、照明撮影(照明撮像)を行う時にプリ発光を行って被写体輝度を求め、照明撮影時の発光量をCPU117により演算し、この演算した発光量に基づき本発光を行う。また、サブカメラ12の照明窓の奥にも照明装置が内蔵されている。この照明装置もメインカメラ11の照明装置と同じ構成としてもよく、光源、調光範囲、充電時間、ガイドナンバー等の仕様を異ならせるようにしてもよい。メインカメラ11の照明装置は、サブカメラ12を接続した場合、サブカメラ12の照明装置と協働した照明撮影を行う。なお、照明装置の光源としては、キセノンランプを用いてもよく、また、LEDを用いてもよい。   The illumination window 18 has an illumination device inside, pre-light emission is performed when performing illumination photography (illumination imaging), the subject brightness is obtained, the light emission amount at the time of illumination photography is calculated by the CPU 117, and the calculated light emission amount is obtained. Based on this light emission. A lighting device is also built in the back of the lighting window of the sub camera 12. This illuminating device may have the same configuration as the illuminating device of the main camera 11, and specifications such as a light source, a dimming range, a charging time, and a guide number may be different. When the sub camera 12 is connected, the illumination device of the main camera 11 performs illumination photography in cooperation with the illumination device of the sub camera 12. Note that a xenon lamp or an LED may be used as the light source of the lighting device.

サブカメラ12のレリーズボタン24は、サブカメラ12が単独で使用される場合のものである。サブカメラ12は、メインカメラ11に接続された時には、メインカメラ11側のレリーズボタン19に同期又は連動して撮影を行う。このため、サブカメラ12が常にメインカメラ11に接続して使用される専用のカメラである場合には、レリーズボタン24を省略してもよい。   The release button 24 of the sub camera 12 is used when the sub camera 12 is used alone. When the sub camera 12 is connected to the main camera 11, the sub camera 12 performs shooting in synchronization with or interlocking with the release button 19 on the main camera 11 side. For this reason, when the sub camera 12 is a dedicated camera that is always connected to the main camera 11 and used, the release button 24 may be omitted.

メインカメラ11の背面には、図2に示すように、LCD26、ズームレバー27、及びロータリーマルチセレクター28が設けられている。LCD26は、液晶パネルによって構成され、画像や操作メニュー画面などを表示する。なお、LCD26の表面に透明なタッチパネルを積層して設けてもよい。この場合には、ユーザがLCD26の操作メニューを視認しつつ、タッチパネルをタッチ操作することにより、その座標とその座標に対応して表示された操作メニューを選択することが可能となる。   As shown in FIG. 2, an LCD 26, a zoom lever 27, and a rotary multi selector 28 are provided on the back surface of the main camera 11. The LCD 26 is composed of a liquid crystal panel and displays an image, an operation menu screen, and the like. A transparent touch panel may be laminated on the surface of the LCD 26. In this case, the user can select the coordinates and the operation menu displayed corresponding to the coordinates by touching the touch panel while visually recognizing the operation menu of the LCD 26.

ズームレバー27は、撮影レンズ16の変倍位置を広角端と望遠端との間で調節するものである。ロータリーマルチセレクター28は、外周部28a、回転部28b、及び中央部にあるOKボタン28cを有しており、メニュー画面で表示されている項目や画像を選択する際には、外周部28aの上下部分および左右部分を押す方法と、回転部28bを回転させる方法とがある。OKボタン28cを押すことにより選択した項目や画像の選択を確定することが可能となる。   The zoom lever 27 adjusts the zoom position of the taking lens 16 between the wide-angle end and the telephoto end. The rotary multi-selector 28 has an outer peripheral portion 28a, a rotating portion 28b, and an OK button 28c in the central portion. When selecting items and images displayed on the menu screen, the rotary multi selector 28 There are a method of pushing the part and the left and right parts, and a method of rotating the rotating part 28b. By pressing the OK button 28c, it becomes possible to confirm selection of the selected item or image.

サブカメラ12の背面には、図3に示すように、LCD29が設けられている。LCD29には、スルー画像や再生画像、及びメニュー画面等が表示される。   As shown in FIG. 3, an LCD 29 is provided on the back surface of the sub camera 12. On the LCD 29, a through image, a reproduced image, a menu screen, and the like are displayed.

LCD29には、透明なタッチパネルが積層して設けられており、撮影者がLCD29の操作メニューを視認しつつ、タッチパネルをタッチ操作することにより、その座標とその座標に対応して表示された操作メニューを選択するものである。   The LCD 29 is provided with a transparent touch panel, and when the photographer touches the touch panel while visually checking the operation menu of the LCD 29, the coordinates and the operation menu displayed corresponding to the coordinates are displayed. Is to select.

LCD29を内蔵するLCD板30は、図4に示すように、ヒンジ31によりカメラ本体32に対して開閉自在に設けられている。カメラ本体32には、LCD板30を開くことで視認される内面32aに、接続部13を収容する収容部33が設けられている。   As shown in FIG. 4, the LCD plate 30 incorporating the LCD 29 is provided so as to be openable and closable with respect to the camera body 32 by a hinge 31. The camera main body 32 is provided with an accommodating portion 33 for accommodating the connecting portion 13 on an inner surface 32 a that is visually recognized by opening the LCD plate 30.

接続部13は、カメラ本体32に対して回転可能であり、Z軸方向に沿った第1軸34とY軸方向に沿った第2軸35とを有する。接続部13は、第1軸34を中心に回転することで収容部33に収納される。第1軸34は、図5に示すように、撮影レンズ21の光軸21a(X軸)に対して垂直方向から直交する垂直軸であり、メインカメラ11に接続した状態を平面から見た時に、図6に示すように、光軸21aがメインカメラ11の撮影レンズ16の光軸16aに交差する方向にサブカメラ12を回転させる。なお、第1軸34は、垂直に対してずれた軸でもよい。この場合には、互いの光軸16a,21aが水平面に対して傾斜した面内において交差するように回転させる。   The connection unit 13 is rotatable with respect to the camera body 32 and has a first axis 34 along the Z-axis direction and a second axis 35 along the Y-axis direction. The connecting portion 13 is housed in the housing portion 33 by rotating around the first shaft 34. As shown in FIG. 5, the first axis 34 is a vertical axis perpendicular to the optical axis 21 a (X axis) of the photographing lens 21 from the vertical direction, and when the state connected to the main camera 11 is viewed from a plane. As shown in FIG. 6, the sub camera 12 is rotated in a direction in which the optical axis 21 a intersects the optical axis 16 a of the photographing lens 16 of the main camera 11. The first axis 34 may be an axis shifted from the vertical. In this case, the optical axes 16a and 21a are rotated so as to intersect in a plane inclined with respect to the horizontal plane.

第2軸35は、光軸21aに対して水平方向から直交する水平軸であり、メインカメラ11に接続した状態を右側面から見た時に、図7に示すように、光軸21aが光軸16aに対して旋回するようにサブカメラ12を回転させる。このように、接続部3は、メインカメラ11とサブカメラ12とを水平方向に相対的に開閉する第1軸34と、メインカメラ11とサブカメラ12とを上下方向に相対的に振る第2軸35とから成る2自由度の2軸ヒンジを有する。なお、この2軸ヒンジとボールジョイントを組み合わせてメインカメラ11に対するサブカメラ12の姿勢を2自由度以上で調節できるようにしてもよい。   The second axis 35 is a horizontal axis orthogonal to the optical axis 21a from the horizontal direction. When the state connected to the main camera 11 is viewed from the right side, as shown in FIG. 7, the optical axis 21a is the optical axis. The sub camera 12 is rotated so as to turn with respect to 16a. As described above, the connection unit 3 includes the first shaft 34 that relatively opens and closes the main camera 11 and the sub camera 12 in the horizontal direction, and the second shaft that relatively swings the main camera 11 and the sub camera 12 in the vertical direction. It has a two-degree-of-freedom two-axis hinge composed of a shaft 35. It should be noted that this biaxial hinge and ball joint may be combined so that the attitude of the sub camera 12 relative to the main camera 11 can be adjusted with two or more degrees of freedom.

第1及び第2軸34,35には、所定の回転角毎にクリック感が得られるようになっている。メインカメラ11とサブカメラ12との向き(姿勢)は、クリック感のある場所で軸34,35が各々止まるため、簡便に微調整をすることができる。そして、メインカメラ11とサブカメラ12とは、光軸16aと光軸21aとが平行になる各軸34,35の回転位置が初期位置の状態になる。初期位置の時にも、各軸34,35にクリック感が得られる。なお、軸34,35毎に回転位置を検出する検出器をそれぞれ設けてもよい。検出部から得られる各軸34,35の回転位置の情報は、メインカメラ11、又はサブカメラ12に伝達され、各種の撮影を行う時のパラメータ、例えばステレオ撮影時に互いのカメラ11,12の光軸16a,21aが交差しているか平行になっているかを認識する時のパラメータとして用いる。なお、本実施形態においては、後述する3D撮影や、ハイダイナミック撮影の際には、光軸16a,21aを平行に設定し、パノラマ撮影の際には光軸16a,21aを交差させて撮影を行う。   The first and second shafts 34 and 35 are configured to have a click feeling at every predetermined rotation angle. The directions (postures) of the main camera 11 and the sub camera 12 can be easily finely adjusted because the axes 34 and 35 stop at a place where there is a click feeling. In the main camera 11 and the sub camera 12, the rotation positions of the axes 34 and 35 where the optical axis 16a and the optical axis 21a are parallel are in the initial position. Even at the initial position, a click feeling can be obtained for each of the axes 34 and 35. A detector for detecting the rotational position may be provided for each of the shafts 34 and 35. Information on the rotational positions of the axes 34 and 35 obtained from the detection unit is transmitted to the main camera 11 or the sub camera 12, and parameters for performing various types of shooting, for example, the light of the cameras 11 and 12 of each other during stereo shooting. This is used as a parameter when recognizing whether the axes 16a and 21a intersect or are parallel. In the present embodiment, the optical axes 16a and 21a are set in parallel during 3D photography and high dynamic photography described later, and the optical axes 16a and 21a are crossed during panoramic photography. Do.

ところで、メインカメラ11とサブカメラ12とを接続した時には、メインカメラ11に対してサブカメラ12をX軸方向に対して回転(旋回)する時にサブカメラ12の底面がテーブル等と緩衝しないようにするために、図8に示すように、サブカメラ12の底面とテーブルとの間に隙間Aができるようにするのが好適である。このとき、互いの光軸16a,21aが同じ高さ位置になるように接続部13が設けられている。サブカメラ12は、メインカメラ11よりも高さ(Z軸方向の寸法)が低くなっている。メインカメラ11に対して接続部13のサブカメラ12に対する取付け位置、及びメインカメラ11の雌コネクタ15の位置は、互いの光軸16a,21aが同じ高さ位置(Z軸方向における位置が同じ)において前記隙間Aができるように、それぞれの高さが決められている。なお、互いの光軸16a,21aが高さ方向でずれて接続されていても隙間Aが生じるように構成するのが望ましい。   By the way, when the main camera 11 and the sub camera 12 are connected, when the sub camera 12 is rotated (turned) in the X-axis direction with respect to the main camera 11, the bottom surface of the sub camera 12 is not buffered with the table or the like. Therefore, as shown in FIG. 8, it is preferable to create a gap A between the bottom surface of the sub camera 12 and the table. At this time, the connecting portion 13 is provided so that the optical axes 16a and 21a are at the same height. The sub camera 12 is lower in height (dimension in the Z-axis direction) than the main camera 11. The mounting position of the connecting portion 13 with respect to the sub camera 12 with respect to the main camera 11 and the position of the female connector 15 of the main camera 11 are the same height position (the positions in the Z-axis direction are the same). The heights are determined so that the gap A is formed. It is desirable that the gap A be formed even if the optical axes 16a and 21a are connected with a shift in the height direction.

メインカメラ11は、雌コネクタ15に接続される接続部13とサブカメラ12とを片持ちで支持することができるように、重量がサブカメラ12よりも重く、かつ雄コネクタ14の挿入ストロークが深いため、雌コネクタ15に強い結合力を有している。   The main camera 11 is heavier than the sub camera 12 and has a deep insertion stroke of the male connector 14 so that the connection portion 13 connected to the female connector 15 and the sub camera 12 can be supported in a cantilever manner. Therefore, the female connector 15 has a strong coupling force.

一般的にカメラは、撮影レンズが重いため、撮影レンズを保持するレンズ鏡筒の空間内に重心位置があることが多い。そこで、接続部13の取り付け位置、及び雌コネクタ15の高さ位置(Z軸方向の位置)は、メインカメラ11とサブカメラ12とを初期位置の状態で接続した時に、光軸16aと光軸21aとを結ばれるようにY軸方向に伸びる直線L上に設けるのが好適である。なお、重心が光軸上からずれている場合には、メインカメラ11とサブカメラ12との各重心位置を通る直線上に、接続部13の取り付け位置、及び雌コネクタ15の高さ位置を設ければよい。   In general, a camera has a heavy photographic lens, and therefore there is often a center of gravity position in a space of a lens barrel that holds the photographic lens. Therefore, the attachment position of the connecting portion 13 and the height position (position in the Z-axis direction) of the female connector 15 are the same as the optical axis 16a and the optical axis when the main camera 11 and the sub camera 12 are connected in the initial position. It is preferable to provide on a straight line L extending in the Y-axis direction so as to be connected to 21a. When the center of gravity is deviated from the optical axis, the attachment position of the connecting portion 13 and the height position of the female connector 15 are provided on a straight line passing through the positions of the center of gravity of the main camera 11 and the sub camera 12. Just do it.

接続部13で接続した時の重さの中心になる重心位置がメインカメラ11内になるようにメインカメラ11およびサブカメラ12の寸法や重量を決めることにより、メインカメラ11とサブカメラ12とを接続したときの安定性を確保することができる。   By determining the dimensions and weight of the main camera 11 and the sub camera 12 so that the position of the center of gravity, which is the center of weight when connected by the connection unit 13, is within the main camera 11, the main camera 11 and the sub camera 12 are connected. Stability when connected can be ensured.

ところで、上記実施形態では、接続部13をサブカメラ12に取り付けているが、逆に接続部13をメインカメラ11に取り付けて、サブカメラ12に対して着脱自在に接続するように構成してもよい。この場合には、接続部を収容する収容部をメインカメラ11の背面に設ければよい。   By the way, in the said embodiment, although the connection part 13 is attached to the sub camera 12, conversely, the connection part 13 may be attached to the main camera 11 and configured to be detachably connected to the sub camera 12. Good. In this case, an accommodation portion for accommodating the connection portion may be provided on the back surface of the main camera 11.

また、第1軸34、及び第2軸35の一方を含む接続部13の一部をメインカメラ11に、他方の軸を含む接続部13の他部をサブカメラ12にそれぞれ分離して設けてもよい。この場合は、収容部33をメインカメラ11とサブカメラ12とのそれぞれに設ければよい。   Further, a part of the connecting portion 13 including one of the first shaft 34 and the second shaft 35 is provided separately in the main camera 11, and the other portion of the connecting portion 13 including the other shaft is provided separately in the sub camera 12. Also good. In this case, the accommodation unit 33 may be provided in each of the main camera 11 and the sub camera 12.

収容部33は、サブカメラ12を背面から視たときに、撮影レンズ21を配置した領域にかかる位置に設けられている。なお、収容部33をメインカメラ11に設ける場合にも同様の構成とすることができる。なお、この場合は、収容部33は、メインカメラ11を背面から視たときに、撮影レンズ16を配置した領域にかからない位置に設けるのが望ましい。   The housing portion 33 is provided at a position over the region where the photographing lens 21 is disposed when the sub camera 12 is viewed from the back. It should be noted that the same configuration can be adopted when the housing portion 33 is provided in the main camera 11. In this case, it is desirable that the accommodating portion 33 be provided at a position that does not cover the area where the photographing lens 16 is disposed when the main camera 11 is viewed from the back.

さらに、図9に示すように、メインカメラ11とサブカメラ12とに接続部36をそれぞれ接続するようにしてもよい。この場合には、接続部36の両端に雄コネクタ14,37をそれぞれ設け、サブカメラ12に雄コネクタ37が接続される雌コネクタ38を設ければよい。この場合も、接続部36は、第1及び第2軸39,40を有する。第2軸40は、上下に分かれている。上の第2軸40aは、第1軸39に対してメインカメラ11を回転させる軸であり、下の第2軸40bは、第1軸39に対してサブカメラ12を回転させる軸である。   Further, as shown in FIG. 9, a connection unit 36 may be connected to the main camera 11 and the sub camera 12, respectively. In this case, the male connectors 14 and 37 may be provided at both ends of the connection portion 36, and the female connector 38 to which the male connector 37 is connected to the sub camera 12 may be provided. Also in this case, the connecting portion 36 has first and second shafts 39 and 40. The second shaft 40 is divided into upper and lower parts. The upper second axis 40 a is an axis that rotates the main camera 11 relative to the first axis 39, and the lower second axis 40 b is an axis that rotates the sub camera 12 relative to the first axis 39.

メインカメラ11の撮影レンズ21は、サブカメラ12の撮影レンズ16と同じ構成のものを採用してもよいが、種類の異なるレンズ(単焦点レンズ、望遠レンズ、広角レンズ)とすることによりカメラシステム10での撮影のバリエーションを広げることができる。様々なレンズに対応したサブカメラ12を用意してもよく、撮影レンズ21を交換できるようにしてもよい。   The photographic lens 21 of the main camera 11 may have the same configuration as that of the photographic lens 16 of the sub-camera 12, but by using different types of lenses (single focus lens, telephoto lens, wide-angle lens), the camera system The variation of shooting at 10 can be expanded. The sub camera 12 corresponding to various lenses may be prepared, and the photographing lens 21 may be exchanged.

なお、上記各実施形態では、接続部13に第1及び第2軸34,35を有しているが、さらに、光軸と平行な第3軸の回転軸を設けて、第3軸を中心に互いのカメラ11,12を相対的に回転させてもよいし、互いのカメラ11,12を高さ方向に相対的にずらす軸や機構を設けてもよい。   In each of the above embodiments, the connection portion 13 has the first and second axes 34 and 35. However, a third axis of rotation that is parallel to the optical axis is provided, and the third axis is the center. The cameras 11 and 12 may be rotated relative to each other, or an axis or mechanism for relatively shifting the cameras 11 and 12 in the height direction may be provided.

なお、上記各実施形態では、接続部13を用いてデジタルカメラ11,12同士を接続するカメラシステムとして説明しているが、これに限らず、携帯電話、スマートフォン、及びPDA(personal digital assistant)等のテレビカメラ付きの電子機器同士を接続する電子機器システムにも本実施形態を適用することができるのは言うまでもない。   In each of the above embodiments, the camera system that connects the digital cameras 11 and 12 using the connection unit 13 is described. However, the present invention is not limited to this, and a mobile phone, a smartphone, a PDA (personal digital assistant), and the like. Needless to say, the present embodiment can also be applied to an electronic device system for connecting electronic devices with television cameras.

次に、図10に示すブロック図を参照しつつ、カメラシステム10のメインカメラ11およびサブカメラ12の構成について説明する。なお、本実施形態のメインカメラ11およびサブカメラ12は、撮影モードとして、単写モードと連写モードとを有する静止画モード、動画モード等とともに、例えば、パノラマ画像を生成するパノラマモード、メインカメラ11とサブカメラ12とが接続された場合に立体画像を生成する3Dモードを有するものとする。   Next, the configuration of the main camera 11 and the sub camera 12 of the camera system 10 will be described with reference to the block diagram shown in FIG. Note that the main camera 11 and the sub camera 12 of the present embodiment have, for example, a panorama mode that generates a panoramic image, a main camera, as well as a still image mode and a moving image mode that have a single shooting mode and a continuous shooting mode as shooting modes. 11 and the sub camera 12 have a 3D mode for generating a stereoscopic image when the sub camera 12 is connected.

メインカメラ11は、撮影レンズ16、マイク17a,17b、撮像素子110、AFE111、バッファメモリ112、LCD26、操作部材113、記録インターフェース(I/F)114、画像処理部116、CPU117、電源回路118、照明装置120、バスから構成される。マイク17a、17b、バッファメモリ112、LCD26、操作部材113、記録I/F114、画像処理部116、CPU117、電源回路118、照明装置120は、バスを介して情報伝達可能にそれぞれ接続される。   The main camera 11 includes a photographing lens 16, microphones 17a and 17b, an image sensor 110, an AFE 111, a buffer memory 112, an LCD 26, an operation member 113, a recording interface (I / F) 114, an image processing unit 116, a CPU 117, a power circuit 118, The lighting device 120 includes a bus. The microphones 17a and 17b, the buffer memory 112, the LCD 26, the operation member 113, the recording I / F 114, the image processing unit 116, the CPU 117, the power supply circuit 118, and the lighting device 120 are connected to each other via a bus so as to be able to transmit information.

また、メインカメラ11は、図1に示すように、雌コネクタ15にサブカメラ12の接続部13の雄コネクタ14が挿入された場合、サブカメラ12のインターフェースであるI/F221a〜221dと電気的に接続して制御信号や画像データ等を入出力するI/F121a〜121dを備える。   In addition, as shown in FIG. 1, when the male connector 14 of the connection portion 13 of the sub camera 12 is inserted into the female connector 15, the main camera 11 is electrically connected to the I / Fs 221 a to 221 d that are interfaces of the sub camera 12. And I / Fs 121a to 121d for inputting / outputting control signals and image data.

撮像素子110は、撮影レンズ16を通過した光束によって結像される被写界を撮像するデバイスである。この撮像素子110の出力はAFE111に入力される。なお、本実施形態の撮像素子110は、順次走査方式の固体撮像素子(CCD等)であっても、XYアドレス方式の固体撮像素子(CMOS等)であってもよい。また、撮像素子110のサイズは、35mmフルサイズやAPSサイズ等である。   The image sensor 110 is a device that captures an image of an object scene formed by a light beam that has passed through the photographing lens 16. The output of the image sensor 110 is input to the AFE 111. Note that the image sensor 110 of the present embodiment may be a progressive scan type solid-state image sensor (CCD or the like) or an XY address type solid-state image sensor (CMOS or the like). The size of the image sensor 110 is 35 mm full size, APS size, or the like.

撮像素子110の受光面には、複数の受光素子がマトリックス状に配列されている。撮像素子110の各受光素子には、赤色(R)、緑色(G)、青色(B)のカラーフィルタが公知のベイヤ配列にしたがって配置されている。そのため、撮像素子110の各受光素子は、カラーフィルタでの色分解によってそれぞれの色に対応する画像信号を出力する。これにより、撮像素子110は、カラーの画像を取得できる。   A plurality of light receiving elements are arranged in a matrix on the light receiving surface of the image sensor 110. In each light receiving element of the image sensor 110, red (R), green (G), and blue (B) color filters are arranged according to a known Bayer array. Therefore, each light receiving element of the image sensor 110 outputs an image signal corresponding to each color by color separation with a color filter. Thereby, the image sensor 110 can acquire a color image.

ここで、メインカメラ11の撮影モードにおいて、撮像素子110は、操作部材113を構成するレリーズボタン19の全押し操作に応答して記録画像(本画像)を撮像する。なお、サブカメラ12と接続される場合、撮像素子110は、サブカメラ12のレリーズボタン24の全押し操作に応答して本画像を撮像してもよい。また、撮影モードでの撮像素子110は、撮影待機時に所定の時間間隔(例えば、30fps等)ごとに構図確認用の低解像度画像(スルー画像)を撮像する。このスルー画像のデータは、撮像素子110から間引き読み出しで出力される。なお、スルー画像のデータは、LCD26での画像表示や、CPU117による各種の演算処理等に使用される。   Here, in the shooting mode of the main camera 11, the image sensor 110 captures a recorded image (main image) in response to a full press operation of the release button 19 constituting the operation member 113. When connected to the sub camera 12, the image sensor 110 may capture the main image in response to a full pressing operation of the release button 24 of the sub camera 12. Further, the imaging element 110 in the imaging mode captures a low-resolution image (through image) for composition confirmation at a predetermined time interval (for example, 30 fps) during imaging standby. The through image data is output from the image sensor 110 by thinning out readout. The through image data is used for image display on the LCD 26, various arithmetic processes by the CPU 117, and the like.

AFE111は、撮像素子110の出力に対してアナログ信号処理を施すアナログフロントエンド回路である。このAFE111は、相関二重サンプリング、画像信号のゲインの調整、画像信号のA/D変換を行う。AFE111の出力は、バスを介してバッファメモリ112に接続される。なお、本実施形態では、撮像部として撮像素子110とAFE111と有している。   The AFE 111 is an analog front end circuit that performs analog signal processing on the output of the image sensor 110. The AFE 111 performs correlated double sampling, image signal gain adjustment, and image signal A / D conversion. The output of the AFE 111 is connected to the buffer memory 112 via a bus. In the present embodiment, the imaging device 110 and the AFE 111 are provided as the imaging unit.

バッファメモリ112は、メインカメラ11の撮像素子110やサブカメラ12の撮像素子210によって撮像された画像データを一時的に記憶したり、CPU117のワークメモリとして用いられたりする。また、バッファメモリ112は、画像処理部116による画像処理の前工程や後工程での画像データを一時的に記憶する。バッファメモリ112には、揮発性の半導体メモリ等を適宜選択して用いることができる。   The buffer memory 112 temporarily stores image data picked up by the image pickup device 110 of the main camera 11 and the image pickup device 210 of the sub camera 12 or is used as a work memory of the CPU 117. Further, the buffer memory 112 temporarily stores image data in the pre-process and post-process of image processing by the image processing unit 116. As the buffer memory 112, a volatile semiconductor memory or the like can be appropriately selected and used.

操作部材113は、レリーズボタン19、電源スイッチ20、ズームレバー27、ロータリーマルチセレクター28等から構成される。   The operation member 113 includes a release button 19, a power switch 20, a zoom lever 27, a rotary multi selector 28, and the like.

記録I/F114には、記憶媒体115を接続するためのコネクタが形成されている。そして、記録I/F114は、コネクタに接続された記憶媒体115に対してデータの書き込み/読み込みを実行する。上記の記憶媒体115は、ハードディスクや、半導体メモリを内蔵したメモリカード等で構成される。なお、図10では記憶媒体115の一例としてメモリカードを示す。   A connector for connecting the storage medium 115 is formed in the recording I / F 114. Then, the recording I / F 114 executes data writing / reading with respect to the storage medium 115 connected to the connector. The storage medium 115 includes a hard disk, a memory card incorporating a semiconductor memory, or the like. In FIG. 10, a memory card is shown as an example of the storage medium 115.

画像処理部116は、AFE111から出力されるデジタル画像信号に対して、各種画像処理(例えば、色補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整処理、画像圧縮処理、画像伸張処理等)を施す。また、本実施形態の画像処理部116は、撮影モードがパノラマモードの場合、公知のパノラマ合成の手法を用い、順次撮像される本画像をつなぎ合わせて、パノラマ画像を生成する画像合成処理を行う。なお、パノラマ合成は、例えば特許第4269558号(米国公開特許20050151858号)に開示されている。   The image processing unit 116 performs various types of image processing (for example, color interpolation processing, gradation conversion processing, edge enhancement processing, white balance adjustment processing, image compression processing, image expansion processing, etc.) on the digital image signal output from the AFE 111. ). In addition, when the shooting mode is the panorama mode, the image processing unit 116 according to the present embodiment performs an image composition process for generating a panorama image by connecting sequentially captured main images using a known panorama composition method. . Note that panorama synthesis is disclosed in, for example, Japanese Patent No. 4269558 (US Published Patent No. 20050158858).

図5から図7に示してあるように、本実施の形態の接続部13は、メインカメラ11とサブカメラ12とを水平方向に相対的に開閉する第1軸34と、メインカメラ11とサブカメラ12とを上下方向に相対的に振る第2軸35とから成る2自由度の2軸ヒンジを有している。このため、本実施例のパノラマモードにおいては、水平方向に延びるパノラマ画像を取得することもできるのに加えて、上下方向に延びるパノラマ画像を取得することもできる。
また、画像処理部116は、サブカメラ12と接続され撮影モードが動画モード等に設定される場合、サブカメラ12で撮像されたRAW画像を、I/F221a,121aを介して入力し、上記各種画像処理を施してもよい。画像処理部116は、上記各種画像処理の回路を直列で接続し、パイプライン方式で高速に画像処理するASIC(Application Specific Integrated Circuit)が好ましい。
As shown in FIGS. 5 to 7, the connection unit 13 of the present embodiment includes a first shaft 34 that opens and closes the main camera 11 and the sub camera 12 in the horizontal direction, and the main camera 11 and the sub camera 12. It has a two-degree-of-freedom two-axis hinge including a second axis 35 that relatively shakes the camera 12 in the vertical direction. For this reason, in the panorama mode of this embodiment, in addition to acquiring a panoramic image extending in the horizontal direction, it is also possible to acquire a panoramic image extending in the vertical direction.
Further, when the image processing unit 116 is connected to the sub camera 12 and the shooting mode is set to the moving image mode or the like, the image processing unit 116 inputs a RAW image captured by the sub camera 12 via the I / Fs 221a and 121a, and Image processing may be performed. The image processing unit 116 is preferably an ASIC (Application Specific Integrated Circuit) that connects the above-described various image processing circuits in series and performs high-speed image processing by a pipeline method.

CPU117は、メインカメラ11の動作を統括的に制御するプロセッサである。CPU117は、制御プログラムを実行することにより、例えばスルー画像のデータに基づいて、位相差検出方式やコントラスト検出方式による公知のオートフォーカス(AF)制御により撮影レンズ16の合焦位置を検出する焦点検出部117a、自動露出(AE)演算を行う露出演算部117b、オートホワイトバランス(AWB)演算を行うAWB演算部117cとして動作する(図11a)。また、CPU117は、LCD26に対する設定画面や撮像された本画像やスルー画像の表示処理等も行う。さらに、本実施形態のCPU117は、メインカメラ11とサブカメラ12とが接続されたカメラシステム10についても、後述するように、サブカメラ12のCPU217と協働して制御する。また、CPU117は、クロック信号に基づいて時刻を計時する計時機能も有する。   The CPU 117 is a processor that comprehensively controls the operation of the main camera 11. The CPU 117 executes focus control for detecting the in-focus position of the photographic lens 16 by well-known autofocus (AF) control using a phase difference detection method or a contrast detection method based on, for example, through image data, by executing a control program. The unit 117a operates as an exposure calculation unit 117b that performs automatic exposure (AE) calculation, and an AWB calculation unit 117c that performs automatic white balance (AWB) calculation (FIG. 11a). In addition, the CPU 117 performs a setting screen for the LCD 26, display processing of a captured main image and a through image, and the like. Further, the CPU 117 according to the present embodiment controls the camera system 10 to which the main camera 11 and the sub camera 12 are connected in cooperation with the CPU 217 of the sub camera 12 as described later. The CPU 117 also has a clocking function that clocks time based on the clock signal.

電源回路118は、CPU117からの指示に応じて電池119の電力をメインカメラ11内の各部へ供給する。同時に、電源回路118は、電池119の電圧を検出し、検出した電圧を電池残容量情報としてCPU117へ出力する。なお、サブカメラ12と接続されている場合、電源回路118は、CPU117の制御に基づいて、I/F121d,221dを介しサブカメラ12へ電力供給してもよい。   The power supply circuit 118 supplies the power of the battery 119 to each part in the main camera 11 in accordance with an instruction from the CPU 117. At the same time, the power supply circuit 118 detects the voltage of the battery 119 and outputs the detected voltage to the CPU 117 as remaining battery capacity information. When connected to the sub camera 12, the power supply circuit 118 may supply power to the sub camera 12 via the I / Fs 121d and 221d based on the control of the CPU 117.

照明装置120は、CPU117の制御により撮像時に光源を発光する協働動作を行い、照明窓18を介して被写界中の人物等の主要被写体を照明する。照明装置120の光源には、キセノンランプや発光ダイオード(LED)等を適宜選択して用いることができる。なお、照明装置120は、サブカメラ12が接続されている場合、サブカメラ12の照明装置220と協働して照明動作する。   The illumination device 120 performs a cooperative operation of emitting a light source during imaging under the control of the CPU 117, and illuminates a main subject such as a person in the field through the illumination window 18. As the light source of the lighting device 120, a xenon lamp, a light emitting diode (LED), or the like can be appropriately selected and used. Note that the illumination device 120 performs an illumination operation in cooperation with the illumination device 220 of the sub camera 12 when the sub camera 12 is connected.

メインカメラ11のインターフェースであるI/F121aは、サブカメラ12のI/F221aを介して、サブカメラ12で撮像され画像処理部216による画像処理が施される前のRAW画像データを入力したり、メインカメラ11で撮像され画像処理部116による画像処理が施される前のRAW画像データを出力したりする。これにより、例えば、メインカメラ11で撮像されたRAW画像を2つの画像処理部116,216で処理させることができ、連写速度や動画のフレームレートを上げることができる。   The I / F 121a that is the interface of the main camera 11 inputs RAW image data before being subjected to image processing by the image processing unit 216, which is captured by the sub camera 12, via the I / F 221a of the sub camera 12. RAW image data before being imaged by the main camera 11 and subjected to image processing by the image processing unit 116 is output. Thereby, for example, the RAW image captured by the main camera 11 can be processed by the two image processing units 116 and 216, and the continuous shooting speed and the frame rate of the moving image can be increased.

メインカメラ11のインターフェースであるI/F121bは、サブカメラ12のI/F221bを介して、サブカメラ12の撮像素子210で撮像され画像処理部216で画像処理された画像データを入力する。   The I / F 121b, which is an interface of the main camera 11, inputs image data captured by the image sensor 210 of the sub camera 12 and processed by the image processing unit 216 via the I / F 221b of the sub camera 12.

メインカメラ11のインターフェースであるI/F121cは、サブカメラ12のI/F221cを介して、CPU117とサブカメラ12のCPU217とを通信可能し、CPU217からサブカメラ12の各種情報を入力し、CPU117からの制御信号をCPU217に出力する。ここで、サブカメラ12の各種情報とは、撮影レンズ21、撮像素子210、照明装置220等の情報であり、それらの情報に基づいて、CPU117はサブカメラ12を制御する。   The I / F 121c that is the interface of the main camera 11 can communicate with the CPU 117 and the CPU 217 of the sub camera 12 via the I / F 221c of the sub camera 12, and inputs various information of the sub camera 12 from the CPU 217. The control signal is output to the CPU 217. Here, the various types of information of the sub camera 12 are information on the photographing lens 21, the image sensor 210, the illumination device 220, and the like, and the CPU 117 controls the sub camera 12 based on such information.

メインカメラ11のインターフェースであるI/F121dは、サブカメラ12のI/F221dを介して、CPU117の制御に基づき、電池119の電力をサブカメラ12へ、又は電池219の電力をメインカメラ11へ供給する。なお、メインカメラ11およびサブカメラ12への電源供給が不要な場合には省略することができる。   The I / F 121d that is an interface of the main camera 11 supplies the power of the battery 119 to the sub camera 12 or the power of the battery 219 to the main camera 11 based on the control of the CPU 117 via the I / F 221d of the sub camera 12. To do. Note that the power supply to the main camera 11 and the sub camera 12 can be omitted if it is not necessary.

一方、サブカメラ12は、撮影レンズ21、マイク22a,22b、撮像素子210、AFE211、バッファメモリ212、LCD29、操作部材213、記録I/F214、画像処理部216、CPU217、電源回路218、照明装置220、バスから構成される。マイク22a,22b、バッファメモリ212、LCD29、操作部材213、記録I/F214、画像処理部216、CPU217、電源回路218、照明装置220は、バスを介して情報伝達可能にそれぞれ接続される。   On the other hand, the sub camera 12 includes a photographing lens 21, microphones 22a and 22b, an image sensor 210, an AFE 211, a buffer memory 212, an LCD 29, an operation member 213, a recording I / F 214, an image processing unit 216, a CPU 217, a power supply circuit 218, and an illumination device. 220, composed of a bus. The microphones 22a and 22b, the buffer memory 212, the LCD 29, the operation member 213, the recording I / F 214, the image processing unit 216, the CPU 217, the power supply circuit 218, and the lighting device 220 are connected via a bus so as to be able to transmit information.

また、サブカメラ12は、図1に示すように、接続部13の雄コネクタ14がメインカメラ11の雌コネクタ15に挿入された場合、メインカメラ11と制御信号や画像データ等を入出力するI/F221a〜221dを備える。   Further, as shown in FIG. 1, when the male connector 14 of the connecting portion 13 is inserted into the female connector 15 of the main camera 11, the sub camera 12 inputs / outputs control signals, image data, and the like with the main camera 11. / F221a-221d are provided.

撮像素子210は、メインカメラ11の撮像素子110と同様に、撮影レンズ21を通過した光束によって結像される被写界を撮像する。なお、サブカメラ12の撮像素子210とメインカメラ11の撮像素子110とのサイズは、同じでも異なってもよい。   The image sensor 210 images the object scene formed by the light flux that has passed through the photographic lens 21, similarly to the image sensor 110 of the main camera 11. Note that the image sensor 210 of the sub camera 12 and the image sensor 110 of the main camera 11 may have the same size or different sizes.

AFE211は、メインカメラ11のAFE211と同様に、撮像素子210の出力に対してアナログ信号処理を施すアナログフロントエンド回路であり、撮像素子210とAFE211とでサブカメラ12の撮像部を構成する。   Similar to the AFE 211 of the main camera 11, the AFE 211 is an analog front-end circuit that performs analog signal processing on the output of the imaging device 210, and the imaging device 210 and the AFE 211 constitute an imaging unit of the sub camera 12.

バッファメモリ212は、サブカメラ12によって撮像された画像データを一時的に記憶したり、CPU217のワークメモリとして用いられたりする。また、バッファメモリ212は、画像処理部216による画像処理の前工程や後工程での画像データを一時的に記憶する。バッファメモリ212は、メインカメラ11のバッファメモリ112と同様に、揮発性の半導体メモリ等を適宜選択して用いることができる。   The buffer memory 212 temporarily stores image data picked up by the sub camera 12 and is used as a work memory for the CPU 217. Further, the buffer memory 212 temporarily stores image data in the pre-process and post-process of image processing by the image processing unit 216. As the buffer memory 212, a volatile semiconductor memory or the like can be appropriately selected and used in the same manner as the buffer memory 112 of the main camera 11.

操作部材213は、レリーズボタン24、電源スイッチ25等から構成される。   The operation member 213 includes a release button 24, a power switch 25, and the like.

記録I/F214には、メインカメラ11の場合と同様に、記憶媒体215を接続するためのコネクタが形成されている。そして、記録I/F214は、コネクタに接続された記憶媒体215に対してデータの書き込み/読み込みを実行する。   In the recording I / F 214, a connector for connecting the storage medium 215 is formed as in the case of the main camera 11. Then, the recording I / F 214 executes data writing / reading with respect to the storage medium 215 connected to the connector.

画像処理部216は、メインカメラ11の画像処理部116と同様に、AFE211から出力されるデジタル画像信号に対して各種画像処理を施す。なお、画像処理部216は、メインカメラ11と接続され撮影モードが動画モード等に設定された場合、メインカメラ11のCPU117の制御指示に基づいて、メインカメラ11で撮像されたRAW画像を、I/F121a,221aを介して入力し、上記各種画像処理を施してもよい。画像処理部216は、画像処理部116と同様に、各種画像処理をパイプライン方式で高速に画像処理するASICが好ましい。   Similar to the image processing unit 116 of the main camera 11, the image processing unit 216 performs various image processes on the digital image signal output from the AFE 211. Note that when the image processing unit 216 is connected to the main camera 11 and the shooting mode is set to the moving image mode or the like, the image processing unit 216 converts the RAW image captured by the main camera 11 to I based on the control instruction of the CPU 117 of the main camera 11. / F121a and 221a may be input to perform the various image processes. As with the image processing unit 116, the image processing unit 216 is preferably an ASIC that performs high-speed image processing of various types of image processing using a pipeline method.

CPU217は、サブカメラ12の動作を統括的に制御するプロセッサである。CPU217は、メインカメラ11のCPU117と同様に、制御プログラムを実行することにより、例えばスルー画像のデータに基づいて、AF制御により撮影レンズ21の合焦位置を検出する焦点検出部217a、AE演算を行う露出演算部217b、AWB演算を行うAWB演算部217cとして動作する(図11b)。また、CPU217は、LCD29に対する設定画面や撮像された本画像やスルー画像の表示処理等も行う。さらに、本実施形態のCPU217は、メインカメラ11と接続された場合、CPU117からの制御信号に基づいて、サブカメラ12の動作を制御する。   The CPU 217 is a processor that comprehensively controls the operation of the sub camera 12. Similar to the CPU 117 of the main camera 11, the CPU 217 executes a control program, and performs, for example, a focus detection unit 217 a that detects the in-focus position of the photographing lens 21 by AF control based on through-image data, and performs an AE calculation. It operates as an exposure calculation unit 217b that performs AWB calculation unit 217c that performs AWB calculation (FIG. 11b). In addition, the CPU 217 performs a setting screen for the LCD 29, display processing of a captured main image and a through image, and the like. Furthermore, when connected to the main camera 11, the CPU 217 of the present embodiment controls the operation of the sub camera 12 based on a control signal from the CPU 117.

電源回路218は、CPU217からの指示に応じて電池219の電力をサブカメラ12内の各部へ供給する。同時に、電源回路218は、電池219の電圧を検出し、検出した電圧を電池残容量情報としてCPU217へ出力する。なお、メインカメラ11と接続されている場合、電源回路218は、メインカメラ11のCPU117の制御指示に基づいて、I/F221d、121dを介しメインカメラ11へ電力供給してもよい。   The power supply circuit 218 supplies the power of the battery 219 to each part in the sub camera 12 in accordance with an instruction from the CPU 217. At the same time, the power supply circuit 218 detects the voltage of the battery 219 and outputs the detected voltage to the CPU 217 as remaining battery capacity information. When connected to the main camera 11, the power supply circuit 218 may supply power to the main camera 11 via the I / Fs 221 d and 121 d based on a control instruction from the CPU 117 of the main camera 11.

照明装置220は、メインカメラ11の照明装置120と同様に、撮像時に光源を発光する協働動作を行い、照明窓23を介して被写界中の人物等の主要被写体を照明する。照明装置220の光源は、キセノンランプやLED等を適宜選択して用いることができ、照明装置120の光源と同じでも異なってもよい。   Similar to the illumination device 120 of the main camera 11, the illumination device 220 performs a cooperative operation of emitting a light source during imaging, and illuminates a main subject such as a person in the object field through the illumination window 23. As the light source of the illumination device 220, a xenon lamp, an LED, or the like can be appropriately selected and used, and may be the same as or different from the light source of the illumination device 120.

次に、カメラシステム10の動作について、A)照明撮影、B)AF制御、C)動画撮影に分けて説明する。   Next, the operation of the camera system 10 will be described separately for A) illumination shooting, B) AF control, and C) movie shooting.

A)照明撮影の動作について
図1に示すカメラシステム10による照明撮影の動作について、図12に示すフローチャートを参照しつつ説明する。なお、以下の説明において、照明装置120,220は、閃光装置として動作するものとし、カメラシステム10は、照明撮影として閃光撮影を行う。すなわち、照明装置120,220は、CPU117の制御に基づいて、本画像撮像時における本発光の発光量を求めるためのプリ発光を行う。CPU117は、そのプリ発光による被写体輝度に基づいて、本発光の発光量を演算し、照明装置120,220は、演算された発光量に基づいて本発光を行う。
A) Illumination Shooting Operation Illumination shooting operation by the camera system 10 shown in FIG. 1 will be described with reference to the flowchart shown in FIG. In the following description, it is assumed that the illumination devices 120 and 220 operate as a flash device, and the camera system 10 performs flash photography as illumination photography. That is, the illumination devices 120 and 220 perform pre-light emission for obtaining the light emission amount of main light emission at the time of main image capturing based on the control of the CPU 117. The CPU 117 calculates the light emission amount of the main light emission based on the subject luminance by the pre-light emission, and the illumination devices 120 and 220 perform the main light emission based on the calculated light emission amount.

また、照明装置120,220の光源、調光範囲、充電時間、ガイドナンバー等の仕様情報は、それぞれが配置されるメインカメラ11およびサブカメラ12の不図示のメモリに予め記憶されているものとする。   The specification information such as the light source, dimming range, charging time, and guide number of the lighting devices 120 and 220 is stored in advance in a memory (not shown) of the main camera 11 and the sub camera 12 where each is arranged. To do.

さらに、以下において、カメラシステム10の撮影モードは例えばロータリーマルチセレクター28により連写モードに設定され、メインカメラ11に連写させる場合における、カメラシステム10による照明撮影の動作を説明する。しかしながら、サブカメラ12に連写させる場合や単写モードでメインカメラ11又はサブカメラ12に撮像させる場合についても同様の照明撮影の動作を行う。   In the following, the shooting mode of the camera system 10 is set to the continuous shooting mode, for example, by the rotary multi selector 28, and the illumination shooting operation by the camera system 10 when the main camera 11 performs continuous shooting will be described. However, the same illumination shooting operation is performed when the sub camera 12 continuously shoots or when the main camera 11 or the sub camera 12 captures images in the single shooting mode.

以上に基づき、CPU117は、ユーザによる電源スイッチ20又は電源スイッチ25の一方の電源投入指示に応答して、カメラシステム10のメインカメラ11およびサブカメラ12の電源を投入する。なお、接続部13を介してメインカメラ11とサブカメラ12とが接続されたときにメインカメラ11およびサブカメラ12の電源を投入するようにしてもよい。CPU117は、メインカメラ11を初期化するとともに、I/F121a,221aを介して、CPU217に対しサブカメラ12の初期化指示の制御信号を出力する。CPU117は、ステップS101からの処理を開始する。なお、メインカメラ11及びサブカメラ12の初期化には、一例として撮影レンズ16,21のズームの位置やフォーカス位置を一致させたり、絞り値やシャッター速度を一致させてメインカメラ11とサブカメラ12との撮影条件を合わせることが挙げられる。   Based on the above, the CPU 117 turns on the main camera 11 and the sub camera 12 of the camera system 10 in response to a power-on instruction of one of the power switch 20 or the power switch 25 by the user. The main camera 11 and the sub camera 12 may be turned on when the main camera 11 and the sub camera 12 are connected via the connection unit 13. The CPU 117 initializes the main camera 11 and outputs a control signal for instructing the initialization of the sub camera 12 to the CPU 217 via the I / F 121a and 221a. CPU117 starts the process from step S101. For initialization of the main camera 11 and the sub camera 12, as an example, the zoom position and the focus position of the photographing lenses 16 and 21 are matched, or the aperture value and the shutter speed are matched, so that the main camera 11 and the sub camera 12 are matched. And matching the shooting conditions.

ステップS101:CPU117は、照明装置120の仕様情報を、メインカメラ11のメモリ(不図示)から読み込む。また、CPU117は、CPU217に対し照明装置220の仕様情報をサブカメラ12のメモリ(不図示)から読み込ませ、I/F121c、221cを介して取得する。   Step S101: The CPU 117 reads specification information of the lighting device 120 from a memory (not shown) of the main camera 11. In addition, the CPU 117 causes the CPU 217 to read the specification information of the illumination device 220 from the memory (not shown) of the sub camera 12 and acquire it via the I / F 121c and 221c.

ステップS102:CPU117は、電源回路118に対し電池119の電圧を検出させ、検出した電圧を電池残容量情報として取得する。また、CPU117は、CPU217に対し、電源回路218に電池119の電圧を検出させる制御信号を出力する。CPU217は、検出された電池219の電圧を電池残容量情報として、I/F121c、221cを介して、CPU117に出力する。CPU117は、電池219の電池残量情報を取得する。なお、CPU117は、メインカメラ11の電源回路118がサブカメラ12へ電力供給している場合や、サブカメラ12の電源回路218がメインカメラ11へ電力供給している場合、電力供給されている側の電池の残容量情報の取得を省略してもよい。   Step S102: The CPU 117 causes the power supply circuit 118 to detect the voltage of the battery 119, and acquires the detected voltage as remaining battery capacity information. Further, the CPU 117 outputs a control signal for causing the power supply circuit 218 to detect the voltage of the battery 119 to the CPU 217. The CPU 217 outputs the detected voltage of the battery 219 as remaining battery capacity information to the CPU 117 via the I / F 121c and 221c. The CPU 117 acquires battery remaining amount information of the battery 219. Note that the CPU 117 is powered when the power circuit 118 of the main camera 11 supplies power to the sub camera 12 or when the power circuit 218 of the sub camera 12 supplies power to the main camera 11. The acquisition of the remaining capacity information of the battery may be omitted.

ステップS103:CPU117は、ステップS101およびステップS102で取得した照明装置120,220の仕様情報および電池119,219の電池残量情報に基づいて、照明装置120,220を協働させて照明動作させる設定を行う。すなわち、CPU117は、照明装置120,220の一方をプリ発光の閃光装置とし、他方を本発光の閃光装置として設定する。   Step S103: The CPU 117 performs a lighting operation in cooperation with the lighting devices 120 and 220 based on the specification information of the lighting devices 120 and 220 acquired in steps S101 and S102 and the remaining battery level information of the batteries 119 and 219. I do. That is, the CPU 117 sets one of the illumination devices 120 and 220 as a pre-flash device and the other as a main flash device.

例えば、CPU117は、電池119,219の電池残量情報に基づいて、残量が少ない方の電池を有するカメラの照明装置にプリ発光させ、他方の照明装置に本発光させる設定を行う。また、CPU117は、照明装置120,220の充電時間の長さに基づいて、充電時間が長い照明装置にプリ発光させ、充電時間が短い照明装置に本発光させるように設定してもよい。あるいは、CPU117は、一方の電池が他方のカメラにも電力供給している場合、電力供給を受けているカメラの照明装置にプリ発光させ、電力供給しているカメラの照明装置に本発光させる設定でもよいし、電力供給しているカメラの照明装置にプリ発光と本発光との両方をさせる設定でもよい。   For example, the CPU 117 performs a setting for causing the lighting device of the camera having the battery with the smaller remaining amount to perform pre-light emission and causing the other lighting device to perform main light emission based on the remaining battery amount information of the batteries 119 and 219. Further, the CPU 117 may be set so that the lighting device with a long charging time causes the lighting device with a long charging time to perform pre-light emission and the lighting device with a short charging time to perform the main light emission based on the length of charging time of the lighting devices 120 and 220. Alternatively, when one battery is also supplying power to the other camera, the CPU 117 causes the illumination device of the camera that is supplied with power to pre-emit and the main illumination to the illumination device of the camera that is supplying power. Alternatively, the setting may be such that both the pre-light emission and the main light emission are performed by the illumination device of the camera that is supplying power.

なお、本実施形態では、CPU117は、プリ発光を照明装置220にさせ、本発光を照明装置120にさせる設定を行うものとする。また、CPU117は、撮影モードが連写モードの場合、撮像素子110,210の感度を上げる設定を行ってもよい。   In the present embodiment, the CPU 117 performs settings for causing the lighting device 220 to perform pre-light emission and causing the lighting device 120 to perform main light emission. In addition, when the shooting mode is the continuous shooting mode, the CPU 117 may perform setting to increase the sensitivity of the imaging elements 110 and 210.

また、CPU117は、被写体までの距離と絞り値(F値)と、照明装置120、220のガイドナンバーを参照して、どちらの照明装置により本発光をさせるかを決定してもよい。例えば、CPU117は、照明装置120のガイドナンバーが照明装置220のガイドナンバーよりも大きく、被写体までの距離が遠い場合にはガイドナンバーの大きな照明装置120により本発光を行なうようにすればいい。   Further, the CPU 117 may determine which illuminating device emits the main light with reference to the distance to the subject, the aperture value (F value), and the guide numbers of the illuminating devices 120 and 220. For example, when the guide number of the illumination device 120 is larger than the guide number of the illumination device 220 and the distance to the subject is far, the CPU 117 may perform the main light emission with the illumination device 120 having a large guide number.

ステップS104:CPU117は、ユーザによるレリーズボタン19の全押し操作の撮像指示に応答して、ステップS103の設定に基づいて、照明装置220にプリ発光させる。CPU117は、そのプリ発光に基づいて、本発光を行う照明装置120の発光量を算出し設定する。   Step S104: The CPU 117 causes the illumination device 220 to pre-emit light based on the setting in step S103 in response to the imaging instruction for the full press operation of the release button 19 by the user. The CPU 117 calculates and sets the light emission amount of the lighting device 120 that performs the main light emission based on the pre-light emission.

ステップS105:CPU117は、ステップS104において設定した発光量で、照明装置120を本発光させ、撮像素子110に被写界を撮像させる。画像処理部116は、撮像された画像データに対して画像処理を施し、バッファメモリ112に一時的に記録する。なお、本実施形態において、CPU117,217は、特に、AWB演算部117c,217cのAWB演算処理における照明装置120,220の光源に対する補正値の一覧表を有するのが好ましい。   Step S105: The CPU 117 causes the illuminating device 120 to emit light with the light emission amount set in step S104, and causes the image sensor 110 to image the scene. The image processing unit 116 performs image processing on the captured image data and temporarily records it in the buffer memory 112. In the present embodiment, it is preferable that the CPUs 117 and 217 particularly have a list of correction values for the light sources of the illumination devices 120 and 220 in the AWB calculation processing of the AWB calculation units 117c and 217c.

ステップS106:CPU117は、撮影モードが連写モードか否かを判定する。CPU117は、単写モードの場合(NO側)、画像処理部116に対して、バッファメモリ112に記録した画像データに対し画像圧縮処理をさせ、生成された画像ファイルを記憶媒体115に記録する。CPU117は一連の処理を終了する。   Step S106: The CPU 117 determines whether or not the shooting mode is the continuous shooting mode. In the single shooting mode (NO side), the CPU 117 causes the image processing unit 116 to perform image compression processing on the image data recorded in the buffer memory 112 and records the generated image file in the storage medium 115. The CPU 117 ends a series of processes.

一方、CPU117は、連写モードの場合、ステップS103(YES側)へ移行する。CPU117は、ユーザによるレリーズボタン19の全押し操作が解除され、撮像終了指示を受け付けるまで、ステップS103〜ステップS105の処理を行う。   On the other hand, in the continuous shooting mode, the CPU 117 proceeds to step S103 (YES side). The CPU 117 performs steps S103 to S105 until the full pressing operation of the release button 19 by the user is released and an imaging end instruction is received.

なお、CPU117は、連写モードの場合、ステップS103において、例えば、次の照明撮影では照明装置120にプリ発光させ、照明装置220に本発光させる設定を行うことが好ましい。これにより、本発光を行った照明装置が再充電されるまでの時間を短くすることができ、連写速度を上げても安定したフレームレートで連写を行うことができる。
また、照明装置120,220の光源が異なる場合、交互に本発光させることにより、雰囲気が異なる画像を撮像することができる。なお、CPU117は連写モードの2回目以降の撮影の際に、例えばAEロックがされている場合にはステップS104のプリ発光のステップをスキップしてもよく、また、AEロックがされていない場合でもステップS104のプリ発光を間引いて行なうようにしてもよい。
In the continuous shooting mode, the CPU 117 preferably performs setting so that the illumination device 120 performs pre-light emission and the illumination device 220 performs main light emission in the next illumination shooting, for example. As a result, it is possible to shorten the time until the lighting device that has performed the main light emission is recharged, and it is possible to perform continuous shooting at a stable frame rate even if the continuous shooting speed is increased.
Further, when the lighting devices 120 and 220 have different light sources, images with different atmospheres can be taken by alternately performing main light emission. Note that the CPU 117 may skip the pre-flash step of step S104 when the AE lock is performed, for example, in the second and subsequent shootings in the continuous shooting mode, and when the AE lock is not performed. However, the pre-flash in step S104 may be thinned out.

このように、照明装置120,220の仕様情報や電池119,219の電池残量情報等に基づいて、照明装置120,220を協働させて動作させることにより、照明撮像を高速にかつ容易に行うことができる。
《照明撮影の動作の補足事項》
(1)上記照明撮影の動作では、一方の照明装置にプリ発光させ、他方の照明装置に本発光させたが、これに限定されない。例えば、プリ発光は、いずれかの一方の照明装置で行うが、本発光は、照明装置120,220の両方で行ってもよい。ただし、この場合、CPU117は、照明装置120と照明装置220との発光量等を互いに異なるように調整し設定することが好ましい。すなわち、CPU117は、一方の照明装置に近くに位置する主要被写体を照明させるように発光量を設定し、他方の照明装置に遠くに位置する主要被写体を照明させるように発光量を設定するのが好ましい。
As described above, the illumination devices 120 and 220 are operated in cooperation with each other based on the specification information of the illumination devices 120 and 220, the remaining battery level information of the batteries 119 and 219, etc., so that illumination imaging can be performed quickly and easily. It can be carried out.
《Additional items for lighting shooting operation》
(1) In the above-described illumination photographing operation, one illumination device is caused to perform pre-light emission and the other illumination device is caused to emit main light, but the present invention is not limited to this. For example, the pre-light emission is performed by one of the lighting devices, but the main light emission may be performed by both of the lighting devices 120 and 220. However, in this case, it is preferable that the CPU 117 adjusts and sets the light emission amounts of the lighting device 120 and the lighting device 220 so as to be different from each other. That is, the CPU 117 sets the light emission amount so as to illuminate a main subject located close to one illumination device, and sets the light emission amount so that the other illumination device illuminates a main subject located far away. preferable.

(2)上記照明撮影の動作では、撮影モードを連写モード又は単写モードとしたが、これに限定されず、動画モード、パノラマモードや3Dモード等に対しても適用できる。なお、動画モード等の場合、照明装置120,220のうち、いずれか一方の光源がLED等であることが好ましい。これにより、CPU117は、照明装置120又は220を連続的に発光させることができ、動画撮影の間、主要被写体を照明することができる。   (2) In the above-described illumination shooting operation, the shooting mode is set to the continuous shooting mode or the single shooting mode. However, the present invention is not limited to this, and can be applied to a moving image mode, a panorama mode, a 3D mode, and the like. In the case of the moving image mode or the like, it is preferable that any one of the light sources 120 and 220 is an LED or the like. As a result, the CPU 117 can cause the illumination device 120 or 220 to emit light continuously, and can illuminate the main subject during moving image shooting.

(3)上記照明撮影の動作では、撮影モードを連写モードに設定した場合、メインカメラ11に連写させたが、これに限定されず、サブカメラ12に連写させてもよいし、メインカメラ11とサブカメラ12とを交互に撮像させて連写してもよい。   (3) In the illumination shooting operation, when the shooting mode is set to the continuous shooting mode, the main camera 11 is continuously shot. However, the present invention is not limited to this, and the sub camera 12 may be continuously shot. The camera 11 and the sub-camera 12 may be alternately photographed for continuous shooting.

(4)上記照明撮影の動作では、照明装置120,220は、メインカメラ11及びサブカメラ12に配置されていたが、これに限定されず、ホットシュー等を介して接続される外部の照明装置を用いてもよい。   (4) In the above-described illumination photographing operation, the illumination devices 120 and 220 are disposed in the main camera 11 and the sub camera 12, but the present invention is not limited to this, and an external illumination device connected via a hot shoe or the like. May be used.

B)AF制御の動作について
次に、図1に示すカメラシステム10によるAF制御の動作について、図13に示すフローチャートを参照しつつ説明する。なお、以下の説明おいて、メインカメラ11及びサブカメラ12は、少なくとも一部分で互いに重複する被写界を撮像するものとし、CPU117は、その重複する被写界の領域をAF領域として設定する。また、メインカメラ11及びサブカメラ12は、AF制御方式が互いに異なり、位相差検出方式及びコントラスト検出方式であるとする。さらに、撮影レンズ16,21それぞれの焦点距離、重量やレンズ駆動部のモータの駆動性能等の仕様情報が、メインカメラ11及びサブカメラ12のメモリ(不図示)に予め記憶されているものとする。
B) AF Control Operation Next, the AF control operation by the camera system 10 shown in FIG. 1 will be described with reference to the flowchart shown in FIG. In the following description, it is assumed that the main camera 11 and the sub camera 12 image at least a part of the overlapping scene, and the CPU 117 sets the overlapping scene area as an AF area. Further, it is assumed that the main camera 11 and the sub camera 12 have different AF control methods, and are a phase difference detection method and a contrast detection method. Further, it is assumed that specification information such as the focal length and weight of each of the photographing lenses 16 and 21 and the driving performance of the motor of the lens driving unit is stored in advance in memories (not shown) of the main camera 11 and the sub camera 12. .

以上に基づき、CPU117は、ユーザによる電源スイッチ20又は電源スイッチ25の操作の電源投入指示に応答して、カメラシステム10のメインカメラ11及びサブカメラ12の電源を投入する。   Based on the above, the CPU 117 turns on the main camera 11 and the sub camera 12 of the camera system 10 in response to a power-on instruction for the operation of the power switch 20 or the power switch 25 by the user.

ステップS201:CPU117は、撮影レンズ16,21の仕様情報を取得するとともに、撮影レンズ16,21の初期化を行なう。例えば、撮影レンズ16,21の仕様が同じ場合には、撮影レンズ16,21のズーム位置をワイド端とするとともに、それぞれのフォーカスレンズを撮影距離が2mのところに合焦するように移動させ、絞り値を同じにする。なお、撮影レンズ16,21の仕様が異なる場合には、撮影レンズ16,21の設定が同じになるようにワイド側の位置を設定したり、フォーカスレンズの位置を設定すればいい。また、CPU117は、メインカメラ11とサブカメラ12との初期化として、それぞれの撮像素子の感度を一致させたり、シャッタースピードを合わせるようにしてもよい。   Step S201: The CPU 117 acquires the specification information of the photographing lenses 16 and 21, and initializes the photographing lenses 16 and 21. For example, when the specifications of the photographic lenses 16 and 21 are the same, the zoom position of the photographic lenses 16 and 21 is set to the wide end, and the respective focus lenses are moved so as to be focused at a shooting distance of 2 m. Set the same aperture value. If the specifications of the photographic lenses 16 and 21 are different, the position on the wide side or the position of the focus lens may be set so that the settings of the photographic lenses 16 and 21 are the same. In addition, as initialization of the main camera 11 and the sub camera 12, the CPU 117 may match the sensitivities of the respective image sensors or adjust the shutter speed.

ステップS202:CPU117は、メインカメラ11及びサブカメラ12のAF制御方式の情報を取得する。本実施の形態においては、メインカメラ11は位相差式AFとし、サブカメラ12はコントラスト方式AFとする。   Step S202: The CPU 117 acquires information on the AF control method of the main camera 11 and the sub camera 12. In the present embodiment, the main camera 11 is a phase difference AF, and the sub camera 12 is a contrast AF.

ステップS203:CPU117は、ステップS201及びステップS202で取得した情報に基づいて、メインカメラ11及びサブカメラ12のレンズ駆動部(不図示)を協働させて、撮影レンズ16,21の合焦位置を検出させる設定を行う。すなわち、CPU117は、撮影レンズ16,21の駆動方向をそれぞれの仕様情報、特に、駆動速度に基づいて決定し設定する。   Step S203: The CPU 117 cooperates the lens driving units (not shown) of the main camera 11 and the sub camera 12 based on the information acquired in Step S201 and Step S202 to determine the in-focus positions of the photographing lenses 16 and 21. Set to detect. That is, the CPU 117 determines and sets the driving direction of the photographing lenses 16 and 21 based on the specification information, particularly the driving speed.

具体的には、CPU117は、至近端と無限端とで決まる撮影レンズの駆動範囲において、撮影レンズ16のフォーカスレンズの駆動速度が撮影レンズ21のフォーカスレンズの駆動速度よりも速い場合に、撮影レンズ16のフォーカスレンズを、現在のレンズ位置に基づき、遠くの端側の方向に駆動させ、駆動速度が遅い撮影レンズ21のフォーカスレンズを、上記方向とは逆の近い端側の方向に駆動させるように設定する(図14b〜14c)。このように、駆動速度が速い撮影レンズのフォーカスレンズに長い距離を駆動させることにより、至近端又は無限端での反転動作を極力避けることができ、合焦位置の検出時間の短縮を図ることができる。   Specifically, the CPU 117 performs shooting when the driving speed of the focus lens of the shooting lens 16 is higher than the driving speed of the focus lens of the shooting lens 21 in the driving range of the shooting lens determined by the close end and the infinite end. The focus lens of the lens 16 is driven in the direction of the far end based on the current lens position, and the focus lens of the photographing lens 21 having a slow driving speed is driven in the direction of the near end opposite to the above direction. (Figs. 14b to 14c). In this way, by driving the focus lens of the photographing lens having a high driving speed for a long distance, the inversion operation at the closest end or the infinite end can be avoided as much as possible, and the detection time of the in-focus position can be shortened. Can do.

なお、図14a〜14cは、撮影レンズ16,21のそれぞれのフォーカスレンズの位置及び駆動速度に基づいて、CPU117によって設定される撮影レンズ16,21のそれぞれのフォーカスレンズの駆動方向(矢印)の一例を示す。図14aは、撮影レンズ16,21のそれぞれのフォーカスレンズの位置が中央位置付近の場合、図14bは、至近端付近の場合、図14cは、無限端付近の場合をそれぞれ示す。図14の縦軸はフォーカスレンズの位置を示し、撮影レンズ16,21のそれぞれのフォーカスレンズの駆動範囲が至近端と無限端との間であることを示す。   14A to 14C are examples of driving directions (arrows) of the focus lenses of the photographing lenses 16 and 21 set by the CPU 117 based on the positions and driving speeds of the focus lenses of the photographing lenses 16 and 21, respectively. Indicates. FIG. 14a shows the case where the focus lens position of each of the photographing lenses 16 and 21 is near the center position, FIG. 14b shows the case near the closest end, and FIG. 14c shows the case near the infinite end. The vertical axis in FIG. 14 indicates the position of the focus lens, and indicates that the drive range of each focus lens of the photographing lenses 16 and 21 is between the closest end and the infinite end.

また、図14aに示す中央位置とは、至近端と無限端との中間位置である。撮影レンズ16,21の初期化によるそれぞれのフォーカスレンズの位置が、図14aに示す中央位置付近の場合、至近端及び無限端までの距離はほぼ同じであることから、CPU117は、それぞれのフォーカスレンズの駆動速度に無関係に、撮影レンズ16及び21のフォーカスレンズの駆動方向を設定してもよい。本実施形態では、図14aに示すように、撮影レンズ16のフォーカスレンズを無限端の方向に駆動させ、撮影レンズ21のフォーカスレンズを至近端の方向に駆動させるが、撮影レンズ16,21の駆動方向を、それぞれ至近端及び無限端の方向に設定してもよい。   Further, the center position shown in FIG. 14a is an intermediate position between the closest end and the infinite end. When the positions of the respective focus lenses by the initialization of the photographing lenses 16 and 21 are near the center position shown in FIG. 14a, the distances to the closest end and the infinite end are almost the same. Regardless of the driving speed of the lens, the driving direction of the focus lens of the photographing lenses 16 and 21 may be set. In this embodiment, as shown in FIG. 14a, the focus lens of the photographing lens 16 is driven in the direction of the infinite end and the focus lens of the photographing lens 21 is driven in the direction of the closest end. The driving directions may be set to the directions of the closest end and the infinite end, respectively.

ここで、駆動速度の大小関係は、撮影レンズ16,21の仕様情報におけるAF制御方式、撮影レンズの重量、レンズ駆動部のモータの駆動性能等に基づいて決定してもよい。すなわち、例えば、AF制御方式の場合、位相差検出方式の方がコントラスト検出方式よりも速く合焦位置を検出することができることから、位相差検出方式の方がフォーカスレンズを速い速度で駆動させることができる。一方、フォーカスレンズの重量やモータの駆動性能の場合、フォーカスレンズが軽量であるほど、及びモータの駆動性能がよいほど高速にフォーカスレンズを駆動させることができる。よって、本実施形態のCPU117は、撮影レンズ16,21の仕様情報のいずれか1つ、又は複数の情報に基づいて、撮影レンズ16,21のそれぞれのフォーカスレンズの駆動速度を見積もる。   Here, the magnitude relationship between the driving speeds may be determined based on the AF control method in the specification information of the photographing lenses 16 and 21, the weight of the photographing lens, the driving performance of the motor of the lens driving unit, and the like. That is, for example, in the AF control method, the phase difference detection method can detect the in-focus position faster than the contrast detection method, and therefore the phase difference detection method drives the focus lens at a higher speed. Can do. On the other hand, in the case of the weight of the focus lens and the drive performance of the motor, the focus lens can be driven faster as the focus lens is lighter and the motor drive performance is better. Therefore, the CPU 117 according to the present embodiment estimates the driving speed of the focus lens of each of the photographing lenses 16 and 21 based on one or a plurality of pieces of specification information of the photographing lenses 16 and 21.

ステップS204:CPU117は、ステップS203の設定に基づいて、メインカメラ11及びサブカメラ12のレンズ駆動部(不図示)に撮影レンズ16,21のそれぞれのフォーカスレンズを駆動させる。   Step S204: The CPU 117 causes the lens driving units (not shown) of the main camera 11 and the sub camera 12 to drive the focus lenses of the photographing lenses 16 and 21 based on the setting of Step S203.

ステップS205:CPU117は、焦点検出部117a,217aが撮影レンズ16,21のいずれか一方の合焦位置を検出したか否かを判定する。CPU117は、焦点検出部117a又は焦点検出部217aが合焦位置を検出した場合、ステップS206(YES側)へ移行する。一方、焦点検出部117aは、合焦位置が検出されていない場合、ステップS204(NO側)へ移行し、焦点検出部117a又は焦点検出部217aが合焦位置を検出するまで、撮影レンズ16,21のそれぞれのフォーカスレンズを駆動する。   Step S205: The CPU 117 determines whether or not the focus detection units 117a and 217a have detected the in-focus position of one of the photographing lenses 16 and 21. When the focus detection unit 117a or the focus detection unit 217a detects the in-focus position, the CPU 117 proceeds to step S206 (YES side). On the other hand, when the focus position is not detected, the focus detection unit 117a proceeds to step S204 (NO side), and until the focus detection unit 117a or the focus detection unit 217a detects the focus position, Each of the focus lenses 21 is driven.

ステップS206:CPU117は、焦点検出部117aと焦点検出部217aとの一方で検出された合焦位置に基づいて、他方の撮影レンズの合焦位置を算出し、他方の撮影レンズのレンズ駆動部(不図示)に対して算出された合焦位置まで他方の撮影レンズのフォーカスレンズを駆動させる。   Step S206: The CPU 117 calculates the in-focus position of the other taking lens based on the in-focus position detected by one of the focus detecting unit 117a and the focus detecting unit 217a, and the lens driving unit ( The focus lens of the other photographing lens is driven to the in-focus position calculated with respect to (not shown).

なお、CPU117は、撮影レンズ16,21の仕様情報に基づいて、撮影レンズ16(又は21)の合焦位置から撮影レンズ21(又は16)の合焦位置を算出する変換係数等を有するものとする。   The CPU 117 has a conversion coefficient for calculating the in-focus position of the photographic lens 21 (or 16) from the in-focus position of the photographic lens 16 (or 21) based on the specification information of the photographic lenses 16 and 21. To do.

ステップS207:CPU117は、ユーザによるレリーズボタン19の全押し操作の撮像指示に応答して、撮像素子110,210に被写界を撮像させる。CPU117は、画像処理部116に撮像素子110で撮像されたRAW画像データを画像処理させ、生成された画像ファイルを記憶媒体115に記録する。同時に、CPU117は、CPU217を通じて、画像処理部216に撮像素子210で撮像された画像データを画像処理させ、生成された画像ファイルを記憶媒体215に記録する。CPU117は、一連の動作を終了する。   Step S207: The CPU 117 causes the imaging devices 110 and 210 to image the object scene in response to an imaging instruction for a full press operation of the release button 19 by the user. The CPU 117 causes the image processing unit 116 to perform image processing on the RAW image data captured by the image sensor 110 and records the generated image file in the storage medium 115. At the same time, the CPU 117 causes the image processing unit 216 to perform image processing on the image data captured by the image sensor 210 through the CPU 217, and records the generated image file in the storage medium 215. The CPU 117 ends a series of operations.

このように、撮影レンズ16,21のうち、駆動速度が速いフォーカスレンズを、遠くの端側の方向に、駆動速度が遅いフォーカスレンズを、近い端側の方向に協働して駆動させることにより、高速にかつ確度高く合焦位置を検出することができる。
《AF制御の動作の補足事項》
(1)上記AF制御の動作では、メインカメラ11及びサブカメラ12による協動撮像の場合におけるカメラシステム10のAF制御について説明したが、これに限定されない。メインカメラ11又はサブカメラ12の単独撮像の場合についても同様である。なお、動画モード等の場合、CPU117は、レンズ駆動部の駆動音がより静かな撮影レンズを、駆動距離の長い方に優先して駆動させることが好ましい。
In this way, by driving the focus lens having a fast driving speed among the photographing lenses 16 and 21 in the direction toward the far end and the focus lens having a slow driving speed in the near end side. In-focus position can be detected at high speed and with high accuracy.
<Supplementary items for AF control operation>
(1) In the above AF control operation, the AF control of the camera system 10 in the case of cooperative imaging by the main camera 11 and the sub camera 12 has been described, but the present invention is not limited to this. The same applies to the case of single imaging with the main camera 11 or the sub camera 12. In the case of the moving image mode or the like, it is preferable that the CPU 117 drives the photographing lens whose driving sound of the lens driving unit is quieter in preference to the longer driving distance.

(2)上記AF制御の動作では、メインカメラ11の被写界とサブカメラ12の被写界とが、少なくとも一部分で重複していることを前提としたが、これに限定されない。例えば、CPU117は、ステップS206の処理後に、撮像素子110,210で撮像されたスルー画像に基づいて、重複する被写界の領域が存在するか否かを画像のエッジ量などの画像特徴量に基づいて判定してもよい。CPU117は、判定結果が偽の場合、LCD26やLCD29に警告表示を行い、ユーザに対して、撮像する被写界が少なくとも一部分で重複するように、メインカメラ11及びサブカメラ12の撮像方向(撮影レンズ16,21の光軸16a,21a方向)を調整させる。そして、CPU117は、ステップS204へ移行し、再度、メインカメラ11及びサブカメラ12のレンズ駆動部(不図示)に撮影レンズ16,21のそれぞれのフォーカスレンズを駆動させて、焦点検出部117a,217aに合焦位置を検出させる。なお、メインカメラ11及びサブカメラ12の撮像方向の調整は、接続部13が出力する2軸情報に基づいて行うのが好ましい。   (2) In the above AF control operation, it is assumed that the object scene of the main camera 11 and the object scene of the sub camera 12 overlap at least partially, but the present invention is not limited to this. For example, after the process of step S206, the CPU 117 determines, based on the through images captured by the image sensors 110 and 210, whether or not there is an overlapping field area as an image feature amount such as an image edge amount. You may determine based on. When the determination result is false, the CPU 117 displays a warning on the LCD 26 and the LCD 29, so that the imaging directions of the main camera 11 and the sub camera 12 (shooting) are set so that the field to be captured overlaps at least partly to the user. The optical axes 16a and 21a of the lenses 16 and 21 are adjusted. Then, the CPU 117 proceeds to step S204, and again causes the lens driving units (not shown) of the main camera 11 and the sub camera 12 to drive the focus lenses of the photographing lenses 16 and 21, respectively, to thereby detect the focus detection units 117a and 217a. To detect the in-focus position. Note that the adjustment of the imaging direction of the main camera 11 and the sub camera 12 is preferably performed based on the biaxial information output from the connection unit 13.

(3)上記AF制御の動作では、ステップS206において、CPU117は、先に検出されたフォーカスレンズの合焦位置に基づいて、他のフォーカスレンズを合焦位置に駆動するとしたが、これに限定されず、それぞれのフォーカスレンズがステップS203の設定に基づいて合焦位置を検出してもよい。また、先に合焦位置が検出された撮影レンズを有するメインカメラ11又はサブカメラ12で撮像を行う場合、ステップS206の処理を省略してもよい。   (3) In the AF control operation, in step S206, the CPU 117 drives the other focus lens to the in-focus position based on the in-focus position of the focus lens previously detected. However, the present invention is not limited to this. Instead, each focus lens may detect the in-focus position based on the setting in step S203. Further, when imaging is performed with the main camera 11 or the sub camera 12 having the photographic lens whose focus position has been detected first, the process of step S206 may be omitted.

(4)上記AF制御の動作では、撮影レンズ16,21は、メインカメラ11及びサブカメラ12に組み込まれたものであったが、これに限定されず、交換式レンズであってもよい。なお、交換式レンズは、自身の仕様情報を記憶するメモリを備えることが好ましく、メインカメラ11又はサブカメラ12に装着された際、交換式撮影レンズは、自身の仕様情報をCPU117又は217に出力することが好ましい。   (4) In the above AF control operation, the photographing lenses 16 and 21 are incorporated in the main camera 11 and the sub camera 12, but are not limited to this, and may be interchangeable lenses. The interchangeable lens preferably includes a memory for storing its own specification information. When the interchangeable lens is attached to the main camera 11 or the sub camera 12, the interchangeable photographing lens outputs its specification information to the CPU 117 or 217. It is preferable to do.

C)動画撮影の動作について
次に、カメラシステム10による動画撮影の一例について、図15のフローチャートを参照しつつ説明する。図15に示す処理は、例えば、動画を撮影する撮影モードの起動指示に応じて、メインカメラ11側のCPU117によって開始される。
C) Moving Image Shooting Next, an example of moving image shooting by the camera system 10 will be described with reference to the flowchart of FIG. The process shown in FIG. 15 is started by the CPU 117 on the main camera 11 side, for example, in response to an instruction to start a shooting mode for shooting a moving image.

ここで、図15の例において、メインカメラ11およびサブカメラ12は共通の被写体を撮像することを前提として説明を行う。また、図15の例において、メインカメラ11およびサブカメラ12で撮像される動画像は、不揮発性の記憶媒体115へ保存される記録用動画像である。   Here, in the example of FIG. 15, the main camera 11 and the sub camera 12 will be described on the assumption that a common subject is imaged. In the example of FIG. 15, the moving images captured by the main camera 11 and the sub camera 12 are recording moving images stored in the nonvolatile storage medium 115.

ステップS301:CPU117は、I/F121a,221aの電気的接続の有無により、メインカメラ11にサブカメラ12が装着されているか検出する。そして、CPU117は、メインカメラ11にサブカメラ12が装着されているとき(I/F121a,221aの電気的接続が確立しているとき)に、サブカメラ12の動画撮影機能の情報をサブカメラ12のメモリ(不図示)から取得する。同様に、CPU117は、メインカメラ11の動画撮影機能の情報をサブカメラ12のメモリ(不図示)から取得する。   Step S301: The CPU 117 detects whether the sub camera 12 is attached to the main camera 11 based on whether or not the I / F 121a and 221a are electrically connected. Then, when the sub camera 12 is attached to the main camera 11 (when the electrical connection between the I / F 121a and 221a is established), the CPU 117 displays information on the moving image shooting function of the sub camera 12 as the sub camera 12. From a memory (not shown). Similarly, the CPU 117 acquires information on the moving image shooting function of the main camera 11 from the memory (not shown) of the sub camera 12.

ここで、上記の動画撮影機能の情報は、各カメラでの動画撮影のフレームレート、各カメラで撮影(撮像)される動画像の解像度(画像サイズ)の情報が含まれる。また、CPU117は、メインカメラ11とサブカメラ12との撮影範囲のズレ量(視差など)を求めるための情報をいずれかのメモリから取得してもよい。   Here, the information on the moving image shooting function includes information on the frame rate of moving image shooting by each camera and the resolution (image size) of a moving image shot (captured) by each camera. Further, the CPU 117 may acquire information for obtaining a shift amount (parallax or the like) of a shooting range between the main camera 11 and the sub camera 12 from any memory.

また、図15の例では、メインカメラ11およびサブカメラ12は、いずれも30fpsまたは60fpsのフレームレートで、HD(high definition)またはフルHDの映像規格に準拠した動画像を撮影する機能を有する。例えば、本実施形態でのメインカメラ11およびサブカメラ12は、記録用動画像を撮影する場合、1920×1080画素のサイズの動画像を60fpsで撮影する。   In the example of FIG. 15, both the main camera 11 and the sub camera 12 have a function of shooting a moving image that complies with an HD (high definition) or full HD video standard at a frame rate of 30 fps or 60 fps. For example, the main camera 11 and the sub camera 12 in this embodiment shoot a moving image having a size of 1920 × 1080 pixels at 60 fps when shooting a moving image for recording.

なお、ステップS301において、メインカメラ11にサブカメラ12が装着されていないとき(I/F121a,221aの電気的接続がないとき)には、CPU117はメインカメラ11のみで動画撮影を行う(この場合の動作説明は省略する)。   In step S301, when the sub camera 12 is not attached to the main camera 11 (when the I / F 121a and 221a are not electrically connected), the CPU 117 performs video shooting only with the main camera 11 (in this case). Explanation of the operation is omitted).

ステップS302:CPU117は、メインカメラ11およびサブカメラ12の撮像タイミングの設定や撮影条件の設定を行う。例えば、CPU117は、カメラシステムでの動画撮影の目的に応じて、以下の設定を行えばよい。   Step S302: The CPU 117 sets the imaging timing and the imaging conditions of the main camera 11 and the sub camera 12. For example, the CPU 117 may perform the following settings according to the purpose of moving image shooting in the camera system.

(1)高フレームレートでの動画撮影の場合
この場合は、メインカメラ11およびサブカメラ12で同じ被写体をそれぞれ動画撮影し、1つの動画像を生成する場合である。この場合には、1台のカメラで撮影するよりも高いフレームレートの動画像を取得することができる。
(1) In the case of moving image shooting at a high frame rate In this case, the main camera 11 and the sub camera 12 each record a moving image of the same subject and generate one moving image. In this case, it is possible to acquire a moving image with a higher frame rate than when shooting with one camera.

この場合には、CPU117は、メインカメラ11およびサブカメラ12の撮像条件(撮像素子の電荷蓄積時間、撮像感度、画像サイズ、フレームレート)をそれぞれ同じにする。そして、CPU117は、メインカメラ11およびサブカメラ12の撮像タイミングをずらす。例えば、CPU117は、メインカメラ11およびサブカメラ12の撮像タイミングを半周期分ずらす。   In this case, the CPU 117 sets the imaging conditions (charge storage time of the imaging device, imaging sensitivity, image size, frame rate) of the main camera 11 and the sub camera 12 to be the same. Then, the CPU 117 shifts the imaging timing of the main camera 11 and the sub camera 12. For example, the CPU 117 shifts the imaging timing of the main camera 11 and the sub camera 12 by a half cycle.

図16は、上記(1)の例でのメインカメラ11とサブカメラ12との撮像タイミングの一例を示す図である。図16の場合、CPU117は、メインカメラ11およびサブカメラ12の撮像タイミングを60fpsの半周期である1/120秒ずらしている。これにより、メインカメラ11およびサブカメラ12のフレームを時間軸に沿って交互に並べ替えることで、カメラシステム10において見かけ上120fpsで動画撮影をすることができるようになる。   FIG. 16 is a diagram illustrating an example of the imaging timing of the main camera 11 and the sub camera 12 in the example (1). In the case of FIG. 16, the CPU 117 shifts the imaging timing of the main camera 11 and the sub camera 12 by 1/120 seconds, which is a half cycle of 60 fps. As a result, by alternately rearranging the frames of the main camera 11 and the sub camera 12 along the time axis, the camera system 10 can shoot a moving image at an apparent 120 fps.

なお、メインカメラ11とサブカメラ12との撮影開始タイミングずらしは静止画の連写などにも適用することができる。この場合は、例えば、ロータリーマルチセレクター28により連写モードを選択し、レリーズボタン19により連写撮影を開始するようにすればよい。   Note that the shift of the shooting start timing between the main camera 11 and the sub camera 12 can also be applied to continuous shooting of still images. In this case, for example, the continuous shooting mode may be selected by the rotary multi selector 28 and the continuous shooting may be started by the release button 19.

(2)低輝度下での動画撮影の場合
上記(1)の変形例として、例えば、カメラシステム10で60fpsの動画を撮影する場合には、各カメラのフレームレートはそれぞれ30fpsで足りる。つまり、低輝度下で動画像を撮影する場合には、1つのカメラで動画像を撮影する場合と比べて各カメラの電荷蓄積時間を2倍にできる。これにより、暗所で動画像を撮影する場合には、比較的高いフレームレートを維持しつつ、露出が良好な動画像を撮影することが可能となる。
(2) In the case of moving image shooting under low luminance As a modification of the above (1), for example, when shooting a 60 fps moving image with the camera system 10, the frame rate of each camera is sufficient at 30 fps. That is, when shooting a moving image under low luminance, the charge accumulation time of each camera can be doubled compared to shooting a moving image with one camera. As a result, when a moving image is shot in a dark place, it is possible to take a moving image with good exposure while maintaining a relatively high frame rate.

この場合には、CPU117は、メインカメラ11およびサブカメラ12の撮像条件をそれぞれ同じにするとともに、メインカメラ11およびサブカメラ12の撮像タイミングを半周期分ずらせばよい。   In this case, the CPU 117 may set the imaging conditions of the main camera 11 and the sub camera 12 to be the same and shift the imaging timing of the main camera 11 and the sub camera 12 by a half cycle.

(3)3Dの動画撮影
この場合は、カメラシステム10の各カメラで右目用の動画像と左目用の動画像とをそれぞれ撮影し、3Dの動画像を生成する場合である。
(3) 3D moving image shooting In this case, a right-eye moving image and a left-eye moving image are respectively captured by each camera of the camera system 10 to generate a 3D moving image.

この場合には、CPU117は、メインカメラ11およびサブカメラ12の撮像条件をそれぞれ同じにするとともに、接続部13のヒンジを調節して、光軸16a,21aを平行にする。そして、CPU117は、メインカメラ11およびサブカメラ12の撮像タイミングを同期させる。図17は、上記(3)の例でのメインカメラ11とサブカメラ12との撮像タイミングの一例を示す図である。なお、図17の場合、CPU117は、メインカメラ11およびサブカメラ12の撮像タイミングを60fpsで同期させている。これにより、60fpsでの3D動画のデータを生成することができる。   In this case, the CPU 117 sets the imaging conditions of the main camera 11 and the sub camera 12 to be the same and adjusts the hinge of the connection unit 13 so that the optical axes 16a and 21a are parallel. Then, the CPU 117 synchronizes the imaging timing of the main camera 11 and the sub camera 12. FIG. 17 is a diagram illustrating an example of the imaging timing of the main camera 11 and the sub camera 12 in the example (3). In the case of FIG. 17, the CPU 117 synchronizes the imaging timing of the main camera 11 and the sub camera 12 at 60 fps. Thereby, 3D moving image data at 60 fps can be generated.

(4)HDR(ハイダイナミックレンジ合成)の動画撮影
HDRの動画撮影の場合も3Dの動画撮影と同様に、接続部13のヒンジを調節して、光軸16a,21aを平行にすることにより、撮影レンズ16により撮像される画像と、撮影レンズ21により撮像される画像との一部が重複する。更に、撮影レンズ16と撮影レンズ21とのぞれぞれのズームレンズをワイド側に設定することにより重複する部分が増え、画像処理部116によるトリミング処理がしやすくなる。
(4) HDR (High Dynamic Range Compositing) Movie Shooting Similarly to HDR movie shooting, the hinges of the connecting portion 13 are adjusted so that the optical axes 16a and 21a are parallel, as in 3D movie shooting. Part of the image captured by the photographic lens 16 and the image captured by the photographic lens 21 overlap. Further, by setting the zoom lens of each of the photographing lens 16 and the photographing lens 21 to the wide side, overlapping portions are increased, and trimming processing by the image processing unit 116 is facilitated.

この場合には、CPU117は、一方のカメラの撮像感度を低く設定し、他方のカメラの撮像感度を高く設定する。そして、CPU117は、メインカメラ11およびサブカメラ12のフレームレートを同じに設定し、かつ図17の場合と同様に撮像タイミングを同期させる。   In this case, the CPU 117 sets the imaging sensitivity of one camera low and sets the imaging sensitivity of the other camera high. Then, the CPU 117 sets the frame rates of the main camera 11 and the sub camera 12 to be the same, and synchronizes the imaging timing as in the case of FIG.

ステップS303:CPU117は、ステップS302の設定に従って、動画像の撮影を実行する。   Step S303: The CPU 117 performs moving image shooting according to the setting in step S302.

例えば、動画撮影の指示(不図示の動画撮影SW、ロータリーマルチセレクター28、レリーズボタン19の操作)に応じて、CPU117は動画の撮影を開始する。このとき、CPU117は、メインカメラ11およびサブカメラ12での動画撮影を統括的に制御する。   For example, in response to an instruction for moving image shooting (moving image shooting SW (not shown), operation of the rotary multi selector 28, release button 19), the CPU 117 starts shooting a moving image. At this time, the CPU 117 comprehensively controls moving image shooting by the main camera 11 and the sub camera 12.

メインカメラ11の撮像素子110で撮像されるRAW画像は、AFE111及びバスを介してバッファメモリ112に記録される。一方、サブカメラ12の撮像素子210で撮像されるRAW画像は、AFE211及びバスを介してバッファメモリ212に記録される。   A RAW image captured by the image sensor 110 of the main camera 11 is recorded in the buffer memory 112 via the AFE 111 and the bus. On the other hand, a RAW image captured by the image sensor 210 of the sub camera 12 is recorded in the buffer memory 212 via the AFE 211 and the bus.

CPU117の制御によって、メインカメラ11側の画像処理部116は、メインカメラ11のバッファメモリ112と、サブカメラ12のバッファメモリ212とからRAW画像を交互に読み出して画像処理を施す。画像処理が施された画像は、時系列に沿った1つの動画像データとしてLCD26に出力されたり、記憶媒体115に記憶されたりする。なお、記憶媒体115に記憶する前にバッファメモリ112に一時的に記録させてもよい。これにより、サブカメラ12で撮像された動画像のフレームは、メインカメラ11で撮像された動画像のフレームの間に時系列に沿って挿入された状態となる。   Under the control of the CPU 117, the image processing unit 116 on the main camera 11 side alternately reads RAW images from the buffer memory 112 of the main camera 11 and the buffer memory 212 of the sub camera 12 and performs image processing. The image subjected to the image processing is output to the LCD 26 as one moving image data along the time series or stored in the storage medium 115. Note that the data may be temporarily recorded in the buffer memory 112 before being stored in the storage medium 115. Thereby, the frame of the moving image captured by the sub camera 12 is inserted in a time series between the frames of the moving image captured by the main camera 11.

なお、この段階で画像処理部116は、メインカメラ11とサブカメラ12間の視差に応じた画像のトリミング処理や、HDRの画像合成処理を必要に応じて行うようにしてもよい。   At this stage, the image processing unit 116 may perform image trimming processing according to the parallax between the main camera 11 and the sub camera 12 or HDR image synthesis processing as necessary.

また、ステップS303において、CPU117は、動画撮影時に音声の録音を行ってもよい。このとき、CPU117は、4つのマイク17a,b、22a,bを全て用いて録音を行ってもよく、各カメラの外側に配置された2つのマイク17a,22bにより録音を行ってもよい。なお、マイク17a,22bで録音を行う場合、CPU117は、マイク17b,22aで集音した音の位相を反転させて不図示のスピーカにより出力することにより、機械音などのノイズをキャンセルするようにしてもよい。   In step S303, the CPU 117 may record a sound during moving image shooting. At this time, the CPU 117 may perform recording using all of the four microphones 17a, b, 22a, b, or may record using two microphones 17a, 22b arranged outside each camera. When recording with the microphones 17a and 22b, the CPU 117 reverses the phase of the sound collected by the microphones 17b and 22a and outputs it through a speaker (not shown), thereby canceling noise such as mechanical sound. May be.

ステップS304:CPU117は、ステップS303の動画像のデータおよび録音データを対応づけて動画像ファイルを生成する。そして、CPU117は、記録I/F114を介して記憶媒体115に動画像ファイルを記録する。   Step S304: The CPU 117 generates a moving image file by associating the moving image data and the recording data in step S303. Then, the CPU 117 records the moving image file on the storage medium 115 via the recording I / F 114.

なお、CPU117は、動画像のうちメインカメラ11で撮像されたフレームと、サブカメラ12で撮像されたフレームとを識別するための付帯情報を動画像ファイルに含める。かかる付帯情報は、カメラ間の視差に応じた画像のトリミング処理を事後的に行う場合や、HDRの画像合成処理を事後的に行う場合や、3Dでの動画再生を行う場合に有用な情報となる。なお、上記の付帯情報は、例えば、1つの動画像に対して、偶数フレームに対応するカメラと奇数フレームに対応するカメラを示す情報を1つのみ付与するものであってもよく、各フレームにそれぞれカメラの情報を付与するものでもよい。   Note that the CPU 117 includes, in the moving image file, additional information for identifying a frame captured by the main camera 11 and a frame captured by the sub camera 12 in the moving image. Such supplementary information is useful information when performing post-processing of image trimming according to parallax between cameras, when performing post-processing of HDR image composition, or when performing 3D video playback. Become. Note that the supplementary information may be, for example, information that gives only one piece of information indicating a camera corresponding to an even frame and a camera corresponding to an odd frame to one moving image. Each may be provided with camera information.

ステップS305:CPU117は、動画撮影の終了指示がされたか否かを判定する。上記要件を満たす場合(YES側)には、CPU117は本フローチャートの処理を終了させる。一方、上記要件を満たさない場合(NO側)には、ステップS303に戻ってCPU117は上記の処理を繰り返す。   Step S305: The CPU 117 determines whether an instruction to end moving image shooting has been issued. If the above requirement is satisfied (YES side), the CPU 117 ends the process of this flowchart. On the other hand, if the above requirement is not satisfied (NO side), the process returns to step S303 and the CPU 117 repeats the above processing.

上記の動作により、カメラシステム10は、2つの撮像機器が接続された状態で動画像を撮影するときに、サブカメラ12の動画像のフレームを、時系列に沿ってメインカメラ11の動画像に挿入されるように記憶媒体115に記憶させる。これにより、2つの撮像機器で撮像された画像を1つの動画像として取り扱うことが可能となる。   With the above operation, when the camera system 10 captures a moving image with two imaging devices connected, the frame of the moving image of the sub camera 12 is converted to the moving image of the main camera 11 in time series. It is stored in the storage medium 115 so as to be inserted. As a result, it is possible to handle images captured by the two imaging devices as one moving image.

≪動画撮影の動作の変形例1≫
図18は、カメラシステム10による動画撮影の他の例を示すフローチャートである。
図18の例は図15の変形例であって、静止画像の撮影モードでスルー画像をLCDに表示するケースである。
<< Variation 1 of video shooting operation >>
FIG. 18 is a flowchart showing another example of moving image shooting by the camera system 10.
The example of FIG. 18 is a modification of FIG. 15, and is a case where a through image is displayed on the LCD in a still image shooting mode.

この図18の例では、メインカメラ11およびサブカメラ12は共通の被写体を撮像することを前提とする。また、メインカメラ11およびサブカメラ12で撮像される動画像は、フレーミングのためにLCD(26または29)に表示される観測用の低解像度動画像(いわゆるスルー画像)である。   In the example of FIG. 18, it is assumed that the main camera 11 and the sub camera 12 image a common subject. The moving images captured by the main camera 11 and the sub camera 12 are low-resolution moving images for observation (so-called through images) displayed on the LCD (26 or 29) for framing.

ステップS401:CPU117は、I/F121a,221aの電気的接続の有無により、メインカメラ11にサブカメラ12が装着されているか検出する。そして、CPU117は、メインカメラ11にサブカメラ12が装着されているとき(I/F121a,221aの電気的接続が確立しているとき)に、サブカメラ12の動画撮影機能の情報をサブカメラ12のメモリ(不図示)から取得する。同様に、CPU117は、メインカメラ11の動画撮影機能の情報をサブカメラ12のメモリ(不図示)から取得する。   Step S401: The CPU 117 detects whether the sub camera 12 is attached to the main camera 11 based on whether or not the I / F 121a and 221a are electrically connected. Then, when the sub camera 12 is attached to the main camera 11 (when the electrical connection between the I / F 121a and 221a is established), the CPU 117 displays information on the moving image shooting function of the sub camera 12 as the sub camera 12. From a memory (not shown). Similarly, the CPU 117 acquires information on the moving image shooting function of the main camera 11 from the memory (not shown) of the sub camera 12.

なお、ステップS401において、メインカメラ11にサブカメラ12が装着されていないとき(I/F121a,221aの電気的接続がないとき)には、CPU117はメインカメラ11のみで撮影を行う(この場合の動作説明は省略する)。   In step S401, when the sub camera 12 is not attached to the main camera 11 (when the I / F 121a and 221a are not electrically connected), the CPU 117 performs shooting with only the main camera 11 (in this case). The explanation of the operation is omitted).

ステップS402:CPU117は、メインカメラ11およびサブカメラ12の撮像タイミングの設定や撮影条件の設定を行う。例えば、CPU117は、スルー画像の撮影において、上記のステップS302の(2)と同様の設定を行えばよい。   Step S402: The CPU 117 performs setting of imaging timing and imaging conditions of the main camera 11 and the sub camera 12. For example, the CPU 117 may perform the same setting as in (2) of step S302 above when shooting a through image.

ステップS403:CPU117は、ステップS402の設定に従って、動画像の撮影を実行する。   Step S403: The CPU 117 performs moving image shooting according to the setting in step S402.

例えば、撮影モードの起動操作に応じて、CPU117は動画(スルー画像)の撮影を開始する。このとき、CPU117は、メインカメラ11およびサブカメラ12でのスルー画像の撮影を統括的に制御する。   For example, in response to the start operation of the shooting mode, the CPU 117 starts shooting a moving image (through image). At this time, the CPU 117 comprehensively controls the shooting of through images with the main camera 11 and the sub camera 12.

メインカメラ11の撮像素子110で撮像される画像は、AFE111及びバスを介してバッファメモリ112に記録される。一方、サブカメラ12の撮像素子210で撮像される画像は、AFE211及びバスを介してバッファメモリ212に記録される。   An image captured by the image sensor 110 of the main camera 11 is recorded in the buffer memory 112 via the AFE 111 and the bus. On the other hand, an image captured by the image sensor 210 of the sub camera 12 is recorded in the buffer memory 212 via the AFE 211 and the bus.

CPU117の制御によって、メインカメラ11側の画像処理部116は、メインカメラ11のバッファメモリ112と、サブカメラ12のバッファメモリ212とからスルー画像を交互に読み出して画像処理を施す。この段階で画像処理部116は、カメラ間の視差に応じた画像のトリミング処理を適宜行うものとする。   Under the control of the CPU 117, the image processing unit 116 on the main camera 11 side alternately reads through images from the buffer memory 112 of the main camera 11 and the buffer memory 212 of the sub camera 12, and performs image processing. At this stage, the image processing unit 116 appropriately performs image trimming processing according to the parallax between the cameras.

その後、画像処理が施されたスルー画像は、LCD26に表示される。これにより、サブカメラ12で撮像されたスルー画像のフレームは、メインカメラ11で撮像されたスルー画像のフレームの間に時系列に沿って挿入された状態で表示されることとなる。   Thereafter, the through image subjected to the image processing is displayed on the LCD 26. Accordingly, the frame of the through image captured by the sub camera 12 is displayed in a state of being inserted in time series between the frames of the through image captured by the main camera 11.

ステップS404:CPU117は、静止画像の撮像指示があったか否かを判定する。上記要件を満たす場合(YES側)には、S405に処理が移行する。一方、上記要件を満たさない場合(NO側)には、ステップS403に戻ってCPU117は上記の処理を繰り返す。   Step S404: The CPU 117 determines whether there is an instruction to capture a still image. If the above requirement is satisfied (YES side), the process proceeds to S405. On the other hand, if the above requirement is not satisfied (NO side), the process returns to step S403 and the CPU 117 repeats the above processing.

ステップS405:CPU117は、メインカメラ11で記録用静止画像を撮像する。このとき、撮像素子110で撮像されたRAW画像は、画像処理部116で画像処理が施された後、記憶媒体115に記憶される。その後、CPU117は本フローチャートの処理を終了させる。   Step S405: The CPU 117 captures a recording still image with the main camera 11. At this time, the RAW image captured by the image sensor 110 is subjected to image processing by the image processing unit 116 and then stored in the storage medium 115. Thereafter, the CPU 117 ends the process of this flowchart.

上記の動作により、カメラシステム10は、2つの撮像機器が接続された状態でスルー画像を撮影するときに、サブカメラ12のスルー画像のフレームを、時系列に沿ってメインカメラ11のスルー画像に挿入してLCD26に表示させる。これにより、暗所でフレーミングを行うときに、比較的高いフレームレートを維持しつつ、露出が良好なスルー画像をLCD26に表示させることが可能となる。   With the above operation, when the camera system 10 captures a through image in a state where two imaging devices are connected, the frame of the through image of the sub camera 12 is changed to the through image of the main camera 11 in time series. It is inserted and displayed on the LCD 26. Accordingly, when performing framing in a dark place, it is possible to display a through image with good exposure on the LCD 26 while maintaining a relatively high frame rate.

≪動画撮影の動作の変形例2≫
図19は、メインカメラ11とサブカメラ12との撮像タイミングの他の例を示す図である。図19は、メインカメラ11で動画像を撮影し、サブカメラ12でAF情報およびAE情報を取得する例である。
Modification 2 of video shooting operation≫
FIG. 19 is a diagram illustrating another example of the imaging timing of the main camera 11 and the sub camera 12. FIG. 19 is an example in which a moving image is captured by the main camera 11 and AF information and AE information are acquired by the sub camera 12.

この図19の例では、メインカメラ11およびサブカメラ12は共通の被写体を撮像することを前提とする。また、メインカメラ11は、1920×1080画素のサイズの記録用動画像を60fpsで撮影する。一方、サブカメラ12は、撮像素子210のAFエリアの信号値を120fpsで読み出す。サブカメラ12では、撮像範囲の一部の信号のみを部分的読み出すので、画像を読み出す場合よりも高いフレームレートで読み出すことが可能となる。なお、上記の変形例2の場合において、CPU117は、AFエリアの信号値を60fpsでサブカメラ12から読み出すとともに、メインカメラ11およびサブカメラ12のフレームレートを半周期分ずらすようにしてもよい。   In the example of FIG. 19, it is assumed that the main camera 11 and the sub camera 12 image a common subject. The main camera 11 captures a recording moving image having a size of 1920 × 1080 pixels at 60 fps. On the other hand, the sub camera 12 reads the signal value of the AF area of the image sensor 210 at 120 fps. Since the sub camera 12 partially reads out only a part of the signals in the imaging range, it can be read out at a higher frame rate than in the case of reading out an image. In the case of Modification 2 described above, the CPU 117 may read out the AF area signal value from the sub camera 12 at 60 fps and shift the frame rates of the main camera 11 and the sub camera 12 by a half cycle.

図19の例において、CPU117は、メインカメラ11で記録用動画像の撮影を行いつつ、サブカメラ12で例えばコントラスト検出方式のAF情報を取得できる。そして、CPU117は、焦点検出部117aを用いた焦点検出を省略して、サブカメラ12のAF情報を用いて、メインカメラ11の撮影レンズ16のフォーカスレンズを合焦させることができる。   In the example of FIG. 19, the CPU 117 can acquire, for example, contrast detection AF information with the sub camera 12 while the main camera 11 captures a recording moving image. Then, the CPU 117 can omit the focus detection using the focus detection unit 117a, and can focus the focus lens of the photographing lens 16 of the main camera 11 using the AF information of the sub camera 12.

一般に、記録用動画像を撮影する撮像素子の出力を用いてコントラスト検出方式のAFを行うと、焦点位置のピークを探索するときに記録用動画像がボケることがある。上記の変形例2の場合には、サブカメラ12で取得したAF情報を用いて、メインカメラ11の撮影レンズ16を合焦位置に直接移動させることができる。そのため、上記の変形例2の場合には、記録用動画像のピントを被写体に常に合わせることができる。   In general, when contrast detection AF is performed using the output of an image sensor that captures a recording moving image, the recording moving image may be blurred when searching for the peak of the focal position. In the case of Modification 2 described above, the shooting lens 16 of the main camera 11 can be directly moved to the in-focus position using the AF information acquired by the sub camera 12. Therefore, in the case of the above modification 2, the recording moving image can be always focused on the subject.

なお、図19の例ではメインカメラ11で動画像を撮影し、サブカメラ12でAF情報およびAE情報を取得するようにしたが、メインカメラ11で連写撮影を行う場合にサブカメラ12でAF情報およびAE情報を取得するようにしてもよい。特にメインカメラがクイックリターンミラーを備えた一眼レフカメラの場合に、連写時のクイックリターンミラーの動作に関わらず、サブカメラ12より被写界情報をCPU117に出力することができる。また、サブカメラ12の撮影レンズ21がメインカメラ11の撮影レンズ16よりも広角レンズである場合には、撮影レンズ21により取得した被写界情報によりメインカメラ11のホワイトバランスの値を設定したり、補正したりしてもよい。   In the example of FIG. 19, a moving image is captured by the main camera 11 and AF information and AE information are acquired by the sub camera 12. However, when continuous shooting is performed by the main camera 11, AF is performed by the sub camera 12. Information and AE information may be acquired. In particular, when the main camera is a single-lens reflex camera equipped with a quick return mirror, the field information can be output from the sub camera 12 to the CPU 117 regardless of the operation of the quick return mirror during continuous shooting. When the photographing lens 21 of the sub camera 12 is a wider-angle lens than the photographing lens 16 of the main camera 11, the white balance value of the main camera 11 is set based on the field information acquired by the photographing lens 21. Or may be corrected.

10…カメラシステム、11…メインカメラ、12…サブカメラ、26…LCD、114…記録I/F、115…記憶媒体、117…CPU、121a〜d,221a〜d…I/F DESCRIPTION OF SYMBOLS 10 ... Camera system, 11 ... Main camera, 12 ... Sub camera, 26 ... LCD, 114 ... Recording I / F, 115 ... Storage medium, 117 ... CPU, 121a-d, 221a-d ... I / F

Claims (10)

第1撮像機器で撮像された画像を記憶媒体に記録する記録装置と、
前記第1撮像機器に着脱可能で動画を撮像可能な第2撮像機器が、前記第1撮像機器に装着されていることを検出する検出部と、
前記第1撮像機器に前記第2撮像機器が装着されているときに、前記第2撮像機器で撮像した動画を前記記憶媒体に記憶させる制御部と、
を備えることを特徴とする電子機器。
A recording device for recording an image captured by the first imaging device on a storage medium;
A detection unit that detects that a second imaging device that is detachable from the first imaging device and can capture a moving image is attached to the first imaging device;
A control unit that stores a moving image captured by the second imaging device in the storage medium when the second imaging device is mounted on the first imaging device;
An electronic device comprising:
請求項1に記載の電子機器において、
前記制御部は、前記第1撮像機器が撮像した画像と前記第2撮像機器が撮像した動画とを時系列に前記記憶媒体に記憶させることを特徴とする電子機器。
The electronic device according to claim 1,
The said control part memorize | stores the image imaged by the said 1st imaging device, and the moving image imaged by the said 2nd imaging device in the said storage medium in time series.
請求項1または請求項2記載の電子機器において、
前記第1撮像機器は、第1フレームレートで動画を撮像しており、
前記制御部は、前記第1フレームレートで撮像した動画の間に前記第2撮像機器で撮像した動画を挿入するように前記記憶媒体への記憶を行なうことを特徴とする電子機器。
The electronic device according to claim 1 or claim 2,
The first imaging device captures a moving image at a first frame rate;
The electronic device, wherein the control unit performs storage in the storage medium so as to insert a moving image captured by the second imaging device between moving images captured at the first frame rate.
請求項1から請求項3のいずれか1項に記載の電子機器において、
前記制御部は、前記第1撮像機器および前記第2撮像機器にそれぞれ同じフレームレートで動画を撮像させるとともに、前記第1撮像機器および前記第2撮像機器の撮像タイミングをずらすことを特徴とする電子機器。
The electronic device according to any one of claims 1 to 3,
The control unit causes the first imaging device and the second imaging device to capture moving images at the same frame rate, and shifts the imaging timing of the first imaging device and the second imaging device. machine.
請求項4に記載の電子機器において、
前記制御部は、前記第1撮像機器および前記第2撮像機器の撮像タイミングを半周期分ずらすことを特徴とする電子機器。
The electronic device according to claim 4,
The said control part shifts the imaging timing of a said 1st imaging device and a said 2nd imaging device by a half cycle, The electronic device characterized by the above-mentioned.
請求項1に記載の電子機器において、
前記制御部は、前記第1撮像機器および前記第2撮像機器にそれぞれ同じフレームレートで動画像を撮像させるとともに、前記第1撮像機器および前記第2撮像機器の撮像タイミングを同期させることを特徴とする電子機器。
The electronic device according to claim 1,
The control unit causes the first imaging device and the second imaging device to capture moving images at the same frame rate, and synchronizes the imaging timings of the first imaging device and the second imaging device. Electronic equipment.
請求項6に記載の電子機器において、
前記制御部は、前記第1撮像機器の撮像感度と前記第2撮像機器の撮像感度を異ならせることを特徴とする電子機器。
The electronic device according to claim 6,
The electronic device is characterized in that the control unit makes the imaging sensitivity of the first imaging device different from the imaging sensitivity of the second imaging device.
請求項1から請求項7のいずれか1項に記載の電子機器において、
前記制御部は、前記第1撮像機器で撮像された画像と前記第2撮像機器で撮像された画像とを識別するための付帯情報を前記記憶媒体に記憶させることを特徴とする電子機器。
The electronic device according to any one of claims 1 to 7,
The said control part memorize | stores the incidental information for identifying the image imaged with the said 1st imaging device, and the image imaged with the said 2nd imaging device in the said storage medium, The electronic device characterized by the above-mentioned.
第1撮像機器に着脱可能な第2撮像機器が、前記第1撮像機器に装着されていることを検出する検出部と、
前記第1撮像機器に前記第2撮像機器が装着されているときに、前記第2撮像機器で取得した被写体の情報を用いて、前記第1撮像機器で画像を撮像するときの焦点位置を調整する制御部と、
を備えることを特徴とする電子機器。
A detection unit that detects that a second imaging device that is detachable from the first imaging device is attached to the first imaging device;
When the second imaging device is attached to the first imaging device, the focus position when the first imaging device captures an image is adjusted using the subject information acquired by the second imaging device. A control unit,
An electronic device comprising:
請求項9記載の電子機器において、
前記第1撮像機器は、動画もしくは静止画の連写を行なうことを特徴とする電子機器。
The electronic device according to claim 9, wherein
The first imaging device is an electronic device that performs continuous shooting of a moving image or a still image.
JP2011108388A 2011-05-13 2011-05-13 Electronic apparatus Withdrawn JP2012239134A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011108388A JP2012239134A (en) 2011-05-13 2011-05-13 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011108388A JP2012239134A (en) 2011-05-13 2011-05-13 Electronic apparatus

Publications (1)

Publication Number Publication Date
JP2012239134A true JP2012239134A (en) 2012-12-06

Family

ID=47461618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011108388A Withdrawn JP2012239134A (en) 2011-05-13 2011-05-13 Electronic apparatus

Country Status (1)

Country Link
JP (1) JP2012239134A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184386A (en) * 2014-03-20 2015-10-22 カシオ計算機株式会社 Photographing control device, photographing control method and program
JP2016127451A (en) * 2015-01-05 2016-07-11 オリンパス株式会社 Imaging device and imaging method
CN106556961A (en) * 2015-09-30 2017-04-05 佳能企业股份有限公司 Camera head and its method of operating

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184386A (en) * 2014-03-20 2015-10-22 カシオ計算機株式会社 Photographing control device, photographing control method and program
JP2016127451A (en) * 2015-01-05 2016-07-11 オリンパス株式会社 Imaging device and imaging method
CN106556961A (en) * 2015-09-30 2017-04-05 佳能企业股份有限公司 Camera head and its method of operating

Similar Documents

Publication Publication Date Title
JP4448844B2 (en) Compound eye imaging device
JP5595499B2 (en) Monocular stereoscopic imaging device
JP5681329B2 (en) Imaging apparatus and image display method
JP4763827B2 (en) Stereoscopic image display device, compound eye imaging device, and stereoscopic image display program
JP2009048181A (en) Stereoscopic image photographing device
KR101346426B1 (en) Image processing device capable of generating wide-range image
JP2012239135A (en) Electronic apparatus
JP5415170B2 (en) Compound eye imaging device
JP5231771B2 (en) Stereo imaging device
TW201301866A (en) Image processing device capable of generating wide-range image, image processing method, and recording medium
JP2011075675A (en) Compound-eye imaging apparatus
JP2011048276A (en) Stereoscopic imaging apparatus
JP2011166756A (en) Photographing apparatus and photographing system
JP2011259168A (en) Stereoscopic panoramic image capturing device
JP2015053741A (en) Image reproduction device
JP4730616B2 (en) Compound eye digital camera
JP2010226362A (en) Imaging apparatus and control method thereof
JP2012239134A (en) Electronic apparatus
JP2005229290A (en) Imaging apparatus and imaging method
JP2012237937A (en) Electronic apparatus
JP5600413B2 (en) Image capturing device system, external device, camera, and image capturing device system control method
JP2012237936A (en) Electronic apparatus
JP2005202037A (en) Stereo camera
JP5054214B2 (en) Compound eye digital camera
JP2010135963A (en) Imaging apparatus, and control method of imaging apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140805