JP2014049890A - Imaging apparatus, imaging method, and program - Google Patents

Imaging apparatus, imaging method, and program Download PDF

Info

Publication number
JP2014049890A
JP2014049890A JP2012190278A JP2012190278A JP2014049890A JP 2014049890 A JP2014049890 A JP 2014049890A JP 2012190278 A JP2012190278 A JP 2012190278A JP 2012190278 A JP2012190278 A JP 2012190278A JP 2014049890 A JP2014049890 A JP 2014049890A
Authority
JP
Japan
Prior art keywords
unit
imaging
imaging unit
image
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012190278A
Other languages
Japanese (ja)
Inventor
Satoshi Ejima
聡 江島
Masaichi Sekiguchi
政一 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012190278A priority Critical patent/JP2014049890A/en
Publication of JP2014049890A publication Critical patent/JP2014049890A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Stroboscope Apparatuses (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of automatically selecting a lens according to a picture to be imaged, setting added information such as AR (Augmented Reality) display and such, and setting a photographic environment and such.SOLUTION: The imaging apparatus includes: a first imaging part having optical systems for a right eye and a left eye provided by being separated by a first base line length and imaging pictures for the right eye and the left eye; a second imaging part having optical systems for the right eye and the left eye provided by being separated by a second base line length smaller than the first base line length and imaging pictures for the right eye and the left eye; and a selection part that selects at least one of the first imaging part and the second imaging part on the basis of pictures output by the first imaging part and the second imaging part.

Description

本発明は、撮像装置、撮像方法、及び、プログラムに関する。   The present invention relates to an imaging apparatus, an imaging method, and a program.

カメラに設けられた3つのレンズから立体画像の撮影に使用する2つのレンズをユーザに選択させ、選択されたレンズの組み合わせに応じて近景、遠景、及び、その中間の撮影をする3D立体カメラが知られている(例えば、特許文献1参照)。
[先行技術文献]
[特許文献]
[特許文献1] 登録実用新案第3168741号公報
A 3D stereoscopic camera that allows a user to select two lenses to be used for shooting a stereoscopic image from the three lenses provided in the camera, and captures a close-up view, a distant view, and an intermediate view according to the selected combination of lenses. It is known (see, for example, Patent Document 1).
[Prior art documents]
[Patent Literature]
[Patent Document 1] Registered Utility Model No. 3168874

しかし、従来の方法では、撮影される画像に応じて、レンズを自動的に選択すること、AR(Augmented Reality:拡張現実)表示等の付加情報を設定すること、及び、撮影環境等を設定することができなかった。   However, in the conventional method, a lens is automatically selected according to a captured image, additional information such as AR (Augmented Reality) display is set, and a shooting environment is set. I couldn't.

本発明の一態様においては、第1の基線長離れて設けられた右眼用および左眼用の光学系を有し、右眼用および左眼用の画像を撮像する第1撮像部と、前記第1の基線長より小さい第2の基線長離れて設けられた右眼用および左眼用の光学系を有し、右眼用および左眼用の画像を撮像する第2撮像部と、前記第1撮像部および前記第2撮像部が出力する画像に基づいて、前記第1撮像部および前記第2撮像部の少なくとも一方を選択する選択部とを備える撮像装置を提供する。   In one aspect of the present invention, a first imaging unit that includes optical systems for the right eye and the left eye that are provided apart from each other by the first baseline length, and that captures images for the right eye and the left eye, A second imaging unit having optical systems for the right eye and the left eye that are provided apart from the second baseline length smaller than the first baseline length, and that captures images for the right eye and the left eye; An imaging apparatus is provided that includes a selection unit that selects at least one of the first imaging unit and the second imaging unit based on images output from the first imaging unit and the second imaging unit.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

本実施形態に係る撮像装置10の構成を示すブロック図を示す。1 is a block diagram illustrating a configuration of an imaging apparatus 10 according to the present embodiment. 被写体側及び使用者側から観察した撮像装置10の外観斜視図を示す。The external appearance perspective view of the imaging device 10 observed from the to-be-photographed object side and the user side is shown. 本実施形態に係る撮像装置10の撮影時の処理のフローチャートを示す。5 shows a flowchart of processing at the time of shooting by the imaging apparatus 10 according to the present embodiment. 撮像部の選択、AR表示位置の設定、照明部の選択、及び、集音部の選択の一例を示す。An example of selection of an imaging unit, setting of an AR display position, selection of an illumination unit, and selection of a sound collection unit will be shown. 画像に基づく撮像部の選択の一例を示す。An example of selection of an imaging part based on an image is shown. 画像に基づくAR表示の設定の一例を示す。An example of the setting of AR display based on an image is shown. 本実施形態に係る撮像装置10の画像再生時の処理のフローチャートを示す。3 shows a flowchart of processing during image reproduction of the imaging apparatus 10 according to the present embodiment.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、本実施形態に係る撮像装置10の構成を示すブロック図を示し、図2(a)及び(b)は、被写体側及び使用者側から観察した撮像装置10の外観斜視図を示す。   FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus 10 according to the present embodiment, and FIGS. 2A and 2B are external perspective views of the imaging apparatus 10 observed from the subject side and the user side. .

(撮像装置10の説明)
本実施形態の撮像装置10は、遠景撮影用の撮像部と近景撮影用の撮像部とを備え、撮影しようする被写体の画像に応じて、適切な撮像部を選択することにより、使用者によるマニュアルでの撮像部の指定を不要とする。撮像装置10は、図1及び図2に示すように、筐体100、グリップ102、第1撮像部110、第2撮像部120、第3撮像部130、第1集音部140、第2集音部142、エンコーダ144、操作スイッチ146、GPSセンサー148、3G/LTE通信回路150、加速度センサー154、方位センサー156、記憶装置158、バッテリー160、電源回路162、第1照明部164、第2照明部166、USBコネクタ168、デコーダ170、表示ドライバ172、表示部174、スピーカーアンプ176、ステレオスピーカー178、ズームスイッチ180、及び、処理部190を備える。
(Description of Imaging Device 10)
The imaging apparatus 10 according to the present embodiment includes an imaging unit for taking a distant view and an imaging unit for taking a close-up view, and by selecting an appropriate imaging unit according to an image of a subject to be taken, a user manual It is not necessary to specify the imaging unit in As shown in FIGS. 1 and 2, the imaging device 10 includes a housing 100, a grip 102, a first imaging unit 110, a second imaging unit 120, a third imaging unit 130, a first sound collection unit 140, and a second collection. Sound unit 142, encoder 144, operation switch 146, GPS sensor 148, 3G / LTE communication circuit 150, acceleration sensor 154, direction sensor 156, storage device 158, battery 160, power supply circuit 162, first illumination unit 164, second illumination Unit 166, USB connector 168, decoder 170, display driver 172, display unit 174, speaker amplifier 176, stereo speaker 178, zoom switch 180, and processing unit 190.

筐体100は、内部に撮像装置10の各部を収納する、例えば、横長の略直方体の部材である。グリップ102は、使用者が撮像装置10を保持するための部材であり、例えば、筐体100の下部に設けられる円筒状の部材である。   The housing 100 is, for example, a horizontally long, substantially rectangular parallelepiped member that accommodates each part of the imaging device 10 therein. The grip 102 is a member for the user to hold the imaging device 10, and is, for example, a cylindrical member provided at the lower part of the housing 100.

第1撮像部110は、筐体100の被写体側の一面に設けられ、被写体を撮像する。第1撮像部110は、第2撮像部120と比較しより遠景を撮像する撮像部であり、例えば、被写体が第1撮像部110から50cm以上離れている場合に、被写体の最適な立体画像を撮像する。   The first imaging unit 110 is provided on one surface of the subject side of the housing 100 and images the subject. The first imaging unit 110 is an imaging unit that captures a distant view compared to the second imaging unit 120. For example, when the subject is 50 cm or more away from the first imaging unit 110, an optimal stereoscopic image of the subject is displayed. Take an image.

第1撮像部110は、使用者の右眼に対応する画像を撮影するための光学系である左撮像部112及び使用者の左眼に対応する画像を撮影するための光学系である右撮像部114を有する。左撮像部112及び右撮像部114は、CCD又はCMOSなどの素子に光束を入射・結像させて画像データを得る撮像手段であってよく、例えば、横3000画素、横2000画素の画素を有してよい。第1撮像部110は、エンコーダ144に接続され、左撮像部112及び右撮像部114からのアナログ画像信号をエンコーダ144に出力する。   The first imaging unit 110 is a left imaging unit 112 that is an optical system for capturing an image corresponding to the user's right eye and a right imaging that is an optical system for capturing an image corresponding to the user's left eye. Part 114. The left imaging unit 112 and the right imaging unit 114 may be an imaging unit that obtains image data by causing a light beam to enter and form an image on an element such as a CCD or a CMOS. For example, the left imaging unit 112 and the right imaging unit 114 include pixels with horizontal 3000 pixels and horizontal 2000 pixels. You can do it. The first imaging unit 110 is connected to the encoder 144 and outputs analog image signals from the left imaging unit 112 and the right imaging unit 114 to the encoder 144.

左撮像部112と右撮像部114は、一対のステレオカメラを構成し、被写体の静止画又は動画を撮像する。これにより、第1撮像部110は、左撮像部112と右撮像部114から右眼用画像及び左眼用画像を撮像して、視差のある立体視用画像を得る。左撮像部112と右撮像部114は、それぞれズームレンズを有してよい。また、左撮像部112と右撮像部114は、それぞれオートフォーカス(AF)機構を有してよい。   The left imaging unit 112 and the right imaging unit 114 constitute a pair of stereo cameras and capture a still image or a moving image of a subject. Accordingly, the first imaging unit 110 captures the right-eye image and the left-eye image from the left imaging unit 112 and the right imaging unit 114, and obtains a stereoscopic image with parallax. The left imaging unit 112 and the right imaging unit 114 may each have a zoom lens. Further, the left imaging unit 112 and the right imaging unit 114 may each have an autofocus (AF) mechanism.

左撮像部112と右撮像部114は、第1の基線長離れて設けられている。例えば、左撮像部112と右撮像部114は、人の眼の眼幅距離(左眼と右眼との間隔)である64mmの近傍の距離、例えば、50mm〜70mm離れて設けられる。これにより、第1撮像部110により遠方を撮影した立体視用画像を再生する場合に、観察時の映像と近い立体視用画像を表示できる。   The left imaging unit 112 and the right imaging unit 114 are provided apart from each other by the first baseline length. For example, the left imaging unit 112 and the right imaging unit 114 are provided at a distance in the vicinity of 64 mm, which is an eye width distance (interval between the left eye and the right eye) of a human eye, for example, 50 mm to 70 mm apart. As a result, when a stereoscopic image captured by the first imaging unit 110 is taken, a stereoscopic image that is close to the image at the time of observation can be displayed.

第2撮像部120は、筐体100の被写体側の一面に設けられ、被写体を撮像する。第2撮像部120は、第1撮像部110と比較しより近景を撮像する撮像部であり、例えば、被写体が撮像装置10から50cm未満に位置する場合に、被写体の最適な立体画像を撮像する。   The second imaging unit 120 is provided on one surface of the subject side of the housing 100 and images the subject. The second imaging unit 120 is an imaging unit that captures a closer view as compared to the first imaging unit 110. For example, when the subject is located less than 50 cm from the imaging device 10, the second imaging unit 120 captures an optimal stereoscopic image of the subject. .

第2撮像部120は、使用者の右眼に対応する画像を撮影するための光学系である左撮像部122及び使用者の左眼に対応する画像を撮影するための右眼用の光学系である右撮像部124を有する。左撮像部122と右撮像部124は、撮像装置10の被写体側の面において、左撮像部112及び右撮像部114の内側に配置される。左撮像部122及び右撮像部124は、CCD又はCMOSなどの素子に光束を入射・結像させて画像データを得る撮像手段であってよく、例えば、横3000画素、横2000画素の画素を有してよい。第2撮像部120は、エンコーダ144に接続され、左撮像部122及び右撮像部124からのアナログ画像信号をエンコーダ144に出力する。   The second imaging unit 120 includes a left imaging unit 122 that is an optical system for capturing an image corresponding to the user's right eye and an optical system for the right eye that captures an image corresponding to the user's left eye. A right imaging unit 124. The left imaging unit 122 and the right imaging unit 124 are disposed inside the left imaging unit 112 and the right imaging unit 114 on the subject side surface of the imaging apparatus 10. The left imaging unit 122 and the right imaging unit 124 may be imaging means for obtaining image data by causing a light beam to enter and form an image on an element such as a CCD or a CMOS. You can do it. The second imaging unit 120 is connected to the encoder 144 and outputs analog image signals from the left imaging unit 122 and the right imaging unit 124 to the encoder 144.

左撮像部122と右撮像部124は、一対のステレオカメラを構成し、被写体の静止画又は動画を撮像する。これにより、第2撮像部120は、左撮像部122と右撮像部124から右眼用画像及び左眼用画像を撮像して、視差のある立体視用画像を得る。左撮像部122と右撮像部124は、それぞれズームレンズを有してよい。また、左撮像部122と右撮像部124は、それぞれオートフォーカス(AF)機構を有してよい。   The left imaging unit 122 and the right imaging unit 124 constitute a pair of stereo cameras and capture a still image or a moving image of the subject. Accordingly, the second imaging unit 120 captures the right-eye image and the left-eye image from the left imaging unit 122 and the right imaging unit 124, and obtains a stereoscopic image with parallax. The left imaging unit 122 and the right imaging unit 124 may each have a zoom lens. Further, the left imaging unit 122 and the right imaging unit 124 may each have an autofocus (AF) mechanism.

左撮像部122と右撮像部124は、第1の基線長より小さい第2の基線長離れて設けられている。例えば、左撮像部122と右撮像部124の間隔は、5mm〜50mmであってよい。これにより、第2撮像部120により、近傍の被写体を撮影した場合に、立体視用画像の視差が大きくなりすぎて不自然な表示となることを防ぐことができる。なお、第2撮像部120は、着脱可能であってよい。   The left imaging unit 122 and the right imaging unit 124 are provided apart from each other by a second baseline length that is smaller than the first baseline length. For example, the interval between the left imaging unit 122 and the right imaging unit 124 may be 5 mm to 50 mm. Accordingly, when a nearby subject is photographed by the second imaging unit 120, it is possible to prevent the parallax of the stereoscopic image from becoming too large and resulting in an unnatural display. Note that the second imaging unit 120 may be detachable.

第3撮像部130は、筐体100の使用者側の一面に設けられ、使用者自身を撮像する。第3撮像部130は、右眼用の光学系である左撮像部132及び左眼用の光学系である右撮像部134を有する。左撮像部132及び右撮像部134は、CCD又はCMOSなどの素子に光束を入射・結像させて画像データを得る撮像手段であってよく、例えば、横3000画素、横2000画素の画素を有してよい。第3撮像部130は、エンコーダ144に接続され、左撮像部132及び右撮像部134からのアナログ画像信号をエンコーダ144に出力する。   The third imaging unit 130 is provided on one surface of the housing 100 on the user side, and images the user himself / herself. The third imaging unit 130 includes a left imaging unit 132 that is an optical system for the right eye and a right imaging unit 134 that is an optical system for the left eye. The left imaging unit 132 and the right imaging unit 134 may be imaging means for obtaining image data by causing a light beam to enter and form an image on an element such as a CCD or a CMOS. You can do it. The third imaging unit 130 is connected to the encoder 144 and outputs analog image signals from the left imaging unit 132 and the right imaging unit 134 to the encoder 144.

左撮像部132と右撮像部134は、一対のステレオカメラを構成し、使用者を撮像する。これにより、第3撮像部130は、左撮像部132と右撮像部134から右眼用画像及び左眼用画像を撮像して、視差のある立体視用画像を得る。これにより、撮像装置10は、第3撮像部130により撮像した使用者の画像を使用者に対して表示することにより、使用者に鏡を見た場合のように使用者自身の映像を確認させることができ、また、撮像装置10に対する使用者の位置を測定することができる。   The left imaging unit 132 and the right imaging unit 134 constitute a pair of stereo cameras, and image the user. Accordingly, the third imaging unit 130 captures the right-eye image and the left-eye image from the left imaging unit 132 and the right imaging unit 134, and obtains a stereoscopic image with parallax. As a result, the imaging apparatus 10 displays the user's image captured by the third imaging unit 130 to the user, thereby allowing the user to confirm the user's own image as when looking at the mirror. In addition, the position of the user with respect to the imaging device 10 can be measured.

左撮像部132と右撮像部134の間隔は、一例として標準的な眼幅距離の半分である32mmに設定される。これにより、使用者が左撮像部132及び右撮像部134で撮影した画像を撮像装置10で観察する場合の輻輳角を、使用者が鏡で自分の顔を観察する場合の輻輳角と等しくし、使用者が鏡を見る場合と同じように撮像装置10に自分の顔を表示させることができる。   As an example, the interval between the left imaging unit 132 and the right imaging unit 134 is set to 32 mm, which is half of the standard eye width distance. Thereby, the convergence angle when the user observes the image captured by the left imaging unit 132 and the right imaging unit 134 with the imaging device 10 is made equal to the convergence angle when the user observes his / her face with a mirror. The user can display his / her face on the imaging device 10 in the same manner as when the user looks in the mirror.

第1集音部140は、筐体100の被写体側の一面に設けられた一対のステレオマイクであり、被写体からの音声等を集音する。第1集音部140は、指向性マイクを有してよく、これにより、遠方からの微弱な音でも十分に集音できる。一対の第1集音部140の代わりに単一の第1集音部140が筐体100に設けられてもよい。第1集音部140は、エンコーダ144に接続され、アナログ音声信号をエンコーダ144に出力する。   The first sound collection unit 140 is a pair of stereo microphones provided on one surface of the subject side of the housing 100 and collects sound and the like from the subject. The first sound collection unit 140 may include a directional microphone, and thereby, even a weak sound from a distance can be collected sufficiently. Instead of the pair of first sound collection units 140, a single first sound collection unit 140 may be provided in the housing 100. The first sound collection unit 140 is connected to the encoder 144 and outputs an analog audio signal to the encoder 144.

第2集音部142は、筐体100の被写体側の一面に設けられた一対のステレオマイクであり、被写体からの音声等を集音する。第2集音部142は、無指向性マイクを有してよく、これにより、近傍の全方向からの音を均等に集音する。一対の第2集音部142の代わりに単一の第2集音部142が筐体100に設けられてもよい。第2集音部142は、エンコーダ144に接続され、アナログ音声信号をエンコーダ144に出力する。   The second sound collection unit 142 is a pair of stereo microphones provided on one surface of the casing 100 on the subject side, and collects sound and the like from the subject. The second sound collecting unit 142 may include an omnidirectional microphone, thereby collecting sound from all directions in the vicinity. Instead of the pair of second sound collection units 142, a single second sound collection unit 142 may be provided in the housing 100. The second sound collecting unit 142 is connected to the encoder 144 and outputs an analog audio signal to the encoder 144.

エンコーダ144は、第1撮像部110、第2撮像部120、及び、第3撮像部130からアナログ画像信号出力を受け取り、これをデジタル画像データに変換して処理部190に入力する。また、エンコーダ144は、第1集音部140及び第2集音部142からのアナログ音声信号をデジタル音声データに変換して処理部190に入力する。   The encoder 144 receives an analog image signal output from the first imaging unit 110, the second imaging unit 120, and the third imaging unit 130, converts this into digital image data, and inputs the digital image data to the processing unit 190. In addition, the encoder 144 converts analog audio signals from the first sound collection unit 140 and the second sound collection unit 142 into digital audio data and inputs the digital audio data to the processing unit 190.

操作スイッチ146は、撮像装置10の任意の場所に設けられ、使用者の様々な操作を入力する。操作スイッチ146は、例えば、筐体100の使用者側、被写体側、上面、下面、及び/又は、側面に設けられる。操作スイッチ146は、グリップ102に設けられてもよい。操作スイッチ146は、使用者による撮影指示、画像再生指示、及び、電源のON/OFFを含めた操作を入力する。   The operation switch 146 is provided at an arbitrary location on the imaging apparatus 10 and inputs various operations of the user. The operation switch 146 is provided on the user side, the subject side, the upper surface, the lower surface, and / or the side surface of the housing 100, for example. The operation switch 146 may be provided on the grip 102. The operation switch 146 inputs an operation including a photographing instruction, an image reproduction instruction, and power ON / OFF by the user.

GPSセンサー148は、GPS(Global Positioning System)を利用した測位検出を行う。GPSセンサー148は、検出した撮像装置10の位置に関する情報を処理部190に供給する。   The GPS sensor 148 performs positioning detection using GPS (Global Positioning System). The GPS sensor 148 supplies information regarding the detected position of the imaging device 10 to the processing unit 190.

3G/LTE通信回路150は、3G及びLTEの通信規格に準拠して他の装置との移動通信を行う通信回路である。撮像装置10は、3G及びLTE以外の通信規格による通信を行う通信回路を備えてよい。3G/LTE通信回路150は、他の装置への送信データを処理部190から受け取り、他の装置からの受信データを処理部190に供給する。   The 3G / LTE communication circuit 150 is a communication circuit that performs mobile communication with other devices in accordance with 3G and LTE communication standards. The imaging device 10 may include a communication circuit that performs communication according to a communication standard other than 3G and LTE. The 3G / LTE communication circuit 150 receives transmission data to other devices from the processing unit 190 and supplies received data from other devices to the processing unit 190.

加速度センサー154は、重力及び撮像装置10に作用する加速度を測定することにより、撮像装置10の傾きを検出する。加速度センサー154は、重力の方向を測定することで、撮像装置10の姿勢を検出する。加速度センサー154は、検出した撮像装置10の傾きを処理部190に供給する。   The acceleration sensor 154 detects the inclination of the imaging device 10 by measuring gravity and acceleration acting on the imaging device 10. The acceleration sensor 154 detects the orientation of the imaging device 10 by measuring the direction of gravity. The acceleration sensor 154 supplies the detected tilt of the imaging device 10 to the processing unit 190.

方位センサー156は、地磁気を検出することにより、撮像装置10の水平面上の方位(東西南北)を検出する。   The azimuth sensor 156 detects the azimuth (east, west, north, and south) on the horizontal plane of the imaging device 10 by detecting geomagnetism.

記憶装置158は、撮像された画像データ、及び、集音された音声データを格納するとともに、処理部190の動作プログラム及びその他必要な情報を格納する。   The storage device 158 stores captured image data and collected sound data, and stores an operation program of the processing unit 190 and other necessary information.

バッテリー160は、撮像装置10に電力を供給する部材であり、例えば、リチウムイオン電池、及び、ニッケル水素電池等の充電可能な二次電池、又は、使い捨ての一次電池であってよい。バッテリー160は、例えば、図2の破線で示されるようにグリップ102の内部に装着されてよい。これに代えて、バッテリー160は、筐体100の内部に装着されてもよい。   The battery 160 is a member that supplies power to the imaging device 10 and may be, for example, a rechargeable secondary battery such as a lithium ion battery and a nickel metal hydride battery, or a disposable primary battery. The battery 160 may be mounted inside the grip 102 as indicated by a broken line in FIG. Instead, the battery 160 may be mounted inside the housing 100.

電源回路162は、バッテリー160が接続されており、撮像装置10の各回路に必要な電源を供給するとともに、撮像装置10の電源のON/OFFを制御する。   The power supply circuit 162 is connected to a battery 160, supplies necessary power to each circuit of the imaging apparatus 10, and controls ON / OFF of the power supply of the imaging apparatus 10.

第1照明部164は、筐体100の被写体側の一面に設けられ、遠方の被写体を瞬間的に照明するための照明である。第1照明部164は、放電管によりフラッシュ光を出力するキセノン管等のフラッシュライトであってよい。   The first illumination unit 164 is provided on one surface of the casing 100 on the subject side, and is an illumination for momentarily illuminating a distant subject. The first illumination unit 164 may be a flash light such as a xenon tube that outputs flash light from a discharge tube.

第2照明部166は、筐体100の被写体側の一面に設けられ、近傍の被写体を照明するための照明である。第2照明部166は、フラッシュ光を出力する一対のLEDであってよい。一対の第2照明部166の代わりに単一の第2照明部166が筐体100に設けられてもよい。   The second illumination unit 166 is provided on one surface of the subject side of the housing 100 and is illumination for illuminating a nearby subject. The second illumination unit 166 may be a pair of LEDs that output flash light. A single second illumination unit 166 may be provided in the housing 100 instead of the pair of second illumination units 166.

USBコネクタ168は、USB(Universal Serial Bus)デバイスの接続端子であり、筐体100及び/又はグリップ102に設けられる。USBコネクタ168は、撮像装置10と他の装置との通信を可能にする。さらにUSBコネクタ168は電源に接続されて、バッテリー160を充電してもよい。   The USB connector 168 is a connection terminal of a USB (Universal Serial Bus) device, and is provided on the housing 100 and / or the grip 102. The USB connector 168 enables communication between the imaging device 10 and another device. Further, the USB connector 168 may be connected to a power source to charge the battery 160.

デコーダ170は、処理部190から入力されたデジタル画像データをデコードしてアナログ映像信号に変換し、表示ドライバ172に出力する。また、デコーダ170は、処理部190から入力されたデジタル音声データをデコードしてアナログ音声信号に変換し、スピーカーアンプ176に出力する。   The decoder 170 decodes the digital image data input from the processing unit 190, converts it into an analog video signal, and outputs it to the display driver 172. In addition, the decoder 170 decodes the digital audio data input from the processing unit 190, converts it into an analog audio signal, and outputs the analog audio signal to the speaker amplifier 176.

表示ドライバ172は、デコーダ170からのアナログ映像信号に基づいて表示部174を駆動するパルスを生成し、表示部174に画像を表示させる。スピーカーアンプ176は、デコーダ170からのアナログ音声信号を増幅してステレオスピーカー178に出力する。   The display driver 172 generates a pulse for driving the display unit 174 based on the analog video signal from the decoder 170 and causes the display unit 174 to display an image. The speaker amplifier 176 amplifies the analog audio signal from the decoder 170 and outputs it to the stereo speaker 178.

表示部174は、例えば、液晶表示装置、又は、有機EL表示装置等の表示装置であり、筐体100の使用者側の一面に設けられる。表示部174は、第1撮像部110、第2撮像部120、又は、第3撮像部130が撮像した立体視用の画像を表示する。一例として、表示部174は、表面に貼付けられたレンチキュラーレンズを有し、これにより使用者の右眼と左眼に対して視差のある右眼用画像及び左眼用画像を表示してよい。   The display unit 174 is, for example, a display device such as a liquid crystal display device or an organic EL display device, and is provided on one surface of the housing 100 on the user side. The display unit 174 displays the stereoscopic image captured by the first imaging unit 110, the second imaging unit 120, or the third imaging unit 130. As an example, the display unit 174 may include a lenticular lens affixed to the surface, thereby displaying a right eye image and a left eye image that have parallax with respect to the user's right eye and left eye.

表示部174には、その表面に透明なタッチパネル175が設けられてよく、これにより使用者が手指等で触れることにより、使用者から撮像装置10の各種操作を入力する。   The display unit 174 may be provided with a transparent touch panel 175 on the surface thereof, whereby the user inputs various operations of the imaging device 10 by touching with a finger or the like.

ステレオスピーカー178は、筐体100の使用者側の一面に設けられた一対のスピーカーである。ステレオスピーカー178に代えて、モノラルスピーカーを筐体100に設けてもよい。   The stereo speakers 178 are a pair of speakers provided on one surface of the user side of the housing 100. Instead of the stereo speaker 178, a monaural speaker may be provided in the housing 100.

ズームスイッチ180は、一例として、表示部174の下部に設けられた、W側ボタン(広角ズームボタン)とT側ボタン(望遠ズームボタン)とを有するスイッチである。撮像装置10の撮影中に、T側ボタンが押下されると、第1撮像部110及び/又は第2撮像部120のズームが望遠側に移動し、若しくは、表示部174のライブビュー画像が画像処理により拡大されて表示される。撮影中にW側ボタンが押下されると、第1撮像部110及び/又は第2撮像部120のズームが広角側に移動し、若しくは、表示部174のライブビュー画像が画像処理により縮小されて表示される。   As an example, the zoom switch 180 is a switch having a W-side button (wide-angle zoom button) and a T-side button (telephoto zoom button) provided at the bottom of the display unit 174. When the T-side button is pressed during shooting by the imaging device 10, the zoom of the first imaging unit 110 and / or the second imaging unit 120 moves to the telephoto side, or the live view image on the display unit 174 is an image. Enlarged and displayed by processing. When the W-side button is pressed during shooting, the zoom of the first imaging unit 110 and / or the second imaging unit 120 moves to the wide-angle side, or the live view image on the display unit 174 is reduced by image processing. Is displayed.

また、撮像した画像の再生中にT側ボタンが押下されると、表示部174は第1撮像部110により撮像された画像を表示してよい。再生中にW側ボタンが押下されると表示部174は第2撮像部120により撮像された画像を表示してよい。   Further, when the T-side button is pressed during reproduction of the captured image, the display unit 174 may display the image captured by the first imaging unit 110. When the W-side button is pressed during reproduction, the display unit 174 may display an image captured by the second imaging unit 120.

処理部190は、CPU等を含み、エンコーダ144、操作スイッチ146、GPSセンサー148、3G/LTE通信回路150、加速度センサー154、方位センサー156、記憶装置158、電源回路162、第1照明部164、第2照明部166、USBコネクタ168、デコーダ170、タッチパネル175、及び、ズームスイッチ180に接続されて、撮像装置10を総合的に制御する。   The processing unit 190 includes a CPU and the like, and includes an encoder 144, an operation switch 146, a GPS sensor 148, a 3G / LTE communication circuit 150, an acceleration sensor 154, a direction sensor 156, a storage device 158, a power supply circuit 162, a first illumination unit 164, The imaging device 10 is comprehensively controlled by being connected to the second illumination unit 166, the USB connector 168, the decoder 170, the touch panel 175, and the zoom switch 180.

処理部190は、操作スイッチ146、タッチパネル175、及び、ズームスイッチ180から使用者の操作情報を受け取る。処理部190は、3G/LTE通信回路150、記憶装置158、及び、USBコネクタ168との間でデータの送受信をする。また、処理部190は、GPSセンサー148、加速度センサー154、及び、方位センサー156からの各種データを受信する。また、処理部190は、電源回路162からの電源の供給及び第1照明部164と第2照明部166の出力を制御する。   The processing unit 190 receives user operation information from the operation switch 146, the touch panel 175, and the zoom switch 180. The processing unit 190 transmits / receives data to / from the 3G / LTE communication circuit 150, the storage device 158, and the USB connector 168. Further, the processing unit 190 receives various data from the GPS sensor 148, the acceleration sensor 154, and the direction sensor 156. Further, the processing unit 190 controls the supply of power from the power circuit 162 and the outputs of the first lighting unit 164 and the second lighting unit 166.

また、処理部190は、エンコーダ144から第1撮像部110、第2撮像部120、及び/又は、第3撮像部130からのデジタル画像データを受け取る。また、処理部190は、エンコーダ144から第1集音部140、及び/又は、第2集音部142からのデジタル音声データを受け取る。   Further, the processing unit 190 receives digital image data from the first imaging unit 110, the second imaging unit 120, and / or the third imaging unit 130 from the encoder 144. Further, the processing unit 190 receives digital audio data from the first sound collecting unit 140 and / or the second sound collecting unit 142 from the encoder 144.

被写体の撮像時に、処理部190は、エンコーダ144から受け取った第1撮像部110が出力する遠景用の画像、及び、第2撮像部120が出力する近景用の画像における人物の有無及び/又は彩度に基づいて、第1撮像部110および第2撮像部120のうち撮影に適した少なくとも一方を選択する選択部として機能する。   When the subject is imaged, the processing unit 190 receives the presence / absence and / or color of a person in the distant view image output from the first image capturing unit 110 and the near image output from the second image capturing unit 120 received from the encoder 144. It functions as a selection unit that selects at least one of the first imaging unit 110 and the second imaging unit 120 suitable for shooting based on the degree.

処理部190は、操作スイッチ146から使用者の撮像指示を受ける前に撮像部の選択を実行し、使用者の撮像指示に応じて、第1撮像部110および第2撮像部120のうち選択した撮像部により画像を撮像させ、当該撮像させた画像を記憶装置158に保存してよい。   The processing unit 190 selects an imaging unit before receiving a user's imaging instruction from the operation switch 146, and selects the first imaging unit 110 or the second imaging unit 120 according to the user's imaging instruction. An image may be captured by the imaging unit, and the captured image may be stored in the storage device 158.

これに代えて、処理部190は、使用者の撮像指示を受ける前に第1撮像部110及び第2撮像部120の両方に画像を撮像させ、操作スイッチ146からの使用者の撮像指示に応じて、第1撮像部110および第2撮像部120のうち選択した撮像部により撮像された画像を記憶装置158に保存してもよい。   Instead, the processing unit 190 causes both the first imaging unit 110 and the second imaging unit 120 to capture an image before receiving a user's imaging instruction, and responds to the user's imaging instruction from the operation switch 146. Thus, an image captured by an imaging unit selected from the first imaging unit 110 and the second imaging unit 120 may be stored in the storage device 158.

また、処理部190は、第1撮像部110と第2撮像部120の両方が撮像した画像を対応付けて記憶装置158に保存してもよい。処理部190は、操作スイッチ146及び/又はタッチパネル175を介して使用者から第3撮像部130による撮影の指示を受け取った場合、第3撮像部130により撮像された画像を記憶装置158に保存してもよい。   The processing unit 190 may store the images captured by both the first imaging unit 110 and the second imaging unit 120 in the storage device 158 in association with each other. When the processing unit 190 receives a shooting instruction from the third imaging unit 130 from the user via the operation switch 146 and / or the touch panel 175, the processing unit 190 stores the image captured by the third imaging unit 130 in the storage device 158. May be.

また、被写体の撮像時に、処理部190は、第1撮像部110、及び、第2撮像部120が出力する画像に基づいて、第1照明部164および第2照明部166の少なくとも一方を発光させてよい。   Further, when the subject is imaged, the processing unit 190 causes at least one of the first illumination unit 164 and the second illumination unit 166 to emit light based on images output from the first imaging unit 110 and the second imaging unit 120. It's okay.

また、被写体の動画を撮像する場合に、処理部190は、第1撮像部110及び第2撮像部120が出力する画像に基づいて、エンコーダ144から受け取った第1集音部140及び第2集音部142からの少なくとも一方からの音声を記憶装置158に録音する録音部としての機能を有する。   Further, when capturing a moving image of the subject, the processing unit 190 uses the first sound collecting unit 140 and the second sound collecting unit received from the encoder 144 based on the images output from the first image capturing unit 110 and the second image capturing unit 120. It has a function as a recording unit that records the sound from at least one from the sound unit 142 in the storage device 158.

被写体の撮像時に、処理部190は、エンコーダ144からのデジタル画像データをデコーダ170に出力して、表示部174にライブビュー画像を表示させてよい。この場合、処理部190は、第1撮像部110及び第2撮像部120が出力する画像に基づいて、第1撮像部110が出力する画像及び第2撮像部120が出力する画像のいずれかをライブビュー画像として表示部174に表示させるかを選択してよい。   At the time of imaging the subject, the processing unit 190 may output the digital image data from the encoder 144 to the decoder 170 and display the live view image on the display unit 174. In this case, the processing unit 190 selects either the image output from the first imaging unit 110 or the image output from the second imaging unit 120 based on the images output from the first imaging unit 110 and the second imaging unit 120. You may select whether to display on the display part 174 as a live view image.

例えば、処理部190は、第1撮像部110および第2撮像部120が出力する画像における人物の有無及び/又は彩度に基づいて、ライブビュー画像を出力させる撮像部を選択してよい。ライブビュー画像を表示中に使用者から撮影指示を受け取った場合、処理部190は、ライブビュー画像を出力している撮像部により画像を撮像させてよい。   For example, the processing unit 190 may select an imaging unit that outputs a live view image based on the presence and / or saturation of a person in the images output from the first imaging unit 110 and the second imaging unit 120. When a shooting instruction is received from the user while the live view image is being displayed, the processing unit 190 may cause the imaging unit that outputs the live view image to capture the image.

撮像した動画又は静止画の画像再生時に、処理部190は、記憶装置158からデジタル画像データを読み出してデコーダ170に出力する。撮像した動画の再生時に、処理部190は、ステレオスピーカー178に出力させるデジタル音声データをデコーダ170に出力する。   When the captured moving image or still image is reproduced, the processing unit 190 reads the digital image data from the storage device 158 and outputs the digital image data to the decoder 170. When playing back the captured moving image, the processing unit 190 outputs digital audio data to be output to the stereo speaker 178 to the decoder 170.

このように、本実施形態の撮像装置10によると、遠景用の第1撮像部110及び近景用の第2撮像部120からの画像から人物等の主要な被写体を検出し、主要な被写体の立体画像をより最適に撮像する撮像部を選択して撮影する。また、本実施形態の撮像装置10は、主要な被写体の検出結果により、AR表示、被写体の照明、及び、マイクを最適化する。これにより、本実施形態によれば、使用者が手動で撮像部を選択しなくとも、撮像装置10が被写体に応じて撮影に適した撮像部を選択し、適切な撮影環境を設定することができる。   As described above, according to the imaging apparatus 10 of the present embodiment, a main subject such as a person is detected from the images from the first imaging unit 110 for distant view and the second imaging unit 120 for near view, and the three-dimensional structure of the main subject is obtained. An image pickup unit that picks up an image more optimally is selected and shot. Further, the imaging apparatus 10 of the present embodiment optimizes the AR display, the illumination of the subject, and the microphone based on the detection result of the main subject. Thereby, according to this embodiment, even if a user does not select an imaging part manually, the imaging device 10 can select the imaging part suitable for imaging | photography according to a to-be-photographed object, and can set an appropriate imaging environment. it can.

(撮像装置10の撮影時の処理フロー)
次に本実施形態に係る撮像装置10の撮影時の処理を図3に示すフローチャートに沿って説明する。以下の説明では、撮像装置10は、S102からS114までの処理を実行して被写体の静止画画像を撮像する場合について説明する。
(Processing flow at the time of photographing by the imaging device 10)
Next, processing at the time of shooting by the imaging apparatus 10 according to the present embodiment will be described with reference to the flowchart shown in FIG. In the following description, a case will be described in which the imaging apparatus 10 captures a still image of a subject by executing the processing from S102 to S114.

まず、S102において、処理部190は、第1撮像部110の画像から被写体を検出する。一例として、処理部190は、第1撮像部110の左撮像部112と右撮像部114における被写体の位置のずれ、すなわち視差量から、三角測量の原理に従って画像中の被写体の距離を算出し、撮像装置10から遠景撮像用の第1撮像部110の撮影対象距離(一例として50cm〜無限遠)に存在する被写体を検出する。これに代えて、処理部190は、左撮像部112及び/又は右撮像部114のフォーカスを50cm〜無限遠方まで変化させ、ピントが合う被写体を第1撮像部110の画像中から検出してもよい。   First, in S <b> 102, the processing unit 190 detects a subject from the image of the first imaging unit 110. As an example, the processing unit 190 calculates the distance of the subject in the image according to the principle of triangulation from the displacement of the position of the subject in the left imaging unit 112 and the right imaging unit 114 of the first imaging unit 110, that is, the amount of parallax. A subject existing at a shooting target distance (for example, 50 cm to infinity) of the first imaging unit 110 for shooting a distant view from the imaging device 10 is detected. Instead, the processing unit 190 may change the focus of the left imaging unit 112 and / or the right imaging unit 114 from 50 cm to infinity and detect a focused subject from the image of the first imaging unit 110. Good.

処理部190は、第1撮像部110の画像の検出結果を(1)顔検出、(2)高彩度、又は、(3)低彩度に分類する。一例として、処理部190は、検出した被写体の画像を分析して画像中に人物の顔が含まれていれば、検出結果を(1)顔検出に分類する。検出した被写体の画像中に人物の顔が含まれておらず、かつ当該被写体の画像の彩度が予め定められた基準彩度以上である場合、処理部190は検出結果を(2)高彩度と分類する。   The processing unit 190 classifies the image detection result of the first imaging unit 110 into (1) face detection, (2) high saturation, or (3) low saturation. As an example, the processing unit 190 analyzes an image of the detected subject and, if a human face is included in the image, classifies the detection result as (1) face detection. When the detected face image does not include a human face and the saturation of the subject image is equal to or higher than a predetermined reference saturation, the processing unit 190 sets the detection result as (2) high saturation. Classify.

ここで、第1撮像部110が撮像した画像の各画素はRGBの混色で表現されており、各色は8ビット(0〜255)の輝度値等により表される。一例として、検出された被写体を画定する画像領域から一部の画素のブロック(一例として、縦横20画素の合計400画素のブロック)を抜き出し、当該画素のブロックにおいてRGBのいずれか1色の輝度の平均値が、他の2色の輝度の平均値の一方又は両方より128よりも離れている場合、処理部190は検出結果を(2)高彩度と分類してよい。本実施形態によれば、処理部190は、画素の領域毎に複数の画素(例えば、400画素)の輝度の平均値を取ることにより、単一の画素に着眼した場合に生じるノイズの影響を排除することができる。   Here, each pixel of the image imaged by the first imaging unit 110 is expressed by RGB mixed colors, and each color is represented by a luminance value of 8 bits (0 to 255) or the like. As an example, a block of a part of pixels (for example, a block of 400 pixels in total of 20 pixels in length and width) is extracted from an image area that defines a detected subject, and the luminance of any one of RGB colors in the block of pixels is extracted. When the average value is more than 128 than one or both of the average values of the luminances of the other two colors, the processing unit 190 may classify the detection result as (2) high saturation. According to the present embodiment, the processing unit 190 takes the average value of the luminance of a plurality of pixels (for example, 400 pixels) for each pixel region, thereby reducing the influence of noise generated when focusing on a single pixel. Can be eliminated.

検出した被写体の画像中に人物の顔が含まれておらず、かつ当該被写体の画像の彩度が予め定められた基準彩度未満である場合、処理部190は検出結果を(3)低彩度と分類する。なお、第1撮像部110が50cm〜無限遠の距離に被写体を検出しなかった場合は、処理部190は、検出結果を(4)被写体検出せずと分類する。   If the detected subject image does not include a human face and the saturation of the subject image is less than a predetermined reference saturation, the processing unit 190 sets the detection result to (3) low saturation. Classify as degrees. When the first imaging unit 110 does not detect the subject at a distance of 50 cm to infinity, the processing unit 190 classifies the detection result as (4) no subject detection.

次に、S104において、処理部190は、第2撮像部120の画像から被写体を検出する。一例として、処理部190は、第2撮像部120の左撮像部122と右撮像部124における被写体の位置のずれ、すなわち視差量から、三角測量の原理に従って画像中の被写体の距離を算出し、撮像装置10から近景撮像用の第2撮像部120の撮影対象距離(一例として0cm〜50cm)に存在する被写体を検出する。これに代えて、処理部190は、左撮像部122及び/又は右撮像部124のフォーカスを0cm〜50cmまで変化させ、ピントが合う被写体を第2撮像部120の画像中から検出してもよい。   Next, in S <b> 104, the processing unit 190 detects a subject from the image of the second imaging unit 120. As an example, the processing unit 190 calculates the distance of the subject in the image according to the principle of triangulation from the displacement of the position of the subject in the left imaging unit 122 and the right imaging unit 124 of the second imaging unit 120, that is, the amount of parallax. A subject existing at a shooting target distance (for example, 0 cm to 50 cm) of the second imaging unit 120 for taking a near view from the imaging device 10 is detected. Instead of this, the processing unit 190 may change the focus of the left imaging unit 122 and / or the right imaging unit 124 from 0 cm to 50 cm and detect a focused subject from the image of the second imaging unit 120. .

処理部190は、第2撮像部120の画像の検出結果を(1)顔検出、(2)高彩度、(3)低彩度、又は(4)被写体検出せずに分類する。当該処理部190は、S102において説明した方法と同様の方法により、第2撮像部120の画像の検出結果を分類してよい。なお、ステップS102とS104は並列又は並行に処理されてよい。これにより、撮像装置10は、迅速に撮影を完了することができる。   The processing unit 190 classifies the detection result of the image of the second imaging unit 120 without (1) face detection, (2) high saturation, (3) low saturation, or (4) no subject detection. The processing unit 190 may classify the image detection results of the second imaging unit 120 by the same method as described in S102. Note that steps S102 and S104 may be processed in parallel or in parallel. Thereby, the imaging device 10 can complete imaging | photography rapidly.

次に、S106において、処理部190は、S104における第1撮像部110の画像の検出結果の分類、及び、S106における第2撮像部120の画像の検出結果の分類に基づいて、第1撮像部110および第2撮像部120のうち撮影に適した少なくとも一方を選択する。   Next, in S106, the processing unit 190, based on the classification of the detection result of the image of the first imaging unit 110 in S104 and the classification of the detection result of the image of the second imaging unit 120 in S106, the first imaging unit. At least one suitable for shooting is selected from 110 and the second imaging unit 120.

一例として、処理部190は、両撮像部の検出結果の分類に対し、(1)顔検出、(2)高彩度、(3)低彩度、(4)被写体検出せずの順番に高い優先度を割り当て、優先度を比較した結果、優先度の高い撮像部を選択する。例えば、処理部190は、第1撮像部110および第2撮像部120が出力する画像のそれぞれにおいて撮影対象距離内に人物が撮像されているか否かに基づき、第1撮像部110および第2撮像部120のうち、人物が撮像された画像を出力した撮像部を優先度が高い撮像部として選択する。   As an example, the processing unit 190 has a high priority in the order of (1) face detection, (2) high saturation, (3) low saturation, and (4) no subject detection for the classification of detection results of both imaging units. As a result of comparing the priorities, an imaging unit with a higher priority is selected. For example, the processing unit 190 determines whether the first imaging unit 110 and the second imaging unit are based on whether a person is captured within the shooting target distance in each of the images output from the first imaging unit 110 and the second imaging unit 120. Among the units 120, an imaging unit that outputs an image in which a person is captured is selected as an imaging unit with high priority.

具体的には、図4(a)に示すように、第1撮像部110が出力する画像に人物の顔等が撮像されている場合には、第1撮像部110を選択し(図4(a)の1B、1C、1D)、第2撮像部120が出力する画像に人物の顔等が撮像されている場合には、第2撮像部120を選択する(図4(a)の2A、3A、及び4A)。   Specifically, as shown in FIG. 4A, when a human face or the like is captured in the image output from the first imaging unit 110, the first imaging unit 110 is selected (FIG. 4 ( a) 1B, 1C, 1D) When the human face is captured in the image output by the second imaging unit 120, the second imaging unit 120 is selected (2A in FIG. 4A). 3A and 4A).

また、例えば、処理部190は、第1撮像部110および第2撮像部120が出力する画像のそれぞれの彩度に基づき、予め定められた基準彩度以上の画像を出力した撮像部を優先度が高い撮像部として選択する。具体的には、図4(a)に示すように、第1撮像部110が出力する画像が基準彩度以上の高彩度の被写体を撮影対象距離内に含む画像であれば、第1撮像部110を選択し(図4(a)の2C及び2D)、第2撮像部120が出力する画像が基準彩度以上の高彩度の被写体を撮影対象距離内に含む画像であれば、第2撮像部120を選択する(図4(a)の3B及び4B)。   Further, for example, the processing unit 190 gives priority to an imaging unit that outputs an image having a predetermined reference saturation or higher based on the saturations of the images output from the first imaging unit 110 and the second imaging unit 120. Is selected as an imaging unit having a high value. Specifically, as illustrated in FIG. 4A, if the image output from the first imaging unit 110 is an image including a subject with high saturation equal to or higher than the reference saturation within the shooting target distance, the first imaging unit 110. (2C and 2D in FIG. 4A), and if the image output by the second imaging unit 120 is an image that includes a subject with high saturation within the shooting target distance that is equal to or higher than the reference saturation, the second imaging unit 120 (3B and 4B in FIG. 4A).

また、両撮像部で人物及び高彩度の被写体が検出されないが、第1撮像部110が出力する画像が基準彩度未満の被写体を撮影対象距離内に含む場合には、処理部190は、第1撮像部110を選択し(図4(a)の3D)、第2撮像部120が出力する画像が基準彩度未満の被写体を撮影対象距離内に含む場合には、第2撮像部120を選択する(図4(a)の4C)。   In addition, when neither an image pickup unit detects a person nor a high-saturation subject, but the image output by the first image pickup unit 110 includes a subject with a reference saturation less than the reference saturation, the processing unit 190 performs the first operation. When the imaging unit 110 is selected (3D in FIG. 4A), and the image output by the second imaging unit 120 includes a subject whose reference saturation is less than the reference saturation, the second imaging unit 120 is selected. (4C in FIG. 4A).

第1撮像部110の検出結果と第2撮像部120の検出結果の優先度が同等である場合、処理部190は、両方の撮像部が撮影に適していると判断して、両方の撮像部を選択する(図4(a)の1A、2B、及び3C)。ただし、いずれの撮像部の検出結果も(4)被写体検出せずの場合は、撮影を実行することに意味がないので、処理部190は、いずれの撮像部も選択しなくてよい(図4(a)の4D)。撮像部を選択しない場合は、処理部190は処理を終了してもよい。   When the priority of the detection result of the first imaging unit 110 and the detection result of the second imaging unit 120 are equal, the processing unit 190 determines that both imaging units are suitable for shooting, and both imaging units (1A, 2B, and 3C in FIG. 4A). However, the detection result of any imaging unit is (4) if the subject is not detected, there is no point in executing the imaging, and therefore the processing unit 190 does not need to select any imaging unit (FIG. 4). 4D of (a). When the imaging unit is not selected, the processing unit 190 may end the process.

例えば、図5(a)に示すように、第1撮像部110及び第2撮像部120の撮影範囲内に、撮像装置10の近傍(一例として、撮像装置10から45cm離れた位置)に位置する人物20と、撮像装置10の遠方(一例として、撮像装置10から4m離れた位置)に位置する花30が含まれる場合を想定する。   For example, as illustrated in FIG. 5A, the imaging device 10 is located in the vicinity of the imaging device 10 (for example, a position 45 cm away from the imaging device 10) within the imaging range of the first imaging unit 110 and the second imaging unit 120. A case is assumed in which a person 20 and a flower 30 located far from the imaging device 10 (for example, a position 4 m away from the imaging device 10) are included.

この場合、処理部190は、遠景用の第1撮像部110の画像から高彩度の花30(例えば、平均輝度R229、G0、B30で表現されるチューリップ)を被写体として検出する。また、処理部190は、近景用の第2撮像部120の画像から人物20の顔を被写体として検出する。   In this case, the processing unit 190 detects a high-saturation flower 30 (for example, a tulip represented by average luminances R229, G0, and B30) as an object from the image of the first imaging unit 110 for distant view. In addition, the processing unit 190 detects the face of the person 20 as a subject from the image of the second imaging unit 120 for foreground.

この結果、処理部190は、第1撮像部110の画像の検出結果を(2)高彩度と分類し、第2撮像部120の画像の検出結果を(1)顔検出と分類する。この場合、処理部190は、優先度の高い第2撮像部120を選択する(図4(a)の2A)。   As a result, the processing unit 190 classifies the detection result of the image of the first imaging unit 110 as (2) high saturation, and classifies the detection result of the image of the second imaging unit 120 as (1) face detection. In this case, the processing unit 190 selects the second imaging unit 120 having a high priority (2A in FIG. 4A).

また、例えば、図5(b)に示すように、第1撮像部110及び第2撮像部120の撮影範囲内に、撮像装置10の近傍(一例として、撮像装置10から45cm離れた位置)に位置する岩40と、撮像装置10の遠方(一例として、撮像装置10から4m離れた位置)に位置する花30が含まれる場合を想定する。   Also, for example, as shown in FIG. 5B, within the imaging range of the first imaging unit 110 and the second imaging unit 120, in the vicinity of the imaging device 10 (for example, a position 45 cm away from the imaging device 10). A case is assumed in which a rock 40 located and a flower 30 located far from the imaging apparatus 10 (as an example, a position 4 m away from the imaging apparatus 10) are included.

この場合、処理部190は、遠景用の第1撮像部110の画像から高彩度の花30(例えば、平均輝度R229、G0、B30で表現されるチューリップ)を被写体として検出する。また、処理部190は、近景用の第2撮像部120の画像から岩40(例えば、平均輝度R140、G140、B140で表現される岩石)を被写体として検出する。   In this case, the processing unit 190 detects a high-saturation flower 30 (for example, a tulip represented by average luminances R229, G0, and B30) as an object from the image of the first imaging unit 110 for distant view. Further, the processing unit 190 detects the rock 40 (for example, a rock expressed by average luminances R140, G140, and B140) as a subject from the image of the second imaging unit 120 for foreground.

この結果、処理部190は、第1撮像部110の画像の検出結果を(2)高彩度と分類し、第2撮像部120の画像の検出結果を(3)低彩度と分類する。この場合、処理部190は、優先度の高い第1撮像部110を選択する(図4(a)の2C)。   As a result, the processing unit 190 classifies the detection result of the image of the first imaging unit 110 as (2) high saturation, and classifies the detection result of the image of the second imaging unit 120 as (3) low saturation. In this case, the processing unit 190 selects the first imaging unit 110 having a high priority (2C in FIG. 4A).

処理部190は、表示部174に第1撮像部110又は第2撮像部120からのライブビュー画像を表示させてよい。処理部190は、撮像に用いる撮像部の選択と同様の方法で、ライブビュー画像をいずれの撮像部からの画像とするかを選択してよい。   The processing unit 190 may display the live view image from the first imaging unit 110 or the second imaging unit 120 on the display unit 174. The processing unit 190 may select from which imaging unit the live view image is to be used in the same method as the selection of the imaging unit used for imaging.

ここで、いずれの撮像部も選択しなかった場合には、処理部190は、撮像装置10の傾きにより選択される一方の撮像部を用いて表示部174にライブビュー画像を表示させてよい。一例として、加速度センサー154が撮像装置10が水平方向又は上方向を向いていることを検出した場合、処理部190は、ライブビュー画像表示用に遠景用の第1撮像部110を選択してよい。また、加速度センサー154が撮像装置10が下方向を向いていることを検出した場合、処理部190は、ライブビュー画像表示用に近景用の第2撮像部120を選択してよい。   Here, when no image capturing unit is selected, the processing unit 190 may display the live view image on the display unit 174 using one image capturing unit selected by the inclination of the image capturing apparatus 10. As an example, when the acceleration sensor 154 detects that the imaging device 10 is oriented horizontally or upward, the processing unit 190 may select the first imaging unit 110 for distant view for live view image display. . Further, when the acceleration sensor 154 detects that the imaging device 10 is facing downward, the processing unit 190 may select the second imaging unit 120 for near view for live view image display.

次に、S108において、処理部190は付加情報のAR表示に関する処理を実行する。付加情報は、予め使用者からタッチパネル175等を介して入力されて記憶装置158に格納されていてもよく、これに代えて処理部190が被写体画像を解析して、名称、特性、又はその他の属性情報を付加してもよい。図6(a)は、虫50の画像に対して「コガネムシ」という名称を付加した例を示し、図6(b)は、山60の画像に対して「○○山」等の地名を付加した例を示す。   Next, in S108, the processing unit 190 executes processing related to AR display of additional information. The additional information may be input in advance from the user via the touch panel 175 or the like and stored in the storage device 158. Instead, the processing unit 190 analyzes the subject image, and the name, characteristic, or other Attribute information may be added. FIG. 6A shows an example in which the name “Korean beetle” is added to the image of the insect 50, and FIG. 6B shows a place name such as “XX mountain” added to the image of the mountain 60. An example is shown.

処理部190は、第1撮像部110及び第2撮像部120が出力する画像に基づいて、表示部174の左眼用画像及び右眼用画像における、AR表示のずらし量、すなわち視差量を決定して記憶装置158に格納する。処理部190は、S106における、第1撮像部110と第2撮像部120の選択と同様に、AR表示のずらし量を決定してよい。   The processing unit 190 determines an AR display shift amount, that is, a parallax amount in the left-eye image and the right-eye image of the display unit 174 based on the images output from the first imaging unit 110 and the second imaging unit 120. And stored in the storage device 158. The processing unit 190 may determine the shift amount of the AR display similarly to the selection of the first imaging unit 110 and the second imaging unit 120 in S106.

一例として、S106で第2撮像部120を選択した場合、処理部190は、AR表示のずらし量を主要被写体のずれ量よりも小さい値に設定し、AR表示を遠景に表示させる(図4(b)における1B、1C、1D、2C、2D、及び、3D)。この結果、撮像装置10は、近傍に表示される被写体に対してAR表示を使用者の遠方に立体表示させる。   As an example, when the second imaging unit 120 is selected in S106, the processing unit 190 sets the shift amount of the AR display to a value smaller than the shift amount of the main subject, and displays the AR display in a distant view (FIG. 4 ( 1B, 1C, 1D, 2C, 2D and 3D in b). As a result, the imaging apparatus 10 displays the AR display in a stereoscopic manner at a distance from the user with respect to the subject displayed in the vicinity.

この場合、図6(a)に示すように、処理部190は、AR表示のずらし量を虫50の画像のずれ量よりも小さく設定し、「コガネムシ」のAR表示を第2撮像部120からの虫50の画像より遠景に立体表示する。これにより、処理部190は、使用者の近くに立体表示される虫50の画像からAR表示を見分けやすくする。   In this case, as illustrated in FIG. 6A, the processing unit 190 sets the shift amount of the AR display to be smaller than the shift amount of the image of the insect 50, and displays the AR display of “Scarabae” from the second imaging unit 120. 3D images are displayed in a distant view from the image of the bug 50. Thereby, the processing unit 190 makes it easy to distinguish the AR display from the image of the insect 50 displayed in a three-dimensional manner near the user.

また、別の一例として、S106で第1撮像部110を選択した場合、処理部190は、AR表示のずらし量を主要被写体のずれ量よりも大きい値に設定し、AR表示を近景に表示させる(図4(b)における2A、3A、4A、3B、4B、及び、4C)。この結果、撮像装置10は、遠方に表示される被写体に対してAR表示を使用者の近くに立体表示させる。   As another example, when the first imaging unit 110 is selected in S106, the processing unit 190 sets the AR display shift amount to a value larger than the main subject shift amount, and displays the AR display in the foreground. (2A, 3A, 4A, 3B, 4B, and 4C in FIG. 4B). As a result, the imaging device 10 displays the AR display near the user in a stereoscopic manner with respect to a subject displayed far away.

この場合、図6(b)に示すように、処理部190は、AR表示のずらし量を山60の画像のずれ量よりも大きく設定し、「○○山」等のAR表示を第1撮像部110からの山60の画像より近景に立体表示する。これにより、処理部190は、使用者の遠くに立体表示される山60の画像からAR表示を見分けやすくする。   In this case, as illustrated in FIG. 6B, the processing unit 190 sets the shift amount of the AR display to be larger than the shift amount of the image of the mountain 60, and first displays the AR display such as “XX mountain”. Three-dimensional display in the foreground from the image of the mountain 60 from the unit 110. Thereby, the processing unit 190 makes it easy to distinguish the AR display from the image of the mountain 60 displayed stereoscopically in the distance of the user.

また、S106で第1撮像部110及び第2撮像部120が選択された場合は、処理部190は、第1撮像部110が検出した被写体のずれ量と、第2撮像部120が検出した被写体のずれ量の中間の値に、AR表示のずらし量を設定する(図4(b)の1A、2B、及び3C)。これにより、処理部190は、使用者の近傍と遠方の両方に被写体が立体表示される場合に、いずれかの被写体のいずれかと見分けがつきにくい位置にAR表示が立体表示されることを防ぐことができる。   In addition, when the first imaging unit 110 and the second imaging unit 120 are selected in S106, the processing unit 190 detects the shift amount of the subject detected by the first imaging unit 110 and the subject detected by the second imaging unit 120. The shift amount of the AR display is set to an intermediate value of the shift amount (1A, 2B, and 3C in FIG. 4B). As a result, the processing unit 190 prevents the AR display from being displayed in a 3D display at a position that is difficult to distinguish from any of the objects when the object is displayed in 3D both near and far from the user. Can do.

処理部190は、S108において、ずらし量が設定されたAR表示をライブビュー画像に重畳して表示部174に表示させてもよい。   In S108, the processing unit 190 may superimpose the AR display in which the shift amount is set on the live view image and display the AR display on the display unit 174.

次に、S110において、処理部190は、S106において選択した撮像部からの画像において、検出した被写体の輝度が予め定められた値以下か否かを判断する。検出した被写体の輝度が予め定められた値以下の場合(S110のY)、処理部190は処理をS112に進め、それ以外の場合は処理をS114に進める。   Next, in S110, the processing unit 190 determines whether or not the luminance of the detected subject is equal to or less than a predetermined value in the image from the imaging unit selected in S106. If the detected luminance of the subject is equal to or lower than a predetermined value (Y in S110), the processing unit 190 advances the process to S112, and otherwise advances the process to S114.

なお、S106において両方の撮像部を選択した場合、処理部190は、両撮像部の少なくとも一方が検出した被写体の輝度が、予め定められた値以下か否かを判断してよい。また、S106においていずれの撮像部も選択されない場合、処理部190は、処理をS114に進めてよい。   When both the imaging units are selected in S106, the processing unit 190 may determine whether the luminance of the subject detected by at least one of the two imaging units is equal to or lower than a predetermined value. If no image pickup unit is selected in S106, the processing unit 190 may advance the process to S114.

S112において、処理部190は、第1撮像部110及び第2撮像部120が出力する画像に基づいて、撮影の際に第1照明部164および第2照明部166のいずれを発光させるかを選択する。処理部190は、S106における、第1撮像部110と第2撮像部120の選択と同様に、いずれかの照明部を決定してよい。   In S112, the processing unit 190 selects which of the first illumination unit 164 and the second illumination unit 166 to emit light at the time of shooting based on the images output from the first imaging unit 110 and the second imaging unit 120. To do. The processing unit 190 may determine one of the illumination units in the same manner as the selection of the first imaging unit 110 and the second imaging unit 120 in S106.

一例として、S106において遠景用の第1撮像部110を選択した場合、処理部190は、遠方の被写体を照明する放電管である第1照明部164を発光させる(図4(c)の1B、1C、1D、2C、2D、3D)。これにより、撮像装置10は、主要な被写体が遠方で検出される場合に、光量の大きな放電管を用いて照明を行い、遠方の被写体に対しても十分な露光量を確保することができる。   As an example, when the first imaging unit 110 for distant view is selected in S106, the processing unit 190 emits light from the first illumination unit 164 that is a discharge tube that illuminates a distant subject (1B in FIG. 4C). 1C, 1D, 2C, 2D, 3D). As a result, when the main subject is detected at a distance, the imaging apparatus 10 can perform illumination using a discharge tube with a large amount of light, and can secure a sufficient exposure amount for the subject at a distance.

S106において、近景用の第2撮像部120を選択した場合、処理部190は、近傍の被写体を照明するLEDである第2照明部166を発光させる(図4(c)の2A、3A、4A、3B、4B、及び、4C)。これにより、撮像装置10は、人物の顔や花等の優先度が高い被写体の距離に応じて、被写体に対して十分な光量の照明を行うことができる。   When the second imaging unit 120 for near view is selected in S106, the processing unit 190 causes the second illumination unit 166, which is an LED for illuminating a nearby subject, to emit light (2A, 3A, 4A in FIG. 4C). 3B, 4B and 4C). Thereby, the imaging device 10 can illuminate the subject with a sufficient amount of light according to the distance of the subject with high priority, such as a human face or a flower.

S106で第1撮像部110及び第2撮像部120を選択した場合、処理部190は、LEDである第2照明部166を選択して、近距離の被写体の光量が大きくなることを防いでよい(図4(c)の1A、2B、及び3C)。これに代えて、処理部190は、放電管である第1照明部164とLEDである第2照明部166の両方を選択してもよい。   When the first imaging unit 110 and the second imaging unit 120 are selected in S106, the processing unit 190 may select the second illumination unit 166, which is an LED, and prevent the light amount of the subject at a short distance from increasing. (1A, 2B, and 3C in FIG. 4 (c)). Instead, the processing unit 190 may select both the first illumination unit 164 that is a discharge tube and the second illumination unit 166 that is an LED.

またこれに代えて、処理部190は、第2撮像部120の検出結果が(4)被写体検出せずの場合のみ(図4(c)の1D、2D、3D、4Dに対応する場合)、放電管である第1照明部164を選択してもよい。これにより、撮像装置10は、被写体が撮像装置10の近傍で検出される場合に、光量の大きな放電管を用いないので、近傍の被写体が強く露光されて遠景と遠景との明暗差が大きくなることを防ぐことができる。   Alternatively, the processing unit 190 (4) only when the detection result of the second imaging unit 120 does not detect the subject (when corresponding to 1D, 2D, 3D, and 4D in FIG. 4C), You may select the 1st illumination part 164 which is a discharge tube. As a result, when the subject is detected in the vicinity of the imaging device 10, the imaging device 10 does not use a discharge tube with a large amount of light, so that the subject in the vicinity is strongly exposed and the difference in brightness between the distant view and the distant view increases. Can be prevented.

このとき、第1撮像部110の検出結果が(1)顔検出かつ第2撮像部120の検出結果が(2)高彩度の場合(図4(c)の1Bに対応する場合)において、処理部190は、第2照明部166を選択してよい。また、第2撮像部120の検出結果が(3)低彩度の場合(図4(c)の1C、2C、3C、及び4Dに対応する場合)において、処理部190は、第2照明部166を選択するか、又は、いずれの照明部も選択しなくてよい。   At this time, when the detection result of the first imaging unit 110 is (1) face detection and the detection result of the second imaging unit 120 is (2) high saturation (corresponding to 1B in FIG. 4C), the processing unit 190 may select the second illumination unit 166. Further, when the detection result of the second imaging unit 120 is (3) low saturation (corresponding to 1C, 2C, 3C, and 4D in FIG. 4C), the processing unit 190 includes the second illumination unit. 166 may be selected, or no illumination unit may be selected.

次に、S114において、処理部190は、操作スイッチ146から使用者の撮像指示を受け取るまで待機し、操作スイッチ146から使用者の撮像指示を受け取ったことに応じて、第1撮像部110と第2撮像部120のうちS106で選択した撮像部により画像を撮像させる。S112の処理を実行していた場合、処理部190は、撮像の際に、第1照明部164と第2照明部166のうち選択した照明部を用いて被写体を照明する。処理部190は、撮像により得られた画像に対し、S108において設定したずらし量のAR表示を重畳して記憶装置158に記録する。   Next, in S <b> 114, the processing unit 190 stands by until a user's imaging instruction is received from the operation switch 146, and in response to receiving the user's imaging instruction from the operation switch 146, the processing unit 190 and the first imaging unit 110. The image is picked up by the image pickup unit selected in S106 of the two image pickup units 120. When the process of S112 has been executed, the processing unit 190 illuminates the subject using the illumination unit selected from the first illumination unit 164 and the second illumination unit 166 during imaging. The processing unit 190 superimposes the AR display of the shift amount set in S108 on the image obtained by imaging and records it in the storage device 158.

なお、処理部190は、使用者の撮像指示を受ける前に第1撮像部110及び第2撮像部120の両方に画像を撮像させ、操作スイッチ146からの使用者の撮像指示に応じて、第1撮像部110および第2撮像部120のうちS106で選択した撮像部により撮像された画像を記憶装置158に保存してもよい。   Note that the processing unit 190 causes both the first imaging unit 110 and the second imaging unit 120 to capture an image before receiving a user's imaging instruction, and in response to the user's imaging instruction from the operation switch 146, The image captured by the imaging unit selected in S <b> 106 among the first imaging unit 110 and the second imaging unit 120 may be stored in the storage device 158.

撮像した画像の記憶装置158への保存時に、処理部190は、デジタル画像データに対して撮影日時及び/又は被写体の名称情報等の付加情報を重畳してよい。一例として、処理部190は、左眼用及び右眼用のデジタル画像データに対して、一定のずらし量(視差量)を有するように付加情報を重畳させる。これにより、処理部190は、表示部174に、画像に付加された付加情報をAR表示として表示させることができる。   When storing the captured image in the storage device 158, the processing unit 190 may superimpose additional information such as the shooting date and / or subject name information on the digital image data. As an example, the processing unit 190 superimposes additional information on the left-eye and right-eye digital image data so as to have a certain shift amount (parallax amount). Accordingly, the processing unit 190 can cause the display unit 174 to display additional information added to the image as an AR display.

ここで、処理部190は、第1撮像部110及び第2撮像部120が出力する画像に基づいて、右眼用画像および左眼用画像の間における付加情報を表示する位置のずらし量を変更してよい。一例として、処理部190は、両撮像部が出力する画像に基づいて遠景用の第1撮像部110を選択して画像を撮像させる場合には、付加情報の位置のずらし量を被写体の画像のずれ量よりも大きくして、使用者の近くに見えるように付加情報を表示部174に表示させる。また、処理部190は、第2撮像部120を選択した場合には、付加情報の位置のずらし量を被写体の画像のずれ量よりも小さくして、使用者から遠くに見えるように付加情報を表示部174に表示させる。   Here, the processing unit 190 changes the shift amount of the position for displaying the additional information between the right-eye image and the left-eye image based on the images output from the first imaging unit 110 and the second imaging unit 120. You can do it. As an example, the processing unit 190 selects the first image capturing unit 110 for distant view based on the images output from both image capturing units to capture an image, and sets the shift amount of the position of the additional information of the subject image. The additional information is displayed on the display unit 174 so that it is larger than the shift amount so that it can be seen near the user. In addition, when the second imaging unit 120 is selected, the processing unit 190 reduces the amount of position of the additional information to be smaller than the amount of displacement of the image of the subject, and adds the additional information so that it can be seen far from the user. It is displayed on the display unit 174.

なお、撮像装置10が動画を撮像する場合には、処理部190はS110及びS112の処理を実行しなくてよい。この場合、処理部190は、S110及びS112の処理に代えて、第1撮像部110及び第2撮像部120が出力する画像に基づいて、第1集音部140および第2集音部142から録音に用いる集音部を選択する処理を実行してよい。処理部190は、S106における、第1撮像部110と第2撮像部120の選択と同様に、録音に用いる集音部を決定してよい。   Note that when the imaging apparatus 10 captures a moving image, the processing unit 190 does not have to execute the processes of S110 and S112. In this case, the processing unit 190 replaces the processing of S110 and S112 with the first sound collection unit 140 and the second sound collection unit 142 based on the images output from the first imaging unit 110 and the second imaging unit 120. You may perform the process which selects the sound collection part used for recording. The processing unit 190 may determine the sound collection unit used for recording, as in the selection of the first imaging unit 110 and the second imaging unit 120 in S106.

例えば、処理部190は、S106において遠景用の第1撮像部110を選択した場合には、指向性の第1集音部140からの音声を録音する(図4(b)における1B、1C、1D、2C、2D、及び、3D)。処理部190は、近景用の第2撮像部120を選択した場合に無指向性の第2集音部142からの音声を録音する(図4(b)における2A、3A、4A、3B、4B、及び、4C)。   For example, when the first imaging unit 110 for distant view is selected in S106, the processing unit 190 records the sound from the directional first sound collecting unit 140 (1B, 1C, and 1B in FIG. 4B). 1D, 2C, 2D, and 3D). The processing unit 190 records the sound from the non-directional second sound collecting unit 142 when the second imaging unit 120 for foreground is selected (2A, 3A, 4A, 3B, 4B in FIG. 4B). And 4C).

これにより、撮像装置10は、主要な被写体が遠方で検出される場合に、撮影の対象となる遠方の被写体からの微小な音を効率よく集音することができる。また、撮像装置10は、主要な被写体が撮像装置10の近傍で検出される場合に、被写体の周囲の音を漏れなく集音できる。   As a result, when the main subject is detected at a distance, the imaging apparatus 10 can efficiently collect a minute sound from a far subject to be imaged. In addition, the imaging device 10 can collect sound around the subject without omission when a main subject is detected in the vicinity of the imaging device 10.

なお、S106において両方の撮像部を選択した場合、処理部190は、第1集音部140と第2集音部142の両方を選択してよい(図4(b)の1A、2B、及び3C)。これにより、処理部190は、撮影条件に適した集音部を選択することができる。   Note that when both imaging units are selected in S106, the processing unit 190 may select both the first sound collection unit 140 and the second sound collection unit 142 (1A, 2B, and FIG. 4B). 3C). Accordingly, the processing unit 190 can select a sound collection unit suitable for the shooting conditions.

また、S102及びS104において、処理部190は、第1撮像部110又は第2撮像部120の画像の検出結果を被写体の彩度に基づいて分類している。処理部190は、これに加えて/これに代えて、検出した被写体のコントラストに基づいて検出結果を分類してもよい。   In S102 and S104, the processing unit 190 classifies the detection results of the images of the first imaging unit 110 or the second imaging unit 120 based on the saturation of the subject. In addition to this, or instead of this, the processing unit 190 may classify the detection results based on the detected contrast of the subject.

このように、撮像装置10は、図3に示すフローチャートの処理を実行することにより、第1撮像部110及び第2撮像部120からの画像に基づいて、S106において撮影に用いる撮像部を選択し、S108においてAR表示のずらし量を決定し、S112において撮影に用いる照明部又は集音部を選択する。これにより、撮像装置10は、使用者が手動で撮像部を選択しなくとも、被写体に応じて撮影に適した撮像部を選択し、適切な撮影環境を設定することができる。   As described above, the imaging apparatus 10 performs the processing of the flowchart illustrated in FIG. 3, thereby selecting the imaging unit used for shooting in S <b> 106 based on the images from the first imaging unit 110 and the second imaging unit 120. In S108, the AR display shift amount is determined, and in S112, an illumination unit or a sound collection unit used for photographing is selected. Thereby, the imaging apparatus 10 can select an imaging unit suitable for shooting according to the subject and set an appropriate shooting environment without the user manually selecting the imaging unit.

(撮像装置10の画像再生時の処理フロー)
次に本実施形態に係る撮像装置10の画像再生時の処理を図7に示すフローチャートに沿って説明する。処理部190は、操作スイッチ146及びタッチパネル175等から使用者による画像再生指示を受け取り、記憶装置158からデジタル画像データを読み出して、表示部174に画像を表示させる。
(Processing flow at the time of image reproduction of the imaging device 10)
Next, processing during image reproduction of the imaging apparatus 10 according to the present embodiment will be described with reference to a flowchart shown in FIG. The processing unit 190 receives an image reproduction instruction from the user from the operation switch 146, the touch panel 175, and the like, reads digital image data from the storage device 158, and causes the display unit 174 to display an image.

ここで、記憶装置158に、第1撮像部110で撮像した画像及び第2撮像部120で撮像した画像のいずれか一方のみが記憶されている場合には、撮像装置10は、当該記憶されている画像を表示部174に表示させる。記憶装置158に、第1撮像部110で撮像した画像及び第2撮像部120で撮像した画像の両方が記憶されている場合には、撮像装置10は、S202からS212までの処理を実行して撮像した画像を表示する。   Here, when only one of the image captured by the first imaging unit 110 and the image captured by the second imaging unit 120 is stored in the storage device 158, the imaging device 10 is stored. The displayed image is displayed on the display unit 174. When both the image captured by the first imaging unit 110 and the image captured by the second imaging unit 120 are stored in the storage device 158, the imaging device 10 executes the processes from S202 to S212. Display the captured image.

まず、S202において、処理部190は、近景用の第2撮像部120で撮像した画像を表示部174に表示させる。これに代えて、処理部190は、撮像装置10の傾きにより、第1撮像部110で撮影した画像又は第2撮像部120で撮影した画像のいずれかを選択して、表示部174に表示させてもよい。   First, in S202, the processing unit 190 causes the display unit 174 to display an image captured by the second imaging unit 120 for foreground. Instead, the processing unit 190 selects either the image captured by the first image capturing unit 110 or the image captured by the second image capturing unit 120 according to the tilt of the image capturing apparatus 10 and causes the display unit 174 to display the selected image. May be.

一例として、加速度センサー154が撮像装置10が水平方向又は上方向を向いていることを検出した場合、処理部190は、表示部174に第1撮像部110の画像を表示させてよい。また、加速度センサー154が撮像装置10が下方向を向いていることを検出した場合、処理部190は、表示部174に第2撮像部120の画像を表示してよい。   As an example, when the acceleration sensor 154 detects that the imaging device 10 is oriented in the horizontal direction or the upward direction, the processing unit 190 may display the image of the first imaging unit 110 on the display unit 174. Further, when the acceleration sensor 154 detects that the imaging device 10 is facing downward, the processing unit 190 may display the image of the second imaging unit 120 on the display unit 174.

次に、S204において、処理部190は、ズームスイッチ180のT側ボタン又はW側ボタンのいずれかが押されたか否かを判断する。処理部190は、ズームスイッチ180のいずれかのボタンが押された場合には処理をS206に進め、ボタンが押されなかった場合にはボタンが押されるまで待機する。   Next, in S204, the processing unit 190 determines whether either the T-side button or the W-side button of the zoom switch 180 has been pressed. The processing unit 190 advances the process to S206 when any button of the zoom switch 180 is pressed, and waits until the button is pressed when the button is not pressed.

次に、S206において、処理部190は、ズームスイッチ180のT側ボタン及びW側ボタンのいずれが押されたかを判断する。処理部190は、ズームスイッチ180のT側ボタンが押された場合には処理をS208に進め、W側ボタンが押された場合には処理をS210に進める。   Next, in S206, the processing unit 190 determines which of the T-side button and the W-side button of the zoom switch 180 has been pressed. The processing unit 190 advances the process to S208 when the T-side button of the zoom switch 180 is pressed, and advances the process to S210 when the W-side button is pressed.

S208において、処理部190は、遠景用の第1撮像部110で撮像された画像を表示部174に表示する。なお、処理部190は、表示部174が既に第1撮像部110の画像を表示している場合には、表示される画像を画像処理により拡大して表示部174に表示してよい。表示部174が動画を表示する場合には、動画の再生と同時に第1集音部140で集音された音声が再生される。処理部190は、処理をS212に進める。   In S208, the processing unit 190 displays an image captured by the first image capturing unit 110 for distant view on the display unit 174. When the display unit 174 has already displayed the image of the first imaging unit 110, the processing unit 190 may enlarge the displayed image by image processing and display the enlarged image on the display unit 174. When the display unit 174 displays a moving image, the sound collected by the first sound collecting unit 140 is reproduced simultaneously with the reproduction of the moving image. The processing unit 190 advances the process to S212.

S210において、処理部190は、近景用の第2撮像部120で撮像された画像を表示部174に表示する。なお、処理部190は、表示部174が既に第2撮像部120の画像を表示している場合には、表示される画像を画像処理により縮小して表示部174に表示してよい。表示部174が動画を表示する場合には、動画の再生と同時に第2集音部142で集音された音声が再生される。処理部190は、処理をS212に進める。   In S <b> 210, the processing unit 190 displays the image captured by the second image capturing unit 120 for the near view on the display unit 174. When the display unit 174 has already displayed the image of the second imaging unit 120, the processing unit 190 may reduce the displayed image by image processing and display it on the display unit 174. When the display unit 174 displays a moving image, the sound collected by the second sound collecting unit 142 is reproduced simultaneously with the reproduction of the moving image. The processing unit 190 advances the process to S212.

S212において、処理部190は、使用者による再生終了指示を受け取ったか否か判断する。操作スイッチ146及びタッチパネル175等から使用者の再生終了指示を受け取った場合、処理部190は、処理を終了させる。操作スイッチ146及びタッチパネル175等から使用者の再生終了指示を受け取った場合、処理部190は、処理をS204に戻す。   In S212, the processing unit 190 determines whether or not a reproduction end instruction from the user has been received. When the user's reproduction end instruction is received from the operation switch 146, the touch panel 175, or the like, the processing unit 190 ends the process. When the user's reproduction end instruction is received from the operation switch 146, the touch panel 175, or the like, the processing unit 190 returns the process to S204.

撮像装置10は、図7に示すフローチャートの処理を実行することにより、使用者によるズームスイッチ180の操作に基づき、遠景用の第1撮像部110の画像及び近景用の第2撮像部120の画像を、適宜切り替えることができる。これにより、使用者は、視差の小さい画像及び視差の大きい画像のうち、希望する方の画像を任意に鑑賞することができる。なお、処理部190は、第1撮像部110の画像と第2撮像部120の画像の切り替えを一瞬で行って良く、また1秒ほどの時間をもって序序に行っても良い。   The imaging apparatus 10 executes the processing of the flowchart illustrated in FIG. 7, and based on the operation of the zoom switch 180 by the user, the image of the first imaging unit 110 for the distant view and the image of the second imaging unit 120 for the foreground Can be appropriately switched. As a result, the user can arbitrarily view the desired image among the image with small parallax and the image with large parallax. Note that the processing unit 190 may switch the image of the first image capturing unit 110 and the image of the second image capturing unit 120 in an instant, or may proceed in an order with a time of about 1 second.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

10 撮像装置、20 人物、30 花、40 岩、50 虫、60 山
100 筐体、102 グリップ、110 第1撮像部、112 左撮像部
114 右撮像部、120 第2撮像部、122 左撮像部、124 右撮像部
130 第3撮像部、140 第1集音部、142 第2集音部、144 エンコーダ
146 操作スイッチ、148 GPSセンサー、150 3G/LTE通信回路
154 加速度センサー、156 方位センサー、158 記憶装置
160 バッテリー、162 電源回路、164 第1照明部、166 第2照明部
168 USBコネクタ、170 デコーダ、172 表示ドライバ、174 表示部
175 タッチパネル、176 スピーカーアンプ、178 ステレオスピーカー
180 ズームスイッチ、190 処理部
DESCRIPTION OF SYMBOLS 10 Imaging device, 20 Person, 30 Flower, 40 Rock, 50 Insect, 60 Mountains 100 Case, 102 Grip, 110 1st imaging part, 112 Left imaging part 114 Right imaging part, 120 2nd imaging part, 122 Left imaging part , 124 Right imaging unit 130 Third imaging unit, 140 First sound collection unit, 142 Second sound collection unit, 144 Encoder 146 Operation switch, 148 GPS sensor, 150 3G / LTE communication circuit 154 Acceleration sensor, 156 Direction sensor, 158 Storage device 160 Battery, 162 power supply circuit, 164 first illumination unit, 166 second illumination unit 168 USB connector, 170 decoder, 172 display driver, 174 display unit 175 touch panel, 176 speaker amplifier, 178 stereo speaker 180 zoom switch, 190 processing Part

Claims (16)

第1の基線長離れて設けられた右眼用および左眼用の光学系を有し、右眼用および左眼用の画像を撮像する第1撮像部と、
前記第1の基線長より小さい第2の基線長離れて設けられた右眼用および左眼用の光学系を有し、右眼用および左眼用の画像を撮像する第2撮像部と、
前記第1撮像部および前記第2撮像部が出力する画像に基づいて、前記第1撮像部および前記第2撮像部の少なくとも一方を選択する選択部と、
を備える撮像装置。
A first imaging unit that has optical systems for the right eye and the left eye provided apart from the first baseline length, and that captures images for the right eye and the left eye;
A second imaging unit having optical systems for the right eye and the left eye that are provided apart from the second baseline length smaller than the first baseline length, and that captures images for the right eye and the left eye;
A selection unit that selects at least one of the first imaging unit and the second imaging unit based on images output from the first imaging unit and the second imaging unit;
An imaging apparatus comprising:
前記選択部は、使用者の撮像指示を受ける前に前記第1撮像部および前記第2撮像部が出力する画像に基づいて、前記第1撮像部および前記第2撮像部の少なくとも一方を選択し、使用者の撮像指示に応じて、前記第1撮像部および前記第2撮像部のうち選択した撮像部により画像を撮像させる請求項1に記載の撮像装置。   The selection unit selects at least one of the first imaging unit and the second imaging unit based on an image output from the first imaging unit and the second imaging unit before receiving a user's imaging instruction. The imaging apparatus according to claim 1, wherein an image is captured by an imaging unit selected from the first imaging unit and the second imaging unit in accordance with a user's imaging instruction. 前記選択部は、使用者の撮像指示に応じて、前記第1撮像部および前記第2撮像部のうち選択した撮像部により撮像された画像を記憶装置に保存させる請求項1または2に記載の撮像装置。   The said selection part makes the memory | storage device preserve | save the image imaged by the imaging part selected among the said 1st imaging part and the said 2nd imaging part according to the user's imaging instruction | indication. Imaging device. 前記選択部は、前記第1撮像部および前記第2撮像部が出力する画像のそれぞれに人物が撮像されているか否かに基づいて、前記第1撮像部および前記第2撮像部の少なくとも一方を選択する請求項1から3のいずれか一項に記載の撮像装置。   The selection unit selects at least one of the first imaging unit and the second imaging unit based on whether a person is captured in each of the images output from the first imaging unit and the second imaging unit. The imaging device according to claim 1, which is selected. 前記選択部は、前記第1撮像部および前記第2撮像部のうち、人物が撮像された画像を出力した撮像部を選択する請求項4に記載の撮像装置。   The imaging device according to claim 4, wherein the selection unit selects an imaging unit that outputs an image of a person captured from the first imaging unit and the second imaging unit. 前記選択部は、前記第1撮像部および前記第2撮像部が出力する画像のそれぞれの彩度に基づいて、前記第1撮像部および前記第2撮像部の少なくとも一方を選択する請求項1から5のいずれか一項に記載の撮像装置。   The selection unit selects at least one of the first imaging unit and the second imaging unit based on respective saturations of images output from the first imaging unit and the second imaging unit. The imaging device according to claim 5. 前記選択部は、前記第1撮像部および前記第2撮像部のうち、予め定められた基準彩度以上の画像を出力した撮像部を選択する請求項6に記載の撮像装置。   The imaging apparatus according to claim 6, wherein the selection unit selects an imaging unit that outputs an image with a predetermined reference saturation or higher among the first imaging unit and the second imaging unit. 前記第1撮像部は、前記第2撮像部と比較しより遠景を撮像する請求項1から7のいずれか一項に記載の撮像装置。   The imaging device according to any one of claims 1 to 7, wherein the first imaging unit captures a distant view compared to the second imaging unit. 第1照明部および第2照明部を備え、
前記選択部は、前記第1撮像部および前記第2撮像部が出力する画像に基づいて、前記第1照明部および前記第2照明部の少なくとも一方を発光させる
請求項1から8のいずれか一項に記載の撮像装置。
A first illumination unit and a second illumination unit;
The said selection part makes at least one of the said 1st illumination part and the said 2nd illumination part light-emit based on the image which the said 1st imaging part and the said 2nd imaging part output. The imaging device according to item.
前記第1照明部は、放電管によりフラッシュ光を出力し、
前記第2照明部は、LEDによりフラッシュ光を出力し、
前記選択部は、前記第1撮像部が選択された場合に前記第1照明部を発光させ、前記第2撮像部が選択された場合に前記第2照明部を発光させる
請求項9に記載の撮像装置。
The first illumination unit outputs flash light by a discharge tube,
The second illumination unit outputs flash light by an LED,
The selection unit causes the first illumination unit to emit light when the first imaging unit is selected, and causes the second illumination unit to emit light when the second imaging unit is selected. Imaging device.
第1集音部および第2集音部と、
前記第1集音部および前記第2集音部からの音声を録音可能な録音部と、
を備え、
前記選択部は、前記第1撮像部および前記第2撮像部が出力する画像に基づいて、前記第1集音部および前記第2集音部の少なくとも一方からの音声を前記録音部により録音させる
請求項1から10のいずれか一項に記載の撮像装置。
A first sound collection unit and a second sound collection unit;
A recording unit capable of recording sound from the first sound collecting unit and the second sound collecting unit;
With
The selection unit causes the recording unit to record sound from at least one of the first sound collection unit and the second sound collection unit based on images output from the first imaging unit and the second imaging unit. The imaging device according to any one of claims 1 to 10.
前記第1集音部は、指向性マイクを有し、
前記第2集音部は、無指向性マイクを有し、
前記選択部は、前記第1撮像部が選択された場合に前記第1集音部からの音声を前記録音部により録音させ、前記第2撮像部が選択された場合に前記第2集音部からの音声を前記録音部により録音させる
請求項11に記載の撮像装置。
The first sound collection unit has a directional microphone,
The second sound collection unit has an omnidirectional microphone,
The selection unit causes the recording unit to record a sound from the first sound collection unit when the first imaging unit is selected, and the second sound collection unit when the second imaging unit is selected. The image pickup apparatus according to claim 11, wherein the sound from is recorded by the recording unit.
画像を表示する表示部を備え、
前記選択部は、前記第1撮像部および前記第2撮像部が出力する画像に基づいて、前記第1撮像部が出力する画像および前記第2撮像部が出力する画像のいずれを前記表示部に表示させるかを選択する
請求項1から12のいずれか一項に記載の撮像装置。
A display unit for displaying images;
Based on the images output from the first imaging unit and the second imaging unit, the selection unit displays either the image output from the first imaging unit or the image output from the second imaging unit on the display unit. The imaging apparatus according to any one of claims 1 to 12, wherein selection is made to display.
前記表示部は、画像に付加して付加情報を表示し、
前記選択部は、前記第1撮像部および前記第2撮像部が出力する画像に基づいて、右眼用画像および左眼用画像の間における前記付加情報を表示する位置のずらし量を変更する
請求項13に記載の撮像装置。
The display unit displays additional information in addition to the image,
The selection unit changes a shift amount of a position for displaying the additional information between the right-eye image and the left-eye image based on images output from the first imaging unit and the second imaging unit. Item 14. The imaging device according to Item 13.
第1の基線長離れて設けられた右眼用および左眼用の光学系を有する第1撮像部が、右眼用および左眼用の画像を撮像する第1撮像段階と、
前記第1の基線長より小さい第2の基線長離れて設けられた右眼用および左眼用の光学系を有する第2撮像部が、右眼用および左眼用の画像を撮像する第2撮像段階と、
選択部が前記第1撮像部および前記第2撮像部が出力する画像に基づいて、前記第1撮像部および前記第2撮像部の少なくとも一方を選択する選択段階と、
を備える撮像方法。
A first imaging stage in which a first imaging unit having optical systems for right eye and left eye provided apart from the first baseline length captures images for right eye and left eye;
A second imaging unit having optical systems for the right eye and the left eye provided apart from the second baseline length smaller than the first baseline length captures a right eye image and a left eye image. Imaging stage;
A selection stage in which the selection unit selects at least one of the first imaging unit and the second imaging unit based on images output from the first imaging unit and the second imaging unit;
An imaging method comprising:
コンピュータを、
第1の基線長離れて設けられた右眼用および左眼用の光学系を有し、右眼用および左眼用の画像を撮像する第1撮像部と、
前記第1の基線長より小さい第2の基線長離れて設けられた右眼用および左眼用の光学系を有し、右眼用および左眼用の画像を撮像する第2撮像部と、
前記第1撮像部および前記第2撮像部が出力する画像に基づいて、前記第1撮像部および前記第2撮像部の少なくとも一方を選択する選択部と、
を備える撮像装置として機能させる
プログラム。
Computer
A first imaging unit that has optical systems for the right eye and the left eye provided apart from the first baseline length, and that captures images for the right eye and the left eye;
A second imaging unit having optical systems for the right eye and the left eye that are provided apart from the second baseline length smaller than the first baseline length, and that captures images for the right eye and the left eye;
A selection unit that selects at least one of the first imaging unit and the second imaging unit based on images output from the first imaging unit and the second imaging unit;
A program that causes an image pickup apparatus to function.
JP2012190278A 2012-08-30 2012-08-30 Imaging apparatus, imaging method, and program Pending JP2014049890A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012190278A JP2014049890A (en) 2012-08-30 2012-08-30 Imaging apparatus, imaging method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012190278A JP2014049890A (en) 2012-08-30 2012-08-30 Imaging apparatus, imaging method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016167258A Division JP2017034679A (en) 2016-08-29 2016-08-29 Imaging apparatus, imaging method and program

Publications (1)

Publication Number Publication Date
JP2014049890A true JP2014049890A (en) 2014-03-17

Family

ID=50609155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012190278A Pending JP2014049890A (en) 2012-08-30 2012-08-30 Imaging apparatus, imaging method, and program

Country Status (1)

Country Link
JP (1) JP2014049890A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016132688A1 (en) 2015-02-19 2016-08-25 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP2017034679A (en) * 2016-08-29 2017-02-09 株式会社ニコン Imaging apparatus, imaging method and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11341592A (en) * 1998-05-28 1999-12-10 Mitsubishi Electric Corp Sound recorder to be synchronized with image pickup device
JP3168741B2 (en) * 1992-12-18 2001-05-21 ソニー株式会社 How to assemble an electron gun
JP2006208974A (en) * 2005-01-31 2006-08-10 Matsushita Electric Ind Co Ltd Portable terminal device equipped with camera
JP2010261877A (en) * 2009-05-11 2010-11-18 Ricoh Co Ltd Stereoscopic camera device and vehicle-outside monitoring apparatus using the same
JP2010271429A (en) * 2009-05-20 2010-12-02 Ricoh Co Ltd Image capturing apparatus, stereo camera device, and device for monitoring outside of vehicle
JP2011096263A (en) * 2010-11-22 2011-05-12 Fujifilm Corp Three-dimensional display device, method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3168741B2 (en) * 1992-12-18 2001-05-21 ソニー株式会社 How to assemble an electron gun
JPH11341592A (en) * 1998-05-28 1999-12-10 Mitsubishi Electric Corp Sound recorder to be synchronized with image pickup device
JP2006208974A (en) * 2005-01-31 2006-08-10 Matsushita Electric Ind Co Ltd Portable terminal device equipped with camera
JP2010261877A (en) * 2009-05-11 2010-11-18 Ricoh Co Ltd Stereoscopic camera device and vehicle-outside monitoring apparatus using the same
JP2010271429A (en) * 2009-05-20 2010-12-02 Ricoh Co Ltd Image capturing apparatus, stereo camera device, and device for monitoring outside of vehicle
JP2011096263A (en) * 2010-11-22 2011-05-12 Fujifilm Corp Three-dimensional display device, method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016132688A1 (en) 2015-02-19 2016-08-25 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
US10834380B2 (en) 2015-02-19 2020-11-10 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP2017034679A (en) * 2016-08-29 2017-02-09 株式会社ニコン Imaging apparatus, imaging method and program

Similar Documents

Publication Publication Date Title
CN110708466B (en) Electronic device and imaging method for electronic device
US20080117316A1 (en) Multi-eye image pickup device
JP5371845B2 (en) Imaging apparatus, display control method thereof, and three-dimensional information acquisition apparatus
WO2015192547A1 (en) Method for taking three-dimensional picture based on mobile terminal, and mobile terminal
TW201200959A (en) One-eyed stereo photographic device
JP2011166756A (en) Photographing apparatus and photographing system
JP2010114760A (en) Photographing apparatus, and fingering notification method and program
JP5923595B2 (en) Image processing apparatus and method, and imaging apparatus
JP2009047912A (en) Stereoscopic imaging apparatus
JP2012239135A (en) Electronic apparatus
JP5499754B2 (en) Imaging device
CN103329549B (en) Dimensional video processor, stereoscopic imaging apparatus and three-dimensional video-frequency processing method
JP2011035643A (en) Multiple eye photography method and apparatus, and program
JP2014049890A (en) Imaging apparatus, imaging method, and program
JP2018170775A (en) Imaging apparatus, imaging method and program
JP5580486B2 (en) Image output apparatus, method and program
JP2017034679A (en) Imaging apparatus, imaging method and program
JP2009060338A (en) Display device and electronic camera
JP4852504B2 (en) Imaging apparatus and focus state display method
JP2014095624A (en) Measuring apparatus, measuring method, and program
JP2013175805A (en) Display device and image pickup device
JP2012239134A (en) Electronic apparatus
JP2011091750A (en) Stereoscopic image pick-up apparatus and method of controlling the same
JP2016036081A (en) Image processing device, method and program, and recording medium
JP2011109268A (en) Three-dimensional image display device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160628

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161227