JP2021158559A - Electronic device, control method of the same, and program - Google Patents

Electronic device, control method of the same, and program Download PDF

Info

Publication number
JP2021158559A
JP2021158559A JP2020057753A JP2020057753A JP2021158559A JP 2021158559 A JP2021158559 A JP 2021158559A JP 2020057753 A JP2020057753 A JP 2020057753A JP 2020057753 A JP2020057753 A JP 2020057753A JP 2021158559 A JP2021158559 A JP 2021158559A
Authority
JP
Japan
Prior art keywords
image
live
display
displayed
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020057753A
Other languages
Japanese (ja)
Other versions
JP2021158559A5 (en
Inventor
崇 吉見
Takashi Yoshimi
崇 吉見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020057753A priority Critical patent/JP2021158559A/en
Publication of JP2021158559A publication Critical patent/JP2021158559A/en
Publication of JP2021158559A5 publication Critical patent/JP2021158559A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Studio Devices (AREA)

Abstract

To provide a live view display suitable for binocular photography of images with a wide viewing angle.SOLUTION: An electronic device for displaying a live view of a captured image includes display control means for controlling to display a live view by deforming at least one live image, based on a cylindrical view method, of a first live image captured through a first optical system and a second live image captured through a second optical system having the same orientation as the first optical system and having a parallax relative to the first live image.SELECTED DRAWING: Figure 4

Description

本発明は、電子機器、その制御方法、プログラムおよび記録媒体に関するものである。 The present invention relates to electronic devices, control methods thereof, programs and recording media.

2つの光学系を用いて視差のある広視野角の画像を取得して、仮想球体上にマッピングして表示することで立体感のあるVR(Virtual Reality)画像を表示する技術が知られている。視差のある画像を撮影するための2眼VRカメラは、同じ方向を向いた2つの光学系を有しており、1度の撮影により視差のある2枚の画像を取得できる。2眼VRカメラには、各光学系において上下左右180度(半球、画像中心から全方向に90度)以上の広範囲を撮影できるものがある。また、VR画像を表示する方法として、VR画像を仮想球体にマッピングする変形を行って1つの画像を表示する「1眼VR表示」や、左眼用と右眼用のVR画像を左右の領域に並べて表示する「2眼VR表示」が知られている。 There is known a technique for displaying a three-dimensional VR (Virtual Reality) image by acquiring an image with a wide viewing angle with parallax using two optical systems, mapping it on a virtual sphere, and displaying it. .. A twin-lens VR camera for capturing an image with parallax has two optical systems facing the same direction, and can acquire two images with parallax by taking one shot. Some binocular VR cameras can capture a wide range of 180 degrees (hemisphere, 90 degrees in all directions from the center of the image) in each optical system. In addition, as a method of displaying a VR image, there is a "single-eye VR display" in which a VR image is mapped to a virtual sphere to display one image, or a VR image for the left eye and a right eye is displayed in the left and right areas. There is known a "two-lens VR display" that displays images side by side.

また、特許文献1には、左右に視差をもって並べられた2つの撮像部を使って同一被写体を左右の視点から撮影し、左眼用の画像と右眼用の画像とをそれぞれ取得する立体撮像装置が開示されている。 Further, in Patent Document 1, stereoscopic imaging is performed in which the same subject is photographed from the left and right viewpoints by using two imaging units arranged side by side with parallax, and an image for the left eye and an image for the right eye are acquired respectively. The device is disclosed.

特許第4875225号公報Japanese Patent No. 4875225

従来、2眼VRカメラでは、撮影時にライブビュー表示を行えないものが多く、撮影時にどのようなライブビュー表示を行うのが好適であるかについて改善の余地があった。例えば、撮影する際に左右両方のライブ画像を表示することが考えられるが、ユーザはどちらを見ればよいか分かり難くなってしまう場合があり、通常のカメラのような感覚で撮影することが難しい。また、VR表示用の画像として撮像される画像は、広視野角の画像であり、魚眼レンズで撮影されたような歪みのある画像であるために、そのままライブビュー表示すると被写体の状況を確認するのが困難になってしまう。 Conventionally, many twin-lens VR cameras cannot display the live view at the time of shooting, and there is room for improvement as to what kind of live view display is preferable at the time of shooting. For example, it is conceivable to display both left and right live images when shooting, but it may be difficult for the user to know which one to look at, making it difficult to shoot like a normal camera. .. Further, since the image captured as the image for VR display is an image with a wide viewing angle and is a distorted image as if it was taken with a fisheye lens, the situation of the subject can be confirmed by displaying the live view as it is. Becomes difficult.

本発明は、上述したような問題点に鑑みてなされたものであり、広視野角の画像を2眼で撮影するのに適したライブビュー表示をすることを目的とする。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to display a live view suitable for capturing an image with a wide viewing angle with two eyes.

本発明の電子機器は、撮影された画像をライブビュー表示する電子機器であって、第1の光学系を介して撮影される第1のライブ画像と、前記第1の光学系と同じ向きの第2の光学系を介して撮影され、前記第1のライブ画像に対して視差のある第2のライブ画像のうち、少なくとも一方のライブ画像を円筒図法に基づいて変形させてライブビュー表示するように制御する表示制御手段を有することを特徴とする。 The electronic device of the present invention is an electronic device that displays a captured image in a live view, and has the same orientation as that of the first live image captured via the first optical system and the first optical system. At least one of the second live images taken through the second optical system and having a parallax with respect to the first live image is deformed based on the cylindrical projection and displayed in the live view. It is characterized by having a display control means for controlling the image.

本発明によれば、広視野角の画像を2眼で撮影するのに適したライブビュー表示をすることができる。 According to the present invention, it is possible to display a live view suitable for capturing an image with a wide viewing angle with two eyes.

カメラの外観構成の一例を示す図である。It is a figure which shows an example of the appearance composition of a camera. カメラの内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of a camera. レンズユニットの構成の一例を示す模式図である。It is a schematic diagram which shows an example of the structure of a lens unit. カメラの処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing of a camera. ライブビュー画像の一例を示す図である。It is a figure which shows an example of a live view image. 表示モード設定画面の一例を示す図である。It is a figure which shows an example of the display mode setting screen. ライブビュー画像の一例を示す図である。It is a figure which shows an example of a live view image. 撮影される画像の一例を示す図である。It is a figure which shows an example of the image to be photographed.

以下、図面を参照して本発明の好適な実施形態について説明する。本実施形態では、電子機器がデジタルカメラ(撮像装置)である場合を例にして説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the present embodiment, a case where the electronic device is a digital camera (imaging device) will be described as an example.

図1は、デジタルカメラ100(以下、カメラという)の外観構成の一例を示す図である。図1(a)はカメラ100を前面から見た斜視図であり、図1(b)はカメラ100を背面から見た斜視図である。
カメラ100は、上面に、シャッターボタン101、電源スイッチ102、モード切替スイッチ103、メイン電子ダイヤル104、サブ電子ダイヤル105、動画ボタン106、ファインダ外表示部107を有する。シャッターボタン101は、撮影準備あるいは撮影指示を行うための操作部である。電源スイッチ102は、カメラ100の電源のオンとオフとを切り替える操作部である。モード切替スイッチ103は、各種モードを切り替えるための操作部である。メイン電子ダイヤル104は、シャッター速度や絞り等の設定値を変更するための回転式の操作部である。サブ電子ダイヤル105は、選択枠(カーソル)の移動や画像送り等を行うための回転式の操作部である。動画ボタン106は、動画撮影(記録)の開始や停止の指示を行うための操作部である。ファインダ外表示部107は、シャッター速度や絞り等の様々な設定値を表示する。
FIG. 1 is a diagram showing an example of an external configuration of a digital camera 100 (hereinafter referred to as a camera). FIG. 1A is a perspective view of the camera 100 as viewed from the front, and FIG. 1B is a perspective view of the camera 100 as viewed from the back.
The camera 100 has a shutter button 101, a power switch 102, a mode changeover switch 103, a main electronic dial 104, a sub electronic dial 105, a moving image button 106, and an external display unit 107 on the upper surface of the camera 100. The shutter button 101 is an operation unit for preparing for shooting or instructing shooting. The power switch 102 is an operation unit that switches the power of the camera 100 on and off. The mode changeover switch 103 is an operation unit for switching various modes. The main electronic dial 104 is a rotary operation unit for changing set values such as a shutter speed and an aperture. The sub-electronic dial 105 is a rotary operation unit for moving a selection frame (cursor), advancing an image, and the like. The moving image button 106 is an operation unit for instructing the start and stop of moving image shooting (recording). The out-of-finder display unit 107 displays various set values such as the shutter speed and the aperture.

また、カメラ100は、背面に、表示部108、タッチパネル109、方向キー110、SETボタン111、AEロックボタン112、拡大ボタン113、再生ボタン114、メニューボタン115、接眼部116、接眼検知部118、タッチバー119を有する。表示部108は、画像や各種情報を表示する。タッチパネル109は、表示部108の表示面(タッチ操作面)に対するタッチ操作を検出する操作部である。方向キー110は、上下左右にそれぞれ押下可能なキー(4方向キー)から構成される操作部である。方向キー110の押下した位置に応じた操作が可能である。SETボタン111は、主に選択項目を決定するときに押下される操作部である。AEロックボタン112は、撮影待機状態で露出状態を固定するときに押下される操作部である。拡大ボタン113は、撮影モードのライブビュー表示(LV表示)において拡大モードのオンとオフとを切り替えるための操作部である。拡大モードがオンである場合にはメイン電子ダイヤル104を操作することにより、ライブビュー画像(LV画像)が拡大または縮小する。また、拡大ボタン113は、再生モードにおいて再生画像を拡大させたり、拡大率を大きくさせたりするときに用いられる。再生ボタン114は、撮影モードと再生モードとを切り替えるための操作部である。撮影モードの場合に再生ボタン114を押下することで再生モードに移行し、後述する記録媒体227に記録された画像のうち最新の画像を表示部108に表示させることができる。 Further, on the back surface of the camera 100, a display unit 108, a touch panel 109, a direction key 110, a SET button 111, an AE lock button 112, an enlargement button 113, a play button 114, a menu button 115, an eyepiece unit 116, and an eyepiece detection unit 118 are provided. , Has a touch bar 119. The display unit 108 displays an image and various kinds of information. The touch panel 109 is an operation unit that detects a touch operation on the display surface (touch operation surface) of the display unit 108. The direction key 110 is an operation unit composed of keys (four-way keys) that can be pressed up, down, left, and right, respectively. The operation can be performed according to the position where the direction key 110 is pressed. The SET button 111 is an operation unit that is mainly pressed when determining a selection item. The AE lock button 112 is an operation unit that is pressed when the exposure state is fixed in the shooting standby state. The enlargement button 113 is an operation unit for switching on / off of the enlargement mode in the live view display (LV display) of the shooting mode. When the enlargement mode is on, the live view image (LV image) is enlarged or reduced by operating the main electronic dial 104. Further, the enlargement button 113 is used when the reproduced image is enlarged or the enlargement ratio is increased in the reproduction mode. The play button 114 is an operation unit for switching between the shooting mode and the play mode. In the shooting mode, pressing the playback button 114 shifts to the playback mode, and the latest image among the images recorded on the recording medium 227, which will be described later, can be displayed on the display unit 108.

メニューボタン115は、各種設定が可能なメニュー画面を表示部108に表示させるときに押下される操作部である。ユーザが表示部108に表示されたメニュー画面と、方向キー110やSETボタン111とを用いて直感的に各種設定を行うことができる。接眼部116は、接眼ファインダ(覗き込み型のファインダ)117に対して接眼するための部位である。ユーザは接眼部116を介して内部の後述するEVF217(Electronic View Finder)に表示された映像を視認することができる。接眼検知部118は、接眼部116にユーザが接眼しているか否かを検知するセンサである。 The menu button 115 is an operation unit that is pressed when displaying a menu screen on which various settings can be made on the display unit 108. The user can intuitively make various settings by using the menu screen displayed on the display unit 108 and the direction keys 110 and the SET button 111. The eyepiece portion 116 is a portion for eyepieces with respect to the eyepiece finder (look-in type finder) 117. The user can visually recognize the image displayed on the EVF 217 (Electronic View Finder), which will be described later, via the eyepiece 116. The eyepiece detection unit 118 is a sensor that detects whether or not the user is in contact with the eyepiece 116.

タッチバー119は、タッチ操作を受け付けることが可能なライン状のタッチ操作部(ラインタッチセンサ)である。タッチバー119は、右手の人差し指でシャッターボタン101を押下可能なようにグリップ部120を右手で握った状態(右手の小指、薬指、中指で握った状態)で、右手の親指でタッチ操作可能(タッチ可能)な位置に配置される。すなわち、タッチバー119は接眼部116に接眼して接眼ファインダ117を覗き、いつでもシャッターボタン101を押下できるように構えた状態(撮影姿勢)で操作可能である。タッチバー119は、タッチバー119に対するタップ操作(タッチして所定期間以内に移動せずに離す操作)、左右へのスライド操作(タッチした後、タッチしたままタッチ位置を移動する操作)等を受け付け可能である。タッチバー119は、タッチパネル109とは異なる操作部であり、表示機能を備えていない。本実施形態のタッチバー119は、マルチファンクションバーであって、例えばM−Fnバーとして機能する。 The touch bar 119 is a line-shaped touch operation unit (line touch sensor) capable of receiving a touch operation. The touch bar 119 can be touch-operated with the thumb of the right hand while the grip portion 120 is held with the right hand (the state of being held with the little finger, ring finger, and middle finger of the right hand) so that the shutter button 101 can be pressed with the index finger of the right hand. It is placed in a possible position. That is, the touch bar 119 can be operated in a state (shooting posture) in which the eyepiece portion 116 is in contact with the eyepiece, the eyepiece finder 117 is viewed, and the shutter button 101 can be pressed at any time. The touch bar 119 can accept tap operations on the touch bar 119 (operations of touching and releasing without moving within a predetermined period), slide operations to the left and right (operations of touching and then moving the touch position while touching), and the like. be. The touch bar 119 is an operation unit different from the touch panel 109, and does not have a display function. The touch bar 119 of the present embodiment is a multifunction bar, and functions as, for example, an M-Fn bar.

また、カメラ100は、グリップ部120、サムレスト部121、端子カバー122、蓋123、通信端子124等を有する。グリップ部120は、ユーザがカメラ100を構える際に右手で握りやすい形状に形成された保持部である。グリップ部120を右手の小指、薬指、中指で握ってカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン101とメイン電子ダイヤル104が配置される。また、同様な状態で、右手の親指で操作可能な位置にサブ電子ダイヤル105とタッチバー119が配置される。サムレスト部121(親指待機位置)は、カメラ100の背面側の、どの操作部も操作しない状態でグリップ部120を握った右手の親指を置きやすい箇所に設けられたグリップ部である。サムレスト部121は、保持力(グリップ感)を高めるためのラバー部材等で構成される。端子カバー122は、カメラ100を外部機器に接続する接続ケーブル等のコネクタを保護する。蓋123は、後述する記録媒体227を格納するためのスロットを閉塞することで記録媒体227およびスロットを保護する。通信端子124は、カメラ100が着脱可能な後述するレンズユニット200側と通信を行うための端子である。 Further, the camera 100 has a grip portion 120, a thumb rest portion 121, a terminal cover 122, a lid 123, a communication terminal 124, and the like. The grip portion 120 is a holding portion formed in a shape that can be easily gripped by the right hand when the user holds the camera 100. The shutter button 101 and the main electronic dial 104 are arranged at positions that can be operated by the index finger of the right hand while holding the camera 100 by holding the grip portion 120 with the little finger, ring finger, and middle finger of the right hand. Further, in the same state, the sub electronic dial 105 and the touch bar 119 are arranged at positions that can be operated by the thumb of the right hand. The thumb rest portion 121 (thumb standby position) is a grip portion provided on the back side of the camera 100 at a position where the thumb of the right hand holding the grip portion 120 can be easily placed without operating any operation portion. The thumb rest portion 121 is composed of a rubber member or the like for increasing the holding force (grip feeling). The terminal cover 122 protects a connector such as a connection cable that connects the camera 100 to an external device. The lid 123 protects the recording medium 227 and the slot by closing the slot for storing the recording medium 227 described later. The communication terminal 124 is a terminal for communicating with the lens unit 200 side, which will be described later, to which the camera 100 can be attached and detached.

図2は、カメラ100の内部構成の一例を示す図である。なお、図1と同一の構成は、同一符号を付してその説明を適宜、省略する。カメラ100にはレンズユニット200が装着される。
まず、レンズユニット200について説明する。
レンズユニット200は、カメラ100に着脱可能な交換レンズの一種である。レンズユニット200は、1眼レンズであり、通常のレンズの一例である。
レンズユニット200は、絞り201、レンズ202、絞り駆動回路203、AF(オートフォーカス)駆動回路204、レンズシステム制御回路205、通信端子206等を有する。
絞り201は、開口径が調整可能に構成される。レンズ202は、複数枚のレンズから構成される。絞り駆動回路203は、絞り201の開口径を制御することで光量を調整する。AF駆動回路204は、レンズ202を駆動させて焦点を合わせる。レンズシステム制御回路205は、後述するシステム制御部50の指示に基づいて、絞り駆動回路203、AF駆動回路204等を制御する。レンズシステム制御回路205は、絞り駆動回路203を介して絞り201の制御を行い、AF駆動回路204を介してレンズ202の位置を変位させることで焦点を合わせる。レンズシステム制御回路205は、カメラ100との間で通信可能である。具体的には、レンズユニット200の通信端子206と、カメラ100の通信端子124とを介して通信される。通信端子206は、レンズユニット200がカメラ100側と通信を行うための端子である。
FIG. 2 is a diagram showing an example of the internal configuration of the camera 100. The same configurations as those in FIG. 1 are designated by the same reference numerals, and the description thereof will be omitted as appropriate. A lens unit 200 is attached to the camera 100.
First, the lens unit 200 will be described.
The lens unit 200 is a kind of interchangeable lens that can be attached to and detached from the camera 100. The lens unit 200 is a single-lens lens and is an example of a normal lens.
The lens unit 200 includes an aperture 201, a lens 202, an aperture drive circuit 203, an AF (autofocus) drive circuit 204, a lens system control circuit 205, a communication terminal 206, and the like.
The aperture 201 is configured so that the opening diameter can be adjusted. The lens 202 is composed of a plurality of lenses. The diaphragm drive circuit 203 adjusts the amount of light by controlling the aperture diameter of the diaphragm 201. The AF drive circuit 204 drives the lens 202 to focus. The lens system control circuit 205 controls the aperture drive circuit 203, the AF drive circuit 204, and the like based on the instructions of the system control unit 50 described later. The lens system control circuit 205 controls the aperture 201 via the aperture drive circuit 203, and focuses by shifting the position of the lens 202 via the AF drive circuit 204. The lens system control circuit 205 can communicate with the camera 100. Specifically, communication is performed via the communication terminal 206 of the lens unit 200 and the communication terminal 124 of the camera 100. The communication terminal 206 is a terminal for the lens unit 200 to communicate with the camera 100 side.

次に、カメラ100について説明する。
カメラ100は、シャッター210、撮像部211、A/D変換器212、メモリ制御部213、画像処理部214、メモリ215、D/A変換器216、EVF217、表示部108、システム制御部50を有する。
シャッター210は、システム制御部50の指示に基づいて撮像部211の露光時間を自由に制御できるフォーカルプレーンシャッターである。撮像部211は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子(イメージセンサ)である。撮像部211は、システム制御部50にデフォーカス量情報を出力する撮像面位相差センサを有していてもよい。A/D変換器212は、撮像部211から出力されるアナログ信号をデジタル信号に変換する。画像処理部214は、A/D変換器212からのデータまたはメモリ制御部213からのデータに対し所定の処理(画素補間、縮小等のリサイズ処理、色変換処理等)を行う。また、画像処理部214は、撮影した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50が露光制御や測距制御を行う。この処理により、TTL(スルー・ザ・レンズ)方式のAF処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理等が行われる。更に、画像処理部214は、撮影した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
Next, the camera 100 will be described.
The camera 100 includes a shutter 210, an imaging unit 211, an A / D converter 212, a memory control unit 213, an image processing unit 214, a memory 215, a D / A converter 216, an EVF 217, a display unit 108, and a system control unit 50. ..
The shutter 210 is a focal plane shutter that can freely control the exposure time of the imaging unit 211 based on the instruction of the system control unit 50. The image pickup unit 211 is an image pickup element (image sensor) composed of a CCD, a CMOS element, or the like that converts an optical image into an electric signal. The imaging unit 211 may have an imaging surface phase difference sensor that outputs defocus amount information to the system control unit 50. The A / D converter 212 converts the analog signal output from the imaging unit 211 into a digital signal. The image processing unit 214 performs predetermined processing (pixel interpolation, resizing processing such as reduction, color conversion processing, etc.) on the data from the A / D converter 212 or the data from the memory control unit 213. Further, the image processing unit 214 performs a predetermined calculation process using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the obtained calculation result. By this processing, TTL (through-the-lens) AF processing, AE (automatic exposure) processing, EF (flash pre-flash) processing, and the like are performed. Further, the image processing unit 214 performs a predetermined calculation process using the captured image data, and performs a TTL method AWB (auto white balance) process based on the obtained calculation result.

A/D変換器212からの画像データは、画像処理部214およびメモリ制御部213を介してメモリ215に書き込まれる。あるいは、A/D変換器212からの画像データは、画像処理部214を介さずにメモリ制御部213を介してメモリ215に書き込まれる。メモリ215は、撮像部211によって得られA/D変換器212によりデジタルデータに変換された画像データや、表示部108やEVF217に表示するための画像データを格納する。メモリ215は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。また、メモリ215は画像表示用のメモリ(ビデオメモリ)を兼ねている。 The image data from the A / D converter 212 is written to the memory 215 via the image processing unit 214 and the memory control unit 213. Alternatively, the image data from the A / D converter 212 is written to the memory 215 via the memory control unit 213 without going through the image processing unit 214. The memory 215 stores the image data obtained by the imaging unit 211 and converted into digital data by the A / D converter 212, and the image data to be displayed on the display unit 108 or the EVF 217. The memory 215 has a storage capacity sufficient to store a predetermined number of still images, moving images for a predetermined time, and audio. Further, the memory 215 also serves as a memory (video memory) for displaying an image.

D/A変換器216は、メモリ215に格納されている画像表示用のデータをアナログ信号に変換して表示部108やEVF217に供給する。したがって、メモリ215に書き込まれた表示用の画像データは、D/A変換器216を介して表示部108やEVF217に表示される。表示部108やEVF217は、D/A変換器216からのアナログ信号に応じた表示を行う。表示部108やEVF217は、例えば、LCDや有機EL等のディスプレイである。A/D変換器212によってA/D変換されメモリ215に蓄積されたデジタル信号をD/A変換器216でアナログ信号に変換し、表示部108やEVF217に逐次転送して表示することで、ライブビュー表示が行われる。 The D / A converter 216 converts the image display data stored in the memory 215 into an analog signal and supplies it to the display unit 108 and the EVF 217. Therefore, the display image data written in the memory 215 is displayed on the display unit 108 or the EVF 217 via the D / A converter 216. The display unit 108 and the EVF 217 display according to the analog signal from the D / A converter 216. The display unit 108 and the EVF 217 are, for example, a display such as an LCD or an organic EL. The digital signal that has been A / D converted by the A / D converter 212 and stored in the memory 215 is converted into an analog signal by the D / A converter 216, and is sequentially transferred to the display unit 108 or EVF217 for display. The view is displayed.

システム制御部50は、少なくとも1つのプロセッサおよび/または少なくとも1つの回路からなる制御部である。すなわち、システム制御部50は、プロセッサであってもよく、回路であってもよく、プロセッサと回路の組み合わせであってもよい。システム制御部50は、カメラ100全体を制御する。システム制御部50は、不揮発性メモリ219に記録されたプログラムを実行することで、後述するフローチャートの各処理を実現する。また、システム制御部50は、メモリ215、D/A変換器216、表示部108、EVF217等を制御することにより表示制御も行う。 The system control unit 50 is a control unit including at least one processor and / or at least one circuit. That is, the system control unit 50 may be a processor, a circuit, or a combination of a processor and a circuit. The system control unit 50 controls the entire camera 100. The system control unit 50 realizes each process of the flowchart described later by executing the program recorded in the non-volatile memory 219. The system control unit 50 also controls the display by controlling the memory 215, the D / A converter 216, the display unit 108, the EVF 217, and the like.

また、カメラ100は、システムメモリ218、不揮発性メモリ219、システムタイマ220、通信部221、姿勢検知部222、接眼検知部118を有する。
システムメモリ218は、例えばRAMが用いられる。システムメモリ218には、システム制御部50の動作用の定数、変数、不揮発性メモリ219から読み出したプログラム等が展開される。不揮発性メモリ219は、電気的に消去・記録可能なメモリであり、例えばEEPROMが用いられる。不揮発性メモリ219には、システム制御部50の動作用の定数、プログラム等が記録される。ここでのプログラムとは、後述するフローチャートを実行するためのプログラムである。システムタイマ220は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。通信部221は、無線または有線ケーブルによって接続された外部機器との間で、映像信号や音声信号の送受信を行う。通信部221は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部221は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部221は撮像部211で撮影した画像(ライブ画像を含む)や、記録媒体227に記録された画像を送信可能であり、外部機器から画像データやその他の各種情報を受信することができる。姿勢検知部222は、重力方向に対するカメラ100の姿勢を検知する。姿勢検知部222で検知された姿勢に基づいて、撮像部211で撮影された画像が、カメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部222で検知された姿勢に応じた向き情報を撮像部211で撮影された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部222は、例えば、加速度センサやジャイロセンサ等を用いることができる。姿勢検知部222を用いて、カメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。
Further, the camera 100 has a system memory 218, a non-volatile memory 219, a system timer 220, a communication unit 221 and an attitude detection unit 222, and an eyepiece detection unit 118.
For the system memory 218, for example, RAM is used. In the system memory 218, constants and variables for the operation of the system control unit 50, a program read from the non-volatile memory 219, and the like are expanded. The non-volatile memory 219 is a memory that can be electrically erased and recorded, and for example, EEPROM is used. The non-volatile memory 219 records constants, programs, and the like for the operation of the system control unit 50. The program here is a program for executing the flowchart described later. The system timer 220 is a time measuring unit that measures the time used for various controls and the time of the built-in clock. The communication unit 221 transmits and receives video signals and audio signals to and from an external device connected by a wireless or wired cable. The communication unit 221 can also be connected to a wireless LAN (Local Area Network) and the Internet. The communication unit 221 can also communicate with an external device using Bluetooth (registered trademark) or Bluetooth Low Energy. The communication unit 221 can transmit an image (including a live image) taken by the imaging unit 211 and an image recorded on the recording medium 227, and can receive image data and various other information from an external device. The posture detection unit 222 detects the posture of the camera 100 with respect to the direction of gravity. Based on the posture detected by the posture detection unit 222, whether the image taken by the image pickup unit 211 is an image taken by holding the camera 100 horizontally or an image taken by holding the camera 100 vertically. It can be discriminated. The system control unit 50 can add orientation information according to the posture detected by the posture detection unit 222 to an image file of an image taken by the image pickup unit 211, or rotate and record the image. be. For the posture detection unit 222, for example, an acceleration sensor, a gyro sensor, or the like can be used. It is also possible to detect the movement (pan, tilt, lift, whether or not it is stationary, etc.) of the camera 100 by using the posture detection unit 222.

接眼検知部118は、EVF217を内蔵する接眼ファインダ117の接眼部116に対する何らかの物体の接近を検知することができる。接眼検知部118は、例えば、赤外線近接センサを用いることができる。物体が接近した場合、接眼検知部118の投光部から投光した赤外線が物体で反射して赤外線近接センサの受光部で受光される。受光された赤外線の量によって接眼部116から物体までの距離を判別することができる。このように、接眼検知部118は、接眼部116に対する物体の近接距離を検知する接眼検知を行う。接眼検知部118は、接眼ファインダ117の接眼部116に対する眼(物体)の接近(接眼)および離反(離眼)を検知する接眼検知センサである。非接眼状態(非接近状態)から、接眼部116に対して所定距離以内に近づく物体が検知された場合に、接眼されたと検知する。一方、接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検知する。接眼を検知する閾値と、離眼を検知する閾値は例えばヒステリシスを設ける等して異なっていてもよい。また、接眼を検知した後は、離眼を検知するまでは接眼状態であるものとする。離眼を検知した後は、接眼を検知するまでは非接眼状態であるものとする。システム制御部50は、接眼検知部118で検知された状態に応じて、表示部108とEVF217の表示(表示状態)/非表示(非表示状態)を切り替える。具体的には、少なくとも撮影待機状態であって、かつ、表示先の切替設定が自動切替である場合、非接眼中は表示先を表示部108として表示をオンとし、EVF217は非表示とする。また、接眼中は表示先をEVF217として表示をオンとし、表示部108は非表示とする。なお、接眼検知部118は、赤外線近接センサである場合に限られず、接眼とみなせる状態を検知できるものであれば他のセンサを用いてもよい。 The eyepiece detection unit 118 can detect the approach of some object to the eyepiece unit 116 of the eyepiece finder 117 having the EVF 217 built-in. For the eyepiece detection unit 118, for example, an infrared proximity sensor can be used. When an object approaches, the infrared rays projected from the light projecting unit of the eyepiece detection unit 118 are reflected by the object and received by the light receiving unit of the infrared proximity sensor. The distance from the eyepiece 116 to the object can be determined by the amount of infrared rays received. In this way, the eyepiece detection unit 118 performs eyepiece detection that detects the close distance of the object to the eyepiece 116. The eyepiece detection unit 118 is an eyepiece detection sensor that detects the approach (eyepiece) and separation (eyepiece) of the eye (object) with respect to the eyepiece 116 of the eyepiece finder 117. When an object approaching the eyepiece portion 116 within a predetermined distance is detected from the non-eyepiece state (non-approaching state), it is detected that the eyepiece has been eyepieced. On the other hand, when the object that has detected the approach is separated by a predetermined distance or more from the eyepiece state (approaching state), it is detected that the eye has been removed. The threshold value for detecting the eyepiece and the threshold value for detecting the eyepiece may be different, for example, by providing hysteresis. Further, after the eyepiece is detected, the eyepiece is assumed to be in the eyepiece state until the eyepiece is detected. After the eyepiece is detected, it is assumed that the eyepiece is not in the eyepiece state until the eyepiece is detected. The system control unit 50 switches the display (display state) / non-display (non-display state) of the display unit 108 and the EVF 217 according to the state detected by the eyepiece detection unit 118. Specifically, when at least in the shooting standby state and the display destination switching setting is automatic switching, the display destination is set to the display unit 108 and the display is turned on and the EVF 217 is hidden during non-eye contact. Further, during eye contact, the display destination is set to EVF217, the display is turned on, and the display unit 108 is hidden. The eyepiece detection unit 118 is not limited to the case of an infrared proximity sensor, and another sensor may be used as long as it can detect a state that can be regarded as an eyepiece.

また、カメラ100は、ファインダ外表示部107、ファインダ外表示駆動回路223、電源制御部224、電源部225、記録媒体I/F226、操作部228等を有する。
ファインダ外表示部107は、ファインダ外表示駆動回路223を介して、シャッター速度や絞り等のカメラ100の様々な設定値を表示する。電源制御部224は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出等を行う。また、電源制御部224は、その検出結果およびシステム制御部50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体227を含む各部へ供給する。電源部225は、アルカリ電池およびリチウム電池等の一次電池、NiCd電池、NiMH電池およびLi電池等の二次電池、ACアダプター等である。記録媒体I/F226は、メモリカードやハードディスク等の記録媒体227とのインターフェースである。記録媒体227は、撮影された画像を記録するためのメモリカード等であり、半導体メモリや磁気ディスク等から構成される。記録媒体227は、着脱可能であってもよく、内蔵されていてもよい。
Further, the camera 100 includes an outside viewfinder display unit 107, an outside viewfinder display drive circuit 223, a power supply control unit 224, a power supply unit 225, a recording medium I / F 226, an operation unit 228, and the like.
The out-of-viewfinder display unit 107 displays various set values of the camera 100 such as the shutter speed and the aperture via the out-of-viewfinder display drive circuit 223. The power supply control unit 224 is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, the remaining battery level, and the like. Further, the power supply control unit 224 controls the DC-DC converter based on the detection result and the instruction of the system control unit 50, and supplies a necessary voltage to each unit including the recording medium 227 for a necessary period. The power supply unit 225 is a primary battery such as an alkaline battery and a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery and a Li battery, an AC adapter and the like. The recording medium I / F 226 is an interface with a recording medium 227 such as a memory card or a hard disk. The recording medium 227 is a memory card or the like for recording a captured image, and is composed of a semiconductor memory, a magnetic disk, or the like. The recording medium 227 may be removable or may be built-in.

操作部228は、ユーザからの操作(ユーザ操作)を受け付ける入力部であり、システム制御部50に各種の指示を入力するために用いられる。操作部228は、シャッターボタン101、電源スイッチ102、モード切替スイッチ103、タッチパネル109、他の操作部229等が含まれる。他の操作部229には、メイン電子ダイヤル104、サブ電子ダイヤル105、動画ボタン106、方向キー110、SETボタン111、AEロックボタン112、拡大ボタン113、再生ボタン114、メニューボタン115、タッチバー119等が含まれる。
シャッターボタン101は、第1シャッタースイッチ230と第2シャッタースイッチ231を有する。第1シャッタースイッチ230は、シャッターボタン101の操作途中、いわゆる半押し(撮影準備指示)でオンとなり、第1シャッタースイッチ信号SW1を発生させる。システム制御部50は、第1シャッタースイッチ信号SW1により、AF処理、AE処理、AWB処理、EF処理等の撮影準備処理を開始する。第2シャッタースイッチ231は、シャッターボタン101の操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部211からの信号読み出しから、撮影された画像を含む画像ファイルを生成して記録媒体227に書き込むまでの一連の撮影処理を開始する。
The operation unit 228 is an input unit that receives an operation (user operation) from the user, and is used to input various instructions to the system control unit 50. The operation unit 228 includes a shutter button 101, a power switch 102, a mode changeover switch 103, a touch panel 109, another operation unit 229, and the like. Other operation units 229 include a main electronic dial 104, a sub electronic dial 105, a moving image button 106, a direction key 110, a SET button 111, an AE lock button 112, an enlargement button 113, a play button 114, a menu button 115, a touch bar 119, and the like. Is included.
The shutter button 101 has a first shutter switch 230 and a second shutter switch 231. The first shutter switch 230 is turned on by a so-called half-press (shooting preparation instruction) during the operation of the shutter button 101, and the first shutter switch signal SW1 is generated. The system control unit 50 starts shooting preparation processing such as AF processing, AE processing, AWB processing, and EF processing by the first shutter switch signal SW1. The second shutter switch 231 is turned on when the operation of the shutter button 101 is completed, that is, when the shutter button 101 is fully pressed (shooting instruction), and the second shutter switch signal SW2 is generated. The system control unit 50 starts a series of shooting processes from reading the signal from the imaging unit 211 to generating an image file including the captured image and writing it to the recording medium 227 by the second shutter switch signal SW2.

モード切替スイッチ103は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード、再生モード等の何れかに切り替える。静止画撮影モードに含まれるモードには、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。ユーザは、モード切替スイッチ103により、上述した撮影モードの何れかに直接、切り替えることができる。あるいは、ユーザは、モード切替スイッチ103により撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードの何れかに操作部228を用いて選択的に切り替えることができる。同様に、動画撮影モードにも複数のモードが含まれていてもよい。 The mode changeover switch 103 switches the operation mode of the system control unit 50 to any one of a still image shooting mode, a moving image shooting mode, a playback mode, and the like. The modes included in the still image shooting mode include an auto shooting mode, an auto scene discrimination mode, a manual mode, an aperture priority mode (Av mode), a shutter speed priority mode (Tv mode), and a program AE mode (P mode). In addition, there are various scene modes, custom modes, etc. that are shooting settings for each shooting scene. The user can directly switch to any of the above-mentioned shooting modes by the mode changeover switch 103. Alternatively, the user can use the mode changeover switch 103 to temporarily switch to the shooting mode list screen, and then selectively switch to any of the displayed multiple modes using the operation unit 228. Similarly, the moving image shooting mode may include a plurality of modes.

タッチパネル109は、表示部108の表示面(タッチパネル109の操作面)への各種タッチ操作を検出するタッチセンサである。タッチパネル109と表示部108とは一体的に構成することができる。例えば、タッチパネル109は、光の透過率が表示部108の表示を妨げないように、表示部108の表示面の上層に取り付けられる。そして、タッチパネル109における入力座標と、表示部108の表示面上の表示座標とを対応付けることで、あたかもユーザが表示部108上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザインターフェース)を構成できる。タッチパネル109には、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等の様々な方式のうち何れかの方式を用いることができる。方式によって、タッチパネル109に対する接触があったことでタッチがあったと検知する方式や、タッチパネル109に対する指やペンの接近があったことでタッチがあったと検知する方式があるが、何れの方式であってもよい。 The touch panel 109 is a touch sensor that detects various touch operations on the display surface of the display unit 108 (the operation surface of the touch panel 109). The touch panel 109 and the display unit 108 can be integrally configured. For example, the touch panel 109 is attached to the upper layer of the display surface of the display unit 108 so that the light transmittance does not interfere with the display of the display unit 108. Then, by associating the input coordinates on the touch panel 109 with the display coordinates on the display surface of the display unit 108, the GUI as if the user can directly operate the screen displayed on the display unit 108. (Graphical user interface) can be configured. For the touch panel 109, any one of various methods such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method can be used. Depending on the method, there are a method of detecting that there is a touch due to contact with the touch panel 109 and a method of detecting that there is a touch due to the approach of a finger or a pen to the touch panel 109. You may.

システム制御部50は、タッチパネル109に対する以下の操作あるいは状態を検出できる。
・タッチパネル109にタッチしていなかった指やペンが新たにタッチパネル109にタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch−Down)という)。
・タッチパネル109を指やペンでタッチしている状態(以下、タッチオン(Touch−On)という)。
・タッチパネル109を指やペンがタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)という)。
・タッチパネル109へタッチしていた指やペンがタッチパネル109から離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch−Up)という)。
・タッチパネル109に何もタッチしていない状態(以下、タッチオフ(Touch−Off)という)。
The system control unit 50 can detect the following operations or states on the touch panel 109.
-A finger or pen that has not touched the touch panel 109 newly touches the touch panel 109, that is, the start of touch (hereinafter referred to as touch-down).
-A state in which the touch panel 109 is touched with a finger or a pen (hereinafter referred to as touch-on).
-The touch panel 109 is moved while being touched by a finger or a pen (hereinafter referred to as a touch move (Touch-Move)).
-The finger or pen touching the touch panel 109 is separated (released) from the touch panel 109, that is, the end of the touch (hereinafter referred to as touch-up).
-A state in which nothing is touched on the touch panel 109 (hereinafter referred to as touch-off).

タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。 When touchdown is detected, touch-on is also detected at the same time. After touchdown, touch-on usually continues to be detected unless touch-up is detected. When a touch move is detected, a touch-on is detected at the same time. Even if touch-on is detected, touch move is not detected unless the touch position is moved. After it is detected that all the fingers and pens that have been touched are touched up, the touch is turned off.

これらの操作・状態や、タッチパネル109上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。システム制御部50は通知された情報に基づいてタッチパネル109上にどのような操作(タッチ操作)が行なわれたかを判定する。タッチムーブについてはタッチパネル109上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル109上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行なわれたと判定される。タッチパネル109上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックという。フリックは、言い換えればタッチパネル109上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定される(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトという。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)という。 These operations / states and the position coordinates of the finger or pen touching the touch panel 109 are notified to the system control unit 50 via the internal bus. The system control unit 50 determines what kind of operation (touch operation) has been performed on the touch panel 109 based on the notified information. Regarding the touch move, the moving direction of the finger or pen moving on the touch panel 109 can also be determined for each vertical component and horizontal component on the touch panel 109 based on the change in the position coordinates. When it is detected that the touch move is performed for a predetermined distance or more, it is determined that the slide operation has been performed. The operation of quickly moving a finger on the touch panel 109 by a certain distance and then releasing it is called flicking. In other words, flicking is an operation of quickly tracing the touch panel 109 as if flicking it with a finger. When it is detected that the touch move is performed at a predetermined speed or more over a predetermined distance and the touch-up is detected as it is, it is determined that the flick has been performed (it can be determined that there was a flick following the slide operation). Further, a touch operation in which a plurality of points (for example, two points) are touched together (multi-touch) to bring the touch positions closer to each other is called pinch-in, and a touch operation to move the touch positions away from each other is called pinch-out. Pinch out and pinch in are collectively called pinch operation (or simply pinch).

図3は、レンズユニット300の構成の一例を示す模式図である。図3では、レンズユニット300をカメラ100に装着した状態を示している。なお、図3に示すカメラ100のうち図2で説明した構成と同一の構成は、同一符号を付して適宜、説明を省略する。 FIG. 3 is a schematic view showing an example of the configuration of the lens unit 300. FIG. 3 shows a state in which the lens unit 300 is attached to the camera 100. Of the cameras 100 shown in FIG. 3, the same configurations as those described in FIG. 2 are designated by the same reference numerals, and the description thereof will be omitted as appropriate.

レンズユニット300は、カメラ100に着脱可能な交換レンズの一種である。レンズユニット300は、左像および右像で視差がある撮影が可能な2眼レンズである。レンズユニット300は、2つの光学系を有し、それぞれ略180度の広視野角であって、前方半球の範囲を撮影できる。具体的に、レンズユニット300の2つの光学系は、それぞれ左右方向(水平角度、方位角、ヨー角)180度、上下方向(垂直角度、仰俯角、ピッチ角)180度の視野分(画角分)の被写体を撮影できる。 The lens unit 300 is a kind of interchangeable lens that can be attached to and detached from the camera 100. The lens unit 300 is a twin-lens lens capable of photographing with parallax between a left image and a right image. The lens unit 300 has two optical systems, each having a wide viewing angle of about 180 degrees, and can photograph a range of the front hemisphere. Specifically, the two optical systems of the lens unit 300 have a viewing angle (angle) of 180 degrees in the left-right direction (horizontal angle, azimuth angle, yaw angle) and 180 degrees in the vertical direction (vertical angle, elevation / depression angle, pitch angle), respectively. You can shoot a subject (minutes).

レンズユニット300は、複数のレンズと反射ミラー等を有する右眼光学系301R、複数のレンズと反射ミラー等を有する左眼光学系301L、レンズシステム制御回路303を有する。右眼光学系301Rは第1の光学系の一例に対応し、左眼光学系301Lは第2の光学系の一例に対応する。右眼光学系301Rおよび左眼光学系301Lはそれぞれ被写体側に位置する各レンズ302R、302Lが同じ方向を向いており、各光軸が略平行である。本実施形態のレンズユニット300は、2眼立体視が可能なVR画像のフォーマットであるいわゆるVR180のための画像を撮影するためのVR180用レンズである。VR180用レンズは、右眼光学系301Rおよび左眼光学系301Lがそれぞれ略180度の範囲を捉えることが可能な魚眼レンズを有する。なお、VR180用レンズは、右眼光学系301Rおよび左眼光学系301LがそれぞれVR180としての2眼VR表示が可能な映像が取得できればよく、180度の範囲よりも狭い160度程度の広視野角の範囲を捉えることが可能なレンズであってもよい。VR180用レンズは、右眼光学系301Rを介して形成される右像(第一像)と、右像とは視差を有する左眼光学系301Lを介して形成される左像(第二像)とを、装着したカメラの1つまたは2つの撮像素子上に形成することができる。
また、レンズユニット300は、レンズマウント部304と、カメラ100のカメラマウント部305とを介して、カメラ100に装着される。レンズユニット300がカメラ100に装着されることで、カメラ100の通信端子124と、レンズユニット300の通信端子306とを介して、カメラ100のシステム制御部50とレンズユニット300のレンズシステム制御回路303とが電気的に接続される。
The lens unit 300 includes a right-eye optical system 301R having a plurality of lenses and a reflection mirror, a left-eye optical system 301L having a plurality of lenses and a reflection mirror, and a lens system control circuit 303. The right eye optical system 301R corresponds to an example of the first optical system, and the left eye optical system 301L corresponds to an example of the second optical system. In the right eye optical system 301R and the left eye optical system 301L, the lenses 302R and 302L located on the subject side are oriented in the same direction, and their optical axes are substantially parallel. The lens unit 300 of the present embodiment is a VR180 lens for capturing an image for a so-called VR180, which is a VR image format capable of binocular stereoscopic viewing. The VR180 lens has a fisheye lens capable of capturing a range of approximately 180 degrees for each of the right eye optical system 301R and the left eye optical system 301L. As for the lens for VR180, it is sufficient that the right eye optical system 301R and the left eye optical system 301L can acquire images capable of twin-lens VR display as VR180, respectively, and a wide viewing angle of about 160 degrees narrower than the range of 180 degrees. It may be a lens capable of capturing the range of. The VR180 lens has a right image (first image) formed via the right eye optical system 301R and a left image (second image) formed via the left eye optical system 301L having parallax from the right image. Can be formed on one or two image sensors of the mounted camera.
Further, the lens unit 300 is attached to the camera 100 via the lens mount portion 304 and the camera mount portion 305 of the camera 100. When the lens unit 300 is attached to the camera 100, the system control unit 50 of the camera 100 and the lens system control circuit 303 of the lens unit 300 pass through the communication terminal 124 of the camera 100 and the communication terminal 306 of the lens unit 300. And are electrically connected.

本実施形態では、右眼光学系301Rを介して形成される右像と、右像とは視差を有する左眼光学系301Lを介して形成される左像とは、並んでカメラ100の撮像部211に結像される。すなわち、右眼光学系301Rおよび左眼光学系301Lにより形成される2つの光学像が1つの撮像素子上に形成される。撮像部211は、結像された被写体像(光信号)をアナログ電気信号に変換する。このように、レンズユニット300を用いることで、右眼光学系301Rと左眼光学系301Lとの2つの箇所(光学系)から視差がある2つの画像を同時に(セットで)取得することができる。また、取得された画像を左眼用の画像と右眼用の画像とに分けてVR表示することで、ユーザは略180度の範囲の立体的なVR画像、いわゆるVR180を視聴することができる。 In the present embodiment, the right image formed via the right eye optical system 301R and the left image formed via the left eye optical system 301L having parallax from the right image are arranged side by side in the imaging unit of the camera 100. The image is formed on 211. That is, two optical images formed by the right eye optical system 301R and the left eye optical system 301L are formed on one image sensor. The imaging unit 211 converts the imaged subject image (optical signal) into an analog electrical signal. In this way, by using the lens unit 300, it is possible to simultaneously (set) acquire two images having parallax from two locations (optical systems) of the right eye optical system 301R and the left eye optical system 301L. .. Further, by dividing the acquired image into an image for the left eye and an image for the right eye and displaying them in VR, the user can view a three-dimensional VR image in a range of approximately 180 degrees, so-called VR180. ..

ここで、VR画像とは、後述するVR表示することができる画像である。VR画像には、全方位カメラ(全天球カメラ)で撮影した全方位画像(全天球画像)や、表示部に一度で表示できる表示範囲より広い映像範囲(有効映像範囲)を持つパノラマ画像等が含まれる。また、VR画像は、静止画に限られず、動画、ライブ画像(カメラからほぼリアルタイムで取得した画像)も含まれる。VR画像は、最大で、左右方向360度、上下方向360度の視野分の映像範囲(有効映像範囲)を持つ。また、VR画像には、左右方向360度未満、上下方向360度未満であっても、通常のカメラで撮影可能な画角よりも広範な画角、あるいは、表示部に一度で表示できる表示範囲より広い映像範囲を持つ画像も含まれる。上述したレンズユニット300を用いてカメラ100で撮影される画像は、VR画像の一種である。VR画像は、例えば、表示装置(VR画像を表示できる表示装置)の表示モードを「VRビュー」に設定することでVR表示することができる。360度の画角を有するVR画像をVR表示させて、ユーザが表示装置の姿勢を左右方向(水平回転方向)に変化させることで、左右方向に継ぎ目のない全方位の映像を観賞することができる。 Here, the VR image is an image that can be displayed in VR, which will be described later. VR images include omnidirectional images (omnidirectional images) taken with an omnidirectional camera (omnidirectional camera) and panoramic images having a wider image range (effective image range) than the display range that can be displayed at once on the display unit. Etc. are included. Further, the VR image is not limited to a still image, but also includes a moving image and a live image (an image acquired from a camera in almost real time). The VR image has a maximum image range (effective image range) of 360 degrees in the horizontal direction and 360 degrees in the vertical direction. Further, the VR image has a wider angle of view than the angle of view that can be taken by a normal camera, or a display range that can be displayed on the display unit at once even if the angle is less than 360 degrees in the horizontal direction and less than 360 degrees in the vertical direction. Images with a wider video range are also included. The image taken by the camera 100 using the lens unit 300 described above is a kind of VR image. The VR image can be displayed in VR by setting the display mode of the display device (display device capable of displaying the VR image) to "VR view", for example. A VR image with an angle of view of 360 degrees can be displayed in VR, and the user can change the posture of the display device in the left-right direction (horizontal rotation direction) to view a seamless omnidirectional image in the left-right direction. can.

ここで、VR表示(VRビュー)とは、VR画像のうち、表示装置の姿勢に応じた視野範囲の映像を表示する、表示範囲を変更可能な表示方法(表示モード)である。VR表示には、VR画像を仮想球体にマッピングする変形(歪曲補正が施される変形)を行って1つの画像を表示する「1眼VR表示(1眼VRビュー)」がある。また、VR表示には、左眼用のVR画像と右眼用のVR画像とをそれぞれ仮想球体にマッピングする変形を行って左右の領域に並べて表示する「2眼VR表示(2眼VRビュー)」がある。互いに視差のある左眼用のVR画像と右眼用のVR画像を用いて「2眼VR表示」を行うことで立体視することが可能である。何れのVR表示であっても、例えば、ユーザがHMD(ヘッドマウントディスプレイ)等の表示装置を装着した場合、ユーザの顔の向きに応じた視野範囲の映像が表示される。例えば、VR画像のうち、ある時点で左右方向に0度(特定の方位、例えば北)、上下方向に90度(天頂から90度、すなわち水平)を中心とした視野範囲の映像を表示しているとする。この状態から表示装置の姿勢を表裏反転させる(例えば、表示面を南向きから北向きに変更する)と、同じVR画像のうち、左右方向に180度(逆の方位、例えば南)、上下方向に90度を中心とした視野範囲の映像に、表示範囲が変更される。すなわち、ユーザがHMDを装着した状態で、顔を北から南に向く(すなわち後ろを向く)ことで、HMDに表示される映像も北の映像から南の映像に変更される。なお、本実施形態のレンズユニット300を用いて撮影したVR画像は、前方略180度の範囲を撮影したVR180の画像であり、後方略180度の範囲の映像は存在しない。このようなVR180の画像をVR表示させて、映像が存在しない側に表示装置の姿勢を変更した場合にはブランク領域が表示される。 Here, the VR display (VR view) is a display method (display mode) in which the display range can be changed, which displays an image of the viewing range according to the posture of the display device among the VR images. The VR display includes a "single-eye VR display (single-eye VR view)" that displays one image by performing a deformation (deformation in which distortion correction is applied) that maps a VR image to a virtual sphere. Further, in the VR display, the VR image for the left eye and the VR image for the right eye are each modified to be mapped to a virtual sphere and displayed side by side in the left and right areas. There is. Stereoscopic viewing is possible by performing "two-eye VR display" using a VR image for the left eye and a VR image for the right eye, which have parallax with each other. In any VR display, for example, when a user wears a display device such as an HMD (head-mounted display), an image in a visual field range corresponding to the orientation of the user's face is displayed. For example, in a VR image, at a certain point in time, an image having a viewing range centered on 0 degrees in the left-right direction (a specific direction, for example, north) and 90 degrees in the up-down direction (90 degrees from the zenith, that is, horizontal) is displayed. Suppose you are. When the posture of the display device is turned upside down from this state (for example, the display surface is changed from south to north), 180 degrees in the left-right direction (opposite direction, for example, south) and up-down direction in the same VR image. The display range is changed to an image with a viewing range centered on 90 degrees. That is, when the user turns his face from north to south (that is, faces backward) while wearing the HMD, the image displayed on the HMD is also changed from the north image to the south image. The VR image taken by using the lens unit 300 of the present embodiment is an image of VR180 taken in a range of about 180 degrees forward, and there is no image in a range of about 180 degrees backward. When such an image of VR180 is displayed in VR and the posture of the display device is changed to the side where the image does not exist, a blank area is displayed.

このようにVR画像をVR表示することによって、ユーザは視覚的にあたかもVR画像内(VR空間内)にいるような感覚になる。なお、VR画像の表示方法は表示装置の姿勢を変更する方法に限られない。例えば、タッチパネルや方向ボタン等を介したユーザ操作に応じて、表示範囲を移動(スクロール)させてもよい。また、VR表示時(表示モード「VRビュー」時)において、姿勢変化による表示範囲の変更に加え、タッチパネルでのタッチムーブ、マウス等でのドラッグ操作、方向ボタンの押下等に応じて表示範囲を変更してもよい。なお、VRゴーグル(ヘッドマウントアダプタ)に装着されたスマートフォンはHMDの一種である。 By displaying the VR image in VR in this way, the user visually feels as if he / she is in the VR image (in the VR space). The VR image display method is not limited to the method of changing the posture of the display device. For example, the display range may be moved (scrolled) according to a user operation via a touch panel, a direction button, or the like. In addition, in VR display (when the display mode is "VR view"), in addition to changing the display range by changing the posture, the display range is changed according to touch move on the touch panel, drag operation with the mouse, etc., pressing of the direction button, etc. You may change it. A smartphone attached to VR goggles (head mount adapter) is a type of HMD.

上述したように構成されるカメラ100おいてレンズユニット300を介して撮影される画像は、右眼光学系および左眼光学系を介してそれぞれ撮影されるために2つに分かれると共に、それぞれ広視野角の画像であるために歪みが生じている。したがって、レンズユニット300を介して撮影されるライブ画像を表示部108にライブビュー表示しても、ユーザは被写体の状況を確認しにくい場合がある。本実施形態では、広視野角の画像を2眼で撮影するのに適したライブビュー表示するカメラ100の処理について図4のフローチャートを参照して説明する。 The image taken through the lens unit 300 in the camera 100 configured as described above is divided into two because it is taken through the right eye optical system and the left eye optical system, and each has a wide field of view. Distortion occurs because it is a corner image. Therefore, even if the live image taken through the lens unit 300 is displayed in the live view on the display unit 108, it may be difficult for the user to confirm the condition of the subject. In the present embodiment, the processing of the camera 100 that displays a live view suitable for capturing an image with a wide viewing angle with two eyes will be described with reference to the flowchart of FIG.

図4は、カメラ100の処理の一例を示すフローチャートである。図4のフローチャートは、システム制御部50が不揮発性メモリ219に記録されたプログラムをシステムメモリ218に展開して実行することにより実現する。また、図4のフローチャートは、撮影モードが静止画撮影モードに設定されることで開始される。 FIG. 4 is a flowchart showing an example of processing of the camera 100. The flowchart of FIG. 4 is realized by the system control unit 50 expanding the program recorded in the non-volatile memory 219 into the system memory 218 and executing the program. Further, the flowchart of FIG. 4 is started when the shooting mode is set to the still image shooting mode.

S401では、システム制御部50は、装着されたレンズユニットの種類の情報を取得して、レンズユニットが2眼レンズであるか否か、ここではVR180用レンズであるか否かを判定する。具体的には、システム制御部50は、装着されたレンズユニットと通信端子124、206、306を介して通信することでレンズユニットからレンズユニットの種類の情報を取得することができる。装着されたレンズユニットがVR180用レンズである場合にはS408に進む。一方、例えば、レンズユニットが非装着、あるいは装着されたレンズユニットが1眼レンズ等の通常のレンズユニットであり、VR180用レンズではない場合にはS402に進む。 In S401, the system control unit 50 acquires information on the type of the mounted lens unit, and determines whether or not the lens unit is a twin-lens lens, here, whether or not it is a VR180 lens. Specifically, the system control unit 50 can acquire information on the type of the lens unit from the lens unit by communicating with the mounted lens unit via the communication terminals 124, 206, and 306. If the mounted lens unit is a VR180 lens, the process proceeds to S408. On the other hand, for example, when the lens unit is not attached or the lens unit is attached is a normal lens unit such as a single-lens lens and is not a VR180 lens, the process proceeds to S402.

S402では、システム制御部50は、レンズユニット(例えば、1眼レンズ等の通常のレンズユニット)を介して撮像部211により撮影されているライブ画像を表示部108に表示するライブビュー表示を行うことで、ライブビュー画像を表示する。ここで、ライブビュー画像とは、ライブ画像を表示部108にライブビュー表示した画像をいう。
図5は、表示部108に表示されたライブビュー画像500の一例を示す図である。
図5に示すライブビュー画像500は、表示部108の表示画面の全面に亘って表示される。ユーザは表示部108に表示されたライブビュー画像500を視認することで、所望する撮影ができるかを確認することができる。
In S402, the system control unit 50 performs a live view display in which the live image captured by the imaging unit 211 is displayed on the display unit 108 via the lens unit (for example, a normal lens unit such as a single lens). To display the live view image. Here, the live view image means an image in which the live image is displayed in the display unit 108 in the live view.
FIG. 5 is a diagram showing an example of the live view image 500 displayed on the display unit 108.
The live view image 500 shown in FIG. 5 is displayed over the entire display screen of the display unit 108. By visually recognizing the live view image 500 displayed on the display unit 108, the user can confirm whether or not the desired shooting can be performed.

S403では、システム制御部50は、ライブビュー表示中にシャッターボタン101が半押しされ、第1シャッタースイッチ230がオンになったか否かを判定する。具体的に、システム制御部50は第1シャッタースイッチ信号SW1を受信したか否かを判定する。第1シャッタースイッチ230がオンになった場合、すなわち第1シャッタースイッチ信号SW1を受信した場合にはS404に進む。一方、第1シャッタースイッチ230がオンではない場合、すなわち第1シャッタースイッチ信号SW1を受信していない場合にはS405に進む。
S404では、システム制御部50は撮影準備処理を行う。具体的には、システム制御部50は、AF処理、AE処理、AWB処理、EF処理等を開始する。
In S403, the system control unit 50 determines whether or not the shutter button 101 is half-pressed during the live view display and the first shutter switch 230 is turned on. Specifically, the system control unit 50 determines whether or not the first shutter switch signal SW1 has been received. When the first shutter switch 230 is turned on, that is, when the first shutter switch signal SW1 is received, the process proceeds to S404. On the other hand, if the first shutter switch 230 is not on, that is, if the first shutter switch signal SW1 is not received, the process proceeds to S405.
In S404, the system control unit 50 performs a shooting preparation process. Specifically, the system control unit 50 starts AF processing, AE processing, AWB processing, EF processing, and the like.

S405では、システム制御部50は、ライブビュー表示中にシャッターボタン101が全押しされ、第2シャッタースイッチ231がオンになったか否かを判定する。具体的に、システム制御部50は第2シャッタースイッチ信号SW2を受信したか否かを判定する。第2シャッタースイッチ231がオンになった場合、すなわち第2シャッタースイッチ信号SW2を受信した場合にはS406に進む。一方、第2シャッタースイッチ231がオンではない場合、すなわち第2シャッタースイッチ信号SW2を受信していない場合にはS401に戻る。
S406では、システム制御部50は撮影処理を行う。具体的には、システム制御部50は、撮像部211からの信号読み出しから、撮影された画像を含む画像ファイルを生成して記録媒体227に書き込むまでの一連の撮影処理を行う。ここで記録される画像ファイルのファイル名は例えば“IMG_3456.jpg”といったDCF規格に則ったファイル名となる。また、後述するS418で記録されるVR180用の画像ファイルの画像のように、左眼映像範囲801Lや右眼映像範囲801Rの抽出(取得)や、VR180用の変形処理(円筒図法を用いた変形)などは行われない。
In S405, the system control unit 50 determines whether or not the shutter button 101 is fully pressed and the second shutter switch 231 is turned on during the live view display. Specifically, the system control unit 50 determines whether or not the second shutter switch signal SW2 has been received. When the second shutter switch 231 is turned on, that is, when the second shutter switch signal SW2 is received, the process proceeds to S406. On the other hand, when the second shutter switch 231 is not on, that is, when the second shutter switch signal SW2 is not received, the process returns to S401.
In S406, the system control unit 50 performs a shooting process. Specifically, the system control unit 50 performs a series of imaging processes from reading a signal from the imaging unit 211 to generating an image file including the captured image and writing it to the recording medium 227. The file name of the image file recorded here is, for example, a file name conforming to the DCF standard such as "IMG_3456.jpg". Further, like the image of the image file for VR180 recorded in S418 described later, extraction (acquisition) of the left eye image range 801L and the right eye image range 801R and deformation processing for VR180 (deformation using the cylindrical projection method). ) Etc. are not performed.

S407では、システム制御部50は、撮影指示に応じて撮像部211により撮影された画像をクイックレビュー表示する。クイックレビュー表示とは、撮影指示に応じて画像が撮影された直後に、ユーザが撮影された画像を確認するために表示する処理をいう。ただし、メニュー等によるクイックレビュー表示をしないように設定されている場合にはS407を省略することができる。その後、システム制御部50はS401に戻り、再びレンズユニットがVR180用レンズであるか否かを判定する。 In S407, the system control unit 50 displays a quick review of the image captured by the imaging unit 211 in response to the imaging instruction. The quick review display is a process of displaying an image for the user to confirm the captured image immediately after the image is captured in response to a shooting instruction. However, S407 can be omitted when it is set not to display the quick review by the menu or the like. After that, the system control unit 50 returns to S401 and again determines whether or not the lens unit is a VR180 lens.

S408では、システム制御部50は、ライブビュー表示するときの表示モードが第1の表示モードであるか否かを判定する。具体的に、システム制御部50は、不揮発性メモリ219に記憶された制御変数に、第1の表示モードの情報が記憶されているか否かを判定する。第1の表示モードの情報が記憶されている場合にはS409に進み、第1の表示モードの情報が記憶されていない場合にはS410に進む。
ここで、本実施形態では、VR180用レンズが装着されている場合に、VR180用レンズを介して撮影されているライブ画像をライブビュー表示させるときの表示モードをユーザが予め設定することができる。
In S408, the system control unit 50 determines whether or not the display mode at the time of live view display is the first display mode. Specifically, the system control unit 50 determines whether or not the information of the first display mode is stored in the control variable stored in the non-volatile memory 219. If the information of the first display mode is stored, the process proceeds to S409, and if the information of the first display mode is not stored, the process proceeds to S410.
Here, in the present embodiment, when the VR180 lens is attached, the user can set in advance the display mode for displaying the live image taken through the VR180 lens in the live view.

図6は、表示モード設定画面600の一例を示す図である。
表示モード設定画面600は、例えば、メニューボタン115を押下することで表示されるメニュー画面のうち所定の表示モード設定項目を選択することにより表示部108に表示される。
表示モード設定画面600には、第1の表示モード選択ボタン601〜第4の表示モード選択ボタン604が選択可能に表示される。ユーザは第1の表示モード選択ボタン601〜第4の表示モード選択ボタン604のうち、所望する表示モードに対応する選択ボタンを方向キー110でカーソル605を移動させた上でSETボタン111を押下することで選択する。あるいは、ユーザは第1の表示モード選択ボタン601〜第4の表示モード選択ボタン604のうち、所望する表示モードに対応する選択ボタンを直接、タッチして選択する。システム制御部50は、ユーザ操作により選択された選択ボタンに対応する表示モードの情報を制御変数に代入して、例えば不揮発性メモリ219に記憶することで表示モードを設定する。なお、表示モード選択画面600を表示させずとも、第1〜第4の表示モードのいずれかで表示を行っている際に、他の操作部229に含まれる表示モード切替ボタンが押下されるたびに表示モードを順次切り替えて設定する(トグルする)ようにしても良い。なお、第1の表示モード選択ボタン601〜第4の表示モード選択ボタン604に対応する各表示モードについては、図7を参照して後述する。
FIG. 6 is a diagram showing an example of the display mode setting screen 600.
The display mode setting screen 600 is displayed on the display unit 108 by selecting a predetermined display mode setting item from the menu screen displayed by pressing the menu button 115, for example.
On the display mode setting screen 600, the first display mode selection button 601 to the fourth display mode selection button 604 are displayed so as to be selectable. The user presses the SET button 111 after moving the cursor 605 with the arrow keys 110 to select the selection button corresponding to the desired display mode among the first display mode selection buttons 601 to the fourth display mode selection buttons 604. Select by. Alternatively, the user directly touches and selects the selection button corresponding to the desired display mode among the first display mode selection buttons 601 to the fourth display mode selection buttons 604. The system control unit 50 sets the display mode by substituting the display mode information corresponding to the selection button selected by the user operation into the control variable and storing it in, for example, the non-volatile memory 219. Even if the display mode selection screen 600 is not displayed, each time the display mode switching button included in the other operation unit 229 is pressed during display in any of the first to fourth display modes. The display mode may be sequentially switched and set (toggle). Each display mode corresponding to the first display mode selection button 601 to the fourth display mode selection button 604 will be described later with reference to FIG. 7.

S409では、システム制御部50は、VR180用レンズを介して撮像部211により撮影されているライブ画像を第1の表示モードで表示部108に表示するライブビュー表示を行う。第1の表示モードは、撮像部211が撮影しているライブ画像を、後述する円筒図法に基づいた変形をせずに表示部108にライブビュー表示させるモードである。本実施形態の第1の表示モードでは、撮像部211により撮影しているライブ画像をそのまま表示部108に表示させる。 In S409, the system control unit 50 performs a live view display in which the live image captured by the imaging unit 211 via the VR180 lens is displayed on the display unit 108 in the first display mode. The first display mode is a mode in which the live image captured by the imaging unit 211 is displayed on the display unit 108 in a live view without being deformed based on the cylindrical projection described later. In the first display mode of the present embodiment, the live image captured by the imaging unit 211 is displayed on the display unit 108 as it is.

図7(a)は、第1の表示モードでライブビュー表示されたライブビュー画像700の一例を示す図である。ライブビュー画像700には、右眼光学系301Rを介して撮影されたライブ画像に対応するライブビュー画像701Rと、左眼光学系301Lを介して撮影されたライブ画像に対応するライブビュー画像701Lとが含まれる。また、各ライブビュー画像701R、701Lに注目すると、それぞれ円形であり、円形の外縁に近づくほど大きく歪んでいる。
第1の表示モードは、ライブ画像を変形させずにライブビュー表示することから画像処理を軽減できるために比較的、容易に実現することができる。また、2つの光学系で2つの広視野画像が撮影されていることがわかり、VR180用レンズが装着されて撮影指定状態であることが認識しやすい。一方、第1の表示モードは、1つの画面に2つの画像が分かれて表示され、かつ大きく歪んでいるために、ユーザがピントや被写体の表情等を細かく確認するのには適していない。したがって、ユーザは、例えば、ピントや被写体の表情等を細かく確認する必要がない場合等に第1の表示モードを選択する。
FIG. 7A is a diagram showing an example of the live view image 700 displayed in the live view in the first display mode. The live view image 700 includes a live view image 701R corresponding to a live image taken via the right eye optical system 301R and a live view image 701L corresponding to a live image taken via the left eye optical system 301L. Is included. Further, paying attention to the live view images 701R and 701L, they are circular, and the closer to the outer edge of the circular shape, the greater the distortion.
The first display mode can be realized relatively easily because the image processing can be reduced because the live view is displayed without deforming the live image. Further, it can be seen that two wide-field images are taken by the two optical systems, and it is easy to recognize that the VR180 lens is attached and the shooting is specified. On the other hand, the first display mode is not suitable for the user to check the focus, the facial expression of the subject, and the like in detail because the two images are displayed separately on one screen and are greatly distorted. Therefore, the user selects the first display mode, for example, when it is not necessary to check the focus, the facial expression of the subject, or the like in detail.

次に、S410では、システム制御部50は、ライブビュー表示するときの表示モードが第2の表示モードであるか否かを判定する。具体的に、システム制御部50は、不揮発性メモリ219に記憶された制御変数に、第2の表示モードの情報が記憶されているか否かを判定する。第2の表示モードの情報が記憶されている場合にはS411に進み、第2の表示モードの情報が記憶されていない場合にはS412に進む。 Next, in S410, the system control unit 50 determines whether or not the display mode at the time of live view display is the second display mode. Specifically, the system control unit 50 determines whether or not the information of the second display mode is stored in the control variable stored in the non-volatile memory 219. If the information of the second display mode is stored, the process proceeds to S411, and if the information of the second display mode is not stored, the process proceeds to S412.

S411では、システム制御部50は、VR180用レンズを介して撮像部211により撮影されているライブ画像を第2の表示モードで表示部108に表示するライブビュー表示を行う。第2の表示モードは、右眼光学系を介して撮影されるライブ画像と、左眼光学系を介して撮影されるライブ画像とをそれぞれ円筒図法に基づいて変形させて両方を表示部108にライブビュー表示させるモードである。具体的には、システム制御部50はライブ画像に対する画像処理を画像処理部214に行わせる。画像処理部214は、撮像部211により撮影されているライブ画像のうち、右眼光学系を介して撮影されるライブ画像に対応する領域(第1の所定の領域)を切り出し、左眼光学系を介して撮影されるライブ画像に対応する領域(第2の所定の領域)を切り出す。画像処理部214は、切り出した各ライブ画像をそれぞれ円筒図法に基づいて変換することで変形させる。 In S411, the system control unit 50 performs a live view display in which the live image captured by the imaging unit 211 via the VR180 lens is displayed on the display unit 108 in the second display mode. In the second display mode, the live image taken through the right eye optical system and the live image taken through the left eye optical system are each deformed based on the cylindrical projection, and both are displayed on the display unit 108. This is the mode to display the live view. Specifically, the system control unit 50 causes the image processing unit 214 to perform image processing on the live image. The image processing unit 214 cuts out a region (first predetermined region) corresponding to the live image captured via the right eye optical system from the live image captured by the imaging unit 211, and the left eye optical system. A region (second predetermined region) corresponding to the live image captured via is cut out. The image processing unit 214 transforms each of the cut out live images by converting them based on the cylindrical projection.

図7(b)は、第2の表示モードでライブビュー表示されたライブビュー画像702の一例を示す図である。ライブビュー画像702には、右眼光学系を介して撮影されたライブ画像を円筒図法に基づいて変形させたライブビュー画像703Rと、左眼光学系を介して撮影されたライブ画像を円筒図法に基づいて変形させたライブビュー画像703Lとが含まれる。また、ライブビュー画像703Rとライブビュー画像703Lとのそれぞれに注目すると、外縁の歪みが抑制されている。 FIG. 7B is a diagram showing an example of the live view image 702 displayed in the live view in the second display mode. The live view image 702 includes a live view image 703R obtained by deforming a live image taken through the right eye optical system based on a cylindrical projection and a live image taken through the left eye optical system in a cylindrical projection. A live view image 703L which is modified based on the above is included. Further, paying attention to each of the live view image 703R and the live view image 703L, the distortion of the outer edge is suppressed.

円筒図法は、球に接触する円筒面上に球表面上の画像を射影させる図法をいう。本実施形態では、円筒図法として、例えば、緯線・経線が直角かつ等間隔に交差する正距円筒図法を用いる。VR180用レンズのうち、右眼光学系を介して撮影されたライブ画像と、左眼光学系を介して撮影されたライブ画像とは、それぞれ略半球状のライブ画像とみなすことができる。略半球状のライブ画像を円筒図法に基づいて変形させることで、それぞれ矩形状で外縁の歪みが抑制されたライブ画像に変換される。 The cylindrical projection is a projection in which an image on the surface of a sphere is projected onto a cylindrical surface in contact with the sphere. In this embodiment, as the cylindrical projection, for example, an equirectangular projection in which parallels and meridians intersect at right angles and at equal intervals is used. Among the lenses for VR180, the live image taken through the right eye optical system and the live image taken through the left eye optical system can be regarded as substantially hemispherical live images, respectively. By deforming a substantially hemispherical live image based on a cylindrical projection, each is converted into a rectangular live image in which distortion of the outer edge is suppressed.

このように、第2の表示モードは、ライブ画像を円筒図法に基づいて変形させてライブビュー表示することから、外縁の歪みが抑制されるために、ユーザは写り具合を確認することができる。一方、第2の表示モードは、1つの画面に2つの画像が分かれて表示されるために、ピントや被写体の表情等を細かく確認するのには適さない。したがって、ユーザは、例えば、ピントや被写体の表情等を細かく確認する必要がないものの、被写体の状況を大まかに把握したい場合等に第2の表示モードを選択する。 As described above, in the second display mode, since the live image is deformed based on the cylindrical projection and displayed in the live view, the distortion of the outer edge is suppressed, so that the user can check the image quality. On the other hand, the second display mode is not suitable for checking the focus, the facial expression of the subject, and the like in detail because the two images are displayed separately on one screen. Therefore, for example, the user does not need to check the focus, the facial expression of the subject, and the like in detail, but selects the second display mode when he / she wants to roughly grasp the situation of the subject.

次に、S412では、システム制御部50は、ライブビュー表示するときの表示モードが第3の表示モードであるか否かを判定する。具体的に、システム制御部50は、不揮発性メモリ219に記憶された制御変数に、第3の表示モードの情報が記憶されているか否かを判定する。第3の表示モードの情報が記憶されている場合にはS413に進む。一方、第3の表示モードの情報が記憶されていない場合には第4の表示モードの情報が記憶されておりS414に進む。 Next, in S412, the system control unit 50 determines whether or not the display mode at the time of live view display is the third display mode. Specifically, the system control unit 50 determines whether or not the information of the third display mode is stored in the control variable stored in the non-volatile memory 219. If the information of the third display mode is stored, the process proceeds to S413. On the other hand, when the information of the third display mode is not stored, the information of the fourth display mode is stored and the process proceeds to S414.

S413では、システム制御部50は、VR180用レンズを介して撮像部211により撮影されているライブ画像を第3の表示モードで表示部108に表示するライブビュー表示を行う。第3の表示モードは、右眼光学系を介して撮影されるライブ画像と、左眼光学系を介して撮影されるライブ画像とのうち一方のライブ画像を円筒図法に基づいて変形させ、変形させた画像を表示部108の中央側に寄せてライブビュー表示させるモードである。システム制御部50はライブ画像に対する画像処理を画像処理部214に行わせる。画像処理部214は、撮像部211により撮影されているライブ画像のうち、例えば右眼光学系を介して撮影されるライブ画像に対応する領域を切り出し、切り出したライブ画像を円筒図法に基づいて変換することで変形させる。 In S413, the system control unit 50 performs a live view display in which the live image captured by the imaging unit 211 via the VR180 lens is displayed on the display unit 108 in the third display mode. In the third display mode, one of the live image taken through the right eye optical system and the live image taken through the left eye optical system is deformed based on the cylindrical projection and deformed. This is a mode in which the generated image is moved to the center side of the display unit 108 and displayed in a live view. The system control unit 50 causes the image processing unit 214 to perform image processing on the live image. The image processing unit 214 cuts out a region corresponding to the live image taken by, for example, the right eye optical system from the live image taken by the imaging unit 211, and converts the cut out live image based on the cylindrical projection. It transforms by doing.

図7(c)は、第3の表示モードでライブビュー表示されたライブビュー画像704の一例を示す図である。ライブビュー画像704は、例えば右眼光学系を介して撮影されたライブ画像を円筒図法に基づいて変形させた画像であり、表示画面の中央寄りに表示されている。また、ライブビュー画像704は、図7(b)に示すライブビュー画像703Rよりも拡大して表示される。なお、ライブビュー画像704は、右眼光学系を介して撮影されたライブ画像を変形させる場合に限られず、左眼光学系を介して撮影されたライブ画像を変形させた画像であってもよい。
また、ライブビュー画像704を、右眼光学系を介して撮影されたライブ画像を変形させた画像にするか、左眼光学系を介して撮影されたライブ画像を変形させた画像にするかを、ユーザが選択できるようにしてもよい。この場合、例えば、図6に示す表示モード設定画面600において、第3の表示モード選択ボタン603を選択した後に、更に右眼光学系または左眼光学系を介して撮影されたライブ画像を変形させるかを選択させることで実現することができる。
FIG. 7C is a diagram showing an example of the live view image 704 displayed in the live view in the third display mode. The live view image 704 is, for example, an image obtained by deforming a live image taken through a right eye optical system based on a cylindrical projection, and is displayed near the center of the display screen. Further, the live view image 704 is displayed in a larger size than the live view image 703R shown in FIG. 7 (b). The live view image 704 is not limited to the case where the live image taken through the right eye optical system is deformed, and may be an image obtained by deforming the live image taken through the left eye optical system. ..
Further, whether the live view image 704 is a deformed image of the live image taken through the right eye optical system or a deformed image of the live image taken through the left eye optical system. , The user may be able to select. In this case, for example, on the display mode setting screen 600 shown in FIG. 6, after selecting the third display mode selection button 603, the live image captured via the right eye optical system or the left eye optical system is further deformed. It can be realized by letting you select.

このように、第3の表示モードは、ライブ画像を円筒図法に基づいて変形させてライブビュー表示することから、外縁の歪みが抑制される上、1つの画面に1つの画像のみが表示される。このため、ユーザはピントや被写体の表情等を細かく確認することができ、通常のレンズで撮影する場合と同じ感覚で撮影することができる。したがって、ユーザは、例えば、被写体の状況を細かく確認したい場合等に第3の表示モードを選択する。 As described above, in the third display mode, since the live image is deformed based on the cylindrical projection and displayed in the live view, the distortion of the outer edge is suppressed and only one image is displayed on one screen. .. Therefore, the user can check the focus, the facial expression of the subject, and the like in detail, and can shoot with the same feeling as when shooting with a normal lens. Therefore, the user selects the third display mode, for example, when he / she wants to check the situation of the subject in detail.

次に、S414では、システム制御部50は、第4の表示モードとして、VR180用レンズを介して撮像部211により撮影されているライブ画像を表示部108に表示させない。すなわち、第4の表示モードは、ライブビュー画像を表示しないモードである。 Next, in S414, the system control unit 50 does not display the live image captured by the imaging unit 211 via the VR180 lens on the display unit 108 as the fourth display mode. That is, the fourth display mode is a mode in which the live view image is not displayed.

図7(d)は、第4の表示モードでの表示例を示す図である。ここでは、ライブビュー画像が表示されず、VR180用レンズを介してライブ画像を撮影していることを示す情報705が表示される。このようにライブビュー画像を表示しないのは、広視野角の画像では、全体に対して写る主被写体が小さいために表情等を確認できないおそれがあるためである。また、広視野角の画像は、撮影範囲が非常に広いために、ユーザはおおよその位置でシャッターボタン101を押しても、少なくとも主被写体を撮影することが可能である。
このように、第4の表示モードは、ライブビュー画像を表示しないことで直接、肉眼で被写体を視認して撮影することをユーザに対して促すことができる。ただし、ユーザが接眼部116に接眼して接眼ファインダ117を覗いている場合には、EVF217に何も表示されないと、そもそも肉眼による視認もできない。したがって、システム制御部50は、第4の表示モードの情報が記憶されていても、接眼検知部118が物体の接近を検知している場合には、EVF217に第4の表示モード以外である第1〜第3の表示モードの何れかのモードでライブビュー表示してもよい。
FIG. 7D is a diagram showing a display example in the fourth display mode. Here, the live view image is not displayed, and the information 705 indicating that the live image is being taken through the VR180 lens is displayed. The reason why the live view image is not displayed in this way is that in an image with a wide viewing angle, the facial expression or the like may not be confirmed because the main subject captured as a whole is small. Further, since the image having a wide viewing angle has a very wide shooting range, the user can shoot at least the main subject even if the shutter button 101 is pressed at an approximate position.
As described above, the fourth display mode can prompt the user to directly visually recognize and shoot the subject with the naked eye by not displaying the live view image. However, when the user looks into the eyepiece finder 117 with the eyepiece 116, if nothing is displayed on the EVF 217, it cannot be visually recognized in the first place. Therefore, even if the system control unit 50 stores the information of the fourth display mode, if the eyepiece detection unit 118 detects the approach of the object, the EVF 217 is other than the fourth display mode. Live view display may be performed in any of the first to third display modes.

次に、S415では、システム制御部50は、ライブビュー表示中にシャッターボタン101が半押しされ、第1シャッタースイッチ230がオンになったか否かを判定する。この処理は、S403と同様の処理である。第1シャッタースイッチ230がオンになった場合にはS416に進む。一方、第1シャッタースイッチ230がオンではない場合にはS417に進む。
S416では、システム制御部50は撮影準備処理を行う。この処理は、S404と同様の処理である。
Next, in S415, the system control unit 50 determines whether or not the shutter button 101 is half-pressed during the live view display and the first shutter switch 230 is turned on. This process is the same as that of S403. When the first shutter switch 230 is turned on, the process proceeds to S416. On the other hand, if the first shutter switch 230 is not on, the process proceeds to S417.
In S416, the system control unit 50 performs a shooting preparation process. This process is the same as S404.

S417では、システム制御部50は、ライブビュー表示中にシャッターボタン101が全押しされ、第2シャッタースイッチ231がオンになったか否かを判定する。この処理は、S405と同様の処理である。第2シャッタースイッチ231がオンになった場合にはS418に進む。一方、第2シャッタースイッチ231がオンではない場合にはS401に戻る。
S418では、システム制御部50は撮影処理を行う。具体的には、システム制御部50は撮像部211からの信号読み出しから、右眼光学系を介して撮影された画像と左眼光学系を介して撮影された画像とを含む画像ファイルを生成して記録媒体227に書き込むまでの一連の撮影処理を行う。また、システム制御部50は、VR180のファイルフォーマットに基づいた画像データに変換して記録する。ここでは、動画モードであれば動画が、静止画モードであれば静止画が記録されるものとする。
In S417, the system control unit 50 determines whether or not the shutter button 101 is fully pressed and the second shutter switch 231 is turned on during the live view display. This process is the same as S405. When the second shutter switch 231 is turned on, the process proceeds to S418. On the other hand, if the second shutter switch 231 is not on, the process returns to S401.
In S418, the system control unit 50 performs a shooting process. Specifically, the system control unit 50 generates an image file including an image taken through the right eye optical system and an image taken through the left eye optical system from the signal read from the image pickup unit 211. A series of shooting processes are performed until the image is written on the recording medium 227. Further, the system control unit 50 converts the image data into image data based on the file format of the VR 180 and records the data. Here, it is assumed that a moving image is recorded in the moving image mode and a still image is recorded in the still image mode.

S418の撮影処理において撮像部211で撮影される画像は、図8(a)に示す画像801のような画像である。画像801には、左目光学系を介して撮像部211に結像した左眼映像範囲801Lと、右眼光学系を介して撮像部211に結像した右眼映像範囲801Rが含まれる。黒塗りの部分も画像として撮影された部分であるが、左眼光学系と右眼光学系とのいずれも介さない暗部が撮影されたものとなる。左眼映像範囲801Lと右眼映像範囲801Rに写っている被写体像には互いに視差がある。 The image captured by the imaging unit 211 in the photographing process of S418 is an image like the image 801 shown in FIG. 8A. The image 801 includes a left eye image range 801L imaged on the imaging unit 211 via the left eye optical system and a right eye image range 801R imaged on the imaging unit 211 via the right eye optical system. The black-painted part is also a part taken as an image, but the dark part is taken without both the left eye optical system and the right eye optical system. There is parallax between the subject images in the left-eye image range 801L and the right-eye image range 801R.

S418の撮影処理において記録媒体227に記録される静止画は、図8(b)に示す画像802Lと画像802Rとなる。システム制御部50は、画像処理部214を用いて、撮影された画像801のうち、左眼映像範囲801Lを切り出して(トリミングして)、ほぼ正方形内に円筒図法で描画された画像802Lを記録する。また、システム制御部50は、画像処理部214を用いて、撮影された画像801のうち、右眼映像範囲801Rを切り出して(トリミングして)、ほぼ正方形内に円筒図法で描画された画像802Rを記録する。すなわち、撮影された画像801から左眼映像範囲801Lと右眼映像範囲801Rの抽出(取得)が行われる。この画像802Lと画像802Rは同じ静止画ファイル内にマルチピクチャーフォーマットで記録される。静止画のVR画像のファイル名は、S406で説明したVR180用ではない通常の画像ファイルとは区別できるように、例えば“123456.vr.jpg”となり、拡張子“.jpg”の手前に3文字の文字列“.vr”が記述される。このように静止画ファイルとして保存された画像を、VR表示が可能な機器で2眼VR表示すると、半球にマッピングされた立体視可能な静止画が表示される。 The still images recorded on the recording medium 227 in the photographing process of S418 are the image 802L and the image 802R shown in FIG. 8B. The system control unit 50 uses the image processing unit 214 to cut out (trim) the left eye image range 801L from the captured images 801 and record the image 802L drawn in a cylindrical projection in a substantially square shape. do. Further, the system control unit 50 uses the image processing unit 214 to cut out (trim) the right eye image range 801R from the captured images 801 and draw the image 802R in a substantially square projection in a cylindrical projection. To record. That is, the left eye image range 801L and the right eye image range 801R are extracted (acquired) from the captured image 801. The image 802L and the image 802R are recorded in the same still image file in a multi-picture format. The file name of the VR image of the still image is, for example, "123456.vr.jpg" so that it can be distinguished from the normal image file not for VR180 described in S406, and three characters before the extension ".jpg". Character string ".vr" is described. When the image saved as a still image file is displayed in a two-lens VR display with a device capable of VR display, a stereoscopic still image mapped to a hemisphere is displayed.

また、S418の撮影処理において記録媒体227に記録される動画は、図8(c)に示す画像803となる。システム制御部50は、画像処理部214を用いて、撮影された画像801のうち、左眼映像範囲801Lと右眼映像範囲801Rをそれぞれ映像(動画)が1つの動画の映像内の左右に(サイドバイサイドで)並べられた動画ファイルを生成して記録する。動画のVR画像のファイル名は、S406で説明したVR180用ではない通常の画像ファイルとは区別できるように、例えば"123456.vr.mp4"となり、拡張子".mp4"の手前に3文字の文字列".vr"が記述される。このように動画ファイルとして保存された画像を、VR表示が可能な機器で2眼VR表示すると、半球にマッピングされた立体視可能な動画が表示される。 Further, the moving image recorded on the recording medium 227 in the photographing process of S418 is the image 803 shown in FIG. 8C. The system control unit 50 uses the image processing unit 214 to shift the left-eye image range 801L and the right-eye image range 801R of the captured images 801 to the left and right in the image of one moving image (moving image). Generate and record side-by-side) side-by-side video files. The file name of the VR image of the moving image is, for example, "123456.vr.mp4" so that it can be distinguished from the normal image file not for VR180 explained in S406, and three characters before the extension ".mp4". The character string ".vr" is described. When the image saved as a moving image file is displayed in a two-lens VR display with a device capable of VR display, a stereoscopic moving image mapped to a hemisphere is displayed.

このように、撮影処理によって記録される画像は、交換レンズとして通常の(VR180用レンズではない)レンズが装着されていたか、VR180用レンズが装着されていたかに応じて(すなわちS401の判定結果に応じて)変わる。すなわち、S406の処理を行って記録するか、S418の処理を行って記録するかが、VR180用レンズが装着されていた否かに応じて変わる。
なお、カメラ100内で記録する画像は、図8(b)、図8(c)で説明したものに限られず、図8(a)で説明した画像801の状態で(すなわち、トリミングや変形を施していない撮影画像を)画像ファイルとして記録媒体227に記録するものとしてもよい。
In this way, the image recorded by the photographing process is based on whether a normal lens (not a VR180 lens) is attached as an interchangeable lens or a VR180 lens is attached (that is, the determination result of S401). (Depending on) changes. That is, whether the processing of S406 is performed and the recording is performed or the processing of S418 is performed and the recording is performed depends on whether or not the VR180 lens is attached.
The image recorded in the camera 100 is not limited to the one described in FIGS. 8 (b) and 8 (c), and is in the state of the image 801 described in FIG. 8 (a) (that is, trimming or deformation is performed). The photographed image that has not been subjected to the image may be recorded as an image file on the recording medium 227.

S419では、システム制御部50は、撮影指示に応じて撮像部211により撮影された画像をクイックレビュー表示する。具体的に、システム制御部50は、ライブビュー表示させるときの表示モードに関わらず、右眼光学系を介して撮影された画像と、左眼光学系を介して撮影された画像とをそれぞれ円筒図法に基づいて変形させて両方を表示部108に表示する。クイックレビュー表示によって例えば、図7(b)に示すような第2の表示モードと同様の表示態様で表示される。このように表示されることで、ユーザは撮影された画像が右眼光学系を介して撮影された画像と、左眼光学系を介して撮影された画像との両方を含んでいることを認識できると共に、被写体の写り具合を確認することができる。なお、メニュー等によりクイックレビュー表示をしないように設定されていても、ライブビュー表示させるときの表示モードが第4の表示モードの場合には、ユーザは撮影された画像を確認したいと考えられるので、強制的にクイックレビュー表示をしてもよい。その後、システム制御部50はS401に戻り、再びレンズユニットがVR180用レンズであるか否かを判定する。 In S419, the system control unit 50 displays a quick review of the image captured by the imaging unit 211 in response to the imaging instruction. Specifically, the system control unit 50 cylinders the image taken through the right eye optical system and the image taken through the left eye optical system, regardless of the display mode when the live view is displayed. Both are displayed on the display unit 108 by being deformed based on the projection. By the quick review display, for example, it is displayed in the same display mode as the second display mode as shown in FIG. 7 (b). By being displayed in this way, the user recognizes that the captured image includes both the image captured through the right eye optical system and the image captured through the left eye optical system. At the same time, it is possible to check the appearance of the subject. Even if the quick review display is not set by the menu etc., if the display mode when displaying the live view is the fourth display mode, the user may want to check the captured image. , You may forcibly display the quick review. After that, the system control unit 50 returns to S401 and again determines whether or not the lens unit is a VR180 lens.

以上、本実施形態によれば、右眼光学系を介して撮影されるライブ画像と、左眼光学系を介して撮影されるライブ画像のうち、少なくとも一方のライブ画像を円筒図法に基づいて変形させてライブビュー表示する。このように円筒図法に基づいて変形させてライブビュー表示することで、画像を2眼で撮影する場合であっても、ユーザは撮影される画像を確認できるために適した撮影を行うことができる。
また、本実施形態によれば、右眼光学系を介して撮影されるライブ画像と、左眼光学系を介して撮影されるライブ画像のうち、一方のライブ画像を円筒図法に基づいて変形させてライブビュー表示し、他方のライブ画像をライブビュー表示しない。したがって、ユーザは、一方のライブ画像が円筒図法に基づいて変形されたライブビュー表示に基づいて、ピントや被写体の表情等を細かく確認することができる。
As described above, according to the present embodiment, at least one of the live image taken through the right eye optical system and the live image taken through the left eye optical system is deformed based on the cylindrical projection. Let me display the live view. By deforming the image based on the cylindrical projection and displaying it in the live view in this way, even when the image is photographed with two eyes, the user can perform a suitable image because the image to be photographed can be confirmed. ..
Further, according to the present embodiment, one of the live image taken through the right eye optical system and the live image taken through the left eye optical system is deformed based on the cylindrical projection method. Live view is displayed, and the other live image is not displayed in live view. Therefore, the user can check the focus, the facial expression of the subject, and the like in detail based on the live view display in which one of the live images is deformed based on the cylindrical projection.

また、本実施形態によれば、表示モードが第4の表示モードに設定されている場合において、第2の交換レンズとして左像および右像の視差を用いた撮影が可能な2眼レンズが装着されている場合にはライブ画像を表示部108にライブビュー表示しない。一方、第1の交換レンズとして少なくとも1眼レンズが装着されている場合にはライブ画像を表示部108にライブビュー表示する。このように、2眼レンズが装着されている場合にはライブ画像を表示部108にライブビュー表示しないことで、ユーザに直接、肉眼で被写体を視認して撮影することを促すことができる。したがって、画像を2眼で撮影する場合であってもユーザは適した撮影を行うことができる。 Further, according to the present embodiment, when the display mode is set to the fourth display mode, a twin-lens lens capable of taking a picture using the parallax of the left image and the right image is attached as the second interchangeable lens. If so, the live image is not displayed in the live view on the display unit 108. On the other hand, when at least a monocular lens is attached as the first interchangeable lens, the live image is displayed in the live view on the display unit 108. As described above, when the twin-lens lens is attached, the live image is not displayed in the live view on the display unit 108, so that the user can be urged to directly visually recognize the subject with the naked eye and take a picture. Therefore, even when the image is taken with two eyes, the user can take a suitable picture.

(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するプログラムをネットワークまたは各種記録媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータ(CPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、該プログラムおよび該プログラムを格納した記録媒体は本発明を構成する。
(Other embodiments)
The present invention is also realized by executing the following processing. That is, in a process in which a program that realizes the functions of the above-described embodiment is supplied to a system or device via a network or various recording media, and a computer (CPU, MPU, etc.) of the system or device reads and executes the program code. be. In this case, the program and the recording medium in which the program is stored constitute the present invention.

以上、本発明を種々の実施形態と共に説明したが、本発明はこれらの実施形態にのみ限定されるものではなく、本発明の範囲内で変更等が可能である。
上述した実施形態では、図4のS419において、クイックレビュー表示する場合に、右眼光学系を介して撮影された画像と、左眼光学系を介して撮影された画像とをそれぞれ円筒図法に基づいて変形させて両方を表示部108に表示する場合について説明した。しかしながら、この場合に限られない。例えば、システム制御部50は、クイックレビュー表示する場合に限られず、撮影された画像を表示する指示に応じて画像を表示する場合、すなわち再生モードで表示する場合でも、クイックレビュー表示する場合と同様に表示してもよい。また、例えば、システム制御部50は、クイックレビュー表示する場合、右眼光学系を介して撮影された画像と、左眼光学系を介して撮影された画像とのうち一方の画像を円筒図法に基づいて変形させ、変形させた画像のみを表示部108に表示するようにしてもよい。
Although the present invention has been described above with various embodiments, the present invention is not limited to these embodiments and can be modified within the scope of the present invention.
In the above-described embodiment, in S419 of FIG. 4, when displaying a quick review, an image taken through the right eye optical system and an image taken through the left eye optical system are each based on a cylindrical projection. The case where both are transformed and displayed on the display unit 108 has been described. However, this is not the case. For example, the system control unit 50 is not limited to the case of displaying the quick review, but is the same as the case of displaying the quick review even when displaying the image in response to the instruction to display the captured image, that is, when displaying in the playback mode. It may be displayed in. Further, for example, when displaying a quick review, the system control unit 50 uses a cylindrical projection of one of an image taken through the right eye optical system and an image taken through the left eye optical system. It may be deformed based on the above, and only the deformed image may be displayed on the display unit 108.

また、上述した実施形態では、ライブビュー表示するときの表示モードとして第1の表示モード〜第4の表示モードを設定できる場合について説明したが、この場合に限られない。例えば、第2の表示モード〜第4の表示モードのうち少なくとも2つのモードをユーザが選択することに応じて表示モードを切り替えるようにしてもよい。 Further, in the above-described embodiment, the case where the first display mode to the fourth display mode can be set as the display mode when displaying the live view has been described, but the present invention is not limited to this case. For example, the display mode may be switched according to the user selecting at least two modes from the second display mode to the fourth display mode.

また、上述した実施形態では、右眼光学系301Rおよび左眼光学系301Lにより形成される2つの光学像が1つの撮像素子上に形成されるカメラ100について説明したが、この場合に限られない。例えば、2つの撮像素子を備え、右眼光学系301Rおよび左眼光学系301Lにより形成される光学像がそれぞれ、当該2つの撮像素子上に形成される2眼カメラに適用してもよい。 Further, in the above-described embodiment, the camera 100 in which two optical images formed by the right-eye optical system 301R and the left-eye optical system 301L are formed on one image sensor has been described, but the present invention is not limited to this case. .. For example, two image pickup elements may be provided, and the optical images formed by the right eye optical system 301R and the left eye optical system 301L may be applied to a twin-lens camera formed on the two image pickup elements, respectively.

また、上述した実施形態では、2眼レンズを介して撮影されたライブ画像を円筒図法に基づいて変形させてライブビュー表示する場合について説明したが、この場合に限られない。例えば、被写体の状況を確認できるのであれば、2眼レンズを介して撮影されたライブ画像を他の方法に基づいて変形させてライブビュー表示してもよく、ライブ画像を変形させずにライブビュー表示してもよい。 Further, in the above-described embodiment, the case where the live image taken through the twin-lens lens is deformed based on the cylindrical projection and displayed in the live view has been described, but the present invention is not limited to this case. For example, if the situation of the subject can be confirmed, the live image taken through the binocular lens may be deformed based on another method and displayed in the live view, or the live view may be displayed without deforming the live image. It may be displayed.

また、上述した実施形態では、装着されたレンズユニットからレンズユニットの種類の情報を取得することで、レンズユニットがVR180用レンズであるか否かを判定する場合について説明したが、この場合に限られない。例えば、システム制御部50は、表示部108に複数のレンズユニットの種類を選択可能に表示して、ユーザが装着されているレンズユニットの種類を選択して設定することに応じて、レンズユニットの種類の情報を取得してもよい。また、システム制御部50は、撮像部211により撮影された画像を解析することにより、レンズユニットの種類の情報を取得してもよい。例えば、システム制御部50は、撮像部211により撮影された画像に、2つの円形の画像が含まれていることを解析した場合にはVR180用レンズが装着されていると判定することができる。 Further, in the above-described embodiment, a case where it is determined whether or not the lens unit is a VR180 lens by acquiring information on the type of the lens unit from the mounted lens unit has been described, but only in this case. I can't. For example, the system control unit 50 displays a plurality of lens unit types on the display unit 108 so as to be selectable, and the system control unit 50 selects and sets the type of the lens unit worn by the user. You may get the kind of information. Further, the system control unit 50 may acquire information on the type of the lens unit by analyzing the image captured by the image pickup unit 211. For example, when the system control unit 50 analyzes that the image captured by the image pickup unit 211 includes two circular images, it can determine that the VR180 lens is attached.

なお、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサや回路)が処理を分担することで、装置全体の制御を行ってもよい。 It should be noted that the above-mentioned various controls described as those performed by the system control unit 50 may be performed by one hardware, or a plurality of hardware (for example, a plurality of processors and circuits) share the processing to be a device. The whole control may be performed.

また、上述した実施形態では、本発明を電子機器として撮像装置(カメラ)に適用する場合について説明したが、この場合に限られず、ライブビュー表示できる装置であれば適用可能である。すなわち、本発明は、スマートフォン、タブレットPC、携帯型のパーソナルコンピュータ、PDA、携帯型の画像ビューワ、ゲーム機等に適用可能である。 Further, in the above-described embodiment, the case where the present invention is applied to an imaging device (camera) as an electronic device has been described, but the present invention is not limited to this case, and any device capable of live view display can be applied. That is, the present invention can be applied to smartphones, tablet PCs, portable personal computers, PDAs, portable image viewers, game machines, and the like.

また、上述した実施形態では、本発明をカメラ(撮像装置本体)に適用する場合について説明したが、この場合に限られず、有線または無線通信を介して撮像装置(ネットワークカメラを含む)と通信し、撮像装置を遠隔で制御する制御装置にも適用可能である。撮像装置を遠隔で制御する装置としては、例えば、スマートフォン、タブレットPC、デスクトップPC等の装置である。制御装置側で行われた操作や制御装置側で行われた処理に基づいて、制御装置側から撮像装置に各種動作や設定を行わせるコマンドを通知することにより、撮像装置を遠隔から制御可能である。また、撮像装置で撮影したライブ画像を有線または無線通信を介して受信して制御装置側で表示できるようにしてもよい。 Further, in the above-described embodiment, the case where the present invention is applied to a camera (imaging device main body) has been described, but the present invention is not limited to this case, and communication with an imaging device (including a network camera) is performed via wired or wireless communication. It can also be applied to a control device that remotely controls an imaging device. The device for remotely controlling the image pickup device is, for example, a device such as a smartphone, a tablet PC, or a desktop PC. The image pickup device can be controlled remotely by notifying the image pickup device of commands for performing various operations and settings from the control device side based on the operations performed on the control device side and the processes performed on the control device side. be. Further, the live image taken by the imaging device may be received via wired or wireless communication and displayed on the control device side.

50:システム制御部 100:カメラ 108:表示部 200:レンズユニット 211:撮像部 214:画像処理部 300:レンズユニット 50: System control unit 100: Camera 108: Display unit 200: Lens unit 211: Imaging unit 214: Image processing unit 300: Lens unit

Claims (21)

撮影された画像をライブビュー表示する電子機器であって、
第1の光学系を介して撮影される第1のライブ画像と、前記第1の光学系と同じ向きの第2の光学系を介して撮影され、前記第1のライブ画像に対して視差のある第2のライブ画像のうち、少なくとも一方のライブ画像を円筒図法に基づいて変形させてライブビュー表示するように制御する表示制御手段を有することを特徴とする電子機器。
An electronic device that displays captured images in live view.
A first live image taken through the first optical system and a second optical system in the same orientation as the first optical system are taken and parallax with respect to the first live image. An electronic device comprising a display control means for controlling at least one live image of a second live image to be deformed based on a cylindrical projection and displayed in a live view.
前記表示制御手段は、
前記第1のライブ画像と前記第2のライブ画像のうち、一方のライブ画像を前記円筒図法に基づいて変形させてライブビュー表示し、他方のライブ画像をライブビュー表示しないように制御することを特徴とする請求項1に記載の電子機器。
The display control means
Of the first live image and the second live image, one of the live images is deformed based on the cylindrical projection to be displayed in the live view, and the other live image is controlled not to be displayed in the live view. The electronic device according to claim 1.
前記表示制御手段は、
前記第1のライブ画像と前記第2のライブ画像のうち、前記一方のライブ画像を前記円筒図法に基づいて変形させて表示する場合には、前記一方のライブ画像を変形させた画像を表示画面の中央寄りにライブビュー表示するように制御することを特徴とする請求項2に記載の電子機器。
The display control means
When one of the first live image and the second live image is deformed and displayed based on the cylindrical projection, the deformed image of the one live image is displayed on the display screen. The electronic device according to claim 2, wherein the live view is controlled to be displayed closer to the center of the device.
前記表示制御手段は、
前記第1のライブ画像と前記第2のライブ画像のうち、前記一方のライブ画像を前記円筒図法に基づいて変形させて表示する場合には、前記一方のライブ画像を変形させた画像を拡大してライブビュー表示するように制御することを特徴とする請求項2または3に記載の電子機器。
The display control means
When one of the first live image and the second live image is deformed and displayed based on the cylindrical projection, the deformed image of the one live image is enlarged. The electronic device according to claim 2 or 3, wherein the live view is controlled to be displayed.
前記表示制御手段は、
前記ライブビュー表示中における撮影指示に応じて撮影された直後に画像を表示する場合、あるいは撮影された画像を表示する指示に応じて画像を表示する場合には、前記第1の光学系を介して撮影された画像と前記第2の光学系を介して撮影された画像との両方を表示するように制御することを特徴とする請求項1ないし4の何れか1項に記載の電子機器。
The display control means
When displaying an image immediately after being shot in response to a shooting instruction during the live view display, or when displaying an image in response to an instruction to display a shot image, the first optical system is used. The electronic device according to any one of claims 1 to 4, wherein both the image taken by the user and the image taken through the second optical system are controlled to be displayed.
前記表示制御手段は、
前記第1のライブ画像と前記第2のライブ画像のうち一方を表示させるモード、両方を表示させるモード、何れも表示させないモードのうち少なくとも2つのモードをユーザの選択に応じて切り替えることを特徴とする請求項1ないし5の何れか1項に記載の電子機器。
The display control means
The feature is that at least two modes, a mode in which one of the first live image and the second live image is displayed, a mode in which both are displayed, and a mode in which neither is displayed are switched according to the user's selection. The electronic device according to any one of claims 1 to 5.
前記表示制御手段は、
前記第1のライブ画像と前記第2のライブ画像のうち、ユーザにより選択された一方のライブ画像を前記円筒図法に基づいて変形させてライブビュー表示し、他方のライブ画像をライブビュー表示しないように制御することを特徴とする請求項1ないし6の何れか1項に記載の電子機器。
The display control means
Of the first live image and the second live image, one of the live images selected by the user is deformed based on the cylindrical projection and displayed in the live view, and the other live image is not displayed in the live view. The electronic device according to any one of claims 1 to 6, wherein the electronic device is controlled to the above.
前記表示制御手段は、
第1の交換レンズが装着されている場合にはライブ画像をライブビュー表示せず、第2の交換レンズが装着されている場合にはライブ画像を前記円筒図法に基づいて変形させてライブビュー表示するように制御することを特徴とする請求項1ないし7の何れか1項に記載の電子機器。
The display control means
When the first interchangeable lens is attached, the live image is not displayed in live view, and when the second interchangeable lens is attached, the live image is deformed based on the cylindrical projection and displayed in live view. The electronic device according to any one of claims 1 to 7, wherein the electronic device is controlled so as to be used.
前記表示制御手段は、
前記第2の交換レンズが装着されている場合には、前記第2の交換レンズを介して撮影された画像のうち所定の領域を切り出した画像を前記円筒図法に基づいて変形させてライブビュー表示するように制御することを特徴とする請求項8に記載の電子機器。
The display control means
When the second interchangeable lens is attached, an image obtained by cutting out a predetermined region from the image taken through the second interchangeable lens is deformed based on the cylindrical projection and displayed in a live view. The electronic device according to claim 8, wherein the electronic device is controlled so as to be used.
前記第2の交換レンズは、
前記第1の光学系および前記第2の光学系を有することを特徴とする請求項8または9に記載の電子機器。
The second interchangeable lens is
The electronic device according to claim 8 or 9, further comprising the first optical system and the second optical system.
該電子機器が2つの撮像素子を備えた2眼カメラであることを特徴とする請求項1ないし7の何れか1項に記載の電子機器。 The electronic device according to any one of claims 1 to 7, wherein the electronic device is a twin-lens camera including two image pickup elements. 前記ライブビュー表示中における撮影指示に応じて、前記第1の光学系を介して撮影された画像と前記第2の光学系を介して撮影された画像とを含む画像ファイルを生成し、前記画像ファイルを記録するように制御する制御手段を有することを特徴とする請求項1ないし11の何れか1項に記載の電子機器。 In response to a shooting instruction during the live view display, an image file including an image taken through the first optical system and an image taken through the second optical system is generated, and the image is generated. The electronic device according to any one of claims 1 to 11, further comprising a control means for controlling to record a file. 前記第1の光学系を介して撮影された第1画像と、前記第2の光学系を介して撮影され、前記第1の画像に対して視差のある第2の画像とを取得する取得手段を更に有することを特徴とする請求項1ないし12の何れか1項に記載の電子機器。 Acquisition means for acquiring a first image taken through the first optical system and a second image taken through the second optical system and having a parallax with respect to the first image. The electronic device according to any one of claims 1 to 12, further comprising. 交換レンズを介して撮影される画像を取得する取得手段と、
第1の交換レンズが装着されている場合には前記取得手段により取得されたライブ画像を表示手段にライブビュー表示し、
第2の交換レンズが装着されている場合には前記取得手段により取得されたライブ画像を前記表示手段にライブビュー表示しないように制御する表示制御手段と、を有することを特徴とする電子機器。
An acquisition method for acquiring an image taken through an interchangeable lens,
When the first interchangeable lens is attached, the live image acquired by the acquisition means is displayed in a live view on the display means.
An electronic device comprising: a display control means for controlling a live image acquired by the acquisition means so as not to display a live view on the display means when a second interchangeable lens is attached.
前記第2の交換レンズは、左像および右像で視差がある撮影が可能な2眼レンズであることを特徴とする請求項8ないし10、14の何れか1項に記載の電子機器。 The electronic device according to any one of claims 8 to 10 and 14, wherein the second interchangeable lens is a twin-lens lens capable of photographing with parallax between a left image and a right image. 前記第1の交換レンズは、少なくとも1眼レンズを含むことを特徴とする請求項8ないし10、14、15の何れか1項に記載の電子機器。 The electronic device according to any one of claims 8 to 10, 14 and 15, wherein the first interchangeable lens includes at least a monocular lens. 前記表示制御手段は、
前記交換レンズとの間の通信、ユーザによる設定、撮影された画像の解析のうち、少なくとも何れかに基づいて、装着された交換レンズの種類を判定することを特徴とする請求項8ないし10、14ないし16の何れか1項に記載の電子機器。
The display control means
8. to 10, wherein the type of the attached interchangeable lens is determined based on at least one of communication with the interchangeable lens, setting by the user, and analysis of the captured image. The electronic device according to any one of 14 to 16.
撮影された画像をライブビュー表示する電子機器の制御方法であって、
第1の光学系を介して撮影される第1のライブ画像と、前記第1の光学系と同じ向きの第2の光学系を介して撮影され、前記第1のライブ画像に対して視差のある第2のライブ画像のうち、少なくとも一方のライブ画像を円筒図法に基づいて変形させてライブビュー表示するように制御する表示制御ステップを有することを特徴とする電子機器の制御方法。
It is a control method for electronic devices that display captured images in live view.
A first live image taken through the first optical system and a second live image taken through the second optical system in the same orientation as the first optical system, with parallax relative to the first live image. A method for controlling an electronic device, which comprises a display control step for controlling at least one of the second live images to be deformed and displayed in a live view based on a cylindrical projection.
交換レンズを介して撮影される画像を取得する取得ステップと、
第1の交換レンズが装着されている場合には前記取得ステップにより取得されたライブ画像を表示手段にライブビュー表示し、
第2の交換レンズが装着されている場合には前記取得ステップにより取得されたライブ画像を前記表示手段にライブビュー表示しないように制御する表示制御ステップと、を有することを特徴とする電子機器の制御方法。
With the acquisition step to acquire the image taken through the interchangeable lens,
When the first interchangeable lens is attached, the live image acquired in the acquisition step is displayed in live view on the display means.
An electronic device comprising: a display control step for controlling the live image acquired by the acquisition step so as not to display the live view on the display means when the second interchangeable lens is attached. Control method.
コンピュータを、請求項1ないし17の何れか1項に記載された電子機器の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 17. コンピュータを、請求項1ないし17の何れか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。 A computer-readable recording medium containing a program for causing the computer to function as each means of the electronic device according to any one of claims 1 to 17.
JP2020057753A 2020-03-27 2020-03-27 Electronic device, control method of the same, and program Pending JP2021158559A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020057753A JP2021158559A (en) 2020-03-27 2020-03-27 Electronic device, control method of the same, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020057753A JP2021158559A (en) 2020-03-27 2020-03-27 Electronic device, control method of the same, and program

Publications (2)

Publication Number Publication Date
JP2021158559A true JP2021158559A (en) 2021-10-07
JP2021158559A5 JP2021158559A5 (en) 2023-03-30

Family

ID=77918862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020057753A Pending JP2021158559A (en) 2020-03-27 2020-03-27 Electronic device, control method of the same, and program

Country Status (1)

Country Link
JP (1) JP2021158559A (en)

Similar Documents

Publication Publication Date Title
CN110691187B (en) Electronic device, control method of electronic device, and computer-readable medium
US11849100B2 (en) Information processing apparatus, control method, and non-transitory computer readable medium
US20240205534A1 (en) Electronic equipment, method for controlling the same, and recording medium
US20220385829A1 (en) Information processing apparatus, control method, and storage medium
JP2021158559A (en) Electronic device, control method of the same, and program
JP2021069045A (en) Display control device, display control method, program, and storage media
EP4307660A1 (en) Information processing apparatus, information processing method, and program
US20240241381A1 (en) Electronic device
US11843894B2 (en) Electronic apparatus, method of controlling the same, and storage medium
US20230281768A1 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
US20220385830A1 (en) Electronic apparatus, control method, and non-transitory computer readable medium
US20230209177A1 (en) Imaging apparatus
US20230412931A1 (en) Display control device, display control method, and non-transitory computer readable medium
US20240073511A1 (en) Electronic apparatus, control method for electronic apparatus and storage medium
US20240236503A1 (en) Electronic device, control method thereof and non-transitory computer-readable medium
US20230300453A1 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
JP2024030580A (en) Electronic apparatus and method for controlling electronic apparatus
US20220398688A1 (en) Image processing apparatus, image processing method, and storage medium
JP2023102947A (en) Information processing device, control method thereof, and program
JP2022191143A (en) Image processing device and image processing method
JP2023176161A (en) Information processing apparatus, imaging apparatus, information processing method, and program
JP2023181634A (en) Electronic apparatus, method for controlling electronic apparatus, and program
JP2021144121A (en) Display control apparatus, control method thereof, program, and storage medium
JP2023142979A (en) Electronic device, control method for electronic device, program, and storage medium
JP2022183844A (en) Electronic equipment, control method therefor, program and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240813