JP2023142979A - Electronic device, control method for electronic device, program, and storage medium - Google Patents

Electronic device, control method for electronic device, program, and storage medium Download PDF

Info

Publication number
JP2023142979A
JP2023142979A JP2022050142A JP2022050142A JP2023142979A JP 2023142979 A JP2023142979 A JP 2023142979A JP 2022050142 A JP2022050142 A JP 2022050142A JP 2022050142 A JP2022050142 A JP 2022050142A JP 2023142979 A JP2023142979 A JP 2023142979A
Authority
JP
Japan
Prior art keywords
area
image
blown
image area
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022050142A
Other languages
Japanese (ja)
Inventor
貴広 三瓶
Takahiro Sampei
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022050142A priority Critical patent/JP2023142979A/en
Publication of JP2023142979A publication Critical patent/JP2023142979A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a technique that can suitably make a notification on white-out of an image captured using a plurality of optical systems.SOLUTION: An electronic device has acquisition means, detection means, and control means. The acquisition means is for acquiring an image in which a first image area captured through a first optical system and a second image area captured through a second optical system are aligned side by side. The detection means is for detecting a white-out region in each of the first image area and the second image area. The control means is for controlling to make a predetermined notification when a difference between a white-out region in the first image area and a white-out region in the second image area is equal to or greater than a threshold value.SELECTED DRAWING: Figure 12

Description

本発明は、電子機器、電子機器の制御方法、プログラム、および記憶媒体に関する。 The present invention relates to an electronic device, a method of controlling the electronic device, a program, and a storage medium.

2つの光学系を有するデジタルカメラが知られている。2つの光学系が同じ方向を撮像するように配置されていれば、2つの光学系を用いて、視差のある2つの画像を得ることができ、得られた2つの画像から、立体視が可能な画像を作成することができる。2つの光学系がそれぞれ魚眼レンズであり、正反対の方向を撮像するように配置されていれば、2つの光学系を用いて取得した2つの画像から、360度の範囲の画像(全球の画像)を作成することができる。 A digital camera having two optical systems is known. If the two optical systems are arranged to capture images in the same direction, it is possible to obtain two images with parallax using the two optical systems, and stereoscopic viewing is possible from the two images obtained. You can create beautiful images. If the two optical systems each have a fisheye lens and are arranged to capture images in opposite directions, it is possible to obtain a 360-degree image (global image) from the two images obtained using the two optical systems. can be created.

また、撮像された画像で白飛びが発生している場合に、そのエリア(白飛び領域)を強調表示することが行われている(特許文献1)。 Furthermore, when blown-out highlights occur in a captured image, the area (over-exposed areas) is highlighted (Patent Document 1).

特開2005-217898号公報Japanese Patent Application Publication No. 2005-217898

しかしながら、特許文献1では、1つの光学系を用いて撮像された画像の白飛び領域を通知することしかできなかった。 However, in Patent Document 1, it was only possible to notify a blown-out highlight area of an image captured using one optical system.

本発明は、複数の光学系を用いて撮像された画像の白飛びに関する通知を好適に行うことのできる技術を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a technique that can suitably provide notification regarding blown-out highlights in images captured using a plurality of optical systems.

本発明の電子機器は、第1の光学系を介して撮像された第1の画像領域と、第2の光学系を介して撮像された第2の画像領域とが並んだ画像を取得する取得手段と、前記第1の画像領域と前記第2の画像領域とのそれぞれから白飛び領域を検出する検出手段と、前記第1の画像領域における白飛び領域の面積と、前記第2の画像領域における白飛び領域の面積との差が閾値よりも大きい場合に、所定の通知を行うように制御する制御手段とを有することを特徴とする。 The electronic device of the present invention acquires an image in which a first image area imaged through a first optical system and a second image area imaged through a second optical system are lined up. means, a detection means for detecting a blown-out highlight area from each of the first image area and the second image area, an area of the blown-out highlight area in the first image area, and an area of the blown-out highlight area in the first image area; The present invention is characterized by comprising a control means for performing control so as to issue a predetermined notification when the difference between the area of the blown-out highlight area and the area of the blown-out highlight area is larger than a threshold value.

本発明によれば、複数の光学系を用いて撮像された画像の白飛びに関する通知を好適に行うことができる。 According to the present invention, it is possible to suitably notify regarding blown-out highlights in images captured using a plurality of optical systems.

システムの全体構成を示す模式図である。FIG. 1 is a schematic diagram showing the overall configuration of the system. カメラの外観図である。It is an external view of a camera. カメラの構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of a camera. レンズユニットの構成を示す模式図である。FIG. 2 is a schematic diagram showing the configuration of a lens unit. PCの構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of a PC. 画像ファイルの構造を示す模式図である。FIG. 2 is a schematic diagram showing the structure of an image file. レンズ情報とカメラ情報を示す模式図である。FIG. 3 is a schematic diagram showing lens information and camera information. カメラの動作を示すフローチャートである。It is a flowchart showing the operation of the camera. PCの動作を示すフローチャートである。It is a flowchart showing the operation of the PC. PCの動作を示すフローチャートである。It is a flowchart showing the operation of the PC. 左右入れ替えの模式図である。It is a schematic diagram of left and right swapping. 画像の有効領域を示す模式図である。FIG. 3 is a schematic diagram showing an effective area of an image. 表示画面の模式図である。It is a schematic diagram of a display screen. クラスタリングされた輝度飽和マップを示す模式図である。FIG. 3 is a schematic diagram showing a clustered brightness saturation map. 白飛び領域の中心座標と面積を示す表である。This is a table showing the center coordinates and areas of overexposed areas. 正距円筒変換の模式図である。It is a schematic diagram of equirectangular cylinder transformation. カメラの動作を示すフローチャートである。It is a flowchart showing the operation of the camera. カメラの動作を示すフローチャートである。It is a flowchart showing the operation of the camera.

以下、本発明にかかる実施形態を、図面を参照して詳細に説明する。 Embodiments according to the present invention will be described in detail below with reference to the drawings.

<実施形態1>
実施形態1では、デジタルカメラで撮像された画像の白飛びに関する警告表示を、当該デジタルカメラに接続されたパーソナルコンピュータの表示装置で行う例について説明する。
<Embodiment 1>
In the first embodiment, an example will be described in which a warning display regarding overexposure in an image captured by a digital camera is displayed on a display device of a personal computer connected to the digital camera.

図1は、実施形態1に係るシステムの全体構成の一例を示す模式図である。実施形態1に係るシステムはデジタルカメラ(カメラ)100とパーソナルコンピュータ(PC)500とを含む。カメラ100にはレンズユニット300が装着(接続)されている。レンズユニット300の詳細は後述するが、レンズユニット300を装着することで、カメラ100は、所定の視差を有する2つの画像領域を含む1つの画像(静止画または動画)を撮像できるようになる。PC500は、カメラ100などの撮像装置で撮像された画像を扱う情報処理装置である。図1は、無線や有線などでカメラ100とPC500が互いに通信可能に接続された構成を示す。 FIG. 1 is a schematic diagram showing an example of the overall configuration of a system according to the first embodiment. The system according to the first embodiment includes a digital camera (camera) 100 and a personal computer (PC) 500. A lens unit 300 is attached to (connected to) the camera 100. Details of the lens unit 300 will be described later, but by attaching the lens unit 300, the camera 100 can capture one image (still image or video) including two image areas having a predetermined parallax. The PC 500 is an information processing device that handles images captured by an imaging device such as the camera 100. FIG. 1 shows a configuration in which a camera 100 and a PC 500 are connected to each other so as to be able to communicate with each other by wireless or wire.

図2(A),2(B)は、カメラ100の外観の一例を示す外観図である。図2(A)はカメラ100を前面側から見た斜視図であり、図2(B)はカメラ100を背面側から見た斜視図である。 2(A) and 2(B) are external views showing an example of the external appearance of the camera 100. 2(A) is a perspective view of the camera 100 seen from the front side, and FIG. 2(B) is a perspective view of the camera 100 seen from the back side.

カメラ100は、上面に、シャッターボタン101、電源スイッチ102、モード切替スイッチ103、メイン電子ダイヤル104、サブ電子ダイヤル105、動画ボタン106、ファインダ外表示部107を有する。シャッターボタン101は、撮影準備指示あるいは撮影指示を行うための操作部材である。電源スイッチ102は、カメラ100の電源のオンとオフとを切り替える操作部材である。モード切替スイッチ103は、各種モードを切り替えるための操作部材である。メイン電子ダイヤル104は、シャッター速度や絞りなどの設定値を変更するための回転式の操作部材である。サブ電子ダイヤル105は、選択枠(カーソル)の移動や画像送りなどを行うための回転式の操作部材である。動画ボタン106は、動画撮影(記録)の開始や停止の指示を行うための操作部材である。ファインダ外表示部107は、シャッター速度や絞りなどの様々な設定値を表示する。 The camera 100 has a shutter button 101, a power switch 102, a mode changeover switch 103, a main electronic dial 104, a sub electronic dial 105, a movie button 106, and a viewfinder outside display section 107 on the top surface. The shutter button 101 is an operation member for issuing a shooting preparation instruction or a shooting instruction. The power switch 102 is an operation member that turns the power of the camera 100 on and off. The mode changeover switch 103 is an operation member for switching between various modes. The main electronic dial 104 is a rotary operating member for changing set values such as shutter speed and aperture. The sub-electronic dial 105 is a rotary operation member for moving a selection frame (cursor), advancing images, and the like. The video button 106 is an operation member for instructing to start or stop video shooting (recording). The outside viewfinder display section 107 displays various setting values such as shutter speed and aperture.

カメラ100は、背面に、表示部108、タッチパネル109、方向キー110、SETボタン111、AEロックボタン112、拡大ボタン113、再生ボタン114、メニューボタン115、接眼部116、接眼検知部118、タッチバー119を有する。表示部108は、画像や各種情報を表示する。タッチパネル109は、表示部108の表示面(タッチ操作面)に対するタッチ操作を検出する操作部材である。方向キー110は、上下左右にそれぞれ押下可能なキー(4方向キー)から構成される操作部である。方向キー110の押下した位置に応じた処理が可能である。SETボタン111は、主に選択項目
を決定するときに押下される操作部材である。AEロックボタン112は、撮影待機状態で露出状態を固定するときに押下される操作部材である。拡大ボタン113は、撮影モードのライブビュー表示(LV表示)において拡大モードのオンとオフとを切り替えるための操作部材である。拡大モードがオンである場合にはメイン電子ダイヤル104を操作することにより、ライブビュー画像(LV画像)が拡大または縮小する。また、拡大ボタン113は、再生モードにおいて再生画像を拡大したり、拡大率を大きくしたりするときに用いられる。再生ボタン114は、撮影モードと再生モードとを切り替えるための操作部材である。撮影モードの場合に再生ボタン114を押下することで再生モードに移行し、後述する記録媒体227に記録された画像のうち最新の画像を表示部108に表示することができる。
The camera 100 has a display section 108, a touch panel 109, a direction key 110, a SET button 111, an AE lock button 112, an enlarge button 113, a playback button 114, a menu button 115, an eyepiece section 116, an eyepiece detection section 118, and a touch bar on the back. It has 119. The display unit 108 displays images and various information. The touch panel 109 is an operation member that detects a touch operation on the display surface (touch operation surface) of the display unit 108. The direction key 110 is an operation unit composed of keys (four direction keys) that can be pressed in the up, down, left, and right directions. Processing can be performed depending on the position where the direction key 110 is pressed. The SET button 111 is an operation member that is pressed mainly when determining a selection item. The AE lock button 112 is an operation member that is pressed to fix the exposure state in the shooting standby state. The enlargement button 113 is an operation member for switching the enlargement mode on and off in live view display (LV display) in shooting mode. When the enlargement mode is on, the live view image (LV image) is enlarged or reduced by operating the main electronic dial 104. Further, the enlarge button 113 is used to enlarge the reproduced image or increase the enlargement ratio in the reproduction mode. The playback button 114 is an operation member for switching between shooting mode and playback mode. By pressing the playback button 114 in the shooting mode, the mode shifts to the playback mode, and the latest image among the images recorded on the recording medium 227, which will be described later, can be displayed on the display unit 108.

メニューボタン115は、各種設定が可能なメニュー画面を表示部108に表示するために押下される操作部材である。ユーザは、表示部108に表示されたメニュー画面と、方向キー110やSETボタン111とを用いて、直感的に各種設定を行うことができる。接眼部116は、接眼ファインダ(覗き込み型のファインダ)117に対して接眼して覗き込む部位である。ユーザは接眼部116を介して、カメラ100内部の後述するEVF217(Electronic View Finder)に表示された映像を視認することができる。接眼検知部118は、接眼部116(接眼ファインダ117)にユーザが接眼しているか否かを検知するセンサである。 The menu button 115 is an operation member that is pressed to display a menu screen on the display unit 108 on which various settings can be made. The user can intuitively perform various settings using the menu screen displayed on the display unit 108, the direction keys 110, and the SET button 111. The eyepiece section 116 is a part that the eyepiece 117 looks into and looks into. The user can visually recognize an image displayed on an EVF 217 (Electronic View Finder), which will be described later, inside the camera 100 through the eyepiece unit 116. The eyepiece detecting section 118 is a sensor that detects whether or not the user's eye is close to the eyepiece section 116 (eyepiece finder 117).

タッチバー119は、タッチ操作を受け付けることが可能なライン状のタッチ操作部材(ラインタッチセンサ)である。タッチバー119は、右手の人差し指でシャッターボタン101を押下可能なようにグリップ部120を右手で握った状態(右手の小指、薬指、中指で握った状態)で、右手の親指でタッチ操作可能(タッチ可能)な位置に配置される。すなわち、タッチバー119は、接眼ファインダ117に接眼して接眼部116を覗き、いつでもシャッターボタン101を押下できるように構えた状態(撮影姿勢)で操作可能である。タッチバー119は、タッチバー119に対するタップ操作(タッチして所定期間以内にタッチ位置を移動せずに離す操作)、左右へのスライド操作(タッチした後、タッチしたままタッチ位置を移動する操作)などを受け付け可能である。タッチバー119は、タッチパネル109とは異なる操作部材であり、表示機能を備えていない。タッチバー119は、例えば各種機能を割当可能なマルチファンクションバー(M-Fnバー)として機能する。 The touch bar 119 is a line-shaped touch operation member (line touch sensor) that can receive touch operations. The touch bar 119 can be touch-operated with the thumb of the right hand when the grip section 120 is gripped with the right hand (the little finger, ring finger, and middle finger of the right hand) so that the shutter button 101 can be pressed with the index finger of the right hand. (possible) position. That is, the touch bar 119 can be operated in a state (photographing posture) in which the user looks into the eyepiece finder 117, looks into the eyepiece 116, and is ready to press the shutter button 101 at any time. The touch bar 119 can be used to perform a tap operation on the touch bar 119 (an operation where you touch and then release the touch without moving the touch position within a predetermined period), a slide operation left or right (an operation where you touch and then move the touch position), etc. Acceptable. The touch bar 119 is an operation member different from the touch panel 109 and does not have a display function. The touch bar 119 functions, for example, as a multi-function bar (M-Fn bar) to which various functions can be assigned.

また、カメラ100は、グリップ部120、サムレスト部121、端子カバー122、蓋123、通信端子124などを有する。グリップ部120は、ユーザがカメラ100を構える際に右手で握りやすい形状に形成された保持部である。グリップ部120を右手の小指、薬指、中指で握ってカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン101とメイン電子ダイヤル104が配置される。また、同様な状態で、右手の親指で操作可能な位置にサブ電子ダイヤル105とタッチバー119が配置される。サムレスト部121(親指待機位置)は、カメラ100の背面側の、どの操作部材も操作しない状態でグリップ部120を握った右手の親指を置きやすい箇所に設けられたグリップ部である。サムレスト部121は、保持力(グリップ感)を高めるためのラバー部材などで構成される。端子カバー122は、カメラ100を外部機器(外部装置)に接続する接続ケーブルなどのコネクタを保護する。蓋123は、後述する記録媒体227を格納するためのスロットを閉塞することで記録媒体227およびスロットを保護する。通信端子124は、カメラ100に対して着脱可能なレンズユニット(後述するレンズユニット200や、レンズユニット300など)側と通信を行うための端子である。 The camera 100 also includes a grip section 120, a thumb rest section 121, a terminal cover 122, a lid 123, a communication terminal 124, and the like. The grip part 120 is a holding part formed in a shape that is easy to grip with the right hand when the user holds the camera 100. When the camera 100 is held by gripping the grip part 120 with the little finger, ring finger, and middle finger of the right hand, the shutter button 101 and the main electronic dial 104 are arranged at positions that can be operated with the index finger of the right hand. Further, in a similar state, the sub-electronic dial 105 and the touch bar 119 are arranged at positions that can be operated with the thumb of the right hand. The thumb rest portion 121 (thumb standby position) is a grip portion provided on the back side of the camera 100 at a location where the right thumb can be easily placed while gripping the grip portion 120 without operating any operating member. The thumb rest portion 121 is made of a rubber member or the like to increase the holding force (grip feeling). The terminal cover 122 protects a connector such as a connection cable that connects the camera 100 to an external device (external device). The lid 123 protects the recording medium 227 and the slot by closing the slot for storing the recording medium 227, which will be described later. The communication terminal 124 is a terminal for communicating with a lens unit (such as a lens unit 200 or a lens unit 300 described later) that is detachable from the camera 100.

図3は、カメラ100の構成の一例を示すブロック図である。なお、図2(A),2(B)と同一の構成要素には図2(A),2(B)と同一の符号を付し、その構成要素の説
明は適宜、省略する。図3では、カメラ100にレンズユニット200が装着されている。
FIG. 3 is a block diagram showing an example of the configuration of the camera 100. Note that the same components as in FIGS. 2(A) and 2(B) are given the same reference numerals as in FIGS. 2(A) and 2(B), and descriptions of the components will be omitted as appropriate. In FIG. 3, a lens unit 200 is attached to the camera 100.

まず、レンズユニット200について説明する。レンズユニット200は、カメラ100に対して着脱可能な交換レンズユニットの一種である。レンズユニット200は、1眼レンズユニットであり、通常のレンズユニットの一例である。レンズユニット200は、絞り201、レンズ202、絞り駆動回路203、AF(オートフォーカス)駆動回路204、レンズシステム制御回路205、通信端子206などを有する。 First, the lens unit 200 will be explained. The lens unit 200 is a type of interchangeable lens unit that can be attached to and detached from the camera 100. The lens unit 200 is a single lens unit, and is an example of a normal lens unit. The lens unit 200 includes an aperture 201, a lens 202, an aperture drive circuit 203, an AF (autofocus) drive circuit 204, a lens system control circuit 205, a communication terminal 206, and the like.

絞り201は、開口径が調整可能に構成される。レンズ202は、複数枚のレンズから構成される。絞り駆動回路203は、絞り201の開口径を制御することで光量を調整する。AF駆動回路204は、レンズ202を駆動して焦点を合わせる。レンズシステム制御回路205は、後述するシステム制御部50の指示に基づいて、絞り駆動回路203、AF駆動回路204などを制御する。レンズシステム制御回路205は、絞り駆動回路203を介して絞り201の制御を行い、AF駆動回路204を介してレンズ202の位置を変えることで焦点を合わせる。レンズシステム制御回路205は、カメラ100との間で通信可能である。具体的には、レンズユニット200の通信端子206と、カメラ100の通信端子124とを介して通信が行われる。通信端子206は、レンズユニット200がカメラ100側と通信を行うための端子である。 The aperture 201 is configured to have an adjustable opening diameter. Lens 202 is composed of a plurality of lenses. The aperture drive circuit 203 adjusts the amount of light by controlling the aperture diameter of the aperture 201. The AF drive circuit 204 drives the lens 202 to focus. The lens system control circuit 205 controls the aperture drive circuit 203, the AF drive circuit 204, etc. based on instructions from the system control unit 50, which will be described later. The lens system control circuit 205 controls the aperture 201 via the aperture drive circuit 203 and focuses by changing the position of the lens 202 via the AF drive circuit 204. The lens system control circuit 205 can communicate with the camera 100. Specifically, communication is performed via the communication terminal 206 of the lens unit 200 and the communication terminal 124 of the camera 100. The communication terminal 206 is a terminal through which the lens unit 200 communicates with the camera 100 side.

次に、カメラ100について説明する。カメラ100は、シャッター210、撮像部211、A/D変換器212、メモリ制御部213、画像処理部214、メモリ215、D/A変換器216、EVF217、表示部108、システム制御部50を有する。 Next, the camera 100 will be explained. The camera 100 includes a shutter 210, an imaging section 211, an A/D converter 212, a memory control section 213, an image processing section 214, a memory 215, a D/A converter 216, an EVF 217, a display section 108, and a system control section 50. .

シャッター210は、システム制御部50の指示に基づいて撮像部211の露光時間を自由に制御できるフォーカルプレーンシャッターである。撮像部211は、光学像を電気信号に変換するCCDやCMOS素子などで構成される撮像素子(イメージセンサ)である。撮像部211は、システム制御部50にデフォーカス量情報を出力する撮像面位相差センサを有していてもよい。A/D変換器212は、撮像部211から出力されるアナログ信号をデジタル信号に変換する。画像処理部214は、A/D変換器212からのデータまたはメモリ制御部213からのデータに対し所定の処理(画素補間、縮小などのリサイズ処理、色変換処理など)を行う。また、画像処理部214は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50が露光制御や測距制御を行う。この処理により、TTL(スルー・ザ・レンズ)方式のAF処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理などが行われる。更に、画像処理部214は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50がTTL方式のAWB(オートホワイトバランス)処理を行う。 The shutter 210 is a focal plane shutter that can freely control the exposure time of the imaging unit 211 based on instructions from the system control unit 50. The imaging unit 211 is an imaging device (image sensor) configured with a CCD, a CMOS device, or the like that converts an optical image into an electrical signal. The imaging unit 211 may include an imaging plane phase difference sensor that outputs defocus amount information to the system control unit 50. The A/D converter 212 converts the analog signal output from the imaging section 211 into a digital signal. The image processing unit 214 performs predetermined processing (pixel interpolation, resizing processing such as reduction, color conversion processing, etc.) on the data from the A/D converter 212 or the data from the memory control unit 213. Further, the image processing unit 214 performs predetermined calculation processing using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the obtained calculation results. Through this processing, TTL (through-the-lens) type AF processing, AE (automatic exposure) processing, EF (flash pre-emission) processing, etc. are performed. Furthermore, the image processing unit 214 performs predetermined calculation processing using the captured image data, and the system control unit 50 performs TTL-based AWB (auto white balance) processing based on the obtained calculation result.

A/D変換器212からの画像データは、画像処理部214およびメモリ制御部213を介してメモリ215に書き込まれる。あるいは、A/D変換器212からの画像データは、画像処理部214を介さずにメモリ制御部213を介してメモリ215に書き込まれる。メモリ215は、撮像部211によって得られA/D変換器212によりデジタルデータに変換された画像データや、表示部108やEVF217に表示するための画像データを格納する。メモリ215は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。また、メモリ215は画像表示用のメモリ(ビデオメモリ)を兼ねている。 Image data from the A/D converter 212 is written into the memory 215 via the image processing section 214 and the memory control section 213. Alternatively, the image data from the A/D converter 212 is written to the memory 215 via the memory control unit 213 without passing through the image processing unit 214. The memory 215 stores image data obtained by the imaging unit 211 and converted into digital data by the A/D converter 212, and image data to be displayed on the display unit 108 and EVF 217. The memory 215 has a storage capacity sufficient to store a predetermined number of still images, a predetermined period of moving images, and audio. Furthermore, the memory 215 also serves as an image display memory (video memory).

D/A変換器216は、メモリ215に格納されている表示用の画像データをアナログ信号に変換して表示部108やEVF217に供給する。したがって、メモリ215に書
き込まれた表示用の画像データは、D/A変換器216を介して表示部108やEVF217に表示される。表示部108やEVF217は、D/A変換器216からのアナログ信号に応じた表示を行う。表示部108やEVF217は、例えば、LCDや有機ELなどのディスプレイである。A/D変換器212によってA/D変換されメモリ215に蓄積されたデジタル信号をD/A変換器216でアナログ信号に変換し、表示部108やEVF217に逐次転送して表示することで、ライブビュー表示が行われる。
The D/A converter 216 converts the image data for display stored in the memory 215 into an analog signal and supplies it to the display unit 108 and the EVF 217. Therefore, the image data for display written in the memory 215 is displayed on the display unit 108 and the EVF 217 via the D/A converter 216. The display unit 108 and the EVF 217 perform display according to the analog signal from the D/A converter 216. The display unit 108 and the EVF 217 are, for example, displays such as an LCD or an organic EL display. The digital signal that has been A/D converted by the A/D converter 212 and stored in the memory 215 is converted into an analog signal by the D/A converter 216, and is sequentially transferred to the display unit 108 or EVF 217 for display. View display is performed.

システム制御部50は、少なくとも1つのプロセッサおよび/または少なくとも1つの回路からなる制御部である。すなわち、システム制御部50は、プロセッサであってもよく、回路であってもよく、プロセッサと回路の組み合わせであってもよい。システム制御部50は、カメラ100全体を制御する。システム制御部50は、不揮発性メモリ219に記録されたプログラムを実行することで、後述するフローチャートの各処理を実現する。また、システム制御部50は、メモリ215、D/A変換器216、表示部108、EVF217などを制御することにより表示制御も行う。 The system control unit 50 is a control unit including at least one processor and/or at least one circuit. That is, the system control unit 50 may be a processor, a circuit, or a combination of a processor and a circuit. The system control unit 50 controls the camera 100 as a whole. The system control unit 50 executes programs recorded in the nonvolatile memory 219 to implement each process in the flowchart described below. The system control unit 50 also performs display control by controlling the memory 215, the D/A converter 216, the display unit 108, the EVF 217, and the like.

また、カメラ100は、システムメモリ218、不揮発性メモリ219、システムタイマ220、通信部221、姿勢検知部222、接眼検知部118を有する。 The camera 100 also includes a system memory 218, a nonvolatile memory 219, a system timer 220, a communication section 221, an attitude detection section 222, and an eyepiece detection section 118.

システムメモリ218として、例えばRAMが用いられる。システムメモリ218には、システム制御部50の動作用の定数、変数、不揮発性メモリ219から読み出したプログラムなどが展開される。不揮発性メモリ219は電気的に消去・記録可能なメモリであり、不揮発性メモリ219として、例えばEEPROMが用いられる。不揮発性メモリ219には、システム制御部50の動作用の定数、プログラムなどが記録される。ここでのプログラムとは、後述するフローチャートを実行するためのプログラムである。システムタイマ220は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。通信部221は、無線または有線ケーブルによって接続された外部機器との間で、映像信号や音声信号の送受信を行う。通信部221は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部221は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部221は撮像部211で撮像した画像(ライブ画像を含む)や、記録媒体227に記録された画像を送信可能であり、外部機器から画像やその他の各種情報を受信することができる。姿勢検知部222は、重力方向に対するカメラ100の姿勢を検知する。姿勢検知部222で検知された姿勢に基づいて、撮像部211で撮影された画像が、カメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部222で検知された姿勢に応じた向き情報を撮像部211で撮影された画像の画像ファイルに付加したり、検知された姿勢に応じて画像を回転したりすることが可能である。姿勢検知部222には、例えば、加速度センサやジャイロセンサなどを用いることができる。姿勢検知部222を用いて、カメラ100の動き(パン、チルト、持ち上げ、静止しているか否かなど)を検知することも可能である。 For example, a RAM is used as the system memory 218. In the system memory 218, constants and variables for the operation of the system control unit 50, programs read from the nonvolatile memory 219, and the like are expanded. The nonvolatile memory 219 is electrically erasable/recordable memory, and for example, an EEPROM is used as the nonvolatile memory 219. The nonvolatile memory 219 records constants, programs, etc. for the operation of the system control unit 50. The program here is a program for executing a flowchart described later. The system timer 220 is a clock unit that measures the time used for various controls and the time of a built-in clock. The communication unit 221 transmits and receives video signals and audio signals to and from an external device connected via a wireless or wired cable. The communication unit 221 can also be connected to a wireless LAN (Local Area Network) and the Internet. The communication unit 221 can also communicate with external devices using Bluetooth (registered trademark) or Bluetooth Low Energy. The communication unit 221 can transmit images captured by the imaging unit 211 (including live images) and images recorded on the recording medium 227, and can receive images and other various information from external devices. The attitude detection unit 222 detects the attitude of the camera 100 with respect to the direction of gravity. Based on the orientation detected by the orientation detection unit 222, it is determined whether the image taken by the imaging unit 211 is an image taken with the camera 100 held horizontally or an image taken with the camera 100 held vertically. Identifiable. The system control unit 50 adds orientation information according to the orientation detected by the orientation detection unit 222 to the image file of the image photographed by the imaging unit 211, or rotates the image according to the detected orientation. Is possible. For example, an acceleration sensor, a gyro sensor, or the like can be used for the posture detection section 222. It is also possible to detect movements of the camera 100 (panning, tilting, lifting, whether it is stationary, etc.) using the posture detection unit 222.

接眼検知部118は、接眼部116(接眼ファインダ117)に対する何らかの物体の接近を検知することができる。接眼検知部118には、例えば、赤外線近接センサを用いることができる。物体が接近した場合、接眼検知部118の投光部から投光した赤外線が物体で反射して赤外線近接センサの受光部で受光される。受光された赤外線の量によって接眼部116から物体までの距離を判別することができる。このように、接眼検知部118は、接眼部116に対する物体の近接距離を検知する接眼検知を行う。接眼検知部118は、接眼部116に対する眼(物体)の接近(接眼)および離反(離眼)を検知する接眼検知センサである。非接眼状態(非接近状態)から、接眼部116に対して所定距離以内に近づく物体が検知された場合に、接眼されたと検知する。一方、接眼状態(接近状態
)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検知する。接眼を検知する閾値と、離眼を検知する閾値とは例えばヒステリシスを設けることなどにより異なっていてもよい。また、接眼を検知した後は、離眼を検知するまでは接眼状態であるものとする。離眼を検知した後は、接眼を検知するまでは非接眼状態であるものとする。システム制御部50は、接眼検知部118で検知された状態に応じて、表示部108とEVF217の表示(表示状態)/非表示(非表示状態)を切り替える。具体的には、少なくとも撮影待機状態であって、かつ、表示先の切替設定が自動切替である場合、非接眼中は表示先を表示部108として表示をオンとし、EVF217は非表示とする。また、接眼中は表示先をEVF217として表示をオンとし、表示部108は非表示とする。なお、接眼検知部118は赤外線近接センサに限られず、接眼検知部118には、接眼とみなせる状態を検知できるものであれば他のセンサを用いてもよい。
The eyepiece detection section 118 can detect the approach of some object to the eyepiece section 116 (eyepiece finder 117). For example, an infrared proximity sensor can be used as the eye proximity detection section 118. When an object approaches, infrared light emitted from the light projecting section of the eye proximity detection section 118 is reflected by the object and is received by the light receiving section of the infrared proximity sensor. The distance from the eyepiece 116 to the object can be determined based on the amount of infrared rays received. In this way, the eyepiece detection section 118 performs eyepiece detection to detect the proximity distance of an object to the eyepiece section 116. The eye-approach detection unit 118 is an eye-approach detection sensor that detects the approach (approach) and separation (departure) of the eye (object) from the eye-apparatus 116 . When an object is detected that approaches the eyepiece unit 116 within a predetermined distance from the non-eye-closed state (non-approaching state), it is detected that the object is close to the eyepiece 116 . On the other hand, when the object whose approach was detected moves away from the eye-close state (approach state) by a predetermined distance or more, it is detected that the eye has left the eye. The threshold value for detecting close eye contact and the threshold value for detecting eye separation may be different by providing hysteresis, for example. Furthermore, after detecting eye contact, the eye remains in close contact until eye separation is detected. After eye separation is detected, it is assumed that the eye is not in close contact until eye contact is detected. The system control unit 50 switches the display unit 108 and the EVF 217 between display (display state) and non-display (non-display state) according to the state detected by the eye proximity detection unit 118 . Specifically, when the camera is in at least a shooting standby state and the display destination switching setting is automatic switching, the display destination is set to the display section 108 and the display is turned on while the eye is not close to the eye, and the EVF 217 is not displayed. Further, while the eye is close to the eye, the EVF 217 is set as the display destination and the display is turned on, and the display section 108 is not displayed. Note that the eye proximity detection unit 118 is not limited to an infrared proximity sensor, and other sensors may be used as long as the eye proximity detection unit 118 can detect a state that can be considered as eye proximity.

また、カメラ100は、ファインダ外表示部107、ファインダ外表示駆動回路223、電源制御部224、電源部225、記録媒体I/F226、操作部228などを有する。 The camera 100 also includes an outside viewfinder display section 107, an outside viewfinder display drive circuit 223, a power supply control section 224, a power supply section 225, a recording medium I/F 226, an operation section 228, and the like.

ファインダ外表示部107は、ファインダ外表示駆動回路223によって駆動され、シャッター速度や絞りなどのカメラ100の様々な設定値を表示する。電源制御部224は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路などにより構成され、電池の装着の有無、電池の種類、電池残量の検出などを行う。また、電源制御部224は、その検出結果およびシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体227を含む各部へ供給する。電源部225は、アルカリ電池およびリチウム電池などの一次電池、NiCd電池、NiMH電池およびLi電池などの二次電池、ACアダプターなどである。記録媒体I/F226は、メモリカードやハードディスクなどの記録媒体227とのインターフェースである。記録媒体227は、撮影された画像を記録するためのメモリカードなどであり、半導体メモリや磁気ディスクなどから構成される。記録媒体227は、カメラ100に対して着脱可能であってもよいし、カメラ100に内蔵されていてもよい。 The outside viewfinder display section 107 is driven by the outside viewfinder display drive circuit 223 and displays various setting values of the camera 100 such as shutter speed and aperture. The power supply control unit 224 includes a battery detection circuit, a DC-DC converter, a switch circuit for switching the block to be energized, and the like, and detects whether or not a battery is attached, the type of battery, and the remaining battery level. Further, the power supply control section 224 controls the DC-DC converter based on the detection result and the instruction from the system control section 50, and supplies the necessary voltage to each section including the recording medium 227 for a necessary period. The power supply section 225 is a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like. The recording medium I/F 226 is an interface with a recording medium 227 such as a memory card or a hard disk. The recording medium 227 is a memory card or the like for recording photographed images, and is composed of a semiconductor memory, a magnetic disk, or the like. The recording medium 227 may be removably attached to the camera 100 or may be built into the camera 100.

操作部228は、ユーザからの操作(ユーザ操作)を受け付ける入力部であり、システム制御部50に各種の指示を入力するために用いられる。操作部228は、シャッターボタン101、電源スイッチ102、モード切替スイッチ103、タッチパネル109、他の操作部229などが含まれる。他の操作部229には、メイン電子ダイヤル104、サブ電子ダイヤル105、動画ボタン106、方向キー110、SETボタン111、AEロックボタン112、拡大ボタン113、再生ボタン114、メニューボタン115、タッチバー119などが含まれる。 The operation unit 228 is an input unit that accepts operations from the user (user operations), and is used to input various instructions to the system control unit 50. The operation unit 228 includes the shutter button 101, the power switch 102, the mode changeover switch 103, the touch panel 109, and other operation units 229. Other operation units 229 include the main electronic dial 104, sub electronic dial 105, movie button 106, direction key 110, SET button 111, AE lock button 112, enlarge button 113, playback button 114, menu button 115, touch bar 119, etc. is included.

シャッターボタン101は、第1シャッタースイッチ230と第2シャッタースイッチ231を有する。第1シャッタースイッチ230は、シャッターボタン101の操作途中、いわゆる半押し(撮影準備指示)でオンとなり、第1シャッタースイッチ信号SW1を出力する。システム制御部50は、第1シャッタースイッチ信号SW1に応じて、AF処理、AE処理、AWB処理、EF処理などの撮影準備処理を開始する。第2シャッタースイッチ231は、シャッターボタン101の操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を出力する。システム制御部50は、第2シャッタースイッチ信号SW2に応じて、撮像部211からの信号読み出しから、撮影された画像を含む画像ファイルを生成して記録媒体227に書き込むまでの一連の撮影処理を開始する。 The shutter button 101 has a first shutter switch 230 and a second shutter switch 231. The first shutter switch 230 is turned on when the shutter button 101 is pressed halfway (instruction for photographing preparation) during the operation of the shutter button 101, and outputs the first shutter switch signal SW1. The system control unit 50 starts photographing preparation processing such as AF processing, AE processing, AWB processing, and EF processing in response to the first shutter switch signal SW1. The second shutter switch 231 is turned on when the operation of the shutter button 101 is completed, so-called full press (photography instruction), and outputs the second shutter switch signal SW2. In response to the second shutter switch signal SW2, the system control unit 50 starts a series of photographing processes from reading out signals from the imaging unit 211 to generating an image file containing the photographed image and writing it to the recording medium 227. do.

モード切替スイッチ103は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード、再生モードなどの何れかに切り替える。静止画撮影モードに含まれるモ
ードには、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモードなどがある。ユーザは、モード切替スイッチ103により、上述した撮影モードの何れかに直接、切り替えることができる。あるいは、ユーザは、モード切替スイッチ103により撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードの何れかに操作部228を用いて選択的に切り替えることができる。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
The mode changeover switch 103 switches the operation mode of the system control unit 50 to any one of a still image shooting mode, a moving image shooting mode, a playback mode, and the like. Modes included in the still image shooting mode include an automatic shooting mode, an automatic scene discrimination mode, a manual mode, an aperture priority mode (Av mode), a shutter speed priority mode (Tv mode), and a program AE mode (P mode). There are also various scene modes, custom modes, etc. that provide shooting settings for each shooting scene. The user can directly switch to any of the above-mentioned shooting modes using the mode changeover switch 103. Alternatively, the user can once switch to the shooting mode list screen using the mode changeover switch 103, and then selectively switch to any one of the plurality of displayed modes using the operation unit 228. Similarly, the video shooting mode may include a plurality of modes.

タッチパネル109は、表示部108の表示面(タッチパネル109の操作面)への各種タッチ操作を検出するタッチセンサである。タッチパネル109と表示部108とは一体的に構成することができる。例えば、タッチパネル109は、光の透過率が表示部108の表示を妨げないように、表示部108の表示面の上層に取り付けられる。そして、タッチパネル109における入力座標と、表示部108の表示面上の表示座標とを対応付けることで、あたかもユーザが表示部108上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザインターフェース)を構成できる。タッチパネル109には、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式などの様々な方式のうち何れかの方式を用いることができる。方式によって、タッチパネル109に対する接触があったことでタッチがあったと検知する方式や、タッチパネル109に対する指やペンの接近があったことでタッチがあったと検知する方式があるが、何れの方式であってもよい。 The touch panel 109 is a touch sensor that detects various touch operations on the display surface of the display unit 108 (the operation surface of the touch panel 109). The touch panel 109 and the display unit 108 can be configured integrally. For example, the touch panel 109 is attached to the upper layer of the display surface of the display unit 108 so that the light transmittance does not interfere with the display on the display unit 108. By associating the input coordinates on the touch panel 109 with the display coordinates on the display surface of the display unit 108, a GUI as if the user could directly operate the screen displayed on the display unit 108 is created. (graphical user interface). The touch panel 109 can use any one of various methods, such as a resistive film method, a capacitive method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method. Depending on the method, there are methods that detect a touch when there is contact with the touch panel 109, and methods that detect a touch when a finger or pen approaches the touch panel 109. It's okay.

システム制御部50は、タッチパネル109に対する以下の操作あるいは状態を検出できる。
・タッチパネル109にタッチしていなかった指やペンが新たにタッチパネル109にタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)という)。
・タッチパネル109を指やペンでタッチしている状態(以下、タッチオン(Touch-On)という)。
・タッチパネル109を指やペンがタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)という)。
・タッチパネル109へタッチしていた指やペンがタッチパネル109から離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)という)。
・タッチパネル109に何もタッチしていない状態(以下、タッチオフ(Touch-Off)という)。
The system control unit 50 can detect the following operations or states on the touch panel 109.
- A finger or a pen that has not touched the touch panel 109 newly touches the touch panel 109, that is, the start of a touch (hereinafter referred to as Touch-Down).
- A state in which the touch panel 109 is touched with a finger or a pen (hereinafter referred to as Touch-On).
- Moving a finger or pen while touching the touch panel 109 (hereinafter referred to as a touch-move).
- The finger or pen that was touching the touch panel 109 is removed from the touch panel 109 (released), that is, the touch ends (hereinafter referred to as Touch-Up).
- A state in which nothing is touched on the touch panel 109 (hereinafter referred to as Touch-Off).

タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。 When a touchdown is detected, a touch-on is also detected at the same time. After touchdown, touch-ons typically continue to be detected unless a touch-up is detected. When a touch move is detected, a touch-on is also detected at the same time. Even if a touch-on is detected, if the touch position does not move, a touch move will not be detected. After all touching fingers and pens are detected to have touched up, touch-off occurs.

これらの操作・状態や、タッチパネル109上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。システム制御部50は通知された情報に基づいてタッチパネル109上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル109上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル109上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定される。タッチパネル109上に指をタッチしたままある程度の距離だけ素早
く動かして、そのまま離すといった操作をフリックという。フリックは、言い換えればタッチパネル109上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定される(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトという。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)という。
These operations/states and the coordinates of the position touched by a finger or pen on the touch panel 109 are notified to the system control unit 50 via the internal bus. The system control unit 50 determines what kind of operation (touch operation) has been performed on the touch panel 109 based on the notified information. Regarding touch moves, the direction of movement of a finger or pen on the touch panel 109 can also be determined for each vertical component and horizontal component on the touch panel 109 based on changes in position coordinates. If it is detected that a touch move has been made over a predetermined distance, it is determined that a slide operation has been performed. An operation in which a finger is touched on the touch panel 109, quickly moved for a certain distance, and then released is called a flick. In other words, a flick is an operation in which a finger is quickly traced on the touch panel 109 as if flicking. If a touch move over a predetermined distance and at a predetermined speed or higher is detected, and a touch-up is detected as it is, it is determined that a flick has been performed (it can be determined that a flick has occurred following a slide operation). Further, a touch operation in which a plurality of points (for example, two points) are touched together (multi-touch) and the touch positions are brought closer to each other is called a pinch-in, and a touch operation in which the touch positions are moved away from each other is called a pinch-out. Pinch out and pinch in are collectively called pinch operation (or simply pinch).

図4は、レンズユニット300の構成の一例を示す模式図である。図4では、レンズユニット300をカメラ100に装着した状態を示している。なお、図4に示すカメラ100のうち、図3で説明した構成要素と同一の構成要素には、図3と同一の符号を付し、その構成要素の説明は適宜、省略する。 FIG. 4 is a schematic diagram showing an example of the configuration of the lens unit 300. FIG. 4 shows a state in which the lens unit 300 is attached to the camera 100. Note that, in the camera 100 shown in FIG. 4, the same components as those explained in FIG. 3 are given the same reference numerals as in FIG. 3, and explanations of the components will be omitted as appropriate.

レンズユニット300は、カメラ100に対して着脱可能な交換レンズユニットの一種である。レンズユニット300は、視差のある右画像および左画像を撮像可能な2眼レンズユニットである。レンズユニット300は2つの光学系を有し、2つの光学系それぞれで、略180度の広視野角の範囲を撮像できる。具体的に、レンズユニット300の2つの光学系それぞれで、左右方向(水平角度、方位角、ヨー角)180度、上下方向(垂直角度、仰俯角、ピッチ角)180度の視野分(画角分)の被写体を撮像できる。つまり、2つの光学系それぞれで、前方半球の範囲を撮像できる。 The lens unit 300 is a type of interchangeable lens unit that can be attached to and detached from the camera 100. The lens unit 300 is a two-lens lens unit that can capture a right image and a left image with parallax. The lens unit 300 has two optical systems, and each of the two optical systems can image a wide viewing angle range of approximately 180 degrees. Specifically, each of the two optical systems of the lens unit 300 has a field of view (angle of view) of 180 degrees in the horizontal direction (horizontal angle, azimuth angle, yaw angle) and 180 degrees in the vertical direction (vertical angle, elevation angle, pitch angle). It is possible to capture images of a subject of up to In other words, each of the two optical systems can image the range of the front hemisphere.

レンズユニット300は、複数のレンズと反射ミラーなどを有する右眼光学系301R、複数のレンズと反射ミラーなどを有する左眼光学系301L、レンズシステム制御回路303を有する。右眼光学系301Rは被写体側に配置されるレンズ302Rを有し、左眼光学系301Lは被写体側に配置されるレンズ302Lを有する。レンズ302Rとレンズ302Lは同じ方向を向いており、それらの光軸は略平行である。 The lens unit 300 includes a right eye optical system 301R having a plurality of lenses and a reflecting mirror, a left eye optical system 301L having a plurality of lenses and a reflecting mirror, and a lens system control circuit 303. The right eye optical system 301R has a lens 302R placed on the subject side, and the left eye optical system 301L has a lens 302L placed on the subject side. Lens 302R and lens 302L face the same direction, and their optical axes are substantially parallel.

レンズユニット300は、2眼立体視が可能なVR(Virtual Reality)画像のフォーマットの1つであるVR180の画像を得るための2眼レンズユニット(VR180レンズユニット)である。レンズユニット300は、右眼光学系301Rおよび左眼光学系301Lのそれぞれに、略180度の範囲を捉えることが可能な魚眼レンズを有する。なお、右眼光学系301Rおよび左眼光学系301Lのそれぞれが有するレンズで捉えることが可能な範囲は、180度の範囲よりも狭い160度程度であってもよい。レンズユニット300は、右眼光学系301Rを介して形成される右画像と、左眼光学系301Lを介して形成される左画像とを、レンズユニット300が装着されたカメラの1つまたは2つの撮像素子上に結像することができる。カメラ100では、右画像と左画像とが1つの撮像素子(撮像センサ)上に結像され、右画像領域(右画像の領域)と左画像領域(左画像の領域)とが左右に並んだ1つの画像(2眼画像)が生成される。 The lens unit 300 is a two-eye lens unit (VR180 lens unit) for obtaining a VR180 image, which is one of the formats of VR (Virtual Reality) images that allow two-eye stereoscopic vision. The lens unit 300 has a fisheye lens capable of capturing an approximately 180 degree range in each of the right eye optical system 301R and the left eye optical system 301L. Note that the range that can be captured by the lenses of the right-eye optical system 301R and the left-eye optical system 301L may be about 160 degrees, which is narrower than the 180-degree range. The lens unit 300 transmits the right image formed via the right eye optical system 301R and the left image formed via the left eye optical system 301L to one or two cameras of the camera to which the lens unit 300 is attached. An image can be formed on an image sensor. In the camera 100, the right image and the left image are formed on one image sensor (imaging sensor), and the right image area (the area of the right image) and the left image area (the area of the left image) are arranged side by side. One image (binary image) is generated.

レンズユニット300は、レンズマウント部304と、カメラ100のカメラマウント部305とを介して、カメラ100に装着される。こうすることで、カメラ100の通信端子124と、レンズユニット300の通信端子306とを介して、カメラ100のシステム制御部50とレンズユニット300のレンズシステム制御回路303とが電気的に接続される。 The lens unit 300 is attached to the camera 100 via the lens mount section 304 and the camera mount section 305 of the camera 100. By doing this, the system control section 50 of the camera 100 and the lens system control circuit 303 of the lens unit 300 are electrically connected via the communication terminal 124 of the camera 100 and the communication terminal 306 of the lens unit 300. .

図4では、右眼光学系301Rを介して形成される右画像と、左眼光学系301Lを介して形成される左画像とが、並んでカメラ100の撮像部211に結像される。すなわち、右眼光学系301Rおよび左眼光学系301Lにより、1つの撮像素子(撮像センサ)の2つの領域に2つの光学像(被写体像)がそれぞれ結像される。撮像部211は、結像
された光学像(光信号)をアナログ電気信号に変換する。このようにレンズユニット300を用いることで、右眼光学系301Rと左眼光学系301Lとの2つの箇所(光学系)から、視差のある2つの画像領域を含む1つの画像を取得することができる。取得された画像を左眼用の画像と右眼用の画像とに分割してVR表示することで、ユーザは略180度の範囲の立体的なVR画像を視聴することができる。つまり、ユーザは、VR180の画像を立体視することができる。
In FIG. 4, a right image formed via the right eye optical system 301R and a left image formed via the left eye optical system 301L are imaged side by side on the imaging unit 211 of the camera 100. That is, the right eye optical system 301R and the left eye optical system 301L form two optical images (subject images) on two areas of one image sensor (image sensor), respectively. The imaging unit 211 converts the formed optical image (optical signal) into an analog electrical signal. By using the lens unit 300 in this way, one image including two image areas with parallax can be obtained from two locations (optical systems): the right eye optical system 301R and the left eye optical system 301L. can. By dividing the acquired image into an image for the left eye and an image for the right eye and displaying it in VR, the user can view a three-dimensional VR image in a range of approximately 180 degrees. In other words, the user can view the image of the VR 180 in three dimensions.

ここで、VR画像とは、後述するVR表示することができる画像である。VR画像には、全方位カメラ(全天球カメラ)で撮像した全方位画像(全天球画像)や、表示部で一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つパノラマ画像などが含まれる。また、VR画像は、静止画に限られず、動画、ライブ画像(カメラからほぼリアルタイムで取得した画像)も含まれる。VR画像は、最大で、左右方向360度、上下方向360度の視野分の映像範囲(有効映像範囲)を持つ。また、VR画像には、左右方向360度未満、上下方向360度未満であっても、通常のカメラで撮像可能な画角よりも広範な画角、あるいは、表示部で一度に表示できる表示範囲より広い映像範囲を持つ画像も含まれる。上述したレンズユニット300を用いてカメラ100で撮像される画像は、VR画像の一種である。VR画像は、例えば、表示装置(VR画像を表示できる表示装置)の表示モードを「VRビュー」に設定することでVR表示することができる。360度の画角を有するVR画像の一部の範囲を表示して、ユーザが表示装置の姿勢を左右方向(水平回転方向)に変化させることで、表示される範囲を移動し、左右方向に継ぎ目のない全方位の映像を観賞することができる。 Here, the VR image is an image that can be displayed in VR, which will be described later. VR images include omnidirectional images (omnidirectional images) taken with omnidirectional cameras (omnidirectional cameras) and panoramic images with a video range (effective video range) that is wider than the display range that can be displayed at once on the display unit. etc. are included. Further, VR images are not limited to still images, but also include moving images and live images (images acquired from a camera in almost real time). A VR image has a maximum visual range (effective video range) of 360 degrees in the horizontal direction and 360 degrees in the vertical direction. In addition, VR images have a wider angle of view than can be captured with a normal camera, or a display range that can be displayed at once on the display, even if it is less than 360 degrees in the horizontal direction and 360 degrees in the vertical direction. Images with a wider video range are also included. The image captured by the camera 100 using the lens unit 300 described above is a type of VR image. A VR image can be displayed in VR by setting the display mode of a display device (a display device capable of displaying a VR image) to “VR view”, for example. By displaying a partial range of a VR image with a 360-degree viewing angle, and by changing the orientation of the display device in the left-right direction (horizontal rotation direction), the displayed range can be moved and the user can move the displayed range in the left-right direction. You can watch images from all directions without any seams.

VR表示(VRビュー)とは、VR画像のうち、表示装置の姿勢に応じた視野範囲の映像を表示する、表示範囲を変更可能な表示方法(表示モード)である。VR表示には、VR画像を仮想球体にマッピングする変形(歪曲補正)を行って1つの画像を表示する「1眼VR表示(1眼VRビュー)」がある。また、VR表示には、左眼用のVR画像と右眼用のVR画像とをそれぞれ仮想球体にマッピングする変形を行って左右の領域に並べて表示する「2眼VR表示(2眼VRビュー)」がある。互いに視差のある左眼用のVR画像と右眼用のVR画像を用いて「2眼VR表示」を行うことで、それらVR画像を立体視することが可能である。何れのVR表示であっても、例えば、ユーザがHMD(ヘッドマウントディスプレイ)などの表示装置を装着した場合、ユーザの顔の向きに応じた視野範囲の映像が表示される。例えば、VR画像のうち、ある時点で左右方向に0度(特定の方位、例えば北)、上下方向に90度(天頂から90度、すなわち水平)を中心とした視野範囲の映像を表示しているとする。この状態から表示装置の姿勢を表裏反転させる(例えば、表示面を南向きから北向きに変更する)と、同じVR画像のうち、左右方向に180度(逆の方位、例えば南)、上下方向に90度を中心とした視野範囲の映像に、表示範囲が変更される。すなわち、ユーザがHMDを装着した状態で、顔を北から南に向く(すなわち後ろを向く)ことで、HMDに表示される映像も北の映像から南の映像に変更される。なお、レンズユニット300を用いて撮像したVR画像は、前方略180度の範囲を撮像した画像(180°画像)であり、後方略180度の範囲の映像は存在しない。このような画像をVR表示して、映像が存在しない側に表示装置の姿勢を変更した場合にはブランク領域が表示される。 VR display (VR view) is a display method (display mode) in which the display range can be changed, in which an image of a VR image is displayed in a viewing range according to the attitude of the display device. VR display includes "single-eye VR display (single-eye VR view)" in which a single image is displayed by mapping a VR image onto a virtual sphere (distortion correction). In addition, for VR display, "two-eye VR display (two-eye VR view)" is used, in which a VR image for the left eye and a VR image for the right eye are mapped onto a virtual sphere and displayed side by side in the left and right areas. ” is there. By performing "two-eye VR display" using a left-eye VR image and a right-eye VR image that have parallax with each other, it is possible to view these VR images stereoscopically. In any VR display, for example, when a user wears a display device such as an HMD (head-mounted display), an image is displayed in a viewing range that corresponds to the orientation of the user's face. For example, at a certain point in a VR image, an image with a field of view centered at 0 degrees horizontally (a specific direction, e.g. north) and 90 degrees vertically (90 degrees from the zenith, i.e. horizontal) is displayed. Suppose there is. If you reverse the orientation of the display device from this state (for example, change the display surface from south to north), the same VR image will be 180 degrees in the left and right direction (opposite direction, for example, south), and in the top and bottom directions. The display range is changed to an image with a viewing range centered at 90 degrees. That is, when the user turns his/her face from north to south (that is, turns backward) while wearing the HMD, the image displayed on the HMD is also changed from the north image to the south image. Note that the VR image captured using the lens unit 300 is an image captured in a range of approximately 180 degrees in front (180° image), and there is no video in a range of approximately 180 degrees in the rear. When such an image is displayed in VR and the attitude of the display device is changed to the side where no image exists, a blank area is displayed.

このようにVR画像をVR表示することによって、ユーザは視覚的にあたかもVR画像内(VR空間内)にいるような感覚(没入感)を得ることができる。なお、VR画像の表示方法は表示装置の姿勢を変更する方法に限られない。例えば、タッチパネルや方向ボタンなどを介したユーザ操作に応じて、表示範囲を移動(スクロール)させてもよい。また、VR表示時(表示モード「VRビュー」時)において、姿勢変化による表示範囲の変更に加え、タッチパネルでのタッチムーブ、マウスなどでのドラッグ操作、方向ボタンの押下などに応じて表示範囲を変更してもよい。なお、VRゴーグル(ヘッドマウントアダプ
タ)に装着されたスマートフォンはHMDの一種である。
By displaying the VR image in VR in this way, the user can visually feel as if he or she is inside the VR image (in the VR space) (a sense of immersion). Note that the method of displaying the VR image is not limited to the method of changing the attitude of the display device. For example, the display range may be moved (scrolled) in response to user operations via a touch panel, direction buttons, or the like. In addition, during VR display (in the display mode "VR View"), in addition to changing the display range due to changes in posture, the display range can also be changed in response to touch moves on the touch panel, drag operations with a mouse, pressing direction buttons, etc. May be changed. Note that the smartphone attached to VR goggles (head mount adapter) is a type of HMD.

図5は、PC500の構成の一例を示すブロック図である。制御部501は、例えばCentral Processing Unit(CPU)であり、PC500全体を制御する。Read Only Memory(ROM)502は、プログラムやパラメータを非一時的に記憶する。Random Access Memory(RAM)503は、外部機器などから供給されるプログラムやデータを一時的に記憶する。記録媒体504は、PC500に固定して設置されたハードディスクやフラッシュメモリ、あるいはPC500に対して着脱可能な光ディスク、磁気カード、光カード、ICカード、メモリカードなどである。カメラ100が撮影した画像のファイルは、記録媒体504から読み出される。操作部505は、PC500に対するユーザの操作を受け付ける。ユーザが操作を行う際に用いる操作部材は、PC500に設けられたボタンやタッチパネルなどであってもよいし、PC500に対して着脱可能なキーボードやマウスなどであってもよい。表示部506は、PC500が保持するデータや外部から供給されたデータなどを表示する。表示部506はPC500の一部であってもよいし、PC500とは別体の表示装置であってもよい。通信部507は、カメラ100などの外部機器との通信を行う。システムバス508はPC500の構成要素間を通信可能に接続する。 FIG. 5 is a block diagram showing an example of the configuration of the PC 500. The control unit 501 is, for example, a central processing unit (CPU), and controls the entire PC 500. Read Only Memory (ROM) 502 non-temporarily stores programs and parameters. Random Access Memory (RAM) 503 temporarily stores programs and data supplied from external devices. The recording medium 504 is a hard disk or flash memory fixedly installed in the PC 500, or an optical disk, a magnetic card, an optical card, an IC card, a memory card, etc. that is removable from the PC 500. A file of an image taken by the camera 100 is read from the recording medium 504. The operation unit 505 receives user operations on the PC 500. The operation member used by the user when performing an operation may be a button or a touch panel provided on the PC 500, or may be a keyboard, a mouse, etc. that is detachable from the PC 500. The display unit 506 displays data held by the PC 500, data supplied from the outside, and the like. The display unit 506 may be a part of the PC 500 or may be a display device separate from the PC 500. The communication unit 507 communicates with external devices such as the camera 100. System bus 508 communicatively connects the components of PC 500.

ここで、レンズユニット300(2眼レンズユニット)を装着して撮像される画像の特徴について説明する。レンズユニット200(通常の1眼レンズユニット)の場合、撮像部211上には、実際の見えに対して上下左右に反転した像(180度回転した像)が結像する。そのため、結像された画像全体を180度回転して、実際の見えに合った画像を取得(撮像)している。一方で、レンズユニット300(2眼レンズユニット)の場合は、右画像と左画像それぞれが、実際の見えに対して180度回転して撮像部211上に結像する。右画像と左画像の並びは特に限定されないが、実施形態1では、撮像部211上において、右画像が右側に結像され、左画像が左側に結像されるとする。そのため、レンズユニット200(通常の1眼レンズユニット)の場合と同様に、結像された画像(右画像領域と左画像領域を含む画像)全体を180度回転すると、右画像領域と左画像領域それぞれを実際の見えに合わせることはできる。しかしながら、右画像領域と左画像領域の位置が入れ替わってしまう。つまり、左右の位置関係が反転して、右画像領域が左側に配置され、左画像領域が右側に配置された画像が撮像されることになる。実施形態1では、右画像領域と左画像領域の位置が2つの光学系(右眼光学系301Rと左眼光学系301L)と対応するような表示を可能にする。 Here, the characteristics of an image captured by wearing the lens unit 300 (two-lens lens unit) will be explained. In the case of the lens unit 200 (normal single-lens lens unit), an image that is vertically and horizontally inverted (an image rotated by 180 degrees) is formed on the imaging unit 211 with respect to the actual view. Therefore, the entire formed image is rotated by 180 degrees to obtain (capture) an image that matches the actual appearance. On the other hand, in the case of the lens unit 300 (two-lens lens unit), the right image and the left image are respectively rotated by 180 degrees with respect to the actual appearance and formed on the imaging unit 211. Although the arrangement of the right image and the left image is not particularly limited, in the first embodiment, it is assumed that the right image is formed on the right side and the left image is formed on the left side on the imaging unit 211. Therefore, as in the case of the lens unit 200 (normal single-lens lens unit), when the entire formed image (image including the right image area and left image area) is rotated 180 degrees, the right image area and the left image area It is possible to match each to the actual appearance. However, the positions of the right image area and the left image area are swapped. In other words, the left-right positional relationship is reversed, and an image is captured in which the right image area is placed on the left side and the left image area is placed on the right side. Embodiment 1 enables display in which the positions of the right image area and the left image area correspond to two optical systems (the right eye optical system 301R and the left eye optical system 301L).

図6は、2眼レンズユニットで撮影された画像ファイルの構造の一例を示す模式図である。図6の画像ファイルは、ヘッダー601、カメラ情報部602、レンズ情報部603、その他情報部604、および画像データ部605を有する。ヘッダー601には、撮影された画像の種類などの情報が記録される。カメラ情報部602には、撮影に用いたカメラの情報が、メタデータとして記録される。例えば、撮影時のシャッタースピードや絞りなどの撮影情報や、撮影時のカメラの姿勢情報などが記録される。レンズ情報部603には、撮影に用いた2眼レンズユニットの情報が、メタデータとして記録される。例えば、2眼レンズユニットの設計値や個体値が記録される。その他情報部604には、その他の情報がメタデータとして記録される。例えば、動画の場合にはフレームごとに変化する情報が記録される。RAW画像の場合には現像に必要なデータが記録される。画像データ部605には、画像データが記録される。動画の場合には、画像データだけでなく、音声データも記録される。なお、カメラの情報、2眼レンズユニットの情報、その他の情報を同一の画像ファイル内に記録する例を示したが、それらは画像ファイルと関連付けられた別のファイルに記録してもよい。 FIG. 6 is a schematic diagram showing an example of the structure of an image file taken with a twin lens unit. The image file in FIG. 6 includes a header 601, a camera information section 602, a lens information section 603, an other information section 604, and an image data section 605. Information such as the type of image taken is recorded in the header 601. In the camera information section 602, information about the camera used for photographing is recorded as metadata. For example, shooting information such as the shutter speed and aperture at the time of shooting, information on the posture of the camera at the time of shooting, etc. are recorded. In the lens information section 603, information about the twin lens unit used for photographing is recorded as metadata. For example, design values and individual values of the binocular lens unit are recorded. Other information is recorded in the other information section 604 as metadata. For example, in the case of a moving image, information that changes from frame to frame is recorded. In the case of a RAW image, data necessary for development is recorded. Image data is recorded in the image data section 605. In the case of a moving image, not only image data but also audio data is recorded. Although an example has been shown in which camera information, twin lens unit information, and other information are recorded in the same image file, they may be recorded in separate files associated with the image file.

図7(A)は、2眼レンズユニットから取得するレンズ情報の一例を示す模式図である
。レンズ情報は、
1.レンズ設計値
2.レンズ個体値
3.レンズフラグ
4.レンズ焦点距離
5.レンズ温度
などを含む。
FIG. 7(A) is a schematic diagram showing an example of lens information acquired from a binocular lens unit. Lens information is
1. Lens design value 2. Lens individual value 3. Lens flag 4. Lens focal length 5. Including lens temperature, etc.

レンズ設計値は、収差補正を行うための設計値である。2眼レンズユニットの製造過程では、2つの光学系(左眼光学系301Lと右眼光学系301R)それぞれで、レンズの偏芯や傾きなどの誤差が発生する。誤差を考慮せずに後述の左右入れ替えや正距円筒変換などを行うと、2眼VR表示の品位が低下し、良好な立体視が困難となる。レンズ個体値は、2眼レンズユニットの製造過程で検出した誤差の測定結果などである。レンズ設計値とレンズ個体値の詳細については、図7(B)を用いて後述する。 The lens design value is a design value for correcting aberrations. In the manufacturing process of the binocular lens unit, errors such as lens eccentricity and tilt occur in each of the two optical systems (left eye optical system 301L and right eye optical system 301R). If left and right swapping, equirectangular conversion, etc., which will be described later, are performed without considering the error, the quality of the binocular VR display will deteriorate and good stereoscopic viewing will become difficult. The lens individual value is a measurement result of an error detected during the manufacturing process of the binocular lens unit. Details of the lens design values and lens individual values will be described later using FIG. 7(B).

レンズフラグは、2眼レンズユニットであることを示すフラグであり、2眼レンズユニットが使用されたか否かを判定するために使用できる。レンズ焦点距離は、レンズの中心である「主点」から撮像素子(結像位置)までの距離である。レンズ焦点距離は、2眼レンズユニットの2つの光学系(左眼光学系301Lと右眼光学系301R)で共通のパラメータであってもよいし、そうでなくてもよい。左右入れ替えや正距円筒変換などを高精度に行って高品位な2眼VR表示を行うためには、詳細(高精度)なレンズ焦点距離が必要となる。レンズ温度は、2眼レンズユニットの温度であり、撮影時の環境温度などを把握するために使用される。 The lens flag is a flag indicating that it is a binocular lens unit, and can be used to determine whether the binocular lens unit is used. The lens focal length is the distance from the "principal point" which is the center of the lens to the image sensor (image forming position). The lens focal length may or may not be a common parameter for the two optical systems (left eye optical system 301L and right eye optical system 301R) of the binocular lens unit. In order to perform high-quality twin-lens VR display by performing left-right swapping, equirectangular conversion, etc. with high precision, detailed (high-precision) lens focal lengths are required. The lens temperature is the temperature of the twin lens unit, and is used to understand the environmental temperature at the time of shooting.

図7(B)は、レンズ設計値とレンズ個体値の詳細を示す模式図である。実施形態1では、レンズ設計値とレンズ個体値は、左右入れ替えや正距円筒変換に用いられる。 FIG. 7(B) is a schematic diagram showing details of lens design values and lens individual values. In the first embodiment, the lens design value and the lens individual value are used for left-right swapping and equirectangular cylinder conversion.

レンズ設計値は、
1.イメージサークル位置
2.イメージサークル直径
3.画角
4.歪曲補正係数
などを含む。
The lens design value is
1. Image circle position 2. Image circle diameter 3. Angle of view 4. Includes distortion correction coefficients, etc.

イメージサークル位置は、撮像される画像(右画像領域と左画像領域を含む画像)における光学系の光軸中心座標であり、2眼レンズユニットの2つの光学系(左眼光学系301Lと右眼光学系301R)のそれぞれついて用意される。つまり、イメージサークル位置は、撮像素子上に結像する像円(円周魚眼画像)の中心座標であり、右画像と左画像のそれぞれについて用意される。座標の原点は、例えば、撮像素子の中心(撮像される画像の中心)である。イメージサークル位置は、水平方向の座標と垂直方向の座標とを含む。なお、撮像される画像における光学系の光軸中心に関する様々な情報を、イメージサークル位置として使用することができる。例えば、撮像される画像における所定の位置(中心や左上隅など)から光軸中心までの距離などを使用することができる。 The image circle position is the optical axis center coordinate of the optical system in the captured image (the image including the right image area and the left image area), and is the center coordinate of the optical axis of the optical system in the captured image (the image including the right image area and the left image area). Prepared for each of the academic 301R). That is, the image circle position is the center coordinate of the image circle (circular fisheye image) formed on the image sensor, and is prepared for each of the right image and the left image. The origin of the coordinates is, for example, the center of the image sensor (the center of the captured image). The image circle position includes horizontal coordinates and vertical coordinates. Note that various information regarding the optical axis center of the optical system in the captured image can be used as the image circle position. For example, the distance from a predetermined position (such as the center or the upper left corner) of the captured image to the center of the optical axis can be used.

イメージサークル直径は、撮像素子上に結像する像円(円周魚眼画像)の直径である。画角は、撮像素子上に結像する像円(円周魚眼画像)の画角である。歪曲補正係数は、レンズの理想像高に対する設計像高の比である。像高ごとに歪曲補正係数を設定し、歪曲補正係数が設定されていない像高については、複数の歪曲補正係数を用いた補間演算により歪曲補正係数を算出してもよい。像高と歪曲補正係数の関係を近似した多項式を設定してもよい。イメージサークル直径、画角、および歪曲補正係数は、2眼レンズユニットの2
つの光学系(左眼光学系301Lと右眼光学系301R)で共通のパラメータであってもよいし、そうでなくてもよい。
The image circle diameter is the diameter of an image circle (circumferential fisheye image) formed on the image sensor. The angle of view is the angle of view of an image circle (circular fisheye image) formed on the image sensor. The distortion correction coefficient is the ratio of the designed image height to the ideal image height of the lens. A distortion correction coefficient may be set for each image height, and for image heights for which no distortion correction coefficient is set, the distortion correction coefficient may be calculated by interpolation using a plurality of distortion correction coefficients. A polynomial that approximates the relationship between the image height and the distortion correction coefficient may be set. The image circle diameter, angle of view, and distortion correction coefficient are
The parameters may or may not be common to the two optical systems (the left eye optical system 301L and the right eye optical system 301R).

PC500は、円周魚眼画像を表示する際に、円周魚眼画像にマジックウィンドウを表示してもよい。マジックウィンドウは、VR表示のために(最初に)切り出される領域を示す表示アイテムである。例えば、マジックウィンドウは、イメージサークル位置、イメージサークル直径、および画角に基づいて表示される。こうすることで、マジックウィンドウの表示品位を向上することができる。マジックウィンドウを適切に表示するために、PC500は、イメージサークル位置、イメージサークル直径、および画角を適宜編集して使用する。例えば、PC500は、イメージサークル位置やイメージサークル直径に係数を乗算する。 When displaying the circumferential fisheye image, the PC 500 may display a magic window on the circumferential fisheye image. The magic window is a display item that indicates the area that is (first) cut out for VR display. For example, a magic window is displayed based on image circle position, image circle diameter, and viewing angle. By doing this, the display quality of the magic window can be improved. In order to display the magic window appropriately, the PC 500 edits and uses the image circle position, image circle diameter, and angle of view as appropriate. For example, the PC 500 multiplies the image circle position and image circle diameter by a coefficient.

レンズ個体値は、
5.イメージサークル位置ずれ
6.光軸傾き
7.像倍率ずれ
などを含む。これらの情報は、2眼レンズの2つの光学系(左眼光学系301Lと右眼光学系301R)のそれぞれついて測定を行って用意される。
The lens individual value is
5. Image circle misalignment 6. Optical axis tilt 7. Includes image magnification deviation, etc. This information is prepared by measuring each of the two optical systems (left eye optical system 301L and right eye optical system 301R) of the binocular lens.

イメージサークル位置ずれは、撮像素子上に結像する像円(円周魚眼画像)の中心座標の、設計値からのずれである。例えば、イメージサークル位置ずれは、水平方向のずれと、垂直方向のずれとを含む。設計値の座標(水平方向の座標と垂直方向の座標とを含む2次元座標)を原点として、水平方向の座標により水平方向のずれが示され、垂直方向の座標により垂直方向のずれが示される。光軸傾きは、被写体側の光軸の向きの、設計値からのずれである。例えば、光軸傾きは、水平方向のずれと垂直方向のずれとを含む。各方向のずれは角度で示される。像倍率ずれは撮像素子上に結像する像円(円周魚眼画像)の大きさの、設計値からのずれである。このずれは、例えば、設計値に対する比率で示される。 The image circle positional deviation is a deviation of the center coordinates of the image circle (circular fisheye image) formed on the image sensor from the designed value. For example, the image circle positional deviation includes a horizontal deviation and a vertical deviation. With the design value coordinates (two-dimensional coordinates including horizontal and vertical coordinates) as the origin, horizontal coordinates indicate horizontal deviation, and vertical coordinates indicate vertical deviation. . The optical axis tilt is the deviation of the direction of the optical axis on the subject side from a designed value. For example, the optical axis tilt includes a horizontal shift and a vertical shift. The deviation in each direction is expressed in degrees. The image magnification shift is a shift in the size of the image circle (circumferential fisheye image) formed on the image sensor from the designed value. This deviation is expressed, for example, as a ratio to a design value.

なお、レンズ情報に含まれる情報は、上述した情報に限られない。例えば、レンズ情報は、撮影された画像における右画像領域と左画像領域それぞれの境界位置(円周魚眼画像の縁の位置;図10(A)のずれ量1005,1006,1009,1010などで示された位置)を含んでもよい。レンズ情報は、撮影された画像における右画像領域と左画像領域の間の中点座標を含んでもよい。多くの場合、中点座標は撮影された画像の中心座標と一致する。レンズ情報は、マジックウィンドウの領域を示す情報(例えば、マジックウィンドウの左上隅の座標、マジックウィンドウの幅、およびマジックウィンドウの高さ)を含んでもよい。レンズ情報は、左右入れ替えや正距円筒変換などの精度を上げるための補正データ(例えば、2眼レンズユニットのキャリブレーションにより得られた補正値)を含んでもよい。 Note that the information included in the lens information is not limited to the information described above. For example, the lens information may be the boundary position of the right image area and the left image area in the photographed image (the position of the edge of the circumferential fisheye image; the amount of shift 1005, 1006, 1009, 1010 in FIG. 10(A), etc.). (positions shown). The lens information may include midpoint coordinates between the right image area and the left image area in the captured image. In many cases, the midpoint coordinates coincide with the center coordinates of the captured image. The lens information may include information indicating the area of the magic window (for example, the coordinates of the upper left corner of the magic window, the width of the magic window, and the height of the magic window). The lens information may include correction data (for example, correction values obtained by calibrating the binocular lens unit) for increasing the accuracy of left-right swapping, equirectangular conversion, and the like.

図7(C)は、カメラ内で生成されるカメラ情報の一例を示す模式図である。例えば、カメラ情報は、高品位なVR表示を行うために使用される。カメラ情報は、
1.カメラ記録領域情報
2.カメラ内加速度計情報
3.右露出補正情報
などを含む。
FIG. 7(C) is a schematic diagram showing an example of camera information generated within the camera. For example, camera information is used to perform high-quality VR display. Camera information is
1. Camera recording area information 2. In-camera accelerometer information 3. Contains right exposure compensation information, etc.

カメラ記録領域情報は有効画像領域の情報である。カメラのセンサや記録モードに依って、表示可能な有効画像領域は異なる。PC500は、より正確な表示を行うためにカメラ記録領域情報を使用する。カメラ内加速度計情報は、カメラ内の加速度センサ(水準器
)を用いて得られた姿勢情報であり、ロール方向やピッチ方向などにおけるカメラの姿勢を表す。PC500は、撮影時におけるカメラの姿勢を把握するために、カメラ内加速度計情報を使用する。PC500は、把握した姿勢に基づいて、電子防振や水平補正(表示の上下方向を実空間の上下方向に近づける天頂補正)などを行う。右露出補正情報は、右画像領域の露出を左画像領域の露出に近づける露出設定値である。PC500は、違和感の無い(違和感の低減された)2眼VR表示を行うために、右露出補正情報を使用する。
Camera recording area information is information on an effective image area. The effective image area that can be displayed differs depending on the camera sensor and recording mode. The PC 500 uses camera recording area information for more accurate display. The in-camera accelerometer information is attitude information obtained using an in-camera acceleration sensor (level), and represents the attitude of the camera in the roll direction, pitch direction, etc. The PC 500 uses in-camera accelerometer information to understand the attitude of the camera at the time of shooting. The PC 500 performs electronic image stabilization, horizontal correction (zenith correction that brings the vertical direction of the display closer to the vertical direction of real space), etc. based on the grasped posture. The right exposure correction information is an exposure setting value that brings the exposure of the right image area closer to the exposure of the left image area. The PC 500 uses the right exposure correction information in order to perform a two-lens VR display that does not feel strange (feel less strange).

図8は、カメラ100の動作の一例を示すフローチャートである。この動作は、システム制御部50が不揮発性メモリ219に記録されたプログラムをシステムメモリ218に展開して実行することにより実現される。例えば、カメラ100が起動すると、図8の動作が開始する。図8の動作は、カメラで撮像したライブビュー画像をPCの表示部に表示する機能(PCライブビュー)のための動作である。図8の動作は、カメラ100が撮影待機状態である場合において実行される。PCライブビューの動作中に、PC500から記録開始指示が入力された場合、静止画撮影もしくは動画撮影が実行される。このとき、PCライブビューは継続してよい。 FIG. 8 is a flowchart showing an example of the operation of the camera 100. This operation is realized by the system control unit 50 loading the program recorded in the nonvolatile memory 219 into the system memory 218 and executing it. For example, when the camera 100 is activated, the operation shown in FIG. 8 starts. The operations shown in FIG. 8 are operations for a function (PC live view) that displays a live view image captured by a camera on the display section of the PC. The operation in FIG. 8 is executed when the camera 100 is in a shooting standby state. If a recording start instruction is input from the PC 500 during PC live view operation, still image shooting or video shooting is executed. At this time, PC live view may continue.

ステップS801では、システム制御部50は、カメラ100が2眼レンズユニット(例えばレンズユニット300)に対応しているか否かを判定する。例えば、システム制御部50は、システム制御部50のファームウェアのバージョンが2眼レンズユニットに対応したバージョンであるか否かを判定する。2眼レンズユニットに対応していると判定した場合はステップS802へ進み、そうでない場合はステップS811へ進む。実施形態1では、2眼レンズユニットの場合は、通常の1眼レンズユニットの場合と異なり、後処理用に2眼レンズユニットの情報(レンズ情報;2眼レンズユニットの2つの光学系に関する情報)を取得して記録する必要がある。そのため、ステップS801の処理が必要となる。 In step S801, the system control unit 50 determines whether the camera 100 is compatible with a twin lens unit (for example, the lens unit 300). For example, the system control unit 50 determines whether the firmware version of the system control unit 50 is compatible with a binocular lens unit. If it is determined that it is compatible with a binocular lens unit, the process advances to step S802; otherwise, the process advances to step S811. In Embodiment 1, in the case of a two-lens lens unit, information on the two-lens lens unit (lens information; information regarding two optical systems of the two-lens lens unit) is used for post-processing, unlike in the case of a normal single-lens unit. need to be obtained and recorded. Therefore, the process of step S801 is required.

ステップS802では、システム制御部50は、2眼レンズユニットがカメラ100に装着されているか否かを判定する。2眼レンズユニットが装着されていると判定した場合はステップS803へ進み、そうでない場合はステップS811へ進む。なお、2眼レンズユニットが装着されていない状態から2眼レンズユニットが装着された場合も、ステップS803へ進む。2眼レンズユニットが装着されている状態から2眼レンズユニットが取り外され、1眼レンズユニットが装着された場合は、ステップS811へ進む。 In step S802, the system control unit 50 determines whether a twin lens unit is attached to the camera 100. If it is determined that the binocular lens unit is attached, the process advances to step S803; otherwise, the process advances to step S811. Note that even when the binocular lens unit is attached from a state in which no binocular lens unit is attached, the process proceeds to step S803. When the two-lens unit is removed from the state in which the two-lens unit is attached and the one-lens unit is attached, the process advances to step S811.

ステップS803では、システム制御部50は、装着(接続)されている2眼レンズユニットから、当該2眼レンズユニットの設計値を取得する。設計値は設計上のパラメータであり、後述の左右入れ替えや正距円筒変換に利用される。例えば、図7(B)に示すイメージサークル位置、イメージサークル直径、画角および歪曲補正係数が取得される。 In step S803, the system control unit 50 acquires the design value of the binocular lens unit that is attached (connected). The design value is a design parameter, and is used for left-right swapping and equirectangular cylinder conversion, which will be described later. For example, the image circle position, image circle diameter, angle of view, and distortion correction coefficient shown in FIG. 7(B) are obtained.

ステップS804では、システム制御部50は、装着(接続)されている2眼レンズユニットから、当該2眼レンズユニットの個体値を取得する。個体値はレンズユニット固有のパラメータであり、例えば製造時の誤差などである。例えば、図7(B)に示すイメージサークル位置ずれ、光軸傾き、および像倍率ずれが取得される。個体値を利用することにより、設計値のみを利用する場合よりも画像処理を高精度に行うことができる。 In step S804, the system control unit 50 acquires the individual value of the attached (connected) binocular lens unit. The individual value is a parameter specific to the lens unit, and is, for example, an error during manufacturing. For example, the image circle position shift, optical axis tilt, and image magnification shift shown in FIG. 7(B) are acquired. By using individual values, image processing can be performed with higher precision than when using only design values.

ステップS805では、カメラ100がPC500に接続され、システム制御部50は、カメラ100がPC500に接続されたことを検知する。ステップS806では、システム制御部50は、PC500からPCライブビュー開始要求を受信する。ステップS807では、システム制御部50は、PC500からライブビュー画像要求を受信する。ライブビュー画像要求は、後述するようにライブビュー画像の解像度を指定する情報(解像度情報)を含む。システム制御部50は、指定された解像度のライブビュー画像をPC5
00に送信するようにステップS809の処理を実行する。
In step S805, the camera 100 is connected to the PC 500, and the system control unit 50 detects that the camera 100 is connected to the PC 500. In step S806, the system control unit 50 receives a PC live view start request from the PC 500. In step S807, the system control unit 50 receives a live view image request from the PC 500. The live view image request includes information (resolution information) specifying the resolution of the live view image, as will be described later. The system control unit 50 transmits the live view image of the specified resolution to the PC 5.
The process of step S809 is executed to transmit the data to 00.

ステップS808では、システム制御部50は、ステップS803,S804で取得した情報(2眼レンズユニットのレンズ情報)を、送信するライブビュー画像の座標系に合うように変換する。撮影される画像(画像ファイルに記録される画像)と、ライブビュー画像とでは解像度などが異なるため、ステップS803,S804で取得した情報は、そのままでは、ライブビュー画像の画像処理に用いることができない。そのため、実施形態1では、レンズ情報を、ライブビュー画像の座標系に合った情報に変換する。 In step S808, the system control unit 50 converts the information acquired in steps S803 and S804 (lens information of the binocular lens unit) to match the coordinate system of the live view image to be transmitted. Since the captured image (image recorded in the image file) and the live view image have different resolutions, the information acquired in steps S803 and S804 cannot be used as is for image processing of the live view image. . Therefore, in the first embodiment, lens information is converted into information that matches the coordinate system of the live view image.

ステップS809では、システム制御部50は、ステップS808で変換されたレンズ情報と、ライブビュー画像を、PC500に送信する。システム制御部50は、ステップS807で取得した解像度情報に基づいて、ライブビュー画像の解像度を変換して、PC500に送信する。なお、実施形態1ではカメラ100のシステム制御部50がレンズ情報の変換を行っているが、PC500の制御部501がレンズ情報の変換を行ってもよい。その際には、変換前のレンズ情報と、レンズ情報の変換に必要なパラメータとをPC500に送信する。 In step S809, the system control unit 50 transmits the lens information converted in step S808 and the live view image to the PC 500. The system control unit 50 converts the resolution of the live view image based on the resolution information acquired in step S807, and transmits it to the PC 500. Note that in the first embodiment, the system control unit 50 of the camera 100 converts the lens information, but the control unit 501 of the PC 500 may also convert the lens information. At that time, the lens information before conversion and the parameters necessary for converting the lens information are transmitted to the PC 500.

ステップS810では、システム制御部50は、PCライブビューを終了するか否かを判定する。例えば、カメラ100とPC500の接続が解除されたり、ユーザがカメラ100またはPC500に対してPCライブビューの終了を指示した場合に、PCライブビューを終了すると判定する。PCライブビューを終了すると判定した場合は図8の動作を終了し、そうでない場合はステップS807へ進む。 In step S810, the system control unit 50 determines whether to end the PC live view. For example, when the connection between the camera 100 and the PC 500 is canceled or when the user instructs the camera 100 or the PC 500 to end the PC live view, it is determined that the PC live view is to be ended. If it is determined that the PC live view should be ended, the operation in FIG. 8 is ended; otherwise, the process advances to step S807.

カメラ100に1眼レンズユニットが装着されている場合にはステップS811の処理が行われる。ステップS811では、システム制御部50は、1眼レンズユニットで撮像したライブビュー画像をPC500に送信する。ステップS811の処理は、1眼レンズユニットで撮像したライブビュー画像を外部機器に送信する従来の処理と同様であるため、詳細な説明は省略する。ステップS811の処理が終了した場合、図8の動作を終了する。 If a single lens unit is attached to the camera 100, the process of step S811 is performed. In step S811, the system control unit 50 transmits the live view image captured by the single lens unit to the PC 500. The process in step S811 is similar to the conventional process of transmitting a live view image captured by a single-lens lens unit to an external device, so a detailed explanation will be omitted. When the process of step S811 is completed, the operation of FIG. 8 is ended.

図9Aは、PC500の動作の一例を示すフローチャートである。この動作は、制御部501がROM502に記録されたプログラム(アプリケーションプログラム)をRAM503に展開して実行することにより実現される。例えば、ユーザがPC500に対して特定のアプリケーションの起動を指示すると、図9Aの動作が開始する。図9Aの動作は、カメラで撮像したライブビュー画像をPCの表示部に表示する機能(PCライブビュー)のための動作である。 FIG. 9A is a flowchart illustrating an example of the operation of the PC 500. This operation is realized by the control unit 501 loading a program (application program) recorded in the ROM 502 onto the RAM 503 and executing it. For example, when the user instructs the PC 500 to launch a specific application, the operation shown in FIG. 9A starts. The operation in FIG. 9A is an operation for a function (PC live view) of displaying a live view image captured by a camera on the display section of the PC.

ステップS901では、PC500にカメラ(例えばカメラ100)が接続され、制御部501は、PC500にカメラが接続されたことを検知する。 In step S901, a camera (for example, camera 100) is connected to the PC 500, and the control unit 501 detects that the camera is connected to the PC 500.

ステップS902では、制御部501は、ステップS901で接続されたカメラが2眼レンズユニット(例えばレンズユニット300)に対応可能なカメラか否かを判定する。例えば、制御部501は、接続されたカメラから当該カメラの機種情報を取得し、取得した機種情報に基づいて、2眼レンズユニットに対応可能なカメラか否かを判定する。2眼レンズユニットに対応可能なカメラと判定した場合はステップS903へ進み、そうでない場合はステップS920へ進む。2眼レンズユニットに対応可能なカメラとは、例えば、2眼レンズユニットを装着可能なカメラである。 In step S902, the control unit 501 determines whether the camera connected in step S901 is compatible with a twin lens unit (for example, the lens unit 300). For example, the control unit 501 acquires model information of the connected camera from the camera, and determines whether the camera is compatible with a twin-lens unit based on the obtained model information. If it is determined that the camera is compatible with a twin lens unit, the process advances to step S903; otherwise, the process advances to step S920. A camera compatible with a twin lens unit is, for example, a camera to which a twin lens unit can be attached.

ステップS903では、制御部501は、ステップS901で接続されたカメラのファームウェアが2眼レンズユニットに対応可能か否かを判定する。例えば、制御部501は
、接続されたカメラから、当該カメラのファームウェアのバージョンの情報を取得し、取得した情報に基づいて、接続されたカメラのファームウェアのバージョンが2眼レンズユニットに対応したバージョンであるか否かを判定する。2眼レンズユニットに対応可能と判定した場合はステップS904へ進み、そうでない場合はステップS920へ進む。
In step S903, the control unit 501 determines whether the firmware of the camera connected in step S901 is compatible with a twin lens unit. For example, the control unit 501 acquires information about the firmware version of the connected camera from the connected camera, and determines, based on the acquired information, that the firmware version of the connected camera is compatible with the twin lens unit. Determine whether it exists or not. If it is determined that it is compatible with a binocular lens unit, the process advances to step S904; otherwise, the process advances to step S920.

2眼レンズユニットに対応可能なカメラがPC500に接続されたとしても、接続されたカメラのファームウェアのバージョンが古いなどの理由により、接続されたカメラが2眼レンズユニットに対応できていないことがある。そのために、ステップS903の処理が必要となる。また、PC500には様々なカメラが接続可能であり、ファームウェアのバージョンに依らず2眼レンズユニットに対応できないカメラが接続されることもある。そのため、ステップS903の処理の前に、ステップS902の処理が必要となる。 Even if a camera that is compatible with a twin-lens unit is connected to the PC500, the connected camera may not be compatible with the twin-lens unit due to reasons such as the firmware version of the connected camera being outdated. . Therefore, the process of step S903 is required. Furthermore, various cameras can be connected to the PC 500, and a camera that is not compatible with a twin lens unit may be connected regardless of the firmware version. Therefore, the process in step S902 is required before the process in step S903.

ステップS904では、制御部501は、ステップS901で接続されたカメラに2眼レンズユニットが装着されているか否かを判定する。2眼レンズユニットが装着されていると判定した場合はステップS905へ進み、そうでない場合はステップS920へ進む。 In step S904, the control unit 501 determines whether a twin lens unit is attached to the camera connected in step S901. If it is determined that the binocular lens unit is attached, the process advances to step S905; otherwise, the process advances to step S920.

ステップS905では、制御部501は、ステップS901で接続されたカメラにPCライブビュー開始要求を送信する。 In step S905, the control unit 501 transmits a PC live view start request to the camera connected in step S901.

ステップS906では、制御部501は、円周魚眼表示を行うか否かを判定する。円周魚眼表示では、右画像領域と左画像領域のそれぞれとして円周魚眼画像の領域が表示される。円周魚眼表示を行うと判定した場合はステップS907へ進み、そうでない場合(正距円筒表示を行う場合)はステップS913へ進む。円周魚眼表示では、右画像領域と左画像領域のそれぞれとして円周魚眼画像の領域が表示される。正距円筒表示では、右画像領域と左画像領域のそれぞれとして正距円筒画像の領域が表示される。ステップS906では、例えば、図12(A)~12(D)のラジオボタン1205が選択状態か非選択状態かで、円周魚眼表示を行うか否かを判定する。図12(A),12(C)ではラジオボタン1205は選択状態であり、図12(B),12(D)ではラジオボタン1205は非選択状態である。ラジオボタン1205が選択状態の場合は、円周魚眼表示を行うと判定し、ステップS907へ進む。ラジオボタン1205が非選択状態である場合は、ステップS913へ進む。図12(A)~12(D)の詳細については後述する。 In step S906, the control unit 501 determines whether to perform circumferential fisheye display. In the circumferential fisheye display, areas of the circumferential fisheye image are displayed as the right image area and the left image area, respectively. If it is determined that circumferential fisheye display is to be performed, the process advances to step S907; otherwise (if equirectangular cylinder display is to be performed), the process advances to step S913. In the circumferential fisheye display, areas of the circumferential fisheye image are displayed as the right image area and the left image area, respectively. In the equirectangular display, areas of the equirectangular image are displayed as the right image area and the left image area, respectively. In step S906, for example, it is determined whether a circular fisheye display is to be performed depending on whether the radio buttons 1205 in FIGS. 12(A) to 12(D) are in a selected state or in a non-selected state. In FIGS. 12(A) and 12(C), the radio button 1205 is in a selected state, and in FIGS. 12(B) and 12(D), the radio button 1205 is in a non-selected state. If the radio button 1205 is in the selected state, it is determined that circumferential fisheye display is to be performed, and the process advances to step S907. If the radio button 1205 is in a non-selected state, the process advances to step S913. Details of FIGS. 12(A) to 12(D) will be described later.

ステップS907では、制御部501は、ステップS901で接続されたカメラにライブビュー画像要求を送信する。実施形態1では、ステップS907のライブビュー画像要求は、通常解像度のライブビュー画像の要求であるとする。通常解像度は、実施形態1では4K解像度であるとする。 In step S907, the control unit 501 transmits a live view image request to the camera connected in step S901. In the first embodiment, it is assumed that the live view image request in step S907 is a request for a normal resolution live view image. It is assumed that the normal resolution is 4K resolution in the first embodiment.

ステップS908では、制御部501は、ステップS901で接続されたカメラから、当該カメラが撮像したライブビュー画像と、当該カメラに装着されている2眼レンズユニットのレンズ情報とを受信する。ステップS908で受信するライブビュー画像の解像度は、通常解像度である。ステップS908で受信するレンズ情報は、受信するライブビュー画像に合うように変換された情報(例えば、図8のステップS808で変換されたレンズ情報)である。なお、ステップS908で受信するライブビュー画像とレンズ情報は、ステップS809でカメラから送信されたライブビュー画像とレンズ情報である。 In step S908, the control unit 501 receives, from the camera connected in step S901, a live view image captured by the camera and lens information of the twin lens unit attached to the camera. The resolution of the live view image received in step S908 is the normal resolution. The lens information received in step S908 is information converted to match the received live view image (for example, the lens information converted in step S808 of FIG. 8). Note that the live view image and lens information received in step S908 are the live view image and lens information transmitted from the camera in step S809.

ステップS909では、制御部501は、左右入れ替え(右画像領域と左画像領域の入れ替え)を行うか否かを判定する。左右入れ替えを行うと判定した場合はステップS910へ進み、そうでない場合はステップS912へ進む。ステップS909では、例えば、図12(A),12(C)のチェックボックス1207がチェックされているか否かに基
づいて、左右入れ替えを行うか否かを判定する。チェックボックス1207がチェックされている場合は、左右入れ替えを行うと判定し、ステップS910へ進む。チェックボックス1207がチェックされていない場合は、ステップS912へ進む。
In step S909, the control unit 501 determines whether to perform left-right swapping (exchanging the right image area and the left image area). If it is determined that left and right swapping is to be performed, the process advances to step S910; otherwise, the process advances to step S912. In step S909, it is determined whether or not to perform left-right swapping, for example, based on whether the check box 1207 in FIGS. 12(A) and 12(C) is checked. If the check box 1207 is checked, it is determined that left and right swapping is to be performed, and the process advances to step S910. If the check box 1207 is not checked, the process advances to step S912.

ステップS910では、制御部501は、ステップS908で取得したレンズ情報に基づいて、ステップS908で取得したライブビュー画像における右画像領域と左画像領域の位置を入れ替えて、処理ライブビュー画像を生成する(左右入れ替え)。制御部501は、ライブビュー画像と共に受信したレンズ情報に含まれる中心座標(左眼光学系301Lと右眼光学系301Rそれぞれの光軸中心)に基づいて、ライブビュー画像における右画像領域と左画像領域の位置を入れ替え、処理ライブビュー画像を生成する。例えば、制御部501は、右画像領域の中心座標に基づいて右画像領域を特定し、左画像領域の中心座標に基づいて左画像領域を特定する。そして、制御部501は、特定した2つの領域の位置を入れ替える。実施形態1では、撮影された画像において右画像領域と左画像領域が左右に並べて配置されており、左右入れ替えにより、右画像領域と左画像領域の左右の位置関係が反転する。右画像領域と左画像領域をより高精度に特定するために、2眼レンズユニットの情報から、右画像領域と左画像領域それぞれの径(直径または半径)を取得してもよい。 In step S910, the control unit 501 exchanges the positions of the right image area and the left image area in the live view image obtained in step S908 based on the lens information obtained in step S908, and generates a processed live view image ( swap left and right). The control unit 501 determines the right image area and the left image in the live view image based on the center coordinates (the optical axis centers of the left eye optical system 301L and the right eye optical system 301R) included in the lens information received together with the live view image. Swap the positions of the regions and generate a processed live view image. For example, the control unit 501 specifies the right image area based on the center coordinates of the right image area, and specifies the left image area based on the center coordinates of the left image area. Then, the control unit 501 swaps the positions of the two identified areas. In the first embodiment, the right image area and the left image area are arranged side by side in the photographed image, and the horizontal positional relationship between the right image area and the left image area is reversed by the left and right swapping. In order to specify the right image area and the left image area with higher precision, the respective diameters (diameters or radii) of the right image area and the left image area may be acquired from the information of the binocular lens unit.

なお、左右入れ替えの方法は上記方法に限られない。例えば、2眼レンズユニットの情報から、図10(A)のずれ量1005,1006,1009,1010を取得する。そして、右画像領域1003と左画像領域1007の位置を入れ替える際に、取得したずれ量が維持されるように右画像領域と左画像領域を配置し、余った領域を黒などで埋めてもよい。ずれ量1005は撮影された画像の左端から右画像領域1003の左端までの距離であり、ずれ量1006は撮影された画像の中心から右画像領域1003の右端までの距離である。左右入れ替えの際には、ずれ量1005は撮影された画像の左端から左画像領域の左端までの距離となり、ずれ量1006は撮影された画像の中心から左画像領域の右端までの距離となるようにする。同様に、ずれ量1009は撮影された画像の右端から左画像領域1007の右端までの距離であり、ずれ量1010は撮影された画像の中心から左画像領域1007の左端までの距離である。左右入れ替えの際には、ずれ量1009は撮影された画像の右端から右画像領域の右端までの距離となり、ずれ量1010は撮影された画像の中心から右画像領域の左端までの距離となるようにする。 Note that the method for left and right swapping is not limited to the above method. For example, the deviation amounts 1005, 1006, 1009, and 1010 in FIG. 10(A) are acquired from the information on the binocular lens unit. Then, when exchanging the positions of the right image area 1003 and the left image area 1007, the right image area and the left image area may be arranged so that the obtained amount of deviation is maintained, and the remaining area may be filled with black or the like. . The amount of deviation 1005 is the distance from the left edge of the captured image to the left edge of the right image area 1003, and the amount of deviation 1006 is the distance from the center of the captured image to the right edge of the right image area 1003. When swapping left and right, the amount of shift 1005 is the distance from the left edge of the captured image to the left edge of the left image area, and the amount of shift 1006 is the distance from the center of the captured image to the right edge of the left image area. Make it. Similarly, the amount of shift 1009 is the distance from the right edge of the captured image to the right edge of left image area 1007, and the amount of shift 1010 is the distance from the center of the captured image to the left edge of left image area 1007. When swapping left and right, the shift amount 1009 is the distance from the right edge of the captured image to the right edge of the right image area, and the shift amount 1010 is the distance from the center of the captured image to the left edge of the right image area. Make it.

ステップS911では、制御部501は、左右入れ替え後のライブビュー画像を、表示部506に表示する。左右入れ替え後のライブビュー画像は、ステップS910で生成した処理ライブビュー画像である。 In step S911, the control unit 501 displays the live view image after the left-right swapping on the display unit 506. The live view image after the left and right swapping is the processed live view image generated in step S910.

ステップS912では、制御部501は、ステップS908で取得したライブビュー画像を、表示部506に表示する。 In step S912, the control unit 501 displays the live view image acquired in step S908 on the display unit 506.

ステップS921では、制御部501は、右画像領域と左画像領域のそれぞれにおいて白飛び領域を識別可能に表示する白飛び表示処理を行う。白飛び表示処理の詳細については、図9Bを用いて後述する。 In step S921, the control unit 501 performs blown-out highlights display processing to distinguishably display blown-out highlights in each of the right image area and the left image area. Details of the blown-out highlight display process will be described later using FIG. 9B.

上述したように、正距円筒表示を行う場合は、ステップS906からステップS913へ進む。ステップS913では、制御部501は、ステップS901で接続されたカメラにライブビュー画像要求を送信する。実施形態1では、ステップS913のライブビュー画像要求は、低解像度(通常解像度よりも低い解像度)のライブビュー画像の要求であるとする。正距円筒表示を行う場合には、正距円筒変換(円周魚眼画像から正距円筒画像への変換)が必要となり、正距円筒変換を施す画像の解像度が高いほど、正距円筒変換に要する時間が増し、正距円筒変換による遅延が増す。実施形態1では、正距円筒変換の高速
化(正距円筒変換に要する時間の短縮)のために、低解像度のライブビュー画像を要求する。なお、正距円筒変換による遅延が許容範囲内であれば、正距円筒表示を行う場合にも、通常解像度のライブビュー画像を要求してよい。
As described above, when displaying an equirectangular cylinder, the process advances from step S906 to step S913. In step S913, the control unit 501 transmits a live view image request to the camera connected in step S901. In the first embodiment, it is assumed that the live view image request in step S913 is a request for a low resolution (lower resolution than normal resolution) live view image. When performing equirectangular display, equirectangular conversion (conversion from a circumferential fisheye image to an equirectangular image) is required. , and the delay due to equirectangular transformation increases. In the first embodiment, a low-resolution live view image is requested in order to speed up equirectangular conversion (reduce the time required for equirectangular conversion). Note that as long as the delay due to equirectangular conversion is within an allowable range, a live view image of normal resolution may be requested even when equirectangular display is performed.

ステップS914では、制御部501は、ステップS901で接続されたカメラから、当該カメラが撮像したライブビュー画像と、当該カメラに装着されている2眼レンズユニットのレンズ情報とを受信する。ステップS914で受信するライブビュー画像の解像度は、低解像度である。ステップS914で受信するレンズ情報は、受信するライブビュー画像に合うように変換された情報(例えば、図8のステップS808で変換されたレンズ情報)である。なお、ステップS908で受信するライブビュー画像とレンズ情報は、ステップS809でカメラから送信されたライブビュー画像とレンズ情報である。 In step S914, the control unit 501 receives, from the camera connected in step S901, a live view image captured by the camera and lens information of the twin lens unit attached to the camera. The resolution of the live view image received in step S914 is low resolution. The lens information received in step S914 is information converted to match the received live view image (for example, the lens information converted in step S808 in FIG. 8). Note that the live view image and lens information received in step S908 are the live view image and lens information transmitted from the camera in step S809.

ステップS915では、制御部501は、左右入れ替えを行うか否かを判定する。左右入れ替えを行うと判定した場合はステップS916へ進み、そうでない場合はステップS918へ進む。ステップS915では、例えば、図12(B),(D)のチェックボックス1207がチェックされているか否かに基づいて、左右入れ替えを行うか否かを判定する。チェックボックス1207がチェックされている場合は、左右入れ替えを行うと判定し、ステップS916へ進む。チェックボックス1207がチェックされていない場合は、ステップS918へ進む。 In step S915, the control unit 501 determines whether to perform left-right swapping. If it is determined that left and right swapping is to be performed, the process advances to step S916; otherwise, the process advances to step S918. In step S915, it is determined whether or not to perform left-right swapping, for example, based on whether the checkbox 1207 in FIGS. 12(B) and 12(D) is checked. If the check box 1207 is checked, it is determined that left and right swapping is to be performed, and the process advances to step S916. If the check box 1207 is not checked, the process advances to step S918.

ステップS916では、制御部501は、ステップS914で取得したレンズ情報に基づいて、ステップS914で取得したライブビュー画像における右画像領域と左画像領域の位置を入れ替えるとともに、右画像領域と左画像領域それぞれを正距円筒画像の領域に変換する。つまり、制御部501は、左右入れ替えを行うとともに正距円筒変換を行って、処理ライブビュー画像を生成する。正距円筒変換は、地図の正距円筒図法のように、円周魚眼画像を球体と見立てて、緯線(横線)と経線(縦線)が直角に交差するように変換する変換処理である。正距円筒変換により、円形状の円周魚眼画像は、矩形状の正距円筒画像に変換される。制御部501は、ステップS914で取得したレンズ個体値に基づいて、ステップS914で取得したレンズ設計値を調整する。例えば、図7(B)のイメージサークル位置ずれに基づいて、イメージサークル位置(撮影された画像における右画像領域と左画像領域それぞれの中心座標)を調整する。レンズ個体値がレンズ設計値からの差分である場合には、レンズ設計値にレンズ個体値を加算する。レンズ個体値がレンズ設計値と同様の絶対値である場合には、レンズ設計値をレンズ個体値で置き換える。制御部501は、調整後の中心座標(左眼光学系301Lと右眼光学系301Rそれぞれの光軸中心)に基づいて、正距円筒変換のためのマップを生成する。マップは、変換後の各画素が変換前の画像内のどの位置に対応するかを示す。円周魚眼画像を正距円筒画像に変換できるだけでなく、右画像領域と左画像領域の位置を補正できるように、正距円筒変換のためのマップを生成する。調整後の中心座標を用いることにより、より高精度な正距円筒変換が可能になる。このように、制御部501は、ライブビュー画像と共に受信したレンズ情報に含まれるレンズ個体値を用いて補正したレンズ設計値に基づいてマップを生成し、当該マップに基づいて、左右入れ替えを含む正距円筒表示への変換を行ってもよい。左右入れ替えを正距円筒変換の一部として実行してもよいし、それぞれ別の処理として実行してもよい。 In step S916, the control unit 501 swaps the positions of the right image area and the left image area in the live view image acquired in step S914 based on the lens information acquired in step S914, and also switches the positions of the right image area and the left image area in the live view image acquired in step S914. Convert to the domain of an equirectangular image. That is, the control unit 501 performs left-right swapping and equirectangular cylindrical transformation to generate a processed live view image. Equirectangular conversion is a conversion process that treats a circumferential fisheye image as a sphere and converts it so that latitude lines (horizontal lines) and meridian lines (vertical lines) intersect at right angles, similar to the equirectangular projection of maps. . By equirectangular transformation, a circular circumferential fisheye image is converted into a rectangular equirectangular image. The control unit 501 adjusts the lens design value acquired in step S914 based on the lens individual value acquired in step S914. For example, the image circle position (the center coordinates of the right image area and the left image area in the photographed image) is adjusted based on the image circle position shift in FIG. 7(B). When the lens individual value is a difference from the lens design value, the lens individual value is added to the lens design value. If the lens individual value is the same absolute value as the lens design value, the lens design value is replaced with the lens individual value. The control unit 501 generates a map for equirectangular cylinder conversion based on the adjusted center coordinates (the optical axis centers of the left eye optical system 301L and the right eye optical system 301R). The map indicates to which position in the image before transformation each pixel corresponds after transformation. A map for equirectangular conversion is generated so that not only a circumferential fisheye image can be converted into an equirectangular image, but also the positions of the right image area and the left image area can be corrected. By using the adjusted center coordinates, more accurate equirectangular cylinder transformation becomes possible. In this way, the control unit 501 generates a map based on the lens design value corrected using the lens individual value included in the lens information received together with the live view image, and based on the map, performs correction including left and right swapping. Conversion to cyclocylindrical representation may also be performed. The left and right swapping may be performed as part of the equirectangular conversion, or may be performed as separate processes.

ステップS917では、制御部501は、左右入れ替えかつ正距円筒変換を行ったライブビュー画像を、表示部506に表示する。左右入れ替えかつ正距円筒変換を行ったライブビュー画像は、ステップS916で生成した処理ライブビュー画像である。 In step S917, the control unit 501 displays, on the display unit 506, the live view image that has been left and right swapped and subjected to equirectangular conversion. The live view image that has undergone left and right swapping and equirectangular conversion is the processed live view image generated in step S916.

ステップS918では、制御部501は、ステップS914で取得したライブビュー画像における右画像領域と左画像領域の位置を入れ替えずに、右画像領域と左画像領域それ
ぞれを円周魚眼画像の領域から正距円筒画像の領域に変換する。つまり、制御部501は、左右入れ替えを行わずに正距円筒変換を行って、処理ライブビュー画像を生成する。
In step S918, the control unit 501 corrects each of the right image area and the left image area from the area of the circumferential fisheye image without exchanging the positions of the right image area and the left image area in the live view image acquired in step S914. Convert to a rectangular cylinder image area. That is, the control unit 501 generates a processed live view image by performing equirectangular cylindrical transformation without performing left-right swapping.

ステップS919では、制御部501は、正距円筒変換後のライブビュー画像を、表示部506に表示する。正距円筒変換後のライブビュー画像は、ステップS918で生成した処理ライブビュー画像である。 In step S919, the control unit 501 displays the live view image after equirectangular conversion on the display unit 506. The live view image after equirectangular conversion is the processed live view image generated in step S918.

カメラ100が2眼レンズユニットに対応可能でない場合、もしくは、カメラ100に1眼レンズユニットが装着されている場合にはステップS920の処理が行われる。ステップS920では、制御部501は、1眼レンズユニットで撮像されたライブビュー画像を、表示部506に表示する。ステップS920の処理は、1眼レンズユニットで撮像したライブビュー画像をPCなどが表示する従来の処理と同様であるため、詳細な説明は省略する。ステップS920の処理が終了した場合、図9Aの処理を終了する。 If the camera 100 is not compatible with a twin lens unit, or if the camera 100 is equipped with a single lens unit, the process of step S920 is performed. In step S920, the control unit 501 displays the live view image captured by the single lens unit on the display unit 506. The process in step S920 is similar to the conventional process in which a PC or the like displays a live view image captured by a single-lens lens unit, so a detailed explanation will be omitted. When the process of step S920 is finished, the process of FIG. 9A is finished.

ステップS910、ステップS916、ステップS918のそれぞれでは、制御部501は、接続されたカメラから取得したライブビュー画像に対して画像処理を施す。ステップS910、ステップS916、ステップS918よりも後のステップS922では、制御部501は、PCライブビューを終了するか否かを判定する。そして、PCライブビューを継続する場合には、ステップS910、ステップS916、ステップS918よりも前のステップS906に処理が戻される。そのため、図9Aの動作では、ステップS910、ステップS916、ステップS918のいずれかの画像処理が繰り返し実行される可能性がある。PCライブビューを終了すると判定した場合は、図9Aの処理を終了する。 In each of step S910, step S916, and step S918, the control unit 501 performs image processing on the live view image obtained from the connected camera. In step S922 after step S910, step S916, and step S918, the control unit 501 determines whether to end the PC live view. If the PC live view is to be continued, the process returns to step S906 before steps S910, S916, and S918. Therefore, in the operation of FIG. 9A, there is a possibility that the image processing in step S910, step S916, or step S918 will be repeatedly executed. If it is determined that the PC live view should be ended, the process in FIG. 9A is ended.

そこで、制御部501は、画像処理の高速化のために、実行した画像処理に関連する情報をRAM503に記録して、次回以降の画像処理の際に利用してもよい。例えば、制御部501は、画像処理前の画素と画像処理後の画素との対応関係(画像処理マップ)を記録する。画像処理マップは、ライブビュー画像の解像度やレンズ情報に変化が無ければ、使用し続けることができる。制御部501は、ステップS910、ステップS916、ステップS918のいずれかの画像処理を実行した際に、当該画像処理の画像処理マップを記録する。そして、制御部501は、同じ画像処理を再び実行する際に、記録した画像処理マップを使って画像処理を実行する。こうすることで、画像処理を高速化することができる。 Therefore, in order to speed up the image processing, the control unit 501 may record information related to the executed image processing in the RAM 503, and use the information in the next image processing. For example, the control unit 501 records the correspondence relationship (image processing map) between pixels before image processing and pixels after image processing. The image processing map can continue to be used as long as there is no change in the resolution of the live view image or lens information. When the control unit 501 executes the image processing in step S910, step S916, or step S918, it records an image processing map of the image processing. Then, when executing the same image processing again, the control unit 501 executes the image processing using the recorded image processing map. By doing so, image processing can be speeded up.

図10(A),10(B)は、左右入れ替えの模式図である。図10(A)は、2眼レンズユニットの情報を利用しない、従来の左右入れ替えを示す。図10(B)は、2眼レンズユニットの情報を利用した、実施形態1の左右入れ替えを示す。 10(A) and 10(B) are schematic diagrams of left and right swapping. FIG. 10(A) shows conventional left-right swapping that does not use information on the binocular lens units. FIG. 10(B) shows left-right swapping in the first embodiment using information on the binocular lens units.

図10(A),10(B)に示すように、左右入れ替え前の画像1001では、円周魚眼画像の領域である右画像領域1003が左側に配置されており、円周魚眼画像の領域である左画像領域1007が右側に配置されている。 As shown in FIGS. 10(A) and 10(B), in the image 1001 before left-right swapping, the right image area 1003, which is the area of the circumferential fisheye image, is located on the left side, and the right image area 1003, which is the area of the circumferential fisheye image, is located on the left side. A left image area 1007, which is an area, is arranged on the right side.

図10(A)では、画像1001の中心座標1002で画像1001を左半分の画像領域と右半分の画像領域とに分割して、左半分の画像領域と右半分の画像領域とを入れ替える。換言すれば、左半分の画像領域を右半分の画像領域の右側に移動する。画像1011は、このような左右入れ替え後の画像である。 In FIG. 10A, the image 1001 is divided into a left half image area and a right half image area at the center coordinates 1002 of the image 1001, and the left half image area and the right half image area are exchanged. In other words, the left half image area is moved to the right side of the right half image area. Image 1011 is an image after such left and right swapping.

図10(A)では、ずれ量1006はずれ量1005よりも小さい。つまり、画像1001において、右画像領域1003は画像1001の左半分の中心から画像1001の中心に寄っている。同様に、ずれ量1010はずれ量1009よりも小さい。つまり、画像1001において、左画像領域1007は画像1001の右半分の中心から画像1001
の中心に寄っている。そのため、画像1011では、左右方向における左画像領域1007の中心座標1013が中心座標1004から距離1014もずれ、左右方向における右画像領域1003の中心座標1016が中心座標1008から距離1017もずれてしまう。
In FIG. 10(A), the amount of deviation 1006 is smaller than the amount of deviation 1005. That is, in the image 1001, the right image area 1003 is closer to the center of the image 1001 than the center of the left half of the image 1001. Similarly, the amount of deviation 1010 is smaller than the amount of deviation 1009. In other words, in image 1001, left image area 1007 extends from the center of the right half of image 1001 to image 1001.
is near the center of Therefore, in the image 1011, the center coordinates 1013 of the left image area 1007 in the left-right direction deviate from the center coordinates 1004 by a distance 1014, and the center coordinates 1016 of the right image area 1003 in the left-right direction deviate by a distance 1017 from the center coordinates 1008.

実施形態1では、レンズ情報を用いることにより、左右入れ替え後の画像1037(図10(B))において、左右方向における左画像領域の中心を中心座標1004に一致させ、左右方向における右画像領域の中心を中心座標1008に一致させることができる。 In the first embodiment, by using lens information, in the image 1037 (FIG. 10B) after left-right swapping, the center of the left image area in the left-right direction is made to match the center coordinates 1004, and the center of the right image area in the left-right direction is The center can be made to coincide with center coordinates 1008.

図9Bは、図9AのステップS921で制御部501が行う白飛び表示処理の一例を示すフローチャートである。図9Bの白飛び表示処理では、右画像領域と左画像領域のそれぞれにおいて白飛び領域を識別可能に表示し、右画像領域における白飛び領域の面積と左画像領域における白飛び領域の面積との差(絶対値)が閾値よりも大きい場合に所定の通知(警告)を行う。なお、実施形態1では、表示部506での表示によって所定の通知が行われる例を説明するが、音声出力やランプ点灯など、表示とは異なる方法で所定の通知が行われてもよい。 FIG. 9B is a flowchart illustrating an example of blown-out highlight display processing performed by the control unit 501 in step S921 of FIG. 9A. In the blown-out highlight display process of FIG. 9B, the blown-out highlights are displayed in a distinguishable manner in each of the right image area and the left image area, and the area of the blown-out highlights in the right image area and the area of the blown-out highlights in the left image area are A predetermined notification (warning) is issued when the difference (absolute value) is larger than the threshold value. In the first embodiment, an example will be described in which a predetermined notification is given by displaying on the display unit 506, but the predetermined notification may be given by a method different from the display, such as by outputting audio or lighting a lamp.

ステップS923では、制御部501は、接続されたカメラから取得したレンズ情報に基づいて、接続されたカメラから取得したライブビュー画像における右画像領域(有効領域)と左画像領域(有効領域)を判断する。例えば、左眼光学系301Lの光軸中心座標(イメージサークル位置)に基づく座標を中心とし、左眼光学系301Lのイメージサークル直径に基づく直径を有する領域を、左画像領域として判断する。同様に、右眼光学系301Rの光軸中心座標(イメージサークル位置)に基づく座標を中心とし、右眼光学系301Rのイメージサークル直径に基づく直径を有する領域を、右画像領域として判断する。ステップS916と同様に、イメージサークル位置などの調整が行われてもよい。 In step S923, the control unit 501 determines the right image area (effective area) and left image area (effective area) in the live view image obtained from the connected camera, based on the lens information obtained from the connected camera. do. For example, an area centered on the coordinates based on the optical axis center coordinates (image circle position) of the left eye optical system 301L and having a diameter based on the image circle diameter of the left eye optical system 301L is determined as the left image area. Similarly, an area centered on the coordinates based on the optical axis center coordinates (image circle position) of the right eye optical system 301R and having a diameter based on the image circle diameter of the right eye optical system 301R is determined as the right image area. Similar to step S916, adjustment of the image circle position, etc. may be performed.

レンズユニットと撮影設定との組み合わせによっては、右画像領域と左画像領域とのそれぞれに、それらに基づく立体視に不要な領域(立体視に使えない領域)が存在することがある。例えば、右画像領域には存在するが左画像領域には存在しない撮影範囲の領域や、左画像領域には存在するが右画像領域には存在しない撮影範囲の領域が存在することがある。そのような場合に、ステップS923では、左画像領域から立体視に不要な領域を除いた領域を、左画像領域(有効領域)として判断してもよい。同様に、右画像領域から立体視に不要な領域を除いた領域を、右画像領域(有効領域)として判断してもよい。 Depending on the combination of the lens unit and the shooting settings, there may be an area in each of the right image area and the left image area that is unnecessary for stereoscopic viewing based on them (area that cannot be used for stereoscopic viewing). For example, there may be a shooting range area that exists in the right image area but not the left image area, or a shooting range area that exists in the left image area but not in the right image area. In such a case, in step S923, an area obtained by removing an area unnecessary for stereoscopic viewing from the left image area may be determined as the left image area (effective area). Similarly, an area obtained by removing an area unnecessary for stereoscopic viewing from the right image area may be determined as the right image area (effective area).

フルサイズ対応レンズユニットの一種であるDCI画角の2眼レンズユニットを用いてUHDの画像を撮影する場合には、図11に示すように、左右両端が欠けた画像1101が撮影(記録)される。フルサイズ対応レンズユニットを用いてAPS-CやSuper35の画像を撮影する場合も、左右両端が欠けた画像が撮影(記録)される。そして、画像1101は、左右入れ替えによって画像1137となる。画像1137における領域1109,1110は、撮影されているがHMDなどでの立体視には使えない領域であるため、有効領域から除外する。領域1109,1110を除外すると、画像1137における左画像領域(有効領域)は領域1107となり、画像1137における右画像領域(有効領域)は領域1103となる。なお、領域1109,1110は残しておいてもよいし、そうでなくてもよい。例えば、左右入れ替え時などの所定のタイミングで領域1109,1110を黒領域などに変換してもよい。左右入れ替え後の画像サイズが、左右入れ替え前の画像サイズと一致するように、画像1037から、領域1109を含む領域1111と、領域1110を含む領域1112とを除いてもよい。 When capturing a UHD image using a twin-lens lens unit with a DCI angle of view, which is a type of full-frame compatible lens unit, an image 1101 with both left and right ends missing is captured (recorded) as shown in FIG. Ru. Even when capturing an APS-C or Super35 image using a full-frame compatible lens unit, the image is captured (recorded) with both left and right edges missing. Then, the image 1101 becomes an image 1137 by transposing the left and right sides. Regions 1109 and 1110 in image 1137 are photographed but cannot be used for stereoscopic viewing on an HMD or the like, and therefore are excluded from the effective region. When areas 1109 and 1110 are excluded, the left image area (effective area) in image 1137 becomes area 1107, and the right image area (effective area) in image 1137 becomes area 1103. Note that the regions 1109 and 1110 may or may not be left. For example, the areas 1109 and 1110 may be converted into black areas at a predetermined timing such as when the left and right sides are swapped. The area 1111 including the area 1109 and the area 1112 including the area 1110 may be removed from the image 1037 so that the image size after the left-right swap matches the image size before the left-right swap.

制御部501は、例えば、接続されたカメラから取得したレンズ設計値(レンズユニットの画角)と撮影設定に基づいて、接続されたカメラから取得したライブビュー画像の左
右両端が欠けているか否かを判定したり、立体視に不要な領域を判断したりできる。
For example, the control unit 501 determines whether both left and right ends of the live view image obtained from the connected camera are missing, based on the lens design value (angle of view of the lens unit) and shooting settings obtained from the connected camera. It is possible to determine areas that are unnecessary for stereoscopic viewing.

ステップS924では、制御部501は、ステップS923で判断した右画像領域と左画像領域のそれぞれについて、各画素が輝度値が飽和した画素(飽和画素;白飛び画素)であるか否かを示す輝度飽和マップを作成する。 In step S924, the control unit 501 controls the brightness value indicating whether each pixel is a pixel with a saturated brightness value (saturated pixel; blown-out highlight pixel) for each of the right image area and left image area determined in step S923. Create a saturation map.

ステップS925では、制御部501は、ステップS924で作成した輝度飽和マップを用いて、右画像領域と左画像領域の少なくとも一方に白飛び画素が存在するか否かを判定する。白飛び画素が存在すると判定した場合はステップS926へ進み、そうでない場合は図9Bの処理を終了してステップS922へ進む。 In step S925, the control unit 501 uses the brightness saturation map created in step S924 to determine whether a blown-out highlight pixel exists in at least one of the right image area and the left image area. If it is determined that a blown-out highlight pixel exists, the process advances to step S926; otherwise, the process in FIG. 9B is ended and the process advances to step S922.

ステップS926では、制御部501は、ステップS924で作成した輝度飽和マップを用いて、表示部506に表示されたライブビュー画像の右画像領域や左画像領域における白飛び画素に対し、ゼブラパターンなどの所定のグラフィックを重畳表示する。 In step S926, the control unit 501 uses the brightness saturation map created in step S924 to apply a zebra pattern or the like to overexposed pixels in the right image area and left image area of the live view image displayed on the display unit 506. A predetermined graphic is displayed in a superimposed manner.

ステップS927では、制御部501は、ステップS924で作成した輝度飽和マップを用いて、白飛び画素からなる白飛び領域が設定されるように、右画像領域や左画像領域における白飛び画素のクラスタリングを行う。 In step S927, the control unit 501 uses the brightness saturation map created in step S924 to perform clustering of the blown-out highlights in the right image area and the left image area so that a blown-out area consisting of blown-out highlights is set. conduct.

ステップS924~S927の処理により、ステップS923で判断された右画像領域と左画像領域のそれぞれから白飛び領域が検出され、検出された白飛び領域が識別可能に表示される。 Through the processing in steps S924 to S927, blown-out highlights are detected from each of the right image area and the left image area determined in step S923, and the detected blown-out highlights are displayed so that they can be identified.

ステップS928では、制御部501は、ステップS927で設定した白飛び領域の中心座標と面積(例えば画素数)を算出する。 In step S928, the control unit 501 calculates the center coordinates and area (for example, number of pixels) of the overexposed area set in step S927.

ステップS929では、制御部501は、右画像領域における白飛び領域と、左画像領域における白飛び領域との対応付けを行う。右画像領域と左画像領域は略同一の画像の領域であるため、右画像領域に対する白飛び領域の相対位置と、左画像領域に対する白飛び領域の相対位置とが略同一になると考えられる。そこで、ステップS927で設定した全ての白飛び領域から、右画像領域に対する白飛び領域の相対位置と、左画像領域に対する白飛び領域の相対位置とが略同一の2つの白飛び領域を探索し、当該2つの白飛び領域を対応付ける。2つの白飛び領域の中心座標間の距離が閾値th_d以上である場合には、当該2つの白飛び領域は対応付けない。閾値th_dは白飛び領域の面積に基づいて決定してもよい。例えば、閾値th_dは白飛び領域の面積と有効領域の面積との比率を考慮して決定してもよい。具体的には、比率(白飛び領域の面積/有効領域の面積)が大きくなるほど閾値th_dを大きくする。ここで、左画像領域における白飛び領域の総面積が面積S_WLであり、右画像領域における白飛び領域の総面積が面積S_WRであり、左画像領域の面積が面積S_Lであり、右画像領域の面積が面積S_Rであるとする。閾値th_dは、面積S_WLまたは面積S_WRと、面積S_Lまたは面積S_Rとの比率を考慮して決定してもよい。閾値th_dは、面積S_WL+S_WRと面積S_L+S_Rとの比率を考慮して決定してもよい。 In step S929, the control unit 501 associates the blown-out highlights area in the right image area with the blown-out highlights area in the left image area. Since the right image area and the left image area are substantially the same image area, it is considered that the relative position of the blown-out highlight area with respect to the right image area and the relative position of the blown-out highlight area with respect to the left image area are approximately the same. Therefore, from all the blown-out areas set in step S927, two blown-out areas where the relative position of the blown-out area with respect to the right image area and the relative position of the blown-out highlight area with respect to the left image area are approximately the same are searched, The two blown-out highlights areas are associated with each other. If the distance between the center coordinates of two blown-out highlights is equal to or greater than the threshold th_d, the two blown-out highlights are not associated with each other. The threshold value th_d may be determined based on the area of the blown-out highlight area. For example, the threshold value th_d may be determined by considering the ratio of the area of the blown-out area to the area of the effective area. Specifically, the threshold value th_d is increased as the ratio (area of overexposed area/area of effective area) increases. Here, the total area of the blown-out highlights in the left image area is the area S_WL, the total area of the blown-out highlights in the right image area is the area S_WR, the area of the left image area is the area S_L, and the area of the right image area is the area S_WR. Assume that the area is area S_R. The threshold th_d may be determined by considering the ratio of the area S_WL or the area S_WR and the area S_L or the area S_R. The threshold value th_d may be determined by considering the ratio of the area S_WL+S_WR and the area S_L+S_R.

図13,14(A),14(B)を用いて具体例を説明する。図13は、クラスタリングされた輝度飽和マップの一例を示す模式図である。図13の輝度飽和マップは、白飛び領域を示す。図14(A),14(B)は、図13の輝度飽和マップが示す白飛び領域の中心座標と面積を示す表である。図14(A)は、左画像領域における白飛び領域の中心座標と面積の一例を示す表であり、図14(A)が示す中心座標は、左画像領域の左上隅を原点とした座標である。図14(B)は、右画像領域における白飛び領域の中心座標と面積の一例を示す表であり、図14(B)が示す中心座標は、右画像領域の左上隅を原点
とした座標である。
A specific example will be described using FIGS. 13, 14(A), and 14(B). FIG. 13 is a schematic diagram showing an example of a clustered brightness saturation map. The brightness saturation map in FIG. 13 shows overexposed areas. 14(A) and 14(B) are tables showing the center coordinates and area of the overexposed area shown in the brightness saturation map of FIG. 13. FIG. 14(A) is a table showing an example of the center coordinates and area of the overexposed area in the left image area. The center coordinates shown in FIG. 14(A) are coordinates with the upper left corner of the left image area as the origin. be. FIG. 14(B) is a table showing an example of the center coordinates and area of a blown-out highlight area in the right image area. The center coordinates shown in FIG. 14(B) are coordinates with the upper left corner of the right image area as the origin. be.

左画像領域1301Aには、白飛び領域1302,1303A,1304Aが存在し、右画像領域1301Bには、白飛び領域1303B,1304Bが存在する。制御部501は、左画像領域における白飛び領域の中心座標と、右画像領域における白飛び領域の中心座標との差が最小となる2つの白飛び領域を探索する処理を繰り返す。初めに、制御部501は、白飛び領域1303Aと白飛び領域1303Bを選択する。白飛び領域1303Aの中心座標と白飛び領域1303Bの中心座標との差(距離)は閾値th_d未満であるとする。そのため、制御部501は、白飛び領域1303Aと白飛び領域1303Bを対応付ける。次に、制御部501は、白飛び領域1303Aと白飛び領域1303Bを除いて探索を行い、白飛び領域1304Aと白飛び領域1304Bを選択する。白飛び領域1304Aの中心座標と白飛び領域1304Bの中心座標との差(距離)は閾値th_d以上であるとする。そのため、制御部501は、白飛び領域1304Aと白飛び領域1304Bは対応付けない。余った白飛び領域1302も他の領域へ対応付けない。 The left image area 1301A includes blown-out highlights areas 1302, 1303A, and 1304A, and the right image area 1301B includes blown-out highlights areas 1303B and 1304B. The control unit 501 repeats the process of searching for two highlight areas in which the difference between the center coordinates of the highlight area in the left image area and the center coordinates of the highlight area in the right image area is the smallest. First, the control unit 501 selects the blown-out highlight area 1303A and the blown-out highlight area 1303B. It is assumed that the difference (distance) between the center coordinates of the blown-out highlight area 1303A and the center coordinates of the blown-out highlight area 1303B is less than the threshold value th_d. Therefore, the control unit 501 associates the blown-out highlight area 1303A with the blown-out highlight area 1303B. Next, the control unit 501 performs a search excluding the blown-out highlight area 1303A and the blown-out highlight area 1303B, and selects the blown-out highlight area 1304A and the blown-out highlight area 1304B. It is assumed that the difference (distance) between the center coordinates of the blown-out highlight area 1304A and the center coordinates of the blown-out highlight area 1304B is greater than or equal to the threshold value th_d. Therefore, the control unit 501 does not associate the blown-out highlight area 1304A with the blown-out highlight area 1304B. The remaining overexposed area 1302 is also not associated with other areas.

ステップS930では、制御部501は、ステップS929で対応付けた2つの白飛び領域(白飛びペア)の面積の差(絶対値)を計算し、当該差が閾値th_a以上であるか否かを判定する。閾値th_aは白飛び領域の面積に基づいて決定してもよい。例えば、閾値th_aは白飛び領域の面積と有効領域の面積との比率を考慮して決定してもよい。具体的には、比率(白飛び領域の面積/有効領域の面積)が大きくなるほど閾値th_aを大きくする。ここで、左画像領域における白飛び領域の総面積が面積S_WLであり、右画像領域における白飛び領域の総面積が面積S_WRであり、左画像領域の面積が面積S_Lであり、右画像領域の面積が面積S_Rであるとする。閾値th_aは、面積S_WLまたは面積S_WRと、面積S_Lまたは面積S_Rとの比率を考慮して決定してもよい。閾値th_aは、面積S_WL+S_WRと面積S_L+S_Rとの比率を考慮して決定してもよい。2つの白飛び領域の面積の差が閾値th_a以上であると判定した場合はステップS931へ進み、そうでない場合はステップS932へ進む。 In step S930, the control unit 501 calculates the difference (absolute value) between the areas of the two blown-out areas (over-exposed highlights pair) associated in step S929, and determines whether the difference is greater than or equal to the threshold th_a. do. The threshold value th_a may be determined based on the area of the blown-out highlight area. For example, the threshold value th_a may be determined by considering the ratio between the area of the blown-out area and the area of the effective area. Specifically, the threshold value th_a is increased as the ratio (area of blown-out area/area of effective area) increases. Here, the total area of the blown-out highlights in the left image area is the area S_WL, the total area of the blown-out highlights in the right image area is the area S_WR, the area of the left image area is the area S_L, and the area of the right image area is the area S_WR. Assume that the area is area S_R. The threshold th_a may be determined by considering the ratio of the area S_WL or the area S_WR and the area S_L or the area S_R. The threshold value th_a may be determined by considering the ratio of the area S_WL+S_WR and the area S_L+S_R. If it is determined that the difference in area between the two blown-out areas is greater than or equal to the threshold th_a, the process advances to step S931; otherwise, the process advances to step S932.

ステップS931では、制御部501は、白飛びペアを警告対象に設定する。 In step S931, the control unit 501 sets the whiteout pair as a warning target.

ステップS932では、制御部501は、全ての白飛びペアに対してステップS930の判定を行ったか否かを判定する。全ての白飛びペアに対してステップS930の判定を行ったと判定した場合はステップS933へ進み、そうでない場合はステップS930へ進む。 In step S932, the control unit 501 determines whether or not the determination in step S930 has been performed for all whiteout pairs. If it is determined that the determination in step S930 has been performed on all the whiteout pairs, the process advances to step S933, and if not, the process advances to step S930.

ステップS933では、制御部501は、ステップS929で対応付けられなかった全ての白飛び領域を警告対象に設定する。このため、右画像領域と左画像領域の一方のみから白飛び領域が検出された場合にも、警告(所定の通知)が行われることとなる。 In step S933, the control unit 501 sets all overexposure areas that were not associated in step S929 as warning targets. Therefore, even if a blown-out highlight area is detected from only one of the right image area and the left image area, a warning (predetermined notification) will be issued.

ステップS934では、制御部501は、警告対象の白飛び領域が設定されているか否かを判定する。警告対象の白飛び領域が設定されていると判定した場合はステップS935へ進み、そうでない場合は図9Bの処理を終了してステップS922へ進む。 In step S934, the control unit 501 determines whether a blown-out highlight area to be warned is set. If it is determined that a warning target overexposure area has been set, the process advances to step S935; otherwise, the process in FIG. 9B is ended and the process advances to step S922.

ステップS935では、制御部501は、警告対象の白飛び領域を強調表示する。例えば、警告対象の白飛び領域を囲む枠を表示する。 In step S935, the control unit 501 highlights the overexposed area to be warned. For example, a frame surrounding the blown-out highlight area to be warned is displayed.

ステップS936では、制御部501は、左画像領域の白飛びと右画像領域の白飛びとの差の解消するような撮影条件の変更をユーザに促す警告メッセージ(テキスト)を表示部506に表示する。 In step S936, the control unit 501 displays on the display unit 506 a warning message (text) urging the user to change the shooting conditions to eliminate the difference between the overexposure in the left image area and the overexposure in the right image area. .

図12(A)~12(D)は、制御部501が表示部506に表示するアプリケーション画面における表示(PCライブビューの表示)の一例を示す模式図である。画面1200は、アプリケーション画面(リモートライブビュー画面)である。画面1200は、ライブビュー表示領域1201、ガイド表示領域1202、ガイド表示領域1203、操作領域1204、終了ボタン1208を含む。 12(A) to 12(D) are schematic diagrams showing an example of a display (PC live view display) on an application screen displayed by the control unit 501 on the display unit 506. Screen 1200 is an application screen (remote live view screen). Screen 1200 includes a live view display area 1201, a guide display area 1202, a guide display area 1203, an operation area 1204, and an end button 1208.

ライブビュー表示領域1201は、ライブビュー画像を表示する領域である。ライブビュー表示領域1201は、左側の表示領域1201Aと、右側の表示領域1201Bとから成る。ガイド表示領域1202は、左側の表示領域1201Aに表示された画像が2眼レンズユニットの2つの光学系(左眼光学系301Lと右眼光学系301R)のどちらの画像であるかの文字列を表示する領域である。ガイド表示領域1203は、右側の表示領域1201Bに表示された画像が2眼レンズユニットの2つの光学系(左眼光学系301Lと右眼光学系301R)のどちらの画像であるかの文字列を表示する領域である。操作領域1204は、PCライブビューに関する操作を受け付けるための領域であり、操作領域1204には、ラジオボタン1205,1206とチェックボックス1207が表示される。ラジオボタン1205は、円周魚眼表示を行う際に選択されるラジオボタンであり、ラジオボタン1206は、正距円筒表示を行う際に選択されるラジオボタンである。ラジオボタン1205が選択状態の場合、ラジオボタン1206は非選択状態となり、ラジオボタン1205が非選択状態の場合、ラジオボタン1206は選択状態となる。チェックボックス1207は、左右入れ替えを行う際にチェックされるチェックボックスである。チェックボックス1207が操作されると、ライブビュー画像における右画像領域(右眼映像の領域;右眼映像領域)と左画像領域(左眼映像領域;左眼映像領域)との位置が入れ替わり、ガイド表示領域1202,1203に表示する文字列も入れ替わる。終了ボタン1208は、PCライブビューを終了するためのボタンである。 Live view display area 1201 is an area where live view images are displayed. The live view display area 1201 consists of a left display area 1201A and a right display area 1201B. The guide display area 1202 contains a character string indicating which of the two optical systems (left eye optical system 301L and right eye optical system 301R) of the binocular lens unit the image displayed in the left display area 1201A is. This is the area to display. The guide display area 1203 contains a character string indicating which of the two optical systems (left eye optical system 301L and right eye optical system 301R) of the binocular lens unit the image displayed in the right display area 1201B is. This is the area to display. The operation area 1204 is an area for accepting operations related to PC live view, and radio buttons 1205 and 1206 and a check box 1207 are displayed in the operation area 1204. Radio button 1205 is a radio button selected when performing circumferential fisheye display, and radio button 1206 is a radio button selected when performing equirectangular cylinder display. When radio button 1205 is in a selected state, radio button 1206 is in a non-selected state, and when radio button 1205 is in a non-selected state, radio button 1206 is in a selected state. Checkbox 1207 is a checkbox that is checked when performing left-right swapping. When check box 1207 is operated, the positions of the right image area (right eye image area; right eye image area) and the left image area (left eye image area; left eye image area) in the live view image are swapped, and the guide The character strings displayed in display areas 1202 and 1203 are also replaced. The end button 1208 is a button for ending PC live view.

グラフィック1209Aは、表示領域1201Aに表示された画像における白飛び領域に重畳されたグラフィック(ゼブラパターンなど)である。グラフィック1209Bは、表示領域1201Bに表示された画像における白飛び領域を示すグラフィック(ゼブラパターンなど)である。実施形態1では、グラフィック1209Aの面積とグラフィック1209Bの面積との差(白飛びの差)が閾値以上の場合に、グラフィック1209Aを囲む枠1210Aと、グラフィック1209Bを囲む枠1210Bとが表示される。こうすることで、ユーザは、表示領域1201Aに表示された画像の白飛びと、表示領域1201Bに表示された画像の白飛びとに違いがあることを容易に知ることができる。グラフィック1209Aの面積とグラフィック1209Bの面積との差(白飛びの差)が閾値以上の場合には、さらに、その差を解消するような撮影条件の変更をユーザに促す警告メッセージ1211が表示される。こうすることで、ユーザは、白飛びの差を解消するための方法を容易に知ることができる。 The graphic 1209A is a graphic (such as a zebra pattern) superimposed on the overexposed area of the image displayed in the display area 1201A. A graphic 1209B is a graphic (such as a zebra pattern) indicating a blown-out highlight area in the image displayed in the display area 1201B. In the first embodiment, when the difference between the area of the graphic 1209A and the area of the graphic 1209B (difference in overexposure) is equal to or greater than a threshold value, a frame 1210A surrounding the graphic 1209A and a frame 1210B surrounding the graphic 1209B are displayed. By doing so, the user can easily know that there is a difference between the blown-out highlights of the image displayed in the display area 1201A and the blown-out highlights of the image displayed in the display area 1201B. If the difference between the area of the graphic 1209A and the area of the graphic 1209B (difference in overexposure) is greater than or equal to the threshold, a warning message 1211 is further displayed prompting the user to change the shooting conditions to eliminate the difference. . In this way, the user can easily learn how to eliminate the difference in overexposure.

なお、グラフィック1209Aの面積とグラフィック1209Bの面積との差(白飛びの差)が閾値以上である場合と、そうでない場合とで、グラフィック1209A,1209B(白飛び領域)の模様や色などの態様を異ならせてもよい。グラフィック1209Aの面積とグラフィック1209Bの面積との差(白飛びの差)が閾値以上である場合には、グラフィック1209A,1209Bの態様を、そうでない場合よりも強調された態様にしてもよい。 Note that the pattern, color, and other aspects of the graphics 1209A and 1209B (overexposure areas) differ depending on whether the difference between the area of the graphic 1209A and the area of the graphic 1209B (difference in overexposure) is equal to or greater than the threshold value. may be different. If the difference between the area of the graphic 1209A and the area of the graphic 1209B (difference in overexposure) is equal to or greater than a threshold value, the aspect of the graphics 1209A and 1209B may be made more emphasized than in other cases.

図12(a)では、円周魚眼表示を行うためのラジオボタン1205が選択されている。左右入れ替えを行うチェックボックス1207はチェックされていない。そのため、カメラから取得したライブビュー画像が、ライブビュー表示領域1201にそのまま表示される。具体的には、左側の表示領域1201Aに、円周魚眼画像である右眼映像が表示され、右側の表示領域1201Bに、円周魚眼画像である左眼映像が表示される。 In FIG. 12(a), a radio button 1205 for performing circumferential fisheye display is selected. The check box 1207 for performing left and right swapping is not checked. Therefore, the live view image acquired from the camera is displayed as is in the live view display area 1201. Specifically, a right-eye video, which is a circular fisheye image, is displayed in the left display area 1201A, and a left-eye video, which is a circular fisheye image, is displayed in the right display area 1201B.

図12(b)では、正距円筒表示を行うためのラジオボタン1206が選択されている。左右入れ替えを行うチェックボックス1207はチェックされていない。そのため、カメラから取得したライブビュー画像における右眼映像領域と左眼映像領域(いずれも円周魚眼画像の領域)それぞれが正距円筒画像の領域に変換される(左右入れ替えは行われない)。そして、正距円筒変換後のライブビュー画像がライブビュー表示領域1201に表示される。具体的には、左側の表示領域1201Aに、正距円筒画像である右眼映像が表示され、右側の表示領域1201Bに、正距円筒画像である左眼映像が表示される。 In FIG. 12(b), a radio button 1206 for displaying an equirectangular cylinder is selected. The check box 1207 for performing left and right swapping is not checked. Therefore, the right-eye image area and left-eye image area (both circumferential fisheye image areas) in the live view image acquired from the camera are converted into equirectangular image areas (left and right swapping is not performed). . Then, the live view image after equirectangular conversion is displayed in the live view display area 1201. Specifically, the left-hand display area 1201A displays a right-eye image that is an equirectangular image, and the right-hand display area 1201B displays a left-eye image that is an equirectangular image.

図12(c)では、円周魚眼表示を行うためのラジオボタン1205が選択されており、左右入れ替えを行うチェックボックス1207がチェックされている。そのため、カメラから取得したライブビュー画像における右眼映像領域と左眼映像領域の位置が入れ替えられる。そして、左右入れ替え後のライブビュー画像がライブビュー表示領域1201に表示される。具体的には、左側の表示領域1201Aに、円周魚眼画像である左眼映像が表示され、右側の表示領域1201Bに、円周魚眼画像である右眼映像が表示される。 In FIG. 12C, a radio button 1205 for performing circumferential fisheye display is selected, and a check box 1207 for performing left-right swapping is checked. Therefore, the positions of the right-eye image area and the left-eye image area in the live view image acquired from the camera are swapped. Then, the live view image after the left and right swapping is displayed in the live view display area 1201. Specifically, a left-eye video, which is a circular fisheye image, is displayed in the left display area 1201A, and a right-eye video, which is a circular fisheye image, is displayed in the right display area 1201B.

図12(d)では、正距円筒表示を行うためのラジオボタン1206が選択されており、左右入れ替えを行うチェックボックス1207がチェックされている。そのため、カメラから取得したライブビュー画像における右眼映像領域と左眼映像領域の位置が入れ替えられるとともに、右眼映像領域と左眼映像領域(いずれも円周魚眼画像の領域)それぞれが正距円筒画像に変換される。そして、左右入れ替えと正距円筒変換を行った後のライブビュー画像が、ライブビュー表示領域1201に表示される。具体的には、左側の表示領域1201Aに、正距円筒画像である左眼映像が表示され、右側の表示領域1201Bに、正距円筒画像である右眼映像が表示される。 In FIG. 12(d), a radio button 1206 for displaying an equirectangular cylinder is selected, and a check box 1207 for swapping left and right is checked. Therefore, the positions of the right-eye image area and the left-eye image area in the live view image acquired from the camera are swapped, and the right-eye image area and left-eye image area (both areas of the circular fisheye image) are equidistant. Converted to a cylindrical image. Then, the live view image after performing left-right swapping and equirectangular conversion is displayed in the live view display area 1201. Specifically, a left-eye image that is an equirectangular image is displayed in the left display area 1201A, and a right-eye image that is an equirectangular image is displayed in the right display area 1201B.

図15は、実施形態1の正距円筒変換を示す模式図である。図15に示すように、正距円筒変換前の画像1501では、円周魚眼画像の領域である右画像領域1502が左側に配置されており、円周魚眼画像の領域である左画像領域1505が右側に配置されている。画像1508は、正距円筒変換後の画像であり、正距円筒画像の領域である画像領域1509,1510を含む。実施形態1では、矢印1511,1512に示すような対応付けがされるように、正距円筒変換のマップが生成される。実施形態1のマップでは、左側に配置された画像領域1509(正距円筒画像の領域)の各画素が、右側に配置された左画像領域1505(円周魚眼画像の領域)内の各位置に対応付けられる。そして、右側に配置された画像領域1510(正距円筒画像の領域)の各画素が、左側に配置された右画像領域1502(円周魚眼画像の領域)内の位置に対応付けられる。このようなマップを用いることで、右側に配置された左画像領域1505(円周魚眼画像の領域)が、左側に配置された画像領域1509(正距円筒画像の領域)に変換される。つまり、左側の画像領域1509として、正距円筒画像の領域である左画像領域が設定される。そして、左側に配置された右画像領域1502(円周魚眼画像の領域)が、右側に配置された画像領域1510(正距円筒画像の領域)に変換される。つまり、右側の画像領域1510として、正距円筒画像の領域である右画像領域が設定される。こうして、円周魚眼画像の領域が正距円筒画像の領域に変換されるだけでなく、右画像領域と左画像領域の位置が入れ替えられ、右画像領域と左画像領域の位置関係を2つの光学系(右眼光学系301Rと左眼光学系301L)の位置関係に合わせることができる。 FIG. 15 is a schematic diagram showing equirectangular cylinder transformation according to the first embodiment. As shown in FIG. 15, in an image 1501 before equirectangular conversion, a right image area 1502 which is a circumferential fisheye image area is located on the left side, and a left image area which is a circumferential fisheye image area. 1505 is placed on the right side. Image 1508 is an image after equirectangular conversion, and includes image regions 1509 and 1510 that are equirectangular image regions. In the first embodiment, a map of equirectangular cylindrical transformation is generated so that the correspondences shown by arrows 1511 and 1512 are established. In the map of the first embodiment, each pixel in the image area 1509 (region of equirectangular image) placed on the left corresponds to each pixel in the left image area 1505 (region of circumferential fisheye image) placed on the right. can be mapped to. Each pixel in the image area 1510 (region of the equirectangular image) placed on the right side is associated with a position in the right image area 1502 (region of the circumferential fisheye image) placed on the left side. By using such a map, the left image area 1505 (circumferential fisheye image area) placed on the right side is converted into the image area 1509 (equirectangular image area) placed on the left side. That is, the left image area, which is an equirectangular image area, is set as the left image area 1509. Then, the right image area 1502 (circular fisheye image area) placed on the left side is converted into an image area 1510 (equirectangular image area) placed on the right side. That is, the right image area, which is an equirectangular image area, is set as the right image area 1510. In this way, not only the area of the circumferential fisheye image is converted into the area of the equirectangular image, but also the positions of the right and left image areas are swapped, and the positional relationship between the right and left image areas is changed into two. It can be adjusted to the positional relationship of the optical systems (right eye optical system 301R and left eye optical system 301L).

実施形態1によれば、2眼レンズユニットを使った撮影時に、左右画像領域の白飛びの違いがPCの表示装置で確認しやすくなる。これにより、意図しない白飛びがあることや、適切な撮影のためにどのような対応が必要かなどを、ユーザは容易に知ることができる。 According to the first embodiment, when photographing using a twin-lens unit, it becomes easier to check the difference in overexposure between the left and right image areas on a display device of a PC. This allows the user to easily know that there is unintended overexposure and what countermeasures are required for appropriate photography.

<実施形態2>
実施形態1では、2眼レンズユニットを使った撮影時の白飛びに関する警告表示をカメラに接続されたPCの表示装置で行う例について説明した。実施形態2では、カメラの表示装置で警告表示を行う例について説明する。
<Embodiment 2>
In the first embodiment, an example has been described in which a warning display regarding overexposure during shooting using a twin lens unit is displayed on a display device of a PC connected to a camera. In the second embodiment, an example will be described in which a warning is displayed on a display device of a camera.

図16Aは、撮影モード時におけるカメラ100の動作(撮影モード処理)の一例を示すフローチャートである。この動作は、システム制御部50が不揮発性メモリ219に記録されたプログラムをシステムメモリ218に展開して実行することにより実現される。例えば、撮影モードでカメラ100が起動したり、カメラ100のモードが撮影モードに切り替えられたりすると、図16Aの動作が開始する。 FIG. 16A is a flowchart illustrating an example of the operation of the camera 100 in the shooting mode (shooting mode processing). This operation is realized by the system control unit 50 loading the program recorded in the nonvolatile memory 219 into the system memory 218 and executing it. For example, when the camera 100 is activated in the shooting mode or the mode of the camera 100 is switched to the shooting mode, the operation shown in FIG. 16A starts.

ステップS1601では、システム制御部50は、カメラ100が2眼レンズユニット(例えばレンズユニット300)に対応しているか否かを判定する。2眼レンズユニットに対応していると判定した場合はステップS1602へ進み、そうでない場合はステップS1615へ進む。ステップS1601の処理は、図8のステップS801の処理と同じである。 In step S1601, the system control unit 50 determines whether the camera 100 is compatible with a twin lens unit (for example, the lens unit 300). If it is determined that it is compatible with a binocular lens unit, the process advances to step S1602; otherwise, the process advances to step S1615. The process in step S1601 is the same as the process in step S801 in FIG.

ステップS1602では、システム制御部50は、2眼レンズユニットがカメラ100に装着されているか否かを判定する。2眼レンズユニットが装着されていると判定した場合はステップS1603へ進み、そうでない場合はステップS1615へ進む。ステップS1602の処理は、図8のステップS802の処理と同じである。 In step S1602, the system control unit 50 determines whether a twin lens unit is attached to the camera 100. If it is determined that the binocular lens unit is attached, the process advances to step S1603; otherwise, the process advances to step S1615. The process in step S1602 is the same as the process in step S802 in FIG.

ステップS1603では、システム制御部50は、装着(接続)されている2眼レンズユニットから、当該2眼レンズユニットの設計値を取得する。ステップS1604では、システム制御部50は、装着(接続)されている2眼レンズユニットから、当該2眼レンズユニットの個体値を取得する。ステップS1603,S1604の処理は、図8のステップS803,S804の処理と同じである。 In step S1603, the system control unit 50 acquires the design value of the binocular lens unit that is attached (connected). In step S1604, the system control unit 50 acquires the individual value of the binocular lens unit that is attached (connected) to the binocular lens unit. The processing in steps S1603 and S1604 is the same as the processing in steps S803 and S804 in FIG.

ステップS1605では、システム制御部50は、撮像部211から画像を取得する。 In step S1605, the system control unit 50 acquires an image from the imaging unit 211.

ステップS1606では、システム制御部50は、ステップS1605で取得した画像をEVF217もしくは表示部108に表示する(ライブビュー表示処理)。実施形態2は、ライブビュー表示処理は、右画像領域と左画像領域のそれぞれにおいて白飛び領域を識別可能に表示する白飛び表示処理を含む。白飛び表示処理を含んだライブビュー表示処理の詳細については、図16Bを用いて後述する。 In step S1606, the system control unit 50 displays the image acquired in step S1605 on the EVF 217 or the display unit 108 (live view display processing). In the second embodiment, the live view display process includes a blown-out highlight display process in which blown-out highlights are displayed in a distinguishable manner in each of the right image area and the left image area. Details of the live view display process including the blown-out highlight display process will be described later using FIG. 16B.

ステップS1607では、システム制御部50は、カメラ100のユーザによって記録開始指示が行われたか否かを判定する。記録開始指示が行われたと判定した場合はステップS1608へ進み、そうでない場合はステップS1614へ進む。記録開始指示、または後述するステップS1614の終了指示が行われるまで、EVF217もしくは表示部108へのライブビュー表示が継続する。 In step S1607, the system control unit 50 determines whether the user of the camera 100 has given a recording start instruction. If it is determined that a recording start instruction has been given, the process advances to step S1608; otherwise, the process advances to step S1614. Live view display on the EVF 217 or the display unit 108 continues until a recording start instruction or an end instruction in step S1614, which will be described later, is issued.

記録開始指示は、シャッターボタン101の全押しなどである。記録開始指示は、静止画撮影の実行の指示であってもよいし、動画撮影の開始の指示であってもよい。撮影される画像は、JPEG静止画、MP4動画、RAW静止画、RAW動画などのいずれであってもよい。動画撮影中は、記録している動画をライブビュー表示のようにEVF217もしくは表示部108に表示してもよい。 The recording start instruction is a full press of the shutter button 101, or the like. The recording start instruction may be an instruction to execute still image shooting, or may be an instruction to start video shooting. The captured image may be a JPEG still image, an MP4 moving image, a RAW still image, a RAW moving image, or the like. During video shooting, the recorded video may be displayed on the EVF 217 or the display unit 108 like a live view display.

ステップS1608では、システム制御部50は、撮像部211から画像を取得する。 In step S1608, the system control unit 50 acquires an image from the imaging unit 211.

ステップS1609では、システム制御部50は、カメラの情報を取得する。カメラの情報とは、撮影時のシャッタースピードや絞りなどの撮影情報や、撮影時に姿勢検知部222で検知された姿勢情報などである。RAW画像を撮影する場合には、現像に必要なデータ(パラメータ)も取得する。 In step S1609, the system control unit 50 acquires camera information. The camera information includes shooting information such as the shutter speed and aperture at the time of shooting, and posture information detected by the posture detection unit 222 at the time of shooting. When photographing a RAW image, data (parameters) necessary for development are also acquired.

ステップS1610では、システム制御部50は、記録媒体227(記憶媒体)に、ステップS1608で取得した画像のデータ(画像データ)をファイル形式で格納する。 In step S1610, the system control unit 50 stores the image data (image data) acquired in step S1608 in the recording medium 227 (storage medium) in a file format.

ステップS1611では、システム制御部50は、ステップS1609で取得した情報(カメラ100の情報)を、ステップS1610で格納した画像ファイル内に格納する。これにより、画像ファイル内において、ステップS1608で取得した画像データに、ステップS1609で取得したカメラの情報がメタデータとして付加される。 In step S1611, the system control unit 50 stores the information acquired in step S1609 (information on camera 100) in the image file stored in step S1610. As a result, the camera information obtained in step S1609 is added as metadata to the image data obtained in step S1608 in the image file.

ステップS1612では、システム制御部50は、ステップS1603,S1604で取得した情報(2眼レンズユニットの情報)を、ステップS1610で格納した画像ファイル内に格納する。これにより、画像ファイル内において、ステップS1608で取得した画像データに、ステップS1603,S1604で取得した2眼レンズユニットの情報がメタデータとして付加される。 In step S1612, the system control unit 50 stores the information acquired in steps S1603 and S1604 (information on the binocular lens unit) in the image file stored in step S1610. As a result, the information on the binocular lens unit obtained in steps S1603 and S1604 is added as metadata to the image data obtained in step S1608 in the image file.

ステップS1613では、システム制御部50は、カメラ100のユーザによって記録終了指示が行われたか否かを判定する。記録終了指示が行われたと判定した場合はステップS1614へ進み、そうでない場合はステップS1608へ進む。ステップS1608からステップS1613を繰り返すことで、動画像のフレームを次々と動画ファイルに記録したり、静止画の連写(連続撮影)を行ったりすることができる。 In step S1613, the system control unit 50 determines whether the user of the camera 100 has given an instruction to end recording. If it is determined that a recording end instruction has been given, the process advances to step S1614; otherwise, the process advances to step S1608. By repeating steps S1608 to S1613, frames of a moving image can be recorded one after another in a moving image file, or still images can be continuously shot (continuous shooting).

静止画撮影の場合は、記録終了指示は、シャッターボタン101の全押し解除などである。シャッターボタン101が全押しされ、所定時間内に全押しが解除された場合は、1枚の静止画が撮影され、シャッターボタン101の全押しが所定時間以上継続すると、静止画の連写が行われる。1枚の静止画を撮影する場合には、シャッターボタン101の1回の全押しが、記録開始指示と記録終了指示の両方を兼ねてもよい。動画撮影の場合は、記録終了指示は、シャッターボタン101の全押しなどである。例えば、シャッターボタン101の全押しにより動画撮影が開始し、再びシャッターボタン101が全押しされると、動画撮影が終了する。 In the case of still image shooting, the instruction to end recording is, for example, releasing the shutter button 101 fully. If the shutter button 101 is pressed fully and released within a predetermined time, one still image is taken, and if the shutter button 101 is pressed fully for a predetermined time or longer, continuous still image shooting is performed. be exposed. When photographing one still image, one full press of the shutter button 101 may serve as both a recording start instruction and a recording end instruction. In the case of video shooting, the instruction to end recording is a full press of the shutter button 101, or the like. For example, when the shutter button 101 is pressed fully, video shooting starts, and when the shutter button 101 is pressed fully again, the video shooting ends.

ステップS1614では、システム制御部50は、カメラ100のユーザによって終了指示が行われたか否かを判定する。終了指示が行われたと判定した場合は図16Aの動作を終了し、そうでない場合はステップS1605へ進む。終了指示は、カメラ100の電源を切る指示や、カメラ100のモードを撮影モードから別のモードに切り替える指示などである。つまり、終了指示は、電源スイッチ102の押下や、モード切替スイッチ103の押下などである。 In step S1614, the system control unit 50 determines whether a termination instruction has been given by the user of the camera 100. If it is determined that a termination instruction has been given, the operation in FIG. 16A is terminated; otherwise, the process advances to step S1605. The termination instruction may be an instruction to turn off the power of the camera 100 or an instruction to switch the mode of the camera 100 from the shooting mode to another mode. In other words, the termination instruction is a press of the power switch 102, a press of the mode changeover switch 103, or the like.

カメラ100に1眼レンズユニットが装着されている場合にはステップS1615の処理が行われる。ステップS1615では、システム制御部50は、1眼レンズユニットを使って撮像(撮影)を行う(1眼レンズ撮像処理)。1眼レンズ撮像処理の動作は、1眼レンズユニットを装着したカメラにおける従来の撮像(撮影)動作と同様であるため、詳細な説明は省略する。実施形態2では、システム制御部50は、1眼レンズユニットで撮像された画像の画像ファイルを記録媒体227に記録する際に、1眼レンズユニットの情報(設計値や個体値など)を当該1眼レンズユニットから取得し、画像ファイルに格納することとする。 If a single lens unit is attached to the camera 100, the process of step S1615 is performed. In step S1615, the system control unit 50 performs imaging (photography) using a single lens unit (single lens imaging process). The operation of the single-lens imaging process is similar to the conventional imaging (photographing) operation in a camera equipped with a single-lens unit, so a detailed explanation will be omitted. In the second embodiment, when recording an image file of an image captured by the single lens unit in the recording medium 227, the system control unit 50 stores information about the single lens unit (design values, individual values, etc.) as the single lens unit. It will be acquired from the eye lens unit and stored in an image file.

図16Bは、図16AのステップS1606でシステム制御部50が行うライブビュー表示処理の一例を示すフローチャートである。上述したように、ステップS1606のライブビュー表示処理は、右画像領域と左画像領域のそれぞれにおいて白飛び領域を識別可能に表示する白飛び表示処理を含む。 FIG. 16B is a flowchart illustrating an example of live view display processing performed by the system control unit 50 in step S1606 of FIG. 16A. As described above, the live view display process in step S1606 includes the blown-out highlight display process in which the blown-out highlights are displayed in a distinguishable manner in each of the right image area and the left image area.

ステップS1621では、システム制御部50は、図16AのステップS1605で撮像部211から取得した画像をライブビュー画像として、EVF217もしくは表示部108に表示する。 In step S1621, the system control unit 50 displays the image acquired from the imaging unit 211 in step S1605 of FIG. 16A on the EVF 217 or the display unit 108 as a live view image.

ステップS1622では、システム制御部50は、図16AのステップS1603,S1604で取得した2眼レンズユニットの情報に基づいて、ライブビュー画像における右画像領域(有効領域)と左画像領域(有効領域)を判断する。ステップS1622の処理は、図9BのステップS923の処理と同様である。 In step S1622, the system control unit 50 determines the right image area (effective area) and left image area (effective area) in the live view image based on the information on the binocular lens unit acquired in steps S1603 and S1604 of FIG. 16A. to decide. The process in step S1622 is similar to the process in step S923 in FIG. 9B.

ステップS1623では、システム制御部50は、ステップS1622で判断した右画像領域と左画像領域のそれぞれについて、各画素が輝度値が飽和した画素(飽和画素;白飛び画素)であるか否かを示す輝度飽和マップを作成する。ステップS1623の処理は、図9BのステップS924の処理と同様である。 In step S1623, the system control unit 50 indicates whether each pixel in the right image area and the left image area determined in step S1622 is a pixel with a saturated luminance value (saturated pixel; blown-out highlight pixel). Create a brightness saturation map. The process in step S1623 is similar to the process in step S924 in FIG. 9B.

ステップS1624では、システム制御部50は、輝度飽和マップを用いて、右画像領域と左画像領域の少なくとも一方に白飛び画素が存在するか否かを判定する。白飛び画素が存在すると判定した場合はステップS1625へ進み、そうでない場合は図16Bの処理を終了してステップS1607へ進む。ステップS1624の処理は、図9BのステップS925の処理と同様である。 In step S1624, the system control unit 50 uses the brightness saturation map to determine whether a blown-out highlight pixel exists in at least one of the right image area and the left image area. If it is determined that a blown-out highlight pixel exists, the process advances to step S1625; otherwise, the process in FIG. 16B is ended and the process advances to step S1607. The process in step S1624 is similar to the process in step S925 in FIG. 9B.

ステップS1625では、システム制御部50は、ステップS1623で作成した輝度飽和マップを用いて、ライブビュー画像の右画像領域や左画像領域における白飛び画素に対し、ゼブラパターンなどの所定のグラフィックを重畳表示する。ステップS1625の処理は、図9BのステップS926の処理と同様である。 In step S1625, the system control unit 50 uses the brightness saturation map created in step S1623 to superimpose and display a predetermined graphic such as a zebra pattern on the overexposed pixels in the right image area and left image area of the live view image. do. The process in step S1625 is similar to the process in step S926 in FIG. 9B.

ステップS1626では、システム制御部50は、ステップS1623で作成した輝度飽和マップを用いて、白飛び画素からなる白飛び領域が設定されるように、右画像領域や左画像領域における白飛び画素のクラスタリングを行う。ステップS1626の処理は、図9BのステップS927の処理と同様である。 In step S1626, the system control unit 50 uses the brightness saturation map created in step S1623 to perform clustering of blown-out highlights in the right image area and the left image area so that blown-out areas made up of blown-out highlights are set. I do. The process in step S1626 is similar to the process in step S927 in FIG. 9B.

ステップS1627では、システム制御部50は、ステップS1626で設定した白飛び領域の中心座標と面積(例えば画素数)を算出する。ステップS1627の処理は、図9BのステップS928の処理と同様である。 In step S1627, the system control unit 50 calculates the center coordinates and area (for example, number of pixels) of the overexposed area set in step S1626. The process in step S1627 is similar to the process in step S928 in FIG. 9B.

ステップS1628では、システム制御部50は、右画像領域における白飛び領域と、左画像領域における白飛び領域との対応付けを行う。ステップS1628の処理は、図9BのステップS929の処理と同様である。 In step S1628, the system control unit 50 associates the blown-out highlights area in the right image area with the blown-out highlights area in the left image area. The process in step S1628 is similar to the process in step S929 in FIG. 9B.

ステップS1629では、システム制御部50は、ステップS1628で対応付けた2つの白飛び領域(白飛びペア)の面積の差(絶対値)を計算し、当該差が閾値th_a以上であるか否かを判定する。2つの白飛び領域の面積の差が閾値th_a以上であると判定した場合はステップS1630へ進み、そうでない場合はステップS1631へ進む。ステップS1629の処理は、図9BのステップS930の処理と同様である。 In step S1629, the system control unit 50 calculates the difference (absolute value) between the areas of the two blown-out areas (over-exposed highlights pair) associated in step S1628, and determines whether the difference is greater than or equal to the threshold th_a. judge. If it is determined that the difference in area between the two blown-out areas is greater than or equal to the threshold th_a, the process advances to step S1630; otherwise, the process advances to step S1631. The process in step S1629 is similar to the process in step S930 in FIG. 9B.

ステップS1630では、システム制御部50は、白飛びペアを警告対象に設定する。
ステップS1630の処理は、図9BのステップS931の処理と同様である。
In step S1630, the system control unit 50 sets the whiteout pair as a warning target.
The process in step S1630 is similar to the process in step S931 in FIG. 9B.

ステップS1631では、システム制御部50は、全ての白飛びペアに対してステップS1629の判定を行ったか否かを判定する。全ての白飛びペアに対してステップS1629の判定を行ったと判定した場合はステップS1632へ進み、そうでない場合はステップS1629へ進む。ステップS1631の処理は、図9BのステップS932の処理と同様である。 In step S1631, the system control unit 50 determines whether or not the determination in step S1629 has been performed for all whiteout pairs. If it is determined that the determination in step S1629 has been performed on all blown-out highlights pairs, the process advances to step S1632; otherwise, the process advances to step S1629. The process in step S1631 is similar to the process in step S932 in FIG. 9B.

ステップS1632では、システム制御部50は、ステップS1628で対応付けられなかった全ての白飛び領域を警告対象に設定する。ステップS1632の処理は、図9BのステップS933の処理と同様である。 In step S1632, the system control unit 50 sets all overexposure areas that were not associated in step S1628 as warning targets. The process in step S1632 is similar to the process in step S933 in FIG. 9B.

ステップS1633では、システム制御部50は、警告対象の白飛び領域が設定されているか否かを判定する。警告対象の白飛び領域が設定されていると判定した場合はテップS1634へ進み、そうでない場合は図9Bの処理を終了してステップS1607へ進む。ステップS1633の処理は、図9BのステップS934の処理と同様である。 In step S1633, the system control unit 50 determines whether a blown-out highlight area to be warned is set. If it is determined that a warning target overexposure area has been set, the process advances to step S1634; otherwise, the process in FIG. 9B is ended and the process advances to step S1607. The process in step S1633 is similar to the process in step S934 in FIG. 9B.

ステップS1634では、システム制御部50は、警告対象の白飛び領域を強調表示する。ステップS1634の処理は、図9BのステップS935の処理と同様である。 In step S1634, the system control unit 50 highlights the overexposed area to be warned. The process in step S1634 is similar to the process in step S935 in FIG. 9B.

ステップS1635では、システム制御部50は、左画像領域の白飛びと右画像領域の白飛びとの差の解消するような撮影条件の変更をユーザに促す警告メッセージ(テキスト)をEVF217もしくは表示部108に表示する。ステップS1635の処理は、図9BのステップS936の処理と同様である。 In step S1635, the system control unit 50 sends a warning message (text) to the EVF 217 or display unit 108 urging the user to change the shooting conditions to eliminate the difference between the overexposure in the left image area and the overexposure in the right image area. to be displayed. The process in step S1635 is similar to the process in step S936 in FIG. 9B.

実施形態2によれば、2眼レンズユニットを使った撮影時に、左右画像領域の白飛びの違いがカメラの表示装置で確認しやすくなる。これにより、意図しない白飛びがあることや、適切な撮影のためにどのような対応が必要かなどを、ユーザは容易に知ることができる。 According to the second embodiment, when shooting using a twin lens unit, it becomes easier to check the difference in overexposure between the left and right image areas on the display device of the camera. This allows the user to easily know that there is unintended overexposure and what countermeasures are required for appropriate photography.

なお、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。同様に、制御部501が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。 Note that the various controls described above as being performed by the system control unit 50 may be performed by a single piece of hardware, or multiple pieces of hardware (for example, multiple processors or circuits) may share the processing to It may also be possible to perform overall control. Similarly, the various controls described above as being performed by the control unit 501 may be performed by a single piece of hardware, or multiple pieces of hardware (for example, multiple processors or circuits) may share the processing, allowing the device to It may also be possible to perform overall control.

また、本発明の実施形態を詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。例えば、視差のある2つの画像領域が左右に並んだ1つの画像を取得することを説明したが、画像領域の数、つまり光学系の数は2つより多くてもよいし、複数の画像領域の配置も特に限定されない。 Further, although the embodiments of the present invention have been described in detail, the present invention is not limited to these specific embodiments, and the present invention includes various forms without departing from the gist of the present invention. Furthermore, each of the embodiments described above is merely one embodiment of the present invention, and it is also possible to combine the embodiments as appropriate. For example, although it has been explained that one image is obtained in which two image areas with parallax are arranged side by side, the number of image areas, that is, the number of optical systems, may be greater than two, or multiple image areas may be used. The arrangement is also not particularly limited.

また、本発明は、カメラやPCに限られず、複数の光学系にそれぞれ対応する複数の画像領域を有する画像を扱うことのできる電子機器であれば適用可能である。例えば、本発明は、PDA、携帯電話端末や携帯型の画像ビューワ、プリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。また、本発明は、映像プレーヤー、表示装置(投影装置を含む)、タブレット端末、スマートフォン、AIスピーカー、家電装置や車載装置などに適用可能である。標準レンズや広角レ
ンズ、ズームレンズなどのように種別の異なる複数の光学系を有する多眼のスマートフォンなどにも、本発明は適用可能である。そのようにした場合でも、使用する2つの光学系の焦点距離(ズーム倍率)を合わせて(共通にして)撮影を行えば、立体視可能な画像を得ることができる。
Further, the present invention is not limited to cameras and PCs, but can be applied to any electronic device that can handle images having a plurality of image areas each corresponding to a plurality of optical systems. For example, the present invention is applicable to PDAs, mobile phone terminals, portable image viewers, printer devices, digital photo frames, music players, game consoles, electronic book readers, and the like. Furthermore, the present invention is applicable to video players, display devices (including projection devices), tablet terminals, smartphones, AI speakers, home appliances, in-vehicle devices, and the like. The present invention is also applicable to multi-lens smartphones that have a plurality of different types of optical systems, such as a standard lens, a wide-angle lens, and a zoom lens. Even in such a case, if the focal lengths (zoom magnifications) of the two optical systems used are matched (common) and photographed, a stereoscopic image can be obtained.

また、撮像装置本体に限らず、有線または無線通信を介して撮像装置(ネットワークカメラを含む)と通信し、撮像装置を遠隔で制御する制御装置にも本発明を適用可能である。撮像装置を遠隔で制御する装置としては、例えば、スマートフォンやタブレットPC、デスクトップPCなどの装置がある。制御装置側で行われた操作や制御装置側で行われた処理に基づいて、制御装置側から撮像装置に各種動作や設定を行わせるコマンドを通知することにより、撮像装置を遠隔から制御可能である。また、撮像装置で撮影したライブビュー画像を有線または無線通信を介して受信して制御装置側で表示できるようにしてもよい。 Furthermore, the present invention is applicable not only to the imaging device itself but also to a control device that communicates with the imaging device (including a network camera) via wired or wireless communication and remotely controls the imaging device. Examples of devices that remotely control the imaging device include devices such as smartphones, tablet PCs, and desktop PCs. The imaging device can be controlled remotely by notifying the imaging device of commands to perform various operations and settings from the control device, based on operations performed on the control device and processing performed on the control device. be. Furthermore, a live view image taken by the imaging device may be received via wired or wireless communication and displayed on the control device side.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100:デジタルカメラ(カメラ) 50:システム制御部
500:パーソナルコンピュータ(PC) 501:制御部
100: Digital camera (camera) 50: System control unit 500: Personal computer (PC) 501: Control unit

Claims (18)

第1の光学系を介して撮像された第1の画像領域と、第2の光学系を介して撮像された第2の画像領域とが並んだ画像を取得する取得手段と、
前記第1の画像領域と前記第2の画像領域とのそれぞれから白飛び領域を検出する検出手段と、
前記第1の画像領域における白飛び領域の面積と、前記第2の画像領域における白飛び領域の面積との差が閾値よりも大きい場合に、所定の通知を行うように制御する制御手段と
を有することを特徴とする電子機器。
acquisition means for acquiring an image in which a first image area imaged through the first optical system and a second image area imaged through the second optical system are lined up;
detection means for detecting a blown-out highlight area from each of the first image area and the second image area;
A control unit configured to perform control to perform a predetermined notification when a difference between an area of a blown-out highlight area in the first image area and an area of an blown-out highlight area in the second image area is larger than a threshold value. An electronic device characterized by having:
前記第2の光学系は、前記第1の光学系に対して所定の視差を有する
ことを特徴とする請求項1に記載の電子機器。
The electronic device according to claim 1, wherein the second optical system has a predetermined parallax with respect to the first optical system.
前記制御手段は、前記第1の画像領域に対する白飛び領域の相対位置と、前記第2の画像領域に対する白飛び領域の相対位置とが略同一の2つの白飛び領域を選択し、当該2つの白飛び領域の面積の差が前記閾値よりも大きい場合に、前記所定の通知を行うように制御する
ことを特徴とする請求項1または2に記載の電子機器。
The control means selects two blown-out highlights areas in which the relative position of the blown-out highlights area with respect to the first image area and the relative position of the blown-out highlights area with respect to the second image area are approximately the same, and 3. The electronic device according to claim 1, wherein control is performed so that the predetermined notification is performed when a difference in area of blown-out areas is larger than the threshold value.
前記制御手段は、前記白飛び領域の面積に基づいて前記閾値を決定する
ことを特徴とする請求項1~3のいずれか1項に記載の電子機器。
The electronic device according to any one of claims 1 to 3, wherein the control means determines the threshold value based on the area of the blown-out highlight area.
前記制御手段は、前記画像を表示するように制御し、当該表示された画像において、前記検出手段によって検出された白飛び領域を識別可能に表示するように制御する
ことを特徴とする請求項1~4のいずれか1項に記載の電子機器。
2. The control means controls the image to be displayed, and controls the blown-out area detected by the detection means to be displayed in a discernible manner in the displayed image. The electronic device according to any one of items 4 to 4.
前記制御手段は、
前記第1の画像領域における白飛び領域の面積と、前記第2の画像領域における白飛び領域の面積との差が前記閾値よりも小さい場合には、前記表示された画像において、前記検出手段によって検出された白飛び領域を第1の態様で識別可能に表示するように制御し、
前記第1の画像領域における白飛び領域の面積と、前記第2の画像領域における白飛び領域の面積との差が前記閾値よりも大きい場合には、前記表示された画像において、前記検出手段によって検出された白飛び領域を、第1の態様よりも強調された第2の態様で識別可能に表示するように制御する
ことを特徴とする請求項5に記載の電子機器。
The control means includes:
If the difference between the area of the blown-out highlight area in the first image area and the area of the blown-out highlight area in the second image area is smaller than the threshold value, the detecting means detects a problem in the displayed image. controlling the detected overexposed area to be identifiably displayed in a first manner;
If the difference between the area of the blown-out highlight area in the first image area and the area of the blown-out highlight area in the second image area is larger than the threshold value, the detecting means detects the blown-out highlight area in the displayed image. 6. The electronic device according to claim 5, wherein the detected overexposed area is controlled to be identifiably displayed in a second mode that is more emphasized than the first mode.
前記制御手段は、
前記第1の画像領域における白飛び領域の面積と、前記第2の画像領域における白飛び領域の面積との差が前記閾値よりも小さい場合には、前記表示された画像において、前記検出手段によって検出された白飛び領域を第1の模様で識別可能に表示するように制御し、
前記第1の画像領域における白飛び領域の面積と、前記第2の画像領域における白飛び領域の面積との差が前記閾値よりも大きい場合には、前記表示された画像において、前記検出手段によって検出された白飛び領域を第2の模様で識別可能に表示するように制御する
ことを特徴とする請求項6に記載の電子機器。
The control means includes:
If the difference between the area of the blown-out highlight area in the first image area and the area of the blown-out highlight area in the second image area is smaller than the threshold value, the detecting means detects a problem in the displayed image. Controlling the detected overexposure area to be identifiably displayed in the first pattern,
If the difference between the area of the blown-out highlight area in the first image area and the area of the blown-out highlight area in the second image area is larger than the threshold value, the detecting means detects the blown-out highlight area in the displayed image. 7. The electronic device according to claim 6, wherein the electronic device is controlled so that the detected overexposed area is displayed in a second pattern so as to be distinguishable.
前記制御手段は、
前記第1の画像領域における白飛び領域の面積と、前記第2の画像領域における白飛び領域の面積との差が前記閾値よりも小さい場合には、前記表示された画像において、前記検出手段によって検出された白飛び領域を第1の色で識別可能に表示するように制御し、
前記第1の画像領域における白飛び領域の面積と、前記第2の画像領域における白飛び領域の面積との差が前記閾値よりも大きい場合には、前記表示された画像において、前記検出手段によって検出された白飛び領域を第2の色で識別可能に表示するように制御する
ことを特徴とする請求項6または7に記載の電子機器。
The control means includes:
If the difference between the area of the blown-out highlight area in the first image area and the area of the blown-out highlight area in the second image area is smaller than the threshold value, the detecting means detects a problem in the displayed image. controlling the detected overexposed area to be identifiably displayed in a first color;
If the difference between the area of the blown-out highlight area in the first image area and the area of the blown-out highlight area in the second image area is larger than the threshold value, the detecting means detects the blown-out highlight area in the displayed image. 8. The electronic device according to claim 6, wherein the electronic device is controlled so that the detected overexposed area is identifiably displayed in a second color.
前記制御手段は、前記画像を表示するように制御し、前記第1の画像領域における白飛び領域の面積と、前記第2の画像領域における白飛び領域の面積との差が前記閾値よりも大きい場合に、前記表示された画像において、前記検出手段によって検出された白飛び領域を囲む枠を表示するように制御する
ことを特徴とする請求項1~8のいずれか1項に記載の電子機器。
The control means controls to display the image, and the difference between the area of the blown-out highlight area in the first image area and the area of the blown-out highlight area in the second image area is larger than the threshold value. The electronic device according to any one of claims 1 to 8, wherein the electronic device is controlled to display a frame surrounding the blown-out highlight area detected by the detection means in the displayed image. .
前記制御手段は、前記第1の画像領域における白飛び領域の面積と、前記第2の画像領域における白飛び領域の面積との差が前記閾値よりも大きい場合に、撮影条件の変更を促すテキストを表示するように制御する
ことを特徴とする請求項1~9のいずれか1項に記載の電子機器。
The control means is configured to generate a text prompting a change in shooting conditions when a difference between an area of a blown-out highlight area in the first image area and an area of an blown-out highlight area in the second image area is larger than the threshold value. 10. The electronic device according to claim 1, wherein the electronic device is controlled to display.
前記制御手段は、前記第1の画像領域と前記第2の画像領域の一方のみから白飛び領域が検出された場合にも、前記所定の通知を行うように制御する
ことを特徴とする請求項1~10のいずれか1項に記載の電子機器。
2. The control means is further characterized in that the control means performs control to perform the predetermined notification even when a blown-out area is detected from only one of the first image area and the second image area. The electronic device according to any one of items 1 to 10.
前記第1の画像領域と前記第2の画像領域とを判断する判断手段をさらに有し、
前記取得手段は、前記画像と、前記第1の光学系および前記第2の光学系に関する情報とを取得し、
前記判断手段は、前記情報に基づいて、前記第1の画像領域と前記第2の画像領域とを判断する
ことを特徴とする請求項1~11のいずれか1項に記載の電子機器。
further comprising determining means for determining the first image area and the second image area,
The acquisition means acquires the image and information regarding the first optical system and the second optical system,
The electronic device according to claim 1, wherein the determining means determines the first image area and the second image area based on the information.
前記情報は、前記画像における前記第1の光学系の光軸中心に関する情報、および前記画像における前記第2の光学系の光軸中心に関する情報を含み、
前記判断手段は、前記画像における前記第1の光学系の光軸中心に基づいて前記第1の画像領域を判断し、前記画像における前記第2の光学系の光軸中心に基づいて前記第2の画像領域を判断する
ことを特徴とする請求項12に記載の電子機器。
The information includes information regarding the optical axis center of the first optical system in the image and information regarding the optical axis center of the second optical system in the image,
The determining means determines the first image area based on the optical axis center of the first optical system in the image, and determines the second image area based on the optical axis center of the second optical system in the image. 13. The electronic device according to claim 12, wherein the electronic device determines an image area of .
前記第1の光学系、および前記第2の光学系は、それぞれ、魚眼レンズであり、
前記第1の画像領域、および前記第2の画像領域は、それぞれ、円周魚眼画像の領域である
ことを特徴とする請求項1~13のいずれか1項に記載の電子機器。
The first optical system and the second optical system are each a fisheye lens,
The electronic device according to any one of claims 1 to 13, wherein the first image area and the second image area are each an area of a circumferential fisheye image.
前記第1の画像領域、および前記第2の画像領域は、それぞれ、正距円筒画像の領域である
ことを特徴とする請求項1~13のいずれか1項に記載の電子機器。
The electronic device according to claim 1, wherein the first image area and the second image area are each an equirectangular image area.
第1の光学系を介して撮像された第1の画像領域と、第2の光学系を介して撮像された第2の画像領域とが並んだ画像を取得するステップと、
前記第1の画像領域と前記第2の画像領域とのそれぞれから白飛び領域を検出するステップと、
前記第1の画像領域における白飛び領域の面積と、前記第2の画像領域における白飛び領域の面積との差が閾値よりも大きい場合に、所定の通知を行うように制御するステップと
を有することを特徴とする電子機器の制御方法。
acquiring an image in which a first image area imaged through the first optical system and a second image area imaged through the second optical system are lined up;
detecting a blown-out highlight area from each of the first image area and the second image area;
a step of controlling to perform a predetermined notification when a difference between an area of a blown-out highlight area in the first image area and an area of an blown-out highlight area in the second image area is larger than a threshold value; A method for controlling an electronic device, characterized by:
コンピュータを、請求項1~15のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 15. コンピュータを、請求項1~15のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 15.
JP2022050142A 2022-03-25 2022-03-25 Electronic device, control method for electronic device, program, and storage medium Pending JP2023142979A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022050142A JP2023142979A (en) 2022-03-25 2022-03-25 Electronic device, control method for electronic device, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022050142A JP2023142979A (en) 2022-03-25 2022-03-25 Electronic device, control method for electronic device, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2023142979A true JP2023142979A (en) 2023-10-06

Family

ID=88220163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022050142A Pending JP2023142979A (en) 2022-03-25 2022-03-25 Electronic device, control method for electronic device, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2023142979A (en)

Similar Documents

Publication Publication Date Title
CN111385470B (en) Electronic device, control method of electronic device, and computer-readable medium
JP2020010130A (en) Electronic device
US20220400243A1 (en) Image processing apparatus and image processing method
JP2020042064A (en) Display control device, imaging device, program and storage medium
US11849100B2 (en) Information processing apparatus, control method, and non-transitory computer readable medium
US11949977B2 (en) Electronic equipment, method for controlling the same, and recording medium
JP2023142979A (en) Electronic device, control method for electronic device, program, and storage medium
US20220385830A1 (en) Electronic apparatus, control method, and non-transitory computer readable medium
JP2021069045A (en) Display control device, display control method, program, and storage media
US20230281768A1 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
US20220385829A1 (en) Information processing apparatus, control method, and storage medium
US20220398688A1 (en) Image processing apparatus, image processing method, and storage medium
JP2023181634A (en) Electronic apparatus, method for controlling electronic apparatus, and program
JP2024030637A (en) Electronic equipment and control methods for electronic equipment
US20220385883A1 (en) Image processing apparatus, image processing method, and storage medium
JP2023184106A (en) Display control device, display control method, program, and storage medium
US20240020073A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
US20230384236A1 (en) Information processing apparatus, imaging apparatus, information processing method, and non-transitory computer readable medium
JP2022184712A (en) Information processing apparatus, imaging apparatus, control method, program and storage medium
JP2021158559A (en) Electronic device, control method of the same, and program
JP2022191143A (en) Image processing device and image processing method
JP2022183844A (en) Electronic equipment, control method therefor, program and storage medium
JP2022168781A (en) Electronic apparatus, method for controlling the same, program, and storage medium
JP2022183846A (en) Electronic equipment, control method therefor, program and storage medium
JP2023102947A (en) Information processing device, control method thereof, and program