JP2022184712A - Information processing apparatus, imaging apparatus, control method, program and storage medium - Google Patents

Information processing apparatus, imaging apparatus, control method, program and storage medium Download PDF

Info

Publication number
JP2022184712A
JP2022184712A JP2022034311A JP2022034311A JP2022184712A JP 2022184712 A JP2022184712 A JP 2022184712A JP 2022034311 A JP2022034311 A JP 2022034311A JP 2022034311 A JP2022034311 A JP 2022034311A JP 2022184712 A JP2022184712 A JP 2022184712A
Authority
JP
Japan
Prior art keywords
image
optical system
lens
information
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022034311A
Other languages
Japanese (ja)
Inventor
俊孝 相場
Toshitaka Aiba
達 小林
Toru Kobayashi
修平 飯野
Shuhei Iino
匠 上原
Takumi Uehara
豊人 野田
Toyohito Noda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US17/825,730 priority Critical patent/US11849100B2/en
Priority to CN202210601858.8A priority patent/CN115484450A/en
Priority to EP22176042.4A priority patent/EP4099682A1/en
Publication of JP2022184712A publication Critical patent/JP2022184712A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Cameras In General (AREA)

Abstract

To provide a technique capable of displaying two images captured with a camera attached with a lens unit including two optical systems such that positions of the two images correspond to the two optical systems.SOLUTION: An information processing apparatus includes: obtaining means for obtaining one image including a first image region corresponding to a first optical image input via a first optical system and a second image region corresponding to a second optical image input via a second optical system, the second optical system having predetermined parallax with respect to the first optical system, and correction information on the first optical system and the second optical system; correction means for executing correction processing to correct the position of a pixel included in the first image region and a pixel included in the second image region in the image, based on the correction information; and generation means for executing processing to convert the corrected first and the second image regions to generate a processed image.SELECTED DRAWING: Figure 8

Description

本発明は、情報処理装置、撮像装置、制御方法、プログラム、および記憶媒体に関する。 The present invention relates to an information processing device, an imaging device, a control method, a program, and a storage medium.

2台のカメラで視差のある2つの画像を撮影し、撮影した2つの画像を立体視可能に表示する技術が知られている。特許文献1には、2つの光学系を有するレンズユニットを装着して、視差のある2つの画像を一度に撮像できるカメラが開示されている。 A technique is known in which two images with parallax are captured by two cameras and the captured two images are displayed in a stereoscopically visible manner. Japanese Unexamined Patent Application Publication No. 2002-200001 discloses a camera that is equipped with a lens unit having two optical systems and that can capture two images with parallax at once.

特開2013-141052号公報JP 2013-141052 A

しかしながら、2つの光学系を有するレンズユニットを装着して撮像された画像(視差のある2つの画像を含む1つの画像)を従来の画像のように表示すると、2つの光学系の位置関係と1つの画像における2つの画像の位置関係が逆転してしまう。 However, if an image captured by a lens unit having two optical systems (one image including two images with parallax) is displayed like a conventional image, the positional relationship between the two optical systems and one The positional relationship of two images in one image is reversed.

本発明は、2つの光学系を有するレンズユニットを装着して撮像された2つの画像の位置が2つの光学系と対応するような表示を可能にする技術を提供することを目的とする。 An object of the present invention is to provide a technique that enables display such that the positions of two images captured by mounting a lens unit having two optical systems correspond to those of the two optical systems.

本発明の情報処理装置は、第1の光学系を介して入力された第1の光学像に対応する第1画像領域と、前記第1の光学系に対して所定の視差を有する第2の光学系を介して入力された第2の光学像に対応する第2画像領域とを含む1つの画像と、前記第1の光学系および前記第2の光学系に関する補正用情報とを取得する取得手段と、前記補正用情報に基づき、前記画像における前記第1画像領域に含まれる画素と前記第2画像領域に含まれる画素の位置を補正する補正処理を実行する補正手段と、前記補正された第1の画像領域および第2の画像領域を変換する処理を実行して、処理画像を生成する生成手段とを有することを特徴とする。 An information processing apparatus of the present invention includes a first image area corresponding to a first optical image input via a first optical system, and a second image area having a predetermined parallax with respect to the first optical system. Acquisition for acquiring one image including a second image area corresponding to a second optical image input via an optical system, and correction information regarding the first optical system and the second optical system means for executing correction processing for correcting positions of pixels included in the first image region and pixels included in the second image region in the image based on the correction information; and generating means for generating a processed image by executing a process of transforming the first image area and the second image area.

本発明によれば、2つの光学系を有するレンズユニットを装着して撮像された2つの画像の位置が2つの光学系と対応するような表示が可能となる。 According to the present invention, it is possible to display two images captured by attaching a lens unit having two optical systems so that the positions of the two images correspond to those of the two optical systems.

システムの全体構成を示す模式図である。1 is a schematic diagram showing the overall configuration of a system; FIG. カメラの外観図である。1 is an external view of a camera; FIG. カメラの構成を示すブロック図である。3 is a block diagram showing the configuration of a camera; FIG. レンズユニットの構成を示す模式図である。It is a schematic diagram which shows the structure of a lens unit. PCの構成を示すブロック図である。It is a block diagram which shows the structure of PC. カメラの動作を示すフローチャートである。4 is a flow chart showing the operation of the camera; PCの動作を示すフローチャートである。It is a flow chart which shows operation of PC. 左右入れ替えの模式図である。It is a schematic diagram of left-right interchange. 画像ファイルの構造を示す模式図である。4 is a schematic diagram showing the structure of an image file; FIG. レンズ情報とカメラ情報を示す模式図である。4 is a schematic diagram showing lens information and camera information; FIG. 表示画面の模式図である。4 is a schematic diagram of a display screen; FIG. 正距円筒変換の模式図である。FIG. 4 is a schematic diagram of an equirectangular transformation; カメラの動作を示すフローチャートである。4 is a flow chart showing the operation of the camera; PCの動作を示すフローチャートである。It is a flow chart which shows operation of PC. 表示画面の模式図である。4 is a schematic diagram of a display screen; FIG. 左右のレンズの差を示す図である。It is a figure which shows the difference of a lens on either side. レンズの誤差により発生するズレを示す図である。FIG. 10 is a diagram showing deviation caused by lens error; 空間座標上の像位置の補正を示す図である。FIG. 4 is a diagram showing correction of image position on spatial coordinates;

以下、本発明にかかる実施形態を、図面を参照して詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments according to the present invention will be described in detail with reference to the drawings.

<第1の実施形態>
本発明の第1の実施形態について説明する。図1(a),(b)は、本実施形態に係るシステムの全体構成の一例を示す模式図である。本実施形態に係るシステムはデジタルカメラ(カメラ)100とパーソナルコンピュータ(PC)500とを含む。カメラ100にはレンズユニット300が装着(接続)されている。レンズユニット300の詳細は後述するが、レンズユニット300を装着することで、カメラ100は、所定の視差を有する2つの画像(静止画または動画)を一度に撮像できるようになる。PC500は、カメラ100などの撮像装置で撮像された画像を扱う情報処理装置である。図1(a)は、無線や有線などでカメラ100とPC500が互いに通信可能に接続された構成を示す。図1(b)は、カメラ100で撮影した画像などを、ファイルベースで、外部記憶装置を介してPC500に入力する構成を示す。外部記憶装置はカメラ100とPC500の両方に接続されていてもよいし、そうでなくてもよい。例えば、外部記憶装置をカメラ100に接続して、カメラ100で撮影した画像のファイルを外部記憶装置に格納してもよい。その後、外部記憶装置をカメラ100から取り外してPC500に接続し、外部記憶装置に格納されたファイルをPC500が取り込んでもよい。
<First embodiment>
A first embodiment of the present invention will be described. FIGS. 1A and 1B are schematic diagrams showing an example of the overall configuration of the system according to this embodiment. The system according to this embodiment includes a digital camera (camera) 100 and a personal computer (PC) 500 . A lens unit 300 is attached (connected) to the camera 100 . Although the details of the lens unit 300 will be described later, by attaching the lens unit 300, the camera 100 can simultaneously capture two images (still image or moving image) having a predetermined parallax. The PC 500 is an information processing device that handles images captured by an imaging device such as the camera 100 . FIG. 1A shows a configuration in which a camera 100 and a PC 500 are communicably connected to each other wirelessly or by wire. FIG. 1B shows a configuration for inputting an image or the like taken by the camera 100 to the PC 500 via an external storage device on a file basis. The external storage device may or may not be connected to both camera 100 and PC 500 . For example, an external storage device may be connected to the camera 100, and files of images captured by the camera 100 may be stored in the external storage device. After that, the external storage device may be detached from the camera 100 and connected to the PC 500 so that the PC 500 can retrieve the files stored in the external storage device.

図2(a),(b)は、カメラ100の外観の一例を示す外観図である。図2(a)はカメラ100を前面側から見た斜視図であり、図2(b)はカメラ100を背面側から見た斜視図である。 2A and 2B are external views showing an example of the external appearance of the camera 100. FIG. 2A is a perspective view of the camera 100 viewed from the front side, and FIG. 2B is a perspective view of the camera 100 viewed from the rear side.

カメラ100は、上面に、シャッターボタン101、電源スイッチ102、モード切替スイッチ103、メイン電子ダイヤル104、サブ電子ダイヤル105、動画ボタン106、ファインダ外表示部107を有する。シャッターボタン101は、撮影準備指示あるいは撮影指示を行うための操作部材である。電源スイッチ102は、カメラ100の電源のオンとオフとを切り替える操作部材である。モード切替スイッチ103は、各種モードを切り替えるための操作部材である。メイン電子ダイヤル104は、シャッター速度や絞り等の設定値を変更するための回転式の操作部材である。サブ電子ダイヤル105は、選択枠(カーソル)の移動や画像送り等を行うための回転式の操作部材である。動画ボタン106は、動画撮影(記録)の開始や停止の指示を行うための操作部材である。ファインダ外表示部107は、シャッター速度や絞り等の様々な設定値を表示する。 The camera 100 has a shutter button 101, a power switch 102, a mode changeover switch 103, a main electronic dial 104, a sub electronic dial 105, a moving image button 106, and a viewfinder display section 107 on the top surface. A shutter button 101 is an operation member for issuing a photographing preparation instruction or a photographing instruction. A power switch 102 is an operation member for switching the power of the camera 100 between on and off. A mode switch 103 is an operation member for switching between various modes. A main electronic dial 104 is a rotary operation member for changing set values such as shutter speed and aperture. The sub-electronic dial 105 is a rotary operation member for moving a selection frame (cursor) and for image feed. A moving image button 106 is an operation member for instructing start and stop of moving image shooting (recording). A viewfinder display unit 107 displays various setting values such as shutter speed and aperture.

カメラ100は、背面に、表示部108、タッチパネル109、方向キー110、SETボタン111、AEロックボタン112、拡大ボタン113、再生ボタン114、メニューボタン115、接眼部116、接眼検知部118、タッチバー119を有する。表示部108は、画像や各種情報を表示する。タッチパネル109は、表示部108の表示面(タッチ操作面)に対するタッチ操作を検出する操作部材である。方向キー110は、上下左右にそれぞれ押下可能なキー(4方向キー)から構成される操作部である。方向キー110の押下した位置に応じた処理が可能である。SETボタン111は、主に選択項目
を決定するときに押下される操作部材である。AEロックボタン112は、撮影待機状態で露出状態を固定するときに押下される操作部材である。拡大ボタン113は、撮影モードのライブビュー表示(LV表示)において拡大モードのオンとオフとを切り替えるための操作部材である。拡大モードがオンである場合にはメイン電子ダイヤル104を操作することにより、ライブビュー画像(LV画像)が拡大または縮小する。また、拡大ボタン113は、再生モードにおいて再生画像を拡大したり、拡大率を大きくしたりするときに用いられる。再生ボタン114は、撮影モードと再生モードとを切り替えるための操作部材である。撮影モードの場合に再生ボタン114を押下することで再生モードに移行し、後述する記録媒体227に記録された画像のうち最新の画像を表示部108に表示することができる。
The camera 100 has a display unit 108, a touch panel 109, direction keys 110, a SET button 111, an AE lock button 112, an enlargement button 113, a playback button 114, a menu button 115, an eyepiece unit 116, an eyepiece detection unit 118, and a touch bar on the back. 119. The display unit 108 displays images and various information. The touch panel 109 is an operation member that detects a touch operation on the display surface (touch operation surface) of the display unit 108 . The directional key 110 is an operation unit composed of keys (four-directional keys) that can be pressed up, down, left, and right. Processing can be performed according to the pressed position of the direction key 110 . A SET button 111 is an operation member that is mainly pressed when deciding a selection item. The AE lock button 112 is an operation member that is pressed when fixing the exposure state in the shooting standby state. The enlargement button 113 is an operation member for switching between on and off of the enlargement mode in the live view display (LV display) of the shooting mode. When the enlargement mode is on, operating the main electronic dial 104 enlarges or reduces the live view image (LV image). Also, the enlargement button 113 is used when enlarging a reproduced image or increasing the enlargement ratio in the reproduction mode. A playback button 114 is an operation member for switching between a shooting mode and a playback mode. Pressing the playback button 114 in the shooting mode shifts to the playback mode, and the latest image among images recorded in the recording medium 227 (to be described later) can be displayed on the display unit 108 .

メニューボタン115は、各種設定が可能なメニュー画面を表示部108に表示するために押下される操作部材である。ユーザは、表示部108に表示されたメニュー画面と、方向キー110やSETボタン111とを用いて、直感的に各種設定を行うことができる。接眼部116は、接眼ファインダ(覗き込み型のファインダ)117に対して接眼して覗き込む部位である。ユーザは接眼部116を介して、カメラ100内部の後述するEVF217(Electronic View Finder)に表示された映像を視認することができる。接眼検知部118は、接眼部116(接眼ファインダ117)にユーザが接眼しているか否かを検知するセンサである。 A menu button 115 is an operation member that is pressed to display a menu screen on which various settings can be made on the display unit 108 . The user can intuitively perform various settings using the menu screen displayed on the display unit 108, the direction keys 110, and the SET button 111. FIG. The eyepiece part 116 is a part for looking into an eyepiece finder (looking-in type finder) 117 with an eyepiece. The user can view an image displayed on an EVF 217 (Electronic View Finder) inside the camera 100 through the eyepiece 116 . The eyepiece detection unit 118 is a sensor that detects whether or not the user is eyeing the eyepiece unit 116 (eyepiece viewfinder 117).

タッチバー119は、タッチ操作を受け付けることが可能なライン状のタッチ操作部材(ラインタッチセンサ)である。タッチバー119は、右手の人差し指でシャッターボタン101を押下可能なようにグリップ部120を右手で握った状態(右手の小指、薬指、中指で握った状態)で、右手の親指でタッチ操作可能(タッチ可能)な位置に配置される。すなわち、タッチバー119は、接眼ファインダ117に接眼して接眼部116を覗き、いつでもシャッターボタン101を押下できるように構えた状態(撮影姿勢)で操作可能である。タッチバー119は、タッチバー119に対するタップ操作(タッチして所定期間以内にタッチ位置を移動せずに離す操作)、左右へのスライド操作(タッチした後、タッチしたままタッチ位置を移動する操作)等を受け付け可能である。タッチバー119は、タッチパネル109とは異なる操作部材であり、表示機能を備えていない。タッチバー119は、例えば各種機能を割当可能なマルチファンクションバー(M-Fnバー)として機能する。 The touch bar 119 is a linear touch operation member (line touch sensor) capable of receiving touch operations. The touch bar 119 can be touch-operated with the thumb of the right hand when the grip portion 120 is gripped with the right hand so that the shutter button 101 can be pressed with the index finger of the right hand (with the little finger, ring finger, and middle finger of the right hand). possible). That is, the touch bar 119 can be operated in a state (photographing posture) in which the user looks into the eyepiece finder 117, looks into the eyepiece unit 116, and is ready to press the shutter button 101 at any time. The touch bar 119 can perform a tap operation (an operation of touching and releasing the touch bar 119 without moving the touch position within a predetermined period), a left/right slide operation (an operation of moving the touch position while touching after touching), and the like. Acceptable. The touch bar 119 is an operation member different from the touch panel 109 and does not have a display function. The touch bar 119 functions, for example, as a multi-function bar (M-Fn bar) to which various functions can be assigned.

また、カメラ100は、グリップ部120、サムレスト部121、端子カバー122、蓋123、通信端子124等を有する。グリップ部120は、ユーザがカメラ100を構える際に右手で握りやすい形状に形成された保持部である。グリップ部120を右手の小指、薬指、中指で握ってカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン101とメイン電子ダイヤル104が配置される。また、同様な状態で、右手の親指で操作可能な位置にサブ電子ダイヤル105とタッチバー119が配置される。サムレスト部121(親指待機位置)は、カメラ100の背面側の、どの操作部材も操作しない状態でグリップ部120を握った右手の親指を置きやすい箇所に設けられたグリップ部である。サムレスト部121は、保持力(グリップ感)を高めるためのラバー部材等で構成される。端子カバー122は、カメラ100を外部機器(外部装置)に接続する接続ケーブル等のコネクタを保護する。蓋123は、後述する記録媒体227を格納するためのスロットを閉塞することで記録媒体227およびスロットを保護する。通信端子124は、カメラ100に対して着脱可能なレンズユニット(後述するレンズユニット200や、レンズユニット300など)側と通信を行うための端子である。 The camera 100 also has a grip portion 120, a thumb rest portion 121, a terminal cover 122, a lid 123, a communication terminal 124, and the like. The grip portion 120 is a holding portion formed in a shape that allows the user to easily hold the camera 100 with his or her right hand. The shutter button 101 and the main electronic dial 104 are arranged at positions that can be operated with the index finger of the right hand while holding the camera 100 by gripping the grip portion 120 with the little finger, the ring finger and the middle finger of the right hand. Also, in a similar state, the sub-electronic dial 105 and the touch bar 119 are arranged at positions that can be operated with the thumb of the right hand. The thumb rest portion 121 (thumb standby position) is a grip portion provided on the rear side of the camera 100 where the thumb of the right hand holding the grip portion 120 can be easily placed without operating any operation member. The thumb rest portion 121 is made of a rubber member or the like for enhancing holding power (grip feeling). The terminal cover 122 protects a connector such as a connection cable that connects the camera 100 to an external device (external device). The lid 123 protects the recording medium 227 and the slot by closing the slot for storing the recording medium 227, which will be described later. The communication terminal 124 is a terminal for communicating with a detachable lens unit (a lens unit 200, a lens unit 300, etc., which will be described later) with respect to the camera 100. FIG.

図3は、カメラ100の構成の一例を示すブロック図である。なお、図2と同一の構成要素には図2と同一の符号を付し、その構成要素の説明は適宜、省略する。図3では、カ
メラ100にレンズユニット200が装着されている。
FIG. 3 is a block diagram showing an example of the configuration of the camera 100. As shown in FIG. The same components as in FIG. 2 are denoted by the same reference numerals as in FIG. 2, and the description of the components will be omitted as appropriate. In FIG. 3, the lens unit 200 is attached to the camera 100 .

まず、レンズユニット200について説明する。レンズユニット200は、カメラ100に対して着脱可能な交換レンズの一種である。レンズユニット200は、1眼レンズであり、通常のレンズの一例である。レンズユニット200は、絞り201、レンズ202、絞り駆動回路203、AF(オートフォーカス)駆動回路204、レンズシステム制御回路205、通信端子206等を有する。 First, the lens unit 200 will be explained. The lens unit 200 is a type of interchangeable lens that can be attached to and detached from the camera 100 . The lens unit 200 is a monocular lens and an example of a normal lens. The lens unit 200 has an aperture 201, a lens 202, an aperture drive circuit 203, an AF (autofocus) drive circuit 204, a lens system control circuit 205, a communication terminal 206, and the like.

絞り201は、開口径が調整可能に構成される。レンズ202は、複数枚のレンズから構成される。絞り駆動回路203は、絞り201の開口径を制御することで光量を調整する。AF駆動回路204は、レンズ202を駆動して焦点を合わせる。レンズシステム制御回路205は、後述するシステム制御部50の指示に基づいて、絞り駆動回路203、AF駆動回路204等を制御する。レンズシステム制御回路205は、絞り駆動回路203を介して絞り201の制御を行い、AF駆動回路204を介してレンズ202の位置を変えることで焦点を合わせる。レンズシステム制御回路205は、カメラ100との間で通信可能である。具体的には、レンズユニット200の通信端子206と、カメラ100の通信端子124とを介して通信が行われる。通信端子206は、レンズユニット200がカメラ100側と通信を行うための端子である。 The diaphragm 201 is configured such that the aperture diameter can be adjusted. The lens 202 is composed of a plurality of lenses. A diaphragm drive circuit 203 adjusts the amount of light by controlling the aperture diameter of the diaphragm 201 . An AF driving circuit 204 drives the lens 202 to focus. A lens system control circuit 205 controls an aperture drive circuit 203, an AF drive circuit 204, and the like based on instructions from a system control unit 50, which will be described later. A lens system control circuit 205 controls an aperture 201 through an aperture drive circuit 203 and focuses by changing the position of a lens 202 through an AF drive circuit 204 . Lens system control circuit 205 can communicate with camera 100 . Specifically, communication is performed via the communication terminal 206 of the lens unit 200 and the communication terminal 124 of the camera 100 . A communication terminal 206 is a terminal for the lens unit 200 to communicate with the camera 100 side.

次に、カメラ100について説明する。カメラ100は、シャッター210、撮像部211、A/D変換器212、メモリ制御部213、画像処理部214、メモリ215、D/A変換器216、EVF217、表示部108、システム制御部50を有する。 Next, the camera 100 will be explained. The camera 100 has a shutter 210, an imaging unit 211, an A/D converter 212, a memory control unit 213, an image processing unit 214, a memory 215, a D/A converter 216, an EVF 217, a display unit 108, and a system control unit 50. .

シャッター210は、システム制御部50の指示に基づいて撮像部211の露光時間を自由に制御できるフォーカルプレーンシャッターである。撮像部211は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子(イメージセンサ)である。撮像部211は、システム制御部50にデフォーカス量情報を出力する撮像面位相差センサを有していてもよい。A/D変換器212は、撮像部211から出力されるアナログ信号をデジタル信号に変換する。画像処理部214は、A/D変換器212からのデータまたはメモリ制御部213からのデータに対し所定の処理(画素補間、縮小等のリサイズ処理、色変換処理等)を行う。また、画像処理部214は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50が露光制御や測距制御を行う。この処理により、TTL(スルー・ザ・レンズ)方式のAF処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理等が行われる。更に、画像処理部214は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50がTTL方式のAWB(オートホワイトバランス)処理を行う。 The shutter 210 is a focal plane shutter that can freely control the exposure time of the imaging section 211 based on the instruction from the system control section 50 . The imaging unit 211 is an imaging device (image sensor) configured by a CCD, a CMOS device, or the like that converts an optical image into an electrical signal. The imaging unit 211 may have an imaging surface phase difference sensor that outputs defocus amount information to the system control unit 50 . The A/D converter 212 converts the analog signal output from the imaging unit 211 into a digital signal. The image processing unit 214 performs predetermined processing (pixel interpolation, resizing such as reduction, color conversion, etc.) on the data from the A/D converter 212 or the data from the memory control unit 213 . Further, the image processing unit 214 performs predetermined arithmetic processing using captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the obtained arithmetic result. Through this processing, TTL (through-the-lens) AF processing, AE (auto exposure) processing, EF (flash pre-emission) processing, and the like are performed. Further, the image processing unit 214 performs predetermined arithmetic processing using the captured image data, and the system control unit 50 performs TTL AWB (auto white balance) processing based on the obtained arithmetic results.

A/D変換器212からの画像データは、画像処理部214およびメモリ制御部213を介してメモリ215に書き込まれる。あるいは、A/D変換器212からの画像データは、画像処理部214を介さずにメモリ制御部213を介してメモリ215に書き込まれる。メモリ215は、撮像部211によって得られA/D変換器212によりデジタルデータに変換された画像データや、表示部108やEVF217に表示するための画像データを格納する。メモリ215は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。また、メモリ215は画像表示用のメモリ(ビデオメモリ)を兼ねている。 Image data from the A/D converter 212 is written into the memory 215 via the image processing section 214 and the memory control section 213 . Alternatively, the image data from the A/D converter 212 is written to the memory 215 via the memory control section 213 without passing through the image processing section 214 . A memory 215 stores image data obtained by the imaging unit 211 and converted into digital data by the A/D converter 212 and image data to be displayed on the display unit 108 and the EVF 217 . The memory 215 has a storage capacity sufficient to store a predetermined number of still images, moving images and audio for a predetermined time. The memory 215 also serves as an image display memory (video memory).

D/A変換器216は、メモリ215に格納されている表示用の画像データをアナログ信号に変換して表示部108やEVF217に供給する。したがって、メモリ215に書き込まれた表示用の画像データは、D/A変換器216を介して表示部108やEVF217に表示される。表示部108やEVF217は、D/A変換器216からのアナログ
信号に応じた表示を行う。表示部108やEVF217は、例えば、LCDや有機EL等のディスプレイである。A/D変換器212によってA/D変換されメモリ215に蓄積されたデジタル信号をD/A変換器216でアナログ信号に変換し、表示部108やEVF217に逐次転送して表示することで、ライブビュー表示が行われる。
The D/A converter 216 converts the display image data stored in the memory 215 into an analog signal and supplies the analog signal to the display unit 108 and the EVF 217 . Therefore, the image data for display written in the memory 215 is displayed on the display unit 108 or the EVF 217 via the D/A converter 216 . The display unit 108 and the EVF 217 perform display according to analog signals from the D/A converter 216 . The display unit 108 and the EVF 217 are, for example, displays such as LCD and organic EL. The digital signal A/D converted by the A/D converter 212 and accumulated in the memory 215 is converted into an analog signal by the D/A converter 216, and transferred to the display unit 108 or the EVF 217 for display. A view is displayed.

システム制御部50は、少なくとも1つのプロセッサおよび/または少なくとも1つの回路からなる制御部である。すなわち、システム制御部50は、プロセッサであってもよく、回路であってもよく、プロセッサと回路の組み合わせであってもよい。システム制御部50は、カメラ100全体を制御する。システム制御部50は、不揮発性メモリ219に記録されたプログラムを実行することで、後述するフローチャートの各処理を実現する。また、システム制御部50は、メモリ215、D/A変換器216、表示部108、EVF217等を制御することにより表示制御も行う。 System controller 50 is a controller comprising at least one processor and/or at least one circuit. That is, the system control unit 50 may be a processor, a circuit, or a combination of a processor and a circuit. A system control unit 50 controls the entire camera 100 . The system control unit 50 executes the programs recorded in the non-volatile memory 219 to realize each process of the flowcharts described later. The system control unit 50 also performs display control by controlling the memory 215, the D/A converter 216, the display unit 108, the EVF 217, and the like.

また、カメラ100は、システムメモリ218、不揮発性メモリ219、システムタイマ220、通信部221、姿勢検知部222、接眼検知部118を有する。 The camera 100 also has a system memory 218 , a nonvolatile memory 219 , a system timer 220 , a communication section 221 , an orientation detection section 222 and an eye proximity detection section 118 .

システムメモリ218として、例えばRAMが用いられる。システムメモリ218には、システム制御部50の動作用の定数、変数、不揮発性メモリ219から読み出したプログラム等が展開される。不揮発性メモリ219は電気的に消去・記録可能なメモリであり、不揮発性メモリ219として、例えばEEPROMが用いられる。不揮発性メモリ219には、システム制御部50の動作用の定数、プログラム等が記録される。ここでのプログラムとは、後述するフローチャートを実行するためのプログラムである。システムタイマ220は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。通信部221は、無線または有線ケーブルによって接続された外部機器との間で、映像信号や音声信号の送受信を行う。通信部221は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部221は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部221は撮像部211で撮像した画像(ライブ画像を含む)や、記録媒体227に記録された画像を送信可能であり、外部機器から画像やその他の各種情報を受信することができる。姿勢検知部222は、重力方向に対するカメラ100の姿勢を検知する。姿勢検知部222で検知された姿勢に基づいて、撮像部211で撮影された画像が、カメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部222で検知された姿勢に応じた向き情報を撮像部211で撮影された画像の画像ファイルに付加したり、検知された姿勢に応じて画像を回転したりすることが可能である。姿勢検知部222には、例えば、加速度センサやジャイロセンサ等を用いることができる。姿勢検知部222を用いて、カメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。 A RAM, for example, is used as the system memory 218 . In the system memory 218, constants and variables for operation of the system control unit 50, programs read from the nonvolatile memory 219, and the like are expanded. The nonvolatile memory 219 is an electrically erasable/recordable memory, and an EEPROM, for example, is used as the nonvolatile memory 219 . Constants for operation of the system control unit 50, programs, and the like are recorded in the nonvolatile memory 219. FIG. The program here is a program for executing a flowchart to be described later. The system timer 220 is a timer that measures the time used for various controls and the time of the built-in clock. The communication unit 221 transmits and receives video signals and audio signals to and from an external device connected wirelessly or by a wired cable. The communication unit 221 can be connected to a wireless LAN (Local Area Network) or the Internet. The communication unit 221 can also communicate with an external device using Bluetooth (registered trademark) or Bluetooth Low Energy. The communication unit 221 can transmit images (including live images) captured by the imaging unit 211 and images recorded in the recording medium 227, and can receive images and other various information from external devices. The orientation detection unit 222 detects the orientation of the camera 100 with respect to the direction of gravity. Based on the posture detected by the posture detection unit 222, whether the image captured by the imaging unit 211 is an image captured with the camera 100 held horizontally or an image captured with the camera 100 held vertically is determined. It is identifiable. The system control unit 50 adds orientation information according to the orientation detected by the orientation detection unit 222 to the image file of the image captured by the imaging unit 211, and rotates the image according to the detected orientation. It is possible. For example, an acceleration sensor, a gyro sensor, or the like can be used for the posture detection unit 222 . The posture detection unit 222 can also be used to detect the movement of the camera 100 (pan, tilt, lift, whether it is stationary, etc.).

接眼検知部118は、接眼部116(接眼ファインダ117)に対する何らかの物体の接近を検知することができる。接眼検知部118には、例えば、赤外線近接センサを用いることができる。物体が接近した場合、接眼検知部118の投光部から投光した赤外線が物体で反射して赤外線近接センサの受光部で受光される。受光された赤外線の量によって接眼部116から物体までの距離を判別することができる。このように、接眼検知部118は、接眼部116に対する物体の近接距離を検知する接眼検知を行う。接眼検知部118は、接眼部116に対する眼(物体)の接近(接眼)および離反(離眼)を検知する接眼検知センサである。非接眼状態(非接近状態)から、接眼部116に対して所定距離以内に近づく物体が検知された場合に、接眼されたと検知する。一方、接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検知する。接眼を検知する閾値と、離眼を検知する閾値とは例えばヒステリシスを設ける等して異な
っていてもよい。また、接眼を検知した後は、離眼を検知するまでは接眼状態であるものとする。離眼を検知した後は、接眼を検知するまでは非接眼状態であるものとする。システム制御部50は、接眼検知部118で検知された状態に応じて、表示部108とEVF217の表示(表示状態)/非表示(非表示状態)を切り替える。具体的には、少なくとも撮影待機状態であって、かつ、表示先の切替設定が自動切替である場合、非接眼中は表示先を表示部108として表示をオンとし、EVF217は非表示とする。また、接眼中は表示先をEVF217として表示をオンとし、表示部108は非表示とする。なお、接眼検知部118は赤外線近接センサに限られず、接眼検知部118には、接眼とみなせる状態を検知できるものであれば他のセンサを用いてもよい。
The eyepiece detection unit 118 can detect the approach of any object to the eyepiece unit 116 (eyepiece finder 117). For example, an infrared proximity sensor can be used for the eye proximity detection unit 118 . When an object approaches, the infrared rays projected from the light projecting unit of the eyepiece detection unit 118 are reflected by the object and received by the light receiving unit of the infrared proximity sensor. The distance from the eyepiece 116 to the object can be determined by the amount of received infrared rays. In this manner, the eye proximity detection unit 118 performs eye proximity detection for detecting the close distance of an object to the eyepiece unit 116 . The eye contact detection unit 118 is an eye contact detection sensor that detects approach (eye contact) and separation (eye separation) of the eye (object) from the eyepiece unit 116 . When an object approaching within a predetermined distance from the eyepiece unit 116 is detected from the non-eyepiece state (non-approach state), it is detected that the eyepiece has been brought into the eyepiece state. On the other hand, when the object whose approach has been detected moves away from the eye contact state (approach state) by a predetermined distance or more, it is detected that the eye has been taken off. The threshold for detecting eye proximity and the threshold for detecting eye detachment may be different, for example, by providing hysteresis. Also, it is assumed that after the eye contact is detected, the eye contact state is maintained until the eye detachment is detected. It is assumed that the eyes are in the non-eye contact state after the eye separation is detected until the eye contact is detected. The system control unit 50 switches display (display state)/non-display (non-display state) of the display unit 108 and the EVF 217 according to the state detected by the eye proximity detection unit 118 . Specifically, at least in the shooting standby state and when the switching setting of the display destination is automatic switching, the display destination is set to the display unit 108 and the display is turned on while the EVF 217 is not displayed. In addition, while the eye is being focused, the display destination is the EVF 217, the display is turned on, and the display unit 108 is turned off. Note that the eye contact detection unit 118 is not limited to the infrared proximity sensor, and other sensors may be used as the eye contact detection unit 118 as long as they can detect a state that can be regarded as eye contact.

また、カメラ100は、ファインダ外表示部107、ファインダ外表示駆動回路223、電源制御部224、電源部225、記録媒体I/F226、操作部228等を有する。 The camera 100 also includes an out-of-finder display unit 107, an out-of-finder display drive circuit 223, a power control unit 224, a power supply unit 225, a recording medium I/F 226, an operation unit 228, and the like.

ファインダ外表示部107は、ファインダ外表示駆動回路223によって駆動され、シャッター速度や絞り等のカメラ100の様々な設定値を表示する。電源制御部224は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出等を行う。また、電源制御部224は、その検出結果およびシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体227を含む各部へ供給する。電源部225は、アルカリ電池およびリチウム電池等の一次電池、NiCd電池、NiMH電池およびLi電池等の二次電池、ACアダプター等である。記録媒体I/F226は、メモリカードやハードディスク等の記録媒体227とのインターフェースである。記録媒体227は、撮影された画像を記録するためのメモリカード等であり、半導体メモリや磁気ディスク等から構成される。記録媒体227は、カメラ100に対して着脱可能であってもよいし、カメラ100に内蔵されていてもよい。 The viewfinder display unit 107 is driven by the viewfinder display drive circuit 223 and displays various setting values of the camera 100 such as shutter speed and aperture. The power control unit 224 includes a battery detection circuit, a DC-DC converter, a switch circuit for switching blocks to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining amount of the battery. Also, the power supply control unit 224 controls the DC-DC converter based on the detection results and instructions from the system control unit 50, and supplies necessary voltage to each unit including the recording medium 227 for a necessary period. The power supply unit 225 is a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery or a Li battery, an AC adapter, or the like. A recording medium I/F 226 is an interface with a recording medium 227 such as a memory card or hard disk. A recording medium 227 is a memory card or the like for recording captured images, and is composed of a semiconductor memory, a magnetic disk, or the like. The recording medium 227 may be detachable from the camera 100 or may be built in the camera 100 .

操作部228は、ユーザからの操作(ユーザ操作)を受け付ける入力部であり、システム制御部50に各種の指示を入力するために用いられる。操作部228は、シャッターボタン101、電源スイッチ102、モード切替スイッチ103、タッチパネル109、他の操作部229等が含まれる。他の操作部229には、メイン電子ダイヤル104、サブ電子ダイヤル105、動画ボタン106、方向キー110、SETボタン111、AEロックボタン112、拡大ボタン113、再生ボタン114、メニューボタン115、タッチバー119等が含まれる。 The operation unit 228 is an input unit that receives operations (user operations) from the user, and is used to input various instructions to the system control unit 50 . The operation unit 228 includes the shutter button 101, the power switch 102, the mode switching switch 103, the touch panel 109, another operation unit 229, and the like. The other operation unit 229 includes the main electronic dial 104, the sub electronic dial 105, the movie button 106, the direction keys 110, the SET button 111, the AE lock button 112, the zoom button 113, the playback button 114, the menu button 115, the touch bar 119, and the like. is included.

シャッターボタン101は、第1シャッタースイッチ230と第2シャッタースイッチ231を有する。第1シャッタースイッチ230は、シャッターボタン101の操作途中、いわゆる半押し(撮影準備指示)でオンとなり、第1シャッタースイッチ信号SW1を出力する。システム制御部50は、第1シャッタースイッチ信号SW1に応じて、AF処理、AE処理、AWB処理、EF処理等の撮影準備処理を開始する。第2シャッタースイッチ231は、シャッターボタン101の操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を出力する。システム制御部50は、第2シャッタースイッチ信号SW2に応じて、撮像部211からの信号読み出しから、撮影された画像を含む画像ファイルを生成して記録媒体227に書き込むまでの一連の撮影処理を開始する。 The shutter button 101 has a first shutter switch 230 and a second shutter switch 231 . The first shutter switch 230 is turned on when the shutter button 101 is pressed halfway (imaging preparation instruction), and outputs a first shutter switch signal SW1. The system control unit 50 starts shooting preparation processing such as AF processing, AE processing, AWB processing, and EF processing in response to the first shutter switch signal SW1. The second shutter switch 231 is turned on when the operation of the shutter button 101 is completed, that is, when the shutter button 101 is fully pressed (imaging instruction), and outputs a second shutter switch signal SW2. In response to the second shutter switch signal SW2, the system control unit 50 starts a series of photographing processes from reading signals from the imaging unit 211 to generating an image file including the photographed image and writing it to the recording medium 227. do.

モード切替スイッチ103は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード、再生モード等の何れかに切り替える。静止画撮影モードに含まれるモードには、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモ
ード等がある。ユーザは、モード切替スイッチ103により、上述した撮影モードの何れかに直接、切り替えることができる。あるいは、ユーザは、モード切替スイッチ103により撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードの何れかに操作部228を用いて選択的に切り替えることができる。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
A mode switch 103 switches the operation mode of the system control unit 50 to one of a still image shooting mode, a moving image shooting mode, a playback mode, and the like. Modes included in the still image shooting mode include an auto shooting mode, an auto scene determination mode, a manual mode, an aperture priority mode (Av mode), a shutter speed priority mode (Tv mode), and a program AE mode (P mode). In addition, there are various scene modes, custom modes, and the like, which are shooting settings for each shooting scene. The user can directly switch to one of the above-described shooting modes by using the mode switch 103 . Alternatively, the user can use the operation unit 228 to selectively switch to any one of the plurality of displayed modes after switching once to the shooting mode list screen using the mode switching switch 103 . Similarly, the movie shooting mode may also include multiple modes.

タッチパネル109は、表示部108の表示面(タッチパネル109の操作面)への各種タッチ操作を検出するタッチセンサである。タッチパネル109と表示部108とは一体的に構成することができる。例えば、タッチパネル109は、光の透過率が表示部108の表示を妨げないように、表示部108の表示面の上層に取り付けられる。そして、タッチパネル109における入力座標と、表示部108の表示面上の表示座標とを対応付けることで、あたかもユーザが表示部108上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザインターフェース)を構成できる。タッチパネル109には、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等の様々な方式のうち何れかの方式を用いることができる。方式によって、タッチパネル109に対する接触があったことでタッチがあったと検知する方式や、タッチパネル109に対する指やペンの接近があったことでタッチがあったと検知する方式があるが、何れの方式であってもよい。 The touch panel 109 is a touch sensor that detects various touch operations on the display surface of the display unit 108 (the operation surface of the touch panel 109). The touch panel 109 and the display unit 108 can be configured integrally. For example, the touch panel 109 is attached to the upper layer of the display surface of the display unit 108 so that the light transmittance does not interfere with the display of the display unit 108 . By associating the input coordinates on the touch panel 109 with the display coordinates on the display surface of the display unit 108, a GUI is provided as if the user can directly operate the screen displayed on the display unit 108. (graphical user interface) can be configured. The touch panel 109 can use any one of various methods such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method. Depending on the method, there is a method of detecting that there is a touch when there is a contact with the touch panel 109, and a method of detecting that there is a touch when a finger or a pen approaches the touch panel 109. Either method can be used. may

システム制御部50は、タッチパネル109に対する以下の操作あるいは状態を検出できる。
・タッチパネル109にタッチしていなかった指やペンが新たにタッチパネル109にタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)という)。
・タッチパネル109を指やペンでタッチしている状態(以下、タッチオン(Touch-On)という)。
・タッチパネル109を指やペンがタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)という)。
・タッチパネル109へタッチしていた指やペンがタッチパネル109から離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)という)。
・タッチパネル109に何もタッチしていない状態(以下、タッチオフ(Touch-Off)という)。
The system control unit 50 can detect the following operations or states on the touch panel 109 .
The touch panel 109 is newly touched by a finger or pen that has not touched the touch panel 109, that is, the start of touch (hereinafter referred to as Touch-Down).
A state in which the touch panel 109 is touched with a finger or a pen (hereinafter referred to as Touch-On).
- The touch panel 109 is moved while being touched by a finger or pen (hereinafter referred to as touch-move).
- The finger or pen touching the touch panel 109 is released from the touch panel 109, ie, the end of the touch (hereinafter referred to as Touch-Up).
A state in which nothing is touched on the touch panel 109 (hereinafter referred to as Touch-Off).

タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。 When touchdown is detected, touchon is also detected at the same time. After touchdown, touchon continues to be detected unless touchup is detected. Touch-on is detected at the same time when touch-move is detected. Even if touch-on is detected, touch-move is not detected if the touch position does not move. After it is detected that all the fingers and pens that have touched have touched up, the touch is turned off.

これらの操作・状態や、タッチパネル109上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。システム制御部50は通知された情報に基づいてタッチパネル109上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル109上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル109上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定される。タッチパネル109上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックという。フリックは、言い換えればタッチパネル109上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリ
ックが行われたと判定される(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトという。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)という。
These operations/states and the coordinates of the position where the finger or pen is touching on the touch panel 109 are notified to the system control unit 50 through the internal bus. The system control unit 50 determines what kind of operation (touch operation) has been performed on the touch panel 109 based on the notified information. As for the touch move, the moving direction of the finger or pen moving on the touch panel 109 can also be determined for each vertical component/horizontal component on the touch panel 109 based on the change in the position coordinates. When it is detected that the touch-move has been performed by a predetermined distance or more, it is determined that the slide operation has been performed. An operation of touching the touch panel 109 with a finger and quickly moving it by a certain distance and then releasing it is called a flick. A flick is, in other words, an operation of quickly tracing the touch panel 109 as if flicking it with a finger. It is detected that a touch-move has been performed for a predetermined distance or more at a predetermined speed or more, and if a touch-up is detected as it is, it is determined that a flick has been performed (it can be determined that a flick has occurred following a slide operation). Further, a touch operation in which multiple points (for example, two points) are touched together (multi-touch) and the touch positions are brought closer together is called pinch-in, and a touch operation in which the touch positions are moved away from each other is called pinch-out. Pinch-out and pinch-in are collectively called pinch operation (or simply pinch).

図4は、レンズユニット300の構成の一例を示す模式図である。図4では、レンズユニット300をカメラ100に装着した状態を示している。なお、図4に示すカメラ100のうち、図3で説明した構成要素と同一の構成要素には、図3と同一の符号を付し、その構成要素の説明は適宜、省略する。 FIG. 4 is a schematic diagram showing an example of the configuration of the lens unit 300. As shown in FIG. 4 shows a state in which the lens unit 300 is attached to the camera 100. FIG. In the camera 100 shown in FIG. 4, the same constituent elements as those explained in FIG. 3 are denoted by the same reference numerals as in FIG. 3, and the explanation of those constituent elements is omitted as appropriate.

レンズユニット300は、カメラ100に対して着脱可能な交換レンズの一種である。レンズユニット300は、視差のある右像および左像を撮像可能な2眼レンズである。本実施形態では、レンズユニット300は2つの光学系を有し、2つの光学系それぞれで、略180度の広視野角の範囲を撮像できる。具体的に、レンズユニット300の2つの光学系それぞれで、左右方向(水平角度、方位角、ヨー角)180度、上下方向(垂直角度、仰俯角、ピッチ角)180度の視野分(画角分)の被写体を撮像できる。つまり、2つの光学系それぞれで、前方半球の範囲を撮像できる。 The lens unit 300 is a type of interchangeable lens that can be attached to and detached from the camera 100 . The lens unit 300 is a twin lens capable of imaging a right image and a left image with parallax. In this embodiment, the lens unit 300 has two optical systems, and each of the two optical systems can image a wide viewing angle range of approximately 180 degrees. Specifically, in each of the two optical systems of the lens unit 300, the horizontal direction (horizontal angle, azimuth angle, yaw angle) of 180 degrees and the vertical direction (vertical angle, elevation/depression angle, pitch angle) of 180 degrees. minutes). That is, each of the two optical systems can image the range of the anterior hemisphere.

レンズユニット300は、複数のレンズと反射ミラー等を有する右眼光学系301R、複数のレンズと反射ミラー等を有する左眼光学系301L、レンズシステム制御回路303を有する。右眼光学系301Rは第1の光学系の一例であり、左眼光学系301Lは第2の光学系の一例である。右眼光学系301Rは被写体側に配置されるレンズ302Rを有し、左眼光学系301Lは被写体側に配置されるレンズ302Lを有する。レンズ302Rとレンズ302Lは同じ方向を向いており、それらの光軸は略平行である。 The lens unit 300 has a right-eye optical system 301R having a plurality of lenses and reflecting mirrors, a left-eye optical system 301L having a plurality of lenses and reflecting mirrors, and a lens system control circuit 303. The right-eye optical system 301R is an example of a first optical system, and the left-eye optical system 301L is an example of a second optical system. The right-eye optical system 301R has a lens 302R arranged on the subject side, and the left-eye optical system 301L has a lens 302L arranged on the subject side. The lenses 302R and 302L face the same direction, and their optical axes are substantially parallel.

レンズユニット300は、2眼立体視が可能なVR(Virtual Reality)画像のフォーマットの1つであるVR180の画像を得るための2眼レンズ(VR180レンズ)である。本実施形態では、レンズユニット300は、右眼光学系301Rおよび左眼光学系301Lのそれぞれに、略180度の範囲を捉えることが可能な魚眼レンズを有する。なお、右眼光学系301Rおよび左眼光学系301Lのそれぞれが有するレンズで捉えることが可能な範囲は、180度の範囲よりも狭い160度程度であってもよい。レンズユニット300は、右眼光学系301Rを介して形成される右像(第1画像)と、左眼光学系301Lを介して形成される左像(第2画像)とを、レンズユニット300が装着されたカメラの1つまたは2つの撮像素子上に結像することができる。 The lens unit 300 is a twin lens (VR180 lens) for obtaining a VR180 image, which is one of VR (Virtual Reality) image formats capable of binocular stereoscopic viewing. In this embodiment, the lens unit 300 has a fisheye lens capable of capturing a range of approximately 180 degrees in each of the right-eye optical system 301R and the left-eye optical system 301L. The range that can be captured by the lenses of the right-eye optical system 301R and the left-eye optical system 301L may be about 160 degrees, which is narrower than the range of 180 degrees. The lens unit 300 combines a right image (first image) formed via the right-eye optical system 301R and a left image (second image) formed via the left-eye optical system 301L. It can be imaged onto one or two imagers of a mounted camera.

レンズユニット300は、レンズマウント部304と、カメラ100のカメラマウント部305とを介して、カメラ100に装着される。こうすることで、カメラ100の通信端子124と、レンズユニット300の通信端子306とを介して、カメラ100のシステム制御部50とレンズユニット300のレンズシステム制御回路303とが電気的に接続される。 The lens unit 300 is attached to the camera 100 via the lens mount section 304 and the camera mount section 305 of the camera 100 . By doing so, the system control unit 50 of the camera 100 and the lens system control circuit 303 of the lens unit 300 are electrically connected via the communication terminal 124 of the camera 100 and the communication terminal 306 of the lens unit 300. .

本実施形態では、右眼光学系301Rを介して形成される右像と、左眼光学系301Lを介して形成される左像とが、同時に(セットで)カメラ100の撮像部211に結像される。すなわち、右眼光学系301Rおよび左眼光学系301Lにより形成される2つの光学像が1つの撮像素子上に形成される。撮像部211は、結像された被写体像(光信号)をアナログ電気信号に変換する。このようにレンズユニット300を用いることで、右眼光学系301Rと左眼光学系301Lとの2つの箇所(光学系)から、視差がある2つの画像を同時に(セットで)取得することができる。取得された画像を左眼用の画像と右眼用の画像とに分けてVR表示することで、ユーザは略180度の範囲の立体的なVR画
像を視聴することができる。つまり、ユーザは、VR180の画像を立体視することができる。
In this embodiment, a right image formed via the right-eye optical system 301R and a left image formed via the left-eye optical system 301L are simultaneously (as a set) formed on the imaging unit 211 of the camera 100. be done. That is, two optical images formed by the right-eye optical system 301R and the left-eye optical system 301L are formed on one imaging device. The imaging unit 211 converts the formed subject image (optical signal) into an analog electrical signal. By using the lens unit 300 in this way, two images with parallax can be simultaneously acquired (as a set) from two locations (optical systems) of the right-eye optical system 301R and the left-eye optical system 301L. . By dividing the acquired image into an image for the left eye and an image for the right eye and displaying them in VR, the user can view a stereoscopic VR image within a range of approximately 180 degrees. That is, the user can stereoscopically view the image of the VR 180 .

ここで、VR画像とは、後述するVR表示することができる画像である。VR画像には、全方位カメラ(全天球カメラ)で撮像した全方位画像(全天球画像)や、表示部に一度で表示できる表示範囲より広い映像範囲(有効映像範囲)を持つパノラマ画像等が含まれる。また、VR画像は、静止画に限られず、動画、ライブ画像(カメラからほぼリアルタイムで取得した画像)も含まれる。VR画像は、最大で、左右方向360度、上下方向360度の視野分の映像範囲(有効映像範囲)を持つ。また、VR画像には、左右方向360度未満、上下方向360度未満であっても、通常のカメラで撮像可能な画角よりも広範な画角、あるいは、表示部に一度で表示できる表示範囲より広い映像範囲を持つ画像も含まれる。上述したレンズユニット300を用いてカメラ100で撮像される画像は、VR画像の一種である。VR画像は、例えば、表示装置(VR画像を表示できる表示装置)の表示モードを「VRビュー」に設定することでVR表示することができる。360度の画角を有するVR画像をVR表示して、ユーザが表示装置の姿勢を左右方向(水平回転方向)に変化させることで、左右方向に継ぎ目のない全方位の映像を観賞することができる。 Here, the VR image is an image that can be displayed in VR, which will be described later. VR images include an omnidirectional image (omnidirectional image) captured by an omnidirectional camera (omnidirectional camera), or a panoramic image with a wider image range (effective image range) than can be displayed on the display unit at once. etc. are included. Moreover, VR images are not limited to still images, and include moving images and live images (images obtained from a camera almost in real time). A VR image has a maximum video range (effective video range) of 360 degrees in the horizontal direction and 360 degrees in the vertical direction. In addition, even if the VR image is less than 360 degrees in the horizontal direction and less than 360 degrees in the vertical direction, the angle of view that is wider than the angle of view that can be captured by a normal camera, or the display range that can be displayed at once on the display unit Images with wider image coverage are also included. An image captured by the camera 100 using the lens unit 300 described above is a type of VR image. A VR image can be displayed in VR by, for example, setting the display mode of a display device (a display device capable of displaying a VR image) to “VR view”. By displaying a VR image having an angle of view of 360 degrees in VR and changing the posture of the display device in the left-right direction (horizontal rotation direction), the user can enjoy seamless omnidirectional video in the left-right direction. can.

VR表示(VRビュー)とは、VR画像のうち、表示装置の姿勢に応じた視野範囲の映像を表示する、表示範囲を変更可能な表示方法(表示モード)である。VR表示には、VR画像を仮想球体にマッピングする変形(歪曲補正)を行って1つの画像を表示する「1眼VR表示(1眼VRビュー)」がある。また、VR表示には、左眼用のVR画像と右眼用のVR画像とをそれぞれ仮想球体にマッピングする変形を行って左右の領域に並べて表示する「2眼VR表示(2眼VRビュー)」がある。互いに視差のある左眼用のVR画像と右眼用のVR画像を用いて「2眼VR表示」を行うことで、それらVR画像を立体視することが可能である。何れのVR表示であっても、例えば、ユーザがHMD(ヘッドマウントディスプレイ)等の表示装置を装着した場合、ユーザの顔の向きに応じた視野範囲の映像が表示される。例えば、VR画像のうち、ある時点で左右方向に0度(特定の方位、例えば北)、上下方向に90度(天頂から90度、すなわち水平)を中心とした視野範囲の映像を表示しているとする。この状態から表示装置の姿勢を表裏反転させる(例えば、表示面を南向きから北向きに変更する)と、同じVR画像のうち、左右方向に180度(逆の方位、例えば南)、上下方向に90度を中心とした視野範囲の映像に、表示範囲が変更される。すなわち、ユーザがHMDを装着した状態で、顔を北から南に向く(すなわち後ろを向く)ことで、HMDに表示される映像も北の映像から南の映像に変更される。なお、本実施形態のレンズユニット300を用いて撮像したVR画像は、前方略180度の範囲を撮像した画像(180°画像)であり、後方略180度の範囲の映像は存在しない。このような画像をVR表示して、映像が存在しない側に表示装置の姿勢を変更した場合にはブランク領域が表示される。 VR display (VR view) is a display method (display mode) that allows the display range to be changed by displaying an image within a viewing range corresponding to the posture of the display device. VR display includes “single-lens VR display (single-lens VR view)” in which one image is displayed by performing deformation (distortion correction) by mapping a VR image onto a virtual sphere. In addition, for VR display, there is a "twin-eye VR display (twin-eye VR view)" in which a VR image for the left eye and a VR image for the right eye are transformed by mapping onto a virtual sphere and displayed side by side in the left and right regions. There is. By performing “twin-eye VR display” using a VR image for the left eye and a VR image for the right eye that have parallax with each other, it is possible to stereoscopically view these VR images. In any VR display, for example, when a user wears a display device such as an HMD (head-mounted display), an image within a visual field corresponding to the orientation of the user's face is displayed. For example, of the VR image, at a certain point in time, the image of the viewing range centered at 0 degrees in the horizontal direction (a specific direction, such as north) and 90 degrees in the vertical direction (90 degrees from the zenith, that is, horizontal) is displayed. Suppose there is When the posture of the display device is reversed from this state (for example, the display surface is changed from facing south to facing north), the same VR image can be displayed by 180 degrees in the horizontal direction (opposite direction, for example, south), and by 180 degrees in the vertical direction. The display range is changed to the image of the visual field range centered at 90 degrees. That is, when the user wears the HMD and turns his face from north to south (that is, turns his back), the image displayed on the HMD is changed from the north image to the south image. Note that the VR image captured using the lens unit 300 of the present embodiment is an image (180° image) captured in a range of approximately 180 degrees forward, and there is no video in a range of approximately 180 degrees backward. When such an image is displayed in VR and the posture of the display device is changed to the side where no image exists, a blank area is displayed.

このようにVR画像をVR表示することによって、ユーザは視覚的にあたかもVR画像内(VR空間内)にいるような感覚(没入感)を得ることができる。なお、VR画像の表示方法は表示装置の姿勢を変更する方法に限られない。例えば、タッチパネルや方向ボタン等を介したユーザ操作に応じて、表示範囲を移動(スクロール)させてもよい。また、VR表示時(表示モード「VRビュー」時)において、姿勢変化による表示範囲の変更に加え、タッチパネルでのタッチムーブ、マウス等でのドラッグ操作、方向ボタンの押下等に応じて表示範囲を変更してもよい。なお、VRゴーグル(ヘッドマウントアダプタ)に装着されたスマートフォンはHMDの一種である。 By VR-displaying a VR image in this way, the user can visually feel as if he/she is in the VR image (inside the VR space) (feeling of immersion). Note that the display method of the VR image is not limited to the method of changing the posture of the display device. For example, the display range may be moved (scrolled) according to a user operation via a touch panel, direction buttons, or the like. In addition, when displaying VR (when the display mode is "VR view"), in addition to changing the display range due to changes in posture, the display range can be changed according to touch moves on the touch panel, drag operations with a mouse, etc., pressing direction buttons, etc. You can change it. A smartphone attached to VR goggles (head mount adapter) is a kind of HMD.

図5は、PC500の構成の一例を示すブロック図である。制御部501は、例えばCentral Processing Unit(CPU)であり、PC500全体を制御する。Read Only Memory(ROM)502は、プログラムやパラメー
タを非一時的に記憶する。Random Access Memory(RAM)503は、外部機器などから供給されるプログラムやデータを一時的に記憶する。記録媒体504は、PC500に固定して設置されたハードディスクやフラッシュメモリ、あるいはPC500に対して着脱可能な光ディスク、磁気カード、光カード、ICカード、メモリーカードなどである。カメラ100が撮影した画像のファイルは、記録媒体504から読み出される。操作部505は、PC500に対するユーザの操作を受け付ける。ユーザが操作を行う際に用いる操作部材は、PC500に設けられたボタンやタッチパネルなどであってもよいし、PC500に対して着脱可能なキーボードやマウスなどであってもよい。表示部506は、PC500が保持するデータや外部から供給されたデータなどを表示する。表示部506はPC500の一部であってもよいし、PC500とは別体の表示装置であってもよい。通信部507は、カメラ100などの外部機器との通信を行う。システムバス508はPC500の構成要素間を通信可能に接続する。
FIG. 5 is a block diagram showing an example of the configuration of the PC 500. As shown in FIG. A control unit 501 is, for example, a Central Processing Unit (CPU), and controls the entire PC 500 . A Read Only Memory (ROM) 502 non-temporarily stores programs and parameters. A random access memory (RAM) 503 temporarily stores programs and data supplied from an external device or the like. The recording medium 504 is a hard disk or flash memory fixedly installed in the PC 500, or an optical disc, magnetic card, optical card, IC card, memory card, or the like that is removable from the PC 500. FIG. A file of an image captured by the camera 100 is read from the recording medium 504 . An operation unit 505 receives user operations on the PC 500 . The operation member used when the user performs an operation may be a button or a touch panel provided on the PC 500, or may be a keyboard, mouse, or the like that is detachable from the PC 500. FIG. A display unit 506 displays data held by the PC 500, data supplied from the outside, and the like. The display unit 506 may be a part of the PC 500 or may be a display device separate from the PC 500 . A communication unit 507 communicates with an external device such as the camera 100 . A system bus 508 communicatively connects the components of PC 500 .

ここで、レンズユニット300(2眼レンズ)を装着して撮像される画像の特徴について説明する。レンズユニット200(通常の1眼レンズ)の場合、撮像部211上には、実際の見えに対して上下左右に反転した像(180度回転した像)が結像する。そのため、結像された画像全体を180度回転して、実際の見えに合った画像を取得(撮像)している。一方で、レンズユニット300(2眼レンズ)の場合は、右像と左像それぞれが、実際の見えに対して180度回転して撮像部211上に結像する。右像と左像の並びは特に限定されないが、本実施形態では、撮像部211上において、右像が右側に結像され、左像が左側に結像されるとする。そして、レンズユニット200(通常の1眼レンズ)の場合と同様に、結像された画像(右像の画像領域と左像の画像領域とを含む画像)全体を180度回転すると、右像と左像それぞれを実際の見えに合わせることはできるが、右像と左像の位置が入れ替わってしまう。つまり、左右の位置関係が反転して、右像が左側に配置され、左像が右側に配置された画像が撮像されることになる。本実施形態では、右像と左像の位置を2つの光学系(右眼光学系301Rと左眼光学系301L)と対応するような表示を可能にする。 Here, the characteristics of an image captured with the lens unit 300 (twin lens) attached will be described. In the case of the lens unit 200 (ordinary single-lens lens), an image that is inverted vertically and horizontally with respect to the actual appearance (an image that is rotated 180 degrees) is formed on the imaging unit 211 . Therefore, the entire formed image is rotated by 180 degrees to acquire (capture) an image that matches the actual appearance. On the other hand, in the case of the lens unit 300 (dual lens), the right image and the left image are formed on the imaging unit 211 after being rotated 180 degrees with respect to the actual appearance. The arrangement of the right image and the left image is not particularly limited, but in this embodiment, it is assumed that the right image is formed on the right side and the left image is formed on the left side on the imaging unit 211 . Then, as in the case of the lens unit 200 (ordinary single-lens lens), when the entire formed image (image including the image area of the right image and the image area of the left image) is rotated 180 degrees, the right image and Although each left image can be matched to the actual appearance, the positions of the right and left images are exchanged. In other words, the left and right positional relationship is reversed, and an image is captured in which the right image is arranged on the left side and the left image is arranged on the right side. In this embodiment, it is possible to display the positions of the right image and the left image in correspondence with two optical systems (the right eye optical system 301R and the left eye optical system 301L).

図6は、撮影モード時におけるカメラ100の動作(撮影モード処理)の一例を示すフローチャートである。この動作は、システム制御部50が不揮発性メモリ219に記録されたプログラムをシステムメモリ218に展開して実行することにより実現される。例えば、撮影モードでカメラ100が起動したり、カメラ100のモードが撮影モードに切り替えられたりすると、図6の動作が開始する。 FIG. 6 is a flow chart showing an example of the operation of the camera 100 in shooting mode (shooting mode processing). This operation is realized by the system control unit 50 loading the program recorded in the nonvolatile memory 219 into the system memory 218 and executing it. For example, when the camera 100 is activated in shooting mode or the mode of the camera 100 is switched to the shooting mode, the operation of FIG. 6 starts.

ステップS601では、システム制御部50は、カメラ100が2眼レンズ(例えばレンズユニット300)に対応しているか否かを判定する。例えば、システム制御部50は、システム制御部50のファームウェアのバージョンが2眼レンズに対応したバージョンであるか否かを判定する。2眼レンズに対応していると判定した場合はステップS602へ進み、そうでない場合はステップS615へ進む。本実施形態では、2眼レンズの場合は、通常の1眼レンズの場合と異なり、後処理用に2眼レンズの情報(レンズ情報;2眼レンズの2つの光学系に関する情報)を取得して記録する必要がある。そのため、ステップS601の処理が必要となる。 In step S601, the system control unit 50 determines whether the camera 100 is compatible with a twin lens (for example, the lens unit 300). For example, the system control unit 50 determines whether or not the version of the firmware of the system control unit 50 is compatible with the binocular lens. If it is determined that the binocular lens is supported, the process proceeds to step S602; otherwise, the process proceeds to step S615. In the present embodiment, in the case of a twin-lens lens, information on the twin-lens lens (lens information; information on two optical systems of the twin-lens lens) is acquired for post-processing, unlike in the case of a normal single-lens lens. Must be recorded. Therefore, the process of step S601 is required.

ステップS602では、システム制御部50は、2眼レンズがカメラ100に装着されているか否かを判定する。2眼レンズが装着されていると判定した場合はステップS603へ進み、そうでない場合はステップS615へ進む。なお、2眼レンズが装着されていない状態から2眼レンズが装着された場合も、ステップS603へ進む。2眼レンズが装着されている状態から2眼レンズが取り外され、1眼レンズが装着された場合は、ステップS615へ進む。 In step S602, the system control unit 50 determines whether the camera 100 is attached with a twin lens. If it is determined that the binocular lens is attached, the process proceeds to step S603; otherwise, the process proceeds to step S615. It should be noted that even when the twin lens is attached from the state in which the twin lens is not attached, the process proceeds to step S603. When the twin lens is removed from the state in which the twin lens is attached and the single lens is attached, the process proceeds to step S615.

ステップS603では、システム制御部50は、装着(接続)されている2眼レンズから、当該2眼レンズの設計値を取得する。設計値は設計上のパラメータであり、後述の左右入れ替えや正距円筒変換に利用される。例えば、図10(b)に示すイメージサークル位置、イメージサークル直径、画角および歪曲補正係数が取得される。なお、レンズでとらえれた被写体の像は撮像素子の面に円形に映る。イメージサークルとは、この円形の被写体の像(像円)のことである。 In step S603, the system control unit 50 acquires the design value of the attached (connected) twin lens. The design value is a design parameter, and is used for left-right switching and equirectangular conversion, which will be described later. For example, the image circle position, image circle diameter, angle of view, and distortion correction coefficient shown in FIG. 10(b) are acquired. The image of the subject captured by the lens appears circular on the surface of the image sensor. The image circle is this circular image of the subject (image circle).

ステップS604では、システム制御部50は、装着(接続)されている2眼レンズから、当該2眼レンズの個体値を取得する。個体値はレンズユニット固有のパラメータであり、例えば製造時の誤差などである。例えば、図10(b)に示すイメージサークル位置ずれ、光軸傾き、および像倍率ずれが取得される。個体値を利用することにより、設計値のみを利用する場合よりも画像処理を高精度に行うことができる。 In step S604, the system control unit 50 acquires the individual value of the attached (connected) binocular lens. The individual value is a parameter specific to the lens unit, such as manufacturing error. For example, the image circle misalignment, optical axis tilt, and image magnification misalignment shown in FIG. 10(b) are acquired. By using individual values, image processing can be performed with higher accuracy than when only design values are used.

ステップS605では、システム制御部50は、撮像部211から画像を取得する。 In step S<b>605 , the system control unit 50 acquires an image from the imaging unit 211 .

ステップS606では、システム制御部50は、ステップS605で取得した画像をEVF217もしくは表示部108に表示する(ライブビュー表示)。 In step S606, the system control unit 50 displays the image acquired in step S605 on the EVF 217 or the display unit 108 (live view display).

ステップS607では、システム制御部50は、カメラ100のユーザによって記録開始指示が行われたか否かを判定する。記録開始指示が行われたと判定した場合はステップS608へ進み、そうでない場合はステップS614へ進む。記録開始指示、または後述するステップS614の終了指示が行われるまで、EVF217もしくは表示部108へのライブビュー表示が継続する。 In step S607, the system control unit 50 determines whether or not the user of the camera 100 has issued a recording start instruction. If it is determined that the recording start instruction has been issued, the process proceeds to step S608; otherwise, the process proceeds to step S614. Live view display on the EVF 217 or the display unit 108 continues until a recording start instruction or an end instruction in step S614, which will be described later, is given.

記録開始指示は、シャッターボタン101の全押しなどである。記録開始指示は、静止画撮影の実行の指示であってもよいし、動画撮影の開始の指示であってもよい。撮影される画像は、JPEG静止画、MP4動画、RAW静止画、RAW動画などのいずれであってもよい。動画撮影中は、記録している動画をライブビュー表示のようにEVF217もしくは表示部108に表示してもよい。 The recording start instruction is, for example, a full press of the shutter button 101 . The recording start instruction may be an instruction to execute still image shooting or an instruction to start moving image shooting. The captured image may be any of JPEG still images, MP4 moving images, RAW still images, RAW moving images, and the like. During movie shooting, the recorded movie may be displayed on the EVF 217 or the display unit 108 like a live view display.

ステップS608では、システム制御部50は、撮像部211から画像を取得する。 In step S<b>608 , the system control unit 50 acquires an image from the imaging unit 211 .

ステップS609では、システム制御部50は、撮影時のシャッタースピードや絞りなどの撮影情報や、撮影時に姿勢検知部222で検知された姿勢情報などを取得する。RAW画像を撮影する場合には、現像に必要なデータ(パラメータ)も取得する。 In step S609, the system control unit 50 acquires shooting information such as shutter speed and aperture at the time of shooting, posture information detected by the posture detection unit 222 at the time of shooting, and the like. When capturing a RAW image, data (parameters) necessary for development are also acquired.

ステップS610では、システム制御部50は、記録媒体227(記憶媒体)に、ステップS608で取得した画像のデータ(画像データ)をファイル形式で格納する。 In step S610, the system control unit 50 stores the image data (image data) acquired in step S608 in a file format in the recording medium 227 (storage medium).

ステップS611では、システム制御部50は、ステップS609で取得した情報(カメラ100の情報)を、ステップS610で格納した画像ファイル内に格納する。これにより、画像ファイル内において、ステップS608で取得した画像データに、ステップS609で取得した情報がメタデータとして付加される。 In step S611, the system control unit 50 stores the information (information on the camera 100) acquired in step S609 in the image file stored in step S610. As a result, the information acquired in step S609 is added as metadata to the image data acquired in step S608 in the image file.

ステップS612では、システム制御部50は、ステップS603,S604で取得した情報(2眼レンズの情報)を、ステップS610で格納した画像ファイル内に格納する。これにより、画像ファイル内において、ステップS608で取得した画像データに、ステップS603,S604で取得した情報がメタデータとして付加される。 In step S612, the system control unit 50 stores the information (information on the binocular lens) acquired in steps S603 and S604 in the image file stored in step S610. As a result, the information acquired in steps S603 and S604 is added as metadata to the image data acquired in step S608 in the image file.

ステップS613では、システム制御部50は、カメラ100のユーザによって記録終
了指示が行われたか否かを判定する。記録終了指示が行われたと判定した場合はステップS614へ進み、そうでない場合はステップS608へ進む。ステップS608からステップS613を繰り返すことで、動画像のフレームを次々と動画ファイルに記録したり、静止画の連写(連続撮影)を行ったりすることができる。
In step S613, the system control unit 50 determines whether or not the user of the camera 100 has issued a recording end instruction. If it is determined that the recording end instruction has been issued, the process proceeds to step S614; otherwise, the process proceeds to step S608. By repeating steps S608 to S613, it is possible to record moving image frames one after another in a moving image file, or perform continuous shooting (continuous shooting) of still images.

静止画撮影の場合は、記録終了指示は、シャッターボタン101の全押し解除などである。シャッターボタン101が全押しされ、所定時間内に全押しが解除された場合は、1枚の静止画が撮影され、シャッターボタン101の全押しが所定時間以上継続すると、静止画の連写が行われる。1枚の静止画を撮影する場合には、シャッターボタン101の1回の全押しが、記録開始指示と記録終了指示の両方を兼ねてもよい。動画撮影の場合は、記録終了指示は、シャッターボタン101の全押しなどである。例えば、シャッターボタン101の全押しにより動画撮影が開始し、再びシャッターボタン101が全押しされると、動画撮影が終了する。 In the case of still image shooting, the recording end instruction is, for example, releasing the shutter button 101 from full depression. When the shutter button 101 is fully pressed and released within a predetermined time, one still image is captured. will be When shooting one still image, one full press of the shutter button 101 may serve as both a recording start instruction and a recording end instruction. In the case of moving image shooting, the recording end instruction is, for example, a full press of the shutter button 101 . For example, moving image shooting starts when the shutter button 101 is fully pressed, and moving image shooting ends when the shutter button 101 is fully pressed again.

ステップS614では、システム制御部50は、カメラ100のユーザによって終了指示が行われたか否かを判定する。終了指示が行われたと判定した場合は図6の動作を終了し、そうでない場合はステップS605へ進む。終了指示は、カメラ100の電源を切る指示や、カメラ100のモードを撮影モードから別のモードに切り替える指示などである。つまり、終了指示は、電源スイッチ102の押下や、モード切替スイッチ103の押下などである。 In step S614, the system control unit 50 determines whether or not the user of the camera 100 has issued an end instruction. If it is determined that the end instruction has been issued, the operation of FIG. 6 is terminated, otherwise the process proceeds to step S605. The end instruction is an instruction to turn off the power of the camera 100, an instruction to switch the mode of the camera 100 from the photographing mode to another mode, or the like. In other words, the end instruction is the pressing of the power switch 102, the pressing of the mode changeover switch 103, or the like.

カメラ100に1眼レンズが装着されている場合にはステップS615の処理が行われる。ステップS615では、システム制御部50は、1眼レンズを使って撮像(撮影)を行う(1眼レンズ撮像処理)。1眼レンズ撮像処理の動作は、1眼レンズを装着したカメラにおける従来の撮像(撮影)動作と同様であるため、詳細な説明は省略する。本実施形態では、システム制御部50は、1眼レンズで撮像された画像の画像ファイルを記録媒体227に記録する際に、装着されている1眼レンズの情報(設計値や個体値など)を当該1眼レンズから取得し、画像ファイルに格納するとする。 If the camera 100 is equipped with a monocular lens, the process of step S615 is performed. In step S615, the system control unit 50 performs imaging (shooting) using the single-lens lens (single-lens imaging processing). The operation of the single-lens imaging process is the same as the conventional imaging (photographing) operation in a camera equipped with a single-lens lens, and detailed description thereof will be omitted. In this embodiment, when recording an image file of an image captured by the single-lens lens in the recording medium 227, the system control unit 50 stores information (design value, individual value, etc.) of the attached single-lens lens. Assume that the image is obtained from the single-lens lens and stored in an image file.

図7は、PC500が、画像ファイルに基づいて画像を表示する動作(表示制御)の一例を示すフローチャートである。この動作は、制御部501がROM502に記録されたプログラム(アプリケーションプログラム)をRAM503に展開して実行することにより実現される。例えば、PC500のユーザが、操作部505(操作部材)を操作して、記録媒体504に格納されたファイルからカメラで撮影された画像ファイルを選択すると、図7の動作が開始する。このとき、記録媒体504として、カメラ100から取り外された記録媒体227などが使用されてもよい。本実施形態では、右像と左像はそれぞれ円周魚眼画像(等距離射影画像)である。以下では、2眼レンズの情報を補正用情報として用いて、円周魚眼画像のまま右像と左像の位置を補正する動作を説明する。 FIG. 7 is a flowchart showing an example of the operation (display control) of the PC 500 displaying an image based on the image file. This operation is realized by the control unit 501 expanding a program (application program) recorded in the ROM 502 into the RAM 503 and executing the program. For example, when the user of the PC 500 operates the operation unit 505 (operation member) to select an image file captured by a camera from files stored in the recording medium 504, the operations in FIG. 7 start. At this time, the recording medium 227 removed from the camera 100 or the like may be used as the recording medium 504 . In this embodiment, the right image and the left image are circular fisheye images (equidistant projection images). The operation of correcting the positions of the right image and the left image as they are in the circular fisheye image using the information of the two-lens lens as the correction information will be described below.

ステップS701では、制御部501は、PC500のユーザが選択した画像ファイルを記録媒体504から読み込む。ここでは、撮影された画像データだけでなく、当該画像データに付加されたヘッダーやメタデータも読み込まれる。例えば図9に示す画像ファイルが読み込まれる。 In step S<b>701 , the control unit 501 reads the image file selected by the user of the PC 500 from the recording medium 504 . Here, not only captured image data but also headers and metadata added to the image data are read. For example, the image file shown in FIG. 9 is read.

ステップS702では、制御部501は、ステップS701で読み込んだ画像ファイルに基づいて、当該画像ファイルが2眼レンズで(2眼レンズを使って)撮影した画像のファイルであるか否かを判定する。2眼レンズで撮影した画像のファイルであると判定した場合はステップS703へ進み、そうでないと判定した場合はステップS719へ進む。ステップS702では、例えば、画像ファイルに2眼レンズの情報(設計値や個体値など)が含まれているか否かに基づいて、2眼レンズで撮影した画像のファイルであるか否か
を判定する。2眼レンズの詳細な情報ではなく、2眼レンズが使用されたことのフラグが画像ファイルに含まれているか否かに基づいて、2眼レンズで撮影した画像のファイルであるか否かを判定してもよい。
In step S702, based on the image file read in step S701, the control unit 501 determines whether or not the image file is a file of an image shot with a twin lens (using a twin lens). If it is determined that the file is an image shot with a twin-lens lens, the process advances to step S703; otherwise, the process advances to step S719. In step S702, for example, based on whether or not the image file contains information on the twin lens (design value, individual value, etc.), it is determined whether or not the file is an image shot with the twin lens. . Determine whether the file is an image shot with a twin lens based on whether the image file contains a flag indicating that the twin lens has been used, not detailed information about the twin lens. You may

ステップS703では、制御部501は、ステップS701で読み込んだ画像ファイルから、2眼レンズの情報(設計値と個体値)を取得(抽出)する。 In step S703, the control unit 501 acquires (extracts) the information (design value and individual value) of the binocular lens from the image file read in step S701.

ステップS704では、制御部501は、ステップS703で取得した設計値から、撮影された画像における右像と左像それぞれの中心座標を取得する。右像と左像それぞれの中心座標は、2眼レンズの2つの光学系(左眼光学系301Lと右眼光学系301R)それぞれの光軸中心座標に対応する。例えば、図8(a),(b)に示す中心座標804,808が取得される。中心座標804は左右方向における右像の中心座標であり、中心座標808は左右方向における左像の中心座標である。 In step S704, the control unit 501 acquires the center coordinates of each of the right and left images in the captured image from the design values acquired in step S703. The center coordinates of each of the right and left images correspond to the respective optical axis center coordinates of the two optical systems of the twin lens (the left eye optical system 301L and the right eye optical system 301R). For example, central coordinates 804 and 808 shown in FIGS. 8(a) and 8(b) are acquired. Center coordinates 804 are the center coordinates of the right image in the horizontal direction, and center coordinates 808 are the center coordinates of the left image in the horizontal direction.

ステップS705では、制御部501は、ステップS701で読み込んだ画像ファイルから、撮影された画像を取得する。取得した画像をそのまま表示すると、右像と左像の位置が入れ替わった画像が表示されるため、この後に、右像と左像の位置を入れ替える処理を行う。 In step S705, the control unit 501 acquires the captured image from the image file read in step S701. If the obtained image is displayed as it is, an image in which the positions of the right image and the left image are exchanged is displayed.

ステップS706では、制御部501は、円周魚眼表示を行うか否かを判定する。円周魚眼表示を行うと判定した場合はステップS707へ進み、そうでない場合(正距円筒表示を行う場合)はステップS710へ進む。ステップS706では、例えば、図11(a),(b)のラジオボタン1102が選択状態か非選択状態かで、円周魚眼表示を行うか否かを判定する。図11(a)ではラジオボタン1102は選択状態であり、図11(b)ではラジオボタン1102は非選択状態である。ラジオボタン1102が選択状態の場合は、円周魚眼表示を行うと判定し、ステップS707へ進む。ラジオボタン1102が非選択状態である場合は、ステップS710へ進む。円周魚眼表示から開始されるよう、デフォルト(例えば図11(a),(b)に示すような画面を表示する前)では、円周魚眼表示を行うと判定してステップS707へ進む。ステップS710へ進んだ後の動作については後述する。 In step S706, the control unit 501 determines whether or not to perform circular fisheye display. If it is determined that the circular fisheye display is to be performed, the process proceeds to step S707; otherwise (if the equirectangular display is to be performed), the process proceeds to step S710. In step S706, for example, it is determined whether or not the circular fisheye display is to be performed depending on whether the radio button 1102 in FIGS. 11A and 11B is selected or not selected. The radio button 1102 is in the selected state in FIG. 11(a), and the radio button 1102 is in the non-selected state in FIG. 11(b). If the radio button 1102 is selected, it is determined that circular fisheye display is to be performed, and the process advances to step S707. If radio button 1102 is not selected, the process proceeds to step S710. By default (for example, before displaying the screens shown in FIGS. 11A and 11B), it is determined that the circular fisheye display is to be performed, and the process proceeds to step S707 so that the circular fisheye display is started. . The operation after proceeding to step S710 will be described later.

ステップS707では、制御部501は、ステップS704で取得した中心座標(左眼光学系301Lと右眼光学系301Rそれぞれの光軸中心)に基づいて、撮影された画像における右像と左像の位置を入れ替えて、処理画像を生成する(左右入れ替え)。例えば、制御部501は、右像の中心座標に基づいて、撮影された画像における右像の領域を特定し、左像の中心座標に基づいて、撮影された画像における左像の領域を特定する。そして、制御部501は、特定した2つの領域の位置を入れ替える。本実施形態では、撮影された画像において右像と左像が左右に並べて配置されており、左右入れ替えにより、右像と左像の左右の位置関係が反転する。右像と左像の領域をより高精度に特定するために、2眼レンズの情報から、右像と左像それぞれの径(直径または半径)を取得してもよい。 In step S707, the control unit 501 determines the positions of the right and left images in the captured image based on the center coordinates (centers of the optical axes of the left-eye optical system 301L and the right-eye optical system 301R, respectively) acquired in step S704. are exchanged to generate a processed image (left-right exchange). For example, the control unit 501 identifies the area of the right image in the captured image based on the central coordinates of the right image, and identifies the area of the left image in the captured image based on the central coordinates of the left image. . Then, the control unit 501 replaces the positions of the two identified regions. In this embodiment, the right image and the left image are arranged side by side in the photographed image, and the left-right positional relationship between the right image and the left image is reversed by left-right switching. In order to specify the areas of the right image and the left image with higher accuracy, the respective diameters (diameters or radii) of the right image and the left image may be obtained from the information of the twin lens.

なお、左右入れ替えの方法は上記方法に限られない。例えば、2眼レンズの情報から、図8(a)のずれ量805,806,809,810を取得し、右像と左像の位置を入れ替える際に、取得したずれ量が維持されるように右像と左像を配置し、余った領域を黒などで埋めてもよい。ずれ量805は撮影された画像の左端から右像の左端までの距離であり、ずれ量806は撮影された画像の中心から右像の右端までの距離である。左右入れ替えの際には、ずれ量805は撮影された画像の左端から左像の左端までの距離となり、ずれ量806は撮影された画像の中心から左像の右端までの距離となるようにする。同様に、ずれ量809は撮影された画像の右端から左像の右端までの距離であり、ずれ量810は撮影された画像の中心から左像の左端までの距離である。左右入れ替えの際には、ずれ
量809は撮影された画像の右端から右像の右端までの距離となり、ずれ量810は撮影された画像の中心から右像の左端までの距離となるようにする。
In addition, the method of left-right exchange is not restricted to the said method. For example, the deviation amounts 805, 806, 809, and 810 in FIG. 8A are acquired from the information of the twin lens, and the acquired deviation amounts are maintained when the positions of the right image and the left image are exchanged. A right image and a left image may be arranged, and the remaining area may be filled with black or the like. A shift amount 805 is the distance from the left edge of the captured image to the left edge of the right image, and a shift amount 806 is the distance from the center of the captured image to the right edge of the right image. When switching left and right, the shift amount 805 is the distance from the left edge of the captured image to the left edge of the left image, and the shift amount 806 is the distance from the center of the captured image to the right edge of the left image. . Similarly, the displacement 809 is the distance from the right edge of the captured image to the right edge of the left image, and the displacement 810 is the distance from the center of the captured image to the left edge of the left image. When switching left and right, the shift amount 809 is the distance from the right edge of the captured image to the right edge of the right image, and the shift amount 810 is the distance from the center of the captured image to the left edge of the right image. .

ステップS708では、制御部501は、ステップS707で生成した処理画像を、表示部506に表示する。例えば、図11(a)の処理画像1101が表示部506に表示される。 In step S<b>708 , the control unit 501 displays the processed image generated in step S<b>707 on the display unit 506 . For example, the processed image 1101 in FIG. 11A is displayed on the display unit 506. FIG.

ステップS709では、制御部501は、PC500のユーザによって終了指示が行われたか否かを判定する。終了指示が行われたと判定した場合は図7の動作を終了し、そうでない場合はステップS706へ進む。こうすることで、表示部506での表示(撮影された画像の表示)を、円周魚眼表示や正距円筒表示などの複数の表示の間で切り替えることができる。終了指示は、操作部505(操作部材)を用いて行われる。例えば、終了指示は、図11(a),(b)の終了ボタン1106の押下である。 In step S709, the control unit 501 determines whether or not the user of the PC 500 has issued an end instruction. If it is determined that the end instruction has been issued, the operation of FIG. 7 is terminated, otherwise the process proceeds to step S706. By doing so, the display (display of the captured image) on the display unit 506 can be switched between a plurality of displays such as circular fisheye display and equirectangular display. The end instruction is issued using the operation unit 505 (operation member). For example, the end instruction is pressing the end button 1106 in FIGS. 11A and 11B.

1眼レンズで撮影した画像ファイルがステップS701で読み込まれた場合にはステップS719の処理が行われる。ステップS719では、制御部501は、1眼レンズで撮影した画像ファイルに基づく画像を、表示部506に表示する。ステップS719の処理は、1眼レンズで撮影した画像を表示する従来の処理と同様であるため、詳細な説明は省略する。 When an image file shot with a single-lens lens is read in step S701, processing in step S719 is performed. In step S719, the control unit 501 displays on the display unit 506 an image based on the image file shot with the single-lens lens. Since the processing in step S719 is the same as the conventional processing for displaying an image shot with a single-lens lens, detailed description thereof will be omitted.

図8(a),(b)は、左右入れ替えの模式図である。図8(a)は、2眼レンズの情報を利用しない、従来の左右入れ替えを示す。図8(b)は、2眼レンズの情報を補正用情報として利用した、本実施形態の左右入れ替えを示す。 8(a) and 8(b) are schematic diagrams of left and right switching. FIG. 8(a) shows a conventional left-right switching that does not use the information of the binocular lens. FIG. 8(b) shows left-right switching according to the present embodiment, using the information of the twin lens as the information for correction.

図8(a),(b)に示すように、左右入れ替え前の画像801では、円周魚眼画像である右像803が左側に配置されており、円周魚眼画像である左像807が右側に配置されている。 As shown in FIGS. 8A and 8B, in an image 801 before left/right switching, a right image 803, which is a circular fisheye image, is arranged on the left side, and a left image 807, which is a circular fisheye image, is arranged on the left side. is placed on the right.

図8(a)では、画像801の中心座標802で画像801を左半分の画像と右半分の画像とに分割して、左半分の画像と右半分の画像とを入れ替える。換言すれば、左半分の画像を右半分の画像の右側に移動する。画像811は、このような左右入れ替え後の画像である。 In FIG. 8A, the image 801 is divided into a left half image and a right half image at the center coordinates 802 of the image 801, and the left half image and the right half image are exchanged. In other words, move the left half image to the right of the right half image. An image 811 is an image after such left-right switching.

図8(a)では、ずれ量806はずれ量805よりも小さい。つまり、画像801において、右像803は画像801の左半分の中心から画像801の中心に寄っている。同様に、ずれ量810はずれ量809よりも小さい。つまり、画像801において、左像807は画像801の右半分の中心から画像801の中心に寄っている。そのため、画像811では、左右方向における左像807の中心座標813が中心座標804から距離814もずれ、左右方向における右像803の中心座標816が中心座標808から距離817もずれてしまう。 In FIG. 8A, the amount of deviation 806 is smaller than the amount of deviation 805 . That is, in the image 801 , the right image 803 is closer to the center of the image 801 than the center of the left half of the image 801 . Similarly, deviation 810 is smaller than deviation 809 . That is, in the image 801 , the left image 807 is closer to the center of the image 801 than the center of the right half of the image 801 . Therefore, in the image 811, the center coordinates 813 of the left image 807 in the left-right direction are shifted from the center coordinates 804 by a distance 814, and the center coordinates 816 of the right image 803 in the left-right direction are shifted from the center coordinates 808 by a distance 817.

本実施形態では、レンズ情報を用いることにより、左右入れ替え後の画像837(図8(b))において、左右方向における左像の中心座標を中心座標804に一致させ、左右方向における右像の中心座標を中心座標808に一致させることができる。 In the present embodiment, by using the lens information, in the image 837 (FIG. 8B) after left-right switching, the center coordinates of the left image in the left-right direction are matched with the center coordinates 804, and the center of the right image in the left-right direction is matched. The coordinates can be matched to center coordinates 808 .

図9は、2眼レンズで撮影された画像ファイルの構造の一例を示す模式図である。図9の画像ファイルは、ヘッダー901、カメラ情報部902、レンズ情報部903、その他情報部904、および画像データ部905を有する。ヘッダー901には、撮影された画像の種類などの情報が記録される。カメラ情報部902には、撮影に用いたカメラの情報が、メタデータとして記録される。例えば、撮影時のシャッタースピードや絞りなどの撮
影情報や、撮影時のカメラの姿勢情報などが記録される。レンズ情報部903には、撮影に用いた2眼レンズの情報が、メタデータとして記録される。例えば、2眼レンズの設計値や個体値が記録される。その他情報部904には、その他の情報がメタデータとして記録される。例えば、動画の場合にはフレームごとに変化する情報が記録される。RAW画像の場合には現像に必要なデータが記録される。画像データ部905には、画像データが記録される。動画の場合には、画像データだけでなく、音声データも記録される。なお、カメラの情報、2眼レンズの情報、その他の情報を同一の画像ファイル内に記録する例を示したが、それらは画像ファイルと関連付けられた別のファイルに記録してもよい。
FIG. 9 is a schematic diagram showing an example of the structure of an image file shot with a twin lens. The image file in FIG. 9 has a header 901 , camera information section 902 , lens information section 903 , other information section 904 and image data section 905 . A header 901 records information such as the type of captured image. In the camera information section 902, information about the camera used for shooting is recorded as metadata. For example, shooting information such as shutter speed and aperture at the time of shooting, information on the posture of the camera at the time of shooting, etc. are recorded. In the lens information section 903, information on the binocular lens used for shooting is recorded as metadata. For example, the design values and individual values of the binocular lens are recorded. Other information is recorded in the other information section 904 as metadata. For example, in the case of moving images, information that changes for each frame is recorded. In the case of a RAW image, data required for development are recorded. Image data is recorded in the image data portion 905 . In the case of moving images, not only image data but also audio data are recorded. Although an example of recording camera information, twin lens information, and other information in the same image file has been shown, they may be recorded in separate files associated with the image file.

図10(a)は、2眼レンズから取得するレンズ情報の一例を示す模式図である。レンズ情報は、
1.レンズ設計値
2.レンズ個体値
3.レンズフラグ
4.レンズ焦点距離
5.レンズ温度などを含む。
FIG. 10A is a schematic diagram showing an example of lens information acquired from a twin lens. lens information
1. Lens design value 2. Lens individual value 3 . lens flag 4 . 4. lens focal length; Including lens temperature, etc.

レンズ設計値は、収差補正を行うための設計値である。2眼レンズの製造過程では、2つの光学系(左眼光学系301Lと右眼光学系301R)それぞれで、レンズの偏芯や傾きなどの誤差が発生する。誤差を考慮せずに左右入れ替えや正距円筒変換などを行うと、2眼VR表示の品位が低下し、良好な立体視が困難となる。レンズ個体値は、2眼レンズの製造過程で検出した誤差の測定結果などである。レンズ設計値とレンズ個体値の詳細については、図10(b)を用いて後述する。 A lens design value is a design value for performing aberration correction. In the process of manufacturing a twin-lens lens, errors such as lens eccentricity and tilt occur in each of the two optical systems (the left-eye optical system 301L and the right-eye optical system 301R). If left-right switching, equirectangular conversion, or the like is performed without considering the error, the quality of the binocular VR display deteriorates, and good stereoscopic viewing becomes difficult. The lens individual value is the measurement result of the error detected in the manufacturing process of the binocular lens. Details of the lens design value and the individual lens value will be described later with reference to FIG.

レンズの個体値(製造誤差)を考慮せずに左右入れ替えや正距円筒変換などを行った場合に、2眼VR表示の品位が低下し、良好な立体視が困難となる原因について、図16(a),16(b)を参照して説明する。図16(a)は、理想の光学系を示す図である。図16(a)では、左レンズと右レンズの光軸は平行であり、同じ方向を向いている。よって、被写体がイメージセンサに近いほど視差が大きくなり、良好な立体視を実現できる。図16(b)は、設計値からの誤差がある光学系の一例を示す図である。図16(b)では、左レンズと右レンズの光軸は平行ではなく、異なる方向を向いている。よって、無限遠で視差が発生してしまい、良好な立体視を実現できない。これ以外にも、左右のレンズそれぞれの個体値に起因して、上下で視差が発生してしまったり、像倍率が異なったりすること等により、良好な立体視を実現できないことがある。したがって、本実施形態では、撮影画像に対して、実際に撮影に用いられた左右のレンズの誤差を用いて補正を行うことにより、理想の光学系で撮影された場合の画像に近づけることで、良好な立体視を実現する。 Fig. 16 shows the reason why the quality of binocular VR display deteriorates and good stereoscopic vision becomes difficult when left-right switching or equirectangular conversion is performed without considering the individual value (manufacturing error) of the lens. Description will be made with reference to (a) and 16(b). FIG. 16(a) is a diagram showing an ideal optical system. In FIG. 16(a), the optical axes of the left lens and the right lens are parallel and face the same direction. Therefore, the closer the subject is to the image sensor, the greater the parallax, and good stereoscopic vision can be achieved. FIG. 16B is a diagram showing an example of an optical system with errors from design values. In FIG. 16(b), the optical axes of the left and right lenses are not parallel, but face different directions. Therefore, parallax occurs at infinity, and good stereoscopic vision cannot be realized. In addition to this, due to the individual values of the left and right lenses, parallax may occur between the upper and lower sides, or the image magnification may differ, which may make it impossible to realize good stereoscopic vision. Therefore, in this embodiment, by correcting the photographed image using the error of the left and right lenses actually used for photographing, the image can be approximated to the image photographed with the ideal optical system. To achieve good stereoscopic vision.

レンズフラグは、2眼レンズであることを示すフラグであり、2眼レンズが使用されたか否かを判定するために使用できる。レンズ焦点距離は、レンズの中心である「主点」から撮像素子(結像位置)までの距離である。レンズ焦点距離は、2眼レンズの2つの光学系(左眼光学系301Lと右眼光学系301R)で共通のパラメータであってもよいし、そうでなくてもよい。左右入れ替えや正距円筒変換などを高精度に行って高品位な2眼VR表示を行うためには、詳細(高精度)なレンズ焦点距離が必要となる。レンズ温度は、2眼レンズの温度であり、撮影時の環境温度などを把握するために使用される。 The lens flag is a flag indicating that it is a twin lens, and can be used to determine whether or not the twin lens is used. The lens focal length is the distance from the "principal point", which is the center of the lens, to the imaging device (imaging position). The lens focal length may or may not be a parameter common to the two optical systems of the twin lens (left eye optical system 301L and right eye optical system 301R). Detailed (high-precision) lens focal lengths are required in order to perform high-quality binocular VR display by performing left-right switching, equirectangular conversion, and the like with high precision. The lens temperature is the temperature of the binocular lens, and is used for grasping the environmental temperature and the like at the time of photographing.

図10(b)は、レンズ設計値とレンズ個体値の詳細を示す模式図である。本実施形態では、レンズ設計値とレンズ個体値は、左右入れ替えや正距円筒変換を行う際に補正用情報として用いられる。 FIG. 10B is a schematic diagram showing details of lens design values and individual lens values. In the present embodiment, the lens design value and the lens individual value are used as correction information when left-right switching or equirectangular conversion is performed.

レンズ設計値は、
1.イメージサークル位置
2.イメージサークル直径
3.画角
4.歪曲補正係数などを含む。
The lens design value is
1. Image circle position 2 . Image circle diameter 3 . angle of view 4. Includes distortion correction coefficients, etc.

イメージサークル位置は、撮像される画像における光学系の光軸中心座標であり、2眼レンズの2つの光学系(左眼光学系301Lと右眼光学系301R)のそれぞれついて用意される。つまり、イメージサークル位置は、撮像素子上に結像するイメージサークル(円周魚眼画像)の中心座標であり、右像と左像のそれぞれについて用意される。座標の原点は、例えば、撮像素子の中心(撮像される画像の中心)である。イメージサークル位置は、水平方向の座標と垂直方向の座標とを含む。なお、撮像される画像における光学系の光軸中心に関する様々な情報を、イメージサークル位置として使用することができる。例えば、画像における所定の位置(中心や左上隅など)から光軸中心までの距離などを使用することができる。 The image circle position is the optical axis center coordinates of the optical system in the captured image, and is prepared for each of the two optical systems of the twin lens (the left eye optical system 301L and the right eye optical system 301R). That is, the image circle position is the center coordinates of the image circle (circumferential fisheye image) formed on the imaging device, and is prepared for each of the right and left images. The origin of the coordinates is, for example, the center of the imaging element (the center of the captured image). The image circle position includes horizontal and vertical coordinates. Various information regarding the optical axis center of the optical system in the captured image can be used as the image circle position. For example, the distance from a predetermined position (center, upper left corner, etc.) in the image to the center of the optical axis can be used.

イメージサークル直径は、撮像素子上に結像するイメージサークル(円周魚眼画像)の直径である。画角は、撮像素子上に結像するイメージサークル(円周魚眼画像)の画角である。歪曲補正係数は、レンズの理想像高に対する設計像高の比である。像高ごとに歪曲補正係数を設定し、歪曲補正係数が設定されていない像高については、複数の歪曲補正係数を用いた補間演算により歪曲補正係数を算出してもよい。像高と歪曲補正係数の関係を近似した多項式を設定してもよい。イメージサークル直径、画角、および歪曲補正係数は、2眼レンズの2つの光学系(左眼光学系301Lと右眼光学系301R)で共通のパラメータであってもよいし、そうでなくてもよい。 The image circle diameter is the diameter of the image circle (circumferential fisheye image) formed on the imaging device. The angle of view is the angle of view of an image circle (circumferential fisheye image) formed on the imaging device. The distortion correction coefficient is the ratio of the designed image height to the ideal image height of the lens. A distortion correction coefficient may be set for each image height, and for an image height for which no distortion correction coefficient is set, the distortion correction coefficient may be calculated by interpolation using a plurality of distortion correction coefficients. A polynomial that approximates the relationship between the image height and the distortion correction coefficient may be set. The image circle diameter, angle of view, and distortion correction coefficient may or may not be common parameters for the two optical systems of the twin lens (left eye optical system 301L and right eye optical system 301R). good.

PC500は、円周魚眼画像を表示する際に、円周魚眼画像にマジックウィンドウを表示してもよい。マジックウィンドウは、VR表示のために(最初に)切り出される領域を示す表示アイテムである。例えば、マジックウィンドウは、イメージサークル位置、イメージサークル直径、および画角に基づいて表示される。こうすることで、マジックウィンドウの表示品位を向上することができる。マジックウィンドウを適切に表示するために、PC500は、イメージサークル位置、イメージサークル直径、および画角を適宜編集して使用する。例えば、PC500は、イメージサークル位置やイメージサークル直径に係数を乗算する。 When displaying the circular fisheye image, the PC 500 may display a magic window on the circular fisheye image. A magic window is a display item that indicates an area that is cut out (first) for VR display. For example, the magic window is displayed based on image circle position, image circle diameter, and angle of view. By doing so, the display quality of the magic window can be improved. In order to properly display the magic window, the PC 500 appropriately edits and uses the image circle position, image circle diameter, and angle of view. For example, the PC 500 multiplies the image circle position and image circle diameter by coefficients.

レンズ個体値は、
5.イメージサークル位置ずれ
6.光軸傾き
7.像倍率ずれなどを含む。これらの情報は、2眼レンズの2つの光学系(左眼光学系301Lと右眼光学系301R)のそれぞれついて測定を行って用意される。
The lens individual value is
5. Image circle position shift 6 . 7. Optical axis tilt; Including image magnification deviation. These pieces of information are prepared by measuring each of the two optical systems (the left-eye optical system 301L and the right-eye optical system 301R) of the twin lens.

イメージサークル位置ずれは、撮像素子上に結像するイメージサークル(円周魚眼画像)の中心座標の、設計値からのずれである。例えば、イメージサークル位置ずれは、水平方向のずれと、垂直方向のずれとを含む。設計値の座標(水平方向の座標と垂直方向の座標とを含む2次元座標)を原点として、水平方向の座標により水平方向のずれが示され、垂直方向の座標により垂直方向のずれが示される。図17(a)にイメージサークル位置ずれの一例を示す。領域1701はセンサーサイズ画面(撮像面)の右または左半分の領域を示す。イメージサークル1702は実際の右または左のレンズのイメージサークルである。イメージサークル1703は理想の光学系(設計値)のイメージサークルである。実際のイメージサークル1702の位置と理想のイメージサークル1703との間には、ずれが発生している。 The image circle positional deviation is the deviation of the center coordinates of the image circle (circumferential fisheye image) formed on the imaging element from the designed value. For example, image circle misalignment includes horizontal misalignment and vertical misalignment. With the coordinate of the design value (two-dimensional coordinate including horizontal and vertical coordinates) as the origin, the horizontal coordinate indicates the horizontal shift, and the vertical coordinate indicates the vertical shift. . FIG. 17A shows an example of image circle positional deviation. A region 1701 indicates the right or left half region of the sensor size screen (imaging surface). Image circle 1702 is the actual right or left lens image circle. An image circle 1703 is an image circle of an ideal optical system (design values). A deviation occurs between the position of the actual image circle 1702 and the ideal image circle 1703 .

光軸傾きは、被写体側の光軸の向きの、設計値からのずれである。例えば、光軸傾きは、水平方向のずれと垂直方向のずれとを含む。各方向のずれは角度で示される。図17(b)に光学傾きによる水平方向のずれの一例を示す。線1712は実際の右または左のレンズの水平方向の光軸の向き(傾き)を示す。線1713は理想の光学系(設計値)の水平方向の光軸の向きを示す。実際の水平方向の光軸の向き1712と理想の水平方向の光軸の向き1713との間には、ずれが発生している。また、図17(c)に光学傾きによる垂直方向のずれの一例を示す。線1722は実際の右または左のレンズの水平方向の光軸の向きを示す。線1723は理想の光学系(設計値)の水平方向の光軸の向きを示す。実際の水平方向の光軸の向き1722と理想の水平方向の光軸の向き1723との間には、ずれが発生している。 The optical axis tilt is the deviation of the direction of the optical axis on the object side from the design value. For example, the optical axis tilt includes horizontal shift and vertical shift. The deviation in each direction is indicated in degrees. FIG. 17B shows an example of horizontal deviation due to optical tilt. A line 1712 indicates the orientation (tilt) of the horizontal optical axis of the actual right or left lens. A line 1713 indicates the orientation of the horizontal optical axis of the ideal optical system (design value). There is a deviation between the actual horizontal optical axis orientation 1712 and the ideal horizontal optical axis orientation 1713 . FIG. 17(c) shows an example of vertical deviation due to optical tilt. Line 1722 indicates the orientation of the horizontal optical axis of the actual right or left lens. A line 1723 indicates the orientation of the horizontal optical axis of the ideal optical system (design value). There is a deviation between the actual horizontal optical axis orientation 1722 and the ideal horizontal optical axis orientation 1723 .

像倍率ずれは撮像素子上に結像するイメージサークル(円周魚眼画像)の大きさの、設計値からのずれである。このずれは、例えば、設計値に対する比率で示される。図17(d)に像倍率ずれの一例を示す。イメージサークル1732は実際の右または左のレンズを介して撮像素子上に結像するイメージサークルである。イメージサークル1733は理想の光学系(設計値)を介して撮像素子上に結像するイメージサークルである。実際のイメージサークル1732と理想の光学系のイメージサークル1733との間には、ずれが発生している。 The image magnification deviation is the deviation of the size of the image circle (circumferential fisheye image) formed on the imaging element from the design value. This deviation is indicated, for example, as a ratio to the design value. FIG. 17(d) shows an example of image magnification deviation. An image circle 1732 is an image circle formed on the image sensor through the actual right or left lens. An image circle 1733 is an image circle formed on the imaging device via an ideal optical system (designed values). There is a deviation between the actual image circle 1732 and the image circle 1733 of the ideal optical system.

なお、レンズ情報に含まれる情報は、上述した情報に限られない。例えば、レンズ情報は、撮影された画像における右像と左像それぞれの境界位置(円周魚眼画像の縁の位置;ずれ量805,806,809,810等で示された位置)を含んでもよい。レンズ情報は、撮影された画像における右像と左像の間の中点座標を含んでもよい。多くの場合、中点座標は撮影された画像の中心座標と一致する。レンズ情報は、マジックウィンドウの領域を示す情報(例えば、マジックウィンドウの左上隅の座標、マジックウィンドウの幅、およびマジックウィンドウの高さ)を含んでもよい。レンズ情報は、左右入れ替えや正距円筒変換などの精度を上げるための補正値(例えば、2眼レンズのキャリブレーションにより得られた補正値)を含んでもよい。 Information included in the lens information is not limited to the information described above. For example, the lens information may include the respective boundary positions of the right image and the left image in the photographed image (the position of the edge of the circular fisheye image; the positions indicated by the shift amounts 805, 806, 809, 810, etc.). good. The lens information may include midpoint coordinates between the right and left images in the captured image. In most cases, the midpoint coordinates match the center coordinates of the captured image. The lens information may include information indicating the area of the magic window (eg, the coordinates of the upper left corner of the magic window, the width of the magic window, and the height of the magic window). The lens information may include a correction value (for example, a correction value obtained by calibration of the binocular lens) for increasing the accuracy of left-right switching, equirectangular conversion, and the like.

図10(c)は、カメラ内で生成されるカメラ情報の一例を示す模式図である。例えば、カメラ情報は、高品位なVR表示を行うために使用される。カメラ情報は、
1.カメラ記録領域情報
2.カメラ内加速度計情報
3.右露出補正情報などを含む。
FIG. 10C is a schematic diagram showing an example of camera information generated within the camera. For example, camera information is used to perform high-definition VR display. camera information is
1. Camera recording area information 2 . In-camera accelerometer information 3 . Includes right exposure compensation information and so on.

カメラ記録領域情報は有効画像領域の情報である。カメラのセンサーや記録モードに依って、表示可能な有効画像領域は異なる。PC500は、より正確な表示を行うためにカメラ記録領域情報を使用する。カメラ内加速度計情報は、カメラ内の加速度センサ(水準器)を用いて得られた姿勢情報であり、ロール方向やピッチ方向などにおけるカメラの姿勢を表す。PC500は、撮影時におけるカメラの姿勢を把握するために、カメラ内加速度計情報を使用する。PC500は、把握した姿勢に基づいて、電子防振や水平補正(表示の上下方向を実空間の上下方向に近づける天頂補正)などを行う。右露出補正情報は、右像の露出を左像の露出に近づける露出設定値である。PC500は、違和感の無い(違和感の低減された)2眼VR表示を行うために、右露出補正情報を使用する。 The camera recording area information is information on the effective image area. The effective image area that can be displayed differs depending on the camera sensor and recording mode. PC 500 uses the camera recording area information for more accurate display. The in-camera accelerometer information is posture information obtained using an acceleration sensor (level gauge) in the camera, and represents the posture of the camera in the roll direction, the pitch direction, and the like. The PC 500 uses the in-camera accelerometer information to grasp the orientation of the camera at the time of shooting. The PC 500 performs electronic image stabilization and horizontal correction (zenith correction that brings the vertical direction of the display closer to the vertical direction of the real space) based on the grasped orientation. The right exposure correction information is an exposure setting value that brings the exposure of the right image closer to the exposure of the left image. The PC 500 uses the right exposure correction information in order to perform binocular VR display without discomfort (reduced discomfort).

図11(a)は、制御部501が表示部506に表示するアプリケーション画面における左右入れ替え後の表示(ステップS708の表示)の一例を示す模式図である。画面1100はアプリケーション画面である。図11(a)の画面1100は、処理画像1101、ラジオボタン1102,1103、チェックボックス1104、保存ボタン1105
、終了ボタン1106を含む。処理画像1101は、左右入れ替え後の画像、つまりステップS707で生成された処理画像である。ラジオボタン1102は、円周魚眼表示を行う際に選択されるラジオボタンであり、ラジオボタン1103は、正距円筒表示を行う際に選択されるラジオボタンである。ラジオボタン1102が選択状態のときはラジオボタン1103は非選択状態となり、ラジオボタン1102が非選択状態のときはラジオボタン1103は選択状態となる。チェックボックス1104と保存ボタン1105は、正距円筒表示を行う際に使用される表示アイテムである。ラジオボタン1102が選択状態の場合は、チェックボックス1104と保存ボタン1105はグレーアウトなどで表示され、操作不可能にされる。チェックボックス1104と保存ボタン1105の用途については後述する。終了ボタン1106は、画面1100のアプリケーションを終了するためのボタンである。
FIG. 11A is a schematic diagram showing an example of the display (display in step S708) after switching the left and right of the application screen displayed on the display unit 506 by the control unit 501. FIG. Screen 1100 is an application screen. A screen 1100 in FIG. 11A includes a processed image 1101, radio buttons 1102 and 1103, a check box 1104, and a save button 1105.
, including an exit button 1106 . A processed image 1101 is the image after the left and right interchange, that is, the processed image generated in step S707. A radio button 1102 is a radio button selected when performing circular fisheye display, and a radio button 1103 is a radio button selected when performing equirectangular display. When the radio button 1102 is in the selected state, the radio button 1103 is in the non-selected state, and when the radio button 1102 is in the non-selected state, the radio button 1103 is in the selected state. A check box 1104 and a save button 1105 are display items used when performing equirectangular display. When the radio button 1102 is selected, the check box 1104 and save button 1105 are grayed out and disabled. Uses of the check box 1104 and save button 1105 will be described later. An end button 1106 is a button for ending the application on the screen 1100 .

次に、正距円筒表示を行う場合について説明する。図7のステップS706で円周魚眼表示が選択されておらず、正距円筒表示が選択されていると判定された場合、ステップS710に進み、正距円筒表示で画像を表示する。例えば、図11(a),(b)に示すラジオボタン1102,1103のうち、ラジオボタン1103が選択状態である場合に、円周魚眼表示が選択されておらず、正距円筒表示が選択されていると判定されるとする。 Next, the case of performing equirectangular display will be described. If it is determined in step S706 in FIG. 7 that the circular fisheye display is not selected and the equirectangular display is selected, the process proceeds to step S710 to display the image in the equirectangular display. For example, when the radio button 1103 is selected among the radio buttons 1102 and 1103 shown in FIGS. 11A and 11B, the circular fisheye display is not selected and the equirectangular display is selected. Suppose that it is determined that

ステップS710では、PC500の制御部501は、2眼レンズの個体値を用いた調整(個体値調整)を行うか否かを判定する。個体値調整を行うと判定した場合はステップS716へ進み、そうでない場合はステップS711へ進む。ステップS710では、例えば、図11(b)のチェックボックス1104がチェックされているか否かに基づいて、個体値調整を行うか否かを判定する。チェックボックス1104がチェックされている場合は、個体値調整を行うと判定し、ステップS716へ進む。チェックボックス1104がチェックされていない場合は、ステップS711へ進む。ステップS716へ進んだ後の動作については後述する。 In step S710, the control unit 501 of the PC 500 determines whether or not to perform adjustment (individual value adjustment) using the individual value of the binocular lens. If it is determined that individual value adjustment is to be performed, the process proceeds to step S716; otherwise, the process proceeds to step S711. In step S710, for example, it is determined whether individual value adjustment is to be performed based on whether the check box 1104 in FIG. 11B is checked. If the check box 1104 is checked, it is determined that individual value adjustment is to be performed, and the process proceeds to step S716. If the check box 1104 is not checked, the process proceeds to step S711. The operation after proceeding to step S716 will be described later.

ステップS711では、制御部501は、ステップS704で取得した中心座標(左眼光学系301Lと右眼光学系301Rそれぞれの光軸中心)に基づいて、正距円筒変換のためのマップを生成する。正距円筒変換は、地図の正距円筒図法のように、円周魚眼画像を球体と見立てて、緯線(横線)と経線(縦線)が直角に交差するように変換する変換処理である。正距円筒変換により、円形状の円周魚眼画像は、矩形状の正距円筒画像に変換される。マップは、変換後の各画素が変換前の画像内のどの位置に対応するかを示す。本実施形態では、円周魚眼画像を正距円筒画像に変換できるだけでなく、右像と左像の位置を補正できるように、正距円筒変換のためのマップを生成する。ステップS711では、ステップS707と同様の方法で、撮影された画像における右像と左像それぞれの領域を特定する。そして、特定した2つの領域に基づいてマップを生成する。 In step S711, the control unit 501 generates a map for equirectangular transformation based on the center coordinates (optical axis centers of the left-eye optical system 301L and right-eye optical system 301R) acquired in step S704. Equirectangular transformation is a transformation process in which the latitude (horizontal line) and longitude (vertical line) intersect at right angles by assuming the circular fisheye image as a sphere, like the equirectangular projection of a map. . A circular circular fisheye image is transformed into a rectangular equirectangular image by the equirectangular transformation. The map indicates where each pixel after transformation corresponds to in the image before transformation. In this embodiment, a map for equirectangular transformation is generated so that not only can a circular fisheye image be transformed into an equirectangular image, but also the positions of the right and left images can be corrected. In step S711, the areas of the right image and the left image in the captured image are identified by the same method as in step S707. A map is then generated based on the two identified regions.

ステップS712では、制御部501は、ステップS711で生成したマップを用いて正距円筒変換を行って、処理画像を生成する。なお、左右入れ替えを正距円筒変換の一部としたが、左右入れ替えは正距円筒変換とは別に行ってもよい。 In step S712, the control unit 501 performs equirectangular transformation using the map generated in step S711 to generate a processed image. Note that the right-left permutation is a part of the equirectangular transformation, but the left-right permutation may be performed separately from the equirectangular transformation.

ステップS713では、制御部501は、ステップS712または別の実施形態で後述するステップS718で生成した処理画像を、表示部506に表示する。例えば、図11(b)の処理画像1111が表示部506に表示される。 In step S713, the control unit 501 displays on the display unit 506 the processed image generated in step S712 or step S718 described later in another embodiment. For example, the processed image 1111 in FIG. 11B is displayed on the display unit 506. FIG.

ステップS714では、制御部501は、ステップS713で表示している処理画像(正距円筒変換後の画像)を保存するか否かを判定する。処理画像を保存すると判定した場合はステップS715へ進み、そうでない場合はステップS709へ進む。ステップS714では、例えば、図11(b)の保存ボタン1105が押下されたか否かに基づいて、
処理画像を保存するか否かを判定する。保存ボタン1105が押下された場合は、処理画像を保存すると判定し、ステップS715へ進む。保存ボタン1105が押下されなかった場合は、ステップS709へ進む。
In step S714, the control unit 501 determines whether to save the processed image (image after equirectangular transformation) displayed in step S713. If it is determined that the processed image is to be saved, the process proceeds to step S715; otherwise, the process proceeds to step S709. In step S714, for example, based on whether the save button 1105 in FIG.
Determine whether to save the processed image. If the save button 1105 has been pressed, it is determined that the processed image is to be saved, and the process advances to step S715. If the save button 1105 has not been pressed, the process advances to step S709.

ステップS715では、制御部501は、ステップS713で表示している処理画像(正距円筒変換後の画像)の画像ファイルを、記録媒体504に保存する。 In step S<b>715 , the control unit 501 saves the image file of the processed image (image after equirectangular transformation) displayed in step S<b>713 in the recording medium 504 .

図12は、本実施形態の正距円筒変換を示す模式図である。図12に示すように、正距円筒変換前の画像1201では、円周魚眼画像である右像1202が左側に配置されており、円周魚眼画像である左像1205が右側に配置されている。画像1208は、正距円筒変換後の画像であり、正距円筒画像1209,1210を含む。本実施形態では、矢印1211,1212に示すような対応付けがされるように、正距円筒変換のマップが生成される。本実施形態のマップでは、左側に配置された正距円筒画像1209の各画素が、右側に配置された左像1205内の各位置に対応付けられ、右側に配置された正距円筒画像1210の各画素が、左側に配置された右像1202内の位置に対応付けられる。このようなマップを用いることで、右側に配置された左像1205が、左側に配置された正距円筒画像1209に変換され、左側に配置された右像1202が、右側に配置された正距円筒画像1210に変換される。つまり、円周魚眼画像が正距円筒画像に変換されるだけでなく、右像と左像の位置が入れ替えられる。これにより、右像と左像の位置関係を2つの光学系(右眼光学系301Rと左眼光学系301L)の位置関係に合わせることができる。 FIG. 12 is a schematic diagram showing the equirectangular transformation of this embodiment. As shown in FIG. 12, in an image 1201 before equirectangular transformation, a right image 1202 that is a circular fisheye image is arranged on the left side, and a left image 1205 that is a circular fisheye image is arranged on the right side. ing. An image 1208 is an image after equirectangular transformation and includes equirectangular images 1209 and 1210 . In this embodiment, a map of equirectangular transformation is generated so that the correspondences shown by arrows 1211 and 1212 are made. In the map of this embodiment, each pixel of the equirectangular image 1209 arranged on the left is associated with each position in the left image 1205 arranged on the right, and the equirectangular image 1210 arranged on the right is associated with each pixel. Each pixel is associated with a position in the right image 1202 located on the left. Using such a map, the right-aligned left image 1205 is transformed into a left-aligned equirectangular image 1209 and the left-aligned right image 1202 is transformed into a right-aligned equirectangular image 1209 . Transformed into a cylindrical image 1210 . In other words, not only is the circular fisheye image converted into an equirectangular image, but also the positions of the right and left images are exchanged. Thereby, the positional relationship between the right image and the left image can be matched with the positional relationship between the two optical systems (the right-eye optical system 301R and the left-eye optical system 301L).

図11(b)は、制御部501が表示部506に表示するアプリケーション画面における正距円筒変換後の表示(ステップS713の表示)の一例を示す模式図である。図11(a)では、左右入れ替え後の画像である処理画像1101が、画面1100(アプリケーション画面)に表示されていた。図11(b)では、正距円筒変換後の画像である処理画像1111(ステップS712またはステップS718で生成された処理画像)が画面1100に表示される。また、図11(b)では、チェックボックス1104と保存ボタン1105のグレーアウトが解消されており、チェックボックス1104と保存ボタン1105が操作可能にされている。チェックボックス1104は、個体値調整を行う際にチェックされる。保存ボタン1105は、処理画像1111の画像ファイルを保存する際に押下される。チェックボックス1104がチェックされていないため、ステップS712で生成された処理画像が処理画像1111として表示される。 FIG. 11B is a schematic diagram showing an example of display (display in step S713) after the equirectangular conversion on the application screen displayed on the display unit 506 by the control unit 501. FIG. In FIG. 11A, a processed image 1101, which is an image after left/right switching, is displayed on the screen 1100 (application screen). In FIG. 11B, a processed image 1111 (processed image generated in step S712 or step S718), which is an image after equirectangular transformation, is displayed on the screen 1100. FIG. Also, in FIG. 11B, the check box 1104 and save button 1105 are not grayed out, and the check box 1104 and save button 1105 are made operable. A check box 1104 is checked when individual value adjustment is performed. A save button 1105 is pressed to save the image file of the processed image 1111 . Since the check box 1104 is not checked, the processed image generated in step S712 is displayed as the processed image 1111. FIG.

次に、正距円筒表示を行う際に個体値調整を行う例について説明する。つまり、図7のステップS716からの動作について説明する。なお、詳細な説明は省略するが、円周魚眼表示を行う際にも2眼レンズの個体値を使用してよい。 Next, an example of performing individual value adjustment when performing equirectangular display will be described. That is, the operation from step S716 in FIG. 7 will be described. Although detailed description is omitted, the individual value of the two-lens lens may also be used when performing circular fisheye display.

ステップS716では、制御部501は、ステップS703で取得した個体値に基づいて、ステップS703で取得した設計値を調整する。例えば、図10(b)のイメージサークル位置ずれに基づいて、イメージサークル位置(撮影された画像における右像と左像それぞれの中心座標)を調整する。個体値が設計値からの差分である場合には、設計値に個体値を加算する。個体値が設計値と同様の絶対値である場合には、設計値を個体値で置き換える。 In step S716, the control unit 501 adjusts the design value acquired in step S703 based on the individual value acquired in step S703. For example, the image circle position (center coordinates of each of the right and left images in the photographed image) is adjusted based on the image circle position shift in FIG. 10(b). If the individual value is the difference from the design value, the individual value is added to the design value. If the individual value is the same absolute value as the design value, the design value is replaced with the individual value.

ステップS717では、制御部501は、ステップS716の調整後の中心座標(左眼光学系301Lと右眼光学系301Rそれぞれの光軸中心)に基づいて、正距円筒変換のためのマップを生成する。図18に、調整後の中心座標に基づいて画素ごとに空間座標の像位置を調整する例を示す(画素の位置を補正する補正処理)。左画像については、空間座標の像位置1801から像位置1802への調整が行われるように、画素ごとに像位置
が調整される。右画像については、空間座標の像位置1803から像位置1804への調整が行われるように、画素ごとに像位置が調整される。マップの生成方法は、ステップS711と同じである。調整後の中心座標を用いることにより、より高精度な正距円筒変換が可能になる。
In step S717, the control unit 501 generates a map for equirectangular transformation based on the adjusted center coordinates in step S716 (optical axis centers of the left-eye optical system 301L and the right-eye optical system 301R). . FIG. 18 shows an example of adjusting the image position of the spatial coordinates for each pixel based on the center coordinates after adjustment (correction processing for correcting the position of the pixel). For the left image, the image position is adjusted pixel by pixel so that the spatial coordinates are adjusted from image position 1801 to image position 1802 . For the right image, the image position is adjusted pixel by pixel such that the spatial coordinates are adjusted from image position 1803 to image position 1804 . The map generation method is the same as in step S711. By using the center coordinates after adjustment, more accurate equirectangular transformation becomes possible.

ステップS718では、制御部501は、ステップS717で生成したマップを用いて正距円筒変換を行って、処理画像を生成する。処理画像の生成方法は、ステップS712と同じである。ステップS713からの動作は、上述した通りである。上述したように、2眼レンズの個体値に基づいて、レンズ情報の設計値を補正することにより、円周魚眼画像をより精度よく正距円筒画像に変換することが可能となる。 In step S718, the control unit 501 performs equirectangular transformation using the map generated in step S717 to generate a processed image. The method of generating the processed image is the same as in step S712. The operations from step S713 are as described above. As described above, by correcting the design value of the lens information based on the individual value of the twin-lens lens, it is possible to more accurately convert the circular fisheye image into the equirectangular image.

本実施形態の情報処理装置によれば、2眼レンズにより撮影された画像ファイルに基づいて画像を表示する場合に、2眼レンズの各光学系を介して得られる左右の各像の中心を補正したうえで、左右の像を適切に並べ替えることが可能となる。これにより、違和感を覚えづらい2眼画像を表示することが可能となる。 According to the information processing apparatus of the present embodiment, when displaying an image based on an image file captured by a twin-lens lens, the centers of the left and right images obtained through the optical systems of the twin-lens lens are corrected. After that, the left and right images can be rearranged appropriately. As a result, it is possible to display a binocular image that does not give a sense of discomfort.

<第2の実施形態>
本発明の第2の実施形態について説明する。本実施形態では、カメラ100とPC500が互いに通信可能に接続されており、カメラ100で撮像されたライブビュー画像がPC500に送信され、PC500が表示部506にライブビュー画像を表示する例について説明する。
<Second embodiment>
A second embodiment of the present invention will be described. In this embodiment, an example will be described in which the camera 100 and the PC 500 are communicably connected to each other, the live view image captured by the camera 100 is transmitted to the PC 500, and the PC 500 displays the live view image on the display unit 506. .

図13は、カメラ100の動作の一例を示すフローチャートである。この動作は、システム制御部50が不揮発性メモリ219に記録されたプログラムをシステムメモリ218に展開して実行することにより実現される。例えば、カメラ100が起動すると、図13の動作が開始する。図13の動作は、カメラで撮像したライブビュー画像をPCの表示部に表示する機能(PCライブビュー)のための動作である。図13の動作は、カメラ100が撮影待機状態である場合において実行される。PCライブビューの動作中に、PC500から記録開始指示が入力された場合、静止画撮影もしくは動画撮影が実行される。このとき、PCライブビューは継続してよい。2眼レンズを用いた撮影の制御は、図6のステップS608からステップS613の処理を実行するものであり、説明は省略する。 FIG. 13 is a flow chart showing an example of the operation of the camera 100. FIG. This operation is realized by the system control unit 50 loading the program recorded in the nonvolatile memory 219 into the system memory 218 and executing it. For example, when the camera 100 is activated, the operations of FIG. 13 start. The operation of FIG. 13 is for a function (PC live view) of displaying a live view image captured by the camera on the display unit of the PC. The operation of FIG. 13 is performed when the camera 100 is in a shooting standby state. When a recording start instruction is input from the PC 500 during PC live view operation, still image shooting or moving image shooting is performed. At this time, the PC live view may continue. The control of photographing using the twin lens executes the processing from step S608 to step S613 in FIG. 6, and the description thereof is omitted.

ステップS1301では、システム制御部50は、カメラ100が2眼レンズ(例えばレンズユニット300)に対応しているか否かを判定する。2眼レンズに対応していると判定した場合はステップS1302へ進み、そうでない場合はステップS1311へ進む。ステップS1301の処理は、図6のステップS601の処理と同じである。 In step S1301, the system control unit 50 determines whether the camera 100 is compatible with a twin lens (for example, the lens unit 300). If it is determined that the binocular lens is supported, the process advances to step S1302; otherwise, the process advances to step S1311. The processing of step S1301 is the same as the processing of step S601 in FIG.

ステップS1302では、システム制御部50は、2眼レンズがカメラ100に装着されているか否かを判定する。2眼レンズが装着されていると判定した場合はステップS1303へ進み、そうでない場合はステップS1311へ進む。ステップS1302の処理は、図6のステップS602の処理と同じである。 In step S1302, the system control unit 50 determines whether the camera 100 is attached with a twin lens. If it is determined that the double lens is attached, the process advances to step S1303; otherwise, the process advances to step S1311. The processing of step S1302 is the same as the processing of step S602 in FIG.

ステップS1303では、システム制御部50は、装着(接続)されている2眼レンズから、当該2眼レンズの設計値を取得する。ステップS1304では、システム制御部50は、装着(接続)されている2眼レンズから、当該2眼レンズの個体値を取得する。ステップS1303,S1304の処理は、ステップS603,S604の処理と同じである。 In step S1303, the system control unit 50 acquires the design value of the attached (connected) twin lens. In step S1304, the system control unit 50 acquires the individual value of the attached (connected) binocular lens. The processing of steps S1303 and S1304 is the same as the processing of steps S603 and S604.

ステップS1305では、カメラ100がPC500に接続され、システム制御部50は、カメラ100がPC500に接続されたことを検知する。ステップS1306では、
システム制御部50は、PC500からPCライブビュー開始要求を受信する。ステップS1307では、システム制御部50は、PC500からライブビュー画像要求を受信する。ライブビュー画像要求は、後述するようにライブビュー画像の解像度を指定する情報(解像度情報)を含む。システム制御部50は、指定された解像度のライブビュー画像をPC500に送信するようにステップS1309の処理を実行する。
In step S<b>1305 , the camera 100 is connected to the PC 500 and the system control unit 50 detects that the camera 100 is connected to the PC 500 . In step S1306,
The system control unit 50 receives a PC live view start request from the PC 500 . In step S<b>1307 , the system control unit 50 receives a live view image request from the PC 500 . The live-view image request includes information (resolution information) designating the resolution of the live-view image, as will be described later. The system control unit 50 executes the process of step S1309 so as to transmit the live view image with the specified resolution to the PC500.

ステップS1308では、システム制御部50は、ステップS1303,S1304で取得した情報(2眼レンズのレンズ情報)を、送信するライブビュー画像の座標系に合うように変換する。撮影される画像(画像ファイルに記録される画像)と、ライブビュー画像とでは解像度などが異なるため、ステップS1303,S1304で取得した情報は、そのままでは、ライブビュー画像の画像処理に用いることができない。そのため、本実施形態では、レンズ情報を、ライブビュー画像の座標系に合った情報に変換する。 In step S1308, the system control unit 50 converts the information (lens information of the twin lens) acquired in steps S1303 and S1304 so as to match the coordinate system of the live view image to be transmitted. Since the captured image (image recorded in the image file) and the live view image have different resolutions, the information obtained in steps S1303 and S1304 cannot be used as is for image processing of the live view image. . Therefore, in this embodiment, the lens information is converted into information that matches the coordinate system of the live view image.

ステップS1309では、システム制御部50は、ステップS1308で変換されたレンズ情報と、ライブビュー画像とを、PC500に送信する。システム制御部50は、ステップS1307で取得した解像度情報に基づいて、ライブビュー画像の解像度を変換して、PC500に送信する。なお、本実施形態ではカメラ100のシステム制御部50がレンズ情報の変換を行っているが、PC500の制御部501がレンズ情報の変換を行ってもよい。その際には、変換前のレンズ情報と、レンズ情報の変換に必要なパラメータとをPC500に送信する。 In step S<b>1309 , the system control unit 50 transmits the lens information converted in step S<b>1308 and the live view image to the PC 500 . The system control unit 50 converts the resolution of the live view image based on the resolution information acquired in step S1307, and transmits it to the PC500. Although the system control unit 50 of the camera 100 converts the lens information in this embodiment, the control unit 501 of the PC 500 may convert the lens information. At that time, the lens information before conversion and the parameters necessary for converting the lens information are transmitted to the PC 500 .

ステップS1310では、システム制御部50は、PCライブビューを終了するか否かを判定する。例えば、カメラ100とPC500の接続が解除されたり、ユーザがカメラ100またはPC500に対してPCライブビューの終了を指示した場合に、PCライブビューを終了すると判定する。PCライブビューを終了すると判定した場合は図13の動作を終了し、そうでない場合はステップS1307へ進む。 In step S1310, the system control unit 50 determines whether or not to end the PC live view. For example, when the connection between the camera 100 and the PC 500 is released, or when the user instructs the camera 100 or the PC 500 to end the PC live view, it is determined to end the PC live view. If it is determined that the PC live view should be ended, the operation in FIG. 13 is ended; otherwise, the process advances to step S1307.

カメラ100に1眼レンズが装着されている場合にはステップS1311の処理が行われる。ステップS1311では、システム制御部50は、1眼レンズで撮像したライブビュー画像をPC500に送信する。ステップS1311の処理は、1眼レンズで撮像したライブビュー画像を外部機器に送信する従来の処理と同様であるため、詳細な説明は省略する。本実施形態では、システム制御部50は、1眼レンズで撮像したライブビュー画像をPC500に送信する際には、装着されている1眼レンズの情報(設計値や個体値など)を当該1眼レンズから取得することも、PC500に送信することもしないとする。 If the camera 100 is equipped with a monocular lens, the process of step S1311 is performed. In step S<b>1311 , the system control unit 50 transmits to the PC 500 the live view image captured by the single-lens lens. The processing in step S1311 is the same as conventional processing for transmitting a live view image captured by a single-lens lens to an external device, so detailed description thereof will be omitted. In this embodiment, when transmitting a live view image captured by a single-lens lens to the PC 500, the system control unit 50 transmits information (design values, individual values, etc.) of the attached single-lens lens to the single lens. It is assumed that neither acquisition from the lens nor transmission to the PC 500 is performed.

図14は、PC500の動作の一例を示すフローチャートである。この動作は、制御部501がROM502に記録されたプログラム(アプリケーションプログラム)をRAM503に展開して実行することにより実現される。例えば、ユーザがPC500に対して特定のアプリケーションの起動を指示すると、図14の動作が開始する。図14の動作は、カメラで撮像したライブビュー画像をPCの表示部に表示する機能(PCライブビュー)のための動作である。 FIG. 14 is a flow chart showing an example of the operation of the PC 500. As shown in FIG. This operation is realized by the control unit 501 expanding a program (application program) recorded in the ROM 502 into the RAM 503 and executing the program. For example, when the user instructs the PC 500 to start a specific application, the operation of FIG. 14 starts. The operation in FIG. 14 is for a function (PC live view) of displaying a live view image captured by a camera on the display unit of the PC.

ステップS1401では、PC500にカメラ(例えばカメラ100)が接続され、制御部501は、PC500にカメラが接続されたことを検知する。 In step S<b>1401 , a camera (for example, camera 100 ) is connected to PC 500 , and control unit 501 detects that the camera is connected to PC 500 .

ステップS1402では、制御部501は、ステップS1401で接続されたカメラが2眼レンズ(例えばレンズユニット300)に対応可能なカメラか否かを判定する。例えば、制御部501は、接続されたカメラから当該カメラの機種情報を取得し、取得した機種情報に基づいて、2眼レンズに対応可能なカメラか否かを判定する。2眼レンズに対応可能なカメラと判定した場合はステップS1403へ進み、そうでない場合はステップS
1421へ進む。2眼レンズに対応可能なカメラとは、例えば、2眼レンズを装着可能なカメラである。
In step S1402, the control unit 501 determines whether or not the camera connected in step S1401 is compatible with a double-lens lens (for example, the lens unit 300). For example, the control unit 501 acquires model information of the camera from the connected camera, and determines whether or not the camera is compatible with a twin-lens lens based on the acquired model information. If the camera is determined to be compatible with a twin-lens lens, the process proceeds to step S1403; otherwise, step S1403.
Proceed to 1421. A camera compatible with a twin-lens lens is, for example, a camera to which a twin-lens lens can be attached.

ステップS1403では、制御部501は、ステップS1401で接続されたカメラのファームウェアが2眼レンズに対応可能か否かを判定する。例えば、制御部501は、接続されたカメラから、当該カメラのファームウェアのバージョンの情報を取得し、取得した情報に基づいて、接続されたカメラのファームウェアのバージョンが2眼レンズに対応したバージョンであるか否かを判定する。2眼レンズに対応可能と判定した場合はステップS1404へ進み、そうでない場合はステップS1421へ進む。 In step S1403, the control unit 501 determines whether or not the firmware of the camera connected in step S1401 is compatible with the twin lens. For example, the control unit 501 acquires firmware version information of the camera from the connected camera, and based on the acquired information, the firmware version of the connected camera is a version compatible with the twin lens. Determine whether or not If it is determined that the binocular lens can be used, the process advances to step S1404; otherwise, the process advances to step S1421.

2眼レンズに対応可能なカメラがPC500に接続されたとしても、接続されたカメラのファームウェアのバージョンが古いなどの理由により、接続されたカメラが2眼レンズに対応できていないことがある。そのために、ステップS1403の処理が必要となる。また、PC500には様々なカメラが接続可能であり、ファームウェアのバージョンに依らず2眼レンズに対応できないカメラが接続されることもある。そのため、ステップS1403の処理の前に、ステップS1402の処理が必要となる。 Even if a camera compatible with the dual lens is connected to the PC 500, the connected camera may not be compatible with the dual lens because the firmware version of the connected camera is old. Therefore, the process of step S1403 is required. Also, various cameras can be connected to the PC 500, and a camera that is not compatible with a twin lens may be connected regardless of the version of the firmware. Therefore, the process of step S1402 is required before the process of step S1403.

ステップS1404では、制御部501は、ステップS1401で接続されたカメラに2眼レンズが装着されているか否かを判定する。2眼レンズが装着されていると判定した場合はステップS1405へ進み、そうでない場合はステップS1421へ進む。 In step S1404, the control unit 501 determines whether or not the camera connected in step S1401 is equipped with a twin lens. If it is determined that two lenses are attached, the process advances to step S1405; otherwise, the process advances to step S1421.

ステップS1405では、制御部501は、ステップS1401で接続されたカメラにPCライブビュー開始要求を送信する。 In step S1405, the control unit 501 transmits a PC live view start request to the camera connected in step S1401.

ステップS1406では、制御部501は、円周魚眼表示を行うか否かを判定する。円周魚眼表示を行うと判定した場合はステップS1407へ進み、そうでない場合(正距円筒表示を行う場合)はステップS1414へ進む。ステップS1406では、例えば、図15(a)~(d)のラジオボタン1505が選択状態か非選択状態かで、円周魚眼表示を行うか否かを判定する。図15(a),(c)ではラジオボタン1505は選択状態であり、図15(b),(d)ではラジオボタン1505は非選択状態である。ラジオボタン1505が選択状態の場合は、円周魚眼表示を行うと判定し、ステップS1407へ進む。ラジオボタン1505が非選択状態である場合は、ステップS1414へ進む。 In step S1406, the control unit 501 determines whether or not to perform circular fisheye display. If it is determined that circular fisheye display is to be performed, the process advances to step S1407; if not (if equirectangular display is to be performed), the process advances to step S1414. In step S1406, for example, it is determined whether or not the circular fisheye display is to be performed depending on whether the radio buttons 1505 in FIGS. 15A to 15D are selected or not selected. 15A and 15C, the radio button 1505 is selected, and in FIGS. 15B and 15D, the radio button 1505 is not selected. If the radio button 1505 is selected, it is determined that circular fisheye display is to be performed, and the process advances to step S1407. If the radio button 1505 is not selected, the process advances to step S1414.

ステップS1407では、制御部501は、ステップS1401で接続されたカメラにライブビュー画像要求を送信する。本実施形態では、ステップS1407のライブビュー画像要求は、通常解像度のライブビュー画像の要求であるとする。通常解像度は、例えば、4K解像度であるとする。 In step S1407, the control unit 501 transmits a live view image request to the camera connected in step S1401. In this embodiment, it is assumed that the live-view image request in step S1407 is a request for a normal-resolution live-view image. Assume that the normal resolution is, for example, 4K resolution.

ステップS1408では、制御部501は、ステップS1401で接続されたカメラから、当該カメラが撮像したライブビュー画像と、当該カメラに装着されている2眼レンズのレンズ情報とを受信する。ステップS1408で受信するライブビュー画像の解像度は、通常解像度である。ステップS1408で受信するレンズ情報は、受信するライブビュー画像に合うように変換された情報(例えば、図13のステップS1308で変換されたレンズ情報)である。 In step S1408, the control unit 501 receives, from the camera connected in step S1401, the live view image captured by the camera and the lens information of the twin lens attached to the camera. The resolution of the live view image received in step S1408 is normal resolution. The lens information received in step S1408 is information converted to match the received live view image (for example, the lens information converted in step S1308 of FIG. 13).

ステップS1409では、制御部501は、左右入れ替えを行うか否かを判定する。左右入れ替えを行うと判定した場合はステップS1410へ進み、そうでない場合はステップS1412へ進む。ステップS1409では、例えば、図15(a),(c)のチェックボックス1507がチェックされているか否かに基づいて、左右入れ替えを行うか否かを判定する。チェックボックス1507がチェックされている場合は、左右入れ替えを行
うと判定し、ステップS1410へ進む。チェックボックス1507がチェックされていない場合は、ステップS1412へ進む。
In step S1409, the control unit 501 determines whether or not left-right switching is to be performed. If it is determined that left/right switching is to be performed, the process proceeds to step S1410; otherwise, the process proceeds to step S1412. In step S1409, for example, based on whether or not the check box 1507 in FIGS. If the check box 1507 is checked, it is determined that left/right switching is to be performed, and the process advances to step S1410. If the check box 1507 is not checked, the process advances to step S1412.

ステップS1410では、制御部501は、ステップS1408で取得したレンズ情報に基づいて、ステップS1408で取得したライブビュー画像における右像と左像の位置を入れ替えて、処理ライブビュー画像を生成する(左右入れ替え)。左右入れ替えの方法は、図7のステップS707と同様である。制御部501は、ライブビュー画像と共に受信したレンズ情報に含まれる中心座標(左眼光学系301Lと右眼光学系301Rそれぞれの光軸中心)に基づいて、ライブビュー画像における右像と左像の位置を入れ替えて、処理ライブビュー画像を生成する。 In step S1410, based on the lens information acquired in step S1408, the control unit 501 replaces the positions of the right and left images in the live view image acquired in step S1408 to generate a processed live view image (horizontal interchange). ). The method for left/right switching is the same as in step S707 in FIG. Based on the center coordinates (centers of the optical axes of the left-eye optical system 301L and right-eye optical system 301R) included in the lens information received together with the live-view image, the control unit 501 shifts the right and left images in the live-view image. The positions are exchanged to generate a processed live view image.

ステップS1411では、制御部501は、ステップS1410で生成した処理ライブビュー画像を、表示部506に表示する。 In step S<b>1411 , the control unit 501 displays the processed live view image generated in step S<b>1410 on the display unit 506 .

ステップS1412では、制御部501は、ステップS1408で取得したライブビュー画像を、表示部506に表示する。 In step S<b>1412 , the control unit 501 displays the live view image acquired in step S<b>1408 on the display unit 506 .

ステップS1413では、制御部501は、PCライブビューを終了するか否かを判定する。例えば、カメラ100とPC500の接続が解除されたり、ユーザがカメラ100またはPC500に対してPCライブビューの終了を指示した場合に、PCライブビューを終了すると判定する。PCライブビューの終了指示は、例えば、図15(a)~(d)の終了ボタン1508の押下である。PCライブビューを終了すると判定した場合は図14の動作を終了し、そうでない場合はステップS1406へ進む。 In step S1413, the control unit 501 determines whether or not to end the PC live view. For example, when the connection between the camera 100 and the PC 500 is released, or when the user instructs the camera 100 or the PC 500 to end the PC live view, it is determined to end the PC live view. An instruction to end the PC live view is, for example, pressing the end button 1508 in FIGS. If it is determined to end the PC live view, the operation in FIG. 14 is ended; otherwise, the process advances to step S1406.

上述したように、正距円筒表示を行う場合は、ステップS1406からステップS1414へ進む。ステップS1414では、制御部501は、ステップS1401で接続されたカメラにライブビュー画像要求を送信する。本実施形態では、ステップS1414のライブビュー画像要求は、低解像度(通常解像度よりも低い解像度)のライブビュー画像の要求であるとする。正距円筒表示を行う場合には、正距円筒変換(円周魚眼画像から正距円筒画像への変換)が必要となり、正距円筒変換を施す画像の解像度が高いほど、正距円筒変換に要する時間が増し、正距円筒変換による遅延が増す。本実施形態では、正距円筒変換の高速化(正距円筒変換に要する時間の短縮)のために、低解像度のライブビュー画像を要求する。なお、正距円筒変換による遅延が許容範囲内であれば、正距円筒表示を行う場合にも、通常解像度のライブビュー画像を要求してよい。 As described above, when performing equirectangular display, the process proceeds from step S1406 to step S1414. In step S1414, the control unit 501 transmits a live view image request to the camera connected in step S1401. In this embodiment, it is assumed that the live-view image request in step S1414 is a request for a low-resolution (lower than normal resolution) live-view image. When performing equirectangular display, equirectangular conversion (conversion from a circular fisheye image to an equirectangular image) is required. , and the delay due to the equirectangular transformation increases. In this embodiment, a low-resolution live view image is requested in order to speed up the equirectangular transformation (reduce the time required for the equirectangular transformation). If the delay due to the equirectangular conversion is within the allowable range, the normal resolution live view image may be requested even when the equirectangular display is performed.

ステップS1415では、制御部501は、ステップS1401で接続されたカメラから、当該カメラが撮像したライブビュー画像と、当該カメラに装着されている2眼レンズのレンズ情報とを受信する。ステップS1415で受信するライブビュー画像の解像度は、低解像度である。ステップS1415で受信するレンズ情報は、受信するライブビュー画像に合うように変換された情報(例えば、図13のステップS1308で変換されたレンズ情報)である。 In step S1415, the control unit 501 receives, from the camera connected in step S1401, the live view image captured by the camera and the lens information of the twin lens attached to the camera. The resolution of the live view image received in step S1415 is low resolution. The lens information received in step S1415 is information converted to match the received live view image (for example, the lens information converted in step S1308 of FIG. 13).

ステップS1416では、制御部501は、左右入れ替えを行うか否かを判定する。左右入れ替えを行うと判定した場合はステップS1417へ進み、そうでない場合はステップS1419へ進む。ステップS1416では、例えば、図15(b),(d)のチェックボックス1507がチェックされているか否かに基づいて、左右入れ替えを行うか否かを判定する。チェックボックス1507がチェックされている場合は、左右入れ替えを行うと判定し、ステップS1417へ進む。チェックボックス1507がチェックされていない場合は、ステップS1419へ進む。 In step S1416, the control unit 501 determines whether or not left-right switching is to be performed. If it is determined that left/right switching is to be performed, the process proceeds to step S1417; otherwise, the process proceeds to step S1419. In step S1416, for example, based on whether or not the check box 1507 in FIGS. If the check box 1507 is checked, it is determined that left/right switching is to be performed, and the process advances to step S1417. If check box 1507 is not checked, the process advances to step S1419.

ステップS1417では、制御部501は、ステップS1415で取得したレンズ情報に基づいて、ステップS1415で取得したライブビュー画像における右像と左像の位置を入れ替えるとともに、右像と左像それぞれを正距円筒画像に変換する。つまり、制御部501は、左右入れ替えを行うとともに正距円筒変換を行って、処理ライブビュー画像を生成する。左右入れ替えを含む正距円筒表示への変換は、ステップS712と同様であるとする。左右入れ替えを含む正距円筒表示への変換は、ステップS716~S718と同様であってもよい。つまり、制御部501は、ライブビュー画像と共に受信したレンズ情報に含まれる個体値を用いて補正したレンズ設計値に基づいてマップを生成し、当該マップに基づいて、左右入れ替えを含む正距円筒表示への変換を行ってもよい。実施形態1と同様に、左右入れ替えを正距円筒変換の一部として実行してもよいし、それぞれ別の処理として実行してもよい。 In step S1417, based on the lens information acquired in step S1415, the control unit 501 switches the positions of the right image and the left image in the live view image acquired in step S1415, and converts the right image and the left image into equirectangular cylinders. Convert to image. That is, the control unit 501 performs left-right switching and equirectangular transformation to generate a processed live view image. It is assumed that the conversion to the equirectangular display including left-right switching is the same as in step S712. The conversion to the equirectangular display including left-right switching may be the same as steps S716 to S718. That is, the control unit 501 generates a map based on the lens design values corrected using the individual values included in the lens information received together with the live view image, and based on the map, the equirectangular display including left-right switching is performed. You can convert to As in the first embodiment, left-right switching may be performed as part of the equirectangular transformation, or may be performed as separate processes.

ステップS1418では、制御部501は、ステップS1417で生成した処理ライブビュー画像を、表示部506に表示する。 In step S<b>1418 , the control unit 501 displays the processed live view image generated in step S<b>1417 on the display unit 506 .

ステップS1419では、制御部501は、ステップS1415で取得したライブビュー画像における右像と左像の位置を入れ替えずに、右像と左像それぞれを正距円筒画像に変換する。つまり、制御部501は、左右入れ替えを行わずに正距円筒変換を行って、処理ライブビュー画像を生成する。 In step S1419, the control unit 501 converts the right and left images into equirectangular images without interchanging the positions of the right and left images in the live view image acquired in step S1415. In other words, the control unit 501 performs equirectangular transformation without left-right switching to generate a processed live view image.

ステップS1420では、制御部501は、ステップS1419で生成した処理ライブビュー画像を、表示部506に表示する。 In step S<b>1420 , the control unit 501 displays the processed live view image generated in step S<b>1419 on the display unit 506 .

カメラ100が2眼レンズに対応可能でない場合、もしくは、カメラ100に1眼レンズが装着されている場合にはステップS1421の処理が行われる。ステップS1421では、制御部501は、1眼レンズで撮像されたライブビュー画像を、表示部506に表示する。ステップS1421の処理は、1眼レンズで撮像したライブビュー画像をPCなどが表示する従来の処理と同様であるため、詳細な説明は省略する。 If the camera 100 is not compatible with a two-lens lens, or if the camera 100 is equipped with a single-lens lens, the process of step S1421 is performed. In step S1421, the control unit 501 displays on the display unit 506 the live view image captured by the single-lens lens. The processing in step S1421 is the same as conventional processing for displaying a live view image captured by a single-lens lens on a PC or the like, so detailed description thereof will be omitted.

ステップS1410、ステップS1417、ステップS1419のそれぞれでは、制御部501は、接続されたカメラから取得したライブビュー画像に対して画像処理を施す。ステップS1410、ステップS1417、ステップS1419よりも後のステップS1413では、制御部501は、PCライブビューを終了するか否かを判定する。そして、PCライブビューを継続する場合には、ステップS1410、ステップS1417、ステップS1419よりも前のステップS1406に処理が戻される。そのため、図14の動作では、ステップS1410、ステップS1417、ステップS1419のいずれかの画像処理が繰り返し実行される可能性がある。 In each of steps S1410, S1417, and S1419, the control unit 501 performs image processing on the live view image obtained from the connected camera. In step S1413 after steps S1410, S1417, and S1419, the control unit 501 determines whether or not to end the PC live view. If the PC live view is to be continued, the process returns to step S1406 prior to steps S1410, S1417, and S1419. Therefore, in the operation of FIG. 14, there is a possibility that the image processing of any one of steps S1410, S1417, and S1419 will be repeatedly executed.

そこで、制御部501は、画像処理の高速化のために、実行した画像処理に関連する情報をRAM503に記録して、次回以降の画像処理の際に利用してもよい。例えば、制御部501は、画像処理前の画素と画像処理後の画素との対応関係(画像処理マップ)を記録する。画像処理マップは、ライブビュー画像の解像度やレンズ情報に変化が無ければ、使用し続けることができる。制御部501は、ステップS1410、ステップS1417、ステップS1419のいずれかの画像処理を実行した際に、当該画像処理の画像処理マップを記録する。そして、制御部501は、同じ画像処理を再び実行する際に、記録した画像処理マップを使って画像処理を実行する。こうすることで、画像処理を高速化することができる。 Therefore, in order to speed up the image processing, the control unit 501 may record information related to the executed image processing in the RAM 503 and use it in subsequent image processing. For example, the control unit 501 records the correspondence (image processing map) between pixels before image processing and pixels after image processing. The image processing map can continue to be used if there is no change in the resolution of the live view image or lens information. The control unit 501 records an image processing map of the image processing when executing any one of the image processing in steps S1410, S1417, and S1419. Then, when executing the same image processing again, the control unit 501 executes the image processing using the recorded image processing map. By doing so, image processing can be speeded up.

図15(a)~(d)は、制御部501が表示部506に表示するアプリケーション画面における表示(PCライブビューの表示)の一例を示す模式図である。画面1500は
、アプリケーション画面(リモートライブビュー画面)である。画面1500は、ライブビュー表示領域1501、ガイド表示領域1502、ガイド表示領域1503、操作領域1504、終了ボタン1508を含む。
15A to 15D are schematic diagrams showing an example of display (PC live view display) on the application screen displayed on the display unit 506 by the control unit 501. FIG. A screen 1500 is an application screen (remote live view screen). Screen 1500 includes live view display area 1501 , guide display area 1502 , guide display area 1503 , operation area 1504 and end button 1508 .

ライブビュー表示領域1501は、ライブビュー画像を表示する領域である。ライブビュー表示領域1501は、左側の表示領域1501Aと、右側の表示領域1501Bとから成る。ガイド表示領域1502は、左側の表示領域1501Aに表示される画像が2眼レンズの2つの光学系(左眼光学系301Lと右眼光学系301R)のどちらの画像であるかの文字列を表示する領域である。ガイド表示領域1503は、右側の表示領域1501Bに表示される画像が2眼レンズの2つの光学系(左眼光学系301Lと右眼光学系301R)のどちらの画像であるかの文字列を表示する領域である。操作領域1504は、PCライブビューに関する操作を受け付けるための領域であり、操作領域1504には、ラジオボタン1505,1506とチェックボックス1507が表示される。ラジオボタン1505は、円周魚眼表示を行う際に選択されるラジオボタンであり、ラジオボタン1506は、正距円筒表示を行う際に選択されるラジオボタンである。ラジオボタン1505が選択状態の場合、ラジオボタン1506は非選択状態となり、ラジオボタン1505が非選択状態の場合、ラジオボタン1506は選択状態となる。チェックボックス1507は、左右入れ替えを行う際にチェックされるチェックボックスである。チェックボックス1507が操作されると、ライブビュー画像における右像(右眼映像)と左像(左眼映像)との位置が入れ替わり、ガイド表示領域1502,1503に表示する文字列も入れ替わる。終了ボタン1508は、PCライブビューを終了するためのボタンである。 A live view display area 1501 is an area for displaying a live view image. The live view display area 1501 consists of a left display area 1501A and a right display area 1501B. A guide display area 1502 displays a character string indicating which image of the two optical systems (left eye optical system 301L and right eye optical system 301R) of the twin lens is the image displayed in the left display area 1501A. This is the area where A guide display area 1503 displays a character string indicating which image of the two optical systems (left eye optical system 301L and right eye optical system 301R) of the twin lens is the image displayed in the right display area 1501B. This is the area where An operation area 1504 is an area for receiving operations related to PC live view, and radio buttons 1505 and 1506 and a check box 1507 are displayed in the operation area 1504 . A radio button 1505 is a radio button that is selected when performing circular fisheye display, and a radio button 1506 is a radio button that is selected when performing equirectangular display. When the radio button 1505 is in the selected state, the radio button 1506 is in the non-selected state, and when the radio button 1505 is in the non-selected state, the radio button 1506 is in the selected state. A check box 1507 is a check box that is checked when left-right switching is performed. When the check box 1507 is operated, the positions of the right image (right eye image) and left image (left eye image) in the live view image are exchanged, and the character strings displayed in the guide display areas 1502 and 1503 are also exchanged. An end button 1508 is a button for ending the PC live view.

図15(a)では、円周魚眼表示を行うためのラジオボタン1505が選択されている。左右入れ替えを行うチェックボックス1507はチェックされていない。そのため、カメラから取得したライブビュー画像が、ライブビュー表示領域1501にそのまま表示される。具体的には、左側の表示領域1501Aに、円周魚眼画像である右眼映像が表示され、右側の表示領域1501Bに、円周魚眼画像である左眼映像が表示される。 In FIG. 15A, a radio button 1505 for circular fisheye display is selected. The check box 1507 for switching left and right is not checked. Therefore, the live view image obtained from the camera is displayed in the live view display area 1501 as it is. Specifically, the left display area 1501A displays a right-eye image that is a circular fisheye image, and the right display area 1501B displays a left-eye image that is a circular fisheye image.

図15(b)では、正距円筒表示を行うためのラジオボタン1506が選択されている。左右入れ替えを行うチェックボックス1507はチェックされていない。そのため、カメラから取得したライブビュー画像における右眼映像と左眼映像(いずれかも円周魚眼画像)それぞれが正距円筒画像に変換される(左右入れ替えは行われない)。そして、正距円筒変換後のライブビュー画像がライブビュー表示領域1501に表示される。具体的には、左側の表示領域1501Aに、正距円筒画像である右眼映像が表示され、右側の表示領域1501Bに、正距円筒画像である左眼映像が表示される。 In FIG. 15B, a radio button 1506 for equirectangular display is selected. The check box 1507 for switching left and right is not checked. Therefore, each of the right-eye video and the left-eye video (both of which are circular fisheye images) in the live view image acquired from the camera is converted into an equirectangular image (left-right switching is not performed). Then, the live view image after equirectangular transformation is displayed in the live view display area 1501 . Specifically, the right-eye image, which is an equirectangular image, is displayed in the left display area 1501A, and the left-eye image, which is an equirectangular image, is displayed in the right display area 1501B.

図15(c)では、円周魚眼表示を行うためのラジオボタン1505が選択されており、左右入れ替えを行うチェックボックス1507がチェックされている。そのため、カメラから取得したライブビュー画像における右眼映像と左眼映像の位置が入れ替えられる。そして、左右入れ替え後のライブビュー画像がライブビュー表示領域1501に表示される。具体的には、左側の表示領域1501Aに、円周魚眼画像である左眼映像が表示され、右側の表示領域1501Bに、円周魚眼画像である右眼映像が表示される。 In FIG. 15C, a radio button 1505 for circular fisheye display is selected, and a check box 1507 for left/right switching is checked. Therefore, the positions of the right-eye video and the left-eye video are switched in the live view image acquired from the camera. Then, the live-view image after left-right switching is displayed in the live-view display area 1501 . Specifically, the left-eye image, which is a circular fish-eye image, is displayed in the left display area 1501A, and the right-eye image, which is a circular fish-eye image, is displayed in the right display area 1501B.

図15(d)では、正距円筒表示を行うためのラジオボタン1506が選択されており、左右入れ替えを行うチェックボックス1507がチェックされている。そのため、カメラから取得したライブビュー画像における右眼映像と左眼映像の位置が入れ替えられるとともに、右眼映像と左眼映像(いずれかも円周魚眼画像)それぞれが正距円筒画像に変換される。そして、左右入れ替えと正距円筒変換を行った後のライブビュー画像が、ライブビュー表示領域1501に表示される。具体的には、左側の表示領域1501Aに、正距円筒画像である左眼映像が表示され、右側の表示領域1501Bに、正距円筒画像である
右眼映像が表示される。
In FIG. 15(d), a radio button 1506 for equirectangular display is selected, and a check box 1507 for left/right switching is checked. Therefore, the positions of the right-eye image and the left-eye image in the live view image acquired from the camera are exchanged, and the right-eye image and the left-eye image (both are circular fisheye images) are converted into equirectangular images. . Then, the live view image after left-right switching and equirectangular conversion is performed is displayed in the live view display area 1501 . Specifically, the left eye image, which is an equirectangular image, is displayed in the left display area 1501A, and the right eye image, which is an equirectangular image, is displayed in the right display area 1501B.

なお、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。同様に、制御部501が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。 Note that the various controls described above that are performed by the system control unit 50 may be performed by one piece of hardware, or a plurality of pieces of hardware (for example, a plurality of processors or circuits) may share the processing, so that the apparatus Overall control may be performed. Similarly, the various controls described above that are performed by the control unit 501 may be performed by one piece of hardware. Overall control may be performed.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Moreover, although the present invention has been described in detail based on its preferred embodiments, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention can be applied to the present invention. included. Furthermore, each embodiment described above merely shows one embodiment of the present invention, and it is also possible to combine each embodiment as appropriate.

また、本発明は、カメラやPCに限られず、視差のある2つの画像を扱うことのできる電子機器であれば適用可能である。例えば、本発明は、PDA、携帯電話端末や携帯型の画像ビューワ、プリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。また、本発明は、映像プレーヤー、表示装置(投影装置を含む)、タブレット端末、スマートフォン、AIスピーカー、家電装置や車載装置などに適用可能である。 Moreover, the present invention is not limited to cameras and PCs, and can be applied to any electronic device that can handle two images with parallax. For example, the present invention can be applied to PDAs, mobile phone terminals, portable image viewers, printers, digital photo frames, music players, game machines, electronic book readers, and the like. In addition, the present invention can be applied to video players, display devices (including projection devices), tablet terminals, smart phones, AI speakers, home appliances, vehicle-mounted devices, and the like.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

100:デジタルカメラ(カメラ) 50:システム制御部
500:パーソナルコンピュータ(PC) 501:制御部
100: Digital camera (camera) 50: System control unit 500: Personal computer (PC) 501: Control unit

Claims (20)

第1の光学系を介して入力された第1の光学像に対応する第1画像領域と、前記第1の光学系に対して所定の視差を有する第2の光学系を介して入力された第2の光学像に対応する第2画像領域とを含む1つの画像と、前記第1の光学系および前記第2の光学系に関する補正用情報とを取得する取得手段と、
前記補正用情報に基づき、前記画像における前記第1画像領域に含まれる画素と前記第2画像領域に含まれる画素の位置を補正する補正処理を実行する補正手段と、
前記補正された第1の画像領域および第2の画像領域を変換する処理を実行して、処理画像を生成する生成手段と
を有することを特徴とする情報処理装置。
A first image area corresponding to a first optical image input through a first optical system and a second optical system having a predetermined parallax with respect to the first optical system Acquisition means for acquiring one image including a second image area corresponding to a second optical image, and correction information regarding the first optical system and the second optical system;
correction means for executing correction processing for correcting positions of pixels included in the first image region and pixels included in the second image region in the image based on the correction information;
and generating means for generating a processed image by executing a process of transforming the corrected first image area and the corrected second image area.
前記補正用情報は、前記画像における前記第1の光学系の光軸中心に関する情報、および前記画像における前記第2の光学系の光軸中心に関する情報を含み、
前記画像における前記第1の光学系および前記第2の光学系の光軸中心に基づき、前記画像における前記第1画像領域と前記第2画像領域との位置を入れ替える入れ替え処理を実行する入れ替え手段をさらに有する
ことを特徴とする請求項1に記載の情報処理装置。
The correction information includes information about the optical axis center of the first optical system in the image and information about the optical axis center of the second optical system in the image,
exchange means for executing exchange processing for exchanging the positions of the first image area and the second image area in the image based on the optical axis centers of the first optical system and the second optical system in the image; 2. The information processing apparatus according to claim 1, further comprising:
前記入れ替え手段は、前記画像における前記第1の光学系の光軸中心に基づき、前記画像における前記第1画像領域を特定し、前記画像における前記第2の光学系の光軸中心に基づき、前記画像における前記第2画像領域を特定し、特定した2つの領域の位置を入れ替える
ことを特徴とする請求項2に記載の情報処理装置。
The replacing means specifies the first image area in the image based on the optical axis center of the first optical system in the image, and specifies the optical axis center of the second optical system in the image, 3. The information processing apparatus according to claim 2, wherein the second image area in the image is specified, and positions of the two specified areas are exchanged.
前記画像は、前記第1画像領域と前記第2画像領域とが左右に並べて配置された画像であって、
前記入れ替え手段は、前記画像における前記第1画像領域と前記第2画像領域との左右の位置関係を反転させる
ことを特徴とする請求項2または3に記載の情報処理装置。
The image is an image in which the first image area and the second image area are arranged side by side,
4. The information processing apparatus according to claim 2, wherein said switching means reverses a horizontal positional relationship between said first image area and said second image area in said image.
前記第1の光学系、および前記第2の光学系は、それぞれ、魚眼レンズであり、
前記第1画像領域、および前記第2画像領域は、それぞれ、円周魚眼画像の領域であることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
The first optical system and the second optical system are each a fisheye lens,
5. The information processing apparatus according to claim 1, wherein the first image area and the second image area are areas of a circular fisheye image.
前記生成手段は、補正された前記第1画像領域および前記第2画像領域それぞれを円周魚眼画像の領域から正距円筒画像の領域に変換する
ことを特徴とする請求項5に記載の情報処理装置。
6. The information according to claim 5, wherein said generating means converts each of said corrected first image area and said second image area from a circular fisheye image area to an equirectangular image area. processing equipment.
前記第1の光学系および前記第2の光学系に関する前記補正用情報は、前記第1の光学系と前記第2の光学系とを含むレンズユニットの設計上のパラメータと、前記レンズユニット固有のパラメータとを含み、
前記補正手段は、前記設計上のパラメータと、前記固有のパラメータとに基づき、前記補正処理を実行する
ことを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
The correction information regarding the first optical system and the second optical system includes design parameters of a lens unit including the first optical system and the second optical system, and a lens unit-specific parameters and
7. The information processing apparatus according to any one of claims 1 to 6, wherein said correction means executes said correction processing based on said design parameter and said inherent parameter.
前記取得手段は、前記画像のデータに前記第1の光学系および前記第2の光学系に関する前記補正用情報がメタデータとして付加された画像ファイルを取得する
ことを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
8. The acquiring means acquires an image file in which the correction information relating to the first optical system and the second optical system is added as metadata to the data of the image. The information processing device according to any one of .
前記画像は、前記第1の光学系と前記第2の光学系とを含むレンズユニットに接続可能な撮像装置から出力されたライブビュー画像であって、
前記第1の光学系および前記第2の光学系に関する前記補正用情報は、前記撮像装置が前記レンズユニットから取得したレンズ情報である
ことを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
The image is a live view image output from an imaging device connectable to a lens unit including the first optical system and the second optical system,
9. The apparatus according to any one of claims 1 to 8, wherein the correction information regarding the first optical system and the second optical system is lens information acquired by the imaging device from the lens unit. The information processing device described.
前記画像は、前記第1の光学系と前記第2の光学系とを含むレンズユニットに接続可能な撮像装置が撮像した画像であって、
前記第1の光学系および前記第2の光学系に関する前記補正用情報は、前記撮像装置が前記レンズユニットから取得して前記画像のデータにメタデータとして付加したレンズ情報である
ことを特徴とする請求項1乃至8のいずれか1項に記載の情報処理装置。
The image is an image captured by an imaging device connectable to a lens unit including the first optical system and the second optical system,
The correction information relating to the first optical system and the second optical system is lens information acquired by the imaging device from the lens unit and added as metadata to the image data. The information processing apparatus according to any one of claims 1 to 8.
第1の光学系と、前記第1の光学系に対して所定の視差を有する第2の光学系とを含むレンズユニットに接続可能な接続手段と、
前記接続手段に前記レンズユニットが接続されている場合に、前記第1の光学系および前記第2の光学系に関する情報を前記レンズユニットから取得する取得手段と、
前記第1の光学系を介して入力された第1の光学像に対応する第1画像領域と、前記第2の光学系を介して入力された第2の光学像に対応する第2画像領域とを含む1つの画像と、前記レンズユニットから取得された前記情報とを出力する出力手段と
を有する撮像装置。
connecting means connectable to a lens unit including a first optical system and a second optical system having a predetermined parallax with respect to the first optical system;
acquisition means for acquiring information about the first optical system and the second optical system from the lens unit when the lens unit is connected to the connection means;
A first image area corresponding to the first optical image input via the first optical system and a second image area corresponding to the second optical image input via the second optical system and an output means for outputting the information obtained from the lens unit.
前記出力手段は、外部装置に前記画像と前記情報とを出力する
ことを特徴とする請求項11に記載の撮像装置。
12. The imaging apparatus according to claim 11, wherein said output means outputs said image and said information to an external device.
前記出力手段は、記憶媒体に、前記画像のデータに前記情報がメタデータとして付加された画像ファイルを格納する
ことを特徴とする請求項11に記載の撮像装置。
12. The imaging apparatus according to claim 11, wherein said output means stores an image file in which said information is added to said image data as metadata in a storage medium.
前記情報は、前記画像における前記第1の光学系の光軸中心に関する情報、および前記画像における前記第2の光学系の光軸中心に関する情報を含む
ことを特徴とする請求項11乃至13のいずれか1項に記載の撮像装置。
14. The information according to any one of claims 11 to 13, wherein the information includes information about the optical axis center of the first optical system in the image and information about the optical axis center of the second optical system in the image. 1. The imaging device according to claim 1.
第1の光学系を介して入力された第1の光学像に対応する第1画像領域と、前記第1の光学系に対して所定の視差を有する第2の光学系を介して入力された第2の光学像に対応する第2画像領域とを含む1つの画像と、前記第1の光学系および前記第2の光学系に関する補正用情報とを取得するステップと、
前記補正用情報に基づき、前記画像における前記第1画像領域に含まれる画素と前記第2画像領域に含まれる画素の位置を補正する補正処理を実行するステップと、
前記補正された第1の画像領域および第2の画像領域を変換する処理を実行して、処理画像を生成するステップと
を有することを特徴とする情報処理装置の制御方法。
A first image area corresponding to a first optical image input through a first optical system and a second optical system having a predetermined parallax with respect to the first optical system acquiring one image including a second image area corresponding to a second optical image, and correction information regarding the first optical system and the second optical system;
executing a correction process for correcting positions of pixels included in the first image region and pixels included in the second image region in the image based on the correction information;
and executing a process of transforming the corrected first image area and the corrected second image area to generate a processed image.
第1の光学系と、前記第1の光学系に対して所定の視差を有する第2の光学系とを含むレンズユニットに接続可能な撮像装置の制御方法であって、
前記撮像装置に前記レンズユニットが接続されている場合に、前記第1の光学系および前記第2の光学系に関する情報を前記レンズユニットから取得するステップと、
前記第1の光学系を介して入力された第1の光学像に対応する第1画像領域と、前記第2の光学系を介して入力された第2の光学像に対応する第2画像領域とを含む1つの画像と、前記レンズユニットから取得された前記情報とを出力するステップと
を有する制御方法。
A control method for an imaging device connectable to a lens unit including a first optical system and a second optical system having a predetermined parallax with respect to the first optical system, comprising:
obtaining information about the first optical system and the second optical system from the lens unit when the lens unit is connected to the imaging device;
A first image area corresponding to the first optical image input via the first optical system and a second image area corresponding to the second optical image input via the second optical system and outputting the information obtained from the lens unit.
コンピュータを、請求項1乃至10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to any one of claims 1 to 10. コンピュータを、請求項11乃至14のいずれか1項に記載の撮像装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the imaging apparatus according to any one of claims 11 to 14. コンピュータを、請求項1乃至10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to function as each means of the information processing apparatus according to any one of claims 1 to 10. コンピュータを、請求項11乃至14のいずれか1項に記載の撮像装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to function as each means of the imaging apparatus according to any one of claims 11 to 14.
JP2022034311A 2021-05-31 2022-03-07 Information processing apparatus, imaging apparatus, control method, program and storage medium Pending JP2022184712A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/825,730 US11849100B2 (en) 2021-05-31 2022-05-26 Information processing apparatus, control method, and non-transitory computer readable medium
CN202210601858.8A CN115484450A (en) 2021-05-31 2022-05-30 Information processing apparatus, control method, and computer-readable storage medium
EP22176042.4A EP4099682A1 (en) 2021-05-31 2022-05-30 Information processing apparatus, control method, program, and computer readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021090861 2021-05-31
JP2021090861 2021-05-31

Publications (1)

Publication Number Publication Date
JP2022184712A true JP2022184712A (en) 2022-12-13

Family

ID=84437939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022034311A Pending JP2022184712A (en) 2021-05-31 2022-03-07 Information processing apparatus, imaging apparatus, control method, program and storage medium

Country Status (1)

Country Link
JP (1) JP2022184712A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024142698A1 (en) * 2022-12-26 2024-07-04 富士フイルム株式会社 Attendant information generation method, imaging system, and attendant information generation program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024142698A1 (en) * 2022-12-26 2024-07-04 富士フイルム株式会社 Attendant information generation method, imaging system, and attendant information generation program

Similar Documents

Publication Publication Date Title
CN110691187B (en) Electronic device, control method of electronic device, and computer-readable medium
EP4099682A1 (en) Information processing apparatus, control method, program, and computer readable medium
JP2020107952A (en) Electronic device, control method of the same, program, and storage medium
CN110881097B (en) Display control apparatus, control method, and computer-readable medium
JP2022184712A (en) Information processing apparatus, imaging apparatus, control method, program and storage medium
US20220385829A1 (en) Information processing apparatus, control method, and storage medium
JP2022183843A (en) Electronic equipment, control method therefor, program and storage medium
US20220385830A1 (en) Electronic apparatus, control method, and non-transitory computer readable medium
EP4401403A1 (en) Electronic device
US20230384236A1 (en) Information processing apparatus, imaging apparatus, information processing method, and non-transitory computer readable medium
US20230281768A1 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
US20220398688A1 (en) Image processing apparatus, image processing method, and storage medium
US20240357067A1 (en) Imaging apparatus, control method of imaging apparatus, and non-transitory computer readable medium
US20220385883A1 (en) Image processing apparatus, image processing method, and storage medium
JP2023184106A (en) Display control device, display control method, program, and storage medium
JP2024030637A (en) Electronic device and control method for the same
JP2023181634A (en) Electronic apparatus, method for controlling electronic apparatus, and program
US20230300453A1 (en) Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium
JP2024030580A (en) Electronic apparatus and method for controlling electronic apparatus
US20230209177A1 (en) Imaging apparatus
JP2022191143A (en) Image processing device and image processing method
JP2023102947A (en) Information processing device, control method thereof, and program
JP2023142979A (en) Electronic device, control method for electronic device, program, and storage medium
JP2022168781A (en) Electronic apparatus, method for controlling the same, program, and storage medium
JP2024010449A (en) Information processing apparatus, information processing method, and program