JP2022183656A - 電子機器、制御方法、プログラム、および記憶媒体 - Google Patents
電子機器、制御方法、プログラム、および記憶媒体 Download PDFInfo
- Publication number
- JP2022183656A JP2022183656A JP2021091093A JP2021091093A JP2022183656A JP 2022183656 A JP2022183656 A JP 2022183656A JP 2021091093 A JP2021091093 A JP 2021091093A JP 2021091093 A JP2021091093 A JP 2021091093A JP 2022183656 A JP2022183656 A JP 2022183656A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- lens
- view image
- live view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 84
- 238000003860 storage Methods 0.000 title claims description 11
- 230000003287 optical effect Effects 0.000 claims abstract description 108
- 238000003384 imaging method Methods 0.000 claims description 34
- 230000010365 information processing Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 53
- 238000012545 processing Methods 0.000 description 52
- 230000009466 transformation Effects 0.000 description 33
- 238000013461 design Methods 0.000 description 21
- 238000001514 detection method Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 238000012937 correction Methods 0.000 description 18
- 210000003811 finger Anatomy 0.000 description 16
- 238000004891 communication Methods 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 238000013459 approach Methods 0.000 description 7
- 210000003813 thumb Anatomy 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 6
- 238000003825 pressing Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 238000000926 separation method Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 210000004932 little finger Anatomy 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/663—Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
Abstract
【課題】ライブビュー表示時に、再生表示時に表示される範囲を把握可能にする技術を提供する。【解決手段】本発明の電子機器は、第1の光学系を介して入力された第1の光学像に対応する第1のライブビュー画像を取得する取得手段と、前記第1のライブビュー画像を表示する際に、前記第1の光学系の画角のうち、再生表示時に表示される部分を示すインジケータを、前記第1のライブビュー画像に重畳して表示するように制御する制御手段とを有することを特徴とする。【選択図】図7
Description
本発明は、電子機器、制御方法、プログラム、及び、記憶媒体に関し、特に、広い映像範囲(広い視野角)を有する画像を表示する制御方法に関するものである。
2つの光学系を用いて視差のある2つの画像(広視野角画像)を取得して、当該2つの画像を立体視可能に表示する技術が知られている。視差のある2つの画像を撮影するための2眼カメラは、同じ方向を向いた2つの光学系を有しており、視差のある2つの画像を一度に撮影できる。
特許文献1には、左右に視差をもって並べられた2つの撮像部を使って同一被写体を左右の視点から撮影し、左眼用の画像と右眼用の画像とをそれぞれ取得する立体撮像装置が開示されている。
特許文献2には、監視カメラが撮影した全方位画像と、全方位画像から切り出した画像とを並べて表示する際に、全方位画像のどこが切り取られて表示されているかを示す枠を全方位画像に重畳して表示する情報処理装置が開示されている。
ここで、ライブビュー表示時には、2眼カメラなどで撮像された画像の全体を表示し、再生表示時には、撮像した2つの画像を用いてVR表示することが考えられる。しかしながら、ライブビュー表示時には、2眼カメラを用いてどこまでの範囲を撮像できるかは把握できるものの、再生表示時にどの範囲が表示されるのかを把握できない。
本発明は、ライブビュー表示時に、再生表示時に表示される範囲を把握可能にする技術を提供することを目的とする。
本発明の電子機器は、第1の光学系を介して入力された第1の光学像に対応する第1のライブビュー画像を取得する取得手段と、前記第1のライブビュー画像を表示する際に、前記第1の光学系の画角のうち、再生表示時に表示される部分を示すインジケータを、前記第1のライブビュー画像に重畳して表示するように制御する制御手段とを有することを特徴とする。
本発明によれば、ライブビュー表示時に、再生表示時に表示される範囲が把握可能になる。
以下、本発明にかかる実施形態を、図面を参照して詳細に説明する。図1(a),(b)は、本実施形態に係るシステムの全体構成の一例を示す模式図である。本実施形態に係るシステムはデジタルカメラ(カメラ)100とパーソナルコンピュータ(PC)500とを含む。カメラ100にはレンズユニット300が装着(接続)されている。レンズユニット300の詳細は後述するが、レンズユニット300を装着することで、カメラ100は、所定の視差を有する2つの画像(静止画または動画)を一度に撮像できるようになる。PC500は、カメラ100などの撮像装置で撮像された画像を扱う情報処理装置である。図1(a)は、無線や有線などでカメラ100とPC500が互いに通信可能に接続された構成を示す。図1(b)は、カメラ100で撮影した画像などを、ファイルベースで、外部記憶装置を介してPC500に入力する構成を示す。外部記憶装置はカメラ100とPC500の両方に接続されていてもよいし、そうでなくてもよい。例えば、外部記憶装置をカメラ100に接続して、カメラ100で撮影した画像のファイルを外部記憶装置に格納してもよい。その後、外部記憶装置をカメラ100から取り外してPC500に接続し、外部記憶装置に格納されたファイルをPC500が取り込んでもよい。
図2(a),(b)は、カメラ100の外観の一例を示す外観図である。図2(a)はカメラ100を前面側から見た斜視図であり、図2(b)はカメラ100を背面側から見た斜視図である。
カメラ100は、上面に、シャッターボタン101、電源スイッチ102、モード切替スイッチ103、メイン電子ダイヤル104、サブ電子ダイヤル105、動画ボタン106、ファインダ外表示部107を有する。シャッターボタン101は、撮影準備指示あるいは撮影指示を行うための操作部材である。電源スイッチ102は、カメラ100の電源のオンとオフとを切り替える操作部材である。モード切替スイッチ103は、各種モードを切り替えるための操作部材である。メイン電子ダイヤル104は、シャッター速度や絞り等の設定値を変更するための回転式の操作部材である。サブ電子ダイヤル105は、選択枠(カーソル)の移動や画像送り等を行うための回転式の操作部材である。動画ボタン106は、動画撮影(記録)の開始や停止の指示を行うための操作部材である。ファインダ外表示部107は、シャッター速度や絞り等の様々な設定値を表示する。
カメラ100は、背面に、表示部108、タッチパネル109、方向キー110、SETボタン111、AEロックボタン112、拡大ボタン113、再生ボタン114、メニューボタン115を有する。また、接眼部116、接眼検知部118、タッチバー119、表示モード切替ボタン125を有する。表示部108は、画像や各種情報を表示する。タッチパネル109は、表示部108の表示面(タッチ操作面)に対するタッチ操作を検出する操作部材である。方向キー110は、上下左右にそれぞれ押下可能なキー(4方向
キー)から構成される操作部である。方向キー110の押下した位置に応じた処理が可能である。SETボタン111は、主に選択項目を決定するときに押下される操作部材である。AEロックボタン112は、撮影待機状態で露出状態を固定するときに押下される操作部材である。拡大ボタン113は、撮影モードのライブビュー表示(LV表示)において拡大モードのオンとオフとを切り替えるための操作部材である。拡大モードがオンである場合にはメイン電子ダイヤル104を操作することにより、ライブビュー画像(LV画像)が拡大または縮小する。また、拡大ボタン113は、再生モードにおいて再生画像を拡大したり、拡大率を大きくしたりするときに用いられる。再生ボタン114は、撮影モードと再生モードとを切り替えるための操作部材である。撮影モードの場合に再生ボタン114を押下することで再生モードに移行し、後述する記録媒体227に記録された画像のうち最新の画像を表示部108に表示することができる。
キー)から構成される操作部である。方向キー110の押下した位置に応じた処理が可能である。SETボタン111は、主に選択項目を決定するときに押下される操作部材である。AEロックボタン112は、撮影待機状態で露出状態を固定するときに押下される操作部材である。拡大ボタン113は、撮影モードのライブビュー表示(LV表示)において拡大モードのオンとオフとを切り替えるための操作部材である。拡大モードがオンである場合にはメイン電子ダイヤル104を操作することにより、ライブビュー画像(LV画像)が拡大または縮小する。また、拡大ボタン113は、再生モードにおいて再生画像を拡大したり、拡大率を大きくしたりするときに用いられる。再生ボタン114は、撮影モードと再生モードとを切り替えるための操作部材である。撮影モードの場合に再生ボタン114を押下することで再生モードに移行し、後述する記録媒体227に記録された画像のうち最新の画像を表示部108に表示することができる。
メニューボタン115は、各種設定が可能なメニュー画面を表示部108に表示するために押下される操作部材である。ユーザは、表示部108に表示されたメニュー画面と、方向キー110やSETボタン111とを用いて、直感的に各種設定を行うことができる。接眼部116は、接眼ファインダ(覗き込み型のファインダ)117に対して接眼して覗き込む部位である。ユーザは接眼部116を介して、カメラ100内部の後述するEVF217(Electronic View Finder)に表示された映像を視認することができる。接眼検知部118は、接眼部116(接眼ファインダ117)にユーザが接眼しているか否かを検知するセンサである。
タッチバー119は、タッチ操作を受け付けることが可能なライン状のタッチ操作部材(ラインタッチセンサ)である。タッチバー119は、右手の人差し指でシャッターボタン101を押下可能なようにグリップ部120を右手で握った状態(右手の小指、薬指、中指で握った状態)で、右手の親指でタッチ操作可能(タッチ可能)な位置に配置される。すなわち、タッチバー119は、接眼ファインダ117に接眼して接眼部116を覗き、いつでもシャッターボタン101を押下できるように構えた状態(撮影姿勢)で操作可能である。タッチバー119は、タッチバー119に対するタップ操作(タッチして所定期間以内にタッチ位置を移動せずに離す操作)、左右へのスライド操作(タッチした後、タッチしたままタッチ位置を移動する操作)等を受け付け可能である。タッチバー119は、タッチパネル109とは異なる操作部材であり、表示機能を備えていない。タッチバー119は、例えば各種機能を割当可能なマルチファンクションバー(M-Fnバー)として機能する。
表示モード切替ボタン125は、表示モードを切り替えるための操作部材である。表示モード切替ボタン125が押下されると、表示モードが切り替えられ、表示部108に表示するライブビュー画像や、ライブビュー画像などに重畳するOSD画像(例えばヒストグラムや水準器)などが切り替えられる。ユーザは、表示モード切替ボタン125を操作して、自身の撮影に必要な表示が行われるように表示モードを切り替える。
また、カメラ100は、グリップ部120、サムレスト部121、端子カバー122、蓋123、通信端子124等を有する。グリップ部120は、ユーザがカメラ100を構える際に右手で握りやすい形状に形成された保持部である。グリップ部120を右手の小指、薬指、中指で握ってカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン101とメイン電子ダイヤル104が配置される。また、同様な状態で、右手の親指で操作可能な位置にサブ電子ダイヤル105とタッチバー119が配置される。サムレスト部121(親指待機位置)は、カメラ100の背面側の、どの操作部材も操作しない状態でグリップ部120を握った右手の親指を置きやすい箇所に設けられたグリップ部である。サムレスト部121は、保持力(グリップ感)を高めるためのラバー部材等で構成される。端子カバー122は、カメラ100を外部機器(外部装置)に接続
する接続ケーブル等のコネクタを保護する。蓋123は、後述する記録媒体227を格納するためのスロットを閉塞することで記録媒体227およびスロットを保護する。通信端子124は、カメラ100に対して着脱可能なレンズユニット(後述するレンズユニット200や、レンズユニット300など)側と通信を行うための端子である。
する接続ケーブル等のコネクタを保護する。蓋123は、後述する記録媒体227を格納するためのスロットを閉塞することで記録媒体227およびスロットを保護する。通信端子124は、カメラ100に対して着脱可能なレンズユニット(後述するレンズユニット200や、レンズユニット300など)側と通信を行うための端子である。
図3は、カメラ100の構成の一例を示すブロック図である。なお、図2と同一の構成要素には図2と同一の符号を付し、その構成要素の説明は適宜、省略する。図3では、カメラ100にレンズユニット200が装着されている。
まず、レンズユニット200について説明する。レンズユニット200は、カメラ100に対して着脱可能な交換レンズの一種である。レンズユニット200は、1眼レンズであり、通常のレンズの一例である。レンズユニット200は、絞り201、レンズ202、絞り駆動回路203、AF(オートフォーカス)駆動回路204、レンズシステム制御回路205、通信端子206等を有する。
絞り201は、開口径が調整可能に構成される。レンズ202は、複数枚のレンズから構成される。絞り駆動回路203は、絞り201の開口径を制御することで光量を調整する。AF駆動回路204は、レンズ202を駆動して焦点を合わせる。レンズシステム制御回路205は、後述するシステム制御部50の指示に基づいて、絞り駆動回路203、AF駆動回路204等を制御する。レンズシステム制御回路205は、絞り駆動回路203を介して絞り201の制御を行い、AF駆動回路204を介してレンズ202の位置を変えることで焦点を合わせる。レンズシステム制御回路205は、カメラ100との間で通信可能である。具体的には、レンズユニット200の通信端子206と、カメラ100の通信端子124とを介して通信が行われる。通信端子206は、レンズユニット200がカメラ100側と通信を行うための端子である。
次に、カメラ100について説明する。カメラ100は、シャッター210、撮像部211、A/D変換器212、メモリ制御部213、画像処理部214、メモリ215、D/A変換器216、EVF217、表示部108、システム制御部50を有する。
シャッター210は、システム制御部50の指示に基づいて撮像部211の露光時間を自由に制御できるフォーカルプレーンシャッターである。撮像部211は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子(イメージセンサ)である。撮像部211は、システム制御部50にデフォーカス量情報を出力する撮像面位相差センサを有していてもよい。A/D変換器212は、撮像部211から出力されるアナログ信号をデジタル信号に変換する。画像処理部214は、A/D変換器212からのデータまたはメモリ制御部213からのデータに対し所定の処理(画素補間、縮小等のリサイズ処理、色変換処理等)を行う。また、画像処理部214は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50が露光制御や測距制御を行う。この処理により、TTL(スルー・ザ・レンズ)方式のAF処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理等が行われる。更に、画像処理部214は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50がTTL方式のAWB(オートホワイトバランス)処理を行う。
A/D変換器212からの画像データは、画像処理部214およびメモリ制御部213を介してメモリ215に書き込まれる。あるいは、A/D変換器212からの画像データは、画像処理部214を介さずにメモリ制御部213を介してメモリ215に書き込まれる。メモリ215は、撮像部211によって得られA/D変換器212によりデジタルデータに変換された画像データや、表示部108やEVF217に表示するための画像データを格納する。メモリ215は、所定枚数の静止画像や所定時間の動画像および音声を格
納するのに十分な記憶容量を備えている。また、メモリ215は画像表示用のメモリ(ビデオメモリ)を兼ねている。
納するのに十分な記憶容量を備えている。また、メモリ215は画像表示用のメモリ(ビデオメモリ)を兼ねている。
D/A変換器216は、メモリ215に格納されている表示用の画像データをアナログ信号に変換して表示部108やEVF217に供給する。したがって、メモリ215に書き込まれた表示用の画像データは、D/A変換器216を介して表示部108やEVF217に表示される。表示部108やEVF217は、D/A変換器216からのアナログ信号に応じた表示を行う。表示部108やEVF217は、例えば、LCDや有機EL等のディスプレイである。A/D変換器212によってA/D変換されメモリ215に蓄積されたデジタル信号をD/A変換器216でアナログ信号に変換し、表示部108やEVF217に逐次転送して表示することで、ライブビュー表示が行われる。
システム制御部50は、少なくとも1つのプロセッサおよび/または少なくとも1つの回路からなる制御部である。すなわち、システム制御部50は、プロセッサであってもよく、回路であってもよく、プロセッサと回路の組み合わせであってもよい。システム制御部50は、カメラ100全体を制御する。システム制御部50は、不揮発性メモリ219に記録されたプログラムを実行することで、後述するフローチャートの各処理を実現する。また、システム制御部50は、メモリ215、D/A変換器216、表示部108、EVF217等を制御することにより表示制御も行う。
また、カメラ100は、システムメモリ218、不揮発性メモリ219、システムタイマ220、通信部221、姿勢検知部222、接眼検知部118を有する。
システムメモリ218として、例えばRAMが用いられる。システムメモリ218には、システム制御部50の動作用の定数、変数、不揮発性メモリ219から読み出したプログラム等が展開される。不揮発性メモリ219は電気的に消去・記録可能なメモリであり、不揮発性メモリ219として、例えばEEPROMが用いられる。不揮発性メモリ219には、システム制御部50の動作用の定数、プログラム等が記録される。ここでのプログラムとは、後述するフローチャートを実行するためのプログラムである。システムタイマ220は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。通信部221は、無線または有線ケーブルによって接続された外部機器との間で、映像信号や音声信号の送受信を行う。通信部221は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部221は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部221は撮像部211で撮像した画像(ライブ画像を含む)や、記録媒体227に記録された画像を送信可能であり、外部機器から画像やその他の各種情報を受信することができる。姿勢検知部222は、重力方向に対するカメラ100の姿勢を検知する。姿勢検知部222で検知された姿勢に基づいて、撮像部211で撮影された画像が、カメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部222で検知された姿勢に応じた向き情報を撮像部211で撮影された画像の画像ファイルに付加したり、検知された姿勢に応じて画像を回転したりすることが可能である。姿勢検知部222には、例えば、加速度センサやジャイロセンサ等を用いることができる。姿勢検知部222を用いて、カメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。
接眼検知部118は、接眼部116(接眼ファインダ117)に対する何らかの物体の接近を検知することができる。接眼検知部118には、例えば、赤外線近接センサを用いることができる。物体が接近した場合、接眼検知部118の投光部から投光した赤外線が物体で反射して赤外線近接センサの受光部で受光される。受光された赤外線の量によって
接眼部116から物体までの距離を判別することができる。このように、接眼検知部118は、接眼部116に対する物体の近接距離を検知する接眼検知を行う。接眼検知部118は、接眼部116に対する眼(物体)の接近(接眼)および離反(離眼)を検知する接眼検知センサである。非接眼状態(非接近状態)から、接眼部116に対して所定距離以内に近づく物体が検知された場合に、接眼されたと検知する。一方、接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検知する。接眼を検知する閾値と、離眼を検知する閾値とは例えばヒステリシスを設ける等して異なっていてもよい。また、接眼を検知した後は、離眼を検知するまでは接眼状態であるものとする。離眼を検知した後は、接眼を検知するまでは非接眼状態であるものとする。システム制御部50は、接眼検知部118で検知された状態に応じて、表示部108とEVF217の表示(表示状態)/非表示(非表示状態)を切り替える。具体的には、少なくとも撮影待機状態であって、かつ、表示先の切替設定が自動切替である場合、非接眼中は表示先を表示部108として表示をオンとし、EVF217は非表示とする。また、接眼中は表示先をEVF217として表示をオンとし、表示部108は非表示とする。なお、接眼検知部118は赤外線近接センサに限られず、接眼検知部118には、接眼とみなせる状態を検知できるものであれば他のセンサを用いてもよい。
接眼部116から物体までの距離を判別することができる。このように、接眼検知部118は、接眼部116に対する物体の近接距離を検知する接眼検知を行う。接眼検知部118は、接眼部116に対する眼(物体)の接近(接眼)および離反(離眼)を検知する接眼検知センサである。非接眼状態(非接近状態)から、接眼部116に対して所定距離以内に近づく物体が検知された場合に、接眼されたと検知する。一方、接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検知する。接眼を検知する閾値と、離眼を検知する閾値とは例えばヒステリシスを設ける等して異なっていてもよい。また、接眼を検知した後は、離眼を検知するまでは接眼状態であるものとする。離眼を検知した後は、接眼を検知するまでは非接眼状態であるものとする。システム制御部50は、接眼検知部118で検知された状態に応じて、表示部108とEVF217の表示(表示状態)/非表示(非表示状態)を切り替える。具体的には、少なくとも撮影待機状態であって、かつ、表示先の切替設定が自動切替である場合、非接眼中は表示先を表示部108として表示をオンとし、EVF217は非表示とする。また、接眼中は表示先をEVF217として表示をオンとし、表示部108は非表示とする。なお、接眼検知部118は赤外線近接センサに限られず、接眼検知部118には、接眼とみなせる状態を検知できるものであれば他のセンサを用いてもよい。
また、カメラ100は、ファインダ外表示部107、ファインダ外表示駆動回路223、電源制御部224、電源部225、記録媒体I/F226、操作部228等を有する。
ファインダ外表示部107は、ファインダ外表示駆動回路223によって駆動され、シャッター速度や絞り等のカメラ100の様々な設定値を表示する。電源制御部224は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出等を行う。また、電源制御部224は、その検出結果およびシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体227を含む各部へ供給する。電源部225は、アルカリ電池およびリチウム電池等の一次電池、NiCd電池、NiMH電池およびLi電池等の二次電池、ACアダプター等である。記録媒体I/F226は、メモリカードやハードディスク等の記録媒体227とのインターフェースである。記録媒体227は、撮影された画像を記録するためのメモリカード等であり、半導体メモリや磁気ディスク等から構成される。記録媒体227は、カメラ100に対して着脱可能であってもよいし、カメラ100に内蔵されていてもよい。
操作部228は、ユーザからの操作(ユーザ操作)を受け付ける入力部であり、システム制御部50に各種の指示を入力するために用いられる。操作部228は、シャッターボタン101、電源スイッチ102、モード切替スイッチ103、タッチパネル109、他の操作部229等が含まれる。他の操作部229には、メイン電子ダイヤル104、サブ電子ダイヤル105、動画ボタン106、方向キー110、SETボタン111、AEロックボタン112が含まれる。また、拡大ボタン113、再生ボタン114、メニューボタン115、タッチバー119、表示モード切替ボタン125等が含まれる。
シャッターボタン101は、第1シャッタースイッチ230と第2シャッタースイッチ231を有する。第1シャッタースイッチ230は、シャッターボタン101の操作途中、いわゆる半押し(撮影準備指示)でオンとなり、第1シャッタースイッチ信号SW1を出力する。システム制御部50は、第1シャッタースイッチ信号SW1に応じて、AF処理、AE処理、AWB処理、EF処理等の撮影準備処理を開始する。第2シャッタースイッチ231は、シャッターボタン101の操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を出力する。システム制御部50は、第2シャッタースイッチ信号SW2に応じて、撮像部211からの信号読み出しから、撮影された画像を含む画像ファイルを生成して記録媒体227に書き込むまでの一連の撮影処理を
開始する。
開始する。
モード切替スイッチ103は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード、再生モード等の何れかに切り替える。静止画撮影モードに含まれるモードには、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。ユーザは、モード切替スイッチ103により、上述した撮影モードの何れかに直接、切り替えることができる。あるいは、ユーザは、モード切替スイッチ103により撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードの何れかに操作部228を用いて選択的に切り替えることができる。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
タッチパネル109は、表示部108の表示面(タッチパネル109の操作面)への各種タッチ操作を検出するタッチセンサである。タッチパネル109と表示部108とは一体的に構成することができる。例えば、タッチパネル109は、光の透過率が表示部108の表示を妨げないように、表示部108の表示面の上層に取り付けられる。そして、タッチパネル109における入力座標と、表示部108の表示面上の表示座標とを対応付けることで、あたかもユーザが表示部108上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザインターフェース)を構成できる。タッチパネル109には、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等の様々な方式のうち何れかの方式を用いることができる。方式によって、タッチパネル109に対する接触があったことでタッチがあったと検知する方式や、タッチパネル109に対する指やペンの接近があったことでタッチがあったと検知する方式があるが、何れの方式であってもよい。
システム制御部50は、タッチパネル109に対する以下の操作あるいは状態を検出できる。
・タッチパネル109にタッチしていなかった指やペンが新たにタッチパネル109にタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)という)。
・タッチパネル109を指やペンでタッチしている状態(以下、タッチオン(Touch-On)という)。
・タッチパネル109を指やペンがタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)という)。
・タッチパネル109へタッチしていた指やペンがタッチパネル109から離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)という)。
・タッチパネル109に何もタッチしていない状態(以下、タッチオフ(Touch-Off)という)。
・タッチパネル109にタッチしていなかった指やペンが新たにタッチパネル109にタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)という)。
・タッチパネル109を指やペンでタッチしている状態(以下、タッチオン(Touch-On)という)。
・タッチパネル109を指やペンがタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)という)。
・タッチパネル109へタッチしていた指やペンがタッチパネル109から離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)という)。
・タッチパネル109に何もタッチしていない状態(以下、タッチオフ(Touch-Off)という)。
タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
これらの操作・状態や、タッチパネル109上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。システム制御部50は通知された情報に基づいてタッチパネル109上にどのような操作(タッチ操作)が行われたかを判定
する。タッチムーブについてはタッチパネル109上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル109上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定される。タッチパネル109上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックという。フリックは、言い換えればタッチパネル109上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定される(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトという。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)という。
する。タッチムーブについてはタッチパネル109上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル109上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定される。タッチパネル109上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックという。フリックは、言い換えればタッチパネル109上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定される(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトという。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)という。
図4は、レンズユニット300の構成の一例を示す模式図である。図4では、レンズユニット300をカメラ100に装着した状態を示している。なお、図4に示すカメラ100のうち、図3で説明した構成要素と同一の構成要素には、図3と同一の符号を付し、その構成要素の説明は適宜、省略する。
レンズユニット300は、カメラ100に対して着脱可能な交換レンズの一種である。レンズユニット300は、視差のある右像および左像を撮像可能な2眼レンズである。本実施形態では、レンズユニット300は2つの光学系を有し、2つの光学系それぞれで、略180度の広視野角の範囲を撮像できる。具体的に、レンズユニット300の2つの光学系それぞれで、左右方向(水平角度、方位角、ヨー角)180度、上下方向(垂直角度、仰俯角、ピッチ角)180度の視野分(画角分)の被写体を撮像できる。つまり、2つの光学系それぞれで、前方半球の範囲を撮像できる。
レンズユニット300は、複数のレンズと反射ミラー等を有する右眼光学系301R、複数のレンズと反射ミラー等を有する左眼光学系301L、レンズシステム制御回路303を有する。右眼光学系301Rは第1の光学系の一例であり、左眼光学系301Lは第2の光学系の一例である。右眼光学系301Rは被写体側に配置されるレンズ302Rを有し、左眼光学系301Lは被写体側に配置されるレンズ302Lを有する。レンズ302Rとレンズ302Lは同じ方向を向いており、それらの光軸は略平行である。
レンズユニット300は、2眼立体視が可能なVR(Virtual Reality)画像のフォーマットの1つであるVR180の画像を得るための2眼レンズ(VR180レンズ)である。本実施形態では、レンズユニット300は、右眼光学系301Rおよび左眼光学系301Lのそれぞれに、略180度の範囲を捉えることが可能な魚眼レンズを有する。なお、右眼光学系301Rおよび左眼光学系301Lのそれぞれが有するレンズで捉えることが可能な範囲は、180度の範囲よりも狭い160度程度であってもよい。レンズユニット300は、右眼光学系301Rを介して形成される右像(第1画像)と、左眼光学系301Lを介して形成される左像(第2画像)とを、レンズユニット300が装着されたカメラの1つまたは2つの撮像素子上に結像することができる。
レンズユニット300は、レンズマウント部304と、カメラ100のカメラマウント部305とを介して、カメラ100に装着される。こうすることで、カメラ100の通信端子124と、レンズユニット300の通信端子306とを介して、カメラ100のシステム制御部50とレンズユニット300のレンズシステム制御回路303とが電気的に接続される。
本実施形態では、右眼光学系301Rを介して形成される右像と、左眼光学系301L
を介して形成される左像とが、同時に(セットで)カメラ100の撮像部211に結像される。すなわち、右眼光学系301Rおよび左眼光学系301Lにより形成される2つの光学像が1つの撮像素子上に形成される。撮像部211は、結像された被写体像(光信号)をアナログ電気信号に変換する。このようにレンズユニット300を用いることで、右眼光学系301Rと左眼光学系301Lとの2つの箇所(光学系)から、視差がある2つの画像を同時に(セットで)取得することができる。取得された画像を左眼用の画像と右眼用の画像とに分けてVR表示することで、ユーザは略180度の範囲の立体的なVR画像を視聴することができる。つまり、ユーザは、VR180の画像を立体視することができる。
を介して形成される左像とが、同時に(セットで)カメラ100の撮像部211に結像される。すなわち、右眼光学系301Rおよび左眼光学系301Lにより形成される2つの光学像が1つの撮像素子上に形成される。撮像部211は、結像された被写体像(光信号)をアナログ電気信号に変換する。このようにレンズユニット300を用いることで、右眼光学系301Rと左眼光学系301Lとの2つの箇所(光学系)から、視差がある2つの画像を同時に(セットで)取得することができる。取得された画像を左眼用の画像と右眼用の画像とに分けてVR表示することで、ユーザは略180度の範囲の立体的なVR画像を視聴することができる。つまり、ユーザは、VR180の画像を立体視することができる。
ここで、VR画像とは、後述するVR表示することができる画像である。VR画像には、全方位カメラ(全天球カメラ)で撮像した全方位画像(全天球画像)や、表示部に一度で表示できる表示範囲より広い映像範囲(有効映像範囲)を持つパノラマ画像等が含まれる。また、VR画像は、静止画に限られず、動画、ライブ画像(カメラからほぼリアルタイムで取得した画像)も含まれる。VR画像は、最大で、左右方向360度、上下方向360度の視野分の映像範囲(有効映像範囲)を持つ。また、VR画像には、左右方向360度未満、上下方向360度未満であっても、通常のカメラで撮像可能な画角よりも広範な画角、あるいは、表示部に一度で表示できる表示範囲より広い映像範囲を持つ画像も含まれる。上述したレンズユニット300を用いてカメラ100で撮像される画像は、VR画像の一種である。VR画像は、例えば、表示装置(VR画像を表示できる表示装置)の表示モードを「VRビュー」に設定することでVR表示することができる。360度の画角を有するVR画像をVR表示して、ユーザが表示装置の姿勢を左右方向(水平回転方向)に変化させることで、左右方向に継ぎ目のない全方位の映像を観賞することができる。
VR表示(VRビュー)とは、VR画像のうち、表示装置の姿勢に応じた視野範囲の映像を表示する、表示範囲を変更可能な表示方法(表示モード)である。VR表示には、VR画像を仮想球体にマッピングする変形(歪曲補正)を行って1つの画像を表示する「1眼VR表示(1眼VRビュー)」がある。1眼VR表示は、例えば、VR180の動画をPCで再生表示する場合に行われる。また、VR表示には、左眼用のVR画像と右眼用のVR画像とをそれぞれ仮想球体にマッピングする変形を行って左右の領域に並べて表示する「2眼VR表示(2眼VRビュー)」がある。2眼VR表示は、例えば、VR180の動画をHMD(ヘッドマウントディスプレイ)で再生表示する場合に行われる。互いに視差のある左眼用のVR画像と右眼用のVR画像を用いて「2眼VR表示」を行うことで、それらVR画像を立体視することが可能である。何れのVR表示であっても、例えば、ユーザがHMD等の表示装置を装着した場合、ユーザの顔の向きに応じた視野範囲の映像が表示される。例えば、VR画像のうち、ある時点で左右方向に0度(特定の方位、例えば北)、上下方向に90度(天頂から90度、すなわち水平)を中心とした視野範囲の映像を表示しているとする。この状態から表示装置の姿勢を表裏反転させる(例えば、表示面を南向きから北向きに変更する)と、同じVR画像のうち、左右方向に180度(逆の方位、例えば南)、上下方向に90度を中心とした視野範囲の映像に、表示範囲が変更される。すなわち、ユーザがHMDを装着した状態で、顔を北から南に向く(すなわち後ろを向く)ことで、HMDに表示される映像も北の映像から南の映像に変更される。なお、本実施形態のレンズユニット300を用いて撮像したVR画像は、前方略180度の範囲を撮像した画像(180°画像)であり、後方略180度の範囲の映像は存在しない。このような画像をVR表示して、映像が存在しない側に表示装置の姿勢を変更した場合にはブランク領域が表示される。
このようにVR画像をVR表示することによって、ユーザは視覚的にあたかもVR画像内(VR空間内)にいるような感覚(没入感)を得ることができる。なお、VR画像の表示方法は表示装置の姿勢を変更する方法に限られない。例えば、タッチパネルや方向ボタ
ン等を介したユーザ操作に応じて、表示範囲を移動(スクロール)させてもよい。また、VR表示時(表示モード「VRビュー」時)において、姿勢変化による表示範囲の変更に加え、タッチパネルでのタッチムーブ、マウス等でのドラッグ操作、方向ボタンの押下等に応じて表示範囲を変更してもよい。なお、VRゴーグル(ヘッドマウントアダプタ)に装着されたスマートフォンはHMDの一種である。
ン等を介したユーザ操作に応じて、表示範囲を移動(スクロール)させてもよい。また、VR表示時(表示モード「VRビュー」時)において、姿勢変化による表示範囲の変更に加え、タッチパネルでのタッチムーブ、マウス等でのドラッグ操作、方向ボタンの押下等に応じて表示範囲を変更してもよい。なお、VRゴーグル(ヘッドマウントアダプタ)に装着されたスマートフォンはHMDの一種である。
図5は、PC500の構成の一例を示すブロック図である。制御部501は、例えばCentral Processing Unit(CPU)であり、PC500全体を制御する。Read Only Memory(ROM)502は、プログラムやパラメータを非一時的に記憶する。Random Access Memory(RAM)503は、外部機器などから供給されるプログラムやデータを一時的に記憶する。記録媒体504は、PC500に固定して設置されたハードディスクやフラッシュメモリ、あるいはPC500に対して着脱可能な光ディスク、磁気カード、光カード、ICカード、メモリーカードなどである。カメラ100が撮影した画像のファイルは、記録媒体504から読み出される。操作部505は、PC500に対するユーザの操作を受け付ける。ユーザが操作を行う際に用いる操作部材は、PC500に設けられたボタンやタッチパネルなどであってもよいし、PC500に対して着脱可能なキーボードやマウスなどであってもよい。表示部506は、PC500が保持するデータや外部から供給されたデータなどを表示する。表示部506はPC500の一部であってもよいし、PC500とは別体の表示装置であってもよい。通信部507は、カメラ100などの外部機器との通信を行う。システムバス508はPC500の構成要素間を通信可能に接続する。
ここで、ライブビュー表示時には、レンズユニット300(2眼レンズ)などで撮像されたVR画像の全体を表示し、再生表示時には、VR画像の一部を表示することが考えられる。再生表示は、例えばVR表示であり、PCやHMDなどで行われる。図14(a),(b)は、ライブビュー表示の一例を示し、図14(c)は再生表示の一例を示す。図14(a)では、VR画像である円周魚眼画像(等距離射影画像)の全体が表示されており、図14(b)では、VR画像である正距円筒画像の全体が表示されている。図14(b)の正距円筒画像の画角は、図14(a)の円周魚眼画像の画角と同じである。そして、図14(c)では、図14(a),(b)に示すVR画像の一部が表示されている。例えば、円周魚眼画像を正距円筒変換した後に、透視投影変換し、透視投影変換後の画像の一部を切り出して表示することで、図14(c)のような表示が実現される。透視投影変換は、画像の見えを人間による実際(実物)の見えに近づける補正であり、画像の歪みを低減する処理である。正距円筒変換は省略してもよい。2眼VR表示では、それぞれ透視投影変換後の画像の一部である2つの画像を左右に並べて表示する。例えば、視差のある左像(左眼用のVR画像)と右像(右眼用のVR画像)をHMDなどで2眼VR表示する場合には、左像と右像それぞれの透視投影変換を行い、左像の一部と右像の一部とを左右に並べて表示する。
しかしながら、図14(a),(b)のようなライブビュー表示からでは、どこまでの画角が撮像されたかは把握できるものの、再生表示時に表示される画角は把握できない。そこで、本実施形態では、ライブビュー表示時に、再生表示時に表示される画角を把握可能にする。なお、以下では右像と左像を撮像してライブビュー表示する例を説明するが、右像と左像の一方をライブビュー表示してもよい。また、1眼レンズで撮像された1つのVR画像をライブビュー表示してもよい。ライブビュー表示するVR画像は、異なる方向を撮像した複数の画像を合成して得られる360°画像(全方位画像;全天球画像)であってもよい。
図6は、撮影モード時におけるカメラ100の動作(撮影モード処理)の一例を示すフローチャートである。この動作は、システム制御部50が不揮発性メモリ219に記録さ
れたプログラムをシステムメモリ218に展開して実行することにより実現される。例えば、撮影モードでカメラ100が起動したり、カメラ100のモードが撮影モードに切り替えられたりすると、図6の動作が開始する。撮影モード処理では、以下で述べる処理の他に、静止画撮影や動画撮影なども行われる。つまり、以下で述べる処理は、撮影待機中や撮影中に行われる。
れたプログラムをシステムメモリ218に展開して実行することにより実現される。例えば、撮影モードでカメラ100が起動したり、カメラ100のモードが撮影モードに切り替えられたりすると、図6の動作が開始する。撮影モード処理では、以下で述べる処理の他に、静止画撮影や動画撮影なども行われる。つまり、以下で述べる処理は、撮影待機中や撮影中に行われる。
ステップS601では、システム制御部50は、不揮発性メモリ219から前回使用していた表示モードの情報を取得し、前回の表示モードで表示部108に画像(ライブビュー画像やOSD画像など)を表示する。表示モードの情報は、表示モードを識別することのできる情報であれば特に限定されないが、本実施形態では番号であるとする。
ステップS602では、システム制御部50は、カメラ100のユーザによって表示モード切替指示が行われたか否かを判定する。表示モード切替指示が行われたと判定した場合はステップS603へ進み、そうでない場合はステップS610へ進む。表示モード切替指示は、例えば表示モード切替ボタン125の押下である。
ステップS603では、システム制御部50は、現在の表示モード(ステップS602の表示モード切替指示に応じた切り替え前の表示モード)の番号Nが5であるか否かを判定する。番号Nが5であると判定した場合はステップS606へ進み、そうでないと判定した場合はステップS604へ進む。
ステップS604では、システム制御部50は、表示モードが順番に切り替わるように、番号Nを1インクリメントさせる。本実施形態では、番号1~6の6つの表示モードが存在するとする。
ステップS605では、システム制御部50は、番号Nの表示モードで表示部108に画像を表示するように、表示部108の表示を更新する。
ステップS606では、システム制御部50は、レンズユニット300などのVRレンズ(魚眼レンズなど、VR画像を撮像可能にするレンズ)がカメラ100に装着されているか否かを判定する。VRレンズが装着されていると判定した場合はステップS608へ進み、そうでない場合はステップS607へ進む。
ステップS607では、システム制御部50は、番号6の表示モードを飛ばして番号1の表示モードに遷移するように、番号Nを1に設定する。
このように、VRレンズが装着されていない場合には、表示モード切替指示が行われる度に表示モードの番号が1つずつ増加するように、番号1~5の5つの表示モードの間で表示モードが切り替えられる。そして、番号5の表示モードで表示モード切替指示が行われると、番号1の表示モードに戻される。
図7(a)は番号1の表示モードでの表示の一例を示し、図7(b)は番号2の表示モードでの表示の一例を示し、図7(c)は番号3の表示モードでの表示の一例を示す。図7(d)は番号4の表示モードでの表示の一例を示し、図7(e)は番号5の表示モードでの表示の一例を示す。図7(a)~(c)ではライブビュー画像と表示アイテム(OSD画像)が表示されており、図7(d)ではライブビュー画像のみが表示されており、図7(e)ではメニュー画面が表示されている。図7(a)~(c)の間で、表示アイテムの種類が異なる。図7(a)~(e)の表示は、従来の表示と同様であるため、詳細な説明は省略する。
ステップS608では、システム制御部50は、番号6の表示モードに遷移するように、番号Nを6に設定する。番号6の表示モードは、VRレンズ専用の表示モードである。
ステップS609では、番号6の表示モードで表示部108に画面を表示するように、表示部108の表示を更新する。
このように、VRレンズが装着されている場合には、表示モード切替指示が行われる度に表示モードの番号が1つずつ増加するように、番号1~6の6つの表示モードの間で表示モードが切り替えられる。そして、番号6の表示モードで表示モード切替指示が行われると、番号1の表示モードに戻される。
図7(f)は番号6の表示モードでの表示の一例を示す。図7(f)では、右画像と左画像が並んだライブビュー画像が表示されており、右画像に重畳してインジケータ701が表示されており、左画像に重畳してインジケータ702が表示されている。本実施形態では、右画像と左画像を含んだ1つの画像をライブビュー画像と呼ぶが、右画像と左画像それぞれをライブビュー画像と呼んでもよい。インジケータ701は、右眼光学系301Rの画角のうち、再生表示時(2眼VR表示時)に表示される部分を示す表示アイテム(枠)である。インジケータ702は、左眼光学系301Lの画角のうち、再生表示時(2眼VR表示時)に表示される部分を示す表示アイテム(枠)である。より具体的には、インジケータ701,702は、VR表示(2眼VR表示)において最初に表示される部分であって、ユーザが見る方向(視点)を変えない限り表示され続ける部分を示す。以後、インジケータ701,702のような表示アイテムをマジックウィンドウと呼ぶ。マジックウィンドウは、VR画像の画角のうち、ユーザが所定の方向(例えば正面方向)を見た場合に表示される部分とも言える。本実施形態では、マジックウィンドウは、番号6の表示モード(特定の表示モード)でのみ表示される。
このようなマジックウィンドウを表示することにより、ユーザは、再生表示時に表示される画角を把握することができる。さらには、ブラウザやヘッドマウントディスプレイ(HMD)で再生した際に、視聴者が一番初めに目にする範囲を撮影時に視認することができるため、ユーザ所望の構図や最も見せたい被写体などを、より効果的に撮影することができる。また、右画像と左画像を並べて表示することにより、ユーザは、右画像と左画像の違いや、右画像と左画像の撮像が問題無く行えているか否か等も把握することができる。さらに、右画像のマジックウィンドウと左画像のマジックウィンドウとを表示することにより、ユーザは、VR表示において右眼で見る映像と左眼で見る映像との違いなども把握することができる。
なお、図7(f)では、インジケータ701が右画像の中心部分を示しており、インジケータ702が左画像の中心部分を示しているが、マジックウィンドウが示す領域の位置は特に限定されない。マジックウィンドウが示す領域の位置は変更可能であってもよい。インジケータ701とインジケータ702のうち、一方のみが表示されてもよい。ユーザーがマジックウィンドウが示す領域を視認できればよいため、以降の撮影時に常に表示されることは必ずしも必要ではない。
また、マジックウィンドウの領域の求め方は、特に限定されない。例えば、図7(g)に示すように、透視投影変換後の画像の一部を示す矩形領域が、VR表示において最初に表示される領域(画角)として、予め定められる。そして、この矩形領域に対して、透視投影変換の逆変換や、正距円筒変換の逆変換などを適用することにより、透視投影変換前のライブビュー画像に重畳されるマジックウィンドウの領域が求められる。
ステップS610では、システム制御部50は、VRレンズがカメラ100から取り外
されたか否かを判定する。VRレンズが取り外されたと判定した場合はステップS611へ進み、そうでない場合はステップS613へ進む。
されたか否かを判定する。VRレンズが取り外されたと判定した場合はステップS611へ進み、そうでない場合はステップS613へ進む。
ステップS611では、システム制御部50は、現在の表示モードの番号Nが6であるか否かを判定する。番号Nが6であると判定した場合はステップS612へ進み、そうでないと判定した場合はステップS613へ進む。
ステップS612では、システム制御部50は、番号1の表示モードに遷移するように、番号Nを1に設定する。上述したように、番号6の表示モードは、VRレンズ専用の表示モードである。VRレンズが取り外された場合に、番号6の表示モードを継続するのは適切でないため、表示モードの切り替え順で番号6の次の表示モードである番号1の表示モードに遷移させる。
ステップS613では、番号1の表示モードで表示部108に画面を表示するように、表示部108の表示を更新する。
ステップS614では、システム制御部50は、カメラ100のユーザによって終了指示が行われたか否かを判定する。終了指示が行われたと判定した場合は図6の動作を終了し、そうでない場合はステップS602へ進む。終了指示は、カメラ100の電源を切る指示や、カメラ100のモードを撮影モードから別のモードに切り替える指示などである。つまり、終了指示は、電源スイッチ102の押下や、モード切替スイッチ103の押下などである。
なお、表示モード切替指示で切り替え可能な表示モードの種類や数などは特に限定されない。表示モード切替指示で切り替え可能な表示モードは、メニュー画面などからカスタマイズできてもよい。
図8は、カメラ100の別の動作の一例を示すフローチャートである。この動作は、システム制御部50が不揮発性メモリ219に記録されたプログラムをシステムメモリ218に展開して実行することにより実現される。例えば、カメラ100が起動すると、図8の動作が開始する。図8の動作は、カメラで撮像したライブビュー画像をPCの表示部に表示する機能(PCライブビュー)のための動作である。図8の動作は、カメラ100が撮影待機状態である場合において実行される。PCライブビューの動作中に、PC500から記録開始指示が入力された場合、静止画撮影もしくは動画撮影が実行される。このとき、PCライブビューは継続してよい。
ステップS801では、システム制御部50は、カメラ100が2眼レンズ(例えばレンズユニット300)に対応しているか否かを判定する。図8の動作では、2眼レンズとして、2眼のVRレンズを想定している。例えば、システム制御部50は、システム制御部50のファームウェアのバージョンが2眼レンズに対応したバージョンであるか否かを判定する。2眼レンズに対応していると判定した場合はステップS802へ進み、そうでない場合はステップS811へ進む。
ステップS802では、システム制御部50は、2眼レンズがカメラ100に装着されているか否かを判定する。2眼レンズが装着されていると判定した場合はステップS803へ進み、そうでない場合はステップS811へ進む。なお、2眼レンズが装着されていない状態から2眼レンズが装着された場合も、ステップS803へ進む。2眼レンズが装着されている状態から2眼レンズが取り外され、1眼レンズが装着された場合は、ステップS811へ進む。図8の動作では、1眼レンズとして、通常の1眼レンズ(VRレンズでない1眼レンズ)を想定している。
ステップS803では、システム制御部50は、装着(接続)されている2眼レンズから、当該2眼レンズの設計値を取得する。設計値は設計上のパラメータであり、後述の左右入れ替えや正距円筒変換に利用される。例えば、図11(b)に示すイメージサークル位置、イメージサークル直径、画角および歪曲補正係数が取得される。
ステップS804では、システム制御部50は、装着(接続)されている2眼レンズから、当該2眼レンズの個体値を取得する。個体値はレンズユニット固有のパラメータであり、例えば製造時の誤差などである。例えば、図11(b)に示すイメージサークル位置ずれ、光軸傾き、および像倍率ずれが取得される。個体値を利用することにより、設計値のみを利用する場合よりも画像処理を高精度に行うことができる。
ステップS805では、カメラ100がPC500に接続され、システム制御部50は、カメラ100がPC500に接続されたことを検知する。ステップS806では、システム制御部50は、PC500からPCライブビュー開始要求を受信する。ステップS807では、システム制御部50は、PC500からライブビュー画像要求を受信する。ライブビュー画像要求は、後述するようにライブビュー画像の解像度を指定する情報(解像度情報)を含む。システム制御部50は、指定された解像度のライブビュー画像をPC500に送信するようにステップS809の処理を実行する。
ステップS808では、システム制御部50は、ステップS803,S804で取得した情報(2眼レンズのレンズ情報;2眼レンズの2つの光学系に関する情報)を、送信するライブビュー画像の座標系に合うように変換する。ステップS803,S804で取得した情報は、そのままでは、ライブビュー画像の画像処理に用いることができないため、本実施形態では、レンズ情報を、ライブビュー画像の座標系に合った情報に変換する。なお、レンズ情報には、ステップS803,S804で取得した情報とは別の情報が含まれてもよい。例えば、本実施形態では、マジックウィンドウの領域(画角)に関する情報が、レンズ情報に含まれる。レンズ情報には、右画像に重畳するマジックウィンドウの情報と、左画像に重畳するマジックウィンドウの情報とが含まれる。
ステップS809では、システム制御部50は、ステップS808で変換されたレンズ情報と、ライブビュー画像とを、PC500に送信する。システム制御部50は、ステップS807で取得した解像度情報に基づいて、ライブビュー画像の解像度を変換して、PC500に送信する。なお、本実施形態ではカメラ100のシステム制御部50がレンズ情報の変換を行っているが、PC500の制御部501がレンズ情報の変換を行ってもよい。その際には、変換前のレンズ情報と、レンズ情報の変換に必要なパラメータとをPC500に送信する。
ステップS810では、システム制御部50は、PCライブビューを終了するか否かを判定する。例えば、カメラ100とPC500の接続が解除されたり、ユーザがカメラ100またはPC500に対してPCライブビューの終了を指示した場合に、PCライブビューを終了すると判定する。PCライブビューを終了すると判定した場合は図8の動作を終了し、そうでない場合はステップS807へ進む。
カメラ100に1眼レンズ(通常の1眼レンズ;VRレンズでない1眼レンズ)が装着されている場合にはステップS811の処理が行われる。ステップS811では、システム制御部50は、1眼レンズで撮像したライブビュー画像をPC500に送信する。ステップS811の処理は、1眼レンズで撮像したライブビュー画像を外部機器に送信する従来の処理と同様であるため、詳細な説明は省略する。本実施形態では、システム制御部50は、1眼レンズで撮像したライブビュー画像をPC500に送信する際には、装着され
ている1眼レンズの情報(設計値や個体値など)を当該1眼レンズから取得することも、PC500に送信することもしないとする。
ている1眼レンズの情報(設計値や個体値など)を当該1眼レンズから取得することも、PC500に送信することもしないとする。
図9は、PC500の動作の一例を示すフローチャートである。この動作は、制御部501がROM502に記録されたプログラム(アプリケーションプログラム)をRAM503に展開して実行することにより実現される。例えば、ユーザがPC500に対して特定のアプリケーションの起動を指示すると、図9の動作が開始する。図9の動作は、カメラで撮像したライブビュー画像をPCの表示部に表示する機能(PCライブビュー)のための動作である。
ステップS901では、PC500にカメラ(例えばカメラ100)が接続され、制御部501は、PC500にカメラが接続されたことを検知する。
ステップS902では、制御部501は、ステップS901で接続されたカメラが2眼レンズ(例えばレンズユニット300)に対応可能なカメラか否かを判定する。図9の動作では、2眼レンズとして、2眼のVRレンズを想定している。例えば、制御部501は、接続されたカメラから当該カメラの機種情報を取得し、取得した機種情報に基づいて、2眼レンズに対応可能なカメラか否かを判定する。2眼レンズに対応可能なカメラと判定した場合はステップS903へ進み、そうでない場合はステップS925へ進む。2眼レンズに対応可能なカメラとは、例えば、2眼レンズを装着可能なカメラである。
ステップS903では、制御部501は、ステップS901で接続されたカメラのファームウェアが2眼レンズに対応可能か否かを判定する。例えば、制御部501は、接続されたカメラから、当該カメラのファームウェアのバージョンの情報を取得し、取得した情報に基づいて、接続されたカメラのファームウェアのバージョンが2眼レンズに対応したバージョンであるか否かを判定する。2眼レンズに対応可能と判定した場合はステップS904へ進み、そうでない場合はステップS925へ進む。
2眼レンズに対応可能なカメラがPC500に接続されたとしても、接続されたカメラのファームウェアのバージョンが古いなどの理由により、接続されたカメラが2眼レンズに対応できていないことがある。そのために、ステップS903の処理が必要となる。また、PC500には様々なカメラが接続可能であり、ファームウェアのバージョンに依らず2眼レンズに対応できないカメラが接続されることもある。そのため、ステップS903の処理の前に、ステップS902の処理が必要となる。
ステップS904では、制御部501は、ステップS901で接続されたカメラに2眼レンズが装着されているか否かを判定する。2眼レンズが装着されていると判定した場合はステップS905へ進み、そうでない場合はステップS925へ進む。
ステップS905では、制御部501は、ステップS901で接続されたカメラにPCライブビュー開始要求を送信する。
ステップS906では、制御部501は、円周魚眼表示を行うか否かを判定する。円周魚眼表示を行うと判定した場合はステップS907へ進み、そうでない場合(正距円筒表示を行う場合)はステップS916へ進む。ステップS906では、例えば、図13(a)~(d)のラジオボタン1306が選択状態か非選択状態かで、円周魚眼表示を行うか否かを判定する。図13(a),(c)ではラジオボタン1306は選択状態であり、図13(b),(d)ではラジオボタン1306は非選択状態である。ラジオボタン1306が選択状態の場合は、円周魚眼表示を行うと判定し、ステップS907へ進む。ラジオボタン1306が非選択状態である場合は、ステップS916へ進む。
ステップS907では、制御部501は、ステップS901で接続されたカメラにライブビュー画像要求を送信する。本実施形態では、ステップS907のライブビュー画像要求は、通常解像度のライブビュー画像の要求であるとする。通常解像度は、例えば、4K解像度であるとする。
ステップS908では、制御部501は、ステップS901で接続されたカメラから、当該カメラが撮像したライブビュー画像と、当該カメラに装着されている2眼レンズのレンズ情報とを受信する。ステップS908で受信するライブビュー画像の解像度は、通常解像度である。ステップS908で受信するレンズ情報は、受信するライブビュー画像に合うように変換された情報(例えば、図8のステップS808で変換されたレンズ情報)である。
ステップS909では、制御部501は、右画像と左画像の位置を補正する(入れ替える)左右入れ替えを行うか否かを判定する。左右入れ替えを行うと判定した場合はステップS910へ進み、そうでない場合はステップS912へ進む。ステップS909では、例えば、図13(a),(c)のチェックボックス1308がチェックされているか否かに基づいて、左右入れ替えを行うか否かを判定する。チェックボックス1308がチェックされている場合は、左右入れ替えを行うと判定し、ステップS910へ進む。チェックボックス1308がチェックされていない場合は、ステップS912へ進む。
ここで、2眼レンズを装着して撮像される画像の特徴について説明する。通常の1眼レンズの場合、撮像部211上には、実際の見えに対して上下左右に反転した像(180度回転した像)が結像する。そのため、結像された画像全体を180度回転して、実際の見えに合った画像を取得(撮像)している。一方で、2眼レンズの場合は、右像と左像それぞれが、実際の見えに対して180度回転して撮像部211上に結像する。右像と左像の並びは特に限定されないが、本実施形態では、撮像部211上において、右像が右側に結像され、左像が左側に結像されるとする。そして、通常の一眼レンズの場合と同様に、結像された画像(右像と左像を含む画像)全体を180度回転すると、右像と左像それぞれを実際の見えに合わせることはできるが、右像と左像の位置が入れ替わってしまう。つまり、左右の位置関係が反転して、右像が左側に配置され、左像が右側に配置された画像が撮像されることになる。左右入れ替えを行うことで、右像と左像の位置を2つの光学系(右眼光学系301Rと左眼光学系301L)と対応するように表示することができる。なお、上述した図6の動作では、左右入れ替えされていないライブビュー画像(右像が左側に配置され、左像が右側に配置されたライブビュー画像)が、カメラ100の表示部108に表示される。
ステップS910では、制御部501は、ステップS908で取得したレンズ情報に基づいて、ステップS908で取得したライブビュー画像における右像と左像の位置を入れ替えて、処理ライブビュー画像を生成する(左右入れ替え)。制御部501は、ライブビュー画像と共に受信したレンズ情報に含まれる中心座標(左眼光学系301Lと右眼光学系301Rそれぞれの光軸中心)に基づいて、ライブビュー画像における右像と左像の位置を入れ替えて、処理ライブビュー画像を生成する。例えば、制御部501は、右像の中心座標(右眼光学系301Rの光軸中心)に基づいて、ライブビュー画像における右像の領域を特定し、左像の中心座標(左眼光学系301Lの光軸中心)に基づいて、ライブビュー画像における左像の領域を特定する。そして、制御部501は、特定した2つの領域の位置を入れ替える。本実施形態では、ライブビュー画像において右像と左像が左右に並べて配置されており、左右入れ替えにより、右像と左像の左右の位置関係が反転する。右像と左像の領域をより高精度に特定するために、2眼レンズの情報から、右像と左像それぞれの径(直径または半径)を取得して使用もよい。
なお、左右入れ替えの方法は上記方法に限られない。例えば、2眼レンズの情報から、図10(a)のずれ量1005,1006,1009,1010を取得し、右像と左像の位置を入れ替える際に、取得したずれ量が維持されるように右像と左像を配置し、余った領域を黒などで埋めてもよい。ずれ量1005はライブビュー画像の左端から右像の左端までの距離であり、ずれ量1006はライブビュー画像の中心から右像の右端までの距離である。左右入れ替えの際には、ずれ量1005はライブビュー画像の左端から左像の左端までの距離となり、ずれ量1006はライブビュー画像の中心から左像の右端までの距離となるようにする。同様に、ずれ量1009はライブビュー画像の右端から左像の右端までの距離であり、ずれ量1010はライブビュー画像の中心から左像の左端までの距離である。左右入れ替えの際には、ずれ量1009はライブビュー画像の右端から右像の右端までの距離となり、ずれ量1010はライブビュー画像の中心から右像の左端までの距離となるようにする。
ステップS911では、制御部501は、ステップS910で生成した処理ライブビュー画像を、表示部506に表示する。
ステップS912では、制御部501は、ステップS908で取得したライブビュー画像を、表示部506に表示する。
ステップS913では、制御部501は、ステップS908で取得したレンズ情報(マジックウィンドウの情報)に基づいて、マジックウィンドウ(枠)を生成する。本実施形態では、右画像に重畳するマジックウィンドウの情報に基づいて、右画像に重畳するマジックウィンドウを生成し、左画像に重畳するマジックウィンドウの情報に基づいて、左画像に重畳するマジックウィンドウを生成する。マジックウィンドウの生成方法の詳細は、図12(a),(b)を用いて後述する。
ステップS914では、制御部501は、ステップS913で生成したマジックウィンドウを、表示部506に表示する。なお、ユーザからの指示に応じてライブビュー画像の一部を拡大して表示する場合には、マジックウィンドの生成や表示を行わないことが好ましい。例えば、ライブビュー画像の拡大表示は、ライブビュー画像の一部を詳細に確認したいために行われることが多い。そして、マジックウィンドウは、ライブビュー画像の詳細な確認を邪魔する虞がある。そのため、ライブビュー画像の拡大表示時には、マジックウィンドウを非表示にすることが好ましい。ライブビュー画像の拡大表示時にマジックウィンドウを表示してもよいが、その場合には、マジックウィンドウが再生表示時に表示される画角を示すよう、ライブビュー画像の拡大に合わせてマジックウィンドウを拡大する必要がある。
ステップS915では、制御部501は、PCライブビューを終了するか否かを判定する。例えば、カメラ100とPC500の接続が解除されたり、ユーザがカメラ100またはPC500に対してPCライブビューの終了を指示した場合に、PCライブビューを終了すると判定する。PCライブビューの終了指示は、例えば、図13(a)~(d)の終了ボタン1309の押下である。PCライブビューを終了すると判定した場合は図9の動作を終了し、そうでない場合はステップS906へ進む。こうすることで、表示部506での表示(ライブビュー表示)を、左右入れ替え有りの円周魚眼表示、左右入れ替え無しの円周魚眼表示、左右入れ替え有り正距円筒表示(後述)、および左右入れ替え無し正距円筒表示(後述)の間で切り替えることができる。
上述したように、正距円筒表示を行う場合は、ステップS906からステップS916へ進む。ステップS916では、制御部501は、ステップS901で接続されたカメラ
にライブビュー画像要求を送信する。本実施形態では、ステップS916のライブビュー画像要求は、低解像度(通常解像度よりも低い解像度)のライブビュー画像の要求であるとする。正距円筒表示を行う場合には、正距円筒変換(円周魚眼画像から正距円筒画像への変換)が必要となり、正距円筒変換を施す画像の解像度が高いほど、正距円筒変換に要する時間が増し、正距円筒変換による遅延が増す。本実施形態では、正距円筒変換の高速化(正距円筒変換に要する時間の短縮)のために、低解像度のライブビュー画像を要求する。なお、正距円筒変換による遅延が許容範囲内であれば、正距円筒表示を行う場合にも、通常解像度のライブビュー画像を要求してよい。
にライブビュー画像要求を送信する。本実施形態では、ステップS916のライブビュー画像要求は、低解像度(通常解像度よりも低い解像度)のライブビュー画像の要求であるとする。正距円筒表示を行う場合には、正距円筒変換(円周魚眼画像から正距円筒画像への変換)が必要となり、正距円筒変換を施す画像の解像度が高いほど、正距円筒変換に要する時間が増し、正距円筒変換による遅延が増す。本実施形態では、正距円筒変換の高速化(正距円筒変換に要する時間の短縮)のために、低解像度のライブビュー画像を要求する。なお、正距円筒変換による遅延が許容範囲内であれば、正距円筒表示を行う場合にも、通常解像度のライブビュー画像を要求してよい。
ステップS917では、制御部501は、ステップS901で接続されたカメラから、当該カメラが撮像したライブビュー画像と、当該カメラに装着されている2眼レンズのレンズ情報とを受信する。ステップS917で受信するライブビュー画像の解像度は、低解像度である。ステップS917で受信するレンズ情報は、受信するライブビュー画像に合うように変換された情報(例えば、図8のステップS808で変換されたレンズ情報)である。
ステップS918では、制御部501は、左右入れ替えを行うか否かを判定する。左右入れ替えを行うと判定した場合はステップS919へ進み、そうでない場合はステップS921へ進む。ステップS918では、例えば、図13(b),(d)のチェックボックス1308がチェックされているか否かに基づいて、左右入れ替えを行うか否かを判定する。チェックボックス1308がチェックされている場合は、左右入れ替えを行うと判定し、ステップS919へ進む。チェックボックス1308がチェックされていない場合は、ステップS921へ進む。
ステップS919では、制御部501は、ステップS917で取得したレンズ情報に基づいて、ステップS917で取得したライブビュー画像における右像と左像の位置を入れ替えるとともに、右像と左像それぞれを正距円筒画像に変換する。つまり、制御部501は、左右入れ替えを行うとともに正距円筒変換を行って、処理ライブビュー画像を生成する。
制御部501は、ライブビュー画像と共に受信したレンズ情報に含まれる中心座標(左眼光学系301Lと右眼光学系301Rそれぞれの光軸中心)に基づいて、正距円筒変換のためのマップを生成する。例えば、制御部501は、ステップS910で説明した方法と同様の方法で、ライブビュー画像における右像と左像それぞれの領域を特定し、特定した2つの領域に基づいてマップを生成する。正距円筒変換は、地図の正距円筒図法のように、円周魚眼画像を球体と見立てて、緯線(横線)と経線(縦線)が直角に交差するように変換する変換処理である。正距円筒変換により、円形状の円周魚眼画像は、矩形状の正距円筒画像に変換される。マップは、変換後の各画素が変換前の画像内のどの位置に対応するかを示す。ここでは、円周魚眼画像を正距円筒画像に変換できるだけでなく、右像と左像の位置を補正できるように、正距円筒変換のためのマップを生成する。制御部501は、生成したマップを用いて正距円筒変換を行って、処理ライブビュー画像を生成する。
なお、左右入れ替えを正距円筒変換の一部としたが、左右入れ替えは正距円筒変換とは別に行ってもよい。また、制御部501は、ライブビュー画像と共に受信したレンズ情報に含まれる個体値に基づいて、当該レンズ情報に含まれる設計値を調整して使用してもよい。例えば、図11(b)のイメージサークル位置ずれに基づいて、イメージサークル位置(ライブビュー画像における右像と左像それぞれの中心座標)を調整する。個体値が設計値からの差分である場合には、設計値に個体値を加算する。個体値が設計値と同様の絶対値である場合には、設計値を個体値で置き換える。そして、制御部501は、調整後の中心座標(左眼光学系301Lと右眼光学系301Rそれぞれの光軸中心)に基づいて、
上述した方法と同様の方法で、正距円筒変換のためのマップを生成する。調整後の中心座標を用いることにより、より高精度な正距円筒変換が可能になる。
上述した方法と同様の方法で、正距円筒変換のためのマップを生成する。調整後の中心座標を用いることにより、より高精度な正距円筒変換が可能になる。
ステップS920では、制御部501は、ステップS919で生成した処理ライブビュー画像を、表示部506に表示する。
ステップS921では、制御部501は、ステップS917で取得したライブビュー画像における右像と左像の位置を入れ替えずに、右像と左像それぞれを正距円筒画像に変換する。つまり、制御部501は、左右入れ替えを行わずに正距円筒変換を行って、処理ライブビュー画像を生成する。
ステップS922では、制御部501は、ステップS921で生成した処理ライブビュー画像を、表示部506に表示する。
ステップS923では、制御部501は、ステップS917にて取得したレンズ情報(マジックウィンドウの情報)に基づいて、マジックウィンドウ(枠)を生成する。本実施形態では、右画像に重畳するマジックウィンドウの情報に基づいて、右画像に重畳するマジックウィンドウを生成し、左画像に重畳するマジックウィンドウの情報に基づいて、左画像に重畳するマジックウィンドウを生成する。マジックウィンドウの生成方法の詳細は、図12(a),(b)を用いて後述する。
ステップS924では、制御部501は、ステップS923で生成したマジックウィンドウを、表示部506に表示する。なお、上述したように、ユーザからの指示に応じてライブビュー画像の一部を拡大して表示する場合には、マジックウィンドの生成や表示を行わないことが好ましい。
カメラ100が2眼レンズに対応可能でない場合、もしくは、カメラ100に1眼レンズが装着されている場合にはステップS925の処理が行われる。図9の動作では、1眼レンズとして、通常の1眼レンズ(VRレンズでない1眼レンズ)を想定している。ステップS925では、制御部501は、1眼レンズで撮像されたライブビュー画像を、表示部506に表示する。ステップS925の処理は、1眼レンズで撮像したライブビュー画像をPCなどが表示する従来の処理と同様であるため、詳細な説明は省略する。
ステップS910、ステップS919、ステップS921のそれぞれでは、制御部501は、接続されたカメラから取得したライブビュー画像に対して画像処理を施す。ステップS910、ステップS919、ステップS921よりも後のステップS915では、制御部501は、PCライブビューを終了するか否かを判定する。そして、PCライブビューを継続する場合には、ステップS910、ステップS919、ステップS921よりも前のステップS906に処理が戻される。そのため、図9の動作では、ステップS910、ステップS919、ステップS921のいずれかの画像処理が繰り返し実行される可能性がある。
そこで、制御部501は、画像処理の高速化のために、実行した画像処理に関連する情報をRAM503に記録して、次回以降の画像処理の際に利用してもよい。例えば、制御部501は、画像処理前の画素と画像処理後の画素との対応関係(画像処理マップ)を記録する。画像処理マップは、ライブビュー画像の解像度やレンズ情報に変化が無ければ、使用し続けることができる。制御部501は、ステップS910、ステップS919、ステップS921のいずれかの画像処理を実行した際に、当該画像処理の画像処理マップを記録する。そして、制御部501は、同じ画像処理を再び実行する際に、記録した画像処理マップを使って画像処理を実行する。こうすることで、画像処理を高速化することがで
きる。
きる。
なお、図8,9の動作は、2眼のVRレンズ、または通常の1眼レンズ(VRレンズでない1眼レンズ)がカメラに装着されることを想定した動作であるが、他の場合を想定して適宜変更してもよい。例えば、1眼のVRレンズが装着された場合にもライブビュー画像にマジックウィンドウを重畳するように、図8,9の動作を変更してもよい。ライブビュー画像として360°画像(全方位画像;全天球画像)を表示する場合にもライブビュー画像にマジックウィンドウを重畳するように、図8,9の動作を変更してもよい。VRレンズでない2眼レンズが装着された場合にはライブビュー画像にマジックウィンドウを重畳しないように、図8,9の動作を変更してもよい。
図10(a),(b)は、左右入れ替えの模式図である。図10(a)は、2眼レンズの情報を利用しない、従来の左右入れ替えを示す。図10(b)は、2眼レンズの情報を利用した、本実施形態の左右入れ替えを示す。
図10(a),(b)に示すように、左右入れ替え前の画像1001では、円周魚眼画像である右像1003が左側に配置されており、円周魚眼画像である左像1007が右側に配置されている。左右方向における右像の中心座標は座標1004であり、中左右方向における左像の中心座標は座標1008である。
図10(a)では、画像1001の中心座標1002で画像1001を左半分の画像と右半分の画像とに分割して、左半分の画像と右半分の画像とを入れ替える。換言すれば、左半分の画像を右半分の画像の右側に移動する。画像1011は、このような左右入れ替え後の画像である。
図10(a)では、ずれ量1006はずれ量1005よりも小さい。つまり、画像1001において、右像1003は画像1001の左半分の中心から画像1001の中心に寄っている。同様に、ずれ量1010はずれ量1009よりも小さい。つまり、画像1001において、左像1007は画像1001の右半分の中心から画像1001の中心に寄っている。そのため、画像1011では、左右方向における左像1007の中心座標1013が中心座標1004から距離1014もずれ、左右方向における右像1003の中心座標1016が中心座標1008から距離1017もずれてしまう。
本実施形態では、レンズ情報を用いることにより、左右入れ替え後の画像1037(図10(b))において、左右方向における左像の中心座標を中心座標1004に一致させ、左右方向における左像の中心座標を中心座標1008に一致させることができる。
図11(a)は、2眼レンズから取得してPCに送信するレンズ情報の一例を示す模式図である。レンズ情報は、
1.レンズ設計値
2.レンズ個体値
3.レンズフラグ
4.レンズ焦点距離
5.レンズ温度
6.マジックウィンドウ情報
などを含む。
1.レンズ設計値
2.レンズ個体値
3.レンズフラグ
4.レンズ焦点距離
5.レンズ温度
6.マジックウィンドウ情報
などを含む。
レンズ設計値は、収差補正を行うための設計値である。2眼レンズの製造過程では、2つの光学系(左眼光学系301Lと右眼光学系301R)それぞれで、レンズの偏芯や傾きなどの誤差が発生する。誤差を考慮せずに左右入れ替えや正距円筒変換などを行うと、
2眼VR表示の品位が低下し、良好な立体視が困難となる。レンズ個体値は、2眼レンズの製造過程で検出した誤差の測定結果などである。レンズ設計値とレンズ個体値の詳細については、図11(b)を用いて後述する。
2眼VR表示の品位が低下し、良好な立体視が困難となる。レンズ個体値は、2眼レンズの製造過程で検出した誤差の測定結果などである。レンズ設計値とレンズ個体値の詳細については、図11(b)を用いて後述する。
レンズフラグは、2眼レンズであることを示すフラグであり、2眼レンズが使用されたか否かを判定するために使用できる。レンズ焦点距離は、レンズの中心である「主点」から撮像素子(結像位置)までの距離である。レンズ焦点距離は、2眼レンズの2つの光学系(左眼光学系301Lと右眼光学系301R)で共通のパラメータであってもよいし、そうでなくてもよい。左右入れ替えや正距円筒変換などを高精度に行って高品位な2眼VR表示を行うためには、詳細(高精度)なレンズ焦点距離が必要となる。レンズ温度は、2眼レンズの温度であり、撮像時の環境温度などを把握するために使用される。マジックウィンドウ情報は、マジックウィンドウの領域に関する情報であり、本実施形態ではマジックウィンドウを生成するために使用される。マジックウィンドウ情報は、2眼レンズの2つの光学系(左眼光学系301Lと右眼光学系301R)のそれぞれついて用意される。なお、マジックウィンドウ情報はカメラ100内に予め用意されたり、カメラ100内で生成されたりしてもよい。マジックウィンドウ情報はPC500内に予め用意されたり、PC500内で生成されたりしてもよい。
図11(b)は、レンズ設計値とレンズ個体値の詳細を示す模式図である。本実施形態では、レンズ設計値とレンズ個体値は、左右入れ替えや正距円筒変換に用いられる。
レンズ設計値は、
1.イメージサークル位置
2.イメージサークル直径
3.画角
4.歪曲補正係数
などを含む。
1.イメージサークル位置
2.イメージサークル直径
3.画角
4.歪曲補正係数
などを含む。
イメージサークル位置は、撮像される画像における光学系の光軸中心座標であり、2眼レンズの2つの光学系(左眼光学系301Lと右眼光学系301R)のそれぞれついて用意される。つまり、イメージサークル位置は、撮像素子上に結像する像円(円周魚眼画像)の中心座標であり、右像と左像のそれぞれについて用意される。座標の原点は、例えば、撮像素子の中心(撮像される画像の中心)である。イメージサークル位置は、水平方向の座標と垂直方向の座標とを含む。なお、撮像される画像における光学系の光軸中心に関する様々な情報を、イメージサークル位置として使用することができる。例えば、画像における所定の位置(中心や左上隅など)から光軸中心までの距離などを使用することができる。
イメージサークル直径は、撮像素子上に結像する像円(円周魚眼画像)の直径である。画角は、撮像素子上に結像する像円(円周魚眼画像)の画角である。歪曲補正係数は、レンズの理想像高に対する設計像高の比である。像高ごとに歪曲補正係数を設定し、歪曲補正係数が設定されていない像高については、複数の歪曲補正係数を用いた補間演算により歪曲補正係数を算出してもよい。像高と歪曲補正係数の関係を近似した多項式を設定してもよい。イメージサークル直径、画角、および歪曲補正係数は、2眼レンズの2つの光学系(左眼光学系301Lと右眼光学系301R)で共通のパラメータであってもよいし、そうでなくてもよい。
なお、マジックウィンドウは、イメージサークル位置、イメージサークル直径、および画角に基づいて表示されてもよい。この方法でも、マジックウィンドウを高品位に表示することができる。マジックウィンドウを適切に表示するために、PC500は、イメージ
サークル位置、イメージサークル直径、および画角を適宜編集して使用する。例えば、PC500は、イメージサークル位置やイメージサークル直径に係数を乗算する。
サークル位置、イメージサークル直径、および画角を適宜編集して使用する。例えば、PC500は、イメージサークル位置やイメージサークル直径に係数を乗算する。
レンズ個体値は、
5.イメージサークル位置ずれ
6.光軸傾き
7.像倍率ずれ
などを含む。これらの情報は、2眼レンズの2つの光学系(左眼光学系301Lと右眼光学系301R)のそれぞれついて測定を行って用意される。
5.イメージサークル位置ずれ
6.光軸傾き
7.像倍率ずれ
などを含む。これらの情報は、2眼レンズの2つの光学系(左眼光学系301Lと右眼光学系301R)のそれぞれついて測定を行って用意される。
イメージサークル位置ずれは、撮像素子上に結像する像円(円周魚眼画像)の中心座標の、設計値からのずれである。例えば、イメージサークル位置ずれは、水平方向のずれと、垂直方向のずれとを含む。設計値の座標(水平方向の座標と垂直方向の座標とを含む2次元座標)を原点として、水平方向の座標により水平方向のずれが示され、垂直方向の座標により垂直方向のずれが示される。光軸傾きは、被写体側の光軸の向きの、設計値からのずれである。例えば、光軸傾きは、水平方向のずれと垂直方向のずれとを含む。各方向のずれは角度で示される。像倍率ずれは撮像素子上に結像する像円(円周魚眼画像)の大きさの、設計値からのずれである。このずれは、例えば、設計値に対する比率で示される。
なお、レンズ情報に含まれる情報は、上述した情報に限られない。例えば、レンズ情報は、ライブビュー画像における右像と左像それぞれの境界位置(円周魚眼画像の縁の位置;ずれ量1005,1006,1009,1010等で示された位置)を含んでもよい。レンズ情報は、ライブビュー画像における右像と左像の間の中点座標を含んでもよい。多くの場合、中点座標はライブビュー画像の中心座標と一致する。レンズ情報は、左右入れ替えや正距円筒変換などの精度を上げるための補正データ(例えば、2眼レンズのキャリブレーションにより得られた補正値)を含んでもよい。
図11(c)は、カメラ内で生成されるカメラ情報の一例を示す模式図である。例えば、カメラ情報は、高品位なVR表示を行うために使用される。カメラ情報は、
1.カメラ記録領域情報
2.カメラ内加速度計情報
3.右露出補正情報
などを含む。
1.カメラ記録領域情報
2.カメラ内加速度計情報
3.右露出補正情報
などを含む。
カメラ記録領域情報は有効画像領域の情報である。カメラのセンサーや記録モードに依って、表示可能な有効画像領域は異なる。PC500は、より正確な表示を行うためにカメラ記録領域情報を使用する。カメラ内加速度計情報は、カメラ内の加速度センサ(水準器)を用いて得られた姿勢情報であり、ロール方向やピッチ方向などにおけるカメラの姿勢を表す。PC500は、撮影時におけるカメラの姿勢を把握するために、カメラ内加速度計情報を使用する。PC500は、把握した姿勢に基づいて、電子防振や水平補正(表示の上下方向を実空間の上下方向に近づける天頂補正)などを行う。右露出補正情報は、右像の露出を左像の露出に近づける露出設定値である。PC500は、違和感の無い(違和感の低減された)2眼VR表示を行うために、右露出補正情報を使用する。
図12(a),(b)は、マジックウィンドウの生成方法の一例を示す。図12(a)は、円筒魚眼表示を行う場合の処理、つまり図9のステップS913の処理を示し、図12(b)は、正距円筒表示を行う場合の処理、つまり図9のステップS923の処理を示す。以下では、左側に表示するマジックウィンドウの生成方法について説明する。同様の方法で、右側に表示するマジックウィンドウも生成される。
ここでは、マジックウィンドウ情報として、マジックウィンドウに外接する矩形1201の位置1202(例えば左上隅の座標)、幅1203、および高さ1204が取得されるとする。PC500の制御部501は、位置1202、幅1203、および高さ1204から、矩形1201を把握する。
図12(a)を用いて、円周魚眼表示を行う場合の処理(ステップS913)について説明する。ROM502またはRAM503は枠画像1211(点群)を予め記憶している。制御部501は、枠画像1211が矩形1201に内接するように、枠画像1211を拡大または縮小することにより、マジックウィンドウ1212を生成する(枠画像1211がマジックウィンドウ1212となる)。なお、マジックウィンドウ情報は、図形を表す関数などであってもよい。同様に、枠画像1211の代わりに、図形を表す関数などが使用されてもよい。
図12(b)を用いて、正距円筒表示を行う場合の処理(ステップS923)について説明する。制御部501は、円周魚眼画像を正距円筒画像に変換したのと同様に、枠画像1211に対しても正距円筒変換を適用することにより、枠画像1221を得る。そして、制御部501は、枠画像1221が矩形1201に内接するように、枠画像1221を拡大または縮小することにより、マジックウィンドウ1222を生成する。なお、矩形1201にも正距円筒変換を適用し、正距円筒変換後の矩形に枠画像1221を内接させてもよい。
図13(a)~(d)は、制御部501が表示部506に表示するアプリケーション画面における表示(PCライブビューの表示)の一例を示す模式図である。画面1300は、アプリケーション画面(リモートライブビュー画面)である。画面1300は、ライブビュー表示領域1301、ガイド表示領域1302、ガイド表示領域1303、操作領域1305、終了ボタン1309を含む。
ライブビュー表示領域1301は、ライブビュー画像を表示する領域である。ライブビュー表示領域1301は、左側の表示領域1301Aと、右側の表示領域1301Bとから成る。ガイド表示領域1302は、左側の表示領域1301Aに表示される画像が2眼レンズの2つの光学系(左眼光学系301Lと右眼光学系301R)のどちらの画像であるかの文字列を表示する領域である。ガイド表示領域1303は、右側の表示領域1301Bに表示される画像が2眼レンズの2つの光学系(左眼光学系301Lと右眼光学系301R)のどちらの画像であるかの文字列を表示する領域である。操作領域1305は、PCライブビューに関する操作を受け付けるための領域であり、操作領域1305には、ラジオボタン1306,1307とチェックボックス1308が表示される。ラジオボタン1306は、円周魚眼表示を行う際に選択されるラジオボタンであり、ラジオボタン1307は、正距円筒表示を行う際に選択されるラジオボタンである。ラジオボタン1306が選択状態の場合、ラジオボタン1307は非選択状態となり、ラジオボタン1306が非選択状態の場合、ラジオボタン1307は選択状態となる。チェックボックス1308は、左右入れ替えを行う際にチェックされるチェックボックスである。チェックボックス1308が操作されると、ライブビュー画像における右像(右眼映像)と左像(左眼映像)との位置が入れ替わり、ガイド表示領域1302,1303に表示する文字列も入れ替わる。終了ボタン1309は、PCライブビューを終了するためのボタンである。
図13(a)では、円周魚眼表示を行うためのラジオボタン1306が選択されている。左右入れ替えを行うチェックボックス1308はチェックされていない。そのため、カメラから取得したライブビュー画像が、ライブビュー表示領域1301にそのまま表示される。具体的には、左側の表示領域1301Aに、円周魚眼画像である右眼映像が表示さ
れ、右側の表示領域1301Bに、円周魚眼画像である左眼映像が表示される。さらに、左側の表示領域1301Aに表示された右眼映像にマジックウィンドウ1304Aが重畳され、右側の表示領域1301Bに表示された左眼映像にマジックウィンドウ1304Bが重畳される。右眼映像に重畳されるマジックウィンドウ1304Aは、右眼光学系301Rの画角のうち、再生表示時(2眼VR表示時)に表示される部分を示す。左眼映像に重畳されるマジックウィンドウ1304Bは、左眼光学系301Lの画角のうち、再生表示時(2眼VR表示時)に表示される部分を示す。
れ、右側の表示領域1301Bに、円周魚眼画像である左眼映像が表示される。さらに、左側の表示領域1301Aに表示された右眼映像にマジックウィンドウ1304Aが重畳され、右側の表示領域1301Bに表示された左眼映像にマジックウィンドウ1304Bが重畳される。右眼映像に重畳されるマジックウィンドウ1304Aは、右眼光学系301Rの画角のうち、再生表示時(2眼VR表示時)に表示される部分を示す。左眼映像に重畳されるマジックウィンドウ1304Bは、左眼光学系301Lの画角のうち、再生表示時(2眼VR表示時)に表示される部分を示す。
図13(b)では、正距円筒表示を行うためのラジオボタン1307が選択されている。左右入れ替えを行うチェックボックス1308はチェックされていない。そのため、カメラから取得したライブビュー画像における右眼映像と左眼映像(いずれかも円周魚眼画像)それぞれが正距円筒画像に変換される(左右入れ替えは行われない)。そして、正距円筒変換後のライブビュー画像がライブビュー表示領域1301に表示される。具体的には、左側の表示領域1301Aに、正距円筒画像である右眼映像が表示され、右側の表示領域1301Bに、正距円筒画像である左眼映像が表示される。さらに、左側の表示領域1301Aに表示された右眼映像にマジックウィンドウ1304Cが重畳され、右側の表示領域1301Bに表示された左眼映像にマジックウィンドウ1304Dが重畳される。右眼映像に重畳されるマジックウィンドウ1304Cは、図13(a)で説明したマジックウィンドウ1304Aを正距円筒変換したものであり、マジックウィンドウ1304Aとは形状が異なる。左眼映像に重畳されるマジックウィンドウ1304Cは、図13(a)で説明したマジックウィンドウ1304Bを正距円筒変換したしたものであり、マジックウィンドウ1304Bとは形状が異なる。
図13(c)では、円周魚眼表示を行うためのラジオボタン1306が選択されており、左右入れ替えを行うチェックボックス1308がチェックされている。そのため、カメラから取得したライブビュー画像における右眼映像と左眼映像の位置が入れ替えられる。そして、左右入れ替え後のライブビュー画像がライブビュー表示領域1301に表示される。具体的には、左側の表示領域1301Aに、円周魚眼画像である左眼映像が表示され、右側の表示領域1301Bに、円周魚眼画像である右眼映像が表示される。さらに、図13(a)で説明したマジックウィンドウ1304A,1304Bが表示される。但し、右眼映像および左眼映像の位置の入れ替わりに応じて、マジックウィンドウ1304A,1304Bの位置も入れ替わる。
図13(d)では、正距円筒表示を行うためのラジオボタン1307が選択されており、左右入れ替えを行うチェックボックス1308がチェックされている。そのため、カメラから取得したライブビュー画像における右眼映像と左眼映像の位置が入れ替えられるとともに、右眼映像と左眼映像(いずれかも円周魚眼画像)それぞれが正距円筒画像に変換される。そして、左右入れ替えと正距円筒変換を行った後のライブビュー画像が、ライブビュー表示領域1301に表示される。具体的には、左側の表示領域1301Aに、正距円筒画像である左眼映像が表示され、右側の表示領域1301Bに、正距円筒画像である右眼映像が表示される。さらに、図13(b)で説明したマジックウィンドウ1304C,1304Dが表示される。但し、右眼映像および左眼映像の位置の入れ替わりに応じて、マジックウィンドウ1304C,1304Dの位置も入れ替わる。
なお、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。同様に、制御部501が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
また、本発明は、カメラやPCに限られず、VR画像を扱うことのできる電子機器であれば適用可能である。例えば、本発明は、PDA、携帯電話端末や携帯型の画像ビューワ、プリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。また、本発明は、映像プレーヤー、表示装置(投影装置を含む)、タブレット端末、スマートフォン、AIスピーカー、家電装置や車載装置などに適用可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:デジタルカメラ(カメラ) 50:システム制御部
500:パーソナルコンピュータ(PC) 501:制御部
500:パーソナルコンピュータ(PC) 501:制御部
Claims (17)
- 第1の光学系を介して入力された第1の光学像に対応する第1のライブビュー画像を取得する取得手段と、
前記第1のライブビュー画像を表示する際に、前記第1の光学系の画角のうち、再生表示時に表示される部分を示すインジケータを、前記第1のライブビュー画像に重畳して表示するように制御する制御手段と
を有することを特徴とする電子機器。 - 前記取得手段は、前記第1のライブビュー画像と、前記第1の光学系に対して所定の視差を有する第2の光学系を介して入力された第2の光学像に対応する第2のライブビュー画像とを取得し、
前記制御手段は、前記第1のライブビュー画像と前記第2のライブビュー画像とを並べて表示する際に、前記インジケータを表示するように制御する
ことを特徴とする請求項1に記載の電子機器。 - 前記制御手段は、前記第1の光学系の画角のうち、前記再生表示時に表示される前記部分を示す前記インジケータを、前記第1のライブビュー画像に重畳して表示し、前記第2の光学系の画角のうち、前記再生表示時に表示される部分を示すインジケータを、前記第2のライブビュー画像に重畳して表示するように制御する
ことを特徴とする請求項2に記載の電子機器。 - 前記制御手段は、撮影待機中または撮影中に前記インジケータを表示するように制御する
ことを特徴とする請求項1乃至3のいずれか1項に記載の電子機器。 - 前記制御手段は、特定の表示モードで前記インジケータを表示するように制御し、前記特定の表示モードとは異なる表示モードでは前記インジケータを表示するようには制御しない
ことを特徴とする請求項1乃至4のいずれか1項に記載の電子機器。 - 前記インジケータが示す前記部分は、前記再生表示時に最初に表示される部分である
ことを特徴とする請求項1乃至5のいずれか1項に記載の電子機器。 - 前記第1の光学系は魚眼レンズであり、
前記第1のライブビュー画像は円周魚眼画像である
ことを特徴とする請求項1乃至6のいずれか1項に記載の電子機器。 - 前記制御手段は、前記第1のライブビュー画像を、前記円周魚眼画像のまま、または正距円筒画像への変換処理を行って表示するように制御する
ことを特徴とする請求項7に記載の電子機器。 - 前記取得手段は、前記第1のライブビュー画像を前記正距円筒画像への変換処理を行って表示する場合に、前記第1のライブビュー画像を前記円周魚眼画像のまま表示する場合よりも低解像度の画像を、前記第1のライブビュー画像として取得する
ことを特徴とする請求項8に記載の電子機器。 - 前記制御手段は、前記第1のライブビュー画像を前記正距円筒画像への変換処理を行って表示する際に、前記インジケータも前記変換処理を行って表示するように制御する
ことを特徴とする請求項8または9に記載の電子機器。 - 前記取得手段は、前記第1の光学系に関する情報をさらに取得し、
前記制御手段は、前記情報に基づいて所定の画像を拡大または縮小して前記インジケータを生成するように制御する
ことを特徴とする請求項1乃至10のいずれか1項に記載の電子機器。 - 前記制御手段は、前記第1のライブビュー画像を拡大して表示する場合には、前記インジケータを表示するようには制御しない
ことを特徴とする請求項1乃至11のいずれか1項に記載の電子機器。 - 前記電子機器は、前記第1のライブビュー画像を撮像する撮像装置である
ことを特徴とする請求項1乃至12のいずれか1項に記載の電子機器。 - 前記電子機器は、前記第1のライブビュー画像を撮像する撮像装置に接続可能な情報処理装置である
ことを特徴とする請求項1乃至12のいずれか1項に記載の電子機器。 - 第1の光学系を介して入力された第1の光学像に対応する第1のライブビュー画像を取得するステップと、
前記第1のライブビュー画像を表示する際に、前記第1の光学系の画角のうち、再生表示時に表示される部分を示すインジケータを、前記第1のライブビュー画像に重畳して表示するように制御するステップと
を有することを特徴とする電子機器の制御方法。 - コンピュータを、請求項1乃至14のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
- コンピュータを、請求項1乃至14のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021091093A JP2022183656A (ja) | 2021-05-31 | 2021-05-31 | 電子機器、制御方法、プログラム、および記憶媒体 |
US17/751,810 US20220385830A1 (en) | 2021-05-31 | 2022-05-24 | Electronic apparatus, control method, and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021091093A JP2022183656A (ja) | 2021-05-31 | 2021-05-31 | 電子機器、制御方法、プログラム、および記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022183656A true JP2022183656A (ja) | 2022-12-13 |
JP2022183656A5 JP2022183656A5 (ja) | 2024-06-07 |
Family
ID=84193486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021091093A Pending JP2022183656A (ja) | 2021-05-31 | 2021-05-31 | 電子機器、制御方法、プログラム、および記憶媒体 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220385830A1 (ja) |
JP (1) | JP2022183656A (ja) |
-
2021
- 2021-05-31 JP JP2021091093A patent/JP2022183656A/ja active Pending
-
2022
- 2022-05-24 US US17/751,810 patent/US20220385830A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220385830A1 (en) | 2022-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111385470B (zh) | 电子设备、电子设备的控制方法和计算机可读介质 | |
US11849100B2 (en) | Information processing apparatus, control method, and non-transitory computer readable medium | |
JP2022183843A (ja) | 電子機器及びその制御方法及びプログラム及び記録媒体 | |
JP2022183656A (ja) | 電子機器、制御方法、プログラム、および記憶媒体 | |
JP2022184712A (ja) | 情報処理装置、撮像装置、制御方法、プログラム、および記憶媒体 | |
US20220385829A1 (en) | Information processing apparatus, control method, and storage medium | |
JP2021069045A (ja) | 表示制御装置、表示制御方法、プログラムおよび記憶媒体 | |
JP2023129925A (ja) | 電子機器、電子機器の制御方法、プログラム、および記憶媒体 | |
US20230384236A1 (en) | Information processing apparatus, imaging apparatus, information processing method, and non-transitory computer readable medium | |
US20220398688A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2023142979A (ja) | 電子機器、電子機器の制御方法、プログラム、および記憶媒体 | |
JP2023184106A (ja) | 表示制御装置、表示制御方法、プログラム、および記憶媒体 | |
US20220385883A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2023181634A (ja) | 電子機器、電子機器の制御方法、プログラム | |
US20230209177A1 (en) | Imaging apparatus | |
JP2024030637A (ja) | 電子機器および電子機器の制御方法 | |
JP2023102947A (ja) | 情報処理装置、その制御方法およびプログラム | |
JP2022168781A (ja) | 電子機器、その制御方法、プログラムおよび記憶媒体 | |
US20220385877A1 (en) | Electronic equipment, control method therefor, and storage medium | |
EP4307660A1 (en) | Information processing apparatus, information processing method, and program | |
JP2022191143A (ja) | 画像処理装置および画像処理方法 | |
US20230300453A1 (en) | Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium | |
JP2024030580A (ja) | 電子機器および電子機器の制御方法 | |
US20240236503A1 (en) | Electronic device, control method thereof and non-transitory computer-readable medium | |
JP2021158559A (ja) | 電子機器、その制御方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240528 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240528 |