JP2023117615A - 電子機器、電子機器の制御方法、プログラム、および記憶媒体 - Google Patents
電子機器、電子機器の制御方法、プログラム、および記憶媒体 Download PDFInfo
- Publication number
- JP2023117615A JP2023117615A JP2022020270A JP2022020270A JP2023117615A JP 2023117615 A JP2023117615 A JP 2023117615A JP 2022020270 A JP2022020270 A JP 2022020270A JP 2022020270 A JP2022020270 A JP 2022020270A JP 2023117615 A JP2023117615 A JP 2023117615A
- Authority
- JP
- Japan
- Prior art keywords
- indicator
- display
- image
- image area
- optical system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000003287 optical effect Effects 0.000 claims abstract description 111
- 230000004044 response Effects 0.000 claims abstract description 5
- 238000003384 imaging method Methods 0.000 claims description 67
- 238000001514 detection method Methods 0.000 description 63
- 238000012545 processing Methods 0.000 description 62
- 230000008569 process Effects 0.000 description 30
- 210000003811 finger Anatomy 0.000 description 18
- 238000004891 communication Methods 0.000 description 15
- 230000007246 mechanism Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 238000005259 measurement Methods 0.000 description 12
- 238000013459 approach Methods 0.000 description 7
- 210000003813 thumb Anatomy 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000000926 separation method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 210000004932 little finger Anatomy 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 240000001973 Ficus microcarpa Species 0.000 description 1
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/634—Warning indications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/663—Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/672—Focus control based on electronic image sensor signals based on the phase difference signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Cameras In General (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
Abstract
【課題】2つの光学系をそれぞれ用いて撮像された2つの画像領域が並んだ1つの画像に対して、インジケーターを好適に表示することのできる技術を提供する。【解決手段】本発明の電子機器は、撮像された画像を取得する取得手段と、取得された画像にインジケーターを重ねて表示するように制御する表示制御手段とを有し、第1の光学系を介して撮像された第1の画像領域と第2の光学系を介して撮像された第2の画像領域とが並んだ画像が取得された場合に、表示制御手段は、第1の画像領域に第1のインジケーターを重ねて表示し且つ第2の画像領域に第2のインジケーターを重ねて表示するように制御し、ユーザーにより一方のインジケーターを移動させる操作が行われたことに応じて、一方のインジケーターを移動するように制御し、一方のインジケーターの移動に連動して他方のインジケーターを移動するように制御する。【選択図】図5
Description
本発明は、電子機器、電子機器の制御方法、プログラム、および記憶媒体に関する。
2つの光学系を用いて視差のある2つの画像(2つの広視野角画像)を取得して、当該2つの画像を立体視可能に表示する技術が知られている。視差のある2つの画像を撮影するための2眼カメラは、同じ方向を向いた2つの光学系を有しており、視差のある2つの画像を一度に撮影できる。2眼カメラに関する技術は、例えば特許文献1に開示されている。
レンズユニットを着脱可能なデジタルカメラでは、1眼レンズユニットと2眼レンズユニットを付け替えて使用することがある。1眼レンズユニットを装着して1眼カメラとする場合には、例えば、1つの光学系を用いて撮像された1つのライブ画像が表示される。2眼レンズユニットを装着して2眼カメラとする場合には、例えば、2つの光学系をそれぞれ用いて撮像された2つのライブ画像領域(視差のある2つの画像領域)が並んだ1つのライブ画像が表示される。
しかしながら、従来の2眼カメラ(2眼レンズユニットをデジタルカメラに装着した場合も含む)では、2つの光学系をそれぞれ用いて撮像された2つの画像領域が並んだ1つの画像に対して、インジケーターを好適に表示することができない。
本発明は、2つの光学系をそれぞれ用いて撮像された2つの画像領域が並んだ1つの画像に対して、インジケーターを好適に表示することのできる技術を提供することを目的とする。
本発明の電子機器は、撮像素子により撮像された画像を取得する取得手段と、ユーザーによる操作を受け付ける操作手段と、前記取得手段により取得された前記画像を表示するように制御し、当該画像にインジケーターを重ねて表示するように制御する表示制御手段とを有し、前記取得手段により、第1の光学系を介して撮像された第1の画像領域と、第2の光学系を介して撮像された第2の画像領域とが並んだ画像が取得された場合に、前記表示制御手段は、前記第1の画像領域に第1のインジケーターを重ねて表示するように制御し、前記第2の画像領域に第2のインジケーターを重ねて表示するように制御し、前記ユーザーにより、前記第1のインジケーターと前記第2のインジケーターとの一方を移動させる操作が行われたことに応じて、前記第1のインジケーターと前記第2のインジケーターとの一方を移動するように制御し、前記第1のインジケーターと前記第2のインジケーターとの一方の移動に連動して前記第1のインジケーターと前記第2のインジケーターとの他方を移動するように制御することを特徴とする。
本発明によれば、2つの光学系をそれぞれ用いて撮像された2つの画像領域が並んだ1
つの画像に対して、インジケーターを好適に表示することができる。
つの画像に対して、インジケーターを好適に表示することができる。
以下、図面を参照して本発明の実施形態について説明する。以下の実施形態では、レンズユニットを着脱可能なデジタルカメラ(レンズ交換式カメラ)に本発明を適用した例について説明する。
〔実施形態1〕
<ハードウェア構成>
図1(A),1(B)は、実施形態1に係るデジタルカメラ(カメラ)100の外観を示す外観図である。図1(A)はカメラ100を前面側から見た斜視図であり、図1(B)はカメラ100を背面側から見た斜視図である。
<ハードウェア構成>
図1(A),1(B)は、実施形態1に係るデジタルカメラ(カメラ)100の外観を示す外観図である。図1(A)はカメラ100を前面側から見た斜視図であり、図1(B)はカメラ100を背面側から見た斜視図である。
カメラ100は、上面に、シャッターボタン101、電源スイッチ102、モード切替スイッチ103、メイン電子ダイヤル104、サブ電子ダイヤル105、動画ボタン106、ファインダ外表示部107を有する。シャッターボタン101は、撮影準備指示あるいは撮影指示を行うための操作部材である。電源スイッチ102は、カメラ100の電源のオンとオフとを切り替える操作部材である。モード切替スイッチ103は、各種モードを切り替えるための操作部材である。メイン電子ダイヤル104は、シャッター速度や絞り等の設定値を変更するための回転式の操作部材である。サブ電子ダイヤル105は、選択枠(カーソル)の移動や画像送り等を行うための回転式の操作部材である。動画ボタン106は、動画撮影(記録)の開始や停止の指示を行うための操作部材である。ファインダ外表示部107は、シャッター速度や絞り等の様々な設定値を表示する。
カメラ100は、背面に、表示部108、タッチパネル109、方向キー110、SETボタン111、AEロックボタン112、拡大ボタン113、再生ボタン114、メニューボタン115、接眼部116、接眼検知部118、タッチバー119を有する。表示部108は、画像や各種情報を表示する。タッチパネル109は、表示部108の表示面(タッチ操作面)に対するタッチ操作を検出する操作部材である。方向キー110は、上下左右にそれぞれ押下可能なキー(4方向キー)から構成される操作部材である。方向キー110の押下した位置に応じた処理が可能である。SETボタン111は、主に選択項目を決定するときに押下される操作部材である。AEロックボタン112は、撮影待機状態で露出状態を固定するときに押下される操作部材である。拡大ボタン113は、撮影モードのライブビュー表示(LV表示)において拡大モードのオンとオフとを切り替えるための操作部材である。拡大モードがオンである場合にはメイン電子ダイヤル104を操作
することにより、ライブビュー画像(LV画像)が拡大または縮小する。また、拡大ボタン113は、再生モードにおいて再生画像を拡大したり、拡大率を大きくしたりするときに用いられる。再生ボタン114は、撮影モードと再生モードとを切り替えるための操作部材である。撮影モードの場合に再生ボタン114を押下することで再生モードに移行し、後述する記録媒体227に記録された画像のうち最新の画像を表示部108に表示することができる。
することにより、ライブビュー画像(LV画像)が拡大または縮小する。また、拡大ボタン113は、再生モードにおいて再生画像を拡大したり、拡大率を大きくしたりするときに用いられる。再生ボタン114は、撮影モードと再生モードとを切り替えるための操作部材である。撮影モードの場合に再生ボタン114を押下することで再生モードに移行し、後述する記録媒体227に記録された画像のうち最新の画像を表示部108に表示することができる。
メニューボタン115は、各種設定が可能なメニュー画面を表示部108に表示するために押下される操作部材である。ユーザーは、表示部108に表示されたメニュー画面と、方向キー110やSETボタン111とを用いて、直感的に各種設定を行うことができる。接眼部116は、接眼ファインダ(覗き込み型のファインダ)117に対して接眼して覗き込む部位である。ユーザーは接眼部116を介して、カメラ100内部の後述するEVF217(Electronic View Finder)に表示された映像を視認することができる。接眼検知部118は、接眼部116(接眼ファインダ117)にユーザーが接眼しているか否かを検知するセンサである。
タッチバー119は、タッチ操作を受け付けることが可能なライン状のタッチ操作部材(ラインタッチセンサ)である。タッチバー119は、右手の人差し指でシャッターボタン101を押下可能なようにグリップ部120を右手で握った状態(右手の小指、薬指、中指で握った状態)で、右手の親指でタッチ操作可能(タッチ可能)な位置に配置される。すなわち、タッチバー119は、接眼ファインダ117に接眼して接眼部116を覗き、いつでもシャッターボタン101を押下できるように構えた状態(撮影姿勢)で操作可能である。タッチバー119は、タッチバー119に対するタップ操作(タッチして所定期間以内にタッチ位置を移動せずに離す操作)、左右へのスライド操作(タッチした後、タッチしたままタッチ位置を移動する操作)等を受け付け可能である。タッチバー119は、タッチパネル109とは異なる操作部材であり、表示機能を備えていない。タッチバー119は、例えば各種機能を割当可能なマルチファンクションバー(M-Fnバー)として機能する。
また、カメラ100は、グリップ部120、サムレスト部121、端子カバー122、蓋123、通信端子124等を有する。グリップ部120は、ユーザーがカメラ100を構える際に右手で握りやすい形状に形成された保持部である。グリップ部120を右手の小指、薬指、中指で握ってカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン101とメイン電子ダイヤル104が配置される。また、同様な状態で、右手の親指で操作可能な位置にサブ電子ダイヤル105とタッチバー119が配置される。サムレスト部121(親指待機位置)は、カメラ100の背面側の、どの操作部材も操作しない状態でグリップ部120を握った右手の親指を置きやすい箇所に設けられたグリップ部である。サムレスト部121は、保持力(グリップ感)を高めるためのラバー部材等で構成される。端子カバー122は、カメラ100を外部機器(外部装置)に接続する接続ケーブル等のコネクタを保護する。蓋123は、後述する記録媒体227を格納するためのスロットを閉塞することで記録媒体227およびスロットを保護する。通信端子124は、カメラ100に対して着脱可能なレンズユニット(後述するレンズユニット200やレンズユニット300)側と通信を行うための端子である。
<カメラ内部のハードウェア構成>
図2は、カメラ100の構成を示すブロック図である。なお、図1(A),1(B)と同一の構成要素には図1(A),1(B)と同一の符号を付し、その構成要素の説明は適宜、省略する。図2では、カメラ100にレンズユニット200が装着されている。
図2は、カメラ100の構成を示すブロック図である。なお、図1(A),1(B)と同一の構成要素には図1(A),1(B)と同一の符号を付し、その構成要素の説明は適宜、省略する。図2では、カメラ100にレンズユニット200が装着されている。
まず、レンズユニット200について説明する。レンズユニット200は、カメラ10
0に対して着脱可能な交換レンズユニットの一種である。レンズユニット200は、1眼レンズユニット(単眼レンズユニット)であり、通常のレンズユニットの一例である。レンズユニット200は、絞り201、レンズ202、絞り駆動回路203、AF(オートフォーカス)駆動回路204、レンズシステム制御回路205、通信端子206等を有する。
0に対して着脱可能な交換レンズユニットの一種である。レンズユニット200は、1眼レンズユニット(単眼レンズユニット)であり、通常のレンズユニットの一例である。レンズユニット200は、絞り201、レンズ202、絞り駆動回路203、AF(オートフォーカス)駆動回路204、レンズシステム制御回路205、通信端子206等を有する。
絞り201は、開口径が調整可能に構成される。レンズ202は、複数枚のレンズから構成される。絞り駆動回路203は、絞り201の開口径を制御することで光量を調整する。AF駆動回路204は、レンズ202を駆動して焦点を合わせる。レンズシステム制御回路205は、後述するシステム制御部50の指示に基づいて、絞り駆動回路203、AF駆動回路204等を制御する。レンズシステム制御回路205は、絞り駆動回路203を介して絞り201の制御を行い、AF駆動回路204を介してレンズ202の位置を変えることで焦点を合わせる。レンズシステム制御回路205は、カメラ100との間で通信可能である。具体的には、レンズユニット200の通信端子206と、カメラ100の通信端子124とを介して通信が行われる。通信端子206は、レンズユニット200がカメラ100側と通信を行うための端子である。
次に、カメラ100について説明する。カメラ100は、シャッター210、撮像部211、A/D変換器212、メモリ制御部213、画像処理部214、メモリ215、D/A変換器216、EVF217、表示部108、システム制御部50を有する。
シャッター210は、システム制御部50の指示に基づいて撮像部211の露光時間を自由に制御できるフォーカルプレーンシャッターである。撮像部211は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子(イメージセンサ)である。撮像部211は、システム制御部50にデフォーカス量情報を出力する撮像面位相差センサを有していてもよい。A/D変換器212は、撮像部211から出力されるアナログ信号をデジタル信号に変換する。画像処理部214は、A/D変換器212からのデータまたはメモリ制御部213からのデータに対し所定の処理(画素補間、縮小等のリサイズ処理、色変換処理等)を行う。また、画像処理部214は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50が露光制御や測距制御を行う。この処理により、TTL(スルー・ザ・レンズ)方式のAF処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理等が行われる。更に、画像処理部214は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50がTTL方式のAWB(オートホワイトバランス)処理を行う。
A/D変換器212からの画像データは、画像処理部214およびメモリ制御部213を介してメモリ215に書き込まれる。あるいは、A/D変換器212からの画像データは、画像処理部214を介さずにメモリ制御部213を介してメモリ215に書き込まれる。メモリ215は、撮像部211によって得られA/D変換器212によりデジタルデータに変換された画像データや、表示部108やEVF217に表示するための画像データを格納する。メモリ215は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。また、メモリ215は画像表示用のメモリ(ビデオメモリ)を兼ねている。
D/A変換器216は、メモリ215に格納されている表示用の画像データをアナログ信号に変換して表示部108やEVF217に供給する。したがって、メモリ215に書き込まれた表示用の画像データは、D/A変換器216を介して表示部108やEVF217に表示される。表示部108やEVF217は、D/A変換器216からのアナログ信号に応じた表示を行う。表示部108やEVF217は、例えば、LCDや有機EL等のディスプレイである。A/D変換器212によってA/D変換されメモリ215に蓄積
されたデジタル信号をD/A変換器216でアナログ信号に変換し、表示部108やEVF217に逐次転送して表示することで、ライブビュー表示が行われる。
されたデジタル信号をD/A変換器216でアナログ信号に変換し、表示部108やEVF217に逐次転送して表示することで、ライブビュー表示が行われる。
システム制御部50は、少なくとも1つのプロセッサおよび/または少なくとも1つの回路からなる制御部である。すなわち、システム制御部50は、プロセッサであってもよく、回路であってもよく、プロセッサと回路の組み合わせであってもよい。システム制御部50は、カメラ100全体を制御する。システム制御部50は、不揮発性メモリ219に記録されたプログラムを実行することで、後述するフローチャートの各処理を実現する。また、システム制御部50は、メモリ215、D/A変換器216、表示部108、EVF217等を制御することにより表示制御も行う。
また、カメラ100は、システムメモリ218、不揮発性メモリ219、システムタイマ220、通信部221、姿勢検知部222、接眼検知部118を有する。
システムメモリ218として、例えばRAMが用いられる。システムメモリ218には、システム制御部50の動作用の定数、変数、不揮発性メモリ219から読み出したプログラム等が展開される。不揮発性メモリ219は電気的に消去・記録可能なメモリであり、不揮発性メモリ219として、例えばEEPROMが用いられる。不揮発性メモリ219には、システム制御部50の動作用の定数、プログラム等が記録される。ここでのプログラムとは、後述するフローチャートを実行するためのプログラムである。システムタイマ220は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。通信部221は、無線または有線ケーブルによって接続された外部機器との間で、映像信号や音声信号の送受信を行う。通信部221は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部221は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部221は撮像部211で撮像した画像(ライブ画像を含む)や、記録媒体227に記録された画像を送信可能であり、外部機器から画像やその他の各種情報を受信することができる。姿勢検知部222は、重力方向に対するカメラ100の姿勢(傾き)を検知する。姿勢検知部222で検知された姿勢に基づいて、カメラ100の水平方向(左右方向)あるいは垂直方向(上下方向;前後方向)の傾き角度を検出することができる。また、姿勢検知部222で検知された姿勢に基づいて、撮像部211で撮影された画像が、カメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部222で検知された姿勢に応じた向き情報を撮像部211で撮影された画像の画像ファイルに付加したり、検知された姿勢に応じて画像を回転したりすることが可能である。姿勢検知部222を用いて、カメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。姿勢検知部222には、例えば、加速度センサやジャイロセンサ等を用いることができる。
接眼検知部118は、接眼部116(接眼ファインダ117)に対する何らかの物体の接近を検知することができる。接眼検知部118には、例えば、赤外線近接センサを用いることができる。物体が接近した場合、接眼検知部118の投光部から投光した赤外線が物体で反射して赤外線近接センサの受光部で受光される。受光された赤外線の量によって接眼部116から物体までの距離を判別することができる。このように、接眼検知部118は、接眼部116に対する物体の近接距離を検知する接眼検知を行う。接眼検知部118は、接眼部116に対する眼(物体)の接近(接眼)および離反(離眼)を検知する接眼検知センサである。非接眼状態(非接近状態)から、接眼部116に対して所定距離以内に近づく物体が検知された場合に、接眼されたと検知する。一方、接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検知する。接眼を検知する閾値と、離眼を検知する閾値とは例えばヒステリシスを設ける等して異な
っていてもよい。また、接眼を検知した後は、離眼を検知するまでは接眼状態であるものとする。離眼を検知した後は、接眼を検知するまでは非接眼状態であるものとする。システム制御部50は、接眼検知部118で検知された状態に応じて、表示部108とEVF217の表示(表示状態)/非表示(非表示状態)を切り替える。具体的には、少なくとも撮影待機状態であって、かつ、表示先の切替設定が自動切替である場合、非接眼中は表示先を表示部108として表示をオンとし、EVF217は非表示とする。また、接眼中は表示先をEVF217として表示をオンとし、表示部108は非表示とする。なお、接眼検知部118は赤外線近接センサに限られず、接眼検知部118には、接眼とみなせる状態を検知できるものであれば他のセンサを用いてもよい。
っていてもよい。また、接眼を検知した後は、離眼を検知するまでは接眼状態であるものとする。離眼を検知した後は、接眼を検知するまでは非接眼状態であるものとする。システム制御部50は、接眼検知部118で検知された状態に応じて、表示部108とEVF217の表示(表示状態)/非表示(非表示状態)を切り替える。具体的には、少なくとも撮影待機状態であって、かつ、表示先の切替設定が自動切替である場合、非接眼中は表示先を表示部108として表示をオンとし、EVF217は非表示とする。また、接眼中は表示先をEVF217として表示をオンとし、表示部108は非表示とする。なお、接眼検知部118は赤外線近接センサに限られず、接眼検知部118には、接眼とみなせる状態を検知できるものであれば他のセンサを用いてもよい。
また、カメラ100は、ファインダ外表示部107、ファインダ外表示駆動回路223、電源制御部224、電源部225、記録媒体I/F226、操作部228等を有する。
ファインダ外表示部107は、ファインダ外表示駆動回路223によって駆動され、シャッター速度や絞り等のカメラ100の様々な設定値を表示する。電源制御部224は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出等を行う。また、電源制御部224は、その検出結果およびシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体227を含む各部へ供給する。電源部225は、アルカリ電池およびリチウム電池等の一次電池、NiCd電池、NiMH電池およびLi電池等の二次電池、ACアダプター等である。記録媒体I/F226は、メモリカードやハードディスク等の記録媒体227とのインターフェースである。記録媒体227は、撮影された画像を記録するためのメモリカード等であり、半導体メモリや磁気ディスク等から構成される。記録媒体227は、カメラ100に対して着脱可能であってもよいし、カメラ100に内蔵されていてもよい。
操作部228は、ユーザーからの操作(ユーザー操作)を受け付ける入力部であり、システム制御部50に各種の指示を入力するために用いられる。操作部228は、シャッターボタン101、電源スイッチ102、モード切替スイッチ103、タッチパネル109、他の操作部229等が含まれる。他の操作部229には、メイン電子ダイヤル104、サブ電子ダイヤル105、動画ボタン106、方向キー110、SETボタン111、AEロックボタン112、拡大ボタン113、再生ボタン114、メニューボタン115、タッチバー119等が含まれる。
シャッターボタン101は、第1シャッタースイッチ230と第2シャッタースイッチ231を有する。第1シャッタースイッチ230は、シャッターボタン101の操作途中、いわゆる半押し(撮影準備指示)でオンとなり、第1シャッタースイッチ信号SW1を出力する。システム制御部50は、第1シャッタースイッチ信号SW1に応じて、AF処理、AE処理、AWB処理、EF処理等の撮影準備処理を開始する。第2シャッタースイッチ231は、シャッターボタン101の操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を出力する。システム制御部50は、第2シャッタースイッチ信号SW2に応じて、撮像部211からの信号読み出しから、撮影された画像を含む画像ファイルを生成して記録媒体227に書き込むまでの一連の撮影処理を開始する。
モード切替スイッチ103は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード、再生モード等の何れかに切り替える。静止画撮影モードに含まれるモードには、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモ
ード等がある。ユーザーは、モード切替スイッチ103により、上述した撮影モードの何れかに直接、切り替えることができる。あるいは、ユーザーは、モード切替スイッチ103により撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードの何れかに操作部228を用いて選択的に切り替えることができる。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
ード等がある。ユーザーは、モード切替スイッチ103により、上述した撮影モードの何れかに直接、切り替えることができる。あるいは、ユーザーは、モード切替スイッチ103により撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードの何れかに操作部228を用いて選択的に切り替えることができる。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
タッチパネル109は、表示部108の表示面(タッチパネル109の操作面)への各種タッチ操作を検出するタッチセンサである。タッチパネル109と表示部108とは一体的に構成することができる。例えば、タッチパネル109は、光の透過率が表示部108の表示を妨げないように、表示部108の表示面の上層に取り付けられる。そして、タッチパネル109における入力座標と、表示部108の表示面上の表示座標とを対応付ける。そうすることで、あたかもユーザーが表示部108上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を構成できる。タッチパネル109には、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等の様々な方式のうち何れかの方式を用いることができる。方式によって、タッチパネル109に対する接触があったことでタッチがあったと検知する方式や、タッチパネル109に対する指やペンの接近があったことでタッチがあったと検知する方式があるが、何れの方式であってもよい。
システム制御部50は、タッチパネル109に対する以下の操作あるいは状態を検出できる。
・タッチパネル109にタッチしていなかった指やペンが新たにタッチパネル109にタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)という)。
・タッチパネル109を指やペンでタッチしている状態(以下、タッチオン(Touch-On)という)。
・タッチパネル109を指やペンがタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)という)。
・タッチパネル109へタッチしていた指やペンがタッチパネル109から離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)という)。
・タッチパネル109に何もタッチしていない状態(以下、タッチオフ(Touch-Off)という)。
・タッチパネル109にタッチしていなかった指やペンが新たにタッチパネル109にタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)という)。
・タッチパネル109を指やペンでタッチしている状態(以下、タッチオン(Touch-On)という)。
・タッチパネル109を指やペンがタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)という)。
・タッチパネル109へタッチしていた指やペンがタッチパネル109から離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)という)。
・タッチパネル109に何もタッチしていない状態(以下、タッチオフ(Touch-Off)という)。
タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
これらの操作・状態や、タッチパネル109上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。システム制御部50は通知された情報に基づいてタッチパネル109上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル109上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル109上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定される。タッチパネル109上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックという。フリックは、言い換えればタッチパネル109上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリ
ックが行われたと判定される(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトという。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)という。
ックが行われたと判定される(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトという。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)という。
<レンズユニットの構成>
図3は、レンズユニット300の構成を示す模式図である。図3では、レンズユニット300をカメラ100に装着した状態を示している。レンズユニット300を装着することで、カメラ100は、所定の視差を有する2つの画像領域を含む1つの画像(静止画または動画)を撮像できるようになる。なお、図3に示すカメラ100のうち、図2で説明した構成要素と同一の構成要素には、図2と同一の符号を付し、その構成要素の説明は適宜、省略する。
図3は、レンズユニット300の構成を示す模式図である。図3では、レンズユニット300をカメラ100に装着した状態を示している。レンズユニット300を装着することで、カメラ100は、所定の視差を有する2つの画像領域を含む1つの画像(静止画または動画)を撮像できるようになる。なお、図3に示すカメラ100のうち、図2で説明した構成要素と同一の構成要素には、図2と同一の符号を付し、その構成要素の説明は適宜、省略する。
レンズユニット300は、カメラ100に対して着脱可能な交換レンズユニットの一種である。レンズユニット300は、視差のある右像および左像を撮像可能な2眼レンズユニットである。レンズユニット300は2つの光学系を有し、2つの光学系それぞれで、略180度の広視野角の範囲を撮像できる。具体的に、レンズユニット300の2つの光学系それぞれで、左右方向(水平角度、方位角、ヨー角)180度、上下方向(垂直角度、仰俯角、ピッチ角)180度の視野分(画角分)の被写体を撮像できる。つまり、2つの光学系それぞれで、前方半球の範囲を撮像できる。
レンズユニット300は、複数のレンズと反射ミラー等を有する右眼光学系301R、複数のレンズと反射ミラー等を有する左眼光学系301L、レンズシステム制御回路303を有する。右眼光学系301Rは被写体側に配置されるレンズ302Rを有し、左眼光学系301Lは被写体側に配置されるレンズ302Lを有する。レンズ302Rとレンズ302Lは同じ方向を向いており、それらの光軸は略平行である。
レンズユニット300は、2眼立体視が可能なVR(Virtual Reality)画像のフォーマットの1つであるVR180の画像を得るための2眼レンズユニット(VR180レンズユニット)である。レンズユニット300は、右眼光学系301Rおよび左眼光学系301Lのそれぞれに、略180度の範囲を捉えることが可能な魚眼レンズを有する。なお、右眼光学系301Rおよび左眼光学系301Lのそれぞれが有するレンズで捉えることが可能な範囲は、180度の範囲よりも狭い160度程度であってもよい。レンズユニット300は、右眼光学系301Rを介して形成される右像と、左眼光学系301Lを介して形成される左像とを、レンズユニット300が装着されたカメラの1つの撮像素子上に結像することができる。
レンズユニット300は、レンズマウント部304と、カメラ100のカメラマウント部305とを介して、カメラ100に装着される。こうすることで、カメラ100の通信端子124と、レンズユニット300の通信端子306とを介して、カメラ100のシステム制御部50とレンズユニット300のレンズシステム制御回路303とが電気的に接続される。
図3では、右眼光学系301Rを介して形成される右像と、左眼光学系301Lを介して形成される左像とが、並んでカメラ100の撮像部211に結像される。すなわち、右眼光学系301Rおよび左眼光学系301Lにより、1つの撮像素子(撮像センサ)の2つの領域に2つの光学像がそれぞれ結像される。撮像部211は、結像された被写体像(光信号)をアナログ電気信号に変換する。このようにレンズユニット300を用いることで、右眼光学系301Rと左眼光学系301Lとの2つの箇所(光学系)から、視差があ
る2つの画像領域を含む1つの画像を取得することができる。取得された画像を左眼用の画像と右眼用の画像とに分割してVR表示することで、ユーザーは略180度の範囲の立体的なVR画像を視聴することができる。つまり、ユーザーは、VR180の画像を立体視することができる。
る2つの画像領域を含む1つの画像を取得することができる。取得された画像を左眼用の画像と右眼用の画像とに分割してVR表示することで、ユーザーは略180度の範囲の立体的なVR画像を視聴することができる。つまり、ユーザーは、VR180の画像を立体視することができる。
実施形態1では、右眼光学系301Rの構成と左眼光学系301Lの構成とが同じであるとする。こうすることで、後述の演算を簡易化できる。なお、右眼光学系301Rの構成と左眼光学系301Lの構成とは異なっていてもよい。
ユーザーは、撮影を行う際に、撮像部211で得られた画像を表示部108(またはEVF217)で確認しながら、ピント調整部であるピント調整光学系307Rやピント調整光学系307Lを駆動させて右像や左像のピント調整を行うことができる。ユーザーは、ピント調整光学系307Rを駆動させることで、右像のピントを調整することができ、ピント調整光学系307Lを駆動させることで、左像のピントを調整することができる。ピント調整光学系307Rとピント調整光学系307Lは、それら両方を同時に駆動させる両眼フォーカシングリング機構によって駆動させることができる。また、ピント調整光学系307Rとピント調整光学系307Lは、それらのうちの一方のみを駆動させる片眼フォーカシングリング機構によっても駆動させることができる。例えば、被写界深度が深い撮影では、両眼フォーカシングリング機構によるピント調整のみが行われる。被写界深度が浅い撮影では、両眼フォーカシングリング機構によるピント調整が行われた後、よりピントの合った画像が得られるよう、片眼フォーカシングリング機構によるピント調整がさらに行われる。ピント調整は、レンズユニット300の外装に設けられた操作リング(不図示)を操作して行われてもよいし、カメラ100を操作して行われてもよい。カメラ100を操作する場合には、カメラ100のシステム制御部50からレンズユニット300のレンズシステム制御回路303に指示が送られる。そして、レンズシステム制御回路303が電子的にピント調整光学系307Rやピント調整光学系307Lを駆動させる。
また、ユーザーは、撮影を行う際に、右眼光学系301Rの可変絞り308R、左眼光学系301Lの可変絞り308Lを駆動させて、右像や左像の露出調整を行うことができる。ユーザーは、可変絞り308Rを駆動させることで、右像の露出を調整することができ、可変絞り308Lを駆動させることで、左像の露出を調整することができる。可変絞り308Rと可変絞り308Lは、それら両方を同時に駆動させる両眼絞り調整機構によって駆動させることができる。また、可変絞り308Rと可変絞り308Lは、それらのうちの一方のみを駆動させる片眼絞り調整機構によっても駆動させることができる。
<撮像面位相差検出>
撮像部211では、撮像面位相差AFを可能にするために、アレイ状に並べられた複数の画素部のそれぞれが、1つのマイクロレンズに対して光電変換部(受光部)であるフォトダイオードを2つ保持している。これにより、各画素部で、レンズユニット300の射出瞳を分割して光束を受光することができる。
撮像部211では、撮像面位相差AFを可能にするために、アレイ状に並べられた複数の画素部のそれぞれが、1つのマイクロレンズに対して光電変換部(受光部)であるフォトダイオードを2つ保持している。これにより、各画素部で、レンズユニット300の射出瞳を分割して光束を受光することができる。
図4(A),4(B)は、画像センサの受光面の一部を示す模式図である。図4(A)は参考例として画像センサの受光面の一部を示し、図4(B)は撮像部211の受光面の一部を示す。図4(A)では、赤(R)、青(B)、緑(Gb,Gr)のカラーフィルターが、ベイヤー配列で並んでいる。図4(B)では、カラーフィルターの配列が図4(A)と同様であり、各画素部が1つのマイクロレンズに対して2つのフォトダイオードを保持している。
図4(B)に示すような構成を有する画像センサは、各画素部から位相差検出用の2つの信号(A像信号とB像信号)を出力できるようになっている。また、2つのフォトダイ
オードの信号を加算した撮像用の信号(A像信号+B像信号)も出力できるようになっている。この加算した信号として、図4(A)に示す画像センサの出力と同等の信号が出力される。
オードの信号を加算した撮像用の信号(A像信号+B像信号)も出力できるようになっている。この加算した信号として、図4(A)に示す画像センサの出力と同等の信号が出力される。
不図示の測距部は、このような撮像部211からの出力信号を使って測距演算を実行し、その結果をシステム制御部50に出力する。例えば、測距部は、2つの像信号の相関演算を行い、デフォーカス量や各種信頼性などの情報を算出する。測距部は、A像信号とB像信号のズレに基づき、像面でのデフォーカス量を算出する。デフォーカス量が正の値であるか負の値であるかによって、前ピンか後ピンかがわかる。また、デフォーカス量の絶対値によって、合焦までの度合いが分かり、デフォーカス量が0であれば合焦である。測距部は、測距位置(測距領域、焦点検出位置、焦点検出領域)について算出したデフォーカス量の正負に基づいて、前ピンか後ピンかの情報をシステム制御部50などに出力する。また、測距部は、デフォーカス量の絶対値に基づいて、合焦の度合い(ピントのズレの度合い)である合焦度合い情報をシステム制御部50などに出力する。前ピンか後ピンかの情報は、デフォーカス量が所定値を超える場合に出力し、デフォーカス量の絶対値が所定値以内である場合には、合焦であるという情報を出力する。なお、合焦度合い情報は、デフォーカス量を、合焦させるのに必要な両眼フォーカシングリング機構あるいは片眼フォーカシングリング機構の回転量(操作量)に換算して出力する。
なお、実施形態1では、撮像部211が、撮像用の信号と、位相差検出用の2つの像信号との計3つの信号を出力するとするが、これに限られない。例えば、撮像部211が3つの信号のうちの2つを出力するようにしてもよい。この場合、残り1つの信号は、撮像部211からの2つの信号を用いて算出される。
また、実施形態1では、各画素部が1つのマイクロレンズに対して2つのフォトダイオードを保持しているとしたが、これに限られない。各画素部が、1つのマイクロレンズに対して3つ以上のフォトダイオードを保持していてもよい。また、撮像部211が、マイクロレンズに対して受光部の開口位置が異なる複数の画素部を有するようにしてもよい。A像信号とB像信号といった位相差検出用の2つの信号が得られれば、撮像部211の構成は特に限定されない。
<インジケーター機能>
実施形態1に係るインジケーター(ガイドアイテム、表示アイテム)の表示形態について、図5(A)~図5(E)を用いて説明する。インジケーターは、例えばフォーカスガイド(ピント調整を補助する枠)や顔枠などを含む。
実施形態1に係るインジケーター(ガイドアイテム、表示アイテム)の表示形態について、図5(A)~図5(E)を用いて説明する。インジケーターは、例えばフォーカスガイド(ピント調整を補助する枠)や顔枠などを含む。
実施形態1では、フォーカスガイドはライブ画像(ライブ画像領域)に重ねて表示される。フォーカスガイドは、当該フォーカスガイドの表示位置(後述するフォーカス枠で示された領域)におけるピント状態(合焦度合い)を示す。例えば、フォーカスガイドの表示位置に対して取得されたデフォーカス量に基づいて、当該表示位置におけるピント状態が示される。より詳しくは、撮像部211に配置された、デフォーカス量を取得可能な複数の画素のうち、フォーカスガイドの表示位置に対応する範囲内の1つ以上の画素からの出力値に基づいて算出されたデフォーカス量を用いて、ピント状態が示される。デフォーカス量を取得可能な画素は、撮像面位相差検出の可能な画素と捉えることもできる。このように、フォーカスガイドは、ライブ画像に写る被写体のうち、フォーカスガイドの表示位置に写る被写体のフォーカスに関する情報を示す。
図5(A)は、インジケーターの第1の表示形態を示す。図5(A)のインジケーターはフォーカスガイド(後述するメインガイド)であり、フォーカス枠500と表示パーツ501,502を含む。図5(A)は、フォーカス枠500で示された被写体に合焦して
いると判定された状態を示す。合焦と判定された状態では、外側の表示パーツ501と内側の表示パーツ502とが、フォーカス枠500に対して同じ方向に表示される。図5(A)では、表示パーツ501,502がフォーカス枠500の上部で停止している。このような表示パーツ501,502により、フォーカス枠500で示された被写体に合焦していることが示される。表示パーツ501,502は、他の状態での表示パーツの色(例えば白やグレー)と異なる色(例えば緑)で表示されてもよい。表示パーツ501は、後述する2つの表示パーツ507,508を統合した1つの表示パーツである。表示パーツ502は、後述する2つの表示バーツ504,505を統合した1つの表示パーツである。
いると判定された状態を示す。合焦と判定された状態では、外側の表示パーツ501と内側の表示パーツ502とが、フォーカス枠500に対して同じ方向に表示される。図5(A)では、表示パーツ501,502がフォーカス枠500の上部で停止している。このような表示パーツ501,502により、フォーカス枠500で示された被写体に合焦していることが示される。表示パーツ501,502は、他の状態での表示パーツの色(例えば白やグレー)と異なる色(例えば緑)で表示されてもよい。表示パーツ501は、後述する2つの表示パーツ507,508を統合した1つの表示パーツである。表示パーツ502は、後述する2つの表示バーツ504,505を統合した1つの表示パーツである。
図5(B)は、インジケーターの第2の表示形態を示し、図5(C)は、インジケーターの第3の表示形態を示す。図5(B),5(C)のインジケーターはフォーカスガイドである。図5(B),5(C)は、フォーカス枠500で示された被写体に合焦していないと判定されたが、焦点検出結果の信頼度が高い状態を示す。この場合には、フォーカスガイドは、焦点位置とデフォーカス量を示す。焦点位置とデフォーカス量の提示は、フォーカス枠500で示された被写体に合焦させるための焦点位置の調整方向と調整量の提示と捉えることもできる。
図5(B)は、被写体よりも至近側にピントが合っている前ピンの状態を示す。図5(B)では、外側の表示パーツ503は、図5(A)の表示パーツ501と同様に、フォーカス枠500の上部で停止しているが、図5(A)の表示パーツ502は、表示パーツ504,505に分離して表示されている。表示パーツ504,505は、フォーカス枠500を囲む円周上を沿って移動し、図5(A)の表示パーツ502の位置に対して左右対称に配置される。表示パーツ502が表示パーツ504,505に分離されていることは、前ピンを意味し、表示パーツ504と表示パーツ505の間の距離は、デフォーカス量を示す。デフォーカス量の大きさ(絶対値)が大きいほど、表示パーツ504と表示パーツ505は表示パーツ503の位置(基準位置)から離れ、表示パーツ504と表示パーツ505の間の距離は長くなる。表示パーツ504,505は、例えば白で表示される。
図5(C)は、被写体よりも無限遠側にピントが合っている後ピンの状態を示す。図5(C)では、内側の表示パーツ506は、図5(A)の表示パーツ502と同様に、フォーカス枠500の上部に停止しているが、図5(A)の表示パーツ501は、表示パーツ507,508に分離して表示されている。表示パーツ507,508は、フォーカス枠500を囲む円周上を沿って移動し、図5(A)の表示パーツ501の位置に対して左右対称に配置される。表示パーツ501が表示パーツ507,508に分離されていることは、後ピンを意味し、表示パーツ507と表示パーツ508の間の距離は、デフォーカス量を示す。デフォーカス量の大きさ(絶対値)が大きいほど、表示パーツ507と表示パーツ508は表示パーツ506の位置(基準位置)から離れ、表示パーツ507と表示パーツ508の間の距離は長くなる。表示パーツ507,508は、例えば白で表示される。
このように、図5(B),5(C)では、図5(A)の表示パーツ501,表示パーツ502のどちらが2つに分離されているかで、焦点位置や、焦点位置の調整方向が示される。そして、分離した2つの表示パーツの間の距離によって、デフォーカス量や、焦点位置の調整量が示される。
図5(D)は、インジケーターの第4の表示形態を示す。図5(D)のインジケーターはフォーカスガイドであり、フォーカス枠500と表示パーツ509~511を含む。図5(D)は、焦点検出結果の信頼度が低い大ボケの状態を示す。表示パーツ509~511は、他の状態での表示パーツの態様と異なる態様で表示される。図5(D)では、表示
パーツ509~511は、他の状態での表示パーツの色(例えば白や緑)と異なる色(例えばグレー)で表示されている。また、フォーカス枠500に対する表示パーツ509~511の位置は、所定位置で固定されている。そして、表示パーツ509~511は、他の状態での表示パーツの形状(例えば三角形)と異なる形状(例えば四角形)で表示されている。このような表示パーツ509~511により、焦点位置もデフォーカス量も示されず、焦点検出ができていない(焦点検出結果の信頼度が低い)ことが示される。
パーツ509~511は、他の状態での表示パーツの色(例えば白や緑)と異なる色(例えばグレー)で表示されている。また、フォーカス枠500に対する表示パーツ509~511の位置は、所定位置で固定されている。そして、表示パーツ509~511は、他の状態での表示パーツの形状(例えば三角形)と異なる形状(例えば四角形)で表示されている。このような表示パーツ509~511により、焦点位置もデフォーカス量も示されず、焦点検出ができていない(焦点検出結果の信頼度が低い)ことが示される。
図5(E)は、インジケーターの第5の表示形態を示す。図5(E)のインジケーターは顔枠512(顔検出枠)を含む。顔検出は、撮像部211で撮像された画像(ライブ画像など)を解析して、当該画像から特定の被写体(例えば人物)の顔を検出する処理である。例えば、画像処理部214で得られた入力画像に対して、エッジ検出フィルタやノイズ除去フィルタなどを用いたフィルタリングを行う。そして、フィルタ処理後の画像に対してパターンマッチングを行うことで、瞳、鼻、口、耳などのパーツの候補群を抽出する。そして、候補群から、検出信頼度、パーツ間の距離、ペア情報(瞳、耳)などの特徴量を算出し、その特徴量に基づいて顔に該当する領域を特定する。パターマッチングおよびフィルタリングのプログラムは、予め不揮発性メモリ219に格納されており、このプログラムは必要に応じてシステムメモリ218に展開され、システム制御部50により実行される。顔検出を行う専用回路が用意されてもよい。顔枠512は、顔を示すようにライブ画像に重ねて表示される。
なお、インジケーターの表示形態は、図5(A)~5(E)に示す表示形態に限られない。また、撮像部211から得られる信号(撮像面位相差信号)に基づいて算出されたデフォーカス量からピント状態(合焦度合い)を判断する例を説明したが、ピント状態の判断方法はこれに限られない。撮像面とは異なる場所に設けられた焦点検出センサ(位相差センサ等)からの出力値に基づいてピント状態を判断してもよいし、撮像された画像のコントラスト値に基づいてピント状態を判断してもよい。
フォーカスガイドは、1つのライブ画像(ライブ画像領域)に対して複数表示されてもよい。例えば、ライブ画像に対して、ピント調整対象であるフォーカスガイド(メインガイド)と、ピント調整の対象でないフォーカスガイド(サブガイド)とを表示してもよい。メインガイドは、上述したように、フォーカス枠(メイン枠;フォーカス枠500)と、ピント状態を示す表示パーツ(表示パーツ501,502,504,505,507,508,509~511)とを含む。サブガイドは、メインガイドとは異なる種別のフォーカスガイドであり、フォーカス枠(サブ枠)を含むが、ピント状態を示す表示パーツは含まない。タッチパネル109に対するタッチ操作(例えばタップ)や方向キー110に対する操作などにより、メイン枠とサブ枠が切り替え可能であってもよい。サブ枠の有無はメニュー画面で切り替え可能であってもよい。
同様に、図5(E)の顔枠512は、1つのライブ画像(ライブ画像領域)に対して複数表示されてもよい。この場合、複数の顔枠512のうち、処理対象である顔枠512(メイン枠)に対して、表示パーツ513,514を表示し、メイン枠を、処理対象でない顔枠512(サブ枠)と区別する。顔枠512(メイン枠)と表示パーツ513,514を含むインジケーターは、顔枠512(サブ枠)を含むが表示パーツ513,514は含まないインジケーターと異なる種別のインジケーターと捉えることもできる。メイン枠に対しては、ピント状態を示す表示パーツをさらに表示してもよい。タッチパネル109に対するタッチ操作(例えばタップ)や方向キー110に対する操作などにより、メイン枠とサブ枠が切り替え可能であってもよい。サブ枠の有無はユーザーがメニュー画面で切り替え可能であってもよい。
<インジケーター操作>
図6(A)~6(C)を用いて、実施形態1に係るインジケーター操作と、それに応じた動作について説明する。図6(A)は、レンズユニット200(1眼レンズユニット)がカメラ100に装着されている状態で表示部108(またはEVF217)に表示されるライブ画像600を示す。図6(A)では、ライブ画像600に、フォーカス枠601と、ピント状態を示す表示パーツ611,612が重ねて表示されている。ライブ画像600の周縁部に、撮像パラメータや記録枚数、バッテリー残量などの各種情報を重ねて表示してもよい。
図6(A)~6(C)を用いて、実施形態1に係るインジケーター操作と、それに応じた動作について説明する。図6(A)は、レンズユニット200(1眼レンズユニット)がカメラ100に装着されている状態で表示部108(またはEVF217)に表示されるライブ画像600を示す。図6(A)では、ライブ画像600に、フォーカス枠601と、ピント状態を示す表示パーツ611,612が重ねて表示されている。ライブ画像600の周縁部に、撮像パラメータや記録枚数、バッテリー残量などの各種情報を重ねて表示してもよい。
図6(A)の状態からレンズ交換を行い、カメラ100にレンズユニット300(2眼レンズユニット)を装着したとする。そうすると、図6(B)に示すように、ライブ画像600では、左眼光学系301Lを介して撮像された画像領域(ライブ画像領域)と右眼光学系301Rを介して撮像された画像領域(ライブ画像領域)とが左右に並べて表示されるようになる。そして、実施形態1では、後述するインジケーター表示処理800が実行されることにより、図6(B)に示すように、右のライブ画像領域にフォーカス枠602が重ねて表示されると共に、左のライブ画像領域にフォーカス枠603が重ねて表示される。詳細は後述するが、フォーカス枠602とフォーカス枠603は互いに対応するように表示される。また、ピント状態を示す表示パーツが、フォーカス枠602,603それぞれに対して表示される。そして、図6(C)に示すように、タッチパネル109に対するタッチ操作(例えばタッチムーブ)などによりフォーカス枠602を移動させると、それに連動してフォーカス枠603も移動する。
別の方法として、ユーザーが左右のライブ画像領域それぞれにフォーカス枠を個別に設定して、それらフォーカス枠を個別に移動させるという方法が考えられる。しかしながら、左右のライブ画像領域それぞれにフォーカス枠を個別に設定したり、複数のフォーカス枠を個別に移動させたりするのは、ユーザーの手間となり、操作時間の増加をまねく。実施形態1に係る上記方法によれば、左右のライブ画像領域それぞれにフォーカス枠が自動で表示される。そして、ユーザーは複数のフォーカス枠を同時に(1回の操作で)移動させることができる。そのため、ユーザーの手間を軽減して、操作時間を短縮することができる。
上述したように、フォーカスガイドは、1つのライブ画像(ライブ画像領域)に対して複数表示されてもよい。そのような場合について、図7(A)~7(C)を用いて説明する。図7(A)は、レンズユニット200(1眼レンズユニット)がカメラ100に装着されている状態で表示部108(またはEVF217)に表示されるライブ画像700を示す。図7(A)では、ライブ画像700に、フォーカス枠として、メイン枠701とサブ枠702とが重ねて表示されている。メイン枠701に対しては、ピント状態を示す表示パーツ711,712が表示されている。メイン枠とサブ枠は切り替えることができる。例えば、メイン枠またはサブ枠をタッチすることで、メイン枠をサブ枠に切り替え、サブ枠をメイン枠に切り替えることができる。方向キー110に対する操作でメイン枠とサブ枠を切り替えることができてもよい。これにより、複数の箇所のAF操作を切り替えながら素早く行うことが可能となる。
図7(A)の状態からレンズ交換を行い、カメラ100にレンズユニット300(2眼レンズユニット)を装着したとする。そうすると、図7(B)に示すように、ライブ画像700では、左眼光学系301Lを介して撮像された画像領域(ライブ画像領域)と右眼光学系301Rを介して撮像された画像領域(ライブ画像領域)とが左右に並べて表示されるようになる。そして、実施形態1では、後述するインジケーター表示処理800が実行される。これにより、図7(B)に示すように、右のライブ画像領域にメイン枠721とサブ枠722が重ねて表示され、左のライブ画像領域にメイン枠731とサブ枠732が重ねて表示される。詳細は後述するが、メイン枠721とメイン枠731は互いに対応
するように表示され、サブ枠722とサブ枠732は互いに対応するように表示される。また、ピント状態を示す表示パーツが、メイン枠721,731それぞれに対して表示される。そして、図7(C)に示すように、タッチパネル109に対するタッチ操作(例えばタッチムーブ)などによりメイン枠721を移動させると、それに連動してメイン枠731も移動する。同様に、サブ枠722を移動させると、それに連動してサブ枠732も移動する。これにより、ユーザーの手間を軽減して、操作時間を短縮することができる。
するように表示され、サブ枠722とサブ枠732は互いに対応するように表示される。また、ピント状態を示す表示パーツが、メイン枠721,731それぞれに対して表示される。そして、図7(C)に示すように、タッチパネル109に対するタッチ操作(例えばタッチムーブ)などによりメイン枠721を移動させると、それに連動してメイン枠731も移動する。同様に、サブ枠722を移動させると、それに連動してサブ枠732も移動する。これにより、ユーザーの手間を軽減して、操作時間を短縮することができる。
なお、インジケーターの態様(色や線種など)を、当該インジケーターに関する操作が行われているか否かで異ならせてもよい。例えば、右眼光学系301Rの片眼フォーカシングリング機構の駆動を検知した場合に、右のライブ画像領域に表示されたインジケーターの色を特定の色に制御(変更)してもよい。そして、両眼フォーカシングリング機構の駆動を検知した場合に、左のライブ画像領域に表示されたインジケーターの色を特定の色に制御(変更)してもよい。こうすることで、ユーザーが自身の行っているピント調整を容易に把握できるようになり、ピント調整が行いやすくなる。色を制御するインジケーターは、メインインジケーター(メインガイド)のみであってもよいし、メインとサブの両方のインジケーター(メインガイドとサブガイド)であってもよい。
また、左眼光学系301Lの片眼フォーカシングリング機構の駆動を検知した場合に、左のライブ画像領域に表示されたインジケーターの色を特定の色に制御(変更)してもよい。この場合も、右眼光学系301Rの片眼フォーカシングリング機構の駆動を検知した場合に、右のライブ画像領域に表示されたインジケーターの色を特定の色に制御(変更)してもよい。そして、両眼フォーカシングリング機構の駆動を検知した場合に、左右両方のライブ画像領域に表示されたインジケーターの色を特定の色に制御(変更)してもよい。こうすることでも、ユーザーが自身の行っているピント調整を容易に把握できるようになり、ピント調整が行いやすくなる。
<インジケーター表示処理>
図8(A)は、静止画撮影モードや動画撮影モード等の撮影モード時におけるカメラ100の動作(インジケーター表示に関する動作、インジケーター表示処理800)を示すフローチャートである。この動作は、システム制御部50が不揮発性メモリ219に記録されたプログラムをシステムメモリ218に展開して実行することにより実現される。例えば、撮影モードでカメラ100が起動したり、カメラ100のモードが撮影モードに切り替えられたりすると、図8(A)の動作が開始する。以下では表示部108での表示が行われるものとするが、EVF217で以下の表示が行われてもよい。
図8(A)は、静止画撮影モードや動画撮影モード等の撮影モード時におけるカメラ100の動作(インジケーター表示に関する動作、インジケーター表示処理800)を示すフローチャートである。この動作は、システム制御部50が不揮発性メモリ219に記録されたプログラムをシステムメモリ218に展開して実行することにより実現される。例えば、撮影モードでカメラ100が起動したり、カメラ100のモードが撮影モードに切り替えられたりすると、図8(A)の動作が開始する。以下では表示部108での表示が行われるものとするが、EVF217で以下の表示が行われてもよい。
ステップS801では、システム制御部50は、通信端子206で受信したレンズ情報を判別し、カメラ100におけるレンズユニットの装着状態を判別(判定)する。カメラ100に1眼レンズユニット(レンズユニット200)が装着されている、またはカメラ100にレンズユニットが装着されていないと判定した場合は、ステップS809へ進む。そうでない場合(カメラ100に2眼レンズユニット(レンズユニット300)が装着されていると判定した場合)は、ステップS802へ進む。
ステップS809では、システム制御部50は、1眼レンズユニットのインジケーター表示処理を実行する。例えば、図6(A)のフォーカス枠601や、図7(A)のメイン枠701とサブ枠702などが、1眼レンズユニットを用いて得られたライブ画像に重ねて表示される。メイン枠に対しては、ピント状態を示す表示パーツも表示される。カメラ100にレンズユニットが装着されていない場合は、ライブ画像が表示されないため、インジケーター(フォーカス枠や表示パーツ)も表示されない。
上述したように、2眼レンズユニットを用いて得られたライブ画像は、左右に並んだ2
つのライブ画像領域を含む。ステップS802では、システム制御部50は、右のライブ画像領域にインジケーターを表示する。例えば、図6(B)のフォーカス枠602や、図7(B)のメイン枠721とサブ枠722などが、右のライブ画像領域に重ねて表示される。メイン枠に対しては、ピント状態を示す表示パーツも表示される。
つのライブ画像領域を含む。ステップS802では、システム制御部50は、右のライブ画像領域にインジケーターを表示する。例えば、図6(B)のフォーカス枠602や、図7(B)のメイン枠721とサブ枠722などが、右のライブ画像領域に重ねて表示される。メイン枠に対しては、ピント状態を示す表示パーツも表示される。
ステップS803では、システム制御部50は、左のライブ画像領域にインジケーターを表示する。例えば、図6(B)のフォーカス枠603や、図7(B)のメイン枠731とサブ枠732などが、左のライブ画像領域に重ねて表示される。メイン枠に対しては、ピント状態を示す表示パーツも表示される。右のライブ画像領域に表示したインジケーターに対応するように、左のライブ画像領域にインジケーターが表示される。左のライブ画像領域に表示するインジケーターの表示位置の決定方法については後述する。
なお、右のライブ画像領域にインジケーターを表示し、それに対応するように、左のライブ画像領域にインジケーターを表示するとしたが、それに限られない。例えば、左のライブ画像領域にインジケーターを表示し、それに対応するように、右のライブ画像領域にインジケーターを表示してもよい。
ステップS804では、システム制御部50は、ユーザーからの指示を待ち、ユーザーからの指示(例えばタッチパネル109に対するタッチムーブ)に従い、右のライブ画像領域または左のライブ画像領域におけるインジケーターの移動量を算出する。例えば、インジケーターを指でタッチしてタッチムーブが行われると、タッチムーブにおける指(タッチ位置)の移動量が、タッチされたインジケーターの移動量として算出される。
ステップS805では、システム制御部50は、連動量算出処理を行う。連動量算出処理では、右と左の一方のライブ画像領域におけるインジケーター(ステップS804で移動量を算出したインジケーター)の移動に連動して右と左の他方のライブ画像領域におけるインジケーターを移動させる際の連動量を算出する。連動量算出処理については、図8(B),8(C)を用いて後述する。ステップS804で移動量を算出したインジケーターは、ユーザーが指定したインジケーターと捉えることもできる。
ステップS806では、システム制御部50は、連動対象のインジケーター(連動して移動させるインジケーター)を判別するステップである。ステップS804で移動量を算出したインジケーター(ユーザーが指定したインジケーター)に対応する、逆側のインジケーターを選択する。例えば、ユーザーが右のライブ画像領域におけるインジケーターを指定して、ステップS804で右のライブ画像領域におけるインジケーターの移動量が算出された場合には、左のライブ画像領域におけるインジケーターを連動対象として選択する。同様に、ユーザーが左のライブ画像領域におけるインジケーターを指定して、ステップS804で左のライブ画像領域におけるインジケーターの移動量が算出された場合には、右のライブ画像領域におけるインジケーターを連動対象として選択する。右のライブ画像領域におけるインジケーターを連動対象として選択した場合は、ステップS807へ進む。そうでない場合(左のライブ画像領域におけるインジケーターを連動対象として選択した場合)は、ステップS808へ進む。
ステップS807では、システム制御部50は、ステップS805で算出した連動量で、右のライブ画像領域におけるインジケーターを移動させる。ステップS808では、システム制御部50は、ステップS805で算出した連動量で、左のライブ画像領域におけるインジケーターを移動させる。
<インジケーターの連動量算出処理>
インジケーターの連動量算出処理(図8(A)のステップS805)について説明する
。図8(B)は、連動量算出処理820のフローチャートである。ここでは、左のライブ画像領域におけるインジケーター(左インジケーター)をユーザーが移動させ、右のライブ画像領域におけるインジケーター(右インジケーター)を連動して移動させる例を説明するが、逆でもよい。
インジケーターの連動量算出処理(図8(A)のステップS805)について説明する
。図8(B)は、連動量算出処理820のフローチャートである。ここでは、左のライブ画像領域におけるインジケーター(左インジケーター)をユーザーが移動させ、右のライブ画像領域におけるインジケーター(右インジケーター)を連動して移動させる例を説明するが、逆でもよい。
ステップS821では、システム制御部50は、左インジケーターをステップS804で算出した移動量(移動ベクトル)で移動させ、左インジケーターの移動後の表示位置を取得する。表示位置の座標として、例えば、左のライブ画像領域の中心を原点とした座標が得られる。
ステップS822では、システム制御部50は、右インジケーターの移動後の表示位置を算出するために必要な各種情報を取得する。例えば、システム制御部50は、左インジケーターの表示位置(ライブ画像上での位置)を撮像位置(撮像部211上(撮像素子上)における位置)に変換する。撮像位置の座標として、例えば、左眼光学系301Lの光軸位置を原点とした座標X_Lが得られる。システム制御部50は、左眼光学系301Lと右眼光学系301Rの(共通の)焦点距離fも取得する。システム制御部50は、左インジケーターが示す被写体から左眼光学系301Lまたは右眼光学系301Rまでの距離G(被写体距離)、および右眼光学系301Rの光軸と左眼光学系301Lの光軸との間の距離L(光軸距離L)も取得する。焦点距離fと光軸距離Lは予め定められており、被写体距離Gは撮像部211の測距部によって計測される。
ステップS823では、システム制御部50は、右インジケーターの移動後の表示位置を算出し、移動前の表示位置から移動後の表示位置までの移動量(ベクトル量)を、連動量として算出する。
図9に、左眼光学系301Lを用いた場合の被写体の撮像位置P1と、右眼光学系301Rを用いた場合の被写体の撮像位置P2との関係を示す。図9には、焦点距離f、被写体距離G、および光軸距離Lが示されている。右眼光学系301Rの光軸位置を原点とした場合の撮像位置P1’の座標は、左眼光学系301Lの光軸位置を原点とした場合の撮像位置P1の座標と同じである。このとき、三角形T1と三角形T2は相似の関係にあるため、撮像位置P1’から撮像位置P2までの距離をDとすると、以下の式1が成り立つ。
G=(L×f)/D ・・・(式1)
G=(L×f)/D ・・・(式1)
右インジケーターの移動後の表示位置に対応する撮像位置の座標(右眼光学系301Rの光軸位置を原点とした座標)をX_Rとすると、座標X_Rと座標X_Lの差分(X_R-X_L)は、上述した距離Dに対応する。そのため、システム制御部50は、以下の式2を用いて、座標X_Rを算出することができる。そして、システム制御部50は、算出した座標X_Rから、右インジケーターの移動後の表示位置を決定することができる。表示位置の座標として、例えば、右のライブ画像領域の中心を原点とした座標が得られる。
X_R=X_L+(L×f)/G ・・・(式2)
X_R=X_L+(L×f)/G ・・・(式2)
連動量算出処理820によれば、左右インジケーター(左インジケーターと右インジケーター)の対応付けをより正確に行うことができる。例えば、左インジケーターで捕えている被写体を、右インジケーターでより確実に捕らえることができる。なお、座標X_Rとして右のライブ画像領域の外の座標を算出した場合には、左インジケーターや右インジケーターの色を変えたり、ポップアップ警告を表示部108に表示したりしてもよい。なお、図8(A)のステップS803でも、上述した方法と同様の方法で、左インジケーターの表示位置を決定することができる。
連動量算出処理(図8(A)のステップS805)の別の例を説明する。図8(C)は、連動量算出処理840のフローチャートである。図8(A)のステップS803では、例えば、右のライブ画像領域の中心を原点とした右インジケーターの座標と、左のライブ画像領域の中心を原点とした左インジケーターの座標とが一致するように、左インジケーターの表示位置が決定されるとする。この処理は、右のライブ画像領域に対する右インジケーターの相対位置と、左のライブ画像領域に対する左インジケーターの相対位置とが一致するように、左インジケーターの表示位置を決定する処理と捉えることもできる。その場合は、ステップS802で、右のライブ画像領域の中心に右インジケーターが表示されるのであれば、ステップS803では、左のライブ画像領域の中心に左インジケーターが表示される。
ステップS841では、システム制御部50は、左右インジケーターの相対的な位置関係の情報(相対位置情報)を取得する。例えば、左インジケーターの表示位置と右インジケーターの表示位置とから、相対位置情報を生成する。生成した相対位置情報はシステムメモリ218に格納し、次回処理時にシステムメモリ218から読み出して使用してもよい。相対位置情報は、例えば、左右インジケーターの一方から左右インジケーターの他方へ向かうベクトル量である。
ステップS842では、システム制御部50は、図8(A)のステップS804で移動量を算出したインジケーター(ユーザーが指定したインジケーター)が右インジケーターであるか左インジケーターであるかを判定する。左インジケーターと判定した場合はステップS843へ進み、右インジケーターと判定した場合はステップS845へ進む。
ステップS843では、システム制御部50は、左インジケーターをステップS804で算出した移動量(ベクトル量)で移動させる。ステップS844では、システム制御部50は、右インジケーターもステップS804で算出した移動量で移動するために、ステップS804で算出した移動量を連動量として決定する。ステップS843の移動後の左インジケーターの表示位置と、ステップS841で取得した相対位置情報とから、連動移動後の右インジケーターの表示位置を算出してもよい。そして、右インジケーターの現在の表示位置から、算出した表示位置までの移動量(ベクトル量)を、連動量として算出してもよい。
ステップS845では、システム制御部50は、右インジケーターをステップS804で算出した移動量(ベクトル量)で移動させる。ステップS846では、システム制御部50は、ステップS845の移動後の右インジケーターの表示位置に基づいて、システムメモリ218に格納されている相対位置情報を更新する。
連動量算出処理840によれば、撮像部211が測距部を有していなかったり、測距部の測距精度が劣る条件下であったりした場合でも、インジケーターの連動量を効率的に設定することが可能となる。なお、座標X_Rとして右のライブ画像領域の外の座標を算出した場合には、左インジケーターや右インジケーターの色を変えたり、ポップアップ警告を表示部108に表示したりしてもよい。
なお、撮像部211が測距部を有していなかったり、測距部の測距精度が劣る条件下であったりした場合であっても、被写体距離Gとして所定の距離を用いて、式2で示すような演算を行って、インジケーターの表示位置を決定してもよい。所定の距離は、例えば、VR表示で好適な立体視(例えば立体感が高くかつボケの少ない立体視)ができるような撮影距離である。
連動量算出処理840を行う場合は、左右インジケーターの相対的な位置関係が維持されながら、左インジケーターの移動に連動して右インジケーターの他方が移動することになる。そして、右インジケーターを移動させる際に、左インジケーターは連動して移動しないことになる。こうすることで、例えば、左右インジケーターを共に移動させた後に、右インジケーターの位置を微調整するといった操作が可能となる。なお、右インジケーターを移動させる際に、左インジケーターを連動して移動させてもよい。その場合は、左インジケーターを移動させる際に、左インジケーターは連動して移動させてもよいし、移動させなくてもよい。
〔実施形態2〕
本発明の実施形態2について説明する。実施形態2では、インジケーターに顔枠を用いる場合の例を説明する。カメラ100、レンズユニット200、及び、レンズユニット300の構成は、実施形態1と同じである。
本発明の実施形態2について説明する。実施形態2では、インジケーターに顔枠を用いる場合の例を説明する。カメラ100、レンズユニット200、及び、レンズユニット300の構成は、実施形態1と同じである。
<インジケーター操作>
図10(A),10(B)を用いて、実施形態2に係るインジケーター操作と、それに応じた動作について説明する。図10(A)は比較例を示す。図10(A)のライブ画像1000は、2眼レンズユニットを用いて得られたライブ画像である。ライブ画像1000の周縁部に、撮像パラメータや記録枚数、バッテリー残量などの各種情報を重ねて表示してもよい。左のライブ画像領域には、顔枠1001と、ピント状態を示す表示パーツ1011,1012が表示されている。左のライブ画像領域では、中央に顔が写っているため、顔の歪みが小さく、顔が検出できている。一方で、右のライブ画像領域では、視差によって顔が周縁部(右のライブ画像領域の周縁部)に寄っているため、顔の歪みが大きく、顔が検出できていない。
図10(A),10(B)を用いて、実施形態2に係るインジケーター操作と、それに応じた動作について説明する。図10(A)は比較例を示す。図10(A)のライブ画像1000は、2眼レンズユニットを用いて得られたライブ画像である。ライブ画像1000の周縁部に、撮像パラメータや記録枚数、バッテリー残量などの各種情報を重ねて表示してもよい。左のライブ画像領域には、顔枠1001と、ピント状態を示す表示パーツ1011,1012が表示されている。左のライブ画像領域では、中央に顔が写っているため、顔の歪みが小さく、顔が検出できている。一方で、右のライブ画像領域では、視差によって顔が周縁部(右のライブ画像領域の周縁部)に寄っているため、顔の歪みが大きく、顔が検出できていない。
図10(B)は、実施形態2の表示例を示す。後述するインジケーター表示処理1100が実行されることにより、右のライブ画像領域にも、顔枠1021と、ピント状態を示す表示パーツ1031~1033が表示される。図10(A)の例でも、ユーザーは、右のライブ画像領域にフォーカス枠を設定できれば、右のライブ画像領域でのピント状態を確認することができる。しかし、実施形態2では、ユーザーは、右のライブ画像領域にフォーカス枠を設定するという操作を行わなくても、右のライブ画像領域に顔枠(フォーカス枠)が自動で表示され、右のライブ画像領域のピント状態を確認することができる。
<インジケーター表示処理>
図11を用いて、実施形態2に係るインジケーター表示処理について説明する。図11は、実施形態2に係るインジケーター表示処理1100のフローチャートである。図11の動作は、システム制御部50が不揮発性メモリ219に記録されたプログラムをシステムメモリ218に展開して実行することにより実現される。例えば、撮影モードでカメラ100が起動したり、カメラ100のモードが撮影モードに切り替えられたりすると、図11の動作が開始する。以下では表示部108での表示が行われるものとするが、EVF217で以下の表示が行われてもよい。
図11を用いて、実施形態2に係るインジケーター表示処理について説明する。図11は、実施形態2に係るインジケーター表示処理1100のフローチャートである。図11の動作は、システム制御部50が不揮発性メモリ219に記録されたプログラムをシステムメモリ218に展開して実行することにより実現される。例えば、撮影モードでカメラ100が起動したり、カメラ100のモードが撮影モードに切り替えられたりすると、図11の動作が開始する。以下では表示部108での表示が行われるものとするが、EVF217で以下の表示が行われてもよい。
ステップS1101では、システム制御部50は、顔検出を行うか否かを判定する。顔検出を行うか否かは、例えば、事前に設定することができる。顔検出を行うと判定した場合はステップS801へ進み、そうでない場合(顔検出を行わないと判定した場合)はインジケーター表示処理1100を終了する。ステップS801において、カメラ100に1眼レンズユニット(レンズユニット200)が装着されている、またはカメラ100にレンズユニットが装着されていないと判定した場合は、実施形態1と同様に、ステップS809へ進む。そうでない場合(カメラ100に2眼レンズユニット(レンズユニット300)が装着されていると判定した場合)は、ステップS1102へ進む。
ステップS1102では、システム制御部50は、第1の関連付けが完了したか否かを判定する。第1の関連付けは、左顔検出枠(左のライブ画像領域から検出された顔を示す顔枠)に関連付けられた顔枠を右のライブ画像領域に設定する処理である。第1の関連付けが完了した、つまり全ての左顔検出枠について第1の関連付けが行われたと判定した場合はステップS1108へ進み、そうでない場合(第1の関連付けが完了していないと判定した場合)はステップS1103へ進む。
ステップS1103では、システム制御部50は、右顔枠(右のライブ画像領域における顔枠)が関連付けられていない左顔検出枠の表示位置を取得する。
ステップS1104では、システム制御部50は、図8(B)の連動量算出処理820と同様の方法で、ステップS1103で表示位置を取得した左顔検出枠に対応する右顔枠の表示位置を算出(推定)する。
ステップS1105では、システム制御部50は、ステップS1104で算出した表示位置(その近傍を含んでもよい)に右顔枠があるか否かを判定する。この処理は、ステップS1104で算出した表示位置で顔が検出されているか否かを判定する処理と捉えることもできる。右顔枠がある(顔が検出されている)と判定した場合はステップS1107へ進み、そうでない場合(右顔枠がない(顔が検出されていない)と判定した場合)はステップS1106へ進む。
ステップS1106では、システム制御部50は、ステップS1104で算出した表示位置に右顔枠を設定する。例えば、ステップS1104で算出した表示位置で顔が検出されていなくても、顔が検出されたとみなされるように、右のライブ画像領域に対する顔検出の結果を管理するリストを更新する。
ステップS1107では、システム制御部50は、ステップS1103で表示位置を取得した左顔検出枠と、ステップS1104で算出した表示位置の右顔枠とを互いに関連付ける。
ステップS1108では、システム制御部50は、第2の関連付けが完了したか否かを判定する。第2の関連付けは、右顔検出枠(右のライブ画像領域から検出された顔を示す顔枠)に関連付けられた顔枠を左のライブ画像領域に設定する処理である。第2関連付けは、左顔検出枠が関連付けられていない右顔検出枠に対して行われる。第2の関連付けが完了した、つまり左顔検出枠が関連付けられていない全ての右顔検出枠について第2の関連付けが行われたと判定した場合は、インジケーター表示処理1100を終了する。そうでない場合(第2の関連付けが完了していないと判定した場合)は、ステップS1109へ進む。
ステップS1109では、システム制御部50は、左顔枠(左のライブ画像領域における顔枠)が関連付けられていない右顔検出枠の表示位置を取得する。
ステップS1110では、システム制御部50は、図8(B)の連動量算出処理820と同様の方法で、ステップS1109で表示位置を取得した右顔検出枠に対応する左顔枠の表示位置を算出する。
ステップS1111では、システム制御部50は、ステップS1110で算出した表示位置(その近傍を含んでもよい)に左顔枠があるか否かを判定する。この処理は、ステップS1110で算出した表示位置で顔が検出されているか否かを判定する処理と捉えるこ
ともできる。左顔枠がある(顔が検出されている)と判定した場合はステップS1113へ進み、そうでない場合(左顔枠がない(顔が検出されていない)と判定した場合)はステップS1112へ進む。
ともできる。左顔枠がある(顔が検出されている)と判定した場合はステップS1113へ進み、そうでない場合(左顔枠がない(顔が検出されていない)と判定した場合)はステップS1112へ進む。
ステップS1112では、システム制御部50は、ステップS1110で算出した表示位置に左顔枠を設定する。例えば、ステップS1110で算出した表示位置で顔が検出されていなくても、顔が検出されたとみなされるように、左のライブ画像領域に対する顔検出の結果を管理するリストを更新する。
ステップS1113では、システム制御部50は、ステップS1109で表示位置を取得した右顔検出枠と、ステップS1110で算出した表示位置の右顔枠とを互いに関連付ける。
実施形態2によれば、左顔検出枠に対応する右顔枠の表示位置に右顔枠が存在する場合には、当該存在する右顔枠が、左顔検出枠に対応する右顔枠として認識される。そして、左顔検出枠に対応する右顔枠の表示位置に右顔枠が存在しない場合には、当該表示位置に右顔枠を表示するように制御される。同様に、右顔検出枠に対応する左顔枠の表示位置に左顔枠が存在する場合には、当該存在する左顔枠が、右顔検出枠に対応する左顔枠として認識される。そして、右顔検出枠に対応する左顔枠の表示位置に左顔枠が存在しない場合には、当該表示位置に左顔枠を表示するように制御される。こうすることで、インジケーターに顔枠を用いていても、インジケーターが顔枠であっても、ユーザーの手間を軽減して好適にインジケーターを表示することができる。
なお、ユーザーが好む操作性に応じて種々の変更が可能である。例えば、1眼レンズユニット装着時には、複数の顔枠の間でのオートフォーカス処理対象の切り替えを、方向キー110で行うことができる。2眼レンズユニット装着時には、図10(C)に示すように、方向キー110の操作で、左のライブ画像領域での処理対象の切り替えと、右のライブ画像領域での処理対象の切り替えとが互いに連動して(リンクして)行われてもよい。方向キー110の操作で、左のライブ画像領域での処理対象の切り替えと、右のライブ画像領域での処理対象の切り替えとの一方が行われてもよい。その場合は、方向キー110の操作で処理対象を切り替えるライブ画像領域が、タッチパネル109に対するタッチ操作(例えば、処理対象を切り替えたいライブ画像領域へのタップ)で切り替えられてもよい。また、顔枠の色や線種、添え字などで、顔枠の関連付けが識別可能な表示を行ってもよい。
〔実施形態3〕
本発明の実施形態3について説明する。実施形態3では、連動して表示するインジケーターは、サブインジケーター(サブガイド)である。そして、サブインジケーターを表示するか否かを設定することができるが、サブインジケーターを表示しない設定がされていた場合でも、サブインジケーターを連動して表示する。カメラ100、レンズユニット200、及び、レンズユニット300の構成は、実施形態1と同じである。
本発明の実施形態3について説明する。実施形態3では、連動して表示するインジケーターは、サブインジケーター(サブガイド)である。そして、サブインジケーターを表示するか否かを設定することができるが、サブインジケーターを表示しない設定がされていた場合でも、サブインジケーターを連動して表示する。カメラ100、レンズユニット200、及び、レンズユニット300の構成は、実施形態1と同じである。
<インジケーター操作>
図12(A)~12(C)を用いて、実施形態3に係るインジケーター操作と、それに応じた動作について説明する。図12(A)は、レンズユニット200(1眼レンズユニット)がカメラ100に装着されている状態で表示部108(またはEVF217)に表示されるライブ画像1200を示す。図12(A)では、ライブ画像1200に、フォーカス枠として、メイン枠1201が重ねて表示されている。メイン枠1201に対しては、ピント状態を示す表示パーツ1211,1212が表示されている。サブインジケーターを表示しない設定がされているため、サブ枠は表示されていない。例えば、ユーザーは
、サブインジケーターを表示するか否かを、撮影シーンに応じてメニュー画面で切り替えることができる。なお、サブインジケーターを表示する設定がされている場合には、サブ枠も表示される。メイン枠とサブ枠は、タッチ操作やキー操作などのメイン/サブ入替操作で入れ替えることができる。
図12(A)~12(C)を用いて、実施形態3に係るインジケーター操作と、それに応じた動作について説明する。図12(A)は、レンズユニット200(1眼レンズユニット)がカメラ100に装着されている状態で表示部108(またはEVF217)に表示されるライブ画像1200を示す。図12(A)では、ライブ画像1200に、フォーカス枠として、メイン枠1201が重ねて表示されている。メイン枠1201に対しては、ピント状態を示す表示パーツ1211,1212が表示されている。サブインジケーターを表示しない設定がされているため、サブ枠は表示されていない。例えば、ユーザーは
、サブインジケーターを表示するか否かを、撮影シーンに応じてメニュー画面で切り替えることができる。なお、サブインジケーターを表示する設定がされている場合には、サブ枠も表示される。メイン枠とサブ枠は、タッチ操作やキー操作などのメイン/サブ入替操作で入れ替えることができる。
図12(A)の状態からレンズ交換を行い、カメラ100にレンズユニット300(2眼レンズユニット)を装着したとする。そうすると、図12(B)に示すように、ライブ画像1200では、左眼光学系301Lを介して撮像された画像領域(ライブ画像領域)と右眼光学系301Rを介して撮像された画像領域(ライブ画像領域)とが左右に並べて表示されるようになる。そして、実施形態3では、後述するインジケーター表示処理1300が実行される。これにより、図12(B)に示すように、サブインジケーターを表示しない設定がされていた場合でも、右のライブ画像領域にメイン枠1221が重ねて表示され、左のライブ画像領域にサブ枠1231が重ねて表示される。メイン枠1221とサブ枠1231は互いに対応するように表示される。また、ピント状態を示す表示パーツが、メイン枠1221に対して表示される。そして、図12(C)に示すように、タッチパネル109に対するタッチ操作(例えばタッチムーブ)などによりメイン枠1221を移動させると、それに連動してサブ枠1231も移動する。また、メイン枠とサブ枠は、タッチ操作やキー操作などのメイン/サブ入替操作で入れ替えることができる。このため、ユーザーの手間を軽減して、操作時間を短縮することができる。
また、1眼レンズユニットを用いて得られたライブ画像を表示する際にも、1つのメインインジケーターと1つ以上のサブインジケーターを表示することができる。2眼レンズユニットを用いて得られたライブ画像を表示する際にも、メインインジケーターは1つしか表示されないため、1眼レンズユニットを用いる場合の処理を利用でき、不揮発性メモリ219の容量の増加を抑制することができる。ピント状態を示す表示パーツを一方のライブ画像領域にのみ表示することで、処理負荷を低減することができる。なお、左右両方のライブ画像領域のピント状態を同時に確認したい場合には、図6(B)に示すように、左右両方のライブ画像領域にメインインジケーター(メイン枠、およびピント状態を示す表示パーツ)を表示すればよい。
<インジケーター表示処理>
図13を用いて、実施形態3に係るインジケーター表示処理について説明する。図13は、実施形態3に係るインジケーター表示処理1300のフローチャートである。図13の動作は、システム制御部50が不揮発性メモリ219に記録されたプログラムをシステムメモリ218に展開して実行することにより実現される。例えば、撮影モードでカメラ100が起動したり、カメラ100のモードが撮影モードに切り替えられたりすると、図13の動作が開始する。以下では表示部108での表示が行われるものとするが、EVF217で以下の表示が行われてもよい。また、図13において、図8(実施形態1)と同じ処理には、図8と同じ符号を付し、その説明は省略する。
図13を用いて、実施形態3に係るインジケーター表示処理について説明する。図13は、実施形態3に係るインジケーター表示処理1300のフローチャートである。図13の動作は、システム制御部50が不揮発性メモリ219に記録されたプログラムをシステムメモリ218に展開して実行することにより実現される。例えば、撮影モードでカメラ100が起動したり、カメラ100のモードが撮影モードに切り替えられたりすると、図13の動作が開始する。以下では表示部108での表示が行われるものとするが、EVF217で以下の表示が行われてもよい。また、図13において、図8(実施形態1)と同じ処理には、図8と同じ符号を付し、その説明は省略する。
ステップS1301では、システム制御部50は、サブインジケーターを表示するように設定する。こうすることで、2眼レンズユニットが装着される前に、サブインジケーターを表示しない設定がされていたとしても、サブインジケーターを表示する設定に強制的に変更される。このとき、変更前の設定値を保持しておき、2眼レンズユニットが取り外された後に、変更前の設定値で設定を戻してもよい。設定は変更せずに、サブインジケーターを強制的に表示するようにしてもよい。
ステップS1302では、システム制御部50は、右のライブ画像領域にメインインジケーターを表示する。ステップS1303では、システム制御部50は、左のライブ画像領域にサブインジケーターを表示する。
なお、右のライブ画像領域にメインインジケーターを表示し、それに対応するように、左のライブ画像領域にサブインジケーターを表示するとしたが、それに限られない。例えば、左のライブ画像領域にメインインジケーターを表示し、それに対応するように、右のライブ画像領域にサブインジケーターを表示してもよい。
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
例えば、インジケーターがフォーカスガイド枠や顔枠を含む例を説明したが、インジケーターは、自動露出調整を行う範囲を定める自動露出枠など、露出調整を補助する枠を含んでもよい。また、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。
また、本発明は、カメラ(撮像装置)に限られず、撮像された画像にインジケーターを重ねて表示するように制御できる電子機器であれば適用可能である。例えば、本発明は、PDA、携帯電話端末や携帯型の画像ビューワ、プリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。また、本発明は、映像プレーヤー、表示装置(投影装置を含む)、タブレット端末、スマートフォン、AIスピーカー、家電装置や車載装置などに適用可能である。標準レンズや広角レンズ、ズームレンズなどのように種別の異なる複数の光学系を有する多眼のスマートフォンなどにも、本発明は適用可能である。そのようにした場合でも、使用する2つの光学系の焦点距離(ズーム倍率)を合わせて(共通にして)撮影を行えば、立体視可能な画像を得ることができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:デジタルカメラ 50:システム制御部
Claims (14)
- 撮像素子により撮像された画像を取得する取得手段と、
ユーザーによる操作を受け付ける操作手段と、
前記取得手段により取得された前記画像を表示するように制御し、当該画像にインジケーターを重ねて表示するように制御する表示制御手段と
を有し、
前記取得手段により、第1の光学系を介して撮像された第1の画像領域と、第2の光学系を介して撮像された第2の画像領域とが並んだ画像が取得された場合に、
前記表示制御手段は、
前記第1の画像領域に第1のインジケーターを重ねて表示するように制御し、
前記第2の画像領域に第2のインジケーターを重ねて表示するように制御し、
前記ユーザーにより、前記第1のインジケーターと前記第2のインジケーターとの一方を移動させる操作が行われたことに応じて、前記第1のインジケーターと前記第2のインジケーターとの一方を移動するように制御し、
前記第1のインジケーターと前記第2のインジケーターとの一方の移動に連動して前記第1のインジケーターと前記第2のインジケーターとの他方を移動するように制御することを特徴とする電子機器。 - 前記第1の画像領域と前記第2の画像領域とが並んだ前記画像は、前記第1の光学系と前記第2の光学系とを含むレンズユニットを用いて撮像された画像である
ことを特徴とする請求項1に記載の電子機器。 - 前記表示制御手段は、
前記第1のインジケーターの表示位置から、前記撮像素子上における前記第1のインジケーターの第1の位置を決定し、
前記撮像素子上における前記第1のインジケーターの第1の位置と、前記第1の光学系と前記第2の光学系との共通の焦点距離と、前記第1のインジケーターが示す被写体から前記第1の光学系または前記第2の光学系までの距離と、前記第1の光学系の光軸と前記第2の光学系の光軸との間の距離とから、前記撮像素子上における前記第2のインジケーターの第2の位置を決定し、
前記第2の位置から前記第2のインジケーターの表示位置を決定する
ことを特徴とする請求項1または2に記載の電子機器。 - 前記表示制御手段は、前記第1のインジケーターと前記第2のインジケーターとの相対的な位置関係を維持しながら、前記第1のインジケーターと前記第2のインジケーターとの一方の移動に連動して前記第1のインジケーターと前記第2のインジケーターとの他方を移動するように制御する
ことを特徴とする請求項1または2に記載の電子機器。 - 前記第1のインジケーターと第2のインジケーターとは、ピント調整を補助する枠を含む
ことを特徴とする請求項1~4のいずれか1項に記載の電子機器。 - 前記第1のインジケーターと第2のインジケーターとの少なくとも一方は、ピント状態を示す
ことを特徴とする請求項5に記載の電子機器。 - 前記第1のインジケーターと第2のインジケーターとは、顔枠を含み、
前記表示制御手段は、
前記第1のインジケーターの表示位置から、前記撮像素子上における前記第1のインジケーターの第1の位置を決定し、
前記撮像素子上における前記第1のインジケーターの第1の位置と、前記第1の光学系と前記第2の光学系とに共通の焦点距離と、前記第1のインジケーターが示す被写体から前記第1の光学系または前記第2の光学系までの距離と、前記第1の光学系の光軸と前記第2の光学系の光軸との間の距離とから、前記撮像素子上における前記第2のインジケーターの第2の位置を決定し、
前記第2の位置から前記第2のインジケーターの表示位置を決定し、
前記第2のインジケーターの表示位置に顔枠が存在する場合には、当該顔枠を第2のインジケーターとして認識し、
前記第2のインジケーターの表示位置に顔枠が存在しない場合には、当該表示位置に前記第2のインジケーターを表示するように制御する
ことを特徴とする請求項1または2に記載の電子機器。 - 前記第1のインジケーターと前記第2のインジケーターとは、露出調整を補助する枠を含む
ことを特徴とする請求項1~4のいずれか1項に記載の電子機器。 - 前記第1のインジケーターは、第1の種別のインジケーターであり、
前記第2のインジケーターは、第2の種別のインジケーターであり、
前記電子機器は、前記第2の種別のインジケーターを表示するか否かの設定を行う設定手段をさらに有し、
前記取得手段により、前記第1の画像領域と前記第2の画像領域とが並んだ前記画像とは異なる画像が取得された場合には、前記表示制御手段は、前記取得手段により取得された前記画像に前記第1の種別のインジケータを重ねて表示するように制御し、前記第2の種別のインジケーターを表示するか否かの設定に従って、当該画像に前記第2の種別のインジケータを重ねて表示するように制御し、
前記取得手段により、前記第1の画像領域と前記第2の画像領域とが並んだ前記画像が取得された場合には、前記第2の種別のインジケーターを表示しない設定がされていた場合でも、前記表示制御手段は、前記第1の画像領域に前記第1のインジケーターを重ねて表示するように制御し、前記第2の画像領域に前記第2のインジケーターを重ねて表示するように制御する
ことを特徴とする請求項1~8のいずれか1項に記載の電子機器。 - 撮像素子により撮像された画像を取得する取得手段と、
第2の種別のインジケーターを表示するか否かの設定を行う設定手段と、
前記取得手段により取得された画像を表示するように制御し、当該画像に第1の種別のインジケータを重ねて表示するように制御し、前記第2の種別のインジケーターを表示するか否かの設定に従って、当該画像に前記第2の種別のインジケータを重ねて表示するように制御する表示制御手段と
を有し、
前記取得手段により、第1の光学系を介して撮像された第1の画像領域と、第2の光学系を介して撮像された第2の画像領域とが並んだ画像が取得された場合には、前記第2の種別のインジケーターを表示しない設定がされていた場合でも、前記表示制御手段は、前記第1の画像領域に前記第1の種別のインジケーターを重ねて表示するように制御し、前記第2の画像領域に、前記第1の画像領域に表示される前記第1の種別のインジケータに対応する、前記第2の種別のインジケーターを重ねて表示するように制御する
ことを特徴とする電子機器。 - 撮像素子により撮像された画像を取得する取得ステップと、
ユーザーによる操作を受け付ける操作ステップと、
前記取得ステップにおいて取得された前記画像を表示するように制御し、当該画像にインジケーターを重ねて表示するように制御する表示制御ステップと
を有し、
前記取得ステップにおいて、第1の光学系を介して撮像された第1の画像領域と、第2の光学系を介して撮像された第2の画像領域とが並んだ画像が取得された場合に、
前記表示制御ステップでは、
前記第1の画像領域に第1のインジケーターを重ねて表示するように制御し、
前記第2の画像領域に第2のインジケーターを重ねて表示するように制御し、
前記ユーザーにより、前記第1のインジケーターと前記第2のインジケーターとの一方を移動させる操作が行われたことに応じて、前記第1のインジケーターと前記第2のインジケーターとの一方を移動するように制御し、
前記第1のインジケーターと前記第2のインジケーターとの一方の移動に連動して前記第1のインジケーターと前記第2のインジケーターとの他方を移動するように制御することを特徴とする電子機器の制御方法。 - 撮像素子により撮像された画像を取得する取得ステップと、
第2の種別のインジケーターを表示するか否かの設定を行う設定ステップと、
前記取得ステップにおいて取得された画像を表示するように制御し、当該画像に第1の種別のインジケータを重ねて表示するように制御し、前記第2の種別のインジケーターを表示するか否かの設定に従って、当該画像に前記第2の種別のインジケータを重ねて表示するように制御する表示制御ステップと
を有し、
前記取得ステップにおいて、第1の光学系を介して撮像された第1の画像領域と、第2の光学系を介して撮像された第2の画像領域とが並んだ画像が取得された場合には、前記第2の種別のインジケーターを表示しない設定がされていた場合でも、前記表示制御ステップでは、前記第1の画像領域に前記第1の種別のインジケーターを重ねて表示するように制御し、前記第2の画像領域に、前記第1の画像領域に表示される前記第1の種別のインジケータに対応する、前記第2の種別のインジケーターを重ねて表示するように制御する
ことを特徴とする電子機器の制御方法。 - コンピュータを、請求項1~10のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
- コンピュータを、請求項1~10のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022020270A JP2023117615A (ja) | 2022-02-14 | 2022-02-14 | 電子機器、電子機器の制御方法、プログラム、および記憶媒体 |
US18/162,809 US20230300453A1 (en) | 2022-02-14 | 2023-02-01 | Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022020270A JP2023117615A (ja) | 2022-02-14 | 2022-02-14 | 電子機器、電子機器の制御方法、プログラム、および記憶媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023117615A true JP2023117615A (ja) | 2023-08-24 |
Family
ID=87653920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022020270A Pending JP2023117615A (ja) | 2022-02-14 | 2022-02-14 | 電子機器、電子機器の制御方法、プログラム、および記憶媒体 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230300453A1 (ja) |
JP (1) | JP2023117615A (ja) |
-
2022
- 2022-02-14 JP JP2022020270A patent/JP2023117615A/ja active Pending
-
2023
- 2023-02-01 US US18/162,809 patent/US20230300453A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230300453A1 (en) | 2023-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014046039A1 (ja) | 撮像装置及び合焦確認表示方法 | |
US11849100B2 (en) | Information processing apparatus, control method, and non-transitory computer readable medium | |
JP2020178273A (ja) | 表示制御装置およびその制御方法 | |
CN115484401A (zh) | 电子设备、电子设备的控制方法和记录介质 | |
JP2023117615A (ja) | 電子機器、電子機器の制御方法、プログラム、および記憶媒体 | |
US11843894B2 (en) | Electronic apparatus, method of controlling the same, and storage medium | |
US20230412931A1 (en) | Display control device, display control method, and non-transitory computer readable medium | |
US20230209177A1 (en) | Imaging apparatus | |
US20230281768A1 (en) | Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium | |
US20220385877A1 (en) | Electronic equipment, control method therefor, and storage medium | |
US20220385830A1 (en) | Electronic apparatus, control method, and non-transitory computer readable medium | |
EP4307660A1 (en) | Information processing apparatus, information processing method, and program | |
US11924548B2 (en) | Apparatus and method executed by apparatus | |
JP2023083876A (ja) | 制御装置、制御方法およびプログラム | |
JP2023102947A (ja) | 情報処理装置、その制御方法およびプログラム | |
JP2022183844A (ja) | 電子機器及びその制御方法及びプログラム及び記録媒体 | |
JP6851788B2 (ja) | フォーカス制御装置、フォーカス制御装置の制御方法及びプログラム | |
JP2024030637A (ja) | 電子機器および電子機器の制御方法 | |
JP2023181634A (ja) | 電子機器、電子機器の制御方法、プログラム | |
JP2024030580A (ja) | 電子機器および電子機器の制御方法 | |
JP2021144121A (ja) | 表示制御装置およびその制御方法、プログラム、並びに記憶媒体 | |
JP2021158559A (ja) | 電子機器、その制御方法およびプログラム | |
JP2022191013A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2022184712A (ja) | 情報処理装置、撮像装置、制御方法、プログラム、および記憶媒体 | |
JP2022183845A (ja) | 情報処理装置、制御方法、プログラム、および記憶媒体 |