JP2023093929A - 撮像装置 - Google Patents
撮像装置 Download PDFInfo
- Publication number
- JP2023093929A JP2023093929A JP2021209073A JP2021209073A JP2023093929A JP 2023093929 A JP2023093929 A JP 2023093929A JP 2021209073 A JP2021209073 A JP 2021209073A JP 2021209073 A JP2021209073 A JP 2021209073A JP 2023093929 A JP2023093929 A JP 2023093929A
- Authority
- JP
- Japan
- Prior art keywords
- lens unit
- display
- image
- displayed
- optical systems
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 61
- 230000003287 optical effect Effects 0.000 claims abstract description 67
- 238000001514 detection method Methods 0.000 claims abstract description 36
- 238000000034 method Methods 0.000 claims description 38
- 230000002093 peripheral effect Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 27
- 230000036544 posture Effects 0.000 description 24
- 230000008569 process Effects 0.000 description 21
- 238000004891 communication Methods 0.000 description 17
- 210000003811 finger Anatomy 0.000 description 16
- 238000013459 approach Methods 0.000 description 8
- 238000012937 correction Methods 0.000 description 8
- 210000003813 thumb Anatomy 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 150000001875 compounds Chemical class 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 230000006866 deterioration Effects 0.000 description 3
- 230000009977 dual effect Effects 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000004932 little finger Anatomy 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/02—Bodies
- G03B17/12—Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
- G03B17/14—Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/232—Image signal generators using stereoscopic image cameras using a single 2D image sensor using fly-eye lenses, e.g. arrangements of circular lenses
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Studio Devices (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
- Structure And Mechanism Of Cameras (AREA)
Abstract
【課題】複数の光学系を含んだレンズユニットが撮像装置に装着されている場合と、そうでない場合との両方で、当該撮像装置の傾きを示すアイテムを好適な位置に表示できるようにする。【解決手段】本発明の撮像装置は、レンズユニットを着脱可能な撮像装置であって、前記撮像装置の傾きを検出する検出手段と、前記撮像装置に装着されたレンズユニットの種別に関する情報を取得する取得手段と、前記レンズユニットの光学系を用いて撮像された画像を画面に表示するよう制御する表示制御手段とを有し、前記表示制御手段は、前記検出手段によって検出された傾きを示すアイテムを、前記取得手段によって取得された情報に基づいて、前記レンズユニットが複数の光学系を含むか否かで異なる位置に重畳して、前記画像を表示するように制御することを特徴とする。【選択図】図5
Description
本発明は、撮像装置に関する。
特許文献1には、撮像装置の姿勢(傾き)を検出し、検出された姿勢を示す水準器をライブ画像に重畳して表示面に表示することで、撮影者に撮像装置の姿勢を視覚的に通知する技術が開示されている。
しかしながら、レンズ交換式カメラにおいて、装着されるレンズユニットの種別に依って水準器の最適な表示位置が異なることがある。例えば、1眼レンズユニットを装着した場合は、撮像された1つのライブ画像の周縁部分に対応する表示面の端部分に水準器を表示することで、ライブ画像の視認性を損なうことなく水準器を表示することができる。一方で、複数の光学系を含んだ複眼レンズユニットを装着した場合は、1眼レンズユニットを装着した場合と同じ位置(表示面の端部分)に水準器を表示すると、ライブ画像の視認性が損なわれてしまう。一例として、2眼レンズユニットを装着して、2眼レンズユニットの2つの光学系をそれぞれ用いて撮像された2つのライブ画像領域A,Bを並べて表示面に表示する場合を考える。この場合に、1眼レンズユニットを装着した場合と同じ位置に水準器を表示すると、ライブ画像領域Aの視認を阻害するように(例えばライブ画像領域Aの中央部分に)水準器が表示され、ライブ画像領域Aの視認性が損なわれることがある。また、この場合は、水準器はライブ画像領域Bから遠い位置に表示されることがある。水準器がライブ画像領域Bから遠い位置に表示されると、ユーザーは、水準器とライブ画像領域Bを見比べるために視線を大きく移動させなければならないため、ユーザは水準器とライブ画像領域Bを容易に見比べることができない。
本発明は、複数の光学系を含んだレンズユニットが撮像装置に装着されている場合と、そうでない場合との両方で、当該撮像装置の傾きを示すアイテムを好適な位置に表示できるようにすることを目的とする。
本発明の撮像装置は、レンズユニットを着脱可能な撮像装置であって、前記撮像装置の傾きを検出する検出手段と、前記撮像装置に装着されたレンズユニットの種別に関する情報を取得する取得手段と、前記レンズユニットの光学系を用いて撮像された画像を画面に表示するよう制御する表示制御手段とを有し、前記表示制御手段は、前記検出手段によって検出された傾きを示すアイテムを、前記取得手段によって取得された情報に基づいて、前記レンズユニットが複数の光学系を含むか否かで異なる位置に重畳して、前記画像を表示するように制御することを特徴とする。
本発明によれば、複数の光学系を含んだレンズユニットが撮像装置に装着されている場合と、そうでない場合との両方で、当該撮像装置の傾きを示すアイテムを好適な位置に表示できるようになる。
以下、図面を参照して本発明の実施形態について説明する。以下の実施形態では、レンズユニットを着脱可能なデジタルカメラ(レンズ交換式カメラ)に本発明を適用した例について説明する。
<第1の実施形態>
図1(a),1(b)は、第1の実施形態に係るデジタルカメラ(カメラ)100の外観の一例を示す外観図である。図1(a)はカメラ100を前面側から見た斜視図であり、図1(b)はカメラ100を背面側から見た斜視図である。
図1(a),1(b)は、第1の実施形態に係るデジタルカメラ(カメラ)100の外観の一例を示す外観図である。図1(a)はカメラ100を前面側から見た斜視図であり、図1(b)はカメラ100を背面側から見た斜視図である。
カメラ100は、上面に、シャッターボタン101、電源スイッチ102、モード切替スイッチ103、メイン電子ダイヤル104、サブ電子ダイヤル105、動画ボタン106、ファインダ外表示部107を有する。シャッターボタン101は、撮影準備指示あるいは撮影指示を行うための操作部材である。電源スイッチ102は、カメラ100の電源のオンとオフとを切り替える操作部材である。モード切替スイッチ103は、各種モードを切り替えるための操作部材である。メイン電子ダイヤル104は、シャッター速度や絞り等の設定値を変更するための回転式の操作部材である。サブ電子ダイヤル105は、選択枠(カーソル)の移動や画像送り等を行うための回転式の操作部材である。動画ボタン106は、動画撮影(記録)の開始や停止の指示を行うための操作部材である。ファインダ外表示部107は、シャッター速度や絞り等の様々な設定値を表示する。
カメラ100は、背面に、表示部108、タッチパネル109、方向キー110、SETボタン111、AEロックボタン112、拡大ボタン113、再生ボタン114、メニューボタン115、接眼部116、接眼検知部118、タッチバー119を有する。表示部108は、画像や各種情報を表示する。タッチパネル109は、表示部108の表示面(タッチ操作面)に対するタッチ操作を検出する操作部材である。方向キー110は、上下左右にそれぞれ押下可能なキー(4方向キー)から構成される操作部材である。方向キー110の押下した位置に応じた処理が可能である。SETボタン111は、主に選択項目を決定するときに押下される操作部材である。AEロックボタン112は、撮影待機状態で露出状態を固定するときに押下される操作部材である。拡大ボタン113は、撮影モードのライブビュー表示(LV表示)において拡大モードのオンとオフとを切り替えるための操作部材である。拡大モードがオンである場合にはメイン電子ダイヤル104を操作することにより、ライブビュー画像(LV画像)が拡大または縮小する。また、拡大ボタン113は、再生モードにおいて再生画像を拡大したり、拡大率を大きくしたりするときに用いられる。再生ボタン114は、撮影モードと再生モードとを切り替えるための操作部材である。撮影モードの場合に再生ボタン114を押下することで再生モードに移行し、後述する記録媒体227に記録された画像のうち最新の画像を表示部108に表示することができる。
メニューボタン115は、各種設定が可能なメニュー画面を表示部108に表示するために押下される操作部材である。ユーザは、表示部108に表示されたメニュー画面と、
方向キー110やSETボタン111とを用いて、直感的に各種設定を行うことができる。接眼部116は、接眼ファインダ(覗き込み型のファインダ)117に対して接眼して覗き込む部位である。ユーザは接眼部116を介して、カメラ100内部の後述するEVF217(Electronic View Finder)に表示された映像を視認することができる。接眼検知部118は、接眼部116(接眼ファインダ117)にユーザが接眼しているか否かを検知するセンサである。
方向キー110やSETボタン111とを用いて、直感的に各種設定を行うことができる。接眼部116は、接眼ファインダ(覗き込み型のファインダ)117に対して接眼して覗き込む部位である。ユーザは接眼部116を介して、カメラ100内部の後述するEVF217(Electronic View Finder)に表示された映像を視認することができる。接眼検知部118は、接眼部116(接眼ファインダ117)にユーザが接眼しているか否かを検知するセンサである。
タッチバー119は、タッチ操作を受け付けることが可能なライン状のタッチ操作部材(ラインタッチセンサ)である。タッチバー119は、右手の人差し指でシャッターボタン101を押下可能なようにグリップ部120を右手で握った状態(右手の小指、薬指、中指で握った状態)で、右手の親指でタッチ操作可能(タッチ可能)な位置に配置される。すなわち、タッチバー119は、接眼ファインダ117に接眼して接眼部116を覗き、いつでもシャッターボタン101を押下できるように構えた状態(撮影姿勢)で操作可能である。タッチバー119は、タッチバー119に対するタップ操作(タッチして所定期間以内にタッチ位置を移動せずに離す操作)、左右へのスライド操作(タッチした後、タッチしたままタッチ位置を移動する操作)等を受け付け可能である。タッチバー119は、タッチパネル109とは異なる操作部材であり、表示機能を備えていない。タッチバー119は、例えば各種機能を割当可能なマルチファンクションバー(M-Fnバー)として機能する。
また、カメラ100は、グリップ部120、サムレスト部121、端子カバー122、蓋123、通信端子124等を有する。グリップ部120は、ユーザがカメラ100を構える際に右手で握りやすい形状に形成された保持部である。グリップ部120を右手の小指、薬指、中指で握ってカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン101とメイン電子ダイヤル104が配置される。また、同様な状態で、右手の親指で操作可能な位置にサブ電子ダイヤル105とタッチバー119が配置される。サムレスト部121(親指待機位置)は、カメラ100の背面側の、どの操作部材も操作しない状態でグリップ部120を握った右手の親指を置きやすい箇所に設けられたグリップ部である。サムレスト部121は、保持力(グリップ感)を高めるためのラバー部材等で構成される。端子カバー122は、カメラ100を外部機器(外部装置)に接続する接続ケーブル等のコネクタを保護する。蓋123は、後述する記録媒体227を格納するためのスロットを閉塞することで記録媒体227およびスロットを保護する。通信端子124は、カメラ100に対して着脱可能なレンズユニット(後述するレンズユニット200やレンズユニット300)側と通信を行うための端子である。
図2は、カメラ100の構成の一例を示すブロック図である。なお、図1と同一の構成要素には図1と同一の符号を付し、その構成要素の説明は適宜、省略する。図2では、カメラ100にレンズユニット200が装着されている。
まず、レンズユニット200について説明する。レンズユニット200は、カメラ100に対して着脱可能な交換レンズユニットの一種である。レンズユニット200は、1眼レンズユニットであり、通常のレンズユニットの一例である。レンズユニット200は、絞り201、レンズ202、絞り駆動回路203、AF(オートフォーカス)駆動回路204、レンズシステム制御回路205、通信端子206等を有する。
絞り201は、開口径が調整可能に構成される。レンズ202は、複数枚のレンズから構成される。絞り駆動回路203は、絞り201の開口径を制御することで光量を調整する。AF駆動回路204は、レンズ202を駆動して焦点を合わせる。レンズシステム制御回路205は、後述するシステム制御部50の指示に基づいて、絞り駆動回路203、AF駆動回路204等を制御する。レンズシステム制御回路205は、絞り駆動回路20
3を介して絞り201の制御を行い、AF駆動回路204を介してレンズ202の位置を変えることで焦点を合わせる。レンズシステム制御回路205は、カメラ100との間で通信可能である。具体的には、レンズユニット200の通信端子206と、カメラ100の通信端子124とを介して通信が行われる。通信端子206は、レンズユニット200がカメラ100側と通信を行うための端子である。
3を介して絞り201の制御を行い、AF駆動回路204を介してレンズ202の位置を変えることで焦点を合わせる。レンズシステム制御回路205は、カメラ100との間で通信可能である。具体的には、レンズユニット200の通信端子206と、カメラ100の通信端子124とを介して通信が行われる。通信端子206は、レンズユニット200がカメラ100側と通信を行うための端子である。
次に、カメラ100について説明する。カメラ100は、シャッター210、撮像部211、A/D変換器212、メモリ制御部213、画像処理部214、メモリ215、D/A変換器216、EVF217、表示部108、システム制御部50を有する。
シャッター210は、システム制御部50の指示に基づいて撮像部211の露光時間を自由に制御できるフォーカルプレーンシャッターである。撮像部211は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子(イメージセンサ)である。撮像部211は、システム制御部50にデフォーカス量情報を出力する撮像面位相差センサを有していてもよい。A/D変換器212は、撮像部211から出力されるアナログ信号をデジタル信号に変換する。画像処理部214は、A/D変換器212からのデータまたはメモリ制御部213からのデータに対し所定の処理(画素補間、縮小等のリサイズ処理、色変換処理等)を行う。また、画像処理部214は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50が露光制御や測距制御を行う。この処理により、TTL(スルー・ザ・レンズ)方式のAF処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理等が行われる。更に、画像処理部214は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてシステム制御部50がTTL方式のAWB(オートホワイトバランス)処理を行う。
A/D変換器212からの画像データは、画像処理部214およびメモリ制御部213を介してメモリ215に書き込まれる。あるいは、A/D変換器212からの画像データは、画像処理部214を介さずにメモリ制御部213を介してメモリ215に書き込まれる。メモリ215は、撮像部211によって得られA/D変換器212によりデジタルデータに変換された画像データや、表示部108やEVF217に表示するための画像データを格納する。メモリ215は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。また、メモリ215は画像表示用のメモリ(ビデオメモリ)を兼ねている。
D/A変換器216は、メモリ215に格納されている表示用の画像データをアナログ信号に変換して表示部108やEVF217に供給する。したがって、メモリ215に書き込まれた表示用の画像データは、D/A変換器216を介して表示部108やEVF217に表示される。表示部108やEVF217は、D/A変換器216からのアナログ信号に応じた表示を行う。表示部108やEVF217は、例えば、LCDや有機EL等のディスプレイである。A/D変換器212によってA/D変換されメモリ215に蓄積されたデジタル信号をD/A変換器216でアナログ信号に変換し、表示部108やEVF217に逐次転送して表示することで、ライブビュー表示が行われる。
システム制御部50は、少なくとも1つのプロセッサおよび/または少なくとも1つの回路からなる制御部である。すなわち、システム制御部50は、プロセッサであってもよく、回路であってもよく、プロセッサと回路の組み合わせであってもよい。システム制御部50は、カメラ100全体を制御する。システム制御部50は、不揮発性メモリ219に記録されたプログラムを実行することで、後述するフローチャートの各処理を実現する。また、システム制御部50は、メモリ215、D/A変換器216、表示部108、EVF217等を制御することにより表示制御も行う。
また、カメラ100は、システムメモリ218、不揮発性メモリ219、システムタイマ220、通信部221、姿勢検知部222、接眼検知部118を有する。
システムメモリ218として、例えばRAMが用いられる。システムメモリ218には、システム制御部50の動作用の定数、変数、不揮発性メモリ219から読み出したプログラム等が展開される。不揮発性メモリ219は電気的に消去・記録可能なメモリであり、不揮発性メモリ219として、例えばEEPROMが用いられる。不揮発性メモリ219には、システム制御部50の動作用の定数、プログラム等が記録される。ここでのプログラムとは、後述するフローチャートを実行するためのプログラムである。システムタイマ220は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。通信部221は、無線または有線ケーブルによって接続された外部機器との間で、映像信号や音声信号の送受信を行う。通信部221は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部221は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部221は撮像部211で撮像した画像(ライブ画像を含む)や、記録媒体227に記録された画像を送信可能であり、外部機器から画像やその他の各種情報を受信することができる。姿勢検知部222は、重力方向に対するカメラ100の姿勢(傾き)を検知する。姿勢検知部222で検知された姿勢に基づいて、カメラ100の水平方向(左右方向)あるいは垂直方向(上下方向;前後方向)の傾き角度を検出することができる。また、姿勢検知部222で検知された姿勢に基づいて、撮像部211で撮影された画像が、カメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部222で検知された姿勢に応じた向き情報を撮像部211で撮影された画像の画像ファイルに付加したり、検知された姿勢に応じて画像を回転したりすることが可能である。姿勢検知部222を用いて、カメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。姿勢検知部222には、例えば、加速度センサやジャイロセンサ等を用いることができる。
接眼検知部118は、接眼部116(接眼ファインダ117)に対する何らかの物体の接近を検知することができる。接眼検知部118には、例えば、赤外線近接センサを用いることができる。物体が接近した場合、接眼検知部118の投光部から投光した赤外線が物体で反射して赤外線近接センサの受光部で受光される。受光された赤外線の量によって接眼部116から物体までの距離を判別することができる。このように、接眼検知部118は、接眼部116に対する物体の近接距離を検知する接眼検知を行う。接眼検知部118は、接眼部116に対する眼(物体)の接近(接眼)および離反(離眼)を検知する接眼検知センサである。非接眼状態(非接近状態)から、接眼部116に対して所定距離以内に近づく物体が検知された場合に、接眼されたと検知する。一方、接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検知する。接眼を検知する閾値と、離眼を検知する閾値とは例えばヒステリシスを設ける等して異なっていてもよい。また、接眼を検知した後は、離眼を検知するまでは接眼状態であるものとする。離眼を検知した後は、接眼を検知するまでは非接眼状態であるものとする。システム制御部50は、接眼検知部118で検知された状態に応じて、表示部108とEVF217の表示(表示状態)/非表示(非表示状態)を切り替える。具体的には、少なくとも撮影待機状態であって、かつ、表示先の切替設定が自動切替である場合、非接眼中は表示先を表示部108として表示をオンとし、EVF217は非表示とする。また、接眼中は表示先をEVF217として表示をオンとし、表示部108は非表示とする。なお、接眼検知部118は赤外線近接センサに限られず、接眼検知部118には、接眼とみなせる状態を検知できるものであれば他のセンサを用いてもよい。
また、カメラ100は、ファインダ外表示部107、ファインダ外表示駆動回路223
、電源制御部224、電源部225、記録媒体I/F226、操作部228等を有する。
、電源制御部224、電源部225、記録媒体I/F226、操作部228等を有する。
ファインダ外表示部107は、ファインダ外表示駆動回路223によって駆動され、シャッター速度や絞り等のカメラ100の様々な設定値を表示する。電源制御部224は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出等を行う。また、電源制御部224は、その検出結果およびシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体227を含む各部へ供給する。電源部225は、アルカリ電池およびリチウム電池等の一次電池、NiCd電池、NiMH電池およびLi電池等の二次電池、ACアダプター等である。記録媒体I/F226は、メモリカードやハードディスク等の記録媒体227とのインターフェースである。記録媒体227は、撮影された画像を記録するためのメモリカード等であり、半導体メモリや磁気ディスク等から構成される。記録媒体227は、カメラ100に対して着脱可能であってもよいし、カメラ100に内蔵されていてもよい。
操作部228は、ユーザからの操作(ユーザ操作)を受け付ける入力部であり、システム制御部50に各種の指示を入力するために用いられる。操作部228は、シャッターボタン101、電源スイッチ102、モード切替スイッチ103、タッチパネル109、他の操作部229等が含まれる。他の操作部229には、メイン電子ダイヤル104、サブ電子ダイヤル105、動画ボタン106、方向キー110、SETボタン111、AEロックボタン112、拡大ボタン113、再生ボタン114、メニューボタン115、タッチバー119等が含まれる。
シャッターボタン101は、第1シャッタースイッチ230と第2シャッタースイッチ231を有する。第1シャッタースイッチ230は、シャッターボタン101の操作途中、いわゆる半押し(撮影準備指示)でオンとなり、第1シャッタースイッチ信号SW1を出力する。システム制御部50は、第1シャッタースイッチ信号SW1に応じて、AF処理、AE処理、AWB処理、EF処理等の撮影準備処理を開始する。第2シャッタースイッチ231は、シャッターボタン101の操作完了、いわゆる全押し(撮影指示)でオンとなり、第2シャッタースイッチ信号SW2を出力する。システム制御部50は、第2シャッタースイッチ信号SW2に応じて、撮像部211からの信号読み出しから、撮影された画像を含む画像ファイルを生成して記録媒体227に書き込むまでの一連の撮影処理を開始する。
モード切替スイッチ103は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード、再生モード等の何れかに切り替える。静止画撮影モードに含まれるモードには、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。ユーザは、モード切替スイッチ103により、上述した撮影モードの何れかに直接、切り替えることができる。あるいは、ユーザは、モード切替スイッチ103により撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードの何れかに操作部228を用いて選択的に切り替えることができる。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
タッチパネル109は、表示部108の表示面(タッチパネル109の操作面)への各種タッチ操作を検出するタッチセンサである。タッチパネル109と表示部108とは一体的に構成することができる。例えば、タッチパネル109は、光の透過率が表示部108の表示を妨げないように、表示部108の表示面の上層に取り付けられる。そして、タッチパネル109における入力座標と、表示部108の表示面上の表示座標とを対応付け
ることで、あたかもユーザが表示部108上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザインターフェース)を構成できる。タッチパネル109には、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等の様々な方式のうち何れかの方式を用いることができる。方式によって、タッチパネル109に対する接触があったことでタッチがあったと検知する方式や、タッチパネル109に対する指やペンの接近があったことでタッチがあったと検知する方式があるが、何れの方式であってもよい。
ることで、あたかもユーザが表示部108上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザインターフェース)を構成できる。タッチパネル109には、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等の様々な方式のうち何れかの方式を用いることができる。方式によって、タッチパネル109に対する接触があったことでタッチがあったと検知する方式や、タッチパネル109に対する指やペンの接近があったことでタッチがあったと検知する方式があるが、何れの方式であってもよい。
システム制御部50は、タッチパネル109に対する以下の操作あるいは状態を検出できる。
・タッチパネル109にタッチしていなかった指やペンが新たにタッチパネル109にタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)という)。
・タッチパネル109を指やペンでタッチしている状態(以下、タッチオン(Touch-On)という)。
・タッチパネル109を指やペンがタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)という)。
・タッチパネル109へタッチしていた指やペンがタッチパネル109から離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)という)。
・タッチパネル109に何もタッチしていない状態(以下、タッチオフ(Touch-Off)という)。
・タッチパネル109にタッチしていなかった指やペンが新たにタッチパネル109にタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)という)。
・タッチパネル109を指やペンでタッチしている状態(以下、タッチオン(Touch-On)という)。
・タッチパネル109を指やペンがタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)という)。
・タッチパネル109へタッチしていた指やペンがタッチパネル109から離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)という)。
・タッチパネル109に何もタッチしていない状態(以下、タッチオフ(Touch-Off)という)。
タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
これらの操作・状態や、タッチパネル109上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。システム制御部50は通知された情報に基づいてタッチパネル109上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル109上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル109上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定される。タッチパネル109上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックという。フリックは、言い換えればタッチパネル109上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定される(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトという。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)という。
図3は、レンズユニット300の構成の一例を示す模式図である。図3では、レンズユニット300をカメラ100に装着した状態を示している。レンズユニット300を装着することで、カメラ100は、所定の視差を有する2つの画像領域を含む1つの画像(静止画または動画)を撮像できるようになる。なお、図3に示すカメラ100のうち、図2で説明した構成要素と同一の構成要素には、図2と同一の符号を付し、その構成要素の説
明は適宜、省略する。
明は適宜、省略する。
レンズユニット300は、カメラ100に対して着脱可能な交換レンズユニットの一種である。レンズユニット300は、視差のある右像および左像を撮像可能な2眼レンズユニットである。レンズユニット300は2つの光学系を有し、2つの光学系それぞれで、略180度の広視野角の範囲を撮像できる。具体的に、レンズユニット300の2つの光学系それぞれで、左右方向(水平角度、方位角、ヨー角)180度、上下方向(垂直角度、仰俯角、ピッチ角)180度の視野分(画角分)の被写体を撮像できる。つまり、2つの光学系それぞれで、前方半球の範囲を撮像できる。
レンズユニット300は、複数のレンズと反射ミラー等を有する右眼光学系301R、複数のレンズと反射ミラー等を有する左眼光学系301L、レンズシステム制御回路303を有する。右眼光学系301Rは被写体側に配置されるレンズ302Rを有し、左眼光学系301Lは被写体側に配置されるレンズ302Lを有する。レンズ302Rとレンズ302Lは同じ方向を向いており、それらの光軸は略平行である。
レンズユニット300は、2眼立体視が可能なVR(Virtual Reality)画像のフォーマットの1つであるVR180の画像を得るための2眼レンズユニット(VR180レンズユニット)である。レンズユニット300は、右眼光学系301Rおよび左眼光学系301Lのそれぞれに、略180度の範囲を捉えることが可能な魚眼レンズを有する。なお、右眼光学系301Rおよび左眼光学系301Lのそれぞれが有するレンズで捉えることが可能な範囲は、180度の範囲よりも狭い160度程度であってもよい。レンズユニット300は、右眼光学系301Rを介して形成される右像と、左眼光学系301Lを介して形成される左像とを、レンズユニット300が装着されたカメラの1つの撮像素子上に結像することができる。
レンズユニット300は、レンズマウント部304と、カメラ100のカメラマウント部305とを介して、カメラ100に装着される。こうすることで、カメラ100の通信端子124と、レンズユニット300の通信端子306とを介して、カメラ100のシステム制御部50とレンズユニット300のレンズシステム制御回路303とが電気的に接続される。
図3では、右眼光学系301Rを介して形成される右像と、左眼光学系301Lを介して形成される左像とが、並んでカメラ100の撮像部211に結像される。すなわち、右眼光学系301Rおよび左眼光学系301Lにより、1つの撮像素子(撮像センサ)の2つの領域に2つの光学像がそれぞれ結像される。撮像部211は、結像された被写体像(光信号)をアナログ電気信号に変換する。このようにレンズユニット300を用いることで、右眼光学系301Rと左眼光学系301Lとの2つの箇所(光学系)から、視差がある2つの画像領域を含む1つの画像を取得することができる。取得された画像を左眼用の画像と右眼用の画像とに分割してVR表示することで、ユーザは略180度の範囲の立体的なVR画像を視聴することができる。つまり、ユーザは、VR180の画像を立体視することができる。
ここで、VR画像とは、後述するVR表示することができる画像である。VR画像には、全方位カメラ(全天球カメラ)で撮像した全方位画像(全天球画像)や、表示部で一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つパノラマ画像等が含まれる。また、VR画像は、静止画に限られず、動画、ライブ画像(カメラからほぼリアルタイムで取得した画像)も含まれる。VR画像は、最大で、左右方向360度、上下方向360度の視野分の映像範囲(有効映像範囲)を持つ。また、VR画像には、左右方向360度未満、上下方向360度未満であっても、通常のカメラで撮像可能な画角よりも広範
な画角、あるいは、表示部で一度に表示できる表示範囲より広い映像範囲を持つ画像も含まれる。上述したレンズユニット300を用いてカメラ100で撮像される画像は、VR画像の一種である。VR画像は、例えば、表示装置(VR画像を表示できる表示装置)の表示モードを「VRビュー」に設定することでVR表示することができる。360度の画角を有するVR画像の一部の範囲を表示して、ユーザが表示装置の姿勢を左右方向(水平回転方向)に変化させることで、表示される範囲を移動し、左右方向に継ぎ目のない全方位の映像を観賞することができる。
な画角、あるいは、表示部で一度に表示できる表示範囲より広い映像範囲を持つ画像も含まれる。上述したレンズユニット300を用いてカメラ100で撮像される画像は、VR画像の一種である。VR画像は、例えば、表示装置(VR画像を表示できる表示装置)の表示モードを「VRビュー」に設定することでVR表示することができる。360度の画角を有するVR画像の一部の範囲を表示して、ユーザが表示装置の姿勢を左右方向(水平回転方向)に変化させることで、表示される範囲を移動し、左右方向に継ぎ目のない全方位の映像を観賞することができる。
VR表示(VRビュー)とは、VR画像のうち、表示装置の姿勢に応じた視野範囲の映像を表示する、表示範囲を変更可能な表示方法(表示モード)である。VR表示には、VR画像を仮想球体にマッピングする変形(歪曲補正)を行って1つの画像を表示する「1眼VR表示(1眼VRビュー)」がある。また、VR表示には、左眼用のVR画像と右眼用のVR画像とをそれぞれ仮想球体にマッピングする変形を行って左右の領域に並べて表示する「2眼VR表示(2眼VRビュー)」がある。互いに視差のある左眼用のVR画像と右眼用のVR画像を用いて「2眼VR表示」を行うことで、それらVR画像を立体視することが可能である。何れのVR表示であっても、例えば、ユーザがHMD(ヘッドマウントディスプレイ)等の表示装置を装着した場合、ユーザの顔の向きに応じた視野範囲の映像が表示される。例えば、VR画像のうち、ある時点で左右方向に0度(特定の方位、例えば北)、上下方向に90度(天頂から90度、すなわち水平)を中心とした視野範囲の映像を表示しているとする。この状態から表示装置の姿勢を表裏反転させる(例えば、表示面を南向きから北向きに変更する)と、同じVR画像のうち、左右方向に180度(逆の方位、例えば南)、上下方向に90度を中心とした視野範囲の映像に、表示範囲が変更される。すなわち、ユーザがHMDを装着した状態で、顔を北から南に向く(すなわち後ろを向く)ことで、HMDに表示される映像も北の映像から南の映像に変更される。なお、レンズユニット300を用いて撮像したVR画像は、前方略180度の範囲を撮像した画像(180°画像)であり、後方略180度の範囲の映像は存在しない。このような画像をVR表示して、映像が存在しない側に表示装置の姿勢を変更した場合にはブランク領域が表示される。
このようにVR画像をVR表示することによって、ユーザは視覚的にあたかもVR画像内(VR空間内)にいるような感覚(没入感)を得ることができる。なお、VR画像の表示方法は表示装置の姿勢を変更する方法に限られない。例えば、タッチパネルや方向ボタン等を介したユーザ操作に応じて、表示範囲を移動(スクロール)させてもよい。また、VR表示時(表示モード「VRビュー」時)において、姿勢変化による表示範囲の変更に加え、タッチパネルでのタッチムーブ、マウス等でのドラッグ操作、方向ボタンの押下等に応じて表示範囲を移動させてもよい。なお、VRゴーグル(ヘッドマウントアダプタ)に装着されたスマートフォンはHMDの一種である。
図4は、静止画撮影モードや動画撮影モード等の撮影モード時におけるカメラ100の動作(撮影モード処理)の一例を示すフローチャートである。この動作は、システム制御部50が不揮発性メモリ219に記録されたプログラムをシステムメモリ218に展開して実行することにより実現される。例えば、撮影モードでカメラ100が起動したり、カメラ100のモードが撮影モードに切り替えられたりすると、図4の動作が開始する。以下では表示部108での表示が行われるものとするが、EVF217で以下の表示が行われてもよい。
ステップS401では、システム制御部50は、表示部108に水準器(姿勢検知部222によって検出されたカメラ100の姿勢を示すアイテム)を表示するか否かの設定変更の指示があったか否かを判定する。水準器の数や水準器が示す姿勢の方向等は特に限定されないが、水平方向の水準器(水平方向におけるカメラ100の姿勢(傾き角度)を示
す水準器)と、垂直方向の水準器(垂直方向におけるカメラ100の姿勢を示す水準器)とが表示可能であるとする。水平方向の水準器を表示するか否かと、垂直方向の水準器を表示するか否かとは、一括で設定できてもよいし、個別に設定できてもよい。ユーザーは、タッチパネル109や、サブ電子ダイヤル105、方向キー110、SETボタン111等を用いて、水準器を表示するか否かの設定変更の指示を行うことができる。設定変更の指示があったと判定した場合はステップS402へ進み、そうでない場合はステップS403へ進む。
す水準器)と、垂直方向の水準器(垂直方向におけるカメラ100の姿勢を示す水準器)とが表示可能であるとする。水平方向の水準器を表示するか否かと、垂直方向の水準器を表示するか否かとは、一括で設定できてもよいし、個別に設定できてもよい。ユーザーは、タッチパネル109や、サブ電子ダイヤル105、方向キー110、SETボタン111等を用いて、水準器を表示するか否かの設定変更の指示を行うことができる。設定変更の指示があったと判定した場合はステップS402へ進み、そうでない場合はステップS403へ進む。
ステップS402では、システム制御部50は、不揮発性メモリ219に格納されている設定値(水準器を表示するか否かの設定値)を変更することで、水準器を表示するか否かの設定を変更する。
ステップS403では、システム制御部50は、撮像部211により撮像されたライブ画像を表示部108にライブビュー画像として表示する。カメラ100に1眼レンズユニット200が装着されている場合は、図5(a)に示すように、1つのライブ画像501が、表示部108の表示面の中央部分にライブ画像501の中央部分が位置するように表示される。カメラ100に2眼レンズユニット300が装着されている場合は、2眼表示モードと1眼表示モードとを含む複数のモードのいずれが設定可能である。2眼表示モードが設定されている場合は、図5(b)に示すように、左眼光学系301Lを用いて撮像された左ライブ画像領域502と、右眼光学系301Rを用いて撮像された右ライブ画像領域503とが左右に並んだ1つのライブ画像が表示される。左ライブ画像領域502と右ライブ画像領域503は、それぞれ円形状の円周魚眼画像であり、それらの領域の縁に近いほどライブ画像における被写体の歪みが大きい。図5(b)に示す矩形の破線504,505は、VR表示(1眼VR表示または2眼VR表示)される領域を示す。破線504,505のような枠は表示してもよいし、表示しなくてもよい。1眼表示モードが設定されている場合は、ライブ画像のうち、左ライブ画像領域502または右ライブ画像領域503が切り出されて表示される。左ライブ画像領域502または右ライブ画像領域503を円周魚眼画像のまま表示してもよいし、破線504または破線505で示す矩形領域を1眼VR表示してもよい。1眼VR表示では、図5(a)と同様に、表示部108の表示面全体に矩形画像が表示される。
ステップS404では、システム制御部50は、不揮発性メモリ219から水平方向の水準器を表示するか否かの設定値を読み出し、水平方向の水準器を表示するか否かを判定する。水平方向の水準器を表示すると判定した場合はステップS405へ進み、そうでない場合はステップS409へ進む。
ステップS405では、システム制御部50は、カメラ100に2眼レンズユニット300が装着されているか否かを判定する。システム制御部50は、カメラの通信端子124と、装着されたレンズユニットの通信端子(206または306)とを介して、当該レンズユニットのレンズシステム制御回路(205または303)と通信する。この通信により、システム制御部50は、装着されたレンズユニットから、当該レンズユニットの種別に関する情報(例えば、レンズユニットのモデル名やシリアル番号等、種別を示す情報)を取得する。システム制御部50は、このように取得した情報に基づいて、カメラ100に2眼レンズユニット300が装着されているか否かを判定することができる。2眼レンズユニット300が装着されていると判定した場合はステップS407へ進み、そうでない場合(1眼レンズユニット200が装着されていると判定した場合)はステップS406へ進む。
ステップS406では、システム制御部50は、水平方向の水準器を、1つの光学系を介して取得された1つの画像領域からなる1つのライブ画像の周縁部分、つまり表示部1
08の表示面の周縁部分に重畳して表示する。例えば、図5(c)に示すように、水平方向の水準器506が、ライブ画像501の下端部分(表示面の下端部分)の中央に重畳して表示される。
08の表示面の周縁部分に重畳して表示する。例えば、図5(c)に示すように、水平方向の水準器506が、ライブ画像501の下端部分(表示面の下端部分)の中央に重畳して表示される。
ステップS407では、システム制御部50は、不揮発性メモリ219から2眼表示モードか否かの設定値を読み出し、2眼表示モードが設定されているか否かを判定する。2眼表示モードが設定されていると判定した場合はステップS408へ進み、そうでない場合(1眼表示モードが設定されていると判定した場合)はステップS406へ進む。
ステップS408では、システム制御部50は、水平方向の水準器を、1つのライブ画像のうち右ライブ画像領域と左ライブ画像領域の中央部分に重畳して表示する。例えば、図5(d)に示すように、左ライブ画像領域502と右ライブ画像領域503の中間の位置、すなわちライブ画像全体の下端部分の中央に、水平方向の水準器508が重畳して表示される。なお、図5(d)の水準器508は、図5(c)の水準器506よりも上側に表示される。すなわち、図5(c)の水準器506は、図5(d)の水準器508よりも下側に表示される。これにより、図5(c)のような、1つの矩形の画像領域からなる1つのライブ画像において、水準器が主な被写体と重なって表示される可能性を低減することができる。
このように、ライブ画像において、2眼レンズユニット300がカメラ100に装着されているか否かで異なる位置に、水平方向の水準器が表示される。具体的には、ライブ画像において右ライブ画像領域と左ライブ画像領域が並べて表示されるか否か(2眼表示モードが設定されているか否か)で異なる位置に、水平方向の水準器が表示される。なお、2眼レンズユニット300がカメラ100に装着されている場合は常に2眼表示モードの表示を行うようにしてもよい。その場合も、2眼レンズユニット300がカメラ100に装着されているか否かで異なる位置に、水平方向の水準器が表示される。
ステップS409では、システム制御部50は、不揮発性メモリ219から垂直方向の水準器を表示するか否かの設定値を読み出し、垂直方向の水準器を表示するか否かを判定する。垂直方向の水準器を表示すると判定した場合はステップS410へ進み、そうでない場合はステップS414へ進む。
ステップS410では、システム制御部50は、カメラ100に2眼レンズユニット300が装着されているか否かを判定する。2眼レンズユニット300が装着されていると判定した場合はステップS412へ進み、そうでない場合(1眼レンズユニット200が装着されていると判定した場合)はステップS411へ進む。
ステップS411では、システム制御部50は、垂直方向の水準器を、ライブ画像の周縁部分、つまり表示部108の表示面の周縁部分に重畳して表示する。例えば、図5(c)に示すように、垂直方向の水準器507が、ライブ画像501の右端部分(表示面の右端部分)に表示される。
ステップS412では、システム制御部50は、不揮発性メモリ219から2眼表示モードか否かの設定値を読み出し、2眼表示モードが設定されているか否かを判定する。2眼表示モードが設定されていると判定した場合はステップS413へ進み、そうでない場合(1眼表示モードが設定されていると判定した場合)はステップS411へ進む。
ステップS413では、システム制御部50は、垂直方向の水準器を、右ライブ画像領域と左ライブ画像領域からなる1つのライブ画像の中央部分に重畳して表示する。例えば、図5(d)に示すように、左ライブ画像領域502と右ライブ画像領域503の中間の
位置に、垂直方向の水準器509が重畳して表示される。
位置に、垂直方向の水準器509が重畳して表示される。
このように、垂直方向の水準器は、ライブ画像において、2眼レンズユニット300がカメラ100に装着されているか否かで異なる位置に表示される。具体的には、ライブ画像において右ライブ画像領域と左ライブ画像領域が並べて表示されるか否か(2眼表示モードが設定されているか否か)で異なる位置に、垂直方向の水準器が表示される。なお、2眼レンズユニット300がカメラ100に装着されている場合は常に2眼表示モードの表示を行うようにしてもよい。その場合も、2眼レンズユニット300がカメラ100に装着されているか否かで異なる位置に、垂直方向の水準器が表示される。
ステップS414では、システム制御部50は、姿勢検知部222によって検出されたカメラ100の姿勢が範囲X1外(所定の範囲外;第1の範囲外)か否かを判定する。例えば、システム制御部50は、姿勢検知部222から、水平方向におけるカメラ100の傾き角度と、垂直方向におけるカメラ100の傾き角度とを取得する。水平方向の傾き角度は、カメラ100が右にも左にも傾いていないときに0、右に傾いたときに正の値、左に傾いたときに負の値になるとする。垂直方向の傾き角度は、カメラ100が上(後ろ)にも下(前)にも傾いていないときに0、上に傾いたときに正の値、下に傾いたときに負の値になるとする。システム制御部50は、水平方向の傾き角度の絶対値と垂直方向の傾き角度の絶対値との少なくとも一方が閾値X2よりも大きいか否かを判定する。水平方向の傾き角度の絶対値と垂直方向の傾き角度の絶対値との少なくとも一方が閾値X2よりも大きい状態が、カメラ100の姿勢が範囲X1外の状態である。カメラ100の姿勢が範囲X1外であると判定した場合はステップS415へ進み、そうでない場合はステップS401へ進む。
ステップS415では、システム制御部50は、ユーザーに対して所定の通知を行う。例えば、図5(e)に示すように、システム制御部50は、カメラ100が傾いている旨の警告メッセージ510を表示部108に表示する。これにより、ユーザーはカメラ100の傾きに気づくことができる。通知方法(通知制御)は特に限定されず、水準器の色の変更や、水準器の表示パターン(常時表示や点滅表示等)の変更、アイコンの表示などによって通知(警告)を行ってもよい。ランプやスピーカーなどを用いて通知を行ってもよい。
ステップS416では、システム制御部50は、姿勢検知部222によって検出されたカメラ100の姿勢が範囲Y1外(所定の範囲外;第2の範囲外)か否かを判定する。例えば、システム制御部50は、水平方向の傾き角度の絶対値と垂直方向の傾き角度の絶対値との少なくとも一方が閾値Y2よりも大きいか否かを判定する。水平方向の傾き角度の絶対値と垂直方向の傾き角度の絶対値との少なくとも一方が閾値Y2よりも大きい状態が、カメラ100の姿勢が範囲Y1外の状態である。カメラ100の姿勢が範囲Y1外であると判定した場合はステップS417へ進み、そうでない場合はステップS401へ進む。
ステップS417では、システム制御部50は、ユーザーに対して所定の通知を行う。例えば、図5(f)に示すように、システム制御部50は、カメラ100が傾いている旨の警告メッセージ511を表示部108に表示する。通知方法(通知制御)は特に限定されない。
2眼レンズユニットを用いた撮影では、カメラ100を傾けないことが重要である。そのため、2眼レンズユニットが装着されている場合の姿勢の範囲Y1は、2眼レンズユニットが装着されていない場合の姿勢の範囲X1よりも狭いこと、つまり閾値Y2は閾値X2より小さいことが好ましい。そのように範囲X1,Y1(閾値X2,Y2)を設定すれ
ば、2眼レンズユニットが装着されている場合に、カメラ100の姿勢が範囲X1内(第1の範囲内)であっても、範囲Y1外(第2の範囲外)となれば、所定の通知が行われる。そのため、2眼レンズユニットが装着されている場合に、ユーザーは、カメラ100の傾きに気づきやすくなる。
ば、2眼レンズユニットが装着されている場合に、カメラ100の姿勢が範囲X1内(第1の範囲内)であっても、範囲Y1外(第2の範囲外)となれば、所定の通知が行われる。そのため、2眼レンズユニットが装着されている場合に、ユーザーは、カメラ100の傾きに気づきやすくなる。
また、範囲Y1は、撮影後の画像編集工程において、画像品質の劣化なく傾き補正(天頂補正;水平垂直補正)可能な姿勢の範囲、例えば画像品質の劣化なく傾き補正な姿勢の最大範囲であることが好ましい。つまり、閾値Y2は、画像品質の劣化なく傾き補正可能な傾き角度(絶対値)、例えば画像品質の劣化なく傾き補正可能な傾き角度(絶対値)の最大値であることが好ましい。そのように範囲Y1(閾値Y2)を設定すれば、2眼レンズユニットが装着されている場合に、ユーザーは、カメラ100の姿勢が画像品質の劣化なく傾き補正可能な姿勢の範囲に収まっていることに気づきやすくなる。範囲X1(閾値X2)についても、同様である。
以上述べたように、第1の実施形態によれば、ライブ画像において、カメラ100に2眼レンズユニット300が装着されているか否かで異なる位置に、水準器が表示される。こうすることで、カメラ100に2眼レンズユニット300が装着されている場合と、そうでない場合との両方で、水準器を好適な位置に表示できるようになる。例えば、カメラ100に2眼レンズユニット300を装着して右ライブ画像領域と左ライブ画像領域が並んだ1つのライブ画像を表示する場合は、右ライブ画像領域と左ライブ画像領域からなるライブ画像の中央部分に水準器を表示する。そうでない場合は、ライブ画像の周縁部分に水準器を表示する。こうすることで、どちらの場合においても、ユーザーは視認性良くライブ画像を視認することができるとともに、水準器でカメラ100の傾きを把握することができる。また、右ライブ画像領域と左ライブ画像領域のどちらからも近い位置に水準器が表示される。そのため、水準器と右ライブ画像領域や左ライブ画像領域とを見比べる際の視線の移動量を小さくでき、ユーザは水準器と右ライブ画像領域や左ライブ画像領域とを容易に見比べることができる。
なお、右ライブ画像領域と左ライブ画像領域の中間の位置(右ライブ画像領域までの距離と左ライブ画像領域までの距離とが等しい位置)に水準器を表示する例を説明したが、水準器は当該中間の位置からずれていてもよい。例えば、水準器は、右ライブ画像領域と左ライブ画像領域それぞれに含まれるVR表示される領域(図5(b)の破線504,505で示す矩形領域;VR表示領域)の間で、VR表示領域に重ならない位置に表示されていてもよい。水準器がVR表示領域に重ならなければ、ユーザーは、VR表示領域を視認性良く視認することができる。また、水準器が右ライブ画像領域や左ライブ画像領域に重なる場合は、その重なる面積は小さいことが好ましい。ユーザーは、水準器が右ライブ画像領域や左ライブ画像領域に重なる面積が小さいほど高い視認性でライブ画像を視認することができる。2眼レンズユニットの着脱によって水準器の表示位置が変更されたときに、水準器が特定のオブジェクトに重なる場合には、当該特定のオブジェクトに重ならない位置に、水準器の表示位置を自動で調整してもよい。こうすることで、特定のオブジェクトの視認が水準器によって妨げられることはなくなる。
また、水平方向の水準器と垂直方向の水準器とを個別に表示する例を説明したが、水平方向の水準器と垂直方向の水準器とを一体化した1つの水準器を表示してもよい。水準器の数や水準器が示す姿勢の方向等は特に限定されない。
また、複数の光学系を含んだ複眼レンズユニットが、2つの光学系を含んだ2眼レンズユニットである例を説明したが、複眼レンズユニットは2眼レンズユニットに限られない。複眼レンズユニットは、3つ以上の光学系を含んでいてもよい。
また、上記では1つの撮像素子の2つの領域に2つの光学像がそれぞれ結像され、視差のある2つの画像領域を含む1つの画像をライブ画像として表示する場合について説明したがこれに限らない。例えば、カメラ100が2つの撮像素子を有する場合、レンズユニット300を用いることで、右眼光学系301Rと左眼光学系301Lとの2つの箇所(光学系)から、視差がある2つの画像を同時に(セットで)取得することができる。そして、2つのライブ画像を左右に並べて1つの表示面に表示するようにしてもよい。この場合、右ライブ画像と左ライブ画像からなる画像群の中央部分に水平方向の水準器が表示され、右ライブ画像と左ライブ画像からなる画像群の中央部分に垂直方向の水準器が表示される。
また、水平方向の水準器は、カメラに装着されているレンズユニットの種別(光学系の個数)に関わらず同じ位置に表示するようにしてもよい。図5(g)に示すように、左ライブ画像領域502と右ライブ画像領域503が円周魚眼像である場合、下端部は画像ではない部分である。そのため、図5(c)の水準器506と同様に、水平方向の水準器512が、より下側にあれば、図5(g)に示すように、円周魚眼画像と重なる部分が小さくなり、視認性が高まる。すなわち、水準器の方向に応じて、カメラに装着されているレンズユニットの種別に基づき異なる位置に水準器を表示したり、カメラに装着されているレンズユニットの種別によらず同じ位置に水準器を表示したりしてもよい。
<第2の実施形態>
第2の実施形態について説明する。第2の実施形態に係るカメラとレンズユニットは第1の実施形態(図1~3)と同様であるため、それらの説明は省略する。第2の実施形態では、撮影モード処理が第1の実施形態(図4)と異なる。
第2の実施形態について説明する。第2の実施形態に係るカメラとレンズユニットは第1の実施形態(図1~3)と同様であるため、それらの説明は省略する。第2の実施形態では、撮影モード処理が第1の実施形態(図4)と異なる。
図6は、第2の実施形態に係る撮影モード処理の一例を示すフローチャートである。図6の動作は、システム制御部50が不揮発性メモリ219に記録されたプログラムをシステムメモリ218に展開して実行することにより実現される。例えば、撮影モードでカメラ100が起動したり、カメラ100のモードが撮影モードに切り替えられたりすると、図6の動作が開始する。図6において、図4(第1の実施形態)のステップと同じステップには図4と同じ符号を付し、その説明は省略する。
ステップS601では、システム制御部50は、水平方向の水準器と垂直方向の水準器との両方を、右ライブ画像領域と左ライブ画像領域からなるライブ画像の中央部分に表示する。
以上述べたように、第2の実施形態によれば、2眼レンズユニット300が装着されている場合(具体的には、2眼レンズユニットが装着され且つ2眼表示モードが設定されている場合)に、水準器を表示するか否かの設定に依らず、水準器が表示される。つまり、水準器を表示しない設定がされていても、水準器が表示される。こうすることで、2眼レンズユニット300の装着時に水準器の表示を設定するユーザーの手間を省くことができる。ひいては、カメラ100を傾けないことが重要な、2眼レンズユニット300を用いた撮影を行う際に、ユーザーが水準器でカメラ100の姿勢を容易に確認可能となる。
なお、第2の実施形態では、2眼レンズユニットが装着されている場合は常に(水準器を表示するか否かの設定に依らずに)水準器を表示する例を説明したが、これに限られない。2眼レンズユニットが装着されたこと、または2眼レンズユニットが装着されて2眼表示モードが設定されたことに応答して、水準器を表示する設定に自動で変更してもよい。こうすることでも、2眼レンズユニット300を用いた撮影を行う際に、ユーザーが水準器でカメラ100の姿勢を容易に確認可能となる。水準器を表示する設定に自動で変更した後は、水準器を表示しない設定に手動で変更可能であってもよい。こうすることで、
利便性が向上する。水準器を表示する設定に自動で変更された後に、ユーザーが水準器を表示しない設定に変更すると、(2眼レンズユニット装着中や2眼表示モード中であっても)水準器は非表示となる。このように、2眼レンズユニット300を用いた撮影を行う際に、ユーザーは、自身の好みに応じて水準器の表示/非表示を切り替えることができる。
利便性が向上する。水準器を表示する設定に自動で変更された後に、ユーザーが水準器を表示しない設定に変更すると、(2眼レンズユニット装着中や2眼表示モード中であっても)水準器は非表示となる。このように、2眼レンズユニット300を用いた撮影を行う際に、ユーザーは、自身の好みに応じて水準器の表示/非表示を切り替えることができる。
なお、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
また、本発明は、カメラに限られず、レンズユニットを着脱可能な撮像装置であれば適用可能である。例えば、本発明は、PDA、携帯電話端末や携帯型の画像ビューワ、プリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。また、本発明は、映像プレーヤー、表示装置(投影装置を含む)、タブレット端末、スマートフォン、AIスピーカー、家電装置や車載装置などに適用可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:カメラ 50:システム制御部 222:姿勢検知部
Claims (16)
- レンズユニットを着脱可能な撮像装置であって、
前記撮像装置の傾きを検出する検出手段と、
前記撮像装置に装着されたレンズユニットの種別に関する情報を取得する取得手段と、
前記レンズユニットの光学系を用いて撮像された画像を画面に表示するよう制御する表示制御手段と
を有し、
前記表示制御手段は、前記検出手段によって検出された傾きを示すアイテムを、前記取得手段によって取得された情報に基づいて、前記レンズユニットが複数の光学系を含むか否かで異なる位置に重畳して、前記画像を表示するように制御する
ことを特徴とする撮像装置。 - 前記表示制御手段は、前記画像が、前記レンズユニットの複数の光学系をそれぞれ用いて撮像された複数の画像領域を含むか否かで異なる位置に、前記アイテムを表示するように制御する
ことを特徴とする請求項1に記載の撮像装置。 - 前記レンズユニットの複数の光学系をそれぞれ用いて撮像された複数の画像領域を並べて表示する第1のモードと、前記複数の画像領域のいずれかを表示する第2のモードとを含む複数のモードのいずれかが設定可能であり、
前記表示制御手段は、前記第1のモードが設定されているか否かで異なる位置に、前記アイテムを表示するように制御する
ことを特徴とする請求項1または2に記載の撮像装置。 - 前記表示制御手段は、前記取得手段によって取得された情報に基づいて、前記レンズユニットが複数の光学系を含む場合に、前記レンズユニットの複数の光学系をそれぞれ用いて撮像された複数の画像領域からなる画像の中央部分に前記アイテムを重畳して表示するように制御する
ことを特徴とする請求項1または2に記載の撮像装置。 - 前記表示制御手段は、前記取得手段によって取得された情報に基づいて、前記レンズユニットが複数の光学系を含まない場合に、前記レンズユニットの1つの光学系を用いて撮像された画像の周縁部分に前記アイテムを重畳して表示するように制御する
ことを特徴とする請求項1~4のいずれか1項に記載の撮像装置。 - 前記アイテムを表示するか否かが設定可能であり、
前記表示制御手段は、前記装着されているレンズユニットが複数の光学系を含む場合に、前記アイテムを表示しない設定がされていても、前記アイテムを表示するように制御する
ことを特徴とする請求項1~5のいずれか1項に記載の撮像装置。 - 前記アイテムは、第1の方向における前記撮像装置の傾きを示す第1のアイテムと、前記第1の方向とは異なる第2の方向における前記撮像装置の傾きを示す第2のアイテムとを含み、
前記表示制御手段は、前記第1のアイテムは、前記複数の光学系を含むレンズユニットが装着されているか否かで異なる位置に重畳して表示し、前記第2のアイテムは前記複数の光学系を含むレンズユニットが装着されているか否かに関わらず同じ位置に重畳して表示するように制御する
ことを特徴とする請求項1~6のいずれか1項に記載の撮像装置。 - 前記レンズユニットの複数の光学系により、1つの撮像センサの複数の領域に複数の光学像が結像される
を特徴とする請求項1~7のいずれか1項に記載の撮像装置。 - 前記検出手段によって検出された前記傾きが所定の範囲外となった場合に、所定の通知を行うように制御する通知制御手段をさらに有する
ことを特徴とする請求項1~8のいずれか1項に記載の撮像装置。 - 前記通知制御手段は、
前記装着されているレンズユニットが複数の光学系を含まない場合に、前記検出手段によって検出された前記傾きが第1の範囲外となると、前記所定の通知を行うように制御し、
前記装着されているレンズユニットが複数の光学系を含む場合に、前記検出手段によって検出された前記傾きが前記第1の範囲内であっても、前記第1の範囲よりも狭い第2の範囲外となると、前記所定の通知を行うように制御する
ことを特徴とする請求項9に記載の撮像装置。 - 前記レンズユニットの複数の光学系のそれぞれは、魚眼レンズを含む
ことを特徴とする請求項1~10のいずれか1項に記載の撮像装置。 - 前記複数の光学系を含むレンズユニットは、2つの光学系を含んだ2眼レンズユニットである
ことを特徴とする請求項1~11のいずれか1項に記載の撮像装置。 - 前記表示制御手段は、前記2つの光学系を用いて撮像された2つの画像領域それぞれのVR表示される範囲の間に前記アイテムを表示するように制御する
ことを特徴とする請求項12に記載の撮像装置。 - レンズユニットを着脱可能な撮像装置の制御方法であって、
前記撮像装置の傾きを検出するステップと、
前記撮像装置に装着されたレンズユニットの種別に関する情報を取得するステップと、
前記レンズユニットの光学系を用いて撮像された画像を画面に表示するよう表示制御するステップと、
前記画像に対して、前記検出された傾きを示すアイテムを、前記取得された情報に基づいて、前記レンズユニットが複数の光学系を含むか否かで異なる位置に重畳して表示するように表示制御するステップと
を有することを特徴とする制御方法。 - コンピュータを、請求項1~13のいずれか1項に記載の撮像装置の各手段として機能させるためのプログラム。
- コンピュータを、請求項1~13のいずれか1項に記載の撮像装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021209073A JP2023093929A (ja) | 2021-12-23 | 2021-12-23 | 撮像装置 |
US18/066,941 US20230209177A1 (en) | 2021-12-23 | 2022-12-15 | Imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021209073A JP2023093929A (ja) | 2021-12-23 | 2021-12-23 | 撮像装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023093929A true JP2023093929A (ja) | 2023-07-05 |
Family
ID=86896443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021209073A Pending JP2023093929A (ja) | 2021-12-23 | 2021-12-23 | 撮像装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230209177A1 (ja) |
JP (1) | JP2023093929A (ja) |
-
2021
- 2021-12-23 JP JP2021209073A patent/JP2023093929A/ja active Pending
-
2022
- 2022-12-15 US US18/066,941 patent/US20230209177A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230209177A1 (en) | 2023-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7467071B2 (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 | |
JP2021145191A (ja) | 撮像装置およびその制御方法、プログラム、並びに記憶媒体 | |
JP2021141573A (ja) | 電子機器 | |
JP2022018244A (ja) | 電子機器およびその制御方法 | |
US11949977B2 (en) | Electronic equipment, method for controlling the same, and recording medium | |
JP2021170066A (ja) | 表示制御装置および方法、プログラム、記憶媒体 | |
US20230209177A1 (en) | Imaging apparatus | |
JP2021097356A (ja) | 撮像制御装置 | |
US20230412931A1 (en) | Display control device, display control method, and non-transitory computer readable medium | |
US20230300453A1 (en) | Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium | |
US20230384236A1 (en) | Information processing apparatus, imaging apparatus, information processing method, and non-transitory computer readable medium | |
US20230281768A1 (en) | Electronic apparatus, control method of electronic apparatus, and non-transitory computer readable medium | |
US11843894B2 (en) | Electronic apparatus, method of controlling the same, and storage medium | |
US20240073511A1 (en) | Electronic apparatus, control method for electronic apparatus and storage medium | |
US20240020073A1 (en) | Information processing apparatus, information processing method, and non-transitory computer readable medium | |
US20220398688A1 (en) | Image processing apparatus, image processing method, and storage medium | |
US20220385877A1 (en) | Electronic equipment, control method therefor, and storage medium | |
US20220385883A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2023102947A (ja) | 情報処理装置、その制御方法およびプログラム | |
US20220385829A1 (en) | Information processing apparatus, control method, and storage medium | |
JP2023181634A (ja) | 電子機器、電子機器の制御方法、プログラム | |
JP2021158559A (ja) | 電子機器、その制御方法およびプログラム | |
JP2024030580A (ja) | 電子機器および電子機器の制御方法 | |
JP2022183844A (ja) | 電子機器及びその制御方法及びプログラム及び記録媒体 | |
JP2021144121A (ja) | 表示制御装置およびその制御方法、プログラム、並びに記憶媒体 |