JP2016220133A - 撮像装置および撮像方法 - Google Patents
撮像装置および撮像方法 Download PDFInfo
- Publication number
- JP2016220133A JP2016220133A JP2015105541A JP2015105541A JP2016220133A JP 2016220133 A JP2016220133 A JP 2016220133A JP 2015105541 A JP2015105541 A JP 2015105541A JP 2015105541 A JP2015105541 A JP 2015105541A JP 2016220133 A JP2016220133 A JP 2016220133A
- Authority
- JP
- Japan
- Prior art keywords
- finder
- touch panel
- unit
- evf
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Viewfinders (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
- Studio Devices (AREA)
Abstract
【課題】撮影者がいずれの眼でファインダを覗いているかに応じて、ファインダの機能を制御することのできる撮像装置および撮像方法を提供する。【解決手段】ファインダとタッチパネルを有する撮像装置における撮像方法において、ファインダを覗いているか否かを検出し、タッチパネルの検出領域への物体のタッチ位置、またはタッチパネルに最も接近する物体の位置を検出し(S45、S53、S57)、ファインダを覗いていると検出される場合に、タッチパネルで検出される位置に応じて、ファインダの機能を制御する(S63、S65、S69、S71)。【選択図】 図7
Description
本発明は、接眼部を通してファインダを観察することができるとともに、タッチパネルを有する撮像装置および撮像方法に関する。
電子ビューファインダ(Electric Viewfinder:EVFと称す)と、本体背面部にタッチパネルを設け、レリーズ釦が操作され、かつ撮影者がタッチパネルに接触した際に、撮影者が接眼部を覗きこんでいる接眼状態であると判定するカメラが提案されている(特許文献1参照)。
一般に、カメラ等の撮像装置においては、撮影者はファインダを右眼で観察する場合と、左眼でファインダを観察する場合がある。右眼でファインダを観察する場合には、左眼で直接被写体を観察することができ、一方、左眼でファインダを観察する場合には、右眼で被写体を観察することができない。これは、ファインダの接眼部の位置が、背面側から見て、左側にずれているのが一般的だからである。
このため、撮影者がファインダを右眼で観察する場合と、左眼で観察する場合には、ファインダ表示を、それぞれの眼に合わせることが望ましい。また、カメラ等の撮像装置において、ファインダの接眼部は視度調整が可能であり、撮影者の眼に合せて調節することが望ましい。
このように、撮影者がファインダを右眼で覗いているか、左眼で覗いているかに応じて、ファインダの制御機能を制御することが望ましい。前述の特許文献1に開示のカメラは、単に、撮影者がファインダを覗いているか否かを判定しているだけであって、いずれの眼でファインダを覗いているかについては判定していない。
本発明は、このような事情を鑑みてなされたものであり、撮影者がいずれの眼でファインダを覗いているかに応じて、ファインダの機能を制御することのできる撮像装置および撮像方法を提供することを目的とする。
上記目的を達成するため第1の発明に係る撮像装置は、ファインダとタッチパネルを有する撮像装置において、上記ファインダを覗いているか否かを検出する接眼検出部と、上記タッチパネルの検出領域への物体のタッチ位置、または上記タッチパネルに最も接近する物体の位置を検出する位置検出部と、上記接眼検出部により上記ファインダを覗いていると検出される場合に、上記位置検出部により検出される位置に応じて、上記ファインダの機能を制御する制御部と、を有する。
第2の発明に係る撮像装置は、上記第1の発明において、上記撮像装置の姿勢を検出する姿勢検出部を有し、上記制御部は、上記姿勢検出部により検出される姿勢に応じて、上記タッチパネルの検出領域を制限する。
第3の発明に係る撮像装置は、上記第1の発明において、上記ファインダは、視度を調節することが可能であって、上記制御部は、上記位置検出部により検出される位置に応じて、右目で覗いているか左目で覗いているかを判別し、判別された目に応じて、上記ファインダの視度を調節する。
第3の発明に係る撮像装置は、上記第1の発明において、上記ファインダは、視度を調節することが可能であって、上記制御部は、上記位置検出部により検出される位置に応じて、右目で覗いているか左目で覗いているかを判別し、判別された目に応じて、上記ファインダの視度を調節する。
第4の発明に係る撮像装置は、上記第1又は第2の発明において、上記ファインダは、撮像した画像データに基づいて表示する表示部を有し、上記制御部は、上記位置検出部により検出される位置に応じて、右目で覗いているか左目で覗いているかを判別し、判別された目に応じて、上記表示部の表示のフレームレートを設定する。
第5の発明に係る撮像装置は、上記第1又は第2の発明において、上記ファインダは、撮像した画像データに基づいて表示する表示部を有し、上記制御部は、上記位置検出部により検出される位置に応じて、右目で覗いているか左目で覗いているかを判別し、判別された目に応じて、上記表示部に表示する画像に特殊効果を付加する度合いを設定する。
第5の発明に係る撮像装置は、上記第1又は第2の発明において、上記ファインダは、撮像した画像データに基づいて表示する表示部を有し、上記制御部は、上記位置検出部により検出される位置に応じて、右目で覗いているか左目で覗いているかを判別し、判別された目に応じて、上記表示部に表示する画像に特殊効果を付加する度合いを設定する。
第6の発明に係る撮像方法は、ファインダとタッチパネルを有する撮像装置における撮像方法において、上記ファインダを覗いているか否かを検出し、上記タッチパネルの検出領域への物体のタッチ位置、または上記タッチパネルに最も接近する物体の位置を検出し、上記ファインダを覗いていると検出される場合に、上記タッチパネルで検出される位置に応じて、上記ファインダの機能を制御する。
本発明によれば、撮影者がいずれの眼でファインダを覗いているかに応じて、ファインダの機能を制御することのできる撮像装置および撮像方法を提供することができる。
以下、本発明の一実施形態としてカメラに適用した例について説明する。このカメラは、ファインダとタッチパネルを有する。また、カメラは、撮像部を有し、この撮像部によって被写体像を画像データに変換し、この変換された画像データに基づいて、被写体像を接眼部を通して観察可能なファインダ(EVF)または本体の背面に配置した背面表示部にライブビュー表示する。撮影者はライブビュー表示を観察することにより、構図やシャッタタイミングを決定する。レリーズ操作時には、画像データが記録媒体に記録される。記録媒体に記録された画像データは、再生モードを選択すると、EVFまたは背面表示部に再生表示することができる。
また、このカメラは、撮影者がファインダ(EVF)を覗いている際に、カメラの姿勢(縦位置か横位置等)と、タッチパネルによって検出した撮影者のタッチ位置等に基づいて、撮影者が右眼でファインダを覗いているか、左眼で覗いているかを判定する(図7のS41〜S61、S67等参照)。この判定結果に基づいて、ファインダ接眼部の視度調整を行い、また表示画像のフレームレート、特殊効果等のファインダの機能制御を行う(図7のS63、S65、S69、S71、図8等参照)。
図1は、本発明の一実施形態に係るカメラの主として電気的構成を示すブロック図である。本実施形態に係るカメラは、カメラ本体100(図3参照)と、このカメラ本体100に装着可能、または一体に構成されたレンズ鏡筒200(図3参照)とから構成される。レンズ鏡筒200内には撮影レンズ1が備えられ、カメラ本体100内には、撮像部3、制御部31等が備えられている。
レンズ鏡筒200内に設けられた撮影レンズ1は、被写体の光学像を撮像部3内の撮像素子上に形成する。また、撮影レンズ1は、制御部31により駆動制御され、撮影レンズ1を光軸方向に移動させるフォーカス駆動機能を備えている。また、撮影レンズ1はズーム機能を有するものであってもよい。
撮像部3は、撮像素子および撮像素子駆動回路等の周辺回路を有する。撮像素子は、CMOSイメージセンサ、CCDイメージセンサ等の撮像素子であり、撮影レンズ1による被写体像の結像位置付近に配置される。撮像素子駆動回路は、制御部31の制御信号に従って、撮像素子から画像データを読出し、画像データを制御部31に出力する。また、撮像素子駆動回路は、制御部31からの指示に従って読み出しのフレームレートを変更することができる。
姿勢検出部5は、ジャイロや加速度センサ等のセンサを有し、カメラの姿勢が、縦位置であるか、横位置であるかを検出し、検出結果を制御部31に出力する。また、検出結果が縦位置の場合には、さらに、グリップ部G(図2参照)との位置関係、すなわちグリップ部Gが上側にあるか(図4(c)参照)、グリップ部Gが下側にあるか(図4(d)参照)を検出する。姿勢検出部5は、手ブレ検出用のセンサと兼用してもよい。カメラの縦位置および横位置については、図4を用いて後述する。姿勢検出部5は、撮像装置の姿勢を検出する姿勢検出部として機能する。
EVF制御部7は、前述の撮像部3において取得され、制御部31において表示用に画像処理された画像データを入力し、または記録部21に記録され、読み出された記録画像データを入力し、この画像データをEVF9に出力する。EVF制御部7は、これらのライブビュー表示および記録画像の再生表示にあたって、表示の制御を行う。
EVF9は、カメラ本体100内に内蔵された小型の表示ディスプレイを有する。撮影者15は、接眼レンズ11を介して、EVF9の表示ディスプレイに表示されたライブビュー画像等を観察することができる。なお、EVF制御部7、EVF9、接眼レンズ11、視度調整部13を含めてファインダという。EVF9は、撮像した画像データに基づいて表示する表示部として機能する。
視度調整部13は、接眼レンズ11を光軸方向に移動させる調節機構を有し、制御部31からの視度調整データに従って、撮影者15の眼に最適となるように視度調整を行う。このため、EVF9は視度を調節することが可能である。なお、撮影者15の右眼と左眼について、それぞれ視度を予め測定し、ROM25に記録しておき、この記録された視度に基づいて、視度調整を行う(後述する図7のS63、S69参照)。
アイセンサ17は、接眼レンズ11を含む接眼部の周辺にファインダを覗こうとする撮影者の顔があるか否かを検出し、検出結果を制御部31に出力する。アイセンサ17による検出としては、例えば、撮影者15に投光する赤外発光素子と、撮影者15からの反射光を受光する赤外受光素子等によって行うようにしてもよい。この投受光式のアイセンサに限らず、他の方式でファインダを覗いているか否かを検出するようにしてもよい。アイセンサ17は、ファインダを覗いているか否かを検出する接眼検出部として機能する。
背面表示部19は、液晶ディスプレイ(LCD)、有機EL等の表示ディスプレイを有し、カメラ本体100の背面に配置される。背面表示部19には、ライブビュー画像や再生画像の表示等が行われる。
タッチパネル19aは、背面表示部19の表示ディプレイと一体または前面に配置され、撮影者の指等のタッチを検出し、そのタッチ位置を制御部31に出力する。なお、タッチパネル19aは、静電容量式タッチパネル等を採用し、指や鼻等が直接タッチパネルに接触した場合に限らず、指や鼻等がタッチパネルに接近した場合に、このことを検出するようにしてもよい。
前述の静電容量式タッチセンサは、タッチ電極の静電容量を計測する。タッチ電極と周囲の導電体との間には静電容量が存在し、タッチ電極に導電体(人体)が近づくと、静電容量の値が増加する。タッチパネル上に複数のタッチ電極をマトリクス状に配置し、静電容量が増加する位置を検出してタッチ位置を特定することができる。このため、静電容量の検出感度を増加させることにより、タッチ電極に接触しなくても接近することによりタッチ位置を特定することができる。
タッチパネル19aは、タッチパネルの検出領域への物体のタッチ位置、または上記タッチパネルに最も接近する物体の位置を検出する位置検出部として機能する。なお、本実施形態の説明においては、簡略化するために、タッチパネルに直接接触する場合に限らず、タッチパネルに接近する動作も含めて、すなわち、物体がタッチパネルに最も接近する場合も含めて、「タッチ」と記載する場合がある。
記録部21は、電気的に書き換え可能な不揮発性メモリであり、カメラ本体100に装填自在な記録媒体を有する。記録部21は、撮像部3によって取得され、制御部31によって記録用に画像処理された画像データを記録し、またこの画像データの読み出しを行う。
RAM(Random Access Memory)23は、電気的に書き換え可能な揮発性メモリであり、制御部31における演算・制御の際の一時記憶用メモリや、撮像部3からの画像データの一時記憶用メモリとして使用される。
ROM(Read Only Memory)25は、電気的に書き換え可能な不揮発性メモリであり、制御部31内のCPUを動作させるためのプログラムコードを記憶する。また、カメラ本体100やレンズ鏡筒200の各種調整値を記憶する。さらに、撮影者15の右眼および左眼の視度の測定結果を記憶する。
操作部27は、電源釦、シャッタレリーズ釦、再生釦、メニュー釦、十字キー、OK釦等、各種入力釦や各種入力キー等の操作部材を含み、これらの操作部材の操作状態を検知し、検知結果を制御部31内のCPUに出力する。CPUは、操作部27からの検知結果に基づいて、ユーザの操作に応じた各種シーケンスを実行する。電源釦は、カメラの電源のオン/オフを指示するための操作部材である。電源釦が押されるとカメラの電源はオンとなり、再度、電源釦が押されるとカメラの電源はオフとなる。なお、電源釦に限らず、レバーやダイヤル等、他の形式の操作部材でも構わない。
シャッタレリーズ釦は、半押しでオンになるファーストシャッタレリーズスイッチ(1RSW)と、半押しから更に押し込み全押しとなるとオンになるセカンドシャッタレリーズスイッチ(2RSW)からなる。CPUは、ファーストシャッタレリーズスイッチ(1RSW)がオンとなると、AE動作やAF動作等の撮影準備シーケンスを実行する。また、セカンドシャッタレリーズスイッチ(2RSW)がオンとなると、メカニカルシャッタ等を制御し、撮像部3から画像データを取得し、この画像データを記録部21に記録する一連の撮影シーケンスを実行して本撮影を行う。シャッタレリーズ釦は、撮影準備状態を指示するための操作部材として機能する(図6のS13参照)。また、シャッタレリーズ釦は、本撮影を指示するための操作部材として機能する(図6のS25参照)。
メニュー釦は、メニュー画面を表示パネル135に表示させるための操作釦である。メニュー画面上では、各種の設定を行うことができる。この設定としては、例えば、視度の測定、アートフィルタモード、OVF(Optical View Finder)シミュレーションモード、LV(Live View)ブーストモード、ナチュラルビューモード等がある。なお、種々の設定にあたって、メニュー画面以外にも、例えば、釦操作やダイヤル操作等で直接設定するようにしてもよい。
制御部31は、CPU(Central Processing Unit)とその周辺回路を有し、ROM25に記憶されたプログラムコードに従って、カメラ内の各部を制御して、カメラ全体の制御を行う。周辺回路は、種々の回路を含む。例えば、周辺回路は、画像データを入力し、ライブビュー表示用の画像処理、記録部21から読み出した記録画像の再生表示用の画像処理、アートフィルタのための画像処理等の画像処理回路を有する。
制御部31は、接眼検出部によりファインダを覗いていると検出される場合に、位置検出部により検出される位置に応じて、ファインダの機能を制御する制御部として機能する(例えば、図6のS7、S21、図7参照)。また、この制御部は、姿勢検出部により検出される姿勢に応じて、タッチパネルの検出領域を制限する(例えば、図5、図7のS45、S53、S57参照)。また、この制御部は、位置検出部により検出される位置に応じて、右眼で覗いているか左眼で覗いているかを判別し、判別された眼に応じて、ファインダの視度を調節する(例えば、図7のS61、S63、S67、S69参照)。
また、この制御部は、位置検出部により検出される位置に応じて、右眼で覗いているか左眼で覗いているかを判別し、判別された眼に応じて、表示部の表示のフレームレートを設定する(例えば、図7のS61、S65、S67、S69、図8参照)。また、この制御部は、位置検出部により検出される位置に応じて、右眼で覗いているか左眼で覗いているかを判別し、判別された眼に応じて、表示部に表示する画像に特殊効果を付加する度合いを設定する(例えば、図7のS61、S63、S67、S69、図8参照)。
図2は、本実施形態に係るカメラの背面図である。このカメラの背面には、背面表示部19が配置されている。また、この背面表示部19には、タッチパネル19aが設けられており、前述したように、撮影者の指や鼻等が背面表示部19の表示面をタッチすると、タッチパネル19aは、その位置を検知し、制御部31に出力する。
また、カメラ本体100の上部には、接眼レンズ11が配置されており、この接眼レンズ11を通してEVF9の表示ディスプレイを観察することができる。また、接眼レンズ11の近傍には、アイセンサ17が配置されており、撮影者が近づくと、このことを検知し、制御部31に出力する。
カメラ本体100の右側および上部には、操作部27の各種操作部材が配置されている。カメラ本体100の右側部分は、撮影者が右手で把持する際のグリップ部G(図2において、破線Gで示す)である。
図3は、撮影者15が接眼レンズ11を通してライブビュー表示を観察している様子を示している。この状態では、カメラ本体100は横位置にあり、撮影者15の右手はグリップ部G(図2参照)を把持し、左手はレンズ鏡筒200の操作リングの回転操作を行っている。
次に、図4を用いて、カメラの構え方とEVF9の観察の仕方について説明する。図4(a)は、カメラを横位置に構え、右眼でEVF9を観察している様子を示す。この状態では、撮影者の左眼はカメラ本体によって遮られずに、前方の被写体を見ることができる。図4(b)は、カメラを横位置に構え、左眼でEVF9を観察している様子を示す。この状態では、撮影者の右眼は前方の被写体を見ることができるが、カメラ本体の上部が邪魔して被写体を見難い。
図4(c)は、カメラを縦位置に構え、グリップ部Gを上にし、右眼でEVF9を観察している様子を示す。この状態では、撮影者の左眼はカメラ本体によって遮られずに、前方の被写体を見ることができる。図4(d)は、カメラを縦位置に構え、グリップ部Gを下にし、右眼でEVF9を観察している様子を示す。この状態では、撮影者の左眼はカメラ本体によって遮られるので前方の被写体を見ることができない。
このように、撮影者が右眼でEVF9を観察している場合には、左眼は前方の被写体を直接見ることができ、一方、左眼でEVF9を観察している場合には、右眼で前方の被写体を直接見ることができない。また、撮影者が右眼でEVF9を観察している場合であっても、カメラを縦位置に構え、グリップ部Gを下にした場合は、左眼は前方の被写体を直接見ることができない。
次に、図5を用いて、撮影者がEVF9を右眼で見ているか、それとも左眼で見ているかを判定する方法について説明する。
図5(a)は、カメラを縦位置に構え、グリップ部Gを下にし、右眼で接眼レンズ11を介してEVF9を観察している様子を示している。この状態では、タッチパネル19aのエリアA(図5(a)で右下の領域)において、撮影者15の鼻が背面表示部19にタッチする。タッチパネル19aが、エリアA内におけるタッチ位置を検出し、制御部31に出力する。したがって、制御部31内のCPUは、姿勢検出部5が縦位置かつグリップ部Gが下側であることを検出した場合に(前述の図4(d)と同じ状態)、タッチパネル19aがエリアAでタッチ位置を検出した場合には、右眼でEVF9を観察していると判定する。
一方、カメラを縦位置に構え、グリップ部Gを下にし、左眼で接眼レンズ11を介してEVF9を観察している場合には、タッチパネル19aのエリアAにおいて、撮影者15の鼻が背面表示部19にタッチすることはない。したがって、制御部31内のCPUは、姿勢検出部5が縦位置を検出し、グリップ部Gが下にあると判定した場合に、タッチパネル19aがエリアAでタッチ位置を検出しない場合には、左眼でEVF9を観察していると判定する。
図5(b)は、カメラを縦位置に構え、グリップ部Gを上にし、左眼で接眼レンズ11を介してEVF9を観察している様子を示している。この状態では、タッチパネル19aのエリアB(図5(b)で左下の領域)において、撮影者15の鼻が背面表示部19にタッチする。タッチパネル19aが、エリアB内におけるタッチ位置を検出し、制御部31に出力する。したがって、制御部31内のCPUは、姿勢検出部5が縦位置かつグリップ部Gが上にあることを検出した場合に、タッチパネル19aがエリアBでタッチ位置を検出した場合には、左眼でEVF9を観察していると判定する。
一方、カメラを縦位置に構え、グリップ部Gを上にし、右眼で接眼レンズ11を介してEVF9を観察している場合には(前述の図4(c)と同じ状態)、タッチパネル19aのエリアBにおいて、撮影者15の鼻が背面表示部19にタッチすることない。したがって、制御部31内のCPUは、姿勢検出部5が縦位置を検出し、グリップ部Gが上にあると判定した場合に、タッチパネル19aがエリアBでタッチ位置を検出しない場合には、右眼でEVF9を観察していると判定する。
図5(c)は、カメラを横位置に構え、右眼で接眼レンズ11を介してEVF9を観察している様子を示している(前述の図4(a)と同じ状態)。この状態では、タッチパネル19aのエリアC(図5(c)で左側の領域)において、撮影者15の鼻が背面表示部19にタッチする。タッチパネル19aが、エリアC内におけるタッチ位置を検出し、制御部31に出力する。したがって、制御部31内のCPUは、姿勢検出部5が横位置を検出し、タッチパネル19aがエリアCでタッチ位置を検出した場合には、右眼でEVF9を観察していると判定する。
図5(d)は、カメラを横位置に構え、左眼で接眼レンズ11を介してEVF9を観察している様子を示し、前述の図4(b)と同じ状態である。この状態では、タッチパネル19aのエリアD(図5(d)で右側の領域)において、撮影者15の鼻が背面表示部19にタッチする。タッチパネル19aが、エリアD内におけるタッチ位置を検出し、制御部31に出力する。したがって、制御部31内のCPUは、姿勢検出部5が横位置を検出し、タッチパネル19aがエリアDでタッチ位置を検出した場合には、左眼でEVF9を観察していると判定する。
このように、本実施形態においては、姿勢検出部5によるカメラの姿勢検出の結果と、タッチパネル19aのタッチ位置の検出結果に基づいて、撮影者が右眼でEVF9を観察しているか、左眼でEVF9を観察しているかを判定することができる。また、カメラの姿勢、すなわち、縦位置か横位置か、縦位置の場合にグリップが上か下かに応じて、タッチ位置を検出するエリアを制限している(例えば、図7のS45、S53、S57参照)。
次に、図6および図7に示すフローチャートを用いて、本実施形態における動作について、説明する。これらのフローは、制御部31内のCPUが、ROM25に記憶されているプログラムコードに従って、カメラ内の各部を制御することによって実行する。
操作部27の電源釦がオンになると、動作を開始し、まず、初期化を行う(S1)。ここでは、各種フラグ等がリセットされ、また各種メカ機構がリセットされる。
初期化を行うと、次に、撮像を開始する(S3)。ここでは、制御部31からの制御信号に従って撮像部3が所定のフレームレートで画像データを取得し、制御部31に出力する。制御部31内の画像処理部がライブビュー表示用に画像処理を施し、EVF制御部7に出力する。これによって、EVF9にライブビュー画像が表示される。以後、フレームレートに対応する時間が経過する毎に、ライブビュー画像が更新される。
撮像を行うと、次に、接眼か否かを判定する(S5)。ここでは、アイセンサ17の検出出力に基づいて、撮影者の眼が、接眼レンズ11に接近しているか否かを判定する。すなわち、このステップでは、撮影者がファインダを覗いているか否かを検出する。
ステップS5における判定の結果、接眼であった場合には、目的別・EVF表示を行う(S7)。ここでは、背面表示部19の表示をオフとし、EVF9でライブビュー表示を行う。この場合、カメラの構え方や、撮影者が右眼で見ているか左眼で見ているかを判定し、その結果に応じて、EVF9における表示の切り替えや、接眼レンズ11の視度調節を行う。この目的別・EVF表示の詳しい動作については、図7を用いて後述する。
一方、ステップS5における判定の結果、接眼でなかった場合には、背面表示を行う(S11)。ここでは、EVF9をオフとし、背面表示部19における表示をオンとする。撮影者は、背面表示部19にライブビュー表示されるので、このライブビュー画像を見て、構図やシャッタタイミングを決定する。
ステップS7において目的別・EVF表示を行うと、またはステップS11において背面表示を行うと、次に、1R(SW)がオンか否かを判定する(S13)。ここでは、撮影者が操作部27のレリーズ釦を半押した場合に1Rがオンと判定され、半押しされていない場合には1Rがオフと判定すされる。この判定の結果、1Rがオフの場合には、ステップS3に戻り、前述の処理を繰り返す。
ステップS13における判定の結果、1Rがオンの場合には、次に、撮像を行う(S15)。ここでは、ステップS3と同様に、撮像部3から画像データを取得し、画像処理を施した後に、EVF9にライブビュー表示を行う。
撮像を行うと、次に、AE・AFを行う(S17)。AE(Auto Exposure)は、撮像部3からの画像データに基づいて、適正露光となる絞り値、シャッタ速度値、ISO感度値等の露出制御値を算出する。またAF(Auto Focus)は、撮影レンズ1を合焦となる位置に調節する。自動焦点検出方法としては、例えば、撮像部3からの画像データに基づいて焦点検出用の評価値を算出し、この評価値がピークとなる位置に撮影レンズ1を調節する。
AEとAFを行うと、次に、ステップS5と同様に接眼か否かを判定する(S19)。この判定の結果、接眼の場合には、ステップS7と同様に、目的別・EVF表示を行う(S21)。一方、接眼していなかった場合には、ステップS11と同様に、背面表示を行う(S23)。このように、レリーズ釦が半押しされた場合にも、EVF9を覗いているか否かに応じて、EVF9または背面表示部19のいずれかでライブビュー表示を行う。また、EVF9を覗いている場合には、右眼か左眼に応じて、ファインダの機能制御を行っている。
ステップS21において目的別・EVF表示を行うと、またはステップS23において背面表示を行うと、次に、2R(SW)がオンか否かを判定する(S25)。ここでは、撮影者が操作部27のレリーズ釦を全押した場合に2Rがオンと判定され、全押しされていない場合には2Rがオフと判定される。この判定の結果、2Rがオフの場合には、ステップS13に戻り、前述の処理を繰り返す。
ステップS25における判定の結果、2Rがオンの場合には、撮影を行う(S27)。ここでは、ステップS17において算出された適正露光となる露出制御値で、絞りやシャッタ等を制御し、シャッタ速度で決まる露出時間の経過後に撮像部3の撮像素子から画像データを読み出す。
撮影を行うと、次に、記録する(S29)。ここでは、読み出された画像データに対して、記録用の画像処理を施し、記録部21に画像データを記録する。
記録を行うと、次に、電源がオフか否かを判定する(S31)。ここでは、操作部27の電源釦がオフか否かを判定する。この判定の結果、電源オフでない場合には、ステップS3に戻り、前述の動作を繰り返す。一方、判定の結果、電源オフの場合には、カメラ制御のフローを終了する。
次に、図7に示すフローチャートを用いて、ステップS7およびS21における目的別・EVF表示の動作について説明する。
目的別・EVF表示のフローに入ると、まず、姿勢検出を行う(S41)。ここでは、姿勢検出部5がカメラの姿勢を検出し、その結果をCPUに出力する。
姿勢検出を行うと、次に縦位置か否かの判定を行う(S43)。ここでは、ステップS41における検出結果に基づいて、カメラが縦位置で構えられているか横位置で構えられているかを判定する。
ステップS43における判定の結果、縦位置でなかった場合には、すなわち、横位置の場合には、検出エリアC、Dについて検出を行う(S45)。ここでは、図5(c)(d)に示すエリアCとエリアDについて、タッチパネル19aがタッチ状態を検出する。
次に、エリアCがタッチされたか否かを判定する(S47)。ここでは、ステップS45における検出結果に基づいて、エリアCがタッチされた否かを判定する。この判定の結果、エリアCがタッチされていなかった場合には、エリアDがタッチされたか否かを判定する(S49)。ここでは、ステップS45における検出結果に基づいて、エリアDがタッチされたか否かを判定する。
ステップS43における判定の結果、縦位置であった場合には、次に、グリップが下にあるか否かを判定する(S51)。ここでは、ステップS41における検出結果に基づいて、グリップが下にあるか否かを判定する。
ステップS51における判定の結果、グリップが下にある場合には、次に、検出エリアAのタッチ状態を検出する(S53)。ここでは、図5(a)に示すエリアAについて、タッチパネル19aがタッチ状態を検出する。
続いて、エリアAがタッチされたか否かを判定する(S55)。ここでは、ステップS53における検出結果に基づいて判定する。
ステップS51における判定の結果、グリップが下になかった場合には、次に、検出エリアBにおいてタッチ状態を検出する(S57)。ここでは、図5(b)に示すエリアBについて、タッチパネル19aがタッチ状態を検出する。
続いて、エリアBがタッチされたか否かを判定する(S59)。ここでは、ステップS57における検出結果に基づいて判定する。
ステップS41〜S59において、カメラが縦位置であるか横位置であるか、また縦位置の場合にはグリップが上であるか下であるかについて判定される。そして、それぞれの状態においてタッチパネル19aにおける所定のエリアにおけるタッチ位置を検出する(S45、S53、S57)。この検出結果に基づいて、次に、右眼か左眼のいずれでEVF9を観察しているかを、ステップS61、S67において判別する。
ステップS47においてエリアCでタッチ状態であると判定された場合、またはステップS49においてエリアDでタッチ状態でないと判定された場合、またはステップS55において、エリアAでタッチ状態であると判定された場合、またはステップS59において、エリアBでタッチ状態でないと判定された場合には、右眼と判別する(S61)。
すなわち、ステップS47においてエリアCでタッチ状態であると判定された場合、またはステップS49においてエリアDでタッチ状態でないと判定された場合は、カメラが横位置にあり、エリアCでタッチ状態であるか、エリアDはタッチ状態でないことから、図5(c)に示すように、右眼でEVF9を覗いている状態である。
また、ステップS55において、エリアAでタッチ状態であると判定された場合は、カメラが縦位置で、グリップ部Gが下にあり、エリアAがタッチ状態であることから、図5(a)に示すように、右眼でEVF9を覗いている状態である。
また、ステップS59において、エリアBでタッチ状態でないと判定された場合は、カメラが縦位置でグリップ部Gが上にあり、エリアBがタッチ状態でないかことから、右眼でEVF9を覗いている状態である(図5(b)参照)。
一方、ステップS49においてエリアDでタッチ状態であると判定された場合、またはステップS55においてエリアAでタッチ状態でないと判定された場合、またはステップS59においてエリアBでタッチ状態であると判定された場合には、左眼と判別する(S67)。
すなわち、ステップS49においてエリアDでタッチ状態であると判定された場合は、カメラは横位置にあり、エリアDでタッチ状態であることから、図5(d)に示すように、左眼でEVF9を覗いている状態である。
また、ステップS55においてエリアAでタッチ状態でないと判定された場合は、カメラは縦位置にあり、グリップ部Gは下にあり、エリアAはタッチ状態でないことから、左眼でEVF9を覗いている状態である(図5(a)参照)。
また、ステップS59においてエリアBでタッチ状態であると判定された場合は、カメラは縦位置にあり、グリップ部Gは上にあり、エリアBはタッチ状態であることから、図5(b)に示すように、左眼でEVF9を覗いている状態である。
ステップS61およびS67において、EVF9を覗いている眼が右眼か左眼かを判別すると、ステップS63、S65、S69、S71において、それぞれの眼に応じたEVF9の機能制御を行う。
ステップS61において、右眼と判別した場合には、右眼用視度調節を行う(S63)。ここでは、予め測定された撮影者の右眼の視度データを、ROM25から読み出し、この読み出した視度データに基づいて視度調整部13が接眼レンズ11の視度調整を行う。
一方、ステップS67において、左眼と判別した場合には、左眼用視度調節を行う(S69)。ここでは、予め測定された撮影者の左眼の視度データを、ROM25から読み出し、この読み出した視度データに基づいて視度調整部13が接眼レンズ11の視度調整を行う。
このように、ステップS63またはS67において、撮影者が実際に覗いている眼が右眼であるか、左眼であるかを判別し、この判別結果に応じて視度調整しているので、撮影者はEVF9を覗いた際にピントのあった画像を観察することができる。
ステップS63において、右眼用視度調節を行うと、次に、ナチュラル表示データの作成と高フレームレートの設定を行う(S65)。また、ステップS69において、左眼用視度調節を行うと、次に、没入感のある表示データの作成を行う(S71)。
両ステップにおける処理について、図8を用いて説明する。ステップS65において、図8の「右眼」と記載されている列の処理を実行し、ステップS71において、図8の「左眼」と記載されている列の処理を実行する。
まず、フレームレートについては、図8の第1段の記載に沿って設定を行う。すなわち、撮影者が右眼でEVF9を観察している場合には(S65)、高速のフレームレートに設定する。一方、左眼でEVF9を観察している場合には(S71)、通常のフレームレートに設定する。撮影者が右眼でEVF9を観察している場合には、左眼で直接被写体を観察できることから、EVF9で表示遅れが生ずることを防止するために、高速のフレームレートを設定する。一方、撮影者が左眼でEVF9を観察している場合には、通常、右眼で被写体を観察していないので、通常のフレームレートを設定する。なお、フレームレートは、制御部31から撮像部3内の撮像素子駆動回路に制御信号を送信し、設定する。
アートLV(ライブビュー)モードがメニュー画面等において設定されている場合には、図8の第2段の記載に沿って処理を行う。すなわち、撮影者が左眼でEVF9を観察している場合には(S71)、設定されたアートLVモードに従って画像データに画像処理を施して表示用の画像データを生成する。一方、右眼でEVF9を観察している場合には(S65)、アートLVモードが設定されていても、EVF9にはアートLVモードによる表示を行わず、通常のライブビュー画像の画像データを生成する。撮影者が右眼でEVF9を観察している場合には、左眼で直接被写体を観察することができ、このとき左右の眼で見る像が大きく異なると違和感が生じてしまうのを防止するためである。
なお、アートLVモードとしては、例えば、図9に示すように、「ファンタジックフォーカス」、「ファンタジックフォーカス+スターライト」、「ファンタジックフォーカス+ホワイトエッジ」、「ポップアート」、「ポップアート+スターライト」、「ポップアート+ピンホール」、「ポップアート+ホワイトエッジ」、「トイフォト」、「ラフモノクローム」、「ジオラマ」等、種々の画像処理がある。
OVF(Optical View Finder)シミュレーションがメニュー画面等において設定されている場合には、図8の第3段の記載に沿って処理を行う。OVFシミュレーションモードは、EVF9において、光学式ファインダにおける被写体像と同等の画像を表示させるモードである。撮影者が右眼でEVF9を観察している場合には(S65)、設定されたOVFシミュレーションモードに従って画像データに画像処理を施し、表示用の画像データを生成する。一方、左眼でEVF9を観察している場合には(S71)、OVFシミュレーションモードが設定されていても、EVF9にはOVFシミュレーションモードによる画像データを生成せずに、通常のライブビュー画像の画像データを生成する。
LVブーストがメニュー画面等において設定されている場合には、図8の第4段の記載に沿って処理を行う。LVブーストモードは、画像の輝度を増幅し、暗闇であっても昼間のように明るく画像を表示させるモードである。撮影者が左眼でEVF9を観察している場合には(S71)、被写体像が明るくなるように画像データに画像処理を施し、表示用の画像データを生成する。一方、右眼でEVF9を観察している場合には(S65)、LVブーストモードが設定されていても、EVF9にはLVブーストモードによる画像データを生成せず、通常のライブビュー画像表示用の画像データを生成する。撮影者が右眼でEVF9を観察している場合には、左眼で直接被写体を観察しており、このとき左右の眼で見る像が大きく異なると違和感が生じてしまうのを防止するためである。
ナチュラルビューがメニュー画面等において設定されている場合には、図8の第5段の記載に沿って処理を行う。ナチュラルビューモードは、画像が自然に見えるように画像処理を施すモードである。撮影者が右眼でEVF9を観察している場合には(S65)、ナチュラルビューモードによる画像処理を施し、表示用の画像データを生成する。一方、左眼でEVF9を観察している場合には(S71)、ナチュラルビューモードが設定されていても、EVF9にはナチュラルビューモードによる画像データを生成せず、アートLVモードが設定されていればそれを優先し、設定されていなければ通常のライブビュー画像表示用の画像データを生成する。なお、通常のライブビュー画像表示は、ナチュラルビューモードの画像表示よりも、コントラストや彩度が強調されており、より視認性を向上させるように設定されている。
なお、本実施形態においては、撮影者がEVF9を右眼で観察しているか、左眼で観察しているかによって、図8に示すようなファインダの機能制御を行っている。しかし、これに限らず、一部の機能制御を省略してもよく、また他の機能制御を追加してもよい。
ステップS65またはS71における処理を実行すると、EVF表示を行う(S73)。ここでは、ステップS65またはステップS71において生成された画像データを用いて、EVF9に表示を行う。EVF表示を行うと、元のフローに戻る。
このように、本実施形態においては、ファインダを覗いていると検出されると(図6のS5、S19)、タッチパネルで検出される位置に応じて(図7のS47、S49、S55、S59)、ファインダの機能を制御している(図7のS63、S65、S69、S71)。
以上説明したように、本発明の一実施形態においては、ファインダを覗いているか否かを検出する接眼検出部(例えば、アイセンサ17)と、タッチパネルの検出領域への物体のタッチ位置、またはタッチパネルに最も接近する物体の位置を検出する位置検出部(例えば、タッチパネル19a)と、接眼検出部によりファインダを覗いていると検出される場合に、位置検出部により検出される位置に応じて、ファインダの機能を制御する制御部(例えば、制御部31)を設けている。このため、撮影者がいずれの眼でファインダを覗いているかに応じて、ファインダの機能を制御することができる。
なお、本発明の一実施形態においては、ファインダとして電子ビューファインダ(EVF9)を用いた例について説明した。しかし、これに限らず、ファインダとして光学式を用いてもよい。この場合には、図7のS65、S71に示したようなアートLVモードやOVFシミュレーションによる表示はできないが、ファインダの視度調節を行うことができる。
また、本実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話、スマートフォン、携帯情報端末(PDA:Personal Digital Assist)、パーソナルコンピュータ(PC)、タブレット型コンピュータ、ゲーム機器等に内蔵されるカメラでも構わない。いずれにしても、ファインダとタッチパネルを有する撮影のための機器であれば、本発明を適用することができる。
また、本明細書において説明した技術のうち、主にフローチャートで説明した制御に関しては、プログラムで設定可能であることが多く、記録媒体や記録部に収められる場合もある。この記録媒体、記録部への記録の仕方は、製品出荷時に記録してもよく、配布された記録媒体を利用してもよく、インターネットを介してダウンロードしたものでもよい。
また、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず」、「次に」等の順番を表現する言葉を用いて説明したとしても、特に説明していない箇所では、この順で実施することが必須であることを意味するものではない。
本発明は、上記実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
1・・・撮影レンズ、3・・・撮像部、5・・・姿勢検出部、7・・・EVF制御部、9・・・EVF、11・・・接眼レンズ、13・・・視度調整部、15・・・撮影者、17・・・アイセンサ、19・・・背面表示部、19a・・・タッチパネル、21・・・記録部、23・・・RAM、25・・・ROM、27・・・操作部、31・・・制御部、100・・・カメラ本体、200・・・レンズ鏡筒、G・・・グリップ部
Claims (6)
- ファインダとタッチパネルを有する撮像装置において、
上記ファインダを覗いているか否かを検出する接眼検出部と、
上記タッチパネルの検出領域への物体のタッチ位置、または上記タッチパネルに最も接近する物体の位置を検出する位置検出部と、
上記接眼検出部により上記ファインダを覗いていると検出される場合に、上記位置検出部により検出される位置に応じて、上記ファインダの機能を制御する制御部と、
を有することを特徴とする撮像装置。 - 上記撮像装置の姿勢を検出する姿勢検出部を有し、
上記制御部は、上記姿勢検出部により検出される姿勢に応じて、上記タッチパネルの検出領域を制限する、
ことを特徴とする請求項1に記載の撮像装置。 - 上記ファインダは、視度を調節することが可能であって、
上記制御部は、上記位置検出部により検出される位置に応じて、右目で覗いているか左目で覗いているかを判別し、判別された目に応じて、上記ファインダの視度を調節する、
ことを特徴とする請求項1又は2に記載の撮像装置。 - 上記ファインダは、撮像した画像データに基づいて表示する表示部を有し、
上記制御部は、上記位置検出部により検出される位置に応じて、右目で覗いているか左目で覗いているかを判別し、判別された目に応じて、上記表示部の表示のフレームレートを設定する、
ことを特徴とする請求項1又は2に記載の撮像装置。 - 上記ファインダは、撮像した画像データに基づいて表示する表示部を有し、
上記制御部は、上記位置検出部により検出される位置に応じて、右目で覗いているか左目で覗いているかを判別し、判別された目に応じて、上記表示部に表示する画像に特殊効果を付加する度合いを設定する、
ことを特徴とする請求項1又は2に記載の撮像装置。 - ファインダとタッチパネルを有する撮像装置における撮像方法において、
上記ファインダを覗いているか否かを検出し、
上記タッチパネルの検出領域への物体のタッチ位置、または上記タッチパネルに最も接近する物体の位置を検出し、
上記ファインダを覗いていると検出される場合に、上記タッチパネルで検出される位置に応じて、上記ファインダの機能を制御する、
ことを特徴とする撮像方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015105541A JP2016220133A (ja) | 2015-05-25 | 2015-05-25 | 撮像装置および撮像方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015105541A JP2016220133A (ja) | 2015-05-25 | 2015-05-25 | 撮像装置および撮像方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016220133A true JP2016220133A (ja) | 2016-12-22 |
Family
ID=57578691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015105541A Pending JP2016220133A (ja) | 2015-05-25 | 2015-05-25 | 撮像装置および撮像方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016220133A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019184771A (ja) * | 2018-04-06 | 2019-10-24 | キヤノン株式会社 | 撮像装置及びその制御方法 |
-
2015
- 2015-05-25 JP JP2015105541A patent/JP2016220133A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019184771A (ja) * | 2018-04-06 | 2019-10-24 | キヤノン株式会社 | 撮像装置及びその制御方法 |
JP7071197B2 (ja) | 2018-04-06 | 2022-05-18 | キヤノン株式会社 | 撮像装置及びその制御方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10623647B2 (en) | Image capturing apparatus and control method for changing a setting based on a touch operation on a display | |
JP4884417B2 (ja) | 携帯型電子装置及びその制御方法 | |
US8605188B2 (en) | Camera having a rear-surface display section and an in-viewfinder display section | |
US9172881B2 (en) | Camera and method of controlling operation of same | |
JP5809891B2 (ja) | 撮影装置 | |
JP5959217B2 (ja) | 撮像装置及び画質調整方法、画質調整プログラム | |
JP6515924B2 (ja) | 撮像装置 | |
JP2005143112A (ja) | カメラ及びこれに関連する方法 | |
JP2014068081A (ja) | 撮像装置及びその制御方法、プログラム、並びに記憶媒体 | |
JP6476064B2 (ja) | 撮像装置、及び撮像制御方法 | |
JP2007086460A (ja) | カメラ | |
CN107800956B (zh) | 摄像设备、控制方法和存储介质 | |
KR101812656B1 (ko) | 디지털 촬영 장치 및 이의 제어 방법 | |
JP2016220133A (ja) | 撮像装置および撮像方法 | |
JP2008060811A (ja) | 撮像装置 | |
JP5715269B2 (ja) | カメラ、カメラの制御方法、およびプログラム | |
JP2010176460A (ja) | 電子機器およびカメラ | |
CN112040095A (zh) | 电子装置、电子装置的控制方法及存储介质 | |
JP6320251B2 (ja) | 撮像装置、撮像方法、およびプログラム | |
JP2015228537A (ja) | 撮像装置 | |
JP2020134766A (ja) | 撮像装置および撮像装置の制御方法 | |
JP2014236284A (ja) | 撮像装置 | |
JP5053158B2 (ja) | 表示装置、操作制御方法およびプログラム | |
JP6506440B2 (ja) | 撮像装置、撮像方法、およびプログラム | |
JP5963440B2 (ja) | 撮像装置及びその制御方法 |