JP2023160103A - 電子機器 - Google Patents
電子機器 Download PDFInfo
- Publication number
- JP2023160103A JP2023160103A JP2022070192A JP2022070192A JP2023160103A JP 2023160103 A JP2023160103 A JP 2023160103A JP 2022070192 A JP2022070192 A JP 2022070192A JP 2022070192 A JP2022070192 A JP 2022070192A JP 2023160103 A JP2023160103 A JP 2023160103A
- Authority
- JP
- Japan
- Prior art keywords
- item
- display
- line
- electronic device
- indicator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 91
- 238000001514 detection method Methods 0.000 claims abstract description 81
- 230000004044 response Effects 0.000 claims abstract description 23
- 238000003384 imaging method Methods 0.000 claims description 32
- 230000008859 change Effects 0.000 claims description 10
- 238000003860 storage Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 69
- 230000008569 process Effects 0.000 description 57
- 210000001508 eye Anatomy 0.000 description 54
- 210000003811 finger Anatomy 0.000 description 23
- 238000004891 communication Methods 0.000 description 18
- 238000013459 approach Methods 0.000 description 13
- 230000001276 controlling effect Effects 0.000 description 12
- 210000001747 pupil Anatomy 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000002360 preparation method Methods 0.000 description 6
- 238000003825 pressing Methods 0.000 description 6
- 210000005252 bulbus oculi Anatomy 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 210000003128 head Anatomy 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 5
- 230000009467 reduction Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 3
- 238000001028 reflection method Methods 0.000 description 3
- 206010034719 Personality change Diseases 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 230000005674 electromagnetic induction Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000010897 surface acoustic wave method Methods 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 229910000906 Bronze Inorganic materials 0.000 description 1
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000010974 bronze Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- KUNSUQLRTQLHQQ-UHFFFAOYSA-N copper tin Chemical compound [Cu].[Sn] KUNSUQLRTQLHQQ-UHFFFAOYSA-N 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/675—Focus control based on electronic image sensor signals comprising setting of focusing regions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/745—Detection of flicker frequency or suppression of flicker wherein the flicker is caused by illumination, e.g. due to fluorescent tube illumination or pulsed LED illumination
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Exposure Control For Cameras (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Studio Devices (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
Abstract
Description
本発明は電子機器に関し、特に視線検知可能な電子機器に関するものである。
デジタルカメラの電子ビューファインダーには、撮影の補助のためのアイテム(情報や警告)がライブビュー画像と共に表示される。このようなアイテムはライブビュー画像の確認の邪魔にならないよう、画面周辺に配置されることが多い。
しかしながら、アイテムの確認のために画面周辺に視線を移すことは、シャッターチャンスを逃すことにつながるため、視線の少ない移動量でアイテムを確認可能にする方法が提案されている。例えば特許文献1には、ユーザーの視線位置にアイテムを表示する技術が開示されている。
しかしながら、特許文献1に開示の技術では、視線位置にアイテムが表示されるため、アイテムがライブビュー画像(視線位置にいる被写体)の確認の邪魔になってしまい、ユーザーがシャッターチャンスを逃してしまうことがある。
本発明は、ユーザーの邪魔にならず且つ視線の少ない移動量で確認できるようにアイテムを表示することのできる技術を提供することを目的とする。
本発明の電子機器は、表示領域内におけるユーザーの視線位置を検出する検出手段と、前記検出手段により検出された前記視線位置を示す第1のインジケーターを表示し、所定の条件が満たされたことに応答して、前記所定の条件が満たされた時点で前記第1のインジケーターが示す範囲に重ならない、当該範囲から所定の範囲内の位置に、アイテムを表示するように制御する表示制御手段とを有することを特徴とする。
本発明によれば、ユーザーの邪魔にならず且つ視線の少ない移動量で確認できるようにアイテムを表示することができる。
<デジタルカメラ100の外観図>
以下、図面を参照して本発明の実施形態を説明する。図1(a),1(b)は、本発明を適用可能な電子機器の一例としてのデジタルカメラ100の外観図である。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。
以下、図面を参照して本発明の実施形態を説明する。図1(a),1(b)は、本発明を適用可能な電子機器の一例としてのデジタルカメラ100の外観図である。図1(a)はデジタルカメラ100の前面斜視図であり、図1(b)はデジタルカメラ100の背面斜視図である。
表示部28は、デジタルカメラ100の背面に設けられた表示部であり、画像や各種情報を表示する。タッチパネル70aは、表示部28の表示面(タッチ操作面;タッチ操作部材)に対するタッチ操作を検出可能である。ファインダー外表示部43は、デジタルカメラ100の上面に設けられた表示部であり、シャッター速度や絞りをはじめとするデジタルカメラ100の様々な設定値を表示する。シャッターボタン61は撮影指示(撮像指示)を行うための操作部材である。モード切替スイッチ60は、各種モードを切り替えるための操作部材である。端子カバー40は、デジタルカメラ100を外部機器に接続するコネクタ(不図示)を保護するカバーである。
メイン電子ダイヤル71は回転操作部材であり、メイン電子ダイヤル71を回すことで、シャッター速度や絞りなどの設定値の変更等が行える。電源スイッチ72は、デジタルカメラ100の電源のONとOFFを切り替える操作部材である。サブ電子ダイヤル73は回転操作部材であり、サブ電子ダイヤル73を回すことで、選択枠(カーソル)の移動や画像送りなどが行える。4方向キー74は、上、下、左、右部分をそれぞれ押し込み可能に構成され、4方向キー74の押した部分に応じた処理が可能である。SETボタン75は、押しボタンであり、主に選択項目の決定などに用いられる。マルチコントローラー(以下、MC)65は、8方向への方向指示と、中央部分の押し込み操作とを受け付け可能である。
動画ボタン76は、動画撮影(記録)の開始や停止の指示に用いられる。AEロックボタン77は押しボタンであり、撮影待機状態でAEロックボタン77を押下することにより、露出状態を固定することができる。拡大ボタン78は、撮影モードのライブビュー表示(LV表示)において拡大モードのONとOFFを切り替えるための操作ボタンである。拡大モードをONとしてからメイン電子ダイヤル71を操作することにより、ライブビュー画像(LV画像)の拡大や縮小を行える。再生モードにおいては、拡大ボタン78は、再生画像を拡大したり、その拡大率を増加させたりするための操作ボタンとして機能する。再生ボタン79は、撮影モードと再生モードとを切り替えるための操作ボタンである。撮影モード中に再生ボタン79を押下することで再生モードに遷移し、記録媒体200(後述)に記録された画像のうち最新の画像を表示部28に表示させることができる。メニューボタン81はメニュー画面を表示させる指示操作を行うために用いられる押しボタンであり、メニューボタン81が押されると各種の設定が可能なメニュー画面が表示部28に表示される。ユーザーは、表示部28に表示されたメニュー画面と、4方向キー74やSETボタン75、またはMC65とを用いて直感的に各種設定を行うことができる。視線確定ボタン82は、操作部70に含まれる操作部材であって、後述する視線ポインターの位置に基づく被写体の選択実行または解除を指示する押しボタンである。視線確定ボタン82は、ユーザーがファインダーを覗いた状態(接眼部16に接眼した状態)でも操作しやすい位置に配置されており、グリップ部90を持つ右手の親指で操作可能な位置に配置されている。
通信端子10は、デジタルカメラ100がレンズユニット150(後述;着脱可能)側と通信を行うための通信端子である。接眼部16は、接眼ファインダー(覗き込み型のファインダー)の接眼部であり、ユーザーは、接眼部16を介して内部のEVF29(後述;電子ビューファインダー)に表示された映像を視認することができる。接眼検知部57は、接眼部16にユーザー(撮影者)が接眼しているか否かを検知する接眼検知センサーである。蓋202は、記録媒体200(後述)を格納するスロットの蓋である。グリップ
部90は、ユーザーがデジタルカメラ100を構える際に右手で握りやすい形状とした保持部である。グリップ部90を右手の小指、薬指、中指で握ってデジタルカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン61とメイン電子ダイヤル71が配置されている。また、同じ状態で、右手の親指で操作可能な位置に、サブ電子ダイヤル73、視線確定ボタン82が配置されている。
部90は、ユーザーがデジタルカメラ100を構える際に右手で握りやすい形状とした保持部である。グリップ部90を右手の小指、薬指、中指で握ってデジタルカメラ100を保持した状態で、右手の人差指で操作可能な位置にシャッターボタン61とメイン電子ダイヤル71が配置されている。また、同じ状態で、右手の親指で操作可能な位置に、サブ電子ダイヤル73、視線確定ボタン82が配置されている。
<デジタルカメラ100の構成ブロック図>
図2は、デジタルカメラ100の構成例を示すブロック図である。レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。通信端子6は、レンズユニット150がデジタルカメラ100側と通信を行うための通信端子であり、通信端子10は、デジタルカメラ100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、これら通信端子6,10を介してシステム制御部50と通信する。そして、レンズユニット150は、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1の制御を行う。また、レンズユニット150は、レンズシステム制御回路4によってAF駆動回路3を介してレンズ103を変位させることで焦点を合わせる。
図2は、デジタルカメラ100の構成例を示すブロック図である。レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、図2では簡略して一枚のレンズのみで示している。通信端子6は、レンズユニット150がデジタルカメラ100側と通信を行うための通信端子であり、通信端子10は、デジタルカメラ100がレンズユニット150側と通信を行うための通信端子である。レンズユニット150は、これら通信端子6,10を介してシステム制御部50と通信する。そして、レンズユニット150は、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り1の制御を行う。また、レンズユニット150は、レンズシステム制御回路4によってAF駆動回路3を介してレンズ103を変位させることで焦点を合わせる。
シャッター101は、システム制御部50の制御で撮像部22の露光時間を自由に制御できるフォーカルプレーンシャッターである。
撮像部22は、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。撮像部22は、システム制御部50にデフォーカス量情報を出力する撮像面位相差センサーを有していてもよい。
画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の処理(画素補間、縮小といったリサイズ処理、色変換処理、等)を行う。また、画像処理部24は、撮像した画像データを用いて所定の演算処理を行い、システム制御部50は、画像処理部24により得られた演算結果に基づいて露光制御や測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理、等が行われる。画像処理部24は、さらに、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
メモリ制御部15は、A/D変換器23、画像処理部24、メモリ32間のデータの送受信を制御する。A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介してメモリ32に書き込まれる。あるいは、A/D変換器23からの出力データは、画像処理部24を介さずにメモリ制御部15を介してメモリ32に書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示部28やEVF29に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。
また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。メモリ32に書き込まれた表示用の画像データはメモリ制御部15を介して表示部28やEVF29により表示される。表示部28とEVF29のそれぞれは、LCDや有機EL等の表示器上で、メモリ制御部15からの信号に応じた表示を行う。A/D変換器23によってA/D変換されメモリ32に蓄積されたデータを表示部28またはEVF29に逐次転送して表示することで、ライブビュー表示(LV)が行える。以下、ライブビュー表示で表示される画像をライブビュー画像(LV画像)と称する。表示部28またはEVF29でライブ
ビュー表示が行われている場合には、ユーザーは、表示部28またはEVF29の表示領域を介してデジタルカメラ100の撮像範囲を視認可能である。
ビュー表示が行われている場合には、ユーザーは、表示部28またはEVF29の表示領域を介してデジタルカメラ100の撮像範囲を視認可能である。
視線検出部160(受付部)は、接眼部16に接眼したユーザーの目の、EVF29を見る視線を検出する。視線検出部160は、ダイクロイックミラー162、結像レンズ163、視線検知センサー164、視線検出回路165、赤外発光ダイオード166により構成される。
赤外発光ダイオード166は、ファインダー画面内(EVF29の表示領域内)におけるユーザーの視線位置を検出するための発光素子であり、ユーザーの眼球(目)161に赤外光を照射する。赤外発光ダイオード166から発した赤外光は眼球(目)161で反射し、その赤外反射光はダイクロイックミラー162に到達する。ダイクロイックミラー162は、赤外光だけを反射して、可視光を透過させる。光路が変更された赤外反射光は、結像レンズ163を介して視線検知センサー164の撮像面に結像する。結像レンズ163は、視線検知光学系を構成する光学部材である。視線検知センサー164は、CCD型イメージセンサ等の撮像デバイスから構成される。
視線検知センサー164は、入射された赤外反射光を電気信号に光電変換して視線検出回路165へ出力する。視線検出回路165は、視線検知センサー164の出力信号に基づいて、ユーザーの眼球(目)161の動きからユーザーの視線位置を検出し、検出情報をシステム制御部50および注視判定部170に出力する。
注視判定部170は、視線検出回路165から受け取った検出情報に基づいて、ユーザーの視線が或る領域に固定されている期間が所定の閾値を超えた場合に、その領域を注視していると判定する。従って、当該領域は、注視が行われた位置である注視位置(注視領域)であるといえる。なお、「視線が或る領域に固定されている」とは、例えば、所定の期間経過するまでの間、視線の動きの平均位置が当該領域内にあり、かつ、ばらつき(分散)が所定値よりも少ないことである。なお、所定の閾値は、システム制御部50により任意に変更可能である。また、注視判定部170を独立したブロックとして設けず、システム制御部50が視線検出回路165から受け取った検出情報に基づいて注視判定部170と同じ機能を実行するようにしてもよい。
本実施形態では、視線検出部160は、角膜反射法と呼ばれる方式を用いて視線を検出する。角膜反射法とは、赤外発光ダイオード166から発せられた赤外光が眼球(目)161(特に角膜)で反射した反射光と、眼球(目)161の瞳孔との位置関係から、視線の向き・位置を検出する方式である。なお、視線(視線の向き・位置)を検出する方式は特に限定されず、上記以外の方式を用いてもよい。例えば、黒目と白目での光の反射率が異なることを利用する強膜反射法と呼ばれる方式を用いてもよい。
ファインダー外表示部43には、ファインダー外表示部駆動回路44を介して、シャッター速度や絞りをはじめとするカメラの様々な設定値が表示される。
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えば、FLash-ROM等である。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記録される。ここでいうプログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
システム制御部50は、少なくとも1つのプロセッサーまたは回路からなる制御部であり、デジタルカメラ100全体を制御する。システム制御部50は、前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現
する。システムメモリ52は例えばRAMであり、システム制御部50は、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等をシステムメモリ52に展開する。また、システム制御部50は、メモリ32、表示部28等を制御することにより表示制御も行う。
する。システムメモリ52は例えばRAMであり、システム制御部50は、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等をシステムメモリ52に展開する。また、システム制御部50は、メモリ32、表示部28等を制御することにより表示制御も行う。
システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出などを行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。
記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
通信部54は、無線または有線ケーブルによって接続された外部機器との間で、映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部54は、Bluetooth(登録商標)やBluetooth Low Energyでも外部機器と通信可能である。通信部54は撮像部22で撮像した画像(LV画像を含む)や、記録媒体200に記録された画像を送信可能であり、外部機器から画像データやその他の各種情報を受信することができる。
姿勢検知部55は、重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルに付加したり、画像を回転して記録したりすることが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。姿勢検知部55である加速度センサーやジャイロセンサーを用いて、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。
接眼検知部57は、接眼ファインダー(以後、単に「ファインダー」と記載する)の接眼部16に対する目(物体)161の接近(接眼)および離脱(離眼)を検知する(接近検知)、接眼検知センサーである。システム制御部50は、接眼検知部57で検知された状態に応じて、表示部28とEVF29の表示(表示状態)/非表示(非表示状態)を切り替える。より具体的には、少なくとも撮影待機状態で、かつ、表示先の切替が自動切替である場合において、非接眼中は表示先を表示部28として表示をオンとし、EVF29は非表示とする。また、接眼中は表示先をEVF29として表示をオンとし、表示部28は非表示とする。接眼検知部57としては、例えば赤外線近接センサーを用いることができ、EVF29を内蔵するファインダーの接眼部16への何らかの物体の接近を検知することができる。物体が接近した場合は、接眼検知部57の投光部(図示せず)から投光した赤外線が物体で反射して赤外線近接センサーの受光部(図示せず)で受光される。受光された赤外線の量によって、物体が接眼部16からどの距離まで近づいているか(接眼距離)も判別することができる。このように、接眼検知部57は、接眼部16への物体の近
接距離を検知する接眼検知を行う。非接眼状態(非接近状態)から、接眼部16に対して所定距離以内に近づく物体が検出された場合に、接眼されたと検出するものとする。接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサーは一例であって、接眼検知部57には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサーを採用してもよい。
接距離を検知する接眼検知を行う。非接眼状態(非接近状態)から、接眼部16に対して所定距離以内に近づく物体が検出された場合に、接眼されたと検出するものとする。接眼状態(接近状態)から、接近を検知していた物体が所定距離以上離れた場合に、離眼されたと検出するものとする。接眼を検出する閾値と、離眼を検出する閾値は例えばヒステリシスを設けるなどして異なっていてもよい。また、接眼を検出した後は、離眼を検出するまでは接眼状態であるものとする。離眼を検出した後は、接眼を検出するまでは非接眼状態であるものとする。なお、赤外線近接センサーは一例であって、接眼検知部57には、接眼とみなせる目や物体の接近を検知できるものであれば他のセンサーを採用してもよい。
システム制御部50は、視線検出部160を制御することによって、EVF29への以下の視線の状態を検出できる。
・EVF29へ向けられていなかった視線が新たにEVF29へ向けられたこと。すなわち、視線入力の開始。
・EVF29に対する視線入力をしている状態であること。
・EVF29の或る位置へ注視している状態であること。
・EVF29へ向けられていた視線を外したこと。すなわち、視線入力の終了。
・EVF29へ何も視線入力していない状態(EVF29を見ていない状態)。
・EVF29へ向けられていなかった視線が新たにEVF29へ向けられたこと。すなわち、視線入力の開始。
・EVF29に対する視線入力をしている状態であること。
・EVF29の或る位置へ注視している状態であること。
・EVF29へ向けられていた視線を外したこと。すなわち、視線入力の終了。
・EVF29へ何も視線入力していない状態(EVF29を見ていない状態)。
これらの操作・状態や、EVF29に視線が向いている位置(方向)は内部バスを通じてシステム制御部50に通知され、システム制御部50は、通知された情報に基づいてどのような視線入力が行われているかを判定する。
操作部70は、ユーザーからの操作(ユーザー操作)を受け付ける入力部であり、システム制御部50に各種の動作指示を入力するために使用される。図2に示すように、操作部70は、モード切替スイッチ60、シャッターボタン61、電源スイッチ72、タッチパネル70a、等を含む。また、操作部70は、その他の操作部材70bとして、メイン電子ダイヤル71、サブ電子ダイヤル73、4方向キー74、SETボタン75、動画ボタン76、AEロックボタン77、拡大ボタン78、再生ボタン79、メニューボタン81、MC65等を含む。
モード切替スイッチ60は、システム制御部50の動作モードを静止画撮影モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画撮影モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモード(Pモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。モード切替スイッチ60により、ユーザーは、これらのモードのいずれかに直接切り替えることができる。あるいは、モード切替スイッチ60で撮影モードの一覧画面に一旦切り替えた後に、表示された複数のモードのいずれかに、他の操作部材を用いて選択的に切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
シャッターボタン61は、第1シャッタースイッチ62と第2シャッタースイッチ64を備える。第1シャッタースイッチ62は、シャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。システム制御部50は、第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の撮影準備動作を開始する。第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信
号SW2により、撮像部22からの信号読み出しから、撮像された画像を画像ファイルとして記録媒体200に書き込むまでの、一連の撮影処理の動作を開始する。
号SW2により、撮像部22からの信号読み出しから、撮像された画像を画像ファイルとして記録媒体200に書き込むまでの、一連の撮影処理の動作を開始する。
タッチパネル70aと表示部28とは一体的に構成することができる。例えば、タッチパネル70aは、光の透過率が表示部28の表示を妨げないように構成され、表示部28の表示面の上層に取り付けられる。そして、タッチパネル70aにおける入力座標と、表示部28の表示面上の表示座標とを対応付ける。これにより、あたかもユーザーが表示部28上に表示された画面を直接的に操作可能であるかのようなGUI(グラフィカルユーザーインターフェース)を提供できる。
システム制御部50は、タッチパネル70aへの以下の操作、あるいは状態を検出できる。
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)と称する)。
・タッチパネル70aを指やペンでタッチしている状態(以下、タッチオン(Touch-On)と称する)。
・指やペンがタッチパネル70aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
・タッチパネル70aへタッチしていた指やペンがタッチパネル70aから離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
・タッチパネル70aにタッチしていなかった指やペンが新たにタッチパネル70aにタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)と称する)。
・タッチパネル70aを指やペンでタッチしている状態(以下、タッチオン(Touch-On)と称する)。
・指やペンがタッチパネル70aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)。
・タッチパネル70aへタッチしていた指やペンがタッチパネル70aから離れた(リリースされた)こと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)と称する)。
・タッチパネル70aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)。
タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出された後は、タッチオフとなる。
これらの操作・状態や、タッチパネル70a上に指やペンがタッチしている位置座標は内部バスを通じてシステム制御部50に通知される。そして、システム制御部50は通知された情報に基づいてタッチパネル70a上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル70a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル70a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定するものとする。タッチパネル70a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル70a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。さらに、複数箇所(例えば2点)を共にタッチして(マルチタッチして)、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル70aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパネルのうちいずれの方式のものであってもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
なお、デジタルカメラ100には、内蔵されたマイクまたは音声入力端子を介して接続された音声入力装置から得られたシステム制御部50に送信する音声入力部(不図示)が設けられていてもよい。この場合、システム制御部50は、入力された音声信号を必要に応じて選択し、アナログデジタル変換を行い、レベルの適正化処理、特定周波数の低減処理等をして音声信号を生成する。
本実施形態では、ユーザーは、接眼状態でタッチムーブが行われる場合の位置指標(例えば、AF枠)の位置を指定する方式を、絶対位置指定方式と相対位置指定方式とのいずれかに設定することができる。絶対位置指定方式とは、タッチパネル70aにおける入力座標と、EVF29の表示面上の表示座標とが対応付けられている方式である。絶対位置指定方式の場合、タッチパネル70aに対するタッチダウンがあると、タッチムーブが無くとも、タッチされた位置(座標入力された位置)に対応付けられた位置にAF枠が設定される(タッチダウン前の位置から移動する)。絶対位置指定方式で設定される位置は、タッチダウン前に設定されていた位置には関係なく、タッチダウンされた位置に基づいた位置となる。また、タッチダウン後にタッチムーブがあると、タッチムーブ後のタッチ位置に基づいてAF枠の位置も移動する。相対位置指定方式とは、タッチパネル70aにおける入力座標と、EVF29の表示面上の表示座標とが対応付けられていない方式である。相対位置指定方式の場合、タッチパネル70aに対するタッチダウンがあっただけでタッチムーブが無い状態では、AF枠の位置はタッチダウン前の位置から移動しない。その後タッチムーブがあると、タッチダウン位置に関わらず、現在設定されているAF枠の位置(タッチダウン前に設定されていた位置)から、タッチムーブの移動方向にタッチムーブの移動量に応じた距離だけ、AF枠の位置が移動する。
なお、AF方式(AF枠の設定方式)として、「一点AF」と「顔+追尾優先AF」を含む複数のAF方式のうちいずれかを設定可能である。「一点AF」とは、AFを行う位置として一点AF枠によって1箇所をユーザーが指定する方式である。「顔+追尾優先AF」とは、ユーザーによる追尾対象の指定が無い場合には、自動選択条件に基づいて自動的にAF位置が設定される方式である。自動的なAF位置の設定では、LV画像から人物の顔が検出されていれば顔を優先してAF対象被写体として選択する。顔の内部に瞳が検出されていれば、瞳を優先してAF対象被写体として選択することも可能である。人物の顔が複数検出されている場合は、顔のサイズが大きい、顔の位置がデジタルカメラ100に近い(至近側である)、顔の位置が画像内における中央に近い、予め登録された個人の顔である等の優先度に従って1つの顔を選択してAF対象被写体に設定する。人物の顔が検出されていなければ、デジタルカメラ100に近い(至近側である)、コントラストが高い、動物や乗り物などの優先度の高い被写体である、動体である、などの優先度に従って顔以外の被写体を選択してAF対象被写体に設定する。ユーザーによって追尾対象の被写体が指定された場合には、追尾対象の被写体をAF対象被写体とする。すなわち、自動選択条件は、以下に示す例のような要素条件のうち少なくとも1つの要素条件を用いて重みづけを行い、得られるスコアが所定の閾値以上であることや得られるスコアが最も高いという条件である。
・検出された人物の顔である。
・顔のサイズが大きい。
・顔の位置がデジタルカメラ100に近い(至近側である)。
・顔の位置が画像内における中央に近い。
・予め登録された個人の顔である。
・デジタルカメラ100に近い(至近側である)。
・コントラストが高い。
・動物や乗り物などの優先度の高い被写体である。
・動体である。
・検出された人物の顔である。
・顔のサイズが大きい。
・顔の位置がデジタルカメラ100に近い(至近側である)。
・顔の位置が画像内における中央に近い。
・予め登録された個人の顔である。
・デジタルカメラ100に近い(至近側である)。
・コントラストが高い。
・動物や乗り物などの優先度の高い被写体である。
・動体である。
<撮影モード処理>
図3は、デジタルカメラ100における撮影モード処理のフローチャートである。この処理は、システム制御部50が、不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することにより実現される。デジタルカメラ100を撮影モードで起動すると、フラグや制御変数等を初期化し、図3の処理を開始する。
図3は、デジタルカメラ100における撮影モード処理のフローチャートである。この処理は、システム制御部50が、不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することにより実現される。デジタルカメラ100を撮影モードで起動すると、フラグや制御変数等を初期化し、図3の処理を開始する。
S301では、システム制御部50は、撮像部22でのライブビュー画像(LV画像)の撮像を開始し、撮像したLV画像を表示部28またはEVF29に表示する。接眼中(接眼検知部57により接眼が検知されている場合)は、EVF29にLV画像を表示し、非接眼中(接眼検知部57により接眼が検知されていない場合)は、表示部28にLV画像を表示する。
S302では、システム制御部50は、ユーザー操作に応じて、撮影に関する設定の変更処理を行う。撮影に関する設定には、例えば優先するAF対象被写体を顔とするか瞳とするかの設定や、シャッター速度の設定、視線ポインターを表示するか否かの設定、視線位置の近傍にアイテム(情報や警告)を表示するか否かの設定などが含まれる。
S303では、システム制御部50は、撮影に関する設定に基づいて、表示部28またはEVF29にAF枠(AF対象被写体を示すインジケーター)を表示する。例えば、LV画像の中央に最も近い顔を示すように、AF枠を表示する。AF対象被写体は、瞳や人物、動物、乗り物などであってもよい。
S304では、システム制御部50は、視線検出回路165により視線(視線位置)が検出されたか否かを判定する。視線が検出された場合はS305へ進み、そうでない場合はS323へ進む。この判定はS305~S322の処理中にも繰り返し行われ、視線検出回路165により視線が検出されなくなると、S305~S322からS323へ進む。
S305では、システム制御部50は、視線ポインター表示(視線ポインターを表示する設定)が有効か否かを判定する。視線ポインター表示が有効である場合はS306へ進み、そうでない場合はS323へ進む。視線ポインターは、ユーザーの視線位置を示すインジケーターであり、例えば点と、その点を囲む円とにより構成される半透明のインジケーターである。視線ポインターの一部(例えば点のみ)が半透明であってもよいし、全体が不透明であってもよい。
S306では、システム制御部50は、視線検出回路165により検出された視線位置に基づいて、EVF29に視線ポインターを表示する。
S307では、システム制御部50は、デジタルカメラ100においてエラーの発生や設定値の変更などの所定の条件が満たされたか否かを判定する。所定の条件が満たされた場合はS308へ進み、そうでない場合はS323へ進む。例えば、LV画像におけるフリッカーを検知した場合や、メイン電子ダイヤル71に対する操作に応じてシャッタースピード(Tv値)を変更した場合に、S308へ進む。
S308では、システム制御部50は、視線位置近傍表示(エラーや設定値などを示すアイテム(警告や情報)を視線位置の近傍に表示する設定)が有効か否かを判定する。視線位置近傍表示が有効である場合はS309へ進み、そうでない場合はS323へ進む。
S309では、システム制御部50は、右上表示(エラーや設定値などを示すアイテム
(警告や情報)を視線位置の右上に表示する設定)が有効か否かを判定する。右上表示が有効である場合はS310へ進み、そうでない場合はS311へ進む。
(警告や情報)を視線位置の右上に表示する設定)が有効か否かを判定する。右上表示が有効である場合はS310へ進み、そうでない場合はS311へ進む。
S310では、システム制御部50は、視線検出回路165により検出された視線位置に基づいて、アイテムを視線位置の右上に表示する際にアイテムがEVF29の表示領域の右端で見切れるか否かを判定する。例えば、システム制御部50は、アイテムの表示位置(例えばアイテムの中心位置)が表示領域よりも右側となるか否かを判定する。アイテムが表示領域の右端で見切れる場合はS313へ進み、そうでない場合はS312へ進む。
S311では、システム制御部50は、視線検出回路165により検出された視線位置に基づいて、アイテムを視線位置の下(真下)に表示する際にアイテムがEVF29の表示領域の下端で見切れるか否かを判定する。例えば、システム制御部50は、アイテムの表示位置が表示領域よりも下側となるか否かを判定する。アイテムが表示領域の下端で見切れる場合はS315へ進み、そうでない場合はS314へ進む。
S312では、システム制御部50は、視線検出回路165により検出された視線位置に基づいて、アイテムを視線位置の右上に表示する際にアイテムがEVF29の表示領域の上端で見切れるか否かを判定する。例えば、システム制御部50は、アイテムの表示位置が表示領域よりも上側となるか否かを判定する。アイテムが表示領域の上端で見切れる場合はS317へ進み、そうでない場合はS316へ進む。
S313では、システム制御部50は、視線検出回路165により検出された視線位置に基づいて、アイテムを視線位置の左上に表示する際にアイテムがEVF29の表示領域の上端で見切れるか否かを判定する。例えば、システム制御部50は、アイテムの表示位置が表示領域よりも上側となるか否かを判定する。アイテムが表示領域の上端で見切れる場合はS319へ進み、そうでない場合はS318へ進む。
S314~S319では、システム制御部50は、EVF29の表示領域のうち、S309~S313の判定結果に基づく位置に、エラーや設定値などを示すアイテムを表示する。アイテムは、S307の所定の条件が満たされた時点で視線ポインターが示す範囲に重ならない、当該範囲から所定の範囲内の位置に表示される。視線ポインターが示す範囲は、例えば、視線ポインターの領域や、視線ポインターの外接矩形の領域など、視線ポインターを含む領域である。
S314では、システム制御部50は、視線ポインター(視線位置)の下(真下)にアイテムを表示する。S315では、システム制御部50は、視線ポインターの上(真上)にアイテムを表示する。S316では、システム制御部50は、視線ポインターの右上にアイテムを表示する。S317では、システム制御部50は、視線ポインターの右下にアイテムを表示する。S318では、システム制御部50は、視線ポインターの左上にアイテムを表示する。S319では、システム制御部50は、視線ポインターの左下にアイテムを表示する。
S320では、システム制御部50は、エラーや設定値などを示すアイテムの表示位置を、視線検出回路165により検出された視線位置に追従しないように固定する。こうすることで、S307の所定の条件が満たされたことに応答して視線位置の近傍にアイテムが表示された後は、所定の条件が再び満たされない限り、アイテムの表示位置は変更されなくなる。視線ポインターをアイテムの表示位置に移動させる場合は、視線ポインターをアイテムに重ねて表示してもよいし、アイテムを視線ポインターに重ねて表示してもよい。
S321では、システム制御部50は、エラーや設定値などを示すアイテムを表示してから所定時間(例えば1秒や3秒、5秒など)が経過した後に、アイテムを非表示にする。例えば、アイテムの表示開始から所定時間が経過したタイミングで、アイテムを非表示にする。
S322では、システム制御部50は、デジタルカメラ100においてエラーの発生や設定値の変更などの所定の条件が再び満たされたか否かを判定する。所定の条件が満たされた場合はS308へ進み、そうでない場合はS323へ進む。
S323では、システム制御部50は、シャッターボタン61が全押しされて撮影指示が行われたか否か(第2シャッタースイッチ64がオンとなって信号SW2を出力したか否か)を判定する。撮影指示が行われた場合はS324へ進み、そうでない場合はS325へ進む。
S324では、システム制御部50は、撮像部22での露光から撮像された静止画を画像ファイルとして記録媒体200に記録するまでの一連の撮影処理を行う。静止画の撮影開始処理として映像の記録を開始する。静止画の撮影(撮影処理)に応答してアイテムを非表示にしてもよい。
S325では、システム制御部50は、その他の操作が操作部70に対して行われたか否かを判定する。その他の操作が行われた場合はS326へ進み、そうでない場合はS327へ進む。その他の操作には、例えばメニューボタン81の押下などのLV画像を一時的に非表示にする操作が含まれる。
S326では、システム制御部50は、S325の操作に応じた処理(その他の処理)を行う。
S327では、システム制御部50は、撮影モードの終了イベント(電源オフ操作や、再生モードなどの他の動作モードに遷移させる指示など)があったか否かを判定する。終了イベントがなかった場合はS302へ進み、終了イベントがあった場合には撮影モード処理を終了する。
<変形例>
図4は、デジタルカメラ100における撮影モード処理のフローチャートである。この処理は、システム制御部50が、不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することにより実現される。デジタルカメラ100を撮影モードで起動すると、フラグや制御変数等を初期化し、図4の処理を開始する。S401~S422の処理は、図3のS301~S322の処理と同じであり、S441~S445の処理は、図3のS323~S327の処理と同じである。
図4は、デジタルカメラ100における撮影モード処理のフローチャートである。この処理は、システム制御部50が、不揮発性メモリ56に格納されたプログラムをシステムメモリ52に展開して実行することにより実現される。デジタルカメラ100を撮影モードで起動すると、フラグや制御変数等を初期化し、図4の処理を開始する。S401~S422の処理は、図3のS301~S322の処理と同じであり、S441~S445の処理は、図3のS323~S327の処理と同じである。
S423では、システム制御部50は、視線位置に基づいてAF枠を移動させるAF枠移動操作が行われたか否かを判断する。このAF枠移動操作は、例えば、シャッターボタン61の半押し(撮影準備指示;第1シャッタースイッチ62をオンにする操作)である。AF枠移動操作が行われた場合はS424へ進み、そうでない場合はS441へ進む。
S424では、システム制御部50は、視線検出回路165により検出された視線位置に基づいてAF枠を移動させる(AF枠の表示位置の変更)。S403の処理を行わずに、1回目の撮影準備指示に応答して、視線検出回路165により検出された視線位置や、視線位置に最も近い被写体の位置など、視線位置に基づく位置に、AF枠が表示されても
よい。そして、2回目以降の撮影準備指示(AF枠移動操作)に応答して、視線検出回路165により検出された視線位置に基づく位置に、AF枠が移動してもよい。AF枠移動操作が行われない場合に、AF枠はAF対象被写体に追従してもよい。
よい。そして、2回目以降の撮影準備指示(AF枠移動操作)に応答して、視線検出回路165により検出された視線位置に基づく位置に、AF枠が移動してもよい。AF枠移動操作が行われない場合に、AF枠はAF対象被写体に追従してもよい。
S425では、システム制御部50は、システム制御部50は、AF枠近傍表示(設定値などを示すアイテムをAF枠の近傍に表示する設定)が有効か否かを判定する。AF枠近傍表示が有効である場合はS426へ進み、そうでない場合はS441へ進む。例えば、AF枠近傍表示の有効/無効も、視線位置近傍表示の有効/無効と同様に、ユーザーにより設定される。
S426では、システム制御部50は、瞳AFが行われたか否か(AF対象被写体が瞳か否か)を判定する。瞳AFとは、検出された人物の器官である目(瞳)に対して行われるAFのことである。瞳AFが行われた場合はS428へ進み、そうでない場合はS427へ進む。
S427では、システム制御部50は、AF枠の近傍に表示するアイテムよりもAF枠のほうが大きいか否かを判定する。AF枠がアイテムよりも大きい場合はS429へ進み、そうでない場合はS430へ進む。この判定は、AF枠の画像サイズ(画素数)がアイテムの所定倍(所定量)以上か否かの判定や、AF枠の画像サイズが閾値よりも大きいか否か(AF枠の画素数が閾値よりも多いか否か)の判定などであってもよい。
S428では、システム制御部50は、AFが行われた目(AF対象被写体)が左目か否かを判定する。左目に対してAFが行われた場合はS431へ進み、そうでない場合はS432へ進む。
S429では、システム制御部50は、AF枠内で瞳を検出したか否かを判定する。AF枠内で瞳を検出した場合はS433へ進み、そうでない場合はS434へ進む。
S430では、システム制御部50は、右上表示(設定値などを示すアイテムをAF枠の右上に表示する設定)が有効か否かを判定する。右上表示が有効である場合はS435へ進み、そうでない場合はS436へ進む。
S431~S436では、システム制御部50は、EVF29の表示領域のうち、S425~S430の判定結果に基づく位置に、設定値などを示すアイテムを表示する。アイテムは、AF枠が示す範囲に重ならない、当該範囲から所定の範囲内の位置に表示される。AF枠が示す範囲は、例えば、AF枠の領域や、AF枠の外接矩形の領域など、AF枠を含む領域である。視線ポインターをアイテムの表示位置に移動させる場合は、視線ポインターをアイテムに重ねて表示してもよいし、アイテムを視線ポインターに重ねて表示してもよい。AF枠の近傍にアイテムが表示された後は、視線位置に関わらず、AF枠の表示位置に基づいてアイテムが表示される。
S431では、システム制御部50は、AF枠(左目)の右側にアイテムを表示する。S432では、システム制御部50は、AF枠(右目)の左側にアイテムを表示する。S433では、システム制御部50は、検出した瞳(目)の領域(位置)を避けて、AF枠内にアイテムを表示する。S434では、システム制御部50は、AF枠内の所定の位置(右上や下)にアイテムを表示する。S435では、システム制御部50は、AF枠の右上にアイテムを表示する。S436では、システム制御部50は、AF枠の下(真下)にアイテムを表示する。S430、S435、およびS436の処理として、S409~S419の処理の「視線ポインター」を「AF枠」と読み替えた処理を行ってもよい。
S437では、システム制御部50は、デジタルカメラ100において設定値の変更などの所定の条件が満たされたか否かを判定する。所定の条件が満たされた場合はS438へ進み、そうでない場合はS441へ進む。
S438では、システム制御部50は、設定値などを示すアイテムを強調する。例えば、システム制御部50は、設定値を示すアイテムを表示する。そして、システム制御部50は、設定値を変更する操作が操作部70に対して行われたことに応じて、変更後の設定値を示すようにアイテムを更新すると共に、アイテムを強調する。アイテムの強調は、例えば、透明度を下げたり、点滅させたり、輪郭を表示したりすることで、視認性や顕著性(サリエンシー)を高める処理である。
S439では、システム制御部50は、設定値などを示すアイテムを強調してから所定時間(例えば1秒や3秒、5秒など)が経過した後に、アイテムの強調を解除する。例えば、アイテムの強調開始から所定時間が経過したタイミングで、アイテムの強調を解除する。
S440では、システム制御部50は、デジタルカメラ100において設定値の変更などの所定の条件が再び満たされたか否かを判定する。所定の条件が満たされた場合はS438へ進み、そうでない場合はS441へ進む。
図6(a)~6(h)は、静止画撮影モードでEVF29に表示される画面例を示す。
図6(a)では、LV画像601と、静止画撮影に関する情報602とが表示されている。また、視線ポインター603がLV画像601に重ねて表示されている。そして、フリッカーが検知されたことに応答して、フリッカーが発生していることを示すアイテム604が、視線ポインター603の右上に表示されている。視線ポインター603の近傍にアイテム604が表示されることで、ユーザーは視線の少ない移動量でアイテム604を確認することができる。また、視線ポインター603とアイテム604とが重畳していない(ユーザーが見ている被写体がアイテム604で隠されない)ため、アイテム604がユーザーの邪魔になることもない。図6(a)は、図3のS316や図4のS416の処理後の状態に対応する。
図6(a)の状態からユーザーは目を動かすと、図6(b)の状態に遷移する。図6(b)では、視線ポインター603の表示位置が図6(a)から変更されているが、アイテム604の表示位置は固定されており(図3のS320や図4のS420)、図6(a)と同じとなっている。視線ポインター603(ユーザーの視線位置)の近くにアイテム604が表示されていると、ユーザーの視線がアイテム604を向きやすい。視線ポインター603が移動しないことにより、視線ポインター603の近くにアイテム604が表示され続けることを抑制することができ、ユーザーの意図に反して視線がアイテム604を向くことを抑制することができる。
図6(c)は、撮影準備指示(AF枠移動操作)が行われた後の状態に対応する。図6(c)では、図6(a)などと同様に、LV画像601と情報602が表示されている。図6(c)では、図6(a)などとは異なり、AF枠605がLV画像601に重ねて表示されている。そして、設定値を示すアイテム606が、AF枠605の右上に表示されている。AF枠605の近傍にアイテム606が表示されることで、ユーザーがAF対象被写体(AF枠605が示す被写体)を見ている場合において、ユーザーは視線の少ない移動量でアイテム606を確認することができる。また、AF枠605とアイテム606とが重畳していない(AF枠605が示す被写体がアイテム604で隠されない)ため、アイテム606がユーザーの邪魔になることもない。図6(c)は、図4のS435の処
理後の状態に対応する。図6(c)では視線ポインター603が表示されていないが、表示されてもよい。
理後の状態に対応する。図6(c)では視線ポインター603が表示されていないが、表示されてもよい。
図6(c)の状態で設定値を変更する操作が行われると、図6(d)の状態に遷移する。図6(d)では、アイテム606が示す設定値が、変更後の値となっている(同様に、情報602も更新されている)。また、アイテム606が強調されている。こうすることで、ユーザーは、設置値が変更されたことにすぐに気付き、変更後の設置値を(視線の少ない移動量で)すぐに確認することができる。図6(d)は、図4のS438の処理後の状態に対応する。
図6(e)では、図6(c)などと同様に、LV画像601、情報602、AF枠605、アイテム606が表示されている。図6(c)では、AF枠605が図6(c)よりも大きく、アイテム606がAF枠605内に表示されている。ユーザーは、AF対象被写体を見る際に、AF枠605の中心付近を見ることが多い。そのため、AF枠605が大きい場合には、ユーザーは、AF枠605の外側を見るために目を大きく動かす必要がある。AF枠605内にアイテム606を表示することにより、ユーザーは、視線の少ない移動量でアイテム606を確認することができる。AF枠605が大きいため、AF枠605内にアイテム606を表示しても、アイテム606がユーザーの邪魔にはならない。AF枠605内で瞳が検出された場合には、アイテム606は瞳に重ならないように表示される。図6(e)は、図4のS433またはS434の処理後の状態に対応する。
図6(f)では、図6(c)などと同様に、LV画像601、情報602、AF枠605、アイテム606が表示されている。図6(f)では、AF枠605が示す被写体は右目となっており、アイテム606はAF枠605の左側(左上)に表示されている。こうすることで、AF対象被写体の右目だけでなく、左目にも重ならないように、アイテム606を表示することができる。図6(f)は、図4のS432の処理後の状態に対応する。
図6(g)では、図6(c)などと同様に、LV画像601、情報602、AF枠605、アイテム606が表示されている。図6(g)では、複数の被写体が検出されている。図6(g)の状態で、4方向キー74に対する操作などによりAF対象被写体が変更されると、図6(h)の状態に遷移する。AF枠605が移動に伴いアイテム606も移動するため、AF枠605の移動後も、ユーザーは、視線の少ない移動量でアイテム606を確認することができる。また、図6(c)などと同様に、アイテム606がユーザーの邪魔になることはない。図6(g),g(h)は、図4のS435などの処理後の状態に対応する。
以上述べたように、本実施形態によれば、ユーザーが注目する可能性の高いインジケーター(視線ポインターやAF枠など)に重ならないように、当該インジケーターの近傍に、アイテムが表示される。こうすることで、視線の少ない移動量でアイテムが確認可能になると共に、アイテムがユーザーの邪魔になることを抑制することができる。
なお、システム制御部50が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。
また、本発明の実施形態を詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。例えば、視線位置に基づいてAF枠を表示(移動)させる
特定の操作は、シャッターボタン61の半押しでなくてもよい。
特定の操作は、シャッターボタン61の半押しでなくてもよい。
また、上述した実施形態においては、本発明を撮像装置(デジタルカメラ)に適用した場合を例にして説明したが、これはこの例に限定されず、視線検知可能な電子機器であれば適用可能である。例えば、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、プリンタ装置、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに適用可能である。また、本発明は、映像プレーヤー、表示装置(投影装置を含む)、タブレット端末、スマートフォン、AIスピーカー、家電装置や車載装置などに適用可能である。
<その他の実施形態>
図5(a)は、本発明を適用可能な電子機器の一例として表示制御装置500の外観図である。表示制御装置500は、例えばスマートフォンなどの表示装置である。ディスプレイ505は画像や各種情報を表示する表示部である。ディスプレイ505はタッチパネル506aと一体的に構成されており、ディスプレイ505の表示面へのタッチ操作を検出できるようになっている。表示制御装置500は、VR(Virtual Reality)画像(VRコンテンツ)をディスプレイ505においてVR表示することが可能である。操作部506bは表示制御装置500の電源のオンとオフを切り替える操作を受け付ける電源ボタンである。操作部506cと操作部506dは、スピーカー512bや、音声出力端子512aに接続されたイヤホンや外部スピーカーなどから出力する音声のボリュームを増減するボリュームボタンである。操作部506eは、ディスプレイ505にホーム画面を表示させるためのホームボタンである。音声出力端子512aはイヤホンジャックであり、イヤホンや外部スピーカーなどに音声信号を出力する端子である。スピーカー512bは音声を出力する本体内蔵スピーカーである。
図5(a)は、本発明を適用可能な電子機器の一例として表示制御装置500の外観図である。表示制御装置500は、例えばスマートフォンなどの表示装置である。ディスプレイ505は画像や各種情報を表示する表示部である。ディスプレイ505はタッチパネル506aと一体的に構成されており、ディスプレイ505の表示面へのタッチ操作を検出できるようになっている。表示制御装置500は、VR(Virtual Reality)画像(VRコンテンツ)をディスプレイ505においてVR表示することが可能である。操作部506bは表示制御装置500の電源のオンとオフを切り替える操作を受け付ける電源ボタンである。操作部506cと操作部506dは、スピーカー512bや、音声出力端子512aに接続されたイヤホンや外部スピーカーなどから出力する音声のボリュームを増減するボリュームボタンである。操作部506eは、ディスプレイ505にホーム画面を表示させるためのホームボタンである。音声出力端子512aはイヤホンジャックであり、イヤホンや外部スピーカーなどに音声信号を出力する端子である。スピーカー512bは音声を出力する本体内蔵スピーカーである。
図5(b)は、表示制御装置500の構成例を示すブロック図である。内部バス550に対してCPU501、メモリ502、不揮発性メモリ503、画像処理部504、ディスプレイ505、操作部506、記録媒体I/F507、外部I/F509、及び、通信I/F510が接続されている。また、内部バス550に対して音声出力部512と姿勢検出部513も接続されている。内部バス550に接続される各部は、内部バス550を介して互いにデータのやりとりを行うことができるようにされている。
CPU501は、表示制御装置500の全体を制御する制御部であり、少なくとも1つのプロセッサーまたは回路からなる。メモリ502は、例えばRAM(半導体素子を利用した揮発性のメモリなど)からなる。CPU501は、例えば、不揮発性メモリ503に格納されるプログラムに従い、メモリ502をワークメモリとして用いて、表示制御装置500の各部を制御する。不揮発性メモリ503には、画像データや音声データ、その他のデータ、CPU501が動作するための各種プログラムなどが格納される。不揮発性メモリ503は例えばフラッシュメモリやROMなどで構成される。
画像処理部504は、CPU501の制御に基づいて、不揮発性メモリ503や記録媒体508に格納された画像や、外部I/F509を介して取得した映像信号、通信I/F510を介して取得した画像などに対して各種画像処理を施す。画像処理部504が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理などが含まれる。また、全方位画像あるいは全方位ではないにせよ広範囲の映像を有する広範囲画像であるVR画像のパノラマ展開やマッピング処理、変換などの各種画像処理も行う。画像処理部504は特定の画像処理を施すための専用の回路ブロックで構成してもよい。また、画像処理の種別によっては画像処理部504を用いずにCPU501がプログラムに従って画像処理を施すことも可能である。
ディスプレイ505は、CPU501の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面などを表示する。CPU501は、プログラムに従い表示制御信号を生成し、ディスプレイ505に表示するための映像信号を生成してディスプレイ505に出力するように表示制御装置500の各部を制御する。ディスプレイ505は生成・出力された映像信号に基づいて映像を表示する。なお、表示制御装置500自体が備える構成としてはディスプレイ505に表示させるための映像信号を出力するためのインターフェースまでとし、ディスプレイ505は外付けのモニタ(テレビやHMDなど)で構成してもよい。
操作部506は、キーボードなどの文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサー、タッチパッドなどを含む、ユーザー操作を受け付けるための入力デバイスである。本実施形態では、操作部506は、タッチパネル506a、操作部506b,506c,506d,506eを含む。
記録媒体I/F507には、メモリーカードやCD、DVDといった記録媒体508が着脱可能である。記録媒体I/F507は、CPU501の制御に基づき、装着された記録媒体508からのデータの読み出しや、記録媒体508に対するデータの書き込みを行う。記録媒体508は、ディスプレイ505で表示するための画像などのデータを記憶する。外部I/F509は、有線ケーブル(USBケーブルなど)や無線によって外部機器と接続し、映像信号や音声信号の入出力(データ通信)を行うためのインターフェースである。通信I/F510は、外部機器やインターネット511などと通信(無線通信)して、ファイルやコマンドなどの各種データの送受信(データ通信)を行うためのインターフェースである。
音声出力部512は、表示制御装置500で再生する動画や音楽データの音声や、操作音、着信音、各種通知音などを出力する。音声出力部512には、イヤホンなどを接続する音声出力端子512a、スピーカー512bが含まれるものとするが、音声出力部512は無線通信などで外部スピーカーに音声データを出力してもよい。
姿勢検出部513は、重力方向に対する表示制御装置500の姿勢(傾き)や、ヨー方向、ピッチ方向、ロール方向の各軸に対する表示制御装置500の姿勢を検出し、CPU501へ姿勢情報を通知する。姿勢検出部513で検出された姿勢に基づいて、表示制御装置500が横に保持されているか、縦に保持されているか、上に向けられたか、下に向けられたか、斜めの姿勢になったかなどを判別可能である。また、ヨー方向、ピッチ方向、ロール方向などの回転方向における表示制御装置500の傾きの有無や大きさ、当該回転方向に表示制御装置500が回転したかなどを判別可能である。加速度センサー、ジャイロセンサー、地磁気センサー、方位センサー、高度センサーなどのうちの1つのセンサーまたは複数のセンサーの組み合わせを、姿勢検出部513として用いることができる。
上述したように、操作部506にはタッチパネル506aが含まれる。タッチパネル506aは、ディスプレイ505に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。CPU501はタッチパネル506aへの以下の操作、あるいは状態を検出できる。
・タッチパネル506aにタッチしていなかった指やペンが新たにタッチパネル506aにタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)と称する)
・タッチパネル506aを指やペンがタッチしている状態(以下、タッチオン(Touch-On)と称する)
・指やペンがタッチパネル506aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)
・タッチパネル506aへタッチしていた指やペンがタッチパネル506aから離れたこと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)と称する)
・タッチパネル506aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)
・タッチパネル506aにタッチしていなかった指やペンが新たにタッチパネル506aにタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)と称する)
・タッチパネル506aを指やペンがタッチしている状態(以下、タッチオン(Touch-On)と称する)
・指やペンがタッチパネル506aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)
・タッチパネル506aへタッチしていた指やペンがタッチパネル506aから離れたこと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)と称する)
・タッチパネル506aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)
タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出されると、タッチオフが検出される。
これらの操作・状態や、タッチパネル506a上に指やペンがタッチしている位置座標は内部バスを通じてCPU501に通知され、CPU501は通知された情報に基づいてタッチパネル506a上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル506a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル506a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定するものとする。タッチパネル506a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル506a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル506aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式など、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
図5(c)は、表示制御装置500を装着可能なVRゴーグル(ヘッドマウントアダプター)530の外観図である。表示制御装置500は、VRゴーグル530に装着することで、HMD(ヘッドマウントディスプレイ)として使用することも可能である。挿入口531は、表示制御装置500を差し込むための挿入口である。ディスプレイ505の表示面を、VRゴーグル530をユーザーの頭部に固定するためのヘッドバンド532側(すなわちユーザー側)に向けて表示制御装置500の全体をVRゴーグル530に差し込むことができる。ユーザーは、表示制御装置500が装着されたVRゴーグル530を頭部に装着した状態で、手で表示制御装置500を保持することなく、ディスプレイ505を視認することができる。この場合は、ユーザーが頭部または体全体を動かすと、表示制御装置500の姿勢も変化する。姿勢検出部513はこの時の表示制御装置500の姿勢変化を検出し、この姿勢変化に基づいてCPU501がVR表示のための処理を行う。この場合に、姿勢検出部513が表示制御装置500の姿勢を検出することは、ユーザーの頭部の姿勢(ユーザーの視線が向いている方向)を検出することと同等である。なお、表示制御装置500自体が、VRゴーグル無しでも頭部に到着可能なHMDであってもよい。表示制御装置500は、ユーザーの視線をより詳細に検出する構成(視線検出部)を有してもよい。
表示制御装置500に本発明を適用した場合に、ディスプレイ505に表示される画像はLV画像でなくてもよい。ディスプレイ505に表示される画像は、ゲーム画面などのCG(コンピュータグラフィック)画像であってもよい。ディスプレイ505には、VR(Virtual Reality)やAR(Augmented Reality)、MR(Mixed Reality)などのxRの画像が表示されてもよい。この場合にも、ユーザーが注目する可能性の高いインジケーターに重ならないように、当該インジケーターの近傍に、アイテムが表示される。インジケーターは、例えば、視線位置を示すインジケーターや、CGのオブジェクトを示すインジケーターである。
図6(i)は、ディスプレイ505に表示される画面例である。図6(i)では、VR画像607が表示されており、ユーザーの視線位置を示すアイコン608がVR画像607に重ねて表示されている。また、ユーザーがオブジェクト(銅像)に注視したことに応答して、当該オブジェクトに関する簡易情報609が表示されている。そして、操作部506に対する操作に応答して、ユーザーが注視しているオブジェクトの詳細情報を表示するためのアイテム610が、簡易情報609に重ならないように簡易情報609の近傍に表示されている。ユーザーが注視しているオブジェクトに関連付けて表示された簡易情報609の近傍にアイテム610が表示されることで、ユーザーは視線の少ない移動量でアイテム610を確認することができる。また、簡易情報609とアイテム610とが重畳していないため、ユーザーは、アイテム610に邪魔されることなく、簡易情報609を確認することができる。こうすることで、簡易情報609やアイテム610の態様は特に限定されず、矩形でなくてもよい。
なお、CPU501が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本実施形態の開示は、以下の構成、方法、プログラム、および媒体を含む。
(構成1)
表示領域内におけるユーザーの視線位置を検出する検出手段と、
前記検出手段により検出された前記視線位置を示す第1のインジケーターを表示し、
所定の条件が満たされたことに応答して、前記所定の条件が満たされた時点で前記第1のインジケーターが示す範囲に重ならない、当該範囲から所定の範囲内の位置に、アイテムを表示する
ように制御する表示制御手段と
を有することを特徴とする電子機器。
(構成2)
前記所定の条件は、エラーの発生または設定値の変更であり、
前記アイテムは、前記エラーまたは前記設定値を示す
ことを特徴とする構成1に記載の電子機器。
(構成3)
前記表示制御手段は、前記所定の条件が満たされた時点で前記第1のインジケーターが示す範囲に重ならない、当該範囲から前記所定の範囲内の位置に前記アイテムを表示するように制御した後には、前記所定の条件が満たされない限り、前記アイテムの表示位置を変更しない
ことを特徴とする構成1または2に記載の電子機器。
(構成4)
前記表示制御手段は、前記第1のインジケーターを前記アイテムの表示位置に表示するように制御する場合に、前記第1のインジケーターを前記アイテムに重ねて表示するように制御する
ことを特徴とする構成1~3のいずれか1項に記載の電子機器。
(構成5)
前記表示制御手段は、前記アイテムを表示してから所定時間が経過した後に、前記アイテムを非表示にするように制御する
ことを特徴とする構成1~4のいずれか1項に記載の電子機器。
(構成6)
表示領域内におけるユーザーの視線位置を検出する検出手段と、
前記検出手段により検出された前記視線位置を示す第1のインジケーターを表示し、
前記検出手段により検出された前記視線位置に基づき、オブジェクトを示す第2のインジケーターを表示し、
前記第2のインジケーターが示す範囲に重ならない、当該範囲から所定の範囲内の位置に、アイテムを表示する
ように制御する表示制御手段と
を有することを特徴とする電子機器。
(構成7)
前記アイテムは、設定値を示す
ことを特徴とする構成6に記載の電子機器。
(構成8)
前記表示制御手段は、特定の操作に応答して、前記第2のインジケーターを表示するように制御する
ことを特徴とする構成6または7に記載の電子機器。
(構成9)
前記ユーザーは、前記表示領域を介して撮像装置の撮像範囲を視認可能であり、
前記オブジェクトは、前記撮像装置の被写体である
ことを特徴とする構成6~8のいずれか1項に記載の電子機器。
(構成10)
前記ユーザーは、前記表示領域を介して撮像装置の撮像範囲を視認可能であり、
前記表示制御手段は、前記撮像装置のシャッターボタンの半押しに応答して、前記第2のインジケーターを表示するように制御する
ことを特徴とする構成6~9のいずれか1項に記載の電子機器。
(構成11)
前記オブジェクトは、前記表示領域に表示されたグラフィックである
ことを特徴とする構成6~8のいずれか1項に記載の電子機器。
(構成12)
前記表示制御手段は、前記第2のインジケーターが示す範囲に重ならない、当該範囲から前記所定の範囲内の位置に前記アイテムを表示するように制御した後には、前記視線位置に関わらず、前記第2のインジケーターの表示位置に基づき、前記アイテムを表示するように制御する
ことを特徴とする構成6~11のいずれか1項に記載の電子機器。
(構成13)
前記表示制御手段は、前記第1のインジケーターを前記アイテムの表示位置に表示するように制御する場合に、前記第1のインジケーターを前記アイテムに重ねて表示するように制御する
ことを特徴とする構成6~12のいずれか1項に記載の電子機器。
(構成14)
前記表示制御手段は、所定の条件が満たされたことに応答して、前記アイテムを強調す
るように制御する
ことを特徴とする構成6~13のいずれか1項に記載の電子機器。
(構成15)
前記所定の条件は、設定値の変更であり、
前記アイテムは、前記設定値を示す
ことを特徴とする構成14に記載の電子機器。
(構成16)
前記表示制御手段は、前記アイテムを強調してから所定時間が経過した後に、前記アイテムの強調を解除するように制御する
ことを特徴とする構成14または15に記載の電子機器。
(方法1)
表示領域内におけるユーザーの視線位置を検出する検出ステップと、
前記検出ステップで検出された前記視線位置を示す第1のインジケーターを表示し、
所定の条件が満たされたことに応答して、前記所定の条件が満たされた時点で前記第1のインジケーターが示す範囲に重ならない、当該範囲から所定の範囲内の位置に、アイテムを表示する
ように制御する表示制御ステップと
を有することを特徴とする電子機器の制御方法。
(方法2)
表示領域内におけるユーザーの視線位置を検出する検出ステップと、
前記検出ステップで検出された前記視線位置を示す第1のインジケーターを表示し、
前記検出ステップで検出された前記視線位置に基づき、オブジェクトを示す第2のインジケーターを表示し、
前記第2のインジケーターが示す範囲に重ならない、当該範囲から所定の範囲内の位置に、アイテムを表示する
ように制御する表示制御ステップと
を有することを特徴とする電子機器の制御方法。
(プログラム)
コンピュータを、構成1~16のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
(媒体)
コンピュータを、構成1~16のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
(構成1)
表示領域内におけるユーザーの視線位置を検出する検出手段と、
前記検出手段により検出された前記視線位置を示す第1のインジケーターを表示し、
所定の条件が満たされたことに応答して、前記所定の条件が満たされた時点で前記第1のインジケーターが示す範囲に重ならない、当該範囲から所定の範囲内の位置に、アイテムを表示する
ように制御する表示制御手段と
を有することを特徴とする電子機器。
(構成2)
前記所定の条件は、エラーの発生または設定値の変更であり、
前記アイテムは、前記エラーまたは前記設定値を示す
ことを特徴とする構成1に記載の電子機器。
(構成3)
前記表示制御手段は、前記所定の条件が満たされた時点で前記第1のインジケーターが示す範囲に重ならない、当該範囲から前記所定の範囲内の位置に前記アイテムを表示するように制御した後には、前記所定の条件が満たされない限り、前記アイテムの表示位置を変更しない
ことを特徴とする構成1または2に記載の電子機器。
(構成4)
前記表示制御手段は、前記第1のインジケーターを前記アイテムの表示位置に表示するように制御する場合に、前記第1のインジケーターを前記アイテムに重ねて表示するように制御する
ことを特徴とする構成1~3のいずれか1項に記載の電子機器。
(構成5)
前記表示制御手段は、前記アイテムを表示してから所定時間が経過した後に、前記アイテムを非表示にするように制御する
ことを特徴とする構成1~4のいずれか1項に記載の電子機器。
(構成6)
表示領域内におけるユーザーの視線位置を検出する検出手段と、
前記検出手段により検出された前記視線位置を示す第1のインジケーターを表示し、
前記検出手段により検出された前記視線位置に基づき、オブジェクトを示す第2のインジケーターを表示し、
前記第2のインジケーターが示す範囲に重ならない、当該範囲から所定の範囲内の位置に、アイテムを表示する
ように制御する表示制御手段と
を有することを特徴とする電子機器。
(構成7)
前記アイテムは、設定値を示す
ことを特徴とする構成6に記載の電子機器。
(構成8)
前記表示制御手段は、特定の操作に応答して、前記第2のインジケーターを表示するように制御する
ことを特徴とする構成6または7に記載の電子機器。
(構成9)
前記ユーザーは、前記表示領域を介して撮像装置の撮像範囲を視認可能であり、
前記オブジェクトは、前記撮像装置の被写体である
ことを特徴とする構成6~8のいずれか1項に記載の電子機器。
(構成10)
前記ユーザーは、前記表示領域を介して撮像装置の撮像範囲を視認可能であり、
前記表示制御手段は、前記撮像装置のシャッターボタンの半押しに応答して、前記第2のインジケーターを表示するように制御する
ことを特徴とする構成6~9のいずれか1項に記載の電子機器。
(構成11)
前記オブジェクトは、前記表示領域に表示されたグラフィックである
ことを特徴とする構成6~8のいずれか1項に記載の電子機器。
(構成12)
前記表示制御手段は、前記第2のインジケーターが示す範囲に重ならない、当該範囲から前記所定の範囲内の位置に前記アイテムを表示するように制御した後には、前記視線位置に関わらず、前記第2のインジケーターの表示位置に基づき、前記アイテムを表示するように制御する
ことを特徴とする構成6~11のいずれか1項に記載の電子機器。
(構成13)
前記表示制御手段は、前記第1のインジケーターを前記アイテムの表示位置に表示するように制御する場合に、前記第1のインジケーターを前記アイテムに重ねて表示するように制御する
ことを特徴とする構成6~12のいずれか1項に記載の電子機器。
(構成14)
前記表示制御手段は、所定の条件が満たされたことに応答して、前記アイテムを強調す
るように制御する
ことを特徴とする構成6~13のいずれか1項に記載の電子機器。
(構成15)
前記所定の条件は、設定値の変更であり、
前記アイテムは、前記設定値を示す
ことを特徴とする構成14に記載の電子機器。
(構成16)
前記表示制御手段は、前記アイテムを強調してから所定時間が経過した後に、前記アイテムの強調を解除するように制御する
ことを特徴とする構成14または15に記載の電子機器。
(方法1)
表示領域内におけるユーザーの視線位置を検出する検出ステップと、
前記検出ステップで検出された前記視線位置を示す第1のインジケーターを表示し、
所定の条件が満たされたことに応答して、前記所定の条件が満たされた時点で前記第1のインジケーターが示す範囲に重ならない、当該範囲から所定の範囲内の位置に、アイテムを表示する
ように制御する表示制御ステップと
を有することを特徴とする電子機器の制御方法。
(方法2)
表示領域内におけるユーザーの視線位置を検出する検出ステップと、
前記検出ステップで検出された前記視線位置を示す第1のインジケーターを表示し、
前記検出ステップで検出された前記視線位置に基づき、オブジェクトを示す第2のインジケーターを表示し、
前記第2のインジケーターが示す範囲に重ならない、当該範囲から所定の範囲内の位置に、アイテムを表示する
ように制御する表示制御ステップと
を有することを特徴とする電子機器の制御方法。
(プログラム)
コンピュータを、構成1~16のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
(媒体)
コンピュータを、構成1~16のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
100:デジタルカメラ 50:システム制御部 160:視線検出部
500:表示制御装置 501:CPU 513:姿勢検出部
500:表示制御装置 501:CPU 513:姿勢検出部
Claims (20)
- 表示領域内におけるユーザーの視線位置を検出する検出手段と、
前記検出手段により検出された前記視線位置を示す第1のインジケーターを表示し、
所定の条件が満たされたことに応答して、前記所定の条件が満たされた時点で前記第1のインジケーターが示す範囲に重ならない、当該範囲から所定の範囲内の位置に、アイテムを表示する
ように制御する表示制御手段と
を有することを特徴とする電子機器。 - 前記所定の条件は、エラーの発生または設定値の変更であり、
前記アイテムは、前記エラーまたは前記設定値を示す
ことを特徴とする請求項1に記載の電子機器。 - 前記表示制御手段は、前記所定の条件が満たされた時点で前記第1のインジケーターが示す範囲に重ならない、当該範囲から前記所定の範囲内の位置に前記アイテムを表示するように制御した後には、前記所定の条件が満たされない限り、前記アイテムの表示位置を変更しない
ことを特徴とする請求項1に記載の電子機器。 - 前記表示制御手段は、前記第1のインジケーターを前記アイテムの表示位置に表示するように制御する場合に、前記第1のインジケーターを前記アイテムに重ねて表示するように制御する
ことを特徴とする請求項1に記載の電子機器。 - 前記表示制御手段は、前記アイテムを表示してから所定時間が経過した後に、前記アイテムを非表示にするように制御する
ことを特徴とする請求項1に記載の電子機器。 - 表示領域内におけるユーザーの視線位置を検出する検出手段と、
前記検出手段により検出された前記視線位置を示す第1のインジケーターを表示し、
前記検出手段により検出された前記視線位置に基づき、オブジェクトを示す第2のインジケーターを表示し、
前記第2のインジケーターが示す範囲に重ならない、当該範囲から所定の範囲内の位置に、アイテムを表示する
ように制御する表示制御手段と
を有することを特徴とする電子機器。 - 前記アイテムは、設定値を示す
ことを特徴とする請求項6に記載の電子機器。 - 前記表示制御手段は、特定の操作に応答して、前記第2のインジケーターを表示するように制御する
ことを特徴とする請求項6に記載の電子機器。 - 前記ユーザーは、前記表示領域を介して撮像装置の撮像範囲を視認可能であり、
前記オブジェクトは、前記撮像装置の被写体である
ことを特徴とする請求項6に記載の電子機器。 - 前記ユーザーは、前記表示領域を介して撮像装置の撮像範囲を視認可能であり、
前記表示制御手段は、前記撮像装置のシャッターボタンの半押しに応答して、前記第2のインジケーターを表示するように制御する
ことを特徴とする請求項6に記載の電子機器。 - 前記オブジェクトは、前記表示領域に表示されたグラフィックである
ことを特徴とする請求項6に記載の電子機器。 - 前記表示制御手段は、前記第2のインジケーターが示す範囲に重ならない、当該範囲から前記所定の範囲内の位置に前記アイテムを表示するように制御した後には、前記視線位置に関わらず、前記第2のインジケーターの表示位置に基づき、前記アイテムを表示するように制御する
ことを特徴とする請求項6に記載の電子機器。 - 前記表示制御手段は、前記第1のインジケーターを前記アイテムの表示位置に表示するように制御する場合に、前記第1のインジケーターを前記アイテムに重ねて表示するように制御する
ことを特徴とする請求項6に記載の電子機器。 - 前記表示制御手段は、所定の条件が満たされたことに応答して、前記アイテムを強調するように制御する
ことを特徴とする請求項6に記載の電子機器。 - 前記所定の条件は、設定値の変更であり、
前記アイテムは、前記設定値を示す
ことを特徴とする請求項14に記載の電子機器。 - 前記表示制御手段は、前記アイテムを強調してから所定時間が経過した後に、前記アイテムの強調を解除するように制御する
ことを特徴とする請求項14に記載の電子機器。 - 表示領域内におけるユーザーの視線位置を検出する検出ステップと、
前記検出ステップで検出された前記視線位置を示す第1のインジケーターを表示し、
所定の条件が満たされたことに応答して、前記所定の条件が満たされた時点で前記第1のインジケーターが示す範囲に重ならない、当該範囲から所定の範囲内の位置に、アイテムを表示する
ように制御する表示制御ステップと
を有することを特徴とする電子機器の制御方法。 - 表示領域内におけるユーザーの視線位置を検出する検出ステップと、
前記検出ステップで検出された前記視線位置を示す第1のインジケーターを表示し、
前記検出ステップで検出された前記視線位置に基づき、オブジェクトを示す第2のインジケーターを表示し、
前記第2のインジケーターが示す範囲に重ならない、当該範囲から所定の範囲内の位置に、アイテムを表示する
ように制御する表示制御ステップと
を有することを特徴とする電子機器の制御方法。 - コンピュータを、請求項1~16のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
- コンピュータを、請求項1~16のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022070192A JP2023160103A (ja) | 2022-04-21 | 2022-04-21 | 電子機器 |
US18/298,483 US20230345114A1 (en) | 2022-04-21 | 2023-04-11 | Electronic apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022070192A JP2023160103A (ja) | 2022-04-21 | 2022-04-21 | 電子機器 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023160103A true JP2023160103A (ja) | 2023-11-02 |
Family
ID=88415050
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022070192A Pending JP2023160103A (ja) | 2022-04-21 | 2022-04-21 | 電子機器 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20230345114A1 (ja) |
JP (1) | JP2023160103A (ja) |
-
2022
- 2022-04-21 JP JP2022070192A patent/JP2023160103A/ja active Pending
-
2023
- 2023-04-11 US US18/298,483 patent/US20230345114A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230345114A1 (en) | 2023-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7321786B2 (ja) | 電子機器およびその制御方法 | |
JP7410629B2 (ja) | 撮像装置およびその制御方法 | |
JP7301615B2 (ja) | 電子機器およびその制御方法 | |
EP3876517A1 (en) | Electronic device, control method, program, and computer readable medium | |
US11233941B2 (en) | Electronic device that receives line of sight input, method of controlling electronic device, and non-transitory computer readable medium | |
WO2020255675A1 (ja) | 電子機器およびその制御方法 | |
JP7442331B2 (ja) | 音声入力装置およびその制御方法ならびにプログラム | |
JP7433810B2 (ja) | 電子機器、電子機器の制御方法、プログラム及び記憶媒体 | |
JP2021114731A (ja) | 撮像制御装置及びその制御方法 | |
US20240205534A1 (en) | Electronic equipment, method for controlling the same, and recording medium | |
JP7346375B2 (ja) | 電子機器及びその制御方法及びプログラム及び記録媒体 | |
WO2021131562A1 (ja) | 電子機器、電子機器の制御方法、プログラムおよび記憶媒体 | |
JP7566517B2 (ja) | 電子機器およびその制御方法 | |
JP7383552B2 (ja) | 電子機器およびその制御方法 | |
JP2021152597A (ja) | 撮像装置およびその制御方法、プログラム並びに記憶媒体 | |
JP2021069008A (ja) | 電子機器、電子機器の制御方法、プログラム及び記憶媒体 | |
JP2021022897A (ja) | 電子機器、電子機器の制御方法、プログラムおよび記憶媒体 | |
JP7387493B2 (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 | |
CN112040095B (zh) | 电子装置、电子装置的控制方法及存储介质 | |
JP2023160103A (ja) | 電子機器 | |
JP7451255B2 (ja) | 電子機器及びその制御方法 | |
WO2022131252A1 (ja) | 電子機器及びその制御方法及びプログラム及び記録媒体 | |
JP2022129065A (ja) | 表示制御装置及びその制御方法及びプログラム及び記録媒体 | |
JP2021108447A (ja) | 電子機器、電子機器の制御方法、プログラムおよび記憶媒体 | |
JP2021018634A (ja) | 電子機器およびその制御方法 |