JP2023006771A - 制御装置およびその制御方法 - Google Patents
制御装置およびその制御方法 Download PDFInfo
- Publication number
- JP2023006771A JP2023006771A JP2021109537A JP2021109537A JP2023006771A JP 2023006771 A JP2023006771 A JP 2023006771A JP 2021109537 A JP2021109537 A JP 2021109537A JP 2021109537 A JP2021109537 A JP 2021109537A JP 2023006771 A JP2023006771 A JP 2023006771A
- Authority
- JP
- Japan
- Prior art keywords
- line
- display
- sight
- information
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 53
- 230000008859 change Effects 0.000 claims abstract description 138
- 238000001514 detection method Methods 0.000 claims description 127
- 230000000875 corresponding effect Effects 0.000 description 67
- 238000012545 processing Methods 0.000 description 63
- 238000003384 imaging method Methods 0.000 description 48
- 230000008569 process Effects 0.000 description 30
- 238000006243 chemical reaction Methods 0.000 description 21
- 210000001508 eye Anatomy 0.000 description 15
- 210000001747 pupil Anatomy 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 238000012790 confirmation Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 210000005252 bulbus oculi Anatomy 0.000 description 6
- 230000035945 sensitivity Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 238000009825 accumulation Methods 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000001454 recorded image Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 206010034960 Photophobia Diseases 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 208000013469 light sensitivity Diseases 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 206010034972 Photosensitivity reaction Diseases 0.000 description 1
- 241000593989 Scardinius erythrophthalmus Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000003705 background correction Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 210000001331 nose Anatomy 0.000 description 1
- 201000005111 ocular hyperemia Diseases 0.000 description 1
- 230000036211 photosensitivity Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/671—Focus control based on electronic image sensor signals in combination with active ranging signals, e.g. using light or sound signals emitted toward objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
- H04N23/672—Focus control based on electronic image sensor signals based on the phase difference signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Position Input By Displaying (AREA)
- Focusing (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】視線位置の表示において表示品位や利便性を向上させること。【解決手段】観察者が注視する位置に対応する情報を取得する取得手段と、当該位置に対応する指標を表示手段表示させるよう制御する制御手段と、を有し、前記制御手段は、前記位置の変化が第1の閾値よりも小さいことが第1の回数連続した場合には、前記指標の表示位置を変化させないよう構成した【選択図】図6
Description
本発明は、観察者の視線位置を検出し表示する技術に関する。
観察者の視線位置を検出する技術が知られている。特許文献1では、表示手段を覗いている観察者の視線位置を検出し、検出した観察者の視線位置を示す指標を表示手段に表示させることが開示されている。
特許文献1によれば、検出されている視線位置が視認できるためユーザの利便性を向上させることができる。観察者の視線位置情報をそのまま用いると、観察者の意図しない視線位置の変化が表示に反映されてしまい、表示品位や利便性が低下してしまう場合があった。
本発明は、視線位置の表示において表示品位や利便性を向上させることができる制御装置およびその制御方法を提供することを目的とする。
上記目的を達成するために、本発明は、観察者が注視する位置に対応する情報を取得する取得手段と、当該位置に対応する指標を表示手段表示させるよう制御する制御手段と、を有し、
前記制御手段は、前記位置の変化が第1の閾値よりも小さいことが第1の回数連続した場合には、前記指標の表示位置を変化させないよう構成したことを特徴とする。
前記制御手段は、前記位置の変化が第1の閾値よりも小さいことが第1の回数連続した場合には、前記指標の表示位置を変化させないよう構成したことを特徴とする。
本発明によれば、視線位置の表示において表示品位や利便性を向上させることができる。
<第1の実施形態>
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。
[電子装置の構成]
図1は、本発明の実施形態にかかる電子装置を含む撮像装置の構成を示すブロック図である。図1において、レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、ここでは簡略して一枚のレンズのみで示している。通信端子6はレンズユニット150がデジタルカメラ100側と通信を行う為の通信端子であり、通信端子10はデジタルカメラ100がレンズユニット150側と通信を行う為の通信端子である。レンズユニット150は、この通信端子6、10を介してシステム制御部50と通信し、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り102の制御を行い、AF駆動回路3を介して、レンズ103の位置を変位させることで焦点を合わせる。
図1は、本発明の実施形態にかかる電子装置を含む撮像装置の構成を示すブロック図である。図1において、レンズユニット150は、交換可能な撮影レンズを搭載するレンズユニットである。レンズ103は通常、複数枚のレンズから構成されるが、ここでは簡略して一枚のレンズのみで示している。通信端子6はレンズユニット150がデジタルカメラ100側と通信を行う為の通信端子であり、通信端子10はデジタルカメラ100がレンズユニット150側と通信を行う為の通信端子である。レンズユニット150は、この通信端子6、10を介してシステム制御部50と通信し、内部のレンズシステム制御回路4によって絞り駆動回路2を介して絞り102の制御を行い、AF駆動回路3を介して、レンズ103の位置を変位させることで焦点を合わせる。
シャッター101は、システム制御部50の制御で撮像部22の露光時間を自由に制御できるフォーカルプレーンシャッターである。撮像部22は光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23は、アナログ信号をデジタル信号に変換する。A/D変換器23は、撮像部22から出力されるアナログ信号をデジタル信号に変換するために用いられる。撮像部22から得られた信号は、撮像だけでなく、露出制御、焦点検出制御にも用いられる。撮像部22には、1つのマイクロレンズに対して、光電変換部が分割された画素が設けられている。光電変換部を分割することにより入射瞳が分割され、それぞれの光電変換部から位相差検出信号を得ることができる。また、分割された光電変換部からの信号を加算することにより、撮像信号も得ることができる。
このような画素は、焦点検出画素と撮像画素を兼用できるというメリットがある。
画像処理部24は、A/D変換器23からのデータ、又は、メモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う。また、画像処理部24では、撮像した画像データを用いて所定の演算処理が行われ、得られた演算結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。画像処理部24では更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理も行っている。
A/D変換器23からの出力データは、画像処理部24及びメモリ制御部15を介して、或いは、メモリ制御部15を介してメモリ32に直接書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、表示手段としての表示部28に表示するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。
また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器19は、メモリ32に格納されている画像表示用のデータをアナログ信号に変換して表示部28に供給する。こうして、メモリ32に書き込まれた表示用の画像データはD/A変換器19を介して表示部28により表示される。表示部28は、LCD等の表示器上に、D/A変換器19からのアナログ信号に応じた表示を行う。A/D変換器23によって一度A/D変換されメモリ32に蓄積されたデジタル信号をD/A変換器19においてアナログ変換し、表示部28に逐次転送して表示することで、電子ビューファインダとして機能し、スルー画像表示(ライブビュー表示)を行える。なお、表示部28は、不図示の接眼部を通して覗き込む電子ビューファインダを設けても、デジタルカメラ100の背面にディスプレイを設けてもよい。また、電子ビューファインダと、背面のディスプレイの両方を設けてもよい。
不揮発性メモリ56は、電気的に消去・記録可能なメモリであり、例えばEEPROM等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。
システム制御部50は、デジタルカメラ100全体を制御する。視線表示手段、視線状態判定手段、視線情報判定手段、被写体検出手段、視線取得可否判定手段は、このシステム制御部50に含まれる。前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。52はシステムメモリであり、RAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等を展開する。また、システム制御部はメモリ32、D/A変換器19、表示部28等を制御することにより表示制御も行う。また、表示部28は、ユーザーがのぞき込むEVFと、タッチ操作等が可能でのぞき込まないTFT液晶等を有する。表示部28のうち、EVFに設置されているアイセンサで、ユーザーが接眼しているか離眼しているかの情報によって表示部28を制御する表示制御も行う。
システムタイマー53は各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
電源スイッチ72はデジタルカメラ100の電源のON及びOFFを切り替える操作部材である。
モード切替スイッチ60、第1シャッタースイッチ62、第2シャッタースイッチ64、操作部70は、システム制御部50に各種の動作指示を入力するための操作部である。なお、視線取得手段、視線確定手段は、この操作部70に含まれる。
モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切り替えスイッチ60で、メニューボタンに含まれるこれらのモードのいずれかに直接切り替えられる。あるいは、モード切り替えスイッチ60でメニューボタンに一旦切り換えた後に、メニューボタンに含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
第1シャッタースイッチ62は、デジタルカメラ100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作を開始する。
第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体200に画像データを書き込むまでの一連の撮影処理の動作を開始する。
操作部70の各操作部材は、表示部28に表示される種々の機能アイコンを選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。利用者は、表示部28に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。
操作部70は、ユーザーからの操作を受け付ける入力部としての各種操作部材である。操作部70には、メニュー選択、モード選択、撮影した動画像の再生などを実施するための電子ボタンや十字キーなどが設けられている。
電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。
電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は、撮影された画像を記録するためのメモリカード等の記録媒体であり、半導体メモリや磁気ディスク等から構成される。
通信部54は、無線または優先ケーブルによって接続し、映像信号や音声信号の送受信を行う。通信部54は無線LAN(Local Area Network)やインターネットとも接続可能である。通信部54は撮像部22で撮像した画像(スルー画像を含む)や、記録媒体200に記録された画像を送信可能であり、また、外部機器から画像データやその他の各種情報を受信することができる。
姿勢検知部55は重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22で撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像なのかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22で撮像された画像の画像ファイルへの付加や、画像を回転して記録することが可能である。姿勢検知部55としては、加速度センサーやジャイロセンサーなどを用いることができる。
[視線検出の構成]
本実施例では、操作部70の1つとして、視線入力操作部701が設けられている。視線入力操作部701は、視線取得手段であり、ユーザーの視線が表示部28のいずれの箇所を見ているかを検出するための操作部材である。図4は、視線入力操作部701の一例を示す。
本実施例では、操作部70の1つとして、視線入力操作部701が設けられている。視線入力操作部701は、視線取得手段であり、ユーザーの視線が表示部28のいずれの箇所を見ているかを検出するための操作部材である。図4は、視線入力操作部701の一例を示す。
図4では、特許文献1に開示されているファインダ視野内を覗くユーザーの眼球501aの光軸の回転角を検出し、検出した回転角からユーザーの視線を検出する方式を実現する構成である。表示部28には、レンズユニット100を通して撮影されたライブビュー表示画像が表示されている。701aはイメージセンサを、701bは受光レンズを、701cはダイクロイックミラーを、701dは接眼レンズを、701eは照明光源を示す。照明光源701eにより、眼球501aに赤外光が投射される。眼球501aを反射した赤外光は、ダイクロイックミラー701cに反射され、イメージセンサ701aにより撮影される。撮影された眼球画像は、不図示のA/D変換器によりデジタル信号に変換され、システム制御部50に送信される。視線取得手段としてのシステム制御部50では、撮影された眼球画像から、瞳孔の領域などを抽出し、ユーザーの視線を算出する。
なお、視線入力操作部701は、この方式に限らず、ユーザーの両目を撮影し、視線を検出する方式でもよい。図5には、図4とは異なる視線入力操作部701の一例を示す。図5は、デジタルカメラ100の背面に設けられている表示部28に、レンズユニット100を通して撮影されたライブビュー表示画像が表示されている。図5では、デジタルカメラ100の背面に、表示部28を観察しているユーザーの顔500を撮影するカメラ701fが設けられている。図5において、カメラ701fが撮影する画角を点線で示している。不図示の照明光源701eからユーザーの顔に投光を行い、カメラ701fにより眼球画像を取得する。これにより、ユーザーの視線を算出する。なお、視線入力操作部701は、この方式に限らず、ユーザーが表示部28のいずれの箇所を注視しているかを検出できる構成であればよい。
[視線検出処理]
以下、図6から図8を参照して、第1の実施例における視線検出処理方法及び、視線位置状態判定と判定結果に基づいた表示方法について説明する。
以下、図6から図8を参照して、第1の実施例における視線検出処理方法及び、視線位置状態判定と判定結果に基づいた表示方法について説明する。
図6は、第1の本実施形態にかかる電子装置の視線検出処理方法及び、視線位置状態判定と判定結果について説明するメインフローチャートである。図6は、表示手段である表示部28に表示された画像をユーザーが見ながら視線確定操作を行う場合の動作を示し、システム制御部50が主体となって実現される。なお、本実施形態では、図1の撮像装置のブロック図を用いて説明するが、少なくともシステム制御部50、表示部28、操作部70を有する電子装置においても同様の動作が可能である。
S1で、システム制御部50は、画像データを、表示部28に表示する。なお、表示用の画像は、例えば表示部28の解像度に合わせた縮小画像である。画像表示中は所定のフレームレートでの表示が行われており、表示部28を通じてユーザーは表示画像を確認することができる。
S2で、システム制御部50は、視線取得可否判定手段により、視線情報が取得可能か否かを判定する。表示部28のうち、EVFに設置されているアイセンサであれば、ユーザーが接眼しているか離眼しているかの情報によって視線情報が取得可能か否かを判定する。EVFをのぞき込んでいれば、アイセンサによりユーザーが接眼状態であるとわかり、視線取得手段である視線入力操作部701で、視線情報が取得可能であると判定される。一方、EVFをのぞき込んでいなければ、アイセンサによりユーザーが離眼しているとわかり、視線取得手段である視線入力操作部701では、視線情報が取得不能であると判定される。また表示部28のうち、TFT液晶においても視線入力操作部701で視線情報が取得可能か否かを判定する。
S3でシステム制御部50は、S2で視線情報が取得可能であると判定されれば、視線検出を開始する。S4以降、視線入力操作部701により、ユーザーが、表示部28上のどの位置を観察しているか(視線位置)を、ユーザーが観察していた表示画像と関連付けて、所定の時間間隔で取得し、蓄積してゆく。また、S2で視線情報が取得不能であると判定されれば、判定されたタイミングにおける視線情報は取得、蓄積しない。
S4で、S3において視線情報が取得、蓄積された回数が所定回数N以上であるか否かを判定する。所定回数Nは、後段のS5で実施される視線状態判定が可能な数で決まる。なお、このときS2において取得不能であると判定された場合には、取得、蓄積されないため、S4での所定回数Nにはカウントされない。S3において視線情報が取得、蓄積された回数が所定回数N以上であると判定された場合には、視線状態判定手段であるS5の視線状態判定が可能であるとして、S5へ移行する。また、S3において視線情報が取得、蓄積された回数が所定回数N未満であると判定された場合には、視線状態判定手段であるS5の視線状態判定が不能であるとして、S5をとばしてS6へ移行する。
S5で、システム制御部50は、視線状態判定手段である視線状態判定を行う。詳しい処理は後述する。
S6で、S3もしくはS5で取得された視線位置情報を用いて、表示部28に視線位置を表示させる。S4において視線蓄積回数が所定回数N以上であると判定された場合には、S5で取得された視線位置を用いる。また、S4において視線蓄積回数が所定回数N未満であると判定された場合には、S3で取得された視線位置を用いる。
S7で、ユーザーによって視線確定操作が行われたか否かを判定する。ユーザーによる視線確定操作が行われた場合には、表示部28への視線位置の表示を静止させて、本視線位置の状態判定、表示処理フローを終了する。なお、表示部28への視線位置の表示は継続したままでも良く、また表示方法を変更するとしても良い。また、ユーザーによる視線確定操作が行われていない場合には、視線取得可否判定手段により、視線情報が取得可能か否かを判定するS2へ移行して新たな視線情報を取得する。なお、S7で視線確定操作が行われた場合には、S3において視線情報が取得、蓄積された回数と、視線位置変化情報ΔSjをリセットする。
[視線位置状態判定]
S5の視線状態判定について、図7の視線状態判定サブフロー図を用いて説明する。本サブフローの一連の動作もシステム制御部50が主体となって実現される。
S5の視線状態判定について、図7の視線状態判定サブフロー図を用いて説明する。本サブフローの一連の動作もシステム制御部50が主体となって実現される。
S501は、図6のS3で取得された視線位置情報Siを用いて、視線位置変化情報ΔSjを取得する。図6のS4で所定回数N以上であると判定されており、視線位置変化情報ΔSjのうち、水平位置変化量に対応するΔSjH、垂直位置変化量に対応するΔSjV、2点間位置変化量に対応するΔSjr
ΔSjrは、それぞれ下記の式(1)(2)(3)により算出される。
Si={xi, yi}
ΔSjH=xj+1-xj (j=1~N-1) (1)
ΔSjV=yj+1-yj (j=1~N-1) (2)
ΔSjrは、それぞれ下記の式(1)(2)(3)により算出される。
Si={xi, yi}
ΔSjH=xj+1-xj (j=1~N-1) (1)
ΔSjV=yj+1-yj (j=1~N-1) (2)
S502は、第1の判定回数JN1と第1の閾値Th1を用いて、S501で取得した視線位置変化情報ΔSjを判定する。なお、所定回数Nと判定回数JN1の関係は、
N≧JN1 (4)
上記式(4)の関係にある。なお、本実施形態では、JN1を5回という固定値で説明するが、条件に応じて変更してもよい。S502では、S501で取得した視線位置変化情報ΔSjが判定時刻を含み、過去連続して第1の判定回数JN1回、第1の閾値Th1以下と判定されれば、表示部28に表示される視線位置の表示を静止させる(動かさない)ためにS505へ移行する。また、S501で取得した視線位置変化情報ΔSjが判定時刻を含み、過去の第1の判定回数JN1回の間、1度でも第1の閾値Th1以上と判定されれば、第2の閾値で判定するため、S503へ移行する。
N≧JN1 (4)
上記式(4)の関係にある。なお、本実施形態では、JN1を5回という固定値で説明するが、条件に応じて変更してもよい。S502では、S501で取得した視線位置変化情報ΔSjが判定時刻を含み、過去連続して第1の判定回数JN1回、第1の閾値Th1以下と判定されれば、表示部28に表示される視線位置の表示を静止させる(動かさない)ためにS505へ移行する。また、S501で取得した視線位置変化情報ΔSjが判定時刻を含み、過去の第1の判定回数JN1回の間、1度でも第1の閾値Th1以上と判定されれば、第2の閾値で判定するため、S503へ移行する。
S503は、第2の判定回数JN1と第2の閾値Th1を用いて、S501で取得した視線位置変化情報ΔSjを判定する。なお、所定回数Nと判定回数JN2の関係は、
N ≧ JN2 (5)
上記式(5)の関係にある。なお、本実施形態では、JN2を5回という固定値で説明するが、条件に応じて変更してもよい。S503では、S501で取得した視線位置変化情報ΔSjが判定時刻を含み、過去連続して第2の判定回数JN2回、第2の閾値Th2以上か否かを判定する。そうであると判定されれば、表示部28に表示される視線位置の表示を動作させる(動かす)ための動き出し位置を算出するためにS504へ移行する。また、S501で取得した視線位置変化情報ΔSjが判定時刻を含み、過去の第2の判定回数JN2回の間、1度でも第2の閾値Th2以下と判定されれば、それまでの表示から変更させない。このため、S3で取得した視線位置情報Siを用いて、表示部28に表示させる視線表示位置を決定するために、S506へ移行する。
N ≧ JN2 (5)
上記式(5)の関係にある。なお、本実施形態では、JN2を5回という固定値で説明するが、条件に応じて変更してもよい。S503では、S501で取得した視線位置変化情報ΔSjが判定時刻を含み、過去連続して第2の判定回数JN2回、第2の閾値Th2以上か否かを判定する。そうであると判定されれば、表示部28に表示される視線位置の表示を動作させる(動かす)ための動き出し位置を算出するためにS504へ移行する。また、S501で取得した視線位置変化情報ΔSjが判定時刻を含み、過去の第2の判定回数JN2回の間、1度でも第2の閾値Th2以下と判定されれば、それまでの表示から変更させない。このため、S3で取得した視線位置情報Siを用いて、表示部28に表示させる視線表示位置を決定するために、S506へ移行する。
S504は、S503で第2の閾値Th2以上であると判定された場合に行われる。視線表示の動作位置を算出して、S506へ移行する。
S505は、S502で第1の閾値Th1以下であると判定された場合に行われる。視線表示の静止位置を算出して、S506へ移行する。そして、一連のフローが完了したのち、図6のメインフローS6へ移行する。
S506では、視線表示位置を決定する。
[表示位置を固定するか否かの判定と、表示位置の算出]
ここで、S502で行う視線位置の表示を静止するための判定方法と表示の固定位置算出について、図8、図9を用いて説明する。図8は、撮影された動画または撮影中の動画が表示部28に表示されており、ユーザーは視線で特定の被写体に視線確定操作を行う一例を示しており、第1の判定回数JN1と第1の閾値Th1を用いた視線情報表示の表示不動方法を説明する。図8は、左から時刻t1(図8(a))、t2(図8(b))、t3(図8(c))の瞬間に表示部28に表示される画像を抜粋して表している。Smは視線情報表示、Trgはユーザーが視線で追っている被写体を表している。
ここで、S502で行う視線位置の表示を静止するための判定方法と表示の固定位置算出について、図8、図9を用いて説明する。図8は、撮影された動画または撮影中の動画が表示部28に表示されており、ユーザーは視線で特定の被写体に視線確定操作を行う一例を示しており、第1の判定回数JN1と第1の閾値Th1を用いた視線情報表示の表示不動方法を説明する。図8は、左から時刻t1(図8(a))、t2(図8(b))、t3(図8(c))の瞬間に表示部28に表示される画像を抜粋して表している。Smは視線情報表示、Trgはユーザーが視線で追っている被写体を表している。
図8(a)は、自転車に乗った被写体Trgが画面左から移動してきた瞬間である。また、ユーザーは被写体Trgを認識して、視線を合わせようと始めている様子を表している。この瞬間はまだ被写体Trgに視線情報表示Smが一致しておらず、かつ視線情報表示Smが破線表現した通りばらついている。
図8(b)は、被写体Trgが停止に向けて自転車のスピードを緩めている瞬間である。また、図8(a)の時刻t1から時間が過ぎて時刻t2における被写体Trgと視線情報表示Smを表している。この瞬間では被写体Trgに視線情報表示Smが略一致し始めているが、視線情報表示Smは破線表現した通りばらついている。
図8(c)は、被写体Trgが自転車を停止させて立っている瞬間である。また、図8(b)の時刻t2から時間が過ぎて時刻t3における被写体Trgと視線情報表示Smを表している。この瞬間では被写体Trgに視線情報表示Smが一致しており、かつ視線情報表示Smは、第1の判定回数JN1と第1の閾値Th1を用いることで視線情報表示は不動表示されている。次に図8の一連の流れを、図9の視線位置変化情報ΔSjと、第1の判定回数JN1と第1の閾値Th1を用いて説明する。図9は、第1の判定回数JN1と第1の閾値Th1を用いた静止判定を説明している。なお、図9では第1の判定回数JN1を5回としているが、この数に限られず、ユーザーの視線特性や表示部28の閲覧状態、ユーザーによるマニュアル操作によって変更しても良い。
図9(a)は、時刻tにおける視線位置変化情報ΔSjのうち、水平位置変化量に対応するΔSjHを表している。水平に引かれた2本の実線は、第1の閾値Th1のうち、水平位置変化量に対応する閾値Th1Hを表している。また、グレーのハッチがかかっている部分は、第1の判定回数JN1のうち、水平位置変化量に対応する判定回数JN1Hを表している。
図9(b)は、時刻tにおける視線位置変化情報ΔSjのうち、垂直位置変化量に対応するΔSjVを表している。水平に引かれた2本の実線は、第1の閾値Th1のうち、垂直位置変化量に対応する閾値Th1Vを表している。また、グレーのハッチがかかっている部分は、第1の判定回数JN1のうち、水平位置変化量に対応する判定回数JN1Vを表している。
図9(c)は、時刻tにおける視線位置変化情報ΔSjのうち、2点間位置変化量に対応するΔSjrを表している。水平に引かれた2本の実線は、第1の閾値Th1のうち、2点間位置変化量に対応する閾値Th1rを表している。また、グレーのハッチがかかっている部分は、第1の判定回数JN1のうち、2点間位置変化量に対応する判定回数JN1rを表している。
図9(a)は、水平位置変化量に対する視線位置変化情報ΔSjHで視線情報表示の静止判定を行う場合の説明である。時刻t1から時刻t2における水平位置変化量に対する視線位置変化情報ΔSjHは、徐々に減少しているがまだ水平位置変化量に対応する閾値Th1Hを上回っている状態である。その後、時刻t2から時刻t3における水平位置変化量に対する視線位置変化情報ΔSjHは、水平位置変化量に対応する閾値Th1H以内を推移し、時間がたつにつれて収束している状態である。この時、時刻t2から水平位置変化量に対応する閾値Th1H以内であるため、カウントアップしてゆく。そして、本実施形態では水平位置変化量に対応する判定回数JN1Hを5回として説明するため、5回目となる時刻t3から表示部28における視線情報表示を固定値として静止表示させるように変更する。固定値は、表示の固定位置は水平位置変化量に対応する判定回数JN1Hの平均値とする。なお、固定値として、水平位置変化量に対応する判定回数JN1Hの最後の値としても良い。
図9(b)は、垂直位置変化量に対する視線位置変化情報ΔSjVで視線情報表示の静止判定を行う場合の説明である。時刻t1から時刻t2における垂直位置変化量に対する視線位置変化情報ΔSjVは、徐々に減少しているがまだ垂直位置変化量に対応する閾値Th1Vを下回っている状態である。その後、時刻t2から時刻t3における垂直位置変化量に対する視線位置変化情報ΔSjVは、垂直位置変化量に対応する閾値Th1V以内を推移し、時間がたつにつれて収束している状態である。この時、時刻t2から垂直位置変化量に対応する閾値Th1V以内であるため、カウントアップしてゆく。そして、本実施形態では垂直位置変化量に対応する判定回数JN1Vを5回として説明するため、5回目となる時刻t3から表示部28における視線情報表示を固定値として静止表示させるように変更する。固定値は、表示の固定位置は垂直位置変化量に対応する判定回数JN1Vの平均値とする。なお、固定値として、垂直位置変化量に対応する判定回数JN1Vの最後の値としても良い。
図9(c)は、2点間位置変化量に対する視線位置変化情報ΔSjrで視線情報表示の静止判定を行う場合の説明である。前述したΔSjHやΔSjVとは異なり、ΔSjrは正の値をとるため、2点間位置変化量に対応する閾値Th1rは正の値のみとなる。時刻t1から時刻t2における2点間位置変化量に対する視線位置変化情報ΔSjrは、徐々に減少しているがまだ2点間位置変化量に対応する閾値Th1rを上回っている状態である。その後、時刻t2から時刻t3における2点間位置変化量に対する視線位置変化情報ΔSjrは、2点間位置変化量に対応する閾値Th1r以内を推移し、時間がたつにつれて収束している状態である。この時、時刻t2から2点間位置変化量に対応する閾値Th1r以内であるため、カウントアップしてゆく。そして、本実施形態では2点間位置変化量に対応する判定回数JN1rを5回として説明するため、5回目となる時刻t3から表示部28における視線情報表示を固定値として静止表示させるように変更する。固定値は、表示の固定位置は2点間位置変化量に対応する判定回数JN1rの平均位置とする。なお、固定値として、2点間位置変化量に対応する判定回数JN1rの最後の値から決まる位置としても良い。
以上のように視線情報の変化に応じて視線情報表示を静止表示させることで、表示品位や利便性を向上させる電子装置を提供することが可能である。
[表示位置を変化させるか否かの判定と、表示位置の算出]
ここで、S503で行う視線位置の表示を静止するための判定方法と表示の固定位置算出について、図10、図11を用いて説明する。図10は、撮影された動画または撮影中の動画が表示部28に表示されており、ユーザーは視線で特定の被写体に視線確定操作を行う一例を示しており、第2の判定回数JN2と第2の閾値Th2を用いた視線情報表示の表示不動方法を説明する。図10は、左から時刻t1’(図10(a))、t2’(図10(b))、t3’(図10(c))の瞬間に表示部28に表示される画像を抜粋して表している。Smは図8同様に視線情報表示を示しており、Trg’はユーザーが視線で追っている、図8とは異なる被写体を表している。
ここで、S503で行う視線位置の表示を静止するための判定方法と表示の固定位置算出について、図10、図11を用いて説明する。図10は、撮影された動画または撮影中の動画が表示部28に表示されており、ユーザーは視線で特定の被写体に視線確定操作を行う一例を示しており、第2の判定回数JN2と第2の閾値Th2を用いた視線情報表示の表示不動方法を説明する。図10は、左から時刻t1’(図10(a))、t2’(図10(b))、t3’(図10(c))の瞬間に表示部28に表示される画像を抜粋して表している。Smは図8同様に視線情報表示を示しており、Trg’はユーザーが視線で追っている、図8とは異なる被写体を表している。
図10(a)は、被写体である自動車Trg’が画面左から動き出そうとしている瞬間である。また、ユーザーは自動車Trg’を認識し続けており、視線が合っている様子を表している。この瞬間は自動車Trg’に視線情報表示Smが一致しており、前述したS502の処理により、視線情報表示Smが静止している。なお、S502の処理が実行される前であれば視線情報表示Smが動作している場合もありうる。
図10(b)は、被写体Trg’が動き始めてスピードをあげている瞬間である。また、図10(a)の時刻t1’から時間が過ぎて時刻t2’における被写体Trg’と視線情報表示Smを表している。この瞬間では被写体Trg’から視線情報表示Smが乖離し始めておりるが、視線情報表示Smは前述したS502の処理により、静止している。なお、S502の処理が実行される前であれば視線情報表示Smが動作している場合もありうる。
図10(c)は、被写体Trg’である自動車が停止している瞬間である。また、図10(b)の時刻t2’から時間が過ぎて時刻t3’における被写体Trg’と視線情報表示Smを表している。この瞬間では被写体Trg’に視線情報表示Smが一致しており、かつ視線情報表示Smは、第2の判定回数JN2と第2の閾値Th2を用いることで視線情報表示は動作表示されており、破線で示したようにバラつきて表示されている。
次に図10の一連の流れを、図11の視線位置変化情報ΔSjと、第2の判定回数JN2と第2の閾値Th1を用いて説明する。図11は、第2の判定回数JN2と本発明の第2の閾値Th2を用いた静止判定を説明している。なお、図11では第2の判定回数JN2を5回としているが、この数に限られず、ユーザーの視線特性や表示部28の閲覧状態、ユーザーによるマニュアル操作によって変更しても良い。
図11(a)は、時刻t’における視線位置変化情報ΔSjのうち、水平位置変化量に対応するΔSjHを表している。水平に引かれた2本の実線は、第2の閾値Th2のうち、水平位置変化量に対応する閾値Th2Hを表している。また、グレーのハッチがかかっている部分は、第2の判定回数JN2のうち、水平位置変化量に対応する判定回数JN2Hを表している。
図11(b)は、時刻t’における視線位置変化情報ΔSjのうち、垂直位置変化量に対応するΔSjVを表している。水平に引かれた2本の実線は、第2の閾値Th2のうち、垂直位置変化量に対応する閾値Th2Vを表している。また、グレーのハッチがかかっている部分は、第2の判定回数JN2のうち、水平位置変化量に対応する判定回数JN2Vを表している。
図11(c)は、時刻t’における視線位置変化情報ΔSjのうち、2点間位置変化量に対応するΔSjrを表している。水平に引かれた2本の実線は、第2の閾値Th2のうち、2点間位置変化量に対応する閾値Th2rを表している。また、グレーのハッチがかかっている部分は、第2の判定回数JN2のうち、2点間位置変化量に対応する判定回数JN2rを表している。
図11(a)は、水平位置変化量に対する視線位置変化情報ΔSjHで視線情報表示の静止判定を行う場合の説明である。時刻t1’から時刻t2’における水平位置変化量に対する視線位置変化情報ΔSjHは、徐々に増加しており、水平位置変化量に対応する閾値Th1Hを上回ろうとしている状態である。その後、時刻t2’から時刻t3’における水平位置変化量に対する視線位置変化情報ΔSjHは、水平位置変化量に対応する閾値Th2H以内を推移し、時間がたつにつれて被写体Trg’にあわせて移動している状態である。この時、時刻t2’から水平位置変化量に対応する閾値Th2H以内であるため、カウントアップしてゆく。そして、本実施形態では水平位置変化量に対応する判定回数JN2Hを5回として説明するため、5回目となる時刻t3’から表示部28における視線情報表示を動作表示させるように変更する。表示させるための値は、表示の固定位置は水平位置変化量に対応する判定回数JN2Hの平均値とする。なお、固定値として、水平位置変化量に対応する判定回数JN2Hの最後の値としても良い。また水平位置変化量に対する視線位置変化情報ΔSjHは、水平位置変化量に対応する閾値Th2H以内を推移していたとしても、水平位置変化量に対応する判定回数JN2H連続で同方向に常に移動していた場合には、次のようにしても良い。すなわち、視線情報表示を動作表示させるように変更しても良い。
図11(b)は、垂直位置変化量に対する視線位置変化情報ΔSjVで視線情報表示の静止判定を行う場合の説明である。時刻t1’から時刻t2’における垂直位置変化量に対する視線位置変化情報ΔSjVは、概ね一定の値をとっており、常に垂直位置変化量に対応する閾値Th2Vを下回っている状態である。この時、時刻t2’から垂直位置変化量に対応する閾値Th2V以内であるため、カウントアップされない。そのため、垂直位置変化量に対する視線位置変化情報ΔSjVでは、時刻t3’においても表示部28における視線情報表示を固定値として静止表示させたままと判定される。
図11(c)は、2点間位置変化量に対する視線位置変化情報ΔSjrで視線情報表示の静止判定を行う場合の説明である。前述したΔSjHやΔSjVとは異なり、ΔSjrは正の値をとるため、2点間位置変化量に対応する閾値Th2rは正の値のみとなる。時刻t1’から時刻t2’における2点間位置変化量に対する視線位置変化情報ΔSjrは、徐々に増加しているがまだ2点間位置変化量に対応する閾値Th2rを下回っている状態である。その後、時刻t2’から時刻t3’における2点間位置変化量に対する視線位置変化情報ΔSjrは、2点間位置変化量に対応する閾値Th2r以内を推移し、時間がたつにつれて変化している状態である。この時、時刻t2’から2点間位置変化量に対応する閾値Th2r以上であるため、カウントアップしてゆく。そして、本実施形態では2点間位置変化量に対応する判定回数JN2rを5回として説明するため、5回目となる時刻t3’から表示部28における視線情報表示を動作表示させるように変更する。表示させる値は、表示の固定位置は2点間位置変化量に対応する判定回数JN2rの平均位置とする。なお、固定値として、2点間位置変化量に対応する判定回数JN2rの最後の値から決まる位置としても良い。
以上のように視線情報の変化に応じて視線情報表示を動作表示させることで、表示品位や利便性を向上させる電子装置を提供することが可能である。
また、図10、図11では、視線位置変化量ΔSjを用いた判定を説明したが、さらに視線位置が変化した方向が所定範囲内であるか否かに応じて、静止、動作判定しても良い。例えば、所定範囲として、±45度等を選択することができる。これにより、視線がバラつきながら変化している様子を判定することができる。
以上のように、視線位置変化量に応じて、視線位置の表示を静止もしくは動作させることで、表示品位や利便性を向上させる電子装置を提供することが可能である。本実施形態では、静止判定、動作判定を視線位置変化量に応じて判定する方法について記述したが、視線位置情報の変化角度範囲やベクトル情報等を用いて判定しても良い。また、視線位置情報だけでなく、電子装置のジャイロ情報などの情報を用いて判定しても良い。
また、本実施形態では水平位置、垂直位置、2点間位置でもちいる第1の閾値Th1の値を同一で説明したが、別の値に変更することが可能であり、さらに、それぞれ別の値に変更しても良い。
<第2の実施形態>
次に第2の実施形態について図12、図13を用いて説明する。本実施形態では、焦点検出装置と組み合わせた場合の視線位置表示方法について説明する。
次に第2の実施形態について図12、図13を用いて説明する。本実施形態では、焦点検出装置と組み合わせた場合の視線位置表示方法について説明する。
[焦点検出動作の説明]
図2は、本実施形態にかかる画素の構成と、瞳面と光電変換部の対応関係を示している。201が光電変換部を、253が瞳面を、251がマイクロレンズを、252がカラーフィルタをそれぞれ示している。図2には、光電変換部201a(第1焦点検出画素)と、光電変換部201b(第2焦点検出画素)の2つの光電変換部201が設けられている。光電変換部201aにおいて、253aで示した瞳面を通過した光が光電変換部201aに入射する。また、光電変換部201bにおいて、253bで示した瞳面を通過した光が光電変換部201bに入射する。これにより、光電変換部201aと、光電変換部201bから得られた信号から焦点検出が行える。また、光電変換部201aと、光電変換部201bから得られた信号を加算することにより、撮像信号を生成することができる。
図2は、本実施形態にかかる画素の構成と、瞳面と光電変換部の対応関係を示している。201が光電変換部を、253が瞳面を、251がマイクロレンズを、252がカラーフィルタをそれぞれ示している。図2には、光電変換部201a(第1焦点検出画素)と、光電変換部201b(第2焦点検出画素)の2つの光電変換部201が設けられている。光電変換部201aにおいて、253aで示した瞳面を通過した光が光電変換部201aに入射する。また、光電変換部201bにおいて、253bで示した瞳面を通過した光が光電変換部201bに入射する。これにより、光電変換部201aと、光電変換部201bから得られた信号から焦点検出が行える。また、光電変換部201aと、光電変換部201bから得られた信号を加算することにより、撮像信号を生成することができる。
本実施例では、図2に示した画素を、撮像部22の全画面領域に設けることにより、画面上に写るいずれの被写体に対しても、位相差検出により焦点を合わせることが可能となる。
なお、本実施例では、上記の焦点検出方式で説明を行うが、焦点検出方式はこの場合に限らない。例えば、撮像部22に、後述の図3に示す焦点検出専用画素を設けて焦点検出を行ってもよい。また、撮像部22には、焦点検出用の画素を設けず、撮像用の画素のみを設け、コントラスト方式で焦点検出を行ってもよい。
図3は、焦点検出専用画素の構成と、瞳面と光電変換部の対応関係を示している。図3は、図2と異なり、焦点検出専用の画素である。瞳面253の形状は、開口部254により決定される。また、瞳面253を通過した光のみを検出するため、対となる画素、図3において不図示の右側の瞳面からの光を検出する画素、を別途設けて焦点検出信号を取得する必要がある。撮像部22に、図3に示す焦点検出画素と、撮像画素を全画面領域に設けることにより、画面上に写るいずれの被写体に対しても、位相差検出により焦点を合わせることが可能となる。
上述したデジタルカメラ100では中央1点AFや顔AFを用いた撮影が可能である。中央1点AFとは撮影画面内の中央位置1点に対してAFを行うことである。顔AFとは顔検出機能によって検出された撮影画面内の顔に対してAFを行うことである。
顔検出機能について説明する。システム制御部50は顔検出対象の画像データを画像処理部24に送る。システム制御部50の制御下で画像処理部24は、当該画像データに水平方向バンドパスフィルタを作用させる。また、システム制御部50の制御下で画像処理部24は処理された画像データに垂直方向バンドパスフィルタを作用させる。これら水平及び垂直方向のバンドパスフィルタにより、画像データよりエッジ成分が検出される。
その後、システム制御部50は、検出されたエッジ成分に関してパターンマッチングを行い、目及び鼻、口、耳の候補群を抽出する。そして、システム制御部50は、抽出された目の候補群の中から、予め設定された条件(例えば2つの目の距離、傾き等)を満たすものを、目の対と判断し、目の対があるもののみ目の候補群として絞り込む。そして、システム制御部50は、絞り込まれた目の候補群とそれに対応する顔を形成する他のパーツ(鼻、口、耳)を対応付け、また、予め設定した非顔条件フィルタを通すことで、顔を検出する。システム制御部50は、顔の検出結果に応じて上記顔情報を出力し、処理を終了する。このとき、顔の数などの特徴量をシステムメモリ52に記憶する。顔検出機能の実現方法は、上述の方法に限らず、公知の機械学習を用いた方法により、同様に、顔の数、サイズ、パーツなどを検出してもよい。また、被写体の種別として、人物の顔に限らず、動物や乗り物などを検出してもよい。
以上のようにライブビュー表示あるいは再生表示される画像データを画像解析して、画像データの特徴量を抽出して被写体情報を検出することが可能である。本実施例では被写体情報として顔情報を例に挙げたが、被写体情報には他にも赤目判定や目の検出、目つむり検出、笑顔検出等の様々な情報がある。
なお、顔AFと同時に顔AE,顔FE、顔WBを行うことができる。顔AEとは検出された顔の明るさに合わせて、画面全体の露出を最適化することである。顔FEとは検出された顔を中心にフラッシュの調光をすることである。顔WBとは、検出された顔の色に合わせて画面全体のWBを最適化することである。
次に、図12を用いて第2の実施形態にかかる電子装置の視線検出処理方法及び、視線位置状態判定と判定結果について説明する。図12は、本実施形態の電子装置の焦点検出、視線検出及び撮影動作を説明するためのフローチャートである。図12は、撮影スタンバイ状態などのライブビュー状態(動画撮影状態)から撮影を行うライブビュー撮影時の動作を示し、システム制御部50が主体となって実現される。
S11では、システム制御部50の制御に従い、撮像部22を駆動し、撮像データを取得する。取得する撮像データは、後述する記録用ではなく、検出・表示用の画像であるため、記録画像に対してサイズの小さい画像を取得する。S11では、焦点検出や被写体検出、もしくは、ライブビュー表示を行うために十分な解像度を有する画像を取得する。ここでは、ライブビュー表示用の動画撮影のための駆動動作であるため、ライブビュー表示用のフレームレートに応じた時間の電荷蓄積と読み出しを行う、いわゆる電子シャッターを用いた撮影を行う。ここで行うライブビュー表示は、撮影者が撮影範囲や撮影条件の確認を行うためのもので、例えば、30フレーム/秒(撮影間隔33.3ms)や60フレーム/秒(撮影間隔16.6ms)であってよい。
S12で、システム制御部50は、S11で得られた撮像データのうち、焦点検出領域に含まれる第1焦点検出画素と第2焦点検出画素から得られる焦点検出データを取得する。また、システム制御部50は、第1焦点検出画素と第2焦点検出画素の出力信号を加算し撮像信号を生成し、画像処理部24で色補間処理などを適用して得られる画像データを取得する。このように、1回の撮影により、画像データと、焦点検出データとを取得することができる。なお、撮像画素と、第1焦点検出画素、第2焦点検出画素を個別の画素構成とした場合には、焦点検出用画素の補完処理などを行って画像データを取得する。
S13でシステム制御部50は、S12で得られた画像データをもとに、画像処理部24を用いてライブビュー表示用の画像を生成し、表示部28に表示する。なお、ライブビュー表示用の画像は、例えば表示部28の解像度に合わせた縮小画像であり、S12で画像データを生成する際に画像処理部24で縮小処理を実施することもできる。この場合、システム制御部50はS12で取得した画像データを表示部28に表示させる。上述の通り、ライブビュー表示中は所定のフレームレートでの撮影と表示が行われるため、表示部28を通じて撮影者は撮影時の構図や露出条件の調整などを行うことができる。 また、上述の通り、本実施形態では、被写体として人物の顔や動物などを検出することが可能である。S13で、ライブビュー表示の開始に合わせて、検出している被写体の領域を示す枠などの表示も行う。なお、第1の実施形態のメインフローS1のように、ライブビュー画像ではなく、取得済みの画像を表示させても良い。
以降、S14からS19は第1の実施形態のS2からS7と同一であるため、説明を割愛する。
S20でSw1のオンが検出されない(あるいはオフが検出された)場合、システム制御部50は処理をS28に進め、操作部70に含まれるメインスイッチがオフされたか否かを判別する。一方、S20でSw1のオンが検出されると、システム制御部50は処理をS21に進め、合焦させる焦点検出領域の設定、および焦点検出を行う。ここでは、S18で検出を開始した視線位置を用いて、焦点検出領域を設定する。S18で検出される視線位置は、撮影者が意図する被写体の位置に対して、様々な要因で、誤差を有する。
S21では、後述する処理が施された視線位置情報を用いて、焦点検出領域を設定する。その際に、視線位置と焦点検出領域の中心位置を揃えてもよい。また、被写体検出手段など他の手段による焦点検出領域の候補が存在する場合には、視線位置に対して検出された被写体領域を紐づけることにより、最も近い被写体領域を焦点検出領域として選択してもよい。S21以降、視線位置情報を用いた焦点検出領域の設定と、焦点検出処理は、撮像を行うたびに、繰り返し実行される。ここで焦点検出処理について説明する。
設定された焦点検出領域に対応する焦点検出データを用いて、デフォーカス量および方向を焦点検出領域ごとに求める。本実施形態では、システム制御部50が焦点検出用の像信号の生成と、焦点検出用信号のずれ量(位相差)の算出と、算出したずれ量からデフォーカス量と方向を求める処理を実施するものとする。
設定した焦点検出領域から、焦点検出用の像信号として得られた第1焦点検出信号と第2焦点検出信号に、シェーディング補正、フィルター処理を行い、対の信号の光量差の低減と、位相差検出を行う空間周波数の信号抽出を行う。次に、フィルター処理後の第1焦点検出信号と第2焦点検出信号を相対的に瞳分割方向にシフトさせるシフト処理を行い、信号の一致度を表す相関量を算出する。
フィルター処理後のk番目の第1焦点検出信号をA(k)、第2焦点検出信号をB(k)、焦点検出領域に対応する番号kの範囲をWとする。さらに、シフト処理によるシフト量をs1、シフト量s1のシフト範囲をΓ1とすると、相関量CORは式(6)により算出される。
シフト量s1のシフト処理により、k番目の第1焦点検出信号A(k)とk-s1番目の第2焦点検出信号B(k-s1)を対応させ減算し、シフト減算信号を生成する。生成されたシフト減算信号の絶対値を計算し、焦点検出領域に対応する範囲W内で番号kの和を取り、相関量COR(s1)を算出する。必要に応じて、各行毎に算出された相関量を、シフト量毎に、複数行に渡って加算しても良い。
次に、相関量から、サブピクセル演算により、相関量が最小値となる実数値のシフト量を算出して像ずれ量p1とする。そして、算出した像ずれ量p1に、焦点検出領域の像高と、撮像レンズ(結像光学系)のF値、射出瞳距離に応じた変換係数K1をかけて、検出デフォーカス量を検出する。
S22でシステム制御部50は、選択した焦点検出領域で検出されたデフォーカス量に基づき、レンズ駆動を行う。検出されたデフォーカス量が所定値より小さい場合には、必ずしもレンズ駆動を行う必要はない。
S23で、S1で行った検出・表示用の画像の取得とライブビュー表示、および、S6で行った焦点検出処理を行う。ライブビュー表示には、上述の通り検出された被写体領域や視線位置の情報も重畳して表示する。S23で行う処理は、S22のレンズ駆動中に、並列的に行ってもよい。また、随時更新されるライブビュー表示に合わせて、得られる視線位置に対応させて、焦点検出領域を変更してもよい。焦点検出処理を終えるとS24に進み、システム制御部50は撮影開始指示を示す第2シャッタースイッチ64(Sw2)のオン/オフを検出する。操作部70の一つであるレリーズ(撮影トリガ)スイッチは、押し込み量に応じて、2段階のオン/オフを検出することが可能で、上述のSw2は、レリーズ(撮影トリガ)スイッチの2段階目のオン/オフに相当する。システム制御部50は、S24でSw2のオンが検出されない場合、S20に戻り、Sw1のオン/オフを検出する。
また、S1で取得された検出用の画像から、被写体検出を行い、検出被写体位置や範囲の情報を取得する。本実施形態では、取得された検出被写体情報と、S18で得られた視線位置情報を用いて視線位置情報を変更する。取得された検出被写体情報と視線位置情報とを比較して、検出被写体範囲内に視線位置が第1の判定回数だけ含まれる場合には、前述した静止判定を実施して、表示部28における視線情報表示を静止表示させる。なお、検出被写体範囲内ではなくとも、例えば検出被写体範囲近傍の範囲を判定範囲として設定しても良い。また、視線情報表示を静止表示させる代わりに、非表示にしても良い。
また、本実施形態では、設定されているAFモードに応じて所定回数Nや第1の判定回数JN1、第2の判定回数JN2を変更できる。AFモードとして、S20のSw1検出があった際に、前述したAF制御を1度だけ実施するワンショットAFや、Sw1検出が継続されている間、AF制御を実施し続けるサーボAFがある。まず、ワンショットAFが設定されている場合には、例えば、構図が決まっており、低速から静止被写体を撮影する際に使用されることが多いと考えられる。そのため、第1の判定回数、第2の判定回数はサーボAFが設定されている場合に比べて、多く設定され、第1の閾値、第2の閾値は大きな値が設定される。これによって、被写体に対する視線位置表示の微調整を行うことができ、良好な視線表示が可能である。
一方、サーボAFモードが設定されている場合には、例えば、フレーミング操作が必要な中速から高速な被写体を撮影される際に使用されることが多いと考えられる。そのため、第1の判定回数、第2の判定回数はワンショットAFが設定されている場合に比べて、少なく設定され、第1の閾値、第2の閾値は小さな値が設定される。これにより、とっさの動作表示も実施されるため、動きの速い被写体であっても良好な視線表示を行うことが可能である。
なお、上記のようなAFモードに応じた設定変更ではなく、ユーザー自身が自由に第1の判定回数、第2の判定回数や、第1の閾値、第2の閾値を設定しても良い。
S24でSw2のオンが検出されるとシステム制御部50は処理をS25に進め、画像記録を行うか否かを判定する。本実施形態では、連写中の画像取得を、記録画像用と撮像/表示、焦点検出用で、処理を切り替える。切り替えは、交互でもよいし、例えば、3回に1回撮像/表示、焦点検出を行うなどしてもよい。これにより、単位時間当たりの撮影枚数を、大幅に減らすことなく、高精度な焦点検出を行うができる。
S25で画像記録を行うと判定した場合には、S26に進み、撮影サブルーチンを実行する。撮影サブルーチンの詳細については後述する。S26で撮影サブルーチンが実行されるとS24に戻り、Sw2のオンが検出される、すなわち連写指示がされているか否かを判断する。
S25で撮像/表示、焦点検出を行うと判定した場合には、S27に進み、連写中の撮像/表示、焦点検出処理を実行する。連写中の撮像/表示、焦点検出処理は、実行する処理の内容は、S23と同じである。違いは、連写の撮影コマ速、記録画像の生成処理などに応じて、S27で撮像した画像の表示期間、表示更新レート(間隔)、表示遅延が、S23の処理の場合と異なっている点である。表示手段としてのシステム制御部50が、これらの表示制御を行う。得られた視線位置情報は、上述の通り、焦点検出領域の設定や検出された被写体領域との紐づけなどに用いる。詳細は後述する。S27で連写中の撮像/表示、焦点検出処理が実行されるとS24に戻り、Sw2のオンが検出される、すなわち連写指示がされているか否かを判断する。S20でSw1のオンが検出されず(あるいはオフが検出された)、S28で、メインスイッチのオフが検出されると、焦点検出及び撮影動作を終了する。一方で、S28でメインスイッチのオフが検出されない場合には、S12に戻り、画像データ、焦点検出データの取得を行う。
次に、図13に示すフローチャートを用いて、図12のS26で実行する撮影サブルーチンの詳細について説明する。本サブルーチンの一連の動作も、システム制御部50が主体となって実現される。
S2601でシステム制御部50は、露出制御処理を実行し、撮影条件(シャッタ速度、絞り値、撮影感度)を決定する。この露出制御処理は、システム制御部50が画像データの輝度情報に基づいて行うことができるが、任意の公知技術を用いることができる。本実施形態において、露出制御処理を行う際に用いる画像データを得るタイミングなどの詳細は後述する。S2601で、決定した絞り値とシャッター速度に基づいて、シャッター101の動作を制御する。また、システム制御部50により、シャッター101を通じて撮像部22が露光される期間、電荷蓄積を行わせる。
露光期間が終了するとS2602でシステム制御部50は、システム制御部50により、高画素静止画撮影のための画像読み出し、すなわち全画素の読み出しを行う。また、第1焦点検出画素、もしくは、第2焦点検出画素のいずれかの画像読み出しを行う。焦点検出画素から読みだされた信号は、画像再生時に、被写体のピント状態を検出するために用いる。そのため、高画素静止画撮影の記録画像に対して、領域の制限や、全画素に対して低解像度にすることで、読出しデータ量を低減してもよい。第1焦点検出画素、もしくは第2焦点検出画素の信号があれば、高画素静止画撮影のための画像との差分を算出することで、もう一方の焦点検出信号を算出することができる。本実施形態では、高画素静止画撮影のための画像の信号のS/Nを優先するため、高画素静止画撮影のための画像信号と一方の焦点検出信号を読み出し、記録し、もう一方の焦点検出信号は演算により算出する。以降の画像に関する処理は、高画素静止画撮影のための画像信号と一方の焦点検出信号に対して施される。
S2603でシステム制御部50は、読み出された画像データに対して画像処理部24によって欠陥画素補正処理を実施する。S2604でシステム制御部50は、欠陥画素補正後の画像データに対して画像処理部24によってデモザイク(色補間)処理、ホワイトバランス処理、γ補正(階調補正)処理、色変換処理、エッジ強調処理等の画像処理や、符号化処理などを適用する。S2605においてシステム制御部50は、高画素静止画撮影のための画像信号と一方の焦点検出信号を画像データファイルとしてメモリ32に記録する。
S2606でシステム制御部50は、S2605で記録した撮影画像に対応させて、カメラ本体の特性情報をメモリ32とシステム制御部50内のメモリに記録する。ここでカメラ本体の特性情報としては、以下の様な情報が例示できる。
・撮影条件(絞り値、シャッタ速度、撮影感度など)
・画像処理部24で適用した画像処理に関する情報、
・撮像部22の撮像用画素及び焦点検出用画素の受光感度分布情報、
・カメラ本体内での撮影光束のケラレ情報、
・カメラ本体とレンズユニットとの取り付け面から撮像部22までの距離情報、
・製造誤差情報
・撮影条件(絞り値、シャッタ速度、撮影感度など)
・画像処理部24で適用した画像処理に関する情報、
・撮像部22の撮像用画素及び焦点検出用画素の受光感度分布情報、
・カメラ本体内での撮影光束のケラレ情報、
・カメラ本体とレンズユニットとの取り付け面から撮像部22までの距離情報、
・製造誤差情報
なお、撮像部22の撮像用画素及び焦点検出用画素の受光感度分布情報は、オンチップマイクロレンズMLと光電変換部PDに依存する情報であるため、これら部材に関する情報を記録しても良い。受光感度分布情報は、撮像素子から光軸上の所定の距離における位置に応じた感度の情報である。また、受光感度分布情報は、光の入射角度に対する感度の変化を情報としてもよい。
S2607でシステム制御部50は、S2605で記録した撮影画像に対応させて、レンズユニットの特性情報をメモリ32とシステム制御部50内のメモリに記録する。レンズユニットの特性情報としては、射出瞳の情報、枠情報、撮影時の焦点距離やFナンバー情報、収差情報、製造誤差情報、撮影時のフォーカスレンズ位置と対応付けられた被写体距離情報などが例示できる。S2608でシステム制御部50は、撮影した画像に関する画像関連情報をメモリ32とシステム制御部50内のメモリに記録する。画像関連情報には、撮影前の焦点検出動作に関する情報や、被写体移動情報、焦点検出動作の精度に関わる情報などが含まれてよい。
S2609で、システム制御部50は、表示部28に、撮影画像のプレビュー表示を行う。これにより撮影者は、撮影画像の簡易的な確認を行うことができる。S2609で行うプレビュー表示に用いる画像は、画像の簡易的な確認が目的であるため、S2603やS2604で行う各種処理を行わなくてもよい。これらの各種処理を行わない場合には、S2603以降の処理と並列して、S2609のプレビュー表示を行うことで、より露光から表示までのタイムラグを少なくすることができる。
S2609の処理が終わると、システム制御部50はS26の撮影サブルーチンを終了し、メインルーチンのS24に処理を進める。本実施形態では、連写中は、S26の撮影サブルーチンで画像記録する場合も、S27で連写中の撮像/表示、焦点検出処理を行う場合も、取得した画像の表示を行う。
以上のように、視線位置変化量に応じて、視線位置の表示を静止もしくは動作させることで、表示品位や利便性を向上させる電子装置を提供することが可能である。本実施形態では、静止判定、動作判定をAFモードや被写体検出に応じて判定する方法について記述したが、動画や静止画などの撮影モードや、ファインダーを用いた撮影か背面液晶画面を用いた撮影かなどの撮影機器の操作方法の違いに応じて変更しても良い。
また、実施例では本発明をデジタルカメラで実施する例を説明したが、視線検出を行う装置であればどんな装置に適用しても良い。例えばヘッドマウントディスプレイやスマートフォン、PC等において実施することも可能である。
また、前述の実施例でフローチャートを用いて説明した動作は、同様の目的を達成することができるように、適宜実行されるステップの順序を変更することが可能である。
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワークあるいは記憶媒体を介してシステム又は装置に供給する構成をとることも可能である。そして、そのシステムあるいは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
50 システム制御部
Claims (10)
- 観察者が注視する位置に対応する情報を取得する取得手段と、
当該位置に対応する指標を表示手段に表示させるよう制御する制御手段と、を有し、
前記制御手段は、前記位置の変化が第1の閾値よりも小さいことが連続して第1の回数あった場合には、前記指標の表示位置を変化させないことを特徴とする制御装置。 - 前記制御手段は、前記位置の変化が第2の閾値よりも大きいことが連続して第2の回数あった場合には、前記指標の表示位置を変化させることを特徴とする請求項1に記載の制御装置。
- 前記位置の変化が所定の方向に連続した場合には、前記指標の表示位置を変化させることを特徴とする請求項2に記載の制御装置。
- 前記位置の変化が所定の方向に連続した場合は、所定の方向に相当する範囲内での変化が少なくとも2回あった場合であることを特徴とする、請求項3に記載の制御装置。
- 被写体の位置を検出する被写体検出手段をさらに有し、前記位置と当該被写体の位置とが略一致する場合には、前記指標の表示位置を変化させないことを特徴とする、請求項1乃至4のいずれか1項に記載の制御装置。
- 被写体の位置を検出する被写体検出手段をさらに有し、前記位置と当該被写体の位置とが略一致する場合には、前記指標を表示させないことを特徴とする請求項1乃至4のいずれか1項に記載の制御装置。
- 前記第1の判定回数、前記第1の閾値、前記第2の判定回数、および前記第2の閾値のうち少なくとも1つを、水平位置の変化量、垂直位置の変化量、2点間位置の変化量のうち少なくとも1つに応じて変化することを特徴とする請求項1乃至6のいずれか1項に記載の制御装置。
- フォーカスレンズを駆動させる第1の駆動手段と、フォーカスレンズの駆動を繰り返し実施する第2の駆動手段と、をさらに有し、
前記第2の駆動手段が選択されている場合には、前記第1の駆動手段が選択されている場合と比べて、前記第1の閾値と前記第2の閾値とが小さいこと、を特徴とする請求項1乃至7のいずれか1項に記載の制御装置。 - 前記第2の駆動手段が選択されている場合には、前記第1の駆動手段が選択されている場合と比較して、前記第1の判定回数と前記第2の判定回数とが少ないことを特徴とする請求項1乃至8のいずれか1項に記載の制御装置。
- 観察者が注視する位置に対応する情報を取得する取得ステップと、
当該位置に対応する指標を表示手段に表示させるよう制御する制御ステップと、を有し、
前記制御ステップでは、前記位置の変化が第1の閾値よりも小さいことが連続して第1の回数あった場合には、前記指標の表示位置を変化させないことを特徴とする制御装置の制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021109537A JP2023006771A (ja) | 2021-06-30 | 2021-06-30 | 制御装置およびその制御方法 |
US17/850,831 US11968445B2 (en) | 2021-06-30 | 2022-06-27 | Control apparatus for detecting and displaying line-of-sight position, control method thereof, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021109537A JP2023006771A (ja) | 2021-06-30 | 2021-06-30 | 制御装置およびその制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023006771A true JP2023006771A (ja) | 2023-01-18 |
JP2023006771A5 JP2023006771A5 (ja) | 2024-06-24 |
Family
ID=84785751
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021109537A Pending JP2023006771A (ja) | 2021-06-30 | 2021-06-30 | 制御装置およびその制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11968445B2 (ja) |
JP (1) | JP2023006771A (ja) |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6091378A (en) * | 1998-06-17 | 2000-07-18 | Eye Control Technologies, Inc. | Video processing methods and apparatus for gaze point tracking |
US7819818B2 (en) * | 2004-02-11 | 2010-10-26 | Jamshid Ghajar | Cognition and motor timing diagnosis using smooth eye pursuit analysis |
US9213404B2 (en) * | 2006-02-01 | 2015-12-15 | Tobii Technology Ab | Generation of graphical feedback in a computer system |
JP2010164782A (ja) * | 2009-01-15 | 2010-07-29 | Brother Ind Ltd | 画像表示装置 |
US9996150B2 (en) * | 2012-12-19 | 2018-06-12 | Qualcomm Incorporated | Enabling augmented reality using eye gaze tracking |
BR112015022523A2 (pt) * | 2013-03-11 | 2017-07-18 | Childrens Healthcare Atlanta Inc | sistemas e métodos para detecção de condições de desenvolvimento e cognitivas |
WO2015064165A1 (ja) * | 2013-11-01 | 2015-05-07 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
US10802620B2 (en) * | 2015-03-17 | 2020-10-13 | Sony Corporation | Information processing apparatus and information processing method |
US10048751B2 (en) * | 2016-03-31 | 2018-08-14 | Verizon Patent And Licensing Inc. | Methods and systems for gaze-based control of virtual reality media content |
WO2018016209A1 (ja) * | 2016-07-20 | 2018-01-25 | 富士フイルム株式会社 | 注目位置認識装置、撮像装置、表示装置、注目位置認識方法及びプログラム |
US11016558B2 (en) * | 2017-02-23 | 2021-05-25 | Sony Corporation | Information processing apparatus, and information processing method to determine a user intention |
US20190099072A1 (en) * | 2017-09-29 | 2019-04-04 | Nidek Co., Ltd. | Ophthalmic device |
JP2020119093A (ja) | 2019-01-21 | 2020-08-06 | キヤノン株式会社 | 画像形成装置 |
JP7336266B2 (ja) * | 2019-06-04 | 2023-08-31 | キヤノン株式会社 | 電子機器、電子機器の制御方法、プログラム、記憶媒体 |
CN112306229A (zh) * | 2019-08-02 | 2021-02-02 | 佳能株式会社 | 电子装置、控制方法和计算机可读介质 |
JP7433810B2 (ja) * | 2019-08-21 | 2024-02-20 | キヤノン株式会社 | 電子機器、電子機器の制御方法、プログラム及び記憶媒体 |
US11509816B2 (en) * | 2020-02-05 | 2022-11-22 | Canon Kabushiki Kaisha | Image processing apparatus, image pickup apparatus, and control method of image processing apparatus |
JP7500217B2 (ja) * | 2020-02-19 | 2024-06-17 | キヤノン株式会社 | 電子機器 |
US11392198B2 (en) * | 2020-10-20 | 2022-07-19 | ROVl GUIDES, INC. | Methods and systems of extended reality environment interaction based on eye motions |
US11281291B1 (en) * | 2020-10-20 | 2022-03-22 | Rovi Guides, Inc. | Methods and systems of extended reality environment interaction based on eye motions |
US11747896B2 (en) * | 2020-10-20 | 2023-09-05 | Rovi Guides, Inc. | Methods and systems of extended reality environment interaction based on eye motions |
JP7346375B2 (ja) * | 2020-10-22 | 2023-09-19 | キヤノン株式会社 | 電子機器及びその制御方法及びプログラム及び記録媒体 |
US11768536B2 (en) * | 2021-09-09 | 2023-09-26 | Toyota Motor Engineering & Manufacturing North America, Inc. | Systems and methods for user interaction based vehicle feature control |
US11592899B1 (en) * | 2021-10-28 | 2023-02-28 | Tectus Corporation | Button activation within an eye-controlled user interface |
-
2021
- 2021-06-30 JP JP2021109537A patent/JP2023006771A/ja active Pending
-
2022
- 2022-06-27 US US17/850,831 patent/US11968445B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11968445B2 (en) | 2024-04-23 |
US20230007184A1 (en) | 2023-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10827127B2 (en) | Zoom control device, imaging apparatus, control method of zoom control device, and recording medium | |
US10270978B2 (en) | Zoom control device with scene composition selection, and imaging apparatus, control method of zoom control device, and recording medium therewith | |
US9781351B2 (en) | Zooming control device and method for controlling zooming control device | |
US8670658B2 (en) | Image capture apparatus and method of controlling the same | |
US10904425B2 (en) | Image processing apparatus, control method therefor, and storage medium for evaluating a focusing state of image data | |
US20080181460A1 (en) | Imaging apparatus and imaging method | |
JP2013013050A (ja) | 撮像装置及びこの撮像装置を用いた表示方法 | |
CN110493528A (zh) | 摄像装置及其控制方法 | |
US8988579B2 (en) | Imaging apparatus | |
JPWO2013088917A1 (ja) | 画像処理装置、画像処理方法、及び記録媒体 | |
US9380200B2 (en) | Image pickup apparatus and control method in which object searching based on an image depends on pixel combining on the image | |
US20070237513A1 (en) | Photographing method and photographing apparatus | |
US20210258472A1 (en) | Electronic device | |
JP2008263478A (ja) | 撮像装置 | |
US11523048B2 (en) | Electronic device, control method of electronic device, and non-transitory computer readable medium | |
CN107800956B (zh) | 摄像设备、控制方法和存储介质 | |
JP2023004678A (ja) | 処理装置及びその制御方法 | |
JP2023006771A (ja) | 制御装置およびその制御方法 | |
US11877051B2 (en) | Eye-gaze information acquiring apparatus, imaging apparatus, eye-gaze information acquiring method, and computer-readable storage medium | |
JP2022023643A (ja) | 視線位置処理装置、撮像装置、学習装置、視線位置処理方法、学習方法、及びプログラム | |
US20230076475A1 (en) | Electronic apparatus and control method | |
US8073319B2 (en) | Photographing method and photographing apparatus based on face detection and photography conditions | |
US11665438B2 (en) | Electronic device capable of acquiring line-of-sight information | |
JP2023047605A (ja) | 制御装置、撮像装置、制御方法、およびプログラム | |
JP7175704B2 (ja) | 撮像装置およびその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240612 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240612 |