JP2021099643A - 電子機器およびその制御方法 - Google Patents

電子機器およびその制御方法 Download PDF

Info

Publication number
JP2021099643A
JP2021099643A JP2019230917A JP2019230917A JP2021099643A JP 2021099643 A JP2021099643 A JP 2021099643A JP 2019230917 A JP2019230917 A JP 2019230917A JP 2019230917 A JP2019230917 A JP 2019230917A JP 2021099643 A JP2021099643 A JP 2021099643A
Authority
JP
Japan
Prior art keywords
line
indicator
electronic device
sight input
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019230917A
Other languages
English (en)
Other versions
JP7383471B2 (ja
JP2021099643A5 (ja
Inventor
晃雄 吉川
Akio Yoshikawa
晃雄 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019230917A priority Critical patent/JP7383471B2/ja
Priority to US17/121,018 priority patent/US11520400B2/en
Publication of JP2021099643A publication Critical patent/JP2021099643A/ja
Publication of JP2021099643A5 publication Critical patent/JP2021099643A5/ja
Application granted granted Critical
Publication of JP7383471B2 publication Critical patent/JP7383471B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03543Mice or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】 ユーザーの視線と所定の操作により、インジケーターを視線入力位置へ移動したあとの操作性を改善することができる【解決手段】 ユーザーの視線による視線入力を受け付ける受付手段と、操作手段に対する操作に応じて、インジケーターの移動の制御を行う制御手段であって、前記受付手段で、前記視線入力を受け付けている場合に、前記操作手段に対する操作が第1の条件を満たすと、前記インジケーターを前記視線入力に基づく位置に移動させ、前記インジケーターを前記視線入力に基づく位置に移動させた後、前記操作手段に対する操作が第2の条件を満たさなければ、前記第1の条件を満たしても前記インジケーターを移動せず、前記操作手段に対する操作が前記第2の条件を満たせば、前記視線入力に基づく位置から操作量に応じた移動量で前記インジケーターを移動するように制御することを特徴とする。【選択図】 図4

Description

本発明は、ユーザーの視線による視線入力が可能な電子機器、及び電子機器の制御方法に関するものである。
従来、ユーザーによるマウス操作で、マウスポインタの位置を移動させる電子機器が提案されている。また近年、ユーザーの視線方向を検出し、ユーザーがどの領域(位置)を見ているかをディスプレイに表示できる電子機器が知られている。特許文献1には、ユーザーがポインティングデバイスに対して特定の操作を行った際に、検出したユーザーの視線入力位置にポインターを移動・表示し、所定時間ポインターを固定させることが開示されている。
特許第6504058号
しかし特許文献1では、視線によりマウスポインタをジャンプしたあとに所定時間が経過すると、ポインティングデバイスへの操作に応じてディスプレイに表示されるポインターが移動してしまう。視線入力位置へポインターが移動した後、デバイスへの操作を継続し、ユーザーが所定時間経過したことに気づかなかった場合、ユーザー所望の位置とは別の位置へと移動してしまうことが生じる。
そこで本発明は、ユーザーの視線と所定の操作により、インジケーターを視線入力位置へ移動したあとの操作性を改善することを目的とする。
上記目的を達成するために、本発明は、
ユーザーの視線による視線入力を受け付ける受付手段と、
操作手段に対する操作に応じて、インジケーターの移動の制御を行う制御手段であって、
前記受付手段で、前記視線入力を受け付けている場合に、
前記操作手段に対する操作が第1の条件を満たすと、前記インジケーターを前記視線入力に基づく位置に移動させ、
前記インジケーターを前記視線入力に基づく位置に移動させた後、前記操作手段に対する操作が第2の条件を満たさなければ、前記第1の条件を満たしても前記インジケーターを移動せず、
前記操作手段に対する操作が前記第2の条件を満たせば、前記視線入力に基づく位置から操作量に応じた移動量で前記インジケーターを移動するように制御することを特徴とする。
本発明によれば、ユーザーの視線と所定の操作により、インジケーターを視線入力位置へ移動したあとの操作性を改善することができる。
パーソナルコンピュータの外観図である。 パーソナルコンピュータの構成を示すブロック図である。 ユーザーの視線入力とマウスへの操作に応じた、ディスプレイ上でのポインターの移動についての表示例である。 ユーザーの視線入力位置にポインターが移動したあとのマウスの操作に応じた、ディスプレイ上でのポインターの移動についての表示例である。 ユーザーの視線入力とマウスを使用して、ディスプレイ上に表示されるポインターを制御する制御処理フローチャートである。 機能設定画面の表示例である。
以下、図面を参照して、本発明の各実施例の動作を説明する。
図1に、本発明を適用可能な装置(電子機器)の一例としてのパーソナルコンピュータ(以下、PC)100の外観図を示す。図1はノート型のPCを開いた状態の図である。図2は、本実施形態によるPC100の構成例を示すブロック図である。
内部バス150に対してCPU101、メモリ102、不揮発性メモリ103、画像処理部104、ディスプレイ105、記録媒体I/F106が接続されている。また同様に、内部バス150には、外部I/F108、通信I/F109、システムタイマー111、操作部112、視線検出ブロック113、カメラ部114が接続されている。内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができるようにされている。
CPU101は、PC100の全体を制御する制御部であり、少なくとも1つのプロセッサーまたは回路からなる。メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリなど)からなる。CPU101は、例えば不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、PC100の各部を制御する。不揮発性メモリ103には、画像データや音声データ、その他のデータ、CPU101が動作するための各種プログラムなどが格納される。不揮発性メモリ103は例えばフラッシュメモリやROM、ハードディスク(HD)などで構成される。
画像処理部104は、CPU101の制御に基づいて、不揮発性メモリ103や記録媒体107に格納された画像データや、外部I/F108を介して取得した映像信号、通信I/F109を介して取得した画像データなどに対して各種画像処理を施す。画像処理部104が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理などが含まれる。画像処理部104は特定の画像処理を施すための専用の回路ブロックで構成しても良い。また、画像処理の種別によっては画像処理部104を用いずにCPU101がプログラムに従って画像処理を施すことも可能である。
ディスプレイ105は、CPU101の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面などを表示する。CPU101は、プログラムに従い表示制御信号を生成し、ディスプレイ105に表示するための映像信号を生成してディスプレイ105に出力するようにPC100の各部を制御する。ディスプレイ105は出力された映像信号に基づいて映像を表示する。また、各種情報を表示する、PC100に設けられた表示部である。なお、PC100自体が備える構成としてはディスプレイ105に表示させるための映像信号を出力するためのインターフェースまでとし、ディスプレイ105は外付けのモニタ(テレビなど)で構成してもよい。
記憶媒体I/F106は、メモリーカードやCD、DVDといった記録媒体107が装着可能とされ、CPU101の制御に基づき、装着された記録媒体107からのデータの読み出しや、当該記録媒体107に対するデータの書き込みを行う。
外部I/F108は、外部機器と有線ケーブルや無線によって接続し、映像信号や音声信号の入出力を行うためのインターフェースである。
通信I/F109は、外部機器やインターネット110などと通信して、ファイルやコマンドなどの各種データの送受信を行うためのインターフェースである。
システムタイマー111は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
操作部112は、キーボードなどの文字情報入力デバイスや、タッチパッド112a、タッチパネル112b、マウス112cといったユーザー操作を受け付けるための入力デバイスを含む。これらに限らず、3次元空間上のチルトとロールの回転量で操作量を判定する3次元空間ポインティングデバイスやボタン、ダイヤル、ジョイスティックなども含む。タッチパネル112bはタッチ操作可能な操作部材であり、ディスプレイ105の表示面(操作面)に対するタッチ操作を検出することができる。タッチパネル112cとディスプレイ105とは一体的に構成することができる。マウス112cは表面部に押し込み操作可能なクリック部を有し、マウス112cを右手で握った際の人差し指が置かれる部分を左クリック部、中指が置かれる部分を右クリック部と呼ぶ。クリック部に対してクリック操作を行うことで、例えばディスプレイ105に表示されるファイルを選択したり、クリック操作を継続したままマウス112cを動かすことで範囲を選択したりできる。なお、操作部112は外付けのデバイスで構成してもよい。操作部112が受け付けたユーザー操作によっては、後述する、ディスプレイ105に表示しているポインターを視線入力位置に移動させる、というトリガーとして用いる。
CPU101はタッチパッド112aへの以下の操作、あるいは状態を検出できる。
・タッチパッド112aにタッチしていなかった指が新たにタッチパッド112aにタッチしたこと。すなわち、タッチの開始(以下、タッチダウン(Touch−Down)と称する)。
・タッチパッド112aを指でタッチしている状態であること(以下、タッチオン(Touch−On)と称する)。
・タッチパッド112aを指でタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)。
・タッチパッド112aへタッチしていた指を離したこと。すなわち、タッチの終了(以下、タッチアップ(Touch−Up)と称する)。
・タッチパッド112aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)。
タッチダウンが検出されると、同時にタッチオンであることも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出されるのもタッチオンが検出されている状態である。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指がタッチアップしたことが検出された後は、タッチオフとなる。
これらの操作・状態や、タッチパッド112a上に指がタッチしている位置座標は内部バスを通じてCPU101に通知され、CPU101は通知された情報に基づいてタッチパッド112a上にどのような操作が行なわれたかを判定する。タッチムーブについてはタッチパッド112a上で移動する指の移動方向についても、位置座標の変化に基づいて、タッチパッド112a上の垂直成分・水平成分毎に判定できる。またタッチパッド112a上をタッチダウンから一定のタッチムーブを経てタッチアップをしたとき、ストロークを描いたこととする。素早くストロークを描く操作をフリックと呼ぶ。フリックは、タッチパッド112a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作であり、言い換えればタッチパッド112a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行なわれたと判定できる。また、所定距離以上を、所定速度未満でタッチムーブしたことが検出された場合はドラッグが行なわれたと判定するものとする。更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパッド112aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサー方式等、様々な方式のタッチパッドのうちいずれの方式のものを用いても良い。方式によって、タッチパッドに対する接触があったことでタッチがあったと検出する方式や、タッチパッドに対する指の接近があったことでタッチがあったと検出する方式ものがあるが、いずれの方式でもよい。
赤外発光ダイオード116は、ユーザーの視線入力位置を検出するための発光素子であり、ユーザーの眼球(目)に赤外光を照射する。赤外発光ダイオード116から発した赤外光は眼球(目)で反射し、その赤外反射光は視線検知センサー115の撮像面に結像する。視線検知センサー115は、CCD型イメージセンサ等の撮像デバイスから成る。視線検知センサー115は、入射された赤外反射光を電気信号に光電変換して視線検出回路114へ出力する。視線検出回路114は少なくとも1つのプロセッサーを含み、視線検知センサー115の出力信号に基づき、ユーザーの眼球(目)の画像または動きからユーザーの視線入力位置を検出し、検出情報をCPU101に出力する。このように視線検出回路114、視線検知センサー115、赤外発光ダイオード116により視線検出ブロック113が構成される。視線検出ブロック113は、視線入力を受け付ける受付手段のうちの1つである。
本発明では視線検出ブロック113を用いて、角膜反射法と呼ばれる方式で視線を検出する。角膜反射法とは、赤外発光ダイオード116から発した赤外光が眼球(目)の、特に角膜で反射した反射光と、眼球(目)の瞳孔との位置関係から、視線の向き・位置を検出する方式である。この他にも黒目と白目での光の反射率が異なることを利用する強膜反射法と呼ばれる方式など、様々な視線の向き・位置を検出する方式がある。なお、視線の向き・位置を検出できる方式であれば、上記以外の視線検出手段の方式を用いてもよい。前述した赤外発光ダイオード116を備えなくても、後述するカメラ部120によって、眼球(目)を撮影して、視線入力位置を検出してもよい。
本実施形態では、PC100が視線検出ブロック113を備えた形態を説明したが、視線検出ブロック113は外付けの視線検出機器で構成してもよい。すなわち、外付けの視線検出機器をPC100に接続することで、ユーザーの視線入力位置を検出する形態でも本実施形態は実現可能である。
CPU101は視線検出ブロック113からの出力に基づいて以下の操作、あるいは状態を検知できる。
・ユーザーの視線入力がある状態であること。
・ユーザーが注視している状態であること。
・ユーザーが入力していた視線を外したこと。すなわち、視線入力の終了。
・ユーザーが何も視線入力していない状態。
ここで述べた注視とは、ユーザーの視線入力位置が所定時間内に所定の移動量を超えなかった場合のことを指す。
カメラ部120は、PC100のディスプレイ105と同じ面側に配置されたカメラである。カメラ部120で撮影した画像は、ディスプレイ105に表示することができる。また、前述したように、視線検出ブロック113が有している専用のカメラ117を使用しなくても、PC100に搭載されているカメラ部120を使用して、ユーザーの視線入力位置を検出することもできる。この場合、前述したような角膜反射法ではなく、カメラ部120で撮影した画像から、ユーザーの顔の向きや眼球(目)の向きから視線入力位置を検出する。
操作部112への操作のうちタッチパネル112bへのタッチムーブ操作は、タッチムーブ操作に応じた位置指標の位置の指定方法を、絶対位置指定と相対位置指定のいずれかに設定することができる。例えば位置指標がディスプレイ105に表示されるポインターとすると、絶対位置指定の場合、タッチパネル112bがタッチされると、タッチされた位置(座標入力された位置)に対応付けられたポインターが設定される。つまり、タッチ操作が行われた位置座標と、ディスプレイ105の位置座標とが対応づけられる。一方相対位置指定の場合は、タッチ操作が行われた位置座標とディスプレイ105の位置座標とは対応付けられない。相対位置指定では、タッチパネル112bに対するタッチダウン位置に関わらず、現在表示されているポインター位置からタッチムーブの移動方向にタッチムーブの移動量に応じた距離だけ、タッチ位置を移動させる。これに対して、タッチパネル112b以外の操作方法である、タッチパッド112a、マウス112c、その他ポインティングデバイスへの操作は、相対位置指定のみとなる。
本実施形態では、ユーザーの視線入力がある状態で操作手段への所定の操作が行われると、ディスプレイ105に表示されるポインターが視線入力位置へ移動する。
図3は、ユーザーの視線入力と外付けのマウス112cへの操作に応じた、ディスプレイ105におけるポインターの移動についての表示例を示す図である。
図3(a)、(b)は、ユーザーによる視線入力がある場合のディスプレイ105とマウス112cの動きの一例を示す図である。ユーザーによる視線入力がある、すなわち、視線検出ブロック113においてユーザーの視線が検出できている場合を考える。視線入力がある状態で図3(b)に示すようなマウス112cの操作が行われると、ディスプレイ105に表示されるポインター(矢印)がマウス112cへの操作量に対応した量、位置302a(操作前のポインターの位置)から位置303aへと移動する。マウス112cの操作量に応じて移動するポインターの移動量は、ユーザーが任意に設定できるものとする。例えば、マウス112cの操作量に比例した移動量でポインターを移動させる。マウス112cの操作量に応じて移動する図3(a)、(b)に示す状態で図3(c)、(d)において後述する、マウス112cを左右に振る操作を行うと、ディスプレイ105に表示されるポインターは視線入力位置へ移動する。
図3(c)、(d)は、ユーザーによる視線入力がある場合のディスプレイ105とマウス112cの動きの一例を示す図である。この状態で図3(d)に示すようなマウス112cを左右に振る操作を行うと、図3(c)のディスプレイ105上の位置304c(操作前のポインターの位置)に表示されていたポインターが、ユーザーの目300による視線入力位置である位置305cに移動する。これによりユーザーは少ない操作量で位置304cから位置305cまでポインターを移動させることができる。
図4は、図3で説明したユーザーの視線入力位置にポインターが移動したあとの操作に応じた、ディスプレイ105におけるポインターの移動についての表示例を示す図である。
図4(a)、(b)は、図3(c)、(d)で前述したマウス112cを左右に振る操作を行い、ディスプレイ105に表示されるポインターを視線入力位置に移動したあと、マウス112cを左右に振る操作を継続して行った場合を示す図である。図3(c)、(d)において視線入力位置にポインターを移動させた後、マウス112cへの操作を終了することなく左右に操作し続けた(図4(b))場合、ディスプレイ105に表示されるポインターは目300の位置である位置305cに固定される。すなわち、視線入力位置である位置305cに移動した後、マウス112cを左右に振る操作を行ってもポインターは左右には動かない。また、位置305cにポインターを移動させた後、ポインターが固定されていることをユーザーに知らせるために、アイコン401aを表示する。図4(a)では、鍵が閉まっているアイコンを表示することで、ポインターの移動ができない(固定されている)ことを通知する。しかし、図4(a)に示すようなアイコンでなくても、ユーザーがポインターの固定、もしくは、固定解除を識別可能な形態であれば、これに限らない。例えば、固定されている間のみポインターの色や形を変化させてもよい。固定状態でマウス112cへの操作があった場合は、固定されている位置で、ポインターを小刻みに震えるような表示にしてもよい。
図4(c)、(d)は、図3(c)、(d)においてマウス112cを左右に振る操作で視線入力位置である位置305cにポインターを移動させた後、マウス112cを止める操作を行った場合の、ディスプレイ105に表示されるポインターの表示形態である。図4(b)に示すマウス112cを左右に振る操作から、図4(d)に示すマウス112cを静止する操作に変化させた場合、ユーザーは意図的にマウス112cを静止させたと想定できる。これにより、ユーザーは視線入力位置に移動させたあと、次の操作に移るために、固定したポインターの固定を解除したいと考えている可能性がある。なお、マウス112cを止める操作によって、ユーザーの目300による視線入力位置に移動させたポインターの固定を解除する例を述べたが、図5のフローチャートのS512で後述するように、止める操作に限らない。単位時間当たりの移動量が所定値よりも小さい場合に、前述したような制御としてもよい。
図4(e)、(f)は、図4(c)、(d)においてマウス112cを静止したことにより、ディスプレイ105に表示されるポインターの固定が解除され、操作が行えるようになることを示す図である。図3(c)、(d)においてユーザーの目300による視線入力位置である位置305cにポインターを移動させたあとポインターを固定(図4(a))し、マウス112cの静止(図4(d))があったことに応じて、ポインターの固定を解除する。具体的には、図4(e)に示すように、ポインターが固定されていることを示すアイコン401aから、ポインターの固定が解除されたことを示すアイコン401eに変化させる。アイコン401eは、鍵が開いた状態の絵で描かれている。本実施形態では、ポインターの固定が解除された場合にも、アイコン401aとは異なる、固定が解除されたことを示すアイコン401eを表示するようにしたが、ただ単にアイコン401aを非表示にするようにしてもよい。すなわち、ポインターの固定が解除された際は、固定されている間に変化させたポインターの表示形態を、固定されていない場合(通常時)のポインターの表示形態に戻すようにするだけでもよい。図4(c)、(d)で前述したように、マウス112cへの操作を終了したことによって、ユーザーは次の操作へ移るために、ポインターの固定を解除したいと考えている可能性がある。そのため、マウス112cへの操作が一時的に止まったことに応じて、ポインターへの固定を解除し、ユーザーの次の操作へ移ることができるようにする。図4(f)に示すようなマウス112cの操作があった場合は、ポインターの固定が解除されているため、マウス112cの操作量に応じた量だけ、ポインターを図4(e)に示す位置402eから位置403eへ移動させる。図4(e)に示す位置403eにポインターを移動させたあと、再び位置403eにおいてユーザーが図4(b)に示すようなマウス112cを左右に振る操作を行った場合は、ユーザーの視線入力位置である位置305cへポインターが移動する。
図5は、PCとマウスなどの操作手段、視線検出器を駆動させて、ユーザーの視線入力とマウス操作を使用して、PCのディスプレイに表示されるポインターを制御する制御処理フローチャートである。この制御処理はPC100において、CPU101が不揮発性メモリ103に格納されたプログラムを実行することにより実現される。図5のフローチャートは、PC100を起動し、視線検出器を起動し、視線検出を有効にしている際に開始される。また、視線検出器の機能の一つとして、視線入力位置へワープという機能を有する場合を考える。図6に示すような設定画面において、視線入力位置へワープを示す項目601の機能説明と、視線入力位置へポインターをワープさせるための、各操作部材に対する操作の例を領域602に示している。設定候補である候補603、もしくは候補604のいずれかを選択することで、視線入力位置へワープ機能のON/OFFを切り替えることができる。図6では、候補603が選択されていることにより、視線入力位置へワープ機能がONになっていることがわかる。
S501では、CPU101は、視線入力位置へポインターをワープする機能がONであるか否かを判定する。機能がONである場合は、S502へ進み、そうでない場合は本制御フローチャートを終了する。
S502では、CPU101は、マウス操作があったか否かを判定する。マウス操作があった場合は、S503へ進み、そうでない場合は、S514へ進む。
S503では、CPU101は、ユーザーの視線を検出したか否かを判定する、ユーザーの視線を検出した場合は、S504へ進み、そうでない場合はS506へ進む。
S504では、CPU101は、マウス操作が視線入力位置へのワープを行うための条件となる所定の操作であったか否かを判定する。所定の操作であった場合は、S505へ進み、そうでない場合はS506へ進む。所定の操作とは、例えば以下のような操作である。
・左右に数回振る操作(右または左に所定距離以上ドラッグされたあとに反対方向に所定距離以上ドラッグする往復操作が、所定回数以上(例えば3回)繰り返される操作)
・視線入力位置の方向への操作(操作前のポインター位置から視線入力位置の方向へ所定距離以上ドラッグする操作)
・クリック操作もしくはタッチダウンを継続したままの移動操作(マウス112cへのクリック操作、もしくは、タッチパッド112aでのタッチダウンを所定時間以上継続したまま移動を行う操作)
なお、前述した左右に数回振る操作では、操作方向を所定回数以上切り替える往復操作であればよいため、左右方向だけではなく、左上(左下)や右上(右下)方向でもよいし、上下方向でもよい。
本実施形態ではPC100に対してマウス112cを左右に数回振る操作を用いて、ポインターを視線入力位置へワープさせる場合を説明したが、ユーザーによる意図的な操作であると判定できる操作であればこれに限らない。具体的には、PC100に備えられているタッチパッド112aを使用してもよいし、ポインティングデバイスを用いて、前述した操作を行っても本実施形態を実現可能とする。前述した所定の操作に加えて、タッチパッド112aでは以下の所定の操作でもよい。
・タッチダウンの継続操作(タッチパッド112aにタッチダウンをし、タッチムーブすることなくタッチダウン位置で所定時間以上タッチダウンを継続する操作)
タッチパネル112bや4方向に操作可能な方向キー(十字キー)では、以下の所定の操作でもよい。
・タッチムーブ操作(タッチパネル112bへの位置指定が相対位置指定である場合に、視線入力位置の方向への所定距離以上のタッチムーブ操作)
・方向キーの長押し操作(十字キーの左右上下いずれか1つの方向キーを所定時間以上長押しする操作)
上記の操作はいずれも、操作部材への所定量以上の操作である。所定量以上の操作でなければ視線入力位置へポインターがワープしないようにしたのは、ユーザーが視線入力位置へのワープとは別の操作指示を行いたいのではなく、ワープを行う意図があったことを確実に判別するためである。仮に、所定量未満の操作でもワープしてしまうと、次のような不都合が生じる。例えば、マウス112cへのクリック操作により視線入力位置にポインターがワープすると、ユーザーは単にポインター位置のアイテムを選択したいと考えていたにもかかわらず、視線入力位置にポインターが移動し、混乱を招いたり、操作性を悪く感じてしまう。
S505では、CPU101は、ポインターを視線入力位置に移動させる。S504での所定の操作を検出したことから、ユーザーの目300が見ている視線入力位置にポインターを移動させる(ワープさせる)。このとき、視線入力位置にポインターが移動する方法として、本実施形態では、表示されている位置(移動前の位置)から視線入力位置へポインターが瞬時に移動(ワープ)するような形態を説明したが、これに限らない。ポインターの移動先は、元々表示されていたポインター位置と視線入力位置の相対的な位置を考慮し、視線入力位置の少し手前までポインター位置を瞬時に移動させた後、視線入力位置にアニメーションしながら徐々に移動させてもよい。このような表示形態にすると、ユーザーはポインターが視線入力位置に瞬時に移動したことをわかりやすい。これにより、ユーザーが観ている視線の位置にマウスポインタが来るので、マウスポインタを見失っていたり、移動させたい位置に対して、現在のマウスポインタ位置が遠かったりした際に、ユーザーの使い勝手が向上する。
S506では、CPU101は、マウス112cの操作量に応じた量だけポインターを相対位置移動する。図3(b)、図4(f)に示すようなマウス112cの操作に応じて、図3(a)、図4(e)に示すようにマウス112cの操作量に応じた量だけ、ポインターを相対位置移動する。
S507では、CPU101は、ディスプレイ105に表示されるポインターの移動をロックする。S506において視線入力位置に移動したポインターを固定し、マウス操作が行われてもポインターを移動しないようにする。これにより、視線入力位置に移動したポインターが、マウス操作によってポインターが視線入力位置からさらに移動し、ユーザーがポインターを見失う可能性を低減することができる。また、ポインターの固定をユーザーに認識させるために、図4(a)に示すアイコン401aをポインター近傍に表示する。
S508では、CPU101は、ポインターの固定を解除するための条件判定を行うために、システムタイマー111の持つタイマーをリセットして開始する。また、マウスの操作量を記憶するための変数を初期化し、メモリ102に保存する。
S509では、CPU101は、マウス112cへの操作があったか否かを判定し、操作があった場合はS510へ進み、そうでない場合はS511へ進む。
S510では、CPU101は、S509でのマウス112cの操作量を、メモリ102に保存されているマウス112cの操作量を記憶する変数に加算して記録する。
S511では、CPU101は、S508で開始したタイマーが満了したかどうかを判定する。タイマーが満了していた場合はS512へ遷移し、タイマーが満了していなかった場合はS509へ戻る。ここでのタイマーは具体的に0.25秒程度の時間とする。
S512では、CPU101は、S510で加算して記憶したマウス112cへの操作量が所定値以下であったか否かを判定する(すなわち、所定時間当たり、本実施形態では0.25秒当たりの操作量が所定値以下であったかを判定する)。所定値以下だった場合は、S513へ遷移し、そうでない場合はS508へ戻る。すなわち、操作部材への連続した操作の終了があったか否かを判定する。本実施形態でのマウス112cの場合、マウス112cが一時的に静止したか否かを判定する。マウス112cが一時的に静止した場合は、ユーザーは視線入力位置にポインターが移動したことを視認し、次の操作に移ろうとしている可能性が高い。なお、S508〜S512で説明したマウス112cが一時的に静止したか否かの判定に加えて、あるいは代えて、次の場合にポインターの固定を解除してもよい。
・マウス112cもしくはタッチパッド112aを用いたクリック操作の終了
・タッチパッド112aへのタッチムーブなしのタッチダウンの終了(タッチアップ)
・タッチパネル112bからのタッチアップ
・十字キーの方向キーへの長押し操作の終了
マウス112cや十字キーのように明示的にデバイスへの操作の有無を判定しやすいデバイスであれば、S512で判定する操作量の所定値を限りなく0に近い小さい値にすることができる。すなわち、x方向とy方向の両方の変位量が0(無操作)としてもよい。一方で、3次元空間ポインティングデバイスのような無操作のつもりでも微動してしまうデバイスでは、前述した所定値を0ではなく、ある程度の大きさの値に設定してもよい。すなわち、操作するデバイスの特性に応じて分けてもよいし、ユーザーが任意に設定できるようにしてもよい。いずれにしても、ユーザーが一旦操作を意図的にやめた(区切りをつけた)と想定されるものである。
S513では、CPU101は、S507で行ったディスプレイ105に表示されるポインターの固定を解除する。S507において表示した、ポインターが固定されていることを示すアイコン401aを、ポインターの固定が解除されたことを示す図4(e)のアイコン401eへと変化させる。
S514では、CPU101は、処理が終了したか否かを判定する。終了した場合は本制御フローチャートを終了し、そうでない場合、S501へ戻る。処理の終了とは、PC100の電源やディスプレイ105のオフ、視線検出ブロック113が外付けの場合の視線検出ブロック113の取り外しなどである。視線入力位置へポインターをワープさせたあとにポインターの固定が解除される。その後S514からS501へ戻ったのち、マウス112cへ操作が行われると、図4(e)に示すように、マウス112cへの操作量に応じた量だけディスプレイ105に表示されたポインターを移動させる。このとき、S504で前述したような所定の操作が行われても、視線入力位置にポインターをワープすることなく、操作量に応じた量だけポインターを移動させる。
図3〜図5で説明したディスプレイ105に表示されるポインターは、同じくディスプレイ105に表示されるファイルやフォルダなどの表示アイテムを選択可能なインジケーターである。このインジケーターを移動して、例えばフォルダを選択(クリック動作やダブルクリック動作など)すると、ファイルにカーソルが表示され該当ファイルが選択されていることを表示したり、フォルダ内の一覧を表示(一階層下の画面やページへ遷移)したりする。アイコンをクリックすると、アイコンに対応するプログラムの実行処理を行う。また、表示アイテムを選択するだけに限らず、クリック操作によりクリック位置を基準として所定の処理を行う。例えば、撮像センサーで撮像されているライブビュー画像がディスプレイ105に表示されている場合に、AF(自動焦点検出)実行するためのAF位置(AF枠の表示位置)の指定を行い、AF処理を実行する。クリックしたままマウス112cを移動させる操作でディスプレイ105に表示する画像に処理を行う範囲を決定するための基準となる位置の指定を行い、画像処理(トリミングや拡大/縮小など)を実行する。
図3(a)、(b)では、ユーザーの視線入力がない場合は、マウス112cへの操作に応じた量だけディスプレイ105に表示したポインターを移動させる。図3(c)、(d)では、ユーザーの視線入力がある場合に、ユーザーによるマウス112cへの所定の操作が行われると、ディスプレイ105に表示されているポインターが視線入力位置へと移動する。これにより、ユーザーが見ている位置にポインターが移動するため、少ない操作量で所望の位置へとポインターを移動させることができる。
図4(a)、(b)では、図3(c)、(d)において視線入力位置にポインターを移動させた後、ユーザーによるマウス112cへの所定の操作が継続された場合に、視線入力位置に移動したポインターを固定する。これにより、ユーザーは視線入力位置に移動させたポインターを視認することなく、マウス112cへの操作によってポインターがさらに別の位置へ移動してしまうことがない。すなわち、ユーザーが視線入力位置に移動したポインターによる誤操作を低減することができる。
図4(c)、(d)では、マウス112cを静止させるといったような、ユーザーが意図的に行った操作を検出できるまでは、視線入力位置に移動させたポインターの固定を解除しない。マウス112cを静止させるような操作は、ユーザーが意図的に行っている可能性が高い。すなわち、視線入力位置に移動したポインターの固定は、ユーザーが意図的に行ったと想定できる操作が検出されるまでは固定を解除しない。このような制御にすることで、ユーザーが視線入力位置に移動したポインターを見つけない間は固定を継続することができ、ユーザーの意図しないポインターの移動を低減できる。例えば所定時間経過によってポインターの固定が解除されてしまうと、ユーザーが視線入力位置に移動したポインターを見つける前に固定が解除されてしまう可能性があり、操作性が悪い。ユーザーがポインターを視認した時点で、ユーザーによる操作を(例えばマウス112cの静止を)行うことで、素早く所望のタイミングでポインターの固定を解除することができる。
図4(e)、(f)では、図4(c)、(d)においてユーザーがマウス112cを静止させたことから、視線入力位置に移動したポインターの固定を解除し、マウス112cへの操作量に応じた量だけディスプレイ105に表示されるポインターを移動させる。
これらの制御により、ユーザーは現在表示されているポインターと所望の位置とが遠く離れていても、ポインターへの所定の操作を行うことで視線入力位置に瞬時にポインターを移動させることができる。さらには、ユーザーが視線入力位置に移動させたポインターを見つける(視認する)まではポインターを固定することで、ユーザーの意図に反したポインターの移動が行われない。これにより、視線入力位置にポインターを移動させることができ、移動させたあとのポインターを見失うことなく誤操作も低減することができる。また、ユーザーの意図的な操作と考えられる操作によって、ポインターの固定を解除できることから、所定時間待つことなく、ユーザーの所望のタイミングで固定を解除し、次の操作へ素早く移ることができる。
なお、CPU101が行うものとして説明した上述の各種制御は1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
なお、上述した各実施形態においては、本発明をパーソナルコンピュータに適用した場合を例にして説明したが、これはこの例に限定されず、視線入力を検出できる機能を有する電子機器であれば適用可能である。すなわち、本発明は、視線入力を検出できる機能を有したデジタルカメラなどの撮像装置に適用してもよい。デジタルカメラの有する背面液晶装置などに表示したカーソルなどのインジケーターを、十字キーへの操作によって視線入力位置へワープし、十字キーへの操作の継続/終了に応じてインジケーターの固定/固定解除を制御できる。さらに、視線入力を検出できる機能を有するものであれば、以下の装置でも本発明は適用可能である。例えば、PDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置。デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダーなどに本発明を適用可能である。
(他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。

Claims (17)

  1. ユーザーの視線による視線入力を受け付ける受付手段と、
    操作手段に対する操作に応じて、インジケーターの移動の制御を行う制御手段であって、
    前記受付手段で、前記視線入力を受け付けている場合に、
    前記操作手段に対する操作が第1の条件を満たすと、前記インジケーターを前記視線入力に基づく位置に移動させ、
    前記インジケーターを前記視線入力に基づく位置に移動させた後、前記操作手段に対する操作が第2の条件を満たさなければ、前記第1の条件を満たしても前記インジケーターを移動せず、
    前記操作手段に対する操作が前記第2の条件を満たせば、前記視線入力に基づく位置から操作量に応じた移動量で前記インジケーターを移動するように制御することを特徴とする電子機器。
  2. 前記第2の条件は、
    前記操作手段に対する連続した操作の終了であることを特徴とする請求項1に記載の電子機器。
  3. 前記第2の条件は、
    前記操作手段に対する単位時間当たりの操作量が所定値以下となることであることを特徴とする請求項1または2に記載の電子機器。
  4. 前記第2の条件は、
    操作の一時的な静止、操作の終了、のうち少なくとも1つであることを特徴とする請求項1乃至3のいずれか1項に記載の電子機器。
  5. 前記制御手段は、
    前記インジケーターを前記視線入力に基づく位置に移動する前に、前記操作手段に対する操作が前記第1の条件を満たさなければ、前記視線入力に基づく位置にかかわらず、移動前の前記インジケーターの位置から前記操作手段に対する操作量に応じた移動量で前記インジケーターを移動するように制御することを特徴とする請求項1に記載の電子機器。
  6. 前記第1の条件は、
    前記操作手段に対する所定量以上の操作であることを特徴とする請求項1または5に記載の電子機器。
  7. 前記第1の条件は、
    操作方向を所定回数以上切り替える往復操作、操作を所定時間以上継続したままの移動操作、長押し操作、のうち少なくとも1つであることを特徴とする請求項1、5、6のいずれか1項に記載の電子機器。
  8. 前記制御手段は、
    前記操作手段に対する操作が前記第1の条件を満たすと、前記操作手段への操作量にかかわらず、前記インジケーターを前記視線入力に基づく位置に移動させることを特徴とする請求項1、5乃至7のいずれか1項に記載の電子機器。
  9. 前記インジケーターは、
    表示手段に表示される表示アイテムを選択するためのインジケーターであることを特徴とする請求項1乃至8のいずれか1項に記載の電子機器。
  10. 前記インジケーターは、
    所定の処理を施す基準となる位置を指定するためのインジケーターであることを特徴とする請求項1乃至8のいずれか1項に記載の電子機器。
  11. 前記所定の処理は、
    AF処理、画像処理、プログラムの実行処理の少なくとも1つであることを特徴とする請求項10に記載の電子機器。
  12. 前記制御手段は、
    前記インジケーターを前記視線入力に基づく位置に移動させた後、前記操作手段に対する操作が
    前記第2の条件を満たす前と、前記第2の条件を満たした後とで、
    前記インジケーターの表示形態を異ならせるように制御することを特徴とする請求項1乃至11のいずれか1項に記載の電子機器。
  13. 前記操作手段は、マウス、タッチ操作可能なタッチ操作手段、空間上で操作可能なポインティングデバイス、4方向に操作可能な方向キー、のうち少なくとも1つであることを特徴とする請求項1乃至12のいずれか1項に記載の電子機器。
  14. 前記制御手段は、
    前記受付手段で受け付けた前記視線入力に基づく位置を、表示手段に表示するように制御することを特徴とする請求項1乃至13のいずれか1項に記載の電子機器。
  15. ユーザーの視線による視線入力を受け付ける受付ステップと、
    操作手段に対する操作に応じて、インジケーターの移動の制御を行う制御ステップであって、
    前記受付ステップで、前記視線入力を受け付けている場合に、
    前記操作手段に対する操作が第1の条件を満たすと、前記インジケーターを前記視線入力に基づく位置に移動させ、
    前記インジケーターを前記視線入力に基づく位置に移動させた後、前記操作手段に対する操作が第2の条件を満たさなければ、前記第1の条件を満たしても前記インジケーターを移動せず、
    前記操作手段に対する操作が前記第2の条件を満たせば、前記視線入力に基づく位置から操作量に応じた移動量で前記インジケーターを移動するように制御することを特徴とする電子機器の制御方法。
  16. コンピュータを、請求項1乃至14のいずれか1項に記載された電子機器の各手段として機能させるためのプログラム。
  17. コンピュータを、請求項1乃至14のいずれか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
JP2019230917A 2019-12-20 2019-12-20 電子機器およびその制御方法 Active JP7383471B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019230917A JP7383471B2 (ja) 2019-12-20 2019-12-20 電子機器およびその制御方法
US17/121,018 US11520400B2 (en) 2019-12-20 2020-12-14 Electronic apparatus and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019230917A JP7383471B2 (ja) 2019-12-20 2019-12-20 電子機器およびその制御方法

Publications (3)

Publication Number Publication Date
JP2021099643A true JP2021099643A (ja) 2021-07-01
JP2021099643A5 JP2021099643A5 (ja) 2022-12-14
JP7383471B2 JP7383471B2 (ja) 2023-11-20

Family

ID=76439745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019230917A Active JP7383471B2 (ja) 2019-12-20 2019-12-20 電子機器およびその制御方法

Country Status (2)

Country Link
US (1) US11520400B2 (ja)
JP (1) JP7383471B2 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08136798A (ja) * 1994-11-08 1996-05-31 Canon Inc 自動焦点カメラ
JP2013210742A (ja) * 2012-03-30 2013-10-10 Fujitsu Ltd 情報処理装置、情報処理方法、および情報処理プログラム
JP2013254406A (ja) * 2012-06-08 2013-12-19 Ntt Docomo Inc 表示装置、表示方法及びプログラム。
JP2015118531A (ja) * 2013-12-18 2015-06-25 株式会社デンソー 表示制御装置およびプログラム
WO2015104884A1 (ja) * 2014-01-08 2015-07-16 ソニー株式会社 情報処理システム、情報処理方法およびプログラム
US20170108923A1 (en) * 2015-10-14 2017-04-20 Ecole Nationale De L'aviation Civile Historical representation in gaze tracking interface

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
EP3316075B1 (en) * 2016-10-26 2021-04-07 Harman Becker Automotive Systems GmbH Combined eye and gesture tracking

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08136798A (ja) * 1994-11-08 1996-05-31 Canon Inc 自動焦点カメラ
JP2013210742A (ja) * 2012-03-30 2013-10-10 Fujitsu Ltd 情報処理装置、情報処理方法、および情報処理プログラム
JP2013254406A (ja) * 2012-06-08 2013-12-19 Ntt Docomo Inc 表示装置、表示方法及びプログラム。
JP2015118531A (ja) * 2013-12-18 2015-06-25 株式会社デンソー 表示制御装置およびプログラム
US20160313891A1 (en) * 2013-12-18 2016-10-27 Denso Corporation Display control device, display control program and display-control-program product
WO2015104884A1 (ja) * 2014-01-08 2015-07-16 ソニー株式会社 情報処理システム、情報処理方法およびプログラム
US20170108923A1 (en) * 2015-10-14 2017-04-20 Ecole Nationale De L'aviation Civile Historical representation in gaze tracking interface

Also Published As

Publication number Publication date
JP7383471B2 (ja) 2023-11-20
US20210191510A1 (en) 2021-06-24
US11520400B2 (en) 2022-12-06

Similar Documents

Publication Publication Date Title
US10070044B2 (en) Electronic apparatus, image sensing apparatus, control method and storage medium for multiple types of user interfaces
US9360962B2 (en) Electronic apparatus and a method for controlling the same
US20130145308A1 (en) Information Processing Apparatus and Screen Selection Method
KR20150130431A (ko) 제스처들을 이용한 터치 입력들의 향상
JP2007264808A (ja) 表示入力装置及び撮像装置
US9298305B2 (en) Display control apparatus and method
US9841886B2 (en) Display control apparatus and control method thereof
KR20170074782A (ko) 전자기기, 전자기기의 제어 방법, 및 기억매체
JP7433810B2 (ja) 電子機器、電子機器の制御方法、プログラム及び記憶媒体
US20240053832A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP6128919B2 (ja) 表示制御装置及びその制御方法
JP5911321B2 (ja) 表示制御装置および表示制御装置の制御方法
US20120151409A1 (en) Electronic Apparatus and Display Control Method
JP7383471B2 (ja) 電子機器およびその制御方法
US10474409B2 (en) Response control method and electronic device
US11009991B2 (en) Display control apparatus and control method for the display control apparatus
US10642472B2 (en) Display control apparatus equipped with touch panel, control method therefor, and storage medium storing control program therefor
JP6362110B2 (ja) 表示制御装置、その制御方法、プログラム、及び記録媒体
US11556173B2 (en) Electronic apparatus, method for controlling the same, and storage medium
JP7091159B2 (ja) 電子機器およびその制御方法
JP2019061539A (ja) 入力補助装置および携帯端末
US20230254555A1 (en) Electronic apparatus, control method therefor, and computer-readable storage medium storing program
US11010045B2 (en) Control apparatus, control method, and non-transitory computer readable medium
KR101165388B1 (ko) 이종의 입력 장치를 이용하여 화면을 제어하는 방법 및 그 단말장치
JP2018106480A (ja) 電子機器、その制御方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231108

R151 Written notification of patent or utility model registration

Ref document number: 7383471

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151