JP2014086063A - 電子機器、視線入力プログラムおよび視線入力方法 - Google Patents

電子機器、視線入力プログラムおよび視線入力方法 Download PDF

Info

Publication number
JP2014086063A
JP2014086063A JP2012237400A JP2012237400A JP2014086063A JP 2014086063 A JP2014086063 A JP 2014086063A JP 2012237400 A JP2012237400 A JP 2012237400A JP 2012237400 A JP2012237400 A JP 2012237400A JP 2014086063 A JP2014086063 A JP 2014086063A
Authority
JP
Japan
Prior art keywords
line
processor
sight input
sight
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012237400A
Other languages
English (en)
Other versions
JP6043586B2 (ja
Inventor
Yasuhiro Miki
康弘 三木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2012237400A priority Critical patent/JP6043586B2/ja
Priority to US14/439,516 priority patent/US20150301595A1/en
Priority to PCT/JP2013/079194 priority patent/WO2014069428A1/ja
Publication of JP2014086063A publication Critical patent/JP2014086063A/ja
Application granted granted Critical
Publication of JP6043586B2 publication Critical patent/JP6043586B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

【構成】携帯電話機10は、アイコンなどのオブジェクトを表示するディスプレイ14を備え、ユーザの視線入力を検出することが出来る。また、オブジェクトに対して視線入力がされると、そのオブジェクトに関連する動作が実行される。たとえば、新着メールを受信するとディスプレイ14にはメールアイコン(96a)が表示される。このとき、携帯電話機10では、メール機能を実行するユーザ操作が予測され、メールアイコンに対する視線入力の応答性が向上される。
【効果】次のユーザ操作に応じて、メールアイコンに対する視線入力の応答性が向上するため、視線入力の操作性が向上する。また、視線入力の操作性が向上すれば視線入力の操作時間が短縮されるため、携帯電話機10は低消費電力で視線入力を検出することが出来る。
【選択図】図1

Description

この発明は、電子機器、視線入力プログラムおよび視線入力方法に関し、特にたとえば、視線入力を検出する、電子機器、視線入力プログラムおよび視線入力方法に関する。
背景技術の一例が特許文献1に開示されている。この特許文献1のデータ入力装置は、メニュー又はキーボード等の入力データ群を表示装置で表示し、該装置使用者の眼の部分をカメラで撮影し、該撮影画像から該使用者の視線方向を決定し、該視線方向に位置する入力データを決定し、決定された入力データを外部機器等に出力する。
背景技術の他の例が特許文献2に開示されている。この特許文献2の視線検出装置は、撮影した画像から被験者の瞳孔の中心および角膜反射点を検出することで、被験者の視線を検出する。
背景技術のその他の例が特許文献3に開示されている。この特許文献3の視線検出機能付きカメラでは、ファインダ視野内の観察画面に複数の焦点検出領域が設けられている。また、このカメラは、撮影者の視線を検出することができ、複数の焦点検出領域それぞれに対して、視線領域が設定されている。そのため、撮影者は、任意の視線領域に視線を向けることで、主被写体に焦点を合わせることが出来る。
特開2003−196017号公報[G06F 3/033, G06F 3/00, G06T 1/00, G06T 7/60] 特開2005−185431号公報[A61B 3/113, G06F 3/033] 特開2002−244024号公報[G02B 7/28, G03B 13/36]
しかし、視線入力デバイスは、センサと眼球との距離に比例して機器が大きくなる傾向がある。したがって、たとえば携帯端末のような比較的小型の電子機器に搭載することを考慮すると、特許文献1,2に記載の背景技術では、装置が比較的大きく、適切でない。
また、特許文献3に記載の背景技術では、ファインダのような窓に接眼している撮影者の眼の瞳を撮影した画像に基づいて、表示部に表示されたカーソルを移動させるものであり、窓を通して表示部を見るような限られた使用状況でしか視線を検出することができない。さらに、特許文献3に記載の背景技術では、撮影における合焦以外の操作も視線によって操作出来るよう、操作キーが観察画面に表示することが考えられる。ところが、操作キーを表示した場合、視線領域の大きさが予め決められているため、操作キー毎の大きさや配置を任意に調整しにくい。そのため、ユーザの操作性を考慮して操作キーを表示することが出来ない。
それゆえに、この発明の主たる目的は、新規な、電子機器、視線入力プログラムおよび視線入力方法を提供することである。
この発明の他の目的は、視線入力の操作性を向上させることが出来る、電子機器、視線入力プログラムおよび視線入力方法を提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、複数のオブジェクトを表示する表示部を有し、複数のオブジェクトに対する視線入力を検出し、視線入力が検出されたオブジェクトに関連した動作を実行する、電子機器において、イベントが発生したときに、次のユーザ操作を予測する予測部、および予測部によって予測された次のユーザ操作を行うためのオブジェクトに対する視線入力の応答性を向上させる向上部を備えることを特徴とする、電子機器である。
第1の発明では、電子機器(10:実施例において対応する部分を例示する参照符号。以下、同じ。)の表示部(14)には、電子機器の情報や、アプリケーションなどを実行するための複数のオブジェクトが表示される。また、電子機器はユーザの視線入力を検出することが可能であり、任意のオブジェクトに対して視線入力がされると、任意のオブジェクトに関する動作が実行される。予測部(40,S17)は、画面が切り替わったり、サーバなどから通知があったり、アプリケーションが起動したりするイベントが発生すると、発生したイベントに応じた次のユーザ操作を予測する。向上部(40,S19)は、ユーザ操作が予測されると、そのユーザ操作を行うためのオブジェクトに対する視線入力の応答性を向上させる。
第1の発明によれば、次のユーザ操作に応じて、オブジェクトに対する視線入力の応答性が向上するため、視線入力の操作性が向上する。また、視線入力の操作性が向上すれば視線入力の操作時間が短くなるため、電子機器は低消費電力で視線入力を検出することが出来る。
第2の発明は、第1の発明に従属し、複数のオブジェクトのそれぞれには、視線入力を検出するための判定エリアが対応付けられ、向上部は、予測部によって次のユーザ操作が予測されたとき、そのユーザ操作を行うためのオブジェクトに対応付けられた判定エリアを拡大する拡大部を含む。
第2の発明では、各オブジェクトには、視線入力を検出するための判定エリアが対応付けられており、視線入力の位置がその判定エリアに含まれているとき、そのオブジェクトに関連する動作が実行される。拡大部(40,S99,S101,S153,S213,S215)は、ユーザ操作が予測されると、ユーザ操作を行うためのオブジェクトに対応付けられた判定エリアを拡大する。
第2の発明によれば、判定エリアが拡大されると、ユーザの視線入力を受け付ける範囲が広くなるため、オブジェクトに対する視線入力が受け付けられやすくなる。
第3の発明は、第1の発明または第2の発明に従属し、複数のオブジェクトのそれぞれには、視線入力を検出するための判定回数がさらに対応付けられ、視線入力における注視点を検出する第1検出部、第1検出部によって検出された注視点が前回の位置と同じ位置のとき、カウントするカウント部、およびカウント部によってカウントされた回数が判定回数と一致したとき、オブジェクトに対する視線入力を検出する第2検出部をさらに備え、向上部は、予測部によって次のユーザ操作が予測されたとき、そのユーザ操作を行うためのオブジェクトに対応付けられた判定回数を標準値より小さくする判定回数変更部をさらに含む。
第3の発明では、各オブジェクトには、視線入力を検出するための判定回数が対応付けられている。第1検出部(40,S43)は、ユーザが表示部を注視している注視点を検出する。カウント部(40,S49)は、第1検出部によって検出された注視点が前回と同じ位置のときに、カウントする。第2検出部(40,S59)は、ユーザの注視点が同じ位置で検出された回数が判定回数と一致したとき、オブジェクトに対する視線入力を検出する。判定回数変更部(40,S105,S107,S155,S217,S219)は、ユーザ操作が予測されると、そのユーザ操作を行うためのオブジェクトに対応付けられた判定回数を標準値より小さくする。
第3の発明によれば、オブジェクトの判定回数を小さくすることで、視線入力と判定されるまでの時間を短くすることが出来る。
第4の発明は、第1の発明ないし第3の発明のいずれかに従属し、向上部は、予測部によって次のユーザ操作が予測されたとき、そのユーザ操作を行うためのオブジェクトの表示態様を変更する。
第4の発明では、ユーザ操作を行うためのオブジェクトは、次のユーザ操作が予測されると、たとえばオブジェクトの大きさや、色などの表示態様が変更される。
第4の発明によれば、ユーザの視線を誘導することで視線入力の操作性を向上させることが出来る。
第5の発明は、第1の発明に従属し、表示部は、アプリケーションによる通知があったとき通知オブジェクトを表示し、予測部は、通知オブジェクトが表示されたとき、通知オブジェクトに関連したアプリケーションを実行するユーザ操作を予測する第1予測部を含み、向上部は、通知オブジェクトに対する視線入力の応答性を向上させる第1向上部を含む。
第5の発明では、通知オブジェクト(96)は、たとえばメールアプリケーションによって新着メールが受信されると、表示部に表示される。第1予測部(40,S75)は、たとえば新着メールを受信して通知オブジェクトが表示されると、メールアプリケーションを実行するユーザ操作を予測する。そして、第1向上部(40,S99,S105)は、通知オブジェクトに対する視線入力の応答性を向上させる。
第5の発明によれば、通知アイコンを表示するイベントが発生すると、通知された内容を確認しやすくすることが出来る。
第6の発明は、第1の発明に従属し、表示部は、表示内容をスクロール可能なアプリケーションが実行されたとき、表示位置に対応するスクロールバーを表示し、予測部は、スクロールバーが最終位置に達したとき、実行中のアプリケーションを終了させるユーザ操作を予測する第2予測部を含み、向上部は、実行中のアプリケーションを終了させるオブジェクトに対する視線入力の応答性を向上させる第2向上部を含む。
第6の発明では、スクロールバー(94c)は、たとえば電子書籍アプリケーションなどのように表示内容をスクロール可能なアプリケーションが実行されると、表示部に表示される。第2予測部(40,S77)は、表示されている内容が最後まで表示されスクロールバーが最終位置に達すると、実行中のアプリケーションを終了させるユーザ操作を予測する。第2向上部(40,S101,S107)は、たとえば実行されている電子書籍アプリケーションを終了させるためのオブジェクトに対する視線入力の応答性を向上させる。
第6の発明によれば、表示内容が最後までスクロールされると、実行中のアプリケーションを終了させやすくすることが出来る。
第7の発明は、第1の発明に従属し、複数のアプリケーションの利用履歴を記録する記録部をさらに備え、予測部は、複数のアプリケーションをそれぞれ実行可能な実行オブジェクトを含む特定画面が表示されたとき、利用頻度が高いアプリケーションを実行するユーザ操作を予測する第3予測部を含み、向上部は、利用履歴に基づいて、利用頻度が高いアプリケーションを実行するための実行オブジェクトに対する視線入力の応答性を向上させる第3向上部を含む。
第7の発明では、記録部(40,S177)は、電子機器で実行されたアプリケーションの利用履歴を記録する。第3予測部(40,S197)は、たとえば複数のアプリケーションを実行可能な実行オブジェクトが表示されるロック画面がされると、利用頻度が高いアプリケーションを実行するユーザ操作を予測する。第3向上部(40,S215,S219)は、たとえば最も利用頻度が高いアプリケーションに関連する実行オブジェクトの視線入力の応答性を向上させる。
第7の発明によれば、アプリケーションが実行可能な画面が表示されると、利用履歴に基づいて、アプリケーションを実行しやすい状態にすることが出来る。
第8の発明は、複数のオブジェクトを表示する表示部(14)を有し、複数のオブジェクトに対する視線入力を検出し、視線入力が検出されたオブジェクトに関連した動作を実行する、電子機器(10)のプロセッサ(40)を、イベントが発生したときに、次のユーザ操作を予測する予測部(S17)、および予測部によって予測された次のユーザ操作を行うためのオブジェクトに対する視線入力の応答性を向上させる向上部(S19)として機能させる、視線入力プログラムである。
第8の発明でも、第1の発明と同様、次のユーザ操作に応じて、オブジェクトに対する視線入力の応答性が向上するため、視線入力の操作性が向上する。また、視線入力の操作性が向上すれば視線入力の操作時間が短くなるため、電子機器は低消費電力で視線入力を検出することが出来る。
第9の発明は、複数のオブジェクトを表示する表示部(14)を有し、複数のオブジェクトに対する視線入力を検出し、視線入力が検出されたオブジェクトに関連した動作を実行する、電子機器(10)の視線入力方法であって、イベントが発生したときに、次のユーザ操作を予測し(S17)、そして予測された次のユーザ操作を行うためのオブジェクトに対する視線入力の応答性を向上させる(S19)、視線入力方法である。
第9の発明でも、第1の発明と同様、次のユーザ操作に応じて、オブジェクトに対する視線入力の応答性が向上するため、視線入力の操作性が向上する。また、視線入力の操作性が向上すれば視線入力の操作時間が短くなるため、電子機器は低消費電力で視線入力を検出することが出来る。
この発明によれば、視線入力の操作性が向上する。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例の携帯電話機を示す外観図である。 図2は図1に示す携帯電話機の電気的な構成を示すブロック図である。 図3は図1に示すディスプレイの表示面で検出される注視点の一例を示す図解図である。 図4は図1に示す赤外線カメラによって撮影される瞳孔とプルキニエ像との一例を示す図解図である。 図5は図2に示すプロセッサによって算出される視線ベクトルの一例を示す図解図であり、図5(A)は第1中心位置および第2中心位置の一例を示し、図5(B)は視線ベクトルの一例を示す。 図6は図1に示すディスプレイに表示されるオブジェクトの一例を示す図解図である。 図7は図2に示すRAMに記憶されるオブジェクトテーブルの構成の一例を示す図解図である。 図8は図2に示すRAMのメモリマップの一例を示す図解図である。 図9は図2に示すプロセッサの視線入力処理の一部の一例を示すフロー図である。 図10は図2に示すプロセッサの視線入力処理の他の一部の一例であって、図9に後続するフロー図である。 図11は図2に示すプロセッサの視線検出処理の一例を示すフロー図である。 図12は図1に示すディスプレイに表示される具体例1のオブジェクトの一例を示す図解図である。 図13は図1に示すディスプレイに表示される具体例1のオブジェクトの他の一例を示す図解図であり、図13(A)は通知アイコンがさらに表示されている状態の一例を示し、図13(B)は通知アイコンが表示されているときの判定エリアの状態の一例を示す図解図である。 図14は図2に示すプロセッサの具体例1のユーザ操作予測処理の一例を示すフロー図である。 図15は図2に示すプロセッサの具体例1の応答性向上処理の一例を示すフロー図である。 図16は図1に示すディスプレイに表示される具体例2のオブジェクトの一例を示す図解図であり、図16(A)はスクロールバーが最終位置に達している状態の一例を示し、図16(B)はスクロールバーが最終位置に達しているときの判定エリアの状態の一例を示す図解図である。 図17は図2に示すプロセッサの具体例2のユーザ操作予測処理の一例を示すフロー図である。 図18は図2に示すプロセッサの具体例2の応答性向上処理の一例を示すフロー図である。 図19は図1に示すディスプレイに表示される具体例3のオブジェクトの一例を示す図解図であり、図19(A)はロック画面が表示されている状態の一例を示し、図19(B)はロック画面が表示されているときの判定エリアの状態の一例を示す図解図である。 図20は図1に示すRAMに記憶される利用履歴テーブルの構成の一例を示す図解図である。 図21は図2に示すRAMのメモリマップの他の一部の一例を示す図解図である。 図22は図2に示すプロセッサの利用履歴記録処理の一例を示すフロー図である。 図23は図2に示すプロセッサの具体例3のユーザ操作予測処理の一例を示すフロー図である。 図24は図2に示すプロセッサの具体例3の応答性向上処理の一例を示すフロー図である。 図25は図2に示すプロセッサの視線入力処理のその他の一例を示すフロー図である。
図1を参照して、この発明の一実施例の携帯電話機10は、いわゆるスマートフォンであり、縦長の扁平矩形のハウジング12を含む。ハウジング12の主面(表面)には、表示部として機能する、たとえば液晶や有機ELなどで構成されるディスプレイ14が設けられる。このディスプレイ14の上には、タッチパネル16が設けられる。また、ハウジング12の縦方向一端の表面側にスピーカ18が内蔵され、縦方向他端の表面側にマイク20が内蔵される。さらに、タッチパネル16とともに、ハードウェアキーとして、通話キー22、終話キー24およびメニューキー26が設けられる。さらにまた、マイク20の左側に赤外線LED30および赤外線カメラ32が設けられ、スピーカ18の右側に近接センサ34が設けられる。ただし、赤外線LED30の発光面と、赤外線カメラ32の撮影面と、近接センサ34の検出面とはハウジング12から露出するように設けられ、その他の部分はハウジング12に内蔵される。
たとえば、ユーザは、ディスプレイ14に表示されたダイヤルキーに対して、タッチパネル16によってタッチ操作を行うことで電話番号を入力でき、通話キー22を操作して音声通話を開始することが出来る。終話キー24を操作すれば、音声通話を終了することが出来る。また、この終話キー24を長押しすることによって、携帯電話機10の電源をオン/オフすることが出来る。
また、メニューキー26が操作されると、ディスプレイ14にメニュー画面が表示される。ユーザは、その状態でディスプレイ14に表示されているソフトウェアキーやメニューアイコンなどに対して、タッチパネル16によるタッチ操作を行うことによって、ソフトウェアキーやアイコンに対して選択操作を行うことが出来る。
なお、この実施例では、電子機器の一例としてスマートフォン(smart phone)のような携帯電話機について説明するが、表示装置を備える様々な電子機器に、この発明を適用可能であることを予め指摘しておく。たとえば、他の電子機器の例としては、フィーチャーフォン(feature phone)、電子書籍端末、タブレット端末、PDA、ノート型PCやディスプレイ装置などの任意の電子機器などが該当する。
図2を参照して、図1に示す携帯電話機10は、プロセッサ40を含み、このプロセッサ40には、赤外線カメラ32、近接センサ34、無線通信回路42、A/D変換器46、D/A変換器48、入力装置50、表示ドライバ52、フラッシュメモリ54、RAM56、タッチパネル制御回路58、LEDドライバ60および撮影画像処理回路62などが接続される。
プロセッサ40は、コンピュータまたはCPUと呼ばれ、携帯電話機10の全体制御を司る。プロセッサ40には、RTC40aが内蔵されており、このRTC40aによって日時が計時される。RAM56には、フラッシュメモリ54に予め記憶されているプログラムの全部または一部が使用に際して展開(ロード)され、プロセッサ40はこのRAM56に展開されたプログラムに従って各種の処理を実行する。このとき、RAM56は、プロセッサ40のワーキング領域ないしバッファ領域として用いられる。
入力装置50は、図1に示すハードウェアキー(22、24、26)を含み、タッチパネル16およびタッチパネル制御回路58とともに操作部ないし入力部として機能する。ユーザが操作したハードウェアキーの情報(キーデータ)はプロセッサ40に入力される。以下、ハードウェアキーによる操作を「キー操作」ということにする。
無線通信回路42は、アンテナ44を通して、音声通話やメールなどのための電波を送受信するための回路である。実施例では、無線通信回路42は、CDMA方式での無線通信を行うための回路である。たとえば、ユーザが入力装置50を操作して電話発信(発呼)を指示すると、無線通信回路42は、プロセッサ40の指示の下、電話発信処理を実行し、アンテナ44を介して電話発信信号を出力する。電話発信信号は、基地局および通信網を経て相手の電話機に送信される。そして、相手の電話機において着信処理が行われると、通信可能状態が確立され、プロセッサ40は通話処理を実行する。
A/D変換器46には図1に示すマイク20が接続され、マイク20からの音声信号はこのA/D変換器46を通してディジタルの音声データとしてプロセッサ40に入力される。D/A変換器48にはスピーカ18が接続される。D/A変換器48は、ディジタルの音声データを音声信号に変換して、アンプを介してスピーカ18に与える。したがって、音声データの音声がスピーカ18から出力される。そして、通話処理が実行されている状態では、マイク20によって集音された音声が相手の電話機に送信され、相手の電話機で集音された音声が、スピーカ18から出力される。
なお、プロセッサ40は、たとえばユーザによるボリュームを調整するための操作に応答して、D/A変換器48に接続されるアンプの増幅率を制御することによって、スピーカ18から出力される音声の音量を調整することが出来る。
また、表示ドライバ52は、プロセッサ40の指示の下、当該表示ドライバ52に接続されたディスプレイ14の表示を制御する。また、表示ドライバ52は表示する画像データを一時的に記憶するビデオメモリを含む。ディスプレイ14には、たとえばLEDなどを光源とするバックライトが設けられており、表示ドライバ52はプロセッサ40の指示に従って、そのバックライトの明るさや、点灯/消灯を制御する。
タッチパネル制御回路58には、図1に示すタッチパネル16が接続される。タッチパネル制御回路58は、タッチパネル16に必要な電圧などを付与するとともに、ユーザによるタッチの開始を示すタッチ開始信号、ユーザによるタッチの終了を示す終了信号、およびタッチ位置を示す座標データをプロセッサ40に入力する。したがって、プロセッサ40はこの座標データに基づいて、ユーザが、どのアイコンやキーにタッチしたかを判断することが出来る。
タッチパネル16は、その表面と表面に接近した指などの物体との間に生じる静電容量の変化を検出する静電容量方式のタッチパネルである。タッチパネル16は、たとえば1本または複数本の指がタッチパネル16に触れたことを検出する。
タッチパネル制御回路58は検出部として機能し、タッチパネル16のタッチ有効範囲内でのタッチ操作を検出して、そのタッチ操作の位置を示す座標データ(タッチ座標データ)をプロセッサ40に出力する。プロセッサ40は、タッチパネル制御回路58より入力されたタッチ座標データに基づいて、ユーザがどのアイコンやキーにタッチしたかを判断することが出来る。以下、タッチパネル16による操作を「タッチ操作」ということにする。
なお、本実施例のタッチ操作には、タップ操作、ロングタップ操作、フリック操作、スライド操作などが含まれる。また、タッチパネル16は、表面型の静電容量方式が採用されてもよいし、抵抗膜方式、超音波方式、赤外線方式および電磁誘導方式などが採用されてもよい。また、タッチ操作はユーザの指に限らず、スタイラスペンなどによって行われてもよい。
近接センサ34は、図示は省略するが、発光素子(たとえば、赤外線LED)と受光素子(たとえば、フォトダイオード)とを含む。プロセッサ40は、フォトダイオードの出力の変化から、近接センサ48(携帯電話機10)に近接する物体(たとえば、ユーザの顔など)の距離を算出する。具体的には、発光素子は赤外線を発光し、受光素子は、顔などで反射した赤外線を受光する。たとえば、受光素子がユーザの顔から遠い場合は、発光素子から発せられた赤外線は受光素子によってほとんど受光されない。一方、近接センサ34にユーザの顔が近接すると、発光素子が発光した赤外線は顔に反射して受光素子によって受光される。このように、受光素子は近接センサ34がユーザの顔に近接している場合とそうでない場合とで赤外線の受光量が変化するため、プロセッサ40は、その受光量に基づいて、近接センサ34から物体までの距離を算出することができる。
LEDドライバ60には、図1に示す赤外線LED30が接続される。LEDドライバ60は、プロセッサ40からの制御信号に基づいて、赤外線LED30のオン/オフ(点灯/消灯)を切り換える。
撮影画像処理回路62には、撮影部として機能する赤外線カメラ32(図1参照)が接続される。撮影画像処理回路62は、赤外線カメラ32からの撮影画像データに画像処理を施し、モノクロの画像データをプロセッサ40に入力する。赤外線カメラ32は、プロセッサ40の指示の下、撮影処理を実行し、撮影画像データを撮影画像処理回路62に入力する。赤外線カメラ32は、たとえば、CCDやCMOSのような撮影素子を用いたカラーカメラと、R、G、Bの波長の光を減衰(カット)し、赤外線波長の光を透過する赤外線透過フィルタとによって構成される。したがって、赤外線透過フィルタを着脱可能な構成にすれば、赤外線透過フィルタを外すことにより、カラー画像を取得することも可能である。
なお、上で説明した無線通信回路42、A/D変換器46およびD/A変換器48はプロセッサ40に含まれていてもよい。
このような構成の携帯電話機10では、キー操作やタッチ操作に代えて、視線による入力操作(以下、「視線操作」ということがある。)が可能である。視線操作では、視線とディスプレイ14の表示面とが交差する点(注視点)によって指示される所定の領域(以下、判定エリア)に対応づけて設定された所定の処理が実行される。以下、図面を用いて、注視点の検出方法について説明する。
図3を参照して、ユーザは、左右の目の内、自身の利き目を設定する。利き目(ここでは左目)が設定されると、赤外線LED30が発光した赤外線が照射されたユーザ(被写体)の顔を、赤外線カメラ32によって撮影する。撮影された画像に対して特徴点抽出の技術を用いて、眼球周辺画像を取得する。次に、取得された眼球周辺画像に対してラベリング処理によって瞳孔が検出され、微分フィルタ処理によって赤外線(赤外光)による反射光(プルキニエ像)が検出される。なお、撮影画像から瞳孔やプルキニエ像を検出する方法を概説したが、これらの方法は既に周知であり、この実施例の本質的な内容ではないため、詳細な説明は省略する。
図1に示したように、赤外線LED30と赤外線カメラ32とがディスプレイ14の下側に並べて配置(接近して配置)されているため、図4に示すように、瞼が比較的大きく開いている状態および瞼が少し閉じている状態のいずれであっても、プルキニエ像を検出することが出来る。なお、赤外線LED30と赤外線カメラ32との距離は、ユーザが携帯電話機10を使用する際における、ユーザの顔と携帯電話機10(筐体の表面ないしディスプレイ14の表示面)の距離や携帯電話機10の大きさなどによって決定される。
プロセッサ40は、撮影画像から瞳孔およびプルキニエ像を検出すると、利き目の視線の方向(視線ベクトルV)を検出する。具体的には、赤外線カメラ32で撮影された2次元の撮影画像におけるプルキニエ像の位置から瞳孔の位置に向けたベクトルが検出される。つまり、図5(A),(B)に示すように、第1中心位置Aから第2中心位置中心Bに向けたベクトルが視線ベクトルVである。赤外線カメラ32における座標系は予め決定されており、その座標系を用いて視線ベクトルVが算出される。
そして、このようにして算出された視線ベクトルVを用いて、視線操作の初期設定としてキャリブレーションが行われる。本実施例では、ディスプレイ14の四隅をそれぞれ注視したときの視線ベクトルVを取得し、各視線ベクトルVをキャリブレーションデータとして保存する。
視線操作が行われる際には、赤外線カメラ32によって画像が撮影される度に、視線ベクトルVを求め、キャリブレーションデータと比較することによって、注視点が検出される。そして、注視点が、判定エリア内で検出された回数が、その判定エリアに対応付けられている判定回数と一致したときに、プロセッサ40は、その注視点に対して視線入力がされたものとして検出する。
また、本実施例では、ユーザの両目の距離L(図3参照)が、左右の目のプルキニエ像の中心位置から算出される。そして、ユーザの両目の距離Lはキャリブレーションデータと共に保存される。注視点を検出する処理が実行され視線ベクトルVが算出されると、注視点を検出するときに記録された両目の距離Lと現在の両目の距離Lとが比較され、ディスプレイ14とユーザの顔との距離が変化しているかが判断される。ディスプレイ14とユーザの顔との距離が変化していると判断されると、記録された両目の距離Lと現在の両目の距離Lとから変化量が算出され、視線ベクトルVの大きさが補正される。たとえば、変化量に基づいて、ユーザの顔の位置がキャリブレーションを行ったときに対して離れた状態であると判断されると、視線ベクトルVは大きくなるよう補正される。また、変化量に基づいて、ユーザの顔の位置がキャリブレーションを行ったときに対して近づいた状態であると判断されると、視線ベクトルVは小さくなるように補正される。
また、詳細な説明は省略するが、本実施例の注視点検出処理では、眼球の形状によって生じる誤差、キャリブレーション時の測定誤差および撮影時の量子化誤差なども補正されている。
したがって、本実施例では、携帯電話機10のような小型の電子機器であっても、高精度な視線入力を実現することが可能となる。
図6は、アプリケーションが実行されているときのディスプレイ14の一般的な表示例を示す図解図である。ディスプレイ14は状態表示領域70および機能表示領域72を含む。状態表示領域70には、アンテナ34による電波受信状態を示すアイコン(ピクト)、二次電池の残電池容量を示すアイコンおよび時刻が表示される。
機能表示領域72には、標準キーであるHOMEキー90およびBACKキー92を表示するキー表示領域80と、アプリケーションオブジェクト94などを表示するアプリケーション表示領域82とが含まれる。HOMEキー90は、実行中のアプリケーションを終了させて、待機画面を表示させるためのキーである。また、BACKキー92は、実行中のアプリケーションを終了させて、アプリケーションが実行される前の画面を表示するためのキーである。そして、HOMEキー90およびBACKキー92は、実行されるアプリケーションの種類に関係なく、アプリケーションが実行されていれば表示される。アプリケーションオブジェクト94は、実行されるアプリケーションに応じて表示されるオブジェクトをまとめて示すものである。そのため、アプリケーションが実行されているときに、アプリケーションオブジェクト94は、キーなどのGUIとして表示される。
また、未読の新着メールや不在着信などがある場合、状態表示領域70には、通知アイコン96が表示される。たとえば、新着メールを受信した場合、状態表示領域70には、通知アイコン96として、新着メールアイコン96aが表示される。また、未読の新着メールや不在着信が無い場合は、通知アイコン96は表示されない。
そして、ユーザは、これらのオブジェクトに対して視線入力を行うことで、実行されているアプリケーションを任意に操作することが出来る。たとえば、通知アイコン96に対して視線入力が行われると、通知アイコン96を表示したアプリケーションが実行される。
なお、本実施例のオブジェクトには、アイコン、キー、GUI、ウィジェット(ガジェット)などが含まれる。
図7はオブジェクトテーブルの構成の一例を示す図解図である。オブジェクトテーブルには、ディスプレイ14に表示されるオブジェクトの名称、判定エリアおよび判定回数がそれぞれ記録される列が含まれる。ここで、本実施例の判定エリアは、視線入力を受け付ける領域であると共に、オブジェクトの画像を表示する表示領域でもある。
オブジェクトの名称が記録される列には、HOMEキー、BACKキー、通知アイコン、アプリケーションオブジェクトなどが記録される。オブジェクトの判定エリアが記録される列には、名称の欄に対応して、各オブジェクトが視線入力を受け付ける座標範囲が記録される。オブジェクトの判定回数が記録される列には、名称の欄に対応して、各オブジェクトの判定回数が記録される。
たとえば、オブジェクトテーブルでは、HOMEキー90に対応して、判定エリアは「(X1,Y1)−(X2,Y2)」が記録され、判定回数は「D1」が記録される。同様に、BACKキー92に対応して、判定エリアは「(X3,Y3)−(X4,Y4)」が記録され、判定回数は「D2」が記録される。通知アイコン96に対応して、判定エリアは「(X5,Y5)−(X6,Y6)」が記録され、判定回数は「D3」が記録される。そして、アプリケーションオブジェクトに対応して、判定エリアは「(X7,Y7)−(X8,Y8)」が記録され、判定回数は「D4」が記録される。ただし、アプリケーションオブジェクトの名称、判定エリアおよび判定回数は、実行されるアプリケーションに応じて変化する。
なお、本実施例では、各オブジェクトの判定回数には、同じ標準値(たとえば、10)がそれぞれ設定されている。ただし、他の実施例では、オブジェクト毎に異なる値が設定されてもよい。
ここで、本実施例では、新着メールの受信、表示画面の遷移などのイベントが発生すると、次のユーザ操作を予測し、そのユーザ操作を行うためのオブジェクトに対する視線入力の応答性を向上させる。
本実施例では、視線入力の応答性を向上させるために、判定エリアを拡大する(図13(B)参照)と共に、判定回数を標準値よりも小さくする。つまり、判定エリアが拡大されると、ユーザの視線入力を受け付ける範囲が広くなるため、視線入力が受け付けられやすくなる。また、オブジェクトの判定回数を小さくすることで、視線入力と判定されるまでの時間を短くすることが出来る。ただし、他の実施例では、オブジェクトの表示態様(たとえば、大きさや、色など)を変更することで、ユーザの視線を誘導してもよい。つまり、ユーザの視線を誘導することで視線入力の操作性を向上させる。
このように、次のユーザ操作に応じて、オブジェクトに対する視線入力の応答性が向上するため、視線入力の操作性が向上する。また、視線入力の操作性が向上すれば、視線入力の操作時間が短縮されるため、携帯電話機10は低消費電力で視線入力を検出することが出来る。
なお、視線入力の応答性の向上は、判定エリアを大きくするだけでもよいし、判定回数を小さくするだけでもよいし、表示態様を変更するだけでもよい。また、これらの処理の2つが任意に組み合わせられてもよい。
以下、図8に示すメモリマップ500および図9−図11に示すフロー図を用いて、本実施例の概要を説明する。
図8を参照して、図2に示すRAM56には、プログラム記憶領域502とデータ記憶領域504とが形成される。プログラム記憶領域502は、先に説明したように、フラッシュメモリ44(図2)に予め設定しているプログラムデータの一部または全部を読み出して記憶(展開)しておくための領域である。
プログラム記憶領域502には、視線入力を検出し、その視線入力に基づく動作を実行するための視線入力プログラム510、イベントが発生したときに次のユーザ操作を予測するためのユーザ操作予測プログラム512、視線入力の応答性を向上させるための応答性向上プログラム514および視線入力の入力位置を検出するための視線検出プログラム516などが記憶される。なお、視線検出プログラム516は、視線入力プログラム510のサブルーチンである。また、プログラム記憶領域502には、電話機能、メール機能およびアラーム機能などを実行するためのプログラムなども含まれる。
データ記憶領域504には、近接バッファ530、予測バッファ532、注視点バッファ534、視線バッファ536および初期値バッファ538などが設けられると共に、オブジェクトデータ540およびオブジェクトテーブル542が記憶される。
近接バッファ530は、近接センサ34から得られた物体までの距離情報が一時的に記憶される。予測バッファ532は、イベントが発生したときに予測される次のユーザ操作を行うためのオブジェクトの名称が一時的に記憶される。注視点バッファ534は、検出された注視点が一時的に記憶される。視線バッファ536は、視線入力が検出されたときにその位置が一時的に記憶される。初期値バッファ538は、判定エリアが拡大されたときに、元の大きさを示す座標範囲が一時的に記憶される。
オブジェクトデータ540は、ディスプレイ14に表示されるオブジェクトの画像および文字列データなどを含むデータである。オブジェクトテーブル542は、たとえば図7に示す構成のテーブルである。
図示は省略するが、データ記憶領域504には、プログラム記憶領域502に記憶された各プログラムの実行に必要な、他のデータが記憶されたり、タイマ(カウンタ)や、フラグが設けられたりする。
プロセッサ40は、Android(登録商標)またはREXなどのLinux(登録商標)ベースのOSや、その他のOSの制御下で、図9および図10に示す視線入力処理などを含む、複数のタスクを並列的に処理する。
視線入力による操作が有効とされると、視線入力処理が実行される。プロセッサ40は、ステップS1で近接センサ34をオンにする。つまり、近接センサ34によって携帯電話機10からユーザまでの距離が測定される。続いて、ステップS3でプロセッサ40は、近接センサ34の出力が閾値A未満であるかが判断される。つまり、赤外線LED30から出力される赤外線がユーザの眼に影響を与える範囲にユーザの顔が存在しているかが判断される。ステップS3で“NO”であれば、つまり近接センサ34の出力が閾値A以上でれば、プロセッサ40は、ステップS5で近接センサ34をオフにして、視線入力処理を終了する。つまり、赤外線LED30から出力される赤外線がユーザの眼に影響を与える可能性があるため、視線入力処理が終了される。なお、他の実施例では、ステップS5の後に、ユーザの顔を携帯電話機10から離すように促す通知(たとえば、ポップアップや、音声)がされてもよい。
ステップS3で“YES”であれば、たとえば携帯電話機10とユーザの顔とが適切な距離であれば、プロセッサ40は、ステップS7で赤外線LED30をオンにし、ステップS9で赤外線カメラ32をオンにする。つまり、ユーザの視線入力を検出するために、赤外線LED30および赤外線カメラ32がオンにされる。
続いて、ステップS11でプロセッサ40は、顔認識処理を実行する。つまり、ユーザの赤外線カメラ32によって撮影された画像からユーザの顔を検出する処理が実行される。続いて、ステップS13でプロセッサ40は、認識されたか否かを判断する。つまり、顔認識処理によって、ユーザの顔が認識されたかが判断される。ステップS13で“NO”であれば、つまりユーザの顔が認識されていなければ、プロセッサ40はステップS11に戻る。
一方、ステップS13で“YES”であれば、つまりユーザの顔が認識されると、ステップS15でプロセッサ40は、イベントが発生したか否かを判断する。たとえば、プロセッサ40は、新着メールを受信したり、画面が遷移したりしたかを判断する。ステップS15で“NO”であれば、つまりこのようなイベントが発生していなければ、プロセッサ40はステップS19に進む。
また、ステップS15で“YES”であれば、つまりイベントが発生した場合、プロセッサ40は、ステップS17でユーザ操作予測処理を実行し、ステップS19で応答性向上処理を実行する。つまり、プロセッサ40は、イベントの発生に応じて、次のユーザ操作を予測し、そのユーザ操作を行うためのオブジェクトの応答性を向上させる。なお、ユーザ操作予測処理および応答性向上処理は、図面およびフローチャートを用いて後述するため、ここでの詳細な説明は省略する。また、ステップS17の処理を実行するプロセッサ40は予測部として機能し、ステップS19の処理を実行するプロセッサ40は向上部として機能する。
続いて、ステップS21でプロセッサ40は、視線検出処理を実行する。つまり、ユーザの視線入力が検出される。なお、視線検出処理については、図11に示すフロー図を用いて後述するため、ここでの詳細な説明は省略する。
続いて、ステップS23でプロセッサ40は、視線を検出したか否かを判断する。つまり、プロセッサ40は、ユーザの視線入力の入力位置を検出出来たかを判断する。ステップS23で“NO”であれば、たとえばユーザの視線がオブジェクトに向けられていなければ、プロセッサ40はステップS11に戻る。
また、ステップS23で“YES”であれば、たとえば任意のオブジェクトにユーザの視線が向けられていれば、ステップS25でプロセッサ40は、視線入力が検出されたオブジェクトに関連した動作を実行する。たとえば、HOMEキー90に対して視線入力が行われた場合、プロセッサ40は、実行中のアプリケーションを終了して、ディスプレイ14に待機画面を表示する。
続いて、ステップS27でプロセッサ40は、赤外線LED30、赤外線カメラ32および近接センサ34をオフにする。つまり、視線入力が検出されたため、これらの電源をオフにすることで、携帯電話機10の消費電力が抑えられる。
図11は視線検出処理のフロー図である。図10に示す視線入力処理のステップS21が実行されると、視線検出処理は実行される。プロセッサ40は、ステップS41で変数nおよび注視点バッファ534を初期化する。つまり、注視点が同じ位置で検出された回数をカウントするための変数nと、検出された注視点が一時的に記録される注視点バッファ534とが初期化される。
続いて、ステップS43でプロセッサ40は、注視点を検出する。つまり、顔が認識された画像から、ユーザがディスプレイ14を注視している位置が算出される。なお、ステップS43の処理を実行するプロセッサ40は第1検出部として機能する。
続いて、ステップS45でプロセッサ40は、前回位置が記録されているか否かを判断する。つまり、プロセッサ40は、注視点バッファ534に、前回の処理で検出された注視点が記録されているかを判断する。ステップS45で“NO”であれば、つまり前回の注視点が記録されていなければ、プロセッサ40はステップS51に進む。一方、ステップS45で“YES”であれば、つまり前回の注視点が注視点バッファ534に記録されていれば、ステップS47でプロセッサ40は、前回と一致するか否かを判断する。つまり、プロセッサ40は、ステップS43で検出された注視点が、注視点バッファ534に記録されている前回の注視点と一致するかを判断する。
ステップS47で“NO”であれば、つまり検出された注視点が前回位置と一致していなければ、プロセッサ40はステップS41に戻る。また、ステップS47で“YES”であれば、つまり検出された注視点が前回位置と一致していれば、ステップS49でプロセッサ40は、変数nをインクリメントする。つまり、注視点が一致している回数が変数nによってカウントされる。なお、ステップS49の処理を実行するプロセッサ40はカウント部として機能する。
続いて、ステップS51でプロセッサ40は、注視点は判定エリアの中か否かを判断する。つまり、プロセッサ40は、検出された注視点が、オブジェクトテーブル542に記録されている各判定エリアのいずれか1つに含まれているかを判断する。ステップS51で“NO”であれば、つまり注視点が判定エリアにも含まれていなければ、プロセッサ40は視線検出処理を終了して、視線入力処理に戻る。
一方、ステップS51で“YES”であれば、たとえば検出された注視点がアプリケーションオブジェクトに含まれていれば、ステップS53でプロセッサ40は、注視点を記録する。つまり、検出された注視点が、前回の検出位置として、注視点バッファ534に記録される。続いて、ステップS55でプロセッサ40は、注視点を含む判定エリアの判定回数を読み出す。たとえば、検出された注視点がアプリケーションオブジェクトの判定エリアに含まれている場合、判定回数として「D4」が読み出される。
続いて、ステップS57でプロセッサ40は、変数nが判定回数と一致しているかが判断される。つまり、プロセッサ40は、注視点が同じ位置で検出された回数が、その注視点を含む判定エリアの判定回数に達したかを判断する。ステップS57で“NO”であれば、たとえば変数nによってカウントされた回数が判定回数よりも少なければ、プロセッサ40はステップS43に戻る。
また、ステップS57で“YES”であれば、たとえば変数nによってカウントされた値が、読み出された判定回数D4と一致すれば、ステップS59でプロセッサ40は、注視点を視線入力の位置として検出する。つまり、プロセッサ40は、注視点バッファ534に記録されている座標を、入力位置として視線バッファ536に記録する。そして、ステップS59の処理が終了すると、プロセッサ40は視線検出処理を終了して、視線入力処理に戻る。なお、ステップS59の処理を実行するプロセッサ40は第2検出部として機能する。
以上で、本実施例の概要を説明したが、以下には図12−図24に示す図解図およびフロー図を用いて具体例を説明する。
<具体例1>
具体例1では、アプリケーションによる通知イベントが発生したときの視線入力の応答性の向上について説明する。
図12は電子書籍アプリケーションが実行されているときのディスプレイ14の表示例を示す。アプリケーション表示部82には、電子書籍アプリケーションによって再生された電子書籍の本文が表示されると共に、電子書籍アプリケーションのアプリケーションオブジェクト96が表示される。電子書籍アプリケーションのアプリケーションオブジェクト96には、前のページに戻るための戻るキー94a、次のページに進むための進むキー96および表示内容をスクロールするためのスクロールバー94cが含まれる。
このように各オブジェクトがディスプレイ14に表示されているときに、メールアプリケーションが新着メールを受信すると、図13(A)に示すように、新着メールアイコン96aが状態表示領域70に表示される。そして、新着メールの受信を通知するイベントが発生すると、メールアプリケーションを実行するためのオブジェクトの判定エリアが拡大され、かつ判定回数が小さくされる。
図13(B)を参照して、新着メールの受信イベントが発生すると、新着メールアイコン96aの判定エリア96a’と、実行中のアプリケーションを終了させるためのHOMEキー90およびBACKキー92の判定エリア90a’および判定エリア92’とが、拡大される。一方、メールアプリケーションの実行に関係ないオブジェクト、ここでは戻るキー94a、進むキー94bおよびスクロールバー94cの各判定エリアが縮小される。また、図13(B)に図示することは出来ないが、新着メールアイコン96a、HOMEキー90およびBKCKキー92の判定回数は小さくされている。
ここで、新着メールアイコン96aは、メールアプリケーションを実行させるためのオブジェクトとして、視線入力の応答性が向上される。また、HOMEキー90およびBACKキー92は、メールアプリケーションを実行するために、実行中のアプリケーションを終了させるためのオブジェクトであるため、視線入力の応答性が向上される。
このように、通知アイコン96を表示するイベントが発生すると、通知された内容を確認しやすくすることが出来る。
なお、図13(B)では、各判定エリアを点線で示したが、これは判定エリアの拡大/縮小を分かりやすく図示するためのものであって、実際にはユーザは判定エリアの拡大/縮小を認識することは出来ない。
また、他の実施例では、電話の着信や、アラームによる時刻の通知がされているときに、それぞれのアプリケーションに対応する通知アイコン96がディスプレイ14に表示されてもよい。
以下、具体例1のユーザ操作予測処理および応答性向上処理のフロー図を用いて、詳細に説明する。
図14は、具体例1のユーザ操作予測処理の詳細なフロー図である。視線入力処理のステップS17でユーザ操作予測処理が実行されると、プロセッサ40はステップS71で、予測バッファ532を初期化する。つまり、次のユーザの操作を行うためのオブジェクトの名称を記録するために、予測バッファ532に記憶されている情報が消去される。
続いて、ステップS73でプロセッサ40は、メールを受信したか否かを判断する。つまり、新着メールの受信を通知するイベントが発生したかが判断される。ステップS73で“NO”であれば、つまり通知イベントが発生していなければ、プロセッサ40はユーザ操作予測処理を終了して、視線入力処理に戻る。
また、ステップS73で“YES”であれば、つまり発生したイベントが新着メールの受信であれば、ステップS75でプロセッサ40は、新着メールアイコン96aをオブジェクトテーブル542から特定する。つまり、メールアプリケーションを実行するためのオブジェクトとして、新着メールアイコン96aが特定される。なお、ステップS75の処理を実行するプロセッサ40は、第1予測部として機能する。
続いて、ステップS77でプロセッサ40は、HOMEキー90およびBACKキー92をオブジェクトテーブル542から特定する。つまり、実行中のアプリケーションを終了させるためのオブジェクトとして、HOMEキー90およびBACKキー92が特定される。
続いて、ステップS79でプロセッサ40は、特定したオブジェクトの名称を予測バッファ532に記録する。つまり、新着メールアイコン96a、HOMEキー90およびBACKキー92のオブジェクトの名称が、予測バッファ532に記録される。そして、ステップS79の処理が終了すると、プロセッサ40は、ユーザ操作予測処理を終了して、視線入力処理に戻る。
図15は、具体例1の応答性向上処理の詳細なフロー図である。視線入力処理のステップS19で応答性向上処理が実行されると、プロセッサ40はステップS91で、メールを受信してから所定時間(たとえば、5分)以内か否かを判断する。つまり、プロセッサ40は、新着メールを受信してから所定時間が経過したかを判断する。
また、ステップS91で“YES”であれば、つまり新着メールを受信してから所定時間が経過していなければ、ステップS93でプロセッサ40は、判定エリアが変更済みか否かを判断する。つまり、プロセッサ40は、新着メールアイコン96a、HOMEキー90およびBACKキー92の応答性が向上された状態であるかが判断される。なお、具体的には、プロセッサ40は、初期値バッファ538に、各判定エリアの元の大きさを示す座標範囲の情報が記録されているかを判断する。ステップS93で“YES”であれば、つまり判定エリアが変更済みであれば、プロセッサ40は応答性向上処理を終了して、視線入力処理に戻る。
また、ステップS93で“NO”であれば、つまり判定エリアがまだ拡大されていなければ、ステップS95でプロセッサ40は、各判定エリアの大きさを記録する。つまり、各判定エリアの座標範囲を示す情報が、初期値バッファ538に記録される。続いて、ステップS97で予測バッファ532からオブジェクトの名称を読み出す。つまりユーザ操作予測処理で予測されたオブジェクトの名称が読み出される。なお、具体例1では、新着メールアイコン96a、HOMEキー90およびBACKキー92のオブジェクトの名称が読み出される。
続いて、プロセッサ40は、ステップS99で新着メールアイコン96aの判定エリアを拡大し、ステップS101でHOMEキー90およびBACKキー92の判定エリアを拡大する。続いて、ステップS103でプロセッサ40は、他のオブジェクトの判定エリアを縮小する。たとえば、戻るキー94a、進むキー94bおよびスクロールバー94cの判定エリアが縮小される。したがって、これらの処理によって、図13(B)に示すように、判定エリアの大きさが変更された状態となる。なお、判定エリアが拡大/縮小された結果は、オブジェクトテーブルの判定エリアの各欄に反映される。
続いて、プロセッサ40は、ステップS105で新着メールアイコン96aの判定回数を標準値より小さくし、ステップS107でHOMEキー90およびBACKキー92の判定回数を標準値より小さくする。つまり、オブジェクトテーブル542において、これらのオブジェクトに対応する判定回数が標準値よりも小さくされる。
そして、このようにして各オブジェクトの応答性が変更されると、プロセッサ40は応答性向上処理を終了して、視線入力処理に戻る。
なお、ステップS99およびステップS105の処理を実行するプロセッサ40は、第1向上部として機能する。
ここで、ステップS91で“NO”であれば、つまり新着メールを受信してから所定時間が経過していると、ステップS109でプロセッサ40は、判定エリアが変更済みか否かを判断する。つまり、各オブジェクトの応答性が変更されているかが判断される。ステップS109で“NO”であれば、つまり各オブジェクトの応答性が変更されていなければ、プロセッサ40は応答性向上処理を終了して、視線入力処理に戻る。
一方、ステップS109で“YES”であれば、たとえば新着メールアイコン96a、HOMEキー90およびBACKキー92の応答性が向上されていれば、ステップS111でプロセッサ40は、判定エリアの大きさを初期化する。つまり、プロセッサ40は、初期値バッファ538に記録されている各オブジェクトの判定エリアを示す座標範囲に基づいて、オブジェクトテーブル542に記録されている各判定エリアの座標範囲を元の状態に戻す。
続いて、ステップS113でプロセッサ40は、全てのオブジェクトの判定回数に標準値を設定する。つまり、オブジェクトテーブル542の判定回数の列の各欄に、標準値が設定される。ただし、他の実施例では、オブジェクトによって初期化される判定回数が異なってもよい。このように、変更した応答性が元に戻されると、プロセッサ40は、応答性向上処理を終了して、視線入力処理に戻る。
<具体例2>
具体例2では、実行中のアプリケーションが特定状態となるイベントが発生したときの視線入力の応答性の向上について説明する。なお、具体例2でも、具体例1と同様、電子書籍アプリケーションが実行されているときを例に挙げて説明する。
図16(A)を参照して、電子書籍アプリケーションが実行されているときに、表示されているページが最後までスクロールされたとき、つまりスクロールバー94cの位置が最終位置に達したとき、実行中のアプリケーションが終了される可能性が高い状態(特定状態)となるイベントが発生したと判断される。
図16(B)を参照して、このようなイベントが発生すると、実行中のアプリケーションを終了させるためのHOMEキー90およびBACKキー92の判定エリア90a’および判定エリア92’と、戻るキー94aの判定エリア94a’とが拡大される。また、アプリケーションの終了に関係ない他のオブジェクト、つまり進むキー94bおよびスクロールバー94cの判定エリアが縮小される。また、図16(B)の状態では、HOMEキー90、BACKキー92および戻るキー94aの各判定回数は標準値よりも小さくされている。
ここでは、HOMEキー90およびBACKキー92は、実行中のアプリケーションを終了させるためのオブジェクトとして、視線入力の応答性が向上される。なお、戻るキー94aは、ユーザが前のページを確認する可能性があるため、視線入力の応答性が向上される。
このように、具体例2では、表示内容が最後までスクロールされると、実行中のアプリケーションを終了させやすくすることが出来る。
なお、具体例2は、電子書籍アプリケーションだけに限らず、表示内容がスクロールされるメールアプリケーションや、ブラウザアプリケーション、テキスト作成/編集アプリケーションなどに適用されてもよい。
以下、具体例2のユーザ操作予測処理および応答性向上処理のフロー図を用いて、詳細に説明する。なお、具体例1と同様の処理については、同じステップ番号を付し、詳細な説明は省略する。
図17は、具体例2のユーザ操作予測処理の詳細なフロー図である。視線入力処理のステップS17でユーザ操作予測処理が実行されると、プロセッサ40は、ステップS71で予測バッファ532を初期化する。
続いて、ステップS131でプロセッサ40は、スクロールバー94cが最終位置に達しているかが判断される。つまり、プロセッサ40は、実行中のアプリケーションが特定状態となるイベントが発生したかを判断する。ステップS131で“NO”であれば、つまりスクロールバー94cが最終位置に達していなければ、プロセッサ40はユーザ操作予測処理を終了して、視線入力処理に戻る。
ステップS131で“YES”であれば、つまりスクロールバー94cが最終位置に達していると、ステップS133でプロセッサ40は、戻るキー94aをオブジェクトテーブル542から特定する。つまり、ユーザが前のページに戻る操作を行う可能性があるため、戻るキー94aがオブジェクトテーブルから特定される。
続いて、ステップS77でプロセッサ40は、HOMEキー90およびBACKキー92をオブジェクトテーブルから特定する。つまり、実行中のアプリケーションを終了させるための操作を行うためのオブジェクトとして、HOMEキー90およびBACKキー92が特定される。なお、ステップS77の処理を実行するプロセッサ40は第2予測部として機能する。
続いて、ステップS79でプロセッサ40は、特定したオブジェクトの名称を予測バッファ532に記録する。ここでは、HOMEキー90、BACKキー92および戻るキー94aの名称が予測バッファ532に記録される。そして、ステップS79の処理が終了すれば、プロセッサ40はユーザ操作予測処理を終了して、視線入力処理に戻る。
図18は、具体例2の応答性向上処理の詳細なフロー図である。視線入力処理のステップS19で応答性向上処理が実行されると、プロセッサ40はステップS151で、スクロールバー94が最終位置か否かを判断する。つまり、表示内容が最後までスクロールされているかが判断される。
ステップS151で“YES”であれば、つまり表示内容が最後までスクロールされていれば、ステップS93でプロセッサ40は、判定エリアが変更済みであるかを判断する。ステップS93で“YES”であれば、つまり判定エリアが変更されていれば、プロセッサ40は応答性向上処理を終了して、視線入力処理に戻る。また、ステップS93で“NO”であれば、つまり判定エリアが変更されていなければ、ステップS95でプロセッサ40は各判定エリアの大きさを記録する。
続いて、ステップS97でプロセッサ40は、予測バッファ532からオブジェクトの名称を読み出す。ここでは、オブジェクトの名称として、HOMEキー90、BACKキー92および戻るキー94aが読み出される。
続いて、プロセッサ40は、ステップS153で戻るキー94aの判定エリア94a’を拡大し、ステップS101でHOMEキー90およびBACKキー92の判定エリアを拡大する。そして、ステップS103でプロセッサ40は、他のオブジェクトの判定エリアを縮小する。たとえば、ステップS103では、進むキー94bおよびスクロールバー94cの判定エリアが縮小される。なお、判定エリアが拡大/縮小された結果は、オブジェクトテーブルの判定エリアの各欄に反映される。
続いて、プロセッサ40は、ステップS155で戻るキー94aの判定回数を標準値より小さくし、ステップS107でHOMEキー90およびBACKキー92の判定回数を標準値より小さくする。つまり、オブジェクトテーブル542における、HOMEキー90、BACKキー92および戻るキー94aの判定回数を小さくする。このようにして、HOMEキー90、BACKキー92および戻るキー94aの応答性が向上されると、プロセッサ40は応答性向上処理を終了して、視線入力処理に戻る。
なお、ステップS101およびステップS107の処理を実行するプロセッサ40は、
第2向上部として機能する。
また、ステップS151で“NO”であれば、たとえばスクロール操作によってスクロールバーが最終位置でなくなると、ステップS109でプロセッサ40は、判定エリアが変更済みか否かを判断する。ステップS109で“NO”であれば、つまり判定エリアが変更されていなければ、プロセッサ40は応答性向上処理を終了して、視線入力処理に戻る。
また、ステップS109で“YES”であれば、つまり判定エリアが変更されていれば、プロセッサ40は、ステップS111で判定エリアの大きさを初期化し、ステップS113で全てのオブジェクトの判定回数に標準値を設定する。つまり、各オブジェクトの応答性が元の状態に戻される。そして、ステップS113の処理が終了すれば、プロセッサ40は、応答性向上処理を終了して、視線入力処理に戻る。
<具体例3>
具体例3では、複数のアプリケーションをそれぞれ実行可能な実行アイコンを含む特定画面を表示するイベントが発生したときの視線入力の応答性の向上について説明する。
図19(A)はロック画面が表示されているときのディスプレイ14の表示例を示す。ロック画面は、機能表示領域72に表示される。また、ロック画面には、ロック状態を解除するためのロックアイコンRIおよび複数のアプリケーションを実行するための実行アイコン110−116が含まれる。具体例3の実行アイコンは、メールアプリケーションを実行するためのメールアイコン110、ブラウザアプリケーションを実行するためのブラウザアイコン112および地図アプリケーションを実行するための地図アイコン114および電話アプリケーションを実行するための電話アイコン116を含む。
たとえば、ロック画面は、タッチパネル16に対する誤入力を防止するための画面であり、ディスプレイ14の電源がオンにされたときに表示される。また、ロック画面が表示されているときに、ユーザは、ロックアイコンRIに対して解除操作(たとえば、ロックアイコンRIを画面外に出すようなフリック操作)を行うと、ロック状態を解除することが出来る。また、ロックアイコンRIをドラッグした後に、任意の実行アイコンにドロップすることで、ユーザは、ロック状態を解除すると共に、その実行アイコンに対応するアプリケーションを実行することが出来る。そして、ロック画面が解除されると、待機画面が表示される。
また、ユーザは、ロックアイコンRIに対して視線入力を行っても、ロック状態を解除することが出来る。さらに、ユーザは、任意の実行アイコンに対して視線入力を行うことで、ロック状態を解除すると共に、その実行アイコンに対応するアプリケーションを実行することが出来る。
ここで、具体例3では、図19(A)に示すようなロック画面をの表示イベントが発生すると、ユーザによって利用される頻度が高いアプリケーションに対応する実行オブジェクトの応答性が向上される。
図19(B)を参照して、たとえばユーザの利用頻度が最も多いアプリケーションがメールアプリケーションである場合に、ロック画面の表示イベントが発生すると、利用頻度が最も高いメールアプリケーションに対応するメールアイコン110の判定エリア110’およびロック状態を解除するためのロックアイコンRIの判定エリアRI’が拡大される。また、図19(B)の状態では、メールアイコン110およびロックアイコンRIの判定回数が標準値よりも小さくされる。
つまり、利用頻度が高いアプリケーションに対応する実行アイコンは、そのアプリケーションを実行しやすくするために、視線入力の応答性が向上される。なお、ロックアイコンRIは、ロック状態を解除しやすくするために、視線入力の応答性が向上される。
したがって、アプリケーションが実行可能な画面が表示されると、利用履歴に基づいて、アプリケーションを実行しやすい状態にすることが出来る。
なお、図19(B)において、判定エリアの大きさとオブジェクトの大きさとが一致している場合は、判定エリアに対する符号は省略する。
図20は、ユーザによって利用されたアプリケーションの履歴が記録される利用履歴テーブルの構成の一例を示す図解図である。利用履歴テーブルには、アプリケーションが利用(実行)された日時と、利用されたアプリケーションの名称と記録する列が含まれる。たとえば、20XX年8月XX日13時19分13秒にメールアプリケーションが実行されると、日時の欄には「20XX/08/XX 13:19:13」が記録され、名称の列には「メール」が記録される。
そして、アプリケーションの利用頻度は、利用履歴テーブルに基づいて算出される。たとえば、ロック画面が表示されると、利用履歴テーブルから所定期間(たとえば、1週間)分の利用履歴が読み出され、読み出された利用頻度に基づいて最も利用頻度が高いアプリケーションが特定される。
なお、実行アイコンは、ロック画面だけに限らず、待機画面などに表示されてもよい。この場合、待機画面を表示する表示イベントが発生すると、利用頻度に基づいて視線入力の応答性が向上される。
また、ロック画面などに実行アイコンを表示するときに、利用頻度が考慮されてもよい。たとえば、利用頻度が最も高いアプリケーションと対応する実行アイコンが左上に表示される。この場合、ユーザ操作予測処理では、利用頻度を算出せずに、左上に表示されている実行アイコンの名称が取得される。
また、他の実施例では、所定値以上の利用頻度のアプリケーションに対応する実行アイコンの応答性が向上されるようにしてもよい。たとえば、メールアプリケーションと地図アプリケーションとの利用頻度が所定値以上である場合、メールアプリケーションおよび地図アプリケーションのそれぞれに対応する実行アイコンの応答性が向上される。
以下、具体例3におけるRAM56のメモリマップおよび具体例3のユーザ操作予測処理および応答性向上処理のフロー図を用いて、詳細に説明する。なお、フロー図において具体例1と同様の処理については、同じステップ番号を付し、詳細な説明は省略する。
図21を参照して、RAM56のプログラム記憶領域502には、ユーザの利用履歴を記録するための利用履歴記録プログラム518がさらに記憶される。また、RAM56のデータ記憶領域504には、たとえば図20に示す構成の利用履歴データ544がさらに記憶される。なお、他のプログラムおよび他のデータについては、図8に示すメモリマップと略同じであるため、詳細な説明は省略する。
図22は、利用履歴記録処理の詳細なフロー図である。利用履歴記録処理は、携帯電話機10の電源がオンにされると、開始される。ステップS171でプロセッサ40は、アプリケーションが実行されたか否かを判断する。たとえば、アプリケーションを実行する操作がされたかが判断される。ステップS171で“NO”であれば、つまりアプリケーションが実行されなければ、プロセッサ40はステップS171の処理を繰り返す。一方、ステップS171で“YES”であれば、つまりアプリケーションが実行されると、プロセッサ40は、ステップS173で日時を取得し、ステップS175でアプリケーション名を取得する。つまり、アプリケーションが実行されると、アプリケーションが実行された日時とアプリケーションの名称とが取得される。なお、日時はRTC40aが出力する時刻情報を利用して取得される。
続いて、ステップS177でプロセッサ40は、利用履歴を記録する。つまり、上記ステップS173,S175で取得された日時とアプリケーションの名称とを関連付けて、利用履歴テーブル544に記録する。なお、ステップS177の処理が終了すると、プロセッサ40はステップS171に戻る。また、ステップS177の処理を実行するプロセッサ40は記録部として機能する。
図23は、具体例3のユーザ操作予測処理の詳細なフロー図である。視線入力処理のステップS17でユーザ操作予測処理が実行されると、プロセッサ40は、ステップS71で予測バッファ532を初期化する。
続いて、ステップS191でプロセッサ40は、ロック画面が表示されたか否かを判断する。つまり、プロセッサ40は、ロック画面の表示イベントが発生したかを判断する。ステップS191で“NO”であれば、つまり発生したイベントがロック画面の表示イベントでなければ、プロセッサ40はユーザ操作予測処理を終了して、視線入力処理に戻る。
ステップS191で“YES”であれば、つまりロック画面の表示イベントが発生していれば、ステップS193でプロセッサ40は、ロックアイコンRIをオブジェクトテーブルから取得する。続いて、ステップS195でプロセッサ40は、利用履歴テーブル544に基づいて各アプリケーションの利用頻度を算出する。たとえば、利用履歴テーブル544を読み出し、記録されているアプリケーションの名称毎に、利用頻度を算出する。続いて、ステップS197でプロセッサ40は、利用頻度が最も高いアプリケーションと対応する実行アイコンをオブジェクトテーブルから特定する。たとえば、図20に示す構成の利用履歴テーブル544であれば、利用頻度が最も高いアプリケーションはメールアプリケーションであると判断される。そのため、ステップS197では、オブジェクトテーブルからメールアプリケーションに対応するメールアイコン110が特定される。なお、ステップS197の処理を実行するプロセッサ40は第3予測部として機能する。
続いて、ステップS79でプロセッサ40は、特定したオブジェクトの名称を予測バッファ532に記録する。ここでは、ロックアイコンRIおよびメールアイコン110が予測バッファ532に記録される。そして、ステップS79の処理が終了すると、プロセッサ40は、ユーザ操作予測処理を終了して、視線入力処理に戻る。
図24は、具体例3の応答性向上処理の詳細なフロー図である。視線入力処理のステップS19で応答性向上処理が実行されると、プロセッサ40はステップS211で、ロック画面が表示されたか否かを判断する。つまり、プロセッサ40は、複数のアプリケーションを実行可能な実行アイコンが表示されているかを判断する。
続いて、ステップS93でプロセッサ40は、判定エリアが変更済みか否かを判断する。ステップS93で“YES”であれば、つまり変更エリアが変更されていれば、プロセッサ40は応答性向上処理を終了して、視線入力処理に戻る。ステップS93で“NO”であれば、判定エリアが変更されていなければ、ステップS95でプロセッサ40は、各判定エリアの大きさを記録する。
続いて、ステップS97でプロセッサ40は、予測バッファ532からオブジェクトの名称を読み出す。ここでは、ロックアイコンRIと、利用頻度が最も高いアプリケーションに対応する実行アイコンの名称とが予測バッファ532から読み出される。
続いて、プロセッサ40は、ステップS213でロックアイコンRIの判定エリアを拡大し、ステップS215で利用頻度が最も高いアプリケーションと対応する実行アイコンの判定エリアを拡大する。たとえば、予測バッファ532から読み出されたオブジェクトの名称に基づいて、プロセッサ40は、ロックアイコンRIおよびメールアイコン110の判定エリアを拡大する。
続いて、プロセッサ40は、ステップS217でロックアイコンRIの判定回数を標準値より小さくし、ステップS219で利用頻度が最も高いアプリケーションと対応する実行アイコンの判定回数を標準値より小さくする。たとえば、図19(B)に示す状態であれば、ロックアイコンRIおよびメールアイコン110と対応する判定回数が標準値よりも小さくされる。そして、ステップS219の処理が終了すれば、プロセッサ40は応答性向上処理を終了して、視線入力処理に戻る。
なお、ステップS215およびステップS219の処理を実行するプロセッサ40は、第3向上部として機能する。
また、ステップS211で“NO”であれば、つまりロック画面が表示されていなければ、ステップS83でプロセッサ40は、判定エリアが変更済みであるか否かを判断する。ステップS83で“NO”であれば、つまり判定エリアが変更されていなければ、プロセッサ40は応答性向上処理を終了して、視線入力処理に戻る。また、ステップS83で“YES”であれば、つまり判定エリアが変更されていれば、プロセッサ40は、ステップS111で判定エリアの大きさを初期化して、ステップS113で全てのオブジェクトの判定回数に標準値を設定する。つまり、各オブジェクトの視線入力の応答性が元の状態に戻される。
そして、ステップS113の処理が終了すると、プロセッサ40は応答性向上処理を終了して、視線入力処理に戻る。
なお、具体例1−具体例3において、ステップS99,S101,S153,S213,S215の処理を実行するプロセッサ40は拡大部として機能する。また、ステップS105,S107,S155,S217,S219の処理を実行するプロセッサ40は判定回数変更部として機能する。
また、具体例1−具体例3は、それぞれが任意に組み合わせられてもよい。たとえば、2つ以上のイベントが略同時に発生した場合、片方のイベントに対応するオブジェクトの応答性が向上されるようにしてもよいし、それぞれのイベントに対応するオブジェクトの応答性が向上されるようにしてもよい。また、片方のイベントに対応するオブジェクトの応答性だけを向上させる場合、各イベントには予め優先度を設定しておき、その優先度に基づいて応答性を向上させるイベントが判断される。また、その他の組み合わせについては容易に想像できるため、ここでの詳細な説明は省略する。
また、ユーザ操作予測処理および応答性向上処理は、視線入力処理のサブルーチンではなく、視線入力処理と並列的に実行されてもよい。
また、他の実施例では、携帯電話機10からユーザまでの距離の検出精度を高めるために、近接センサ34が、赤外線LED30および赤外線カメラ32と隣接するように設けられてもよい。また、その他の実施例では、赤外線LED30および赤外線カメラ32が、近接センサ34と隣接するように設けられてもよい。
さらにその他の実施例では、近接センサ34に代えて、赤外線LED30および赤外線カメラ32を利用して、携帯電話機10に対するユーザの顔の近接が検出されてもよい。具体的には、視線入力処理が開始されると、赤外線LED30を弱発光させ、赤外線カメラ32の受光レベルを測定する。受光レベルが閾値Bを超えている場合、赤外線LED30から出力される赤外線がユーザの眼に影響を与える範囲にユーザの顔が存在していると判断して、プロセッサ40は視線入力検出処理を終了する。一方、受光レベルが閾値B未満であれば、赤外線LED30が通常発光の状態にされ、上述したようにユーザの視線入力が検出される。なお、赤外線カメラ32の受光レベルは、シャッター速度およびアンプゲイン値に基づいて算出される。たとえば、照度が高い場合、シャッター速度が速くなり、アンプゲイン値が低くなる。一方、照度が低い場合、シャッター速度が遅くなり、アンプゲイン値が高くなる。
以下、さらにその他の実施例の視線入力処理のフロー図を用いて、詳細に説明する。図25を参照して、さらにその他の実施例の視線入力処理が実行されると、プロセッサ40は、ステップS231で赤外線LED30を弱発光させ、ステップS233で赤外線カメラ233の電源をオンにする。続いて、ステップS235でプロセッサ40は、赤外線カメラ32の受光レベルを測定する。つまり、赤外線カメラ32のシャッター速度およびアンプゲイン値に基づいて、赤外線カメラ32の受光レベルが算出される。
続いて、ステップS237でプロセッサ40は、受光レベルが閾値未満であるか否かを判断する。つまり、ステップS3と同様、赤外線LED30から出力される赤外線がユーザの眼に影響を与える範囲にユーザの顔が存在しているかが判断される。ステップS237で“NO”であれば、つまり受光レベルが閾値Bを超えていれば、プロセッサ40はステップS241に進む。そして、プロセッサ40は、ステップS241で赤外線LED30および赤外線カメラ32をオフにして、視線入力処理を終了する。
一方、ステップS237で“YES”であれば、つまり受光レベルが閾値B未満であれば、ステップS239でプロセッサ40は、赤外線LED30を通常発光の状態にする。続いて、ステップS11−S25の処理が実行され、ユーザの視線入力が検出された後、プロセッサ40はステップS241に進む。ステップS241では、上述したように、赤外線LED30および赤外線カメラ32がオフにされる。つまり、視線入力が検出されたため、赤外線LED30および赤外線カメラ32の電源がオフにされる。そして、ステップS241の処理が終了すれば、プロセッサ40は視線入力処理を終了する。
また、判定エリアは、周囲のオブジェクトの位置を考慮して拡大されてもよい。たとえば、左側に他のオブジェクトが表示され、右側には他のオブジェクトが表示されていない任意のオブジェクトの判定エリアを拡大する場合、左側よりも右側の方が大きくなるように判定エリアが拡大される。
また、本実施例では、プロセッサの処理が視線操作によって実行される場合について説明したが、キー操作、タッチ操作および視線操作が組み合わせられてもよいことは、言うまでもない。ただし、他の実施例では、視線操作による処理が実行されている場合には、キー操作やタッチ操作を受け付けないようにしてもよい。
また、本実施例では、視線操作が可能である場合について説明したが、実際には、視線操作(視線入力)が可能な場合と可能でない場合とがある。視線操作が可能な場合とは、たとえば予め視線操作を行うことが可能であると設定されたアプリケーションが実行されているときである。その対象となるアプリケーションの一例としては、電子書籍アプリケーションや、メールアプリケーションなどがあげられる。一方、視線操作が可能でない場合とは、たとえば予め視線操作を行うことが不可能であると設定されたアプリケーションが実行されているときである。その対象となるアプリケーションの一例としては、通話機能があげられる。また、視線操作が可能である場合には、その旨のメッセージないし画像(アイコン)を表示するようにしてもよい。さらに、視線操作を実行している場合には、視線入力を受け付けている(視線操作の実行中である)旨のメッセージないし画像を表示するようにしてもよい。このようにすれば、使用者は、視線操作が可能であること、視線入力が受け付けられていることを認識することが出来る。
また、携帯電話機10が加速度センサまたはジャイロセンサを有する場合、視線操作の有効/無効は、携帯電話機10の向きに応じて切り替えられてもよい。
また、他の実施例の赤外線カメラ32を構成するカラーカメラには、赤外線波長の光を減衰(カット)し、R,G,Bの波長の光をよりよく受光させるための赤外線カットフィルタ(ローパスフィルタ)が設けられていても良い。赤外線カットフィルタが設けられた赤外線カメラ32の場合、赤外線波長の光の感度を高めておくとしても良い。また、この赤外線カットフィルタを赤外線カメラ32から着脱自在としても良い。
また、本実施例で用いられたプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して携帯電話機10に配信されてもよい。また、CD,DVD,BDなどの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体に複数のプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、プログラムが本実施例と同等の構成の電子機器にインストールされた場合、本実施例と同等の効果が得られる。
そして、本明細書中で挙げた、具体的な数値は、いずれも単なる一例であり、製品の仕様変更などに応じて適宜変更可能である。
10 …携帯電話機
14 …ディスプレイ
16 …タッチパネル
30 …赤外線LED
32 …赤外線カメラ
34 …近接センサ
40 …プロセッサ
50 …入力装置
54 …フラッシュメモリ
56 …RAM
60 …LEDドライバ
62 …撮影画像処理回路

Claims (9)

  1. 複数のオブジェクトを表示する表示部を有し、前記複数のオブジェクトに対する視線入力を検出し、視線入力が検出されたオブジェクトに関連した動作を実行する、電子機器において、
    イベントが発生したときに、次のユーザ操作を予測する予測部、および
    前記予測部によって予測された次のユーザ操作を行うためのオブジェクトに対する視線入力の応答性を向上させる向上部を備えることを特徴とする、電子機器。
  2. 前記複数のオブジェクトのそれぞれには、視線入力を検出するための判定エリアが対応付けられ、
    前記向上部は、前記予測部によって次のユーザ操作が予測されたとき、そのユーザ操作を行うためのオブジェクトに対応付けられた判定エリアを拡大する拡大部を含む、請求項1記載の電子機器。
  3. 前記複数のオブジェクトのそれぞれには、視線入力を検出するための判定回数がさらに対応付けられ、
    視線入力における注視点を検出する第1検出部、
    前記第1検出部によって検出された注視点が前回の位置と同じ位置のとき、カウントするカウント部、および
    前記カウント部によってカウントされた回数が判定回数と一致したとき、オブジェクトに対する視線入力を検出する第2検出部をさらに備え、
    前記向上部は、前記予測部によって次のユーザ操作が予測されたとき、そのユーザ操作を行うためのオブジェクトに対応付けられた判定回数を標準値より小さくする判定回数変更部をさらに含む、請求項1または2記載の電子機器。
  4. 前記向上部は、前記予測部によって次のユーザ操作が予測されたとき、そのユーザ操作を行うためのオブジェクトの表示態様を変更する、請求項1ないし3のいずれかに記載の電子機器。
  5. 前記表示部は、アプリケーションによる通知があったとき通知オブジェクトを表示し、
    前記予測部は、前記通知オブジェクトが表示されたとき、前記通知オブジェクトに関連したアプリケーションを実行するユーザ操作を予測する第1予測部を含み、
    前記向上部は、前記通知オブジェクトに対する視線入力の応答性を向上させる第1向上部を含む、請求項1記載の電子機器。
  6. 前記表示部は、表示内容をスクロール可能なアプリケーションが実行されたとき、表示位置に対応するスクロールバーを表示し、
    前記予測部は、前記スクロールバーが最終位置に達したとき、実行中のアプリケーションを終了させるユーザ操作を予測する第2予測部を含み、
    前記向上部は、前記実行中のアプリケーションを終了させるオブジェクトに対する視線入力の応答性を向上させる第2向上部を含む、請求項1記載の電子機器。
  7. 複数のアプリケーションの利用履歴を記録する記録部をさらに備え、
    前記予測部は、前記複数のアプリケーションをそれぞれ実行可能な実行オブジェクトを含む特定画面が表示されたとき、利用頻度が高いアプリケーションを実行するユーザ操作を予測する第3予測部を含み、
    前記向上部は、前記利用履歴に基づいて、利用頻度が高いアプリケーションを実行するための実行オブジェクトに対する視線入力の応答性を向上させる第3向上部を含む、請求項1記載の電子機器。
  8. 複数のオブジェクトを表示する表示部を有し、前記複数のオブジェクトに対する視線入力を検出し、視線入力が検出されたオブジェクトに関連した動作を実行する、電子機器のプロセッサを、
    イベントが発生したときに、次のユーザ操作を予測する予測部、および
    前記予測部によって予測された次のユーザ操作を行うためのオブジェクトに対する視線入力の応答性を向上させる向上部として機能させる、視線入力プログラム。
  9. 複数のオブジェクトを表示する表示部を有し、前記複数のオブジェクトに対する視線入力を検出し、視線入力が検出されたオブジェクトに関連した動作を実行する、電子機器の視線入力方法であって、
    イベントが発生したときに、次のユーザ操作を予測し、そして
    予測された次のユーザ操作を行うためのオブジェクトに対する視線入力の応答性を向上させる、視線入力方法。
JP2012237400A 2012-10-29 2012-10-29 電子機器、視線入力プログラムおよび視線入力方法 Expired - Fee Related JP6043586B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012237400A JP6043586B2 (ja) 2012-10-29 2012-10-29 電子機器、視線入力プログラムおよび視線入力方法
US14/439,516 US20150301595A1 (en) 2012-10-29 2013-10-29 Electronic apparatus and eye-gaze input method
PCT/JP2013/079194 WO2014069428A1 (ja) 2012-10-29 2013-10-29 電子機器および視線入力方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012237400A JP6043586B2 (ja) 2012-10-29 2012-10-29 電子機器、視線入力プログラムおよび視線入力方法

Publications (2)

Publication Number Publication Date
JP2014086063A true JP2014086063A (ja) 2014-05-12
JP6043586B2 JP6043586B2 (ja) 2016-12-14

Family

ID=50627333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012237400A Expired - Fee Related JP6043586B2 (ja) 2012-10-29 2012-10-29 電子機器、視線入力プログラムおよび視線入力方法

Country Status (3)

Country Link
US (1) US20150301595A1 (ja)
JP (1) JP6043586B2 (ja)
WO (1) WO2014069428A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016092440A (ja) * 2014-10-29 2016-05-23 京セラ株式会社 携帯端末及び制御方法
JP2017015790A (ja) * 2015-06-28 2017-01-19 厳治 佐藤 画像やごく短い動画に文字及び音声を付帯させ、さらに携帯電話、スマートフォン、タブレット端末、パーソナルコンピューターに装備されているカメラで顔面を認識させ瞬きや眼球運動を検知することでスイッチとして利用できるインタフェースと連動し、スライドショーを実施することを可能とすることで、視覚的長期記憶(vltm)を用いたより効率的な記憶学習を行うことができる学習システム
JP2017167225A (ja) * 2016-03-14 2017-09-21 富士通株式会社 表示装置、表示制御装置、表示制御プログラム、及び表示制御方法
JP2017182218A (ja) * 2016-03-28 2017-10-05 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
JP2017176545A (ja) * 2016-03-30 2017-10-05 株式会社ニデック 眼科装置、および眼科装置制御プログラム
WO2017187708A1 (ja) * 2016-04-26 2017-11-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018041219A (ja) * 2016-09-06 2018-03-15 アイシン・エィ・ダブリュ株式会社 視点取得システムおよび視点取得プログラム
JPWO2017104320A1 (ja) * 2015-12-16 2018-10-04 ソニー株式会社 画像表示装置
JP2019501720A (ja) * 2015-12-31 2019-01-24 ミラメトリックス インコーポレイテッド 視線追跡のためのシステムおよび装置
WO2019135313A1 (ja) * 2018-01-04 2019-07-11 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10712815B2 (en) 2017-07-26 2020-07-14 Fujitsu Limited Information processing device and display method
JP2020190851A (ja) * 2019-05-20 2020-11-26 コニカミノルタ株式会社 情報処理装置及びプログラム
WO2022074815A1 (ja) * 2020-10-09 2022-04-14 マクセル株式会社 携帯端末とヘッドマウントディスプレイ及びその連携表示システム
JP7431567B2 (ja) 2019-12-10 2024-02-15 キヤノン株式会社 電子機器およびその制御方法、プログラム、並びに記憶媒体

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9406103B1 (en) 2012-09-26 2016-08-02 Amazon Technologies, Inc. Inline message alert
US9075435B1 (en) * 2013-04-22 2015-07-07 Amazon Technologies, Inc. Context-aware notifications
JP6398987B2 (ja) * 2013-11-01 2018-10-03 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2015090569A (ja) * 2013-11-06 2015-05-11 ソニー株式会社 情報処理装置及び情報処理方法
US11010042B2 (en) * 2014-02-13 2021-05-18 Lenovo (Singapore) Pte. Ltd. Display of different versions of user interface element
US10068078B2 (en) * 2015-10-15 2018-09-04 Microsoft Technology Licensing, Llc Electronic devices with improved iris recognition and methods thereof
TW201740250A (zh) * 2016-05-04 2017-11-16 原相科技股份有限公司 觸控偵測方法以及觸控偵測系統
JP7142350B2 (ja) * 2018-09-12 2022-09-27 株式会社トーメーコーポレーション 検眼装置
CN109587344A (zh) * 2018-12-28 2019-04-05 北京七鑫易维信息技术有限公司 基于移动终端的通话控制方法、装置、移动终端及介质
CN112783330A (zh) * 2021-03-16 2021-05-11 展讯通信(上海)有限公司 电子设备的操作方法、装置和电子设备
CN116225209A (zh) * 2022-11-03 2023-06-06 溥畅(杭州)智能科技有限公司 一种基于眼动追踪的人机交互方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08272517A (ja) * 1995-03-28 1996-10-18 Sanyo Electric Co Ltd 視線対応選択装置及び方法並びに情報処理装置
JP2012022632A (ja) * 2010-07-16 2012-02-02 Canon Inc 情報処理装置およびその制御方法
JP2012074052A (ja) * 2011-11-04 2012-04-12 Toshiba Corp 表示制御装置、画像処理装置、表示制御方法
JP2013161412A (ja) * 2012-02-08 2013-08-19 Ntt Docomo Inc ユーザインタフェース装置、ユーザインタフェース方法及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050047629A1 (en) * 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
JP2006071619A (ja) * 2004-08-03 2006-03-16 Denso Corp ナビゲーション装置およびプログラム
WO2012012262A1 (en) * 2010-07-19 2012-01-26 Google Inc. Predictive hover triggering
US9690099B2 (en) * 2010-12-17 2017-06-27 Microsoft Technology Licensing, Llc Optimized focal area for augmented reality displays
US9135508B2 (en) * 2011-12-20 2015-09-15 Microsoft Technology Licensing, Llc. Enhanced user eye gaze estimation
US20130246383A1 (en) * 2012-03-18 2013-09-19 Microsoft Corporation Cursor Activity Evaluation For Search Result Enhancement
US9736373B2 (en) * 2013-10-25 2017-08-15 Intel Corporation Dynamic optimization of light source power

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08272517A (ja) * 1995-03-28 1996-10-18 Sanyo Electric Co Ltd 視線対応選択装置及び方法並びに情報処理装置
JP2012022632A (ja) * 2010-07-16 2012-02-02 Canon Inc 情報処理装置およびその制御方法
JP2012074052A (ja) * 2011-11-04 2012-04-12 Toshiba Corp 表示制御装置、画像処理装置、表示制御方法
JP2013161412A (ja) * 2012-02-08 2013-08-19 Ntt Docomo Inc ユーザインタフェース装置、ユーザインタフェース方法及びプログラム

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016092440A (ja) * 2014-10-29 2016-05-23 京セラ株式会社 携帯端末及び制御方法
JP2017015790A (ja) * 2015-06-28 2017-01-19 厳治 佐藤 画像やごく短い動画に文字及び音声を付帯させ、さらに携帯電話、スマートフォン、タブレット端末、パーソナルコンピューターに装備されているカメラで顔面を認識させ瞬きや眼球運動を検知することでスイッチとして利用できるインタフェースと連動し、スライドショーを実施することを可能とすることで、視覚的長期記憶(vltm)を用いたより効率的な記憶学習を行うことができる学習システム
JPWO2017104320A1 (ja) * 2015-12-16 2018-10-04 ソニー株式会社 画像表示装置
US10984236B2 (en) 2015-12-31 2021-04-20 Mirametrix Inc. System and apparatus for gaze tracking
JP7053469B2 (ja) 2015-12-31 2022-04-12 ミラメトリックス インコーポレイテッド 視線追跡のためのシステムおよび装置
JP2019501720A (ja) * 2015-12-31 2019-01-24 ミラメトリックス インコーポレイテッド 視線追跡のためのシステムおよび装置
JP2017167225A (ja) * 2016-03-14 2017-09-21 富士通株式会社 表示装置、表示制御装置、表示制御プログラム、及び表示制御方法
JP2017182218A (ja) * 2016-03-28 2017-10-05 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
JP2017176545A (ja) * 2016-03-30 2017-10-05 株式会社ニデック 眼科装置、および眼科装置制御プログラム
US11017257B2 (en) 2016-04-26 2021-05-25 Sony Corporation Information processing device, information processing method, and program
JP7092028B2 (ja) 2016-04-26 2022-06-28 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
WO2017187708A1 (ja) * 2016-04-26 2017-11-02 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JPWO2017187708A1 (ja) * 2016-04-26 2019-02-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018041219A (ja) * 2016-09-06 2018-03-15 アイシン・エィ・ダブリュ株式会社 視点取得システムおよび視点取得プログラム
US10712815B2 (en) 2017-07-26 2020-07-14 Fujitsu Limited Information processing device and display method
JPWO2019135313A1 (ja) * 2018-01-04 2020-12-17 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11314326B2 (en) 2018-01-04 2022-04-26 Sony Corporation Information processing device, information processing method, and program for determining a user gaze
WO2019135313A1 (ja) * 2018-01-04 2019-07-11 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP7272278B2 (ja) 2018-01-04 2023-05-12 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
JP2020190851A (ja) * 2019-05-20 2020-11-26 コニカミノルタ株式会社 情報処理装置及びプログラム
JP7275846B2 (ja) 2019-05-20 2023-05-18 コニカミノルタ株式会社 情報処理装置及びプログラム
JP7431567B2 (ja) 2019-12-10 2024-02-15 キヤノン株式会社 電子機器およびその制御方法、プログラム、並びに記憶媒体
WO2022074815A1 (ja) * 2020-10-09 2022-04-14 マクセル株式会社 携帯端末とヘッドマウントディスプレイ及びその連携表示システム

Also Published As

Publication number Publication date
JP6043586B2 (ja) 2016-12-14
US20150301595A1 (en) 2015-10-22
WO2014069428A1 (ja) 2014-05-08

Similar Documents

Publication Publication Date Title
JP6043586B2 (ja) 電子機器、視線入力プログラムおよび視線入力方法
WO2014084224A1 (ja) 電子機器および視線入力方法
KR101927438B1 (ko) 홀 영역을 가지는 전자 장치 및 전자 장치의 홀 영역 제어방법
EP3306441B1 (en) Temperature control method and apparatus
JP6105953B2 (ja) 電子機器、視線入力プログラムおよび視線入力方法
CN112181572B (zh) 互动特效展示方法、装置、终端及存储介质
EP2975838A1 (en) Image shooting parameter adjustment method and device
EP3046017A1 (en) Unlocking method, device and terminal
CN108024009B (zh) 一种电子设备及其方法
KR102485448B1 (ko) 제스처 입력을 처리하기 위한 전자 장치 및 방법
KR20180061835A (ko) 전자 장치 및 전자 장치에서 홍채 인식을 위한 이미지 표시 방법
EP3709147B1 (en) Method and apparatus for determining fingerprint collection region
KR102547115B1 (ko) 어플리케이션을 전환하기 위한 방법 및 그 전자 장치
CN108427533B (zh) 电子设备及用于确定电子设备的环境的方法
CN114115647B (zh) 菜单项调整方法、装置及终端
EP3232301B1 (en) Mobile terminal and virtual key processing method
JP2014027386A (ja) 携帯端末、省電力制御プログラムおよび省電力制御方法
KR20170035079A (ko) 전자 장치 및 촬영 방법
JP2013240000A (ja) 電子機器、録音制御プログラムおよび録音制御方法
KR20170127809A (ko) 전자 장치 및 전자 장치에서의 정보 제공 방법
KR102536148B1 (ko) 전자 장치의 동작 방법 및 장치
KR102379898B1 (ko) 포커스에 대한 그래픽 인디케이터를 제공하는 전자 장치와 이의 동작 방법
KR20170114468A (ko) 전자 장치 및 이의 음향 부품을 이용한 제어 방법
EP3862853A1 (en) Touch operation locking method and electronic device
CN107924285B (zh) 电子设备及其操作方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161114

R150 Certificate of patent or registration of utility model

Ref document number: 6043586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees