JPWO2014084224A1 - 電子機器および視線入力方法 - Google Patents

電子機器および視線入力方法 Download PDF

Info

Publication number
JPWO2014084224A1
JPWO2014084224A1 JP2014550205A JP2014550205A JPWO2014084224A1 JP WO2014084224 A1 JPWO2014084224 A1 JP WO2014084224A1 JP 2014550205 A JP2014550205 A JP 2014550205A JP 2014550205 A JP2014550205 A JP 2014550205A JP WO2014084224 A1 JPWO2014084224 A1 JP WO2014084224A1
Authority
JP
Japan
Prior art keywords
line
sight
user
input
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014550205A
Other languages
English (en)
Inventor
三木 康弘
康弘 三木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Publication of JPWO2014084224A1 publication Critical patent/JPWO2014084224A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

携帯電話機はディスプレイなどを有し、ユーザの注視点に基づいて視線入力を検出する。また、携帯電話機は、ディスプレイに表示されるオブジェクトに対する視線入力が検出されると、オブジェクトに関連する所定の処理を実行する。たとえば、電子書籍アプリケーションが実行されているときに、ユーザの注視点が電子書籍の本文を表示する領域に含まれている場合、視線入力の検出精度が低精度モードに設定される。一方、ユーザの注視点が本文を表示していない他の領域に含まれている場合、視線入力の検出精度が高精度モードに設定される。そして、このように視線入力の検出精度が設定された後に、ユーザの視線が検出される。

Description

この発明は、電子機器および視線入力方法に関し、特にたとえば、視線入力を検出する、電子機器および視線入力方法に関する。
背景技術の一例であるデータ入力装置は、メニュー又はキーボード等の入力データ群を表示装置で表示し、該装置使用者の眼の部分をカメラで撮影し、該撮影画像から該使用者の視線方向を決定し、該視線方向に位置する入力データを決定し、決定された入力データを外部機器等に出力する。
背景技術の他の例である視線検出装置は、撮影した画像から被験者の瞳孔の中心および角膜反射点を検出することで、被験者の視線を検出する。
しかし、視線入力デバイスは、センサと眼球との距離に比例して機器が大きくなる傾向がある。したがって、たとえば携帯端末のような比較的小型の電子機器に搭載することを考慮すると、上述の2つの背景技術では、装置が大きく、適切でない。
また、視線を検出するときには、カメラ等の電源をオンにしたままにしなければならず、装置の消費電力が高くなる。据え置き型の装置であれば、消費電力はさほど問題にはならないが、可搬型の装置の場合、高い消費電力は大きな問題となる。
それゆえに、この発明の主たる目的は、新規な、電子機器および視線入力方法を提供することである。
この発明の他の目的は、ユーザの視線を検出しているときの消費電力を抑えることが出来る、電子機器および視線入力方法を提供することである。
この発明の第1の局面は、ユーザの注視点に基づく入力である視線入力を検出し、視線入力に基づく動作を実行する、電子機器であって、視線入力を検出するための検出処理を実行するプロセッサ、特定領域および操作用のオブジェクトを表示するオブジェクト表示領域を含む画面を表示する表示部、注視点を検出する検出部、ユーザの注視点が特定領域に含まれているとき、視線入力の検出精度を第1精度モードに設定する第1設定部、およびユーザの注視点がオブジェクト表示領域に含まれているとき、視線入力の検出精度を、第1精度モードより検出精度が高い第2精度モードに設定する第2設定部を備える、電子機器である。
この発明の第2の局面は、ユーザの注視点に基づく入力である視線入力を検出し、視線入力に基づく動作を実行し、視線入力を検出するための検出処理を実行するプロセッサおよび特定領域および操作用のオブジェクトを表示するオブジェクト表示領域を含む画面を表示する表示部を有する、電子機器における視線入力方法であって、電子機器のプロセッサが、ユーザの注視点が特定領域に含まれているとき、視線入力の検出精度を第1精度モードに設定する第1設定ステップ、およびユーザの注視点がオブジェクト表示領域に含まれているとき、視線入力の検出精度を、第1精度モードより検出精度が高い第2精度モードに設定する第2設定ステップを実行する、視線入力方法である。
この発明の一態様によれば、ユーザの視線を検出しているときの消費電力を抑えることが出来る。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例の携帯電話機を示す外観図である。 図2は図1に示す携帯電話機の電気的な構成を示すブロック図である。 図3は図1に示すディスプレイの表示面で検出される注視点の一例を示す図解図である。 図4は図1に示す赤外線カメラによって撮影される瞳孔とプルキニエ像との一例を示す図解図である。 図5は図2に示すプロセッサによって算出される視線ベクトルの一例を示す図解図であり、図5(A)は第1中心位置および第2中心位置の一例を示し、図5(B)は視線ベクトルの一例を示す。 図6は図1に示すディスプレイに表示されるオブジェクトの表示例を示す図解図である。 図7は図2に示すRAMのメモリマップの一例を示す図解図である。 図8は図2に示すプロセッサの視線入力処理の一部の一例を示すフロー図である。 図9は図2に示すプロセッサの視線入力処理の他の一部の一例であって、図8に後続するフロー図である。 図10は図9に示す高精度モードが設定されたときの動作状態の一例を示す図解図である。 図11は図9に示す具体例1の低精度モードが設定されたときの動作状態の一例を示す図解図である。 図12は図9に示す具体例2の低精度モードが設定されたときの動作状態の一例を示す図解図である。 図13は図9に示す具体例3の低精度モードが設定されたときの動作状態の一例を示す図解図である。 図14は図2に示すプロセッサの視線入力処理のその他の一例を示すフロー図である。 図15は図1に示すディスプレイに表示される他の実施例のオブジェクトの表示例を示す図解図である。
図1を参照して、この発明の一実施例の携帯電話機10は、いわゆるスマートフォンであり、縦長の扁平矩形のハウジング12を含む。ハウジング12の主面(表面)には、表示部として機能する、たとえば液晶や有機ELなどで構成されるディスプレイ14が設けられる。このディスプレイ14の上には、タッチパネル16が設けられる。また、ハウジング12の縦方向一端の表面側にスピーカ18が内蔵され、縦方向他端の表面側にマイク20が内蔵される。さらに、タッチパネル16とともに、ハードウェアキーとして、通話キー22、終話キー24およびメニューキー26が設けられる。さらにまた、マイク20の左側に赤外線LED30および赤外線カメラ32が設けられ、スピーカ18の右側に近接センサ34が設けられる。ただし、赤外線LED30の発光面と、赤外線カメラ32の撮影面と、近接センサ34の検出面とはハウジング12から露出するように設けられ、その他の部分はハウジング12に内蔵される。
たとえば、ユーザは、ディスプレイ14に表示されたダイヤルキーに対して、タッチパネル16によってタッチ操作を行うことで電話番号を入力でき、通話キー22を操作して音声通話を開始することが出来る。終話キー24を操作すれば、音声通話を終了することが出来る。また、この終話キー24を長押しすることによって、携帯電話機10の電源をオン/オフすることが出来る。
また、メニューキー26が操作されると、ディスプレイ14にメニュー画面が表示される。ユーザは、その状態でディスプレイ14に表示されているソフトウェアキーやメニューアイコンなどに対して、タッチパネル16によるタッチ操作を行うことによって、ソフトウェアキーやアイコンに対して選択操作を行うことが出来る。
なお、この実施例では、電子機器の一例としてスマートフォン(smartphone)のような携帯電話機について説明するが、表示装置を備える様々な電子機器に、この発明を適用可能であることを予め指摘しておく。たとえば、他の電子機器の例としては、フィーチャーフォン(featurephone)、電子書籍端末、タブレット端末、PDA、ノート型PCやディスプレイ装置などの任意の電子機器などが該当する。
図2を参照して、図1に示す携帯電話機10はプロセッサ40を含み、このプロセッサ40には、赤外線カメラ32、近接センサ34、無線通信回路42、A/D変換器46、D/A変換器48、入力装置50、表示ドライバ52、フラッシュメモリ54、RAM56、タッチパネル制御回路58、LEDドライバ60および撮影画像処理回路62などが接続される。
プロセッサ40は、コンピュータまたはCPUと呼ばれ、携帯電話機10の全体制御を司る。プロセッサ40には、RTC40aが内蔵されており、このRTC40aによって日時が計時される。RAM56には、フラッシュメモリ54に予め記憶されているプログラムの全部または一部が使用に際して展開(ロード)され、プロセッサ40はこのRAM56に展開されたプログラムに従って各種の処理を実行する。このとき、RAM56は、プロセッサ40のワーキング領域ないしバッファ領域として用いられる。
入力装置50は、図1に示すハードウェアキー(22、24、26)を含み、タッチパネル16およびタッチパネル制御回路58とともに操作部ないし入力部として機能する。ユーザが操作したハードウェアキーの情報(キーデータ)はプロセッサ40に入力される。以下、ハードウェアキーによる操作を「キー操作」ということにする。
無線通信回路42は、アンテナ44を通して、音声通話やメールなどのための電波を送受信するための回路である。実施例では、無線通信回路42は、CDMA方式での無線通信を行うための回路である。たとえば、ユーザが入力装置50を操作して電話発信(発呼)を指示すると、無線通信回路42は、プロセッサ40の指示の下、電話発信処理を実行し、アンテナ44を介して電話発信信号を出力する。電話発信信号は、基地局および通信網を経て相手の電話機に送信される。そして、相手の電話機において着信処理が行われると、通信可能状態が確立され、プロセッサ40は通話処理を実行する。
A/D変換器46には図1に示すマイク20が接続され、マイク20からの音声信号はこのA/D変換器46を通してディジタルの音声データとしてプロセッサ40に入力される。D/A変換器48にはスピーカ18が接続される。D/A変換器48は、ディジタルの音声データを音声信号に変換して、アンプを介してスピーカ18に与える。したがって、音声データの音声がスピーカ18から出力される。そして、通話処理が実行されている状態では、マイク20によって集音された音声が相手の電話機に送信され、相手の電話機で集音された音声が、スピーカ18から出力される。
なお、プロセッサ40は、たとえばユーザによるボリュームを調整するための操作に応答して、D/A変換器48に接続されるアンプの増幅率を制御することによって、スピーカ18から出力される音声の音量を調整することが出来る。
また、表示ドライバ52は、プロセッサ40の指示の下、当該表示ドライバ52に接続されたディスプレイ14の表示を制御する。また、表示ドライバ52は表示する画像データを一時的に記憶するビデオメモリを含む。ディスプレイ14には、たとえばLEDなどを光源とするバックライトが設けられており、表示ドライバ52はプロセッサ40の指示に従って、そのバックライトの明るさや、点灯/消灯を制御する。
タッチパネル制御回路58には、図1に示すタッチパネル16が接続される。タッチパネル制御回路58は、タッチパネル16に必要な電圧などを付与するとともに、ユーザによるタッチの開始を示すタッチ開始信号、ユーザによるタッチの終了を示す終了信号、およびタッチ位置を示す座標データをプロセッサ40に入力する。したがって、プロセッサ40はこの座標データに基づいて、ユーザが、どのアイコンやキーにタッチしたかを判断することが出来る。
タッチパネル16は、その表面と表面に接近した指などの物体との間に生じる静電容量の変化を検出する静電容量方式のタッチパネルである。タッチパネル16は、たとえば1本または複数本の指がタッチパネル16に触れたことを検出する。
タッチパネル制御回路58は検出部として機能し、タッチパネル16のタッチ有効範囲内でのタッチ操作を検出して、そのタッチ操作の位置を示す座標データ(タッチ座標データ)をプロセッサ40に出力する。プロセッサ40は、タッチパネル制御回路58より入力されたタッチ座標データに基づいて、ユーザがどのアイコンやキーにタッチしたかを判断することが出来る。以下、タッチパネル16による操作を「タッチ操作」ということにする。
なお、本実施例のタッチ操作には、タップ操作、ロングタップ操作、フリック操作、スライド操作などが含まれる。また、タッチパネル16は、表面型の静電容量方式が採用されてもよいし、抵抗膜方式、超音波方式、赤外線方式および電磁誘導方式などが採用されてもよい。また、タッチ操作はユーザの指に限らず、スタイラスペンなどによって行われてもよい。
近接センサ34は、図示は省略するが、発光素子(たとえば、赤外線LED)と受光素子(たとえば、フォトダイオード)とを含む。プロセッサ40は、フォトダイオードの出力の変化から、近接センサ34(携帯電話機10)に近接する物体(たとえば、ユーザの顔など)の距離を算出する。具体的には、発光素子は赤外線を発光し、受光素子は、顔などで反射した赤外線を受光する。たとえば、受光素子がユーザの顔から遠い場合は、発光素子から発せられた赤外線は受光素子によってほとんど受光されない。一方、近接センサ34にユーザの顔が近接すると、発光素子が発光した赤外線は顔に反射して受光素子によって受光される。このように、受光素子は近接センサ34がユーザの顔に近接している場合とそうでない場合とで赤外線の受光量が変化するため、プロセッサ40は、その受光量に基づいて、近接センサ34から物体までの距離を算出することができる。
LEDドライバ60には、図1に示す赤外線LED30が接続される。LEDドライバ60は、プロセッサ40からの制御信号に基づいて、赤外線LED30のオン/オフ(点灯/消灯)を切り換える。
撮影画像処理回路62には、撮影部として機能する赤外線カメラ32(図1参照)が接続される。撮影画像処理回路62は、赤外線カメラ32からの撮影画像データに画像処理を施し、モノクロの画像データをプロセッサ40に入力する。赤外線カメラ32は、プロセッサ40の指示の下、撮影処理を実行し、撮影画像データを撮影画像処理回路62に入力する。赤外線カメラ32は、たとえば、CCDやCMOSのような撮影素子を用いたカラーカメラと、R、G、Bの波長の光を減衰(カット)し、赤外線波長の光を透過する赤外線透過フィルタとによって構成される。したがって、赤外線透過フィルタを着脱可能な構成にすれば、赤外線透過フィルタを外すことにより、カラー画像を取得することも可能である。
なお、上で説明した無線通信回路42、A/D変換器46およびD/A変換器48はプロセッサ40に含まれていてもよい。
このような構成の携帯電話機10では、キー操作やタッチ操作に代えて、視線による入力操作(以下、「視線操作」ということがある。)が可能である。視線操作では、視線とディスプレイ14の表示面とが交差する点(注視点)によって指示される所定の領域(以下、判定エリア)に対応づけて設定された所定の処理が実行される。以下、図面を用いて、注視点の検出方法について説明する。
図3を参照して、ユーザは、左右の目の内、自身の利き目を設定する。利き目(ここでは左目)が設定されると、赤外線LED30が発光した赤外線が照射されたユーザ(被写体)の顔を、赤外線カメラ32によって撮影する。撮影された画像に対して特徴点抽出の技術を用いて、眼球周辺画像を取得する。次に、取得された眼球周辺画像に対してラベリング処理によって瞳孔が検出され、微分フィルタ処理によって赤外線(赤外光)による反射光(プルキニエ像)が検出される。なお、撮影画像から瞳孔やプルキニエ像を検出する方法を概説したが、これらの方法は既に周知であり、この実施例の本質的な内容ではないため、詳細な説明は省略する。
図1に示したように、赤外線LED30と赤外線カメラ32とがディスプレイ14の下側に並べて配置(接近して配置)されているため、図4に示すように、瞼が比較的大きく開いている状態および瞼が少し閉じている状態のいずれであっても、プルキニエ像を検出することが出来る。なお、赤外線LED30と赤外線カメラ32との距離は、ユーザが携帯電話機10を使用する際における、ユーザの顔と携帯電話機10(筐体の表面ないしディスプレイ14の表示面)との距離や携帯電話機10の大きさなどによって決定される。
プロセッサ40は、撮影画像から瞳孔およびプルキニエ像を検出すると、利き目の視線の方向(視線ベクトルV)を検出する。具体的には、赤外線カメラ32で撮影された2次元の撮影画像におけるプルキニエ像の位置から瞳孔の位置に向けたベクトルが検出される。つまり、図5(A),(B)に示すように、第1中心位置Aから第2中心位置中心Bに向けたベクトルが視線ベクトルVである。赤外線カメラ32における座標系は予め決定されており、その座標系を用いて視線ベクトルVが算出される。
そして、このようにして算出された視線ベクトルVを用いて、視線操作の初期設定としてキャリブレーションが行われる。本実施例では、ディスプレイ14の四隅をそれぞれ注視したときの視線ベクトルVを取得し、各視線ベクトルVをキャリブレーションデータとして保存する。
視線操作が行われる際には、赤外線カメラ32によって画像が撮影される度に、視線ベクトルVを求め、キャリブレーションデータと比較することによって、注視点が検出される。そして、注視点が、判定エリア内で検出された回数が判定回数と一致したときに、プロセッサ40は、その注視点に対して視線入力がされたものとして検出する。
また、本実施例では、ユーザの両目の距離L(図3参照)が、左右の目のプルキニエ像の中心位置から算出される。そして、ユーザの両目の距離Lはキャリブレーションデータと共に保存される。注視点を検出する処理が実行され視線ベクトルVが算出されると、注視点を検出するときに記録された両目の距離Lと現在の両目の距離Lとが比較され、ディスプレイ14とユーザの顔との距離が変化しているかが判断される。ディスプレイ14とユーザの顔との距離が変化していると判断されると、記録された両目の距離Lと現在の両目の距離Lとから変化量が算出され、視線ベクトルVの大きさが補正される。たとえば、変化量に基づいて、ユーザの顔の位置がキャリブレーションを行ったときに対して離れた状態であると判断されると、視線ベクトルVは大きくなるよう補正される。また、変化量に基づいて、ユーザの顔の位置がキャリブレーションを行ったときに対して近づいた状態であると判断されると、視線ベクトルVは小さくなるように補正される。
また、詳細な説明は省略するが、本実施例の注視点検出処理では、眼球の形状によって生じる誤差、キャリブレーション時の測定誤差および撮影時の量子化誤差なども補正されている。
したがって、本実施例では、携帯電話機10のような小型の電子機器であっても、高精度な視線入力を実現することが可能となる。
図6は、電子書籍アプリケーションが実行されているときのディスプレイ14の表示例を示す図解図である。ディスプレイ14は状態表示領域70および機能表示領域72を含む。状態表示領域70には、アンテナ44による電波受信状態を示すアイコン(ピクト)、二次電池の残電池容量を示すアイコンおよび時刻が表示される。
機能表示領域72には、標準キーであるHOMEキー90およびBACKキー92が表示される標準キー表示領域80と、前のページに戻るための戻るキー94が表示される第1アプリケーションキー表示領域82と、次のページに進むための進むキー96が表示される第2アプリケーションキー表示領域84と、電子書籍の本文が表示される本部表示領域86とが含まれる。
HOMEキー90は、実行中のアプリケーションを終了させて、待機画面を表示させるためのキーである。BACKキー92は、実行中のアプリケーションを終了させて、アプリケーションが実行される前の画面を表示するためのキーである。そして、HOMEキー90およびBACKキー92は、実行されるアプリケーションの種類に関係なく、アプリケーションが実行されていれば表示される。
また、未読の新着メールや不在着信などがある場合、状態表示領域70には、通知アイコンが表示される。たとえば、新着メールを受信した場合、状態表示領域70には、通知アイコンとして、新着メールアイコンが表示される。未読の新着メールや不在着信が無い場合は、通知アイコンは表示されない。
なお、ディスプレイ14に表示されるキー、GUI、ウィジェット(ガジェット)などは、まとめてオブジェクトと呼ばれる。また、標準キー表示領域80、第1アプリケーションキー表示領域82および第2アプリケーションキー表示領域84は、まとめてオブジェクト表示領域と呼ばれることもある。
そして、ユーザは、これらのオブジェクトに対して視線入力を行うことで、実行されているアプリケーションを任意に操作することが出来る。たとえば、戻るキー94または進むキー96に対して視線入力が行われると、表示されている電子書籍のページが変更される。
ここで、本実施例では、視線入力の検出が開始されると、ユーザの注視点に基づいて視線入力の検出精度を変更する。ここで、本実施例では、低精度モード(第1精度モード)と、その低精度モードに対して視線入力の検出精度が高い高精度モード(第2精度モード)を設定することが出来る。また、低精度モードでは、ユーザの視線を検出するための処理が簡略化されるため、ユーザの視線が検出されているときの消費電力が抑えられる。
そして、視線入力の検出が開始されたときに、ユーザの注視点が特定領域に含まれる場合は、視線入力の検出精度が低精度モードに設定される。一方、ユーザの注視点が特定領域に含まれない場合は、視線入力の検出精度が高精度モードに設定される。
たとえば、図6を参照して、電子書籍アプリケーションが実行されている場合、本文表示領域86が特定領域とされる。これは、電子書籍の本文が表示されている領域では、ユーザの視線入力の検出がさほど重要ではないからである。そのため、ユーザの視線が電子書籍の本文に向けられている場合は、視線入力の検出精度が低精度モードに設定される。一方、オブジェクト表示領域に対してユーザの視線が向けられている場合は、オブジェクトに対して視線入力がされる可能性がある。そのため、視線入力の検出精度が高精度モードに設定される。
このように、ユーザの注視点の位置に基づいて視線入力の検出精度を変化させることで、ユーザの視線を検出しているときの消費電力を抑えることが出来る。
なお、通常状態では高精度モードが設定され、低消費電力で視線入力を検出するために低精度モードが設定されるため、高精度モードは「通常モード」と呼ばれ、低精度モードは「省電力モード」と呼ばれることもある。
また、他の実施例では、文章が表示される、メールアプリケーションや、ブラウザアプリケーションの実行中に、上述の電子書籍アプリケーションと同様、高精度モードまたは低精度モードが設定されてもよい。また、他のプリケーションが実行されている場合の特定領域は、アプリケーション毎に設定されていてもよいし、領域内に表示される文字数が所定値を超えている場合に、特定領域と判定されてもよい。
以下、図7に示すメモリマップ500および図8−図9に示すフロー図を用いて、本実施例の概要を説明する。
図7を参照して、図2に示すRAM56には、プログラム記憶領域502とデータ記憶領域504とが形成される。プログラム記憶領域502は、先に説明したように、フラッシュメモリ54(図2)に予め設定しているプログラムデータの一部または全部を読み出して記憶(展開)しておくための領域である。
プログラム記憶領域502には、視線入力を検出し、その視線入力に基づく動作を実行するための視線入力プログラム510などが記憶される。なお、プログラム記憶領域502には、電話機能、メール機能およびアラーム機能などを実行するためのプログラムなども含まれる。
データ記憶領域504には、近接バッファ530、注視点バッファ532および視線バッファ534などが設けられる。また、データ記憶領域504には、領域座標テーブル536、オブジェクトデータ538およびオブジェクトテーブル540などが記憶される。
近接バッファ530は、近接センサ34から得られた物体までの距離情報が一時的に記憶される。注視点バッファ532は、検出された注視点が一時的に記憶される。視線バッファ534は、視線入力が検出されたときにその位置が一時的に記憶される。
領域座標テーブル536は、たとえば、状態表示領域70、機能表示領域72、標準キー表示領域80、第1アプリケーションキー表示領域82および第2アプリケーションキー表示領域84の座標範囲の情報を含むテーブルである。オブジェクトデータ538は、ディスプレイ14に表示されるオブジェクトの画像および文字列データなどを含むデータである。オブジェクトテーブル540は、ディスプレイ14に表示されているオブジェクトの表示位置(座標範囲)などの情報を含むテーブルである。
図示は省略するが、データ記憶領域504には、プログラム記憶領域502に記憶された各プログラムの実行に必要な、他のデータが記憶されたり、タイマ(カウンタ)や、フラグが設けられたりする。
プロセッサ40は、Android(登録商標)またはREXなどのLinux(登録商標)ベースのOSや、その他のOSの制御下で、図8および図9に示す視線入力処理などを含む、複数のタスクを並列的に処理する。
視線入力による操作が有効とされると、視線入力処理が実行される。プロセッサ40は、ステップS1で近接センサ34をオンにする。つまり、近接センサ34によって携帯電話機10からユーザまでの距離が測定される。続いて、ステップS3でプロセッサ40は、近接センサ34の出力が閾値未満であるか否かを判断する。つまり、赤外線LED30から出力される赤外線がユーザの眼に影響を与える範囲にユーザの顔が存在しているかが判断される。ステップS3で“NO”であれば、つまり近接センサ34の出力が閾値以上でれば、プロセッサ40は、ステップS5で近接センサ34をオフにして、視線入力処理を終了する。つまり、赤外線LED30から出力される赤外線がユーザの眼に影響を与える可能性があるため、視線入力処理が終了される。なお、他の実施例では、ステップS5の後に、ユーザの顔を携帯電話機10から離すように促す通知(たとえば、ポップアップや、音声)がされてもよい。
ステップS3で“YES”であれば、たとえば携帯電話機10とユーザの顔とが適切な距離であれば、プロセッサ40は、ステップS7で赤外線LED30をオンにし、ステップS9で赤外線カメラ32をオンにする。つまり、ユーザの視線入力を検出するために、赤外線LED30および赤外線カメラ32がオンにされる。
続いて、ステップS11でプロセッサ40は、顔認識処理を実行する。つまり、ユーザの赤外線カメラ32によって撮影された画像データをRAM56から読み出し、読み出した画像データに対してユーザの顔を検出する処理が施される。続いて、ステップS13でプロセッサ40は、認識されたか否かを判断する。つまり、顔認識処理によって、ユーザの顔が認識されたかが判断される。ステップS13で“NO”であれば、つまりユーザの顔が認識されていなければ、プロセッサ40はステップS11の処理に戻る。
一方、ステップS13で“YES”であれば、つまりユーザの顔が認識されると、ステップS15でプロセッサ40は、注視点を検出する。つまり、ユーザが注視しているディスプレイ14上の位置が検出される。なお、検出された注視点の座標は注視点バッファ532に記録される。また、ステップS15の処理を実行するプロセッサ40は検出部として機能する。
続いて、ステップS17でプロセッサ40は、注視点を検出したか否かを判断する。つまり、プロセッサ40は、認識された顔の画像からユーザの注視点を検出できたかを判断する。ステップS17で“NO”であれば、つまり注視点が検出されていなければ、プロセッサ40はステップS11の処理に戻る。
一方、ステップS17で“YES”であれば、つまり注視点が検出されていれば、ステップS19でプロセッサ40は、注視点が特定領域に含まれているか否かを判断する。たとえば、注視点バッファ532に記録されている注視点が、領域座標デーブル536に含まれる本文表示領域86の座標範囲に含まれているかが判断される。ステップS19で“YES”であれば、たとえば図6に示す本文表示領域86にユーザの注視点が含まれていれば、ステップS21でプロセッサ40は、低精度モードを設定する。一方、ステップS19で“NO”であれば、つまり特定領域に注視点が含まれていなければ、ステップS23でプロセッサ40は、高精度モードを設定する。そして、ステップS21またはステップS23の処理が終了すれば、プロセッサ40はステップS25の処理に進む。なお、ステップS21の処理を実行するプロセッサ40は第1設定部として機能し、ステップS23の処理を実行するプロセッサ40は第2設定部として機能する。
続いて、ステップS25でプロセッサ40は、視線検出処理を実行する。つまり、設定された検出精度に基づいて、ユーザの視線入力が検出される。
続いて、ステップS27でプロセッサ40は、視線入力が行われた位置に基づいて動作を実行する。たとえば、オブジェクトに対して視線入力が行われた場合、そのオブジェクトに関連するアプリケーションや、処理が実行される。ただし、本文表示領域86の文字に対して視線入力が検出された場合、その文字に処理や動作が対応付けられていなければ、プロセッサ40は特に動作を実行しない。
続いて、ステップS29でプロセッサ40は、視線入力が終了か否かを判断する。たとえば、プロセッサ40は、視線入力を無効にする操作がされたかを判断する。ステップS29で“NO”であれば、つまり視線入力が終了していなければ、プロセッサ40はステップS11の処理に戻る。一方、ステップS29で“YES”であれば、つまり視線入力が終了していれば、ステップS31でプロセッサ40は、赤外線LED30、赤外線カメラ32および近接センサ34をオフにする。つまり、これらの電源をオフにすることで、携帯電話機10の消費電力が抑えられる。そして、ステップS31の処理が終了すれば、プロセッサ40は、視線入力処理を終了する。
以上で、本実施例の概要を説明したが、以下には図10−図13に示す図解図を用いて、低精度モードの具体例を説明する。
<具体例1>
具体例1の第1低精度モードでは、赤外線カメラ32のフレームレートが、高精度モードに対して低くされる。以下、高精度モードと第1低精度モードとの動作状態を比較して説明する。
図10は、高精度モードが設定されているときの赤外線カメラ32、プロセッサ40、赤外線LED30の動作状態を示す図解図である。高精度モードでは、赤外線LED30は常に点灯しており、赤外線カメラ32は20fps(Frames Per Second)のフレームレートで撮影画像を出力している。また、撮影画像が赤外線カメラ32から撮影画像処理回路62に出力され、撮影画像処理回路62で所定の処理が施された後にプロセッサ40に入力されると、プロセッサ40は撮影画像をRAM56のバッファに一旦格納した後、視線検出に必要な処理を、撮影画像に施す。たとえば、プロセッサ40は、視線検出に必要な処理として、撮影画像処理回路62から入力された撮影画像をRAM56のバッファから撮影画像を読み出す画像読出処理、読み出した撮影画像から顔を認識する顔認識処理およびユーザの視線を検出する視線検出処理などを実行する。そして、プロセッサ40は、視線検出が有効にされている間は、赤外線カメラ32から出力される各撮影画像に対して、これらの処理を施す。なお、プロセッサ40は撮影画像処理回路62から撮影画像が入力されてから視線検出に必要な処理が実行するため、赤外線カメラ32から撮影画像が出力されるタイミングとプロセッサ40が視線検出に必要な処理を実行するタイミングとにはズレが生じる。
図11は、第1低精度モードが設定されているときの赤外線カメラ32、プロセッサ40、赤外線LED30の動作状態を示す図解図である。第1低精度モードでは、たとえば第1低精度モードの赤外線カメラ32は、高精度モードのフレームレートに対する半分のフレームレート、つまり10fpsのフレームレートで撮影画像を出力している。そのため、赤外線LED32は、撮影される直前にオンにされたあと、次のフレームが出力されるまでオフにされる。つまり、赤外線LED32は、撮影画像の出力に合わせて点滅する。そして、プロセッサ40は、入力された撮影画像に対して視線検出に必要な処理が施されると、次の撮影画像が入力されるまで、スリープ状態に移行する。そのため、第1低精度モードでは、視線入力が検出されるまでの時間、つまりユーザが視線入力を行ったときの応答性が、高精度モードに対して低くなるため、ユーザは第1低精度モードの検出精度が高精度モードに対して低くなったように感じる。
このように、赤外線カメラ32のフレームレートを下げることで、視線検出中の赤外線カメラ32の消費電力を抑えることが出来る。その結果、ユーザの視線を検出しているときの消費電力を抑えることが出来る。また、赤外線カメラ32のフレームレートを下げることで、赤外線LED30およびプロセッサ40の消費電力も下げることも出来る。
<具体例2>
具体例2の第2低精度モードでは、プロセッサ40が視線を検出する頻度が、高精度モードに対して低くされる。以下、高精度モードと第2低精度モードとの動作状態を比較して説明する。ただし、高精度モードについては説明済みであるため、ここでの詳細な説明は省略する。
図12は、第2低精度モードが設定されているときの赤外線カメラ32、プロセッサ40、赤外線LED30の動作状態を示す図解図である。第2低精度モードのプロセッサ40の頻度が高精度モードに対して低くされる。たとえば、プロセッサ40は、視線検出に必要な処理の実行を終えるとスリープ状態に移行し、次のフレームが出力されてもプロセッサ40は視線検出に必要な処理を実行しない。そして、さらに次のフレームが出力されたときにスリープ状態から復帰して、視線検出に必要な処理を実行する。このとき、赤外線カメラ32のフレームレートは変化させず、赤外線LED30は具体例1と同じ頻度で点滅する。そのため、第2低精度モードでも、第1低精度モードと同様、視線入力が検出されるまでの時間、つまりユーザが視線入力を行ったときの応答性が、高精度モードに対して低くなるため、ユーザは第2低精度モードの検出精度が高精度モードに対して低くなったように感じる。
このように、具体例2では、赤外線カメラ32のフレームレートを変更することなく、視線検出中のプロセッサ40の消費電力を抑えることが出来るため、ユーザの視線を検出しているときの消費電力を抑えることが出来る。
なお、他の実施例のプロセッサ40は、スリープ状態に移行せずに、視線検出に必要な処理をスキップするようにしてもよい。
<具体例3>
具体例3の第3低精度モードでは、高精度モードで実行される視線検出処理と同じ第1視線検出処理と、第1視線検出処理よりも簡易化されたアルゴリズムの第2視線検出処理とが実行される。以下、高精度モードと第3低精度モードとの動作状態を比較して説明する。ただし、高精度モードについては説明済みであるため、ここでの詳細な説明は省略する。
図13は、第3低精度モードが設定されているときの赤外線カメラ32、プロセッサ40、赤外線LED30の動作状態を示す図解図である。第3低精度モードでは、第1視線検出処理と第2視線検出処理とが交互に実行される。たとえば、第1フレームの撮影画像に対して第1視線検出処理が施されると、次の第2フレームの撮影画像に対しては第2視線検出処理が施される。そして、さらに次の第3フレームの撮影画像に対しては、再び第1視線検出処理が施される。また、赤外線LED30および赤外線カメラ32の動作については、高精度モードと略同じである。ただし、第2視線検出処理を実行するプロセッサ40の消費電力は、第1視線検出処理を実行しているときよりも低くなる。
たとえば、第1視線検出処理では視線入力の位置が「1画素」の精度で検出されるが、第2視線検出処理では視線入力の位置が複数の画素を含む「1エリア」の精度で検出される。つまり、第2視線検出処理では、検出される注視点の位置の精度が、第1視線検出処理に比べて低くなる。したがって、ユーザは第3低精度モードの検出精度が高精度モードに対して低くなったように感じる。
このように、視線検出処理のアルゴリズムを簡易化することで、ハードウェア(赤外線LED30および赤外線カメラ32など)の動作を変更することなく、ユーザの視線を検出しているときの消費電力を抑えることが出来る。
なお、具体例1−具体例3は、それぞれが任意に組み合わせられてもよい。たとえば、具体例1および具体例2で、第3実施例と同じように、第1視線検出処理と第2視線検出処理とが交互に実行されてもよい。また、全ての具体例で、低精度モードが設定されれば、第2視線検出処理が常に実行されるようにしてもよい。また、その他の組み合わせについては容易に想像できるため、ここでの詳細な説明は省略する。
また、他の実施例では、携帯電話機10からユーザまでの距離の検出精度を高めるために、近接センサ34が、赤外線LED30および赤外線カメラ32と隣接するように設けられてもよい。また、その他の実施例では、赤外線LED30および赤外線カメラ32が、近接センサ34と隣接するように設けられてもよい。
さらにその他の実施例では、近接センサ34に代えて、赤外線LED30および赤外線カメラ32を利用して、携帯電話機10に対するユーザの顔の近接が検出されてもよい。具体的には、視線入力処理が開始されると、赤外線LED30を弱発光させ、赤外線カメラ32の受光レベルを測定する。受光レベルが閾値を超えている場合、赤外線LED30から出力される赤外線がユーザの眼に影響を与える範囲にユーザの顔が存在していると判断して、プロセッサ40は視線入力検出処理を終了する。一方、受光レベルが閾値未満であれば、赤外線LED30が通常発光の状態にされ、上述したようにユーザの視線入力が検出される。なお、赤外線カメラ32の受光レベルは、シャッター速度およびアンプゲイン値に基づいて算出される。たとえば、照度が高い場合、シャッター速度が速くなり、アンプゲイン値が低くなる。一方、照度が低い場合、シャッター速度が遅くなり、アンプゲイン値が高くなる。
以下、さらにその他の実施例の視線入力処理のフロー図を用いて、詳細に説明する。図14を参照して、さらにその他の実施例の視線入力処理が実行されると、プロセッサ40は、ステップS51で赤外線LED30を弱発光させ、ステップS53で赤外線カメラ233の電源をオンにする。続いて、ステップS55でプロセッサ40は、赤外線カメラ32の受光レベルを測定する。つまり、赤外線カメラ32のシャッター速度およびアンプゲイン値に基づいて、赤外線カメラ32の受光レベルが算出される。
続いて、ステップS57でプロセッサ40は、受光レベルが閾値未満であるか否かを判断する。つまり、ステップS3と同様、赤外線LED30から出力される赤外線がユーザの眼に影響を与える範囲にユーザの顔が存在しているかが判断される。ステップS57で“NO”であれば、つまり受光レベルが閾値を超えていれば、プロセッサ40はステップS61の処理に進む。そして、プロセッサ40は、ステップS61で赤外線LED30および赤外線カメラ32をオフにして、視線入力処理を終了する。
一方、ステップS57で“YES”であれば、つまり受光レベルが閾値未満であれば、ステップS59でプロセッサ40は、赤外線LED30を通常発光の状態にする。続いて、ステップS11−S29の処理が実行され、ユーザの視線入力が検出された後、プロセッサ40はステップS61の処理に進む。ステップS61では、上述したように、赤外線LED30および赤外線カメラ32がオフにされる。つまり、視線入力が検出されたため、赤外線LED30および赤外線カメラ32の電源がオフにされる。そして、ステップS61の処理が終了すれば、プロセッサ40は視線入力処理を終了する。
また、本実施例では、プロセッサの処理が視線操作によって実行される場合について説明したが、キー操作、タッチ操作および視線操作が組み合わせられてもよいことは、言うまでもない。ただし、他の実施例では、視線操作による処理が実行されている場合には、キー操作やタッチ操作を受け付けないようにしてもよい。
また、本実施例では、視線操作が可能である場合について説明したが、実際には、視線操作(視線入力)が可能な場合と可能でない場合とがある。視線操作が可能な場合とは、たとえば予め視線操作を行うことが可能であると設定されたアプリケーションが実行されているときである。その対象となるアプリケーションの一例としては、電子書籍アプリケーションや、メールアプリケーションなどがあげられる。一方、視線操作が可能でない場合とは、たとえば予め視線操作を行うことが不可能であると設定されたアプリケーションが実行されているときである。その対象となるアプリケーションの一例としては、通話機能があげられる。また、視線操作が可能である場合には、その旨のメッセージないし画像(アイコン)を表示するようにしてもよい。さらに、視線操作を実行している場合には、視線入力を受け付けている(視線操作の実行中である)旨のメッセージないし画像を表示するようにしてもよい。このようにすれば、使用者は、視線操作が可能であること、視線入力が受け付けられていることを認識することが出来る。
また、携帯電話機10が加速度センサまたはジャイロセンサを有する場合、視線操作の有効/無効は、携帯電話機10の向きに応じて切り替えられてもよい。
また、他の実施例の赤外線カメラ32は、通常のカラーカメラに比べて赤外線に対する感度が高いものであってもよい。また、その他の実施例の赤外線カメラ32を構成するカラーカメラには、赤外線波長の光を減衰(カット)し、R,G,Bの波長の光をよりよく受光させるための赤外線カットフィルタ(ローパスフィルタ)が設けられていてもよい。赤外線カットフィルタが設けられた赤外線カメラ32の場合、赤外線波長の光の感度を高めておくとしてもよい。また、この赤外線カットフィルタを赤外線カメラ32から着脱自在としてもよい。
また、その他の実施例では、現在設定されているモードを示すモードアイコンがユーザに示されてもよい。たとえば、図15(A),(B)を参照して、低精度モード(省電力モード)が設定されている場合、状態表示領域70には「Lo」の文字列を含む第1モードアイコン100が表示される。一方、高精度モードが設定されている場合、状態表示領域70には、「Hi」の文字列を含む第2モードアイコン102が表示される。このように第1モードアイコン100または第2モードアイコン102を表示することで、ユーザは、第1モードアイコン100または第2モードアイコン102によって、現在のモードを適切に把握することが出来る。
ただし、どちらか一方のモードが設定されたときだけ、第1モードアイコン100または第2モードアイコン102が表示されるようにしてもよい。たとえば、低精度モードが設定されているときには、第1モードアイコン100が表示されないようにし、高精度モードが設定されたときだけ、第2モードアイコン102が表示されるようにしてもよい。
また、本実施例で用いられたプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して携帯電話機10に配信されてもよい。また、CD,DVD,BDなどの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体に複数のプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、プログラムが本実施例と同等の構成の電子機器にインストールされた場合、本実施例と同等の効果が得られる。
そして、本明細書中で挙げた、具体的な数値は、いずれも単なる一例であり、製品の仕様変更などに応じて適宜変更可能である。
ここで、以下の説明における括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述した実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
本実施例は、ユーザの注視点に基づく入力である視線入力を検出し、視線入力に基づく動作を実行する、電子機器であって、視線入力を検出するための検出処理を実行するプロセッサ、特定領域および操作用のオブジェクトを表示するオブジェクト表示領域を含む画面を表示する表示部、注視点を検出する検出部、ユーザの注視点が特定領域に含まれているとき、視線入力の検出精度を第1精度モードに設定する第1設定部、およびユーザの注視点がオブジェクト表示領域に含まれているとき、視線入力の検出精度を、第1精度モードより検出精度が高い第2精度モードに設定する第2設定部を備える、電子機器である。
本実施例では、電子機器(10:実施例において対応する部分を例示する参照符号。以下、同じ。)のプロセッサ(40)は視線による入力(以下、視線入力と言う。)を検出するための検出処理を実行する。たとえば、検出処理が実行されている状態では、注視点が同じ位置で検出された回数が判定回数に達したときに、視線入力が検出される。また、視線入力が検出されると、その入力位置に基づいて動作が実行される。表示部(14)は、たとえば、電子書籍アプリケーションによる文章が表示される特定領域と、その電子書籍アプリケーションを操作するためのオブジェクトを表示するオブジェクト表示領域を含む画面を表示する。検出部(40,S15)は、ユーザの注視点を検出する。第1設定部(40,S21)は、たとえばユーザの注視点が電子書籍アプリケーションによる本文が表示される特定領域に含まれているとき、視線入力の検出精度を第1精度モード(低精度モード)に設定する。一方、第2設定部(40,S23)は、たとえばユーザの注視点が電子書籍アプリケーションを操作するオブジェクト表示部に含まれているとき、視線入力の検出精度を、第1精度モードより検出精度が高い第2精度モード(高精度モード)に設定する。
本実施例によれば、ユーザの視線の位置に基づいて視線入力の検出精度を変化させることで、ユーザの視線を検出しているときの消費電力を抑えることが出来る。
他の実施例は、視線入力を検出するためのカメラをさらに備え、第1精度モードが設定されたとき、カメラのフレームレートを低くする。
他の実施例では、カメラ(32)は、視線入力を検出するために電子機器に設けられる。そして、第1精度モードが設定されたとき、カメラのフレームレートが低く設定される。
他の実施例によれば、カメラのフレームレートを下げることで、視線検出中のカメラの消費電力を抑えることが出来る。その結果、ユーザの視線を検出しているときの消費電力を抑えることが出来る。
その他の実施例は、第1精度モードが設定されたとき、プロセッサの処理頻度を低くする。
その他の実施例では、第1精度モードが設定されると、プロセッサは、視線入力を検出するための処理を実行する頻度を下げる。
その他の実施例によれば、視線検出中のプロセッサの消費電力を抑えることが出来るため、ユーザの視線を検出しているときの消費電力を抑えることが出来る。
さらにその他の実施例は、第1精度モードが設定されたとき、プロセッサによる検出処理のアルゴリズムが簡易化される。
さらにその他の実施例では、たとえば、視線入力処理のアルゴリズムが簡易化されると、検出された視線の入力位置の精度が、第2精度モードが設定された状態に比べて低くなる。
さらにその他の実施例によれば、視線検出処理のアルゴリズムを簡易化することで、ハードウェアの動作を変更することなく、ユーザの視線を検出しているときの消費電力を抑えることが出来る。
他の実施例は、ユーザの注視点に基づく入力である視線入力を検出し、視線入力に基づく動作を実行し、視線入力を検出するための検出処理を実行するプロセッサおよび特定領域および操作用のオブジェクトを表示するオブジェクト表示領域を含む画面を表示する表示部を有する、電子機器における視線入力方法であって、電子機器のプロセッサが、ユーザの注視点が特定領域に含まれているとき、視線入力の検出精度を第1精度モード(低精度モード)に設定する第1設定ステップ、およびユーザの注視点がオブジェクト表示領域に含まれているとき、視線入力の検出精度を、第1精度モードより検出精度が高い第2精度モードに設定する第2設定ステップを実行する、視線入力方法である。
他の実施例でも、ユーザの視線の位置に基づいて視線入力の検出精度を変化させることで、ユーザの視線を検出しているときの消費電力を抑えることが出来る。
この発明が詳細に説明され図示されたが、それは単なる図解および一例として用いたものであり、限定であると解されるべきではないことは明らかであり、この発明の精神および範囲は添付されたクレームの文言によってのみ限定される。
10 …携帯電話機
14 …ディスプレイ
16 …タッチパネル
30 …赤外線LED
32 …赤外線カメラ
34 …近接センサ
40 …プロセッサ
50 …入力装置
54 …フラッシュメモリ
56 …RAM
60 …LEDドライバ
62 …撮影画像処理回路
この発明は、電子機器および視線入力方法に関し、特にたとえば、視線入力を検出する、電子機器および視線入力方法に関する。
背景技術の一例が特許文献1に開示されている。この特許文献1のデータ入力装置は、メニュー又はキーボード等の入力データ群を表示装置で表示し、該装置使用者の眼の部分をカメラで撮影し、該撮影画像から該使用者の視線方向を決定し、該視線方向に位置する入力データを決定し、決定された入力データを外部機器等に出力する。
背景技術の他の例が特許文献2に開示されている。この特許文献2の視線検出装置は、撮影した画像から被験者の瞳孔の中心および角膜反射点を検出することで、被験者の視線を検出する。
特開2003−196017号公報[G06F 3/033, G06F 3/00, G06T 1/00, G06T 7/60] 特開2005−185431号公報[A61B 3/113, G06F 3/033]
しかし、視線入力デバイスは、センサと眼球との距離に比例して機器が大きくなる傾向がある。したがって、たとえば携帯端末のような比較的小型の電子機器に搭載することを考慮すると、上述の2つの背景技術では、装置が大きく、適切でない。
また、視線を検出するときには、カメラ等の電源をオンにしたままにしなければならず、装置の消費電力が高くなる。据え置き型の装置であれば、消費電力はさほど問題にはならないが、可搬型の装置の場合、高い消費電力は大きな問題となる。
それゆえに、この発明の主たる目的は、新規な、電子機器および視線入力方法を提供することである。
この発明の他の目的は、ユーザの視線を検出しているときの消費電力を抑えることが出来る、電子機器および視線入力方法を提供することである。
この発明の第1の局面は、ユーザの注視点に基づく入力である視線入力を検出し、視線入力に基づく動作を実行する、電子機器であって、視線入力を検出するための検出処理を実行するプロセッサ、特定領域および操作用のオブジェクトを表示するオブジェクト表示領域を含む画面を表示する表示部、注視点を検出する検出部、ユーザの注視点が特定領域に含まれているとき、視線入力の検出精度を第1精度モードに設定する第1設定部、およびユーザの注視点がオブジェクト表示領域に含まれているとき、視線入力の検出精度を、第1精度モードより検出精度が高い第2精度モードに設定する第2設定部を備える、電子機器である。
この発明の第2の局面は、ユーザの注視点に基づく入力である視線入力を検出し、視線入力に基づく動作を実行し、視線入力を検出するための検出処理を実行するプロセッサおよび特定領域および操作用のオブジェクトを表示するオブジェクト表示領域を含む画面を表示する表示部を有する、電子機器における視線入力方法であって、電子機器のプロセッサが、ユーザの注視点が特定領域に含まれているとき、視線入力の検出精度を第1精度モードに設定する第1設定ステップ、およびユーザの注視点がオブジェクト表示領域に含まれているとき、視線入力の検出精度を、第1精度モードより検出精度が高い第2精度モードに設定する第2設定ステップを実行する、視線入力方法である。
この発明の一態様によれば、ユーザの視線を検出しているときの消費電力を抑えることが出来る。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例の携帯電話機を示す外観図である。 図2は図1に示す携帯電話機の電気的な構成を示すブロック図である。 図3は図1に示すディスプレイの表示面で検出される注視点の一例を示す図解図である。 図4は図1に示す赤外線カメラによって撮影される瞳孔とプルキニエ像との一例を示す図解図である。 図5は図2に示すプロセッサによって算出される視線ベクトルの一例を示す図解図であり、図5(A)は第1中心位置および第2中心位置の一例を示し、図5(B)は視線ベクトルの一例を示す。 図6は図1に示すディスプレイに表示されるオブジェクトの表示例を示す図解図である。 図7は図2に示すRAMのメモリマップの一例を示す図解図である。 図8は図2に示すプロセッサの視線入力処理の一部の一例を示すフロー図である。 図9は図2に示すプロセッサの視線入力処理の他の一部の一例であって、図8に後続するフロー図である。 図10は図9に示す高精度モードが設定されたときの動作状態の一例を示す図解図である。 図11は図9に示す具体例1の低精度モードが設定されたときの動作状態の一例を示す図解図である。 図12は図9に示す具体例2の低精度モードが設定されたときの動作状態の一例を示す図解図である。 図13は図9に示す具体例3の低精度モードが設定されたときの動作状態の一例を示す図解図である。 図14は図2に示すプロセッサの視線入力処理のその他の一例を示すフロー図である。 図15は図1に示すディスプレイに表示される他の実施例のオブジェクトの表示例を示す図解図である。
図1を参照して、この発明の一実施例の携帯電話機10は、いわゆるスマートフォンであり、縦長の扁平矩形のハウジング12を含む。ハウジング12の主面(表面)には、表示部として機能する、たとえば液晶や有機ELなどで構成されるディスプレイ14が設けられる。このディスプレイ14の上には、タッチパネル16が設けられる。また、ハウジング12の縦方向一端の表面側にスピーカ18が内蔵され、縦方向他端の表面側にマイク20が内蔵される。さらに、タッチパネル16とともに、ハードウェアキーとして、通話キー22、終話キー24およびメニューキー26が設けられる。さらにまた、マイク20の左側に赤外線LED30および赤外線カメラ32が設けられ、スピーカ18の右側に近接センサ34が設けられる。ただし、赤外線LED30の発光面と、赤外線カメラ32の撮影面と、近接センサ34の検出面とはハウジング12から露出するように設けられ、その他の部分はハウジング12に内蔵される。
たとえば、ユーザは、ディスプレイ14に表示されたダイヤルキーに対して、タッチパネル16によってタッチ操作を行うことで電話番号を入力でき、通話キー22を操作して音声通話を開始することが出来る。終話キー24を操作すれば、音声通話を終了することが出来る。また、この終話キー24を長押しすることによって、携帯電話機10の電源をオン/オフすることが出来る。
また、メニューキー26が操作されると、ディスプレイ14にメニュー画面が表示される。ユーザは、その状態でディスプレイ14に表示されているソフトウェアキーやメニューアイコンなどに対して、タッチパネル16によるタッチ操作を行うことによって、ソフトウェアキーやアイコンに対して選択操作を行うことが出来る。
なお、この実施例では、電子機器の一例としてスマートフォン(smartphone)のような携帯電話機について説明するが、表示装置を備える様々な電子機器に、この発明を適用可能であることを予め指摘しておく。たとえば、他の電子機器の例としては、フィーチャーフォン(featurephone)、電子書籍端末、タブレット端末、PDA、ノート型PCやディスプレイ装置などの任意の電子機器などが該当する。
図2を参照して、図1に示す携帯電話機10はプロセッサ40を含み、このプロセッサ40には、赤外線カメラ32、近接センサ34、無線通信回路42、A/D変換器46、D/A変換器48、入力装置50、表示ドライバ52、フラッシュメモリ54、RAM56、タッチパネル制御回路58、LEDドライバ60および撮影画像処理回路62などが接続される。
プロセッサ40は、コンピュータまたはCPUと呼ばれ、携帯電話機10の全体制御を司る。プロセッサ40には、RTC40aが内蔵されており、このRTC40aによって日時が計時される。RAM56には、フラッシュメモリ54に予め記憶されているプログラムの全部または一部が使用に際して展開(ロード)され、プロセッサ40はこのRAM56に展開されたプログラムに従って各種の処理を実行する。このとき、RAM56は、プロセッサ40のワーキング領域ないしバッファ領域として用いられる。
入力装置50は、図1に示すハードウェアキー(22、24、26)を含み、タッチパネル16およびタッチパネル制御回路58とともに操作部ないし入力部として機能する。ユーザが操作したハードウェアキーの情報(キーデータ)はプロセッサ40に入力される。以下、ハードウェアキーによる操作を「キー操作」ということにする。
無線通信回路42は、アンテナ44を通して、音声通話やメールなどのための電波を送受信するための回路である。実施例では、無線通信回路42は、CDMA方式での無線通信を行うための回路である。たとえば、ユーザが入力装置50を操作して電話発信(発呼)を指示すると、無線通信回路42は、プロセッサ40の指示の下、電話発信処理を実行し、アンテナ44を介して電話発信信号を出力する。電話発信信号は、基地局および通信網を経て相手の電話機に送信される。そして、相手の電話機において着信処理が行われると、通信可能状態が確立され、プロセッサ40は通話処理を実行する。
A/D変換器46には図1に示すマイク20が接続され、マイク20からの音声信号はこのA/D変換器46を通してディジタルの音声データとしてプロセッサ40に入力される。D/A変換器48にはスピーカ18が接続される。D/A変換器48は、ディジタルの音声データを音声信号に変換して、アンプを介してスピーカ18に与える。したがって、音声データの音声がスピーカ18から出力される。そして、通話処理が実行されている状態では、マイク20によって集音された音声が相手の電話機に送信され、相手の電話機で集音された音声が、スピーカ18から出力される。
なお、プロセッサ40は、たとえばユーザによるボリュームを調整するための操作に応答して、D/A変換器48に接続されるアンプの増幅率を制御することによって、スピーカ18から出力される音声の音量を調整することが出来る。
また、表示ドライバ52は、プロセッサ40の指示の下、当該表示ドライバ52に接続されたディスプレイ14の表示を制御する。また、表示ドライバ52は表示する画像データを一時的に記憶するビデオメモリを含む。ディスプレイ14には、たとえばLEDなどを光源とするバックライトが設けられており、表示ドライバ52はプロセッサ40の指示に従って、そのバックライトの明るさや、点灯/消灯を制御する。
タッチパネル制御回路58には、図1に示すタッチパネル16が接続される。タッチパネル制御回路58は、タッチパネル16に必要な電圧などを付与するとともに、ユーザによるタッチの開始を示すタッチ開始信号、ユーザによるタッチの終了を示す終了信号、およびタッチ位置を示す座標データをプロセッサ40に入力する。したがって、プロセッサ40はこの座標データに基づいて、ユーザが、どのアイコンやキーにタッチしたかを判断することが出来る。
タッチパネル16は、その表面と表面に接近した指などの物体との間に生じる静電容量の変化を検出する静電容量方式のタッチパネルである。タッチパネル16は、たとえば1本または複数本の指がタッチパネル16に触れたことを検出する。
タッチパネル制御回路58は検出部として機能し、タッチパネル16のタッチ有効範囲内でのタッチ操作を検出して、そのタッチ操作の位置を示す座標データ(タッチ座標データ)をプロセッサ40に出力する。プロセッサ40は、タッチパネル制御回路58より入力されたタッチ座標データに基づいて、ユーザがどのアイコンやキーにタッチしたかを判断することが出来る。以下、タッチパネル16による操作を「タッチ操作」ということにする。
なお、本実施例のタッチ操作には、タップ操作、ロングタップ操作、フリック操作、スライド操作などが含まれる。また、タッチパネル16は、表面型の静電容量方式が採用されてもよいし、抵抗膜方式、超音波方式、赤外線方式および電磁誘導方式などが採用されてもよい。また、タッチ操作はユーザの指に限らず、スタイラスペンなどによって行われてもよい。
近接センサ34は、図示は省略するが、発光素子(たとえば、赤外線LED)と受光素子(たとえば、フォトダイオード)とを含む。プロセッサ40は、フォトダイオードの出力の変化から、近接センサ34(携帯電話機10)に近接する物体(たとえば、ユーザの顔など)の距離を算出する。具体的には、発光素子は赤外線を発光し、受光素子は、顔などで反射した赤外線を受光する。たとえば、受光素子がユーザの顔から遠い場合は、発光素子から発せられた赤外線は受光素子によってほとんど受光されない。一方、近接センサ34にユーザの顔が近接すると、発光素子が発光した赤外線は顔に反射して受光素子によって受光される。このように、受光素子は近接センサ34がユーザの顔に近接している場合とそうでない場合とで赤外線の受光量が変化するため、プロセッサ40は、その受光量に基づいて、近接センサ34から物体までの距離を算出することができる。
LEDドライバ60には、図1に示す赤外線LED30が接続される。LEDドライバ60は、プロセッサ40からの制御信号に基づいて、赤外線LED30のオン/オフ(点灯/消灯)を切り換える。
撮影画像処理回路62には、撮影部として機能する赤外線カメラ32(図1参照)が接続される。撮影画像処理回路62は、赤外線カメラ32からの撮影画像データに画像処理を施し、モノクロの画像データをプロセッサ40に入力する。赤外線カメラ32は、プロセッサ40の指示の下、撮影処理を実行し、撮影画像データを撮影画像処理回路62に入力する。赤外線カメラ32は、たとえば、CCDやCMOSのような撮影素子を用いたカラーカメラと、R、G、Bの波長の光を減衰(カット)し、赤外線波長の光を透過する赤外線透過フィルタとによって構成される。したがって、赤外線透過フィルタを着脱可能な構成にすれば、赤外線透過フィルタを外すことにより、カラー画像を取得することも可能である。
なお、上で説明した無線通信回路42、A/D変換器46およびD/A変換器48はプロセッサ40に含まれていてもよい。
このような構成の携帯電話機10では、キー操作やタッチ操作に代えて、視線による入力操作(以下、「視線操作」ということがある。)が可能である。視線操作では、視線とディスプレイ14の表示面とが交差する点(注視点)によって指示される所定の領域(以下、判定エリア)に対応づけて設定された所定の処理が実行される。以下、図面を用いて、注視点の検出方法について説明する。
図3を参照して、ユーザは、左右の目の内、自身の利き目を設定する。利き目(ここでは左目)が設定されると、赤外線LED30が発光した赤外線が照射されたユーザ(被写体)の顔を、赤外線カメラ32によって撮影する。撮影された画像に対して特徴点抽出の技術を用いて、眼球周辺画像を取得する。次に、取得された眼球周辺画像に対してラベリング処理によって瞳孔が検出され、微分フィルタ処理によって赤外線(赤外光)による反射光(プルキニエ像)が検出される。なお、撮影画像から瞳孔やプルキニエ像を検出する方法を概説したが、これらの方法は既に周知であり、この実施例の本質的な内容ではないため、詳細な説明は省略する。
図1に示したように、赤外線LED30と赤外線カメラ32とがディスプレイ14の下側に並べて配置(接近して配置)されているため、図4に示すように、瞼が比較的大きく開いている状態および瞼が少し閉じている状態のいずれであっても、プルキニエ像を検出することが出来る。なお、赤外線LED30と赤外線カメラ32との距離は、ユーザが携帯電話機10を使用する際における、ユーザの顔と携帯電話機10(筐体の表面ないしディスプレイ14の表示面)との距離や携帯電話機10の大きさなどによって決定される。
プロセッサ40は、撮影画像から瞳孔およびプルキニエ像を検出すると、利き目の視線の方向(視線ベクトルV)を検出する。具体的には、赤外線カメラ32で撮影された2次元の撮影画像におけるプルキニエ像の位置から瞳孔の位置に向けたベクトルが検出される。つまり、図5(A),(B)に示すように、第1中心位置Aから第2中心位置中心Bに向けたベクトルが視線ベクトルVである。赤外線カメラ32における座標系は予め決定されており、その座標系を用いて視線ベクトルVが算出される。
そして、このようにして算出された視線ベクトルVを用いて、視線操作の初期設定としてキャリブレーションが行われる。本実施例では、ディスプレイ14の四隅をそれぞれ注視したときの視線ベクトルVを取得し、各視線ベクトルVをキャリブレーションデータとして保存する。
視線操作が行われる際には、赤外線カメラ32によって画像が撮影される度に、視線ベクトルVを求め、キャリブレーションデータと比較することによって、注視点が検出される。そして、注視点が、判定エリア内で検出された回数が判定回数と一致したときに、プロセッサ40は、その注視点に対して視線入力がされたものとして検出する。
また、本実施例では、ユーザの両目の距離L(図3参照)が、左右の目のプルキニエ像の中心位置から算出される。そして、ユーザの両目の距離Lはキャリブレーションデータと共に保存される。注視点を検出する処理が実行され視線ベクトルVが算出されると、注視点を検出するときに記録された両目の距離Lと現在の両目の距離Lとが比較され、ディスプレイ14とユーザの顔との距離が変化しているかが判断される。ディスプレイ14とユーザの顔との距離が変化していると判断されると、記録された両目の距離Lと現在の両目の距離Lとから変化量が算出され、視線ベクトルVの大きさが補正される。たとえば、変化量に基づいて、ユーザの顔の位置がキャリブレーションを行ったときに対して離れた状態であると判断されると、視線ベクトルVは大きくなるよう補正される。また、変化量に基づいて、ユーザの顔の位置がキャリブレーションを行ったときに対して近づいた状態であると判断されると、視線ベクトルVは小さくなるように補正される。
また、詳細な説明は省略するが、本実施例の注視点検出処理では、眼球の形状によって生じる誤差、キャリブレーション時の測定誤差および撮影時の量子化誤差なども補正されている。
したがって、本実施例では、携帯電話機10のような小型の電子機器であっても、高精度な視線入力を実現することが可能となる。
図6は、電子書籍アプリケーションが実行されているときのディスプレイ14の表示例を示す図解図である。ディスプレイ14は状態表示領域70および機能表示領域72を含む。状態表示領域70には、アンテナ44による電波受信状態を示すアイコン(ピクト)、二次電池の残電池容量を示すアイコンおよび時刻が表示される。
機能表示領域72には、標準キーであるHOMEキー90およびBACKキー92が表示される標準キー表示領域80と、前のページに戻るための戻るキー94が表示される第1アプリケーションキー表示領域82と、次のページに進むための進むキー96が表示される第2アプリケーションキー表示領域84と、電子書籍の本文が表示される本部表示領域86とが含まれる。
HOMEキー90は、実行中のアプリケーションを終了させて、待機画面を表示させるためのキーである。BACKキー92は、実行中のアプリケーションを終了させて、アプリケーションが実行される前の画面を表示するためのキーである。そして、HOMEキー90およびBACKキー92は、実行されるアプリケーションの種類に関係なく、アプリケーションが実行されていれば表示される。
また、未読の新着メールや不在着信などがある場合、状態表示領域70には、通知アイコンが表示される。たとえば、新着メールを受信した場合、状態表示領域70には、通知アイコンとして、新着メールアイコンが表示される。未読の新着メールや不在着信が無い場合は、通知アイコンは表示されない。
なお、ディスプレイ14に表示されるキー、GUI、ウィジェット(ガジェット)などは、まとめてオブジェクトと呼ばれる。また、標準キー表示領域80、第1アプリケーションキー表示領域82および第2アプリケーションキー表示領域84は、まとめてオブジェクト表示領域と呼ばれることもある。
そして、ユーザは、これらのオブジェクトに対して視線入力を行うことで、実行されているアプリケーションを任意に操作することが出来る。たとえば、戻るキー94または進むキー96に対して視線入力が行われると、表示されている電子書籍のページが変更される。
ここで、本実施例では、視線入力の検出が開始されると、ユーザの注視点に基づいて視線入力の検出精度を変更する。ここで、本実施例では、低精度モード(第1精度モード)と、その低精度モードに対して視線入力の検出精度が高い高精度モード(第2精度モード)を設定することが出来る。また、低精度モードでは、ユーザの視線を検出するための処理が簡略化されるため、ユーザの視線が検出されているときの消費電力が抑えられる。
そして、視線入力の検出が開始されたときに、ユーザの注視点が特定領域に含まれる場合は、視線入力の検出精度が低精度モードに設定される。一方、ユーザの注視点が特定領域に含まれない場合は、視線入力の検出精度が高精度モードに設定される。
たとえば、図6を参照して、電子書籍アプリケーションが実行されている場合、本文表示領域86が特定領域とされる。これは、電子書籍の本文が表示されている領域では、ユーザの視線入力の検出がさほど重要ではないからである。そのため、ユーザの視線が電子書籍の本文に向けられている場合は、視線入力の検出精度が低精度モードに設定される。一方、オブジェクト表示領域に対してユーザの視線が向けられている場合は、オブジェクトに対して視線入力がされる可能性がある。そのため、視線入力の検出精度が高精度モードに設定される。
このように、ユーザの注視点の位置に基づいて視線入力の検出精度を変化させることで、ユーザの視線を検出しているときの消費電力を抑えることが出来る。
なお、通常状態では高精度モードが設定され、低消費電力で視線入力を検出するために低精度モードが設定されるため、高精度モードは「通常モード」と呼ばれ、低精度モードは「省電力モード」と呼ばれることもある。
また、他の実施例では、文章が表示される、メールアプリケーションや、ブラウザアプリケーションの実行中に、上述の電子書籍アプリケーションと同様、高精度モードまたは低精度モードが設定されてもよい。また、他のプリケーションが実行されている場合の特定領域は、アプリケーション毎に設定されていてもよいし、領域内に表示される文字数が所定値を超えている場合に、特定領域と判定されてもよい。
以下、図7に示すメモリマップ500および図8−図9に示すフロー図を用いて、本実施例の概要を説明する。
図7を参照して、図2に示すRAM56には、プログラム記憶領域502とデータ記憶領域504とが形成される。プログラム記憶領域502は、先に説明したように、フラッシュメモリ54(図2)に予め設定しているプログラムデータの一部または全部を読み出して記憶(展開)しておくための領域である。
プログラム記憶領域502には、視線入力を検出し、その視線入力に基づく動作を実行するための視線入力プログラム510などが記憶される。なお、プログラム記憶領域502には、電話機能、メール機能およびアラーム機能などを実行するためのプログラムなども含まれる。
データ記憶領域504には、近接バッファ530、注視点バッファ532および視線バッファ534などが設けられる。また、データ記憶領域504には、領域座標テーブル536、オブジェクトデータ538およびオブジェクトテーブル540などが記憶される。
近接バッファ530は、近接センサ34から得られた物体までの距離情報が一時的に記憶される。注視点バッファ532は、検出された注視点が一時的に記憶される。視線バッファ534は、視線入力が検出されたときにその位置が一時的に記憶される。
領域座標テーブル536は、たとえば、状態表示領域70、機能表示領域72、標準キー表示領域80、第1アプリケーションキー表示領域82および第2アプリケーションキー表示領域84の座標範囲の情報を含むテーブルである。オブジェクトデータ538は、ディスプレイ14に表示されるオブジェクトの画像および文字列データなどを含むデータである。オブジェクトテーブル540は、ディスプレイ14に表示されているオブジェクトの表示位置(座標範囲)などの情報を含むテーブルである。
図示は省略するが、データ記憶領域504には、プログラム記憶領域502に記憶された各プログラムの実行に必要な、他のデータが記憶されたり、タイマ(カウンタ)や、フラグが設けられたりする。
プロセッサ40は、Android(登録商標)またはREXなどのLinux(登録商標)ベースのOSや、その他のOSの制御下で、図8および図9に示す視線入力処理などを含む、複数のタスクを並列的に処理する。
視線入力による操作が有効とされると、視線入力処理が実行される。プロセッサ40は、ステップS1で近接センサ34をオンにする。つまり、近接センサ34によって携帯電話機10からユーザまでの距離が測定される。続いて、ステップS3でプロセッサ40は、近接センサ34の出力が閾値未満であるか否かを判断する。つまり、赤外線LED30から出力される赤外線がユーザの眼に影響を与える範囲にユーザの顔が存在しているかが判断される。ステップS3で“NO”であれば、つまり近接センサ34の出力が閾値以上でれば、プロセッサ40は、ステップS5で近接センサ34をオフにして、視線入力処理を終了する。つまり、赤外線LED30から出力される赤外線がユーザの眼に影響を与える可能性があるため、視線入力処理が終了される。なお、他の実施例では、ステップS5の後に、ユーザの顔を携帯電話機10から離すように促す通知(たとえば、ポップアップや、音声)がされてもよい。
ステップS3で“YES”であれば、たとえば携帯電話機10とユーザの顔とが適切な距離であれば、プロセッサ40は、ステップS7で赤外線LED30をオンにし、ステップS9で赤外線カメラ32をオンにする。つまり、ユーザの視線入力を検出するために、赤外線LED30および赤外線カメラ32がオンにされる。
続いて、ステップS11でプロセッサ40は、顔認識処理を実行する。つまり、ユーザの赤外線カメラ32によって撮影された画像データをRAM56から読み出し、読み出した画像データに対してユーザの顔を検出する処理が施される。続いて、ステップS13でプロセッサ40は、認識されたか否かを判断する。つまり、顔認識処理によって、ユーザの顔が認識されたかが判断される。ステップS13で“NO”であれば、つまりユーザの顔が認識されていなければ、プロセッサ40はステップS11の処理に戻る。
一方、ステップS13で“YES”であれば、つまりユーザの顔が認識されると、ステップS15でプロセッサ40は、注視点を検出する。つまり、ユーザが注視しているディスプレイ14上の位置が検出される。なお、検出された注視点の座標は注視点バッファ532に記録される。また、ステップS15の処理を実行するプロセッサ40は検出部として機能する。
続いて、ステップS17でプロセッサ40は、注視点を検出したか否かを判断する。つまり、プロセッサ40は、認識された顔の画像からユーザの注視点を検出できたかを判断する。ステップS17で“NO”であれば、つまり注視点が検出されていなければ、プロセッサ40はステップS11の処理に戻る。
一方、ステップS17で“YES”であれば、つまり注視点が検出されていれば、ステップS19でプロセッサ40は、注視点が特定領域に含まれているか否かを判断する。たとえば、注視点バッファ532に記録されている注視点が、領域座標デーブル536に含まれる本文表示領域86の座標範囲に含まれているかが判断される。ステップS19で“YES”であれば、たとえば図6に示す本文表示領域86にユーザの注視点が含まれていれば、ステップS21でプロセッサ40は、低精度モードを設定する。一方、ステップS19で“NO”であれば、つまり特定領域に注視点が含まれていなければ、ステップS23でプロセッサ40は、高精度モードを設定する。そして、ステップS21またはステップS23の処理が終了すれば、プロセッサ40はステップS25の処理に進む。なお、ステップS21の処理を実行するプロセッサ40は第1設定部として機能し、ステップS23の処理を実行するプロセッサ40は第2設定部として機能する。
続いて、ステップS25でプロセッサ40は、視線検出処理を実行する。つまり、設定された検出精度に基づいて、ユーザの視線入力が検出される。
続いて、ステップS27でプロセッサ40は、視線入力が行われた位置に基づいて動作を実行する。たとえば、オブジェクトに対して視線入力が行われた場合、そのオブジェクトに関連するアプリケーションや、処理が実行される。ただし、本文表示領域86の文字に対して視線入力が検出された場合、その文字に処理や動作が対応付けられていなければ、プロセッサ40は特に動作を実行しない。
続いて、ステップS29でプロセッサ40は、視線入力が終了か否かを判断する。たとえば、プロセッサ40は、視線入力を無効にする操作がされたかを判断する。ステップS29で“NO”であれば、つまり視線入力が終了していなければ、プロセッサ40はステップS11の処理に戻る。一方、ステップS29で“YES”であれば、つまり視線入力が終了していれば、ステップS31でプロセッサ40は、赤外線LED30、赤外線カメラ32および近接センサ34をオフにする。つまり、これらの電源をオフにすることで、携帯電話機10の消費電力が抑えられる。そして、ステップS31の処理が終了すれば、プロセッサ40は、視線入力処理を終了する。
以上で、本実施例の概要を説明したが、以下には図10−図13に示す図解図を用いて、低精度モードの具体例を説明する。
<具体例1>
具体例1の第1低精度モードでは、赤外線カメラ32のフレームレートが、高精度モードに対して低くされる。以下、高精度モードと第1低精度モードとの動作状態を比較して説明する。
図10は、高精度モードが設定されているときの赤外線カメラ32、プロセッサ40、赤外線LED30の動作状態を示す図解図である。高精度モードでは、赤外線LED30は常に点灯しており、赤外線カメラ32は20fps(Frames Per Second)のフレームレートで撮影画像を出力している。また、撮影画像が赤外線カメラ32から撮影画像処理回路62に出力され、撮影画像処理回路62で所定の処理が施された後にプロセッサ40に入力されると、プロセッサ40は撮影画像をRAM56のバッファに一旦格納した後、視線検出に必要な処理を、撮影画像に施す。たとえば、プロセッサ40は、視線検出に必要な処理として、撮影画像処理回路62から入力された撮影画像をRAM56のバッファから撮影画像を読み出す画像読出処理、読み出した撮影画像から顔を認識する顔認識処理およびユーザの視線を検出する視線検出処理などを実行する。そして、プロセッサ40は、視線検出が有効にされている間は、赤外線カメラ32から出力される各撮影画像に対して、これらの処理を施す。なお、プロセッサ40は撮影画像処理回路62から撮影画像が入力されてから視線検出に必要な処理が実行するため、赤外線カメラ32から撮影画像が出力されるタイミングとプロセッサ40が視線検出に必要な処理を実行するタイミングとにはズレが生じる。
図11は、第1低精度モードが設定されているときの赤外線カメラ32、プロセッサ40、赤外線LED30の動作状態を示す図解図である。第1低精度モードでは、たとえば第1低精度モードの赤外線カメラ32は、高精度モードのフレームレートに対する半分のフレームレート、つまり10fpsのフレームレートで撮影画像を出力している。そのため、赤外線LED32は、撮影される直前にオンにされたあと、次のフレームが出力されるまでオフにされる。つまり、赤外線LED32は、撮影画像の出力に合わせて点滅する。そして、プロセッサ40は、入力された撮影画像に対して視線検出に必要な処理が施されると、次の撮影画像が入力されるまで、スリープ状態に移行する。そのため、第1低精度モードでは、視線入力が検出されるまでの時間、つまりユーザが視線入力を行ったときの応答性が、高精度モードに対して低くなるため、ユーザは第1低精度モードの検出精度が高精度モードに対して低くなったように感じる。
このように、赤外線カメラ32のフレームレートを下げることで、視線検出中の赤外線カメラ32の消費電力を抑えることが出来る。その結果、ユーザの視線を検出しているときの消費電力を抑えることが出来る。また、赤外線カメラ32のフレームレートを下げることで、赤外線LED30およびプロセッサ40の消費電力も下げることも出来る。
<具体例2>
具体例2の第2低精度モードでは、プロセッサ40が視線を検出する頻度が、高精度モードに対して低くされる。以下、高精度モードと第2低精度モードとの動作状態を比較して説明する。ただし、高精度モードについては説明済みであるため、ここでの詳細な説明は省略する。
図12は、第2低精度モードが設定されているときの赤外線カメラ32、プロセッサ40、赤外線LED30の動作状態を示す図解図である。第2低精度モードのプロセッサ40の頻度が高精度モードに対して低くされる。たとえば、プロセッサ40は、視線検出に必要な処理の実行を終えるとスリープ状態に移行し、次のフレームが出力されてもプロセッサ40は視線検出に必要な処理を実行しない。そして、さらに次のフレームが出力されたときにスリープ状態から復帰して、視線検出に必要な処理を実行する。このとき、赤外線カメラ32のフレームレートは変化させず、赤外線LED30は具体例1と同じ頻度で点滅する。そのため、第2低精度モードでも、第1低精度モードと同様、視線入力が検出されるまでの時間、つまりユーザが視線入力を行ったときの応答性が、高精度モードに対して低くなるため、ユーザは第2低精度モードの検出精度が高精度モードに対して低くなったように感じる。
このように、具体例2では、赤外線カメラ32のフレームレートを変更することなく、視線検出中のプロセッサ40の消費電力を抑えることが出来るため、ユーザの視線を検出しているときの消費電力を抑えることが出来る。
なお、他の実施例のプロセッサ40は、スリープ状態に移行せずに、視線検出に必要な処理をスキップするようにしてもよい。
<具体例3>
具体例3の第3低精度モードでは、高精度モードで実行される視線検出処理と同じ第1視線検出処理と、第1視線検出処理よりも簡易化されたアルゴリズムの第2視線検出処理とが実行される。以下、高精度モードと第3低精度モードとの動作状態を比較して説明する。ただし、高精度モードについては説明済みであるため、ここでの詳細な説明は省略する。
図13は、第3低精度モードが設定されているときの赤外線カメラ32、プロセッサ40、赤外線LED30の動作状態を示す図解図である。第3低精度モードでは、第1視線検出処理と第2視線検出処理とが交互に実行される。たとえば、第1フレームの撮影画像に対して第1視線検出処理が施されると、次の第2フレームの撮影画像に対しては第2視線検出処理が施される。そして、さらに次の第3フレームの撮影画像に対しては、再び第1視線検出処理が施される。また、赤外線LED30および赤外線カメラ32の動作については、高精度モードと略同じである。ただし、第2視線検出処理を実行するプロセッサ40の消費電力は、第1視線検出処理を実行しているときよりも低くなる。
たとえば、第1視線検出処理では視線入力の位置が「1画素」の精度で検出されるが、第2視線検出処理では視線入力の位置が複数の画素を含む「1エリア」の精度で検出される。つまり、第2視線検出処理では、検出される注視点の位置の精度が、第1視線検出処理に比べて低くなる。したがって、ユーザは第3低精度モードの検出精度が高精度モードに対して低くなったように感じる。
このように、視線検出処理のアルゴリズムを簡易化することで、ハードウェア(赤外線LED30および赤外線カメラ32など)の動作を変更することなく、ユーザの視線を検出しているときの消費電力を抑えることが出来る。
なお、具体例1−具体例3は、それぞれが任意に組み合わせられてもよい。たとえば、具体例1および具体例2で、第3実施例と同じように、第1視線検出処理と第2視線検出処理とが交互に実行されてもよい。また、全ての具体例で、低精度モードが設定されれば、第2視線検出処理が常に実行されるようにしてもよい。また、その他の組み合わせについては容易に想像できるため、ここでの詳細な説明は省略する。
また、他の実施例では、携帯電話機10からユーザまでの距離の検出精度を高めるために、近接センサ34が、赤外線LED30および赤外線カメラ32と隣接するように設けられてもよい。また、その他の実施例では、赤外線LED30および赤外線カメラ32が、近接センサ34と隣接するように設けられてもよい。
さらにその他の実施例では、近接センサ34に代えて、赤外線LED30および赤外線カメラ32を利用して、携帯電話機10に対するユーザの顔の近接が検出されてもよい。具体的には、視線入力処理が開始されると、赤外線LED30を弱発光させ、赤外線カメラ32の受光レベルを測定する。受光レベルが閾値を超えている場合、赤外線LED30から出力される赤外線がユーザの眼に影響を与える範囲にユーザの顔が存在していると判断して、プロセッサ40は視線入力検出処理を終了する。一方、受光レベルが閾値未満であれば、赤外線LED30が通常発光の状態にされ、上述したようにユーザの視線入力が検出される。なお、赤外線カメラ32の受光レベルは、シャッター速度およびアンプゲイン値に基づいて算出される。たとえば、照度が高い場合、シャッター速度が速くなり、アンプゲイン値が低くなる。一方、照度が低い場合、シャッター速度が遅くなり、アンプゲイン値が高くなる。
以下、さらにその他の実施例の視線入力処理のフロー図を用いて、詳細に説明する。図14を参照して、さらにその他の実施例の視線入力処理が実行されると、プロセッサ40は、ステップS51で赤外線LED30を弱発光させ、ステップS53で赤外線カメラ233の電源をオンにする。続いて、ステップS55でプロセッサ40は、赤外線カメラ32の受光レベルを測定する。つまり、赤外線カメラ32のシャッター速度およびアンプゲイン値に基づいて、赤外線カメラ32の受光レベルが算出される。
続いて、ステップS57でプロセッサ40は、受光レベルが閾値未満であるか否かを判断する。つまり、ステップS3と同様、赤外線LED30から出力される赤外線がユーザの眼に影響を与える範囲にユーザの顔が存在しているかが判断される。ステップS57で“NO”であれば、つまり受光レベルが閾値を超えていれば、プロセッサ40はステップS61の処理に進む。そして、プロセッサ40は、ステップS61で赤外線LED30および赤外線カメラ32をオフにして、視線入力処理を終了する。
一方、ステップS57で“YES”であれば、つまり受光レベルが閾値未満であれば、ステップS59でプロセッサ40は、赤外線LED30を通常発光の状態にする。続いて、ステップS11−S29の処理が実行され、ユーザの視線入力が検出された後、プロセッサ40はステップS61の処理に進む。ステップS61では、上述したように、赤外線LED30および赤外線カメラ32がオフにされる。つまり、視線入力が検出されたため、赤外線LED30および赤外線カメラ32の電源がオフにされる。そして、ステップS61の処理が終了すれば、プロセッサ40は視線入力処理を終了する。
また、本実施例では、プロセッサの処理が視線操作によって実行される場合について説明したが、キー操作、タッチ操作および視線操作が組み合わせられてもよいことは、言うまでもない。ただし、他の実施例では、視線操作による処理が実行されている場合には、キー操作やタッチ操作を受け付けないようにしてもよい。
また、本実施例では、視線操作が可能である場合について説明したが、実際には、視線操作(視線入力)が可能な場合と可能でない場合とがある。視線操作が可能な場合とは、たとえば予め視線操作を行うことが可能であると設定されたアプリケーションが実行されているときである。その対象となるアプリケーションの一例としては、電子書籍アプリケーションや、メールアプリケーションなどがあげられる。一方、視線操作が可能でない場合とは、たとえば予め視線操作を行うことが不可能であると設定されたアプリケーションが実行されているときである。その対象となるアプリケーションの一例としては、通話機能があげられる。また、視線操作が可能である場合には、その旨のメッセージないし画像(アイコン)を表示するようにしてもよい。さらに、視線操作を実行している場合には、視線入力を受け付けている(視線操作の実行中である)旨のメッセージないし画像を表示するようにしてもよい。このようにすれば、使用者は、視線操作が可能であること、視線入力が受け付けられていることを認識することが出来る。
また、携帯電話機10が加速度センサまたはジャイロセンサを有する場合、視線操作の有効/無効は、携帯電話機10の向きに応じて切り替えられてもよい。
また、他の実施例の赤外線カメラ32は、通常のカラーカメラに比べて赤外線に対する感度が高いものであってもよい。また、その他の実施例の赤外線カメラ32を構成するカラーカメラには、赤外線波長の光を減衰(カット)し、R,G,Bの波長の光をよりよく受光させるための赤外線カットフィルタ(ローパスフィルタ)が設けられていてもよい。赤外線カットフィルタが設けられた赤外線カメラ32の場合、赤外線波長の光の感度を高めておくとしてもよい。また、この赤外線カットフィルタを赤外線カメラ32から着脱自在としてもよい。
また、その他の実施例では、現在設定されているモードを示すモードアイコンがユーザに示されてもよい。たとえば、図15(A),(B)を参照して、低精度モード(省電力モード)が設定されている場合、状態表示領域70には「Lo」の文字列を含む第1モードアイコン100が表示される。一方、高精度モードが設定されている場合、状態表示領域70には、「Hi」の文字列を含む第2モードアイコン102が表示される。このように第1モードアイコン100または第2モードアイコン102を表示することで、ユーザは、第1モードアイコン100または第2モードアイコン102によって、現在のモードを適切に把握することが出来る。
ただし、どちらか一方のモードが設定されたときだけ、第1モードアイコン100または第2モードアイコン102が表示されるようにしてもよい。たとえば、低精度モードが設定されているときには、第1モードアイコン100が表示されないようにし、高精度モードが設定されたときだけ、第2モードアイコン102が表示されるようにしてもよい。
また、本実施例で用いられたプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して携帯電話機10に配信されてもよい。また、CD,DVD,BDなどの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体に複数のプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、プログラムが本実施例と同等の構成の電子機器にインストールされた場合、本実施例と同等の効果が得られる。
そして、本明細書中で挙げた、具体的な数値は、いずれも単なる一例であり、製品の仕様変更などに応じて適宜変更可能である。
ここで、以下の説明における括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述した実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
本実施例は、ユーザの注視点に基づく入力である視線入力を検出し、視線入力に基づく動作を実行する、電子機器であって、視線入力を検出するための検出処理を実行するプロセッサ、特定領域および操作用のオブジェクトを表示するオブジェクト表示領域を含む画面を表示する表示部、注視点を検出する検出部、ユーザの注視点が特定領域に含まれているとき、視線入力の検出精度を第1精度モードに設定する第1設定部、およびユーザの注視点がオブジェクト表示領域に含まれているとき、視線入力の検出精度を、第1精度モードより検出精度が高い第2精度モードに設定する第2設定部を備える、電子機器である。
本実施例では、電子機器(10:実施例において対応する部分を例示する参照符号。以下、同じ。)のプロセッサ(40)は視線による入力(以下、視線入力と言う。)を検出するための検出処理を実行する。たとえば、検出処理が実行されている状態では、注視点が同じ位置で検出された回数が判定回数に達したときに、視線入力が検出される。また、視線入力が検出されると、その入力位置に基づいて動作が実行される。表示部(14)は、たとえば、電子書籍アプリケーションによる文章が表示される特定領域と、その電子書籍アプリケーションを操作するためのオブジェクトを表示するオブジェクト表示領域を含む画面を表示する。検出部(40,S15)は、ユーザの注視点を検出する。第1設定部(40,S21)は、たとえばユーザの注視点が電子書籍アプリケーションによる本文が表示される特定領域に含まれているとき、視線入力の検出精度を第1精度モード(低精度モード)に設定する。一方、第2設定部(40,S23)は、たとえばユーザの注視点が電子書籍アプリケーションを操作するオブジェクト表示部に含まれているとき、視線入力の検出精度を、第1精度モードより検出精度が高い第2精度モード(高精度モード)に設定する。
本実施例によれば、ユーザの視線の位置に基づいて視線入力の検出精度を変化させることで、ユーザの視線を検出しているときの消費電力を抑えることが出来る。
他の実施例は、視線入力を検出するためのカメラをさらに備え、第1精度モードが設定されたとき、カメラのフレームレートを低くする。
他の実施例では、カメラ(32)は、視線入力を検出するために電子機器に設けられる。そして、第1精度モードが設定されたとき、カメラのフレームレートが低く設定される。
他の実施例によれば、カメラのフレームレートを下げることで、視線検出中のカメラの消費電力を抑えることが出来る。その結果、ユーザの視線を検出しているときの消費電力を抑えることが出来る。
その他の実施例は、第1精度モードが設定されたとき、プロセッサの処理頻度を低くする。
その他の実施例では、第1精度モードが設定されると、プロセッサは、視線入力を検出するための処理を実行する頻度を下げる。
その他の実施例によれば、視線検出中のプロセッサの消費電力を抑えることが出来るため、ユーザの視線を検出しているときの消費電力を抑えることが出来る。
さらにその他の実施例は、第1精度モードが設定されたとき、プロセッサによる検出処理のアルゴリズムが簡易化される。
さらにその他の実施例では、たとえば、視線入力処理のアルゴリズムが簡易化されると、検出された視線の入力位置の精度が、第2精度モードが設定された状態に比べて低くなる。
さらにその他の実施例によれば、視線検出処理のアルゴリズムを簡易化することで、ハードウェアの動作を変更することなく、ユーザの視線を検出しているときの消費電力を抑えることが出来る。
他の実施例は、ユーザの注視点に基づく入力である視線入力を検出し、視線入力に基づく動作を実行し、視線入力を検出するための検出処理を実行するプロセッサおよび特定領域および操作用のオブジェクトを表示するオブジェクト表示領域を含む画面を表示する表示部を有する、電子機器における視線入力方法であって、電子機器のプロセッサが、ユーザの注視点が特定領域に含まれているとき、視線入力の検出精度を第1精度モード(低精度モード)に設定する第1設定ステップ、およびユーザの注視点がオブジェクト表示領域に含まれているとき、視線入力の検出精度を、第1精度モードより検出精度が高い第2精度モードに設定する第2設定ステップを実行する、視線入力方法である。
他の実施例でも、ユーザの視線の位置に基づいて視線入力の検出精度を変化させることで、ユーザの視線を検出しているときの消費電力を抑えることが出来る。
この発明が詳細に説明され図示されたが、それは単なる図解および一例として用いたものであり、限定であると解されるべきではないことは明らかであり、この発明の精神および範囲は添付されたクレームの文言によってのみ限定される。
10 …携帯電話機
14 …ディスプレイ
16 …タッチパネル
30 …赤外線LED
32 …赤外線カメラ
34 …近接センサ
40 …プロセッサ
50 …入力装置
54 …フラッシュメモリ
56 …RAM
60 …LEDドライバ
62 …撮影画像処理回路

Claims (5)

  1. ユーザの注視点に基づく入力である視線入力を検出し、前記視線入力に基づく動作を実行する、電子機器であって、
    前記視線入力を検出するための検出処理を実行するプロセッサ、
    特定領域および操作用のオブジェクトを表示するオブジェクト表示領域を含む画面を表示する表示部、
    前記注視点を検出する検出部、
    ユーザの注視点が前記特定領域に含まれているとき、前記視線入力の検出精度を第1精度モードに設定する第1設定部、および
    ユーザの注視点が前記オブジェクト表示領域に含まれているとき、前記視線入力の検出精度を、前記第1精度モードより検出精度が高い第2精度モードに設定する第2設定部を備える、電子機器。
  2. 前記視線入力を検出するためのカメラをさらに備え、
    前記第1精度モードが設定されたとき、前記カメラのフレームレートを低くする、請求項1記載の電子機器。
  3. 前記第1精度モードが設定されたとき、前記プロセッサの処理頻度を低くする、請求項1記載の電子機器。
  4. 前記第1精度モードが設定されたとき、前記プロセッサが実行する検出処理のアルゴリズムが簡易化される、請求項1記載の電子機器。
  5. ユーザの注視点に基づく入力である視線入力を検出し、前記視線入力に基づく動作を実行し、前記視線入力を検出するための検出処理を実行するプロセッサおよび特定領域および操作用のオブジェクトを表示するオブジェクト表示領域を含む画面を表示する表示部を有する、電子機器における視線入力方法であって、前記電子機器の前記プロセッサが次のステップを実行する:
    ユーザの注視点が前記特定領域に含まれているとき、前記視線入力の検出精度を第1精度モードに設定する第1設定ステップ、および
    ユーザの注視点が前記オブジェクト表示領域に含まれているとき、前記視線入力の検出精度を、前記第1精度モードより検出精度が高い第2精度モードに設定する第2設定ステップ。
JP2014550205A 2012-11-27 2013-11-27 電子機器および視線入力方法 Pending JPWO2014084224A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012258413 2012-11-27
JP2012258413 2012-11-27
PCT/JP2013/081837 WO2014084224A1 (ja) 2012-11-27 2013-11-27 電子機器および視線入力方法

Publications (1)

Publication Number Publication Date
JPWO2014084224A1 true JPWO2014084224A1 (ja) 2017-01-05

Family

ID=50827860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014550205A Pending JPWO2014084224A1 (ja) 2012-11-27 2013-11-27 電子機器および視線入力方法

Country Status (3)

Country Link
US (1) US20150309568A1 (ja)
JP (1) JPWO2014084224A1 (ja)
WO (1) WO2014084224A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9633186B2 (en) * 2012-04-23 2017-04-25 Apple Inc. Systems and methods for controlling output of content based on human recognition data detection
JP2015090569A (ja) * 2013-11-06 2015-05-11 ソニー株式会社 情報処理装置及び情報処理方法
WO2016162822A1 (en) * 2015-04-08 2016-10-13 Controlrad Systems Inc. Devices and methods for monitoring gaze
CN106843709B (zh) * 2015-12-04 2020-04-14 阿里巴巴集团控股有限公司 根据实时信息显示展现对象的方法和装置
TW201740250A (zh) * 2016-05-04 2017-11-16 原相科技股份有限公司 觸控偵測方法以及觸控偵測系統
WO2018112137A1 (en) * 2016-12-15 2018-06-21 General Electric Company System and method for image segmentation using a joint deep learning model
US10757328B2 (en) * 2016-12-23 2020-08-25 Microsoft Technology Licensing, Llc Eye tracking using video information and electrooculography information
JP7211966B2 (ja) 2017-04-14 2023-01-24 マジック リープ, インコーポレイテッド マルチモーダル眼追跡
US10810773B2 (en) * 2017-06-14 2020-10-20 Dell Products, L.P. Headset display control based upon a user's pupil state
KR102495359B1 (ko) * 2017-10-27 2023-02-02 삼성전자주식회사 객체 트래킹 방법 및 장치
US10852823B2 (en) 2018-10-23 2020-12-01 Microsoft Technology Licensing, Llc User-specific eye tracking calibration for near-eye-display (NED) devices
US10855979B2 (en) 2018-10-23 2020-12-01 Microsoft Technology Licensing, Llc Interpreting eye gaze direction as user input to near-eye-display (NED) devices for enabling hands free positioning of virtual items
US10718942B2 (en) 2018-10-23 2020-07-21 Microsoft Technology Licensing, Llc Eye tracking systems and methods for near-eye-display (NED) devices
US10996746B2 (en) 2018-10-23 2021-05-04 Microsoft Technology Licensing, Llc Real-time computational solutions to a three-dimensional eye tracking framework
US10838490B2 (en) * 2018-10-23 2020-11-17 Microsoft Technology Licensing, Llc Translating combinations of user gaze direction and predetermined facial gestures into user input instructions for near-eye-display (NED) devices
US11740071B2 (en) 2018-12-21 2023-08-29 Apple Inc. Optical interferometry proximity sensor with temperature variation compensation
US11156456B2 (en) 2019-05-21 2021-10-26 Apple Inc. Optical proximity sensor integrated into a camera module for an electronic device
US11473898B2 (en) 2019-05-24 2022-10-18 Apple Inc. Wearable voice-induced vibration or silent gesture sensor
US11695758B2 (en) * 2020-02-24 2023-07-04 International Business Machines Corporation Second factor authentication of electronic devices
US11874110B2 (en) 2020-09-25 2024-01-16 Apple Inc. Self-mixing interferometry device configured for non-reciprocal sensing
US11460293B2 (en) 2020-09-25 2022-10-04 Apple Inc. Surface quality sensing using self-mixing interferometry
US11629948B2 (en) 2021-02-04 2023-04-18 Apple Inc. Optical interferometry proximity sensor with optical path extender
WO2023215112A1 (en) * 2022-05-04 2023-11-09 Apple Inc. Retinal reflection tracking for gaze alignment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048358A (ja) * 2010-08-25 2012-03-08 Sony Corp 閲覧機器、情報処理方法およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091325A (ja) * 1996-09-13 1998-04-10 Toshiba Corp 視線検出システム
JP2009301166A (ja) * 2008-06-11 2009-12-24 Panasonic Corp 電子機器制御装置
US8593375B2 (en) * 2010-07-23 2013-11-26 Gregory A Maltz Eye gaze user interface and method
US20120229391A1 (en) * 2011-01-10 2012-09-13 Andrew Skinner System and methods for generating interactive digital books
US9519423B2 (en) * 2011-04-22 2016-12-13 Sony Corporation Information processing apparatus
US8976110B2 (en) * 2011-10-27 2015-03-10 Tobii Technology Ab Power management in an eye-tracking system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012048358A (ja) * 2010-08-25 2012-03-08 Sony Corp 閲覧機器、情報処理方法およびプログラム

Also Published As

Publication number Publication date
US20150309568A1 (en) 2015-10-29
WO2014084224A1 (ja) 2014-06-05

Similar Documents

Publication Publication Date Title
WO2014084224A1 (ja) 電子機器および視線入力方法
JP6043586B2 (ja) 電子機器、視線入力プログラムおよび視線入力方法
CN109782915B (zh) 用于控制电子装置的方法和设备
JP6105953B2 (ja) 電子機器、視線入力プログラムおよび視線入力方法
EP2990852B1 (en) Head-mounted display hosting a smartphone for providing virtual reality environment
US20220066725A1 (en) Message processing method, related apparatus, and system
US11243657B2 (en) Icon display method, and apparatus
US20220206741A1 (en) Volume adjustment method and electronic device
US11258893B2 (en) Method for prompting notification message and mobile terminal
JP6062175B2 (ja) 携帯端末、省電力制御プログラムおよび省電力制御方法
CN112506386B (zh) 一种折叠屏显示方法及电子设备
KR20210068097A (ko) 시스템 탐색 바 표시 제어 방법, 그래픽 사용자 인터페이스 및 전자 디바이스
US11843715B2 (en) Photographing method and terminal
US11625164B2 (en) Display method and terminal device
WO2022134632A1 (zh) 作品处理方法及装置
CN109407948B (zh) 一种界面显示方法及移动终端
CN108958587B (zh) 分屏处理方法、装置、存储介质和电子设备
CN112764654B (zh) 组件的吸附操作方法、装置、终端及存储介质
KR102553558B1 (ko) 전자 장치 및 전자 장치의 터치 이벤트 처리 방법
CN109104573B (zh) 一种确定对焦点的方法及终端设备
JP2014067203A (ja) 電子機器、注視点検出プログラムおよび注視点検出方法
CN109040427B (zh) 分屏处理方法、装置、存储介质和电子设备
EP3862853A1 (en) Touch operation locking method and electronic device
CN111158575A (zh) 终端执行处理的方法、装置、设备以及存储介质
CN109634503B (zh) 一种操作响应方法及移动终端

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160301