JP2013140540A - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP2013140540A
JP2013140540A JP2012001114A JP2012001114A JP2013140540A JP 2013140540 A JP2013140540 A JP 2013140540A JP 2012001114 A JP2012001114 A JP 2012001114A JP 2012001114 A JP2012001114 A JP 2012001114A JP 2013140540 A JP2013140540 A JP 2013140540A
Authority
JP
Japan
Prior art keywords
display
area
gaze
predetermined
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012001114A
Other languages
English (en)
Other versions
JP5945417B2 (ja
Inventor
Nao Tanaka
奈緒 田中
Shigesuke Osada
恵祐 長田
Yoshinori Kida
良教 木田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2012001114A priority Critical patent/JP5945417B2/ja
Priority to US13/733,501 priority patent/US20130176208A1/en
Publication of JP2013140540A publication Critical patent/JP2013140540A/ja
Application granted granted Critical
Publication of JP5945417B2 publication Critical patent/JP5945417B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】視線入力の認識率を向上することができる、電子機器を提供することである。
【解決手段】携帯電話機10は赤外線カメラ30および赤外線LED32を含む。赤外線カメラは、ディスプレイ14の上部側に配置され、赤外線LEDはその下部側に配置される。使用者は、視線入力により、画面上のボタン画像を指示したり、所定の領域を指定したりする。視線を検出するとき、ディスプレイの下部側に配置された赤外線LEDから発光される赤外線(赤外光)は、瞳孔の下部に照射される。したがって、使用者が瞼を少し閉じた状態であっても、瞳孔および赤外光の反射光が撮影される。
【効果】視線入力の認識率を向上させることができる。
【選択図】図1

Description

この発明は、電子機器に関し、特にたとえば、表示部を備える、電子機器に関する。
背景技術の一例が特許文献1に開示されている。この特許文献1のデータ入力装置は、メニュー又はキーボード等の入力データ群を表示装置で表示し、該装置使用者の眼の部分をカメラで撮影し、該撮影画像から該使用者の視線方向を決定し、該視線方向に位置する入力データを決定し、決定された入力データを外部機器等に出力する。
背景技術の他の例が特許文献2に開示されている。この特許文献2の視点入力装置は、カメラから送られてくる操作者の目の位置データを基に文字や数字、及び記号等の符号の問い合わせを行い、操作者が視点を置いている符号を検出して、検出された符号が予め設定された所定時間だけ固定されていると判断した符号を入力回路に出力する。
背景技術のその他の例が特許文献3に開示されている。この特許文献3の情報表示装置は、使用者が視線により選択を行うと、その視線方向から注視点を推定し、推定した視線方向から所定の情報、商品等を予想し、選択対象となる情報、商品等を表示する。
背景技術のさらに他の例が特許文献4に開示されている。この特許文献4の視線入力装置は、文字領域には、複数種類の文字群の一部が表示され、観察者の視線の位置を示す視線カーソルによって、文字を選び入力する。
背景技術のその他の例が特許文献5に開示されている。この特許文献5のデータ入力装置は、表示部の一部を見る瞳の位置を検出し、検出された位置に対応する表示部の座標を計算して、表示部のその座標の位置にカーソルを表示する。
特開2003−196017号公報[G06F 3/033, G06F 3/00, G06T 1/00, G06T 7/60] 特開平9−212287号公報[G06F 3/033] 特開2003−150306号公報[G06F 3/033] 特開2000−20196号公報[G06F 3/00, G06F 3/033] 特開平9−204260号公報[G06F 3/033]
しかし、視線入力デバイスは、センサと眼球との距離に比例して機器が大きくなる傾向がある。したがって、たとえば携帯端末のような比較的小型の電子機器に搭載することを考慮すると、特許文献1−4に記載の背景技術では、装置が比較的大きく、適切でない。また、特許文献5に記載の背景技術では、ファインダのような窓に接眼している使用者の眼の瞳を撮影した画像に基づいて、表示部に表示されたカーソルを移動させるものであり、窓を通して表示部を見るような限られた使用状況でしか視線を検出することができない。つまり、目と装置とが離れている場合には、視線を正しく検出することができない場合がある。
それゆえに、この発明の主たる目的は、新規な、電子機器を提供することである。
この発明の他の目的は、視線入力の認識率を向上することができる、電子機器を提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、表示部を備える電子機器であって、表示部の上部側に配置された赤外線を検出するための赤外線検出部と、表示部の下部側に配置された赤外線出力部を備える、電子機器である。
第1の発明では、電子機器(10)は、表示部(14)を備える。電子機器は、表示部の上部側に配置される赤外線を検出するための赤外線検出部(30)と、表示部の下部側に配置される赤外線出力部を備える。したがって、電子機器の表示部に正対する使用者の目の瞳孔の中央よりも下部に赤外線(赤外光)が照射される。このため、使用者の瞼が少し閉じた状態であっても、赤外線検出部によって赤外光の反射光が撮影される。
第1の発明によれば、赤外光の反射光を確実に撮影することができるので、視線入力の認識率を向上させることができる。したがって、電子機器を視線入力により操作する場合に、その操作を確実に受け付けることができる。
第2の発明は、第1の発明に従属し、赤外線検出部と赤外線出力部を表示部の縦方向と並行な直線上に配置する。
第2の発明では、赤外線検出部と赤外線出力部を表示部の縦方向と並行な直線上に配置する。たとえば、赤外線検出部の撮像面の中心位置と赤外線出力部の発光面の中心位置とが同じ直線上となるように、赤外線検出部および赤外線出力部が配置される。
第2の発明によれば、赤外線検出部と赤外線出力部を直線上に配置するので、位置がずれていることに起因する補正処理を行う必要がない。つまり、複雑な計算が不要である。
第3の発明は、第2の発明に従属し、他の赤外線出力部をさらに設け、他の赤外線出力部を赤外線検出部に対して表示部の横方向と並行な直線上に配置する。
第3の発明では、他の赤外線出力部(34)がさらに設けられる。この他の赤外線出力部は、赤外線検出部に対して表示部の横方向と並行な直線上であり、当該表示部の横方向において当該赤外線検出部の反対側に配置される。たとえば、赤外線検出部の撮像面の中心位置と他の赤外線出力部の発光面の中心位置とが同じ直線上となるように、他の赤外線出力部が配置される。したがって、電子機器を横向きで使用する場合には、赤外線検出部と他の赤外線出力部を用いることにより、視線方向が検出される。
第3の発明によれば、電子機器の向きに拘わらず視線入力の認識率を向上させることができる。
第4の発明は、第1の発明に従属し、赤外線検出部と赤外線出力部を、表示部を挟んで対角の位置に配置する。
第4の発明では、赤外線検出部と赤外線出力部を、表示部を挟んで対角の位置に配置する。たとえば、四角形の表示面を有する表示部である場合、その対角線と並行な直線上に、赤外線検出部と赤外線出力部を配置する。したがって、電子機器を縦で使用しても、横で使用しても、それらを用いることにより、視線方向が検出される。
第4の発明によれば、部品を増やさずに電子機器を縦向きおよび横向きの両方において視線方向を検出することができる。
第5の発明は、第1ないし第4の発明のいずれかに従属し、赤外線検出部によって撮影された使用者の瞳孔と赤外線出力部の反射光に基づいて、当該使用者が注視する表示部の画面上の注視領域を検出する注視領域検出部と、注視領域検出部によって検出された注視領域に基づいて所定の処理を実行する実行部をさらに備える。
第5の発明では、電子機器は、注視領域検出部(40、62、S49)と、実行部(40、S139−S149、S177、S211、S215、S249、S253、S257、S259、S291、S293、S295)をさらに備える。注視領域検出部は、赤外線検出部によって撮影された使用者の瞳孔と赤外線出力部の反射光に基づいて、当該使用者が注視する表示部の画面上の領域を注視領域として検出する。たとえば、2次元の撮影画像において、反射光の中心位置を始点とし、瞳孔の中心位置を終点とする視線ベクトルが検出され、この視線ベクトルに応じて予め分割された画面上の領域が注視領域として決定される。実行部は、注視領域検出部によって検出された注視領域に基づいて所定の処理を実行する。たとえば、注視領域と重なる位置ないし領域に表示されたボタン画像、アイコン、サムネイルを操作(オン)したり、注視領域と重なる位置ないし領域に設定された所定の領域(実施例では、操作領域)に設定された操作ないし動作(ページめくりや画面のスクロールなど)を実行したりする。
第5の発明によれば、使用者の視線が向けられる領域に応じて所定の処理が実行されるので、視線入力により、電子機器を操作することができる。
第6の発明は、第5の発明に従属し、表示部は1または複数の縮小画像を表示し、注視領域検出部によって検出された注視領域が重なる縮小画像の表示態様を時間の経過に従って変化させる表示態様変化部をさらに備える。
第6の発明では、表示部は、1または複数の縮小画像を表示する。たとえば、縮小画像は、ボタン画像、アイコンまたはサムネイルなどである。表示態様変化部は、注視領域検出部によって検出された注視領域が重なる縮小画像の表示態様を時間の経過に従って変化させる。たとえば、縮小画像の背景の色が変化されたり、縮小画像の大きさが変化されたり、縮小画像が所定のアニメーションで表示(回転表示など)されたりする。
第6の発明によれば、注視領域が重なる縮小画像の表示態様を変化させるので、使用者が注視していると認識している縮小画像を報知するとともに、注視している時間の経過を表示態様の変換によって報知することができる。
第7の発明は、第6の発明に従属し、実行部は、表示態様変化部によって縮小画像が所定の態様に変化されたとき、当該縮小画像に割り当てられた所定の処理を実行する。
第7の発明では、実行部は、表示態様変化部によって縮小画像が所定の態様に変化されたとき、当該縮小画像に割り当てられた所定の処理を実行する。たとえば、所定の態様は、縮小画像の背景色がすべて変化された状態、縮小画像が所定の大きさに変化された状態または縮小画像が所定の回転数だけ回転された状態を意味する。
第7の発明によれば、注視されている縮小画像が所定の態様に変化されると、当該縮小画像に割り当てられた所定の処理が実行されるので、或る程度継続して縮小画像を注視する必要があるため、誤操作を防止することができる。
第8の発明は、第5の発明に従属し、表示部に1または複数の所定領域を設定し、実行部は、注視領域検出部によって検出された注視領域が所定領域と重なるとき、当該所定領域に割り当てられた所定の処理を実行する。
第8の発明では、表示部に1または複数の所定領域(210、212、410L、410R、410T、410Bなど)が設定される。実行部は、注視領域検出部によって検出された注視領域が所定領域と重なるとき、当該所定領域に割り当てられた所定の処理を実行する。
第8の発明によれば、縮小画像が表示されていない場合にも、所定領域を設定することが可能であり、当該所定領域を注視することにより、所定の処理を実行することができる。
第9の発明は、第8の発明に従属し、所定の処理は、ページの移動である。
第9の発明では、所定の処理は、ページの移動であり、1ページずつ、ページを送ったり、ページを戻したりする。また、所定の処理は、最終のページや最初のページに移動することであってもよい。
第9の発明によれば、ページの移動を視線操作により指示することができる。
第10の発明は、第8の発明に従属し、所定の処理は、画面のスクロールである。
第10の発明では、所定の処理は、画面のスクロールであり、画面を左右方向にスクロールさせたり、上下方向にスクロールさせたり、斜め方向にさせたりする。
第10の発明によれば、画目のスクロールを視線操作により指示することができる。
第11の発明は、第5の発明に従属し、表示部に文字ないし縮小画像を含むロック画面を表示し、注視領域検出部によって検出される注視領域が重なる文字ないし縮小画像の配列を時系列に従って検出する配列検出部と、配列検出部によって検出された文字ないし縮小画像の配列に所定の配列が含まれるとき、ロック画面を消去するロック解除部をさらに備える。
第11の発明では、表示部に文字ないし縮小画像を含むロック画面(100)が表示される。たとえば、セキュリティのロック機能がオンされている場合に、電子機器の使用を開始するときや所定のアプリケーションないし機能を実行(開始)するときに、ロック画面が表示される。配列検出部(40、S13)は、注視領域検出部によって検出される注視領域が重なる文字ないし縮小画像の配列を時系列に従って検出する。つまり、視線入力により指示された文字ないし縮小画像がその順番に従って検出される。ロック解除部(40、S19)は、配列検出部によって検出された文字ないし縮小画像の配列に所定の配列が含まれるとき(S13で“YES”)、ロック画面を消去する。
第11の発明によれば、ロック解除を視線操作で行うことができるため、暗証番号などを入力している状況を他人に見られたとしても、当該他人は暗証番号を容易に知ることができない。つまり、セキュリティの向上を図ることができる。
第12の発明は、第5の発明に従属し、表示部に所定のオブジェクトを含むロック画面を表示し、注視領域検出部によって検出される注視領域が所定のオブジェクトと重なるとき、当該所定のオブジェクトの表示態様を変化させる表示態様変化部と、表示態様変化部によって変化された表示態様が所定の態様に変化されたとき、ロック画面を消去するロック解除部をさらに備える。
第12の発明では、表示部に所定のオブジェクト(460)を含むロック画面(450)が表示される。たとえば、キー(タッチパネル)のロック機能がオンされている場合に、表示部の電源をオフからオンにするときに、ロック画面が表示される。表示態様変化部(40、S323、S355)は、注視領域検出部によって検出される注視領域が所定のオブジェクトと重なるとき、当該所定のオブジェクトの表示態様を変化させる。たとえば、所定のオブジェクトが、視線入力により、移動されたり、大きさを変化されたり、色を変化されたりする。ロック解除部(40、S327、S359)は、表示態様変化部によって変化された表示態様が所定の態様に変化されたとき(S325、S357で“YES”)、ロック画面を消去する。
第12の発明によれば、ロック解除を視線操作で行うことができるため、手を使えない状況においても、ロック解除を行うことができる。
第13の発明は、第5の発明に従属し、表示部に所定のオブジェクトを含むロック画面を表示し、注視領域検出部によって検出される注視領域が所定のオブジェクトと重なる時間が所定時間を経過したとき、ロック画面を消去するロック解除部をさらに備える。
第13の発明では、表示部に所定のオブジェクト(460)を含むロック画面(450)が表示される。たとえば、キー(タッチパネル)のロック機能がオンされている場合に、表示部の電源をオフからオンにするときに、ロック画面が表示される。ロック解除部(40、S359)は、注視領域検出部によって検出される注視領域が所定のオブジェクトと重なる時間が所定時間を経過したとき(S357で“YES”)、ロック画面を消去する。
第13の発明においても、第12の発明と同様に、手を使えない状況においても、ロック解除を行うことができる。
第14の発明は、第5の発明に従属し、アラーム時に表示部に少なくともアラームを停止させるためのアラーム画面を表示し、実行部は、注視領域検出部によって検出される注視領域がアラーム画面の所定領域に所定時間継続して重なるとき、アラームを停止させる。
第14の発明では、アラーム時に、表示部に少なくともアラームを停止させるためのアラーム画面(250、600)が表示される。実行部は、注視領域検出部によって検出される注視領域がアラーム画面の所定領域(260、262、610)に所定時間継続して重なるとき、アラームを停止させる。
第14の発明によれば、視線操作によりアラームを停止させることができるので、電子機器を目覚まし時計として機能させる場合には、使用者は必ず目を開ける必要があるため、目覚まし時計としての役割を適切に果たすことができる。また、スケジュールのアラームとして機能させる場合には、表示部にスケジュールの内容を表示することにより、スケジュールの内容を確実に確認させることができる。
第15の発明は、第5の発明に従属し、電話機能を備え、着信時に表示部に少なくとも着信応答または着信停止するための2つの所定領域を含む選択画面を表示し、実行部は、注視領域検出部によって検出される注視領域が選択画面の所定領域に所定時間継続して重なるとき、当該所定領域に応じて着信応答または着信停止する。
第15の発明では、電子機器は、電話機能を備える。たとえば、電子機器は、携帯電話機である。たとえば、電話の着信時に、表示部に少なくとも着信応答または着信停止するための2つの所定領域を含む選択画面(350)が表示される。実行部は、注視領域検出部によって検出される注視領域が選択画面の所定領域に所定時間継続して重なるとき、当該所定領域に応じて着信応答または着信停止(着信拒否)する。
第15の発明によれば、視線操作により、電話の着信に対して応答したり停止したりすることができる。
この発明によれば、表示面に対して赤外線カメラを上部側に設けるとともに、表示面に対して赤外線LEDを下部側に設けるので、比較的小型の電子機器であっても、使用者の目に照射された赤外光の反射光を確実に撮影することができる。したがって、視線入力の認識率を向上させることができる。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例の携帯電話機を示す外観図である。 図2は図1に示す携帯電話機の電気的な構成を示すブロック図である。 図3は図1に示すディスプレイに表示されるセキュリティロックのロック画面の例を示す図である。 図4は図1に示すディスプレイに表示されるアプリ選択画面の一例を示す図である。 図5は図1に示すディスプレイに表示される電子書籍表示画面の一例を示す図である。 図6は図1に示すディスプレイに表示される目覚まし時計のアラーム画面および時計表示画面の例を示す図である。 図7は図1に示すディスプレイに表示される着信画面の一例を示す図である。 図8は図1に示すディスプレイに表示される地図表示画面の一例を示す図およびこの地図表示画面に設定される操作領域を説明するための図である。 図9は赤外線カメラと赤外線LEDとを接近して配置した場合と離して配置した場合において、赤外線カメラで撮影される瞳孔と反射光を説明するための図である。 図10は図1に示す携帯電話機の赤外線カメラと赤外線LEDを用いてディスプレイの表示面における注視領域を検出する場合における、視線ベクトルを検出する方法および撮影画像から両目の距離を検出する方法を説明するための図である。 図11はディスプレイの表示領域を分割した分割領域を説明するための図である。 図12は注視領域を検出するためのキャリブレーション時の或る時点における瞳孔および反射光の位置関係を示す図である。 図13は図2に示すRAMのメモリマップの一例を示す図である。 図14は図2に示すプロセッサのロック解除処理(セキュリティロック)を示すフロー図である。 図15は図2に示すプロセッサの注視領域検出処理を示すフロー図である。 図16は図2に示すプロセッサの実行機能判断処理の一部を示すフロー図である。 図17は図2に示すプロセッサの実行機能判断処理の他の一部であって、図16に後続するフロー図である。 図18は図2に示すプロセッサのアラーム処理の一部を示すフロー図である。 図19は図2に示すプロセッサのアラーム処理の他の一部であって、図18に後続するフロー図である。 図20は図2に示すプロセッサのアプリ選択処理を示すフロー図である。 図21は図2に示すプロセッサの電子書籍処理の一部を示すフロー図である。 図22は図2に示すプロセッサの電子書籍処理の他の一部であって、図21に後続するフロー図である。 図23は図2に示すプロセッサのブラウザ処理の一部を示すフロー図である。 図24は図2に示すプロセッサのブラウザ処理の他の一部であって、図23に後続するフロー図である。 図25は図2に示すプロセッサの着信処理の一部を示すフロー図である。 図26は図2に示すプロセッサの着信処理の他の一部であって、図25に後続するフロー図である。 図27は図1のディスプレイに表示されるキーロックのロック画面の一例を示す図である。 図28は図2に示すプロセッサのロック解除処理(キーロック)を示すフロー図である。 図29は図2に示すプロセッサの他のロック解除処理(キーロック)を示すフロー図である。 図30は図1に示すディスプレイに表示されるスケジュールのアラーム画面の例を示す図である。 図31は携帯電話機の他の例を示す外観図である。 図32は携帯電話機のその他の例を示す外観図である。
図1を参照して、この発明の一実施例の携帯電話機10は、いわゆるスマートフォンであり、縦長の扁平矩形のハウジング12を含む。ハウジング12の主面(表面)には、表示部として機能する、たとえば液晶や有機ELなどで構成されるディスプレイ14が設けられる。このディスプレイ14の上には、タッチパネル16が設けられる。また、ハウジング12の縦方向一端の表面側にスピーカ18が内蔵され、縦方向他端の表面側にマイク20が内蔵される。さらに、タッチパネル16とともに、ハードウェアキーとして、通話キー22、終話キー24およびメニューキー26が設けられる。さらにまた、スピーカ18の左側に赤外線カメラ30が設けられるとともに、マイク20の左側に赤外線LED32が設けられる。ただし、赤外線カメラ30の撮影面と赤外線LED32の発光面がハウジング12から露出するように、この赤外線カメラ30および赤外線LED32は設けられ、その他の部分はハウジング12に内蔵される。
たとえば、使用者は、ディスプレイ14に表示されたダイヤルキーに対して、タッチパネル16によってタッチ操作を行うことで電話番号を入力でき、通話キー22を操作して音声通話を開始することができる。終話キー24を操作すれば、音声通話を終了することができる。また、この終話キー24を長押しすることによって、携帯電話機10の電源をオン/オフすることができる。
また、メニューキー26を操作すれば、ディスプレイ14にメニュー画面が表示され、その状態でディスプレイ14に表示されているソフトウェアキーやメニューアイコンなどに対して、タッチパネル16によるタッチ操作を行うことによってメニューを選択し、その選択を確定させることができる。
なお、この実施例では、電子機器の一例としてスマートフォンのような携帯電話機について説明するが、表示装置を備える様々な電子機器に、この発明を適用可能であることを予め指摘しておく。たとえば、他の電子機器の例としては、フィーチャーフォン(ヒューチャーフォン)、タブレット端末やPDAなどの任意の携帯端末などが該当する。
図2を参照して、図1に示す携帯電話機10は、プロセッサ40を含み、このプロセッサ40には、赤外線カメラ30、無線通信回路42、A/D変換器46、D/A変換器48、入力装置50、表示ドライバ52、フラッシュメモリ54、RAM56、タッチパネル制御回路58、LEDドライバ60および撮影画像処理回路62などが接続される。
プロセッサ40は、コンピュータまたはCPUと呼ばれ、携帯電話機10の全体制御を司る。プロセッサ40には、RTC40aが内蔵されており、このRTC40aによって時刻(年月日を含む。)が計時される。RAM56には、フラッシュメモリ54に予め記憶されているプログラムの全部または一部が使用に際して展開(ロード)され、プロセッサ40はこのRAM56に展開されたプログラムに従って各種の処理を実行する。このとき、RAM56は、プロセッサ40のワーキング領域ないしバッファ領域として用いられる。
入力装置50は、図1に示すハードウェアキー(22、24、26)を含み、タッチパネル16およびタッチパネル制御回路58とともに操作部ないし入力部として機能する。使用者が操作したハードウェアキーの情報(キーデータ)はプロセッサ40に入力される。以下、ハードウェアキーによる操作を「キー操作」ということにする。
無線通信回路42は、アンテナ44を通して、音声通話やメールなどのための電波を送受信するための回路である。実施例では、無線通信回路42は、CDMA方式での無線通信を行うための回路である。たとえば、使用者が入力装置50などを操作して電話発信(発呼)を指示すると、無線通信回路42は、プロセッサ40の指示の下、電話発信処理を実行し、アンテナ44を介して電話発信信号を出力する。電話発信信号は、基地局および通信網を経て相手の電話機に送信される。そして、相手の電話機において着信処理が行われると、通信可能状態が確立され、プロセッサ40は通話処理を実行する。
通常の通話処理について具体的に説明する。まず、相手の電話機から送られてきた変調音声信号がアンテナ44によって受信される。次に、受信された変調音声信号には、無線通信回路42によって復調処理および復号処理が施される。そして、これらの処理によって得られた受話音声信号は、D/A変換器48によって音声信号に変換された後、スピーカ18から出力される。一方、マイク20を通して取り込まれた送話音声信号は、A/D変換器46によって音声データに変換された後、プロセッサ40に与えられる。音声データには、プロセッサ40の指示の下、無線通信回路42によって符号化処理および変調処理が施され、アンテナ44を介して出力される。したがって、変調音声信号は、基地局および通信網を介して相手の電話機に送信される。
また、相手の電話機からの電話発信信号がアンテナ44によって受信されると、無線通信回路42は、電話着信(着呼)をプロセッサ40に通知する。これに応じて、プロセッサ40は、表示ドライバ42を制御して、着信通知に記述された発信元情報(電話番号など)をディスプレイ14に表示する。また、これらの処理に伴い、プロセッサ40は、スピーカ18から着信音(着信メロディ、着信音声と言うこともある。)を出力させる。つまり、着信動作が実行される。
そして、使用者が入力装置50に含まれる通話キー22(図1)またはディスプレイ14に表示された応答ボタン(図7)を用いて応答操作を行うと、無線通信回路42は、プロセッサ40の指示の下、電話着信処理を実行する。さらに、通信可能状態が確立され、プロセッサ40は上述した通話処理を実行する。
また、通話可能状態に移行した後に入力装置50に含まれる終話キー24(図1)またはディスプレイ14に表示された終話ボタンによって通話終了操作が行われると、プロセッサ40は、無線通信回路42を制御して、通話相手に通話終了信号を送信する。そして、通話終了信号の送信後、プロセッサ40は通話処理を終了する。また、先に通話相手から通話終了信号を受信した場合も、プロセッサ40は通話処理を終了する。さらに、通話相手によらず、移動通信網から通話終了信号を受信した場合も、プロセッサ40は通話処理を終了する。
なお、プロセッサ40は、たとえば使用者によるボリュームを調整するための操作に応答して、D/A変換器48に接続されるアンプの増幅率を制御することによって、スピーカ18から出力される音声の音量を調整することができる。
また、表示ドライバ52は、プロセッサ40の指示の下、当該表示ドライバ52に接続されたディスプレイ14の表示を制御する。また、表示ドライバ52は表示する画像データを一時的に記憶するビデオメモリを含む。ディスプレイ14には、たとえばLEDなどを光源とするバックライトが設けられており、表示ドライバ52はプロセッサ40の指示に従って、そのバックライトの明るさや、点灯/消灯を制御する。
タッチパネル制御回路58には、図1に示すタッチパネル16が接続される。タッチパネル制御回路58は、タッチパネル16の動作のオン/オフ、タッチパネル16に対する使用者によるタッチの開始を示すタッチ開始信号、使用者によるタッチの終了を示す終了信号、および使用者がタッチしたタッチ位置を示す座標データ(タッチ座標データ)をプロセッサ40に入力する。プロセッサ40は、タッチパネル制御回路58より入力されたタッチ座標データに基づいて、使用者がどのアイコンやキーにタッチしたかを判断することができる。以下、タッチパネル16による操作を「タッチ操作」ということにする。
実施例では、タッチパネル16は、指などの物体が表面に接近して生じた電極間の静電容量の変化を検出する静電容量方式で、たとえば1本または複数本の指がタッチパネル16に触れたことを検出する。タッチパネル制御回路58はタッチ操作を検出するための検出部として機能する。具体的には、タッチパネル制御回路58は、タッチパネル16のタッチ有効範囲内でのタッチ操作を検出して、そのタッチ操作の位置を示すタッチ座標データをプロセッサ40に出力する。
タッチパネル16は、表面型の静電容量方式が採用されてもよいし、抵抗膜方式、超音波方式、赤外線方式および電磁誘導方式などが採用されてもよい。また、タッチ操作は使用者の指に限らず、スタイラスペンなどによって行われてもよい。
LEDドライバ60には、図1に示す赤外線LED32が接続される。LEDドライバ60は、プロセッサ40からの制御信号に基づいて、赤外線LED32のオン/オフ(点灯/消灯)を切り換える。
撮影画像処理回路62には、図1に示す赤外線カメラ30が接続される。撮影画像処理回路62は、赤外線カメラ30からの撮影画像データに画像処理を施し、モノクロの画像データをプロセッサ40に入力する。赤外線カメラ30は、プロセッサ40の指示の下、撮影処理を実行し、撮影画像データを撮影画像処理回路62に入力する。赤外線カメラ30は、たとえば、CCDやCMOSのような撮影素子を用いたカラーカメラと、赤外線フィルタとによって構成される。したがって、赤外線フィルタを着脱可能な構成にすれば、赤外線フィルタを外すことにより、カラー画像を取得することも可能である。
なお、上で説明した無線通信回路42、A/D変換器44およびD/A変換器46はプロセッサ40に含まれていてもよい。
このような構成の携帯電話機10では、キー操作やタッチ操作に代えて、視線による入力ないし操作(以下、「視線操作」ということがある。)が可能である。以下、図面を用いて、視線操作の例について説明する。視線操作に基づく注視領域の検出方法については後で詳細に説明するが、視線操作によって、視線とディスプレイ14の表示面とが交差する点(注視点)によって指示される所定の領域(以下、「操作領域」)に対応づけて設定された所定の処理が実行される。
たとえば、所定の処理としては、所定の情報が入力されたり、所定の動作(操作)が実行されたり、所定のアプリケーションが起動されたりすることが該当する。また、操作領域は、視線操作によって指示ないしオンすることができるボタン画像、アイコンまたはサムネイルのような縮小画像の表示領域が該当し、このような画像が表示されていない領域に操作領域のみが設定される場合もある。さらに、この実施例では、注視点を含む領域(後述する「分割領域」)が注視領域として決定され、この注視領域と重なったり、この注視領域に含まれたりする操作領域が視線操作によって指示されていると判断される。したがって、視線操作によって指示ないしオンされるボタン画像、アイコンまたはサムネイルのような縮小画像を表示する位置および大きさと、このような画像とは関係なく設定される操作領域の位置および大きさは、分割領域を考慮して決定される。たとえば、同一の分割領域に、複数の縮小画像が表示されたり、複数の操作領域が設定されたりしないようにされている。
図3(A)および図3(B)は、携帯電話機10のディスプレイ100に表示されるロック画面100の例を示す。たとえば、ロック画面100は、使用者の設定により、携帯電話機10の操作を開始する際や所定の機能(たとえば、アドレス帳機能や電子メール機能)を開始する際に、ディスプレイ14に表示される。ただし、ここでは、セキュリティのためのロック(セキュリティロック)機能について説明する。
図3(A)に示すように、ロック画面100は、表示領域102および表示領域104を含む。表示領域102には、電波強度、電池残量および現在時刻などが表示される。後述する表示領域152、202、252、302、352、402、452、602についても同様である。したがって、その都度の説明は省略する。図3(A)に戻って、表示領域104には、テンキーのような複数の数字キー(ボタン画像)110が表示される。
図3(A)に示すロック画面100では、予め使用者が設定した所定桁数の暗証番号が正しく入力されると、当該ロック画面100が消去(非表示)され、ディスプレイ14に、待ち受け画面や所望の機能の画面が表示される。この暗証番号の入力は、視線操作により行われる。したがって、このロック画面100が表示されている場合には、視線と画面との交点によって指示されるボタン画像が操作されたと判断される。ただし、上述したように、この実施例では、注視領域が検出されるため、この注視領域と重なる操作領域を有するボタン画像110がオン(操作)されたと判断される。
たとえば、暗証番号として4桁の数字「1460」が設定されている場合に、点線の矢印で示すように視線が移動したとすると、この視線の移動経路上に配置されるボタン画像110が、その視線が移動した順序で操作されたと判断される。したがって、図3(A)に示す例では、視線操作によって、数字「145690」が入力される。このため、設定されている暗証番号とは、桁数および数字が一致していない。
ここで、視線操作する場合には、視線により指示する画面上の位置は連続的に変化するため、2つのボタン画像の間に配置されるボタン画像も操作(オン)されてしまう。したがって、この実施例では、暗証番号に含まれない数字が視線操作によって入力されたとしても、視線操作によって暗証番号が入力される時間が第1所定時間(たとえば、30秒)以内であり、数字の並び順が一致している場合には、正しい暗証番号が入力されたと判断する。
したがって、視線操作によって、第1所定時間内に数字「145690」が入力された場合には、この入力された数字「145690」は暗証番号の数字「1460」をその順番で含んであるため、正しい暗証番号が入力されたと判断される。すると、ロック画面100が消去(非表示)され、待ち受け画面などの任意の画面が表示される。
また、図3(B)に示すロック画面100では、表示領域104に、所定の図柄が表示された複数のボタン画像120が表示される。この図3(B)に示すロック画面100では、予め使用者が設定した複数のボタン画像120を所定の順番で指示するように、視線操作を行うと、ロック画面100が消去される。
このように、視線操作でロック解除を行うので、たとえば、片手で携帯電話機10を持つことができるが、他方の手を使うことができない状況において、視線操作によってロック解除を行うことができる。また、ロック解除を視線で行うため、操作したボタン画像や操作した順番を他者に知られることがなく、セキュリティの向上を図ることができる。
また、使用者は、視線操作によって、アプリケーションを選択(実行)したり、メニューを選択したり、画像を選択したりすることができる。図4(A)は、アプリケーションないし機能を選択するための画面(アプリ選択画面)150の一例を示す。図4(A)に示すように、アプリ選択画面150は、表示領域152および表示領域154を含む。表示領域154には、携帯電話機10が備えるアプリケーションや機能を実行(起動)するための複数のアイコン160が表示される。
たとえば、図4(A)に示すようなアプリ選択画面150では、使用者が起動(実行)したいアプリケーションないし機能についてのアイコン160を注視し、注視している時間(注視時間)が第2所定時間(たとえば、1−3秒)を経過すると、注視しているアイコン160に割り当てられたアプリケーションないし機能が実行(選択)される。
その際、使用者が注視しているアイコン160および注視時間を使用者に知らせるために、プロセッサ40は、使用者が注視していると判断されたアイコン160の背景色を注視時間の長さに応じて線形的にまたは段階的に変化させる。たとえば、図4(B)に示すように、スケジュール機能についてのアイコン160が注視されている場合には、その注視時間に応じて背景色が変化される。図4(B)では、アイコン160に斜線を付すことにより、背景色が変化されていることを示す。背景色は、注視時間が第2所定時間と一致するタイミングで変化を終了するように、線形的にまたは段階的に変化される所定量(所定のドット幅)が設定される。
このように、注視時間に応じてアイコン160の背景色を変化させることにより、注視対象、および、注視時間(または注視すべき残りの時間)ないしアプリケーションや機能が実行されるまでの時間を表示態様(イメージ)により使用者に知らせることができる。
同様に、複数のボタン画像(サムネイルの場合も同じ。)が表示されている場合に、所望のボタン画像を注視すると、当該ボタン画像の背景色が変化され、注視している時間が第2所定時間を経過すると、当該ボタン画像に設定された操作(動作)が実行される。
この実施例では、背景色が変化されるようにしたが、これに限定される必要はない。つまり、アイコンの表示態様を変化させる方法は様々である。たとえば、注視されているアイコンが大きくされ、注視されていないアイコンが小さくされてもよい。また、注視されているアイコンを回転表示させてもよい。ただし、アイコンの大きさを変化させる場合には、使用者が第2所定時間の経過を表示態様(イメージ)により認識できるように、アイコンの最大の大きさを第2所定時間に応じて予め決定し、RAM56に記憶しておく。同様に、アイコンを回転させる場合には、アイコンの回転数を第2所定時間に応じて予め決定し、RAM56に記憶しておく。
また、アイコンの色を変化させる方法は、他の方法が採用されてもよい。たとえば、背景色の全部が段階的に他の色に変化したり、背景色の輝度が段階的に変化されたりしもよい。
また、アイコンの表示態様を変化させずに、注視しているアイコンが表示された領域外に、注視している時間を数字で表示したり、バーの長さが注視している時間に応じて変化されるインジケータを表示したりする処理が実行されてもよい。
図5(A)は、電子書籍のアプリケーションないし機能を実行した場合に、ディスプレイ14に表示される電子書籍表示画面200の一例である。たとえば、アプリ選択画面150において、電子書籍のアイコン160が選択(実行)された場合に、この電子書籍表示画面200が表示される。
図5(A)に示すように、電子書籍表示画面200は、表示領域202、表示領域204および表示領域206を含む。表示領域204には、電子書籍の内容(ページ)が表示される。図面では、電子書籍の内容を“*”で示してあるが、実際には、文字や画像などが表示される。また、表示領域206は、インジケータとして機能する。つまり、表示領域206は、視線操作において、使用者が操作領域を注視している時間(注視時間)を当該使用者に知らせるために設けられる。
この実施例では、電子書籍を読む場合に、使用者は、視線操作によって、ページをめくることができる。たとえば、図5(B)に示すように、表示領域204の右下部には操作領域210が設けられ、表示領域204の左下部には操作領域212が設けられる。また、操作領域210に対して1ページ進む操作(「ページ送り」ともいう。)が割り当てられ、操作領域212に対して1ページ戻る操作(「ページ戻し」ともいう。)が割り当てられている。ただし、操作領域210および操作領域212は、電子書籍のページの前面に半透明の色を付して、使用者により視認可能に表示してよいし、表示せずに使用者により視認不能としてもよい。
表示領域206には、操作領域210または操作領域212の注視時間が背景色とは異なる色のバーを表示することにより示される。この電子書籍表示画面200では、操作領域210または操作領域212の注視時間が第3所定時間(たとえば、1−3秒)を経過すると、ページ送りまたはページ戻しが実行される。ただし、インジケータ(表示領域206)に表示されるバーの長さは、注視時間に応じて線形的にまたは段階的に変化され、第3所定時間と一致すると、表示領域206の右端に到達する。
このように、インジケータを設けるため、使用者は、操作領域210または操作領域212の注視時間(または、操作が実行されるまでに使用者が注視すべき残りの時間)、または、ページがめくられるまでの時間を表示態様(イメージ)の変化で知ることができる。
上記では、電子書籍を1ページ単位で、進んだり戻したりするようにしたが、これに限定される必要はない。たとえば、操作領域を表示領域の右上部および左上部にさらに設けて、右上部の操作領域を第3所定時間以上継続して注視したときに、最終ページまたは次の章まで進むようにし、左上部の操作領域を第3所定時間以上継続して注視したときに、電子書籍の先頭ページ、現在の章の先頭ページ、または1つ前の章の先頭ページに戻るようにしてもよい。
上記の場合、操作領域を注視していることが検出されたとき、または、操作領域を所定時間継続して注視していることが検出されとき、送り先、または、戻り先のページのページ数をディスプレイ14に表示するようにしてよい。この表示によって、使用者は、送り先または戻り先のページないしページ数を知ることができる。
図6(A)は、アラームが鳴動(アラーム音の出力や携帯電話機10の振動)されている場合に、ディスプレイ14に表示されるアラーム画面250の一例を示す。図6(A)に示すように、アラーム画面250は、表示領域252および表示領域254を含む。表示領域254には、月日、曜日および現在時刻などの情報が表示されるとともに、ボタン画像260およびボタン画像262が表示される。ボタン画像260は、いわゆるスヌーズ機能を設定(オン)するために設けられる。ボタン画像262は、アラームを停止させるために設けられる。
したがって、アラーム画面250が表示されている場合に、使用者が視線操作することにより、ボタン画像260を注視している時間(注視時間)が第4所定時間(たとえば、1−3秒)を経過すると、ボタン画像260がオンされる。すると、スヌーズ機能がオンされ、アラームが一旦停止され、図6(B)に示すように、スヌーズの時間(たとえば、5−10分)を加算することにより変更されたアラームの時間(アラーム時間)が設定された時計表示画面300がディスプレイ14に表示される。
また、アラーム画面250が表示されている場合に、使用者が視線操作することにより、ボタン画像262の注視時間が第4所定時間を経過すると、ボタン画像262がオンされる。すると、アラームが停止され、図6(C)に示すように、次のアラームについてのアラーム時間が設定された時計表示画面300がディスプレイ14に表示される。
このように、アラームの停止等の操作を視線操作で行うので、目覚まし時計として携帯電話機10のアラーム機能を使用する場合には、使用者は必ず目を開ける必要があり、目覚まし時計としての役割を適切に果たすことができる。
図7は、電話着信時に、ディスプレイ14に表示される着信画面350の一例を示す。図7に示すように、着信画面350は、表示領域352および表示領域354を含む。表示領域354には、発信端末の電話番号および発信者の名称が表示されるとともに、着信中である旨のメッセージが表示される。また、表示領域354の左下部にはボタン画像360が表示されるとともに、表示領域354の右下部にはボタン画像362が表示される。ボタン画像360は、着信に応答するために設けられる。一方、ボタン画像362は、着信を停止(または拒否)するために設けられる。
したがって、使用者がボタン画像360を注視している時間(注視時間)が第5所定時間(たとえば、1−3秒)を経過すると、当該ボタン画像360がオンされ、携帯電話機10は着信に応答する。つまり、上述したように、電話着信処理が実行され、通常の通話処理が実行される。また、ボタン画像362の注視時間が第5所定時間を経過すると、当該ボタン画像362がオンされ、着信が停止される。
このように、着信の操作を視線操作によって実行することができるため、一方の手で携帯電話機10を持ち、他方の手を使用できない状況においても、着信に応答したり、停止したりすることができる。
図8(A)はディスプレイ14に表示される地図表示画面400の一例である。この地図表示画面400は、表示領域402および表示領域404を含む。表示領域404には、或る地図が表示される。たとえば、使用者が、ブラウザ機能を実行し、住所などで特定した場所の地図が表示領域404に表示される。
また、ブラウザ機能が実行されている場合には、図8(B)に示すように、画面に対して4つの操作領域410L、410R、410Tおよび410Bが設定される。操作領域410Lは、表示領域404の左端部に設定され、画面を右方向にスクロールさせる動作が割り当てられる。操作領域410Rは、表示領域404の右端部に設定され、画面を左方向にスクロールさせる動作が割り当てられる。操作領域410Tは、表示領域404の上端部に設定され、画面を下方向にスクロールさせる動作が割り当てられる。そして、操作領域410Bは、表示領域404の下端部に設定され、画面を上方向にスクロールさせる動作が割り当てられる。
したがって、使用者が画面の左端の方を注視している時間(注視時間)が第6所定時間(たとえば、1−3秒)を経過すると、右方向に画面が所定量スクロールされる。また、使用者が画面の右端の方を注視している時間が第6所定時間を経過すると、左方向に画面が所定量スクロールされる。さらに、使用者が画面の上端の方を注視している時間が第6所定時間を経過すると、下方向に画面が所定量スクロールされる。さらにまた、使用者が画面の下端の方を注視している時間が第6所定時間を経過すると、上方向に画面が所定量スクロールされる。
ただし、図8(B)に示す例では、左右の操作領域410L、410Rと、上下の操作領域410T、401Bが重ならないように、操作領域410T、410Bの左右の長さを短く設定しているが、左右の操作領域410L、410Rの上下の長さを短く設定するようにしてもよい。また、左右の操作領域410L、410Rと、上下の操作領域410T、401Bが表示領域404の四隅のそれぞれで重なるように設定し、重なる領域については、斜め方向に画面を所定量スクロールさせる動作を割り当てるようにしてもよい。さらに、左右の操作領域410L、410Rまたは上下の操作領域410T、410Bを設定するようにしてよい。
このように、視線操作によって画面をスクロールさせることができるため、片手で携帯電話機10を持ち、他方の手を使用できない状況であっても、地図のように、ディスプレイ14の画面の大きさよりも大きい表示内容を確認することができる。
なお、スクロールを視線操作で行う状況であれば、ブラウザ機能に限定されず、他のアプリケーションや機能が実行される場合にも、図8(B)に示すような操作領域(410L、410R、410T、410B)を設定して、視線操作により画面をスクロールさせるようにしてよい。
次に、この実施例の視線による注視領域の検出方法について説明する。図1に示したように、赤外線カメラ30と赤外線LED32とは、携帯電話機10の縦方向において或る程度の距離を隔てて配置される。たとえば、赤外線カメラ30の撮影面の中心と、赤外線LEDの発光面の中心とが直線上に並ぶように配置される。また、図1に示したように、赤外線カメラ30をディスプレイ14の上側に配置し、赤外線LED32をディスプレイ14の下側に配置してある。このような配置にするのは、次の理由に基づいている。
図9(A)の上側に示すように、赤外線カメラ30と赤外線LED32をディスプレイ14の上側に並べて配置(接近して配置)した場合、図9(A)の左下側に示すように、瞼が比較的大きく開いているときには、赤外線LED32から照射された赤外光の反射光(光点)を赤外線カメラ30によって撮影することができる。しかし、図9(A)の右下側に示すように、瞼が少し閉じている場合には、赤外光が瞼に遮られ、赤外線カメラ30がその反射光を撮影することができないことがある。この実施例のような携帯電話機10では、使用者は少し下を向いてディスプレイ14を見るような状況で使用される場合があるため、瞼に遮られ、反射光を撮影できないことが想定される。
したがって、図9(B)の上側にも示すように、赤外線カメラ30と赤外線LED32をディスプレイ14の上下に配置するようにしてある。かかる場合には、瞼の中央よりも下部に、赤外光が照射される。したがって、図9(B)の左下側に示すように、使用者が瞼を比較的大きく開いている場合は、もちろんのこと、図9(B)の右下側に示すように、使用者が瞼を少し閉じている場合であっても、赤外光の反射光を確実に撮影することができる。このため、上述したように、使用者(の顔)が携帯電話機10と正対したときに、赤外線カメラ30が上側となり、赤外線LED32が下側となるように、それぞれ配置される。
なお、赤外線カメラ30と赤外線LED32の距離は、使用者が携帯電話機10を使用する際における、使用者の顔と携帯電話機10(筐体の表面ないしディスプレイ14の表示面)の距離や携帯電話機10の大きさなどによって決定される。
注視領域を検出する場合には、赤外線カメラ30で撮影された撮影画像から瞳孔および赤外光の反射光がプロセッサ40によって検出される。撮影画像から瞳孔や赤外光の反射光を検出する方法は既に周知であり、この実施例の本質的な内容ではないため、その説明は省略することにする。
プロセッサ40は、撮影画像から瞳孔および反射光を検出すると、視線の方向(視線ベクトル)を検出する。具体的には、赤外線カメラ30で撮影された2次元の撮影画像における反射光の位置から瞳孔の位置に向けたベクトルが検出される。つまり、図10(A)に示すように、中心Aから中心Bに向けたベクトルが視線ベクトルである。赤外線カメラ30における座標系は予め決定されており、その座標系を用いて視線ベクトルが算出される。このように検出された視線ベクトルが、表示面のどの分割領域を指示しているかを検出し、使用者の注視領域を決定するのである。
ここで、図11に示すように、ディスプレイ14の表示面はグリッドによって複数の領域に分割されている。この実施例では、5(縦)×4(横)の20個に分割される。ただし、これは単なる例示であり、分割された領域(分割領域)の個数および形状は任意に設定することができる。また、各分割領域は識別可能に管理されており、たとえば、数字で示される識別情報(1)−(20)が割り当てられている。また、各分割領域の位置および大きさを管理するために、この識別情報(1)−(20)に対応して、各分割領域の位置および大きさを示す座標の情報が記憶される。この実施例では、分割領域は四角形で規定されるため、その対角の頂点の座標が座標の情報として記憶される。これによって、分割領域の位置および大きさを知ることができる。
ただし、視線操作を実行する場合には、まず、キャリブレーションが実行される。キャリブレーションとは、視線操作を開始する際に実行される校正処理である。ただし、視線操作を開始する際に、毎回キャリブレーションを実行する必要はなく、携帯電話機10の使用を開始するときや使用者の指示に従って実行すればよい。または、所定時間毎に実行するようにしてもよい。
キャリブレーションによって、各分割領域を使用者が注視した場合の視線ベクトルが予め検出され、分割領域の識別情報に対応づけて、それぞれ検出された視線ベクトルが基準の視線ベクトル(基準ベクトル)N(N=1,2,…,20)として記憶される。たとえば、キャリブレーションにおいては、最上列の分割領域から順に視線ベクトルが検出される。また、各列では、左端の分割領域から順に視線ベクトルが検出される。したがって、基準ベクトルNのうち、実際に視線操作を行うときに検出される使用者の視線ベクトルと最も近似する基準ベクトルNを検出することにより、当該最も近似する基準ベクトルNに対応して記憶された分割領域が注視領域として決定される。
たとえば、キャリブレーションが開始されると、まず、図12(A)に示すように、分割領域(1)が注視領域として設定される。図12(A)には、分割領域(1)が注視領域として設定された場合に撮影された使用者の左目の画像が示される。撮影画像に基づいて、この場合の視線ベクトルが検出され、検出された視線ベクトルが当該分割領域(1)に対して基準ベクトルN(ここでは、N=1)として記憶される。同様に、分割領域(20)まで、順次注視領域が設定され、各場合の視線ベクトルが検出され、検出された視線ベクトルが該当する分割領域に対して基準ベクトルNとして記憶される。また、図12(B)には、分割領域(4)が注視領域として設定された場合に撮影された使用者の左目の画像が示される。
ただし、図12(A),(B)では、下2行の分割領域(13)−(20)を省略してある。
なお、キャリブレーションにおいては、分割領域(1)−(20)の識別情報(番号)が示す順番で、使用者の視線を誘導させるために、たとえば、注視されるべき分割領域が所定の色で示される。
そして、実際に視線操作を行うときに、撮影画像に基づいて検出された視線ベクトル(説明の都合上、「現在ベクトル」と呼ぶことにする。)Wを、基準ベクトルNのそれぞれと比較し、最も近似する基準ベクトルNに対応して記憶された分割領域を使用者が注視している領域(注視領域)として決定する。
ただし、キャリブレーション時と、実際に視線操作を行うときでは、携帯電話機10(赤外線カメラ30)と使用者の顔(目)との距離がほとんどの場合に一致しないため、現在ベクトルWをスケーリング(拡大または縮小)するようにしてある。
この実施例では、基準ベクトルNを検出したときの左右の目の距離L0と、現在ベクトルWを検出したきの左右の目の距離L1とに基づいて、現在ベクトルWをスケーリングする。ただし、図10(B)に示すように、両目の距離Lは、左目における赤外光の反射光の中心位置と、右目における赤外光の反射光の中心位置の距離(水平距離)によって決定される。
なお、図10(B)に示すように、撮影画像は、使用者の顔の鏡像であるため、図面において、左側の画像が使用者の左目の画像であり、右側の画像が使用者の右目の画像である。
具体的には、現在ベクトルWは、以下の数1に従ってスケーリングされる。ただし、現在ベクトルWのX軸成分をWxとし、そのY軸成分をWyとする。また、スケーリングされた後の現在ベクトルWのX軸成分をWx1とし、そのY軸成分をWy1とする。
[数1]
(Wx1,Wy1)=(Wx×L1/L0,Wy×L1/L0)
また、基準ベクトルNのそれぞれと、スケーリングされた後の現在ベクトルWとの差分ベクトルの長さrが以下の数2に従ってそれぞれ算出される。そして、差分ベクトルの長さが最も短い場合に、スケーリングされた後の現在ベクトルWと基準ベクトルNとが最も近似すると判断される。判断結果に基づき、差分ベクトルの長さが最も短い場合の基準ベクトルNに対応付けられた分割領域が現在の注視領域として決定される。ここで、基準ベクトルN(N=1,2,3,…,20)は(Xv,Yv)で示す。
[数2]
=√{(Xv−Wx1)+(Yv−Wy1)
図13は図2に示したRAM56のメモリマップ500の一例を示す図である。図13に示すように、RAM56は、プログラム記憶領域502およびデータ記憶領域504を含む。プログラム記憶領域502は、メイン処理プログラム502a、通信プログラム502b、注視領域検出プログラム502c、ロック解除プログラム502d、アプリ選択プログラム502e、電子書籍プログラム502fおよびブラウザプログラム502gなどのプログラムを記憶する。
メイン処理プログラム502aは、携帯電話機10のメインルーチンを処理するためのプログラムである。通信プログラム502bは、他の電話機と通話処理を実行したり、通信網(電話網、インターネット)を介して、他の電話機やコンピュータと通信したりするためのプログラムである。注視領域検出プログラム502cは、携帯電話機10の使用者が注視しているディスプレイ14の表示面における分割領域を注視領域として検出するためのプログラムである。
ロック解除プログラム502dは、ロック機能がオンにされている場合に、使用者の操作に応じて、ロックを解除するためのプログラムである。この実施例では、視線操作によってロックを解除する場合について説明するが、キー操作やタッチ操作でロックを解除できることは言うまでもない。同様に、後述する選択プログラム502e、電子書籍プログラム502fおよびブラウザプログラム502gにおいても、視線操作のみならず、キー操作やタッチ操作が可能である。
アプリ選択プログラム502eは、携帯電話機10が備えるアプリケーションや機能を選択(実行)するためのプログラムである。電子書籍プログラム502fは、電子書籍についての操作(ページめくりなど)に関する処理を実行するためのプログラムである。ブラウザプログラム502gは、ブラウザについての操作(インターネットサイトについてのページの表示、画面のスクロール、ページ移動など)に関する処理を実行するためのプログラムである。
図示は省略するが、プログラム記憶領域502には、画像生成処理プログラム、画像表示プログラム、音出力プログラム、およびメモ帳やアドレス帳などの他のアプリケーションや機能についてのプログラムも記憶される。
データ記憶領域504には、入力データバッファ504aが設けられる。また、データ記憶領域504には、画像データ504b、注視領域データ504c、操作領域データ504d、基準ベクトルデータ504e、現在ベクトルデータ504fが記憶される。さらに、データ記憶領域504には、制限タイマ504gおよび注視タイマ504hが設けられる。
入力データバッファ504aは、キーデータやタッチ座標データを時系列に従って一時記憶するための領域である。キーデータやタッチ座標データは、プロセッサ40の処理に使用された後に消去される。
画像データ504bは、各種画面(100、150、200、250、300、350、400など)を表示するためのデータである。注視領域データ504cは、使用者が現在注視している分割領域すなわち注視領域を識別するためのデータである。
操作領域データ504dは、現在表示されている画面についての操作領域を規定するための位置(座標)データおよび当該操作領域に対応して設定された操作(動作)ないし機能(アプリケーション)についての内容を示すデータである。
基準ベクトルデータ504eは、キャリブレーションによって取得した各分割領域に対応する視線ベクトルすなわち基準ベクトルNについてのデータである。現在ベクトルデータ50fは、現在検出されている視線ベクトルすなわち前述した現在ベクトルWについてのデータである。
制限タイマ504gは、ロック解除についての視線操作を実行する制限時間をカウントするためのタイマである。注視タイマ504は、使用者が同一の分割領域を注視している時間をカウントするためのタイマである。
図示は省略するが、データ記憶領域504には、プログラム記憶領域502に記憶された各プログラムの実行に必要な、他のデータが記憶されたり、他のタイマ(カウンタ)が設けられたり、フラグが設けられたりする。
図14は図2に示したプロセッサ40のロック解除処理(セキュリティロック)を示すフロー図である。図14に示すように、プロセッサ40は、ロック解除処理を開始すると、ステップS1で、図3(A)または図3(B)に示したようなロック画面100をディスプレイ14に表示する。このとき、各ボタン画像110またはボタン画像120の表示領域に対応して操作領域が設定され、対応する操作領域データ504dがデータ記憶領域504に記憶される。以下、各画面を表示する場合についても同様に、画面に応じた操作領域が設定される。また、上述したように、ロック解除処理は、セキュリティロック機能がオンされている場合に、携帯電話機10の使用を開始するとき(ディスプレイ14の電源がオフからオンにされたとき、または主電源をオンすることにより携帯電話機10が起動されたとき)、または所定のアプリケーションないし機能が実行(開始)されるときに実行される。
次のステップS3では、注視領域の検出を開始する。つまり、プロセッサ40は、後述する注視領域検出処理(図15)を、ロック解除処理と並列的に実行する。次のステップS5では、制限タイマ504gをリセットおよびスタートする。
続くステップS7では、プロセッサ40は、注視領域データ504cを参照して、注視領域検出処理によって検出された注視領域を取得する。次のステップS9では、取得した注視領域が操作領域と重なるかどうかを判断する。ここでは、操作領域データ504dが参照され、先に取得された注視領域が操作領域に重なるかどうかが判断される。ステップS9で“NO”であれば、つまり取得した注視領域が操作領域と重なっていなければ、そのままステップS13に進む。一方、ステップS9で“YES”であれば、つまり取得した注視領域が操作領域に重なっていれば、ステップS11で、操作領域に対応するボタン画像を記憶して、ステップS13に進む。つまり、入力された暗証番号などが記憶される。
ステップS13では、セキュリティロックを解除するかどうかを判断する。つまり、入力された暗証番号または操作手順が正しいかどうかを判断する。なお、予め設定されている暗証番号や操作手順については、フラッシュメモリ54に記憶されており、それが参照される。ステップS13で“NO”であれば、つまりロック解除でなければ、ステップS15で、制限タイマ504gのカウント値が第1所定時間(たとえば、10秒)を経過したかどうかを判断する。ステップS15で“NO”であれば、つまり第1所定時間を経過していなければ、そのままステップS7に戻る。一方、ステップS15で“YES”であれば、つまり第1所定時間を経過すれば、図16に示すステップS17で、ロック解除の失敗を通知して、ステップS1に戻る。具体的には、ステップS17において、プロセッサ40は、ロック解除を失敗した旨のメッセージをディスプレイ14に表示したり、ロック解除を失敗した旨の音(音楽、メロディ)をスピーカ(スピーカ18または他のスピーカ)から出力したり、それらの両方を実行したりする。
また、ステップS13で“YES”であれば、つまりロック解除であれば、ステップS19で、ロック画面100を非表示(消去)して、ロック解除処理を終了する。
図15は、プロセッサ40の注視領域検出処理を示すフロー図である。図15に示すように、プロセッサ40は、注視領域検出処理を開始すると、ステップS31で、撮影処理を実行する。ここでは、プロセッサ40の撮影指示に従って赤外線カメラ30は撮影処理を実行する。そして、撮影画像処理回路62で、赤外線カメラ30から出力された撮影画像データに画像処理が施され、モノクロの撮影画像データがプロセッサ40に入力される。
次のステップS33で、撮影画像から瞳孔を検出し、ステップS35で、瞳孔の中心位置を決定する。さらに、ステップS37で、撮影画像から赤外線(赤外光)の反射光を検出し、ステップS39で、反射光の中心位置を決定する。そして、ステップS41で、反射光の中心位置を始点とし、瞳孔の中心位置を終点とする現在ベクトルWを算出する。
続いて、ステップS43で、両目間の距離Lを決定する。ここでは、プロセッサ40は、左目における赤外光の反射光の中心位置と右目における赤外光の反射光の中心位置との距離L1を求める。続くステップS45では、現在ベクトルWを前述した数1に従ってスケーリング(拡大または縮小)する。さらに、ステップS47で、分割領域毎の基準ベクトルNとの差分ベクトルを数2に従って算出する。そして、ステップS49で、差分ベクトルの長さが最小となる基準ベクトルNに対応する分割領域を注視領域として決定して、注視領域検出処理を終了する。ステップS49で決定された注視領域(分割領域)の識別情報が注視領域データ504cとして記憶(更新)される。
なお、一旦、注視領域検出処理が開始されると、所定の機能の実行処理が終了されるまで、繰り返し注視領域検出処理が実行される。ただし、所定のキー操作やタッチ操作が行われることにより、注視領域の検出処理を終了してもよい。以下、注視領域検出処理を実行する場合について同じである。
図16および図17は、図2に示すプロセッサ40の実行機能判断処理を示すフロー図である。図16に示すように、プロセッサ40は、実行機能判断処理を開始すると、ステップS61で、待ち受け画面を表示する。たとえば、待ち受け画面は、上述した時計表示画面300などであり、使用者が設定可能である。
なお、ロック機能が設定されている場合には、上述したロック解除処理が実行され、ロックが解除された後に、実行機能判断処理が開始される。また、ロック機能が設定されていない場合には、上述したロック解除処理は実行されずに、使用者が携帯電話機10の使用を開始するときに、実行機能判断処理が開始される。
次のステップS63では、プロセッサ40は、現在時刻がアラームの設定時間(アラーム時間)かどうかを判断する。つまり、プロセッサ40は、RTC40aで計時される現在時刻を参照して、アラーム時間と一致するかどうかを判断する。ただし、アラームが設定されていない場合には、プロセッサ40は、アラーム時間でないと判断する。
ステップS63で“YES”であれば、つまりアラーム時間であれば、ステップS65で、後述するアラーム処理(図18および図19参照)を実行して、ステップS61に戻る。一方、ステップS63で“NO”であれば、つまりアラーム時間でなければ、ステップS67で、アプリ選択を行うための入力があるかどうかを判断する。ここでは、プロセッサ40は、アプリ選択画面150を表示する指示が入力されたかどうかを判断する。
ステップS67で“YES”であれば、つまりアプリ選択を行うための入力があれば、ステップS69で、後述するアプリ選択処理(図20参照)を実行して、ステップS61に戻る。一方、ステップS67で“NO”であれば、つまりアプリ選択を行うための入力がなければ、ステップS71で、電子書籍の実行かどうかを判断する。ただし、電子書籍を実行することの指示は、アプリ選択処理において、該当するアイコン160が操作(オン)されることにより行われる。後述するブラウザを実行することの指示についても同様である。
ステップS71で“YES”であれば、つまり電子書籍の実行であれば、ステップS73で、後述する電子書籍処理(図21および図22参照)を実行して、ステップS61に戻る。一方、ステップS71で“NO”であれば、つまり電子書籍の実行でなければ、ステップS75で、ブラウザの実行かどうかを判断する。
ステップS75で“YES”であれば、つまりブラウザの実行であれば、ステップS77で、後述するブラウザ処理(図23および図24)を実行して、ステップS61に戻る。一方、ステップS75で“NO”であれば、つまりブラウザの実行でなければ、ステップS79で、着信があるかどうかを判断する。
ステップS79で“YES”であれば、つまり着信があれば、ステップS81で、後述する着信処理(図25および図26参照)を実行して、ステップS61に戻る。一方、ステップS79で“NO”であれば、つまり着信がなければ、図17に示すステップS83で、他の操作があるかどうかを判断する。ここでは、プロセッサ40は、キー操作やタッチ操作によって、電子書籍やブラウザ以外の他のアプリケーションないし機能が選択されたり、電話発信の操作が実行されたり、電源ボタンがオンされたりしたかどうかを判断するのである。
ステップS83で“YES”であれば、つまり他の操作があれば、ステップS85で、電源ボタンの操作(オン)であるかどうかを判断する。ステップS85で“YES”であれば、つまり電源ボタンの操作であれば、ステップS91に進む。一方、ステップS85で“NO”であれば、つまり電源ボタンの操作でなければ、ステップS87で、その他の処理を実行して、図16に示したステップS61に戻る。ただし、その他の処理は、上述したように、電子書籍やブラウザ以外の他のアプリケーションないし機能についての処理、または、電話発信の処理である。
一方、ステップS83で“NO”であれば、つまり他の操作がなければ、ステップS89で、操作無し状態が第7所定時間(たとえば、10秒)を経過したかどうかを判断する。たとえば、キー操作およびタッチ操作が無い時間が制限タイマ504gおよび注視タイマ504hとは異なるタイマ(操作無しタイマ)によってカウントされる。この操作無しタイマは、キー操作またはタッチ操作が終了したときに、リセットおよびスタートされる。たとえば、第7所定時間は、5−30秒の間で設定可能である。
ステップS89で“NO”であれば、つまり操作無し状態が第7所定時間を経過していなければ、そのままステップS61に戻る。一方、ステップS89で“YES”であれば、つまり操作無し状態が第7所定時間を経過すれば、ステップS91で、画面を非表示(ディスプレイ14をオフ)して、実行機能判断処理を終了する。
図18および図19は、図16に示したステップS65のアラーム処理のフロー図である。図18に示すように、プロセッサ40は、アラーム処理を開始すると、ステップS111で、アラームを鳴動開始する。たとえば、プロセッサ40は、アラーム音を出力する。ただし、振動モータを備える場合には、当該振動モータを駆動することにより、携帯電話機10自体を振動させてもよい。また、アラーム音の出力と振動モータの駆動の両方を実行してもよい。
次のステップS113では、図6に示したようなアラーム画面250をディスプレイ14に表示する。続いて、ステップS115では、注視領域の検出を開始する。つまり、図15に示した注視領域検出処理が、図18および図19に示すアラーム処理と並列的に実行される。そして、ステップS117で、注視領域を取得する。
続いて、ステップS119では、注視領域がアラーム画面250に設定された操作領域(ここでは、ボタン画像260または262の表示領域)に重なるかどうかを判断する。ステップS119で“NO”であれば、つまり注視領域が操作領域に重ならない場合には、ステップS121で、アラームを自動停止するかどうかを判断する。アラームの鳴動を開始してから自動停止するまでの時間(たとえば、30秒−5分)を経過したかどうかを判断する。この判断のためのタイマを設けてもよいし、RTC40aで計時される時間を参照して自動停止するかどうかを判断してもよい。
ステップS121で“NO”であれば、つまりアラームを自動停止しない場合には、そのままステップS117に戻る。一方、ステップS121で“YES”であれば、つまりアラームを自動停止する場合には、ステップS123で、アラームの鳴動を停止し、ステップS125で、スヌーズの設定があるかどうかを判断する。
ステップS125で“YES”であれば、つまりスヌーズの設定があれば、ステップS127で、今回のアラーム時間にスヌーズの時間を加算することによりアラーム時間を変更して、実行機能判断処理にリターンする。一方、ステップS125で“NO”であれば、つまりスヌーズの設定がなければ、ステップS129で、次のアラーム時間を設定して、実行機能判断処理にリターンする。ただし、プロセッサ40は、次のアラームが設定されていない場合には、ステップS129の処理を実行せずに、実行機能判断処理にリターンする。このことは、後述するステップS149においても同じである。
また、ステップS119で“YES”であれば、つまり注視領域が操作領域に重なる場合には、ステップS131で、注視領域が重なる操作領域が変化したかどうかを判断する。つまり、プロセッサ40は、注視領域が重なる操作領域が前回と今回とで異なるかどうかを判断する。ステップS131で“NO”であれば、つまり操作領域が変化していなければ、図19に示すステップS135に進む。一方、ステップS131で“YES”であれば、つまり操作領域が変化していれば、ステップS133で、注視タイマ504hをリセットおよびスタートして、ステップS135に進む。ただし、注視領域検出を開始した当初では、注視領域が操作領域と重なる場合に、ステップS131で、操作領域が変化したと判断される。
図19に示すように、ステップS135では、第4所定時間(たとえば、1−3秒)を経過したかどうかを判断する。つまり、プロセッサ40は、注視タイマ504hのカウント値を参照して、使用者がボタン画像260またはボタン画像262を見ている時間が、第4所定時間を経過したかどうかを判断する。
ステップS135で“NO”であれば、つまり第4所定時間を経過していなければ、図18に示したステップS117に戻る。一方、ステップS135で“YES”であれば、つまり第4所定時間を経過すれば、ステップS137で、スヌーズボタンであるかどうかを判断する。つまり、使用者がボタン画像260を見ているかどうかを判断する。
ステップS137で“YES”であれば、つまりスヌーズボタンであれば、ステップS139で、スヌーズボタンすなわちボタン画像260をオンし、ステップS141で、アラームの鳴動を停止し、ステップS143で、今回のアラーム時間にスヌーズの時間を加算して、アラーム時間を変更して、実行機能判断処理にリターンする。
一方、ステップS137で“NO”であれば、つまり停止ボタンであれば、ステップS145で、停止ボタンすなわちボタン画像262をオンし、ステップS147で、アラームの鳴動を停止し、ステップS149で、次のアラーム時間を設定して、実行機能判断処理にリターンする。
図20は、図16に示したステップS69のアプリ選択処理のフロー図である。以下、アプリ選択処理について説明するが、上述したアラーム処理と同じ処理については簡単に説明する。後述する電子書籍処理、ブラウザ処理および着信処理についても同様である。
図20に示すように、プロセッサ40は、アプリ選択処理を開始すると、ステップS161で、図4に示したような選択画面150をディスプレイ14に表示する。次のステップS163では、注視領域の検出を開始し、ステップS165で、注視領域を取得する。そして、ステップS167で、注視領域が操作領域に重なっているかどうかを判断する。
ステップS167で“NO”であれば、そのままステップS165に戻る。一方、ステップS167で“YES”であれば、ステップS169で、注視領域が重なる操作領域が変化したかどうかを判断する。ステップS169で“NO”であれば、そのままステップS173に進む。一方、ステップS169で“YES”であれば、ステップS171で、注視タイマ504hをリセットおよびスタートして、ステップS173に進む。
ステップS173では、注視されているアイコン160の背景色を所定量変化させる。次のステップS175では、第2所定時間(たとえば、1−3秒)を経過したかどうかを判断する。つまり、プロセッサ40は、注視タイマ504hのカウント値を参照して、使用者が同一のアイコン160を見ている時間が第2所定時間を経過したかどうかを判断する。
ステップS175で“NO”であれば、つまり第2所定時間を経過していなければ、そのままステップS165に戻る。一方、ステップS175で“YES”であれば、つまり第2所定時間を経過すれば、ステップS177で、注視されているアイコン160に対応するアプリケーションないし機能を起動して、実行機能判断処理にリターンする。
なお、起動されたアプリケーションないし機能が電子書籍やブラウザであれば、後述するように、電子書籍処理やブラウザ処理が実行される。
また、上述したように、第2所定時間を経過すると、注視されているアイコン160の背景色は、すべて変化される。
図21および図22は、図16に示したステップS73の電子書籍処理を示すフロー図である。図21に示すように、プロセッサ40は、電子書籍処理を開始すると、ステップS191で、電子書籍を表示する。ここでは、図5(A)に示したように、指定された書籍の最初のページやしおりが付されたページが表示された電子書籍表示画面200が表示される。ただし、電子書籍画面200が表示された当初では、インジケータ206は空白である。
次のステップS193では、注視領域の検出を開始する。次のステップS195では、電子書籍を終了するかどうかを判断する。つまり、プロセッサ40は、使用者によって、電子書籍の終了が指示されたかどうかを判断する。ステップS195で“YES”であれば、つまり電子書籍の終了であれば、図22に示すように、実行機能判断処理にリターンする。
一方、ステップS195で“NO”であれば、つまり電子書籍の終了でなければ、ステップS197で、注視領域を取得する。続くステップS199では、注視領域が操作領域(210または212)と重なっているかどうかを判断する。ステップS199で“NO”であれば、そのままステップS195に戻る。一方、ステップS199で“YES”であれば、ステップS201で、注視領域が重なる操作領域が変化したかどうかを判断する。
ステップS201で“NO”であれば、そのままステップS205に進む。一方、ステップS201で“YES”であれば、ステップS203で、注視カウンタ504hをリセットおよびスタートして、ステップS205に進む。ステップS205では、インジケータ206の色を所定量変化させる。つまり、インジケータ206の空白が所定の色で所定量塗りつぶされる。
次のステップS207では、第3所定時間(たとえば、1−3秒)を経過したかどうかを判断する。つまり、プロセッサ40は、注視タイマ504hのカウント値を参照して、使用者が所定領域(210または212)を見ている時間が第3所定時間を経過したかどうかを判断する。ステップS207で“NO”であれば、つまり第3所定時間を経過していなければ、そのままステップS195に戻る。一方、ステップS207で“YES”であれば、つまり第3所定時間を経過すれば、図22に示すステップS209で、ページ送りかどうかを判断する。ここでは、プロセッサ40は、使用者が操作領域210を注視しているかどうかを判断する。
ステップS209で“NO”であれば、つまり使用者が操作領域212を注視している場合には、ページ戻しであると判断して、ステップS211で、前のページを表示して、図21に示したステップS195に戻る。一方、ステップS209で“YES”であれば、つまり使用者が操作領域210を注視している場合には、ページ送りであると判断して、ステップS213で、現在のページが最終ページであるかどうかを判断する。
ステップS213で“NO”であれば、つまり現在のページが最終ページでなければ、ステップS215で、次のページを表示して、ステップS195に戻る。一方、ステップS213で“YES”であれば、つまり現在のページが最終ページであれば、電子書籍処理を終了して、実行機能判断処理にリターンする。
図23および図24は、図16に示したステップS77のブラウザ処理のフロー図である。以下、ブラウザ処理について説明するが、上述のアプリ選択処理や電子書籍処理と同じ処理については簡単に説明することにする。
図23に示すように、プロセッサ40は、ブラウザ処理を開始すると、ブラウザを起動し、初期画面を表示する(ステップS231)。たとえば、プロセッサ40は、ホームページとして設定されているインターネットサイトの画面が表示される。ただし、キー操作やタッチ操作によって、所望のアドレス(URL)を入力することにより、ホームページ以外の所望のインターネットサイトの画面を表示することが可能である。したがって、たとえば、図8に示したような地図表示画面400が表示されることがある。また、ここでは、視線操作によって、画面がスクロールされる場合について説明するが、視線操作によって、ボタン画像やハイパーリンクをオン(クリック)することにより、そのボタン画像やハイパーリンクが設定されたインターネットサイトの画面を表示することも可能である。
次のステップS233で、プロセッサ40は、注視領域の検出を開始し、ステップS235で、ブラウザを終了するかどうかを判断する。ここでは、プロセッサ40は、使用者によって、ブラウザの終了が指示されたかどうかに基づいて判断する。ステップS235で“YES”であれば、つまりブラウザの終了であれば、実行機能判断処理にリターンする。一方、ステップS235で“NO”であれば、つまりブラウザの終了でなければ、ステップS237で、注視領域を取得する。
続くステップS239では、注視領域が操作領域(410L、410R、410T、410B)と重なっているかどうかを判断する。ステップS239で“NO”でれば、そのままステップS235に戻る。一方、ステップS239で“YES”であれば、ステップS241で、注視領域が重なる操作領域が変化したかどうかを判断する。ステップS241で“NO”であれば、そのままステップS245に進む。一方、ステップS241で“YES”であれば、ステップS243で、注視タイマ504hをリセットおよびスタートして、ステップS245に進む。
ステップS245では、第6所定時間(たとえば、1−3秒)を経過したかどうかを判断する。ここでは、プロセッサ40は、注視タイマ504hのカウント値を参照して、使用者が操作領域(410L、410R、410T、410B)を注視している時間が第6所定時間を経過したかどうかを判断する。
ステップS245で“NO”であれば、つまり第6所定時間を経過していなければ、そのままステップS235に戻る。一方、ステップS245で“YES”であれば、つまり第6所定時間を経過すれば、図24に示すステップS247で、左かどうかを判断する。ここでは、プロセッサ40は、使用者が操作領域410Lを注視しているかどうかを判断する。
ステップS247で“YES”であれば、つまり左であれば、ステップS249で、右方向に所定量スクロールして、図23に示したステップS235に戻る。一方、ステップS247で“NO”であれば、つまり左でなければ、ステップS251で、右かどうかを判断する。ここでは、プロセッサ40は、使用者が操作領域410Rを注視しているかどうかを判断する。
ステップS251で“YES”であれば、つまり右であれば、ステップS253で、左方向に所定量スクロールして、ステップS235に戻る。一方、ステップS251で“NO”であれば、つまり右でなければ、ステップS255で、上であるかどうかを判断する。ここでは、プロセッサ40は、使用者が操作領域410Tを注視しているかどうかを判断する。
ステップS255で“YES”であれば、つまり上であれば、ステップS257で、下方向に所定量スクロールして、ステップS235に戻る。一方、ステップS255で“NO”であれば、つまり操作領域410Bが注視されている場合には、下であると判断して、ステップS259で、上方向に所定量スクロールして、ステップS235に戻る。
なお、ここでは、画面を必ずスクロールできるように説明したが、表示内容の端が表示されていたり、最終ページが表示されていたりすることにより、画面をスクロールできない場合には、スクロールの指示が入力されたとしても、当該指示は無視される。
図25および図26は、図16に示したステップS81の着信処理のフロー図である。以下、着信処理について説明するが、上述のアプリ選択処理、電子書籍処理やブラウザ処理と同じ処理については簡単に説明することにする。
図25に示すように、着信処理を開始すると、プロセッサ40は、ステップS271で、着信動作を開始する。ここでは、プロセッサ40は、着信音(メロディ、音楽)を出力したり、振動モータを駆動したり、それらの両方を実行したりする。
次のステップS273では、図7に示したような着信画面350をディスプレイ14に表示する。続いて、ステップS275では、注視領域の検出を開始する。そして、ステップS277で、着信処理を終了するかどうかを判断する。ここでは、プロセッサ40は、予め設定された着信動作の最大時間(たとえば、30秒)を経過したり、相手が電話を切ったりしたかどうかを判断する。
ステップS277で“YES”であれば、つまり着信処理の終了であれば、そのまま図26に示すステップS291に進む。一方、ステップS277で“NO”であれば、つまり着信処理の終了でなければ、ステップS279で、注視領域を取得する。次のステップS281では、注視領域が操作領域(ここでは、ボタン画像360、362の表示領域)と重なっているかどうかを判断する。
ステップS281で“NO”であれば、そのままステップS277に戻る。一方、ステップS281で“YES”であれば、ステップS283で、注視領域が重なる操作領域が変化したかどうかを判断する。ステップS283で“NO”であれば、そのままステップS287に進む。一方、ステップS283で“YES”であれば、ステップS285で、注視タイマ504hをリセットおよびスタートして、ステップS287に進む。
ステップS287では、第5所定時間(たとえば、1−3秒)を経過したかどうかを判断する。ここでは、プロセッサ40は、注視タイマ504hのカウント値を参照して、操作領域(ボタン画像360、362の表示領域)を注視している時間が第5所定時間を経過したかどうかを判断する。
ステップS287で“NO”であれば、つまり第5所定時間を経過していなければ、ステップS277に戻る。一方、ステップS287で“YES”であれば、つまり第5所定時間を経過すれば、図26に示すステップS289で、着信応答かどうかを判断する。ここでは、プロセッサ40は、使用者がボタン画像360を注視しているかどうかを判断する。
ステップS289で“NO”であれば、つまり使用者がボタン画像362を注視している場合には、着信を停止すると判断して、ステップS291で、着信動作を停止し、実行機能判断処理にリターンする。ただし、プロセッサ40は、ステップS291(S293も同じ。)で、着信音を停止したり、振動モータを停止したり、その両方を実行したりする。一方、ステップS289で“YES”であれば、つまり着信応答であれば、ステップS293で、着信動作を停止し、ステップS295で、上述したような通常の通話処理を実行する。
続いて、ステップS297では、終話かどうかを判断する。ここでは、プロセッサ40は、使用者によって終話キー24が操作されたり、通話相手から通話終了信号を受信したりしたかを判断する。ステップS297で“NO”であれば、つまり終話でなければ、そのままステップS295に戻って、通話処理を続行する。一方、ステップS297で“YES”であれば、つまり終話であれば、ステップS299で、回線を切断して、実行機能判断処理にリターンする。
この実施例によれば、赤外線カメラをディスプレイの上部側に配置し、赤外線LEDをディスプレイの下部側に配置するので、使用者の瞼が少し閉じたような状況であっても赤外光の反射光を赤外線カメラによって撮影することができ、視線入力の認識率を向上させることができる。
なお、この実施例では、ロック機能としてセキュリティロック機能についてのみ説明したが、これに限定される必要はない。ロック機能としては、タッチパネルの誤操作を防止するためのロック(キーロック)機能もある。セキュリティロック機能とキーロック機能は、いずれか一方のみを設定可能としてもよいし、両方を設定可能としてもよい。ただし、セキュリティロック機能とキーロック機能の両方が設定されている場合には、ディスプレイの電源がオフからオンにされると、キーロックが解除された後に、セキュリティロックが解除される。
キーロック機能が設定されている場合には、携帯電話機10の使用を開始する場合に(ディスプレイ14の電源がオフからオンにされたとき)、図27に示すようなロック画面450(キーロック)がディスプレイ14に表示される。図27に示すように、ロック画面450は、表示領域452および表示領域454を含む。表示領域454には、所定のオブジェクト(たとえば、円形のオブジェクト)460が表示される。以下、円形のオブジェクト460を解除オブジェクトと呼ぶことにする。
図27に示すロック画面450では、解除オブジェクト460が所定距離以上移動されると、当該ロック画面450が消去(非表示)され、ディスプレイ14に、前回終了時の(ディスプレイ14の電源がオフされる直前に表示されていた)画面(待ち受け画面や所望の機能の画面)が表示される。図27では、解除オブジェクト460の中心460aを中心とする半径(所定距離)dの点線の円470が示されるが、実際のロック画面450においては、円470はディスプレイ14に表示されてもよいし、表示されなくてもよい。円470を表示する場合の表示態様は、外形線を点線で示すことに限らず、所定の色を付すようにしてもよい。
また、解除オブジェクト460の移動は、視線操作により行われる。具体的には、ロック画面450が表示されている場合に、注視領域と解除オブジェクト460の操作領域が重なると、その後の注視領域(視線)の位置変化に応じて解除オブジェクト460が継続的に移動される。
そして、解除オブジェクト460が所定距離d以上移動されると、ロック画面450が非表示され、キーロックが解除される。たとえば、解除オブジェクト460の中心460aが円470の外形線上または外形線を越えて移動すると、解除オブジェクト460が所定距離d以上移動されたことが判断される。
ここでは、解除オブジェクト460を移動させることにより、その表示態様を変化させ、所定距離d以上移動されたときに、表示態様が所定の態様になったと判断して、キーロックを解除するようにしてあるが、これに限定される必要はない。たとえば、使用者が解除オブジェクト460を注視することにより、解除オブジェクト460の大きさや色を変化させることにより、その表示態様を変化させ、解除オブジェクト460の大きさや色が所定の大きさや所定の色に変化されたときに、所定の態様になったと判断して、キーロックを解除するようにしてもよい。かかる場合には、視線領域が解除オブジェクト460の表示領域(操作領域)と重なる時間が第8所定時間(たとえば、3−5秒)を経過すると、解除オブジェクトの大きさや色が所定の大きさや色に変化される。たとえば、解除オブジェクト460の大きさは、単位時間(たとえば、0.5−1秒)毎に、所定量(半径の長さが所定の長さ)ずつ大きくされる(または、小さくされる)。つまり、注視時間に応じて継続的に変化する。そして、解除オブジェクト460が、たとえば、円470と同じ大きさになったときに、所定の大きさになったことが判断される。したがって、注視時間が第8所定時間と一致するタイミングで変化を終了するように、線形的にまたは段階的に変化される所定量(所定のドット幅)が設定される。上記設定は、解除オブジェクト460の色を変化させる場合も同じである。
また、解除オブジェクト460の色は、単位時間毎に、その内部の色が所定量ずつ変化される。そして、解除オブジェクト460の色が、全体として変化されたときに、所定の色に変化されたと判断される。ここで、解除オブジェクト460の色に代えて、輝度が変化されてもよい。
具体的なロック解除処理(キーロック)が図28および図29に示される。図28は、解除オブジェクト460を視線により移動させることにより、キーロックを解除させる場合のロック解除処理である。また、図29は、解除オブジェクト460を注視することにより、キーロックを解除させる場合のロック解除処理である。
図28に示すように、プロセッサ40は、ロック解除処理を開始すると、ステップS311で、図27に示したようなロック画面450をディスプレイ14に表示する。このとき、解除オブジェクト460の表示領域に対応して操作領域が設定され、対応する操作領域データ504dがデータ記憶領域504に記憶される。また、このロック解除処理は、キーロック機能がオンされている場合に、携帯電話機10の使用を開始するとき(ディスプレイ14の電源がオフからオンにされたとき)に実行される。
次のステップS313では、注視領域の検出を開始する。つまり、プロセッサ40は、後述する注視領域検出処理(図15)を、ロック解除処理と並列的に実行する。次のステップS315では、注視領域を取得する。プロセッサ40は、注視領域データ504cを参照して、注視領域検出処理によって検出された注視領域を取得する。次のステップS317では、取得した注視領域が操作領域と重なるかどうかを判断する。ここでは、操作領域データ504dが参照され、先に取得された注視領域が操作領域に重なるかどうかが判断される。ステップS317で“NO”であれば、つまり取得した注視領域が操作領域と重なっていなければ、そのままステップS315に戻る。
一方、ステップS317で“YES”であれば、つまり取得した注視領域が操作領域に重なっていれば、ステップS319で、注視領域を取得し、ステップS321で、注視領域が変化したかどうかを判断する。つまり、プロセッサ40は、今回検出した注視領域が、注視領域データ504cが示す注視領域と異なるかどうかを判断する。
ステップS321で“NO”であれば、つまり注視領域が変化していなければ、視線が移動していないと判断して、そのままステップS319に戻る。一方、ステップS321で“YES”であれば、つまり注視領域が変化していれば、視線が移動したと判断して、ステップS323で、現在の注視領域に解除オブジェクト460を移動させる。たとえば、プロセッサ40は、注視領域の中心と解除オブジェクト460の中心とが一致するように、解除オブジェクト460を表示する。
次のステップS325では、キーロックの解除かどうかを判断する。つまり、プロセッサ40は、解除オブジェクト460が所定距離d以上移動したかどうかを判断する。ステップS325で“NO”であれば、つまりキーロックの解除でなければ、そのままステップS319に戻る。一方、ステップS325で“YES”であれば、つまりキーロックの解除であれば、ステップS327で、ロック画面450を非表示(消去)して、ロック解除処理を終了する。
次に、図29に示すロック解除処理(キーロック)について説明するが、図28に示したロック解除処理と同じ内容については簡単に説明することにする。図29に示すように、プロセッサ40は、ロック解除処理を開始すると、ステップS341で、図27に示したようなロック画面450をディスプレイ14に表示する。次のステップS343では、注視領域の検出を開始する。続いて、ステップS345では、注視領域を取得し、ステップS347で、取得した注視領域が操作領域と重なるかどうかを判断する。ステップS347で“NO”であれば、そのままステップS345に戻る。
一方、ステップS347で“YES”であれば、ステップS349で、注視タイマ504hをリセットおよびスタートする。続いて、ステップS351で、注視領域を取得し、ステップS353で、取得した注視領域が操作領域と重なるかどうかを判断する。
ステップS353で“NO”であれば、そのままステップS349に戻る。一方、ステップS353で“YES”であれば、ステップS355で、解除オブジェクト460の表示面積(大きさ)、すなわち解除オブジェクト460の半径の長さを所定量大きくする(または、小さくする)。そして、ステップS357で、第8所定時間(たとえば、3−5秒)を経過したかどうかを判断する。ここでは、プロセッサ40は、注視タイマ504hのカウント値が第8所定時間を超えたかどうかを判断することにより、使用者が第8所定時間以上解除オブジェクト460を注視しているかどうかを判断するのである。
ステップS357で“NO”であれば、つまり第8所定時間を経過していなければ、キーロックを解除しないと判断して、ステップS351に戻る。なお、ステップS351−S357において、注視時間に応じて所定量ずつ解除オブジェクト460の表示面積が拡大される(または、縮小される)。
一方、ステップS357で“YES”であれば、つまり第8所定時間を経過すれば、キーロックを解除すると判断して、ステップS359で、ロック画面450を非表示(消去)して、ロック解除処理を終了する。
なお、ここでは、解除オブジェクト460を注視することにより、当該解除オブジェクト460の表示面積を変化させるようにしたが、上述したように、解除オブジェクト460の色を変化させるようにしてもよい。
また、ここでは、解除オブジェクト460を注視しているとき、その表示面積や色を変化させるようにしたが、解除オブジェクトの表示態様を何ら変化させずに、第8所定時間を経過したときに、キーロックを解除するようにしてもよい。かかる場合には、ステップS355の処理を削除すればよい。
このように、視線操作によりキーロックを解除するため、他者が視線操作によりキーロックを解除しようとしても、両目の距離Lが異なるなどの理由により、正しく視線操作が認識されないため、当該他者によって意図せずに携帯電話機10が使用されることを防止することができる。このことは、セキュリティロックの解除についても同様である。
なお、視線操作が可能であることを前提として、図28および図29に示したようなロック解除処理(キーロック)を実行できるように説明したが、実際には、事前にキャリブレーションが実行されている必要がある。
また、図28および図29では、視線操作のみによってキーロックを解除するようにしてあるが、ロック画面450が表示されてから所定時間以上視線操作がない場合、もしくは、所定回数、視線操作によるロック解除が失敗された場合には、視線操作に代えて、タッチ操作により、キーロックの解除を実行するようにしてもよい。
また、この実施例では、目覚まし時計として携帯電話機10のアラーム機能を使用する場合について説明したが、スケジュールについてのアラームとして使用することもできる。スケジュールについてのアラームとして使用する場合には、アラームを鳴動するときに、またはアラームを停止したときに、スケジュールの内容をディスプレイ14に表示するようにすれば、使用者に、スケジュールの内容を確実に確認させることができる。
図30(A)および図30(B)は、スケジュールについてのアラームのアラーム画面600の例を示す。このアラーム画面600は、スケジュールについてのアラームの日時になると、アラームを鳴動するときに、ディスプレイ14に表示される。
図30(A)(図30(B)も同じ。)に示すように、アラーム画面600は、表示領域602および表示領域604を含む。表示領域604には、月日、曜日および現在時刻などの情報が表示されるとともに、アラームを停止するためのボタン画像610が表示される。さらに、ボタン画像610の下方に、スケジュールの内容が表示される。ただし、スケジュールの時刻(日付を含む。)および内容は、使用者がスケジュール機能を実行することにより予め登録されている。
したがって、アラーム画面600が表示されている場合に、使用者が視線操作することにより、ボタン画像610を注視している時間(注視時間)が第9所定時間(たとえば、1−3秒)を経過すると、ボタン画像610がオンされる。すると、アラームが停止される。上述したように、スケジュールの内容は、アラーム画面600を表示するときに、または、ボタン画像610がオンされたときに表示される。
また、図30(B)に示すアラーム画面600では、ボタン画像610にスケジュールの内容が表示される。視線操作により、アラームを停止させる方法は、図30(A)に示すアラーム画面600と同様であり、ボタン画像610を注視することにより行われる。したがって、図30(B)に示すアラーム画面600が表示される場合には、使用者はアラームを停止するための視線操作を実行しながら、スケジュールの内容を確認することができる。
なお、この実施例では、赤外線カメラと赤外線LEDと1つずつ縦方向に離して配置するようにしたが、これに限定される必要はない。たとえば、スマートフォンのような電子機器では、横向きで使用する場合もあるため、このような場合にも、視線操作が可能な構成としてもよい。
たとえば、図31(A)および図31(B)に示すように、赤外線カメラ30および赤外線LED32に加えて、赤外線LED34が設けられる。図31(A)に示すように、この赤外線LED34は、ディスプレイ14の上部側であり、ディスプレイ14の右側(赤外線カメラ30とは反対側)に配置される。したがって、図31(A)に示すように、携帯電話機10を縦向きで使用する場合には、上述の実施例で説明したように、赤外線カメラ30と赤外線LED32とを用いて視線を検出することにより、使用者は視線操作が可能である。また、図31(B)に示すように、携帯電話機10を横向きで使用する場合には、赤外線カメラ30と赤外線LED34とを用いて視線を検出することにより、使用者は視線操作が可能である。つまり、携帯電話機10を縦向きと横向きとで、使用する赤外線LED(32、34)が切り替えられる。たとえば、加速度センサを設けることにより、携帯電話機10の向きは検出可能である。また、横向きの場合には、赤外線カメラ30と赤外線LED34とは、使用者の右目側に配置されることになるため、横向きの場合には、右目の瞳孔および右目の反射光に基づいて注視領域が決定される。このように、2つの赤外線LEDを設けるようにすれば、複雑な計算を行わずに、縦向きおよび横向きの両方の場合に、視線操作を行うことができる。
また、たとえば、図32(A)および図32(B)に示すように、赤外線カメラ30と赤外線LED32をディスプレイ14の対角線上に配置するようにしてもよい。ただし、赤外線カメラ30がディスプレイ14の右側で、赤外線LED32がディスプレイ14の左側でもよい。このように構成することにより、部品を増やさずに、縦向きおよび横向きのいずれの場合にも、視線操作が可能である。
なお、本実施例では、プロセッサの処理が視線操作によって実行される場合について説明したが、キー操作やタッチ操作によって実行されても良いことは言うまでもない。ただし、視線操作による処理が実行されている場合には、キー操作やタッチ操作を受け付けないようにしてもよい。
また、本実施例では、視線操作が可能である場合について説明したが、実際には、視線操作(視線入力)が可能である場合とそうでない場合とがあるため、視線操作が可能である場合には、その旨のメッセージないし画像(アイコン)を表示するようにしてもよい。また、視線操作を実行している場合には、視線入力を受け付けている(視線操作の実行中である)旨のメッセージないし画像を表示するようにしてもよい。このようにすれば、使用者は、視線操作が可能であること、視線入力が受け付けられていることを認識することができる。
さらに、この実施例では、アラーム処理、アプリ処理、電子書籍処理、ブラウザ処理および着信処理が開始されると、自動的に視線操作を検出するようにしたが、これに限定される必要はない。たとえば、所定のキー操作やタッチ操作に応じて、視線操作を開始するようにしてもよい。同様に、視線操作の終了を、所定のキー操作やタッチ操作で指示してもよい。
さらにまた、図16および図17に示した実行機能判断処理では、アラーム処理、アプリ処理、電子書籍処理、ブラウザ処理および着信処理はそれぞれ独立して実行されるように説明したが、アラーム処理、アプリ処理、電子書籍処理およびブラウザ処理が実行中であっても、着信がある場合には、着信処理が割り込みで実行される。
したがって、上述したように、視線操作の開始および終了を指示したり、視線操作が可能であるアプリケーションないし機能と視線操作が可能でないアプリケーションないし機能が混在したりする場合には、着信処理を割り込みで開始した場合に、直前に実行していたアプリケーションないし機能において、視線操作を行っているかどうかで、着信処理において視線操作が可能かどうかを設定するようにしてもよい。
たとえば、直前に実行していたアプリケーションないし機能において視線操作を行っていた場合に、着信が有ると、視線操作に基づいて応答または停止を指示することができる。逆に、着信が有ると、視線操作を不能にして、キー操作およびタッチ操作のみを受け付けて、キー操作やタッチ操作によって応答または停止を指示するようにしてもよい。かかる場合には、注視領域を検出する等の処理にかかる時間を必要としないため、着信に対して早急に応答したり、停止したりすることができる。また、直前に実行していたアプリケーションないし機能においてキー操作やタッチ操作を行っていた場合に、着信が有ると、そのままキー操作やタッチ操作に基づいて応答または停止を指示するようにしてもよい。つまり、着信の前後で操作方法が維持されるため、使用者にとって、操作方法を変える煩わしさがない。
また、本実施例で用いられたプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して携帯電話機10に配信されてもよい。また、CD,DVD,BD(Blue-Ray Disk)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体に複数のプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、プログラムが本実施例と同等の構成の携帯端末にインストールされた場合、本実施例と同等の効果が得られる。
そして、本明細書中で挙げた、具体的な数値は、いずれも単なる一例であり、製品の仕様変更などに応じて適宜変更可能である。
10 …携帯電話機
14 …ディスプレイ
16 …タッチパネル
30 …赤外線カメラ
32、34 …赤外線LED
40 …プロセッサ
50 …入力装置
54 …フラッシュメモリ
56 …RAM
60 …LEDドライバ
62 …撮影画像処理回路

Claims (15)

  1. 表示部を備える電子機器であって、
    前記表示部の上部側に配置された赤外線を検出するための赤外線検出部と、
    前記表示部の下部側に配置された赤外線出力部を備える、電子機器。
  2. 前記赤外線検出部と前記赤外線出力部を前記表示部の縦方向と並行な直線上に配置する、請求項1記載の電子機機器。
  3. 他の赤外線出力部をさらに設け、
    前記他の赤外線出力部を、前記赤外線検出部に対して前記表示部の横方向と並行な直線上であり、当該表示部の横方向において当該赤外線検出部の反対側に配置する、請求項2記載の電子機器。
  4. 前記赤外線検出部と前記赤外線出力部を、前記表示部を挟んで対角の位置に配置する、請求項1記載の電子機器。
  5. 前記赤外線検出部によって撮影された使用者の瞳孔と前記赤外線出力部の反射光に基づいて、当該使用者が注視する前記表示部の画面上の注視領域を検出する注視領域検出部と、
    前記注視領域検出部によって検出された注視領域に基づいて所定の処理を実行する実行部をさらに備える、請求項1ないし4のいずれかに記載の電子機器。
  6. 前記表示部は1または複数の縮小画像を表示し、
    前記注視領域検出部によって検出された注視領域が重なる前記縮小画像の表示態様を時間の経過に従って変化させる表示態様変化部をさらに備える、請求項5記載の電子機器。
  7. 前記実行部は、前記表示態様変化部によって前記縮小画像が所定の態様に変化されたとき、当該縮小画像に割り当てられた所定の処理を実行する、請求項6記載の電子機器。
  8. 前記表示部に1または複数の所定領域を設定し、
    前記実行部は、前記注視領域検出部によって検出された注視領域が前記所定領域と重なるとき、当該所定領域に割り当てられた所定の処理を実行する、請求項5記載の電子機器。
  9. 前記所定の処理は、ページの移動である、請求項8記載の電子機器。
  10. 前記所定の処理は、画面のスクロールである、請求項8記載の電子機器。
  11. 前記表示部に文字ないし縮小画像を含むロック画面を表示し、
    前記注視領域検出部によって検出される注視領域が重なる文字ないし縮小画像の配列を時系列に従って検出する配列検出部と、
    前記配列検出部によって検出された文字ないし縮小画像の配列に所定の配列が含まれるとき、前記ロック画面を消去するロック解除部をさらに備える、請求項5記載の電子機機器。
  12. 前記表示部に所定のオブジェクトを含むロック画面を表示し、
    前記注視領域検出部によって検出される注視領域が前記所定のオブジェクトと重なるとき、当該所定のオブジェクトの表示態様を変化させる表示態様変化部と、
    前記表示態様変化部によって変化された表示態様が所定の態様に変化されたとき、前記ロック画面を消去するロック解除部をさらに備える、請求項5記載の電子機器。
  13. 前記表示部に所定のオブジェクトを含むロック画面を表示し、
    前記注視領域検出部によって検出される注視領域が前記所定のオブジェクトと重なる時間が所定時間を経過したとき、前記ロック画面を消去するロック解除部をさらに備える、請求項5記載の電子機器。
  14. アラーム時に前記表示部に少なくともアラームを停止させるためのアラーム画面を表示し、
    前記実行部は、前記注視領域検出部によって検出される注視領域が前記アラーム画面の所定領域に所定時間継続して重なるとき、前記アラームを停止させる、請求項5記載の電子機器。
  15. 電話機能を備え、
    着信時に前記表示部に少なくとも着信応答または着信停止するための2つの所定領域を含む選択画面を表示し、
    前記実行部は、前記注視領域検出部によって検出される注視領域が前記選択画面の前記所定領域に所定時間継続して重なるとき、当該所定領域に応じて着信応答または着信停止する、請求項5記載の電子機器。
JP2012001114A 2012-01-06 2012-01-06 電子機器 Expired - Fee Related JP5945417B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012001114A JP5945417B2 (ja) 2012-01-06 2012-01-06 電子機器
US13/733,501 US20130176208A1 (en) 2012-01-06 2013-01-03 Electronic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012001114A JP5945417B2 (ja) 2012-01-06 2012-01-06 電子機器

Publications (2)

Publication Number Publication Date
JP2013140540A true JP2013140540A (ja) 2013-07-18
JP5945417B2 JP5945417B2 (ja) 2016-07-05

Family

ID=48743557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012001114A Expired - Fee Related JP5945417B2 (ja) 2012-01-06 2012-01-06 電子機器

Country Status (2)

Country Link
US (1) US20130176208A1 (ja)
JP (1) JP5945417B2 (ja)

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015097075A (ja) * 2013-11-15 2015-05-21 由田新技股▲ふん▼有限公司 手持ち式眼制御・接眼装置、暗号入力装置、方法及びコンピュータ可読記憶媒体及びコンピュータプログラム製品
WO2016013252A1 (ja) * 2014-07-22 2016-01-28 オリンパス株式会社 医療システム
JP2016081516A (ja) * 2014-10-20 2016-05-16 三星電子株式会社Samsung Electronics Co.,Ltd. セキュリティ装置及びそれを含む端末装置
JP2016126704A (ja) * 2015-01-08 2016-07-11 コニカミノルタ株式会社 情報処理装置、入力手段選択方法、およびコンピュータプログラム
JP2016161835A (ja) * 2015-03-03 2016-09-05 シャープ株式会社 表示装置、制御プログラム、および制御方法
JP2017182218A (ja) * 2016-03-28 2017-10-05 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
JP2018022381A (ja) * 2016-08-04 2018-02-08 富士通株式会社 画像制御方法、装置、及びプログラム
JP2018117441A (ja) * 2017-01-17 2018-07-26 日本精機株式会社 携帯型管理装置
US10180718B2 (en) 2013-09-02 2019-01-15 Sony Corporation Information processing apparatus and information processing method
JP2020061186A (ja) * 2020-01-06 2020-04-16 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
JP2021056987A (ja) * 2019-09-27 2021-04-08 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド スマートデバイスの制御方法、スマートデバイスの制御装置、電子機器及び記憶媒体
JP2021174295A (ja) * 2020-04-27 2021-11-01 キヤノン株式会社 電子機器及びその制御方法
JP2022023864A (ja) * 2017-05-16 2022-02-08 アップル インコーポレイテッド 拡張されたユーザ対話のための画像データを用いる、方法、電子デバイス及びプログラム
WO2022196476A1 (ja) * 2021-03-16 2022-09-22 富士フイルム株式会社 電子機器、電子機器の制御方法及び電子機器の制御プログラム
US11676373B2 (en) 2008-01-03 2023-06-13 Apple Inc. Personal computing device control using face detection and recognition
US11755712B2 (en) 2011-09-29 2023-09-12 Apple Inc. Authentication with secondary approver
US11765163B2 (en) 2017-09-09 2023-09-19 Apple Inc. Implementation of biometric authentication
US11768575B2 (en) 2013-09-09 2023-09-26 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US11809784B2 (en) 2018-09-28 2023-11-07 Apple Inc. Audio assisted enrollment
US11836725B2 (en) 2014-05-29 2023-12-05 Apple Inc. User interface for payments
JP7412495B1 (ja) 2022-09-15 2024-01-12 Nvデバイス株式会社 視線検出システム
US11928200B2 (en) 2018-06-03 2024-03-12 Apple Inc. Implementation of biometric authentication
US12033296B2 (en) 2018-05-07 2024-07-09 Apple Inc. Avatar creation user interface
US12045923B2 (en) 2017-05-16 2024-07-23 Apple Inc. Emoji recording and sending
US12079458B2 (en) 2016-09-23 2024-09-03 Apple Inc. Image data for enhanced user interactions
US12099586B2 (en) 2021-01-25 2024-09-24 Apple Inc. Implementation of biometric authentication
US12105874B2 (en) 2018-09-28 2024-10-01 Apple Inc. Device control using gaze information
US12124770B2 (en) 2023-08-24 2024-10-22 Apple Inc. Audio assisted enrollment

Families Citing this family (77)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US8676904B2 (en) 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
JP5278461B2 (ja) * 2011-02-03 2013-09-04 株式会社デンソー 視線検出装置および視線検出方法
US10417037B2 (en) 2012-05-15 2019-09-17 Apple Inc. Systems and methods for integrating third party services with a digital assistant
CN103809737A (zh) * 2012-11-13 2014-05-21 华为技术有限公司 一种人机交互方法及装置
KR20240132105A (ko) 2013-02-07 2024-09-02 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US9864498B2 (en) 2013-03-13 2018-01-09 Tobii Ab Automatic scrolling based on gaze detection
US9619020B2 (en) 2013-03-01 2017-04-11 Tobii Ab Delay warp gaze interaction
US10216266B2 (en) 2013-03-14 2019-02-26 Qualcomm Incorporated Systems and methods for device interaction based on a detected gaze
US9685001B2 (en) * 2013-03-15 2017-06-20 Blackberry Limited System and method for indicating a presence of supplemental information in augmented reality
KR101772152B1 (ko) 2013-06-09 2017-08-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
GB201310379D0 (en) * 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-mountable apparatus and systems
US20150009118A1 (en) * 2013-07-03 2015-01-08 Nvidia Corporation Intelligent page turner and scroller
DE102013013698B4 (de) * 2013-08-16 2024-10-02 Audi Ag Verfahren zum Betreiben einer elektronischen Datenbrille
JP6115418B2 (ja) 2013-09-11 2017-04-19 富士通株式会社 情報処理装置、方法及びプログラム
KR101847756B1 (ko) * 2013-11-09 2018-04-10 선전 구딕스 테크놀로지 컴퍼니, 리미티드 광학 눈 추적
US10558262B2 (en) 2013-11-18 2020-02-11 Tobii Ab Component determination and gaze provoked interaction
US10317995B2 (en) 2013-11-18 2019-06-11 Tobii Ab Component determination and gaze provoked interaction
CN106663183B (zh) 2013-11-27 2020-04-24 深圳市汇顶科技股份有限公司 眼睛跟踪及用户反应探测
US20150169048A1 (en) * 2013-12-18 2015-06-18 Lenovo (Singapore) Pte. Ltd. Systems and methods to present information on device based on eye tracking
US9633252B2 (en) 2013-12-20 2017-04-25 Lenovo (Singapore) Pte. Ltd. Real-time detection of user intention based on kinematics analysis of movement-oriented biometric data
US10180716B2 (en) 2013-12-20 2019-01-15 Lenovo (Singapore) Pte Ltd Providing last known browsing location cue using movement-oriented biometric data
KR102227284B1 (ko) 2014-01-16 2021-03-12 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
US9201578B2 (en) * 2014-01-23 2015-12-01 Microsoft Technology Licensing, Llc Gaze swipe selection
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
JP6575518B2 (ja) * 2014-06-25 2019-09-18 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US9203951B1 (en) 2014-07-03 2015-12-01 International Business Machines Corporation Mobile telephone adapted for use with one hand
US9952883B2 (en) 2014-08-05 2018-04-24 Tobii Ab Dynamic determination of hardware
KR20160026143A (ko) * 2014-08-29 2016-03-09 삼성전자주식회사 통신 기능 제어 방법 및 이를 지원하는 전자 장치
JP6038089B2 (ja) * 2014-09-22 2016-12-07 京セラドキュメントソリューションズ株式会社 文書閲覧装置、文書閲覧装置の制御方法
JP6367673B2 (ja) * 2014-09-29 2018-08-01 京セラ株式会社 電子機器
US9535497B2 (en) 2014-11-20 2017-01-03 Lenovo (Singapore) Pte. Ltd. Presentation of data on an at least partially transparent display based on user focus
JP6549693B2 (ja) * 2015-02-25 2019-07-24 京セラ株式会社 ウェアラブル装置、制御方法及び制御プログラム
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
CN104866100B (zh) 2015-05-27 2018-11-23 京东方科技集团股份有限公司 眼控装置及其眼控方法和眼控系统
US20160378747A1 (en) 2015-06-29 2016-12-29 Apple Inc. Virtual assistant for media playback
CN105046283A (zh) * 2015-08-31 2015-11-11 宇龙计算机通信科技(深圳)有限公司 终端操作方法和终端操作装置
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
JP6597397B2 (ja) * 2016-02-29 2019-10-30 富士通株式会社 ポインティング支援装置、ポインティング支援方法およびポインティング支援プログラム
WO2017208351A1 (ja) * 2016-05-31 2017-12-07 株式会社オプティム 撮像画像共有システム、撮像画像共有方法及びプログラム
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
CN106125934A (zh) * 2016-06-28 2016-11-16 广东欧珀移动通信有限公司 控制方法、控制装置及电子装置
DK180048B1 (en) 2017-05-11 2020-02-04 Apple Inc. MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION
DK201770428A1 (en) 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
DK201770411A1 (en) 2017-05-15 2018-12-20 Apple Inc. MULTI-MODAL INTERFACES
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
JP6958141B2 (ja) * 2017-09-05 2021-11-02 富士フイルムビジネスイノベーション株式会社 情報処理装置、画像形成装置、および、プログラム
US11094095B2 (en) * 2017-11-07 2021-08-17 Disney Enterprises, Inc. Focal length compensated augmented reality
US11145294B2 (en) 2018-05-07 2021-10-12 Apple Inc. Intelligent automated assistant for delivering content from user experiences
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
DK180639B1 (en) 2018-06-01 2021-11-04 Apple Inc DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT
DK201870355A1 (en) 2018-06-01 2019-12-16 Apple Inc. VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS
CN109101110A (zh) * 2018-08-10 2018-12-28 北京七鑫易维信息技术有限公司 一种操作指令执行方法、装置、用户终端及存储介质
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
CN111414074A (zh) * 2019-01-08 2020-07-14 北京京东尚科信息技术有限公司 屏幕浏览数据处理方法、装置、介质及电子设备
US11295541B2 (en) * 2019-02-13 2022-04-05 Tencent America LLC Method and apparatus of 360 degree camera video processing with targeted view
US11348573B2 (en) 2019-03-18 2022-05-31 Apple Inc. Multimodality in digital assistant systems
US11307752B2 (en) 2019-05-06 2022-04-19 Apple Inc. User configurable task triggers
DK201970509A1 (en) 2019-05-06 2021-01-15 Apple Inc Spoken notifications
US11140099B2 (en) 2019-05-21 2021-10-05 Apple Inc. Providing message response suggestions
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
CN110262663B (zh) * 2019-06-20 2021-10-19 Oppo广东移动通信有限公司 基于眼球追踪技术的日程生成方法及相关产品
US11038934B1 (en) 2020-05-11 2021-06-15 Apple Inc. Digital assistant hardware abstraction
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11474598B2 (en) * 2021-01-26 2022-10-18 Huawei Technologies Co., Ltd. Systems and methods for gaze prediction on touch-enabled devices using touch interactions
US20230298197A1 (en) * 2022-03-17 2023-09-21 Motorola Mobility Llc Electronic device with gaze-based autofocus of camera during video rendition of scene
US12022182B2 (en) 2022-05-26 2024-06-25 Motorola Mobility Llc Visual feature based video effects
US20240004462A1 (en) * 2022-07-01 2024-01-04 Sony Interactive Entertainment Inc. Gaze tracking for user interface

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03501291A (ja) * 1987-09-21 1991-03-22 ウッデン,ペル 光の強さに於ける変動の測定
JP2000020534A (ja) * 1998-06-30 2000-01-21 Sharp Corp 電子ブック装置
JP2000020196A (ja) * 1998-07-01 2000-01-21 Shimadzu Corp 視線入力装置
JP2004180208A (ja) * 2002-11-29 2004-06-24 Toshiba Corp テレビジョン信号視聴装置
JP2006099160A (ja) * 2004-09-28 2006-04-13 Sony Corp パスワード設定装置及びパスワード認証装置
JP2007136000A (ja) * 2005-11-21 2007-06-07 Nippon Telegr & Teleph Corp <Ntt> 視線検出装置、視線検出方法、および視線検出プログラム
JP2007141223A (ja) * 2005-10-17 2007-06-07 Omron Corp 情報処理装置および方法、記録媒体、並びに、プログラム
JP2009227246A (ja) * 2008-03-25 2009-10-08 Denso Corp 車両用操作入力装置
WO2011089199A1 (en) * 2010-01-21 2011-07-28 Tobii Technology Ab Eye tracker based contextual action
JP2011217764A (ja) * 2010-04-02 2011-11-04 Fujitsu Ltd 補正値算出装置、補正値算出方法および補正値算出プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050047629A1 (en) * 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
WO2007089198A1 (en) * 2006-02-01 2007-08-09 Tobii Technology Ab Generation of graphical feedback in a computer system
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US20100079508A1 (en) * 2008-09-30 2010-04-01 Andrew Hodge Electronic devices with gaze detection capabilities
US8982160B2 (en) * 2010-04-16 2015-03-17 Qualcomm, Incorporated Apparatus and methods for dynamically correlating virtual keyboard dimensions to user finger size
US8594374B1 (en) * 2011-03-30 2013-11-26 Amazon Technologies, Inc. Secure device unlock with gaze calibration
US10120438B2 (en) * 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
KR101850034B1 (ko) * 2012-01-06 2018-04-20 엘지전자 주식회사 이동 단말기 및 그 제어방법

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03501291A (ja) * 1987-09-21 1991-03-22 ウッデン,ペル 光の強さに於ける変動の測定
JP2000020534A (ja) * 1998-06-30 2000-01-21 Sharp Corp 電子ブック装置
JP2000020196A (ja) * 1998-07-01 2000-01-21 Shimadzu Corp 視線入力装置
JP2004180208A (ja) * 2002-11-29 2004-06-24 Toshiba Corp テレビジョン信号視聴装置
JP2006099160A (ja) * 2004-09-28 2006-04-13 Sony Corp パスワード設定装置及びパスワード認証装置
JP2007141223A (ja) * 2005-10-17 2007-06-07 Omron Corp 情報処理装置および方法、記録媒体、並びに、プログラム
JP2007136000A (ja) * 2005-11-21 2007-06-07 Nippon Telegr & Teleph Corp <Ntt> 視線検出装置、視線検出方法、および視線検出プログラム
JP2009227246A (ja) * 2008-03-25 2009-10-08 Denso Corp 車両用操作入力装置
WO2011089199A1 (en) * 2010-01-21 2011-07-28 Tobii Technology Ab Eye tracker based contextual action
JP2011217764A (ja) * 2010-04-02 2011-11-04 Fujitsu Ltd 補正値算出装置、補正値算出方法および補正値算出プログラム

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11676373B2 (en) 2008-01-03 2023-06-13 Apple Inc. Personal computing device control using face detection and recognition
US11755712B2 (en) 2011-09-29 2023-09-12 Apple Inc. Authentication with secondary approver
US10180718B2 (en) 2013-09-02 2019-01-15 Sony Corporation Information processing apparatus and information processing method
US11768575B2 (en) 2013-09-09 2023-09-26 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
JP2015097075A (ja) * 2013-11-15 2015-05-21 由田新技股▲ふん▼有限公司 手持ち式眼制御・接眼装置、暗号入力装置、方法及びコンピュータ可読記憶媒体及びコンピュータプログラム製品
US11836725B2 (en) 2014-05-29 2023-12-05 Apple Inc. User interface for payments
WO2016013252A1 (ja) * 2014-07-22 2016-01-28 オリンパス株式会社 医療システム
JP5911655B1 (ja) * 2014-07-22 2016-04-27 オリンパス株式会社 医療システム
US9483114B2 (en) 2014-07-22 2016-11-01 Olympus Corporation Medical system
JP2016081516A (ja) * 2014-10-20 2016-05-16 三星電子株式会社Samsung Electronics Co.,Ltd. セキュリティ装置及びそれを含む端末装置
JP2016126704A (ja) * 2015-01-08 2016-07-11 コニカミノルタ株式会社 情報処理装置、入力手段選択方法、およびコンピュータプログラム
US10212310B2 (en) 2015-01-08 2019-02-19 Konica Minolta, Inc. Information processing apparatus, method for calling input portion, and computer-readable storage medium for computer program
JP2016161835A (ja) * 2015-03-03 2016-09-05 シャープ株式会社 表示装置、制御プログラム、および制御方法
JP2017182218A (ja) * 2016-03-28 2017-10-05 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
US10860176B2 (en) 2016-08-04 2020-12-08 Fujitsu Limited Image control method and device
JP2018022381A (ja) * 2016-08-04 2018-02-08 富士通株式会社 画像制御方法、装置、及びプログラム
US12079458B2 (en) 2016-09-23 2024-09-03 Apple Inc. Image data for enhanced user interactions
JP2018117441A (ja) * 2017-01-17 2018-07-26 日本精機株式会社 携帯型管理装置
US12045923B2 (en) 2017-05-16 2024-07-23 Apple Inc. Emoji recording and sending
JP7495913B2 (ja) 2017-05-16 2024-06-05 アップル インコーポレイテッド 拡張されたユーザ対話のための画像データを用いる、方法、電子デバイス及びプログラム
JP2022023864A (ja) * 2017-05-16 2022-02-08 アップル インコーポレイテッド 拡張されたユーザ対話のための画像データを用いる、方法、電子デバイス及びプログラム
US11765163B2 (en) 2017-09-09 2023-09-19 Apple Inc. Implementation of biometric authentication
US12033296B2 (en) 2018-05-07 2024-07-09 Apple Inc. Avatar creation user interface
US11928200B2 (en) 2018-06-03 2024-03-12 Apple Inc. Implementation of biometric authentication
US11809784B2 (en) 2018-09-28 2023-11-07 Apple Inc. Audio assisted enrollment
US12105874B2 (en) 2018-09-28 2024-10-01 Apple Inc. Device control using gaze information
JP7231535B2 (ja) 2019-09-27 2023-03-01 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド スマートデバイスの制御方法、スマートデバイスの制御装置、電子機器及び記憶媒体
JP2021056987A (ja) * 2019-09-27 2021-04-08 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド スマートデバイスの制御方法、スマートデバイスの制御装置、電子機器及び記憶媒体
US11126260B2 (en) 2019-09-27 2021-09-21 Baidu Online Network Technology (Beijing) Co., Ltd. Control method and apparatus of intelligent device, and storage medium
JP2020061186A (ja) * 2020-01-06 2020-04-16 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
JP2021174295A (ja) * 2020-04-27 2021-11-01 キヤノン株式会社 電子機器及びその制御方法
JP7455651B2 (ja) 2020-04-27 2024-03-26 キヤノン株式会社 電子機器及びその制御方法
US12099586B2 (en) 2021-01-25 2024-09-24 Apple Inc. Implementation of biometric authentication
WO2022196476A1 (ja) * 2021-03-16 2022-09-22 富士フイルム株式会社 電子機器、電子機器の制御方法及び電子機器の制御プログラム
WO2024057831A1 (ja) * 2022-09-15 2024-03-21 Nvデバイス株式会社 視線検出システム
JP7412495B1 (ja) 2022-09-15 2024-01-12 Nvデバイス株式会社 視線検出システム
US12124770B2 (en) 2023-08-24 2024-10-22 Apple Inc. Audio assisted enrollment

Also Published As

Publication number Publication date
US20130176208A1 (en) 2013-07-11
JP5945417B2 (ja) 2016-07-05

Similar Documents

Publication Publication Date Title
JP5945417B2 (ja) 電子機器
US11765163B2 (en) Implementation of biometric authentication
US11170085B2 (en) Implementation of biometric authentication
EP3179358A1 (en) Method and apparatus for inputting contents based on virtual keyboard, and touch device
EP2897351B1 (en) Mobile terminal and control method thereof
US20120062564A1 (en) Mobile electronic device, screen control method, and storage medium storing screen control program
US9111076B2 (en) Mobile terminal and control method thereof
JP6043586B2 (ja) 電子機器、視線入力プログラムおよび視線入力方法
WO2019105227A1 (zh) 应用图标的显示方法、终端及计算机可读存储介质
US20110310048A1 (en) Mobile terminal and method for controlling the same
JP2019079415A (ja) 電子機器、制御装置、制御プログラム及び電子機器の動作方法
CN106681592B (zh) 基于电子设备的显示切换方法及装置、电子设备
CN104199604A (zh) 一种具有触摸显示屏的电子设备及其信息处理方法
JP2019062464A (ja) 電子機器
KR20110025520A (ko) 휴대단말기의 제어 장치 및 방법
US11354031B2 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method for controlling a scroll speed of a display screen
US9746999B2 (en) Mobile device remotely controlled by other mobile device through a network
JP6616379B2 (ja) 電子機器
JP6405024B1 (ja) 電子機器、制御方法及び制御プログラム
US20200033959A1 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method
JP6133451B2 (ja) 携帯電子機器、画面制御方法および画面制御プログラム
JP2017200236A (ja) 携帯電子機器
JP2015049521A (ja) 携帯電子機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160530

R150 Certificate of patent or registration of utility model

Ref document number: 5945417

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees