JP2019029804A - 電子機器、プログラムおよび制御方法 - Google Patents

電子機器、プログラムおよび制御方法 Download PDF

Info

Publication number
JP2019029804A
JP2019029804A JP2017146837A JP2017146837A JP2019029804A JP 2019029804 A JP2019029804 A JP 2019029804A JP 2017146837 A JP2017146837 A JP 2017146837A JP 2017146837 A JP2017146837 A JP 2017146837A JP 2019029804 A JP2019029804 A JP 2019029804A
Authority
JP
Japan
Prior art keywords
controller
smartphone
sensor
gesture
proximity sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017146837A
Other languages
English (en)
Other versions
JP6266833B1 (ja
Inventor
茂輝 田辺
Shigeki Tanabe
茂輝 田辺
上野 泰弘
Yasuhiro Ueno
泰弘 上野
英樹 森田
Hideki Morita
英樹 森田
功 益池
Isao Masuike
功 益池
浩太郎 山内
Kotaro Yamauchi
浩太郎 山内
学 佐久間
Manabu Sakuma
学 佐久間
健史 島田
Takeshi Shimada
健史 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2017146837A priority Critical patent/JP6266833B1/ja
Application granted granted Critical
Publication of JP6266833B1 publication Critical patent/JP6266833B1/ja
Priority to US16/035,809 priority patent/US10698541B2/en
Publication of JP2019029804A publication Critical patent/JP2019029804A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】利便性を向上可能な電子機器、プログラムおよび制御方法を提供する。【解決手段】電子機器1は、近接センサ5と、タッチセンサ2Bと、タッチセンサ2Bの出力に基づいて自機器が濡れていると判定した場合に、近接センサ5をオンにするコントローラ10と、を備える。コントローラ10は、近接センサ5によって検出されたジェスチャに基づいて処理を実行する。【選択図】図4

Description

本発明は、電子機器、プログラムおよび制御方法に関する。
例えばスマートフォンおよびタブレット端末等の電子機器は、一般にタッチパネルを備えている。ユーザは、このような電子機器を、タッチパネルに触れることで制御するのが一般的である。近年、ユーザが端末から離れて行うジェスチャを例えば赤外線センサ等の近接センサによって検出し、ジェスチャと対応する入力操作を実行する電子機器が知られている(例えば特許文献1)。
特開2015−225493号公報
特許文献1に開示されたジェスチャによる入力操作は、例えば、携帯電話機に触れることが出来ない状態において、指で実行ジェスチャをすることにより携帯電話機を操作するためのものである。しかしながら、特許文献1に開示された携帯電話機において、携帯電話機がジェスチャによる操作を受け付け可能な状態でなければ、たとえユーザが携帯電話機に触れることが出来ない状態であっても、ジェスチャによる操作は受け付けられない。そのため、特許文献1に開示された携帯電話機は、必ずしも利便性が高くない場合があった。
かかる事情に鑑みてなされた本発明の目的は、利便性を向上可能な電子機器、プログラムおよび制御方法を提供することにある。
一実施形態に係る電子機器は、近接センサと、タッチセンサと、コントローラとを備える。前記コントローラは、前記タッチセンサの出力に基づいて自機器が濡れていると判定した場合に、前記近接センサをオンにする。
一実施形態に係る電子機器は、近接センサと、タッチセンサと、コントローラとを備える。前記コントローラは、前記タッチセンサの出力に基づいて自機器が濡れていると判定した場合に、前記近接センサによって検出されたジェスチャに基づいて処理を実行する。
一実施形態に係るプログラムは、近接センサと、タッチセンサと、コントローラと、を備える電子機器に、前記コントローラにより、前記タッチセンサの出力に基づいて前記電子機器が濡れていると判定した場合に、前記近接センサをオンにするステップを実行させる。
一実施形態に係るプログラムは、近接センサと、タッチセンサと、コントローラと、を備える電子機器に、前記コントローラにより、前記タッチセンサの出力に基づいて前記電子機器が濡れていると判定した場合に、前記近接センサによって検出されたジェスチャに基づいて処理を実行するステップを実行させる。
一実施形態に係る制御方法は、近接センサと、タッチセンサと、コントローラと、を備える電子機器の制御方法であって、前記コントローラにより、前記タッチセンサの出力に基づいて前記電子機器が濡れていると判定した場合に、前記近接センサをオンにするステップを含む。
一実施形態に係る制御方法は、近接センサと、タッチセンサと、コントローラと、を備える電子機器の制御方法であって、前記コントローラにより、前記タッチセンサの出力に基づいて前記電子機器が濡れていると判定した場合に、前記近接センサによって検出されたジェスチャに基づいて処理を実行するステップを含む。
一実施形態によれば、利便性を向上可能な電子機器、プログラムおよび制御方法を提供することができる。
一実施形態に係るスマートフォンの斜視図である。 図1のスマートフォンの正面図である。 図1のスマートフォンの背面図である。 図1のスマートフォンの概略構成の一例を示す機能ブロック図である。 図4のコントローラが実行する、近接センサの起動の処理手順の一例を示すフローチャートである。 図4の気圧センサにより測定される気圧変化の一例を示す図である。 図4のタッチスクリーンにより測定される静電容量の一例を示す図である。 図4のタッチスクリーンにより測定される静電容量の他の一例を示す図である。 図4のコントローラが実行する処理手順の一例を示すフローチャートである。 近接センサの概略構成図である。 各赤外フォトダイオードが検出する検出値の推移を示す図である。 ユーザがスマートフォンを第2モードで使用する様子の一例を示す図である。 図4のコントローラが実行する処理手順の一例を示すフローチャートである。 ディスプレイに表示されるロック画面の一例を示す図である。 ディスプレイに表示されるホーム画面の一例を示す図である。 ディスプレイに表示される認証情報入力受付画面の一例を示す図である。 ディスプレイに表示されるジェスチャ入力受付画面の一例を示す図である。 ジェスチャによる認証において使用するジェスチャの一例を示す概略図である。 図4のコントローラが実行する処理手順の一例を示すフローチャートである。
以下、いくつかの実施形態について、図面を参照しつつ詳細に説明する。本明細書では、一例として、電子機器がスマートフォンである場合について説明する。ただし、電子機器は、スマートフォン以外の装置として構成されていてもよい。
(スマートフォンの構成)
図1から図3を参照しながら、一実施形態に係るスマートフォン1の全体的な構成について説明する。図1から図3に示すように、電子機器1の一例としてのスマートフォン1は、ハウジング30を有する。ハウジング30は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング30の正面である。バックフェイス1Bは、ハウジング30の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
スマートフォン1は、タッチスクリーンディスプレイ2と、操作部3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12と、指紋センサ18をフロントフェイス1Aに有する。スマートフォン1は、スピーカ11と、カメラ13とをバックフェイス1Bに有する。スマートフォン1は、操作部3D〜3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、操作部3A〜3Fを、どの操作部であるかを特定することなく、操作部3と総称することがある。
タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。図1の例では、ディスプレイ2Aおよびタッチスクリーン2Bはそれぞれ略長方形状であるが、ディスプレイ2Aおよびタッチスクリーン2Bの形状はこれに限定されない。ディスプレイ2Aおよびタッチスクリーン2Bは、それぞれが正方形または円形等のどのような形状もとりうる。図1の例では、ディスプレイ2Aおよびタッチスクリーン2Bは重ねて配置されているが、ディスプレイ2Aおよびタッチスクリーン2Bの配置はこれに限定されない。ディスプレイ2Aおよびタッチスクリーン2Bは、例えば、並べて配置されてもよいし、離して配置されてもよい。図1の例では、ディスプレイ2Aの長辺はタッチスクリーン2Bの長辺に沿っており、ディスプレイ2Aの短辺はタッチスクリーン2Bの短辺に沿っているが、ディスプレイ2Aおよびタッチスクリーン2Bの重ね方はこれに限定されない。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。
ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、または無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、および図形等のオブジェクトを画面内に表示する。ディスプレイ2Aが表示する文字、画像、記号、および図形等のオブジェクトを含む画面は、ロック画面と呼ばれる画面、ホーム画面と呼ばれる画面、アプリケーションの実行中に表示されるアプリケーション画面を含む。ロック画面は、スマートフォン1において、少なくとも一部の機能の使用が制限されている場合に表示される画面である。すなわち、スマートフォン1は、一部の機能の使用が制限された状態と、機能の使用が制限されていない状態とを取ることができる。一部の機能の使用が制限された状態を、以下、「ロック状態」ともいう。スマートフォン1がロック状態である場合、例えばディスプレイ2Aにはロック画面が表示される。ロック状態において、ユーザは、例えばカメラ12または13を用いた撮影機能を使用することができる。機能の使用が制限されていない状態を、以下、「アンロック状態」ともいう。スマートフォン1がアンロック状態である場合、例えばディスプレイ2Aにはホーム画面が表示される。ホーム画面は、デスクトップ、待受画面、アイドル画面、標準画面、アプリ一覧画面またはランチャー画面と呼ばれることもある。ディスプレイ2Aは、表示部の一例である。アンロック状態において、ユーザは、例えばスマートフォン1が実行可能な全ての機能を実行させることができる。
タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、またはスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、またはスタイラスペン等がタッチスクリーン2Bに接触した位置を検出することができる。
タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(または超音波方式)、赤外線方式、電磁誘導方式、および荷重検出方式等の任意の方式でよい。以下の説明では、ユーザはスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。
スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、および接触が検出された回数の少なくとも1つに基づいて入力操作の種別を判別する。入力操作は、タッチスクリーン2Bに対して行われる操作である。スマートフォン1によって判別される入力操作は、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、およびピンチアウトを含むがこれらに限定されない。
スマートフォン1は、タッチスクリーン2Bを介して判別するこれらの入力操作に従って動作を行う。このため、ユーザにとって直感的で使いやすい操作性が実現される。判別される入力操作に従ってスマートフォン1が行う動作は、ディスプレイ2Aに表示されている画面に応じて異なることがある。以下の説明では、説明を簡単にするために、「タッチスクリーン2Bが接触を検出し、検出された接触に基づいて入力操作の種別をスマートフォン1がXと判別すること」を、「スマートフォン1がXを検出する」、または「コントローラがXを検出する」と記載することがある。
指紋センサ18は、指先における指紋の凹凸を画像として読み取る(検出する)。本実施形態において、指紋センサ18は、操作部3Bに内蔵されている。従って、本実施形態において、指紋センサ18は、操作部3Bに接触した指の指紋を検出する。指紋センサ18は、読み取った画像を指紋情報として出力する。例えば、指紋センサ18は、半導体静電容量方式センサである場合、指紋の凹凸によって変化する複数の電極の電荷を検出し、電荷の量を変換して画像とする。なお、指紋センサ18は、半導体静電容量方式センサに限定されず、光学式センサ、超音波式センサを用いてもよい。本実施形態では、指紋センサ18は、操作部3Bに内蔵される場合について説明するが、これに限定されない。例えば、指紋センサ18は、ユーザが片手で持った状態で、その手の親指が操作可能な範囲のハウジング30のフロントフェイス1A、サイドフェイス1C3、1C4等に単独で設けられてもよい。指紋センサ18は、例えば間欠的に動作してよい。指紋センサ18は、例えば操作部3が押下されたことによりディスプレイ2Aが点灯した場合等、所定の条件が満たされる場合に、起動されて動作してもよい。
操作部3は、ユーザによって操作される操作ボタンである。操作部3は、ユーザによって押下可能に、ハウジング30に配置される。操作部3は、操作部3A〜操作部3Fを有する。コントローラ10は操作部3と協働することによって操作部3に対する操作を検出する。操作部3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、およびプッシュを含むが、これらに限定されない。
操作部3A〜3Cは、例えば、ホームボタン、バックボタンまたはメニューボタンである。操作部3Dは、例えば、スマートフォン1のパワーオン/オフボタンである。ユーザは、操作部3Dを操作(押下)することにより、ディスプレイ2Aへの表示のオン/オフを切り替えることができる。操作部3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。操作部3Eおよび3Fは、例えば、音量ボタンである。
照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、照度センサ4の測定面の単位面積に入射する光束の値である。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。
近接センサ5は、スマートフォン1の周囲の対象物との相対距離および対象物の移動方向等を非接触で検出する。本実施形態において、近接センサ5は1つの光源用赤外LED(Light Emitting Diode)と4つの赤外フォトダイオードとを有する。近接センサ5は、光源用赤外LEDから赤外光を対象物に向けて照射する。近接センサ5は、対象物からの反射光を赤外フォトダイオードの入射光とする。そして、近接センサ5は赤外フォトダイオードの出力電流に基づいて対象物との相対距離を測定することができる。また、近接センサ5は、対象物からの反射光がそれぞれの赤外フォトダイオードに入射する時間差により対象物の移動方向を検出する。したがって、近接センサ5は、スマートフォン1のユーザがスマートフォン1に触れずに行うエアジェスチャ(以下単に「ジェスチャ」ともいう)を用いた操作を検出することができる。近接センサ5は可視光フォトダイオードを有していてもよい。本実施形態では、近接センサ5は、スマートフォン1において、タッチスクリーンディスプレイ2が配置された面と同じ面に配置されてよい。
レシーバ7およびスピーカ11は、音出力部である。レシーバ7およびスピーカ11は、例えばスマートフォン1のコントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。スピーカ11は、例えば、着信音および音楽を出力するために用いられる。レシーバ7およびスピーカ11の一方が、他方の機能を兼ねてもよい。マイク8は、音入力部である。マイク8は、ユーザの音声等を音信号へ変換してコントローラ10へ送信する。
カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。
コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、および通信装置を含むが、これらに限定されない。
図4は、スマートフォン1の概略構成の一例を示す機能ブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、操作部3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12および13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17と、指紋センサ18と、気圧センサ19と、温度センサ20と、湿度センサ21とを有する。
タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、または図形等を表示する。タッチスクリーン2Bは、接触を検出する。コントローラ10は、スマートフォン1に対するジェスチャを検出する。具体的には、コントローラ10は、タッチスクリーン2Bと協働することによって、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する操作(ジェスチャ)を検出する。
通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。無線通信規格として、さらに、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つまたは複数をサポートしていてもよい。
レシーバ7およびスピーカ11は、音出力部である。レシーバ7およびスピーカ11は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。スピーカ11は、例えば、着信音および音楽を出力するために用いられる。レシーバ7およびスピーカ11の一方が、他方の機能を兼ねてもよい。マイク8は、音入力部である。マイク8は、ユーザの音声等を音信号へ変換してコントローラ10へ送信する。
気圧センサ19は、スマートフォン1に作用する気圧を測定できる。
温度センサ20は、スマートフォン1の周囲の温度を測定できる。温度センサ20は、例えば、熱電対、サーミスタ、バイメタル等の周知の温度センサであってよい。
湿度センサ21は、スマートフォン1の周囲の湿度を測定できる。湿度センサ21は、例えば半導体等により構成されるセンサを用いて湿度を測定する電気式湿度計であってよい。湿度センサ21は、例えば、伸縮式湿度計、乾湿式湿度計または露点式湿度計等の他の湿度計であってもよい。
ストレージ9は、プログラムおよびデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、および磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、または光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
ストレージ9に記憶されるプログラムには、フォアグランドまたはバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに画面を表示させ、タッチスクリーン2Bを介して検出される入力操作に応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーションおよび制御プログラムは、通信ユニット6による無線通信または非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
ストレージ9は、例えば、制御プログラム9A、ジェスチャデータ9W、指紋データ9X、および設定データ9Zを記憶する。ジェスチャデータ9Wは、スマートフォン1を所有するユーザが登録したジェスチャに関する情報を含む。指紋データ9Xは、スマートフォン1を所有するユーザが登録した指紋に関する情報を含む。認証情報データ9Yは、スマートフォン1を所有するユーザが登録した認証情報に関する情報を含む。設定データ9Zは、スマートフォン1の動作に関する各種の設定に関する情報を含む。
制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、およびマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、タッチスクリーン2Bを介して検出された入力操作に応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を行う機能が含まれる。制御プログラム9Aが提供する機能は、他のプログラムが提供する機能と組み合わせて利用されることがある。
制御プログラム9Aは、スマートフォン1のロック状態とアンロック状態とを切り換える機能を提供することができる。ロック状態が解除されてアンロック状態になると、タッチスクリーンディスプレイ2、操作部3等に対する操作が可能な状態となることにより、スマートフォン1の機能が利用可能となる。
制御プログラム9Aは、近接センサ5をオンにする機能を提供することができる。近接センサ5をオンにする制御の詳細については、後述する。
制御プログラム9Aは、ユーザの認証を行う認証機能を提供する。認証機能は、例えば、ユーザの指紋による認証と、ジェスチャによる認証と、認証情報の入力による認証とを含む。
指紋による認証は、指紋センサ18が読み取った指紋情報と予め登録された指紋情報とが所定の範囲で適合する場合に、ユーザが登録された本人であると認証する。所定の範囲で適合するとは、例えば、読み取った指紋画像と、予め登録された親指の指紋画像との画像処理によって一致性を評価し、所定の評価以上であれば、適合すると判断することを意味する。画像処理は、例えば、指紋の特徴点を抽出して比較する処理を含む。本明細書において、以下、指紋センサ18が読み取った指紋情報と予め登録された指紋情報とが所定の範囲で適合すると判断されることを、「認証が成功する」とも表現する。また、本明細書において、以下、指紋センサ18が読み取った指紋情報と予め登録された指紋情報とが所定の範囲で適合しないと判断されることを、「認証が失敗する」とも表現する。
ジェスチャによる認証は、近接センサ5により検出されたユーザのジェスチャと、予め登録されたジェスチャとが、所定の範囲で適合する場合に、ユーザが登録された本人であると認証する。所定の範囲で適合するとは、例えば、検出されたジェスチャと、予め登録されたジェスチャとの一致性を評価し、所定の評価以上であれば、適合すると判断することを意味する。
認証情報の入力による認証は、入力された暗証番号、パスワードまたはパターン等が予め登録された暗証番号、パスワードまたはパターン等と一致する場合に、ユーザが登録された本人であると認証する。本明細書において、認証情報は、暗証番号、パスワードまたはパターン等、ユーザがタッチスクリーンディスプレイ2を用いて入力する、認証に用いられる情報をいう。ただし、本明細書において、認証情報は、ユーザの指紋およびジェスチャを含まない。
制御プログラム9Aは、ロック状態で、指紋センサ18が指紋情報を出力すると、当該指紋情報に基づいてユーザの認証を行う機能を提供する。例えば、制御プログラム9Aは、指紋センサ18によって読み取った指紋情報が予め登録された指紋情報と所定の範囲で適合する場合、スマートフォン1を操作するユーザが登録されたユーザであると判断し、判断結果に応じて所定の制御を行う。
指紋データ9Xは、ユーザによって予め登録された指紋の画像を示す指紋情報を含む。複数の指の指紋が登録されている場合、指紋データ9Xは、複数の指ごとの指紋情報を含む。例えば、親指および人差し指の指紋が登録されている場合、指紋データ9Xは、親指および人差し指に対応した2つの指紋情報を含む。指紋データ9Xは、指紋情報と指および手の種類を示す情報とが紐付けられている。例えば、右手の親指の指紋が登録されている場合、指紋データ9Xの指紋情報は、右手および親指を示す情報が紐付けられる。
認証情報データ9Yは、ユーザによって予め登録された認証情報を含む。すなわち、認証情報データ9Yは、例えば、所定の桁数の暗証番号、所定の文字列からなるパスワード、または所定のパターンに関する情報を含む。
ジェスチャデータ9Wは、ユーザによって予め登録されたジェスチャの情報を含む。
コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、FPGA(Field−Programmable Gate Array)、およびコプロセッサを含むが、これらに限定されない。コントローラ10は、複数の演算処理装置を含んでもよい。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データおよび命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、レシーバ7、およびスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、操作部3、照度センサ4、近接センサ5、マイク8、カメラ12、カメラ13、加速度センサ15、方位センサ16、ジャイロスコープ17、指紋センサ18、気圧センサ19、温度センサ20、および湿度センサ21を含むが、これらに限定されない。
コントローラ10は、所定の条件が満たされたと判定した場合に、近接センサ5をオンにする。すなわち、コントローラ10は、所定の条件が満たされたと判定した場合に、近接センサ5を起動して、ジェスチャによる入力操作を受け付け可能な状態になる。所定の条件およびコントローラ10による処理の詳細については、後述する。
加速度センサ15は、スマートフォン1に作用する加速度の方向および大きさ、スマートフォン1の傾きの角度、重力加速度の大きさおよび方向を検出する。方位センサ16は、地磁気の向きを検出する。ジャイロスコープ17は、スマートフォン1の角度および角速度を検出する。加速度センサ15、方位センサ16、およびジャイロスコープ17の検出結果は、スマートフォン1の位置、姿勢、および状態の変化を検出するために、組み合わせて利用される。
図4においてストレージ9が記憶するプログラムおよびデータの一部または全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図4においてストレージ9が記憶するプログラムおよびデータの一部または全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。図4においてストレージ9が記憶するプログラムおよびデータの一部または全部は、コネクタ14に接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu−ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、およびソリッドステート記憶媒体を含むが、これらに限定されない。
図1乃至図4に示したスマートフォン1の構成は例であり、本開示の要旨を損なわない範囲において適宜変更してよい。例えば、操作部3の数と種類は図1乃至図4の例に限定されない。スマートフォン1は、画面に関する操作のためのボタンとして、操作部3A〜3Cに代えて、テンキー配列またはQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、操作部を1つだけ備えてもよい。図4に示した例では、スマートフォン1が2つのカメラ12および13を備えるが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラ12および13を備えなくてもよい。図4に示した例では、スマートフォン1が位置および姿勢を検出するために4種類のセンサを備えるが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよい。あるいは、スマートフォン1は、位置および姿勢の少なくとも1つを検出するための他の種類のセンサを備えてもよい。
(コントローラが実行する制御の概要)
次に、コントローラ10が実行する、近接センサ5を起動する制御の詳細について説明する。図5は、コントローラ10が実行する、近接センサ5の起動の処理手順の一例を示すフローチャートである。図5のフローの開始時点において、近接センサ5は起動されていない状態、すなわちオフの状態である。
コントローラ10は、所定の条件が満たされたか否かを判定する(ステップS11)。所定の条件は、適宜定めることができ、その詳細については後述する。所定の条件は、ユーザの入力によらない条件であってよい。
コントローラ10は、所定の条件が満たされていないと判定した場合(ステップS11のNo)、近接センサ5をオフの状態に維持したまま、このフローを終了する。
一方、コントローラ10は、所定の条件が満たされたと判定した場合(ステップS11のYes)、近接センサ5をオンにする(ステップS12)。これにより、近接センサ5によるジェスチャの検出が開始される。すなわち、ユーザは、ジェスチャにより、スマートフォン1に対して操作入力を行うことができる。
このように、ユーザの入力によらない所定の条件が満たされた場合に、近接センサ5をオンにすることにより、スマートフォン1は、ユーザ特定の入力によらず、状況に応じて、自動的にジェスチャを検出可能な状態となることができる。
以下、所定の条件の具体例と、コントローラ10の制御とについて説明する。
(第1実施形態)
所定の条件は、例えば、スマートフォン1が濡れていると判定可能な条件であってよい。コントローラ10は、スマートフォン1が例えば水等の液体に濡れているか否かを判定する。コントローラ10は、スマートフォン1が濡れていると判定した場合、近接センサ5をオンにして、ジェスチャの検出を開始してよい。本明細書において、スマートフォン1が濡れているとは、スマートフォン1の表面に例えば水滴等の液体が付着した状態と、スマートフォン1が例えば水中等の液体の中に存在し、液体に浸かっている状態とを含む。
コントローラ10は、例えばタッチスクリーン2B、指紋センサ18または気圧センサ19から、スマートフォン1が濡れているか否かを判定するための情報を取得し、当該情報に基づいてスマートフォン1が濡れているか否かを判定する。
気圧センサ19は、スマートフォン1が濡れているかを判定するための情報を測定できる。気圧センサ19は、スマートフォン1が濡れているか否かを判定するための情報として、気圧値の変化を測定する。例えば、スマートフォン1が水中に入った場合、スマートフォン1に水圧が作用する。気圧センサ19は、スマートフォン1に作用する水圧の変化を測定でき、この水圧の変化に基づいて、スマートフォン1が濡れているか否かが判定される。
タッチスクリーン2Bは、スマートフォン1が濡れているか否かを判定するための情報を測定できる。例えば、タッチスクリーン2Bは、検出方式として静電容量方式を採用する場合、スマートフォン1が濡れているか否かを判定するための情報として、静電容量の変化を測定する。タッチスクリーン2Bは、当該タッチスクリーン2Bに格子状に張り巡らされた複数のセンサ電極のそれぞれに対して所定の信号を印加し、各センサ電極からの出力値を読み取ることを繰り返す。これにより、タッチスクリーン2Bは、当該タッチスクリーン2B上の検出点における静電容量の変化を測定できる。センサ電極は、検出点の一例である。センサ電極は、タッチセンサとして機能する。
タッチスクリーン2Bは、検出方式として、静電容量方式以外の方式を採用することができる。タッチスクリーン2Bは、他の検出方式として抵抗膜方式または荷重検出方式を採用する場合、スマートフォン1が濡れているか否かを判定するための情報として、例えば、電圧の大きさの変化を検出してもよい。タッチスクリーン2Bは、他の検出方式として表面弾性波方式を採用する場合、スマートフォン1が濡れているか否かを判定するための情報として、例えば、自機器が発信する表面弾性波の減衰を検出してもよい。タッチスクリーン2Bは、他の検出方式として赤外線方式を採用する場合、スマートフォン1が濡れているか否かを判定するための情報として、例えば、自機器が発信する赤外線光の減衰を検出してもよい。
本実施形態では、タッチスクリーン2Bの検出方式が静電容量方式である場合の例について説明する。タッチスクリーン2B上に液体が接触すると、タッチスクリーン2Bの出力値が変化するため、この変化に基づいて、スマートフォン1が濡れているか否かが判定される。
指紋センサ18は、スマートフォン1が濡れているかを判定するための情報を測定できる。指紋センサ18は、例えば半導体静電容量方式センサである場合、上述したタッチスクリーン2Bと同様に、スマートフォン1が濡れているか否かを判定するための情報として、静電容量の変化を測定する。指紋センサ18上に液体が接触すると、指紋センサ18の出力値が変化するため、この変化に基づいて、スマートフォン1が濡れているか否かが判定される。
コントローラ10は、制御プログラム9Aを実行することにより、自機器が濡れているか否かを判定する処理を実現する。コントローラ10は、例えば、気圧センサ19により測定された気圧の値が条件を満足すると、自機器が液体に浸かった状態となり、濡れていると判定する。図6は、気圧センサ19により測定される気圧変化の一例を示す図である。図6に示すように、気圧センサ19により測定される気圧の値は、自機器が水に浸かった際に、およそ数秒で10ヘクトパスカル以上の急激な上昇を示す。例えば、自機器が水に浸かったときの単位時間あたりの気圧変化(傾き)を予め定義しておくことより、コントローラ10は、自機器が水に浸かったかを判定可能である。すなわち、コントローラ10は、予め定義しておいた気圧変化と、気圧センサ19により測定される気圧の値から算出した気圧変化と照らし合わせて、自機器が液体に浸かったか否かを判定できる。コントローラ10は、例えば、予め定義した気圧変化と気圧センサ19の測定値から算出した気圧変化が所定の確度をもって一致する場合には、自機器が液体に浸かったと推定してもよい。
コントローラ10は、例えば、タッチスクリーン2Bにより測定された静電容量の値が条件を満足すると、自機器が濡れていると判定する。例えば、コントローラ10は、タッチスクリーン2Bにより測定される静電容量が所定値を超える領域の面積が、所定以上の面積である場合に、自機器のタッチスクリーン2Bに液体が付着した状態となり、濡れていると判定する。所定値は、液体が付着した領域における静電容量を判定可能な値である。図7および図8は、それぞれタッチスクリーン2Bにより測定される静電容量の一例を示す図である。図7は、自機器が水につかった場合の静電容量の一例を示し、図7は、ユーザがタッチスクリーン2Bに指を接触させたときの静電容量の一例を示す。図7および図8において、xy平面は、タッチスクリーン2Bの平面座標を示し、z方向は静電容量を示す。図7に示すように、自機器が水に浸かっている場合、タッチスクリーン2Bにより測定される静電容量は、タッチスクリーン2Bの領域全体において所定値を超える、均一となる分布を示す。一方、図8に示すように、タッチスクリーン2Bに対して指が接触している場合、タッチスクリーン2Bにより測定される静電容量は、当該指が接触している領域の静電容量が突出する分布となる。タッチスクリーン2Bに対して指が接触している場合、当該指が接触している領域の静電容量は、所定値を超えるが、他の領域の静電容量は、所定値未満となる。コントローラ10は、タッチスクリーン2Bにより測定される静電容量が所定値を超える領域の面積が、指が接触している場合に当該所定値を超える領域の面積以上の面積である場合に、自機器が濡れていると判定する。図7に示すように、タッチスクリーン2Bの全体が濡れている場合には、全領域において、静電容量が所定値を超える。図7では、タッチスクリーン2Bの全体が濡れている場合の例を示したが、例えばタッチスクリーン2Bの一部に水滴が付着した場合には、当該水滴が付着した領域において、静電容量が所定値を超えることとなる。コントローラは、静電容量が所定値を超える領域の面積が所定以上の面積である場合には、指がタッチスクリーン2Bに接触しているのではなく、水滴等によりスマートフォン1が濡れていると判定できる。
図9は、コントローラ10が実行する処理手順の一例を示すフローチャートである。コントローラ10は、図9に示すフローを、例えば定期的に実行してよい。図9に示すフローの開始時点において、スマートフォン1は濡れていない状態であり、近接センサ5はオフの状態であるとする。
コントローラ10は、所定の条件が満たされているか否かとして、自機器が濡れているか否かを判定する(ステップS21)。コントローラ10は、例えばタッチスクリーン2B、指紋センサ18または気圧センサ19から、スマートフォン1が濡れているか否かを判定するための情報を取得し、当該情報に基づいて自機器が濡れているか否かを判定する。
コントローラ10は、自機器が濡れていると判定した場合(ステップS21のYes)、近接センサ5をオンにする(ステップS22)。これにより、近接センサ5によるジェスチャの検出が開始される。コントローラ10は、例えば近接センサ5をオンにしたあと、所定の期間(例えば5分間または10分間等)近接センサ5をオンにした状態を維持してよい。所定の期間は、自機器が濡れていることが想定される長さに適宜設定されてよい。
ユーザがスマートフォン1の正面側でジェスチャを行うと、コントローラ10は、近接センサ5によりユーザが実行したジェスチャを特定することで、ジェスチャの入力を受け付ける(ステップS23)。
コントローラ10は、近接センサ5から受け付けた入力に応じた制御を実行する(ステップS25)。例えば、コントローラ10は、近接センサ5から受け付けた入力に応じて、画面のスクロールを実行できる。
ここで、図10および図11を参照しながら、コントローラ10が近接センサ5の出力に基づいてユーザのジェスチャを検出する方法を説明する。図10は、スマートフォン1を正面から見たときの近接センサ5の構成例を示す図である。近接センサ5は、光源用赤外LED180と、4つの赤外フォトダイオードSU,SR,SDおよびSLと、を有する。4つの赤外フォトダイオードSU,SR,SDおよびSLは、レンズ181を介して検出対象物からの反射光を検出する。4つの赤外フォトダイオードSU,SR,SDおよびSLは、レンズ181の中心から見て対称的に配置されている。ここで、図10に示される仮想線D1はスマートフォン1の長手方向と略平行であるとする。図10の仮想線D1上に、赤外フォトダイオードSUと赤外フォトダイオードSDとが離れて配置されている。そして、図10の仮想線D1の方向において、赤外フォトダイオードSRおよびSLは、赤外フォトダイオードSUと赤外フォトダイオードSDとの間に配置されている。
図11は、4つの赤外フォトダイオードSU,SR,SDおよびSLの検出対象物(例えばユーザの手等)が、図10の仮想線D1の方向に沿って移動したときの検出値の推移を例示する。ここで、仮想線D1の方向において、赤外フォトダイオードSUと赤外フォトダイオードSDとが最も離れている。そのため、図11に示すように、赤外フォトダイオードSUの検出値(破線)の変化(例えば上昇)と、赤外フォトダイオードSDの検出値(細い実線)の同じ変化(例えば上昇)との時間差が最も大きい。コントローラ10は、フォトダイオードSU,SR,SDおよびSLの検出値の所定の変化の時間差を把握することによって、検出対象物の移動方向を判定できる。
コントローラ10は、近接センサ5からフォトダイオードSU,SR,SDおよびSLの検出値を取得する。そして、コントローラ10は、例えば検出対象物の仮想線D1の方向への移動を把握するために、フォトダイオードSDの検出値からフォトダイオードSUの検出値を減算した値を所定の時間で積分してもよい。図11の例では、領域R41およびR42において積分値は非ゼロの値となる。この積分値の変化(例えば正値、ゼロ、負値の変化)から、コントローラ10は、仮想線D1の方向における検出対象物の移動を把握できる。
また、コントローラ10は、フォトダイオードSLの検出値からフォトダイオードSRの検出値を減算した値を所定の時間で積分してもよい。この積分値の変化(例えば正値、ゼロ、負値の変化)から、コントローラ10は、仮想線D1に直交する方向(スマートフォン1の短手方向に略平行な方向)における検出対象物の移動を把握できる。
代替例として、コントローラ10はフォトダイオードSU,SR,SDおよびSLの全ての検出値を用いて演算を行ってもよい。すなわち、コントローラ10は検出対象物の移動方向を、スマートフォン1の長手方向および短手方向の成分に分離して演算することなく把握してもよい。
検出されるジェスチャは例えば、左右のジェスチャ、上下のジェスチャ、斜めのジェスチャ、時計回りで円を描くジェスチャ、および反時計回りで円を描くジェスチャ等である。例えば左右へのジェスチャとは、スマートフォン1の短手方向と略平行な方向に行われるジェスチャである。上下のジェスチャとは、スマートフォン1の長手方向と略平行な方向に行われるジェスチャである。斜めのジェスチャとは、スマートフォン1と略平行な平面において、スマートフォン1の長手方向と短手方向とのいずれとも平行でない方向に行われるジェスチャである。
一方、コントローラ10は、図9のステップS21において自機器が濡れていないと判定した場合(ステップS21のNo)、近接センサ5のオフの状態を維持する。この場合、コントローラ10は、ユーザがタッチスクリーンディスプレイ2に対して操作入力を行うと、当該タッチスクリーンディスプレイ2からの入力を受け付ける(ステップS24)。
コントローラ10は、タッチスクリーンディスプレイ2から受け付けた入力に応じた制御を実行する(ステップS25)。例えば、コントローラ10は、タッチスクリーンディスプレイ2から受け付けた入力に応じて、アプリケーションを起動したりできる。
このように、コントローラ10は、自機器が濡れていると判定した場合、自動的に近接センサ5をオンにして、ジェスチャによる操作の入力を受け付ける。そのため、スマートフォン1が濡れている場合、ユーザは、スマートフォン1に対して特別な操作を実行することなく、スマートフォン1に触れずにジェスチャで制御を実行できるようになる。そのため、本実施形態に係るスマートフォン1によれば、利便性を向上可能である。
図9を参照して説明した処理は、例えば、スマートフォン1が特定のモードの場合に実行されるものであってもよい。例えば、スマートフォン1は、複数のモードを有する。モードは、スマートフォン1の全体の動作について制限等を与える動作モード(動作状態または動作状況)を意味する。例えば、スマートフォン1は、特定のアプリケーションが起動されると、当該アプリケーションに対応する動作モードとなる。モードは同時に1つだけ選択可能であってよい。本実施形態において、スマートフォン1のモードは第1モードおよび第2モードを含む。
第1モードは、例えばキッチン以外の部屋および外出先等での使用に適している通常の動作モード(通常モード)である。第1モードでは、ユーザは、スマートフォン1が実行可能な機能を実行させることができる。例えば、第1モードにおいて、ユーザは、スマートフォン1のカメラ機能、通話機能、およびメール機能等を実行できる。また、第1モードにおいて、ユーザは、スマートフォン1にインストールされたアプリケーションを起動することができる。
第2モードは、キッチンでレシピを表示しながら料理を行うのに最適なスマートフォン1の動作モード(キッチンモード)である。ユーザは、例えばスマートフォン1において、特定のアプリケーションを起動することにより、スマートフォン1を第2モードに遷移させることができる。ここでいう特定のアプリケーションは、例えばレシピを表示するアプリケーションであってよい。図12は、ユーザがスマートフォン1を第2モードで使用する様子の一例を示す図である。図12に示す例で、ユーザは料理のレシピをスマートフォン1のディスプレイ2Aに表示させながら、キッチンでレシピに従って料理をしている。このとき、コントローラ10は、上述した図9のフローで処理を行ってよい。例えばキッチンでスマートフォン1を使用すると、水等がスマートフォン1に付着することがある。また、ユーザの手が濡れており、濡れた手でスマートフォン1を操作するとスマートフォン1に水滴等が付着する場合がある。このような場合に、コントローラ10は、自動的に近接センサ5をオンにして、ジェスチャによる操作の入力を受け付ける。これにより、スマートフォン1は、タッチスクリーン2Bに指を接触させて操作を受け付けることができるとともに、ジェスチャによる操作を受け付けることができる。そのため、ユーザは、手をスマートフォン1に触れて操作を行う代わりに、ジェスチャによってスマートフォン1を操作することができる。
(第2実施形態)
コントローラ10による近接センサ5をオンにする制御は、ロック状態の解除を行う制御において適用されてもよい。近接センサ5をオンにする制御が、ロック状態の解除を行う制御に適用される場合の例について、第2実施形態として説明する。第2実施形態においても、所定の条件は、第1実施形態と同様に、スマートフォン1が濡れていると判定可能な条件であるとする。
図13は、コントローラ10が実行する、ロック状態の解除の処理手順の一例を示すフローチャートである。図13は、例えば、スマートフォン1の操作部3が操作されたときに実行されてよい。コントローラ10は、例えば、ディスプレイ2Aに画面が表示されていない状態において、操作部3が操作されたことを検知すると、図13に示すフローを開始する。ここでは、図13に示すフローの開始時点において、近接センサ5はオフの状態、すなわち起動していない状態であるとする。
スマートフォン1の操作部3が操作されると、コントローラ10は、ディスプレイ2Aにロック画面を表示する(ステップS31)。例えば、ディスプレイ2Aには、図14に示すようなロック画面が表示される。ロック画面には、例えば「ロックを解除して下さい」という文字等の、ロックを解除することを促す情報が含まれている。
コントローラ10は、指紋センサ18に対してロック状態を解除する操作が入力されているか否かを判定する(ステップS32)。ユーザが、例えば図14に二点鎖線で示すように、ロック画面が表示された状態で指紋センサ18に指を載置している場合、コントローラ10は、指紋センサ18からの出力に基づいて、指紋センサ18に対してロック状態を解除する操作が入力されていると判定できる。この場合、指紋センサ18は、読み取った指紋の画像に関する情報をコントローラ10に送信する。一方、ユーザが、ロック画面が表示された状態で指紋センサ18に指を載置していない場合、コントローラ10は、指紋センサ18に対してロック状態を解除する操作が入力されていないと判定できる。
コントローラ10は、指紋センサ18に対してロック状態を解除する操作が入力されていないと判定した場合(ステップS32のNo)、ロック状態を解除することなく、このフローを終了する。コントローラ10は、例えばロック画面を表示してから所定の時間(例えば数秒)が経過しても、指紋センサ18に対してロック状態を解除する操作が入力されていないと判定した場合、ディスプレイ2Aのロック画面の表示を消灯してもよい。
コントローラ10は、指紋センサ18に対してロック状態を解除する操作が入力されていると判定した場合(ステップS32のYes)、指紋センサ18により検出された指紋と、予めストレージ9に指紋データ9Xとして登録された指紋と適合するか否かを判定する(ステップS33)。
コントローラ10は、指紋センサ18により検出された指紋と、ストレージ9に登録された指紋とが適合すると判定した場合(ステップS33のYes)、スマートフォン1のロック状態を解除する(ステップS42)。この場合、コントローラ10は、ディスプレイ2Aに、図15に示すようなホーム画面を表示する(ステップS43)。これにより、ユーザは、スマートフォン1において全ての機能が使用可能となる。
一方、コントローラ10は、指紋センサ18により検出された指紋と、ストレージ9に登録された指紋とが適合しないと判定した場合(ステップS33のNo)、ロック状態を解除せず、自機器が濡れているか否かを判定する(ステップS34)。コントローラ10は、例えばタッチスクリーン2B、指紋センサ18または気圧センサ19から、スマートフォン1が濡れているか否かを判定するための情報を取得し、当該情報に基づいて自機器が濡れているか否かを判定する。
コントローラ10は、自機器が濡れていないと判定した場合(ステップ34のNo)、自機器が濡れていない場合のロック解除アルゴリズムを実行する。具体的には、コントローラ10は、ディスプレイ2Aに認証情報入力受付画面を表示する(ステップS35)。認証情報入力受付画面は、認証情報の入力を受け付ける画面であり、例えば図16に示すように、認証情報が暗証番号である場合には、テンキーの表示を含む。指紋センサ18の方式によっては、ユーザの指の状態等により、指紋の画像が鮮明に取得できない場合がある。この場合、再度指紋認証を行わせても、認証が失敗する場合があり、認証の失敗が繰り返されると、ユーザは煩雑さを感じる場合がある。そこで、指紋による認証が失敗した場合には、認証情報入力受付画面を表示し、認証情報による認証を実行させることができる。
ユーザがタッチスクリーンディスプレイ2において認証情報を入力すると、コントローラ10は、ユーザによる認証情報の入力を受け付ける(ステップS36)。
コントローラ10は、ステップS36で受け付けた認証情報と、予めストレージ9に認証情報データ9Yとして登録された認証情報とが一致するか否かを判定する(ステップS37)。
コントローラ10は、受け付けた認証情報と、認証情報データ9Yとしてストレージ9に登録された認証情報とが一致しないと判定した場合(ステップS37のNo)、ステップS36に戻って、再度認証情報の入力を受け付ける。コントローラ10は、例えば所定の回数(例えば5回)認証情報による認証を行っても、受け付けた認証情報とストレージ9に登録された指紋とが一致しないと判定した場合、ロック状態を解除せずに、このフローを終了してもよい。
一方、コントローラ10は、受け付けた認証情報と、ストレージ9に登録された認証情報とが一致すると判定した場合(ステップS37のYes)、スマートフォン1のロック状態を解除する(ステップS42)。そして、コントローラ10は、ディスプレイ2Aにホーム画面を表示する(ステップS43)。これにより、ユーザは、スマートフォン1において全ての機能が使用可能となる。
このように、自機器が濡れていない場合、指紋による認証が失敗すると、認証情報による認証を行う。認証に成功すると、スマートフォン1は、全ての機能が使用可能な状態となる。
一方、コントローラ10は、ステップS13において、自機器が濡れていると判定した場合(ステップ34のYes)、自機器が濡れている場合のロック解除アルゴリズムを実行する。具体的には、コントローラ10は、近接センサ5をオンにする(ステップS38)。これにより、近接センサ5によるジェスチャの検出が開始される。
コントローラ10は、ディスプレイ2Aにジェスチャ入力受付画面を表示する(ステップS39)。ジェスチャ入力受付画面は、ジェスチャの入力を受け付けることをユーザに通知する画面であり、例えば図17に示すように、ジェスチャの入力を受け付け可能であることをユーザに通知する表示を含む。スマートフォン1が濡れている場合には、例えば水滴が指紋センサ18に付着していると、指紋センサ18が指紋の画像を取得できない場合がある。また、スマートフォン1が濡れている場合には、ユーザが、指をタッチスクリーンディスプレイ2に接触させて操作したくないと考える場合がある。そこで、指紋による認証が失敗した場合には、指紋による認証および認証情報による認証を行わず、本実施形態のように、ジェスチャによる認証を実行させることができる。
ユーザがスマートフォン1の正面側でジェスチャを行うと、コントローラ10は、近接センサ5によりユーザが実行したジェスチャを特定することで、ジェスチャの入力を受け付ける(ステップS40)。
ユーザは、任意のジェスチャを組み合わせたジェスチャを、ジェスチャによる認証で使用するジェスチャとして、ジェスチャデータ9Wに登録することができる。例えば、ユーザは、図18に一例として示すように、右から左へのジェスチャの後、上から下へのジェスチャを行うという、一連のジェスチャの組合せを、ジェスチャによる認証で使用するジェスチャとして、ジェスチャデータ9Wに登録することができる。
コントローラ10は、図13のステップS40で受け付けたジェスチャと、ストレージ9に登録されたジェスチャとが一致しないと判定した場合(ステップS41のNo)、ステップS40に戻って、再度ジェスチャの入力を受け付ける。コントローラ10は、例えば所定の回数(例えば5回)ジェスチャによる認証を行っても、受け付けたジェスチャとストレージ9に登録されたジェスチャとが一致しないと判定した場合、ロック状態を解除せずに、このフローを終了してもよい。
一方、コントローラ10は、受け付けたジェスチャと、ジェスチャデータ9Wとしてストレージ9に登録されたジェスチャとが一致すると判定した場合(ステップS41のYes)、スマートフォン1のロック状態を解除する(ステップS42)。そして、コントローラ10は、ディスプレイ2Aにホーム画面を表示する(ステップS43)。これにより、ユーザは、スマートフォン1において全ての機能が使用可能となる。
このように、自機器が濡れている場合、指紋による認証が失敗すると、コントローラ10は、近接センサ5をオンにして、ジェスチャによる認証を実行する。そのため、スマートフォン1が濡れている場合、ユーザは、スマートフォン1に対して特別な操作を実行することなく、スマートフォン1に触れずにジェスチャで制御を実行できるようになる。そのため、本実施形態に係るスマートフォン1によれば、利便性を向上可能である。
例えば、濡れている手でスマートフォン1を触ったことにより、スマートフォン1に水滴が付着した場合を想定する。この場合、コントローラ10は、近接センサ5をオンにし、ジェスチャによる入力を受け付け可能な状態となる。このとき、ユーザは、手でタッチスクリーン2Bに触ることにより操作を行うことも可能である。しかしながら、手でタッチスクリーン2Bに触った場合には、手の水滴がタッチスクリーン2Bに水滴が付着する。すると、例えばユーザがディスプレイ2Aにおいて、画像または文字等の情報を表示させようとした場合、付着した水滴により、表示された情報が見にくくなる場合がある。これに対し、ユーザがジェスチャにより入力を行うと、手でタッチスクリーン2Bに触れないため、手に付着した水滴がタッチスクリーン2Bに付着しない。このようにして、スマートフォン1によれば、ディスプレイ2Aにおける情報の視認性を維持しやすくなる。
なお、コントローラ10は、ジェスチャによりロック状態を解除した場合、ユーザが実行可能な機能を、一部制限してもよい。例えば、コントローラ10は、ジェスチャによりロック状態を解除した場合、個人情報を伴う機能および金銭の授受を伴う機能については、実行できないように制限してもよい。つまり、コントローラ10は、ジェスチャによりロック状態を解除した場合、個人情報を伴う機能および金銭の授受を伴う機能については、ユーザからの入力を受け付けても実行しなくてよい。個人情報を伴う機能は、例えば、メールの送受信機能等、機能の実行に際して個人情報を用いる機能である。金銭の授受を伴う機能は、例えば、オンラインショッピング等、機能の実行に際して金銭の授受が発生し得る機能である。この場合、ユーザは、例えば個人情報を伴う機能および金銭の授受を伴う機能を実行するときは、認証情報を用いてロック状態の解除を行ってから、これらの機能を実行する。
また、コントローラ10は、ジェスチャによりロック状態を解除した場合、所定の操作をジェスチャによる入力操作で受け付けてもよい。すなわち、ジェスチャによるロック解除が行われた場合、ユーザは、引き続きタッチスクリーン2Bに触らずに操作を行うことを希望する場合があると考えられる。そこで、コントローラ10は、ジェスチャによりロック状態を解除した場合、いくつかの機能をジェスチャによる入力操作で受け付けてよい。ジェスチャによる入力操作で受付可能となる機能は、例えば予めユーザにより設定されていてもよい。ジェスチャによる入力操作で受付可能となる機能は、例えばユーザが頻繁に(つまり他の機能よりも高い頻度で)使用する機能であってもよい。例えば、コントローラ10は、ジェスチャによりロック状態を解除した場合、手を左右に動かすジェスチャにより、メール閲覧機能を実行してもよい。例えば、コントローラ10は、ジェスチャによりロック状態を解除した場合、手を上下に動かすジェスチャにより、電話のアプリケーションを起動してもよい。例えば、コントローラ10は、ジェスチャによりロック状態を解除した場合、手で円を描くジェスチャにより、カメラ12または13を起動してもよい。コントローラ10は、ここで示した例に限られず、他の任意の機能を、ジェスチャによる入力操作で受け付けてよい。
(第3実施形態)
所定の条件は、上述した、スマートフォン1が濡れていると判定可能な条件に限られない。所定の条件は、例えば周囲の環境を判定可能な条件であってよい。第3実施形態では、所定の条件が、周囲の環境を判定可能な条件である場合の例について説明する。
本実施形態において、スマートフォン1は、周囲の環境を判定可能な情報を取得する。例えば、スマートフォン1は、周囲の環境を判定可能な情報として、温度センサ20で測定した温度および/または湿度センサ21で測定した湿度を取得できる。スマートフォン1は、例えば取得した温度および/または湿度に基づき、周囲の環境を判定し、判定結果に応じて近接センサ5をオンにする。
例えば、スマートフォン1は、取得した温度が所定の閾値よりも高く、かつ、取得した湿度が所定の閾値よりも高い場合に、周囲の環境が条件を満たすと判定して、近接センサ5をオンにしてよい。例えば、ユーザが、浴槽でお湯につかりながらスマートフォン1を使用するとする。浴室内は、浴室外と比較して、温度および湿度が高くなりやすい。そのため、温度および湿度の閾値を、浴室内と判定可能な閾値に設定することにより、スマートフォン1は、取得した温度および湿度に基づき、周囲の環境として、浴室内であるか否かを判定できる。浴室内では、ユーザがシャワーを浴びたり浴槽に浸かったりする等することによって、スマートフォン1が濡れる可能性が高い。そこで、スマートフォン1は、周囲の環境が条件を満たす場合に、浴室内であると判定し、近接センサ5をオンにすることにより、ジェスチャの入力を受け付け可能な状態となる。つまり、スマートフォン1は、ユーザからの特定の入力操作を必要とすることなく、自動的に、ジェスチャの入力を受け付け可能な状態となる。このようにして、本実施形態に係るスマートフォン1によれば、利便性が向上する。
例えば、スマートフォン1は、取得した温度が所定の閾値よりも低く、かつ、取得した湿度が所定の閾値よりも低い場合に、周囲の環境が条件を満たすと判定して、近接センサ5をオンにしてもよい。例えば、冬に外出する際、ユーザは手袋を着用する場合がある。しかしながら、手袋を着用した状態では、スマートフォン1は、指紋を用いた認証を実行できず、タッチスクリーン2Bへの入力も正しく受け付けられない場合がある。一方で、ユーザは、スマートフォン1を操作するために手袋を脱ぐことを煩雑に感じる場合がある。そこで、スマートフォン1は、取得した温度が所定の閾値(例えば0℃)よりも低く、かつ、取得した湿度が所定の閾値(例えば20%)よりも低い場合に、ユーザが手袋を着用していると推定して、近接センサ5をオンにする。これにより、スマートフォン1は、ジェスチャの入力を受け付け可能な状態となる。つまり、スマートフォン1は、ユーザからの特定の入力操作を必要とすることなく、自動的に、ジェスチャの入力を受け付け可能な状態となる。このようにして、本実施形態に係るスマートフォン1によれば、利便性が向上する。
図19は、コントローラ10が実行する処理手順の一例を示すフローチャートである。コントローラ10は、図19に示すフローを、例えば定期的に実行してよい。図19に示すフローの開始時点において、近接センサ5はオフの状態であるとする。
コントローラ10は、所定の条件が満たされているか否かとして、周囲の環境が所定の条件を満たすか否かを判定する(ステップS51)。コントローラ10は、例えば上述したように、温度センサ20で測定した温度および/または湿度センサ21で測定した湿度を取得し、取得した温度および/または湿度に基づいて、周囲の環境が所定の条件を満たすか否かを判定してよい。
コントローラ10は、周囲の環境が所定の条件を満たすと判定した場合(ステップS51のYes)、近接センサ5をオンにする(ステップS52)。これにより、近接センサ5によるジェスチャの検出が開始される。コントローラ10は、例えば近接センサ5をオンにしたあと、所定の期間(例えば5分間または10分間等)近接センサ5をオンにした状態を維持してよい。
一方、コントローラ10は、周囲の環境が所定の条件を満たさないと判定した場合(ステップS51のNo)、近接センサ5のオフの状態を維持する。この場合、コントローラ10は、タッチスクリーンディスプレイ2からの入力を受付可能である。
図19において、ステップS52からステップS55は、それぞれ図9のステップS22からステップS25と同様であってよいため、それらの詳細な説明については、省略する。
第3実施形態において、コントローラ10は、さらに他の入力情報に基づいて制御を行ってもよい。例えば、コネクタ14がイヤホンプラグを差し込むことが可能なイヤホンジャックであり、コントローラ10は、周囲の環境に基づいてユーザが手袋を着用していると推定される場合に、さらにコネクタ14に、イヤホンプラグが差し込まれたことを検出したとする。このようにイヤホンプラグがコネクタ14に差し込まれた場合、ユーザが、スマートフォン1に音声を再生させようとしていることが推定される。そこで、コントローラ10は、周囲の環境に基づいてユーザが手袋を着用していると推定され、かつ、コネクタ14にイヤホンプラグが差し込まれたことを検出した場合、近接センサ5をオンにするとともに、特定のジェスチャを音声の再生と対応付けてよい。例えば、コントローラ10は、手を左右方向に動かすジェスチャを、音声の再生と対応付けてよい。コントローラ10は、音声の再生と対応付けられたジェスチャを検出した場合、音声を再生する制御を行う。これにより、ユーザは、タッチスクリーン2Bへの入力操作を行うことなく、イヤホンプラグをコネクタ14に差し込むことにより、ジェスチャによる音楽の再生を行うことができる。このようにして、スマートフォン1によれば、利便性が向上する。
(その他の実施形態)
本発明を図面および実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形および修正を行うことが容易であることに注意されたい。したがって、これらの変形および修正は本発明の範囲に含まれることに留意されたい。例えば、各手段または各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の手段またはステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。
上記の実施形態において、コントローラ10は、所定の条件が満たされたと判定した場合に、近接センサ5をオンにし、ジェスチャによる操作入力を受け付け、処理を実行すると説明した。しかしながら、コントローラ10による制御はこれに限られない。例えば、コントローラ10は、予め近接センサ5をオンにしておいてもよい。そして、コントローラ10は、所定の条件が満たされたと判定した場合に、ジェスチャによる操作入力に基づいて、処理を実行してもよい。つまり、この場合、コントローラ10は、所定の条件が満たされていないと判定している場合、ジェスチャによる操作入力を受け付けることはできるが、ジェスチャによる操作入力に基づく処理を実行しない。コントローラ10は、所定の条件が満たされたと判定した場合、ジェスチャによる操作入力に基づく処理を実行する。これによっても、スマートフォン1は、例えば濡れている場合に、自動的にジェスチャによる入力が可能となるため、利便性が向上する。
上記の実施形態では、ジェスチャは、近接センサ5により検出されると説明したが、必ずしも近接センサ5により検出されなくてもよい。ジェスチャは、任意の非接触でユーザのジェスチャを検出可能な、任意の非接触センサにより検出されてもよい。非接触センサの一例は、例えば、カメラ13または照度センサ4等を含む。
本開示内容の多くの側面は、プログラム命令を実行可能なコンピュータシステムその他のハードウェアにより実行される、一連の動作として示される。コンピュータシステムその他のハードウェアには、例えば、汎用コンピュータ、PC(パーソナルコンピュータ)、専用コンピュータ、ワークステーション、PCS(Personal Communications System、パーソナル移動通信システム)、移動(セルラー)電話機、データ処理機能を備えた移動電話機、RFID受信機、ゲーム機、電子ノートパッド、ラップトップコンピュータ、GPS(Global Positioning System)受信機またはその他のプログラム可能なデータ処理装置が含まれる。各実施形態では、種々の動作または制御方法は、プログラム命令(ソフトウェア)で実装された専用回路(例えば、特定機能を実行するために相互接続された個別の論理ゲート)、一以上のプロセッサにより実行される論理ブロックおよび/またはプログラムモジュール等により実行されることに留意されたい。論理ブロックおよび/またはプログラムモジュール等を実行する一以上のプロセッサには、例えば、一以上のマイクロプロセッサ、CPU(中央演算処理ユニット)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子機器、ここに記載する機能を実行可能に設計されたその他の装置および/またはこれらいずれかの組合せが含まれる。ここに示す実施形態は、例えば、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコードまたはこれらいずれかの組合せにより実装される。命令は、必要なタスクを実行するためのプログラムコードまたはコードセグメントであってもよい。そして、命令は、機械読取り可能な非一時的記憶媒体その他の媒体に格納することができる。コードセグメントは、手順、関数、サブプログラム、プログラム、ルーチン、サブルーチン、モジュール、ソフトウェアパッケージ、クラスまたは命令、データ構造もしくはプログラムステートメントのいずれかの任意の組合せを示すものであってもよい。コードセグメントは、他のコードセグメントまたはハードウェア回路と、情報、データ引数、変数または記憶内容の送信および/または受信を行い、これにより、コードセグメントが他のコードセグメントまたはハードウェア回路と接続される。
ここで用いられるストレージ9は、さらに、ソリッドステートメモリ、磁気ディスクおよび光学ディスクの範疇で構成されるコンピュータ読取り可能な有形のキャリア(媒体)として構成することができる。かかる媒体には、ここに開示する技術をプロセッサに実行させるためのプログラムモジュール等のコンピュータ命令の適宜なセットまたはデータ構造が格納される。コンピュータ読取り可能な媒体には、一つ以上の配線を備えた電気的接続、磁気ディスク記憶媒体、磁気カセット、磁気テープ、その他の磁気および光学記憶装置(例えば、CD(Compact Disk)、レーザーディスク(登録商標)、DVD(登録商標)(Digital Versatile Disc)、フロッピー(登録商標)ディスクおよびブルーレイディスク(登録商標))、可搬型コンピュータディスク、RAM(Random Access Memory)、ROM(Read-Only Memory)、EPROM(Erasable Programmable Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)もしくはフラッシュメモリ等の書換え可能でプログラム可能なROMもしくは情報を格納可能な他の有形の記憶媒体またはこれらいずれかの組合せが含まれる。メモリは、プロセッサまたはプロセッシングユニットの内部および/または外部に設けることができる。ここで用いられるように、「メモリ」という語は、あらゆる種類の長期記憶用、短期記憶用、揮発性、不揮発性またはその他のメモリを意味する。つまり、「メモリ」は特定の種類および/または数に限定されない。また、記憶が格納される媒体の種類も限定されない。
1 スマートフォン(電子機器)
1A フロントフェイス
1B バックフェイス
1C サイドフェイス
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 操作部
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9W ジェスチャデータ
9X 指紋データ
9Y 認証情報データ
9Z 設定データ
10 コントローラ
11 スピーカ
12、13 カメラ
14 コネクタ
15 加速度センサ
16 方位センサ
17 ジャイロスコープ
18 指紋センサ
19 気圧センサ
20 温度センサ
21 湿度センサ
30 ハウジング
SU,SR,SD,SL フォトダイオード

Claims (10)

  1. 近接センサと、
    タッチセンサと、
    前記タッチセンサの出力に基づいて自機器が濡れていると判定した場合に、前記近接センサをオンにするコントローラと、
    を備える電子機器。
  2. 前記コントローラは、前記近接センサをオンにしたあと、所定の期間、前記近接センサをオンにした状態を維持する、請求項1に記載の電子機器。
  3. 近接センサと、
    タッチセンサと、
    前記タッチセンサの出力に基づいて自機器が濡れていると判定した場合に、前記近接センサによって検出されたジェスチャに基づいて処理を実行するコントローラと、
    を備える電子機器。
  4. 前記コントローラは、前記近接センサによって検出されたジェスチャに基づいてロックを解除する処理を実行する、請求項1乃至請求項3のいずれか一項に記載の電子機器。
  5. 前記コントローラは、前記ジェスチャに基づいてロックを解除した場合、当該電子機器が実行可能な機能を、一部制限する、請求項4に記載の電子機器。
  6. 前記コントローラは、前記ジェスチャに基づいてロックを解除した場合、所定の操作をジェスチャによる入力操作で受付可能となる、請求項4に記載の電子機器。
  7. 近接センサと、タッチセンサと、コントローラと、を備える電子機器に、
    前記コントローラにより、前記タッチセンサの出力に基づいて前記電子機器が濡れていると判定した場合に、前記近接センサをオンにするステップ
    を実行させるプログラム。
  8. 近接センサと、タッチセンサと、コントローラと、を備える電子機器に、
    前記コントローラにより、前記タッチセンサの出力に基づいて前記電子機器が濡れていると判定した場合に、前記近接センサによって検出されたジェスチャに基づいて処理を実行するステップ
    を実行させるプログラム。
  9. 近接センサと、タッチセンサと、コントローラと、を備える電子機器の制御方法であって、
    前記コントローラにより、前記タッチセンサの出力に基づいて前記電子機器が濡れていると判定した場合に、前記近接センサをオンにするステップ
    を含む制御方法。
  10. 近接センサと、タッチセンサと、コントローラと、を備える電子機器の制御方法であって、
    前記コントローラにより、前記タッチセンサの出力に基づいて前記電子機器が濡れていると判定した場合に、前記近接センサによって検出されたジェスチャに基づいて処理を実行するステップ
    を含む制御方法。
JP2017146837A 2017-07-28 2017-07-28 電子機器、プログラムおよび制御方法 Active JP6266833B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017146837A JP6266833B1 (ja) 2017-07-28 2017-07-28 電子機器、プログラムおよび制御方法
US16/035,809 US10698541B2 (en) 2017-07-28 2018-07-16 Electronic device, recording medium, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017146837A JP6266833B1 (ja) 2017-07-28 2017-07-28 電子機器、プログラムおよび制御方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017243917A Division JP2019028973A (ja) 2017-12-20 2017-12-20 電子機器、プログラムおよび制御方法

Publications (2)

Publication Number Publication Date
JP6266833B1 JP6266833B1 (ja) 2018-01-24
JP2019029804A true JP2019029804A (ja) 2019-02-21

Family

ID=61020631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017146837A Active JP6266833B1 (ja) 2017-07-28 2017-07-28 電子機器、プログラムおよび制御方法

Country Status (2)

Country Link
US (1) US10698541B2 (ja)
JP (1) JP6266833B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020162169A1 (ja) * 2019-02-05 2020-08-13 ソニー株式会社 操作パターンを制御する情報処理装置
WO2023032275A1 (ja) * 2021-08-31 2023-03-09 ソニーセミコンダクタソリューションズ株式会社 電子機器、処理方法、および記録媒体

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018182616A (ja) * 2017-04-18 2018-11-15 京セラ株式会社 電子機器、制御方法、およびプログラム
WO2019163503A1 (ja) * 2018-02-22 2019-08-29 京セラ株式会社 電子機器、制御方法およびプログラム
JP6987687B2 (ja) * 2018-03-28 2022-01-05 京セラ株式会社 電子機器、制御プログラム及び電子機器の動作方法
US10901529B2 (en) * 2018-07-19 2021-01-26 Stmicroelectronics S.R.L. Double-tap event detection device, system and method
US20230073831A1 (en) * 2020-02-03 2023-03-09 Sony Group Corporation Electronic device, information processing method, and program
JP2023028736A (ja) * 2021-08-20 2023-03-03 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム、およびプログラム
US11579705B1 (en) * 2022-01-12 2023-02-14 Hewlett-Packard Development Company, L.P. Photodetector activations

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012138026A (ja) * 2010-12-27 2012-07-19 Alpine Electronics Inc 静電容量式タッチパネル誤検出防止方法及び装置
JP2012216053A (ja) * 2011-03-31 2012-11-08 Toshiba Corp 電子機器及び制御方法
JP2013092891A (ja) * 2011-10-25 2013-05-16 Kyocera Corp 装置、方法、及びプログラム
WO2015037293A1 (ja) * 2013-09-12 2015-03-19 シャープ株式会社 光センサおよび電子機器
JP2016177343A (ja) * 2015-03-18 2016-10-06 株式会社トヨタIt開発センター 信号処理装置、入力装置、信号処理方法、およびプログラム
JP6163278B1 (ja) * 2017-04-12 2017-07-12 京セラ株式会社 電子機器、プログラムおよび制御方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158763A (ja) 2006-12-22 2008-07-10 Toshiba Corp 情報処理装置およびセキュリティ方法
US8933876B2 (en) * 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
KR101932688B1 (ko) * 2010-11-29 2018-12-28 삼성전자주식회사 휴대기기 및 이에 적용되는 ui 모드 제공 방법
JP5974913B2 (ja) 2013-01-25 2016-08-23 富士通株式会社 撮像方法、撮像装置及び撮像プログラム
US9355236B1 (en) 2014-04-03 2016-05-31 Fuji Xerox Co., Ltd. System and method for biometric user authentication using 3D in-air hand gestures
JP6598508B2 (ja) 2014-05-12 2019-10-30 キヤノンメディカルシステムズ株式会社 超音波診断装置とそのプログラム
EP3144791A4 (en) * 2014-05-14 2017-12-13 Sony Semiconductor Solutions Corporation Information-processing apparatus, information-processing method, and program
JP6494926B2 (ja) 2014-05-28 2019-04-03 京セラ株式会社 携帯端末、ジェスチャ制御プログラムおよびジェスチャ制御方法
US20160162146A1 (en) * 2014-12-04 2016-06-09 Kobo Incorporated Method and system for mobile device airspace alternate gesture interface and invocation thereof
JP6426025B2 (ja) 2015-02-20 2018-11-21 クラリオン株式会社 情報処理装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012138026A (ja) * 2010-12-27 2012-07-19 Alpine Electronics Inc 静電容量式タッチパネル誤検出防止方法及び装置
JP2012216053A (ja) * 2011-03-31 2012-11-08 Toshiba Corp 電子機器及び制御方法
JP2013092891A (ja) * 2011-10-25 2013-05-16 Kyocera Corp 装置、方法、及びプログラム
WO2015037293A1 (ja) * 2013-09-12 2015-03-19 シャープ株式会社 光センサおよび電子機器
JP2016177343A (ja) * 2015-03-18 2016-10-06 株式会社トヨタIt開発センター 信号処理装置、入力装置、信号処理方法、およびプログラム
JP6163278B1 (ja) * 2017-04-12 2017-07-12 京セラ株式会社 電子機器、プログラムおよび制御方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020162169A1 (ja) * 2019-02-05 2020-08-13 ソニー株式会社 操作パターンを制御する情報処理装置
US11755153B2 (en) 2019-02-05 2023-09-12 Sony Group Corporation Information processing apparatus for controlling operation pattern
WO2023032275A1 (ja) * 2021-08-31 2023-03-09 ソニーセミコンダクタソリューションズ株式会社 電子機器、処理方法、および記録媒体

Also Published As

Publication number Publication date
US20190034001A1 (en) 2019-01-31
JP6266833B1 (ja) 2018-01-24
US10698541B2 (en) 2020-06-30

Similar Documents

Publication Publication Date Title
JP6266833B1 (ja) 電子機器、プログラムおよび制御方法
JP2019030000A (ja) 電子機器、プログラムおよび制御方法
JP6483452B2 (ja) 電子機器、制御方法、及び制御プログラム
KR102229006B1 (ko) 터치 스크린을 이용한 입력 처리 방법 및 장치
US11243657B2 (en) Icon display method, and apparatus
US10491740B2 (en) Electronic device and control method having fingerprint detection features
JP6062175B2 (ja) 携帯端末、省電力制御プログラムおよび省電力制御方法
US9794385B2 (en) Mobile communication terminal, recording medium, and incoming call control method
WO2015199160A1 (ja) 携帯端末、記録媒体および通知制御方法
JP6091693B1 (ja) 電子機器
JP7329150B2 (ja) タッチボタン、制御方法及び電子機器
JP6293953B1 (ja) 電子機器、プログラムおよび制御方法
WO2018193876A1 (ja) 電子機器
WO2018076384A1 (zh) 一种锁屏方法、终端及锁屏装置
CN109600514B (zh) 解锁控制方法、装置、移动终端及存储介质
JP6295363B1 (ja) 電子機器、プログラムおよび制御方法
JP2019028973A (ja) 電子機器、プログラムおよび制御方法
US9360963B2 (en) Portable terminal and operation inhibition area control method
JP6173625B1 (ja) 電子機器、プログラムおよび制御方法
JP6170830B2 (ja) 携帯電子機器及び防水性判定方法
JP6121833B2 (ja) 電子機器とその制御方法
JP6349047B1 (ja) 電子機器、プログラムおよび制御方法
JP6585234B2 (ja) 電子機器、プログラムおよび制御方法
JP2018110370A (ja) 電子機器、プログラムおよび制御方法
JP6333461B1 (ja) 電子機器

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

R150 Certificate of patent or registration of utility model

Ref document number: 6266833

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150