JP6871846B2 - 電子機器および制御方法 - Google Patents

電子機器および制御方法 Download PDF

Info

Publication number
JP6871846B2
JP6871846B2 JP2017243748A JP2017243748A JP6871846B2 JP 6871846 B2 JP6871846 B2 JP 6871846B2 JP 2017243748 A JP2017243748 A JP 2017243748A JP 2017243748 A JP2017243748 A JP 2017243748A JP 6871846 B2 JP6871846 B2 JP 6871846B2
Authority
JP
Japan
Prior art keywords
icon
fingerprint
electronic device
finger
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017243748A
Other languages
English (en)
Other versions
JP2019109825A (ja
Inventor
功 益池
功 益池
上野 泰弘
泰弘 上野
茂輝 田辺
茂輝 田辺
英樹 森田
英樹 森田
浩太郎 山内
浩太郎 山内
学 佐久間
学 佐久間
健史 島田
健史 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2017243748A priority Critical patent/JP6871846B2/ja
Priority to US16/219,790 priority patent/US10909346B2/en
Publication of JP2019109825A publication Critical patent/JP2019109825A/ja
Application granted granted Critical
Publication of JP6871846B2 publication Critical patent/JP6871846B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1306Sensors therefor non-optical, e.g. ultrasonic or capacitive sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Input (AREA)

Description

本開示は、電子機器および制御方法に関する。
特許文献1に記載されているように、電子機器に関して様々な技術が提案されている。
特表2017−504853号
電子機器については、その操作性の向上が望まれている。
そこで、本発明は上述の点に鑑みて成されたものであり、電子機器の操作性を向上することが可能な技術を提供することを目的とする。
一実施形態に係る電子機器は、アイコンを表示するディスプレイと、指紋情報を読み取る指紋センサと、指の移動を検出するタッチセンサと、アイコンの機能を実行するコントローラと、を備える。また、コントローラは、アイコンから指紋センサに向けた指の移動が検出され、指紋センサにより指紋情報が読み取られると、読み取られた指紋情報と予め登録された登録指紋情報とに基づいて、アイコンの機能を実行する。
一実施形態に係る電子機器の制御方法は、アイコンを表示するディスプレイと、指紋情報を読み取る指紋センサと、指の移動を検出するタッチセンサと、を備える電子機器の制御方法である。また、前記制御方法は、前記電子機器において、アイコンから指紋センサに向けた指の移動を検出し、指紋センサにより指紋情報が読み取られると、読み取られた指紋情報と予め登録された登録指紋情報とに基づいて、アイコンの機能を実行する方法である。
電子機器の操作性が向上する。
電子機器の外観の一例を示す斜視図である。 電子機器の外観の一例を示す背面図である。 電子機器の構成の一例を示すブロック図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の動作の一例を示すフローチャートである。 電子機器に対する操作の一例を示す図である。 電子機器の動作の一例を示すフローチャートである。 電子機器に対する操作の一例を示す図である。 電子機器の動作の一例を示すフローチャートである。 電子機器の動作の一例を示すフローチャートである。 電子機器に対する操作の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の動作の一例を示すフローチャートである。
図1及び図2は電子機器1の外観の一例を示す斜視図及び背面図である。
電子機器1の前面11aには、文字、記号及び図形等の各種情報が表示されるディスプレイ120が配置されている。ディスプレイ120の背面側にはタッチセンサ130が位置している。ユーザは、電子機器1の前面のディスプレイ120を指等で操作することによって、電子機器1に対して各種情報を入力することができる。なお、ユーザは、指以外の操作子、例えば、スタイラスペン等のタッチパネル用ペンでディスプレイ120を操作することによって、電子機器1に対して各種情報を入力することができる。
電子機器1の前面11aの上端部にはレシーバ穴12が位置している。電子機器1の下側の側面11dにはマイク穴14が位置している。電子機器1の前面11aの上端部からは、第1カメラ180が有するレンズが視認可能となっている。図2に示されるように、電子機器1の背面11b、言い換えれば電子機器1の背面の上端部からは、第2カメラ190が有するレンズが視認可能となっている。また、電子機器1の背面11bにはスピーカ穴13が位置している。
電子機器1の前面11aの下端部には、検出対象面15が位置している。電子機器1は、指紋センサ200によって、検出対象面15に対する操作等を検出することが可能である。検出対象面15は検出対象領域であるとも言える。なお、検出対象面15の位置は図1の例に限らず、例えばディスプレイ120上に位置してもよい。
電子機器1は、複数の操作ボタンから成る操作ボタン群140を有する。各操作ボタンは、例えばハードウェアボタンであって、電子機器1の表面に位置する。各操作ボタンは、例えば押しボタンである。操作ボタン群140には電源ボタン141が含まれる。電源ボタン141は、電子機器1の側面11cに位置している。
操作ボタン群140には、電源ボタン141以外の操作ボタンが含まれる。例えば、操作ボタン群140には、ボリュームボタンが含まれる。
図3は電子機器1の電気的構成の一例を主に示すブロック図である。図3に示されるように、電子機器1は、コントローラ100、無線通信部110、ディスプレイ120、タッチセンサ130及び操作ボタン群140を備える。さらに電子機器1は、レシーバ150、スピーカ160、マイク170、第1カメラ180、第2カメラ190、指紋センサ200及び電池220を備える。
コントローラ100は、電子機器1の他の構成要素を制御することによって、電子機器1の動作を統括的に管理することが可能である。コントローラ100は制御装置あるいは制御回路とも言える。コントローラ100は、以下にさらに詳細に述べられるように、種々の機能を実行するための制御及び処理能力を提供するために、少なくとも1つのプロセッサを含む。
種々の実施形態によれば、少なくとも1つのプロセッサは、単一の集積回路(IC)として、又は複数の通信可能に接続された集積回路(IC)及び/又はディスクリート回路(discrete circuits)として実行されてもよい。少なくとも1つのプロセッサは、種々の既知の技術に従って実行されることが可能である。
1つの実施形態において、プロセッサは、例えば、関連するメモリに記憶された指示を実行することによって1以上のデータ計算手続又は処理を実行するように構成された1以上の回路又はユニットを含む。他の実施形態において、プロセッサは、1以上のデータ計算手続き又は処理を実行するように構成されたファームウェアであってもよい。ファームウェアとは、例えば、ディスクリートロジックコンポーネントである。
種々の実施形態によれば、プロセッサは、1以上のプロセッサ、コントローラ、マイクロプロセッサ、マイクロコントローラ、特定用途向け集積回路(ASIC)、デジタル信号処理装置、プログラマブルロジックデバイス、フィールドプログラマブルゲートアレイ、又はこれらのデバイス若しくは構成の任意の組み合わせ、又は他の既知のデバイス及び構成の組み合わせを含み、以下に説明される機能を実行してもよい。
本実施形態では、コントローラ100は、CPU(Central Processing Unit)101、DSP(Digital Signal Processor)102及び記憶部103を備える。記憶部103は、ROM(Read Only Memory)及びRAM(Random Access Memory)等の、CPU101及びDSP102が読み取り可能な非一時的な記録媒体を含む。記憶部103が有するROMは、例えば、不揮発性メモリであるフラッシュROM(フラッシュメモリ)である。記憶部103には、電子機器1を制御するための複数の制御プログラム103a等が記憶されている。コントローラ100の各種機能は、CPU101及びDSP102が記憶部103内の各種制御プログラム103aを実行することによって実現される。
なおコントローラ100は、複数のCPU101を備えてもよい。この場合、コントローラ100は、比較的複雑な処理を行う、処理能力が高いメインCPUと、比較的簡単な処理を行う、処理能力が低いサブCPUとを備えてもよい。またコントローラ100は、DSP102を備えなくてもよいし、複数のDSP102を備えてもよい。また、コントローラ100の全ての機能あるいはコントローラ100の一部の機能は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてもよい。
記憶部103は、ROM及びRAM以外の、コンピュータが読み取り可能な非一時的な記録媒体を備えていてもよい。記憶部103は、例えば、小型のハードディスクドライブ及びSSD(Solid State Drive)を備えていてもよい。
記憶部103内の複数の制御プログラム103aには、様々なアプリケーション(つまり、アプリケーションプログラム)が含まれている。記憶部103には、例えば、音声通話及びビデオ通話を行うための電話アプリケーション、電子メールの作成、閲覧及び送受信を行うためのメールアプリケーションが記憶されている。記憶部103には、第1カメラ180及び第2カメラ190を利用して被写体を撮影するためのカメラアプリケーション、記憶部103に記録されている静止画を表示するための画像アプリケーション等が記憶されている。記憶部103には、ユーザが電子機器1に予め登録した指紋情報が記憶されている。記憶部103内の少なくとも一つのアプリケーションは、記憶部103内に予め記憶されているものであってよい。また、記憶部103内の少なくとも一つのアプリケーションは、電子機器1が他の装置からダウンロードして記憶部103内に記憶したものであってよい。
無線通信部110は、アンテナ111を有している。無線通信部110は、アンテナ111を用いて、例えば複数種類の通信方式で無線通信することが可能である。無線通信部110の無線通信は、コントローラ100によって制御される。
無線通信部110は、携帯電話システムの基地局と無線通信することが可能である。無線通信部110は、基地局及びインターネット等のネットワークを通じて、電子機器1とは別の携帯電話機及びウェブサーバ等と通信することが可能である。電子機器1は、他の携帯電話機等と、データ通信、音声通話及びビデオ通話等を行うことが可能である。
また無線通信部110、Wifi等の無線LAN(Local Area Network)を用いて無線通信を行うことが可能である。また無線通信部110は、近距離無線通信を行うことが可能である。例えば、無線通信部110は、Bluetooth(登録商標)に準拠して無線通信することが可能である。無線通信部110は、ZigBee(登録商標)及びNFC(Near Field Communication)の少なくとも一方に準拠して無線通信することが可能であってもよい。
無線通信部110は、アンテナ111で受信した信号に対して増幅処理等の各種処理を行い、処理後の受信信号をコントローラ100に出力する。コントローラ100は、入力される受信信号に対して各種処理を行って、受信信号に含まれる情報を取得する。また、コントローラ100は、情報を含む送信信号を無線通信部110に出力する。無線通信部110は、入力される送信信号に対して増幅処理等の各種処理を行って、処理後の送信信号をアンテナ111から無線送信する。
表示部120は、電子機器1の前面11aに位置するディスプレイ120と、表示パネル122と、バックライト123とを備えている。表示部120は、ディスプレイ120に各種情報を表示することが可能である。表示パネル122は、例えば、液晶表示パネルであって、複数の画素(「画素部」あるいは「画素回路」とも呼ばれる)を備える。表示パネル122は、例えば、液晶、ガラス基板及び偏光板等を備える。表示パネル122は、電子機器1内において、ディスプレイ120と対向している。表示部120に表示される情報は、電子機器1の表面のディスプレイ120に表示される。バックライト123は、表示パネル122の裏側から表示パネル122に対して光を照射する。バックライト123は、例えば、少なくとも一つのLED(発光ダイオード)を備える。表示パネル122は、コントローラ100によって制御されることにより、画素単位で、バックライト123からの光の透過量を制御することが可能である。表示パネル122は、各種情報を表示することが可能である。バックライト123が点灯しているときに表示パネル122の各画素がコントローラ100によって制御されることにより、表示部120は、文字、記号及び図形等の各種情報を表示することが可能である。コントローラ100は、バックライト123を制御することが可能である。コントローラ100は、例えば、バックライト123を点灯させたり、消灯させたりすることが可能である。
なお表示パネル122は、液晶表示パネル以外の表示パネルであってもよい。例えば、表示パネル122は、有機EL(Electroluminescence)パネル等の自発光型の表示パネルであってもよい。この場合には、バックライト123は不要になる。
タッチセンサ130は、ディスプレイ120に対する指等の操作子による操作を検出することが可能である。タッチセンサ130はディスプレイ120に対する操作を検出するセンサであると言える。タッチセンサ130は、例えば、投影型静電容量方式のタッチセンサである。タッチセンサ130は、例えば、ディスプレイ120の裏側に位置する。ユーザが指等の操作子によってディスプレイ120に対して操作を行ったとき、タッチセンサ130は、その操作に応じた電気信号をコントローラ100に入力することが可能である。コントローラ100は、タッチセンサ130からの電気信号(出力信号)に基づいて、ディスプレイ120に対して行われた操作の内容を特定することが可能である。そしてコントローラ100は、特定した操作内容に応じた処理を行うことが可能である。なお、表示パネル122及びタッチセンサ130の代わりに、タッチセンサが組み込まれたインセル型の表示パネルが採用されてもよい。
操作ボタン群140の各操作ボタンは、ユーザによって操作されると、操作されたことを示す操作信号をコントローラ100に出力することが可能である。コントローラ100は、各操作ボタンについて、操作ボタンが操作されたか否かを判断することができる。操作信号が入力されたコントローラ100が他の構成要素を制御することによって、電子機器1では、操作された操作ボタンに割り当てられている機能が実行される。
マイク170は、電子機器1の外部から入力される音を電気的な音信号に変換してコントローラ100に出力することが可能である。電子機器1の外部からの音は、マイク穴14から電子機器1の内部に取り込まれてマイク170に入力される。
スピーカ160は、例えばダイナミックスピーカである。スピーカ160は、コントローラ100からの電気的な音信号を音に変換して出力することが可能である。スピーカ160から出力される音は、スピーカ穴13から外部に出力される。ユーザは、スピーカ穴13から出力される音を、電子機器1から離れた場所でも聞こえることが可能である。
レシーバ150は受話音を出力することが可能である。レシーバ150は例えばダイナミックスピーカである。レシーバ150は、コントローラ100からの電気的な音信号を音に変換して出力することが可能である。レシーバ150から出力される音はレシーバ穴12から外部に出力される。レシーバ穴12から出力される音の音量は、スピーカ穴13から出力される音の音量よりも小さくなっている。ユーザは、レシーバ穴12から出力される音を、レシーバ穴12に耳を近づけることによって聞くことができる。なお、レシーバ150の代わりに、電子機器1の前面部分を振動させる、圧電振動素子等の振動素子を設けてもよい。この場合には、音は、前面部分の振動によりユーザに伝達される。
第1カメラ180は、レンズ及びイメージセンサ等を備えている。第2カメラ190は、レンズ及びイメージセンサ等を備えている。第1カメラ180及び第2カメラ190のそれぞれは、コントローラ100による制御に基づいて被写体を撮影し、撮影した被写体を示す静止画あるいは動画を生成してコントローラ100に出力することが可能である。
第1カメラ180のレンズは、電子機器1の前面11aから視認可能となっている。したがって、第1カメラ180は、電子機器1の前面側(言い換えれば、ディスプレイ120側)に存在する被写体を撮影することが可能である。第1カメラ180はインカメラと呼ばれる。一方で、第2カメラ190のレンズは、電子機器1の背面11bから視認可能となっている。したがって、第2カメラ190は、電子機器1の背面側に存在する被写体を撮影することが可能である。第2カメラ190はアウトカメラと呼ばれる。
指紋センサ200は、検出対象面15に触れる指の指紋情報を読み取ることが可能である。また、指紋センサ200は、検出対象面15に対する、指等の操作子の検出対象面15上の操作を検出することが可能である。例えば、指紋センサ200は、検出対象面15に対する、操作子のスライド操作及びフリック操作を検出することが可能である。スライド操作は、指等の操作子が操作対象面に触れた状態で操作対象面上を移動する操作である。操作対象面とは、指等の操作を検出する面である。操作対象面は検出対象面15を含んでもよい。操作対象面はディスプレイを含んでもよい。フリック操作は、操作対象面を指等の操作子で払う操作である。以後、検出対象面15に対する、操作子の操作対象面上の操作を「移動操作」と呼ぶことがある。
例えば、指紋センサ200は、検出対象面15に対する左右方向及び上下方向の移動操作を検出できるようにしてもよい。検出対象面15は指500が直接触れる部分である。検出対象面15は、指紋センサ200が指紋情報を読み取るために、ユーザの指500が触れる面であり、指紋検出が可能な領域であってもよい。指紋センサ200の位置は限られない。例えば、指紋センサ200は検出対象面15の下側に位置していてもよい。また、指紋センサ200の一部分が検出対象面15であってもよい。
指紋センサ200での指紋検出方式は、例えば、静電容量方式である。指の指紋による凹凸によって指紋センサ200と指との間の静電容量が変化することから、指紋センサ200と指との間の静電容量を検出することによって、指紋センサ200は指の指紋情報を読み取ることができる。また、指紋センサ200での指紋検出方式が静電容量方式である場合には、指紋センサ200は、静電容量方式のタッチセンサ130と同様にして、検出対象面15に対する移動操作を検出することができる。
なお、指紋センサ200を、検出対象面15を触れる指の指紋情報を読み取るセンサと、検出対象面15に対する移動操作を検出するセンサと、の2つの別のセンサで構成してもよい。また、指紋センサ200での指紋検出方式は、静電容量方式以外の方式であってもよい。例えば、指紋センサ200での指紋検出方式は、光学式であってもよい。
電池220は電子機器1の電源を出力することが可能である。電池220は例えば充電式の電池である。電池220から出力される電源は、電子機器1が備えるコントローラ100及び無線通信部110等の各種構成に対して供給される。
なお電子機器1は、タッチセンサ130及び指紋センサ200以外のセンサを備えてもよい。例えば、電子機器1は、加速度センサ、気圧センサ、地磁気センサ、温度センサ、近接センサ、照度センサ及びジャイロセンサの少なくとも一つを備えてもよい。
電子機器1は多数の動作モードを有している。電子機器1の動作モードには、例えば、通常モード、スリープモード及びシャットダウンモードが含まれる。シャットダウンモードでは、電子機器1がシャットダウンし、電子機器1のほとんどの機能が停止する。スリープモードでは、電子機器1における、表示機能を含む一部の機能が停止する。通常モードは、電子機器1がスリープモード及びシャットダウンモード以外で動作している状態を意味する。コントローラ100が、設定すべき動作モードに応じて電子機器1の所定の構成を制御することによって、電子機器1の動作モードが設定される。
スリープモードでは、例えば、表示パネル122、バックライト123、タッチセンサ130、第1カメラ180及び第2カメラ190等を含む電子機器1の一部の構成が動作しない。シャットダウンモードでは、表示パネル122、バックライト123、タッチセンサ130、第1カメラ180及び第2カメラ190等を含む電子機器1のほとんどの構成が動作しない。スリープモードでは、通常モードよりも電子機器1の消費電力が低減する。シャットダウンモードでは、スリープモードよりも電子機器1の消費電力が低減する。
また、スリープモード及びシャットダウンモードでは、ディスプレイ120は非表示状態となる。表示状態とは、電子機器1が意図的にディスプレイ120に表示を行っている状態を意味する。また非表示状態とは、電子機器1が意図的にディスプレイ120に表示を行うことを実行してない状態を意味する。本実施形態では、バックライト123が消灯すると、電子機器1は、意図的にディスプレイ120に表示を行うことができない。したがって、バックライト123が消灯することによって、ディスプレイ120が非表示状態となる。言い換えれば、バックライト123が駆動されていないときにディスプレイ120が非表示状態となる。また、表示パネル122が有機ELパネル等の自発光型の表示パネルである場合には、全画素が発光していない場合にディスプレイ120が非表示状態となる。つまり、表示パネル122の表示領域の全領域が消灯状態の場合にディスプレイ120が非表示状態となる。
通常モードにおいて、電源ボタン141が長時間押されると、通常モードからシャットダウンモードに遷移させるか否かをユーザに確認するための確認画面がディスプレイ120に表示される。ディスプレイ120に確認画面が表示されている状態において、ユーザがディスプレイ120に対して所定の操作を行うと、通常モードからシャットダウンモードに遷移する。
また通常モードにおいて、電子機器1に対して一定時間以上操作が行われなければ、通常モードからスリープモードに遷移する。また、通常モードにおいて、電源ボタン141が短時間押されると、通常モードからスリープモードに遷移する。
一方で、スリープモードにおいて、電源ボタン141が短時間押されたとき、スリープモードから通常モードに遷移する。つまり、スリープモードにおいて、電源ボタン141が短時間押されたとき、電子機器1では、スリープモードに遷移するときに停止された機能が復帰する。本実施形態では、通常モードには、ロックモードが含まれている。スリープモードにおいて、電源ボタン141が短時間押されたとき、スリープモードからロックモードに遷移する。また、スリープモードにおいて、検出対象面15に対して所定の操作が行われたとき、スリープモードから通常モードに遷移する。
なお、以下に説明する、シャットダウンモード及びスリープモード以外の電子機器1の動作モードは、特に説明しなくても通常モードに含まれる。また、単に動作モードと言えば、電子機器1の動作モードを意味する。また、押す位置を変化させずに電子機器1の表面を短時間押す操作を、つまり、押す位置を変化させずに電子機器1の表面を第1の所定時間未満押す操作を「短押し操作」と呼ぶ。また、押す位置を変化させずに電子機器1の表面を長時間押す操作を、つまり、押す位置を変化させずに電子機器1の表面を第2の所定時間(≧第1の所定時間)以上押す操作を「長押し操作」と呼ぶことがある。
通常モードにおいては、様々な画面がディスプレイ120に表示される。ディスプレイ120に表示される画面は、ディスプレイ120に表示される画像であるとも言える。ディスプレイ120には、例えば、ホーム画面400及びロック画面300が表示される。図4はロック画面300の一例を示す図である。図5はホーム画面400の一例を示す図である。
図4に示されるように、ロック画面300には、例えば、現在の時刻と、現在の日付と、現在の曜日とが示される。
通常モードには、記憶部103内の複数のアプリケーションのうち、特定のアプリケーション以外のアプリケーションを、ユーザが電子機器1に実行させることができないロックモードが含まれる。特定のアプリケーションとは、例えば通話アプリケーション及びカメラアプリケーションである。ロックモードは、画面ロックモードとも呼ばれる。ロックモードでは、ユーザは、記憶部103内の複数のアプリケーションのうち、特定のアプリケーション以外の各アプリケーションについて、アプリケーションの実行を電子機器1に指示することができない。ロック画面300は、電子機器1がロックモードであることを通知する画面であって、動作モードがロックモードのときにディスプレイ120に表示される。なお、ロックモードは、記憶部103内の一部又は全部のアプリケーションがユーザによって実行できないモードである。
スリープモードにおいて、電源ボタン141が短押し操作されたとき、スリープモードが解除されて、動作モードはロックモードとなる。ロックモードになると、コントローラ100は、ディスプレイ120にロック画面300を表示する。ディスプレイ120がロック画面300を表示している場合に、ユーザが電子機器1に対して所定の操作を行うと、電子機器1ではロックモードが解除されて、ディスプレイ120の表示はロック画面300から他の画面、例えばホーム画面400(図5参照)に遷移する。以後、通常モードにおいて、ロックモードが解除されている状態を「非ロックモード」と呼ぶことがある。
ホーム画面400には、図5に示されるように、複数の操作ボタン401〜403が示される。操作ボタン401〜403のそれぞれはソフトウェアボタンである。操作ボタン401〜403は、非ロックモードにおいて、ホーム画面400以外の画面にも示される。
操作ボタン401は例えばバックボタンである。バックボタンは、ディスプレイ120の表示を一つ前の表示に切り替えるための操作ボタンである。ユーザが操作ボタン401に対して所定の操作を行うことよって、ディスプレイ120の表示が一つ前の表示に切り替わる。例えば、ユーザが操作ボタン401に対してタップ操作を行うことよって、ディスプレイ120の表示が一つ前の表示に切り替わる。タップ操作は、指が操作対象面を触れてから、その触れた箇所からすぐに離れる操作である。操作ボタン402は例えばホームボタンである。ホームボタンは、ディスプレイ120にホーム画面400を表示させるための操作ボタンである。ユーザが操作ボタン402に対して例えばタップ操作を行うことによって、ディスプレイ120にホーム画面400が表示される。操作ボタン403は、例えば履歴ボタンである。履歴ボタンは、電子機器1で実行されたアプリケーションの履歴をディスプレイ120に表示させるための操作ボタンである。ユーザが操作ボタン403に対して例えばタップ操作を行うことよって、ディスプレイ120には、電子機器1で実行されたアプリケーションの履歴が表示される。
また、ホーム画面400には、記憶部103内のアプリケーションに対応し、対応するアプリケーションの実行を電子機器1に指示するためのアイコン405が示される。図5の例では、ホーム画面400に5個のアイコン405が示されている。アイコンはカメラ、電話、画像、メールおよびメモのアプリケーションを実行するためのアイコンである。カメラのアプリケーションは、例えば、写真又は動画を撮影する機能を提供するためのアプリケーションである。電話のアプリケーションは、例えば、通話機能を提供するためのアプリケーションである。画像のアプリケーションは、例えば、保存されている写真又は動画を表示する機能を提供するためのアプリケーションである。メールのアプリケーションは、例えば、メッセージを送受信する機能を提供するアプリケーションである。メモのアプリケーションは、例えば、記入したテキストを保存する機能を提供するアプリケーションである。ユーザは、アイコン405に対して所定の操作を行うことによって、アイコン405を選択することができる。コントローラ100は、選択されたアイコン405に対応するアプリケーションを記憶部103から読み出して実行する。つまり、コントローラ100は、タッチセンサ130がアイコン405に対する所定の操作を検出すると、アイコン405に対応するアプリケーションを記憶部103から読み出して実行する。ユーザは、アイコン405を操作することによってアイコン405を選択し、選択したアイコン405に対応するアプリケーションを電子機器1に実行させることができる。例えば、ユーザが、ブラウザに対応するアイコン405をタップ操作すると、電子機器1ではブラウザが実行される。またユーザが、カメラアプリケーションに対応するアイコン405をタップ操作すると、電子機器1ではカメラアプリケーションが実行される。
ホーム画面400は、複数のページで構成されている。図5には、ホーム画面400のあるページが示されている。各ページには、操作ボタン401〜403とアイコン405が示される。ホーム画面400を構成する複数のページは仮想的に左右方向に並べられている。ユーザがディスプレイ120に対して左右方向のフリック操作あるいはスライド操作を行うと、ディスプレイ120には、隣のページが表示される。
動作モードが通常モードである場合、コントローラ100は、指紋センサ200で読み取られる指紋情報に基づいて指紋認証を行うことが可能である。以下に指紋認証の一例について説明する。
コントローラ100は、指紋認証を行う際、指紋センサ200からの出力信号に基づいて、指紋センサ200で読み取られた指紋情報を示す指紋画像を生成する。そして、コントローラ100は、生成した指紋画像から、読み取られた指紋情報の特徴を示す特徴点を抽出する。特徴点としては、例えば、指紋の稜線(凸部)の端点及び分岐点の位置と、稜線の太さ等が使用される。そして、コントローラ100は、抽出した特徴点と、記憶部103に記憶されている基準特徴点とを比較する。基準特徴点は、正規のユーザの指紋情報を示す指紋画像から抽出された特徴点である。正規のユーザとは、例えば電子機器1の所有者である。コントローラ100は、抽出した特徴点と基準特徴点とを比較した結果、両者が類似する場合には、指紋認証が成功であると判定する。指紋認証はユーザ認証の一種であると考えることができることから、コントローラ100は、抽出した特徴点と基準特徴点とが類似する場合には、指紋センサ200が読み取った指紋情報を有するユーザが正規のユーザであると判定すると言える。一方で、コントローラ100は、抽出した特徴点と基準特徴点とが類似しない場合には、指紋認証に失敗したと判定する。つまり、コントローラ100は、指紋センサ200が読み取った指紋情報を有するユーザが非正規のユーザであると判定する。
通常モードには、ユーザの指紋情報を電子機器1に登録するための指紋登録モードが含まれる。電子機器1は、非ロックモードにおいて、ディスプレイ120に対して所定の操作が行われると、指紋登録モードで動作する。指紋登録モードにおいて、正規のユーザが自身の手の指(詳細には指の腹)を検出対象面15の上に置くと、指紋センサ200は指の指紋情報を読み取る。コントローラ100は、指紋センサ200からの出力信号に基づいて、指紋センサ200で読み取られた指紋情報を示す指紋画像を生成する。そして、コントローラ100は、生成した指紋画像から特徴点を抽出し、抽出した特徴点を基準特徴点として記憶部103に記憶する。正規のユーザの指紋の特徴を示す基準特徴点が記憶部103に記憶される。つまり、正規のユーザの指紋情報が電子機器1に登録される。このように、電子機器1に予め登録された指紋情報を登録指紋情報という。
なお記憶部103には、複数の基準特徴点が記憶されることもある。この場合には、コントローラ100は、抽出した特徴点と、記憶部103に記憶されている複数の基準特徴点のそれぞれとを比較する。コントローラ100は、複数の基準特徴点の中に、抽出した特徴点と類似するものがある場合には、指紋認証が成功であると判定する。一方で、コントローラ100は、複数の基準特徴点の中に、抽出した特徴点と類似するものが無い場合には、指紋認証に失敗したと判定する。
一実施形態において、電子機器1は、アイコン405から指紋センサ200に向けた指500の移動が検出され、指紋センサ200により指紋情報が読み取られると、読み取られた指紋情報と予め登録された登録指紋情報とに基づいて、アイコン405の機能を実行する。図6は電子機器1がアイコン405の機能を実行させる際の電子機器1の動作の一例を示すフローチャートである。
ステップs1において、コントローラ100は、ホーム画面400をディスプレイ120に表示する。ステップs2において、コントローラ100は、アイコン405から指紋センサ200に向けた指500の移動を検出するとアイコン405を選択し、ステップs3に進む。図7は、電子機器に対する操作の一例を示す図である。具体的には、図7は、画像アプリケーションのアイコン405に指500で触れた後、ディスプレイ120に触れたまま、指500を指紋センサ200に向けて移動させている図である。
ステップs2において、例えば、コントローラ100は、タッチセンサ130により、アイコン405への接触を検出し、当該接触を検出している位置から指紋センサ200に近づく方向に移動したと判定するときに、指500の移動が、アイコン405から指紋センサ200に向けた移動であると検出する。指紋センサ200に近づく方向とは、例えば、図7における下方向である。コントローラ100は、例えば、アイコン405への接触を検出し、当該接触を検出している位置が指紋センサ200に遠ざかる方向に移動したと判定するときに、指500の移動が、アイコン405から指紋センサ200に向けた移動でないと判定する。指紋センサ200に遠ざかる方向とは、例えば、図7における上、左下、又は右下方向である。
なお、アイコン405から指紋センサ200に向けた指500の移動は、例えば、後述する、指500の移動が指紋センサ200に達する移動を含む。アイコン405から指紋センサ200に向けた指500の移動は、例えば、後述する、所定以上の速度を含み、かつ指紋センサ200まで達しない移動を含む。
ステップs2において、コントローラ100は、アイコン405から指紋センサ200に向けた指500の移動を検出すると、指500の移動に対応してアイコン405を移動させてもよい。例えば、電子機器1は、アイコン405から指500が移動するとき、指500の移動を追従するようにアイコン405を移動させて表示させてよい。ただし、コントローラ100は、アイコン405から指紋センサ200に向けた指500の移動を検出しても、アイコン405を移動させないようにしても構わない。
ステップs2において、アイコン405から指紋センサ200に向けた指500の移動が検出されなかった場合、電子機器1はホーム画面の表示を維持してもよい。
ステップs3において、コントローラ100は、指紋センサ200の出力信号に基づいて、指紋センサが指500の指紋を検出すると、ステップs4に進む。
ステップs3において、指紋センサが指の指紋を検出しなかった場合、ホーム画面の表示を維持してもよい。例えば、アイコン405から指紋センサ200に向けた指500の移動を検出したが、所定の時間経過しても指紋センサ200が指500の指紋を読み取らなかった場合、電子機器1はホーム画面の表示を維持してもよい。
ステップs4において、コントローラ100は、指紋センサ200で読み取られた指紋情報に基づいて指紋認証を行う。ステップs4の後、コントローラ100は、ステップs5において、指紋認証に成功したか否かを判定する。指紋認証に成功したと判定するとステップs6に進む。
ステップs5において、指紋認証が失敗した場合には電子機器1はホーム画面の表示を維持する。また、指紋認証が失敗した場合には、コントローラ100は、指紋認証が失敗したことを通知する情報をホーム画面400に表示してもよい。指紋認証が失敗した場合には指紋認証が失敗したことを通知する情報が表示されることから、ユーザは指紋認証が失敗したことを容易に知ることができる。
ステップs6において、コントローラ100は、ステップ2で選択されたアイコン405に対応するアプリケーションを記憶部103から読み出して機能を実行する。ステップ2で選択されたアイコン405に対応するアプリケーションとは、例えば、図7においては画像のアプリケーションである。正規のユーザは、自身の指500でアイコン405に触れ、かつ指紋センサ200の方向へ指500を移動させるといった操作によって、電子機器1にアイコン405の機能を実行させることができる。さらに、アイコン405に指500が触れただけではアイコン405の機能は実行されないので、誤作動を防ぐことができる。また、一実施例において、指500を指紋センサ200に向けて移動させることをアイコン405の機能を実行する条件にすることにより、例えば、アイコン405の位置を変更したいとき、アイコン405から指紋センサ200に向けない指500の移動で、指紋の認証が可能になるという誤作動を防ぐことができる。その結果、電子機器1の操作性が向上する。
ここで、アイコン405から指紋センサ200に向けた指500の移動において、指500の移動が指紋センサ200に達する移動を含む場合の電子機器1の一例を説明する。
一実施形態において、電子機器1は、指500の移動が指紋センサ200に達する移動であることを検出し、指紋情報が読み取られると、指紋情報と登録指紋情報とに基づいて、アイコン405の機能を実行する。図8は電子機器1がアイコン405の機能を実行させる際の電子機器1の動作の一例を示すフローチャートである。図8のステップs1からステップs6においては、上述した通りの処理を行う。
ステップs7においては、アイコン405から指紋センサ200に向けた指500の移動が指紋センサに達したかを判断する。指500の移動が指紋センサ200に達した場合、ステップs3に進む。
ステップs7において、指500の移動が指紋センサ200に達しなかった場合、電子機器1はホーム画面の表示を維持してもよい。
図9は電子機器に対する操作の一例を示す図である。図9は、図7の指500が電子機器1のディスプレイ120に触れたまま移動し、指紋センサ200の位置に指500が達した図である。
アイコン405から指紋センサ200に向けた指500の移動は、指紋センサ200とタッチセンサ130との間の指500の移動が検出されない部分を含んでいてもよい。指500の移動が検出されない部分とは、例えば、電子機器1の前面11aである。その場合、タッチセンサ130により、アイコン405から指紋センサ200に向けた指500の移動が、電子機器1の前面11aまで達したことを検出した後、指紋センサ200により、所定の時間内に指紋情報が読み取られると、アイコン405から指紋センサ200に向けた指500の移動が行われたと判断してもよい。指紋センサ200とタッチセンサ130との間の指500の移動が検出されない部分の指500の移動は、指500が当該部分に触れたまま移動してもよい。また、指紋センサ200とタッチセンサ130との間の指500の移動が検出されない部分を指500は移動せずに、タッチセンサ130により、アイコン405から指紋センサ200に向けた指500の移動が、電子機器1の前面11aまで達したことを検出した後、指500を電子機器1から離し、直接、指紋センサ200に触れてもよい。
正規のユーザは、自身の指500をアイコン405に触れ、指紋センサ200まで指500を移動させるといった一連の操作によって、電子機器1にアイコン405の機能を実行させることができる。また、アイコン405から指紋センサ200に向けた指500の移動が、指紋センサ200とタッチセンサ130との間の指500の移動が検出されない部分を含む場合、ディスプレイ120に指紋センサ200の認証場所を表示する必要が無いので、ディスプレイ120の表示を指紋センサ200が妨げることを伏せくことができる。その結果、電子機器1の操作性が向上する。
また、コントローラ100は、アイコン405から指紋センサ200に向けた指500の移動に応じて、アイコン405の機能が実行されると、機能が実行されたアイコン405の表示位置を、指紋センサ200付近に近づけるように変更してもよい。また、コントローラ100は、アイコン405から指紋センサ200に向けた指500の移動に応じてアイコン405の機能が実行された実行回数をカウントしてよい。コントローラ100は、カウントされた実行回数が多い順に指紋センサ200に近くなるように、アイコン405の表示位置をそれぞれ変更してもよい。これにより、実行頻度の高い機能のアイコン405の表示位置が指紋センサ200に近づくため、アイコン405から指紋センサ200まで指500を移動させる距離が短くなる。
ここで、アイコン405から指紋センサ200に向けた指500の移動において、所定以上の速度を含み、かつ指紋センサ200まで達しない移動を含む場合の電子機器1の一例を説明する。
一実施形態において、電子機器1は、指500の移動が所定以上の速度の移動を含むこと、および指500の移動が指紋センサ200まで達しない移動であることを検出した後に、指紋情報が読み取られると、指紋情報と登録指紋情報とに基づいて、アイコン405の機能を実行する。
例えば、所定以上の速度の移動を含み、指500の移動が指紋センサ200まで達しない移動である指500の移動は、第1の移動または第2に移動を含む。第1の移動および第2の移動は、アイコン405から指紋センサ200に向けた指500の移動であり、更に指500の移動が指紋センサ200まで達しない移動である。第1の移動は、例えば、アイコン405の位置から当該移動が終わる位置までの移動速度が所定以上の速度である。第2の移動は、例えば、アイコン405の位置から所定の位置までの移動速度が所定以下の速度であって、当該所定の位置から当該移動が終わる位置までの移動速度が所定以上の速度である。
電子機器1は、第1の移動を検出した後に、指紋情報が読み取られると、指紋情報と登録指紋情報とに基づいて、アイコン405の機能を実行する。図10は電子機器1がアイコン405の機能を実行させる際の電子機器1の動作の一例を示すフローチャートである。図10のステップs1からステップs6においては、上述した通りの処理を行う。
ステップs8においては、指500の移動は、アイコン405の位置から当該移動が終わる位置までの移動速度が所定以上の速度であり、指紋センサ200まで達しない移動であるかを判断する。指500の移動がアイコン405の位置から当該移動が終わる位置までの移動速度が所定以上の速度であり、指紋センサまで達しない移動である場合、ステップs3に進む。
ステップs8において、指500の移動は、指の移動速度が所定以上の速度を含まない、または指の移動が指紋センサまで達する場合、電子機器1はホーム画面の表示を維持してもよい。
電子機器1は、第2の移動を検出した後に、指紋情報が読み取られると、指紋情報と登録指紋情報とに基づいて、アイコン405の機能を実行する。図11は電子機器1がアイコン405の機能を実行させる際の電子機器1の動作の一例を示すフローチャートである。図11のステップs1からステップs6においては、上述した通りの処理を行う。
ステップs9においては、指500の移動は、アイコン位置から所定の位置までの移動速度が所定以下の速度であり、当該所定の位置から指の移動が終わる位置までの指の移動速度が所定以上の速度であり、指の移動が指紋センサまで達しないかを判断する。指500の移動がアイコン位置から所定の位置までの移動速度が所定以下の速度であり、当該所定の位置から指の移動が終わる位置までの指の移動速度が所定以上の速度であり、指の移動が指紋センサまで達しない移動である場合、ステップs3に進む。
ステップs9において、指500の移動は、指の移動速度が所定以上の速度を含まない、または指の移動が指紋センサまで達する場合、電子機器1はホーム画面の表示を維持してもよい。
また、一実施例において、図12に示すように、アイコン405の機能を実行するための指500の移動は、アイコン405から指紋センサ200に向けた移動に限られず、アイコン405から全方向で考えられる。
これにより、正規のユーザは、自身の指500でアイコン405に触れ、かつ指紋センサ200の方向へ指500を所定の速度で移動させるといった操作によって、電子機器1にアイコン405の機能を実行させることができる。さらに、アイコン405に指500が触れただけではアイコン405の機能は実行されないので、誤作動を防ぐことができる。その結果、電子機器1の操作性が向上する。
一実施形態において、電子機器1は、指500の移動が所定以上の速度の移動を含むこと、および指500の移動が指紋センサ200まで達しない移動であることを検出すると、指紋の認証を要求する画面406をディスプレイ120に表示させる。
図13は、電子機器1の表示の一例を示す図である。具体的には、図13は、電子機器1が、指紋の認証を要求する画像406をディスプレイ120に表示している図である。
コントローラ100は、指500の移動が所定以上の速度の移動を含むこと、および指500の移動が指紋センサ200まで達しない移動であることを検出すると、画像406をディスプレイ120に表示させる。指500の移動が指紋センサ200まで達しない移動であることを検出するとは、例えば、図10のステップs8、または図11のステップs9でYESとなることである。コントローラ100は、画像406を表示するまでは、指紋センサ200により指紋情報が読み取れないように制限してもよい。画像406を表示するまでとは、言い換えると、指500の移動が所定以上の速度の移動を含むこと、および指500の移動が指紋センサ200まで達しない移動であることを検出するまでである。
電子機器1は、画像406がディスプレイ120に表示することから、ユーザは電子機器1が指紋の認証を行うことができる状態にあることを画像406により容易に知ることができる。その結果、電子機器1の操作性が向上する。
また、画像406は所定の領域を含む。所定の領域とは、図13においては「キャンセル」の文字が記載された領域である。電子機器1は、図13において、「キャンセル」の文字が記載された領域が指500でタップされた場合には、図6のステップs2で選択されたアイコン405の選択を解除し、画像406を非表示にしてよい。
一実施形態において、電子機器1は、ロックモードにおいて、ディスプレイ120にアイコン405を表示する。図14は、電子機器の表示の一例を示す図である。具体的には、図14は、ロック画面モードにおいて、アイコン405をディスプレイ120に表示している図である。
電子機器1は、ロックモードにおいてロック画面300をディスプレイ120に表示する。電子機器1は、ロック画面300上にアイコン405を表示する。電子機器1は、ロック画面300を表示した状態からアイコン405のアプリケーションを実行することができるため利便性がよい。その結果、電子機器1の操作性が向上する。
一実施形態において、電子機器1は、ロックモードにおいて、アイコン405から指紋センサ200に向けた指500の移動が検出され、指紋センサ200により指紋情報が読み取られると、読み取られた指紋情報と登録指紋情報とに基づいて、ロックモードを解除し、アイコン405の機能を実行する。
図15は電子機器の動作の一例を示すフローチャートである。図15の電子機器1は、ロックモードにおいて、電子機器1がアイコン405を実行させる際の電子機器1の動作の一例を示すフローチャートである。
ステップs10において、コントローラ100は、図14の電子機器1のように、ロック画面300をディスプレイ120に表示させるとともに、ロック画面300上にアイコン405を表示させ、ステップs11に進む。ステップs11において、コントローラ100は、アイコン405から指紋センサ200に向けた指500の移動を検出すると、ステップs12に進む。
ステップs12において、コントローラ100は、指紋センサ200の出力信号に基づいて、指紋センサが指500の指紋を検出すると、ステップs13に進む。ステップs13において、コントローラ100は、指紋センサ200で読み取られた指紋情報に基づいて指紋認証を行う。ステップs13の後、コントローラ100は、ステップs14において、指紋認証に成功したか否かを判定する。
ステップs14において、指紋認証に成功したと判定されると、コントローラ100は、ステップs15において、ロックモードを解除し、アイコンの機能を実行する。
ステップs14において指紋認証に失敗したと判定されると、コントローラ100はステップs15においてロックモードを解除しない。
このように、本実施形態では、指紋認証に失敗した場合には、指500の移動が向けられたアイコン405の機能を実行されないことから、ディスプレイ120はロック画面300の表示が維持される。
図15のステップs15では、ロックモードを解除し、アイコンの機能を実行するとされているが、ロックモードの解除とアイコン405の機能の実行との順番はどちらが先に行われてもよい。または、ロックモードの解除とアイコン405の機能の実行とが同時に行われてもよい。
正規のユーザは、ロックモードにおいて、自身の指500でアイコン405に触れ、かつ指紋センサ200の方向へ指500を移動させるといった操作によって、ロックモードを解除し、電子機器1にアイコン405の機能を実行させることができる。これにより、ロックモードの解除とアイコン405の機能の実行を同時に行うことができる。その結果、電子機器1の操作性が向上する。
一実施形態において、アイコン405は第1アイコンと第2アイコンを含み、電子機器1は、第1アイコンと第2アイコンに、それぞれ異なる登録指紋情報を登録可能である。
例えば、電子機器1は、第1アイコンに第1ユーザの登録指紋情報を、第2アイコンに第2ユーザの登録指紋情報を、登録可能にしてもよい。第1アイコンとは、例えば、図5の電話のアイコンであり、第2アイコンとは、例えば、図5のメモのアイコンである。
このような電子機器1は、他のユーザと共有して使用する場合に、自身だけ、或いは他のユーザだけにしか実行できない機能を容易に設定できる。その結果、電子機器1の操作性が向上する。
上記の例では、電子機器1は、スマートフォン等の携帯電話機であったが、他の種類の電子機器であってもよい。電子機器1は、例えば、タブレット端末又はパーソナルコンピュータ又はウェアラブル機器であってもよい。電子機器1として採用されるウェアラブル機器は、リストバンド型あるいは腕時計型等の腕に装着するタイプであってもよいし、ヘッドバンド型あるいはメガネ型等の頭に装着するタイプであってもよいし、服型等の体に装着するタイプであってもよい。
以上のように、電子機器1は詳細に説明されたが、上記した説明は、全ての局面において例示であって、この開示がそれに限定されるものではない。また、上述した各種の例は、相互に矛盾しない限り組み合わせて適用可能である。そして、例示されていない無数の例が、この開示の範囲から外れることなく想定され得るものと解される。
1 電子機器
12 レシーバ穴
13 スピーカ穴
14 マイク穴
15 検出対象面
100 コントローラ
120 ディスプレイ
130 タッチセンサ
141 電源ボタン
180 第1カメラ
190 第2カメラ
200 指紋センサ
300 ロック画面
400 ホーム画面
401、402、403 操作ボタン
405 アイコン
406 指紋の認証を要求する画面
500 指

Claims (6)

  1. アイコンを表示するディスプレイと、
    指紋情報を読み取る指紋センサと、
    指の移動を検出するタッチセンサと、
    前記アイコンから前記指紋センサに向けた前記指の移動が検出され、前記指紋センサにより指紋情報が読み取られると、読み取られた前記指紋情報と予め登録された登録指紋情報とに基づいて指紋認証を行い、当該指紋認証が成功したと判定すると、前記アイコンの機能を実行する処理を行うコントローラと、
    を備え
    前記コントローラは、前記処理において、前記指の移動が所定以上の速度の移動を含むこと、および前記指の移動が前記指紋センサまで達しない移動であることを検出すると、指紋の認証を要求する画面を前記ディスプレイに表示させ、その後、前記指が前記指紋センサに触れて前記指紋情報が読み取られると、前記指紋認証を行い、前記指紋認証が成功したと判定すると、前記アイコンの機能を実行し、
    前記画面には、前記処理を中止するための操作領域が含まれる、電子機器。
  2. 前記コントローラは、ロックモードにおいて、前記ディスプレイに前記アイコンを表示させる請求項1に記載の電子機器。
  3. 前記コントローラは、前記処理において、前記指紋認証が成功したと判定すると、前記ロックモードを解除し、前記アイコンの機能を実行する請求項に記載の電子機器。
  4. 前記アイコンは、第1アイコンと、第2アイコンを含み、
    前記コントローラは、前記第1アイコンと前記第2アイコンに、それぞれ異なる登録指紋情報を登録可能である、請求項1乃至請求項のいずれか一つに記載の電子機器。
  5. 前記アイコンは、第1アイコンと、第2アイコンを含み、
    前記第1アイコンについての前記処理の実行回数が、前記第2アイコンについての前記処理の実行回数よりも多い場合、前記第1アイコンは前記第2アイコンよりも前記指紋センサの近くに表示される、請求項1乃至請求項3のいずれか一つに記載の電子機器。
  6. アイコンを表示するディスプレイと、指紋情報を読み取る指紋センサと、指の移動を検出するタッチセンサと、を備える電子機器の制御方法であって、
    前記アイコンから前記指紋センサに向けた前記指の移動を検出し、前記指紋センサにより指紋情報が読み取られると、読み取られた前記指紋情報と予め登録された登録指紋情報とに基づいて指紋認証を行い、当該指紋認証が成功したと判定すると、前記アイコンの機能を実行する処理を行い、
    前記処理において、前記指の移動が所定以上の速度の移動を含むこと、および前記指の移動が前記指紋センサまで達しない移動であることを検出すると、指紋の認証を要求する画面を前記ディスプレイに表示させ、その後、前記指が前記指紋センサに触れて前記指紋情報が読み取られると、前記指紋認証を行い、前記指紋認証が成功したと判定すると、前記アイコンの機能を実行し、
    前記画面には、処理を中止するための操作領域が含まれる、電子機器の制御方法。
JP2017243748A 2017-12-20 2017-12-20 電子機器および制御方法 Active JP6871846B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017243748A JP6871846B2 (ja) 2017-12-20 2017-12-20 電子機器および制御方法
US16/219,790 US10909346B2 (en) 2017-12-20 2018-12-13 Electronic apparatus and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017243748A JP6871846B2 (ja) 2017-12-20 2017-12-20 電子機器および制御方法

Publications (2)

Publication Number Publication Date
JP2019109825A JP2019109825A (ja) 2019-07-04
JP6871846B2 true JP6871846B2 (ja) 2021-05-19

Family

ID=66814543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017243748A Active JP6871846B2 (ja) 2017-12-20 2017-12-20 電子機器および制御方法

Country Status (2)

Country Link
US (1) US10909346B2 (ja)
JP (1) JP6871846B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111339515A (zh) * 2020-02-26 2020-06-26 维沃移动通信有限公司 一种应用程序启动方法及电子设备

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5238635B2 (ja) * 2009-07-29 2013-07-17 京セラ株式会社 情報処理装置及びアプリケーションプログラムの起動方法
JP2011048523A (ja) * 2009-08-26 2011-03-10 Kyocera Corp 携帯無線端末
JP6194162B2 (ja) * 2011-10-03 2017-09-06 京セラ株式会社 装置、方法、及びプログラム
JP2013140440A (ja) * 2011-12-28 2013-07-18 Sharp Corp 情報処理装置およびその駆動方法、制御プログラム、可読記憶媒体
KR20160083032A (ko) 2013-11-04 2016-07-11 퀄컴 인코포레이티드 모바일 디바이스들에서 사용자 인증 생체인식들
WO2015066330A1 (en) 2013-11-04 2015-05-07 Qualcomm Incorporated User authentication biometrics in mobile devices
JP6158260B2 (ja) * 2015-08-24 2017-07-05 京セラ株式会社 電子機器、制御プログラム及び電子機器の動作方法
JP6711649B2 (ja) * 2016-03-01 2020-06-17 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
US10599823B2 (en) * 2016-11-18 2020-03-24 Invensense, Inc. Systems and methods for coordinating applications with a user interface

Also Published As

Publication number Publication date
US10909346B2 (en) 2021-02-02
JP2019109825A (ja) 2019-07-04
US20190188439A1 (en) 2019-06-20

Similar Documents

Publication Publication Date Title
JP6940353B2 (ja) 電子機器
US20190130087A1 (en) Electronic apparatus, control device, and non-transitory computer readable storage medium
JP5519871B1 (ja) 携帯電子機器
US11604535B2 (en) Device and method for processing user input
JP6987687B2 (ja) 電子機器、制御プログラム及び電子機器の動作方法
KR20170037466A (ko) 이동 단말기 및 이의 제어방법
CN110858860B (zh) 响应于指纹传感器上手指旋转的电子设备控制及相应方法
CN105430154A (zh) 移动终端及其控制方法
US11354031B2 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method for controlling a scroll speed of a display screen
JP6871846B2 (ja) 電子機器および制御方法
JP6616379B2 (ja) 電子機器
JP2019144724A (ja) 電子機器及び制御方法
US9740358B2 (en) Electronic apparatus and operating method of electronic apparatus
JP7034856B2 (ja) 電子機器、制御プログラム及び表示制御方法
WO2013164351A1 (en) Device and method for processing user input
US20200073612A1 (en) Electronic apparatus
KR20160073679A (ko) 이동 단말기 및 그 제어 방법
US20200073611A1 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180731

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200417

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210416

R150 Certificate of patent or registration of utility model

Ref document number: 6871846

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150