JP6616379B2 - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
JP6616379B2
JP6616379B2 JP2017209436A JP2017209436A JP6616379B2 JP 6616379 B2 JP6616379 B2 JP 6616379B2 JP 2017209436 A JP2017209436 A JP 2017209436A JP 2017209436 A JP2017209436 A JP 2017209436A JP 6616379 B2 JP6616379 B2 JP 6616379B2
Authority
JP
Japan
Prior art keywords
icon
fingerprint
electronic device
finger
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017209436A
Other languages
English (en)
Other versions
JP2019082823A (ja
Inventor
功 益池
泰弘 上野
茂輝 田辺
英樹 森田
浩太郎 山内
学 佐久間
健史 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2017209436A priority Critical patent/JP6616379B2/ja
Priority to US16/171,898 priority patent/US20190129609A1/en
Publication of JP2019082823A publication Critical patent/JP2019082823A/ja
Application granted granted Critical
Publication of JP6616379B2 publication Critical patent/JP6616379B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/629Protecting access to data via a platform, e.g. using keys or access control rules to features or functions of an application
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/70Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
    • G06F21/82Protecting input, output or interconnection devices
    • G06F21/84Protecting input, output or interconnection devices output devices, e.g. displays or monitors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2149Restricted operating environment

Description

本開示は、電子機器に関する。
特許文献1に記載されているように、電子機器に関して様々な技術が提案されている。
特表2017−504853号
電子機器については、その操作性の向上が望まれている。
そこで、本発明は上述の点に鑑みて成されたものであり、電子機器の操作性を向上することが可能な技術を提供することを目的とする。
電子機器が開示される。一実施形態に係る電子機器は、アイコンを表示するディスプレイと、指紋情報を読み取る指紋センサと、指の接触を検出するタッチセンサと、アイコンの機能を実行するコントローラと、を備える。また、コントローラは、読み取られた指紋情報と予め登録された登録指紋情報とに基づいて、アイコンに向けた指の移動がタッチセンサ及び指紋センサの少なくとも一方により検出されると、アイコンの機能を実行する。
電子機器の操作性が向上する。
電子機器の外観の一例を示す斜視図である。 電子機器の外観の一例を示す背面図である。 電子機器の構成の一例を示すブロック図である。 電子機器の表示の一例を示す図である。 電子機器の表示の一例を示す図である。 電子機器の動作の一例を示すフローチャートである。 電子機器に対する操作の一例を示す図である。 電子機器に対する操作の一例を示す図である。 電子機器に対する操作の一例を示す図である。 電子機器に対する操作の一例を示す図である。 電子機器に対する操作の一例を示す図である。 電子機器に対する操作の一例を示す図である。 電子機器の動作の一例を示すフローチャートである。 電子機器に対する操作の一例を示す図である。 電子機器に対する操作の一例を示す図である。 電子機器の動作の一例を示すフローチャートである。
図1及び図2は電子機器1の外観の一例を示す斜視図及び背面図である。
電子機器1の前面11aには、文字、記号及び図形等の各種情報が表示されるディスプレイ120が配置されている。ディスプレイ120の背面側にはタッチセンサ130が位置している。ユーザは、電子機器1の前面のディスプレイ120を指等で操作することによって、電子機器1に対して各種情報を入力することができる。なお、ユーザは、指以外の操作子、例えば、スタイラスペン等のタッチパネル用ペンでディスプレイ120を操作することによって、電子機器1に対して各種情報を入力することができる。
電子機器1の前面11aの上端部にはレシーバ穴12が位置している。電子機器1の下側の側面11dにはマイク穴14が位置している。電子機器1の前面11aの上端部からは、第1カメラ180が有するレンズが視認可能となっている。図2に示されるように、電子機器1の背面11b、言い換えれば電子機器1の背面の上端部からは、第2カメラ190が有するレンズが視認可能となっている。また、電子機器1の背面11bにはスピーカ穴13が位置している。
電子機器1の前面11aの下端部には、検出対象面15が位置している。電子機器1は、指紋センサ200によって、検出対象面15に対する操作等を検出することが可能である。検出対象面15は検出対象領域であるとも言える。なお、検出対象面15の位置は図1の例に限らず、例えばディスプレイ120上に位置してもよい。
電子機器1は、複数の操作ボタンから成る操作ボタン群140を有する。各操作ボタンは、例えばハードウェアボタンであって、電子機器1の表面に位置する。各操作ボタンは、例えば押しボタンである。操作ボタン群140には電源ボタン141が含まれる。電源ボタン141は、電子機器1の側面11cに位置している。
操作ボタン群140には、電源ボタン141以外の操作ボタンが含まれる。例えば、操作ボタン群140には、ボリュームボタンが含まれる。
図3は電子機器1の電気的構成の一例を主に示すブロック図である。図3に示されるように、電子機器1は、コントローラ100、無線通信部110、ディスプレイ120、タッチセンサ130及び操作ボタン群140を備える。さらに電子機器1は、レシーバ150、スピーカ160、マイク170、第1カメラ180、第2カメラ190、指紋センサ200及び電池220を備える。
コントローラ100は、電子機器1の他の構成要素を制御することによって、電子機器1の動作を統括的に管理することが可能である。コントローラ100は制御装置あるいは制御回路とも言える。コントローラ100は、以下にさらに詳細に述べられるように、種々の機能を実行するための制御及び処理能力を提供するために、少なくとも1つのプロセッサを含む。
種々の実施形態によれば、少なくとも1つのプロセッサは、単一の集積回路(IC)として、又は複数の通信可能に接続された集積回路(IC)及び/又はディスクリート回路(discrete circuits)として実行されてもよい。少なくとも1つのプロセッサは、種々の既知の技術に従って実行されることが可能である。
1つの実施形態において、プロセッサは、例えば、関連するメモリに記憶された指示を実行することによって1以上のデータ計算手続又は処理を実行するように構成された1以上の回路又はユニットを含む。他の実施形態において、プロセッサは、1以上のデータ計算手続き又は処理を実行するように構成されたファームウェア(例えば、ディスクリートロジックコンポーネント)であってもよい。
種々の実施形態によれば、プロセッサは、1以上のプロセッサ、コントローラ、マイクロプロセッサ、マイクロコントローラ、特定用途向け集積回路(ASIC)、デジタル信号処理装置、プログラマブルロジックデバイス、フィールドプログラマブルゲートアレイ、又はこれらのデバイス若しくは構成の任意の組み合わせ、又は他の既知のデバイス及び構成の組み合わせを含み、以下に説明される機能を実行してもよい。
本実施形態では、コントローラ100は、CPU(Central Processing Unit)101、DSP(Digital Signal Processor)102及び記憶部103を備える。記憶部103は、ROM(Read Only Memory)及びRAM(Random Access Memory)等の、CPU101及びDSP102が読み取り可能な非一時的な記録媒体を含む。記憶部103が有するROMは、例えば、不揮発性メモリであるフラッシュROM(フラッシュメモリ)である。記憶部103には、電子機器1を制御するための複数の制御プログラム103a等が記憶されている。コントローラ100の各種機能は、CPU101及びDSP102が記憶部103内の各種制御プログラム103aを実行することによって実現される。
なおコントローラ100は、複数のCPU101を備えてもよい。この場合、コントローラ100は、比較的複雑な処理を行う、処理能力が高いメインCPUと、比較的簡単な処理を行う、処理能力が低いサブCPUとを備えてもよい。またコントローラ100は、DSP102を備えなくてもよいし、複数のDSP102を備えてもよい。また、コントローラ100の全ての機能あるいはコントローラ100の一部の機能は、その機能の実現にソフトウェアが不要なハードウェア回路によって実現されてもよい。
記憶部103は、ROM及びRAM以外の、コンピュータが読み取り可能な非一時的な記録媒体を備えていてもよい。記憶部103は、例えば、小型のハードディスクドライブ及びSSD(Solid State Drive)を備えていてもよい。
記憶部103内の複数の制御プログラム103aには、様々なアプリケーション(つまり、アプリケーションプログラム)が含まれている。記憶部103には、例えば、音声通話及びビデオ通話を行うための電話アプリケーション、電子メールの作成、閲覧及び送受信を行うためのメールアプリケーションが記憶されている。記憶部103には、第1カメラ180及び第2カメラ190を利用して被写体を撮影するためのカメラアプリケーション、記憶部103に記録されている静止画を表示するための画像アプリケーション等が記憶されている。記憶部103には、ユーザが電子機器1に予め登録した指紋情報が記憶されている。記憶部103内の少なくとも一つのアプリケーションは、記憶部103内に予め記憶されているものであってよい。また、記憶部103内の少なくとも一つのアプリケーションは、電子機器1が他の装置からダウンロードして記憶部103内に記憶したものであってよい。
無線通信部110は、アンテナ111を有している。無線通信部110は、アンテナ111を用いて、例えば複数種類の通信方式で無線通信することが可能である。無線通信部110の無線通信は、コントローラ100によって制御される。
無線通信部110は、携帯電話システムの基地局と無線通信することが可能である。無線通信部110は、基地局及びインターネット等のネットワークを通じて、電子機器1とは別の携帯電話機及びウェブサーバ等と通信することが可能である。電子機器1は、他の携帯電話機等と、データ通信、音声通話及びビデオ通話等を行うことが可能である。
また無線通信部110、Wifi等の無線LAN(Local Area Network)を用いて無線通信を行うことが可能である。また無線通信部110は、近距離無線通信を行うことが可能である。例えば、無線通信部110は、Bluetooth(登録商標)に準拠して無線通信することが可能である。無線通信部110は、ZigBee(登録商標)及びNFC(Near Field Communication)の少なくとも一方に準拠して無線通信することが可能であってもよい。
無線通信部110は、アンテナ111で受信した信号に対して増幅処理等の各種処理を行い、処理後の受信信号をコントローラ100に出力する。コントローラ100は、入力される受信信号に対して各種処理を行って、受信信号に含まれる情報を取得する。また、コントローラ100は、情報を含む送信信号を無線通信部110に出力する。無線通信部110は、入力される送信信号に対して増幅処理等の各種処理を行って、処理後の送信信号をアンテナ111から無線送信する。
表示部120は、電子機器1の前面11aに位置するディスプレイ120と、表示パネル122と、バックライト123とを備えている。表示部120は、ディスプレイ120に各種情報を表示することが可能である。表示パネル122は、例えば、液晶表示パネルであって、複数の画素(「画素部」あるいは「画素回路」とも呼ばれる)を備える。表示パネル122は、例えば、液晶、ガラス基板及び偏光板等を備える。表示パネル122は、電子機器1内において、ディスプレイ120と対向している。表示部120に表示される情報は、電子機器1の表面のディスプレイ120に表示される。バックライト123は、表示パネル122の裏側から表示パネル122に対して光を照射する。バックライト123は、例えば、少なくとも一つのLED(発光ダイオード)を備える。表示パネル122は、コントローラ100によって制御されることにより、画素単位で、バックライト123からの光の透過量を制御することが可能である。表示パネル122は、各種情報を表示することが可能である。バックライト123が点灯しているときに表示パネル122の各画素がコントローラ100によって制御されることにより、表示部120は、文字、記号及び図形等の各種情報を表示することが可能である。コントローラ100は、バックライト123を制御することが可能である。コントローラ100は、例えば、バックライト123を点灯させたり、消灯させたりすることが可能である。
なお表示パネル122は、液晶表示パネル以外の表示パネルであってもよい。例えば、表示パネル122は、有機EL(Electroluminescence)パネル等の自発光型の表示パネルであってもよい。この場合には、バックライト123は不要になる。
タッチセンサ130は、ディスプレイ120に対する指等の操作子による操作を検出することが可能である。タッチセンサ130はディスプレイ120に対する操作を検出するセンサであると言える。タッチセンサ130は、例えば、投影型静電容量方式のタッチセンサである。タッチセンサ130は、例えば、ディスプレイ120の裏側に位置する。ユーザが指等の操作子によってディスプレイ120に対して操作を行ったとき、タッチセンサ130は、その操作に応じた電気信号をコントローラ100に入力することが可能である。コントローラ100は、タッチセンサ130からの電気信号(出力信号)に基づいて、ディスプレイ120に対して行われた操作の内容を特定することが可能である。そしてコントローラ100は、特定した操作内容に応じた処理を行うことが可能である。なお、表示パネル122及びタッチセンサ130の代わりに、タッチセンサが組み込まれたインセル型の表示パネルが採用されてもよい。
操作ボタン群140の各操作ボタンは、ユーザによって操作されると、操作されたことを示す操作信号をコントローラ100に出力することが可能である。コントローラ100は、各操作ボタンについて、操作ボタンが操作されたか否かを判断することができる。操作信号が入力されたコントローラ100が他の構成要素を制御することによって、電子機器1では、操作された操作ボタンに割り当てられている機能が実行される。
マイク170は、電子機器1の外部から入力される音を電気的な音信号に変換してコントローラ100に出力することが可能である。電子機器1の外部からの音は、マイク穴14から電子機器1の内部に取り込まれてマイク170に入力される。
スピーカ160は、例えばダイナミックスピーカである。スピーカ160は、コントローラ100からの電気的な音信号を音に変換して出力することが可能である。スピーカ160から出力される音は、スピーカ穴13から外部に出力される。ユーザは、スピーカ穴13から出力される音を、電子機器1から離れた場所でも聞こえることが可能である。
レシーバ150は受話音を出力することが可能である。レシーバ150は例えばダイナミックスピーカである。レシーバ150は、コントローラ100からの電気的な音信号を音に変換して出力することが可能である。レシーバ150から出力される音はレシーバ穴12から外部に出力される。レシーバ穴12から出力される音の音量は、スピーカ穴13から出力される音の音量よりも小さくなっている。ユーザは、レシーバ穴12から出力される音を、レシーバ穴12に耳を近づけることによって聞くことができる。なお、レシーバ150の代わりに、電子機器1の前面部分を振動させる、圧電振動素子等の振動素子を設けてもよい。この場合には、音は、前面部分の振動によりユーザに伝達される。
第1カメラ180は、レンズ及びイメージセンサ等を備えている。第2カメラ190は、レンズ及びイメージセンサ等を備えている。第1カメラ180及び第2カメラ190のそれぞれは、コントローラ100による制御に基づいて被写体を撮影し、撮影した被写体を示す静止画あるいは動画を生成してコントローラ100に出力することが可能である。
第1カメラ180のレンズは、電子機器1の前面11aから視認可能となっている。したがって、第1カメラ180は、電子機器1の前面側(言い換えれば、ディスプレイ120側)に存在する被写体を撮影することが可能である。第1カメラ180はインカメラと呼ばれる。一方で、第2カメラ190のレンズは、電子機器1の背面11bから視認可能となっている。したがって、第2カメラ190は、電子機器1の背面側に存在する被写体を撮影することが可能である。第2カメラ190はアウトカメラと呼ばれる。
指紋センサ200は、検出対象面15に触れる指の指紋情報を読み取ることが可能である。また、指紋センサ200は、検出対象面15に対する、指等の操作子の検出対象面15上の操作を検出することが可能である。例えば、指紋センサ200は、検出対象面15に対する、操作子のスライド操作及びフリック操作を検出することが可能である。スライド操作は、指等の操作子が操作対象面に触れた状態で操作対象面上を移動する操作である。操作対象面とは、指等の操作を検出する面である。操作対象面は検出対象面15を含んでもよい。操作対象面はディスプレイを含んでもよい。フリック操作は、操作対象面を指等の操作子で払う操作である。以後、検出対象面15に対する、操作子の操作対象面上の操作を「移動操作」と呼ぶことがある。
例えば、指紋センサ200は、検出対象面15に対する左右方向及び上下方向の移動操作を検出できるようにしてもよい。検出対象面15は指500が直接触れる部分である。検出対象面15は、指紋センサ200が指紋情報を読み取るために、ユーザの指500が触れる面であり、指紋検出が可能な領域である。指紋センサ200の位置は限られない。例えば、指紋センサ200は検出対象面15の下側に位置していてもよい。また、指紋センサ200の一部分が検出対象面15であってもよい。
指紋センサ200での指紋検出方式は、例えば、静電容量方式である。指の指紋による凹凸によって指紋センサ200と指との間の静電容量が変化することから、指紋センサ200と指との間の静電容量を検出することによって、指紋センサ200は指の指紋情報を読み取ることができる。また、指紋センサ200での指紋検出方式が静電容量方式である場合には、指紋センサ200は、静電容量方式のタッチセンサ130と同様にして、検出対象面15に対する移動操作を検出することができる。
なお、指紋センサ200を、検出対象面15を触れる指の指紋情報を読み取るセンサと、検出対象面15に対する移動操作を検出するセンサの2つの別のセンサで構成してもよい。また、指紋センサ200での指紋検出方式は、静電容量方式以外の方式であってもよい。例えば、指紋センサ200での指紋検出方式は、光学式であってもよい。
電池220は電子機器1の電源を出力することが可能である。電池220は例えば充電式の電池である。電池220から出力される電源は、電子機器1が備えるコントローラ100及び無線通信部110等の各種構成に対して供給される。
なお電子機器1は、タッチセンサ130及び指紋センサ200以外のセンサを備えてもよい。例えば、電子機器1は、加速度センサ、気圧センサ、地磁気センサ、温度センサ、近接センサ、照度センサ及びジャイロセンサの少なくとも一つを備えてもよい。
電子機器1は多数の動作モードを有している。電子機器1の動作モードには、例えば、通常モード、スリープモード及びシャットダウンモードが含まれる。シャットダウンモードでは、電子機器1がシャットダウンし、電子機器1のほとんどの機能が停止する。スリープモードでは、電子機器1における、表示機能を含む一部の機能が停止する。通常モードは、電子機器1がスリープモード及びシャットダウンモード以外で動作している状態を意味する。コントローラ100が、設定すべき動作モードに応じて電子機器1の所定の構成を制御することによって、電子機器1の動作モードが設定される。
スリープモードでは、例えば、表示パネル122、バックライト123、タッチセンサ130、第1カメラ180及び第2カメラ190等を含む電子機器1の一部の構成が動作しない。シャットダウンモードでは、表示パネル122、バックライト123、タッチセンサ130、第1カメラ180及び第2カメラ190等を含む電子機器1のほとんどの構成が動作しない。スリープモードでは、通常モードよりも電子機器1の消費電力が低減する。シャットダウンモードでは、スリープモードよりも電子機器1の消費電力が低減する。
また、スリープモード及びシャットダウンモードでは、ディスプレイ120は非表示状態となる。表示状態とは、電子機器1が意図的にディスプレイ120に表示を行っている状態を意味する。また非表示状態とは、電子機器1が意図的にディスプレイ120に表示を行うことを実行してない状態を意味する。本実施形態では、バックライト123が消灯すると、電子機器1は、意図的にディスプレイ120に表示を行うことができない。したがって、バックライト123が消灯することによって、ディスプレイ120が非表示状態となる。言い換えれば、バックライト123が駆動されていないときにディスプレイ120が非表示状態となる。また、表示パネル122が有機ELパネル等の自発光型の表示パネルである場合には、全画素が発光していない場合にディスプレイ120が非表示状態となる。つまり、表示パネル122の表示領域の全領域が消灯状態の場合にディスプレイ120が非表示状態となる。
通常モードにおいて、電源ボタン141が長時間押されると、通常モードからシャットダウンモードに遷移させるか否かをユーザに確認するための確認画面がディスプレイ120に表示される。ディスプレイ120に確認画面が表示されている状態において、ユーザがディスプレイ120に対して所定の操作を行うと、通常モードからシャットダウンモードに遷移する。
また通常モードにおいて、電子機器1に対して一定時間以上操作が行われなければ、通常モードからスリープモードに遷移する。また、通常モードにおいて、電源ボタン141が短時間押されると、通常モードからスリープモードに遷移する。
一方で、スリープモードにおいて、電源ボタン141が短時間押されたとき、スリープモードから通常モードに遷移する。つまり、スリープモードにおいて、電源ボタン141が短時間押されたとき、電子機器1では、スリープモードに遷移するときに停止された機能が復帰する。本実施形態では、通常モードには、ロックモードが含まれている。スリープモードにおいて、電源ボタン141が短時間押されたとき、スリープモードからロックモードに遷移する。また、スリープモードにおいて、検出対象面15に対して所定の操作が行われたとき、スリープモードから通常モードに遷移する。
なお、以下に説明する、シャットダウンモード及びスリープモード以外の電子機器1の動作モードは、特に説明しなくても通常モードに含まれる。また、単に動作モードと言えば、電子機器1の動作モードを意味する。また、押す位置を変化させずに電子機器1の表面を短時間押す操作を、つまり、押す位置を変化させずに電子機器1の表面を第1の所定時間未満押す操作を「短押し操作」と呼ぶ。また、押す位置を変化させずに電子機器1の表面を長時間押す操作を、つまり、押す位置を変化させずに電子機器1の表面を第2の所定時間(≧第1の所定時間)以上押す操作を「長押し操作」と呼ぶことがある。
通常モードにおいては、様々な画面がディスプレイ120に表示される。ディスプレイ120に表示される画面は、ディスプレイ120に表示される画像であるとも言える。ディスプレイ120には、例えば、ホーム画面400及びロック画面300が表示される。図4はロック画面300の一例を示す図である。図5はホーム画面400の一例を示す図である。
図4に示されるように、ロック画面300には、例えば、現在の時刻と、現在の日付と、現在の曜日とが示される。
通常モードには、記憶部103内の複数のアプリケーションのうち、特定のアプリケーション(例えば通話アプリケーション及びカメラアプリケーション)以外のアプリケーションを、ユーザが電子機器1に実行させることができないロックモードが含まれる。ロックモードは、画面ロックモードとも呼ばれる。ロックモードでは、ユーザは、記憶部103内の複数のアプリケーションのうち、特定のアプリケーション以外の各アプリケーションについて、アプリケーションの実行を電子機器1に指示することができない。ロック画面300は、電子機器1がロックモードであることを通知する画面であって、動作モードがロックモードのときにディスプレイ120に表示される。なお、ロックモードは、記憶部103内の一部又は全部のアプリケーションがユーザによって実行できないモードである。
スリープモードにおいて、電源ボタン141が短押し操作されたとき、スリープモードが解除されて、動作モードはロックモードとなる。ロックモードになると、コントローラ100は、ディスプレイ120にロック画面300を表示する。ディスプレイ120がロック画面300を表示している場合に、ユーザが電子機器1に対して所定の操作を行うと、電子機器1ではロックモードが解除されて、ディスプレイ120の表示はロック画面300から他の画面、例えばホーム画面400(図5参照)に遷移する。以後、通常モードにおいて、ロックモードが解除されている状態を「非ロックモード」と呼ぶことがある。
ホーム画面400には、図5に示されるように、複数の操作ボタン401〜403が示される。操作ボタン401〜403のそれぞれはソフトウェアボタンである。操作ボタン401〜403は、非ロックモードにおいて、ホーム画面400以外の画面にも示される。
操作ボタン401は例えばバックボタンである。バックボタンは、ディスプレイ120の表示を一つ前の表示に切り替えるための操作ボタンである。ユーザが操作ボタン401に対して所定の操作を行うことよって、ディスプレイ120の表示が一つ前の表示に切り替わる。例えば、ユーザが操作ボタン401に対してタップ操作を行うことよって、ディスプレイ120の表示が一つ前の表示に切り替わる。タップ操作は、指が操作対象面を触れてから、その触れた箇所からすぐに離れる操作である。操作ボタン402は例えばホームボタンである。ホームボタンは、ディスプレイ120にホーム画面400を表示させるための操作ボタンである。ユーザが操作ボタン402に対して例えばタップ操作を行うことによって、ディスプレイ120にホーム画面400が表示される。操作ボタン403は、例えば履歴ボタンである。履歴ボタンは、電子機器1で実行されたアプリケーションの履歴をディスプレイ120に表示させるための操作ボタンである。ユーザが操作ボタン403に対して例えばタップ操作を行うことよって、ディスプレイ120には、電子機器1で実行されたアプリケーションの履歴が表示される。
また、ホーム画面400には、記憶部103内のアプリケーションに対応し、対応するアプリケーションの実行を電子機器1に指示するためのアイコン405が示される。図5の例では、ホーム画面400に5個のアイコン405が示されている。アイコンはカメラ、電話、画像、メール、メモのアプリケーションである。ユーザは、アイコン405に対して所定の操作(例えばタップ操作)を行うことによって、アイコン405を選択することができる。コントローラ100は、選択されたアイコン405に対応するアプリケーションを記憶部103から読み出して実行する。つまり、コントローラ100は、タッチセンサ130がアイコン405に対する所定の操作を検出すると、アイコン405に対応するアプリケーションを記憶部103から読み出して実行する。ユーザは、アイコン405を操作することによってアイコン405を選択し、選択したアイコン405に対応するアプリケーションを電子機器1に実行させることができる。例えば、ユーザが、ブラウザに対応するアイコン405をタップ操作すると、電子機器1ではブラウザが実行される。またユーザが、カメラアプリケーションに対応するアイコン405をタップ操作すると、電子機器1ではカメラアプリケーションが実行される。
ホーム画面400は、複数のページで構成されている。図5には、ホーム画面400のあるページが示されている。各ページには、操作ボタン401〜403とアイコン405が示される。ホーム画面400を構成する複数のページは仮想的に左右方向に並べられている。ユーザがディスプレイ120に対して左右方向のフリック操作あるいはスライド操作を行うと、ディスプレイ120には、隣のページが表示される。
動作モードが通常モードである場合、コントローラ100は、指紋センサ200で読み取られる指紋情報に基づいて指紋認証を行うことが可能である。以下に指紋認証の一例について説明する。
コントローラ100は、指紋認証を行う際、指紋センサ200からの出力信号に基づいて、指紋センサ200で読み取られた指紋情報を示す指紋画像を生成する。そして、コントローラ100は、生成した指紋画像から、読み取られた指紋情報の特徴を示す特徴点を抽出する。特徴点としては、例えば、指紋の稜線(凸部)の端点及び分岐点の位置と、稜線の太さ等が使用される。そして、コントローラ100は、抽出した特徴点と、記憶部103に記憶されている基準特徴点とを比較する。基準特徴点は、正規のユーザ(例えば電子機器1の所有者)の指紋情報を示す指紋画像から抽出された特徴点である。コントローラ100は、抽出した特徴点と基準特徴点とを比較した結果、両者が類似する場合には、指紋認証が成功であると判定する。指紋認証はユーザ認証の一種であると考えることができることから、コントローラ100は、抽出した特徴点と基準特徴点とが類似する場合には、指紋センサ200が読み取った指紋情報を有するユーザが正規のユーザであると判定すると言える。一方で、コントローラ100は、抽出した特徴点と基準特徴点とが類似しない場合には、指紋認証に失敗したと判定する。つまり、コントローラ100は、指紋センサ200が読み取った指紋情報を有するユーザが非正規のユーザであると判定する。
通常モードには、ユーザの指紋情報を電子機器1に登録するための指紋登録モードが含まれる。電子機器1は、非ロックモードにおいて、ディスプレイ120に対して所定の操作が行われると、指紋登録モードで動作する。指紋登録モードにおいて、正規のユーザが自身の手の指(詳細には指の腹)を検出対象面15の上に置くと、指紋センサ200は指の指紋情報を読み取る。コントローラ100は、指紋センサ200からの出力信号に基づいて、指紋センサ200で読み取られた指紋情報を示す指紋画像を生成する。そして、コントローラ100は、生成した指紋画像から特徴点を抽出し、抽出した特徴点を基準特徴点として記憶部103に記憶する。正規のユーザの指紋の特徴を示す基準特徴点が記憶部103に記憶される。つまり、正規のユーザの指紋情報が電子機器1に登録される。このように、電子機器1に予め登録された指紋情報を登録指紋情報という。
なお記憶部103には、複数の基準特徴点が記憶されることもある。この場合には、コントローラ100は、抽出した特徴点と、記憶部103に記憶されている複数の基準特徴点のそれぞれとを比較する。コントローラ100は、複数の基準特徴点の中に、抽出した特徴点と類似するものがある場合には、指紋認証が成功であると判定する。一方で、コントローラ100は、複数の基準特徴点の中に、抽出した特徴点と類似するものが無い場合には、指紋認証に失敗したと判定する。
一実施形態において、電子機器1は、読み取られた指紋情報と予め登録された登録指紋情報とに基づいて、アイコン405に向けた指500の移動が指紋センサ200およびタッチセンサ130の少なくとも一方により検出されると、アイコン405の機能を実行する。図6及は電子機器1がアイコン405の機能を実行させる際の電子機器1の動作の一例を示すフローチャートである。
ステップs1において、コントローラ100は、ホーム画面400をディスプレイ120に表示する。ステップs2において、コントローラ100は、指紋センサ200の出力信号に基づいて、指紋センサが指500の指紋を検出すると、ステップs3に進む。図7は、ホーム画面400が表示されている場合に、検出対象面15に指500が触れている図である。
ステップs3において、コントローラ100は、指紋センサ200で読み取られた指紋情報に基づいて指紋認証を行う。ステップs3の後、コントローラ100は、ステップs4において、指紋認証に成功したか否かを判定する。指紋認証に成功したと判定するとステップs5に進む。
指紋認証が失敗した場合には、コントローラ100は、指紋認証が失敗したことを通知する情報をホーム画面400に表示してもよい。指紋認証が失敗した場合には指紋認証が失敗したことを通知する情報が表示されることから、ユーザは指紋認証が失敗したことを容易に知ることができる。
ステップs5において、コントローラ100はアイコン405方向への指500が移動したか否かを検出する。図8は検出対象面15に触れた後、指500でアイコン405に向けて指500を連続的に移動させている図である。
ステップs5においてアイコン405に向けた指500の移動が検出されなかったと判定されると、コントローラ100はステップs6においてアイコン405の機能を実行しない。
このように、本実施形態では、アイコン405に向けた指500の移動が検出されなかった場合には、アイコン405の機能を実行されないことから、ディスプレイ120はホーム画面400の表示が維持される。
指500の移動は、指紋センサ200及びタッチセンサ130の少なくとも一方が検出すればよい。つまり、指紋センサ200で指紋情報を読み取った後、指紋センサ200が指500の移動方向を検出してもよい。指紋センサ200で指紋情報を読み取った後、指紋センサ200及びタッチセンサ130が指500の移動を検出してもよい。指紋センサ200で指紋情報を読み取った後、タッチセンサ130が指500の移動を検出してもよい。指紋センサ200及びタッチセンサ130で指500の移動を検出する場合、指紋センサ200とタッチセンサ130との間に指500の動きが検出されない部分(例えば、電子機器1の前面11a)を含んでいてもよい。
指500の移動にはフリック及びスライド及びスワイプ及びドラッグを含む。スワイプとは操作対象面を指500等の操作子でなぞる操作である。ドラッグとは操作対象面上で選択したものを指500等の操作子で移動させる操作である。
ステップs6において、コントローラ100は指500の移動方向に応じたアイコン405の機能を実行する。正規のユーザは、自身の指500を検出対象面15に触れ、かつアイコン405方向へ指500を移動させるといった一連の操作によって、電子機器1にアイコン405の機能を実行させることができる。その結果、電子機器1の操作性が向上する。
図6では、コントローラ100により、指紋認証が成功したかの判断がアイコン405に向けた指500の移動が検出されたかの判断より前にされているが、どちらの判断が先にされてもよい。つまり、コントローラ100により、アイコン405に向けた指500の移動が検出されたかの判断の後に指紋認証が成功したかの判断がされ、指500の移動が向けられたアイコン405の機能が実行されてもよい 。
一実施形態において、電子機器1は、検出対象面15に指が触れている間、タッチセンサ130の操作を制限する。図9は検出対象面15及びディスプレイ120に指500が触れている図である。検出対象面15に触れているとは指紋センサ200によって、指500の接触が検出されていることをいう。図9の例では、指紋センサ200付近にディスプレイ120が配置されている。コントローラ100は検出対象面15に触れられている間、ディスプレイ120上の操作を制限する。ディスプレイ120上の操作を制限するとは、例えばアイコン405に指500が接触したとしても、コントローラ100がアイコン405の機能を実行しない状態であることをいう。図9の例では、指500が検出対象面15と操作ボタン402に触れているが、操作ボタン402の機能は実行されない。
指紋認証を行っているとき、ディスプレイ120上に指500が触れてしまったとしても誤作動を防止することができる。その結果、電子機器1の操作性が向上する。
一実施形態において、電子機器1は、読み取られた指紋情報に基づいて、ディスプレイ120に表示させるアイコン405の並び順を変更する。
図10の(B)は、指紋センサ200が指紋情報を読み取る前である図10の(A)の状態から指紋センサ200が指紋情報を読み取った後、ディスプレイ120上に表示されているアイコン405の並び順を変更した図である。アイコン405の並び順をユーザが決定する場合、ユーザは例えば、ディスプレイ120を操作することによって、電子機器1に対してディスプレイ120上に表示されるアイコン405の並び順を指定することができる。アイコン405の並び順を電子機器1が決定する場合には、例えば、コントローラ100は、実行頻度が高いアプリケーションに対応するアイコン405を検出対象面15に近い順に並べる。
アイコン405の並び順は読み取られる指紋情報で異なってもよい。例えば、一人のユーザの異なる指500の指紋情報ごとにアイコン405の並び順が異なってもよい。他には複数の異なるユーザの指500の指紋情報ごとにアイコン405の並び順が異なってもよい。
アイコン405の並び順の変更方法は読み取られる指紋情報で異なってもよい。例えば、一人のユーザの異なる指500の指紋情報ごとにアイコン405の並び順の変更方法が異なってもよい。他には複数の異なるユーザの指500の指紋情報ごとにアイコン405の並び順の変更方法が異なってもよい。
アイコン405が指紋情報に基づいて、整列されるので機能を実行したいアイコン405を見つけやすくなる。その結果、電子機器1の操作性が向上する。
一実施形態において、電子機器1は、読み取られた指紋情報に基づいて、指紋センサ200付近にアイコン405を表示させる。図11の(D)は、指紋センサ200が指紋情報を読み取る前である図11の(C)の状態から指紋センサ200が指紋情報を読み取った後、検出対象面15付近にアイコン405を表示している図である。検出対象面15付近に表示するアイコン405は予めユーザが登録してもよい。また、ユーザがよく使用するアイコン405を検出対象面15付近に表示してもよい。
検出対象面15付近に表示されるアイコン405は読み取られる指紋情報で異なってもよい。例えば、一人のユーザの異なる指500の指紋情報ごとに、検出対象面15付近に表示させるアイコン405が異なってもよい。複数の異なるユーザの指500の指紋情報ごとに、検出対象面15付近に表示させるアイコン405が異なってもよい。
検出対象面15付近に表示されるアイコン405の数をユーザが決定する場合、ユーザは例えば、ディスプレイ120を操作することによって、電子機器1に対して検出対象面15付近に表示されるアイコン405の数を指定することができる。電子機器1が決定する場合には、例えば、コントローラ100は、実行頻度がより高いアプリケーションに対応するアイコン405の上位3つを検出対象面15付近に表示する。検出対象面15付近に表示されるアイコンの並び順は円弧状に表示してもよい。
ユーザが実行したいアイコン405の方向に指500の移動を行う際に、アイコン405の選択ミスを軽減することができる。また、ユーザが指500をアイコン405まで移動させる場合に指500の移動距離を少なくすることができる。その結果、電子機器1の操作性が向上する。
図12は電子機器1が、指紋センサ200からアイコン405に向けた指500の移動が検出され、指500の接触がアイコン405上で検出されなくなると、アイコン405の機能を実行することを示す図である。本実施形態では、指紋センサ200からアイコン405まで指500を移動させるとき、タッチセンサ130により指500の接触がディスプレイ120上で検出されなくなったときに触れていたアイコン405の機能を実行する。
また、一実施例において、電子機器1は、アイコン405に指500が所定の時間触れると、アイコン405機能を実行する。所定の時間は、例えば、上述した長押し操作と判定する時間と同じ、又は、より長くすればよい。
所定の時間を、ユーザが指定する場合、ユーザは例えば、ディスプレイ120を操作することによって、電子機器1に対してアイコン405の機能を実行するために指500でアイコン405に触れる時間を指定することができる。電子機器1が決定する場合には、例えば、コントローラ100は約2秒間、アイコン405に触れることでアイコン405の機能を実行する。
実行したいアイコン405の選択ミスを低減することができる。その結果、電子機器1の操作性が向上する。
図13はロックモードにおいて、電子機器1がアイコン405を実行させる際の電子機器1の動作の一例を示すフローチャートである。
一実施形態において、電子機器1は、ロックモードにおいて、読み取られた指紋情報と予め登録された登録指紋情報とに基づいて、ロックモードを解除する。図13は電子機器の操作方法の一例を示す図である。ステップs7において、電子機器1は、ロックモードであることを示す。ステップs8において、指紋センサ200の出力信号に基づいて、検出対象面15が指500で触れられていると判定すると、ステップs9を実行する。図14は、ロックモードの場合に、検出対象面15に指500が触れている図である。
ステップs9では、コントローラ100は、指紋センサ200で読み取った指紋情報に基づいて指紋認証を行う。ステップs9の後、コントローラ100は、ステップs10において、指紋認証に成功したか否かを判定する。
ステップs10において、指紋認証に成功したと判定されると、コントローラ100は、ステップs11において、ロックモードを解除して非ロックモードに設定する。そして、ステップs12において、コントローラ100は、図7に示されるように、ディスプレイ120にアイコン405を表示する。
ステップs10において指紋認証に失敗したと判定されると、コントローラ100はステップs11においてロックモードを解除しない。
このように、本実施形態では、指紋認証に失敗した場合には、指500の移動が向けられたアイコン405の機能を実行されないことから、ディスプレイ120はロック画面300の表示が維持される。
なお、指紋認証が失敗した場合には指紋認証が失敗したことを通知する情報がホーム画面400に示されてもよい。指紋認証が失敗した場合には指紋認証が失敗したことを通知する情報が表示されることから、ユーザは指紋認証が失敗したことを容易に知ることができる。
ステップs13において、アイコン405が表示された後、アイコン405方向への指500が移動したかを検出する(図8)。
ステップs13においてアイコン405に向けた指500の移動が検出されなかったと判定されると、コントローラ100はステップs14においてアイコン405の機能を実行しない。
このように、本実施形態では、アイコン405に向けた指500の移動が検出されなかった場合には、アイコン405の機能を実行されないことから、ディスプレイ120はホーム画面400の表示が維持される。
ステップs14ではロックモードにおいて、指紋認証に成功したと判定し、かつアイコン405に向けた指500の移動が検出された場合、コントローラ100は、指500の移動方向に応じたアイコン405の機能を実行することができる。
アイコン405に指紋情報が登録されている場合に電子機器1のロックモードを解除し、かつ指500を離すことなくアイコン405の機能を実行することができる。その結果、電子機器1の操作性が向上する。
一実施形態において、電子機器1は、ロックモードを解除するとともに、アイコン405の内、読み取られた指紋情報に対応したアイコン405のみを表示する。図15は電子機器1がロックモードの状態で指紋センサ200により、指紋情報が読み取られた後に読み取られた指紋情報に対応したアイコン405のみを表示した非ロックモードに遷移したことを示す図である。
ステップs10において指紋認証が成功し、ロックモードを解除して非ロックモードに設定するとともに読み取られた指紋情報に対応したアイコン405のみをディスプレイ120上に表示する。読み取られた指紋情報に対応したアイコン405のみをディスプレイ120上に表示するとは、読み取られた指紋情報とアイコン405ごとに登録された指紋情報とに基づいて表示されるアイコン405が選択されることを含む。また、読み取られた指紋情報に対応したアイコン405のみをディスプレイ120上に表示するとは、読み取られた指紋情報とロックモードを解除に使用される登録指紋情報とに基づいて表示されるアイコン405が変更されることを含む。
読み取られた指紋情報で表示されるアイコン405が変わることにおいて、例えば、一人のユーザの異なる指500の指紋情報ごとに表示されるアイコン405が異なってもよい。複数の異なるユーザの指500の指紋情報ごとに表示されるアイコン405が異なってもよい。
異なるユーザ間で電子機器1を共有する際に自身の指紋情報でのみ表示されるアイコン405の機能の実行を他のユーザに対して制限させることができる。その結果、電子機器1の操作性が向上する。
一実施形態において、アイコン405は第1指紋情報が登録された第1アイコンおよび第1指紋情報と異なる第2指紋情報が登録された第2アイコンを含む。電子機器1は読み取られた指紋情報が第1指紋情報と一致し、かつ指500の移動が第1アイコンに向けられたとき、第1アイコンの機能を実行する。コントローラ100は読み取られた指紋情報が第1指紋情報と一致し、かつ指500の移動が第2アイコンに向けられたとき、第2アイコンの機能を実行しない。図16は、登録されている指紋情報が異なる二つ以上のアイコン405の内の一つを実行させる際の電子機器1の動作の一例を示すフローチャートである。
ステップs15において、コントローラ100は、ディスプレイ120にホーム画面400を表示する。ステップs16において、指紋センサ200の出力信号に基づいて、検出対象面15が指500で触れられていると判定すると、ステップs17を実行する。図7は、ホーム画面400が表示されている場合に、検出対象面15に指500が触れている図である。
ステップs17では、コントローラ100は、指紋センサ200で読み取られる指紋情報に基づいて指紋認証を行う。ステップs17の後、コントローラ100は、ステップs18において、アイコン405に向けた指500の移動が検出されたか否かを判定する。
コントローラ100は、指紋情報を読み取った後の指500の移動を、指紋センサ200及びタッチセンサ130の少なくとも一方を用いて検出すればよい。つまり、コントローラ100は、指紋センサ200が指紋情報を読み取った後、指紋センサ200のみを用いて指500の移動方向を検出してもよい。例えば、指紋センサ200が静電容量方式である場合、コントローラ100は、指紋センサ200が指紋情報を読み取った後、指500が検出対象面15上を移動したことによる静電容量の変化を指紋センサ200に検出させてよい。コントローラ100は、指500が検出対象面15上を移動したことによる静電容量の変化に基づいて、指500の移動方向を検出してよい。
コントローラ100は、指紋センサ200が指紋情報を読み取った後、タッチセンサ130のみを用いて、指紋情報を読み取った後の指500の移動方向を検出してもよい。例えば、タッチセンサ130が静電容量方式である場合、コントローラ100は、指紋センサ200が指紋情報を読み取ってから所定の時間内にタッチセンサ130が静電容量の変化を検出してよい。コントローラ100は、指紋情報を読み取ってから所定の時間内にタッチセンサ130が静電容量の変化を検出すると、当該静電容量の変化を、指紋情報を読み取った後の指500の移動に起因するものとみなしてよい。すなわち、コントローラ100は、指紋情報を読み取ってから所定の時間内にタッチセンサ130が検出した静電容量の変化に基づいて、指500の移動方向を検出してよい。
コントローラ100は、指紋センサ200が指紋情報を読み取った後、指紋センサ200及びタッチセンサ130の両方を用いて、指紋情報を読み取った後の指500の移動方向を検出してもよい。例えば、指紋センサ200及びタッチセンサ130が静電容量方式である場合、コントローラ100は、指紋センサ200が指紋情報を読み取った後、指500が検出対象面15上を移動したことによる静電容量の変化(以下、第1変化ともいう。)を検出してよい。コントローラ100は、第1変化を検出した後、所定の時間内にタッチセンサ130が静電容量の変化(以下、第2変化ともいう。)を検出すると、第1変化及び第2変化が、指紋情報を読み取った後の指500の移動に起因するものとみなしてよい。すなわち、コントローラ100は、第1変化及び第2変化に基づいて、指500の移動方向を検出してよい。
指500の移動にはフリック及びスライド及びスワイプ及びドラッグを含む。
ステップs19において、アイコン405に向けた指500の移動が検出された後、読み取られた指紋情報と指500の移動を向けられたアイコン405に登録された指紋情報との認証に成功したかを判定する。
ステップs18の後、コントローラ100は、ステップs19において、読み取られた指紋情報と指500の移動を向けられたアイコン405に登録された指紋情報との認証に成功したか否かを判定する。ステップs19において指紋認証に失敗したと判定されると、コントローラ100はステップs20において指500の移動が向けられたアイコン405の機能を実行しない。
このように、本実施形態では、指紋認証に失敗した場合には、指500の移動が向けられたアイコン405の機能を実行されないことから、ディスプレイ120はホーム画面400の表示が維持される。
なお、指紋認証が失敗した場合には指紋認証が失敗したことを通知する情報がホーム画面400に示されてもよい。指紋認証が失敗した場合には指紋認証が失敗したことを通知する情報が表示されることから、ユーザは指紋認証が失敗したことを容易に知ることができる。
アイコン405に向けた指500の移動が検出され、かつ読み取られた指紋情報と指500の移動を向けられたアイコン405に登録された指紋情報との認証に成功した場合、コントローラ100は指500の移動が向けられたアイコン405の機能を実行することができる。
異なるユーザ間で電子機器1を共有する際に自身の指紋情報が登録されたアイコン405の機能の実行を他のユーザに対して制限させることができる。その結果、電子機器1の操作性が向上する。
ステップs17の後、コントローラ100は、ステップs18において、アイコン405に向けた指500の移動が検出されたかを判定する。ステップs18においてアイコン405に向けた指500の移動が検出されなかったと判定されると、コントローラ100はステップs6においてアイコン405の機能を実行しない。
このように、本実施形態では、アイコン405に向けた指500の移動が検出されなかった場合には、アイコン405の機能を実行されないことから、ディスプレイ120はホーム画面400の表示が維持される。
上記の例では、電子機器1は、スマートフォン等の携帯電話機であったが、他の種類の電子機器であってもよい。電子機器1は、例えば、タブレット端末又はパーソナルコンピュータ又はウェアラブル機器であってもよい。電子機器1として採用されるウェアラブル機器は、リストバンド型あるいは腕時計型等の腕に装着するタイプであってもよいし、ヘッドバンド型あるいはメガネ型等の頭に装着するタイプであってもよいし、服型等の体に装着するタイプであってもよい。
以上のように、電子機器1は詳細に説明されたが、上記した説明は、全ての局面において例示であって、この開示がそれに限定されるものではない。また、上述した各種の例は、相互に矛盾しない限り組み合わせて適用可能である。そして、例示されていない無数の例が、この開示の範囲から外れることなく想定され得るものと解される。
1 電子機器
12 レシーバ穴
13 スピーカ穴
14 マイク穴
15 検出対象面
100 コントローラ
120 ディスプレイ
130 タッチセンサ
141 電源ボタン
180 第1カメラ
190 第2カメラ
200 指紋センサ
300 ロック画面
400 ホーム画面
401、402、403 操作ボタン
405 アイコン
500 指

Claims (9)

  1. アイコンを表示するディスプレイと、
    指紋情報を読み取る指紋センサと、
    指の接触を検出するタッチセンサと、
    前記指紋センサから前記アイコンに向けた指の移動が検出されると、読み取られた前記指紋情報と予め登録された登録指紋情報とに基づいて、前記アイコンの機能を実行するコントローラと、
    を備え
    前記コントローラは、前記指紋センサに指が触れると、前記ディスプレイに表示させる前記アイコンの並び順を第1の並び順から第2の並び順に動的に変更する、電子機器。
  2. 前記コントローラは、指紋センサ上に指が触れている間、前記ディスプレイの操作を制限する請求項1記載の電子機器。
  3. 前記コントローラは、前記指紋センサに指が触れると、前記指紋センサ付近に前記アイコンを表示させる請求項1または請求項2に記載の電子機器。
  4. 前記コントローラは、前記指紋センサから前記アイコンに向けた指の移動が検出され、前記指の接触が前記アイコン上で検出されなくなると、前記機能を実行する請求項1乃至請求項のいずれか一つに記載の電子機器。
  5. 前記コントローラは、前記アイコンに前記指が所定の時間触れると、前記機能を実行する請求項記載の電子機器。
  6. 前記コントローラは、ロックモードにおいて、読み取られた前記指紋情報と予め登録された登録指紋情報とに基づいて、ロックモードを解除する請求項1乃至請求項のいずれ
    か一つに記載の電子機器。
  7. 前記コントローラは、前記ロックモードを解除するとともに、前記アイコンの内、読み取られた前記指紋情報に対応したアイコンのみを表示させる請求項記載の電子機器。
  8. 前記アイコンは第1指紋情報が登録された第1アイコンおよび第1指紋情報と異なる第2指紋情報が登録された第2アイコンを含み、
    前記コントローラは読み取られた前記指紋情報が前記第1指紋情報と一致し、かつ前記指の移動が前記第1アイコンに向けられたとき、前記第1アイコンの機能を実行するが、 前記コントローラは読み取られた前記指紋情報が前記第1指紋情報と一致し、かつ前記指の移動が前記第2アイコンに向けられたとき、前記第2アイコンの機能を実行しない請求項1乃至請求項のいずれか一つに記載の電子機器。
  9. 指紋認証センサと、
    アイコンを第1の並び順で表示するタッチスクリーンディスプレイと
    を備え、
    前記指紋認証センサが指紋を検出した場合、アイコンの表示を前記第1の並び順から第2の並び順に動的に変更する電子機器。
JP2017209436A 2017-10-30 2017-10-30 電子機器 Active JP6616379B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017209436A JP6616379B2 (ja) 2017-10-30 2017-10-30 電子機器
US16/171,898 US20190129609A1 (en) 2017-10-30 2018-10-26 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017209436A JP6616379B2 (ja) 2017-10-30 2017-10-30 電子機器

Publications (2)

Publication Number Publication Date
JP2019082823A JP2019082823A (ja) 2019-05-30
JP6616379B2 true JP6616379B2 (ja) 2019-12-04

Family

ID=66242921

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017209436A Active JP6616379B2 (ja) 2017-10-30 2017-10-30 電子機器

Country Status (2)

Country Link
US (1) US20190129609A1 (ja)
JP (1) JP6616379B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109814972B (zh) * 2019-01-28 2021-04-09 维沃移动通信有限公司 界面显示方法及终端

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005001611A2 (en) * 2003-05-30 2005-01-06 Privaris, Inc. A system and methods for assignation and use of media content subscription service privileges
KR101549557B1 (ko) * 2009-03-10 2015-09-03 엘지전자 주식회사 휴대 단말기 및 그 제어방법
US8593418B2 (en) * 2010-08-08 2013-11-26 Qualcomm Incorporated Method and system for adjusting display content
US9753560B2 (en) * 2011-12-30 2017-09-05 Sony Corporation Input processing apparatus
US9326147B2 (en) * 2012-03-06 2016-04-26 Nec Casio Mobile Communications, Ltd. Information processing device, information processing method, and information processing program
JP7061465B2 (ja) * 2015-10-13 2022-04-28 華為技術有限公司 指紋認識を用いる操作方法、装置、およびモバイル端末
JP6711649B2 (ja) * 2016-03-01 2020-06-17 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
JP6428693B2 (ja) * 2016-03-28 2018-11-28 京セラドキュメントソリューションズ株式会社 表示操作装置及び操作指示受付プログラム
TWI706566B (zh) * 2016-08-01 2020-10-01 晶元光電股份有限公司 一種高功率半導體元件
US9940498B2 (en) * 2016-09-09 2018-04-10 Motorola Mobility Llc Low power application access using fingerprint sensor authentication
KR102603269B1 (ko) * 2016-10-24 2023-11-17 삼성전자주식회사 압력 센서를 포함하는 전자 장치
US10599823B2 (en) * 2016-11-18 2020-03-24 Invensense, Inc. Systems and methods for coordinating applications with a user interface
KR102356812B1 (ko) * 2017-05-19 2022-01-28 엘지전자 주식회사 지문 감지가 가능한 전자장치

Also Published As

Publication number Publication date
JP2019082823A (ja) 2019-05-30
US20190129609A1 (en) 2019-05-02

Similar Documents

Publication Publication Date Title
US10627902B2 (en) Devices, methods, and graphical user interfaces for a wearable electronic ring computing device
US9733752B2 (en) Mobile terminal and control method thereof
US9973685B2 (en) Mobile terminal and method of controlling the same
JP6140773B2 (ja) 電子機器及び電子機器の動作方法
US9280263B2 (en) Mobile terminal and control method thereof
KR101698098B1 (ko) 이동 단말기 및 그것의 제어방법
US20190130087A1 (en) Electronic apparatus, control device, and non-transitory computer readable storage medium
JP6940353B2 (ja) 電子機器
US9983722B2 (en) Mobile terminal and control method thereof
JP6987687B2 (ja) 電子機器、制御プログラム及び電子機器の動作方法
KR20130115174A (ko) 디지털 베젤을 제공하기 위한 장치 및 방법
WO2016121876A1 (ja) 電子機器、制御方法、及び制御プログラム
KR20120009851A (ko) 이동 단말기에서 보호 모드 실행방법 및 그 방법을 이용한 이동 단말기
CN110858860B (zh) 响应于指纹传感器上手指旋转的电子设备控制及相应方法
US11354031B2 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method for controlling a scroll speed of a display screen
JP6616379B2 (ja) 電子機器
US10909346B2 (en) Electronic apparatus and control method
JP2019144724A (ja) 電子機器及び制御方法
JP7034856B2 (ja) 電子機器、制御プログラム及び表示制御方法
KR20160073679A (ko) 이동 단말기 및 그 제어 방법
KR20150102418A (ko) 이동 단말기 및 이의 제어 방법
KR20220045098A (ko) 휴대형 단말 장치 및 그 제어 방법
JP2015186182A (ja) 携帯端末及び制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180222

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20180426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191107

R150 Certificate of patent or registration of utility model

Ref document number: 6616379

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150